JP2015084089A - Microlens array for solid state image pickup element, solid state image pickup element, imaging device and lens unit - Google Patents

Microlens array for solid state image pickup element, solid state image pickup element, imaging device and lens unit Download PDF

Info

Publication number
JP2015084089A
JP2015084089A JP2014181543A JP2014181543A JP2015084089A JP 2015084089 A JP2015084089 A JP 2015084089A JP 2014181543 A JP2014181543 A JP 2014181543A JP 2014181543 A JP2014181543 A JP 2014181543A JP 2015084089 A JP2015084089 A JP 2015084089A
Authority
JP
Japan
Prior art keywords
microlens
image
imaging device
microlens array
solid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014181543A
Other languages
Japanese (ja)
Inventor
光吉 小林
Mitsuyoshi Kobayashi
光吉 小林
梨紗子 上野
Risako Ueno
梨紗子 上野
和拓 鈴木
Kazuhiro Suzuki
和拓 鈴木
浩大 本多
Hironaga Honda
浩大 本多
鎬楠 権
Honam Kwon
鎬楠 権
舟木 英之
Hideyuki Funaki
英之 舟木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2014181543A priority Critical patent/JP2015084089A/en
Priority to US14/481,999 priority patent/US9596402B2/en
Publication of JP2015084089A publication Critical patent/JP2015084089A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Automatic Focus Adjustment (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable a center coordinate of a microlens to be highly accurately detected.SOLUTION: A microlens array 12 for a solid state image pickup element comprises: a plurality of microlenses that is provided in a photograph microlens area 130, and forms a two-dimensional image; and a state detection part 121. The state detection part 121 is configured to be provided in an outer peripheral part of the photograph microlens 120 area. The state detection part 121 is configured to generate an image in a smaller diameter than an image formed by the microlens 120 in an image formation plane where an image by the plurality of microlenses 120 is formed.

Description

本発明は、固体撮像素子用のマイクロレンズアレイ、固体撮像素子、撮像装置およびレンズユニットに関する。   The present invention relates to a microlens array for a solid-state imaging device, a solid-state imaging device, an imaging apparatus, and a lens unit.

撮像光学系の構造として、マイクロレンズアレイを画素上方に配置し、各マイクロレンズ下部には複数の画素を配置し、メインレンズの像をさらにマイクロレンズアレイを用いて画素上に結像する構造が提案されている。この構造により、画素ブロック単位で視差を有する画像群を取得することが可能であり、この視差により、被写体の距離推定や距離情報を元にしたリフォーカス処理等が可能となる。この、メインレンズの像をさらにマイクロレンズアレイを用いて結像する光学構成を、リフォーカス光学系と呼ぶ。   As a structure of the imaging optical system, a microlens array is arranged above the pixels, a plurality of pixels are arranged below each microlens, and a main lens image is further formed on the pixels using the microlens array. Proposed. With this structure, it is possible to acquire a group of images having parallax in units of pixel blocks, and this parallax enables subject distance estimation, refocus processing based on distance information, and the like. This optical configuration that forms an image of the main lens using a microlens array is called a refocus optical system.

リフォーカス光学系を用いた構成によれば、各マイクロレンズの画像は、隣接する画像に同一の被写体が位置をずらされて撮像された画像となる。そのため、各マクロとレンズの画像をずらして重ね合わせることで、画像内に指定した任意の距離に焦点を合わせたリフォーカス画像を再構成することができる。   According to the configuration using the refocus optical system, the image of each microlens is an image obtained by shifting the position of the same subject to the adjacent image. Therefore, a refocus image focused on an arbitrary distance designated in the image can be reconstructed by shifting and superimposing the macro and lens images.

T. Georgiev and A. Lumsdaine, COMPUTER GRAPHICS forum, Volume 29 (2010), number 6 pp. 1955-1968, "Reducing Plenoptic Camera Artifacts"T. Georgiev and A. Lumsdaine, COMPUTER GRAPHICS forum, Volume 29 (2010), number 6 pp. 1955-1968, "Reducing Plenoptic Camera Artifacts"

リフォーカス光学系においては、画像処理において各マイクロレンズの画像をずらして重ね合わせることから、マイクロレンズの中心座標の精度が重要である。中心座標の誤差が大きい場合、再構成画像における解像度や距離精度の劣化などが生じる原因となる。   In the refocus optical system, the image of each microlens is shifted and overlapped in image processing, so the accuracy of the center coordinates of the microlens is important. When the error of the center coordinates is large, it causes deterioration of resolution and distance accuracy in the reconstructed image.

本発明が解決しようとする課題は、マイクロレンズの中心座標をより高精度に検出可能な固体撮像素子用のマイクロレンズアレイ、固体撮像素子、撮像装置およびレンズユニットを提供することにある。   The problem to be solved by the present invention is to provide a microlens array, a solid-state imaging device, an imaging apparatus, and a lens unit for a solid-state imaging device capable of detecting the center coordinates of the microlens with higher accuracy.

実施形態の固体撮像素子用のマイクロレンズアレイは、撮像マイクロレンズ領域に設けられ、2次元像を結像する複数のマイクロレンズと、状態検出部とを備える。状態検出部は、撮像マイクロレンズ領域の外周部に設けられ、マイクロレンズの結像面においてマイクロレンズが結像する像よりも小さい径の像を生成する。   The microlens array for the solid-state imaging device of the embodiment includes a plurality of microlenses that are provided in the imaging microlens region and form a two-dimensional image, and a state detection unit. The state detection unit is provided on the outer peripheral portion of the imaging microlens region, and generates an image having a smaller diameter than the image formed by the microlens on the imaging surface of the microlens.

図1は、第1の実施形態に適用可能な撮像装置の一例の構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of an example of an imaging apparatus applicable to the first embodiment. 図2は、第1の実施形態に適用可能な光学系の一例の構成を示す図である。FIG. 2 is a diagram illustrating a configuration of an example of an optical system applicable to the first embodiment. 図3は、第1の実施形態に係るRAW画像の例を模式的に示す図である。FIG. 3 is a diagram schematically illustrating an example of a RAW image according to the first embodiment. 図4は、第1の実施形態に適用可能な光学系の別の例の構成を示す図である。FIG. 4 is a diagram illustrating a configuration of another example of an optical system applicable to the first embodiment. 図5は、第1の実施形態に係るリフォーカス処理を説明するための図である。FIG. 5 is a diagram for explaining the refocus processing according to the first embodiment. 図6は、第1の実施形態に係る、マイクロレンズ像の画質の劣化を説明するための図である。FIG. 6 is a diagram for explaining the degradation of the image quality of the microlens image according to the first embodiment. 図7は、第1の実施形態に係る、マイクロレンズ像の画質の劣化を説明するための図である。FIG. 7 is a diagram for explaining the deterioration of the image quality of the microlens image according to the first embodiment. 図8は、第1の実施形態に係る、各マイクロレンズ像の中心座標について説明するための図である。FIG. 8 is a diagram for explaining the center coordinates of each microlens image according to the first embodiment. 図9は、第1の実施形態に係る、マイクロレンズアレイの傾きについて説明するための図である。FIG. 9 is a diagram for explaining the inclination of the microlens array according to the first embodiment. 図10は、第1の実施形態に係る、マイクロレンズアレイの傾きが無い場合の中心座標の例を示す図である。FIG. 10 is a diagram illustrating an example of center coordinates when there is no inclination of the microlens array according to the first embodiment. 図11は、第1の実施形態に係る、マイクロレンズアレイに傾きがある場合の中心座標の例を示す図である。FIG. 11 is a diagram illustrating an example of center coordinates when the microlens array has an inclination according to the first embodiment. 図12は、第1の実施形態に係る、状態検出部が設けられたマイクロレンズアレイの一例の構成を示す図である。FIG. 12 is a diagram illustrating a configuration of an example of a microlens array provided with a state detection unit according to the first embodiment. 図13は、第1の実施形態に係る、状態検出用マイクロレンズをマイクロレンズと同じ面に設けた場合の例を示す図である。FIG. 13 is a diagram illustrating an example when the state detection microlens according to the first embodiment is provided on the same surface as the microlens. 図14は、第1の実施形態に係る、状態検出用マイクロレンズをマイクロレンズと異なる面に設けた場合の例を示す図である。FIG. 14 is a diagram illustrating an example where the state detection microlens according to the first embodiment is provided on a different surface from the microlens. 図15は、第1の実施形態に係る状態検出用マイクロレンズを設けたマイクロレンズアレイによって撮像素子で得られる像の例を示す図である。FIG. 15 is a diagram illustrating an example of an image obtained by the imaging element by the microlens array provided with the state detection microlens according to the first embodiment. 図16は、第1の実施形態に係るマイクロレンズ像の中心画像群の生成処理の例を示すフローチャートである。FIG. 16 is a flowchart illustrating an example of processing for generating a central image group of microlens images according to the first embodiment. 図17は、第1の実施形態に係る、各マイクロレンズ像の輝度値カーブの頂点の輝度値を抽出することを説明するための図である。FIG. 17 is a diagram for explaining the extraction of the luminance value at the apex of the luminance value curve of each microlens image according to the first embodiment. 図18は、第1の実施形態に係る、理想モデルにおけるマイクロレンズ像の結像位置の例を示す図である。FIG. 18 is a diagram illustrating an example of the imaging position of the microlens image in the ideal model according to the first embodiment. 図19は、第1の実施形態に係る、マイクロレンズアレイが傾いている場合のマイクロレンズ像の結像位置の例を示す図である。FIG. 19 is a diagram illustrating an example of an imaging position of a microlens image when the microlens array is tilted according to the first embodiment. 図20は、第1の実施形態に係る、マイクロレンズアレイの傾き成分を取り除いた状態を説明するための図である。FIG. 20 is a diagram for explaining a state in which the tilt component of the microlens array is removed according to the first embodiment. 図21は、第1の実施形態の第1の変形例に係る撮像素子の受光面の例を示す図である。FIG. 21 is a diagram illustrating an example of the light receiving surface of the imaging element according to the first modification of the first embodiment. 図22は、第1の実施形態の第2の変形例によるマイクロレンズアレイの一例の構成を示す図である。FIG. 22 is a diagram illustrating a configuration of an example of a microlens array according to a second modification of the first embodiment. 図23は、第1の実施形態の第3の変形例によるマイクロレンズアレイの一例の構成を示す図である。FIG. 23 is a diagram illustrating a configuration of an example of a microlens array according to a third modification of the first embodiment. 図24は、第2の実施形態に係る、マイクロレンズアレイ基盤における光の屈折による作用を説明するための図である。FIG. 24 is a diagram for explaining the action due to light refraction in the microlens array substrate according to the second embodiment. 図25は、第2の実施形態に係るマイクロレンズ像の中心画像群の生成処理の例を示すフローチャートである。FIG. 25 is a flowchart illustrating an example of processing for generating a central image group of microlens images according to the second embodiment.

(第1の実施形態)
以下、実施形態に係る固体撮像素子用のマイクロレンズアレイ、固体撮像素子、撮像装置およびレンズユニットについて説明する。図1は、第1の実施形態に適用可能な撮像装置の一例の構成を示す。図1において、撮像装置1は、レンズユニットとしてのカメラモジュール10と、ISP(Image Signal Processor)とを有する。
(First embodiment)
Hereinafter, a microlens array, a solid-state imaging device, an imaging apparatus, and a lens unit for a solid-state imaging device according to embodiments will be described. FIG. 1 shows an exemplary configuration of an imaging apparatus applicable to the first embodiment. In FIG. 1, an imaging apparatus 1 includes a camera module 10 as a lens unit and an ISP (Image Signal Processor).

カメラモジュール10は、メインレンズ11を含む結像光学系と、マイクロレンズアレイ12および撮像素子13を含む固体撮像素子と、撮像部14と、信号処理部15とを有する。結像光学系は、1以上のレンズを含み、被写体からの光をマイクロレンズアレイ12および撮像素子13に導く。結像光学系に含まれるレンズが複数存在する場合は、それぞれのレンズを合成した仮想レンズをメインレンズ11と考える。すなわち、2枚以上のレンズが存在する光学系の場合、光学系全体の焦点距離は、全てのレンズの光の屈折を反映した値となる。この値を合成焦点距離と呼ぶ。例えばレンズが2枚であり、それぞれのレンズの焦点距離がf1、f2で表され間隔dの距離で配置されている場合、合成焦点距離fは、1/f=(1/f1)+(1/f2)−(d/(f1×f2))と表すことができる。このように、複数のレンズで構成された光学系は1つの仮想レンズで置き換えることができる。従って、以降の説明では、結像光学系に含まれるレンズが1つの場合は、当該レンズがメインレンズ11となり、結像光学系に含まれるレンズが2つ以上の場合は、上述のように求めた仮想レンズがメインレンズ11となる。 The camera module 10 includes an imaging optical system that includes a main lens 11, a solid-state imaging device that includes a microlens array 12 and an imaging device 13, an imaging unit 14, and a signal processing unit 15. The imaging optical system includes one or more lenses and guides light from the subject to the microlens array 12 and the image sensor 13. When there are a plurality of lenses included in the imaging optical system, a virtual lens obtained by combining the respective lenses is considered as the main lens 11. That is, in the case of an optical system having two or more lenses, the focal length of the entire optical system is a value reflecting the refraction of light of all the lenses. This value is called a composite focal length. For example, when there are two lenses, and the focal lengths of the respective lenses are represented by f 1 and f 2 and arranged at a distance d, the combined focal length f is 1 / f = (1 / f 1 ). + (1 / f 2 ) − (d / (f 1 × f 2 )). Thus, an optical system composed of a plurality of lenses can be replaced with one virtual lens. Therefore, in the following description, when there is one lens included in the imaging optical system, the lens is the main lens 11, and when there are two or more lenses included in the imaging optical system, it is obtained as described above. The virtual lens becomes the main lens 11.

撮像素子13は、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージャを用い、それぞれ受光した光を光電変換により電気信号に変換して出力する複数の画素からなる画素アレイを含む。   The imaging element 13 includes, for example, a pixel array including a plurality of pixels that use a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) imager to convert the received light into an electrical signal by photoelectric conversion and output it.

マイクロレンズアレイ12は、所定の規則で配列された複数のマイクロレンズ120、120、…を含む。この、マイクロレンズアレイ12に含まれる複数のマイクロレンズ120、120、…による領域を、撮像マイクロレンズ領域と呼ぶ。マイクロレンズアレイ12は、メインレンズ11によって結像面に結像する光線群を、各マイクロレンズ120、120、…に対応する撮像素子13上の複数の画素を含む画素ブロックに対して縮小最結像させる。   The microlens array 12 includes a plurality of microlenses 120, 120,... Arranged in a predetermined rule. The area formed by the plurality of microlenses 120, 120,... Included in the microlens array 12 is referred to as an imaging microlens area. The microlens array 12 reduces the group of rays focused on the imaging plane by the main lens 11 with respect to a pixel block including a plurality of pixels on the image sensor 13 corresponding to each microlens 120, 120,. Let me image.

また、詳細は後述するが、第1の実施形態では、マイクロレンズアレイ12は、複数のマイクロレンズ120、120、…によるマイクロレンズ領域の外周部に、マイクロレンズアレイ12の状態を検出するための状態検出部が設けられる。第1の実施形態では、この状態検出部により取得された情報に基づき、各マイクロレンズ120、120、…からの光により撮像素子13で撮像された各マイクロレンズ像の中心座標の補正を行う。   Although details will be described later, in the first embodiment, the microlens array 12 is for detecting the state of the microlens array 12 at the outer periphery of the microlens region formed by the plurality of microlenses 120, 120,. A state detection unit is provided. In the first embodiment, based on the information acquired by the state detection unit, the center coordinates of each microlens image captured by the image sensor 13 with light from each microlens 120, 120,... Are corrected.

なお、カメラモジュール10は、例えばメインレンズ11を含む撮像光学系と、その他の部分とを分離して構成し、メインレンズ11を交換可能とすることができる。これに限らず、カメラモジュール10は、メインレンズ11を含む撮像光学系とマイクロレンズアレイ12とを1の筐体に収めたユニットとして構成することも可能である。この場合には、撮像光学系とマイクロレンズアレイ12とを含むユニットが交換可能とされる。   Note that the camera module 10 can be configured such that, for example, the imaging optical system including the main lens 11 and other parts are separated, and the main lens 11 can be replaced. Not limited to this, the camera module 10 can be configured as a unit in which the imaging optical system including the main lens 11 and the microlens array 12 are housed in one housing. In this case, the unit including the imaging optical system and the microlens array 12 can be replaced.

撮像部14は、撮像素子13の各画素を駆動するための駆動回路を含む。駆動回路は、例えば駆動する画素を垂直方向に、水平ライン(行)単位で順次選択する垂直選択回路と、列単位で順次選択する水平選択回路と、これら垂直選択回路および水平選択回路を各種パルスにて駆動するタイミングジェネレータとを含む。撮像部14は、垂直選択回路および水平選択回路で選択された画素から、受光した光を光電変換した電荷を読み出し、読み出した電荷を電気信号に変換して出力する。   The imaging unit 14 includes a drive circuit for driving each pixel of the image sensor 13. The driving circuit, for example, a vertical selection circuit that sequentially selects pixels to be driven in the vertical direction in units of horizontal lines (rows), a horizontal selection circuit that sequentially selects in units of columns, and the vertical selection circuit and the horizontal selection circuit are subjected to various pulses. And a timing generator driven by The imaging unit 14 reads the charge obtained by photoelectrically converting the received light from the pixels selected by the vertical selection circuit and the horizontal selection circuit, converts the read charge into an electrical signal, and outputs the electrical signal.

信号処理部15は、撮像部14から出力されたアナログ信号による電気信号に対してゲイン調整処理、ノイズ除去処理および増幅処理などを施す。また、信号処理部15は、A/D変換回路を有し、これら各処理を施された信号をディジタル信号に変換し、RAW画像の画像信号として出力する。   The signal processing unit 15 performs gain adjustment processing, noise removal processing, amplification processing, and the like on the electrical signal that is an analog signal output from the imaging unit 14. Further, the signal processing unit 15 includes an A / D conversion circuit, converts the signal subjected to these processes into a digital signal, and outputs the digital signal as an image signal of a RAW image.

ISP20は、カメラモジュールI/F21と、メモリ22と、画像処理部23と、出力I/F24と、補正処理部25と、ROM(Read Only Memory)26とを有する。カメラモジュールI/F21は、カメラモジュール10に対する信号のインターフェイスである。カメラモジュール10の信号処理部15から出力されたRAW画像の画像信号(以下、RAW画像と呼ぶ)は、カメラモジュールI/F21を介して、例えばフレームメモリであるメモリ22に格納される。   The ISP 20 includes a camera module I / F 21, a memory 22, an image processing unit 23, an output I / F 24, a correction processing unit 25, and a ROM (Read Only Memory) 26. The camera module I / F 21 is a signal interface to the camera module 10. The image signal of the RAW image (hereinafter referred to as RAW image) output from the signal processing unit 15 of the camera module 10 is stored in the memory 22 that is a frame memory, for example, via the camera module I / F 21.

画像処理部23は、メモリ22に格納されたRAW画像のうち、マイクロレンズアレイ12の撮像マイクロレンズ領域に含まれる各マイクロレンズからの光に基づくRAW画像に基づき、後述するようにして、各マイクロレンズに対応する領域の画像を拡大し、位置をずらして重ね合わせるリフォーカス処理を行うことにより、再構成したリフォーカス画像を得る。このリフォーカス画像は、出力I/F24から出力され、図示されない表示デバイスに表示したり、外部の記憶媒体に記憶したりする。   As will be described later, the image processing unit 23 selects each micro image based on the RAW image based on the light from each micro lens included in the imaging micro lens region of the micro lens array 12 among the RAW images stored in the memory 22. A refocused image is obtained by enlarging an image corresponding to the lens and performing a refocusing process in which the positions are shifted and superimposed. This refocus image is output from the output I / F 24 and displayed on a display device (not shown) or stored in an external storage medium.

なお、メモリ22に格納されたRAW画像を外部の記憶媒体に記憶させることもできる。この場合には、外部の記憶媒体から読み出したRAW画像を、例えばカメラモジュールI/F21を介してメモリ22に格納し、画像処理部23でリフォーカス処理を行うことで、所望のタイミングでリフォーカス画像を得ることができる。   Note that the RAW image stored in the memory 22 can be stored in an external storage medium. In this case, a RAW image read from an external storage medium is stored in the memory 22 via, for example, the camera module I / F 21, and refocus processing is performed by the image processing unit 23, thereby refocusing at a desired timing. An image can be obtained.

補正処理部25は、メモリ22に格納されたRAW画像に基づき、マイクロレンズアレイ12における各マイクロレンズ120、120、…による各マイクロレンズ像の中心位置を補正するための補正係数を算出する。例えば、補正処理部25は、当該RAW画像に含まれる、マイクロレンズアレイ12の状態検出部からの光による画像に基づき、この補正係数を算出する。補正処理部25は、マイクロレンズアレイ12の撮像マイクロレンズ領域に含まれる各マイクロレンズからの光に基づくRAW画像をさらに用いて、この補正係数を算出してもよい。   Based on the RAW image stored in the memory 22, the correction processing unit 25 calculates a correction coefficient for correcting the center position of each microlens image by each microlens 120, 120,. For example, the correction processing unit 25 calculates the correction coefficient based on the image by the light from the state detection unit of the microlens array 12 included in the RAW image. The correction processing unit 25 may further calculate this correction coefficient by further using a RAW image based on the light from each microlens included in the imaging microlens region of the microlens array 12.

補正処理部25は、算出した補正係数を用いて各マイクロレンズ120、120、…による像の中心位置の座標を補正し、補正された中心位置座標群をROM26に格納する。画像処理部23は、上述したリフォーカス処理を、このROM26に格納される、補正された中心位置座標群を用いて実行する。   The correction processing unit 25 corrects the coordinates of the center position of the image by each of the microlenses 120, 120,... Using the calculated correction coefficient, and stores the corrected center position coordinate group in the ROM 26. The image processing unit 23 executes the above-described refocus processing using the corrected center position coordinate group stored in the ROM 26.

(第1の実施形態に適用可能な光学系)
次に、第1の実施形態に適用可能な光学系について説明する。ここで、光学系は、メインレンズ11、マイクロレンズアレイ12および撮像素子13を含む。図2は、第1の実施形態に適用可能な光学系の一例の構成を示す。図2において、距離Aは、メインレンズ11と被写体との間の距離、距離Bは、メインレンズ11による結像距離をそれぞれ示す。また、距離Cは、メインレンズ11の結像面とマイクロレンズアレイ12の各マイクロレンズ120との間の最短距離、距離Dは、マイクロレンズアレイ12と撮像素子13との間の距離をそれぞれ示す。メインレンズ11は、焦点距離fを有し、各マイクロレンズ120、120、…は、焦点距離gを有する。以下、説明のため、光軸に対して被写体側を前方、撮像素子13側を後方と定義する。
(Optical system applicable to the first embodiment)
Next, an optical system applicable to the first embodiment will be described. Here, the optical system includes a main lens 11, a microlens array 12, and an image sensor 13. FIG. 2 shows an example of the configuration of an optical system applicable to the first embodiment. In FIG. 2, the distance A indicates the distance between the main lens 11 and the subject, and the distance B indicates the imaging distance by the main lens 11. Further, the distance C indicates the shortest distance between the imaging surface of the main lens 11 and each microlens 120 of the microlens array 12, and the distance D indicates the distance between the microlens array 12 and the image sensor 13. . The main lens 11 has a focal length f, and each microlens 120, 120,... Has a focal length g. Hereinafter, for the sake of explanation, the subject side is defined as the front side and the imaging element 13 side as the rear side with respect to the optical axis.

光学系内において、マイクロレンズアレイ12は、メインレンズ11からの光線を各マイクロレンズ120、120、…により各視点の像として撮像素子13上に結像させる。   In the optical system, the microlens array 12 forms a light beam from the main lens 11 on the image sensor 13 as an image of each viewpoint by each microlens 120, 120,.

図3は、第1の実施形態に係る、メインレンズ11による結像面を撮像素子13の後方側に位置させた場合の、撮像素子13の出力に基づくRAW画像の例を模式的に示す。マイクロレンズアレイ12の各マイクロレンズ120、120、…により撮像素子13の受光面に結像されたマイクロレンズ像30、30、…がマイクロレンズの配列に対応して配置された画像300が、RAW画像として信号処理部15から出力される。図3によれば、同一の被写体(例えば数字の「3」)が、各マイクロレンズ120、120、…の配列に応じて、各マイクロレンズ像30において所定量ずつずれて撮像されていることが分かる。   FIG. 3 schematically illustrates an example of a RAW image based on the output of the image sensor 13 when the imaging plane formed by the main lens 11 is positioned on the rear side of the image sensor 13 according to the first embodiment. An image 300 in which the microlens images 30, 30,... Formed on the light receiving surface of the image sensor 13 by the microlenses 120, 120,. The image is output from the signal processing unit 15 as an image. According to FIG. 3, the same subject (for example, the number “3”) is captured with a predetermined amount shifted in each microlens image 30 according to the arrangement of the microlenses 120, 120,. I understand.

ここで、各マイクロレンズ120、120、…による各マイクロレンズ像30、30、…は、撮像素子13上に重なり無く結像されることが望ましい。また、図3では、マイクロレンズアレイ12において各マイクロレンズ120、120、…が六方格子点上に配置されているが、各マイクロレンズ120、120、…の配列は、この例に限定されず、他の配列でもよい。例えば、各マイクロレンズ120、120、…は、正方格子上に配置されていてもよい。   Here, it is desirable that the micro lens images 30, 30,... By the micro lenses 120, 120,. 3, the microlenses 120, 120,... Are arranged on hexagonal lattice points in the microlens array 12, but the arrangement of the microlenses 120, 120,... Is not limited to this example. Other arrangements are possible. For example, each microlens 120, 120,... May be arranged on a square lattice.

なお、図2の例では、マイクロレンズアレイ12がメインレンズ11の結像面より後方に設置されている。これはこの例に限定されず、例えば図4に例示されるように、マイクロレンズアレイ12がメインレンズ11の結像面より前方に設置されていてもよい。以下では、光学系は、図2に示す、マイクロレンズアレイ12がメインレンズ11の結像面より後方に設置されているものとする。   In the example of FIG. 2, the microlens array 12 is installed behind the image plane of the main lens 11. This is not limited to this example. For example, as illustrated in FIG. 4, the microlens array 12 may be installed in front of the imaging surface of the main lens 11. In the following description, it is assumed that in the optical system, the microlens array 12 shown in FIG. 2 is installed behind the image plane of the main lens 11.

次に、リフォーカス画像作成の原理について、上述した図2を参照しながら説明する。図2において、距離B+距離Cを距離Eとする。距離Eは、メインレンズ11の位置が固定であれば、定数となる。ここでは、距離Eおよび距離Dがそれぞれ定数であるものとして説明する。   Next, the principle of creating a refocus image will be described with reference to FIG. In FIG. 2, distance B + distance C is distance E. The distance E is a constant if the position of the main lens 11 is fixed. Here, description will be made assuming that the distance E and the distance D are constants.

メインレンズ11において、被写体までの距離Aと、被写体からの光が結像する距離Bと、焦点距離fとの間には、レンズの公式に従い式(1)に示す関係が成り立つ。同様に、マイクロレンズアレイ12の各マイクロレンズ120、120、…についても、レンズの公式に従い式(2)に示す関係が成り立つ。
In the main lens 11, the relationship expressed by the equation (1) is established between the distance A to the subject, the distance B at which light from the subject forms an image, and the focal length f. Similarly, for each of the microlenses 120, 120,... Of the microlens array 12, the relationship shown in Expression (2) is established according to the lens formula.

メインレンズ11と被写体との間の距離Aが変化した場合、式(1)のレンズの公式における距離Bの値が変化する。光学系の位置関係から、上述したように距離B+距離C=距離Eであり、距離Eが固定であるため、距離Bの変化に伴い距離Cの値も変化する。各マイクロレンズ120、120、…について、上述の式(2)のレンズの公式を用いると、距離Cの変化に伴って、さらに距離Dの値も変化することが分かる。   When the distance A between the main lens 11 and the subject changes, the value of the distance B in the lens formula of Expression (1) changes. From the positional relationship of the optical system, as described above, distance B + distance C = distance E, and distance E is fixed, so that the value of distance C changes as distance B changes. For each of the microlenses 120, 120,..., It can be seen that the value of the distance D also changes with the change of the distance C when the lens formula of the above formula (2) is used.

この結果、各マイクロレンズ120、120、…を通って結像する像は、メインレンズ11の仮想イメージである結像面を倍率N(N=D/C)に縮小した画像が得られる。この倍率Nは、次式(3)のように表すことができる。
As a result, an image formed through each of the microlenses 120, 120,... Is obtained by reducing the imaging surface, which is a virtual image of the main lens 11, to a magnification N (N = D / C). This magnification N can be expressed as the following equation (3).

式(3)により、各マイクロレンズ120、120、…による撮像素子13上の像の縮小率は、メインレンズ11から被写体までの距離Aに依存することが分かる。したがって、元の2次元画像を再構成するためには、図5(a)に示される、例えば各マイクロレンズ120、120、…による、それぞれ中心座標が座標311、312および313であるマイクロレンズ像301、302および303を、図5(b)に示すようにそれぞれ倍率1/Nで拡大して拡大マイクロレンズ像301’、302’および303’を作成する。そして、各拡大マイクロレンズ像301’、302’および303’の重ね合わせ合成を行うことで、距離Aにピントが合った再構成画像を得ることができる。 From equation (3), it can be seen that the reduction ratio of the image on the image sensor 13 by the microlenses 120, 120,... Depends on the distance A from the main lens 11 to the subject. Therefore, in order to reconstruct the original two-dimensional image, the center coordinates of the microlenses 120, 120,... Shown in FIG. 5A are coordinates 31 1 , 31 2 and 31 3 , respectively. The microlens images 30 1 , 30 2, and 30 3 are enlarged at a magnification of 1 / N as shown in FIG. 5B to create enlarged microlens images 30 1 ′, 30 2 ′, and 30 3 ′. A reconstructed image in which the distance A is in focus can be obtained by superimposing and combining the magnified microlens images 30 1 ′, 30 2 ′, and 30 3 ′.

重ね合わせ時には、距離A以外の部分については各拡大マイクロレンズ像301’、302’および303’がずれながら重なることになり、ぼけの様な効果を得ることができる。このように撮影したマイクロレンズ像から任意の位置にピントを合わせる処理をリフォーカス処理と呼ぶ。 At the time of superimposing, the enlarged microlens images 30 1 ′, 30 2 ′ and 30 3 ′ are overlapped with each other except for the distance A, and a blur-like effect can be obtained. The process of focusing on an arbitrary position from the photographed microlens image is called a refocus process.

図5に例示するように、マイクロレンズアレイ12からの画像を撮像して得られたRAW画像をリフォーカス処理により再構成して2次元画像を得る過程では、例えば各マイクロレンズ像301、302および303を、それぞれの中心座標311、312および313を基準に拡大する。そのため、例えば各中心座標311、312および313の精度が重要となる。 As illustrated in FIG. 5, in the process of obtaining a two-dimensional image by reconstructing a RAW image obtained by capturing an image from the microlens array 12 by refocusing, for example, each microlens image 30 1 , 30. 2 and 30 3 are enlarged with reference to the respective center coordinates 31 1 , 31 2 and 31 3 . Therefore, for example, the accuracy of each of the center coordinates 31 1 , 31 2 and 31 3 is important.

各マイクロレンズ像30の中心座標を検出する方法としては、撮像素子13で撮像したRAW画像からマイクロレンズ像30を画像マッチングなどで抽出し、抽出された各マイクロレンズ像30について、中心座標を求める方法がある。この画像マッチングを用いる方法では、マイクロレンズ像30の画質により、検出される中心座標に誤差が生じてしまう可能性がある。例えば、図6に例示されるように、マイクロレンズ120上にキズや汚れ、塵などの異常部分40が存在する場合、そのマイクロレンズ120によるマイクロレンズ像30が不鮮明になったり、変形してしまったりする。この場合は、そのマイクロレンズ120のマイクロレンズ像30による画像マッチングが難しくなり、結果として得られる中心座標の検出誤差が大きくなる。   As a method of detecting the center coordinate of each microlens image 30, the microlens image 30 is extracted from the RAW image captured by the image sensor 13 by image matching or the like, and the center coordinate is obtained for each extracted microlens image 30. There is a way. In this method using image matching, an error may occur in the detected center coordinates depending on the image quality of the microlens image 30. For example, as illustrated in FIG. 6, when an abnormal portion 40 such as a scratch, dirt, or dust exists on the microlens 120, the microlens image 30 by the microlens 120 becomes unclear or deformed. I'll be relaxed. In this case, image matching by the microlens image 30 of the microlens 120 becomes difficult, and the resultant center coordinate detection error becomes large.

さらに、マイクロレンズアレイ12において、メインレンズ11の光軸から離れた、像高の高い領域においては、ケラレなどの影響により、図7に例示されるように、各マイクロレンズ像30、30、…自体が変形してしまう可能性がある。そのため、ケラレにより変形したマイクロレンズ像30”の中心座標の検出位置と、設計上のマイクロレンズ120の中心位置とがずれてしまい、検出誤差が大きくなってしまうおそれがある。また、像高の高い領域では、像高の低い領域に対して、マイクロレンズアレイ120に対するメインレンズ11からの光の入射角がより大きくなり、マイクロレンズアレイ120の基盤が持つ屈折率の影響を受け易くなる。   Further, in the microlens array 12, in a region with a high image height away from the optical axis of the main lens 11, each microlens image 30, 30,... It may be deformed itself. For this reason, the detection position of the center coordinate of the microlens image 30 ″ deformed by the vignetting is shifted from the designed center position of the microlens 120, and the detection error may be increased. In the high region, the incident angle of the light from the main lens 11 with respect to the microlens array 120 is larger than the region with a low image height, and is easily affected by the refractive index of the base of the microlens array 120.

これらの、マイクロレンズ像30の中心座標の誤差の増大要因を回避するため、第1の実施形態においては、マイクロレンズアレイ12の外周部に、マイクロレンズアレイ12の状態を検出する状態検出部を設ける。そして、この状態検出部を用いて取得できる情報に基づき、各マイクロレンズ像30、30、…の中心座標を生成する。   In order to avoid these factors that increase the error in the center coordinates of the microlens image 30, in the first embodiment, a state detection unit that detects the state of the microlens array 12 is provided on the outer periphery of the microlens array 12. Provide. And the center coordinate of each microlens image 30,30, ... is produced | generated based on the information which can be acquired using this state detection part.

図8を用いて、各マイクロレンズ像30、30、…の中心座標について説明する。マイクロレンズアレイ12において、各マイクロレンズ120、120、…が六方格子の格子点に配置されているものとする。この場合、各マイクロレンズ120、120、…による各マイクロレンズ像30、30、…の配列は、例えばマイクロレンズアレイ12の中心のマイクロレンズ像300を基準として、六方格子点に周期的に各マイクロレンズ像30、30、…を配置したものとなる。 The center coordinates of each microlens image 30, 30,... Will be described with reference to FIG. In the microlens array 12, each microlens 120, 120,... Is arranged at a lattice point of a hexagonal lattice. In this case, the microlenses 120, 120, ... each microlens images 30, 30 by, ... sequences, for example on the basis of the micro-lens image 30 0 of the center of the microlens array 12, periodically each in a hexagonal lattice point The microlens images 30, 30,... Are arranged.

各マイクロレンズ像30の配列に関するパラメータは、基準となるマイクロレンズ像300の中心座標と、互いに隣接するマイクロレンズ像30の中心座標間の距離Lと、初期配列角θとを少なくとも含む。初期配列角θは、各マイクロレンズ120が六方格子の格子点に配置される場合、例えばあるマイクロレンズ像30を含む互いに隣接する3のマイクロレンズ像30において、当該あるマイクロレンズ像30の中心座標(例えば点P)から、他の2のマイクロレンズ像30の中心座標(例えば点Qおよび点R)を見込む角∠QPRである。 Parameters relating to the arrangement of the micro-lens image 30 includes a central coordinate of the microlens image 30 0 as a reference, the distance L between the center coordinates of the microlens image 30 adjacent to each other, and an initial sequence angle θ least. When each microlens 120 is arranged at a lattice point of a hexagonal lattice, for example, in the three adjacent microlens images 30 including a certain microlens image 30, the initial array angle θ is the center coordinate of the certain microlens image 30. It is an angle QPR that anticipates the center coordinates (for example, point Q and point R) of the other two microlens images 30 from (for example, point P).

後述するマイクロレンズアレイ12が構成されるマイクロレンズアレイ基盤の屈折率や、マイクロレンズアレイ12の撮像素子13の受光面に対する傾きなどを考慮しない、理想的な状態による理想モデルを考える。この場合、マイクロレンズアレイ12上の各マイクロレンズ像30、30、…の中心座標は、上述の各パラメータ(基準となるマイクロレンズ像300の中心座標、距離Lおよび初期配列角θ)により計算できる。 Consider an ideal model in an ideal state that does not take into account the refractive index of a microlens array substrate constituting a microlens array 12 to be described later, the inclination of the microlens array 12 with respect to the light receiving surface of the image sensor 13, and the like. Calculating this case, each microlens images 30, 30 on the microlens array 12, ... are center coordinates, the parameters mentioned above (the center coordinates of the microlens image 30 0 as a reference, the distance L and the initial sequence angle theta) it can.

ここで、マイクロレンズアレイ12は、製造時の誤差などにより、撮像素子13の受光面に対して傾いている場合がある。このような場合、RAW画像上の各マイクロレンズ像30、30、…の各中心座標を精度良く求めるためには、理想モデルに基づき求めた各マイクロレンズ像30、30、…の中心座標に対し、このマイクロレンズアレイ12の傾きに対応した補正を行うことが必要となる。   Here, the microlens array 12 may be inclined with respect to the light receiving surface of the image sensor 13 due to an error in manufacturing. In such a case, in order to accurately obtain the center coordinates of the microlens images 30, 30,... On the RAW image, the center coordinates of the microlens images 30, 30,. It is necessary to perform correction corresponding to the inclination of the microlens array 12.

図9を用いて、マイクロレンズアレイ12の傾きについて説明する。図9に示されるような、xyz軸で表現される3次元空間において、xy平面が撮像素子13の受光面に対応するものとする。この場合、マイクロレンズアレイ12の傾きは、xy平面上の回転を示す角度φと、z軸方向の回転を示す角度ψとを用いて記述できる。   The inclination of the microlens array 12 will be described with reference to FIG. In the three-dimensional space represented by the xyz axis as shown in FIG. 9, the xy plane corresponds to the light receiving surface of the image sensor 13. In this case, the inclination of the microlens array 12 can be described using an angle φ indicating rotation on the xy plane and an angle ψ indicating rotation in the z-axis direction.

図10は、マイクロレンズアレイ12に傾きが無い(φ=0°,ψ=0°)場合の、メインレンズ11の光軸に対する各マイクロレンズ像30、30、…の中心座標の例を示す。また、図11は、マイクロレンズアレイ12にz軸方向に傾きがある場合の、メインレンズ11の光軸に対する各マイクロレンズ像30、30、…の中心座標の例を示す。なお、図10および図11において、マイクロレンズアレイ12の基盤による屈折は無視している。また、以下では、マイクロレンズアレイ12は、対角線が交わる点を中心座標として、基準となるマイクロレンズ120が配置されるものとする。   FIG. 10 shows an example of the center coordinates of the microlens images 30, 30,... With respect to the optical axis of the main lens 11 when the microlens array 12 has no inclination (φ = 0 °, ψ = 0 °). 11 shows an example of the center coordinates of each microlens image 30, 30,... With respect to the optical axis of the main lens 11 when the microlens array 12 is inclined in the z-axis direction. In FIGS. 10 and 11, refraction by the base of the microlens array 12 is ignored. In the following description, it is assumed that the microlens array 12 is provided with a reference microlens 120 with the point where the diagonal lines intersect as the center coordinates.

また、図10(b)および図11は、上述した図2に対応する図10(a)の部分100を拡大して示す。図10(b)および図11において、メインレンズ11の光軸がマイクロレンズアレイ12の中央のマイクロレンズ120cを通って撮像素子13の受光面に到達するものとする。   FIGS. 10B and 11 show an enlarged portion 100 of FIG. 10A corresponding to FIG. 2 described above. 10B and 11, it is assumed that the optical axis of the main lens 11 reaches the light receiving surface of the image sensor 13 through the micro lens 120 c at the center of the micro lens array 12.

図10(b)において、マイクロレンズ120cの座標を座標c(0,0)とする。また、マイクロレンズ120cに対して図10(b)上で3つ右のマイクロレンズ120b1の中心座標を座標b1(Lx,0)とし、3つ左のマイクロレンズ120a1の中心座標を座標a1(−Lx,0)とする。なお、値Lxは、上述のマイクロレンズ間距離Lの整数倍の値である。図10(b)の例では、値Lx=3×Lとなる。 In FIG. 10B, the coordinates of the microlens 120c are set as coordinates c (0, 0). Further, FIG. 10 (b) on the three right center coordinates of the microlens 120b 1 and the coordinate b 1 (L x, 0) with respect to the micro lens 120c, the three left center coordinates of the microlens 120a 1 of The coordinates are a 1 (−L x , 0). The value L x is a value that is an integral multiple of the distance L between the microlenses described above. In the example of FIG. 10B, the value L x = 3 × L.

節点(0,C)は、被写体までの距離が距離Aである場合の、メインレンズ11の結像点であり、メインレンズ11を通った光束が集まる節点である。節点(0,C)から見た座標a1(−Lx,0)および座標b1(Lx,0)の光軸に対する角度が、それぞれ角度αおよびβとする。マイクロレンズアレイ12に傾きが無いこの例では、角度α=角度βとなる。 The node (0, C) is an image forming point of the main lens 11 when the distance to the subject is the distance A, and is a node where the light fluxes passing through the main lens 11 gather. Assume that the angles of the coordinates a 1 (−L x , 0) and the coordinates b 1 (L x , 0) viewed from the node (0, C) with respect to the optical axis are angles α and β, respectively. In this example in which the microlens array 12 has no inclination, the angle α = the angle β.

この場合において、マイクロレンズ120a1による撮像素子13上でのマイクロレンズ像30の中心座標は、座標a2(−(C+D)Lx/C,−D)であり、マイクロレンズ120b1による撮像素子13上でのマイクロレンズ像30の中心座標は、座標b2((C+D)Lx/C,−D)である。したがって、光軸から各マイクロレンズ120a1および120b1までの距離pおよびqが等しく、また、各マイクロレンズ120による各マイクロレンズ像30間の距離rも、互いに等しい。 In this case, the center coordinates of the microlens image 30 on the image sensor 13 by the microlens 120a 1 are coordinates a 2 (− (C + D) L x / C, −D), and the image sensor by the microlens 120b 1 is used. The center coordinates of the microlens image 30 on 13 are coordinates b 2 ((C + D) L x / C, −D). Therefore, the distances p and q from the optical axis to the microlenses 120a 1 and 120b 1 are equal, and the distances r between the microlens images 30 by the microlenses 120 are also equal to each other.

一方、図11に例示されるように、マイクロレンズアレイ12が角度ψだけ傾いている場合には、光軸から各マイクロレンズ120a1および120b1までの距離pおよびqは、q>pとなり等距離ではなくなる。したがって、各マイクロレンズ120による撮像素子13上での各マイクロレンズ像30間の距離rは、光軸の左右で異なったものとなる。 On the other hand, as illustrated in FIG. 11, when the microlens array 12 is inclined by an angle ψ, the distances p and q from the optical axis to the microlenses 120a 1 and 120b 1 are q> p, etc. It is no longer a distance. Therefore, the distance r between each microlens image 30 on the image sensor 13 by each microlens 120 differs depending on the right and left of the optical axis.

このときの、傾いてない場合のマイクロレンズアレイ12の平面上に投影した、各マイクロレンズ120a1および120b1の座標は、それぞれ座標a1(−Lxcosψ,−Lxsinψ)および座標b1(Lxcosψ,Lxsinψ)となる。また、各マイクロレンズ120a1および120b1によるマイクロレンズ像30の中心座標は、それぞれ座標a2((−Lxcosψ×(C+D)/(C+Lxsinψ),−D)および座標b2((Lxcosψ×(C+D)/(C−Lxsinψ),−D)となる。 In this case, projected on the plane of the microlens array 12 when not tilted, the coordinates each microlens 120a 1 and 120b 1, respectively coordinates a 1 (-L x cosψ, -L x sinψ) and coordinates b 1 (L x cosψ, L x sinψ). The center coordinates of the microlens images 30 by each microlens 120a 1 and 120b 1, respectively coordinates a 2 ((-L x cosψ × (C + D) / (C + L x sinψ), - D) and the coordinates b 2 (( L x cos ψ × (C + D) / (CL × sin ψ), −D).

なお、ここでは、図2の光学系を例にとって説明したが、図4の光学系の場合は、節点の代わりにメインレンズ像側の主点を用いて同様の計算を行う。   Here, the optical system of FIG. 2 has been described as an example, but in the case of the optical system of FIG. 4, the same calculation is performed using the principal point on the main lens image side instead of the node.

これまで述べてきた様に、各マイクロレンズ120、120、…による撮像素子13上での各マイクロレンズ像30、30、…の中心座標を生成するためには、基準となるマイクロレンズ像300の座標や、マイクロレンズアレイ12の傾きなど様々なパラメータを、精度良く求める必要がある。リフォーカス処理で用いるマイクロレンズ像30、30、…では、図6および図7を用いて説明したように、像歪みなどの影響により、画像マッチングなどにおいて検出誤差が生じる可能性がある。そのため、第1の実施形態では、マイクロレンズアレイ12上に、マイクロレンズアレイ12の状態(3次元位置と傾き)を検出可能な状態検出部を設ける。 As described so far, each of the microlenses 120, 120, ... in order to generate the respective micro lens image 30, 30, ... center coordinates on the image pickup element 13 by the microlens images 30 0 as a reference It is necessary to accurately obtain various parameters such as the coordinates of and the inclination of the microlens array 12. In the microlens images 30, 30,... Used in the refocus processing, as described with reference to FIGS. 6 and 7, a detection error may occur in image matching due to the influence of image distortion or the like. Therefore, in the first embodiment, a state detection unit that can detect the state (three-dimensional position and inclination) of the microlens array 12 is provided on the microlens array 12.

図12は、第1の実施形態による、状態検出部が設けられたマイクロレンズアレイ12の一例の構成を示す。図12において、マイクロレンズアレイ12の中心から所定範囲までの領域に、マイクロレンズ120、120、…が設けられる。このマイクロレンズ120、120、…が設けられる領域を、撮像マイクロレンズ領域130と呼ぶ。   FIG. 12 shows a configuration of an example of the microlens array 12 provided with the state detection unit according to the first embodiment. 12, microlenses 120, 120,... Are provided in a region from the center of the microlens array 12 to a predetermined range. A region where the microlenses 120, 120,... Are provided is referred to as an imaging microlens region 130.

また、第1の実施形態では、マイクロレンズアレイ12において、撮像マイクロレンズ領域130の外周部に、マイクロレンズアレイ12の状態を検出する状態検出用の領域を設ける。第1の実施形態では、この状態検出用の領域に対して、状態検出用マイクロレンズ121、121、…を設ける。なお、状態検出マイクロレンズ用121、121、…は、撮像マイクロレンズ領域130の外側であって、且つ、メインレンズ11からの光が各状態検出マイクロレンズ用121、121、…を通って撮像素子13に受光される位置に設けられる。   In the first embodiment, in the microlens array 12, a state detection region for detecting the state of the microlens array 12 is provided on the outer periphery of the imaging microlens region 130. In the first embodiment, state detection microlenses 121, 121,... Are provided for the state detection region. The state detection microlenses 121, 121,... Are outside the imaging microlens region 130, and light from the main lens 11 passes through the state detection microlenses 121, 121,. 13 is provided at a position where light is received.

マイクロレンズアレイ12の外周部の領域は、メインレンズ11の光軸から遠く、像高が高い領域である。すなわち、第1の実施形態では、この像高が高く、メインレンズ11のシェーディングにより画質が悪化してしまう領域を、マイクロレンズアレイ12の状態検出用の領域として用いる。   The area of the outer periphery of the microlens array 12 is an area that is far from the optical axis of the main lens 11 and has a high image height. That is, in the first embodiment, an area where the image height is high and the image quality is deteriorated due to the shading of the main lens 11 is used as an area for detecting the state of the microlens array 12.

このように、第1の実施形態によれば、像高の高い領域を状態検出用の領域として使用し、メインレンズ11の光軸により近く、像高の低い領域を、リフォーカス処理による画像再構成用のマイクロレンズ像30、30、…を取得する構成としている。そのため、各マイクロレンズ像30、30、…の中心座標を補正する補正係数を求めるためのパラメータを、再構成画像への影響を抑えて高精度に検出可能である。   As described above, according to the first embodiment, a region with a high image height is used as a region for state detection, and a region close to the optical axis of the main lens 11 and a region with a low image height is re-imaged by refocus processing. It is set as the structure which acquires the micro lens image 30, 30, ... for a structure. Therefore, it is possible to detect a parameter for obtaining a correction coefficient for correcting the center coordinates of each microlens image 30, 30,... With high accuracy while suppressing the influence on the reconstructed image.

なお、状態検出用マイクロレンズ121、121、…は、像高が高い領域に設けられるため撮像素子13上での像が歪んでしまう。そのため、状態検出用マイクロレンズ121、121、…は、撮像素子13上で点像に結像するようにレンズを形成すると、好ましい。   In addition, since the state detection microlenses 121, 121,... Are provided in a region where the image height is high, the image on the image sensor 13 is distorted. Therefore, it is preferable that the state detection microlenses 121, 121,... Are formed so as to form a point image on the image sensor 13.

なお、状態検出用マイクロレンズ121、121、…は、図13に示されるように、マイクロレンズアレイ12において撮像用の各マイクロレンズ120、120、…と同じ側の面に設けることができる。これに限らず、図14に例示されるように、状態検出用マイクロレンズ121、121、…を、マイクロレンズアレイ12において撮像用の各マイクロレンズ120、120、…と反対側の面に設けてもよい。   As shown in FIG. 13, the state detection microlenses 121, 121,... Can be provided on the same side of the microlens array 12 as the imaging microlenses 120, 120,. 14, the state detection microlenses 121, 121,... Are provided on the opposite surface of the microlens array 12 to the imaging microlenses 120, 120,. Also good.

図15は、第1の実施形態に係る状態検出用マイクロレンズ121、121、…を設けたマイクロレンズアレイ12によって撮像素子13で得られる像の例を示す。図15に例示されるように、撮像素子13の出力により、撮像用のマイクロレンズ像30、30、…の外周部に、点像の状態検出用マイクロレンズ像32、32、…が並ぶRAW画像320が得られる。   FIG. 15 shows an example of an image obtained by the imaging element 13 by the microlens array 12 provided with the state detection microlenses 121, 121,... According to the first embodiment. As illustrated in FIG. 15, a RAW image in which dot image state detection microlens images 32, 32,... Are arranged on the outer periphery of the imaging microlens images 30, 30,. 320 is obtained.

(マイクロレンズ像の中心座標群の生成処理)
次に、第1の実施形態に係る、マイクロレンズ像30、30、…の中心座標群の生成処理の例について説明する。図16は、この第1の実施形態に係るマイクロレンズ像の中心画像群の生成処理の例を示すフローチャートである。図16のフローチャートにおける各処理は、ISP20内の補正処理部25にて実行される。また、図16のフローチャートによる処理の開始に先立って、マイクロレンズアレイ12からの光が撮像素子13に受光されて得られたRAW画像がカメラモジュール10から出力されてISP20に供給され、メモリ22に格納されるものとする。
(Process for generating the center coordinate group of the microlens image)
Next, an example of processing for generating the central coordinate group of the microlens images 30, 30,... According to the first embodiment will be described. FIG. 16 is a flowchart showing an example of the generation processing of the central image group of the microlens image according to the first embodiment. Each process in the flowchart of FIG. 16 is executed by the correction processing unit 25 in the ISP 20. Prior to the start of the processing according to the flowchart of FIG. 16, the RAW image obtained by receiving the light from the microlens array 12 by the image sensor 13 is output from the camera module 10 and supplied to the ISP 20 to the memory 22. Shall be stored.

ステップS100で、補正処理部25は、輝度値フィッティングによりメインレンズ11の光軸中心の、RAW画像320上での座標(Xmx,Ymx)を決定する。より具体的には、補正処理部25は、メモリ22に格納されたRAW画像320の各画素の輝度値から、各マイクロレンズ像30、30、…の輝度値カーブの頂点の輝度値を抽出する。そして、図17に例示されるように、各マイクロレンズ像30、30、…における当該頂点の各輝度値330に対して多項式曲面を用いてフィッティング処理を行いて輝度値がピークとなる座標を計算する。この計算された座標が、メインレンズ11の光軸中心の座標(Xmx,Ymx)となる。なお、座標は、例えばRAW画像320上の画素位置を示す値を用いることができる。 In step S100, the correction processing unit 25 determines the coordinates (X mx , Y mx ) on the RAW image 320 of the optical axis center of the main lens 11 by luminance value fitting. More specifically, the correction processing unit 25 extracts the luminance value at the vertex of the luminance value curve of each microlens image 30, 30,... From the luminance value of each pixel of the RAW image 320 stored in the memory 22. . Then, as illustrated in FIG. 17, a fitting process is performed using a polynomial curved surface for each luminance value 330 of the vertex in each microlens image 30, 30,. To do. The calculated coordinates are the coordinates (X mx , Y mx ) of the optical axis center of the main lens 11. For the coordinates, for example, a value indicating a pixel position on the RAW image 320 can be used.

なお、多項式曲面によるフィッティング処理は、例えば次式(4)を用いて実行することができる。フィッティング処理に用いる数式は、式(4)に限られず、例えばフィッティング処理を行う対象のRAW画像320の状態に応じて適宜、選択することができる。
The fitting process using a polynomial curved surface can be executed using, for example, the following equation (4). The mathematical expression used for the fitting process is not limited to the expression (4), and can be appropriately selected according to the state of the RAW image 320 to be subjected to the fitting process, for example.

次に、ステップS101で、補正処理部25は、メモリ22に格納されたRAW画像320から、状態検出領域に含まれる状態検出用マイクロレンズ像32、32、…を検出し、各状態検出用マイクロレンズ像32、32、…の位置(座標)を求める。補正処理部25は、RAW画像320に対して画像マッチング処理や特徴点抽出処理などを施すことで、状態検出用マイクロレンズ像32、32、…を検出することができる。   Next, in step S101, the correction processing unit 25 detects the state detection microlens images 32, 32,... Included in the state detection region from the RAW image 320 stored in the memory 22, and each state detection microlens. The positions (coordinates) of the lens images 32, 32,. The correction processing unit 25 can detect the state detection microlens images 32, 32,... By performing image matching processing, feature point extraction processing, and the like on the RAW image 320.

次のステップS102で、補正処理部25は、以下に説明するようにして、各状態検出用マイクロレンズ像32、32、…の位置から、各パラメータL’、θ’、A’、d、D、φおよびψを求める。   In the next step S102, the correction processing unit 25 determines each parameter L ′, θ ′, A ′, d, D from the position of each state detection microlens image 32, 32,. , Φ and ψ are obtained.

ステップS101で抽出された状態検出用マイクロレンズ像32、32、…の位置は、マイクロレンズアレイ12の状態に関する値をパラメータとして含む。このパラメータは、例えば、マイクロレンズアレイ12の中心位置の座標(Xc,Yc)とメインレンズ11の光軸中心の座標(Xmx,Ymx)との差分を含む。また、このパラメータは、メインレンズ11の光束の節点とマイクロレンズアレイ12の表面との間の距離A’を含む。さらに、このパラメータは、マイクロレンズアレイ12の基盤の厚みdと、マイクロレンズアレイ12の裏面から撮像素子13の受光面までの距離Dとを含む。さらにまた、マイクロレンズアレイ12に傾きが存在する場合、パラメータは、上述した角度ψおよびφを含む。 The position of the state detection microlens images 32, 32,... Extracted in step S101 includes a value related to the state of the microlens array 12 as a parameter. This parameter includes, for example, a difference between the coordinates (X c , Y c ) of the center position of the microlens array 12 and the coordinates (X mx , Y mx ) of the optical axis center of the main lens 11. This parameter includes the distance A ′ between the node of the light beam of the main lens 11 and the surface of the microlens array 12. Furthermore, this parameter includes the thickness d of the substrate of the microlens array 12 and the distance D from the back surface of the microlens array 12 to the light receiving surface of the image sensor 13. Furthermore, when the microlens array 12 has an inclination, the parameters include the angles ψ and φ described above.

補正処理部25は、マイクロレンズアレイ12の傾きが無く(ψ=0°、φ=0°)、マイクロレンズアレイ12の中心座標と、メインレンズ11の光軸中心とが撮像素子13の中央と一致する、理想モデルを想定する。そして、補正処理部25は、RAW画像320上の実際の各状態検出用マイクロレンズ像32、32、…、および、撮像マイクロレンズ領域130内の各マイクロレンズ120、120、…による各マイクロレンズ像30、30、…の座標の、この理想モデルに対する差分に基づき、最急降下法などの方法により、上述した、マイクロレンズアレイ12の状態に関する各パラメータを求める。   The correction processing unit 25 has no inclination of the microlens array 12 (ψ = 0 °, φ = 0 °), and the center coordinates of the microlens array 12 and the optical axis center of the main lens 11 are the center of the image sensor 13. A matching ideal model is assumed. Then, the correction processing unit 25 performs actual micro lens images 32, 32,... On the RAW image 320, and micro lens images obtained by the micro lenses 120, 120,. Each parameter related to the state of the microlens array 12 described above is obtained by a method such as the steepest descent method based on the difference between the coordinates of 30, 30,.

図18は、理想モデルにおけるマイクロレンズ像30の結像位置xi’の例を示す。図18に例示される理想モデルは、光学系の例として、マイクロレンズアレイ12が撮像素子13の受光面に対して平行であり(ψ=0°)、マイクロレンズアレイ12の基盤の屈折を無視できるモデルである。なお、理想モデルにおいては、マイクロレンズアレイ12の基盤中心の座標(xc,yc)がメインレンズ11の光軸中心の座標(Xmx,Ymx)と一致している。 FIG. 18 shows an example of the imaging position x i ′ of the microlens image 30 in the ideal model. In the ideal model illustrated in FIG. 18, as an example of an optical system, the microlens array 12 is parallel to the light receiving surface of the image sensor 13 (ψ = 0 °), and the refraction of the base of the microlens array 12 is ignored. It is a model that can. In the ideal model, the coordinates (x c , y c ) of the base center of the microlens array 12 coincide with the coordinates (X mx , Y mx ) of the optical axis center of the main lens 11.

図18より、メインレンズ11の光軸中心から距離xiの位置に存在するマイクロレンズ120(または状態検出用マイクロレンズ121)による像は、撮像素子13上で、次式(5)で示される、距離xi’の位置に結像する。式(5)で明らかなように、マイクロレンズ120、120、…が基盤上に等間隔で並んでいる場合に、これらマイクロレンズ120、120、…により撮像素子13上に結像されるマイクロレンズ像30、30、…も、等間隔で並ぶことになる。
From FIG. 18, an image by the microlens 120 (or the state detection microlens 121) existing at a distance x i from the optical axis center of the main lens 11 is represented by the following equation (5) on the image sensor 13. The image is formed at the position of distance x i ′. As is apparent from the equation (5), when the microlenses 120, 120,... Are arranged at equal intervals on the substrate, the microlenses imaged on the image sensor 13 by the microlenses 120, 120,. The images 30, 30,... Are also arranged at equal intervals.

図19は、マイクロレンズアレイ12が撮像素子13の受光面に対して角度ψで傾いている場合のマイクロレンズ像30の結像位置xi”の例を示す。図19により、マイクロレンズアレイ12が傾いている場合、メインレンズ11の光軸中心から距離xiの位置に存在するマイクロレンズ120(または状態検出用マイクロレンズ121)による像は、撮像素子13上で、次式(6)で示される、距離xi”の位置に結像する。式(6)から分かるように、マイクロレンズアレイ12が傾いている場合は、マイクロレンズ120、120、…が等間隔で並んでいる状態であっても、撮像素子13上のマイクロレンズ像30、30、…は、等間隔に並ばない。
FIG. 19 shows an example of the imaging position x i ″ of the microlens image 30 when the microlens array 12 is inclined at an angle ψ with respect to the light receiving surface of the image sensor 13. Is tilted, an image by the microlens 120 (or the state detection microlens 121) located at a distance x i from the optical axis center of the main lens 11 is expressed by the following equation (6) on the image sensor 13. The image is formed at the position indicated by the distance x i ″. As can be seen from the equation (6), when the microlens array 12 is tilted, the microlens image 30 on the image sensor 13 can be obtained even when the microlenses 120, 120,. 30, are not arranged at equal intervals.

実際の光学系を模擬できるモデルとして、マイクロレンズアレイ12の全マイクロレンズ(マイクロレンズ120、120、…、および、状態検出用マイクロレンズ121、121、…)の結像位置が(6)で表わされるものとする。最急降下法の評価関数を、次式(7)で表す。式(7)において、変数Xiは、撮像素子13の出力に基づくRAW画像320から検出された状態検出用マイクロレンズ像32、32、…の結像位置である。また、変数NMLは、マイクロレンズアレイ12に設けられた状態検出用マイクロレンズ121の数を表す。
As a model that can simulate an actual optical system, the imaging positions of all the microlenses (microlenses 120, 120,..., And state detection microlenses 121, 121,...) Of the microlens array 12 are represented by (6). Shall be. The evaluation function of the steepest descent method is expressed by the following equation (7). In Expression (7), a variable X i is an imaging position of the state detection microlens images 32, 32,... Detected from the RAW image 320 based on the output of the image sensor 13. The variable NML represents the number of state detection microlenses 121 provided in the microlens array 12.

式(7)において、値Tが最小となる各パラメータA’、d、D、ψを最急降下法により求めることで、実際の光学系に近似された各パラメータA’、d、D、ψを得ることができる。この式(7)により得られた各パラメータA’、d、D、ψを用いて、各マイクロレンズ像30、30、…の中心座標を生成するために必要な、マイクロレンズ間距離L’と、初期配列角θ’とを決定することができる。   In equation (7), each parameter A ′, d, D, ψ that minimizes the value T is obtained by the steepest descent method, so that each parameter A ′, d, D, ψ approximated to the actual optical system is obtained. Can be obtained. Using the parameters A ′, d, D, and ψ obtained by the equation (7), the distance L ′ between the microlenses necessary for generating the center coordinates of the microlens images 30, 30,. The initial array angle θ ′ can be determined.

式(7)により得られた各パラメータA’、d、D、ψのうち、マイクロレンズアレイ12の傾き成分である角度ψ=0°として各結像位置を再計算する。すなわち、式(7)で得られた各パラメータA’、d、Dを式(5)に適用して、各結像位置xiを再計算することになる。この再計算により、図20に例示されるように、マイクロレンズアレイ12の傾き成分を取り除いた状態の、各状態検出用マイクロレンズ像32’、32’、…の結像位置が得られる。 Of the parameters A ′, d, D, and ψ obtained by Expression (7), each imaging position is recalculated with an angle ψ = 0 ° that is a tilt component of the microlens array 12. That is, each image formation position x i is recalculated by applying each parameter A ′, d, D obtained in Expression (7) to Expression (5). By this recalculation, as illustrated in FIG. 20, the imaging positions of the respective state detection microlens images 32 ′, 32 ′,...

例えば、マイクロレンズアレイ12の設計時に、各状態検出用マイクロレンズ121間の距離を、マイクロレンズ120間の距離Lと同一または整数倍としておく。これにより、再計算して得られた各状態検出用マイクロレンズ像32’間の距離から、各マイクロレンズ120、120、…により実際に撮像素子13に結像する各マイクロレンズ120による像の間の距離L’をより容易に求めることができる。例えば、距離L’は、上述した距離xi’と距離xi”との比を補正係数として用い、この補正係数と元の距離Lとに基づき求めることができる。距離L’は、距離xi’と距離xi”との差分と、距離Lとを用いて求めることも可能である。 For example, when designing the microlens array 12, the distance between the state detection microlenses 121 is set equal to or an integral multiple of the distance L between the microlenses 120. Thereby, from the distance between each state detection microlens image 32 ′ obtained by recalculation, between the images by the microlenses 120 that are actually imaged on the image sensor 13 by the microlenses 120, 120,... Can be obtained more easily. For example, the distance L ′ can be obtained based on the correction coefficient and the original distance L using the ratio between the distance x i ′ and the distance x i ″ described above as a correction coefficient. It is also possible to obtain using the difference between i ′ and the distance x i ″ and the distance L.

また例えば、マイクロレンズ120の初期配列角θを、状態検出用マイクロレンズ121の対角方向を基準とした値として設計時などに予め決めておく。これにより、再計算で得られた各状態検出用マイクロレンズ像32’の対角ペアの結像位置を補正係数として用いて、実際に撮像素子13に結像する各マイクロレンズ像の初期配列角θ’をより容易に求めることができる。   Further, for example, the initial array angle θ of the microlens 120 is determined in advance at the time of design or the like as a value based on the diagonal direction of the state detection microlens 121. Thus, the initial array angle of each microlens image that is actually imaged on the image sensor 13 using the imaging position of the diagonal pair of each state detection microlens image 32 ′ obtained by recalculation as a correction coefficient. θ ′ can be obtained more easily.

次に、撮像素子13の受光面に平行な面における回転角となる角度φを考慮した、各マイクロレンズ120、120、…による実際の撮像素子13上でのマイクロレンズ像30、30、…の座標(Xn,Yn)について説明する。理想モデルに対する回転軸のズレを、メインレンズ11の光軸中心の座標(Xmx,Ymx)とする。上述したマイクロレンズアレイ12の傾き成分を取り除いた状態において、座標(Xn,Yn)は、例えば次式(8)で表すことができる。
(Xn,Yn)=(Xmx+Xncosφ,Ymx+Ynsinφ) …(8)
Next, the microlens images 30, 30,... On the actual image sensor 13 by the microlenses 120, 120,... The coordinates (X n , Y n ) will be described. The shift of the rotation axis with respect to the ideal model is defined as the coordinates (X mx , Y mx ) of the optical axis center of the main lens 11. In a state where the tilt component of the microlens array 12 is removed, the coordinates (X n , Y n ) can be expressed by the following equation (8), for example.
(X n , Y n ) = (X mx + X n cos φ, Y mx + Y n sin φ) (8)

この式(8)に基づき、各状態検出用マイクロレンズ像32’、32’、…の位置を用いて、例えは上述の式(7)と同様の手法により補正係数を求め、この補正係数に基づき角度φを求めることができる。   Based on this equation (8), using the position of each state detection microlens image 32 ′, 32 ′,..., For example, a correction coefficient is obtained by the same method as the above-described equation (7), Based on this, the angle φ can be obtained.

説明は、図16のフローチャートに戻り、ステップS103で、補正処理部25は、上述のように求められた各パラメータに従い、実際の撮像素子13の撮像により得られたRAW画像320における、各マイクロレンズ像30、30、…の中心座標群を生成する。より具体的には、補正処理部25は、パラメータA’、d、D、ψから求めた距離L’および初期配列角θ’と、メインレンズ11の光軸中心の座標(Xmx,Ymx)と、回転角φとを用いて、各マイクロレンズ像30、30、…の中心座標群を生成する。 Returning to the flowchart of FIG. 16, in step S <b> 103, the correction processing unit 25 determines each microlens in the RAW image 320 obtained by actual imaging by the imaging device 13 according to each parameter obtained as described above. A central coordinate group of the images 30, 30,... Is generated. More specifically, the correction processing unit 25 calculates the distance L ′ and the initial array angle θ ′ obtained from the parameters A ′, d, D, and ψ, and the coordinates (X mx , Y mx) of the optical axis center of the main lens 11. ) And the rotation angle φ, a central coordinate group of each microlens image 30, 30,... Is generated.

補正処理部25は、生成した中心座標群を、ROM26に格納する。画像処理部23は、メモリ22から読み出したRAW画像320に対してリフォーカス処理を行う際に、各マイクロレンズ像30、30、…のRAW画像320に対して、ROM26に格納される中心座標群を適用する。これにより、画像処理部23は、マイクロレンズアレイ12の傾きなどに対応した、より高精度に生成された各マイクロレンズ像30、30、…の中心座標を、リフォーカス処理に用いることができる。   The correction processing unit 25 stores the generated central coordinate group in the ROM 26. When the image processing unit 23 performs refocus processing on the RAW image 320 read from the memory 22, the central coordinate group stored in the ROM 26 for the RAW image 320 of each of the microlens images 30, 30,. Apply. As a result, the image processing unit 23 can use the center coordinates of each of the microlens images 30, 30,... Corresponding to the inclination of the microlens array 12 and the like for the refocusing process.

なお、上述した図16のフローチャートによる第1の実施形態に係る中心座標群生成処理は、例えば、撮像装置1の工場出荷時などにおいて、撮像装置1の調整処理の一環として実行することが考えられる。これに限らず、例えば撮像装置13において、カメラモジュール10など、マイクロレンズアレイ12と撮像素子13とを含むユニットが交換可能とされている場合、当該ユニットを交換した直後などに中心座標群生成処理を実行することが考えられる。この場合、中心座標群生成処理は、ユーザの撮像装置1に対する所定の操作に応じて実行されてもよいし、撮像装置1がユニットの装着を検知して自動的に実行してもよい。   The central coordinate group generation process according to the first embodiment according to the flowchart of FIG. 16 described above may be executed as part of the adjustment process of the imaging apparatus 1 at the time of factory shipment of the imaging apparatus 1, for example. . For example, when the unit including the microlens array 12 and the imaging element 13 such as the camera module 10 is replaceable in the imaging device 13, for example, immediately after the unit is replaced, the central coordinate group generation process is performed. Can be considered. In this case, the center coordinate group generation process may be executed in response to a predetermined operation performed by the user on the imaging device 1 or may be automatically executed when the imaging device 1 detects the unit mounting.

(第1の実施形態の第1の変形例)
次に、第1の実施形態の第1の変形例について説明する。撮像素子13の受光面は、一般的には、被写体からの光をR(赤色)、G(緑色)およびB(青色)の3原色に分離するため、RGB各色によるカラーフィルタが画素毎に設けられている。本第1の変形例では、撮像素子13において状態検出用マイクロレンズ121、121、…からの光を受光する領域を、白色を検知する領域として構成する。
(First modification of the first embodiment)
Next, a first modification of the first embodiment will be described. In general, the light receiving surface of the image sensor 13 separates light from a subject into three primary colors of R (red), G (green), and B (blue), so that color filters for each color of RGB are provided for each pixel. It has been. In the first modification, an area that receives light from the state detection microlenses 121, 121,... In the image sensor 13 is configured as an area that detects white.

図21は、本第1の変形例に係る撮像素子13の受光面と、受光面上の各マイクロレンズ像30,30、…および状態検出用マイクロレンズ像32、32、…の例を示す。なお、この例では、各マイクロレンズ像30および各状態検出用マイクロレンズ像32を生成するために、図12を用いて説明したマイクロレンズアレイ12を用いている。   FIG. 21 shows an example of the light receiving surface of the image sensor 13 according to the first modification, the microlens images 30, 30,... And the state detection microlens images 32, 32,. In this example, in order to generate each microlens image 30 and each state detection microlens image 32, the microlens array 12 described with reference to FIG. 12 is used.

図21において、状態検出用マイクロレンズ像32、32、…の受光位置と、当該受光位置を含む所定範囲が、白色を検知する白色検知領域123として構成されている。白色検知領域123は、例えば、撮像素子13の白色検知領域123に対応する画素にカラーフィルタを設けないことで構成することができる。   In FIG. 21, a light receiving position of the state detection microlens images 32, 32,... And a predetermined range including the light receiving position are configured as a white color detection region 123 for detecting white color. For example, the white color detection region 123 can be configured by not providing a color filter in a pixel corresponding to the white color detection region 123 of the image sensor 13.

撮像素子13の状態検出用マイクロレンズ像32、32、…の受光位置を白色検知領域131とすることで、より低光量の環境においても高精度な中心座標群の生成が可能となる。   By setting the light receiving position of the state detection microlens images 32, 32,... Of the image pickup device 13 as the white detection region 131, it is possible to generate a center coordinate group with high accuracy even in a lower light quantity environment.

(第1の実施形態の第2の変形例)
次に、第1の実施形態の第2の変形例について説明する。上述の第1の実施形態では、マイクロレンズアレイ12の状態検出用に、マイクロレンズアレイ12に対して状態検出用マイクロレンズ121、121、…を設けたが、これはこの例に限定されない。すなわち、撮像素子13においてマイクロレンズ像30、30、…が形成される領域の外周部に所定の像を形成可能であれば、マイクロレンズアレイ12における撮像マイクロレンズ領域130の外周部の構成は、他の構成であってもよい。
(Second modification of the first embodiment)
Next, a second modification of the first embodiment will be described. In the first embodiment described above, the state detection microlenses 121, 121,... Are provided for the microlens array 12 for state detection of the microlens array 12, but this is not limited to this example. That is, if a predetermined image can be formed on the outer periphery of the region where the microlens images 30, 30,... Are formed in the image sensor 13, the configuration of the outer periphery of the imaging microlens region 130 in the microlens array 12 is Other configurations may be used.

図22は、本第2の変形例によるマイクロレンズアレイ12’の一例の構成を示す。図22に例示されるように、本第2の変形例では、撮像マイクロレンズ領域130の外周部に対し、状態検出用マイクロレンズ121、121、…の代わりに、アパーチャ122、122、…を設ける。アパーチャ122は、アパーチャ122を通過した光が撮像素子13に形成する像の径が、マイクロレンズ120の径よりも小さくなるように構成する。また、アパーチャ122、122、…が設けられる領域は、蒸着や鍍金、塗布などの手法を用いて遮光した遮光領域132とする。   FIG. 22 shows an exemplary configuration of the microlens array 12 ′ according to the second modification. As illustrated in FIG. 22, in the second modification, apertures 122, 122,... Are provided on the outer periphery of the imaging microlens region 130 instead of the state detection microlenses 121, 121,. . The aperture 122 is configured such that the diameter of the image formed on the image sensor 13 by the light that has passed through the aperture 122 is smaller than the diameter of the microlens 120. In addition, a region where the apertures 122, 122,... Are provided is a light shielding region 132 that is shielded by using a method such as vapor deposition, plating, coating, or the like.

このように、撮像マイクロレンズ領域130の外周部に、内径が適切に設計されたアパーチャ122、122、…を設けることで、撮像素子13におけるマイクロレンズ像30、30、…の形成領域の外周部に、状態検出用マイクロレンズ像32、32、…に対応する所定の像を形成できる。補正処理部25は、アパーチャ122、122、…により形成された像に基づき、上述した図16のフローチャートによる処理を実行する。   As described above, by providing the apertures 122, 122,... With appropriately designed inner diameters in the outer peripheral portion of the imaging microlens region 130, the outer peripheral portion of the formation region of the microlens images 30, 30,. In addition, a predetermined image corresponding to the state detection microlens images 32, 32,... Can be formed. The correction processing unit 25 executes the processing according to the flowchart of FIG. 16 described above based on the image formed by the apertures 122, 122,.

マイクロレンズアレイ12の状態検出用にアパーチャ122、122、…を用いることで、状態検出用マイクロレンズ121、121、…を設けた場合に比べてマイクロレンズアレイ12のコストを低減することが可能である。   By using the apertures 122, 122,... For detecting the state of the microlens array 12, it is possible to reduce the cost of the microlens array 12 compared to the case where the state detecting microlenses 121, 121,. is there.

(第1の実施形態の第3の変形例)
次に、第1の実施形態の第3の変形例について説明する。図23は、本第3の変形例によるマイクロレンズアレイ12”の一例の構成を示す。図23に例示されるように、本第3の変形例では、状態検出用マイクロレンズ121、121、…の一部を直線状のレンチキュラーレンズ123に置き換えて、マイクロレンズアレイ12”を構成する。図23の例では、レンチキュラーレンズ124は、撮像マイクロレンズ領域130の長辺側の外周に平行に設けられている。また、レンチキュラーレンズ124は、短辺方向の幅をマイクロレンズ120の径よりも狭く構成する。
(Third Modification of First Embodiment)
Next, a third modification of the first embodiment will be described. FIG. 23 shows an example of the configuration of a microlens array 12 ″ according to the third modification. As illustrated in FIG. 23, in the third modification, state detection microlenses 121, 121,. Is replaced with a linear lenticular lens 123 to form a microlens array 12 ″. In the example of FIG. 23, the lenticular lens 124 is provided in parallel to the outer periphery on the long side of the imaging microlens region 130. Further, the lenticular lens 124 is configured such that the width in the short side direction is narrower than the diameter of the microlens 120.

図23の構成によれば、レンチキュラーレンズ124は、撮像素子13上に、理想的なモデルにおいては直線状に結像する。補正処理部25は、この理想モデルにおけるレンチキュラーレンズ124の像と、実際に撮像素子13上に結像されるレンチキュラーレンズ124による像との差分に基づき、中心座標群を求めるための補正係数を決定する。   According to the configuration of FIG. 23, the lenticular lens 124 forms an image on the image sensor 13 in a straight line in an ideal model. The correction processing unit 25 determines a correction coefficient for obtaining a central coordinate group based on the difference between the image of the lenticular lens 124 in this ideal model and the image of the lenticular lens 124 that is actually imaged on the image sensor 13. To do.

(第2の実施形態)
次に、第2の実施形態について説明する。第2の実施形態は、上述の第1の実施形態による構成に対して、マイクロレンズアレイ12の基盤における光の屈折を考慮した例である。すなわち、各マイクロレンズ120、120、…を通過する主光線は、マイクロレンズアレイ12が構成されるマイクロレンズアレイ基盤の屈折率により屈折される。そのため、各マイクロレンズ像30、30、…は、メインレンズ11の光軸からの距離に応じて等間隔からずれていくことになる。したがって、実際には、各マイクロレンズ像30、30、…の中心座標は、上述した各パラメータにより計算される各座標に対して、メインレンズ11の光軸からの距離に依存した多項式などにより求めた補正係数により補正して求める。
(Second Embodiment)
Next, a second embodiment will be described. The second embodiment is an example in which light refraction at the base of the microlens array 12 is taken into consideration with respect to the configuration according to the first embodiment described above. In other words, the chief ray passing through each of the microlenses 120, 120,... Is refracted by the refractive index of the microlens array base on which the microlens array 12 is configured. Therefore, the microlens images 30, 30,... Deviate from equal intervals according to the distance from the optical axis of the main lens 11. Therefore, in practice, the center coordinates of the microlens images 30, 30,... Are obtained by a polynomial or the like depending on the distance from the optical axis of the main lens 11 with respect to the coordinates calculated by the parameters described above. It is obtained by correcting with the correction coefficient.

なお、第2の実施形態では、上述の第1の実施形態において図1を用いて説明した撮像装置1の構成をそのまま適用できるため、ここでの詳細な説明は省略する。   In the second embodiment, since the configuration of the imaging device 1 described with reference to FIG. 1 in the first embodiment can be applied as it is, detailed description thereof is omitted here.

図24を用いて、マイクロレンズアレイ12の基盤における光の屈折による作用について、より具体的に説明する。マイクロレンズアレイ12の基盤の屈折率nを無視した場合において、メインレンズ11による節点z0からの光が、各マイクロレンズ1200、1201、1202および1203を通って撮像素子13上の位置x0、x1、x2およびx3にそれぞれ照射されるものとする。 The action of light refraction at the base of the microlens array 12 will be described more specifically with reference to FIG. When the refractive index n of the base of the microlens array 12 is ignored, light from the node z 0 by the main lens 11 passes through the microlenses 120 0 , 120 1 , 120 2, and 120 3 on the image sensor 13. Assume that the positions x 0 , x 1 , x 2 and x 3 are respectively irradiated.

実際には、マイクロレンズアレイ12の基盤は所定の屈折率nを持つため、マイクロレンズアレイ12に入射角が0°を超えて照射された光は、マイクロレンズアレイ12内で屈折率nに従い進行方向が変化する。すなわち、各マイクロレンズ1200、1201、1202および1203のうち、入射角が略0°となるマイクロレンズ1200を除く、各マイクロレンズ1201、1202および1203から出射される光は、それぞれ光路501、502および503として例示されるように、屈折率nを無視した場合の光路よりも内側(メインレンズ11の光軸側)に光路が変更される。 Actually, since the base of the microlens array 12 has a predetermined refractive index n, the light irradiated to the microlens array 12 with an incident angle exceeding 0 ° proceeds in the microlens array 12 according to the refractive index n. The direction changes. In other words, each microlens 120 0, 120 1, 120 of the two and 120 3, except the micro lenses 120 0 the incident angle is substantially 0 °, the light emitted from each micro-lens 120 1, 120 2 and 120 3 As shown as optical paths 50 1 , 50 2, and 50 3 , respectively, the optical path is changed to the inner side (the optical axis side of the main lens 11) than the optical path when the refractive index n is ignored.

したがって、各マイクロレンズ1201、1202および1203から出射される光は、屈折率nを無視した場合の各光の照射位置x1、x2およびx3に対して、それぞれ差分Δx1、Δx2およびΔx3だけ、位置x0側にずれて、撮像素子13に照射される。これら、差分Δx1、Δx2およびΔx3は、入射角0°を原点とする、撮像素子13における位置xに関する多項式(例えば3次式)で表すことができる。この位置xに関する多項式が、像高依存性に対する補正係数となる。以下、この位置xに関する多項式を、関数f(x)と表す。 Therefore, the light emitted from each of the microlenses 120 1 , 120 2, and 120 3 has a difference Δx 1 with respect to the irradiation positions x 1 , x 2, and x 3 of each light when the refractive index n is ignored, The image sensor 13 is irradiated with a shift of Δx 2 and Δx 3 to the position x 0 side. These differences Δx 1 , Δx 2, and Δx 3 can be expressed by a polynomial (for example, a cubic equation) related to the position x in the image sensor 13 with the incident angle being 0 °. The polynomial for this position x is a correction coefficient for the image height dependency. Hereinafter, a polynomial related to the position x is represented as a function f (x).

図25は、この第2の実施形態に係るマイクロレンズ像の中心画像群の生成処理の例を示すフローチャートである。図25のフローチャートによる各処理は、図16を用いて説明した処理と同様に、ISP20内の補正処理部25にて実行される。また、図25のフローチャートによる処理の開始に先立って、マイクロレンズアレイ12からの光が撮像素子13に受光されて得られたRAW画像320がカメラモジュール10から出力されてISP20に供給され、メモリ22に格納されるものとする。   FIG. 25 is a flowchart showing an example of the generation processing of the central image group of the microlens image according to the second embodiment. Each process according to the flowchart of FIG. 25 is executed by the correction processing unit 25 in the ISP 20 in the same manner as the process described with reference to FIG. Prior to the start of the processing according to the flowchart of FIG. 25, the RAW image 320 obtained by receiving the light from the microlens array 12 by the imaging device 13 is output from the camera module 10 and supplied to the ISP 20, and the memory 22. Shall be stored in

図25のフローチャートにおいて、ステップS200〜ステップS202は、上述した図16のフローチャートのステップS100〜ステップS102と同様である。すなわち、ステップS200で、補正処理部25は、輝度値フィッティングによりメインレンズ11の光軸中心の、RAW画像320上での座標(Xmx,Ymx)を決定する。次のステップS201で、補正処理部25は、メモリ22に格納されたRAW画像320から状態検出用マイクロレンズ像121、121、…を検出し、各状態検出用マイクロレンズ像121、121、…の位置(座標)を求める。そして、ステップS202で、補正処理部25は、上述したようにして、式(5)〜式(8)に基づき、各状態検出用マイクロレンズ像121、121、…の位置から、各パラメータL’、θ’、A’、d、D、φおよびψを求める。そして、図16のステップS103の処理に従い、各マイクロレンズ像30、30、…の中心座標群を生成する。 In the flowchart of FIG. 25, steps S200 to S202 are the same as steps S100 to S102 of the flowchart of FIG. That is, in step S200, the correction processing unit 25 determines the coordinates (X mx , Y mx ) on the RAW image 320 of the optical axis center of the main lens 11 by luminance value fitting. In the next step S201, the correction processing unit 25 detects the state detection microlens images 121, 121,... From the RAW image 320 stored in the memory 22, and the state detection microlens images 121, 121,. Find the position (coordinates). In step S202, the correction processing unit 25 determines each parameter L ′ from the position of each state detection microlens image 121, 121,... Based on the equations (5) to (8) as described above. , Θ ′, A ′, d, D, φ, and ψ. Then, according to the processing of step S103 in FIG. 16, a central coordinate group of each microlens image 30, 30,.

次に、補正処理部25は、ステップS203で、像高依存性に対する補正係数を決定する。すなわち、ステップS203では、補正処理部25は、マイクロレンズアレイ12の基盤の既知の屈折率nを考慮した場合の、基盤の各位置における補正係数を求める。   Next, the correction | amendment process part 25 determines the correction coefficient with respect to image height dependence by step S203. That is, in step S203, the correction processing unit 25 obtains a correction coefficient at each position of the substrate when the known refractive index n of the substrate of the microlens array 12 is considered.

より具体的には、補正処理部25は、像高の比較的低い領域、例えば、撮像マイクロレンズ領域130内において、中心から所定範囲内の各マイクロレンズ120、120、…による各マイクロレンズ像30、30、…における中心座標の撮像素子13上での位置を、RAW画像320から取得する。このように、像高の比較的低い領域のマイクロレンズ像30は、像高の高い領域のマイクロレンズ像と比較して、像の歪みが小さいことが期待できる。そのため、マイクロレンズ像30が状態検出用マイクロレンズ像32のように点像ではなくても、高い精度で中心座標を得ることができると考えられる。   More specifically, the correction processing unit 25 in each of the microlens images 30 by the microlenses 120, 120,... Within a predetermined range from the center in a relatively low image height area, for example, the imaging microlens area 130. , 30,... Are acquired from the RAW image 320. As described above, it can be expected that the microlens image 30 in the region having a relatively low image height has a smaller image distortion than the microlens image in the region having a high image height. Therefore, even if the microlens image 30 is not a point image like the state detection microlens image 32, it is considered that the center coordinates can be obtained with high accuracy.

補正処理部25は、ステップS202までで生成された各パラメータL’、θ’、A’、d、D、φおよびψに従い生成された各マイクロレンズ像30、30、…の中心座標群と、RAW画像320から取得した中心座標群との差分に基づき、像高依存性に対する補正係数である関数f(x)を求める。   The correction processing unit 25 includes a central coordinate group of the microlens images 30, 30,... Generated according to the parameters L ′, θ ′, A ′, d, D, φ, and ψ generated up to step S202, Based on the difference from the central coordinate group acquired from the RAW image 320, a function f (x) that is a correction coefficient for image height dependency is obtained.

次のステップS204で、補正処理部25は、ステップS203で求めた補正係数を用いて、ステップS202で生成された中央座標群に含まれる各マイクロレンズ像30、30、…の各中心座標を補正する。   In the next step S204, the correction processing unit 25 corrects the central coordinates of the microlens images 30, 30,... Included in the central coordinate group generated in step S202, using the correction coefficient obtained in step S203. To do.

補正処理部25は、補正した中心座標群を、ROM26に格納する。画像処理部23は、マイクロレンズアレイ12の傾きなどに対応し、且つ、像高依存性による影響が抑制された各マイクロレンズ像30、30、…の中心座標を用いて、より高精度なリフォーカス処理を実行することができる。   The correction processing unit 25 stores the corrected center coordinate group in the ROM 26. The image processing unit 23 uses a center coordinate of each microlens image 30, 30,... Corresponding to the inclination of the microlens array 12 and the influence of the image height dependency is suppressed. Focus processing can be executed.

(第3の実施形態)
上述では、補正処理部25が撮像装置1に内蔵されるように説明したが、これはこの例に限定されない。本第3の実施形態は、補正処理部25を撮像装置1に対する外部装置として構成した例である。この場合、補正処理部25は、専用のハードウェアによって構成してもよいし、コンピュータなどの汎用の情報処理装置上で動作する中心座標群生成プログラムとして構成することもできる。
(Third embodiment)
In the above description, the correction processing unit 25 has been described as being built in the imaging apparatus 1, but this is not limited to this example. The third embodiment is an example in which the correction processing unit 25 is configured as an external device for the imaging device 1. In this case, the correction processing unit 25 may be configured by dedicated hardware, or may be configured as a central coordinate group generation program that operates on a general-purpose information processing device such as a computer.

補正処理部25を中心座標群生成プログラムとして構成する場合、当該プログラムは、CD(Compact Disk)やDVD(Digital Versatile Disk)といった記録媒体に記録した状態で提供してもよいし、インターネットなどのネットワークを介して提供してもよい。中心座標群生成プログラムは、情報処理装置に供給されると、当該情報処理装置が有するハードディスクドライブや不揮発性メモリといったストレージ装置に所定の手順で格納され、情報処理装置にインストールされる。中心座標群生成プログラムは、実行時には、当該情報処理装置が有するCPU(Central Processing Unit)によりストレージ装置から読み出され、RAM(Random Access Memory)などによる主記憶装置上に展開され、CPUにより実行される。   When the correction processing unit 25 is configured as a central coordinate group generation program, the program may be provided in a state of being recorded on a recording medium such as a CD (Compact Disk) or a DVD (Digital Versatile Disk), or a network such as the Internet. May be provided via. When the central coordinate group generation program is supplied to the information processing apparatus, the central coordinate group generation program is stored in a predetermined procedure in a storage apparatus such as a hard disk drive or a nonvolatile memory included in the information processing apparatus, and is installed in the information processing apparatus. At the time of execution, the central coordinate group generation program is read from the storage device by a CPU (Central Processing Unit) included in the information processing device, expanded on a main storage device such as a RAM (Random Access Memory), and executed by the CPU. The

撮像装置1は、状態検出用マイクロレンズ像32を含むRAW画像320をメモリ22から読み出し、当該RAW画像320を、着脱可能な不揮発性メモリや図示されないデータI/Fを介して、中心座標群生成プログラムが搭載される情報処理装置に渡す。情報処理装置において、中心座標群生成プログラムが実行され、渡されたRAW画像320に基づき図16または図25のフローチャートによる中心座標群生成処理が実行され、中心座標群が生成される。生成された中心座標群は、着脱可能な不揮発性メモリやデータI/Fを介して撮像装置1に渡され、ROM26に格納される。   The imaging apparatus 1 reads out the RAW image 320 including the state detection microlens image 32 from the memory 22, and generates the center coordinate group using the detachable nonvolatile memory and the data I / F (not shown). The program is passed to the information processing device. In the information processing apparatus, a center coordinate group generation program is executed, and a center coordinate group generation process according to the flowchart of FIG. 16 or FIG. 25 is executed based on the passed RAW image 320, thereby generating a center coordinate group. The generated central coordinate group is transferred to the imaging device 1 via a removable nonvolatile memory or data I / F and stored in the ROM 26.

このように、補正処理部25を撮像装置1の外部の装置上に構成することで、撮像装置1の構成が簡略化でき、例えば撮像装置1自体のコストを低減させることができる。   In this way, by configuring the correction processing unit 25 on an apparatus outside the imaging apparatus 1, the configuration of the imaging apparatus 1 can be simplified, and for example, the cost of the imaging apparatus 1 itself can be reduced.

(第3の実施形態の変形例)
次に、第3の実施形態の変形例について説明する。本変形例では、補正処理部25を、インターネットなどのネットワーク上に接続されるサーバ装置上に構成する。この場合、撮像装置1がインターネットに接続可能に構成してもよいし、撮像装置1で撮像されて得られたRAW画像320をインターネットに接続可能に構成された情報処理装置に転送するようにしてもよい。
(Modification of the third embodiment)
Next, a modification of the third embodiment will be described. In this modification, the correction processing unit 25 is configured on a server device connected to a network such as the Internet. In this case, the imaging apparatus 1 may be configured to be connectable to the Internet, or the RAW image 320 obtained by capturing with the imaging apparatus 1 may be transferred to an information processing apparatus configured to be connectable to the Internet. Also good.

サーバ装置は、撮像装置1や情報処理装置から送信されたRAW画像320をネットワークを介して受信し、受信したRAW画像320に基づき図16または図25のフローチャートによる中心座標群生成処理を実行する。サーバ装置は、中心座標群生成処理により生成された中心画像群をネットワークを介して撮像装置1や情報処理装置に転送する。   The server device receives the RAW image 320 transmitted from the imaging device 1 or the information processing device via the network, and executes center coordinate group generation processing according to the flowchart of FIG. 16 or 25 based on the received RAW image 320. The server device transfers the central image group generated by the central coordinate group generation process to the imaging device 1 and the information processing device via the network.

このように、補正処理部25をインターネットなどネットワークに接続されるサーバ装置上に構成することで、撮像装置1の構成が簡略化でき、例えば撮像装置1自体のコストを低減させることができる。さらに、コンピュータなどの情報処理装置に対して中心座標群生成プログラムをインストールする手間も省かれる。   As described above, by configuring the correction processing unit 25 on a server device connected to a network such as the Internet, the configuration of the imaging device 1 can be simplified, and for example, the cost of the imaging device 1 itself can be reduced. Furthermore, the trouble of installing the central coordinate group generation program in an information processing apparatus such as a computer is saved.

なお、本発明は上述した各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、各実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiments. For example, some components may be deleted from all the components shown in each embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

1 撮像装置
10 カメラモジュール
11 メインレンズ
12,12’,12” マイクロレンズアレイ
13 撮像素子
20 ISP
21 カメラモジュールI/F
22 メモリ
23 画像処理部
25 補正処理部
26 ROM
30,30”,300,301,302,303, マイクロレンズ像
32 状態検出用マイクロレンズ像
120,120a1,120b1,120c マイクロレンズ
121 状態検出用マイクロレンズ
122 アパーチャ
123 レンチキュラーレンズ
300 画像
320 RAW画像
DESCRIPTION OF SYMBOLS 1 Imaging device 10 Camera module 11 Main lens 12, 12 ', 12 "Micro lens array 13 Imaging element 20 ISP
21 Camera module I / F
22 Memory 23 Image processing unit 25 Correction processing unit 26 ROM
30, 30 ″, 30 0 , 30 1 , 30 2 , 30 3 , micro lens image 32 micro lens image for state detection 120, 120 a 1 , 120 b 1 , 120 c micro lens 121 micro lens for state detection 122 aperture 123 lenticular lens 300 Image 320 RAW image

Claims (10)

撮像マイクロレンズ領域に設けられ、2次元像を結像する複数のマイクロレンズと、
前記撮像マイクロレンズ領域の外周部に設けられ、前記マイクロレンズの結像面において該マイクロレンズが結像する像よりも小さい径の像を生成する状態検出部と
を備える固体撮像素子用のマイクロレンズアレイ。
A plurality of microlenses provided in the imaging microlens region to form a two-dimensional image;
A microlens for a solid-state imaging device, which is provided on an outer peripheral portion of the imaging microlens region, and includes a state detection unit that generates an image having a smaller diameter than an image formed by the microlens on the imaging surface of the microlens array.
前記状態検出部は、マイクロレンズを含んで構成される
ことを特徴とする請求項1に記載の固体撮像素子用のマイクロレンズアレイ。
The microlens array for a solid-state imaging device according to claim 1, wherein the state detection unit includes a microlens.
前記状態検出部は、レンチキュラーレンズを含んで構成される
ことを特徴とする請求項1または請求項2に記載の固体撮像素子用のマイクロレンズアレイ。
The micro lens array for a solid-state imaging device according to claim 1, wherein the state detection unit includes a lenticular lens.
前記状態検出部は、アパーチャを含んで構成される
ことを特徴とする請求項1乃至請求項3の何れか1項に記載の固体撮像素子用のマイクロレンズアレイ。
The micro lens array for a solid-state imaging device according to any one of claims 1 to 3, wherein the state detection unit includes an aperture.
請求項1乃至請求項4の何れか1項に記載の固体撮像素子用のマイクロレンズアレイと、
前記固体撮像素子用のマイクロレンズアレイからの光を受光し、受光された光を画素毎に電気信号に変換して出力する撮像素子と
を有する
ことを特徴とする固体撮像素子。
A microlens array for a solid-state imaging device according to any one of claims 1 to 4,
A solid-state imaging device comprising: an imaging device that receives light from the microlens array for the solid-state imaging device, converts the received light into an electrical signal for each pixel, and outputs the electrical signal.
前記撮像素子は、
前記固体撮像素子用のマイクロレンズアレイのうち前記状態検出部からの光が受光される領域の画素にはカラーフィルタを設けない
ことを特徴とする請求項5に記載の固体撮像素子。
The image sensor is
6. The solid-state image pickup device according to claim 5, wherein a color filter is not provided in a pixel in a region where light from the state detection unit is received in the microlens array for the solid-state image pickup device.
請求項5または請求項6に記載の固体撮像素子と、
前記状態検出部からの光を用いて前記複数のマイクロレンズそれぞれの中心座標を補正するための補正係数を算出する補正部と
を有する
ことを特徴とする撮像装置。
A solid-state imaging device according to claim 5 or 6,
An image pickup apparatus comprising: a correction unit that calculates a correction coefficient for correcting center coordinates of each of the plurality of microlenses using light from the state detection unit.
前記補正部は、
前記撮像素子の出力に基づき、前記撮像マイクロレンズ領域に対する光軸の中心位置と、前記状態検出部からの光が前記撮像素子に受光される受光位置とを取得し、取得した前記中心位置と前記受光位置と、理想モデルにおける前記中心位置と前記受光位置との差分に基づき、前記撮像素子上での前記複数のマイクロレンズそれぞれの位置情報を補正する
ことを特徴とする請求項7に記載の撮像装置。
The correction unit is
Based on the output of the imaging device, the center position of the optical axis with respect to the imaging microlens region and the light receiving position at which the light from the state detection unit is received by the imaging device are acquired. 8. The imaging according to claim 7, wherein position information of each of the plurality of microlenses on the imaging element is corrected based on a light receiving position and a difference between the center position and the light receiving position in an ideal model. apparatus.
前記補正部は、
さらに、前記撮像素子の、前記撮像マイクロレンズ領域からの光を受光した出力に基づき像高依存性の補正係数を求め、前記差分と前記補正係数とに基づき、前記撮像素子上での前記複数のマイクロレンズそれぞれの位置情報を補正する
ことを特徴とする請求項8に記載の撮像装置。
The correction unit is
Further, an image height-dependent correction coefficient is obtained based on an output of the image sensor that receives light from the imaging microlens region, and the plurality of the image sensors on the image sensor are obtained based on the difference and the correction coefficient. The image pickup apparatus according to claim 8, wherein position information of each microlens is corrected.
請求項5または請求項6に記載の固体撮像素子と、
被写体からの光を前記固体撮像素子に導くメインレンズと
を有し、
前記固体撮像素子用のマイクロレンズアレイは、前記メインレンズと前記撮像素子との間に設けられる
ことを特徴とするレンズユニット。
A solid-state imaging device according to claim 5 or 6,
A main lens that guides light from the subject to the solid-state image sensor,
The lens unit, wherein the microlens array for the solid-state imaging device is provided between the main lens and the imaging device.
JP2014181543A 2013-09-19 2014-09-05 Microlens array for solid state image pickup element, solid state image pickup element, imaging device and lens unit Pending JP2015084089A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014181543A JP2015084089A (en) 2013-09-19 2014-09-05 Microlens array for solid state image pickup element, solid state image pickup element, imaging device and lens unit
US14/481,999 US9596402B2 (en) 2013-09-19 2014-09-10 Microlens array for solid-state image sensing device, solid-state image sensing device, imaging device, and lens unit

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013194666 2013-09-19
JP2013194666 2013-09-19
JP2014181543A JP2015084089A (en) 2013-09-19 2014-09-05 Microlens array for solid state image pickup element, solid state image pickup element, imaging device and lens unit

Publications (1)

Publication Number Publication Date
JP2015084089A true JP2015084089A (en) 2015-04-30

Family

ID=52667618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014181543A Pending JP2015084089A (en) 2013-09-19 2014-09-05 Microlens array for solid state image pickup element, solid state image pickup element, imaging device and lens unit

Country Status (2)

Country Link
US (1) US9596402B2 (en)
JP (1) JP2015084089A (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11037277B2 (en) * 2017-08-25 2021-06-15 Canon Kabushiki Kaisha Image processing apparatus, imaging apparatus, lens apparatus, and image processing method
EP3988893A4 (en) 2019-06-21 2023-01-11 Sony Interactive Entertainment Inc. Position detection system, image processing device, position detection method, and position detection program
DE102019007311B3 (en) * 2019-10-21 2020-09-24 SEW-EURODRlVE GmbH & Co. KG Receiver for a system for light transmission, system for light transmission and method for operating a system for light transmission

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101147392B (en) * 2005-03-24 2012-05-09 松下电器产业株式会社 Imaging device and lens array used therein
JP4706882B2 (en) 2009-02-05 2011-06-22 ソニー株式会社 Imaging device
EP2244484B1 (en) 2009-04-22 2012-03-28 Raytrix GmbH Digital imaging method for synthesizing an image using data recorded with a plenoptic camera
JP5351195B2 (en) * 2011-03-08 2013-11-27 株式会社東芝 Solid-state imaging device and portable information terminal
JP2012205014A (en) 2011-03-24 2012-10-22 Casio Comput Co Ltd Manufacturing device and manufacturing method of imaging apparatus, and imaging apparatus

Also Published As

Publication number Publication date
US20150077585A1 (en) 2015-03-19
US9596402B2 (en) 2017-03-14

Similar Documents

Publication Publication Date Title
US11856291B2 (en) Thin multi-aperture imaging system with auto-focus and methods for using same
JP6091176B2 (en) Image processing method, image processing program, image processing apparatus, and imaging apparatus
KR101627087B1 (en) Image processing apparatus, image processing method and storage medium, and image pickup apparatus including image processing apparatus
JP5984493B2 (en) Image processing apparatus, image processing method, imaging apparatus, and program
JP5591851B2 (en) Solid-state imaging device and portable information terminal
KR101725045B1 (en) Image processing apparatus and control method thereof
JP6189061B2 (en) Solid-state imaging device
JP5826901B2 (en) Imaging apparatus and optical axis position calculation method
JP2015084089A (en) Microlens array for solid state image pickup element, solid state image pickup element, imaging device and lens unit
US9143762B2 (en) Camera module and image recording method
JP2009047734A (en) Imaging apparatus and image processing program
JP6362070B2 (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium
WO2019202984A1 (en) Image capturing device, distance measuring method, distance measuring program, and recording medium
JP2015060121A (en) Color filter array and solid-state imaging element
JP2009047735A (en) Imaging apparatus and image processing program
JP2019219594A (en) Processing apparatus, imaging apparatus, interchangeable lens, processing method and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102