JP2010263353A - Photo detecting device and image pickup device - Google Patents

Photo detecting device and image pickup device Download PDF

Info

Publication number
JP2010263353A
JP2010263353A JP2009111856A JP2009111856A JP2010263353A JP 2010263353 A JP2010263353 A JP 2010263353A JP 2009111856 A JP2009111856 A JP 2009111856A JP 2009111856 A JP2009111856 A JP 2009111856A JP 2010263353 A JP2010263353 A JP 2010263353A
Authority
JP
Japan
Prior art keywords
image
pixels
microlens
color
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009111856A
Other languages
Japanese (ja)
Other versions
JP5394814B2 (en
Inventor
Toshiyuki Tanaka
俊幸 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to JP2009111856A priority Critical patent/JP5394814B2/en
Priority to KR1020100004475A priority patent/KR101679293B1/en
Priority to US12/772,285 priority patent/US8358365B2/en
Publication of JP2010263353A publication Critical patent/JP2010263353A/en
Application granted granted Critical
Publication of JP5394814B2 publication Critical patent/JP5394814B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • G02B3/0056Arrays characterized by the distribution or form of lenses arranged along two different directions in a plane, e.g. honeycomb arrangement of lenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Optics & Photonics (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Color Television Image Signal Generators (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a photo detecting device obtaining a color image without deteriorating effects of a lens array even when an optical system is equipped with the lens array composed of a microlens group, and to provide an image pickup device. <P>SOLUTION: The photo detecting device includes a lens array having a plurality of lenses arranged regularly on a single plane, and a photoelectric converter having a plurality of photoelectric conversion areas, each area comprising a plurality of pixels which are provided on the single plane to correspond with the irradiation ranges of transmitted light of the lenses in the lens array. The photoelectric conversion element has different spectral sensitivity characteristics in the first area centering on the optical axis of the lens, and the second area around the first region. The image pickup device equipped with the photo detecting device is also provided. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、光検出素子及び撮像装置に関する。   The present invention relates to a light detection element and an imaging device.

従来の一般的なデジタルスチルカメラは、フォーカスレンズで集光した光をCCDイメージセンサやCMOSイメージセンサその他の撮像素子に照射することでカラー画像信号を生成している。しかし最近では、レンズと撮像素子の間に単一平面上に配列されたマイクロレンズ群からなるレンズアレイを備える光学系を有する撮像装置が提案されている(例えば非特許文献1参照)。かかる撮像装置はプレノプティック(Plenoptic)型の撮像装置と称されている。   A conventional general digital still camera generates a color image signal by irradiating light collected by a focus lens to a CCD image sensor, a CMOS image sensor, or other imaging devices. Recently, however, an imaging apparatus having an optical system including a lens array including a group of microlenses arranged on a single plane between a lens and an imaging element has been proposed (for example, see Non-Patent Document 1). Such an imaging apparatus is called a plenoptic type imaging apparatus.

非特許文献1には、かかる光学系により得られた画像を再構成することで、被写界深度を自在に決定する事例が紹介されており、視差を利用した測距や、3D画像への応用、解像度の向上等の展開が考えられている。また、かかる光学系を用いた技術としては、例えば特許文献1〜3が挙げられる。   Non-Patent Document 1 introduces an example of freely determining the depth of field by reconstructing an image obtained by such an optical system. Developments such as application and resolution improvement are considered. Moreover, as a technique using such an optical system, for example, Patent Documents 1 to 3 are cited.

特開2003−163938号公報JP 2003-163938 A 特開2004−146619号公報JP 2004-146619 A 特開2007−317951号公報JP 2007-317951 A

(Ren Ng)、他5名 “Light Field Photograph with a Hand-heldPlenoptic Camera”、Stanford Tech Report CTSR 2005-02、p.1-11(Ren Ng) and 5 others “Light Field Photograph with a Hand-held Plenoptic Camera”, Stanford Tech Report CTSR 2005-02, p.1-11

このようなマイクロレンズ群からなるレンズアレイを備える光学系を備えるデジタルスチルカメラは、マイクロレンズごとに分離された複数の光束情報を入手することができるので、被写界深度のコントロール、解像度の向上、視差を利用した距離測定等へ利用できることが期待されている。一方、デジタルスチルカメラにこのようなマイクロレンズ群からなるレンズアレイを備える光学系を備えた場合においては、画像データのカラー化が必須となる。   A digital still camera including an optical system including a lens array composed of such microlens groups can obtain information on a plurality of light beams separated for each microlens, so that control of depth of field and improvement of resolution can be obtained. It is expected to be usable for distance measurement using parallax. On the other hand, when a digital still camera is provided with an optical system including a lens array composed of such microlens groups, colorization of image data is essential.

一般的な撮像装置は、単板の2次元撮像素子からカラー画像を生成する場合には、ベイヤー配列に代表されるように、位置毎に異なる分光特性を与えることで色情報を入手した後に、補間処理によって画素ごとに色を決定することでフルカラー画像データを生成している。   When a general imaging device generates a color image from a single-plate two-dimensional imaging device, as represented by the Bayer array, after obtaining color information by giving different spectral characteristics for each position, Full color image data is generated by determining a color for each pixel by interpolation processing.

しかし、プレノプティック型の撮像装置では、マイクロレンズごとに分離された複数の光束情報に対してベイヤー化すると、光束情報の欠落に繋がるという問題があった。また、ベイヤー配列により分離された光束情報を増やそうとすると、マイクロレンズの微細化が要求され、マイクロレンズの微細化要求に伴ってマイクロレンズ加工の微細化や撮像素子の微細化が必要となり、技術的困難性やコスト増加を伴うという問題もあった。   However, in the plenoptic type imaging device, there is a problem in that when a plurality of light flux information separated for each microlens is Bayered, the light flux information is lost. In addition, when trying to increase the light flux information separated by the Bayer arrangement, microlens miniaturization is required, and microlens processing miniaturization and imaging element miniaturization are required in accordance with microlens miniaturization requirements. There was also a problem that it was accompanied by technical difficulty and cost increase.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、マイクロレンズ群からなるレンズアレイを備える光学系であっても、当該レンズアレイを備えることによる効果を損なわずにカラー画像を得ることが可能な、新規かつ改良された光検出素子及び撮像装置を提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is an effect obtained by providing the lens array even if the optical system includes a lens array including a microlens group. It is an object of the present invention to provide a novel and improved photodetecting element and imaging apparatus capable of obtaining a color image without impairing the above.

上記課題を解決するために、本発明のある観点によれば、単一平面上に設けられる複数のレンズが規則的に配列されたレンズアレイと、前記レンズアレイの各レンズの透過光の照射範囲に対応して単一平面上に設けられる複数の光電変換素子を備える光電変換部と、を備え、前記光電変換素子は、前記レンズの光軸を中心に設けられる第1領域と、前記第1領域の周辺に設けられる第2領域とで、異なる分光感度特性を有することを特徴とする、光検出素子が提供される。この結果、画像の再構成処理で用いる第1領域に主信号成分を受光させて、分離光束の欠損分が原画像から間引かれるのを未然に回避できるとともに、残りの第2領域に従信号成分を受光させて多チャンネル化を実現できる。   In order to solve the above problems, according to one aspect of the present invention, a lens array in which a plurality of lenses provided on a single plane are regularly arranged, and an irradiation range of transmitted light of each lens of the lens array A photoelectric conversion unit including a plurality of photoelectric conversion elements provided on a single plane, wherein the photoelectric conversion element is provided with a first region provided around the optical axis of the lens, and the first There is provided a photodetecting element characterized by having different spectral sensitivity characteristics in the second region provided around the region. As a result, the main signal component is received in the first region used in the image reconstruction process, so that the loss of the separated light flux can be prevented from being thinned out from the original image, and the remaining signals in the second region are signaled. Multiple components can be realized by receiving the components.

前記第1領域は輝度信号に相当する分光感度特性を有し、前記第2領域は色信号に相当する分光感度特性を有するようにした。この結果、画像の再構成処理で用いる第1領域に輝度成分を受光させて、分離光束の欠損分が原画像から間引かれるのを未然に回避できるとともに、残りの第2領域に色成分を受光させてカラー化を実現できる。   The first region has a spectral sensitivity characteristic corresponding to a luminance signal, and the second region has a spectral sensitivity characteristic corresponding to a color signal. As a result, the luminance component is received in the first region used in the image reconstruction process, so that the loss of the separated light flux can be prevented from being thinned out from the original image, and the color component can be added to the remaining second region. Colorization can be realized by receiving light.

各前記光電変換領域は、前記画素の分光特性の配列パターンが全て同一であるようにした。この結果、マイクロレンズの微細化にあたって設計及び加工も、配列パターンが不規則な場合と比較して格段と容易にすることができる。   In each of the photoelectric conversion regions, the arrangement pattern of the spectral characteristics of the pixels is all the same. As a result, the design and processing for micro lens miniaturization can be made much easier than in the case where the arrangement pattern is irregular.

前記第2領域は、前記レンズアレイの各レンズからの透過光の照射範囲に含まれるように設けられることができる。この結果、各レンズごとに分離された光束情報に欠落が生じるのを回避することができる。   The second region may be provided so as to be included in an irradiation range of transmitted light from each lens of the lens array. As a result, it is possible to avoid the occurrence of omission in the luminous flux information separated for each lens.

以上説明したように本発明によれば、マイクロレンズ群からなるレンズアレイを備える光学系であっても、当該レンズアレイを備えることによる効果を損なわずにカラー画像を得ることが可能な光検出素子及び撮像装置を提供することができる。   As described above, according to the present invention, even if an optical system includes a lens array including a microlens group, a photodetecting element capable of obtaining a color image without impairing the effects of including the lens array. In addition, an imaging device can be provided.

マイクロレンズ群からなるレンズアレイを備える光学系について説明する説明図である。It is explanatory drawing explaining an optical system provided with the lens array which consists of a micro lens group. マイクロレンズ群からなるレンズアレイを備える光学系について説明する説明図である。It is explanatory drawing explaining an optical system provided with the lens array which consists of a micro lens group. レンズアレイを備える光学系で撮像した画像をカラー化する場合について示す説明図である。It is explanatory drawing shown about the case where the image imaged with the optical system provided with a lens array is colorized. レンズアレイを備える光学系で撮像した画像をカラー化する場合について示す説明図である。It is explanatory drawing shown about the case where the image imaged with the optical system provided with a lens array is colorized. 本発明の一実施形態にかかる撮像装置100の構成について示す説明図である。It is explanatory drawing shown about the structure of the imaging device 100 concerning one Embodiment of this invention. 本発明の一実施形態にかかる撮像装置100に用いられる撮像センサ106の構成について示す説明図である。It is explanatory drawing shown about the structure of the image sensor 106 used for the imaging device 100 concerning one Embodiment of this invention. 図6に示した撮像センサ106を拡大したものを示す説明図である。It is explanatory drawing which shows what expanded the image sensor 106 shown in FIG. 色の三原色であるR,G,Bの各色の波長とスペクトラム強度との関係を示す説明図である。It is explanatory drawing which shows the relationship between the wavelength and spectrum intensity | strength of each color of R, G, and B which are three primary colors. シアン、マゼンタ、イエローの各色の波長とスペクトラム強度との関係を示す説明図である。It is explanatory drawing which shows the relationship between the wavelength of each color of cyan, magenta, and yellow and spectrum intensity. 図10は輝度信号の波長とスペクトラム強度との関係を示す説明図である。FIG. 10 is an explanatory diagram showing the relationship between the wavelength of the luminance signal and the spectrum intensity. 本発明の一実施形態にかかる撮像装置100を用いた撮像方法について示す流れ図である。It is a flowchart shown about the imaging method using the imaging device 100 concerning one Embodiment of this invention. 本発明の一実施形態にかかる撮像装置100におけるカラー画像の生成方法について示す流れ図である。3 is a flowchart illustrating a method for generating a color image in the imaging apparatus 100 according to the embodiment of the present invention. 撮像センサ106の構成の変形例を示す説明図である。It is explanatory drawing which shows the modification of a structure of the image sensor. マイクロレンズアレイ104´の構成を示す説明図である。It is explanatory drawing which shows the structure of microlens array 104 '. 赤、緑、青の情報を得るための原色フィルタが貼付された撮像センサの構成例について示す説明図である。It is explanatory drawing shown about the structural example of the imaging sensor to which the primary color filter for obtaining the information of red, green, and blue was stuck. 赤、緑、青の情報を得るための原色フィルタが貼付された撮像センサの構成例について示す説明図である。It is explanatory drawing shown about the structural example of the imaging sensor to which the primary color filter for obtaining the information of red, green, and blue was stuck. マイクロレンズアレイ104´´の構成を示す説明図である。It is explanatory drawing which shows the structure of microlens array 104 ''.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

まず、本発明の好適な実施の形態について説明する前に、従来のマイクロレンズ群からなるレンズアレイを備える光学系について説明し、続いて、かかる光学系を用いた場合におけるカラー化の問題点について説明する。   First, before describing a preferred embodiment of the present invention, an optical system having a lens array composed of a conventional microlens group will be described, and subsequently, problems of colorization when such an optical system is used will be described. explain.

図1及び図2は、マイクロレンズ群からなるレンズアレイを備える光学系について説明する説明図である。図1は、被写体からの光を集光するレンズと撮像素子との間にレンズアレイを備えたものを側面方向から見た場合について示す説明図であり、図2は、レンズアレイの配置状態を概念的に示す説明図である。   1 and 2 are explanatory diagrams for explaining an optical system including a lens array including a microlens group. FIG. 1 is an explanatory diagram showing a case where a lens array is provided between a lens for condensing light from a subject and an image pickup device when viewed from the side, and FIG. 2 shows an arrangement state of the lens array. It is explanatory drawing shown notionally.

図1に示したように、マイクロレンズ群からなるレンズアレイを備える光学系においては、主レンズ11を通過した被写体からの光がレンズアレイ12の各マイクロレンズ12aに合焦するように投影される。そして、撮像センサ13には、マイクロレンズ12aを透過した光が照射される。   As shown in FIG. 1, in an optical system including a lens array composed of microlens groups, light from a subject passing through the main lens 11 is projected so as to be focused on each microlens 12 a of the lens array 12. . The image sensor 13 is irradiated with light transmitted through the microlens 12a.

撮像センサ13には、隣接するマイクロレンズ12aからの光が重ならないように、主レンズ11の絞り14を設定することが上記非特許文献1に記載されている。そして、上記非特許文献1には、図1に示したような光学系で得られた画像を再構成することで、被写界深度を自在に決定する事例が紹介されている。従って、このようなマイクロレンズ群からなるレンズアレイを備える光学系は、視差を利用した測距や三次元画像への応用、解像度の向上処理への展開が考えられている。   Non-Patent Document 1 discloses that the imaging sensor 13 is set with a diaphragm 14 of the main lens 11 so that light from adjacent microlenses 12a does not overlap. Non-Patent Document 1 introduces an example in which the depth of field is freely determined by reconstructing an image obtained by the optical system as shown in FIG. Accordingly, an optical system including a lens array including such a microlens group is considered to be developed for distance measurement using parallax, application to a three-dimensional image, and resolution improvement processing.

かかる光学系を汎用的なデジタルスチルカメラに利用する場合には、撮影画像のカラー化をどのように行うかが課題となる。ダイクロイックミラー(dichroic mirror)等を用いて分光し、複数の撮像センサを用いてカラー化する手法が考えられるが、これは撮像センサの設置スペースやコスト面から不利となるため、単板の撮像センサを用いてカラー化する手法が一般的である。そして、単板の撮像センサを用いてカラー化する際には、分光フィルタを受光素子の前面に特定のパターン配列で貼って撮像し、後に補間処理により全ての画素ごとに色情報を揃える手法が知られている。しかし、当該手法をマイクロレンズ群からなるレンズアレイを備える光学系にそのまま適用すると問題が生じてしまう。   When such an optical system is used for a general-purpose digital still camera, how to colorize a captured image becomes a problem. A method of performing spectroscopy using a dichroic mirror or the like and performing colorization using a plurality of imaging sensors is considered, but this is disadvantageous in terms of installation space and cost of the imaging sensor. A method of colorizing using is generally used. And when colorizing using a single-plate imaging sensor, there is a technique in which a spectral filter is pasted on the front surface of the light receiving element in a specific pattern arrangement and imaged, and later color information is aligned for every pixel by interpolation processing. Are known. However, if this method is applied as it is to an optical system including a lens array composed of microlens groups, a problem occurs.

図3は、デジタルスチルカメラで広く用いられているベイヤー配列を有する分光フィルタによって、レンズアレイを備える光学系で撮像した画像をカラー化する場合について示す説明図である。図3では、縦8画素×横8画素のブロックを1つのマイクロレンズに対応させた場合について示しており、図3に示したそれぞれの円は1つのマイクロレンズの投影範囲を表している。   FIG. 3 is an explanatory diagram illustrating a case where an image captured by an optical system including a lens array is colorized by a spectral filter having a Bayer array that is widely used in digital still cameras. FIG. 3 shows a case in which a block of 8 vertical pixels × 8 horizontal pixels is associated with one microlens, and each circle shown in FIG. 3 represents a projection range of one microlens.

所定の光学経路を通って撮像されるデータは特定の色情報として得ることとなるので、再構成処理にあたって同色同士で行うのが適当である。しかし、図3に示した分光フィルタのパターンは、最も多い緑色(G)成分であっても市松模様状のパターンでしか情報を持ち得ないので欠損状態となる。   Since data captured through a predetermined optical path is obtained as specific color information, it is appropriate to perform the same color for the reconstruction process. However, even if the spectral filter pattern shown in FIG. 3 has the largest amount of green (G) components, it can only have information in a checkered pattern, and therefore is in a defective state.

情報を増やすために、マイクロレンズ単位で分光特性を変えて画像のカラー化を試みる方法も考えられる。図4は、マイクロレンズ単位で特性が異なる分光フィルタによって、レンズアレイを備える光学系で撮像した画像をカラー化する場合について示す説明図である。図4では、図3と同様に、縦8画素×横8画素のブロックを1つのマイクロレンズに対応させた場合について示しており、図4に示したそれぞれの円は1つのマイクロレンズの投影範囲を表している。   In order to increase the information, a method of trying to colorize an image by changing the spectral characteristics in units of microlenses can be considered. FIG. 4 is an explanatory diagram illustrating a case where an image captured by an optical system including a lens array is colorized by a spectral filter having different characteristics in units of microlenses. 4 shows a case where a block of 8 vertical pixels × 8 horizontal pixels is associated with one microlens, as in FIG. 3, and each circle shown in FIG. 4 indicates the projection range of one microlens. Represents.

図4に示したような、マイクロレンズ単位で分光特性が異なる分光フィルタを用いた場合には、注目するマイクロレンズ単位で考えると、撮影画像に対する再構成処理は、図3に示したようなベイヤー配列を有する分光フィルタを用いた場合よるも有利である。しかし、レンズアレイを備える光学系は、1画素の情報をさらに分割して撮像するため、再構成後の画素数はマイクロレンズの数に減少する。さらに、この減少した画素から補間処理を実行することになるので、レンズアレイを備えるデジタルスチルカメラは、同じ撮像センサを用いた通常の光学系を有するデジタルスチルカメラに比べて少ない画素数となることを余儀なくされる。図4に示したような分光フィルタを用いる場合には、1つのマイクロレンズあたり64個の画素が割り当てられている。従って、記録画素数は撮像センサの画素数の1/64となる。補間処理は、記録されていない高周波成分を予測した作成や、色情報の位相のずれに起因する境界部の着色などの課題もあり、少ない画素数で実施すると画質の劣化が目立ちやすくなってしまう。   When spectral filters having different spectral characteristics in units of microlenses as shown in FIG. 4 are used, the reconstruction processing for a captured image is performed as shown in FIG. It is also advantageous if a spectral filter having an array is used. However, since the optical system including the lens array further divides and captures information of one pixel, the number of pixels after reconstruction is reduced to the number of microlenses. Furthermore, since interpolation processing is executed from this reduced pixel, a digital still camera equipped with a lens array has a smaller number of pixels than a digital still camera having a normal optical system using the same imaging sensor. Will be forced. When a spectral filter as shown in FIG. 4 is used, 64 pixels are assigned to one microlens. Therefore, the number of recorded pixels is 1/64 of the number of pixels of the image sensor. Interpolation processing also has problems such as creating predictions of high-frequency components that are not recorded, and coloring borders due to phase shifts in color information, and if performed with a small number of pixels, degradation of image quality becomes more noticeable .

そこで、以下で説明する本発明の一実施形態においては、各マイクロレンズが照射する範囲において、画像の再構成に使用する領域で撮像される画素は輝度信号を受光し、それ以外の領域では補色フィルタを貼付してカラー信号を得る撮像センサを構成する。ここで、画像の再構成に使用する領域は、各マイクロレンズの光軸を中心とした所定の領域であることを特徴としている。   Therefore, in one embodiment of the present invention described below, pixels that are imaged in an area used for image reconstruction within a range irradiated by each microlens receive a luminance signal, and complementary colors in other areas. An imaging sensor that obtains a color signal by attaching a filter is configured. Here, the region used for image reconstruction is a predetermined region centered on the optical axis of each microlens.

図5は、本発明の一実施形態にかかる撮像装置100の構成について示す説明図である。以下、図5を用いて本発明の一実施形態にかかる撮像装置100の構成について説明する。   FIG. 5 is an explanatory diagram showing the configuration of the imaging apparatus 100 according to the embodiment of the present invention. Hereinafter, the configuration of the imaging apparatus 100 according to the embodiment of the present invention will be described with reference to FIG.

図5に示したように、本発明の一実施形態にかかる撮像装置100は、主レンズ102と、マイクロレンズアレイ104と、撮像センサ106と、CPU108と、メモリ110と、アナログフロントエンド(AFE)部及びA/D変換部112と、画像入力部114と、カラー画素生成部116と、画像再構成部118と、デジタルバックエンド(DBE)部120と、画像圧縮部122と、メモリカードドライバ124と、表示画像生成部126と、表示ドライバ128と、タイミングジェネレータ(TG)130と、モータドライバ132と、フォーカスレンズモータ134と、を含んで構成される。   As shown in FIG. 5, the imaging apparatus 100 according to the embodiment of the present invention includes a main lens 102, a microlens array 104, an imaging sensor 106, a CPU 108, a memory 110, and an analog front end (AFE). And A / D converter 112, image input unit 114, color pixel generation unit 116, image reconstruction unit 118, digital back end (DBE) unit 120, image compression unit 122, and memory card driver 124. A display image generation unit 126, a display driver 128, a timing generator (TG) 130, a motor driver 132, and a focus lens motor 134.

主レンズ102は、被写体へ焦点を合わせるためのレンズであるフォーカスレンズや、焦点距離を変化させるズームレンズ等を含んで構成される。フォーカスレンズモータ134の駆動により主レンズ102に含まれるフォーカスレンズの位置を移動させることで、撮像装置100は被写体に焦点を合わせることができる。   The main lens 102 includes a focus lens that is a lens for focusing on a subject, a zoom lens that changes a focal length, and the like. By moving the position of the focus lens included in the main lens 102 by driving the focus lens motor 134, the imaging apparatus 100 can focus on the subject.

マイクロレンズアレイ104は、複数のマイクロレンズ群から構成されるレンズアレイである。マイクロレンズアレイ104は、マイクロレンズ104aが単一平面上に規則的に配列することで構成される。主レンズ102を通過した光はマイクロレンズアレイ104の各マイクロレンズを通過して撮像センサ106へ照射されることになる。   The microlens array 104 is a lens array composed of a plurality of microlens groups. The microlens array 104 is configured by regularly arranging microlenses 104a on a single plane. The light that has passed through the main lens 102 passes through each microlens of the microlens array 104 and is irradiated to the image sensor 106.

撮像センサ106は、マイクロレンズアレイ104を構成する各マイクロレンズ104aを通過した光から画像信号を生成するものである。撮像センサ106は、各マイクロレンズ104aに対応した所定の受光パターンを有しており、上述したように、各マイクロレンズ104aが照射する範囲において、画像の再構成に使用する領域で撮像される画素は輝度信号を受光し、それ以外の領域では補色フィルタが貼付されており、カラー信号を得るように構成されている。撮像センサ106の構成については後に詳述する。   The imaging sensor 106 generates an image signal from the light that has passed through each microlens 104 a that constitutes the microlens array 104. The imaging sensor 106 has a predetermined light receiving pattern corresponding to each microlens 104a, and as described above, pixels that are imaged in an area used for image reconstruction in the range irradiated by each microlens 104a. Is configured to receive a luminance signal, and a complementary color filter is attached in other areas to obtain a color signal. The configuration of the image sensor 106 will be described in detail later.

CPU108は、撮像装置100の各部の動作を制御するものである。CPU108は、撮像装置100の内部に格納されたコンピュータプログラムを順次実行することで、撮像装置100の各部の動作を制御することができる。またメモリ110は、撮像装置100の動作の際に必要となる情報やデータが格納されるものである。   The CPU 108 controls the operation of each unit of the imaging device 100. The CPU 108 can control the operation of each unit of the imaging apparatus 100 by sequentially executing computer programs stored in the imaging apparatus 100. The memory 110 stores information and data necessary for the operation of the imaging apparatus 100.

アナログフロントエンド部及びA/D変換部112は、撮像センサ106で光電変換されたアナログの信号を受け取り、デジタル信号に変換して出力するものである。アナログフロントエンド部及びA/D変換部112でデジタル信号に変換された信号は画像入力部114に送られる。   The analog front end unit and A / D conversion unit 112 receives an analog signal photoelectrically converted by the image sensor 106, converts it into a digital signal, and outputs it. The signal converted into a digital signal by the analog front end unit and A / D conversion unit 112 is sent to the image input unit 114.

画像入力部114は、アナログフロントエンド部及びA/D変換部112で生成されたデジタル信号を受け取って、メモリ110に格納するものである。アナログフロントエンド部及びA/D変換部112で生成されたデジタル信号がメモリ110に格納されることで、撮像装置100はデジタル信号に対する各種信号処理を実行することができる。   The image input unit 114 receives the digital signal generated by the analog front end unit and the A / D conversion unit 112 and stores the digital signal in the memory 110. By storing the digital signal generated by the analog front end unit and the A / D conversion unit 112 in the memory 110, the imaging apparatus 100 can execute various signal processes on the digital signal.

カラー画素生成部116は、撮像センサ106が受光した光から生成された画像信号に対して色データを生成する信号処理を実行するものである。具体的には、カラー画素生成部116は、撮像センサ106で生成された画像信号のうち、色情報が存在していない画素に対して色データを生成するものである。カラー画素生成部116における色データの生成処理については、後に詳述する。   The color pixel generation unit 116 performs signal processing for generating color data for an image signal generated from light received by the image sensor 106. Specifically, the color pixel generation unit 116 generates color data for pixels in which no color information exists among the image signals generated by the image sensor 106. The color data generation processing in the color pixel generation unit 116 will be described in detail later.

画像再構成部118は、マイクロレンズアレイ104を通して撮像された画像を再構成するものである。画像再構成部118は、例えばマイクロレンズアレイ104を通して撮像された画像の再構成により被写界深度を変更して、合焦させる被写体を変化させることができる。また画像再構成部118は、ノイズの除去や色の補正等による解像度向上処理を実行してもよい。   The image reconstruction unit 118 reconstructs an image captured through the microlens array 104. The image reconstruction unit 118 can change the subject to be focused by changing the depth of field by, for example, reconstruction of an image captured through the microlens array 104. In addition, the image reconstruction unit 118 may perform resolution improvement processing such as noise removal or color correction.

デジタルバックエンド部120は、マイクロレンズアレイ104を通して撮像され、カラー画素生成部116でカラー化された画像に対する画像処理を実行するものであり、例えば彩度を強調する処理を実行したり、画像サイズを変換する処理を実行したりするものである。   The digital back-end unit 120 performs image processing on an image captured through the microlens array 104 and colorized by the color pixel generation unit 116. For example, the digital back-end unit 120 executes processing for enhancing saturation or image size. The process which converts is performed.

画像圧縮部122は、画像データを適切な形式に圧縮するものである。画像の圧縮形式は可逆形式であっても非可逆形式であってもよい。適切な形式の例として、JPEG(Joint Photographic Experts Group)形式やJPEG2000形式に変換してもよい。メモリカードドライバ124は、画像圧縮部122で圧縮された後の画像データの、メモリカード(図示せず)への記録、及びメモリカードに記録された画像データのメモリカードからの読み出しを実行するものである。   The image compression unit 122 compresses image data into an appropriate format. The image compression format may be a reversible format or an irreversible format. As an example of a suitable format, you may convert into a JPEG (Joint Photographic Experts Group) format and a JPEG2000 format. The memory card driver 124 executes recording of the image data compressed by the image compression unit 122 to a memory card (not shown) and reading of the image data recorded on the memory card from the memory card. It is.

表示画像生成部126は、撮影画像や、撮像装置100の各種設定画面を表示する表示部(図示せず)に表示する画像(表示画像)を生成するものである。例えば、撮影画像を表示部に表示させる場合には、表示画像生成部126は、表示部の解像度や画面サイズに合わせて画像データを圧縮して、表示画像を生成する。表示ドライバ128は、表示画像生成部126が生成した表示画像を表示部に表示させる処理を実行するものである。   The display image generation unit 126 generates an image (display image) to be displayed on a display unit (not shown) that displays a captured image and various setting screens of the imaging apparatus 100. For example, when a captured image is displayed on the display unit, the display image generation unit 126 generates a display image by compressing the image data in accordance with the resolution and screen size of the display unit. The display driver 128 executes processing for displaying the display image generated by the display image generation unit 126 on the display unit.

タイミングジェネレータ130は、撮像センサ106にタイミング信号を入力する。タイミングジェネレータ130からのタイミング信号によりシャッタ速度が決定される。つまり、タイミングジェネレータ130からのタイミング信号により撮像センサ106の駆動が制御され、撮像センサ106が駆動する時間内に被写体からの映像光を入射することで、画像データの基となる電気信号が生成される。   The timing generator 130 inputs a timing signal to the image sensor 106. The shutter speed is determined by the timing signal from the timing generator 130. In other words, the drive of the image sensor 106 is controlled by the timing signal from the timing generator 130, and the image signal from the subject is incident within the time that the image sensor 106 is driven, thereby generating an electrical signal that is the basis of the image data. The

モータドライバ132は、CPU108の制御に基づいて、フォーカスレンズモータ134を駆動させるものである。フォーカスレンズモータ134は、モータによって主レンズ102の位置を制御するものである。モータドライバ132及びフォーカスレンズモータ134を介して主レンズ102の位置を制御することで、被写体のピントを調節することができる。   The motor driver 132 drives the focus lens motor 134 based on the control of the CPU 108. The focus lens motor 134 controls the position of the main lens 102 by the motor. By controlling the position of the main lens 102 via the motor driver 132 and the focus lens motor 134, the focus of the subject can be adjusted.

なお、図5には図示していないが、撮像装置100には、絞り、当該絞りを調節するためのモータ、及び当該モータを駆動させるためのモータドライバを備えていても良い。さらに、図5には図示していないが、撮像装置100には、撮影動作を開始するためのシャッタボタン、絞りやシャッタ速度、感度等の撮影情報を設定するための操作ボタン等を備えていてもよい。   Although not shown in FIG. 5, the imaging apparatus 100 may include an aperture, a motor for adjusting the aperture, and a motor driver for driving the motor. Further, although not shown in FIG. 5, the imaging apparatus 100 includes a shutter button for starting a shooting operation, an operation button for setting shooting information such as an aperture, a shutter speed, and sensitivity. Also good.

以上、本発明の一実施形態にかかる撮像装置100の構成について説明した。次に、本発明の一実施形態にかかる撮像装置100に用いられる撮像センサ106の構成について説明する。   The configuration of the imaging device 100 according to the embodiment of the present invention has been described above. Next, the configuration of the imaging sensor 106 used in the imaging apparatus 100 according to an embodiment of the present invention will be described.

図6は、本発明の一実施形態にかかる撮像装置100に用いられる撮像センサ106の構成について示す説明図であり、図7は、図6に示した撮像センサ106を拡大したものを示す説明図である。   FIG. 6 is an explanatory diagram illustrating the configuration of the imaging sensor 106 used in the imaging device 100 according to the embodiment of the present invention, and FIG. 7 is an explanatory diagram illustrating an enlarged version of the imaging sensor 106 illustrated in FIG. 6. It is.

図6に示した円は、図3に示した円と同様に、マイクロレンズアレイ104を構成する1つのマイクロレンズ104aを透過する光が照射される範囲を示したものである。図6に示したように、撮像センサ106には、1つのマイクロレンズ104aを透過する光が照射される範囲に対応して複数の画素が割り当てられている。図6及び図7に示した例では、1つのマイクロレンズ104aに対して縦8画素、横8画素の計64画素が割り当てられており、1つのマイクロレンズ104aを透過した光は当該64個の画素によって光電変換が行われる。   The circle shown in FIG. 6 shows the range irradiated with light that passes through one microlens 104a that constitutes the microlens array 104, like the circle shown in FIG. As shown in FIG. 6, a plurality of pixels are assigned to the imaging sensor 106 corresponding to a range irradiated with light that passes through one microlens 104 a. In the example shown in FIGS. 6 and 7, a total of 64 pixels of 8 pixels in the vertical direction and 8 pixels in the horizontal direction are assigned to one microlens 104a, and the light transmitted through one microlens 104a is the 64 pieces of light. Photoelectric conversion is performed by the pixel.

図6及び図7に示した撮像センサ106では、1つのマイクロレンズ104aに対して割り当てられる64個の画素が、輝度信号を得る画素が含まれる領域と、補色信号を得る画素が含まれる領域とに分けられる。そして、画像再構成部118における再構成処理に用いる領域、すなわち各マイクロレンズの光軸付近で撮像される画素が含まれる領域は輝度信号を得る領域とし、その周囲の画素が含まれる領域は補色信号を得る領域とする。図6に示した撮像センサ106では、Yで示した画素からなる領域が輝度信号を得る領域であり、Cy、Mg、Yeで示した画素からなる領域が補色信号を得る領域となる。Cy、Mg、Yeで示した画素は、それぞれシアン、マゼンタ、イエローの情報を得る画素である。   In the imaging sensor 106 shown in FIGS. 6 and 7, 64 pixels allocated to one microlens 104a include an area including a pixel that obtains a luminance signal, and an area including a pixel that obtains a complementary color signal. It is divided into. An area used for the reconstruction process in the image reconstruction unit 118, that is, an area including pixels captured near the optical axis of each microlens is an area for obtaining a luminance signal, and an area including surrounding pixels is a complementary color. This is the area from which signals are obtained. In the imaging sensor 106 shown in FIG. 6, an area composed of pixels indicated by Y is an area for obtaining a luminance signal, and an area composed of pixels indicated by Cy, Mg, and Ye is an area for obtaining a complementary color signal. Pixels indicated by Cy, Mg, and Ye are pixels that obtain cyan, magenta, and yellow information, respectively.

図7は、1つのマイクロレンズ104aに対して割り当てられている64個の画素について拡大して示す説明図である。図7を用いてより詳細に撮像センサ106の構成を説明する。   FIG. 7 is an explanatory diagram showing an enlarged view of 64 pixels assigned to one microlens 104a. The configuration of the image sensor 106 will be described in more detail with reference to FIG.

画像の再構成に用いられる領域は、図7に示した画素の内、Y0からY51で示した画素からなる領域にあたる。その他の領域の画素にはそれぞれ補色フィルタが貼付され、シアン、マゼンタ、イエローの情報が得られるように構成されている。シアンの情報を得る画素は、図7のCy0〜Cy3で示した画素であり、マゼンタの情報を得る画素は、図7のMg0〜Mg3で示した画素であり、イエローの情報を得る画素は、図7のYe0〜Ye3で示した画素である。Y0からY51の画素に光が照射されることで得られる輝度信号からは、シアン、マゼンタ、イエローの情報を参照することでRGB信号を得ることができる。   An area used for image reconstruction corresponds to an area composed of pixels indicated by Y0 to Y51 among the pixels shown in FIG. Complementary color filters are attached to the pixels in the other regions, respectively, so that information on cyan, magenta, and yellow can be obtained. Pixels for obtaining cyan information are pixels indicated by Cy0 to Cy3 in FIG. 7, pixels for obtaining magenta information are pixels indicated by Mg0 to Mg3 in FIG. 7, and pixels for obtaining yellow information are: These are the pixels indicated by Ye0 to Ye3 in FIG. An RGB signal can be obtained by referring to information on cyan, magenta, and yellow from a luminance signal obtained by irradiating the pixels Y0 to Y51 with light.

補色信号を受光した画素では、輝度信号を受光する領域とは異なる光束の情報になるが、補色信号は輝度信号に比べて人の感度が低いことが知られている。そこで本実施形態では、撮像センサ106の輝度信号が受光した位置と、複数の補色信号の各受光位置との距離差に応じて重みをつけて算出し、輝度信号を受光した位置におけるRGB信号を生成する。   In a pixel that has received a complementary color signal, the light flux information is different from that in a region that receives the luminance signal. However, it is known that the complementary color signal has a lower human sensitivity than the luminance signal. Therefore, in the present embodiment, the RGB signal at the position where the luminance signal is received is calculated by applying a weight according to the distance difference between the position where the luminance signal of the imaging sensor 106 is received and each light receiving position of the plurality of complementary color signals. Generate.

図8は、色の三原色であるR,G,Bの各色の波長とスペクトラム強度との関係を示す説明図であり、図9は、シアン、マゼンタ、イエローの各色の波長とスペクトラム強度との関係を示す説明図であり、図10は輝度信号の波長とスペクトラム強度との関係を示す説明図である。図8〜図10に示したように、輝度信号の波長とスペクトラム強度との関係は、図9に示したシアン、マゼンタ、イエローの各色の波長とスペクトラム強度との関係を含むような特性を有している。従って、複数の補色信号の各受光位置との距離差に応じて重みを付けて算出することで、輝度信号を受光した位置におけるRGB信号を生成することが可能となる。   FIG. 8 is an explanatory diagram showing the relationship between the wavelength of each of the three primary colors R, G, and B and the spectrum intensity, and FIG. 9 shows the relationship between the wavelength of each color of cyan, magenta, and yellow and the spectrum intensity. FIG. 10 is an explanatory diagram showing the relationship between the wavelength of the luminance signal and the spectrum intensity. As shown in FIGS. 8 to 10, the relationship between the wavelength of the luminance signal and the spectrum intensity has characteristics including the relationship between the wavelength of each color of cyan, magenta, and yellow and the spectrum intensity shown in FIG. is doing. Therefore, it is possible to generate an RGB signal at the position where the luminance signal is received by calculating the weighting according to the distance difference between each light receiving position of the plurality of complementary color signals.

以上、撮像装置100に用いられる撮像センサ106の構成について説明した。次に、本発明の一実施形態にかかる撮像装置100を用いた撮像方法、及びカラー画像の生成方法について説明する。   The configuration of the imaging sensor 106 used in the imaging device 100 has been described above. Next, an imaging method using the imaging device 100 according to an embodiment of the present invention and a color image generation method will be described.

図11は、本発明の一実施形態にかかる撮像装置100を用いた撮像方法について示す流れ図であり、図12は、本発明の一実施形態にかかる撮像装置100におけるカラー画像の生成方法について示す流れ図である。以下、図11及び図12を用いて本発明の一実施形態にかかる撮像装置100を用いた撮像方法、及びカラー画像の生成方法について説明する。   FIG. 11 is a flowchart showing an imaging method using the imaging apparatus 100 according to an embodiment of the present invention, and FIG. 12 is a flowchart showing a color image generation method in the imaging apparatus 100 according to an embodiment of the present invention. It is. Hereinafter, an imaging method using the imaging apparatus 100 according to the embodiment of the present disclosure and a color image generation method will be described with reference to FIGS. 11 and 12.

本発明の一実施形態にかかる撮像装置100を用いて被写体を撮影する際には、まず被写体の測光結果を用いて自動的に、または撮影者の手によって最適な絞り値が設定され(ステップS101)、続いて、被写体の測光結果を用いて自動的に、または撮影者の手によって被写体の撮影に最適なシャッタ速度が設定され、また画像を撮影する際のゲインが決定される(ステップS102)。そして、モータドライバ132及びフォーカスレンズモータ134がフォーカスレンズの位置を移動させることでマイクロレンズアレイ104に主被写体が合焦される(ステップS103)。   When a subject is photographed using the imaging apparatus 100 according to the embodiment of the present invention, an optimum aperture value is first set automatically using the photometric result of the subject or by the photographer's hand (step S101). Subsequently, the optimum shutter speed for photographing the subject is set automatically using the photometric result of the subject or by the photographer's hand, and the gain for photographing the image is determined (step S102). . Then, the main subject is focused on the microlens array 104 by the motor driver 132 and the focus lens motor 134 moving the position of the focus lens (step S103).

マイクロレンズアレイ104に主被写体が合焦されると、シャッタボタンの押下によって撮像装置100での撮影処理が実行される(ステップS104)。撮像装置100での撮影処理は、被写体からの映像光を撮像センサ106に照射させることによって実行される。そして、撮像センサ106への光の照射は、上記ステップS102で設定したシャッタ速度の期間のみ照射されるように、タイミングジェネレータ130によって制御される。   When the main subject is focused on the microlens array 104, the photographing process in the imaging device 100 is executed by pressing the shutter button (step S104). The imaging process in the imaging apparatus 100 is executed by irradiating the imaging sensor 106 with image light from a subject. The timing generator 130 controls the irradiation of light to the image sensor 106 so that the irradiation is performed only during the shutter speed period set in step S102.

被写体からの映像光が主レンズ102、マイクロレンズアレイ104を透過して撮像センサ106に照射されると、撮像センサ106で光電変換されて電気信号が生成される。撮像センサ106で生成された電気信号は、アナログフロントエンド部及びA/D変換部112によってデジタル信号に変換され、変換されたデジタル信号は、画像入力部114によって画像データとしてメモリ110に格納される(ステップS105)。   When image light from the subject passes through the main lens 102 and the microlens array 104 and is irradiated to the image sensor 106, photoelectric conversion is performed by the image sensor 106 to generate an electrical signal. The electrical signal generated by the image sensor 106 is converted into a digital signal by the analog front end unit and the A / D conversion unit 112, and the converted digital signal is stored in the memory 110 as image data by the image input unit 114. (Step S105).

画像データがメモリ110に格納されると、カラー画素生成部116は、メモリ110に格納された画像データを読み出して、マイクロレンズ104aで区分けされた領域毎にRGB画像を生成する(ステップS106)。このステップS106における、カラー画素生成部116によるRGB画像の生成処理については、後に詳述する。   When the image data is stored in the memory 110, the color pixel generation unit 116 reads the image data stored in the memory 110, and generates an RGB image for each region divided by the microlens 104a (step S106). The RGB image generation processing by the color pixel generation unit 116 in step S106 will be described in detail later.

上記ステップS106における、カラー画素生成部116によるRGB画像の生成処理が完了すると、続いて、画像再構成部118が、画像の再構成処理に用いる再構成用のパラメータを取得する(ステップS107)。画像の再構成処理に用いる再構成用のパラメータには、例えば撮像装置100から被写体までの距離情報、マイクロレンズアレイ104を構成するマイクロレンズ104aのレンズ間のピッチ等の情報が含まれていてもよい。   When the RGB image generation processing by the color pixel generation unit 116 in step S106 is completed, the image reconstruction unit 118 subsequently acquires reconstruction parameters used for the image reconstruction processing (step S107). The reconstruction parameters used in the image reconstruction process may include information such as distance information from the imaging apparatus 100 to the subject and the pitch between the lenses of the microlens 104a constituting the microlens array 104, for example. Good.

上記ステップS107における、画像再構成部118による再構成用のパラメータの取得が完了すると、続いてその取得したパラメータを用いて、画像再構成部118で画像データの再構成処理を実行する(ステップS108)。画像再構成部118で画像データを再構成することで、撮影時とは異なる被写体に焦点が合った画像を生成することができる。なお、画像データの再構成処理については、例えば非特許文献1に開示されているので、ここでは詳細な説明は省略する。   When the acquisition of reconstruction parameters by the image reconstruction unit 118 in step S107 is completed, the image reconstruction unit 118 performs image data reconstruction processing using the acquired parameters (step S108). ). By reconstructing the image data by the image reconstruction unit 118, it is possible to generate an image focused on a subject different from that at the time of shooting. Note that the image data reconstruction processing is disclosed in, for example, Non-Patent Document 1, and detailed description thereof is omitted here.

上記ステップS108における、画像再構成部118による画像データの再構成処理が完了すると、続いて再構成後の画像データに対して、デジタルバックエンド部120が各種画像処理を実行する(ステップS109)。ここでの各種画像処理とは、例えばノイズ除去処理、彩度強調処理、画像サイズ変換処理等が含まれていてもよい。画像処理が施された画像データはメモリ110に格納される。   When the image reconstruction process by the image reconstruction unit 118 in step S108 is completed, the digital backend unit 120 subsequently executes various image processes on the reconstructed image data (step S109). The various image processings here may include, for example, noise removal processing, saturation enhancement processing, image size conversion processing, and the like. Image data that has undergone image processing is stored in the memory 110.

上記ステップS109における、デジタルバックエンド部120による各種画像処理が完了すると、続いて、画像処理が施された画像データに対する圧縮処理を画像圧縮部122が実行する(ステップS110)。画像データに対する圧縮処理が完了すると、メモリカードドライバ124は、圧縮後の画像データを記録媒体へ保存する(ステップS111)。   When the various types of image processing by the digital back end unit 120 in step S109 are completed, the image compression unit 122 subsequently performs compression processing on the image data on which image processing has been performed (step S110). When the compression process for the image data is completed, the memory card driver 124 stores the compressed image data in the recording medium (step S111).

以上、本発明の一実施形態にかかる撮像装置100を用いた撮像方法について説明した。続いて、図11のステップS106で示した、カラー画素生成部116によるRGB画像の生成処理について詳細に説明する。   The imaging method using the imaging device 100 according to the embodiment of the present invention has been described above. Next, the RGB image generation processing by the color pixel generation unit 116 shown in step S106 of FIG. 11 will be described in detail.

図12は、図11のステップS106で示した、カラー画素生成部116によるRGB画像の生成処理について説明する流れ図である。ここでは、図6及び図7に示したように、1つのマイクロレンズ104aに対応するのが縦8画素×横8画素の計64画素の領域である場合を例にして説明する。   FIG. 12 is a flowchart for explaining the RGB image generation processing by the color pixel generation unit 116 shown in step S <b> 106 of FIG. 11. Here, as shown in FIGS. 6 and 7, a case where a region corresponding to one microlens 104a is an area of 64 pixels in total of 8 pixels vertically × 8 pixels horizontally will be described as an example.

まず、カラー画素生成部116は、マイクロレンズアレイ104を構成するマイクロレンズ104aの数を表す作業用の変数kを0に設定する(ステップS121)。ステップS121で変数kを0に設定すると、続いてカラー画素生成部116は、上述した縦8画素×横8画素の計64画素の領域を8行×8列の行列に置き換えた場合における行の要素を表す変数nを0に設定し(ステップS122)、続いて当該行列の列の要素を表す変数mを0に設定する(ステップS123)。   First, the color pixel generation unit 116 sets a work variable k representing the number of microlenses 104a constituting the microlens array 104 to 0 (step S121). When the variable k is set to 0 in step S121, the color pixel generation unit 116 subsequently replaces the area of 64 pixels in total of 8 pixels by 8 pixels by the matrix of 8 rows by 8 columns. A variable n representing an element is set to 0 (step S122), and then a variable m representing an element of the matrix column is set to 0 (step S123).

各変数を0に設定すると、続いて、カラー画素生成部116は、上述した64画素の領域で区分けされた領域内の、シアン(Cy[n][m])、マゼンタ(Mg[n][m])、イエロー(Ye[n][m])の値を算出する(ステップS124)。Cy[n][m]、Mg[n][m]、Ye[n][m]は、それぞれ、64画素の領域の四隅の画素からの距離に応じた加重平均で算出される。まずは算出対象の画素と、四隅のそれぞれの画素との距離を算出する。四隅の画素から算出対象の画素までの距離d0、d1、d2、d3は、それぞれ下記の数式1〜数式4で表すことができる。なお、図7に示したように、四隅のCy、Mg、Yeの各画素の位置は異なっているので、四隅のシアン、マゼンタ、イエローの各画素の位置から算出対象の画素までの距離d0、d1、d2、d3は、シアン、マゼンタ、イエローでそれぞれ異なることになる。従って、下記の数式1〜数式4は、シアン、マゼンタ、イエローでそれぞれ異なる式で表すのが適切であるが、ここでは概念を示すに留め、以下においては説明を簡略化するため、シアン、マゼンタ、イエローの各画素に対するd0、d1、d2、d3の区別は省略する。   When each variable is set to 0, the color pixel generation unit 116 then sets cyan (Cy [n] [m]) and magenta (Mg [n] [M] [n] in the region divided by the above-described 64-pixel region. m]) and yellow (Ye [n] [m]) are calculated (step S124). Cy [n] [m], Mg [n] [m], and Ye [n] [m] are respectively calculated by weighted averages corresponding to the distances from the four corner pixels of the 64-pixel region. First, the distance between the calculation target pixel and each pixel at the four corners is calculated. The distances d0, d1, d2, and d3 from the pixels at the four corners to the pixel to be calculated can be expressed by the following formulas 1 to 4, respectively. As shown in FIG. 7, since the positions of the Cy, Mg, and Ye pixels at the four corners are different, the distances d0 from the positions of the cyan, magenta, and yellow pixels at the four corners to the pixel to be calculated. d1, d2, and d3 are different for cyan, magenta, and yellow, respectively. Accordingly, it is appropriate that the following formulas 1 to 4 are represented by different formulas for cyan, magenta, and yellow, but here, only the concept is shown, and in the following, for simplification of explanation, cyan, magenta The distinction between d0, d1, d2, and d3 for each pixel of yellow is omitted.

Figure 2010263353
Figure 2010263353

カラー画素生成部116が四隅の画素から算出対象の画素までの距離d0、d1、d2、d3を算出すると、続いてカラー画素生成部116は、上記数式1〜数式4で求めた四隅の画素から算出対象の画素までの距離d0、d1、d2、d3の和dを下記の数式5で求める。   When the color pixel generation unit 116 calculates the distances d0, d1, d2, and d3 from the pixels at the four corners to the calculation target pixel, the color pixel generation unit 116 continues to calculate the distances from the four corner pixels obtained by the above Equations 1 to 4. The sum d of the distances d0, d1, d2, d3 to the pixel to be calculated is obtained by the following formula 5.

Figure 2010263353
Figure 2010263353

四隅の画素から算出対象の画素までの距離の和を算出すると、当該画素におけるCy[n][m]、Mg[n][m]、Ye[n][m]を求めることができる。Cy[n][m]、Mg[n][m]、Ye[n][m]は、上記数式5で求めた四隅の画素から算出対象の画素までの距離d0、d1、d2、d3の和dを用いて、下記の数式6〜数式8で求めることが出来る。なお、下記の数式6〜8において、Cy0、Cy1、Cy2、Cy3は、図7に示したCy0、Cy1、Cy2、Cy3の画素におけるシアンの値であり、Mg0、Mg1、Mg2、Mg3は、図7に示したMg0、Mg1、Mg2、Mg3の画素におけるマゼンタの値であり、Ye0、Ye1、Ye2、Ye3は、図7に示したYe0、Ye1、Ye2、Ye3の画素におけるイエローの値である。   When the sum of the distances from the pixels at the four corners to the pixel to be calculated is calculated, Cy [n] [m], Mg [n] [m], and Ye [n] [m] at the pixel can be obtained. Cy [n] [m], Mg [n] [m], and Ye [n] [m] are the distances d0, d1, d2, and d3 from the pixels at the four corners calculated in Equation 5 to the pixel to be calculated. Using the sum d, it can be obtained by the following formulas 6 to 8. In Equations 6 to 8 below, Cy0, Cy1, Cy2, and Cy3 are cyan values in the pixels Cy0, Cy1, Cy2, and Cy3 shown in FIG. 7, and Mg0, Mg1, Mg2, and Mg3 are 7 are magenta values in the pixels of Mg0, Mg1, Mg2, and Mg3, and Ye0, Ye1, Ye2, and Ye3 are yellow values in the pixels of Ye0, Ye1, Ye2, and Ye3 shown in FIG.

Figure 2010263353
Figure 2010263353

このようにシアン(Cy[n][m])、マゼンタ(Mg[n][m])、イエロー(Ye[n][m])を算出すると、続いてカラー画素生成部116は、上述した64画素の領域で区分けされた領域内の輝度信号Y[k][n][m]を用いて、この区分けされた領域の画素におけるR[n][m]、G[n][m]、B[n][m]の値を求める(ステップS125)。R、G、Bは、Cy、Mg、Yeの補色の関係であるので、各画素の輝度信号Y(Y[n][m])から減算することで当該画素のR、G、Bの値を導出できる。R[n][m]、G[n][m]、B[n][m]は、下記の数式9〜数式11で求めることが出来る。   When cyan (Cy [n] [m]), magenta (Mg [n] [m]), and yellow (Ye [n] [m]) are calculated in this way, the color pixel generation unit 116 then performs the above-described process. Using the luminance signal Y [k] [n] [m] in the area divided by the 64-pixel area, R [n] [m] and G [n] [m] in the pixels in the divided area , B [n] [m] are obtained (step S125). Since R, G, and B are complementary colors of Cy, Mg, and Ye, the R, G, and B values of the pixel are subtracted from the luminance signal Y (Y [n] [m]) of each pixel. Can be derived. R [n] [m], G [n] [m], and B [n] [m] can be obtained by the following formulas 9 to 11.

Figure 2010263353
Figure 2010263353

上記ステップS125でR[n][m]、G[n][m]、B[n][m]を算出すると、カラー画素生成部116は続いてmの値を1つインクリメントする(ステップS126)。mの値を1つインクリメントすると、カラー画素生成部116は続いてmの値が8未満であるかどうかを判定する(ステップS127)。mの値が8未満であれば上記ステップS124に戻る。一方、mの値が8以上であれば、カラー画素生成部116は続いてnの値を1つインクリメントする(ステップS128)。nの値を1つインクリメントすると、カラー画素生成部116は続いてnの値が8未満であるかどうかを判定する(ステップS129)。nの値が8未満であれば上記ステップS123に戻り、mの値をリセットする。一方、nの値が8以上であれば、これは1つのマイクロレンズ104aに割り当てられた64個の画素の全てに対してR、G、Bの値の算出が完了したことを意味するので、カラー画素生成部116は続いてkの値を1つインクリメントする(ステップS130)。kの値を1つインクリメントすると、カラー画素生成部116は続いてkの値がマイクロレンズアレイ104を構成するマイクロレンズ104aの数未満であるかどうかを判定する(ステップS131)。kの値がマイクロレンズ104aの数未満であれば上記ステップS122に戻り、nの値をリセットする。一方、kの値がマイクロレンズ104aの数以上であれば、これは全てのマイクロレンズ104aに対するR、G、Bの値の算出が完了したことを意味するので、一連の処理を終了する。   When R [n] [m], G [n] [m], and B [n] [m] are calculated in step S125, the color pixel generation unit 116 subsequently increments the value of m by one (step S126). ). When the value of m is incremented by 1, the color pixel generation unit 116 subsequently determines whether the value of m is less than 8 (step S127). If the value of m is less than 8, the process returns to step S124. On the other hand, if the value of m is 8 or more, the color pixel generation unit 116 subsequently increments the value of n by 1 (step S128). When the value of n is incremented by 1, the color pixel generation unit 116 subsequently determines whether or not the value of n is less than 8 (step S129). If the value of n is less than 8, the process returns to step S123 to reset the value of m. On the other hand, if the value of n is 8 or more, this means that the calculation of the R, G, and B values has been completed for all 64 pixels assigned to one microlens 104a. Next, the color pixel generation unit 116 increments the value of k by one (step S130). When the value of k is incremented by 1, the color pixel generation unit 116 subsequently determines whether or not the value of k is less than the number of microlenses 104a constituting the microlens array 104 (step S131). If the value of k is less than the number of microlenses 104a, the process returns to step S122 to reset the value of n. On the other hand, if the value of k is equal to or greater than the number of microlenses 104a, this means that the calculation of the R, G, and B values for all the microlenses 104a has been completed, and thus the series of processing ends.

なお、上記数式6〜数式8では、Cy[n][m]、Mg[n][m]、Ye[n][m]は単純に四隅からの距離に応じた加重平均によって算出したが、本発明はかかる例に限定されない。図6及び図7に示した例では、シアン、マゼンタ、イエローの情報を取得する補色部は、円の外側に位置しているため、マイクロレンズ104aを通過した光がこれらの補色部に十分照射されない場合が考えられる。従って、補色部の光量が不足しているときは、上記数式6〜数式8では、平均化している右辺部分を実光量に則して変更しても良い。例えば、下記の数式12〜数式14に示したように、所定の係数αを乗じてCy[n][m]、Mg[n][m]、Ye[n][m]を算出してもよい。   In Equations 6 to 8, Cy [n] [m], Mg [n] [m], and Ye [n] [m] are simply calculated by a weighted average according to the distance from the four corners. The present invention is not limited to such an example. In the example shown in FIGS. 6 and 7, since the complementary color portions that acquire cyan, magenta, and yellow information are located outside the circle, the light that has passed through the microlens 104a is sufficiently irradiated to these complementary color portions. There are cases where this is not done. Therefore, when the light amount of the complementary color portion is insufficient, the right side portion that is averaged may be changed in accordance with the actual light amount in Equations 6 to 8. For example, Cy [n] [m], Mg [n] [m], and Ye [n] [m] may be calculated by multiplying by a predetermined coefficient α as shown in Equations 12 to 14 below. Good.

Figure 2010263353
Figure 2010263353

なお、この数式12〜14では、Cy[n][m]、Mg[n][m]、Ye[n][m]について全て同じ係数αを用いているが、本発明はかかる例に限定されないことは言うまでも無い。シアン、マゼンタ、イエローで別々の係数を用いても良く、シアン、マゼンタ、イエローの内のいずれか2つは、他の1つと異なる係数を用いても良い。   In the formulas 12 to 14, the same coefficient α is used for Cy [n] [m], Mg [n] [m], and Ye [n] [m], but the present invention is limited to this example. It goes without saying that it is not done. Separate coefficients may be used for cyan, magenta, and yellow, and any two of cyan, magenta, and yellow may use different coefficients from the other one.

また、補色部の光量不足を補うために、例えば図13に示したように、マイクロレンズ104aを透過した光が照射される領域の内側に補色部が位置するように撮像センサ106を構成してもよい。図13に示した例では、シアンの情報を得る画素はCy0〜Cy3で示した画素であり、マゼンタの情報を得る画素はMg0〜Mg3で示した画素であり、イエローの情報を得る画素はYe0〜Ye3で示した画素である。また、図13のY0からY39の画素からなる領域にマイクロレンズ104aを透過した光が照射されることで得られる輝度信号からは、画素Cy0〜Cy3、Mg0〜Mg3、Ye0〜Ye3にマイクロレンズ104aを透過した光が照射されることで得られるシアン、マゼンタ、イエローの情報を参照することでRGB信号を得ることができる。   Further, in order to compensate for the insufficient light amount of the complementary color portion, for example, as shown in FIG. 13, the image sensor 106 is configured so that the complementary color portion is located inside the region irradiated with the light transmitted through the microlens 104a. Also good. In the example shown in FIG. 13, pixels that obtain cyan information are pixels indicated by Cy0 to Cy3, pixels that obtain magenta information are pixels indicated by Mg0 to Mg3, and pixels that obtain yellow information are Ye0. This is a pixel indicated by ~ Ye3. Further, from the luminance signal obtained by irradiating the region composed of pixels Y0 to Y39 in FIG. 13 with the light transmitted through the microlens 104a, the microlens 104a is applied to the pixels Cy0 to Cy3, Mg0 to Mg3, and Ye0 to Ye3. RGB signals can be obtained by referring to the information of cyan, magenta, and yellow obtained by irradiating the light that has passed through.

また、補色部の光量不足を補うために、マイクロレンズアレイ104に替えて、例えば図14に示したような、矩形型のマイクロレンズ104a´が規則的に配列されたマイクロレンズアレイ104´を用いてもよい。矩形型のマイクロレンズ104a´を用いることで透過光の照射範囲が広くなり、補色部の光量不足を補うことができる。   Further, in order to compensate for the insufficient light amount of the complementary color portion, a microlens array 104 ′ in which rectangular microlenses 104a ′ are regularly arranged as shown in FIG. 14, for example, is used instead of the microlens array 104. May be. By using the rectangular microlens 104a ′, the irradiation range of the transmitted light is widened, and the shortage of light in the complementary color portion can be compensated.

以上、カラー画素生成部116によるRGB画像の生成処理について説明した。   The RGB image generation processing by the color pixel generation unit 116 has been described above.

なお、ここまではシアン、マゼンタ、イエローの情報を得るための補色フィルタが貼付された撮像センサ106を用いた場合について説明したが、本発明はかかる例に限定されない。本発明は、赤、緑、青の情報を得るための原色フィルタが貼付された撮像センサを適用してもよい。図15及び図16は、赤、緑、青の情報を得るための原色フィルタが貼付された撮像センサの構成例について示す説明図である。図15に示した例は、図7に示した補色フィルタが貼付された撮像センサと同様の構成を有する場合のものである。画像の再構成に用いられる画素は、図15に示した画素の内、Y0からY51で示したものにあたる。その他の領域の画素にはそれぞれ原色フィルタが貼付され、赤、緑、青の情報を得るように構成されている。図15における各画素のR[n][m]、G[n][m]、B[n][m]の値は、それぞれ下記の数式で算出することができる。なお、四隅の画素から算出対象の画素までの距離d0、d1、d2、d3、及びd0、d1、d2、d3の和dの算出式は上記数式1〜数式5と同一のものを用いる。   Although the case where the image sensor 106 to which the complementary color filter for obtaining cyan, magenta, and yellow information is attached has been described so far, the present invention is not limited to such an example. The present invention may be applied to an image sensor to which primary color filters for obtaining red, green, and blue information are attached. FIG. 15 and FIG. 16 are explanatory diagrams showing a configuration example of an image sensor to which primary color filters for obtaining red, green, and blue information are attached. The example shown in FIG. 15 is for the case where it has the same configuration as the imaging sensor to which the complementary color filter shown in FIG. 7 is attached. The pixels used for image reconstruction correspond to those indicated by Y0 to Y51 among the pixels shown in FIG. A primary color filter is affixed to each of the pixels in the other regions so as to obtain red, green, and blue information. The values of R [n] [m], G [n] [m], and B [n] [m] of each pixel in FIG. 15 can be calculated by the following equations, respectively. Note that the calculation formulas for the distances d0, d1, d2, d3 from the pixels at the four corners to the calculation target pixel and the sum d of d0, d1, d2, d3 are the same as those in the above formulas 1-5.

Figure 2010263353
Figure 2010263353

一方、図16は、図13に示した、マイクロレンズ104aを透過した光が照射される領域の内側に補色部が位置するように構成された撮像センサ106と同様の構成を有するものである。図16に示したように、マイクロレンズ104aを透過した光が照射される領域の内側に赤、緑、青の情報を取得する原色部が位置するように、撮像センサ106を構成してもよい。   On the other hand, FIG. 16 has the same configuration as the image sensor 106 shown in FIG. 13 in which the complementary color portion is positioned inside the region irradiated with the light transmitted through the microlens 104a. As shown in FIG. 16, the imaging sensor 106 may be configured such that primary color portions that acquire red, green, and blue information are located inside the region irradiated with light transmitted through the microlens 104 a. .

以上説明したように本発明の一実施形態によれば、マイクロレンズアレイ104の透過光からカラー画像信号を生成する場合において、1つのマイクロレンズ104aに対して撮像センサ106の複数の画素が割り当てられた領域を設ける。当該領域は、マイクロレンズ104aの光軸を中心とした領域は輝度信号を、当該領域の周辺領域は補色信号または原色信号を、それぞれ得るような構成とする。そして、カラー画像信号を生成する際には、当該領域の四隅の画素からの距離に応じた加重平均によって領域内の各画素の補色データまたは原色データを算出し、算出された各画素の補色データまたは原色データ、及び当該画素の輝度データを用いて、各画素の色情報を算出する。   As described above, according to an embodiment of the present invention, when a color image signal is generated from light transmitted through the microlens array 104, a plurality of pixels of the image sensor 106 are assigned to one microlens 104a. Provide a separate area. The region is configured such that a region around the optical axis of the microlens 104a obtains a luminance signal, and a peripheral region of the region obtains a complementary color signal or a primary color signal. When generating a color image signal, complementary color data or primary color data of each pixel in the region is calculated by a weighted average according to the distance from the four corner pixels of the region, and the calculated complementary color data of each pixel Alternatively, the color information of each pixel is calculated using the primary color data and the luminance data of the pixel.

その結果、本発明の一実施形態によれば、周辺の画素を使って輝度補間処理を行わないので、解像度の低下や周辺部に不自然なエラーパターンが発生することは無く、広い範囲から加重平均化処理値を参照するために、従来のデジタルスチルカメラで用いられているベイヤー補間を用いた場合に比べ、位相ずれによる偽色の発生を低減させることができる。   As a result, according to an embodiment of the present invention, luminance interpolation processing is not performed using peripheral pixels, so that there is no reduction in resolution or unnatural error patterns in the peripheral portion, and weighting from a wide range. In order to refer to the average processing value, it is possible to reduce the occurrence of false colors due to phase shift compared to the case where Bayer interpolation used in a conventional digital still camera is used.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

例えば、上記実施形態では、撮像センサ106は、マイクロレンズ104aの光軸を中心とした領域は輝度信号を、当該領域の周辺領域は補色信号または原色信号を、それぞれ得るような構成としたが、本発明はかかる例に限定されない。撮像センサは、上記実施形態とは逆に、例えばマイクロレンズ104aの光軸を中心とした領域は補色信号または原色信号を、当該領域の周辺領域は輝度信号を、それぞれ得るような構成としてもよい。   For example, in the above-described embodiment, the imaging sensor 106 is configured to obtain a luminance signal in the region centered on the optical axis of the microlens 104a and a complementary color signal or primary color signal in the peripheral region of the region. The present invention is not limited to such an example. In contrast to the above-described embodiment, the imaging sensor may be configured to obtain, for example, a complementary color signal or a primary color signal in an area centered on the optical axis of the microlens 104a, and a luminance signal in the peripheral area of the area. .

また例えば、上記実施形態では、マイクロレンズアレイ104はマイクロレンズ104aが格子状に配列された構成を有していたが、本発明はかかる例に限定されない。マイクロレンズアレイを構成するマイクロレンズは、格子状以外に、例えばハニカム状に配列されていてもよい。図17は、マイクロレンズ104a´´がハニカム状に規則的に配列されたマイクロレンズアレイ104´´について示す説明図である。なお、図17では、ハニカム構造を有するマイクロレンズアレイ104´´を構成する1つのマイクロレンズ104a´の形状は円状であるが、本発明ではハニカム構造を有するマイクロレンズアレイ構成する1つのマイクロレンズの形状はかかる例に限定されない。   For example, in the above-described embodiment, the microlens array 104 has a configuration in which the microlenses 104a are arranged in a grid pattern, but the present invention is not limited to such an example. The microlenses constituting the microlens array may be arranged in, for example, a honeycomb shape other than the lattice shape. FIG. 17 is an explanatory diagram showing a microlens array 104 ″ in which microlenses 104a ″ are regularly arranged in a honeycomb shape. In FIG. 17, the shape of one microlens 104a ′ constituting the microlens array 104 ″ having the honeycomb structure is circular, but in the present invention, one microlens constituting the microlens array having the honeycomb structure. The shape is not limited to such an example.

本発明は、光検出素子及び撮像装置に適用可能であり、特に複数のレンズを備えるレンズアレイの透過光を検出する光検出素子及び当該光検出素子を用いた撮像装置に適用可能である。   The present invention can be applied to a light detection element and an image pickup apparatus, and in particular, can be applied to a light detection element that detects transmitted light of a lens array including a plurality of lenses and an image pickup apparatus using the light detection element.

100 撮像装置
102 主レンズ
104、104´、104´´ マイクロレンズアレイ
104a、104a´、104a´´ マイクロレンズ
106 撮像センサ
108 CPU
110 メモリ
112アナログフロントエンド部及びA/D変換部
114 画像入力部
116 カラー画素生成部
118 画像再構成部
120 デジタルバックエンド部
122 画像圧縮部
124 メモリカードドライバ
126 表示画像生成部
128 表示ドライバ
130 タイミングジェネレータ
132 モータドライバ
134 フォーカスレンズモータ
DESCRIPTION OF SYMBOLS 100 Imaging device 102 Main lens 104,104 ', 104''Microlens array 104a, 104a', 104a '' Microlens 106 Imaging sensor 108 CPU
110 Memory 112 Analog Front End Unit and A / D Converter 114 Image Input Unit 116 Color Pixel Generation Unit 118 Image Reconstruction Unit 120 Digital Back End Unit 122 Image Compression Unit 124 Memory Card Driver 126 Display Image Generation Unit 128 Display Driver 130 Timing Generator 132 Motor driver 134 Focus lens motor

Claims (4)

単一平面上に設けられる複数のレンズが規則的に配列されたレンズアレイと、
前記レンズアレイの各レンズからの透過光の照射範囲に対応して単一平面上に設けられる複数の画素からなる光電変換領域を複数備える光電変換部と、
を備え、
各前記光電変換領域は、前記レンズの光軸を中心に設けられる第1領域と、前記第1領域の周辺に設けられる第2領域とで、異なる分光感度特性を有することを特徴とする、光検出素子。
A lens array in which a plurality of lenses provided on a single plane are regularly arranged;
A photoelectric conversion unit including a plurality of photoelectric conversion regions including a plurality of pixels provided on a single plane corresponding to an irradiation range of transmitted light from each lens of the lens array;
With
Each of the photoelectric conversion regions has different spectral sensitivity characteristics in a first region provided around the optical axis of the lens and a second region provided around the first region. Detection element.
前記第1領域は輝度信号に相当する分光感度特性を有し、前記第2領域は色信号に相当する分光感度特性を有することを特徴とする、請求項1に記載の光検出素子。   The light detection element according to claim 1, wherein the first region has a spectral sensitivity characteristic corresponding to a luminance signal, and the second region has a spectral sensitivity characteristic corresponding to a color signal. 各前記光電変換領域は、前記画素の分光特性の配列パターンが全て同一であることを特徴とする、請求項1又は2に記載の光検出素子。   3. The photodetector according to claim 1, wherein each of the photoelectric conversion regions has the same arrangement pattern of spectral characteristics of the pixels. 4. 前記第2領域は、前記レンズアレイの各レンズからの透過光の照射範囲に含まれるように設けられることを特徴とする、請求項1〜3に記載の光検出素子。
The light detection element according to claim 1, wherein the second region is provided so as to be included in an irradiation range of transmitted light from each lens of the lens array.
JP2009111856A 2009-05-01 2009-05-01 Photodetection element and imaging device Expired - Fee Related JP5394814B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009111856A JP5394814B2 (en) 2009-05-01 2009-05-01 Photodetection element and imaging device
KR1020100004475A KR101679293B1 (en) 2009-05-01 2010-01-18 Photo detecting device and image pickup device
US12/772,285 US8358365B2 (en) 2009-05-01 2010-05-03 Photo detecting device and image pickup device and method thereon

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009111856A JP5394814B2 (en) 2009-05-01 2009-05-01 Photodetection element and imaging device

Publications (2)

Publication Number Publication Date
JP2010263353A true JP2010263353A (en) 2010-11-18
JP5394814B2 JP5394814B2 (en) 2014-01-22

Family

ID=43361101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009111856A Expired - Fee Related JP5394814B2 (en) 2009-05-01 2009-05-01 Photodetection element and imaging device

Country Status (2)

Country Link
JP (1) JP5394814B2 (en)
KR (1) KR101679293B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012205111A (en) * 2011-03-25 2012-10-22 Casio Comput Co Ltd Imaging apparatus
JP2013192182A (en) * 2012-03-15 2013-09-26 Toshiba Corp Solid-state image pickup device and mobile information terminal
JP2013232850A (en) * 2012-05-01 2013-11-14 Canon Inc Image pickup device and control method thereof
JP2014064214A (en) * 2012-09-21 2014-04-10 Canon Inc Image processing device, control method, and program
US9531963B2 (en) 2012-10-09 2016-12-27 Ricoh Company, Ltd. Image capturing device and image capturing system
JP2017074377A (en) * 2015-10-16 2017-04-20 株式会社リコー Construction of individual eye model using plenoptic camera

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5963448B2 (en) * 2012-01-13 2016-08-03 キヤノン株式会社 Imaging device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007004471A (en) * 2005-06-23 2007-01-11 Nikon Corp Image synthesis method and image pickup apparatus
JP2008515110A (en) * 2004-10-01 2008-05-08 ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー Imaging apparatus and method
JP2009021683A (en) * 2007-07-10 2009-01-29 Sony Corp Imaging device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4659788B2 (en) 2007-06-22 2011-03-30 富士フイルム株式会社 Back-illuminated image sensor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008515110A (en) * 2004-10-01 2008-05-08 ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー Imaging apparatus and method
JP2007004471A (en) * 2005-06-23 2007-01-11 Nikon Corp Image synthesis method and image pickup apparatus
JP2009021683A (en) * 2007-07-10 2009-01-29 Sony Corp Imaging device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012205111A (en) * 2011-03-25 2012-10-22 Casio Comput Co Ltd Imaging apparatus
JP2013192182A (en) * 2012-03-15 2013-09-26 Toshiba Corp Solid-state image pickup device and mobile information terminal
JP2013232850A (en) * 2012-05-01 2013-11-14 Canon Inc Image pickup device and control method thereof
JP2014064214A (en) * 2012-09-21 2014-04-10 Canon Inc Image processing device, control method, and program
US9531963B2 (en) 2012-10-09 2016-12-27 Ricoh Company, Ltd. Image capturing device and image capturing system
JP2017074377A (en) * 2015-10-16 2017-04-20 株式会社リコー Construction of individual eye model using plenoptic camera
US9955861B2 (en) 2015-10-16 2018-05-01 Ricoh Company, Ltd. Construction of an individual eye model using a plenoptic camera

Also Published As

Publication number Publication date
KR101679293B1 (en) 2016-11-24
KR20100119712A (en) 2010-11-10
JP5394814B2 (en) 2014-01-22

Similar Documents

Publication Publication Date Title
JP5490514B2 (en) Imaging apparatus and imaging method
JP4421793B2 (en) Digital camera
US8358365B2 (en) Photo detecting device and image pickup device and method thereon
US8558915B2 (en) Photographing apparatus and method
JP5621056B2 (en) Color image sensor
JP5394814B2 (en) Photodetection element and imaging device
JP6366251B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
KR100827238B1 (en) Apparatus and method for supporting high quality image
JP4730082B2 (en) Image signal processing apparatus, imaging apparatus, image signal processing method, and computer program
JP5898481B2 (en) Imaging apparatus and focus detection method
JPWO2012039180A1 (en) Imaging device and imaging apparatus
JP2013521706A (en) Method and apparatus for generating high resolution image using low resolution image
JP2006165975A (en) Image pickup element, image pickup device and image processing method
JP2010271670A (en) Imaging apparatus
JP4968527B2 (en) Imaging device
JP5600814B2 (en) Image processing apparatus and method, and imaging apparatus
JP5620196B2 (en) Imaging device
JP2013057761A (en) Distance measuring device, imaging device, and distance measuring method
JP2004328117A (en) Digital camera and photographing control method
JP6671130B2 (en) Imaging device, imaging device, focus detection device, image processing device, and control method therefor
JP2011232615A (en) Imaging device
JP4950541B2 (en) Solid-state image sensor
WO2016002274A1 (en) Image capturing device, image processing method, and image processing program
JP2010010958A (en) Multi-band image pickup method and apparatus
JP3905342B2 (en) Solid-state imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120410

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131017

R150 Certificate of patent or registration of utility model

Ref document number: 5394814

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees