JP2010263353A - Photo detecting device and image pickup device - Google Patents
Photo detecting device and image pickup device Download PDFInfo
- Publication number
- JP2010263353A JP2010263353A JP2009111856A JP2009111856A JP2010263353A JP 2010263353 A JP2010263353 A JP 2010263353A JP 2009111856 A JP2009111856 A JP 2009111856A JP 2009111856 A JP2009111856 A JP 2009111856A JP 2010263353 A JP2010263353 A JP 2010263353A
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixels
- microlens
- color
- lens
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003287 optical effect Effects 0.000 claims abstract description 33
- 230000003595 spectral effect Effects 0.000 claims abstract description 19
- 238000006243 chemical reaction Methods 0.000 claims abstract description 18
- 230000035945 sensitivity Effects 0.000 claims abstract description 9
- 238000001514 detection method Methods 0.000 claims description 7
- 230000002542 deteriorative effect Effects 0.000 abstract 1
- 238000003384 imaging method Methods 0.000 description 73
- 238000012545 processing Methods 0.000 description 33
- 230000000295 complement effect Effects 0.000 description 26
- 238000000034 method Methods 0.000 description 25
- 230000008569 process Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 238000007906 compression Methods 0.000 description 8
- 238000001228 spectrum Methods 0.000 description 8
- 230000006835 compression Effects 0.000 description 7
- 230000004907 flux Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 239000003086 colorant Substances 0.000 description 5
- 230000001678 irradiating effect Effects 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 230000006872 improvement Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000010363 phase shift Effects 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000002427 irreversible effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000004611 spectroscopical analysis Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
- H01L27/14625—Optical elements or arrangements associated with the device
- H01L27/14627—Microlenses
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B3/00—Simple or compound lenses
- G02B3/0006—Arrays
- G02B3/0037—Arrays characterized by the distribution or form of lenses
- G02B3/0056—Arrays characterized by the distribution or form of lenses arranged along two different directions in a plane, e.g. honeycomb arrangement of lenses
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14643—Photodiode arrays; MOS imagers
- H01L27/14645—Colour imagers
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Power Engineering (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Computer Hardware Design (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Optics & Photonics (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Color Television Image Signal Generators (AREA)
- Solid State Image Pick-Up Elements (AREA)
Abstract
Description
本発明は、光検出素子及び撮像装置に関する。 The present invention relates to a light detection element and an imaging device.
従来の一般的なデジタルスチルカメラは、フォーカスレンズで集光した光をCCDイメージセンサやCMOSイメージセンサその他の撮像素子に照射することでカラー画像信号を生成している。しかし最近では、レンズと撮像素子の間に単一平面上に配列されたマイクロレンズ群からなるレンズアレイを備える光学系を有する撮像装置が提案されている(例えば非特許文献1参照)。かかる撮像装置はプレノプティック(Plenoptic)型の撮像装置と称されている。 A conventional general digital still camera generates a color image signal by irradiating light collected by a focus lens to a CCD image sensor, a CMOS image sensor, or other imaging devices. Recently, however, an imaging apparatus having an optical system including a lens array including a group of microlenses arranged on a single plane between a lens and an imaging element has been proposed (for example, see Non-Patent Document 1). Such an imaging apparatus is called a plenoptic type imaging apparatus.
非特許文献1には、かかる光学系により得られた画像を再構成することで、被写界深度を自在に決定する事例が紹介されており、視差を利用した測距や、3D画像への応用、解像度の向上等の展開が考えられている。また、かかる光学系を用いた技術としては、例えば特許文献1〜3が挙げられる。
Non-Patent
このようなマイクロレンズ群からなるレンズアレイを備える光学系を備えるデジタルスチルカメラは、マイクロレンズごとに分離された複数の光束情報を入手することができるので、被写界深度のコントロール、解像度の向上、視差を利用した距離測定等へ利用できることが期待されている。一方、デジタルスチルカメラにこのようなマイクロレンズ群からなるレンズアレイを備える光学系を備えた場合においては、画像データのカラー化が必須となる。 A digital still camera including an optical system including a lens array composed of such microlens groups can obtain information on a plurality of light beams separated for each microlens, so that control of depth of field and improvement of resolution can be obtained. It is expected to be usable for distance measurement using parallax. On the other hand, when a digital still camera is provided with an optical system including a lens array composed of such microlens groups, colorization of image data is essential.
一般的な撮像装置は、単板の2次元撮像素子からカラー画像を生成する場合には、ベイヤー配列に代表されるように、位置毎に異なる分光特性を与えることで色情報を入手した後に、補間処理によって画素ごとに色を決定することでフルカラー画像データを生成している。 When a general imaging device generates a color image from a single-plate two-dimensional imaging device, as represented by the Bayer array, after obtaining color information by giving different spectral characteristics for each position, Full color image data is generated by determining a color for each pixel by interpolation processing.
しかし、プレノプティック型の撮像装置では、マイクロレンズごとに分離された複数の光束情報に対してベイヤー化すると、光束情報の欠落に繋がるという問題があった。また、ベイヤー配列により分離された光束情報を増やそうとすると、マイクロレンズの微細化が要求され、マイクロレンズの微細化要求に伴ってマイクロレンズ加工の微細化や撮像素子の微細化が必要となり、技術的困難性やコスト増加を伴うという問題もあった。 However, in the plenoptic type imaging device, there is a problem in that when a plurality of light flux information separated for each microlens is Bayered, the light flux information is lost. In addition, when trying to increase the light flux information separated by the Bayer arrangement, microlens miniaturization is required, and microlens processing miniaturization and imaging element miniaturization are required in accordance with microlens miniaturization requirements. There was also a problem that it was accompanied by technical difficulty and cost increase.
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、マイクロレンズ群からなるレンズアレイを備える光学系であっても、当該レンズアレイを備えることによる効果を損なわずにカラー画像を得ることが可能な、新規かつ改良された光検出素子及び撮像装置を提供することにある。 Therefore, the present invention has been made in view of the above problems, and an object of the present invention is an effect obtained by providing the lens array even if the optical system includes a lens array including a microlens group. It is an object of the present invention to provide a novel and improved photodetecting element and imaging apparatus capable of obtaining a color image without impairing the above.
上記課題を解決するために、本発明のある観点によれば、単一平面上に設けられる複数のレンズが規則的に配列されたレンズアレイと、前記レンズアレイの各レンズの透過光の照射範囲に対応して単一平面上に設けられる複数の光電変換素子を備える光電変換部と、を備え、前記光電変換素子は、前記レンズの光軸を中心に設けられる第1領域と、前記第1領域の周辺に設けられる第2領域とで、異なる分光感度特性を有することを特徴とする、光検出素子が提供される。この結果、画像の再構成処理で用いる第1領域に主信号成分を受光させて、分離光束の欠損分が原画像から間引かれるのを未然に回避できるとともに、残りの第2領域に従信号成分を受光させて多チャンネル化を実現できる。 In order to solve the above problems, according to one aspect of the present invention, a lens array in which a plurality of lenses provided on a single plane are regularly arranged, and an irradiation range of transmitted light of each lens of the lens array A photoelectric conversion unit including a plurality of photoelectric conversion elements provided on a single plane, wherein the photoelectric conversion element is provided with a first region provided around the optical axis of the lens, and the first There is provided a photodetecting element characterized by having different spectral sensitivity characteristics in the second region provided around the region. As a result, the main signal component is received in the first region used in the image reconstruction process, so that the loss of the separated light flux can be prevented from being thinned out from the original image, and the remaining signals in the second region are signaled. Multiple components can be realized by receiving the components.
前記第1領域は輝度信号に相当する分光感度特性を有し、前記第2領域は色信号に相当する分光感度特性を有するようにした。この結果、画像の再構成処理で用いる第1領域に輝度成分を受光させて、分離光束の欠損分が原画像から間引かれるのを未然に回避できるとともに、残りの第2領域に色成分を受光させてカラー化を実現できる。 The first region has a spectral sensitivity characteristic corresponding to a luminance signal, and the second region has a spectral sensitivity characteristic corresponding to a color signal. As a result, the luminance component is received in the first region used in the image reconstruction process, so that the loss of the separated light flux can be prevented from being thinned out from the original image, and the color component can be added to the remaining second region. Colorization can be realized by receiving light.
各前記光電変換領域は、前記画素の分光特性の配列パターンが全て同一であるようにした。この結果、マイクロレンズの微細化にあたって設計及び加工も、配列パターンが不規則な場合と比較して格段と容易にすることができる。 In each of the photoelectric conversion regions, the arrangement pattern of the spectral characteristics of the pixels is all the same. As a result, the design and processing for micro lens miniaturization can be made much easier than in the case where the arrangement pattern is irregular.
前記第2領域は、前記レンズアレイの各レンズからの透過光の照射範囲に含まれるように設けられることができる。この結果、各レンズごとに分離された光束情報に欠落が生じるのを回避することができる。 The second region may be provided so as to be included in an irradiation range of transmitted light from each lens of the lens array. As a result, it is possible to avoid the occurrence of omission in the luminous flux information separated for each lens.
以上説明したように本発明によれば、マイクロレンズ群からなるレンズアレイを備える光学系であっても、当該レンズアレイを備えることによる効果を損なわずにカラー画像を得ることが可能な光検出素子及び撮像装置を提供することができる。 As described above, according to the present invention, even if an optical system includes a lens array including a microlens group, a photodetecting element capable of obtaining a color image without impairing the effects of including the lens array. In addition, an imaging device can be provided.
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.
まず、本発明の好適な実施の形態について説明する前に、従来のマイクロレンズ群からなるレンズアレイを備える光学系について説明し、続いて、かかる光学系を用いた場合におけるカラー化の問題点について説明する。 First, before describing a preferred embodiment of the present invention, an optical system having a lens array composed of a conventional microlens group will be described, and subsequently, problems of colorization when such an optical system is used will be described. explain.
図1及び図2は、マイクロレンズ群からなるレンズアレイを備える光学系について説明する説明図である。図1は、被写体からの光を集光するレンズと撮像素子との間にレンズアレイを備えたものを側面方向から見た場合について示す説明図であり、図2は、レンズアレイの配置状態を概念的に示す説明図である。 1 and 2 are explanatory diagrams for explaining an optical system including a lens array including a microlens group. FIG. 1 is an explanatory diagram showing a case where a lens array is provided between a lens for condensing light from a subject and an image pickup device when viewed from the side, and FIG. 2 shows an arrangement state of the lens array. It is explanatory drawing shown notionally.
図1に示したように、マイクロレンズ群からなるレンズアレイを備える光学系においては、主レンズ11を通過した被写体からの光がレンズアレイ12の各マイクロレンズ12aに合焦するように投影される。そして、撮像センサ13には、マイクロレンズ12aを透過した光が照射される。
As shown in FIG. 1, in an optical system including a lens array composed of microlens groups, light from a subject passing through the
撮像センサ13には、隣接するマイクロレンズ12aからの光が重ならないように、主レンズ11の絞り14を設定することが上記非特許文献1に記載されている。そして、上記非特許文献1には、図1に示したような光学系で得られた画像を再構成することで、被写界深度を自在に決定する事例が紹介されている。従って、このようなマイクロレンズ群からなるレンズアレイを備える光学系は、視差を利用した測距や三次元画像への応用、解像度の向上処理への展開が考えられている。
Non-Patent
かかる光学系を汎用的なデジタルスチルカメラに利用する場合には、撮影画像のカラー化をどのように行うかが課題となる。ダイクロイックミラー(dichroic mirror)等を用いて分光し、複数の撮像センサを用いてカラー化する手法が考えられるが、これは撮像センサの設置スペースやコスト面から不利となるため、単板の撮像センサを用いてカラー化する手法が一般的である。そして、単板の撮像センサを用いてカラー化する際には、分光フィルタを受光素子の前面に特定のパターン配列で貼って撮像し、後に補間処理により全ての画素ごとに色情報を揃える手法が知られている。しかし、当該手法をマイクロレンズ群からなるレンズアレイを備える光学系にそのまま適用すると問題が生じてしまう。 When such an optical system is used for a general-purpose digital still camera, how to colorize a captured image becomes a problem. A method of performing spectroscopy using a dichroic mirror or the like and performing colorization using a plurality of imaging sensors is considered, but this is disadvantageous in terms of installation space and cost of the imaging sensor. A method of colorizing using is generally used. And when colorizing using a single-plate imaging sensor, there is a technique in which a spectral filter is pasted on the front surface of the light receiving element in a specific pattern arrangement and imaged, and later color information is aligned for every pixel by interpolation processing. Are known. However, if this method is applied as it is to an optical system including a lens array composed of microlens groups, a problem occurs.
図3は、デジタルスチルカメラで広く用いられているベイヤー配列を有する分光フィルタによって、レンズアレイを備える光学系で撮像した画像をカラー化する場合について示す説明図である。図3では、縦8画素×横8画素のブロックを1つのマイクロレンズに対応させた場合について示しており、図3に示したそれぞれの円は1つのマイクロレンズの投影範囲を表している。 FIG. 3 is an explanatory diagram illustrating a case where an image captured by an optical system including a lens array is colorized by a spectral filter having a Bayer array that is widely used in digital still cameras. FIG. 3 shows a case in which a block of 8 vertical pixels × 8 horizontal pixels is associated with one microlens, and each circle shown in FIG. 3 represents a projection range of one microlens.
所定の光学経路を通って撮像されるデータは特定の色情報として得ることとなるので、再構成処理にあたって同色同士で行うのが適当である。しかし、図3に示した分光フィルタのパターンは、最も多い緑色(G)成分であっても市松模様状のパターンでしか情報を持ち得ないので欠損状態となる。 Since data captured through a predetermined optical path is obtained as specific color information, it is appropriate to perform the same color for the reconstruction process. However, even if the spectral filter pattern shown in FIG. 3 has the largest amount of green (G) components, it can only have information in a checkered pattern, and therefore is in a defective state.
情報を増やすために、マイクロレンズ単位で分光特性を変えて画像のカラー化を試みる方法も考えられる。図4は、マイクロレンズ単位で特性が異なる分光フィルタによって、レンズアレイを備える光学系で撮像した画像をカラー化する場合について示す説明図である。図4では、図3と同様に、縦8画素×横8画素のブロックを1つのマイクロレンズに対応させた場合について示しており、図4に示したそれぞれの円は1つのマイクロレンズの投影範囲を表している。 In order to increase the information, a method of trying to colorize an image by changing the spectral characteristics in units of microlenses can be considered. FIG. 4 is an explanatory diagram illustrating a case where an image captured by an optical system including a lens array is colorized by a spectral filter having different characteristics in units of microlenses. 4 shows a case where a block of 8 vertical pixels × 8 horizontal pixels is associated with one microlens, as in FIG. 3, and each circle shown in FIG. 4 indicates the projection range of one microlens. Represents.
図4に示したような、マイクロレンズ単位で分光特性が異なる分光フィルタを用いた場合には、注目するマイクロレンズ単位で考えると、撮影画像に対する再構成処理は、図3に示したようなベイヤー配列を有する分光フィルタを用いた場合よるも有利である。しかし、レンズアレイを備える光学系は、1画素の情報をさらに分割して撮像するため、再構成後の画素数はマイクロレンズの数に減少する。さらに、この減少した画素から補間処理を実行することになるので、レンズアレイを備えるデジタルスチルカメラは、同じ撮像センサを用いた通常の光学系を有するデジタルスチルカメラに比べて少ない画素数となることを余儀なくされる。図4に示したような分光フィルタを用いる場合には、1つのマイクロレンズあたり64個の画素が割り当てられている。従って、記録画素数は撮像センサの画素数の1/64となる。補間処理は、記録されていない高周波成分を予測した作成や、色情報の位相のずれに起因する境界部の着色などの課題もあり、少ない画素数で実施すると画質の劣化が目立ちやすくなってしまう。 When spectral filters having different spectral characteristics in units of microlenses as shown in FIG. 4 are used, the reconstruction processing for a captured image is performed as shown in FIG. It is also advantageous if a spectral filter having an array is used. However, since the optical system including the lens array further divides and captures information of one pixel, the number of pixels after reconstruction is reduced to the number of microlenses. Furthermore, since interpolation processing is executed from this reduced pixel, a digital still camera equipped with a lens array has a smaller number of pixels than a digital still camera having a normal optical system using the same imaging sensor. Will be forced. When a spectral filter as shown in FIG. 4 is used, 64 pixels are assigned to one microlens. Therefore, the number of recorded pixels is 1/64 of the number of pixels of the image sensor. Interpolation processing also has problems such as creating predictions of high-frequency components that are not recorded, and coloring borders due to phase shifts in color information, and if performed with a small number of pixels, degradation of image quality becomes more noticeable .
そこで、以下で説明する本発明の一実施形態においては、各マイクロレンズが照射する範囲において、画像の再構成に使用する領域で撮像される画素は輝度信号を受光し、それ以外の領域では補色フィルタを貼付してカラー信号を得る撮像センサを構成する。ここで、画像の再構成に使用する領域は、各マイクロレンズの光軸を中心とした所定の領域であることを特徴としている。 Therefore, in one embodiment of the present invention described below, pixels that are imaged in an area used for image reconstruction within a range irradiated by each microlens receive a luminance signal, and complementary colors in other areas. An imaging sensor that obtains a color signal by attaching a filter is configured. Here, the region used for image reconstruction is a predetermined region centered on the optical axis of each microlens.
図5は、本発明の一実施形態にかかる撮像装置100の構成について示す説明図である。以下、図5を用いて本発明の一実施形態にかかる撮像装置100の構成について説明する。
FIG. 5 is an explanatory diagram showing the configuration of the
図5に示したように、本発明の一実施形態にかかる撮像装置100は、主レンズ102と、マイクロレンズアレイ104と、撮像センサ106と、CPU108と、メモリ110と、アナログフロントエンド(AFE)部及びA/D変換部112と、画像入力部114と、カラー画素生成部116と、画像再構成部118と、デジタルバックエンド(DBE)部120と、画像圧縮部122と、メモリカードドライバ124と、表示画像生成部126と、表示ドライバ128と、タイミングジェネレータ(TG)130と、モータドライバ132と、フォーカスレンズモータ134と、を含んで構成される。
As shown in FIG. 5, the
主レンズ102は、被写体へ焦点を合わせるためのレンズであるフォーカスレンズや、焦点距離を変化させるズームレンズ等を含んで構成される。フォーカスレンズモータ134の駆動により主レンズ102に含まれるフォーカスレンズの位置を移動させることで、撮像装置100は被写体に焦点を合わせることができる。
The
マイクロレンズアレイ104は、複数のマイクロレンズ群から構成されるレンズアレイである。マイクロレンズアレイ104は、マイクロレンズ104aが単一平面上に規則的に配列することで構成される。主レンズ102を通過した光はマイクロレンズアレイ104の各マイクロレンズを通過して撮像センサ106へ照射されることになる。
The
撮像センサ106は、マイクロレンズアレイ104を構成する各マイクロレンズ104aを通過した光から画像信号を生成するものである。撮像センサ106は、各マイクロレンズ104aに対応した所定の受光パターンを有しており、上述したように、各マイクロレンズ104aが照射する範囲において、画像の再構成に使用する領域で撮像される画素は輝度信号を受光し、それ以外の領域では補色フィルタが貼付されており、カラー信号を得るように構成されている。撮像センサ106の構成については後に詳述する。
The
CPU108は、撮像装置100の各部の動作を制御するものである。CPU108は、撮像装置100の内部に格納されたコンピュータプログラムを順次実行することで、撮像装置100の各部の動作を制御することができる。またメモリ110は、撮像装置100の動作の際に必要となる情報やデータが格納されるものである。
The
アナログフロントエンド部及びA/D変換部112は、撮像センサ106で光電変換されたアナログの信号を受け取り、デジタル信号に変換して出力するものである。アナログフロントエンド部及びA/D変換部112でデジタル信号に変換された信号は画像入力部114に送られる。
The analog front end unit and A /
画像入力部114は、アナログフロントエンド部及びA/D変換部112で生成されたデジタル信号を受け取って、メモリ110に格納するものである。アナログフロントエンド部及びA/D変換部112で生成されたデジタル信号がメモリ110に格納されることで、撮像装置100はデジタル信号に対する各種信号処理を実行することができる。
The
カラー画素生成部116は、撮像センサ106が受光した光から生成された画像信号に対して色データを生成する信号処理を実行するものである。具体的には、カラー画素生成部116は、撮像センサ106で生成された画像信号のうち、色情報が存在していない画素に対して色データを生成するものである。カラー画素生成部116における色データの生成処理については、後に詳述する。
The color
画像再構成部118は、マイクロレンズアレイ104を通して撮像された画像を再構成するものである。画像再構成部118は、例えばマイクロレンズアレイ104を通して撮像された画像の再構成により被写界深度を変更して、合焦させる被写体を変化させることができる。また画像再構成部118は、ノイズの除去や色の補正等による解像度向上処理を実行してもよい。
The
デジタルバックエンド部120は、マイクロレンズアレイ104を通して撮像され、カラー画素生成部116でカラー化された画像に対する画像処理を実行するものであり、例えば彩度を強調する処理を実行したり、画像サイズを変換する処理を実行したりするものである。
The digital back-
画像圧縮部122は、画像データを適切な形式に圧縮するものである。画像の圧縮形式は可逆形式であっても非可逆形式であってもよい。適切な形式の例として、JPEG(Joint Photographic Experts Group)形式やJPEG2000形式に変換してもよい。メモリカードドライバ124は、画像圧縮部122で圧縮された後の画像データの、メモリカード(図示せず)への記録、及びメモリカードに記録された画像データのメモリカードからの読み出しを実行するものである。
The
表示画像生成部126は、撮影画像や、撮像装置100の各種設定画面を表示する表示部(図示せず)に表示する画像(表示画像)を生成するものである。例えば、撮影画像を表示部に表示させる場合には、表示画像生成部126は、表示部の解像度や画面サイズに合わせて画像データを圧縮して、表示画像を生成する。表示ドライバ128は、表示画像生成部126が生成した表示画像を表示部に表示させる処理を実行するものである。
The display
タイミングジェネレータ130は、撮像センサ106にタイミング信号を入力する。タイミングジェネレータ130からのタイミング信号によりシャッタ速度が決定される。つまり、タイミングジェネレータ130からのタイミング信号により撮像センサ106の駆動が制御され、撮像センサ106が駆動する時間内に被写体からの映像光を入射することで、画像データの基となる電気信号が生成される。
The
モータドライバ132は、CPU108の制御に基づいて、フォーカスレンズモータ134を駆動させるものである。フォーカスレンズモータ134は、モータによって主レンズ102の位置を制御するものである。モータドライバ132及びフォーカスレンズモータ134を介して主レンズ102の位置を制御することで、被写体のピントを調節することができる。
The
なお、図5には図示していないが、撮像装置100には、絞り、当該絞りを調節するためのモータ、及び当該モータを駆動させるためのモータドライバを備えていても良い。さらに、図5には図示していないが、撮像装置100には、撮影動作を開始するためのシャッタボタン、絞りやシャッタ速度、感度等の撮影情報を設定するための操作ボタン等を備えていてもよい。
Although not shown in FIG. 5, the
以上、本発明の一実施形態にかかる撮像装置100の構成について説明した。次に、本発明の一実施形態にかかる撮像装置100に用いられる撮像センサ106の構成について説明する。
The configuration of the
図6は、本発明の一実施形態にかかる撮像装置100に用いられる撮像センサ106の構成について示す説明図であり、図7は、図6に示した撮像センサ106を拡大したものを示す説明図である。
FIG. 6 is an explanatory diagram illustrating the configuration of the
図6に示した円は、図3に示した円と同様に、マイクロレンズアレイ104を構成する1つのマイクロレンズ104aを透過する光が照射される範囲を示したものである。図6に示したように、撮像センサ106には、1つのマイクロレンズ104aを透過する光が照射される範囲に対応して複数の画素が割り当てられている。図6及び図7に示した例では、1つのマイクロレンズ104aに対して縦8画素、横8画素の計64画素が割り当てられており、1つのマイクロレンズ104aを透過した光は当該64個の画素によって光電変換が行われる。
The circle shown in FIG. 6 shows the range irradiated with light that passes through one
図6及び図7に示した撮像センサ106では、1つのマイクロレンズ104aに対して割り当てられる64個の画素が、輝度信号を得る画素が含まれる領域と、補色信号を得る画素が含まれる領域とに分けられる。そして、画像再構成部118における再構成処理に用いる領域、すなわち各マイクロレンズの光軸付近で撮像される画素が含まれる領域は輝度信号を得る領域とし、その周囲の画素が含まれる領域は補色信号を得る領域とする。図6に示した撮像センサ106では、Yで示した画素からなる領域が輝度信号を得る領域であり、Cy、Mg、Yeで示した画素からなる領域が補色信号を得る領域となる。Cy、Mg、Yeで示した画素は、それぞれシアン、マゼンタ、イエローの情報を得る画素である。
In the
図7は、1つのマイクロレンズ104aに対して割り当てられている64個の画素について拡大して示す説明図である。図7を用いてより詳細に撮像センサ106の構成を説明する。
FIG. 7 is an explanatory diagram showing an enlarged view of 64 pixels assigned to one
画像の再構成に用いられる領域は、図7に示した画素の内、Y0からY51で示した画素からなる領域にあたる。その他の領域の画素にはそれぞれ補色フィルタが貼付され、シアン、マゼンタ、イエローの情報が得られるように構成されている。シアンの情報を得る画素は、図7のCy0〜Cy3で示した画素であり、マゼンタの情報を得る画素は、図7のMg0〜Mg3で示した画素であり、イエローの情報を得る画素は、図7のYe0〜Ye3で示した画素である。Y0からY51の画素に光が照射されることで得られる輝度信号からは、シアン、マゼンタ、イエローの情報を参照することでRGB信号を得ることができる。 An area used for image reconstruction corresponds to an area composed of pixels indicated by Y0 to Y51 among the pixels shown in FIG. Complementary color filters are attached to the pixels in the other regions, respectively, so that information on cyan, magenta, and yellow can be obtained. Pixels for obtaining cyan information are pixels indicated by Cy0 to Cy3 in FIG. 7, pixels for obtaining magenta information are pixels indicated by Mg0 to Mg3 in FIG. 7, and pixels for obtaining yellow information are: These are the pixels indicated by Ye0 to Ye3 in FIG. An RGB signal can be obtained by referring to information on cyan, magenta, and yellow from a luminance signal obtained by irradiating the pixels Y0 to Y51 with light.
補色信号を受光した画素では、輝度信号を受光する領域とは異なる光束の情報になるが、補色信号は輝度信号に比べて人の感度が低いことが知られている。そこで本実施形態では、撮像センサ106の輝度信号が受光した位置と、複数の補色信号の各受光位置との距離差に応じて重みをつけて算出し、輝度信号を受光した位置におけるRGB信号を生成する。
In a pixel that has received a complementary color signal, the light flux information is different from that in a region that receives the luminance signal. However, it is known that the complementary color signal has a lower human sensitivity than the luminance signal. Therefore, in the present embodiment, the RGB signal at the position where the luminance signal is received is calculated by applying a weight according to the distance difference between the position where the luminance signal of the
図8は、色の三原色であるR,G,Bの各色の波長とスペクトラム強度との関係を示す説明図であり、図9は、シアン、マゼンタ、イエローの各色の波長とスペクトラム強度との関係を示す説明図であり、図10は輝度信号の波長とスペクトラム強度との関係を示す説明図である。図8〜図10に示したように、輝度信号の波長とスペクトラム強度との関係は、図9に示したシアン、マゼンタ、イエローの各色の波長とスペクトラム強度との関係を含むような特性を有している。従って、複数の補色信号の各受光位置との距離差に応じて重みを付けて算出することで、輝度信号を受光した位置におけるRGB信号を生成することが可能となる。 FIG. 8 is an explanatory diagram showing the relationship between the wavelength of each of the three primary colors R, G, and B and the spectrum intensity, and FIG. 9 shows the relationship between the wavelength of each color of cyan, magenta, and yellow and the spectrum intensity. FIG. 10 is an explanatory diagram showing the relationship between the wavelength of the luminance signal and the spectrum intensity. As shown in FIGS. 8 to 10, the relationship between the wavelength of the luminance signal and the spectrum intensity has characteristics including the relationship between the wavelength of each color of cyan, magenta, and yellow and the spectrum intensity shown in FIG. is doing. Therefore, it is possible to generate an RGB signal at the position where the luminance signal is received by calculating the weighting according to the distance difference between each light receiving position of the plurality of complementary color signals.
以上、撮像装置100に用いられる撮像センサ106の構成について説明した。次に、本発明の一実施形態にかかる撮像装置100を用いた撮像方法、及びカラー画像の生成方法について説明する。
The configuration of the
図11は、本発明の一実施形態にかかる撮像装置100を用いた撮像方法について示す流れ図であり、図12は、本発明の一実施形態にかかる撮像装置100におけるカラー画像の生成方法について示す流れ図である。以下、図11及び図12を用いて本発明の一実施形態にかかる撮像装置100を用いた撮像方法、及びカラー画像の生成方法について説明する。
FIG. 11 is a flowchart showing an imaging method using the
本発明の一実施形態にかかる撮像装置100を用いて被写体を撮影する際には、まず被写体の測光結果を用いて自動的に、または撮影者の手によって最適な絞り値が設定され(ステップS101)、続いて、被写体の測光結果を用いて自動的に、または撮影者の手によって被写体の撮影に最適なシャッタ速度が設定され、また画像を撮影する際のゲインが決定される(ステップS102)。そして、モータドライバ132及びフォーカスレンズモータ134がフォーカスレンズの位置を移動させることでマイクロレンズアレイ104に主被写体が合焦される(ステップS103)。
When a subject is photographed using the
マイクロレンズアレイ104に主被写体が合焦されると、シャッタボタンの押下によって撮像装置100での撮影処理が実行される(ステップS104)。撮像装置100での撮影処理は、被写体からの映像光を撮像センサ106に照射させることによって実行される。そして、撮像センサ106への光の照射は、上記ステップS102で設定したシャッタ速度の期間のみ照射されるように、タイミングジェネレータ130によって制御される。
When the main subject is focused on the
被写体からの映像光が主レンズ102、マイクロレンズアレイ104を透過して撮像センサ106に照射されると、撮像センサ106で光電変換されて電気信号が生成される。撮像センサ106で生成された電気信号は、アナログフロントエンド部及びA/D変換部112によってデジタル信号に変換され、変換されたデジタル信号は、画像入力部114によって画像データとしてメモリ110に格納される(ステップS105)。
When image light from the subject passes through the
画像データがメモリ110に格納されると、カラー画素生成部116は、メモリ110に格納された画像データを読み出して、マイクロレンズ104aで区分けされた領域毎にRGB画像を生成する(ステップS106)。このステップS106における、カラー画素生成部116によるRGB画像の生成処理については、後に詳述する。
When the image data is stored in the
上記ステップS106における、カラー画素生成部116によるRGB画像の生成処理が完了すると、続いて、画像再構成部118が、画像の再構成処理に用いる再構成用のパラメータを取得する(ステップS107)。画像の再構成処理に用いる再構成用のパラメータには、例えば撮像装置100から被写体までの距離情報、マイクロレンズアレイ104を構成するマイクロレンズ104aのレンズ間のピッチ等の情報が含まれていてもよい。
When the RGB image generation processing by the color
上記ステップS107における、画像再構成部118による再構成用のパラメータの取得が完了すると、続いてその取得したパラメータを用いて、画像再構成部118で画像データの再構成処理を実行する(ステップS108)。画像再構成部118で画像データを再構成することで、撮影時とは異なる被写体に焦点が合った画像を生成することができる。なお、画像データの再構成処理については、例えば非特許文献1に開示されているので、ここでは詳細な説明は省略する。
When the acquisition of reconstruction parameters by the
上記ステップS108における、画像再構成部118による画像データの再構成処理が完了すると、続いて再構成後の画像データに対して、デジタルバックエンド部120が各種画像処理を実行する(ステップS109)。ここでの各種画像処理とは、例えばノイズ除去処理、彩度強調処理、画像サイズ変換処理等が含まれていてもよい。画像処理が施された画像データはメモリ110に格納される。
When the image reconstruction process by the
上記ステップS109における、デジタルバックエンド部120による各種画像処理が完了すると、続いて、画像処理が施された画像データに対する圧縮処理を画像圧縮部122が実行する(ステップS110)。画像データに対する圧縮処理が完了すると、メモリカードドライバ124は、圧縮後の画像データを記録媒体へ保存する(ステップS111)。
When the various types of image processing by the digital
以上、本発明の一実施形態にかかる撮像装置100を用いた撮像方法について説明した。続いて、図11のステップS106で示した、カラー画素生成部116によるRGB画像の生成処理について詳細に説明する。
The imaging method using the
図12は、図11のステップS106で示した、カラー画素生成部116によるRGB画像の生成処理について説明する流れ図である。ここでは、図6及び図7に示したように、1つのマイクロレンズ104aに対応するのが縦8画素×横8画素の計64画素の領域である場合を例にして説明する。
FIG. 12 is a flowchart for explaining the RGB image generation processing by the color
まず、カラー画素生成部116は、マイクロレンズアレイ104を構成するマイクロレンズ104aの数を表す作業用の変数kを0に設定する(ステップS121)。ステップS121で変数kを0に設定すると、続いてカラー画素生成部116は、上述した縦8画素×横8画素の計64画素の領域を8行×8列の行列に置き換えた場合における行の要素を表す変数nを0に設定し(ステップS122)、続いて当該行列の列の要素を表す変数mを0に設定する(ステップS123)。
First, the color
各変数を0に設定すると、続いて、カラー画素生成部116は、上述した64画素の領域で区分けされた領域内の、シアン(Cy[n][m])、マゼンタ(Mg[n][m])、イエロー(Ye[n][m])の値を算出する(ステップS124)。Cy[n][m]、Mg[n][m]、Ye[n][m]は、それぞれ、64画素の領域の四隅の画素からの距離に応じた加重平均で算出される。まずは算出対象の画素と、四隅のそれぞれの画素との距離を算出する。四隅の画素から算出対象の画素までの距離d0、d1、d2、d3は、それぞれ下記の数式1〜数式4で表すことができる。なお、図7に示したように、四隅のCy、Mg、Yeの各画素の位置は異なっているので、四隅のシアン、マゼンタ、イエローの各画素の位置から算出対象の画素までの距離d0、d1、d2、d3は、シアン、マゼンタ、イエローでそれぞれ異なることになる。従って、下記の数式1〜数式4は、シアン、マゼンタ、イエローでそれぞれ異なる式で表すのが適切であるが、ここでは概念を示すに留め、以下においては説明を簡略化するため、シアン、マゼンタ、イエローの各画素に対するd0、d1、d2、d3の区別は省略する。
When each variable is set to 0, the color
カラー画素生成部116が四隅の画素から算出対象の画素までの距離d0、d1、d2、d3を算出すると、続いてカラー画素生成部116は、上記数式1〜数式4で求めた四隅の画素から算出対象の画素までの距離d0、d1、d2、d3の和dを下記の数式5で求める。
When the color
四隅の画素から算出対象の画素までの距離の和を算出すると、当該画素におけるCy[n][m]、Mg[n][m]、Ye[n][m]を求めることができる。Cy[n][m]、Mg[n][m]、Ye[n][m]は、上記数式5で求めた四隅の画素から算出対象の画素までの距離d0、d1、d2、d3の和dを用いて、下記の数式6〜数式8で求めることが出来る。なお、下記の数式6〜8において、Cy0、Cy1、Cy2、Cy3は、図7に示したCy0、Cy1、Cy2、Cy3の画素におけるシアンの値であり、Mg0、Mg1、Mg2、Mg3は、図7に示したMg0、Mg1、Mg2、Mg3の画素におけるマゼンタの値であり、Ye0、Ye1、Ye2、Ye3は、図7に示したYe0、Ye1、Ye2、Ye3の画素におけるイエローの値である。 When the sum of the distances from the pixels at the four corners to the pixel to be calculated is calculated, Cy [n] [m], Mg [n] [m], and Ye [n] [m] at the pixel can be obtained. Cy [n] [m], Mg [n] [m], and Ye [n] [m] are the distances d0, d1, d2, and d3 from the pixels at the four corners calculated in Equation 5 to the pixel to be calculated. Using the sum d, it can be obtained by the following formulas 6 to 8. In Equations 6 to 8 below, Cy0, Cy1, Cy2, and Cy3 are cyan values in the pixels Cy0, Cy1, Cy2, and Cy3 shown in FIG. 7, and Mg0, Mg1, Mg2, and Mg3 are 7 are magenta values in the pixels of Mg0, Mg1, Mg2, and Mg3, and Ye0, Ye1, Ye2, and Ye3 are yellow values in the pixels of Ye0, Ye1, Ye2, and Ye3 shown in FIG.
このようにシアン(Cy[n][m])、マゼンタ(Mg[n][m])、イエロー(Ye[n][m])を算出すると、続いてカラー画素生成部116は、上述した64画素の領域で区分けされた領域内の輝度信号Y[k][n][m]を用いて、この区分けされた領域の画素におけるR[n][m]、G[n][m]、B[n][m]の値を求める(ステップS125)。R、G、Bは、Cy、Mg、Yeの補色の関係であるので、各画素の輝度信号Y(Y[n][m])から減算することで当該画素のR、G、Bの値を導出できる。R[n][m]、G[n][m]、B[n][m]は、下記の数式9〜数式11で求めることが出来る。
When cyan (Cy [n] [m]), magenta (Mg [n] [m]), and yellow (Ye [n] [m]) are calculated in this way, the color
上記ステップS125でR[n][m]、G[n][m]、B[n][m]を算出すると、カラー画素生成部116は続いてmの値を1つインクリメントする(ステップS126)。mの値を1つインクリメントすると、カラー画素生成部116は続いてmの値が8未満であるかどうかを判定する(ステップS127)。mの値が8未満であれば上記ステップS124に戻る。一方、mの値が8以上であれば、カラー画素生成部116は続いてnの値を1つインクリメントする(ステップS128)。nの値を1つインクリメントすると、カラー画素生成部116は続いてnの値が8未満であるかどうかを判定する(ステップS129)。nの値が8未満であれば上記ステップS123に戻り、mの値をリセットする。一方、nの値が8以上であれば、これは1つのマイクロレンズ104aに割り当てられた64個の画素の全てに対してR、G、Bの値の算出が完了したことを意味するので、カラー画素生成部116は続いてkの値を1つインクリメントする(ステップS130)。kの値を1つインクリメントすると、カラー画素生成部116は続いてkの値がマイクロレンズアレイ104を構成するマイクロレンズ104aの数未満であるかどうかを判定する(ステップS131)。kの値がマイクロレンズ104aの数未満であれば上記ステップS122に戻り、nの値をリセットする。一方、kの値がマイクロレンズ104aの数以上であれば、これは全てのマイクロレンズ104aに対するR、G、Bの値の算出が完了したことを意味するので、一連の処理を終了する。
When R [n] [m], G [n] [m], and B [n] [m] are calculated in step S125, the color
なお、上記数式6〜数式8では、Cy[n][m]、Mg[n][m]、Ye[n][m]は単純に四隅からの距離に応じた加重平均によって算出したが、本発明はかかる例に限定されない。図6及び図7に示した例では、シアン、マゼンタ、イエローの情報を取得する補色部は、円の外側に位置しているため、マイクロレンズ104aを通過した光がこれらの補色部に十分照射されない場合が考えられる。従って、補色部の光量が不足しているときは、上記数式6〜数式8では、平均化している右辺部分を実光量に則して変更しても良い。例えば、下記の数式12〜数式14に示したように、所定の係数αを乗じてCy[n][m]、Mg[n][m]、Ye[n][m]を算出してもよい。
In Equations 6 to 8, Cy [n] [m], Mg [n] [m], and Ye [n] [m] are simply calculated by a weighted average according to the distance from the four corners. The present invention is not limited to such an example. In the example shown in FIGS. 6 and 7, since the complementary color portions that acquire cyan, magenta, and yellow information are located outside the circle, the light that has passed through the
なお、この数式12〜14では、Cy[n][m]、Mg[n][m]、Ye[n][m]について全て同じ係数αを用いているが、本発明はかかる例に限定されないことは言うまでも無い。シアン、マゼンタ、イエローで別々の係数を用いても良く、シアン、マゼンタ、イエローの内のいずれか2つは、他の1つと異なる係数を用いても良い。
In the
また、補色部の光量不足を補うために、例えば図13に示したように、マイクロレンズ104aを透過した光が照射される領域の内側に補色部が位置するように撮像センサ106を構成してもよい。図13に示した例では、シアンの情報を得る画素はCy0〜Cy3で示した画素であり、マゼンタの情報を得る画素はMg0〜Mg3で示した画素であり、イエローの情報を得る画素はYe0〜Ye3で示した画素である。また、図13のY0からY39の画素からなる領域にマイクロレンズ104aを透過した光が照射されることで得られる輝度信号からは、画素Cy0〜Cy3、Mg0〜Mg3、Ye0〜Ye3にマイクロレンズ104aを透過した光が照射されることで得られるシアン、マゼンタ、イエローの情報を参照することでRGB信号を得ることができる。
Further, in order to compensate for the insufficient light amount of the complementary color portion, for example, as shown in FIG. 13, the
また、補色部の光量不足を補うために、マイクロレンズアレイ104に替えて、例えば図14に示したような、矩形型のマイクロレンズ104a´が規則的に配列されたマイクロレンズアレイ104´を用いてもよい。矩形型のマイクロレンズ104a´を用いることで透過光の照射範囲が広くなり、補色部の光量不足を補うことができる。
Further, in order to compensate for the insufficient light amount of the complementary color portion, a
以上、カラー画素生成部116によるRGB画像の生成処理について説明した。
The RGB image generation processing by the color
なお、ここまではシアン、マゼンタ、イエローの情報を得るための補色フィルタが貼付された撮像センサ106を用いた場合について説明したが、本発明はかかる例に限定されない。本発明は、赤、緑、青の情報を得るための原色フィルタが貼付された撮像センサを適用してもよい。図15及び図16は、赤、緑、青の情報を得るための原色フィルタが貼付された撮像センサの構成例について示す説明図である。図15に示した例は、図7に示した補色フィルタが貼付された撮像センサと同様の構成を有する場合のものである。画像の再構成に用いられる画素は、図15に示した画素の内、Y0からY51で示したものにあたる。その他の領域の画素にはそれぞれ原色フィルタが貼付され、赤、緑、青の情報を得るように構成されている。図15における各画素のR[n][m]、G[n][m]、B[n][m]の値は、それぞれ下記の数式で算出することができる。なお、四隅の画素から算出対象の画素までの距離d0、d1、d2、d3、及びd0、d1、d2、d3の和dの算出式は上記数式1〜数式5と同一のものを用いる。
Although the case where the
一方、図16は、図13に示した、マイクロレンズ104aを透過した光が照射される領域の内側に補色部が位置するように構成された撮像センサ106と同様の構成を有するものである。図16に示したように、マイクロレンズ104aを透過した光が照射される領域の内側に赤、緑、青の情報を取得する原色部が位置するように、撮像センサ106を構成してもよい。
On the other hand, FIG. 16 has the same configuration as the
以上説明したように本発明の一実施形態によれば、マイクロレンズアレイ104の透過光からカラー画像信号を生成する場合において、1つのマイクロレンズ104aに対して撮像センサ106の複数の画素が割り当てられた領域を設ける。当該領域は、マイクロレンズ104aの光軸を中心とした領域は輝度信号を、当該領域の周辺領域は補色信号または原色信号を、それぞれ得るような構成とする。そして、カラー画像信号を生成する際には、当該領域の四隅の画素からの距離に応じた加重平均によって領域内の各画素の補色データまたは原色データを算出し、算出された各画素の補色データまたは原色データ、及び当該画素の輝度データを用いて、各画素の色情報を算出する。
As described above, according to an embodiment of the present invention, when a color image signal is generated from light transmitted through the
その結果、本発明の一実施形態によれば、周辺の画素を使って輝度補間処理を行わないので、解像度の低下や周辺部に不自然なエラーパターンが発生することは無く、広い範囲から加重平均化処理値を参照するために、従来のデジタルスチルカメラで用いられているベイヤー補間を用いた場合に比べ、位相ずれによる偽色の発生を低減させることができる。 As a result, according to an embodiment of the present invention, luminance interpolation processing is not performed using peripheral pixels, so that there is no reduction in resolution or unnatural error patterns in the peripheral portion, and weighting from a wide range. In order to refer to the average processing value, it is possible to reduce the occurrence of false colors due to phase shift compared to the case where Bayer interpolation used in a conventional digital still camera is used.
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。 The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.
例えば、上記実施形態では、撮像センサ106は、マイクロレンズ104aの光軸を中心とした領域は輝度信号を、当該領域の周辺領域は補色信号または原色信号を、それぞれ得るような構成としたが、本発明はかかる例に限定されない。撮像センサは、上記実施形態とは逆に、例えばマイクロレンズ104aの光軸を中心とした領域は補色信号または原色信号を、当該領域の周辺領域は輝度信号を、それぞれ得るような構成としてもよい。
For example, in the above-described embodiment, the
また例えば、上記実施形態では、マイクロレンズアレイ104はマイクロレンズ104aが格子状に配列された構成を有していたが、本発明はかかる例に限定されない。マイクロレンズアレイを構成するマイクロレンズは、格子状以外に、例えばハニカム状に配列されていてもよい。図17は、マイクロレンズ104a´´がハニカム状に規則的に配列されたマイクロレンズアレイ104´´について示す説明図である。なお、図17では、ハニカム構造を有するマイクロレンズアレイ104´´を構成する1つのマイクロレンズ104a´の形状は円状であるが、本発明ではハニカム構造を有するマイクロレンズアレイ構成する1つのマイクロレンズの形状はかかる例に限定されない。
For example, in the above-described embodiment, the
本発明は、光検出素子及び撮像装置に適用可能であり、特に複数のレンズを備えるレンズアレイの透過光を検出する光検出素子及び当該光検出素子を用いた撮像装置に適用可能である。 The present invention can be applied to a light detection element and an image pickup apparatus, and in particular, can be applied to a light detection element that detects transmitted light of a lens array including a plurality of lenses and an image pickup apparatus using the light detection element.
100 撮像装置
102 主レンズ
104、104´、104´´ マイクロレンズアレイ
104a、104a´、104a´´ マイクロレンズ
106 撮像センサ
108 CPU
110 メモリ
112アナログフロントエンド部及びA/D変換部
114 画像入力部
116 カラー画素生成部
118 画像再構成部
120 デジタルバックエンド部
122 画像圧縮部
124 メモリカードドライバ
126 表示画像生成部
128 表示ドライバ
130 タイミングジェネレータ
132 モータドライバ
134 フォーカスレンズモータ
DESCRIPTION OF
110
Claims (4)
前記レンズアレイの各レンズからの透過光の照射範囲に対応して単一平面上に設けられる複数の画素からなる光電変換領域を複数備える光電変換部と、
を備え、
各前記光電変換領域は、前記レンズの光軸を中心に設けられる第1領域と、前記第1領域の周辺に設けられる第2領域とで、異なる分光感度特性を有することを特徴とする、光検出素子。 A lens array in which a plurality of lenses provided on a single plane are regularly arranged;
A photoelectric conversion unit including a plurality of photoelectric conversion regions including a plurality of pixels provided on a single plane corresponding to an irradiation range of transmitted light from each lens of the lens array;
With
Each of the photoelectric conversion regions has different spectral sensitivity characteristics in a first region provided around the optical axis of the lens and a second region provided around the first region. Detection element.
The light detection element according to claim 1, wherein the second region is provided so as to be included in an irradiation range of transmitted light from each lens of the lens array.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009111856A JP5394814B2 (en) | 2009-05-01 | 2009-05-01 | Photodetection element and imaging device |
KR1020100004475A KR101679293B1 (en) | 2009-05-01 | 2010-01-18 | Photo detecting device and image pickup device |
US12/772,285 US8358365B2 (en) | 2009-05-01 | 2010-05-03 | Photo detecting device and image pickup device and method thereon |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009111856A JP5394814B2 (en) | 2009-05-01 | 2009-05-01 | Photodetection element and imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010263353A true JP2010263353A (en) | 2010-11-18 |
JP5394814B2 JP5394814B2 (en) | 2014-01-22 |
Family
ID=43361101
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009111856A Expired - Fee Related JP5394814B2 (en) | 2009-05-01 | 2009-05-01 | Photodetection element and imaging device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5394814B2 (en) |
KR (1) | KR101679293B1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012205111A (en) * | 2011-03-25 | 2012-10-22 | Casio Comput Co Ltd | Imaging apparatus |
JP2013192182A (en) * | 2012-03-15 | 2013-09-26 | Toshiba Corp | Solid-state image pickup device and mobile information terminal |
JP2013232850A (en) * | 2012-05-01 | 2013-11-14 | Canon Inc | Image pickup device and control method thereof |
JP2014064214A (en) * | 2012-09-21 | 2014-04-10 | Canon Inc | Image processing device, control method, and program |
US9531963B2 (en) | 2012-10-09 | 2016-12-27 | Ricoh Company, Ltd. | Image capturing device and image capturing system |
JP2017074377A (en) * | 2015-10-16 | 2017-04-20 | 株式会社リコー | Construction of individual eye model using plenoptic camera |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5963448B2 (en) * | 2012-01-13 | 2016-08-03 | キヤノン株式会社 | Imaging device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007004471A (en) * | 2005-06-23 | 2007-01-11 | Nikon Corp | Image synthesis method and image pickup apparatus |
JP2008515110A (en) * | 2004-10-01 | 2008-05-08 | ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー | Imaging apparatus and method |
JP2009021683A (en) * | 2007-07-10 | 2009-01-29 | Sony Corp | Imaging device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4659788B2 (en) | 2007-06-22 | 2011-03-30 | 富士フイルム株式会社 | Back-illuminated image sensor |
-
2009
- 2009-05-01 JP JP2009111856A patent/JP5394814B2/en not_active Expired - Fee Related
-
2010
- 2010-01-18 KR KR1020100004475A patent/KR101679293B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008515110A (en) * | 2004-10-01 | 2008-05-08 | ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー | Imaging apparatus and method |
JP2007004471A (en) * | 2005-06-23 | 2007-01-11 | Nikon Corp | Image synthesis method and image pickup apparatus |
JP2009021683A (en) * | 2007-07-10 | 2009-01-29 | Sony Corp | Imaging device |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012205111A (en) * | 2011-03-25 | 2012-10-22 | Casio Comput Co Ltd | Imaging apparatus |
JP2013192182A (en) * | 2012-03-15 | 2013-09-26 | Toshiba Corp | Solid-state image pickup device and mobile information terminal |
JP2013232850A (en) * | 2012-05-01 | 2013-11-14 | Canon Inc | Image pickup device and control method thereof |
JP2014064214A (en) * | 2012-09-21 | 2014-04-10 | Canon Inc | Image processing device, control method, and program |
US9531963B2 (en) | 2012-10-09 | 2016-12-27 | Ricoh Company, Ltd. | Image capturing device and image capturing system |
JP2017074377A (en) * | 2015-10-16 | 2017-04-20 | 株式会社リコー | Construction of individual eye model using plenoptic camera |
US9955861B2 (en) | 2015-10-16 | 2018-05-01 | Ricoh Company, Ltd. | Construction of an individual eye model using a plenoptic camera |
Also Published As
Publication number | Publication date |
---|---|
KR20100119712A (en) | 2010-11-10 |
JP5394814B2 (en) | 2014-01-22 |
KR101679293B1 (en) | 2016-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5490514B2 (en) | Imaging apparatus and imaging method | |
JP4421793B2 (en) | Digital camera | |
US8358365B2 (en) | Photo detecting device and image pickup device and method thereon | |
US8558915B2 (en) | Photographing apparatus and method | |
JP5621056B2 (en) | Color image sensor | |
JP6366251B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP5394814B2 (en) | Photodetection element and imaging device | |
KR100827238B1 (en) | Apparatus and method for supporting high quality image | |
JP4730082B2 (en) | Image signal processing apparatus, imaging apparatus, image signal processing method, and computer program | |
JP5898481B2 (en) | Imaging apparatus and focus detection method | |
JPWO2012039180A1 (en) | Imaging device and imaging apparatus | |
JP2013521706A (en) | Method and apparatus for generating high resolution image using low resolution image | |
JP2006165975A (en) | Image pickup element, image pickup device and image processing method | |
JP2010271670A (en) | Imaging apparatus | |
JP4968527B2 (en) | Imaging device | |
JP5600814B2 (en) | Image processing apparatus and method, and imaging apparatus | |
JP5620196B2 (en) | Imaging device | |
JP2013057761A (en) | Distance measuring device, imaging device, and distance measuring method | |
JP6671130B2 (en) | Imaging device, imaging device, focus detection device, image processing device, and control method therefor | |
JP2004328117A (en) | Digital camera and photographing control method | |
JP2011232615A (en) | Imaging device | |
JP4950541B2 (en) | Solid-state image sensor | |
WO2016002274A1 (en) | Image capturing device, image processing method, and image processing program | |
JP2010010958A (en) | Multi-band image pickup method and apparatus | |
JP3905342B2 (en) | Solid-state imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120410 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130826 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130917 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131017 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5394814 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |