JP2016051084A - Imaging device and image pick-up element - Google Patents
Imaging device and image pick-up element Download PDFInfo
- Publication number
- JP2016051084A JP2016051084A JP2014176602A JP2014176602A JP2016051084A JP 2016051084 A JP2016051084 A JP 2016051084A JP 2014176602 A JP2014176602 A JP 2014176602A JP 2014176602 A JP2014176602 A JP 2014176602A JP 2016051084 A JP2016051084 A JP 2016051084A
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixel
- imaging
- color component
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 270
- 238000012545 processing Methods 0.000 claims abstract description 43
- 238000001514 detection method Methods 0.000 claims abstract description 23
- 238000003708 edge detection Methods 0.000 claims abstract description 15
- 238000006243 chemical reaction Methods 0.000 claims description 144
- 230000003287 optical effect Effects 0.000 claims description 68
- 238000000034 method Methods 0.000 claims description 24
- 230000008569 process Effects 0.000 claims description 24
- 238000012937 correction Methods 0.000 claims description 9
- 238000003705 background correction Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 abstract description 16
- 230000000052 comparative effect Effects 0.000 description 39
- 238000010586 diagram Methods 0.000 description 31
- 238000011156 evaluation Methods 0.000 description 15
- 230000004075 alteration Effects 0.000 description 12
- 230000000694 effects Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 230000035945 sensitivity Effects 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
Images
Abstract
Description
本発明は、撮像装置及び撮像素子に関する。 The present invention relates to an imaging device and an imaging element.
従来から、画像から色成分ごとに検出された被写体のエッジの色成分量の差に基づいて被写体のエッジの合焦状態を検出し、その検出結果に基づいて焦点調節を行う焦点調節装置が知られている(例えば、特許文献1参照)。 Conventionally, there has been known a focus adjustment device that detects a focus state of a subject edge based on a difference in color component amount of the subject edge detected for each color component from an image and performs focus adjustment based on the detection result. (For example, refer to Patent Document 1).
しかしながら、従来の焦点調節装置では、画像から検出された被写体のエッジのデフォーカス量が僅少である場合、各色のエッジの色成分量の差が小さくなり、被写体のエッジの合焦状態を正確に検出することができないという問題があった。 However, in the conventional focus adjustment device, when the defocus amount of the object edge detected from the image is small, the difference in the color component amount of the edge of each color becomes small, and the focus state of the object edge is accurately determined. There was a problem that it could not be detected.
本発明は、このような事情に鑑みてなされたものであり、その目的は、被写体のエッジの合焦状態を正確に検出することができる撮像装置及び該撮像装置に備えられる撮像素子を提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide an imaging device capable of accurately detecting the focus state of the edge of a subject and an imaging element provided in the imaging device. There is.
上記課題を解決する撮像装置は、レンズを通じて入射される入射光によって被写体が撮像される撮像素子と、前記撮像素子に撮像された前記被写体のエッジを色成分ごとに検出するエッジ検出部と、前記エッジ検出部が検出した前記エッジにおける色成分同士の色成分量の差又は比に基づいて、前記被写体のエッジの合焦状態を検出する合焦検出部とを備え、前記入射光による前記撮像素子に対する前記被写体の撮像態様は、前記エッジ検出部が検出した前記エッジにおける色成分同士の色成分量の差が拡大するように前記入射光の色成分ごとに設定されていることを特徴とする。 An image pickup apparatus that solves the above problems includes an image pickup device that picks up a subject with incident light incident through a lens, an edge detection unit that detects an edge of the subject picked up by the image pickup device for each color component, and A focus detection unit that detects a focus state of the edge of the subject based on a difference or ratio of color component amounts of the color components at the edge detected by the edge detection unit, and the imaging element using the incident light. The imaging mode of the subject is set for each color component of the incident light so that a difference in color component amount between the color components at the edge detected by the edge detection unit is enlarged.
また、上記撮像装置において、相対的に長波長側の色成分の前記入射光が入射される前記撮像素子の撮像画素の光電変換部が、相対的に短波長側の色成分の前記入射光が入射される前記撮像素子の撮像画素の光電変換部よりも前記入射光の光軸方向における前記レンズ側に配置されることが好ましい。 In the imaging apparatus, the photoelectric conversion unit of the imaging pixel of the imaging element to which the incident light having a relatively long wavelength side component is incident may be configured such that the incident light having a relatively short wavelength side color component is received. It is preferable to be arranged on the lens side in the optical axis direction of the incident light with respect to the photoelectric conversion unit of the imaging pixel of the incident image sensor.
また、上記撮像装置において、前記撮像素子の撮像画素は、相対的に長波長側の色成分の前記入射光が入射される撮像画素のうち他の撮像画素と比較して前記光電変換部が前記入射光の光軸方向において前記レンズ側に突出して配置される第1撮像画素、及び、相対的に短波長側の色成分の前記入射光が入射される撮像画素のうち他の撮像画素と比較して前記光電変換部が前記入射光の光軸方向において前記レンズとは反対側に窪んで配置される第2撮像画素のうち少なくとも一方を含んで構成されていることが好ましい。 In the imaging device, the imaging pixel of the imaging element may have the photoelectric conversion unit in front of the other imaging pixels among the imaging pixels to which the incident light of the color component on the relatively long wavelength side is incident. Compared with the other imaging pixels among the first imaging pixels arranged to protrude toward the lens in the optical axis direction of the incident light and the imaging pixels on which the incident light of the color component on the relatively short wavelength side is incident And it is preferable that the said photoelectric conversion part is comprised including at least one among the 2nd imaging pixels arrange | positioned so that it may become depressed in the optical axis direction of the said incident light on the opposite side to the said lens.
また、上記撮像装置は、前記第1撮像画素及び前記第2撮像画素のうち少なくとも一方が撮像した画像データを用いて撮影画像を生成する画像生成部を更に備えることが好ましい。 In addition, it is preferable that the imaging apparatus further includes an image generation unit that generates a captured image using image data captured by at least one of the first imaging pixel and the second imaging pixel.
また、上記撮像装置において、前記画像生成部は、前記第1撮像画素及び前記第2撮像画素のうち少なくとも一方が撮像した画像データに対し、前記撮像素子における他の撮像画素が撮像した画像データとは異なる画像処理を行った上で前記撮影画像を生成することが好ましい。 In the imaging device, the image generation unit may be configured to obtain image data captured by another imaging pixel in the imaging element with respect to image data captured by at least one of the first imaging pixel and the second imaging pixel. Preferably, the captured image is generated after performing different image processing.
また、上記撮像装置において、前記画像生成部は、前記第2撮像画素が撮像した画像データに対し、前記撮像素子における他の撮像画素が撮像した画像データとは異なるシェーディング係数を用いたシェーディング補正処理を前記画像処理として行った上で前記撮影画像を生成することが好ましい。 Further, in the imaging apparatus, the image generation unit uses a shading correction process that uses a shading coefficient that is different from the image data captured by the other imaging pixels of the imaging element for the image data captured by the second imaging pixel. It is preferable to generate the captured image after performing the above as the image processing.
また、上記撮像装置において、前記画像生成部は、前記第1撮像画素及び前記第2撮像画素のうち少なくとも一方が撮像した画像データに対して倍率補正処理を前記画像処理として行った上で前記撮影画像を生成することが好ましい。 In the imaging apparatus, the image generation unit performs a magnification correction process on the image data captured by at least one of the first imaging pixel and the second imaging pixel as the image processing, and then performs the imaging. Preferably, an image is generated.
また、上記撮像装置において、前記第1撮像画素及び前記第2撮像画素のうち少なくとも一方は、二次元的に配置された前記撮像素子の撮像画素に不規則に配置されていることが好ましい。 In the imaging apparatus, it is preferable that at least one of the first imaging pixel and the second imaging pixel is irregularly arranged on the imaging pixels of the imaging element arranged two-dimensionally.
また、上記撮像装置は、前記撮像素子における前記第1撮像画素及び前記第2撮像画素のうち少なくとも一方を含む撮像画素が撮像した画像を表示画像として表示部に表示させる表示制御部を更に備えることが好ましい。 The imaging apparatus further includes a display control unit that causes the display unit to display an image captured by an imaging pixel including at least one of the first imaging pixel and the second imaging pixel in the imaging element as a display image. Is preferred.
また、上記撮像装置において、前記表示画像はスルー画又は動画であって、前記表示制御部は、前記撮像素子における前記第1撮像画素及び前記第2撮像画素のうち少なくとも一方を含む撮像画素が撮像した画像を時系列的に連続したフレーム画像として含む前記表示画像を前記表示部に表示させることが好ましい。 In the imaging apparatus, the display image is a through image or a moving image, and the display control unit captures an imaging pixel including at least one of the first imaging pixel and the second imaging pixel in the imaging element. It is preferable to display the display image including the processed images as time-sequential continuous frame images on the display unit.
また、上記撮像装置において、前記撮像素子の撮像画素は、前記入射光を光電変換部に集光させる集光レンズを有し、相対的に短波長側の色成分の前記入射光が入射する前記撮像画素の前記集光レンズの焦点距離の方が、相対的に長波長側の色成分の前記入射光が入射する前記撮像画素の前記集光レンズの焦点距離よりも小さいことが好ましい。 In the imaging apparatus, the imaging pixel of the imaging element includes a condenser lens that condenses the incident light on a photoelectric conversion unit, and the incident light of a color component on a relatively short wavelength side is incident on the imaging pixel. It is preferable that the focal length of the condensing lens of the imaging pixel is smaller than the focal length of the condensing lens of the imaging pixel on which the incident light of the color component on the relatively long wavelength side is incident.
また、上記撮像装置は、前記撮像素子を前記入射光の光軸方向に駆動する素子駆動部を更に備え、前記素子駆動部は、相対的に短波長側の色成分の前記入射光によって前記合焦状態を検出するための前記被写体が前記撮像素子に撮像される場合には前記撮像素子を前記入射光の光軸方向における第1位置に配置する一方で、相対的に長波長側の色成分の前記入射光によって前記エッジの前記合焦状態を検出するための前記被写体が前記撮像素子に撮像される場合には前記撮像素子を前記第1位置よりも前記入射光の光軸方向における前記レンズ側に位置する第2位置に配置することが好ましい。 The imaging apparatus further includes an element driving unit that drives the imaging element in an optical axis direction of the incident light, and the element driving unit is configured to perform the matching by the incident light of a color component on a relatively short wavelength side. When the subject for detecting a focus state is imaged by the imaging element, the imaging element is arranged at the first position in the optical axis direction of the incident light, while the color component on the relatively long wavelength side When the subject for detecting the in-focus state of the edge by the incident light is imaged by the imaging element, the lens is moved in the optical axis direction of the incident light from the first position. It is preferable to arrange in the second position located on the side.
また、上記課題を解決する撮像素子は、各色の色成分の入射光が電荷に変換される撮像画素を備え、前記撮像画素は、相対的に長波長側の色成分の前記入射光が入射される撮像画素が相対的に短波長側の色成分の前記入射光が入射される撮像画素よりも前記入射光の光軸方向における入射側に配置されることを特徴とする。 An imaging device that solves the above problem includes an imaging pixel in which incident light of each color component is converted into an electric charge, and the imaging pixel receives the incident light of a relatively long wavelength side color component. The imaging pixel is arranged closer to the incident side in the optical axis direction of the incident light than the imaging pixel into which the incident light of the color component on the relatively short wavelength side is incident.
本発明によれば、被写体のエッジの合焦状態を正確に検出することができる。 According to the present invention, it is possible to accurately detect the focus state of the edge of the subject.
(第1の実施形態)
以下、本発明を具体化した第1の実施形態を図面に従って説明する。
図1に示すように、撮像装置の一種であるデジタルカメラ(以下、「カメラ10」という)は、焦点調節のためのフォーカスレンズ11などの複数のレンズからなるレンズ部12(図1ではフォーカスレンズ11のみ図示)と、レンズ部12を通過した光をレンズ部12の像空間側において結像させて撮像する撮像素子13とを備えている。なお、撮像素子13は、CMOS(Complementary Metal Oxide Semiconductor)型、又は、CCD(Charge Coupled Device)型のイメージセンサからなる。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.
As shown in FIG. 1, a digital camera (hereinafter referred to as “
撮像素子13の出力側には、画像処理エンジン14がA/D変換回路15を介して接続されている。そして、撮像素子13からアナログ信号として出力される画素信号は、A/D変換回路15においてデジタル信号に変換された後に画像処理エンジン14に入力される。
An
画像処理エンジン14は、カメラ10の各種の動作を統括的に制御するMPU16(Micro Processing Unit)を備えている。そして、MPU16は、撮像素子13から読み出した画素信号に対し、色補間処理、階調補正、ホワイトバランス処理及び輪郭補償等の画像処理を施すことにより所定の画像を生成する。
The
画像処理エンジン14には、データバス17を介して不揮発性メモリ18、バッファメモリ19、インターフェース部(以下、「I/F部20」という)、及び、表示部の一例としてのモニタ21が接続されている。
A
不揮発性メモリ18は、画像処理エンジン14を動作させるためにMPU16が実行するプログラムを格納している。なお、本実施形態では、不揮発性メモリ18は、図16にフローチャートで示す画像生成処理プログラムなどを格納している。そして、MPU16は、不揮発性メモリ18に格納された画像生成処理プログラムを実行することにより、エッジ検出部22、合焦検出部23、画像生成部24及び表示制御部25として機能する。
The
バッファメモリ19は、例えば、撮影画像、画像処理過程の画像、画像処理後の画像及び画像圧縮後の画像などを一時的に格納している。
I/F部20は、メモリカード30が着脱自在に装着されるカードスロット(図示略)を有している。そして、I/F部20は、画像処理エンジン14によって生成された画像をI/F部20に装着されたメモリカード30に出力したり、メモリカード30に格納されている画像を画像処理エンジン14に出力したりする機能を有している。
The
The I /
モニタ21には、バッファメモリ19に一時的に格納されている画像や、I/F部20に装着されたメモリカード30に格納されている画像が画像処理エンジン14によって出力されて表示される。
On the
また、画像処理エンジン14には、レリーズボタン31及び操作部32が接続されている。レリーズボタン31は、半押し操作又は全押し操作がなされた際に操作信号を画像処理エンジン14に入力する。操作部32は、メニューボタン、セレクトボタン、決定ボタン及び電源ボタン等により構成されており、押圧操作がなされた際に操作信号を画像処理エンジン14に入力する。
In addition, a release button 31 and an operation unit 32 are connected to the
次に、撮像素子13の構成について説明する。
図2及び図3(a)(b)に示すように、撮像素子13は、撮像面上に二次元的に配列された撮像画素40を有している。撮像画素40は、集光レンズの一例としてのマイクロレンズ41、カラーフィルタ42及び光電変換部43によって構成されている。また、撮像画素40は、赤画素40R(R)、緑画素40G(G)及び青画素40B(B)を含んでいる。
Next, the configuration of the
As shown in FIGS. 2 and 3A and 3B, the
図3(a)に示すように、赤画素40Rは、赤色の波長領域の光を選択的に透過するカラーフィルタ42Rを有している。そして、撮像素子13に入射する入射光のうち、カラーフィルタ42Rを透過した赤色の色成分の光がマイクロレンズ41Rによって光電変換部43Rに集光され、光電変換部43Rにおいて電荷に変換される。なお、撮像画素40を構成する赤画素40Rの一部は、他の赤画素40Rと比較して、光電変換部43Rが入射光の光軸方向における入射側(フォーカスレンズ11側)に突出した凸画素40RAとなっている。
As shown in FIG. 3A, the
また、図3(a)及び図3(b)に示すように、緑画素40Gは、緑色の波長領域の光を選択的に透過するカラーフィルタ42Gを有している。そして、撮像素子13に入射する入射光のうち、カラーフィルタ42Gを通過した緑色の色成分の光がマイクロレンズ41Gによって光電変換部43Gに集光され、光電変換部43Gにおいて電荷に変換される。
As shown in FIGS. 3A and 3B, the
また、図3(b)に示すように、青画素40Bは、青色の波長領域の光を選択的に透過するカラーフィルタ42Bを有している。そして、撮像素子13に入射する入射光のうち、カラーフィルタ42Bを透過した青色の色成分の光がマイクロレンズ41Bによって光電変換部43Bに集光され、光電変換部43Bにおいて電荷に変換される。なお、撮像画素40を構成する青画素40Bの一部は、他の青画素40Bと比較して、光電変換部43Bが入射光の光軸方向における射出側(フォーカスレンズ11とは反対側)に窪んだ凹画素40BAとなっている。
As shown in FIG. 3B, the
そして、凸画素40RAにおける光電変換部43Rの光電変換面は、平坦画素における光電変換部43の光電変換面よりも入射光の光軸方向における入射側(フォーカスレンズ11側)に配置されている。また、凹画素40BAにおける光電変換部43Bの光電変換面は、平坦画素における光電変換部43の光電変換面よりも入射光の光軸方向における射出側(フォーカスレンズ11とは反対側)に配置されている。この場合、平坦画素は、凸画素40RAでない赤画素40R、緑画素40G、及び、凹画素40BAでない青画素40Bを意味している。
The photoelectric conversion surface of the
なお、本実施形態では、赤画素40R、緑画素40G及び青画素40Bは、マイクロレンズ41のレンズ面の曲率が互いに等しい。そのため、撮像素子13に入射する入射光のうち、各色の色成分の光に対応するマイクロレンズ41の焦点距離は互いに等しい。
In the present embodiment, the
そして、図2に示すように、撮像素子13には、赤画素40R、緑画素40G及び青画素40Bがベイヤー配列(Bayer Arrangement)の配列パターンによって配列されている。すなわち、隣接する正方格子状の四つの画素からなる画素群において一方の対角線上に二つの緑画素40Gが配列され、他方の対角線上に赤画素40R及び青画素40Bが一つずつ配列されている。そして、正方格子状の画素群を基本単位として、該画素群が二次元上に繰り返し配列されることで撮像素子13が構成されている。なお、本実施形態では、撮像素子13を構成する画素群のうち一部の画素群については、凸画素40RAである赤画素40R、及び、凹画素40BAである青画素40Bを含んでいる。具体的には、撮像素子13の撮像面の縦方向において二つの画素群おきに、撮像素子13の撮像面の横方向において一つの画素群おきに、凸画素40RAである赤画素40R、及び、凹画素40BAである青画素40Bを含む画素群が配置されている。
As shown in FIG. 2, on the
この場合、図4に示すように、本実施形態では、凸画素40RAである赤画素40R、及び、凹画素40BAである青画素40Bは、撮像素子13の撮像画素40のうち、撮像面上における縦方向に間隔を隔てた6つのエリアR1〜R6に位置する画素群に含まれている。また、これらのエリアR1〜R6は、撮像素子13の撮像面上における横方向の全域に亘って延びている。
In this case, as shown in FIG. 4, in the present embodiment, the
次に、画像処理エンジン14が画像から検出された被写体のエッジにおける軸上色収差の色ずれを解析することにより、被写体のエッジの合焦状態を検出する原理の概要を説明する。
Next, an outline of the principle by which the
図5(a)には、撮像素子13に撮像された画像が被写体Sの位置で合焦している状態が実線で示されるとともに、撮像素子13に撮像された画像が被写体Sの位置よりも近点側で合焦している状態(以下、「前ピン状態」という)が一点鎖線で示されている。図5(a)に示すように、前ピン状態においては、被写体から射出される光がフォーカスレンズ11を通過して合焦する位置が撮像素子13よりも撮影者側(図5(a)では右側)に位置する。
In FIG. 5A, a state where the image captured by the
一方、図5(b)には、撮像素子13に撮像された画像が被写体Sの位置で合焦している状態が実線で示されるとともに、撮像素子13に撮像された画像が被写体Sの位置よりも遠点側で合焦している状態(以下、「後ピン状態」という)が一点鎖線で示されている。図5(b)に示すように、後ピン状態においては、被写体から射出される光がフォーカスレンズ11を通過して合焦する位置が撮像素子13よりもフォーカスレンズ11側(図5(b)では左側)に位置する。
On the other hand, in FIG. 5B, a state where the image captured by the
図6には、被写体から射出された光がフォーカスレンズ11を通過する際に生じる軸上色収差の様子が示されている。図6に示すように、フォーカスレンズ11を通過した光には波長の違いによって軸上色収差が生じるため、光の色成分ごとに焦点位置がずれる。具体的には、フォーカスレンズ11は、光の波長が短いほど光の屈折率が大きいため、青(B)の光、緑(B)の光、赤(R)の光の順に、フォーカスレンズ11を通過する際の屈折率が次第に小さくなり、フォーカスレンズ11を通過して合焦する焦点位置がフォーカスレンズ11から次第に遠くなる。そして、このような軸上色収差による色ずれを解析することにより、被写体のデフォーカス特徴量が被写体の合焦状態として算出(検出)される。
FIG. 6 shows the state of axial chromatic aberration that occurs when the light emitted from the subject passes through the
ここで、デフォーカス特徴量は、方向指標と、デフォーカス量を含んで構成されている。方向指標とは、撮像素子13に撮像された画像が被写体に対して前ピン状態又は後ピン状態にあることを示す指標である。そして、方向指標及びデフォーカス量を算出するための評価値の一例としては、Edge Difference(以下、「Ed」という)、デフォーカス量参照値(Width of Subtraction)(以下、「Wd」という)、線広がり関数(Line Spread Function)(以下、「LSF」という)が挙げられる。
Here, the defocus feature amount includes a direction index and a defocus amount. The direction index is an index indicating that the image captured by the
まず、被写体における方向指標及びデフォーカス量をEdを用いて算出する原理の概要を説明する。
図7(a)に示すように、撮像素子13に撮像された画像が被写体に対して前ピン状態である場合には、被写体から射出された光は、フォーカスレンズ11を通過する際に生じる軸上色収差に起因して外側から赤(R)の光、緑(G)の光、青(B)の光の順に位置するように分光された状態で撮像素子13に導かれる。この場合、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する被写体のデフォーカス量は、青(B)の光、緑(G)の光、赤(R)の光の順に次第に大きくなる。
First, the outline of the principle of calculating the direction index and the defocus amount in the subject using Ed will be described.
As shown in FIG. 7A, when the image picked up by the
特に、本実施形態では、凸画素40RAである赤画素40Rの光電変換面は、緑画素40Gの光電変換面よりも光軸方向におけるフォーカスレンズ11との距離が近い位置に配置されている。そのため、赤(R)の光が凸画素40RAである赤画素40Rの光電変換面に撮像する被写体のデフォーカス量は、赤(R)の光が平坦画素である赤画素40Rの光電変換面に撮像する被写体のデフォーカス量よりも大きくなる。その結果、赤(R)の光が凸画素40RAである赤画素40Rの光電変換面に撮像する被写体のデフォーカス量と、緑(G)の光が緑画素40Gの光電変換面に撮像する被写体のデフォーカス量との差分は、赤画素40Rが平坦画素である場合と比較して大きくなる。
In particular, in the present embodiment, the photoelectric conversion surface of the
また同様に、本実施形態では、凹画素40BAである青画素40Bの光電変換面は、緑画素40Gの光電変換面よりも光軸方向におけるフォーカスレンズ11との距離が遠い位置に配置される。そのため、青(B)の光が凹画素40BAである青画素40Bの光電変換面に撮像する被写体のデフォーカス量は、青(B)の光が平坦画素である青画素40Bの光電変換面に撮像する被写体のデフォーカス量よりも小さくなる。その結果、青(B)の光が凹画素40BAである青画素40Bの光電変換面に撮像する被写体のデフォーカス量と、緑(G)の光が緑画素40Gの光電変換面に撮像する被写体のデフォーカス量との差分は、青画素40Bが平坦画素である場合と比較して大きくなる。
Similarly, in the present embodiment, the photoelectric conversion surface of the
一方、図7(b)に示すように、撮像素子13に撮像された画像が被写体に対して後ピン状態である場合には、被写体から射出された光は、フォーカスレンズ11を通過する際に生じる軸上色収差に起因して外側から赤(R)の光、緑(G)の光、青(B)の光の順に位置するように分光された状態で撮像素子13に導かれる。この場合、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する被写体のデフォーカス量は、赤(R)の光、緑(G)の光、青(B)の光の順に次第に大きくなる。
On the other hand, as shown in FIG. 7B, when the image picked up by the
特に、本実施形態では、凸画素40RAである赤画素40Rの光電変換面は、緑画素40Gの光電変換面よりも光軸方向におけるフォーカスレンズ11との距離が近い位置に配置されている。そのため、赤(R)の光が凸画素40RAである赤画素40Rの光電変換面に撮像する被写体のデフォーカス量は、赤(R)の光が平坦画素である赤画素40Rの光電変換面に撮像する被写体のデフォーカス量よりも小さくなる。その結果、赤(R)の光が凸画素40RAである赤画素40Rの光電変換面に撮像する被写体のデフォーカス量と、緑(G)の光が緑画素40Gの光電変換面に撮像する被写体のデフォーカス量との差分は、赤画素40Rが平坦画素である場合と比較して大きくなる。
In particular, in the present embodiment, the photoelectric conversion surface of the
また同様に、本実施形態では、凹画素40BAである青画素40Bの光電変換面は、緑画素40Gの光電変換面よりも光軸方向におけるフォーカスレンズ11との距離が遠い位置に配置される。そのため、青(B)の光が凹画素40BAである青画素40Bの光電変換面に撮像する被写体のデフォーカス量は、青(B)の光が平坦画素である青画素40Bの光電変換面に撮像する被写体のデフォーカス量よりも大きくなる。その結果、青(B)の光が凹画素40BAである青画素40Bの光電変換面に撮像する被写体のデフォーカス量と、緑(G)の光が緑画素40Gの光電変換面に撮像する被写体のデフォーカス量との差分は、青画素40Bが平坦画素である場合と比較して大きくなる。
Similarly, in the present embodiment, the photoelectric conversion surface of the
すなわち、撮像素子13に撮像された画像が被写体に対して前ピン状態及び後ピン状態のうち何れの状態であるかに応じて、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する被写体のデフォーカス量の大小関係は異なるものとなる。
That is, depending on whether the image captured by the
また、赤画素40Rが凸画素40RAである場合、及び、青画素40Bが凹画素40BAである場合には、撮像素子13に撮像された画像が被写体に対して前ピン状態及び後ピン状態のうち何れの状態であったとしても、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する被写体のデフォーカス量の差分は大きくなる。
In addition, when the
図8には、撮像素子13に撮像される画像における被写体の一例として白黒チャートS1が示されている。また、図8では、横方向にX座標、縦方向にY座標が設定されており、X=qの位置に位置する白黒チャートS1のエッジE1がデフォーカス特徴量の算出対象として設定されている。
FIG. 8 shows a black and white chart S <b> 1 as an example of a subject in an image captured by the
この場合、まず、エッジE1を横切る方向(図8ではX方向)においてRGBごとの画素値が取得される。このとき、1ピクセル行だけの画素値が取得されると、その1ピクセル行がノイズを含んでいる場合に誤った画素値が取得される虞がある。そのため、本実施形態では、以下の式(1)〜(3)に示すように、1ピクセル行の画素値がY方向にnピクセル幅に亘ってn本積算され、その積算値がnで除算された平均値が、x=qに位置するエッジE1が横切るRGBごとの画素値として取得される。 In this case, first, pixel values for each RGB are obtained in the direction crossing the edge E1 (X direction in FIG. 8). At this time, if a pixel value of only one pixel row is acquired, an erroneous pixel value may be acquired if the one pixel row includes noise. Therefore, in this embodiment, as shown in the following formulas (1) to (3), n pixel values in one pixel row are integrated over the width of n pixels in the Y direction, and the integrated value is divided by n. The average value thus obtained is acquired as a pixel value for each RGB crossed by the edge E1 located at x = q.
ここで、r(x,k)、g(x,k)、b(x,k)は、y方向のnピクセル幅におけるn本(k=1,2,…,n)の1ピクセル行のR画素値、G画素値、B画素値をそれぞれ示している。ただし、xは、図8に示す例ではX=qを含む所定範囲(例えば、q−Q/2≦x≦q+Q/2)を変域とする値を示している。 Here, r (x, k), g (x, k), and b (x, k) are n (k = 1, 2,..., N) one pixel row in the n pixel width in the y direction. R pixel value, G pixel value, and B pixel value are shown. In the example shown in FIG. 8, x represents a value having a predetermined range including X = q (for example, q−Q / 2 ≦ x ≦ q + Q / 2) as a domain.
続いて、以下の式(4)〜(6)に示すように、r_ave(x)、g_ave(x)、b_ave(x)について、各々の最大値及び最小値を用いて正規化することにより、各々の正規化出力が算出される。 Subsequently, by normalizing r_ave (x), g_ave (x), and b_ave (x) using respective maximum values and minimum values as shown in the following equations (4) to (6), Each normalized output is calculated.
ここで、xminは、エッジE1の検出対象領域EA内で画素値が最小(図8に示す例では黒領域)となるX座標値を示し、xmaxは、エッジE1の検出対象領域EA内で画素値が最大(図8に示す例では白領域)となるX座標値を示している。 Here, xmin represents an X coordinate value at which the pixel value is minimum (black area in the example shown in FIG. 8) in the detection target area EA of the edge E1, and xmax is a pixel in the detection target area EA of the edge E1. The X coordinate value having the maximum value (white area in the example shown in FIG. 8) is shown.
図9(a)には、撮像画素40が凸画素40RA及び凹画素40BAを含まずに平坦画素のみによって構成される比較例の撮像素子13において、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態である場合の、白黒チャートS1のエッジE1の近傍における各色成分の正規化出力が示されている。図9(a)に示すように、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態である場合には、青(B)、緑(G)、赤(R)の順に、白黒チャートS1のエッジE1における色成分量の勾配が次第に緩やかとなる。これは、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態である場合には、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する白黒チャートS1のエッジE1のデフォーカス量は、青(B)の光、緑(G)の光、赤(R)の光の順に次第に大きくなるためである。なお、図9(a)には、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少である状態が示されており、白黒チャートS1のエッジE1における各色成分の色成分量の勾配がほとんど相違していない。
In FIG. 9A, in the
一方、図9(b)には、撮像画素40が凸画素40RA及び凹画素40BAを含んだ本実施形態の撮像素子13において、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態である場合の、白黒チャートS1のエッジE1の近傍における各色成分の正規化出力が示されている。図9(b)に示すように、本実施形態の撮像素子13においては、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少であったとしても、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する白黒チャートS1のエッジE1のデフォーカス量の差分が大きくなる。そのため、図9(a)に示す比較例の撮像素子13を用いた場合と比較して、白黒チャートS1のエッジE1における各色成分の色成分量の勾配が大きく相違することとなる。
On the other hand, in FIG. 9B, in the
また、図10(a)には、比較例の撮像素子13において、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態である場合の、白黒チャートS1のエッジE1の近傍における各色成分の正規化出力が示されている。図10(a)に示すように、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態である場合には、赤(R)、緑(G)、青(B)の順に、白黒チャートS1のエッジE1における色成分量の勾配が次第に緩やかとなる。これは、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態である場合には、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する白黒チャートS1のエッジE1のデフォーカス量は、赤(R)の光、緑(G)の光、青(B)の光の順に次第に大きくなるためである。なお、図10(a)には、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少である状態が示されており、白黒チャートS1のエッジE1における各色成分の色成分量の勾配がほとんど相違していない。
FIG. 10A shows the edge E1 of the black-and-white chart S1 when the image picked up by the image-capturing
一方、図10(b)には、本実施形態の撮像素子13において、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態である場合の、白黒チャートS1のエッジE1の近傍における各色成分の正規化出力が示されている。図10(b)に示すように、本実施形態の撮像素子13においては、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少であったとしても、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する白黒チャートS1のエッジE1のデフォーカス量の差分が大きくなる。そのため、図10(a)に示す比較例の撮像素子13を用いた場合と比較して、白黒チャートS1のエッジE1における各色成分の色成分量の勾配が大きく相違することとなる。
On the other hand, FIG. 10B shows the edge of the black and white chart S1 when the image picked up by the
すなわち、図11(a)に示すように、本実施形態では、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少である場合の白黒チャートS1のエッジE1の近傍における各色成分量の勾配は、以下のようになる。撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態である場合には、赤(R)の色成分量の勾配が緑(G)の色成分量の勾配よりも小さくなる。これに対し、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態である場合には、赤(R)の色成分量の勾配が緑(G)の色成分量の勾配よりも大きくなる。そのため、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態にあるかに応じて、白黒チャートS1のエッジE1における赤(R)の色成分量の勾配と緑(G)の色成分量の勾配との大小関係が逆転する。
That is, as shown in FIG. 11A, in the present embodiment, the vicinity of the edge E1 of the black and white chart S1 when the defocus amount of the edge E1 of the black and white chart S1 in the image picked up by the
したがって、赤(R)の色成分量と緑(G)の色成分量とに基づくEd(以下、「EdRG」という)を閾値と比較することにより、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかについては、以下に示す式(7)、(8)に基づいて判定される。
Therefore, by comparing Ed (hereinafter referred to as “EdRG”) based on the red (R) color component amount and the green (G) color component amount with a threshold value, an image captured by the
ここで、Σ(R/G)は、赤(R)の色成分量を画像における同一の位置での緑(G)の色成分量で除算した値を、区間Δ1に亘って加算した総和を示している。そして、その総和を区間Δ1の長さで除算した値がEdRGとして算出される。なお、区間Δ1は、図11(a)において赤(R)の色成分量と緑(G)の色成分量とが交わる交点P1よりも右側に位置する区間のうち、緑(G)の色成分量に勾配がある区間の一部として規定される。 Here, Σ (R / G) is a sum obtained by adding the value obtained by dividing the red (R) color component amount by the green (G) color component amount at the same position in the image over the section Δ1. Show. Then, a value obtained by dividing the sum by the length of the section Δ1 is calculated as EdRG. The section Δ1 is the color of green (G) in the section located on the right side of the intersection P1 where the red (R) color component amount and the green (G) color component amount intersect in FIG. It is defined as a part of a section where the component amount has a gradient.
そして、式(7)が成立する場合には、EdRGは、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態であることを示している。一方、式(8)が成立する場合には、EdRGは、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態であることを示している。また、EdRGと閾値である「1」との差分が、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量を示している。
And when Formula (7) is materialized, EdRG has shown that the image imaged by the image pick-up
なお、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかについては、以下に示す式(9)、(10)に基づいて判定されてもよい。
It should be noted that whether the image picked up by the
ここで、Σ(R/G)は、赤(R)の色成分量を画像における同一の位置での緑(G)の色成分量で除算した値を、区間Δ2に亘って加算した総和を示している。そして、その総和を区間Δ2の長さで除算した値がEdRGとして算出される。なお、区間Δ2は、図11(a)において赤(R)の色成分量と緑(G)の色成分量とが交わる交点P1よりも左側に位置する区間のうち、緑(G)の色成分量に勾配がある区間の一部として規定される。 Here, Σ (R / G) is a sum obtained by adding the value obtained by dividing the red (R) color component amount by the green (G) color component amount at the same position in the image over the section Δ2. Show. Then, a value obtained by dividing the sum by the length of the section Δ2 is calculated as EdRG. The section Δ2 is the green (G) color in the section located on the left side of the intersection P1 where the red (R) color component amount and the green (G) color component amount intersect in FIG. It is defined as a part of a section where the component amount has a gradient.
そして、式(9)が成立する場合には、EdRGは、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態であることを示している。一方、式(10)が成立する場合には、EdRGは、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態であることを示している。また、EdRGと閾値である「1」との差分が、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量を示している。
And when Formula (9) is materialized, EdRG has shown that the image imaged by the image pick-up
以上のように、上記の式(7)〜(10)では、赤(R)の色成分量と緑(G)の色成分量との比を用いて、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかについて判定される。ただし、赤(R)の色成分量と緑(G)の色成分量との差を用いて、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかについて判定してもよい。
As described above, in the above formulas (7) to (10), an image captured by the
また同様に、図11(b)に示すように、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態である場合には、青(B)の色成分量の勾配が緑(G)の色成分量の勾配よりも大きくなる。これに対し、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態である場合には、青(B)の色成分量の勾配が緑(G)の色成分量の勾配よりも小さくなる。そのため、撮像素子13に撮像された画像が前ピン状態及び後ピン状態のうち何れの状態であるかに応じて、白黒チャートS1のエッジE1における青(B)の色成分量の勾配と緑(G)の色成分量の勾配との大小関係が逆転する。
Similarly, as shown in FIG. 11B, when the image captured by the
したがって、青(B)の色成分量と緑(G)の色成分量とに基づくEd(以下、「EdBG」という)を閾値と比較することにより、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかについては、以下に示す式(11)、(12)に基づいて判定される。
Therefore, by comparing Ed (hereinafter referred to as “EdBG”) based on the blue (B) color component amount and the green (G) color component amount with a threshold value, an image captured by the
ここで、Σ(B/G)は、青(B)の色成分量を画像における同一の位置での緑(G)の色成分量で除算した値を、区間Δ3に亘って加算した総和を示している。そして、その総和を区間Δ3の長さで除算した値がEdBGとして算出される。なお、区間Δ3は、図11(b)において青(B)の色成分量と緑(G)の色成分量とが交わる交点P2よりも右側に位置する区間のうち、緑(G)の色成分量に勾配がある区間の一部として規定される。 Here, Σ (B / G) is a sum obtained by adding a value obtained by dividing the blue (B) color component amount by the green (G) color component amount at the same position in the image over the section Δ3. Show. Then, a value obtained by dividing the sum by the length of the section Δ3 is calculated as EdBG. The section Δ3 is the green (G) color in the section located on the right side of the intersection P2 where the blue (B) color component amount and the green (G) color component amount intersect in FIG. It is defined as a part of a section where the component amount has a gradient.
そして、式(11)が成立する場合には、EdBGは、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態であることを示している。一方、式(12)が成立する場合には、EdBGは、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態であることを示している。また、EdBGと閾値である「1」との差分が、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量を示している。
And when Formula (11) is materialized, EdBG has shown that the image imaged by the image pick-up
なお、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかについては、以下に示す式(13)、(14)に基づいて判定されてもよい。
It should be noted that whether the image captured by the
ここで、Σ(B/G)は、青(B)の色成分量を画像における同一の位置での緑(G)の色成分量で除算した値を、区間Δ4に亘って加算した総和を示している。そして、その総和を区間Δ4の長さで除算した値がEdBGとして算出される。なお、区間Δ4は、図11(b)において青(B)の色成分量と緑(G)の色成分量とが交わる交点P2よりも左側に位置する区間のうち、緑(G)の色成分量に勾配がある区間の一部として規定される。 Here, Σ (B / G) is a sum obtained by adding the value obtained by dividing the blue (B) color component amount by the green (G) color component amount at the same position in the image over the section Δ4. Show. Then, a value obtained by dividing the sum by the length of the section Δ4 is calculated as EdBG. The section Δ4 is the green (G) color in the section located on the left side of the intersection P2 where the blue (B) color component amount and the green (G) color component amount intersect in FIG. It is defined as a part of a section where the component amount has a gradient.
そして、式(13)が成立する場合には、EdBGは、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態であることを示している。一方、式(14)が成立する場合には、EdBGは、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態であることを示している。また、EdBGと閾値である「1」との差分が、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量を示している。
And when Formula (13) is materialized, EdBG has shown that the image imaged by the image pick-up
以上のように、上記の式(11)〜(14)では、青(B)の色成分量と緑(G)の色成分量との比を用いて、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかについて判定される。ただし、青(B)の色成分量と緑(G)の色成分量との差を用いて、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかについて判定してもよい。
As described above, in the above formulas (11) to (14), an image captured by the
次に、被写体における方向指標及びデフォーカス量をWdを用いて算出する原理の概要を説明する。
図12(a)及び図12(b)は、白黒チャートS1のエッジE1の近傍における赤(R)及び緑(G)の色成分量の差と、エッジE1の検出対象領域EA内におけるX軸方向での位置との関係を示すグラフである。
Next, an outline of the principle of calculating the direction index and the defocus amount in the subject using Wd will be described.
12A and 12B show the difference between the color component amounts of red (R) and green (G) in the vicinity of the edge E1 of the black and white chart S1, and the X axis in the detection target area EA of the edge E1. It is a graph which shows the relationship with the position in a direction.
図12(a)には、比較例の撮像素子13を用いた場合において、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少である状態が示されている。また、図12(a)には、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態である場合のグラフが実線で示されるとともに、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態である場合のグラフが破線で示されている。図12(a)に示すように、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかに応じて、赤(R)及び緑(G)の色成分量の差についての波形の極性(正負)が逆転する。ただし、図12(a)に示す状態では、白黒チャートS1のエッジE1の近傍における赤(R)及び緑(G)の色成分量の差が小さい。そのため、赤(R)及び緑(G)の色成分量の差についての波形は、赤(R)及び緑(G)の色成分量を検出する際に生じる誤差の影響を受けやすい。したがって、赤(R)及び緑(G)の色成分量の差についての波形の極性(正負)に基づいて、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかを正確に判定することは困難となる。
FIG. 12A shows a state in which the defocus amount of the edge E1 of the black and white chart S1 in the image picked up by the
一方、図12(b)には、本実施形態の撮像素子13を用いた場合において、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少である状態が示されている。図12(b)には、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態である場合のグラフが実線で示されるとともに、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態である場合のグラフが破線で示されている。なお、図12(b)に示す状態では、図12(a)に示す比較例の撮像素子13を用いた場合と比較して、白黒チャートS1のエッジE1の近傍における赤(R)及び緑(G)の色成分量の差が大きくなっている。そのため、赤(R)及び緑(G)の色成分量の差についての波形の極性(正負)に基づいて、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかを判定することが可能となる。
On the other hand, FIG. 12B shows a state where the defocus amount of the edge E1 of the black and white chart S1 in the image captured by the
また、図12(b)に示すように、Wdは、赤(R)及び緑(G)の色成分量の差の波形のピーク間距離として規定されており,以下に示す式(15)で表される。 Further, as shown in FIG. 12B, Wd is defined as the distance between peaks of the waveform of the difference between the color component amounts of red (R) and green (G), and is expressed by the following equation (15). expressed.
ここで、X1は、図12(b)に実線で示すグラフにおいて、赤(R)及び緑(G)の色成分量の差が最小となる位置である。一方、X2は、図12(b)に実線で示すグラフにおいて、赤(R)及び緑(G)の色成分量の差が最大となる位置である。そして、Wdの値は、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量を示している。
Here, X1 is a position where the difference between the color component amounts of red (R) and green (G) is minimized in the graph indicated by the solid line in FIG. On the other hand, X2 is a position where the difference between the color component amounts of red (R) and green (G) is maximized in the graph indicated by the solid line in FIG. The value of Wd indicates the defocus amount of the edge E1 of the black and white chart S1 in the image picked up by the
なお、赤(R)及び緑(G)の色成分量の比を用いて、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかについて判定したり、白黒チャートS1のエッジE1のデフォーカス量を算出したりしてもよい。また、比較対象となる色成分の組み合わせは、赤(R)及び緑(G)の組み合わせに限定されず、赤(R)及び青(B)の組み合わせや、緑(G)及び青(B)の組み合わせであってもよい。
Note that, using the ratio of the color component amounts of red (R) and green (G), the image captured by the
次に、被写体における方向指標及びデフォーカス量をLSFを用いて算出する原理の概要を説明する。
LSFは、画像における色成分量の広がりを表す関数の一種である。そして、図13(a)には、撮像素子13に撮像された画像が白黒チャートS1のエッジE1において合焦状態にあるLSFが示されている。また、図13(b)には、撮像素子13に撮像された画像が白黒チャートS1のエッジE1において非合焦状態にあるLSFが示されている。また、図13(c)には、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が図13(b)に示す状態よりも大きい状態のLSFが示されている。
Next, an outline of the principle of calculating the direction index and the defocus amount in the subject using the LSF will be described.
LSF is a type of function that represents the spread of color component amounts in an image. FIG. 13A shows the LSF in which the image captured by the
図13(a)〜(c)に示すように、白黒チャートS1のエッジE1でのLSFの標準偏差σは、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が大きくなるに連れて次第に大きくなる。
As shown in FIGS. 13A to 13C, the standard deviation σ of the LSF at the edge E1 of the black and white chart S1 has a large defocus amount of the edge E1 of the black and white chart S1 in the image picked up by the
図14(a)は、撮像素子13に撮像された画像が白黒チャートS1のエッジE1において合焦状態にある場合のLSFを色成分ごとに示している。図14(a)に示すように、撮像素子13に撮像された画像が白黒チャートS1のエッジE1において合焦した状態では、全ての色成分におけるLSFはシャープな波形となる。そして、これらの色成分におけるLSFの標準偏差σR,σG,σBは互いにほぼ等しい。
FIG. 14A shows the LSF for each color component when the image captured by the
図14(b)は、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態である場合のLSFを色成分ごとに示している。図14(b)には、比較例の撮像素子13を用いた場合において、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少である状態のLSFが破線で示されている。図14(b)に破線で示す状態では、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する白黒チャートS1のエッジE1のデフォーカス量の差分が小さいため、全ての色成分におけるLSFはほぼ同一の波形となっている。そのため、これらの色成分におけるLSFの標準偏差σR,σG,σBは互いにほぼ等しい。
FIG. 14B shows the LSF for each color component when the image picked up by the
また、図14(b)には、本実施形態の撮像素子13を用いた場合において、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少である状態のLSFが実線で示されている。図14(b)に実線で示す状態では、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少であったとしても、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する白黒チャートS1のエッジE1のデフォーカス量の差分が図14(b)に破線で示す状態よりも大きくなる。そのため、各色成分のLSFの標準偏差σR,σG,σBは互いに異なるものとなり、青(B)、緑(G)、赤(R)の順に次第に大きくなる。これは、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態である場合には、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する白黒チャートS1のエッジE1のデフォーカス量は、青(B)の光、緑(G)の光、赤(R)の光の順に次第に大きくなるためである。
FIG. 14B shows the LSF in a state where the defocus amount of the edge E1 of the black and white chart S1 in the image picked up by the
図14(c)は、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態である場合のLSFを色成分ごとに示している。図14(c)には、比較例の撮像素子13を用いた場合において、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少である状態のLSFが破線で示されている。図14(c)に破線で示す状態では、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する白黒チャートS1のエッジE1のデフォーカス量の差分が小さいため、全ての色成分におけるLSFはほぼ同一の波形となっている。そのため、これらの色成分におけるLSFの標準偏差σR,σG,σBは互いにほぼ等しい。
FIG. 14C shows the LSF for each color component when the image picked up by the
また、図14(c)には、本実施形態の撮像素子13を用いた場合において、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少である状態のLSFが実線で示されている。図14(c)に実線で示す状態では、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少であったとしても、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する白黒チャートS1のエッジE1のデフォーカス量の差分が図14(c)に破線で示す状態よりも大きくなる。そのため、各色成分のLSFの標準偏差σR,σG,σBは互いに異なるものとなり、赤(R)、緑(G)、青(B)の順に次第に大きくなる。これは、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態である場合には、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する白黒チャートS1のエッジE1のデフォーカス量は、赤(R)の光、緑(G)の光、青(B)の光の順に次第に大きくなるためである。
FIG. 14C shows the LSF in a state where the defocus amount of the edge E1 of the black and white chart S1 in the image captured by the
すなわち、図14(b)及び図14(c)に実線で示す状態では、図14(b)及び図14(c)に破線で示す状態と比較して、各色成分のLSFの標準偏差σR,σG,σBの差分が大きくなっている。そして、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかに応じて、白黒チャートS1のエッジE1における各色成分のLSFの標準偏差の大小関係は互いに異なるものとなる。
That is, in the state indicated by the solid line in FIGS. 14B and 14C, the standard deviation σR of the LSF of each color component is compared with the state indicated by the broken line in FIGS. 14B and 14C. The difference between σG and σB is large. The LSF of each color component at the edge E1 of the black and white chart S1 depends on whether the image picked up by the
図15は、撮像素子13に撮像された画像における白黒チャートS1のエッジE1の距離と、該エッジE1における各色のLSFの標準偏差の差との関係を示すグラフである。図15には、比較例の撮像素子13を用いた場合のグラフが破線で示されるとともに、本実施形態の撮像素子13を用いた場合のグラフが実線で示されている。
FIG. 15 is a graph showing the relationship between the distance of the edge E1 of the black and white chart S1 in the image picked up by the
ここで、F1は、青(B)のLSFの標準偏差σBと、緑(G)のLSFの標準偏差σGとの差を表す関数である。そして、F1は、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態である場合には正の値となる。一方、F1は、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態である場合には負の値となる。また、F1の絶対値は、撮像素子13に撮像された画像における白黒チャートS1のエッジE1の距離が合焦位置に対応する距離から離れるに連れて次第に大きくなる。そのため、F1の絶対値は、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量を示している。
Here, F1 is a function representing the difference between the standard deviation σB of the blue (B) LSF and the standard deviation σG of the green (G) LSF. F1 is a positive value when the image picked up by the
なお、本実施形態の撮像素子13を用いた場合には、比較例の撮像素子13を用いた場合と比較して、各色成分のLSFの標準偏差σR,σG,σBの差分が大きくなる。そのため、図15において実線で示すF1の関数のグラフは、図15において破線で示すF1の関数のグラフよりもF1の絶対値が大きくなるため、青(B)及び緑(G)のLSFの標準偏差を算出する際に生じる誤差の影響を受けにくい。したがって、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少であったとしても、図15において実線で示すF1の関数のグラフに基づいて、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかを正確に判定することが可能となる。また、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少であったとしても、図15において実線で示すF1の関数のグラフに基づいて、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量を正確に算出することが可能となる。
Note that when the
また同様に、F2は、赤(R)のLSFの標準偏差σRと、緑(G)のLSFの標準偏差σGとの差を表す関数である。そして、F2は、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態である場合には負の値となる。一方、F2は、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態である場合には正の値となる。また、F2の絶対値は、撮像素子13に撮像された画像における白黒チャートS1のエッジE1の距離が合焦位置に対応する距離から離れるに連れて次第に大きくなる。そのため、F1の絶対値は、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量を示している。
Similarly, F2 is a function representing the difference between the standard deviation σR of the red (R) LSF and the standard deviation σG of the green (G) LSF. F2 is a negative value when the image picked up by the
なお、本実施形態の撮像素子13を用いた場合には、比較例の撮像素子13を用いた場合と比較して、各色成分のLSFの標準偏差σR,σG,σBの差分が大きくなる。そのため、図15において実線で示すF2の関数のグラフは、図15において破線で示すF2の関数のグラフよりもF1の絶対値が大きくなるため、赤(R)及び緑(G)のLSFの標準偏差を算出する際に生じる誤差の影響を受けにくい。したがって、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少であったとしても、図15において実線で示すF2の関数のグラフに基づいて、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかを正確に判定することが可能となる。また、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少であったとしても、図15において実線で示すF2の関数のグラフに基づいて、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量を正確に算出することが可能となる。
Note that when the
以上のように、エッジE1における赤(R)及び緑(G)、又は、青(B)及び緑(G)の色成分量のLSFの標準偏差の差の極性に基づいて、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかについて判定される。ただし、エッジE1における赤(R)及び青(B)のLSFの標準偏差の差の極性に基づいて、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかについて判定してもよい。また、エッジE1における各色のLSFの標準偏差の比を閾値(=「1」)と比較することにより、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかについて判定してもよい。
As described above, based on the polarity of the difference in the standard deviation of the LSF of the color component amounts of red (R) and green (G) or blue (B) and green (G) at the edge E1, the
また、LSFは、赤(R)、緑(G)、青(B)のうち、一つの色成分のみについて算出されてもよい。この場合、一例として、まず、エッジE1におけるLSFの値とエッジE1のデフォーカス量とを対応付けたエッジのプロファイルをデータベースに予め記憶させる。そして、撮像素子13に撮像された白黒チャートS1のエッジE1におけるLSFの値をデータベースに記憶されたエッジのプロファイルと照合することにより、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が算出される。
The LSF may be calculated for only one color component among red (R), green (G), and blue (B). In this case, as an example, first, an edge profile that associates the LSF value at the edge E1 with the defocus amount of the edge E1 is stored in advance in the database. Then, by comparing the LSF value at the edge E1 of the black and white chart S1 imaged by the
また、被写体における方向指標及びデフォーカス量を算出する際に、LSFの標準偏差に代えて、LSFの半値幅、又は、LSFのピーク値を用いてもよい。
次に、本実施形態の画像処理エンジン14のMPU16が実行する画像生成処理ルーチンの概要を図16のフローチャートを参照しながら説明する。
Further, when calculating the direction index and the defocus amount in the subject, the half-value width of the LSF or the peak value of the LSF may be used instead of the standard deviation of the LSF.
Next, an outline of an image generation processing routine executed by the MPU 16 of the
さて、MPU16は、カメラ10が電源ON状態となると、図16に示す画像生成処理ルーチンを開始する。そして、ステップS10において、MPU16は、撮像素子13から画像信号を読み出してスルー画を生成する。
Now, when the
具体的には、図17(a)に示すように、MPU16は、撮像素子13の全ての撮像画素となる平坦画素、凸画素40RA及び凹画素40BAから読み出した画素信号に基づいてフレーム画像Fを生成し、生成したフレーム画像Fを時系列順につなぎ合わせてスルー画を生成する。そして、MPU16の表示制御部25は、生成したスルー画を撮像素子13に撮像された画像としてモニタ21に表示させる。
Specifically, as illustrated in FIG. 17A, the MPU 16 generates a frame image F based on pixel signals read from the flat pixels, the convex pixels 40RA, and the concave pixels 40BA that are all imaging pixels of the
なお、図17(a)に示す例では、フレーム画像Fのフレームレートが「30」に設定されている。ここで、フレームレートとは、スルー画において単位時間当たりに含まれるフレーム画像の枚数を意味している。すなわち、フレームレートは、スルー画におけるフレーム画像Fごとの時間の長さを示す指標でもあり、フレームレートが大きくなるに連れてスルー画におけるフレーム画像Fごとの時間の長さが短くなる。 In the example shown in FIG. 17A, the frame rate of the frame image F is set to “30”. Here, the frame rate means the number of frame images included per unit time in a through image. That is, the frame rate is also an index indicating the length of time for each frame image F in the through image, and the length of time for each frame image F in the through image decreases as the frame rate increases.
また、図17(b)に示すように、MPU16は、撮像素子13の平坦画素から読み出した画素信号に基づいて生成される第1フレーム画像F1と、撮像素子13の平坦画素、凸画素40RA及び凹画素40BAから読み出した画素信号に基づいて生成される第2フレーム画像F2とを時系列的につなぎ合わせてスルー画を生成してもよい。この場合、MPU16は、撮像素子13の全ての撮像画素40のうち、間引き読み出し処理によって平坦画素から選択的に画素信号を読み出すことにより第1フレーム画像F1を生成してもよい。また、MPU16は、撮像素子13の全ての撮像画素40から画素信号を読み出すものの、読み出した画素信号のうち平坦画素から読み出した画素信号のみを用いて第1フレーム画像F1を生成してもよい。なお、図17(b)に示す例では、第1フレーム画像F1及び第2フレーム画像F2の双方のフレームレートが「60」に設定されている。
Also, as shown in FIG. 17B, the MPU 16 includes a first frame image F1 generated based on the pixel signal read from the flat pixels of the
そして次に、ステップS11において、MPU16のエッジ検出部22は、先のステップS10において生成したスルー画を微分フィルタによってスキャン(例えば、ラスタースキャン)する。その結果、スルー画における明度、彩度及び色相等の特徴量が算出される。そして、MPU16のエッジ検出部22は、算出された特徴量が大きい部分を軸上色収差の評価に適したエッジとして検出する。
Then, in step S11, the
続いて、ステップS12において、MPU16の合焦検出部23は、先のステップS11において検出されたエッジにおける軸上色収差の評価値を算出するとともに、算出した評価値に基づいてエッジのデフォーカス特徴量を算出する。 Subsequently, in step S12, the focus detection unit 23 of the MPU 16 calculates the evaluation value of the axial chromatic aberration at the edge detected in the previous step S11, and based on the calculated evaluation value, the defocus feature value of the edge Is calculated.
より具体的には、上記のステップS11及びステップS12において、MPU16は、以下のような処理を行う。
すなわち、スルー画が図17(a)に示す例の場合には、MPU16のエッジ検出部22は、撮像素子13の平坦画素、凸画素40RA及び凹画素40BAから読み出した画素信号に基づいて生成したフレーム画像Fを微分フィルタによってスキャンすることによりエッジを検出する。そして次に、MPU16は、一例として、フレーム画像Fから検出したエッジのうち、凸画素40RAである赤画素40Rが撮像した画像部分の赤(R)の色成分量と、平坦画素である緑画素40Gが撮像した画像部分の緑(G)の色成分量とに基づいて、エッジの近傍における色成分量の正規化出力を算出する。
More specifically, in step S11 and step S12 described above, the MPU 16 performs the following process.
That is, when the through image is the example shown in FIG. 17A, the
また、MPU16は、フレーム画像Fから検出したエッジのうち、凹画素40BAである青画素40Bが撮像した画像部分の青(B)の色成分量と、平坦画素である緑画素40Gが撮像した画像部分の緑(G)の色成分量とに基づいて、エッジの近傍における色成分量の正規化出力を算出してもよい。
The MPU 16 also detects the blue (B) color component amount of the image portion captured by the
また、スルー画が図17(b)に示す例の場合には、MPU16のエッジ検出部22は、撮像素子13の平坦画素、凸画素40RA及び凹画素40BAから読み出した画素信号に基づいて生成した第2フレーム画像F2を微分フィルタによってスキャンすることによりエッジを検出する。そして次に、MPU16は、一例として、第2フレーム画像F2から検出したエッジのうち、凸画素40RAである赤画素40Rが撮像した画像部分の赤(R)の色成分量と、平坦画素である緑画素40Gが撮像した画像部分の緑(G)の色成分量とに基づいて、エッジの近傍における色成分量の正規化出力を算出する。
When the through image is the example shown in FIG. 17B, the
また、MPU16は、第2フレーム画像F2から検出したエッジのうち、凹画素40BAである青画素40Bが撮像した画像部分の青(B)の色成分量と、平坦画素である緑画素40Gが撮像した画像部分の緑(G)の色成分量とに基づいて、エッジの近傍における色成分量の正規化出力を算出してもよい。
Also, the MPU 16 captures the blue (B) color component amount of the image portion captured by the
そして次に、ステップS13において、MPU16は、先のステップS12において算出されたエッジのデフォーカス特徴量に基づいて、フォーカスレンズ11の駆動条件を設定する。すなわち、MPU16は、エッジのデフォーカス特徴量の方向指標に基づいてフォーカスレンズ11の駆動方向を設定するとともに、エッジのデフォーカス特徴量のデフォーカス量に基づいてフォーカスレンズ11の駆動量を設定する。
Next, in step S13, the MPU 16 sets the drive condition for the
具体的には、MPU16は、エッジのデフォーカス特徴量の方向指標が前ピン状態を示している場合、フォーカスレンズ11を光軸方向において撮像素子13から遠ざける方向にフォーカスレンズ11の駆動方向を設定する。すなわち、MPU16は、スルー画がエッジよりも近点側に合焦していると判断した場合には、スルー画の合焦位置をスルー画の奥行方向における無限遠側に移動させてエッジの位置に合致させるように、フォーカスレンズ11の駆動方向を設定する。
Specifically, the MPU 16 sets the drive direction of the
一方、MPU16は、エッジのデフォーカス特徴量の方向指標が後ピン状態を示している場合、フォーカスレンズ11を光軸方向において撮像素子13に近づける方向にフォーカスレンズ11の駆動方向を設定する。すなわち、MPU16は、スルー画がエッジよりも遠点側に合焦していると判断した場合には、スルー画の合焦位置をスルー画の奥行方向における至近側に移動させてエッジの位置に合致させるように、フォーカスレンズ11の駆動方向を設定する。
On the other hand, the MPU 16 sets the drive direction of the
また、MPU16は、エッジのデフォーカス特徴量のデフォーカス量に基づいて、フォーカスレンズ11の合焦位置を推定する。そして、MPU16は、現在のレンズ位置から推定された合焦位置に至るようにフォーカスレンズ11の駆動量を設定する。
Further, the MPU 16 estimates the in-focus position of the
続いて、ステップS14において、MPU16は、先のステップS13において設定された駆動条件でフォーカスレンズ11を駆動させる。その結果、フォーカスレンズ11のレンズ位置が合焦位置に移動することにより、スルー画がエッジの位置において合焦された状態となる。
Subsequently, in step S14, the MPU 16 drives the
そして次に、ステップS15において、MPU16は、撮影指示信号が入力されたか否かを判定する。この撮影指示信号は、レリーズボタン31の全押し操作がなされた際に画像処理エンジン14に操作信号として入力される。なお、モニタ21がタッチパネルである場合には、モニタ21が画像の撮影のためにタッチ操作がなされた際に撮影指示信号が操作信号として画像処理エンジン14に入力される。そして、MPU16は、撮影指示信号が入力されていない(ステップS15=NO)と判定した場合、その処理をステップS10に戻し、撮影指示信号が入力されるまでステップS10〜ステップS15の処理を繰り返す。一方、MPU16は、撮影指示信号が入力された(ステップS15=YES)と判定した場合、その処理をステップS16に移行する。
Next, in step S15, the MPU 16 determines whether or not a shooting instruction signal has been input. This photographing instruction signal is input as an operation signal to the
そして、ステップS16において、MPU16は、凹画素40BAが撮像した被写体の画素信号を撮影画像に用いるか否かの判定基準となる、凹画素40BAにおけるシェーディング係数と絞り値との相関関係を示すグラフGR(図18参照)を不揮発性メモリ18から読み出す。
In step S16, the MPU 16 is a graph GR indicating the correlation between the shading coefficient and the aperture value in the concave pixel 40BA, which is a criterion for determining whether or not to use the pixel signal of the subject captured by the concave pixel 40BA in the captured image. (See FIG. 18) is read from the
なお、凹画素40BAにおけるシェーディング係数は、フォーカスレンズ11のシェーディング係数と、凹画素40BAの画素感度と、凹画素40BAの凹み係数とが積算されることにより算出される。この場合、凹画素40BAの凹み係数は、凹画素40BAの凹み度合が大きくなるに連れて大きくなる。そのため、凹画素40BAにおけるシェーディング係数は、凹画素40BAの凹み度合が大きくなるに連れて大きくなる。すなわち、凹画素40BAにおけるシェーディング係数は、凹画素40BAの凹み度合を示す指標となっている。
The shading coefficient in the concave pixel 40BA is calculated by integrating the shading coefficient of the
そして、上記のグラフGRにおいては、凹画素40BAにおけるシェーディング係数が大きくなるに連れて、凹画素40BAが撮像した被写体の画像信号を撮影画像に用いるか否かの判定基準となる絞り値の大きさが次第に大きくなっている。これは、フォーカスレンズ11を通過した光のうち凹画素40BAに到達する光の比率を十分に確保するためには、凹画素40BAの凹み度合が大きくなるに連れて、絞りの開口面積を狭めることにより光の入射角度を制限する必要があるためである。
In the graph GR described above, as the shading coefficient in the concave pixel 40BA increases, the size of the aperture value that serves as a criterion for determining whether or not to use the image signal of the subject imaged by the concave pixel 40BA in the captured image. Is gradually growing. This is because the aperture area of the diaphragm is reduced as the degree of depression of the concave pixel 40BA increases in order to ensure a sufficient ratio of the light that has passed through the
続いて、ステップS17において、MPU16は、その時点でカメラ10に設定されている凹画素40BAにおけるシェーディング係数の設定値を算出する。
具体的には、カメラ10がレンズ一体型である場合には、カメラ10に装着されているフォーカスレンズ11のシェーディング係数が固定の値となっている。そのため、固定の値であるフォーカスレンズ11のシェーディング係数に対し、凹画素40BAの画素感度と、凹画素40BAの凹み係数とが積算されることにより、凹画素40BAにおけるシェーディング係数の設定値が算出される。
Subsequently, in step S17, the MPU 16 calculates the setting value of the shading coefficient in the concave pixel 40BA set in the
Specifically, when the
また、カメラ10がレンズ交換型である場合には、カメラ10に装着されるフォーカスレンズの種類によってフォーカスレンズ11のシェーディング係数が異なる値となる。そのため、その時点でカメラ10に装着されているフォーカスレンズ11の種類に応じたフォーカスレンズ11のシェーディング係数が不揮発性メモリ18から読み出される。そして、読み出されたフォーカスレンズ11のシェーディング係数に対し、凹画素40BAの画素感度と、凹画素40BAの凹み係数とが積算されることにより、凹画素40BAにおけるシェーディング係数の設定値が算出される。
Further, when the
そして次に、ステップS18において、MPU16は、先のステップS17において算出されたシェーディング係数の設定値を、先のステップS16において読み出したグラフGRに算入することにより、絞り値の閾値Nを算出する。閾値Nは、凹画素40BAが撮像した被写体の画像信号を撮影画像に用いるか否かを判定する際の絞り値の基準値となっている。なお、図18には、シェーディング係数の設定値がT1である場合に算出される絞り値の閾値Nが示されている。 Next, in step S18, the MPU 16 calculates the threshold value N of the aperture value by adding the setting value of the shading coefficient calculated in the previous step S17 to the graph GR read in the previous step S16. The threshold value N is a reference value for the aperture value when determining whether or not to use the image signal of the subject imaged by the concave pixel 40BA for the captured image. FIG. 18 shows the threshold value N of the aperture value calculated when the setting value of the shading coefficient is T1.
続いて、ステップS19において、MPU16は、その時点でカメラ10に設定されている絞り値の設定値が先のステップS18において算出された絞り値の閾値N以上であるか否かを判定する。なお、図18に示す例では、MPU16は、絞り値の設定値がN1である場合には、絞り値の設定値が閾値N未満(ステップS19=NO)であると判定する一方で、絞り値の設定値がN2である場合には、絞り値の設定値が閾値N以上である(ステップS19=YES)と判定する。そして、MPU16は、絞り値の設定値が閾値N以上である(ステップS19=YES)と判定した場合には、凹画素40BAが撮像した被写体の画像信号を撮影画像に用いるのは適切であると判断した上で、その処理をステップS20に移行する。
Subsequently, in step S19, the MPU 16 determines whether or not the aperture value set in the
そして、ステップS20において、MPU16の画像生成部24は、凹画素40BAを含む全ての撮像画素40(すなわち、平坦画素、凸画素40RA及び凹画素40BA)から被写体の画素信号を読み出す。
In step S20, the
そして次に、ステップS21において、MPU16の画像生成部24は、先のステップS20において凹画素40BA以外の撮像画素40(即ち、平坦画素及び凸画素40RA)から読み出した被写体の画素信号に対し、通常のシェーディング係数を用いたシェーディング補正処理を実行する。
Next, in step S21, the
続いて、ステップS22において、MPU16の画像生成部24は、先のステップS20において凹画素40BAから読み出した被写体の画素信号に対し、先のステップS17において算出された凹画素40BAにおけるシェーディング係数の設定値を用いたシェーディング補正処理を実行する。この場合、凹画素40BAにおけるシェーディング係数の設定値は、先のステップS21において用いられる通常のシェーディング係数よりも大きな値となっている。これは、フォーカスレンズ11を通過した光のうち撮像素子13に対して斜めに入射する光は、平坦画素と比較して凹画素40BAには到達しにくく、凹画素40BAから読み出した被写体の画素信号に対してシェーディング補正処理の強度を高める必要があるためである。
Subsequently, in step S22, the
そして次に、ステップS23において、MPU16の画像生成部24は、先のステップS20において凸画素40RA又は凹画素40BAから読み出した被写体の画素信号に対して倍率補正処理を実行した上で、その処理をステップS28に移行する。
Next, in step S23, the
具体的には、MPU16の画像生成部24は、凸画素40RAから読み出した被写体の画素信号に対して拡大処理を実行する。これは、凸画素40RAは、平坦画素と比較して、入射光の光軸方向における光電変換部43RAとフォーカスレンズ11との距離が小さいため、凸画素40RAに撮像される被写体の大きさが平坦画素に撮像される同一の被写体の大きさよりも小さくなるためである。
Specifically, the
また、MPU16の画像生成部24は、凹画素40BAから読み出した被写体の画素信号に対して縮小処理を実行する。これは、凹画素40BAは、平坦画素と比較して、入射光の光軸方向における光電変換部43BAとフォーカスレンズ11との距離が大きいため、凹画素40BAに撮像される被写体の大きさが平坦画素に撮像される同一の被写体の大きさよりも大きくなるためである。
In addition, the
一方、MPU16は、絞り値の設定値が閾値N未満である(ステップS19=NO)と判定した場合には、凹画素40BAが撮像した被写体の画像データを撮影画像に用いるのは適切ではないと判断した上で、その処理をステップS24に移行する。 On the other hand, when the MPU 16 determines that the set value of the aperture value is less than the threshold value N (step S19 = NO), it is not appropriate to use the image data of the subject captured by the concave pixel 40BA for the captured image. After the determination, the process proceeds to step S24.
そして、ステップS24において、MPU16の画像生成部24は、間引き読み出し処理によって凹画素40BA以外の撮像画素40(すなわち、平坦画素及び凸画素40RA)から選択的に被写体の画素信号を読み出す。
In step S24, the
なお、MPU16の画像生成部24は、凹画素40BAを含む全ての撮像画素40から被写体の画素信号を読み出すものの、凹画素40BAから読み出した被写体の画素信号については撮影画像に用いない構成としてもよい。
The
そして次に、ステップS25において、MPU16の画像生成部24は、先のステップS24において平坦画素及び凸画素40RAから読み出した被写体の画素信号に対し、通常のシェーディング係数を用いたシェーディング補正処理を実行する。
Next, in step S25, the
続いて、ステップS26において、MPU16の画像生成部24は、先のステップS24において凸画素40RAから読み出した被写体の画素信号に対して倍率補正処理として拡大処理を実行する。
Subsequently, in step S26, the
そして次に、ステップS27において、MPU16の画像生成部24は、先のステップS24において平坦画素及び凸画素40RAから読み出した被写体の画素信号に対して補間処理を行うことにより、凹画素40BAに対応する撮像画素分の画素信号を補った上で、その処理をステップS28に移行する。
Next, in step S27, the
そして、ステップS28において、MPU16の画像生成部24は、先のステップS23において倍率補正処理が行われた画素信号、又は、先のステップS27において補間処理が行われた画素信号に基づいて静止画を生成し、生成した静止画を撮影画像として不揮発性メモリ18に格納する。
In step S28, the
次に、上記のように構成されたカメラ10の作用について、特に、MPU16の合焦検出部23がスルー画におけるエッジのデフォーカス特徴量を算出する際の作用に着目して以下説明する。
Next, the operation of the
さて、スルー画に含まれるエッジを、凸画素40RAである赤画素40R、及び、平坦画素である緑画素40Gが撮像したとする。この場合、凸画素40RAである赤画素40Rが撮像したエッジの近傍における赤(R)の色成分量の正規化出力と、平坦画素である緑画素40Gが撮像したエッジの近傍における緑(G)の色成分量の正規化出力との差分は、赤画素40Rが平坦画素である場合と比較して大きくなる。すなわち、凸画素40RAである赤画素40Rと平坦画素である緑画素40Gとの組み合わせにより、エッジの近傍における赤(R)及び緑(G)の色成分量の正規化出力の差分が拡大される。そのため、スルー画に含まれるエッジのデフォーカス量が僅少な場合であっても、かかるエッジの近傍における赤(R)及び緑(G)の色成分量の正規化出力の差分が十分に確保される。そして、拡大された正規化出力の差分に基づいてエッジにおける軸上色収差の評価値が算出されるとともに、算出された評価値に基づいてエッジのデフォーカス特徴量が算出される。したがって、スルー画におけるエッジのデフォーカス特徴量の算出結果に応じてフォーカスレンズ11の駆動条件が設定されることにより、スルー画がエッジの部分において正確に合焦される。
Now, it is assumed that the
また同様に、スルー画に含まれるエッジを、凹画素40BAである青画素40B、及び、平坦画素である緑画素40Gが撮像したとする。この場合、凹画素40BAである青画素40Bが撮像したエッジの近傍における青(B)の色成分量の正規化出力と、平坦画素である緑画素40Gが撮像したエッジの近傍における緑(G)の色成分量の正規化出力との差分は、青画素40Bが平坦画素である場合と比較して大きくなる。すなわち、青画素40Bである青画素40Bと平坦画素である緑画素40Gとの組み合わせにより、エッジの近傍における青(B)及び緑(G)の色成分量の正規化出力の差分が拡大される。そのため、スルー画に含まれるエッジのデフォーカス量が僅少な場合であっても、かかるエッジの近傍における青(B)及び緑(G)の色成分量の正規化出力の差分が十分に確保される。そして、拡大された正規化出力の差分に基づいてエッジにおける軸上色収差の評価値が算出されるとともに、算出された評価値に基づいてエッジのデフォーカス特徴量が算出される。したがって、スルー画におけるエッジのデフォーカス特徴量の算出結果に応じてフォーカスレンズ11の駆動条件が設定されることにより、スルー画がエッジの部分において正確に合焦される。
Similarly, it is assumed that the
特に、本実施形態では、スルー画に含まれるフレーム画像のうち少なくとも一部のフレーム画像は、凸画素40RAである赤画素40R又は凹画素40BAである青画素40Bが撮像した画像部分と、平坦画素である緑画素40Gが撮像した画像部分とを含んでいる。そのため、かかるフレーム画像から検出されたエッジの近傍における赤(R)及び緑(G)の色成分量の正規化出力の差分、又は、青(B)及び緑(G)の色成分量の正規化出力の差分が拡大された状態で、スルー画におけるエッジの軸上色収差の評価値が随時算出される。したがって、この評価値に基づいてスルー画におけるエッジのデフォーカス特徴量を随時算出し、このデフォーカス特徴量の算出結果に応じてフォーカスレンズ11の駆動条件を更新することにより、スルー画をエッジの部分において継続して正確に合焦させることが可能となる。
In particular, in the present embodiment, at least some of the frame images included in the through image include an image portion captured by the
上記第1の実施形態によれば、以下に示す効果を得ることができる。
(1)デフォーカス量が僅少であって合焦状態の検出に適さないエッジであったとしても、このようなエッジにおける色成分同士の色成分量の差が拡大されることにより、エッジの色成分同士の色成分量の差又は比の大きさが十分に確保される。そして、このようなエッジの色成分同士の色成分量の差又は比に基づいて、エッジの合焦状態を正確に検出することができる。
According to the first embodiment, the following effects can be obtained.
(1) Even if the defocus amount is small and the edge is not suitable for the detection of the in-focus state, the difference in the color component amount between the color components at such an edge is enlarged, so that the color of the edge A sufficient difference in color component amount or ratio between components is ensured. Then, based on the difference or ratio of the color component amounts between the edge color components, the in-focus state of the edge can be accurately detected.
(2)相対的に長波長側の色成分の入射光が入射される撮像画素の光電変換面と、相対的に短波長側の色成分の入射光が入射される撮像画素の光電変換面との入射光の光軸方向における位置を異ならせることにより、合焦状態を検出する際の比較対象となるエッジの色成分同士の色成分量の差を拡大させる構成を容易に実現することができる。 (2) A photoelectric conversion surface of an imaging pixel on which incident light of a color component on a relatively long wavelength side is incident, and a photoelectric conversion surface of an imaging pixel on which incident light of a color component on a relatively short wavelength side is incident By varying the position of the incident light in the optical axis direction, it is possible to easily realize a configuration in which the difference in the color component amount between the color components of the edges to be compared is detected when the in-focus state is detected. .
(3)撮像素子13の撮像画素40は、相対的に長波長側の色成分となる赤(R)の入射光が入射される赤画素40Rのうち他の赤画素40Rと比較して入射光の光軸方向においてフォーカスレンズ11側に突出して配置される凸画素40RAを含んでいる。また、撮像素子13の撮像画素40は、相対的に短波長側の色成分となる青(B)の入射光が入射される青画素40Bのうち他の青画素40Bと比較して入射光の光軸方向においてフォーカスレンズ11とは反対側に窪んで配置される凹画素40BAを含んでいる。そのため、相対的に長波長側の色成分の入射光が入射される撮像画素の光電変換面が、相対的に短波長側の色成分の入射光が入射される撮像画素の光電変換面よりも入射光の光軸方向におけるフォーカスレンズ11側に配置される構成を容易に実現することができる。
(3) The
(4)凸画素40RA及び凹画素40BAのうち少なくとも一方が撮像した画素信号を適宜用いて撮影画像が生成される。そのため、凸画素40RA及び凹画素40BAが撮像した画素信号を用いることなく撮影画像を生成する場合と比較して、撮影画像の画素数を多く確保することができる。 (4) A captured image is generated by appropriately using a pixel signal captured by at least one of the convex pixel 40RA and the concave pixel 40BA. Therefore, it is possible to secure a larger number of pixels of the captured image compared to the case where the captured image is generated without using the pixel signal captured by the convex pixel 40RA and the concave pixel 40BA.
(5)凸画素40RA及び凹画素40BAのうち少なくとも一方が撮像した画素信号に対し、撮像素子13における他の撮像画素が撮像した画素信号とは異なる画像処理が行われた上で撮影画像が生成される。そのため、凸画素40RA及び凹画素40BAが撮像素子における他の撮像画素と比較して入射光の光軸方向における光電変換面の位置が異なることに起因して、凸画素40RA及び凹画素40BAが撮像した画素信号に誤差が生じたとしても、このような誤差を軽減する画像処理が凸画素40RA及び凹画素40BAが撮像した画素信号に対して行われる。そのため、凸画素40RA及び凹画素40BAの少なくとも一方が撮像した画素信号を用いて撮影画像を生成したとしても、撮影画像の画質が低下することを抑制できる。
(5) A captured image is generated after image processing different from pixel signals captured by other imaging pixels in the
(6)凹画素40BAが撮像素子13における他の撮像画素と比較して入射光の光軸方向において窪んで配置されることに起因して、凹画素40BAに入射する入射光の光量が低下することがあり得る。この点、上記実施形態では、このような光量の低下を軽減する画像処理として通常とは異なるシェーディング係数を用いたシェーディング補正処理が凹画素40BAによって撮像された画素信号に対して行われる。そのため、凹画素40BAによって撮像された画素信号を用いて撮影画像を生成したとしても、撮影画像の画質が低下することを抑制できる。
(6) The amount of incident light incident on the concave pixel 40BA is reduced because the concave pixel 40BA is recessed in the optical axis direction of the incident light as compared with the other imaging pixels in the
(7)凸画素40RA及び凹画素40BAが撮像素子13における他の撮像画素と比較して入射光の光軸方向における光電変換面の位置が異なることに起因して、凸画素40RA及び凹画素40BAが撮像した画像の倍率に変化が生じることがあり得る。この点、上記実施形態では、このような倍率の変化を軽減する画像処理として倍率補正処理が凸画素40RA及び凹画素40BAによって撮像された画素信号に対して行われる。そのため、凸画素40RA及び凹画素40BAのうち少なくとも一方によって撮像された画素信号を用いて撮影画像を生成したとしても、撮影画像の画質が低下することを抑制できる。
(7) The convex pixels 40RA and the concave pixels 40BA are different from the other imaging pixels in the
(8)凸画素40RA及び凹画素40BAのうち少なくとも一方を含む撮像画素が撮像した画像がスルー画としてモニタ21に表示される。そのため、凸画素40RA及び凹画素40BAのうち少なくとも一方が撮像したエッジの色成分量に基づいてエッジの合焦状態が算出されたスルー画の画像内容を、モニタ21を通じて視認することができる。
(8) An image captured by an imaging pixel including at least one of the convex pixel 40RA and the concave pixel 40BA is displayed on the
(9)スルー画に被写体として移動体が含まれる場合に、凸画素40RA及び凹画素40BAのうち少なくとも一方が撮像した移動体のエッジの色成分量に基づいて、移動体の合焦状態を移動体の移動に追随させつつリアルタイムに正確に算出することができる。 (9) When a moving object is included in the through image, the in-focus state of the moving object is moved based on the color component amount of the edge of the moving object captured by at least one of the convex pixel 40RA and the concave pixel 40BA. It is possible to accurately calculate in real time while following the movement of the body.
(第2の実施形態)
次に、第2の実施形態について説明する。なお、第2の実施形態は、撮像素子13に入射する入射光のうち、各色の色成分の光に対応するマイクロレンズ41の焦点距離が互いに異なる点が第1の実施形態と異なる。したがって、以下の説明においては、第1の実施形態と相違する構成について主に説明し、第1の実施形態と同一又は相当する構成については同一符号を付して重複説明を省略する。
(Second Embodiment)
Next, a second embodiment will be described. Note that the second embodiment differs from the first embodiment in that the focal lengths of the
図19(a)に示すように、本実施形態では、撮像素子13は、撮像画素40を構成する赤画素40Rの一部のマイクロレンズ41RAが、他の赤画素40Rのマイクロレンズ41Rと比較して、レンズ面の曲率が小さく、赤(R)の入射光に対する焦点距離が長くなっている。
As shown in FIG. 19A, in the present embodiment, the
また、図19(b)に示すように、撮像素子13は、撮像画素40を構成する青画素40Bの一部のマイクロレンズ41BAが、他の青画素40Bのマイクロレンズ41Bと比較して、レンズ面の曲率が大きく、青(B)の入射光に対する焦点距離が短くなっている。
Further, as shown in FIG. 19B, the
なお、撮像素子13は、撮像画素40を構成する赤画素40Rとして凸画素40RAを含んでおらず、全ての赤画素40Rの光電変換部43Rの光電変換面は、入射光の光軸方向における同一の位置に配置されている。また、撮像素子13は、撮像画素40を構成する青画素40Bとして凹画素40BAを含んでおらず、全ての青画素40Bの光電変換部43Bの光電変換面は、入射光の光軸方向における同一の位置に配置されている。すなわち、撮像素子13は、全ての撮像画素40の光電変換部43の光電変換面が入射光の光軸方向における同一の位置に配置されている。
The
図20(a)には、撮像素子13に撮像された画像が被写体に対して前ピン状態である場合に、マイクロレンズ41を通過した各色の色成分の入射光が光電変換部43に入射して被写体を撮像する状態が示されている。図20(a)に示すように、撮像素子13に撮像された画像が被写体に対して前ピン状態である場合には、マイクロレンズ41を通過した光が色成分ごとに光電変換部43に撮像する被写体のデフォーカス量は、青(B)の光、緑(G)の光、赤(R)の光の順に次第に大きくなる。
In FIG. 20A, when the image picked up by the
特に、本実施形態では、赤画素40Rの一部におけるマイクロレンズ41RAの曲率が、他の赤画素40Rにおけるマイクロレンズ41Rの曲率よりも小さい。そのため、赤(R)の入射光は、相対的に曲率の小さいマイクロレンズ41RAを通過する場合には、相対的に曲率の大きいマイクロレンズ41Rを通過する場合と比較して、赤画素40Rの光電変換部43Rに撮像する被写体のデフォーカス量が大きくなる。その結果、赤(R)の入射光が赤画素40Rの光電変換部43Rに撮像する被写体のデフォーカス量と、緑(G)の光が緑画素40Gの光電変換部43Gに撮像する被写体のデフォーカス量との差分は、赤(R)の入射光が相対的に曲率の大きいマイクロレンズ41Rを通過する場合と比較して大きくなる。この場合、相対的に曲率の小さいマイクロレンズ41RAを有する赤画素40Rが撮像したエッジの近傍における赤(R)の色成分量の正規化出力と、緑画素40Gが撮像したエッジの近傍における緑(G)の色成分量の正規化出力との差分は、赤画素40Rが相対的に曲率の大きいマイクロレンズ41Rを有する場合と比較して大きくなる。そのため、スルー画に含まれるエッジのデフォーカス量が僅少な場合であっても、かかるエッジの近傍における赤(R)及び緑(G)の色成分量の正規化出力の差分が十分に確保される。
In particular, in this embodiment, the curvature of the micro lens 41RA in a part of the
また、青画素40Bの一部のマイクロレンズ41BAが、他の青画素40Bのマイクロレンズ41Bよりもレンズ面の曲率が大きい。そのため、青(B)の入射光は、相対的に曲率の大きいマイクロレンズ41BAを通過する場合には、相対的に曲率の小さいマイクロレンズ41Bを通過する場合と比較して、青画素40Bの光電変換部43Bに撮像する被写体のデフォーカス量が小さくなる。その結果、青(B)の入射光が青画素40Bの光電変換部43Bに撮像する被写体のデフォーカス量と、緑(G)の光が緑画素40Gの光電変換部43Gに撮像する被写体のデフォーカス量との差分は、青(B)の入射光が相対的に曲率の小さいマイクロレンズ41Bを通過する場合と比較して大きくなる。この場合、相対的に曲率の大きいマイクロレンズ41BAを有する青画素40Bが撮像したエッジの近傍における青(B)の色成分量の正規化出力と、緑画素40Gが撮像したエッジの近傍における緑(G)の色成分量の正規化出力との差分は、青画素40Bが相対的に曲率の小さいマイクロレンズ41Bを有する場合と比較して大きくなる。そのため、スルー画に含まれるエッジのデフォーカス量が僅少な場合であっても、かかるエッジの近傍における青(B)及び緑(G)の色成分量の正規化出力の差分が十分に確保される。
Further, some of the microlenses 41BA of the
また、図20(b)には、撮像素子13に撮像された画像が被写体に対して後ピン状態である場合に、マイクロレンズ41を通過した各色の色成分の入射光が光電変換部43に入射して被写体を撮像する状態が示されている。図20(b)に示すように、撮像素子13に撮像された画像が被写体に対して後ピン状態である場合には、マイクロレンズ41を通過した光が色成分ごとに光電変換部43に撮像する被写体のデフォーカス量は、赤(R)の光、緑(G)の光、青(B)の光の順に次第に大きくなる。
In FIG. 20B, when the image picked up by the
特に、本実施形態では、赤画素40Rの一部のマイクロレンズ41RAが、他の赤画素40Rのマイクロレンズ41Rよりもレンズ面の曲率が小さい。そのため、赤(R)の入射光は、相対的に曲率の小さいマイクロレンズ41RAを通過する場合には、相対的に曲率の大きいマイクロレンズ41Rを通過する場合と比較して、赤画素40Rの光電変換部43に撮像する被写体のデフォーカス量が小さくなる。その結果、赤(R)の入射光が赤画素40Rの光電変換部43Rに撮像する被写体のデフォーカス量と、緑(G)の光が緑画素40Gの光電変換部43Gに撮像する被写体のデフォーカス量との差分は、赤(R)の入射光が相対的に曲率の大きいマイクロレンズ41Rを通過する場合と比較して大きくなる。
In particular, in the present embodiment, some of the microlenses 41RA of the
また、青画素40Bの一部のマイクロレンズ41BAが、他の青画素40Bのマイクロレンズ41Bと比較してレンズ面の曲率が大きい。そのため、青(B)の入射光は、相対的に曲率の大きいマイクロレンズ41BAを通過する場合には、相対的に曲率の小さいマイクロレンズ41Bを通過する場合と比較して、青画素40Bの光電変換部43Bに撮像する被写体のデフォーカス量が大きくなる。その結果、青(B)の入射光が青画素40Bの光電変換部43Bに撮像する被写体のデフォーカス量と、緑(G)の光が緑画素40Gの光電変換部43Gに撮像する被写体のデフォーカス量との差分は、青(B)の入射光が相対的に曲率の小さいマイクロレンズ41Bを通過する場合と比較して大きくなる。
Further, some of the microlenses 41BA of the
したがって、スルー画に含まれるエッジのデフォーカス量が僅少な場合であっても、かかるエッジの近傍における赤(R)及び緑(G)、又は、青(B)及び緑(G)の色成分量の正規化出力の差分が十分に確保される。 Therefore, even when the defocus amount of the edge included in the through image is small, red (R) and green (G) or blue (B) and green (G) color components in the vicinity of the edge. A sufficient amount of normalized output difference is secured.
上記第2の実施形態によれば、上記第1の実施形態の効果(1)に加え、以下に示す効果(10)を得ることができる。
(10)相対的に長波長側の色成分の入射光に対応するマイクロレンズ41の焦点距離と、相対的に短波長側の色成分の入射光に対応するマイクロレンズ41の焦点距離とを互いに異ならせることにより、合焦状態を検出する際の比較対象となるエッジの色成分同士の色成分量の差を拡大させる構成を容易に実現することができる。
According to the second embodiment, in addition to the effect (1) of the first embodiment, the following effect (10) can be obtained.
(10) The focal length of the
(第3の実施形態)
次に、第3の実施形態について説明する。なお、第3の実施形態は、撮像素子13を入射光の光軸方向に駆動する素子駆動部の一例としてのモータMを備えた点が第1の実施形態と異なる。したがって、以下の説明においては、第1の実施形態と相違する構成について主に説明し、第1の実施形態と同一又は相当する構成については同一符号を付して重複説明を省略する。
(Third embodiment)
Next, a third embodiment will be described. The third embodiment is different from the first embodiment in that a motor M is provided as an example of an element driving unit that drives the
さて、本実施形態では、撮像素子13は、撮像画素40を構成する赤画素40Rとして凸画素40RAを含んでおらず、全ての赤画素40Rの光電変換部43Rの光電変換面は、入射光の光軸方向における同一の位置に配置されている。また、撮像素子13は、撮像画素40を構成する青画素40Bとして凹画素40BAを含んでおらず、全ての青画素40Bの光電変換部43Bの光電変換面は、入射光の光軸方向における同一の位置に配置されている。すなわち、撮像素子13は、全ての撮像画素40の光電変換部43の光電変換面が入射光の光軸方向における同一の位置に配置されている。
In the present embodiment, the
ここで、図21(a)には、上記のように構成された撮像素子13に撮像された画像が被写体に対して前ピン状態である場合に、フォーカスレンズ11を通過した入射光が被写体を撮像する際の撮像素子13の位置を入射光の色成分ごとに異ならせている状態を示している。図21(a)に示すように、撮像素子13に撮像された画像が被写体に対して前ピン状態である場合には、フォーカスレンズ11を通過した入射光が撮像素子13に撮像する被写体のデフォーカス量は、青(B)の光、緑(G)の光、赤(R)の光の順に次第に大きくなる。
Here, in FIG. 21A, when the image picked up by the
なお、本実施形態では、フォーカスレンズ11を通過した入射光が被写体を撮像する際には、撮像素子13がモータMから伝達される駆動力に基づいて入射光の光軸方向に駆動される。そして、MPU16の合焦検出部23は、撮像素子13が入射光の光軸方向においてフォーカスレンズ11に接近する方向に駆動されて第2位置(図21(a)では左側の位置)に配置された状態で、フォーカスレンズ11を通過した各色の入射光が撮像した被写体の画素信号のうち、赤色の画素信号を選択的に読み出す。そして、MPU16の合焦検出部23は、読み出した赤色の画素信号を被写体のデフォーカス特徴量の算出に用いる。
In the present embodiment, when the incident light that has passed through the
この場合、赤(R)の光が撮像素子13に撮像する被写体のデフォーカス量は、撮像素子13を入射光の光軸方向に駆動させない場合よりも大きくなる。その結果、赤(R)の光が撮像素子13に撮像する被写体のデフォーカス量と、緑(G)の光が撮像素子13に撮像する被写体のデフォーカス量との差分は、撮像素子13を入射光の光軸方向に駆動させない場合と比較して大きくなる。
In this case, the defocus amount of the subject imaged by the red (R) light on the
また、MPU16の合焦検出部23は、撮像素子13が入射光の光軸方向においてフォーカスレンズ11から離間する方向に駆動されて第1位置(図21(a)では右側)に配置された状態で、フォーカスレンズ11を通過した各色の入射光が撮像した被写体の画素信号のうち、青色の画素信号を選択的に読み出す。そして、MPU16の合焦検出部23は、読み出した青色の画素信号を被写体のデフォーカス特徴量の算出に用いる。
Further, the focus detection unit 23 of the MPU 16 is disposed in the first position (right side in FIG. 21A) by driving the
この場合、青(B)の光が撮像素子13に撮像する被写体のデフォーカス量は、撮像素子13を入射光の光軸方向に駆動させない場合よりも小さくなる。その結果、青(B)の光が撮像素子13に撮像する被写体のデフォーカス量と、緑(G)の光が撮像素子13に撮像する被写体のデフォーカス量との差分は、撮像素子13を入射光の光軸方向に駆動させない場合と比較して大きくなる。
In this case, the defocus amount of the subject imaged by the blue (B) light on the
図21(b)には、撮像素子13に撮像された画像が被写体に対して後ピン状態である場合に、フォーカスレンズ11を通過した入射光が被写体を撮像する際の撮像素子13の位置を入射光の色成分ごとに異ならせている状態を示している。図21(b)に示すように、撮像素子13に撮像された画像が被写体に対して後ピン状態である場合には、フォーカスレンズ11を通過した入射光が撮像素子13に撮像する被写体のデフォーカス量は、赤(R)の光、緑(G)の光、青(B)の光の順に次第に大きくなる。
FIG. 21B shows the position of the
なお、本実施形態では、フォーカスレンズ11を通過した入射光が被写体を撮像する際には、撮像素子13がモータMから伝達される駆動力に基づいて入射光の光軸方向に駆動される。そして、MPU16の合焦検出部23は、撮像素子13が入射光の光軸方向においてフォーカスレンズ11に接近する方向に駆動されて第2位置(図21(b)では左側)に配置された状態で、フォーカスレンズ11を通過した各色の入射光が撮像した被写体の画素信号のうち、赤色の画素信号を選択的に読み出す。そして、MPU16の合焦検出部23は、読み出した赤色の画素信号を被写体のデフォーカス特徴量の算出に用いる。
In the present embodiment, when the incident light that has passed through the
この場合、赤(R)の光が撮像素子13に撮像する被写体のデフォーカス量は、撮像素子13を入射光の光軸方向に駆動させない場合よりも小さくなる。その結果、赤(R)の光が撮像素子13に撮像する被写体のデフォーカス量と、緑(G)の光が撮像素子13に撮像する被写体のデフォーカス量との差分は、撮像素子13を入射光の光軸方向に駆動させない場合と比較して大きくなる。
In this case, the defocus amount of the subject imaged by the red (R) light on the
また、MPU16の合焦検出部23は、撮像素子13が入射光の光軸方向においてフォーカスレンズ11から離間する方向に駆動されて第1位置(図21(b)では右側)に配置された状態で、フォーカスレンズ11を通過した各色の入射光が撮像した被写体の画素信号のうち、青色の画素信号を選択的に読み出す。そして、MPU16の合焦検出部23は、読み出した青色の画素信号を被写体のデフォーカス特徴量の算出に用いる。
In addition, the focus detection unit 23 of the MPU 16 is driven in a direction away from the
この場合、青(B)の光が撮像素子13に撮像する被写体のデフォーカス量は、撮像素子13を入射光の光軸方向に駆動させない場合よりも大きくなる。その結果、青(B)の光が撮像素子13に撮像する被写体のデフォーカス量と、緑(G)の光が撮像素子13に撮像する被写体のデフォーカス量との差分は、撮像素子13を入射光の光軸方向に駆動させない場合と比較して大きくなる。
In this case, the defocus amount of the subject imaged by the blue (B) light on the
したがって、スルー画に含まれるエッジのデフォーカス量が僅少な場合であっても、かかるエッジの近傍における赤(R)及び緑(G)、又は、青(B)及び緑(G)の色成分量の正規化出力の差分が十分に確保される。 Therefore, even when the defocus amount of the edge included in the through image is small, red (R) and green (G) or blue (B) and green (G) color components in the vicinity of the edge. A sufficient amount of normalized output difference is secured.
上記第3の実施形態によれば、上記第1の実施形態の効果(1)に加え、以下に示す効果(11)を得ることができる。
(11)相対的に長波長側の色成分の入射光が合焦状態の検出のために被写体のエッジを撮像する撮像素子13の位置と、相対的に短波長側の色成分の入射光が合焦状態の検出のために被写体のエッジを撮像する撮像素子13の位置とを互いに異ならせている。そのため、合焦状態を検出する際の比較対象となるエッジの色成分同士の色成分量の差を拡大させる構成を容易に実現することができる。
According to the third embodiment, in addition to the effect (1) of the first embodiment, the following effect (11) can be obtained.
(11) The position of the
(第4の実施形態)
次に、第4の実施形態について説明する。なお、第4の実施形態は、撮像素子13が複数の色成分の入射光を共通の撮像画素で電荷に変換する点が第1の実施形態と異なる。したがって、以下の説明においては、第1の実施形態と相違する構成について主に説明し、第1の実施形態と同一又は相当する構成については同一符号を付して重複説明を省略する。
(Fourth embodiment)
Next, a fourth embodiment will be described. Note that the fourth embodiment is different from the first embodiment in that the
図22(a)〜(c)には、複数の色成分の入射光を電荷に変換する白画素40Wを撮像画素40として備えた撮像素子13の一例が示されている。
図22(a)に示すように、比較例の撮像素子13Rは、白画素40Wが可視光の波長領域の光を選択的に透過するカラーフィルタ42Wを有している。また、白画素40Wは、光電変換部43WB,43WG,43WRが三層に積層されている。そして、撮像素子13に入射する入射光のうち、可視光の波長領域の光がマイクロレンズ41Wによって光電変換部43WB,43WG,43WRに集光される。すなわち、光電変換部43WB,43WG,43WRに集光される光には、赤色、緑色、青色の色成分の光が含まれている。そして、各色の入射光は、各々が対応する層の光電変換部43WB,43WG,43WRにおいて電荷に変換される。具体的には、青色の色成分の光が最上層の光電変換部43WBにおいて電荷に変換されるとともに、緑色の色成分の光が中間層の光電変換部43WGにおいて電荷に変換され、更には、赤色の色成分の光が最下層の光電変換部43WRにおいて電荷に変換される。
FIGS. 22A to 22C show an example of the
As shown in FIG. 22A, the
これに対し、本実施形態では、図22(b)に示す例の撮像素子13Aは、比較例の撮像素子13と同様にして、白画素40Wが可視光の波長領域の光を選択的に透過するカラーフィルタ42Wを有するとともに、光電変換部43WB,43WG,43WRが三層に積層されている。そして、各色の色成分の光は、各々が対応する層の光電変換部43WB,43WG,43WRにおいて電荷に変換される。ただし、最上層の光電変換部43WBの厚みが、比較例の撮像素子13Rの場合と比較して薄くなっている。
On the other hand, in the present embodiment, the
また、本実施形態では、図22(c)に示す例の撮像素子13Bは、比較例の撮像素子13Rと同様にして、白画素40Wが可視光の波長領域の光を選択的に透過するカラーフィルタ42Wを有するとともに、光電変換部43WB,43WG,43WRが三層に積層されている。そして、各色の色成分の光は、各々が対応する層の光電変換部43WB,43WG,43WRにおいて電荷に変換される。ただし、中間層の光電変換部43WGの厚みが、比較例の撮像素子13Rの場合と比較して薄くなっている。
In the present embodiment, the
そして、図23(a)には、比較例の撮像素子13Rに撮像された画像が被写体に対して前ピン状態である場合に、マイクロレンズ41Wを通過した各色の色成分の入射光が光電変換部43WB,43WG,43WRに入射して被写体を撮像する状態が示されている。図23(a)に示すように、比較例の撮像素子13Rに撮像された画像が被写体に対して前ピン状態である場合には、マイクロレンズ41Wを通過した光が色成分ごとに光電変換部43WB,43WG,43WRに撮像する被写体のデフォーカス量は、青(B)の光、緑(G)の光、赤(R)の光の順に次第に大きくなる。
FIG. 23A shows photoelectric conversion of incident light of each color component that has passed through the
これに対し、図23(b)に示すように、本実施形態では、図22(b)に示す例の撮像素子13Aは、青色の色成分の光が電荷に変換される最上層の光電変換部43WBの光電変換面が、比較例の撮像素子13Rの場合と比較して、入射光の光軸方向における射出側(マイクロレンズ41Wとは反対側)に位置している。そのため、青色の色成分の光が最上層の光電変換部43WBに撮像する被写体のデフォーカス量は、比較例の撮像素子13Rの場合と比較して小さくなる。その結果、青(B)の光が最上層の光電変換部43WBに撮像する被写体のデフォーカス量と、緑(G)の光が中間層の光電変換部43WGに撮像する被写体のデフォーカス量との差分は、比較例の撮像素子13Rの場合と比較して大きくなる。この場合、最上層の光電変換部43WBが撮像したエッジの近傍における青(B)の色成分量の正規化出力と、中間層の光電変換部43WGが撮像したエッジの近傍における緑(G)の色成分量の正規化出力との差分は、比較例の撮像素子13Rの場合と比較して大きくなる。そのため、スルー画に含まれるエッジのデフォーカス量が僅少な場合であっても、かかるエッジの近傍における青(B)及び緑(G)の色成分量の正規化出力の差分が十分に確保される。
On the other hand, as shown in FIG. 23B, in the present embodiment, the
また、図23(c)に示すように、本実施形態では、図22(c)に示す例の撮像素子13Bは、赤色の色成分の光が電荷に変換される最下層の光電変換部43WRの光電変換面が、比較例の撮像素子13Rの場合と比較して、入射光の光軸方向における入射側(マイクロレンズ41W側)に位置している。そのため、赤色の色成分の光が最下層の光電変換部43WRに撮像する被写体のデフォーカス量は、比較例の撮像素子13Rの場合と比較して大きくなる。その結果、赤(R)の光が最下層の光電変換部43WRに撮像する被写体のデフォーカス量と、緑(G)の光が中間層の光電変換部43WGに撮像する被写体のデフォーカス量との差分は、比較例の撮像素子13Rの場合と比較して大きくなる。この場合、最下層の光電変換部43WRが撮像したエッジの近傍における赤(R)の色成分量の正規化出力と、中間層の光電変換部43WGが撮像したエッジの近傍における緑(G)の色成分量の正規化出力との差分は、比較例の撮像素子13Rの場合と比較して大きくなる。そのため、スルー画に含まれるエッジのデフォーカス量が僅少な場合であっても、かかるエッジの近傍における赤(R)及び緑(G)の色成分量の正規化出力の差分が十分に確保される。
Further, as shown in FIG. 23C, in the present embodiment, the
図24(a)には、比較例の撮像素子13Rに撮像された画像が被写体に対して後ピン状態である場合に、マイクロレンズ41Wを通過した各色の色成分の入射光が光電変換部43WB,43WG,43WRに入射して被写体を撮像する状態が示されている。図24(a)に示すように、比較例の撮像素子13Rに撮像された画像が被写体に対して後ピン状態である場合には、マイクロレンズ41Wを通過した光が色成分ごとに光電変換部43WB,43WG,43WRに撮像する被写体のデフォーカス量は、赤(R)の光、緑(G)の光、青(B)の光の順に次第に大きくなる。
In FIG. 24A, when the image picked up by the
これに対し、図24(b)に示すように、本実施形態では、図22(b)に示す例の撮像素子13Aは、青色の色成分の光が電荷に変換される最上層の光電変換部43WBの光電変換面が、比較例の撮像素子13Rの場合と比較して、入射光の光軸方向における射出側(マイクロレンズ41Wとは反対側)に位置している。そのため、青色の色成分の光が最上層の光電変換部43WBに撮像する被写体のデフォーカス量は、比較例の撮像素子13Rの場合と比較して大きくなる。その結果、青(B)の光が最上層の光電変換部43WBに撮像する被写体のデフォーカス量と、緑(G)の光が中間層の光電変換部43WGに撮像する被写体のデフォーカス量との差分は、比較例の撮像素子13Rの場合と比較して大きくなる。この場合、最上層の光電変換部43WBが撮像したエッジの近傍における青(B)の色成分量の正規化出力と、中間層の光電変換部43WGが撮像したエッジの近傍における緑(G)の色成分量の正規化出力との差分は、比較例の撮像素子13Rの場合と比較して大きくなる。そのため、スルー画に含まれるエッジのデフォーカス量が僅少な場合であっても、かかるエッジの近傍における青(B)及び緑(G)の色成分量の正規化出力の差分が十分に確保される。
On the other hand, as shown in FIG. 24B, in the present embodiment, the
また、図24(c)に示すように、本実施形態では、図22(c)に示す例の撮像素子13Bは、赤色の色成分の光が電荷に変換される最下層の光電変換部43WRの光電変換面が、比較例の撮像素子13Rの場合と比較して、入射光の光軸方向における入射側(マイクロレンズ41W側)に位置している。そのため、赤色の色成分の光が最下層の光電変換部43WRに撮像する被写体のデフォーカス量は、比較例の撮像素子13Rの場合と比較して小さくなる。その結果、赤(R)の光が最下層の光電変換部43WRに撮像する被写体のデフォーカス量と、緑(G)の光が中間層の光電変換部43WGに撮像する被写体のデフォーカス量との差分は、比較例の撮像素子13Rの場合と比較して大きくなる。この場合、最下層の光電変換部43WRが撮像したエッジの近傍における赤(R)の色成分量の正規化出力と、中間層の光電変換部43WGが撮像したエッジの近傍における緑(G)の色成分量の正規化出力との差分は、比較例の撮像素子13の場合と比較して大きくなる。そのため、スルー画に含まれるエッジのデフォーカス量が僅少な場合であっても、かかるエッジの近傍における赤(R)及び緑(G)の色成分量の正規化出力の差分が十分に確保される。
In addition, as shown in FIG. 24C, in this embodiment, the
したがって、スルー画に含まれるエッジのデフォーカス量が僅少な場合であっても、かかるエッジの近傍における赤(R)及び緑(G)、又は、青(B)及び緑(G)の色成分量の正規化出力の差分が十分に確保される。 Therefore, even when the defocus amount of the edge included in the through image is small, red (R) and green (G) or blue (B) and green (G) color components in the vicinity of the edge. A sufficient amount of normalized output difference is secured.
上記第4の実施形態によれば、上記第1の実施形態の効果(1)に加え、以下に示す効果(12)を得ることができる。
(12)相対的に長波長側の色成分の入射光が電荷に変換される光電変換面が、従来よりも入射光の光軸方向における入射側に位置している。また、相対的に短波長側の色成分の入射光が電荷に変換される光電変換面が、従来よりも入射光の光軸方向における射出側に位置している。そのため、合焦状態を検出する際の比較対象となるエッジの色成分同士の色成分量の差を拡大させる構成を容易に実現することができる。
According to the fourth embodiment, in addition to the effect (1) of the first embodiment, the following effect (12) can be obtained.
(12) The photoelectric conversion surface on which the incident light of the color component on the relatively long wavelength side is converted into electric charge is located on the incident side in the optical axis direction of the incident light as compared with the conventional case. In addition, the photoelectric conversion surface on which incident light of a color component on the relatively short wavelength side is converted into electric charge is located on the exit side in the optical axis direction of incident light as compared with the conventional case. Therefore, it is possible to easily realize a configuration that enlarges the difference in the color component amount between the color components of the edges to be compared when detecting the in-focus state.
なお、上記各実施形態は、以下のような別の実施形態に変更してもよい。
・上記第1の実施形態において、図25(a)に示すように、凸画素40RA及び凹画素40BAは、撮像素子13の撮像画素40のうち、中央及び上下左右の5つのエリアR11〜R15に位置する画素群に含まれてもよい。
In addition, you may change said each embodiment into another embodiment as follows.
In the first embodiment, as shown in FIG. 25A, the convex pixel 40RA and the concave pixel 40BA are arranged in five areas R11 to R15 in the center, the top, bottom, left, and right among the
・上記第1の実施形態において、図25(b)に示すように、凸画素40RA及び凹画素40BAは、撮像素子13の撮像面上に不規則に配置されてもよい。
この構成では、凸画素40RA及び凹画素40BAによって撮像された画素信号を用いて撮影画像を生成したとしても、生成された撮影画像にモアレが生じることを抑制できる。
In the first embodiment, the convex pixels 40RA and the concave pixels 40BA may be irregularly arranged on the imaging surface of the
In this configuration, even if a captured image is generated using pixel signals captured by the convex pixel 40RA and the concave pixel 40BA, it is possible to suppress the occurrence of moire in the generated captured image.
・上記第2の実施形態において、マイクロレンズ41RAを含む赤画素40R、及び、マイクロレンズ41BAを含む青画素40Bが、図25(a)に示すエリアR11〜R15に位置する画素群に含まれてもよい。また、マイクロレンズ41RAを含む赤画素40R、及び、マイクロレンズ41BAを含む青画素40Bが、撮像素子13の撮像面上に不規則に配置されてもよい。
In the second embodiment, the
・上記第4の実施形態において、撮像素子13は、図22(a)に示す白画素40W、図22(b)に示す白画素40W、及び、図22(c)に示す白画素40Wの少なくとも一部の組み合わせを撮像画素40として含む構成でもよい。この場合、図22(b)及び図22(c)に示す白画素40Wは、一例として、図4に示すエリアR1〜R6に位置する画素群に含まれてもよいし、図25(a)に示すエリアR11〜R15に位置する画素群に含まれてもよい。また、図22(b)及び図22(c)に示す白画素40Wは、撮像素子13の撮像面上に不規則に配置されてもよい。
In the fourth embodiment, the
・上記第1の実施形態において、撮像素子13は、凹画素40BAの凹み量が必ずしも一律である必要はなく、相対的に凹み量が小さい凹画素40BAと、相対的に凹み量が大きい凹画素40BAとを含んで構成されてもよい。また同様に、撮像素子13は、凸画素40RAの突出量が必ずしも一律である必要はなく、相対的に突出量が小さい凸画素40RAと、相対的に突出量が大きい凸画素40RAとを含んで構成されてもよい。
In the first embodiment, the
・上記第1の実施形態において、MPU16の画像生成部24は、撮像素子13に撮像されている被写体の輝度が所定の閾値以上である場合に、凹画素40BAが撮像した被写体の画素信号を用いることなく撮影画像を生成してもよい、これは、被写体の輝度が高いと、光強度の大きい入射光が入射してフレアやゴーストを発生した場合に、入射光が意図しない角度から撮像素子13に入射することにより、凹画素40BAには凸画素40RAや平坦画素と比較して入射光が入射し難くなるためである。
In the first embodiment, the
・上記第1の実施形態において、MPU16の画像生成部24は、凹画素40BAが撮像した被写体の画素信号を撮影画像に用いるか否かについて、判定処理を伴うことなく初期設定で予め設定してもよい。
In the first embodiment, the
・上記第1の実施形態において、MPU16の画像生成部24は、凸画素40RA又は凹画素40BAから読み出した画素信号に対して倍率補正処理を行うことなく、凸画素40RA又は凹画素40BAから読み出した画素信号を用いて撮影画像を生成してもよい。
In the first embodiment, the
・上記第1の実施形態において、MPU16の画像生成部24は、平坦画素から読み出した画素信号、及び、凸画素40RA又は凹画素40BAから読み出した画素信号に対し、共通のシェーディング係数を用いてシェーディング補正処理を行ってもよい。
In the first embodiment, the
・上記第1の実施形態において、MPU16の画像生成部24は、凸画素40RA又は凹画素40BAから画素信号を読み出すことなく、平坦画素から読み出した画素信号に基づいて生成されたフレーム画像によりスルー画を構成してもよい。そして、MPU16の表示制御部25は、凸画素40RA又は凹画素40BAから読み出した画素信号を用いて生成されるフレーム画像を含まないスルー画をモニタ21に表示させてもよい。
In the first embodiment, the
この場合、MPU16の画像生成部24は、まず、モニタ21に表示されるスルー画とは別に、凸画素40RA又は凹画素40BAを含む撮像画素40から読み出した画素信号に基づいて評価用画像を生成する。続いて、MPU16の合焦検出部23は、評価用画像から検出したエッジにおける軸上色収差の評価値を算出する。その結果、MPU16の合焦検出部23は、算出された評価値に基づいて、評価用画像におけるエッジのデフォーカス特徴量をスルー画におけるエッジのデフォーカス特徴量として算出することができる。
In this case, the
・上記第1の実施形態において、撮像素子13は、凸画素40RA及び凹画素40BAの一方のみを撮像画素40として有する構成であってもよい。
・上記第2の実施形態において、撮像素子13は、撮像画素40を構成する赤画素40Rとして凸画素40RAを含むとともに、撮像画素40を構成する青画素40Bとして凹画素40BAを含んだ構成であってもよい。そして、凸画素40RAのマイクロレンズ41Rが、他の赤画素40Rのマイクロレンズ41Rよりもレンズ面の曲率が小さい構成であってもよい。また、凹画素40BAのマイクロレンズ41Bが、他の青画素40Bのマイクロレンズ41Bよりもレンズ面の曲率が大きい構成であってもよい。
In the first embodiment, the
In the second embodiment, the
・上記第3の実施形態において、撮像素子13は、撮像画素40を構成する赤画素40Rとして凸画素40RAを含むとともに、撮像画素40を構成する青画素40Bとして凹画素40BAを含んだ構成であってもよい。
In the third embodiment, the
・上記第3の実施形態において、撮像素子13は、入射光の光軸方向において互いに異なる複数の位置で、フォーカスレンズ11を通過した全ての色成分(赤、緑、青)の入射光が撮像した被写体の画素信号が読み出される構成であってもよい。
In the third embodiment, the
この場合、撮像素子13が入射光の光軸方向におけるフォーカスレンズ11側となる第2位置に配置されたときには、撮像素子13から読み出された被写体の画素信号のうち、赤の画素信号が被写体のデフォーカス特徴量の算出に用いられる。また、撮像素子13が第2位置を起点として入射光の光軸方向においてフォーカスレンズ11とは反対側に駆動されたときには、撮像素子13から読み出された被写体の画素信号のうち、緑の画素信号が被写体のデフォーカス特徴量の算出に用いられる。また、撮像素子13が入射光の光軸方向においてフォーカスレンズ11とは反対側に更に駆動されたときには、撮像素子13から読み出された被写体の画素信号のうち、青の画素信号が被写体のデフォーカス特徴量の算出に用いられる。
In this case, when the
・上記第1〜第3の実施形態において、撮像素子13は、緑色(G)、黄色(Y)、マゼンダ色(M)及びシアン色(C)の色成分の光をそれぞれ選択的に透過させる補色フィルタを備えた構成であってもよい。また、撮像素子13は、赤外線領域の波長領域の光を選択的に透過させるフィルタを備えた構成であってもよい。
In the first to third embodiments, the
・上記第4の実施形態において、撮像素子13A,13Bは、カラーフィルタ42Wを含むことなくマイクロレンズ41Wと三層に積層された光電変換部43WB,43WG,43WRとによって構成される黒画素を、白画素40Wに代えて有する構成であってもよい。
In the fourth embodiment, the
・上記各実施形態において、画像の撮像のために設けられる撮像素子13,13A,13Bとは別に、AF用のセンサとして、各実施形態の撮像素子13,13A,13Bを新たに設けてもよい。
In each of the embodiments described above, the
・上記各実施形態において、MPU16の合焦検出部23は、動画の撮影時において、動画から検出されたエッジのデフォーカス特徴量を算出してもよい。
・上記各実施形態において、撮像装置は、デジタルカメラに限定されず、例えば、ビデオカメラ、パーソナルコンピュータ、携帯電話機、携帯ゲーム機等のように、画像の撮影機能を搭載した他の撮像装置であってもよい。
In each of the above embodiments, the focus detection unit 23 of the MPU 16 may calculate the defocus feature amount of the edge detected from the moving image when shooting the moving image.
In each of the above embodiments, the imaging device is not limited to a digital camera, and may be another imaging device equipped with an image shooting function, such as a video camera, a personal computer, a mobile phone, or a portable game machine. May be.
10…撮像装置の一例としてのデジタルカメラ、11…レンズの一例としてのフォーカスレンズ、13,13A,13B…撮像素子、21…表示部の一例としてのモニタ、22…エッジ検出部、23…合焦検出部、24…画像生成部、25…表示制御部、40…撮像画素、40RA…第1撮像画素の一例としての凸画素、40BA…第2撮像画素の一例としての凹画素、41…集光レンズの一例としてのマイクロレンズ、43…光電変換部、F,F1,F2…フレーム画像、M…素子駆動部の一例としてのモータ。
DESCRIPTION OF
Claims (13)
前記撮像素子に撮像された前記被写体のエッジを色成分ごとに検出するエッジ検出部と、
前記エッジ検出部が検出した前記エッジにおける色成分同士の色成分量の差又は比に基づいて、前記被写体のエッジの合焦状態を検出する合焦検出部と
を備え、
前記入射光による前記撮像素子に対する前記被写体の撮像態様は、前記エッジ検出部が検出した前記エッジにおける色成分同士の色成分量の差が拡大するように前記入射光の色成分ごとに設定されていることを特徴とする撮像装置。 An image sensor for imaging a subject by incident light incident through a lens;
An edge detection unit that detects, for each color component, an edge of the subject imaged by the imaging element;
A focus detection unit that detects a focus state of the edge of the subject based on a difference or ratio of color component amounts between color components at the edge detected by the edge detection unit, and
An imaging mode of the subject with respect to the imaging device by the incident light is set for each color component of the incident light so that a difference in color component amount between the color components at the edge detected by the edge detection unit is enlarged. An imaging apparatus characterized by comprising:
前記表示制御部は、前記撮像素子における前記第1撮像画素及び前記第2撮像画素のうち少なくとも一方を含む撮像画素が撮像した画像を時系列的に連続したフレーム画像として含む前記表示画像を前記表示部に表示させることを特徴とする請求項9に記載の撮像装置。 The display image is a through image or a moving image,
The display control unit displays the display image including an image captured by an imaging pixel including at least one of the first imaging pixel and the second imaging pixel in the imaging element as a time-series continuous frame image. The imaging device according to claim 9, wherein the imaging device is displayed on a screen.
相対的に短波長側の色成分の前記入射光が入射する前記撮像画素の前記集光レンズの焦点距離の方が、相対的に長波長側の色成分の前記入射光が入射する前記撮像画素の前記集光レンズの焦点距離よりも小さいことを特徴とする請求項1〜請求項10のうち何れか一項に記載の撮像装置。 The imaging pixel of the imaging element has a condensing lens that condenses the incident light on a photoelectric conversion unit,
The imaging pixel in which the incident light of the color component on the relatively long wavelength side is incident on the focal length of the condenser lens of the imaging pixel on which the incident light of the color component on the relatively short wavelength side is incident The imaging device according to claim 1, wherein the imaging device is smaller than a focal length of the condenser lens.
前記素子駆動部は、相対的に短波長側の色成分の前記入射光によって前記合焦状態を検出するための前記被写体が前記撮像素子に撮像される場合には前記撮像素子を前記入射光の光軸方向における第1位置に配置する一方で、相対的に長波長側の色成分の前記入射光によって前記エッジの前記合焦状態を検出するための前記被写体が前記撮像素子に撮像される場合には前記撮像素子を前記第1位置よりも前記入射光の光軸方向における前記レンズ側に位置する第2位置に配置することを特徴とする請求項1〜請求項11のうち何れか一項に記載の撮像装置。 An element drive unit that drives the image sensor in the optical axis direction of the incident light;
When the subject for detecting the in-focus state is picked up by the image pickup device by the incident light of the color component having a relatively short wavelength side, the element driving unit moves the image pickup device of the incident light. When the subject for detecting the in-focus state of the edge is picked up by the imaging device by the incident light of the color component on the relatively long wavelength side while being arranged at the first position in the optical axis direction The image pickup device is arranged at a second position located on the lens side in the optical axis direction of the incident light from the first position. The imaging device described in 1.
前記撮像画素は、相対的に長波長側の色成分の前記入射光が入射される撮像画素の光電変換部が相対的に短波長側の色成分の前記入射光が入射される撮像画素の光電変換部よりも前記入射光の光軸方向における入射側に配置されることを特徴とする撮像素子。 It includes an imaging pixel in which incident light of each color component is converted into electric charge,
In the imaging pixel, the photoelectric conversion unit of the imaging pixel in which the incident light of the color component on the relatively long wavelength side enters the photoelectric of the imaging pixel in which the incident light of the color component on the relatively short wavelength side enters. An imaging device, wherein the imaging device is arranged on an incident side in an optical axis direction of the incident light with respect to the conversion unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014176602A JP6467823B2 (en) | 2014-08-29 | 2014-08-29 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014176602A JP6467823B2 (en) | 2014-08-29 | 2014-08-29 | Imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016051084A true JP2016051084A (en) | 2016-04-11 |
JP6467823B2 JP6467823B2 (en) | 2019-02-13 |
Family
ID=55658620
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014176602A Active JP6467823B2 (en) | 2014-08-29 | 2014-08-29 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6467823B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018007111A (en) * | 2016-07-05 | 2018-01-11 | 株式会社ニコン | Imaging apparatus, and image processing device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004361611A (en) * | 2003-06-04 | 2004-12-24 | Fuji Photo Film Co Ltd | Solid-state image pickup element and photographing device |
JP2012189874A (en) * | 2011-03-11 | 2012-10-04 | Olympus Imaging Corp | Imaging device and imaging element |
JP2013065005A (en) * | 2011-09-02 | 2013-04-11 | Nikon Corp | Focus evaluation apparatus, imaging apparatus and program |
JP2014011239A (en) * | 2012-06-28 | 2014-01-20 | Toshiba Corp | Solid state image pickup device and method for manufacturing the same |
-
2014
- 2014-08-29 JP JP2014176602A patent/JP6467823B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004361611A (en) * | 2003-06-04 | 2004-12-24 | Fuji Photo Film Co Ltd | Solid-state image pickup element and photographing device |
JP2012189874A (en) * | 2011-03-11 | 2012-10-04 | Olympus Imaging Corp | Imaging device and imaging element |
JP2013065005A (en) * | 2011-09-02 | 2013-04-11 | Nikon Corp | Focus evaluation apparatus, imaging apparatus and program |
JP2014011239A (en) * | 2012-06-28 | 2014-01-20 | Toshiba Corp | Solid state image pickup device and method for manufacturing the same |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018007111A (en) * | 2016-07-05 | 2018-01-11 | 株式会社ニコン | Imaging apparatus, and image processing device |
Also Published As
Publication number | Publication date |
---|---|
JP6467823B2 (en) | 2019-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5491677B2 (en) | Imaging apparatus and focus control method thereof | |
JP5430795B2 (en) | Imaging apparatus and program | |
JP5421829B2 (en) | Imaging device | |
US10395348B2 (en) | Image pickup apparatus, image processing apparatus, and control method of image pickup apparatus | |
JP5000413B2 (en) | Imaging system and image signal processing program | |
JP6381266B2 (en) | IMAGING DEVICE, CONTROL DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP2012049773A (en) | Imaging apparatus and method, and program | |
CN103039066A (en) | Imaging device, image processing device, and image processing method | |
JP5619124B2 (en) | Image processing apparatus, imaging apparatus, image processing program, and image processing method | |
WO2012073727A1 (en) | Imaging device and focal position detection method | |
JP2017129788A (en) | Focus detection device and imaging device | |
JP2016197231A (en) | Display control device and method, and imaging device | |
JP2013097154A (en) | Distance measurement device, imaging apparatus, and distance measurement method | |
JP2019078965A (en) | Imaging apparatus and focus detection method | |
JP5786355B2 (en) | Defocus amount detection device and electronic camera | |
WO2019202984A1 (en) | Image capturing device, distance measuring method, distance measuring program, and recording medium | |
JP6467823B2 (en) | Imaging device | |
JP2017032787A (en) | Imaging apparatus and control method thereof | |
JP6171110B2 (en) | Focus control device, focus control method, focus control program, lens device, imaging device | |
JP6467824B2 (en) | Imaging device | |
KR20170015158A (en) | Control apparatus, image pickup apparatus, and control method | |
JP6464553B2 (en) | Lens drive control device, electronic camera, and lens drive control program | |
US20220392092A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2018197806A (en) | Display control unit and imaging apparatus | |
WO2020017641A1 (en) | Focus detection device, image capture device and interchangeable lens |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170822 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180327 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20180528 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180726 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181218 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181231 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6467823 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |