JP2016051084A - Imaging device and image pick-up element - Google Patents

Imaging device and image pick-up element Download PDF

Info

Publication number
JP2016051084A
JP2016051084A JP2014176602A JP2014176602A JP2016051084A JP 2016051084 A JP2016051084 A JP 2016051084A JP 2014176602 A JP2014176602 A JP 2014176602A JP 2014176602 A JP2014176602 A JP 2014176602A JP 2016051084 A JP2016051084 A JP 2016051084A
Authority
JP
Japan
Prior art keywords
image
pixel
imaging
color component
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014176602A
Other languages
Japanese (ja)
Other versions
JP6467823B2 (en
Inventor
鉾井 逸人
Itsuhito Hokoi
逸人 鉾井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2014176602A priority Critical patent/JP6467823B2/en
Publication of JP2016051084A publication Critical patent/JP2016051084A/en
Application granted granted Critical
Publication of JP6467823B2 publication Critical patent/JP6467823B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device and image pick-up element provided in the imaging device that can correctly detect an in-focus state of an edge of a subject.SOLUTION: An imaging device comprises: an image pick-up element that allows a subject to be imaged by incident light to be incident through a focus lens 11; an edge detection unit that detects an edge of the subject imaged on the image pick-up element for each color component; and an image processing engine that functions as an in-focus detection unit detecting an in-focus state of the edge of the subject on the basis of a difference in an amount of color component of the color components in the edge detected by the edge detection unit or ratio of the amounts of color component thereof. An imaging form of the subject relative to the image pick-up element by the incident light is set for each color component of the incident light so that the difference in the amount of color component of the color components in the edge detected by the edge detection unit is broadened.SELECTED DRAWING: Figure 7

Description

本発明は、撮像装置及び撮像素子に関する。   The present invention relates to an imaging device and an imaging element.

従来から、画像から色成分ごとに検出された被写体のエッジの色成分量の差に基づいて被写体のエッジの合焦状態を検出し、その検出結果に基づいて焦点調節を行う焦点調節装置が知られている(例えば、特許文献1参照)。   Conventionally, there has been known a focus adjustment device that detects a focus state of a subject edge based on a difference in color component amount of the subject edge detected for each color component from an image and performs focus adjustment based on the detection result. (For example, refer to Patent Document 1).

特開2011−186452号公報JP 2011-186252 A

しかしながら、従来の焦点調節装置では、画像から検出された被写体のエッジのデフォーカス量が僅少である場合、各色のエッジの色成分量の差が小さくなり、被写体のエッジの合焦状態を正確に検出することができないという問題があった。   However, in the conventional focus adjustment device, when the defocus amount of the object edge detected from the image is small, the difference in the color component amount of the edge of each color becomes small, and the focus state of the object edge is accurately determined. There was a problem that it could not be detected.

本発明は、このような事情に鑑みてなされたものであり、その目的は、被写体のエッジの合焦状態を正確に検出することができる撮像装置及び該撮像装置に備えられる撮像素子を提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an imaging device capable of accurately detecting the focus state of the edge of a subject and an imaging element provided in the imaging device. There is.

上記課題を解決する撮像装置は、レンズを通じて入射される入射光によって被写体が撮像される撮像素子と、前記撮像素子に撮像された前記被写体のエッジを色成分ごとに検出するエッジ検出部と、前記エッジ検出部が検出した前記エッジにおける色成分同士の色成分量の差又は比に基づいて、前記被写体のエッジの合焦状態を検出する合焦検出部とを備え、前記入射光による前記撮像素子に対する前記被写体の撮像態様は、前記エッジ検出部が検出した前記エッジにおける色成分同士の色成分量の差が拡大するように前記入射光の色成分ごとに設定されていることを特徴とする。   An image pickup apparatus that solves the above problems includes an image pickup device that picks up a subject with incident light incident through a lens, an edge detection unit that detects an edge of the subject picked up by the image pickup device for each color component, and A focus detection unit that detects a focus state of the edge of the subject based on a difference or ratio of color component amounts of the color components at the edge detected by the edge detection unit, and the imaging element using the incident light. The imaging mode of the subject is set for each color component of the incident light so that a difference in color component amount between the color components at the edge detected by the edge detection unit is enlarged.

また、上記撮像装置において、相対的に長波長側の色成分の前記入射光が入射される前記撮像素子の撮像画素の光電変換部が、相対的に短波長側の色成分の前記入射光が入射される前記撮像素子の撮像画素の光電変換部よりも前記入射光の光軸方向における前記レンズ側に配置されることが好ましい。   In the imaging apparatus, the photoelectric conversion unit of the imaging pixel of the imaging element to which the incident light having a relatively long wavelength side component is incident may be configured such that the incident light having a relatively short wavelength side color component is received. It is preferable to be arranged on the lens side in the optical axis direction of the incident light with respect to the photoelectric conversion unit of the imaging pixel of the incident image sensor.

また、上記撮像装置において、前記撮像素子の撮像画素は、相対的に長波長側の色成分の前記入射光が入射される撮像画素のうち他の撮像画素と比較して前記光電変換部が前記入射光の光軸方向において前記レンズ側に突出して配置される第1撮像画素、及び、相対的に短波長側の色成分の前記入射光が入射される撮像画素のうち他の撮像画素と比較して前記光電変換部が前記入射光の光軸方向において前記レンズとは反対側に窪んで配置される第2撮像画素のうち少なくとも一方を含んで構成されていることが好ましい。   In the imaging device, the imaging pixel of the imaging element may have the photoelectric conversion unit in front of the other imaging pixels among the imaging pixels to which the incident light of the color component on the relatively long wavelength side is incident. Compared with the other imaging pixels among the first imaging pixels arranged to protrude toward the lens in the optical axis direction of the incident light and the imaging pixels on which the incident light of the color component on the relatively short wavelength side is incident And it is preferable that the said photoelectric conversion part is comprised including at least one among the 2nd imaging pixels arrange | positioned so that it may become depressed in the optical axis direction of the said incident light on the opposite side to the said lens.

また、上記撮像装置は、前記第1撮像画素及び前記第2撮像画素のうち少なくとも一方が撮像した画像データを用いて撮影画像を生成する画像生成部を更に備えることが好ましい。   In addition, it is preferable that the imaging apparatus further includes an image generation unit that generates a captured image using image data captured by at least one of the first imaging pixel and the second imaging pixel.

また、上記撮像装置において、前記画像生成部は、前記第1撮像画素及び前記第2撮像画素のうち少なくとも一方が撮像した画像データに対し、前記撮像素子における他の撮像画素が撮像した画像データとは異なる画像処理を行った上で前記撮影画像を生成することが好ましい。   In the imaging device, the image generation unit may be configured to obtain image data captured by another imaging pixel in the imaging element with respect to image data captured by at least one of the first imaging pixel and the second imaging pixel. Preferably, the captured image is generated after performing different image processing.

また、上記撮像装置において、前記画像生成部は、前記第2撮像画素が撮像した画像データに対し、前記撮像素子における他の撮像画素が撮像した画像データとは異なるシェーディング係数を用いたシェーディング補正処理を前記画像処理として行った上で前記撮影画像を生成することが好ましい。   Further, in the imaging apparatus, the image generation unit uses a shading correction process that uses a shading coefficient that is different from the image data captured by the other imaging pixels of the imaging element for the image data captured by the second imaging pixel. It is preferable to generate the captured image after performing the above as the image processing.

また、上記撮像装置において、前記画像生成部は、前記第1撮像画素及び前記第2撮像画素のうち少なくとも一方が撮像した画像データに対して倍率補正処理を前記画像処理として行った上で前記撮影画像を生成することが好ましい。   In the imaging apparatus, the image generation unit performs a magnification correction process on the image data captured by at least one of the first imaging pixel and the second imaging pixel as the image processing, and then performs the imaging. Preferably, an image is generated.

また、上記撮像装置において、前記第1撮像画素及び前記第2撮像画素のうち少なくとも一方は、二次元的に配置された前記撮像素子の撮像画素に不規則に配置されていることが好ましい。   In the imaging apparatus, it is preferable that at least one of the first imaging pixel and the second imaging pixel is irregularly arranged on the imaging pixels of the imaging element arranged two-dimensionally.

また、上記撮像装置は、前記撮像素子における前記第1撮像画素及び前記第2撮像画素のうち少なくとも一方を含む撮像画素が撮像した画像を表示画像として表示部に表示させる表示制御部を更に備えることが好ましい。   The imaging apparatus further includes a display control unit that causes the display unit to display an image captured by an imaging pixel including at least one of the first imaging pixel and the second imaging pixel in the imaging element as a display image. Is preferred.

また、上記撮像装置において、前記表示画像はスルー画又は動画であって、前記表示制御部は、前記撮像素子における前記第1撮像画素及び前記第2撮像画素のうち少なくとも一方を含む撮像画素が撮像した画像を時系列的に連続したフレーム画像として含む前記表示画像を前記表示部に表示させることが好ましい。   In the imaging apparatus, the display image is a through image or a moving image, and the display control unit captures an imaging pixel including at least one of the first imaging pixel and the second imaging pixel in the imaging element. It is preferable to display the display image including the processed images as time-sequential continuous frame images on the display unit.

また、上記撮像装置において、前記撮像素子の撮像画素は、前記入射光を光電変換部に集光させる集光レンズを有し、相対的に短波長側の色成分の前記入射光が入射する前記撮像画素の前記集光レンズの焦点距離の方が、相対的に長波長側の色成分の前記入射光が入射する前記撮像画素の前記集光レンズの焦点距離よりも小さいことが好ましい。   In the imaging apparatus, the imaging pixel of the imaging element includes a condenser lens that condenses the incident light on a photoelectric conversion unit, and the incident light of a color component on a relatively short wavelength side is incident on the imaging pixel. It is preferable that the focal length of the condensing lens of the imaging pixel is smaller than the focal length of the condensing lens of the imaging pixel on which the incident light of the color component on the relatively long wavelength side is incident.

また、上記撮像装置は、前記撮像素子を前記入射光の光軸方向に駆動する素子駆動部を更に備え、前記素子駆動部は、相対的に短波長側の色成分の前記入射光によって前記合焦状態を検出するための前記被写体が前記撮像素子に撮像される場合には前記撮像素子を前記入射光の光軸方向における第1位置に配置する一方で、相対的に長波長側の色成分の前記入射光によって前記エッジの前記合焦状態を検出するための前記被写体が前記撮像素子に撮像される場合には前記撮像素子を前記第1位置よりも前記入射光の光軸方向における前記レンズ側に位置する第2位置に配置することが好ましい。   The imaging apparatus further includes an element driving unit that drives the imaging element in an optical axis direction of the incident light, and the element driving unit is configured to perform the matching by the incident light of a color component on a relatively short wavelength side. When the subject for detecting a focus state is imaged by the imaging element, the imaging element is arranged at the first position in the optical axis direction of the incident light, while the color component on the relatively long wavelength side When the subject for detecting the in-focus state of the edge by the incident light is imaged by the imaging element, the lens is moved in the optical axis direction of the incident light from the first position. It is preferable to arrange in the second position located on the side.

また、上記課題を解決する撮像素子は、各色の色成分の入射光が電荷に変換される撮像画素を備え、前記撮像画素は、相対的に長波長側の色成分の前記入射光が入射される撮像画素が相対的に短波長側の色成分の前記入射光が入射される撮像画素よりも前記入射光の光軸方向における入射側に配置されることを特徴とする。   An imaging device that solves the above problem includes an imaging pixel in which incident light of each color component is converted into an electric charge, and the imaging pixel receives the incident light of a relatively long wavelength side color component. The imaging pixel is arranged closer to the incident side in the optical axis direction of the incident light than the imaging pixel into which the incident light of the color component on the relatively short wavelength side is incident.

本発明によれば、被写体のエッジの合焦状態を正確に検出することができる。   According to the present invention, it is possible to accurately detect the focus state of the edge of the subject.

第1の実施形態のデジタルカメラのブロック図。1 is a block diagram of a digital camera according to a first embodiment. 同実施形態の撮像素子における撮像画素の配列を示す模式図。The schematic diagram which shows the arrangement | sequence of the imaging pixel in the image pick-up element of the embodiment. (a)、(b)は、同実施形態の撮像素子を光軸方向に切断した断面構造を示す模式図。(A), (b) is a schematic diagram which shows the cross-sectional structure which cut | disconnected the image pick-up element of the embodiment in the optical axis direction. 撮像素子の撮像面のうち、凸画素及び凹画素を含む画素群が配置されるエリアを示す模式図。The schematic diagram which shows the area where the pixel group containing a convex pixel and a concave pixel is arrange | positioned among the imaging surfaces of an image pick-up element. (a)は、撮像素子に撮像された画像が被写体の位置よりも近点側で合焦している状態での撮像素子とフォーカスレンズとの位置関係を示す模式図、(b)は、撮像素子に撮像された画像が被写体の位置よりも遠点側で合焦している状態での撮像素子とフォーカスレンズとの位置関係を示す模式図。(A) is a schematic diagram showing the positional relationship between the imaging element and the focus lens in a state where an image captured by the imaging element is in focus on the near point side of the subject, and (b) is an imaging The schematic diagram which shows the positional relationship of an image pick-up element and a focus lens in the state in which the image imaged by the element is focusing on the far point side rather than the position of a to-be-photographed object. フォーカスレンズに入射された入射光の色成分ごとの焦点の光軸方向における位置関係を示す模式図。The schematic diagram which shows the positional relationship in the optical axis direction of the focus for every color component of the incident light which injected into the focus lens. 被写体からフォーカスレンズを通じて入射される入射光の色成分ごとの光電変換面の位置関係を示す模式図であって、(a)は、撮像素子に撮像された画像が被写体に対して前ピン状態にある場合の模式図、(b)は、撮像素子に撮像された画像が被写体に対して後ピン状態にある場合の模式図。It is a schematic diagram which shows the positional relationship of the photoelectric conversion surface for every color component of the incident light which injects from a to-be-photographed object through a focus lens, Comprising: (a) is an image imaged by the image pick-up element in the front pin state with respect to a to-be-photographed object. FIG. 6B is a schematic diagram in a case where an image captured by the image sensor is in a rear pin state with respect to a subject. 撮像素子に撮像された画像の一例を示す模式図。The schematic diagram which shows an example of the image imaged by the image pick-up element. 撮像素子に撮像された画像が被写体のエッジに対して前ピン状態にある場合の、エッジの近傍における色成分ごとの色成分量の正規化出力を示すグラフであって、(a)は、比較例の撮像素子の場合のグラフ、(b)は第1の実施形態の撮像素子の場合のグラフ。FIG. 7 is a graph showing a normalized output of color component amounts for each color component in the vicinity of an edge when the image captured by the image sensor is in a front pin state with respect to the edge of the subject, (a) is a comparison The graph in the case of the image sensor of an example, (b) is the graph in the case of the image sensor of 1st Embodiment. 撮像素子に撮像された画像が被写体のエッジに対して後ピン状態にある場合の、エッジの近傍における色成分ごとの色成分量の正規化出力を示すグラフであって、(a)は、比較例の撮像素子の場合のグラフ、(b)は第1の実施形態の撮像素子の場合のグラフ。6 is a graph showing a normalized output of color component amounts for each color component in the vicinity of an edge when an image captured by an image sensor is in a back-pin state with respect to the edge of the subject, (a) is a comparison The graph in the case of the image sensor of an example, (b) is the graph in the case of the image sensor of 1st Embodiment. エッジの近傍における色成分ごとの色成分量の正規化出力を示すグラフであって、(a)は、第1の実施形態の撮像素子に撮像された画像が被写体のエッジに対して前ピン状態又は後ピン状態にある場合の赤の光と緑の光の色成分量の正規化出力を示すグラフ、(b)は、第1の実施形態の撮像素子に撮像された画像が被写体のエッジに対して前ピン状態又は後ピン状態にある場合の青の光と緑の光の色成分量の正規化出力を示すグラフ。6 is a graph showing a normalized output of the color component amount for each color component in the vicinity of the edge, where (a) is a state in which the image captured by the image sensor of the first embodiment is in a front pin state with respect to the edge of the subject Alternatively, a graph showing the normalized output of the color component amounts of red light and green light when in the rear pin state, (b) is an image captured by the image sensor of the first embodiment at the edge of the subject The graph which shows the normalized output of the color component amount of blue light and green light in the case of being in the front pin state or the back pin state. エッジの近傍における赤の光と緑の光の色成分量の差を示すグラフであって、(a)は、比較例の撮像素子の場合のグラフ、(b)は、第1の実施形態の撮像素子の場合のグラフ。7 is a graph showing a difference between color component amounts of red light and green light in the vicinity of an edge, where (a) is a graph in the case of an image sensor of a comparative example, and (b) is a graph of the first embodiment. The graph in the case of an image sensor. (a)は、合焦状態のエッジにおけるLSFを示すグラフ、(b)は、非合焦状態のエッジにおけるLSFを示すグラフ、(c)は、図13(b)に示す状態よりもデフォーカス量が大きいエッジにおけるLSFを示すグラフ。(A) is a graph showing LSF at an in-focus edge, (b) is a graph showing LSF at an out-of-focus edge, and (c) is more defocused than in the state shown in FIG. 13 (b). The graph which shows LSF in the edge where quantity is large. (a)は、合焦状態のエッジにおける色成分ごとのLSFを示すグラフ、(b)は、前ピン状態のエッジにおける色成分ごとのLSFを示すグラフ、(c)は、後ピン状態のエッジにおける色成分ごとのLSFを示すグラフ。(A) is a graph showing LSF for each color component at the edge in the focused state, (b) is a graph showing LSF for each color component at the edge in the front pin state, and (c) is an edge in the rear pin state. The graph which shows LSF for every color component in. エッジにおける色成分ごとのLSFの標準偏差の差と被写体距離との相関関係を示すグラフ。The graph which shows the correlation of the difference of the standard deviation of LSF for every color component in an edge, and object distance. 第1の実施形態の画像処理エンジンが実行する画像生成処理ルーチンのフローチャート。6 is a flowchart of an image generation processing routine executed by the image processing engine of the first embodiment. (a)、(b)は、スルー画におけるフレーム画像の構成態様の一例を示す模式図。(A), (b) is a schematic diagram which shows an example of the structure aspect of the frame image in a through image. 凹画素が撮像した被写体の画素信号を撮影画像に用いるか否かの判定基準となる、凹画素におけるシェーディング係数と絞り値との相関関係を示すグラフ。The graph which shows the correlation with the shading coefficient in a concave pixel, and an aperture value used as the criterion of whether to use the pixel signal of the to-be-photographed object for a picked-up image. (a)、(b)は、第2の実施形態の撮像素子を光軸方向に切断した断面構造を示す模式図。(A), (b) is a schematic diagram which shows the cross-sectional structure which cut | disconnected the image pick-up element of 2nd Embodiment in the optical axis direction. 同実施形態の撮像素子において、被写体からマイクロレンズを通じて光電変換部に入射される入射光の色成分ごとの位置関係を示す模式図であって、(a)は、撮像素子に撮像された画像が被写体に対して前ピン状態にある場合の模式図、(b)は、撮像素子に撮像された画像が被写体に対して後ピン状態にある場合の模式図。FIG. 6 is a schematic diagram showing a positional relationship for each color component of incident light incident on a photoelectric conversion unit from a subject through a microlens in the image sensor of the embodiment, where (a) shows an image captured by the image sensor. FIG. 5B is a schematic diagram when the subject is in the front pin state, and FIG. 5B is a schematic diagram when the image captured by the image sensor is in the rear pin state with respect to the subject. 第3の実施形態の撮像素子において、被写体からフォーカスレンズを通じて入射される入射光の色成分ごとの撮像位置の位置関係を示す模式図であって、(a)は、撮像素子に撮像された画像が被写体に対して前ピン状態にある場合の模式図、(b)は、撮像素子に撮像された画像が被写体に対して後ピン状態にある場合の模式図。FIG. 10 is a schematic diagram illustrating a positional relationship of imaging positions for each color component of incident light incident from a subject through a focus lens in the imaging device of the third embodiment, and (a) is an image captured by the imaging device. FIG. 6B is a schematic diagram when the image is captured in the front pin state with respect to the subject, and FIG. (a)〜(c)は、白画素を光軸方向に切断した断面構造を示す模式図であって、(a)は、比較例の撮像素子を示す模式図、(b)は、第4の実施形態の撮像素子の一例を示す模式図、(c)は、第4の実施形態の撮像素子の他の一例を示す模式図。(A)-(c) is a schematic diagram which shows the cross-sectional structure which cut | disconnected the white pixel in the optical axis direction, Comprising: (a) is a schematic diagram which shows the image pick-up element of a comparative example, (b) is 4th. The schematic diagram which shows an example of the image pick-up element of embodiment of this, (c) is a schematic diagram which shows another example of the image pick-up element of 4th Embodiment. 撮像素子に撮像された画像が被写体に対して前ピン状態にある場合の、被写体からマイクロレンズを通じて入射される入射光の色成分ごとの光電変換面の位置関係を示す模式図であって、(a)は、図22(a)に示す比較例の撮像素子の場合の模式図、(b)は、図22(b)に示す第4の実施形態の撮像素子の一例の場合の模式図、(c)は、図22(c)に示す第4の実施形態の撮像素子の他の一例の場合の模式図。FIG. 6 is a schematic diagram illustrating a positional relationship of the photoelectric conversion surface for each color component of incident light incident from a subject through a microlens when an image captured by the imaging element is in a front pin state with respect to the subject, FIG. 22A is a schematic diagram in the case of the imaging element of the comparative example shown in FIG. 22A, and FIG. 22B is a schematic diagram in the case of the example of the imaging element of the fourth embodiment shown in FIG. (C) is a schematic diagram in the case of another example of the imaging device of 4th Embodiment shown in FIG.22 (c). 撮像素子に撮像された画像が被写体に対して後ピン状態にある場合の、被写体からマイクロレンズを通じて入射される入射光の色成分ごとの光電変換面の位置関係を示す模式図であって、(a)は、図22(a)に示す比較例の撮像素子の場合の模式図、(b)は、図22(b)に示す第4の実施形態の撮像素子の一例の場合の模式図、(c)は、図22(c)に示す第4の実施形態の撮像素子の他の一例の場合の模式図。FIG. 6 is a schematic diagram showing a positional relationship of the photoelectric conversion surface for each color component of incident light incident from a subject through a microlens when an image captured by the imaging element is in a rear pin state with respect to the subject, FIG. 22A is a schematic diagram in the case of the imaging element of the comparative example shown in FIG. 22A, and FIG. 22B is a schematic diagram in the case of the example of the imaging element of the fourth embodiment shown in FIG. (C) is a schematic diagram in the case of another example of the imaging device of 4th Embodiment shown in FIG.22 (c). (a)は、別の実施形態の撮像素子の撮像面のうち、凸画素及び凹画素を含む画素群が配置されるエリアを示す模式図、(b)は、別の実施形態の撮像素子における撮像画素の配列を示す模式図。(A) is a schematic diagram which shows the area where the pixel group containing a convex pixel and a concave pixel is arrange | positioned among the imaging surfaces of the image pick-up element of another embodiment, (b) is in the image pick-up element of another embodiment. The schematic diagram which shows the arrangement | sequence of an imaging pixel.

(第1の実施形態)
以下、本発明を具体化した第1の実施形態を図面に従って説明する。
図1に示すように、撮像装置の一種であるデジタルカメラ(以下、「カメラ10」という)は、焦点調節のためのフォーカスレンズ11などの複数のレンズからなるレンズ部12(図1ではフォーカスレンズ11のみ図示)と、レンズ部12を通過した光をレンズ部12の像空間側において結像させて撮像する撮像素子13とを備えている。なお、撮像素子13は、CMOS(Complementary Metal Oxide Semiconductor)型、又は、CCD(Charge Coupled Device)型のイメージセンサからなる。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.
As shown in FIG. 1, a digital camera (hereinafter referred to as “camera 10”), which is a kind of imaging device, includes a lens unit 12 (in FIG. 1, a focus lens) including a plurality of lenses such as a focus lens 11 for focus adjustment. 11), and an image sensor 13 that picks up an image by imaging the light passing through the lens unit 12 on the image space side of the lens unit 12. Note that the image sensor 13 is a CMOS (Complementary Metal Oxide Semiconductor) type or CCD (Charge Coupled Device) type image sensor.

撮像素子13の出力側には、画像処理エンジン14がA/D変換回路15を介して接続されている。そして、撮像素子13からアナログ信号として出力される画素信号は、A/D変換回路15においてデジタル信号に変換された後に画像処理エンジン14に入力される。   An image processing engine 14 is connected to the output side of the image sensor 13 via an A / D conversion circuit 15. The pixel signal output as an analog signal from the image sensor 13 is converted into a digital signal by the A / D conversion circuit 15 and then input to the image processing engine 14.

画像処理エンジン14は、カメラ10の各種の動作を統括的に制御するMPU16(Micro Processing Unit)を備えている。そして、MPU16は、撮像素子13から読み出した画素信号に対し、色補間処理、階調補正、ホワイトバランス処理及び輪郭補償等の画像処理を施すことにより所定の画像を生成する。   The image processing engine 14 includes an MPU 16 (Micro Processing Unit) that comprehensively controls various operations of the camera 10. Then, the MPU 16 generates a predetermined image by performing image processing such as color interpolation processing, gradation correction, white balance processing, and contour compensation on the pixel signal read from the image sensor 13.

画像処理エンジン14には、データバス17を介して不揮発性メモリ18、バッファメモリ19、インターフェース部(以下、「I/F部20」という)、及び、表示部の一例としてのモニタ21が接続されている。   A non-volatile memory 18, a buffer memory 19, an interface unit (hereinafter referred to as “I / F unit 20”), and a monitor 21 as an example of a display unit are connected to the image processing engine 14 via a data bus 17. ing.

不揮発性メモリ18は、画像処理エンジン14を動作させるためにMPU16が実行するプログラムを格納している。なお、本実施形態では、不揮発性メモリ18は、図16にフローチャートで示す画像生成処理プログラムなどを格納している。そして、MPU16は、不揮発性メモリ18に格納された画像生成処理プログラムを実行することにより、エッジ検出部22、合焦検出部23、画像生成部24及び表示制御部25として機能する。   The nonvolatile memory 18 stores a program executed by the MPU 16 for operating the image processing engine 14. In the present embodiment, the nonvolatile memory 18 stores an image generation processing program shown in the flowchart in FIG. The MPU 16 functions as the edge detection unit 22, the focus detection unit 23, the image generation unit 24, and the display control unit 25 by executing the image generation processing program stored in the nonvolatile memory 18.

バッファメモリ19は、例えば、撮影画像、画像処理過程の画像、画像処理後の画像及び画像圧縮後の画像などを一時的に格納している。
I/F部20は、メモリカード30が着脱自在に装着されるカードスロット(図示略)を有している。そして、I/F部20は、画像処理エンジン14によって生成された画像をI/F部20に装着されたメモリカード30に出力したり、メモリカード30に格納されている画像を画像処理エンジン14に出力したりする機能を有している。
The buffer memory 19 temporarily stores, for example, photographed images, images in the image processing process, images after image processing, images after image compression, and the like.
The I / F unit 20 has a card slot (not shown) in which the memory card 30 is detachably mounted. Then, the I / F unit 20 outputs the image generated by the image processing engine 14 to the memory card 30 attached to the I / F unit 20 or the image stored in the memory card 30 as the image processing engine 14. Or has a function to output to

モニタ21には、バッファメモリ19に一時的に格納されている画像や、I/F部20に装着されたメモリカード30に格納されている画像が画像処理エンジン14によって出力されて表示される。   On the monitor 21, an image temporarily stored in the buffer memory 19 and an image stored in the memory card 30 attached to the I / F unit 20 are output and displayed by the image processing engine 14.

また、画像処理エンジン14には、レリーズボタン31及び操作部32が接続されている。レリーズボタン31は、半押し操作又は全押し操作がなされた際に操作信号を画像処理エンジン14に入力する。操作部32は、メニューボタン、セレクトボタン、決定ボタン及び電源ボタン等により構成されており、押圧操作がなされた際に操作信号を画像処理エンジン14に入力する。   In addition, a release button 31 and an operation unit 32 are connected to the image processing engine 14. The release button 31 inputs an operation signal to the image processing engine 14 when a half-press operation or a full-press operation is performed. The operation unit 32 includes a menu button, a select button, a determination button, a power button, and the like, and inputs an operation signal to the image processing engine 14 when a pressing operation is performed.

次に、撮像素子13の構成について説明する。
図2及び図3(a)(b)に示すように、撮像素子13は、撮像面上に二次元的に配列された撮像画素40を有している。撮像画素40は、集光レンズの一例としてのマイクロレンズ41、カラーフィルタ42及び光電変換部43によって構成されている。また、撮像画素40は、赤画素40R(R)、緑画素40G(G)及び青画素40B(B)を含んでいる。
Next, the configuration of the image sensor 13 will be described.
As shown in FIGS. 2 and 3A and 3B, the imaging device 13 has imaging pixels 40 arranged two-dimensionally on the imaging surface. The imaging pixel 40 is configured by a microlens 41 as an example of a condensing lens, a color filter 42, and a photoelectric conversion unit 43. The imaging pixel 40 includes a red pixel 40R (R), a green pixel 40G (G), and a blue pixel 40B (B).

図3(a)に示すように、赤画素40Rは、赤色の波長領域の光を選択的に透過するカラーフィルタ42Rを有している。そして、撮像素子13に入射する入射光のうち、カラーフィルタ42Rを透過した赤色の色成分の光がマイクロレンズ41Rによって光電変換部43Rに集光され、光電変換部43Rにおいて電荷に変換される。なお、撮像画素40を構成する赤画素40Rの一部は、他の赤画素40Rと比較して、光電変換部43Rが入射光の光軸方向における入射側(フォーカスレンズ11側)に突出した凸画素40RAとなっている。   As shown in FIG. 3A, the red pixel 40R includes a color filter 42R that selectively transmits light in the red wavelength region. Of the incident light incident on the image sensor 13, the light of the red color component that has passed through the color filter 42R is condensed on the photoelectric conversion unit 43R by the microlens 41R, and converted into electric charge in the photoelectric conversion unit 43R. Note that a part of the red pixel 40R constituting the imaging pixel 40 is a convex portion in which the photoelectric conversion unit 43R protrudes toward the incident side (the focus lens 11 side) in the optical axis direction of incident light as compared with the other red pixels 40R. This is a pixel 40RA.

また、図3(a)及び図3(b)に示すように、緑画素40Gは、緑色の波長領域の光を選択的に透過するカラーフィルタ42Gを有している。そして、撮像素子13に入射する入射光のうち、カラーフィルタ42Gを通過した緑色の色成分の光がマイクロレンズ41Gによって光電変換部43Gに集光され、光電変換部43Gにおいて電荷に変換される。   As shown in FIGS. 3A and 3B, the green pixel 40G has a color filter 42G that selectively transmits light in the green wavelength region. Of the incident light incident on the image sensor 13, light of the green color component that has passed through the color filter 42G is condensed on the photoelectric conversion unit 43G by the microlens 41G, and converted into electric charge by the photoelectric conversion unit 43G.

また、図3(b)に示すように、青画素40Bは、青色の波長領域の光を選択的に透過するカラーフィルタ42Bを有している。そして、撮像素子13に入射する入射光のうち、カラーフィルタ42Bを透過した青色の色成分の光がマイクロレンズ41Bによって光電変換部43Bに集光され、光電変換部43Bにおいて電荷に変換される。なお、撮像画素40を構成する青画素40Bの一部は、他の青画素40Bと比較して、光電変換部43Bが入射光の光軸方向における射出側(フォーカスレンズ11とは反対側)に窪んだ凹画素40BAとなっている。   As shown in FIG. 3B, the blue pixel 40B has a color filter 42B that selectively transmits light in the blue wavelength region. Of the incident light incident on the image sensor 13, the light of the blue color component that has passed through the color filter 42 </ b> B is condensed on the photoelectric conversion unit 43 </ b> B by the microlens 41 </ b> B and converted into electric charge in the photoelectric conversion unit 43 </ b> B. Note that a part of the blue pixels 40B constituting the imaging pixel 40 is on the emission side in the optical axis direction of the incident light (on the opposite side to the focus lens 11) as compared with the other blue pixels 40B. It is a recessed concave pixel 40BA.

そして、凸画素40RAにおける光電変換部43Rの光電変換面は、平坦画素における光電変換部43の光電変換面よりも入射光の光軸方向における入射側(フォーカスレンズ11側)に配置されている。また、凹画素40BAにおける光電変換部43Bの光電変換面は、平坦画素における光電変換部43の光電変換面よりも入射光の光軸方向における射出側(フォーカスレンズ11とは反対側)に配置されている。この場合、平坦画素は、凸画素40RAでない赤画素40R、緑画素40G、及び、凹画素40BAでない青画素40Bを意味している。   The photoelectric conversion surface of the photoelectric conversion unit 43R in the convex pixel 40RA is disposed on the incident side (focus lens 11 side) in the optical axis direction of incident light with respect to the photoelectric conversion surface of the photoelectric conversion unit 43 in the flat pixel. In addition, the photoelectric conversion surface of the photoelectric conversion unit 43B in the concave pixel 40BA is disposed on the emission side in the optical axis direction of incident light (the side opposite to the focus lens 11) with respect to the photoelectric conversion surface of the photoelectric conversion unit 43 in the flat pixel. ing. In this case, a flat pixel means a red pixel 40R, a green pixel 40G that is not a convex pixel 40RA, and a blue pixel 40B that is not a concave pixel 40BA.

なお、本実施形態では、赤画素40R、緑画素40G及び青画素40Bは、マイクロレンズ41のレンズ面の曲率が互いに等しい。そのため、撮像素子13に入射する入射光のうち、各色の色成分の光に対応するマイクロレンズ41の焦点距離は互いに等しい。   In the present embodiment, the red pixel 40R, the green pixel 40G, and the blue pixel 40B have the same curvature of the lens surface of the microlens 41. Therefore, the focal lengths of the microlenses 41 corresponding to the light components of the respective colors out of the incident light incident on the image sensor 13 are equal to each other.

そして、図2に示すように、撮像素子13には、赤画素40R、緑画素40G及び青画素40Bがベイヤー配列(Bayer Arrangement)の配列パターンによって配列されている。すなわち、隣接する正方格子状の四つの画素からなる画素群において一方の対角線上に二つの緑画素40Gが配列され、他方の対角線上に赤画素40R及び青画素40Bが一つずつ配列されている。そして、正方格子状の画素群を基本単位として、該画素群が二次元上に繰り返し配列されることで撮像素子13が構成されている。なお、本実施形態では、撮像素子13を構成する画素群のうち一部の画素群については、凸画素40RAである赤画素40R、及び、凹画素40BAである青画素40Bを含んでいる。具体的には、撮像素子13の撮像面の縦方向において二つの画素群おきに、撮像素子13の撮像面の横方向において一つの画素群おきに、凸画素40RAである赤画素40R、及び、凹画素40BAである青画素40Bを含む画素群が配置されている。   As shown in FIG. 2, on the image sensor 13, red pixels 40R, green pixels 40G, and blue pixels 40B are arranged in a Bayer Arrangement arrangement pattern. That is, two green pixels 40G are arranged on one diagonal line, and one red pixel 40R and one blue pixel 40B are arranged on the other diagonal line in a pixel group consisting of four adjacent square lattice pixels. . The imaging element 13 is configured by repeatedly arranging the pixel groups in two dimensions with a square lattice pixel group as a basic unit. In the present embodiment, some of the pixel groups constituting the image sensor 13 include a red pixel 40R that is a convex pixel 40RA and a blue pixel 40B that is a concave pixel 40BA. Specifically, a red pixel 40R, which is a convex pixel 40RA, every two pixel groups in the vertical direction of the image pickup surface of the image pickup device 13, and every other pixel group in the horizontal direction of the image pickup surface of the image pickup device 13, and A pixel group including the blue pixel 40B that is the concave pixel 40BA is arranged.

この場合、図4に示すように、本実施形態では、凸画素40RAである赤画素40R、及び、凹画素40BAである青画素40Bは、撮像素子13の撮像画素40のうち、撮像面上における縦方向に間隔を隔てた6つのエリアR1〜R6に位置する画素群に含まれている。また、これらのエリアR1〜R6は、撮像素子13の撮像面上における横方向の全域に亘って延びている。   In this case, as shown in FIG. 4, in the present embodiment, the red pixel 40R that is the convex pixel 40RA and the blue pixel 40B that is the concave pixel 40BA are on the imaging surface among the imaging pixels 40 of the imaging element 13. It is included in a pixel group located in six areas R1 to R6 spaced apart in the vertical direction. Further, these areas R1 to R6 extend over the entire area in the lateral direction on the imaging surface of the imaging element 13.

次に、画像処理エンジン14が画像から検出された被写体のエッジにおける軸上色収差の色ずれを解析することにより、被写体のエッジの合焦状態を検出する原理の概要を説明する。   Next, an outline of the principle by which the image processing engine 14 detects the in-focus state of the object edge by analyzing the color shift of the longitudinal chromatic aberration at the object edge detected from the image will be described.

図5(a)には、撮像素子13に撮像された画像が被写体Sの位置で合焦している状態が実線で示されるとともに、撮像素子13に撮像された画像が被写体Sの位置よりも近点側で合焦している状態(以下、「前ピン状態」という)が一点鎖線で示されている。図5(a)に示すように、前ピン状態においては、被写体から射出される光がフォーカスレンズ11を通過して合焦する位置が撮像素子13よりも撮影者側(図5(a)では右側)に位置する。   In FIG. 5A, a state where the image captured by the image sensor 13 is in focus at the position of the subject S is indicated by a solid line, and the image captured by the image sensor 13 is more than the position of the subject S. A state of focusing on the near point side (hereinafter referred to as “front pin state”) is indicated by a one-dot chain line. As shown in FIG. 5A, in the front pin state, the position where the light emitted from the subject passes through the focus lens 11 and is in focus is closer to the photographer side than the image sensor 13 (in FIG. 5A). Located on the right).

一方、図5(b)には、撮像素子13に撮像された画像が被写体Sの位置で合焦している状態が実線で示されるとともに、撮像素子13に撮像された画像が被写体Sの位置よりも遠点側で合焦している状態(以下、「後ピン状態」という)が一点鎖線で示されている。図5(b)に示すように、後ピン状態においては、被写体から射出される光がフォーカスレンズ11を通過して合焦する位置が撮像素子13よりもフォーカスレンズ11側(図5(b)では左側)に位置する。   On the other hand, in FIG. 5B, a state where the image captured by the image sensor 13 is in focus at the position of the subject S is indicated by a solid line, and the image captured by the image sensor 13 is the position of the subject S. A state of focusing on the far point side (hereinafter referred to as “rear pin state”) is indicated by a one-dot chain line. As shown in FIG. 5B, in the rear pin state, the position where the light emitted from the subject passes through the focus lens 11 and is focused is closer to the focus lens 11 than the image sensor 13 (FIG. 5B). It is located on the left side.

図6には、被写体から射出された光がフォーカスレンズ11を通過する際に生じる軸上色収差の様子が示されている。図6に示すように、フォーカスレンズ11を通過した光には波長の違いによって軸上色収差が生じるため、光の色成分ごとに焦点位置がずれる。具体的には、フォーカスレンズ11は、光の波長が短いほど光の屈折率が大きいため、青(B)の光、緑(B)の光、赤(R)の光の順に、フォーカスレンズ11を通過する際の屈折率が次第に小さくなり、フォーカスレンズ11を通過して合焦する焦点位置がフォーカスレンズ11から次第に遠くなる。そして、このような軸上色収差による色ずれを解析することにより、被写体のデフォーカス特徴量が被写体の合焦状態として算出(検出)される。   FIG. 6 shows the state of axial chromatic aberration that occurs when the light emitted from the subject passes through the focus lens 11. As shown in FIG. 6, since axial chromatic aberration occurs in the light that has passed through the focus lens 11 due to the difference in wavelength, the focal position shifts for each color component of the light. Specifically, since the refractive index of light increases as the wavelength of light is shorter, the focus lens 11 is in the order of blue (B) light, green (B) light, and red (R) light. The refractive index when passing through the lens gradually decreases, and the focal position through which the focus lens 11 is focused is gradually distant from the focus lens 11. Then, by analyzing the color shift due to such axial chromatic aberration, the defocus feature amount of the subject is calculated (detected) as the focused state of the subject.

ここで、デフォーカス特徴量は、方向指標と、デフォーカス量を含んで構成されている。方向指標とは、撮像素子13に撮像された画像が被写体に対して前ピン状態又は後ピン状態にあることを示す指標である。そして、方向指標及びデフォーカス量を算出するための評価値の一例としては、Edge Difference(以下、「Ed」という)、デフォーカス量参照値(Width of Subtraction)(以下、「Wd」という)、線広がり関数(Line Spread Function)(以下、「LSF」という)が挙げられる。   Here, the defocus feature amount includes a direction index and a defocus amount. The direction index is an index indicating that the image captured by the image sensor 13 is in the front pin state or the rear pin state with respect to the subject. As examples of evaluation values for calculating the direction index and the defocus amount, Edge Difference (hereinafter referred to as “Ed”), defocus amount reference value (Width of Subtraction) (hereinafter referred to as “Wd”), Line Spread Function (hereinafter referred to as “LSF”).

まず、被写体における方向指標及びデフォーカス量をEdを用いて算出する原理の概要を説明する。
図7(a)に示すように、撮像素子13に撮像された画像が被写体に対して前ピン状態である場合には、被写体から射出された光は、フォーカスレンズ11を通過する際に生じる軸上色収差に起因して外側から赤(R)の光、緑(G)の光、青(B)の光の順に位置するように分光された状態で撮像素子13に導かれる。この場合、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する被写体のデフォーカス量は、青(B)の光、緑(G)の光、赤(R)の光の順に次第に大きくなる。
First, the outline of the principle of calculating the direction index and the defocus amount in the subject using Ed will be described.
As shown in FIG. 7A, when the image picked up by the image pickup device 13 is in the front pin state with respect to the subject, the light emitted from the subject is an axis generated when passing through the focus lens 11. Due to the upper chromatic aberration, red (R) light, green (G) light, and blue (B) light are guided from the outside to the image sensor 13 in a state of being dispersed in order. In this case, the defocus amount of the subject that the light passing through the focus lens 11 captures on the image sensor 13 for each color component is in the order of blue (B) light, green (G) light, and red (R) light. It grows gradually.

特に、本実施形態では、凸画素40RAである赤画素40Rの光電変換面は、緑画素40Gの光電変換面よりも光軸方向におけるフォーカスレンズ11との距離が近い位置に配置されている。そのため、赤(R)の光が凸画素40RAである赤画素40Rの光電変換面に撮像する被写体のデフォーカス量は、赤(R)の光が平坦画素である赤画素40Rの光電変換面に撮像する被写体のデフォーカス量よりも大きくなる。その結果、赤(R)の光が凸画素40RAである赤画素40Rの光電変換面に撮像する被写体のデフォーカス量と、緑(G)の光が緑画素40Gの光電変換面に撮像する被写体のデフォーカス量との差分は、赤画素40Rが平坦画素である場合と比較して大きくなる。   In particular, in the present embodiment, the photoelectric conversion surface of the red pixel 40R that is the convex pixel 40RA is arranged at a position closer to the focus lens 11 in the optical axis direction than the photoelectric conversion surface of the green pixel 40G. Therefore, the defocus amount of the subject in which red (R) light is imaged on the photoelectric conversion surface of the red pixel 40R which is the convex pixel 40RA is the photoelectric conversion surface of the red pixel 40R where the red (R) light is a flat pixel. This is larger than the defocus amount of the subject to be imaged. As a result, the defocus amount of the subject in which red (R) light is imaged on the photoelectric conversion surface of the red pixel 40R, which is the convex pixel 40RA, and the subject in which green (G) light is imaged on the photoelectric conversion surface of the green pixel 40G. The difference from the defocus amount becomes larger compared to the case where the red pixel 40R is a flat pixel.

また同様に、本実施形態では、凹画素40BAである青画素40Bの光電変換面は、緑画素40Gの光電変換面よりも光軸方向におけるフォーカスレンズ11との距離が遠い位置に配置される。そのため、青(B)の光が凹画素40BAである青画素40Bの光電変換面に撮像する被写体のデフォーカス量は、青(B)の光が平坦画素である青画素40Bの光電変換面に撮像する被写体のデフォーカス量よりも小さくなる。その結果、青(B)の光が凹画素40BAである青画素40Bの光電変換面に撮像する被写体のデフォーカス量と、緑(G)の光が緑画素40Gの光電変換面に撮像する被写体のデフォーカス量との差分は、青画素40Bが平坦画素である場合と比較して大きくなる。   Similarly, in the present embodiment, the photoelectric conversion surface of the blue pixel 40B that is the concave pixel 40BA is disposed at a position farther from the focus lens 11 in the optical axis direction than the photoelectric conversion surface of the green pixel 40G. For this reason, the defocus amount of the subject in which blue (B) light is imaged on the photoelectric conversion surface of the blue pixel 40B, which is the concave pixel 40BA, is the photoelectric conversion surface of the blue pixel 40B, in which the blue (B) light is a flat pixel. It becomes smaller than the defocus amount of the subject to be imaged. As a result, the defocus amount of the subject in which blue (B) light is imaged on the photoelectric conversion surface of the blue pixel 40B, which is the concave pixel 40BA, and the subject in which green (G) light is imaged on the photoelectric conversion surface of the green pixel 40G. The difference from the defocus amount becomes larger compared to the case where the blue pixel 40B is a flat pixel.

一方、図7(b)に示すように、撮像素子13に撮像された画像が被写体に対して後ピン状態である場合には、被写体から射出された光は、フォーカスレンズ11を通過する際に生じる軸上色収差に起因して外側から赤(R)の光、緑(G)の光、青(B)の光の順に位置するように分光された状態で撮像素子13に導かれる。この場合、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する被写体のデフォーカス量は、赤(R)の光、緑(G)の光、青(B)の光の順に次第に大きくなる。   On the other hand, as shown in FIG. 7B, when the image picked up by the image pickup device 13 is in a back-pin state with respect to the subject, the light emitted from the subject passes through the focus lens 11. Due to the generated axial chromatic aberration, red (R) light, green (G) light, and blue (B) light are guided from the outside to the image sensor 13 in a state of being dispersed in order. In this case, the defocus amount of the subject that the light passing through the focus lens 11 images on the image sensor 13 for each color component is in the order of red (R) light, green (G) light, and blue (B) light. It grows gradually.

特に、本実施形態では、凸画素40RAである赤画素40Rの光電変換面は、緑画素40Gの光電変換面よりも光軸方向におけるフォーカスレンズ11との距離が近い位置に配置されている。そのため、赤(R)の光が凸画素40RAである赤画素40Rの光電変換面に撮像する被写体のデフォーカス量は、赤(R)の光が平坦画素である赤画素40Rの光電変換面に撮像する被写体のデフォーカス量よりも小さくなる。その結果、赤(R)の光が凸画素40RAである赤画素40Rの光電変換面に撮像する被写体のデフォーカス量と、緑(G)の光が緑画素40Gの光電変換面に撮像する被写体のデフォーカス量との差分は、赤画素40Rが平坦画素である場合と比較して大きくなる。   In particular, in the present embodiment, the photoelectric conversion surface of the red pixel 40R that is the convex pixel 40RA is arranged at a position closer to the focus lens 11 in the optical axis direction than the photoelectric conversion surface of the green pixel 40G. Therefore, the defocus amount of the subject in which red (R) light is imaged on the photoelectric conversion surface of the red pixel 40R which is the convex pixel 40RA is the photoelectric conversion surface of the red pixel 40R where the red (R) light is a flat pixel. It becomes smaller than the defocus amount of the subject to be imaged. As a result, the defocus amount of the subject in which red (R) light is imaged on the photoelectric conversion surface of the red pixel 40R, which is the convex pixel 40RA, and the subject in which green (G) light is imaged on the photoelectric conversion surface of the green pixel 40G. The difference from the defocus amount becomes larger compared to the case where the red pixel 40R is a flat pixel.

また同様に、本実施形態では、凹画素40BAである青画素40Bの光電変換面は、緑画素40Gの光電変換面よりも光軸方向におけるフォーカスレンズ11との距離が遠い位置に配置される。そのため、青(B)の光が凹画素40BAである青画素40Bの光電変換面に撮像する被写体のデフォーカス量は、青(B)の光が平坦画素である青画素40Bの光電変換面に撮像する被写体のデフォーカス量よりも大きくなる。その結果、青(B)の光が凹画素40BAである青画素40Bの光電変換面に撮像する被写体のデフォーカス量と、緑(G)の光が緑画素40Gの光電変換面に撮像する被写体のデフォーカス量との差分は、青画素40Bが平坦画素である場合と比較して大きくなる。   Similarly, in the present embodiment, the photoelectric conversion surface of the blue pixel 40B that is the concave pixel 40BA is disposed at a position farther from the focus lens 11 in the optical axis direction than the photoelectric conversion surface of the green pixel 40G. For this reason, the defocus amount of the subject in which blue (B) light is imaged on the photoelectric conversion surface of the blue pixel 40B, which is the concave pixel 40BA, is the photoelectric conversion surface of the blue pixel 40B, in which the blue (B) light is a flat pixel. This is larger than the defocus amount of the subject to be imaged. As a result, the defocus amount of the subject in which blue (B) light is imaged on the photoelectric conversion surface of the blue pixel 40B, which is the concave pixel 40BA, and the subject in which green (G) light is imaged on the photoelectric conversion surface of the green pixel 40G. The difference from the defocus amount becomes larger compared to the case where the blue pixel 40B is a flat pixel.

すなわち、撮像素子13に撮像された画像が被写体に対して前ピン状態及び後ピン状態のうち何れの状態であるかに応じて、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する被写体のデフォーカス量の大小関係は異なるものとなる。   That is, depending on whether the image captured by the image sensor 13 is in the front pin state or the rear pin state with respect to the subject, light passing through the focus lens 11 is input to the image sensor 13 for each color component. The magnitude relationship of the defocus amount of the subject to be imaged is different.

また、赤画素40Rが凸画素40RAである場合、及び、青画素40Bが凹画素40BAである場合には、撮像素子13に撮像された画像が被写体に対して前ピン状態及び後ピン状態のうち何れの状態であったとしても、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する被写体のデフォーカス量の差分は大きくなる。   In addition, when the red pixel 40R is the convex pixel 40RA and when the blue pixel 40B is the concave pixel 40BA, the image captured by the image sensor 13 is in the front pin state and the rear pin state with respect to the subject. Regardless of the state, the difference in the defocus amount of the subject that the light passing through the focus lens 11 images on the image sensor 13 for each color component becomes large.

図8には、撮像素子13に撮像される画像における被写体の一例として白黒チャートS1が示されている。また、図8では、横方向にX座標、縦方向にY座標が設定されており、X=qの位置に位置する白黒チャートS1のエッジE1がデフォーカス特徴量の算出対象として設定されている。   FIG. 8 shows a black and white chart S <b> 1 as an example of a subject in an image captured by the image sensor 13. In FIG. 8, the X coordinate is set in the horizontal direction and the Y coordinate is set in the vertical direction, and the edge E1 of the black and white chart S1 located at the position of X = q is set as the defocus feature amount calculation target. .

この場合、まず、エッジE1を横切る方向(図8ではX方向)においてRGBごとの画素値が取得される。このとき、1ピクセル行だけの画素値が取得されると、その1ピクセル行がノイズを含んでいる場合に誤った画素値が取得される虞がある。そのため、本実施形態では、以下の式(1)〜(3)に示すように、1ピクセル行の画素値がY方向にnピクセル幅に亘ってn本積算され、その積算値がnで除算された平均値が、x=qに位置するエッジE1が横切るRGBごとの画素値として取得される。   In this case, first, pixel values for each RGB are obtained in the direction crossing the edge E1 (X direction in FIG. 8). At this time, if a pixel value of only one pixel row is acquired, an erroneous pixel value may be acquired if the one pixel row includes noise. Therefore, in this embodiment, as shown in the following formulas (1) to (3), n pixel values in one pixel row are integrated over the width of n pixels in the Y direction, and the integrated value is divided by n. The average value thus obtained is acquired as a pixel value for each RGB crossed by the edge E1 located at x = q.

Figure 2016051084
Figure 2016051084

ここで、r(x,k)、g(x,k)、b(x,k)は、y方向のnピクセル幅におけるn本(k=1,2,…,n)の1ピクセル行のR画素値、G画素値、B画素値をそれぞれ示している。ただし、xは、図8に示す例ではX=qを含む所定範囲(例えば、q−Q/2≦x≦q+Q/2)を変域とする値を示している。   Here, r (x, k), g (x, k), and b (x, k) are n (k = 1, 2,..., N) one pixel row in the n pixel width in the y direction. R pixel value, G pixel value, and B pixel value are shown. In the example shown in FIG. 8, x represents a value having a predetermined range including X = q (for example, q−Q / 2 ≦ x ≦ q + Q / 2) as a domain.

続いて、以下の式(4)〜(6)に示すように、r_ave(x)、g_ave(x)、b_ave(x)について、各々の最大値及び最小値を用いて正規化することにより、各々の正規化出力が算出される。   Subsequently, by normalizing r_ave (x), g_ave (x), and b_ave (x) using respective maximum values and minimum values as shown in the following equations (4) to (6), Each normalized output is calculated.

Figure 2016051084
Figure 2016051084

ここで、xminは、エッジE1の検出対象領域EA内で画素値が最小(図8に示す例では黒領域)となるX座標値を示し、xmaxは、エッジE1の検出対象領域EA内で画素値が最大(図8に示す例では白領域)となるX座標値を示している。   Here, xmin represents an X coordinate value at which the pixel value is minimum (black area in the example shown in FIG. 8) in the detection target area EA of the edge E1, and xmax is a pixel in the detection target area EA of the edge E1. The X coordinate value having the maximum value (white area in the example shown in FIG. 8) is shown.

図9(a)には、撮像画素40が凸画素40RA及び凹画素40BAを含まずに平坦画素のみによって構成される比較例の撮像素子13において、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態である場合の、白黒チャートS1のエッジE1の近傍における各色成分の正規化出力が示されている。図9(a)に示すように、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態である場合には、青(B)、緑(G)、赤(R)の順に、白黒チャートS1のエッジE1における色成分量の勾配が次第に緩やかとなる。これは、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態である場合には、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する白黒チャートS1のエッジE1のデフォーカス量は、青(B)の光、緑(G)の光、赤(R)の光の順に次第に大きくなるためである。なお、図9(a)には、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少である状態が示されており、白黒チャートS1のエッジE1における各色成分の色成分量の勾配がほとんど相違していない。   In FIG. 9A, in the imaging element 13 of the comparative example in which the imaging pixel 40 includes only the flat pixels without including the convex pixel 40RA and the concave pixel 40BA, an image captured by the imaging element 13 is a black and white chart S1. The normalized output of each color component in the vicinity of the edge E1 of the black-and-white chart S1 in the case of the front pin state with respect to the edge E1 is shown. As shown in FIG. 9A, when the image captured by the image sensor 13 is in the front pin state with respect to the edge E1 of the black and white chart S1, blue (B), green (G), red (R ), The gradient of the color component amount at the edge E1 of the black and white chart S1 becomes gradually gentler. This is because when the image captured by the image sensor 13 is in the front pin state with respect to the edge E1 of the black and white chart S1, the black and white chart in which the light passing through the focus lens 11 is captured by the image sensor 13 for each color component. This is because the defocus amount of the edge E1 of S1 gradually increases in the order of blue (B) light, green (G) light, and red (R) light. FIG. 9A shows a state in which the defocus amount of the edge E1 of the black and white chart S1 in the image picked up by the image sensor 13 is small, and each color component at the edge E1 of the black and white chart S1 is shown. The gradient of the color component amount is almost the same.

一方、図9(b)には、撮像画素40が凸画素40RA及び凹画素40BAを含んだ本実施形態の撮像素子13において、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態である場合の、白黒チャートS1のエッジE1の近傍における各色成分の正規化出力が示されている。図9(b)に示すように、本実施形態の撮像素子13においては、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少であったとしても、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する白黒チャートS1のエッジE1のデフォーカス量の差分が大きくなる。そのため、図9(a)に示す比較例の撮像素子13を用いた場合と比較して、白黒チャートS1のエッジE1における各色成分の色成分量の勾配が大きく相違することとなる。   On the other hand, in FIG. 9B, in the imaging device 13 of the present embodiment in which the imaging pixel 40 includes the convex pixel 40RA and the concave pixel 40BA, an image captured by the imaging device 13 corresponds to the edge E1 of the black and white chart S1. The normalized output of each color component in the vicinity of the edge E1 of the black and white chart S1 in the case of the front pin state is shown. As shown in FIG. 9B, in the image sensor 13 of the present embodiment, the focus lens 11 even if the defocus amount of the edge E1 of the black and white chart S1 in the image captured by the image sensor 13 is small. The difference in the defocus amount of the edge E1 of the black and white chart S1 in which the light that has passed through the image pickup device 13 is imaged for each color component is increased. Therefore, the gradient of the color component amount of each color component at the edge E1 of the black-and-white chart S1 is greatly different from that in the case where the imaging element 13 of the comparative example shown in FIG. 9A is used.

また、図10(a)には、比較例の撮像素子13において、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態である場合の、白黒チャートS1のエッジE1の近傍における各色成分の正規化出力が示されている。図10(a)に示すように、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態である場合には、赤(R)、緑(G)、青(B)の順に、白黒チャートS1のエッジE1における色成分量の勾配が次第に緩やかとなる。これは、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態である場合には、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する白黒チャートS1のエッジE1のデフォーカス量は、赤(R)の光、緑(G)の光、青(B)の光の順に次第に大きくなるためである。なお、図10(a)には、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少である状態が示されており、白黒チャートS1のエッジE1における各色成分の色成分量の勾配がほとんど相違していない。   FIG. 10A shows the edge E1 of the black-and-white chart S1 when the image picked up by the image-capturing element 13 is in a rear pin state with respect to the edge E1 of the black-and-white chart S1. The normalized output of each color component in the vicinity of is shown. As shown in FIG. 10A, when the image picked up by the image pickup device 13 is in a rear pin state with respect to the edge E1 of the black and white chart S1, red (R), green (G), blue (B ), The gradient of the color component amount at the edge E1 of the black and white chart S1 becomes gradually gentler. This is because the image captured by the image sensor 13 is in a back-pin state with respect to the edge E1 of the black and white chart S1, and the black and white chart in which the light passing through the focus lens 11 is captured by the image sensor 13 for each color component. This is because the defocus amount of the edge E1 of S1 gradually increases in the order of red (R) light, green (G) light, and blue (B) light. FIG. 10A shows a state in which the defocus amount of the edge E1 of the black and white chart S1 in the image picked up by the image sensor 13 is small, and each color component at the edge E1 of the black and white chart S1 is shown. The gradient of the color component amount is almost the same.

一方、図10(b)には、本実施形態の撮像素子13において、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態である場合の、白黒チャートS1のエッジE1の近傍における各色成分の正規化出力が示されている。図10(b)に示すように、本実施形態の撮像素子13においては、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少であったとしても、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する白黒チャートS1のエッジE1のデフォーカス量の差分が大きくなる。そのため、図10(a)に示す比較例の撮像素子13を用いた場合と比較して、白黒チャートS1のエッジE1における各色成分の色成分量の勾配が大きく相違することとなる。   On the other hand, FIG. 10B shows the edge of the black and white chart S1 when the image picked up by the image pickup element 13 is in a back-pin state with respect to the edge E1 of the black and white chart S1. The normalized output of each color component in the vicinity of E1 is shown. As shown in FIG. 10B, in the image sensor 13 of the present embodiment, even when the defocus amount of the edge E1 of the black and white chart S1 in the image captured by the image sensor 13 is small, the focus lens 11 The difference in the defocus amount of the edge E1 of the black and white chart S1 in which the light that has passed through the image pickup device 13 is imaged for each color component is increased. Therefore, the gradient of the color component amount of each color component at the edge E1 of the black-and-white chart S1 is greatly different from that in the case where the imaging element 13 of the comparative example shown in FIG.

すなわち、図11(a)に示すように、本実施形態では、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少である場合の白黒チャートS1のエッジE1の近傍における各色成分量の勾配は、以下のようになる。撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態である場合には、赤(R)の色成分量の勾配が緑(G)の色成分量の勾配よりも小さくなる。これに対し、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態である場合には、赤(R)の色成分量の勾配が緑(G)の色成分量の勾配よりも大きくなる。そのため、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態にあるかに応じて、白黒チャートS1のエッジE1における赤(R)の色成分量の勾配と緑(G)の色成分量の勾配との大小関係が逆転する。   That is, as shown in FIG. 11A, in the present embodiment, the vicinity of the edge E1 of the black and white chart S1 when the defocus amount of the edge E1 of the black and white chart S1 in the image picked up by the image sensor 13 is small. The gradient of each color component amount at is as follows. When the image captured by the image sensor 13 is in the front pin state with respect to the edge E1 of the black and white chart S1, the gradient of the red (R) color component amount is greater than the gradient of the green (G) color component amount. Get smaller. On the other hand, when the image picked up by the image pickup device 13 is in the back-pin state with respect to the edge E1 of the black and white chart S1, the gradient of the red (R) color component amount is the green (G) color component amount. It becomes larger than the gradient. Therefore, red (R) at the edge E1 of the black and white chart S1 depends on whether the image captured by the imaging device 13 is in the front pin state or the rear pin state with respect to the edge E1 of the black and white chart S1. The magnitude relationship between the gradient of the color component amount and the gradient of the green (G) color component amount is reversed.

したがって、赤(R)の色成分量と緑(G)の色成分量とに基づくEd(以下、「EdRG」という)を閾値と比較することにより、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかについては、以下に示す式(7)、(8)に基づいて判定される。   Therefore, by comparing Ed (hereinafter referred to as “EdRG”) based on the red (R) color component amount and the green (G) color component amount with a threshold value, an image captured by the image sensor 13 is a black and white chart. Whether the state is the front pin state or the rear pin state with respect to the edge E1 of S1 is determined based on the following expressions (7) and (8).

Figure 2016051084
Figure 2016051084

ここで、Σ(R/G)は、赤(R)の色成分量を画像における同一の位置での緑(G)の色成分量で除算した値を、区間Δ1に亘って加算した総和を示している。そして、その総和を区間Δ1の長さで除算した値がEdRGとして算出される。なお、区間Δ1は、図11(a)において赤(R)の色成分量と緑(G)の色成分量とが交わる交点P1よりも右側に位置する区間のうち、緑(G)の色成分量に勾配がある区間の一部として規定される。   Here, Σ (R / G) is a sum obtained by adding the value obtained by dividing the red (R) color component amount by the green (G) color component amount at the same position in the image over the section Δ1. Show. Then, a value obtained by dividing the sum by the length of the section Δ1 is calculated as EdRG. The section Δ1 is the color of green (G) in the section located on the right side of the intersection P1 where the red (R) color component amount and the green (G) color component amount intersect in FIG. It is defined as a part of a section where the component amount has a gradient.

そして、式(7)が成立する場合には、EdRGは、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態であることを示している。一方、式(8)が成立する場合には、EdRGは、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態であることを示している。また、EdRGと閾値である「1」との差分が、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量を示している。   And when Formula (7) is materialized, EdRG has shown that the image imaged by the image pick-up element 13 is a back pin state with respect to the edge E1 of the black-and-white chart S1. On the other hand, when the formula (8) is established, EdRG indicates that the image captured by the image sensor 13 is in the front pin state with respect to the edge E1 of the black and white chart S1. Also, the difference between EdRG and the threshold value “1” indicates the defocus amount of the edge E1 of the black and white chart S1 in the image captured by the image sensor 13.

なお、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかについては、以下に示す式(9)、(10)に基づいて判定されてもよい。   It should be noted that whether the image picked up by the image pickup device 13 is in the front pin state or the rear pin state with respect to the edge E1 of the black and white chart S1 is expressed by the following equations (9) and (10). It may be determined based on.

Figure 2016051084
Figure 2016051084

ここで、Σ(R/G)は、赤(R)の色成分量を画像における同一の位置での緑(G)の色成分量で除算した値を、区間Δ2に亘って加算した総和を示している。そして、その総和を区間Δ2の長さで除算した値がEdRGとして算出される。なお、区間Δ2は、図11(a)において赤(R)の色成分量と緑(G)の色成分量とが交わる交点P1よりも左側に位置する区間のうち、緑(G)の色成分量に勾配がある区間の一部として規定される。   Here, Σ (R / G) is a sum obtained by adding the value obtained by dividing the red (R) color component amount by the green (G) color component amount at the same position in the image over the section Δ2. Show. Then, a value obtained by dividing the sum by the length of the section Δ2 is calculated as EdRG. The section Δ2 is the green (G) color in the section located on the left side of the intersection P1 where the red (R) color component amount and the green (G) color component amount intersect in FIG. It is defined as a part of a section where the component amount has a gradient.

そして、式(9)が成立する場合には、EdRGは、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態であることを示している。一方、式(10)が成立する場合には、EdRGは、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態であることを示している。また、EdRGと閾値である「1」との差分が、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量を示している。   And when Formula (9) is materialized, EdRG has shown that the image imaged by the image pick-up element 13 is a front pin state with respect to the edge E1 of the black-and-white chart S1. On the other hand, when the formula (10) is established, EdRG indicates that the image captured by the image sensor 13 is in the rear pin state with respect to the edge E1 of the black and white chart S1. Also, the difference between EdRG and the threshold value “1” indicates the defocus amount of the edge E1 of the black and white chart S1 in the image captured by the image sensor 13.

以上のように、上記の式(7)〜(10)では、赤(R)の色成分量と緑(G)の色成分量との比を用いて、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかについて判定される。ただし、赤(R)の色成分量と緑(G)の色成分量との差を用いて、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかについて判定してもよい。   As described above, in the above formulas (7) to (10), an image captured by the image sensor 13 using the ratio between the red (R) color component amount and the green (G) color component amount is obtained. It is determined which of the front pin state and the rear pin state is in relation to the edge E1 of the black and white chart S1. However, using the difference between the red (R) color component amount and the green (G) color component amount, the image picked up by the image pickup device 13 is in the front pin state and the rear pin with respect to the edge E1 of the black and white chart S1. You may determine about which state among states.

また同様に、図11(b)に示すように、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態である場合には、青(B)の色成分量の勾配が緑(G)の色成分量の勾配よりも大きくなる。これに対し、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態である場合には、青(B)の色成分量の勾配が緑(G)の色成分量の勾配よりも小さくなる。そのため、撮像素子13に撮像された画像が前ピン状態及び後ピン状態のうち何れの状態であるかに応じて、白黒チャートS1のエッジE1における青(B)の色成分量の勾配と緑(G)の色成分量の勾配との大小関係が逆転する。   Similarly, as shown in FIG. 11B, when the image captured by the image sensor 13 is in the front pin state with respect to the edge E1 of the black and white chart S1, the color component amount of blue (B) The gradient is larger than the gradient of the color component amount of green (G). On the other hand, when the image picked up by the image pickup device 13 is in the back pinned state with respect to the edge E1 of the black and white chart S1, the gradient of the blue (B) color component amount is the green (G) color component amount. It becomes smaller than the gradient. Therefore, depending on whether the image captured by the image sensor 13 is in the front pin state or the rear pin state, the gradient of the color component amount of blue (B) at the edge E1 of the black and white chart S1 and the green ( The magnitude relationship with the gradient of the color component amount of G) is reversed.

したがって、青(B)の色成分量と緑(G)の色成分量とに基づくEd(以下、「EdBG」という)を閾値と比較することにより、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかについては、以下に示す式(11)、(12)に基づいて判定される。   Therefore, by comparing Ed (hereinafter referred to as “EdBG”) based on the blue (B) color component amount and the green (G) color component amount with a threshold value, an image captured by the image sensor 13 is a black and white chart. Whether the state is the front pin state or the rear pin state with respect to the edge E1 of S1 is determined based on the following expressions (11) and (12).

Figure 2016051084
Figure 2016051084

ここで、Σ(B/G)は、青(B)の色成分量を画像における同一の位置での緑(G)の色成分量で除算した値を、区間Δ3に亘って加算した総和を示している。そして、その総和を区間Δ3の長さで除算した値がEdBGとして算出される。なお、区間Δ3は、図11(b)において青(B)の色成分量と緑(G)の色成分量とが交わる交点P2よりも右側に位置する区間のうち、緑(G)の色成分量に勾配がある区間の一部として規定される。   Here, Σ (B / G) is a sum obtained by adding a value obtained by dividing the blue (B) color component amount by the green (G) color component amount at the same position in the image over the section Δ3. Show. Then, a value obtained by dividing the sum by the length of the section Δ3 is calculated as EdBG. The section Δ3 is the green (G) color in the section located on the right side of the intersection P2 where the blue (B) color component amount and the green (G) color component amount intersect in FIG. It is defined as a part of a section where the component amount has a gradient.

そして、式(11)が成立する場合には、EdBGは、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態であることを示している。一方、式(12)が成立する場合には、EdBGは、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態であることを示している。また、EdBGと閾値である「1」との差分が、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量を示している。   And when Formula (11) is materialized, EdBG has shown that the image imaged by the image pick-up element 13 is a front pin state with respect to the edge E1 of the black-and-white chart S1. On the other hand, when the formula (12) is established, EdBG indicates that the image captured by the image sensor 13 is in a rear pin state with respect to the edge E1 of the black and white chart S1. The difference between EdBG and the threshold value “1” indicates the defocus amount of the edge E1 of the black-and-white chart S1 in the image captured by the image sensor 13.

なお、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかについては、以下に示す式(13)、(14)に基づいて判定されてもよい。   It should be noted that whether the image captured by the image sensor 13 is in the front pin state or the rear pin state with respect to the edge E1 of the black and white chart S1 is expressed by the following equations (13) and (14). It may be determined based on.

Figure 2016051084
Figure 2016051084

ここで、Σ(B/G)は、青(B)の色成分量を画像における同一の位置での緑(G)の色成分量で除算した値を、区間Δ4に亘って加算した総和を示している。そして、その総和を区間Δ4の長さで除算した値がEdBGとして算出される。なお、区間Δ4は、図11(b)において青(B)の色成分量と緑(G)の色成分量とが交わる交点P2よりも左側に位置する区間のうち、緑(G)の色成分量に勾配がある区間の一部として規定される。   Here, Σ (B / G) is a sum obtained by adding the value obtained by dividing the blue (B) color component amount by the green (G) color component amount at the same position in the image over the section Δ4. Show. Then, a value obtained by dividing the sum by the length of the section Δ4 is calculated as EdBG. The section Δ4 is the green (G) color in the section located on the left side of the intersection P2 where the blue (B) color component amount and the green (G) color component amount intersect in FIG. It is defined as a part of a section where the component amount has a gradient.

そして、式(13)が成立する場合には、EdBGは、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態であることを示している。一方、式(14)が成立する場合には、EdBGは、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態であることを示している。また、EdBGと閾値である「1」との差分が、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量を示している。   And when Formula (13) is materialized, EdBG has shown that the image imaged by the image pick-up element 13 is a back pin state with respect to the edge E1 of the black-and-white chart S1. On the other hand, when the formula (14) is established, EdBG indicates that the image captured by the image sensor 13 is in the front pin state with respect to the edge E1 of the black and white chart S1. The difference between EdBG and the threshold value “1” indicates the defocus amount of the edge E1 of the black-and-white chart S1 in the image captured by the image sensor 13.

以上のように、上記の式(11)〜(14)では、青(B)の色成分量と緑(G)の色成分量との比を用いて、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかについて判定される。ただし、青(B)の色成分量と緑(G)の色成分量との差を用いて、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかについて判定してもよい。   As described above, in the above formulas (11) to (14), an image captured by the image sensor 13 using the ratio between the color component amount of blue (B) and the color component amount of green (G) is obtained. It is determined which of the front pin state and the rear pin state is in relation to the edge E1 of the black and white chart S1. However, using the difference between the color component amount of blue (B) and the color component amount of green (G), the image picked up by the image sensor 13 is in the front pin state and the back pin with respect to the edge E1 of the black and white chart S1. You may determine about which state among states.

次に、被写体における方向指標及びデフォーカス量をWdを用いて算出する原理の概要を説明する。
図12(a)及び図12(b)は、白黒チャートS1のエッジE1の近傍における赤(R)及び緑(G)の色成分量の差と、エッジE1の検出対象領域EA内におけるX軸方向での位置との関係を示すグラフである。
Next, an outline of the principle of calculating the direction index and the defocus amount in the subject using Wd will be described.
12A and 12B show the difference between the color component amounts of red (R) and green (G) in the vicinity of the edge E1 of the black and white chart S1, and the X axis in the detection target area EA of the edge E1. It is a graph which shows the relationship with the position in a direction.

図12(a)には、比較例の撮像素子13を用いた場合において、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少である状態が示されている。また、図12(a)には、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態である場合のグラフが実線で示されるとともに、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態である場合のグラフが破線で示されている。図12(a)に示すように、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかに応じて、赤(R)及び緑(G)の色成分量の差についての波形の極性(正負)が逆転する。ただし、図12(a)に示す状態では、白黒チャートS1のエッジE1の近傍における赤(R)及び緑(G)の色成分量の差が小さい。そのため、赤(R)及び緑(G)の色成分量の差についての波形は、赤(R)及び緑(G)の色成分量を検出する際に生じる誤差の影響を受けやすい。したがって、赤(R)及び緑(G)の色成分量の差についての波形の極性(正負)に基づいて、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかを正確に判定することは困難となる。   FIG. 12A shows a state in which the defocus amount of the edge E1 of the black and white chart S1 in the image picked up by the image pickup device 13 is small when the image pickup device 13 of the comparative example is used. Also, in FIG. 12A, a graph when the image captured by the image sensor 13 is in a back-pin state with respect to the edge E1 of the black-and-white chart S1 is indicated by a solid line, and the image captured by the image sensor 13 A graph in the case where the image is in the front pin state with respect to the edge E1 of the black and white chart S1 is indicated by a broken line. As shown in FIG. 12A, red (R) depending on whether the image captured by the image sensor 13 is in the front pin state or the rear pin state with respect to the edge E1 of the black and white chart S1. ) And green (G), the polarity (positive / negative) of the waveform for the difference in color component amount is reversed. However, in the state shown in FIG. 12A, the difference between the color component amounts of red (R) and green (G) in the vicinity of the edge E1 of the black and white chart S1 is small. Therefore, the waveform regarding the difference between the color component amounts of red (R) and green (G) is easily affected by an error that occurs when detecting the color component amounts of red (R) and green (G). Therefore, based on the polarity (positive / negative) of the waveform regarding the difference between the color component amounts of red (R) and green (G), the image picked up by the image pickup device 13 is in the front pin state with respect to the edge E1 of the black and white chart S1. And it is difficult to accurately determine which of the rear pin states.

一方、図12(b)には、本実施形態の撮像素子13を用いた場合において、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少である状態が示されている。図12(b)には、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態である場合のグラフが実線で示されるとともに、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態である場合のグラフが破線で示されている。なお、図12(b)に示す状態では、図12(a)に示す比較例の撮像素子13を用いた場合と比較して、白黒チャートS1のエッジE1の近傍における赤(R)及び緑(G)の色成分量の差が大きくなっている。そのため、赤(R)及び緑(G)の色成分量の差についての波形の極性(正負)に基づいて、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかを判定することが可能となる。   On the other hand, FIG. 12B shows a state where the defocus amount of the edge E1 of the black and white chart S1 in the image captured by the image sensor 13 is small when the image sensor 13 of the present embodiment is used. ing. In FIG. 12B, a graph in the case where the image captured by the image sensor 13 is in a back-pin state with respect to the edge E1 of the black and white chart S1 is indicated by a solid line, and the image captured by the image sensor 13 is illustrated. A graph in the case of the front pin state with respect to the edge E1 of the black and white chart S1 is indicated by a broken line. In the state shown in FIG. 12B, red (R) and green (in the vicinity of the edge E1 of the black-and-white chart S1 are compared with the case where the imaging element 13 of the comparative example shown in FIG. The difference in the color component amount of G) is large. Therefore, based on the polarity (positive / negative) of the waveform with respect to the difference between the color component amounts of red (R) and green (G), the image picked up by the image pickup device 13 is in the front pin state with respect to the edge E1 of the black and white chart S1. It is possible to determine which of the rear pin states.

また、図12(b)に示すように、Wdは、赤(R)及び緑(G)の色成分量の差の波形のピーク間距離として規定されており,以下に示す式(15)で表される。   Further, as shown in FIG. 12B, Wd is defined as the distance between peaks of the waveform of the difference between the color component amounts of red (R) and green (G), and is expressed by the following equation (15). expressed.

Figure 2016051084
Figure 2016051084

ここで、X1は、図12(b)に実線で示すグラフにおいて、赤(R)及び緑(G)の色成分量の差が最小となる位置である。一方、X2は、図12(b)に実線で示すグラフにおいて、赤(R)及び緑(G)の色成分量の差が最大となる位置である。そして、Wdの値は、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量を示している。   Here, X1 is a position where the difference between the color component amounts of red (R) and green (G) is minimized in the graph indicated by the solid line in FIG. On the other hand, X2 is a position where the difference between the color component amounts of red (R) and green (G) is maximized in the graph indicated by the solid line in FIG. The value of Wd indicates the defocus amount of the edge E1 of the black and white chart S1 in the image picked up by the image pickup device 13.

なお、赤(R)及び緑(G)の色成分量の比を用いて、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかについて判定したり、白黒チャートS1のエッジE1のデフォーカス量を算出したりしてもよい。また、比較対象となる色成分の組み合わせは、赤(R)及び緑(G)の組み合わせに限定されず、赤(R)及び青(B)の組み合わせや、緑(G)及び青(B)の組み合わせであってもよい。   Note that, using the ratio of the color component amounts of red (R) and green (G), the image captured by the image sensor 13 is in any of the front pin state and the rear pin state with respect to the edge E1 of the black and white chart S1. It may be determined whether it is in a state, or the defocus amount of the edge E1 of the black and white chart S1 may be calculated. In addition, the combination of color components to be compared is not limited to the combination of red (R) and green (G), but the combination of red (R) and blue (B), green (G) and blue (B). A combination of these may be used.

次に、被写体における方向指標及びデフォーカス量をLSFを用いて算出する原理の概要を説明する。
LSFは、画像における色成分量の広がりを表す関数の一種である。そして、図13(a)には、撮像素子13に撮像された画像が白黒チャートS1のエッジE1において合焦状態にあるLSFが示されている。また、図13(b)には、撮像素子13に撮像された画像が白黒チャートS1のエッジE1において非合焦状態にあるLSFが示されている。また、図13(c)には、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が図13(b)に示す状態よりも大きい状態のLSFが示されている。
Next, an outline of the principle of calculating the direction index and the defocus amount in the subject using the LSF will be described.
LSF is a type of function that represents the spread of color component amounts in an image. FIG. 13A shows the LSF in which the image captured by the image sensor 13 is in focus at the edge E1 of the black and white chart S1. FIG. 13B shows an LSF in which an image captured by the image sensor 13 is out of focus at the edge E1 of the black and white chart S1. FIG. 13C illustrates an LSF in a state where the defocus amount of the edge E1 of the black and white chart S1 in the image captured by the image sensor 13 is larger than the state illustrated in FIG.

図13(a)〜(c)に示すように、白黒チャートS1のエッジE1でのLSFの標準偏差σは、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が大きくなるに連れて次第に大きくなる。   As shown in FIGS. 13A to 13C, the standard deviation σ of the LSF at the edge E1 of the black and white chart S1 has a large defocus amount of the edge E1 of the black and white chart S1 in the image picked up by the image sensor 13. As it gets, it grows gradually.

図14(a)は、撮像素子13に撮像された画像が白黒チャートS1のエッジE1において合焦状態にある場合のLSFを色成分ごとに示している。図14(a)に示すように、撮像素子13に撮像された画像が白黒チャートS1のエッジE1において合焦した状態では、全ての色成分におけるLSFはシャープな波形となる。そして、これらの色成分におけるLSFの標準偏差σR,σG,σBは互いにほぼ等しい。   FIG. 14A shows the LSF for each color component when the image captured by the image sensor 13 is in focus at the edge E1 of the black and white chart S1. As shown in FIG. 14A, in the state where the image picked up by the image pickup device 13 is focused on the edge E1 of the black and white chart S1, the LSFs in all the color components have a sharp waveform. The standard deviations σR, σG, and σB of LSF in these color components are almost equal to each other.

図14(b)は、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態である場合のLSFを色成分ごとに示している。図14(b)には、比較例の撮像素子13を用いた場合において、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少である状態のLSFが破線で示されている。図14(b)に破線で示す状態では、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する白黒チャートS1のエッジE1のデフォーカス量の差分が小さいため、全ての色成分におけるLSFはほぼ同一の波形となっている。そのため、これらの色成分におけるLSFの標準偏差σR,σG,σBは互いにほぼ等しい。   FIG. 14B shows the LSF for each color component when the image picked up by the image pickup device 13 is in the front pin state with respect to the edge E1 of the black and white chart S1. In FIG. 14B, in the case where the image pickup device 13 of the comparative example is used, the LSF in a state where the defocus amount of the edge E1 of the black and white chart S1 in the image picked up by the image pickup device 13 is very small is indicated by a broken line. Has been. In the state indicated by the broken line in FIG. 14B, since the difference in the defocus amount of the edge E1 of the black and white chart S1 in which the light that has passed through the focus lens 11 is captured by the image sensor 13 for each color component is small, all the color components The LSFs have substantially the same waveform. Therefore, the standard deviations σR, σG, and σB of LSF in these color components are almost equal to each other.

また、図14(b)には、本実施形態の撮像素子13を用いた場合において、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少である状態のLSFが実線で示されている。図14(b)に実線で示す状態では、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少であったとしても、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する白黒チャートS1のエッジE1のデフォーカス量の差分が図14(b)に破線で示す状態よりも大きくなる。そのため、各色成分のLSFの標準偏差σR,σG,σBは互いに異なるものとなり、青(B)、緑(G)、赤(R)の順に次第に大きくなる。これは、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態である場合には、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する白黒チャートS1のエッジE1のデフォーカス量は、青(B)の光、緑(G)の光、赤(R)の光の順に次第に大きくなるためである。   FIG. 14B shows the LSF in a state where the defocus amount of the edge E1 of the black and white chart S1 in the image picked up by the image pickup device 13 is small when the image pickup device 13 of the present embodiment is used. It is shown with a solid line. In the state shown by the solid line in FIG. 14B, even if the defocus amount of the edge E1 of the black and white chart S1 in the image picked up by the image pickup device 13 is small, the light passing through the focus lens 11 is separated for each color component. In addition, the difference in the defocus amount of the edge E1 of the black and white chart S1 imaged on the image sensor 13 is larger than the state indicated by the broken line in FIG. Therefore, the standard deviations σR, σG, and σB of the LSF of each color component are different from each other, and gradually increase in the order of blue (B), green (G), and red (R). This is because when the image captured by the image sensor 13 is in the front pin state with respect to the edge E1 of the black and white chart S1, the black and white chart in which the light passing through the focus lens 11 is captured by the image sensor 13 for each color component. This is because the defocus amount of the edge E1 of S1 gradually increases in the order of blue (B) light, green (G) light, and red (R) light.

図14(c)は、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態である場合のLSFを色成分ごとに示している。図14(c)には、比較例の撮像素子13を用いた場合において、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少である状態のLSFが破線で示されている。図14(c)に破線で示す状態では、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する白黒チャートS1のエッジE1のデフォーカス量の差分が小さいため、全ての色成分におけるLSFはほぼ同一の波形となっている。そのため、これらの色成分におけるLSFの標準偏差σR,σG,σBは互いにほぼ等しい。   FIG. 14C shows the LSF for each color component when the image picked up by the image pickup device 13 is in a back-pin state with respect to the edge E1 of the black and white chart S1. In FIG. 14C, when the image pickup device 13 of the comparative example is used, the LSF in a state where the defocus amount of the edge E1 of the black and white chart S1 in the image picked up by the image pickup device 13 is very small is indicated by a broken line. Has been. In the state indicated by the broken line in FIG. 14C, since the difference in the defocus amount of the edge E1 of the black and white chart S1 in which the light passing through the focus lens 11 is imaged on the image sensor 13 for each color component is small, all the color components The LSFs have substantially the same waveform. Therefore, the standard deviations σR, σG, and σB of LSF in these color components are almost equal to each other.

また、図14(c)には、本実施形態の撮像素子13を用いた場合において、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少である状態のLSFが実線で示されている。図14(c)に実線で示す状態では、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少であったとしても、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する白黒チャートS1のエッジE1のデフォーカス量の差分が図14(c)に破線で示す状態よりも大きくなる。そのため、各色成分のLSFの標準偏差σR,σG,σBは互いに異なるものとなり、赤(R)、緑(G)、青(B)の順に次第に大きくなる。これは、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態である場合には、フォーカスレンズ11を通過した光が色成分ごとに撮像素子13に撮像する白黒チャートS1のエッジE1のデフォーカス量は、赤(R)の光、緑(G)の光、青(B)の光の順に次第に大きくなるためである。   FIG. 14C shows the LSF in a state where the defocus amount of the edge E1 of the black and white chart S1 in the image captured by the image sensor 13 is small when the image sensor 13 of the present embodiment is used. It is shown with a solid line. In the state indicated by the solid line in FIG. 14C, even if the defocus amount of the edge E1 of the black and white chart S1 in the image picked up by the image pickup device 13 is small, the light passing through the focus lens 11 is separated for each color component. In addition, the difference in the defocus amount of the edge E1 of the black and white chart S1 imaged on the image sensor 13 is larger than the state indicated by the broken line in FIG. Therefore, the standard deviations σR, σG, and σB of the LSF of each color component are different from each other, and gradually increase in the order of red (R), green (G), and blue (B). This is because the image captured by the image sensor 13 is in a back-pin state with respect to the edge E1 of the black and white chart S1, and the black and white chart in which the light passing through the focus lens 11 is captured by the image sensor 13 for each color component. This is because the defocus amount of the edge E1 of S1 gradually increases in the order of red (R) light, green (G) light, and blue (B) light.

すなわち、図14(b)及び図14(c)に実線で示す状態では、図14(b)及び図14(c)に破線で示す状態と比較して、各色成分のLSFの標準偏差σR,σG,σBの差分が大きくなっている。そして、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかに応じて、白黒チャートS1のエッジE1における各色成分のLSFの標準偏差の大小関係は互いに異なるものとなる。   That is, in the state indicated by the solid line in FIGS. 14B and 14C, the standard deviation σR of the LSF of each color component is compared with the state indicated by the broken line in FIGS. 14B and 14C. The difference between σG and σB is large. The LSF of each color component at the edge E1 of the black and white chart S1 depends on whether the image picked up by the image sensor 13 is in the front pin state or the rear pin state with respect to the edge E1 of the black and white chart S1. The magnitude relations of the standard deviations are different from each other.

図15は、撮像素子13に撮像された画像における白黒チャートS1のエッジE1の距離と、該エッジE1における各色のLSFの標準偏差の差との関係を示すグラフである。図15には、比較例の撮像素子13を用いた場合のグラフが破線で示されるとともに、本実施形態の撮像素子13を用いた場合のグラフが実線で示されている。   FIG. 15 is a graph showing the relationship between the distance of the edge E1 of the black and white chart S1 in the image picked up by the image pickup device 13 and the difference in standard deviation of the LSF of each color at the edge E1. In FIG. 15, a graph when the image sensor 13 of the comparative example is used is indicated by a broken line, and a graph when the image sensor 13 of the present embodiment is used is indicated by a solid line.

ここで、F1は、青(B)のLSFの標準偏差σBと、緑(G)のLSFの標準偏差σGとの差を表す関数である。そして、F1は、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態である場合には正の値となる。一方、F1は、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態である場合には負の値となる。また、F1の絶対値は、撮像素子13に撮像された画像における白黒チャートS1のエッジE1の距離が合焦位置に対応する距離から離れるに連れて次第に大きくなる。そのため、F1の絶対値は、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量を示している。   Here, F1 is a function representing the difference between the standard deviation σB of the blue (B) LSF and the standard deviation σG of the green (G) LSF. F1 is a positive value when the image picked up by the image pickup device 13 is in a rear pin state with respect to the edge E1 of the black and white chart S1. On the other hand, F1 takes a negative value when the image picked up by the image pickup device 13 is in the front pin state with respect to the edge E1 of the black and white chart S1. Further, the absolute value of F1 gradually increases as the distance of the edge E1 of the black and white chart S1 in the image picked up by the image pickup device 13 moves away from the distance corresponding to the in-focus position. Therefore, the absolute value of F1 indicates the defocus amount of the edge E1 of the black and white chart S1 in the image captured by the image sensor 13.

なお、本実施形態の撮像素子13を用いた場合には、比較例の撮像素子13を用いた場合と比較して、各色成分のLSFの標準偏差σR,σG,σBの差分が大きくなる。そのため、図15において実線で示すF1の関数のグラフは、図15において破線で示すF1の関数のグラフよりもF1の絶対値が大きくなるため、青(B)及び緑(G)のLSFの標準偏差を算出する際に生じる誤差の影響を受けにくい。したがって、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少であったとしても、図15において実線で示すF1の関数のグラフに基づいて、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかを正確に判定することが可能となる。また、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少であったとしても、図15において実線で示すF1の関数のグラフに基づいて、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量を正確に算出することが可能となる。   Note that when the image sensor 13 of the present embodiment is used, the difference between the standard deviations σR, σG, and σB of the LSF of each color component is larger than when the image sensor 13 of the comparative example is used. Therefore, the F1 function graph indicated by the solid line in FIG. 15 has a larger absolute value of F1 than the F1 function graph indicated by the broken line in FIG. 15, and therefore, the blue (B) and green (G) LSF standard Less susceptible to errors that occur when calculating deviations. Therefore, even if the defocus amount of the edge E1 of the black-and-white chart S1 in the image picked up by the image pickup device 13 is small, the image pickup device 13 picks up the image based on the graph of the function F1 indicated by the solid line in FIG. It is possible to accurately determine whether the image is in the front pin state or the rear pin state with respect to the edge E1 of the black and white chart S1. Further, even if the defocus amount of the edge E1 of the black and white chart S1 in the image captured by the image sensor 13 is small, the image is captured by the image sensor 13 based on the function graph of F1 indicated by the solid line in FIG. It is possible to accurately calculate the defocus amount of the edge E1 of the black and white chart S1 in the obtained image.

また同様に、F2は、赤(R)のLSFの標準偏差σRと、緑(G)のLSFの標準偏差σGとの差を表す関数である。そして、F2は、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して後ピン状態である場合には負の値となる。一方、F2は、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態である場合には正の値となる。また、F2の絶対値は、撮像素子13に撮像された画像における白黒チャートS1のエッジE1の距離が合焦位置に対応する距離から離れるに連れて次第に大きくなる。そのため、F1の絶対値は、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量を示している。   Similarly, F2 is a function representing the difference between the standard deviation σR of the red (R) LSF and the standard deviation σG of the green (G) LSF. F2 is a negative value when the image picked up by the image pickup device 13 is in a rear pin state with respect to the edge E1 of the black and white chart S1. On the other hand, F2 is a positive value when the image captured by the image sensor 13 is in the front pin state with respect to the edge E1 of the black and white chart S1. In addition, the absolute value of F2 gradually increases as the distance of the edge E1 of the black and white chart S1 in the image captured by the image sensor 13 increases from the distance corresponding to the in-focus position. Therefore, the absolute value of F1 indicates the defocus amount of the edge E1 of the black and white chart S1 in the image captured by the image sensor 13.

なお、本実施形態の撮像素子13を用いた場合には、比較例の撮像素子13を用いた場合と比較して、各色成分のLSFの標準偏差σR,σG,σBの差分が大きくなる。そのため、図15において実線で示すF2の関数のグラフは、図15において破線で示すF2の関数のグラフよりもF1の絶対値が大きくなるため、赤(R)及び緑(G)のLSFの標準偏差を算出する際に生じる誤差の影響を受けにくい。したがって、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少であったとしても、図15において実線で示すF2の関数のグラフに基づいて、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかを正確に判定することが可能となる。また、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が僅少であったとしても、図15において実線で示すF2の関数のグラフに基づいて、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量を正確に算出することが可能となる。   Note that when the image sensor 13 of the present embodiment is used, the difference between the standard deviations σR, σG, and σB of the LSF of each color component is larger than when the image sensor 13 of the comparative example is used. Therefore, the F2 function graph shown by the solid line in FIG. 15 has a larger absolute value of F1 than the F2 function graph shown by the broken line in FIG. 15, and therefore the red (R) and green (G) LSF standard Less susceptible to errors that occur when calculating deviations. Therefore, even if the defocus amount of the edge E1 of the black and white chart S1 in the image captured by the image sensor 13 is small, the image is captured by the image sensor 13 based on the graph of the function F2 indicated by the solid line in FIG. It is possible to accurately determine whether the image is in the front pin state or the rear pin state with respect to the edge E1 of the black and white chart S1. Further, even if the defocus amount of the edge E1 of the black and white chart S1 in the image captured by the image sensor 13 is small, the image is captured by the image sensor 13 based on the function graph of F2 indicated by the solid line in FIG. It is possible to accurately calculate the defocus amount of the edge E1 of the black and white chart S1 in the obtained image.

以上のように、エッジE1における赤(R)及び緑(G)、又は、青(B)及び緑(G)の色成分量のLSFの標準偏差の差の極性に基づいて、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかについて判定される。ただし、エッジE1における赤(R)及び青(B)のLSFの標準偏差の差の極性に基づいて、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかについて判定してもよい。また、エッジE1における各色のLSFの標準偏差の比を閾値(=「1」)と比較することにより、撮像素子13に撮像された画像が白黒チャートS1のエッジE1に対して前ピン状態及び後ピン状態のうち何れの状態であるかについて判定してもよい。   As described above, based on the polarity of the difference in the standard deviation of the LSF of the color component amounts of red (R) and green (G) or blue (B) and green (G) at the edge E1, the image sensor 13 It is determined whether the captured image is in the front pin state or the rear pin state with respect to the edge E1 of the black and white chart S1. However, based on the polarity of the difference between the standard deviations of the red (R) and blue (B) LSF at the edge E1, the image picked up by the image sensor 13 is in the front pin state and the rear with respect to the edge E1 of the black and white chart S1. It may be determined which of the pin states. Further, the ratio of the standard deviation of the LSF of each color at the edge E1 is compared with a threshold value (= “1”), whereby the image captured by the image sensor 13 is in the front pin state and the rear with respect to the edge E1 of the black and white chart S1. It may be determined which of the pin states.

また、LSFは、赤(R)、緑(G)、青(B)のうち、一つの色成分のみについて算出されてもよい。この場合、一例として、まず、エッジE1におけるLSFの値とエッジE1のデフォーカス量とを対応付けたエッジのプロファイルをデータベースに予め記憶させる。そして、撮像素子13に撮像された白黒チャートS1のエッジE1におけるLSFの値をデータベースに記憶されたエッジのプロファイルと照合することにより、撮像素子13に撮像された画像における白黒チャートS1のエッジE1のデフォーカス量が算出される。   The LSF may be calculated for only one color component among red (R), green (G), and blue (B). In this case, as an example, first, an edge profile that associates the LSF value at the edge E1 with the defocus amount of the edge E1 is stored in advance in the database. Then, by comparing the LSF value at the edge E1 of the black and white chart S1 imaged by the image sensor 13 with the profile of the edge stored in the database, the edge E1 of the black and white chart S1 in the image captured by the image sensor 13 is checked. A defocus amount is calculated.

また、被写体における方向指標及びデフォーカス量を算出する際に、LSFの標準偏差に代えて、LSFの半値幅、又は、LSFのピーク値を用いてもよい。
次に、本実施形態の画像処理エンジン14のMPU16が実行する画像生成処理ルーチンの概要を図16のフローチャートを参照しながら説明する。
Further, when calculating the direction index and the defocus amount in the subject, the half-value width of the LSF or the peak value of the LSF may be used instead of the standard deviation of the LSF.
Next, an outline of an image generation processing routine executed by the MPU 16 of the image processing engine 14 of the present embodiment will be described with reference to the flowchart of FIG.

さて、MPU16は、カメラ10が電源ON状態となると、図16に示す画像生成処理ルーチンを開始する。そして、ステップS10において、MPU16は、撮像素子13から画像信号を読み出してスルー画を生成する。   Now, when the camera 10 is turned on, the MPU 16 starts an image generation processing routine shown in FIG. In step S10, the MPU 16 reads an image signal from the image sensor 13 and generates a through image.

具体的には、図17(a)に示すように、MPU16は、撮像素子13の全ての撮像画素となる平坦画素、凸画素40RA及び凹画素40BAから読み出した画素信号に基づいてフレーム画像Fを生成し、生成したフレーム画像Fを時系列順につなぎ合わせてスルー画を生成する。そして、MPU16の表示制御部25は、生成したスルー画を撮像素子13に撮像された画像としてモニタ21に表示させる。   Specifically, as illustrated in FIG. 17A, the MPU 16 generates a frame image F based on pixel signals read from the flat pixels, the convex pixels 40RA, and the concave pixels 40BA that are all imaging pixels of the imaging element 13. Generate a through image by connecting the generated frame images F in chronological order. Then, the display control unit 25 of the MPU 16 displays the generated through image on the monitor 21 as an image captured by the image sensor 13.

なお、図17(a)に示す例では、フレーム画像Fのフレームレートが「30」に設定されている。ここで、フレームレートとは、スルー画において単位時間当たりに含まれるフレーム画像の枚数を意味している。すなわち、フレームレートは、スルー画におけるフレーム画像Fごとの時間の長さを示す指標でもあり、フレームレートが大きくなるに連れてスルー画におけるフレーム画像Fごとの時間の長さが短くなる。   In the example shown in FIG. 17A, the frame rate of the frame image F is set to “30”. Here, the frame rate means the number of frame images included per unit time in a through image. That is, the frame rate is also an index indicating the length of time for each frame image F in the through image, and the length of time for each frame image F in the through image decreases as the frame rate increases.

また、図17(b)に示すように、MPU16は、撮像素子13の平坦画素から読み出した画素信号に基づいて生成される第1フレーム画像F1と、撮像素子13の平坦画素、凸画素40RA及び凹画素40BAから読み出した画素信号に基づいて生成される第2フレーム画像F2とを時系列的につなぎ合わせてスルー画を生成してもよい。この場合、MPU16は、撮像素子13の全ての撮像画素40のうち、間引き読み出し処理によって平坦画素から選択的に画素信号を読み出すことにより第1フレーム画像F1を生成してもよい。また、MPU16は、撮像素子13の全ての撮像画素40から画素信号を読み出すものの、読み出した画素信号のうち平坦画素から読み出した画素信号のみを用いて第1フレーム画像F1を生成してもよい。なお、図17(b)に示す例では、第1フレーム画像F1及び第2フレーム画像F2の双方のフレームレートが「60」に設定されている。   Also, as shown in FIG. 17B, the MPU 16 includes a first frame image F1 generated based on the pixel signal read from the flat pixels of the image sensor 13, the flat pixels of the image sensor 13, the convex pixels 40RA, and A through image may be generated by connecting the second frame image F2 generated based on the pixel signal read from the concave pixel 40BA in time series. In this case, the MPU 16 may generate the first frame image F1 by selectively reading out the pixel signal from the flat pixels by the thinning readout process among all the imaging pixels 40 of the imaging element 13. Further, although the MPU 16 reads pixel signals from all the imaging pixels 40 of the imaging element 13, the MPU 16 may generate the first frame image F1 using only the pixel signals read from the flat pixels among the read pixel signals. In the example shown in FIG. 17B, the frame rates of both the first frame image F1 and the second frame image F2 are set to “60”.

そして次に、ステップS11において、MPU16のエッジ検出部22は、先のステップS10において生成したスルー画を微分フィルタによってスキャン(例えば、ラスタースキャン)する。その結果、スルー画における明度、彩度及び色相等の特徴量が算出される。そして、MPU16のエッジ検出部22は、算出された特徴量が大きい部分を軸上色収差の評価に適したエッジとして検出する。   Then, in step S11, the edge detection unit 22 of the MPU 16 scans the through image generated in the previous step S10 with a differential filter (for example, raster scan). As a result, feature quantities such as lightness, saturation, and hue in the through image are calculated. Then, the edge detection unit 22 of the MPU 16 detects a portion having a large calculated feature amount as an edge suitable for evaluation of axial chromatic aberration.

続いて、ステップS12において、MPU16の合焦検出部23は、先のステップS11において検出されたエッジにおける軸上色収差の評価値を算出するとともに、算出した評価値に基づいてエッジのデフォーカス特徴量を算出する。   Subsequently, in step S12, the focus detection unit 23 of the MPU 16 calculates the evaluation value of the axial chromatic aberration at the edge detected in the previous step S11, and based on the calculated evaluation value, the defocus feature value of the edge Is calculated.

より具体的には、上記のステップS11及びステップS12において、MPU16は、以下のような処理を行う。
すなわち、スルー画が図17(a)に示す例の場合には、MPU16のエッジ検出部22は、撮像素子13の平坦画素、凸画素40RA及び凹画素40BAから読み出した画素信号に基づいて生成したフレーム画像Fを微分フィルタによってスキャンすることによりエッジを検出する。そして次に、MPU16は、一例として、フレーム画像Fから検出したエッジのうち、凸画素40RAである赤画素40Rが撮像した画像部分の赤(R)の色成分量と、平坦画素である緑画素40Gが撮像した画像部分の緑(G)の色成分量とに基づいて、エッジの近傍における色成分量の正規化出力を算出する。
More specifically, in step S11 and step S12 described above, the MPU 16 performs the following process.
That is, when the through image is the example shown in FIG. 17A, the edge detection unit 22 of the MPU 16 is generated based on the pixel signals read from the flat pixels, the convex pixels 40RA, and the concave pixels 40BA of the image sensor 13. Edges are detected by scanning the frame image F with a differential filter. Next, the MPU 16, for example, among the edges detected from the frame image F, the red (R) color component amount of the image portion captured by the red pixel 40R that is the convex pixel 40RA and the green pixel that is a flat pixel. Based on the green (G) color component amount of the image portion captured by 40G, a normalized output of the color component amount in the vicinity of the edge is calculated.

また、MPU16は、フレーム画像Fから検出したエッジのうち、凹画素40BAである青画素40Bが撮像した画像部分の青(B)の色成分量と、平坦画素である緑画素40Gが撮像した画像部分の緑(G)の色成分量とに基づいて、エッジの近傍における色成分量の正規化出力を算出してもよい。   The MPU 16 also detects the blue (B) color component amount of the image portion captured by the blue pixel 40B that is the concave pixel 40BA and the image captured by the green pixel 40G that is a flat pixel among the edges detected from the frame image F. Based on the green (G) color component amount of the part, the normalized output of the color component amount in the vicinity of the edge may be calculated.

また、スルー画が図17(b)に示す例の場合には、MPU16のエッジ検出部22は、撮像素子13の平坦画素、凸画素40RA及び凹画素40BAから読み出した画素信号に基づいて生成した第2フレーム画像F2を微分フィルタによってスキャンすることによりエッジを検出する。そして次に、MPU16は、一例として、第2フレーム画像F2から検出したエッジのうち、凸画素40RAである赤画素40Rが撮像した画像部分の赤(R)の色成分量と、平坦画素である緑画素40Gが撮像した画像部分の緑(G)の色成分量とに基づいて、エッジの近傍における色成分量の正規化出力を算出する。   When the through image is the example shown in FIG. 17B, the edge detection unit 22 of the MPU 16 is generated based on the pixel signals read from the flat pixels, the convex pixels 40RA, and the concave pixels 40BA of the image sensor 13. Edges are detected by scanning the second frame image F2 with a differential filter. Next, as an example, the MPU 16 is a flat pixel and the red (R) color component amount of the image portion captured by the red pixel 40R which is the convex pixel 40RA among the edges detected from the second frame image F2. Based on the green (G) color component amount of the image portion captured by the green pixel 40G, a normalized output of the color component amount in the vicinity of the edge is calculated.

また、MPU16は、第2フレーム画像F2から検出したエッジのうち、凹画素40BAである青画素40Bが撮像した画像部分の青(B)の色成分量と、平坦画素である緑画素40Gが撮像した画像部分の緑(G)の色成分量とに基づいて、エッジの近傍における色成分量の正規化出力を算出してもよい。   Also, the MPU 16 captures the blue (B) color component amount of the image portion captured by the blue pixel 40B that is the concave pixel 40BA and the green pixel 40G that is the flat pixel among the edges detected from the second frame image F2. The normalized output of the color component amount in the vicinity of the edge may be calculated based on the green (G) color component amount of the image portion.

そして次に、ステップS13において、MPU16は、先のステップS12において算出されたエッジのデフォーカス特徴量に基づいて、フォーカスレンズ11の駆動条件を設定する。すなわち、MPU16は、エッジのデフォーカス特徴量の方向指標に基づいてフォーカスレンズ11の駆動方向を設定するとともに、エッジのデフォーカス特徴量のデフォーカス量に基づいてフォーカスレンズ11の駆動量を設定する。   Next, in step S13, the MPU 16 sets the drive condition for the focus lens 11 based on the edge defocus feature value calculated in the previous step S12. That is, the MPU 16 sets the drive direction of the focus lens 11 based on the direction index of the edge defocus feature value and sets the drive amount of the focus lens 11 based on the defocus value of the edge defocus feature value. .

具体的には、MPU16は、エッジのデフォーカス特徴量の方向指標が前ピン状態を示している場合、フォーカスレンズ11を光軸方向において撮像素子13から遠ざける方向にフォーカスレンズ11の駆動方向を設定する。すなわち、MPU16は、スルー画がエッジよりも近点側に合焦していると判断した場合には、スルー画の合焦位置をスルー画の奥行方向における無限遠側に移動させてエッジの位置に合致させるように、フォーカスレンズ11の駆動方向を設定する。   Specifically, the MPU 16 sets the drive direction of the focus lens 11 in a direction away from the image sensor 13 in the optical axis direction when the direction index of the edge defocus feature value indicates a front pin state. To do. In other words, when the MPU 16 determines that the through image is in focus closer to the near side than the edge, the MPU 16 moves the focus position of the through image to the infinity side in the depth direction of the through image to change the position of the edge. The driving direction of the focus lens 11 is set so as to match.

一方、MPU16は、エッジのデフォーカス特徴量の方向指標が後ピン状態を示している場合、フォーカスレンズ11を光軸方向において撮像素子13に近づける方向にフォーカスレンズ11の駆動方向を設定する。すなわち、MPU16は、スルー画がエッジよりも遠点側に合焦していると判断した場合には、スルー画の合焦位置をスルー画の奥行方向における至近側に移動させてエッジの位置に合致させるように、フォーカスレンズ11の駆動方向を設定する。   On the other hand, the MPU 16 sets the drive direction of the focus lens 11 in the direction in which the focus lens 11 is brought closer to the image sensor 13 in the optical axis direction when the direction index of the edge defocus feature value indicates the rear pin state. That is, when the MPU 16 determines that the through image is in focus on the far point side of the edge, the MPU 16 moves the focus position of the through image to the closest side in the depth direction of the through image to the edge position. The drive direction of the focus lens 11 is set so as to match.

また、MPU16は、エッジのデフォーカス特徴量のデフォーカス量に基づいて、フォーカスレンズ11の合焦位置を推定する。そして、MPU16は、現在のレンズ位置から推定された合焦位置に至るようにフォーカスレンズ11の駆動量を設定する。   Further, the MPU 16 estimates the in-focus position of the focus lens 11 based on the defocus amount of the edge defocus feature amount. Then, the MPU 16 sets the drive amount of the focus lens 11 so as to reach the in-focus position estimated from the current lens position.

続いて、ステップS14において、MPU16は、先のステップS13において設定された駆動条件でフォーカスレンズ11を駆動させる。その結果、フォーカスレンズ11のレンズ位置が合焦位置に移動することにより、スルー画がエッジの位置において合焦された状態となる。   Subsequently, in step S14, the MPU 16 drives the focus lens 11 under the driving conditions set in the previous step S13. As a result, when the lens position of the focus lens 11 is moved to the in-focus position, the through image is brought into focus at the edge position.

そして次に、ステップS15において、MPU16は、撮影指示信号が入力されたか否かを判定する。この撮影指示信号は、レリーズボタン31の全押し操作がなされた際に画像処理エンジン14に操作信号として入力される。なお、モニタ21がタッチパネルである場合には、モニタ21が画像の撮影のためにタッチ操作がなされた際に撮影指示信号が操作信号として画像処理エンジン14に入力される。そして、MPU16は、撮影指示信号が入力されていない(ステップS15=NO)と判定した場合、その処理をステップS10に戻し、撮影指示信号が入力されるまでステップS10〜ステップS15の処理を繰り返す。一方、MPU16は、撮影指示信号が入力された(ステップS15=YES)と判定した場合、その処理をステップS16に移行する。   Next, in step S15, the MPU 16 determines whether or not a shooting instruction signal has been input. This photographing instruction signal is input as an operation signal to the image processing engine 14 when the release button 31 is fully pressed. When the monitor 21 is a touch panel, a shooting instruction signal is input to the image processing engine 14 as an operation signal when the monitor 21 is touched for shooting an image. If the MPU 16 determines that the shooting instruction signal is not input (step S15 = NO), the MPU 16 returns the process to step S10, and repeats the processes of steps S10 to S15 until the shooting instruction signal is input. On the other hand, if the MPU 16 determines that a shooting instruction signal has been input (step S15 = YES), the MPU 16 proceeds to step S16.

そして、ステップS16において、MPU16は、凹画素40BAが撮像した被写体の画素信号を撮影画像に用いるか否かの判定基準となる、凹画素40BAにおけるシェーディング係数と絞り値との相関関係を示すグラフGR(図18参照)を不揮発性メモリ18から読み出す。   In step S16, the MPU 16 is a graph GR indicating the correlation between the shading coefficient and the aperture value in the concave pixel 40BA, which is a criterion for determining whether or not to use the pixel signal of the subject captured by the concave pixel 40BA in the captured image. (See FIG. 18) is read from the nonvolatile memory 18.

なお、凹画素40BAにおけるシェーディング係数は、フォーカスレンズ11のシェーディング係数と、凹画素40BAの画素感度と、凹画素40BAの凹み係数とが積算されることにより算出される。この場合、凹画素40BAの凹み係数は、凹画素40BAの凹み度合が大きくなるに連れて大きくなる。そのため、凹画素40BAにおけるシェーディング係数は、凹画素40BAの凹み度合が大きくなるに連れて大きくなる。すなわち、凹画素40BAにおけるシェーディング係数は、凹画素40BAの凹み度合を示す指標となっている。   The shading coefficient in the concave pixel 40BA is calculated by integrating the shading coefficient of the focus lens 11, the pixel sensitivity of the concave pixel 40BA, and the concave coefficient of the concave pixel 40BA. In this case, the dent coefficient of the concave pixel 40BA increases as the dent degree of the concave pixel 40BA increases. Therefore, the shading coefficient in the concave pixel 40BA increases as the concave degree of the concave pixel 40BA increases. That is, the shading coefficient in the concave pixel 40BA is an index indicating the degree of dent in the concave pixel 40BA.

そして、上記のグラフGRにおいては、凹画素40BAにおけるシェーディング係数が大きくなるに連れて、凹画素40BAが撮像した被写体の画像信号を撮影画像に用いるか否かの判定基準となる絞り値の大きさが次第に大きくなっている。これは、フォーカスレンズ11を通過した光のうち凹画素40BAに到達する光の比率を十分に確保するためには、凹画素40BAの凹み度合が大きくなるに連れて、絞りの開口面積を狭めることにより光の入射角度を制限する必要があるためである。   In the graph GR described above, as the shading coefficient in the concave pixel 40BA increases, the size of the aperture value that serves as a criterion for determining whether or not to use the image signal of the subject imaged by the concave pixel 40BA in the captured image. Is gradually growing. This is because the aperture area of the diaphragm is reduced as the degree of depression of the concave pixel 40BA increases in order to ensure a sufficient ratio of the light that has passed through the focus lens 11 and reaches the concave pixel 40BA. This is because it is necessary to limit the incident angle of light.

続いて、ステップS17において、MPU16は、その時点でカメラ10に設定されている凹画素40BAにおけるシェーディング係数の設定値を算出する。
具体的には、カメラ10がレンズ一体型である場合には、カメラ10に装着されているフォーカスレンズ11のシェーディング係数が固定の値となっている。そのため、固定の値であるフォーカスレンズ11のシェーディング係数に対し、凹画素40BAの画素感度と、凹画素40BAの凹み係数とが積算されることにより、凹画素40BAにおけるシェーディング係数の設定値が算出される。
Subsequently, in step S17, the MPU 16 calculates the setting value of the shading coefficient in the concave pixel 40BA set in the camera 10 at that time.
Specifically, when the camera 10 is a lens-integrated type, the shading coefficient of the focus lens 11 attached to the camera 10 has a fixed value. Therefore, by setting the pixel sensitivity of the concave pixel 40BA and the concave coefficient of the concave pixel 40BA to the shading coefficient of the focus lens 11 that is a fixed value, the setting value of the shading coefficient in the concave pixel 40BA is calculated. The

また、カメラ10がレンズ交換型である場合には、カメラ10に装着されるフォーカスレンズの種類によってフォーカスレンズ11のシェーディング係数が異なる値となる。そのため、その時点でカメラ10に装着されているフォーカスレンズ11の種類に応じたフォーカスレンズ11のシェーディング係数が不揮発性メモリ18から読み出される。そして、読み出されたフォーカスレンズ11のシェーディング係数に対し、凹画素40BAの画素感度と、凹画素40BAの凹み係数とが積算されることにより、凹画素40BAにおけるシェーディング係数の設定値が算出される。   Further, when the camera 10 is an interchangeable lens type, the shading coefficient of the focus lens 11 varies depending on the type of focus lens attached to the camera 10. Therefore, the shading coefficient of the focus lens 11 corresponding to the type of the focus lens 11 attached to the camera 10 at that time is read from the nonvolatile memory 18. Then, by adding the pixel sensitivity of the concave pixel 40BA and the concave coefficient of the concave pixel 40BA to the read shading coefficient of the focus lens 11, the setting value of the shading coefficient in the concave pixel 40BA is calculated. .

そして次に、ステップS18において、MPU16は、先のステップS17において算出されたシェーディング係数の設定値を、先のステップS16において読み出したグラフGRに算入することにより、絞り値の閾値Nを算出する。閾値Nは、凹画素40BAが撮像した被写体の画像信号を撮影画像に用いるか否かを判定する際の絞り値の基準値となっている。なお、図18には、シェーディング係数の設定値がT1である場合に算出される絞り値の閾値Nが示されている。   Next, in step S18, the MPU 16 calculates the threshold value N of the aperture value by adding the setting value of the shading coefficient calculated in the previous step S17 to the graph GR read in the previous step S16. The threshold value N is a reference value for the aperture value when determining whether or not to use the image signal of the subject imaged by the concave pixel 40BA for the captured image. FIG. 18 shows the threshold value N of the aperture value calculated when the setting value of the shading coefficient is T1.

続いて、ステップS19において、MPU16は、その時点でカメラ10に設定されている絞り値の設定値が先のステップS18において算出された絞り値の閾値N以上であるか否かを判定する。なお、図18に示す例では、MPU16は、絞り値の設定値がN1である場合には、絞り値の設定値が閾値N未満(ステップS19=NO)であると判定する一方で、絞り値の設定値がN2である場合には、絞り値の設定値が閾値N以上である(ステップS19=YES)と判定する。そして、MPU16は、絞り値の設定値が閾値N以上である(ステップS19=YES)と判定した場合には、凹画素40BAが撮像した被写体の画像信号を撮影画像に用いるのは適切であると判断した上で、その処理をステップS20に移行する。   Subsequently, in step S19, the MPU 16 determines whether or not the aperture value set in the camera 10 at that time is equal to or greater than the threshold value threshold N calculated in the previous step S18. In the example illustrated in FIG. 18, when the aperture value setting value is N1, the MPU 16 determines that the aperture value setting value is less than the threshold value N (step S19 = NO), while the aperture value is Is set to N2, it is determined that the aperture value setting value is greater than or equal to the threshold value N (step S19 = YES). When the MPU 16 determines that the aperture value setting value is equal to or greater than the threshold value N (step S19 = YES), it is appropriate to use the image signal of the subject captured by the concave pixel 40BA for the captured image. After the determination, the process proceeds to step S20.

そして、ステップS20において、MPU16の画像生成部24は、凹画素40BAを含む全ての撮像画素40(すなわち、平坦画素、凸画素40RA及び凹画素40BA)から被写体の画素信号を読み出す。   In step S20, the image generation unit 24 of the MPU 16 reads the pixel signal of the subject from all the imaging pixels 40 (that is, the flat pixel, the convex pixel 40RA, and the concave pixel 40BA) including the concave pixel 40BA.

そして次に、ステップS21において、MPU16の画像生成部24は、先のステップS20において凹画素40BA以外の撮像画素40(即ち、平坦画素及び凸画素40RA)から読み出した被写体の画素信号に対し、通常のシェーディング係数を用いたシェーディング補正処理を実行する。   Next, in step S21, the image generation unit 24 of the MPU 16 performs normal processing on the pixel signal of the subject read out from the imaging pixel 40 (that is, the flat pixel and the convex pixel 40RA) other than the concave pixel 40BA in the previous step S20. The shading correction process using the shading coefficient is executed.

続いて、ステップS22において、MPU16の画像生成部24は、先のステップS20において凹画素40BAから読み出した被写体の画素信号に対し、先のステップS17において算出された凹画素40BAにおけるシェーディング係数の設定値を用いたシェーディング補正処理を実行する。この場合、凹画素40BAにおけるシェーディング係数の設定値は、先のステップS21において用いられる通常のシェーディング係数よりも大きな値となっている。これは、フォーカスレンズ11を通過した光のうち撮像素子13に対して斜めに入射する光は、平坦画素と比較して凹画素40BAには到達しにくく、凹画素40BAから読み出した被写体の画素信号に対してシェーディング補正処理の強度を高める必要があるためである。   Subsequently, in step S22, the image generation unit 24 of the MPU 16 sets the shading coefficient setting value in the concave pixel 40BA calculated in the previous step S17 with respect to the pixel signal of the subject read from the concave pixel 40BA in the previous step S20. The shading correction process using is executed. In this case, the setting value of the shading coefficient in the concave pixel 40BA is larger than the normal shading coefficient used in the previous step S21. This is because light obliquely incident on the image sensor 13 out of light that has passed through the focus lens 11 is less likely to reach the concave pixel 40BA than the flat pixel, and the pixel signal of the subject read from the concave pixel 40BA. This is because it is necessary to increase the strength of the shading correction process.

そして次に、ステップS23において、MPU16の画像生成部24は、先のステップS20において凸画素40RA又は凹画素40BAから読み出した被写体の画素信号に対して倍率補正処理を実行した上で、その処理をステップS28に移行する。   Next, in step S23, the image generation unit 24 of the MPU 16 performs magnification correction processing on the subject pixel signal read from the convex pixel 40RA or the concave pixel 40BA in the previous step S20, and then performs the processing. Control goes to step S28.

具体的には、MPU16の画像生成部24は、凸画素40RAから読み出した被写体の画素信号に対して拡大処理を実行する。これは、凸画素40RAは、平坦画素と比較して、入射光の光軸方向における光電変換部43RAとフォーカスレンズ11との距離が小さいため、凸画素40RAに撮像される被写体の大きさが平坦画素に撮像される同一の被写体の大きさよりも小さくなるためである。   Specifically, the image generation unit 24 of the MPU 16 performs an enlargement process on the pixel signal of the subject read from the convex pixel 40RA. This is because the convex pixel 40RA has a smaller distance between the photoelectric conversion unit 43RA and the focus lens 11 in the optical axis direction of the incident light than the flat pixel, and thus the size of the subject imaged by the convex pixel 40RA is flat. This is because it is smaller than the size of the same subject imaged on the pixel.

また、MPU16の画像生成部24は、凹画素40BAから読み出した被写体の画素信号に対して縮小処理を実行する。これは、凹画素40BAは、平坦画素と比較して、入射光の光軸方向における光電変換部43BAとフォーカスレンズ11との距離が大きいため、凹画素40BAに撮像される被写体の大きさが平坦画素に撮像される同一の被写体の大きさよりも大きくなるためである。   In addition, the image generation unit 24 of the MPU 16 performs a reduction process on the pixel signal of the subject read from the concave pixel 40BA. This is because the concave pixel 40BA has a larger distance between the photoelectric conversion unit 43BA and the focus lens 11 in the optical axis direction of the incident light than the flat pixel, and thus the size of the subject imaged on the concave pixel 40BA is flat. This is because it is larger than the size of the same subject imaged on the pixel.

一方、MPU16は、絞り値の設定値が閾値N未満である(ステップS19=NO)と判定した場合には、凹画素40BAが撮像した被写体の画像データを撮影画像に用いるのは適切ではないと判断した上で、その処理をステップS24に移行する。   On the other hand, when the MPU 16 determines that the set value of the aperture value is less than the threshold value N (step S19 = NO), it is not appropriate to use the image data of the subject captured by the concave pixel 40BA for the captured image. After the determination, the process proceeds to step S24.

そして、ステップS24において、MPU16の画像生成部24は、間引き読み出し処理によって凹画素40BA以外の撮像画素40(すなわち、平坦画素及び凸画素40RA)から選択的に被写体の画素信号を読み出す。   In step S24, the image generation unit 24 of the MPU 16 selectively reads out pixel signals of the subject from the imaging pixels 40 (that is, the flat pixels and the convex pixels 40RA) other than the concave pixels 40BA by the thinning-out reading process.

なお、MPU16の画像生成部24は、凹画素40BAを含む全ての撮像画素40から被写体の画素信号を読み出すものの、凹画素40BAから読み出した被写体の画素信号については撮影画像に用いない構成としてもよい。   The image generation unit 24 of the MPU 16 may read the subject pixel signal from all the imaging pixels 40 including the concave pixel 40BA, but may not use the subject pixel signal read from the concave pixel 40BA in the captured image. .

そして次に、ステップS25において、MPU16の画像生成部24は、先のステップS24において平坦画素及び凸画素40RAから読み出した被写体の画素信号に対し、通常のシェーディング係数を用いたシェーディング補正処理を実行する。   Next, in step S25, the image generation unit 24 of the MPU 16 executes a shading correction process using a normal shading coefficient on the subject pixel signal read from the flat pixel and the convex pixel 40RA in the previous step S24. .

続いて、ステップS26において、MPU16の画像生成部24は、先のステップS24において凸画素40RAから読み出した被写体の画素信号に対して倍率補正処理として拡大処理を実行する。   Subsequently, in step S26, the image generation unit 24 of the MPU 16 performs an enlargement process as a magnification correction process on the pixel signal of the subject read from the convex pixel 40RA in the previous step S24.

そして次に、ステップS27において、MPU16の画像生成部24は、先のステップS24において平坦画素及び凸画素40RAから読み出した被写体の画素信号に対して補間処理を行うことにより、凹画素40BAに対応する撮像画素分の画素信号を補った上で、その処理をステップS28に移行する。   Next, in step S27, the image generation unit 24 of the MPU 16 performs interpolation processing on the pixel signal of the subject read from the flat pixel and the convex pixel 40RA in the previous step S24, thereby corresponding to the concave pixel 40BA. After supplementing the pixel signals for the imaging pixels, the process proceeds to step S28.

そして、ステップS28において、MPU16の画像生成部24は、先のステップS23において倍率補正処理が行われた画素信号、又は、先のステップS27において補間処理が行われた画素信号に基づいて静止画を生成し、生成した静止画を撮影画像として不揮発性メモリ18に格納する。   In step S28, the image generation unit 24 of the MPU 16 generates a still image based on the pixel signal subjected to the magnification correction process in the previous step S23 or the pixel signal subjected to the interpolation process in the previous step S27. The generated still image is stored in the nonvolatile memory 18 as a captured image.

次に、上記のように構成されたカメラ10の作用について、特に、MPU16の合焦検出部23がスルー画におけるエッジのデフォーカス特徴量を算出する際の作用に着目して以下説明する。   Next, the operation of the camera 10 configured as described above will be described below, particularly focusing on the operation when the focus detection unit 23 of the MPU 16 calculates the edge defocus feature amount in the through image.

さて、スルー画に含まれるエッジを、凸画素40RAである赤画素40R、及び、平坦画素である緑画素40Gが撮像したとする。この場合、凸画素40RAである赤画素40Rが撮像したエッジの近傍における赤(R)の色成分量の正規化出力と、平坦画素である緑画素40Gが撮像したエッジの近傍における緑(G)の色成分量の正規化出力との差分は、赤画素40Rが平坦画素である場合と比較して大きくなる。すなわち、凸画素40RAである赤画素40Rと平坦画素である緑画素40Gとの組み合わせにより、エッジの近傍における赤(R)及び緑(G)の色成分量の正規化出力の差分が拡大される。そのため、スルー画に含まれるエッジのデフォーカス量が僅少な場合であっても、かかるエッジの近傍における赤(R)及び緑(G)の色成分量の正規化出力の差分が十分に確保される。そして、拡大された正規化出力の差分に基づいてエッジにおける軸上色収差の評価値が算出されるとともに、算出された評価値に基づいてエッジのデフォーカス特徴量が算出される。したがって、スルー画におけるエッジのデフォーカス特徴量の算出結果に応じてフォーカスレンズ11の駆動条件が設定されることにより、スルー画がエッジの部分において正確に合焦される。   Now, it is assumed that the red pixel 40R that is the convex pixel 40RA and the green pixel 40G that is a flat pixel have captured the edges included in the through image. In this case, the normalized output of the red (R) color component amount in the vicinity of the edge imaged by the red pixel 40R, which is the convex pixel 40RA, and the green (G) in the vicinity of the edge imaged by the green pixel 40G, which is a flat pixel. The difference between the color component amount and the normalized output is larger than when the red pixel 40R is a flat pixel. That is, the difference between the normalized output of the red (R) and green (G) color component amounts in the vicinity of the edge is expanded by the combination of the red pixel 40R as the convex pixel 40RA and the green pixel 40G as the flat pixel. . Therefore, even when the defocus amount of the edge included in the through image is small, a sufficient difference between the normalized output of the red (R) and green (G) color component amounts in the vicinity of the edge is ensured. The Then, an evaluation value of axial chromatic aberration at the edge is calculated based on the difference between the enlarged normalized outputs, and an edge defocus feature value is calculated based on the calculated evaluation value. Therefore, the driving condition of the focus lens 11 is set according to the calculation result of the edge defocus feature amount in the through image, so that the through image is accurately focused on the edge portion.

また同様に、スルー画に含まれるエッジを、凹画素40BAである青画素40B、及び、平坦画素である緑画素40Gが撮像したとする。この場合、凹画素40BAである青画素40Bが撮像したエッジの近傍における青(B)の色成分量の正規化出力と、平坦画素である緑画素40Gが撮像したエッジの近傍における緑(G)の色成分量の正規化出力との差分は、青画素40Bが平坦画素である場合と比較して大きくなる。すなわち、青画素40Bである青画素40Bと平坦画素である緑画素40Gとの組み合わせにより、エッジの近傍における青(B)及び緑(G)の色成分量の正規化出力の差分が拡大される。そのため、スルー画に含まれるエッジのデフォーカス量が僅少な場合であっても、かかるエッジの近傍における青(B)及び緑(G)の色成分量の正規化出力の差分が十分に確保される。そして、拡大された正規化出力の差分に基づいてエッジにおける軸上色収差の評価値が算出されるとともに、算出された評価値に基づいてエッジのデフォーカス特徴量が算出される。したがって、スルー画におけるエッジのデフォーカス特徴量の算出結果に応じてフォーカスレンズ11の駆動条件が設定されることにより、スルー画がエッジの部分において正確に合焦される。   Similarly, it is assumed that the blue pixel 40B, which is the concave pixel 40BA, and the green pixel 40G, which is the flat pixel, capture an edge included in the through image. In this case, the normalized output of the blue (B) color component amount in the vicinity of the edge imaged by the blue pixel 40B as the concave pixel 40BA and the green (G) in the vicinity of the edge imaged by the green pixel 40G as the flat pixel. The difference between the color component amount and the normalized output is larger than when the blue pixel 40B is a flat pixel. That is, by combining the blue pixel 40B, which is the blue pixel 40B, and the green pixel 40G, which is a flat pixel, the difference between the normalized output of the blue (B) and green (G) color component amounts in the vicinity of the edge is expanded. . Therefore, even when the defocus amount of the edge included in the through image is small, a sufficient difference between the normalized output of the blue (B) and green (G) color component amounts in the vicinity of the edge is ensured. The Then, an evaluation value of axial chromatic aberration at the edge is calculated based on the difference between the enlarged normalized outputs, and an edge defocus feature value is calculated based on the calculated evaluation value. Therefore, the driving condition of the focus lens 11 is set according to the calculation result of the edge defocus feature amount in the through image, so that the through image is accurately focused on the edge portion.

特に、本実施形態では、スルー画に含まれるフレーム画像のうち少なくとも一部のフレーム画像は、凸画素40RAである赤画素40R又は凹画素40BAである青画素40Bが撮像した画像部分と、平坦画素である緑画素40Gが撮像した画像部分とを含んでいる。そのため、かかるフレーム画像から検出されたエッジの近傍における赤(R)及び緑(G)の色成分量の正規化出力の差分、又は、青(B)及び緑(G)の色成分量の正規化出力の差分が拡大された状態で、スルー画におけるエッジの軸上色収差の評価値が随時算出される。したがって、この評価値に基づいてスルー画におけるエッジのデフォーカス特徴量を随時算出し、このデフォーカス特徴量の算出結果に応じてフォーカスレンズ11の駆動条件を更新することにより、スルー画をエッジの部分において継続して正確に合焦させることが可能となる。   In particular, in the present embodiment, at least some of the frame images included in the through image include an image portion captured by the red pixel 40R that is the convex pixel 40RA or the blue pixel 40B that is the concave pixel 40BA, and a flat pixel. And the image portion captured by the green pixel 40G. Therefore, the difference between the normalized output of the red (R) and green (G) color component amounts in the vicinity of the edge detected from the frame image, or the normal of the blue (B) and green (G) color component amounts. The evaluation value of the axial chromatic aberration of the edge in the through image is calculated as needed in the state where the difference in the digitized output is enlarged. Accordingly, the defocus feature amount of the edge in the through image is calculated as needed based on the evaluation value, and the driving condition of the focus lens 11 is updated according to the calculation result of the defocus feature amount. It becomes possible to continuously focus accurately in the portion.

上記第1の実施形態によれば、以下に示す効果を得ることができる。
(1)デフォーカス量が僅少であって合焦状態の検出に適さないエッジであったとしても、このようなエッジにおける色成分同士の色成分量の差が拡大されることにより、エッジの色成分同士の色成分量の差又は比の大きさが十分に確保される。そして、このようなエッジの色成分同士の色成分量の差又は比に基づいて、エッジの合焦状態を正確に検出することができる。
According to the first embodiment, the following effects can be obtained.
(1) Even if the defocus amount is small and the edge is not suitable for the detection of the in-focus state, the difference in the color component amount between the color components at such an edge is enlarged, so that the color of the edge A sufficient difference in color component amount or ratio between components is ensured. Then, based on the difference or ratio of the color component amounts between the edge color components, the in-focus state of the edge can be accurately detected.

(2)相対的に長波長側の色成分の入射光が入射される撮像画素の光電変換面と、相対的に短波長側の色成分の入射光が入射される撮像画素の光電変換面との入射光の光軸方向における位置を異ならせることにより、合焦状態を検出する際の比較対象となるエッジの色成分同士の色成分量の差を拡大させる構成を容易に実現することができる。   (2) A photoelectric conversion surface of an imaging pixel on which incident light of a color component on a relatively long wavelength side is incident, and a photoelectric conversion surface of an imaging pixel on which incident light of a color component on a relatively short wavelength side is incident By varying the position of the incident light in the optical axis direction, it is possible to easily realize a configuration in which the difference in the color component amount between the color components of the edges to be compared is detected when the in-focus state is detected. .

(3)撮像素子13の撮像画素40は、相対的に長波長側の色成分となる赤(R)の入射光が入射される赤画素40Rのうち他の赤画素40Rと比較して入射光の光軸方向においてフォーカスレンズ11側に突出して配置される凸画素40RAを含んでいる。また、撮像素子13の撮像画素40は、相対的に短波長側の色成分となる青(B)の入射光が入射される青画素40Bのうち他の青画素40Bと比較して入射光の光軸方向においてフォーカスレンズ11とは反対側に窪んで配置される凹画素40BAを含んでいる。そのため、相対的に長波長側の色成分の入射光が入射される撮像画素の光電変換面が、相対的に短波長側の色成分の入射光が入射される撮像画素の光電変換面よりも入射光の光軸方向におけるフォーカスレンズ11側に配置される構成を容易に実現することができる。   (3) The imaging pixel 40 of the imaging device 13 has incident light compared to the other red pixels 40R among the red pixels 40R into which the incident light of red (R), which is a relatively long wavelength side color component, is incident. The convex pixel 40RA is disposed so as to protrude toward the focus lens 11 in the optical axis direction. In addition, the imaging pixel 40 of the imaging device 13 is configured to receive incident light as compared with the other blue pixels 40B among the blue pixels 40B on which incident light of blue (B), which is a relatively short wavelength side color component, is incident. It includes a concave pixel 40BA that is recessed in the direction opposite to the focus lens 11 in the optical axis direction. Therefore, the photoelectric conversion surface of the imaging pixel on which the incident light of the color component on the relatively long wavelength side is incident is more than the photoelectric conversion surface of the imaging pixel on which the incident light of the color component on the relatively short wavelength side is incident. A configuration arranged on the focus lens 11 side in the optical axis direction of incident light can be easily realized.

(4)凸画素40RA及び凹画素40BAのうち少なくとも一方が撮像した画素信号を適宜用いて撮影画像が生成される。そのため、凸画素40RA及び凹画素40BAが撮像した画素信号を用いることなく撮影画像を生成する場合と比較して、撮影画像の画素数を多く確保することができる。   (4) A captured image is generated by appropriately using a pixel signal captured by at least one of the convex pixel 40RA and the concave pixel 40BA. Therefore, it is possible to secure a larger number of pixels of the captured image compared to the case where the captured image is generated without using the pixel signal captured by the convex pixel 40RA and the concave pixel 40BA.

(5)凸画素40RA及び凹画素40BAのうち少なくとも一方が撮像した画素信号に対し、撮像素子13における他の撮像画素が撮像した画素信号とは異なる画像処理が行われた上で撮影画像が生成される。そのため、凸画素40RA及び凹画素40BAが撮像素子における他の撮像画素と比較して入射光の光軸方向における光電変換面の位置が異なることに起因して、凸画素40RA及び凹画素40BAが撮像した画素信号に誤差が生じたとしても、このような誤差を軽減する画像処理が凸画素40RA及び凹画素40BAが撮像した画素信号に対して行われる。そのため、凸画素40RA及び凹画素40BAの少なくとも一方が撮像した画素信号を用いて撮影画像を生成したとしても、撮影画像の画質が低下することを抑制できる。   (5) A captured image is generated after image processing different from pixel signals captured by other imaging pixels in the image sensor 13 is performed on pixel signals captured by at least one of the convex pixels 40RA and the concave pixels 40BA. Is done. Therefore, the convex pixel 40RA and the concave pixel 40BA are imaged due to the difference in the position of the photoelectric conversion surface in the optical axis direction of incident light compared to the other imaging pixels in the imaging element. Even if an error occurs in the pixel signal, image processing for reducing the error is performed on the pixel signal captured by the convex pixel 40RA and the concave pixel 40BA. For this reason, even if a captured image is generated using a pixel signal captured by at least one of the convex pixel 40RA and the concave pixel 40BA, it is possible to suppress degradation of the image quality of the captured image.

(6)凹画素40BAが撮像素子13における他の撮像画素と比較して入射光の光軸方向において窪んで配置されることに起因して、凹画素40BAに入射する入射光の光量が低下することがあり得る。この点、上記実施形態では、このような光量の低下を軽減する画像処理として通常とは異なるシェーディング係数を用いたシェーディング補正処理が凹画素40BAによって撮像された画素信号に対して行われる。そのため、凹画素40BAによって撮像された画素信号を用いて撮影画像を生成したとしても、撮影画像の画質が低下することを抑制できる。   (6) The amount of incident light incident on the concave pixel 40BA is reduced because the concave pixel 40BA is recessed in the optical axis direction of the incident light as compared with the other imaging pixels in the image sensor 13. It can happen. In this regard, in the above embodiment, shading correction processing using a shading coefficient different from normal is performed on the pixel signal imaged by the concave pixel 40BA as image processing for reducing such a decrease in light amount. Therefore, even if a captured image is generated using a pixel signal imaged by the concave pixel 40BA, it is possible to suppress a decrease in the image quality of the captured image.

(7)凸画素40RA及び凹画素40BAが撮像素子13における他の撮像画素と比較して入射光の光軸方向における光電変換面の位置が異なることに起因して、凸画素40RA及び凹画素40BAが撮像した画像の倍率に変化が生じることがあり得る。この点、上記実施形態では、このような倍率の変化を軽減する画像処理として倍率補正処理が凸画素40RA及び凹画素40BAによって撮像された画素信号に対して行われる。そのため、凸画素40RA及び凹画素40BAのうち少なくとも一方によって撮像された画素信号を用いて撮影画像を生成したとしても、撮影画像の画質が低下することを抑制できる。   (7) The convex pixels 40RA and the concave pixels 40BA are different from the other imaging pixels in the imaging device 13 because the positions of the photoelectric conversion surfaces in the optical axis direction of the incident light are different from each other. There may be a change in the magnification of the image picked up by. In this regard, in the above-described embodiment, the magnification correction process is performed on the pixel signals picked up by the convex pixel 40RA and the concave pixel 40BA as image processing for reducing such a change in magnification. For this reason, even when a captured image is generated using a pixel signal captured by at least one of the convex pixel 40RA and the concave pixel 40BA, it is possible to suppress degradation in the image quality of the captured image.

(8)凸画素40RA及び凹画素40BAのうち少なくとも一方を含む撮像画素が撮像した画像がスルー画としてモニタ21に表示される。そのため、凸画素40RA及び凹画素40BAのうち少なくとも一方が撮像したエッジの色成分量に基づいてエッジの合焦状態が算出されたスルー画の画像内容を、モニタ21を通じて視認することができる。   (8) An image captured by an imaging pixel including at least one of the convex pixel 40RA and the concave pixel 40BA is displayed on the monitor 21 as a through image. Therefore, the image content of the through image in which the focus state of the edge is calculated based on the color component amount of the edge captured by at least one of the convex pixel 40RA and the concave pixel 40BA can be viewed through the monitor 21.

(9)スルー画に被写体として移動体が含まれる場合に、凸画素40RA及び凹画素40BAのうち少なくとも一方が撮像した移動体のエッジの色成分量に基づいて、移動体の合焦状態を移動体の移動に追随させつつリアルタイムに正確に算出することができる。   (9) When a moving object is included in the through image, the in-focus state of the moving object is moved based on the color component amount of the edge of the moving object captured by at least one of the convex pixel 40RA and the concave pixel 40BA. It is possible to accurately calculate in real time while following the movement of the body.

(第2の実施形態)
次に、第2の実施形態について説明する。なお、第2の実施形態は、撮像素子13に入射する入射光のうち、各色の色成分の光に対応するマイクロレンズ41の焦点距離が互いに異なる点が第1の実施形態と異なる。したがって、以下の説明においては、第1の実施形態と相違する構成について主に説明し、第1の実施形態と同一又は相当する構成については同一符号を付して重複説明を省略する。
(Second Embodiment)
Next, a second embodiment will be described. Note that the second embodiment differs from the first embodiment in that the focal lengths of the microlenses 41 corresponding to the light components of the respective colors out of the incident light incident on the image sensor 13 are different from each other. Therefore, in the following description, a configuration that is different from the first embodiment will be mainly described, and a configuration that is the same as or equivalent to that of the first embodiment will be denoted by the same reference numeral, and redundant description will be omitted.

図19(a)に示すように、本実施形態では、撮像素子13は、撮像画素40を構成する赤画素40Rの一部のマイクロレンズ41RAが、他の赤画素40Rのマイクロレンズ41Rと比較して、レンズ面の曲率が小さく、赤(R)の入射光に対する焦点距離が長くなっている。   As shown in FIG. 19A, in the present embodiment, the imaging device 13 is configured such that a part of the microlens 41RA of the red pixel 40R constituting the imaging pixel 40 is compared with the microlens 41R of the other red pixel 40R. Thus, the curvature of the lens surface is small, and the focal length for red (R) incident light is long.

また、図19(b)に示すように、撮像素子13は、撮像画素40を構成する青画素40Bの一部のマイクロレンズ41BAが、他の青画素40Bのマイクロレンズ41Bと比較して、レンズ面の曲率が大きく、青(B)の入射光に対する焦点距離が短くなっている。   Further, as shown in FIG. 19B, the imaging device 13 is configured such that a part of the microlenses 41BA of the blue pixel 40B constituting the imaging pixel 40 is compared with the microlenses 41B of the other blue pixels 40B. The curvature of the surface is large, and the focal length for blue (B) incident light is short.

なお、撮像素子13は、撮像画素40を構成する赤画素40Rとして凸画素40RAを含んでおらず、全ての赤画素40Rの光電変換部43Rの光電変換面は、入射光の光軸方向における同一の位置に配置されている。また、撮像素子13は、撮像画素40を構成する青画素40Bとして凹画素40BAを含んでおらず、全ての青画素40Bの光電変換部43Bの光電変換面は、入射光の光軸方向における同一の位置に配置されている。すなわち、撮像素子13は、全ての撮像画素40の光電変換部43の光電変換面が入射光の光軸方向における同一の位置に配置されている。   The imaging element 13 does not include the convex pixel 40RA as the red pixel 40R constituting the imaging pixel 40, and the photoelectric conversion surfaces of the photoelectric conversion units 43R of all the red pixels 40R are the same in the optical axis direction of the incident light. It is arranged at the position. Further, the imaging element 13 does not include the concave pixel 40BA as the blue pixel 40B constituting the imaging pixel 40, and the photoelectric conversion surfaces of the photoelectric conversion units 43B of all the blue pixels 40B are the same in the optical axis direction of the incident light. It is arranged at the position. That is, in the imaging element 13, the photoelectric conversion surfaces of the photoelectric conversion units 43 of all the imaging pixels 40 are arranged at the same position in the optical axis direction of incident light.

図20(a)には、撮像素子13に撮像された画像が被写体に対して前ピン状態である場合に、マイクロレンズ41を通過した各色の色成分の入射光が光電変換部43に入射して被写体を撮像する状態が示されている。図20(a)に示すように、撮像素子13に撮像された画像が被写体に対して前ピン状態である場合には、マイクロレンズ41を通過した光が色成分ごとに光電変換部43に撮像する被写体のデフォーカス量は、青(B)の光、緑(G)の光、赤(R)の光の順に次第に大きくなる。   In FIG. 20A, when the image picked up by the image pickup device 13 is in the front pin state with respect to the subject, the incident light of each color component that has passed through the microlens 41 enters the photoelectric conversion unit 43. The state in which the subject is imaged is shown. As shown in FIG. 20A, when the image picked up by the image pickup device 13 is in the front pin state with respect to the subject, the light passing through the microlens 41 is picked up by the photoelectric conversion unit 43 for each color component. The defocus amount of the subject to be increased gradually in the order of blue (B) light, green (G) light, and red (R) light.

特に、本実施形態では、赤画素40Rの一部におけるマイクロレンズ41RAの曲率が、他の赤画素40Rにおけるマイクロレンズ41Rの曲率よりも小さい。そのため、赤(R)の入射光は、相対的に曲率の小さいマイクロレンズ41RAを通過する場合には、相対的に曲率の大きいマイクロレンズ41Rを通過する場合と比較して、赤画素40Rの光電変換部43Rに撮像する被写体のデフォーカス量が大きくなる。その結果、赤(R)の入射光が赤画素40Rの光電変換部43Rに撮像する被写体のデフォーカス量と、緑(G)の光が緑画素40Gの光電変換部43Gに撮像する被写体のデフォーカス量との差分は、赤(R)の入射光が相対的に曲率の大きいマイクロレンズ41Rを通過する場合と比較して大きくなる。この場合、相対的に曲率の小さいマイクロレンズ41RAを有する赤画素40Rが撮像したエッジの近傍における赤(R)の色成分量の正規化出力と、緑画素40Gが撮像したエッジの近傍における緑(G)の色成分量の正規化出力との差分は、赤画素40Rが相対的に曲率の大きいマイクロレンズ41Rを有する場合と比較して大きくなる。そのため、スルー画に含まれるエッジのデフォーカス量が僅少な場合であっても、かかるエッジの近傍における赤(R)及び緑(G)の色成分量の正規化出力の差分が十分に確保される。   In particular, in this embodiment, the curvature of the micro lens 41RA in a part of the red pixel 40R is smaller than the curvature of the micro lens 41R in the other red pixel 40R. Therefore, when the red (R) incident light passes through the microlens 41RA having a relatively small curvature, the photoelectric light of the red pixel 40R is compared with the case of passing through the microlens 41R having a relatively large curvature. The defocus amount of the subject imaged by the conversion unit 43R increases. As a result, the defocus amount of the subject imaged by the red (R) incident light on the photoelectric conversion unit 43R of the red pixel 40R, and the defocus amount of the subject imaged by the green (G) light on the photoelectric conversion unit 43G of the green pixel 40G. The difference from the focus amount is larger than when the red (R) incident light passes through the microlens 41R having a relatively large curvature. In this case, the normalized output of the red (R) color component amount in the vicinity of the edge imaged by the red pixel 40R having the micro lens 41RA having a relatively small curvature, and the green (in the vicinity of the edge imaged by the green pixel 40G) The difference between the color component amount of G) and the normalized output is larger than when the red pixel 40R has the microlens 41R having a relatively large curvature. Therefore, even when the defocus amount of the edge included in the through image is small, a sufficient difference between the normalized output of the red (R) and green (G) color component amounts in the vicinity of the edge is ensured. The

また、青画素40Bの一部のマイクロレンズ41BAが、他の青画素40Bのマイクロレンズ41Bよりもレンズ面の曲率が大きい。そのため、青(B)の入射光は、相対的に曲率の大きいマイクロレンズ41BAを通過する場合には、相対的に曲率の小さいマイクロレンズ41Bを通過する場合と比較して、青画素40Bの光電変換部43Bに撮像する被写体のデフォーカス量が小さくなる。その結果、青(B)の入射光が青画素40Bの光電変換部43Bに撮像する被写体のデフォーカス量と、緑(G)の光が緑画素40Gの光電変換部43Gに撮像する被写体のデフォーカス量との差分は、青(B)の入射光が相対的に曲率の小さいマイクロレンズ41Bを通過する場合と比較して大きくなる。この場合、相対的に曲率の大きいマイクロレンズ41BAを有する青画素40Bが撮像したエッジの近傍における青(B)の色成分量の正規化出力と、緑画素40Gが撮像したエッジの近傍における緑(G)の色成分量の正規化出力との差分は、青画素40Bが相対的に曲率の小さいマイクロレンズ41Bを有する場合と比較して大きくなる。そのため、スルー画に含まれるエッジのデフォーカス量が僅少な場合であっても、かかるエッジの近傍における青(B)及び緑(G)の色成分量の正規化出力の差分が十分に確保される。   Further, some of the microlenses 41BA of the blue pixel 40B have a larger curvature of the lens surface than the microlenses 41B of the other blue pixels 40B. For this reason, when the blue (B) incident light passes through the microlens 41BA having a relatively large curvature, the photoelectric light of the blue pixel 40B is compared with the case where it passes through the microlens 41B having a relatively small curvature. The defocus amount of the subject imaged by the conversion unit 43B is reduced. As a result, the defocus amount of the subject imaged by the blue (B) incident light on the photoelectric conversion unit 43B of the blue pixel 40B and the defocus amount of the subject imaged by the green (G) light on the photoelectric conversion unit 43G of the green pixel 40G. The difference from the focus amount is larger than when the blue (B) incident light passes through the microlens 41B having a relatively small curvature. In this case, the normalized output of the blue (B) color component amount in the vicinity of the edge imaged by the blue pixel 40B having the relatively large curvature microlens 41BA and the green (in the vicinity of the edge imaged by the green pixel 40G) The difference between the color component amount of G) and the normalized output is larger than when the blue pixel 40B has a microlens 41B having a relatively small curvature. Therefore, even when the defocus amount of the edge included in the through image is small, a sufficient difference between the normalized output of the blue (B) and green (G) color component amounts in the vicinity of the edge is ensured. The

また、図20(b)には、撮像素子13に撮像された画像が被写体に対して後ピン状態である場合に、マイクロレンズ41を通過した各色の色成分の入射光が光電変換部43に入射して被写体を撮像する状態が示されている。図20(b)に示すように、撮像素子13に撮像された画像が被写体に対して後ピン状態である場合には、マイクロレンズ41を通過した光が色成分ごとに光電変換部43に撮像する被写体のデフォーカス量は、赤(R)の光、緑(G)の光、青(B)の光の順に次第に大きくなる。   In FIG. 20B, when the image picked up by the image pickup device 13 is in a back-pin state with respect to the subject, the incident light of each color component that has passed through the microlens 41 enters the photoelectric conversion unit 43. A state in which the subject is incident and the subject is imaged is shown. As shown in FIG. 20B, when the image picked up by the image pickup device 13 is in a back-pin state with respect to the subject, the light passing through the microlens 41 is picked up by the photoelectric conversion unit 43 for each color component. The defocus amount of the subject to be increased gradually in the order of red (R) light, green (G) light, and blue (B) light.

特に、本実施形態では、赤画素40Rの一部のマイクロレンズ41RAが、他の赤画素40Rのマイクロレンズ41Rよりもレンズ面の曲率が小さい。そのため、赤(R)の入射光は、相対的に曲率の小さいマイクロレンズ41RAを通過する場合には、相対的に曲率の大きいマイクロレンズ41Rを通過する場合と比較して、赤画素40Rの光電変換部43に撮像する被写体のデフォーカス量が小さくなる。その結果、赤(R)の入射光が赤画素40Rの光電変換部43Rに撮像する被写体のデフォーカス量と、緑(G)の光が緑画素40Gの光電変換部43Gに撮像する被写体のデフォーカス量との差分は、赤(R)の入射光が相対的に曲率の大きいマイクロレンズ41Rを通過する場合と比較して大きくなる。   In particular, in the present embodiment, some of the microlenses 41RA of the red pixel 40R have a smaller curvature of the lens surface than the microlenses 41R of the other red pixels 40R. Therefore, when the red (R) incident light passes through the microlens 41RA having a relatively small curvature, the photoelectric light of the red pixel 40R is compared with the case of passing through the microlens 41R having a relatively large curvature. The defocus amount of the subject imaged by the conversion unit 43 is reduced. As a result, the defocus amount of the subject imaged by the red (R) incident light on the photoelectric conversion unit 43R of the red pixel 40R, and the defocus amount of the subject imaged by the green (G) light on the photoelectric conversion unit 43G of the green pixel 40G. The difference from the focus amount is larger than when the red (R) incident light passes through the microlens 41R having a relatively large curvature.

また、青画素40Bの一部のマイクロレンズ41BAが、他の青画素40Bのマイクロレンズ41Bと比較してレンズ面の曲率が大きい。そのため、青(B)の入射光は、相対的に曲率の大きいマイクロレンズ41BAを通過する場合には、相対的に曲率の小さいマイクロレンズ41Bを通過する場合と比較して、青画素40Bの光電変換部43Bに撮像する被写体のデフォーカス量が大きくなる。その結果、青(B)の入射光が青画素40Bの光電変換部43Bに撮像する被写体のデフォーカス量と、緑(G)の光が緑画素40Gの光電変換部43Gに撮像する被写体のデフォーカス量との差分は、青(B)の入射光が相対的に曲率の小さいマイクロレンズ41Bを通過する場合と比較して大きくなる。   Further, some of the microlenses 41BA of the blue pixel 40B have a larger curvature of the lens surface than the microlenses 41B of the other blue pixels 40B. For this reason, when the blue (B) incident light passes through the microlens 41BA having a relatively large curvature, the photoelectric light of the blue pixel 40B is compared with the case where it passes through the microlens 41B having a relatively small curvature. The defocus amount of the subject imaged by the conversion unit 43B increases. As a result, the defocus amount of the subject imaged by the blue (B) incident light on the photoelectric conversion unit 43B of the blue pixel 40B and the defocus amount of the subject imaged by the green (G) light on the photoelectric conversion unit 43G of the green pixel 40G. The difference from the focus amount is larger than when the blue (B) incident light passes through the microlens 41B having a relatively small curvature.

したがって、スルー画に含まれるエッジのデフォーカス量が僅少な場合であっても、かかるエッジの近傍における赤(R)及び緑(G)、又は、青(B)及び緑(G)の色成分量の正規化出力の差分が十分に確保される。   Therefore, even when the defocus amount of the edge included in the through image is small, red (R) and green (G) or blue (B) and green (G) color components in the vicinity of the edge. A sufficient amount of normalized output difference is secured.

上記第2の実施形態によれば、上記第1の実施形態の効果(1)に加え、以下に示す効果(10)を得ることができる。
(10)相対的に長波長側の色成分の入射光に対応するマイクロレンズ41の焦点距離と、相対的に短波長側の色成分の入射光に対応するマイクロレンズ41の焦点距離とを互いに異ならせることにより、合焦状態を検出する際の比較対象となるエッジの色成分同士の色成分量の差を拡大させる構成を容易に実現することができる。
According to the second embodiment, in addition to the effect (1) of the first embodiment, the following effect (10) can be obtained.
(10) The focal length of the microlens 41 corresponding to the incident light of the color component on the relatively long wavelength side and the focal length of the microlens 41 corresponding to the incident light of the color component on the relatively short wavelength side are mutually set. By making it different, it is possible to easily realize a configuration that enlarges the difference in the color component amount between the color components of the edges to be compared when the in-focus state is detected.

(第3の実施形態)
次に、第3の実施形態について説明する。なお、第3の実施形態は、撮像素子13を入射光の光軸方向に駆動する素子駆動部の一例としてのモータMを備えた点が第1の実施形態と異なる。したがって、以下の説明においては、第1の実施形態と相違する構成について主に説明し、第1の実施形態と同一又は相当する構成については同一符号を付して重複説明を省略する。
(Third embodiment)
Next, a third embodiment will be described. The third embodiment is different from the first embodiment in that a motor M is provided as an example of an element driving unit that drives the image sensor 13 in the optical axis direction of incident light. Therefore, in the following description, a configuration that is different from the first embodiment will be mainly described, and a configuration that is the same as or equivalent to that of the first embodiment will be denoted by the same reference numeral, and redundant description will be omitted.

さて、本実施形態では、撮像素子13は、撮像画素40を構成する赤画素40Rとして凸画素40RAを含んでおらず、全ての赤画素40Rの光電変換部43Rの光電変換面は、入射光の光軸方向における同一の位置に配置されている。また、撮像素子13は、撮像画素40を構成する青画素40Bとして凹画素40BAを含んでおらず、全ての青画素40Bの光電変換部43Bの光電変換面は、入射光の光軸方向における同一の位置に配置されている。すなわち、撮像素子13は、全ての撮像画素40の光電変換部43の光電変換面が入射光の光軸方向における同一の位置に配置されている。   In the present embodiment, the imaging device 13 does not include the convex pixel 40RA as the red pixel 40R constituting the imaging pixel 40, and the photoelectric conversion surfaces of the photoelectric conversion units 43R of all the red pixels 40R are incident light. They are arranged at the same position in the optical axis direction. Further, the imaging element 13 does not include the concave pixel 40BA as the blue pixel 40B constituting the imaging pixel 40, and the photoelectric conversion surfaces of the photoelectric conversion units 43B of all the blue pixels 40B are the same in the optical axis direction of the incident light. It is arranged at the position. That is, in the imaging element 13, the photoelectric conversion surfaces of the photoelectric conversion units 43 of all the imaging pixels 40 are arranged at the same position in the optical axis direction of incident light.

ここで、図21(a)には、上記のように構成された撮像素子13に撮像された画像が被写体に対して前ピン状態である場合に、フォーカスレンズ11を通過した入射光が被写体を撮像する際の撮像素子13の位置を入射光の色成分ごとに異ならせている状態を示している。図21(a)に示すように、撮像素子13に撮像された画像が被写体に対して前ピン状態である場合には、フォーカスレンズ11を通過した入射光が撮像素子13に撮像する被写体のデフォーカス量は、青(B)の光、緑(G)の光、赤(R)の光の順に次第に大きくなる。   Here, in FIG. 21A, when the image picked up by the image pickup device 13 configured as described above is in a front-pin state with respect to the subject, the incident light that has passed through the focus lens 11 shows the subject. A state in which the position of the image sensor 13 at the time of imaging is varied for each color component of incident light is shown. As shown in FIG. 21A, when the image picked up by the image pickup device 13 is in a front pin state with respect to the subject, incident light that has passed through the focus lens 11 is changed to the image of the subject picked up by the image pickup device 13. The amount of focus gradually increases in the order of blue (B) light, green (G) light, and red (R) light.

なお、本実施形態では、フォーカスレンズ11を通過した入射光が被写体を撮像する際には、撮像素子13がモータMから伝達される駆動力に基づいて入射光の光軸方向に駆動される。そして、MPU16の合焦検出部23は、撮像素子13が入射光の光軸方向においてフォーカスレンズ11に接近する方向に駆動されて第2位置(図21(a)では左側の位置)に配置された状態で、フォーカスレンズ11を通過した各色の入射光が撮像した被写体の画素信号のうち、赤色の画素信号を選択的に読み出す。そして、MPU16の合焦検出部23は、読み出した赤色の画素信号を被写体のデフォーカス特徴量の算出に用いる。   In the present embodiment, when the incident light that has passed through the focus lens 11 images the subject, the image sensor 13 is driven in the optical axis direction of the incident light based on the driving force transmitted from the motor M. Then, the focus detection unit 23 of the MPU 16 is arranged in the second position (the position on the left side in FIG. 21A) by driving the imaging element 13 in the direction approaching the focus lens 11 in the optical axis direction of the incident light. In this state, the red pixel signal is selectively read out of the pixel signals of the subject captured by the incident light of each color that has passed through the focus lens 11. Then, the focus detection unit 23 of the MPU 16 uses the read red pixel signal for calculation of the defocus feature amount of the subject.

この場合、赤(R)の光が撮像素子13に撮像する被写体のデフォーカス量は、撮像素子13を入射光の光軸方向に駆動させない場合よりも大きくなる。その結果、赤(R)の光が撮像素子13に撮像する被写体のデフォーカス量と、緑(G)の光が撮像素子13に撮像する被写体のデフォーカス量との差分は、撮像素子13を入射光の光軸方向に駆動させない場合と比較して大きくなる。   In this case, the defocus amount of the subject imaged by the red (R) light on the image sensor 13 is larger than when the image sensor 13 is not driven in the optical axis direction of the incident light. As a result, the difference between the defocus amount of the subject imaged by the red (R) light on the image sensor 13 and the defocus amount of the subject imaged by the green (G) light on the image sensor 13 is determined by the image sensor 13. This is larger than the case where it is not driven in the optical axis direction of the incident light.

また、MPU16の合焦検出部23は、撮像素子13が入射光の光軸方向においてフォーカスレンズ11から離間する方向に駆動されて第1位置(図21(a)では右側)に配置された状態で、フォーカスレンズ11を通過した各色の入射光が撮像した被写体の画素信号のうち、青色の画素信号を選択的に読み出す。そして、MPU16の合焦検出部23は、読み出した青色の画素信号を被写体のデフォーカス特徴量の算出に用いる。   Further, the focus detection unit 23 of the MPU 16 is disposed in the first position (right side in FIG. 21A) by driving the imaging element 13 in the direction away from the focus lens 11 in the optical axis direction of the incident light. Thus, the blue pixel signal is selectively read out of the pixel signals of the subject imaged by the incident light of each color that has passed through the focus lens 11. Then, the focus detection unit 23 of the MPU 16 uses the read blue pixel signal for calculation of the defocus feature amount of the subject.

この場合、青(B)の光が撮像素子13に撮像する被写体のデフォーカス量は、撮像素子13を入射光の光軸方向に駆動させない場合よりも小さくなる。その結果、青(B)の光が撮像素子13に撮像する被写体のデフォーカス量と、緑(G)の光が撮像素子13に撮像する被写体のデフォーカス量との差分は、撮像素子13を入射光の光軸方向に駆動させない場合と比較して大きくなる。   In this case, the defocus amount of the subject imaged by the blue (B) light on the image sensor 13 is smaller than when the image sensor 13 is not driven in the optical axis direction of the incident light. As a result, the difference between the defocus amount of the subject imaged by the blue (B) light on the image sensor 13 and the defocus amount of the object imaged by the green (G) light on the image sensor 13 is determined by the image sensor 13. This is larger than the case where it is not driven in the optical axis direction of the incident light.

図21(b)には、撮像素子13に撮像された画像が被写体に対して後ピン状態である場合に、フォーカスレンズ11を通過した入射光が被写体を撮像する際の撮像素子13の位置を入射光の色成分ごとに異ならせている状態を示している。図21(b)に示すように、撮像素子13に撮像された画像が被写体に対して後ピン状態である場合には、フォーカスレンズ11を通過した入射光が撮像素子13に撮像する被写体のデフォーカス量は、赤(R)の光、緑(G)の光、青(B)の光の順に次第に大きくなる。   FIG. 21B shows the position of the image sensor 13 when incident light that has passed through the focus lens 11 images the subject when the image captured by the image sensor 13 is in a rear-pin state with respect to the subject. A state in which the color components of the incident light are made different is shown. As shown in FIG. 21B, when the image picked up by the image pickup device 13 is in a back-pinned state with respect to the subject, the incident light that has passed through the focus lens 11 is changed to the image of the subject picked up by the image pickup device 13. The amount of focus gradually increases in the order of red (R) light, green (G) light, and blue (B) light.

なお、本実施形態では、フォーカスレンズ11を通過した入射光が被写体を撮像する際には、撮像素子13がモータMから伝達される駆動力に基づいて入射光の光軸方向に駆動される。そして、MPU16の合焦検出部23は、撮像素子13が入射光の光軸方向においてフォーカスレンズ11に接近する方向に駆動されて第2位置(図21(b)では左側)に配置された状態で、フォーカスレンズ11を通過した各色の入射光が撮像した被写体の画素信号のうち、赤色の画素信号を選択的に読み出す。そして、MPU16の合焦検出部23は、読み出した赤色の画素信号を被写体のデフォーカス特徴量の算出に用いる。   In the present embodiment, when the incident light that has passed through the focus lens 11 images the subject, the image sensor 13 is driven in the optical axis direction of the incident light based on the driving force transmitted from the motor M. Then, the focus detection unit 23 of the MPU 16 is driven in the direction in which the imaging element 13 approaches the focus lens 11 in the optical axis direction of the incident light and is disposed at the second position (left side in FIG. 21B). Thus, the red pixel signal is selectively read out from the pixel signals of the subject imaged by the incident light of each color that has passed through the focus lens 11. Then, the focus detection unit 23 of the MPU 16 uses the read red pixel signal for calculation of the defocus feature amount of the subject.

この場合、赤(R)の光が撮像素子13に撮像する被写体のデフォーカス量は、撮像素子13を入射光の光軸方向に駆動させない場合よりも小さくなる。その結果、赤(R)の光が撮像素子13に撮像する被写体のデフォーカス量と、緑(G)の光が撮像素子13に撮像する被写体のデフォーカス量との差分は、撮像素子13を入射光の光軸方向に駆動させない場合と比較して大きくなる。   In this case, the defocus amount of the subject imaged by the red (R) light on the image sensor 13 is smaller than when the image sensor 13 is not driven in the optical axis direction of the incident light. As a result, the difference between the defocus amount of the subject imaged by the red (R) light on the image sensor 13 and the defocus amount of the subject imaged by the green (G) light on the image sensor 13 is determined by the image sensor 13. This is larger than the case where it is not driven in the optical axis direction of the incident light.

また、MPU16の合焦検出部23は、撮像素子13が入射光の光軸方向においてフォーカスレンズ11から離間する方向に駆動されて第1位置(図21(b)では右側)に配置された状態で、フォーカスレンズ11を通過した各色の入射光が撮像した被写体の画素信号のうち、青色の画素信号を選択的に読み出す。そして、MPU16の合焦検出部23は、読み出した青色の画素信号を被写体のデフォーカス特徴量の算出に用いる。   In addition, the focus detection unit 23 of the MPU 16 is driven in a direction away from the focus lens 11 in the optical axis direction of the incident light and is disposed at the first position (right side in FIG. 21B). Thus, the blue pixel signal is selectively read out of the pixel signals of the subject imaged by the incident light of each color that has passed through the focus lens 11. Then, the focus detection unit 23 of the MPU 16 uses the read blue pixel signal for calculation of the defocus feature amount of the subject.

この場合、青(B)の光が撮像素子13に撮像する被写体のデフォーカス量は、撮像素子13を入射光の光軸方向に駆動させない場合よりも大きくなる。その結果、青(B)の光が撮像素子13に撮像する被写体のデフォーカス量と、緑(G)の光が撮像素子13に撮像する被写体のデフォーカス量との差分は、撮像素子13を入射光の光軸方向に駆動させない場合と比較して大きくなる。   In this case, the defocus amount of the subject imaged by the blue (B) light on the image sensor 13 is larger than when the image sensor 13 is not driven in the optical axis direction of the incident light. As a result, the difference between the defocus amount of the subject imaged by the blue (B) light on the image sensor 13 and the defocus amount of the object imaged by the green (G) light on the image sensor 13 is determined by the image sensor 13. This is larger than the case where it is not driven in the optical axis direction of the incident light.

したがって、スルー画に含まれるエッジのデフォーカス量が僅少な場合であっても、かかるエッジの近傍における赤(R)及び緑(G)、又は、青(B)及び緑(G)の色成分量の正規化出力の差分が十分に確保される。   Therefore, even when the defocus amount of the edge included in the through image is small, red (R) and green (G) or blue (B) and green (G) color components in the vicinity of the edge. A sufficient amount of normalized output difference is secured.

上記第3の実施形態によれば、上記第1の実施形態の効果(1)に加え、以下に示す効果(11)を得ることができる。
(11)相対的に長波長側の色成分の入射光が合焦状態の検出のために被写体のエッジを撮像する撮像素子13の位置と、相対的に短波長側の色成分の入射光が合焦状態の検出のために被写体のエッジを撮像する撮像素子13の位置とを互いに異ならせている。そのため、合焦状態を検出する際の比較対象となるエッジの色成分同士の色成分量の差を拡大させる構成を容易に実現することができる。
According to the third embodiment, in addition to the effect (1) of the first embodiment, the following effect (11) can be obtained.
(11) The position of the image sensor 13 that captures the edge of the subject for detecting the in-focus state of the incident light of the color component on the relatively long wavelength side, and the incident light of the color component on the relatively short wavelength side In order to detect the in-focus state, the position of the image sensor 13 that images the edge of the subject is made different from each other. Therefore, it is possible to easily realize a configuration that enlarges the difference in the color component amount between the color components of the edges to be compared when detecting the in-focus state.

(第4の実施形態)
次に、第4の実施形態について説明する。なお、第4の実施形態は、撮像素子13が複数の色成分の入射光を共通の撮像画素で電荷に変換する点が第1の実施形態と異なる。したがって、以下の説明においては、第1の実施形態と相違する構成について主に説明し、第1の実施形態と同一又は相当する構成については同一符号を付して重複説明を省略する。
(Fourth embodiment)
Next, a fourth embodiment will be described. Note that the fourth embodiment is different from the first embodiment in that the imaging element 13 converts incident light of a plurality of color components into electric charges using a common imaging pixel. Therefore, in the following description, a configuration that is different from the first embodiment will be mainly described, and a configuration that is the same as or equivalent to that of the first embodiment will be denoted by the same reference numeral, and redundant description will be omitted.

図22(a)〜(c)には、複数の色成分の入射光を電荷に変換する白画素40Wを撮像画素40として備えた撮像素子13の一例が示されている。
図22(a)に示すように、比較例の撮像素子13Rは、白画素40Wが可視光の波長領域の光を選択的に透過するカラーフィルタ42Wを有している。また、白画素40Wは、光電変換部43WB,43WG,43WRが三層に積層されている。そして、撮像素子13に入射する入射光のうち、可視光の波長領域の光がマイクロレンズ41Wによって光電変換部43WB,43WG,43WRに集光される。すなわち、光電変換部43WB,43WG,43WRに集光される光には、赤色、緑色、青色の色成分の光が含まれている。そして、各色の入射光は、各々が対応する層の光電変換部43WB,43WG,43WRにおいて電荷に変換される。具体的には、青色の色成分の光が最上層の光電変換部43WBにおいて電荷に変換されるとともに、緑色の色成分の光が中間層の光電変換部43WGにおいて電荷に変換され、更には、赤色の色成分の光が最下層の光電変換部43WRにおいて電荷に変換される。
FIGS. 22A to 22C show an example of the image sensor 13 including, as the imaging pixel 40, a white pixel 40W that converts incident light of a plurality of color components into electric charges.
As shown in FIG. 22A, the imaging element 13R of the comparative example includes a color filter 42W through which the white pixel 40W selectively transmits light in the visible light wavelength region. In the white pixel 40W, photoelectric conversion units 43WB, 43WG, and 43WR are stacked in three layers. Of the incident light incident on the image sensor 13, light in the visible wavelength region is collected by the microlens 41W onto the photoelectric conversion units 43WB, 43WG, and 43WR. That is, the light condensed on the photoelectric conversion units 43WB, 43WG, and 43WR includes red, green, and blue color component lights. The incident light of each color is converted into electric charge in the photoelectric conversion units 43WB, 43WG, and 43WR of the corresponding layers. Specifically, the blue color component light is converted into electric charge in the uppermost photoelectric conversion unit 43WB, and the green color component light is converted into electric charge in the intermediate layer photoelectric conversion unit 43WG. The light of the red color component is converted into electric charge in the lowermost photoelectric conversion unit 43WR.

これに対し、本実施形態では、図22(b)に示す例の撮像素子13Aは、比較例の撮像素子13と同様にして、白画素40Wが可視光の波長領域の光を選択的に透過するカラーフィルタ42Wを有するとともに、光電変換部43WB,43WG,43WRが三層に積層されている。そして、各色の色成分の光は、各々が対応する層の光電変換部43WB,43WG,43WRにおいて電荷に変換される。ただし、最上層の光電変換部43WBの厚みが、比較例の撮像素子13Rの場合と比較して薄くなっている。   On the other hand, in the present embodiment, the image pickup device 13A in the example shown in FIG. 22B selectively transmits light in the visible light wavelength region in the same manner as the image pickup device 13 in the comparative example. And the photoelectric conversion units 43WB, 43WG, and 43WR are stacked in three layers. The light of the color component of each color is converted into electric charge in the photoelectric conversion units 43WB, 43WG, and 43WR of the corresponding layers. However, the thickness of the uppermost photoelectric conversion unit 43WB is thinner than that of the imaging element 13R of the comparative example.

また、本実施形態では、図22(c)に示す例の撮像素子13Bは、比較例の撮像素子13Rと同様にして、白画素40Wが可視光の波長領域の光を選択的に透過するカラーフィルタ42Wを有するとともに、光電変換部43WB,43WG,43WRが三層に積層されている。そして、各色の色成分の光は、各々が対応する層の光電変換部43WB,43WG,43WRにおいて電荷に変換される。ただし、中間層の光電変換部43WGの厚みが、比較例の撮像素子13Rの場合と比較して薄くなっている。   In the present embodiment, the image sensor 13B in the example illustrated in FIG. 22C is a color in which the white pixels 40W selectively transmit light in the visible wavelength region, similarly to the image sensor 13R in the comparative example. A filter 42W is provided, and photoelectric conversion units 43WB, 43WG, and 43WR are stacked in three layers. The light of the color component of each color is converted into electric charge in the photoelectric conversion units 43WB, 43WG, and 43WR of the corresponding layers. However, the thickness of the photoelectric conversion unit 43WG of the intermediate layer is thinner than that of the imaging element 13R of the comparative example.

そして、図23(a)には、比較例の撮像素子13Rに撮像された画像が被写体に対して前ピン状態である場合に、マイクロレンズ41Wを通過した各色の色成分の入射光が光電変換部43WB,43WG,43WRに入射して被写体を撮像する状態が示されている。図23(a)に示すように、比較例の撮像素子13Rに撮像された画像が被写体に対して前ピン状態である場合には、マイクロレンズ41Wを通過した光が色成分ごとに光電変換部43WB,43WG,43WRに撮像する被写体のデフォーカス量は、青(B)の光、緑(G)の光、赤(R)の光の順に次第に大きくなる。   FIG. 23A shows photoelectric conversion of incident light of each color component that has passed through the microlens 41W when the image picked up by the image pickup device 13R of the comparative example is in the front pin state with respect to the subject. A state is shown in which light is incident on the units 43WB, 43WG, and 43WR to image a subject. As shown in FIG. 23A, when the image picked up by the image pickup device 13R of the comparative example is in the front pin state with respect to the subject, the light passing through the microlens 41W is converted into a photoelectric conversion unit for each color component. The defocus amount of the subject imaged on 43WB, 43WG, and 43WR gradually increases in the order of blue (B) light, green (G) light, and red (R) light.

これに対し、図23(b)に示すように、本実施形態では、図22(b)に示す例の撮像素子13Aは、青色の色成分の光が電荷に変換される最上層の光電変換部43WBの光電変換面が、比較例の撮像素子13Rの場合と比較して、入射光の光軸方向における射出側(マイクロレンズ41Wとは反対側)に位置している。そのため、青色の色成分の光が最上層の光電変換部43WBに撮像する被写体のデフォーカス量は、比較例の撮像素子13Rの場合と比較して小さくなる。その結果、青(B)の光が最上層の光電変換部43WBに撮像する被写体のデフォーカス量と、緑(G)の光が中間層の光電変換部43WGに撮像する被写体のデフォーカス量との差分は、比較例の撮像素子13Rの場合と比較して大きくなる。この場合、最上層の光電変換部43WBが撮像したエッジの近傍における青(B)の色成分量の正規化出力と、中間層の光電変換部43WGが撮像したエッジの近傍における緑(G)の色成分量の正規化出力との差分は、比較例の撮像素子13Rの場合と比較して大きくなる。そのため、スルー画に含まれるエッジのデフォーカス量が僅少な場合であっても、かかるエッジの近傍における青(B)及び緑(G)の色成分量の正規化出力の差分が十分に確保される。   On the other hand, as shown in FIG. 23B, in the present embodiment, the imaging device 13A in the example shown in FIG. 22B has the uppermost photoelectric conversion in which the light of the blue color component is converted into the electric charge. The photoelectric conversion surface of the portion 43WB is located on the exit side (opposite to the microlens 41W) in the optical axis direction of the incident light as compared with the imaging element 13R of the comparative example. Therefore, the defocus amount of the subject in which the light of the blue color component is imaged on the uppermost photoelectric conversion unit 43WB is smaller than that of the imaging element 13R of the comparative example. As a result, the defocus amount of the subject imaged by the blue (B) light on the uppermost photoelectric conversion unit 43WB, and the defocus amount of the subject imaged by the green (G) light on the photoelectric conversion unit 43WG of the intermediate layer Is larger than that of the imaging element 13R of the comparative example. In this case, the normalized output of the blue (B) color component amount in the vicinity of the edge imaged by the uppermost photoelectric conversion unit 43WB and the green (G) color in the vicinity of the edge imaged by the intermediate layer photoelectric conversion unit 43WG. The difference between the color component amount and the normalized output is larger than that of the imaging element 13R of the comparative example. Therefore, even when the defocus amount of the edge included in the through image is small, a sufficient difference between the normalized output of the blue (B) and green (G) color component amounts in the vicinity of the edge is ensured. The

また、図23(c)に示すように、本実施形態では、図22(c)に示す例の撮像素子13Bは、赤色の色成分の光が電荷に変換される最下層の光電変換部43WRの光電変換面が、比較例の撮像素子13Rの場合と比較して、入射光の光軸方向における入射側(マイクロレンズ41W側)に位置している。そのため、赤色の色成分の光が最下層の光電変換部43WRに撮像する被写体のデフォーカス量は、比較例の撮像素子13Rの場合と比較して大きくなる。その結果、赤(R)の光が最下層の光電変換部43WRに撮像する被写体のデフォーカス量と、緑(G)の光が中間層の光電変換部43WGに撮像する被写体のデフォーカス量との差分は、比較例の撮像素子13Rの場合と比較して大きくなる。この場合、最下層の光電変換部43WRが撮像したエッジの近傍における赤(R)の色成分量の正規化出力と、中間層の光電変換部43WGが撮像したエッジの近傍における緑(G)の色成分量の正規化出力との差分は、比較例の撮像素子13Rの場合と比較して大きくなる。そのため、スルー画に含まれるエッジのデフォーカス量が僅少な場合であっても、かかるエッジの近傍における赤(R)及び緑(G)の色成分量の正規化出力の差分が十分に確保される。   Further, as shown in FIG. 23C, in the present embodiment, the imaging device 13B in the example shown in FIG. 22C has the lowermost photoelectric conversion unit 43WR that converts red color component light into electric charge. The photoelectric conversion surface is positioned on the incident side (microlens 41W side) in the optical axis direction of the incident light as compared with the imaging element 13R of the comparative example. Therefore, the defocus amount of the subject in which the light of the red color component is imaged on the lowermost photoelectric conversion unit 43WR is larger than that in the imaging element 13R of the comparative example. As a result, the defocus amount of the subject imaged by the red (R) light on the lowermost photoelectric conversion unit 43WR and the defocus amount of the subject imaged by the green (G) light on the photoelectric conversion unit 43WG of the intermediate layer Is larger than that of the imaging element 13R of the comparative example. In this case, the normalized output of the color component amount of red (R) in the vicinity of the edge imaged by the photoelectric conversion unit 43WR in the lowermost layer and the green (G) in the vicinity of the edge imaged by the photoelectric conversion unit 43WG in the intermediate layer. The difference between the color component amount and the normalized output is larger than that of the imaging element 13R of the comparative example. Therefore, even when the defocus amount of the edge included in the through image is small, a sufficient difference between the normalized output of the red (R) and green (G) color component amounts in the vicinity of the edge is ensured. The

図24(a)には、比較例の撮像素子13Rに撮像された画像が被写体に対して後ピン状態である場合に、マイクロレンズ41Wを通過した各色の色成分の入射光が光電変換部43WB,43WG,43WRに入射して被写体を撮像する状態が示されている。図24(a)に示すように、比較例の撮像素子13Rに撮像された画像が被写体に対して後ピン状態である場合には、マイクロレンズ41Wを通過した光が色成分ごとに光電変換部43WB,43WG,43WRに撮像する被写体のデフォーカス量は、赤(R)の光、緑(G)の光、青(B)の光の順に次第に大きくなる。   In FIG. 24A, when the image picked up by the image pickup device 13R of the comparative example is in a back-pin state with respect to the subject, incident light of each color component that has passed through the microlens 41W is converted into the photoelectric conversion unit 43WB. , 43WG and 43WR are shown in a state where the subject is imaged. As shown in FIG. 24A, when the image picked up by the image pickup device 13R of the comparative example is in a back-pin state with respect to the subject, the light passing through the microlens 41W is converted into a photoelectric conversion unit for each color component. The defocus amount of the subject imaged on 43WB, 43WG, and 43WR gradually increases in the order of red (R) light, green (G) light, and blue (B) light.

これに対し、図24(b)に示すように、本実施形態では、図22(b)に示す例の撮像素子13Aは、青色の色成分の光が電荷に変換される最上層の光電変換部43WBの光電変換面が、比較例の撮像素子13Rの場合と比較して、入射光の光軸方向における射出側(マイクロレンズ41Wとは反対側)に位置している。そのため、青色の色成分の光が最上層の光電変換部43WBに撮像する被写体のデフォーカス量は、比較例の撮像素子13Rの場合と比較して大きくなる。その結果、青(B)の光が最上層の光電変換部43WBに撮像する被写体のデフォーカス量と、緑(G)の光が中間層の光電変換部43WGに撮像する被写体のデフォーカス量との差分は、比較例の撮像素子13Rの場合と比較して大きくなる。この場合、最上層の光電変換部43WBが撮像したエッジの近傍における青(B)の色成分量の正規化出力と、中間層の光電変換部43WGが撮像したエッジの近傍における緑(G)の色成分量の正規化出力との差分は、比較例の撮像素子13Rの場合と比較して大きくなる。そのため、スルー画に含まれるエッジのデフォーカス量が僅少な場合であっても、かかるエッジの近傍における青(B)及び緑(G)の色成分量の正規化出力の差分が十分に確保される。   On the other hand, as shown in FIG. 24B, in the present embodiment, the imaging device 13A in the example shown in FIG. 22B has the uppermost photoelectric conversion in which light of a blue color component is converted into electric charge. The photoelectric conversion surface of the portion 43WB is located on the exit side (opposite to the microlens 41W) in the optical axis direction of the incident light as compared with the imaging element 13R of the comparative example. Therefore, the defocus amount of the subject in which the light of the blue color component is imaged on the uppermost photoelectric conversion unit 43WB is larger than that in the imaging element 13R of the comparative example. As a result, the defocus amount of the subject imaged by the blue (B) light on the uppermost photoelectric conversion unit 43WB, and the defocus amount of the subject imaged by the green (G) light on the photoelectric conversion unit 43WG of the intermediate layer Is larger than that of the imaging element 13R of the comparative example. In this case, the normalized output of the blue (B) color component amount in the vicinity of the edge imaged by the uppermost photoelectric conversion unit 43WB and the green (G) color in the vicinity of the edge imaged by the intermediate layer photoelectric conversion unit 43WG. The difference between the color component amount and the normalized output is larger than that of the imaging element 13R of the comparative example. Therefore, even when the defocus amount of the edge included in the through image is small, a sufficient difference between the normalized output of the blue (B) and green (G) color component amounts in the vicinity of the edge is ensured. The

また、図24(c)に示すように、本実施形態では、図22(c)に示す例の撮像素子13Bは、赤色の色成分の光が電荷に変換される最下層の光電変換部43WRの光電変換面が、比較例の撮像素子13Rの場合と比較して、入射光の光軸方向における入射側(マイクロレンズ41W側)に位置している。そのため、赤色の色成分の光が最下層の光電変換部43WRに撮像する被写体のデフォーカス量は、比較例の撮像素子13Rの場合と比較して小さくなる。その結果、赤(R)の光が最下層の光電変換部43WRに撮像する被写体のデフォーカス量と、緑(G)の光が中間層の光電変換部43WGに撮像する被写体のデフォーカス量との差分は、比較例の撮像素子13Rの場合と比較して大きくなる。この場合、最下層の光電変換部43WRが撮像したエッジの近傍における赤(R)の色成分量の正規化出力と、中間層の光電変換部43WGが撮像したエッジの近傍における緑(G)の色成分量の正規化出力との差分は、比較例の撮像素子13の場合と比較して大きくなる。そのため、スルー画に含まれるエッジのデフォーカス量が僅少な場合であっても、かかるエッジの近傍における赤(R)及び緑(G)の色成分量の正規化出力の差分が十分に確保される。   In addition, as shown in FIG. 24C, in this embodiment, the imaging device 13B in the example shown in FIG. 22C has the lowermost photoelectric conversion unit 43WR that converts red color component light into electric charge. The photoelectric conversion surface is positioned on the incident side (microlens 41W side) in the optical axis direction of the incident light as compared with the imaging element 13R of the comparative example. For this reason, the defocus amount of the subject in which the light of the red color component is imaged on the photoelectric conversion unit 43WR in the lowermost layer is smaller than that in the case of the imaging element 13R of the comparative example. As a result, the defocus amount of the subject imaged by the red (R) light on the lowermost photoelectric conversion unit 43WR and the defocus amount of the subject imaged by the green (G) light on the photoelectric conversion unit 43WG of the intermediate layer Is larger than that of the imaging element 13R of the comparative example. In this case, the normalized output of the color component amount of red (R) in the vicinity of the edge imaged by the photoelectric conversion unit 43WR in the lowermost layer and the green (G) in the vicinity of the edge imaged by the photoelectric conversion unit 43WG in the intermediate layer. The difference between the color component amount and the normalized output is larger than that of the image sensor 13 of the comparative example. Therefore, even when the defocus amount of the edge included in the through image is small, a sufficient difference between the normalized output of the red (R) and green (G) color component amounts in the vicinity of the edge is ensured. The

したがって、スルー画に含まれるエッジのデフォーカス量が僅少な場合であっても、かかるエッジの近傍における赤(R)及び緑(G)、又は、青(B)及び緑(G)の色成分量の正規化出力の差分が十分に確保される。   Therefore, even when the defocus amount of the edge included in the through image is small, red (R) and green (G) or blue (B) and green (G) color components in the vicinity of the edge. A sufficient amount of normalized output difference is secured.

上記第4の実施形態によれば、上記第1の実施形態の効果(1)に加え、以下に示す効果(12)を得ることができる。
(12)相対的に長波長側の色成分の入射光が電荷に変換される光電変換面が、従来よりも入射光の光軸方向における入射側に位置している。また、相対的に短波長側の色成分の入射光が電荷に変換される光電変換面が、従来よりも入射光の光軸方向における射出側に位置している。そのため、合焦状態を検出する際の比較対象となるエッジの色成分同士の色成分量の差を拡大させる構成を容易に実現することができる。
According to the fourth embodiment, in addition to the effect (1) of the first embodiment, the following effect (12) can be obtained.
(12) The photoelectric conversion surface on which the incident light of the color component on the relatively long wavelength side is converted into electric charge is located on the incident side in the optical axis direction of the incident light as compared with the conventional case. In addition, the photoelectric conversion surface on which incident light of a color component on the relatively short wavelength side is converted into electric charge is located on the exit side in the optical axis direction of incident light as compared with the conventional case. Therefore, it is possible to easily realize a configuration that enlarges the difference in the color component amount between the color components of the edges to be compared when detecting the in-focus state.

なお、上記各実施形態は、以下のような別の実施形態に変更してもよい。
・上記第1の実施形態において、図25(a)に示すように、凸画素40RA及び凹画素40BAは、撮像素子13の撮像画素40のうち、中央及び上下左右の5つのエリアR11〜R15に位置する画素群に含まれてもよい。
In addition, you may change said each embodiment into another embodiment as follows.
In the first embodiment, as shown in FIG. 25A, the convex pixel 40RA and the concave pixel 40BA are arranged in five areas R11 to R15 in the center, the top, bottom, left, and right among the imaging pixels 40 of the imaging element 13. It may be included in the pixel group located.

・上記第1の実施形態において、図25(b)に示すように、凸画素40RA及び凹画素40BAは、撮像素子13の撮像面上に不規則に配置されてもよい。
この構成では、凸画素40RA及び凹画素40BAによって撮像された画素信号を用いて撮影画像を生成したとしても、生成された撮影画像にモアレが生じることを抑制できる。
In the first embodiment, the convex pixels 40RA and the concave pixels 40BA may be irregularly arranged on the imaging surface of the imaging element 13, as shown in FIG.
In this configuration, even if a captured image is generated using pixel signals captured by the convex pixel 40RA and the concave pixel 40BA, it is possible to suppress the occurrence of moire in the generated captured image.

・上記第2の実施形態において、マイクロレンズ41RAを含む赤画素40R、及び、マイクロレンズ41BAを含む青画素40Bが、図25(a)に示すエリアR11〜R15に位置する画素群に含まれてもよい。また、マイクロレンズ41RAを含む赤画素40R、及び、マイクロレンズ41BAを含む青画素40Bが、撮像素子13の撮像面上に不規則に配置されてもよい。   In the second embodiment, the red pixel 40R including the micro lens 41RA and the blue pixel 40B including the micro lens 41BA are included in the pixel group located in the areas R11 to R15 illustrated in FIG. Also good. In addition, the red pixel 40R including the microlens 41RA and the blue pixel 40B including the microlens 41BA may be irregularly arranged on the imaging surface of the imaging element 13.

・上記第4の実施形態において、撮像素子13は、図22(a)に示す白画素40W、図22(b)に示す白画素40W、及び、図22(c)に示す白画素40Wの少なくとも一部の組み合わせを撮像画素40として含む構成でもよい。この場合、図22(b)及び図22(c)に示す白画素40Wは、一例として、図4に示すエリアR1〜R6に位置する画素群に含まれてもよいし、図25(a)に示すエリアR11〜R15に位置する画素群に含まれてもよい。また、図22(b)及び図22(c)に示す白画素40Wは、撮像素子13の撮像面上に不規則に配置されてもよい。   In the fourth embodiment, the image sensor 13 includes at least the white pixel 40W illustrated in FIG. 22A, the white pixel 40W illustrated in FIG. 22B, and the white pixel 40W illustrated in FIG. A configuration including some combinations as the imaging pixels 40 may be used. In this case, the white pixels 40W shown in FIGS. 22B and 22C may be included in the pixel group located in the areas R1 to R6 shown in FIG. 4 as an example, or FIG. May be included in the pixel group located in the areas R11 to R15. Further, the white pixels 40W illustrated in FIGS. 22B and 22C may be irregularly arranged on the imaging surface of the imaging element 13.

・上記第1の実施形態において、撮像素子13は、凹画素40BAの凹み量が必ずしも一律である必要はなく、相対的に凹み量が小さい凹画素40BAと、相対的に凹み量が大きい凹画素40BAとを含んで構成されてもよい。また同様に、撮像素子13は、凸画素40RAの突出量が必ずしも一律である必要はなく、相対的に突出量が小さい凸画素40RAと、相対的に突出量が大きい凸画素40RAとを含んで構成されてもよい。   In the first embodiment, the imaging element 13 does not necessarily have a uniform amount of depression of the concave pixel 40BA. The concave pixel 40BA having a relatively small amount of depression and a concave pixel having a relatively large amount of depression. 40BA may be included. Similarly, the imaging element 13 does not necessarily have a uniform protruding amount of the convex pixel 40RA, and includes a protruding pixel 40RA having a relatively small protruding amount and a protruding pixel 40RA having a relatively large protruding amount. It may be configured.

・上記第1の実施形態において、MPU16の画像生成部24は、撮像素子13に撮像されている被写体の輝度が所定の閾値以上である場合に、凹画素40BAが撮像した被写体の画素信号を用いることなく撮影画像を生成してもよい、これは、被写体の輝度が高いと、光強度の大きい入射光が入射してフレアやゴーストを発生した場合に、入射光が意図しない角度から撮像素子13に入射することにより、凹画素40BAには凸画素40RAや平坦画素と比較して入射光が入射し難くなるためである。   In the first embodiment, the image generation unit 24 of the MPU 16 uses the pixel signal of the subject imaged by the concave pixel 40BA when the luminance of the subject imaged by the image sensor 13 is equal to or higher than a predetermined threshold. In this case, when the luminance of the subject is high, incident light with high light intensity is incident and flare or ghost is generated, so that the imaging element 13 is viewed from an angle where the incident light is not intended. This is because incident light is less likely to enter the concave pixel 40BA than the convex pixel 40RA and the flat pixel.

・上記第1の実施形態において、MPU16の画像生成部24は、凹画素40BAが撮像した被写体の画素信号を撮影画像に用いるか否かについて、判定処理を伴うことなく初期設定で予め設定してもよい。   In the first embodiment, the image generation unit 24 of the MPU 16 presets whether or not the pixel signal of the subject imaged by the concave pixel 40BA is used for the captured image as an initial setting without a determination process. Also good.

・上記第1の実施形態において、MPU16の画像生成部24は、凸画素40RA又は凹画素40BAから読み出した画素信号に対して倍率補正処理を行うことなく、凸画素40RA又は凹画素40BAから読み出した画素信号を用いて撮影画像を生成してもよい。   In the first embodiment, the image generation unit 24 of the MPU 16 reads the pixel signal read from the convex pixel 40RA or the concave pixel 40BA without performing the magnification correction process on the pixel signal. A captured image may be generated using a pixel signal.

・上記第1の実施形態において、MPU16の画像生成部24は、平坦画素から読み出した画素信号、及び、凸画素40RA又は凹画素40BAから読み出した画素信号に対し、共通のシェーディング係数を用いてシェーディング補正処理を行ってもよい。   In the first embodiment, the image generation unit 24 of the MPU 16 performs shading using a common shading coefficient for the pixel signal read from the flat pixel and the pixel signal read from the convex pixel 40RA or the concave pixel 40BA. Correction processing may be performed.

・上記第1の実施形態において、MPU16の画像生成部24は、凸画素40RA又は凹画素40BAから画素信号を読み出すことなく、平坦画素から読み出した画素信号に基づいて生成されたフレーム画像によりスルー画を構成してもよい。そして、MPU16の表示制御部25は、凸画素40RA又は凹画素40BAから読み出した画素信号を用いて生成されるフレーム画像を含まないスルー画をモニタ21に表示させてもよい。   In the first embodiment, the image generation unit 24 of the MPU 16 does not read out the pixel signal from the convex pixel 40RA or the concave pixel 40BA, and the through image is generated from the frame image generated based on the pixel signal read from the flat pixel. May be configured. Then, the display control unit 25 of the MPU 16 may cause the monitor 21 to display a through image that does not include a frame image generated using the pixel signal read from the convex pixel 40RA or the concave pixel 40BA.

この場合、MPU16の画像生成部24は、まず、モニタ21に表示されるスルー画とは別に、凸画素40RA又は凹画素40BAを含む撮像画素40から読み出した画素信号に基づいて評価用画像を生成する。続いて、MPU16の合焦検出部23は、評価用画像から検出したエッジにおける軸上色収差の評価値を算出する。その結果、MPU16の合焦検出部23は、算出された評価値に基づいて、評価用画像におけるエッジのデフォーカス特徴量をスルー画におけるエッジのデフォーカス特徴量として算出することができる。   In this case, the image generation unit 24 of the MPU 16 first generates an evaluation image based on the pixel signal read from the imaging pixel 40 including the convex pixel 40RA or the concave pixel 40BA, separately from the through image displayed on the monitor 21. To do. Subsequently, the focus detection unit 23 of the MPU 16 calculates an evaluation value of axial chromatic aberration at the edge detected from the evaluation image. As a result, the focus detection unit 23 of the MPU 16 can calculate the edge defocus feature value in the evaluation image as the edge defocus feature value in the through image based on the calculated evaluation value.

・上記第1の実施形態において、撮像素子13は、凸画素40RA及び凹画素40BAの一方のみを撮像画素40として有する構成であってもよい。
・上記第2の実施形態において、撮像素子13は、撮像画素40を構成する赤画素40Rとして凸画素40RAを含むとともに、撮像画素40を構成する青画素40Bとして凹画素40BAを含んだ構成であってもよい。そして、凸画素40RAのマイクロレンズ41Rが、他の赤画素40Rのマイクロレンズ41Rよりもレンズ面の曲率が小さい構成であってもよい。また、凹画素40BAのマイクロレンズ41Bが、他の青画素40Bのマイクロレンズ41Bよりもレンズ面の曲率が大きい構成であってもよい。
In the first embodiment, the image sensor 13 may have a configuration having only one of the convex pixel 40RA and the concave pixel 40BA as the imaging pixel 40.
In the second embodiment, the imaging element 13 includes the convex pixel 40RA as the red pixel 40R that constitutes the imaging pixel 40, and the concave pixel 40BA as the blue pixel 40B that constitutes the imaging pixel 40. May be. The micro lens 41R of the convex pixel 40RA may have a lens surface with a smaller curvature than the micro lens 41R of the other red pixel 40R. Further, the micro lens 41B of the concave pixel 40BA may have a lens surface with a larger curvature than the micro lens 41B of the other blue pixel 40B.

・上記第3の実施形態において、撮像素子13は、撮像画素40を構成する赤画素40Rとして凸画素40RAを含むとともに、撮像画素40を構成する青画素40Bとして凹画素40BAを含んだ構成であってもよい。   In the third embodiment, the imaging element 13 includes the convex pixel 40RA as the red pixel 40R that constitutes the imaging pixel 40, and the concave pixel 40BA as the blue pixel 40B that constitutes the imaging pixel 40. May be.

・上記第3の実施形態において、撮像素子13は、入射光の光軸方向において互いに異なる複数の位置で、フォーカスレンズ11を通過した全ての色成分(赤、緑、青)の入射光が撮像した被写体の画素信号が読み出される構成であってもよい。   In the third embodiment, the image sensor 13 captures incident light of all color components (red, green, and blue) that have passed through the focus lens 11 at a plurality of positions that are different from each other in the optical axis direction of the incident light. The pixel signal of the subject to be read may be read out.

この場合、撮像素子13が入射光の光軸方向におけるフォーカスレンズ11側となる第2位置に配置されたときには、撮像素子13から読み出された被写体の画素信号のうち、赤の画素信号が被写体のデフォーカス特徴量の算出に用いられる。また、撮像素子13が第2位置を起点として入射光の光軸方向においてフォーカスレンズ11とは反対側に駆動されたときには、撮像素子13から読み出された被写体の画素信号のうち、緑の画素信号が被写体のデフォーカス特徴量の算出に用いられる。また、撮像素子13が入射光の光軸方向においてフォーカスレンズ11とは反対側に更に駆動されたときには、撮像素子13から読み出された被写体の画素信号のうち、青の画素信号が被写体のデフォーカス特徴量の算出に用いられる。   In this case, when the image sensor 13 is disposed at the second position on the focus lens 11 side in the optical axis direction of the incident light, the red pixel signal of the subject pixel signals read from the image sensor 13 is the subject. This is used to calculate the defocus feature amount of. Further, when the image sensor 13 is driven to the side opposite to the focus lens 11 in the optical axis direction of the incident light starting from the second position, a green pixel among the pixel signals of the subject read from the image sensor 13 The signal is used to calculate the defocus feature amount of the subject. Further, when the image sensor 13 is further driven to the side opposite to the focus lens 11 in the optical axis direction of the incident light, among the pixel signals of the subject read out from the image sensor 13, the blue pixel signal is the subject image. Used to calculate the focus feature value.

・上記第1〜第3の実施形態において、撮像素子13は、緑色(G)、黄色(Y)、マゼンダ色(M)及びシアン色(C)の色成分の光をそれぞれ選択的に透過させる補色フィルタを備えた構成であってもよい。また、撮像素子13は、赤外線領域の波長領域の光を選択的に透過させるフィルタを備えた構成であってもよい。   In the first to third embodiments, the image sensor 13 selectively transmits light of green (G), yellow (Y), magenta (M), and cyan (C) color components, respectively. The structure provided with the complementary color filter may be sufficient. The imaging device 13 may have a configuration including a filter that selectively transmits light in the wavelength region of the infrared region.

・上記第4の実施形態において、撮像素子13A,13Bは、カラーフィルタ42Wを含むことなくマイクロレンズ41Wと三層に積層された光電変換部43WB,43WG,43WRとによって構成される黒画素を、白画素40Wに代えて有する構成であってもよい。   In the fourth embodiment, the image sensors 13A and 13B include black pixels including the microlens 41W and the photoelectric conversion units 43WB, 43WG, and 43WR stacked in three layers without including the color filter 42W. Instead of the white pixel 40W, a configuration may be employed.

・上記各実施形態において、画像の撮像のために設けられる撮像素子13,13A,13Bとは別に、AF用のセンサとして、各実施形態の撮像素子13,13A,13Bを新たに設けてもよい。   In each of the embodiments described above, the image sensors 13, 13A, 13B of the embodiments may be newly provided as AF sensors separately from the image sensors 13, 13A, 13B provided for image capturing. .

・上記各実施形態において、MPU16の合焦検出部23は、動画の撮影時において、動画から検出されたエッジのデフォーカス特徴量を算出してもよい。
・上記各実施形態において、撮像装置は、デジタルカメラに限定されず、例えば、ビデオカメラ、パーソナルコンピュータ、携帯電話機、携帯ゲーム機等のように、画像の撮影機能を搭載した他の撮像装置であってもよい。
In each of the above embodiments, the focus detection unit 23 of the MPU 16 may calculate the defocus feature amount of the edge detected from the moving image when shooting the moving image.
In each of the above embodiments, the imaging device is not limited to a digital camera, and may be another imaging device equipped with an image shooting function, such as a video camera, a personal computer, a mobile phone, or a portable game machine. May be.

10…撮像装置の一例としてのデジタルカメラ、11…レンズの一例としてのフォーカスレンズ、13,13A,13B…撮像素子、21…表示部の一例としてのモニタ、22…エッジ検出部、23…合焦検出部、24…画像生成部、25…表示制御部、40…撮像画素、40RA…第1撮像画素の一例としての凸画素、40BA…第2撮像画素の一例としての凹画素、41…集光レンズの一例としてのマイクロレンズ、43…光電変換部、F,F1,F2…フレーム画像、M…素子駆動部の一例としてのモータ。   DESCRIPTION OF SYMBOLS 10 ... Digital camera as an example of an imaging device, 11 ... Focus lens as an example of a lens, 13, 13A, 13B ... Imaging element, 21 ... Monitor as an example of a display part, 22 ... Edge detection part, 23 ... Focusing Detection unit, 24 ... image generation unit, 25 ... display control unit, 40 ... imaging pixel, 40RA ... convex pixel as an example of first imaging pixel, 40BA ... concave pixel as an example of second imaging pixel, 41 ... condensing Microlens as an example of a lens, 43... Photoelectric conversion unit, F, F1, F2... Frame image, M.

Claims (13)

レンズを通じて入射される入射光によって被写体が撮像される撮像素子と、
前記撮像素子に撮像された前記被写体のエッジを色成分ごとに検出するエッジ検出部と、
前記エッジ検出部が検出した前記エッジにおける色成分同士の色成分量の差又は比に基づいて、前記被写体のエッジの合焦状態を検出する合焦検出部と
を備え、
前記入射光による前記撮像素子に対する前記被写体の撮像態様は、前記エッジ検出部が検出した前記エッジにおける色成分同士の色成分量の差が拡大するように前記入射光の色成分ごとに設定されていることを特徴とする撮像装置。
An image sensor for imaging a subject by incident light incident through a lens;
An edge detection unit that detects, for each color component, an edge of the subject imaged by the imaging element;
A focus detection unit that detects a focus state of the edge of the subject based on a difference or ratio of color component amounts between color components at the edge detected by the edge detection unit, and
An imaging mode of the subject with respect to the imaging device by the incident light is set for each color component of the incident light so that a difference in color component amount between the color components at the edge detected by the edge detection unit is enlarged. An imaging apparatus characterized by comprising:
相対的に長波長側の色成分の前記入射光が入射される前記撮像素子の撮像画素の光電変換部が、相対的に短波長側の色成分の前記入射光が入射される前記撮像素子の撮像画素の光電変換部よりも前記入射光の光軸方向における前記レンズ側に配置されることを特徴とする請求項1に記載の撮像装置。   The photoelectric conversion unit of the imaging pixel of the image sensor to which the incident light of the color component on the relatively long wavelength side is incident is connected to the photoelectric conversion unit of the image sensor on which the incident light of the color component on the relatively short wavelength side is incident. The imaging apparatus according to claim 1, wherein the imaging apparatus is disposed closer to the lens in the optical axis direction of the incident light than the photoelectric conversion unit of the imaging pixel. 前記撮像素子の撮像画素は、相対的に長波長側の色成分の前記入射光が入射される撮像画素のうち他の撮像画素と比較して前記光電変換部が前記入射光の光軸方向において前記レンズ側に突出して配置される第1撮像画素、及び、相対的に短波長側の色成分の前記入射光が入射される撮像画素のうち他の撮像画素と比較して前記光電変換部が前記入射光の光軸方向において前記レンズとは反対側に窪んで配置される第2撮像画素のうち少なくとも一方を含んで構成されていることを特徴とする請求項2に記載の撮像装置。   The image pickup pixel of the image pickup device has the photoelectric conversion unit in the optical axis direction of the incident light as compared with other image pickup pixels among the image pickup pixels on which the incident light of the color component on the relatively long wavelength side is incident. Compared to the other imaging pixels among the imaging pixels to which the first imaging pixels arranged to protrude toward the lens and the incident light of the color component on the relatively short wavelength side are incident, the photoelectric conversion unit The imaging apparatus according to claim 2, wherein the imaging apparatus includes at least one of second imaging pixels that are recessed from the lens in the direction of the optical axis of the incident light. 前記第1撮像画素及び前記第2撮像画素のうち少なくとも一方が撮像した画像データを用いて撮影画像を生成する画像生成部を更に備えたことを特徴とする請求項3に記載の撮像装置。   The imaging apparatus according to claim 3, further comprising an image generation unit that generates a captured image using image data captured by at least one of the first imaging pixel and the second imaging pixel. 前記画像生成部は、前記第1撮像画素及び前記第2撮像画素のうち少なくとも一方が撮像した画像データに対し、前記撮像素子における他の撮像画素が撮像した画像データとは異なる画像処理を行った上で前記撮影画像を生成することを特徴とする請求項4に記載の撮像装置。   The image generation unit performs image processing different from image data captured by other imaging pixels in the imaging element on image data captured by at least one of the first imaging pixel and the second imaging pixel. The imaging apparatus according to claim 4, wherein the captured image is generated. 前記画像生成部は、前記第2撮像画素が撮像した画像データに対し、前記撮像素子における他の撮像画素が撮像した画像データとは異なるシェーディング係数を用いたシェーディング補正処理を前記画像処理として行った上で前記撮影画像を生成することを特徴とする請求項5に記載の撮像装置。   The image generation unit performs, as the image processing, shading correction processing using a shading coefficient that is different from the image data captured by the other imaging pixels in the imaging element for the image data captured by the second imaging pixel. The imaging apparatus according to claim 5, wherein the captured image is generated. 前記画像生成部は、前記第1撮像画素及び前記第2撮像画素のうち少なくとも一方が撮像した画像データに対して倍率補正処理を前記画像処理として行った上で前記撮影画像を生成することを特徴とする請求項5又は請求項6に記載の撮像装置。   The image generation unit generates the captured image after performing a magnification correction process on the image data captured by at least one of the first imaging pixel and the second imaging pixel as the image processing. The imaging device according to claim 5 or 6. 前記第1撮像画素及び前記第2撮像画素のうち少なくとも一方は、二次元的に配置された前記撮像素子の撮像画素に不規則に配置されていることを特徴とする請求項4〜請求項7のうち何れか一項に記載の撮像装置。   The at least one of the first image pickup pixel and the second image pickup pixel is irregularly arranged on the image pickup pixels of the image pickup element arranged two-dimensionally. The imaging device according to any one of the above. 前記撮像素子における前記第1撮像画素及び前記第2撮像画素のうち少なくとも一方を含む撮像画素が撮像した画像を表示画像として表示部に表示させる表示制御部を更に備えたことを特徴とする請求項3〜請求項8のうち何れか一項に記載の撮像装置。   The display control unit according to claim 1, further comprising: a display control unit configured to display an image captured by an imaging pixel including at least one of the first imaging pixel and the second imaging pixel in the imaging element as a display image on a display unit. The imaging device according to any one of claims 3 to 8. 前記表示画像はスルー画又は動画であって、
前記表示制御部は、前記撮像素子における前記第1撮像画素及び前記第2撮像画素のうち少なくとも一方を含む撮像画素が撮像した画像を時系列的に連続したフレーム画像として含む前記表示画像を前記表示部に表示させることを特徴とする請求項9に記載の撮像装置。
The display image is a through image or a moving image,
The display control unit displays the display image including an image captured by an imaging pixel including at least one of the first imaging pixel and the second imaging pixel in the imaging element as a time-series continuous frame image. The imaging device according to claim 9, wherein the imaging device is displayed on a screen.
前記撮像素子の撮像画素は、前記入射光を光電変換部に集光させる集光レンズを有し、
相対的に短波長側の色成分の前記入射光が入射する前記撮像画素の前記集光レンズの焦点距離の方が、相対的に長波長側の色成分の前記入射光が入射する前記撮像画素の前記集光レンズの焦点距離よりも小さいことを特徴とする請求項1〜請求項10のうち何れか一項に記載の撮像装置。
The imaging pixel of the imaging element has a condensing lens that condenses the incident light on a photoelectric conversion unit,
The imaging pixel in which the incident light of the color component on the relatively long wavelength side is incident on the focal length of the condenser lens of the imaging pixel on which the incident light of the color component on the relatively short wavelength side is incident The imaging device according to claim 1, wherein the imaging device is smaller than a focal length of the condenser lens.
前記撮像素子を前記入射光の光軸方向に駆動する素子駆動部を更に備え、
前記素子駆動部は、相対的に短波長側の色成分の前記入射光によって前記合焦状態を検出するための前記被写体が前記撮像素子に撮像される場合には前記撮像素子を前記入射光の光軸方向における第1位置に配置する一方で、相対的に長波長側の色成分の前記入射光によって前記エッジの前記合焦状態を検出するための前記被写体が前記撮像素子に撮像される場合には前記撮像素子を前記第1位置よりも前記入射光の光軸方向における前記レンズ側に位置する第2位置に配置することを特徴とする請求項1〜請求項11のうち何れか一項に記載の撮像装置。
An element drive unit that drives the image sensor in the optical axis direction of the incident light;
When the subject for detecting the in-focus state is picked up by the image pickup device by the incident light of the color component having a relatively short wavelength side, the element driving unit moves the image pickup device of the incident light. When the subject for detecting the in-focus state of the edge is picked up by the imaging device by the incident light of the color component on the relatively long wavelength side while being arranged at the first position in the optical axis direction The image pickup device is arranged at a second position located on the lens side in the optical axis direction of the incident light from the first position. The imaging device described in 1.
各色の色成分の入射光が電荷に変換される撮像画素を備え、
前記撮像画素は、相対的に長波長側の色成分の前記入射光が入射される撮像画素の光電変換部が相対的に短波長側の色成分の前記入射光が入射される撮像画素の光電変換部よりも前記入射光の光軸方向における入射側に配置されることを特徴とする撮像素子。
It includes an imaging pixel in which incident light of each color component is converted into electric charge,
In the imaging pixel, the photoelectric conversion unit of the imaging pixel in which the incident light of the color component on the relatively long wavelength side enters the photoelectric of the imaging pixel in which the incident light of the color component on the relatively short wavelength side enters. An imaging device, wherein the imaging device is arranged on an incident side in an optical axis direction of the incident light with respect to the conversion unit.
JP2014176602A 2014-08-29 2014-08-29 Imaging device Active JP6467823B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014176602A JP6467823B2 (en) 2014-08-29 2014-08-29 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014176602A JP6467823B2 (en) 2014-08-29 2014-08-29 Imaging device

Publications (2)

Publication Number Publication Date
JP2016051084A true JP2016051084A (en) 2016-04-11
JP6467823B2 JP6467823B2 (en) 2019-02-13

Family

ID=55658620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014176602A Active JP6467823B2 (en) 2014-08-29 2014-08-29 Imaging device

Country Status (1)

Country Link
JP (1) JP6467823B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018007111A (en) * 2016-07-05 2018-01-11 株式会社ニコン Imaging apparatus, and image processing device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004361611A (en) * 2003-06-04 2004-12-24 Fuji Photo Film Co Ltd Solid-state image pickup element and photographing device
JP2012189874A (en) * 2011-03-11 2012-10-04 Olympus Imaging Corp Imaging device and imaging element
JP2013065005A (en) * 2011-09-02 2013-04-11 Nikon Corp Focus evaluation apparatus, imaging apparatus and program
JP2014011239A (en) * 2012-06-28 2014-01-20 Toshiba Corp Solid state image pickup device and method for manufacturing the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004361611A (en) * 2003-06-04 2004-12-24 Fuji Photo Film Co Ltd Solid-state image pickup element and photographing device
JP2012189874A (en) * 2011-03-11 2012-10-04 Olympus Imaging Corp Imaging device and imaging element
JP2013065005A (en) * 2011-09-02 2013-04-11 Nikon Corp Focus evaluation apparatus, imaging apparatus and program
JP2014011239A (en) * 2012-06-28 2014-01-20 Toshiba Corp Solid state image pickup device and method for manufacturing the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018007111A (en) * 2016-07-05 2018-01-11 株式会社ニコン Imaging apparatus, and image processing device

Also Published As

Publication number Publication date
JP6467823B2 (en) 2019-02-13

Similar Documents

Publication Publication Date Title
JP5491677B2 (en) Imaging apparatus and focus control method thereof
JP5430795B2 (en) Imaging apparatus and program
JP5421829B2 (en) Imaging device
US10395348B2 (en) Image pickup apparatus, image processing apparatus, and control method of image pickup apparatus
JP5000413B2 (en) Imaging system and image signal processing program
JP6381266B2 (en) IMAGING DEVICE, CONTROL DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2012049773A (en) Imaging apparatus and method, and program
CN103039066A (en) Imaging device, image processing device, and image processing method
JP5619124B2 (en) Image processing apparatus, imaging apparatus, image processing program, and image processing method
WO2012073727A1 (en) Imaging device and focal position detection method
JP2017129788A (en) Focus detection device and imaging device
JP2016197231A (en) Display control device and method, and imaging device
JP2013097154A (en) Distance measurement device, imaging apparatus, and distance measurement method
JP2019078965A (en) Imaging apparatus and focus detection method
JP5786355B2 (en) Defocus amount detection device and electronic camera
WO2019202984A1 (en) Image capturing device, distance measuring method, distance measuring program, and recording medium
JP6467823B2 (en) Imaging device
JP2017032787A (en) Imaging apparatus and control method thereof
JP6171110B2 (en) Focus control device, focus control method, focus control program, lens device, imaging device
JP6467824B2 (en) Imaging device
KR20170015158A (en) Control apparatus, image pickup apparatus, and control method
JP6464553B2 (en) Lens drive control device, electronic camera, and lens drive control program
US20220392092A1 (en) Image processing apparatus, image processing method, and storage medium
JP2018197806A (en) Display control unit and imaging apparatus
WO2020017641A1 (en) Focus detection device, image capture device and interchangeable lens

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180327

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181231

R150 Certificate of patent or registration of utility model

Ref document number: 6467823

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250