JP6467289B2 - Imaging apparatus and control method thereof - Google Patents

Imaging apparatus and control method thereof Download PDF

Info

Publication number
JP6467289B2
JP6467289B2 JP2015104004A JP2015104004A JP6467289B2 JP 6467289 B2 JP6467289 B2 JP 6467289B2 JP 2015104004 A JP2015104004 A JP 2015104004A JP 2015104004 A JP2015104004 A JP 2015104004A JP 6467289 B2 JP6467289 B2 JP 6467289B2
Authority
JP
Japan
Prior art keywords
focus detection
image
signal
imaging
pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015104004A
Other languages
Japanese (ja)
Other versions
JP2016218291A (en
Inventor
斎藤 潤一
潤一 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015104004A priority Critical patent/JP6467289B2/en
Publication of JP2016218291A publication Critical patent/JP2016218291A/en
Application granted granted Critical
Publication of JP6467289B2 publication Critical patent/JP6467289B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は撮像装置およびその制御方法に関し、特には自動焦点検出(AF)技術に関する。   The present invention relates to an imaging apparatus and a control method thereof, and more particularly to an automatic focus detection (AF) technique.

近年の撮像装置には自動焦点検出(AF)機能が搭載されているが、AF機能が苦手とするシーンがある。そのため、AF機能が苦手とするシーン、例えば、星空シーンの撮影を行うモードが設定された場合には、AF機能を用いずに、あらかじめ決められた無限遠位置にフォーカスレンズを駆動する撮像装置が知られている(特許文献1)。   Although recent imaging apparatuses are equipped with an automatic focus detection (AF) function, there are scenes in which the AF function is not good. Therefore, when a mode for shooting a scene that the AF function is not good at, for example, a starry sky scene, is set, an imaging apparatus that drives the focus lens to a predetermined infinity position without using the AF function. Known (Patent Document 1).

特開平4−15629号公報JP-A-4-15629 特開2014−2197号公報JP 2014-2197 A

しかしながら、予め設定された無限遠位置にフォーカスレンズを駆動する構成では、経年変化や環境温度、カメラ姿勢の変化による無限遠位置のずれに対応できないため、合焦度の高い画像が得られない場合がある。   However, when the focus lens is driven to a preset infinity position, it cannot cope with the shift of the infinity position due to secular change, environmental temperature, or camera posture, so an image with high focus cannot be obtained. There is.

本発明はこのような従来技術の課題の1つ以上を改善するためになされたものであり、輝度やコントラストの低いシーンでの焦点検出精度を改善した撮像装置およびその制御方法の提供を目的とする。   The present invention has been made in order to improve one or more of the problems of the prior art, and aims to provide an imaging apparatus improved in focus detection accuracy in a scene with low brightness and contrast and a control method thereof. To do.

上述の目的は、撮影光学系の瞳領域を瞳分割方向に分割して、異なる瞳部分領域を通過した光束に基づく複数の画像信号を生成可能な撮像素子と、撮像素子から画像信号を取得する取得手段と、画像信号に基づく1対の焦点検出信号を生成する生成手段と、1対の焦点検出信号の相関量に基づいて撮影光学系のデフォーカス量を算出する算出手段と、デフォーカス量に基づいて撮影光学系の焦点調節を行う駆動手段と、を有する撮像装置であって、生成手段が、少なくとも瞳分割方向において撮像素子の空間分解能に等しい分解能を有し、瞳分割方向と異なる方向において間引きが行われていない画像信号に基づいて1対の焦点検出信号を生成する第1の焦点検出モードと、生成手段が、瞳分割方向および異なる方向において撮像素子の空間分解能より低い分解能を有する画像信号に基づいて1対の焦点検出信号を生成する第2の焦点検出モードと、を有することを特徴とする撮像装置によって達成される。   The above-described object is to divide the pupil region of the photographing optical system in the pupil division direction, and to acquire an image signal from the image pickup device capable of generating a plurality of image signals based on the light flux that has passed through different pupil partial regions. An acquisition unit; a generation unit configured to generate a pair of focus detection signals based on an image signal; a calculation unit configured to calculate a defocus amount of the photographing optical system based on a correlation amount between the pair of focus detection signals; Driving means for adjusting the focus of the photographic optical system based on the imaging device, wherein the generation means has a resolution at least equal to the spatial resolution of the image sensor in the pupil division direction and a direction different from the pupil division direction In the first focus detection mode for generating a pair of focus detection signals based on the image signals that have not been thinned in, and the generation means, the space of the image sensor in the pupil division direction and different directions A second focus detection mode for generating a focus detection signal of the pair on the basis of an image signal having a lower resolution than resolution is achieved by an imaging apparatus characterized by having a.

このような構成により本発明によれば、輝度やコントラストの低いシーンでの焦点検出精度を改善した撮像装置およびその制御方法の提供することができる。   With such a configuration, according to the present invention, it is possible to provide an imaging apparatus with improved focus detection accuracy in a scene with low brightness and contrast, and a control method therefor.

本発明の実施形態に係る撮像装置の一例としてのデジタルカメラの機能構成例を示す図1 is a diagram illustrating an example of a functional configuration of a digital camera as an example of an imaging apparatus according to an embodiment of the present invention. 図1の撮像素子107における撮像画素と焦点検出画素の配置例を模式的に示す図The figure which shows typically the example of arrangement | positioning of the imaging pixel and focus detection pixel in the image pick-up element 107 of FIG. 図2に示した撮像画素の構成を模式的に示した平面図および断面図FIG. 2 is a plan view and a cross-sectional view schematically showing the configuration of the image pickup pixel shown in FIG. 図3に示した画素構造と瞳分割との対応関係を示した概略説明図Schematic explanatory diagram showing the correspondence between the pixel structure shown in FIG. 3 and pupil division (a)は実施形態の撮像素子と瞳分割との対応関係を示した図、(b)は実施形態におけるデフォーカス量と第1焦点検出信号と第2焦点検出信号間の像ずれ量の関係を示す図(A) is the figure which showed the correspondence of the image pick-up element of embodiment, and pupil division, (b) is the relationship of the image shift | offset | difference amount between a defocus amount, a 1st focus detection signal, and a 2nd focus detection signal in embodiment. Figure showing 本発明の第1実施形態における焦点検出処理のフローチャートThe flowchart of the focus detection process in 1st Embodiment of this invention. 本発明の実施形態におけるデフォーカス量算出処理を説明するためのフローチャートFlowchart for explaining defocus amount calculation processing in an embodiment of the present invention 実施形態における第1の読み出しモードの読み出しと、輝度信号への変換方法を模式的に示す図The figure which shows typically the reading of the 1st reading mode in embodiment, and the conversion method to a luminance signal 結像光学系の射出瞳距離と撮像素子の設定瞳距離との差が像高の大きな画素における瞳分割に与える影響を模式的に示した図Diagram showing the effect of the difference between the exit pupil distance of the imaging optical system and the set pupil distance of the image sensor on the pupil division for pixels with a large image height 実施形態で適用するフィルタ処理で適用する帯域通過フィルタの周波数特性の例を示す図The figure which shows the example of the frequency characteristic of the band pass filter applied by the filter process applied in embodiment 本発明の第2実施形態における閾値処理のフローチャートFlowchart of threshold processing in the second embodiment of the present invention 本発明の第3実施形態における焦点検出処理のフローチャートFlowchart of focus detection processing in the third embodiment of the present invention

●(第1実施形態)
以下、本発明の例示的な実施形態を添付の図面に基づいて詳細に説明する。以下の説明では、本発明を撮像装置の一例としてのデジタルカメラに適用した例について説明する。しかしながら、本発明は撮像機能を有する任意の装置や機器に適用可能であり、このような装置や機器としては例えば携帯電話機、パーソナルコンピュータ、タブレット端末、ゲーム機などがあるが、これらに限定されない。
● (First embodiment)
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, an example in which the present invention is applied to a digital camera as an example of an imaging apparatus will be described. However, the present invention can be applied to any device or device having an imaging function. Examples of such a device and device include, but are not limited to, a mobile phone, a personal computer, a tablet terminal, and a game machine.

[デジタルカメラの構成]
図1は、本発明の実施形態に係るデジタルカメラ100のうち、焦点検出動作に係る主な構成要素の例を模式的に示した図である。なお、焦点検出動作は図1に示していない、一般的なデジタルカメラが有する構成要素の1つ以上が用いられてもよい。撮影光学系101は、画角を変更するための変倍レンズとその駆動機構、焦点光学系であるフォーカスレンズ102とその駆動機構、絞りとその駆動機構を含む。撮影光学系101はデジタルカメラ100から着脱可能な構成であってもよい。撮影光学系101からの入射光はCCDもしくはCMOSイメージセンサである撮像素子103により電気信号(画像信号)に変換される。後述するように、撮像素子103は像面位相差AFを実施可能な構成を有している。
[Digital camera configuration]
FIG. 1 is a diagram schematically illustrating an example of main components related to a focus detection operation in a digital camera 100 according to an embodiment of the present invention. In the focus detection operation, one or more constituent elements of a general digital camera that are not shown in FIG. 1 may be used. The photographing optical system 101 includes a variable power lens for changing the angle of view and a driving mechanism thereof, a focus lens 102 as a focusing optical system, a driving mechanism thereof, a diaphragm, and a driving mechanism thereof. The photographing optical system 101 may be configured to be detachable from the digital camera 100. Incident light from the photographing optical system 101 is converted into an electric signal (image signal) by an image sensor 103 which is a CCD or CMOS image sensor. As will be described later, the image sensor 103 has a configuration capable of performing image plane phase difference AF.

なお、本実施形態において撮像素子103には特定の繰り返しパターンを有するカラーフィルタ、具体的には、原色ベイヤーパターンのカラーフィルタが設けられているものとする。撮像素子103の各画素には、パターンを構成する色成分(赤、緑、青)のうちの1色に対応したカラーフィルタが割り当てられている。以下では、割り当てられているカラーフィルタの色を画素の色として説明したり、同じ色のカラーフィルタが割り当てられている画素を同色画素もしくは同じ色成分の画素と呼んだりすることがある。   In the present embodiment, it is assumed that the image sensor 103 is provided with a color filter having a specific repetitive pattern, specifically, a primary color Bayer pattern color filter. Each pixel of the image sensor 103 is assigned a color filter corresponding to one of the color components (red, green, blue) constituting the pattern. Hereinafter, the color of the assigned color filter will be described as the pixel color, and the pixel to which the same color filter is assigned may be referred to as the same color pixel or the same color component pixel.

画像信号にはA/D変換などが行われた後、信号読み出し部105によって読み出される。信号読み出し部105は、制御部110の設定する読み出しモードに従い、撮像素子103の水平および垂直読み出し回路などに与えるタイミング信号を生成し、撮像素子103から画像信号を読み出す。信号読み出し部105と制御部110は撮像素子103から画像信号を取得する取得手段を構成する。   The image signal is subjected to A / D conversion and the like and then read out by the signal reading unit 105. The signal reading unit 105 generates a timing signal to be given to the horizontal and vertical reading circuits of the image sensor 103 according to the read mode set by the control unit 110 and reads an image signal from the image sensor 103. The signal reading unit 105 and the control unit 110 constitute acquisition means for acquiring an image signal from the image sensor 103.

AF信号生成部106は、信号読み出し部105が撮像素子103から読み出した画像信号から、1対の視差信号である第1および第2焦点検出信号を生成する。信号読み出し部105とAF信号生成部106は、画像信号に基づく1対の焦点検出信号を生成する生成手段を構成する。補正部107は、第1および第2焦点検出信号に、撮影光学系101の光学特性によって生じるシェーディングの補正処理およびフィルタ処理を適用する。焦点検出部108は、第1および第2焦点検出信号の相関量を算出し、撮影光学系101のピントずれの量と方向を表すデフォーカス量に変換する。   The AF signal generation unit 106 generates first and second focus detection signals that are a pair of parallax signals from the image signal read by the signal reading unit 105 from the image sensor 103. The signal reading unit 105 and the AF signal generation unit 106 constitute generation means for generating a pair of focus detection signals based on the image signal. The correcting unit 107 applies shading correction processing and filter processing caused by the optical characteristics of the photographing optical system 101 to the first and second focus detection signals. The focus detection unit 108 calculates the correlation amount between the first and second focus detection signals, and converts the correlation amount into a defocus amount that represents the amount and direction of focus deviation of the photographing optical system 101.

駆動制御部109は、焦点検出部108が算出したデフォーカス量に基づいてフォーカスレンズ102を駆動する。   The drive control unit 109 drives the focus lens 102 based on the defocus amount calculated by the focus detection unit 108.

例えばレリーズボタンを半押しされるなど、撮影準備動作の開始指示が入力されると、AF信号生成部106は、例えば設定されている焦点検出領域内の画素から読み出された画像信号から第1および第2焦点検出信号を生成し始める。また、制御部110は、焦点検出領域内の画素から読み出された画像信号に基づいてAE処理を行う。   For example, when an instruction to start a shooting preparation operation is input, for example, when the release button is pressed halfway, the AF signal generation unit 106 starts from the image signal read from the pixels in the set focus detection area, for example. And start generating the second focus detection signal. Further, the control unit 110 performs AE processing based on the image signal read from the pixels in the focus detection area.

操作部104はユーザが設定や指示をデジタルカメラ100に与えるための入力デバイス群であり、レリーズボタン、メニューボタン、方向キー、決定ボタン、電源スイッチ、タッチパネルなどが含まれる。操作部104の状態や操作は制御部110に入力され、制御部110は操作部104の状態や操作に応じた動作を実現するような制御を行う。   The operation unit 104 is an input device group for a user to give settings and instructions to the digital camera 100, and includes a release button, a menu button, a direction key, a determination button, a power switch, a touch panel, and the like. The state and operation of the operation unit 104 are input to the control unit 110, and the control unit 110 performs control to realize an operation according to the state and operation of the operation unit 104.

本実施形態では撮影モードを設定するためのモードダイヤル1041が操作部104に含まれている。後述するように、設定された撮影モードに応じて制御部110は信号読み出し部105やAF信号生成部106の処理を変更する。また、本実施形態のデジタルカメラ100は、撮影モードとして「星空撮影モード」を有している。   In the present embodiment, the operation unit 104 includes a mode dial 1041 for setting a shooting mode. As will be described later, the control unit 110 changes the processing of the signal reading unit 105 and the AF signal generation unit 106 according to the set shooting mode. Further, the digital camera 100 of the present embodiment has a “starry sky shooting mode” as a shooting mode.

フォーカスレンズ102の駆動制御が完了したのち、レリーズボタンが全押しされるなど、撮影動作の開始指示が入力されると、制御部110は撮像素子103による電荷蓄積時間や絞りの動作を制御して撮影動作を実行する。撮影された画像は例えば制御部110によって記録用の処理を適用し、例えばメモリカードのような不揮発性記録媒体に記録する。   After the driving control of the focus lens 102 is completed, when a shooting operation start instruction is input, such as when the release button is fully pressed, the control unit 110 controls the charge accumulation time and diaphragm operation by the image sensor 103. Perform the shooting operation. The photographed image is recorded on a nonvolatile recording medium such as a memory card, for example, by applying a recording process by the control unit 110.

なお、信号読み出し部105、AF信号生成部106、補正部107、焦点検出部108、駆動制御部109、および制御部110は、例えばCPUやMPUなどのプログラマブルプロセッサ(以下、CPUとよぶ)120がソフトウェアを実行して実現してもよい。あるいは、信号読み出し部105、AF信号生成部106、補正部107、焦点検出部108、駆動制御部109、および制御部110の1つ以上がASIC、FPGA、CPLDなどのハードウェア回路から構成されてもよい。以下では、少なくとも、各部を制御することによってデジタルカメラ100の機能を実現する制御部110が、CPU120がソフトウェアを実行することによって実現されるものとする。   The signal reading unit 105, the AF signal generation unit 106, the correction unit 107, the focus detection unit 108, the drive control unit 109, and the control unit 110 are, for example, a programmable processor (hereinafter referred to as a CPU) 120 such as a CPU or MPU. It may be realized by executing software. Alternatively, one or more of the signal readout unit 105, the AF signal generation unit 106, the correction unit 107, the focus detection unit 108, the drive control unit 109, and the control unit 110 are configured by hardware circuits such as ASIC, FPGA, and CPLD. Also good. In the following, it is assumed that at least the control unit 110 that realizes the functions of the digital camera 100 by controlling each unit is realized by the CPU 120 executing software.

[撮像素子]
図2は、撮像素子103における撮像画素と焦点検出画素の配置例を模式的に示す図であり、撮像画素が横4画素×縦4画素配列された領域を代表的に示している。撮像素子103は、撮影光学系101の瞳領域を瞳分割方向に分割して、異なる瞳部分領域を通過した光束に基づく複数の画像信号を生成可能に構成されている。具体的には、各撮像画素の光電変換領域が水平方向(瞳分割方向)に2分割されており、各光電変換領域が焦点検出用画素として機能する。従って、図2においては、焦点検出画素が横8画素×縦4画素配列された領域とも言うことができる。
[Image sensor]
FIG. 2 is a diagram schematically illustrating an arrangement example of imaging pixels and focus detection pixels in the imaging element 103, and representatively illustrates an area in which the imaging pixels are arranged in the horizontal 4 pixels × vertical 4 pixels. The imaging element 103 is configured to be able to generate a plurality of image signals based on a light beam that has passed through different pupil partial regions by dividing the pupil region of the photographing optical system 101 in the pupil division direction. Specifically, the photoelectric conversion area of each imaging pixel is divided into two in the horizontal direction (pupil division direction), and each photoelectric conversion area functions as a focus detection pixel. Therefore, in FIG. 2, it can be said that the focus detection pixels are regions in which 8 horizontal pixels × 4 vertical pixels are arranged.

本実施形態において、図2の左上の2×2の画素群200は、撮像素子103に設けられた原色ベイヤー配列のカラーフィルタの繰り返し単位に対応している。従って、R(赤)の分光感度を有する画素200Rが左上に、G(緑)の分光感度を有する画素200Gが右上と左下に、B(青)の分光感度を有する画素200Bが右下に配置されている。また、図2の右上の画素に代表的に示すように、各撮像画素は、横2×縦1に等分割された光電変換部を有しており、左半分の光電変換部が第1焦点検出画素201、右半分の光電変換部が第2焦点検出画素202として利用可能である。撮像画素として利用する場合には、2つの光電変換部で得られた信号を加算した信号を撮像信号として用いる。   In the present embodiment, the 2 × 2 pixel group 200 in the upper left of FIG. 2 corresponds to a repeating unit of a primary color Bayer array color filter provided in the image sensor 103. Accordingly, the pixel 200R having R (red) spectral sensitivity is arranged at the upper left, the pixel 200G having G (green) spectral sensitivity is arranged at the upper right and lower left, and the pixel 200B having B (blue) spectral sensitivity is arranged at the lower right. Has been. Further, as representatively shown in the upper right pixel in FIG. 2, each imaging pixel has a photoelectric conversion unit equally divided into 2 × 1 in the horizontal direction, and the photoelectric conversion unit on the left half is the first focus. The detection pixel 201 and the right half photoelectric conversion unit can be used as the second focus detection pixel 202. When used as an imaging pixel, a signal obtained by adding signals obtained by two photoelectric conversion units is used as an imaging signal.

図2に示した4×4の撮像画素(8×4焦点検出画素)の配列を撮像素子103の撮像面に多数配置することにより、撮像画像を取得しつつ、画面の様々な位置を焦点検出領域として用いた撮像面位相差検出方式の焦点検出を行うことができる。本実施形態では、撮像画素のピッチ(周期)Pが縦横とも4μmで、画素数Nは、横5575×縦3725=約2075万画素であるものとする。また、焦点検出画素の縦方向のピッチPは撮像画素と同じであるが、横方向のピッチPAFは2μmであり、従って焦点検出画素数NAFが横11150×縦3725=約4150万画素であるものとする。 By arranging a number of 4 × 4 image pickup pixels (8 × 4 focus detection pixels) shown in FIG. 2 on the image pickup surface of the image sensor 103, focus detection is performed at various positions on the screen while acquiring a picked-up image. It is possible to perform focus detection using the imaging surface phase difference detection method used as the region. In the present embodiment, it is assumed that the pitch (period) P of the imaging pixels is 4 μm both vertically and horizontally, and the number of pixels N is 5575 × vertical 3725 = approximately 20.75 million pixels. Further, the vertical pitch P of the focus detection pixels is the same as that of the imaging pixels, but the horizontal pitch PAF is 2 μm. Therefore, the focus detection pixel number N AF is 11150 × horizontal 3725 = about 41.5 million pixels. It shall be.

図2に示した1つの撮像画素(ここでは200Gとする)を、撮像素子の受光面側(+z側)から見た平面図を図3(a)に示し、図3(a)のa−a断面を−y側から見た断面図を図3(b)に示す。   FIG. 3A shows a plan view of one imaging pixel (here, 200G) shown in FIG. 2 as viewed from the light receiving surface side (+ z side) of the imaging element, and a- in FIG. FIG. 3B shows a cross-sectional view of the a cross section viewed from the −y side.

図3に示すように、本実施形態の画素200Gでは、各画素の受光側に入射光を集光するためのマイクロレンズ305が形成され、x方向にN分割(2分割)、y方向にN分割(1分割)された光電変換部301と光電変換部302が形成される。光電変換部301と光電変換部302が、それぞれ、第1焦点検出画素201と第2焦点検出画素202に対応する。 As shown in FIG. 3, in the pixel 200G of this embodiment, a microlens 305 for condensing incident light is formed on the light receiving side of each pixel, and is divided into NH (two divisions) in the x direction and in the y direction. N V division (first division) by photoelectric conversion unit 301 and the photoelectric conversion portion 302 is formed. The photoelectric conversion unit 301 and the photoelectric conversion unit 302 correspond to the first focus detection pixel 201 and the second focus detection pixel 202, respectively.

光電変換部301と光電変換部302は、p型層とn型層の間にイントリンシック層を挟んだpin構造フォトダイオードとしても良いし、必要に応じて、イントリンシック層を省略し、pn接合フォトダイオードとしてもよい。   The photoelectric conversion unit 301 and the photoelectric conversion unit 302 may be a pin structure photodiode in which an intrinsic layer is sandwiched between a p-type layer and an n-type layer, or an intrinsic layer is omitted as necessary, and a pn junction is formed. A photodiode may be used.

各画素には、マイクロレンズ305と、光電変換部301および光電変換部302との間に、カラーフィルタ306が形成される。また、必要に応じて、第1焦点検出画素201と第2焦点検出画素202とでカラーフィルタの分光透過率を変えても良いし、カラーフィルタを省略してもよい。   In each pixel, a color filter 306 is formed between the microlens 305 and the photoelectric conversion unit 301 and the photoelectric conversion unit 302. Further, as necessary, the spectral transmittance of the color filter may be changed between the first focus detection pixel 201 and the second focus detection pixel 202, or the color filter may be omitted.

図3に示した画素200Gに入射した光は、マイクロレンズ305により集光され、カラーフィルタ306で分光されたのち、光電変換部301と光電変換部302で受光される。   Light incident on the pixel 200 </ b> G illustrated in FIG. 3 is collected by the microlens 305, dispersed by the color filter 306, and then received by the photoelectric conversion unit 301 and the photoelectric conversion unit 302.

光電変換部301と光電変換部302では、受光量に応じて電子とホールが対生成し、空乏層で分離された後、負電荷の電子はn型層に蓄積され、ホールは定電圧源(不図示)に接続されたp型層300を通じて撮像素子103の外部へ排出される。   In the photoelectric conversion unit 301 and the photoelectric conversion unit 302, a pair of electrons and holes are generated according to the amount of received light and separated by the depletion layer, and then negatively charged electrons are accumulated in the n-type layer. It is discharged to the outside of the image sensor 103 through the p-type layer 300 connected to the not shown.

光電変換部301と光電変換部302のn型層に蓄積された電子は、転送ゲートを介して、静電容量部(FD)に転送され、電圧信号に変換される。   The electrons accumulated in the n-type layers of the photoelectric conversion unit 301 and the photoelectric conversion unit 302 are transferred to the electrostatic capacitance unit (FD) through the transfer gate and converted into a voltage signal.

図3に示した本実施形態の画素構造と瞳分割との対応関係を示した概略説明図を図4に示す。図4では、射出瞳面の座標軸と対応を取るために、断面図のx軸とy軸を図3に対して反転させている。   FIG. 4 is a schematic explanatory diagram showing the correspondence between the pixel structure of this embodiment shown in FIG. 3 and pupil division. In FIG. 4, in order to correspond to the coordinate axis of the exit pupil plane, the x-axis and y-axis of the cross-sectional view are inverted with respect to FIG.

図4で、第1焦点検出画素201の第1瞳部分領域501は、重心が−x方向に偏心している光電変換部301の受光面と、マイクロレンズ305によって、概ね共役関係になっており、第1焦点検出画素201で受光可能な瞳領域を表している。第1焦点検出画素201の第1瞳部分領域501は、瞳面上で+X側に重心が偏心している。   In FIG. 4, the first pupil partial region 501 of the first focus detection pixel 201 is substantially conjugate with the light receiving surface of the photoelectric conversion unit 301 whose center of gravity is decentered in the −x direction and the microlens 305. A pupil region that can be received by the first focus detection pixel 201 is shown. The first pupil partial region 501 of the first focus detection pixel 201 has an eccentric center of gravity on the + X side on the pupil plane.

図4で、第2焦点検出画素202の第2瞳部分領域502は、重心が+x方向に偏心している光電変換部302の受光面と、マイクロレンズ305によって、概ね共役関係になっており、第2焦点検出画素202で受光可能な瞳領域を表している。第2焦点検出画素202の第2瞳部分領域502は、瞳面上で−X側に重心が偏心している。   In FIG. 4, the second pupil partial region 502 of the second focus detection pixel 202 is substantially conjugate with the light receiving surface of the photoelectric conversion unit 302 whose center of gravity is decentered in the + x direction and the microlens 305. A pupil region that can be received by the bifocal detection pixel 202 is shown. The second pupil partial region 502 of the second focus detection pixel 202 has an eccentric center of gravity on the −X side on the pupil plane.

また、図4で、瞳領域500は、光電変換部301と光電変換部302(第1焦点検出画素201と第2焦点検出画素202)を合わせた、画素200G全体で受光可能な瞳領域である。   In FIG. 4, a pupil region 500 is a pupil region that can receive light in the entire pixel 200 </ b> G including the photoelectric conversion unit 301 and the photoelectric conversion unit 302 (the first focus detection pixel 201 and the second focus detection pixel 202). .

本実施形態の撮像素子と瞳分割との対応関係を示した概略図を図5(a)に示す。第1瞳部分領域501と第2瞳部分領域502の異なる瞳部分領域を通過した光束は、撮像素子の各(撮像)画素に、撮像面800からそれぞれ異なる角度で入射し、2×1分割された光電変換部301および302で受光される。なお、本実施形態は、瞳領域が水平方向に2つに瞳分割されているが、必要に応じて、垂直方向に瞳分割を行ってもよい。   FIG. 5A is a schematic diagram showing a correspondence relationship between the image sensor of this embodiment and pupil division. The light beams that have passed through different pupil partial areas of the first pupil partial area 501 and the second pupil partial area 502 are incident on each (imaging) pixel of the imaging element from the imaging plane 800 at different angles and are divided by 2 × 1. The photoelectric conversion units 301 and 302 receive the light. In this embodiment, the pupil region is divided into two pupils in the horizontal direction, but pupil division may be performed in the vertical direction as necessary.

撮像素子103には、結像光学系の第1瞳部分領域501を通過する光束を受光する第1焦点検出画素201と、第1瞳部分領域と異なる結像光学系の第2瞳部分領域502を通過する光束を受光する第2焦点検出画素202を有する撮像画素が配列されている。従って、撮像画素は、結像光学系の第1瞳部分領域501と第2瞳部分領域502を合わせた瞳領域500を通過する光束を受光する。   The image sensor 103 includes a first focus detection pixel 201 that receives a light beam passing through the first pupil partial region 501 of the imaging optical system, and a second pupil partial region 502 of the imaging optical system different from the first pupil partial region. An image pickup pixel having a second focus detection pixel 202 that receives a light beam passing through is arranged. Therefore, the imaging pixel receives a light beam passing through the pupil region 500 that is a combination of the first pupil partial region 501 and the second pupil partial region 502 of the imaging optical system.

なお、撮像素子103が有する全ての画素が複数の光電変換部を有するのではなく、撮像画素、第1焦点検出画素、第2焦点検出画素を個別の画素構成としてもよい。あるいは、光電変換部を1つ有する撮像画素と、光電変換部を2つ有する(撮像画素としても使用可能な)焦点検出画素とが配置されても良い。   Note that not all the pixels included in the image sensor 103 have a plurality of photoelectric conversion units, but the image pickup pixels, the first focus detection pixels, and the second focus detection pixels may have individual pixel configurations. Alternatively, an imaging pixel having one photoelectric conversion unit and a focus detection pixel having two photoelectric conversion units (which can also be used as an imaging pixel) may be arranged.

本実施形態では、AF信号生成部106が、複数の第1焦点検出画素201で得られる信号から第1焦点検出信号を生成し、複数の第2焦点検出画素202から得られる信号から第2焦点検出信号を生成する。そして、第1焦点検出信号と第2焦点検出信号とを用いて、焦点検出部108が焦点検出を行う。また、撮像素子の撮像画素ごとに第1焦点検出画素201と第2焦点検出画素202で得られる信号を加算することで、有効画素数Nの解像度の撮像信号(撮像画像)を生成する。   In the present embodiment, the AF signal generation unit 106 generates a first focus detection signal from signals obtained from the plurality of first focus detection pixels 201, and the second focus from signals obtained from the plurality of second focus detection pixels 202. A detection signal is generated. Then, the focus detection unit 108 performs focus detection using the first focus detection signal and the second focus detection signal. Further, by adding the signals obtained by the first focus detection pixel 201 and the second focus detection pixel 202 for each image pickup pixel of the image pickup device, an image pickup signal (captured image) having a resolution of N effective pixels is generated.

[デフォーカス量と像ずれ量の関係]
以下、本実施形態の撮像素子により取得される第1焦点検出信号と第2焦点検出信号のデフォーカス量と像ずれ量の関係について説明する。
図5(b)に、デフォーカス量と第1焦点検出信号と第2焦点検出信号間の像ずれ量の概略関係図を示す。撮像面800に撮像素子103(不図示)が配置され、図4、図5(a)と同様に、結像光学系の射出瞳が、第1瞳部分領域501と第2瞳部分領域502に2分割される。
[Relationship between defocus amount and image shift amount]
Hereinafter, the relationship between the defocus amount and the image shift amount of the first focus detection signal and the second focus detection signal acquired by the image sensor of the present embodiment will be described.
FIG. 5B shows a schematic relationship diagram of the defocus amount and the image shift amount between the first focus detection signal and the second focus detection signal. The imaging element 103 (not shown) is arranged on the imaging surface 800, and the exit pupil of the imaging optical system is placed in the first pupil partial region 501 and the second pupil partial region 502, as in FIGS. 4 and 5A. Divided into two.

デフォーカス量dの大きさ|d|は、被写体の結像位置から撮像面800までの距離である。また、デフォーカス量dが負(d<0)の場合は、被写体の結像位置が撮像面800より被写体側にある前ピン状態、正(d>0)の場合は、被写体の結像位置が撮像面800より被写体の反対側にある後ピン状態を意味する。そして、被写体の結像位置が撮像面800にある合焦状態で、デフォーカス量dの大きさは0となる。図5(a)で、被写体801は合焦状態(d=0)にあり、被写体802は前ピン状態(d<0)の例を示している。前ピン状態(d<0)と後ピン状態(d>0)を合わせて、デフォーカス状態(|d|>0)と呼ぶ。   The magnitude | d | of the defocus amount d is the distance from the imaging position of the subject to the imaging surface 800. Further, when the defocus amount d is negative (d <0), the imaging position of the subject is a front pin state that is closer to the subject than the imaging surface 800, and when it is positive (d> 0), the imaging position of the subject. Means a rear pin state in which the image pickup surface 800 is on the opposite side of the subject. The defocus amount d is zero when the subject is focused on the imaging surface 800. In FIG. 5A, the subject 801 is in an in-focus state (d = 0), and the subject 802 shows an example of a front pin state (d <0). The front pin state (d <0) and the rear pin state (d> 0) are collectively referred to as a defocus state (| d |> 0).

前ピン状態(d<0)では、被写体802からの光束のうち、第1瞳部分領域501(第2瞳部分領域502)を通過した光束は、撮像面800より被写体側の位置で一度集光する。そして、その後、光束の重心位置G1(G2)を中心として幅Γ1(Γ2)に広がり、撮像面800でボケた像となる。ボケた像は、それを受光する複数の画素のそれぞれで第1焦点検出画素201(第2焦点検出画素202)により電気信号に変換される。そして、第1焦点検出画素201群(第2焦点検出画素202群)の信号から第1焦点検出信号(第2焦点検出信号)が、AF信号生成部106により生成される。よって、第1焦点検出信号(第2焦点検出信号)は、撮像面800上の重心位置G1(G2)に、被写体802が幅Γ1(Γ2)にボケた被写体像として記録される。   In the front pin state (d <0), the luminous flux that has passed through the first pupil partial area 501 (second pupil partial area 502) out of the luminous flux from the subject 802 is once condensed at a position on the subject side from the imaging plane 800. To do. Then, after that, the image expands in the width Γ1 (Γ2) with the center of gravity position G1 (G2) of the light beam as the center, resulting in a blurred image on the imaging surface 800. The blurred image is converted into an electrical signal by the first focus detection pixel 201 (second focus detection pixel 202) in each of the plurality of pixels that receive the blurred image. Then, the AF signal generator 106 generates a first focus detection signal (second focus detection signal) from the signals of the first focus detection pixel 201 group (second focus detection pixel 202 group). Therefore, the first focus detection signal (second focus detection signal) is recorded as a subject image in which the subject 802 is blurred by the width Γ1 (Γ2) at the gravity center position G1 (G2) on the imaging surface 800.

被写体像のボケ幅Γ1(Γ2)は、デフォーカス量dの大きさ|d|の増加に概ね比例して増加する。同様に、第1焦点検出信号と第2焦点検出信号間の被写体像の像ずれ量p(=光束の重心位置の差G1−G2)の大きさ|p|も、デフォーカス量dの大きさ|d|の増加に概ね比例して増加していく。後ピン状態(d>0)の場合、第1焦点検出信号と第2焦点検出信号間の被写体像の像ずれ方向が前ピン状態と反対となることをのぞき、デフォーカス量の大きさ|d|と被写体像のボケ幅、像ずれ量pとの関係は同様である。   The blur width Γ1 (Γ2) of the subject image increases approximately in proportion to the increase of the magnitude | d | of the defocus amount d. Similarly, the magnitude | p | of the object image displacement amount p (= difference G1-G2 in the center of gravity of the light beam) between the first focus detection signal and the second focus detection signal is also the size of the defocus amount d. It increases almost in proportion to the increase of | d |. In the rear pin state (d> 0), the magnitude of the defocus amount | d except that the image shift direction of the subject image between the first focus detection signal and the second focus detection signal is opposite to the front pin state. The relationship between |, the blur width of the subject image, and the image shift amount p is the same.

したがって、第1焦点検出信号と第2焦点検出信号、もしくは、第1焦点検出信号と第2焦点検出信号を加算した撮像信号のデフォーカス量の大きさの増加に伴い、第1焦点検出信号と第2焦点検出信号間の像ずれ量の大きさが増加する。   Accordingly, the first focus detection signal and the second focus detection signal, or the first focus detection signal and the first focus detection signal are increased in accordance with an increase in the defocus amount of the imaging signal obtained by adding the first focus detection signal and the second focus detection signal. The amount of image shift between the second focus detection signals increases.

[焦点検出]
以下、本実施形態における撮像面位相差AFについて説明する。
本実施形態の撮像面位相差AFでは、第1焦点検出信号と第2焦点検出信号を相対的にシフトさせて信号の一致度を表す相関量を計算し、相関(信号の一致度)が良くなるシフト量から像ずれ量を検出する。撮像信号のデフォーカス量が増加すると第1焦点検出信号と第2焦点検出信号間の像ずれ量が増加する関係性から、像ずれ量をデフォーカス量に変換して焦点検出を行う。
[Focus detection]
Hereinafter, the imaging surface phase difference AF in the present embodiment will be described.
In the imaging surface phase difference AF of the present embodiment, the first focus detection signal and the second focus detection signal are relatively shifted to calculate the amount of correlation indicating the degree of coincidence of signals, and the correlation (the degree of coincidence of signals) is good. The image shift amount is detected from the shift amount. Since the image shift amount between the first focus detection signal and the second focus detection signal increases as the defocus amount of the imaging signal increases, the focus detection is performed by converting the image shift amount into the defocus amount.

図6は、本実施形態におけるAF処理の概要を説明するためのフローチャートである。上述の通り、AF動作は、撮影準備動作の開始指示の入力に応じて開始される。
S10において、制御部110はモードダイヤル1041によって「星空撮影モード」が選択されているか否かを判定する。ここでは簡単のため、モードダイヤル1041が「星空撮影モード」か「通常モード」を選択可能であるものとするが、他の撮影モードを選択可能であってよい。
FIG. 6 is a flowchart for explaining an outline of the AF processing in the present embodiment. As described above, the AF operation is started in response to the input of the start instruction for the shooting preparation operation.
In S <b> 10, the control unit 110 determines whether or not the “starry sky shooting mode” is selected by the mode dial 1041. Here, for simplicity, it is assumed that the mode dial 1041 can select “starry sky shooting mode” or “normal mode”, but other shooting modes may be selectable.

なお、本実施形態では、撮影モードがモードダイヤル1041の操作によって設定される場合について説明するが、スイッチ、ボタン、タッチパネル、音声コマンドなど、モードダイヤル1041以外を用いて設定されてもよい。また、撮影者による設定に限らず、たとえば公知の方法を用いたシーン判別結果に応じてデジタルカメラ100が設定する構成であってもよい。例えば輝度のヒストグラムを用いて、星空シーンのような、暗い背景に点光源(高輝度の小被写体)が散在する領域が支配的なシーンであることを自動的に判別するように構成してもよい。   In the present embodiment, a case where the shooting mode is set by operating the mode dial 1041 will be described. However, a switch, button, touch panel, voice command, or the like may be used to set the shooting mode. Further, the configuration is not limited to the setting by the photographer, and for example, the digital camera 100 may be set according to the scene determination result using a known method. For example, it may be configured to automatically determine that a region in which point light sources (high-luminance small subjects) are scattered on a dark background is dominant, such as a starry sky scene, using a luminance histogram. Good.

また、星空シーンは輝度やコントラストの低いシーンの代表例であり、必ずしも本発明が星空の撮影に限定されるものではない。基本的に、低輝度の背景に点状(小面積)の高輝度被写体が散在している領域が画面もしくは焦点検出領域の所定の割合以上(例えば半分以上)を占めるようなシーンにおいて本発明の効果は十分に得られる。星空シーン以外の例としては、夜景シーンがある。   A starry sky scene is a typical example of a scene with low brightness and contrast, and the present invention is not necessarily limited to shooting a starry sky. Basically, the present invention is applied to a scene in which a region in which dotted (small area) high-brightness objects are scattered on a low-brightness background occupies a predetermined ratio or more (for example, half or more) of the screen or the focus detection region. The effect is fully obtained. As an example other than the starry sky scene, there is a night scene.

制御部110(選択手段)は、S10で「星空撮影モード」が選択されていると判定された場合はS200へ処理を進める。S200では、後述するように、星空撮影モード用のデフォーカス算出処理(第1のデフォーカス算出処理)が実行される。一方、「星空撮影モード」が選択されていない、すなわち「通常モード」が選択されていると判定された場合、制御部110は処理をS100へ進める。S200では、後述するように、通常撮影モード用のデフォーカス算出処理(第2のデフォーカス算出処理)が実行される。   If it is determined in S10 that the “starry sky shooting mode” is selected, the control unit 110 (selecting means) advances the process to S200. In S200, as will be described later, a defocus calculation process (first defocus calculation process) for the starry sky shooting mode is executed. On the other hand, if it is determined that “starry sky shooting mode” is not selected, that is, “normal mode” is selected, control unit 110 advances the process to S100. In S200, as described later, a defocus calculation process (second defocus calculation process) for the normal shooting mode is executed.

S300では、S100またはS200で算出されたデフォーカス量に基づいて駆動制御部109がフォーカスレンズ102を駆動して撮影光学系101の焦点調節を行い、AF処理を終了する。なお、第1のデフォーカス算出処理で算出されたデフォーカス量に基づいて撮影光学系101の焦点調節を行う焦点検出モードを第1の焦点検出モードと呼ぶ。また、第2のデフォーカス算出処理で算出されたデフォーカス量に基づいて撮影光学系101の焦点調節を行う焦点検出モードを第2の焦点検出モードと呼ぶ。   In S300, the drive control unit 109 drives the focus lens 102 based on the defocus amount calculated in S100 or S200 to adjust the focus of the photographing optical system 101, and the AF process is ended. Note that a focus detection mode in which the focus of the photographing optical system 101 is adjusted based on the defocus amount calculated in the first defocus calculation process is referred to as a first focus detection mode. The focus detection mode in which the focus of the photographing optical system 101 is adjusted based on the defocus amount calculated in the second defocus calculation process is referred to as a second focus detection mode.

図7(a)は、図6のS100において実行される、第1のデフォーカス算出処理の詳細を説明するためのフローチャートである。
S102で制御部110は、撮像素子103の空間分解能より低い分解能を有する画像信号を取得する第1の読み出しモードで撮像素子103の読み出しを行うように信号読み出し部105に設定する。第1の読み出しモードでは、撮像素子103の読み出し(水平)方向に隣接する同色画素を3画素ずつ加算する加算処理と、読み出し方向と直交する(垂直)方向には3行ごとに読み出す(1行読み出して2行飛ばす)間引き処理とを行う。第1の読み出しモードでは水平および垂直方向のそれぞれで読み出し画素数が1/3になるため、読み出し時間が短縮できる。信号読み出し部105は、第1の読み出しモードを実現するタイミング信号を生成して撮像素子103に供給し、画像信号を読み出す。なお、水平方向の加算と垂直方向の間引きは、信号読み出し部105で実行してもよい。この場合、読み出し画素数は減少しないが、後段の処理負荷は軽減できる。
FIG. 7A is a flowchart for explaining details of the first defocus calculation process executed in S100 of FIG.
In S <b> 102, the control unit 110 sets the signal reading unit 105 to read the image sensor 103 in the first read mode in which an image signal having a resolution lower than the spatial resolution of the image sensor 103 is acquired. In the first readout mode, an addition process for adding three pixels of the same color adjacent in the readout (horizontal) direction of the image sensor 103 and readout every three rows in the (vertical) direction orthogonal to the readout direction (one row) Read out and skip two lines). In the first readout mode, the number of readout pixels is 1/3 in each of the horizontal and vertical directions, so that the readout time can be shortened. The signal readout unit 105 generates a timing signal for realizing the first readout mode, supplies the timing signal to the image sensor 103, and reads out the image signal. Note that horizontal addition and vertical thinning may be performed by the signal reading unit 105. In this case, the number of readout pixels does not decrease, but the processing load at the subsequent stage can be reduced.

図8(a)は、撮像素子103の画素配列のうちの4行20列分と、第1の読み出しモードで読み出される画素との関係を模式的に示している。第1の読み出しモードは1行読み出して2行飛ばす行間引きを行う。ここでは、3×M(M=0以上の整数)行目が読み出し対象行であるものとする。従って、図3では0行目と3行目が読み出し対象行で、1行目と2行目が間引き対象行である。   FIG. 8A schematically shows the relationship between 4 rows and 20 columns in the pixel array of the image sensor 103 and pixels read in the first readout mode. In the first read mode, line thinning is performed in which one line is read and two lines are skipped. Here, it is assumed that the 3 × M (M = 0 or greater) row is the read target row. Therefore, in FIG. 3, the 0th and 3rd rows are read target rows, and the 1st and 2nd rows are thinning target rows.

また、水平方向には同色3画素の加算読み出しを行う、0行目を例にとれば、0,2,4列目のG(緑)画素の信号が、撮像素子103内で加算(平均)されて読み出される。また、同様に3,5,7列目の3つのB(青)画素の信号が加算読み出しされる。1列目のB(青)画素が加算対象とならないのは、加算される画素群の中心画素の位置が等間隔となるようにするためである。3行目におけるR(赤)画素とG(緑)画素の読み出しも0行目と同様であり、1列目のG画素は加算対象にならない。   In addition, addition reading of three pixels of the same color is performed in the horizontal direction. Taking the 0th row as an example, signals of G (green) pixels in the 0, 2, and 4 columns are added (averaged) in the image sensor 103. And read. Similarly, signals of three B (blue) pixels in the third, fifth, and seventh columns are added and read. The reason why the B (blue) pixel in the first column is not an addition target is that the positions of the central pixels of the pixel group to be added are equally spaced. The readout of the R (red) pixel and the G (green) pixel in the third row is the same as in the 0th row, and the G pixel in the first column is not an addition target.

図8(b)は、水平加算および垂直間引き読み出しされた信号から輝度(Y)信号への変換処理を模式的に示している。図8(a)に示したように、第1の読み出しモードで得られる画像信号はベイヤー配列を維持している。従って、ベイヤー配列の繰り返し単位である水平2画素×垂直2画素の4画素から、1つの輝度(Y)信号を求める。R,G(G1およびG2),Bの値から輝度を求める方法に制限は無く、公知の方法を用いることができる。単純には4画素の平均値を輝度信号値としてもよい。   FIG. 8B schematically shows conversion processing from a signal obtained by horizontal addition and vertical thinning readout to a luminance (Y) signal. As shown in FIG. 8A, the image signal obtained in the first readout mode maintains the Bayer array. Therefore, one luminance (Y) signal is obtained from four pixels of 2 horizontal pixels × 2 vertical pixels, which is a repeating unit of the Bayer array. There is no limitation on the method for obtaining the luminance from the values of R, G (G1 and G2), and B, and a known method can be used. Simply, an average value of four pixels may be used as the luminance signal value.

なお、図8では理解および説明を単純にするため、各画素が撮像画素であるように説明したが、実際には第1焦点検出画素201の出力(A)と、第2焦点検出画素202の出力(B)とは別個に加算や輝度信号への変換が行われる。なお、各画素からは、AとBとを別個に読み出してもよいし、AとBの一方と、和(A+B)とを読み出してもよい。後者の場合、AとBのうち読み出されていない一方(例えばA)については、和(A+B)から、読み出された一方(B)を減じることによって得ることができる。   In FIG. 8, for simplicity of understanding and description, each pixel is described as an imaging pixel. However, in actuality, the output (A) of the first focus detection pixel 201 and the second focus detection pixel 202 In addition to the output (B), addition and conversion into a luminance signal are performed. From each pixel, A and B may be read out separately, or one of A and B and the sum (A + B) may be read out. In the latter case, one of A and B that has not been read (for example, A) can be obtained by subtracting one read (B) from the sum (A + B).

S120で制御部110は、撮像素子103の有効画素領域に対し、焦点検出領域を設定する。焦点検出領域は固定領域として事前に設定されていてもよいし、顔検出結果などに応じて動的に設定されてもよい。また、複数設定することもできるが、ここでは説明および理解を容易にするため、焦点検出領域は1つであるものとする。   In S <b> 120, the control unit 110 sets a focus detection area for the effective pixel area of the image sensor 103. The focus detection area may be set in advance as a fixed area, or may be dynamically set according to a face detection result or the like. Although a plurality of values can be set, it is assumed here that the number of focus detection areas is one for ease of explanation and understanding.

AF信号生成部106は、焦点検出領域内の複数の画素の第1焦点検出画素201の出力から第1焦点検出信号(A像)を、第2焦点検出画素の出力から第2焦点検出信号(B像)を生成する。本実施形態の撮像素子103の画素は水平方向に瞳分割しているため、水平方向に並んだ複数の画素から第1および第2焦点検出信号を生成する。第1および第2焦点検出信号は、補正部107に供給される。   The AF signal generation unit 106 generates a first focus detection signal (A image) from the output of the first focus detection pixel 201 of a plurality of pixels in the focus detection area, and outputs a second focus detection signal (A from the output of the second focus detection pixel). B image) is generated. Since the pixels of the image sensor 103 of the present embodiment are pupil-divided in the horizontal direction, first and second focus detection signals are generated from a plurality of pixels arranged in the horizontal direction. The first and second focus detection signals are supplied to the correction unit 107.

S130で補正部107は、第1焦点検出信号と第2焦点検出信号にシェーディング補正処理を適用する。
ここで、第1焦点検出信号と第2焦点検出信号の瞳ずれによるシェーディングについて説明する。図9は、結像光学系の射出瞳距離Dlと撮像素子の設定瞳距離Dsとの差が像高の大きな(光軸から離れて位置する)画素における瞳分割に与える影響を模式的に示した図である。
In S130, the correction unit 107 applies shading correction processing to the first focus detection signal and the second focus detection signal.
Here, the shading by the pupil shift of the first focus detection signal and the second focus detection signal will be described. FIG. 9 schematically shows the influence of the difference between the exit pupil distance Dl of the imaging optical system and the set pupil distance Ds of the image sensor on the pupil division in a pixel having a large image height (positioned away from the optical axis). It is a figure.

図9(a)は、結像光学系の射出瞳距離Dlと撮像素子103の設定瞳距離Dsが同じ場合を示している。この場合は、像高が小さい(光軸近くに位置する)画素および像高が大きい(光軸から離れて位置する)画素のいずれでも、第1瞳部分領域501と第2瞳部分領域502により、結像光学系の射出瞳400が、概ね均等に瞳分割される。   FIG. 9A shows a case where the exit pupil distance Dl of the imaging optical system and the set pupil distance Ds of the image sensor 103 are the same. In this case, the first pupil partial region 501 and the second pupil partial region 502 are used for both a pixel having a small image height (positioned near the optical axis) and a pixel having a large image height (positioned away from the optical axis). The exit pupil 400 of the imaging optical system is divided into pupils almost uniformly.

図9(b)は、結像光学系の射出瞳距離Dlが撮像素子の設定瞳距離Dsより短い(D1<Ds)場合を示している。この場合、撮像素子の周辺部の画素では、結像光学系の射出瞳400と撮像素子103の入射瞳とにずれが生じ、結像光学系の射出瞳400が、平面図で示すように不均一に分割されてしまう。   FIG. 9B shows a case where the exit pupil distance Dl of the imaging optical system is shorter than the set pupil distance Ds of the image sensor (D1 <Ds). In this case, in the peripheral pixels of the image sensor, a deviation occurs between the exit pupil 400 of the image forming optical system and the entrance pupil of the image sensor 103, and the exit pupil 400 of the image forming optical system is not as shown in the plan view. It is divided evenly.

図9(c)は、結像光学系の射出瞳距離Dlが撮像素子の設定瞳距離Dsより長い(D1>Ds)場合を示している。この場合も、D1<Dsの場合と同様、撮像素子の周辺部の画素では、結像光学系の射出瞳400と撮像素子103の入射瞳とにずれが生じ、結像光学系の射出瞳400が不均一に分割されてしまう。   FIG. 9C shows a case where the exit pupil distance Dl of the imaging optical system is longer than the set pupil distance Ds of the image sensor (D1> Ds). Also in this case, as in the case of D1 <Ds, in the peripheral pixels of the imaging device, a deviation occurs between the exit pupil 400 of the imaging optical system and the entrance pupil of the imaging device 103, and the exit pupil 400 of the imaging optical system. Will be divided unevenly.

瞳分割が不均一になると、第1焦点検出画素と第2焦点検出画素で得られる信号強度に差が生じるため、第1焦点検出信号と第2焦点検出信号の強度が不均一となる(一方の強度が大きくなり、他方の強度が小さくなる)シェーディングが生じる。   If pupil division becomes non-uniform, there will be a difference in signal intensity obtained between the first focus detection pixel and the second focus detection pixel, so the intensity of the first focus detection signal and the second focus detection signal will be non-uniform (one side) ) Increases in intensity and decreases in intensity on the other side).

S130で補正部107は、焦点検出領域の像高と、撮像レンズ(結像光学系)の絞り値(F値)と、射出瞳距離とに応じて、第1焦点検出信号の第1シェーディング補正係数と、第2焦点検出信号の第2シェーディング補正係数を、それぞれ生成する。そして、制御部110は、第1シェーディング補正係数を第1焦点検出信号に乗算し、第2シェーディング補正係数を第2焦点検出信号に乗算して、第1焦点検出信号と第2焦点検出信号のシェーディング補正処理を行う。焦点検出領域の像高は、焦点検出領域に含まれる画素位置の代表的な像高であってよく、例えば中心位置の像高であってよい。   In S130, the correction unit 107 performs the first shading correction of the first focus detection signal according to the image height of the focus detection region, the aperture value (F value) of the imaging lens (imaging optical system), and the exit pupil distance. A coefficient and a second shading correction coefficient of the second focus detection signal are respectively generated. Then, the control unit 110 multiplies the first focus detection signal by the first shading correction coefficient, multiplies the second focus detection signal by the second shading correction coefficient, and calculates the first focus detection signal and the second focus detection signal. Perform shading correction processing. The image height of the focus detection area may be a representative image height of a pixel position included in the focus detection area, for example, an image height of the center position.

第1焦点検出信号と第2焦点検出信号との相関(信号の一致度)を基に、デフォーカス量を算出する際、上述のシェーディングが生じると、デフォーカス量の精度が低下する場合がある。そのため、本実施形態では、焦点検出信号にシェーディング補正を行うことで、精度の良いデフォーカス量の算出を実現する。   When calculating the defocus amount based on the correlation (signal coincidence) between the first focus detection signal and the second focus detection signal, if the above-described shading occurs, the accuracy of the defocus amount may decrease. . Therefore, in this embodiment, accurate calculation of the defocus amount is realized by performing shading correction on the focus detection signal.

なお、シェーディングが生じる原因として、撮像素子103の設定瞳距離Dsは変化せず、結像光学系の射出瞳距離D1が変化する場合を説明したが、結像光学系の射出瞳距離D1が変化せず、撮像素子103の設定瞳距離Dsが変化する場合も同様である。撮像面位相差AFでは、撮像素子103の設定瞳距離Dsの変化に伴い、焦点検出画素(第1焦点検出画素および第2焦点検出画素)が受光する光束と、撮像画素が受光する光束が変化する。   Note that although the setting pupil distance Ds of the image sensor 103 does not change and the exit pupil distance D1 of the imaging optical system changes as a cause of shading, the exit pupil distance D1 of the imaging optical system changes. The same applies to the case where the set pupil distance Ds of the image sensor 103 changes. In the imaging plane phase difference AF, the light flux received by the focus detection pixels (the first focus detection pixel and the second focus detection pixel) and the light flux received by the imaging pixels change as the set pupil distance Ds of the image sensor 103 changes. To do.

S140で補正部107は、シェーディング補正後の第1および第2焦点検出信号に、フィルタ処理を適用する。図10に、本実施形態で適用するフィルタ処理で適用する帯域通過フィルタの周波数特性の例を示す。大デフォーカス状態での焦点検出を位相差検出方式で行い、小デフォーカス状態での焦点検出はコントラスト方式で行うような場合、実線で示すような、主に低周波帯域を通過帯域として含むフィルタを適用することができる。大デフォーカス状態から小デフォーカス状態までをカバーする場合には、図10に1点鎖線で示すような、より広範囲な通過帯域を有するフィルタを適用することができる。補正部107はフィルタ処理後の第1および第2焦点検出信号を焦点検出部108に供給する。   In S140, the correction unit 107 applies filter processing to the first and second focus detection signals after shading correction. FIG. 10 shows an example of the frequency characteristics of the band pass filter applied in the filter processing applied in the present embodiment. When the focus detection in the large defocus state is performed by the phase difference detection method and the focus detection in the small defocus state is performed by the contrast method, a filter mainly including a low frequency band as a pass band as shown by a solid line. Can be applied. In the case of covering from the large defocus state to the small defocus state, a filter having a wider pass band as shown by a one-dot chain line in FIG. 10 can be applied. The correction unit 107 supplies the first and second focus detection signals after the filter processing to the focus detection unit 108.

S150で焦点検出部108は、フィルタ処理後の第1焦点検出信号と第2焦点検出信号を相対的に瞳分割方向にシフトさせるシフト処理を行い、信号の一致度を表す相関量を算出する。   In S150, the focus detection unit 108 performs a shift process of relatively shifting the first focus detection signal and the second focus detection signal after the filter processing in the pupil division direction, and calculates a correlation amount representing the degree of coincidence of the signals.

フィルタ処理後の第1焦点検出信号および第2焦点検出信号を構成するk番目の信号をそれぞれA(k),B(k)、第1焦点検出信号(および第2焦点検出信号)を構成する信号の数をWとする。従って、番号kの範囲は1〜Wである。シフト処理によるシフト量をs、シフト量sの範囲をΓとして、相関量CORは、式(1)により算出される。

Figure 0006467289
The kth signals constituting the first focus detection signal and the second focus detection signal after the filter processing constitute A (k), B (k), and the first focus detection signal (and the second focus detection signal), respectively. Let W be the number of signals. Therefore, the range of the number k is 1 to W. The correlation amount COR is calculated by the equation (1), where s is the shift amount by the shift process and Γ is the range of the shift amount s.
Figure 0006467289

シフト量sのシフト処理により、焦点検出部108は、第1焦点検出信号を構成するk番目の信号A(k)と第2焦点検出信号を構成する(k−s)番目の信号B(k−s)とを減算し、シフト減算信号を生成する。そして焦点検出部108は生成したシフト減算信号の絶対値を計算し、焦点検出領域に対応する範囲W内でkの値を順次変えながら累積して、シフト量sに対する相関量COR(s)を算出する。同じシフト量sで異なる複数の画素行について算出された複数の相関量を加算して相関量COR(s)を算出してもよい。   By the shift process of the shift amount s, the focus detection unit 108 performs the kth signal A (k) constituting the first focus detection signal and the (k−s) th signal B (k) constituting the second focus detection signal. -S) is subtracted to generate a shift subtraction signal. Then, the focus detection unit 108 calculates the absolute value of the generated shift subtraction signal, accumulates the value of k within the range W corresponding to the focus detection region while sequentially changing, and calculates the correlation amount COR (s) with respect to the shift amount s. calculate. The correlation amount COR (s) may be calculated by adding a plurality of correlation amounts calculated for a plurality of different pixel rows with the same shift amount s.

S160で焦点検出部108は、相関量CORから、サブピクセル演算により、相関量が最小値となる実数値のシフト量を算出して像ずれ量pとする。像ずれ量pに、焦点検出領域の像高と、撮像レンズ(結像光学系)の絞り値と、射出瞳距離とに応じた変換係数Kを乗じたpKをデフォーカス量(Def)として算出する。   In S <b> 160, the focus detection unit 108 calculates a real value shift amount at which the correlation amount is the minimum value from the correlation amount COR by sub-pixel calculation, and sets it as the image shift amount p. The defocus amount (Def) is calculated by multiplying the image shift amount p by the conversion factor K corresponding to the image height of the focus detection region, the aperture value of the imaging lens (imaging optical system), and the exit pupil distance. To do.

図7(b)は、図6のS200において実行される、第2のデフォーカス算出処理の詳細を説明するためのフローチャートであり、第1のデフォーカス算出処理と同様の動作ステップには同じ参照数字を付してある。   FIG. 7B is a flowchart for explaining the details of the second defocus calculation process executed in S200 of FIG. 6, and the same reference is made to the operation steps similar to those of the first defocus calculation process. Numbers are attached.

S210で制御部110は、第2の読み出しモードで撮像素子103の読み出しを行うように信号読み出し部105に設定する。第2の読み出しモードでは、撮像素子103の瞳分割(水平)方向における画素の加算処理は行わず、瞳分割方向と直交する(垂直)方向に隣接する複数の画素行(ここでは一例として4行とする)での加算処理を行う。信号読み出し部105は、第2の読み出しモードを実現するタイミング信号を生成して撮像素子103に供給し、画像信号を読み出す。なお、垂直方向の加算は、信号読み出し部105で実行してもよい。この場合、読み出し画素数は減少しないが、後段の処理負荷は軽減できる。   In S210, the control unit 110 sets the signal reading unit 105 to read the image sensor 103 in the second reading mode. In the second readout mode, pixel addition processing in the pupil division (horizontal) direction of the image sensor 103 is not performed, and a plurality of pixel rows adjacent in the (vertical) direction orthogonal to the pupil division direction (here, four rows as an example) )) Is performed. The signal readout unit 105 generates a timing signal for realizing the second readout mode, supplies the timing signal to the image sensor 103, and reads out the image signal. Note that the addition in the vertical direction may be executed by the signal reading unit 105. In this case, the number of readout pixels does not decrease, but the processing load at the subsequent stage can be reduced.

星空のような、主被写体(星)の像が極めて小さく、かつ背景(空)についてもコントラストが低いシーンについて画素加算処理(平均化処理)を行うと、主被写体部分の輝度の立ち上がりが緩やかになる。従って、瞳分割方向に加算処理を適用すると、位相差の検出精度、すなわち焦点検出精度を低下させる原因となる。従って、星空撮影モードが設定されている場合、瞳分割方向には画素加算処理を行わない。また、第1のデフォーカス算出処理のような垂直方向の間引きを実行すると、間引きによって主被写体の像が失われる可能性がある。   When pixel addition processing (averaging processing) is performed on a scene where the image of the main subject (star), such as the starry sky, is extremely small and the background (sky) is low in contrast, the rise of the luminance of the main subject portion is moderated. Become. Therefore, if the addition process is applied in the pupil division direction, the phase difference detection accuracy, that is, the focus detection accuracy is reduced. Therefore, when the starry sky shooting mode is set, pixel addition processing is not performed in the pupil division direction. Also, if vertical thinning is performed as in the first defocus calculation process, the image of the main subject may be lost due to thinning.

一方、垂直方向における画素加算については、瞳分割方向と直交する方向での加算のため、焦点検出精度に与える影響が小さい。また、間引きと異なり像が失われることはない。また、加算処理によってランダムノイズを低減する効果がある。ランダムノイズは暗部や高感度撮影時に目立ちやすいため、暗い背景が多くを占め、高感度撮影になりやすい星空の撮影シーンでは効果が大きい。このように、瞳分割方向では加算処理を行わずに、瞳分割方向と異なる方向で加算処理を行うことにより、焦点検出精度への影響を抑制しながら、処理負荷ならびにノイズの低減を計ることができる。   On the other hand, pixel addition in the vertical direction has a small influence on focus detection accuracy because of addition in a direction orthogonal to the pupil division direction. Also, unlike thinning, images are not lost. In addition, there is an effect of reducing random noise by the addition processing. Random noise is conspicuous in dark areas and high-sensitivity shooting, so it has a great effect in shooting scenes in the starry sky, where dark backgrounds occupy many and high-sensitivity shooting is likely. In this way, by performing addition processing in a direction different from the pupil division direction without performing addition processing in the pupil division direction, it is possible to reduce processing load and noise while suppressing influence on focus detection accuracy. it can.

S120〜S160は図7(a)に関して説明した第1のデフォーカス算出処理と同様の処理を行えばよい。ただし、第2のデフォーカス算出処理では瞳分割方向に画素加算処理を行っていないため、第1のデフォーカス算出処理よりも高域の周波数成分が第1および第2焦点検出信号に含まれている。そのため、より適切な帯域を抽出できるよう、S140で適用するフィルタの通過周波数特性を第1のデフォーカス算出処理と異ならせてもよい。第2のデフォーカス算出処理で得られた像ずれ量をp1、デフォーカス量(Def)をp1Kとする。   In S120 to S160, the same process as the first defocus calculation process described with reference to FIG. However, since the pixel addition process is not performed in the pupil division direction in the second defocus calculation process, a higher frequency component than the first defocus calculation process is included in the first and second focus detection signals. Yes. Therefore, the pass frequency characteristics of the filter applied in S140 may be different from the first defocus calculation process so that a more appropriate band can be extracted. Assume that the image shift amount obtained by the second defocus calculation processing is p1, and the defocus amount (Def) is p1K.

以上説明したように、本実施形態のデジタルカメラは、瞳分割方向に加算や間引きを行わず、瞳分割方向と異なる方向に加算を行った画像信号に基づいて自動焦点検出を行う動作モードを有する。このような動作モードで位相差検出方式の自動焦点検出を行うことにより、輝度やコントラストの低い被写体を撮影する際の焦点検出精度を改善するとともに、ノイズの影響を低減することが可能になる。   As described above, the digital camera of the present embodiment has an operation mode in which automatic focus detection is performed based on an image signal that is added in a direction different from the pupil division direction without performing addition or thinning in the pupil division direction. . By performing automatic focus detection using the phase difference detection method in such an operation mode, it is possible to improve focus detection accuracy when shooting a subject with low brightness and contrast and to reduce the influence of noise.

なお、本実施形態では通常モード用のデフォーカス算出処理では瞳分割方向と異なる方向においては間引きを行い、加算を行わない構成について説明した。しかし、通常モード用のデフォーカス算出処理において、間引きに代えて、あるいは間引きに加えて、瞳分割方向と異なる方向における加算処理を実行してもよい。この場合、星空撮影モード用のデフォーカス算出処理では、通常モード用のデフォーカス算出処理よりも加算数を大きくするように構成することができる。   In the present embodiment, the configuration has been described in which the defocus calculation processing for the normal mode performs thinning in a direction different from the pupil division direction and does not perform addition. However, in the normal mode defocus calculation process, an addition process in a direction different from the pupil division direction may be executed instead of or in addition to the decimation. In this case, the defocus calculation process for the starry sky shooting mode can be configured to have a larger number of additions than the defocus calculation process for the normal mode.

また、星空撮影モードにおいて、瞳分割方向と異なる方向における加算数を動的に変更してもよい。例えば、焦点検出領域内の高輝度画素(所定の輝度値を超える画素)を制御部110で計数する。そして、制御部110は、高輝度画素(=星像領域)の合計数が第1の閾値より多く第2の閾値より少ない場合には標準の加算数、第2の閾値以上の場合には標準より多い加算数、第1の閾値以下の場合には標準より少ない加算数を決定することができる。星像が焦点検出領域内に多く存在する場合、焦点検出領域内の情報量が多いことを示すため、瞳分割方向と異なる方向での像加算を積極的に行っても焦点検出精度への影響は少ないと考えられるためである。   In addition, in the starry sky shooting mode, the number of additions in a direction different from the pupil division direction may be dynamically changed. For example, the control unit 110 counts high-luminance pixels (pixels exceeding a predetermined luminance value) in the focus detection area. And the control part 110 is standard when the total number of high-intensity pixels (= star image area | region) is more than a 1st threshold value and less than a 2nd threshold value, and when it is more than a 2nd threshold value, it is standard. When the number of additions is larger than the first threshold value, the number of additions smaller than the standard can be determined. If there are many star images in the focus detection area, this indicates that there is a large amount of information in the focus detection area. Therefore, positive image addition in a direction different from the pupil division direction has an effect on focus detection accuracy. This is because there are few.

また、星空撮影モードにおいて、瞳分割方向と異なる方向における加算数を撮影光学系101の絞り値に応じて動的に変更してもよい。具体的には、絞り値が大きく(開口が小さく)なるにつれ、暗い星像が検出されなくなってくるため、加算数を増加させることができる。   In addition, in the starry sky photographing mode, the number of additions in a direction different from the pupil division direction may be dynamically changed according to the aperture value of the photographing optical system 101. Specifically, as the aperture value becomes larger (the aperture becomes smaller), a dark star image is no longer detected, so the number of additions can be increased.

●(第2実施形態)
次に本発明の第2実施形態について説明する。本実施形態は、第1実施形態における星空撮影モード用のデフォーカス算出処理(第2のデフォーカス算出処理)の別の例に該当するため、デジタルカメラの構成など、第1実施形態と同じ構成や処理についての説明は省略する。具体的には、図7(b)のS210で実行する、瞳分割方向と異なる方向(ここでは垂直方向)における加算処理の別の例に該当する。
● (Second Embodiment)
Next, a second embodiment of the present invention will be described. Since this embodiment corresponds to another example of the defocus calculation process (second defocus calculation process) for the starry sky shooting mode in the first embodiment, the same configuration as the first embodiment, such as the configuration of a digital camera, etc. And the explanation about the processing is omitted. Specifically, this corresponds to another example of addition processing in a direction different from the pupil division direction (here, the vertical direction), which is executed in S210 of FIG. 7B.

第1実施形態では、予め設定された加算数(4行)を無条件に加算するものであったが、本実施形態では、予め設定された加算数の行のうち、同じ列に存在する複数の画素値が条件を満たした場合だけ加算(平均)処理を行う点で異なる。図11に示すフローチャートを用い、具体的な加算処理について説明する。この加算処理は信号読み出し部105が実行する。なお、上述したように、設定される加算数は必ずしも固定でなくてよい。   In the first embodiment, a preset number of additions (four rows) is unconditionally added. However, in this embodiment, a plurality of preset number of addition rows that exist in the same column. The difference is that the addition (average) processing is performed only when the pixel value of the above satisfies the condition. A specific addition process will be described with reference to the flowchart shown in FIG. This addition processing is executed by the signal reading unit 105. As described above, the set number of additions is not necessarily fixed.

信号読み出し部105は、以下の処理を列ごとに実行する。
S310で信号読み出し部105は、読み出し行番号Nを1に、列内ピーク値であるSを0に初期化する。
S320で信号読み出し部105は、N行目の信号であるSを取得する。この信号は撮像素子103から読み出してもよいし、信号読み出し部105内のバッファメモリに格納されているものであってもよい。
The signal reading unit 105 executes the following processing for each column.
In S310, the signal readout unit 105 initializes the readout row number N to 1, and the intra-column peak value SP to 0.
In S320, the signal reading unit 105 acquires SN , which is a signal in the Nth row. This signal may be read from the image sensor 103 or may be stored in a buffer memory in the signal reading unit 105.

S330で信号読み出し部105は、S320で取得した信号Sの値が予め定めた閾値であるSth以上であるか否か判定し、閾値以上の場合にはS360へ、閾値未満の場合にはS340へ処理を進める。ここで、閾値Sthは、点光源のような高輝度被写体を判別することが可能な任意の値として設定されており、例えば焦点検出領域内の平均信号強度であってもよい。 S330 the signal reading unit 105, the value of the acquired signal S N in S320, it is determined whether or not S th or more is a predetermined threshold value, to S360 in the case of more than the threshold value, if less than the threshold value The process proceeds to S340. Here, the threshold value S th is set as an arbitrary value capable of discriminating a high-luminance subject such as a point light source, and may be, for example, an average signal intensity in the focus detection region.

S340で信号読み出し部105は、Sが0よりも大きいか否か判定する。この処理は、加算対象の複数行のうち、これまでの行において閾値Sth以上の値を有する画素が存在したかどうかの判定であり、信号読み出し部105は、Sが0より大きいと判定されればS380へ、さもなければS345へ処理を進める。 S340 the signal reading unit 105 determines whether S P is greater than 0. This process, among the plurality of rows of addition target, it is judged whether or not the pixel having the threshold S th or more values were present in the lines up to this, the signal reading unit 105, determines that S P is greater than 0 If so, the process proceeds to S380; otherwise, the process proceeds to S345.

S345で信号読み出し部105は、N=4かどうか判定し、N=4であれば処理をS350へ、N<4の場合は処理をS390に進める。
S350で信号読み出し部105は、S(1≦N≦4)の加算処理(加算平均処理)を実行し、この列についての処理を終了する。加算結果はΣS/4である。S350が実行されるのは、この列には加算処理対象の行のいずれにも高輝度画素が存在しない場合だけであり、4行分の暗い空の部分の信号が加算(平均)される。一方、いずれかの行に高輝度画素が存在すれば、列内ピーク値Sを加算結果として用いる。
In S345, the signal reading unit 105 determines whether N = 4. If N = 4, the process proceeds to S350, and if N <4, the process proceeds to S390.
In S350, the signal reading unit 105 executes an addition process (addition averaging process) of S N (1 ≦ N ≦ 4), and ends the process for this column. The addition result is ΣS N / 4. S350 is executed only when there is no high-luminance pixel in any of the addition target rows in this column, and the signals of the dark sky portions for four rows are added (averaged). On the other hand, if there is a high luminance pixel in any row, it is used as a result of addition of the columns in the peak value S P.

S360で信号読み出し部105は、Sが、現在のSより大きいか否か判定し、大きいと判定されればS370へ、大きいと判定されなければS380へ処理を進める。
S370で信号読み出し部105は、現在のSをSで置き換える(更新する)。
S360 the signal reading section 105, S N is determined whether the current is greater than the S P, to S370 if it is determined to be larger, the process proceeds to S380 to be determined to be larger.
S370 the signal reading section 105 replaces the current S P at S N (updates).

S380で信号読み出し部105は、N=4か否か判定し、N=4であればこの列についての処理を終了し、N<4の場合は処理をS390に進める。
S390で信号読み出し部105は、Nに1を加えて処理をS320に戻す。
In S380, the signal reading unit 105 determines whether or not N = 4. If N = 4, the process for this column ends, and if N <4, the process proceeds to S390.
In S390, the signal reading unit 105 adds 1 to N and returns the process to S320.

上述の加算処理を各列について実行する。本実施形態において加算処理後に得られる画素信号は、高輝度画素が存在した列(水平座標)はピーク値を有する画素で、高輝度画素が存在しない列は加算平均された値を有する画素で構成される。従って、星像に該当する画素については他の行に存在するノイズ成分が重畳されず、星像に該当しない(空の)画素については加算処理によってノイズが低減され、相関演算の精度、すなわち焦点検出精度を向上することが可能になる。なお、本実施形態においても実際の処理は第1および第2焦点検出画素の出力について別個に実施される。   The above addition process is performed for each column. In the present embodiment, the pixel signal obtained after the addition processing is configured such that a column (horizontal coordinate) in which a high luminance pixel exists is a pixel having a peak value, and a column in which no high luminance pixel exists is a pixel having an addition averaged value. Is done. Therefore, noise components existing in other rows are not superimposed on pixels corresponding to the star image, and noise is reduced by addition processing for pixels not corresponding to the star image (empty), and the accuracy of correlation calculation, that is, focus Detection accuracy can be improved. In this embodiment, the actual processing is performed separately for the outputs of the first and second focus detection pixels.

●(第3実施形態)
次に本発明の第3実施形態について説明する。本実施形態は、第1実施形態における星空撮影モード用のデフォーカス算出処理(第2のデフォーカス算出処理)の別の例に該当するため、デジタルカメラの構成など、第1実施形態と同じ構成や処理についての説明は省略する。
● (Third embodiment)
Next, a third embodiment of the present invention will be described. Since this embodiment corresponds to another example of the defocus calculation process (second defocus calculation process) for the starry sky shooting mode in the first embodiment, the same configuration as the first embodiment, such as the configuration of a digital camera, etc. And the explanation about the processing is omitted.

図12(a)のフローチャートを用いて、本実施形態における第2のデフォーカス算出処理について説明する。図12(a)において、第1のデフォーカス算出処理(図7(a))と同様の動作ステップには同じ参照数字を付してある。   The second defocus calculation process in the present embodiment will be described with reference to the flowchart of FIG. In FIG. 12A, the same reference numerals are assigned to the operation steps similar to those in the first defocus calculation process (FIG. 7A).

S410で制御部110は、第3の読み出しモードで撮像素子103の読み出しを行うように信号読み出し部105に設定する。第3の読み出しモードでは、撮像素子103の瞳分割(水平)方向および、瞳分割方向と直交する(垂直)方向での加算および間引きを行わない。信号読み出し部105は、第3の読み出しモードを実現するタイミング信号を生成して撮像素子103に供給し、画像信号を読み出す。   In step S410, the control unit 110 sets the signal reading unit 105 to read the image sensor 103 in the third reading mode. In the third readout mode, addition and decimation are not performed in the pupil division (horizontal) direction of the image sensor 103 and in the (vertical) direction orthogonal to the pupil division direction. The signal readout unit 105 generates a timing signal that realizes the third readout mode, supplies the timing signal to the image sensor 103, and reads out the image signal.

第1実施形態と異なり垂直方向で加算処理を行わないのは、算出される相関量の精度を最優先にしているためであるが、その一方で処理負荷が増大する要因となる。そのため、本実施形態では、後述するように、間引き処理とは異なる方法で処理負荷を削減する。   Unlike the first embodiment, the addition process is not performed in the vertical direction because the accuracy of the calculated correlation amount is given the highest priority, but on the other hand, it becomes a factor that increases the processing load. Therefore, in this embodiment, as will be described later, the processing load is reduced by a method different from the thinning process.

S120〜S150は図7(a)に関して説明した第1のデフォーカス算出処理と同様の処理を行えばよい。ただし、第1実施形態で説明したように、第2のデフォーカス算出処理では瞳分割方向に画素加算処理を行っていないため、第1のデフォーカス算出処理よりも高域の周波数成分が第1および第2焦点検出信号に含まれている。そのため、より適切な帯域を抽出できるよう、S140で適用するフィルタの通過周波数特性を第1のデフォーカス算出処理と異ならせてもよい。   S120 to S150 may be performed in the same manner as the first defocus calculation process described with reference to FIG. However, as described in the first embodiment, since the pixel addition process is not performed in the pupil division direction in the second defocus calculation process, the higher frequency components than the first defocus calculation process are the first. And included in the second focus detection signal. Therefore, the pass frequency characteristics of the filter applied in S140 may be different from the first defocus calculation process so that a more appropriate band can be extracted.

S460で焦点検出部108は、S450で画素行(または画素ライン)ごとに算出した相関量に基づいて、被写体像(星像)を含んだ画素行を判定する。具体的には、焦点検出部108は、算出した相関量の最大値と最小値の差が所定の閾値以上である画素行には被写体像が含まれていると判定し、デフォーカス量の算出に用いる。上述のように、この判定は、相関量の信頼性が高い画素行の判定である。このように、信頼性が高いと判定された相関量だけを用いてデフォーカス量を算出することで、精度の高いデフォーカス量を得ることができるようになる。また、デフォーカス量の算出に用いる相関量を削減することで、デフォーカス量の算出に係るデータ量および処理量を軽減することができる。   In S460, the focus detection unit 108 determines a pixel row including a subject image (star image) based on the correlation amount calculated for each pixel row (or pixel line) in S450. Specifically, the focus detection unit 108 determines that a subject image is included in a pixel row in which the difference between the calculated maximum value and minimum value of the correlation amount is equal to or greater than a predetermined threshold, and calculates the defocus amount. Used for. As described above, this determination is a determination of a pixel row having a high correlation amount reliability. Thus, by calculating the defocus amount using only the correlation amount determined to have high reliability, a highly accurate defocus amount can be obtained. Further, by reducing the correlation amount used for calculating the defocus amount, the data amount and the processing amount relating to the defocus amount calculation can be reduced.

S160では、S460で信頼性が高いと判定された相関量に基づいて、第1実施形態と同様にデフォーカス量を算出する。第2のデフォーカス算出処理で得られた像ずれ量をp1、デフォーカス量(Def)をp1Kとする。   In S160, the defocus amount is calculated in the same manner as in the first embodiment, based on the correlation amount determined to have high reliability in S460. Assume that the image shift amount obtained by the second defocus calculation processing is p1, and the defocus amount (Def) is p1K.

なお、S460では、相関量に基づいて被写体像の有無(相関量の信頼度が高いか否か)を判定したが、第1および第2焦点検出信号に基づいて同様の判定を行うことができる。例えば、第1および第2焦点検出信号の最大値と最小値の差分が所定の閾値以上か否かを判定することができる。被写体像(たとえば星像)が含まれている領域は、背景(空)の部分と比較して極めて強い信号を有している。このため、第1および第2の焦点検出信号の最大値と最小値との差分が所定の閾値以上であれば、被写体像が含まれていると判定することができる。なお、最大値と最小値の差分の代わりに、最大値が所定の閾値以上か否かの判定としてもよい。   In S460, the presence or absence of the subject image (whether the reliability of the correlation amount is high) is determined based on the correlation amount, but the same determination can be performed based on the first and second focus detection signals. . For example, it can be determined whether or not the difference between the maximum value and the minimum value of the first and second focus detection signals is greater than or equal to a predetermined threshold value. A region including a subject image (for example, a star image) has a very strong signal compared to the background (sky) portion. Therefore, if the difference between the maximum value and the minimum value of the first and second focus detection signals is equal to or greater than a predetermined threshold, it can be determined that the subject image is included. Note that, instead of the difference between the maximum value and the minimum value, it may be determined whether the maximum value is equal to or greater than a predetermined threshold.

この場合、判定処理は、図12(b)に示すように、S120で第1および第2焦点検出信号を生成した後であれば、直後(S530)を含めた任意のタイミングで実施することができる。そして、判定処理より後の処理ステップでは、信頼性が高いと判定された画素行のデータのみを用いて処理を行うことができる。   In this case, as shown in FIG. 12B, the determination process may be performed at any timing including immediately after (S530) if the first and second focus detection signals are generated in S120. it can. In a processing step after the determination process, the process can be performed using only data of pixel rows determined to have high reliability.

本実施形態のデジタルカメラは、加算や間引きを行わない、撮像素子の空間分解能に等しい分解能を有する画像信号に基づいて自動焦点検出を行う動作モードを有する。そして、この動作モードにおいては、被写体が存在しない領域を除外してデフォーカス量を算出する。このような動作モードで自動焦点検出することにより、輝度やコントラストの低い被写体を撮影する際の焦点検出精度を改善しつつ、処理量を低減することが可能になる。   The digital camera according to the present embodiment has an operation mode in which automatic focus detection is performed based on an image signal having a resolution equal to the spatial resolution of the image sensor without performing addition or thinning. In this operation mode, the defocus amount is calculated by excluding the area where no subject exists. By performing automatic focus detection in such an operation mode, it is possible to reduce the amount of processing while improving focus detection accuracy when shooting a subject with low brightness and contrast.

(その他の実施形態)
星空シーンのように輝度の低いシーンの場合、1回のデフォーカス算出処理では信頼性の高い相関量が算出できないことも想定される。そのため、上述の実施形態の例えばS150において、焦点検出部108が、相関量の最大値と最小値の差分などに基づいて信頼性を判定するように構成してもよい。そして、信頼性が低い(例えば上述の差分が閾値以下)場合、信頼性が高いと判断されるまで、次のフレームに対して実行したデフォーカス算出処理で得られた相関量を累積することができる。複数フレームにわたる相関量の加算を行った場合、一般的なシーンではフレーム間における被写体の動きなどによって相関量の精度が低下する場合があるが、星空シーンのように被写体の動きが穏やかな場合には十分な精度が得られる。
(Other embodiments)
In the case of a low-luminance scene such as a starry sky scene, it is also assumed that a highly reliable correlation amount cannot be calculated by a single defocus calculation process. Therefore, for example, in S150 of the above-described embodiment, the focus detection unit 108 may be configured to determine the reliability based on the difference between the maximum value and the minimum value of the correlation amount. If the reliability is low (for example, the above difference is equal to or less than the threshold value), the correlation amount obtained by the defocus calculation process performed on the next frame may be accumulated until it is determined that the reliability is high. it can. When correlation amounts are added over multiple frames, the accuracy of the correlation amount may decrease due to the movement of the subject between frames in general scenes, but when the movement of the subject is gentle like a starry sky scene. Provides sufficient accuracy.

本発明の例示的な実施形態について説明したが、本発明は説明した実施形態の構成に限定されず、様々な変形及び変更が可能である。特許請求の範囲に記載された範囲に含まれる変形ならびに変更は本発明に含まれる。   Although exemplary embodiments of the present invention have been described, the present invention is not limited to the configurations of the described embodiments, and various modifications and changes can be made. Modifications and changes included in the scope of the claims are included in the present invention.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100…デジタルカメラ,101…撮影光学系,102…フォーカスレンズ,103…撮像素子,105…信号読み出し部,106…AF信号生成部,107…焦点検出部 DESCRIPTION OF SYMBOLS 100 ... Digital camera, 101 ... Shooting optical system, 102 ... Focus lens, 103 ... Imaging element, 105 ... Signal reading part, 106 ... AF signal generation part, 107 ... Focus detection part

Claims (14)

撮影光学系の瞳領域を瞳分割方向に分割して、異なる瞳部分領域を通過した光束に基づく複数の画像信号を生成可能な撮像素子と、
前記撮像素子から画像信号を取得する取得手段と、
前記画像信号に基づく1対の焦点検出信号を生成する生成手段と、
前記1対の焦点検出信号の相関量に基づいて前記撮影光学系のデフォーカス量を算出する算出手段と、
前記デフォーカス量に基づいて前記撮影光学系の焦点調節を行う駆動手段と、を有する撮像装置であって、
前記生成手段が、少なくとも前記瞳分割方向において前記撮像素子の空間分解能に等しい分解能を有し、前記瞳分割方向と異なる方向において間引きが行われていない画像信号に基づいて前記1対の焦点検出信号を生成する第1の焦点検出モードと、
前記生成手段が、前記瞳分割方向および前記異なる方向において前記撮像素子の空間分解能より低い分解能を有する画像信号に基づいて前記1対の焦点検出信号を生成する第2の焦点検出モードと、
を有することを特徴とする撮像装置。
An imaging element capable of generating a plurality of image signals based on a light flux that has passed through different pupil partial areas by dividing the pupil area of the imaging optical system in the pupil division direction;
Obtaining means for obtaining an image signal from the image sensor;
Generating means for generating a pair of focus detection signals based on the image signal;
Calculating means for calculating a defocus amount of the photographing optical system based on a correlation amount of the pair of focus detection signals;
A drive unit that adjusts the focus of the imaging optical system based on the defocus amount,
The generating means has the resolution at least equal to the spatial resolution of the image sensor in the pupil division direction, and the pair of focus detection signals based on an image signal that has not been thinned out in a direction different from the pupil division direction A first focus detection mode for generating
A second focus detection mode in which the generating means generates the pair of focus detection signals based on an image signal having a resolution lower than a spatial resolution of the image sensor in the pupil division direction and the different direction;
An imaging device comprising:
前記第2の焦点検出モードにおいて前記生成手段は、前記異なる方向に加算処理または間引き処理された画像信号に基づいて前記1対の焦点検出信号を生成することを特徴とする請求項1に記載の撮像装置。   2. The pair of focus detection signals according to claim 1, wherein in the second focus detection mode, the generation unit generates the pair of focus detection signals based on image signals that have been subjected to addition processing or thinning processing in the different directions. Imaging device. 前記第1の焦点検出モードにおいて前記生成手段は、前記異なる方向に、前記第2の焦点検出モードよりも多くの信号を加算処理した画像信号に基づいて前記1対の焦点検出信号を生成することを特徴とする請求項1または請求項2に記載の撮像装置。   In the first focus detection mode, the generation means generates the pair of focus detection signals based on image signals obtained by adding more signals in the different directions than in the second focus detection mode. The imaging device according to claim 1 or 2, wherein 前記第1の焦点検出モードにおける前記加算処理は閾値以上のピーク値を有さない複数の画素信号に対して適用され、閾値以上のピーク値がある場合には該ピーク値を加算処理後の画素信号とすることを特徴とする請求項3に記載の撮像装置。   The addition process in the first focus detection mode is applied to a plurality of pixel signals that do not have a peak value that is equal to or greater than a threshold value. The imaging apparatus according to claim 3, wherein the imaging apparatus is a signal. 前記第1の焦点検出モードにおいて前記生成手段は、前記異なる方向に加算処理されていない画像信号に基づいて前記1対の焦点検出信号を生成することを特徴とする請求項1または請求項2に記載の撮像装置。   3. The pair of focus detection signals according to claim 1, wherein in the first focus detection mode, the generation unit generates the pair of focus detection signals based on image signals not subjected to addition processing in the different directions. The imaging device described. 前記第1の焦点検出モードにおいて、前記算出手段は、前記1対の焦点検出信号または前記相関量のうち、信頼性が高いと判定されたものを用いて前記デフォーカス量を算出することを特徴とする請求項5に記載の撮像装置。   In the first focus detection mode, the calculation means calculates the defocus amount using the pair of focus detection signals or the correlation amount determined to have high reliability. The imaging device according to claim 5. 前記信頼性が、前記1対の焦点検出信号または前記相関量の最大値に基づいて判定されることを特徴とする請求項6に記載の撮像装置。   The imaging apparatus according to claim 6, wherein the reliability is determined based on the pair of focus detection signals or the maximum value of the correlation amount. 設定されている撮影モードに応じて、前記第1の焦点検出モードと前記第2の焦点検出モードの一方を選択する選択手段をさらに有することを特徴とする請求項1から請求項7のいずれか1項に記載の撮像装置。   8. The apparatus according to claim 1, further comprising a selection unit that selects one of the first focus detection mode and the second focus detection mode in accordance with a set photographing mode. The imaging apparatus according to item 1. 前記撮影モードが、ユーザによって設定されたものであることを特徴とする請求項8に記載の撮像装置。   The imaging apparatus according to claim 8, wherein the shooting mode is set by a user. 前記撮影モードが、シーン判別結果によって設定されたものであることを特徴とする請求項8に記載の撮像装置。   The imaging apparatus according to claim 8, wherein the shooting mode is set according to a scene discrimination result. 前記撮影モードが、低輝度の背景に点状の高輝度被写体が散在する領域が画面もしくは焦点検出領域の所定の割合以上を占めるシーンを撮影するための撮影モードであることを特徴とする請求項8から請求項10のいずれか1項に記載の撮像装置。   The photographing mode is a photographing mode for photographing a scene in which a region where dotted high-luminance subjects are scattered on a low-luminance background occupies a predetermined ratio or more of a screen or a focus detection region. The imaging device according to any one of claims 8 to 10. 前記撮影モードが、星空シーン、夜景シーンのいずれかを撮影するための撮影モードであることを特徴とする請求項8から請求項11のいずれか1項に記載の撮像装置。   12. The imaging apparatus according to claim 8, wherein the shooting mode is a shooting mode for shooting either a starry sky scene or a night scene. 撮影光学系の瞳領域を瞳分割方向に分割して、異なる瞳部分領域を通過した光束に基づく複数の画像信号を生成可能な撮像素子を有する撮像装置の制御方法であって、
取得手段が、前記撮像素子から画像信号を取得する取得工程と、
生成手段が、前記画像信号に基づく1対の焦点検出信号を生成する生成工程と、
算出手段が、前記1対の焦点検出信号の相関量に基づいて前記撮影光学系のデフォーカス量を算出する算出工程と、
駆動手段が、前記デフォーカス量に基づいて前記撮影光学系の焦点調節を行う駆動工程と、を有し、
前記生成工程が、
第1の焦点検出モードにおいて、少なくとも前記瞳分割方向において前記撮像素子の空間分解能に等しい分解能を有し、前記瞳分割方向と異なる方向において間引きが行われていない画像信号に基づいて前記1対の焦点検出信号を生成する工程と、
第2の焦点検出モードにおいて、前記瞳分割方向および前記異なる方向において前記撮像素子の空間分解能より低い分解能を有する画像信号に基づいて前記1対の焦点検出信号を生成する工程と、
を有することを特徴とする撮像装置の制御方法。
A method for controlling an imaging apparatus having an imaging element capable of generating a plurality of image signals based on a light flux that has passed through different pupil partial areas by dividing a pupil area of an imaging optical system in a pupil division direction,
An acquisition step of acquiring an image signal from the image sensor;
A generating step for generating a pair of focus detection signals based on the image signal;
A calculating step of calculating a defocus amount of the photographing optical system based on a correlation amount of the pair of focus detection signals;
A driving step for adjusting the focus of the photographing optical system based on the defocus amount;
The generating step includes
In the first focus detection mode, the pair of pairs is based on an image signal having a resolution at least equal to the spatial resolution of the image sensor in the pupil division direction and not thinned out in a direction different from the pupil division direction. Generating a focus detection signal;
Generating the pair of focus detection signals based on an image signal having a resolution lower than a spatial resolution of the image sensor in the pupil division direction and the different direction in the second focus detection mode;
A method for controlling an imaging apparatus, comprising:
撮像装置が有するコンピュータを、請求項1から請求項12のいずれか1項に記載の撮像装置の各手段として機能させるためのプログラム。   The program for functioning the computer which an imaging device has as each means of the imaging device of any one of Claims 1-12.
JP2015104004A 2015-05-21 2015-05-21 Imaging apparatus and control method thereof Active JP6467289B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015104004A JP6467289B2 (en) 2015-05-21 2015-05-21 Imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015104004A JP6467289B2 (en) 2015-05-21 2015-05-21 Imaging apparatus and control method thereof

Publications (2)

Publication Number Publication Date
JP2016218291A JP2016218291A (en) 2016-12-22
JP6467289B2 true JP6467289B2 (en) 2019-02-13

Family

ID=57580846

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015104004A Active JP6467289B2 (en) 2015-05-21 2015-05-21 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP6467289B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6935286B2 (en) * 2017-09-28 2021-09-15 キヤノン株式会社 Imaging device and its control method
JP7250428B2 (en) * 2018-03-22 2023-04-03 キヤノン株式会社 Imaging device and its control method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014118868A1 (en) * 2013-01-30 2014-08-07 パナソニック株式会社 Image capture device and solid state image capture device
JP6289017B2 (en) * 2013-03-27 2018-03-07 キヤノン株式会社 Imaging apparatus, control method therefor, program, and storage medium
JP2015080114A (en) * 2013-10-17 2015-04-23 キヤノン株式会社 Image-capturing device, control method therefor, program, and recording medium

Also Published As

Publication number Publication date
JP2016218291A (en) 2016-12-22

Similar Documents

Publication Publication Date Title
US9438786B2 (en) Focus adjustment apparatus, focus adjustment method and program, and imaging apparatus
US9531960B2 (en) Imaging apparatus for generating HDR image from images captured at different viewpoints and method for controlling imaging apparatus
JP6789833B2 (en) Image processing equipment, imaging equipment, image processing methods and programs
JP6249825B2 (en) Imaging device, control method thereof, and control program
JP6239857B2 (en) Imaging apparatus and control method thereof
US9462177B2 (en) Focus adjustment apparatus, focus adjustment method, storage medium storing focus adjustment program, and imaging apparatus
US9451145B2 (en) Image capturing apparatus including an image sensor that has pixels for detecting a phase difference and control method for the same
JP2023036625A (en) Imaging apparatus
KR101950689B1 (en) Image processing apparatus, image capturing apparatus, image processing method, program, and storage medium
JPWO2017170716A1 (en) Imaging apparatus, image processing apparatus, and electronic apparatus
US10681278B2 (en) Image capturing apparatus, control method of controlling the same, and storage medium for determining reliability of focus based on vignetting resulting from blur
JP6254843B2 (en) Image processing apparatus and control method thereof
JP6702669B2 (en) Imaging device and control method thereof
JP7019337B2 (en) Image stabilization device, lens device and their control method
JP6467289B2 (en) Imaging apparatus and control method thereof
JP6748477B2 (en) Imaging device, control method thereof, program, and storage medium
JP6270400B2 (en) Image processing apparatus, image processing method, and image processing program
JP6600162B2 (en) Imaging apparatus and control method thereof
JP6845912B2 (en) Imaging device and its control method
JP6900577B2 (en) Image processing equipment and programs
JPWO2017170717A1 (en) IMAGING DEVICE, FOCUS ADJUSTMENT DEVICE, AND ELECTRONIC DEVICE
JP2021157069A (en) Image tremor correction control device, imaging device and imaging device control method
WO2018181615A1 (en) Electronic device
JP5522299B2 (en) Imaging apparatus, imaging method, and program
JP2016009024A (en) Focus detector, control method of the same, and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190111

R151 Written notification of patent or utility model registration

Ref document number: 6467289

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151