JP2017032978A - Control device, imaging device, control method, program, and storage medium - Google Patents

Control device, imaging device, control method, program, and storage medium Download PDF

Info

Publication number
JP2017032978A
JP2017032978A JP2016103015A JP2016103015A JP2017032978A JP 2017032978 A JP2017032978 A JP 2017032978A JP 2016103015 A JP2016103015 A JP 2016103015A JP 2016103015 A JP2016103015 A JP 2016103015A JP 2017032978 A JP2017032978 A JP 2017032978A
Authority
JP
Japan
Prior art keywords
focus detection
signal
detection signal
color
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016103015A
Other languages
Japanese (ja)
Other versions
JP6639326B2 (en
Inventor
福田 浩一
Koichi Fukuda
浩一 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to CN201610560395.XA priority Critical patent/CN106412532B/en
Priority to KR1020160091079A priority patent/KR102057160B1/en
Priority to GB1613021.3A priority patent/GB2543127B/en
Priority to US15/223,497 priority patent/US10063764B2/en
Priority to DE102016114025.2A priority patent/DE102016114025A1/en
Publication of JP2017032978A publication Critical patent/JP2017032978A/en
Application granted granted Critical
Publication of JP6639326B2 publication Critical patent/JP6639326B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • G02B7/346Systems for automatic generation of focusing signals using different areas in a pupil plane using horizontal and vertical areas in the pupil plane, i.e. wide area autofocusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a control device capable of preventing a difference between a detected focus position based on a focus detection signal and an optimum focus position based on an imaging signal, and enabling a highly accurate focus detection.SOLUTION: A control device comprises generation means 121a for generating a first focus detection signal and a second focus detection signal on the basis of a plurality of kinds of color signals from a first pixels group and a second pixel group receiving luminous flux passing pupil partial areas different from each other, of an imaging optical system and calculation means 121b for calculating a defocus amount by a phase difference detection method using the first focus detection signal and the second focus detection signal. The generation means 121a, regarding the first pixel group and the second pixel group, generates the first focus detection signal and the second focus detection signal by combining the plurality of kinds of color signals so that centers of gravity of the color signals in a pupil division direction match each other.SELECTED DRAWING: Figure 12

Description

本発明は、位相差検出方式の焦点検出を行う撮像装置に関する。   The present invention relates to an imaging apparatus that performs focus detection using a phase difference detection method.

従来から、撮像素子からの焦点検出信号を用いて位相差検出方式(撮像面位相差方式)の焦点検出を行う撮像装置が知られている。   2. Description of the Related Art Conventionally, an imaging apparatus that performs focus detection by a phase difference detection method (imaging surface phase difference method) using a focus detection signal from an image sensor is known.

特許文献1には、1つの画素に対して、1つのマイクロレンズと複数に分割された光電変換部が形成されている2次元撮像素子を用いた撮像装置が開示されている。分割された光電変換部は、1つのマイクロレンズを介して撮影レンズの射出瞳の異なる瞳部分領域を受光するように構成され、瞳分割を行う。これらの分割された光電変換部(焦点検出画素)で受光したそれぞれの焦点検出信号に基づいて像ずれ量を算出し、位相差検出方式の焦点検出を行うことができる。特許文献2には、分割された光電変換部で受光したそれぞれの焦点検出信号を加算することにより撮像画像を生成する撮像装置が開示されている。   Patent Document 1 discloses an imaging device using a two-dimensional imaging element in which one microlens and a plurality of divided photoelectric conversion units are formed for one pixel. The divided photoelectric conversion unit is configured to receive a pupil partial region having a different exit pupil of the photographing lens through one microlens, and performs pupil division. The amount of image shift can be calculated based on the respective focus detection signals received by the divided photoelectric conversion units (focus detection pixels), and focus detection can be performed using a phase difference detection method. Patent Document 2 discloses an imaging apparatus that generates a captured image by adding respective focus detection signals received by divided photoelectric conversion units.

特許文献3には、複数の撮像画素の配列の一部に部分的に配置された一対の焦点検出画素を有する撮像装置が開示されている。一対の焦点検出画素は、開口部を有する遮光層により、撮影レンズの射出瞳の互いに異なる領域を受光するように構成され、瞳分割を行う。一対の焦点検出画素の焦点検出信号から像ずれ量を算出し、位相差検出方式の焦点検出を行うことができる。撮像面位相差方式の焦点検出によれば、撮像素子の焦点検出画素によりデフォーカス方向およびデフォーカス量を同時に検出することができ、高速なフォーカス制御が可能となる。   Patent Document 3 discloses an imaging apparatus having a pair of focus detection pixels partially arranged in a part of an array of a plurality of imaging pixels. The pair of focus detection pixels are configured to receive different regions of the exit pupil of the photographing lens by a light shielding layer having an opening, and perform pupil division. The amount of image shift can be calculated from the focus detection signals of the pair of focus detection pixels, and focus detection by the phase difference detection method can be performed. According to focus detection using the imaging surface phase difference method, the focus detection pixels of the image sensor can simultaneously detect the defocus direction and the defocus amount, and high-speed focus control is possible.

米国特許第4410804号明細書US Pat. No. 4,410,804 特開2001−083407号公報JP 2001-083407 A 特開2000−156823号公報JP 2000-156823 A

しかしながら、撮像面位相差方式では、焦点検出を行うための焦点検出信号の空間周波数帯域と、撮像画像を生成するための撮像信号の空間周波数帯域とが互いに異なる場合がある。この場合、焦点検出信号に基づく検出合焦位置と撮像信号に基づく最良合焦位置との間に差が生じ、高精度な焦点検出を行うことが難しい。   However, in the imaging plane phase difference method, the spatial frequency band of the focus detection signal for performing focus detection and the spatial frequency band of the imaging signal for generating a captured image may be different from each other. In this case, there is a difference between the detected focus position based on the focus detection signal and the best focus position based on the imaging signal, and it is difficult to perform highly accurate focus detection.

そこで本発明は、焦点検出信号に基づく検出合焦位置と撮像信号に基づく最良合焦位置との間の差を低減して、高精度な焦点検出が可能な制御装置、撮像装置、制御方法、プログラム、および、記憶媒体を提供する。   Therefore, the present invention reduces a difference between a detection focus position based on a focus detection signal and a best focus position based on an imaging signal, and enables a highly accurate focus detection control apparatus, imaging apparatus, control method, A program and a storage medium are provided.

本発明の一側面としての制御装置は、結像光学系の互いに異なる瞳部分領域を通過する光束を受光する第1画素群および第2画素群からの複数の種類の色信号に基づいて、第1焦点検出信号および第2焦点検出信号を生成する生成手段と、前記第1焦点検出信号および前記第2焦点検出信号を用いて位相差検出方式によりデフォーカス量を算出する算出手段とを有し、前記生成手段は、前記第1画素群に関し、前記複数の種類の色信号の瞳分割方向における重心が互いに一致するように該色信号を合成して前記第1焦点検出信号を生成し、前記第2画素群に関し、前記複数の種類の色信号の前記瞳分割方向における重心が互いに一致するように該色信号を合成して前記第2焦点検出信号を生成する。   The control device according to one aspect of the present invention is based on a plurality of types of color signals from the first pixel group and the second pixel group that receive light beams that pass through different pupil partial regions of the imaging optical system. A generating unit configured to generate a one focus detection signal and a second focus detection signal; and a calculation unit configured to calculate a defocus amount by a phase difference detection method using the first focus detection signal and the second focus detection signal. The generating unit generates the first focus detection signal by combining the color signals so that the centroids in the pupil division direction of the plurality of types of color signals coincide with each other with respect to the first pixel group; With respect to the second pixel group, the color signals are synthesized so that the centroids in the pupil division direction of the plurality of types of color signals coincide with each other to generate the second focus detection signal.

本発明の他の側面としての撮像装置は、結像光学系の互いに異なる瞳部分領域を通過する光束を受光する第1画素群および第2画素群を有する撮像素子と、前記第1画素群および前記第2画素群からの複数の種類の色信号に基づいて、第1焦点検出信号および第2焦点検出信号を生成する生成手段と、前記第1焦点検出信号および前記第2焦点検出信号を用いて位相差検出方式によりデフォーカス量を算出する算出手段とを有し、前記生成手段は、前記第1画素群に関し、前記複数の種類の色信号の瞳分割方向における重心が互いに一致するように該色信号を合成して前記第1焦点検出信号を生成し、前記第2画素群に関し、前記複数の種類の色信号の前記瞳分割方向における重心が互いに一致するように該色信号を合成して前記第2焦点検出信号を生成する。   An imaging device according to another aspect of the present invention includes an imaging device having a first pixel group and a second pixel group that receive light beams that pass through different pupil partial regions of the imaging optical system, the first pixel group, Based on a plurality of types of color signals from the second pixel group, the first focus detection signal and the second focus detection signal are generated, and the first focus detection signal and the second focus detection signal are used. Calculating means for calculating a defocus amount by a phase difference detection method, wherein the generating means relates to the first pixel group so that centroids in the pupil division direction of the plurality of types of color signals coincide with each other. The color signals are combined to generate the first focus detection signal, and the color signals are combined so that the centroids of the plurality of types of color signals in the pupil division direction coincide with each other with respect to the second pixel group. The second focus test To generate a signal.

本発明の他の側面としての制御方法は、結像光学系の互いに異なる瞳部分領域を通過する光束を受光する第1画素群および第2画素群からの複数の種類の色信号に基づいて、第1焦点検出信号および第2焦点検出信号を生成するステップと、前記第1焦点検出信号および前記第2焦点検出信号を用いて位相差検出方式によりデフォーカス量を算出するステップとを有し、前記第1焦点検出信号および前記第2焦点検出信号を生成するステップにおいて、前記第1画素群に関し、前記複数の種類の色信号の瞳分割方向における重心が互いに一致するように該色信号を合成して前記第1焦点検出信号を生成し、前記第2画素群に関し、前記複数の種類の色信号の前記瞳分割方向における重心が互いに一致するように該色信号を合成して前記第2焦点検出信号を生成する。   A control method according to another aspect of the present invention is based on a plurality of types of color signals from the first pixel group and the second pixel group that receive light beams that pass through different pupil partial regions of the imaging optical system. Generating a first focus detection signal and a second focus detection signal; and calculating a defocus amount by a phase difference detection method using the first focus detection signal and the second focus detection signal; In the step of generating the first focus detection signal and the second focus detection signal, the color signals are synthesized so that the centroids in the pupil division direction of the plurality of types of color signals coincide with each other with respect to the first pixel group. Then, the first focus detection signal is generated, and the color signal is synthesized with respect to the second pixel group so that the centroids in the pupil division direction of the plurality of types of color signals coincide with each other. Generating a detection signal.

本発明の他の側面としての制御方法は、距離情報を算出するために位相差検出方式により複数の検出信号を取得する制御方法であって、複数の種類の色信号を含む視点画像に対して第1処理を行い、前記色信号を合成した合成信号を取得するステップと、前記合成信号に対して第2処理を行い、前記検出信号を生成するステップとを有し、 前記第1処理は、前記視点画像の視点方向における重心が一致するように前記色信号を合成する処理である。   A control method according to another aspect of the present invention is a control method for acquiring a plurality of detection signals by a phase difference detection method in order to calculate distance information, and for a viewpoint image including a plurality of types of color signals. Performing a first process to obtain a synthesized signal obtained by synthesizing the color signals; and performing a second process on the synthesized signal to generate the detection signal, wherein the first process comprises: This is a process of synthesizing the color signals so that the centroids in the viewpoint direction of the viewpoint images coincide.

本発明の他の側面としてのプログラムは、結像光学系の互いに異なる瞳部分領域を通過する光束を受光する第1画素群および第2画素群からの複数の種類の色信号に基づいて、第1焦点検出信号および第2焦点検出信号を生成するステップと、前記第1焦点検出信号および前記第2焦点検出信号を用いて位相差検出方式によりデフォーカス量を算出するステップと、をコンピュータに実行させるプログラムであって、前記第1焦点検出信号および前記第2焦点検出信号を生成するステップにおいて、前記第1画素群に関し、前記複数の種類の色信号の瞳分割方向における重心が互いに一致するように該色信号を合成して前記第1焦点検出信号を生成し、前記第2画素群に関し、前記複数の種類の色信号の前記瞳分割方向における重心が互いに一致するように該色信号を合成して前記第2焦点検出信号を生成する。   According to another aspect of the present invention, there is provided a program based on a plurality of types of color signals from the first pixel group and the second pixel group that receive light beams that pass through different pupil partial regions of the imaging optical system. A step of generating a one focus detection signal and a second focus detection signal and a step of calculating a defocus amount by a phase difference detection method using the first focus detection signal and the second focus detection signal are executed on a computer. In the step of generating the first focus detection signal and the second focus detection signal, the centroids in the pupil division direction of the plurality of types of color signals are coincident with each other with respect to the first pixel group. The color signals are combined to generate the first focus detection signal, and the centroids of the plurality of types of color signals in the pupil division direction are mutually related with respect to the second pixel group. By combining the color signal to generate the second focus detection signal for match.

本発明の他の側面としての記憶媒体は、前記プログラムを記憶している。   A storage medium according to another aspect of the present invention stores the program.

本発明の他の目的及び特徴は、以下の実施例において説明される。   Other objects and features of the present invention are illustrated in the following examples.

本発明によれば、焦点検出信号に基づく検出合焦位置と撮像信号に基づく最良合焦位置との間の差を低減して、高精度な焦点検出が可能な制御装置、撮像装置、制御方法、プログラム、および、記憶媒体を提供することができる。   According to the present invention, a control device, an imaging device, and a control method capable of highly accurate focus detection by reducing a difference between a detection focus position based on a focus detection signal and a best focus position based on an imaging signal. , A program, and a storage medium can be provided.

各実施例における撮像装置のブロック図である。It is a block diagram of the imaging device in each embodiment. 実施例1、2における画素配列を示す図である。It is a figure which shows the pixel arrangement | sequence in Example 1,2. 実施例1、2における画素構造を示す図である。It is a figure which shows the pixel structure in Example 1,2. 各実施例における撮像素子および瞳分割機能の説明図である。It is explanatory drawing of the image pick-up element and pupil division function in each Example. 各実施例における撮像素子および瞳分割機能の説明図である。It is explanatory drawing of the image pick-up element and pupil division function in each Example. 各実施例におけるデフォーカス量と像ずれ量と関係図である。FIG. 6 is a relationship diagram between a defocus amount and an image shift amount in each embodiment. 各実施例における第1焦点検出処理を示すフローチャートである。It is a flowchart which shows the 1st focus detection process in each Example. 各実施例における第1画素加算処理の説明図である。It is explanatory drawing of the 1st pixel addition process in each Example. 各実施例における第1焦点検出信号および第2焦点検出信号の瞳ずれによるシェーディングの説明図である。It is explanatory drawing of the shading by the pupil shift | offset | difference of the 1st focus detection signal in each Example, and a 2nd focus detection signal. 各実施例におけるフィルタ周波数帯域の説明図である。It is explanatory drawing of the filter frequency band in each Example. 各実施例における第2焦点検出処理を示すフローチャートである。It is a flowchart which shows the 2nd focus detection process in each Example. 実施例1における第2画素加算処理の説明図である。It is explanatory drawing of the 2nd pixel addition process in Example 1. FIG. 各実施例におけるフォーカス制御を示すフローチャートである。It is a flowchart which shows the focus control in each Example. 実施例2における第2画素加算処理の説明図である。It is explanatory drawing of the 2nd pixel addition process in Example 2. FIG. 実施例3における画素配列を示す図である。FIG. 10 is a diagram illustrating a pixel array in Example 3. 実施例3における画素構造を示す図である。6 is a diagram illustrating a pixel structure in Embodiment 3. FIG. 各実施例におけるフォーカス制御を示すフローチャートである。It is a flowchart which shows the focus control in each Example.

以下、本発明の実施例について、図面を参照しながら詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

まず、図1を参照して、本発明の実施例1における撮像装置の概略構成について説明する。図1は、本実施例における撮像装置100(カメラ)のブロック図である。撮像装置100は、カメラ本体とカメラ本体に着脱可能な交換レンズ(結像光学系または撮影光学系)とを備えたデジタルカメラシステムである。ただし本実施例は、これに限定されるものではなく、カメラ本体とレンズとが一体的に構成された撮像装置にも適用可能である。   First, with reference to FIG. 1, a schematic configuration of the imaging apparatus according to the first embodiment of the present invention will be described. FIG. 1 is a block diagram of an imaging apparatus 100 (camera) in the present embodiment. The imaging apparatus 100 is a digital camera system that includes a camera body and an interchangeable lens (imaging optical system or photographing optical system) that can be attached to and detached from the camera body. However, the present embodiment is not limited to this, and can also be applied to an imaging apparatus in which a camera body and a lens are integrally configured.

第1レンズ群101は、撮影レンズ(結像光学系)を構成する複数のレンズ群のうち最も前方(被写体側)に配置されており、光軸OAの方向(光軸方向)に進退可能な状態でレンズ鏡筒に保持される。絞り兼用シャッタ102(絞り)は、その開口径を調節することで撮影時の光量調節を行うとともに、静止画撮影時には露光時間調節用シャッタとして機能する。第2レンズ群103は、絞り兼用シャッタ102と一体的に光軸方向に進退し、第1レンズ群101の進退動作と連動して変倍動作を行うズーム機能を有する。第3レンズ群105は、光軸方向に進退することにより焦点調節(フォーカス動作)を行うフォーカスレンズ群である。光学的ローパスフィルタ106は、撮影画像の偽色やモアレを軽減するための光学素子である。   The first lens group 101 is disposed in the forefront (subject side) of the plurality of lens groups constituting the photographing lens (imaging optical system), and can advance and retreat in the direction of the optical axis OA (optical axis direction). The lens barrel is held in a state. The aperture / shutter 102 (aperture) adjusts the aperture to adjust the amount of light during shooting, and also functions as an exposure time adjustment shutter during still image shooting. The second lens group 103 has a zoom function of moving forward and backward in the optical axis direction integrally with the diaphragm / shutter 102 and performing a zooming operation in conjunction with the forward / backward movement of the first lens group 101. The third lens group 105 is a focus lens group that performs focus adjustment (focus operation) by moving back and forth in the optical axis direction. The optical low-pass filter 106 is an optical element for reducing false colors and moire in the captured image.

撮像素子107は、結像光学系を介して被写体像(光学像)の光電変換を行い、例えばCMOSセンサまたはCCDセンサ、および、その周辺回路により構成される。撮像素子107としては、例えば、横方向にm個の画素、縦方向にn個の画素を有する受光ピクセル上にベイヤー配列の原色カラーモザイクフィルタをオンチップで形成した2次元単板カラーセンサが用いられる。   The image sensor 107 performs photoelectric conversion of a subject image (optical image) via an imaging optical system, and includes, for example, a CMOS sensor or a CCD sensor and its peripheral circuits. As the image sensor 107, for example, a two-dimensional single-plate color sensor in which a Bayer array primary color mosaic filter is formed on-chip on a light receiving pixel having m pixels in the horizontal direction and n pixels in the vertical direction is used. It is done.

ズームアクチュエータ111は、不図示のカム筒を回動(駆動)することで第1レンズ群101および第2レンズ群103を光軸方向に沿って移動させることにより、変倍動作を行う。絞りシャッタアクチュエータ112は、絞り兼用シャッタ102の開口径を制御して光量(撮影光量)を調節するとともに、静止画撮影時の露光時間を制御する。フォーカスアクチュエータ114は、第3レンズ群105を光軸方向に移動させて焦点調節を行う。   The zoom actuator 111 performs a zooming operation by moving the first lens group 101 and the second lens group 103 along the optical axis direction by rotating (driving) a cam cylinder (not shown). The aperture shutter actuator 112 controls the aperture diameter of the aperture / shutter 102 to adjust the amount of light (photographing light amount), and also controls the exposure time during still image shooting. The focus actuator 114 adjusts the focus by moving the third lens group 105 in the optical axis direction.

電子フラッシュ115は、被写体を照明するために用いられる照明装置である。電子フラッシュ115としては、キセノン管を備えた閃光照明装置または連続発光するLED(発光ダイオード)を備えた照明装置が用いられる。AF補助光手段116は、所定の開口パターンを有するマスクの像を、投光レンズを介して、被写体に投影する。これにより、暗い被写体や低コントラストの被写体に対する焦点検出能力を向上させることができる。   The electronic flash 115 is an illumination device used to illuminate a subject. As the electronic flash 115, a flash illumination device including a xenon tube or an illumination device including an LED (light emitting diode) that continuously emits light is used. The AF auxiliary light unit 116 projects an image of a mask having a predetermined opening pattern onto a subject via a light projection lens. As a result, the focus detection capability for a dark subject or a low-contrast subject can be improved.

CPU121は、撮像装置100の種々の制御を司る制御装置(制御手段)である。CPU121は、演算部、ROM、RAM、A/Dコンバータ、D/Aコンバータ、および、通信インターフェイス回路などを有する。CPU121は、ROMに記憶された所定のプログラムを読み出して実行することにより、撮像装置100の各種回路を駆動し、焦点検出(AF)、撮影、画像処理、または、記録などの一連の動作を制御する。なお、通信インターフェイス回路は、USBや有線LANなどのケーブルを用いた通信のみならず、無線LANなどの無線技術を用いた通信を行うことが可能である。   The CPU 121 is a control device (control means) that performs various controls of the imaging device 100. The CPU 121 includes a calculation unit, a ROM, a RAM, an A / D converter, a D / A converter, a communication interface circuit, and the like. The CPU 121 reads and executes a predetermined program stored in the ROM, thereby driving various circuits of the imaging apparatus 100 and controlling a series of operations such as focus detection (AF), shooting, image processing, or recording. To do. Note that the communication interface circuit can perform communication using a wireless technology such as a wireless LAN as well as communication using a cable such as a USB or a wired LAN.

CPU121は、生成手段121a、算出手段121b、フォーカス制御手段121cを有する。生成手段121aは、結像光学系の互いに異なる瞳部分領域を通過する光束を受光する複数の光電変換部(第1画素群および第2画素群)からの複数の種類の色信号に基づいて、第1焦点検出信号および第2焦点検出信号を生成する。算出手段121bは、第1焦点検出信号および第2焦点検出信号を用いて位相差検出方式によりデフォーカス量を算出する。フォーカス制御手段121cは、デフォーカス量に基づいてフォーカス制御を行う。なお生成手段121aは、複数の種類の色信号に基づいて、視点画像(視差画像)を生成することもできる。   The CPU 121 includes a generation unit 121a, a calculation unit 121b, and a focus control unit 121c. The generating unit 121a is based on a plurality of types of color signals from a plurality of photoelectric conversion units (first pixel group and second pixel group) that receive light beams that pass through different pupil partial regions of the imaging optical system. A first focus detection signal and a second focus detection signal are generated. The calculating means 121b calculates the defocus amount by the phase difference detection method using the first focus detection signal and the second focus detection signal. The focus control unit 121c performs focus control based on the defocus amount. The generation unit 121a can also generate a viewpoint image (parallax image) based on a plurality of types of color signals.

電子フラッシュ制御回路122は、撮影動作に同期して電子フラッシュ115の点灯制御を行う。補助光駆動回路123は、焦点検出動作に同期してAF補助光手段116の点灯制御を行う。撮像素子駆動回路124は、撮像素子107の垂直および水平走査などの撮像動作を制御するとともに、取得した画像信号をA/D変換してCPU121に送信する。なお、A/D変換回路は、撮像素子107内に設けるようにしてもよい。画像処理回路125は、撮像素子107から出力された画像データのγ(ガンマ)変換、カラー補間、または、JPEG(Joint Photographic Experts Group)圧縮などの処理を行う。   The electronic flash control circuit 122 controls lighting of the electronic flash 115 in synchronization with the photographing operation. The auxiliary light driving circuit 123 performs lighting control of the AF auxiliary light unit 116 in synchronization with the focus detection operation. The image sensor driving circuit 124 controls the imaging operation such as vertical and horizontal scanning of the image sensor 107 and A / D-converts the acquired image signal and transmits it to the CPU 121. Note that the A / D conversion circuit may be provided in the image sensor 107. The image processing circuit 125 performs processing such as γ (gamma) conversion, color interpolation, or JPEG (Joint Photographic Experts Group) compression of the image data output from the image sensor 107.

フォーカス駆動回路126は、焦点検出結果に基づいてフォーカスアクチュエータ114を駆動し、第3レンズ群105を光軸方向に沿って移動させることにより、焦点調節を行う。絞りシャッタ駆動回路128は、絞りシャッタアクチュエータ112を駆動して、絞り兼用シャッタ102の開口径を制御する。ズーム駆動回路129は、撮影者のズーム操作に応じて、ズームアクチュエータ111を駆動する。   The focus drive circuit 126 performs focus adjustment by driving the focus actuator 114 based on the focus detection result and moving the third lens group 105 along the optical axis direction. The aperture shutter drive circuit 128 drives the aperture shutter actuator 112 to control the aperture diameter of the aperture / shutter 102. The zoom drive circuit 129 drives the zoom actuator 111 according to the zoom operation of the photographer.

表示器131は、例えばLCD(液晶表示装置)を備えて構成される。表示器131は、撮像装置100の撮影モードに関する情報、撮影前のプレビュー画像、撮影後の確認用画像、または、焦点検出時の合焦状態表示画像などを表示する。操作部132(操作スイッチ群)は、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、および、撮影モード選択スイッチなどを備えて構成される。レリーズスイッチは、半押し状態(SW1がONの状態)、および、全押し状態(SW2がONの状態)の2段階のスイッチを有する。記録媒体133は、例えば撮像装置100に着脱可能なフラッシュメモリであり、撮影画像(画像データ)を記録する。また、操作部132にタッチパネルなどを含ませ、タッチパネルを用いて操作可能にしてもよい。   The display 131 includes, for example, an LCD (Liquid Crystal Display). The display 131 displays information related to the shooting mode of the imaging apparatus 100, a preview image before shooting, a confirmation image after shooting, a focus state display image at the time of focus detection, and the like. The operation unit 132 (operation switch group) includes a power switch, a release (shooting trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like. The release switch has a two-stage switch in a half-pressed state (a state where SW1 is ON) and a full-pressed state (a state where SW2 is ON). The recording medium 133 is, for example, a flash memory that can be attached to and detached from the imaging apparatus 100, and records captured images (image data). Further, a touch panel or the like may be included in the operation unit 132 so that the operation can be performed using the touch panel.

次に、図2および図3を参照して、本実施例における撮像素子107の画素配列および画素構造について説明する。図2は、撮像素子107の画素配列を示す図である。図3は、撮像素子107の画素構造を示す図であり、図3(a)は撮像素子107の画素200Gの平面図(+z方向から見た図)、図3(b)は図3(a)中の線a−aの断面図(−y方向から見た図)をそれぞれ示している。   Next, with reference to FIG. 2 and FIG. 3, the pixel arrangement and the pixel structure of the image sensor 107 in the present embodiment will be described. FIG. 2 is a diagram illustrating a pixel array of the image sensor 107. 3A and 3B are diagrams illustrating the pixel structure of the image sensor 107. FIG. 3A is a plan view of the pixel 200G of the image sensor 107 (viewed from the + z direction), and FIG. ) Is a sectional view taken along line aa (viewed from the -y direction).

図2は、撮像素子107(2次元CMOSセンサ)の画素配列(撮影画素の配列)を、4列×4行の範囲で示している。本実施例において、各々の撮像画素(画素200R、200G、200B)は、2つの副画素201、202(2つの焦点検出画素)により構成さている。このため、図2には、副画素の配列が、8列×4行の範囲で示されている。   FIG. 2 shows a pixel array (photographing pixel array) of the image sensor 107 (two-dimensional CMOS sensor) in a range of 4 columns × 4 rows. In this embodiment, each imaging pixel (pixels 200R, 200G, and 200B) includes two sub-pixels 201 and 202 (two focus detection pixels). For this reason, in FIG. 2, the arrangement of subpixels is shown in a range of 8 columns × 4 rows.

図2に示されるように、2列×2行の画素群200は、画素200R、200G、200Bがベイヤー配列で配置されている。すなわち画素群200のうち、R(赤)の分光感度を有する画素200Rが左上に、G(緑)の分光感度を有する画素200Gが右上と左下に、B(青)の分光感度を有する画素200Bが右下にそれぞれ配置されている。各画素200R、200G、200B(各撮像画素)は、2列×1行に配列された副画素201(第1焦点検出画素)および副画素202(第2焦点検出画素)により構成されている。副画素201は、結像光学系の第1瞳部分領域を通過した光束を受光する画素である。副画素202は、結像光学系の第2瞳部分領域を通過した光束を受光する画素である。複数の副画素201は第1画素群を構成し、複数の副画素202は第2画素群を構成する。   As shown in FIG. 2, a pixel group 200 of 2 columns × 2 rows has pixels 200R, 200G, and 200B arranged in a Bayer array. That is, in the pixel group 200, a pixel 200R having a spectral sensitivity of R (red) is at the upper left, a pixel 200G having a spectral sensitivity of G (green) is at the upper right and a lower left, and a pixel 200B having a spectral sensitivity of B (blue). Are located at the bottom right. Each of the pixels 200R, 200G, and 200B (each imaging pixel) includes a sub-pixel 201 (first focus detection pixel) and a sub-pixel 202 (second focus detection pixel) arranged in 2 columns × 1 row. The sub-pixel 201 is a pixel that receives the light beam that has passed through the first pupil partial region of the imaging optical system. The sub-pixel 202 is a pixel that receives the light beam that has passed through the second pupil partial region of the imaging optical system. The plurality of subpixels 201 constitute a first pixel group, and the plurality of subpixels 202 constitute a second pixel group.

図2に示されるように、撮像素子107は、4列×4行の撮像画素(8列×4行の副画素)を面上に多数配置して構成されており、撮像信号(副画素信号)を出力する。本実施例の撮像素子107は、画素(撮像画素)の周期Pが4μm、画素(撮像画素)の数Nが横5575列×縦3725行=約2075万画素である。また撮像素子107は、副画素の列方向の周期PSUBが2μm、副画素の数NSUBが横11150列×縦3725行=約4150万画素である。 As shown in FIG. 2, the image sensor 107 is configured by arranging a large number of 4 columns × 4 rows of imaging pixels (8 columns × 4 rows of subpixels) on the surface, and an imaging signal (subpixel signal). ) Is output. In the imaging device 107 of this embodiment, the period P of pixels (imaging pixels) is 4 μm, and the number N of pixels (imaging pixels) is 5575 columns × 3725 rows = approximately 20.75 million pixels. The imaging element 107 has a sub-pixel column-direction period P SUB of 2 μm, and the number of sub-pixels N SUB is 11150 horizontal rows × 3725 vertical rows = about 41.5 million pixels.

図3(b)に示されるように、本実施例の画素200Gには、画素の受光面側に入射光を集光するためのマイクロレンズ305が設けられている。マイクロレンズ305は、2次元状に複数配列されており、受光面からz軸方向(光軸OAの方向)に所定の距離だけ離れた位置に配置されている。また画素200Gには、x方向にN分割(2分割)、y方向にN分割(1分割)された光電変換部301および光電変換部302が形成されている。光電変換部301および光電変換部302は、それぞれ、副画素201および副画素202に対応する。このように撮像素子107は、1つのマイクロレンズに対して複数の光電変換部を有し、マイクロレンズが2次元状に配列されている。光電変換部301および光電変換部302は、それぞれ、p型層とn型層との間にイントリンシック層を挟んだpin構造のフォトダイオードとして構成される。必要に応じて、イントリンシック層を省略し、pn接合のフォトダイオードとして構成してもよい。 As shown in FIG. 3B, the pixel 200G of the present embodiment is provided with a microlens 305 for condensing incident light on the light receiving surface side of the pixel. A plurality of microlenses 305 are two-dimensionally arranged, and are arranged at a position away from the light receiving surface by a predetermined distance in the z-axis direction (the direction of the optical axis OA). Also in the pixel 200G is, N H divided in the x direction (divided into two), N V division (first division) by photoelectric conversion unit 301 and the photoelectric conversion portion 302 is formed in the y-direction. The photoelectric conversion unit 301 and the photoelectric conversion unit 302 correspond to the subpixel 201 and the subpixel 202, respectively. Thus, the image sensor 107 has a plurality of photoelectric conversion units for one microlens, and the microlenses are arranged in a two-dimensional manner. The photoelectric conversion unit 301 and the photoelectric conversion unit 302 are each configured as a photodiode having a pin structure in which an intrinsic layer is sandwiched between a p-type layer and an n-type layer. If necessary, the intrinsic layer may be omitted and a pn junction photodiode may be configured.

画素200G(各画素)には、マイクロレンズ305と、光電変換部301および光電変換部302との間に、G(緑)のカラーフィルタ306が設けられる。同様に、画素200R、200B(各画素)には、マイクロレンズ305と、光電変換部301および光電変換部302との間に、R(赤)およびB(青)のカラーフィルタ306がそれぞれ設けられる。必要に応じて、副画素ごとにカラーフィルタ306の分光透過率を変えることができ、またはカラーフィルタを省略してもよい。   The pixel 200 </ b> G (each pixel) is provided with a G (green) color filter 306 between the microlens 305, the photoelectric conversion unit 301, and the photoelectric conversion unit 302. Similarly, in the pixels 200R and 200B (each pixel), R (red) and B (blue) color filters 306 are provided between the microlens 305, the photoelectric conversion unit 301, and the photoelectric conversion unit 302, respectively. . If necessary, the spectral transmittance of the color filter 306 can be changed for each sub-pixel, or the color filter may be omitted.

図3に示されるように、画素200G(200R、200B)に入射した光は、マイクロレンズ305により集光され、Gのカラーフィルタ306(R、Bのカラーフィルタ306)で分光された後、光電変換部301および光電変換部302で受光される。光電変換部301および光電変換部302においては、受光量に応じて電子とホールとの対が生成され、それらが空乏層で分離された後、負電荷の電子はn型層に蓄積される。一方、ホールは定電圧源(不図示)に接続されたp型層を通じて、撮像素子107の外部へ排出される。光電変換部301および光電変換部302のn型層に蓄積された電子は、撮像素子駆動回路124による走査制御に基づいて、転送ゲートを介して、静電容量部(FD)に転送され、電圧信号に変換される。   As shown in FIG. 3, the light incident on the pixel 200G (200R, 200B) is collected by the microlens 305, separated by the G color filter 306 (R, B color filter 306), and then photoelectrically Light is received by the converter 301 and the photoelectric converter 302. In the photoelectric conversion unit 301 and the photoelectric conversion unit 302, pairs of electrons and holes are generated according to the amount of received light, and after they are separated by the depletion layer, negatively charged electrons are accumulated in the n-type layer. On the other hand, the holes are discharged to the outside of the image sensor 107 through a p-type layer connected to a constant voltage source (not shown). Electrons accumulated in the n-type layers of the photoelectric conversion unit 301 and the photoelectric conversion unit 302 are transferred to the electrostatic capacitance unit (FD) via the transfer gate based on scanning control by the image sensor driving circuit 124, and voltage Converted to a signal.

続いて、図4を参照して、撮像素子107の瞳分割機能について説明する。図4は、撮像素子107の瞳分割機能の説明図であり、1つの画素部における瞳分割の様子を示している。図4は、図3(a)に示される画素構造のa−a断面を+y側から見た断面図、および、結像光学系の射出瞳面を示している。図4では、射出瞳面の座標軸と対応を取るため、断面図のx軸およびy軸を図3のx軸およびy軸に対してそれぞれ反転させている。   Next, the pupil division function of the image sensor 107 will be described with reference to FIG. FIG. 4 is an explanatory diagram of the pupil division function of the image sensor 107 and shows a state of pupil division in one pixel unit. FIG. 4 shows a cross-sectional view of the pixel structure shown in FIG. 3A as viewed from the + y side, and an exit pupil plane of the imaging optical system. In FIG. 4, in order to correspond to the coordinate axis of the exit pupil plane, the x-axis and y-axis in the cross-sectional view are inverted with respect to the x-axis and y-axis in FIG.

図4において、副画素201(第1焦点検出画素)の瞳部分領域501(第1瞳部分領域)は、重心が−x方向に偏心している光電変換部301の受光面と、マイクロレンズ305を介して略共役関係になっている。このため瞳部分領域501は、副画素201で受光可能な瞳領域を表している。副画素201の瞳部分領域501の重心は、瞳面上で+x側に偏心している。また、副画素202(第2焦点検出画素)の瞳部分領域502(第2瞳部分領域)は、重心が+x方向に偏心している光電変換部302の受光面と、マイクロレンズ305を介して略共役関係になっている。このため瞳部分領域502は、副画素202で受光可能な瞳領域を表している。副画素202の瞳部分領域502の重心は、瞳面上で−x側に偏心している。瞳領域500は、光電変換部301、302(副画素201、202)を全て合わせた際の画素200G全体で受光可能な瞳領域である。   In FIG. 4, the pupil partial region 501 (first pupil partial region) of the sub-pixel 201 (first focus detection pixel) includes a light receiving surface of the photoelectric conversion unit 301 whose center of gravity is decentered in the −x direction, and a micro lens 305. It is a substantially conjugate relationship. For this reason, the pupil partial area 501 represents a pupil area that can be received by the sub-pixel 201. The center of gravity of the pupil partial area 501 of the sub-pixel 201 is eccentric to the + x side on the pupil plane. Further, the pupil partial region 502 (second pupil partial region) of the sub-pixel 202 (second focus detection pixel) is substantially omitted via the microlens 305 and the light receiving surface of the photoelectric conversion unit 302 whose center of gravity is decentered in the + x direction. It is a conjugate relationship. Therefore, the pupil partial area 502 represents a pupil area that can be received by the sub-pixel 202. The center of gravity of the pupil partial area 502 of the sub-pixel 202 is eccentric to the −x side on the pupil plane. The pupil region 500 is a pupil region that can receive light by the entire pixel 200G when all of the photoelectric conversion units 301 and 302 (subpixels 201 and 202) are combined.

図5は、撮像素子107と瞳分割機能の説明図である。結像光学系の瞳領域のうち互いに異なる瞳部分領域501、502を通過した光束は、撮像素子107の各画素に互いに異なる角度で撮像素子107の撮像面800に入射し、2×1分割された副画素201、202で受光される。本実施例では、瞳領域が水平方向に2つに瞳分割されている例について説明しているが、これに限定されるものではなく、必要に応じて垂直方向に瞳分割を行ってもよい。   FIG. 5 is an explanatory diagram of the image sensor 107 and the pupil division function. Light beams that have passed through different pupil partial regions 501 and 502 in the pupil region of the imaging optical system are incident on the image pickup surface 800 of the image pickup device 107 at different angles from each pixel of the image pickup device 107 and are divided by 2 × 1. The subpixels 201 and 202 receive the light. In this embodiment, an example is described in which the pupil region is divided into two pupils in the horizontal direction. However, the present invention is not limited to this, and pupil division may be performed in the vertical direction as necessary. .

本実施例において、撮像素子107は、結像光学系(撮影レンズ)の第1瞳部分領域を通過する光束を受光する第1色の第1焦点検出画素、および、第1瞳部分領域を通過する光束を受光する第2色の第1焦点検出画素を有する。また撮像素子107は、結像光学系の第1瞳部分領域と異なる第2瞳部分領域を通過する光束を受光する第1色の第2焦点検出画素、および、第2瞳部分領域を通過する光束を受光する第2色の第2焦点検出画素を有する。また撮像素子107は、結像光学系の第1瞳部分領域と第2瞳部分領域とを合わせた瞳領域を通過する光束を受光する撮像画素が複数配列されている。本実施例において、各撮像画素(画素200)は、第1焦点検出画素(副画素201)および第2焦点検出画素(副画素202)から構成されている。必要に応じて、撮像画素、第1焦点検出画素、および、第2焦点検出画素をそれぞれ別の画素で構成してもよい。このとき、撮像画素配列の一部に、第1焦点検出画素および第2焦点検出画素を部分的に(離散的に)配置するように構成される。   In this embodiment, the image sensor 107 passes through a first focus detection pixel of the first color that receives a light beam passing through the first pupil partial region of the imaging optical system (photographing lens), and the first pupil partial region. A first focus detection pixel of the second color that receives the luminous flux to be received. The image sensor 107 passes through the second focus detection pixel of the first color that receives the light beam passing through the second pupil partial region different from the first pupil partial region of the imaging optical system, and the second pupil partial region. The second focus detection pixel of the second color that receives the light beam is included. The imaging element 107 includes a plurality of imaging pixels that receive a light beam that passes through a pupil region that is a combination of the first pupil partial region and the second pupil partial region of the imaging optical system. In this embodiment, each imaging pixel (pixel 200) is composed of a first focus detection pixel (subpixel 201) and a second focus detection pixel (subpixel 202). If necessary, the imaging pixel, the first focus detection pixel, and the second focus detection pixel may be configured by different pixels. At this time, the first focus detection pixel and the second focus detection pixel are partially (discretely) arranged in a part of the imaging pixel array.

本実施例において、撮像装置100は、撮像素子107の各画素の第1焦点検出画素(副画素201)の受光信号を集めて第1焦点検出信号を生成し、各画素の第2焦点検出画素(副画素202)の受光信号を集めて第2焦点検出信号を生成して焦点検出を行う。また撮像装置100は、撮像素子107の画素ごとに、第1焦点検出画素と第2焦点検出画素との信号を加算することにより、有効画素数Nの解像度の撮像信号(撮像画像)を生成する。このように撮像装置100は、第1画素群および第2画素群のそれぞれに含まれる画素をマイクロレンズごとに加算した信号から撮像画像を生成する画像生成手段(CPU121)を有する。   In the present embodiment, the imaging apparatus 100 collects the light reception signals of the first focus detection pixels (sub-pixels 201) of each pixel of the image sensor 107 to generate a first focus detection signal, and the second focus detection pixel of each pixel. Focus detection is performed by collecting the light reception signals of (sub-pixel 202) and generating a second focus detection signal. Further, the imaging apparatus 100 generates an imaging signal (captured image) having a resolution of N effective pixels by adding the signals of the first focus detection pixel and the second focus detection pixel for each pixel of the image sensor 107. . As described above, the imaging apparatus 100 includes image generation means (CPU 121) that generates a captured image from a signal obtained by adding the pixels included in each of the first pixel group and the second pixel group for each microlens.

次に、図6を参照して、撮像素子107の副画素201から取得される第1焦点検出信号および副画素202から取得される第2焦点検出信号のデフォーカス量と像ずれ量との関係について説明する。図6は、デフォーカス量と像ずれ量との関係図である。図6において、撮像素子107は撮像面800に配置されており、図4および図5と同様に、結像光学系の射出瞳が瞳部分領域501、502に2分割されている様子が示されている。   Next, referring to FIG. 6, the relationship between the defocus amount and the image shift amount of the first focus detection signal acquired from the sub-pixel 201 of the image sensor 107 and the second focus detection signal acquired from the sub-pixel 202. Will be described. FIG. 6 is a relationship diagram between the defocus amount and the image shift amount. In FIG. 6, the image sensor 107 is disposed on the imaging surface 800, and the state in which the exit pupil of the imaging optical system is divided into two pupil partial areas 501 and 502 is shown as in FIGS. 4 and 5. ing.

デフォーカス量dは、被写体の結像位置から撮像面800までの距離を|d|、結像位置が撮像面800よりも被写体側にある前ピン状態を負符号(d<0)、結像位置が撮像面800よりも被写体の反対側にある後ピン状態を正符号(d>0)として定義される。被写体の結像位置が撮像面800(合焦位置)にある合焦状態において、デフォーカス量d=0が成立する。図6において、合焦状態(d=0)である被写体801、および、前ピン状態(d<0)である被写体802がそれぞれ示されている。前ピン状態(d<0)および後ピン状態(d>0)を併せて、デフォーカス状態(|d|>0)という。   The defocus amount d is the distance from the imaging position of the subject to the imaging surface 800 | d |, the negative pin state where the imaging position is closer to the subject than the imaging surface 800 (d <0), and imaging. A rear pin state in which the position is on the opposite side of the subject from the imaging surface 800 is defined as a positive sign (d> 0). A defocus amount d = 0 is established in a focused state where the imaging position of the subject is on the imaging surface 800 (focus position). In FIG. 6, a subject 801 in a focused state (d = 0) and a subject 802 in a front pin state (d <0) are shown. The front pin state (d <0) and the rear pin state (d> 0) are collectively referred to as a defocus state (| d |> 0).

前ピン状態(d<0)では、被写体802からの光束のうち、瞳部分領域501(または瞳部分領域502)を通過した光束は、一度、集光する。その後、光束は、光束の重心位置G1(G2)を中心とする幅Γ1(Γ2)に広がり、撮像面800でボケた像となる。ボケた像は、撮像素子107に配列された各画素を構成する副画素201(副画素202)により受光され、第1焦点検出信号(第2焦点検出信号)が生成される。このため、第1焦点検出信号(第2焦点検出信号)は、撮像面800上の重心位置G1(G2)に、被写体802が幅Γ1(Γ2)にボケた被写体像として記録される。被写体像のボケ幅Γ1(Γ2)は、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね比例して増加する。同様に、第1焦点検出信号と第2焦点検出信号との間の被写体像の像ずれ量p(=光束の重心位置の差G1−G2)の大きさ|p|も、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね、比例して増加する。後ピン状態(d>0)に関しても同様であるが、第1焦点検出信号と第2焦点検出信号と間の被写体像の像ずれ方向が前ピン状態と反対となる。   In the front pin state (d <0), the luminous flux that has passed through the pupil partial area 501 (or the pupil partial area 502) out of the luminous flux from the subject 802 is condensed once. Thereafter, the light beam spreads over a width Γ 1 (Γ 2) centered on the gravity center position G 1 (G 2) of the light beam, resulting in a blurred image on the imaging surface 800. The blurred image is received by the sub-pixel 201 (sub-pixel 202) constituting each pixel arranged in the image sensor 107, and a first focus detection signal (second focus detection signal) is generated. Therefore, the first focus detection signal (second focus detection signal) is recorded as a subject image in which the subject 802 is blurred by the width Γ1 (Γ2) at the gravity center position G1 (G2) on the imaging surface 800. The blur width Γ1 (Γ2) of the subject image increases substantially proportionally as the defocus amount d magnitude | d | increases. Similarly, the magnitude | p | of the subject image displacement amount p (= difference G1-G2 in the center of gravity of the light beam) between the first focus detection signal and the second focus detection signal is also equal to the defocus amount d. As the magnitude | d | increases, it generally increases proportionally. The same applies to the rear pin state (d> 0), but the image shift direction of the subject image between the first focus detection signal and the second focus detection signal is opposite to the front pin state.

このように本実施例において、第1焦点検出信号と第2焦点検出信号、または、第1焦点検出信号と第2焦点検出信号とを加算した撮像信号のデフォーカス量の大きさが増加するのに伴い、第1焦点検出信号と第2焦点検出信号と間の像ずれ量の大きさは増加する。   As described above, in this embodiment, the magnitude of the defocus amount of the imaging signal obtained by adding the first focus detection signal and the second focus detection signal or the first focus detection signal and the second focus detection signal increases. Accordingly, the amount of image shift between the first focus detection signal and the second focus detection signal increases.

次に、本実施例における焦点検出について説明する。本実施例の撮像装置100は、焦点検出として、第1焦点検出および第2焦点検出を行う。第1焦点検出は、瞳分割方向における焦点検出信号の信号周期が大きく、かつ、空間周波数帯域が低い、位相差検出方式の焦点検出である。第2焦点検出は、瞳分割方向における焦点検出信号の信号周期が小さく、かつ、空間周波数帯域が高い、位相差検出方式の焦点検出である。本実施例において、撮像素子107の列方向が瞳分割方向であり、撮像素子107の行方向が瞳分割方向と直交する方向である。大デフォーカス状態から小デフォーカス状態まで焦点調節を行うために第1焦点検出を行い、小デフォーカス状態から最良合焦位置近傍まで焦点調節を行うために第2焦点検出を行う。   Next, focus detection in the present embodiment will be described. The imaging apparatus 100 of the present embodiment performs first focus detection and second focus detection as focus detection. The first focus detection is a phase difference detection type focus detection in which the signal period of the focus detection signal in the pupil division direction is large and the spatial frequency band is low. The second focus detection is a phase difference detection type focus detection in which the signal cycle of the focus detection signal in the pupil division direction is small and the spatial frequency band is high. In this embodiment, the column direction of the image sensor 107 is the pupil division direction, and the row direction of the image sensor 107 is a direction orthogonal to the pupil division direction. First focus detection is performed to perform focus adjustment from the large defocus state to the small defocus state, and second focus detection is performed to perform focus adjustment from the small defocus state to the vicinity of the best focus position.

次に、本実施例における位相差検出方式の第1焦点検出について詳述する。第1焦点検出を行う場合、撮像装置100のCPU121(算出手段121b)は、第1焦点検出信号および第2焦点検出信号を相対的にシフトさせて信号の一致度を表す第1相関量(第1評価値)を算出する。そしてCPU121は、相関(信号の一致度)が良好になるシフト量に基づいて像ずれ量を算出する。撮像信号のデフォーカス量の大きさが増加するのに伴い、第1焦点検出信号と第2焦点検出信号間との間の像ずれ量の大きさが増加する関係があるため、CPU121は、像ずれ量を第1デフォーカス量に変換して焦点検出を行う。   Next, the first focus detection of the phase difference detection method in the present embodiment will be described in detail. When performing the first focus detection, the CPU 121 (calculation unit 121b) of the imaging device 100 relatively shifts the first focus detection signal and the second focus detection signal to express the first correlation amount (first correlation). 1 evaluation value) is calculated. Then, the CPU 121 calculates the image shift amount based on the shift amount at which the correlation (signal matching degree) becomes good. As the magnitude of the defocus amount of the imaging signal increases, there is a relationship in which the magnitude of the image shift amount between the first focus detection signal and the second focus detection signal increases. The focus detection is performed by converting the shift amount into the first defocus amount.

図7を参照して、位相差検出方式の第1焦点検出処理について説明する。図7は、第1焦点検出処理を示すフローチャートであり、後述の図13のステップS100に相当する。図7の各ステップは、主に、CPU121(生成手段121a、算出手段121b)および画像処理回路125により実行される。   With reference to FIG. 7, the first focus detection process of the phase difference detection method will be described. FIG. 7 is a flowchart showing the first focus detection process, and corresponds to step S100 in FIG. Each step in FIG. 7 is mainly executed by the CPU 121 (generating unit 121a, calculating unit 121b) and the image processing circuit 125.

まずステップS110において、CPU121は、撮像素子107の有効画素領域の中から焦点調節を行うための焦点検出領域を設定する。そしてCPU121(生成手段121a)は、焦点検出領域に含まれるR、G、Bの色(第1色、第2色、第3色)ごとの第1焦点検出画素の受光信号(出力信号)に基づいて、R、G、Bの色ごとに第1焦点検出信号(A像信号)を生成(取得)する。同様に、CPU121は、焦点検出領域に含まれるR、G、Bの色ごとの第2焦点検出画素の受光信号(出力信号)に基づいて、R、G、Bの色ごとに第2焦点検出信号(B像信号)を生成(取得)する。   First, in step S <b> 110, the CPU 121 sets a focus detection area for performing focus adjustment from the effective pixel area of the image sensor 107. Then, the CPU 121 (generating unit 121a) generates a light reception signal (output signal) of the first focus detection pixel for each of R, G, and B colors (first color, second color, and third color) included in the focus detection region. Based on this, a first focus detection signal (A image signal) is generated (acquired) for each of R, G, and B colors. Similarly, the CPU 121 detects the second focus for each of the R, G, and B colors based on the light reception signal (output signal) of the second focus detection pixel for each of the R, G, and B colors included in the focus detection area. A signal (B image signal) is generated (acquired).

続いてステップS120において、CPU121(生成手段121a)は、R、G、Bの第1焦点検出信号および第2焦点検出信号のそれぞれに対して、色信号(RGB信号)を輝度信号(Y信号)に変換するために第1画素加算処理を行う。この結果、処理後の第1焦点検出信号および第2焦点検出信号が生成される。   Subsequently, in step S120, the CPU 121 (generating unit 121a) converts a color signal (RGB signal) into a luminance signal (Y signal) for each of the first focus detection signal and the second focus detection signal of R, G, B. A first pixel addition process is performed to convert to. As a result, a processed first focus detection signal and second focus detection signal are generated.

ここで、図8を参照して、本実施例における第1画素加算処理について説明する。図8は、第1画素加算処理の説明図である。図8において、列方向(瞳分割方向)にj番目、行方向(瞳分割方向と直交する方向)にi番目のベイヤー配列の第1焦点検出信号をA(i、j)とする。ここで、第1焦点検出信号は、R、G、Bの色ごとに示される。R(第1色)の第1焦点検出信号は、RA(i、j)=A(i、j)である。G(第2色)の第1焦点検出信号は、GA(i、j+1)=A(i、j+1)、GA(i+1、j)=A(i+1、j)である。B(第3色)の第1焦点検出信号は、BA(i+1、j+1)=A(i+1、j+1)である。同様に、列方向(瞳分割方向)にj番目、行方向(瞳分割方向と直交する方向)にi番目のベイヤー配列の第2焦点検出信号をB(i、j)とする。第2焦点検出信号も、R、G、Bの色ごとに示される。R(第1色)の第2焦点検出信号は、RB(i、j)=B(i、j)である。G(第2色)の第2焦点検出信号は、GB(i、j+1)=B(i、j+1)、GB(i+1、j)=B(i+1、j)である。B(第3色)の第2焦点検出信号は、BB(i+1、j+1)=B(i+1、j+1)である。   Here, with reference to FIG. 8, the 1st pixel addition process in a present Example is demonstrated. FIG. 8 is an explanatory diagram of the first pixel addition process. In FIG. 8, it is assumed that the first focus detection signal of the j-th Bayer array in the column direction (pupil division direction) and the i-th Bayer array (direction orthogonal to the pupil division direction) is A (i, j). Here, the first focus detection signal is shown for each of R, G, and B colors. The first focus detection signal of R (first color) is RA (i, j) = A (i, j). The first focus detection signals of G (second color) are GA (i, j + 1) = A (i, j + 1), GA (i + 1, j) = A (i + 1, j). The first focus detection signal of B (third color) is BA (i + 1, j + 1) = A (i + 1, j + 1). Similarly, the second focus detection signal of the Bayer array that is jth in the column direction (pupil division direction) and i-th in the row direction (direction orthogonal to the pupil division direction) is B (i, j). The second focus detection signal is also shown for each of R, G, and B colors. The second focus detection signal of R (first color) is RB (i, j) = B (i, j). The second focus detection signals of G (second color) are GB (i, j + 1) = B (i, j + 1), GB (i + 1, j) = B (i + 1, j). The second focus detection signal of B (third color) is BB (i + 1, j + 1) = B (i + 1, j + 1).

図7のステップS120における第1画素加算処理により、以下の式(1A)で表されるように、ベイヤー配列の第1焦点検出信号A(i、j)から、Y信号化された第1焦点検出信号Y1A(i、j)を算出することができる。同様に、第1画素加算処理により、以下の式(1B)で表されるように、ベイヤー配列の第2焦点検出信号B(i、j)から、Y信号化された第2焦点検出信号Y1B(i、j)を算出することができる。   As a result of the first pixel addition process in step S120 of FIG. 7, the first focus converted into the Y signal from the first focus detection signal A (i, j) of the Bayer array as represented by the following expression (1A). The detection signal Y1A (i, j) can be calculated. Similarly, by the first pixel addition process, the second focus detection signal Y1B converted into the Y signal from the second focus detection signal B (i, j) of the Bayer array as represented by the following expression (1B). (I, j) can be calculated.

式(1A)、(1B)において、i=2m、j=2n(m、nは整数)である。なお、i、jが2の倍数となっているのは、本実施例の画素がベイヤー配列で配置されているためである。このため、ベイヤー配列と異なる配列の場合、iまたはjをその配列の周期性に合わせることが好ましい。例えば、水平方向に4画素周期でカラーフィルタが配列されている場合、iまたはjを4の倍数とすることが好ましい。 In formulas (1A) and (1B), i = 2m and j = 2n (m and n are integers). Note that i and j are multiples of 2 because the pixels of this embodiment are arranged in a Bayer array. For this reason, in the case of an array different from the Bayer array, it is preferable to match i or j with the periodicity of the array. For example, when color filters are arranged in the horizontal direction with a period of four pixels, i or j is preferably a multiple of four.

本実施例の第1焦点検出処理では、Y信号化された焦点検出信号の列方向(瞳分割方向)の信号周期は、ベイヤー配列の焦点検出信号の列方向(瞳分割方向)の信号周期よりも大きい。また本実施例の第1焦点検出処理では、大デフォーカス状態から小デフォーカス状態まで安定して焦点検出可能であるように、瞳分割方向における焦点検出信号の信号周期が大きく、かつ、空間周波数帯域が低くなるように、第1画素加算処理を行う。   In the first focus detection process of the present embodiment, the signal period in the column direction (pupil division direction) of the focus detection signal converted into a Y signal is greater than the signal period in the column direction (pupil division direction) of the focus detection signals in the Bayer array. Is also big. In the first focus detection process of this embodiment, the signal period of the focus detection signal in the pupil division direction is large and the spatial frequency is set so that the focus detection can be stably performed from the large defocus state to the small defocus state. The first pixel addition process is performed so that the band is lowered.

続いてステップS130において、CPU121および画像処理回路125は、第1焦点検出信号および第2焦点検出信号のそれぞれに対して、シェーディング補正処理(光学補正処理)を行う。ここで、図9を参照して、第1焦点検出信号および第2焦点検出信号の瞳ずれによるシェーディングについて説明する。図9は、第1焦点検出信号および第2焦点検出信号の瞳ずれによるシェーディングの説明図である。具体的には、図9は、撮像素子107の周辺像高における副画素201(第1焦点検出画素)の瞳部分領域501、副画素202(第2焦点検出画素)の瞳部分領域502、および、結像光学系の射出瞳400の関係を示している。   Subsequently, in step S130, the CPU 121 and the image processing circuit 125 perform shading correction processing (optical correction processing) on each of the first focus detection signal and the second focus detection signal. Here, with reference to FIG. 9, the shading by the pupil shift | offset | difference of a 1st focus detection signal and a 2nd focus detection signal is demonstrated. FIG. 9 is an explanatory diagram of shading due to pupil misalignment of the first focus detection signal and the second focus detection signal. Specifically, FIG. 9 illustrates a pupil partial region 501 of the sub-pixel 201 (first focus detection pixel), a pupil partial region 502 of the sub-pixel 202 (second focus detection pixel) at the peripheral image height of the image sensor 107, and The relationship of the exit pupil 400 of the imaging optical system is shown.

図9(a)は、結像光学系の射出瞳距離Dl(射出瞳400と撮像素子107の撮像面との距離)と、撮像素子107の設定瞳距離Dsとが等しい場合を示している。この場合、瞳部分領域501および瞳部分領域502により、結像光学系の射出瞳400は略均等に瞳分割される。   FIG. 9A shows a case where the exit pupil distance Dl (the distance between the exit pupil 400 and the imaging surface of the image sensor 107) of the imaging optical system is equal to the set pupil distance Ds of the image sensor 107. In this case, the pupil partial area 501 and the pupil partial area 502 divide the exit pupil 400 of the imaging optical system substantially equally.

一方、図9(b)にされるように、結像光学系の射出瞳距離Dlが撮像素子107の設定瞳距離Dsよりも短い場合、撮像素子107の周辺像高では、結像光学系の射出瞳400と撮像素子107の入射瞳との間に瞳ずれが生じる。このため、結像光学系の射出瞳400が不均一に瞳分割される。同様に、図9(c)に示されるように、結像光学系の射出瞳距離Dlが撮像素子107の設定瞳距離Dsよりも長い場合、撮像素子107の周辺像高では、結像光学系の射出瞳400と撮像素子107の入射瞳との間に瞳ずれが生じる。このため、結像光学系の射出瞳400が不均一に瞳分割される。周辺像高で瞳分割が不均一になるのに伴い、第1焦点検出信号および第2焦点検出信号の強度も互いに不均一となる。このため、第1焦点検出信号および第2焦点検出信号のいずれか一方の強度が大きくなり、他方の強度が小さくなるシェーディングが生じる。   On the other hand, when the exit pupil distance Dl of the imaging optical system is shorter than the set pupil distance Ds of the image sensor 107 as shown in FIG. A pupil shift occurs between the exit pupil 400 and the entrance pupil of the image sensor 107. For this reason, the exit pupil 400 of the imaging optical system is non-uniformly divided into pupils. Similarly, as shown in FIG. 9C, when the exit pupil distance Dl of the imaging optical system is longer than the set pupil distance Ds of the image sensor 107, the image forming optical system has a peripheral image height of the image sensor 107. A pupil shift occurs between the exit pupil 400 of the image sensor and the entrance pupil of the image sensor 107. For this reason, the exit pupil 400 of the imaging optical system is non-uniformly divided into pupils. As pupil division becomes nonuniform at the peripheral image height, the intensity of the first focus detection signal and the second focus detection signal also become nonuniform. For this reason, the intensity | strength of either one of a 1st focus detection signal and a 2nd focus detection signal becomes large, and the shading by which the other intensity | strength becomes small arises.

図7のステップS130では、CPU121は、焦点検出領域の像高、撮像レンズ(結像光学系)のF値、および、射出瞳距離に応じて、第1焦点検出信号の第1シェーディング補正係数および第2焦点検出信号の第2シェーディング補正係数を生成する。そしてCPU121(画像処理回路125)は、第1焦点検出信号に第1シェーディング補正係数を乗算し、第2焦点検出信号に第2シェーディング補正係数を乗算して、第1焦点検出信号および第2焦点検出信号のシェーディング補正処理(光学補正処理)を行う。   In step S130 of FIG. 7, the CPU 121 determines the first shading correction coefficient of the first focus detection signal and the F value of the imaging lens (imaging optical system) and the exit pupil distance according to the image height of the focus detection area. A second shading correction coefficient of the second focus detection signal is generated. Then, the CPU 121 (image processing circuit 125) multiplies the first focus detection signal by the first shading correction coefficient, multiplies the second focus detection signal by the second shading correction coefficient, and outputs the first focus detection signal and the second focus detection signal. A detection signal shading correction process (optical correction process) is performed.

位相差検出方式の第1焦点検出を行う際、CPU121は、第1焦点検出信号と第2焦点検出信号との相関(信号の一致度)に基づいて、デフォーカス量(第1デフォーカス量)を検出(算出)する。瞳ずれによるシェーディングが生じると、第1焦点検出信号と第2焦点検出信号との相関(信号の一致度)が低下する場合がある。このため本実施例において、位相差検出方式の第1焦点検出の際には、第1焦点検出信号と第2焦点検出信号との相関(信号の一致度)を改善して焦点検出性能を向上させるため、シェーディング補正処理(光学補正処理)を行うことが好ましい。   When performing the first focus detection of the phase difference detection method, the CPU 121 determines the defocus amount (first defocus amount) based on the correlation (the degree of signal coincidence) between the first focus detection signal and the second focus detection signal. Is detected (calculated). When shading due to pupil shift occurs, the correlation (the degree of signal coincidence) between the first focus detection signal and the second focus detection signal may decrease. For this reason, in the present embodiment, in the first focus detection of the phase difference detection method, the correlation (signal coincidence) between the first focus detection signal and the second focus detection signal is improved to improve the focus detection performance. Therefore, it is preferable to perform shading correction processing (optical correction processing).

続いてステップS140において、CPU121および画像処理回路125は、第1焦点検出信号および第2焦点検出信号に対して、第1フィルタ処理を行う。図10は、第1フィルタ処理の説明図であり、本実施例の第1フィルタ処理における通過帯域例を破線で示している。本実施例では、位相差検出方式の第1焦点検出により大デフォーカス状態での焦点検出を行う。このため、第1フィルタ処理における通過帯域は、低周波帯域を含むように構成される。必要に応じて、大デフォーカス状態から小デフォーカス状態まで焦点調節を行う際に、デフォーカス状態に応じて、第1焦点検出処理の際の第1フィルタ処理の通過帯域を調整してもよい。   Subsequently, in step S140, the CPU 121 and the image processing circuit 125 perform a first filter process on the first focus detection signal and the second focus detection signal. FIG. 10 is an explanatory diagram of the first filter process, and an example of a pass band in the first filter process of the present embodiment is indicated by a broken line. In the present embodiment, focus detection in a large defocus state is performed by the first focus detection of the phase difference detection method. For this reason, the pass band in the first filter processing is configured to include a low frequency band. If necessary, when performing the focus adjustment from the large defocus state to the small defocus state, the pass band of the first filter process in the first focus detection process may be adjusted according to the defocus state. .

続いてステップS150において、CPU121(算出手段121b)は、第1フィルタ処理後の第1焦点検出信号と第2焦点検出信号とを相対的に瞳分割方向にシフトさせる第1シフト処理を行う。そしてCPU121は、信号の一致度を表す第1相関量(第1評価値)を算出する。   Subsequently, in step S150, the CPU 121 (calculating unit 121b) performs a first shift process for relatively shifting the first focus detection signal and the second focus detection signal after the first filter process in the pupil division direction. Then, the CPU 121 calculates a first correlation amount (first evaluation value) indicating the degree of coincidence of signals.

ここで、列方向(瞳分割方向)のj番目、行方向(瞳分割方向と直交する方向)のi番目の第1フィルタ処理後の第1焦点検出信号をdY1A(i、j)、第2焦点検出信号をdY1B(i、j)とする。また、焦点検出領域に対応する番号jの範囲をW、および、番号iの範囲をLとする。また、第1シフト処理によるシフト量をs、シフト量sのシフト範囲をΓ1とする。このとき、第1相関量COR1even(第1評価値)は、以下の式(2)のように表される。 Here, the first focus detection signal after the first filter processing in the column direction (pupil division direction) and the i-th row direction (direction orthogonal to the pupil division direction) is dY1A (i, j), second Let the focus detection signal be dY1B (i, j). Also, the range of the number j corresponding to the focus detection area is W, and the range of the number i is L. Further, the shift amount by the first shift process is s 1 , and the shift range of the shift amount s 1 is Γ1. At this time, the first correlation amount COR1 even (first evaluation value) is expressed as the following equation (2).

第1相関量COR1evenの算出の際、i行ごとにシフト量sに対し、列方向j+s番目の第1焦点検出信号dY1A(i、j+s)と、列方向j−s番目の第2焦点検出信号dY1B(i、j−s)とを対応させて減算し、シフト減算信号を生成する。そして、生成されたシフト減算信号の絶対値を算出し、焦点検出領域に対応する範囲W内において番号jの和を取り、i行ごとの第1相関量COR1even(i、s)を算出する。さらに、i行ごとの第1相関量COR1even(i、s)を、シフト量ごとに、焦点検出領域に対応する範囲L内において番号iの和を取り、第1相関量COR1even(s)を算出する。 During the calculation of the first correlation amount COR1 the even, to the shift amount s 1 for each i rows, columns j + s 1 th first focus detection signal dY1A (i, j + s 1 ) and the column direction j-s 1 th The second focus detection signal dY1B (i, j−s 1 ) is subtracted correspondingly to generate a shift subtraction signal. Then, the absolute value of the generated shift subtraction signal is calculated, the number j is summed within the range W corresponding to the focus detection area, and the first correlation amount COR1 even (i, s 1 ) for each i row is calculated. To do. Further, the first correlation amount COR1 even (i, s 1 ) for each i row is summed with the number i in the range L corresponding to the focus detection area for each shift amount, and the first correlation amount COR1 even (s 1 ) is calculated.

続いてステップS160において、CPU121(算出手段121b)は、第1相関量(第1評価値)に対してサブピクセル演算を行い、第1相関量が最小値となる実数値のシフト量を算出して像ずれ量p1を求める。そしてCPU121は、像ずれ量p1に対して、焦点検出領域の像高、撮像レンズ(結像光学系)のF値、および、射出瞳距離に応じた第1変換係数K1を掛けて、第1デフォーカス量Def1を検出(算出)する。   Subsequently, in step S160, the CPU 121 (calculating unit 121b) performs a subpixel operation on the first correlation amount (first evaluation value), and calculates a real-value shift amount at which the first correlation amount is the minimum value. Thus, an image shift amount p1 is obtained. Then, the CPU 121 multiplies the image shift amount p1 by the first conversion coefficient K1 corresponding to the image height of the focus detection area, the F value of the imaging lens (imaging optical system), and the exit pupil distance. The defocus amount Def1 is detected (calculated).

次に、図11を参照して、位相差検出方式の第2焦点検出処理について説明する。図11は、第2焦点検出処理を示すフローチャートであり、後述の図13のステップS200に相当する。図11の各ステップは、主に、CPU121(生成手段121a、算出手段121b)および画像処理回路125により実行される。   Next, the second focus detection process of the phase difference detection method will be described with reference to FIG. FIG. 11 is a flowchart showing the second focus detection process, and corresponds to step S200 in FIG. Each step of FIG. 11 is mainly executed by the CPU 121 (generating unit 121a, calculating unit 121b) and the image processing circuit 125.

まずステップS210において、CPU121は、撮像素子107の有効画素領域の中から焦点調節を行うための焦点検出領域を設定する。そしてCPU121(生成手段121a)は、焦点検出領域に含まれるR、G、Bの色(第1色、第2色、第3色)ごとの第1焦点検出画素の受光信号(出力信号)に基づいて、R、G、Bの色ごとに第1焦点検出信号(A像信号)を生成(取得)する。同様に、CPU121は、焦点検出領域に含まれるR、G、Bの色ごとの第2焦点検出画素の受光信号(出力信号)に基づいて、R、G、Bの色ごとに第2焦点検出信号(B像信号)を生成(取得)する。   First, in step S210, the CPU 121 sets a focus detection area for performing focus adjustment from the effective pixel area of the image sensor 107. Then, the CPU 121 (generating unit 121a) generates a light reception signal (output signal) of the first focus detection pixel for each of R, G, and B colors (first color, second color, and third color) included in the focus detection region. Based on this, a first focus detection signal (A image signal) is generated (acquired) for each of R, G, and B colors. Similarly, the CPU 121 detects the second focus for each of the R, G, and B colors based on the light reception signal (output signal) of the second focus detection pixel for each of the R, G, and B colors included in the focus detection area. A signal (B image signal) is generated (acquired).

続いてステップS220において、CPU121(生成手段121a)は、R、G、Bの第1焦点検出信号および第2焦点検出信号のそれぞれに対して、色信号(RGB信号)を輝度信号(Y信号)に変換するために第2画素加算処理を行う。この結果、処理後の第1焦点検出信号および第2焦点検出信号が生成される。   Subsequently, in step S220, the CPU 121 (generating unit 121a) converts the color signal (RGB signal) into the luminance signal (Y signal) for each of the first focus detection signal and the second focus detection signal of R, G, B. A second pixel addition process is performed to convert to. As a result, a processed first focus detection signal and second focus detection signal are generated.

ここで、図12を参照して、本実施例における第2画素加算処理について説明する。図12は、第2画素加算処理の説明図である。図12において、列方向(瞳分割方向)にj番目、行方向(瞳分割方向と直交する方向)にi番目のベイヤー配列の第1焦点検出信号をA(i、j)とする。ここで、第1焦点検出信号は、R、G、Bの色ごとに示される。R(第1色)の第1焦点検出信号は、RA(i、j)=A(i、j)である。G(第2色)の第1焦点検出信号は、GA(i、j+1)=A(i、j+1)、GA(i+1、j)=A(i+1、j)である。B(第3色)の第1焦点検出信号は、BA(i+1、j+1)=A(i+1、j+1)である。同様に、列方向(瞳分割方向)にj番目、行方向(瞳分割方向と直交する方向)にi番目のベイヤー配列の第2焦点検出信号をB(i、j)とする。第2焦点検出信号も、R、G、Bの色ごとに示される。R(第1色)の第2焦点検出信号は、RB(i、j)=B(i、j)である。G(第2色)の第2焦点検出信号は、GB(i、j+1)=B(i、j+1)、GB(i+1、j)=B(i+1、j)である。B(第3色)の第2焦点検出信号は、BB(i+1、j+1)=B(i+1、j+1)である。   Here, the second pixel addition processing in the present embodiment will be described with reference to FIG. FIG. 12 is an explanatory diagram of the second pixel addition process. In FIG. 12, the first focus detection signal of the Bayer array j-th in the column direction (pupil division direction) and i-th in the row direction (direction orthogonal to the pupil division direction) is A (i, j). Here, the first focus detection signal is shown for each of R, G, and B colors. The first focus detection signal of R (first color) is RA (i, j) = A (i, j). The first focus detection signals of G (second color) are GA (i, j + 1) = A (i, j + 1), GA (i + 1, j) = A (i + 1, j). The first focus detection signal of B (third color) is BA (i + 1, j + 1) = A (i + 1, j + 1). Similarly, the second focus detection signal of the Bayer array that is jth in the column direction (pupil division direction) and i-th in the row direction (direction orthogonal to the pupil division direction) is B (i, j). The second focus detection signal is also shown for each of R, G, and B colors. The second focus detection signal of R (first color) is RB (i, j) = B (i, j). The second focus detection signals of G (second color) are GB (i, j + 1) = B (i, j + 1), GB (i + 1, j) = B (i + 1, j). The second focus detection signal of B (third color) is BB (i + 1, j + 1) = B (i + 1, j + 1).

図11のステップS220における第2画素加算処理により、以下の式(3A)で表されるように、ベイヤー配列の第1焦点検出信号A(i、j)から、Y信号化された第1焦点検出信号Y2A(i、j)、すなわち第1輝度信号を算出することができる。同様に、第2画素加算処理により、以下の式(3B)で表されるように、ベイヤー配列の第2焦点検出信号B(i、j)から、Y信号化された第2焦点検出信号Y2B(i、j)、すなわち第2輝度信号を算出することができる。   As a result of the second pixel addition process in step S220 of FIG. 11, the first focus converted into the Y signal from the first focus detection signal A (i, j) in the Bayer array as represented by the following expression (3A). The detection signal Y2A (i, j), that is, the first luminance signal can be calculated. Similarly, by the second pixel addition process, the second focus detection signal Y2B converted into a Y signal from the second focus detection signal B (i, j) of the Bayer array as represented by the following expression (3B). (I, j), that is, the second luminance signal can be calculated.

式(3A)、(3B)において、i=2m、j=2n、2n+1(m、nは整数)である。 In formulas (3A) and (3B), i = 2m, j = 2n, and 2n + 1 (m and n are integers).

式(3A)のj=2nにおいて、R(第1色)の2RA(i、j)の色重心(i、j)と、G(第2色)のGA(i、j−1)+GA(i、j+1)の色重心(i、j)は、瞳分割方向(列方向)における各色の色重心が一致するように合成される。更に、G(第2色)の2GA(i+1、j)の色重心(i+1、j)と、B(第3色)のBA(i+1、j−1)+BA(i+1、j+1)の色重心(i+1、j)も、前述の瞳分割方向(列方向)における各色の色重心と一致するように合成される。また同時に、R(第1色):G(第2色):B(第3色)の色比が1:2:1となるように合成される。   When j = 2n in Expression (3A), the color centroid (i, j) of 2RA (i, j) of R (first color) and GA (i, j-1) + GA (G (second color)) The color centroids (i, j + 1) of i, j + 1) are synthesized so that the color centroids of the respective colors in the pupil division direction (column direction) coincide. Further, the color centroid (i + 1, j) of 2GA (i + 1, j) of G (second color) and the color centroid of BA (i + 1, j−1) + BA (i + 1, j + 1) of B (third color) ( i + 1, j) are also synthesized so as to coincide with the color centroid of each color in the pupil division direction (column direction) described above. At the same time, the color ratio of R (first color): G (second color): B (third color) is 1: 2: 1.

式(3A)のj=2n+1において、R(第1色)のRA(i、j)+RA(i、j+2)の色重心(i、j+1)と、G(第2色)の2GA(i、j+1)の色重心(i、j+1)は、瞳分割方向(列方向)における各色の色重心が一致するように合成される。更に、G(第2色)のGA(i+1、j)+GA(i+1、j+2)の色重心(i+1、j+1)と、B(第3色)の2BA(i+1、j+1の色重心(i+1、j+1)も、前述の瞳分割方向(列方向)における各色の色重心と一致するように合成される。また同時に、R(第1色):G(第2色):B(第3色)の色比が1:2:1となるように合成される。以上のように色重心を一致するように所定の色比で合成する点は、式(3B)の場合も同様である。   In j = 2n + 1 in Expression (3A), RA (i, j) + RA (i, j + 2) color centroid (i, j + 1) of R (first color) and 2 GA (i, G) of G (second color) The color centroid (i, j + 1) of j + 1) is synthesized so that the color centroids of the respective colors in the pupil division direction (column direction) coincide. Further, the color centroid (i + 1, j + 1) of G (second color) GA (i + 1, j) + GA (i + 1, j + 2) and the color centroid (i + 1, j + 1) of B (third color) 2BA (i + 1, j + 1). ) Are also combined so as to coincide with the color centroids of the respective colors in the pupil division direction (column direction), and at the same time, R (first color): G (second color): B (third color). The composition is performed so that the color ratio is 1: 2: 1, as described above, the composition is performed at a predetermined color ratio so that the color centroids coincide with each other.

このように第2画素加算処理では、ベイヤー配列の焦点検出信号から、全画素において、R(第1色):G(第2色):B(第3色)の色比が1:2:1で、かつ、瞳分割方向における各色の色重心が一致するように、Y信号化された焦点検出信号が生成される。このため第2焦点検出処理において、Y信号化された焦点検出信号の列方向(瞳分割方向)の信号周期は、ベイヤー配列の焦点検出信号の列方向(瞳分割方向)の信号周期と等しく、かつ、等間隔の周期である。このため、高い空間周波数帯域を検出することができる。   As described above, in the second pixel addition process, the color ratio of R (first color): G (second color): B (third color) is 1: 2: 1 and a focus detection signal converted into a Y signal is generated so that the color centroids of the respective colors in the pupil division direction coincide with each other. For this reason, in the second focus detection process, the signal period in the column direction (pupil division direction) of the focus detection signal converted into a Y signal is equal to the signal period in the column direction (pupil division direction) of the focus detection signals in the Bayer array, And it is a period of equal intervals. For this reason, a high spatial frequency band can be detected.

一方、瞳分割方向における各色の色重心が互いに一致しない場合、色ごとに不等間隔の周期となるため、ローパスフィルタにより安定化する必要があり、高い空間周波数帯域を安定して検出することが難しい。   On the other hand, when the color centroids of the respective colors in the pupil division direction do not coincide with each other, the period becomes unequal interval for each color, so it is necessary to stabilize by a low-pass filter, and a high spatial frequency band can be detected stably. difficult.

本実施例の第2焦点検出では、Y信号化された焦点検出信号の瞳分割方向における信号周期は、ベイヤー配列の焦点検出信号の瞳分割方向における信号周期と等しく、第1焦点検出のY信号化された焦点検出信号の瞳分割方向の信号周期よりも小さい。生成手段121aは、第1色の第1焦点検出画素の信号と第2色の第1焦点検出画素の信号とを、各画素で瞳分割方向における色重心が互いに一致するように合成して、第1焦点検出信号を生成する。また生成手段121aは、第1色の第2焦点検出画素の信号と第2色の第2焦点検出画素の信号とを、各画素で瞳分割方向における色重心が互いに一致するように合成して、第2焦点検出信号を生成する。また本実施例の第2焦点検出処理では、小デフォーカス状態から最良合焦位置近傍まで高精度に焦点検出可能であるように、瞳分割方向における焦点検出信号の信号周期が小さく、かつ、空間周波数帯域が高くなるように、第2画素加算処理を行う。   In the second focus detection of the present embodiment, the signal cycle in the pupil division direction of the focus detection signal converted into the Y signal is equal to the signal cycle in the pupil division direction of the focus detection signal of the Bayer array, and the Y signal of the first focus detection It is smaller than the signal period in the pupil division direction of the converted focus detection signal. The generation unit 121a combines the signal of the first focus detection pixel of the first color and the signal of the first focus detection pixel of the second color so that the color centroids in the pupil division direction match each other, A first focus detection signal is generated. Further, the generating unit 121a combines the signal of the second focus detection pixel of the first color and the signal of the second focus detection pixel of the second color so that the color centroids in the pupil division direction coincide with each other. The second focus detection signal is generated. Further, in the second focus detection process of the present embodiment, the signal cycle of the focus detection signal in the pupil division direction is small and the space is small so that the focus can be detected with high accuracy from the small defocus state to the vicinity of the best focus position. The second pixel addition process is performed so that the frequency band becomes higher.

続いてステップS230において、CPU121および画像処理回路125は、第1焦点検出信号および第2焦点検出信号のそれぞれに対して、シェーディング補正処理(光学補正処理)を行う。このときCPU121は、焦点検出領域の像高、撮像レンズ(結像光学系)のF値、および、射出瞳距離に応じて、第1焦点検出信号の第1シェーディング補正係数および第2焦点検出信号の第2シェーディング補正係数を生成する。そしてCPU121(画像処理回路125)は、第1焦点検出信号に第1シェーディング補正係数を乗算し、第2焦点検出信号に第2シェーディング補正係数を乗算して、第1焦点検出信号および第2焦点検出信号のシェーディング補正処理(光学補正処理)を行う。   Subsequently, in step S230, the CPU 121 and the image processing circuit 125 perform shading correction processing (optical correction processing) on each of the first focus detection signal and the second focus detection signal. At this time, the CPU 121 determines the first shading correction coefficient and the second focus detection signal of the first focus detection signal according to the image height of the focus detection area, the F value of the imaging lens (imaging optical system), and the exit pupil distance. The second shading correction coefficient is generated. Then, the CPU 121 (image processing circuit 125) multiplies the first focus detection signal by the first shading correction coefficient, multiplies the second focus detection signal by the second shading correction coefficient, and outputs the first focus detection signal and the second focus detection signal. A detection signal shading correction process (optical correction process) is performed.

位相差検出方式の第2焦点検出を行う際、CPU121は、第1焦点検出信号と第2焦点検出信号との相関(信号の一致度)に基づいて、デフォーカス量(第2デフォーカス量)を検出(算出)する。瞳ずれによるシェーディングが生じると、第1焦点検出信号と第2焦点検出信号との相関(信号の一致度)が低下する場合がある。このため本実施例において、位相差検出方式の第2焦点検出の際には、第1焦点検出信号と第2焦点検出信号との相関(信号の一致度)を改善して焦点検出性能を向上させるため、シェーディング補正処理(光学補正処理)を行うことが好ましい。   When performing the second focus detection of the phase difference detection method, the CPU 121 determines the defocus amount (second defocus amount) based on the correlation (the degree of signal coincidence) between the first focus detection signal and the second focus detection signal. Is detected (calculated). When shading due to pupil shift occurs, the correlation (the degree of signal coincidence) between the first focus detection signal and the second focus detection signal may decrease. For this reason, in the present embodiment, in the second focus detection of the phase difference detection method, the correlation (signal coincidence) between the first focus detection signal and the second focus detection signal is improved to improve the focus detection performance. Therefore, it is preferable to perform shading correction processing (optical correction processing).

続いてステップS240において、CPU121および画像処理回路125は、第1焦点検出信号および第2焦点検出信号に対して、第2フィルタ処理を行う。図10は、第2フィルタ処理の説明図であり、本実施例の第2フィルタ処理における通過帯域例を実線で示している。本実施例では、位相差検出方式の第2焦点検出により、小デフォーカス状態から最良合焦位置近傍での焦点検出を行う。このため、第2フィルタ処理における通過帯域は、高周波帯域を含むように構成される。必要に応じて、小デフォーカス状態から最良合焦位置近傍まで焦点調節を行う際に、デフォーカス状態に応じて、第2焦点検出処理の際の第2フィルタ処理の通過帯域を調整してもよい。なお、通過帯域の調整方法の一例として、信号の水平加算や間引きなどがある。   Subsequently, in step S240, the CPU 121 and the image processing circuit 125 perform a second filter process on the first focus detection signal and the second focus detection signal. FIG. 10 is an explanatory diagram of the second filter processing, and an example of a pass band in the second filter processing of the present embodiment is indicated by a solid line. In the present embodiment, focus detection is performed in the vicinity of the best focus position from the small defocus state by the second focus detection of the phase difference detection method. For this reason, the pass band in the second filter processing is configured to include a high frequency band. If necessary, when performing the focus adjustment from the small defocus state to the vicinity of the best focus position, the pass band of the second filter process in the second focus detection process may be adjusted according to the defocus state. Good. An example of a passband adjustment method is horizontal signal addition or thinning.

続いてステップS250において、CPU121(算出手段121b)は、第2フィルタ処理後の第1焦点検出信号と第2焦点検出信号とを相対的に瞳分割方向にシフトさせる第2シフト処理を行う。そしてCPU121は、信号の一致度を表す第2相関量(第2評価値)を算出する。   Subsequently, in step S250, the CPU 121 (calculating unit 121b) performs a second shift process for relatively shifting the first focus detection signal and the second focus detection signal after the second filter process in the pupil division direction. Then, the CPU 121 calculates a second correlation amount (second evaluation value) representing the degree of coincidence of signals.

ここで、列方向(瞳分割方向)のj番目、行方向(瞳分割方向と直交する方向)のi番目の第2フィルタ処理後の第1焦点検出信号をdY2A(i、j)、第2焦点検出信号をdY2B(i、j)とする。また、焦点検出領域に対応する番号jの範囲をW、および、番号iの範囲をLとする。また、第2シフト処理によるシフト量をs、シフト量sのシフト範囲をΓ2とする。このとき、第2相関量COR2even、COR2odd(第2評価値)は、以下の式(4A)、(4B)のようにそれぞれ表される。 Here, the first focus detection signal after the j-th second filter processing in the column direction (pupil division direction) and the i-th row direction (direction orthogonal to the pupil division direction) is dY2A (i, j), second Let the focus detection signal be dY2B (i, j). Also, the range of the number j corresponding to the focus detection area is W, and the range of the number i is L. Further, the shift amount by the second shift process is s 2 , and the shift range of the shift amount s 2 is Γ2. At this time, the second correlation amounts COR2 even and COR2 odd (second evaluation value) are respectively expressed as the following equations (4A) and (4B).

第2相関量COR2evenの算出の際、i行ごとにシフト量sに対し、列方向j+s番目の第1焦点検出信号dY2A(i、j+s)と、列方向j−s番目の第2焦点検出信号dY2B(i、j−s)とを対応させて減算し、シフト減算信号を生成する。そして、生成されたシフト減算信号の絶対値を算出し、焦点検出領域に対応する範囲W内において番号jの和を取り、i行ごとの第2相関量COR2even(i、s)を算出する。さらに、i行ごとの第1相関量COR2even(i、s)を、シフト量ごとに、焦点検出領域に対応する範囲L内において番号iの和を取り、第2相関量COR1even(s)を算出する。 During the calculation of the second correlation amount COR2 the even, to the shift amount s 2 in each row i, column j + s 2 th first focus detection signal dY2A (i, j + s 2 ) and the column direction j-s 2 th The second focus detection signal dY2B (i, j−s 2 ) is subtracted correspondingly to generate a shift subtraction signal. Then, the absolute value of the generated shift subtraction signal is calculated, the number j is summed within the range W corresponding to the focus detection area, and the second correlation amount COR2 even (i, s 2 ) for each i row is calculated. To do. Further, the first correlation amount COR2 even (i, s 2 ) for each i row is summed with the number i within the range L corresponding to the focus detection region for each shift amount, and the second correlation amount COR1 even (s 2 ) is calculated.

第2相関量COR2oddの算出の際、i行ごとにシフト量sに対し、列方向j+s番目の第1焦点検出信号dY2A(i、j+s)と、列方向j−s番目の第2焦点検出信号dY2B(i、j−1−s)とを対応させ減算し、シフト減算信号を生成する。そして、生成されたシフト減算信号の絶対値を算出し、焦点検出領域に対応する範囲W内において番号jの和を取り、i行ごとの第2相関量COR2odd(i、s)を算出する。さらに、i行ごとの第2相関量COR2odd(i、s)を、シフト量ごとに、焦点検出領域に対応する範囲L内において番号iの和を取り、第2相関量COR2odd(s)を算出する。本実施例において、第2相関量COR2oddは、第2相関量COR2evenに対して、第1焦点検出信号と第2焦点検出信号とのシフト量が半位相だけずれた相関量である。 During the calculation of the second correlation amount COR2 odd, to the shift amount s 2 in each row i, column j + s 2 th first focus detection signal dY2A (i, j + s 2 ) and the column direction j-s 2 th The second focus detection signal dY2B (i, j-1-s 2 ) is subtracted in correspondence with each other to generate a shift subtraction signal. Then, the absolute value of the generated shift subtraction signal is calculated, the number j is summed within the range W corresponding to the focus detection region, and the second correlation amount COR2 odd (i, s 2 ) for each i row is calculated. To do. Further, the second correlation amount COR2 odd (i, s 2 ) for each i row is summed with the number i in the range L corresponding to the focus detection region for each shift amount, and the second correlation amount COR2 odd (s 2 ) is calculated. In the present embodiment, the second correlation amount COR2 odd is a correlation amount in which the shift amount between the first focus detection signal and the second focus detection signal is shifted by a half phase with respect to the second correlation amount COR2 even .

続いてステップS260において、CPU121は、第2相関量COR2even、COR2odd(第2評価値)のそれぞれに対してサブピクセル演算を行い、第2相関量が最小値となる実数値のシフト量を算出して平均値を算出し、像ずれ量p2を求める。そしてCPU121は、互いに半位相だけずれた2つの第2相関量COR2even、COR2oddに基づいて、像ずれ量p2を算出することにより、サブピクセルを高精度に算出することができる。像ずれ量p2に対して、焦点検出領域の像高、撮像レンズ(結像光学系)のF値、および、射出瞳距離に応じた第2変換係数K2を掛けて、第2デフォーカス量Def2を検出(算出)する。 Subsequently, in step S260, the CPU 121 performs a subpixel operation on each of the second correlation amounts COR2 even and COR2 odd (second evaluation value), and calculates a real value shift amount at which the second correlation amount is the minimum value. The average value is calculated to calculate the image shift amount p2. Then, the CPU 121 can calculate the sub-pixel with high accuracy by calculating the image shift amount p2 based on the two second correlation amounts COR2 even and COR2 odd that are shifted from each other by a half phase. The second defocus amount Def2 is obtained by multiplying the image shift amount p2 by the second conversion coefficient K2 corresponding to the image height of the focus detection region, the F value of the imaging lens (imaging optical system), and the exit pupil distance. Is detected (calculated).

このように第2焦点検出処理では、ベイヤー配列の焦点検出信号から、全画素において、R(第1色):G(第2色):B(第3色)の色比が1:2:1で、かつ、瞳分割方向における各色の色重心が一致するように、Y信号化された焦点検出信号が生成される。このため第2焦点検出処理において、Y信号化された焦点検出信号の列方向(瞳分割方向)の信号周期は、ベイヤー配列の焦点検出信号の列方向(瞳分割方向)の信号周期と等しく、かつ、等間隔の周期である。このため、高い空間周波数帯域を検出することができる。   As described above, in the second focus detection process, the color ratio of R (first color): G (second color): B (third color) is 1: 2: 1 and a focus detection signal converted into a Y signal is generated so that the color centroids of the respective colors in the pupil division direction coincide with each other. For this reason, in the second focus detection process, the signal period in the column direction (pupil division direction) of the focus detection signal converted into a Y signal is equal to the signal period in the column direction (pupil division direction) of the focus detection signals in the Bayer array, And it is a period of equal intervals. For this reason, a high spatial frequency band can be detected.

本実施例の第2焦点検出処理によれば、焦点検出信号の空間周波数帯域と、撮像画像を生成する撮像信号の空間周波数帯域との差異を低減し、焦点検出信号から算出される検出合焦位置と撮像信号の最良合焦位置との間の差を低減することができる。このため本実施例の第2焦点検出処理によれば、小デフォーカス状態から最良合焦位置近傍まで高精度な焦点検出が可能となる。   According to the second focus detection process of the present embodiment, the difference between the spatial frequency band of the focus detection signal and the spatial frequency band of the imaging signal for generating the captured image is reduced, and the detection focus calculated from the focus detection signal. The difference between the position and the best focus position of the imaging signal can be reduced. Therefore, according to the second focus detection process of the present embodiment, it is possible to detect a focus with high accuracy from the small defocus state to the vicinity of the best focus position.

次に、図13を参照して、本実施例におけるフォーカス制御について説明する。図13は、フォーカス制御を示すフローチャートである。図13の各ステップは、主に、CPU121(生成手段121a、算出手段121b、フォーカス制御手段121c)により実行される。CPU121は、結像光学系のデフォーカス量の絶対値が第1所定値以下になるまで第1焦点検出を行って第3レンズ群105(フォーカスレンズ群)を駆動し(レンズ駆動を行い)、結像光学系の大デフォーカス状態から小デフォーカス状態まで焦点調節を行う。その後、結像光学系のデフォーカス量の絶対値が第2所定値(第1所定値>第2所定値)以下になるまで第2焦点検出を行ってレンズ駆動を行い、結像光学系の小デフォーカス状態から最良合焦位置近傍まで焦点調節を行う。   Next, focus control in the present embodiment will be described with reference to FIG. FIG. 13 is a flowchart showing focus control. Each step in FIG. 13 is mainly executed by the CPU 121 (the generation unit 121a, the calculation unit 121b, and the focus control unit 121c). The CPU 121 performs the first focus detection until the absolute value of the defocus amount of the imaging optical system is equal to or less than the first predetermined value, and drives the third lens group 105 (focus lens group) (performs lens driving). Focus adjustment is performed from the large defocus state to the small defocus state of the imaging optical system. Thereafter, the second focus is detected and the lens is driven until the absolute value of the defocus amount of the imaging optical system becomes equal to or less than a second predetermined value (first predetermined value> second predetermined value). The focus is adjusted from the small defocus state to the vicinity of the best focus position.

まずステップS100において、CPU121は、第1焦点検出により第1デフォーカス量Def1を検出(算出)する。続いてステップS301において、CPU121は、ステップS100にて算出された第1デフォーカス量Def1の絶対値(大きさ)|Def1|が第1所定値以下であるか否かを判定する。第1デフォーカス量Def1の絶対値|Def1|が第1所定値よりも大きい場合、CPU121は第1デフォーカス量Def1に応じてレンズ駆動を行い、ステップS100を繰り返す。一方、ステップS100にて算出された第1デフォーカス量Def1の絶対値|Def1|が第1所定値以下の場合、ステップS200に進む。   First, in step S100, the CPU 121 detects (calculates) the first defocus amount Def1 by the first focus detection. Subsequently, in step S301, the CPU 121 determines whether or not the absolute value (size) | Def1 | of the first defocus amount Def1 calculated in step S100 is equal to or less than a first predetermined value. When the absolute value | Def1 | of the first defocus amount Def1 is larger than the first predetermined value, the CPU 121 performs lens driving according to the first defocus amount Def1, and repeats step S100. On the other hand, when the absolute value | Def1 | of the first defocus amount Def1 calculated in step S100 is equal to or smaller than the first predetermined value, the process proceeds to step S200.

続いて、ステップS200において、CPU121は、第2焦点検出により第2デフォーカス量Def2を検出(算出)する。ステップS200にて算出された第2デフォーカス量Def2の絶対値|Def2|が第2所定値(第1所定値>第2所定値)よりも大きい場合、CPU121は第2デフォーカス量Def2に応じてレンズ駆動を行い、ステップS200を繰り返す。一方、ステップS200にて算出された第2デフォーカス量Def2の絶対値|Def2|が第2所定値以下の場合、焦点調節動作(本フローのフォーカス制御)を終了する。   Subsequently, in step S200, the CPU 121 detects (calculates) the second defocus amount Def2 by the second focus detection. When the absolute value | Def2 | of the second defocus amount Def2 calculated in step S200 is larger than the second predetermined value (first predetermined value> second predetermined value), the CPU 121 responds to the second defocus amount Def2. Then, the lens is driven and step S200 is repeated. On the other hand, when the absolute value | Def2 | of the second defocus amount Def2 calculated in step S200 is equal to or smaller than the second predetermined value, the focus adjustment operation (focus control in this flow) is terminated.

なお、図13のフローチャートでは第1焦点検出の後に第2焦点検出を行うが、これに限定されるものではなく、第1焦点検出および第2焦点検出の両方を並列に処理してもよい。図17は、第1焦点検出と第2焦点検出とを並列処理する場合のフォーカス制御を示すフローチャートである。図13と同一の動作に関しては同一の符号を付している。図17の各ステップは、主に、CPU121(生成手段121a、算出手段121b、フォーカス制御手段121c)により実行される。   In the flowchart of FIG. 13, the second focus detection is performed after the first focus detection. However, the present invention is not limited to this, and both the first focus detection and the second focus detection may be processed in parallel. FIG. 17 is a flowchart showing focus control when the first focus detection and the second focus detection are processed in parallel. The same operations as those in FIG. 13 are denoted by the same reference numerals. Each step in FIG. 17 is mainly executed by the CPU 121 (the generation unit 121a, the calculation unit 121b, and the focus control unit 121c).

CPU121は、第1焦点検出と第2焦点検出とを行う。その後、第2焦点検出の結果である結像光学系の第2デフォーカス量Def2の絶対値(大きさ)|Def2|が第1所定値以下であるか否かを判定する。そして、第2デフォーカス量Def2の絶対値|Def2|が第1所定値以下である場合、CPU121は、第1焦点検出の結果である結像光学系の第1デフォーカス量Def1の絶対値|Def1|が第2所定値以下であるか否かを判定する。一方、第2デフォーカス量Def2が第1所定値よりも大きい場合、CPU121は、第2焦点検出の結果である結像光学系の第2デフォーカス量Def2の絶対値|Def2|が第2所定値以下であるか否かを判定する。   The CPU 121 performs first focus detection and second focus detection. Thereafter, it is determined whether or not the absolute value (magnitude) | Def2 | of the second defocus amount Def2 of the imaging optical system, which is the result of the second focus detection, is equal to or smaller than the first predetermined value. When the absolute value | Def2 | of the second defocus amount Def2 is equal to or smaller than the first predetermined value, the CPU 121 determines the absolute value | of the first defocus amount Def1 of the imaging optical system as a result of the first focus detection. It is determined whether Def1 | is equal to or smaller than a second predetermined value. On the other hand, when the second defocus amount Def2 is larger than the first predetermined value, the CPU 121 determines that the absolute value | Def2 | of the second defocus amount Def2 of the imaging optical system as a result of the second focus detection is the second predetermined value. It is determined whether or not it is less than or equal to the value.

まずステップS100において、CPU121は、第1焦点検出により第1デフォーカス量Def1を検出(算出)する。また並行して、ステップS200において、CPU121は、第2焦点検出により第2デフォーカス量Def2を検出(算出)する。   First, in step S100, the CPU 121 detects (calculates) the first defocus amount Def1 by the first focus detection. In parallel, in step S200, the CPU 121 detects (calculates) the second defocus amount Def2 by the second focus detection.

続いてステップS401において、CPU121は、ステップS200にて算出された第2デフォーカス量Def2の絶対値(大きさ)|Def2|が第1所定値以下であるか否かを判定する。第2デフォーカス量Def2の絶対値|Def2|が第1所定値よりも大きい場合、ステップS402に進み、CPU121は第1デフォーカス量Def1をデフォーカス量Defとして採用する。一方、ステップS200にて算出された第2デフォーカス量Def2の絶対値|Def2|が第1所定値以下の場合、ステップS403に進み、CPU121は第2デフォーカス量Def2をデフォーカス量Defとして採用する。ステップS402またはステップS403の後、ステップS404に進む。   Subsequently, in step S401, the CPU 121 determines whether or not the absolute value (size) | Def2 | of the second defocus amount Def2 calculated in step S200 is equal to or less than a first predetermined value. When the absolute value | Def2 | of the second defocus amount Def2 is larger than the first predetermined value, the process proceeds to step S402, and the CPU 121 employs the first defocus amount Def1 as the defocus amount Def. On the other hand, when the absolute value | Def2 | of the second defocus amount Def2 calculated in step S200 is equal to or smaller than the first predetermined value, the process proceeds to step S403, and the CPU 121 adopts the second defocus amount Def2 as the defocus amount Def. To do. After step S402 or step S403, the process proceeds to step S404.

続いて、ステップS404において、CPU121は、ステップS402またはステップS403にて算出されたデフォーカス量Defの絶対値|Def|が第2所定値(第1所定値>第2所定値)よりも大きいか否かを判定する。デフォーカス量Defの絶対値|Def|が第2所定値よりも大きい場合、ステップS405に進み、CPU121はデフォーカス量Defに応じてレンズ駆動を行う。一方、デフォーカス量Defの絶対値|Def|が第2所定値以下の場合、焦点調節動作(本フローのフォーカス制御)を終了する。   Subsequently, in step S404, the CPU 121 determines whether the absolute value | Def | of the defocus amount Def calculated in step S402 or step S403 is larger than a second predetermined value (first predetermined value> second predetermined value). Determine whether or not. If the absolute value | Def | of the defocus amount Def is larger than the second predetermined value, the process proceeds to step S405, and the CPU 121 performs lens driving according to the defocus amount Def. On the other hand, when the absolute value | Def | of the defocus amount Def is equal to or smaller than the second predetermined value, the focus adjustment operation (focus control in this flow) is ended.

本実施例の第2焦点検出により、小絞り側の絞り値Fにおいて、デフォーカス状態によらず、位相差方式による焦点検出の高精度化が可能である。絞り値Fが大きく、小絞りになるほど、瞳部分領域501の重心と瞳部分領域502の重心間隔である基線長が短くなり、デフォーカス量dに対して、像ずれ量pの変化量が少なくなる。このため、小絞り側の絞り値Fにおいて、デフォーカス状態によらず、焦点検出精度が低下する場合がある。   With the second focus detection of the present embodiment, it is possible to increase the accuracy of focus detection by the phase difference method at the aperture value F on the small aperture side regardless of the defocus state. The larger the aperture value F and the smaller the aperture, the shorter the baseline length, which is the distance between the center of gravity of the pupil part region 501 and the center of gravity of the pupil part region 502, and the amount of change in the image shift amount p is smaller than the defocus amount d. Become. For this reason, in the aperture value F on the small aperture side, the focus detection accuracy may be lowered regardless of the defocus state.

また本実施例の第2焦点検出では、第1焦点検出での焦点検出信号の列方向(瞳分割方向)の周期に対して、第2焦点検出での焦点検出信号の列方向(瞳分割方向)の周期が1/2に微細化される。このため、相関量から算出される像ずれ量の検出精度を2倍に高精度化することができる。したがって、本実施例の第2焦点検出により、小絞り側の絞り値Fにおいて、デフォーカス状態によらず、焦点検出を高精度化することが可能である。   In the second focus detection of the present embodiment, the column direction (pupil division direction) of the focus detection signal in the second focus detection with respect to the cycle in the column direction (pupil division direction) of the focus detection signal in the first focus detection. ) Period is reduced to 1/2. For this reason, the detection accuracy of the image shift amount calculated from the correlation amount can be doubled. Therefore, with the second focus detection of the present embodiment, the focus detection can be performed with high accuracy regardless of the defocus state at the aperture value F on the small aperture side.

本実施例の撮像装置によれば、焦点検出信号に基づく検出合焦位置と撮像信号に基づく最良合焦位置との間の差を低減して、高精度な焦点検出が可能となる。   According to the image pickup apparatus of the present embodiment, it is possible to reduce the difference between the detected focus position based on the focus detection signal and the best focus position based on the image pickup signal, and to perform highly accurate focus detection.

次に、図14を参照して、本発明の実施例2における第2画素加算処理について説明する。図14は、第2画素加算処理の説明図である。本実施例において、第2画素加算処理以外は実施例1と同様であるため、他の説明は省略する。   Next, the second pixel addition process in the second embodiment of the present invention will be described with reference to FIG. FIG. 14 is an explanatory diagram of the second pixel addition process. This embodiment is the same as the first embodiment except for the second pixel addition process, and other description is omitted.

図14において、列方向(瞳分割方向)にj番目、行方向(瞳分割方向と直交する方向)にi番目のベイヤー配列の第1焦点検出信号をA(i、j)とする。ここで、第1焦点検出信号は、R、G、Bの色ごとに示される。R(第1色)の第1焦点検出信号は、RA(i、j)=A(i、j)である。G(第2色)の第1焦点検出信号は、GA(i、j+1)=A(i、j+1)、GA(i+1、j)=A(i+1、j)である。B(第3色)の第1焦点検出信号は、BA(i+1、j+1)=A(i+1、j+1)である。同様に、列方向(瞳分割方向)にj番目、行方向(瞳分割方向と直交する方向)にi番目のベイヤー配列の第2焦点検出信号をB(i、j)とする。第2焦点検出信号も、R、G、Bの色ごとに示される。R(第1色)の第2焦点検出信号は、RB(i、j)=B(i、j)である。G(第2色)の第2焦点検出信号は、GB(i、j+1)=B(i、j+1)、GB(i+1、j)=B(i+1、j)である。B(第3色)の第2焦点検出信号は、BB(i+1、j+1)=B(i+1、j+1)である。   In FIG. 14, the first focus detection signal of the Bayer array j-th in the column direction (pupil division direction) and i-th in the row direction (direction orthogonal to the pupil division direction) is A (i, j). Here, the first focus detection signal is shown for each of R, G, and B colors. The first focus detection signal of R (first color) is RA (i, j) = A (i, j). The first focus detection signals of G (second color) are GA (i, j + 1) = A (i, j + 1), GA (i + 1, j) = A (i + 1, j). The first focus detection signal of B (third color) is BA (i + 1, j + 1) = A (i + 1, j + 1). Similarly, the second focus detection signal of the Bayer array that is jth in the column direction (pupil division direction) and i-th in the row direction (direction orthogonal to the pupil division direction) is B (i, j). The second focus detection signal is also shown for each of R, G, and B colors. The second focus detection signal of R (first color) is RB (i, j) = B (i, j). The second focus detection signals of G (second color) are GB (i, j + 1) = B (i, j + 1), GB (i + 1, j) = B (i + 1, j). The second focus detection signal of B (third color) is BB (i + 1, j + 1) = B (i + 1, j + 1).

図11のステップS220における第2画素加算処理により、以下の式(5A)で表されるように、ベイヤー配列の第1焦点検出信号A(i、j)から、Y信号化された第1焦点検出信号Y2A(i、j)、すなわち第1輝度信号を算出することができる。同様に、第2画素加算処理により、以下の式(5B)で表されるように、ベイヤー配列の第2焦点検出信号B(i、j)から、Y信号化された第2焦点検出信号Y2B(i、j)、すなわち第2輝度信号を算出することができる。   As a result of the second pixel addition process in step S220 in FIG. 11, the first focus converted into the Y signal from the first focus detection signal A (i, j) in the Bayer array as represented by the following expression (5A). The detection signal Y2A (i, j), that is, the first luminance signal can be calculated. Similarly, by the second pixel addition process, the second focus detection signal Y2B converted into a Y signal from the second focus detection signal B (i, j) of the Bayer array as represented by the following expression (5B). (I, j), that is, the second luminance signal can be calculated.

式(5A)、(5B)において、i=m、j=n(m、nは整数)である。 In formulas (5A) and (5B), i = m and j = n (m and n are integers).

本実施例の第2画素加算処理では、ベイヤー配列の焦点検出信号から、全画素において、R(第1色):G(第2色):B(第3色)の色比が1:2:1で、かつ、瞳分割方向における各色の色重心が一致するように、Y信号化された焦点検出信号が生成される。このため第2焦点検出処理において、Y信号化された焦点検出信号の列方向(瞳分割方向)の信号周期は、ベイヤー配列の焦点検出信号の列方向(瞳分割方向)の信号周期と等しく、かつ、等間隔の周期である。このため、高い空間周波数帯域を検出することができる。   In the second pixel addition process of the present embodiment, the R (first color): G (second color): B (third color) color ratio is 1: 2 in all pixels from the focus detection signals in the Bayer array. 1 and a focus detection signal converted into a Y signal is generated so that the color centroids of the respective colors in the pupil division direction coincide with each other. For this reason, in the second focus detection process, the signal period in the column direction (pupil division direction) of the focus detection signal converted into a Y signal is equal to the signal period in the column direction (pupil division direction) of the focus detection signals in the Bayer array, And it is a period of equal intervals. For this reason, a high spatial frequency band can be detected.

本実施例の撮像装置によれば、焦点検出信号に基づく検出合焦位置と撮像信号に基づく最良合焦位置との間の差を低減して、高精度な焦点検出が可能となる。   According to the image pickup apparatus of the present embodiment, it is possible to reduce the difference between the detected focus position based on the focus detection signal and the best focus position based on the image pickup signal, and to perform highly accurate focus detection.

次に、図15および図16を参照して、本発明の実施例3における撮像装置について説明する。本実施例は、撮像素子107の画素配列に関し、実施例1とは異なる。本実施例のそれ以外の構成は、実施例1と同様であるため、それらの説明は省略する。   Next, with reference to FIG. 15 and FIG. 16, an imaging apparatus according to Embodiment 3 of the present invention will be described. The present embodiment is different from the first embodiment regarding the pixel arrangement of the image sensor 107. Since the other configuration of the present embodiment is the same as that of the first embodiment, description thereof is omitted.

図15は、本実施例における撮像素子107の画素配列を示す図である。図16は、撮像素子107の画素構造を示す図であり、図16(a)は撮像素子107の画素200Gの平面図(+z方向から見た図)、図16(b)は図16(a)中の線a−aの断面図(−y方向から見た図)をそれぞれ示している。   FIG. 15 is a diagram illustrating a pixel array of the image sensor 107 in the present embodiment. 16A and 16B are diagrams illustrating the pixel structure of the image sensor 107. FIG. 16A is a plan view of the pixel 200G of the image sensor 107 (viewed from the + z direction), and FIG. ) Is a sectional view taken along line aa (viewed from the -y direction).

図15は、撮像素子107(2次元CMOSセンサ)の画素配列(撮影画素の配列)を、4列×4行の範囲で示している。本実施例において、各々の撮像画素(画素200R、200G、200B)は、4つの副画素201、202、203、204により構成さている。このため、図15には、副画素の配列が、8列×8行の範囲で示されている。   FIG. 15 shows a pixel array (photographing pixel array) of the image sensor 107 (two-dimensional CMOS sensor) in a range of 4 columns × 4 rows. In this embodiment, each imaging pixel (pixels 200R, 200G, and 200B) includes four subpixels 201, 202, 203, and 204. For this reason, FIG. 15 shows the arrangement of sub-pixels in a range of 8 columns × 8 rows.

図15に示されるように、2列×2行の画素群200は、画素200R、200G、200Bがベイヤー配列で配置されている。すなわち画素群200のうち、R(赤)の分光感度を有する画素200Rが左上に、G(緑)の分光感度を有する画素200Gが右上と左下に、B(青)の分光感度を有する画素200Bが右下にそれぞれ配置されている。各画素200R、200G、200B(各撮像画素)は、2列×2行に配列された副画素201、202、203、204により構成されている。なお、本実施例では2列×2行に配列された副画素により構成される例を示したが、これより多い副画素を含むことができ、また、列方向と行方向で異なる数の副画素により構成されるようにしてもよい。副画素201は、結像光学系の第1瞳部分領域を通過した光束を受光する画素である。副画素202は、結像光学系の第2瞳部分領域を通過した光束を受光する画素である。副画素203は、結像光学系の第3瞳部分領域を通過した光束を受光する画素である。副画素204は、結像光学系の第4瞳部分領域を通過した光束を受光する画素である。   As shown in FIG. 15, in a pixel group 200 of 2 columns × 2 rows, pixels 200R, 200G, and 200B are arranged in a Bayer array. That is, in the pixel group 200, a pixel 200R having a spectral sensitivity of R (red) is at the upper left, a pixel 200G having a spectral sensitivity of G (green) is at the upper right and a lower left, and a pixel 200B having a spectral sensitivity of B (blue). Are located at the bottom right. Each of the pixels 200R, 200G, and 200B (each imaging pixel) includes subpixels 201, 202, 203, and 204 arranged in 2 columns × 2 rows. In this embodiment, an example in which subpixels are arranged in 2 columns × 2 rows has been shown, but more subpixels can be included, and different numbers of subpixels can be included in the column direction and the row direction. You may make it comprise with a pixel. The sub-pixel 201 is a pixel that receives the light beam that has passed through the first pupil partial region of the imaging optical system. The sub-pixel 202 is a pixel that receives the light beam that has passed through the second pupil partial region of the imaging optical system. The sub-pixel 203 is a pixel that receives the light beam that has passed through the third pupil partial region of the imaging optical system. The sub-pixel 204 is a pixel that receives the light beam that has passed through the fourth pupil partial region of the imaging optical system.

図15に示されるように、撮像素子107は、4列×4行の撮像画素(8列×8行の副画素)を面上に多数配置して構成されており、撮像信号(副画素信号)を出力する。本実施例の撮像素子107は、画素(撮像画素)の周期Pが4μm、画素(撮像画素)の数Nが横5575列×縦3725行=約2075万画素である。また撮像素子107は、副画素の列方向の周期PSUBが2μm、副画素の数NSUBが横11150列×縦7450行=約8300万画素である。 As shown in FIG. 15, the image sensor 107 is configured by arranging a large number of 4 columns × 4 rows of imaging pixels (8 columns × 8 rows of subpixels) on the surface, and an imaging signal (subpixel signal). ) Is output. In the imaging device 107 of this embodiment, the period P of pixels (imaging pixels) is 4 μm, and the number N of pixels (imaging pixels) is 5575 columns × 3725 rows = approximately 20.75 million pixels. The imaging element 107 has a sub-pixel column-direction period P SUB of 2 μm, and the number of sub-pixels N SUB is 11150 horizontal rows × 7450 vertical rows = approximately 83 million pixels.

図16(b)に示されるように、本実施例の画素200Gには、画素の受光面側に入射光を集光するためのマイクロレンズ305が設けられている。マイクロレンズ305は、受光面からz軸方向(光軸OAの方向)に所定の距離だけ離れた位置に配置されている。また画素200Gには、x方向にN分割(2分割)、y方向にN分割(2分割)された光電変換部301、302、303、304が形成されている。光電変換部301〜304は、副画素201〜204にそれぞれ対応する。 As shown in FIG. 16B, the pixel 200G of this embodiment is provided with a microlens 305 for condensing incident light on the light receiving surface side of the pixel. The microlens 305 is disposed at a position away from the light receiving surface by a predetermined distance in the z-axis direction (the direction of the optical axis OA). Also in the pixel 200G is, N H divided in the x direction (divided into two), N V division (2 divided) photoelectric conversion unit 301, 302, 303 and 304 are formed in the y-direction. The photoelectric conversion units 301 to 304 correspond to the subpixels 201 to 204, respectively.

本実施例において、撮像素子107は、1つのマイクロレンズを共有し、結像光学系(撮影レンズ)の瞳のうち互いに異なる領域(第1〜第4瞳部分領域)を通過する複数の光束を受光する複数の副画素を備えている。撮像素子107は、複数の副画素として、第1副画素(複数の副画素201)、第2副画素(複数の副画素202)、第3副画素(複数の副画素203)、および、第4副画素(複数の副画素204)を含む。   In this embodiment, the image sensor 107 shares a single microlens and emits a plurality of light beams that pass through different regions (first to fourth pupil partial regions) of the pupil of the imaging optical system (photographing lens). A plurality of sub-pixels for receiving light are provided. The image sensor 107 includes a first subpixel (a plurality of subpixels 201), a second subpixel (a plurality of subpixels 202), a third subpixel (a plurality of subpixels 203), and a plurality of subpixels. 4 sub-pixels (a plurality of sub-pixels 204) are included.

本実施例において、撮像素子107の画素ごとに副画素201、202、203、204の信号を加算して読み出すことにより、有効画素数Nの解像度を有する撮像画像を生成する。このように撮像画像は、画素ごとに、複数の副画素(本実施例では副画素201〜204)の受光信号を合成して生成される。   In this embodiment, signals of the sub-pixels 201, 202, 203, and 204 are added and read for each pixel of the image sensor 107, thereby generating a captured image having a resolution of N effective pixels. Thus, the captured image is generated for each pixel by combining the light reception signals of a plurality of subpixels (subpixels 201 to 204 in this embodiment).

本実施例において、撮像素子107の画素ごとに、副画素201、203の信号を加算することにより第1焦点検出信号を生成し、副画素202、204の信号を加算することにより第2焦点検出信号を生成することができる。このとき、複数の副画素201、203は第1画素群を構成し、複数の副画素202、204は第2画素群を構成する。これらの加算処理により、水平方向の瞳分割に対応する第1焦点検出信号および第2焦点検出信号を取得することができ、位相差検出方式の第1焦点検出および第2焦点検出を行うことが可能である。   In this embodiment, for each pixel of the image sensor 107, a first focus detection signal is generated by adding the signals of the sub-pixels 201 and 203, and a second focus detection is performed by adding the signals of the sub-pixels 202 and 204. A signal can be generated. At this time, the plurality of sub-pixels 201 and 203 constitute a first pixel group, and the plurality of sub-pixels 202 and 204 constitute a second pixel group. By these addition processes, the first focus detection signal and the second focus detection signal corresponding to the pupil division in the horizontal direction can be acquired, and the first focus detection and the second focus detection of the phase difference detection method can be performed. Is possible.

また本実施例において、撮像素子107の画素ごとに、副画素201、202の信号を加算することにより第1焦点検出信号を生成し、副画素203、204の信号を加算することにより第2焦点検出信号を生成することができる。このとき、複数の副画素201、202は第1画素群を構成し、複数の副画素203、204は第2画素群を構成する。これらの加算処理により、垂直方向の瞳分割に対応する第1焦点検出信号および第2焦点検出信号を取得することができ、位相差検出方式の第1焦点検出および第2焦点検出を行うことが可能である。   In this embodiment, for each pixel of the image sensor 107, the first focus detection signal is generated by adding the signals of the subpixels 201 and 202, and the second focus is added by adding the signals of the subpixels 203 and 204. A detection signal can be generated. At this time, the plurality of subpixels 201 and 202 constitute a first pixel group, and the plurality of subpixels 203 and 204 constitute a second pixel group. By these addition processes, the first focus detection signal and the second focus detection signal corresponding to the pupil division in the vertical direction can be acquired, and the first focus detection and the second focus detection of the phase difference detection method can be performed. Is possible.

本実施例の撮像装置によれば、焦点検出信号に基づく検出合焦位置と撮像信号に基づく最良合焦位置との間の差を低減して、高精度な焦点検出が可能となる。   According to the image pickup apparatus of the present embodiment, it is possible to reduce the difference between the detected focus position based on the focus detection signal and the best focus position based on the image pickup signal, and to perform highly accurate focus detection.

このように各実施例において、制御装置(CPU121)は、生成手段121aおよび算出手段121bを有する。生成手段121aは、結像光学系の互いに異なる瞳部分領域を通過する光束を受光する第1画素群および第2画素群からの複数の種類の色信号に基づいて、第1焦点検出信号および第2焦点検出信号を生成する。算出手段121bは、第1焦点検出信号および第2焦点検出信号を用いて位相差検出方式によりデフォーカス量を算出する。生成手段121aは、第1画素群に関し、複数の種類の色信号の瞳分割方向における重心が互いに一致するように色信号を合成して(画素加算処理を行い)、第1焦点検出信号を生成する。また生成手段121aは、第2画素群に関し、複数の種類の色信号の瞳分割方向における重心が互いに一致するように色信号を合成して、第2焦点検出信号を生成する。   Thus, in each embodiment, the control device (CPU 121) includes a generation unit 121a and a calculation unit 121b. The generating unit 121a receives the first focus detection signal and the first focus signal based on a plurality of types of color signals from the first pixel group and the second pixel group that receive light beams that pass through different pupil partial regions of the imaging optical system. A bifocal detection signal is generated. The calculating means 121b calculates the defocus amount by the phase difference detection method using the first focus detection signal and the second focus detection signal. The generation unit 121a generates a first focus detection signal by combining the color signals (performing pixel addition processing) so that the centroids in the pupil division direction of the plurality of types of color signals coincide with each other with respect to the first pixel group. To do. Further, the generation unit 121a generates a second focus detection signal by combining the color signals so that the centroids of the plurality of types of color signals in the pupil division direction coincide with each other with respect to the second pixel group.

好ましくは、瞳分割方向において、第1焦点検出信号および第2焦点検出信号の信号周期は、第1画素群および第2画素群の配列周期とそれぞれ等しい。また好ましくは、複数の種類の色信号は、第1色信号、第2色信号、および、第3色信号を含む。生成手段121aは、第1画素群に関し、第1色信号、第2色信号、および、第3色信号の瞳分割方向における重心が互いに一致するように、第1色信号、第2色信号、および、第3色信号を合成して、第1輝度信号(Y2A)としての第1焦点検出信号を生成する。また生成手段121aは、第2画素群に関し、第1色信号、第2色信号、および、第3色信号の瞳分割方向における重心が一致するように、第1色信号、第2色信号、および、第3色信号を合成して、第2輝度信号(Y2B)としての第2焦点検出信号を生成する。   Preferably, in the pupil division direction, the signal periods of the first focus detection signal and the second focus detection signal are equal to the arrangement periods of the first pixel group and the second pixel group, respectively. Preferably, the plurality of types of color signals include a first color signal, a second color signal, and a third color signal. The generating unit 121a relates to the first pixel group, the first color signal, the second color signal, the second color signal, and the third color signal so that the centroids in the pupil division direction coincide with each other. Then, the third color signal is combined to generate a first focus detection signal as the first luminance signal (Y2A). In addition, the generation unit 121a relates to the second pixel group so that the first color signal, the second color signal, and the third color signal have the same center of gravity in the pupil division direction. Then, the third color signal is combined to generate a second focus detection signal as the second luminance signal (Y2B).

好ましくは、第1色信号は、第1画素群のうち、第1画素(例えば、図12中のRA(i、j))から得られた信号である。第2色信号は、第1画素群のうち、第1画素に隣接する第2画素(GA(i、j−1))、第3画素(GA(i、j+1))、および、第4画素(GA(i+1、j))から得られた信号である。このとき、第1色信号および第2色信号の瞳分割方向における重心は、それぞれ、第1画素の位置に対応する。この点は、第2画素群に関しても同様である。より好ましくは、第3色信号は、第1画素群のうち、第5画素(例えば、図12中のBA(i+1、j−1))および第6画素(BA(i+1、j+1))から得られた信号である。このとき、第3色信号の瞳分割方向における重心は、第1画素の位置に対応する。この点は、第2画素群に関しても同様である。   Preferably, the first color signal is a signal obtained from the first pixel (for example, RA (i, j) in FIG. 12) in the first pixel group. The second color signal includes a second pixel (GA (i, j−1)), a third pixel (GA (i, j + 1)), a fourth pixel adjacent to the first pixel in the first pixel group. This is a signal obtained from (GA (i + 1, j)). At this time, the centroids in the pupil division direction of the first color signal and the second color signal respectively correspond to the positions of the first pixels. This also applies to the second pixel group. More preferably, the third color signal is obtained from the fifth pixel (for example, BA (i + 1, j−1) in FIG. 12) and the sixth pixel (BA (i + 1, j + 1)) in the first pixel group. Signal. At this time, the center of gravity of the third color signal in the pupil division direction corresponds to the position of the first pixel. This also applies to the second pixel group.

好ましくは、第1色信号は、第1画素群のうち、第1画素(例えば、図14中のRA(i、j))から得られた信号である。第2色信号は、第1画素群のうち、第1画素に隣接する第2画素(GA(i、j−1))、第3画素(GA(i、j+1))、第4画素(GA(i+1、j))、および、第5画素(GA(i−1、j))から得られた信号である。このとき、第1色信号および第2色信号の瞳分割方向における重心は、それぞれ、第1画素の位置に対応する。この点は、第2画素群に関しても同様である。より好ましくは、第3色信号は、第1画素群のうち、第6画素(例えば、図14中のBA(i−1、j−1))、第7画素(BA(i+1、j−1))、第8画素(BA(i−1、j+1))、および、第9画素(BA(i+1、j+1))から得られた信号である。このとき、第3色信号の瞳分割方向における重心は、第1画素の位置に対応する。この点は、第2画素群に関しても同様である。   Preferably, the first color signal is a signal obtained from the first pixel (for example, RA (i, j) in FIG. 14) in the first pixel group. The second color signal is the second pixel (GA (i, j−1)), the third pixel (GA (i, j + 1)), the fourth pixel (GA) adjacent to the first pixel in the first pixel group. (I + 1, j)) and a signal obtained from the fifth pixel (GA (i-1, j)). At this time, the centroids in the pupil division direction of the first color signal and the second color signal respectively correspond to the positions of the first pixels. This also applies to the second pixel group. More preferably, the third color signal includes the sixth pixel (for example, BA (i−1, j−1) in FIG. 14) and the seventh pixel (BA (i + 1, j−1) in the first pixel group. )), The eighth pixel (BA (i-1, j + 1)), and the ninth pixel (BA (i + 1, j + 1)). At this time, the center of gravity of the third color signal in the pupil division direction corresponds to the position of the first pixel. This also applies to the second pixel group.

好ましくは、第1色信号、第2色信号、および、第3色信号は、それぞれ、赤色信号、緑色信号、および、青色信号であり、第1画素群および第2画素群は、それぞれ、ベイヤー配列を有する。そして、第1焦点検出信号および第2焦点検出信号のそれぞれに関し、第1色信号、第2色信号、および、第3色信号の合成比率は1:2:1である。   Preferably, the first color signal, the second color signal, and the third color signal are a red signal, a green signal, and a blue signal, respectively, and the first pixel group and the second pixel group are Bayer, respectively. Has an array. For each of the first focus detection signal and the second focus detection signal, the synthesis ratio of the first color signal, the second color signal, and the third color signal is 1: 2: 1.

好ましくは、制御装置は、デフォーカス量に基づいてフォーカス制御を行うフォーカス制御手段121cを有する。フォーカス制御手段121cは、第1焦点検出処理で算出手段121bにより算出された第1デフォーカス量が第1閾値(第1所定値)よりも大きい場合、第1デフォーカス量に基づいてフォーカス制御を行う。一方、第1デフォーカス量が第1閾値よりも小さい場合、フォーカス制御手段121cは、第2焦点検出処理で算出手段121bにより算出された第2デフォーカス量に基づいてフォーカス制御を行う。そして生成手段121aは、第2焦点検出処理において、複数の種類の色信号の瞳分割方向における重心が互いに一致するように色信号を合成して第1焦点検出信号および第2焦点検出信号を生成する。より好ましくは、第1焦点検出処理において、生成手段121aにより生成される第1焦点検出信号および第2焦点検出信号の瞳分割方向における信号周期は、第1画素群および第2画素群の配列周期よりも大きい。より好ましくは、第1焦点検出信号および第2焦点検出信号のそれぞれの空間周波数帯域は、第1焦点検出処理よりも第2焦点検出処理の場合のほうが高い。   Preferably, the control device includes a focus control unit 121c that performs focus control based on the defocus amount. The focus control unit 121c performs the focus control based on the first defocus amount when the first defocus amount calculated by the calculation unit 121b in the first focus detection process is larger than the first threshold (first predetermined value). Do. On the other hand, when the first defocus amount is smaller than the first threshold, the focus control unit 121c performs focus control based on the second defocus amount calculated by the calculation unit 121b in the second focus detection process. In the second focus detection process, the generation unit 121a generates the first focus detection signal and the second focus detection signal by synthesizing the color signals so that the centroids in the pupil division direction of the plurality of types of color signals coincide with each other. To do. More preferably, in the first focus detection process, the signal period in the pupil division direction of the first focus detection signal and the second focus detection signal generated by the generation unit 121a is the array period of the first pixel group and the second pixel group. Bigger than. More preferably, the spatial frequency bands of the first focus detection signal and the second focus detection signal are higher in the second focus detection process than in the first focus detection process.

(その他の実施例)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

各実施例によれば、焦点検出信号に基づく検出合焦位置と撮像信号に基づく最良合焦位置との間の差を低減して、高精度な焦点検出が可能な制御装置、撮像装置、制御方法、プログラム、および、記憶媒体を提供することができる。   According to each embodiment, a control device, an imaging device, and a control capable of highly accurate focus detection by reducing a difference between a detection focus position based on a focus detection signal and a best focus position based on an imaging signal. Methods, programs, and storage media can be provided.

以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although the preferable Example of this invention was described, this invention is not limited to these Examples, A various deformation | transformation and change are possible within the range of the summary.

例えば、制御装置は、複数の種類の色信号に基づいて、距離情報を算出するために位相差検出方式に用いる複数の検出信号を取得する制御方法(画像処理方法)を実行することができる。この制御方法は、複数の種類の色信号を含む視点画像(視差画像)に対して第1処理を行い、色信号を合成した合成信号を取得するステップと、合成信号に対して第2処理を行い、検出信号を生成するステップとを有する。第1処理は、視点画像の視点方向における重心が一致するように色信号を合成する処理である。ここで、第1処理は、複数の種類の色信号を異なる比率で合成する処理を含み、第2処理は、合成信号に含まれる信号の周波数帯域を可変するために間引く処理を含む。また、この制御方法は、検出信号を用いて位相差を検出するステップを更に有してもよい。そして第2処理は、検出された位相差に基づいて合成信号に対する処理を行う。また、第1処理は、視点画像の視点方向に垂直な方向おける重心が一致するように色信号を合成する処理であってもよい。   For example, the control device can execute a control method (image processing method) that acquires a plurality of detection signals used in a phase difference detection method to calculate distance information based on a plurality of types of color signals. In this control method, a first process is performed on a viewpoint image (parallax image) including a plurality of types of color signals, a synthesized signal obtained by synthesizing the color signals is obtained, and a second process is performed on the synthesized signal. And generating a detection signal. The first process is a process for synthesizing color signals so that the centroids in the viewpoint direction of the viewpoint images match. Here, the first process includes a process of combining a plurality of types of color signals at different ratios, and the second process includes a process of thinning out in order to vary the frequency band of the signal included in the combined signal. The control method may further include a step of detecting a phase difference using the detection signal. In the second process, the composite signal is processed based on the detected phase difference. Further, the first process may be a process of synthesizing color signals so that the centroids in the direction perpendicular to the viewpoint direction of the viewpoint image coincide.

121 CPU(制御装置)
121a 生成手段
121b 算出手段
121 CPU (control device)
121a generation means 121b calculation means

Claims (21)

結像光学系の互いに異なる瞳部分領域を通過する光束を受光する第1画素群および第2画素群からの複数の種類の色信号に基づいて、第1焦点検出信号および第2焦点検出信号を生成する生成手段と、
前記第1焦点検出信号および前記第2焦点検出信号を用いて位相差検出方式によりデフォーカス量を算出する算出手段と、を有し、
前記生成手段は、
前記第1画素群に関し、前記複数の種類の色信号の瞳分割方向における重心が互いに一致するように該色信号を合成して前記第1焦点検出信号を生成し、
前記第2画素群に関し、前記複数の種類の色信号の前記瞳分割方向における重心が互いに一致するように該色信号を合成して前記第2焦点検出信号を生成する、ことを特徴とする制御装置。
Based on a plurality of types of color signals from the first pixel group and the second pixel group that receive light beams that pass through different pupil partial regions of the imaging optical system, the first focus detection signal and the second focus detection signal are obtained. Generating means for generating;
Calculating means for calculating a defocus amount by a phase difference detection method using the first focus detection signal and the second focus detection signal;
The generating means includes
The first focus detection signal is generated by combining the color signals so that the centroids in the pupil division direction of the plurality of types of color signals coincide with each other with respect to the first pixel group,
The control for generating the second focus detection signal by combining the color signals so that the centroids in the pupil division direction of the plurality of types of color signals coincide with each other with respect to the second pixel group apparatus.
前記瞳分割方向において、前記第1焦点検出信号および前記第2焦点検出信号の信号周期は、前記第1画素群および前記第2画素群の配列周期とそれぞれ等しいことを特徴とする請求項1に記載の制御装置。   The signal period of the first focus detection signal and the second focus detection signal in the pupil division direction is equal to an array period of the first pixel group and the second pixel group, respectively. The control device described. 前記複数の種類の色信号は、第1色信号、第2色信号、および、第3色信号を含み、
前記生成手段は、
前記第1画素群に関し、前記第1色信号、前記第2色信号、および、前記第3色信号の前記瞳分割方向における重心が互いに一致するように、該第1色信号、該第2色信号、および、該第3色信号を合成して、第1輝度信号としての前記第1焦点検出信号を生成し、
前記第2画素群に関し、前記第1色信号、前記第2色信号、および、前記第3色信号の前記瞳分割方向における重心が互いに一致するように、該第1色信号、該第2色信号、および、該第3色信号を合成して、第2輝度信号としての前記第2焦点検出信号を生成する、ことを特徴とする請求項1に記載の制御装置。
The plurality of types of color signals include a first color signal, a second color signal, and a third color signal,
The generating means includes
Regarding the first pixel group, the first color signal, the second color signal, and the third color signal, the first color signal, the second color, and the third color signal so that the centroids in the pupil division direction coincide with each other. Combining the signal and the third color signal to generate the first focus detection signal as a first luminance signal;
Regarding the second pixel group, the first color signal, the second color signal, and the third color signal, the first color signal, the second color, and the third color signal so that the centroids in the pupil division direction coincide with each other. 2. The control device according to claim 1, wherein the second focus detection signal as a second luminance signal is generated by combining the signal and the third color signal. 3.
前記第1色信号は、前記第1画素群および前記第2画素群のそれぞれのうち、第1画素から得られた信号であり、
前記第2色信号は、前記第1画素群および前記第2画素群のそれぞれのうち、前記第1画素に隣接する第2画素、第3画素、および、第4画素から得られた信号であり、
前記第1色信号および前記第2色信号の前記瞳分割方向における重心は、それぞれ、前記第1画素の位置に対応する、ことを特徴とする請求項3に記載の制御装置。
The first color signal is a signal obtained from the first pixel in each of the first pixel group and the second pixel group,
The second color signal is a signal obtained from a second pixel, a third pixel, and a fourth pixel adjacent to the first pixel in each of the first pixel group and the second pixel group. ,
4. The control device according to claim 3, wherein centroids in the pupil division direction of the first color signal and the second color signal respectively correspond to positions of the first pixels.
前記第3色信号は、前記第1画素群および前記第2画素群のそれぞれのうち、第5画素および第6画素から得られた信号であり、
前記第3色信号の前記瞳分割方向における重心は、前記第1画素の位置に対応することを特徴とする請求項4に記載の制御装置。
The third color signal is a signal obtained from a fifth pixel and a sixth pixel in each of the first pixel group and the second pixel group,
The control device according to claim 4, wherein the center of gravity of the third color signal in the pupil division direction corresponds to the position of the first pixel.
前記第1色信号は、前記第1画素群および前記第2画素群のそれぞれのうち、第1画素から得られた信号であり、
前記第2色信号は、前記第1画素群および前記第2画素群のそれぞれのうち、前記第1画素に隣接する第2画素、第3画素、第4画素、および、第5画素から得られた信号であり、
前記第1色信号および前記第2色信号の前記瞳分割方向における重心は、それぞれ、前記第1画素の位置に対応する、ことを特徴とする請求項3に記載の制御装置。
The first color signal is a signal obtained from the first pixel in each of the first pixel group and the second pixel group,
The second color signal is obtained from a second pixel, a third pixel, a fourth pixel, and a fifth pixel adjacent to the first pixel in each of the first pixel group and the second pixel group. Signal
4. The control device according to claim 3, wherein centroids in the pupil division direction of the first color signal and the second color signal respectively correspond to positions of the first pixels.
前記第3色信号は、前記第1画素群および前記第2画素群のそれぞれのうち、第6画素、第7画素、第8画素、および、第9画素から得られた信号であり、
前記第3色信号の前記瞳分割方向における重心は、前記第1画素の位置に対応することを特徴とする請求項6に記載の制御装置。
The third color signal is a signal obtained from the sixth pixel, the seventh pixel, the eighth pixel, and the ninth pixel in each of the first pixel group and the second pixel group,
The control apparatus according to claim 6, wherein the center of gravity of the third color signal in the pupil division direction corresponds to the position of the first pixel.
前記第1色信号、前記第2色信号、および、前記第3色信号は、それぞれ、赤色信号、緑色信号、および、青色信号であり、
前記第1画素群および前記第2画素群は、それぞれ、ベイヤー配列を有し、
前記第1焦点検出信号および前記第2焦点検出信号のそれぞれに関し、前記第1色信号、前記第2色信号、および、前記第3色信号の合成比率は1:2:1である、ことを特徴とする請求項3乃至7のいずれか1項に記載の制御装置。
The first color signal, the second color signal, and the third color signal are a red signal, a green signal, and a blue signal, respectively.
Each of the first pixel group and the second pixel group has a Bayer array,
For each of the first focus detection signal and the second focus detection signal, a synthesis ratio of the first color signal, the second color signal, and the third color signal is 1: 2: 1. The control device according to claim 3, wherein the control device is a control device.
前記デフォーカス量に基づいてフォーカス制御を行うフォーカス制御手段を更に有し、
前記フォーカス制御手段は、
第1焦点検出処理で前記算出手段により算出された第1デフォーカス量が第1閾値よりも大きい場合、該第1デフォーカス量に基づいて前記フォーカス制御を行い、
前記第1デフォーカス量が前記第1閾値よりも小さい場合、第2焦点検出処理で前記算出手段により算出された第2デフォーカス量に基づいて前記フォーカス制御を行い、
前記生成手段は、前記第2焦点検出処理において、前記複数の種類の色信号の前記瞳分割方向における重心が互いに一致するように該色信号を合成して前記第1焦点検出信号および前記第2焦点検出信号を生成する、ことを特徴とする請求項1乃至8のいずれか1項に記載の制御装置。
A focus control unit that performs focus control based on the defocus amount;
The focus control means includes
When the first defocus amount calculated by the calculation means in the first focus detection process is larger than a first threshold value, the focus control is performed based on the first defocus amount;
When the first defocus amount is smaller than the first threshold, the focus control is performed based on the second defocus amount calculated by the calculation unit in the second focus detection process,
In the second focus detection process, the generation unit synthesizes the color signals so that centroids in the pupil division direction of the plurality of types of color signals coincide with each other, and generates the first focus detection signal and the second focus signal. The control apparatus according to claim 1, wherein a focus detection signal is generated.
前記第1焦点検出処理において、前記生成手段により生成される前記第1焦点検出信号および前記第2焦点検出信号の前記瞳分割方向における信号周期は、前記第1画素群および前記第2画素群の配列周期よりも大きいことを特徴とする請求項9に記載の制御装置。   In the first focus detection process, a signal period in the pupil division direction of the first focus detection signal and the second focus detection signal generated by the generation unit is set between the first pixel group and the second pixel group. The control device according to claim 9, wherein the control device is longer than the array period. 前記第1焦点検出信号および前記第2焦点検出信号のそれぞれの空間周波数帯域は、前記第1焦点検出処理よりも前記第2焦点検出処理の場合のほうが高いことを特徴とする請求項9または10に記載の制御装置。   The spatial frequency band of each of the first focus detection signal and the second focus detection signal is higher in the second focus detection process than in the first focus detection process. The control device described in 1. 結像光学系の互いに異なる瞳部分領域を通過する光束を受光する第1画素群および第2画素群を有する撮像素子と、
前記第1画素群および前記第2画素群からの複数の種類の色信号に基づいて、第1焦点検出信号および第2焦点検出信号を生成する生成手段と、
前記第1焦点検出信号および前記第2焦点検出信号を用いて位相差検出方式によりデフォーカス量を算出する算出手段と、を有し、
前記生成手段は、
前記第1画素群に関し、前記複数の種類の色信号の瞳分割方向における重心が互いに一致するように該色信号を合成して前記第1焦点検出信号を生成し、
前記第2画素群に関し、前記複数の種類の色信号の前記瞳分割方向における重心が互いに一致するように該色信号を合成して前記第2焦点検出信号を生成する、ことを特徴とする撮像装置。
An imaging device having a first pixel group and a second pixel group that receive light beams that pass through different pupil partial regions of the imaging optical system;
Generating means for generating a first focus detection signal and a second focus detection signal based on a plurality of types of color signals from the first pixel group and the second pixel group;
Calculating means for calculating a defocus amount by a phase difference detection method using the first focus detection signal and the second focus detection signal;
The generating means includes
The first focus detection signal is generated by combining the color signals so that the centroids in the pupil division direction of the plurality of types of color signals coincide with each other with respect to the first pixel group,
The second focus detection signal is generated by combining the color signals so that the centroids in the pupil division direction of the plurality of types of color signals coincide with each other with respect to the second pixel group. apparatus.
前記撮像素子は、1つのマイクロレンズに対して複数の光電変換部を有し、該マイクロレンズが2次元状に配列されていることを特徴とする請求項12に記載の撮像装置。   The imaging device according to claim 12, wherein the imaging device has a plurality of photoelectric conversion units for one microlens, and the microlenses are arranged in a two-dimensional manner. 前記第1画素群および第2画素群のそれぞれに含まれる画素を前記マイクロレンズごとに加算した信号から撮像画像を生成する画像生成手段を更に有することを特徴とする請求項13に記載の撮像装置。   The imaging apparatus according to claim 13, further comprising an image generation unit configured to generate a captured image from a signal obtained by adding the pixels included in each of the first pixel group and the second pixel group for each microlens. . 結像光学系の互いに異なる瞳部分領域を通過する光束を受光する第1画素群および第2画素群からの複数の種類の色信号に基づいて、第1焦点検出信号および第2焦点検出信号を生成するステップと、
前記第1焦点検出信号および前記第2焦点検出信号を用いて位相差検出方式によりデフォーカス量を算出するステップと、を有し、
前記第1焦点検出信号および前記第2焦点検出信号を生成するステップにおいて、
前記第1画素群に関し、前記複数の種類の色信号の瞳分割方向における重心が互いに一致するように該色信号を合成して前記第1焦点検出信号を生成し、
前記第2画素群に関し、前記複数の種類の色信号の前記瞳分割方向における重心が互いに一致するように該色信号を合成して前記第2焦点検出信号を生成する、ことを特徴とする制御方法。
Based on a plurality of types of color signals from the first pixel group and the second pixel group that receive light beams that pass through different pupil partial regions of the imaging optical system, the first focus detection signal and the second focus detection signal are obtained. Generating step;
Calculating a defocus amount by a phase difference detection method using the first focus detection signal and the second focus detection signal, and
In the step of generating the first focus detection signal and the second focus detection signal,
The first focus detection signal is generated by combining the color signals so that the centroids in the pupil division direction of the plurality of types of color signals coincide with each other with respect to the first pixel group,
The control for generating the second focus detection signal by combining the color signals so that the centroids in the pupil division direction of the plurality of types of color signals coincide with each other with respect to the second pixel group Method.
距離情報を算出するために位相差検出方式に用いる複数の検出信号を取得する制御方法であって、
複数の種類の色信号を含む視点画像に対して第1処理を行い、前記色信号を合成した合成信号を取得するステップと、
前記合成信号に対して第2処理を行い、前記検出信号を生成するステップと、を有し、
前記第1処理は、前記視点画像の視点方向における重心が一致するように前記色信号を合成する処理である、ことを特徴とする制御方法。
A control method for acquiring a plurality of detection signals used in a phase difference detection method to calculate distance information,
Performing a first process on a viewpoint image including a plurality of types of color signals and obtaining a combined signal obtained by combining the color signals;
Performing a second process on the combined signal to generate the detection signal,
The control method according to claim 1, wherein the first process is a process of synthesizing the color signals so that centroids in the viewpoint direction of the viewpoint images coincide with each other.
前記第1処理は、前記複数の種類の色信号を異なる比率で合成する処理を含み、
前記第2処理は、前記合成信号に含まれる信号の周波数帯域を可変するために間引く処理を含むことを特徴とする請求項16に記載の制御方法。
The first process includes a process of combining the plurality of types of color signals at different ratios,
The control method according to claim 16, wherein the second process includes a process of thinning out in order to vary a frequency band of a signal included in the synthesized signal.
前記検出信号を用いて位相差を検出するステップを更に有し、
前記第2処理は、検出された前記位相差に基づいて前記合成信号に対する処理を行うことを特徴とする請求項16または17に記載の制御方法。
Further comprising detecting a phase difference using the detection signal;
The control method according to claim 16 or 17, wherein the second process performs a process on the combined signal based on the detected phase difference.
前記第1処理は、前記視点画像の視点方向に垂直な方向おける重心が一致するように前記色信号を合成する処理であることを特徴とする請求項16乃至18のいずれか1項に記載の制御方法。   The said 1st process is a process which synthesize | combines the said color signal so that the gravity center in the direction perpendicular | vertical to the viewpoint direction of the said viewpoint image may correspond, The any one of Claims 16 thru | or 18 characterized by the above-mentioned. Control method. 結像光学系の互いに異なる瞳部分領域を通過する光束を受光する第1画素群および第2画素群からの複数の種類の色信号に基づいて、第1焦点検出信号および第2焦点検出信号を生成するステップと、
前記第1焦点検出信号および前記第2焦点検出信号を用いて位相差検出方式によりデフォーカス量を算出するステップと、をコンピュータに実行させるプログラムであって、
前記第1焦点検出信号および前記第2焦点検出信号を生成するステップにおいて、
前記第1画素群に関し、前記複数の種類の色信号の瞳分割方向における重心が互いに一致するように該色信号を合成して前記第1焦点検出信号を生成し、
前記第2画素群に関し、前記複数の種類の色信号の前記瞳分割方向における重心が互いに一致するように該色信号を合成して前記第2焦点検出信号を生成する、ことを特徴とするプログラム。
Based on a plurality of types of color signals from the first pixel group and the second pixel group that receive light beams that pass through different pupil partial regions of the imaging optical system, the first focus detection signal and the second focus detection signal are obtained. Generating step;
Calculating a defocus amount by a phase difference detection method using the first focus detection signal and the second focus detection signal, and causing a computer to execute the program.
In the step of generating the first focus detection signal and the second focus detection signal,
The first focus detection signal is generated by combining the color signals so that the centroids in the pupil division direction of the plurality of types of color signals coincide with each other with respect to the first pixel group,
A program for generating the second focus detection signal by combining the color signals so that the centroids of the plurality of types of color signals in the pupil division direction coincide with each other with respect to the second pixel group. .
請求項20に記載のプログラムを記憶していることを特徴とする記憶媒体。   A storage medium storing the program according to claim 20.
JP2016103015A 2015-07-30 2016-05-24 Control device, imaging device, control method, program, and storage medium Active JP6639326B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201610560395.XA CN106412532B (en) 2015-07-30 2016-07-15 Control equipment, picture pick-up device and control method
KR1020160091079A KR102057160B1 (en) 2015-07-30 2016-07-19 Control apparatus, image pickup apparatus, and control method
GB1613021.3A GB2543127B (en) 2015-07-30 2016-07-28 Control apparatus, image pickup apparatus, control method, program, and storage medium
US15/223,497 US10063764B2 (en) 2015-07-30 2016-07-29 Control apparatus, image pickup apparatus, control method, and non-transitory computer-readable storage medium for performing focus detection
DE102016114025.2A DE102016114025A1 (en) 2015-07-30 2016-07-29 Control device, image pickup device, control method, program and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015150774 2015-07-30
JP2015150774 2015-07-30

Publications (2)

Publication Number Publication Date
JP2017032978A true JP2017032978A (en) 2017-02-09
JP6639326B2 JP6639326B2 (en) 2020-02-05

Family

ID=57986191

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016103015A Active JP6639326B2 (en) 2015-07-30 2016-05-24 Control device, imaging device, control method, program, and storage medium

Country Status (3)

Country Link
JP (1) JP6639326B2 (en)
KR (1) KR102057160B1 (en)
CN (1) CN106412532B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114697546A (en) * 2020-12-25 2022-07-01 汇顶科技(香港)有限公司 Shooting system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107728311A (en) * 2017-10-11 2018-02-23 重庆秉为科技有限公司 A kind of outdoor electrowetting shows structure

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010117679A (en) * 2008-11-14 2010-05-27 Canon Inc Focus detection device and method, and image pickup device
JP2014146019A (en) * 2013-01-07 2014-08-14 Canon Inc Imaging apparatus and method for controlling imaging apparatus
JP2015072312A (en) * 2013-10-01 2015-04-16 キヤノン株式会社 Imaging apparatus, and control method thereof
JP2015087543A (en) * 2013-10-30 2015-05-07 キヤノン株式会社 Imaging apparatus, imaging system, method of controlling the imaging apparatus, program, and storage medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7358999B2 (en) 1998-03-10 2008-04-15 Canon Kabushiki Kaisha Focus sensing apparatus, focus sensing method using phase-differential detection and computer-readable storage medium therefor
JP5954964B2 (en) * 2011-02-18 2016-07-20 キヤノン株式会社 Imaging apparatus and control method thereof
JP5491677B2 (en) * 2011-03-31 2014-05-14 富士フイルム株式会社 Imaging apparatus and focus control method thereof
JP5942697B2 (en) * 2012-08-21 2016-06-29 株式会社ニコン Focus detection apparatus and imaging apparatus
JP6426890B2 (en) 2013-06-11 2018-11-21 キヤノン株式会社 Focus detection apparatus and method, and imaging apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010117679A (en) * 2008-11-14 2010-05-27 Canon Inc Focus detection device and method, and image pickup device
JP2014146019A (en) * 2013-01-07 2014-08-14 Canon Inc Imaging apparatus and method for controlling imaging apparatus
JP2015072312A (en) * 2013-10-01 2015-04-16 キヤノン株式会社 Imaging apparatus, and control method thereof
JP2015087543A (en) * 2013-10-30 2015-05-07 キヤノン株式会社 Imaging apparatus, imaging system, method of controlling the imaging apparatus, program, and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114697546A (en) * 2020-12-25 2022-07-01 汇顶科技(香港)有限公司 Shooting system

Also Published As

Publication number Publication date
CN106412532A (en) 2017-02-15
JP6639326B2 (en) 2020-02-05
KR20170015158A (en) 2017-02-08
CN106412532B (en) 2019-03-08
KR102057160B1 (en) 2019-12-18

Similar Documents

Publication Publication Date Title
JP6249825B2 (en) Imaging device, control method thereof, and control program
JP6174940B2 (en) Imaging device and imaging apparatus
JP6239857B2 (en) Imaging apparatus and control method thereof
JP6381266B2 (en) IMAGING DEVICE, CONTROL DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP6746359B2 (en) Image processing device, imaging device, image processing method, program, and storage medium
JP2014219549A (en) Focus adjustment device, focus adjustment method and program, and imaging device
JP6486149B2 (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium
JP2016038414A (en) Focus detection device, control method thereof, and imaging apparatus
JP2014056014A (en) Imaging element and imaging apparatus
US10063764B2 (en) Control apparatus, image pickup apparatus, control method, and non-transitory computer-readable storage medium for performing focus detection
JP2017158018A (en) Image processing apparatus, control method of the same, and imaging apparatus
JP2015194736A (en) Imaging device and method for controlling the same
JP2018132581A (en) Focus detection device, focus detection method, and focus detection program
JP2016111678A (en) Image sensor, image capturing apparatus, focus detection apparatus, image processing apparatus, and control method thereof
JP6639326B2 (en) Control device, imaging device, control method, program, and storage medium
JP6285683B2 (en) Imaging apparatus and control method thereof
JP6862102B2 (en) Control device, image pickup device, control method, program, and storage medium
JP2015210285A (en) Imaging device, manufacturing method of the same, program thereof and recording medium
JP7150785B2 (en) Image processing device, imaging device, image processing method, and storage medium
JP7309383B2 (en) Imaging device
JP2017054052A (en) Control device, imaging device, control method, program, and storage medium
CN113596431B (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP2015225310A (en) Image capturing device, control method therefor, program, and storage medium
JP2018116267A (en) Focus detection device and method, and imaging device
JP2018019348A (en) Imaging device, image processing method, image processing system, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191224

R151 Written notification of patent or utility model registration

Ref document number: 6639326

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151