JP7019442B2 - Image pickup device and its control method - Google Patents

Image pickup device and its control method Download PDF

Info

Publication number
JP7019442B2
JP7019442B2 JP2018021606A JP2018021606A JP7019442B2 JP 7019442 B2 JP7019442 B2 JP 7019442B2 JP 2018021606 A JP2018021606 A JP 2018021606A JP 2018021606 A JP2018021606 A JP 2018021606A JP 7019442 B2 JP7019442 B2 JP 7019442B2
Authority
JP
Japan
Prior art keywords
signal
image
correction
image pickup
reference signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018021606A
Other languages
Japanese (ja)
Other versions
JP2019139043A (en
Inventor
優 稲垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018021606A priority Critical patent/JP7019442B2/en
Publication of JP2019139043A publication Critical patent/JP2019139043A/en
Application granted granted Critical
Publication of JP7019442B2 publication Critical patent/JP7019442B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、自動焦点検出を行う撮像装置およびその制御方法に関する。 The present invention relates to an image pickup device that performs automatic focus detection and a control method thereof.

撮像装置の焦点検出方法には、位相差検出方式やコントラスト検出方式がある。また、撮像素子の画素部が撮像光学系の異なる瞳面の光を受光し、撮像と同時に位相差検出方式の焦点検出を行う技術がある。 The focus detection method of the image pickup apparatus includes a phase difference detection method and a contrast detection method. Further, there is a technique in which the pixel portion of the image pickup element receives light from different pupil surfaces of the image pickup optical system, and the focus detection of the phase difference detection method is performed at the same time as the image pickup.

特許文献1に開示の装置は、1つのマイクロレンズで集光される光束を、分割されたフォトダイオード(PD)で光電変換することにより、各PDが撮像レンズの異なる瞳面の光を受光する。各PDの出力の比較により、焦点検出が行われる。特許文献2には、撮像部で撮像された均一な輝度を有する2つの画像をメモリに保存し、補正値の算出の際に2つの画像を読み出して、ゲイン補正値およびオフセット補正値を算出する撮像装置が開示されている。ゲイン補正値およびオフセット補正値を用いることにより、画素ごとの固定パターンノイズを取り除くことができる。 In the apparatus disclosed in Patent Document 1, the light flux focused by one microlens is photoelectrically converted by a divided photodiode (PD), so that each PD receives light from different pupil surfaces of the image pickup lens. .. Focus detection is performed by comparing the outputs of each PD. In Patent Document 2, two images having uniform brightness captured by the imaging unit are stored in a memory, and the two images are read out when the correction value is calculated, and the gain correction value and the offset correction value are calculated. The image pickup device is disclosed. By using the gain correction value and the offset correction value, it is possible to remove the fixed pattern noise for each pixel.

特開2001-083407号公報Japanese Unexamined Patent Publication No. 2001-083407 特開2011-44813号公報Japanese Unexamined Patent Publication No. 2011-44813

しかしながら、特許文献1にはノイズを考慮した焦点検出について開示がなく、焦点検出の際の相関演算結果には、画素ごとのノイズに起因するばらつきが発生し得る。そのため、ノイズが多い場合、高精度な焦点検出を行うことが難しい。また特許文献2には、撮像素子の全面に関する補正値を記録する必要があるので、撮像素子全面分に対応するメモリ容量が必要である。また、あらかじめ記憶された補正値を用いて補正が行われるため、ランダムノイズを補正することができない。
本発明の目的は、ノイズの影響を低減した、より高精度な焦点検出が可能な撮像装置を提供することである。
However, Patent Document 1 does not disclose focus detection in consideration of noise, and the correlation calculation result at the time of focus detection may vary due to noise for each pixel. Therefore, when there is a lot of noise, it is difficult to perform highly accurate focus detection. Further, in Patent Document 2, since it is necessary to record the correction value for the entire surface of the image pickup element, a memory capacity corresponding to the entire surface of the image pickup element is required. Further, since the correction is performed using the correction value stored in advance, the random noise cannot be corrected.
An object of the present invention is to provide an image pickup apparatus capable of more accurate focus detection with reduced influence of noise.

本発明の撮像装置は、撮像光学系の異なる瞳部分領域を通過する光束をそれぞれ受光する複数の光電変換部を有する画素部が配置された撮像素子と、前記複数の光電変換部のうちのいずれかの光電変換部により取得される第1信号と、前記複数の光電変換部による信号から前記第1信号を減算して得られる第2信号を取得する取得手段と、前記第1信号に対する第1基準信号と、前記第2信号に対する第2基準信号を算出し、前記第1信号と前記第1基準信号から第1補正信号を算出するとともに、前記第2信号と前記第2基準信号から第2補正信号を算出する第1の算出手段と、前記第1補正信号または前記第2基準信号により前記第2信号を補正し、前記第2補正信号または前記第1基準信号により前記第1信号を補正し、補正された前記第1信号と前記第2信号との相関値を算出して像ずれ量またはデフォーカス量を算出する第2の算出手段と、を備える。 The image pickup apparatus of the present invention is either an image pickup element in which a pixel unit having a plurality of photoelectric conversion units for receiving light rays passing through different pupil region regions of the image pickup optical system is arranged, or any of the plurality of photoelectric conversion units. An acquisition means for acquiring a first signal acquired by the photoelectric conversion unit, a second signal obtained by subtracting the first signal from the signals obtained by the plurality of photoelectric conversion units, and a first signal with respect to the first signal. The reference signal and the second reference signal for the second signal are calculated, the first correction signal is calculated from the first signal and the first reference signal, and the second from the second signal and the second reference signal. The second signal is corrected by the first calculation means for calculating the correction signal and the first correction signal or the second reference signal, and the first signal is corrected by the second correction signal or the first reference signal. A second calculation means for calculating the image shift amount or the defocus amount by calculating the corrected correlation value between the first signal and the second signal is provided.

本発明によれば、ノイズの影響を低減した、より高精度な焦点検出が可能な撮像装置を提供することができる。 According to the present invention, it is possible to provide an image pickup apparatus capable of more accurate focus detection with reduced influence of noise.

本発明の実施形態における撮像装置のブロック図である。It is a block diagram of the image pickup apparatus in embodiment of this invention. 撮像素子の画素配列図および読み出し回路の構成図である。It is a pixel arrangement diagram of an image pickup element, and the block diagram of a readout circuit. 位相差検出方式の焦点検出に関する説明図である。It is explanatory drawing about the focal point detection of the phase difference detection method. 位相差検出方式の焦点検出信号の説明図である。It is explanatory drawing of the focal point detection signal of the phase difference detection method. 焦点検出信号を用いた相関演算の説明図である。It is explanatory drawing of the correlation operation using a focus detection signal. 本発明の実施形態における焦点検出のフローチャートである。It is a flowchart of the focus detection in embodiment of this invention. A像とB像のランダムノイズと相関値の説明図である。It is explanatory drawing of the random noise and the correlation value of A image and B image. A像とB像の逆相関ノイズと相関値の説明図である。It is explanatory drawing of the inverse correlation noise and the correlation value of A image and B image. 信号補正処理のフローチャートである。It is a flowchart of a signal correction process. 第1実施形態における信号補正の説明図である。It is explanatory drawing of the signal correction in 1st Embodiment. 図10に続く信号補正の説明図である。It is explanatory drawing of the signal correction following FIG. 信号補正の例を示す詳細な説明図である。It is a detailed explanatory drawing which shows the example of a signal correction. 信号補正の別例を示す詳細な説明図である。It is a detailed explanatory drawing which shows another example of a signal correction. 第2実施形態における信号補正の説明図である。It is explanatory drawing of the signal correction in 2nd Embodiment.

以下、本発明の実施形態について、図面を参照して詳細に説明する。各実施形態では、レンズ装置を撮像装置の本体部に装着可能なカメラシステムを説明する。ただし、これに限定されるものではなく、レンズユニット(撮像光学系)とカメラ本体部とが一体的に構成された撮像装置にも本発明を適用可能である。また本実施形態はデジタルスチルカメラに限定されることなく、ビデオカメラ等の撮像装置にも適用可能である。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In each embodiment, a camera system in which a lens device can be attached to a main body of an image pickup device will be described. However, the present invention is not limited to this, and the present invention can be applied to an image pickup device in which a lens unit (imaging optical system) and a camera body are integrally configured. Further, the present embodiment is not limited to the digital still camera, and can be applied to an image pickup device such as a video camera.

[第1実施形態]
まず、図1を参照して、本実施形態の撮像装置の構成について説明する。図1は、撮像装置10としてレンズ交換可能な一眼レフタイプのデジタルカメラを例示するブロック図である。撮像装置10は、交換レンズであるレンズユニット100と、カメラ本体部120とを備える。レンズユニット100は、図1に点線で示すマウントMを介して、カメラ本体部120に対し、着脱可能に取り付けられる。
[First Embodiment]
First, the configuration of the image pickup apparatus of the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram illustrating an interchangeable lens single-lens reflex type digital camera as an image pickup apparatus 10. The image pickup apparatus 10 includes a lens unit 100, which is an interchangeable lens, and a camera body 120. The lens unit 100 is detachably attached to the camera body 120 via the mount M shown by the dotted line in FIG.

レンズユニット100は、撮像光学系を構成する第1レンズ群101、絞り102、第2レンズ群103、および、フォーカスレンズ群(以下、単に「フォーカスレンズ」という)104と、駆動および制御系とを有する。レンズユニット100は被写体像を形成する撮影レンズ装置である。 The lens unit 100 includes a first lens group 101, an aperture 102, a second lens group 103, a focus lens group (hereinafter, simply referred to as “focus lens”) 104, and a drive and control system that constitute an imaging optical system. Have. The lens unit 100 is a photographing lens device that forms a subject image.

第1レンズ群101は、レンズユニット100の前端部(被写体側の端部)に配置され、光軸方向(OA)に沿って進退可能に保持される。絞り102は、その開口径を調節することで撮影時の光量調節を行い、また静止画撮影時には露光秒時調節用シャッタとして機能する。絞り102および第2レンズ群103は、光軸方向(OA)に沿って一体的に移動可能であり、第1レンズ群101の進退動作との連動によりズーム機能を実現する。フォーカスレンズ104は、光軸方向(OA)に沿って移動可能である。フォーカスレンズ104の位置に応じてレンズユニット100の焦点調節制御、つまりフォーカス制御が行われ、被写体に焦点が合うときの合焦距離が変化する。 The first lens group 101 is arranged at the front end portion (end portion on the subject side) of the lens unit 100, and is held so as to be able to advance and retreat along the optical axis direction (OA). The aperture 102 adjusts the amount of light at the time of shooting by adjusting the aperture diameter thereof, and also functions as a shutter for adjusting the exposure seconds at the time of shooting a still image. The aperture 102 and the second lens group 103 can be integrally moved along the optical axis direction (OA), and the zoom function is realized by interlocking with the advancing / retreating operation of the first lens group 101. The focus lens 104 is movable along the optical axis direction (OA). Focus adjustment control, that is, focus control of the lens unit 100 is performed according to the position of the focus lens 104, and the focusing distance when the subject is in focus changes.

ズームアクチュエータ111は、ズーム駆動回路114により駆動され、第1レンズ群101と第2レンズ群103を光軸方向に移動させる。これにより、レンズユニット100の画角を変更するズーム動作が行われる。絞りシャッタアクチュエータ112は、絞りシャッタ駆動回路115により駆動され、絞り102の開口径の変更や開閉動作を行う。フォーカスアクチュエータ113は、フォーカス駆動回路116により駆動され、フォーカスレンズ104を光軸方向に移動させる。これにより、レンズユニット100のフォーカス制御が行われる。フォーカス駆動回路116は、フォーカスレンズ104の現在位置(レンズ位置)を検出する位置検出機能を有する。 The zoom actuator 111 is driven by the zoom drive circuit 114 and moves the first lens group 101 and the second lens group 103 in the optical axis direction. As a result, a zoom operation for changing the angle of view of the lens unit 100 is performed. The aperture shutter actuator 112 is driven by the aperture shutter drive circuit 115 to change the aperture diameter of the aperture 102 and open / close the aperture 102. The focus actuator 113 is driven by the focus drive circuit 116 and moves the focus lens 104 in the optical axis direction. As a result, the focus of the lens unit 100 is controlled. The focus drive circuit 116 has a position detection function for detecting the current position (lens position) of the focus lens 104.

レンズMPU(Micro Processing Unit)117は、レンズユニット100に係る全ての演算および制御を行うレンズ制御部である。レンズMPU117は、マウントMを通じてカメラMPU125と接続され、コマンドやデータを通信する。例えば、レンズMPU117はフォーカスレンズ104の位置検出情報を取得し、カメラMPU125からの要求に応じてレンズ位置情報を通知する。このレンズ位置情報は、フォーカスレンズ104の光軸方向における位置、撮像光学系の可動光学部材が移動していない状態での射出瞳の光軸方向における位置および直径、射出瞳の光束を制限するレンズ枠の光軸方向における位置および直径等の情報を含む。またレンズMPU117は、カメラMPU125からの制御指令にしたがってズーム駆動回路114、絞りシャッタ駆動回路115、フォーカス駆動回路116を制御する。 The lens MPU (Micro Processing Unit) 117 is a lens control unit that performs all calculations and controls related to the lens unit 100. The lens MPU 117 is connected to the camera MPU 125 through the mount M and communicates commands and data. For example, the lens MPU 117 acquires the position detection information of the focus lens 104 and notifies the lens position information in response to a request from the camera MPU 125. This lens position information is a lens that limits the position of the focus lens 104 in the optical axis direction, the position and diameter of the exit pupil in the optical axis direction when the movable optical member of the imaging optical system is not moving, and the light beam of the exit pupil. Includes information such as the position and diameter of the frame in the optical axis direction. Further, the lens MPU 117 controls the zoom drive circuit 114, the aperture shutter drive circuit 115, and the focus drive circuit 116 according to a control command from the camera MPU 125.

レンズメモリ118は、自動焦点調節(AF)制御に必要な光学情報を記憶している。カメラMPU125は、例えば内蔵の不揮発性メモリやレンズメモリ118に記憶されているプログラムを実行することにより、レンズユニット100の動作制御を行う。 The lens memory 118 stores optical information necessary for automatic focus adjustment (AF) control. The camera MPU 125 controls the operation of the lens unit 100 by, for example, executing a program stored in the built-in non-volatile memory or the lens memory 118.

カメラ本体部120は、光学的ローパスフィルタ121、撮像素子122、駆動および制御系を有する。第1レンズ群101、絞り102、第2レンズ群103、フォーカスレンズ104、および、光学的ローパスフィルタ121は、撮像光学系を構成する。光学的ローパスフィルタ121は、撮像画像の偽色やモアレを軽減する光学素子である。 The camera body 120 includes an optical low-pass filter 121, an image sensor 122, and a drive and control system. The first lens group 101, the aperture 102, the second lens group 103, the focus lens 104, and the optical low-pass filter 121 constitute an imaging optical system. The optical low-pass filter 121 is an optical element that reduces false colors and moire in captured images.

撮像素子122は撮像部を構成し、レンズユニット100を介して形成された被写体像(光学像)を光電変換して、撮像信号および焦点検出信号を出力する。撮像素子122は、例えばCMOS(相補型金属酸化膜半導体)イメージセンサおよびその周辺回路で構成される。撮像素子122は瞳分割機能を有し、位相差検出方式の焦点検出(位相差AF)が可能な瞳分割画素を備える。 The image pickup element 122 constitutes an image pickup unit, photoelectrically converts a subject image (optical image) formed via the lens unit 100, and outputs an image pickup signal and a focus detection signal. The image pickup device 122 is composed of, for example, a CMOS (complementary metal oxide semiconductor) image sensor and its peripheral circuit. The image pickup device 122 has a pupil division function, and includes pupil division pixels capable of focus detection (phase difference AF) of a phase difference detection method.

撮像素子駆動回路123は、撮像素子122の動作を制御するとともに、撮像素子122から出力された画像信号をA/D(アナログ/デジタル)変換し、カメラMPU125と画像処理回路124に送信する。 The image sensor drive circuit 123 controls the operation of the image sensor 122, converts the image signal output from the image sensor 122 into A / D (analog / digital), and transmits the image signal to the camera MPU 125 and the image processing circuit 124.

画像処理回路124は、撮像素子122から出力される画像信号を取得して、γ変換、ホワイトバランス調整処理、色補間処理、圧縮符号化処理等、デジタルカメラで行われる一般的な画像処理を行う。画像処理回路124は取得した画像信号に基づいて、位相差AF用のデータと、表示用、記録用、およびコントラストAF(TVAF)用の各画像データを生成する。 The image processing circuit 124 acquires an image signal output from the image pickup element 122 and performs general image processing performed by a digital camera, such as γ conversion, white balance adjustment processing, color interpolation processing, and compression coding processing. .. The image processing circuit 124 generates data for phase difference AF and image data for display, recording, and contrast AF (TVAF) based on the acquired image signal.

カメラMPU125は、カメラシステム全体の演算および制御を行う制御中枢部である。カメラMPU125は、撮像素子駆動回路123、画像処理回路124、表示部126、操作部127、メモリ128、位相差AF部129、TVAF部130を制御する。カメラMPU125は、マウントMの信号線を介してレンズMPU117と接続され、レンズMPU117とコマンドやデータを通信する。カメラMPU125は、レンズMPU117に対して、レンズ位置の取得や所定の駆動量でのレンズ駆動要求を発行し、また、レンズユニット100に固有の光学情報の取得要求等を発行する。 The camera MPU 125 is a control center that performs calculations and controls for the entire camera system. The camera MPU 125 controls an image sensor drive circuit 123, an image processing circuit 124, a display unit 126, an operation unit 127, a memory 128, a phase difference AF unit 129, and a TVAF unit 130. The camera MPU 125 is connected to the lens MPU 117 via the signal line of the mount M, and communicates commands and data with the lens MPU 117. The camera MPU 125 issues a lens position acquisition request and a lens drive request with a predetermined drive amount to the lens MPU 117, and also issues an optical information acquisition request specific to the lens unit 100 and the like.

カメラMPU125は、ROM125a、RAM125b、EEPROM125cを内蔵している。ROM(Read-Only Memory)125aは、カメラ本体部120の動作を制御するプログラムを記憶している。RAM125b(Random Access Memory)は変数値等のデータを記憶するメモリである。EEPROM(Electrically Erasable Programmable Read-Only Memory)125cは各種のパラメータを記憶する。カメラMPU125は、ROM125aに格納されているプログラムに基づいて焦点検出処理を実行する。焦点検出処理では、撮像光学系の異なる瞳部分領域をそれぞれ通過した光束により形成される光学像を光電変換した一対の像信号を用いて相関演算処理が実行される。 The camera MPU 125 has a built-in ROM 125a, RAM 125b, and EEPROM 125c. The ROM (Read-Only Memory) 125a stores a program that controls the operation of the camera body 120. The RAM 125b (Random Access Memory) is a memory for storing data such as variable values. The EEPROM (Electrically Erasable Programmable Read-Only Memory) 125c stores various parameters. The camera MPU 125 executes the focus detection process based on the program stored in the ROM 125a. In the focus detection process, correlation calculation processing is executed using a pair of image signals obtained by photoelectric conversion of an optical image formed by light flux passing through different pupil region regions of an imaging optical system.

表示部126はLCD(液晶表示装置)等を備え、撮像装置10の撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、焦点検出時の合焦状態の表示画像等を表示する。操作部127は、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等を備える。メモリ128は、例えば着脱可能なフラッシュメモリであり、撮影画像データ等を記録する。 The display unit 126 includes an LCD (liquid crystal display) and the like, and displays information on the shooting mode of the image pickup device 10, a preview image before shooting and a confirmation image after shooting, a display image of the in-focus state at the time of focus detection, and the like. .. The operation unit 127 includes a power switch, a release (shooting trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like. The memory 128 is, for example, a detachable flash memory for recording captured image data and the like.

位相差AF部129は撮像面位相差方式の焦点検出を行う。つまり位相差AF部129は、撮像素子122および画像処理回路124により得られる焦点検出用の像信号に基づいて、位相差方式で焦点検出処理を行う。具体的には、画像処理回路124は、撮像光学系の一対の瞳部分領域を通過する光から形成される一対の像データを焦点検出用データとして生成する。位相差AF部129は、一対の像データの像ずれ量に基づいて焦点ずれ量を検出する。本実施形態では、専用のAFセンサを用いず、撮像素子122の出力に基づく撮像面位相差AFが行われる。位相差AF部129は、取得部129aおよび算出部129bを有する。これらの動作については後述する。なお、取得部129aまたは算出部129bについてはカメラMPU125に設けてもよい。 The phase-difference AF unit 129 performs focus detection by the imaging surface phase-difference method. That is, the phase difference AF unit 129 performs the focus detection process by the phase difference method based on the image signal for focus detection obtained by the image sensor 122 and the image processing circuit 124. Specifically, the image processing circuit 124 generates a pair of image data formed from light passing through a pair of pupil portion regions of an imaging optical system as focus detection data. The phase difference AF unit 129 detects the amount of defocus based on the amount of misalignment of the pair of image data. In the present embodiment, the image pickup surface phase difference AF based on the output of the image pickup element 122 is performed without using a dedicated AF sensor. The phase difference AF unit 129 has an acquisition unit 129a and a calculation unit 129b. These operations will be described later. The acquisition unit 129a or the calculation unit 129b may be provided in the camera MPU 125.

TVAF部130は、画像処理回路124により生成されるTVAF用評価値に基づいて、コントラスト検出方式の焦点検出処理を行う。TVAF用評価値は画像データのコントラスト情報に基づく評価値である。コントラスト検出方式の焦点検出処理では、フォーカスレンズ104が移動して、評価値がピーク値となるフォーカスレンズ位置が合焦位置として検出される。 The TVAF unit 130 performs the focus detection process of the contrast detection method based on the evaluation value for TVAF generated by the image processing circuit 124. The evaluation value for TVAF is an evaluation value based on the contrast information of the image data. In the focus detection process of the contrast detection method, the focus lens 104 moves, and the focus lens position where the evaluation value reaches the peak value is detected as the in-focus position.

このように撮像装置10は、撮像面位相差AFとTVAFとを組み合わせて実行可能である。状況に応じて、撮像面位相差AFとTVAFを選択的に使用し、または、両方法を組み合わせて使用することができる。位相差AF部129およびTVAF部130は、各々の焦点検出結果のデータを用いて、フォーカスレンズ104の位置を制御するフォーカス制御手段を構成する。 As described above, the image pickup apparatus 10 can be executed by combining the image pickup surface phase difference AF and the TVAF. Depending on the situation, the imaging surface phase difference AF and TVAF can be selectively used, or both methods can be used in combination. The phase difference AF unit 129 and the TVAF unit 130 constitute a focus control means for controlling the position of the focus lens 104 by using the data of the respective focus detection results.

次に図2を参照して、位相差AF部129の動作について説明する。図2(A)は、本実施形態における撮像素子122の画素配列図である。横方向をX方向とし、縦方向をY方向と定義する。図2(A)は、2次元CMOSエリアセンサのY方向6行およびX方向8列の範囲を、レンズユニット100側から観察した状態を示す。撮像素子122には、ベイヤー配列のカラーフィルタが設けられている。奇数行の画素部には、左から順に緑(G)と赤(R)のカラーフィルタが交互に配置され、偶数行の画素部には、左から順に青(B)と緑(G)のカラーフィルタが交互に配置されている。画素部211において、オンチップマイクロレンズ211iを円形枠で示す。オンチップマイクロレンズ211iの内側に配置された複数の矩形枠は、第1光電変換部211aと第2光電変換部211bを示す。 Next, the operation of the phase difference AF unit 129 will be described with reference to FIG. FIG. 2A is a pixel arrangement diagram of the image pickup device 122 according to the present embodiment. The horizontal direction is defined as the X direction, and the vertical direction is defined as the Y direction. FIG. 2A shows a state in which the range of 6 rows in the Y direction and 8 columns in the X direction of the two-dimensional CMOS area sensor is observed from the lens unit 100 side. The image pickup device 122 is provided with a Bayer array color filter. Green (G) and red (R) color filters are alternately arranged in the odd-numbered row pixel portions in order from the left, and blue (B) and green (G) in order from the left in the even-numbered row pixel portion. Color filters are arranged alternately. In the pixel unit 211, the on-chip microlens 211i is shown by a circular frame. A plurality of rectangular frames arranged inside the on-chip microlens 211i indicate a first photoelectric conversion unit 211a and a second photoelectric conversion unit 211b.

撮像素子122における全ての画素部211はX方向に2分割され、その一方の光電変換部(211aまたは211b)による光電変換信号、および、2つの光電変換信号の和は、独立して読み出し可能である。以下では、第1光電変換部211aの出力に基づく像をA像といい、第2光電変換部211bの出力に基づく像をB像という。光電変換部211aおよび211bの出力に基づく像をA+B像という。 All the pixel units 211 in the image sensor 122 are divided into two in the X direction, and the photoelectric conversion signal by one of the photoelectric conversion units (211a or 211b) and the sum of the two photoelectric conversion signals can be read independently. be. Hereinafter, the image based on the output of the first photoelectric conversion unit 211a is referred to as an A image, and the image based on the output of the second photoelectric conversion unit 211b is referred to as a B image. An image based on the outputs of the photoelectric conversion units 211a and 211b is called an A + B image.

カメラMPU125は、A+B像に係る光電変換信号から、第1光電変換部211aによる光電変換信号を減算し、B像に係る光電変換信号を取得する。つまり、第2光電変換部211bによる光電変換信号に基づくB像信号を得ることができる。カメラMPU125は上記一連の処理を行い、第1光電変換部によるA像信号を取得し、第2光電変換部によるB像信号を取得する。A像信号およびB像信号から位相差AF用のデータを算出することができる。またA像信号およびB像信号は、3D(3-Dimensional)画像、つまり立体視画像を構成するための視差を有する画像(視差画像)の生成に用いることができる。この場合、画像生成部は視点の異なる複数の画像からなる視差画像のデータを生成する。また、2つの光電変換部の信号の和から得られるA+B像のデータは、通常の撮像画像データとして用いることができる。 The camera MPU 125 subtracts the photoelectric conversion signal by the first photoelectric conversion unit 211a from the photoelectric conversion signal related to the A + B image, and acquires the photoelectric conversion signal related to the B image. That is, a B image signal based on the photoelectric conversion signal by the second photoelectric conversion unit 211b can be obtained. The camera MPU 125 performs the above series of processes, acquires an A image signal by the first photoelectric conversion unit, and acquires a B image signal by the second photoelectric conversion unit. Data for phase difference AF can be calculated from the A image signal and the B image signal. Further, the A image signal and the B image signal can be used to generate a 3D (3-Dimensional) image, that is, an image having a parallax for forming a stereoscopic image (parallax image). In this case, the image generation unit generates data of a parallax image composed of a plurality of images having different viewpoints. Further, the A + B image data obtained from the sum of the signals of the two photoelectric conversion units can be used as normal captured image data.

ここで、位相差AFを行う場合の画素信号について説明する。本実施形態では、図2に示すマイクロレンズ211iと、2分割された光電変換部211a,211bによって、撮像光学系の射出光束を瞳分割する。光電変換部211a,211bは瞳分割画素を構成する。同一画素行に配置された所定範囲内の複数の画素部211において、第1光電変換部211aの出力をつなぎ合わせて編成した像をAF用A像とする。同様に、第2光電変換部211bの出力をつなぎ合わせて編成した像をAF用B像とする。 Here, a pixel signal when performing phase-difference AF will be described. In the present embodiment, the emission light flux of the imaging optical system is divided into pupils by the microlens 211i shown in FIG. 2 and the photoelectric conversion units 211a and 211b divided into two. The photoelectric conversion units 211a and 211b form pupil-divided pixels. An image formed by connecting the outputs of the first photoelectric conversion unit 211a in a plurality of pixel units 211 arranged in the same pixel row within a predetermined range is referred to as an AF image A. Similarly, an image formed by connecting the outputs of the second photoelectric conversion unit 211b is referred to as an AF B image.

光電変換部211a,211bの出力としては、カラーフィルタの単位配列に含まれる、ベイヤー配列の緑、赤、青、緑の出力を加算して算出された疑似的な輝度(Y)信号が用いられる。ただし、赤、青、緑の色ごとに、AF用A像とB像を編成してもよい。このように生成されたAF用A像とAF用B像との相対的な像ずれ量が相関演算により算出される。この像ずれ量に基づいて、所定領域の焦点ずれ量、すなわちデフォーカス量を算出することができる。 As the output of the photoelectric conversion units 211a and 211b, a pseudo luminance (Y) signal calculated by adding the green, red, blue, and green outputs of the Bayer array included in the unit array of the color filter is used. .. However, the AF image A and the B image may be organized for each of the red, blue, and green colors. The relative image shift amount between the AF image A and the AF image B generated in this way is calculated by the correlation calculation. Based on this image shift amount, the focus shift amount in a predetermined region, that is, the defocus amount can be calculated.

本実施形態では、2つの光電変換部のうちの一方の出力、および、両方の光電変換部の出力を撮像素子122から読み出す処理が行われる。AF用A像とAF用B像の一方は、撮像素子122から出力されないが、前述のように、A像出力とB像出力の和が出力される。よって、和信号(A+B像信号)と一方の出力信号との差分から、他方の信号を取得して焦点検出を行うことができる。なお、撮像素子122の構造については公知であるため、その詳細な説明を省略する。 In the present embodiment, a process of reading the output of one of the two photoelectric conversion units and the output of both photoelectric conversion units from the image pickup element 122 is performed. One of the AF image A and the AF image B is not output from the image sensor 122, but the sum of the A image output and the B image output is output as described above. Therefore, the focus detection can be performed by acquiring the other signal from the difference between the sum signal (A + B image signal) and one output signal. Since the structure of the image pickup device 122 is known, detailed description thereof will be omitted.

図2(B)は、撮像素子122の読み出し回路の構成図である。読み出し回路は水平走査回路151と、垂直走査回路153を有する。各画素部の境界部には、水平走査ライン152a,152bと、垂直走査ライン154a,154bがそれぞれ配線されている。光電変換部211a,211bからの各信号は、これらの走査ラインを介して外部に読み出される。 FIG. 2B is a configuration diagram of a readout circuit of the image pickup device 122. The readout circuit includes a horizontal scanning circuit 151 and a vertical scanning circuit 153. Horizontal scanning lines 152a and 152b and vertical scanning lines 154a and 154b are wired at the boundary of each pixel unit, respectively. Each signal from the photoelectric conversion units 211a and 211b is read out to the outside via these scanning lines.

撮像素子122は、画素部内の読み出しに加えて、以下の2種類の読み出しモードを有する。第1の読み出しモードは全画素読み出しモードと称し、高精細の静止画像を取得するためのモードである。第1の読み出しモードでは、全画素の信号が読み出される。一方、第2の読み出しモードは間引き読み出しモードと称し、動画像の記録またはプレビュー画像の表示を行うためのモードである。第2の読み出しモードでは、必要な画素数が全画素数よりも少ない。つまり全画素のうちX方向およびY方向ともに所定比率で間引いた画素のみが読み出される。また、高速な読み出しが必要である場合に、間引き読み出しモードが用いられる。X方向の間引き読み出しの際には、信号の加算を行ってS/N(信号対ノイズ)比を改善することができる。また、Y方向の間引き読み出しの際には、間引かれる行の信号出力が無視され、使用されない。通常、第2の読み出しモードで位相差AFまたはTVAFの処理(自動焦点検出および焦点調節)が行われる。 The image pickup device 122 has the following two types of read-out modes in addition to the read-out in the pixel unit. The first readout mode is referred to as an all-pixel readout mode, which is a mode for acquiring a high-definition still image. In the first read mode, the signals of all pixels are read. On the other hand, the second read mode is referred to as a thinned read mode, which is a mode for recording a moving image or displaying a preview image. In the second read mode, the number of pixels required is less than the total number of pixels. That is, of all the pixels, only the pixels thinned out at a predetermined ratio in both the X direction and the Y direction are read out. Further, when high-speed reading is required, the thinning-out reading mode is used. At the time of thinning out reading in the X direction, signals can be added to improve the S / N (signal-to-noise) ratio. Further, when reading out thinned out in the Y direction, the signal output of the line to be thinned out is ignored and is not used. Normally, phase difference AF or TVAF processing (automatic focus detection and focus adjustment) is performed in the second readout mode.

次に、図3および図4を参照して、位相差検出方式の焦点検出処理について説明する。図3は位相差検出方式の焦点検出処理を説明する模式図である。図4はA像信号およびB像信号を示すグラフである。 Next, the focus detection process of the phase difference detection method will be described with reference to FIGS. 3 and 4. FIG. 3 is a schematic diagram illustrating the focus detection process of the phase difference detection method. FIG. 4 is a graph showing an A image signal and a B image signal.

図3を参照して、撮像素子122におけるピント(焦点位置)と位相差との関係について説明する。図3(A)は、被写体に焦点が合っている場合、つまり合焦状態におけるレンズユニット100、被写体300、光軸301、および、撮像素子122の位置関係と、光束を示している。図3(B)は、被写体に焦点が合っていない非合焦状態における各部の位置関係と光束を示している。図3には、図2(A)に示される撮像素子122を断面方向から見た場合の状態で示す。 With reference to FIG. 3, the relationship between the focus (focus position) and the phase difference in the image pickup device 122 will be described. FIG. 3A shows the positional relationship between the lens unit 100, the subject 300, the optical axis 301, and the image pickup device 122, and the luminous flux when the subject is in focus, that is, in the focused state. FIG. 3B shows the positional relationship and the luminous flux of each part in the out-of-focus state where the subject is out of focus. FIG. 3 shows a state in which the image pickup device 122 shown in FIG. 2 (A) is viewed from the cross-sectional direction.

撮像素子122の各画素部にはマイクロレンズ211iが設けられている。フォトダイオードにより構成される光電変換部211a,211bは、同一のマイクロレンズ211iを通過した光を受光する。光電変換部211a,211bには、位相差を有する、互いに異なる像の光が入射される。図3では第1光電変換部をAで表記し、第2光電変換部をBで表記している。 A microlens 211i is provided in each pixel portion of the image pickup device 122. The photoelectric conversion units 211a and 211b composed of photodiodes receive light that has passed through the same microlens 211i. Lights having different phases and different images are incident on the photoelectric conversion units 211a and 211b. In FIG. 3, the first photoelectric conversion unit is represented by A, and the second photoelectric conversion unit is represented by B.

撮像素子122は、1つのマイクロレンズ211iに対して第1光電変換部および第2光電変換部を有し、多数のマイクロレンズ211iが2次元状に配列されている。なお本実施形態では、1つのマイクロレンズ211iに対して2つの光電変換部211a,211bが配置されている例を説明するが、これに限定されるものではない。例えば、1つのマイクロレンズに対して、4つの光電変換部を有する構成、つまり上下方向および左右方向のそれぞれに2つのフォトダイオードを配置した構成でもよい。複数のフォトダイオードが、1つのマイクロレンズ211iを共有して、上下方向または左右方向の少なくとも一方に複数配置される構成であればよい。 The image pickup element 122 has a first photoelectric conversion unit and a second photoelectric conversion unit for one microlens 211i, and a large number of microlenses 211i are arranged two-dimensionally. In this embodiment, an example in which two photoelectric conversion units 211a and 211b are arranged for one microlens 211i will be described, but the present invention is not limited to this. For example, a configuration having four photoelectric conversion units for one microlens, that is, a configuration in which two photodiodes are arranged in each of the vertical direction and the horizontal direction may be used. A plurality of photodiodes may be configured to share one microlens 211i and to be arranged in a plurality of positions in at least one of the vertical direction and the horizontal direction.

図3に示すレンズユニット100は、第1レンズ群101、第2レンズ群103、および、フォーカスレンズ104を併せて1つのレンズと考えた場合の等価的な撮像レンズである。被写体300から発した光は、光軸301を中心として、レンズユニット100の各領域を通過し、撮像素子122に結像する。ここでは、射出瞳の位置と撮像レンズの中心位置を同一としている。 The lens unit 100 shown in FIG. 3 is an equivalent image pickup lens when the first lens group 101, the second lens group 103, and the focus lens 104 are considered as one lens. The light emitted from the subject 300 passes through each region of the lens unit 100 with the optical axis 301 as the center, and forms an image on the image pickup device 122. Here, the position of the exit pupil and the center position of the image pickup lens are the same.

このような構成は、撮像光学系を第1光電変換部から見た場合と第2光電変換部から見た場合とで、撮像光学系の瞳領域が対称に分割された構成と等価である。換言すると、撮像光学系からの光束が2つの光束に分割された、いわゆる瞳分割の構成となっており、分割された光束が第1および第2光電変換部にそれぞれ入射する。第1および第2光電変換部は、撮像光学系の射出瞳のうち、異なる瞳部分領域を通過する光をそれぞれ受光して光電変換を行い、焦点検出画素として機能する。また、第1および第2光電変換部は、互いの信号を加算(合算または合成)することにより、撮像画素としても機能する。 Such a configuration is equivalent to a configuration in which the pupil region of the imaging optical system is symmetrically divided depending on whether the imaging optical system is viewed from the first photoelectric conversion unit or the second photoelectric conversion unit. In other words, it has a so-called pupil division configuration in which the luminous flux from the imaging optical system is divided into two light fluxes, and the divided light fluxes are incident on the first and second photoelectric conversion units, respectively. The first and second photoelectric conversion units receive light passing through different pupil region regions of the exit pupils of the imaging optical system, perform photoelectric conversion, and function as focus detection pixels. The first and second photoelectric conversion units also function as imaging pixels by adding (summing or synthesizing) signals from each other.

被写体300上の特定点からの光束は光束ΦLaと光束ΦLbに分割される。光束ΦLaは、第1光電変換部211aに対応する第1瞳部分領域を通過して第1光電変換部に入射する。光束ΦLbは、第2光電変換部211bに対応する瞳部分領域を通過して第2光電変換部に入射する。2つの光束ΦLaとΦLbは、被写体300上の同一点から入射している。そのため、撮像光学系の合焦状態、つまり被写体300に焦点が合った状態では、図3(A)に示されるように、同一のマイクロレンズ211iを通過して撮像素子122上の1点に到達する。したがって、第1および第2光電変換部からそれぞれ得られる像信号は、互いに一致する。 The luminous flux from a specific point on the subject 300 is divided into a luminous flux ΦLa and a luminous flux ΦLb. The luminous flux ΦLa passes through the first pupil portion region corresponding to the first photoelectric conversion unit 211a and is incident on the first photoelectric conversion unit. The luminous flux ΦLb passes through the pupil portion region corresponding to the second photoelectric conversion unit 211b and is incident on the second photoelectric conversion unit. The two luminous fluxes ΦLa and ΦLb are incident from the same point on the subject 300. Therefore, in the focused state of the image pickup optical system, that is, in the state where the subject 300 is in focus, as shown in FIG. 3A, the image sensor passes through the same microlens 211i and reaches one point on the image pickup element 122. do. Therefore, the image signals obtained from the first and second photoelectric conversion units match each other.

一方、図3(B)は、結像位置と撮像素子122とが、光軸方向においてYだけずれている非合焦状態を示す。非合焦状態では、光束ΦLa,ΦLbの、マイクロレンズ211iへの入射角の変化分だけ、撮像面において光束ΦLa,ΦLbの到達位置が、光軸301と垂直な方向に互いにずれる。したがって、第1および第2光電変換部からそれぞれ得られる像信号には位相差が生じる。第1光電変換部211aは被写体像を光電変換して第1信号を生成し、第2光電変換部211bは被写体像を光電変換して第2信号を生成する。被写体像から生成される、位相差を有する第1信号および第2信号は、撮像素子122の外部へ出力され、焦点検出に用いられる。 On the other hand, FIG. 3B shows an out-of-focus state in which the image pickup position and the image pickup device 122 are deviated by Y in the optical axis direction. In the out-of-focus state, the arrival positions of the luminous fluxes ΦLa and ΦLb on the imaging surface are deviated from each other in the direction perpendicular to the optical axis 301 by the change in the incident angle of the luminous fluxes ΦLa and ΦLb to the microlens 211i. Therefore, a phase difference occurs in the image signals obtained from the first and second photoelectric conversion units, respectively. The first photoelectric conversion unit 211a photoelectrically converts the subject image to generate a first signal, and the second photoelectric conversion unit 211b photoelectrically converts the subject image to generate a second signal. The first signal and the second signal having a phase difference generated from the subject image are output to the outside of the image pickup device 122 and used for focus detection.

撮像素子122は、前述のように、第1信号を焦点検出信号として独立して読み出すとともに、第1光電変換部と第2光電変換部との各信号を加算(合算または合成)した撮像信号を読み出す。第1信号がA像信号に対応し、第2信号がB像信号に対応する。第1および第2光電変換部の各信号を加算した信号は、加算画像であるIMG像の信号に対応する。 As described above, the image sensor 122 independently reads the first signal as a focus detection signal, and adds (sums or combines) the respective signals of the first photoelectric conversion unit and the second photoelectric conversion unit to obtain an image pickup signal. read out. The first signal corresponds to the A image signal, and the second signal corresponds to the B image signal. The signal obtained by adding the signals of the first and second photoelectric conversion units corresponds to the signal of the IMG image which is the added image.

本実施形態では、1つのマイクロレンズに対して複数の光電変換部が配置され、瞳分割された光束が各光電変換部に入射される構成を示したが、これに限定されない。例えば、焦点検出画素の構成として、マイクロレンズに対して1つのフォトダイオードを有し、遮光層により左右または上下方向にて遮光することで瞳分割を行う構成がある。また、複数の撮像画素の配列の中に一対の焦点検出画素を離散的に配置し、その一対の焦点検出画素からA像信号およびB像信号を取得する構成がある。 In the present embodiment, a plurality of photoelectric conversion units are arranged for one microlens, and the pupil-divided light flux is incident on each photoelectric conversion unit, but the present invention is not limited to this. For example, as a configuration of a focus detection pixel, there is a configuration in which one photodiode is provided for a microlens, and pupil division is performed by light-shielding in the left-right or up-down direction by a light-shielding layer. Further, there is a configuration in which a pair of focus detection pixels are discretely arranged in an array of a plurality of image pickup pixels, and an A image signal and a B image signal are acquired from the pair of focus detection pixels.

位相差AF部129は、取得部129aが取得したA像信号とB像信号を用いて焦点検出を行う。図4(A)は、図3(A)に示す合焦状態におけるA像信号とB像信号の強度分布を示すグラフである。図4(A)にて、横軸は画素位置を表し、縦軸は出力信号の強度を表す。合焦状態にてA像信号とB像信号とは互いに一致する。 The phase difference AF unit 129 performs focus detection using the A image signal and the B image signal acquired by the acquisition unit 129a. FIG. 4A is a graph showing the intensity distribution of the A image signal and the B image signal in the focused state shown in FIG. 3A. In FIG. 4A, the horizontal axis represents the pixel position and the vertical axis represents the intensity of the output signal. In the focused state, the A image signal and the B image signal coincide with each other.

図4(B)は、図3(B)に示す非合焦状態におけるA像信号とB像信号の強度分布を示すグラフである。横軸と縦軸の設定は図4(A)と同じである。非合焦状態にてA像とB像は、前述した理由により位相差を有し、強度のピーク位置が互いにずれている。図中にずれ量Xを示す。位相差AF部129の算出部129bは、撮像画像のフレームごとにずれ量Xを算出し、算出したずれ量Xを用いて所定の演算処理を行うことにより、焦点ずれ量、すなわち図3(B)に示すY値を算出する。位相差AF部129は、算出したY値をカメラMPU125に出力する。カメラMPU125はY値に基づく制御信号を、レンズMPU117を介してフォーカス駆動回路116に出力する。 FIG. 4B is a graph showing the intensity distribution of the A image signal and the B image signal in the out-of-focus state shown in FIG. 3B. The settings of the horizontal axis and the vertical axis are the same as those in FIG. 4 (A). In the out-of-focus state, the A image and the B image have a phase difference for the reason described above, and the peak positions of the intensities are deviated from each other. The deviation amount X is shown in the figure. The calculation unit 129b of the phase difference AF unit 129 calculates the deviation amount X for each frame of the captured image, and performs a predetermined calculation process using the calculated deviation amount X, whereby the focus deviation amount, that is, FIG. 3 (B). ) Is calculated. The phase difference AF unit 129 outputs the calculated Y value to the camera MPU 125. The camera MPU 125 outputs a control signal based on the Y value to the focus drive circuit 116 via the lens MPU 117.

フォーカス駆動回路116は、制御信号の示すY値に基づいて、フォーカスレンズ104の移動量を算出し、フォーカスアクチュエータ113に駆動信号を出力する。フォーカスレンズ104は、フォーカスアクチュエータ113によって、所定の被写体に焦点が合う合焦位置まで移動する。こうして合焦状態が実現される。 The focus drive circuit 116 calculates the amount of movement of the focus lens 104 based on the Y value indicated by the control signal, and outputs the drive signal to the focus actuator 113. The focus lens 104 is moved to a focusing position in which a predetermined subject is in focus by the focus actuator 113. In this way, the in-focus state is realized.

図5を参照して、相関演算について説明する。図5は、相関演算の説明図である。図5(A)は、画素の水平方向の位置(水平画素位置)を横軸にとり、水平画素位置に対するA像信号およびB像信号のレベル(強度)を縦軸にとって、複数のグラフを示す。図5(A)は、A像信号の位置がシフト量の範囲(-S~+S)内でシフトした場合の複数のグラフを示している。ここでは、A像信号を左にシフトさせる場合のシフト量の符号をマイナスとし、A像信号を右にシフトさせる場合のシフト量の符号をプラスとしている。各位置に対応するA像信号とB像信号との差の絶対値が算出され、各画素位置の絶対値を加算した値が1行分の相関値(相関量または相関データ)として算出される。各行で算出された相関値を、各シフト量において、複数行に亘って加算してもよい。 The correlation operation will be described with reference to FIG. FIG. 5 is an explanatory diagram of the correlation operation. FIG. 5A shows a plurality of graphs with the horizontal position (horizontal pixel position) of the pixel as the horizontal axis and the level (intensity) of the A image signal and the B image signal with respect to the horizontal pixel position as the vertical axis. FIG. 5A shows a plurality of graphs when the position of the A image signal is shifted within the range of the shift amount (−S to + S). Here, the sign of the shift amount when the A image signal is shifted to the left is negative, and the sign of the shift amount when the A image signal is shifted to the right is positive. The absolute value of the difference between the A image signal and the B image signal corresponding to each position is calculated, and the value obtained by adding the absolute values of each pixel position is calculated as the correlation value (correlation amount or correlation data) for one line. .. The correlation value calculated in each row may be added over a plurality of rows in each shift amount.

図5(B)は、図5(A)の例において、各シフト量に対して算出される相関値を示すグラフである。図5(B)にて横軸はシフト量を表し、縦軸は相関データを表す。図5(A)に示される例において「シフト量=X」は、A像信号とB像信号とが互いに重なる焦点位置に対応するシフト量となっている。図5(B)に示されるように、「シフト量=X」の場合に相関値が最小値となる。つまり、相関値が最小値となるシフト量を算出することができる。なお、本実施形態に適用可能な相関値の算出方法は、これに限定されない。A像とB像の各データの相関を示す算出方法であれば、如何なる方法でも適用可能である。 FIG. 5B is a graph showing the correlation value calculated for each shift amount in the example of FIG. 5A. In FIG. 5B, the horizontal axis represents the shift amount and the vertical axis represents the correlation data. In the example shown in FIG. 5A, "shift amount = X" is a shift amount corresponding to the focal position where the A image signal and the B image signal overlap each other. As shown in FIG. 5B, the correlation value becomes the minimum value when “shift amount = X”. That is, the shift amount at which the correlation value becomes the minimum value can be calculated. The method for calculating the correlation value applicable to the present embodiment is not limited to this. Any calculation method can be applied as long as it is a calculation method showing the correlation between the data of the A image and the B image.

図6を参照して焦点検出について説明する。図6は、本実施形態における焦点検出のメインフローチャートである。図6の各ステップに示す処理は、カメラMPU125の指令に基づいて、主に、位相差AF部129、フォーカスアクチュエータ113、フォーカス駆動回路116、レンズMPU117により実行される。 Focus detection will be described with reference to FIG. FIG. 6 is a main flowchart of focus detection in this embodiment. The processes shown in each step of FIG. 6 are mainly executed by the phase difference AF unit 129, the focus actuator 113, the focus drive circuit 116, and the lens MPU 117 based on the command of the camera MPU 125.

S601にて位相差AF部129は、撮像素子122の有効画素領域の中から焦点検出を行う対象となる焦点検出領域を設定する。続いてS602で位相差AF部129は焦点検出信号を取得する。つまり、撮像素子122から第1光電変換部211aによる第1信号(A像信号)と第2光電変換部211bによる第2信号(B像信号)が取得される。S603で位相差AF部129は、A像信号およびB像信号のそれぞれに対してシェーディング補正処理(光学補正処理)を行う。位相差検出方式の焦点検出では、A像とB像との相関値(信号の一致度)に基づいて焦点状態が検出される。シェーディングの発生によりA像信号とB像信号との相関が低下する可能性がある。A像とB像との相関を改善して焦点検出を良好に行うために、シェーディング補正処理が実行される。 In S601, the phase difference AF unit 129 sets a focus detection region to be targeted for focus detection from the effective pixel region of the image sensor 122. Subsequently, in S602, the phase difference AF unit 129 acquires a focus detection signal. That is, the first signal (A image signal) by the first photoelectric conversion unit 211a and the second signal (B image signal) by the second photoelectric conversion unit 211b are acquired from the image sensor 122. In S603, the phase difference AF unit 129 performs shading correction processing (optical correction processing) on each of the A image signal and the B image signal. In the focus detection of the phase difference detection method, the focal state is detected based on the correlation value (the degree of signal matching) between the A image and the B image. The occurrence of shading may reduce the correlation between the A image signal and the B image signal. A shading correction process is executed in order to improve the correlation between the A image and the B image and perform focus detection satisfactorily.

S604で位相差AF部129は、A像信号とB像信号のそれぞれに対して信号補正処理を行う。信号補正処理の詳細については、図9を参照して後述する。S605で位相差AF部129は、A像信号とB像信号のそれぞれに対してフィルタ処理を行う。一般に位相差検出方式の焦点検出は、デフォーカス量が相対的に大きい状態(大デフォーカス状態)で行われるため、フィルタ処理の通過帯域が低周波帯域を含むようにフィルタが構成される。ただし、必要に応じて、大デフォーカス状態から小デフォーカス状態まで焦点調節を行う際、デフォーカス状態に応じて、焦点検出の際のフィルタ処理の通過帯域を高周波帯域側に調整してもよい。 In S604, the phase difference AF unit 129 performs signal correction processing on each of the A image signal and the B image signal. The details of the signal correction process will be described later with reference to FIG. In S605, the phase difference AF unit 129 performs filter processing on each of the A image signal and the B image signal. Generally, the focus detection of the phase difference detection method is performed in a state where the defocus amount is relatively large (large defocus state), so that the filter is configured so that the pass band of the filter processing includes the low frequency band. However, if necessary, when the focus is adjusted from the large defocus state to the small defocus state, the pass band of the filter processing at the time of focus detection may be adjusted to the high frequency band side according to the defocus state. ..

S606で位相差AF部129内の算出部129bは、フィルタ処理後のA像信号とB像信号に対して相関演算を行い、信号の一致度を表す相関値(A像とB像との相関演算結果)を算出する。S607で算出部129bは、S606にて算出された相関値に基づいてデフォーカス量を算出する。具体的には、位相差AF部129は、サブピクセル演算により、相関値が最小値となるシフト量に基づいて像ずれ量Xを算出する。そして位相差AF部129は、像ずれ量Xに対して変換係数を乗算してデフォーカス量を算出する。変換係数は、焦点検出領域の像高と、絞り102のF値(絞り値)と、レンズユニット100の射出瞳距離に応じて決定される。以上で、焦点検出処理を終了する。 In S606, the calculation unit 129b in the phase difference AF unit 129 performs a correlation calculation on the filtered A image signal and the B image signal, and performs a correlation calculation indicating the degree of coincidence of the signals (correlation between the A image and the B image). Calculation result) is calculated. In S607, the calculation unit 129b calculates the defocus amount based on the correlation value calculated in S606. Specifically, the phase difference AF unit 129 calculates the image shift amount X based on the shift amount at which the correlation value becomes the minimum value by the sub-pixel calculation. Then, the phase difference AF unit 129 calculates the defocus amount by multiplying the image shift amount X by the conversion coefficient. The conversion coefficient is determined according to the image height of the focal point detection region, the F value (aperture value) of the aperture 102, and the exit pupil distance of the lens unit 100. This completes the focus detection process.

図7を参照して、A像とB像のランダムノイズ、およびランダムノイズを含むA像とB像から算出される相関値の概念を説明する。図7(A)は、A像とB像のランダムノイズの説明図である。A像信号およびB像信号はそれぞれ、画素ごとのノイズを含んでいる。図7(A)において、横軸方向に画素位置を表し、縦軸方向に出力信号の強度を表す。A像およびB像のそれぞれを分かりやすく示すため、便宜上、A像とB像の基準位置を上下方向に互いにずらして表示している。 With reference to FIG. 7, the concept of the random noise of the A image and the B image and the correlation value calculated from the A image and the B image including the random noise will be described. FIG. 7A is an explanatory diagram of random noise of the A image and the B image. The A image signal and the B image signal each include noise for each pixel. In FIG. 7A, the pixel position is represented in the horizontal axis direction, and the intensity of the output signal is represented in the vertical axis direction. In order to show each of the A image and the B image in an easy-to-understand manner, the reference positions of the A image and the B image are displayed by shifting each other in the vertical direction for convenience.

図7(A)に示される画素ごとのノイズは、A像およびB像にランダムで生じるランダムノイズである。同一の画素に関して、A像およびB像の出力信号の強度は異なる。そのため、A像とB像とで相関関係のないノイズとなる。 The noise for each pixel shown in FIG. 7A is random noise randomly generated in the A image and the B image. The intensities of the output signals of the A image and the B image are different for the same pixel. Therefore, there is no correlation between the A image and the B image.

図7(B)は、図7(A)のA像およびB像の各出力信号の強度に対して算出される相関値をグラフで示している。図7(B)において、横軸はシフト量を表し、縦軸は相関値(相関データ)を表している。相関値がシフト量の変化に対して不規則に変化し、ばらついていることが分かる。 FIG. 7B is a graph showing the correlation values calculated for the intensities of the output signals of the A image and the B image of FIG. 7A. In FIG. 7B, the horizontal axis represents the shift amount, and the vertical axis represents the correlation value (correlation data). It can be seen that the correlation value changes irregularly with respect to the change in the shift amount and varies.

このように、A像およびB像に生じるランダムノイズは、相関値のばらつきの原因となり、複数の極小値および極大値を持ち、像ずれ量Xの算出精度を低下させる。そのため、高精度な焦点検出を行うためには、ランダムノイズの低減が必要である。 As described above, the random noise generated in the A image and the B image causes the variation of the correlation value, has a plurality of minimum values and maximum values, and lowers the calculation accuracy of the image shift amount X. Therefore, it is necessary to reduce random noise in order to perform highly accurate focus detection.

次に図8を参照して、IMG像からA像を減算してB像に相当する信号を求めたことに起因するノイズ(逆相関ノイズ)に関して説明する。図8は逆相関ノイズおよび相関値の説明図である。図8(A)は、IMG像からA像を減算してB像に相当する信号を求めたことに起因するノイズを示す。横軸方向に画素位置を表し、縦軸方向に出力信号の強度を表す。A像とB像をそれぞれ示すため、便宜上、A像とB像の基準位置を上下方向にずらして表示している。 Next, with reference to FIG. 8, the noise (inverse correlation noise) caused by subtracting the A image from the IMG image to obtain the signal corresponding to the B image will be described. FIG. 8 is an explanatory diagram of inversely correlated noise and the correlation value. FIG. 8A shows noise caused by subtracting the A image from the IMG image to obtain a signal corresponding to the B image. The pixel position is represented in the horizontal axis direction, and the strength of the output signal is represented in the vertical axis direction. In order to show the A image and the B image, respectively, the reference positions of the A image and the B image are shifted in the vertical direction for convenience.

加算画像であるIMG像とA像から、B像を生成して相関演算を行う場合、A像に重畳されるランダムノイズ量の符号が反転されたランダムノイズ量が、B像に重畳される。A像が極大値となる位置でB像は極小値をとり、A像とB像とは逆相のノイズとなる。このため、シフト量がゼロである場合のA像信号とB像信号との一致度は低くなり、シフト量=0の位置で相関値に大きな極大値が生じる。 When a B image is generated from an IMG image and an A image, which are additive images, and a correlation calculation is performed, the random noise amount in which the sign of the random noise amount superimposed on the A image is inverted is superimposed on the B image. At the position where the A image becomes the maximum value, the B image takes the minimum value, and the A image and the B image have opposite phase noise. Therefore, when the shift amount is zero, the degree of coincidence between the A image signal and the B image signal becomes low, and a large maximum value is generated in the correlation value at the position where the shift amount = 0.

図8(B)は相関値のグラフを示し、横軸はシフト量を表し、縦軸は相関値(相関データ)を表す。シフト量がゼロである場合、他のシフト量と比較して相関量が大きく算出され、シフト量=0の位置で極大値が生じている。 FIG. 8B shows a graph of the correlation value, the horizontal axis represents the shift amount, and the vertical axis represents the correlation value (correlation data). When the shift amount is zero, the correlation amount is calculated to be larger than that of other shift amounts, and the maximum value is generated at the position where the shift amount = 0.

このように、A像およびB像に生じる逆相関ノイズは、相関値に極大値を生じさせ、像ずれ量Xの算出精度を低下させる。高精度な焦点検出を行うためには、逆相関ノイズの低減が必要である。そこで本実施形態では、A像およびB像に生じるノイズを補正によって低減させ、補正された信号を用いて相関値を算出する。これにより、A像およびB像に生じるノイズの影響を除去または低減させ、像ずれ量Xの算出精度を低下させることなく、高精度な焦点検出を行うことができる。 As described above, the inverse correlation noise generated in the A image and the B image causes a maximum value in the correlation value, and lowers the calculation accuracy of the image shift amount X. In order to perform high-precision focus detection, it is necessary to reduce inverse correlation noise. Therefore, in the present embodiment, the noise generated in the A image and the B image is reduced by correction, and the correlation value is calculated using the corrected signal. As a result, the influence of noise generated in the A image and the B image can be removed or reduced, and highly accurate focus detection can be performed without lowering the calculation accuracy of the image shift amount X.

図9から図13を参照して、本実施形態における信号補正(図6のS604)について説明する。図9は信号補正を説明するフローチャートであり、各ステップに示す処理は、主にカメラMPU125および位相差AF部129により実行される。図10および図11は、図9の各ステップでの信号状態の説明図であり、横軸は画素位置を表し、縦軸は信号値を表している。図12および図13は、A像とIMG像の符号および大小関係に関する信号補正の詳細な説明図である。 The signal correction (S604 in FIG. 6) in the present embodiment will be described with reference to FIGS. 9 to 13. FIG. 9 is a flowchart illustrating signal correction, and the processing shown in each step is mainly executed by the camera MPU 125 and the phase difference AF unit 129. 10 and 11 are explanatory views of the signal state in each step of FIG. 9, where the horizontal axis represents the pixel position and the vertical axis represents the signal value. 12 and 13 are detailed explanatory views of signal correction regarding the sign and magnitude relationship between the A image and the IMG image.

図9のS901でカメラMPU125は、図6のS603にてシェーディング補正された第1信号、つまりA像に対応する焦点検出信号を取得する。S902にてカメラMPU125は、シェーディング補正された第2信号、つまりB像に対応する焦点検出信号を取得する。S901、S902で取得された焦点検出信号は、被写体信号にノイズが重畳されている状態である。図10および図11を参照して具体例を説明する。 In S901 of FIG. 9, the camera MPU 125 acquires the shading-corrected first signal in S603 of FIG. 6, that is, the focus detection signal corresponding to the A image. In S902, the camera MPU 125 acquires a shading-corrected second signal, that is, a focus detection signal corresponding to the B image. The focus detection signals acquired in S901 and S902 are in a state where noise is superimposed on the subject signal. Specific examples will be described with reference to FIGS. 10 and 11.

図10(A)はノイズ成分が重畳されていない状態の被写体信号を示す。図10(B)はノイズ成分が重畳されたIMG像信号を示し、図10(C)はノイズ成分が重畳されたA像信号とB像信号をそれぞれ示す。これらは、被写体信号に対して、図7のランダムノイズと、図8の逆相関ノイズが重畳された信号を示す。このように、A像信号およびB像信号に、ランダムノイズと逆相関ノイズを多く含む場合、相関演算結果に複数の極小値(極小点)および極大値(極大点)が生じ、高精度な焦点検出を行うことができない。 FIG. 10A shows a subject signal in a state where noise components are not superimposed. FIG. 10B shows an IMG image signal on which a noise component is superimposed, and FIG. 10C shows an A image signal and a B image signal on which a noise component is superimposed, respectively. These show a signal in which the random noise of FIG. 7 and the inverse correlation noise of FIG. 8 are superimposed on the subject signal. In this way, when the A image signal and the B image signal contain a large amount of random noise and inverse correlation noise, a plurality of minimum values (minimum points) and maximum values (maximum points) are generated in the correlation calculation result, and the focus is highly accurate. Cannot detect.

図9のS903でカメラMPU125は補正に用いる第1基準信号を算出し、S904で第2基準信号を算出する。第1基準信号、第2基準信号は、図11(A)に示す通りである。これらの基準信号のレベルは撮像素子の出力の黒レベルであり、メモリ128に記憶されている一定値である。本実施形態では、黒レベルを一定値として記憶している例を説明するが、これに限定されることなく、画素ごとの固定パターンノイズを考慮した画素ごとに異なる値をレベル値として記憶してもよい。また、本実施形態では、メモリに記憶されたレベル値を取得して基準信号としているが、黒レベル補正用に取得された画像信号等から黒レベルを算出して基準信号としてもよい。また、取得された焦点検出信号の最小値に所定値(ノイズばらつき量等)を加算した値や、下位の複数の値から求めた平均値や中間値を用いて基準信号を生成してもよい。本実施形態では、A像およびB像に対して共通の基準信号を用いるが、A像、B像それぞれに対して個別の基準信号を算出してもよい。 In S903 of FIG. 9, the camera MPU 125 calculates the first reference signal used for correction, and in S904, the second reference signal is calculated. The first reference signal and the second reference signal are as shown in FIG. 11 (A). The level of these reference signals is the black level of the output of the image sensor, and is a constant value stored in the memory 128. In the present embodiment, an example in which the black level is stored as a constant value will be described, but the present invention is not limited to this, and a different value is stored as a level value for each pixel in consideration of the fixed pattern noise for each pixel. May be good. Further, in the present embodiment, the level value stored in the memory is acquired and used as the reference signal, but the black level may be calculated from the image signal or the like acquired for black level correction and used as the reference signal. Further, a reference signal may be generated using a value obtained by adding a predetermined value (noise variation amount, etc.) to the minimum value of the acquired focus detection signal, or an average value or an intermediate value obtained from a plurality of lower values. .. In the present embodiment, a common reference signal is used for the A image and the B image, but individual reference signals may be calculated for each of the A image and the B image.

続いてS905でカメラMPU125は、S901にて取得した第1信号と、S903にて取得した第1基準信号との差分から第1補正信号を算出する。同様にして、S906でカメラMPU125は、S902にて取得した第2信号と、S904にて取得した第2基準信号の差分から第2補正信号を算出する。図11(B)は第1補正信号と第2補正信号を例示する。これらの信号は、図10(C)に示す信号から図11(A)に示す信号を減算した信号である。 Subsequently, in S905, the camera MPU 125 calculates the first correction signal from the difference between the first signal acquired in S901 and the first reference signal acquired in S903. Similarly, in S906, the camera MPU 125 calculates the second correction signal from the difference between the second signal acquired in S902 and the second reference signal acquired in S904. FIG. 11B exemplifies the first correction signal and the second correction signal. These signals are signals obtained by subtracting the signal shown in FIG. 11 (A) from the signal shown in FIG. 10 (C).

S907~S910において第1補正が行われ、S911~S914において第2補正が行われる。第1補正信号、第2補正信号はいずれも、焦点検出信号から基準信号(ノイズのばらつき中心値)を減算した信号である。そのため、補正信号の値が正値の場合には、被写体信号の成分を含んでいる可能性があるが、負値の場合には、ノイズだけであるといえる。つまり、第1補正信号、第2補正信号の値が負値である場合、それらは少なくともノイズ成分であることが判定でき、負のノイズを検出することが可能である。また、A像のノイズはB像において反転して重畳されている。そのため、A像で検出された負のノイズはB像に正のノイズとして重畳され、B像で検出された負のノイズはA像に正のノイズとして重畳されているといえる。そこで第1補正では、A像で検出された負のノイズ成分をB像に加算することでB像の正のノイズを除去または低減させる処理が行われる。またB像で検出された負のノイズ成分をA像に加算することでA像の正のノイズを除去または低減させる処理が行われる。 The first correction is performed in S907 to S910, and the second correction is performed in S911 to S914. Both the first correction signal and the second correction signal are signals obtained by subtracting a reference signal (noise variation center value) from the focus detection signal. Therefore, when the value of the correction signal is a positive value, it may contain a component of the subject signal, but when it is a negative value, it can be said that it is only noise. That is, when the values of the first correction signal and the second correction signal are negative values, it can be determined that they are at least noise components, and negative noise can be detected. Further, the noise of the A image is inverted and superimposed on the B image. Therefore, it can be said that the negative noise detected in the A image is superimposed on the B image as positive noise, and the negative noise detected in the B image is superimposed on the A image as positive noise. Therefore, in the first correction, a process of removing or reducing the positive noise of the B image is performed by adding the negative noise component detected in the A image to the B image. Further, a process of removing or reducing the positive noise of the A image is performed by adding the negative noise component detected in the B image to the A image.

具体的には、S907にてカメラMPU125は、第1補正信号の値を第1の閾値と比較する。第1の閾値は、例えばゼロである。カメラMPU125は第1補正信号の値が負値かどうかを判定し、負値の場合にS908の処理へ進み、負値でない場合にはS909へ処理を進める。S908でカメラMPU125は、第2信号に第1補正信号を加算することで第2信号に対する第1補正を行う。そしてS909に進む。 Specifically, in S907, the camera MPU 125 compares the value of the first correction signal with the first threshold value. The first threshold is, for example, zero. The camera MPU 125 determines whether or not the value of the first correction signal is a negative value, and if the value is negative, the process proceeds to S908, and if the value is not negative, the process proceeds to S909. In S908, the camera MPU 125 performs the first correction for the second signal by adding the first correction signal to the second signal. Then proceed to S909.

S909にてカメラMPU125は、第2補正信号の値を第2の閾値と比較する。第2の閾値は、例えばゼロである。カメラMPU125は第2補正信号の値が負値かどうかを判定し、負値の場合にS910の処理へ進み、負値でない場合にはS911へ処理を進める。S910でカメラMPU125は、第1信号に第2補正信号を加算することで第1信号に対する第1補正を行う。図11(C)は、第1補正後の第1信号(A像)および第2信号(B像)を例示する。図10(C)に示す補正前の第1信号(A像)と第2信号(B像)と比べて、ノイズが低減できていることがわかる。 In S909, the camera MPU 125 compares the value of the second correction signal with the second threshold value. The second threshold is, for example, zero. The camera MPU 125 determines whether or not the value of the second correction signal is a negative value, and if the value is negative, the process proceeds to S910, and if the value is not negative, the process proceeds to S911. In S910, the camera MPU 125 performs the first correction for the first signal by adding the second correction signal to the first signal. FIG. 11C illustrates the first signal (A image) and the second signal (B image) after the first correction. It can be seen that the noise can be reduced as compared with the first signal (A image) and the second signal (B image) before the correction shown in FIG. 10 (C).

さらに、第1補正後の第1信号(A像)と第2信号(B像)が基準信号(ノイズのばらつき中心値)よりも小さい場合、それらはノイズ成分であると判定できる。そのため、第2補正では、第1信号(A像)と第2信号(B像)ともに基準信号よりも小さい場合、第1信号および第2信号を基準信号とすることで、ノイズを除去する処理が実行される。 Further, when the first signal (A image) and the second signal (B image) after the first correction are smaller than the reference signal (noise variation center value), it can be determined that they are noise components. Therefore, in the second correction, when both the first signal (A image) and the second signal (B image) are smaller than the reference signal, noise is removed by using the first signal and the second signal as the reference signal. Is executed.

具体的には、S911にてカメラMPU125は、第1信号が第1基準信号(例えば信号値ゼロ)よりも小さいかどうかを判定する。第1信号が第1基準信号よりも小さい場合にはS912の処理へ進み、第1信号が第1基準信号よりも小さくない場合にはS913へ処理を進める。S912にてカメラMPU125は、第1信号として第1基準信号を用いることで第1信号に対する第2補正を行う。そしてS913に進む。 Specifically, in S911, the camera MPU 125 determines whether or not the first signal is smaller than the first reference signal (for example, the signal value is zero). If the first signal is smaller than the first reference signal, the process proceeds to S912, and if the first signal is not smaller than the first reference signal, the process proceeds to S913. In S912, the camera MPU 125 performs the second correction with respect to the first signal by using the first reference signal as the first signal. Then proceed to S913.

S913にてカメラMPU125は、第2信号が第2基準信号(例えば信号値ゼロ)よりも小さいかどうかを判定する。第2信号が第2基準信号よりも小さい場合にS914の処理へ進み、第2信号が第2基準信号よりも小さくない場合には信号補正を終了する。S914にてカメラMPU125は、第2信号として第2基準信号を用いることで第2信号に対する第2補正を行う。図11(D)は、第2補正後の第1信号(A像)と第2信号(B像)を例示する。図11(C)に示す第1補正後の第1信号(A像)と第2信号(B像)と比べて、負のノイズが除去できていることがわかる。 In S913, the camera MPU 125 determines whether the second signal is smaller than the second reference signal (for example, the signal value is zero). When the second signal is smaller than the second reference signal, the process proceeds to S914, and when the second signal is not smaller than the second reference signal, the signal correction is terminated. In S914, the camera MPU 125 performs the second correction with respect to the second signal by using the second reference signal as the second signal. FIG. 11D exemplifies the first signal (A image) and the second signal (B image) after the second correction. It can be seen that the negative noise can be removed as compared with the first signal (A image) and the second signal (B image) after the first correction shown in FIG. 11 (C).

図12および図13を参照して、A像とIMG像の符号および大小関係に関し、信号補正を詳細に説明する。ここでは簡単のために、基準信号のレベルをゼロとする場合を例にして説明する。つまりデータ値が正値の場合には、被写体信号の成分を含んでいる可能性があるが、データ値が負値の場合には、それはノイズ成分であるといえる。 With reference to FIGS. 12 and 13, signal correction will be described in detail with respect to the sign and magnitude relationship between the A image and the IMG image. Here, for the sake of simplicity, a case where the level of the reference signal is set to zero will be described as an example. That is, when the data value is a positive value, it may contain a component of the subject signal, but when the data value is a negative value, it can be said that it is a noise component.

図12および図13に示す棒グラフはA像、B像、IMG像の各データ値を示す。左側から順に、取得されたA像、IMG像と、B像生成後のA像、B像と、第1補正後のA像、B像と、第2補正後のA像、B像をそれぞれ表している。また図中に示すSa、Sb(=Simg-Sa)、SimgはそれぞれA像、B像、IMG像の被写体信号を表しており、Na、NimgはそれぞれA像、IMG像のノイズを表している。 The bar graphs shown in FIGS. 12 and 13 show the data values of the A image, the B image, and the IMG image. From the left side, the acquired A image, IMG image, A image and B image after B image generation, A image and B image after the first correction, and A image and B image after the second correction, respectively. Represents. Further, Sa, Sb (= Simg-Sa) and Simg shown in the figure represent subject signals of A image, B image and IMG image, respectively, and Na and Nimg represent noise of A image and IMG image, respectively. ..

図12(A)は、A像とIMG像の符号および大小関係が、0<A<IMGである場合の信号補正の例を示す。図12(A)では、A像、IMG像の各データがいずれも正値であるため、取得されたA像とIMG像は以下の様に表される。
A=Sa+Na
IMG=Simg+Nimg
FIG. 12A shows an example of signal correction when the sign and magnitude relationship between the A image and the IMG image are 0 <A <IMG. In FIG. 12A, since the data of the A image and the IMG image are both positive values, the acquired A image and the IMG image are represented as follows.
A = Sa + Na
IMG = Simg + Nimg

B像のデータは、IMG像のデータからA像のデータを減算することにより生成される。生成されたB像は以下の様に表される。
B=IMG-A
=Simg+Nimg-(Sa+Na)
=Sb+Nimg-Na
The B image data is generated by subtracting the A image data from the IMG image data. The generated B image is represented as follows.
B = IMG-A
= Simg + Nimg- (Sa + Na)
= Sb + Nimg-Na

この場合、第1補正に関しては、A像、B像ともにデータが正値であるため、補正は実施されない。同様に第2補正に関しても、A像、B像ともにデータに正値であるため、補正は実施されない。このように、0<A<IMGである場合には、A像とB像のデータともに被写体信号の成分を含んでいる可能性があるため、補正は実施されない。つまり、各データから被写体信号の成分が除去されることはない。 In this case, regarding the first correction, since the data of both the A image and the B image are positive values, the correction is not performed. Similarly, regarding the second correction, since both the A image and the B image are positive values in the data, the correction is not performed. As described above, when 0 <A <IMG, the data of the A image and the B image may contain the component of the subject signal, so that the correction is not performed. That is, the component of the subject signal is not removed from each data.

図12(B)は、A像とIMG像の符号および大小関係が、0<IMG<Aである場合の信号補正の例を示す。図12(B)では、A像とIMG像の各データがいずれも正値であるため、取得されたA像とIMG像のデータは以下の様に表される。
A=Sa+Na
IMG=Simg+Nimg
FIG. 12B shows an example of signal correction when the sign and magnitude relationship between the A image and the IMG image are 0 <IMG <A. In FIG. 12B, since the data of the A image and the IMG image are both positive values, the acquired data of the A image and the IMG image are represented as follows.
A = Sa + Na
IMG = Simg + Nimg

B像のデータは、IMG像のデータからA像のデータを減算することにより生成される。生成されたB像は以下の様に表される。
B=IMG-A
=Simg+Nimg-(Sa+Na)
=Sb+Nimg-Na
The B image data is generated by subtracting the A image data from the IMG image data. The generated B image is represented as follows.
B = IMG-A
= Simg + Nimg- (Sa + Na)
= Sb + Nimg-Na

この場合、第1補正では、B像のデータが負値であるため、A像に対して第1補正が実施される。また、B像のデータが負値であることから、B像の被写体信号Sb=0となるので、上式からSa=Simgとなる。補正後のA像は以下の様に表される。
A=Sa+Na+B
=Sa+Na+Nimg-Na
=Sa+Nimg
In this case, in the first correction, since the data of the B image is a negative value, the first correction is performed on the A image. Further, since the data of the B image is a negative value, the subject signal Sb of the B image is 0, so Sa = Simg from the above equation. The corrected A image is represented as follows.
A = Sa + Na + B
= Sa + Na + Nimg-Na
= Sa + Nimg

第2補正では、B像のデータが負値、つまり基準信号より小さいので、B像に対して第2補正が実施される。補正後のB像は以下の様に表される。
B=0
In the second correction, since the data of the B image is a negative value, that is, smaller than the reference signal, the second correction is performed on the B image. The corrected B image is represented as follows.
B = 0

このように、0<IMG<Aである場合には、被写体信号の成分を含んでいる可能性があるA像については当該成分が除去されることはなく、A像のノイズNaが除去される。つまり、ノイズの削減処理が行われる。 As described above, when 0 <IMG <A, the component of the A image that may contain the component of the subject signal is not removed, and the noise Na of the A image is removed. .. That is, noise reduction processing is performed.

図12(C)は、A像とIMG像の符号および大小関係が、A<0<IMGである場合の信号補正の例を示す。図12(C)では、A像のデータが負値であって、IMG像のデータが正値である。そのため、取得されたA像とIMG像は以下の様に表される。
A=Na (Sa=0、Sb=Simg)
IMG=Simg+Nimg
FIG. 12C shows an example of signal correction when the sign and magnitude relationship between the A image and the IMG image are A <0 <IMG. In FIG. 12C, the data of the A image is a negative value, and the data of the IMG image is a positive value. Therefore, the acquired A image and IMG image are represented as follows.
A = Na (Sa = 0, Sb = Simg)
IMG = Simg + Nimg

IMG像のデータからA像のデータを減算して生成されるB像は以下の様に表される。
B=IMG-A
=Simg+Nimg-Na
=Sb+Nimg-Na
The B image generated by subtracting the A image data from the IMG image data is represented as follows.
B = IMG-A
= Simg + Nimg-Na
= Sb + Nimg-Na

この場合、第1補正では、A像のデータが負値であるため、B像に対して第1補正が実施される。補正後のB像は以下の様に表される。
B=Sb+Nimg-Na+A
=Sb+Nimg-Na+Na
=Sb+Nimg
In this case, in the first correction, since the data of the A image is a negative value, the first correction is performed on the B image. The corrected B image is represented as follows.
B = Sb + Nimg-Na + A
= Sb + Nimg-Na + Na
= Sb + Nimg

第2補正では、A像のデータが負値、つまり第1基準信号より小さいので、A像に対して第2補正が実施される。補正後のA像は以下の様に表される。
A=0
In the second correction, since the data of the A image is a negative value, that is, smaller than the first reference signal, the second correction is performed on the A image. The corrected A image is represented as follows.
A = 0

このように、A<0<IMGである場合には、被写体信号の成分を含んでいる可能性があるB像について当該成分が除去されることはなく、A像のノイズNaが除去される。 As described above, when A <0 <IMG, the component of the B image that may contain the component of the subject signal is not removed, and the noise Na of the A image is removed.

図13(A)は、A像とIMG像の符号および大小関係が、IMG<0<Aである場合の信号補正の例を示す。図13(A)では、A像のデータが正値であって、IMG像のデータが負値であるため、Simg=0である。IMG像のデータはA像とB像の各データの加算により算出されるので、Simg=0の場合には、Sa=Sb=0となる。よって取得されたA像とIMG像は以下の様に表される。
A=Na (Sa=0)
IMG=Nimg (Simg=0)
FIG. 13A shows an example of signal correction when the sign and magnitude relationship between the A image and the IMG image are IMG <0 <A. In FIG. 13A, since the data of the A image is a positive value and the data of the IMG image is a negative value, Simg = 0. Since the data of the IMG image is calculated by adding the data of the A image and the B image, when Simg = 0, Sa = Sb = 0. Therefore, the acquired A image and IMG image are represented as follows.
A = Na (Sa = 0)
IMG = Nimg (Simg = 0)

IMG像のデータからA像のデータを減算することにより生成されるB像は以下の様に表される。
B=IMG-A
=Nimg-Na
The B image generated by subtracting the A image data from the IMG image data is represented as follows.
B = IMG-A
= Nimg-Na

この場合、第1補正では、B像のデータが負値であるため、A像に対して第1補正が実施される。補正後のA像は以下の様に表される。
A=Na+B
=Na+Nimg-Na
=Nimg
In this case, in the first correction, since the data of the B image is a negative value, the first correction is performed on the A image. The corrected A image is represented as follows.
A = Na + B
= Na + Nimg-Na
= Nimg

第2補正では、A像とB像の各データがともに負値、つまり基準信号より小さいので、A像とB像に対して第2補正が実施される。補正後のA像とB像は以下の様に表される。
A=0
B=0
In the second correction, since each data of the A image and the B image is a negative value, that is, smaller than the reference signal, the second correction is performed on the A image and the B image. The corrected A image and B image are represented as follows.
A = 0
B = 0

このように、IMG<0<Aである場合には、A像、B像ともに被写体信号の成分を含んでいる可能性がなく、いずれもノイズ成分だけをもつ。よって、ノイズNa、Nimgの両方が除去される。 As described above, when IMG <0 <A, neither the A image nor the B image may contain the component of the subject signal, and both have only the noise component. Therefore, both noise Na and Nimg are removed.

図13(B)は、A像とIMG像の符号および大小関係が、A<IMG<0である場合の信号補正の例を示す。図13(B)では、A像とIMG像の各データがともに負値であるため、Sa=Simg=0である。よって、取得されたA像とIMG像は以下の様に表される。
A=Na (Sa=0)
IMG=Nimg (Simg=0)
FIG. 13B shows an example of signal correction when the sign and magnitude relationship between the A image and the IMG image are A <IMG <0. In FIG. 13B, since the data of the A image and the IMG image are both negative values, Sa = Simg = 0. Therefore, the acquired A image and IMG image are represented as follows.
A = Na (Sa = 0)
IMG = Nimg (Simg = 0)

IMG像のデータからA像のデータを減算することにより生成されるB像は以下の様に表される。
B=IMG-A
=Nimg-Na
The B image generated by subtracting the A image data from the IMG image data is represented as follows.
B = IMG-A
= Nimg-Na

この場合、第1補正では、A像のデータが負であるため、B像に対して第1補正が実施される。補正後のB像は以下の様に表される。
B=Nimg-Na+A
=Nimg-Na+Na
=Nimg
In this case, in the first correction, since the data of the A image is negative, the first correction is performed on the B image. The corrected B image is represented as follows.
B = Nimg-Na + A
= Nimg-Na + Na
= Nimg

第2補正では、A像とB像の各データがともに負値、つまり基準信号より小さいので、A像とB像に対して第2補正が実施される。補正後のA像とB像は以下の様に表される。
A=0
B=0
In the second correction, since each data of the A image and the B image is a negative value, that is, smaller than the reference signal, the second correction is performed on the A image and the B image. The corrected A image and B image are represented as follows.
A = 0
B = 0

このように、A<IMG<0である場合には、A像、B像ともに被写体信号の成分を含んでいる可能性がなく、それらはノイズ成分だけをもつ。そのため、ノイズNa、Nimgの両方が除去される。 As described above, when A <IMG <0, neither the A image nor the B image may contain the component of the subject signal, and they have only the noise component. Therefore, both noise Na and Nimg are removed.

図13(C)は、A像とIMG像の符号および大小関係が、IMG<A<0である場合の信号補正の例を示す。図13(C)では、A像とIMG像の各データがともに負値であるため、Sa=Simg=0である。よって、取得されたA像、IMG像は以下の様に表される。
A=Na (Sa=0)
IMG=Nimg (Simg=0)
FIG. 13C shows an example of signal correction when the sign and magnitude relationship between the A image and the IMG image are IMG <A <0. In FIG. 13C, since the data of the A image and the IMG image are both negative values, Sa = Simg = 0. Therefore, the acquired A image and IMG image are represented as follows.
A = Na (Sa = 0)
IMG = Nimg (Simg = 0)

IMG像のデータからA像のデータを減算することにより生成されるB像は以下の様に表される。
B=IMG-A
=Nimg-Na
The B image generated by subtracting the A image data from the IMG image data is represented as follows.
B = IMG-A
= Nimg-Na

この場合、第1補正では、A像とB像のデータがともに負値であるため、A像とB像に対して第1補正が実施される。補正後のA像とB像は以下の様に表される。
A=Na+B
=Na+(Nimg-Na)
=Nimg
B=Nimg-Na+A
=Nimg-Na+Na
=Nimg
In this case, in the first correction, since the data of the A image and the B image are both negative values, the first correction is performed on the A image and the B image. The corrected A image and B image are represented as follows.
A = Na + B
= Na + (Nimg-Na)
= Nimg
B = Nimg-Na + A
= Nimg-Na + Na
= Nimg

第2補正では、A像とB像の各データがともに負値、つまり基準信号より小さいので、A像とB像に対して第2補正が実施される。補正後のA像、B像は以下の様に表される。
A=0
B=0
In the second correction, since each data of the A image and the B image is a negative value, that is, smaller than the reference signal, the second correction is performed on the A image and the B image. The corrected A image and B image are represented as follows.
A = 0
B = 0

このように、IMG<A<0である場合には、A像、B像ともに被写体信号の成分を含んでいる可能性がなく、それらはノイズ成分だけをもつ。そのため、ノイズNa、Nimgの両方が除去される。 As described above, when IMG <A <0, neither the A image nor the B image may contain the component of the subject signal, and they have only the noise component. Therefore, both noise Na and Nimg are removed.

図10(C)にて説明したように、焦点検出信号にランダムノイズおよび逆相関ノイズが重畳されている場合でも、図9に示す処理を実行することにより、A像とB像における被写体信号の成分を除去することなく、ノイズを低減できる。そして、図7(B)、図8(B)に示す極小値および極大値の影響が低減された相関演算結果を算出することができる。 As described with reference to FIG. 10C, even when random noise and inverse correlation noise are superimposed on the focus detection signal, by executing the process shown in FIG. 9, the subject signals in the A image and the B image are displayed. Noise can be reduced without removing the components. Then, it is possible to calculate the correlation calculation result in which the influences of the minimum value and the maximum value shown in FIGS. 7 (B) and 8 (B) are reduced.

本実施形態では、被写体像から得られる信号とは関係のない、A像およびB像に生じるランダムノイズおよび逆相関ノイズが焦点検出信号に重畳されている場合、焦点検出信号の補正が行われる。これにより、ノイズの影響が少ない相関値を算出して、適切なピント位置(焦点状態)を検出することができる。その結果、ノイズの影響を低減させた高精度な焦点検出が可能となる。 In the present embodiment, when the random noise and the inverse correlation noise generated in the A image and the B image, which are not related to the signal obtained from the subject image, are superimposed on the focus detection signal, the focus detection signal is corrected. As a result, it is possible to calculate a correlation value that is less affected by noise and detect an appropriate focus position (focus state). As a result, highly accurate focus detection with reduced influence of noise becomes possible.

[第2実施形態]
次に、本発明の第2実施形態を説明する。本実施形態は、基準信号の算出方法に関して第1実施形態と異なる。よって、本実施形態にて第1実施形態との相違点を説明し、第1実施形態と同様の事項については、それらの詳細な説明を省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. This embodiment is different from the first embodiment in terms of the method of calculating the reference signal. Therefore, the differences from the first embodiment will be described in this embodiment, and detailed description thereof will be omitted for the same items as in the first embodiment.

図9および図14を参照して、本実施形態における信号補正(図6のS604)について説明する。図14は、本実施形態における信号補正の説明図であり、横軸方向に画素位置を表し、縦軸方向に信号強度を表す。 The signal correction (S604 in FIG. 6) in the present embodiment will be described with reference to FIGS. 9 and 14. FIG. 14 is an explanatory diagram of signal correction in the present embodiment, showing pixel positions in the horizontal axis direction and signal strength in the vertical axis direction.

本実施形態では、図9のS903,S904において、カメラMPU125が補正に用いる第1基準信号、第2基準信号をそれぞれ算出する。図14(A)に示す第1基準信号、第2基準信号は、第1信号、第2信号に係る着目画素の周囲に位置する複数の画素(周辺画素)の画素値の中間値として算出される。この中間値は一例であり、周辺画素の画素値の平均値または加重平均値として各基準信号の信号値が算出されてもよい。また本実施形態では、A像信号とB像信号に対して個別の基準信号が用いられるが、A像、B像のそれぞれに対して共通の基準信号を算出して補正してもよい。本実施形態は、焦点検出信号であるA像信号とB像信号に関する着目画素の周辺画素を用いて基準信号が算出される点において、基準信号が黒レベルから算出される第1実施形態とは異なる。 In the present embodiment, in S903 and S904 of FIG. 9, the first reference signal and the second reference signal used by the camera MPU 125 for correction are calculated, respectively. The first reference signal and the second reference signal shown in FIG. 14A are calculated as intermediate values of the pixel values of a plurality of pixels (peripheral pixels) located around the pixel of interest related to the first signal and the second signal. To. This intermediate value is an example, and the signal value of each reference signal may be calculated as the average value or the weighted average value of the pixel values of the peripheral pixels. Further, in the present embodiment, individual reference signals are used for the A image signal and the B image signal, but a common reference signal for each of the A image and the B image may be calculated and corrected. This embodiment is different from the first embodiment in which the reference signal is calculated from the black level in that the reference signal is calculated using the peripheral pixels of the pixel of interest regarding the A image signal and the B image signal which are the focus detection signals. different.

S905でカメラMPU125は、S901にて取得した第1信号と、S903にて取得した第1基準信号との差分から、第1補正信号を算出する。S906でカメラMPU125は、S902にて取得した第2信号と、S904にて取得した第2基準信号との差分から、第2補正信号を算出する。図14(B)に示す第1補正信号、第2補正信号は、図10(C)に示す焦点検出信号(A像,B像)から、図14(A)に示す第1基準信号、第2基準信号をそれぞれ減算した後の信号である。 The camera MPU 125 in S905 calculates the first correction signal from the difference between the first signal acquired in S901 and the first reference signal acquired in S903. The camera MPU 125 in S906 calculates the second correction signal from the difference between the second signal acquired in S902 and the second reference signal acquired in S904. The first correction signal and the second correction signal shown in FIG. 14 (B) are the first reference signal and the first reference signal shown in FIG. 14 (A) from the focus detection signal (A image, B image) shown in FIG. 10 (C). It is a signal after subtracting each of the two reference signals.

S908では、第2信号に第1補正信号を加算することで第2信号に対する第1補正が行われ、またS910では、第1信号に第2補正信号を加算することで第1信号に対する第1補正が行われる。図14(C)は、第1補正後の第1信号(A像)と第2信号(B像)を示す。図10(C)に示す補正前の第1信号(A像)および第2信号(B像)と比べて、正のノイズ成分が低減できていることがわかる。 In S908, the first correction is performed on the second signal by adding the first correction signal to the second signal, and in S910, the first correction is performed on the first signal by adding the second correction signal to the first signal. Correction is made. FIG. 14C shows the first signal (A image) and the second signal (B image) after the first correction. It can be seen that the positive noise component can be reduced as compared with the first signal (A image) and the second signal (B image) before correction shown in FIG. 10 (C).

S912では、第1信号として第1基準信号を用いることで、第1信号に対する第2補正が行われる。またS914では、第2信号として第2基準信号を用いることで、第2信号に対する第2補正が行われる。図14(D)は、第2補正後の第1信号(A像)と第2信号(B像)を示す。図14(C)に示す第1補正後の第1信号(A像)および第2信号(B像)と比べて、負のノイズ成分が除去できていることがわかる。 In S912, the second correction is performed with respect to the first signal by using the first reference signal as the first signal. Further, in S914, the second correction is performed with respect to the second signal by using the second reference signal as the second signal. FIG. 14D shows the first signal (A image) and the second signal (B image) after the second correction. It can be seen that the negative noise component can be removed as compared with the first signal (A image) and the second signal (B image) after the first correction shown in FIG. 14 (C).

本実施形態は、被写体信号の成分を多く含む画素の信号に対して、ノイズを低減できる点で第1実施形態と異なる。図10(C)のように、焦点検出信号にランダムノイズおよび逆相関ノイズが重畳されている場合、焦点検出信号と基準信号とから算出した補正信号の負の値に基づいて、第1補正および第2補正を行うことによってノイズを低減できる。焦点検出信号に対して第1補正および第2補正を行うことで、ノイズが減少した焦点検出信号を得ることができる。図7(B)、図8(B)に示す極小値および極大値の影響が低減された相関演算結果を算出可能となる。 This embodiment is different from the first embodiment in that noise can be reduced with respect to a pixel signal containing a large amount of subject signal components. When random noise and inverse correlation noise are superimposed on the focus detection signal as shown in FIG. 10C, the first correction and the first correction are based on the negative value of the correction signal calculated from the focus detection signal and the reference signal. Noise can be reduced by performing the second correction. By performing the first correction and the second correction on the focus detection signal, it is possible to obtain a focus detection signal with reduced noise. It is possible to calculate the correlation calculation result in which the influences of the minimum value and the maximum value shown in FIGS. 7 (B) and 8 (B) are reduced.

104 フォーカスレンズ
117 レンズMPU
122 撮像素子
125 カメラMPU
129 位相差AF部
211i オンチップマイクロレンズ
211a,211b 光電変換部
104 Focus Lens 117 Lens MPU
122 Image sensor 125 Camera MPU
129 Phase-difference AF unit 211i On-chip microlens 211a, 211b Photoelectric conversion unit

Claims (13)

撮像光学系の異なる瞳部分領域を通過する光束をそれぞれ受光する複数の光電変換部を有する画素部が配置された撮像素子と、
前記複数の光電変換部のうちのいずれかの光電変換部により取得される第1信号と、前記複数の光電変換部による信号から前記第1信号を減算して得られる第2信号を取得する取得手段と、
前記第1信号に対する第1基準信号と、前記第2信号に対する第2基準信号を算出し、前記第1信号と前記第1基準信号から第1補正信号を算出するとともに、前記第2信号と前記第2基準信号から第2補正信号を算出する第1の算出手段と、
前記第1補正信号または前記第2基準信号により前記第2信号を補正し、前記第2補正信号または前記第1基準信号により前記第1信号を補正し、補正された前記第1信号と前記第2信号との相関値を算出して像ずれ量またはデフォーカス量を算出する第2の算出手段と、を備える
ことを特徴とする撮像装置。
An image sensor in which a pixel unit having a plurality of photoelectric conversion units for receiving light flux passing through different pupil region regions of the image pickup optical system is arranged, and an image pickup device.
Acquisition to acquire the first signal acquired by any one of the plurality of photoelectric conversion units and the second signal obtained by subtracting the first signal from the signals obtained by the plurality of photoelectric conversion units. Means and
The first reference signal for the first signal and the second reference signal for the second signal are calculated, the first correction signal is calculated from the first signal and the first reference signal, and the second signal and the said. The first calculation means for calculating the second correction signal from the second reference signal, and
The second signal is corrected by the first correction signal or the second reference signal, the first signal is corrected by the second correction signal or the first reference signal, and the corrected first signal and the first signal are used. An image pickup apparatus comprising: a second calculation means for calculating an image shift amount or a defocus amount by calculating a correlation value with two signals.
前記第1の算出手段は、前記第1信号と前記第1基準信号との差分から前記第1補正信号を算出し、前記第2信号と前記第2基準信号との差分から前記第2補正信号を算出する
ことを特徴とする請求項1に記載の撮像装置。
The first calculation means calculates the first correction signal from the difference between the first signal and the first reference signal, and the second correction signal is calculated from the difference between the second signal and the second reference signal. The image pickup apparatus according to claim 1, wherein the image is calculated.
前記第2の算出手段は、前記第1補正信号の値が第1の閾値より小さい場合、前記第2信号に前記第1補正信号を加算することによって前記第2信号を補正し、前記第2補正信号の値が第2の閾値より小さい場合、前記第1信号に前記第2補正信号を加算することによって前記第1信号を補正する
ことを特徴とする請求項1または請求項2に記載の撮像装置。
When the value of the first correction signal is smaller than the first threshold value, the second calculation means corrects the second signal by adding the first correction signal to the second signal, and the second calculation means. The first or second aspect of claim 1, wherein when the value of the correction signal is smaller than the second threshold value, the first signal is corrected by adding the second correction signal to the first signal. Imaging device.
前記第2の算出手段は、前記第1補正信号および前記第2補正信号を用いて前記第2信号および前記第1信号をそれぞれ補正する第1補正を行い、さらに前記第1基準信号および前記第2基準信号を用いて前記第1信号および前記第2信号をそれぞれ補正する第2補正を行う
ことを特徴とする請求項1から3のいずれか1項に記載の撮像装置。
The second calculation means performs a first correction for correcting the second signal and the first signal by using the first correction signal and the second correction signal, and further performs the first correction signal and the first reference signal. 2. The image pickup apparatus according to any one of claims 1 to 3, wherein the second correction for correcting the first signal and the second signal is performed using the reference signal.
前記第2の算出手段は、前記第2補正にて、前記第1信号が前記第1基準信号より小さい場合、前記第1基準信号により前記第1信号を補正し、前記第2信号が前記第2基準信号より小さい場合、前記第2基準信号により前記第2信号を補正する
ことを特徴とする請求項4に記載の撮像装置。
In the second correction, when the first signal is smaller than the first reference signal, the second calculation means corrects the first signal by the first reference signal, and the second signal is the second. 2. The image pickup apparatus according to claim 4, wherein when the signal is smaller than the reference signal, the second signal is corrected by the second reference signal.
前記第1基準信号と前記第2基準信号は同じレベルの信号である
ことを特徴とする請求項1から5のいずれか1項に記載の撮像装置。
The image pickup apparatus according to any one of claims 1 to 5, wherein the first reference signal and the second reference signal are signals of the same level.
前記第1基準信号および前記第2基準信号は黒レベルの信号である
ことを特徴とする請求項6に記載の撮像装置。
The image pickup apparatus according to claim 6, wherein the first reference signal and the second reference signal are black level signals.
前記第1の算出手段は、前記第1基準信号および前記第2基準信号を、前記第1信号および前記第2信号からそれぞれ算出する
ことを特徴とする請求項1から5のいずれか1項に記載の撮像装置。
The first calculation means according to any one of claims 1 to 5, wherein the first reference signal and the second reference signal are calculated from the first signal and the second signal, respectively. The imaging device described.
前記第1基準信号または前記第2基準信号の信号値は、前記第1信号または前記第2信号に係る着目画素の周辺画素の画素値から算出される平均値または加重平均値または中間値である
ことを特徴とする請求項8に記載の撮像装置。
The signal value of the first reference signal or the second reference signal is an average value, a weighted average value, or an intermediate value calculated from the pixel values of the peripheral pixels of the pixel of interest related to the first signal or the second signal. The imaging device according to claim 8, wherein the image pickup device is characterized by the above.
前記デフォーカス量を用いて前記撮像光学系の焦点調節を行う制御手段を備える
ことを特徴とする請求項1から9のいずれか1項に記載の撮像装置。
The image pickup apparatus according to any one of claims 1 to 9, further comprising a control means for adjusting the focus of the image pickup optical system using the defocus amount.
補正された前記第1信号および前記第2信号から視差を有する画像データを生成する生成手段を備える
ことを特徴とする請求項1から9のいずれか1項に記載の撮像装置。
The image pickup apparatus according to any one of claims 1 to 9, further comprising a generation means for generating image data having parallax from the corrected first signal and the second signal.
前記撮像素子の画素部は、マイクロレンズと、該マイクロレンズに対応する複数の光電変換部を備える
ことを特徴とする請求項1から11のいずれか1項に記載の撮像装置。
The image pickup apparatus according to any one of claims 1 to 11, wherein the pixel unit of the image pickup element includes a microlens and a plurality of photoelectric conversion units corresponding to the microlens.
撮像光学系の異なる瞳部分領域を通過する光束をそれぞれ受光する複数の光電変換部を有する画素部が配置された撮像素子を備える撮像装置にて実行される制御方法であって、
前記複数の光電変換部のうちのいずれかの光電変換部により取得される第1信号と、前記複数の光電変換部による信号から前記第1信号を減算して得られる第2信号を取得する工程と、
前記第1信号に対する第1基準信号と、前記第2信号に対する第2基準信号を算出し、前記第1信号と前記第1基準信号から第1補正信号を算出するとともに、前記第2信号と前記第2基準信号から第2補正信号を算出する工程と、
前記第1補正信号または前記第2基準信号により前記第2信号を補正し、前記第2補正信号または前記第1基準信号により前記第1信号を補正し、補正された前記第1信号と前記第2信号との相関値を算出して像ずれ量またはデフォーカス量を算出する工程と、を有する
ことを特徴とする撮像装置の制御方法。
It is a control method executed by an image pickup device including an image pickup device in which a pixel portion having a plurality of photoelectric conversion portions for receiving light flux passing through different pupil region regions of an image pickup optical system is arranged.
A step of acquiring a first signal acquired by one of the plurality of photoelectric conversion units and a second signal obtained by subtracting the first signal from the signals obtained by the plurality of photoelectric conversion units. When,
The first reference signal for the first signal and the second reference signal for the second signal are calculated, the first correction signal is calculated from the first signal and the first reference signal, and the second signal and the said. The process of calculating the second correction signal from the second reference signal and
The second signal is corrected by the first correction signal or the second reference signal, the first signal is corrected by the second correction signal or the first reference signal, and the corrected first signal and the first signal are used. (2) A control method for an image pickup apparatus, which comprises a step of calculating a correlation value with a signal and calculating an image shift amount or a defocus amount.
JP2018021606A 2018-02-09 2018-02-09 Image pickup device and its control method Active JP7019442B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018021606A JP7019442B2 (en) 2018-02-09 2018-02-09 Image pickup device and its control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018021606A JP7019442B2 (en) 2018-02-09 2018-02-09 Image pickup device and its control method

Publications (2)

Publication Number Publication Date
JP2019139043A JP2019139043A (en) 2019-08-22
JP7019442B2 true JP7019442B2 (en) 2022-02-15

Family

ID=67694340

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018021606A Active JP7019442B2 (en) 2018-02-09 2018-02-09 Image pickup device and its control method

Country Status (1)

Country Link
JP (1) JP7019442B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001083407A (en) 1999-09-13 2001-03-30 Canon Inc Image pickup device
JP2011044813A (en) 2009-08-19 2011-03-03 Sumitomo Electric Ind Ltd Imaging apparatus, correction value calculation method, and imaging method
US20110261207A1 (en) 2010-04-23 2011-10-27 Flir Systems Ab Infrared resolution and contrast enhancement with fusion
JP2017142484A (en) 2016-02-09 2017-08-17 キヤノン株式会社 Imaging device, controlling method of the same, program and storage medium
JP2017219788A (en) 2016-06-10 2017-12-14 キヤノン株式会社 Control device, imaging device, control method, program, and storage medium
JP2018005161A (en) 2016-07-08 2018-01-11 キヤノン株式会社 Control device, image capturing device, control method, program, and storage medium
JP2018019139A (en) 2016-07-25 2018-02-01 キヤノン株式会社 Imaging device and control method of imaging device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001083407A (en) 1999-09-13 2001-03-30 Canon Inc Image pickup device
JP2011044813A (en) 2009-08-19 2011-03-03 Sumitomo Electric Ind Ltd Imaging apparatus, correction value calculation method, and imaging method
US20110261207A1 (en) 2010-04-23 2011-10-27 Flir Systems Ab Infrared resolution and contrast enhancement with fusion
JP2017142484A (en) 2016-02-09 2017-08-17 キヤノン株式会社 Imaging device, controlling method of the same, program and storage medium
JP2017219788A (en) 2016-06-10 2017-12-14 キヤノン株式会社 Control device, imaging device, control method, program, and storage medium
JP2018005161A (en) 2016-07-08 2018-01-11 キヤノン株式会社 Control device, image capturing device, control method, program, and storage medium
JP2018019139A (en) 2016-07-25 2018-02-01 キヤノン株式会社 Imaging device and control method of imaging device

Also Published As

Publication number Publication date
JP2019139043A (en) 2019-08-22

Similar Documents

Publication Publication Date Title
US9742984B2 (en) Image capturing apparatus and method of controlling the same
JP5361535B2 (en) Imaging device
US8730373B2 (en) Image forming apparatus
JP5917207B2 (en) Focus adjustment device
US9407813B2 (en) Image capturing apparatus, control method of image capturing apparatus, and image capturing system
US9485409B2 (en) Image capturing apparatus and control method therefor
JP4858179B2 (en) Focus detection apparatus and imaging apparatus
US10362214B2 (en) Control apparatus, image capturing apparatus, control method, and non-transitory computer-readable storage medium
JP6642628B2 (en) Imaging device and imaging device
JP5381646B2 (en) Imaging device
JP6854619B2 (en) Focus detection device and method, imaging device, lens unit and imaging system
JP6890937B2 (en) Focus detector, image pickup device, and focus detection method
US20200092489A1 (en) Optical apparatus, control method, and non-transitory computer-readable storage medium
JP7019442B2 (en) Image pickup device and its control method
JP2012118154A (en) Imaging device
KR20170015158A (en) Control apparatus, image pickup apparatus, and control method
JP2016071275A (en) Image-capturing device and focus control program
JP2014206601A (en) Imaging apparatus and focus adjustment method
JP6349624B2 (en) Image sensor and focus detection apparatus
JP6686191B2 (en) Focus detection device, imaging device, and focus detection method
JP5737356B2 (en) Focus adjustment device and camera
JP6234097B2 (en) Imaging apparatus and control method thereof
JP6541477B2 (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
JP2020003686A (en) Focus detection device, imaging apparatus, and interchangeable lens device
JP2015102840A (en) Focus detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220202

R151 Written notification of patent or utility model registration

Ref document number: 7019442

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151