JP6794185B2 - Focus detector - Google Patents

Focus detector Download PDF

Info

Publication number
JP6794185B2
JP6794185B2 JP2016169613A JP2016169613A JP6794185B2 JP 6794185 B2 JP6794185 B2 JP 6794185B2 JP 2016169613 A JP2016169613 A JP 2016169613A JP 2016169613 A JP2016169613 A JP 2016169613A JP 6794185 B2 JP6794185 B2 JP 6794185B2
Authority
JP
Japan
Prior art keywords
amount
signal
image
focus detection
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016169613A
Other languages
Japanese (ja)
Other versions
JP2018036510A (en
Inventor
隼 中村
隼 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016169613A priority Critical patent/JP6794185B2/en
Publication of JP2018036510A publication Critical patent/JP2018036510A/en
Application granted granted Critical
Publication of JP6794185B2 publication Critical patent/JP6794185B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、焦点検出装置に関し、特に位相差検出方式による焦点検出を行う焦点検出装置に関する。 The present invention relates to a focus detection device, and more particularly to a focus detection device that performs focus detection by a phase difference detection method.

被写体に対して撮像レンズの焦点検出を自動で行うオートフォーカス(AF)制御において、苦手被写体の一つとして被写体内に明るい領域(飽和領域)を含んでいる場合が挙げられる。これは、被写体を撮像するための撮像素子から焦点検出用の信号を取得する方式(撮像面位相差検出方式)の場合に、飽和領域からは正確な信号の取得が困難であるためである。この苦手被写体に対して特許文献1では、複数走査ラインの位相差検出結果を加算して焦点検出制御する場合に、各走査ラインが飽和しているかどうかを判断し、飽和している走査ラインは加算対象としないように制御し飽和領域による影響を低減している。 In the autofocus (AF) control that automatically detects the focus of the imaging lens on the subject, one of the weak subjects is a case where the subject includes a bright region (saturation region). This is because it is difficult to acquire an accurate signal from the saturated region in the case of a method of acquiring a focus detection signal from an image sensor for photographing a subject (imaging surface phase difference detection method). For this weak subject, in Patent Document 1, when the phase difference detection results of a plurality of scanning lines are added and focus detection control is performed, it is determined whether or not each scanning line is saturated, and the saturated scanning line is determined. The influence of the saturation region is reduced by controlling so that it is not added.

特開2014−215606号公報Japanese Unexamined Patent Publication No. 2014-215606

しかしながら、特許文献1にて開示された方法のように、各走査ラインの飽和を検出する際に、多くの走査ラインにおいて飽和を検出した場合には十分な精度の位相差検出結果を得ることができない問題があった。 However, as in the method disclosed in Patent Document 1, when the saturation of each scanning line is detected, if the saturation is detected in many scanning lines, it is possible to obtain a phase difference detection result with sufficient accuracy. There was a problem that I couldn't do.

本発明はこのような従来技術の課題に鑑みなされたものであり、撮像面位相差検出方式を用いた焦点検出制御において、飽和領域に対する好適な焦点検出が可能な焦点検出装置を提供することを目的とする。 The present invention has been made in view of such problems of the prior art, and provides a focus detection device capable of suitable focus detection for a saturated region in focus detection control using an imaging surface phase difference detection method. The purpose.

上記目的を達成するための本発明の焦点検出装置は、マイクロレンズに対して複数の光電変換部を有する撮像素子から取得される複数の像信号を用いて、被写体を撮像するための撮像レンズの焦点検出を行う焦点検出装置であって、前記撮像レンズからの入射光量に基づく前記複数の像信号を用いて複数の焦点検出信号を生成する生成手段と、前記複数の焦点検出信号の相関量を検出する相関量検出手段と、前記相関量に基づいて前記撮像レンズの焦点検出を行う焦点検出手段と、前記複数の像信号のうち少なくとも一つの像信号が飽和レベルに達しているか否かを判定する判定手段と、前記判定手段の判定結果に基づいて前記像信号の信号レベルを所定のレベルにクリップするクリップ手段と、前記複数の光電変換部ごとの前記入射光量の差に基づく前記像信号の差を所定の調整パラメータを用いて調整する調整手段と、を有し、前記調整手段は像高判定手段の判定結果に基づいて前記像信号の差を調整するための前記所定の調整パラメータを制御し、前記クリップ手段は前記保持手段に保持された前記調整パラメータに応じて前記所定のレベルを前記光電変換部ごとに制御するよう構成したことを特徴とする。 The focus detection device of the present invention for achieving the above object is an imaging lens for imaging a subject by using a plurality of image signals acquired from an imaging element having a plurality of photoelectric conversion units for the microlens. A focus detection device that performs focus detection, and a generation means that generates a plurality of focus detection signals using the plurality of image signals based on the amount of incident light from the imaging lens, and a correlation amount of the plurality of focus detection signals. It is determined whether or not at least one of the plurality of image signals has reached the saturation level, the correlation amount detecting means for detecting, the focus detecting means for detecting the focus of the imaging lens based on the correlation amount. The image signal based on the difference in the amount of incident light for each of the plurality of photoelectric conversion units, and the determination means for clipping the signal level of the image signal to a predetermined level based on the determination result of the determination means. The adjusting means has an adjusting means for adjusting the difference between the above and the above using a predetermined adjusting parameter, and the adjusting means adjusts the difference of the image signal based on the determination result of the image height determining means. It is characterized in that the clipping means is configured to control the predetermined level for each photoelectric conversion unit according to the adjustment parameter held by the holding means.

本発明によれば、撮像面位相差検出方式を用いた焦点検出制御において、飽和領域に対する好適な焦点検出が可能な焦点検出装置を提供することが可能となる。 According to the present invention, it is possible to provide a focus detection device capable of suitable focus detection for a saturated region in focus detection control using an imaging surface phase difference detection method.

本発明に係る撮像システムの構成を示すブロック図である。It is a block diagram which shows the structure of the image pickup system which concerns on this invention. 撮像素子の画素配列を示す図である。It is a figure which shows the pixel arrangement of an image sensor. 本発明に係る撮像処理を示すフローチャートである。It is a flowchart which shows the imaging process which concerns on this invention. 本発明に係る静止画撮像処理を示すフローチャートである。It is a flowchart which shows the still image imaging process which concerns on this invention. 本発明に係る飽和レベル設定処理を示すフローチャートである。It is a flowchart which shows the saturation level setting process which concerns on this invention. 本発明に係る焦点状態検出処理を示すフローチャートである。It is a flowchart which shows the focus state detection process which concerns on this invention. 焦点検出処理で用いられるAF領域を示す図である。It is a figure which shows the AF area used in the focus detection process. AF領域から得られる一対の像信号を示す図である。It is a figure which shows the pair of image signals obtained from the AF area. 一対の像信号のシフト量と相関量との関係を示す図である。It is a figure which shows the relationship between the shift amount and the correlation amount of a pair of image signals. 一対の像信号のシフト量と相関変化量との関係を示す図である。It is a figure which shows the relationship between the shift amount of a pair of image signals, and the correlation change amount. 本発明に係る焦点検出処理を示すフローチャートである。It is a flowchart which shows the focus detection process which concerns on this invention. 像信号を生成する処理を示す図である。It is a figure which shows the process of generating an image signal. 入射光量差補正を示す図である。It is a figure which shows the incident light amount difference correction. 一対の像信号に入射光量差補正をかけた場合を示す図である。It is a figure which shows the case where the incident light amount difference correction is applied to a pair of image signals. 一対の像信号に入射光量差補正をかけた場合を示す図である。It is a figure which shows the case where the incident light amount difference correction is applied to a pair of image signals. 第2の実施形態に係る飽和レベル設定処理を示すフローチャートである。It is a flowchart which shows the saturation level setting process which concerns on 2nd Embodiment. 入射光量差補正をかけない場合を示す図である。It is a figure which shows the case where the incident light amount difference correction is not applied. 第3の実施形態に係る撮像システムの構成を示すブロック図である。It is a block diagram which shows the structure of the image pickup system which concerns on 3rd Embodiment. 第3の実施形態に係る静止画撮像処理を示すフローチャートである。It is a flowchart which shows the still image imaging process which concerns on 3rd Embodiment. 第3の実施形態に係る飽和領域判定値設定処理を示すフローチャートである。It is a flowchart which shows the saturation region determination value setting process which concerns on 3rd Embodiment. 第3の実施形態に係る焦点状態検出処理を示すフローチャートである。It is a flowchart which shows the focus state detection process which concerns on 3rd Embodiment. 第3の実施形態に係る画素間引き量/バンドパスフィルタ設定処理を示すフローチャートである。It is a flowchart which shows the pixel thinning-out amount / bandpass filter setting process which concerns on 3rd Embodiment. 第3の実施形態に係る相関量加算判定処理を示すフローチャートである。It is a flowchart which shows the correlation amount addition determination process which concerns on 3rd Embodiment. 一対の像信号に入射光量差補正をかけた場合を示す図である。It is a figure which shows the case where the incident light amount difference correction is applied to a pair of image signals.

以下、添付図面を参照して本発明を実施するための形態を詳細に説明する。ただし、本形態において例示される構成要素の寸法、材質、形状、それらの相対配置などは、本発明が適用される装置の構成や各種条件により適宜変更が可能であり、本発明がそれらの例示に限定されるものではない。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. However, the dimensions, materials, shapes, relative arrangements, and the like of the components exemplified in the present invention can be appropriately changed depending on the configuration of the apparatus to which the present invention is applied and various conditions, and the present invention exemplifies them. It is not limited to.

(第1の実施形態)
図1は、本発明の第1の実施形態に係る撮像装置の一例として、レンズ交換式のカメラシステムの機能構成例を示すブロック図である。
(First Embodiment)
FIG. 1 is a block diagram showing a functional configuration example of an interchangeable lens type camera system as an example of the image pickup apparatus according to the first embodiment of the present invention.

本実施形態の撮像装置は交換可能なレンズユニット10及びカメラ本体20から構成されている。レンズユニット10全体の動作を統括制御するレンズ制御部106と、レンズユニット10を含めたカメラシステム全体の動作を統括するカメラ制御部214とは、不図示のレンズマウントに設けられた端子を通じて相互に通信可能である。なお、本実施形態のレンズマウントにおいて、レンズ制御部106とカメラ制御部214の通信は端子(電気的接点)を介して行われるが、これに限られるものではない。例えば少なくとも一部の通信に関しては無線通信によって行われてもよいし、レンズマウント以外にも端子を設ける構成として外部機器と制御命令等を通信するようにしてもよい。 The imaging device of this embodiment is composed of an interchangeable lens unit 10 and a camera body 20. The lens control unit 106 that controls the operation of the entire lens unit 10 and the camera control unit 214 that controls the operation of the entire camera system including the lens unit 10 mutually control each other through terminals provided on a lens mount (not shown). Communication is possible. In the lens mount of the present embodiment, communication between the lens control unit 106 and the camera control unit 214 is performed via terminals (electrical contacts), but the present invention is not limited to this. For example, at least a part of the communication may be performed by wireless communication, or a control command or the like may be communicated with an external device by providing a terminal other than the lens mount.

まず、レンズユニット10の構成について説明する。固定レンズ101、絞り102、フォーカスレンズ103等は撮像光学系を構成する。絞り102は、絞り駆動部104により駆動され、後述する撮像素子201への入射光量を制御する。フォーカスレンズ103はフォーカスレンズ駆動部105によって駆動され、フォーカスレンズ103の位置に応じて撮像光学系の合焦距離が変化する。絞り駆動部104、フォーカスレンズ駆動部105はレンズ制御部106によって制御され、絞り102の開口量や、フォーカスレンズ103の位置を決定する。 First, the configuration of the lens unit 10 will be described. The fixed lens 101, the aperture 102, the focus lens 103, and the like constitute an imaging optical system. The diaphragm 102 is driven by the diaphragm drive unit 104 and controls the amount of light incident on the image sensor 201, which will be described later. The focus lens 103 is driven by the focus lens driving unit 105, and the focusing distance of the imaging optical system changes according to the position of the focus lens 103. The aperture drive unit 104 and the focus lens drive unit 105 are controlled by the lens control unit 106 to determine the aperture amount of the aperture 102 and the position of the focus lens 103.

レンズ操作部107は、AF(オートフォーカス)/MF(マニュアルフォーカス)モードの切り替え、MFモード時のフォーカスレンズ103の位置調整、など、ユーザがレンズユニット10の動作に関する設定を行うための入力デバイス群である。レンズ操作部107が操作された場合、レンズ制御部106が操作に応じた制御を行う。なお、レンズ操作部107はトグルスイッチやタッチパネル等の入力機器のみではなく、現在のフォーカスレンズ103の位置等のレンズ状態や各種設定情報等を表示する表示部を備えるようにしてもよい。 The lens operation unit 107 is a group of input devices for the user to make settings related to the operation of the lens unit 10, such as switching between AF (autofocus) / MF (manual focus) modes and adjusting the position of the focus lens 103 in the MF mode. Is. When the lens operation unit 107 is operated, the lens control unit 106 performs control according to the operation. The lens operation unit 107 may include not only an input device such as a toggle switch or a touch panel, but also a display unit that displays a lens state such as the current position of the focus lens 103 and various setting information.

レンズ制御部106は、後述するカメラ制御部214から受信した制御命令や制御情報に応じて絞り駆動部104やフォーカスレンズ駆動部105を制御する。また、レンズ制御情報をカメラ制御部214に対して送信する。 The lens control unit 106 controls the aperture drive unit 104 and the focus lens drive unit 105 according to control commands and control information received from the camera control unit 214, which will be described later. Further, the lens control information is transmitted to the camera control unit 214.

次に、カメラ本体20の構成について説明する。カメラ本体20はレンズユニット10の撮像光学系を通過した光束から撮像信号を取得できるように構成されている。 Next, the configuration of the camera body 20 will be described. The camera body 20 is configured to be able to acquire an imaging signal from a luminous flux that has passed through the imaging optical system of the lens unit 10.

撮像素子201はCCDやCMOSセンサにより構成される。レンズユニット10の撮像光学系から入射した光束は撮像素子201の受光面上に結像し、撮像素子201に水平および垂直に二次元的に配列された画素に設けられたフォトダイオードにより、入射光量に応じた信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、カメラ制御部214の指令に従ってタイミングジェネレータ216が出力する駆動パルスより、信号電荷に応じた電圧信号として撮像素子201から順次読み出される。なお、本実施形態において、フォトダイオードは光電変換部に相当する。そのため、光電変換膜として有機又は無機の光電変換膜等を用いた場合においても、同様の効果を得ることができる。 The image sensor 201 is composed of a CCD or CMOS sensor. The luminous flux incident from the image pickup optical system of the lens unit 10 is imaged on the light receiving surface of the image pickup element 201, and the amount of incident light is generated by the photodiodes provided in the pixels two-dimensionally arranged horizontally and vertically on the image pickup element 201. It is converted into a signal charge according to. The signal charge accumulated in each photodiode is sequentially read from the image sensor 201 as a voltage signal corresponding to the signal charge from the drive pulse output by the timing generator 216 according to the command of the camera control unit 214. In this embodiment, the photodiode corresponds to the photoelectric conversion unit. Therefore, the same effect can be obtained even when an organic or inorganic photoelectric conversion film or the like is used as the photoelectric conversion film.

本実施形態で用いられる撮像素子201の各画素は、2つ(一対)のフォトダイオードA,Bとこれら一対のフォトダイオードA,Bに対して設けられた1つのマイクロレンズとより構成されている。各画素には、レンズユニット10より入射する光をマイクロレンズで分割して一対のフォトダイオードA,Bにおいて、一対の光学像が形成される。そして、フォトダイオードA,Bから後述する焦点検出信号に用いられる一対の画素信号(A信号およびB信号)が生成される。また、一対のフォトダイオードA,Bの出力を加算することで、撮像用信号(A+B信号)も得ることができる。本発明の実施形態では、撮像素子201は出力信号として撮像用信号(A+B信号)と焦点検出信号(A信号)の2種類を出力する構成とする。撮像素子201から撮像用信号(A+B信号)及び焦点検出信号(A信号およびB信号)の3種類を全て出力しないのは、出力負荷を軽減しできるだけ早く読み出すようにする為である。焦点検出信号(B信号)は撮像用信号(A+B信号)から焦点検出信号(A信号)を減算することによって生成する構成とする。なお、焦点検出信号(B信号)の生成は、後述する飽和レベルクリップ部/B信号生成部204によって行う。また、本実施形態においては、撮像素子201は2つのフォトダイオードを有する構成としたが、2つ以上のフォトダイオードを有する構成としてもよい。 Each pixel of the image sensor 201 used in the present embodiment is composed of two (pair) photodiodes A and B and one microlens provided for the pair of photodiodes A and B. .. In each pixel, the light incident from the lens unit 10 is divided by a microlens to form a pair of optical images in the pair of photodiodes A and B. Then, a pair of pixel signals (A signal and B signal) used for the focus detection signal described later are generated from the photodiodes A and B. Further, by adding the outputs of the pair of photodiodes A and B, an imaging signal (A + B signal) can also be obtained. In the embodiment of the present invention, the image sensor 201 is configured to output two types of output signals, an image pickup signal (A + B signal) and a focus detection signal (A signal). The reason why all three types of the image pickup signal (A + B signal) and the focus detection signal (A signal and B signal) are not output from the image sensor 201 is to reduce the output load and read out as soon as possible. The focus detection signal (B signal) is generated by subtracting the focus detection signal (A signal) from the imaging signal (A + B signal). The focus detection signal (B signal) is generated by the saturation level clip unit / B signal generation unit 204, which will be described later. Further, in the present embodiment, the image sensor 201 has a configuration having two photodiodes, but may have a configuration having two or more photodiodes.

ここで、図2を用いて撮像素子201の画素構成に関して詳細に説明する。図2(a)には従来の撮像面位相差検出に対応していない画素構成を、図2(b)は撮像面位相差検出に対応している撮像素子201の画素構成を示している。いずれの図においても、ベイヤー配列のカラーフィルタが用いられており、Rは赤のカラーフィルタを、Bは青のカラーフィルタを、Gr,Gbは緑のカラーフィルタを示している。図2(b)に示す画素構成には、図2(a)に示した従来の画素構成における1画素(実線で囲んで示す)に相当する画素内に、水平方向に2分割された2つのフォトダイオードA,Bが設けられている。なお、図2(b)に示した画素の分割方法は例に過ぎず、図の垂直方向に分割したりしてもよいし、2分割以上に分割する構成としてもよい。また、同じ撮像素子内において互いに異なる分割方法で分割された複数種類の画素が含まれてもよい。 Here, the pixel configuration of the image pickup device 201 will be described in detail with reference to FIG. FIG. 2A shows a pixel configuration that does not support conventional imaging surface phase difference detection, and FIG. 2B shows a pixel configuration of the image sensor 201 that supports imaging surface phase difference detection. In each of the figures, Bayer color filters are used, where R indicates a red color filter, B indicates a blue color filter, and Gr and Gb indicate a green color filter. The pixel configuration shown in FIG. 2 (b) includes two pixels that are horizontally divided into two in a pixel corresponding to one pixel (shown by a solid line) in the conventional pixel configuration shown in FIG. 2 (a). Photodiodes A and B are provided. The pixel division method shown in FIG. 2B is merely an example, and the pixel may be divided in the vertical direction of the figure, or may be divided into two or more. Further, a plurality of types of pixels divided by different division methods in the same image sensor may be included.

CDS/AGC/ADコンバータ202は、撮像素子201から読み出された焦点検出信号および撮像用信号に対して、リセットノイズを除去するための相関二重サンプリング、ゲイン調節およびAD変換を行う。該ADコンバータ202は、これらの処理を行った撮像用信号および焦点検出信号をそれぞれ、画像入力コントローラ203およびAF信号処理部206に出力する。なお、CDS/AGC/ADコンバータ202及びタイミングジェネレータ216等の一部又は全部を撮像素子201に含まれる構成としてもよい。 The CDS / AGC / AD converter 202 performs correlated double sampling, gain adjustment, and AD conversion on the focus detection signal and the image pickup signal read from the image sensor 201 to remove reset noise. The AD converter 202 outputs the image pickup signal and the focus detection signal that have undergone these processes to the image input controller 203 and the AF signal processing unit 206, respectively. A part or all of the CDS / AGC / AD converter 202, the timing generator 216, and the like may be included in the image sensor 201.

画像入力コントローラ203は、CDS/AGC/ADコンバータ202から出力された撮像用信号を、バス21を介してSDRAM211に画像信号として格納する。SDRAM211に格納された画像信号は、バス21を介して表示制御部207によって読み出され、表示部208に表示される。また、画像信号の記録を行う録画モードでは、SDRAM211に格納された画像信号は記録媒体制御部209によって半導体メモリ等の記録媒体210に記録される。 The image input controller 203 stores the imaging signal output from the CDS / AGC / AD converter 202 in the SDRAM 211 as an image signal via the bus 21. The image signal stored in the SDRAM 211 is read by the display control unit 207 via the bus 21 and displayed on the display unit 208. Further, in the recording mode in which the image signal is recorded, the image signal stored in the SDRAM 211 is recorded in the recording medium 210 such as a semiconductor memory by the recording medium control unit 209.

ROM212には、カメラ制御部214が実行する制御プログラムや処理プログラムおよびこれらの実行に必要な各種データ等が格納されている。フラッシュROM213には、ユーザにより設定されたカメラ本体20の動作に関する各種設定情報等が格納されている。 The ROM 212 stores control programs and processing programs executed by the camera control unit 214, various data necessary for their execution, and the like. The flash ROM 213 stores various setting information and the like related to the operation of the camera body 20 set by the user.

飽和レベルクリップ部/B信号生成部204は、CDS/AGC/ADコンバータ202から出力された焦点検出信号であるA信号に対して、設定した一定の信号レベル(飽和閾値)と比較する。これは、焦点検出信号のレベルが飽和に達している場合には後述する相関演算精度が低下してしまうためである。そのため、焦点検出信号において、飽和閾値を超えた信号においては、飽和レベルでクリップする処理(クリップ処理)を行う。さらに、CDS/AGC/ADコンバータ202から出力された撮像信号(A+B信号)と、飽和レベルでクリップ処理をしたA信号の差をとることでB信号を生成する。 The saturation level clip unit / B signal generation unit 204 compares the A signal, which is the focus detection signal output from the CDS / AGC / AD converter 202, with a set constant signal level (saturation threshold value). This is because when the level of the focus detection signal has reached saturation, the accuracy of the correlation calculation described later is lowered. Therefore, in the focus detection signal, if the signal exceeds the saturation threshold value, a process of clipping at the saturation level (clip process) is performed. Further, the B signal is generated by taking the difference between the imaging signal (A + B signal) output from the CDS / AGC / AD converter 202 and the A signal clipped at the saturation level.

このように撮像信号(A+B信号)とA信号の差から、飽和を考慮してB信号を生成する理由について図12を用いて詳細に説明する。図12は横軸に水平の画素位置をとり、縦軸に各画素からの出力値をプロットしたものである。そして、クリップ処理を行わずにB信号を生成した場合を図12(a)に示す。ここでは、A+B信号がセンサ飽和レベルに突き当たり、且つA信号もセンサ飽和レベルに突き当たるようなケースの場合を想定する(図12(a)左図)。図12(a)左図に示すように、A+B信号とA信号の両方が飽和レベルに達している場合に、両信号の差は非常に小さくなる。そのため、B信号を算出すると図12(a)右図のように、A信号が飽和レベルに達している領域において、B信号の形状がへこむように崩れてしまう。これによって、後述する相関演算によりA信号とB信号の相関がとれなくなってしまい、像ずれ量及びデフォーカス量が検知できなくなる。 The reason why the B signal is generated in consideration of saturation from the difference between the imaging signal (A + B signal) and the A signal will be described in detail with reference to FIG. In FIG. 12, the horizontal axis is the horizontal pixel position, and the vertical axis is the plot of the output value from each pixel. Then, the case where the B signal is generated without performing the clip processing is shown in FIG. 12 (a). Here, it is assumed that the A + B signal hits the sensor saturation level and the A signal also hits the sensor saturation level (FIG. 12 (a) left). As shown in the left figure of FIG. 12A, when both the A + B signal and the A signal have reached the saturation level, the difference between the two signals becomes very small. Therefore, when the B signal is calculated, the shape of the B signal is dented and collapsed in the region where the A signal reaches the saturation level, as shown in the right figure of FIG. 12A. As a result, the correlation between the A signal and the B signal cannot be obtained by the correlation calculation described later, and the image shift amount and the defocus amount cannot be detected.

一方で、クリップ処理を行う場合を図12(b)に示す。A+B信号、A信号が図12(a)左図と同様の信号レベルだった場合に、図12(b)左図に示すように、A信号を飽和レベルの半分でクリップするように、飽和閾値を設定する。そのため、図12(b)左図のA信号のように飽和レベルの半分がA信号の最大値になる。この状態でB信号を算出することで、B信号の形状がへこむように崩れる現象を抑制することが可能となる。また、後述する相関演算によりA信号とB信号の相関をとることができ、像ずれ量及びデフォーカス量を適切に検知することができる。 On the other hand, the case where the clip processing is performed is shown in FIG. 12 (b). When the A + B signal and the A signal have the same signal level as in the left figure of FIG. 12 (a), the saturation threshold value is such that the A signal is clipped at half the saturation level as shown in the left figure of FIG. 12 (b). To set. Therefore, half of the saturation level becomes the maximum value of the A signal as shown in the A signal in the left figure of FIG. 12B. By calculating the B signal in this state, it is possible to suppress the phenomenon that the shape of the B signal collapses like a dent. Further, the A signal and the B signal can be correlated by the correlation calculation described later, and the image shift amount and the defocus amount can be appropriately detected.

なお、焦点検出信号であるA信号及びB信号に対しては、後述する光量差補正部205、AF信号処理部206にて更に処理を行う。また、飽和レベルクリップ部/B信号生成部204における本発明の特徴的な動作として、画素ごとの入射光量差情報に基づいて一対の像信号の画素ごとの飽和レベルを後述するカメラ制御部214から設定し、画素ごとに飽和レベルを変更する。なお、本特徴部分に関しては後ほど詳述する。 The A signal and the B signal, which are the focus detection signals, are further processed by the light amount difference correction unit 205 and the AF signal processing unit 206, which will be described later. Further, as a characteristic operation of the present invention in the saturation level clip unit / B signal generation unit 204, the saturation level of a pair of image signals for each pixel is determined from the camera control unit 214, which will be described later, based on the incident light amount difference information for each pixel. Set and change the saturation level for each pixel. This feature will be described in detail later.

光量差補正部205は飽和レベルクリップ部/B信号生成部204より入力されたA信号及びB信号に対して、入射光量差情報を基に算出した信号レベルの補正係数を掛けることで信号レベルの補正を行う。これは、図13に示すように各信号が出力される画素の位置(画素位置)に依存して発生する入射光量差を均一にするように、信号レベルの補正を行うものである。図13(a)左図は画面中央付近におけるA信号とB信号において、縦軸に信号レベルを、横軸に水平の画素位置をとって示したものである。図13(a)中図は画面中央付近における入射光量差を補正するための入射光量差補正係数を示したものである。図13(a)右図は図13(a)左図に示したA信号とB信号のそれぞれを、図13(a)中図に示した入射光量差補正係数を用いて補正した後のA信号とB信号の信号レベルを示したものである。また、図13(b)の各図は図13(a)の各図に対して画面右側(画面周辺)領域に対応するA信号とB信号等を示したものである。 The light amount difference correction unit 205 multiplies the A signal and B signal input from the saturation level clip unit / B signal generation unit 204 by the signal level correction coefficient calculated based on the incident light amount difference information to obtain the signal level. Make corrections. As shown in FIG. 13, the signal level is corrected so as to make the difference in the amount of incident light generated depending on the position (pixel position) of the pixel to which each signal is output uniform. The left figure of FIG. 13A shows the A signal and the B signal near the center of the screen, with the signal level on the vertical axis and the horizontal pixel position on the horizontal axis. The middle figure of FIG. 13A shows the incident light amount difference correction coefficient for correcting the incident light amount difference near the center of the screen. The right figure of FIG. 13 (a) shows A after each of the A signal and the B signal shown in the left figure of FIG. 13 (a) is corrected by using the incident light amount difference correction coefficient shown in the middle figure of FIG. 13 (a). It shows the signal levels of the signal and the B signal. Further, each figure of FIG. 13B shows an A signal, a B signal, and the like corresponding to the area on the right side (periphery of the screen) of the screen with respect to each figure of FIG. 13A.

図13(a)左図及び図13(b)左図に示したように、入射光量の差により、信号のレベル差や傾きの差が発生している場合には、後述する相関演算精度が低下してしまう。これにより、相関量を算出する相関演算の誤差が大きくなってしまうと、像ずれ量の誤差が大きくなり、即ち焦点検出の精度が低下してしまう。光量差補正部205はこのような信号のレベル差や傾き差起因による相関量の誤差が大きくなる影響を軽減するために、入射光量差情報を基に信号のレベル差や傾き差を補正する。なお、入射光量差情報、即ち入射光量差補正係数は、レンズの絞り情報や射出瞳距離情報、また図13(a)、(b)で異なるように画面内(像高毎)のAF枠位置情報などに基づいて、事前に算出したデータをROM212に保持しておく。そして、カメラ本体20の動作状態に応じて後述するカメラ制御部214が動作状態に適した設定を行う。なお、入射光量差補正係数または補正係数を算出するためのパラメータの一部をレンズユニット10側のメモリ等に保存しておいてもよい。この場合、レンズ装着時において、メモリに保存されたパラメータ等をカメラ本体20が取得することとなる。 As shown in the left figure of FIG. 13 (a) and the left figure of FIG. 13 (b), when a difference in signal level or a difference in slope occurs due to a difference in the amount of incident light, the correlation calculation accuracy described later is improved. It will drop. As a result, if the error of the correlation calculation for calculating the correlation amount becomes large, the error of the image shift amount becomes large, that is, the accuracy of the focus detection is lowered. The light amount difference correction unit 205 corrects the signal level difference and the inclination difference based on the incident light amount difference information in order to reduce the influence of the large error of the correlation amount due to the signal level difference and the inclination difference. The incident light amount difference information, that is, the incident light amount difference correction coefficient, is different in the aperture information of the lens, the exit pupil distance information, and FIGS. 13 (a) and 13 (b), and the AF frame position in the screen (for each image height). The data calculated in advance based on the information or the like is stored in the ROM 212. Then, the camera control unit 214, which will be described later, makes settings suitable for the operating state according to the operating state of the camera body 20. It should be noted that a part of the parameters for calculating the incident light amount difference correction coefficient or the correction coefficient may be stored in a memory or the like on the lens unit 10 side. In this case, the camera body 20 acquires the parameters and the like stored in the memory when the lens is attached.

AF信号処理部206は、各像信号に対して相関演算を行い、各像信号の像ずれ量や信頼性を算出する。信頼性は、後述する2像一致度や相関変化量の急峻度を用いて算出される。AF信号処理部206は、AF領域で算出した像ずれ量(検出量)および信頼性の情報をカメラ制御部214に出力する。本実施形態において、AF信号処理部206は焦点検出信号の相関量を検出するための相関量検出部に相当する。 The AF signal processing unit 206 performs a correlation calculation on each image signal and calculates the amount of image shift and the reliability of each image signal. The reliability is calculated by using the two-image coincidence and the steepness of the correlation change amount, which will be described later. The AF signal processing unit 206 outputs the image shift amount (detection amount) and reliability information calculated in the AF region to the camera control unit 214. In the present embodiment, the AF signal processing unit 206 corresponds to the correlation amount detection unit for detecting the correlation amount of the focus detection signal.

カメラ制御部214は、カメラ本体20内の各部やレンズ制御部106と情報をやり取りしながらこれらを制御する。カメラ制御部214は、AF信号処理部206が求めた像ずれ量、信頼性およびレンズユニット10とカメラ本体20の状態を示す情報に基づいて、必要に応じてAF信号処理部206の設定を変更する。例えば、AF信号処理部206に対して像ずれ量が所定量以上である場合には相関演算を行う領域を広く設定したり、一対の像信号のコントラストに応じてバンドパスフィルタの種類を変更したりする。また、先述したように、飽和レベルクリップ部/B信号生成部204に対して、画素ごとの飽和レベルを設定したり、光量差補正部205に像信号の光量差補正のパラメータを設定したりする。また、カメラ制御部214は、ユーザ操作に基づくカメラ操作部215からの入力に応じて、電源のON/OFF、各種設定の変更、撮像処理、焦点検出処理、記録画像の再生処理等、ユーザ操作に対応する様々な処理を実行する。さらに、カメラ制御部214は、レンズユニット10(レンズ制御部106)に対する制御命令やカメラ本体20の情報をレンズ制御部106に送信したり、レンズユニット10の情報をレンズ制御部106から取得したりする。カメラ制御部214は、マイクロコンピュータにより構成され、ROM212に記録されたコンピュータプログラムを実行することで、交換レンズ10を含むカメラシステム全体の制御を司る。 The camera control unit 214 controls each unit in the camera body 20 and the lens control unit 106 while exchanging information with each other. The camera control unit 214 changes the settings of the AF signal processing unit 206 as necessary based on the image shift amount, reliability, and information indicating the states of the lens unit 10 and the camera body 20 obtained by the AF signal processing unit 206. To do. For example, when the amount of image shift for the AF signal processing unit 206 is equal to or greater than a predetermined amount, a wide area for performing correlation calculation can be set, or the type of bandpass filter can be changed according to the contrast of a pair of image signals. Or something. Further, as described above, the saturation level of each pixel is set in the saturation level clip unit / B signal generation unit 204, and the light amount difference correction parameter of the image signal is set in the light amount difference correction unit 205. .. Further, the camera control unit 214 performs user operations such as power ON / OFF, change of various settings, imaging processing, focus detection processing, and recording image reproduction processing in response to input from the camera operation unit 215 based on user operation. Performs various processes corresponding to. Further, the camera control unit 214 transmits a control command to the lens unit 10 (lens control unit 106) and information on the camera body 20 to the lens control unit 106, and acquires information on the lens unit 10 from the lens control unit 106. To do. The camera control unit 214 is composed of a microcomputer, and controls the entire camera system including the interchangeable lens 10 by executing a computer program recorded in the ROM 212.

カメラ制御部214は、AF信号処理部206にて算出されたAF領域での像ずれ量を用いてデフォーカス量を算出し、該デフォーカス量に基づいてレンズ制御部106を通じてフォーカスレンズ103の駆動を制御する。 The camera control unit 214 calculates the defocus amount using the image shift amount in the AF region calculated by the AF signal processing unit 206, and drives the focus lens 103 through the lens control unit 106 based on the defocus amount. To control.

本発明の特徴である、飽和レベルクリップ部/B信号生成部204において、像信号に対して画素ごとにクリップを行う飽和レベルを変更することについて説明する。図12を用いて先述したように、A+B信号とA信号の差をとりB信号を生成するに当たって、設定した飽和レベルでA信号をクリップすることでB信号が崩れずに生成することができる。ここで、A信号及び生成したB信号に対して図13を用いて説明した光量差補正部205の処理を行った場合について図14を用いて説明する。図14が示す各信号は、図13と同様であるが、クリップ処理後の像信号に対して、入射光量差補正係数の適用を考慮してある。図13の右図に示すように飽和画素のクリップが発生した状態で入射光量差補正を行ってしまうと、入射光量差の補正係数の分、一対の像信号の形状が歪んでしまう。このように、飽和画素のクリップ処理後に入射光量差補正をすることで歪んだ一対の像信号で、後述する相関演算を行うと、像の形状差により像ずれ量の算出精度が低下し、像ずれ量を基に算出するデフォーカス量の誤差も大きくなる。 The saturation level clipping unit / B signal generation unit 204, which is a feature of the present invention, describes changing the saturation level for clipping the image signal for each pixel. As described above with reference to FIG. 12, when the difference between the A + B signal and the A signal is taken to generate the B signal, the B signal can be generated without breaking by clipping the A signal at the set saturation level. Here, a case where the processing of the light amount difference correction unit 205 described with reference to FIG. 13 is performed on the A signal and the generated B signal will be described with reference to FIG. Each signal shown in FIG. 14 is the same as in FIG. 13, but the application of the incident light amount difference correction coefficient to the image signal after the clip processing is taken into consideration. If the incident light amount difference correction is performed in a state where clips of saturated pixels are generated as shown in the right figure of FIG. 13, the shape of the pair of image signals is distorted by the correction coefficient of the incident light amount difference. In this way, when the correlation calculation described later is performed on a pair of image signals that are distorted by correcting the incident light amount difference after clipping the saturated pixels, the calculation accuracy of the image shift amount decreases due to the image shape difference, and the image The error of the defocus amount calculated based on the deviation amount also becomes large.

このような問題に対して、本発明は一対の像信号に対して画素ごとにクリップを行う飽和レベルを変更する。図15に示すように、一対の像信号が飽和画素を含んでいる場合でも、飽和画素のクリップ処理をして入射光量差補正を適用した後の信号レベルが均等になるようにするために、画素ごとにクリップする信号レベルを変更させる。これによって、図14に示した入射光量差補正後に一対の像信号が歪んで形状差が発生してしまう現象が発生しなくなり、算出するデフォーカス量の誤差も軽減し、飽和した被写体に対してもAF精度を向上させることができる。 To solve such a problem, the present invention changes the saturation level at which clipping is performed for each pixel for a pair of image signals. As shown in FIG. 15, even when the pair of image signals contains saturated pixels, in order to make the signal levels uniform after clipping the saturated pixels and applying the incident light amount difference correction. The signal level to be clipped is changed for each pixel. As a result, the phenomenon that the pair of image signals are distorted and a shape difference is generated after the incident light amount difference correction shown in FIG. 14 does not occur, the error of the calculated defocus amount is reduced, and the saturated subject is treated. AF accuracy can also be improved.

以下、カメラ本体20で行われる各処理について説明する。カメラ制御部214は、コンピュータプログラムである撮像処理プログラムに従って以下の処理を行う。 Hereinafter, each process performed by the camera body 20 will be described. The camera control unit 214 performs the following processing according to an imaging processing program which is a computer program.

図3はカメラ本体20の撮像処理の手順を示すフローチャートである。Sはステップを意味する。 FIG. 3 is a flowchart showing a procedure of imaging processing of the camera body 20. S means a step.

S301では、カメラ制御部214は、カメラ本体20に設定された各種設定等の初期化処理を行い、S302へ処理を進める。 In S301, the camera control unit 214 performs initialization processing such as various settings set in the camera body 20, and proceeds to S302.

S302では、カメラ制御部214は、カメラ本体20の撮像モードが動画撮像モードか静止画撮像モードか判定し、動画撮像モードである場合はS303へ、静止画撮像モードである場合はS304へ処理を進める。 In S302, the camera control unit 214 determines whether the image pickup mode of the camera body 20 is the moving image imaging mode or the still image capturing mode, and processes the camera body 20 to S303 if it is the moving image imaging mode or S304 if it is the still image capturing mode. Proceed.

S303では、カメラ制御部214は、動画撮像処理を行いS305へ処理を進める。 In S303, the camera control unit 214 performs moving image imaging processing and proceeds to S305.

S304では、カメラ制御部214は、静止画撮像処理を行いS305へ処理を進める。本実施形態では、動画撮像処理についての詳細は省略するが、後述する静止画撮像処理での発明の適用例と同様に適用が可能である。 In S304, the camera control unit 214 performs a still image imaging process and proceeds to S305. In the present embodiment, the details of the moving image imaging process are omitted, but the same can be applied as in the application example of the invention in the still image imaging process described later.

S305では、カメラ制御部214は、撮像処理が停止されたかどうかを判断し、停止されていない場合はS306へ処理を進め、停止された場合は撮像処理を終了する。撮像処理が停止されたときとは、例えばカメラ操作部215を通じてカメラ本体20の電源が切断されたときや、カメラ本体20のユーザ設定処理、撮像画像・動画の確認のための再生処理等、撮像以外の動作が行われたときである。 In S305, the camera control unit 214 determines whether or not the imaging process has been stopped, proceeds to S306 if it has not been stopped, and ends the imaging process if it is stopped. When the imaging process is stopped, for example, when the power of the camera body 20 is turned off through the camera operation unit 215, the user setting process of the camera body 20, the reproduction process for confirming the captured image / moving image, etc. When an operation other than is performed.

S306では、カメラ制御部214は、撮像モードが変更されたかどうかを判断する。変更された場合は、カメラ制御部214はS301に戻り、初期化処理を行った上で変更された撮像モードでの撮像処理を行う。一方、撮像モードが変更されていない場合は、カメラ制御部214はS302に戻り、現在の撮像モードでの処理を継続して行う。 In S306, the camera control unit 214 determines whether or not the imaging mode has been changed. When the change is made, the camera control unit 214 returns to S301, performs initialization processing, and then performs imaging processing in the changed imaging mode. On the other hand, if the imaging mode has not been changed, the camera control unit 214 returns to S302 and continues the processing in the current imaging mode.

次に、図3におけるS304で行われる静止画撮像処理について、図4のフローチャートを用いて説明する。 Next, the still image imaging process performed in S304 in FIG. 3 will be described with reference to the flowchart of FIG.

S401では、カメラ制御部214は、飽和レベルクリップ部/B信号生成部204に対して飽和レベルの設定を行いS402へ処理を進める。S401の飽和レベル設定処理は本発明の特徴的な部分であり、詳細は図5のフローチャートを用いて後述する。 In S401, the camera control unit 214 sets the saturation level for the saturation level clip unit / B signal generation unit 204, and proceeds to S402. The saturation level setting process of S401 is a characteristic part of the present invention, and details will be described later using the flowchart of FIG.

S402では、カメラ制御部214は、光量差補正部205に対して光量差補正値設定処理を行いS403へ処理を進める。S402の光量差補正値設定処理においては、図13を用いて説明したように、画素ごとの入射光量の差をなくして均一になるように像信号のレベルを調整する処理を行う。撮像面位相差検出方式では、像信号を結像する撮像素子201上の位置(像高)や、絞り102の状態や、撮像素子201と絞り102までの距離情報などの情報により、像信号の光量が変化する。各像信号の入射光量の差を補正し、一対の像信号のレベル差、傾き差をなくすことで焦点検出精度を向上させることができる。 In S402, the camera control unit 214 performs the light amount difference correction value setting process on the light amount difference correction unit 205, and proceeds to the process to S403. In the light amount difference correction value setting process of S402, as described with reference to FIG. 13, a process of adjusting the level of the image signal so as to eliminate the difference in the incident light amount for each pixel and make it uniform is performed. In the imaging surface phase difference detection method, the image signal is based on information such as the position (image height) on the image sensor 201 that forms an image signal, the state of the aperture 102, and the distance information between the image sensor 201 and the aperture 102. The amount of light changes. Focus detection accuracy can be improved by correcting the difference in the amount of incident light of each image signal and eliminating the level difference and tilt difference of the pair of image signals.

S403では、カメラ制御部214は、AF信号処理部206に焦点検出処理を行わせる。焦点検出処理は、デフォーカス量と信頼性の情報を取得する処理である。詳細については後述する。 In S403, the camera control unit 214 causes the AF signal processing unit 206 to perform the focus detection process. The focus detection process is a process for acquiring information on the amount of defocus and reliability. Details will be described later.

S404では、カメラ制御部214は、カメラ操作部215から焦点検出処理の開始指示(以下、AF指示という)が入力(オン)されたか否かを判定する。AF指示は、カメラ本体20に設けられたシャッターボタンが半押し操作された場合や、AFを実行させるAFONボタンが押された場合等にカメラ操作部215から入力される。カメラ制御部214は、AF指示が入力された場合はS405に進み、AF指示が入力されていない場合はS406に進む。 In S404, the camera control unit 214 determines whether or not a focus detection process start instruction (hereinafter, referred to as an AF instruction) has been input (on) from the camera operation unit 215. The AF instruction is input from the camera operation unit 215 when the shutter button provided on the camera body 20 is half-pressed, or when the AFON button for executing AF is pressed. The camera control unit 214 proceeds to S405 when the AF instruction is input, and proceeds to S406 when the AF instruction is not input.

S405では、カメラ制御部214は、焦点検出処理を行う。この焦点検出処理については後述する。 In S405, the camera control unit 214 performs the focus detection process. This focus detection process will be described later.

S406では、カメラ制御部214は、カメラ操作部215から撮像処理の開始指示(以下、撮像指示という)が入力(オン)されたか否かを判定する。撮像指示はシャッターボタンが全押し操作された場合等にカメラ操作部215から出力される。カメラ制御部214は、撮像指示が入力された場合はS407に進み、撮像指示が入力されていない場合はS409に進む。 In S406, the camera control unit 214 determines whether or not an imaging process start instruction (hereinafter referred to as an imaging instruction) has been input (on) from the camera operating unit 215. The imaging instruction is output from the camera operation unit 215 when the shutter button is fully pressed. The camera control unit 214 proceeds to S407 when an imaging instruction is input, and proceeds to S409 when an imaging instruction is not input.

S407では、カメラ制御部214は、S405での焦点検出処理によって現在、合焦停止状態にあるか否かを判定する。合焦停止状態とは、撮像光学系が合焦状態となってフォーカスレンズ103の駆動が停止した状態である。合焦停止状態でない場合は、カメラ制御部214はS405に進み、焦点検出処理を開始または継続することで合焦状態を得る。合焦停止状態である場合は、カメラ制御部214はS408に進み、撮像処理を行い、記録媒体制御部209を介して記録媒体210に撮像画像(記録画像)を保存してS409に進む。 In S407, the camera control unit 214 determines whether or not the focus is currently stopped by the focus detection process in S405. The focusing stop state is a state in which the imaging optical system is in the focusing state and the driving of the focus lens 103 is stopped. If it is not in the in-focus stop state, the camera control unit 214 proceeds to S405 and obtains the in-focus state by starting or continuing the focus detection process. When the focus is stopped, the camera control unit 214 proceeds to S408, performs imaging processing, stores the captured image (recorded image) on the recording medium 210 via the recording medium control unit 209, and proceeds to S409.

S409では、カメラ制御部214は、合焦停止状態を解除して静止画撮像処理を終了する。 In S409, the camera control unit 214 releases the focusing stop state and ends the still image imaging process.

次に、図5のフローチャートを用いて、図4のS401にてカメラ制御部214が行う飽和レベル設定処理について説明する。 Next, the saturation level setting process performed by the camera control unit 214 in S401 of FIG. 4 will be described with reference to the flowchart of FIG.

まず、S501では、カメラ制御部214は、撮像画面(つまりは撮像素子201)上においてAFの対象となるAF領域(被写体)の設定を行う。AF領域の設定方法については、ユーザによるカメラ操作部215を通じた指示や、被写体検出可能なカメラシステムの構成である場合は被写体検出状態に基づいて行われる。 First, in S501, the camera control unit 214 sets the AF region (subject) to be AF on the image pickup screen (that is, the image sensor 201). The AF area setting method is performed based on an instruction by the user through the camera operation unit 215 or, in the case of a configuration of a camera system capable of detecting a subject, a subject detection state.

次にS502では、カメラ制御部214は、S501で設定したAF領域内において、像信号の画素ごとの光量差補正値を取得又は算出する。 Next, in S502, the camera control unit 214 acquires or calculates the light amount difference correction value for each pixel of the image signal in the AF region set in S501.

次にS503では、カメラ制御部214は、S502で取得した像信号の画素ごとの光量差補正値より、画素ごとに飽和レベルを算出する。飽和レベルの算出方法は、まず一定の飽和レベル値SATLVLをベースとして、A信号の飽和レベル値にはSATLVL×B信号の光量差補正値、B信号の飽和レベルにはSATLVL×A信号の光量差補正値、というように算出する。一定の飽和レベルSATLVLは、図14の入射光量差補正前の一対の像信号のグラフに記載した、飽和クリップレベルに相当する。一定の飽和レベルSATLVLに光量差補正値を掛けたものは、図15の画素ごとの飽和クリップレベルの変更を適用した場合の入射光量差補正前の一対の像信号のグラフに記載した、飽和クリップレベルに相当する。 Next, in S503, the camera control unit 214 calculates the saturation level for each pixel from the light amount difference correction value for each pixel of the image signal acquired in S502. The saturation level calculation method is based on a constant saturation level value SATLVL, the saturation level value of A signal is the light amount difference correction value of SATLVL × B signal, and the saturation level of B signal is the light amount difference of SATLVL × A signal. It is calculated as a correction value. The constant saturation level SATLVL corresponds to the saturation clip level described in the graph of the pair of image signals before correction of the incident light amount difference in FIG. 14. The constant saturation level SATLVL multiplied by the light intensity difference correction value is the saturation clip described in the graph of the pair of image signals before the incident light intensity difference correction when the saturation clip level change for each pixel in FIG. 15 is applied. Corresponds to the level.

次にS504では、カメラ制御部214は、S503で算出した飽和レベルを、飽和レベルクリップ部/B信号生成部204に設定して飽和レベル設定処理を終了する。 Next, in S504, the camera control unit 214 sets the saturation level calculated in S503 in the saturation level clip unit / B signal generation unit 204, and ends the saturation level setting process.

一対の像信号の画素ごとに、入射光量差補正情報をもとに飽和クリップレベルを変更することの効果は図15を用いて先述した通りである。 The effect of changing the saturation clip level based on the incident light amount difference correction information for each pixel of the pair of image signals is as described above with reference to FIG.

次に、図6のフローチャートを用いて、図4のS403にてAF信号処理部206が行う焦点状態検出処理について説明する。なお、AF信号処理部206は、マイクロコンピュータにより構成され、コンピュータプログラムとしての焦点検出プログラム(撮像処理プログラムの一部であってもよい)に従って焦点検出処理を行う。 Next, the focus state detection process performed by the AF signal processing unit 206 in S403 of FIG. 4 will be described with reference to the flowchart of FIG. The AF signal processing unit 206 is configured by a microcomputer and performs focus detection processing according to a focus detection program (which may be a part of an imaging processing program) as a computer program.

S601では、AF信号処理部206は、先述した図5のS501で設定したAF領域に対して飽和レベルクリップ部/B信号生成部204にて飽和画素のクリップ処理を行い、光量差補正部205によって入射光量差の補正を行った像信号を取得する。なお、図4のS401及び、S402にて設定した飽和レベル、光量差補正値を基に、飽和レベルクリップ部/B信号生成部204、光量差補正部205がそれぞれ動作した結果がS601で取得できるものとし、フローチャート上ではそれぞれの動作は省略する。 In S601, the AF signal processing unit 206 performs clipping processing of saturated pixels on the AF region set in S501 of FIG. 5 described above by the saturation level clip unit / B signal generation unit 204, and the light amount difference correction unit 205 performs the clipping processing. The image signal corrected for the difference in the amount of incident light is acquired. In addition, based on the saturation level and the light amount difference correction value set in S401 and S402 of FIG. 4, the result of each operation of the saturation level clip unit / B signal generation unit 204 and the light amount difference correction unit 205 can be acquired in S601. However, each operation is omitted in the flowchart.

次にS602では、AF信号処理部206は、取得した像信号を1画素(1ビット)ずつ相対的にシフトさせながらこれら像信号同士の相関量を算出する。相関量の算出は、AF領域内に設けた複数の画素ライン(以下、走査ラインという)のそれぞれにおいて後述するように行う。なお、各走査ラインの相関量を算出した後に、それぞれの相関量を加算平均することで1つの相関量として算出する。また、本実施形態では相関演算に当たって一対の像信号を1画素ずつ相対的にシフトさせる構成としたが、より多くの画素単位でシフトさせる構成でもよい。例えば2画素ずつ相対的にシフトさせるような構成でもよい。また、本実施形態では、各走査ラインの相関量を加算平均することで1つの相関量を算出したが、例えば各走査ラインの一対の像信号に対して加算平均を行い、その後、加算平均した一対の像信号に対して相関量の算出を行う構成でも良い。 Next, in S602, the AF signal processing unit 206 calculates the amount of correlation between these image signals while relatively shifting the acquired image signals by one pixel (1 bit). The amount of correlation is calculated as described later in each of the plurality of pixel lines (hereinafter referred to as scanning lines) provided in the AF region. After calculating the correlation amount of each scanning line, each correlation amount is added and averaged to calculate as one correlation amount. Further, in the present embodiment, the pair of image signals are relatively shifted one pixel at a time in the correlation calculation, but a configuration in which the pair of image signals are shifted in units of more pixels may be used. For example, a configuration in which two pixels are relatively shifted may be used. Further, in the present embodiment, one correlation amount is calculated by adding and averaging the correlation amounts of each scanning line. For example, the pair of image signals of each scanning line are added and averaged, and then added and averaged. The configuration may be such that the correlation amount is calculated for a pair of image signals.

次にS603では、AF信号処理部206は、S602で算出した相関量から相関変化量を求める。相関変化量の算出方法については、後述する。 Next, in S603, the AF signal processing unit 206 obtains the correlation change amount from the correlation amount calculated in S602. The method of calculating the amount of correlation change will be described later.

そして、S604では、AF信号処理部206は、S603で算出した相関変化量を用いて像ずれ量を算出する。像ずれ量の算出方法については後述する。 Then, in S604, the AF signal processing unit 206 calculates the image shift amount using the correlation change amount calculated in S603. The method of calculating the amount of image shift will be described later.

さらに、S605では、AF信号処理部206は、S604で算出された像ずれ量の信頼性の高さを表す信頼性を算出する。信頼性の算出方法については後述する。 Further, in S605, the AF signal processing unit 206 calculates the reliability indicating the high reliability of the image shift amount calculated in S604. The method of calculating the reliability will be described later.

次に、S606では、AF信号処理部206は、S604で算出されたAF領域の像ずれ量を用いて該AF領域のデフォーカス量を算出し、焦点検出処理を終了する。 Next, in S606, the AF signal processing unit 206 calculates the defocus amount of the AF region using the image shift amount of the AF region calculated in S604, and ends the focus detection process.

次に、焦点検出処理について詳細に説明する。図7には、焦点検出処理において撮像素子201の画素アレイ701上でのAF領域702の例を示している。AF領域702の両側のシフト領域703は、相関演算に必要な領域である。このため、AF領域702とシフト領域703とを合わせた画素領域704が相関演算に必要な画素領域である。図中のp,q,s,tはそれぞれ、水平方向(x軸方向)での座標を表し、pとqはそれぞれ画素領域704の始点と終点のx座標を、sとtはそれぞれAF領域702の始点と終点のx座標を示している。 Next, the focus detection process will be described in detail. FIG. 7 shows an example of the AF region 702 on the pixel array 701 of the image sensor 201 in the focus detection process. The shift regions 703 on both sides of the AF region 702 are regions necessary for the correlation calculation. Therefore, the pixel area 704, which is the sum of the AF area 702 and the shift area 703, is the pixel area required for the correlation calculation. In the figure, p, q, s, and t represent the coordinates in the horizontal direction (x-axis direction), p and q represent the x-coordinates of the start point and the end point of the pixel area 704, respectively, and s and t represent the AF area, respectively. The x-coordinates of the start point and the end point of 702 are shown.

図8は、図7に示したAF領域702に含まれる複数の画素から取得したAF用の一対の像信号の例を示す。実線801が一方のA信号であり、破線802が他方のB信号である。図8(a)はシフト前のA信号,B信号を示し、図8(b),(c)はそれぞれ、A信号,B信号を図8(a)の状態からプラス方向およびマイナス方向にシフトした状態を示している。一対のA信号801,B信号802の相関量を算出する際には、A信号801,B信号802の両方を矢印の方向に1ビットずつシフトする。 FIG. 8 shows an example of a pair of image signals for AF acquired from a plurality of pixels included in the AF region 702 shown in FIG. The solid line 801 is one A signal, and the broken line 802 is the other B signal. 8 (a) shows the A signal and the B signal before the shift, and FIGS. 8 (b) and 8 (c) shift the A signal and the B signal from the state of FIG. 8 (a) in the positive direction and the negative direction, respectively. It shows the state of. When calculating the correlation amount of the pair of A signal 801 and B signal 802, both the A signal 801 and the B signal 802 are shifted by 1 bit in the direction of the arrow.

次に、相関量の算出方法について説明する。まず、図8(b),(c)に示すようにA信号801,B信号802をそれぞれ1ビットずつシフトして、A信号801,B信号802の差の絶対値の和を算出する。シフト量をiとし、マイナス方向の最大シフト量をp−sとし、プラス方向の最大シフト量をq−tとし、xをAF領域702の開始座標とし、yをAF領域702の終了座標とするとき、相関量CORは以下の式(1)によって算出することができる。 Next, a method of calculating the correlation amount will be described. First, as shown in FIGS. 8B and 8C, the A signal 801 and the B signal 802 are shifted by 1 bit each, and the sum of the absolute values of the differences between the A signal 801 and the B signal 802 is calculated. Let i be the shift amount, ps be the maximum shift amount in the minus direction, qt be the maximum shift amount in the plus direction, x be the start coordinate of the AF region 702, and y be the end coordinate of the AF region 702. Then, the correlation amount COR can be calculated by the following equation (1).

Figure 0006794185
Figure 0006794185

図9(a)には、シフト量と相関量CORとの関係の例を示している。横軸はシフト量を示し、縦軸は相関量CORを示す。シフト量とともに変化する相関量901における極値付近902,903のうち、より小さい相関量に対応するシフト量においてA信号とB信号の一致度が最も高くなる。 FIG. 9A shows an example of the relationship between the shift amount and the correlation amount COR. The horizontal axis shows the shift amount, and the vertical axis shows the correlation amount COR. Of the extreme values 902 and 903 in the correlation amount 901 that changes with the shift amount, the degree of coincidence between the A signal and the B signal is the highest in the shift amount corresponding to the smaller correlation amount.

次に、相関変化量の算出方法について説明する。図9(a)に示した相関量901の波形における1シフトおきの相関量の差を相関変化量として算出する。シフト量をiとし、マイナス方向の最大シフト量をp−sとし、プラス方向の最大シフト量をq−tとすると、相関変化量ΔCORは以下の式(2)によって算出することができる。
ΔCOR[i]=COR[i−1]−COR[i+1]
{(p−s+1)<i<(q−t−1)} (2)
Next, a method of calculating the amount of correlation change will be described. The difference in the correlation amount every other shift in the waveform of the correlation amount 901 shown in FIG. 9A is calculated as the correlation change amount. Assuming that the shift amount is i, the maximum shift amount in the minus direction is ps, and the maximum shift amount in the plus direction is qt, the correlation change amount ΔCOR can be calculated by the following equation (2).
ΔCOR [i] = COR [i-1] -COR [i + 1]
{(P-s + 1) <i <(q-t-1)} (2)

図10(a)には、シフト量と相関変化量ΔCORとの関係の例を示している。横軸はシフト量を示し、縦軸は相関変化量ΔCORを示す。シフト量とともに変化する相関変化量1001は、1002,1003の部分でプラスからマイナスになる。相関変化量が0となる状態をゼロクロスと呼び、一対の像信号A,Bの一致度が最も高くなる。したがって、ゼロクロスを与えるシフト量が像ずれ量PRDとなる。 FIG. 10A shows an example of the relationship between the shift amount and the correlation change amount ΔCOR. The horizontal axis shows the shift amount, and the vertical axis shows the correlation change amount ΔCOR. The correlation change amount 1001 that changes with the shift amount changes from plus to minus in the portion of 1002 and 1003. The state in which the amount of correlation change is 0 is called zero cross, and the degree of coincidence between the pair of image signals A and B is the highest. Therefore, the shift amount that gives zero cross is the image shift amount PRD.

図10(b)には、図10(a)中の1002で示した部分を拡大して示す。1004は相関変化量1001の一部分である。この図10(b)を用いて像ずれ量PRDの算出方法について説明する。 FIG. 10 (b) shows an enlarged portion of the portion shown by 1002 in FIG. 10 (a). 1004 is a part of the correlation change amount 1001. A method of calculating the image shift amount PRD will be described with reference to FIG. 10B.

ゼロクロスを与えるシフト量(k−1+α)は、整数部分β(=k−1)と小数部分αとに分けられる。小数部分αは、図中の三角形ABCと三角形ADEとの相似の関係から、以下の式(3)によって算出することができる。 The shift amount (k-1 + α) that gives a zero cross is divided into an integer part β (= k-1) and a decimal part α. The fractional part α can be calculated by the following equation (3) from the similarity relationship between the triangle ABC and the triangle ADE in the figure.

Figure 0006794185
Figure 0006794185

整数部分βは、図10(b)から以下の式(4)によって算出することができる。
β=k−1 (4)
The integer part β can be calculated from FIG. 10 (b) by the following equation (4).
β = k-1 (4)

そして、αとβの和から像ずれ量PRDを算出することができる。 Then, the image shift amount PRD can be calculated from the sum of α and β.

図10(a)に示したように相関変化量ΔCORのゼロクロスが複数存在する場合は、その付近での相関変化量ΔCORの変化の急峻性がより大きい方を第1のゼロクロスとする。この急峻性はAFの行い易さを示す指標であり、値が大きいほど精度良いAFを行い易い点であることを示す。急峻性maxderは、以下の式(5)によって算出することができる。
maxder=│ΔCOR[k−1]│+│ΔCOR[k]│ (5)
When there are a plurality of zero crosses of the correlation change amount ΔCOR as shown in FIG. 10A, the one having a larger change in the correlation change amount ΔCOR in the vicinity thereof is defined as the first zero cross. This steepness is an index showing the ease of performing AF, and the larger the value, the easier it is to perform accurate AF. The steepness maxder can be calculated by the following equation (5).
maxder = │ ΔCOR [k-1] │ + │ ΔCOR [k] │ (5)

このように、本実施形態では、相関変化量のゼロクロスが複数存在する場合は、その急峻性によって第1のゼロクロスを決定し、この第1のゼロクロスを与えるシフト量を像ずれ量PRDとする。 As described above, in the present embodiment, when there are a plurality of zero crosses of the correlation change amount, the first zero cross is determined by the steepness thereof, and the shift amount giving the first zero cross is defined as the image shift amount PRD.

次に、像ずれ量PRDの信頼性の算出方法について説明する。像ずれ量の信頼性は、一対の像信号A,Bの一致度(以下、2像一致度という)fnclvlと上述した相関変化量の急峻性によって定義することができる。2像一致度は、像ずれ量の精度を表す指標であり、本実施形態における相関演算ではその値が小さいほど精度が良いことを示す。なお、像ずれ量PRDの信頼性は像ずれ量PRDに基づいて算出されるデフォーカス量の信頼性としても用いることが可能である。 Next, a method of calculating the reliability of the image shift amount PRD will be described. The reliability of the image shift amount can be defined by the degree of coincidence of the pair of image signals A and B (hereinafter referred to as the degree of coincidence between two images) fnclvl and the steepness of the above-mentioned amount of correlation change. The two-image coincidence degree is an index showing the accuracy of the amount of image shift, and in the correlation calculation in the present embodiment, the smaller the value, the better the accuracy. The reliability of the image shift amount PRD can also be used as the reliability of the defocus amount calculated based on the image shift amount PRD.

図9(b)には、図9(a)中の902で示した部分を拡大したもので、904が相関量901の一部分である。2像一致度fnclvlは、以下の式(6)によって算出することができる。
(i)│ΔCOR[k−1]│×2≦maxderのとき
fnclvl=COR[k−1]+ΔCOR[k−1]/4
(ii)│ΔCOR[k−1]│×2>maxderのとき
fnclvl=COR[k]−ΔCOR[k]/4 (6)
In FIG. 9B, the portion shown by 902 in FIG. 9A is enlarged, and 904 is a part of the correlation amount 901. The two-image agreement fnclvl can be calculated by the following equation (6).
(I) When │ΔCOR [k-1] │ × 2 ≦ maxder
fnclvl = COR [k-1] + ΔCOR [k-1] / 4
(Ii) │ ΔCOR [k-1] │ × 2> maxder
fnclvl = COR [k] -ΔCOR [k] / 4 (6)

次に、図11のフローチャートを用いて、図4のS405にてカメラ制御部214が行う焦点検出処理について説明する。 Next, the focus detection process performed by the camera control unit 214 in S405 of FIG. 4 will be described with reference to the flowchart of FIG.

S1101では、カメラ制御部214は、現在AFが完了して合焦停止状態にあるか否かを判定し、合焦停止状態でない場合はS1102に進み、合焦停止状態の場合はS1109に進む。 In S1101, the camera control unit 214 determines whether or not the AF is currently completed and is in the focusing stop state, proceeds to S1102 if the focus is not stopped, and proceeds to S1109 if the focus is stopped.

S1102では、カメラ制御部214は、S403での焦点状態検出処理で算出されたデフォーカス量の信頼性が所定信頼性より高いか否かを判定する。ここにいう信頼性は、前述した2像一致度や像ずれ量の急峻性により求められるものであり、算出されたデフォーカス量だけでなくデフォーカス方向も信頼できない信頼性範囲の最高値を所定信頼性と設定するのが望ましい。なお、信頼性は、2像一致度と像ずれ量の急峻性の両方を用いて求めてもよいし、一方のみを用いて求めてもよい。また、2像の信号レベル等の他の指標を用いてもよい。デフォーカス量の所定信頼性より高い場合はS1103に進み、そうでない場合はS1107に進む。 In S1102, the camera control unit 214 determines whether or not the reliability of the defocus amount calculated by the focus state detection process in S403 is higher than the predetermined reliability. The reliability referred to here is determined by the steepness of the two-image coincidence and the image shift amount described above, and not only the calculated defocus amount but also the defocus direction determines the maximum value of the unreliable reliability range. It is desirable to set it as reliability. The reliability may be obtained by using both the degree of coincidence between the two images and the steepness of the amount of image shift, or may be obtained by using only one of them. Further, other indexes such as the signal level of two images may be used. If the defocus amount is higher than the predetermined reliability, the process proceeds to S1103, and if not, the process proceeds to S1107.

S1103では、カメラ制御部214は、信頼性が高いデフォーカス量を用いてAFを行うため、まずはデフォーカス量が焦点深度内か否かを判断し、焦点深度内である場合はS1104に進み、焦点深度内でない場合はS1105に進む。 In S1103, since the camera control unit 214 performs AF using a highly reliable defocus amount, it first determines whether or not the defocus amount is within the depth of focus, and if it is within the depth of focus, proceeds to S1104. If it is not within the depth of focus, the process proceeds to S1105.

S1104では、カメラ制御部214は、デフォーカス量が焦点深度内にある合焦状態とであるとみなして合焦停止状態に移行し、焦点検出処理を終了する。 In S1104, the camera control unit 214 determines that the defocus amount is in the in-focus state within the depth of focus, shifts to the in-focus stop state, and ends the focus detection process.

一方、S1105では、カメラ制御部214は、まだ合焦状態が得られていないとみなして、デフォーカス量に基づいてフォーカスレンズ103を駆動するためのレンズ駆動設定を行い、S1106に進む。レンズ駆動設定とは、フォーカスレンズ103の駆動速度や、デフォーカス量の誤差を考慮したデフォーカス量に適用するゲイン等の設定である。 On the other hand, in S1105, the camera control unit 214 considers that the in-focus state has not been obtained yet, sets the lens drive for driving the focus lens 103 based on the defocus amount, and proceeds to S1106. The lens drive setting is a setting such as a drive speed of the focus lens 103 and a gain applied to the defocus amount in consideration of an error in the defocus amount.

S1106では、カメラ制御部214は、デフォーカス量およびS1105で設定したレンズ駆動設定の情報に基づいて、レンズ制御部106に対してフォーカスレンズ103の制御命令を送信する。すなわち、フォーカスレンズ103の焦点位置の駆動制御を行う。これにより、焦点検出処理を終了する。 In S1106, the camera control unit 214 transmits a control command for the focus lens 103 to the lens control unit 106 based on the defocus amount and the lens drive setting information set in S1105. That is, the drive control of the focal position of the focus lens 103 is performed. As a result, the focus detection process ends.

一方、S1107では、S606で算出したデフォーカス量を使用できない。このため、カメラ制御部214は、信頼性が高いデフォーカス量が得られるフォーカスレンズ103の位置を検出するためにフォーカスレンズ103をその可動端に向かって移動させながらデフォーカス量を算出するサーチ駆動を行う。このため、カメラ制御部214は、まず、サーチ駆動用のレンズ駆動設定を行う。サーチ駆動用のレンズ駆動設定とは、フォーカスレンズ103の駆動速度や駆動を開始する方向等の設定である。 On the other hand, in S1107, the defocus amount calculated in S606 cannot be used. Therefore, the camera control unit 214 is a search drive that calculates the defocus amount while moving the focus lens 103 toward the movable end in order to detect the position of the focus lens 103 that can obtain a highly reliable defocus amount. I do. Therefore, the camera control unit 214 first sets the lens drive for search drive. The lens drive setting for search drive is a setting such as a drive speed of the focus lens 103 and a direction for starting drive.

続いてS1108では、カメラ制御部214は、S1107で設定したサーチ駆動用のレンズ駆動設定に基づいて、レンズ制御部106に対してフォーカスレンズ103の制御命令を送信する。そして、焦点検出処理を終了する。なお、本実施形態では、撮像素子201の出力信号として、一対の像信号を用いる撮像面位相差検出方式のみを行えるカメラ本体20について説明した。しかし、撮像素子201の出力信号を用いてコントラスト検出方式のAFを行える場合には、S1102でデフォーカス量の信頼性が低いと判定した場合にコントラスト検出方式のAFを行うようにしてもよい。 Subsequently, in S1108, the camera control unit 214 transmits a control command for the focus lens 103 to the lens control unit 106 based on the lens drive setting for search drive set in S1107. Then, the focus detection process is terminated. In this embodiment, the camera body 20 that can perform only the imaging surface phase difference detection method using a pair of image signals as the output signal of the image sensor 201 has been described. However, when the contrast detection method AF can be performed using the output signal of the image sensor 201, the contrast detection method AF may be performed when it is determined in S1102 that the reliability of the defocus amount is low.

S1109では、カメラ制御部214は、合焦停止状態を保持し、焦点検出処理を終了する。 In S1109, the camera control unit 214 keeps the focusing stop state and ends the focus detection process.

以上説明したように本実施形態では、飽和画素の信号レベルをクリップするに当たって、一対の像信号の入射光量差の情報に基づいて飽和画素の飽和クリップレベルを変更する。飽和画素のクリップ処理の適用後、入射光量差の補正を行った後の一対の像信号の飽和画素部の信号レベルが一定になるようにする。これによって、一対の像信号の信号レベルや傾きのずれなどの形状差が発生することを軽減し、相関演算による像ずれ量の算出精度、即ちデフォーカス量の算出精度を高めることで、AF精度を向上させることができる。 As described above, in the present embodiment, when clipping the signal level of the saturated pixel, the saturation clip level of the saturated pixel is changed based on the information of the incident light amount difference of the pair of image signals. After applying the clipping processing of the saturated pixels, the signal level of the saturated pixel portion of the pair of image signals after the correction of the incident light amount difference is made constant. This reduces the occurrence of shape differences such as signal level and tilt deviation of the pair of image signals, and improves the calculation accuracy of the image deviation amount by correlation calculation, that is, the calculation accuracy of the defocus amount, thereby achieving AF accuracy. Can be improved.

なお、本発明の範囲は、本実施形態で例示した構成に限らない。例えば、本実施の形態では図2(b)に示すように水平方向において相関演算を行える撮像素子の構成を用いたが、垂直方向に相関演算を行える構成や、水平/垂直のいずれの方向でも相関演算を行えるような撮像素子の構成であってもよい。 The scope of the present invention is not limited to the configuration illustrated in the present embodiment. For example, in the present embodiment, as shown in FIG. 2B, the configuration of the image sensor that can perform the correlation calculation in the horizontal direction is used, but the configuration that can perform the correlation calculation in the vertical direction or the configuration that can perform the correlation calculation in the horizontal direction or the horizontal / vertical direction The image sensor may be configured so that the correlation calculation can be performed.

(第2の実施形態)
以下、本発明の第2の実施形態について説明する。第1の実施形態では、飽和画素の信号レベルをクリップするに当たって、一対の像信号の光量差情報に基づいてクリップする信号レベルを変更した。これに対して第2の実施形態では、クリップする信号レベルについては一定で、光量差情報に基づく光量差補正を行う際に、飽和していない画素と飽和した画素で光量差補正をするかしないかを変更する。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described. In the first embodiment, when clipping the signal level of the saturated pixel, the signal level to be clipped is changed based on the light amount difference information of the pair of image signals. On the other hand, in the second embodiment, the signal level to be clipped is constant, and when the light amount difference correction based on the light amount difference information is performed, the light amount difference correction is performed between the unsaturated pixels and the saturated pixels. To change.

本実施形態におけるレンズ及びカメラ本体20からなるレンズ交換式カメラの構成については、第1の実施形態で図1に示した構成と同じである。そのため、第1の実施形態と同様の内容に関してはその説明を省略する。ただし、飽和レベルクリップ部/B信号生成部204に対しては、クリップするレベルを少なくとも1つ設定できればよく、画素ごとの設定ができなくてもよい。また、本実施形態における光量差補正部205は、飽和レベルクリップ部/B信号生成部204にて信号レベルがクリップされた、即ち飽和している画素と検出されているかに応じて、画素ごとに光量差補正を適用するか否かを切り替え可能である。 The configuration of the interchangeable lens camera including the lens and the camera body 20 in the present embodiment is the same as the configuration shown in FIG. 1 in the first embodiment. Therefore, the description of the same contents as that of the first embodiment will be omitted. However, for the saturation level clip unit / B signal generation unit 204, it is sufficient that at least one clipping level can be set, and it is not necessary to set each pixel. Further, in the light amount difference correction unit 205 in the present embodiment, the signal level is clipped by the saturation level clip unit / B signal generation unit 204, that is, it is detected as a saturated pixel for each pixel. It is possible to switch whether or not to apply the light intensity difference correction.

本発明の特徴的な部分である光量差補正部205の動作について図17を用いて説明する。図17は第1の実施形態における図15の内容に相当する。入射光量差補正を行う前の像信号において、信号レベルが設定した飽和クリップレベルSATLVLに到達していた場合は信号レベルが一定になり、そうでない場合は入射光量差に対応する信号レベル差がある状態になる。その状態で入射光量差補正を行う際に、図17の入射光量差補正係数のグラフ(中図)に示すように、飽和クリップレベルまで到達している画素部分は入射光量差補正を行わないようにする(飽和検出画素部の実線部分を適用する)。入射光量差が残っている画素部分には入射光量差補正を行い、飽和画素のクリップにより入射光量差が残っていない画素部分には補正を行わないようにすることで、入射光量差補正後に信号レベルの差や傾きの差が発生しないようにする。これによって、一対の像信号から像ずれ量を求める、即ちデフォーカス量を求める精度が向上し、AFの精度を向上させることができる。 The operation of the light amount difference correction unit 205, which is a characteristic part of the present invention, will be described with reference to FIG. FIG. 17 corresponds to the content of FIG. 15 in the first embodiment. In the image signal before the incident light amount difference correction, if the signal level reaches the set saturation clip level SATLVL, the signal level becomes constant, otherwise there is a signal level difference corresponding to the incident light amount difference. Become in a state. When performing the incident light amount difference correction in that state, as shown in the graph (middle figure) of the incident light amount difference correction coefficient in FIG. 17, the pixel portion that has reached the saturation clip level should not be corrected for the incident light amount difference. (Apply the solid line part of the saturation detection pixel part). By performing the incident light amount difference correction on the pixel part where the incident light amount difference remains and not correcting the pixel part where the incident light amount difference does not remain due to the clip of the saturated pixel, the signal after the incident light amount difference correction is performed. Avoid level differences and tilt differences. As a result, the accuracy of obtaining the image shift amount from the pair of image signals, that is, the accuracy of obtaining the defocus amount can be improved, and the accuracy of AF can be improved.

次に、本実施形態における、カメラ本体20で行われる処理について説明する。本実施形態における撮像処理、静止画撮像処理、焦点状態検出処理及び焦点検出処理は、第1の実施形態において図3、図4、図6及び図11に示したものと同じであるため説明を省略する。 Next, the process performed by the camera body 20 in the present embodiment will be described. The imaging process, the still image imaging process, the focus state detection process, and the focus detection process in the present embodiment are the same as those shown in FIGS. 3, 4, 6, and 11 in the first embodiment. Omit.

図4のS401でカメラ制御部214が行う飽和レベル設定処理について、図16のフローチャートを用いて説明する。 The saturation level setting process performed by the camera control unit 214 in S401 of FIG. 4 will be described with reference to the flowchart of FIG.

図16におけるS1601の処理は、図5におけるS501の処理と同じであるため、その説明は省略する。 Since the process of S1601 in FIG. 16 is the same as the process of S501 in FIG. 5, the description thereof will be omitted.

S1602では、カメラ制御部214は、飽和レベルクリップ部/B信号生成部204に対して飽和レベルを設定して処理を終了する。このとき設定する飽和クリップレベルは一定の値でよい。 In S1602, the camera control unit 214 sets the saturation level for the saturation level clip unit / B signal generation unit 204, and ends the process. The saturation clip level set at this time may be a constant value.

なお、本実施形態における光量差補正部205は、飽和レベルクリップ部/B信号生成部204にて信号レベルがクリップされた、即ち飽和している画素と検出されているかに応じて、画素ごとに光量差補正を適用するか否かを切り替える。本実施形態において飽和レベルクリップ部/B信号生成部204にて信号レベルがクリップされたか否かは、各信号において、フラグ用のビットを付与するようにしてもよい。このフラグ用のビットを光量差補正部205にて検出することによって、適切な補正が可能となる。また、飽和している画素の検出に用いる閾値は飽和クリップレベルよりも小さい値にすることが好ましい。これは、クリップ処理の後に光量差補正を行うため、蒸散されるゲイン量によっては各像信号のレベル差が発生してしまう場合もある。そのため、飽和クリップレベルよりも少し小さい信号レベルの画素においても光量差補正を適用しないようにすることが好ましいと言える。 The light amount difference correction unit 205 in the present embodiment is used for each pixel depending on whether the signal level is clipped by the saturation level clip unit / B signal generation unit 204, that is, it is detected as a saturated pixel. Switches whether or not to apply the light intensity difference correction. In this embodiment, a bit for a flag may be added to each signal to determine whether or not the signal level has been clipped by the saturation level clipping unit / B signal generation unit 204. Appropriate correction is possible by detecting the bit for this flag in the light amount difference correction unit 205. Further, the threshold value used for detecting saturated pixels is preferably set to a value smaller than the saturated clip level. This is because the light amount difference is corrected after the clip processing, so that a level difference of each image signal may occur depending on the amount of gain to be transpired. Therefore, it can be said that it is preferable not to apply the light amount difference correction even to a pixel having a signal level slightly smaller than the saturation clip level.

以上説明したように本実施形態では、入射光量差の補正に当たって、像信号のそれぞれの画素が飽和しているか否かの情報を基に、飽和していない画素には入射光量差の補正を行い、飽和している画素には入射光量差の補正を行わないように制御する。飽和画素のクリップ処理の適用後、すでに信号レベルが一定になっている箇所、即ち飽和を検出している画素部分は、入射光量差補正を行うと信号のレベル差や傾き差が生じてしまう為、入射光量差補正を行わない。他方、飽和画素を検出していない画素部分は、入射光量の差を補正する。これによって、一対の像信号の信号レベルや傾きのずれなどの形状差が発生することを軽減し、相関演算による像ずれ量の算出精度、即ちデフォーカス量の算出精度を高めることで、AF精度を向上させることができる。第1の実施形態と本実施形態ではシステムが異なるが同等の効果が期待できるため、システム上適用し易い手法を使用することが望ましい。 As described above, in the present embodiment, when correcting the incident light amount difference, the incident light amount difference is corrected for the non-saturated pixels based on the information on whether or not each pixel of the image signal is saturated. , Saturated pixels are controlled so that the difference in the amount of incident light is not corrected. After applying the clipping process of saturated pixels, the signal level difference and inclination difference will occur in the part where the signal level is already constant, that is, the pixel part where saturation is detected, if the incident light amount difference correction is performed. , The incident light amount difference is not corrected. On the other hand, the pixel portion where the saturated pixel is not detected corrects the difference in the amount of incident light. This reduces the occurrence of shape differences such as signal level and tilt deviation of the pair of image signals, and improves the calculation accuracy of the image deviation amount by correlation calculation, that is, the calculation accuracy of the defocus amount, thereby achieving AF accuracy. Can be improved. Although the system is different between the first embodiment and the present embodiment, the same effect can be expected. Therefore, it is desirable to use a method that is easy to apply on the system.

(第3の実施形態)
以下、本発明の第3の実施形態について説明する。
(Third Embodiment)
Hereinafter, a third embodiment of the present invention will be described.

第1の実施形態では、飽和画素の信号レベルをクリップするに当たって、像信号の光量差情報に基づいてクリップする信号レベルを変更した。また、第2の実施形態では、クリップする信号レベルについては一定で、光量差情報に基づく光量差補正を行う際に、飽和していない画素と飽和した画素で光量差補正をするかしないかを変更した。これに対して第3の実施形態では、飽和クリップレベルを一定値しか設定できず、光量差補正も画素ごとに適用するかどうかの切り替えができないシステムを想定する。当該システムにおいて、AF領域の飽和の検出方法や検出時のデフォーカス量算出方法を変更、または選択方法を変更することで好適なAFが実行できるようにする。 In the first embodiment, when clipping the signal level of the saturated pixel, the signal level to be clipped is changed based on the light amount difference information of the image signal. Further, in the second embodiment, the signal level to be clipped is constant, and when performing the light amount difference correction based on the light amount difference information, it is determined whether or not the light amount difference correction is performed between the unsaturated pixels and the saturated pixels. changed. On the other hand, in the third embodiment, it is assumed that the saturation clip level can be set only to a certain value, and it is not possible to switch whether or not the light amount difference correction is applied to each pixel. In the system, a suitable AF can be executed by changing the method of detecting the saturation of the AF region and the method of calculating the defocus amount at the time of detection, or changing the selection method.

本実施形態におけるレンズ及びカメラ本体30からなるレンズ交換式のカメラシステムの構成について、図18を用いて説明する。 The configuration of the interchangeable lens type camera system including the lens and the camera body 30 in the present embodiment will be described with reference to FIG.

図18のレンズユニット10及びその構成要素は、図1におけるレンズユニット10及びその構成要素と同様である為その説明を省略する。 Since the lens unit 10 and its components in FIG. 18 are the same as the lens unit 10 and its components in FIG. 1, the description thereof will be omitted.

図18のカメラ本体30の撮像素子301からタイミングジェネレータ316までの構成要素も、図1におけるカメラ本体20の撮像素子201からタイミングジェネレータ216までの構成要素と同様である為その説明を省略する。ただし、飽和レベルクリップ部/B信号生成部304に対しては、第2の実施形態の動作と同様、クリップするレベルを少なくとも1つ設定できればよく、画素ごとの設定が可能である必要は無い。また、光量差補正部305は、第1の実施形態の動作と同様に像信号の光量差の補正を行えればよく、第2の実施形態のように飽和画素の有無により画素ごとの光量差の補正が可能である必要は無い。 Since the components from the image sensor 301 to the timing generator 316 of the camera body 30 in FIG. 18 are the same as the components from the image sensor 201 to the timing generator 216 of the camera body 20 in FIG. 1, the description thereof will be omitted. However, for the saturation level clip unit / B signal generation unit 304, as in the operation of the second embodiment, it is sufficient that at least one clipping level can be set, and it is not necessary to be able to set for each pixel. Further, the light amount difference correction unit 305 may be able to correct the light amount difference of the image signal in the same manner as the operation of the first embodiment, and the light amount difference for each pixel depending on the presence or absence of saturated pixels as in the second embodiment. It is not necessary that the correction of is possible.

図18の飽和領域判定部317は、飽和レベルクリップ部/B信号生成部304により飽和画素としてクリップされた画素数を基に、AF領域、または相関演算を行った行が飽和しているかを判定する。飽和の判定値は、カメラ制御部314が設定するが、このとき設定する飽和の判定値はレンズユニット10及びカメラ本体30がもつパラメータを基に変更して、飽和の判定のしやすさを変更するように制御する。 The saturation region determination unit 317 of FIG. 18 determines whether the AF region or the row subjected to the correlation calculation is saturated based on the number of pixels clipped as saturated pixels by the saturation level clipping unit / B signal generation unit 304. To do. The saturation determination value is set by the camera control unit 314, and the saturation determination value set at this time is changed based on the parameters of the lens unit 10 and the camera body 30 to change the ease of saturation determination. Control to do.

また、AF信号処理部306は飽和領域判定部317が判定した飽和情報を基に信号処理方法を変更する。詳細はフローチャートを基に後述する。さらにAF信号処理部306は本実施形態においては、像信号から相関量を算出するに当たって、像信号に適用するバンドパスフィルタの種類を変更したり、画素の間引き量を変更したりできる。相関量を算出するに当たって、バンドパスフィルタや画素の間引き量を変更するのは、例えばより高周波の特性をもった合焦精度の高い相関量を算出するためである。そして、より低周波の特性をもった被写体がボケてても像ずれ量検出できる相関量を算出したりできるようにするためである。本実施形態では、設定したバンドパスフィルタや画素の間引き量を1つの相関量を算出する構成で説明するが、バンドパスフィルタや画素の間引き量を変更した複数の相関量を同時に算出できる構成でもよい。また、カメラ制御部314は飽和領域判定部317が判定したAF領域の飽和情報を基に、AF制御方法を変更する。詳細はフローチャートを基に後述する。 Further, the AF signal processing unit 306 changes the signal processing method based on the saturation information determined by the saturation region determination unit 317. Details will be described later based on the flowchart. Further, in the present embodiment, the AF signal processing unit 306 can change the type of bandpass filter applied to the image signal and the amount of pixel thinning out when calculating the correlation amount from the image signal. In calculating the correlation amount, the bandpass filter and the thinning amount of the pixels are changed, for example, in order to calculate the correlation amount having higher frequency characteristics and high focusing accuracy. Then, it is possible to calculate the correlation amount that can detect the amount of image shift even if the subject having the characteristic of lower frequency is blurred. In the present embodiment, the set bandpass filter and pixel thinning amount will be described with a configuration in which one correlation amount is calculated, but a configuration in which a plurality of correlation amounts in which the bandpass filter and pixel thinning amount are changed can be calculated at the same time is also possible. Good. Further, the camera control unit 314 changes the AF control method based on the saturation information of the AF region determined by the saturation region determination unit 317. Details will be described later based on the flowchart.

次に、本実施形態における、カメラ本体30で行われる処理について説明する。 Next, the process performed by the camera body 30 in the present embodiment will be described.

本実施形態における撮像処理、飽和レベル設定処理及び焦点検出処理は、第1の実施形態において図3に示したもの、第2の実施形態において図16に示したもの、そして第1の実施形態において図11を用いて説明したものと同じであるため説明を省略する。 The imaging process, saturation level setting process, and focus detection process in the present embodiment are shown in FIG. 3 in the first embodiment, shown in FIG. 16 in the second embodiment, and in the first embodiment. Since it is the same as that described with reference to FIG. 11, the description will be omitted.

図3のS304でカメラ制御部314が行う静止画撮像処理について、図19のフローチャートを用いて説明する。 The still image imaging process performed by the camera control unit 314 in S304 of FIG. 3 will be described with reference to the flowchart of FIG.

図19におけるS1901、S1902及び、S1904からS1910の処理は、図4におけるS401、S402及び、S403からS409の処理と同じである。 The processing of S1901, S1902, and S1904 to S1910 in FIG. 19 is the same as the processing of S401, S402, and S403 to S409 in FIG.

S1903では、カメラ制御部314は、飽和領域判定部317で設定する飽和領域判定閾値を設定する。飽和領域判定閾値設定処理については図20のフローチャートを用いて後述する。 In S1903, the camera control unit 314 sets the saturation area determination threshold value set by the saturation area determination unit 317. The saturation region determination threshold setting process will be described later using the flowchart of FIG.

次に、図20のフローチャートを用いて、図19のS1903にてカメラ制御部314が行う飽和領域判定閾値設定処理について説明する。 Next, the saturation region determination threshold value setting process performed by the camera control unit 314 in S1903 of FIG. 19 will be described with reference to the flowchart of FIG.

まず、S2001では、カメラ制御部314は、射出瞳距離情報を取得する。射出瞳距離情報はレンズユニット10における絞り102から、カメラ本体30における撮像素子301までの距離に相当する情報で、カメラ制御部314はレンズ制御部106を介してレンズユニット10から取得する。 First, in S2001, the camera control unit 314 acquires the exit pupil distance information. The exit pupil distance information corresponds to the distance from the aperture 102 in the lens unit 10 to the image sensor 301 in the camera body 30, and the camera control unit 314 acquires it from the lens unit 10 via the lens control unit 106.

次に、S2002では、カメラ制御部314は、S2001で取得した射出瞳距離が所定値以下かどうかを判定し、所定値以下であればS2003へ処理を進め、所定値より大きければS2005へ処理を進める。 Next, in S2002, the camera control unit 314 determines whether or not the exit pupil distance acquired in S2001 is equal to or less than the predetermined value, proceeds to S2003 if it is equal to or less than the predetermined value, and proceeds to S2005 if it is larger than the predetermined value. Proceed.

次に、射出瞳距離が所定値以下の場合に進むS2003では、カメラ制御部314は、飽和行判定閾値としてαを設定する。 Next, in S2003, which proceeds when the exit pupil distance is equal to or less than a predetermined value, the camera control unit 314 sets α as the saturation row determination threshold value.

次に、S2004では、カメラ制御部314は、飽和領域判定閾値としてXを設定して飽和領域判定閾値設定処理を終了する。 Next, in S2004, the camera control unit 314 sets X as the saturation area determination threshold value and ends the saturation area determination threshold value setting process.

S2002で射出瞳距離が所定値より大きい場合に進むS2005では、カメラ制御部314は、飽和行判定閾値としてβを設定する。 In S2005, which proceeds when the exit pupil distance is larger than a predetermined value in S2002, the camera control unit 314 sets β as the saturation row determination threshold value.

次に、S2006では、カメラ制御部314は、飽和領域判定閾値としてYを設定して飽和領域判定閾値設定処理を終了する。 Next, in S2006, the camera control unit 314 sets Y as the saturation area determination threshold value and ends the saturation area determination threshold value setting process.

飽和行判定閾値は、AF領域内の相関量を算出する行について、飽和しているかどうかを判定するために使用する。相関量を算出する行を構成する一対の像信号の画素にどれだけ飽和クリップをした画素があるかどうかをカウントし、その個数が飽和行判定閾値より多い場合は飽和行として判定し、飽和行判定閾値以下の場合は飽和していない行と判定する。飽和行の判定結果は、飽和領域の判定及び、図23のフローチャートで後述する相関量加算判定処理で使用する。 The saturated row determination threshold value is used to determine whether or not the row for which the correlation amount in the AF region is calculated is saturated. Counts how many pixels of the pair of image signals that make up the row for calculating the correlation amount have saturated clips, and if the number is greater than the saturated row judgment threshold, it is judged as a saturated row and the saturated row is determined. If it is less than or equal to the judgment threshold, it is judged that the row is not saturated. The determination result of the saturated row is used in the determination of the saturation region and the correlation amount addition determination process described later in the flowchart of FIG.

飽和領域判定閾値は、AF領域内について飽和しているかどうかを判定するために使用する。AF領域を構成する相関量を算出する行にどれだけ飽和行があるかどうかをカウントし、その行数が飽和領域判定閾値より多い場合は飽和領域として判定し、飽和領域判定閾値以下の場合は飽和していない領域と判定する。飽和領域の判定結果は、図22のフローチャートで後述する画素間引き量/バンドパスフィルタ設定処理で使用する。 The saturation region determination threshold is used to determine whether or not the AF region is saturated. Count how many saturated rows are in the row that calculates the correlation amount that constitutes the AF region, and if the number of rows is greater than the saturation region determination threshold value, it is determined as a saturated region, and if it is less than or equal to the saturation region determination threshold value Judged as an unsaturated region. The determination result of the saturation region is used in the pixel thinning amount / bandpass filter setting process described later in the flowchart of FIG.

なお、飽和行判定閾値及び飽和領域判定閾値の設定値の関係は「α<β」、「X<Y」となるように設定することが好ましい。この値は小さいほど飽和として検出しやすいことを示す。すなわち、射出瞳距離が短いほど飽和として検出しやすくするように制御する。射出瞳距離が短い場合、一般的に像信号の入射光量差が大きくなる。像信号の入射光量差が大きくなる場合、図14の入射光量差補正後の一対の像信号に示したように、一対の像信号間のレベルの差や傾きの差が大きく相関演算による像ずれ量の算出精度が低下してしまう。しかし、図24に示すように、像信号の入射光量差が少ないケースでは、入射光量差補正後の像信号の形状差が発生してしまう現象が起きたとしても、形状差の発生度合いは軽微であり、AF精度を保つことができる。そのため、AF精度への影響度合い、即ち入射光量差の大きさに応じて、入射光量差が大きくなる傾向のある射出瞳距離が短いほど、飽和を検出し易いようにして、後述する飽和被写体に対する対策を実行する。逆に、入射光量差が少ない傾向のある射出瞳距離が長い側では、AF精度が許容される範囲で保てるのであればあえて飽和と検出せずに通常通り制御する。 The relationship between the saturated row determination threshold value and the saturated region determination threshold value is preferably set to be “α <β” and “X <Y”. The smaller this value is, the easier it is to detect as saturation. That is, the shorter the exit pupil distance, the easier it is to detect as saturation. When the exit pupil distance is short, the difference in the amount of incident light of the image signal is generally large. When the incident light amount difference of the image signal becomes large, as shown in the pair of image signals after the incident light amount difference correction in FIG. 14, the level difference and the inclination difference between the pair of image signals are large and the image shift due to the correlation calculation. The accuracy of calculating the amount is reduced. However, as shown in FIG. 24, in the case where the incident light amount difference of the image signal is small, even if the phenomenon that the shape difference of the image signal after the incident light amount difference correction occurs occurs, the degree of occurrence of the shape difference is slight. Therefore, AF accuracy can be maintained. Therefore, the shorter the exit pupil distance, which tends to increase the difference in the amount of incident light, the easier it is to detect saturation, depending on the degree of influence on the AF accuracy, that is, the size of the difference in the amount of incident light. Take measures. On the contrary, on the side where the exit pupil distance, which tends to have a small difference in the amount of incident light, is long, if the AF accuracy can be maintained within an allowable range, it is controlled as usual without detecting saturation.

なお、例えば射出瞳距離が長い側でAF精度が許容できない範囲で入射光量差が大きくなる場合には、飽和行判定閾値及び、飽和領域判定閾値をより小さくして飽和を検出しやすくするように制御してもよい。 For example, when the difference in the amount of incident light becomes large in the range where the AF accuracy is unacceptable on the side where the exit pupil distance is long, the saturation row determination threshold value and the saturation region determination threshold value are made smaller so that saturation can be easily detected. You may control it.

また射出瞳距離情報でなく、入射光量差情報そのものを算出して、入射光量のレベル差や傾き差の情報に基づいて飽和行判定閾値、飽和領域判定閾値を切り替えるように制御してもよい。 Further, instead of the exit pupil distance information, the incident light amount difference information itself may be calculated, and the saturation row determination threshold value and the saturation region determination threshold value may be controlled to be switched based on the information of the incident light amount level difference and the inclination difference.

次に、図21のフローチャートを用いて、図19のS1904にてAF信号処理部306が行う焦点状態検出処理について説明する。 Next, the focus state detection process performed by the AF signal processing unit 306 in S1904 of FIG. 19 will be described with reference to the flowchart of FIG.

図21におけるS2101、S2103及び、S2105からS2108の処理は、図6におけるS601、S602及び、S603からS606までの処理と同じである。 The processing of S2101, S2103, and S2105 to S2108 in FIG. 21 is the same as the processing of S601, S602, and S603 to S606 in FIG.

S2102では、AF信号処理部306は、一対の像信号に適用するバンドパスフィルタの種類の変更や、画素の間引き量を変更する。詳細は図22のフローチャートを用いて後述する。 In S2102, the AF signal processing unit 306 changes the type of bandpass filter applied to the pair of image signals and the amount of pixel thinning. Details will be described later using the flowchart of FIG.

S2104では、AF信号処理部306は、S2103で算出したAF領域内の行ごとの相関量について、相関量を加算するかどうかの判定を行う。詳細は図23のフローチャートを用いて後述する。 In S2104, the AF signal processing unit 306 determines whether or not to add the correlation amount to the correlation amount for each row in the AF region calculated in S2103. Details will be described later using the flowchart of FIG.

次に、図22のフローチャートを用いて、図21のS2102にてAF信号処理部306が行う画素間引き量/バンドパスフィルタ設定処理について説明する。 Next, using the flowchart of FIG. 22, the pixel thinning amount / bandpass filter setting process performed by the AF signal processing unit 306 in S2102 of FIG. 21 will be described.

まず、S2201では、AF信号処理部306は、飽和領域判定部317がAF領域が飽和していると判定したかどうかを受け、飽和領域と判定されていた場合はS2202へ処理を進め、飽和領域でないと判定されていた場合は、S2204へ処理を進める。 First, in S2201, the AF signal processing unit 306 receives whether or not the saturation region determination unit 317 determines that the AF region is saturated, and if it is determined to be the saturation region, proceeds to processing to S2202 and proceeds to the saturation region. If it is determined that it is not, the process proceeds to S2204.

次に、S2201で飽和領域と判定されていた場合に進むS2202では、AF信号処理部306は、画素間引き量としてmを設定する。 Next, in S2202, which proceeds when the saturation region is determined in S2201, the AF signal processing unit 306 sets m as the pixel thinning amount.

次に、S2203では、AF信号処理部306は、バンドパスフィルタの周波数特性をf1に設定して画素間引き量/バンドパスフィルタ設定処理を終了する。ここで設定した画素間引き量及びバンドパスフィルタは、図21のS2101で取得した像信号に対して処理され、S2103の相関演算の際は、画素間引き及びバンドパスフィルタ設定処理後の像信号に対して行われる。 Next, in S2203, the AF signal processing unit 306 sets the frequency characteristic of the bandpass filter to f1 and ends the pixel thinning amount / bandpass filter setting process. The pixel thinning amount and bandpass filter set here are processed for the image signal acquired in S2101 of FIG. 21, and in the correlation calculation of S2103, the image signal after pixel thinning and bandpass filter setting processing is processed. Is done.

次に、S2204では、AF信号処理部306は、前回算出したデフォーカス量の信頼性が所定以上であったかどうかを判断し、信頼性が所定以上である場合はS2205へ処理を進め、信頼性が所定より悪い場合はS2206へ処理を進める。ここでの信頼性の閾値は、前回のS2108で算出されたデフォーカス量の絶対値がある程度信用できるレベルで判定することが望ましい。また、S2204の処理が初回の実行であり、前回算出したデフォーカス量が存在しない場合は、S2206へ処理を進めるようにする。 Next, in S2204, the AF signal processing unit 306 determines whether or not the reliability of the defocus amount calculated last time is equal to or higher than a predetermined value, and if the reliability is equal to or higher than a predetermined value, proceeds to processing to S2205 to improve the reliability. If it is worse than the predetermined value, the process proceeds to S2206. It is desirable that the reliability threshold value here is determined at a level at which the absolute value of the defocus amount calculated in the previous S2108 can be trusted to some extent. Further, if the process of S2204 is the first execution and the previously calculated defocus amount does not exist, the process is advanced to S2206.

次に、S2205では、AF信号処理部306は、前回算出したデフォーカス量が所定以内かどうかを判断し、所定以内である場合はS2202へ処理を進め、所定より大きい場合は、S2206へ処理を進める。S2204と同様に前回算出したデフォーカス量が存在しない場合は、S2206へ処理を進める。 Next, in S2205, the AF signal processing unit 306 determines whether or not the previously calculated defocus amount is within the predetermined range, proceeds to S2202 if it is within the predetermined range, and processes to S2206 if it is larger than the predetermined value. Proceed. If the previously calculated defocus amount does not exist as in S2204, the process proceeds to S2206.

次に、S2206では、AF信号処理部306は、画素間引き量をnに設定してS2207へ処理を進める。 Next, in S2206, the AF signal processing unit 306 sets the pixel thinning amount to n and proceeds to S2207.

次に、S2207では、AF信号処理部306は、バンドパスフィルタの周波数特性をf2に設定して画素間引き量/バンドパスフィルタ設定処理を終了する。 Next, in S2207, the AF signal processing unit 306 sets the frequency characteristic of the bandpass filter to f2 and ends the pixel thinning amount / bandpass filter setting process.

図22において設定した画素間引き量m及びnは、m≦nであるように設定する。また、バンドパスフィルタの周波数特性f1及びf2は、f1の方がf2よりも高周波であるように設定する。 The pixel thinning amounts m and n set in FIG. 22 are set so that m ≦ n. Further, the frequency characteristics f1 and f2 of the bandpass filter are set so that f1 has a higher frequency than f2.

S2201で飽和領域と判定されていない場合、即ち飽和被写体を捉えていない基本的な制御時には、S2204及びS2205において、被写体の合焦位置にある程度近いかどうかを判定する。被写体の合焦位置にある程度近いのであれば、S2202及び、S2203において、画素間引き量がより少なく、バンドパスフィルタも高周波のものを使用し、先述したようにより合焦精度の高いデフォーカス量を算出できるようにする。これによって被写体にピントを合わせた際のAF精度を高めることができる。また、被写体の合焦位置に近くない、若しくはそもそもデフォーカス量を検出できていないような場合には、S2206及び、S2207において、画素間引き量がより多く、バンドパスフィルタもより低周波なものを使用する。これによって、先述したようにAF精度は低下するもののよりボケた状態でもデフォーカス量を検出できるようになり、ボケた領域でも被写体の合焦位置方向やデフォーカス量を検出し易くできる。 When the saturated region is not determined in S2201, that is, in the basic control in which the saturated subject is not captured, it is determined in S2204 and S2205 whether or not the subject is close to the in-focus position to some extent. If it is close to the focusing position of the subject to some extent, in S2202 and S2203, the amount of pixel thinning is smaller, the bandpass filter is also a high frequency filter, and the defocus amount with higher focusing accuracy is calculated as described above. It can be so. This makes it possible to improve the AF accuracy when focusing on the subject. If the subject is not close to the in-focus position or the defocus amount cannot be detected in the first place, the pixel thinning amount is larger and the bandpass filter is lower frequency in S2206 and S2207. use. As a result, although the AF accuracy is lowered as described above, the defocus amount can be detected even in a more blurred state, and the in-focus position direction and the defocus amount of the subject can be easily detected even in the blurred area.

先述の基本的な制御時に対して、S2201で飽和領域と判定された場合には、S2204及びS2205で被写体の合焦位置にある程度近いかどうかを判定せずに、S2202及びS2203でよりAF精度の高い設定を行うように制御する。飽和領域と判定された場合は、即ち図14の入射光量差補正後の一対の像信号のグラフで説明したような一対の像信号の形状差が顕著に発生していることが想定される。このような場合、S2206やS2207のような被写体がボケた際に有効なデフォーカス量を使用してしまうと、二像一致度や急峻性の信頼性の値が十分に良くならない。そして、S2204、及びS2205の判定において、被写体の合焦位置にある程度近いと判定できないことがある。そのため、ピントが合わずにぼけた状態が継続してしまうなどの問題が発生する。S2201で飽和領域と判定された場合は、S2202及び、S2203にて確実にAF精度の高い画素間引き量及びバンドパスフィルタの設定ができるように制御することで、先述のようなピントが合わない問題を抑制することができる。なお、本実施の形態ではS2201でAF領域の飽和判定結果を基に判定を行っていたが、AF領域内の行の飽和判定結果を用いて判定してもよい。 When the saturation region is determined in S2201 with respect to the above-mentioned basic control, S2202 and S2203 have higher AF accuracy without determining whether the subject is close to the in-focus position to some extent in S2204 and S2205. Control to make high settings. When it is determined to be a saturated region, that is, it is assumed that the shape difference of the pair of image signals as described in the graph of the pair of image signals after the incident light amount difference correction in FIG. 14 is remarkably generated. In such a case, if an effective defocus amount is used when the subject such as S2206 or S2207 is out of focus, the reliability values of the two-image coincidence and the steepness are not sufficiently improved. Then, in the determination of S2204 and S2205, it may not be possible to determine that the subject is close to the in-focus position to some extent. Therefore, problems such as the out-of-focus state and the continued blurring occur. When the saturation region is determined in S2201, the problem of out-of-focus as described above can be achieved by controlling S2202 and S2203 so that the pixel thinning amount and the bandpass filter with high AF accuracy can be set. Can be suppressed. In the present embodiment, the determination is made based on the saturation determination result of the AF region in S2201, but the determination may be made using the saturation determination result of the row in the AF region.

次に、図23のフローチャートを用いて、図21のS2104にてAF信号処理部306が行う相関量加算処理について説明する。 Next, the correlation amount addition process performed by the AF signal processing unit 306 in S2104 of FIG. 21 will be described with reference to the flowchart of FIG. 23.

まず、S2301では、AF信号処理部306は、図20のS2003及びS2005にて設定した飽和行判定閾値が所定以上かどうかを判定し、所定以上である場合にはS2302へ処理を進め、所定未満である場合はS2304へ処理を進める。 First, in S2301, the AF signal processing unit 306 determines whether or not the saturation row determination threshold value set in S2003 and S2005 in FIG. 20 is equal to or higher than a predetermined value, and if it is equal to or higher than a predetermined value, proceeds to S2302 and less than a predetermined value. If, the process proceeds to S2304.

次に、S2302では、AF信号処理部306は、AF領域内の相関量を算出した各行において、飽和領域判定部317で飽和行と判定された行があるかどうかを判定する。そして、飽和行がある場合はS2303へ処理を進め、飽和行がない場合はS2304へ処理を進める。 Next, in S2302, the AF signal processing unit 306 determines whether or not there is a row determined to be a saturated row by the saturation region determination unit 317 in each row for which the correlation amount in the AF region is calculated. Then, if there is a saturated row, the process proceeds to S2303, and if there is no saturated row, the process proceeds to S2304.

次に、S2303では、AF信号処理部306は、AF領域内の相関量を算出した行の内、飽和行と判定した行以外の相関量を加算して相関量加算判定処理を終了する。 Next, in S2303, the AF signal processing unit 306 adds the correlation amounts other than the rows determined to be saturated rows among the rows for which the correlation amount in the AF region has been calculated, and ends the correlation amount addition determination processing.

また、S2304では、AF領域内で算出した全ての行の相関量を加算して相関量加算判定処理を終了する。 Further, in S2304, the correlation amounts of all the rows calculated in the AF region are added to end the correlation amount addition determination process.

なお、S2303で全ての行が飽和している場合には、相関が検出できないことが判別できる初期値などを設定するようにする。なお、初期値とは例えば無限遠方又は至近に焦点が合うような位置であってもよいし、例えば2m等の撮影頻度が高い位置であってもよい。 When all the rows are saturated in S2303, an initial value or the like that can determine that the correlation cannot be detected is set. The initial value may be, for example, a position where the focus is at infinity or close to infinity, or may be a position where the shooting frequency is high, such as 2 m.

例えば、AF領域内の一部の行に飽和被写体が存在する場合、行ごとの相関量を加算してAF領域の相関量を求める際に、誤った相関量信号を加算することでAF精度を低下させないために飽和被写体の影響を受けないようにしたい。そのため、S2302で飽和行と判定された行がある場合には、S2303で飽和行以外の行の相関量を加算するように制御する。しかし、図20のS2002、S2003及び、S2005にて射出瞳距離などの入射光量差の大きさに基づいて飽和している行の検出のしやすさを変更した。S2303の飽和行以外の行のみの相関量を加算する処理は、S2301で設定した飽和行判定閾値が所定以上、即ち本実施形態においては図20のS2005の飽和判定閾値βを設定していた状態を示す。対して、図20のS2003で飽和判定閾値αを設定していた場合、即ち一対の像信号の入射光量差が大きいようなケースでは、S2304にて常に全ての相関量を加算するように制御する。 For example, when a saturated subject exists in some rows in the AF region, the AF accuracy is improved by adding an erroneous correlation amount signal when the correlation amount for each row is added to obtain the correlation amount in the AF region. I want to avoid being affected by saturated subjects so that it does not decrease. Therefore, when there is a row determined to be a saturated row in S2302, the correlation amount of the rows other than the saturated row is controlled in S2303 to be added. However, in S2002, S2003, and S2005 of FIG. 20, the ease of detecting the saturated row is changed based on the magnitude of the incident light amount difference such as the exit pupil distance. In the process of adding the correlation amount of only the rows other than the saturated row of S2303, the saturated row determination threshold value set in S2301 is set to a predetermined value or more, that is, the saturation determination threshold value β of S2005 of FIG. 20 is set in the present embodiment. Is shown. On the other hand, when the saturation determination threshold value α is set in S2003 of FIG. 20, that is, in the case where the difference in the amount of incident light of the pair of image signals is large, S2304 is controlled so as to always add all the correlation amounts. ..

上記のように制御するのは、図25に示したように、一対の像信号の入射光量差が少ない場合には、飽和画素のクリップ処理を行ったとしてもAF精度をある程度保つことができる。このときは飽和行として検出する飽和行判定閾値をより多いβに設定するので、行内の多くの範囲が飽和画素として検出されてなければ飽和行と判定されない。 As shown in FIG. 25, when the difference in the amount of incident light between the pair of image signals is small, the AF accuracy can be maintained to some extent even if the saturated pixels are clipped. At this time, since the saturated row determination threshold value to be detected as a saturated row is set to more β, it is not determined as a saturated row unless many ranges in the row are detected as saturated pixels.

対して、一対の像信号の入射光量差が大きい場合には、飽和画素クリップ処理を行った後のAF精度が著しく低下してしまう。このときは飽和行として検出する飽和行判定閾値をより少ないαに設定する為、行内の少しの範囲でも飽和画素が検出された場合でもすぐに飽和行と検出する。そのため、例えばAF領域内の全ての行に少しの飽和画素が混入しているような場合に仮にS2303の処理を適用してしまうと、相関量が検出できずデフォーカス量が分からないケースが増えてしまう。そして、先述の飽和被写体に対してピントが合わせられない現象が発生してしまう。 On the other hand, when the difference in the amount of incident light between the pair of image signals is large, the AF accuracy after performing the saturated pixel clipping process is significantly lowered. At this time, since the saturated row determination threshold value to be detected as a saturated row is set to less α, even if a saturated pixel is detected even in a small range in the row, it is immediately detected as a saturated row. Therefore, for example, if a small amount of saturated pixels are mixed in all the rows in the AF region and the processing of S2303 is applied, the correlation amount cannot be detected and the defocus amount cannot be known in many cases. It ends up. Then, the phenomenon of not being able to focus on the saturated subject described above occurs.

この問題を解決するために、飽和行判定閾値が少ない、即ちAF領域内に小さな飽和被写体がある場合でも飽和行を検出する場合は、飽和行であったとしてもS2304で算出した全ての相関量を加算するように制御する。飽和行の相関量を加算して使用してしまうものの、先述の図22の画素間引き量/バンドパスフィルタ設定処理によって飽和領域に対してボケ止まりが起きにくい特性を設定することで、飽和被写体に対してもピントを合わせられる機会を向上できる。また、行内の飽和被写体が小さいということは、飽和被写体以外の被写体がAF領域内に存在する可能性も高い。そのため、S2303で飽和行の相関量を加算しないように制御するよりは、S2304で全ての相関量を加算するように制御した方がピントを合わせられる機会を増やすことができる。 In order to solve this problem, when the saturated row determination threshold is small, that is, when a saturated row is detected even when there is a small saturated subject in the AF region, all the correlation amounts calculated in S2304 even if it is a saturated row. Is controlled to be added. Although the amount of correlation of saturated rows is added and used, by setting the characteristic that blurring does not easily occur in the saturated region by the pixel thinning amount / bandpass filter setting process in FIG. 22 described above, the saturated subject is used. On the other hand, the opportunity to focus can be improved. Further, the fact that the saturated subject in the line is small means that there is a high possibility that a subject other than the saturated subject exists in the AF region. Therefore, it is possible to increase the chances of focusing by controlling S2304 so that all the correlation amounts are added, rather than controlling S2303 so that the correlation amounts of the saturated rows are not added.

以上説明したように本実施形態では、AF領域内の行ごとに飽和レベルクリップ処理がされている画素数を基に飽和行判定を行う。また、AF領域内の飽和行数を基に飽和領域判定を行う。またこれらの飽和判定を行うに当たって、飽和によるAF精度の低下は一対の像信号の入射光量差が大きいほど大きいので、入射光量差の大きさ、本実施形態では射出瞳距離情報を基に飽和行の判定閾値、飽和領域の判定閾値を変更する。一対の像信号の入射光量差が少ない場合はAF精度を保ちやすい為飽和と検出しにくくし、入射光量差が大きい場合はAF精度の低下が懸念されるため飽和と検出し易いようにする。さらに、飽和領域と検出された場合は、AF精度よりもボケた際の検出能力を優先した画素間引き数/バンドパスフィルタの特性を使用してしまうことでピントがボケ止まってしまうことを防ぐため、常にAF精度を優先した特性を選択するようにする。設定した飽和行の判定閾値の大小により、算出した行ごとの相関量の加算方法を、それぞれに適した方法に切り替える。飽和行判定閾値が大きい場合は、相関量の行ごとの加算時に飽和行の影響をなくすために、飽和行を加算しないように制御する。また、飽和行判定閾値が小さい場合には、すべての行の相関量を加算するように制御することで、飽和行を加算しないことでAFできなくなることでピントが合わせられない現象の発生を抑える。さらに、AF領域内の飽和以外の被写体を使用したり、先述の画素間引き数/バンドパスフィルタ設定処理においてよりAF精度の高い特性を選択したりすることにより飽和被写体を含むAF領域でもピントを合わせられる機会を向上させる。 As described above, in the present embodiment, the saturation row determination is performed based on the number of pixels for which the saturation level clip processing is performed for each row in the AF region. In addition, the saturation region is determined based on the number of saturated rows in the AF region. Further, in performing these saturation determinations, the decrease in AF accuracy due to saturation increases as the difference in the amount of incident light between the pair of image signals increases. Therefore, the saturation line is based on the size of the difference in the amount of incident light and the exit pupil distance information in this embodiment. The judgment threshold of the above and the judgment threshold of the saturation region are changed. When the difference in the amount of incident light of the pair of image signals is small, it is easy to maintain the AF accuracy, so it is difficult to detect saturation. When the difference in the amount of incident light is large, there is a concern that the AF accuracy will decrease, so it will be easy to detect saturation. Furthermore, when it is detected as a saturated region, it is necessary to prevent the focus from stopping by using the characteristics of the pixel thinning number / bandpass filter that prioritizes the detection ability when blurring over the AF accuracy. , Always select the characteristic that gives priority to AF accuracy. Depending on the magnitude of the set determination threshold value of the saturated row, the calculated method of adding the correlation amount for each row is switched to a method suitable for each. When the saturated row determination threshold value is large, control is performed so that the saturated rows are not added in order to eliminate the influence of the saturated rows when the correlation amount is added for each row. In addition, when the saturated row judgment threshold is small, by controlling so as to add the correlation amounts of all rows, it is possible to suppress the occurrence of the phenomenon that AF cannot be performed without adding saturated rows and the focus cannot be adjusted. .. Furthermore, by using a non-saturated subject in the AF area or selecting a characteristic with higher AF accuracy in the pixel thinning number / bandpass filter setting process described above, the focus can be adjusted even in the AF area including the saturated subject. Improve the chances of being saturated.

以上により、飽和レベルのクリップ処理の信号レベル閾値を画素ごとに設定したり、入射光量差補正の補正有無を画素ごとに設定したりすることが可能となる。そのため、高負荷なシステムが実現できないシステムにおいても、飽和被写体に対するAF精度向上や、AF可能な機会向上ができる。 As described above, it is possible to set the signal level threshold value of the saturation level clip processing for each pixel, and to set the correction presence / absence of the incident light amount difference correction for each pixel. Therefore, even in a system in which a high-load system cannot be realized, it is possible to improve the AF accuracy for a saturated subject and the opportunity for AF.

10 レンズユニット
20 カメラ本体
101 固定レンズ
102 絞り
103 フォーカスレンズ
104 絞り駆動部
105 フォーカスレンズ駆動部
106 レンズ制御部
107 レンズ操作部
21 バス
201 撮像素子
202 CDS/AGC/AD
203 画像入力コントローラ
204 飽和レベルクリップ部/B信号生成部
205 光量差補正部
206 AF信号処理部
207 表示制御部
208 表示部
209 記録媒体制御部
210 記録媒体
211 SDRAM
212 ROM
213 フラッシュROM
214 カメラ制御部
215 カメラ操作部
216 タイミングジェネレータ
317 飽和領域判定部
10 Lens unit 20 Camera body 101 Fixed lens 102 Aperture 103 Focus lens 104 Aperture drive unit 105 Focus lens drive unit 106 Lens control unit 107 Lens operation unit 21 Bus 201 Imaging element 202 CDS / AGC / AD
203 Image input controller 204 Saturation level clip unit / B signal generation unit 205 Light amount difference correction unit 206 AF signal processing unit 207 Display control unit 208 Display unit 209 Recording medium control unit 210 Recording medium 211 SDRAM
212 ROM
213 flash ROM
214 Camera control unit 215 Camera operation unit 216 Timing generator 317 Saturation region determination unit

Claims (9)

マイクロレンズに対して複数の光電変換部を有する撮像素子から取得される複数の像信号に基づいて被写体を撮像するための撮像レンズの焦点検出を行う焦点検出装置であって、
前記撮像レンズからの入射光量に基づく前記複数の像信号を用いて複数の焦点検出信号を生成する生成手段と、
前記複数の焦点検出信号の相関量を検出する相関量検出手段と、
前記相関量に基づいて前記撮像レンズの焦点検出を行う焦点検出手段と、
前記複数の像信号のうち少なくとも一つの像信号が飽和レベルに達しているか否かを判定する判定手段と、
前記判定手段の判定結果に基づいて前記像信号の信号レベルを所定のレベルにクリップするクリップ手段と、
前記複数の光電変換部ごとの前記入射光量の差に基づく前記像信号の差を所定の調整パラメータを用いて調整する調整手段と、
前記光電変換部ごとの前記入射光量の差を調整するための前記所定の調整パラメータを保持する保持手段と、
を有し
前記調整手段は像高判定手段の判定結果に基づいて前記像信号の差を調整するための前記所定の調整パラメータを制御し、
前記クリップ手段は前記保持手段に保持された前記調整パラメータに応じて前記所定のレベルを前記光電変換部ごとに制御することを特徴とする焦点検出装置。
A focus detection device that detects the focus of an image pickup lens for photographing a subject based on a plurality of image signals acquired from an image sensor having a plurality of photoelectric conversion units for the micro lens.
A generation means for generating a plurality of focus detection signals using the plurality of image signals based on the amount of incident light from the image pickup lens, and
Correlation amount detecting means for detecting the correlation amount of the plurality of focus detection signals, and
A focus detection means that detects the focus of the imaging lens based on the correlation amount, and
A determination means for determining whether or not at least one of the plurality of image signals has reached a saturation level, and
A clipping means that clips the signal level of the image signal to a predetermined level based on the determination result of the determination means, and
An adjusting means for adjusting the difference in the image signal based on the difference in the amount of incident light for each of the plurality of photoelectric conversion units using predetermined adjustment parameters, and
A holding means for holding the predetermined adjustment parameter for adjusting the difference in the amount of incident light for each photoelectric conversion unit, and
The adjusting means controls the predetermined adjustment parameter for adjusting the difference between the image signals based on the determination result of the image height determining means.
The focus detection device is characterized in that the clip means controls the predetermined level for each photoelectric conversion unit according to the adjustment parameter held by the holding means .
前記保持手段が保持する前記調整パラメータは前記入射光量の差を調整するためのゲイン量を含み、
前記クリップ手段は前記ゲイン量の逆数に基づいて前記所定のレベルを制御することを特徴とする請求項1に記載の焦点検出装置。
The adjustment parameter held by the holding means includes a gain amount for adjusting the difference in the amount of incident light.
The focus detection device according to claim 1, wherein the clip means controls the predetermined level based on the reciprocal of the gain amount.
前記光電変換部ごとの前記入射光量の差を調整するための前記所定の調整パラメータを保持する保持手段を更に備え、
前記調整手段は前記判定手段の判定結果と前記保持手段に保持された前記調整パラメータに応じて前記像信号の差を調整することを特徴とする請求項1に記載の焦点検出装置。
A holding means for holding the predetermined adjustment parameter for adjusting the difference in the amount of incident light for each photoelectric conversion unit is further provided.
The focus detection device according to claim 1, wherein the adjusting means adjusts the difference between the image signal according to the determination result of the determining means and the adjusting parameter held by the holding means.
前記調整手段は前記判定手段によって飽和していると判定された場合には入射光量差の補正を行わないことを特徴とする請求項3に記載の焦点検出装置。 It said adjusting means focus detecting apparatus according to claim 3, characterized in that no correction of the incident light amount difference when it is determined to be saturated by the previous SL-size constant means. 前記調整手段は前記クリップ手段が前記像信号を処理した後に前記像信号の差を調整することを特徴とする請求項1乃至4のいずれか1項に記載の焦点検出装置。 The focus detection device according to any one of claims 1 to 4, wherein the adjusting means adjusts a difference between the image signals after the clip means processes the image signal. 前記複数の像信号には前記複数の光電変換部で発生した電荷を加算した電荷に基づく第1の像信号と、前記複数の光電変換部の内の一つの光電変換部で発生した電荷に基づく第2の像信号とを含み、
前記生成手段にて生成される前記複数の焦点検出信号は前記第1の像信号から前記第2の像信号を減算することで生成される焦点検出信号を含むことを特徴とする請求項1乃至5のいずれか1項に記載の焦点検出装置。
The plurality of image signals are based on a first image signal based on a charge obtained by adding charges generated by the plurality of photoelectric conversion units and a charge generated by one of the plurality of photoelectric conversion units. Including the second image signal
Claims 1 to 1, wherein the plurality of focus detection signals generated by the generation means include a focus detection signal generated by subtracting the second image signal from the first image signal. 5. The focus detection device according to any one of 5.
前記調整パラメータは、前記撮像レンズの射出瞳距離、または前記光電変換部ごとの入射光量差情報を含むことを特徴とする請求項1乃至6のいずれか1項に記載の焦点検出装置。 The focus detection device according to any one of claims 1 to 6, wherein the adjustment parameter includes the exit pupil distance of the image pickup lens or the incident light amount difference information for each photoelectric conversion unit. 前記相関量検出手段は少なくとも1つ以上の相関量または像信号を加算し、
前記焦点検出手段は、加算した相関量または像信号を基に焦点検出を行うことを特徴とする請求項1乃至7のいずれか1項に記載の焦点検出装置。
The correlation amount detecting means adds at least one or more correlation amounts or image signals and adds them.
The focus detection device according to any one of claims 1 to 7, wherein the focus detection means performs focus detection based on an added correlation amount or an image signal.
請求項1乃至8のいずれか1項の焦点検出装置を備える撮像装置。 An imaging device including the focus detection device according to any one of claims 1 to 8.
JP2016169613A 2016-08-31 2016-08-31 Focus detector Active JP6794185B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016169613A JP6794185B2 (en) 2016-08-31 2016-08-31 Focus detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016169613A JP6794185B2 (en) 2016-08-31 2016-08-31 Focus detector

Publications (2)

Publication Number Publication Date
JP2018036510A JP2018036510A (en) 2018-03-08
JP6794185B2 true JP6794185B2 (en) 2020-12-02

Family

ID=61567290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016169613A Active JP6794185B2 (en) 2016-08-31 2016-08-31 Focus detector

Country Status (1)

Country Link
JP (1) JP6794185B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11893668B2 (en) 2021-03-31 2024-02-06 Leica Camera Ag Imaging system and method for generating a final digital image via applying a profile to image information

Also Published As

Publication number Publication date
JP2018036510A (en) 2018-03-08

Similar Documents

Publication Publication Date Title
US9742985B2 (en) Automatic focus adjustment apparatus and control method therefor
JP6506560B2 (en) Focus control device and method therefor, program, storage medium
JP2008170508A (en) Imaging apparatus
JP6154081B2 (en) Imaging device, imaging device body, and lens barrel
JP5325966B2 (en) Imaging apparatus and imaging method
KR20080092875A (en) Auto-focus apparatus, image-pickup apparatus, and auto-focus method
US20160295122A1 (en) Display control apparatus, display control method, and image capturing apparatus
US9485409B2 (en) Image capturing apparatus and control method therefor
JP6808333B2 (en) Display control device and method, and imaging device
US8994872B2 (en) Image pickup apparatus and method for controlling the same
JP2016197202A (en) Focus adjustment device, control method and control program for the same, and imaging device
JP6238578B2 (en) Imaging apparatus and control method thereof
JP6971685B2 (en) Imaging device and its control method
JP2015152749A (en) Imaging device and control method of the same
JP6794185B2 (en) Focus detector
JP2018010023A (en) Focusing control device, focusing control method, focusing control program, lens device, and imaging apparatus
JP2018132613A (en) Focus detection device and imaging device
JP7019337B2 (en) Image stabilization device, lens device and their control method
JP6305017B2 (en) Focus control device and control method thereof
JP7309383B2 (en) Imaging device
JP2018091977A (en) Focus controller, imaging apparatus, focus control method, and focus control program
US20160344921A1 (en) Image capture apparatus and control method thereof
JP6305016B2 (en) FOCUS CONTROL DEVICE, FOCUS CONTROL DEVICE CONTROL METHOD, AND IMAGING DEVICE
JP2012118154A (en) Imaging device
JP7207874B2 (en) CONTROL DEVICE, IMAGING DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200722

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201111

R151 Written notification of patent or utility model registration

Ref document number: 6794185

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151