JP2013254194A - Imaging device and control method of the same - Google Patents

Imaging device and control method of the same Download PDF

Info

Publication number
JP2013254194A
JP2013254194A JP2013085382A JP2013085382A JP2013254194A JP 2013254194 A JP2013254194 A JP 2013254194A JP 2013085382 A JP2013085382 A JP 2013085382A JP 2013085382 A JP2013085382 A JP 2013085382A JP 2013254194 A JP2013254194 A JP 2013254194A
Authority
JP
Japan
Prior art keywords
reliability
subject
focus
focus position
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013085382A
Other languages
Japanese (ja)
Other versions
JP2013254194A5 (en
JP6198437B2 (en
Inventor
Kyo Nakamoto
京 仲本
Yuichi Ichiki
裕一 市来
Miyoko Seki
美代子 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2012109554A external-priority patent/JP2013008018A/en
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013085382A priority Critical patent/JP6198437B2/en
Publication of JP2013254194A publication Critical patent/JP2013254194A/en
Publication of JP2013254194A5 publication Critical patent/JP2013254194A5/ja
Application granted granted Critical
Publication of JP6198437B2 publication Critical patent/JP6198437B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device that can perform focus calibration high in reliability.SOLUTION: The imaging device is configured to comprise: imaging means 24 and 41 that photoelectrically convert a subject image imaged by an imaging optical system 10 into an image signal and generate the converted image signal; first detection means 40 that detects a fist in-focus position by a phase difference detection scheme on the basis of a pair of image signals; control means 40 that controls a position of a focus lens 10a on the basis of the first in-focus position; second detection means 40 that detects a second in-focus position by a contrast detection scheme on the basis of the image signal; calculation means 40 that calculates a correction value correcting the first in-focus position upon imaging on the basis off a difference between the first in-focus position and the second in-focus position; and judgement means 40 that judges reliability of the first in-focus position by use of information relating to the pair of image signals. When the reliability thereof is first reliability, the calculation means calculates a correction value and when the reliability thereof is second reliability lower than the first reliability, the calculation means limits the calculation of the correction value.

Description

本発明は、位相差検出方式によるフォーカス制御が可能な撮像装置に関する。さらに詳しくは、位相差検出方式により得られた合焦位置をコントラスト検出方式により検出された合焦位置に基づいて補正するフォーカスキャリブレーション機能を有する撮像装置に関する。   The present invention relates to an imaging apparatus capable of focus control by a phase difference detection method. More specifically, the present invention relates to an imaging apparatus having a focus calibration function for correcting a focus position obtained by a phase difference detection method based on a focus position detected by a contrast detection method.

位相差検出方式によるフォーカス制御(オートフォーカス:AF)により合焦状態を得るカメラや交換レンズでは、それらの使用回数の増加に伴い、AFに関連する機構や部材にガタが発生し、その結果、合焦精度が低下するおそれがある。例えば、交換レンズにおいては、フォーカスレンズが、これを移動させる機構に発生したガタによって、算出された合焦位置に正しく移動されない場合がある。また、カメラにおいては、交換レンズからの光を位相差検出用のAFセンサに向けて反射するミラーの角度が、該ミラーの駆動回数の増加に伴って変化していく。これにより、AFセンサへの光の入射の仕方が変化し、該AFセンサからの出力に基づいて算出される合焦位置が、正しい合焦位置からずれる場合がある。この場合、フォーカスレンズが、正しい合焦位置からずれた合焦位置に移動するため、合焦精度が低下する。   In cameras and interchangeable lenses that obtain a focused state by focus control (autofocus: AF) using a phase difference detection method, as the number of times they are used increases, backlash occurs in mechanisms and members related to AF. Focusing accuracy may be reduced. For example, in an interchangeable lens, the focus lens may not be correctly moved to the calculated in-focus position due to backlash generated in a mechanism that moves the focus lens. In the camera, the angle of the mirror that reflects the light from the interchangeable lens toward the AF sensor for detecting the phase difference changes as the number of times the mirror is driven increases. As a result, the manner in which light is incident on the AF sensor changes, and the focus position calculated based on the output from the AF sensor may deviate from the correct focus position. In this case, since the focus lens moves to the in-focus position shifted from the correct in-focus position, the in-focus accuracy is lowered.

これらの場合、合焦精度を元の良好な精度に戻すには、ユーザがカメラや交換レンズをサービスセンターに持ち込んで合焦位置の再調整を依頼したり、特許文献1,2にて開示された撮像装置の機能を利用したりしている。   In these cases, in order to return the focusing accuracy to the original good accuracy, a user brings a camera or an interchangeable lens to the service center and requests readjustment of the focusing position, or disclosed in Patent Documents 1 and 2. The functions of the image pickup device are used.

特許文献1にて開示された撮像装置では、テストモードにおいて、位相差検出用のAFセンサと撮影画像を生成するためのイメージセンサ(撮像素子)のそれぞれから焦点状態に関するデータを得るとともに、これらデータの相対ずれ量(差)を記憶する。そして、撮影モードにおいて、記憶された相対ずれ量に基づいてフォーカスレンズを移動させる。   In the imaging device disclosed in Patent Document 1, in the test mode, data relating to the focus state is obtained from each of an AF sensor for detecting a phase difference and an image sensor (imaging device) for generating a captured image, and these data The relative deviation amount (difference) is stored. In the shooting mode, the focus lens is moved based on the stored relative deviation amount.

また、特許文献2にて開示された撮像装置では、フォーカスキャリブレーションモードを有し、位相差検出方式により得られた合焦位置とコントラスト検出方式により得られた合焦位置との差から、それらの合焦位置の信頼度を判定する。そして、その信頼度が低い場合には、警告を出力したり、該差をフォーカスキャリブレーション用の補正値として使用しなかったりする。   In addition, the imaging apparatus disclosed in Patent Document 2 has a focus calibration mode, and based on the difference between the focus position obtained by the phase difference detection method and the focus position obtained by the contrast detection method, The reliability of the in-focus position is determined. If the reliability is low, a warning is output or the difference is not used as a correction value for focus calibration.

特開2000−292684号公報JP 2000-292684 A 特開2007−286438号公報JP 2007-286438 A

しかしながら、特許文献1にて開示された撮像装置では、被写体に関する情報を用いることなく焦点状態に関するデータを取得したりその相対ずれ量を算出したりする。このため、被写体の種類によってはデータの取得ができなかったり、誤った相対ずれ量を算出したりする可能性がある。正確な焦点状態に関するデータを取得するためには、サービスセンターのように整った測定又は調整環境を用意する必要がある。   However, the imaging apparatus disclosed in Patent Document 1 acquires data on the focus state and calculates the amount of relative deviation without using information on the subject. For this reason, depending on the type of subject, there is a possibility that data cannot be acquired or an erroneous relative deviation amount may be calculated. In order to obtain data regarding the accurate focus state, it is necessary to prepare a measurement or adjustment environment that is arranged like a service center.

また、特許文献2にて開示された撮像装置では、位相差検出方式により算出された合焦位置とコントラスト検出方式により検出された合焦位置との差から信頼度の情報を得ている。このため、位相差検出方式により得られた合焦位置そのものの信頼度が低い場合でも、警告が出力されなかったり、該差をフォーカスキャリブレーション用の補正値として使用したりする可能性がある。   In the imaging apparatus disclosed in Patent Document 2, reliability information is obtained from the difference between the in-focus position calculated by the phase difference detection method and the in-focus position detected by the contrast detection method. For this reason, even when the reliability of the focus position itself obtained by the phase difference detection method is low, there is a possibility that a warning is not output or the difference is used as a correction value for focus calibration.

本発明は、整った測定又は調整環境を用意しなくても、信頼度の高いフォーカスキャリブレーションを行うことができるようにした撮像装置およびフォーカスキャリブレーション方法を提供する。   The present invention provides an imaging apparatus and a focus calibration method capable of performing focus calibration with high reliability without preparing a complete measurement or adjustment environment.

本発明の一側面としての撮像装置は、撮影光学系により形成された被写体像を光電変換して画像信号を生成する撮像手段と、被写体像の一対の像信号に基づいて、位相差検出方式により第1の合焦位置を検出する第1の検出手段と、第1の合焦位置に基づいて、撮影光学系に含まれるフォーカスレンズの位置を制御して焦点調節動作を行う制御手段と、画像信号に基づいて、コントラスト検出方式により第2の合焦位置を検出する第2の検出手段と、撮影時に第1の合焦位置を補正する補正値を、第1の合焦位置と第2の合焦位置との差に基づいて算出する算出手段と、一対の像信号に関する情報を用いて、第1の合焦位置の信頼度を判定する信頼度判定手段とを有する。そして、算出手段は、信頼度が第1の信頼度である場合は補正値を算出し、信頼度が第1の信頼度よりも低い第2の信頼度である場合は補正値の算出を制限することを特徴とする。 An imaging apparatus according to an aspect of the present invention includes an imaging unit that photoelectrically converts a subject image formed by a photographing optical system to generate an image signal, and a phase difference detection method based on a pair of image signals of the subject image. A first detection unit that detects a first focus position; a control unit that performs a focus adjustment operation by controlling a position of a focus lens included in the photographing optical system based on the first focus position; and an image Based on the signal, the second detecting means for detecting the second in-focus position by the contrast detection method, the correction value for correcting the first in-focus position at the time of photographing, the first in-focus position and the second in-focus position. Calculation means for calculating based on the difference from the in-focus position, and reliability determination means for determining the reliability of the first in-focus position using information relating to the pair of image signals. The calculating means calculates the correction value when the reliability is the first reliability, and restricts the calculation of the correction value when the reliability is the second reliability lower than the first reliability. It is characterized by doing.

また、本発明の他の一側面としての撮像装置の制御方法は、撮影光学系により形成された被写体像を光電変換して画像信号を生成する撮像装置に適用される。該制御方法は、被写体像の一対の像信号に基づいて、位相差検出方式により第1の合焦位置を検出するステップと、第1の合焦位置に基づいて、撮影光学系に含まれるフォーカスレンズの位置を制御して焦点調節動作を行うステップと、画像信号に基づいて、コントラスト検出方式により第2の合焦位置を検出するステップと、撮影時に第1の合焦位置を補正する補正値を、第1の合焦位置と第2の合焦位置との差に基づいて算出する算出ステップと、一対の像信号に関する情報を用いて、第1の合焦位置の信頼度を判定するステップとを有する。そして、算出ステップにおいて、信頼度が第1の信頼度である場合は補正値を算出し、信頼度が第1の信頼度よりも低い第2の信頼度である場合は補正値の算出を制限することを特徴とする。   In addition, a method for controlling an imaging apparatus according to another aspect of the present invention is applied to an imaging apparatus that generates an image signal by photoelectrically converting a subject image formed by a photographing optical system. The control method includes a step of detecting a first focus position by a phase difference detection method based on a pair of image signals of a subject image, and a focus included in the photographing optical system based on the first focus position. A step of performing a focus adjustment operation by controlling the position of the lens, a step of detecting the second focus position by a contrast detection method based on the image signal, and a correction value for correcting the first focus position during photographing. Calculating based on the difference between the first focus position and the second focus position, and determining the reliability of the first focus position using information relating to the pair of image signals And have. In the calculation step, when the reliability is the first reliability, the correction value is calculated, and when the reliability is the second reliability lower than the first reliability, the calculation of the correction value is limited. It is characterized by doing.

本発明では、被写体に対する位相差フォーカス処理の信頼度を判定し、該判定結果に応じて第1の合焦位置の補正(フォーカスキャリブレーション)を行うか否かを決定する。このため、本発明によれば、被写体依存による誤補正の少ない高精度な位相差フォーカス処理を行うことができる。しかも、ユーザが特別な環境を用意することなく、一般被写体を用いて誤補正の少ない補正が可能となる。 In the present invention, the reliability of the phase difference focus processing for the subject is determined, and whether or not the first focus position correction (focus calibration) is to be performed is determined according to the determination result. For this reason, according to the present invention, it is possible to perform highly accurate phase difference focus processing with less error correction due to subject dependency. In addition, it is possible to perform correction with few erroneous corrections using a general subject without preparing a special environment by the user.

本発明の実施例1であるカメラのフォーカスキャリブレーション動作を示すフローチャート。5 is a flowchart illustrating a focus calibration operation of the camera that is Embodiment 1 of the present invention. 実施例1のカメラにおける液晶モニタの表示を示す図。FIG. 3 is a diagram illustrating a display on a liquid crystal monitor in the camera according to the first embodiment. 実施例1のカメラの被写体選定処理を示すフローチャート。6 is a flowchart illustrating subject selection processing of the camera according to the first exemplary embodiment. 実施例1のカメラのコントラストAFデータ取得処理を示すフローチャート。5 is a flowchart illustrating contrast AF data acquisition processing of the camera according to the first exemplary embodiment. 実施例1のカメラの位相差AFデータ取得処理を示すフローチャート。6 is a flowchart illustrating phase difference AF data acquisition processing of the camera according to the first exemplary embodiment. 実施例1のカメラの撮影処理を示すフローチャート。3 is a flowchart illustrating shooting processing of the camera according to the first embodiment. 本発明の実施例2であるカメラの被写体選定処理を示すフローチャート。9 is a flowchart showing subject selection processing of a camera that is Embodiment 2 of the present invention. 実施例2のカメラの位相差AFデータ取得処理(パターン1)を示すフローチャート。10 is a flowchart illustrating phase difference AF data acquisition processing (pattern 1) of the camera according to the second exemplary embodiment. 実施例2のカメラの位相差AFデータ取得処理(パターン2)を示すフローチャート。9 is a flowchart illustrating phase difference AF data acquisition processing (pattern 2) of the camera according to the second exemplary embodiment. 実施例2のカメラの位相差AFデータ取得処理(パターン3)を示すフローチャート。10 is a flowchart illustrating phase difference AF data acquisition processing (pattern 3) of the camera according to the second exemplary embodiment. 実施例2のカメラの位相差AFデータ取得処理(パターン4)を示すフローチャート。10 is a flowchart illustrating phase difference AF data acquisition processing (pattern 4) of the camera according to the second exemplary embodiment. 本発明の実施例3であるカメラのフォーカスキャリブレーション動作を示すフローチャート。9 is a flowchart showing a focus calibration operation of a camera that is Embodiment 3 of the present invention. 実施例3のカメラの被写体選定処理を示すフローチャート。10 is a flowchart illustrating subject selection processing of the camera according to the third exemplary embodiment. 実施例3のカメラの位相差AFデータ取得処理を示すフローチャート。10 is a flowchart illustrating phase difference AF data acquisition processing of the camera according to the third exemplary embodiment. 実施例3のカメラのコントラストAFデータ取得処理を示すフローチャート。10 is a flowchart illustrating contrast AF data acquisition processing of the camera according to the third exemplary embodiment. 実施例3のカメラの撮影処理を示すフローチャート。10 is a flowchart illustrating shooting processing of the camera according to the third embodiment. 実施例1のカメラの構成を示す図。1 is a diagram illustrating a configuration of a camera according to Embodiment 1. 実施例1のカメラにおける焦点検出領域のレイアウトを示す図。FIG. 3 is a diagram illustrating a layout of a focus detection area in the camera according to the first embodiment. 本発明の実施例4であるカメラの被写体選定処理を示すフローチャート。9 is a flowchart showing subject selection processing of a camera that is Embodiment 4 of the present invention. 実施例4のカメラにおける液晶モニタの表示を示す図。FIG. 10 is a diagram illustrating a display on a liquid crystal monitor in the camera according to the fourth embodiment. 本発明の実施例5であるカメラの被写体選定処理を示すフローチャート。10 is a flowchart illustrating subject selection processing of a camera that is Embodiment 5 of the present invention.

以下、本発明の実施例について図面を参照しながら説明する。 Embodiments of the present invention will be described below with reference to the drawings.

図17には、本発明の実施例1であるデジタル一眼レフカメラ2と該カメラ2に対して交換が可能な交換レンズ1とにより構成されるカメラシステムの構成を示している。このカメラシステムは、位相差検出方式によるAF処理(以下、位相差AFという)を行うとともに、コントラスト検出方式による焦点検出結果を用いた位相差AFの補正機能であるフォーカスキャリブレーション機能を有する。   FIG. 17 shows a configuration of a camera system including a digital single-lens reflex camera 2 that is Embodiment 1 of the present invention and an interchangeable lens 1 that can be interchanged with the camera 2. This camera system performs AF processing by a phase difference detection method (hereinafter referred to as phase difference AF) and has a focus calibration function that is a correction function of phase difference AF using a focus detection result by a contrast detection method.

交換レンズ1内には撮影光学系10が収容されている。撮影光学系10は、複数のレンズユニットや絞りにより構成される。複数のレンズユニットのうち不図示の変倍レンズユニット(以下、ズームレンズという)を光軸方向に移動させることで、焦点距離を変化させて変倍(ズーム)を行うことができる。また、複数のレンズユニットのうちフォーカスレンズユニット(以下、単にフォーカスレンズという)10aを光軸方向に移動させることで、ピント合わせを行うことができる。   A photographing optical system 10 is accommodated in the interchangeable lens 1. The photographing optical system 10 includes a plurality of lens units and a diaphragm. By moving a not-shown zoom lens unit (hereinafter referred to as a zoom lens) among the plurality of lens units in the optical axis direction, zooming can be performed by changing the focal length. Further, focusing can be performed by moving a focus lens unit (hereinafter simply referred to as a focus lens) 10a among the plurality of lens units in the optical axis direction.

レンズ駆動部11は、ズームレンズやフォーカスレンズ10aを移動させるアクチュエータ、該アクチュエータの駆動回路およびアクチュエータの駆動力を各レンズに伝達する伝達機構を含む。レンズ状態検出部12は、ズームレンズやフォーカスレンズ10aの位置、すなわちズーム位置およびフォーカス位置を検出する。   The lens driving unit 11 includes an actuator for moving the zoom lens and the focus lens 10a, a driving circuit for the actuator, and a transmission mechanism for transmitting the driving force of the actuator to each lens. The lens state detection unit 12 detects the position of the zoom lens and the focus lens 10a, that is, the zoom position and the focus position.

レンズ制御部13は、CPU等により構成され、後述するカメラ制御部40からの指令に応じて交換レンズ1の動作を制御する。レンズ制御部13は、電気接点15のうち通信端子を介してカメラ制御部40と通信可能に接続されている。また、交換レンズ1には、電気接点15のうち電源端子を通じてカメラ2から電源が供給される。レンズ記憶部14は、ROM等により構成され、レンズ制御部13での制御に用いられるデータや交換レンズ1の識別情報や撮影光学系10の光学情報等の各種情報を記憶している。   The lens control unit 13 is configured by a CPU or the like, and controls the operation of the interchangeable lens 1 according to a command from a camera control unit 40 described later. The lens control unit 13 is communicably connected to the camera control unit 40 via a communication terminal in the electrical contact 15. The interchangeable lens 1 is supplied with power from the camera 2 through the power terminal of the electrical contact 15. The lens storage unit 14 includes a ROM or the like, and stores various information such as data used for control by the lens control unit 13, identification information of the interchangeable lens 1, and optical information of the photographing optical system 10.

カメラ2において、ハーフミラーで構成された主ミラー20は、ユーザが被写体を光学ファインダを通して観察する光学ファインダ観察時には、図示のように撮影光路内のダウン位置に配置されて撮影光学系10からの光をピント板30に向けて反射する。また、主ミラー20は、背面モニタ43に電子ビューファインダ用の画像(ライブビュー画像)を表示するライブビュー観察時や記録用画像(静止画および動画)を生成する撮影時には、撮影光路から退避するアップ位置に回動する。これにより、撮影光学系10からの光は、シャッタ23および撮像素子24に向かう。   In the camera 2, the main mirror 20 composed of a half mirror is disposed at a down position in the photographing optical path as shown in the figure when the user observes the subject through the optical viewfinder, and the light from the photographing optical system 10 is shown. Is reflected toward the focus plate 30. Further, the main mirror 20 is retracted from the photographing optical path during live view observation in which an image for an electronic viewfinder (live view image) is displayed on the rear monitor 43 or during photographing for generating a recording image (still image and moving image). Rotates to the up position. Thereby, the light from the photographing optical system 10 travels to the shutter 23 and the image sensor 24.

サブミラー21は、主ミラー20とともに回動し、ダウン位置に配置された主ミラー20を透過した光をAFセンサ22に導く。また、主ミラー20がアップ位置に回動すると、サブミラー21も撮影光路から退避する。   The sub mirror 21 rotates together with the main mirror 20 and guides the light transmitted through the main mirror 20 disposed at the down position to the AF sensor 22. When the main mirror 20 is rotated to the up position, the sub mirror 21 is also retracted from the photographing optical path.

AFセンサ22は、被写体から撮影光学系10を通ってサブミラー21で反射して入射した光を用いて、カメラ2による撮影範囲内に設けられた複数の焦点検出領域において位相差検出方式による撮影光学系の焦点状態の検出(焦点検出)を行う。AFセンサ22は、各焦点検出領域からの光に一対の像(被写体像)を形成させる2次結像レンズと、該一対の被写体像を光電変換する一対の受光素子列が配置されたエリアセンサ(CCD又はCMOS)とを含む。エリアセンサの一対の受光素子列(センサ対)は、一対の被写体像の輝度分布に応じた光電変換信号である一対の像信号をカメラ制御部40に出力する。エリアセンサ上には、複数の焦点検出領域に対応した複数対の受光素子列(センサ対)が2次元配置されている。   The AF sensor 22 uses the light reflected from the subject through the photographing optical system 10 and reflected by the sub-mirror 21, and the photographing optical by the phase difference detection method in a plurality of focus detection areas provided in the photographing range by the camera 2. The focus state of the system is detected (focus detection). The AF sensor 22 is an area sensor in which a secondary imaging lens that forms a pair of images (subject images) on the light from each focus detection region and a pair of light receiving element rows that photoelectrically convert the pair of subject images. (CCD or CMOS). The pair of light receiving element arrays (sensor pair) of the area sensor outputs a pair of image signals, which are photoelectric conversion signals corresponding to the luminance distribution of the pair of subject images, to the camera control unit 40. A plurality of pairs of light receiving element arrays (sensor pairs) corresponding to a plurality of focus detection areas are two-dimensionally arranged on the area sensor.

カメラ制御部40は、一対の像信号の位相差を算出し、該位相差から撮影光学系10の焦点状態(デフォーカス量)を算出する。さらに、カメラ制御部40は、検出した撮影光学系10の焦点状態に基づいて、撮影光学系10の合焦状態を得るためにフォーカスレンズ10aを移動させるべき位置である合焦位置(第1の合焦位置:以下、位相差合焦位置という)を算出する。
そして、カメラ制御部40は、算出した位相差合焦位置にフォーカスレンズ10aを移動させるようレンズ制御部13にフォーカス指令を送信する。レンズ制御部13は、受信したフォーカス指令に応じて、レンズ駆動部11を介してフォーカスレンズ10aを位相差合焦位置に移動させる。このように焦点調節動作が行われ、撮影光学系10の合焦状態が得られる。
The camera control unit 40 calculates the phase difference between the pair of image signals, and calculates the focus state (defocus amount) of the photographing optical system 10 from the phase difference. Further, the camera control unit 40, based on the detected focus state of the photographing optical system 10, obtains a focusing position (first position) that is a position to move the focus lens 10a to obtain a focusing state of the photographing optical system 10. (Focus position: hereinafter referred to as phase difference in-focus position).
Then, the camera control unit 40 transmits a focus command to the lens control unit 13 so as to move the focus lens 10a to the calculated phase difference in-focus position. The lens control unit 13 moves the focus lens 10a to the phase difference in-focus position via the lens driving unit 11 in accordance with the received focus command. Thus, the focus adjustment operation is performed, and the in-focus state of the photographing optical system 10 is obtained.

以上のように、位相差検出方式による焦点状態の検出と、該焦点状態に基づく位相差合焦位置の算出(検出)と、該位相差合焦位置へのフォーカスレンズ10aの移動とを含む位相差AFが行われる。AFセンサ22とカメラ制御部40は第1の検出手段として機能する。また、カメラ制御部40は、制御手段として機能する。   As described above, the focus state is detected by the phase difference detection method, the phase difference focus position is calculated (detected) based on the focus state, and the focus lens 10a is moved to the phase difference focus position. Phase difference AF is performed. The AF sensor 22 and the camera control unit 40 function as first detection means. The camera control unit 40 functions as a control unit.

なお、AFセンサ22のエリアセンサにおいて受光素子が2次元配置されているため、撮影範囲内のうち同じ視野領域(例えば、中央領域)について、被写体の水平方向と垂直方向の輝度分布を検出して焦点検出を行うことが可能となる。これについては、後に詳しく説明する。   In addition, since the light receiving elements are two-dimensionally arranged in the area sensor of the AF sensor 22, the luminance distribution in the horizontal direction and the vertical direction of the subject is detected for the same field area (for example, the central area) within the imaging range. Focus detection can be performed. This will be described in detail later.

シャッタ23は、光学ファインダ観察時には閉じ、ライブビュー観察時および動画撮影時には開放されて撮影光学系10により形成された被写体像の撮像素子24による光電変換(ライブビュー画像および撮影動画の生成)を可能とする。さらに、静止画撮影時には、設定されたシャッタ秒時で開閉し、撮像素子24の露光を制御する。   The shutter 23 is closed during optical viewfinder observation, and is opened during live view observation and moving image shooting, and photoelectric conversion (generation of a live view image and a shooting moving image) by the image sensor 24 of the subject image formed by the shooting optical system 10 is possible. And Further, during still image shooting, the shutter is opened and closed at a set shutter speed, and exposure of the image sensor 24 is controlled.

撮像素子24は、CMOSイメージセンサ又はCCDイメージセンサとその周辺回路により構成され、撮影光学系10により形成された被写体像を光電変換してアナログ撮像信号を出力する。   The image sensor 24 is composed of a CMOS image sensor or a CCD image sensor and its peripheral circuits, and photoelectrically converts a subject image formed by the photographing optical system 10 and outputs an analog image signal.

ピント板30は、撮像素子24と等価な位置である撮影光学系10の1次結像面に配置されている。光学ファインダ観察時には、ピント板30上に、被写体像(ファインダー像)が形成される。ペンタプリズム31は、ピント板30上に形成された被写体像を正立正像に変換する。接眼レンズ32は、正立正像をユーザに観察させる。ピント板30、ペンタプリズム31および接眼レンズ32により光学ファインダが構成される。   The focus plate 30 is disposed on the primary imaging plane of the photographic optical system 10 that is at a position equivalent to the image sensor 24. A subject image (finder image) is formed on the focus plate 30 during optical viewfinder observation. The pentaprism 31 converts the subject image formed on the focus plate 30 into an erect image. The eyepiece 32 allows the user to observe an erect image. The focus plate 30, the pentaprism 31 and the eyepiece lens 32 constitute an optical finder.

AEセンサ(測光センサ)33は、ピント板30からの光(被写体像)をペンタプリズム31を介して受光して光電変換し、該ピント板30上に形成された被写体像の輝度を測定する。AEセンサ33は、複数のフォトダイオードを有し、カメラ2による撮影範囲を分割するように設定された複数の測光領域のそれぞれで輝度を測定することができる。   The AE sensor (photometric sensor) 33 receives light from the focus plate 30 (subject image) through the pentaprism 31 and performs photoelectric conversion, and measures the luminance of the subject image formed on the focus plate 30. The AE sensor 33 has a plurality of photodiodes, and can measure the luminance in each of a plurality of photometric areas set so as to divide the imaging range of the camera 2.

カメラ制御部40は、MPU等を含むマイクロコンピュータにより構成され、カメラ2と交換レンズ1からなるカメラシステム全体の動作を制御する。カメラ制御部40は、前述したようにフォーカス制御手段として機能するとともに、後述するように補正手段および信頼度判定手段としても機能する。   The camera control unit 40 is configured by a microcomputer including an MPU and the like, and controls the operation of the entire camera system including the camera 2 and the interchangeable lens 1. The camera control unit 40 functions as a focus control unit as described above, and also functions as a correction unit and a reliability determination unit as described later.

デジタル制御部41は、撮像素子24からのアナログ撮像信号をデジタル撮像信号に変換し、さらに該デジタル撮像信号に対して各種処理を行って画像信号(画像データ)を生成する。撮像素子24およびデジタル制御部41により撮像系が構成される。   The digital control unit 41 converts an analog image pickup signal from the image pickup device 24 into a digital image pickup signal, and further performs various processes on the digital image pickup signal to generate an image signal (image data). The imaging device 24 and the digital control unit 41 constitute an imaging system.

また、デジタル制御部(第2の検出手段)41は、画像信号から特定の周波数成分を抽出して該画像信号のコントラストを示すコントラスト評価値を生成する。そして、該コントラスト評価値が最大となるフォーカスレンズ10aの合焦位置を検出する。このようにしてコントラスト検出方式により合焦位置を検出する動作(ライブビュー観察時および動画撮影時のピント合わせを含む)をコントラストAFという。また、コントラストAFにより検出される合焦位置(第2の合焦位置)を、以下、コントラスト合焦位置という。   Further, the digital control unit (second detection means) 41 extracts a specific frequency component from the image signal and generates a contrast evaluation value indicating the contrast of the image signal. Then, the focus position of the focus lens 10a where the contrast evaluation value is maximized is detected. The operation of detecting the focus position by the contrast detection method in this way (including focusing during live view observation and moving image shooting) is called contrast AF. In addition, the focus position (second focus position) detected by contrast AF is hereinafter referred to as a contrast focus position.

カメラ記憶部42は、カメラ制御部40やデジタル制御部41の動作で用いられる各種データを記憶している。また、カメラ記憶部42は、生成された記録用画像を保存する。   The camera storage unit 42 stores various data used in the operation of the camera control unit 40 and the digital control unit 41. In addition, the camera storage unit 42 stores the generated recording image.

背面モニタ43は、液晶パネル等の表示素子により構成され、ライブビュー画像、記録用画像および各種情報を表示する。   The rear monitor 43 includes a display element such as a liquid crystal panel, and displays a live view image, a recording image, and various types of information.

なお、図17には示していないが、カメラ2にはレリーズスイッチ44が設けられている。レリーズスイッチ44が半押し操作されると、不図示の第1スイッチ(SW1)がONになり、AFや測光が開始される。また、レリーズスイッチ44が全押し操作されると、不図示の第2スイッチ(SW2)がONになり、撮影(記録用画像の生成)が行われる。   Although not shown in FIG. 17, the camera 2 is provided with a release switch 44. When the release switch 44 is pressed halfway, a first switch (SW1) (not shown) is turned on, and AF and photometry are started. Further, when the release switch 44 is fully pressed, a second switch (SW2) (not shown) is turned on, and photographing (generation of a recording image) is performed.

図18には、撮影範囲内での焦点検出領域のレイアウトを示している。50はカメラによる撮影範囲を示している。撮影範囲50内には、ライン状の焦点検出領域(以下、焦点検出ラインという)は21ライン存在する。撮影範囲50の中央領域には、縦方向に長い焦点検出ライン(以下、縦目という)がL1,L2の2ライン配置され、横方向に長い焦点検出ライン(以下、横目という)がL3,L4の2ライン配置されている。1つの焦点検出ラインに対して、センサ対としての一対の受光素子列が設けられている。   FIG. 18 shows the layout of the focus detection area within the imaging range. Reference numeral 50 denotes a photographing range by the camera. Within the imaging range 50, there are 21 line-shaped focus detection areas (hereinafter referred to as focus detection lines). In the central region of the shooting range 50, two vertical focus detection lines (hereinafter referred to as vertical eyes) L1 and L2 are arranged, and horizontal long focus detection lines (hereinafter referred to as horizontal eyes) are L3 and L4. 2 lines are arranged. A pair of light receiving element rows as a sensor pair is provided for one focus detection line.

縦目は、相関方向が縦方向(撮像素子24の短辺方向)であり、縦方向の輝度分布から撮影光学系10の焦点状態を検出する。一方、横目は、相関方向が横方向(撮像素子24の長辺方向)であり、横方向の輝度分布から撮影光学系10の焦点状態を検出する。   The longitudinal direction of the vertical eye is the vertical direction (the short side direction of the image sensor 24), and the focus state of the photographing optical system 10 is detected from the luminance distribution in the vertical direction. On the other hand, for the horizontal eye, the correlation direction is the horizontal direction (the long side direction of the image sensor 24), and the focus state of the photographing optical system 10 is detected from the luminance distribution in the horizontal direction.

縦方向に2ライン並んだ焦点検出ラインL1,L2は、縦方向に微小量だけずれて配置されている。このずれ量は、相関方向に並ぶ画素のピッチの半分である。画素ピッチの半分量だけずれて配置された焦点検出ラインL1,L2から得られる2つの焦点検出結果の両方を加味して検出結果を算出することで、検出のばらつきを軽減する。横方向に2ライン並んだ焦点検出ラインL3,L4についても、焦点検出ラインL1,L2と同様に画素ピッチの半分量だけずれて配置することで、検出ばらつきを軽減する。   The focus detection lines L1 and L2 arranged in two lines in the vertical direction are arranged so as to be shifted by a minute amount in the vertical direction. This shift amount is half the pitch of the pixels arranged in the correlation direction. Variation in detection is reduced by calculating the detection result by taking into account both of the two focus detection results obtained from the focus detection lines L1 and L2 arranged with a shift of half the pixel pitch. As for the focus detection lines L3 and L4 arranged in two horizontal directions, the detection variation is reduced by arranging the focus detection lines L3 and L4 so as to be shifted by half of the pixel pitch in the same manner as the focus detection lines L1 and L2.

撮影範囲50の中央領域には、基線長が長い、F2.8の光束を用いて焦点検出を行う焦点検出ラインL19を横方向に1ライン備えている。焦点検出ラインL19は、焦点検出ラインL3やL4に比べて基線長が長いため、AFセンサ22の受光面上での像の移動量が大きい。このため、焦点検出ラインL3,L4よりも高精度な検出を実現することができる。   In the central region of the imaging range 50, one focus detection line L19 for performing focus detection using a F2.8 light beam having a long base length is provided in the horizontal direction. The focus detection line L19 has a long base line length compared to the focus detection lines L3 and L4, and therefore the amount of image movement on the light receiving surface of the AF sensor 22 is large. For this reason, detection with higher accuracy than the focus detection lines L3 and L4 can be realized.

ただし、焦点検出ラインL19は、F2.8光束を用いているため、F2.8以上の明るい交換レンズが装着されたときのみ有効となる。また、像の移動量が大きいため、焦点検出ラインL3,L4に比べて、大きいデフォーカスを検出する能力は劣る。上述のようにF2.8用の焦点検出ライン(以下、F2.8目という)L19を備えることで、高い検出精度が要求されるF2.8以上の明るい交換レンズが装着されたときに、それに応じた高精度の検出を実現することができる。   However, since the focus detection line L19 uses F2.8 light flux, it is effective only when a bright interchangeable lens of F2.8 or higher is attached. Further, since the amount of image movement is large, the ability to detect a large defocus is inferior to the focus detection lines L3 and L4. By providing the F2.8 focus detection line (hereinafter referred to as F2.8 eye) L19 as described above, when a bright interchangeable lens of F2.8 or higher that requires high detection accuracy is mounted, High-accuracy detection can be realized.

AFセンサ22では、撮影範囲50の中央領域においては、焦点検出ラインを縦横クロス状に配置することで、縦横両方向の輝度分布を検出することができる。縦横両方向の輝度分布を得ることで、輝度分布があまりない被写体で無理やりに焦点検出を行う必要がなくなるため、検出ばらつきを軽減することができる。これにより、焦点検出可能な被写体の種類を広げると共に、検出精度の向上を実現することができる。このように、撮影範囲50の中央領域では、縦目(L1,L2)と、横目(L3,L4)と、F2.8目(L19)による3つの焦点検出結果を得ることができる。   The AF sensor 22 can detect the luminance distribution in both the vertical and horizontal directions by arranging the focus detection lines in a vertical and horizontal cross shape in the central region of the shooting range 50. By obtaining the luminance distribution in both the vertical and horizontal directions, it is not necessary to forcibly perform focus detection on a subject with little luminance distribution, so that detection variations can be reduced. As a result, it is possible to increase the types of subjects for which focus detection is possible and to improve detection accuracy. As described above, in the central region of the shooting range 50, three focus detection results can be obtained from the vertical eye (L1, L2), the horizontal eye (L3, L4), and the F2.8 eye (L19).

次に、撮影範囲50の上下方向に配置された焦点検出ラインについて説明する。撮影範囲50の上部には、横目L5,L11が配置されており、撮影範囲50の上部に位置する被写体像の横方向の輝度分布から撮影光学系10の焦点状態を検出する。また、撮影範囲50の下部には、横目L6,L12が配置されており、撮影範囲50の下部に位置する被写体像の横方向の輝度分布から撮影光学系10の焦点状態を検出する。また、焦点検出ラインL5と同じ位置にF2.8用の横目L20が、横目L6と同じ位置にF2.8の横目L21がそれぞれ配置されている。これにより、高い検出精度が要求されるF2.8以上の明るい交換レンズが装着されたときに、高精度の焦点検出を実現することができる。   Next, focus detection lines arranged in the vertical direction of the imaging range 50 will be described. Horizontal eyes L5 and L11 are arranged above the photographing range 50, and the focus state of the photographing optical system 10 is detected from the luminance distribution in the horizontal direction of the subject image located above the photographing range 50. In addition, horizontal eyes L6 and L12 are arranged below the photographing range 50, and the focus state of the photographing optical system 10 is detected from the luminance distribution in the horizontal direction of the subject image located below the photographing range 50. Further, the F2.8 horizontal eye L20 is arranged at the same position as the focus detection line L5, and the F2.8 horizontal eye L21 is arranged at the same position as the horizontal eye L6. Thereby, when a bright interchangeable lens of F2.8 or higher, which requires high detection accuracy, is attached, high-precision focus detection can be realized.

焦点検出ラインL3,L4,L5,L6,L11,L12の左端に接するように焦点検出ラインL7,L9が、焦点検出ラインL3,L4,L5,L6,L11,L12の右端に接するように焦点検出ラインL8,L10がそれぞれ縦方向に並んで配置されている。焦点検出ラインL7,L9,L8,L10,L14,L16は縦目であり、縦方向の輝度分布から撮影光学系10の焦点状態を検出する。   Focus detection is performed so that the focus detection lines L7, L9 are in contact with the left ends of the focus detection lines L3, L4, L5, L6, L11, L12, and the right ends of the focus detection lines L3, L4, L5, L6, L11, L12. Lines L8 and L10 are arranged side by side in the vertical direction. The focus detection lines L7, L9, L8, L10, L14, and L16 are vertical eyes, and detect the focus state of the photographing optical system 10 from the luminance distribution in the vertical direction.

焦点検出ラインL7,L9の左側には焦点検出ラインL13,L15が、焦点検出ラインL8,10の右側には焦点検出ラインL14,16が縦方向に並んで配置されている。焦点検出ラインL13,L14,L15,L16も縦目であり、縦方向の輝度分布から撮影光学系10の焦点状態を検出する。   Focus detection lines L13 and L15 are arranged on the left side of the focus detection lines L7 and L9, and focus detection lines L14 and 16 are arranged side by side on the right side of the focus detection lines L8 and L10. The focus detection lines L13, L14, L15, and L16 are also vertical eyes, and detect the focus state of the photographing optical system 10 from the luminance distribution in the vertical direction.

横方向の一番外側には焦点検出ラインL17,L18が配置されている。焦点検出ラインL17,L18は縦方向の中央が光軸上にあり、撮影範囲50の横方向に位置する被写体像の縦方向の輝度分布から撮影光学系10の焦点状態を検出する。   Focus detection lines L17 and L18 are arranged on the outermost side in the horizontal direction. The focus detection lines L <b> 17 and L <b> 18 have the center in the vertical direction on the optical axis, and detect the focus state of the imaging optical system 10 from the vertical luminance distribution of the subject image located in the horizontal direction of the imaging range 50.

次に、カメラ2が有するフォーカスキャリブレーション機能(以下、AFキャリブレーションという)について説明する。AFキャリブレーションは、位相差検出方式により得られた位相差合焦位置を、該位相差合焦位置と前述したコントラストAFにより得られたコントラスト合焦位置との差に基づいて補正する機能である。このAFキャリブレーションは、AFセンサ22から入力された一対の像信号の位相差から位相差合焦位置を算出し、かつデジタル制御部41からコントラスト合焦位置を取得するキャリブレーション手段としてのカメラ制御部40が主として行う。   Next, a focus calibration function (hereinafter referred to as AF calibration) that the camera 2 has will be described. AF calibration is a function for correcting the phase difference focus position obtained by the phase difference detection method based on the difference between the phase difference focus position and the contrast focus position obtained by the contrast AF described above. . This AF calibration calculates the phase difference in-focus position from the phase difference between the pair of image signals input from the AF sensor 22 and controls the camera as calibration means for acquiring the contrast in-focus position from the digital control unit 41. Part 40 is mainly performed.

また、カメラ制御部40は、信頼度判定手段として、AFセンサ22からの一対の像信号に関する情報を用いて、位相差AFの対象となっている被写体に対する位相差AFの信頼度を算出し、該信頼度が高いか低いかを判定する。本実施例にいう被写体に対する位相差AFの信頼度とは、基本的には、被写体からの光を受光するAFセンサ22からの一対の像信号を用いて得られるデフォーカス量(焦点状態)の信頼度である。ただし、位相差合焦位置はデフォーカス量から算出されるので、結果的に、位相差合焦位置の信頼度ということもできる。以下の説明において、被写体に対する位相差AFの信頼度を、単に信頼度ともいう。   Further, the camera control unit 40 calculates the reliability of the phase difference AF for the subject that is the target of the phase difference AF, using the information regarding the pair of image signals from the AF sensor 22 as the reliability determination unit, It is determined whether the reliability is high or low. The reliability of the phase difference AF for the subject in the present embodiment is basically the defocus amount (focus state) obtained using a pair of image signals from the AF sensor 22 that receives light from the subject. It is reliability. However, since the phase difference in-focus position is calculated from the defocus amount, it can be said that the phase difference in-focus position is reliable. In the following description, the reliability of the phase difference AF for the subject is also simply referred to as reliability.

そして、本実施例では、一対の像信号に関する情報を用いて求められる、該信頼度を示す評価値として、特開2007−052072号公報にて開示されているSレベル(SELECTLEVEL)値SLを用いる。   In this embodiment, an S level (SELECTLEVEL) value SL disclosed in Japanese Patent Application Laid-Open No. 2007-052072 is used as an evaluation value indicating the reliability obtained using information relating to a pair of image signals. .

カメラ制御部40は、Sレベル値SLが閾値以下又は閾値より小さい場合、すなわち信頼度が高い第1の信頼度である場合はAFキャリブレーションを行う。一方、Sレベル値SLが閾値より大きい又は閾値以上である場合、すなわち信頼度が第1の信頼度よりも低い第2の信頼度である場合はAFキャリブレーションを制限し、信頼度が第1の信頼度である場合には行われない動作処理を行う。   The camera control unit 40 performs AF calibration when the S level value SL is equal to or lower than the threshold value or smaller than the threshold value, that is, when the first reliability level is high. On the other hand, if the S level value SL is greater than or equal to or greater than the threshold, that is, if the reliability is the second reliability lower than the first reliability, the AF calibration is limited and the reliability is the first. If it is the reliability, the operation processing that is not performed is performed.

Sレベル値SLは、一対の像信号に関する情報として、該一対の像信号の一致度U、エッジの数(相関変化量ΔV)、シャープネスSHおよび明暗比PBDとをパラメータとする値であり、以下の式のように表される。なお、一対の像信号に関する情報とは、必ずしも一対の像信号の双方に関する情報でなくてもよく、いずれか一方の像信号に関する情報であってもよい。また、一致度U、相関変化量ΔV、シャープネスSHおよび明暗比PBDについては、一対の像信号から得られる情報と言い換えてもよい。   The S level value SL is a value using, as parameters, a matching degree U, a number of edges (correlation change ΔV), a sharpness SH, and a light / dark ratio PBD as a pair of image signals. It is expressed as Note that the information related to the pair of image signals may not necessarily be information related to both of the pair of image signals, and may be information related to any one of the image signals. Further, the degree of coincidence U, the correlation change amount ΔV, the sharpness SH, and the contrast ratio PBD may be paraphrased as information obtained from a pair of image signals.

ここで、一致度Uは、その値が小さいほど信頼度が高い。相関変化量ΔVは、その値が大きいほど信頼度が高い。また、シャープネスSHは、その値が大きいほど信頼度が高い。明暗比PBDは、その値が大きいほど信頼度が高い。このため、一致度Uを分子とし、相関変化量ΔV、シャープネスSHおよび明暗比PBDの積を分母とすることで、各パラメータにて信頼度が高い場合にSレベル値SLが小さくなるように定義している。   Here, the degree of coincidence U is higher in reliability as the value is smaller. The larger the value of the correlation change amount ΔV, the higher the reliability. The sharpness SH is more reliable as the value thereof is larger. The greater the value of the light / dark ratio PBD, the higher the reliability. Therefore, by defining the degree of coincidence U as the numerator and the product of the correlation change amount ΔV, the sharpness SH, and the light / dark ratio PBD as the denominator, the S level value SL is defined to be small when the reliability is high in each parameter doing.

一致度Uについて説明する。一対の被写体像を、AFセンサ22のエリアセンサで光電変換すると、一対の像信号が得られる。この一対の像信号のそれぞれを、以下、A像およびB像という。ここでは、一致度の説明を分かりやすくするため、A像とB像のどちらかにゴースト光等の不要光が入射し、A像とB像が互いに同じ形状にならなかった場合について説明する。そして、A像とB像は形状が異なるため、合焦状態でも一致しない部分が生じる。この一致しない部分の面積を、一致度として定義する。   The coincidence degree U will be described. When a pair of subject images are photoelectrically converted by the area sensor of the AF sensor 22, a pair of image signals are obtained. Each of the pair of image signals is hereinafter referred to as an A image and a B image. Here, for easy understanding of the degree of coincidence, a case where unnecessary light such as ghost light is incident on one of the A and B images and the A and B images do not have the same shape will be described. Since the A image and the B image have different shapes, a portion that does not match even in a focused state is generated. The area of this non-matching part is defined as the matching degree.

エリアセンサ内の受光素子列(画素列)の数をNとし、合焦時のA像とB像のi番目の画素の出力をa[i],b[i]すると、一致度Uは下記のように表せる。   When the number of light receiving element rows (pixel rows) in the area sensor is N, and the outputs of the i-th pixel of the A image and the B image at the time of focusing are a [i] and b [i], the matching degree U is as follows. It can be expressed as

式(1)に示すように、A像とB像の画素出力差の絶対和を一致度Uと定義することで、A像とB像の一致度合いを的確に表現することができる。A像とB像の一致度が低い場合には一致度Uは大きくなり、A像とB像の一致度が高い場合には、一致度Uは小さくなる。   As shown in Expression (1), the degree of coincidence between the A image and the B image can be accurately expressed by defining the absolute sum of the pixel output differences between the A image and the B image as the coincidence degree U. When the coincidence between the A image and the B image is low, the coincidence U increases, and when the coincidence between the A image and the B image is high, the coincidence U decreases.

次に、エッジの数、すなわち相関変化量ΔVについて説明する。エッジの数を示すパラメータとして、相関演算において算出される相関変化量を用いる。合焦状態でのA像とB像の相関量に対する合焦状態から1画素ずつずらした状態でのA像とB像の相関量の変化量が相関変化量に相当する。合焦状態でのA像およびB像の相関量をV1とし、合焦状態から1画素ずつずらした状態でのA像およびB像の相関量をV2とすると、相関変化量ΔVは以下のように求められる。   Next, the number of edges, that is, the correlation change amount ΔV will be described. The correlation change amount calculated in the correlation calculation is used as a parameter indicating the number of edges. The amount of change in the correlation amount between the A image and the B image in a state shifted by one pixel from the in-focus state with respect to the correlation amount between the A image and the B image in the focused state corresponds to the correlation change amount. When the correlation amount between the A image and the B image in the focused state is V1, and the correlation amount between the A image and the B image in the state shifted by one pixel from the focused state is V2, the correlation change amount ΔV is as follows: Is required.

相関変化量ΔVは、合焦状態から1画素分ずれることで、A像とB像のエッジが一致した状態からずれた状態に移行したことにより生じる一致しない部分の面積である。このため、A像とB像のエッジの数が増えると、ずれたことにより生じる一致しない部分の面積も増える。このことから相関変化量ΔVはエッジの数を表すパラメータとして適切であることが分かる。なお、ずらし量は、1画素より多くてもよい。   The correlation change amount ΔV is an area of a non-matching portion generated by shifting from a state where the edges of the A image and the B image are shifted from a state where they are shifted by one pixel from the focused state. For this reason, when the number of edges of the A image and the B image increases, the area of the non-matching portion caused by the deviation also increases. From this, it is understood that the correlation change amount ΔV is appropriate as a parameter representing the number of edges. Note that the shift amount may be larger than one pixel.

次に、シャープネスSHについて説明する。本実施例でいうシャープネスとは、A像とB像の信号値があるボトム値からピーク値に変化するときに、急峻に値が変わるか徐々に値が変わるかを表す。本実施例では、シャープネスをA像とB像から得られる1次コントラスト評価値C1と2次コントラスト評価値C2の比とする。1次コントラスト評価値とは、A像とB像における隣接画素の出力差の絶対値の和とし、2次コントラスト評価値とは、A像とB像における隣接画素の出力差の二乗和とする。AFセンサ22の画素列の数をNとし、合焦状態でのA像とB像のi番目の画素出力をa[i],b[i]とすると、1次コントラスト評価値C1および2次コントラスト評価値C2は以下のように表せる。MAXは、{}内の2つのうち大きい方の意味である。   Next, the sharpness SH will be described. The sharpness referred to in the present embodiment represents whether the value changes sharply or gradually when the signal values of the A and B images change from a certain bottom value to a peak value. In the present embodiment, the sharpness is a ratio between the primary contrast evaluation value C1 and the secondary contrast evaluation value C2 obtained from the A image and the B image. The primary contrast evaluation value is the sum of absolute values of output differences between adjacent pixels in the A and B images, and the secondary contrast evaluation value is the sum of squares of output differences between adjacent pixels in the A and B images. . When the number of pixel rows of the AF sensor 22 is N and the i-th pixel outputs of the A and B images in the focused state are a [i] and b [i], the primary contrast evaluation value C1 and the secondary evaluation value The contrast evaluation value C2 can be expressed as follows. MAX means the larger of the two in {}.

1次コントラスト評価値C1は、隣接画素の出力差の絶対和であるため、信号波形のエッジ部分から得られる1次コントラスト評価値C1は、エッジ部の階調変化が急峻であってもなだらかであっても、エッジ部のピーク値とボトム値が同じであれば同じとなる。例えば、半分が白、半分が黒、境界線で白と黒が接しているような被写体から得られる1次コントラスト評価値C1と、一方端が白、他方端が黒、白端から黒端にかけてなだらかに色味が変化するような被写体から得られる1次コントラスト評価値C1とは同じである。   Since the primary contrast evaluation value C1 is an absolute sum of output differences between adjacent pixels, the primary contrast evaluation value C1 obtained from the edge portion of the signal waveform is gentle even if the gradation change of the edge portion is steep. Even if it exists, it will be the same if the peak value and the bottom value of the edge part are the same. For example, the primary contrast evaluation value C1 obtained from a subject in which half is white, half is black, and white and black are in contact with the boundary line, is white at one end, black at the other end, and from the white end to the black end. This is the same as the primary contrast evaluation value C1 obtained from a subject whose color changes gently.

一方、2次コントラスト評価値C2は、隣接画素の出力差の二乗和であるため、階調変化が急峻なエッジ部から得られるものは、階調変化がなだらかなエッジ部から得られるものよりも大きくなる。これは式(6)からも明らかである。このため、2次コントラスト評価値C2に基づいてエッジ部の階調変化の大きさを推定することは適切である。   On the other hand, since the secondary contrast evaluation value C2 is the sum of squares of the output differences of adjacent pixels, what is obtained from the edge portion where the gradation change is steep is more than that obtained from the edge portion where the gradation change is gentle. growing. This is also clear from equation (6). For this reason, it is appropriate to estimate the magnitude of the gradation change of the edge portion based on the secondary contrast evaluation value C2.

被写体像のシャープネスをSHとすると、シャープネスSHは、1次コントラスト評価値C1、2次コントラスト評価値C2の比として以下のように表せる。   When the sharpness of the subject image is SH, the sharpness SH can be expressed as a ratio of the primary contrast evaluation value C1 and the secondary contrast evaluation value C2 as follows.

ここで、2次コントラスト評価値C2でシャープネスSHを表現せず、1次コントラスト評価値C1で割った値とするのは、エッジの数の影響を排除するためである。例えば、半分が白、半分が黒、境界線で白と黒が接しているような被写体から得られる2次コントラスト評価値をC2_1、両端が黒、中央が白、白と黒が2つの境界線で接しているような被写体から得られる2次コントラスト評価値をC2_2とする。
シャープネスとは、A像とB像があるボトム値からピーク値に変化するときに、急峻に値が変わるか、徐々に値が変わっていくかを表しているものであるため、エッジの数が1本であろうと2本であろうと、同じ値になるべきである。今、2次コントラスト評価値C2_1と2次コントラスト評価値C2_2との間には以下の関係が成り立つ。
Here, the reason why the sharpness SH is not expressed by the secondary contrast evaluation value C2 and is divided by the primary contrast evaluation value C1 is to eliminate the influence of the number of edges. For example, C2_1 is a secondary contrast evaluation value obtained from a subject in which half is white, half is black, and white and black are bordered by a boundary line, both ends are black, the center is white, and white and black are two boundary lines. Let C2_2 be the secondary contrast evaluation value obtained from the subject that is in contact with.
Sharpness represents whether the value changes sharply or gradually when the A image and B image change from a certain bottom value to a peak value. Whether it is one or two, it should be the same value. Now, the following relationship is established between the secondary contrast evaluation value C2_1 and the secondary contrast evaluation value C2_2.

式(8)に示すように、2次コントラスト評価値C2は、エッジの数が増えると、その分だけ増えてしまう。そのため、2次コントラスト評価値C2だけでシャープネスを表現するのは不適切である。そこでエッジの数の影響をなくすため、1次コントラスト評価値C1で割って正規化する。半分が白、半分が黒、境界線で白と黒が接しているような被写体から得られる1次コントラスト評価値をC1_1、両端が黒、中央が白で白と黒が2つの境界線で接しているような被写体から得られる1次コントラスト評価値をC1_2とすると、次の関係が成り立つ。   As shown in Expression (8), the secondary contrast evaluation value C2 increases as the number of edges increases. Therefore, it is inappropriate to express the sharpness only by the secondary contrast evaluation value C2. Therefore, in order to eliminate the influence of the number of edges, normalization is performed by dividing by the primary contrast evaluation value C1. C1_1 is a primary contrast evaluation value obtained from a subject in which half is white, half is black, and white and black meet at the boundary, black at both ends, white at the center, and white and black meet at two boundaries If the primary contrast evaluation value obtained from such a subject is C1_2, the following relationship is established.

また、半分が白、半分が黒で境界線で白と黒が接しているような被写体から得られるシャープネスをSH_1、両端が黒、中央が白、白と黒が2つの境界線で接しているような被写体から得られるシャープネスをSH_2とすると、以下の通り表せる。   In addition, the sharpness obtained from a subject in which half is white, half is black, and white and black are in contact with the boundary line is SH_1, both ends are black, the center is white, and white and black are in contact with two boundary lines. When the sharpness obtained from such a subject is SH_2, it can be expressed as follows.

式(11)に式(8)と式(9)を代入すると、SH_2は以下の通り表せる。   When Expression (8) and Expression (9) are substituted into Expression (11), SH_2 can be expressed as follows.

式(12)から、半分が白、半分が黒で、境界線で白と黒が接しているような被写体から得られるシャープネスSH_1と、両端が黒、中央が白で、白と黒が2つの境界線で接しているような被写体から得られるシャープネスSH_2は、同じであることがわかる。同様に考えることで、エッジの数がいくつ増えても、シャープネスSHの値は変わらないことが分かる。   From Expression (12), sharpness SH_1 obtained from a subject in which half is white, half is black, and white and black touch each other at the boundary, and both ends are black, the center is white, white and black are two It can be seen that the sharpness SH_2 obtained from the subject touching at the boundary line is the same. From the same consideration, it can be seen that the value of the sharpness SH does not change no matter how many edges are added.

以上のことから、1次コントラスト評価値と2次コントラスト評価値の比をシャープネスとすることで、被写体像のシャープネスを的確に表現することができる。   From the above, the sharpness of the subject image can be accurately expressed by setting the ratio between the primary contrast evaluation value and the secondary contrast evaluation value as sharpness.

次に、明暗比PBDについて説明する。本実施例にいう明暗比PBDとは、被写体像の濃淡がはっきりしているかどうかを表すパラメータである。具体的には、被写体像(信号値)のボトム値からピーク値までの高さが、センサ出力のダーク値からピーク値までの高さに比べてどれだけの大きさになっているかを表している。   Next, the light / dark ratio PBD will be described. The brightness / darkness ratio PBD referred to in the present embodiment is a parameter indicating whether the density of the subject image is clear. Specifically, it indicates how much the height from the bottom value to the peak value of the subject image (signal value) is larger than the height from the dark value to the peak value of the sensor output. Yes.

合焦状態でのA像のダーク値、ボトム値、ピーク値をそれぞれ、DARK_A,BOTTOM_A,PEAK_Aとし、B像のダーク値、ボトム値、ピーク値をDARK_B,BOTTOM_B,PEAK_Bとする。この場合、A像から得られる明暗比PBD_Aと、B像から得られる明暗比PBD_Bは下記の通りに表せる。   The dark value, bottom value, and peak value of the A image in the focused state are DARK_A, BOTTOM_A, and PEAK_A, respectively, and the dark value, bottom value, and peak value of the B image are DARK_B, BOTTOM_B, and PEAK_B. In this case, the light / dark ratio PBD_A obtained from the A image and the light / dark ratio PBD_B obtained from the B image can be expressed as follows.

上記のようにA像とB像それぞれから得られた明暗比のうち、大きい方を明暗比PBDとして定義する。   Of the light / dark ratios obtained from the A and B images as described above, the larger one is defined as the light / dark ratio PBD.

式(15)に示した明暗比PBDにより、被写体像のボトム値からピーク値までの高さが、センサ出力のダーク値からピーク値までの高さに比べて、どれだけの大きさになっているかを表現することができる。式(15)から分かるように、明暗比PBDは0以上1以下の数字となる。明暗比PBDが1に近い場合は、被写体像のボトム値からピーク値までの高さとセンサ出力のダーク値からピーク値までの高さがほぼ同じであることを意味する。この場合は、濃淡のはっきりした被写体像であると判定する。   According to the light / dark ratio PBD shown in Expression (15), the height from the bottom value to the peak value of the subject image becomes larger than the height from the dark value to the peak value of the sensor output. Can be expressed. As can be seen from Equation (15), the light / dark ratio PBD is a number between 0 and 1. When the light / dark ratio PBD is close to 1, it means that the height from the bottom value to the peak value of the subject image is substantially the same as the height from the dark value to the peak value of the sensor output. In this case, it is determined that the subject image is clear.

逆に、明暗比が0に近い場合は、ボトム値からピーク値までの高さがダーク値からピーク値までの高さに比べて非常に小さいことを意味する。この場合は、濃淡がはっきりしない被写体であると判定する。   On the contrary, when the contrast ratio is close to 0, it means that the height from the bottom value to the peak value is very small compared to the height from the dark value to the peak value. In this case, it is determined that the subject is not clear.

以上のように、被写体像のダーク値、ボトム値、ピーク値に基づいて算出した明暗比PBDを用いることで、被写体像が濃淡のはっきりしたものであるかどうかを的確に判定できる。   As described above, by using the light / dark ratio PBD calculated based on the dark value, the bottom value, and the peak value of the subject image, it can be accurately determined whether or not the subject image is clear.

本実施例では、AFキャリブレーションに一般的な被写体を用いる。そして、上述したSレベル値SLを信頼度の評価値として用いることで、位相差AFの被写体依存性を低減することができる。つまり、Sレベル値SLを用いて信頼度が高い(第1の信頼度である)と判定されれば、そのときの被写体は位相差AFによって精度の高い合焦状態が得られるはずである。したがって、AFキャリブレーションを行って(補正値を算出して)位相差合焦位置を補正することで、本来の高精度の合焦状態が得られるようにする。   In this embodiment, a general subject is used for AF calibration. Then, the subject dependency of the phase difference AF can be reduced by using the S level value SL described above as the reliability evaluation value. That is, if it is determined that the reliability is high (the first reliability) using the S level value SL, the subject at that time should be able to obtain a highly accurate in-focus state by the phase difference AF. Therefore, by performing AF calibration (calculating a correction value) and correcting the phase difference in-focus position, an original highly accurate in-focus state can be obtained.

一方、Sレベル値SLを用いて信頼度が低い(第2の信頼度である)と判定されたときは、そのときの被写体は位相差AFによって良好な精度の合焦状態が得られない被写体である可能性が高い。したがって、AFキャリブレーションを制限することで、AFキャリブレーションによって誤った位相差合焦位置の補正が行われることを未然に回避する。AFキャリブレーションを制限し、信頼度が第1の信頼度である場合には行われない動作処理を行うとは、例えば、警告を表示したり、位相差合焦位置を補正するための補正値を作成しなかったり、AFキャリブレーションを強制的にやり直させたりすることである。   On the other hand, when it is determined that the reliability is low (the second reliability) using the S level value SL, the subject at that time cannot obtain a focus state with good accuracy by the phase difference AF. Is likely. Therefore, by limiting the AF calibration, it is possible to prevent the erroneous phase difference focus position from being corrected by the AF calibration. An operation process that is not performed when the AF calibration is limited and the reliability is the first reliability is, for example, a correction value for displaying a warning or correcting the phase difference in-focus position. Is not created, or AF calibration is forcibly restarted.

なお、本実施例では、Sレベル値SLを用いて信頼度を判定する場合について説明するが、前述した一致度U、相関変化量ΔV、シャープネスSH、明暗比PBDを単独で用いて信頼度を判定してもよい。また、一対の像信号に関する(一対の像信号から得られる情報)情報の1つとして、デフォーカス量を用いて信頼度を判定してもよい。さらに、一対の像信号に関する情報の1つとして、後述する実施例2のように、AFセンサ22における電荷蓄積時間の情報により信頼度を判定してもよい。   In this embodiment, the case where the reliability is determined using the S level value SL will be described. However, the reliability is determined by using the above-described coincidence U, correlation change amount ΔV, sharpness SH, and light / dark ratio PBD alone. You may judge. Further, the reliability may be determined using the defocus amount as one piece of information regarding the pair of image signals (information obtained from the pair of image signals). Further, as one of the information on the pair of image signals, the reliability may be determined based on the information on the charge accumulation time in the AF sensor 22 as in Example 2 described later.

図1のフローチャートには、カメラ制御部40が主として実行するAFキャリブレーションの処理を示している。カメラ制御部40は、この処理および以下に説明する各処理を、コンピュータプログラム(制御プログラム)に従って実行する。   The flowchart of FIG. 1 shows AF calibration processing mainly executed by the camera control unit 40. The camera control unit 40 executes this process and each process described below according to a computer program (control program).

ステップS101では、カメラ制御部40は、AFキャリブレーションによって位相差合焦位置を補正するための補正値を作成するか否かを判定する。AF補正値を作成する場合はステップS102へ進み、そうでない場合はステップS109の撮影処理(撮影フロー)に入る。撮影処理の詳細については後述する。   In step S101, the camera control unit 40 determines whether or not to create a correction value for correcting the phase difference in-focus position by AF calibration. If an AF correction value is to be created, the process proceeds to step S102. Otherwise, the shooting process (shooting flow) in step S109 is entered. Details of the photographing process will be described later.

ステップS102では、カメラ制御部40は、被写体選定処理を行う。被写体選定処理の詳細については後述する。   In step S102, the camera control unit 40 performs subject selection processing. Details of the subject selection process will be described later.

次に、ステップS103では、カメラ制御部40は、コントラストAFデータ取得処理を行う。コントラストAFデータ取得処理の詳細については後述する。   Next, in step S103, the camera control unit 40 performs a contrast AF data acquisition process. Details of the contrast AF data acquisition process will be described later.

次に、ステップS104では、カメラ制御部40は、位相差AFデータ取得処理を行う。位相差AFデータ取得処理の詳細については後述する。   Next, in step S104, the camera control unit 40 performs phase difference AF data acquisition processing. Details of the phase difference AF data acquisition processing will be described later.

続いて、ステップS105では、カメラ制御部40は、補正値を算出する。補正値は、ステップS104で算出したコントラスト合焦位置Cを用いて求められた、現在のフォーカスレンズ位置でのデフォーカス量C−DEFと、ステップS104で算出されたデフォーカス量の平均値μDEFとの差から求める。   Subsequently, in step S105, the camera control unit 40 calculates a correction value. The correction value is obtained using the contrast focus position C calculated in step S104, the defocus amount C-DEF at the current focus lens position, and the average value μDEF of the defocus amount calculated in step S104. Calculate from the difference between

次に、ステップS106では、カメラ制御部40は、ステップS105で算出した補正値を用いて、ユーザに対して選択を勧める補正値を背面モニタ43に表示する。   Next, in step S106, the camera control unit 40 uses the correction value calculated in step S105 to display a correction value recommended for selection on the rear monitor 43 by the user.

次に、ステップS107では、カメラ制御部40は、ユーザの選択操作に応じて、ステップS106で表示された補正値を正式な補正値として決定する。   Next, in step S107, the camera control unit 40 determines the correction value displayed in step S106 as a formal correction value in accordance with the user's selection operation.

そして、ステップS108では、カメラ制御部40は、ステップS107で決定した補正値とこれに付属させる各種情報を関連付けてカメラ記憶部42に記憶させる。ここにいう各種情報には、AFキャリブレーションを行った交換レンズの識別番号や製造番号等の交換レンズ個体を示す情報、AFキャリブレーションの日時や場所が含まれる。記憶が完了すると、ステップS101に戻る。   In step S108, the camera control unit 40 stores the correction value determined in step S107 and various information attached thereto in the camera storage unit 42 in association with each other. The various information here includes information indicating the individual interchangeable lens such as the identification number and manufacturing number of the interchangeable lens that has undergone AF calibration, and the date and place of AF calibration. When the storage is completed, the process returns to step S101.

図3のフローチャートには、図1のステップS102にて行われる被写体選定処理を示している。   The flowchart in FIG. 3 shows the subject selection process performed in step S102 in FIG.

ステップS301では、カメラ制御部40は、主ミラー20およびサブミラー21をアップ位置に退避させ、図2(a)に示すように、背面モニタ43でのライブビュー画像の表示を開始する。図2(a)において、200は背面モニタ43に表示されているライブビュー画像であり、201はライブビュー画像に重畳表示された位相差AF用の焦点検出領域(以下、AF枠という)である。ユーザは、背面モニタ43上に設けられた指示エリア203に表示された指示に従って、AF枠201を被写体に合わせるようにカメラシステムの向きを調節する。ここでの被写体は、AFキャリブレーションに適した被写体であることが好ましい。   In step S301, the camera control unit 40 retracts the main mirror 20 and the sub mirror 21 to the up position, and starts displaying a live view image on the rear monitor 43 as shown in FIG. In FIG. 2A, 200 is a live view image displayed on the rear monitor 43, and 201 is a focus detection area for phase difference AF (hereinafter referred to as an AF frame) displayed superimposed on the live view image. . The user adjusts the orientation of the camera system so that the AF frame 201 is aligned with the subject in accordance with the instructions displayed in the instruction area 203 provided on the rear monitor 43. The subject here is preferably a subject suitable for AF calibration.

ユーザは、AFキャリブレーションに適した被写体を見つけると、カメラ2に設けられた不図示の決定ボタンを操作して、図2(a)に示すように背面モニタ43に表示されたOKボタン202を選択する。   When the user finds a subject suitable for AF calibration, the user operates a decision button (not shown) provided on the camera 2 and presses an OK button 202 displayed on the rear monitor 43 as shown in FIG. select.

ステップS302では、カメラ制御部40は、OKボタン202が選択されたか否か、すなわちコントラストAFの開始が選択されたか否かを判定する。コントラストAFの開始が選択された場合はステップS303に進み、コントラストAFの開始が選択されない場合は本ステップでの判定を繰り返す。   In step S302, the camera control unit 40 determines whether the OK button 202 has been selected, that is, whether the start of contrast AF has been selected. If the start of contrast AF is selected, the process proceeds to step S303. If the start of contrast AF is not selected, the determination in this step is repeated.

ステップS303では、カメラ制御部40は、AF枠内の被写体に対してコントラストAFを行う。   In step S303, the camera control unit 40 performs contrast AF on the subject within the AF frame.

ステップS304では、カメラ制御部40は、コントラスト合焦位置が検出できたか否かを判定する。コントラスト合焦位置が検出できた場合は図1のステップS103に進み、コントラストAFデータ取得処理を行う。コントラスト合焦位置が検出できなかった場合はステップS305に進む。   In step S304, the camera control unit 40 determines whether or not the contrast focus position has been detected. If the contrast in-focus position has been detected, the process proceeds to step S103 in FIG. 1, and a contrast AF data acquisition process is performed. If the contrast focus position cannot be detected, the process proceeds to step S305.

ステップS305では、カメラ制御部40は、図2(b)に示すように、背面モニタ43に警告を表示する。図2(b)において、204は被写体であり、ここでは低コントラストの被写体を示している。警告を表示するときは、指示部203に、例えば「警告」の文字と、その内容あるいは対応策が表示される。被写体204が低コントラストであった場合は、対応策として、高コントラストの被写体にAF枠を合わせるように指示が表示される。この警告を見たユーザは、AFキャリブレーションに適した被写体を再度探すことになる。なお、警告時に指示部203に表示される内容は上述したものに限られない。また、警告音により警告を報知するようにしてもよい。   In step S305, the camera control unit 40 displays a warning on the rear monitor 43 as shown in FIG. In FIG. 2B, reference numeral 204 denotes a subject, which is a low-contrast subject here. When displaying a warning, for example, the characters “Warning” and the content or countermeasure are displayed on the instruction unit 203. If the subject 204 has low contrast, an instruction is displayed to align the AF frame with the high-contrast subject as a countermeasure. The user who sees this warning searches for a subject suitable for AF calibration again. The contents displayed on the instruction unit 203 at the time of warning are not limited to those described above. Moreover, you may make it alert | report a warning with a warning sound.

本実施例では、上述のように常に背面モニタに被写体のライブビュー画像を表示した状態で被写体選定処理を行えるので、ユーザが被写体に狙いを定めやすい。また、本実施例ではコントラストAFを用いているため、ミラーを動かす必要がなく、ミラー動作により精度が変化するのを防ぐことができる。   In this embodiment, as described above, the subject selection process can be performed in a state where the live view image of the subject is always displayed on the rear monitor, so that the user can easily aim at the subject. In addition, since the contrast AF is used in this embodiment, it is not necessary to move the mirror, and it is possible to prevent the accuracy from being changed by the mirror operation.

図4のフローチャートには、図1のステップS103にて行われるコントラストAFデータ取得処理を示している。コントラストAFデータとは、コントラスト合焦位置を検出するために用いるコントラスト評価値である。   The flowchart of FIG. 4 shows the contrast AF data acquisition process performed in step S103 of FIG. The contrast AF data is a contrast evaluation value used for detecting the contrast focus position.

また、コントラストAFデータ取得処理では、ライブビュー観察時および動画撮影時におけるコントラストAFよりも細かく正確なコントラストAFデータを取得する。このため、本処理では、まずレンズ駆動部11における伝達機構のバックラッシを取り除くためのフォーカスレンズ10aの一方向駆動を行い、さらに該フォーカスレンズ10aを細かいピッチ(移動幅)で移動させる微小駆動を行う。   In contrast AF data acquisition processing, contrast AF data that is finer and more accurate than contrast AF during live view observation and movie shooting is acquired. For this reason, in this process, first, one-way driving of the focus lens 10a for removing the backlash of the transmission mechanism in the lens driving unit 11 is performed, and further minute driving is performed to move the focus lens 10a at a fine pitch (movement width). .

ステップS401では、カメラ制御部40は、レンズ制御部13を介してフォーカスレンズ10aを無限遠側から至近側への一方向に所定量だけ移動させるようにレンズ駆動部11のアクチュエータを駆動させる。これが、前述した一方向駆動に相当する。   In step S401, the camera control unit 40 drives the actuator of the lens driving unit 11 so as to move the focus lens 10a in one direction from the infinity side to the close side via the lens control unit 13. This corresponds to the unidirectional drive described above.

次に、ステップS402では、カメラ制御部40は、フォーカスレンズ10aの無限遠側への微小駆動を行わせる。この微小駆動のピッチごとにコントラストAFデータも順次取得する。コントラストAFデータの取得とともに、レンズ状態検出部12を通じてフォーカスレンズ10aの位置も検出する。   Next, in step S402, the camera control unit 40 performs minute driving of the focus lens 10a toward the infinity side. Contrast AF data is also acquired sequentially for each minute driving pitch. Along with the acquisition of the contrast AF data, the position of the focus lens 10a is also detected through the lens state detection unit 12.

次に、ステップS403では、カメラ制御部40は、ステップS402で取得したコントラストAFデータを用いて、コントラスト合焦位置の検出が可能か否かを判定する。コントラストAFは、コントラスト評価値が最大となるフォーカス位置(ピーク位置)をコントラスト合焦位置と決定するが、ピーク位置か否かは一度、コントラスト評価値がその最大値を経て低下しないと判定できない。   Next, in step S403, the camera control unit 40 determines whether or not the contrast focus position can be detected using the contrast AF data acquired in step S402. In contrast AF, the focus position (peak position) at which the contrast evaluation value is maximized is determined as the contrast in-focus position, but whether or not it is the peak position cannot be determined unless the contrast evaluation value is lowered after the maximum value.

そこで、本ステップでは、カメラ制御部40は、コントラスト評価値が最大値を経て低下したことをもってコントラスト合焦位置の検出が可能と判定し、ステップS406に進み、フォーカスレンズ10aの移動を停止させる。コントラスト評価値がまだ最大値を経て低下していない(増加し続けている)ときはコントラスト合焦位置の検出はまだ可能ではないと判定し、ステップS404に進む。   Therefore, in this step, the camera control unit 40 determines that the contrast in-focus position can be detected when the contrast evaluation value decreases after reaching the maximum value, and proceeds to step S406 to stop the movement of the focus lens 10a. If the contrast evaluation value has not yet decreased after the maximum value (continues to increase), it is determined that detection of the contrast in-focus position is not yet possible, and the process proceeds to step S404.

ステップS404では、カメラ制御部40は、コントラストAFにおける異常の有無を判定する。例えば、被写体が低コントラストであるためにコントラストAFデータの取得が困難であるときにこれを異常と判定する。このとき、カメラ制御部40は、ステップS405に進んで、背面モニタ43に警告を表示する。なお、警告音により警告を報知するようにしてもよい。この後、カメラ制御部40は、ユーザにコントラストAFデータが正常に取得できる被写体を探させるために、図1のステップS102に戻り、被写体選定処理をやり直す。異常ではないと判定した場合は、カメラ制御部40は、引き続きコントラストAFデータを取得するためにステップS402に戻り、フォーカスレンズ10aの微小駆動を行う。   In step S404, the camera control unit 40 determines whether there is an abnormality in contrast AF. For example, when it is difficult to acquire contrast AF data because the subject has low contrast, this is determined as abnormal. At this time, the camera control unit 40 proceeds to step S405 and displays a warning on the rear monitor 43. Note that a warning may be notified by a warning sound. Thereafter, the camera control unit 40 returns to step S102 in FIG. 1 and redoes the subject selection process in order to make the user search for a subject for which contrast AF data can be normally acquired. If it is determined that there is no abnormality, the camera control unit 40 returns to step S402 to continue to acquire contrast AF data, and performs fine driving of the focus lens 10a.

ステップS407では、カメラ制御部40は、ステップS402で取得したコントラストAFデータを用いて、コントラスト合焦位置Cを算出する。コントラスト合焦位置Cの算出には、評価値のピークの前後で取得したデータを用いる。交換レンズによっては、微小駆動の最初の数回に、フォーカスレンズ10aを移動させるレンズ駆動部11における駆動機構のバックラッシの影響によってガタが発生するが、それ以降はガタがなくなる。最初の数回のデータ(バックラッシが影響する部分)はコントラスト合焦位置Cの算出に使用しないことにより、より高精度にコントラスト合焦位置Cを検出することができる。   In step S407, the camera control unit 40 calculates the contrast in-focus position C using the contrast AF data acquired in step S402. For the calculation of the contrast focus position C, data acquired before and after the peak of the evaluation value is used. Depending on the interchangeable lens, rattling occurs due to the backlash of the driving mechanism in the lens driving unit 11 that moves the focus lens 10a in the first few times of micro driving, but there is no rattling thereafter. By not using the first several times of data (the part affected by backlash) for calculating the contrast focus position C, the contrast focus position C can be detected with higher accuracy.

ステップS408では、コントラスト合焦位置Cから現在のフォーカスレンズ位置までの差を、デフォーカス量に変換して、コントラストのデフォーカス量C−DEFを求める。デフォーカス量C−DEFを求めるには、まず算出されたコントラスト合焦位置Cから、現在何パルス無限端側にいるのかを求める。これは、ステップS402で微小駆動ごとに検出したフォーカスレンズ10aの位置情報から、コントラスト合焦位置Cと現在位置の差を求めればよい。そして、求められたパルス数をデフォーカス量に換算すると、コントラストのデフォーカス量C−DEFが算出できる。   In step S408, the difference from the contrast in-focus position C to the current focus lens position is converted into a defocus amount to obtain a contrast defocus amount C-DEF. In order to obtain the defocus amount C-DEF, first, the number of pulses at the infinity end side from the calculated contrast focus position C is obtained. This is achieved by obtaining the difference between the contrast in-focus position C and the current position from the position information of the focus lens 10a detected for every minute drive in step S402. When the obtained number of pulses is converted into a defocus amount, a contrast defocus amount C-DEF can be calculated.

コントラストのデフォーカス量C−DEFを算出した後は、図1のステップS104に進み、位相差AFデータ取得処理を行う。   After the contrast defocus amount C-DEF is calculated, the process proceeds to step S104 in FIG. 1 to perform phase difference AF data acquisition processing.

図5のフローチャートには、図1のステップS104にて行われる位相差AFデータ取得処理を示している。位相差AFデータとは、位相差合焦位置を算出するためのデフォーカス量DEF、Sレベル値SL(一致度U、相関変化量ΔV、シャープネスSHおよび明暗比PBD)および後述する電荷蓄積時間Tである。   The flowchart of FIG. 5 shows the phase difference AF data acquisition process performed in step S104 of FIG. The phase difference AF data includes a defocus amount DEF, an S level value SL (a degree of coincidence U, a correlation change amount ΔV, a sharpness SH, and a light / dark ratio PBD) for calculating a phase difference in-focus position, and a charge accumulation time T described later. It is.

ステップS501では、カメラ制御部40は、ライブビュー観察状態から主ミラー20およびサブミラー21をダウン位置に回動させ、ライブビュー画像の表示を終了する。   In step S501, the camera control unit 40 rotates the main mirror 20 and the sub mirror 21 to the down position from the live view observation state, and ends the display of the live view image.

次に、ステップS502では、カメラ制御部40は、カウンタnを0にリセットする。   Next, in step S502, the camera control unit 40 resets the counter n to zero.

次に、ステップS503では、カメラ制御部40は、AFセンサ22からAF枠に対応する一対の像信号を取得し、該一対の像信号の位相差を算出し、さらに該位相差から撮影光学系10のデフォーカス量DEFを算出する。また、カメラ制御部40は、前述した一致度U、相関変化量ΔV、シャープネスSHおよび明暗比PBDを取得してSレベル値SLを算出する。さらに、カメラ制御部40は、AFセンサ22のエリアセンサにおいて一対の被写体像が光電変換されて一対の像信号が生成されたときの光電変換時間を表す電荷蓄積時間Tの情報を取得する。   Next, in step S503, the camera control unit 40 acquires a pair of image signals corresponding to the AF frame from the AF sensor 22, calculates a phase difference between the pair of image signals, and further uses the imaging optical system from the phase difference. A defocus amount DEF of 10 is calculated. Further, the camera control unit 40 obtains the above-described degree of coincidence U, correlation change amount ΔV, sharpness SH, and light / dark ratio PBD, and calculates the S level value SL. Further, the camera control unit 40 acquires information on the charge accumulation time T that represents the photoelectric conversion time when the pair of subject images are photoelectrically converted by the area sensor of the AF sensor 22 to generate a pair of image signals.

次に、ステップS504では、カメラ制御部40は、カウンタnを1つインクリメントする。   Next, in step S504, the camera control unit 40 increments the counter n by one.

次に、ステップS505では、カメラ制御部40は、カウンタnが所定値(複数回数である所定回数)Nに達したか否かを判定する。カウンタn所定回数Nに達していない場合はステップS503に戻って、引き続き位相差AFデータを取得する。カウンタn所定回数Nに達した場合はステップS506に進む。   Next, in step S505, the camera control unit 40 determines whether or not the counter n has reached a predetermined value (a predetermined number of times that is a plurality of times) N. If the counter n has not reached the predetermined number N, the process returns to step S503, and the phase difference AF data is continuously acquired. If the counter n reaches the predetermined number N, the process proceeds to step S506.

ステップS506では、カメラ制御部40は、N回取得した位相差AFデータの平均値を算出する。具体的には、ステップS503をN回繰り返して取得した位相差AFデータであるデフォーカス量DEFとSレベル値SLのそれぞれのN回の平均値μDEF,μSLを算出する。デフォーカス量DEFの平均値μDEFは、図1のステップS105において補正値の算出に用いられる。   In step S506, the camera control unit 40 calculates an average value of the phase difference AF data acquired N times. Specifically, average values μDEF and μSL of N times of the defocus amount DEF and the S level value SL, which are phase difference AF data obtained by repeating step S503 N times, are calculated. The average value DEF of the defocus amount DEF is used for calculating a correction value in step S105 in FIG.

次に、ステップS507では、カメラ制御部40は、ステップS506で算出したSレベル値の平均値μSLが閾値A以下か否かを判定する。平均値μSLが閾値A以下であり、信頼度が高いと判定した場合は、図1のステップS105に進み、補正値を算出する。一方、平均値μSLが閾値Aより大きく、信頼度が低いと判定した場合は、ステップS508に進み、背面モニタ43に警告を表示する。   Next, in step S507, the camera control unit 40 determines whether the average value μSL of the S level values calculated in step S506 is equal to or less than the threshold value A. When it is determined that the average value μSL is equal to or less than the threshold value A and the reliability is high, the process proceeds to step S105 in FIG. 1 to calculate a correction value. On the other hand, if it is determined that the average value μSL is larger than the threshold value A and the reliability is low, the process proceeds to step S508, and a warning is displayed on the rear monitor 43.

ステップS508での警告後、カメラ制御部40は、図1のステップS102に戻り、被写体選定処理からAFキャリブレーションをやり直す。なお、警告音により警告を報知するようにしてもよい。また、別のパターンとして、ユーザにAFキャリブレーションをやり直すか、信頼度が低い場合でもAFキャリブレーションを実行するか否かを選択させるようにして、AFキャリブレーションに制限を加えてもよい。   After the warning in step S508, the camera control unit 40 returns to step S102 in FIG. 1 and redoes the AF calibration from the subject selection process. Note that a warning may be notified by a warning sound. As another pattern, the AF calibration may be limited by allowing the user to redo the AF calibration or to select whether or not to execute the AF calibration even when the reliability is low.

図6のフローチャートには、撮影処理を示している。   The flowchart of FIG. 6 shows the photographing process.

ステップS601では、カメラ制御部40は、不図示のレリーズスイッチの半押し操作により第1スイッチ(SW1)がONになったか否かを判定する。ONになっていない場合は待機状態になり、ONになった場合はステップS602に進む。   In step S601, the camera control unit 40 determines whether or not the first switch (SW1) is turned on by a half-press operation of a release switch (not shown). If it is not ON, it enters a standby state. If it is ON, the process proceeds to step S602.

ステップS602では、カメラ制御部40は、撮影範囲内に設けられた21個の焦点検出ラインの中から、ユーザの選択操作又は所定のアルゴリズムに従って1つの焦点検出ラインを指定する。   In step S602, the camera control unit 40 designates one focus detection line from among 21 focus detection lines provided in the imaging range in accordance with a user selection operation or a predetermined algorithm.

次に、ステップS603では、カメラ制御部40は、ステップS602で指定された焦点検出ラインが撮影範囲の中央領域に含まれる焦点検出ラインL1〜L4およびL19であるか否かを判定する。指定された焦点検出ラインが中央領域の焦点検出ラインでなければステップSS604に進み、中央領域の焦点検出ラインであればステップS605に進む。   Next, in step S603, the camera control unit 40 determines whether the focus detection lines specified in step S602 are focus detection lines L1 to L4 and L19 included in the central region of the imaging range. If the designated focus detection line is not the focus detection line in the central region, the process proceeds to step SS604, and if it is the focus detection line in the central region, the process proceeds to step S605.

ステップS604では、カメラ制御部40は、指定された焦点検出ラインに対応するAFセンサ22のエリアセンサ上の一対の受光素子列から一対の像信号を取り込み、該一対の像信号の位相差を算出し、さらに該位相差からデフォーカス量DEFを算出する。また、指定された焦点検出ラインを特定焦点検出ラインとして決定する。そして、ステップS608に進む。   In step S604, the camera control unit 40 acquires a pair of image signals from the pair of light receiving element arrays on the area sensor of the AF sensor 22 corresponding to the designated focus detection line, and calculates the phase difference between the pair of image signals. Further, the defocus amount DEF is calculated from the phase difference. Also, the designated focus detection line is determined as a specific focus detection line. Then, the process proceeds to step S608.

ステップS605では、カメラ制御部40は、撮影範囲の中央領域に含まれる各焦点検出ラインに対応するエリアセンサ上の一対の受光素子列から一対の像信号を取り込み、該一対の像信号の位相差を算出し、さらに該位相差からデフォーカス量DEFを算出する。そして、ステップS606に進む。   In step S605, the camera control unit 40 captures a pair of image signals from the pair of light receiving element arrays on the area sensor corresponding to each focus detection line included in the central region of the imaging range, and the phase difference between the pair of image signals. And the defocus amount DEF is calculated from the phase difference. Then, the process proceeds to step S606.

ステップS606では、カメラ制御部40は、ステップS605で取り込んだ各焦点検出ラインに対応する一対の像信号から、それらの一致度U、相関変化量ΔV、シャープネスSHおよび明暗比PBDを算出する。さらにこれら4つのパラメータの値を用いて、Sレベル値SLを算出する。   In step S606, the camera control unit 40 calculates the degree of coincidence U, the correlation change amount ΔV, the sharpness SH, and the light / dark ratio PBD from the pair of image signals corresponding to each focus detection line captured in step S605. Further, the S level value SL is calculated using the values of these four parameters.

次に、ステップS607では、カメラ制御部40は、撮影範囲の中央領域に含まれる各焦点検出ラインのSレベル値SLのうち最も小さい値に対応する焦点検出ラインを特定焦点検出ラインとして決定する。そして、ステップS608に進む。   Next, in step S607, the camera control unit 40 determines the focus detection line corresponding to the smallest value among the S level values SL of each focus detection line included in the central region of the imaging range as the specific focus detection line. Then, the process proceeds to step S608.

ステップS608では、カメラ制御部40は、特定焦点検出ラインでのデフォーカス量から合焦状態を得るために必要なフォーカスレンズ10aの移動量(移動方向を含む)を算出する。具体的には、フォーカスレンズ10aを移動させるレンズ駆動部11のアクチュエータの駆動パルス数を算出する。フォーカスレンズ10aの移動量を算出することは、位相差合焦位置を算出することに相当する。   In step S608, the camera control unit 40 calculates the movement amount (including the movement direction) of the focus lens 10a necessary for obtaining the in-focus state from the defocus amount in the specific focus detection line. Specifically, the number of driving pulses of the actuator of the lens driving unit 11 that moves the focus lens 10a is calculated. Calculation of the movement amount of the focus lens 10a corresponds to calculation of the phase difference in-focus position.

次に、ステップS609では、カメラ制御部40は、ステップS608にて算出したフォーカスレンズ10aの移動量にAFキャリブレーションにより得られた補正値を加算(又は減算)することで、該移動量を補正する。フォーカスレンズ10aの移動量を補正することは、位相差合焦位置を補正することに相当する。補正値が作成されていない場合は、補正値が0になるので、フォーカスレンズ10aの移動量(位相差合焦位置)の補正は行われない。   Next, in step S609, the camera control unit 40 corrects the movement amount by adding (or subtracting) the correction value obtained by the AF calibration to the movement amount of the focus lens 10a calculated in step S608. To do. Correcting the movement amount of the focus lens 10a corresponds to correcting the phase difference focus position. If no correction value has been created, the correction value is 0, so that the movement amount (phase difference in-focus position) of the focus lens 10a is not corrected.

そして、ステップS610では、カメラ制御部40は、補正された移動量だけフォーカスレンズ10aが移動されるようにレンズ制御部13にフォーカス指令を送信する。これにより、レンズ制御部13は、レンズ駆動部11を通じてフォーカスレンズ10aを補正された位相差合焦位置に移動させる。   In step S610, the camera control unit 40 transmits a focus command to the lens control unit 13 so that the focus lens 10a is moved by the corrected movement amount. Thereby, the lens control unit 13 moves the focus lens 10a to the corrected phase difference in-focus position through the lens driving unit 11.

次に、ステップS611では、カメラ制御部40は、レリーズスイッチの全押し操作により第2スイッチ(SW2)がONになったか否かを判定する。ONになっていない場合は待機し、ONになった場合はステップS612に進む。   Next, in step S611, the camera control unit 40 determines whether or not the second switch (SW2) is turned on by a full-press operation of the release switch. If it is not ON, the process waits. If it is ON, the process proceeds to step S612.

ステップS612では、カメラ制御部40は、撮影を行って記録用画像を生成する。   In step S612, the camera control unit 40 performs shooting to generate a recording image.

そして、ステップS613では、カメラ制御部40は、ステップS612にて生成された記録用画像を、カメラ記憶部42に保存する。   In step S613, the camera control unit 40 stores the recording image generated in step S612 in the camera storage unit 42.

なお、本実施例では、AFキャリブレーションの際にレンズを至近側へ一定量駆動してから、無限遠側へ微小駆動させてそれぞれのAFにより合焦位置を検出し、補正値を算出している。ここで、実際の撮影で合焦動作を行う際に該補正値を用いると、AFキャリブレーションと同じ方向(この場合、至近側から無限遠側)にレンズを駆動する場合は問題ない。しかし、逆方向(この場合、無限遠側から至近側に)レンズを駆動する場合には、補正後のレンズ駆動量分駆動しても、バックラッシの影響によりずれが生じるおそれがある。   In this embodiment, the lens is driven by a certain amount to the close side during AF calibration, then finely driven to the infinity side, the in-focus position is detected by each AF, and a correction value is calculated. Yes. Here, when the correction value is used when performing a focusing operation in actual photographing, there is no problem in driving the lens in the same direction as AF calibration (in this case, from the closest side to the infinity side). However, when the lens is driven in the reverse direction (in this case, from the infinity side to the close side), even if the lens is driven by the corrected lens driving amount, a shift may occur due to the influence of backlash.

そこで、より精度の高いAFを行うための方法の1つとして、以下の方法を用いてもよい。すなわち、コントラストAFで検出される合焦位置(第2の合焦位置)について、レンズを至近側から無限遠側(第1の方向)に駆動する場合と、無限遠側から至近側(第2の方向)に駆動する場合との検出結果の差分に関する情報をレンズ内に予め記憶させる。カメラ制御部40は該情報を取得し、AFキャリブレーション補正値を用いて位相差合焦位置の補正に用いる。具体的には、カメラ制御部40は、撮影の際に合焦位置に向かって至近側と無限遠側のどちらからフォーカスレンズ10aを駆動するのかを判定する。そして、AFキャリブレーション時のレンズ駆動方向と逆方向に駆動する場合は、上記情報を用いて補正値(又は該補正値により補正されたフォーカスレンズ10aの移動量)をさらに補正する。   Therefore, the following method may be used as one method for performing AF with higher accuracy. That is, with respect to the in-focus position (second in-focus position) detected by contrast AF, the lens is driven from the close side to the infinity side (first direction), and from the infinity side to the close side (second position). Information on the difference between the detection results and the case of driving in the direction of ()) is stored in the lens in advance. The camera control unit 40 acquires the information and uses it for correcting the phase difference in-focus position using the AF calibration correction value. Specifically, the camera control unit 40 determines whether to drive the focus lens 10a from the closest side or the infinity side toward the in-focus position at the time of shooting. When driving in the direction opposite to the lens driving direction during AF calibration, the correction value (or the movement amount of the focus lens 10a corrected by the correction value) is further corrected using the above information.

別の方法として、AFキャリブレーションをレンズの駆動方向ごとに行って補正値を算出し、それぞれをカメラ記憶部42に記憶してもよい。すなわち、図1のステップS108で補正値(第1の補正値)と各種情報を記憶した後、ステップS103に戻り、再度AFキャリブレーションを行い、補正値(第2の補正値)と各種情報を記憶する。   As another method, AF calibration may be performed for each lens driving direction to calculate correction values, and each may be stored in the camera storage unit 42. That is, after storing the correction value (first correction value) and various information in step S108 of FIG. 1, the process returns to step S103, AF calibration is performed again, and the correction value (second correction value) and various information are obtained. Remember.

この場合、1回目のAFキャリブレーションでのフォーカスレンズ10aの駆動方向(第1の方向:至近側から無限遠側)とは逆方向(第2の方向:無限遠側から至近側)にフォーカスレンズ10aを駆動しながらコントラストAF評価値を取得するようにする。図4のステップS401では、カメラ制御部40は、レンズ制御部13を介してフォーカスレンズ10aを至近側から無限遠側への一方向に所定量だけ移動させるようにレンズ駆動部11のアクチュエータを駆動させる。次に、ステップS402では、カメラ制御部40は、フォーカスレンズ10aの至近側への微小駆動を行わせる。この微小駆動のピッチごとにコントラストAFデータも順次取得する。その後の処理は、1回目のAFキャリブレーションと同様である。   In this case, the focus lens in the direction opposite to the driving direction of the focus lens 10a in the first AF calibration (first direction: close side to infinity side) (second direction: infinity side to close side). The contrast AF evaluation value is acquired while driving 10a. In step S401 of FIG. 4, the camera control unit 40 drives the actuator of the lens driving unit 11 so as to move the focus lens 10a by a predetermined amount in one direction from the closest side to the infinity side via the lens control unit 13. Let Next, in step S402, the camera control unit 40 performs minute driving of the focus lens 10a toward the closest side. Contrast AF data is also acquired sequentially for each minute driving pitch. Subsequent processing is the same as the first AF calibration.

このように、レンズの駆動方向ごとの補正値(第1および第2の補正値)を記憶しておくことで、実際の撮影の際に適切な補正値を用いてフォーカスレンズ10aの移動量(位相差合焦位置)を補正することができる。つまり、カメラ制御部40は、撮影の際に合焦位置に向かって至近側と無限遠側のどちらからフォーカスレンズ10aを駆動するのかを判定する。そして、それと同じ方向にフォーカスレンズ10aを駆動して、AFキャリブレーションを行った際の補正値を用いてフォーカスレンズ10aの移動量(位相差合焦位置)を補正する。   In this way, by storing the correction values (first and second correction values) for each lens driving direction, the amount of movement of the focus lens 10a (using the appropriate correction value at the time of actual photographing) ( The phase difference focus position) can be corrected. That is, the camera control unit 40 determines whether to drive the focus lens 10a from the close side or the infinity side toward the in-focus position at the time of shooting. Then, the focus lens 10a is driven in the same direction, and the movement amount (phase difference in-focus position) of the focus lens 10a is corrected using the correction value when AF calibration is performed.

これらの方法を用いることで、AFキャリブレーションにより算出された補正値を用いてより高精度なAFを行うことができる。   By using these methods, it is possible to perform AF with higher accuracy using the correction value calculated by AF calibration.

本実施例によれば、Sレベル値SLを用いて被写体に対する位相差AF(つまりは位相差AFデータ)の信頼度を判定することにより、位相差AFを行うのに適さない被写体を用いてAFキャリブレーションが行われることを回避できる。したがって、不適切なAFキャリブレーションによる誤った補正値の算出を少なくすることができる。   According to the present embodiment, by using the S level value SL to determine the reliability of the phase difference AF (that is, phase difference AF data) for the subject, the AF using the subject that is not suitable for performing the phase difference AF is used. Calibration can be avoided. Accordingly, it is possible to reduce calculation of an incorrect correction value due to inappropriate AF calibration.

次に、本発明の実施例2について説明する。本実施例のカメラシステム(デジタル一眼レフカメラおよび交換レンズ)の構成は、実施例1において図17に示したものと同じである。このため、本実施例において実施例1と共通する構成要素には、実施例1と同符号を付して説明に代える。また、焦点検出ラインのレイアウト、AFキャリブレーション処理、コントラストAFデータ取得処理および撮影処理はそれぞれ、実施例1中の図18、図1、図4および図6に示したものと同様である。   Next, a second embodiment of the present invention will be described. The configuration of the camera system (digital single-lens reflex camera and interchangeable lens) of the present embodiment is the same as that shown in FIG. For this reason, in this embodiment, the same components as those in the first embodiment are denoted by the same reference numerals as those in the first embodiment, and the description is omitted. Further, the layout of the focus detection line, the AF calibration process, the contrast AF data acquisition process, and the photographing process are the same as those shown in FIGS. 18, 1, 4, and 6 in the first embodiment.

図7のフローチャートには、本実施例における被写体選定処理を示している。   The flowchart of FIG. 7 shows subject selection processing in the present embodiment.

ステップS701では、カメラ制御部40は、背面モニタ43でのライブビュー画像の表示を開始する。   In step S <b> 701, the camera control unit 40 starts displaying a live view image on the rear monitor 43.

次に、ステップS702では、カメラ制御部40は、クイックAFによる焦点検出を開始するか否かを判定する。クイックAFとは、ライブビュー観察状態から以下の動作を瞬時に行う機能である。   Next, in step S702, the camera control unit 40 determines whether or not to start focus detection by quick AF. Quick AF is a function that instantaneously performs the following operations from the live view observation state.

まず、主ミラー20とサブミラー21をアップ位置からダウン位置に回動させ、撮影光学系10からの光をAFセンサ22に導く(図17参照)。次に、位相差AFによって位相差合焦位置にフォーカスレンズ10aを移動させ、その後、主ミラー20とサブミラー21をアップ位置に退避させ、再びライブビュー観察状態とする。このとき、位相差AFを行うと同時に、実施例1にて説明した位相差AFデータも取得する。クイックAFを開始する場合はステップS703に進み、カメラ制御部40は、実際にクイックAFを行うとともに位相差AFデータを取得する。クイックAFを開始しない場合は待機状態になる。   First, the main mirror 20 and the sub mirror 21 are rotated from the up position to the down position, and the light from the photographing optical system 10 is guided to the AF sensor 22 (see FIG. 17). Next, the focus lens 10a is moved to the phase difference in-focus position by the phase difference AF, and then the main mirror 20 and the sub mirror 21 are retracted to the up position, and the live view observation state is set again. At this time, the phase difference AF data described in the first embodiment is acquired at the same time as the phase difference AF is performed. When the quick AF is started, the process proceeds to step S703, and the camera control unit 40 actually performs the quick AF and acquires phase difference AF data. When quick AF is not started, the camera enters a standby state.

次に、ステップS704では、カメラ制御部40は、ステップS702で位相差AFデータとして得られたSレベル値SLが閾値A以下か否かを判定する。Sレベル値SLが閾値A以下であれば、カメラ制御部40は、現在選定されている被写体が位相差AFの信頼度を高くする適切な被写体と判定し、図1のステップS103に進んで、コントラストAFデータ取得処理を行う。Sレベル値SLが閾値Aより大きければ、カメラ制御部40は、現在選定されている被写体が位相差AFの信頼度を低くする適切でない被写体と判定し、ステップS705に進んで図2(b)に示したように警告を表示する。なお、警告時に指示部203に表示される内容は図2(b)に示したものに限られない。また、警告音により警告を報知するようにしてもよい。そして、OKボタン202が選択されると、カメラ制御部40は、ステップS702に戻り、クイックAFを再度行い、新たな被写体を探す。   Next, in step S704, the camera control unit 40 determines whether or not the S level value SL obtained as the phase difference AF data in step S702 is equal to or less than the threshold value A. If the S level value SL is equal to or less than the threshold A, the camera control unit 40 determines that the currently selected subject is an appropriate subject that increases the reliability of the phase difference AF, and proceeds to step S103 in FIG. Contrast AF data acquisition processing is performed. If the S level value SL is larger than the threshold value A, the camera control unit 40 determines that the currently selected subject is an inappropriate subject that reduces the reliability of the phase difference AF, and proceeds to step S705 to proceed to FIG. Display a warning as shown in. The contents displayed on the instruction unit 203 at the time of warning are not limited to those shown in FIG. Moreover, you may make it alert | report a warning with a warning sound. When the OK button 202 is selected, the camera control unit 40 returns to step S702, performs quick AF again, and searches for a new subject.

この被写体選定処理では、これに続くステップS103でのコントラストAFデータ取得処理やステップS104での位相差AFデータ取得処理を行う前に、予め位相差AFデータを取得し、Sレベル値SLを把握できる。事前にSレベル値SLの判定を行うことで、ユーザはコントラストAFデータや位相差AFデータを無駄に取得することなく適切な被写体を探すことができ、効率的な被写体選定が可能となる。   In this subject selection process, before performing the contrast AF data acquisition process in step S103 and the phase difference AF data acquisition process in step S104, the phase difference AF data can be acquired in advance and the S level value SL can be grasped. . By determining the S level value SL in advance, the user can search for an appropriate subject without wastefully acquiring contrast AF data and phase difference AF data, thereby enabling efficient subject selection.

以下、図8〜図11を用いて、位相差AFデータ取得処理の4つのパターンについて説明する。まず、図8を用いてパターン1について説明する。   Hereinafter, the four patterns of the phase difference AF data acquisition process will be described with reference to FIGS. First, the pattern 1 will be described with reference to FIG.

ステップS801では、カメラ制御部40は、ライブビュー観察状態から主ミラー20およびサブミラー21をダウン位置に回動させ、ライブビュー画像の表示を終了する。   In step S801, the camera control unit 40 turns the main mirror 20 and the sub mirror 21 from the live view observation state to the down position, and ends the display of the live view image.

次に、ステップS802では、カメラ制御部40は、カウンタnを0にする。   Next, in step S802, the camera control unit 40 sets the counter n to zero.

次に、ステップS803では、カメラ制御部40は、位相差AFデータを取得する。   Next, in step S803, the camera control unit 40 acquires phase difference AF data.

次に、ステップS804では、カメラ制御部40は、ステップS803で位相差AFデータとして取得したSレベル値SLが閾値A以下か否かを判定する。Sレベル値SLが閾値A以下であり、信頼度が高いと判定した場合は、ステップS805に進む。Sレベル値SLが閾値Aより大きく、信頼度が低いと判定した場合は、ステップS806に進む。   Next, in step S804, the camera control unit 40 determines whether or not the S level value SL acquired as the phase difference AF data in step S803 is equal to or less than the threshold value A. If it is determined that the S level value SL is equal to or less than the threshold A and the reliability is high, the process proceeds to step S805. If it is determined that the S level value SL is greater than the threshold A and the reliability is low, the process proceeds to step S806.

ステップS805では、カメラ制御部40は、カウンタnを1つインクリメントする。そして、ステップS807に進む。   In step S805, the camera control unit 40 increments the counter n by one. Then, the process proceeds to step S807.

ステップS806では、カメラ制御部40は、図2(b)に示すように背面モニタ43に警告を表示する。なお、警告時に指示部203に表示される内容は図2(b)に示したものに限られない。また、警告音により警告を報知するようにしてもよい。そして、警告後、図1のステップS102に戻り、被写体選定処理からAFキャリブレーションをやり直す。   In step S806, the camera control unit 40 displays a warning on the rear monitor 43 as shown in FIG. The contents displayed on the instruction unit 203 at the time of warning are not limited to those shown in FIG. Moreover, you may make it alert | report a warning with a warning sound. After the warning, the process returns to step S102 in FIG. 1, and AF calibration is performed again from the subject selection process.

ステップS807では、カメラ制御部40は、カウンタnが所定回数Nに達したか否かを判定する。カウンタnが所定回数Nに満たなければステップS803に戻り、引き続き位相差AFデータを取得する。カウンタnが所定回数Nに達した場合はステップS808に進む。   In step S807, the camera control unit 40 determines whether the counter n has reached the predetermined number N. If the counter n does not reach the predetermined number N, the process returns to step S803, and phase difference AF data is continuously acquired. If the counter n reaches the predetermined number N, the process proceeds to step S808.

ステップS808では、カメラ制御部40は、ステップS803をN回繰り返して取得した位相差AFデータからデフォーカス量の平均値μDEFを算出する。μDEFを算出した後、図1のステップS105に進み、補正値を算出する。   In step S808, the camera control unit 40 calculates the average defocus amount μDEF from the phase difference AF data acquired by repeating step S803 N times. After calculating μDEF, the process proceeds to step S105 in FIG. 1 to calculate a correction value.

次に、図9を用いてパターン2について説明する。   Next, pattern 2 will be described with reference to FIG.

ステップS821では、カメラ制御部40は、ライブビュー観察状態から主ミラー20およびサブミラー21をダウン位置に回動させ、ライブビュー画像の表示を終了する。   In step S821, the camera control unit 40 rotates the main mirror 20 and the sub mirror 21 from the live view observation state to the down position, and ends the display of the live view image.

次に、ステップS822では、カメラ制御部40は、カウンタnおよびカウンタmをそれぞれ0にする。   Next, in step S822, the camera control unit 40 sets the counter n and the counter m to 0, respectively.

次に、ステップS823では、カメラ制御部40は、位相差AFデータを取得する。   Next, in step S823, the camera control unit 40 acquires phase difference AF data.

次に、ステップS824では、カメラ制御部40は、カウンタmを1つインクリメントする。   Next, in step S824, the camera control unit 40 increments the counter m by one.

次に、ステップS825では、カメラ制御部40は、ステップS823で位相差AFデータとして取得したSレベル値SLが閾値A以下か否かを判定する。Sレベル値SLが閾値A以下であり、信頼度が高いと判定した場合は、ステップS826に進む。Sレベル値SLが閾値Aより大きく、信頼度が低いと判定した場合は、ステップS827に進む。   Next, in step S825, the camera control unit 40 determines whether or not the S level value SL acquired as the phase difference AF data in step S823 is equal to or less than the threshold value A. If it is determined that the S level value SL is equal to or less than the threshold A and the reliability is high, the process proceeds to step S826. If it is determined that the S level value SL is greater than the threshold value A and the reliability is low, the process proceeds to step S827.

ステップS827では、カメラ制御部40は、ステップS825でSレベル値SLが閾値Aより大きく、信頼度が低いと判定したときのデフォーカス量のデータをNGデータとして消去する。消去した後、ステップS828に進む。   In step S827, the camera control unit 40 deletes the defocus amount data as NG data when it is determined in step S825 that the S level value SL is greater than the threshold value A and the reliability is low. After erasing, the process proceeds to step S828.

ステップS828では、カメラ制御部40は、カウンタnが所定回数Nに達したか否かを判定する。カウンタnが所定回数Nに満たなければステップS829に進む。カウンタnが所定回数Nに達した場合はステップS831に進む。   In step S828, the camera control unit 40 determines whether the counter n has reached the predetermined number N. If the counter n does not reach the predetermined number N, the process proceeds to step S829. If the counter n reaches the predetermined number N, the process proceeds to step S831.

ステップS829では、カメラ制御部40は、カウンタmが測定回数の限界値Nlimitに達したか否かを判定する。このとき、限界値Nlimitは所定回数Nよりも大きい値である。カウンタmが限界値Nlimitに満たなければステップS823に戻り、引き続き位相差AFデータを取得する。カウンタmが限界値Nlimitに達したとき、つまりNGデータの取得回数が多く、信頼度の高いデータをN回取得する前に限界値Nlimitに達してしまった場合は、ステップS830に進む。   In step S829, the camera control unit 40 determines whether or not the counter m has reached the limit value Nlimit of the number of measurements. At this time, the limit value Nlimit is a value larger than the predetermined number N. If the counter m does not satisfy the limit value Nlimit, the process returns to step S823, and phase difference AF data is continuously acquired. When the counter m reaches the limit value Nlimit, that is, when the number of acquisitions of NG data is large and the limit value Nlimit has been reached before acquiring highly reliable data N times, the process proceeds to step S830.

ステップS830では、カメラ制御部40は、図2(b)に示すように背面モニタ43に警告を表示する。そして、警告の後、図1のステップS102に戻り、被写体選定処理からAFキャリブレーションをやり直す。なお、警告時に指示部203に表示される内容は図2(b)に示したものに限られない。また、警告音により警告を報知するようにしてもよい。   In step S830, the camera control unit 40 displays a warning on the rear monitor 43 as shown in FIG. After the warning, the process returns to step S102 in FIG. 1, and AF calibration is performed again from the subject selection process. The contents displayed on the instruction unit 203 at the time of warning are not limited to those shown in FIG. Moreover, you may make it alert | report a warning with a warning sound.

ステップS831では、カメラ制御部40は、ステップS823をN回繰り返して取得した位相差AFデータからデフォーカス量の平均値μDEFを算出する。μDEFを算出した後、図1のステップS105に進み、補正値を算出する。   In step S831, the camera control unit 40 calculates the average defocus amount μDEF from the phase difference AF data acquired by repeating step S823 N times. After calculating μDEF, the process proceeds to step S105 in FIG. 1 to calculate a correction value.

なお、パターン2では、測定回数が限界値Nlimitに達したことで警告を行う場合について説明したが、タイマーによるカウント時間が所定時間に達したことで警告を行うようにしてもよい。   In the pattern 2, the case where the warning is given when the number of measurements reaches the limit value Nlimit has been described, but the warning may be given when the count time by the timer reaches a predetermined time.

次に、図10を用いてパターン3について説明する。   Next, the pattern 3 will be described with reference to FIG.

ステップS841では、カメラ制御部40は、ライブビュー観察状態から主ミラー20およびサブミラー21をダウン位置に回動させ、ライブビュー画像の表示を終了する。   In step S841, the camera control unit 40 rotates the main mirror 20 and the sub mirror 21 from the live view observation state to the down position, and ends the display of the live view image.

次に、ステップS842では、カメラ制御部40は、カウンタnおよびカウンタmをそれぞれ0にする。   Next, in step S842, the camera control unit 40 sets the counter n and the counter m to 0, respectively.

次に、ステップS843では、カメラ制御部40は、位相差AFデータを取得する。   Next, in step S843, the camera control unit 40 acquires phase difference AF data.

次に、ステップS844では、カメラ制御部40は、カウンタnを1つインクリメントする。   Next, in step S844, the camera control unit 40 increments the counter n by one.

次に、ステップS845では、カメラ制御部40は、ステップS843で位相差AFデータとして取得したSレベル値SLが閾値A以下か否かを判定する。Sレベル値SLが閾値A以下であり、信頼度が高いと判定した場合は、ステップS848に進む。Sレベル値SLが閾値Aより大きく、信頼度が低いと判定した場合は、ステップS846に進む。   Next, in step S845, the camera control unit 40 determines whether or not the S level value SL acquired as the phase difference AF data in step S843 is equal to or less than the threshold value A. If it is determined that the S level value SL is equal to or less than the threshold value A and the reliability is high, the process proceeds to step S848. If it is determined that the S level value SL is greater than the threshold A and the reliability is low, the process proceeds to step S846.

ステップS846では、カメラ制御部40は、カウンタmを1つインクリメントする。そして、ステップS847に進む。   In step S846, the camera control unit 40 increments the counter m by one. Then, the process proceeds to step S847.

ステップS847では、カメラ制御部40は、ステップS845でSレベル値SLが閾値Aより大きく、信頼度が低いと判定したときのデフォーカス量のデータに対してNGデータであることを示すNGフラグを立てる。そして、ステップS848に進む。   In step S847, the camera control unit 40 sets an NG flag indicating that the defocus amount data is NG data when the S level value SL is larger than the threshold value A and the reliability is low in step S845. Stand up. Then, the process proceeds to step S848.

ステップS848では、カメラ制御部40は、カウンタnが所定回数Nに達したか否かを判定する。カウンタnが所定回数Nに満たなければステップS843に戻り、引き続き位相差AFデータを取得する。カウンタnが所定回数Nに達した場合はステップS849に進む。   In step S848, the camera control unit 40 determines whether or not the counter n has reached the predetermined number N. If the counter n does not reach the predetermined number N, the process returns to step S843 to continuously acquire phase difference AF data. If the counter n reaches the predetermined number N, the process proceeds to step S849.

ステップS849では、カメラ制御部40は、NGフラグが立てられたデフォーカス量のデータを消去する。   In step S849, the camera control unit 40 deletes the defocus amount data for which the NG flag is set.

次に、ステップS850では、カメラ制御部40は、ステップS849にて消去されずに残った信頼度の高いデフォーカス量のデータの個数である(N−m)個を計算し、(N−m)が所定個数B以上あるか否かを判定する。(N−m)が所定個数B以上であればステップS851に進み、(N−m)が所定個数Bに満たない場合は、ステップS852に進む。   Next, in step S850, the camera control unit 40 calculates (N−m) pieces of defocus amount data with high reliability remaining without being erased in step S849, and (N−m). ) Is greater than or equal to a predetermined number B. If (N−m) is greater than or equal to the predetermined number B, the process proceeds to step S851. If (N−m) is less than the predetermined number B, the process proceeds to step S852.

ステップS851では、カメラ制御部40は、ステップS843をN回繰り返して取得した位相差AFデータからデフォーカス量の平均値μDEFを算出する。μDEFを算出した後、図1のステップS105に進み、補正値を算出する。   In step S851, the camera control unit 40 calculates the average defocus amount μDEF from the phase difference AF data acquired by repeating step S843 N times. After calculating μDEF, the process proceeds to step S105 in FIG. 1 to calculate a correction value.

ステップS852では、カメラ制御部40は、図2(b)に示すように背面モニタ43に警告を表示する。そして、警告の後、図1のステップS102に戻り、被写体選定処理からAFキャリブレーションをやり直す。警告時に指示部203に表示される内容は図2(b)に示したものに限られない。また、警告音により警告を報知するようにしてもよい。   In step S852, the camera control unit 40 displays a warning on the rear monitor 43 as shown in FIG. After the warning, the process returns to step S102 in FIG. 1, and AF calibration is performed again from the subject selection process. The content displayed on the instruction unit 203 at the time of warning is not limited to that shown in FIG. Moreover, you may make it alert | report a warning with a warning sound.

次に、図11を用いてパターン4について説明する。   Next, the pattern 4 will be described with reference to FIG.

ステップS861では、カメラ制御部40は、ライブビュー観察状態から主ミラー20およびサブミラー21をダウン位置に回動させ、ライブビュー画像の表示を終了する。   In step S861, the camera control unit 40 rotates the main mirror 20 and the sub mirror 21 to the down position from the live view observation state, and ends the display of the live view image.

次に、ステップS862では、カメラ制御部40は、カウンタnを0にする。   Next, in step S862, the camera control unit 40 sets the counter n to zero.

次に、ステップS863では、カメラ制御部40は、位相差AFデータを取得する。   Next, in step S863, the camera control unit 40 acquires phase difference AF data.

次に、ステップS864では、カメラ制御部40は、ステップS863で位相差AFデータとして取得した電荷蓄積時間Tが所定時間t以下か否かを判定する。電荷蓄積時間Tが所定時間t以下であればステップS865に進む。電荷蓄積時間Tが所定時間tより長いときはステップS866に進む。   Next, in step S864, the camera control unit 40 determines whether the charge accumulation time T acquired as the phase difference AF data in step S863 is equal to or shorter than a predetermined time t. If the charge accumulation time T is less than or equal to the predetermined time t, the process proceeds to step S865. When the charge accumulation time T is longer than the predetermined time t, the process proceeds to step S866.

ステップS865では、カメラ制御部40は、カウンタnを1つインクリメントする。そして、ステップS867に進む。   In step S865, the camera control unit 40 increments the counter n by one. Then, the process proceeds to step S867.

ステップS866では、カメラ制御部40は、背面モニタ43に警告を表示する。そして、警告後、図1のステップS102に戻り、被写体選定処理からAFキャリブレーションをやり直す。なお、警告音により警告を報知するようにしてもよい。   In step S866, the camera control unit 40 displays a warning on the rear monitor 43. After the warning, the process returns to step S102 in FIG. 1, and AF calibration is performed again from the subject selection process. Note that a warning may be notified by a warning sound.

ステップS867では、カメラ制御部40は、カウンタnが所定回数Nに達したか否かを判定する。カウンタnが所定回数Nに満たなければステップS863に戻り、引き続き位相差AFデータを取得する。カウンタnが所定回数Nに達した場合はステップS868に進む。   In step S867, the camera control unit 40 determines whether the counter n has reached the predetermined number N. If the counter n does not reach the predetermined number N, the process returns to step S863, and the phase difference AF data is continuously acquired. When the counter n reaches the predetermined number N, the process proceeds to step S868.

ステップS868では、カメラ制御部40は、ステップS863をN回繰り返して取得した位相差AFデータからデフォーカス量の平均値μDEFを算出する。μDEFを算出した後、図1のステップS105に進み、補正値を算出する。   In step S868, the camera control unit 40 calculates the average defocus amount μDEF from the phase difference AF data acquired by repeating step S863 N times. After calculating μDEF, the process proceeds to step S105 in FIG. 1 to calculate a correction value.

このパターン4は、ステップS861でライブビュー画像の表示が終了しているので、ユーザは被写体を特定しにくい状態にある。その際に電荷蓄積時間Tが長くなってしまうと、位相差AFデータを取得する時間、つまり被写体を特定する時間が長引いてしまう。被写体を特定できないと、誤った位相差AFデータを取得してしまう可能性が高く、誤った補正値が算出されるおそれがある。このため、電荷蓄積時間Tによる判定を行う。また、被写体が暗い場合にも電荷蓄積時間Tが長くなるので、ステップS866での警告時には、図2(b)に示す指示部203に明るい被写体を選ぶことを促す表示を行ってもよい。   In Pattern 4, since the display of the live view image has been completed in Step S861, the user is in a state where it is difficult for the user to specify the subject. At this time, if the charge accumulation time T becomes long, the time for acquiring the phase difference AF data, that is, the time for specifying the subject is prolonged. If the subject cannot be specified, there is a high possibility that erroneous phase difference AF data will be acquired, and there is a possibility that an incorrect correction value will be calculated. Therefore, the determination based on the charge accumulation time T is performed. Further, since the charge accumulation time T becomes long even when the subject is dark, at the time of warning in step S866, a display prompting the user to select a bright subject may be displayed on the instruction unit 203 shown in FIG.

本実施例によれば、ユーザが被写体を探す段階でSレベル値SLを取得し、位相差AFに適さない被写体を判定することで、ユーザにとって無駄のない被写体選びが可能になる。   According to the present embodiment, it is possible to select a subject without waste for the user by acquiring the S level value SL when the user searches for the subject and determining a subject that is not suitable for the phase difference AF.

さらに、パターン1では、複数回取得する位相差AFデータ全てにおいてSレベル値SLの判定を行い、1回でもNGデータが発生した場合はやり直しを指示する。このため、やり直しに至るまでに複数回データを取得するという無駄なステップを踏まず、より素早くやり直しのできる効率のよいAFキャリブレーションが可能になる。   Further, in pattern 1, the determination of the S level value SL is performed for all of the phase difference AF data acquired a plurality of times, and if NG data is generated even once, a redo is instructed. Therefore, it is possible to perform efficient AF calibration that can be performed again more quickly without taking a useless step of acquiring data a plurality of times before starting over.

また、パターン2では、Sレベル値SLを満足する位相差AFデータが所定回数取得できるまでデータ取得を繰り返すことで、誤って途中の位相差AFデータの信頼度が低くなってしまっても中止することなくデータの取得を続けることが可能になる。   In pattern 2, data acquisition is repeated until the phase difference AF data satisfying the S level value SL can be acquired a predetermined number of times, so that even if the reliability of the phase difference AF data in the middle is erroneously lowered, it is stopped. Data acquisition can be continued without any problem.

また、パターン3では、AFデータ取得の所定回数のうち、信頼度の低いデータがいくつか混ざってしまっても、その信頼度の低いデータのみを除去し、残った信頼度の高いデータで補正値を算出する。これにより、やり直しを最低限に抑えられ、誤補正のないデータの取得が可能になる。   Further, in pattern 3, even if some data with low reliability is mixed in the predetermined number of times of AF data acquisition, only the data with low reliability is removed, and the correction value is corrected with the remaining data with high reliability. Is calculated. As a result, redoing can be minimized, and data without erroneous correction can be acquired.

また、パターン4では、位相差AFデータ取得時間を短くするために電荷蓄積時間Tの判定を行うことで、ユーザが被写体を特定する時間が短くて済むので、誤ったデータ取得を防ぐことが可能になる。   Also, in Pattern 4, by determining the charge accumulation time T in order to shorten the phase difference AF data acquisition time, the time for the user to specify the subject can be shortened, so that erroneous data acquisition can be prevented. become.

次に、本発明の実施例3について説明する。本実施例のカメラシステム(デジタル一眼レフカメラおよび交換レンズ)の構成は、実施例1において図17に示したものと同じである。このため、本実施例において実施例1と共通する構成要素には、実施例1と同符号を付して説明に代える。また、焦点検出ラインのレイアウトは実施例1中の図18に示したものと同様である。   Next, Embodiment 3 of the present invention will be described. The configuration of the camera system (digital single-lens reflex camera and interchangeable lens) of the present embodiment is the same as that shown in FIG. For this reason, in this embodiment, the same components as those in the first embodiment are denoted by the same reference numerals as those in the first embodiment, and the description is omitted. The layout of the focus detection line is the same as that shown in FIG. 18 in the first embodiment.

図12には、カメラ制御部40が主として実行するAFキャリブレーションの処理のフローチャートを示している。カメラ制御部40は、この処理および以下に説明する各処理を、コンピュータプログラムに従って実行する。本実施例では、実施例1の図1のフローチャートに示したAFキャリブレーション処理と異なる部分を中心に説明する。   FIG. 12 shows a flowchart of AF calibration processing mainly executed by the camera control unit 40. The camera control unit 40 executes this process and each process described below according to a computer program. In the present embodiment, a description will be given centering on differences from the AF calibration processing shown in the flowchart of FIG.

ステップS901では、図1のステップS101と同様の処理を行う。AF補正値を作成する場合はステップS902に進み、そうでない場合はステップS909の撮影処理(撮影フロー)に入る。撮影処理の詳細については後述する。   In step S901, processing similar to that in step S101 in FIG. 1 is performed. If an AF correction value is to be created, the process proceeds to step S902. If not, the shooting process (shooting flow) in step S909 is entered. Details of the photographing process will be described later.

ステップS902では、カメラ制御部40は、被写体選定処理を行う。被写体選定処理の詳細については後述する。   In step S902, the camera control unit 40 performs subject selection processing. Details of the subject selection process will be described later.

次に、ステップS903では、カメラ制御部40は、位相差AFデータ取得処理を行う。位相差AFデータ取得処理の詳細については後述する。   Next, in step S903, the camera control unit 40 performs phase difference AF data acquisition processing. Details of the phase difference AF data acquisition processing will be described later.

次に、ステップS904では、カメラ制御部40は、コントラストAFデータ取得処理を行う。コントラストAFデータ取得処理の詳細については後述する。   Next, in step S904, the camera control unit 40 performs contrast AF data acquisition processing. Details of the contrast AF data acquisition process will be described later.

続いて、ステップS905では、カメラ制御部40は、図1のステップS105と同様の処理を行う。   Subsequently, in step S905, the camera control unit 40 performs the same process as in step S105 of FIG.

次に、ステップS906では、カメラ制御部40は、図1のステップS106と同様の処理を行う。   Next, in step S906, the camera control unit 40 performs the same process as in step S106 of FIG.

次に、ステップS907では、カメラ制御部40は、図1のステップS107と同様の処理を行う。   Next, in step S907, the camera control unit 40 performs the same process as in step S107 in FIG.

そして、ステップS908では、カメラ制御部40は、図1のステップS108と同様の処理を行う。記憶が完了すると、ステップS901に戻る。   In step S908, the camera control unit 40 performs the same processing as in step S108 in FIG. When the storage is completed, the process returns to step S901.

図13には、図12のステップS902にて行われる被写体選定処理のフローチャートを示している。   FIG. 13 shows a flowchart of the subject selection process performed in step S902 of FIG.

ステップS921では、AFキャリブレーションを行う所定のAF枠を被写体に合わせるように、ユーザがカメラシステムの向きを調節する。ここでの被写体は、AFキャリブレーションに適した被写体であることが好ましい。AF枠に被写体を合わせたら、ユーザはカメラ2に設けられた不図示の決定ボタンを押す。これに応じて、カメラ制御部40は、次のステップに進む。   In step S921, the user adjusts the orientation of the camera system so that a predetermined AF frame for AF calibration is aligned with the subject. The subject here is preferably a subject suitable for AF calibration. When the subject is aligned with the AF frame, the user presses a decision button (not shown) provided on the camera 2. In response to this, the camera control unit 40 proceeds to the next step.

ステップS922では、カメラ制御部40は、AFセンサ22を通じて、AF枠内の被写体に対して位相差AFを行う。   In step S922, the camera control unit 40 performs phase difference AF on the subject in the AF frame through the AF sensor 22.

そして、ステップS923では、カメラ制御部40は、被写体に対して合焦状態が得られるようにステップS922での位相差AFの結果に応じて、フォーカスレンズ10aをレンズ駆動部11のアクチュエータを動作させて移動させる。   In step S923, the camera control unit 40 operates the focus lens 10a and the actuator of the lens driving unit 11 in accordance with the result of the phase difference AF in step S922 so that a focused state is obtained with respect to the subject. To move.

次に、ステップS924では、カメラ制御部40は、被写体に対して合焦状態が得られたか否かを判断する。合焦状態が得られたときはAFキャリブレーションに適した被写体であるとみなしてステップS903に進む。一方、合焦状態が得られなければ、ステップS925へ進み、AFキャリブレーションに適した被写体を見つけるように警告を行う。警告は、TFTに警告表示を行ったり、ファインダ内に警告表示を行ったり、警告音を鳴らしたりすることで行う。警告後、カメラ制御部40は、再びステップS921に戻り、被写体選定処理を繰り返す。   Next, in step S924, the camera control unit 40 determines whether or not an in-focus state is obtained for the subject. If the in-focus state is obtained, the subject is considered to be suitable for AF calibration, and the process proceeds to step S903. On the other hand, if the in-focus state cannot be obtained, the process proceeds to step S925, and a warning is given so as to find a subject suitable for AF calibration. The warning is performed by displaying a warning on the TFT, displaying a warning in the viewfinder, or sounding a warning sound. After the warning, the camera control unit 40 returns to step S921 again and repeats the subject selection process.

図14には、図12のステップS903にて行われる位相差AFデータ取得処理のフローチャートを示している。位相差AFデータに関しては、実施例1で述べた通りである。   FIG. 14 shows a flowchart of the phase difference AF data acquisition process performed in step S903 of FIG. The phase difference AF data is as described in the first embodiment.

ここで、AFキャリブレーション時のフォーカスレンズ駆動について説明する。AFキャリブレーションの精度を高めるために、後述するコントラストAFデータ取得処理では、ライブビュー観察時および動画撮影(撮影処理)時におけるコントラストAFよりも細かく正確なコントラストAFデータを取得する。このため、コントラストAFデータ取得処理では、レンズの駆動量を安定させるためにフォーカスレンズ10aの一方向駆動を行い、さらに細かく正確なデータ取得のためにフォーカスレンズ10aを細かいピッチ(移動幅)で移動させる微小駆動を行う。一方向駆動には、レンズ駆動部11における駆動機構のバックラッシの影響がある。そこで、本実施例の位相差AFデータ取得処理では、該バックラッシによる補正誤差を低減する(望ましくは除去する)ためにフォーカスレンズ10a(つまりは駆動機構)のガタ取り駆動を行う。   Here, focus lens driving at the time of AF calibration will be described. In order to improve the accuracy of AF calibration, in contrast AF data acquisition processing, which will be described later, contrast AF data that is finer and more accurate than contrast AF during live view observation and moving image shooting (imaging processing) is acquired. For this reason, in the contrast AF data acquisition process, the unidirectional drive of the focus lens 10a is performed in order to stabilize the driving amount of the lens, and the focus lens 10a is moved at a fine pitch (movement width) to acquire finer and more accurate data. A minute drive is performed. The unidirectional drive is affected by the backlash of the drive mechanism in the lens drive unit 11. Therefore, in the phase difference AF data acquisition process of the present embodiment, the focus lens 10a (that is, the drive mechanism) is driven to remove backlash in order to reduce (preferably remove) the correction error due to the backlash.

まず、ステップS941では、カメラ制御部40は、レンズ制御部13を介してフォーカスレンズ10aを無限遠側から至近側への一方向に所定量だけ移動させるようにレンズ駆動部11のアクチュエータを駆動させる。これが、前述した一方向駆動に相当する。   First, in step S941, the camera control unit 40 drives the actuator of the lens driving unit 11 so as to move the focus lens 10a by a predetermined amount in one direction from the infinity side to the close side via the lens control unit 13. . This corresponds to the unidirectional drive described above.

次に、ステップS942では、カメラ制御部40は、レンズ制御部13を介してフォーカスレンズ10aを無限縁側に所定のレンズ移動量だけ移動させる。これがガタ取り駆動に相当する。ガタ取り駆動時のレンズ移動量は、交換レンズごとに(駆動機構の個体差に応じて)決定される。   Next, in step S942, the camera control unit 40 moves the focus lens 10a to the infinite edge side by a predetermined lens movement amount via the lens control unit 13. This corresponds to the rattling removal drive. The amount of lens movement at the time of rattling removal driving is determined for each interchangeable lens (in accordance with individual differences in the driving mechanism).

次に、ステップS943では、カメラ制御部40は、カウンタnを0にリセットする。   Next, in step S943, the camera control unit 40 resets the counter n to 0.

次に、ステップS944では、カメラ制御部40は、AFセンサ22からAF枠に対応する一対の像信号を取得し、該一対の像信号の位相差を算出し、さらに該位相差から撮影光学系10のデフォーカス量DEFを算出する。また、カメラ制御部40は、前述した一致度U、相関変化量ΔV、シャープネスSHおよび明暗比PBDを取得してSレベル値SLを算出する。さらに、カメラ制御部40は、AFセンサ22のエリアセンサにおいて一対の被写体像が光電変換されて一対の像信号が生成されたときの光電変換時間を表す電荷蓄積時間Tの情報を取得する。   Next, in step S944, the camera control unit 40 acquires a pair of image signals corresponding to the AF frame from the AF sensor 22, calculates a phase difference between the pair of image signals, and further uses the imaging optical system from the phase difference. A defocus amount DEF of 10 is calculated. Further, the camera control unit 40 obtains the above-described degree of coincidence U, correlation change amount ΔV, sharpness SH, and light / dark ratio PBD, and calculates the S level value SL. Further, the camera control unit 40 acquires information on the charge accumulation time T that represents the photoelectric conversion time when the pair of subject images are photoelectrically converted by the area sensor of the AF sensor 22 to generate a pair of image signals.

次に、ステップS945では、カメラ制御部40は、カウンタnを1つインクリメントする。   Next, in step S945, the camera control unit 40 increments the counter n by one.

次に、ステップS946では、カメラ制御部40は、カウンタnが所定値(複数回数である所定回数)Nに達したか否かを判定する。カウンタnが所定回数Nに達していない場合はステップS944に戻って、引き続き位相差AFデータを取得する。カウンタnが所定回数Nに達した場合はステップS947に進む。   Next, in step S946, the camera control unit 40 determines whether or not the counter n has reached a predetermined value (a predetermined number of times that is a plurality of times) N. If the counter n has not reached the predetermined number N, the process returns to step S944, and the phase difference AF data is continuously acquired. When the counter n reaches the predetermined number N, the process proceeds to step S947.

ステップS947では、カメラ制御部40は、N回取得した位相差AFデータの平均値を算出する。具体的には、ステップS944をN回繰り返して取得した位相差AFデータであるデフォーカス量DEFとSレベル値SLのそれぞれのN回の平均値μDEF,μSLを算出する。デフォーカス量DEFの平均値μDEFは、図12のステップS905において補正値の算出に用いられる。   In step S947, the camera control unit 40 calculates an average value of the phase difference AF data acquired N times. Specifically, average values μDEF and μSL for N times of the defocus amount DEF and the S level value SL, which are phase difference AF data obtained by repeating step S944 N times, are calculated. The average value DEF of the defocus amount DEF is used to calculate a correction value in step S905 in FIG.

次に、ステップS948では、カメラ制御部40は、ステップS947で算出したSレベル値の平均値μSLが閾値A以下か否かを判定する。平均値μSLが閾値A以下であり、信頼度が高いと判定した場合は、図12のステップS904に進み、コントラストAFデータ取得処理を行う。一方、平均値μSLが閾値Aより大きく、信頼度が低いと判定した場合は、ステップS949に進み、警告を行う。   Next, in step S948, the camera control unit 40 determines whether or not the average value μSL of the S level values calculated in step S947 is equal to or less than the threshold value A. When it is determined that the average value μSL is equal to or less than the threshold value A and the reliability is high, the process proceeds to step S904 in FIG. 12, and a contrast AF data acquisition process is performed. On the other hand, if it is determined that the average value μSL is larger than the threshold value A and the reliability is low, the process proceeds to step S949 to give a warning.

ステップS949での警告後、カメラ制御部40は、図12のステップS902に戻り、被写体選定処理からAFキャリブレーションをやり直す。   After the warning in step S949, the camera control unit 40 returns to step S902 in FIG. 12, and performs AF calibration again from the subject selection process.

図15には、図12のステップS904にて行われるコントラストAFデータ取得処理のフローチャートを示している。コントラストAFデータ取得処理では、ライブビュー観察時および動画撮影(撮影処理)時におけるコントラストAFよりも細かく正確なコントラストAFデータを取得する。このため、本処理では、フォーカスレンズ10aを細かいピッチ(移動幅)で移動させる微小駆動を行う。   FIG. 15 is a flowchart of the contrast AF data acquisition process performed in step S904 in FIG. In the contrast AF data acquisition process, contrast AF data that is finer and more accurate than the contrast AF during live view observation and moving image shooting (shooting process) is acquired. For this reason, in this process, a minute drive is performed to move the focus lens 10a at a fine pitch (movement width).

ステップS960では、カメラ制御部40は、主ミラー20およびサブミラー21をアップ位置に退避させ、ライブビュー画像の表示を開始する。   In step S960, the camera control unit 40 retracts the main mirror 20 and the sub mirror 21 to the up position, and starts displaying a live view image.

ステップS961では、カメラ制御部40は、フォーカスレンズ10aの無限遠側への微小駆動を行わせる。この微小駆動のピッチごとにコントラストAFデータも順次取得する。コントラストAFデータの取得とともに、レンズ状態検出部12を通じてフォーカスレンズ10aの位置も検出する。   In step S961, the camera control unit 40 causes the focus lens 10a to be finely driven toward the infinity side. Contrast AF data is also acquired sequentially for each minute driving pitch. Along with the acquisition of the contrast AF data, the position of the focus lens 10a is also detected through the lens state detection unit 12.

次に、ステップS962では、カメラ制御部40は、ステップS961で取得したコントラストAFデータを用いて、コントラスト合焦位置の検出が可能か否かを判定する。コントラストAFは、コントラスト評価値が最大となるフォーカス位置(ピーク位置)をコントラスト合焦位置と決定するが、ピーク位置か否かは一度、コントラスト評価値がその最大値を経て低下しないと判定できない。   Next, in step S962, the camera control unit 40 determines whether or not the contrast focus position can be detected using the contrast AF data acquired in step S961. In contrast AF, the focus position (peak position) at which the contrast evaluation value is maximized is determined as the contrast in-focus position, but whether or not it is the peak position cannot be determined unless the contrast evaluation value is lowered after the maximum value.

そこで、本ステップでは、カメラ制御部40は、コントラスト評価値が最大値を経て低下したことをもってコントラスト合焦位置の検出が可能と判定し、ステップS965に進み、フォーカスレンズ10aの移動を停止させる。コントラスト評価値がまだ最大値を経て低下していない(増加し続けている)ときはコントラスト合焦位置の検出はまだ可能ではないと判定し、ステップS963に進む。   Therefore, in this step, the camera control unit 40 determines that the contrast in-focus position can be detected when the contrast evaluation value decreases after reaching the maximum value, and proceeds to step S965 to stop the movement of the focus lens 10a. If the contrast evaluation value has not yet decreased after the maximum value (continues to increase), it is determined that detection of the contrast in-focus position is not yet possible, and the process proceeds to step S963.

ステップS963では、カメラ制御部40は、コントラストAFにおける異常の有無を判定する。例えば、被写体が低コントラストであるためにコントラストAFデータの取得が困難であるときにこれを異常と判定する。このとき、カメラ制御部40は、ステップS964に進んで、背面モニタ43に警告を表示する。この後、カメラ制御部40は、ユーザにコントラストAFデータが正常に取得できる被写体を探させるために、図12のステップS902に戻り、被写体選定処理をやり直す。異常ではないと判定した場合は、カメラ制御部40は、引き続きコントラストAFデータを取得するためにステップS961に戻り、フォーカスレンズ10aの微小駆動を行う。   In step S963, the camera control unit 40 determines whether there is an abnormality in contrast AF. For example, when it is difficult to acquire contrast AF data because the subject has low contrast, this is determined as abnormal. At this time, the camera control unit 40 proceeds to step S964 and displays a warning on the rear monitor 43. Thereafter, the camera control unit 40 returns to step S902 in FIG. 12 and performs subject selection processing again in order to make the user search for a subject for which contrast AF data can be normally acquired. If it is determined that there is no abnormality, the camera control unit 40 returns to step S961 to continuously acquire the contrast AF data, and performs fine driving of the focus lens 10a.

ステップS966では、カメラ制御部40は、ステップS961で取得したコントラストAFデータを用いて、コントラスト合焦位置Cを検出する。コントラスト合焦位置Cの算出には、評価値のピークの前後で取得したデータを用いる。このとき、ステップS903の位相差AFデータ処理内でレンズのガタ取り駆動が行われているので、ここで取得したコントラストAFデータにはガタによる誤差が排除されている。   In step S966, the camera control unit 40 detects the contrast in-focus position C using the contrast AF data acquired in step S961. For the calculation of the contrast focus position C, data acquired before and after the peak of the evaluation value is used. At this time, since the lens backlash driving is performed in the phase difference AF data processing in step S903, an error due to backlash is excluded from the contrast AF data acquired here.

ステップS967では、コントラスト合焦位置Cから現在のフォーカスレンズ位置までの差を、デフォーカスに変換して、コントラストのデフォーカス量C−DEFを求める。C−DEFの求め方は、実施例1の図4のS408と同様である。コントラストのデフォーカス量C−DEFを算出した後は、図12のステップS905に進み、補正値算出処理を行う。   In step S967, the difference from the contrast in-focus position C to the current focus lens position is converted into defocus, and the contrast defocus amount C-DEF is obtained. The method for obtaining C-DEF is the same as S408 in FIG. After the contrast defocus amount C-DEF is calculated, the process proceeds to step S905 in FIG. 12, and correction value calculation processing is performed.

図16には、撮影処理のフローチャートを示している。   FIG. 16 shows a flowchart of the photographing process.

ステップS651では、カメラ制御部40は、不図示のレリーズスイッチの半押し操作により第1スイッチ(SW1)がONになったか否かを判定する。ONになっていない場合は待機状態になり、ONになった場合はステップS652に進む。   In step S651, the camera control unit 40 determines whether or not the first switch (SW1) is turned on by a half-press operation of a release switch (not shown). If it is not ON, it enters a standby state. If it is ON, the process proceeds to step S652.

ステップS652では、カメラ制御部40は、撮影範囲内に設けられた21個の焦点検出ラインの中から、ユーザの選択操作又は所定のアルゴリズムに従って1つの焦点検出ラインを指定する。   In step S652, the camera control unit 40 designates one focus detection line from the 21 focus detection lines provided in the imaging range according to the user's selection operation or a predetermined algorithm.

次に、ステップS653では、カメラ制御部40は、ステップS652で指定された焦点検出ラインが撮影範囲の中央領域に含まれる焦点検出ラインL1〜L4およびL19であるか否かを判定する。指定された焦点検出ラインが中央領域の焦点検出ラインでなければステップS654に進み、中央領域の焦点検出ラインであればステップS656に進む。   Next, in step S653, the camera control unit 40 determines whether or not the focus detection lines specified in step S652 are focus detection lines L1 to L4 and L19 included in the central region of the imaging range. If the designated focus detection line is not the focus detection line in the central region, the process proceeds to step S654. If the designated focus detection line is the focus detection line in the central region, the process proceeds to step S656.

ステップS654では、カメラ制御部40は、指定された焦点検出ラインに対応するAFセンサ22のエリアセンサ上の一対の受光素子列から一対の像信号を取り込み、該一対の像信号の位相差を算出し、さらに該位相差からデフォーカス量DEFを算出する。また、指定された焦点検出ラインを特定焦点検出ラインとして決定する。   In step S654, the camera control unit 40 acquires a pair of image signals from the pair of light receiving element arrays on the area sensor of the AF sensor 22 corresponding to the designated focus detection line, and calculates the phase difference between the pair of image signals. Further, the defocus amount DEF is calculated from the phase difference. Also, the designated focus detection line is determined as a specific focus detection line.

ステップS655では、カメラ制御部40は、ステップS654で取り込んだ特定各焦点検出ラインに対応する一対の像信号から、それらの一致度U、相関変化量ΔV、シャープネスSHおよび明暗比PBDを算出する。さらにこれら4つのパラメータの値を用いて、Sレベル値SLを算出する。そして、ステップS659に進む。   In step S655, the camera control unit 40 calculates the degree of coincidence U, the correlation change amount ΔV, the sharpness SH, and the light / dark ratio PBD from the pair of image signals corresponding to the specific focus detection lines captured in step S654. Further, the S level value SL is calculated using the values of these four parameters. Then, the process proceeds to step S659.

ステップS656では、カメラ制御部40は、撮影範囲の中央領域に含まれる各焦点検出ラインに対応するエリアセンサ上の一対の受光素子列から一対の像信号を取り込み、該一対の像信号の位相差を算出し、さらに該位相差からデフォーカス量DEFを算出する。そして、ステップS657に進む。   In step S656, the camera control unit 40 captures a pair of image signals from the pair of light receiving element arrays on the area sensor corresponding to each focus detection line included in the central region of the imaging range, and the phase difference between the pair of image signals. And the defocus amount DEF is calculated from the phase difference. Then, the process proceeds to step S657.

ステップS657では、カメラ制御部40は、ステップS656で取り込んだ各焦点検出ラインに対応する一対の像信号から、それらの一致度U、相関変化量ΔV、シャープネスSHおよび明暗比PBDを算出する。さらにこれら4つのパラメータの値を用いて、Sレベル値SLを算出する。   In step S657, the camera control unit 40 calculates the coincidence degree U, the correlation change amount ΔV, the sharpness SH, and the light / dark ratio PBD from the pair of image signals corresponding to each focus detection line captured in step S656. Further, the S level value SL is calculated using the values of these four parameters.

次に、ステップS658では、カメラ制御部40は、撮影範囲の中央領域に含まれる各焦点検出ラインのSレベル値SLのうち最も小さい値に対応する焦点検出ラインを特定焦点検出ラインとして決定する。そして、ステップS659に進む。   Next, in step S658, the camera control unit 40 determines the focus detection line corresponding to the smallest value among the S level values SL of each focus detection line included in the central region of the imaging range as the specific focus detection line. Then, the process proceeds to step S659.

ステップS659では、Sレベル値SLが閾値PA以下か否かを判断する。Sレベル値SLが閾値PA以下であれば、ステップS654およびステップS656で取得した位相差AFデータは信頼度が高い(第3の信頼度)と判断できるので、そこで算出されたデフォーカス量DEFを用いて被写体への合焦駆動を行う。Sレベル値SLが閾値PAより大きければ、位相差AFデータは信頼度が低い(第4の信頼度)と判断できるので、ステップS660へ進み、非合焦の警告を行う。   In step S659, it is determined whether or not the S level value SL is equal to or less than a threshold value PA. If the S level value SL is equal to or smaller than the threshold value PA, the phase difference AF data acquired in steps S654 and S656 can be determined to have high reliability (third reliability), and therefore the defocus amount DEF calculated there can be determined. Used to focus the subject. If the S level value SL is larger than the threshold value PA, it can be determined that the phase difference AF data has low reliability (fourth reliability), and thus the process proceeds to step S660, where an out-of-focus warning is given.

なお、撮影処理が行われるときの閾値PAと、前述したAFキャリブレーション中(撮影処理が行われないとき)の位相差AFデータ取得処理で使われる閾値Aとの関係は、
PA>A
となる。つまり、撮影処理中の閾値PAに比べて、前述したAFキャリブレーション時での位相差AFデータ取得処理で用いられる閾値Aの方が低くなっており、AFキャリブレーション時にはより厳しい閾値Aが設定されている。言い換えれば、AFキャリブレーション時に求められる信頼度(第1の信頼度)が、撮影処理中に求められる信頼度(第3の信頼度)よりも高く設定されている。これは、AFキャリブレーション時の補正値算出には高い精度が要求されるので、撮影処理時よりもより厳しい閾値を設けることで、より精度の高い補正値の算出を可能とするためである。
The relationship between the threshold value PA when the photographing process is performed and the threshold value A used in the phase difference AF data acquisition process during the AF calibration (when the photographing process is not performed) is as follows.
PA> A
It becomes. That is, the threshold value A used in the phase difference AF data acquisition process at the time of the above-described AF calibration is lower than the threshold value PA during the photographing process, and a stricter threshold value A is set at the time of AF calibration. ing. In other words, the reliability (first reliability) required during AF calibration is set higher than the reliability (third reliability) required during the imaging process. This is because high accuracy is required for calculating the correction value at the time of AF calibration, and thus it is possible to calculate a correction value with higher accuracy by providing a stricter threshold than that at the time of shooting processing.

ステップS661では、カメラ制御部40は、特定焦点検出ラインでのデフォーカス量から合焦状態を得るために必要なフォーカスレンズ10aの移動量(移動方向を含む)を算出する。具体的には、フォーカスレンズ10aを移動させるレンズ駆動部11のアクチュエータの駆動パルス数を算出する。フォーカスレンズ10aの移動量を算出することは、位相差合焦位置を算出することに相当する。   In step S661, the camera control unit 40 calculates the movement amount (including the movement direction) of the focus lens 10a necessary for obtaining the in-focus state from the defocus amount in the specific focus detection line. Specifically, the number of driving pulses of the actuator of the lens driving unit 11 that moves the focus lens 10a is calculated. Calculation of the movement amount of the focus lens 10a corresponds to calculation of the phase difference in-focus position.

次に、ステップS662では、カメラ制御部40は、ステップS661にて算出したフォーカスレンズ10aの移動量にAFキャリブレーションにより得られた補正値を加算(又は減算)することで、該移動量を補正する。フォーカスレンズ10aの移動量を補正することは、位相差合焦位置を補正することに相当する。補正値が作成されていない場合は、補正値が0になるので、フォーカスレンズ10aの移動量(位相差合焦位置)の補正は行われない。   Next, in step S662, the camera control unit 40 corrects the movement amount by adding (or subtracting) the correction value obtained by the AF calibration to the movement amount of the focus lens 10a calculated in step S661. To do. Correcting the movement amount of the focus lens 10a corresponds to correcting the phase difference focus position. If no correction value has been created, the correction value is 0, so that the movement amount (phase difference in-focus position) of the focus lens 10a is not corrected.

そして、ステップS663では、カメラ制御部40は、補正された移動量だけフォーカスレンズ10aが移動されるようにレンズ制御部13にフォーカス指令を送信する。これにより、レンズ制御部13は、レンズ駆動部11を通じてフォーカスレンズ10aを補正された位相差合焦位置に移動させる。   In step S663, the camera control unit 40 transmits a focus command to the lens control unit 13 so that the focus lens 10a is moved by the corrected movement amount. Thereby, the lens control unit 13 moves the focus lens 10a to the corrected phase difference in-focus position through the lens driving unit 11.

次に、ステップS664では、カメラ制御部40は、レリーズスイッチの全押し操作により第2スイッチ(SW2)がONになったか否かを判定する。ONになっていない場合は待機し、ONになった場合はステップS665に進む。   Next, in step S664, the camera control unit 40 determines whether or not the second switch (SW2) is turned on by a full press operation of the release switch. If it is not ON, the process waits. If it is ON, the process proceeds to step S665.

ステップS665では、カメラ制御部40は、撮影を行って記録用画像を生成する。   In step S665, the camera control unit 40 performs shooting to generate a recording image.

そして、ステップS666では、カメラ制御部40は、ステップS665にて生成された記録用画像を、カメラ記憶部42に保存する。   In step S666, the camera control unit 40 stores the recording image generated in step S665 in the camera storage unit 42.

なお、本実施例においても、実施例1と同様に、コントラストAFで検出される合焦位置について、レンズを至近側から無限遠側に駆動する場合と無限遠側から至近側に駆動する場合との検出結果の差に関する情報をレンズ内に予め記憶させてもよい。また、AFキャリブレーションをレンズの駆動方向ごとに行って補正値を算出し、それぞれをカメラ記憶部42に記憶してもよい。   In the present embodiment, as in the first embodiment, with respect to the in-focus position detected by contrast AF, the lens is driven from the near side to the infinity side, and the case where the lens is driven from the infinity side to the close side. Information regarding the difference between the detection results may be stored in the lens in advance. Alternatively, AF calibration may be performed for each lens driving direction to calculate correction values, and each may be stored in the camera storage unit 42.

本実施例によれば、Sレベル値SLを用いて被写体に対する位相差AF(つまりは位相差AFデータ)の信頼度を判定することにより、位相差AFを行うのに適さない被写体を用いてAFキャリブレーションが行われることを回避できる。したがって、AFキャリブレーションに不適切な被写体を回避し、効率的に短時間でAFキャリブレーションを行うことができる。また、AFキャリブレーション時の信頼度判定に関する閾値について、撮影処理時の閾値よりも厳しい閾値が設定されるので、AFキャリブレーション時により高精度の補正値を算出することが可能となる。   According to the present embodiment, by using the S level value SL to determine the reliability of the phase difference AF (that is, phase difference AF data) for the subject, the AF using the subject that is not suitable for performing the phase difference AF is used. Calibration can be avoided. Accordingly, it is possible to avoid a subject inappropriate for AF calibration and efficiently perform AF calibration in a short time. Further, since a threshold value that is stricter than the threshold value at the time of shooting processing is set for the threshold value related to the reliability determination at the time of AF calibration, it is possible to calculate a highly accurate correction value at the time of AF calibration.

次に、本発明の実施例4について説明する。本実施例のカメラシステム(デジタル一眼レフカメラおよび交換レンズ)の構成のうち、実施例1において図17に示したものと共通する構成要素には、実施例1と同符号を付して説明に代える。また、焦点検出ラインのレイアウト、AFキャリブレーション処理、コントラストAFデータ取得処理、位相差AFデータ取得処理および撮影処理はそれぞれ、実施例1中の図18、図1、図4、図5および図6に示したものと同様である。   Next, a fourth embodiment of the present invention will be described. In the configuration of the camera system (digital single-lens reflex camera and interchangeable lens) according to the present embodiment, the same components as those illustrated in FIG. Replace. Further, the layout of the focus detection line, the AF calibration process, the contrast AF data acquisition process, the phase difference AF data acquisition process, and the imaging process are respectively shown in FIGS. 18, 1, 4, 5, and 6 in the first embodiment. It is the same as that shown in.

本実施例では、図17に示した背面モニタ43が、いわゆるタッチパネル機能を備えている。また、カメラ制御部(被写体検出手段)40は、実施例1にて説明した機能に加えて、画像信号に含まれる被写体の色、形およびパターン等の被写体に関する情報(以下、被写体情報という)を検出する被写体検出機能を備えている。なお、画像信号は被写体像の撮像素子24による光電変換により得られた信号であるため、被写体情報は被写体像を用いて得られると言える。   In the present embodiment, the rear monitor 43 shown in FIG. 17 has a so-called touch panel function. In addition to the functions described in the first embodiment, the camera control unit (subject detection means) 40 includes information on the subject such as the color, shape, and pattern of the subject included in the image signal (hereinafter referred to as subject information). It has a subject detection function to detect. Since the image signal is a signal obtained by photoelectric conversion of the subject image by the image sensor 24, it can be said that the subject information is obtained using the subject image.

図19のフローチャートには、本実施例における被写体選定処理(図1のステップS102)を示している。   The flowchart in FIG. 19 shows subject selection processing (step S102 in FIG. 1) in the present embodiment.

ステップS1001では、カメラ制御部40は、図20(a)に示すように、背面モニタ43でのライブビュー画像の表示を開始する。このとき、背面モニタ43には、ライブビュー画像200に重畳してAF枠201(a)〜(i)が表示される。   In step S1001, the camera control unit 40 starts displaying a live view image on the rear monitor 43 as shown in FIG. At this time, AF frames 201 (a) to (i) are displayed on the rear monitor 43 so as to be superimposed on the live view image 200.

ステップS1002では、ユーザによるAF枠選択が行われる。ユーザは、背面モニタ43上に設けられた指示エリア203に表示された指示に従って、AF枠(a)〜(i)のうち、AFキャリブレーションを行いたいAF枠を、背面モニタ43のタッチパネル操作あるいは不図示の操作部材の操作によって選択する。カメラ制御部40は、選択されたAF枠を、例えば図20(b)にAF枠201(b)〜(d)を太枠で表示するように、強調して表示する。AF枠の選択を終了したユーザは、背面モニタ43のタッチパネル操作あるいは不図示の決定ボタンの操作によりOKボタン202をONする。カメラ制御部40は、これに応じて次のステップ1003に進む。   In step S1002, the user selects an AF frame. In accordance with the instructions displayed in the instruction area 203 provided on the rear monitor 43, the user operates the touch panel operation on the rear monitor 43 or selects the AF frame to be subjected to AF calibration from among the AF frames (a) to (i). Selection is made by operating an operation member (not shown). The camera control unit 40 displays the selected AF frame with emphasis so that, for example, the AF frames 201 (b) to (d) are displayed as thick frames in FIG. 20 (b). The user who has finished the selection of the AF frame turns on the OK button 202 by operating the touch panel on the rear monitor 43 or operating the determination button (not shown). In response to this, the camera control unit 40 proceeds to the next step 1003.

なお、本実施例ではユーザによるAF枠を選択する場合について説明するが、ユーザが背面モニタ43のタッチパネル操作を通じてAFキャリブレーションを行う被写体を選択してもよい。また、ステップS1002においていずれのAF枠も選択されずにOKボタン202がONされた場合は、全てのAF枠が選択されたものとしてステップS1003に進んでもよい。   In this embodiment, the case where the user selects an AF frame will be described. However, the user may select a subject to be subjected to AF calibration through a touch panel operation of the rear monitor 43. If the OK button 202 is turned on without selecting any AF frame in step S1002, the process may proceed to step S1003 assuming that all AF frames have been selected.

ステップS1003では、カメラ制御部40は、ステップS1002でユーザが選択したAF枠を含む領域で、コントラストAFを実行する。   In step S1003, the camera control unit 40 executes contrast AF in an area including the AF frame selected by the user in step S1002.

ステップS1004では、カメラ制御部40は、コントラスト合焦位置が検出できたか否かを判定する。コントラスト合焦位置が検出できた場合はS1005に進む。コントラスト合焦位置が検出できなかった場合はステップS1008に進み、警告表示を行う。コントラストAFで合焦できなかった場合や、ユーザにより選択されたAF枠にAFキャリブレーション可能な被写体が存在しなかった場合は、カメラ制御部40は、背面モニタ43上に設けられた指示部203に、警告の内容とそれに対する対策を表示する。ユーザはこれに従って、ステップS1002に戻り、再度AF枠の選択からやり直す。
ステップS1005では、カメラ制御部(領域判定手段)40は、その被写体検出機能を用いた被写体判定(領域判定)を行う。ここでは、被写体情報(色、形、パターン等)から、ユーザにより選択されたAF枠に含まれる被写体が、図5の位相差AFデータ取得処理でのSレベル値SLを用いた信頼度判定(ステップS507)にて信頼度が高い被写体と判定され得る被写体か否かを判定する。具体的には、コントラストが高い被写体(黒と白等)や、垂直方向にエッジがあるような被写体(縦縞模様)は信頼度が高い(誤検出度が低い)被写体と判定される。逆に、低コントラストの被写体(赤と白等)や、コントラストがはっきりしない被写体(グラデーション等)や、斜め又は横方向にエッジがあるような垂直方向以外にエッジがある被写体は、信頼度が低い(誤検出度が高い)被写体と判定される。
また、コントラストが高く、縦方向にエッジがある被写体でも、同じ幅の縦縞模様が続くような繰り返しパターンの場合、位相差AFにて誤ったデフォーカス量を算出する場合がある。このような位相差AFにて誤ったデフォーカス量を算出する可能性がある苦手被写体も、このステップで信頼度が低い(誤検出度が高い)被写体として判定する。さらに、被写体が人の顔であったり、被写体の色追尾にて動く被写体であると認識されたりした場合は、AFキャリブレーション中に動いてしまうことが想定されるので、信頼度が低い(誤検出度が高い)被写体と判定してもよい。
In step S1004, the camera control unit 40 determines whether or not the contrast focus position has been detected. If the contrast in-focus position has been detected, the process proceeds to S1005. If the contrast focus position cannot be detected, the process advances to step S1008 to display a warning. If the focus cannot be achieved by contrast AF, or if there is no subject that can be AF calibrated in the AF frame selected by the user, the camera control unit 40 instructs the instruction unit 203 provided on the rear monitor 43. Display the contents of the warning and countermeasures against it. In accordance with this, the user returns to step S1002 and starts again from the selection of the AF frame.
In step S1005, the camera control unit (region determination unit) 40 performs subject determination (region determination) using the subject detection function. Here, from the subject information (color, shape, pattern, etc.), the subject included in the AF frame selected by the user is determined for reliability using the S level value SL in the phase difference AF data acquisition process of FIG. In step S507), it is determined whether or not the subject can be determined as a subject with high reliability. Specifically, a subject with high contrast (such as black and white) or a subject with an edge in the vertical direction (vertical stripe pattern) is determined as a subject with high reliability (low detection error). Conversely, low-contrast subjects (such as red and white), low-contrast subjects (gradations, etc.), and subjects with edges other than the vertical direction that have diagonal or horizontal edges have low reliability. It is determined as a subject (high degree of false detection).
In addition, even in the case of a subject having high contrast and having an edge in the vertical direction, in the case of a repetitive pattern in which a vertical stripe pattern of the same width continues, an erroneous defocus amount may be calculated by phase difference AF. A subject that is unlikely to calculate an erroneous defocus amount by such phase difference AF is also determined as a subject having low reliability (high false detection degree) in this step. Furthermore, if the subject is recognized as a human face or a subject that moves by tracking the subject's color, it is assumed that the subject will move during AF calibration, so the reliability is low (incorrect) It may be determined that the subject is highly detected.

被写体情報からSレベル値SLを用いた信頼度が高いと判定され得る被写体であると判定した場合は、カメラ制御部40は、該被写体に対して信頼度判定を行うと決定してステップS1006に進む。一方、被写体情報からSレベル値SLを用いた信頼度が低いと判定され得る被写体であると判定した場合は、カメラ制御部40は、該被写体に対しては信頼度判定を行わないと決定してステップS1008に進み、警告を行う。   If it is determined from the subject information that the subject can be determined to have high reliability using the S level value SL, the camera control unit 40 determines to perform reliability determination on the subject, and the process proceeds to step S1006. move on. On the other hand, if it is determined from the subject information that the subject can be determined to have low reliability using the S level value SL, the camera control unit 40 determines not to perform reliability determination on the subject. In step S1008, a warning is issued.

この被写体判定を被写体選定処理にて行うことで、図1のコントラストAFデータ処理(ステップS103)を経た後に位相差AFデータ取得処理(ステップS104)にて信頼度が低いと判定されて、被写体選定処理の最初からやり直すことを回避できる。これにより、より効率的なAFキャリブレーションが可能となる。また、信頼度が高い(Sレベル値SLが第1の信頼度である)と判断される被写体であっても、位相差AFでのデフォーカス量が誤って検出されるような、デフォーカス量検出が苦手な被写体もある。本実施例では、そのような被写体が選択された場合でも、被写体認識機能により、デフォーカス量の誤検出を生じやすい被写体を除外し、AFキャリブレーションによる誤補正を防ぐことができる。   By performing this subject determination in the subject selection processing, it is determined that the reliability is low in the phase difference AF data acquisition processing (step S104) after the contrast AF data processing (step S103) in FIG. You can avoid starting over from the beginning of the process. Thereby, more efficient AF calibration becomes possible. Further, even if the subject is determined to have high reliability (the S level value SL is the first reliability), the defocus amount such that the defocus amount in the phase difference AF is erroneously detected. Some subjects are not good at detecting. In the present embodiment, even when such a subject is selected, the subject recognizing function can exclude subjects that are likely to cause erroneous detection of the defocus amount, thereby preventing erroneous correction by AF calibration.

ステップS1006では、カメラ制御部40は、ステップS1005での被写体判定の結果を、図20(c)に示すように背面モニタ43に表示する。図20(c)において、AF枠201(c)は、信頼度が低い(Sレベル値SLが第2の信頼度である)と判断された被写体に含まれるAF枠であり、AFキャリブレーションを行うことができないAF枠であることを示すために薄く表示されている。一方、AF枠201(ba),201(db)は、信頼度が高い(Sレベル値SLが第1の信頼度である)と判断された被写体を含むので、AFキャリブレーション可能なAF枠として表示する。   In step S1006, the camera control unit 40 displays the result of subject determination in step S1005 on the rear monitor 43 as shown in FIG. In FIG. 20C, an AF frame 201 (c) is an AF frame included in a subject whose reliability is determined to be low (S level value SL is the second reliability), and AF calibration is performed. It is displayed lightly to indicate that it is an AF frame that cannot be performed. On the other hand, since the AF frames 201 (ba) and 201 (db) include subjects determined to have high reliability (the S level value SL is the first reliability), the AF frames can be AF calibrated. indicate.

次に、ステップS1007では、ユーザは、ステップS1006で表示されたAFキャリブレーション可能なAF枠の中から、ユーザが実際にAFキャリブレーションを行いたいAF枠を、背面モニタ43のタッチパネル操作あるいは決定ボタンの操作によって選択する。AF枠の選択を終えたユーザが背面モニタ43のタッチパネル操作あるいは操作部材の操作によってOKボタン202をONすると、カメラ制御部40は、図1のステップS103に進む。   Next, in step S1007, the user selects an AF frame that the user actually wants to perform the AF calibration from among the AF frames that are displayed in step S1006 and that can be used for AF calibration. Select by the operation. When the user who has finished selecting the AF frame turns on the OK button 202 by operating the touch panel of the rear monitor 43 or operating the operation member, the camera control unit 40 proceeds to step S103 in FIG.

また、別の方法として、ステップS1003で、カメラ制御部40がライブビュー画像上で最もAFキャリブレーションに適した被写体を被写体検出機能によって自動で選択し、ユーザに提示するようにしてもよい。この場合、ユーザはその被写体にAFキャリブレーションを行うAF枠を合わせるようにカメラの向きを調節すればよい。   As another method, in step S1003, the camera control unit 40 may automatically select a subject most suitable for AF calibration on the live view image by the subject detection function and present it to the user. In this case, the user may adjust the direction of the camera so that the AF frame for performing the AF calibration is aligned with the subject.

本実施例によれば、ライブビュー画像を表示した状態で被写体選定処理により信頼度が高い被写体を事前に選定するので、位相差AFデータ取得処理まで進んだ後で信頼度が低いとの判定によるやり直しを回避できる。したがって、効率的にAFキャリブレーションを行うことができ、AFキャリブレーションに要する時間を短縮することができる。   According to the present embodiment, since a subject with high reliability is selected in advance by subject selection processing in a state where a live view image is displayed, it is determined that reliability is low after proceeding to phase difference AF data acquisition processing. You can avoid redoing. Therefore, AF calibration can be performed efficiently, and the time required for AF calibration can be shortened.

なお、カメラ制御部40による被写体検出機能を用いた被写体判定(領域判定)は、AFキャリブレーションを行う候補のAF枠をカメラ制御部40が自動で全AF枠から選択した場合に行ってもよい。   Note that subject determination (region determination) using the subject detection function by the camera control unit 40 may be performed when the camera control unit 40 automatically selects candidate AF frames for AF calibration from all AF frames. .

次に、本発明の実施例5について説明する。本実施例のカメラシステム(デジタル一眼レフカメラおよび交換レンズ)の構成のうち、実施例1において図17に示したものと共通する構成要素には、実施例1と同符号を付して説明に代える。また、焦点検出ラインのレイアウトは、実施例1中の図18に示したものと同様である。また、AFキャリブレーション処理、コントラストAFデータ取得処理、位相差AFデータ取得処理および撮影処理はそれぞれ、実施例3中の図12、図14、図15および図16に示したものと同様である。   Next, a fifth embodiment of the present invention will be described. In the configuration of the camera system (digital single-lens reflex camera and interchangeable lens) according to the present embodiment, the same components as those illustrated in FIG. Replace. The layout of the focus detection line is the same as that shown in FIG. 18 in the first embodiment. Further, the AF calibration process, the contrast AF data acquisition process, the phase difference AF data acquisition process, and the photographing process are the same as those shown in FIGS. 12, 14, 15, and 16 in the third embodiment.

本実施例では、図17に示したAEセンサ33が、実施例1で説明した機能に加えて、被写体の色(RGB)を検出する機能を備えている。そして、カメラ制御部(被写体検出手段)40は、このAEセンサ33の色検出の結果を用いて、被写体の色、形、パターン等の被写体情報を検出する被写体検出機能を備えている。AEセンサ33は、被写体像を光電変換するものであるため、本実施例でも、被写体情報は被写体像を用いて得られると言える。   In the present embodiment, the AE sensor 33 shown in FIG. 17 has a function of detecting the subject color (RGB) in addition to the functions described in the first embodiment. The camera control unit (subject detection means) 40 has a subject detection function for detecting subject information such as the color, shape, and pattern of the subject using the color detection result of the AE sensor 33. Since the AE sensor 33 photoelectrically converts a subject image, it can be said that subject information can be obtained using the subject image also in this embodiment.

図21のフローチャートには、本実施例における被写体選定処理を示している。   The flowchart of FIG. 21 shows subject selection processing in the present embodiment.

ステップS1021では、ユーザは、AFキャリブレーションを行うAF枠として予め設定された所定AF枠を被写体に合わせるように、ユーザがカメラシステムの向きを調節する。所定AF枠は、ユーザが任意で設定したAF枠でもよいし、カメラ制御部40が自動で全AF枠から選択したAF枠であってもよい。   In step S1021, the user adjusts the orientation of the camera system so that a predetermined AF frame set in advance as an AF frame for performing AF calibration is aligned with the subject. The predetermined AF frame may be an AF frame arbitrarily set by the user, or may be an AF frame automatically selected from all AF frames by the camera control unit 40.

ステップS1022では、ユーザは、カメラ2に設けられた不図示のレリーズスイッチの半押し操作を行う。これに応じて、カメラ制御部40は、次のステップに進む。   In step S1022, the user performs a half-press operation of a release switch (not shown) provided in the camera 2. In response to this, the camera control unit 40 proceeds to the next step.

ステップS1023では、カメラ制御部40は、AFセンサ22を通じて、AF枠内の被写体に対して位相差AFを行う。   In step S1023, the camera control unit 40 performs phase difference AF on the subject in the AF frame through the AF sensor 22.

そして、ステップS1024では、カメラ制御部40は、被写体に対して合焦状態が得られるようにステップS1023での位相差AFの結果に応じて、フォーカスレンズ10aをレンズ駆動部11のアクチュエータを動作させて移動させる。   In step S1024, the camera control unit 40 operates the focus lens 10a and the actuator of the lens driving unit 11 according to the result of the phase difference AF in step S1023 so that the in-focus state can be obtained with respect to the subject. To move.

ステップS1025では、カメラ制御部40は、被写体に対して合焦状態が得られたか否かを判断する。合焦状態が得られたときはステップS1026に進む。一方、合焦状態が得られなければ、カメラ制御部40は、ステップS1028へ進み、AFキャリブレーションに適した被写体を見つけるように警告を行う。警告は、TFTに警告表示を行ったり、ファインダ内に警告表示を行ったり、警告音を鳴らしたりすることで行う。警告後、カメラ制御部40は、再びステップS1021に戻り、被写体選定処理を繰り返す。   In step S1025, the camera control unit 40 determines whether an in-focus state is obtained for the subject. When the in-focus state is obtained, the process proceeds to step S1026. On the other hand, if the in-focus state is not obtained, the camera control unit 40 proceeds to step S1028 and issues a warning so as to find a subject suitable for AF calibration. The warning is performed by displaying a warning on the TFT, displaying a warning in the viewfinder, or sounding a warning sound. After the warning, the camera control unit 40 returns to step S1021 again and repeats the subject selection process.

ステップS1026では、カメラ制御部40は、ステップS1023で取り込んだ各焦点検出ラインに対応する一対の像信号から、それらの一致度U、相関変化量ΔV、シャープネスSHおよび明暗比PBDを算出する。さらにこれら4つのパラメータの値を用いて、Sレベル値SLを算出する。なお、このSレベル値SLの算出方法および判定方法は、通常撮影時と同じである。このため、合焦状態にある被写体に対してのSレベル値SLは第3の信頼度以上であるといえる。   In step S1026, the camera control unit 40 calculates the degree of coincidence U, the correlation change amount ΔV, the sharpness SH, and the light / dark ratio PBD from the pair of image signals corresponding to each focus detection line captured in step S1023. Further, the S level value SL is calculated using the values of these four parameters. The S level value SL is calculated and determined in the same manner as in normal shooting. For this reason, it can be said that the S level value SL for the subject in focus is equal to or higher than the third reliability.

次に、ステップS1027では、カメラ制御部(信頼度判定手段および領域判定手段)40は、信頼度判定と被写体判定(領域判定)を行う。信頼度判定では、カメラ制御部40は、ステップS1026で算出されたSレベル値SLが閾値A以下か否かを判断する。信頼度が高い(Sレベル値SLが第1の信頼度である)と判断した場合は、その被写体でAFキャリブレーションが行えると暫定的に判断する。信頼度が低い(Sレベル値SLが第2の信頼度である)と判断した場合は、以下の被写体判定は行わない。   Next, in step S1027, the camera control unit (reliability determination unit and region determination unit) 40 performs reliability determination and subject determination (region determination). In the reliability determination, the camera control unit 40 determines whether or not the S level value SL calculated in step S1026 is equal to or less than the threshold value A. If it is determined that the reliability is high (the S level value SL is the first reliability), it is provisionally determined that AF calibration can be performed on the subject. When it is determined that the reliability is low (the S level value SL is the second reliability), the following subject determination is not performed.

被写体判定において、カメラ制御部(誤検出度判定手段)40は、AEセンサ33による被写体の色の検出結果を用いた被写体検出機能によって、その被写体に対する位相差AFによる誤検出の可能性(つまりは位相差合焦位置の誤検出度)を判定する。すなわち、上述した信頼度判定において信頼度が高いと判定された被写体であっても、その色、形、パターン等から見ると誤ったデフォーカス量、さらには誤った位相差合焦位置を算出する可能性が高い被写体か否かを判定する。例えば、コントラストが高い被写体(黒と白等)や、垂直方向にエッジがあるような被写体(縦縞模様)は信頼度が高い(誤検出度が低い)被写体と判定される。逆に、低コントラストの被写体(赤と白等)や、コントラストがはっきりしない被写体(グラデーションなど)や、斜め又は横方向にエッジがあるような垂直方向以外にエッジがある被写体は、信頼度が低い(誤検出度が高い)被写体と判定される。
また、コントラストが高く、縦方向にエッジがある被写体でも、同じ幅の縦縞模様が続くような繰り返しパターンの場合、位相差AFにて誤ったデフォーカス量を算出する場合がある。このような位相差AFにて誤ったデフォーカス量を算出する可能性がある苦手被写体も、このステップで信頼度が低い(誤検出度が高い)被写体として判定する。さらに、被写体が人の顔であったり、被写体の色追尾にて動く被写体であると認識されたりした場合は、AFキャリブレーション中に動いてしまうことが想定されるので、信頼度が低い(誤検出度が高い)被写体と判定してもよい。
In the subject determination, the camera control unit (false detection degree determination means) 40 uses the subject detection function using the detection result of the subject color by the AE sensor 33, so that the possibility of erroneous detection by the phase difference AF for the subject (that is, The degree of erroneous detection of the phase difference in-focus position) is determined. That is, even if the subject is determined to have high reliability in the above-described reliability determination, an erroneous defocus amount and an erroneous phase difference in-focus position are calculated when viewed from its color, shape, pattern, etc. It is determined whether or not the subject is highly likely. For example, a subject with high contrast (such as black and white) or a subject with an edge in the vertical direction (vertical stripe pattern) is determined as a subject with high reliability (low misdetection degree). Conversely, low-contrast subjects (such as red and white), low-contrast subjects (such as gradations), and subjects with edges other than the vertical direction that have diagonal or horizontal edges have low reliability. It is determined as a subject (high degree of false detection).
In addition, even in the case of a subject having high contrast and having an edge in the vertical direction, in the case of a repetitive pattern in which a vertical stripe pattern of the same width continues, an erroneous defocus amount may be calculated by phase difference AF. A subject that is unlikely to calculate an erroneous defocus amount by such phase difference AF is also determined as a subject having low reliability (high false detection degree) in this step. Furthermore, if the subject is recognized as a human face or a subject that moves by tracking the subject's color, it is assumed that the subject will move during AF calibration, so the reliability is low (incorrect) It may be determined that the subject is highly detected.

なお、コントラストAFでの合焦が可能か否かも、被写体検出機能によって判定可能である。   Whether or not focusing with contrast AF is possible can also be determined by the subject detection function.

カメラ制御部40は、信頼度判定で信頼度が高いと判定し、かつ被写体判定(誤検出度判定)で位相差AFでの誤検出の可能性が低い(誤検出度が第1の誤検出度である)と判定した被写体は、AFキャリブレーションに適した被写体であると最終的に判断する。そして、位相差AFデータ取得処理(図12のステップS903)に進む。   The camera control unit 40 determines that the reliability is high in the reliability determination, and has a low possibility of erroneous detection in the phase difference AF in the subject determination (error detection degree determination) (the error detection degree is the first erroneous detection). It is finally determined that the subject determined to be a suitable subject for AF calibration. Then, the process proceeds to the phase difference AF data acquisition process (step S903 in FIG. 12).

一方、カメラ制御部40は、信頼度が低いと判定するか、または位相差AFでの誤検出の可能性が高い(誤検出度が第1の誤検出度より高い第2の誤検出度である)と判定した被写体は、AFキャリブレーションに適した被写体でないと判断する。そして、ステップS1028に進んで警告を行う。警告後、カメラ制御部40は、再びステップS1021に戻り、被写体選定処理を繰り返す。   On the other hand, the camera control unit 40 determines that the reliability is low, or the possibility of erroneous detection by the phase difference AF is high (with a second erroneous detection degree in which the erroneous detection degree is higher than the first erroneous detection degree). It is determined that the subject determined to be (not present) is not a subject suitable for AF calibration. Then, the process proceeds to step S1028 to give a warning. After the warning, the camera control unit 40 returns to step S1021 again and repeats the subject selection process.

本実施例によれば、被写体選定において位相差AFによる合焦動作で得られた結果を用いた信頼度判定を行うことで、より高精度な信頼度判定が可能になる。さらに、信頼度判定に加えてAEセンサを用いた被写体判定(誤検出度判定)を行うことで、位相差AFを行うのに適さない被写体を用いてAFキャリブレーションが行われることをより確実に回避できる。したがって、AFキャリブレーションに要する時間をさらに短縮することができる。   According to the present embodiment, the reliability determination using the result obtained by the focusing operation based on the phase difference AF in the subject selection can be performed with higher accuracy. Furthermore, by performing subject determination (error detection degree determination) using an AE sensor in addition to the reliability determination, it is possible to more reliably perform AF calibration using a subject that is not suitable for performing phase difference AF. Can be avoided. Therefore, the time required for AF calibration can be further shortened.

以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。   Each embodiment described above is only a representative example, and various modifications and changes can be made to each embodiment in carrying out the present invention.

信頼度の高いフォーカスキャリブレーションを行うことができるようにした撮像装置を提供できる。   It is possible to provide an image pickup apparatus that can perform focus calibration with high reliability.

2 カメラ
10 撮影光学系
10a フォーカスレンズ
22 AFセンサ
24 撮像素子
41 デジタル制御部
L1〜L21 焦点検出ライン
2 Camera 10 Imaging optical system 10a Focus lens 22 AF sensor 24 Image sensor 41 Digital control unit L1 to L21 Focus detection line

Claims (17)

撮影光学系により形成された被写体像を光電変換して画像信号を生成する撮像手段と、
前記被写体像の一対の像信号に基づいて、位相差検出方式により第1の合焦位置を検出する第1の検出手段と、
前記第1の合焦位置に基づいて、前記撮影光学系に含まれるフォーカスレンズの位置を制御して焦点調節動作を行う制御手段と、
前記画像信号に基づいて、コントラスト検出方式により第2の合焦位置を検出する第2の検出手段と、
撮影時に前記第1の合焦位置を補正する補正値を、前記第1の合焦位置と前記第2の合焦位置との差に基づいて算出する算出手段と、
前記一対の像信号に関する情報を用いて、前記第1の合焦位置の信頼度を判定する信頼度判定手段とを有し、
前記算出手段は、前記信頼度が第1の信頼度である場合は前記補正値を算出し、前記信頼度が前記第1の信頼度よりも低い第2の信頼度である場合は前記補正値の算出を制限することを特徴とする撮像装置。
Imaging means for photoelectrically converting a subject image formed by the imaging optical system to generate an image signal;
First detection means for detecting a first in-focus position by a phase difference detection method based on a pair of image signals of the subject image;
Control means for performing a focus adjustment operation by controlling the position of a focus lens included in the photographing optical system based on the first focus position;
Second detection means for detecting a second in-focus position by a contrast detection method based on the image signal;
Calculating means for calculating a correction value for correcting the first in-focus position at the time of shooting based on a difference between the first in-focus position and the second in-focus position;
Reliability determination means for determining reliability of the first in-focus position using information on the pair of image signals;
The calculation means calculates the correction value when the reliability is a first reliability, and calculates the correction value when the reliability is a second reliability lower than the first reliability. An imaging device that restricts the calculation of.
前記一対の像信号に関する情報は、該一対の像信号の一致度、相関変化量、シャープネスおよび明暗比のうち少なくとも1つを含むことを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the information related to the pair of image signals includes at least one of a matching degree, a correlation change amount, a sharpness, and a light / dark ratio of the pair of image signals. 前記一対の像信号に関する情報は、前記一対の像信号が生成されたときの光電変換時間であることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the information related to the pair of image signals is a photoelectric conversion time when the pair of image signals is generated. 前記制御手段は、複数回、前記一対の像信号を生成させ、
前記信頼度判定手段は、該複数回のそれぞれで生成された前記一対の像信号に関する情報を用いて得られる前記信頼度の平均値を求め、
前記算出手段は、前記平均値が前記第1の信頼度である場合は前記補正値を算出し、前記平均値が前記第2の信頼度である場合は前記補正値の算出を制限することを特徴とする請求項1から3のいずれか1項に記載の撮像装置。
The control means generates the pair of image signals a plurality of times,
The reliability determination means obtains an average value of the reliability obtained using information on the pair of image signals generated in each of the plurality of times,
The calculating means calculates the correction value when the average value is the first reliability, and limits the calculation of the correction value when the average value is the second reliability. The image pickup apparatus according to claim 1, wherein the image pickup apparatus is characterized.
撮影時において、前記制御手段は、前記信頼度が第3の信頼度である場合は前記焦点調節動作を行い、前記信頼度が前記第3の信頼度より低い第4の信頼度である場合は前記焦点調節動作を制限し、
前記第1の信頼度と前記第2の信頼度における閾値は、前記第3の信頼度と前記第4の信頼度における閾値より高いことを特徴とする請求項1から4のいずれか1項に記載の撮像装置。
At the time of photographing, the control means performs the focus adjustment operation when the reliability is the third reliability, and when the reliability is the fourth reliability lower than the third reliability. Limiting the focusing operation;
5. The threshold value of the first reliability and the second reliability is higher than the threshold of the third reliability and the fourth reliability, according to claim 1. The imaging device described.
前記フォーカスレンズを移動させる駆動機構を有しており、
前記制御手段は、前記駆動機構が有するバックラッシによる補正誤差を低減するための該駆動機構の動作を行わせた後に、前記信頼度判定手段による前記信頼度の判定と前記算出手段による前記補正値の算出を行わせることを特徴とする請求項1から5のいずれか1項に記載の撮像装置。
A drive mechanism for moving the focus lens;
The control means, after causing the drive mechanism to reduce the correction error due to backlash of the drive mechanism, determines the reliability by the reliability determination means and the correction value by the calculation means. 6. The imaging apparatus according to claim 1, wherein calculation is performed.
前記フォーカスレンズを第1の方向に駆動して得られた前記第2の合焦位置を用いて前記算出手段により算出された第1の補正値と、前記フォーカスレンズを前記第1の方向と異なる第2の方向に駆動して得られた前記第2の合焦位置を用いて前記算出手段により算出された第2の補正値とを記憶する記憶手段を有し、
前記制御手段は、撮影時において前記焦点調節動作を行う際の前記フォーカスレンズの駆動方向に応じて、前記第1の補正値と前記第2の補正値のいずれかを用いて前記第1の合焦位置を補正することを特徴とする請求項1から6のいずれか1項に記載の撮像装置。
The first correction value calculated by the calculation means using the second focus position obtained by driving the focus lens in the first direction is different from the first direction. Storage means for storing the second correction value calculated by the calculation means using the second focus position obtained by driving in the second direction;
The control means uses the first correction value or the second correction value according to a driving direction of the focus lens when performing the focus adjustment operation during photographing. The imaging apparatus according to claim 1, wherein the focal position is corrected.
前記フォーカスレンズを第1の方向に駆動して得られた前記第2の合焦位置と、前記フォーカスレンズを前記第1の方向と異なる第2の方向に駆動して得られた前記第2の合焦位置との差分についての情報を記憶する記憶手段を有し、
前記制御手段は、撮影時において前記焦点調節動作を行う際の前記フォーカスレンズの駆動方向に応じて、前記情報と前記補正値とを用いて前記第1の合焦位置を補正することを特徴とする請求項1から6のいずれか1項に記載の撮像装置。
The second focus position obtained by driving the focus lens in a first direction, and the second focus position obtained by driving the focus lens in a second direction different from the first direction. Storage means for storing information about the difference from the in-focus position;
The control unit corrects the first in-focus position using the information and the correction value in accordance with a driving direction of the focus lens when performing the focus adjustment operation during photographing. The imaging device according to any one of claims 1 to 6.
前記被写体像を用いて被写体に関する情報を検出する被写体検出手段を有し、
前記信頼度判定手段は、前記被写体に関する情報を用いて、該被写体に対応する前記一対の像信号に関する情報を用いた前記信頼度の判定を行うか否かを決定し、
前記信頼度判定手段が前記信頼度の判定を行う場合において、前記算出手段は、前記信頼度が前記第1の信頼度である場合は前記補正値を算出し、前記信頼度が前記第2の信頼度である場合は前記補正値の算出を制限することを特徴とする請求項1から8のいずれか一項に記載の撮像装置。
Subject detection means for detecting information about the subject using the subject image;
The reliability determination unit determines whether to perform the determination of the reliability using information on the pair of image signals corresponding to the subject using information on the subject,
When the reliability determination unit performs the determination of the reliability, the calculation unit calculates the correction value when the reliability is the first reliability, and the reliability is the second The imaging apparatus according to any one of claims 1 to 8, wherein calculation of the correction value is restricted in the case of reliability.
前記被写体像を用いて被写体に関する情報を検出する被写体検出手段と、
前記被写体に関する情報を用いて、前記第1の検出手段による前記第1の合焦位置の誤検出度を判定する誤検出度判定手段とを有し、
前記算出手段は、前記信頼度が前記第1の信頼度であり、かつ前記誤検出度が第1の誤検出度である場合は前記補正値を算出し、前記信頼度が前記第2の信頼度である場合または前記誤検出度が前記第1の誤検出度より高い第2の誤検出度である場合は前記補正値の算出を制限することを特徴とする請求項1から8のいずれか一項に記載の撮像装置。
Subject detection means for detecting information about the subject using the subject image;
An error detection degree determination means for determining an error detection degree of the first in-focus position by the first detection means using information on the subject;
The calculating means calculates the correction value when the reliability is the first reliability and the erroneous detection is the first erroneous detection, and the reliability is the second reliability. The calculation of the correction value is limited when the degree is a degree or when the degree of false detection is a second degree of false detection higher than the first degree of false detection. The imaging device according to one item.
前記被写体に関する情報は、前記被写体の色、形状およびパターンを含むことを特徴とする請求項9または10に記載の撮像装置。   The imaging apparatus according to claim 9 or 10, wherein the information about the subject includes a color, a shape, and a pattern of the subject. 前記被写体検出手段は、前記撮像手段において前記被写体像を光電変換する撮像素子を用いて前記被写体に関する情報を検出することを特徴とする請求項9から11のいずれか一項に記載の撮像装置。   The imaging apparatus according to claim 9, wherein the subject detection unit detects information about the subject using an imaging element that photoelectrically converts the subject image in the imaging unit. 前記被写体検出手段は、前記被写体像の輝度を測定するための測光センサを用いて前記被写体に関する情報を検出することを特徴とする請求項9から11のいずれか一項に記載の撮像装置。   The imaging apparatus according to claim 9, wherein the subject detection unit detects information about the subject using a photometric sensor for measuring luminance of the subject image. 前記被写体に関する情報を用いて、前記一対の像信号の取得が可能な複数の焦点検出領域のうち、前記信頼度が前記第1の信頼度となる被写体を含む焦点検出領域を判定する領域判定手段を有することを特徴とする請求項9から13のいずれか一項に記載の撮像装置。   Region determination means for determining a focus detection region including a subject whose reliability is the first reliability, out of a plurality of focus detection regions capable of acquiring the pair of image signals, using the information regarding the subject. The imaging apparatus according to claim 9, further comprising: ユーザによって選択された複数の焦点検出領域のうち、前記信頼度が前記第1の信頼度となる被写体を含む焦点検出領域を判定する領域判定手段を有することを特徴とする請求項9から13のいずれか一項に記載の撮像装置。   14. The apparatus according to claim 9, further comprising: an area determination unit that determines a focus detection area including a subject whose reliability is the first reliability among a plurality of focus detection areas selected by a user. The imaging device according to any one of the above. 撮影光学系により形成された被写体像を光電変換して画像信号を生成する撮像装置の制御方法であって、
前記被写体像の一対の像信号に基づいて、位相差検出方式により第1の合焦位置を検出するステップと、
前記第1の合焦位置に基づいて、前記撮影光学系に含まれるフォーカスレンズの位置を制御して焦点調節動作を行うステップと、
前記画像信号に基づいて、コントラスト検出方式により第2の合焦位置を検出するステップと、
撮影時に前記第1の合焦位置を補正する補正値を、前記第1の合焦位置と前記第2の合焦位置との差に基づいて算出する算出ステップと、
前記一対の像信号に関する情報を用いて、前記第1の合焦位置の信頼度を判定するステップとを有し、
前記算出ステップにおいて、前記信頼度が第1の信頼度である場合は前記補正値を算出し、前記信頼度が前記第1の信頼度よりも低い第2の信頼度である場合は前記第1の信頼度の場合には前記補正値の算出を制限することを特徴とする制御方法。
A method for controlling an imaging apparatus that photoelectrically converts a subject image formed by a photographing optical system to generate an image signal,
Detecting a first in-focus position by a phase difference detection method based on a pair of image signals of the subject image;
Performing a focus adjustment operation by controlling a position of a focus lens included in the photographing optical system based on the first focus position;
Detecting a second in-focus position by a contrast detection method based on the image signal;
A calculation step of calculating a correction value for correcting the first focus position at the time of shooting based on a difference between the first focus position and the second focus position;
Determining reliability of the first in-focus position using information relating to the pair of image signals,
In the calculating step, when the reliability is a first reliability, the correction value is calculated, and when the reliability is a second reliability lower than the first reliability, the first reliability is calculated. The control method is characterized in that the calculation of the correction value is restricted in the case of the reliability.
撮影光学系により形成された被写体像を光電変換して画像信号を生成する撮像装置のコンピュータに、
前記被写体像の一対の像信号に基づいて、位相差検出方式により第1の合焦位置を検出するステップと、
前記第1の合焦位置に基づいて、前記撮影光学系に含まれるフォーカスレンズの位置を制御して焦点調節動作を行うステップと、
前記画像信号に基づいて、コントラスト検出方式により第2の合焦位置を検出するステップと、
撮影時に前記第1の合焦位置を補正する補正値を、前記第1の合焦位置と前記第2の合焦位置との差に基づいて算出する算出ステップと、
前記一対の像信号に関する情報を用いて、前記第1の合焦位置の信頼度を判定するステップとを有する処理を実行させるコンピュータプログラムであり、
前記算出ステップにおいて、前記信頼度が第1の信頼度である場合は前記補正値を算出し、前記信頼度が前記第1の信頼度よりも低い第2の信頼度である場合は前記第1の信頼度の場合には前記補正値の算出を制限することを特徴とする撮像装置の制御プログラム。
To the computer of the imaging device that photoelectrically converts the subject image formed by the imaging optical system to generate an image signal,
Detecting a first in-focus position by a phase difference detection method based on a pair of image signals of the subject image;
Performing a focus adjustment operation by controlling a position of a focus lens included in the photographing optical system based on the first focus position;
Detecting a second in-focus position by a contrast detection method based on the image signal;
A calculation step of calculating a correction value for correcting the first focus position at the time of shooting based on a difference between the first focus position and the second focus position;
And a step of determining a reliability of the first in-focus position using information relating to the pair of image signals.
In the calculating step, when the reliability is a first reliability, the correction value is calculated, and when the reliability is a second reliability lower than the first reliability, the first reliability is calculated. The control program for an image pickup apparatus is characterized in that calculation of the correction value is restricted in the case of the reliability of the image pickup apparatus.
JP2013085382A 2012-05-11 2013-04-16 Imaging apparatus and control method thereof Expired - Fee Related JP6198437B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013085382A JP6198437B2 (en) 2012-05-11 2013-04-16 Imaging apparatus and control method thereof

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012109554 2012-05-11
JP2012109554A JP2013008018A (en) 2011-05-25 2012-05-11 Imaging device and control method thereof
JP2013085382A JP6198437B2 (en) 2012-05-11 2013-04-16 Imaging apparatus and control method thereof

Publications (3)

Publication Number Publication Date
JP2013254194A true JP2013254194A (en) 2013-12-19
JP2013254194A5 JP2013254194A5 (en) 2016-06-09
JP6198437B2 JP6198437B2 (en) 2017-09-20

Family

ID=49951691

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013085382A Expired - Fee Related JP6198437B2 (en) 2012-05-11 2013-04-16 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP6198437B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015191163A1 (en) * 2014-06-13 2015-12-17 Intel Corporation Reliability measurements for phase based autofocus
WO2016140066A1 (en) * 2015-03-02 2016-09-09 ソニー株式会社 Signal processing device, signal processing method, program, electronic device, and imaging element
JP2017219812A (en) * 2016-06-10 2017-12-14 キヤノン株式会社 Imaging apparatus, method for controlling the same, program, and storage medium
JP2020016703A (en) * 2018-07-23 2020-01-30 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Control device, moving body, control method, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10834307B2 (en) 2017-05-24 2020-11-10 Canon Kabushiki Kaisha Image pickup apparatus

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001100089A (en) * 2000-09-04 2001-04-13 Olympus Optical Co Ltd Automatic focus adjusting device
JP2003241076A (en) * 2002-02-22 2003-08-27 Fuji Photo Optical Co Ltd Automatic focusing reliability display device
JP2007240877A (en) * 2006-03-08 2007-09-20 Canon Inc Imaging apparatus and control method therefor
JP2011017800A (en) * 2009-07-07 2011-01-27 Canon Inc Focus detection apparatus
JP2011164586A (en) * 2010-01-15 2011-08-25 Canon Inc Focus detection apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001100089A (en) * 2000-09-04 2001-04-13 Olympus Optical Co Ltd Automatic focus adjusting device
JP2003241076A (en) * 2002-02-22 2003-08-27 Fuji Photo Optical Co Ltd Automatic focusing reliability display device
JP2007240877A (en) * 2006-03-08 2007-09-20 Canon Inc Imaging apparatus and control method therefor
JP2011017800A (en) * 2009-07-07 2011-01-27 Canon Inc Focus detection apparatus
JP2011164586A (en) * 2010-01-15 2011-08-25 Canon Inc Focus detection apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015191163A1 (en) * 2014-06-13 2015-12-17 Intel Corporation Reliability measurements for phase based autofocus
WO2016140066A1 (en) * 2015-03-02 2016-09-09 ソニー株式会社 Signal processing device, signal processing method, program, electronic device, and imaging element
JP2017219812A (en) * 2016-06-10 2017-12-14 キヤノン株式会社 Imaging apparatus, method for controlling the same, program, and storage medium
JP2020016703A (en) * 2018-07-23 2020-01-30 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Control device, moving body, control method, and program

Also Published As

Publication number Publication date
JP6198437B2 (en) 2017-09-20

Similar Documents

Publication Publication Date Title
JP2013008018A (en) Imaging device and control method thereof
JP5653035B2 (en) Imaging apparatus, focus detection method, and control method
US8648961B2 (en) Image capturing apparatus and image capturing method
JP6198437B2 (en) Imaging apparatus and control method thereof
US20110221869A1 (en) Imaging device, display method and recording medium
JP5950664B2 (en) Imaging apparatus and control method thereof
JP5896763B2 (en) Optical instrument and method for autofocusing
US9781330B2 (en) Focus detection apparatus and control method for focus detection apparatus
JP2017103601A (en) Focus detector and camera
JP2015152749A (en) Imaging device and control method of the same
JP2013254166A (en) Imaging device and control method of the same
JP6381434B2 (en) FOCUS CONTROL DEVICE, OPTICAL DEVICE, AND FOCUS CONTROL METHOD
JP2017044821A (en) Image-capturing device and control method therefor, program, and storage medium
JP6501536B2 (en) Imaging device, control method therefor, program, storage medium
JP5025527B2 (en) Imaging device
US20230072475A1 (en) Accuracy estimation apparatus, image capturing apparatus, accuracy estimation method, control method, and storage medium
JP2014027436A (en) Subject tracking device and imaging apparatus
JP6346484B2 (en) Image processing apparatus and control method thereof
JP2005025118A (en) Lens controller
JP6501512B2 (en) Focus control apparatus, focus control method and focus control program
JP2007156304A (en) Camera, camera system, and interchangeable lens device
JP2018180135A (en) Imaging device
JP2016099432A (en) Focus detection device, and method, program and storage medium
JP2010282107A (en) Imaging apparatus and control method therefor
JP2017032874A (en) Focus detection device and method, and imaging apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160413

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170822

R151 Written notification of patent or utility model registration

Ref document number: 6198437

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees