JP6484004B2 - Imaging apparatus and control method thereof, imaging optical system and control method thereof - Google Patents

Imaging apparatus and control method thereof, imaging optical system and control method thereof Download PDF

Info

Publication number
JP6484004B2
JP6484004B2 JP2014225439A JP2014225439A JP6484004B2 JP 6484004 B2 JP6484004 B2 JP 6484004B2 JP 2014225439 A JP2014225439 A JP 2014225439A JP 2014225439 A JP2014225439 A JP 2014225439A JP 6484004 B2 JP6484004 B2 JP 6484004B2
Authority
JP
Japan
Prior art keywords
focus detection
information
optical system
lens
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014225439A
Other languages
Japanese (ja)
Other versions
JP2016090816A5 (en
JP2016090816A (en
Inventor
友美 渡邉
友美 渡邉
英之 浜野
英之 浜野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014225439A priority Critical patent/JP6484004B2/en
Priority to EP15189277.5A priority patent/EP3018516B1/en
Priority to US14/925,364 priority patent/US9742982B2/en
Priority to CN201910508874.0A priority patent/CN110231692B/en
Priority to CN201510725325.0A priority patent/CN105578033B/en
Publication of JP2016090816A publication Critical patent/JP2016090816A/en
Priority to US15/655,136 priority patent/US10313578B2/en
Publication of JP2016090816A5 publication Critical patent/JP2016090816A5/en
Application granted granted Critical
Publication of JP6484004B2 publication Critical patent/JP6484004B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は撮像装置およびその制御方法、および撮影光学系およびその制御方法に関し、特には自動焦点検出技術に関する。 The present invention relates to an imaging apparatus and a control method thereof , and an imaging optical system and a control method thereof, and more particularly to an automatic focus detection technique.

撮像装置の自動焦点検出(AF)方式として、コントラストAF方式と位相差AF方式が知られている。コントラストAF方式も位相差AF方式もビデオカメラやデジタルスチルカメラで多く用いられるAF方式であり、撮像素子が焦点検出用センサとして用いられるものが存在する。これらのAF方式は光学像を利用して焦点検出を行うため、光学像を結像する光学系の収差が焦点検出結果に誤差を与える場合があり、このような誤差を低減するための方法が提案されている。   As an automatic focus detection (AF) method for an imaging apparatus, a contrast AF method and a phase difference AF method are known. Both the contrast AF method and the phase difference AF method are AF methods that are often used in video cameras and digital still cameras, and there are devices in which an image sensor is used as a focus detection sensor. Since these AF methods perform focus detection using an optical image, the aberration of the optical system that forms the optical image may give an error to the focus detection result, and there is a method for reducing such an error. Proposed.

一方、コンバータレンズ装着時のマスターレンズ光学系の収差は、コンバータレンズの倍率分、拡大されることが知られている。   On the other hand, it is known that the aberration of the master lens optical system when the converter lens is mounted is enlarged by the magnification of the converter lens.

特許文献1では、焦点検出用補正量をコンバータレンズの撮影倍率の二乗倍に換算すると共に、コンバータレンズの光学系の収差分の焦点検出補正量をさらに加算することで、焦点検出結果を補正する方法が開示されている。   In Patent Literature 1, the focus detection correction amount is converted into the square of the imaging magnification of the converter lens, and the focus detection correction amount corresponding to the aberration of the optical system of the converter lens is further added to correct the focus detection result. A method is disclosed.

特許第3345890号公報Japanese Patent No. 3345890

しかしながら、マスターレンズの焦点検出誤差をコンバータレンズの倍率の二乗倍する特許文献1の方法では、焦点検出誤差の補正を十分に行えないという問題がある。これは、コンバータレンズの焦点検出誤差が、縦倍率分の倍率の二乗倍で換算されるだけでなく、横倍率によって焦点検出領域による特性や撮像の周波数特性にも変化を与えることによる。   However, the method of Patent Document 1 in which the focus detection error of the master lens is multiplied by the square of the magnification of the converter lens has a problem that the focus detection error cannot be sufficiently corrected. This is because the focus detection error of the converter lens is not only converted by the square of the magnification corresponding to the vertical magnification, but also changes the characteristics of the focus detection area and the imaging frequency characteristics depending on the horizontal magnification.

また、焦点検出誤差は、本来、撮影された画像において最も良好なピント状態であると観察者が感じられる収差状態と、焦点検出結果が示す収差状態の差である。しかしながら、特許文献1記載の方法のように焦点検出誤差量を補正量の二乗倍しても、コンバータレンズ装着後の収差状態の差分値を焦点検出誤差量として正しく求めることができない。   In addition, the focus detection error is a difference between an aberration state in which the observer feels that the best focus state is originally in the captured image and an aberration state indicated by the focus detection result. However, even if the focus detection error amount is multiplied by the square of the correction amount as in the method described in Patent Document 1, the difference value of the aberration state after the converter lens is attached cannot be obtained correctly as the focus detection error amount.

本発明は上記問題点を鑑みてなされたものであり、マスターレンズとコンバータレンズを含む光学系の収差による焦点検出誤差を精度良く補正することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to accurately correct a focus detection error due to aberration of an optical system including a master lens and a converter lens.

上記目的を達成するために、本発明の撮像装置は、設定された焦点検出領域から得られる画像信号を用いた撮影光学系の自動焦点検出を実行可能であって、コンバータレンズを着脱可能な撮像装置であって、前記コンバータレンズが装着されている場合に、前記撮影光学系の収差に関連した情報であって、異なる複数の空間周波数ごとの変調伝達関数のそれぞれ1つずつの前記撮影光学系の結像位置に関する情報を、前記コンバータレンズの撮影倍率に基づいて変換する変換手段と、前記コンバータレンズが装着されていない場合には前記変換手段により変換されていない前記撮影光学系の収差に関連した情報を用いて、前記コンバータレンズが装着されている場合には前記変換手段により変換された収差に関連した情報を用いて、前記自動焦点検出の結果を取得するために用いられる信号の特性と、撮影対象画像の信号の特性との差によるピント状態の差を補正するための補正値を算出する算出手段と、前記補正値によって補正された前記自動焦点検出の結果に基づいて前記撮影光学系が有するフォーカスレンズの位置を制御する制御手段とを有する。 In order to achieve the above object, an image pickup apparatus according to the present invention can perform automatic focus detection of a photographing optical system using an image signal obtained from a set focus detection region and can attach and detach a converter lens. When the converter lens is mounted, the information is related to the aberration of the imaging optical system, and each of the imaging optical systems has one modulation transfer function for each of a plurality of different spatial frequencies. The conversion means for converting the information on the image forming position based on the imaging magnification of the converter lens, and if the converter lens is not mounted, the information is related to the aberration of the imaging optical system not converted by the conversion means When the converter lens is mounted, the information related to the aberration converted by the conversion means is used to Correction means for calculating a correction value for correcting a difference in focus state due to a difference between a characteristic of a signal used to acquire a result of point detection and a characteristic of a signal of a shooting target image, and correction using the correction value Control means for controlling the position of a focus lens included in the photographing optical system based on the result of the automatic focus detection.

本発明によれば、マスターレンズとコンバータレンズを含む光学系の収差による焦点検出誤差を精度良く補正することができる。   According to the present invention, it is possible to accurately correct a focus detection error due to aberration of an optical system including a master lens and a converter lens.

実施形態におけるAF動作を示すフローチャート。The flowchart which shows AF operation | movement in embodiment. 実施形態におけるAF動作を示すフローチャート。The flowchart which shows AF operation | movement in embodiment. 実施形態に係る撮像装置の一例としてデジタルカメラのブロック図。1 is a block diagram of a digital camera as an example of an imaging apparatus according to an embodiment. 実施形態における撮像素子の構成例を示す図。FIG. 3 is a diagram illustrating a configuration example of an image sensor in the embodiment. 実施形態における光電変換領域と射出瞳との関係を示す図。The figure which shows the relationship between the photoelectric conversion area | region and exit pupil in embodiment. 図2のTVAF部130の構成を示すブロック図。FIG. 3 is a block diagram showing a configuration of a TVAF unit 130 in FIG. 2. 実施形態における焦点検出領域の例を示す図。The figure which shows the example of the focus detection area | region in embodiment. 実施形態における縦横BP補正値(BP1)算出処理のフローチャート。The flowchart of the vertical / horizontal BP correction value (BP1) calculation process in embodiment. 実施形態における縦横BP補正値算出処理を説明するための図。The figure for demonstrating the vertical / horizontal BP correction value calculation process in embodiment. 実施形態における色BP補正値(BP2)算出処理を説明するための図。The figure for demonstrating the color BP correction value (BP2) calculation process in embodiment. 第1の実施形態における空間周波数BP補正値(BP3)算出処理を説明するための図。The figure for demonstrating the spatial frequency BP correction value (BP3) calculation process in 1st Embodiment. 実施形態における各種空間周波数特性を示す図。The figure which shows the various spatial frequency characteristics in embodiment. 第2の実施形態における空間周波数BP補正値(BP3)算出処理を説明するための図。The figure for demonstrating the spatial frequency BP correction value (BP3) calculation process in 2nd Embodiment. 第3の実施形態における空間周波数BP補正値(BP3)算出処理を説明するためのフローチャート。The flowchart for demonstrating the spatial frequency BP correction value (BP3) calculation process in 3rd Embodiment. 第4の実施形態におけるAF動作を示すフローチャート。10 is a flowchart showing an AF operation in the fourth embodiment. 第4の実施形態におけるBP補正値(BP)算出処理を説明するためのフローチャート。14 is a flowchart for explaining a BP correction value (BP) calculation process according to the fourth embodiment. 第4の実施形態におけるBP補正値(BP)算出処理を説明するための図。The figure for demonstrating the BP correction value (BP) calculation process in 4th Embodiment. 第4の実施形態の変形例におけるBP補正値(BP)算出処理を説明するためのフローチャート。14 is a flowchart for explaining a BP correction value (BP) calculation process in a modification of the fourth embodiment. 第5の実施形態におけるBP補正値(BP)算出処理を説明するためのフローチャート。The flowchart for demonstrating the BP correction value (BP) calculation process in 5th Embodiment. 第5の実施形態における限界帯域処理を説明するための図。The figure for demonstrating the limit band process in 5th Embodiment. 第6及び第7の実施形態に係るコンバータレンズ装着時の撮像装置の一例としてデジタルカメラのブロック図。The block diagram of a digital camera as an example of the imaging device at the time of the converter lens mounting | wearing which concerns on 6th and 7th embodiment. コンバータレンズ装着時の第6の実施形態における空間周波数BP補正値(BP3)算出処理を説明するためのフローチャート。The flowchart for demonstrating the spatial frequency BP correction value (BP3) calculation process in 6th Embodiment at the time of converter lens mounting | wearing. 第6の実施形態におけるコンバータレンズの倍率による収差情報の変換方法を説明するためのフローチャート。10 is a flowchart for explaining a method for converting aberration information according to the magnification of a converter lens according to the sixth embodiment. 第6の実施形態におけるコンバータレンズの倍率による変換後の収差状態を説明するための図。The figure for demonstrating the aberration state after conversion by the magnification of the converter lens in 6th Embodiment. 第6の実施形態におけるコンバータレンズの収差情報を説明するための図。The figure for demonstrating the aberration information of the converter lens in 6th Embodiment. 第7の実施形態におけるBP補正値(BP)算出処理を説明するためのフローチャート。15 is a flowchart for explaining a BP correction value (BP) calculation process in the seventh embodiment. 第7の実施形態におけるBP補正値(BP)算出処理を説明するための図。The figure for demonstrating the BP correction value (BP) calculation process in 7th Embodiment. 第7の実施形態におけるコンバータレンズの倍率による収差情報の変換方法を説明するためのフローチャート。15 is a flowchart for explaining a method for converting aberration information according to the magnification of a converter lens according to the seventh embodiment. 第7の実施形態におけるコンバータレンズの倍率による変換後の収差状態を説明するための図。The figure for demonstrating the aberration state after conversion by the magnification of the converter lens in 7th Embodiment.

以下、添付図面を参照して本発明を実施するための形態を詳細に説明する。なお、実施形態は発明の理解と説明を容易にするため、具体的かつ特定の構成を有するが、本発明はそのような特定の構成に限定されない。例えば、以下では本発明をレンズ交換可能な一眼レフタイプのデジタルカメラに適用した実施形態について説明するが、本発明はレンズ交換できないタイプのデジタルカメラや、ビデオカメラに対しても適用可能である。また、カメラを備えた任意の電子機器、例えば携帯電話機、パーソナルコンピュータ(ラップトップ、タブレット、デスクトップ型など)、ゲーム機などで実施することもできる。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. The embodiments have specific and specific configurations to facilitate understanding and explanation of the invention, but the present invention is not limited to such specific configurations. For example, an embodiment in which the present invention is applied to a single-lens reflex digital camera capable of exchanging lenses will be described below, but the present invention can also be applied to a digital camera and video camera in which lenses cannot be interchanged. In addition, the present invention can be implemented with any electronic device equipped with a camera, such as a mobile phone, a personal computer (laptop, tablet, desktop type, etc.), a game machine, and the like.

●(第1の実施形態) ● (first embodiment)

(撮像装置の構成の説明−レンズユニット)
図2は、実施形態に係る撮像装置の一例としてデジタルカメラの機能構成例を示すブロック図である。本実施形態のデジタルカメラはレンズ交換式一眼レフカメラであり、レンズユニット100とカメラ本体120とを有する。レンズユニット100は図中央の点線で示されるマウントMを介して、カメラ本体120に装着される。
(Description of configuration of imaging apparatus-lens unit)
FIG. 2 is a block diagram illustrating a functional configuration example of a digital camera as an example of the imaging apparatus according to the embodiment. The digital camera of this embodiment is a lens interchangeable single-lens reflex camera, and includes a lens unit 100 and a camera body 120. The lens unit 100 is attached to the camera body 120 via a mount M indicated by a dotted line in the center of the figure.

レンズユニット100は、光学系(第1レンズ群101、絞り102、第2レンズ群103、フォーカスレンズ群(以下、単に「フォーカスレンズ」という。)104)及び、駆動/制御系を有する。このようにレンズユニット100は、フォーカスレンズ104を含み、被写体の光学像を形成する撮影レンズである。   The lens unit 100 includes an optical system (a first lens group 101, a diaphragm 102, a second lens group 103, a focus lens group (hereinafter simply referred to as “focus lens”) 104), and a drive / control system. Thus, the lens unit 100 is a photographing lens that includes the focus lens 104 and forms an optical image of a subject.

第1レンズ群101はレンズユニット100の先端に配置され、光軸方向OAに移動可能に保持される。絞り102は、撮影時の光量を調節する機能のほか、静止画撮影時には露出時間を制御するメカニカルシャッタとしても機能する。絞り102及び第2レンズ群103は一体で光軸方向OAに移動可能であり、第1レンズ群101と連動して移動することによりズーム機能を実現する。フォーカスレンズ104も光軸方向OAに移動可能であり、位置に応じてレンズユニット100が合焦する被写体距離(合焦距離)が変化する。フォーカスレンズ104の光軸方向OAにおける位置を制御することにより、レンズユニット100の合焦距離を調節する焦点調節を行う。   The first lens group 101 is disposed at the tip of the lens unit 100 and is held movably in the optical axis direction OA. The aperture 102 functions as a mechanical shutter that controls the exposure time during still image shooting, in addition to the function of adjusting the amount of light during shooting. The aperture 102 and the second lens group 103 are integrally movable in the optical axis direction OA, and a zoom function is realized by moving in conjunction with the first lens group 101. The focus lens 104 is also movable in the optical axis direction OA, and the subject distance (focus distance) at which the lens unit 100 is focused changes according to the position. By controlling the position of the focus lens 104 in the optical axis direction OA, focus adjustment for adjusting the in-focus distance of the lens unit 100 is performed.

駆動/制御系は、ズームアクチュエータ111、絞りアクチュエータ112、フォーカスアクチュエータ113、ズーム駆動回路114、絞り駆動回路115、フォーカス駆動回路116、レンズMPU117、レンズメモリ118を有する。   The drive / control system includes a zoom actuator 111, an aperture actuator 112, a focus actuator 113, a zoom drive circuit 114, an aperture drive circuit 115, a focus drive circuit 116, a lens MPU 117, and a lens memory 118.

ズーム駆動回路114は、ズームアクチュエータ111を用いて第1レンズ群101や第3レンズ群103を光軸方向OAに駆動し、レンズユニット100の光学系の画角を制御する。絞り駆動回路115は、絞りアクチュエータ112を用いて絞り102を駆動し、絞り102の開口径や開閉動作を制御する。フォーカス駆動回路116はフォーカスアクチュエータ113を用いてフォーカスレンズ104を光軸方向OAに駆動し、レンズユニット100の光学系の合焦距離を制御する。また、フォーカス駆動回路116は、フォーカスアクチュエータ113を用いてフォーカスレンズ104の現在位置を検出する。   The zoom drive circuit 114 uses the zoom actuator 111 to drive the first lens group 101 and the third lens group 103 in the optical axis direction OA, and controls the angle of view of the optical system of the lens unit 100. The diaphragm drive circuit 115 drives the diaphragm 102 using the diaphragm actuator 112 and controls the aperture diameter and opening / closing operation of the diaphragm 102. The focus driving circuit 116 drives the focus lens 104 in the optical axis direction OA using the focus actuator 113, and controls the focusing distance of the optical system of the lens unit 100. The focus driving circuit 116 detects the current position of the focus lens 104 using the focus actuator 113.

レンズMPU(プロセッサ)117は、レンズユニット100に係る全ての演算、制御を行い、ズーム駆動回路114、絞り駆動回路115、フォーカス駆動回路116を制御する。また、レンズMPU117は、マウントMを通じてカメラMPU125と接続され、コマンドやデータを通信する。例えばレンズMPU117はフォーカスレンズ104の位置を検出し、カメラMPU125からの要求に対してレンズ位置情報を通知する。このレンズ位置情報は、フォーカスレンズ104の光軸方向OAにおける位置、光学系が移動していない状態の射出瞳の光軸方向OAにおける位置および直径、射出瞳の光束を制限するレンズ枠の光軸方向OAにおける位置および直径などの情報を含む。またレンズMPU117は、カメラMPU125からの要求に応じて、ズーム駆動回路114、絞り駆動回路115、フォーカス駆動回路116を制御する。レンズメモリ118には自動焦点検出に必要な光学情報が予め記憶されている。カメラMPU125は例えば内蔵する不揮発性メモリやレンズメモリ118に記憶されているプログラムを実行することで、レンズユニット100の動作を制御する。   The lens MPU (processor) 117 performs all calculations and control related to the lens unit 100 and controls the zoom drive circuit 114, the aperture drive circuit 115, and the focus drive circuit 116. The lens MPU 117 is connected to the camera MPU 125 through the mount M, and communicates commands and data. For example, the lens MPU 117 detects the position of the focus lens 104 and notifies lens position information in response to a request from the camera MPU 125. This lens position information includes the position of the focus lens 104 in the optical axis direction OA, the position and diameter of the exit pupil in the optical axis direction OA when the optical system is not moving, and the optical axis of the lens frame that restricts the luminous flux of the exit pupil. Contains information such as position and diameter in direction OA. The lens MPU 117 controls the zoom drive circuit 114, the aperture drive circuit 115, and the focus drive circuit 116 in response to a request from the camera MPU 125. The lens memory 118 stores optical information necessary for automatic focus detection in advance. The camera MPU 125 controls the operation of the lens unit 100 by executing a program stored in, for example, a built-in nonvolatile memory or the lens memory 118.

(撮像装置の構成の説明−カメラ本体)
カメラ本体120は、光学系(光学ローパスフィルタ121および撮像素子122)と、駆動/制御系とを有する。レンズユニット100の第1レンズ群101、絞り102、第2レンズ群103、フォーカスレンズ104と、カメラ本体120の光学ローパスフィルタ121は撮影光学系を構成する。
(Explanation of imaging device configuration-camera body)
The camera body 120 includes an optical system (optical low-pass filter 121 and image sensor 122) and a drive / control system. The first lens group 101, the aperture 102, the second lens group 103, the focus lens 104 of the lens unit 100, and the optical low-pass filter 121 of the camera body 120 constitute a photographing optical system.

光学ローパスフィルタ121は、撮影画像の偽色やモアレを軽減する。撮像素子122はCMOSイメージセンサと周辺回路で構成され、横方向m画素、縦方向n画素(n,mは2以上の整数)に配置された複数の画素を含む。本実施形態の撮像素子122は、瞳分割機能を有しており、画像データを用いて位相差AFを行うことが可能である。画像処理回路124は、撮像素子122が出力する画像データから、位相差AF用のデータと、表示、記録、およびコントラストAF(TVAF)用の画像データを生成する。   The optical low-pass filter 121 reduces false colors and moire in the captured image. The image sensor 122 includes a CMOS image sensor and a peripheral circuit, and includes a plurality of pixels arranged in m pixels in the horizontal direction and n pixels in the vertical direction (n and m are integers of 2 or more). The image sensor 122 of the present embodiment has a pupil division function, and can perform phase difference AF using image data. The image processing circuit 124 generates data for phase difference AF and image data for display, recording, and contrast AF (TVAF) from the image data output from the image sensor 122.

駆動/制御系は、センサ駆動回路123、画像処理回路124、カメラMPU125、表示器126、操作スイッチ群127、メモリ128、位相差AF部129、TVAF部130を有する。   The drive / control system includes a sensor drive circuit 123, an image processing circuit 124, a camera MPU 125, a display 126, an operation switch group 127, a memory 128, a phase difference AF unit 129, and a TVAF unit 130.

センサ駆動回路123は、撮像素子122の動作を制御するとともに、取得した画像信号をA/D変換して画像処理回路124及びカメラMPU125に送信する。画像処理回路124は、撮像素子122が取得した画像データに対し、例えばγ変換、ホワイトバランス調整処理、色補間処理、圧縮符号化処理など、デジタルカメラで行われる一般的な画像処理を行う。   The sensor drive circuit 123 controls the operation of the image sensor 122, A / D converts the acquired image signal, and transmits it to the image processing circuit 124 and the camera MPU 125. The image processing circuit 124 performs general image processing performed by a digital camera, such as γ conversion, white balance adjustment processing, color interpolation processing, and compression coding processing, on the image data acquired by the image sensor 122.

カメラMPU(プロセッサ)125は、カメラ本体120に係る全ての演算、制御を行い、センサ駆動回路123、画像処理回路124、表示器126、操作スイッチ群127、メモリ128、位相差AF部129、TVAF部130を制御する。カメラMPU125はマウントMの信号線を介してレンズMPU117と接続され、レンズMPU117とコマンドやデータを通信する。カメラMPU125はレンズMPU117に対し、レンズ位置の取得要求や、所定の駆動量での絞り、フォーカスレンズ、ズーム駆動要求や、レンズユニット100に固有の光学情報の取得要求などを発行する。カメラMPU125には、カメラ動作を制御するプログラムを格納したROM125a、変数を記憶するRAM125b、諸パラメータを記憶するEEPROM125cが内蔵されている。   The camera MPU (processor) 125 performs all calculations and controls related to the camera body 120, and includes a sensor drive circuit 123, an image processing circuit 124, a display 126, an operation switch group 127, a memory 128, a phase difference AF unit 129, and a TVAF. The unit 130 is controlled. The camera MPU 125 is connected to the lens MPU 117 via the signal line of the mount M, and communicates commands and data with the lens MPU 117. The camera MPU 125 issues a lens position acquisition request, a diaphragm / focus lens / zoom drive request with a predetermined driving amount, an optical information acquisition request unique to the lens unit 100, and the like to the lens MPU 117. The camera MPU 125 includes a ROM 125a that stores a program for controlling camera operations, a RAM 125b that stores variables, and an EEPROM 125c that stores various parameters.

表示器126はLCDなどから構成され、カメラの撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、焦点検出時の合焦状態表示画像などを表示する。操作スイッチ群127は、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等で構成される。本実施形態の記録手段としてのメモリ128は、着脱可能なフラッシュメモリで、撮影済み画像を記録する。   The display 126 is configured by an LCD or the like, and displays information related to the shooting mode of the camera, a preview image before shooting and a confirmation image after shooting, a focus state display image at the time of focus detection, and the like. The operation switch group 127 includes a power switch, a release (shooting trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like. A memory 128 as a recording unit of the present embodiment is a detachable flash memory, and records a captured image.

位相差AF部129は、画像処理回路124により得られる焦点検出用データを用いて位相差検出方式で焦点検出処理を行う。より具体的には、画像処理回路124が、撮影光学系の一対の瞳領域を通過する光束で形成される一対の像データを焦点検出用データとして生成し、位相差AF部129はこの一対の像データのずれ量に基づいて焦点ずれ量を検出する。このように、本実施形態の位相差AF部129は、専用のAFセンサを用いず、撮像素子122の出力に基づく位相差AF(撮像面位相差AF)を行う。位相差AF部129の動作については後で詳細に説明する。   The phase difference AF unit 129 performs focus detection processing by the phase difference detection method using the focus detection data obtained by the image processing circuit 124. More specifically, the image processing circuit 124 generates a pair of image data formed by a light beam passing through a pair of pupil regions of the photographing optical system as focus detection data, and the phase difference AF unit 129 The defocus amount is detected based on the image data shift amount. As described above, the phase difference AF unit 129 of the present embodiment performs phase difference AF (imaging surface phase difference AF) based on the output of the image sensor 122 without using a dedicated AF sensor. The operation of the phase difference AF unit 129 will be described in detail later.

TVAF部130は、画像処理回路124が生成するTVAF用評価値(画像データのコントラスト情報)に基づいてコントラスト方式の焦点検出処理を行う。コントラスト方式の焦点検出処理では、フォーカスレンズ104を移動して評価値がピークとなるフォーカスレンズ位置を合焦位置として検出する。   The TVAF unit 130 performs contrast type focus detection processing based on the TVAF evaluation value (contrast information of the image data) generated by the image processing circuit 124. In the contrast-type focus detection process, the focus lens 104 is moved and the focus lens position where the evaluation value reaches a peak is detected as the focus position.

このように、本実施形態のデジタルカメラは位相差AFとTVAFの両方を実行可能であり、状況に応じて選択的に使用したり、組み合わせて使用したりすることができる。   As described above, the digital camera according to the present embodiment can execute both phase difference AF and TVAF, and can be selectively used according to the situation or can be used in combination.

(焦点検出動作の説明:位相差AF)
以下、位相差AF部129およびTVAF部130の動作についてさらに説明する。最初に、位相差AF部129の動作について説明する。
(Description of focus detection operation: phase difference AF)
Hereinafter, operations of the phase difference AF unit 129 and the TVAF unit 130 will be further described. First, the operation of the phase difference AF unit 129 will be described.

図3(a)は本実施形態における撮像素子122の画素配列を示した図で、2次元CMOSエリアセンサの縦(Y方向)6行と横(X方向)8列の範囲を、レンズユニット100側から観察した状態を示している。撮像素子122にはベイヤー配列のカラーフィルタが設けられ、奇数行の画素には、左から順に緑(G)と赤(R)のカラーフィルタが交互に、偶数行の画素には、左から順に青(B)と緑(G)のカラーフィルタが交互に配置されている。画素211において、円211iはオンチップマイクロレンズを表し、オンチップマイクロレンズの内側に配置された複数の矩形211a,211bはそれぞれ光電変換部である。   FIG. 3A is a diagram showing a pixel arrangement of the image sensor 122 according to the present embodiment. The range of the vertical (Y direction) 6 rows and the horizontal (X direction) 8 columns of the two-dimensional CMOS area sensor is shown in the lens unit 100. The state observed from the side is shown. The image sensor 122 is provided with a Bayer color filter. The odd-numbered pixels have green (G) and red (R) color filters alternately from the left, and the even-numbered pixels sequentially from the left. Blue (B) and green (G) color filters are alternately arranged. In the pixel 211, a circle 211i represents an on-chip microlens, and a plurality of rectangles 211a and 211b arranged inside the on-chip microlens are photoelectric conversion units.

本実施形態の撮像素子122は、すべての画素の光電変換部がX方向に2分割され、個々の光電変換部の光電変換信号と、光電変換信号の和が独立して読み出し可能である。また、光電変換信号の和から一方の光電変換部の光電変換信号を減じることで、他方の光電変換部の光電変換信号に相当する信号を得ることができる。個々の光電変換部における光電変換信号は位相差AF用のデータとして用いたり、3D(3-Dimensional)画像を構成する視差画像の生成に用いたりすることもできる。また、光電変換信号の和は、通常の撮影画像データとして用いることができる。   In the image sensor 122 of this embodiment, the photoelectric conversion units of all the pixels are divided into two in the X direction, and the photoelectric conversion signals of the individual photoelectric conversion units and the sum of the photoelectric conversion signals can be read independently. Further, by subtracting the photoelectric conversion signal of one photoelectric conversion unit from the sum of the photoelectric conversion signals, a signal corresponding to the photoelectric conversion signal of the other photoelectric conversion unit can be obtained. The photoelectric conversion signal in each photoelectric conversion unit can be used as data for phase difference AF, or can be used to generate a parallax image constituting a 3D (3-Dimensional) image. The sum of photoelectric conversion signals can be used as normal captured image data.

ここで、位相差AFを行う場合の画素信号について説明する。後述するように、本実施形態においては、図3(a)のマイクロレンズ211iと、分割された光電変換部211a,211bで撮影光学系の射出光束を瞳分割する。そして、同一画素行に配置された所定範囲内の複数の画素211について、光電変換部211aの出力をつなぎ合わせて編成したものをAF用A像、光電変換部211bの出力をつなぎ合わせて編成したものをAF用B像とする。光電変換部211a、211bの出力は、カラーフィルタの単位配列に含まれる緑、赤、青、緑の出力を加算して算出した疑似的な輝度(Y)信号を用いる。但し、赤、青、緑の色ごとに、AF用A像、B像を編成してもよい。このように生成したAF用A像とB像の相対的な像ずれ量を相関演算により検出することで、所定領域の焦点ずれ量(デフォーカス量)を検出することができる。本実施形態では、一方の光電変換部の出力と全光電変換部の出力の和を撮像素子122から読み出すものとする。例えば光電変換部211aの出力と、光電変換部211a,211bの出力の和とが読み出される場合、光電変換部211bの出力は和から光電変換部211aの出力を減じることで取得する。これにより、AF用A像とB像の両方を得ることができ、位相差AFが実現できる。このような撮像素子は、特開2004−134867号公報に開示されるように公知であるため、これ以上の詳細に関する説明は省略する。   Here, a pixel signal when performing phase difference AF will be described. As will be described later, in the present embodiment, the exit lens of the photographing optical system is pupil-divided by the microlens 211i in FIG. 3A and the divided photoelectric conversion units 211a and 211b. Then, for a plurality of pixels 211 within a predetermined range arranged in the same pixel row, an output obtained by connecting the outputs of the photoelectric conversion unit 211a is combined and the output of the A image for AF and the output of the photoelectric conversion unit 211b are combined. This is an AF B image. As the outputs of the photoelectric conversion units 211a and 211b, pseudo luminance (Y) signals calculated by adding the outputs of green, red, blue, and green included in the unit array of the color filter are used. However, the AF A image and the B image may be knitted for each of red, blue, and green colors. By detecting the relative image shift amount between the AF A image and the B image generated in this way by correlation calculation, it is possible to detect the defocus amount (defocus amount) of the predetermined area. In the present embodiment, the sum of the output of one photoelectric conversion unit and the output of all the photoelectric conversion units is read from the image sensor 122. For example, when the output of the photoelectric conversion unit 211a and the sum of the outputs of the photoelectric conversion units 211a and 211b are read, the output of the photoelectric conversion unit 211b is obtained by subtracting the output of the photoelectric conversion unit 211a from the sum. Thereby, both an A image for AF and a B image can be obtained, and phase difference AF can be realized. Such an image sensor is known as disclosed in Japanese Patent Application Laid-Open No. 2004-134867, and thus further description of details is omitted.

図3(b)は本実施形態の撮像素子122の読み出し回路の構成例を示した図である。151は水平走査回路、153は垂直走査回路である。そして各画素の境界部には、水平走査ライン152a及び152bと、垂直走査ライン154a及び154bが配線され、各光電変換部はこれらの走査ラインを介して信号が外部に読み出される。   FIG. 3B is a diagram illustrating a configuration example of the readout circuit of the image sensor 122 of the present embodiment. Reference numeral 151 denotes a horizontal scanning circuit, and 153 denotes a vertical scanning circuit. In addition, horizontal scanning lines 152a and 152b and vertical scanning lines 154a and 154b are wired at the boundary between the pixels, and signals are read out to the photoelectric conversion units through these scanning lines.

なお、本実施形態の撮像素子は上述の画素内の読み出し方法に加え、以下の2種類の読み出しモードを有する。第1の読み出しモードは全画素読み出しモードと称するもので、高精細静止画を撮像するためのモードである。この場合は、全画素の信号が読み出される。   Note that the imaging device of the present embodiment has the following two types of readout modes in addition to the readout method in the pixel described above. The first readout mode is called an all-pixel readout mode and is a mode for capturing a high-definition still image. In this case, signals of all pixels are read out.

第2の読み出しモードは間引き読み出しモードと称するもので、動画記録、もしくはプレビュー画像の表示のみを行うためのモードである。この場合に必要な画素数は全画素よりも少ないため、画素群はX方向及びY方向ともに所定比率に間引いた画素のみ読み出す。また、高速に読み出す必要がある場合にも、同様に間引き読み出しモードを用いる。X方向に間引く際には、信号の加算を行ってS/Nの改善を図り、Y方向に対する間引きは、間引かれる行の信号出力を無視する。位相差AFおよびコントラストAFも、通常、第2の読み出しモードで読み出された信号に基づいて行われる。   The second readout mode is called a thinning readout mode, and is a mode for performing only moving image recording or preview image display. In this case, since the number of necessary pixels is smaller than that of all the pixels, the pixel group reads out only the pixels thinned out at a predetermined ratio in both the X direction and the Y direction. Similarly, when it is necessary to read out at high speed, the thinning-out reading mode is used similarly. When thinning out in the X direction, signal addition is performed to improve S / N, and thinning out in the Y direction ignores the signal output of the thinned out rows. The phase difference AF and the contrast AF are also usually performed based on the signal read in the second reading mode.

図4は、本実施形態の撮像装置において、撮影光学系の射出瞳面と、像高ゼロすなわち像面中央近傍に配置された撮像素子の光電変換部の共役関係を説明する図である。撮像素子内の光電変換部と撮影光学系の射出瞳面は、オンチップマイクロレンズによって共役関係となるように設計される。そして撮影光学系の射出瞳は、一般的に光量調節用の虹彩絞りが置かれる面とほぼ一致する。一方、本実施形態の撮影光学系は変倍機能を有したズームレンズであるが、光学タイプによっては変倍操作を行うと、射出瞳の像面からの距離や大きさが変化する。図4では、レンズユニット100の焦点距離が広角端と望遠端の中央にある状態を示している。この状態における射出瞳距離Zepを標準値として、オンチップマイクロレンズの形状や、像高(X,Y座標)に応じた偏心パラメータの最適設計がなされる。   FIG. 4 is a diagram for explaining the conjugate relationship between the exit pupil plane of the photographic optical system and the photoelectric conversion unit of the image sensor disposed near the center of the image plane, that is, in the vicinity of the center of the image plane, in the imaging apparatus of the present embodiment. The photoelectric conversion unit in the image sensor and the exit pupil plane of the photographing optical system are designed to have a conjugate relationship by an on-chip microlens. The exit pupil of the photographic optical system generally coincides with the surface on which the iris diaphragm for adjusting the amount of light is placed. On the other hand, the photographing optical system of the present embodiment is a zoom lens having a zooming function. However, depending on the optical type, when the zooming operation is performed, the distance and size of the exit pupil from the image plane change. FIG. 4 shows a state where the focal length of the lens unit 100 is at the center between the wide-angle end and the telephoto end. Using the exit pupil distance Zep in this state as a standard value, the optimum design of the eccentricity parameter according to the shape of the on-chip microlens and the image height (X, Y coordinates) is made.

図4(a)において、101は第1レンズ群、101bは第1レンズ群を保持する鏡筒部材、104はフォーカスレンズ、104bはフォーカスレンズ104を保持する鏡筒部材である。102は絞りで、102aは絞り開放時の開口径を規定する開口板、102bは絞り込み時の開口径を調節するための絞り羽根である。なお、撮影光学系を通過する光束の制限部材として作用する101b、102a、102b、及び104bは、像面から観察した場合の光学的な虚像を示している。また、絞り102の近傍における合成開口をレンズの射出瞳と定義し、前述したように像面からの距離をZepとしている。   In FIG. 4A, 101 is a first lens group, 101 b is a lens barrel member that holds the first lens group, 104 is a focus lens, and 104 b is a lens barrel member that holds the focus lens 104. Reference numeral 102 denotes an aperture, reference numeral 102a denotes an aperture plate that defines an aperture diameter when the aperture is opened, and reference numeral 102b denotes an aperture blade for adjusting the aperture diameter when the aperture is closed. Note that reference numerals 101b, 102a, 102b, and 104b that act as limiting members for the light beam passing through the photographing optical system indicate optical virtual images when observed from the image plane. Further, the synthetic aperture in the vicinity of the stop 102 is defined as the exit pupil of the lens, and the distance from the image plane is Zep as described above.

画素211は像面中央近傍に配置されており、本実施形態では、中央画素と呼ぶ。中央画素211は、最下層より、光電変換部211a,211b、配線層211e〜211g、カラーフィルタ211h、及びオンチップマイクロレンズ211iの各部材で構成される。そして2つの光電変換部はオンチップマイクロレンズ211iによって撮影光学系の射出瞳面に投影される。換言すれば、撮影光学系の射出瞳が、オンチップマイクロレンズ211iを介して、光電変換部の表面に投影される。   The pixel 211 is disposed in the vicinity of the center of the image plane, and is referred to as a central pixel in this embodiment. The central pixel 211 is composed of photoelectric conversion units 211a and 211b, wiring layers 211e to 211g, a color filter 211h, and an on-chip microlens 211i from the bottom layer. The two photoelectric conversion units are projected on the exit pupil plane of the photographing optical system by the on-chip microlens 211i. In other words, the exit pupil of the photographing optical system is projected onto the surface of the photoelectric conversion unit via the on-chip microlens 211i.

図4(b)は、撮影光学系の射出瞳面上における、光電変換部の投影像を示したもので、光電変換部211a及び211bに対する投影像は各々EP1a及びEP1bとなる。また本実施形態では、撮像素子122は、2つの光電変換部211aと211bのいずれか一方の出力と、両方の和の出力を得ることができる画素を有している。両方の和の出力は、撮影光学系のほぼ全瞳領域である投影像EP1a、EP1bの両方の領域を通過した光束を光電変換したものである。   FIG. 4B shows a projected image of the photoelectric conversion unit on the exit pupil plane of the photographing optical system, and the projected images on the photoelectric conversion units 211a and 211b are EP1a and EP1b, respectively. In the present embodiment, the image sensor 122 includes a pixel that can obtain the output of one of the two photoelectric conversion units 211a and 211b and the sum of both. The sum of both outputs is a photoelectric conversion of the light beam that has passed through both regions of the projection images EP1a and EP1b, which are almost the entire pupil region of the photographing optical system.

図4(a)で、撮影光学系を通過する光束の最外部をLで示すと、光束Lは、絞りの開口板102aで規制されており、投影像EP1a及びEP1bは撮影光学系でケラレがほぼ発生していない。図4(b)では、図4(a)の光束Lを、TLで示している。TLで示す円の内部に、光電変換部の投影像EP1a、EP1bの大部分が含まれていることからも、ケラレがほぼ発生していないことがわかる。光束Lは、絞りの開口板102aでのみ制限されているため、TLは、102aと言い換えることができる。この際、像面中央では各投影像EP1aないしEP1bのケラレ状態は光軸に対して対称となり、各光電変換部211a及び211bが受光する光量は等しい。   In FIG. 4A, when the outermost part of the light beam passing through the photographing optical system is denoted by L, the light beam L is regulated by the aperture plate 102a of the diaphragm, and the projected images EP1a and EP1b are vignetted by the photographing optical system. Almost no occurrence. In FIG.4 (b), the light beam L of Fig.4 (a) is shown by TL. Since most of the projected images EP1a and EP1b of the photoelectric conversion unit are included in the circle indicated by TL, it can be seen that almost no vignetting occurs. Since the light beam L is limited only by the aperture plate 102a of the diaphragm, TL can be restated as 102a. At this time, the vignetting state of each of the projected images EP1a to EP1b is symmetric with respect to the optical axis at the center of the image plane, and the amount of light received by each of the photoelectric conversion units 211a and 211b is equal.

位相差AFを行う場合、カメラMPU125は撮像素子122から上述した2種類の出力を読み出すようにセンサ駆動回路123を制御する。そして、カメラMPU125は画像処理回路124に対して焦点検出領域の情報を与え、焦点検出領域内に含まれる画素の出力から、AF用A像およびB像のデータを生成して位相差AF部129に供給するよう命令する。画像処理回路124はこの命令に従ってAF用A像およびB像のデータを生成して位相差AF部129に出力する。画像処理回路124はまた、TVAF部130に対してRAW画像データを供給する。   When performing phase difference AF, the camera MPU 125 controls the sensor drive circuit 123 so as to read the above-described two types of outputs from the image sensor 122. Then, the camera MPU 125 gives information on the focus detection area to the image processing circuit 124, generates data for AF A and B images from the output of the pixels included in the focus detection area, and generates the phase difference AF unit 129. To supply to. The image processing circuit 124 generates AF A and B image data in accordance with this command and outputs it to the phase difference AF unit 129. The image processing circuit 124 also supplies RAW image data to the TVAF unit 130.

以上説明した様に、撮像素子122は位相差AFおよびコントラストAFの両方について、焦点検出装置の一部を構成している。   As described above, the image sensor 122 constitutes a part of the focus detection apparatus for both the phase difference AF and the contrast AF.

なお、ここでは一例として水平方向に射出瞳を2分割する構成を説明したが、撮像素子122の一部の画素を垂直方向に射出瞳を2分割する構成としてもよい。また、水平および垂直の両方向に射出瞳を分割する構成としてもよい。垂直方向に射出瞳を分割する画素を設けることにより、水平だけでなく垂直方向の被写体のコントラストに対応した位相差AFが可能となる。   Here, as an example, the configuration in which the exit pupil is divided into two in the horizontal direction has been described. However, a configuration in which some of the pixels of the image sensor 122 are divided in the vertical direction may be used. Further, the exit pupil may be divided in both the horizontal and vertical directions. By providing pixels that divide the exit pupil in the vertical direction, phase difference AF corresponding to the contrast of the subject in the vertical direction as well as in the horizontal direction becomes possible.

(焦点検出動作の説明:コントラストAF)
次に、図5を用いて、コントラストAF(TVAF)について説明する。図5は、TVAF部130の構成を示すブロック図である。コントラストAFは、カメラMPU125とTVAF部130が連携してフォーカスレンズ104の駆動と評価値の算出を繰り返し行うことで実現される。
(Description of focus detection operation: contrast AF)
Next, contrast AF (TVAF) will be described with reference to FIG. FIG. 5 is a block diagram showing the configuration of the TVAF unit 130. Contrast AF is realized by the camera MPU 125 and the TVAF unit 130 cooperating to repeatedly drive the focus lens 104 and calculate the evaluation value.

画像処理回路124からRAW画像データがTVAF部130に入力されると、AF評価用信号処理回路401で、ベイヤー配列信号からの緑(G)信号の抽出と、低輝度成分を強調して高輝度成分を抑圧するガンマ補正処理が施される。本実施形態では、TVAFを緑(G)信号で行う場合を説明するが、赤(R)、青(B)、緑(G)の全ての信号を用いてもよい。また、RGB全色用いて輝度(Y)信号を生成してもよい。AF評価用信号処理回路401で生成される出力信号は、用いられた信号の種類によらず、以後の説明では、輝度信号Yと呼ぶ。   When the RAW image data is input from the image processing circuit 124 to the TVAF unit 130, the AF evaluation signal processing circuit 401 extracts the green (G) signal from the Bayer array signal and emphasizes the low luminance component to increase the luminance. A gamma correction process for suppressing the component is performed. In this embodiment, a case where TVAF is performed using a green (G) signal will be described, but all signals of red (R), blue (B), and green (G) may be used. Further, a luminance (Y) signal may be generated using all RGB colors. The output signal generated by the AF evaluation signal processing circuit 401 is referred to as a luminance signal Y in the following description regardless of the type of signal used.

なお、カメラMPU125から、領域設定回路413に焦点検出領域が設定されているものとする。領域設定回路413は、設定された領域内の信号を選択するゲート信号を生成する。ゲート信号は、ラインピーク検出回路402、水平積分回路403、ライン最小値検出回路404、ラインピーク検出回路409、垂直積分回路406、410、垂直ピーク検出回路405、407、411の各回路に入力される。また、各焦点評価値が焦点検出領域内の輝度信号Yで生成されるように、輝度信号Yが各回路に入力するタイミングが制御される。なお、領域設定回路413には、焦点検出領域に合わせて複数の領域が設定可能である。   It is assumed that a focus detection area is set in the area setting circuit 413 from the camera MPU 125. The region setting circuit 413 generates a gate signal that selects a signal in the set region. The gate signal is input to each circuit of the line peak detection circuit 402, the horizontal integration circuit 403, the line minimum value detection circuit 404, the line peak detection circuit 409, the vertical integration circuits 406 and 410, and the vertical peak detection circuits 405, 407, and 411. The Further, the timing at which the luminance signal Y is input to each circuit is controlled so that each focus evaluation value is generated by the luminance signal Y in the focus detection region. In the area setting circuit 413, a plurality of areas can be set in accordance with the focus detection area.

Yピーク評価値の算出方法について説明する。ガンマ補正された輝度信号Yはラインピーク検出回路402へ入力され、領域設定回路413に設定された焦点検出領域内で水平ラインごとのYラインピーク値が求められる。ラインピーク検出回路402の出力は垂直ピーク検出回路405において焦点検出領域内で垂直方向にピークホールドされ、Yピーク評価値が生成される。Yピーク評価値は、高輝度被写体や低照度被写体の判定に有効な指標である。   A method for calculating the Y peak evaluation value will be described. The gamma-corrected luminance signal Y is input to the line peak detection circuit 402, and the Y line peak value for each horizontal line is obtained within the focus detection area set in the area setting circuit 413. The output of the line peak detection circuit 402 is peak-held in the vertical direction within the focus detection area by the vertical peak detection circuit 405, and a Y peak evaluation value is generated. The Y peak evaluation value is an effective index for determining a high brightness subject or a low illumination subject.

Y積分評価値の算出方法について説明する。ガンマ補正された輝度信号Yは、水平積分回路403へ入力され、焦点検出領域内で水平ラインごとにYの積分値が求められる。更に、水平積分回路403の出力は垂直積分回路406において焦点検出領域内で垂直方向に積分されて、Y積分評価値が生成される。Y積分評価値は、焦点検出領域内全体の明るさを判断する指標として用いることができる。   A method for calculating the Y integral evaluation value will be described. The gamma-corrected luminance signal Y is input to the horizontal integration circuit 403, and an integral value of Y is obtained for each horizontal line within the focus detection area. Further, the output of the horizontal integration circuit 403 is integrated in the vertical direction in the focus detection region by the vertical integration circuit 406, and a Y integration evaluation value is generated. The Y integral evaluation value can be used as an index for determining the brightness of the entire focus detection area.

Max−Min評価値の算出方法について説明する。ガンマ補正された輝度信号Yは、ラインピーク検出回路402に入力され、焦点検出領域内で水平ラインごとのYラインピーク値が求められる。また、ガンマ補正された輝度信号Yは、ライン最小値検出回路404に入力され、焦点検出領域内で水平ラインごとにYの最小値が検出される。検出された水平ラインごとのYのラインピーク値及び最小値は減算器に入力され、(ラインピーク値−最小値)が垂直ピーク検出回路407に入力される。垂直ピーク検出回路407は焦点検出領域内で垂直方向にピークホールドを行い、Max−Min評価値を生成する。Max−Min評価値は、低コントラストおよび高コントラストの判定に有効な指標である。   A method for calculating the Max-Min evaluation value will be described. The gamma-corrected luminance signal Y is input to the line peak detection circuit 402, and the Y line peak value for each horizontal line is obtained within the focus detection area. Further, the luminance signal Y subjected to gamma correction is input to the line minimum value detection circuit 404, and the minimum value of Y is detected for each horizontal line in the focus detection area. The detected Y line peak value and minimum value for each horizontal line are input to the subtractor, and (line peak value−minimum value) is input to the vertical peak detection circuit 407. The vertical peak detection circuit 407 performs peak hold in the vertical direction within the focus detection area, and generates a Max-Min evaluation value. The Max-Min evaluation value is an effective index for determining low contrast and high contrast.

領域ピーク評価値の算出方法について説明する。ガンマ補正された輝度信号Yは、BPF408に通すことによって特定の周波数成分が抽出され焦点信号が生成される。この焦点信号はラインピーク検出回路409へ入力され、焦点検出領域内で水平ラインごとのラインピーク値が求められる。ラインピーク値は、垂直ピーク検出回路411によって焦点検出領域内でピークホールドされ、領域ピーク評価値が生成される。領域ピーク評価値は、焦点検出領域内で被写体が移動しても変化が少ないので、合焦状態から再度合焦点を探す処理に移行するかどうかを判定する再起動判定に有効な指標である。   A method for calculating the region peak evaluation value will be described. A specific frequency component is extracted from the gamma-corrected luminance signal Y through the BPF 408 to generate a focus signal. This focus signal is input to the line peak detection circuit 409, and the line peak value for each horizontal line is obtained within the focus detection area. The line peak value is peak-held in the focus detection area by the vertical peak detection circuit 411, and an area peak evaluation value is generated. The area peak evaluation value is an effective index for restart determination that determines whether or not to shift from the in-focus state to the process of searching for the in-focus point again because the change is small even when the subject moves within the focus detection area.

全ライン積分評価値の算出方法について説明する。領域ピーク評価値と同様に、ラインピーク検出回路409は、焦点検出領域内で水平ラインごとのラインピーク値を求める。次に、ラインピーク値を垂直積分回路410に入力し、焦点検出領域内で垂直方向に全水平走査ライン数について積分して全ライン積分評価値を生成する。高周波全ライン積分評価値は、積分の効果でダイナミックレンジが広く、感度が高いので、主要なAF評価値である。従って、本実施形態では単に焦点評価値と記載した場合は全ライン積分評価値を意味する。   A method for calculating the total line integral evaluation value will be described. Similar to the area peak evaluation value, the line peak detection circuit 409 obtains a line peak value for each horizontal line in the focus detection area. Next, the line peak value is input to the vertical integration circuit 410 and integrated with respect to the number of all horizontal scanning lines in the vertical direction within the focus detection area to generate an all-line integration evaluation value. The high-frequency all-line integral evaluation value is a main AF evaluation value because it has a wide dynamic range and high sensitivity due to the integration effect. Therefore, in this embodiment, when it is simply described as a focus evaluation value, it means an all-line integral evaluation value.

カメラMPU125のAF制御部は上述したそれぞれの焦点評価値を取得し、レンズMPU117を通じてフォーカスレンズ104を光軸方向に沿って所定方向に所定量移動させる。そして、新たに得られた画像データに基づいて上述した各種の評価値を算出し、全ライン積分評価値が最大値となるフォーカスレンズ位置を検出する。 The AF control unit of the camera MPU 125 acquires each of the above-described focus evaluation values, and moves the focus lens 104 in a predetermined direction along the optical axis direction through the lens MPU 117. Then, the various evaluation values described above are calculated based on the newly obtained image data, and the focus lens position at which the total integrated evaluation value is the maximum value is detected.

本実施形態では、図5に示すTVAF部130に、水平ライン毎および垂直ライン毎に入力することにより、それぞれ各種のAF用評価値を水平ライン方向および垂直ライン方向で算出する。これにより、水平、垂直の直交する2方向の被写体のコントラスト情報に対して焦点検出を行うことができる。   In the present embodiment, various AF evaluation values are calculated in the horizontal line direction and the vertical line direction by inputting each horizontal line and each vertical line to the TVAF unit 130 shown in FIG. Thereby, focus detection can be performed on the contrast information of the subject in two directions that are orthogonal to each other in the horizontal and vertical directions.

(焦点検出領域の説明)
図6は、撮影範囲内における焦点検出領域の例を示す図である。上述の通り、位相差AFおよびコントラストAFのいずれも、焦点検出領域に含まれる画素から得られた信号に基づいて行われる。図6において、点線で示す長方形は撮像素子122の画素が形成された撮影範囲217を示す。撮影範囲217には位相差AF用の焦点検出領域218ah、218bh、218chが設定されている。本実施形態では、位相差AF用の焦点検出領域218ah、218bh、218chを撮影範囲217の中央部と左右2箇所の計3箇所に設定している。また、TVAF用の焦点検出領域219a、219b、219cが、位相差AF用の焦点検出領域218ah、218bh、218chの1つを包含する形で設定されている。なお、図6は焦点検出領域の設定例であり、数、位置および大きさは図示したものに限定されない。
(Description of focus detection area)
FIG. 6 is a diagram illustrating an example of the focus detection area within the imaging range. As described above, both phase difference AF and contrast AF are performed based on signals obtained from pixels included in the focus detection area. In FIG. 6, a rectangle indicated by a dotted line indicates an imaging range 217 in which pixels of the image sensor 122 are formed. In the imaging range 217, focus detection areas 218ah, 218bh, and 218ch for phase difference AF are set. In the present embodiment, focus detection areas 218ah, 218bh, and 218ch for phase difference AF are set at a total of three locations, that is, the central portion of the imaging range 217 and two locations on the left and right. The focus detection areas 219a, 219b, and 219c for TVAF are set so as to include one of the focus detection areas 218ah, 218bh, and 218ch for phase difference AF. FIG. 6 is an example of setting the focus detection area, and the number, position, and size are not limited to those shown in the figure.

(焦点検出処理の流れの説明)
次に、図1Aおよび1Bを参照して、本実施形態のデジタルカメラにおける自動焦点検出(AF)動作について説明する。AF処理の概要を説明した後、詳細な説明を行う。本実施形態でカメラMPU125はまず、焦点検出領域218ah、218bh、218chのそれぞれについて、位相差AFを適用して焦点ずれ量(デフォーカス量)と、デフォーカス量の信頼性とを求める。焦点検出領域218ah、218bh、218chの全てで所定の信頼性を有するデフォーカス量が得られていれば、カメラMPU125はデフォーカス量に基づいて最至近の被写体の合焦位置にフォーカスレンズ104を移動させる。
(Explanation of focus detection process flow)
Next, an automatic focus detection (AF) operation in the digital camera of this embodiment will be described with reference to FIGS. 1A and 1B. After the outline of the AF process is described, a detailed description will be given. In this embodiment, the camera MPU 125 first obtains the defocus amount (defocus amount) and the reliability of the defocus amount by applying the phase difference AF to each of the focus detection regions 218ah, 218bh, and 218ch. If the defocus amount having a predetermined reliability is obtained in all of the focus detection areas 218ah, 218bh, and 218ch, the camera MPU 125 moves the focus lens 104 to the in-focus position of the closest subject based on the defocus amount. Let

一方、所定の信頼性を有するデフォーカス量が得られなかった焦点検出領域が存在する場合、カメラMPU125は、その焦点検出領域を包含するコントラストAF用の焦点検出領域について焦点評価値を取得する。カメラMPU125は、焦点評価値の変化とフォーカスレンズ104の位置の関係とに基づいて、位相差AFで得られたデフォーカス量に対応する被写体距離より至近側に被写体が存在するか判定する。そして、より至近側に被写体が存在すると判定された場合、焦点評価値の変化に基づく方向にフォーカスレンズ104を駆動する。   On the other hand, when there is a focus detection area where a defocus amount having a predetermined reliability cannot be obtained, the camera MPU 125 acquires a focus evaluation value for the focus detection area for contrast AF including the focus detection area. Based on the change in the focus evaluation value and the relationship between the positions of the focus lens 104, the camera MPU 125 determines whether or not a subject exists closer to the subject distance corresponding to the defocus amount obtained by the phase difference AF. When it is determined that the subject is present on the closer side, the focus lens 104 is driven in the direction based on the change in the focus evaluation value.

なお、以前に焦点評価値が得られていない場合には焦点評価値の変化量を求めることができない。その場合、カメラMPU125は予め決められたデフォーカス量よりも大きく、かつ所定の信頼性を有するデフォーカス量が得られた焦点検出領域が存在する場合にはその中の最至近の被写体に合焦するようにフォーカスレンズ104を駆動する。所定の信頼性を有するデフォーカス量が得られていない場合、及び、予め決められたデフォーカス量よりも大きなデフォーカス量が得られていない場合、カメラMPU125はデフォーカス量に関係の無い所定量、フォーカスレンズ104を駆動させる。これは、小さいデフォーカス量に基づいてフォーカスレンズ104を駆動した場合、次の焦点検出時に焦点評価値の変化を検出することが難しい可能性が高いからである。   Note that if the focus evaluation value has not been obtained before, the amount of change in the focus evaluation value cannot be obtained. In that case, if there is a focus detection area in which the camera MPU 125 has a defocus amount that is larger than a predetermined defocus amount and has a predetermined reliability, the camera MPU 125 focuses on the closest subject in the focus detection region. The focus lens 104 is driven as described above. When a defocus amount having a predetermined reliability is not obtained, and when a defocus amount larger than a predetermined defocus amount is not obtained, the camera MPU 125 has a predetermined amount unrelated to the defocus amount. The focus lens 104 is driven. This is because when the focus lens 104 is driven based on a small defocus amount, it is highly likely that it is difficult to detect a change in the focus evaluation value at the next focus detection.

いずれかの方法により焦点検出を終えると、カメラMPU125は各種の補正値を算出し、焦点検出結果を補正する。そして、カメラMPU125は補正後の焦点検出結果に基づいてフォーカスレンズ104を駆動する。   When focus detection is finished by any method, the camera MPU 125 calculates various correction values and corrects the focus detection result. Then, the camera MPU 125 drives the focus lens 104 based on the corrected focus detection result.

以下、上述したAF処理の詳細を、図1Aおよび図1Bに示すフローチャートを用いて説明する。以下のAF処理動作は、他の主体が明記されている場合を除き、カメラMPU125が主体となって実行される。また、カメラMPU125がレンズMPU117にコマンド等を送信することによってレンズユニット100の駆動や制御を行う場合、説明を簡潔にするために動作主体をカメラMPU125として記載する場合がある。   Details of the AF process described above will be described below with reference to the flowcharts shown in FIGS. 1A and 1B. The following AF processing operations are executed mainly by the camera MPU 125, unless other subjects are specified. When the camera MPU 125 drives and controls the lens unit 100 by transmitting a command or the like to the lens MPU 117, the operation subject may be described as the camera MPU 125 for the sake of brevity.

S1でカメラMPU125は焦点検出領域を設定する。ここでは、位相差AF用、コントラストAF用とも、図に示したような3か所の焦点検出領域が設定されるものとする。S2において、カメラMPU125は、RAM125b内の至近判定フラグを1に設定する。 In S1, the camera MPU 125 sets a focus detection area. Here, it is assumed that three focus detection areas as shown in FIG. 6 are set for both phase difference AF and contrast AF. In S2, the camera MPU 125 sets a closeness determination flag in the RAM 125b to 1.

S3で、カメラMPU125は、撮像素子122を露光して画像信号を読み出し、画像処理回路124に位相差AF用の焦点検出領域218ah、218bh、218ch内の画像データに基づく位相差AF用の像信号を生成させる。また、画像処理回路124が生成したRAW画像データをTVAF部130に供給させ、TVAF部130でTVAF用の焦点検出領域219a、219b、219c内の画素データに基づく焦点評価値を算出させる。また、ここでは、図23(a)に示すように撮像面上の座標が設定されている場合に、各焦点検出領域の重心座標にあたる(x,y)を記憶しておく。なお、位相差AF用の像信号を生成する前に、画像処理回路124において撮影レンズのレンズ枠などによる光束のケラレによる射出瞳の非対称性を補正する処理(特開2010−117679号公報参照)を適用してもよい。TVAF部130が算出した焦点評価値は、カメラMPU125内のRAM125bに記憶される。   In S3, the camera MPU 125 exposes the image sensor 122 to read out an image signal, and the image processing circuit 124 reads the image signal for phase difference AF based on the image data in the focus detection areas 218ah, 218bh, and 218ch for phase difference AF. Is generated. Further, the RAW image data generated by the image processing circuit 124 is supplied to the TVAF unit 130, and the TVAF unit 130 calculates the focus evaluation value based on the pixel data in the focus detection areas 219a, 219b, and 219c for TVAF. Here, when coordinates on the imaging surface are set as shown in FIG. 23A, (x, y) corresponding to the barycentric coordinates of each focus detection region is stored. In addition, before generating the image signal for phase difference AF, the image processing circuit 124 corrects the asymmetry of the exit pupil due to the vignetting of the light beam by the lens frame of the photographing lens (see Japanese Patent Application Laid-Open No. 2010-117679). May be applied. The focus evaluation value calculated by the TVAF unit 130 is stored in the RAM 125b in the camera MPU 125.

S4において、カメラMPU125は、信頼性のある焦点評価値のピーク(極大値)が検出されたか否かを判定する。信頼性のあるピークが検出された場合、カメラMPU125は、焦点検出処理を終えるために処理をS20に進める。なお、焦点評価値のピークの信頼性の算出方法に制限はないが、例えば、特開2010−78810号公報の図10から図13で説明されているような方法を用いればよい。具体的には、検出されたピークが山の頂点かどうかを、焦点評価値の最大値と最小値の差、一定値(SlopeThr)以上の傾きで傾斜している部分の長さ、および傾斜している部分の勾配をそれぞれの閾値と比較して判断する。全ての閾値を満たしていればピークは信頼性があると判定することができる。   In S4, the camera MPU 125 determines whether or not a reliable peak (maximum value) of the focus evaluation value is detected. If a reliable peak is detected, the camera MPU 125 advances the process to S20 to finish the focus detection process. The method for calculating the reliability of the peak of the focus evaluation value is not limited, but for example, a method described in FIGS. 10 to 13 of JP 2010-78810 A may be used. Specifically, whether the detected peak is the peak of a mountain, the difference between the maximum value and the minimum value of the focus evaluation value, the length of the portion that is inclined with an inclination of a certain value (SlopeThr) or more, and the inclination Judgment is made by comparing the slope of the current portion with the respective threshold values. If all the threshold values are satisfied, it can be determined that the peak is reliable.

本実施形態では、位相差AFとコントラストAFを併用している。そのため、同一の焦点検出領域や他の焦点検出領域で、より至近側の被写体の存在が確認されている場合には、信頼性のある焦点評価値ピークが検出された際であっても、焦点検出を終えずに処理をS5に進めてもよい。ただし、この場合、信頼性のある焦点評価値ピークに対応するフォーカスレンズ104の位置を記憶しておき、S5以降の処理で信頼性のある焦点検出結果が得られなかった場合に、記憶したフォーカスレンズ104位置を焦点検出結果とする。   In the present embodiment, phase difference AF and contrast AF are used in combination. For this reason, if the presence of a closer subject is confirmed in the same focus detection area or another focus detection area, the focus evaluation value peak is detected even when a reliable focus evaluation value peak is detected. The process may be advanced to S5 without finishing the detection. However, in this case, the position of the focus lens 104 corresponding to the reliable focus evaluation value peak is stored, and the stored focus is obtained when a reliable focus detection result is not obtained in the processing after S5. The position of the lens 104 is a focus detection result.

S5において、位相差AF部129は、焦点検出領域218ch、218ah、218bhごとに、画像処理回路124から供給された一対の像信号のずれ量(位相差)を算出し、位相差を予め記憶されている換算係数を用いてデフォーカス量に変換する。ここでは、算出されたデフォーカス量の信頼性も判定し、所定の信頼性を有すると判定された焦点検出領域のデフォーカス量のみを、以後のAF処理で用いる。レンズ枠などによるケラレの影響により、デフォーカス量が大きくなるにつれて、一対の像信号間で検出される位相差は、より多くの誤差を含むようになる。そのため、得られたデフォーカス量が閾値より大きい場合、一対の像信号の形状の一致度が低い場合、像信号のコントラストが低い場合には、得られたデフォーカス量は所定の信頼性を有さない(信頼性が低い)と判定することができる。以下、得られたデフォーカス量が所定の信頼性を有すると判定された場合に「デフォーカス量が算出できた」と表現する。また、デフォーカス量が何らかの理由で算出できなかった場合や、デフォーカス量の信頼性が低いと判定された場合には「デフォーカス量が算出できない」と表現する。   In S5, the phase difference AF unit 129 calculates a shift amount (phase difference) between the pair of image signals supplied from the image processing circuit 124 for each of the focus detection areas 218ch, 218ah, and 218bh, and the phase difference is stored in advance. Is converted to a defocus amount using the conversion factor. Here, the reliability of the calculated defocus amount is also determined, and only the defocus amount of the focus detection area determined to have the predetermined reliability is used in the subsequent AF processing. The phase difference detected between the pair of image signals includes more errors as the defocus amount increases due to the vignetting effect of the lens frame or the like. Therefore, when the obtained defocus amount is larger than the threshold value, when the degree of coincidence of the shape of the pair of image signals is low, or when the contrast of the image signals is low, the obtained defocus amount has a predetermined reliability. It can be determined that it is not (low reliability). Hereinafter, when it is determined that the obtained defocus amount has predetermined reliability, it is expressed as “the defocus amount has been calculated”. Further, when the defocus amount cannot be calculated for some reason, or when it is determined that the reliability of the defocus amount is low, it is expressed as “the defocus amount cannot be calculated”.

S6でカメラMPU125は、S1で設定した位相差AF用の焦点検出領域218ah、218bh、218chの全てでデフォーカス量が算出できたか否か調べる。全ての焦点検出領域でデフォーカス量が算出できている場合、カメラMPU125は処理をS20に進め、算出されたデフォーカス量の中で、最も至近側にある被写体を示すデフォーカス量が算出された焦点検出領域に対して、縦横BP補正値(BP1)を算出する。ここで、最も至近側の被写体を選択する理由は、一般に、撮影者がピントを合わせたい被写体は至近側に存在することが多いためである。また、縦横BP補正値(BP1)は、水平方向の被写体のコントラストに対して焦点検出を行った場合と、垂直方向の被写体のコントラストに対して焦点検出を行った場合の焦点検出結果の差を補正する値である。   In S6, the camera MPU 125 checks whether the defocus amount can be calculated in all of the focus detection areas 218ah, 218bh, and 218ch for phase difference AF set in S1. When the defocus amount can be calculated in all focus detection areas, the camera MPU 125 advances the process to S20, and among the calculated defocus amounts, the defocus amount indicating the closest subject is calculated. A vertical / horizontal BP correction value (BP1) is calculated for the focus detection area. Here, the reason for selecting the closest subject is that the subject that the photographer wants to focus on is often on the close side. The vertical / horizontal BP correction value (BP1) is the difference between the focus detection results when the focus detection is performed on the contrast of the subject in the horizontal direction and when the focus detection is performed on the contrast of the subject in the vertical direction. This is the value to be corrected.

一般的な被写体は、水平方向、垂直方向ともにコントラストを有しており、撮影された画像のピント状態の評価も、水平方向、垂直方向の両方向のコントラストを鑑みてなされる。一方で、上述の位相差検出方式のAFのように水平方向のみの焦点検出を行う場合、水平方向の焦点検出結果と撮影画像の水平方向、垂直方向の両方向のピント状態には誤差を生じる。この誤差は、撮影光学系の非点収差などにより発生する。縦横BP補正値(BP1)は、その誤差を補正するための補正値で、選択された焦点検出領域、フォーカスレンズ104の位置、ズーム状態を示す第1レンズ群101の位置などを考慮して算出される。算出方法の詳細については後述する。   A general subject has contrast in both the horizontal direction and the vertical direction, and the evaluation of the focus state of the captured image is also made in view of the contrast in both the horizontal direction and the vertical direction. On the other hand, when focus detection is performed only in the horizontal direction as in the AF of the phase difference detection method described above, an error occurs between the focus detection result in the horizontal direction and the focus state in both the horizontal and vertical directions of the captured image. This error is caused by astigmatism of the photographing optical system. The vertical / horizontal BP correction value (BP1) is a correction value for correcting the error, and is calculated in consideration of the selected focus detection region, the position of the focus lens 104, the position of the first lens group 101 indicating the zoom state, and the like. Is done. Details of the calculation method will be described later.

S21でカメラMPU125は、S20で補正値算出対象となった焦点検出領域に対して、垂直方向もしくは水平方向のコントラスト情報を用いて、色BP補正値(BP2)を算出する。色BP補正値(BP2)は、撮影光学系の色収差により発生するもので、焦点検出に用いる信号の色のバランスと撮影画像もしくは現像された画像に用いる信号の色のバランスとの差により生じる。例えば、本実施形態のコントラストAFでは、焦点評価値を緑(G)のカラーフィルタを有する画素(緑画素)出力に基づいて生成するため、主に緑色の波長の合焦位置を検出することになる。しかし、撮影画像は、RGB全色を用いて生成されるため、赤(R)や青(B)の合焦位置が緑(G)と異なる場合(軸上色収差が存在する場合)、焦点評価値による焦点検出結果とずれ(誤差)を生じる。その誤差を補正するための補正値が、色BP補正値(BP2)である。色BP補正値(BP2)の算出方法の詳細は、後述する。   In S21, the camera MPU 125 calculates the color BP correction value (BP2) using the vertical or horizontal contrast information for the focus detection area that is the correction value calculation target in S20. The color BP correction value (BP2) is generated due to chromatic aberration of the photographing optical system, and is caused by the difference between the color balance of the signal used for focus detection and the color balance of the signal used for the photographed image or the developed image. For example, in the contrast AF of the present embodiment, the focus evaluation value is generated based on the output of a pixel (green pixel) having a green (G) color filter. Therefore, the focus position of the green wavelength is mainly detected. Become. However, since the captured image is generated using all RGB colors, focus evaluation is performed when the focus position of red (R) or blue (B) is different from green (G) (when axial chromatic aberration exists). Deviations (errors) occur from the focus detection result by value. The correction value for correcting the error is the color BP correction value (BP2). Details of the method for calculating the color BP correction value (BP2) will be described later.

S22でカメラMPU125は、補正対象である焦点検出領域に対して、垂直方向もしくは水平方向で緑信号もしくは輝度信号Yのコントラスト情報を用いて、ある特定の色の空間周波数BP補正値(BP3)を算出する。空間周波数BP補正値(BP3)は、撮影光学系の主に球面収差により発生するもので、焦点検出に用いる信号の評価周波数(帯域)と撮影画像を鑑賞する際の評価周波数(帯域)の差によって発生する。上述の通り焦点検出時の画像信号は第2のモードで撮像素子から読み出されているため、出力信号が加算や間引きされている。そのため、第1の読み出しモードで読み出された全画素の信号を用いて生成される撮影画像に対して、焦点検出に用いる出力信号は評価帯域が低くなる。その評価帯域の差により発生する焦点検出のずれを補正するのが空間周波数BP補正値(BP3)である。空間周波数BP補正値(BP3)の算出方法の詳細は、後述する。   In S22, the camera MPU 125 uses the contrast information of the green signal or the luminance signal Y in the vertical direction or the horizontal direction with respect to the focus detection area to be corrected, and calculates the spatial frequency BP correction value (BP3) of a specific color. calculate. The spatial frequency BP correction value (BP3) is generated mainly by spherical aberration in the photographing optical system, and the difference between the evaluation frequency (band) of the signal used for focus detection and the evaluation frequency (band) when viewing the photographed image. Caused by. As described above, since the image signal at the time of focus detection is read from the image sensor in the second mode, the output signal is added or thinned out. For this reason, the output signal used for focus detection has a lower evaluation band than the captured image generated using the signals of all the pixels read in the first readout mode. It is the spatial frequency BP correction value (BP3) that corrects the focus detection shift caused by the difference between the evaluation bands. Details of the method of calculating the spatial frequency BP correction value (BP3) will be described later.

S23でカメラMPU125は、算出された3種の補正値(BP1、BP2、BP3)を用いて以下の式(1)により焦点検出結果DEF_Bを補正し、補正後の焦点検出結果DEF_Aを算出する。なお、焦点検出結果DEF_Bは、位相差AFによる焦点検出結果を用いる場合にはデフォーカス量、コントラストAFによる焦点検出結果を用いる場合には焦点評価値のピークに対応するフォーカスレンズ位置と、現在のフォーカスレンズ位置との差である。
DEF_A=DEF_B+BP1+BP2+BP3 …(1)
In S23, the camera MPU 125 corrects the focus detection result DEF_B by the following formula (1) using the calculated three types of correction values (BP1, BP2, BP3), and calculates the corrected focus detection result DEF_A. Note that the focus detection result DEF_B is the defocus amount when the focus detection result by the phase difference AF is used, the focus lens position corresponding to the peak of the focus evaluation value when the focus detection result by the contrast AF is used, and the current This is the difference from the focus lens position.
DEF_A = DEF_B + BP1 + BP2 + BP3 (1)

本実施形態では、焦点検出結果を補正するための補正値を3段階に分け、縦横(S20)、色(S21)、空間周波数(S22)について計算する。   In the present embodiment, the correction value for correcting the focus detection result is divided into three stages, and the vertical and horizontal (S20), color (S21), and spatial frequency (S22) are calculated.

まず、撮影画像の鑑賞時の評価が縦横両方向のコントラスト情報を用いられるのに対し、焦点検出は1方向のコントラスト情報を用いることに起因する誤差を、縦横BP補正値(BP1)として算出する。次に、縦横BPの影響を切り離して、1方向のコントラスト情報において、撮影画像に用いられる信号の色と焦点検出時に用いられる信号の色による合焦位置の差を、色BP補正値(BP2)として算出する。さらに、1方向のコントラスト情報で、緑もしくは輝度信号などのある特定の色に関して、撮影画像の鑑賞時と焦点検出時の評価帯域の差により発生する合焦位置の差を空間周波数BP補正値(BP3)として算出する。このように、3種類の誤差を切り分けて算出することにより、演算量の低減、レンズもしくはカメラに記憶するデータ容量の低減を図る。   First, contrast in both vertical and horizontal directions is used for evaluation at the time of viewing a captured image, whereas focus detection calculates an error caused by using contrast information in one direction as a vertical and horizontal BP correction value (BP1). Next, the influence of the vertical / horizontal BP is separated, and the difference in focus position between the color of the signal used for the captured image and the color of the signal used for focus detection in the contrast information in one direction is expressed as a color BP correction value (BP2). Calculate as Further, with respect to a specific color such as green or a luminance signal in the contrast information in one direction, a spatial frequency BP correction value (a spatial frequency BP correction value ( BP3) is calculated. In this way, by calculating the three types of errors separately, the amount of calculation is reduced, and the data capacity stored in the lens or camera is reduced.

S24でカメラMPU125は、レンズMPU117を通じてフォーカスレンズ104を、式(1)で算出された補正後の焦点検出結果DEF_Aに基づいて駆動する。   In S <b> 24, the camera MPU 125 drives the focus lens 104 through the lens MPU 117 based on the corrected focus detection result DEF_A calculated by Expression (1).

S25でカメラMPU125は、フォーカスレンズ104の駆動に用いたデフォーカス量を算出した焦点検出領域を表す表示(AF枠表示)を、表示器126で例えばライブビュー画像に重畳表示させて、AF処理を終了する。   In S25, the camera MPU 125 superimposes the display (AF frame display) representing the defocus amount used to drive the focus lens 104 on the live view image, for example, and displays the focus detection area. finish.

一方、S6でデフォーカス量が算出できなかった焦点検出領域が存在した場合、カメラMPU125は処理を図1BのS7に進める。S7でカメラMPU125は、至近判定フラグが1であるか否かを判定する。至近判定フラグが1であるのは、AF動作が始まってからフォーカスレンズ駆動が一度も行われていない場合である。フォーカスレンズ駆動が行われていれば至近判定フラグは0となる。至近判定フラグが1である場合、カメラMPU125は、処理をS8に進める。   On the other hand, if there is a focus detection area where the defocus amount could not be calculated in S6, the camera MPU 125 advances the process to S7 in FIG. 1B. In S7, the camera MPU 125 determines whether or not the closeness determination flag is 1. The closeness determination flag is 1 when the focus lens has never been driven after the AF operation has started. If the focus lens drive is performed, the closeness determination flag is 0. If the closeness determination flag is 1, the camera MPU 125 advances the process to S8.

S8でカメラMPU125は、全ての焦点検出領域でデフォーカス量を算出できなかった場合、もしくは、算出されたデフォーカス量のうち、最も至近側の被写体の存在を示すデフォーカス量が所定の閾値A以下の場合には、処理をS9に進める。S9でカメラMPU125は、至近側に予め決められた量、フォーカスレンズを駆動する。   If the camera MPU 125 cannot calculate the defocus amount in all focus detection areas in S8, or the defocus amount indicating the presence of the closest subject among the calculated defocus amounts is a predetermined threshold A. In the following cases, the process proceeds to S9. In S9, the camera MPU 125 drives the focus lens by a predetermined amount on the near side.

ここでS8でYesの場合に、所定量のレンズ駆動を行う理由を説明する。まず、複数の焦点検出領域の中で、デフォーカス量が算出できた領域が無い場合とは、現時点では、ピント合わせを行うべき被写体が見つかっていない場合である。そのため、合焦不能であると判断する前に、全ての焦点検出領域に対して、ピント合わせを行うべき被写体の存在を確認するために、所定量のレンズ駆動を行い、後述する焦点評価値の変化を判定できるようにする。また、算出されたデフォーカス量の中で最も至近側の被写体の存在を示すデフォーカス量が所定の閾値A以下の場合とは、現時点で、ほぼ合焦状態の焦点検出領域が存在している場合である。このような状況では、デフォーカス量が算出できなかった焦点検出領域に、より至近側に、現時点では検出されていない被写体がある可能性を確認するために、所定量のレンズ駆動を行い、後述する焦点評価値の変化を判定できるようにする。なお、S9でフォーカスレンズを駆動する所定量は、撮影光学系のF値やレンズ駆動量に対する撮像面上でのピント移動量の敏感度を鑑みて定めればよい。   Here, the reason why the predetermined amount of lens driving is performed in the case of Yes in S8 will be described. First, the case where there is no region where the defocus amount can be calculated among the plurality of focus detection regions is a case where no subject to be focused is found at the present time. Therefore, before determining that focusing is impossible, a predetermined amount of lens driving is performed to check the presence of a subject to be focused on in all focus detection areas, and a focus evaluation value described later is obtained. Enable to determine changes. Also, when the defocus amount indicating the presence of the closest subject in the calculated defocus amount is equal to or smaller than the predetermined threshold A, there is a focus detection region that is almost in focus at the present time. Is the case. In such a situation, a predetermined amount of lens drive is performed in order to confirm that there is a subject that is not detected at the present time closer to the focus detection area where the defocus amount could not be calculated. It is possible to determine a change in focus evaluation value. The predetermined amount for driving the focus lens in S9 may be determined in view of the sensitivity of the focus movement amount on the imaging surface to the F value of the photographing optical system and the lens driving amount.

一方で、S8でNoの場合、すなわち、算出されたデフォーカス量の中で最も至近側の被写体の存在を示すデフォーカス量が所定の閾値Aより大きい場合には、S10に進む。この場合には、デフォーカス量が算出できた焦点検出領域は存在するものの、その焦点検出領域は合焦状態ではない場合である。そのため、S10でカメラMPU125は、算出されたデフォーカス量の中で最も至近側の被写体の存在を示すデフォーカス量に基づき、レンズ駆動を行う。   On the other hand, in the case of No in S8, that is, when the defocus amount indicating the presence of the closest subject in the calculated defocus amount is larger than the predetermined threshold A, the process proceeds to S10. In this case, there is a focus detection area where the defocus amount can be calculated, but the focus detection area is not in focus. Therefore, in step S10, the camera MPU 125 performs lens driving based on the defocus amount indicating the presence of the closest subject in the calculated defocus amount.

S9もしくはS10にてレンズ駆動を行った後、カメラMPU125は処理をS11に進め、至近判定フラグを0に設定して、図1AのS3に処理を戻す。   After driving the lens in S9 or S10, the camera MPU 125 advances the process to S11, sets the closeness determination flag to 0, and returns the process to S3 in FIG. 1A.

一方、S7で、至近判定フラグが1でない(0である)場合、カメラMPU125は処理をS12に進める。S12でカメラMPU125は、デフォーカス量が算出できなかった焦点検出領域に対応したTVAF用の焦点検出領域の焦点評価値が、レンズ駆動前後で、所定の閾値B以上変化したか否かを判断する。焦点評価値は増加する場合も減少する場合もあるが、S12では焦点評価値の変化量の絶対値が所定の閾値B以上であるか否かを判断する。   On the other hand, if the closeness determination flag is not 1 (0) in S7, the camera MPU 125 advances the process to S12. In S12, the camera MPU 125 determines whether or not the focus evaluation value of the focus detection area for TVAF corresponding to the focus detection area for which the defocus amount could not be calculated has changed by a predetermined threshold B or more before and after lens driving. . Although the focus evaluation value may increase or decrease, in S12, it is determined whether or not the absolute value of the change amount of the focus evaluation value is greater than or equal to a predetermined threshold B.

ここで、焦点評価値の変化量の絶対値が所定の閾値B以上である場合とは、デフォーカス量は算出できないものの、焦点評価値の増減により、被写体のボケ状態の変化を検出できたことを意味している。そのため、本実施形態では、位相差AFによるデフォーカス量が検出できない場合でも、焦点評価値の増減に基づいて被写体の存在を判定し、AF処理を継続する。これにより、デフォーカス量が大きく、位相差AFでは検出できない被写体に対して、焦点調節を行うことができる。   Here, when the absolute value of the change amount of the focus evaluation value is equal to or greater than the predetermined threshold B, the defocus amount cannot be calculated, but the change in the blur state of the subject can be detected by increasing or decreasing the focus evaluation value. Means. Therefore, in the present embodiment, even when the defocus amount due to the phase difference AF cannot be detected, the presence of the subject is determined based on the increase / decrease of the focus evaluation value, and the AF process is continued. As a result, focus adjustment can be performed on a subject that has a large defocus amount and cannot be detected by phase difference AF.

ここで、判定に用いられる所定の閾値Bは、レンズ駆動量に応じて変更する。レンズ駆動量が大きい場合は、小さい場合よりも閾値Bに大きい値を設定する。これは、被写体が存在する場合には、レンズ駆動量の増加に応じて、焦点評価値の変化量も増加するためである。これらのレンズ駆動量ごとの閾値Bは、EEPROM125cに記憶されている。   Here, the predetermined threshold B used for the determination is changed according to the lens driving amount. When the lens driving amount is large, a larger value is set for the threshold B than when the lens driving amount is small. This is because when the subject exists, the amount of change in the focus evaluation value increases as the lens driving amount increases. The threshold value B for each lens driving amount is stored in the EEPROM 125c.

焦点評価値の変化量の絶対値が閾値B以上である場合、カメラMPU125は処理をS13に進め、焦点評価値の変化量が閾値B以上ある焦点検出領域が、無限遠側被写体の存在を示す焦点検出領域のみであるか否かを判定する。焦点検出領域が無限遠側被写体の存在を示す場合とは、レンズ駆動の駆動方向が至近方向で焦点評価値が減少、もしくは、レンズ駆動の駆動方向が無限遠方向で焦点評価値が増加した場合である。   When the absolute value of the change amount of the focus evaluation value is equal to or greater than the threshold value B, the camera MPU 125 advances the process to S13, and the focus detection area where the change amount of the focus evaluation value is equal to or greater than the threshold value B indicates the presence of the infinite object. It is determined whether or not only the focus detection area. When the focus detection area indicates the presence of an object at infinity, the focus evaluation value decreases when the lens drive direction is close, or the focus evaluation value increases when the lens drive direction is infinity. It is.

焦点評価値の変化量が閾値B以上である焦点検出領域が、無限遠側被写体の存在を示す焦点検出領域のみでない場合、カメラMPU125は処理をS14に進め、至近側に所定量のレンズ駆動を行う。これは、焦点評価値の変化量が閾値B以上ある焦点検出領域の中に、至近側被写体の存在を示す焦点検出領域があるためである。なお、至近側を優先する理由は上述のとおりである。   When the focus detection area where the change amount of the focus evaluation value is equal to or greater than the threshold B is not only the focus detection area indicating the presence of the infinity side subject, the camera MPU 125 advances the process to S14 and drives a predetermined amount of lens to the near side. Do. This is because there is a focus detection area indicating the presence of the near-side subject in the focus detection area where the change amount of the focus evaluation value is equal to or greater than the threshold value B. The reason for giving priority to the closest side is as described above.

一方、S13において、焦点評価値の変化量が閾値B以上ある焦点検出領域が、無限遠側被写体の存在を示す焦点検出領域のみである場合、カメラMPU125は処理をS15に進める。S15でカメラMPU125は、デフォーカス量が算出できた焦点検出領域が存在するか否かを判定する。デフォーカス量が算出できた焦点検出領域が存在する場合(S15でYes)には、焦点評価値による無限遠側被写体の存在よりも、位相差AFの結果を優先するため、カメラMPU125は、処理を図1AのS20に進める。   On the other hand, in S13, when the focus detection area where the change amount of the focus evaluation value is greater than or equal to the threshold B is only the focus detection area indicating the presence of the infinity side subject, the camera MPU 125 advances the process to S15. In step S15, the camera MPU 125 determines whether there is a focus detection area in which the defocus amount can be calculated. When there is a focus detection area where the defocus amount can be calculated (Yes in S15), the camera MPU 125 prioritizes the result of the phase difference AF over the presence of the infinitely far side object based on the focus evaluation value. To S20 of FIG. 1A.

デフォーカス量が算出できた焦点検出領域が存在しない場合(S15でNo)には、被写体の存在を示す情報が、焦点評価値の変化のみである。そのため、カメラMPU125は、焦点評価値の変化に基づいて、S16で無限遠側に所定量のレンズ駆動を行い、処理を図1AのS3に戻す。   When there is no focus detection area where the defocus amount can be calculated (No in S15), the information indicating the presence of the subject is only the change in the focus evaluation value. Therefore, the camera MPU 125 drives a predetermined amount of lens toward the infinity side in S16 based on the change in the focus evaluation value, and returns the process to S3 in FIG. 1A.

S14及びS16で行うレンズ駆動の所定量は、位相差AFで検出可能なデフォーカス量を鑑みて決めればよい。被写体によって検出可能なデフォーカス量は異なるが、焦点検出不可能な状態からのレンズ駆動で、被写体を検出できずに通り過ぎてしまうことがないようなレンズ駆動量を予め設定しておく。   The predetermined amount of lens driving performed in S14 and S16 may be determined in view of the defocus amount that can be detected by the phase difference AF. Although the defocus amount that can be detected differs depending on the subject, a lens drive amount is set in advance so that the subject cannot be detected and passed by the lens drive from a state where the focus cannot be detected.

焦点評価値の変化量の絶対値が所定の閾値B未満である場合(S12でNo)、カメラMPU125は処理をS17に進め、デフォーカス量が算出できた焦点検出領域の有無を判定する。デフォーカス量が算出できた焦点検出領域が無い場合、カメラMPU125は、処理をS18に進め、予め定められた定点にレンズを駆動した後、さらに処理をS19に進め、表示器126に非合焦表示を行ってAF処理を終了する。これは、デフォーカス量が算出できた焦点検出領域が無く、レンズ駆動の前後で焦点評価値の変化がある焦点検出領域も無い場合である。このような場合、被写体の存在を示す情報が全く無いため、カメラMPU125は合焦不能と判定してAF処理を終了する。   If the absolute value of the change amount of the focus evaluation value is less than the predetermined threshold B (No in S12), the camera MPU 125 advances the process to S17 and determines the presence or absence of a focus detection region where the defocus amount can be calculated. If there is no focus detection area in which the defocus amount can be calculated, the camera MPU 125 advances the process to S18, drives the lens to a predetermined fixed point, and further advances the process to S19 to focus on the display 126. Display is performed and the AF process is terminated. This is a case where there is no focus detection area where the defocus amount can be calculated, and there is no focus detection area where the focus evaluation value changes before and after lens driving. In such a case, since there is no information indicating the presence of the subject, the camera MPU 125 determines that focusing cannot be performed and ends the AF process.

一方、S17で、デフォーカス量が算出できた焦点検出領域が有る場合、カメラMPU125は処理を図1AのS20に進め、検出されたデフォーカス量の補正を行い(S20〜S23)、S24で合焦位置へフォーカスレンズ104を駆動する。その後、カメラMPU125はS25で表示器126に合焦表示を行い、AF処理を終了する。   On the other hand, if there is a focus detection area in which the defocus amount can be calculated in S17, the camera MPU 125 proceeds to S20 in FIG. 1A to correct the detected defocus amount (S20 to S23). The focus lens 104 is driven to the focal position. Thereafter, the camera MPU 125 displays the focus on the display 126 in S25, and ends the AF process.

(縦横BP補正値の算出方法)
次に、図7及び図8を用いて、図1AのS20で行う縦横BP補正値(BP1)の算出方法について説明する。図7は、縦横BP補正値(BP1)の算出処理の詳細を示すフローチャートである。
(Calculation method of vertical / horizontal BP correction value)
Next, a method for calculating the vertical / horizontal BP correction value (BP1) performed in S20 of FIG. 1A will be described with reference to FIGS. FIG. 7 is a flowchart showing details of the calculation process of the vertical / horizontal BP correction value (BP1).

S100で、カメラMPU125は、S1で事前に設定された焦点検出領域に対応する縦横BP補正情報を取得する。縦横BP補正情報は、水平方向の合焦位置に対する垂直方向の合焦位置の差分情報である。本実施形態において縦横BP補正情報はレンズユニット100のレンズメモリ118に予め記憶されており、カメラMPU125は、レンズMPU117に要求して取得するものとする。しかし、RAM125bの不揮発性領域に、レンズユニットの識別情報と対応付けて記憶されていてもよい。   In S100, the camera MPU 125 acquires vertical / horizontal BP correction information corresponding to the focus detection area set in advance in S1. The vertical / horizontal BP correction information is difference information on the vertical focus position with respect to the horizontal focus position. In the present embodiment, the vertical / horizontal BP correction information is stored in advance in the lens memory 118 of the lens unit 100, and the camera MPU 125 requests and acquires the lens MPU 117. However, it may be stored in the nonvolatile area of the RAM 125b in association with the lens unit identification information.

図8(a)に、縦横BP補正情報の例を示す。ここでは、図6の中央の焦点検出領域219a、218ahに対応した縦横BP補正情報の例を示しているが、他の焦点検出領域219c、218chおよび219b、218bhについても縦横BP補正情報を記憶している。ただし、撮影光学系の光軸を挟んで対称な位置に存在する焦点検出領域の焦点検出補正値は設計上は等しい。本実施形態において、焦点検出領域219c、218chと219b、218bhとはこのような対象関係を満たすため、一方についてのみ縦横BP補正情報を記憶してもよい。また、焦点検出領域の位置によって補正値が大きく変化しない場合には、共通の値として記憶してもよい。   FIG. 8A shows an example of vertical / horizontal BP correction information. Here, an example of the vertical and horizontal BP correction information corresponding to the central focus detection areas 219a and 218ah in FIG. 6 is shown, but the vertical and horizontal BP correction information is also stored for the other focus detection areas 219c and 218ch and 219b and 218bh. ing. However, the focus detection correction values of the focus detection areas existing at symmetrical positions across the optical axis of the photographing optical system are equal in design. In the present embodiment, since the focus detection areas 219c, 218ch and 219b, 218bh satisfy such a target relationship, only one of them may store the vertical / horizontal BP correction information. If the correction value does not change greatly depending on the position of the focus detection area, it may be stored as a common value.

図8(a)に示す例では、撮影光学系のズーム位置(画角)とフォーカスレンズ位置(合焦距離)を8つのゾーンに分割し、ゾーンごとに焦点検出補正値BP111〜BP188を記憶している。分割ゾーン数が多いほど撮影光学系の第1レンズ群101の位置およびフォーカスレンズ104の位置に応じた高精度な補正値が得られる。また、縦横BP補正情報は、コントラストAF、位相差AFの両方に用いることができる。   In the example shown in FIG. 8A, the zoom position (field angle) and focus lens position (focus distance) of the photographing optical system are divided into eight zones, and focus detection correction values BP111 to BP188 are stored for each zone. ing. As the number of divided zones increases, a highly accurate correction value corresponding to the position of the first lens group 101 and the position of the focus lens 104 of the photographing optical system can be obtained. The vertical / horizontal BP correction information can be used for both contrast AF and phase difference AF.

このようにして、S100でカメラMPU125は、補正対象となっている焦点検出結果に応じたズーム位置、フォーカスレンズ位置に対応した補正値を取得する。   In this way, in S100, the camera MPU 125 acquires correction values corresponding to the zoom position and the focus lens position according to the focus detection result that is the correction target.

S101でカメラMPU125は、補正対象となっている焦点検出領域において、水平方向、垂直方向のいずれの方向に対しても信頼性のある焦点検出結果が得られているかを判定する。焦点検出結果の信頼性の判定の方法については、位相差AFについてもコントラストAFについても上述した通りである。本実施形態の位相差AFは水平方向の焦点検出しか行っていないため、水平方向、垂直方向の両方向に信頼性のある焦点検出結果が得られるのはコントラストAFである。そのため、縦横BP補正値に関する以後の説明は、コントラストAFを想定した説明を行うが、位相差AFの焦点検出を水平、垂直の両方向で行う場合も、同様の処理を行えばよい。S101で、水平方向、垂直方向のいずれの焦点検出結果も信頼性があると判定された場合、カメラMPU125は、処理をS102に進める。   In step S101, the camera MPU 125 determines whether a reliable focus detection result is obtained in either the horizontal direction or the vertical direction in the focus detection area to be corrected. The method of determining the reliability of the focus detection result is as described above for both the phase difference AF and the contrast AF. Since the phase difference AF of this embodiment only performs focus detection in the horizontal direction, it is contrast AF that provides a reliable focus detection result in both the horizontal and vertical directions. For this reason, the following description regarding the vertical / horizontal BP correction value is based on the assumption of contrast AF. However, similar processing may be performed when focus detection of phase difference AF is performed in both horizontal and vertical directions. If it is determined in S101 that the horizontal and vertical focus detection results are reliable, the camera MPU 125 advances the process to S102.

S102でカメラMPU125は、水平方向の焦点検出結果と垂直方向の焦点検出結果の差が、妥当であるか否かを判定する。これは、遠い距離の被写体と近い距離の被写体を焦点検出領域内に含んだ際に生じる遠近競合の問題に対応するために行う処理である。例えば、遠い被写体が水平方向にコントラストを有し、近い被写体が垂直方向にコントラストを有するような場合、撮影光学系の非点収差などにより発生する誤差よりも絶対値が大きかったり、符号が反対の焦点検出結果の差が生じたりする場合がある。カメラMPU125は、水平方向の焦点検出結果と垂直方向の焦点検出結果の差が予め定めた判定値Cより大きい場合には差が妥当でない(遠近競合している)と判定する。そして、より至近側の焦点検出結果を示す方向として水平方向もしくは垂直方向を選択し、処理をS104に進める。なお、判定値Cは、上述の理由から、収差などで発生しうる差を大きく超える値を一意に決めてもよいし、S100で得られた補正情報を用いて設定してもよい。   In S102, the camera MPU 125 determines whether or not the difference between the focus detection result in the horizontal direction and the focus detection result in the vertical direction is appropriate. This is a process performed to deal with the perspective conflict problem that occurs when an object at a distance close to an object at a distance is included in the focus detection area. For example, when a far subject has a contrast in the horizontal direction and a near subject has a contrast in the vertical direction, the absolute value is larger than the error caused by astigmatism of the photographing optical system or the sign is opposite. Differences in focus detection results may occur. If the difference between the horizontal focus detection result and the vertical focus detection result is larger than the predetermined determination value C, the camera MPU 125 determines that the difference is not valid (conflicts between near and far). Then, the horizontal direction or the vertical direction is selected as the direction indicating the closer focus detection result, and the process proceeds to S104. Note that the determination value C may be uniquely determined as a value that greatly exceeds a difference that may occur due to aberrations or the like, or may be set using the correction information obtained in S100.

S102で水平方向の焦点検出結果と垂直方向の焦点検出結果の差が妥当であると判定された場合、カメラMPU125は、処理をS106に進める。   If it is determined in S102 that the difference between the focus detection result in the horizontal direction and the focus detection result in the vertical direction is appropriate, the camera MPU 125 advances the process to S106.

一方で、S101で水平方向、もしくは垂直方向の一方向にのみ信頼性が有る場合や、S102で水平方向もしくは垂直方向の一方向のみが選択された場合、カメラMPU125は処理をS104に進める。S104でカメラMPU125は焦点検出結果の方向選択を行う。信頼性のある焦点検出結果を算出した方向や、遠近競合判定で、より至近側にある被写体に対応した焦点検出結果を算出した方向を選択する。   On the other hand, if there is reliability in only one horizontal or vertical direction in S101, or if only one horizontal or vertical direction is selected in S102, the camera MPU 125 advances the process to S104. In S104, the camera MPU 125 selects the direction of the focus detection result. A direction in which a reliable focus detection result is calculated or a direction in which a focus detection result corresponding to a subject on the closer side is calculated in the perspective conflict determination is selected.

次にカメラMPU125は、S105で、水平方向、垂直方向の重み付けが可能であるか否かを判定する。S105が実行される場合、焦点評価値の信頼性や遠近競合の観点で、水平方向、垂直方向の両方向に対して信頼性のある焦点検出結果が得られていないが、縦横BP補正値を算出するための判定を改めて行う。この理由を、図8(b)を用いて、詳細に説明する。   Next, in step S105, the camera MPU 125 determines whether weighting in the horizontal direction and the vertical direction is possible. When S105 is executed, a reliable focus detection result in both the horizontal direction and the vertical direction is not obtained from the viewpoint of reliability of the focus evaluation value and perspective conflict, but the vertical and horizontal BP correction values are calculated. The determination to do is performed again. The reason for this will be described in detail with reference to FIG.

図8(b)は、選択された焦点検出領域のフォーカスレンズ104の位置と焦点評価値の関係例を示す図である。図中の曲線E_h、E_vは、コントラストAFで検出された水平方向の焦点評価値と垂直方向の焦点評価値の変化を示す。また、LP1、LP2、LP3は、それぞれフォーカスレンズ位置を示す。図8(b)では、水平方向の焦点評価値E_hから信頼性のある焦点検出結果としてLP3が得られ、垂直方向の焦点評価値E_vから信頼性のある焦点検出結果としてLP1が得られた場合を示している。LP1とLP3とが大きく異なっているため遠近競合状態であると判定され、より至近側の焦点検出結果である水平方向の焦点検出結果LP3がS104で選択される。   FIG. 8B is a diagram showing an example of the relationship between the position of the focus lens 104 in the selected focus detection region and the focus evaluation value. Curves E_h and E_v in the figure show changes in the horizontal focus evaluation value and the vertical focus evaluation value detected by contrast AF. LP1, LP2, and LP3 each indicate a focus lens position. In FIG. 8B, LP3 is obtained as a reliable focus detection result from the horizontal focus evaluation value E_h, and LP1 is obtained as a reliable focus detection result from the vertical focus evaluation value E_v. Is shown. Since LP1 and LP3 are greatly different from each other, it is determined that they are in a perspective conflict state, and the focus detection result LP3 in the horizontal direction, which is the focus detection result on the closer side, is selected in S104.

このような状況で、S105でカメラMPU125は、選択されている水平方向の焦点検出結果LP3近傍に、垂直方向の焦点検出結果が存在しないか否かを判定する。図8(b)のような状況ではLP2が存在するため、カメラMPU125は、水平、垂直方向の重み付けが可能であると判定して処理をS106に進め、焦点検出結果LP3の補正値を、焦点検出結果LP2の影響を考慮に入れて算出する。   In such a situation, in S105, the camera MPU 125 determines whether or not there is a vertical focus detection result in the vicinity of the selected horizontal focus detection result LP3. Since LP2 exists in the situation as shown in FIG. 8B, the camera MPU 125 determines that weighting in the horizontal and vertical directions is possible, proceeds to S106, and sets the correction value of the focus detection result LP3 as the focus. Calculation is performed taking into consideration the influence of the detection result LP2.

S100において縦横BP補正情報として図8(a)の1要素であるBP1_Bを取得しており、図8(b)におけるLP3における水平方向の焦点評価値がE_hp、LP2における垂直方向の焦点評価値がE_vpであるとする。この場合、S106でカメラMPU125は、焦点評価値の合計に対する、補正する方向と直交する方向における焦点評価値の割合に基づき、縦横BP補正値BP1を以下の式(2)に従って算出する。
BP1=BP1_B×E_vp/(E_vp+E_hp)×(+1) …(2)
In S100, BP1_B, which is one element of FIG. 8A, is acquired as the vertical and horizontal BP correction information, the horizontal focus evaluation value in LP3 in FIG. 8B is E_hp, and the vertical focus evaluation value in LP2 is the vertical focus evaluation value. It is assumed that E_vp. In this case, in S106, the camera MPU 125 calculates the vertical / horizontal BP correction value BP1 according to the following equation (2) based on the ratio of the focus evaluation value in the direction orthogonal to the correction direction to the total focus evaluation value.
BP1 = BP1_B × E_vp / (E_vp + E_hp) × (+1) (2)

本実施形態では、水平方向の焦点検出結果に対する補正値を算出するため、式(2)を用いて補正値BP1を算出するが、垂直方向の焦点検出結果を補正する場合には、以下の式(3)で算出することができる。
BP1=BP1_B×E_hp/(E_vp+E_hp)×(−1) …(3)
In the present embodiment, in order to calculate a correction value for the focus detection result in the horizontal direction, the correction value BP1 is calculated using Equation (2). However, when correcting the focus detection result in the vertical direction, the following equation is used. It can be calculated in (3).
BP1 = BP1_B × E_hp / (E_vp + E_hp) × (−1) (3)

S102で水平方向の焦点検出結果と垂直方向の焦点検出結果の差が妥当であると判定された場合、至近側の焦点検出結果が水平方向の検出結果であれば式(2)を、垂直方向の検出結果であれば式(3)を用いて補正値BP1を算出する。   When it is determined in S102 that the difference between the focus detection result in the horizontal direction and the focus detection result in the vertical direction is appropriate, if the focus detection result on the near side is the detection result in the horizontal direction, Equation (2) is obtained. If the detection result is, the correction value BP1 is calculated using Equation (3).

式(2)、式(3)から自明であるように、焦点評価値が大きいという情報を、被写体に含まれるコントラスト情報が多いと判定して、縦横BP補正値(BP1)を算出する。上述の通り、縦横BP補正情報は、   As is obvious from Expressions (2) and (3), information indicating that the focus evaluation value is large is determined to be a large amount of contrast information included in the subject, and the vertical and horizontal BP correction value (BP1) is calculated. As described above, the vertical and horizontal BP correction information is

(垂直方向にのみコントラスト情報をもつ被写体の焦点検出位置)−(水平方向にのみコントラスト情報を持つ被写体の焦点検出位置)
である。そのため、水平方向の焦点検出結果を補正する補正値BP1と垂直方向の焦点検出結果を補正する補正値BP1の符号は反対となる。S106の処理を終えるとカメラMPU125は、縦横BP補正値算出処理を終了する。
一方、選択されている水平方向の焦点検出結果LP3近傍に、垂直方向の焦点検出結果が存在しないとS105で判定された場合、カメラMPU125は処理をS103に進める。S103でカメラMPU125は、被写体に含まれるコントラスト情報が概ね1方向のみであると判断されるため、BP1=0とし、縦横BP補正値算出処理を終了する。
(Focus detection position of a subject having contrast information only in the vertical direction)-(Focus detection position of a subject having contrast information only in the horizontal direction)
It is. Therefore, the signs of the correction value BP1 for correcting the focus detection result in the horizontal direction and the correction value BP1 for correcting the focus detection result in the vertical direction are opposite. When the process of S106 is completed, the camera MPU 125 ends the vertical / horizontal BP correction value calculation process.
On the other hand, if it is determined in S105 that there is no vertical focus detection result in the vicinity of the selected horizontal focus detection result LP3, the camera MPU 125 advances the process to S103. In step S103, the camera MPU 125 determines that the contrast information included in the subject is substantially only in one direction, and thus sets BP1 = 0 and ends the vertical / horizontal BP correction value calculation processing.

このように、本実施形態では、異なる方向における被写体のコントラスト情報に応じて補正値を算出するため、被写体のパターンに応じた高精度な補正値算出を行うことができる。なお、図8(b)では、被写体が遠近競合している場合について説明したが、水平方向と垂直方向に1つずつ極大値が検出されており、片方の焦点検出結果に信頼性が無い場合も、同様の考え方で補正値を算出する。   Thus, in this embodiment, since the correction value is calculated according to the contrast information of the subject in different directions, it is possible to calculate the correction value with high accuracy according to the pattern of the subject. In FIG. 8B, the case where the subject is competing for perspective has been described, but the maximum value is detected one by one in the horizontal direction and the vertical direction, and the focus detection result on one side is not reliable. Also, the correction value is calculated in the same way.

ただし、S106での補正値算出方法はこれに限らない。例えば、本実施形態の位相差AFのように、水平方向のみ焦点検出が行える場合には、被写体の水平方向と垂直方向のコントラストの情報量は同量であると仮定して、補正値を算出してもよい。その場合には、上述の式(2)、式(3)において、E_hp=E_vp=1を代入することにより補正値を算出することができる。このような処理を行うことにより、補正精度は落ちるが、補正値演算の負荷を減らすことができる。   However, the correction value calculation method in S106 is not limited to this. For example, when focus detection can be performed only in the horizontal direction as in the phase difference AF of the present embodiment, the correction value is calculated on the assumption that the amount of contrast information in the horizontal direction and the vertical direction of the subject is the same. May be. In that case, the correction value can be calculated by substituting E_hp = E_vp = 1 in the above-described equations (2) and (3). By performing such processing, the correction accuracy is reduced, but the load of correction value calculation can be reduced.

上述の説明では、コントラストAFの焦点検出結果に対して説明したが、位相差AFの焦点検出結果に対しても同様の処理を行うことが可能である。補正値算出の際の重み付けの係数として、位相差AFの相関演算で算出される相関量の変化量を用いればよい。これは、被写体の明暗差が大きい場合や明暗差のあるエッジの数が多い場合など、被写体のコントラスト情報が多ければ多いほど、相関量の変化量も大きくなることを利用している。同様の関係が得られる評価値であれば、相関量の変化量に限らず、種々の評価値を用いてよい。   In the above description, the focus detection result of contrast AF has been described, but the same processing can be performed on the focus detection result of phase difference AF. As a weighting coefficient when calculating the correction value, a change amount of the correlation amount calculated by the correlation calculation of the phase difference AF may be used. This utilizes the fact that the amount of change in the correlation amount increases as the contrast information of the subject increases, such as when the contrast of the subject is large or the number of edges having the contrast is large. As long as the evaluation value can obtain the same relationship, various evaluation values may be used without being limited to the change amount of the correlation amount.

このように、縦横BP補正値を用いて焦点検出結果を補正することにより、被写体の方向ごとのコントラスト情報の量によらず、高精度な焦点検出を行うことができる。また、水平方向、垂直方向の補正値を図8(a)に示したような共通の補正情報を用いて算出しているため、方向ごとに各々の補正値を記憶する場合に比べて、補正情報の記憶容量を低減することができる。   As described above, by correcting the focus detection result using the vertical and horizontal BP correction values, it is possible to perform highly accurate focus detection regardless of the amount of contrast information for each direction of the subject. Further, since the correction values in the horizontal direction and the vertical direction are calculated using the common correction information as shown in FIG. 8A, the correction values are corrected as compared with the case where each correction value is stored for each direction. The storage capacity of information can be reduced.

また、方向ごとの焦点検出結果が大きく異なる場合には、これらの焦点検出結果を用いた縦横BP補正値の算出を行わないことにより、遠近競合の影響を低減することができる。さらに、遠近競合が想定される場合においても、方向ごとの焦点評価値の大小により補正値の重みづけを行うことにより、より高精度な補正を行うことができる。   In addition, when the focus detection results for each direction are greatly different, the influence of perspective conflict can be reduced by not calculating the vertical and horizontal BP correction values using these focus detection results. Furthermore, even when perspective conflict is assumed, more accurate correction can be performed by weighting the correction value based on the magnitude of the focus evaluation value for each direction.

(色BP補正値の算出方法)
次に、図9を用いて、図1AのS21で行う色BP補正値(BP2)の算出方法について説明する。図9(a)は、色BP補正値(BP2)の算出処理の詳細を示すフローチャートである。
(Calculation method of color BP correction value)
Next, a method for calculating the color BP correction value (BP2) performed in S21 of FIG. 1A will be described with reference to FIG. FIG. 9A is a flowchart showing details of the calculation process of the color BP correction value (BP2).

S200で、カメラMPU125は、S1で事前に設定された焦点検出領域に対応する色BP補正情報を取得する。色BP補正情報は、緑(G)の信号を用いて検出される合焦位置に対する他の色(赤(R)、青(B))の信号を用いて検出される合焦位置の差分情報である。本実施形態において色BP補正情報はレンズユニット100のレンズメモリ118に予め記憶されており、カメラMPU125は、レンズMPU117に要求して取得するものとするが、RAM125bの不揮発性領域に記憶されていてもよい。   In S200, the camera MPU 125 acquires color BP correction information corresponding to the focus detection area set in advance in S1. The color BP correction information is information on the difference in focus position detected using signals of other colors (red (R), blue (B)) with respect to the focus position detected using the green (G) signal. It is. In this embodiment, the color BP correction information is stored in advance in the lens memory 118 of the lens unit 100, and the camera MPU 125 is requested and acquired from the lens MPU 117, but is stored in the nonvolatile area of the RAM 125b. Also good.

分割ゾーン数が多いほど撮影光学系の第1レンズ群101の位置およびフォーカスレンズ104の位置に応じた高精度な補正値が得られる。また、色BP補正情報は、コントラストAF、位相差AFの両方に用いることができる。   As the number of divided zones increases, a highly accurate correction value corresponding to the position of the first lens group 101 and the position of the focus lens 104 of the photographing optical system can be obtained. The color BP correction information can be used for both contrast AF and phase difference AF.

S200でカメラMPU125は、補正対象となっている焦点検出結果に応じたズーム位置、フォーカスレンズ位置に対応した補正値を取得する。図9(b)および(c)は、色BP補正値の例を示す。ここでは、図6の中央の焦点検出領域219a、218ahに対応した色BP補正情報の例を示しているが、他の焦点検出領域219c、218chおよび219b、218bhについても色BP補正情報を記憶している。ただし、撮影光学系の光軸を挟んで対称な位置に存在する焦点検出領域の焦点検出補正値は設計上は等しい。本実施形態において、焦点検出領域219c、218chと219b、218bhとはこのような対象関係を満たすため、一方についてのみ色BP補正情報を記憶してもよい。また、焦点検出領域の位置によって補正値が大きく変化しない場合には、共通の値として記憶してもよい。   In S200, the camera MPU 125 acquires correction values corresponding to the zoom position and the focus lens position according to the focus detection result to be corrected. FIGS. 9B and 9C show examples of color BP correction values. Here, an example of the color BP correction information corresponding to the central focus detection areas 219a and 218ah in FIG. 6 is shown, but the color BP correction information is also stored for the other focus detection areas 219c and 218ch and 219b and 218bh. ing. However, the focus detection correction values of the focus detection areas existing at symmetrical positions across the optical axis of the photographing optical system are equal in design. In the present embodiment, since the focus detection areas 219c, 218ch and 219b, 218bh satisfy such a target relationship, color BP correction information may be stored for only one of them. If the correction value does not change greatly depending on the position of the focus detection area, it may be stored as a common value.

S201でカメラMPU125は、色BP補正値を算出する。S200で、図9(b)からBP_R、図9(c)からBP_Bを取得している場合、カメラMPU125は、色BP補正値BP2を以下の式(4)に従って算出する。
BP2=K_R×BP_R+K_B×BP_B …(4)
In step S201, the camera MPU 125 calculates a color BP correction value. In S200, when BP_R is acquired from FIG. 9B and BP_B is acquired from FIG. 9C, the camera MPU 125 calculates the color BP correction value BP2 according to the following equation (4).
BP2 = K_R × BP_R + K_B × BP_B (4)

また、K_RおよびK_Bは、各色の補正情報に対する係数である。被写体に含まれる緑(G)情報に対する赤(R)や青(B)の情報の大小関係と相関がある値で、赤い色を多く含む被写体に対しては、K_Rが大きな値を取り、青い色を多く含む被写体に対しては、K_Bが大きな値を取る。緑色を多く含む被写体に対しては、K_R、K_B共に小さい値を取る。K_R、K_Bは、被写体として代表的な分光情報に基づき、予め設定しておけばよい。被写体の分光情報を検出できる場合には、被写体の分光情報に応じてK_R、K_Bを設定すればよい。S201で色BP補正値の算出を終えると、カメラMPU125は、色BP補正値算出処理を終了する。   K_R and K_B are coefficients for the correction information of each color. For a subject that contains many red colors, K_R takes a large value and is blue for a value that correlates with the magnitude relationship of red (R) and blue (B) information with respect to green (G) information contained in the subject. For a subject that contains many colors, K_B takes a large value. For a subject containing a lot of green, both K_R and K_B take small values. K_R and K_B may be set in advance based on spectral information representative of the subject. When the spectral information of the subject can be detected, K_R and K_B may be set according to the spectral information of the subject. When the calculation of the color BP correction value is finished in S201, the camera MPU 125 ends the color BP correction value calculation process.

なお、本実施形態では、補正値を図8(a)や図9(b)及び図9(c)のように焦点検出領域ごとにテーブル形式で記憶するものとしたが、補正値の記憶方法については、これに限らない。例えば、図23(a)に示すように、撮像素子122と撮影光学系の光軸との交点を原点とし、撮像装置の水平方向、垂直方向をそれぞれX軸、Y軸とした座標を設定し、焦点検出領域の中心座標における補正値をXとYの関数で求めてもよい。この場合、焦点検出補正値として記憶すべき情報量を削減することができる。   In the present embodiment, correction values are stored in a table format for each focus detection area as shown in FIGS. 8A, 9B, and 9C. However, it is not limited to this. For example, as shown in FIG. 23A, coordinates are set with the intersection of the image sensor 122 and the optical axis of the imaging optical system as the origin, and the horizontal and vertical directions of the imaging device as the X axis and Y axis, respectively. The correction value at the center coordinate of the focus detection area may be obtained by a function of X and Y. In this case, the amount of information to be stored as the focus detection correction value can be reduced.

また、本実施形態では、縦横BP補正情報や色BP補正情報を用いて算出する焦点検出に用いる補正値を、被写体のパターンの持つ空間周波数情報によらないものとして算出した。そのため、記憶するべき補正情報の量を増やすことなく高精度な補正を行うことができる。しかしながら、補正値の算出方法は、これに限らない。後述する空間周波数BP補正値の算出方法と同様に、空間周波数ごとの縦横BP補正情報や色BP補正情報を用いて、被写体の空間周波数成分に合わせた補正値を算出してもよい。   In the present embodiment, the correction value used for focus detection calculated using the vertical / horizontal BP correction information and the color BP correction information is calculated based on the spatial frequency information of the subject pattern. Therefore, highly accurate correction can be performed without increasing the amount of correction information to be stored. However, the correction value calculation method is not limited to this. Similar to the method of calculating the spatial frequency BP correction value described later, a correction value that matches the spatial frequency component of the subject may be calculated using vertical / horizontal BP correction information and color BP correction information for each spatial frequency.

(空間周波数BP補正値の算出方法)
次に、図10を用いて、図1AのS22で行う空間周波数BP補正値(BP3)の算出方法について説明する。図10(a)は、空間周波数BP補正値(BP3)の算出処理の詳細を示すフローチャートである。
(Calculation method of spatial frequency BP correction value)
Next, a method of calculating the spatial frequency BP correction value (BP3) performed in S22 of FIG. 1A will be described using FIG. FIG. 10A is a flowchart showing details of the calculation processing of the spatial frequency BP correction value (BP3).

S300で、カメラMPU125は、S1で事前に設定された焦点検出領域に対応する空間周波数BP補正情報を取得する。空間周波数BP補正情報は、被写体の空間周波数ごとの撮影光学系の結像位置に関する情報である。本実施形態において空間周波数BP補正情報はレンズユニット100のレンズメモリ118に予め記憶されており、カメラMPU125は、レンズMPU117に要求して取得するものとするが、RAM125bの不揮発性領域に記憶されていてもよい。   In S300, the camera MPU 125 acquires spatial frequency BP correction information corresponding to the focus detection area set in advance in S1. The spatial frequency BP correction information is information relating to the imaging position of the photographing optical system for each spatial frequency of the subject. In this embodiment, the spatial frequency BP correction information is stored in advance in the lens memory 118 of the lens unit 100, and the camera MPU 125 is requested and acquired from the lens MPU 117, but is stored in the nonvolatile area of the RAM 125b. May be.

なお、本実施形態では、空間周波数BP補正情報を焦点検出領域ごとに記憶するものとしたが、補正値の記憶方法については、これに限らない。例えば、図23(a)に示すように、撮像素子と撮影光学系の光軸との交点を原点とし、撮像素子122の水平方向、垂直方向をそれぞれX軸、Y軸とした座標を設定し、焦点検出領域の中心座標における補正値をXとYの関数で求めてもよい。この場合、焦点検出補正値として記憶すべき情報量を削減することができる。   In this embodiment, the spatial frequency BP correction information is stored for each focus detection area. However, the correction value storage method is not limited to this. For example, as shown in FIG. 23A, coordinates are set with the intersection of the image sensor and the optical axis of the imaging optical system as the origin, and the horizontal and vertical directions of the image sensor 122 as the X axis and the Y axis, respectively. The correction value at the center coordinate of the focus detection area may be obtained by a function of X and Y. In this case, the amount of information to be stored as the focus detection correction value can be reduced.

撮影光学系のデフォーカス変調伝達関数(MTF:Modulation Transfer Function)を示す図10(b)を用いて、空間周波数BP補正情報の例を説明する。図10(b)の横軸はフォーカスレンズ104の位置を、縦軸はMTFの強度を示している。図10(b)に描かれている4種の曲線は、空間周波数ごとのMTF曲線で、MTF1、MTF2、MTF3、MTF4の順に、空間周波数が低い方から高い方を示している。空間周波数F1(lp/mm)のMTF曲線がMTF1と対応し、同様に、空間周波数F2,F3,F4(lp/mm)とMTF2、MTF3、MTF4がそれぞれ対応する。また、LP4、LP5、LP、LPは、各デフォーカスMTF曲線の極大値に対応するフォーカスレンズ104の位置を示している。なお、記憶されている空間周波数BP補正情報は図10(b)の曲線を離散的にサンプリングしたものである。一例として本実施形態では、1つのMTF曲線に対して10個のフォーカスレンズ位置でMTFデータがサンプリングされており、例えば、MTF1に対しては、MTF1(n)(1≦n≦10)として10個のデータを記憶している。 An example of the spatial frequency BP correction information will be described with reference to FIG. 10B showing a defocus modulation transfer function (MTF) of the photographing optical system. In FIG. 10B, the horizontal axis indicates the position of the focus lens 104, and the vertical axis indicates the intensity of the MTF. The four types of curves depicted in FIG. 10B are MTF curves for each spatial frequency and indicate the higher spatial frequency in the order of MTF1, MTF2, MTF3, and MTF4. The MTF curve of the spatial frequency F1 (lp / mm) corresponds to MTF1, and similarly, the spatial frequencies F2, F3, and F4 (lp / mm) correspond to MTF2, MTF3, and MTF4, respectively. Further, LP4, LP5, LP 6, LP 7 shows the position of the focus lens 104 corresponding to the maximum value of the defocus MTF curve. The stored spatial frequency BP correction information is obtained by discretely sampling the curve of FIG. As an example, in the present embodiment, MTF data is sampled at 10 focus lens positions with respect to one MTF curve. For example, MTF1 (n) (1 ≦ n ≦ 10) is 10 for MTF1. Data is stored.

空間周波数BP補正情報は、縦横BP補正情報や色BP補正情報と同様、焦点検出領域の位置ごとに撮影光学系のズーム位置(画角)とフォーカスレンズ位置(合焦距離)を8つのゾーンに分割し、ゾーンごとに記憶する。分割ゾーン数が多いほど撮影光学系の第1レンズ群101の位置およびフォーカスレンズ104の位置に応じた高精度な補正値が得られる。また、空間周波数BP補正情報は、コントラストAF、位相差AFの両方に用いることができる。   Spatial frequency BP correction information, like vertical and horizontal BP correction information and color BP correction information, has eight zones for the zoom position (view angle) and focus lens position (focus distance) of the photographing optical system for each position of the focus detection area. Divide and store for each zone. As the number of divided zones increases, a highly accurate correction value corresponding to the position of the first lens group 101 and the position of the focus lens 104 of the photographing optical system can be obtained. The spatial frequency BP correction information can be used for both contrast AF and phase difference AF.

S300でカメラMPU125は、補正対象となっている焦点検出結果に応じたズーム位置、フォーカスレンズ位置に対応した補正値を取得する。S301でカメラMPU125は、補正対象となっている焦点検出領域において、コントラストAFや位相差AFを行う際に用いられる信号の帯域を算出する。本実施形態でカメラMPU125は、被写体、撮影光学系、撮像素子のサンプリング周波数、評価に用いるデジタルフィルタの影響を鑑みて、AF評価帯域を算出する。AF評価帯域の算出方法は後述する。   In S300, the camera MPU 125 acquires correction values corresponding to the zoom position and the focus lens position according to the focus detection result to be corrected. In step S <b> 301, the camera MPU 125 calculates a band of a signal used when performing contrast AF or phase difference AF in the focus detection area to be corrected. In this embodiment, the camera MPU 125 calculates the AF evaluation band in view of the influence of the subject, the photographing optical system, the sampling frequency of the image sensor, and the digital filter used for evaluation. A method for calculating the AF evaluation band will be described later.

次に、S302でカメラMPU125は、撮影画像に用いられる信号の帯域を算出する。S302のAF評価帯域の算出と同様にカメラMPU125は、被写体、撮影光学系、および撮像素子の周波数特性、撮影画像の鑑賞者の評価帯域の影響を鑑みて、撮影画像評価帯域を算出する。   Next, in S302, the camera MPU 125 calculates a band of a signal used for the captured image. Similar to the calculation of the AF evaluation band in S302, the camera MPU 125 calculates the shot image evaluation band in consideration of the frequency characteristics of the subject, the shooting optical system, and the image sensor, and the influence of the evaluation band of the viewer of the shot image.

ここで図11を用いて、S301、S302で行うAF評価帯域、撮影画像評価帯域の算出について説明する。図11は、いずれも空間周波数ごとの強度を示しており、横軸に空間周波数、縦軸に強度を示している。   Here, the calculation of the AF evaluation band and the captured image evaluation band performed in S301 and S302 will be described with reference to FIG. FIG. 11 shows the intensity for each spatial frequency, with the horizontal axis indicating the spatial frequency and the vertical axis indicating the intensity.

図11(a)は、被写体の空間周波数特性(I)を示している。横軸上のF1,F2,F3,F4は、図10(b)のMTF曲線(MTF1〜MTF4)と対応した空間周波数である。また、Nqは、撮像素子122の画素ピッチにより決まるナイキスト周波数を示している。F1からF4とNqについては、以後説明する図11(b)から図11(f)にも同様に示している。本実施形態では、被写体の空間周波数特性(I)は、事前に記憶した代表値を用いる。図11(a)では、被写体の空間周波数特性(I)は連続した曲線で描かれているが、空間周波数F1,F2,F3,F4に対応した離散値I(n)(1≦n≦4)を有する。   FIG. 11A shows the spatial frequency characteristic (I) of the subject. F1, F2, F3, and F4 on the horizontal axis are spatial frequencies corresponding to the MTF curves (MTF1 to MTF4) in FIG. Nq represents the Nyquist frequency determined by the pixel pitch of the image sensor 122. F1 to F4 and Nq are similarly shown in FIGS. 11B to 11F described later. In this embodiment, a representative value stored in advance is used as the spatial frequency characteristic (I) of the subject. In FIG. 11A, the spatial frequency characteristic (I) of the subject is drawn as a continuous curve, but a discrete value I (n) (1 ≦ n ≦ 4) corresponding to the spatial frequencies F1, F2, F3, and F4. ).

また、本実施形態では、被写体の空間周波数特性として予め記憶された代表値を用いたが、焦点検出を行う被写体に応じて、用いる被写体の空間周波数特性を変更してもよい。撮影した画像信号にFFT処理などを適用することにより、被写体の空間周波数情報(パワースペクトル)を得ることができる。この場合、演算処理が増加するが、実際に焦点検出する被写体に応じた補正値を算出できるため、高精度な焦点検出が可能となる。また、より簡易的に、被写体のコントラスト情報の大小によって、予め記憶された数種の空間周波数特性を使い分けてもよい。   In this embodiment, the representative value stored in advance as the spatial frequency characteristic of the subject is used. However, the spatial frequency characteristic of the subject to be used may be changed according to the subject for which focus detection is performed. The spatial frequency information (power spectrum) of the subject can be obtained by applying FFT processing or the like to the captured image signal. In this case, the calculation processing increases, but since a correction value corresponding to the subject for which focus detection is actually performed can be calculated, focus detection with high accuracy is possible. Further, several types of spatial frequency characteristics stored in advance may be properly used depending on the magnitude of the contrast information of the subject.

図11(b)は、撮影光学系の空間周波数特性(O)である。この情報は、レンズMPU117を通じて得てもよいし、カメラ内のRAM125bに記憶しておいてもよい。記憶する情報は、デフォーカス状態ごとの空間周波数特性でもよいし、合焦時の空間周波数特性のみでもよい。空間周波数BP補正値は合焦近傍で算出するため、合焦時の空間周波数特性を用いれば、高精度に補正を行うことができる。ただし、演算負荷は増えるものの、デフォーカス状態ごとの空間周波数特性を用いると、より高精度に焦点調節を行うことができる。どのデフォーカス状態の空間周波数特性を用いるかについては、位相差AFにより得られるデフォーカス量を用いて選択すればよい。図11(b)では、撮影光学系の空間周波数特性(O)は連続した曲線で描かれているが、空間周波数F1,F2,F3,F4に対応した離散値O(n)(1≦n≦4)を有する。   FIG. 11B is a spatial frequency characteristic (O) of the photographing optical system. This information may be obtained through the lens MPU 117 or may be stored in the RAM 125b in the camera. The stored information may be a spatial frequency characteristic for each defocus state or only a spatial frequency characteristic at the time of focusing. Since the spatial frequency BP correction value is calculated in the vicinity of in-focus, correction can be performed with high accuracy by using the spatial frequency characteristics at the time of in-focus. However, although the calculation load increases, focus adjustment can be performed with higher accuracy by using the spatial frequency characteristics for each defocus state. What defocus state spatial frequency characteristic to use may be selected using the defocus amount obtained by the phase difference AF. In FIG. 11B, the spatial frequency characteristic (O) of the photographic optical system is drawn as a continuous curve, but a discrete value O (n) (1 ≦ n) corresponding to the spatial frequencies F1, F2, F3, and F4. ≦ 4).

図11(c)は、光学ローパスフィルタ121の空間周波数特性(L)である。この情報は、カメラ内のRAM125bに記憶されている。図11(c)では、光学ローパスフィルタ121の空間周波数特性(L)は、連続した曲線で描かれているが、空間周波数F1,F2,F3,F4に対応した離散値L(n)(1≦n≦4)を有する。   FIG. 11C shows the spatial frequency characteristic (L) of the optical low-pass filter 121. This information is stored in the RAM 125b in the camera. In FIG. 11C, the spatial frequency characteristic (L) of the optical low-pass filter 121 is drawn as a continuous curve, but the discrete value L (n) (1) corresponding to the spatial frequencies F1, F2, F3, and F4. ≦ n ≦ 4).

図11(d)は、信号生成による空間周波数特性(M1,M2)である。上述の通り、本実施形態の撮像素子は2種類の読み出しモードを有する。第1の読み出しモード、すなわち全画素読み出しモードでは、M1として示すように、信号生成時に空間周波数特性が変わることはない。一方で、第2の読み出しモード、すなわち間引き読み出しモードの際には、M2で示すように信号生成時に空間周波数特性が変わる。上述の通り、X方向の間引きの際に信号の加算を行いS/Nの改善を図るため、加算によるローパス効果が発生する。図11(d)のM2は、第2の読み出しモードの際の信号生成時の空間周波数特性を示している。ここでは、間引きの影響は加味せず、加算によるローパス効果を示している。図11(d)では、信号生成による空間周波数特性(M1,M2)が連続した曲線で描かれているが、空間周波数F1,F2,F3,F4に対応した離散値M1(n),M2(n)(1≦n≦4)を有する。   FIG. 11D shows spatial frequency characteristics (M1, M2) by signal generation. As described above, the image sensor of this embodiment has two types of readout modes. In the first readout mode, that is, the all-pixel readout mode, the spatial frequency characteristics do not change during signal generation, as indicated by M1. On the other hand, in the second reading mode, that is, the thinning-out reading mode, the spatial frequency characteristic changes at the time of signal generation as indicated by M2. As described above, a signal is added at the time of decimation in the X direction to improve the S / N, so that a low-pass effect due to the addition occurs. M2 in FIG. 11D indicates a spatial frequency characteristic during signal generation in the second readout mode. Here, the influence of thinning is not taken into account, and the low-pass effect by addition is shown. In FIG. 11D, the spatial frequency characteristics (M1, M2) due to signal generation are drawn by continuous curves, but discrete values M1 (n), M2 (corresponding to the spatial frequencies F1, F2, F3, F4 ( n) (1 ≦ n ≦ 4).

図11(e)は、撮影画像を鑑賞する際の空間周波数ごとの感度を示す空間周波数特性(D1)とAF評価信号の処理時に用いるデジタルフィルタの空間周波数特性(D2)を示している。撮影画像を鑑賞する際の空間周波数ごとの感度は、鑑賞者の個人差や、画像サイズや鑑賞距離、明るさなどの鑑賞環境などにより影響を受ける。本実施形態では、代表的な値として、鑑賞時の空間周波数ごとの感度を設定し、記憶している。一方で、第2の読み出しモードの際には、間引きの影響で、信号の周波数成分の折り返しノイズ(エイリアシング)が発生する。その影響を加味して、デジタルフィルタの空間周波数特性を示したのがD2である。図11(e)では、鑑賞時の空間周波数特性(D1)とデジタルフィルタの空間周波数特性(D2)は、曲線で描かれているが、空間周波数F1,F2,F3,F4に対応した離散値D1(n)、D2(n)(1≦n≦4)を有する。   FIG. 11E shows the spatial frequency characteristic (D1) indicating the sensitivity for each spatial frequency when viewing a captured image and the spatial frequency characteristic (D2) of the digital filter used when processing the AF evaluation signal. Sensitivity for each spatial frequency at the time of appreciating a photographed image is affected by individual differences among viewers, viewing environment such as image size, viewing distance, and brightness. In this embodiment, the sensitivity for each spatial frequency during viewing is set and stored as a representative value. On the other hand, in the second readout mode, aliasing noise (aliasing) of the frequency component of the signal occurs due to the influence of thinning. In consideration of the influence, D2 shows the spatial frequency characteristics of the digital filter. In FIG. 11 (e), the spatial frequency characteristic (D1) at the time of viewing and the spatial frequency characteristic (D2) of the digital filter are drawn as curves, but are discrete values corresponding to the spatial frequencies F1, F2, F3, and F4. D1 (n), D2 (n) (1 ≦ n ≦ 4).

以上のように、種々の情報を、カメラ、レンズのいずれかに記憶しておくことにより、カメラMPU125は撮影画像の評価帯域W1やAF評価帯域W2を以下の式(5),(6)に基づいて算出する。
W1(n)=I(n)×O(n)×L(n)×M1(n)×D1(n)
(1≦n≦4) …(5)
W2(n)=I(n)×O(n)×L(n)×M2(n)×D2(n)
(1≦n≦4) …(6)
As described above, by storing various pieces of information in either the camera or the lens, the camera MPU 125 sets the evaluation band W1 and AF evaluation band W2 of the captured image to the following equations (5) and (6). Calculate based on
W1 (n) = I (n) × O (n) × L (n) × M1 (n) × D1 (n)
(1 ≦ n ≦ 4) (5)
W2 (n) = I (n) * O (n) * L (n) * M2 (n) * D2 (n)
(1 ≦ n ≦ 4) (6)

図11(f)に、撮影画像の評価帯域W1とAF評価帯域W2を示す。式(5)や式(6)のような計算を行うことにより、撮影画像の合焦状態を決定する因子に対して、空間周波数毎に、どの程度の影響度合いを有するかを定量化することができる。同様に、焦点検出結果が有する誤差が、空間周波数毎に、どの程度の影響度合いを有するかを定量化することができる。   FIG. 11F shows the evaluation band W1 and AF evaluation band W2 of the captured image. Quantifying the degree of influence of each spatial frequency on the factor that determines the in-focus state of the captured image by performing calculations such as Expression (5) and Expression (6) Can do. Similarly, it is possible to quantify how much influence the error of the focus detection result has for each spatial frequency.

また、カメラ内に記憶する情報は、事前に計算されたW1やW2を記憶していてもよい。上述のように、補正の度に計算することにより、AF評価の際に用いるデジタルフィルタ等を変更した際に、柔軟に対応して補正値を算出できる。一方で、事前に記憶しておけば、式(5)や式(6)のような計算や各種データの記憶容量を削減することができる。   The information stored in the camera may store W1 and W2 calculated in advance. As described above, by calculating each correction, the correction value can be calculated flexibly when the digital filter or the like used for AF evaluation is changed. On the other hand, if they are stored in advance, calculations such as Equation (5) and Equation (6) and the storage capacity of various data can be reduced.

また、全ての計算を事前に終えておく必要はないため、例えば、撮影光学系と被写体の空間周波数特性のみは予め計算し、カメラ内に記憶することにより、データの記憶容量の低減や演算量の低減を行ってもよい。   In addition, since it is not necessary to finish all calculations in advance, for example, only the spatial frequency characteristics of the photographing optical system and the subject are calculated in advance and stored in the camera, thereby reducing the data storage capacity and the calculation amount. May be reduced.

図11では、説明を簡易にするため、4つの空間周波数(F1〜F4)に対応する離散値を用いて説明した。しかし、データを有する空間周波数の数は、多いほど、撮影画像やAFの評価帯域の空間周波数特性を正確に再現することができ、精度のよい補正値の算出を行うことができる。一方で、重みづけを行う空間周波数を少なくすることにより、演算量を低減することができる。撮影画像の評価帯域とAF評価帯域の空間周波数特性を代表する空間周波数を各々1つずつ持ち、以後の演算を行ってもよい。   In FIG. 11, in order to simplify the description, the description has been made using discrete values corresponding to the four spatial frequencies (F1 to F4). However, as the number of spatial frequencies having data increases, the spatial frequency characteristics of the captured image and the AF evaluation band can be accurately reproduced, and the correction value can be calculated with high accuracy. On the other hand, the amount of calculation can be reduced by reducing the spatial frequency for weighting. It is also possible to have one spatial frequency representative of the spatial frequency characteristics of the evaluation band of the photographed image and the AF evaluation band, and perform subsequent calculations.

図10(a)に戻り、S303でカメラMPU125は、空間周波数BP補正値(BP3)を算出する。空間周波数BP補正値の算出を行うに際し、カメラMPU125は、まず、撮影画像のデフォーカスMTF(C1)と焦点検出信号のデフォーカスMTF(C2)を算出する。C1,C2は、S300で得たデフォーカスMTF情報と、S301、S302で得た評価帯域W1,W2を用いて、以下の式(7)に従って算出する。
C1(n)=MTF1(n)×W1(1)+MTF2(n)×W1(2)+MTF3(n)×W1(3)+MTF4(n)×W1(4) …(7)
C2(n)=MTF1(n)×W2(1)+MTF2(n)×W2(2)+MTF3(n)×W2(3)+MTF4(n)×W2(4) …(8)
Returning to FIG. 10A, in step S303, the camera MPU 125 calculates a spatial frequency BP correction value (BP3). When calculating the spatial frequency BP correction value, the camera MPU 125 first calculates the defocus MTF (C1) of the captured image and the defocus MTF (C2) of the focus detection signal. C1 and C2 are calculated according to the following equation (7) using the defocus MTF information obtained in S300 and the evaluation bands W1 and W2 obtained in S301 and S302.
C1 (n) = MTF1 (n) × W1 (1) + MTF2 (n) × W1 (2) + MTF3 (n) × W1 (3) + MTF4 (n) × W1 (4) (7)
C2 (n) = MTF1 (n) × W2 (1) + MTF2 (n) × W2 (2) + MTF3 (n) × W2 (3) + MTF4 (n) × W2 (4) (8)

このように、図10(b)で示した空間周波数ごとのデフォーカスMTF情報を、S301、S302で算出した撮影画像やAFの評価帯域の重みづけに基づいて加算し、撮影画像のデフォーカスMTF(C1)とAFのデフォーカスMTF(C2)を得る。図10(c)に、得られた2つのデフォーカスMTFであるC1,C2を示している。横軸はフォーカスレンズ104の位置で、縦軸は、空間周波数毎に重み付け加算されたMTFの値となっている。カメラMPU125は、各々のMTF曲線の極大値位置を検出する。曲線C1の極大値と対応するフォーカスレンズ104の位置としてP_imgが検出される。曲線C2の極大値と対応するフォーカスレンズ104の位置としてP_AFが検出される。   In this way, the defocus MTF information for each spatial frequency shown in FIG. 10B is added based on the captured image calculated in S301 and S302 and the weight of the AF evaluation band, and the defocus MTF of the captured image is added. (C1) and AF defocus MTF (C2) are obtained. FIG. 10 (c) shows two obtained defocus MTFs C1 and C2. The horizontal axis represents the position of the focus lens 104, and the vertical axis represents the MTF value obtained by weighted addition for each spatial frequency. The camera MPU 125 detects the local maximum position of each MTF curve. P_img is detected as the position of the focus lens 104 corresponding to the maximum value of the curve C1. P_AF is detected as the position of the focus lens 104 corresponding to the maximum value of the curve C2.

S303でカメラMPU125は、空間周波数BP補正値(BP3)を以下の式(9)により算出する。
BP3=P_AF−P_img …(9)
In S303, the camera MPU 125 calculates the spatial frequency BP correction value (BP3) by the following equation (9).
BP3 = P_AF−P_img (9)

式(9)により、撮影画像の合焦位置とAFで検出される合焦位置の間で発生しうる誤差を補正するための補正値を補正することができる。   According to Expression (9), it is possible to correct a correction value for correcting an error that may occur between the focus position of the captured image and the focus position detected by AF.

上述したように撮影画像の合焦位置は、被写体、撮影光学系、および光学ローパスフィルタのそれぞれの空間周波数特性、信号生成時の空間周波数特性、鑑賞時の周波数ごとの感度を示す空間周波数特性や、撮影画像に施される画像処理などによって変化する。本実施形態では、撮影画像の生成過程に遡って空間周波数特性を算出することにより、高精度に撮影画像の合焦位置を算出することができる。例えば、撮影画像の記録サイズや、画像処理で行われる超解像処理、シャープネスなどによって、撮影画像の合焦位置を変更する。また、撮影画像の記録後に、どの程度の画像サイズや拡大率で鑑賞されるかや鑑賞する際の鑑賞距離などは、鑑賞者の評価帯域に影響を与える。そして、画像サイズが大きくなるほど、また、鑑賞距離が短くなるほど、鑑賞者の評価帯域を高周波成分に重きを置いた特性とすることで、撮影画像の合焦位置も変更される。   As described above, the in-focus position of the captured image is determined by the spatial frequency characteristics of the subject, the imaging optical system, and the optical low-pass filter, the spatial frequency characteristics at the time of signal generation, and the spatial frequency characteristics indicating the sensitivity for each frequency during viewing. It varies depending on the image processing applied to the photographed image. In the present embodiment, the in-focus position of the photographed image can be calculated with high accuracy by calculating the spatial frequency characteristics going back to the process of generating the photographed image. For example, the in-focus position of the photographed image is changed by the recording size of the photographed image, super-resolution processing performed by image processing, sharpness, or the like. In addition, after recording a photographed image, the degree of image size and the magnification rate at which the image is viewed, the viewing distance for viewing, and the like affect the evaluation band of the viewer. As the image size becomes larger and the viewing distance becomes shorter, the focus position of the photographed image is also changed by setting the appreciator's evaluation band to emphasize the high frequency component.

一方で、AFが検出する合焦位置も同様に、被写体、撮影光学系、および光学ローパスフィルタそれぞれの空間周波数特性、信号生成時の空間周波数特性、AF評価に用いるデジタルフィルタ空間周波数特性などにより変化する。本実施形態では、AFに用いられる信号が生成される過程に遡って空間周波数特性を算出することにより、高精度にAFが検出する合焦位置を算出することができる。例えば、第1の読み出しモードでAFを行う際にも柔軟に対応できる。その場合には、信号生成時の空間周波数特性を、第1の読み出しモードに対応した特性に変更して、重みづけ係数を算出すればよい。   On the other hand, the in-focus position detected by AF also varies depending on the spatial frequency characteristics of the subject, the imaging optical system, and the optical low-pass filter, the spatial frequency characteristics at the time of signal generation, the digital filter spatial frequency characteristics used for AF evaluation, etc. To do. In the present embodiment, the in-focus position detected by the AF can be calculated with high accuracy by calculating the spatial frequency characteristics going back to the process of generating the signal used for the AF. For example, it is possible to flexibly cope with AF in the first reading mode. In that case, the weighting coefficient may be calculated by changing the spatial frequency characteristic at the time of signal generation to a characteristic corresponding to the first readout mode.

また、本実施形態で説明した撮像装置は、レンズ交換式一眼レフカメラであるため、レンズユニット100の交換が可能である。レンズユニット100が交換された場合、レンズMPU117は各空間周波数に対応したデフォーカスMTF情報を、カメラ本体120に送信する。そして、カメラMPU125が、撮影画像の合焦位置やAFが検出する合焦位置を算出するので、交換レンズ毎に高精度な補正値の算出を行うことができる。レンズユニット100は、デフォーカスMTF情報だけでなく、撮影光学系の空間周波数特性などの情報もカメラ本体120に送信してもよい。その情報の活用方法は、上述のとおりである。   In addition, since the imaging apparatus described in this embodiment is a lens interchangeable single-lens reflex camera, the lens unit 100 can be replaced. When the lens unit 100 is replaced, the lens MPU 117 transmits defocus MTF information corresponding to each spatial frequency to the camera body 120. Since the camera MPU 125 calculates the in-focus position of the captured image and the in-focus position detected by the AF, it is possible to calculate a highly accurate correction value for each interchangeable lens. The lens unit 100 may transmit not only the defocus MTF information but also information such as the spatial frequency characteristics of the photographing optical system to the camera body 120. The method of using the information is as described above.

また、同様に、カメラ本体120を交換した場合には、画素ピッチや光学ローパスフィルタの特性などが変わる場合がある。上述の通り、そのような場合でも、カメラ本体120の特性に合わせた補正値が算出されるため、高精度に補正を行うことができる。   Similarly, when the camera body 120 is replaced, the pixel pitch, the characteristics of the optical low-pass filter, and the like may change. As described above, even in such a case, a correction value that matches the characteristics of the camera body 120 is calculated, so that correction can be performed with high accuracy.

上述の説明では、補正値の計算をカメラMPU125で行ったが、レンズMPU117で行ってもよい。その場合には、カメラMPU125から、レンズMPU117に対して、図11を用いて説明した各種情報を送信し、レンズMPU117がデフォーカスMTF情報などを用いて補正値を算出してもよい。この場合、図1AのS24で、カメラMPU125から送信された合焦位置に対して、レンズMPU117が補正を施して、レンズ駆動を行えばよい。   In the above description, the correction value is calculated by the camera MPU 125, but may be calculated by the lens MPU 117. In that case, the camera MPU 125 may transmit various information described with reference to FIG. 11 to the lens MPU 117, and the lens MPU 117 may calculate a correction value using the defocus MTF information or the like. In this case, the lens MPU 117 may correct the focus position transmitted from the camera MPU 125 and drive the lens in S24 of FIG. 1A.

本実施形態では、焦点検出に用いる信号の特性(縦横、色、空間周波数帯域)に着目して、AF用の補正値を算出している。そのため、AFの方式によらず、同様の方法で、補正値の算出を行うことができる。AF方式毎に、補正方法、補正に用いるデータを有する必要がないため、データの記憶容量、演算負荷の低減を行うことができる。   In the present embodiment, the correction value for AF is calculated by paying attention to the characteristics (vertical and horizontal, color, spatial frequency band) of the signal used for focus detection. Therefore, the correction value can be calculated by the same method regardless of the AF method. Since it is not necessary to have a correction method and data used for correction for each AF method, it is possible to reduce data storage capacity and calculation load.

●(第2の実施形態)
次に、本発明の第2の実施形態について説明する。第1の実施形態との主な違いは、空間周波数BP補正値の算出方法が異なる点である。第1の実施形態では、撮影光学系の空間周波数ごとの特性を表す値としてデフォーカスMTF情報を用いた。しかしながら、デフォーカスMTF情報は、データ量が多く、記憶容量、演算負荷が大きくなるため、第2の実施形態では、デフォーカスMTFの極大値情報を用いて空間周波数BP補正値を算出する。これにより、レンズメモリ118もしくはRAM125bの容量を節約し、レンズ−カメラ間の通信容量の低減、カメラMPU125で行う演算負荷の低減などが実現できる。
● (Second Embodiment)
Next, a second embodiment of the present invention will be described. The main difference from the first embodiment is that the calculation method of the spatial frequency BP correction value is different. In the first embodiment, the defocus MTF information is used as a value representing the characteristic for each spatial frequency of the photographing optical system. However, since the defocus MTF information has a large amount of data, a large storage capacity, and a large calculation load, in the second embodiment, the spatial frequency BP correction value is calculated using the maximum value information of the defocus MTF. Thereby, it is possible to save the capacity of the lens memory 118 or the RAM 125b, to reduce the communication capacity between the lens and the camera, and to reduce the calculation load performed by the camera MPU 125.

なお、撮像装置のブロック図(図2)、各焦点検出方式の説明図(図3から図5)、焦点検出領域の説明図(図6)、焦点検出処理および各種BP補正値算出処理のフローチャート(図1A及び図1B、図7、図9(a))は、本実施形態においても流用する。また、空間周波数BP補正値算出処理のフローチャート(図10(a))および各評価帯域の説明図(図11)についても流用する。 The block diagram of the imaging apparatus (FIG. 2), the explanatory diagrams of the respective focus detection methods (FIGS. 3 to 5), the explanatory diagram of the focus detection area (FIG. 6), the flowchart of the focus detection process and various BP correction value calculation processes. (FIGS. 1A and 1B , FIG. 7, and FIG. 9A) are also used in this embodiment. The flowchart of the spatial frequency BP correction value calculation process (FIG. 10A) and the explanatory diagram of each evaluation band (FIG. 11) are also used.

本実施形態における空間周波数BP補正値(BP3)の算出方法を、図12を用いて説明する。S300で、カメラMPU125は空間周波数BP補正情報を取得する。   A method of calculating the spatial frequency BP correction value (BP3) in the present embodiment will be described with reference to FIG. In S300, the camera MPU 125 acquires spatial frequency BP correction information.

図12は、撮影光学系の特性である空間周波数ごとのデフォーカスMTFの極大値を示すフォーカスレンズ104位置を示している。図10(b)に示した離散的な空間周波数F1からF4について、デフォーカスMTFがピーク(極大値)となるフォーカスレンズ位置LP4、LP5、LP6、LP7が縦軸に示されている。本実施形態では、このLP4〜LP7を、MTF_P(n)(1≦n≦4)としてレンズメモリ118またはRAM125bに記憶する。記憶されている情報が、焦点検出領域の位置、ズーム位置やフォーカスレンズ位置に対応していることは、第1の実施形態と同様である。   FIG. 12 shows the position of the focus lens 104 indicating the maximum value of the defocus MTF for each spatial frequency, which is a characteristic of the photographing optical system. For the discrete spatial frequencies F1 to F4 shown in FIG. 10B, the focus lens positions LP4, LP5, LP6, and LP7 at which the defocus MTF reaches a peak (maximum value) are shown on the vertical axis. In this embodiment, these LP4 to LP7 are stored in the lens memory 118 or the RAM 125b as MTF_P (n) (1 ≦ n ≦ 4). As in the first embodiment, the stored information corresponds to the position of the focus detection area, the zoom position, and the focus lens position.

第2の実施形態では、図10(a)に示した空間周波数BP補正値処理のS300で、カメラMPU125は、補正対象となっている焦点検出結果に応じたズーム位置、フォーカスレンズ位置に対応した補正値を取得する。S301、S302でカメラMPU125は、第1の実施形態と同様の処理を行う。   In the second embodiment, in S300 of the spatial frequency BP correction value processing shown in FIG. 10A, the camera MPU 125 corresponds to the zoom position and the focus lens position corresponding to the focus detection result that is the correction target. Get the correction value. In S301 and S302, the camera MPU 125 performs the same processing as in the first embodiment.

S303でカメラMPU125は、空間周波数BP補正値(BP3)を算出する。空間周波数BP補正値の算出を行うに際し、カメラMPU125はまず、撮影画像の合焦位置(P_img)とAFが検出する合焦位置(P_AF)を、以下の式(10)および(11)に従って算出する。算出には、S300で得たデフォーカスMTF情報MTF_P(n)と、S301、S302で得た評価帯域W1,W2を用いる。
P_img=MTF_P(1)×W1(1)+MTF_P(2)×W1(2)+MTF_P(3)×W1(3)+MTF_P(4)×W1(4) …(10)
P_AF=MTF_P(1)×W2(1)+MTF_P(2)×W2(2)+MTF_P(3)×W2(3)+MTF_P(4)×W2(4) …(11)
In S303, the camera MPU 125 calculates a spatial frequency BP correction value (BP3). When calculating the spatial frequency BP correction value, the camera MPU 125 first calculates the in-focus position (P_img) of the captured image and the in-focus position (P_AF) detected by the AF according to the following equations (10) and (11). To do. For the calculation, the defocus MTF information MTF_P (n) obtained in S300 and the evaluation bands W1 and W2 obtained in S301 and S302 are used.
P_img = MTF_P (1) × W1 (1) + MTF_P (2) × W1 (2) + MTF_P (3) × W1 (3) + MTF_P (4) × W1 (4) (10)
P_AF = MTF_P (1) × W2 (1) + MTF_P (2) × W2 (2) + MTF_P (3) × W2 (3) + MTF_P (4) × W2 (4) (11)

つまり、図12で示した空間周波数ごとのデフォーカスMTFの極大値情報MTF_P(n)を、S301、S302で算出した撮影画像やAFの評価帯域W1,W2で重みづけ加算する。それにより、撮影画像の合焦位置(P_img)とAFが検出する合焦位置(P_AF)を算出している。   That is, the maximum value information MTF_P (n) of the defocus MTF for each spatial frequency shown in FIG. 12 is weighted and added with the captured image calculated in S301 and S302 and the AF evaluation bands W1 and W2. Thereby, the focus position (P_img) of the captured image and the focus position (P_AF) detected by the AF are calculated.

次にカメラMPU125は、空間周波数BP補正値(BP3)を、第1の実施形態と同様に、以下の式(9)により算出する。
BP3=P_AF−P_img …(9)
Next, the camera MPU 125 calculates the spatial frequency BP correction value (BP3) by the following equation (9), as in the first embodiment.
BP3 = P_AF−P_img (9)

上記の通り、第2の実施形態によれば、空間周波数BP補正値をより簡便に算出することができる。第2の実施形態では、空間周波数BP補正値の精度は第1の実施形態より若干劣るが、空間周波数BP補正値を算出するために記憶しておく情報量の削減、レンズ−カメラ間の通信量の削減、カメラMPU125で行う演算負荷の低減が実現できる。   As described above, according to the second embodiment, the spatial frequency BP correction value can be calculated more easily. In the second embodiment, the accuracy of the spatial frequency BP correction value is slightly inferior to that of the first embodiment, but the amount of information stored for calculating the spatial frequency BP correction value is reduced, and communication between the lens and the camera is performed. Reduction of the amount and calculation load performed by the camera MPU 125 can be realized.

●(第3の実施形態)
次に、本発明の第3の実施形態について説明する。本実施形態も空間周波数BP補正値の算出方法が上述の実施形態と異なる。本実施形態では、空間周波数BP補正値を算出する必要性がない場合には算出しないことにより、空間周波数BP補正値の精度を低下させずに、レンズ−カメラ間の通信容量の低減やカメラMPU125で行う演算負荷を低減する。
● (Third embodiment)
Next, a third embodiment of the present invention will be described. This embodiment is also different from the above-described embodiment in the method of calculating the spatial frequency BP correction value. In this embodiment, the calculation is not performed when there is no need to calculate the spatial frequency BP correction value, thereby reducing the communication capacity between the lens and the camera and the camera MPU 125 without reducing the accuracy of the spatial frequency BP correction value. Reduce the computational load performed by.

なお、撮像装置のブロック図(図2)、各焦点検出方式の説明図(図3から図5)、焦点検出領域の説明図(図6)、焦点検出処理および各種BP補正値算出処理のフローチャート(図1A及び図1B、図7、図9(a))は、本実施形態においても流用する。また、空間周波数BP補正値算出処理に関する図(図10(b)〜図10(c))についても流用する。 The block diagram of the imaging apparatus (FIG. 2), the explanatory diagrams of the respective focus detection methods (FIGS. 3 to 5), the explanatory diagram of the focus detection area (FIG. 6), the flowchart of the focus detection process and various BP correction value calculation processes. (FIGS. 1A and 1B , FIG. 7, and FIG. 9A) are also used in this embodiment. In addition, the diagrams related to the spatial frequency BP correction value calculation processing (FIGS. 10B to 10C) are also used.

第3の実施形態における空間周波数BP補正値(BP3)の算出方法を、図13のフローチャートを用いて説明する。図13において、図10(a)と同様の処理は同じ参照数字を付して重複する説明を省略する。   A method of calculating the spatial frequency BP correction value (BP3) in the third embodiment will be described with reference to the flowchart of FIG. In FIG. 13, the same processes as those in FIG. 10A are denoted by the same reference numerals, and redundant description is omitted.

S3000でカメラMPU125は、空間周波数BP補正値を算出する必要があるか否かを判定する。第1の実施形態で説明したことから分かる通り、撮影画像の評価帯域W1とAF評価帯域W2が似ているほど、空間周波数BP補正値は小さくなる。そのため、第3の実施形態では、2つの評価帯域の差が空間周波数BP補正値を算出する必要がない程度に小さいと判定される場合には、補正値の算出を省略する。   In S3000, the camera MPU 125 determines whether it is necessary to calculate a spatial frequency BP correction value. As can be seen from the description in the first embodiment, the spatial frequency BP correction value becomes smaller as the evaluation band W1 and AF evaluation band W2 of the captured image are similar. Therefore, in the third embodiment, when it is determined that the difference between the two evaluation bands is small enough that the spatial frequency BP correction value need not be calculated, the calculation of the correction value is omitted.

具体的には、2つの評価帯域の差が十分小さくなる条件を満たす場合に、補正値の算出を省略する。例えば、AFに用いる信号も第1の読み出しモードで読み出された信号である場合には、撮影画像の評価帯域とAF評価帯域は等しくなる。さらに、撮影画像を鑑賞する際の空間周波数ごとの感度を示す空間周波数特性と類似の空間周波数特性のデジタルフィルタをAF評価信号の処理時に用いる場合には、鑑賞時の空間周波数特性とデジタルフィルタの空間周波数特性が等しくなる。このような状況は、表示器126に表示する画像を拡大して表示する場合などに発生する。   Specifically, the calculation of the correction value is omitted when the condition that the difference between the two evaluation bands is sufficiently small is satisfied. For example, when the signal used for AF is also a signal read in the first reading mode, the evaluation band of the captured image is equal to the AF evaluation band. Furthermore, when a digital filter having a spatial frequency characteristic similar to the spatial frequency characteristic indicating the sensitivity for each spatial frequency when viewing a captured image is used when processing the AF evaluation signal, the spatial frequency characteristic during viewing and the digital filter Spatial frequency characteristics are equal. Such a situation occurs when an image to be displayed on the display 126 is enlarged and displayed.

また、同様に、撮影画像が第2の読み出しモードで読み出された信号で生成される場合にも撮影画像の評価帯域とAF評価帯域が等しくなることが想定される。このような状況は、撮影画像の記録画像サイズを小さく設定している場合などに、発生する。   Similarly, when the captured image is generated with a signal read in the second readout mode, it is assumed that the evaluation band of the captured image is equal to the AF evaluation band. Such a situation occurs when the recording image size of the captured image is set small.

S3000でカメラMPU125は、このような、予め定められた条件のいずれかが満たされる場合に、補正値の算出が不要と判定し、処理をS3001に進める。S3001でカメラMPU125は、補正値の算出を行わないため、BP3に0を代入し、空間周波数BP補正値(BP3)の算出処理を終了する。   In S3000, the camera MPU 125 determines that the calculation of the correction value is unnecessary when any of the predetermined conditions is satisfied, and advances the process to S3001. In step S3001, since the camera MPU 125 does not calculate the correction value, 0 is assigned to BP3, and the spatial frequency BP correction value (BP3) calculation process ends.

一方、S3000で、補正値の算出が必要であると判定された場合、カメラMPU125は、S300〜S303を第1の実施形態(または第2の実施形態)と同様に実施する。   On the other hand, when it is determined in S3000 that the correction value needs to be calculated, the camera MPU 125 performs S300 to S303 in the same manner as in the first embodiment (or the second embodiment).

このように、第3の実施形態では、空間周波数BP補正値の算出が不要と判定された場合には補正値の算出を省略するので、補正値の算出用に記憶しておくデータ量は削減できないが、補正値算出時のデータ通信量や演算負荷を低減することができる。なお、第2の実施形態と組み合わせることも可能であり、その場合は補正値の算出用に記憶しておくデータ量の削減はもちろん、補正値算出時のデータ通信量や演算負荷を一層低減することができる。   As described above, in the third embodiment, when it is determined that the calculation of the spatial frequency BP correction value is unnecessary, the calculation of the correction value is omitted, and thus the amount of data stored for calculating the correction value is reduced. Although not possible, it is possible to reduce the amount of data communication and the calculation load when calculating the correction value. It is also possible to combine with the second embodiment. In this case, not only the amount of data stored for calculating the correction value but also the data communication amount and calculation load when calculating the correction value are further reduced. be able to.

本実施形態では、空間周波数BP補正値の省略について説明したが、縦横BP補正値や色BP補正値についても不要と判定できれば省略することができる。例えば、焦点検出を垂直方向、水平方向の両方のコントラストを考慮して行う場合は、縦横BP補正値の算出を省略してもよい。また、撮影画像に用いる色信号と、焦点検出に用いる色信号が等しい場合は、色BP補正値の算出を省略してもよい。   In this embodiment, the omission of the spatial frequency BP correction value has been described. However, the vertical / horizontal BP correction value and the color BP correction value can also be omitted if it can be determined that they are unnecessary. For example, when focus detection is performed in consideration of both vertical and horizontal contrasts, calculation of the vertical and horizontal BP correction values may be omitted. If the color signal used for the captured image is the same as the color signal used for focus detection, the calculation of the color BP correction value may be omitted.

●(第4の実施形態)
次に、本発明の第4の実施形態について説明する。第1の実施形態との主な違いは、各種BP補正値の算出方法が異なる点である。第1の実施形態では、縦横BP補正値、色BP補正値、空間周波数BP補正値を、各々異なる補正値として算出した。しかしながら、縦横BP補正値や色BP補正値も少なからず空間周波数に依存するため、第4の実施形態では、縦横BP補正値および色BP補正値についても空間周波数を考慮して算出する。これにより、レンズメモリ118もしくはRAM125bに必要な容量は増えるが、より高精度に補正値を算出することができる。また、BP補正値の算出における演算の順序や一時記憶する係数の情報などを変更することにより、演算量の低減を図ることができる。
● (Fourth embodiment)
Next, a fourth embodiment of the present invention will be described. The main difference from the first embodiment is that the calculation method of various BP correction values is different. In the first embodiment, the vertical / horizontal BP correction value, the color BP correction value, and the spatial frequency BP correction value are calculated as different correction values. However, since the vertical / horizontal BP correction value and the color BP correction value depend on the spatial frequency to some extent, in the fourth embodiment, the vertical / horizontal BP correction value and the color BP correction value are also calculated in consideration of the spatial frequency. As a result, the required capacity of the lens memory 118 or the RAM 125b increases, but the correction value can be calculated with higher accuracy. Further, the amount of calculation can be reduced by changing the order of calculation in calculating the BP correction value, information on the coefficient to be temporarily stored, and the like.

なお、撮像装置のブロック図(図2)、各焦点検出方式の説明図(図3から図5)、焦点検出領域の説明図(図6)、各評価帯域の説明図(図11)は、第4の実施形態においても共通であるため、以下の説明においても流用する。   The block diagram of the imaging device (FIG. 2), the explanatory diagrams of each focus detection method (FIGS. 3 to 5), the explanatory diagram of the focus detection area (FIG. 6), and the explanatory diagram of each evaluation band (FIG. 11) Since it is common also in 4th Embodiment, it also diverts in the following description.

第4の実施形態におけるBP補正値(BP)の算出方法を、図14から図16を用いて説明する。   A method for calculating a BP correction value (BP) in the fourth embodiment will be described with reference to FIGS.

図14において、第1の実施形態における焦点検出処理と同様の処理を行うものについては、図1Aと同じ参照数字を付している。図14では、図1AにおけるS20からS22がS400に、S23の処理がS401に、それぞれ置き換えられている点が異なる。S400でカメラMPU125は、方向(縦横)、色、空間周波数など、各種の誤差要因をまとめて補正するためのBP補正値(BP)を算出する。   In FIG. 14, the same reference numerals as those in FIG. 1A are given to those performing the same process as the focus detection process in the first embodiment. 14 differs from FIG. 1A in that S20 to S22 are replaced with S400, and the process of S23 is replaced with S401. In S400, the camera MPU 125 calculates a BP correction value (BP) for collectively correcting various error factors such as direction (vertical and horizontal), color, and spatial frequency.

S401でカメラMPU125は、算出されたBP補正値(BP)を用いて以下の式(12)により焦点検出結果DEF_Bを補正し、補正後の焦点検出結果DEF_Aを算出する。
DEF_A=DEF_B+BP …(12)
In step S401, the camera MPU 125 corrects the focus detection result DEF_B by the following equation (12) using the calculated BP correction value (BP), and calculates the corrected focus detection result DEF_A.
DEF_A = DEF_B + BP (12)

本実施形態では、R(赤)、G(緑)、およびB(青)の3色と、縦(垂直)および横(水平)の2方向とを組み合わせた6種の空間周波数の各々のデフォーカスMTFの極大値を示すフォーカスレンズ104位置の情報を用いてBP補正値を算出する。これにより、色や方向(縦横)についても、空間周波数の依存性を考慮することができ、より高精度なBP補正値を算出することができるため、補正精度を向上することができる。   In the present embodiment, each of the six spatial frequency combinations of the three colors R (red), G (green), and B (blue) and two directions of vertical (vertical) and horizontal (horizontal) is combined. A BP correction value is calculated using information on the position of the focus lens 104 indicating the maximum value of the focus MTF. As a result, the spatial frequency dependency can be taken into consideration for the color and direction (vertical and horizontal), and a more accurate BP correction value can be calculated, so that the correction accuracy can be improved.

図15は、図14のS400におけるBP補正値算出処理の詳細を示すフローチャートである。   FIG. 15 is a flowchart showing details of the BP correction value calculation processing in S400 of FIG.

S500で、カメラMPU125は、BP補正値の算出に必要なパラメータ(算出条件)を取得する。BP補正値は、第1の実施形態で説明したように、フォーカスレンズ104の位置、ズーム状態を示す第1レンズ群101の位置、焦点検出領域の位置など、撮影光学系の変化や焦点調節光学系の変化に伴い変化する。そのため、カメラMPU125は、S500で例えばフォーカスレンズ104の位置、ズーム状態を示す第1レンズ群101の位置、および、焦点検出領域の位置の情報を取得する。さらに、カメラMPU125はS500において、焦点検出に用いる信号と撮影画像に用いる信号の色や評価方向に関する設定情報を取得する。   In S500, the camera MPU 125 acquires parameters (calculation conditions) necessary for calculating the BP correction value. As described in the first embodiment, the BP correction value is a change in the photographing optical system such as the position of the focus lens 104, the position of the first lens group 101 indicating the zoom state, the position of the focus detection area, or the focus adjustment optics. It changes as the system changes. For this reason, the camera MPU 125 acquires information on the position of the focus lens 104, the position of the first lens group 101 indicating the zoom state, and the position of the focus detection area in S500, for example. Further, in step S500, the camera MPU 125 acquires setting information regarding the color and evaluation direction of the signal used for focus detection and the signal used for the captured image.

図16(a)に、色や評価方向に関する設定情報の例を示す。この設定情報は、焦点状態を評価するコントラストの方向(水平、垂直)と色(赤、緑、青)の各組み合わせに対する、重み付けの大きさを示す情報である。設定情報は、焦点検出用と撮影画像用とで、異なる情報を有する。例えば、水平方向で緑色の信号を用いたコントラストAFの結果を補正する場合、焦点検出用の設定情報を、
K_AF_RH=0
K_AF_GH=1
K_AF_BH=0
K_AF_RV=0
K_AF_GV=0
K_AF_BV=0
のように定めればよい。このような設定情報により、焦点検出用の信号のデフォーカスMTFのピーク情報は、水平方向で緑色の信号の特性と同じであることを示すことができる。
FIG. 16A shows an example of setting information related to color and evaluation direction. This setting information is information indicating the weighting level for each combination of contrast direction (horizontal and vertical) and color (red, green and blue) for evaluating the focus state. The setting information has different information for the focus detection and the captured image. For example, when correcting the result of contrast AF using a green signal in the horizontal direction, setting information for focus detection is
K_AF_RH = 0
K_AF_GH = 1
K_AF_BH = 0
K_AF_RV = 0
K_AF_GV = 0
K_AF_BV = 0
It may be determined as follows. With such setting information, it can be shown that the defocus MTF peak information of the focus detection signal is the same as the characteristics of the green signal in the horizontal direction.

一方、撮影画像用の設定情報は、
K_IMG_RH=0.15
K_IMG_GH=0.29
K_IMG_BH=0.06
K_IMG_RV=0.15
K_IMG_GV=0.29
K_IMG_BV=0.06
のように定めればよい。これは、RGBの信号をY信号相当に変換するための重み付けを行い、撮影画像はY信号で評価し、水平方向、垂直方向いずれのコントラストも同等に評価することを想定して設定される値である。ただし、設定値や設定値の種類などは、これに限らない。
On the other hand, the setting information for captured images is
K_IMG_RH = 0.15
K_IMG_GH = 0.29
K_IMG_BH = 0.06
K_IMG_RV = 0.15
K_IMG_GV = 0.29
K_IMG_BV = 0.06
It may be determined as follows. This is a value that is set on the assumption that weighting is performed to convert RGB signals into Y signals, the captured images are evaluated with Y signals, and the contrast in both the horizontal and vertical directions is evaluated equally. It is. However, the setting value and the type of the setting value are not limited to this.

S501でカメラMPU125は、後述するピーク係数に変更があるか否かを判定する。この判定は、事前に行われたBP補正値の算出と今回のBP補正値の算出における各種条件が同一の場合、ピーク係数の再算出を省略するために行っている。本実施形態でカメラMPU125は、焦点検出用と撮影画像用の色や評価方向に関する設定情報(図16(a))と焦点検出領域の位置に変更がなければ、ピーク係数に変更なしと判定し、S502からS504をスキップして処理をS505に移行させる。   In step S501, the camera MPU 125 determines whether there is a change in a peak coefficient described later. This determination is performed in order to omit recalculation of the peak coefficient when various conditions in the BP correction value calculation performed in advance and the current BP correction value calculation are the same. In this embodiment, the camera MPU 125 determines that there is no change in the peak coefficient if there is no change in the setting information (FIG. 16 (a)) regarding the color for focus detection and for the captured image and the position of the focus detection area. , S502 to S504 are skipped, and the process proceeds to S505.

S501で、初めてピーク係数を算出する場合もしくはピーク係数の変更ありと判定された場合、カメラMPU125は処理をS502に進め、BP補正情報を取得する。BP補正情報は、被写体の空間周波数ごとの撮影光学系の結像位置に関する情報である。上述した3色と2方向との6通りの組み合わせの各々について、空間周波数fと撮像素子122上の焦点検出領域の位置(x,y)を変数とした以下の式(13)で表現される。
MTF_P_RH(f,x,y)=(rh(0)×x+rh(1)×y+rh(2))×f2+(rh(3)×x+rh(4)×y+rh(5))×f+(rh(6)×x+rh(7)×y+rh(8)) …(13)
In S501, when calculating the peak coefficient for the first time or when it is determined that the peak coefficient has been changed, the camera MPU 125 advances the process to S502 and acquires BP correction information. The BP correction information is information regarding the imaging position of the photographing optical system for each spatial frequency of the subject. Each of the above-described six combinations of the three colors and the two directions is expressed by the following formula (13) using the spatial frequency f and the position (x, y) of the focus detection area on the image sensor 122 as variables. .
MTF_P_RH (f, x, y) = (rh (0) × x + rh (1) × y + rh (2)) × f 2 + (rh (3) × x + rh (4) × y + rh (5)) × f + (rh ( 6) × x + rh (7) × y + rh (8)) (13)

なお、式(13)は、赤(R)色の信号について水平(H)方向に対応した空間周波数ごとのデフォーカスMTFの極大値を示すフォーカスレンズ104位置の情報MTF_P_RHの式を示しているが、他の組み合わせについても同様の式で表される。また、本実施形態において、rh(n)(0≦n≦8)は、レンズユニット100のレンズメモリ118にあらかじめ記憶され、カメラMPU125は、レンズMPU117に要求してrh(n)(0≦n≦8)を取得するものとする。しかし、rh(n)(0≦n≦8)はRAM125bの不揮発性領域に記憶されていてもよい。   The expression (13) shows the expression of the information MTF_P_RH of the focus lens 104 position indicating the maximum value of the defocus MTF for each spatial frequency corresponding to the horizontal (H) direction for the red (R) signal. Other combinations are also expressed by the same formula. In this embodiment, rh (n) (0 ≦ n ≦ 8) is stored in advance in the lens memory 118 of the lens unit 100, and the camera MPU 125 requests the lens MPU 117 to rh (n) (0 ≦ n). ≦ 8) shall be obtained. However, rh (n) (0 ≦ n ≦ 8) may be stored in the nonvolatile area of the RAM 125b.

赤と垂直(MTF_P_RV)、緑と水平(MTF_P_GH)、緑と垂直(MTF_P_GV)、青と水平(MTF_P_BH)、青と垂直(MTF_P_BV)の各組み合わせにおける係数(rv,gh,gv,bh,bv)も同様に記憶されている。   Coefficients (rv, gh, gv, bh, bv) in each combination of red and vertical (MTF_P_RV), green and horizontal (MTF_P_GH), green and vertical (MTF_P_GV), blue and horizontal (MTF_P_BH), blue and vertical (MTF_P_BV) Is also stored in the same way.

次にS503において、カメラMPU125は、得られたBP補正情報に対して、焦点検出領域の位置や評価信号の色、コントラスト方向に関する重み付けを行う。まずカメラMPU125は、BP補正値を算出する際の焦点検出領域の位置についての情報を用いて、BP補正情報を計算する。具体的には、式(13)のx,yに焦点検出領域の位置情報を代入する。この計算により式(13)は、以下の式(14)のような形式で表される。
MTF_P_RH(f)=Arh×f2+Brh×f+Crh …(14)
In step S503, the camera MPU 125 weights the obtained BP correction information regarding the position of the focus detection region, the color of the evaluation signal, and the contrast direction. First, the camera MPU 125 calculates BP correction information using information on the position of the focus detection area when calculating the BP correction value. Specifically, the position information of the focus detection area is substituted into x and y in Expression (13). By this calculation, the expression (13) is expressed in the form of the following expression (14).
MTF_P_RH (f) = Arh × f 2 + Brh × f + Crh (14)

カメラMPU125は、MTF_P_RV(f)、MTF_P_GH(f)、MTF_P_GV(f)、MTF_P_BH(f)、MTF_P_BV(f)についても同様に計算する。これらは、デフォーカスMTF中間情報に相当する。   The camera MPU 125 similarly calculates MTF_P_RV (f), MTF_P_GH (f), MTF_P_GV (f), MTF_P_BH (f), and MTF_P_BV (f). These correspond to defocus MTF intermediate information.

図16(b)は、S502で焦点検出領域の位置情報を代入した後のBP補正情報の例を示し、横軸は空間周波数を、縦軸はデフォーカスMTFの極大値を示すフォーカスレンズ104の位置(ピーク位置)を表している。図示の通り、色収差が大きい場合には、色ごとの曲線が乖離し、縦横差が大きい場合には、図中の水平方向と垂直方向の曲線が乖離する。このように、第4の実施形態では、色(RGB)と評価方向(HとV)との組み合わせごとに、空間周波数に対応したデフォーカスMTF情報を有する。これにより、高精度なBP補正値算出を可能とする。   FIG. 16B shows an example of the BP correction information after the position information of the focus detection area is substituted in S502. The horizontal axis indicates the spatial frequency, and the vertical axis indicates the maximum value of the defocus MTF. It represents the position (peak position). As shown in the figure, when the chromatic aberration is large, the curves for each color are deviated, and when the vertical and horizontal differences are large, the horizontal and vertical curves in the figure are deviated. As described above, the fourth embodiment has defocus MTF information corresponding to the spatial frequency for each combination of color (RGB) and evaluation direction (H and V). Thereby, highly accurate BP correction value calculation is enabled.

次に、S503において、カメラMPU125は、S500で取得している設定情報を構成する12個の係数(図16(a))を、BP補正情報を用いて重み付けする。これにより、設定情報が、焦点検出、撮像で評価する色、方向に関して重み付けされる。具体的には、カメラMPU125は、焦点検出用の空間周波数特性MTF_P_AF(f)と撮影画像用の空間周波数特性MTF_P_IMG(f)を、式(15)および(16)を用いて算出する。
MTF_P_AF(f)=
K_AF_RH×MTF_P_RH(f)
+K_AF_RV×MTF_P_RV(f)
+K_AF_GH×MTF_P_GH(f)
+K_AF_GV×MTF_P_GV(f)
+K_AF_BH×MTF_P_BH(f)
+K_AF_BV×MTF_P_BV(f) …(15)
MTF_P_IMG(f)=
K_IMG_RH×MTF_P_RH(f)
+K_IMG_RV×MTF_P_RV(f)
+K_IMG_GH×MTF_P_GH(f)
+K_IMG_GV×MTF_P_GV(f)
+K_IMG_BH×MTF_P_BH(f)
+K_IMG_BV×MTF_P_BV(f) …(16)
Next, in S503, the camera MPU 125 weights the twelve coefficients (FIG. 16A) constituting the setting information acquired in S500 using the BP correction information. Thereby, the setting information is weighted with respect to the color and direction to be evaluated by focus detection and imaging. Specifically, the camera MPU 125 calculates a spatial frequency characteristic MTF_P_AF (f) for focus detection and a spatial frequency characteristic MTF_P_IMG (f) for a captured image using equations (15) and (16).
MTF_P_AF (f) =
K_AF_RH × MTF_P_RH (f)
+ K_AF_RV × MTF_P_RV (f)
+ K_AF_GH × MTF_P_GH (f)
+ K_AF_GV × MTF_P_GV (f)
+ K_AF_BH × MTF_P_BH (f)
+ K_AF_BV × MTF_P_BV (f) (15)
MTF_P_IMG (f) =
K_IMG_RH × MTF_P_RH (f)
+ K_IMG_RV × MTF_P_RV (f)
+ K_IMG_GH × MTF_P_GH (f)
+ K_IMG_GV × MTF_P_GV (f)
+ K_IMG_BH × MTF_P_BH (f)
+ K_IMG_BV × MTF_P_BV (f) (16)

図16(c)に、MTF_P_AF(f)とMTF_P_IMG(f)の例を、図16(b)と同様の様式で示す。本実施形態では、このように、焦点検出領域の位置や評価する色や方向についての変数の計算を、空間周波数の変数に関する計算に先駆けて行う。計算の結果、MTF_P_AF(f)とMTF_P_IMG(f)は、以下の式(17)および(18)の形式で表される。
MTF_P_AF(f)=Aaf×f2+Baf×f+Caf …(17)
MTF_P_IMG(f)=Aimg×f2+Bimg×f+Cimg …(18)
FIG. 16C shows an example of MTF_P_AF (f) and MTF_P_IMG (f) in the same manner as FIG. 16B. In this embodiment, in this way, the calculation of the variables for the position of the focus detection region, the color and direction to be evaluated is performed prior to the calculation for the spatial frequency variable. As a result of the calculation, MTF_P_AF (f) and MTF_P_IMG (f) are expressed in the following formulas (17) and (18).
MTF_P_AF (f) = Aaf × f 2 + Baf × f + Caf (17)
MTF_P_IMG (f) = Aimg × f 2 + Bimg × f + Cimg (18)

図16(c)には、離散的な空間周波数F1からF4について、式(17)に代入して得られるデフォーカスMTFがピーク(極大値)となるフォーカスレンズ位置(ピーク位置)LP4_AF、LP5_AF、LP6_AF、LP7_AFが縦軸に示されている。   FIG. 16C shows focus lens positions (peak positions) LP4_AF, LP5_AF at which the defocus MTF obtained by substituting into the equation (17) for the discrete spatial frequencies F1 to F4 reaches a peak (maximum value). LP6_AF and LP7_AF are shown on the vertical axis.

S504でカメラMPU125は、このLP4_AF〜LP7_AFを、ピーク係数MTF_P_AF(n)(1≦n≦4)としてレンズメモリ118またはRAM125bに記憶する。カメラMPU125はまた、LP4_Img〜LP7_Imgを、ピーク係数MTF_P_Img(n)(1≦n≦4)としてレンズメモリ118またはRAM125bに記憶し、処理をS505に進める。   In S504, the camera MPU 125 stores the LP4_AF to LP7_AF in the lens memory 118 or the RAM 125b as the peak coefficient MTF_P_AF (n) (1 ≦ n ≦ 4). The camera MPU 125 also stores LP4_Img to LP7_Img in the lens memory 118 or the RAM 125b as the peak coefficient MTF_P_Img (n) (1 ≦ n ≦ 4), and advances the process to S505.

次に、S505でカメラMPU125は、焦点検出用もしくは撮影画像用の信号の評価帯域に変更があるか否かを判定し、評価帯域に変更がない場合には処理をS507に進め、BP補正値を算出する。BP補正値を算出するに際し、カメラMPU125はまず、撮影画像の合焦位置(P_img)とAFが検出する合焦位置(P_AF)を、第2の実施形態と同様に、以下の式(19)および(20)に従って算出する。算出には、第1の実施形態のS301、S302で得た評価帯域W1、W2を用いる。
P_img=MTF_P_Img(1)×W1(1)+MTF_P_Img(2)×W1(2)+MTF_P_Img(3)×W1(3)+MTF_P_Img(4)×W1(4) …(19)
P_AF=MTF_P_AF(1)×W2(1)+MTF_P_AF(2)×W2(2)+MTF_P_AF(3)×W2(3)+MTF_P_AF(4)×W2(4) …(20)
Next, in S505, the camera MPU 125 determines whether or not there is a change in the evaluation band of the focus detection signal or the captured image signal. If there is no change in the evaluation band, the process proceeds to S507 and the BP correction value is determined. Is calculated. When calculating the BP correction value, the camera MPU 125 first calculates the in-focus position (P_img) of the captured image and the in-focus position (P_AF) detected by the AF, as in the second embodiment, using the following equation (19): And (20). For the calculation, the evaluation bands W1 and W2 obtained in S301 and S302 of the first embodiment are used.
P_img = MTF_P_Img (1) × W1 (1) + MTF_P_Img (2) × W1 (2) + MTF_P_Img (3) × W1 (3) + MTF_P_Img (4) × W1 (4) (19)
P_AF = MTF_P_AF (1) × W2 (1) + MTF_P_AF (2) × W2 (2) + MTF_P_AF (3) × W2 (3) + MTF_P_AF (4) × W2 (4) (20)

つまり、カメラMPU125は、図16(c)で示した空間周波数ごとのデフォーカスMTFの極大値情報を、第1の実施形態のS301、S302で算出した撮影画像やAFの評価帯域W1、W2で重み付け加算する。これにより、撮影画像の合焦位置(P_img)とAFが検出する合焦位置(P_AF)を算出している。   That is, the camera MPU 125 uses the defocus MTF maximum value information for each spatial frequency shown in FIG. 16C in the captured image calculated in S301 and S302 of the first embodiment and the AF evaluation bands W1 and W2. Add weight. Thereby, the focus position (P_img) of the captured image and the focus position (P_AF) detected by the AF are calculated.

次にカメラMPU125は、BP補正値(BP)を、第1の実施形態と同様に、以下の式(21)により算出する。
BP=P_AF−P_img …(21)
Next, the camera MPU 125 calculates a BP correction value (BP) by the following equation (21), as in the first embodiment.
BP = P_AF−P_img (21)

一方、S505で評価帯域に変更があると判定された場合、カメラMPU125は処理をS506に進め、評価帯域情報を取得する。評価帯域情報は、第1の実施形態の撮影画像の評価帯域W1やAF評価帯域W2に相当するもので、焦点検出や撮影画像の設定や状況に応じて、図11で説明した考え方に則って算出することができる。S506で、評価帯域情報の取得を終えると、カメラMPU125はS507に処理を進めて上述の通りBP補正値を算出する。   On the other hand, when it is determined in S505 that there is a change in the evaluation band, the camera MPU 125 advances the process to S506 and acquires evaluation band information. The evaluation band information corresponds to the evaluation band W1 and AF evaluation band W2 of the photographed image according to the first embodiment, and is based on the concept described with reference to FIG. Can be calculated. When the acquisition of the evaluation band information is completed in S506, the camera MPU 125 advances the process to S507 and calculates the BP correction value as described above.

第4の実施形態では、焦点検出領域の位置、評価信号の色やコントラスト方向に関する処理を、評価帯域に関する処理よりも先行して実行している。これは、撮影者が焦点検出領域の位置を設定により決定している場合、焦点検出領域の位置や、評価する色や方向に関する情報が変更される頻度が低いためである。一方で、信号の評価帯域については、第1の実施形態の図11で説明した通り、撮像素子の読み出しモードやAF評価信号のデジタルフィルタなどにより変更される頻度が高い。例えば、信号のS/Nが低下する低照度環境では、デジタルフィルタの帯域をより低帯域に変更することなどが考えられる。第4の実施形態では、このような場合に、変更の頻度が低い係数(ピーク係数)を算出した後に記憶し、変更の頻度の高い係数(評価帯域)のみを必要に応じて計算し、BP補正値算出を行う。これにより、撮影者が焦点検出領域の位置を設定している場合などには、演算量の低減を行うことができる。   In the fourth embodiment, the processing related to the position of the focus detection region, the color of the evaluation signal, and the contrast direction is executed prior to the processing related to the evaluation band. This is because when the photographer determines the position of the focus detection area by setting, the frequency of the information on the position of the focus detection area and the color and direction to be evaluated is low. On the other hand, as described with reference to FIG. 11 of the first embodiment, the signal evaluation band is frequently changed by the readout mode of the image sensor or the digital filter of the AF evaluation signal. For example, in a low illuminance environment where the S / N of the signal decreases, it may be possible to change the band of the digital filter to a lower band. In the fourth embodiment, in such a case, a coefficient with a low change frequency (peak coefficient) is calculated and stored, and only a coefficient with a high change frequency (evaluation band) is calculated as necessary. Correction value calculation is performed. Thereby, when the photographer has set the position of the focus detection area, the amount of calculation can be reduced.

(変形例)
一方で、複数の焦点検出領域の位置に対応するBP補正値の算出を行う場合も考えられる。例えば、焦点検出時に、複数の焦点検出領域を用いた焦点検出を行う場合や、デフォーカスマップを作成するために、撮影範囲内の複数のデフォーカス量を取得したい場合などが考えらえる。
(Modification)
On the other hand, there may be a case where BP correction values corresponding to the positions of a plurality of focus detection areas are calculated. For example, it is conceivable to perform focus detection using a plurality of focus detection areas at the time of focus detection, or to acquire a plurality of defocus amounts within a shooting range in order to create a defocus map.

このような場合には、評価信号の色、コントラストの方向、評価帯域に関する計算を先行して行い、焦点検出領域の位置に関する計算を、焦点検出領域の位置情報のみを変更しながら行うことにより、演算量を低減することができる。   In such a case, the calculation regarding the color of the evaluation signal, the direction of the contrast, and the evaluation band is performed in advance, and the calculation regarding the position of the focus detection area is performed while changing only the position information of the focus detection area, The amount of calculation can be reduced.

図17は、図14のS400におけるBP補正値算出処理の別の例を示すフローチャートである。図15と同様の処理を行う工程については、同じ参照数字を付し、重複する説明は省略する。   FIG. 17 is a flowchart showing another example of the BP correction value calculation process in S400 of FIG. Steps for performing the same processing as in FIG. 15 are given the same reference numerals, and redundant descriptions are omitted.

S601でカメラMPU125は、後述するBP係数に変更があるか否かを判定する。この判定は、事前に行われたBP補正値の算出と今回のBP補正値の算出における各種条件が同一の場合、BP係数の再算出を省略するために行っている。本実施形態でカメラMPU125は、焦点検出用と撮影画像用の色や評価方向に関する設定情報(図16(a))および評価帯域に関する情報(評価帯域W1,W2)に変更がなければ、BP係数に変更なしと判定し、S605へ処理をスキップする。   In step S601, the camera MPU 125 determines whether there is a change in a BP coefficient described later. This determination is performed in order to omit recalculation of the BP coefficient when various conditions in the calculation of the BP correction value performed in advance and the calculation of the current BP correction value are the same. In this embodiment, the camera MPU 125 determines the BP coefficient if there is no change in the setting information (FIG. 16A) regarding the colors for focus detection and the captured image and the evaluation direction (evaluation bands W1, W2). It is determined that there is no change, and the process skips to S605.

S601で、初めてBP係数を算出する場合もしくはBP係数の変更ありと判定された場合、カメラMPU125は処理をS502に進め、第4の実施形態と同様にBP補正情報を取得して、処理をS603に進める。   In S601, when calculating the BP coefficient for the first time or when it is determined that the BP coefficient has been changed, the camera MPU 125 advances the process to S502, acquires the BP correction information as in the fourth embodiment, and performs the process in S603. Proceed to

S603でカメラMPU125は、式(14)および式(16)を用いて説明したように、6種類のデフォーカスMTFのピーク情報に関して、評価信号の色、コントラスト方向に関する重み付けを行う。ただし、S503と異なり、式(14)への焦点検出領域の位置情報の代入は行わない。従って、MTF_P_RH(f,x,y)、MTF_P_RV(f,x,y)、MTF_P_GH(f,x,y)、MTF_P_GV(f,x,y)、MTF_P_BH(f,x,y)、MTF_P_BV(f,x,y)が得られる。   In step S <b> 603, the camera MPU 125 performs weighting on the color and contrast direction of the evaluation signal with respect to the peak information of the six types of defocus MTFs, as described using the equations (14) and (16). However, unlike S503, the position information of the focus detection area is not substituted into Expression (14). Therefore, MTF_P_RH (f, x, y), MTF_P_RV (f, x, y), MTF_P_GH (f, x, y), MTF_P_GV (f, x, y), MTF_P_BH (f, x, y), MTF_P_BV (f , X, y).

そして、カメラMPU125は、S500で取得している設定情報を構成する12個の係数(図16(a))を、これらのBP補正情報で重み付けする。具体的には、カメラMPU125は、焦点検出用の空間周波数特性MTF_P_AF(f,x,y)と撮影画像用の空間周波数特性MTF_P_IMG(f,x,y)を、式(22)および(23)を用いて算出する。
MTF_P_AF(f,x,y)=
K_AF_RH×MTF_P_RH(f,x,y)
+K_AF_RV×MTF_P_RV(f,x,y)
+K_AF_GH×MTF_P_GH(f,x,y)
+K_AF_GV×MTF_P_GV(f,x,y)
+K_AF_BH×MTF_P_BH(f,x,y)
+K_AF_BV×MTF_P_BV(f,x,y) …(22)
MTF_P_IMG(f,x,y)=
K_IMG_RH×MTF_P_RH(f,x,y)
+K_IMG_RV×MTF_P_RV(f,x,y)
+K_IMG_GH×MTF_P_GH(f,x,y)
+K_IMG_GV×MTF_P_GV(f,x,y)
+K_IMG_BH×MTF_P_BH(f,x,y)
+K_IMG_BV×MTF_P_BV(f,x,y) …(23)
Then, the camera MPU 125 weights the twelve coefficients (FIG. 16A) constituting the setting information acquired in S500 with these BP correction information. Specifically, the camera MPU 125 obtains the spatial frequency characteristics MTF_P_AF (f, x, y) for focus detection and the spatial frequency characteristics MTF_P_IMG (f, x, y) for captured images using the expressions (22) and (23). Calculate using.
MTF_P_AF (f, x, y) =
K_AF_RH × MTF_P_RH (f, x, y)
+ K_AF_RV × MTF_P_RV (f, x, y)
+ K_AF_GH × MTF_P_GH (f, x, y)
+ K_AF_GV × MTF_P_GV (f, x, y)
+ K_AF_BH × MTF_P_BH (f, x, y)
+ K_AF_BV × MTF_P_BV (f, x, y) (22)
MTF_P_IMG (f, x, y) =
K_IMG_RH × MTF_P_RH (f, x, y)
+ K_IMG_RV × MTF_P_RV (f, x, y)
+ K_IMG_GH × MTF_P_GH (f, x, y)
+ K_IMG_GV × MTF_P_GV (f, x, y)
+ K_IMG_BH × MTF_P_BH (f, x, y)
+ K_IMG_BV × MTF_P_BV (f, x, y) (23)

さらに、カメラMPU125は、式(19)および(20)と同様に、第1の実施形態のS301、S302で得た評価帯域W1、W2を用いて評価帯域の重み付けを行う。これにより、撮影画像の合焦位置(P_img)と、AFが検出する合焦位置(P_AF)とが、焦点検出領域の位置(x,y)を変数とした関数として、式(24)および(25)のように求まる。
P_img(x,y)=
MTF_P_Img(F1,x,y)×W1(1)
+MTF_P_Img(F2,x,y)×W1(2)
+MTF_P_Img(F3,x,y)×W1(3)
+MTF_P_Img(F4,x,y)×W1(4) …(24)
P_AF(x,y)=
MTF_P_AF(F1,x,y)×W2(1)
+MTF_P_AF(F2,x,y)×W2(2)
+MTF_P_AF(F3,x,y)×W2(3)
+MTF_P_AF(F4,x,y)×W2(4) …(25)
Further, the camera MPU 125 weights the evaluation bands using the evaluation bands W1 and W2 obtained in S301 and S302 of the first embodiment, similarly to the equations (19) and (20). As a result, the in-focus position (P_img) of the captured image and the in-focus position (P_AF) detected by the AF are expressed as functions using the position (x, y) of the focus detection area as variables. 25).
P_img (x, y) =
MTF_P_Img (F1, x, y) × W1 (1)
+ MTF_P_Img (F2, x, y) × W1 (2)
+ MTF_P_Img (F3, x, y) × W1 (3)
+ MTF_P_Img (F4, x, y) × W1 (4) (24)
P_AF (x, y) =
MTF_P_AF (F1, x, y) × W2 (1)
+ MTF_P_AF (F2, x, y) × W2 (2)
+ MTF_P_AF (F3, x, y) × W2 (3)
+ MTF_P_AF (F4, x, y) × W2 (4) (25)

S604でカメラMPU125は、式(24)および(25)を構成する係数を、BP係数としてレンズメモリ118またはRAM125bに記憶する。   In step S604, the camera MPU 125 stores the coefficients constituting the expressions (24) and (25) in the lens memory 118 or the RAM 125b as BP coefficients.

次に、S605でカメラMPU125は、焦点検出領域の位置に変更があるか否かを判定し、変更がない場合には処理を直接S607に進め、変更がある場合にはS606で焦点検出領域の位置情報を取得してから処理をS607に進める。   Next, in S605, the camera MPU 125 determines whether or not there is a change in the position of the focus detection area. If there is no change, the process proceeds directly to S607. If there is a change, the camera MPU 125 determines the focus detection area in S606. After the position information is acquired, the process proceeds to S607.

S607でカメラMPU125は、BP補正値の算出を行う焦点検出領域の位置(x1,y1)を式(24)および(25)に代入し、以下の式(26)に従ってBP補正値(BP)を算出する。
BP=P_AF(x1,y1)−P_img(x1,y1) …(26)
In step S <b> 607, the camera MPU 125 substitutes the position (x1, y1) of the focus detection area where the BP correction value is calculated into the formulas (24) and (25), and the BP correction value (BP) according to the following formula (26). calculate.
BP = P_AF (x1, y1) −P_img (x1, y1) (26)

このように構成することにより、複数の焦点検出領域の位置に対応するBP補正値の算出を行う場合に対応した演算量の低減を行うことができる。   With this configuration, it is possible to reduce the amount of calculation corresponding to the calculation of BP correction values corresponding to the positions of a plurality of focus detection areas.

また、これらの演算処理の内容は、状態に応じて切り替えてもよい。例えば、焦点検出に用いる焦点検出領域が1つの場合は図15に示したように処理し、複数の場合は図17に示したように処理してもよい。   The contents of these arithmetic processes may be switched according to the state. For example, when there is one focus detection area used for focus detection, processing may be performed as shown in FIG. 15, and when there are a plurality of focus detection regions, processing may be performed as shown in FIG.

以上のように構成することにより、色と縦横BPについても空間周波数を考慮して、BP補正値を算出することができ、より高精度な補正を行うことができる。   By configuring as described above, the BP correction value can be calculated for the color and the vertical and horizontal BP in consideration of the spatial frequency, and more accurate correction can be performed.

●(第5の実施形態)
次に、本発明の第5の実施形態について説明する。第4の実施形態とはBP補正値の算出方法が異なる。第4の実施形態では、撮影光学系から取得するBP補正情報の評価帯域の範囲と、AF評価帯域や撮影画像の評価帯域の範囲とが等しいという前提でBP補正値を算出していた。しかしながら、撮像素子の画素ピッチの微細化に伴い、評価帯域の範囲を高周波帯域側に拡張することが考えられる。また、撮影光学系の高精度化に伴いBP補正情報として有する評価帯域の範囲も高周波帯域側に拡張することが考えられる。
● (Fifth Embodiment)
Next, a fifth embodiment of the present invention will be described. The BP correction value calculation method is different from that of the fourth embodiment. In the fourth embodiment, the BP correction value is calculated on the assumption that the evaluation band range of the BP correction information acquired from the photographing optical system is equal to the AF evaluation band and the evaluation band range of the photographed image. However, it is conceivable that the range of the evaluation band is extended to the high frequency band side as the pixel pitch of the image sensor is reduced. In addition, it is conceivable that the range of the evaluation band possessed as the BP correction information is expanded to the high frequency band side as the photographing optical system becomes more accurate.

本実施形態では、高精度にBP補正値を算出するため、撮像装置と撮影光学系の各々に限界帯域情報を持たせ、各々の大小関係に応じて、補正値算出処理を切り替える。限界帯域情報を用いて評価帯域の調整を行うことにより、新旧の撮像装置や撮影光学系の組み合わせによらず、高精度にBP補正値を算出することができる。   In the present embodiment, in order to calculate the BP correction value with high accuracy, each of the imaging device and the photographing optical system is provided with limit band information, and the correction value calculation processing is switched according to the magnitude relationship of each. By adjusting the evaluation band using the limit band information, the BP correction value can be calculated with high accuracy regardless of the combination of old and new imaging devices and photographing optical systems.

なお、撮像装置のブロック図(図2)、各焦点検出方式の説明図(図3から図5)、焦点検出領域の説明図(図6)、各評価帯域の説明図(図11)、焦点検出処理(図14)は、第5の実施形態においても共通であるため、以下の説明で流用する。   In addition, a block diagram of the imaging device (FIG. 2), explanatory diagrams of each focus detection method (FIGS. 3 to 5), an explanatory diagram of the focus detection area (FIG. 6), an explanatory diagram of each evaluation band (FIG. 11), a focus Since the detection process (FIG. 14) is common to the fifth embodiment, it will be used in the following description.

第5の実施形態におけるBP補正値(BP)の算出方法を、図18および図19を用いて説明する。   A calculation method of a BP correction value (BP) in the fifth embodiment will be described with reference to FIGS.

図18において、第4の実施形態における焦点検出処理と同様の処理を行うものについては、図15と同じ参照数字を付している。第5の実施形態では、BP補正値算出の処理(S507)の前に、限界帯域処理(S700)の工程を有する点で異なる。限界帯域処理では、撮像装置の評価帯域の高周波側の限界値(カメラ限界帯域)と、撮影光学系の評価帯域の高周波側の限界値(レンズ限界帯域)との大小関係を判定する。そして、大小関係に応じて、式(15)および(16)で表されるMTF_P_AF(f)とMTF_P_IMG(f)の離散化処理を切り替える。   In FIG. 18, the same reference numerals as those in FIG. 15 are attached to those performing the same processing as the focus detection processing in the fourth embodiment. The fifth embodiment is different in that a limit band process (S700) is provided before the BP correction value calculation process (S507). In the limit band processing, the magnitude relationship between the limit value (camera limit band) on the high frequency side of the evaluation band of the imaging apparatus and the limit value (lens limit band) on the high frequency side of the evaluation band of the photographing optical system is determined. Then, the discretization processing of MTF_P_AF (f) and MTF_P_IMG (f) represented by the equations (15) and (16) is switched according to the magnitude relationship.

以下、図18のS700で行う限界帯域処理の詳細について、図19(a)を用いて説明する。   Hereinafter, the details of the limit band processing performed in S700 of FIG. 18 will be described with reference to FIG.

S701でカメラMPU125は、限界帯域情報を取得する。ここでカメラMPU125は、カメラ限界帯域情報をROM125aから取得し、レンズ限界帯域情報をレンズメモリ118から取得する。カメラ限界帯域は、主に撮像素子122の画素ピッチで定まるナイキスト周波数に基づいて設定される。一方で、レンズ限界帯域には、撮影光学系のMTFの応答が閾値以上となる帯域の限界値や、測定データの信頼性のある帯域の限界値などが設定される。   In step S701, the camera MPU 125 acquires limit band information. Here, the camera MPU 125 acquires camera limit band information from the ROM 125 a and acquires lens limit band information from the lens memory 118. The camera limit band is set based on the Nyquist frequency determined mainly by the pixel pitch of the image sensor 122. On the other hand, for the lens limit band, a limit value of a band where the MTF response of the imaging optical system is equal to or greater than a threshold value, a limit value of a reliable band of measurement data, and the like are set.

次にS702でカメラMPU125は、カメラ限界帯域とレンズ限界帯域の大小を比較する。カメラMPU125は、カメラ限界帯域の方がレンズ限界帯域よりも大きい(限界周波数が高い)場合には処理をS703に進め、カメラ限界帯域がレンズ限界帯域以下の場合には、限界帯域処理を終了する。   In step S <b> 702, the camera MPU 125 compares the camera limit band with the lens limit band. The camera MPU 125 advances the process to S703 when the camera limit band is larger than the lens limit band (the limit frequency is high), and ends the limit band process when the camera limit band is equal to or less than the lens limit band. .

S703でカメラMPU125は、ピーク係数を加工する。ピーク係数の加工例を、図19(b)を用いて説明する。図19(b)は、第4の実施形態の図16(c)で示したMTF_P_AF(f)とMTF_P_IMG(f)を示している。ここで、レンズ限界帯域はF4、カメラ限界帯域はF6とする。Nqは、撮像素子122の画素ピッチにより定まるナイキスト周波数であり、カメラ限界帯域はNqよりも低く設定される。   In step S703, the camera MPU 125 processes the peak coefficient. An example of processing the peak coefficient will be described with reference to FIG. FIG. 19B shows MTF_P_AF (f) and MTF_P_IMG (f) shown in FIG. 16C of the fourth embodiment. Here, the lens limit band is F4 and the camera limit band is F6. Nq is a Nyquist frequency determined by the pixel pitch of the image sensor 122, and the camera limit band is set lower than Nq.

MTF_P_AF(f)はBP補正情報と焦点検出領域の位置、評価信号の色や評価方向の情報から算出される。図19(b)には、離散的な空間周波数F1からF4について、式(17)に代入して得られるデフォーカスMTFがピーク(極大値)となるフォーカスレンズ位置(ピーク位置)LP4_AF、LP5_AF、LP6_AF、LP7_AFが縦軸に示されている。   MTF_P_AF (f) is calculated from the BP correction information, the position of the focus detection area, the color of the evaluation signal, and the information on the evaluation direction. FIG. 19B shows focus lens positions (peak positions) LP4_AF, LP5_AF at which the defocus MTF obtained by substituting into the equation (17) for the discrete spatial frequencies F1 to F4 reaches a peak (maximum value). LP6_AF and LP7_AF are shown on the vertical axis.

レンズ限界帯域はF4のため、F4より高い空間周波数において、式(17)により算出されるピーク位置の精度は保証されない。そのため、第5の実施形態では、空間周波数F5,F6に対応するピーク位置LP8_AF、LP9_AFを、F4以下の空間周波数に対応するピーク位置の情報から算出する。簡易的には、図19(b)に示すように、空間周波数F4におけるピーク値LP7_AFを、空間周波数F5,F6に対応するピーク位置LP8_AF、LP9_AFとしても用いることが考えられる。より高精度に算出したい場合には、F4以下の空間周波数に対応する複数のピーク位置情報(LP4_AF、LP5_AF、LP6_AF、LP7_AF)を用いて、外挿計算により求めてもよい。   Since the lens limit band is F4, the accuracy of the peak position calculated by Expression (17) is not guaranteed at a spatial frequency higher than F4. Therefore, in the fifth embodiment, the peak positions LP8_AF and LP9_AF corresponding to the spatial frequencies F5 and F6 are calculated from the information on the peak positions corresponding to the spatial frequencies below F4. For simplicity, as shown in FIG. 19B, it is conceivable to use the peak values LP7_AF at the spatial frequency F4 as the peak positions LP8_AF and LP9_AF corresponding to the spatial frequencies F5 and F6. When it is desired to calculate with higher accuracy, it may be obtained by extrapolation calculation using a plurality of peak position information (LP4_AF, LP5_AF, LP6_AF, LP7_AF) corresponding to a spatial frequency of F4 or lower.

MTF_P_IMG(f)についても、同様に処理することにより、空間周波数F5,F6に対応するピーク位置LP8_Img、LP9_Imgを算出する。図19(b)では、空間周波数F4におけるピーク値LP7_Imgを、空間周波数F5,F6に対応するピーク位置LP8_Img、LP9_Imgとしても用いる例を示している。   The same processing is performed for MTF_P_IMG (f) to calculate peak positions LP8_Img and LP9_Img corresponding to the spatial frequencies F5 and F6. FIG. 19B shows an example in which the peak value LP7_Img at the spatial frequency F4 is also used as the peak positions LP8_Img and LP9_Img corresponding to the spatial frequencies F5 and F6.

S703でカメラMPU125は、ピーク係数として、LP4_AF〜LP7_AFおよびLP8_AF、LP9_AFを、MTF_P_AF(n)(1≦n≦6)としてレンズメモリ118またはRAM125bに記憶する。同様にカメラMPU125は、LP4_Img〜LP7_ImgおよびLP8_Img、LP9_Imgを、MTF_P_Img(n)(1≦n≦6)としてレンズメモリ118またはRAM125bに記憶し、限界帯域処理を終了する。   In S703, the camera MPU 125 stores LP4_AF to LP7_AF, LP8_AF, and LP9_AF as peak coefficients in the lens memory 118 or the RAM 125b as MTF_P_AF (n) (1 ≦ n ≦ 6). Similarly, the camera MPU 125 stores LP4_Img to LP7_Img, LP8_Img, and LP9_Img as MTF_P_Img (n) (1 ≦ n ≦ 6) in the lens memory 118 or the RAM 125b, and ends the limit band processing.

また、カメラMPU125は、AF評価帯域や撮影画像評価帯域として、カメラ限界帯域である空間周波数F6以下の情報を用い、式(19)〜(21)と同様にしてBP補正値の算出を行う。   In addition, the camera MPU 125 calculates BP correction values in the same manner as in equations (19) to (21) using information below the spatial frequency F6 that is the camera limit band as the AF evaluation band and the captured image evaluation band.

上述の通り、S702でカメラ限界帯域がレンズ限界帯域以下の場合、S703で行うピーク係数の加工処理を行わずに限界帯域処理を終了するが、ピーク係数の加工処理を省略してよい理由について、図19(c)を用いて説明する。図19(c)は、カメラ限界帯域がレンズ限界帯域以下の場合の、MTF_P_AF(f)とMTF_P_IMG(f)の例を図19(b)と同様の帯域について示している。ここでは、カメラ限界帯域がF4、レンズ限界帯域がF6であるとする。上述の通りカメラ限界帯域はナイキスト周波数Nqより低く設定される。   As described above, when the camera limit band is equal to or less than the lens limit band in S702, the limit band processing is terminated without performing the peak coefficient processing in S703. For the reason that the peak coefficient processing may be omitted. This will be described with reference to FIG. FIG. 19C shows an example of MTF_P_AF (f) and MTF_P_IMG (f) for the same band as in FIG. 19B when the camera limit band is equal to or less than the lens limit band. Here, it is assumed that the camera limit band is F4 and the lens limit band is F6. As described above, the camera limit band is set lower than the Nyquist frequency Nq.

ピーク係数の加工処理を省略する場合、カメラ限界帯域がレンズ限界帯域以下のため、撮影光学系に関するピーク位置の情報が、評価範囲に関して過剰に存在する。一方、図11を用いて説明したAF評価帯域や撮影画像評価帯域は、カメラ限界帯域以下の帯域で算出されている。本実施形態では、カメラ限界帯域がレンズ限界帯域以下の場合には、カメラ限界帯域より高い空間周波数に対応するピーク位置の情報を用いずにBP補正値を算出する。カメラ限界帯域は、撮像素子122の画素ピッチで定まるナイキスト周波数Nqより低くなるように設定されるため、カメラ限界帯域以上の情報は、画素によるサンプリングで欠落する。そのため、このような処理を行っても、BP補正値の算出精度は維持される。   When the peak coefficient processing is omitted, since the camera limit band is equal to or less than the lens limit band, information on the peak position relating to the photographing optical system exists excessively with respect to the evaluation range. On the other hand, the AF evaluation band and the captured image evaluation band described with reference to FIG. 11 are calculated in a band equal to or less than the camera limit band. In this embodiment, when the camera limit band is equal to or less than the lens limit band, the BP correction value is calculated without using the information on the peak position corresponding to the spatial frequency higher than the camera limit band. Since the camera limit band is set to be lower than the Nyquist frequency Nq determined by the pixel pitch of the image sensor 122, information exceeding the camera limit band is lost by sampling with pixels. Therefore, even if such processing is performed, the calculation accuracy of the BP correction value is maintained.

第5の実施形態では、第4の実施形態に基づくピーク位置(デフォーカスMTFがピークとなるフォーカスレンズ位置)の情報を用いた場合について説明したが、撮影光学系の収差情報としては、これに限らない。例えば、第1の実施形態で説明したようなデフォーカスMTF情報を用いて、対応範囲外のデフォーカスMTF形状を算出してもよい。   In the fifth embodiment, the case where the information on the peak position (the focus lens position at which the defocus MTF reaches a peak) based on the fourth embodiment is used has been described. Not exclusively. For example, the defocus MTF information outside the corresponding range may be calculated using the defocus MTF information as described in the first embodiment.

以上のように、第5の実施形態では、カメラ限界帯域がレンズ限界帯域よりも高い場合、自動焦点検出用および撮影画像用の空間周波数特性を表す離散的な周波数の数を、カメラ限界帯域に合わせて増やすようにする。そのため、撮像装置と撮影光学系の組み合わせによらず、高精度にBP補正値の算出を行うことができる。   As described above, in the fifth embodiment, when the camera limit band is higher than the lens limit band, the number of discrete frequencies representing the spatial frequency characteristics for automatic focus detection and captured images is set as the camera limit band. Try to increase it together. Therefore, the BP correction value can be calculated with high accuracy regardless of the combination of the imaging device and the imaging optical system.

●(第6の実施形態)
次に、本発明の第6の実施形態について説明する。第6の実施形態では、第1の実施形態で説明したカメラに、コンバータレンズが装着された場合の空間周波数BP補正値の算出方法について説明する。
● (Sixth embodiment)
Next, a sixth embodiment of the present invention will be described. In the sixth embodiment, a method for calculating a spatial frequency BP correction value when a converter lens is attached to the camera described in the first embodiment will be described.

(撮像装置の構成の説明−コンバータレンズユニット)
図20は、第6の実施形態に係る撮像装置の一例としてデジタルカメラの機能構成例を示すブロック図である。図2のブロック図に示す構成との違いは、コンバータレンズユニット600が追加された点である。なお、図2と同様の構成には同じ参照番号を付し、説明を省略する。
(Explanation of imaging device configuration-converter lens unit)
FIG. 20 is a block diagram illustrating a functional configuration example of a digital camera as an example of an imaging apparatus according to the sixth embodiment. The difference from the configuration shown in the block diagram of FIG. 2 is that a converter lens unit 600 is added. The same components as those in FIG. 2 are denoted by the same reference numerals, and description thereof is omitted.

コンバータレンズユニット600は、コンバータレンズ601とコンバータメモリ602を含み、被写体の光学像を形成するレンズユニット100の焦点距離を変更する撮影レンズである。なお、以下の説明では、コンバータレンズ601と区別するために、レンズユニット100を「マスターレンズ100」と呼ぶ。コンバータレンズユニット600が装着されると、第1レンズ群101、第2レンズ群103とコンバータレンズ601により、ズーム機能を実現する。コンバータメモリ602には、自動焦点調整に必要な光学情報が予め記憶されている。カメラMPU125は、例えば内蔵する不揮発性メモリやレンズメモリ118、コンバータメモリ602に記憶されているプログラムを実行することで、マスターレンズ100の動作を制御する。 The converter lens unit 600 includes a converter lens 601 and a converter memory 602, and is a photographing lens that changes the focal length of the lens unit 100 that forms an optical image of a subject. In the following description, the lens unit 100 is referred to as a “master lens 100” in order to distinguish it from the converter lens 601. When the converter lens unit 600 is mounted, the zoom function is realized by the first lens group 101 , the second lens group 103, and the converter lens 601. The converter memory 602 stores in advance optical information necessary for automatic focus adjustment. The camera MPU 125 controls the operation of the master lens 100 by executing programs stored in, for example, a built-in nonvolatile memory, the lens memory 118, and the converter memory 602.

なお、各焦点検出方式の説明図(図3から図5)、焦点検出領域の説明図(図6)、各評価帯域の説明図(図11)は、第6の実施形態においても流用する。   The explanatory diagrams of the focus detection methods (FIGS. 3 to 5), the explanatory diagram of the focus detection area (FIG. 6), and the explanatory diagrams of the evaluation bands (FIG. 11) are also used in the sixth embodiment.

次に、第6の実施形態における空間周波数BP補正値(BP3)の算出方法について、図21から図24を用いて説明する。なお、図21において、第1の実施形態における空間周波数BP補正値の算出処理と同様の処理を行うものについては、図10と同じ参照数字を付し、適宜説明を省略する。図10に示す処理との違いは、図21のS3011からS3014において、コンバータレンズ601のBP補正情報の取得を行い、球面収差情報の修正を行ったのちに、補正値を算出するところにある。   Next, a method for calculating the spatial frequency BP correction value (BP3) in the sixth embodiment will be described with reference to FIGS. In FIG. 21, the same reference numerals as those in FIG. 10 are given to those performing the same processing as the spatial frequency BP correction value calculation processing in the first embodiment, and description thereof will be omitted as appropriate. The difference from the processing shown in FIG. 10 is that, in S3011 to S3014 of FIG. 21, the BP correction information of the converter lens 601 is acquired and the spherical aberration information is corrected, and then the correction value is calculated.

本第6の実施形態において、S300では、カメラMPU125は、S1で事前に設定された焦点検出領域の位置(x,y)に対応する空間周波数BP補正情報を取得する。空間周波数BP補正情報は、被写体の空間周波数ごとの撮影光学系の結像位置に関する情報である。本実施形態において空間周波数BP補正情報はレンズユニット100のレンズメモリ118に予め記憶されており、カメラMPU125は、レンズMPU117に要求して取得するものとするが、RAM125bの不揮発性領域に記憶されていてもよい。   In the sixth embodiment, in S300, the camera MPU 125 acquires spatial frequency BP correction information corresponding to the position (x, y) of the focus detection region set in advance in S1. The spatial frequency BP correction information is information relating to the imaging position of the photographing optical system for each spatial frequency of the subject. In this embodiment, the spatial frequency BP correction information is stored in advance in the lens memory 118 of the lens unit 100, and the camera MPU 125 is requested and acquired from the lens MPU 117, but is stored in the nonvolatile area of the RAM 125b. May be.

なお、本第6の実施形態では、例えば、図23(a)に示すように、撮像素子と撮影光学系の光軸との交点を原点とし、撮像素子122の水平方向、垂直方向をそれぞれX軸、Y軸とした座標を設定し、焦点検出領域の中心座標における補正値をXとYの関数で求める。   In the sixth embodiment, for example, as shown in FIG. 23A, the intersection of the image sensor and the optical axis of the imaging optical system is used as the origin, and the horizontal direction and the vertical direction of the image sensor 122 are respectively X. The coordinates for the axis and the Y axis are set, and the correction value at the center coordinate of the focus detection area is obtained by a function of X and Y.

次に、S3011において、レンズMPU117またはカメラMPU125は、コンバータレンズユニット600の装着情報の取得を行う。次に、S3011で得られた情報から、S3012では、コンバータレンズユニット600が装着されているか否かを判定する。S3012で、コンバータレンズユニット600が装着されていると判定された場合にはS3013に進み、コンバータレンズ601の情報の取得を行う。   Next, in S3011, the lens MPU 117 or the camera MPU 125 acquires the mounting information of the converter lens unit 600. Next, based on the information obtained in S3011, it is determined in S3012 whether or not the converter lens unit 600 is attached. If it is determined in S3012 that the converter lens unit 600 is attached, the process proceeds to S3013, and information on the converter lens 601 is acquired.

S3013において、レンズMPU117またはカメラMPU125は、コンバータレンズ601の撮影倍率Tと、コンバータレンズ601の球面収差情報を取得する。第6の実施形態において、コンバータレンズ601の撮影倍率Tと球面収差情報は、コンバータレンズユニット600のコンバータメモリ602に予め記憶されており、レンズMPU117の要求によって取得するものとする。しかしながら、レンズメモリ118またはRAM125bの不揮発性領域に記憶されていてもよい。   In step S <b> 3013, the lens MPU 117 or the camera MPU 125 acquires the shooting magnification T of the converter lens 601 and spherical aberration information of the converter lens 601. In the sixth embodiment, the imaging magnification T and spherical aberration information of the converter lens 601 are stored in advance in the converter memory 602 of the converter lens unit 600, and are acquired at the request of the lens MPU 117. However, it may be stored in the nonvolatile area of the lens memory 118 or RAM 125b.

次に、S3014では、S300およびS3013で得られたマスターレンズ100の球面収差情報とコンバータレンズ601の球面収差情報とから、球面収差情報の修正を行う。S3014の詳細な動作については後述する。   Next, in S3014, the spherical aberration information is corrected from the spherical aberration information of the master lens 100 and the spherical aberration information of the converter lens 601 obtained in S300 and S3013. The detailed operation of S3014 will be described later.

一方、S3012で、コンバータレンズユニット600が装着されていないと判定された場合にはS301に進み、第1の実施形態において図10を参照して説明した処理と同様の処理を行う。   On the other hand, if it is determined in S3012 that the converter lens unit 600 is not attached, the process proceeds to S301, and the same process as that described with reference to FIG. 10 in the first embodiment is performed.

次に、S3014で行われる球面収差情報の修正方法について、図22から図24を用いて説明する。   Next, the spherical aberration information correction method performed in S3014 will be described with reference to FIGS.

まず、S3110では、S3013で取得されたコンバータレンズ601の撮影倍率Tに基づき、焦点検出領域の位置情報の修正を行う。これは、コンバータレンズユニット600の装着前後で、撮像面上の同じ焦点検出領域が、マスターレンズ100の異なる領域を通過した光束を受光するようになるために行う。   First, in S3110, the position information of the focus detection area is corrected based on the imaging magnification T of the converter lens 601 acquired in S3013. This is performed so that the same focus detection area on the imaging surface receives light beams that have passed through different areas of the master lens 100 before and after the converter lens unit 600 is mounted.

まず、コンバータレンズユニット600の装着による、マスターレンズ100から見た焦点検出領域の移動率を示す焦点領域倍率T1を設定する。ここで、焦点領域倍率T1は、T1=Tとしても良いし、T1=T×Co1として、コンバータレンズ601の撮影倍率Tに所定倍率Co1を乗じた値としても良い。その場合、Co1は、設計情報として定義された撮影倍率Tから、製造誤差を考慮して予め求められた値としても良い。また、コンバータメモリ602または、レンズメモリ118またはRAM125bに、撮影倍率Tまたはコンバータレンズ601の特性に応じた焦点検出領域の移動率を予め記憶しておき、読み出した情報を焦点領域倍率T1としても良い。   First, the focal area magnification T1 indicating the movement rate of the focal detection area viewed from the master lens 100 when the converter lens unit 600 is mounted is set. Here, the focus area magnification T1 may be T1 = T, or may be a value obtained by multiplying the imaging magnification T of the converter lens 601 by a predetermined magnification Co1 as T1 = T × Co1. In this case, Co1 may be a value obtained in advance from a photographing magnification T defined as design information in consideration of manufacturing errors. Alternatively, the converter memory 602, the lens memory 118, or the RAM 125b may store in advance the photographing magnification T or the movement rate of the focus detection area corresponding to the characteristics of the converter lens 601, and the read information may be used as the focal area magnification T1. .

S3014の動作では、図10(b)に示すマスターレンズ100のデフォーカスMTF情報を取得するための焦点検出領域の位置(x,y)を、1/焦点領域倍率T1倍した焦点検出領域の位置とする。例えば、コンバータレンズユニット600装着前に図23(a)に示すように撮像面上において焦点検出領域の位置(x,y)が設定されていたとする。コンバータレンズユニット600を装着すると、位置(x,y)にある焦点検出領域に入射する光を透過するマスターレンズ100の射出瞳の位置がシフトする。コンバータレンズユニット600を装着していない場合に、シフトした後の射出瞳を透過した光が入射する焦点検出領域の位置を(Xt,Yt)とすると、装着前の焦点検出領域の座標(x,y)との関係は
(Xt,Yt)=(x/T1,y/T1) …(27)
となる。
In the operation of S3014, the position of the focus detection area obtained by multiplying the position (x, y) of the focus detection area for acquiring the defocus MTF information of the master lens 100 shown in FIG. And For example, it is assumed that the position (x, y) of the focus detection area is set on the imaging surface before the converter lens unit 600 is mounted as shown in FIG. When the converter lens unit 600 is mounted, the position of the exit pupil of the master lens 100 that transmits light incident on the focus detection region at the position (x, y) is shifted. If the position of the focus detection area where the light transmitted through the shifted exit pupil enters is (Xt, Yt) when the converter lens unit 600 is not attached, the coordinates (x, y) is (Xt, Yt) = (x / T1, y / T1) (27)
It becomes.

ここでは、後述する縦収差量の換算を、コンバータレンズユニット600の装着前後においておおよそ同じ瞳領域を通過した光束で行い、マスターレンズ100の収差(主に非点収差)状態を同等とした状態から、倍率による換算を行う。そのため、焦点領域倍率T1による撮像面上の位置換算を行う。   Here, the amount of longitudinal aberration, which will be described later, is converted with a light beam that has passed through approximately the same pupil region before and after the converter lens unit 600 is mounted, and the aberration (mainly astigmatism) state of the master lens 100 is made equivalent. , Conversion by magnification. Therefore, the position on the imaging surface is converted by the focal area magnification T1.

次に、S3111において、コンバータレンズ601の撮影倍率Tに基づき、フォーカスレンズ位置の座標軸変換を行う。これは、コンバータレンズユニット600の装着前後で、同じ空間周波数の被写体を見た場合に、撮影された被写体像の空間周波数が異なるために行う。   In step S <b> 3111, the coordinate axis conversion of the focus lens position is performed based on the imaging magnification T of the converter lens 601. This is performed because the spatial frequency of the photographed subject image differs when the subject having the same spatial frequency is viewed before and after the converter lens unit 600 is mounted.

まず、コンバータレンズユニット600の装着による、フォーカス位置の移動率を示すフォーカス倍率T2を設定する。ここで、フォーカス倍率T2は、T2=Tとしても良いし、T2=T×Co2として、コンバータレンズ601の撮影倍率Tに所定倍率Co2を乗じた値としても良い。その場合、Co2は、設計情報として定義された撮影倍率Tから、製造誤差を考慮し、予め求められた値としても良い。また、コンバータメモリ602または、レンズメモリ118またはRAM125bに、撮影倍率Tまたはコンバータレンズ601の特性に応じたフォーカス位置の移動率を予め記憶しておき、読み出した情報をフォーカス倍率T2としても良い。   First, the focus magnification T2 indicating the moving rate of the focus position by setting the converter lens unit 600 is set. Here, the focus magnification T2 may be T2 = T, or may be a value obtained by multiplying the imaging magnification T of the converter lens 601 by the predetermined magnification Co2 as T2 = T × Co2. In this case, Co2 may be a value obtained in advance from a photographing magnification T defined as design information in consideration of manufacturing errors. Alternatively, the converter memory 602, the lens memory 118, or the RAM 125b may store in advance the photographing magnification T or the moving rate of the focus position according to the characteristics of the converter lens 601, and the read information may be used as the focus magnification T2.

ここで、S3111でのフォーカスレンズ位置の座標変換方法を図23(b)を用いて説明する。なお、図10(b)がS3111での変換前(コンバータレンズユニット600の装着前)のデフォーカスMTFであるため、図23(b)(コンバータレンズユニット600の装着後)と比較して説明する。   Here, the coordinate conversion method of the focus lens position in S3111 will be described with reference to FIG. Since FIG. 10B shows the defocus MTF before the conversion in S3111 (before the converter lens unit 600 is mounted), it will be described in comparison with FIG. 23B (after the converter lens unit 600 is mounted). .

図23(b)の横軸はフォーカスレンズ104の位置を、縦軸はMTFの強度を示している。図23(b)に描かれている4種の曲線は、空間周波数ごとのMTF曲線で、MTF1、MTF2、MTF3、MTF4の順に、空間周波数が低い方から高い方を示している。空間周波数F1(lp/mm)のMTF曲線がMTF1と対応し、空間周波数F2,F3,F4(lp/mm)とMTF2、MTF3、MTF4がそれぞれ対応する。また、LP4、LP5−2、LP6−2、LP7−2は、各デフォーカスMTF曲線の極大値に対応するフォーカスレンズ104の位置を示している。   In FIG. 23B, the horizontal axis indicates the position of the focus lens 104, and the vertical axis indicates the intensity of the MTF. The four types of curves depicted in FIG. 23B are MTF curves for each spatial frequency, showing the spatial frequency from the lowest to the highest in the order of MTF1, MTF2, MTF3, and MTF4. The MTF curve of the spatial frequency F1 (lp / mm) corresponds to MTF1, and the spatial frequencies F2, F3, F4 (lp / mm) correspond to MTF2, MTF3, and MTF4, respectively. LP4, LP5-2, LP6-2, and LP7-2 indicate the position of the focus lens 104 corresponding to the maximum value of each defocus MTF curve.

ここでは、MTF1からMTF4までのいずれかのMTF曲線を固定し、それ以外のMTF曲線をフォーカスレンズ位置(図23(b)の横軸)方向にシフトさせる。ここでは、MTF1を基準とし、MTF2からMTF4のMTF曲線をフォーカスレンズ位置方向にフォーカス倍率T2の二乗倍シフトしている。図10(b)と比べると、
LP5_2−LP4=(LP5−LP4)×T22 …(28)
LP6_2−LP4=(LP6−LP4)×T22 …(29)
LP7_2−LP4=(LP7−LP4)×T22 …(30)
となっている。これは、コンバータレンズ601によって、球面収差が縦倍率方向に拡大されることによって起こる空間周波数の変化に因るものである。本動作により、縦収差量の換算を行う。
Here, one of the MTF curves from MTF1 to MTF4 is fixed, and the other MTF curves are shifted in the focus lens position (horizontal axis in FIG. 23B) direction. Here, the MTF curve from MTF2 to MTF4 is shifted to the focus lens position direction by the square magnification of the focus magnification T2 with MTF1 as a reference. Compared to FIG.
LP5_2-LP4 = (LP5-LP4) × T2 2 (28)
LP6_2-LP4 = (LP6-LP4) × T2 2 (29)
LP7_2−LP4 = (LP7−LP4) × T2 2 (30)
It has become. This is due to the change in the spatial frequency caused by the spherical aberration being magnified in the longitudinal magnification direction by the converter lens 601. With this operation, the longitudinal aberration amount is converted.

次に、S3112では、コンバータレンズ601の撮影倍率Tに基づき、空間周波数のラベル変換を行う。   In step S3112, spatial frequency label conversion is performed based on the imaging magnification T of the converter lens 601.

まず、コンバータレンズユニット600の装着による、空間周波数の変換率を示す周波数倍率T3を設定する。ここで、周波数倍率T3は、T3=Tとしても良いし、T3=T×Co3として、コンバータレンズ601の撮影倍率Tに所定倍率Co3を乗じた値としても良い。その場合、Co3は、設計情報として定義された撮影倍率Tから、製造誤差を考慮し、予め求められた値としても良い。また、コンバータメモリ602または、レンズメモリ118またはRAM125bに、撮影倍率Tまたはコンバータレンズ601の特性に応じた空間周波数の変換率を予め記憶しておき、読み出した情報を周波数倍率T3としても良い。   First, the frequency magnification T3 indicating the conversion rate of the spatial frequency by setting the converter lens unit 600 is set. Here, the frequency magnification T3 may be T3 = T, or may be a value obtained by multiplying the imaging magnification T of the converter lens 601 by a predetermined magnification Co3, with T3 = T × Co3. In this case, Co3 may be a value obtained in advance from a photographing magnification T defined as design information in consideration of manufacturing errors. Alternatively, the converter memory 602, the lens memory 118, or the RAM 125b may store the imaging magnification T or the spatial frequency conversion rate according to the characteristics of the converter lens 601 in advance, and the read information may be used as the frequency magnification T3.

S3112の動作では、マスターレンズ100の図10(b)に示すデフォーカスMTF情報を取得する空間周波数情報を、周波数倍率T3倍した空間周波数情報とする。つまり、図23(b)に描かれている4種の曲線は、空間周波数ごとのMTF曲線であり、空間周波数F1(lp/mm)のMTF曲線がMTF1と対応する。同様に、空間周波数F2,F3,F4(lp/mm)とMTF2、MTF3、MTF4がそれぞれ対応する。   In the operation of S3112, the spatial frequency information for acquiring the defocus MTF information shown in FIG. 10B of the master lens 100 is the spatial frequency information obtained by multiplying the frequency magnification T3. That is, the four types of curves depicted in FIG. 23B are MTF curves for each spatial frequency, and the MTF curve for the spatial frequency F1 (lp / mm) corresponds to MTF1. Similarly, spatial frequencies F2, F3, and F4 (lp / mm) correspond to MTF2, MTF3, and MTF4, respectively.

S3112における動作で空間周波数ラベルを付け替えた後は、空間周波数とMTF曲線の対応を、空間周波数Fa(lp/mm)のMTF曲線がMTF1と対応するラベルの付け替えを行う。同様に、空間周波数Fb,Fc,Fd(lp/mm)とMTF2、MTF3、MTF4がそれぞれ対応するようにラベルの付け替えを行う。すなわち、
Fa=F1×T3 …(31)
Fb=F2×T3 …(32)
Fc=F3×T3 …(33)
Fd=F4×T3 …(34)
となる。これは、コンバータレンズユニット600の装着前後で、同じ空間周波数の被写体を見た場合に、コンバータレンズユニット600の装着時には、横倍率分だけマスターレンズ100の高周波領域を取得した光線を撮像面上で取得することになるからである。これは、コンバータレンズユニット600の装着前後で、同じ空間周波数の被写体を見た場合に、撮影された被写体像の空間周波数が異なることに因る。
After the spatial frequency label is changed in the operation in S3112, the correspondence between the spatial frequency and the MTF curve is changed, and the label corresponding to the MTF curve of the spatial frequency Fa (lp / mm) is changed to MTF1. Similarly, the labels are changed so that the spatial frequencies Fb, Fc, and Fd (lp / mm) correspond to MTF2, MTF3, and MTF4, respectively. That is,
Fa = F1 × T3 (31)
Fb = F2 × T3 (32)
Fc = F3 × T3 (33)
Fd = F4 × T3 (34)
It becomes. This is because, when the subject having the same spatial frequency is viewed before and after the converter lens unit 600 is mounted, when the converter lens unit 600 is mounted, the light beam obtained from the high frequency region of the master lens 100 by the lateral magnification is displayed on the imaging surface. It is because it will acquire. This is because when the subject having the same spatial frequency is viewed before and after the converter lens unit 600 is mounted, the spatial frequency of the captured subject image is different.

つまり、コンバータレンズユニット600の装着後に取得された被写体信号は、マスターレンズ100のみの場合に比べて、横倍率分、低周波な被写体として結像する。マスターレンズ100の高帯域の収差が、コンバータレンズユニット600の装着時には、低周波側の収差として現れるので、周波数倍率T3による撮像光学系の空間周波数ラベルの変更を行う。   In other words, the subject signal acquired after the converter lens unit 600 is mounted forms an image as a subject having a low frequency for the lateral magnification compared to the case of the master lens 100 alone. Since the high-band aberration of the master lens 100 appears as a low-frequency aberration when the converter lens unit 600 is mounted, the spatial frequency label of the imaging optical system is changed by the frequency magnification T3.

次に、S3113では、S3013で取得されたコンバータレンズ601の収差情報に基づき、デフォーカスMTF情報の修正を行う。ここでは、コンバータレンズ601の収差が小さい場合には、処理を省いても良い。例えば、撮影状態における撮影Fナンバーが暗い(大きい)場合には、収差も少ないと考えられるので、通信、演算処理を省いても良い。   Next, in S3113, the defocus MTF information is corrected based on the aberration information of the converter lens 601 acquired in S3013. Here, when the aberration of the converter lens 601 is small, the processing may be omitted. For example, when the shooting F number in the shooting state is dark (large), it is considered that there is little aberration, so communication and arithmetic processing may be omitted.

図24は、S3013で取得されるコンバータレンズ収差情報のイメージ図である。図24は、各周波数Fa・・・Fnにおける各デフォーカスMTF曲線の極大値LP4、LP5_2、LP6_2、LP7_2のフォーカスレンズ方向のシフト量である。S3101と同様に、MTF1を基準とすると、
LP5_3=LP5_2+(Hb−Ha) …(35)
LP6_3=LP6_2+(Hc−Ha) …(36)
LP7_3=LP7_2+(Hd−Ha) …(37)
となる。S3113の処理後のデフォーカスMTF情報は図23(c)のようになる。コンバータレンズユニット600の装着時には、以上のような収差情報の修正を行った後、第1の実施形態のS301以降の処理を行い、補正値を算出する。
FIG. 24 is an image diagram of the converter lens aberration information acquired in S3013. FIG. 24 shows the shift amounts in the focus lens direction of the maximum values LP4, LP5_2, LP6_2, and LP7_2 of each defocus MTF curve at each frequency Fa... Fn. As in S3101, when MTF1 is used as a reference,
LP5 — 3 = LP5 — 2+ (Hb−Ha) (35)
LP6 — 3 = LP6 — 2+ (Hc−Ha) (36)
LP7 — 3 = LP7 — 2+ (Hd−Ha) (37)
It becomes. The defocus MTF information after the processing of S3113 is as shown in FIG. When the converter lens unit 600 is mounted, the aberration information is corrected as described above, and then the processing from S301 in the first embodiment is performed to calculate a correction value.

以上のように、本第6の実施形態によれば、コンバータレンズの倍率分でマスターレンズの収差を換算し、さらにコンバータレンズの収差を加算することで、適切に収差状態の加算を行うことができる。さらに、合成された収差状態から、AF評価帯域と撮影画像評価帯域の設定を行い、差分を焦点検出量補正値とするので、より高精度に焦点検出を行うことが可能である。また、同様の収差特性は、色収差、非点収差にも表れることから、S20、S21における縦横BP、色BPの算出においても、同様の処理を行っても良い。   As described above, according to the sixth embodiment, it is possible to appropriately add aberration states by converting the aberration of the master lens by the magnification of the converter lens and further adding the aberration of the converter lens. it can. Furthermore, since the AF evaluation band and the captured image evaluation band are set from the synthesized aberration state and the difference is used as the focus detection amount correction value, focus detection can be performed with higher accuracy. Since similar aberration characteristics also appear in chromatic aberration and astigmatism, the same processing may be performed in the calculation of the vertical and horizontal BP and color BP in S20 and S21.

●(第7の実施形態)
次に、本発明の第7の実施形態について説明する。第7の実施形態では、前述の第4の実施形態に対して、コンバータレンズユニット600が装着された場合の各種BP補正値の算出方法について説明する。
● (Seventh embodiment)
Next, a seventh embodiment of the present invention will be described. In the seventh embodiment, a method for calculating various BP correction values when the converter lens unit 600 is attached to the above-described fourth embodiment will be described.

なお、撮像装置のブロック図(図2)、各焦点検出方式の説明図(図3から図5)、焦点検出領域の説明図(図6)、各評価帯域の説明図(図11)は、第7の実施形態においても共通であるため、以下の説明においても流用する。 The block diagram of the imaging device (FIG. 2 0 ), the explanatory diagrams of each focus detection method (FIGS. 3 to 5), the explanatory diagram of the focus detection area (FIG. 6), and the explanatory diagram of each evaluation band (FIG. 11) Since this is common to the seventh embodiment, it will be used in the following description.

次に、第7の実施形態におけるBP補正値の算出方法について、図25から図28を用いて説明する。なお、図25において、第4の実施形態におけるBP補正値の算出処理と同様の処理を行うものについては、図15と同じ参照数字を付し、説明を省略する。図15に示す処理との違いは、図25のS5001からS5004において、コンバータレンズの収差情報の取得を行い、収差情報の修正を行ったのちに、補正値を算出するところにある。   Next, a BP correction value calculation method according to the seventh embodiment will be described with reference to FIGS. In FIG. 25, the same reference numerals as those in FIG. 15 are given to those performing the same processing as the BP correction value calculation processing in the fourth embodiment, and description thereof will be omitted. The difference from the processing shown in FIG. 15 is that correction information is calculated after acquiring aberration information of the converter lens and correcting aberration information in S5001 to S5004 of FIG.

S5001では、レンズMPU117またはカメラMPU125は、コンバータレンズユニット600の装着情報の取得を行う。次に、S5001で得られた情報から、S5002では、コンバータレンズユニット600が装着されているか否かを判定する。S5002で、コンバータレンズユニット600が装着されていると判定された場合にはS5003に進み、コンバータレンズ601の情報の取得を行う。   In step S <b> 5001, the lens MPU 117 or the camera MPU 125 acquires the mounting information of the converter lens unit 600. Next, based on the information obtained in S5001, it is determined in S5002 whether or not the converter lens unit 600 is attached. If it is determined in S5002 that the converter lens unit 600 is attached, the process proceeds to S5003, and information on the converter lens 601 is acquired.

S5003において、レンズMPU117またはカメラMPU125は、コンバータレンズ601の撮影倍率Tと、コンバータレンズ601のBP補正情報を取得する。第7の実施形態において、コンバータレンズ601の撮影倍率TとBP補正情報は、コンバータレンズユニット600のコンバータメモリ602に予め記憶されており、レンズMPU117の要求によって取得するものとする。しかしながら、レンズメモリ118またはRAM125bの不揮発性領域に記憶されていてもよい。   In step S <b> 5003, the lens MPU 117 or the camera MPU 125 acquires the shooting magnification T of the converter lens 601 and the BP correction information of the converter lens 601. In the seventh embodiment, the imaging magnification T and the BP correction information of the converter lens 601 are stored in advance in the converter memory 602 of the converter lens unit 600, and are acquired at the request of the lens MPU 117. However, it may be stored in the nonvolatile area of the lens memory 118 or RAM 125b.

コンバータレンズ601のBP補正情報は、被写体の空間周波数ごとの撮影光学系の結像位置に関する情報である。マスターレンズ100のみの場合と同様に、RGB3色と縦横2方向との6通りの組み合わせの各々について、空間周波数fと撮像素子122上の焦点検出領域の位置(x、y)を変数とした以下の式(38)で表現される。
MTF_T_P_RH(f,x,y)=(t_rh(0)×x+t_rh(1)×y+t_rh(2))×f2+(t_rh(3)×x+t_rh(4)×y+t_rh(5))×f+(t_rh(6)×x+t_rh(7)×y+t_rh(8)) …(38)
The BP correction information of the converter lens 601 is information regarding the imaging position of the photographing optical system for each spatial frequency of the subject. As in the case of only the master lens 100, for each of the six combinations of three RGB colors and two vertical and horizontal directions, the spatial frequency f and the position (x, y) of the focus detection area on the image sensor 122 are used as variables. (38).
MTF_T_P_RH (f, x, y) = (t_rh (0) × x + t_rh (1) × y + t_rh (2)) × f 2 + (t_rh (3) × x + t_rh (4) × y + t_rh (5)) × f + (t_rh () 6) × x + t_rh (7) × y + t_rh (8)) (38)

なお、式(38)は、赤(R)色の信号について水平(H)方向に対応した、コンバータレンズの空間周波数ごとのデフォーカスMTFの極大値を示すフォーカスレンズ104位置のMTF_T_P_RHの式を示している。第7の実施形態において、t_rh(n)(0≦n≦8)は、コンバータメモリ602または、レンズメモリ118またはRAM125bの不揮発性領域に記憶されている。   Expression (38) represents an expression of MTF_T_P_RH at the position of the focus lens 104 indicating the maximum value of the defocus MTF for each spatial frequency of the converter lens corresponding to the horizontal (H) direction for the red (R) signal. ing. In the seventh embodiment, t_rh (n) (0 ≦ n ≦ 8) is stored in the nonvolatile area of the converter memory 602, the lens memory 118, or the RAM 125b.

同様に、赤と垂直(MTF_T_P_RV)、緑と水平(MTF_T_P_GH)、緑と垂直(MTF_T_P_GV)、青と水平(MTF_T_P_BH)、青と垂直(MTF_T_P_BV)の各組み合わせにおける係数(t_rv、t_gh、t_gv、t_bh、t_bv)も記憶されている。   Similarly, coefficients (t_rv, t_gh, t_g, t_g, t_g, and t_g, t_g, and t_gh, t_gv, red and vertical (MTF_T_P_RV), green and horizontal (MTF_T_P_GH), green and vertical (MTF_T_P_GV), blue and horizontal (MTF_T_P_BH), and blue and vertical (MTF_T_P_BV) , T_bv) is also stored.

そして、S502の処理と同様に、BP補正値を算出する際の焦点検出領域の位置についての情報を用いて、コンバータレンズ601の収差情報の計算を行う。より具体的には、式(38)のx、yに焦点検出領域の位置情報を代入する。この計算により、コンバータレンズ601の収差情報は、以下の式(39)により表される。
MTF_T_P_RH(f)=T_Arh×f2+T_Brh×f+T_Crh …(39)
同様に、MTF_T_P_RV(f)、MTF_T_P_GH(f)、MTF_T_P_GV(f)、MTF_T_P_BH(f)、MTF_T_P_BV(f)についても計算する。これらは、デフォーカスMTF中間情報に相当する。
Then, similarly to the process of S502, the aberration information of the converter lens 601 is calculated using the information about the position of the focus detection region when calculating the BP correction value. More specifically, the position information of the focus detection area is substituted into x and y in Expression (38). By this calculation, the aberration information of the converter lens 601 is expressed by the following equation (39).
MTF_T_P_RH (f) = T_Arh × f 2 + T_Brh × f + T_Crh (39)
Similarly, MTF_T_P_RV (f), MTF_T_P_GH (f), MTF_T_P_GV (f), MTF_T_P_BH (f), and MTF_T_P_BV (f) are also calculated. These correspond to defocus MTF intermediate information.

図26は、S5003で焦点検出領域の位置情報を代入した後のコンバータレンズ601の収差情報を示している。横軸は空間周波数を、縦軸はデフォーカスMTFの極大値を示すフォーカスレンズ104の位置(ピーク位置)を表している。図示の通り、色収差が大きい場合には、色ごとの曲線が乖離し、縦横差が大きい場合には、図中の水平方向と垂直方向の曲線が乖離する。このように、第7の実施形態では、色(RGB)と評価方向(HとV)との組み合わせごとに、空間周波数に対応したコンバータレンズ601のデフォーカスMTF情報を有する。   FIG. 26 shows the aberration information of the converter lens 601 after the position information of the focus detection area is substituted in S5003. The horizontal axis represents the spatial frequency, and the vertical axis represents the position (peak position) of the focus lens 104 indicating the maximum value of the defocus MTF. As shown in the figure, when the chromatic aberration is large, the curves for each color are deviated, and when the vertical and horizontal differences are large, the horizontal and vertical curves in the figure are deviated. As described above, the seventh embodiment has the defocus MTF information of the converter lens 601 corresponding to the spatial frequency for each combination of color (RGB) and evaluation direction (H and V).

次に、S5004では、S502及びS5003で得られたマスターレンズ100のBP補正情報とコンバータレンズ601の収差情報とから、収差情報の修正を行う。S5004の詳細な動作については後述する。   Next, in S5004, the aberration information is corrected from the BP correction information of the master lens 100 and the aberration information of the converter lens 601 obtained in S502 and S5003. The detailed operation of S5004 will be described later.

一方、S5002で、コンバータレンズユニット600が装着されていないと判定された場合にはS503に進み、上述した第4の実施形態における図15と同様の処理が行われることになる。   On the other hand, if it is determined in S5002 that the converter lens unit 600 is not attached, the process proceeds to S503, and the same processing as in FIG. 15 in the fourth embodiment described above is performed.

次に、S5004で行われるBP補正情報の修正方法について、図27及び図28を用いて説明する。   Next, the BP correction information correction method performed in S5004 will be described with reference to FIGS.

まず、S5100では、S5003で取得されたコンバータレンズ601の撮影倍率Tに基づき、焦点検出領域の位置情報の修正を行う。ここでは、コンバータレンズ601の焦点領域倍率T1で、焦点検出領域が(Xt,Yt)に換算された位置でのマスターレンズ100のBP補正情報をMTF_Pとする。具体的には、式(13)に、式(27)で説明したx=Xt,y=Ytを代入し、
MTF_P_RH(f,x,y)=(rh(0)×(x/T1)+rh(1)×(y/T1)+rh(2))×f2+(rh(3)×(x/T1)+rh(4)×(y/T1)+rh(5))×f+(rh(6)×(x/T1)+rh(7)×(y/T1)+rh(8)) …(40)
とすることで、撮像素子122の位置xでの収差特性をXtの収差特性と置き換える。赤と垂直(MTF_P_RV)、緑と水平(MTF_P_GH)、緑と垂直(MTF_P_GV)、青と水平(MTF_P_BH)、青と垂直(MTF_P_BV)についても、同様の処理を行う。この時のマスターレンズ100の収差情報例を図28(a)に示している。
First, in S5100, the position information of the focus detection area is corrected based on the imaging magnification T of the converter lens 601 acquired in S5003. Here, the BP correction information of the master lens 100 at the position where the focus detection area is converted into (Xt, Yt) with the focus area magnification T1 of the converter lens 601 is MTF_P. Specifically, x = Xt and y = Yt described in Expression (27) are substituted into Expression (13),
MTF_P_RH (f, x, y) = (rh (0) × (x / T1) + rh (1) × (y / T1) + rh (2)) × f 2 + (rh (3) × (x / T1) + Rh (4) × (y / T1) + rh (5)) × f + (rh (6) × (x / T1) + rh (7) × (y / T1) + rh (8)) (40)
Thus, the aberration characteristic at the position x of the image sensor 122 is replaced with the aberration characteristic of Xt. Similar processing is performed for red and vertical (MTF_P_RV), green and horizontal (MTF_P_GH), green and vertical (MTF_P_GV), blue and horizontal (MTF_P_BH), and blue and vertical (MTF_P_BV). An example of aberration information of the master lens 100 at this time is shown in FIG.

次に、S5101では、S5003で取得したコンバータレンズ601の撮影倍率Tに基づき、フォーカスレンズ位置の座標軸変換を行う。ここでは、MTF_P2_RH他6種類の収差情報のいずれかの空間周波数特性における単一周波数のピーク情報を固定し、それ以外の空間周波数特性をフォーカスレンズ位置(図28(b)縦軸)方向にシフトさせる。ここでは、MTF_P2_GH(F1)を基準とし、MTF2からMTF4のMTF曲線をフォーカスレンズ位置方向にフォーカス倍率T2の二乗倍引き延ばす。なお、フォーカス倍率T2は、第6の実施形態において説明したようにして設定する。   In step S5101, the coordinate axis conversion of the focus lens position is performed based on the imaging magnification T of the converter lens 601 acquired in step S5003. Here, the single frequency peak information in the spatial frequency characteristics of MTF_P2_RH and other six types of aberration information is fixed, and the other spatial frequency characteristics are shifted in the direction of the focus lens position (vertical axis in FIG. 28 (b)). Let Here, MTF_P2_GH (F1) is used as a reference, and the MTF curve from MTF2 to MTF4 is extended by the square of the focus magnification T2 in the focus lens position direction. The focus magnification T2 is set as described in the sixth embodiment.

第7の実施形態におけるフォーカスレンズ位置の座標軸変換は、図28では、デフォーカスMTFのピーク情報である縦軸にあたる。従って、図28(a)で設定されたデフォーカスMTFのピーク位置LPnを、LPn_2の位置に、MTF_P_RH(f)と基準のMTF_P_GH(F1)との差をコンバータレンズのフォーカス倍率T2の二乗倍した分、シフトする。以下の式(41)により、縦収差量の換算を行うことができる。
MTF_P_RH(f)=MTF_P_RH(f)+(MTF_P_RH(f)−MTF_P_GH(F1))×T22 …(41)
赤と垂直(MTF_P_RV)、緑と水平(MTF_P_GH)、緑と垂直(MTF_P_GV)、青と水平(MTF_P_BH)、青と垂直(MTF_P_BV)についても、同様の処理を行う。
In FIG. 28, the coordinate axis conversion of the focus lens position in the seventh embodiment corresponds to the vertical axis that is the peak information of the defocus MTF. Accordingly, the peak position LPn of the defocus MTF set in FIG. 28A is set to the position of LPn_2, and the difference between the MTF_P_RH (f) and the reference MTF_P_GH (F1) is multiplied by the square of the converter lens focus magnification T2. Shift a minute. The longitudinal aberration amount can be converted by the following equation (41).
MTF_P_RH (f) = MTF_P_RH (f) + (MTF_P_RH (f) −MTF_P_GH (F1)) × T2 2 (41)
Similar processing is performed for red and vertical (MTF_P_RV), green and horizontal (MTF_P_GH), green and vertical (MTF_P_GV), blue and horizontal (MTF_P_BH), and blue and vertical (MTF_P_BV).

次に、S5102の動作では、S5003で取得されたコンバータレンズ601の撮影倍率Tに基づき、空間周波数のラベル変換を行う。このS5103で行われる周波数倍率T3による空間周波数ラベルの付け替えは、第7の実施形態における図28では横軸の変換にあたる。なお、周波数倍率T3は、第6の実施形態において説明したようにして設定する。   Next, in the operation of S5102, the label conversion of the spatial frequency is performed based on the imaging magnification T of the converter lens 601 acquired in S5003. The replacement of the spatial frequency label by the frequency magnification T3 performed in S5103 corresponds to the horizontal axis conversion in FIG. 28 in the seventh embodiment. The frequency magnification T3 is set as described in the sixth embodiment.

S5004における動作で空間周波数ラベルを付け替えた後の、空間周波数をFa,Fb,Fc,Fd(lp/mm)とすると、付け替え前の空間周波数F1,F2,F3,F4との対応は上述した式(31)〜式(34)となる。従って、MTF_P_RH(f)にf=f/T3を代入した式をラベルの付け替え後のMTF_P_RH(f)とする。
MTF_P2_RH(f)=MTF_P_RH(f×T3) …(42)
赤と垂直(MTF_P_RV)、緑と水平(MTF_P_GH)、緑と垂直(MTF_P_GV)、青と水平(MTF_P_BH)、青と垂直(MTF_P_BV)についても、同様の処理を行う。S5101、S5102の処理を終えた後の、収差情報例を図28(b)に示す。
When the spatial frequency after the spatial frequency label is changed by the operation in S5004 is Fa, Fb, Fc, Fd (lp / mm), the correspondence with the spatial frequencies F1, F2, F3, F4 before the replacement is the above-described formula. (31) to (34). Therefore, an expression obtained by substituting f = f / T3 into MTF_P_RH (f) is defined as MTF_P_RH (f) after label change.
MTF_P2_RH (f) = MTF_P_RH (f × T3) (42)
Similar processing is performed for red and vertical (MTF_P_RV), green and horizontal (MTF_P_GH), green and vertical (MTF_P_GV), blue and horizontal (MTF_P_BH), and blue and vertical (MTF_P_BV). FIG. 28B shows an example of aberration information after the processing of S5101, S5102.

次に、S5103では、S5003で取得されたコンバータレンズ601の収差情報に基づき、S5102で求められた収差情報の修正を行う。ここでは、コンバータレンズ601の収差が小さい場合には、処理を省いても良い。例えば、撮影状態における撮影Fナンバーが暗い場合には、収差も少ないと考えられるので、通信、演算処理を省いても良い。具体的には、図27(b)で求められたMTF_P2の関数と、S5003で取得した図26に示したコンバータレンズのMTF_T_Pを合算する。合成後の収差情報MTF_P3は、以下の式(43)で表される。
MTF_P3_RH(f)=MTF_P2_RH(f)+MTF_T_P_RH(f) …(43)
同様に、MTF_P3_RV(f)、MTF_P3_GH(f)、MTF_P3_GV(f)、MTF_P3_BH(f)、MTF_P3_BV(f)についても計算する。S5103の処理を終えた後の収差情報例を図28(c)に示す。
In step S5103, the aberration information obtained in step S5102 is corrected based on the aberration information of the converter lens 601 acquired in step S5003. Here, when the aberration of the converter lens 601 is small, the processing may be omitted. For example, when the shooting F number in the shooting state is dark, it is considered that there is little aberration, so communication and arithmetic processing may be omitted. Specifically, the MTF_P2 function obtained in FIG. 27B and the MTF_T_P of the converter lens shown in FIG. 26 acquired in S5003 are added. The combined aberration information MTF_P3 is expressed by the following equation (43).
MTF_P3_RH (f) = MTF_P2_RH (f) + MTF_T_P_RH (f) (43)
Similarly, MTF_P3_RV (f), MTF_P3_GH (f), MTF_P3_GV (f), MTF_P3_BH (f), and MTF_P3_BV (f) are also calculated. An example of aberration information after the processing of S5103 is shown in FIG.

S5103までの動作を終えると、第7の実施形における収差情報は、空間周波数f、撮像素子122上の焦点検出領域の位置(x,y)の関数となる。コンバータレンズユニット600の装着時には、以上のような収差情報の修正を行った後、第4の実施形態で説明したS503以降の処理を行い、補正値を算出する。   When the operation up to S5103 is finished, the aberration information in the seventh embodiment is a function of the spatial frequency f and the position (x, y) of the focus detection region on the image sensor 122. When the converter lens unit 600 is mounted, after correcting the aberration information as described above, the processing after S503 described in the fourth embodiment is performed to calculate a correction value.

以上のように、コンバータレンズの倍率分でマスターレンズの収差を換算し、さらにコンバータレンズの収差を加算することで、適切に収差状態の加算を行うことができる。   As described above, it is possible to appropriately add aberration states by converting the aberration of the master lens by the magnification of the converter lens and adding the aberration of the converter lens.

さらに、合成された収差状態から、AF評価帯域と撮影画像評価帯域の設定を行い、差分を焦点検出量補正値とするので、より高精度に焦点検出を行うことが可能である。この場合、収差情報をデフォーカスMTFのピーク情報としたので、メモリへの記憶情報を更に少なくすることが可能である。   Furthermore, since the AF evaluation band and the captured image evaluation band are set from the synthesized aberration state and the difference is used as the focus detection amount correction value, focus detection can be performed with higher accuracy. In this case, since the aberration information is the defocus MTF peak information, the information stored in the memory can be further reduced.

100…レンズユニット(マスターレンズ)、104…フォーカスレンズ、113…フォーカスアクチュエータ、117…レンズMPU、118…レンズメモリ、120…カメラ本体、122…撮像素子、125…カメラMPU、129…位相差AF部、130…TVAF、600…コンバータレンズユニット、601…コンバータレンズ、602…コンバータメモリ DESCRIPTION OF SYMBOLS 100 ... Lens unit (master lens) 104 ... Focus lens, 113 ... Focus actuator, 117 ... Lens MPU, 118 ... Lens memory, 120 ... Camera body, 122 ... Image sensor, 125 ... Camera MPU, 129 ... Phase difference AF part , 130 ... TVAF, 600 ... Converter lens unit, 601 ... Converter lens, 602 ... Converter memory

Claims (20)

設定された焦点検出領域から得られる画像信号を用いた撮影光学系の自動焦点検出を実行可能であって、コンバータレンズを着脱可能な撮像装置であって、
前記コンバータレンズが装着されている場合に、前記撮影光学系の収差に関連した情報であって、異なる複数の空間周波数ごとの変調伝達関数のそれぞれ1つずつの前記撮影光学系の結像位置に関する情報を、前記コンバータレンズの撮影倍率に基づいて変換する変換手段と、
前記コンバータレンズが装着されていない場合には前記変換手段により変換されていない前記撮影光学系の収差に関連した情報を用いて、前記コンバータレンズが装着されている場合には前記変換手段により変換された収差に関連した情報を用いて、前記自動焦点検出の結果を取得するために用いられる信号の特性と、撮影対象画像の信号の特性との差によるピント状態の差を補正するための補正値を算出する算出手段と、
前記補正値によって補正された前記自動焦点検出の結果に基づいて前記撮影光学系が有するフォーカスレンズの位置を制御する制御手段と
を有することを特徴とする撮像装置。
An imaging device capable of performing automatic focus detection of a photographing optical system using an image signal obtained from a set focus detection region, and having a detachable converter lens,
When the converter lens is mounted, the information is related to the aberration of the photographing optical system, and is related to the imaging position of the photographing optical system, one modulation transfer function for each of a plurality of different spatial frequencies. Conversion means for converting information based on the imaging magnification of the converter lens;
When the converter lens is not attached, information related to the aberration of the photographing optical system that is not converted by the converter is used, and when the converter lens is attached, the information is converted by the converter. Correction value for correcting the difference of the focus state due to the difference between the characteristics of the signal used to acquire the result of the automatic focus detection and the characteristics of the signal of the image to be photographed using information related to the aberration. Calculating means for calculating
An image pickup apparatus comprising: control means for controlling a position of a focus lens included in the photographing optical system based on a result of the automatic focus detection corrected by the correction value.
前記撮影光学系の収差に関連した情報は、前記焦点検出領域、フォーカスレンズの位置、空間周波数の少なくともいずれかに対応した情報であることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the information related to the aberration of the photographing optical system is information corresponding to at least one of the focus detection area, a focus lens position, and a spatial frequency. 前記変換手段は、前記コンバータレンズの撮影倍率によって生じる、前記焦点検出領域の位置の変化、フォーカス位置の変化、および空間周波数の変化の内の少なくとも1つと、前記コンバータレンズの収差とを補正するように、前記撮影光学系の収差に関する情報を変換することを特徴とする請求項1または2に記載の撮像装置。 Said conversion means is caused by photographing magnification of said converter lens, the change in the position of the focus detection area, the change in the focus position, at least one of a change in our and spatial frequency to correct the aberrations of said converter lens as such, the imaging apparatus according to claim 1 or 2, characterized in that converting the information about the aberration of the photographing optical system. 前記撮影光学系の収差に関連した情報は、前記撮影光学系の球面収差、非点収差および色収差に関する情報であって、異なる複数の空間周波数における変調伝達関数の極大値に対応する前記撮影光学系の結像位置の情報を、前記コンバータレンズの収差情報に基づいて変換することを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。 Information related to aberrations of the imaging optical system, the spherical aberration of the imaging optical system, an information about the astigmatism and the chromatic aberration, the imaging optical system corresponding to the maximum value of the modulation transfer function at a plurality of different spatial frequencies the imaging apparatus according to the information of the imaging position, to any one of claims 1 to 3, wherein the conversion on the basis of the yield difference information of said converter lens. 前記変換手段は、前記コンバータレンズが装着されていない場合の前記極大値を、該極大値と予め決められた基準の値との差を前記コンバータレンズの倍率に基づいて決められた倍率の二乗倍した分、シフトするように、前記撮影光学系の収差に関連した情報を変換することを特徴とする請求項に記載の撮像装置。 The converting means calculates the local maximum value when the converter lens is not mounted, the difference between the local maximum value and a predetermined reference value as a square of the magnification determined based on the magnification of the converter lens. 5. The image pickup apparatus according to claim 4 , wherein information related to the aberration of the photographing optical system is converted so as to shift by an amount corresponding thereto. 前記変換手段は、前記コンバータレンズが装着されていない場合の前記空間周波数を、該空間周波数に前記コンバータレンズの倍率に基づいて決められた倍率で乗じた空間周波数となるように、前記撮影光学系の収差に関連した情報を変換することを特徴とする請求項に記載の撮像装置。 The converting means is configured to obtain the spatial frequency obtained by multiplying the spatial frequency when the converter lens is not mounted by a magnification determined on the basis of the magnification of the converter lens. 5. The imaging apparatus according to claim 4 , wherein information related to the aberration of the image is converted. 前記変換手段は、前記コンバータレンズが装着されていない場合の前記焦点検出領域の位置を、該焦点検出領域の位置を前記コンバータレンズの倍率に基づいて決められた値で除した位置となるように、前記撮影光学系の収差に関連した情報を変換することを特徴とする請求項に記載の撮像装置。 The converting means has a position obtained by dividing the position of the focus detection area when the converter lens is not mounted by dividing the position of the focus detection area by a value determined based on the magnification of the converter lens. 5. The imaging apparatus according to claim 4 , wherein information relating to aberrations of the photographing optical system is converted. 前記変換手段は、前記変換された収差に関連した情報に、前記空間周波数毎に、前記コンバータレンズの収差情報を加算することを特徴とする請求項に記載の撮像装置。 The imaging apparatus according to claim 4 , wherein the conversion unit adds aberration information of the converter lens to the information related to the converted aberration for each spatial frequency. 前記異なる複数の空間周波数に対応する変調伝達関数の極大値に対応する複数のフォーカスレンズ位置の情報は、第1のパラメータと第2のパラメータとを変数とする関数として定義され、
前記撮像装置は、前記異なる複数の空間周波数に対応する変調伝達関数の極大値に対応する複数のフォーカスレンズ位置の情報と前記第1のパラメータを用いて、デフォーカスMTF中間情報を記憶する記憶手段をさらに有し、
前記算出手段は、前記デフォーカスMTF中間情報と前記第2のパラメータを用いて、前記補正値を算出することを特徴とする請求項乃至のいずれか1項に記載の撮像装置。
Information on a plurality of focus lens positions corresponding to maximum values of modulation transfer functions corresponding to the plurality of different spatial frequencies is defined as a function having a first parameter and a second parameter as variables,
The image pickup device stores defocus MTF intermediate information using information on a plurality of focus lens positions corresponding to maximum values of modulation transfer functions corresponding to the plurality of different spatial frequencies and the first parameter. Further comprising
It said calculating means uses the second parameter and the defocus MTF intermediate information, the imaging apparatus according to any one of claims 4 to 8, characterized in that to calculate the correction value.
前記第1のパラメータは、前記撮影光学系の色収差と、非点収差と、前記焦点検出領域の位置とに対応する変数であり、
前記第2のパラメータは、前記撮影光学系の球面収差に対応する変数であることを特徴とする請求項に記載の撮像装置。
The first parameter is a variable corresponding to chromatic aberration, astigmatism, and position of the focus detection region of the photographing optical system,
The imaging apparatus according to claim 9 , wherein the second parameter is a variable corresponding to a spherical aberration of the photographing optical system.
前記第1のパラメータは、前記撮影光学系の色収差と、非点収差と、球面収差とに対応する変数であり、
前記第2のパラメータは、前記焦点検出領域の位置に対応する変数であることを特徴とする請求項に記載の撮像装置。
The first parameter is a variable corresponding to chromatic aberration, astigmatism, and spherical aberration of the photographing optical system,
The imaging apparatus according to claim 9 , wherein the second parameter is a variable corresponding to a position of the focus detection area.
前記変換手段は、予め定められた条件が満たされる場合には、前記収差に関連した情報の補正を行わないことを特徴とする請求項1乃至11のいずれか1項に記載の撮像装置。 And the converting means, in a case where predetermined conditions are satisfied, an imaging apparatus according to any one of claims 1 to 11, characterized in that no correction of the information related to the aberrations. 設定された焦点検出領域から得られる画像信号を用いた撮影光学系の自動焦点検出を実行可能であって、コンバータレンズを着脱可能な撮像装置における制御方法であって、
前記コンバータレンズが装着されている場合に、前記撮影光学系の収差に関する情報であって、異なる複数の空間周波数ごとの変調伝達関数のそれぞれ1つずつの前記撮影光学系の結像位置に関する情報を、前記コンバータレンズの撮影倍率に基づいて変換する変換工程と、
前記コンバータレンズが装着されていない場合には前記変換工程により変換されていない前記撮影光学系の収差情報を用いて、前記自動焦点検出の結果を取得するために用いられる信号の特性と、撮影対象画像の信号の特性との差によるピント状態の差を補正するための補正値を算出する工程と、
前記コンバータレンズが装着されている場合には前記変換工程で変換された収差情報を用いて、前記自動焦点検出の結果を取得するために用いられる信号の特性と、撮影対象画像の信号の特性との差によるピント状態の差を補正するための補正値を算出する工程と、
前記補正値によって補正された前記自動焦点検出の結果に基づいて前記撮影光学系が有するフォーカスレンズの位置を制御する工程と、
を有することを特徴とする撮像装置の制御方法。
A control method in an image pickup apparatus capable of performing automatic focus detection of a photographing optical system using an image signal obtained from a set focus detection area, wherein a converter lens can be attached and detached,
When the converter lens is mounted, information on the aberration of the photographing optical system, and information on the imaging position of the photographing optical system for each of the modulation transfer functions for each of a plurality of different spatial frequencies. A conversion step of converting based on the photographing magnification of the converter lens;
When the converter lens is not attached, using the aberration information of the imaging optical system that has not been converted by the conversion step, the characteristics of the signal used to acquire the result of the automatic focus detection, and the imaging target Calculating a correction value for correcting a difference in focus state due to a difference from the characteristics of the image signal;
When the converter lens is mounted, using the aberration information converted in the conversion step, the characteristics of the signal used to acquire the result of the automatic focus detection, and the characteristics of the signal of the image to be captured Calculating a correction value for correcting the difference in focus state due to the difference between
Controlling the position of the focus lens of the photographing optical system based on the result of the automatic focus detection corrected by the correction value;
A method for controlling an imaging apparatus, comprising:
設定された焦点検出領域から得られる画像信号を用いた、撮影光学系の自動焦点検出を実行可能な撮像装置、および設定された焦点検出領域から得られる画像信号を用いた、撮影光学系の自動焦点検出を実行可能な撮像装置に装着されたコンバータレンズ、を装着することができる撮影光学系であって、
前記コンバータレンズが装着されている場合に、前記撮影光学系の収差に関連した情報であって、異なる複数の空間周波数ごとの変調伝達関数のそれぞれ1つずつの前記撮影光学系の結像位置に関する情報を、コンバータレンズの撮影倍率に基づいて変換する変換手段と、
前記変換された前記撮影光学系の収差に関連した情報に基づいて、前記自動焦点検出結果を補正するための補正値を算出する算出手段と、
を有することを特徴とする撮影光学系。
An imaging device capable of performing automatic focus detection of an imaging optical system using an image signal obtained from a set focus detection area, and an automatic imaging optical system using an image signal obtained from the set focus detection area An imaging optical system capable of mounting a converter lens mounted on an imaging device capable of performing focus detection,
When the converter lens is mounted, the information is related to the aberration of the photographing optical system, and is related to the imaging position of the photographing optical system, one modulation transfer function for each of a plurality of different spatial frequencies. Conversion means for converting information based on the imaging magnification of the converter lens;
Calculation means for calculating a correction value for correcting the automatic focus detection result based on the information related to the converted aberration of the photographing optical system;
A photographic optical system comprising:
前記撮影光学系の収差に関連した情報は、前記焦点検出領域、フォーカスレンズの位置、空間周波数の少なくともいずれかに対応した情報であることを特徴とする請求項14に記載の撮影光学系。 15. The photographing optical system according to claim 14 , wherein the information related to the aberration of the photographing optical system is information corresponding to at least one of the focus detection region, the position of the focus lens, and the spatial frequency. 前記算出手段は、前記撮影光学系の収差によって生じる、前記自動焦点検出の結果を取得するために用いられる信号の特性と、撮影対象画像の信号の特性との差によるピント状態の差を補正するための補正値を算出することを特徴とする請求項14に記載の撮影光学系。 The calculation unit corrects a difference in focus state due to a difference between a characteristic of a signal used for acquiring the result of the automatic focus detection and a characteristic of a signal of a photographing target image, which is caused by an aberration of the photographing optical system. The photographic optical system according to claim 14 , wherein a correction value for calculating the correction value is calculated. 前記撮影光学系の収差に関連した情報は、被写体の空間周波数ごとの前記撮影光学系の結像位置に関する情報であり、
前記算出手段は、前記コンバータレンズの収差情報に基づいて修正された前記結像位置の情報を用いて、前記自動焦点検出結果を補正するための補正値を算出することを特徴とする請求項14に記載の撮影光学系。
The information related to the aberration of the photographing optical system is information on the imaging position of the photographing optical system for each spatial frequency of the subject,
Said calculating means uses the information of the imaging position is corrected based on the aberration information of said converter lens, according to claim 14, characterized in that to calculate a correction value for correcting the auto-focus detection result The taking optical system described in 1.
前記変換手段は、前記コンバータレンズの撮影倍率によって生じる、前記焦点検出領域の位置の変化、フォーカス位置の変化、および空間周波数の変化の内の少なくとも1つと、前記コンバータレンズの収差とを補正するように、前記撮影光学系の収差に関連した情報を変換することを特徴とする請求項14に記載の撮影光学系。 The conversion means corrects at least one of a change in position of the focus detection region, a change in focus position, and a change in spatial frequency caused by the imaging magnification of the converter lens, and the aberration of the converter lens. 15. The photographing optical system according to claim 14 , wherein information relating to aberrations of the photographing optical system is converted. 前記変換手段は、予め定められた条件が満たされる場合には、前記収差情報の補正を行わないことを特徴とする請求項14に記載の撮影光学系。 15. The photographing optical system according to claim 14 , wherein the conversion unit does not correct the aberration information when a predetermined condition is satisfied. 設定された焦点検出領域から得られる画像信号を用いた、撮影光学系の自動焦点検出を実行可能な撮像装置、および設定された焦点検出領域から得られる画像信号を用いた、撮影光学系の自動焦点検出を実行可能な撮像装置に装着されたコンバータレンズ、を装着することができる撮影光学系の制御方法であって、
前記コンバータレンズが装着されている場合に、前記撮影光学系の収差に関連した情報であって、異なる複数の空間周波数ごとの変調伝達関数のそれぞれ1つずつの前記撮影光学系の結像位置に関する情報を、コンバータレンズの撮影倍率に基づいて変換する変換工程と、
前記変換された前記撮影光学系の収差に関連した情報に基づいて、前記自動焦点検出結果を補正するための補正値を算出する算出工程と、
を有することを特徴とする撮影光学系の制御方法。
An imaging device capable of performing automatic focus detection of an imaging optical system using an image signal obtained from a set focus detection area, and an automatic imaging optical system using an image signal obtained from the set focus detection area A control method of a photographing optical system capable of attaching a converter lens attached to an imaging device capable of performing focus detection,
When the converter lens is mounted, the information is related to the aberration of the photographing optical system, and is related to the imaging position of the photographing optical system, one modulation transfer function for each of a plurality of different spatial frequencies. A conversion process for converting information based on the imaging magnification of the converter lens;
A calculation step of calculating a correction value for correcting the automatic focus detection result based on the converted information related to the aberration of the photographing optical system;
A method for controlling a photographic optical system, comprising:
JP2014225439A 2014-11-05 2014-11-05 Imaging apparatus and control method thereof, imaging optical system and control method thereof Active JP6484004B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2014225439A JP6484004B2 (en) 2014-11-05 2014-11-05 Imaging apparatus and control method thereof, imaging optical system and control method thereof
EP15189277.5A EP3018516B1 (en) 2014-11-05 2015-10-12 Image capturing apparatus and method for controlling image capturing apparatus
US14/925,364 US9742982B2 (en) 2014-11-05 2015-10-28 Image capturing apparatus and method for controlling image capturing apparatus
CN201510725325.0A CN105578033B (en) 2014-11-05 2015-10-30 The control method of image capture apparatus and image capture apparatus
CN201910508874.0A CN110231692B (en) 2014-11-05 2015-10-30 Image pickup optical system and control method for image pickup optical system
US15/655,136 US10313578B2 (en) 2014-11-05 2017-07-20 Image capturing apparatus and method for controlling image capturing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014225439A JP6484004B2 (en) 2014-11-05 2014-11-05 Imaging apparatus and control method thereof, imaging optical system and control method thereof

Publications (3)

Publication Number Publication Date
JP2016090816A JP2016090816A (en) 2016-05-23
JP2016090816A5 JP2016090816A5 (en) 2017-12-14
JP6484004B2 true JP6484004B2 (en) 2019-03-13

Family

ID=56019605

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014225439A Active JP6484004B2 (en) 2014-11-05 2014-11-05 Imaging apparatus and control method thereof, imaging optical system and control method thereof

Country Status (1)

Country Link
JP (1) JP6484004B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017209252A1 (en) * 2016-06-01 2017-12-07 富士フイルム株式会社 Imaging device, focusing control method, and focusing control program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3345890B2 (en) * 1990-08-06 2002-11-18 株式会社ニコン System camera and rear conversion lens barrel
JP2013029656A (en) * 2011-07-28 2013-02-07 Sanyo Electric Co Ltd Image pickup apparatus

Also Published As

Publication number Publication date
JP2016090816A (en) 2016-05-23

Similar Documents

Publication Publication Date Title
KR102159544B1 (en) Focus detection apparatus, Focus detection method, and Lens unit
EP3018516B1 (en) Image capturing apparatus and method for controlling image capturing apparatus
JP6478457B2 (en) Focus adjustment device and focus adjustment method
JP6478496B2 (en) Imaging apparatus and control method thereof
JP6429546B2 (en) Imaging apparatus, control method, program, and storage medium
JP6486288B2 (en) Imaging apparatus, control method, program, storage medium
JP6464118B2 (en) Focus detection apparatus and method, imaging apparatus, and lens unit
JP6484003B2 (en) Imaging apparatus, control method therefor, and imaging optical system
JP6744933B2 (en) Lens part and its control method
JP6484004B2 (en) Imaging apparatus and control method thereof, imaging optical system and control method thereof
JP6686191B2 (en) Focus detection device, imaging device, and focus detection method
JP6686239B1 (en) Lens unit, transmitter, and receiver
JP6415054B2 (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171101

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190215

R151 Written notification of patent or utility model registration

Ref document number: 6484004

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151