JP2019109549A - Imaging system, imaging apparatus, lens device, and control method of imaging system - Google Patents

Imaging system, imaging apparatus, lens device, and control method of imaging system Download PDF

Info

Publication number
JP2019109549A
JP2019109549A JP2019062953A JP2019062953A JP2019109549A JP 2019109549 A JP2019109549 A JP 2019109549A JP 2019062953 A JP2019062953 A JP 2019062953A JP 2019062953 A JP2019062953 A JP 2019062953A JP 2019109549 A JP2019109549 A JP 2019109549A
Authority
JP
Japan
Prior art keywords
lens
sensitivity
focus detection
image height
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019062953A
Other languages
Japanese (ja)
Other versions
JP2019109549A5 (en
JP6803941B2 (en
Inventor
豪也 高梨
Hideya Takanashi
豪也 高梨
杉田 淳
Atsushi Sugita
淳 杉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019062953A priority Critical patent/JP6803941B2/en
Publication of JP2019109549A publication Critical patent/JP2019109549A/en
Publication of JP2019109549A5 publication Critical patent/JP2019109549A5/ja
Application granted granted Critical
Publication of JP6803941B2 publication Critical patent/JP6803941B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To enhance the correction accuracy of focusing by acquiring sensitivity information and its correction information by communication between a lens device and a camera body part.SOLUTION: An imaging system includes an interchangeable lens 2 and a camera body part 1 capable of communicating with the interchangeable lens 2. The camera control part 9 of the camera body part 1 acquires focus sensitivity-related information (the sensitivity information at the image height of a center and the correction information of sensitivity changed by the image height) at a proper timing from the lens control part 26 of the interchangeable lens 2 by communication. The camera control part 9 corrects the change of the sensitivity by the image height by using the image height information of a focus detection area selected from a plurality of focus detection areas and the acquired focus sensitivity correction information. The camera control part 9 calculates the drive amount of a focus lens 22 from a focus detection signal by using focus sensitivity after correction, generates a control signal for instructing the drive amount, and transmits it to the lens control part 26.SELECTED DRAWING: Figure 1

Description

本発明は、レンズ装置をカメラ本体部に装着可能な撮像システムにおける自動焦点調節(AF)の制御技術に関する。   The present invention relates to control technology of automatic focusing (AF) in an imaging system in which a lens device can be attached to a camera body.

撮像装置でフォーカスレンズを駆動する際には、フォーカス敏感度に基づいてレンズの駆動量が決定される。フォーカス敏感度とは、撮像装置が検出したデフォーカス量を、フォーカスレンズの駆動量に変換するための係数であり、交換レンズ式のカメラシステムでは、交換レンズの光学情報に基づいて決定される。   When driving the focus lens by the imaging device, the amount of drive of the lens is determined based on the focus sensitivity. The focus sensitivity is a coefficient for converting the defocus amount detected by the imaging device into the drive amount of the focus lens, and in the camera system of the interchangeable lens type, it is determined based on the optical information of the interchangeable lens.

特許文献1には、レンズの焦点距離情報に応じてフォーカス敏感度を可変とするカメラシステムが開示されている。特許文献1の装置によれば、焦点距離に応じてフォーカス敏感度を適切に設定することができ、合焦時間を短縮できる。また特許文献2には、空間周波数等のカメラの状態に応じてピント補正データを決定することが開示されている。   Patent Document 1 discloses a camera system in which the focus sensitivity is variable according to focal length information of a lens. According to the apparatus of Patent Document 1, the focus sensitivity can be appropriately set according to the focal length, and the focusing time can be shortened. Patent Document 2 discloses that focus correction data is determined in accordance with the state of a camera such as spatial frequency.

特開昭59−151116号公報JP-A-59-151116 特開2014−29353号公報JP, 2014-29353, A

ところで実際のフォーカス敏感度は、レンズの焦点距離情報だけでなく、焦点検出の位置(像高)に起因して変化する。特許文献1に開示の従来技術では、像高に起因したフォーカス敏感度の変化を考慮していない。このため、周辺像高での焦点合わせに適切なフォーカス敏感度を設定することができず、ハンチング等が発生した場合に正確な合焦制御を行えない。より正確なフォーカス敏感度を得るためには、像高ごとにフォーカス敏感度を取得する必要がある。   The actual focus sensitivity changes due to not only focal length information of the lens but also the position of focus detection (image height). The prior art disclosed in Patent Document 1 does not consider the change in focus sensitivity caused by the image height. Therefore, it is not possible to set an appropriate focus sensitivity for focusing at the peripheral image height, and accurate focusing control can not be performed when hunting or the like occurs. In order to obtain more accurate focus sensitivity, it is necessary to acquire focus sensitivity for each image height.

一方、フォーカス敏感度情報については、カメラ本体部と交換レンズとの間でマウント端子を経由した通信により、受け渡しが行われる。特許文献2に開示の従来技術では、像高に応じて通信すべきデータが変化することを考慮していない。像高ごとに異なるデータを通信する場合には、周辺像高での焦点合わせの補正精度を高めるために通信データ量が増加する。この場合、カメラ本体部と交換レンズとの間では、限られた通信帯域内で必要なデータを送受する必要がある。
本発明の目的は、レンズ装置とカメラ本体部との通信により敏感度情報およびその補正情報を取得して焦点合わせの補正精度を高めることである。
On the other hand, with regard to focus sensitivity information, delivery is performed by communication between the camera body and the interchangeable lens via the mount terminal. The prior art disclosed in Patent Document 2 does not consider that the data to be communicated changes according to the image height. When different data are communicated for each image height, the amount of communication data increases in order to enhance the correction accuracy of focusing at the peripheral image height. In this case, it is necessary to transmit and receive necessary data within a limited communication band between the camera body and the interchangeable lens.
An object of the present invention is to obtain sensitivity information and its correction information by communication between a lens device and a camera body to enhance the accuracy of correction of focusing.

本発明の一実施形態に係る撮像システムは、レンズ装置および該レンズ装置を装着可能なカメラ本体部を備える。前記レンズ装置は、焦点調節用のレンズおよび該レンズの駆動を制御する駆動制御手段と、前記カメラ本体部と通信する第1の通信手段を備える。前記カメラ本体部は、前記レンズ装置と通信する第2の通信手段と、撮像面内に設定された複数の焦点検出領域における焦点検出信号を取得する焦点検出手段と、前記焦点検出信号から前記レンズの駆動を制御する制御信号を生成し、前記第1および第2の通信手段を介して前記レンズ装置に送信する制御手段を備える。前記カメラ本体部の制御手段は、前記レンズ装置から前記第1および第2の通信手段を介して、中心の像高における前記レンズの敏感度情報および像高に対応した敏感度の変化を示す敏感度の補正情報を取得し、前記複数の焦点検出領域から選択した焦点検出領域の像高情報、および取得した前記補正情報により、像高に対応する前記レンズの敏感度の変化を補正し、補正した敏感度を用いて算出した前記レンズの駆動量を指示する前記制御信号を生成する。   An imaging system according to an embodiment of the present invention includes a lens apparatus and a camera body to which the lens apparatus can be attached. The lens device includes a lens for focusing, drive control means for controlling the drive of the lens, and first communication means for communicating with the camera body. The camera body unit includes a second communication unit for communicating with the lens device, a focus detection unit for acquiring focus detection signals in a plurality of focus detection areas set in an imaging surface, and the lens from the focus detection signal. And control means for generating a control signal for controlling the driving of the lens and transmitting the control signal to the lens apparatus through the first and second communication means. The control means of the camera body portion is sensitive from the lens device to the sensitivity information indicating the sensitivity information of the lens at the central image height and the change in sensitivity corresponding to the image height through the first and second communication means. Correction information of the degree is acquired, image height information of the focus detection area selected from the plurality of focus detection areas, and the acquired correction information correct the change of the sensitivity of the lens corresponding to the image height and correct the correction The control signal is generated which indicates the drive amount of the lens calculated using the sensitivity.

本発明によれば、レンズ装置とカメラ本体部との通信により敏感度情報およびその補正情報を取得して焦点合わせの補正精度を高めることができる。   According to the present invention, it is possible to obtain sensitivity information and its correction information by communication between the lens device and the camera body to enhance the correction accuracy of focusing.

本発明の実施形態に係る撮像システムを示すブロック図である。It is a block diagram showing an imaging system concerning an embodiment of the present invention. 本発明の実施形態に係る撮像素子の構成を示す概略図である。It is a schematic diagram showing composition of an image sensor concerning an embodiment of the present invention. 本発明の実施形態に係る撮像素子の画素部の概略図である。It is the schematic of the pixel part of the image pick-up element which concerns on embodiment of this invention. 撮影レンズの射出瞳から出た光束が撮像素子に入射する様子を示す概念図である。It is a conceptual diagram which shows a mode that the light beam which came out of the exit pupil of the imaging lens injects into an image pick-up element. 本発明の実施形態における多点AF(オートフォーカス)枠の説明図である。It is explanatory drawing of the multipoint AF (autofocus) frame in embodiment of this invention. 本発明の実施形態における多点AF枠の選択処理を説明する図である。It is a figure explaining selection processing of a multipoint AF frame in an embodiment of the present invention. 本発明の実施形態における多点AF枠のタイミング制御を説明するタイムチャートである。It is a time chart explaining timing control of a multipoint AF frame in an embodiment of the present invention. 第1実施形態における多点AF時のAF枠の選択および敏感度補正処理を説明するフローチャートである。FIG. 10 is a flowchart for explaining selection of an AF frame and sensitivity correction processing at the time of multipoint AF in the first embodiment. FIG. 第2実施形態における多点AF時のAF枠の選択および敏感度補正処理を説明するフローチャートである。It is a flowchart explaining selection of AF frame at the time of multipoint AF and sensitivity amendment processing in a 2nd embodiment. 第2実施形態における敏感度比率および敏感度補正比率を説明するグラフである。It is a graph explaining the sensitivity ratio and sensitivity correction ratio in a 2nd embodiment. 第2実施形態における敏感度補正実施範囲の設定処理を説明する図である。It is a figure explaining the setting process of the sensitivity correction | amendment implementation range in 2nd Embodiment.

以下に、本発明の各実施形態を添付図面に基づいて詳細に説明する。各実施形態では、本発明に係る撮像システムの一例として交換式カメラ-レンズシステムを説明する。交換式カメラ-レンズシステムは、レンズ装置と、当該レンズ装置を装着可能なカメラ本体部から成る。焦点検出機能を有するカメラ本体部は、レンズ装置からフォーカスレンズの駆動特性情報を取得し、フォーカスレンズの駆動制御を行うための制御信号を生成してレンズ装置に送信する。   Below, each embodiment of the present invention is described in detail based on an attached drawing. In each embodiment, a replaceable camera-lens system will be described as an example of the imaging system according to the present invention. The interchangeable camera-lens system comprises a lens device and a camera body to which the lens device can be mounted. The camera body having the focus detection function acquires drive characteristic information of the focus lens from the lens device, generates a control signal for performing drive control of the focus lens, and transmits the control signal to the lens device.

[第1実施形態]
図1は、本発明の第1実施形態に関わるカメラ本体部1および交換レンズ2を含む交換式カメラ-レンズシステムの構成例を示すブロック図である。カメラ本体部1は、着脱可能な交換レンズ2と通信可能である。
カメラ本体部1内の電気回路部3は撮像素子4を備え、交換レンズ2を通過した光により形成された被写体像を電気信号に光電変換する。撮像素子4はCCD(電荷結合素子)センサやCMOS(相補型金属酸化膜半導体)センサ等であり、像高が異なる複数の焦点検出用画素を有している。
First Embodiment
FIG. 1 is a block diagram showing an example of the configuration of an interchangeable camera-lens system including a camera body 1 and an interchangeable lens 2 according to a first embodiment of the present invention. The camera body 1 can communicate with the removable interchangeable lens 2.
An electric circuit unit 3 in the camera body 1 includes an imaging device 4 and photoelectrically converts an object image formed by light passing through the interchangeable lens 2 into an electric signal. The imaging device 4 is a CCD (charge coupled device) sensor, a CMOS (complementary metal oxide semiconductor) sensor, or the like, and has a plurality of focus detection pixels having different image heights.

測光部5は、撮像素子4からの出力を用いて交換レンズ2を通過した光の量(輝度)を測定し、測光結果を出力する。焦点検出部6は,撮像素子4に設けられた像高が異なる複数の焦点検出用画素の各出力を用いて、交換レンズ2の焦点外れ量(デフォーカス量)を算出する。焦点検出処理の周期は、撮像の周期(以下、VDと記す)に対応するフレームレートと同期しており、カメラ本体部1と交換レンズ2との通信処理はVD信号に同期して行われる。   The photometry unit 5 measures the amount (brightness) of light passing through the interchangeable lens 2 using the output from the image pickup device 4 and outputs the photometry result. The focus detection unit 6 calculates the defocus amount (defocus amount) of the interchangeable lens 2 using the outputs of the plurality of focus detection pixels provided in the image sensor 4 and having different image heights. The cycle of the focus detection process is synchronized with the frame rate corresponding to the imaging cycle (hereinafter referred to as VD), and the communication process between the camera body 1 and the interchangeable lens 2 is performed in synchronization with the VD signal.

シャッタ制御部7は、撮像素子4の露光量を制御するために開閉動作する不図示のシャッタの動作を制御する。画像処理部8は、撮像素子4に設けられた所定画素数の撮像用画素からの出力に対して各種処理を行って画像データを生成する.各種処理には、交換レンズ2の記憶情報およびカメラ本体部1の記憶情報を用いる処理が含まれる。   The shutter control unit 7 controls the operation of a shutter (not shown) that opens and closes in order to control the exposure amount of the imaging device 4. The image processing unit 8 performs various kinds of processing on the output from the imaging pixel of a predetermined number of pixels provided in the imaging element 4 to generate image data. The various processes include processes using stored information of the interchangeable lens 2 and stored information of the camera body 1.

カメラ制御部9はCPU(中央演算処理装置)やメモリ等を備える撮像装置の制御中枢部である。カメラ制御部9は撮像装置の各構成部の動作を制御する。カメラ本体部1にはカメラ通信部11が設けられ、交換レンズ2にはレンズ通信部25が設けられており、カメラ制御部9は、これらの通信部を介してレンズ制御部26との通信が可能である。カメラ制御部9は、測光部5から得た輝度に基づいて撮像時の絞り値やシャッタ秒時を算出し、絞り値を含む絞り駆動命令をレンズ制御部26に送信する。さらにカメラ制御部9は、焦点検出情報とレンズ制御部26から取得した情報に基づいて交換レンズ2内のフォーカスレンズ22の合焦位置への駆動方向と駆動量を算出する。焦点検出情報とは、焦点検出部6が算出したデフォーカス量である。またレンズ制御部26から取得される情報は、中心の像高におけるフォーカス敏感度情報およびフォーカス敏感度の像高変化係数の情報である。カメラ制御部9は、算出した駆動方向および駆動量を指示するフォーカス駆動命令の制御信号をレンズ制御部26に送信し、撮像光学系の焦点調節制御を行う。カメラ本体部1側でのAF(オートフォーカス)処理は、焦点検出動作にてデフォーカス量の演算が行われ、カメラ制御部9がフォーカス駆動命令の制御信号をレンズ制御部26へ送信する処理である。後述する撮像面AFの機能は撮像のフレームレートのタイミングで1Vごとに行われる。このため、フォーカス敏感度やフォーカス位置、駆動状態等の情報の通信は1Vごとに実行される。1Vは1垂直周期を表し、垂直同期信号の周期に相当する。   The camera control unit 9 is a control center unit of an imaging device including a CPU (central processing unit), a memory, and the like. The camera control unit 9 controls the operation of each component of the imaging device. The camera communication unit 11 is provided in the camera body unit 1, and the lens communication unit 25 is provided in the interchangeable lens 2. The camera control unit 9 communicates with the lens control unit 26 via these communication units. It is possible. The camera control unit 9 calculates an aperture value and a shutter speed at the time of imaging based on the luminance obtained from the photometry unit 5, and transmits an aperture drive instruction including the aperture value to the lens control unit 26. Furthermore, the camera control unit 9 calculates the drive direction and drive amount to the in-focus position of the focus lens 22 in the interchangeable lens 2 based on the focus detection information and the information acquired from the lens control unit 26. The focus detection information is the defocus amount calculated by the focus detection unit 6. The information acquired from the lens control unit 26 is focus sensitivity information at the center image height and information of the image height change coefficient of the focus sensitivity. The camera control unit 9 transmits, to the lens control unit 26, a control signal of a focus drive instruction that instructs the calculated drive direction and drive amount, and performs focus adjustment control of the imaging optical system. In the AF (Auto Focus) process on the camera body 1 side, the defocus amount is calculated in the focus detection operation, and the camera control unit 9 transmits a control signal of a focus drive command to the lens control unit 26. is there. The function of the imaging plane AF described later is performed every 1 V at the timing of the imaging frame rate. For this reason, communication of information such as focus sensitivity, focus position, and driving state is performed for each 1V. 1 V represents one vertical cycle, which corresponds to the cycle of the vertical synchronization signal.

レンズ装着検出部10はスイッチや光検出器等を備え、カメラ本体部1に交換レンズ2が装着されたことを検出する。レンズ装着検出部10は検出信号をカメラ制御部9に出力する。カメラ通信部11はレンズ通信部25と対をなしており、カメラ制御部9は、レンズ制御部26が記憶している各種情報を取得する。各種情報とは、例えばフォーカス敏感度情報、および敏感度補正情報である。敏感度補正情報とは、像高によって変化するフォーカス敏感度を補正するための敏感度像高補正係数である。以下ではこれらの情報を敏感度関連情報という。カメラ制御部9は取得した情報を不図示の揮発性メモリに記憶する。   The lens attachment detection unit 10 includes a switch, a light detector, and the like, and detects that the interchangeable lens 2 is attached to the camera body 1. The lens attachment detection unit 10 outputs a detection signal to the camera control unit 9. The camera communication unit 11 is paired with the lens communication unit 25, and the camera control unit 9 acquires various information stored in the lens control unit 26. The various information is, for example, focus sensitivity information and sensitivity correction information. The sensitivity correction information is a sensitivity image height correction coefficient for correcting the focus sensitivity which changes depending on the image height. Below, these pieces of information are referred to as sensitivity related information. The camera control unit 9 stores the acquired information in a volatile memory (not shown).

カメラ本体部1内の制御系電源12は、撮像素子4、測光部5、焦点検出部6、画像処理部8および表示部33、交換レンズ2の制御系回路等に電力をそれぞれ供給する。またカメラ本体部1内の駆動系電源13は、シャッタ制御部7、交換レンズ2の駆動系回路等に電力を供給する。   The control system power supply 12 in the camera body 1 supplies power to the image pickup device 4, the photometry unit 5, the focus detection unit 6, the image processing unit 8 and the display unit 33, the control system circuit of the interchangeable lens 2 and the like. A drive system power supply 13 in the camera body 1 supplies power to a shutter control unit 7 and drive system circuits of the interchangeable lens 2 and the like.

撮像準備スイッチ(SW1)14と、撮像開始スイッチ(SW2)15はユーザが撮影時に使用する操作スイッチである。SW1はレリーズボタンの半押し操作によってオンとなり、SW2はレリーズボタンの全押し操作でオンとなる。AF制御ではSW1およびSW2の各信号をトリガーとして、それぞれ対応する処理が開始する。   The imaging preparation switch (SW1) 14 and the imaging start switch (SW2) 15 are operation switches used by the user at the time of imaging. The switch SW1 is turned on by half pressing the release button, and the switch SW2 is turned on by pressing the release button fully. In the AF control, the corresponding processing starts with each signal of SW1 and SW2 as a trigger.

画像記録部16は撮像された画像データを所定のフォーマット形式で記録媒体に記録する制御を行う。操作部は各種操作部材およびスイッチを備える。図1には本実施形態に関連する操作部材として、焦点検出点の選択を行うための焦点検出点変更操作部材32を示す。表示部33は撮像された画像の表示やカメラの各種情報の表示を行う。各種情報には、撮像面内に設定された複数の焦点検出領域を表示する表示枠等がある。   The image recording unit 16 performs control to record captured image data on a recording medium in a predetermined format. The operation unit includes various operation members and switches. FIG. 1 shows a focus detection point changing operation member 32 for selecting a focus detection point as an operation member related to the present embodiment. The display unit 33 displays the captured image and displays various information of the camera. The various types of information include a display frame that displays a plurality of focus detection areas set in the imaging plane.

交換レンズ2の撮像光学系は、変倍レンズ21、フォーカスレンズ22、像振れ補正レンズ23および絞り24を備える。変倍レンズ21は撮像光学系の光軸方向に移動して焦点距離を変化させる。フォーカスレンズ22は撮像光学系に光軸方向に移動する焦点調節用レンズである。像振れ補正レンズ23は撮像光学系の光軸方向に対して直交する方向に移動して手振れ等のカメラの振れによる像振れを補正する。絞り24は、その開口径(絞り値)の可変制御により、開口径に応じて撮影光量を変化させる。   The imaging optical system of the interchangeable lens 2 includes a variable power lens 21, a focus lens 22, an image blur correction lens 23, and a stop 24. The variable magnification lens 21 moves in the optical axis direction of the imaging optical system to change the focal length. The focusing lens 22 is a focusing lens that moves in the optical axis direction to the imaging optical system. The image shake correction lens 23 moves in a direction orthogonal to the optical axis direction of the imaging optical system to correct an image shake due to camera shake such as camera shake. The aperture stop 24 changes the imaging light amount according to the aperture diameter by variable control of the aperture diameter (aperture value).

電気回路部20はレンズ通信部25およびレンズ制御部26と各駆動部を備える。各駆動部はズーム駆動部27、フォーカス駆動部28、振れ補正駆動部29、絞り駆動部30である。レンズ制御部26は、カメラ通信部11およびレンズ通信部25を介してカメラ本体部1の撮影情報や撮影状況に基づくフォーカス敏感度情報、フォーカス駆動命令等を受信する。レンズ制御部26はフォーカス駆動命令にしたがってフォーカス駆動部28にフォーカス駆動信号を出力する。   The electric circuit unit 20 includes a lens communication unit 25, a lens control unit 26, and drive units. Each drive unit is a zoom drive unit 27, a focus drive unit 28, a shake correction drive unit 29, and an aperture drive unit 30. The lens control unit 26 receives, via the camera communication unit 11 and the lens communication unit 25, imaging information of the camera body 1, focus sensitivity information based on the imaging condition, a focus driving instruction, and the like. The lens control unit 26 outputs a focus drive signal to the focus drive unit 28 in accordance with the focus drive command.

フォーカス駆動部28はステッピングモータ、振動型モータまたはボイスコイルモータ等のアクチュエータを有し、レンズ制御部26からのフォーカス駆動信号にしたがってフォーカスレンズ22を合焦位置へ移動させる。つまり交換レンズ2側のAF処理では、フォーカス駆動命令を受信してフォーカスレンズ22を合焦位置へ移動させるまでの処理が実行される。   The focus drive unit 28 includes an actuator such as a stepping motor, a vibration motor, or a voice coil motor, and moves the focus lens 22 to the in-focus position according to the focus drive signal from the lens control unit 26. That is, in the AF processing on the interchangeable lens 2 side, processing from receiving the focus driving command to moving the focus lens 22 to the in-focus position is executed.

レンズ制御部26はカメラ制御部9から取得した絞り駆動命令にしたがって、絞り駆動部30に絞り駆動信号を出力する。絞り駆動部30はステッピングモータ等のアクチュエータを有し、レンズ制御部26からの絞り駆動信号にしたがって絞り24を駆動する。   The lens control unit 26 outputs a diaphragm drive signal to the diaphragm drive unit 30 in accordance with the diaphragm drive command acquired from the camera control unit 9. The diaphragm drive unit 30 has an actuator such as a stepping motor, and drives the diaphragm 24 in accordance with the diaphragm drive signal from the lens control unit 26.

ユーザが交換レンズ2に設けられた不図示のズーム操作リングを操作した場合、レンズ制御部26は、操作に応じたズーム方向とズーム駆動速度で変倍レンズ21を移動させるためのズーム駆動信号をズーム駆動部27に出力する。ズーム駆動部27はステッピングモータ等のアクチュエータを有し、レンズ制御部26からのズーム駆動信号にしたがって変倍レンズ21を駆動する。   When the user operates the zoom operation ring (not shown) provided on the interchangeable lens 2, the lens control unit 26 receives a zoom drive signal for moving the magnification varying lens 21 at the zoom direction and zoom drive speed according to the operation. Output to the zoom drive unit 27. The zoom drive unit 27 has an actuator such as a stepping motor, and drives the variable power lens 21 in accordance with the zoom drive signal from the lens control unit 26.

レンズ制御部26は交換レンズ2に設けられた不図示の振れ検出センサ(角速度センサ、加速度センサ等)からの振れ検出信号に基づいて振れ補正駆動部29に振れ駆動信号を出力する。振れ補正駆動部29はボイスコイルモータ等のアクチュエータを有し、レンズ制御部26からの振れ補正駆動信号にしたがって像振れ補正レンズ23を駆動する。   The lens control unit 26 outputs a shake driving signal to the shake correction driving unit 29 based on a shake detection signal from a shake detection sensor (an angular velocity sensor, an acceleration sensor, etc.) (not shown) provided in the interchangeable lens 2. The shake correction drive unit 29 has an actuator such as a voice coil motor, and drives the image shake correction lens 23 in accordance with a shake correction drive signal from the lens control unit 26.

記憶部31はEEPROM(Electrically Erasable Programmable Read-Only Memory)やフラッシュROM等の記憶デバイスにより構成される。記憶部31は、焦点検出結果(デフォーカス量)を補正するために用いられる焦点位置ずれ情報、フォーカス敏感度およびフォーカス敏感度像高補正係数情報を含むデータを記憶する。なお記憶部31はレンズ制御部26の内部に配置してもよい。レンズ制御部26は記憶部31から読み出した情報をレンズ通信部25に出力し、レンズ通信部25はカメラ通信部11に送信する。   The storage unit 31 is configured of a storage device such as an EEPROM (Electrically Erasable Programmable Read-Only Memory) or a flash ROM. The storage unit 31 stores data including focus position shift information, focus sensitivity, and focus sensitivity image height correction coefficient information used to correct a focus detection result (defocus amount). The storage unit 31 may be disposed inside the lens control unit 26. The lens control unit 26 outputs the information read from the storage unit 31 to the lens communication unit 25, and the lens communication unit 25 transmits the information to the camera communication unit 11.

次に、撮像装置の動作の概要を説明する。
ユーザが撮像準備スイッチ(SW1)14をオン操作すると、カメラ制御部9は測光部5に測光動作を実行させ、焦点検出部6に焦点検出動作を実行させる。本実施形態では、交換レンズ2から取得する、光軸(中心の像高)の敏感度に対して、さらに光軸からの距離(像高成分)で変化する敏感度像高補正係数を取得する処理が行われる。焦点検出を行った像高成分と敏感度像高補正係数から,補正された敏感度が取得される。焦点検出結果として得られるデフォーカス量については、補正された敏感度情報を用いて、フォーカス駆動部28へ指示すべき駆動量(パルス数)への変換処理が行われる。レンズ制御部26はカメラ制御部9から指示された駆動量にしたがい、フォーカス駆動制御を行う。焦点検出動作とレンズ駆動が繰り返し実行されることにより、焦点ずれ量が次第に小さくなっていく。この工程では、検出されたデフォーカス量が大きい場合にフォーカスレンズ駆動と焦点検出処理を折り重ねる、いわゆるオーバーラップ駆動が行われる。後述するように本実施形態ではオーバーラップ駆動中にも、カメラ本体部1と交換レンズ2との間の通信負荷および演算負荷を低減することができる。
Next, an outline of the operation of the imaging device will be described.
When the user turns on the imaging preparation switch (SW1) 14, the camera control unit 9 causes the photometry unit 5 to execute a photometric operation and causes the focus detection unit 6 to execute a focus detection operation. In this embodiment, sensitivity to the optical axis (image height at the center) acquired from the interchangeable lens 2 and sensitivity to the image height correction coefficient changing with distance from the optical axis (image height component) are further acquired. Processing is performed. The corrected sensitivity is acquired from the image height component for which focus detection has been performed and the sensitivity image height correction coefficient. For the defocus amount obtained as the focus detection result, conversion processing to a drive amount (number of pulses) to be instructed to the focus drive unit 28 is performed using the corrected sensitivity information. The lens control unit 26 performs focus drive control in accordance with the drive amount instructed from the camera control unit 9. By repeatedly executing the focus detection operation and the lens drive, the defocus amount gradually decreases. In this process, so-called overlap drive is performed in which the focus lens drive and the focus detection process are folded when the detected defocus amount is large. As described later, in the present embodiment, the communication load between the camera body 1 and the interchangeable lens 2 and the calculation load can be reduced even during the overlap driving.

ユーザが撮像開始スイッチ(SW2)15をオン操作すると、カメラ制御部9はレンズ制御部26に絞り24の駆動命令を送信して撮像時の絞り値に制御し、シャッタ制御部7にシャッタ駆動を行わせて所定のシャッタ秒時で撮像素子4を露光する。またカメラ制御部9は画像処理部8に、撮像素子4の出力から記録用画像を生成させる。撮像素子4はAF専用の焦点検出画素を有するので、記録用画像と併せて焦点検出信号を取得可能である。撮像素子4を用いて行う位相差検出方式のAFを撮像面位相差AFともいう。なお撮像面位相差AFに限らず、位相差検出専用のAFセンサを用いた焦点検出を行ってもよい。
撮影後にカメラ制御部9は画像記録部16に指示し、半導体メモリ等の記録媒体(図示せず)に記録用画像信号を記録する。撮影された画像は静止画または動画である。例えばモード選択スイッチによって静止画撮影モードが選択されている場合には静止画が取得され、ライブビューモードや動画撮影モードが選択されていれば動画が取得される。動画撮影用の録画開始ボタンを備える撮像装置では当該ボタンの操作によって動画の記録動作が開始する。ユーザはカメラ本体部1に設けた記録画質設定スイッチを操作して記録画質を選択することができる。
When the user turns on the imaging start switch (SW2) 15, the camera control unit 9 transmits a drive command of the diaphragm 24 to the lens control unit 26 to control to the aperture value at the time of imaging, and the shutter control unit 7 drives the shutter. Then, the imaging device 4 is exposed at a predetermined shutter speed. Also, the camera control unit 9 causes the image processing unit 8 to generate a recording image from the output of the imaging device 4. Since the imaging device 4 has focus detection pixels dedicated to AF, it is possible to obtain a focus detection signal together with the recording image. The AF of the phase difference detection method performed using the imaging element 4 is also referred to as imaging surface phase difference AF. In addition, you may perform focus detection using not only imaging surface phase difference AF but AF sensor only for phase difference detection.
After shooting, the camera control unit 9 instructs the image recording unit 16 to record a recording image signal on a recording medium (not shown) such as a semiconductor memory. The photographed image is a still image or a moving image. For example, when a still image shooting mode is selected by the mode selection switch, a still image is obtained, and when a live view mode or a moving image shooting mode is selected, a moving image is obtained. In an imaging apparatus provided with a recording start button for moving picture shooting, the operation of the button starts the moving picture recording operation. The user can select the recording image quality by operating the recording image quality setting switch provided on the camera body 1.

次に、本実施形態における焦点検出処理を行うための構成について説明する。
図2を参照して撮像素子4の構成を説明する。図2(A)は撮像素子4の全体概略図であり、図2(B)は撮像素子4における一つの画素の概略図である。図2(A)に示す撮像素子4は、二次元アレイ状に配列された複数の画素からなる画素部201を有する。垂直選択回路202は、画素部201の複数の行の画素信号を順に選択して読み出し回路203に出力する。読み出し回路203は、画素部201の画素のうち垂直選択回路202により選択される画素の信号を読み出す。読み出し回路203は、信号を蓄積するメモリ、ゲインアンプ、A/D変換器等を列ごとに有する。水平選択回路204は、読み出し回路203に読み出された複数の画素信号を列ごとに順次選択する。シリアルインターフェイス(SI/F)部205は、外部装置で決定された各回路の動作モード等の情報を取得する。なお、図2(A)に示される構成要素以外にも、垂直選択回路202,水平選択回路204,読み出し回路203等にタイミング信号を提供するタイミングジェネレータや、制御回路等が設けられている。
Next, a configuration for performing focus detection processing in the present embodiment will be described.
The configuration of the imaging device 4 will be described with reference to FIG. FIG. 2A is an overall schematic view of the imaging device 4, and FIG. 2B is a schematic diagram of one pixel in the imaging device 4. The imaging device 4 shown in FIG. 2A has a pixel portion 201 composed of a plurality of pixels arranged in a two-dimensional array. The vertical selection circuit 202 sequentially selects pixel signals of a plurality of rows of the pixel portion 201 and outputs the pixel signals to the readout circuit 203. The readout circuit 203 reads out a signal of a pixel selected by the vertical selection circuit 202 among the pixels of the pixel unit 201. The readout circuit 203 includes, for each column, a memory for accumulating a signal, a gain amplifier, an A / D converter, and the like. The horizontal selection circuit 204 sequentially selects, for each column, the plurality of pixel signals read out by the readout circuit 203. The serial interface (SI / F) unit 205 acquires information such as the operation mode of each circuit determined by the external device. In addition to the components shown in FIG. 2A, a timing generator that provides timing signals to the vertical selection circuit 202, the horizontal selection circuit 204, the readout circuit 203, and the like, a control circuit, and the like are provided.

図2(B)に示す画素206は、一つのマイクロレンズ207と、二つのフォトダイオード208,209を有する。二つのフォトダイオード(PDと記す)は、撮像面位相差AFを行うための光電変換部を構成する。なお、画素206は図2(B)に示される構成要素以外に、PDの信号を読み出し回路203に読み出すための画素増幅アンプや、行を選択する選択スイッチ、PDの信号をリセットするリセットスイッチ等を備える。   A pixel 206 illustrated in FIG. 2B includes one microlens 207 and two photodiodes 208 and 209. Two photodiodes (referred to as PD) constitute a photoelectric conversion unit for performing imaging plane phase difference AF. Note that in addition to the components shown in FIG. 2B, the pixel 206 includes a pixel amplifier for reading out the signal of the PD to the reading circuit 203, a selection switch for selecting a row, a reset switch for resetting the signal of PD, and the like. Equipped with

図3は,撮像素子4における画素部201の概略図である。画素部201は二次元の画像を提供するため、多数の画素を二次元アレイ状に配列して構成される。画素301,302,303,304は、図2(B)に示す構成の画素である。PD301L,302L,303L,304Lはそれぞれ、図2(B)に示すPD208に相当し、PD301R,302R,303R,304Rはそれぞれ、図2(B)に示すPD209に相当する。本実施形態では2分割タイプの光電変換部を例示するが、分割方向および分割数については装置の仕様に応じて任意に変更可能である。   FIG. 3 is a schematic view of the pixel section 201 in the imaging device 4. The pixel unit 201 is configured by arranging a large number of pixels in a two-dimensional array in order to provide a two-dimensional image. The pixels 301, 302, 303, and 304 are pixels having the configuration shown in FIG. The PDs 301L, 302L, 303L, and 304L correspond to the PD 208 shown in FIG. 2B, and the PDs 301R, 302R, 303R, and 304R correspond to the PD 209 shown in FIG. 2B. Although the two-division type photoelectric conversion unit is illustrated in the present embodiment, the division direction and the number of divisions can be arbitrarily changed according to the specifications of the apparatus.

図4を参照して、撮像素子4における受光の様子について説明する。図4は、撮影レンズの射出瞳から出た光束が撮像素子に入射する様子を示す概念図であり、撮像面位相差検出方式を模式的に示す。撮像素子4の一部断面401には、マイクロレンズ402(図2(B)のマイクロレンズ207に相当)と、カラーフィルタ403を示す。PD404,PD405はそれぞれ、図2(B)のPD208,PD209に相当する。   The state of light reception in the imaging device 4 will be described with reference to FIG. FIG. 4 is a conceptual view showing how a light flux emitted from the exit pupil of the photographing lens is incident on the image pickup element, schematically showing an image pickup surface phase difference detection method. In a partial cross section 401 of the imaging element 4, a microlens 402 (corresponding to the microlens 207 in FIG. 2B) and a color filter 403 are shown. The PD 404 and the PD 405 respectively correspond to the PD 208 and the PD 209 in FIG.

マイクロレンズ402を有する画素に対して、撮影レンズの射出瞳406から出射した光束の中心を光軸409で示す。射出瞳406から出射した光束は、光軸409を中心として撮像素子4に入射する。瞳部分領域407,408は撮影レンズの射出瞳406の一部領域である。光線410,411は瞳部分領域407を通過する光束の最外周の光線である。光線412,413は瞳部分領域408を通過する光束の最外周の光線である。射出瞳406から出射した光束のうち、光軸409を境にして上側の光束はPD405に入射し、下側の光束はPD404に入射する。すなわち、PD404とPD405はそれぞれ、撮影レンズの射出瞳406にて異なる領域を通過した光束を受光する.   The center of the light beam emitted from the exit pupil 406 of the photographing lens is indicated by an optical axis 409 with respect to the pixel having the microlens 402. The light flux emitted from the exit pupil 406 is incident on the imaging element 4 with the optical axis 409 as the center. The pupil partial regions 407 and 408 are partial regions of the exit pupil 406 of the photographing lens. Rays 410 and 411 are the outermost rays of the luminous flux passing through the pupil partial area 407. Rays 412 and 413 are outermost rays of the light beam passing through the pupil partial region 408. Among light fluxes emitted from the exit pupil 406, the light flux on the upper side of the light axis 409 is incident on the PD 405 and the light flux on the lower side is incident on the PD 404. That is, each of the PD 404 and the PD 405 receives a light flux that has passed through different regions at the exit pupil 406 of the imaging lens.

図2(B)および図3では、一つのマイクロレンズに対して二つのPDが設けられているが、これに限定されるものではない。例えば、ある画素に対しては片側のPDを使用し、その隣の画素に対しては反対側のPDを使用する構成でもよい。すなわち撮像素子の撮像面において、撮影レンズの射出瞳406における異なる領域を通過した光像が得られる構成であれば、撮像面位相差AFが可能である。   Although two PDs are provided for one microlens in FIGS. 2B and 3, the present invention is not limited to this. For example, one PD may be used for one pixel, and the other PD may be used for the next pixel. That is, in the configuration in which an optical image passing through different regions in the exit pupil 406 of the imaging lens can be obtained on the imaging surface of the imaging element, imaging surface phase difference AF is possible.

撮像素子4は、撮影レンズにおける異なる瞳部分領域からの光束を受光するAライン画素およびBライン画素を二次元アレイ状に配列して構成されている。具体的には図3にて、行305の画素301,302,303,304のうちでPD301L,302L,303L,304Lの画素によりAライン画素が構成される。またPD301R,302R,303R,304Rの画素によりBライン画素が構成される。Aライン画素およびBライン画素の各出力に関して、二像の間隔(像間隔)は合焦状態、前ピン状態、および後ピン状態のいずれであるかに応じて異なる。像間隔に対応するデフォーカス量が算出され、合焦状態となるようにフォーカスレンズ22を移動させることによって焦点調節が行われる。すなわちフォーカスレンズ22の移動量を、二像の像ズレ量に基づいて算出することができる。本実施形態では説明の便宜上,二像(Aライン画素の像およびBライン画素の像)に関し、隣接画素の並びで説明したが、実際にはカラーフィルタが同じ画素同士でAライン画素およびBライン画素が構成される。   The imaging device 4 is configured by arranging A-line pixels and B-line pixels that receive light beams from different pupil partial regions in the imaging lens in a two-dimensional array. Specifically, in FIG. 3, among the pixels 301, 302, 303, and 304 in the row 305, the pixels of the PDs 301L, 302L, 303L, and 304L constitute an A-line pixel. In addition, pixels of PDs 301R, 302R, 303R and 304R constitute B line pixels. For each output of the A-line pixel and the B-line pixel, the distance between the two images (image distance) differs depending on whether it is the in-focus state, the front pin state, or the back pin state. A defocus amount corresponding to an image interval is calculated, and focusing is performed by moving the focus lens 22 so as to be in focus. That is, the amount of movement of the focus lens 22 can be calculated based on the amount of image shift of the two images. In the present embodiment, for convenience of explanation, the two images (the image of the A line pixel and the image of the B line pixel) have been described in the arrangement of adjacent pixels, but in practice the A line pixel and the B line Pixels are configured.

焦点検出処理では撮像光学系の異なる瞳部分領域を通過する光束により形成される像を光電変換して一対の像信号が生成される。焦点検出部6は一対の像信号の位相差(像ズレ量)に基づいてデフォーカス量を検出する。検出したデフォーカス量からフォーカス駆動量が算出され、フォーカス駆動量に応じたフォーカスレンズ22の駆動制御が行われる。   In focus detection processing, an image formed by light beams passing through different pupil partial regions of the imaging optical system is photoelectrically converted to generate a pair of image signals. The focus detection unit 6 detects the defocus amount based on the phase difference (image shift amount) of the pair of image signals. The focus drive amount is calculated from the detected defocus amount, and drive control of the focus lens 22 according to the focus drive amount is performed.

次に図5を参照して本実施形態における撮像面位相差AF制御にて、広範囲の像高での焦点検出を行う多点AF制御について説明する.図5は位相差検出方式による多点焦点検出枠の説明図である。撮像面内の画素領域500は、位相差検出方式の専用画素が配置されている撮像素子4内の画素領域であり、撮影範囲を表している。位相差検出方式の専用画素501を、横方向および縦方向に配置することにより、各方向での被写体の位相差像信号が取得可能となっている。専用画素501を有する複数のラインを組み合わせた矩形領域をAF枠領域502として定めるものとする。AF枠領域503は、破線の矩形枠で囲んで示す1グループを構成する領域である。図5に示す座標系504において、横方向の軸をX軸とし、縦方向の軸をY軸と定義する。   Next, multi-point AF control for performing focus detection in a wide range of image heights in imaging plane phase difference AF control according to the present embodiment will be described with reference to FIG. FIG. 5 is an explanatory view of a multipoint focus detection frame based on the phase difference detection method. The pixel area 500 in the imaging plane is a pixel area in the imaging element 4 in which the dedicated pixel of the phase difference detection method is arranged, and represents the imaging range. By arranging the dedicated pixels 501 of the phase difference detection method in the horizontal direction and the vertical direction, it is possible to acquire phase difference image signals of the subject in each direction. A rectangular area obtained by combining a plurality of lines having the dedicated pixel 501 is defined as an AF frame area 502. The AF frame area 503 is an area constituting one group shown by being surrounded by a dashed rectangular frame. In the coordinate system 504 shown in FIG. 5, an axis in the lateral direction is defined as an X axis, and an axis in the longitudinal direction is defined as an Y axis.

ユーザが任意に指定するAF枠で焦点検出を行う場合、指定されたAF枠領域502において焦点検出処理が行われる。一方、顔検出等の被写体追尾時や多点AF時には、撮影範囲の全面を網羅するAF枠の全てにおいて焦点検出処理が行われる。図5に示す例では縦方向に6分割、横方向に6分割の合計36個のAF枠にて焦点検出処理が行われる。図5に示す1から36は、各AF枠を識別するために左上から右下にかけて付した数字である。   When focus detection is performed with an AF frame arbitrarily designated by the user, focus detection processing is performed in the designated AF frame area 502. On the other hand, at the time of subject tracking such as face detection or multipoint AF, focus detection processing is performed on the entire AF frame covering the entire surface of the imaging range. In the example shown in FIG. 5, the focus detection process is performed with a total of 36 AF frames divided into six in the vertical direction and six in the horizontal direction. Numerals 1 to 36 shown in FIG. 5 are numbers attached from the upper left to the lower right to identify each AF frame.

ところで高画素化や、多点枠数の増加、高フレームレート化が進むにつれて、焦点検出処理を1Vの期間中に行うことが困難になると、撮影範囲の全面を一括して焦点検出することができない。そこで、撮影範囲を複数の範囲に分割して順次に焦点検出処理が実行される。具体的には図6に示すように、複数に分割した焦点検出領域ごとに、それぞれ焦点検出を行う処理が実行されることとなる。図6では、それぞれ4つの領域からなる9つのグループに区分けしてそれぞれの焦点検出が行われる。この場合、焦点検出処理の段階ではどのAF枠を採用するかについて未だ決定されていない。そのため、カメラ制御部9はレンズ制御部26からはフォーカス敏感度関連情報を取得する。フォーカス敏感度関連情報を用いた補正処理には各AF枠の像高位置情報が必要となるので、図5の座標系504を設定することで2次元の座標情報が取得される。座標系504の中心の像高を0とし、XY平面にて座標(X,Y)として位置を表現する。   By the way, when it becomes difficult to perform focus detection processing during a 1V period as the number of pixels increases, the number of multi-point frames increases, and the frame rate increases, it is possible to collectively detect the entire imaging range. Can not. Therefore, the imaging range is divided into a plurality of ranges and the focus detection process is sequentially performed. Specifically, as shown in FIG. 6, processing for performing focus detection is executed for each of the plurality of divided focus detection areas. In FIG. 6, each focus detection is performed while being divided into nine groups of four regions. In this case, it has not yet been determined which AF frame is to be adopted at the stage of focus detection processing. Therefore, the camera control unit 9 acquires focus sensitivity related information from the lens control unit 26. Since the image height position information of each AF frame is necessary for the correction processing using the focus sensitivity related information, two-dimensional coordinate information is acquired by setting the coordinate system 504 in FIG. 5. The image height at the center of the coordinate system 504 is 0, and the position is expressed as coordinates (X, Y) on the XY plane.

図6に示す領域510(AF枠1,2,7,8参照)は、図5における位相差検出方式の専用画素501に相当する。点線枠で示す矩形枠511は、複数のAF枠のグルーピングによって、1回で焦点検出処理が可能な領域を示している。矩形枠511から519によって撮影範囲が網羅され、4枠を1セットとしてグルーピングした焦点検出領域、つまり9フレームの各出力を使って繰り返し焦点検出処理が実行される。具体的には、最初の3V(1V〜3V目)の期間には、矩形枠511,512,513のように焦点検出領域のシフトが順次に行われ、撮像素子4の上部に相当する焦点検出が行われる。次の3V(4V〜6V目)の期間には、矩形枠514,515,516のように焦点検出領域のシフトが順次に行われ、撮像素子4の中央部に相当する焦点検出が行われる。さらに次の3V(7V〜9V目)の期間には、矩形枠517,518,519のように焦点検出領域のシフトが順次に行われ、撮像素子4の下部に相当する焦点検出が行われる。こうして1Vから9Vの期間に亘って、撮影範囲を網羅する焦点検出信号が取得される。   An area 510 (see AF frames 1, 2, 7, 8) shown in FIG. 6 corresponds to the dedicated pixel 501 of the phase difference detection method in FIG. A rectangular frame 511 indicated by a dotted line frame indicates an area where focus detection processing can be performed at one time by grouping a plurality of AF frames. The imaging range is covered by the rectangular frames 511 to 519, and the focus detection process is repeatedly performed using the outputs of the focus detection area obtained by grouping four frames into one set, that is, nine frames. Specifically, in the first 3 V (1 V to 3 V) period, the focus detection areas are sequentially shifted like the rectangular frames 511, 512, and 513, and the focus detection corresponding to the upper part of the imaging device 4 is performed. Is done. In the next 3V (4V to 6V) period, the focus detection areas are sequentially shifted like the rectangular frames 514, 515, and 516, and focus detection corresponding to the central portion of the imaging device 4 is performed. Further, in the next 3 V (7 V to 9 V) period, the focus detection areas are sequentially shifted like rectangular frames 517, 518, and 519, and focus detection corresponding to the lower part of the imaging device 4 is performed. In this way, a focus detection signal covering an imaging range is acquired over a period of 1V to 9V.

次に図7を参照して多点のAF枠での焦点検出のタイミングについて説明する。図7は、図6に示した9フレームを使って繰り返し焦点検出を行う場合のタイムチャートである。信号601は、時系列に沿った撮像の信号線の振る舞いを示している。撮像処理の開始タイミングについては、フレームレートに対応した周期、すなわちVD信号の周期において、信号601の立下り時点で記している。平行四辺形602は撮像素子4の蓄積タイミングを示している。撮像素子4の蓄積制御はVD信号の周期内で実施され、撮像素子の上部での蓄積はVDの先頭付近で行われ、撮像素子の下部での読み出しになるほど、VD信号の周期の後半で蓄積が行われる。本実施形態では撮像素子4内に位相差検出用の専用画素が配置されているので、AF用画素の蓄積タイミングがAF枠の位置に左右される。以下、図6に示す9フレームの処理を、図7のタイムチャートに対応付けて説明する。   Next, timing of focus detection in multipoint AF frames will be described with reference to FIG. FIG. 7 is a time chart in the case of repeatedly performing focus detection using the nine frames shown in FIG. A signal 601 indicates the behavior of the signal line of imaging in time series. The start timing of the imaging process is described at the falling point of the signal 601 in the cycle corresponding to the frame rate, that is, the cycle of the VD signal. A parallelogram 602 indicates the storage timing of the image sensor 4. The storage control of the imaging device 4 is performed within the cycle of the VD signal, the storage in the upper part of the imaging device is performed near the top of the VD, and the readout in the lower part of the imaging device is the storage in the second half of the cycle of the VD signal Is done. In the present embodiment, since dedicated pixels for phase difference detection are disposed in the imaging device 4, the accumulation timing of the AF pixels depends on the position of the AF frame. Hereinafter, the process of nine frames shown in FIG. 6 will be described in association with the time chart of FIG.

最初の3V(1V〜3V目)では、撮像素子4の上部の領域に存在するAF用画素を使用するため、「上部ブロックAF蓄積」のタイミング610で位相差検出用信号が得られる。次の3V(4V〜6V目)では、撮像素子4の中央部に存在するAF用画素を使用するため、「中央ブロックAF蓄積」のタイミング611で位相差検出信号が得られる。さらに次の3V(7V〜9V目)では,撮像素子の下部に存在するAF用画素を使用するため、「下部ブロックAF蓄積」のタイミング612で位相差検出用信号が得られる。   In the first 3 V (1 V to 3 V), since the AF pixels existing in the upper region of the imaging device 4 are used, the phase difference detection signal is obtained at the timing 610 of “upper block AF accumulation”. At the next 3 V (4 V to 6 V), since an AF pixel existing at the central portion of the imaging device 4 is used, a phase difference detection signal is obtained at timing 611 of “central block AF accumulation”. Further, at the next 3 V (7 to 9 V), a signal for detecting a phase difference is obtained at timing 612 of “lower block AF accumulation” because an AF pixel existing in the lower part of the imaging device is used.

一方、カメラ制御部9がレンズ制御部26から取得するフォーカス敏感度関連情報については、「敏感度関連情報取得(1)から(9)」で示すタイミング620〜628、すなわち信号601の立下り時点でそれぞれ取得される。カメラ制御部9は、各フレーム(1V〜9V)に対応する時刻情報を、取得したフォーカス敏感度関連情報と対応づけてメモリに記憶しておく。9フレームの焦点検出結果を得ることで全AF枠のデフォーカス状況が判明する。よって、「AF枠選択処理」で示す選択タイミング629においてAF枠の選択が可能となる。AF枠の選択基準として、例えば至近側を選択することや、焦点検出の位相差検出結果の波形信頼性が高いこと等の基準があり、必要に応じて判断される。また、焦点検出の過程においてフォーカスレンズの駆動を行う、いわゆるオーバーラップ制御を行うことも可能である。その場合、焦点検出処理を行ったタイミングからAF枠を決定したタイミングに至るまでの期間のレンズ駆動量を、空走量として考慮する必要がある。レンズの空走量を得るために、9フレームの各々のVD信号の立下り時点に対応する「時刻記憶(1)から(9)」で示すタイミング630〜638にて、各時刻t1〜t9のデータがメモリに記憶される。またAF枠の選択タイミング639では、その時点での時刻t_selが取得される。レンズの空走量の算出処理では、例えば2V目に設定した図6の矩形枠512が選択された場合、時刻t2から時刻t_selまでの期間、フォーカスレンズが等速駆動しているとみなされる。等速運動するフォーカスレンズの移動量がレンズ空走量として算出される。そして、2V目に得られた焦点検出結果は、後述する演算式(1)から求まる正確な敏感度を用いてフォーカス駆動量に変換され、さらにレンズ空走量を差し引くことにより、合焦に必要なレンズ駆動量を求めることができる。   On the other hand, with regard to focus sensitivity related information acquired by the camera control unit 9 from the lens control unit 26, timings 620 to 628 indicated by "acquisition of sensitivity related information (1) to (9)", that is, fall time of the signal 601 It is acquired by each. The camera control unit 9 stores time information corresponding to each frame (1 V to 9 V) in the memory in association with the acquired focus sensitivity related information. By obtaining focus detection results for nine frames, the defocus state of all the AF frames can be determined. Therefore, it becomes possible to select an AF frame at selection timing 629 shown in the “AF frame selection process”. As the selection criterion of the AF frame, for example, there is a criterion such as selecting the near side, or that the waveform reliability of the phase difference detection result of focus detection is high, and the judgment is made as necessary. In addition, it is also possible to perform so-called overlap control in which the focus lens is driven in the process of focus detection. In that case, it is necessary to consider the lens driving amount in the period from the timing when the focus detection processing is performed to the timing when the AF frame is determined as the idle amount. In order to obtain the free running amount of the lens, each of the times t1 to t9 at timings 630 to 638 shown by "time storage (1) to (9)" corresponding to the falling time of each VD signal of 9 frames. Data is stored in memory. Further, at the AF frame selection timing 639, the time t_sel at that time is acquired. In the lens free running amount calculation process, for example, when the rectangular frame 512 in FIG. 6 set to the 2V position is selected, it is considered that the focusing lens is driven at constant velocity during a period from time t2 to time t_sel. The amount of movement of the focusing lens that moves at constant velocity is calculated as the amount of lens free running. Then, the focus detection result obtained for the 2V eye is converted into the focus drive amount using the correct sensitivity obtained from the calculation formula (1) described later, and further necessary for focusing by subtracting the lens free running amount. The lens drive amount can be determined.

次に、図8のフローチャートを参照して、本実施形態にてカメラ制御部9が行う多点AF処理について説明する。S701でユーザはカメラの操作部を構成する焦点検出点変更操作部材32を用いて、焦点検出点の自動選択モードを設定する。撮像準備スイッチ(SW1)14のオン操作により、カメラ制御部9は多点AF処理を開始する。   Next, multi-point AF processing performed by the camera control unit 9 in the present embodiment will be described with reference to the flowchart in FIG. 8. In step S701, the user uses the focus detection point change operation member 32 constituting the operation unit of the camera to set an automatic selection mode of the focus detection point. When the imaging preparation switch (SW1) 14 is turned on, the camera control unit 9 starts multipoint AF processing.

S702では、図6に矩形枠511で示す領域をAF枠として設定するためにカメラ制御部9が焦点検出部6に制御情報を設定する。S703でカメラ制御部9は、撮像のVD信号を検出し、VD割り込みの有無を判定する。VD割り込みはVD信号にしたがって周期的に発生する。S703にてVD信号が検出された場合、S704へ遷移し、VD信号が検出されない場合にはS703の判定処理が繰り返される。   In S702, the camera control unit 9 sets control information in the focus detection unit 6 in order to set the area indicated by the rectangular frame 511 in FIG. 6 as the AF frame. In S703, the camera control unit 9 detects a VD signal for imaging, and determines the presence or absence of a VD interrupt. The VD interrupt is generated periodically according to the VD signal. If the VD signal is detected in S703, the process proceeds to S704, and if the VD signal is not detected, the determination process of S703 is repeated.

S704では、カメラ制御部9がレンズ通信部25およびカメラ通信部11を介して,レンズ制御部26からフォーカス敏感度関連情報を取得する。フォーカス敏感度関連情報のうちの「中心の像高における敏感度情報」はレンズ制御部26が記憶している光学情報基づいて決定された情報である。光学情報とは、変倍レンズ21、フォーカスレンズ22、および像振れ補正レンズ23の各位置情報、並びに絞り24の絞り値、不図示のアクセサリ装置(例えばエクステンダ)等に関する情報である。この敏感度情報は、撮像面の中心での値、つまり像高0(中心の像高)における値を示す情報である。またフォーカス敏感度関連情報のうちの「敏感度像高補正係数」は、レンズ制御部26から取得した「中心の像高における敏感度情報」が示すフォーカス敏感度を補正する為のフォーカス敏感度補正係数である。図5のXY平面における原点、つまり中心の像高の座標を(0,0)と表記する。像高座標(X,Y)の敏感度S(X,Y)は、下記式(1)のようにXおよびYの多項式で算出することができる。   In S704, the camera control unit 9 acquires focus sensitivity related information from the lens control unit 26 via the lens communication unit 25 and the camera communication unit 11. Of the focus sensitivity related information, “sensitivity information at the center image height” is information determined based on the optical information stored in the lens control unit 26. The optical information is information on each position information of the variable magnification lens 21, the focus lens 22, and the image blur correction lens 23, the aperture value of the diaphragm 24, and an accessory device (for example, an extender) not shown. The sensitivity information is information indicating a value at the center of the imaging surface, that is, a value at the image height 0 (image height at the center). In the “sensitivity image height correction coefficient” of the focus sensitivity related information, the focus sensitivity correction for correcting the focus sensitivity indicated by “sensitivity information at the center image height” acquired from the lens control unit 26 It is a coefficient. The coordinates of the origin, that is, the image height at the center in the XY plane of FIG. 5 is expressed as (0, 0). The sensitivity S (X, Y) of the image height coordinate (X, Y) can be calculated by a polynomial of X and Y as in the following equation (1).

Figure 2019109549
式(1)においてS0は、レンズ制御部26から取得したフォーカス敏感度を表す。a0からa5はフォーカス敏感度補正係数をそれぞれ表す。このように像高に応じた敏感度の変化量を表現する係数は、レンズ制御部26からカメラ制御部9が取得するデータである。本実施形態での敏感度情報は、中心の像高におけるフォーカス敏感度の特性に対し、多項式近似により算出される情報であるが、直線近似により算出される情報でもよい。
Figure 2019109549
In equation (1), S 0 represents the focus sensitivity acquired from the lens control unit 26. a 0 to a 5 represent focus sensitivity correction coefficients, respectively. The coefficient expressing the amount of change in sensitivity according to the image height in this manner is data acquired by the camera control unit 9 from the lens control unit 26. The sensitivity information in the present embodiment is information calculated by polynomial approximation with respect to the characteristic of focus sensitivity at the center image height, but may be information calculated by linear approximation.

上記方法以外には、カメラ制御部9がレンズ制御部26へ像高情報を指示し、レンズ制御部26が指示された像高の敏感度情報をカメラ制御部9に送信する方法がある。しかし、この方法ではAF枠の多点数の増加や、フレームレートの高速化に関し、カメラ制御部9とレンズ制御部26との通信帯域が不足する可能性や、これらの制御部の演算負荷が増大する可能性が問題となる。よって本実施形態のようにカメラ制御部9がレンズ制御部26からフォーカス敏感度補正係数を取得することが演算負荷の軽減にとって好適である。   Other than the above method, there is a method in which the camera control unit 9 instructs the lens control unit 26 to provide image height information, and the lens control unit 26 transmits sensitivity information on the instructed image height to the camera control unit 9. However, with this method, the communication bandwidth between the camera control unit 9 and the lens control unit 26 may run short, and the calculation load on these control units increases, with respect to the increase in the number of AF frames and the increase in frame rate. The possibility of doing so is a problem. Therefore, as in the present embodiment, it is preferable for the camera control unit 9 to acquire the focus sensitivity correction coefficient from the lens control unit 26 in order to reduce the calculation load.

S705は撮像素子4内のAF専用画素の蓄積が完了したか否かの判定処理である。カメラ制御部9はAF専用画素の蓄積が完了した場合、S706に処理を進め、AF専用画素の蓄積が完了していない場合には、完了まで待機する。S706では、S702で設定されたAF枠位置に相当するAF専用画素の読み出しが実行され、焦点検出部6によって位相差検出での焦点検出情報が取得される。S707でカメラ制御部9は、S706で取得した焦点検出情報と、S704で取得した敏感度関連情報とを対応づけてメモリに記憶する。   S 705 is a process of determining whether accumulation of AF dedicated pixels in the imaging device 4 is completed. The camera control unit 9 advances the process to S706 if the accumulation of AF dedicated pixels is completed, and waits until the accumulation of AF dedicated pixels is not completed. In S706, readout of AF dedicated pixels corresponding to the AF frame position set in S702 is executed, and the focus detection unit 6 acquires focus detection information in phase difference detection. In step S707, the camera control unit 9 associates the focus detection information acquired in step S706 with the sensitivity related information acquired in step S704 and stores the information in the memory.

S710は、全AF枠のAF専用画素での焦点検出が完了したか否かの判定処理である。カメラ制御部9は、図6の矩形枠511〜519に示す領域での焦点検出を繰り返し実施したかどうかを判定する。全AF枠の焦点検出が完了していない場合にカメラ制御部9はS702に処理を戻し、次の焦点検出領域をAF枠位置に再設定して処理を続行する。また全AF枠の焦点検出が完了した場合にはS711へ移行する。   Step S710 is a process of determining whether or not the focus detection at the AF dedicated pixels of all the AF frames is completed. The camera control unit 9 determines whether or not the focus detection in the area shown by the rectangular frames 511 to 519 in FIG. 6 has been repeatedly performed. If the focus detection of all the AF frames is not completed, the camera control unit 9 returns the process to S702, resets the next focus detection area to the AF frame position, and continues the process. If the focus detection of all the AF frames is completed, the process proceeds to step S711.

S711ではAF枠位置の選択処理が行われる。全ての焦点検出結果、具体的には図6の矩形枠511〜519に示す領域に亘って実施された9フレーム分の焦点検出結果から最適な焦点検出結果が選択される。最適な焦点検出結果は、AF枠の選択基準に合致する焦点検出信号の中から、カメラ制御部9が予め設定された判定基準にしたがって決定する。S712でカメラ制御部9は、S711で選択した焦点検出結果について、S707で記憶された焦点検出結果と対応づけられたフォーカス敏感度関連情報を取得する。つまり、取得済みの焦点検出情報とフォーカス敏感度関連情報との対応関係に基づいて、S711で選択した焦点検出結果に対するフォーカス敏感度関連情報が取得される。その際、必要に応じて補間演算等の処理が実行される。   In S711, a process of selecting an AF frame position is performed. The optimum focus detection result is selected from all the focus detection results, specifically, the focus detection results for nine frames implemented over the regions shown by the rectangular frames 511 to 519 in FIG. The optimal focus detection result is determined by the camera control unit 9 according to a preset determination standard from among the focus detection signals that match the selection criteria of the AF frame. In step S712, the camera control unit 9 acquires, for the focus detection result selected in step S711, focus sensitivity related information associated with the focus detection result stored in step S707. That is, on the basis of the correspondence between the acquired focus detection information and the focus sensitivity related information, the focus sensitivity related information for the focus detection result selected in S711 is acquired. At this time, processing such as interpolation calculation is performed as necessary.

S713でカメラ制御部9は、S712で取得したフォーカス敏感度関連情報を使用して、S711で選択したAF枠の像高位置に対して式(1)を適用して演算処理を実行する。これにより、精度よく補正されたフォーカス敏感度情報が計算される。S714では、S713で計算されたフォーカス敏感度情報を用いて、焦点検出結果からフォーカスレンズ駆動量への算出処理が行われる。すなわちカメラ制御部9は焦点検出結果であるデフォーカス量から、フォーカスレンズ22を駆動する際のパルスカウント数を算出する。カメラ制御部9は算出したパルスカウント数を含む駆動指令をレンズ制御部26に送信して、フォーカス駆動を要求する。S715で多点AF制御でのAF枠位置選択処理が終了する。   In step S713, the camera control unit 9 applies the equation (1) to the image height position of the AF frame selected in step S711, using the focus sensitivity related information acquired in step S712, and executes arithmetic processing. Thereby, the focus sensitivity information accurately corrected is calculated. In S714, calculation processing from the focus detection result to the focus lens driving amount is performed using the focus sensitivity information calculated in S713. That is, the camera control unit 9 calculates the pulse count number when driving the focus lens 22 from the defocus amount which is the focus detection result. The camera control unit 9 transmits a drive command including the calculated pulse count number to the lens control unit 26, and requests focus drive. In step S715, the AF frame position selection process in multipoint AF control ends.

本実施形態では、例えば複数のVD信号のタイミングにしたがって焦点検出結果をそれぞれ取得する場合に、過去の焦点検出結果、つまり履歴データをメモリから読み出して使用する。この場合、焦点検出結果とフォーカス敏感度関連情報とを対応づけて記憶する処理が行われる。カメラ本体部はレンズ装置から、中心の像高の敏感度情報と併せて、敏感度を像高について補正する補正係数を取得し、AF枠位置を決定してからフォーカス敏感度情報を算出する。周辺像高での焦点合わせにて、AF制御に最適な方法で焦点検出の位置に応じたフォーカス敏感度の変化量を補正することができる。本実施形態によれば、多点AFの枠数が増え、フレームレートが向上した場合でも、演算処理負荷を軽減しつつ、最適な敏感度情報を適用できるので、焦点調節精度の向上を実現可能な交換式カメラ-レンズシステムを提供できる。   In the present embodiment, for example, when the focus detection results are obtained according to the timing of a plurality of VD signals, the past focus detection results, that is, history data are read from the memory and used. In this case, processing for storing the focus detection result and the focus sensitivity related information in association with each other is performed. The camera body acquires, from the lens apparatus, along with the sensitivity information of the center image height, a correction coefficient for correcting the sensitivity with respect to the image height, and determines the AF frame position and then calculates the focus sensitivity information. In focusing at the peripheral image height, it is possible to correct the amount of change in focus sensitivity according to the position of focus detection in a method optimum for AF control. According to the present embodiment, even when the number of frames of multipoint AF is increased and the frame rate is improved, optimum sensitivity information can be applied while reducing the calculation processing load, so improvement in focus adjustment accuracy can be realized. Exchangeable camera-lens system can be provided.

なお本実施形態では、撮像面の領域を格子状に分割し、分割された焦点検出領域ごとに焦点検出を実行する制御モードとして、多点AFモードを説明した。これに限らず、前記処理を、所定のゾーンごとに焦点検出を実行するゾーン領域AFモードにも適用可能である。このことは後述する実施形態でも同じである。   In the present embodiment, the multipoint AF mode has been described as a control mode in which the area of the imaging surface is divided into grids and focus detection is performed for each of the divided focus detection areas. The present invention is not limited to this, and is also applicable to the zone area AF mode in which focus detection is performed for each predetermined zone. This is the same in the embodiments described later.

[第2実施形態]
次に本発明の第2実施形態を説明する。本実施形態ではカメラ制御部9が位相差検出方式のAF制御を行う際、フォーカスレンズ22の最終駆動に使用する、焦点検出結果(デフォーカス量)を判定するための駆動範囲を有する。この駆動範囲は、撮像素子4の許容錯乱円径に任意の比率を乗算した長さに相当する範囲であり、以下、「最終駆動範囲」と呼ぶことにする。カメラ制御部9は最終駆動範囲から敏感度補正の実施範囲を決定し、焦点検出結果(デフォーカス量)が実施範囲内であるか否かを判定する。焦点検出結果が実施範囲内である場合に当該焦点検出結果が最終駆動に使用される。これによって、ハンチング現象を伴わずにAF制御によって合焦動作を実現可能である。なお本実施形態において、第1実施形態の場合と同様の構成要素には既に使用した符号を用いることにより、それらの詳細な説明を省略し、主に相違点を説明する。
Second Embodiment
Next, a second embodiment of the present invention will be described. In this embodiment, when the camera control unit 9 performs AF control of the phase difference detection method, it has a drive range for determining the focus detection result (defocus amount) used for final drive of the focus lens 22. This drive range is a range corresponding to a length obtained by multiplying the diameter of the permissible circle of confusion of the imaging device 4 by an arbitrary ratio, and hereinafter, will be referred to as a “final drive range”. The camera control unit 9 determines the implementation range of the sensitivity correction from the final drive range, and determines whether the focus detection result (defocus amount) is within the implementation range. When the focus detection result is within the operation range, the focus detection result is used for the final drive. Thereby, the focusing operation can be realized by the AF control without the hunting phenomenon. In the present embodiment, by using the reference numerals already used for the same constituent elements as in the case of the first embodiment, the detailed description thereof will be omitted, and the differences will be mainly described.

図9のフローチャートを参照して、本実施形態におけるカメラ本体部側の多点AF処理を説明する。S801ではAF枠位置選択処理が開始し、S802、S803の処理が実行される。S802、S803の各処理は、図8のS702、S703の各処理と同じであるための説明を省略する。   The multipoint AF processing on the camera body side in the present embodiment will be described with reference to the flowchart in FIG. In S801, AF frame position selection processing starts, and the processing of S802 and S803 is executed. Description of processes of S802 and S803 being the same as the processes of S702 and S703 of FIG. 8 is omitted.

次のS804でカメラ制御部9は、レンズ通信部25およびカメラ通信部11を介して、レンズ制御部26からフォーカス敏感度関連情報を取得する。フォーカス敏感度関連情報のうちの「中心の像高における敏感度情報」が示す敏感度は、撮像面の中心での値、つまり像高0(中心の像高)における値である。S805、S806、S807、S810の各処理は、図8のS705、S706、S707、S710の各処理と同様である。ただし、S807では,S806で取得された焦点検出情報と,S804で取得された敏感度関連情報(像高0における敏感度情報)とが対応づけられてメモリに記憶される。   In the next S804, the camera control unit 9 acquires focus sensitivity related information from the lens control unit 26 via the lens communication unit 25 and the camera communication unit 11. The sensitivity indicated by “sensitivity information at the center image height” in the focus sensitivity related information is a value at the center of the imaging surface, that is, a value at the image height 0 (center image height). The processes of S805, S806, S807, and S810 are the same as the processes of S705, S706, S707, and S710 in FIG. However, in S807, the focus detection information acquired in S806 and the sensitivity related information (sensitivity information at image height 0) acquired in S804 are associated with each other and stored in the memory.

S810にて、全AF枠の焦点検出が完了した場合、S811へ処理を進める。S811でカメラ制御部9は敏感度補正実施範囲を設定する。まずカメラ制御部9はレンズ通信部25およびカメラ通信部11を介して撮像光学系の焦点距離情報を取得する。次にカメラ制御部9は全ての焦点検出結果、具体的には図6の矩形枠511〜519で示す領域にて繰り返し実施した9フレーム分の焦点検出結果から、中心の像高から最も離れた位置のAF枠の像高情報に基づいて敏感度補正実施範囲を計算する。計算方法については図10を用いて後述する。   If the focus detection of all the AF frames is completed in S810, the process proceeds to S811. In step S811, the camera control unit 9 sets the sensitivity correction execution range. First, the camera control unit 9 acquires focal distance information of the imaging optical system via the lens communication unit 25 and the camera communication unit 11. Next, the camera control unit 9 is farthest from the image height at the center from all focus detection results, specifically, nine frames worth of focus detection results repeatedly performed in the areas shown by the rectangular frames 511 to 519 in FIG. The sensitivity correction implementation range is calculated based on the image height information of the AF frame of the position. The calculation method will be described later with reference to FIG.

S812、S813の各処理は、図8のS711、S712の各処理と同様である。ただし、S813では、S812で選択され焦点検出結果について、S807で記憶された、焦点検出結果と対応づけられたフォーカス敏感度関連情報(像高0における敏感度情報)が取得される。   The processes of S812 and S813 are the same as the processes of S711 and S712 in FIG. However, in S813, the focus sensitivity related information (sensitivity information at the image height 0) associated with the focus detection result stored in S807 is acquired for the focus detection result selected in S812.

S814でカメラ制御部9は、S811で設定した敏感度補正実施範囲、およびS811で取得した焦点距離情報を使用して、敏感度補正処理を実施するか否かを判定する。S812で選択したAF枠位置での焦点検出結果、およびS813で取得したフォーカス敏感度関連情報に基づいて、デフォーカス量の算出処理が行われる。カメラ制御部9は算出したデフォーカス量が、S811で設定した敏感度補正実施範囲内である場合に敏感度補正処理を実施すると判定する。デフォーカス量がS811で設定した敏感度補正実施範囲内でない場合には、敏感度補正処理を実施しないと判定される。判定処理の詳細については図11を用いて後述する。またカメラ制御部9は、焦点距離が所定の閾値よりも大きい場合、敏感度補正処理を実施しないと判定する。敏感度補正処理を実施することが判定された場合、S815に処理を進め、敏感度補正処理を実施しないと判定された場合にはS817に遷移する。なお、敏感度補正処理の実施の判定基準に関しては、必要に応じて本実施形態の以外の判定基準を採用してもよい。   In step S814, the camera control unit 9 determines whether to execute the sensitivity correction process using the sensitivity correction execution range set in step S811 and the focal length information acquired in step S811. Based on the focus detection result at the AF frame position selected in step S812 and the focus sensitivity related information acquired in step S813, calculation of the defocus amount is performed. The camera control unit 9 determines that the sensitivity correction process is to be performed when the calculated defocus amount is within the sensitivity correction implementation range set in S811. If the defocus amount is not within the sensitivity correction implementation range set in S811, it is determined that the sensitivity correction process is not performed. The details of the determination process will be described later with reference to FIG. In addition, when the focal length is larger than a predetermined threshold, the camera control unit 9 determines that the sensitivity correction process is not performed. If it is determined that the sensitivity correction process is to be performed, the process proceeds to step S815. If it is determined that the sensitivity correction process is not to be performed, the process proceeds to step S817. In addition, regarding the determination standard of the implementation of the sensitivity correction process, a determination standard other than this embodiment may be adopted as needed.

S815でカメラ制御部9は、レンズ通信部25およびカメラ通信部11を介してレンズ制御部26から、「敏感度像高補正係数」のデータを取得する。このデータは、中心の像高のフォーカス敏感度を補正するためのフォーカス敏感度補正係数のデータである。敏感度S(X,Y)の算出は、前記式(1)を適用して行われる。S816、S817の各処理は、図8のS713、S714の各処理と同様である。S818にて多点AF処理でのAF枠位置選択処理が終了する。   In S815, the camera control unit 9 acquires data of the “sensitivity image height correction coefficient” from the lens control unit 26 via the lens communication unit 25 and the camera communication unit 11. This data is data of a focus sensitivity correction coefficient for correcting the focus sensitivity of the central image height. The calculation of the sensitivity S (X, Y) is performed by applying the equation (1). Each process of S816 and S817 is the same as each process of S713 and S714 of FIG. In S818, the AF frame position selection process in the multipoint AF process ends.

次に図10を参照して、敏感度補正実施範囲の計算方法を説明する。図10は横軸に像高(単位:mm)をとり、縦軸に比率をとって、焦点距離A,B(単位:mm)におけるそれぞれの敏感度比率および敏感度補正比率を例示したグラフである。
カメラ制御部9は、記憶している焦点距離によって変化する係数(αと記す)、および像高から敏感度補正比率を算出する。像高は、図9のS811で設定される中心の像高から最も離れたAF枠の像高座標(X,Y)から、下記式(2)によって求まる。像高と係数αを下記式(3)に代入することによって敏感度補正比率が得られる。
像高=√(X2+Y2) ・・・(2)
敏感度補正比率=1+(像高×α) ・・・(3)
Next, with reference to FIG. 10, a method of calculating the sensitivity correction implementation range will be described. FIG. 10 is a graph in which the image height (unit: mm) is taken on the horizontal axis and the ratio is taken on the vertical axis, and the sensitivity ratio and sensitivity correction ratio at focal lengths A and B (unit: mm) are illustrated. is there.
The camera control unit 9 calculates the sensitivity correction ratio from the stored coefficient according to the focal length (denoted as α) and the image height. The image height is determined by the following equation (2) from the image height coordinates (X, Y) of the AF frame farthest from the center image height set in step S811 in FIG. The sensitivity correction ratio can be obtained by substituting the image height and the coefficient α into the following equation (3).
Image height = ((X 2 + Y 2 ) (2)
Sensitivity correction ratio = 1 + (image height × α) (3)

図10にて、実線で示すグラフ曲線901は焦点距離Ammにおける敏感度比率を示し、実線で示すグラフ曲線902は焦点距離Bmmにおける敏感度比率を示す。敏感度比率はいずれも像高ゼロで1であり、像高の増加につれて増加していく。焦点距離Ammにおける敏感度比率がグラフ曲線901に示す特性である場合、式(2)および式(3)から算出される敏感度補正比率を、一点鎖線のグラフ線903に示す。敏感度補正比率の値は像高ゼロで1であり、像高の増加につれて線形に増加する。また焦点距離Bmmにおける敏感度比率がグラフ曲線902に示す特性である場合、式(2)および式(3)から算出される敏感度補正比率を、一点鎖線のグラフ線904に示す。敏感度補正比率の値は像高ゼロで1であり、像高の増加につれて線形に増加し、その傾斜はグラフ線903の傾斜よりも大きい。   In FIG. 10, a graph curve 901 indicated by a solid line indicates the sensitivity ratio at the focal length A mm, and a graph curve 902 indicated by the solid line indicates the sensitivity ratio at the focal distance B mm. The sensitivity ratios are all 1 at an image height of zero, and increase as the image height increases. When the sensitivity ratio at the focal length A mm is the characteristic shown in the graph curve 901, the sensitivity correction ratio calculated from the equation (2) and the equation (3) is indicated by the dashed-dotted line graph line 903. The value of the sensitivity correction ratio is 1 at image height zero, and increases linearly with image height increase. When the sensitivity ratio at the focal length B mm is the characteristic shown in the graph curve 902, the sensitivity correction ratio calculated from the equations (2) and (3) is indicated by the dashed dotted line graph line 904. The value of the sensitivity correction ratio is 1 at image height zero, and increases linearly as the image height increases, and its slope is larger than the slope of the graph line 903.

カメラ制御部9は算出した敏感度補正比率、および最終駆動範囲を、下記式(4)に代入することで敏感度補正実施範囲を算出する。
敏感度補正実施範囲=敏感度補正比率×最終駆動範囲 ・・・(4)
本実施形態では、敏感度補正比率の計算式として、像高について一次補間式で表現し、敏感度補正実施範囲の計算式を敏感度補正比率の一次式として表現したが、これらは一例であって任意の補間式および計算式を適用してもよい。また、レンズ通信部25およびカメラ通信部11を介してカメラ制御部9が、係数αのデータをレンズ制御部26から取得してもよい。
The camera control unit 9 calculates the sensitivity correction execution range by substituting the calculated sensitivity correction ratio and the final drive range into the following equation (4).
Sensitivity correction implementation range = sensitivity correction ratio × final drive range (4)
In the present embodiment, the image height is expressed by a linear interpolation equation as a calculation equation of the sensitivity correction ratio, and the calculation equation of the sensitivity correction implementation range is expressed as a linear equation of the sensitivity correction ratio. Arbitrary interpolation formulas and calculation formulas may be applied. Alternatively, the camera control unit 9 may obtain data of the coefficient α from the lens control unit 26 via the lens communication unit 25 and the camera communication unit 11.

図11を参照して、敏感度補正実施範囲の設定方法、および敏感度補正処理の実施判定について説明する。図11はデフォーカス量と、最終駆動範囲1001、敏感度補正実施範囲1002、敏感度補正非実施範囲1003の関係についての説明図である。敏感度補正実施範囲1002は図9のS811で式(4)により計算され、最終駆動範囲1001を中心として設定される。最終駆動範囲1001はデフォーカス量がゼロの位置を基準とする所定の範囲であり、最終駆動範囲1001に敏感度補正比率を乗算した範囲が敏感度補正実施範囲1002である。カメラ制御部9はS812で選択した焦点検出結果およびS813で取得したフォーカス敏感度関連情報に基づいて算出したデフォーカス量が、敏感度補正実施範囲1002内であるか、敏感度補正非実施範囲1003内であるかを判定する。デフォーカス量が敏感度補正実施範囲1002内である場合、図9のS814にて敏感度補正処理を実行すると判定され、またデフォーカス量が敏感度補正非実施範囲1003である場合、S814にて敏感度補正処理を実行しないと判定される。   The setting method of the sensitivity correction execution range and the execution determination of the sensitivity correction processing will be described with reference to FIG. FIG. 11 is an explanatory diagram of the relationship between the defocus amount, the final drive range 1001, the sensitivity correction execution range 1002, and the sensitivity correction non-execution range 1003. The sensitivity correction execution range 1002 is calculated by the equation (4) in S811 of FIG. 9 and is set around the final drive range 1001. The final drive range 1001 is a predetermined range based on the position where the defocus amount is zero, and a range obtained by multiplying the final drive range 1001 by the sensitivity correction ratio is the sensitivity correction execution range 1002. The camera control unit 9 determines whether the defocus amount calculated based on the focus detection result selected in S812 and the focus sensitivity related information acquired in S813 is within the sensitivity correction execution range 1002 or the sensitivity correction non-execution range 1003. Determine if it is within. If the defocus amount is within the sensitivity correction execution range 1002, it is determined in S814 of FIG. 9 that the sensitivity correction process is to be performed, and if the defocus amount is the sensitivity correction non-execution range 1003, the process proceeds to S814. It is determined that the sensitivity correction process is not to be performed.

本実施形態では、最終駆動範囲の付近に設定される、像高に起因したフォーカス敏感度の変化が加味された敏感度補正実施範囲においてのみ、フォーカス敏感度補正処理が実行される。本実施形態によれば、カメラ本体部とレンズ装置との通信負荷およびカメラ本体部の演算負荷をさらに軽減しつつ、焦点調節精度の向上を実現することができ、多点AFの枠数の増加、およびフレームレートの高速化に対して有効である。   In the present embodiment, the focus sensitivity correction process is performed only in the sensitivity correction implementation range in which the change in focus sensitivity caused by the image height is added, which is set near the final drive range. According to the present embodiment, it is possible to realize improvement in focus adjustment accuracy while further reducing the communication load between the camera body and the lens apparatus and the calculation load of the camera body, and the number of frames of multipoint AF is increased. , And effective for speeding up of the frame rate.

1 カメラ本体部
2 交換レンズ
4 撮像素子
6 焦点検出部
9 カメラ制御部
22 フォーカスレンズ
26 レンズ制御部
28 フォーカス駆動部

Reference Signs List 1 camera body 2 interchangeable lens 4 imaging device 6 focus detection unit 9 camera control unit 22 focus lens 26 lens control unit 28 focus drive unit

Claims (10)

レンズ装置および該レンズ装置を装着可能なカメラ本体部を備える撮像システムであって、
前記レンズ装置は、
焦点調節用のレンズおよび該レンズの駆動を制御する駆動制御手段と、
前記カメラ本体部と通信する第1の通信手段を備え、
前記カメラ本体部は、
前記レンズ装置と通信する第2の通信手段と、
撮像面内に設定された複数の焦点検出領域における焦点検出信号を取得する焦点検出手段と、
前記焦点検出信号から前記レンズの駆動を制御する制御信号を生成し、前記第1および第2の通信手段を介して前記レンズ装置に送信する制御手段を備え、
前記カメラ本体部の制御手段は、前記レンズ装置から前記第1および第2の通信手段を介して、中心の像高における前記レンズの敏感度情報および像高に対応した敏感度の変化を示す敏感度の補正情報を取得し、前記複数の焦点検出領域から選択した焦点検出領域の像高情報、および取得した前記補正情報により、像高に対応する前記レンズの敏感度の変化を補正し、補正した敏感度を用いて算出した前記レンズの駆動量を指示する前記制御信号を生成することを特徴とする撮像システム。
What is claimed is: 1. An imaging system comprising: a lens device;
The lens device is
A lens for focus adjustment and a drive control means for controlling the drive of the lens;
A first communication unit for communicating with the camera body;
The camera body is
Second communication means for communicating with the lens device;
Focus detection means for acquiring focus detection signals in a plurality of focus detection areas set in an imaging plane;
A control unit configured to generate a control signal for controlling the driving of the lens from the focus detection signal and to transmit the control signal to the lens device via the first and second communication units;
The control means of the camera body portion is sensitive from the lens device to the sensitivity information indicating the sensitivity information of the lens at the central image height and the change in sensitivity corresponding to the image height through the first and second communication means. Correction information of the degree is acquired, image height information of the focus detection area selected from the plurality of focus detection areas, and the acquired correction information correct the change of the sensitivity of the lens corresponding to the image height and correct the correction An imaging system characterized by generating the control signal indicating a driving amount of the lens calculated using the sensitivity;
前記カメラ本体部の制御手段は、中心の像高における前記レンズの敏感度の特性に対し、多項式近似または直線近似により前記敏感度を算出することを特徴とする請求項1に記載の撮像システム。   The image pickup system according to claim 1, wherein the control means of the camera body calculates the sensitivity by the polynomial approximation or the linear approximation with respect to the characteristic of the sensitivity of the lens at the central image height. 焦点調節用のレンズを有するレンズ装置を装着可能な撮像装置であって、
前記レンズ装置と通信する通信手段と、
撮像面内に設定された複数の焦点検出領域における焦点検出信号を取得する焦点検出手段と、
前記焦点検出信号により前記レンズの駆動を制御する制御信号を生成し、前記通信手段を介して前記レンズ装置に送信する制御手段を備え、
前記制御手段は、前記レンズ装置から前記通信手段を介して、中心の像高における前記レンズの敏感度情報および像高に対応した敏感度の変化を示す敏感度の補正情報を取得し、前記複数の焦点検出領域から選択した焦点検出領域の像高情報、および取得した前記補正情報により、像高に対応する前記レンズの敏感度の変化を補正し、補正した敏感度を用いて算出した前記レンズの駆動量を指示する前記制御信号を生成することを特徴とする撮像装置。
An imaging apparatus capable of mounting a lens apparatus having a lens for focusing,
Communication means for communicating with the lens device;
Focus detection means for acquiring focus detection signals in a plurality of focus detection areas set in an imaging plane;
The control unit generates a control signal for controlling the drive of the lens by the focus detection signal, and transmits the control signal to the lens device through the communication unit.
The control means acquires, from the lens device, sensitivity information of the lens at a central image height and sensitivity correction information indicating a change in sensitivity corresponding to the image height, through the communication means, The lens calculated by using the corrected sensitivity, correcting the change in sensitivity of the lens corresponding to the image height with the image height information of the focus detection area selected from the focus detection area of the lens and the acquired correction information An image pickup apparatus generating the control signal indicating a drive amount of the image pickup apparatus;
前記制御手段は、前記焦点検出信号の示すデフォーカス量が、設定された実施範囲内である場合に、補正した前記敏感度を用いて前記レンズの駆動量を算出することを特徴とする請求項3に記載の撮像装置。   The control means calculates the drive amount of the lens using the corrected sensitivity when the defocus amount indicated by the focus detection signal is within the set execution range. 3. The imaging device according to 3. 前記制御手段は、像高から算出した敏感度の補正比率を用いて前記実施範囲を設定することを特徴とする請求項4に記載の撮像装置。   5. The imaging apparatus according to claim 4, wherein the control unit sets the implementation range using a sensitivity correction ratio calculated from an image height. 前記制御手段は、前記複数の焦点検出領域について異なるタイミングで焦点検出を行う制御モードにて、前記焦点検出のタイミングごとに前記レンズ装置から前記敏感度情報を取得することを特徴とする請求項3から5のいずれか1項に記載の撮像装置。   The control means acquires the sensitivity information from the lens device at each timing of focus detection in a control mode in which focus detection is performed at different timings for the plurality of focus detection areas. The imaging device of any one of 5. 前記制御手段は前記制御モードにて、異なるタイミングで取得された焦点検出信号と、取得した前記敏感度情報とを対応づけて記憶手段に記憶し、前記複数の焦点検出領域から選択した焦点検出領域に対応する前記敏感度情報を前記記憶手段から取得することを特徴とする請求項6に記載の撮像装置。   The control means associates the focus detection signal acquired at different timings with the acquired sensitivity information in the control mode, stores the same in the storage means, and selects a focus detection area selected from the plurality of focus detection areas. 7. The image pickup apparatus according to claim 6, wherein the sensitivity information corresponding to is acquired from the storage unit. 前記制御モードは、撮像面の領域を格子状に分割し、分割された焦点検出領域ごとに焦点検出を実行するモードであることを特徴とする請求項6または請求項7に記載の撮像装置。   8. The image pickup apparatus according to claim 6, wherein the control mode is a mode in which an area of the imaging surface is divided into a grid and focus detection is performed for each of the divided focus detection areas. カメラ本体部に装着して使用されるレンズ装置であって、
焦点調節用のレンズおよび該レンズの駆動手段と、
前記カメラ本体部と通信する通信手段と、
前記レンズの駆動を制御する制御手段を備え、
前記制御手段は前記通信手段を介して、中心の像高における前記レンズの敏感度情報および像高に対応した敏感度の変化を示す敏感度の補正情報を前記カメラ本体部に送信することを特徴とするレンズ装置。
A lens device used by being attached to a camera body,
A lens for focusing and driving means for the lens;
Communication means for communicating with the camera body;
A control unit configured to control driving of the lens;
The control means is characterized in that sensitivity information of the lens at a central image height and sensitivity correction information indicating a change in sensitivity corresponding to the image height are transmitted to the camera body through the communication means. And a lens device.
焦点調節用のレンズを有するレンズ装置および該レンズ装置を装着可能なカメラ本体部を備える撮像システムにて実行される制御方法であって、
撮像面内に設定された複数の焦点検出領域における焦点検出信号を焦点検出手段が取得するステップと、
前記カメラ本体部の制御手段が、前記レンズ装置から通信手段を介して、中心の像高における前記レンズの敏感度情報および像高に対応した敏感度の変化を示す敏感度の補正情報を取得するステップと、
前記制御手段が、前記複数の焦点検出領域から選択した焦点検出領域の像高情報、および取得した前記補正情報により、像高に対応する前記レンズの敏感度の変化を補正するステップと、
前記制御手段が、前記焦点検出信号および補正された前記敏感度を用いて前記レンズの駆動量を算出し、算出された駆動量を指示する制御信号を生成して前記通信手段を介して前記レンズ装置に送信するステップを有することを特徴とする撮像システムの制御方法。
A lens device having a lens for focusing, and a control method executed in an imaging system including a camera body capable of mounting the lens device,
The focus detection means acquires focus detection signals in a plurality of focus detection areas set in the imaging plane;
The control means of the camera body acquires the sensitivity information of the lens at the central image height and sensitivity correction information indicating a change in sensitivity corresponding to the image height from the lens device through the communication means. Step and
Correcting the change in sensitivity of the lens corresponding to the image height based on image height information of a focus detection area selected from the plurality of focus detection areas and the acquired correction information;
The control means calculates the drive amount of the lens using the focus detection signal and the corrected sensitivity, generates a control signal indicating the calculated drive amount, and transmits the lens via the communication means. A control method of an imaging system, comprising the step of transmitting to an apparatus.
JP2019062953A 2019-03-28 2019-03-28 Imaging system, imaging device, lens device, control method of imaging system Active JP6803941B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019062953A JP6803941B2 (en) 2019-03-28 2019-03-28 Imaging system, imaging device, lens device, control method of imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019062953A JP6803941B2 (en) 2019-03-28 2019-03-28 Imaging system, imaging device, lens device, control method of imaging system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015161604A Division JP6504969B2 (en) 2015-08-19 2015-08-19 Imaging system, imaging apparatus, lens apparatus, control method of imaging system

Publications (3)

Publication Number Publication Date
JP2019109549A true JP2019109549A (en) 2019-07-04
JP2019109549A5 JP2019109549A5 (en) 2020-03-05
JP6803941B2 JP6803941B2 (en) 2020-12-23

Family

ID=67179751

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019062953A Active JP6803941B2 (en) 2019-03-28 2019-03-28 Imaging system, imaging device, lens device, control method of imaging system

Country Status (1)

Country Link
JP (1) JP6803941B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146062A (en) * 2004-11-24 2006-06-08 Canon Inc Camera
JP2015079158A (en) * 2013-10-17 2015-04-23 キヤノン株式会社 Image capturing device and control method therefor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146062A (en) * 2004-11-24 2006-06-08 Canon Inc Camera
JP2015079158A (en) * 2013-10-17 2015-04-23 キヤノン株式会社 Image capturing device and control method therefor

Also Published As

Publication number Publication date
JP6803941B2 (en) 2020-12-23

Similar Documents

Publication Publication Date Title
JP6504969B2 (en) Imaging system, imaging apparatus, lens apparatus, control method of imaging system
JP2012220925A (en) Imaging apparatus and camera system
US20140320734A1 (en) Image capture apparatus and method of controlling the same
US9485409B2 (en) Image capturing apparatus and control method therefor
JP2012234152A (en) Imaging apparatus and control method thereof
JP6029496B2 (en) FOCUS DETECTION DEVICE, ITS CONTROL METHOD, IMAGING DEVICE, PROGRAM, AND STORAGE MEDIUM
JP2015212794A (en) Imaging device, control method of the same and control program
JP6849325B2 (en) Control device, image pickup device, control method, program, and storage medium
JP6238578B2 (en) Imaging apparatus and control method thereof
JP2015111252A (en) Imaging device, imaging device control method, program, and storage medium
US11375101B2 (en) Image capturing apparatus, control method thereof, and storage medium
JP2016057546A (en) Imaging device and control method for the same
JP7171331B2 (en) Imaging device
JP6305017B2 (en) Focus control device and control method thereof
JP6803941B2 (en) Imaging system, imaging device, lens device, control method of imaging system
JP6609910B2 (en) Imaging device
JP2014142497A (en) Imaging apparatus and method for controlling the same
JP6305016B2 (en) FOCUS CONTROL DEVICE, FOCUS CONTROL DEVICE CONTROL METHOD, AND IMAGING DEVICE
JP6530610B2 (en) Focusing device, imaging device, control method of focusing device, and program
JP7207874B2 (en) CONTROL DEVICE, IMAGING DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
US10616469B2 (en) Image capturing apparatus and control method therefor
JP7282598B2 (en) Control device, imaging device, control method, and program
JP6902921B2 (en) Imaging equipment, control methods, and programs
JP6087878B2 (en) Imaging apparatus, automatic focusing method and program
JP2015080114A (en) Image-capturing device, control method therefor, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201201

R151 Written notification of patent or utility model registration

Ref document number: 6803941

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151