JP2019090855A - Imaging device and control method therefor - Google Patents

Imaging device and control method therefor Download PDF

Info

Publication number
JP2019090855A
JP2019090855A JP2017217625A JP2017217625A JP2019090855A JP 2019090855 A JP2019090855 A JP 2019090855A JP 2017217625 A JP2017217625 A JP 2017217625A JP 2017217625 A JP2017217625 A JP 2017217625A JP 2019090855 A JP2019090855 A JP 2019090855A
Authority
JP
Japan
Prior art keywords
focus detection
area
focus
detection area
selection process
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017217625A
Other languages
Japanese (ja)
Inventor
賢志 木本
Kenji Kimoto
賢志 木本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017217625A priority Critical patent/JP2019090855A/en
Publication of JP2019090855A publication Critical patent/JP2019090855A/en
Pending legal-status Critical Current

Links

Images

Abstract

To achieve stable focus tracking when performing focus control during zooming operation.SOLUTION: The present invention includes: a setting step for setting a plurality of focus detection regions; and a selection step for executing a first region selection process of selecting a focus detection region that is the object of focus adjustment on the basis of the result of focus detection in the plurality of focus detection regions and a second region selection process of selecting a focus detection region that is the object of focus adjustment from the focus detection regions, among the plurality of focus detection regions, that conform to a specific condition. In the selection step, the first region selection process is executed when a zoom lens is not moving, and the second region selection process is executed when the zoom lens is moving.SELECTED DRAWING: Figure 12

Description

本発明は、ズーム機能を有する撮像装置における焦点調節技術に関するものである。   The present invention relates to focusing technology in an imaging apparatus having a zoom function.

従来から、電子スチルカメラなどの撮像装置において、ズーム動作時に被写体にピントの合った画像を撮影するために、ズームレンズの移動に合わせてフォーカスレンズを移動させる撮像装置が知られている。   2. Description of the Related Art Conventionally, in an imaging apparatus such as an electronic still camera, there is known an imaging apparatus that moves a focusing lens in accordance with the movement of a zoom lens in order to shoot an image in focus on a subject during zoom operation.

特許文献1では、撮像面位相差AFを用いて、ズーム中にピントを合わせる方法が提案されている。また、特許文献2では、コントラスト検出方式のAFを用いて、ズーム中にピントを合わせる方法が提案されている。   Patent Document 1 proposes a method of focusing during zooming using imaging surface phase difference AF. Further, Patent Document 2 proposes a method of focusing during zooming using contrast detection AF.

特許第6127730号Patent No. 6127730 特開2013−29628号公報JP, 2013-29628, A

しかしながら、上述の特許文献1、2に開示された従来技術では、撮影者の意図しないピント変化が生じる可能性があった。具体的には複数の焦点検出領域より構成される焦点検出領域のブロックを備えた撮像装置の場合である。このような撮像装置の場合、撮影者は大まかにピントを合わせたい被写体に対して焦点検出領域のブロックの位置を指定し、指定された焦点検出領域のブロックの焦点検出結果に基づいてピントを合わせることを期待する。そのため、上記特許文献1,2の方法では、指定した焦点検出領域のブロックの位置、特に光軸中心付近より外れて焦点検出領域のブロックが設定された場合にはズーム動作の開始とともに撮影者の意図しない位置にピントが変化してしまう可能性がある。   However, in the prior art disclosed in Patent Documents 1 and 2 described above, there is a possibility that a change in focus unintended by the photographer may occur. Specifically, this is the case of an imaging apparatus provided with a block of a focus detection area composed of a plurality of focus detection areas. In the case of such an imaging device, the photographer roughly designates the position of the block of the focus detection area with respect to the subject to be focused on, and focuses on the focus detection result of the block of the designated focus detection area. I expect that. Therefore, according to the methods of Patent Documents 1 and 2, when the block of the focus detection area is set apart from the position of the block of the designated focus detection area, in particular, near the center of the optical axis, the photographer The focus may change to an unintended position.

一方で、光軸中心付近より外れて焦点検出領域のブロックを配置した場合、光軸中心付近に配置した場合と比較して同一の被写体をとらえ続けることが難しくなり被写体の出入りの影響を受けやすくなる課題が存在する。特に撮像面位相差AFのように短時間で焦点検出結果が算出され、効率良く合焦状態を得ることが可能な焦点調整方式の場合、各焦点検出領域が被写体の出入りの影響を受け、焦点検出結果が頻繁に変化する可能性がある。このような焦点検出結果をズーム中のピント制御に用いた場合、撮影者にとって予期せぬピント変動が生じることになり違和感のある動画像になってしまうことがあった。   On the other hand, when the block of the focus detection area is disposed out of the vicinity of the optical axis center, it is difficult to keep on capturing the same subject compared to the case where the block is disposed near the optical axis center. Challenges that In particular, in the case of a focus adjustment method where focus detection results are calculated in a short time, such as imaging plane phase difference AF, and in-focus state can be efficiently obtained, each focus detection area is affected by movement of the subject. Detection results may change frequently. When such a focus detection result is used for focus control during zooming, an unexpected change in focus may occur to the photographer, resulting in a moving image with a sense of discomfort.

そこで、本発明は、ズーム動作した場合でも、安定したピント追従を可能とする撮像装置を提供することを目的とする。   Therefore, an object of the present invention is to provide an imaging device that enables stable focus tracking even when zoom operation is performed.

本発明の技術的特徴として、ズームレンズの移動により焦点距離が変更可能な撮像装置の制御方法であって、複数の焦点検出領域を設定する設定ステップと、前記複数の焦点検出領域の焦点検出結果に基づいて焦点調整対象とする焦点検出領域を選択する第1の領域選択処理と、前記複数の焦点検出領域のうち、特定の条件に合う焦点検出領域から焦点調整対象とする焦点検出領域を選択する第2の領域選択処理とを行う選択ステップと、を有し、前記選択ステップでは、前記ズームレンズが移動中でない場合には前記第1の領域選択処理を行い、前記ズームレンズが移動中である場合には前記第2の領域選択処理を行うことを特徴とする。   A technical feature of the present invention is a control method of an imaging apparatus capable of changing a focal length by movement of a zoom lens, which comprises: setting a plurality of focus detection areas; and focus detection results of the plurality of focus detection areas And selecting a focus detection area to be subjected to focus adjustment from among focus detection areas that meet specific conditions among the plurality of focus detection areas. And a second step of selecting a second area, and in the selecting step, if the zoom lens is not moving, the first area selecting process is performed, and the zoom lens is moving. In some cases, the second area selection process is performed.

本発明によれば、ズーム動作した場合でも、安定したピント追従をすることができる。   According to the present invention, stable focus tracking can be performed even when the zoom operation is performed.

本実施例1の撮像装置を示すブロック図である。FIG. 1 is a block diagram showing an imaging device of a first embodiment. 画像センサーの一部領域を示す説明図である。It is an explanatory view showing a partial field of an image sensor. デフォーカス量を検出する検出エリアから得られる像信号を示す図である。It is a figure which shows the image signal obtained from the detection area which detects defocusing quantity. 相関量波形、相関変化量波形、およびピントずれ量を示す図である。It is a figure which shows a correlation amount waveform, a correlation change amount waveform, and a focus shift amount. 2像一致度を算出する方法を示す図である。It is a figure which shows the method of calculating 2 image coincidence. 位相差AF処理のフローチャートである。5 is a flowchart of phase difference AF processing. カム軌跡を示す説明図である。It is an explanatory view showing a cam locus. 実施例1のAF制御処理を示すフローチャートである。5 is a flowchart showing an AF control process of the first embodiment. 実施例1の目標位置選択処理を示すフローチャートである。5 is a flowchart showing a target position selection process of the first embodiment. 実施例1のズーム中のピント制御に関する説明図である。FIG. 8 is an explanatory diagram regarding focus control during zooming in the first embodiment. 実施例1の多点焦点検出領域より構成される焦点検出領域のブロックに関する説明図である。FIG. 7 is an explanatory diagram of a block of a focus detection area configured by the multipoint focus detection area according to the first embodiment. 実施例1の焦点検出領域選択処理を示すフローチャートである。5 is a flowchart showing focus detection area selection processing according to the first embodiment.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.

<撮像装置の構成>
本実施例では、レンズ鏡筒と撮像装置が一体となったレンズ鏡筒括りつけの撮像装置において、本発明を適用した場合の例を示す。
<Configuration of Imaging Device>
In this embodiment, an example in which the present invention is applied to an imaging apparatus in which a lens barrel and an imaging apparatus are integrated is shown.

図1は、撮像装置の主要部の構成を示すブロック図である。   FIG. 1 is a block diagram showing the configuration of the main part of the imaging apparatus.

図1に示すように、レンズ鏡筒括りつけの撮像装置100は、レンズ鏡筒及び撮像装置全体の動作を統括するカメラ制御部114を中心に構成される。撮像装置の制御は、カメラ制御部114の内部のROM、RAM(不図示)に格納された制御プログラム及び制御に必要な各種データに基づき実行される。   As shown in FIG. 1, the imaging device 100 of the lens barrel is configured around a camera control unit 114 that supervises the operations of the lens barrel and the entire imaging device. The control of the imaging apparatus is executed based on a control program stored in a ROM and a RAM (not shown) in the camera control unit 114 and various data necessary for the control.

まず、レンズ鏡筒に関連する部分の構成について説明する。レンズ鏡筒は、ズームレンズ101、絞り102、フォーカスレンズ103、ズームレンズ駆動部104、絞り駆動部105、フォーカスレンズ駆動部106を備えている。   First, the configuration of the portion related to the lens barrel will be described. The lens barrel includes a zoom lens 101, an aperture 102, a focus lens 103, a zoom lens drive unit 104, an aperture drive unit 105, and a focus lens drive unit 106.

ズームレンズ101は、ズームレンズ駆動部104によって駆動され、焦点距離(ズーム倍率)が変更可能である。絞り102は、絞り駆動部105によって駆動され、後述する撮像素子107への入射光量を制御する。フォーカスレンズ103はフォーカスレンズ駆動部106によって駆動され、後述する撮像素子107に結像する焦点の調節を行う。ズームレンズ駆動部104、絞り駆動部105、フォーカスレンズ駆動部106はカメラ制御部114によって制御される。これらは、ズームレンズ101の位置、絞り102の開口量や、フォーカスレンズ103の位置を決定するとともに、カメラ制御部114はズームレンズ駆動部104、絞り駆動部105、フォーカスレンズ駆動部106よりレンズ制御情報を得る。   The zoom lens 101 is driven by the zoom lens drive unit 104, and the focal length (zoom magnification) can be changed. The diaphragm 102 is driven by the diaphragm driving unit 105, and controls the amount of light incident on the image sensor 107 described later. The focus lens 103 is driven by the focus lens drive unit 106, and adjusts the focus formed on the image sensor 107 described later. The zoom lens drive unit 104, the diaphragm drive unit 105, and the focus lens drive unit 106 are controlled by the camera control unit 114. These determine the position of the zoom lens 101, the aperture amount of the diaphragm 102, and the position of the focus lens 103, and the camera control unit 114 controls the lens from the zoom lens drive unit 104, the diaphragm drive unit 105, and the focus lens drive unit 106. get information.

次に、撮影光学系を通過した光束から撮像信号を取得する撮像機能に関する部分の構成について説明する。撮像素子107、CDS/AGC回路108、カメラ信号処理部109、AF信号処理部110、表示部111、記録部112、カメラ制御部114、カメラ操作部115を備えている。撮像素子107は画像センサーとしての部材であって、CCDやCMOSセンサーなどから構成されている。レンズ鏡筒の撮影光学系を通ってきた光束を撮像素子107の受光面上に結像し、フォトダイオードによって入射光量に応じた信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、カメラ制御部114の指令に従ってタイミングジェネレータ113から与えられる駆動パルスに基づいて信号電荷に応じた電圧信号として撮像素子107から順次読み出される。   Next, the configuration of the part related to the imaging function of acquiring an imaging signal from the light flux that has passed through the imaging optical system will be described. The imaging device 107, the CDS / AGC circuit 108, a camera signal processing unit 109, an AF signal processing unit 110, a display unit 111, a recording unit 112, a camera control unit 114, and a camera operation unit 115 are provided. The image sensor 107 is a member as an image sensor, and is configured of a CCD, a CMOS sensor, or the like. The light flux that has passed through the photographing optical system of the lens barrel is imaged on the light receiving surface of the image sensor 107, and is converted into a signal charge corresponding to the amount of incident light by the photodiode. The signal charge stored in each photodiode is sequentially read out from the imaging element 107 as a voltage signal corresponding to the signal charge based on the drive pulse supplied from the timing generator 113 in accordance with an instruction from the camera control unit 114.

撮像素子107から読み出された映像信号及びAF用信号は、サンプリングし、ゲイン調整するCDS/AGC回路108に入力され、映像信号をカメラ信号処理部109に、撮像面位相差AF用の信号をAF信号処理部110にそれぞれ出力する。   The video signal and the AF signal read out from the image sensor 107 are input to the CDS / AGC circuit 108 for sampling and gain adjustment, and the video signal is sent to the camera signal processing unit 109 and the signal for imaging plane phase difference AF is The respective signals are output to the AF signal processing unit 110.

カメラ信号処理部109は、CDS/AGC回路108から出力された信号に対して各種の画像処理を施して、映像信号を生成する。   The camera signal processing unit 109 performs various types of image processing on the signal output from the CDS / AGC circuit 108 to generate a video signal.

LCD等により構成される表示部111は、カメラ信号処理部109から出力された映像信号を撮像画像として表示する。   A display unit 111 configured by an LCD or the like displays the video signal output from the camera signal processing unit 109 as a captured image.

記録部112は、カメラ信号処理部109からの映像信号を磁気テープ、光ディスク、半導体メモリ等の記録媒体に記録する。   The recording unit 112 records the video signal from the camera signal processing unit 109 on a recording medium such as a magnetic tape, an optical disk, or a semiconductor memory.

AF信号処理部110はCDS/AGC回路108から出力されたAF用の2つの像信号を基に、相関演算を行い、デフォーカス量、信頼性情報(二像一致度、二像急峻度、コントラスト情報、飽和情報、キズ情報等)を算出する。算出したデフォーカス量と、信頼性情報をカメラ制御部114へ出力する。また、カメラ制御部114は、取得したデフォーカス量や信頼性情報を基に、これらを算出する設定の変更をAF信号処理部110に通知する。相関演算の詳細については、図3から図5を用いて後述する。   The AF signal processing unit 110 performs correlation calculation based on the two image signals for AF output from the CDS / AGC circuit 108, and the defocus amount, reliability information (two-image coincidence, two-image steepness, contrast) Information, saturation information, flaw information etc.) are calculated. The calculated defocus amount and the reliability information are output to the camera control unit 114. Also, the camera control unit 114 notifies the AF signal processing unit 110 of a change in settings for calculating these based on the acquired defocus amount and reliability information. The details of the correlation calculation will be described later with reference to FIGS. 3 to 5.

カメラ制御部114は、撮像装置100内全体と情報をやり取りして制御を行う。撮像装置100内の処理だけでなく、カメラ操作部115からの入力に応じて、電源のON/OFF、設定の変更、記録の開始、AF制御の開始、記録映像の確認等の、ユーザが操作したさまざまなカメラ機能を実行する。   The camera control unit 114 performs control by exchanging information with the entire imaging apparatus 100. In addition to the processing in the imaging apparatus 100, the user performs operations such as power on / off, setting change, start of recording, start of AF control, confirmation of recorded video, etc. according to an input from the camera operation unit 115 Perform various camera functions.

<撮像素子の構成>
図2に画像センサーとしての撮像素子107の受光面の一部を示す。撮像素子107は、撮像面位相差AFを可能にするために、一つのマイクロレンズに対して光電変換手段として受光部であるフォトダイオードを2つ保持している画素部をアレイ状に並べている。これにより、各画素部で、レンズ鏡筒の射出瞳を分割した光束を受光することが可能になっている。
<Configuration of Image Sensor>
FIG. 2 shows a part of the light receiving surface of the image sensor 107 as an image sensor. In order to enable imaging surface phase difference AF, the imaging element 107 arranges pixel portions holding two photodiodes as light receiving portions as an optical photoelectric conversion unit in an array. Thus, it is possible to receive the luminous flux obtained by dividing the exit pupil of the lens barrel in each pixel portion.

図2(A)は、参考として、赤(R)、青(B)、緑(Gb、Gr)のベイヤー配列例の画像センサー表面の一部の模式図である。図2(B)は、図2(A)のカラーフィルターの配列に対応させて、一つのマイクロレンズに対して光電変換手段としてのフォトダイオードを2つ保持している画素部例である。   FIG. 2A is a schematic view of a part of the image sensor surface of the example of the Bayer arrangement example of red (R), blue (B) and green (Gb, Gr) as a reference. FIG. 2B is an example of a pixel portion in which two photodiodes as photoelectric conversion means are held with respect to one microlens corresponding to the arrangement of the color filters in FIG. 2A.

こうした構成を有する画像センサーは、各画素部から位相差AF用の2つの信号(以下、A像信号、B像信号ともいう。)を出力できるようになっている。   The image sensor having such a configuration can output two signals (hereinafter also referred to as an A image signal and a B image signal) for phase difference AF from each pixel unit.

また、2つのフォトダイオードの信号を加算した撮像の記録用の信号(A像信号+B像信号)も出力できるようになっている。この加算した信号の場合には、図2(A)で概略説明したベイヤー配列例の画像センサーの出力と同等の信号が出力される。このような画像センサーとしての撮像素子107からの出力信号を使って、後述するAF信号処理部110が2つの像信号の相関演算を行い、デフォーカス量や各種信頼性などの情報を算出する。   Also, it is possible to output a signal for recording of imaging (image A signal + image B signal) obtained by adding the signals of two photodiodes. In the case of the added signal, a signal equivalent to the output of the image sensor of the Bayer arrangement example schematically described in FIG. 2A is output. The AF signal processing unit 110 described later performs correlation calculation of two image signals using such an output signal from the image sensor 107 as an image sensor, and calculates information such as defocus amount and various reliability.

なお、本実施形態は撮像用の信号及び位相差AF用の2つの信号の2つの計3つの信号を撮像素子107から出力している。この点、このような方法に限定されない。例えば、撮像用の信号と位相差AF用の像信号の2つの信号のうちの1つの計2つ信号を出力するようにしてもよい。この場合、出力後に位相差AF用の像信号の2つの信号のうちの他の1つの信号は、撮像素子107からの2つの出力信号を利用して算出される。   In the present embodiment, a total of three signals of a signal for imaging and two signals for phase difference AF are output from the imaging element 107. This point is not limited to such a method. For example, a total of two signals of one of two signals of a signal for imaging and an image signal for phase difference AF may be output. In this case, the other one of the two signals of the image signal for phase difference AF after output is calculated using the two output signals from the imaging element 107.

また、図2では、一つのマイクロレンズに対して光電変換手段としてのフォトダイオードを2つ保持している画素部をアレイ状に並べている例を示した。この点、一つのマイクロレンズに対して光電変換手段としてのフォトダイオードを3つ以上保持している画素部をアレイ状に並べているようにしてもよい。また、マイクロレンズに対して受光部の開口位置が異なる画素部を複数有するようにしてもよい。つまり、結果としてA像信号とB像信号といった位相差検出可能な位相差AF用の2つの信号が得られるようになっていれば足りる。   Further, FIG. 2 shows an example in which pixel portions holding two photodiodes as photoelectric conversion means for one microlens are arranged in an array. In this respect, pixel portions holding three or more photodiodes as photoelectric conversion means may be arrayed in an array with respect to one microlens. In addition, a plurality of pixel units in which the opening position of the light receiving unit is different from the microlens may be provided. That is, it is sufficient if two signals for phase difference detection, such as an A image signal and a B image signal, can be obtained as a result.

<撮像面位相差AF方式の相関演算>
図3(D)は、像信号を取得する領域を例示するもので、画像センサーとしての撮像素子107の画素アレイ上の概念図である。不図示の画素部がアレイ状に配置された画素アレイ303に対して、以下に説明する演算対象の領域が領域304である。この領域304のデフォーカス量を算出する際の相関演算に必要なシフト領域305と領域304とを合わせたものが、相関演算を行う為に必要なシフト領域306である。
<Correlation calculation of imaging surface phase difference AF method>
FIG. 3D illustrates an area for acquiring an image signal, and is a conceptual diagram on a pixel array of the imaging element 107 as an image sensor. In contrast to a pixel array 303 in which pixel units (not shown) are arranged in an array, an area to be described below is an area 304. A combination of the shift area 305 necessary for the correlation calculation at the time of calculating the defocus amount of the area 304 and the area 304 is the shift area 306 necessary for performing the correlation calculation.

図3、4中のp、q、s、tはそれぞれx軸方向の座標を表し、pからqはシフト領域306を表し、sからtは領域304を表す。   In FIGS. 3 and 4, p, q, s, and t represent coordinates in the x-axis direction, p to q represent the shift area 306, and s to t represent the area 304.

図3(A)(B)(C)は、図3(D)で設定したシフト領域306から取得した像信号である。sからtが領域304に対応し、pからqがシフト量を踏まえたデフォーカス量を算出する演算に必要な範囲のシフト領域306に対応する像信号である。図3(A)は相関演算のためのシフト前のA像信号とB像信号とを概念的に波形で表した図である。実線301がA像信号A、破線302がB像信号である。   FIGS. 3A, 3B, and 3C are image signals acquired from the shift area 306 set in FIG. 3D. s to t correspond to the area 304, and p to q are image signals corresponding to the shift area 306 in the range necessary for calculation for calculating the defocus amount based on the shift amount. FIG. 3A is a diagram conceptually showing waveforms of the A and B image signals before shift for correlation calculation. The solid line 301 is an A image signal A, and the broken line 302 is a B image signal.

図3(B)は(A)のシフト前の像波形に対しプラス方向に互いにシフトさせた場合の概念図であり、同(C)は(A)のシフト前の像波形に対しマイナス方向に互いにシフトさせた場合の概念図である。2つの像の相関の具合である相関量を算出する際には、たとえば、それぞれ矢印の方向にA像信号301、B像信号302を1ビットずつシフトさせるといった具合である。   FIG. 3 (B) is a conceptual diagram in the case of mutually shifting the image waveform before shift in (A) in the positive direction, and FIG. 3 (C) in the negative direction with respect to the image waveform before shift in (A). It is a conceptual diagram at the time of making it mutually shift. When calculating the correlation amount which is the condition of the correlation between the two images, for example, it is possible to shift the A image signal 301 and the B image signal 302 in the direction of the arrows by one bit.

続いて相関量CORの算出法について説明する。まず、図3(B)(C)の通りに、たとえば、像信号Aと像信号Bを1ビットずつシフトしていき、その各状態でのA像信号とB像信号の差の絶対値の和を算出する。このとき、シフト量をiで表し、最小シフト数は図4中のp−s、最大シフト数は図4中のq−tである。またxは焦点検出領域の開始座標、yは焦点検出領域の終了座標である。これら用い、以下の式(1)によって算出する事ができる。   Subsequently, a method of calculating the correlation amount COR will be described. First, as shown in FIGS. 3B and 3C, for example, the image signal A and the image signal B are shifted one bit at a time, and the absolute value of the difference between the A and B image signals in each state is calculated. Calculate the sum. At this time, the shift amount is represented by i, the minimum shift number is p-s in FIG. 4, and the maximum shift number is q-t in FIG. Also, x is the start coordinate of the focus detection area, and y is the end coordinate of the focus detection area. Using these, it is computable by the following formula (1).

Figure 2019090855
Figure 2019090855

図4(A)は相関量を波形のグラフで示した概念図である。グラフの横軸はシフト量を示し、縦軸は相関量を示す。相関量波形401には、極値付近402、403を有している例図である。この中でも相関量が小さい方ほど、A像とB像の一致度が高いことを示す。   FIG. 4A is a conceptual diagram showing the correlation amount as a waveform graph. The horizontal axis of the graph indicates the shift amount, and the vertical axis indicates the correlation amount. The correlation amount waveform 401 is an example diagram having extreme values near 402 and 403. Among them, the smaller the correlation amount, the higher the degree of coincidence between the A image and the B image.

続いて相関変化量ΔCORの算出法について説明する。まず、図4(A)の相関量波形の概念図から、たとえば、1シフト飛ばしの相関量の差から相関変化量を算出する。このとき、シフト量をiで表し、最小シフト数は図3(D)中のp−s、最大シフト数は図3(D)中のq−tである。これらを用い、以下の式(2)によって算出する事ができる。
ΔCOR[i]=COR[i−1]−COR[i+1]
{(p−s+1)<i<(q−t−1)} (2)
Subsequently, a method of calculating the correlation change amount ΔCOR will be described. First, from the conceptual diagram of the correlation amount waveform of FIG. 4A, for example, the correlation change amount is calculated from the difference between the correlation amounts of one shift skipping. At this time, the shift amount is represented by i, the minimum shift number is p−s in FIG. 3 (D), and the maximum shift number is q−t in FIG. 3 (D). Using these, it can calculate by the following formula (2).
ΔCOR [i] = COR [i-1] -COR [i + 1]
{(P−s + 1) <i <(q−t−1)} (2)

図4(B)は相関変化量ΔCORを波形のグラフで例示した概念図である。グラフの横軸はシフト量を示し、縦軸は相関変化量を示す。相関変化量波形404は、相関変化量がプラスからマイナスになるポイント405、406を有する。このポイント405より相関変化量が0となる状態を相対的にA像とB像の一致度が高いA像信号とB像信号とのシフト量である。そのときのシフト量がデフォーカス量に対応することになる。   FIG. 4B is a conceptual diagram illustrating the correlation change amount ΔCOR with a waveform graph. The horizontal axis of the graph indicates the shift amount, and the vertical axis indicates the correlation change amount. The correlation variation waveform 404 has points 405 and 406 at which the correlation variation goes from positive to negative. From this point 405, it is the shift amount between the A image signal and the B image signal that the degree of coincidence between the A image and the B image is relatively high when the correlation change amount becomes 0. The shift amount at that time corresponds to the defocus amount.

図5(A)は図4(B)のポイント405を拡大したもので、相関変化量の波形404の一部分の波形を波形501としている。図5(A)を用いて、デフォーカス量に対応するピントずれ量PRDの算出法について例示する。ピントずれ量を整数部分βと小数部分αに分けて概念する。小数部分αは、図中の三角形ABCと三角形ADEの相似の関係から、以下の式(3)によって算出する事ができる。   FIG. 5A is an enlarged view of the point 405 in FIG. 4B, and the waveform of a part of the waveform 404 of the correlation change amount is a waveform 501. A method of calculating the defocus amount PRD corresponding to the defocus amount will be illustrated using FIG. 5 (A). The focus deviation amount is divided into an integer part β and a decimal part α for conception. The fractional part α can be calculated by the following equation (3) from the similarity relationship between the triangle ABC and the triangle ADE in the figure.

Figure 2019090855
Figure 2019090855

続いて小数部分βは、図5(A)中より以下の式(4)によって算出することができる。
β=k−1 (4)
Subsequently, the fractional part β can be calculated by the following equation (4) from FIG. 5 (A).
β = k−1 (4)

以上、αとβの和からピントずれ量PRDを算出する事ができる。   As described above, the defocus amount PRD can be calculated from the sum of α and β.

また、図4(B)のように複数のゼロクロスが存在する場合は、ゼロクロスでの相関量変化の急峻性maxder(以下、急峻性と呼ぶ)が大きいところを第1のゼロクロスとする。この急峻性はAFのし易さを示す指標で、値が大きいほどAFし易い点であることを示す。急峻性は以下の式(5)によって算出する事ができる。
maxder=│ΔCOR[k−1]│+│ΔCOR[k]│ (5)
When there are a plurality of zero crossings as shown in FIG. 4B, the place where the steepness maxder (hereinafter referred to as the steepness) of the correlation amount change at the zero crossings is large is taken as a first zero crossing. The steepness is an index indicating the ease of AF, and indicates that the larger the value, the easier the point is to perform AF. The steepness can be calculated by the following equation (5).
maxder = │ΔCOR [k-1] │ + │ΔCOR [k] │ (5)

以上のように、ゼロクロスが複数存在する場合は、急峻性によって第1のゼロクロスを決定する。   As described above, when there are a plurality of zero crossings, the first zero crossing is determined by the steepness.

続いてピントずれ量の信頼性レベルの算出法について例示する。これは、デフォーカス量の信頼性に対応するものであるが、以下に示す説明は例示で他の周知の方法で信頼性レベルを算出しても構わない。信頼性は、前述した急峻性や、A像信号、B像信号の2像の一致度fnclvl(以下、2像一致度と呼ぶ)によって定義する事ができる。2像一致度はピントずれ量の精度を表す指標で、値が小さいほど精度が良い。図5(B)は図4(A)の極値付近402の部分を拡大したもので、相関量波形401の一部分の波形である波形502である。これより、急峻性と2像一致度を算出法について例示する。2像一致度は以下の式(6)によって算出できる。
(i) │ΔCOR[k−1]│×2≦maxderのとき
fnclvl=COR[k−1]+ΔCOR[k−1]/4
(ii)│ΔCOR[k−1]│×2>maxderのとき
fnclvl=COR[k]−ΔCOR[k]/4 (6)
Subsequently, a method of calculating the reliability level of the focus shift amount will be illustrated. This corresponds to the reliability of the defocus amount, but the description given below may be used to calculate the reliability level by another known method by way of example. The reliability can be defined by the above-described sharpness and the degree of coincidence fnclvl (hereinafter referred to as the degree of coincidence of two images) of the two images of the A and B image signals. The degree of image coincidence is an index that represents the accuracy of the amount of focus shift, and the smaller the value, the better the accuracy. FIG. 5B is an enlarged view of a portion near the extreme value 402 in FIG. 4A, which is a waveform 502 which is a waveform of a part of the correlation amount waveform 401. From this, the steepness and the degree of coincidence between two images are illustrated for the calculation method. The degree of image coincidence can be calculated by the following equation (6).
(I) When | ΔCOR [k−1] | × 2 ≦ maxder
fnclvl = COR [k-1] + ΔCOR [k-1] / 4
(Ii) when | ΔCOR [k−1] | × 2> maxder
fnclvl = COR [k] -ΔCOR [k] / 4 (6)

<デフォーカス量算出>
図6は、デフォーカス量算出まで一連の処理の流れを示したものである。なお、下記の例示の説明では、ピントずれ量とデフォーカス量とを区別して例示する。この点、本願技術思想におけるデフォーカス量は、合焦位置からの絶対的な距離やパルス数で概念してもよいし、そういった概念と次元、単位の異なる概念や相対的な概念でもよい。どれだけ合焦状態から離れていると判断できるか、どれだけフォーカス制御すれば合焦状態に移行できると判断できるかを示す概念である。このような概念としてデフォーカス情報を取得することを「フォーカス情報を取得する」と説明する。
<Calculating defocus amount>
FIG. 6 shows the flow of a series of processing up to calculation of the defocus amount. In the following description of the example, the defocus amount and the defocus amount are distinguished and illustrated. In this respect, the defocus amount in the technical concept of the present application may be conceptualized as an absolute distance from the in-focus position or the number of pulses, or may be a conceptual or relative concept different from such concept, dimension or unit. It is a concept indicating how much it can be determined that the subject is out of focus and how much focus control can be made to make it possible to shift to the in-focus state. Acquisition of defocus information as such a concept is described as "acquisition of focus information".

ステップS601で、先に例示したように設定したそれぞれの領域に対応する撮像素子107の位置の画素から像信号A、Bを取得する。次に、取得した像信号から相関量を算出する(ステップS602)。続いて、算出した相関量から相関変化量を算出する(ステップS603)。そして、算出した相関変化量からピントずれ量を算出する(ステップS604)。また、算出したピントずれ量がどれだけ信頼できるのかを表す信頼性レベルを算出する(ステップS605)。これらの処理を、焦点検出領域の数に応じた数行う。そして、焦点検出領域ごとにピントずれ量をデフォーカス量に変換する(ステップS606)。   In step S601, the image signals A and B are acquired from the pixel at the position of the imaging element 107 corresponding to each of the areas set as illustrated above. Next, the amount of correlation is calculated from the acquired image signal (step S602). Subsequently, the correlation change amount is calculated from the calculated correlation amount (step S603). Then, the focus shift amount is calculated from the calculated correlation change amount (step S604). Further, a reliability level indicating how much the calculated defocus amount can be trusted is calculated (step S605). A number of these processes is performed according to the number of focus detection areas. Then, the defocus amount is converted into the defocus amount for each focus detection area (step S606).

<デフォーカス量の信頼度レベル>
次に、本実施例におけるデフォーカス量の信頼度レベルについて説明する。
<Reliability level of defocus amount>
Next, the reliability level of the defocus amount in the present embodiment will be described.

デフォーカス量の信頼度レベルとは、算出されたデフォーカス量の精度の確からしさを示す指標であり図1のAF信号処理部110によって算出される。基本的に算出されたデフォーカス量が信頼できると判断できる場合に信頼度レベルが高く、信頼できなくなるにつれて信頼度レベルは下がっていく。本実施例における信頼度レベルは1から4までの数値で表現し、1が最も信頼度が高く、4が最も低い信頼度を示す。各信頼度の詳細は次の通りである。   The reliability level of the defocus amount is an index indicating the accuracy of the calculated defocus amount, and is calculated by the AF signal processing unit 110 in FIG. Basically, the reliability level is high when it can be judged that the defocus amount calculated is reliable, and the reliability level is lowered as it becomes unreliable. The reliability level in the present embodiment is expressed by numerical values from 1 to 4, 1 being the highest reliability and 4 being the lowest reliability. The detail of each reliability is as follows.

デフォーカス量の信頼度レベルが「1」の場合とは、A像信号、B像信号のコントラストが高く、A像信号とB像信号の形が似ている(二像一致度レベルが高い)状態や、すでに当該主被写体像に合焦している状態にある場合である。この場合にはデフォーカス量を信頼して駆動を行う。   The contrast between the A image signal and the B image signal is high, and the shapes of the A image signal and the B image signal are similar to those in the case where the reliability level of the defocus amount is “1” (two image coincidence level is high) This is the case where the camera is in a state or in a state in which the image of the main subject is already in focus. In this case, the drive is performed by relying on the defocus amount.

デフォーカス量の信頼度レベルが「2」の場合とは、信頼度レベルが「1」ほどではないもののA像信号、B像信号のコントラストが高く、A像信号とB像信号の形が似ている状態を示す。または、すでに当該主被写体像に対して一定の誤差範囲内で合焦近傍に位置する状態を示す。この場合、デフォーカス量に基づいて目標位置を決定し駆動を行う。   When the reliability level of the defocus amount is “2”, the contrast of the A image signal and the B image signal is high but the shapes of the A image signal and the B image signal are similar although the reliability level is not as low as “1”. Show the status. Alternatively, it shows a state in which the main subject image is already in the vicinity of the in-focus position within a certain error range. In this case, the target position is determined and driven based on the defocus amount.

デフォーカス量の信頼度レベルが「3」の場合とは、AF信号処理部110で算出される二像一致度レベルが所定値よりも低いものの、A像信号、B像信号を相対的にシフトさせて得られる相関に一定の傾向があって、デフォーカス方向は信頼できる状態である。たとえば、主被写体に対して小ボケしている状態に多い判定である。   When the reliability level of the defocus amount is "3", although the two-image coincidence degree level calculated by the AF signal processing unit 110 is lower than a predetermined value, the A and B image signals are relatively shifted. There is a fixed tendency in the correlation obtained by the above, and the defocus direction is in a reliable state. For example, the determination is often performed in a state in which the main subject is slightly blurred.

デフォーカス量、およびデフォーカス方向も信頼できない場合を信頼度レベルが「4」と判定する。例えば、A像信号、B像信号のコントラストが低く、像一致度レベルも低い状態である。これは、被写体に対して大きくボケている状態のときに多く、デフォーカス量の算出が困難な状態である。   When the defocus amount and the defocus direction are not reliable either, it is determined that the reliability level is “4”. For example, the contrast of the A image signal and the B image signal is low, and the image matching level is also low. This is often the case where the object is largely blurred, and it is difficult to calculate the defocus amount.

<焦点検出領域のブロック>
次に、本実施例における多点の焦点検出領域より構成される焦点検出領域のブロックについて説明する。
<Block of focus detection area>
Next, the blocks of the focus detection area configured by the multi-point focus detection area in the present embodiment will be described.

焦点検出領域のブロックとは、図3(D)の演算対象の領域を格子状に配置したものであり、図11(a)(b)のように本実施例では3×3点の焦点検出領域を設定する。先に図2で説明した本実施例における画像センサーとしての撮像素子107は各画素部から位相差AF用の2つの信号を出力できるようになっており、焦点検出領域は任意の位置に設定することが可能である。そのため図11(a)のように光軸中心に格子状に配置したものを、カメラ操作部115からの入力に応じて図11(b)の位置に移動し、設定することが可能である。   The block in the focus detection area is the area to be calculated in FIG. 3D arranged in a grid, and as shown in FIGS. 11A and 11B, the focus detection of 3 × 3 points in this embodiment is performed. Set the area. The image sensor 107 as an image sensor in the present embodiment described above with reference to FIG. 2 can output two signals for phase difference AF from each pixel unit, and the focus detection area is set at an arbitrary position. It is possible. Therefore, as shown in FIG. 11 (a), it is possible to move one arranged in a lattice at the center of the optical axis to the position shown in FIG. 11 (b) according to an input from the camera operation unit 115 and set it.

本実施例では焦点検出領域のブロックの各焦点検出領域よりデフォーカス量を算出し、その結果に基づいて焦点調整が実施されるものとする。   In this embodiment, the defocus amount is calculated from each focus detection area of the block of the focus detection area, and focus adjustment is performed based on the result.

<AF制御処理>
次に、カメラ制御部114が実施するAF制御処理について図8を用いて説明する。
<AF control processing>
Next, AF control processing performed by the camera control unit 114 will be described using FIG.

図8は、図1におけるカメラ制御部114が実行するAF制御処理を示すフローチャートである。本処理は、カメラ制御部114内のROM上に格納されたコンピュータプログラムに従って実行される。たとえば、1フィールド画像(以下、1フレーム、1画面ともいう)を生成するための撮像素子107からの撮像信号の読み出し周期(垂直同期期間ごと)で実行される。また複数の垂直同期期間(Vレート)ごとに繰り返すようにしてもよい。   FIG. 8 is a flowchart showing the AF control process performed by the camera control unit 114 in FIG. This process is executed according to a computer program stored on the ROM in the camera control unit 114. For example, it is executed at a reading cycle (for each vertical synchronization period) of an imaging signal from the imaging element 107 for generating one field image (hereinafter, also referred to as one frame or one screen). In addition, it may be repeated every plural vertical synchronization periods (V rates).

まず、図8のステップS801ではAF信号処理部110において、AF信号が更新されたかを確認する。その際、AF信号が更新されている場合は次のステップS802にてその結果(デフォーカス量及び信頼度)を取得する。一方で、ステップS801にてAF信号が更新されていない場合にはそのまま処理を終了する。   First, in step S801 in FIG. 8, the AF signal processing unit 110 confirms whether the AF signal has been updated. At this time, when the AF signal is updated, the result (the defocus amount and the reliability) is acquired in the next step S802. On the other hand, when the AF signal is not updated at step S801, the process is ended as it is.

次にステップS803にてズームレンズ101が移動中か否かを判断する。具体的にはカメラ操作部115にて撮影者がズームの操作レバー等を操作した場合、それを検出したカメラ制御部114がズームレンズ駆動部104を制御し、ズームレンズ101を所定の速度で駆動する。よって、カメラ制御部114はズームレンズ101の移動状態を把握している。ステップS803にてズームレンズ101が移動中でない場合にはステップS804のズーム停止時焦点検出領域選択処理に進み、ステップS803にてズームレンズ101が移動中である場合には次のステップS809のズーム時焦点検出領域選択処理に進む。ステップS804、ステップS809の処理は共に今回の制御タイミングにてフォーカスレンズ103を移動させる際の目標位置を決定する際に使用する、焦点調整対象となる焦点検出領域の選択処理であり、詳細は後述する。   Next, in step S803, it is determined whether the zoom lens 101 is moving. Specifically, when the photographer operates the zoom operation lever or the like in the camera operation unit 115, the camera control unit 114 that detects it controls the zoom lens drive unit 104 to drive the zoom lens 101 at a predetermined speed. Do. Thus, the camera control unit 114 recognizes the movement state of the zoom lens 101. When the zoom lens 101 is not moving at step S803, the process proceeds to the focus detection area selection processing at zoom stop at step S804, and when the zoom lens 101 is moving at step S803, the zoom is performed at next step S809. The process proceeds to focus detection area selection processing. The processes in steps S804 and S809 are both processes for selecting a focus detection area to be subjected to focus adjustment, which is used when determining the target position when moving the focus lens 103 at the current control timing, and the details will be described later. Do.

ステップS803にてズームレンズ101が移動中でない場合、ステップS804の後はステップS805に進む。ステップS805はズーム停止時目標位置選択処理で、フォーカスレンズ103を移動させる際の目標位置を選択する処理であり、詳細は後述する。次にステップS806にて合焦であるか否かを判断する。具体的にはステップS804、ステップS805の結果として、選択された焦点検出領域におけるデフォーカス量が所定の範囲に入っているか否かを判断する。本実施例中では所定の範囲として焦点深度F・δ(F:F値、δ:許容錯乱円径)を基準として±1・F・δの範囲内に入っているか否かで合焦状態を判別する。ステップS806にて合焦と判断される場合にはステップS807に進み、ステップS804で選択された焦点検出領域情報(合焦枠情報)を記憶する。一方で、ステップS806で合焦と判断されない場合にはステップS808に進み過去に選択された焦点検出領域情報(合焦枠情報)をクリアする。その後、ステップS812に進み、カメラ制御部114はフォーカスレンズ駆動部106を制御し、選択・決定された目標位置に対してフォーカスレンズ103を移動させる。   If the zoom lens 101 is not moving at step S803, the process proceeds to step S805 after step S804. Step S805 is processing for selecting a target position at the time of zoom stop, which is processing for selecting a target position when moving the focus lens 103, and the details will be described later. Next, in step S806, it is determined whether the in-focus state is achieved. Specifically, as a result of steps S804 and S805, it is determined whether the defocus amount in the selected focus detection area is within a predetermined range. In this embodiment, the focusing state is determined based on whether or not it falls within a range of ± 1 · F · δ with reference to the depth of focus F · δ (F: F value, δ: allowable confusion circle diameter) as a predetermined range. Determine. If it is determined in step S806 that the image is in focus, the process proceeds to step S807, and the focus detection area information (focusing frame information) selected in step S804 is stored. On the other hand, if it is not determined in step S806 that the image is in focus, the process proceeds to step S808 to clear focus detection area information (focusing frame information) selected in the past. Thereafter, in step S812, the camera control unit 114 controls the focus lens drive unit 106 to move the focus lens 103 with respect to the selected and determined target position.

ステップS803にてズームレンズ101が移動中である場合、ステップS809の後はステップS810に進む。ステップS810はズーム時目標位置選択処理で、フォーカスレンズ103を移動させる際の目標位置を選択する処理であり、詳細は後述する。   If the zoom lens 101 is moving at step S803, the process proceeds to step S810 after step S809. Step S810 is processing for selecting a zoom target position, which is processing for selecting a target position when moving the focus lens 103, the details of which will be described later.

ステップS811ではステップS810で選択された目標距離に基づいて、次の制御タイミングにおけるフォーカスレンズ位置を予測する。具体的には、図7の各被写体距離におけるカム軌跡が示すように、ある被写体距離にて合焦状態を維持するためには焦点距離の変化に合わせて合う被写体距離のカム軌跡をトレースするようにフォーカスレンズを制御する必要がある。そのため、ステップS811ではステップS810で選択された目標位置にピントがあった状態を維持するため、次の制御タイミング時点でどの位置にフォーカスレンズを制御すべきかをカム軌跡に基づいて決定する。なお本実施例では垂直同期期間ごとにAF制御処理が実行されることを前提とするため、その時間に合う分だけ進んだズームレンズ101の焦点距離を算出し、それに基づいてフォーカスレンズ位置をカム軌跡より特定する。また、本実施例中のカム軌跡情報はカメラ制御部114内のROMに格納されており、ROM上に保持していない被写体距離のカム軌跡については隣接するカム軌跡より補間により求めるものとする。   In step S811, the focus lens position at the next control timing is predicted based on the target distance selected in step S810. Specifically, as shown by the cam locus at each object distance in FIG. 7, in order to maintain the in-focus state at a certain object distance, the cam locus of the object distance matching the change of the focal distance is traced It is necessary to control the focus lens. Therefore, in step S811, in order to maintain a state in which the target position selected in step S810 is in focus, it is determined based on the cam locus at which position the focus lens should be controlled at the next control timing. In the present embodiment, it is assumed that the AF control process is executed every vertical synchronization period, so the focal length of the zoom lens 101 advanced by an amount suitable for that time is calculated, and based on that, the focus lens position is calculated from the cam locus. Identify. Further, the cam locus information in this embodiment is stored in the ROM in the camera control unit 114, and the cam locus of the object distance not held on the ROM is obtained by interpolation from the adjacent cam locus.

次にステップS812にてカメラ制御部114はフォーカスレンズ駆動部106を制御し、選択・決定された目標位置に対してフォーカスレンズ103を移動させる。   Next, in step S812, the camera control unit 114 controls the focus lens drive unit 106 to move the focus lens 103 to the selected and determined target position.

<ズーム停止時の焦点検出領域の選択処理>
次に先の図8のステップS804で示したズーム停止時焦点検出領域選択処理について図12(A)を用いて説明する。
<Selection process of focus detection area at zoom stop>
Next, the zoom stop time focus detection area selection process shown in step S804 in FIG. 8 described above will be described using FIG.

図12(A)は、図1におけるカメラ制御部114が実行するズーム停止時焦点検出領域選択処理を示すフローチャートである。先に示したAF制御処理と同様にカメラ制御部114内のROM上に格納されたコンピュータプログラムに従って実行させる。   FIG. 12A is a flowchart illustrating the zoom stop time focus detection area selection process performed by the camera control unit 114 in FIG. As in the case of the AF control process described above, the computer program is executed according to a computer program stored on the ROM in the camera control unit 114.

まず図12(A)のステップS1201aでは事前準備として選択枠情報を初期化する。本実施例のズーム停止時焦点検出領域選択処理では焦点検出領域のブロックの中から後述するズーム停止時目標位置選択処理にて使用するデフォーカス量、信頼度を決定するための焦点検出領域を選択する。その際、ステップS1201aでは条件に合う焦点検出領域を選ぶ過程で使用する一時的な記憶領域を初期化する。なお、この時点での初期の選択枠情報は3×3枠の中央枠として設定されるものとする。   First, in step S1201a of FIG. 12A, selection frame information is initialized as preparation in advance. In the zoom stop focus detection area selection process of this embodiment, the focus detection area for determining the defocus amount and the reliability to be used in the zoom stop target position selection process described later is selected from the blocks of the focus detection area. Do. At this time, in step S1201a, a temporary storage area used in the process of selecting a focus detection area that meets the conditions is initialized. The initial selection frame information at this point of time is set as a 3 × 3 center frame.

次にステップS1202aでは以後の処理で評価する焦点検出領域を決定する。なお本実施例では図11a,bで示した焦点検出領域のブロックを構成する各焦点検出領域に関して、(1)〜(9)の順で評価対象枠として処理されるものとする。   Next, in step S1202a, a focus detection area to be evaluated in the subsequent processing is determined. In this embodiment, each focus detection area constituting the block of the focus detection area shown in FIGS. 11a and 11b is processed as an evaluation object frame in the order of (1) to (9).

次にステップS1203aでは焦点検出領域のブロックを構成する全ての焦点検出領域の評価が完了したか否かを判断する。ステップS1203aにて、全ての焦点検出領域の評価が完了している場合はそのまま処理を終了する。一方で、全ての焦点検出領域の評価が完了していない場合には次のステップS1204aに進む。   Next, in step S1203a, it is determined whether the evaluation of all the focus detection areas constituting the block of the focus detection area has been completed. If the evaluation of all the focus detection areas is completed in step S1203a, the process ends. On the other hand, if the evaluation of all the focus detection areas has not been completed, the process proceeds to the next step S1204a.

ステップS1204aでは、評価対象としている焦点検出領域より生成される信頼度を判断する。本実施例中ではステップS1203aにて信頼度が4よりも大きい場合は次のステップS1204aに進み、小さい場合はステップS1202aに戻り次の評価対象焦点検出領域の処理に移る。   In step S1204a, the degree of reliability generated from the focus detection area to be evaluated is determined. In the present embodiment, if the reliability is higher than 4 in step S1203a, the process proceeds to the next step S1204a, and if smaller, the process returns to step S1202a to process the next focus detection area for evaluation.

ステップS1205aでは評価対象枠が現在の選択枠の信頼度よりも高いか否かを判断する。ステップS1205aにて評価対象枠が現在の選択枠の信頼度よりも高い場合は次のステップS1206aに進み、低い場合はステップS1202aに戻り次の評価対象焦点検出領域の処理に移る。   In step S1205a, it is determined whether the evaluation object frame is higher than the reliability of the current selection frame. If it is determined in step S1205a that the evaluation object frame is higher than the reliability of the current selection frame, the process proceeds to step S1206a. If the evaluation object frame is lower, the process returns to step S1202a to process the next evaluation object focus detection area.

ステップS1206aでは評価対象枠のデフォーカス量及び現在のフォーカスレンズ位置に基づき算出した検出位置と現在の選択枠の検出位置とを比較し、評価対象枠の検出位置が現在の選択枠の検出位置よりも近いか否かを判断する。ステップS1206aにて評価対象枠の検出位置がより近側の場合は次のステップS1207aに進み、近側でない場合はステップS1202aに戻り次の評価対象焦点検出領域の処理に移る。   In step S1206a, the detection position calculated based on the defocus amount of the evaluation target frame and the current focus lens position is compared with the detection position of the current selection frame, and the detection position of the evaluation target frame is from the current detection position of the selection frame. Determine if it is also close. If it is determined in step S1206a that the detection position of the evaluation target frame is closer, the process proceeds to step S1207a. If not, the process returns to step S1202a to process the next focus detection area for evaluation.

ステップS1207aではステップS1202aからステップS1206aの処理を実施することで、それまでに評価した焦点検出領域の中でより信頼度が高く、最至近の結果を示す焦点検出領域を選び出し記憶する。その後、S1202aに戻り次の評価対象焦点検出領域の処理に移る。   In step S1207a, the processing from step S1202a to step S1206a is performed to select and store the focus detection area having the higher reliability and the closest result among the focus detection areas evaluated up to that point. After that, the process returns to step S1202a and proceeds to the processing of the next focus detection area to be evaluated.

このようにズーム停止時焦点検出領域選択処理では焦点検出領域のブロックを構成する各焦点検出領域から、より信頼度が高く、より近側の結果を示す焦点検出領域を選び出す。   As described above, in the zoom stop time focal point detection area selection process, the focal point detection areas having higher reliability and indicating the near side result are selected from the respective focal point detection areas constituting the blocks of the focal point detection area.

<ズーム停止時の目標位置の選択処理>
次に先の図8のステップS805で示したズーム停止時目標位置選択処理について図9(A)、図10(A)を用いて説明する。
<Selection process of target position at zoom stop>
Next, the zoom-stop target position selection process shown in step S805 in FIG. 8 will be described with reference to FIGS. 9 (A) and 10 (A).

図9(A)は、図1におけるカメラ制御部114が実行するズーム停止時目標位置選択処理を示すフローチャートである。先に示したAF制御処理と同様にカメラ制御部114内のROM上に格納されたコンピュータプログラムに従って実行される。   FIG. 9A is a flowchart showing a zoom stop target position selection process performed by the camera control unit 114 in FIG. Similar to the AF control process described above, the process is executed according to a computer program stored on the ROM in the camera control unit 114.

まず図9(A)のステップS901aでは図8のステップS804で選択された焦点検出領域の信頼度に基づき、取得した信頼度が「1」か否かを判断する。ステップS901aで信頼度が「1」である場合にはステップS906aに進み、信頼度が「1」でない場合にはステップS902aに進む。   First, in step S901a of FIG. 9A, it is determined whether the acquired reliability is “1” based on the reliability of the focus detection area selected in step S804 of FIG. If the degree of reliability is "1" at step S901a, the process proceeds to step S906a. If the degree of reliability is not "1", the process proceeds to step S902a.

信頼度が「1」である場合はすなわち、先に示した通り検出されているデフォーカス量の精度が高く、デフォーカス量より算出した目標位置にフォーカスレンズを制御することで合焦できる場合である。よってステップS906aでは検出されているデフォーカス量及び現在のフォーカスレンズ位置に基づき算出したフォーカスレンズ位置(検出位置)を目標位置として設定する。このように、検出位置に直接フォーカスレンズ103を駆動する動かし方を本実施例ではターゲット駆動と呼ぶ。   In the case where the reliability is “1”, that is, the accuracy of the defocus amount detected as described above is high, and focusing can be performed by controlling the focus lens to the target position calculated from the defocus amount. is there. Therefore, in step S906a, the focus lens position (detection position) calculated based on the detected defocus amount and the current focus lens position is set as the target position. Thus, how to move the focus lens 103 directly to the detection position is referred to as target drive in this embodiment.

その後、ステップS910aでサーチフラグをOFFとして処理を終了する。本実施例では後述する目標位置をフォーカスレンズ103の可動域の無限端もしくは至近端に設定し、フォーカスレンズ103を大きく動かしながら合焦位置を特定する動きをサーチ駆動と呼び、その実行状態を示すフラグをサーチフラグと呼ぶ。   Thereafter, in step S910a, the search flag is set to OFF, and the process ends. In this embodiment, a target position to be described later is set at the infinite end or the near end of the movable range of the focus lens 103, and the movement for specifying the in-focus position while moving the focus lens 103 is called search drive. The indicated flag is called a search flag.

次にステップS902aでは取得した信頼度が「2」か否かを判断する。ステップS902aで信頼度が「2」である場合にはステップS907aに進み、信頼度が「2」でない場合にはステップS903aに進む。   Next, in step S 902 a, it is determined whether the acquired reliability is “2”. If the degree of reliability is "2" in step S902a, the process proceeds to step S907a. If the degree of reliability is not "2", the process proceeds to step S903a.

信頼度が「2」である場合はすなわち、先に示した通り検出されているデフォーカス量の精度が一定の誤差を含んでいる状態を指す。そのため、ステップS907aでは検出されているデフォーカス量及び現在のフォーカスレンズ位置に基づき算出した検出位置に対して係数γをかけた掛けたものを目標位置とし設定する。なお係数γは1未満の数値であり、本実施例で想定するγは0.8とする。よって、ステップS907aは検出位置の80%の位置を目標位置として設定している。このように、検出位置に行き足りないようにフォーカスレンズ103を駆動する動かし方を本実施例ではデフォーカス駆動と呼ぶ。   When the reliability is "2", it means that the accuracy of the defocus amount detected as described above includes a constant error. Therefore, in step S 907 a, the target position is set by multiplying the detected position calculated based on the detected defocus amount and the current focus lens position by the coefficient γ. The coefficient γ is a numerical value less than 1, and γ assumed in this embodiment is 0.8. Therefore, step S 907 a sets the position of 80% of the detected position as the target position. Thus, how to move the focus lens 103 so as to be insufficient at the detection position is called defocus drive in this embodiment.

その後、ステップS910aでサーチフラグをOFFとして処理を終了する。   Thereafter, in step S910a, the search flag is set to OFF, and the process ends.

次にステップS903aでは取得した信頼度が「3」か否かを判断する。ステップS903aで信頼度が「3」である場合にはステップS908aに進み、信頼度が「3」でない場合にはステップS904aに進む。   Next, in step S903a, it is determined whether the acquired reliability is "3". If the degree of reliability is "3" in step S903a, the process proceeds to step S908a. If the degree of reliability is not "3", the process proceeds to step S904a.

信頼度が「3」である場合はすなわち、先に示した通り検出されているデフォーカス量そのものの精度は低いもののデフォーカス方向は信頼できる状態を指す。そのため、ステップS908aでは検出されているデフォーカス方向の端を目標位置として設定しサーチ駆動を実施する。そして、次のステップS911aにてサーチフラグをONに設定し処理を終了する。   In the case where the reliability is "3", that is, although the accuracy of the defocus amount itself detected as described above is low, the defocus direction indicates a reliable state. Therefore, in step S908a, the end of the detected defocus direction is set as the target position, and search drive is performed. Then, in the next step S911a, the search flag is set to ON, and the process ends.

ステップS904aではサーチフラグがOFFか否かを判断する。ステップS904aにてサーチフラグがOFFの場合には次のステップS909aに進み、サーチフラグがONの場合にはステップS905aに進む。   In step S904a, it is determined whether the search flag is OFF. If the search flag is OFF in step S904a, the process advances to step S909a. If the search flag is ON, the process advances to step S905a.

ステップS903aにて信頼度が「3」でない場合はすなわち、信頼度が「4」の場合であり、デフォーカス量、およびデフォーカス方向も信頼できない場合を指す。この場合、AF信号処理部110より得られる情報のみでは合焦位置を特定することは困難である。そのため、ステップS909aでは現在のフォーカスレンズ位置とフォーカスレンズ103の無限側の端、至近側の端の位置関係に基づき、駆動範囲の広い側の端を目標位置として設定し、サーチ駆動を実施する。   The case where the reliability is not "3" in step S903a means that the reliability is "4", and the defocus amount and the defocus direction can not be relied upon. In this case, it is difficult to specify the in-focus position only with the information obtained from the AF signal processing unit 110. Therefore, in step S909a, the end on the wide side of the drive range is set as the target position based on the positional relationship between the current focus lens position and the infinity end and the close end of the focus lens 103, and search drive is performed.

そして、次のステップS911aにてサーチフラグをONに設定し処理を終了する。   Then, in the next step S911a, the search flag is set to ON, and the process ends.

ステップS905aではフォーカスレンズ103が無限端、至近端のいずれかに到達したか否かを判断する。ステップS905aにていずれかの端に到達した場合はステップS909aに進み、再度目標位置を設定し直す。先の説明の通り、駆動範囲の広い側の端を目標位置として設定するため、端に到達している場合は逆側の端に目標位置を設定することになる。一方で、ステップS905aにて端に到達していない場合には、そのまま処理を終了し、サーチ駆動を継続する。   In step S905a, it is determined whether the focus lens 103 has reached either the infinite end or the near end. If one of the ends is reached in step S905a, the process advances to step S909a to reset the target position again. As described above, in order to set the end on the wide side of the drive range as the target position, when the end is reached, the target position is set on the opposite end. On the other hand, if the end has not been reached in step S 905 a, the process ends and the search drive is continued.

このように、本実施例におけるズーム停止時目標位置選択処理では、図10(A)の表に示す通りデフォーカス量の信頼度が高い場合はデフォーカス量に基づいた目標位置を設定する。そして、信頼度が低い場合は目標位置をフォーカスレンズ103の可動範囲の端に設定する。そのため、AF全体の動きとしては、信頼度が低いほど大きなピント変動を伴って合焦位置を特定する動きとなる。   As described above, in the zoom-stop target position selection process in the present embodiment, as shown in the table of FIG. 10A, when the reliability of the defocus amount is high, the target position is set based on the defocus amount. Then, if the degree of reliability is low, the target position is set at the end of the movable range of the focus lens 103. Therefore, as the movement of the entire AF, as the reliability is lower, the movement is performed to specify the in-focus position with a large change in focus.

<ズーム時の焦点検出領域の選択処理>
次に先の図8のステップS809で示したズーム時焦点検出領域選択処理について図12(B)を用いて説明する。
<Selection process of focus detection area at zoom>
Next, the zoom focus detection area selection process shown in step S809 in FIG. 8 will be described with reference to FIG.

図12(B)は、図1におけるカメラ制御部114が実行するズーム時焦点検出領域選択処理を示すフローチャートである。先に示したAF制御処理と同様にカメラ制御部114内のROM上に格納されたコンピュータプログラムに従って実行させる。   FIG. 12B is a flowchart showing a zoom focus detection area selection process performed by the camera control unit 114 in FIG. As in the case of the AF control process described above, the computer program is executed according to a computer program stored on the ROM in the camera control unit 114.

まず図12(B)のステップS1201bでは初回の実行であるか否かを判断する。ステップS1201bにて初回である場合にはステップ1202bに進み、初回でない場合にはステップS1206bに進む。   First, in step S1201b of FIG. 12B, it is determined whether it is the first execution. If it is the first time in step S1201b, the process proceeds to step 1202b, and if it is not the first time, the process proceeds to step S1206b.

ステップS1202bにて図8のステップS807にて記録した合焦枠が存在するか否かを判断する。ステップS1202bにて合焦枠がある場合には次のステップS1203bに進み、無い場合にはステップS1210bに進む。   In step S1202b, it is determined whether the in-focus frame recorded in step S807 in FIG. 8 exists. If the in-focus frame is present at step S1202b, the process proceeds to the next step S1203b, and if not, the process proceeds to step S1210b.

ステップS1203bでは選択枠を合焦枠と設定する。つまり、ズーム開始前に合焦枠が存在している場合、ズーム時の初期選択枠はズーム開始の直前の合焦枠を使用する。
次にステップS1204bにて選択枠のデフォーカス量及び現在のフォーカスレンズ位置より算出した検出位置と現在の焦点距離を用いて現在の焦点検出結果に基づいた被写体距離を算出する。
In step S1203b, the selection frame is set as the in-focus frame. That is, when the in-focus frame exists before the zoom start, the initial selection frame at the zoom uses the in-focus frame immediately before the zoom start.
Next, in step S 1204 b, using the defocus amount of the selected frame and the detection position calculated from the current focus lens position and the current focal length, the subject distance is calculated based on the current focus detection result.

次にステップS1205bにてステップS1204bで算出した合焦枠の被写体距離を記録し処理を終了する。なお、ステップS1201bからステップS1205bの一連の処理では、ズーム開始前の合焦枠をズーム中の選択枠とし、選択枠の焦点検出結果より算出した被写体距離を選択枠内の被写体出入りの判断基準として記憶する。   Next, in step S1205b, the subject distance of the in-focus frame calculated in step S1204b is recorded, and the process is ended. In the series of processes from step S1201b to step S1205b, the in-focus frame before the start of zooming is set as the selection frame during zooming, and the subject distance calculated from the focus detection result of the selection frame is used as the determination criterion for entering and leaving the object in the selection frame. Remember.

ステップS1202bにて合焦枠がない場合はステップS1210bに進み、選択枠を3×3の焦点検出領域のブロックの中央枠に設定し、処理を終了する。   If there is no in-focus frame in step S1202b, the process advances to step S1210b to set the selection frame in the center frame of the 3 × 3 focus detection area block, and the processing ends.

ステップS1201bにて初回以降の処理である場合にはステップS1206bに進む。   If it is determined in step S1201b that the process is performed after the first process, the process advances to step S1206b.

ステップS1206bにて選択枠が合焦枠である場合(ステップS1203bを経由している場合)には、ステップS1207bに進み、選択枠が合焦枠でない場合はステップS1210bに進む。   If it is determined in step S1206b that the selection frame is the in-focus frame (if step S1203b is performed), the process advances to step S1207b. If the selection frame is not the in-focus frame, the process advances to step S1210b.

ステップS1207bではステップS1204bと同様に現在の選択枠の焦点検出結果に基づいて被写体距離を算出する。   In step S1207b, the subject distance is calculated based on the focus detection result of the current selection frame, as in step S1204b.

次にステップS1208bではステップS1207bで算出した被写体距離と、ズーム開始時にステップS1205bで記憶した被写体距離を比較し、所定の距離変化が生じているか否かを判断する。なお、本実施例における所定の距離変化とは、現在の焦点距離における焦点深度F・δ(F:F値、δ:許容錯乱円径)を基準として±3・F・δ相当の被写体距離変化を指す。S1208bにて追従する被写体距離の変化を検出した場合はステップS1209bに進み、被写体距離の変化を検出していない場合はS1211bに進む。   In step S1208b, the subject distance calculated in step S1207b is compared with the subject distance stored in step S1205b at the start of zooming to determine whether a predetermined distance change has occurred. Note that the predetermined distance change in the present embodiment means a subject distance change equivalent to ± 3 · F · δ with reference to the focal depth F · δ (F: F value, δ: permissible circle of confusion diameter) at the current focal length. Point to If a change in the subject distance to follow is detected in S1208b, the process proceeds to step S1209b, and if a change in the subject distance is not detected, the process proceeds to S1211b.

被写体距離の変化を検出した場合にステップS1209bでは図8のステップS808と同様に合焦枠のクリアを実施し、選択枠の切り替えのためステップS1210bに進む。   When a change in the subject distance is detected, in step S1209b, the in-focus frame is cleared as in step S808 in FIG. 8, and the process proceeds to step S1210b to switch the selection frame.

ステップS1210bでは選択枠を3×3の焦点検出領域のブロックの中央枠に設定し、処理を終了する。   In step S1210b, the selection frame is set to the center frame of the block of the 3 × 3 focus detection area, and the process ends.

ステップS1208bにて追従する被写体距離の変化を検出していない場合にはステップS1211bに進み、ステップS1211bでは現在の焦点距離における合焦可能範囲内に追従する被写体距離が入っているか否かを判断する。本実施例では、焦点距離が広角側と望遠側で合焦可能範囲(合焦できる距離範囲)が変化するような光学系の構成を想定している。このような構成の場合、例えばズーム動作を始めた際に合焦していた被写体距離が、ズームの過程で、その時点での焦点距離での合焦可能範囲から外れる場合が想定される。このようなケースを想定し、ステップS1211bにて追従する被写体距離が合焦可能範囲内にあるか否かを判断し、範囲内の場合にはそのまま処理を終了し、範囲外の場合にはステップS1209bに進む。ステップS1209b以降の処理については先の説明と同様である。   If the change in subject distance to follow in step S1208b is not detected, the process advances to step S1211b, and it is determined in step S1211b whether the subject distance to follow in the focusable range at the current focal distance is included. . In this embodiment, it is assumed that the optical system is configured such that the focusable range (focusable distance range) changes between the wide angle side and the telephoto side. In the case of such a configuration, for example, it is assumed that the subject distance focused when starting the zoom operation is out of the focusable range at the focal distance at that point in the process of zooming. Assuming such a case, it is determined in step S1211b whether or not the subject distance to be followed is within the focusable range, and if it is within the range, the processing is ended as it is, and if it is out of the range, the step is Go to S1209 b. The processes after step S1209b are the same as those described above.

このように、本実施例におけるズーム時焦点検出領域選択処理により、ズーム中の多くの場合に焦点検出領域のブロックの中央枠を選択枠として使用する。これにより、ズーム中のピント制御に対して各焦点検出領域内の被写体の出入りの影響が反映されることを抑えることが可能である。加えて、ズーム停止時に焦点検出領域のブロックのいずれかの焦点検出領域で合焦していた場合には、その焦点検出領域を引き継いでズーム中の焦点検出領域が選択される。これにより、ズーム開始直後にピントが大きく変化することを抑えることが可能である。さらに、合焦枠を選択枠として引き継いだ場合、ズーム中に使用する選択枠の焦点検出結果に基づき算出された被写体距離の変化を監視することで、選択枠内の被写体の変化を検出することが可能となる。これによりズーム開始時の選択枠内の被写体がズームにより焦点検出領域外に移動したことを検出した場合には焦点検出領域のブロックの中央枠を選択枠に切り替えられる。このため、撮影者が指定した焦点検出領域のブロックの位置を反映した形でズーム中のピント制御を継続することが可能である。   As described above, in the zoom-time focus detection area selection process in this embodiment, the center frame of the block of the focus detection area is used as the selection frame in many cases during zooming. Thus, it is possible to suppress the influence of the in / out of the subject in each focus detection area on the focus control during zooming. In addition, when focusing is performed in any focus detection area of the block of the focus detection area when the zoom is stopped, the focus detection area during zooming is selected taking over the focus detection area. This makes it possible to suppress a large change in focus immediately after the start of zooming. Furthermore, when the in-focus frame is taken over as the selection frame, the change in the subject distance calculated based on the focus detection result of the selection frame used during zooming is monitored to detect the change of the subject in the selection frame. Is possible. Thus, when it is detected that the subject in the selection frame at the start of zooming has moved out of the focus detection area by zooming, the central frame of the block in the focus detection area is switched to the selection frame. For this reason, it is possible to continue the focus control during zooming in a manner that reflects the position of the block in the focus detection area designated by the photographer.

<ズーム時の目標位置の選択処理>
次に先の図8のステップS808で示したズーム時目標位置選択処理について図9(B)、図10(B)(C)を用いて説明する。
<Selection process of target position at zoom>
Next, the zoom target position selection process shown in step S 808 in FIG. 8 will be described with reference to FIGS. 9B and 10C.

図9(B)は、図1におけるカメラ制御部114が実行するズーム時目標位置選択処理を示すフローチャートである。先に示したAF制御処理と同様にカメラ制御部114内のROM上に格納されたコンピュータプログラムに従って実行される。   FIG. 9B is a flowchart showing a zoom target position selection process performed by the camera control unit 114 in FIG. Similar to the AF control process described above, the process is executed according to a computer program stored on the ROM in the camera control unit 114.

まず図9(B)のステップS901bでは図8のステップS809で選択された焦点検出領域の信頼度に基づき、取得した信頼度が「1」か否かを判断する。ステップS901bで信頼度が「1」である場合にはステップS904bに進み、信頼度が「1」でない場合にはステップS902bに進む。   First, in step S 901 b of FIG. 9B, it is determined whether the acquired reliability is “1” based on the reliability of the focus detection area selected in step S 809 of FIG. 8. If the degree of reliability is “1” in step S901 b, the process proceeds to step S904 b. If the degree of reliability is not “1”, the process proceeds to step S902 b.

信頼度が「1」である場合はすなわち、先に示した通り検出されているデフォーカス量の精度が高く、デフォーカス量より算出した目標位置にフォーカスレンズを制御することで合焦できる場合である。よってステップS904bでは検出されているデフォーカス量及び現在のフォーカスレンズ位置に基づき算出したフォーカスレンズ位置(検出位置)を目標位置として設定する。   In the case where the reliability is “1”, that is, the accuracy of the defocus amount detected as described above is high, and focusing can be performed by controlling the focus lens to the target position calculated from the defocus amount. is there. Therefore, in step S904b, the focus lens position (detection position) calculated based on the detected defocus amount and the current focus lens position is set as the target position.

次にステップS902bでは取得した信頼度が「2」か否かを判断する。ステップS902bで信頼度が「2」である場合にはステップS905bに進み、信頼度が「2」でない場合にはステップS903bに進む。   Next, in step S902b, it is determined whether the acquired reliability is "2". If the degree of reliability is "2" in step S902b, the process proceeds to step S905b. If the degree of reliability is not "2", the process proceeds to step S903b.

信頼度が「2」である場合はすなわち、先に示した通り検出されているデフォーカス量の精度が一定の誤差を含んでいる状態を指す。そのため、ステップS905bでは検出されているデフォーカス量及び現在のフォーカスレンズ位置に基づき算出した検出位置に対して係数αをかけた掛けたものを目標位置とし設定する。なお係数αは1未満の数値であり、本実施例で想定するαは0.8とする。よって、ステップS905bは検出位置の80%の位置を目標位置として設定している。   When the reliability is "2", it means that the accuracy of the defocus amount detected as described above includes a constant error. Therefore, in step S905b, the target position is set by multiplying the detected position calculated based on the detected defocus amount and the current focus lens position by the coefficient α. The coefficient α is a numerical value less than 1 and α assumed in this embodiment is 0.8. Therefore, step S 905 b sets the position of 80% of the detected position as the target position.

次にステップS903bでは取得した信頼度が「3」か否かを判断する。ステップS903bで信頼度が「3」である場合にはステップS906bに進み、信頼度が「3」でない場合にはステップS907bに進む。   Next, in step S 903 b, it is determined whether the acquired reliability is “3”. If the degree of reliability is "3" in step S903b, the process proceeds to step S906b, and if the degree of reliability is not "3", the process proceeds to step S907b.

信頼度が「3」である場合はすなわち、先に示した通り検出されているデフォーカス量そのものの精度は低いもののデフォーカス方向は信頼できる状態を指す。そのため、ステップS906bではデフォーカス方向と現在のフォーカスレンズ位置に基づき、現在位置に対してデフォーカス方向にシフト量β分だけずらした位置を目標位置として設定する。なお本実施例で想定するβは焦点深度F・δ(F:F値、δ:許容錯乱円径)を基準に1・F・δ程度と設定する。   In the case where the reliability is "3", that is, although the accuracy of the defocus amount itself detected as described above is low, the defocus direction indicates a reliable state. Therefore, in step S906b, based on the defocus direction and the current focus lens position, a position shifted from the current position by the shift amount β in the defocus direction is set as the target position. Note that β assumed in the present embodiment is set to about 1 · F · δ based on the focal depth F · δ (F: F value, δ: diameter of permissible circle of confusion).

次にS903bにて信頼度が「3」でない場合、すなわち、信頼度が「4」の場合にはステップS907bに進み、目標位置を現在のフォーカスレンズ位置に設定する。   If it is determined in step S903b that the reliability is not "3", that is, if the reliability is "4", the process advances to step S907b to set the target position to the current focus lens position.

ステップS904b、S905b、S906b、S907bを経由し、目標位置を選択後はステップS908bに進む。   After the target position is selected via steps S904b, S905b, S906b, and S907b, the process proceeds to step S908b.

ステップS908bでは先のステップS903bからステップS907bで決定された目標位置と現在のフォーカスレンズ位置より、実際のレンズ駆動量(図中の実駆動量)を算出し、実駆動量がN.F・δよりも大きいか否かを判断する。ステップS908bにて実駆動量がN.F・δよりも大きい場合にはステップS909bに進み、実駆動量がN.F・δ以下の場合にはそのまま処理を終了する。   In step S908b, an actual lens drive amount (actual drive amount in the figure) is calculated from the target position determined in steps S903b to S907b described above and the current focus lens position. It is determined whether it is larger than F · δ. In step S 908 b, the actual driving amount is N. If larger than F · δ, the process proceeds to step S 909 b and the actual driving amount is N.V. In the case of F · δ or less, the processing ends.

ステップS909bでは実駆動量がN.F・δを越えないように目標位置を現在位置+N.F・δに変更する。このようにステップS908b、ステップS909bにより、デフォーカス量の信頼度によらず、所定のレンズ駆動量(N.F・δ)よりも大きいピント変化が生じる場合には所定のレンズ駆動量におさまるように目標位置を補正する。ここで所定のレンズ駆動量N.F・δに関して、本実施例における係数Nは5と設定し、5・F・δすなわち5深度程度以上のピント変動が生じる可能性がある場合には目標位置を補正しピント変動を抑制する。   In step S909 b, the actual drive amount is N.V. The target position is set to the current position + N.N so as not to exceed F · δ. Change to F · δ. As described above, when a focus change larger than the predetermined lens drive amount (N · F · δ) occurs regardless of the reliability of the defocus amount by the steps S908 b and S 909 b, the predetermined lens drive amount is settled. Correct the target position. Here, a predetermined lens driving amount N.V. With respect to F · δ, the coefficient N in this embodiment is set to 5, and if there is a possibility that 5 · F · δ, ie, a focus change of about 5 depths or more may occur, the target position is corrected to suppress the focus change.

このように、本実施例におけるズーム時目標位置選択処理では、図10(B)の表に示す通りデフォーカス量の信頼度が高い場合はデフォーカス量に基づいた目標位置を設定し、信頼度が低い場合は目標位置を現在のレンズ位置に基づいて設定する。図10(C)はズーム時目標位置選択処理により目標位置が選択され、一連のAF制御処理が実施され場合の現在時刻t1と次の制御タイミングt2におけるフォーカスレンズ103の位置関係を示している。   As described above, in the zoom target position selection process in the present embodiment, as shown in the table of FIG. 10B, when the reliability of the defocus amount is high, the target position is set based on the defocus amount, and the reliability If is low, the target position is set based on the current lens position. FIG. 10C shows the positional relationship between the current time t1 and the next control timing t2 when the target position is selected by the zoom target position selection process and a series of AF control processes are performed.

時刻t1における●が現在のレンズ位置を示しており距離Aに合う。図10(B)の信頼度1〜4の場合における目標位置が図10(C)の時刻t1における(1)〜(4)に対応する。すなわち、信頼度「1」の場合は距離B、信頼度「2」の場合は距離C、信頼度「3」の場合は距離D、信頼度「4」の場合は現在位置と同じ距離Aである。また、図9(B)のステップS908b、ステップS909bで示したように、目標位置が所定のレンズ駆動量(N.F・δ)よりも大きい場合は時刻t1における(5)で距離Eに合う。この場合はズーム停止時目標位置選択処理により(6)の距離Fに補正される。   ● at time t1 indicates the current lens position, which matches the distance A. The target position in the case of the reliability levels 1 to 4 of FIG. 10B corresponds to (1) to (4) at time t1 of FIG. That is, in the case of the reliability "1", the distance B, in the case of the reliability "2", the distance C, in the case of the reliability "3", the distance D, and in the case of the reliability "4", the same distance A as the current position. is there. Further, as shown in step S 908 b and step S 909 b in FIG. 9B, when the target position is larger than the predetermined lens driving amount (N · F · δ), the distance E is satisfied at (5) at time t1. . In this case, the zoom stop target position selection process is corrected to the distance F of (6).

ズーム時目標位置選択処理により、デフォーカス量の信頼度に応じて現在時刻t1時点での目標位置(1)〜(4)及び(6)が選択・決定される。そして、図8のステップS810にて次の制御タイミングの時刻t2における各レンズ位置をカム軌跡より算出し、ステップS811では時刻t2での目標位置に向かってフォーカスレンズを駆動させる。   In the zoom target position selection process, target positions (1) to (4) and (6) at the current time t1 are selected and determined in accordance with the reliability of the defocus amount. Then, in step S810 in FIG. 8, each lens position at time t2 of the next control timing is calculated from the cam locus, and in step S811 the focus lens is driven toward the target position at time t2.

本実施例によれば、ズーム動作中はズーム動作をしていない場合とは異なる焦点検出領域の選択ルールに基づいて追従する焦点検出領域を選択し、その焦点検出結果に基づいてフォーカスレンズを制御することで安定したピント追従が可能になる。   According to this embodiment, during the zoom operation, the focus detection area to be followed is selected based on the selection rule of the focus detection area different from the case where the zoom operation is not performed, and the focus lens is controlled based on the focus detection result. This enables stable focus tracking.

(その他の実施形態)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

また、上述した各実施形態においては、本発明をデジタルカメラに適用した場合を例にして説明したが、これはこの例に限定されない。すなわち、本発明は、撮像素子が付随したあらゆるデバイスに適用してもよい。すなわち携帯電話端末や携帯型の画像ビューワ、カメラを備えるテレビ、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなど、画像を撮像可能な装置であれば、本発明は適用可能である。   Moreover, in each embodiment mentioned above, although the case where this invention was applied to a digital camera was made into an example and demonstrated, this is not limited to this example. That is, the present invention may be applied to any device associated with an imaging device. That is, the present invention is applicable to any device capable of capturing an image, such as a mobile phone terminal, a portable image viewer, a television equipped with a camera, a digital photo frame, a music player, a game machine, and an electronic book reader.

また、上述の実施例では、レンズ鏡筒と撮像装置が一体となったレンズ鏡筒括りつけの撮像装置を説明したが、レンズ交換式の撮像装置であってもよい。レンズ交換式の撮像装置は、交換可能なレンズユニット(レンズ鏡筒)とカメラ本体(撮像装置)とを備えて構成される。レンズユニット全体の動作を統括制御するレンズ制御部と、レンズユニットを含めたカメラシステム全体の動作を統括するカメラ制御部とは、レンズマウントに設けられた端子を通じて相互に通信可能な構成とする。   Further, in the above-described embodiment, the imaging apparatus in which the lens barrel and the imaging apparatus are integrated is described. However, the imaging apparatus may be an interchangeable lens type. The interchangeable lens type imaging device is configured to include an interchangeable lens unit (lens barrel) and a camera body (imaging device). A lens control unit that generally controls the operation of the entire lens unit and a camera control unit that generally controls the operation of the camera system including the lens unit are configured to be able to communicate with each other through terminals provided on the lens mount.

100 撮像装置
101 ズームレンズ
103 フォーカスレンズ
104 ズームレンズ駆動部
106 フォーカスレンズ駆動部
107 撮像素子
110 AF信号処理部
111 表示部
112 記録部
114 カメラ制御部
115 カメラ操作部
DESCRIPTION OF SYMBOLS 100 Imaging device 101 Zoom lens 103 Focus lens 104 Zoom lens drive part 106 Focus lens drive part 107 Image sensor 110 AF signal processing part 111 Display part 112 Recording part 114 Camera control part 115 Camera operation part

Claims (9)

ズームレンズの移動により焦点距離が変更可能な撮像装置であって、
複数の焦点検出領域を設定する設定手段と、
前記複数の焦点検出領域の焦点検出結果に基づいて焦点調整対象とする焦点検出領域を選択する第1の領域選択処理と、前記複数の焦点検出領域のうち、特定の条件に合う焦点検出領域から焦点調整対象とする焦点検出領域を選択する第2の領域選択処理とを行う選択手段と、を備え、
前記選択手段は、前記ズームレンズが移動中でない場合には前記第1の領域選択処理を行い、前記ズームレンズが移動中である場合には前記第2の領域選択処理を行うことを特徴とする撮像装置。
An imaging apparatus capable of changing a focal length by movement of a zoom lens,
Setting means for setting a plurality of focus detection areas;
A first area selection process for selecting a focus detection area to be adjusted based on the focus detection results of the plurality of focus detection areas, and a focus detection area that meets a specific condition among the plurality of focus detection areas And selecting means for performing a second area selection process of selecting a focus detection area to be subjected to focus adjustment.
The selection unit performs the first area selection process when the zoom lens is not moving, and performs the second area selection process when the zoom lens is moving. Imaging device.
前記複数の焦点検出領域は、格子状の複数の焦点検出領域により構成されることを特徴とする請求項1に記載の撮像装置。   The image pickup apparatus according to claim 1, wherein the plurality of focus detection areas are configured by a plurality of grid-like focus detection areas. 前記第1の領域選択処理は、最至近の焦点検出結果の焦点検出領域を選択することを特徴とする請求項1又は2に記載の撮像装置。   The image pickup apparatus according to claim 1, wherein the first area selection process selects a focus detection area of a closest focus detection result. 前記第2の領域選択処理における前記特定の条件に合う焦点検出領域とは、前記複数の焦点検出領域の中央に位置する焦点検出領域であり、前記第2の領域選択処理では特定の条件に合う焦点検出領域を選択し続けることを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。   The focus detection area meeting the specific condition in the second area selection process is a focus detection area located at the center of the plurality of focus detection areas, and the specific area is satisfied in the second area selection process. The imaging apparatus according to any one of claims 1 to 3, wherein the focus detection area is continuously selected. 前記ズームレンズが移動を開始する際の前記第2の領域選択処理における前記特定の条件に合う焦点検出領域とは、前記第1の領域選択処理により選択され焦点調整にて合焦できていた焦点検出領域であることを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。   A focus detection area that meets the specific condition in the second area selection process when the zoom lens starts moving is a focus that has been selected by the first area selection process and focused by focus adjustment. The imaging device according to any one of claims 1 to 3, which is a detection area. 被写体距離の変化を検出する検出手段を更に備え、
前記ズームレンズが移動中の前記第2の領域選択処理における前記特定の条件に合う焦点検出領域は、前記ズームレンズが移動を開始する際に選択された焦点検出領域の被写体距離に変化がない場合には、当該選択されていた焦点検出領域であり、前記被写体距離の変化があった場合には、前記複数の焦点検出領域の中央に位置する焦点検出領域であることを特徴とする請求項5に記載の撮像装置。
It further comprises detection means for detecting changes in subject distance,
When there is no change in the subject distance of the focus detection area selected when the zoom lens starts moving, the focus detection area meeting the specific condition in the second area selection process while the zoom lens is moving The focus detection area is the selected focus detection area, and when there is a change in the subject distance, the focus detection area is located at the center of the plurality of focus detection areas. The imaging device according to.
前記ズームレンズが移動を開始する際に前記第1の領域選択処理により選択された焦点検出領域にて合焦できていない場合には、前記第2の領域選択処理において前記複数の焦点検出領域の中央に位置する焦点検出領域を選択し、前記ズームレンズが移動中も継続して選択し続けることを特徴とする請求項5又は6に記載の撮像装置。   When the zoom lens starts moving, if focusing is not achieved in the focus detection area selected by the first area selection processing, the focus detection areas of the plurality of focus detection areas are selected in the second area selection processing. 7. The image pickup apparatus according to claim 5, wherein a focus detection area located at the center is selected, and the zoom lens is continuously selected even during movement. 前記第2の領域選択処理において、前記第1の領域選択処理の結果を引き継いで焦点検出領域を選択する場合、前記被写体距離が、その時点での焦点距離における合焦可能範囲を超えていた場合には、前記第2の領域選択処理において前記複数の焦点検出領域の中央に位置する焦点検出領域を選択し、前記ズームレンズが移動中も継続して選択し続けることを特徴とする請求項6に記載の撮像装置。   In the case where the focus detection area is selected by taking over the result of the first area selection processing in the second area selection processing, the subject distance exceeds the focusable range at the focal length at that time. In the second area selection process, the focus detection area located at the center of the plurality of focus detection areas is selected, and the selection is continuously continued even while the zoom lens is moving. The imaging device according to. ズームレンズの移動により焦点距離が変更可能な撮像装置の制御方法であって、
複数の焦点検出領域を設定する設定ステップと、
前記複数の焦点検出領域の焦点検出結果に基づいて焦点調整対象とする焦点検出領域を選択する第1の領域選択処理と、前記複数の焦点検出領域のうち、特定の条件に合う焦点検出領域から焦点調整対象とする焦点検出領域を選択する第2の領域選択処理とを行う選択ステップと、を有し、
前記選択ステップでは、前記ズームレンズが移動中でない場合には前記第1の領域選択処理を行い、前記ズームレンズが移動中である場合には前記第2の領域選択処理を行うことを特徴とする制御方法。
It is a control method of an imaging apparatus in which a focal length can be changed by movement of a zoom lens,
Setting steps of setting a plurality of focus detection areas;
A first area selection process for selecting a focus detection area to be adjusted based on the focus detection results of the plurality of focus detection areas, and a focus detection area that meets a specific condition among the plurality of focus detection areas And a second step of selecting a focus detection area to be subjected to focus adjustment.
In the selection step, the first area selection process is performed when the zoom lens is not moving, and the second area selection process is performed when the zoom lens is moving. Control method.
JP2017217625A 2017-11-10 2017-11-10 Imaging device and control method therefor Pending JP2019090855A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017217625A JP2019090855A (en) 2017-11-10 2017-11-10 Imaging device and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017217625A JP2019090855A (en) 2017-11-10 2017-11-10 Imaging device and control method therefor

Publications (1)

Publication Number Publication Date
JP2019090855A true JP2019090855A (en) 2019-06-13

Family

ID=66836276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017217625A Pending JP2019090855A (en) 2017-11-10 2017-11-10 Imaging device and control method therefor

Country Status (1)

Country Link
JP (1) JP2019090855A (en)

Similar Documents

Publication Publication Date Title
JP4795155B2 (en) Optical device, imaging device, and control method thereof
JP6506560B2 (en) Focus control device and method therefor, program, storage medium
JP6548435B2 (en) Display control apparatus, control method therefor, and imaging apparatus
US9742980B2 (en) Focus control apparatus and control method therefor
KR20130083853A (en) Image processing apparatus, image sensing apparatus, control method, and recording medium
JP2008026788A (en) Imaging apparatus and focus control method
JP2008026790A (en) Imaging apparatus and focus control method
US10542202B2 (en) Control apparatus that performs focusing by imaging-plane phase difference AF, image capturing apparatus, control method, and non-transitory computer-readable storage medium
JP2010139666A (en) Imaging device
JP2011028048A (en) Image capturing apparatus, and method of controlling the same
US20200228719A1 (en) Focus control apparatus, imaging apparatus, focus control method, and storage medium
JP6808340B2 (en) Lens control device, control method
JP6139960B2 (en) Imaging apparatus and control method thereof
JP6087714B2 (en) Imaging apparatus and control method thereof
JP6881909B2 (en) Image pickup device and its control method, and image processing device and method
JP6220144B2 (en) Focus adjustment apparatus and control method thereof
JP6305017B2 (en) Focus control device and control method thereof
JP2016057463A (en) Focus adjustment device and control method of the same
JP6305016B2 (en) FOCUS CONTROL DEVICE, FOCUS CONTROL DEVICE CONTROL METHOD, AND IMAGING DEVICE
JP2016057421A (en) Focus adjustment device and focus adjustment method
JP2016142924A (en) Imaging apparatus, method of controlling the same, program, and storage medium
JP2018091977A (en) Focus controller, imaging apparatus, focus control method, and focus control program
JP2013210572A (en) Imaging device and control program of the same
JP2019090855A (en) Imaging device and control method therefor
JP2020003693A (en) Imaging device and control method for imaging device