JP2014174441A - Image capturing device and control method therefor - Google Patents

Image capturing device and control method therefor Download PDF

Info

Publication number
JP2014174441A
JP2014174441A JP2013048973A JP2013048973A JP2014174441A JP 2014174441 A JP2014174441 A JP 2014174441A JP 2013048973 A JP2013048973 A JP 2013048973A JP 2013048973 A JP2013048973 A JP 2013048973A JP 2014174441 A JP2014174441 A JP 2014174441A
Authority
JP
Japan
Prior art keywords
lens
evaluation value
focus
delay
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013048973A
Other languages
Japanese (ja)
Inventor
Kenji Kimoto
賢志 木本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013048973A priority Critical patent/JP2014174441A/en
Publication of JP2014174441A publication Critical patent/JP2014174441A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce time required for focus adjustment motion and improve focusing accuracy of an image capturing device, which makes focus adjustment using evaluation values that represents image sharpness, by efficiently acquiring the evaluation values.SOLUTION: An image capturing unit generates an image signal from object light entering an image capturing lens 101. An AF processing unit 105 generates focus evaluation values representing sharpness of an object image from the image signal. A system control unit 115 acquires the focus evaluation values while driving a focusing lens, and associates the focus evaluation values with corresponding lens positions. In this process, the system control unit 115 identifies the focus evaluation values influenced by delay in lens motion using property information representing a delay property of initial lens motion, corrects lens positions corresponding thereto, and performs an assessment process for assessing the focal positions. A focusing lens control unit 104 adjusts focus by moving the focusing lens along an optical axis direction in accordance with control commands from the system control unit 115.

Description

本発明は、撮像した画像データのコントラストを利用して焦点検出を行う焦点調節装置を備える撮像装置及びその制御方法に関する。   The present invention relates to an imaging apparatus including a focus adjustment apparatus that performs focus detection using the contrast of captured image data, and a control method thereof.

デジタルカメラ等でのオートフォーカス(以下、AFと略記する)制御では、コントラスト検出方式が用いられている。この方式では、CCD(電荷結合素子)やCMOS(相補型金属酸化膜半導体)等を用いた撮像素子から得られる輝度信号の高域周波数成分を抽出し、当該成分が最大になるレンズ位置を合焦位置とする。如何に精度良く高速にピントを合わせることができるかが性能競争における課題となっている。   In autofocus (hereinafter abbreviated as AF) control in a digital camera or the like, a contrast detection method is used. In this method, a high frequency component of a luminance signal obtained from an image sensor using a CCD (Charge Coupled Device), CMOS (Complementary Metal Oxide Semiconductor) or the like is extracted, and the lens position where the component is maximized is aligned. The focus position. How to focus at high speed with high accuracy is an issue in performance competition.

特許文献1には、いわゆるスキャン方式が開示されている。測距範囲の全域に亘ってフォーカスレンズを駆動しながら撮像素子から得られる輝度信号の高域周波数成分に基づく評価値(以下、焦点評価値という)が算出されてその都度にメモリに記憶されていく。記憶値のうち、その最大値に相当するレンズ位置が合焦位置と判定される。   Patent Document 1 discloses a so-called scanning method. An evaluation value (hereinafter referred to as a focus evaluation value) based on the high frequency component of the luminance signal obtained from the image sensor while driving the focus lens over the entire distance measurement range is calculated and stored in the memory each time. Go. Of the stored values, the lens position corresponding to the maximum value is determined as the in-focus position.

特開2006−11035号公報JP 2006-11035 A

コントラスト検出方式のAFは高速化が求められる一方で、近年、デジタルカメラの低価格化や小型化及び薄型化に対する要望も強い。例えば、コスト低減の観点から、フォーカスレンズの駆動源としてステッピングモータを採用することがある。これはオープンループ制御でモータを制御可能であるため、位置検出用センサが不要なことによる。
また、装置の小型化及び薄型化の観点から、AF機能を実現するための機構部にも工夫がなされている。例えば、ズームレンズやフォーカスレンズ等を備える鏡筒ユニットを薄型化するために、各レンズの駆動源であるモータをレンズから離した構成を採用し、モータの駆動力を、機構部を介してレンズに伝達させる。
While the contrast detection AF is required to increase the speed, in recent years, there has been a strong demand for a reduction in price, size and thickness of a digital camera. For example, from the viewpoint of cost reduction, a stepping motor may be employed as a focus lens drive source. This is because the position detection sensor is unnecessary because the motor can be controlled by open loop control.
Further, from the viewpoint of miniaturization and thinning of the apparatus, the mechanism unit for realizing the AF function has also been devised. For example, in order to reduce the thickness of a lens barrel unit including a zoom lens, a focus lens, and the like, a configuration in which a motor that is a driving source of each lens is separated from the lens is adopted, and the driving force of the motor is transmitted to the lens via a mechanism unit. To communicate.

しかし、AF動作の高速化の要請と、撮像装置の低価格化や小型化及び薄型化の要請の両方を満たすには技術的な困難を伴う。例えば、フォーカスレンズを駆動させながら焦点評価値を取得してレンズ位置と対応付ける際に正確な合焦位置が得られないと、AF精度の低下原因となる(これについては図2及び図3を参照して後述する)。
本発明は、画像の鮮鋭度を示す評価値を用いて焦点調節動作を行う撮像装置において、効率よく評価値を取得し、焦点調節動作にかかる時間の短縮と合焦精度の向上を両立させることを目的とする。
However, there are technical difficulties in satisfying both the demand for speeding up the AF operation and the demand for cost reduction, size reduction, and thickness reduction of the imaging apparatus. For example, if a focus evaluation value is acquired while driving a focus lens and an accurate focus position is not obtained when it is associated with a lens position, it may cause a decrease in AF accuracy (see FIGS. 2 and 3 for this). And will be described later).
In an imaging apparatus that performs a focus adjustment operation using an evaluation value indicating the sharpness of an image, the present invention efficiently obtains the evaluation value and achieves both a reduction in time required for the focus adjustment operation and an improvement in focusing accuracy. With the goal.

上記課題を解決するために、本発明に係る装置は、撮像光学系を介して結像した光を光電変換して映像信号を生成する撮像素子と、前記撮像光学系を構成する焦点調節用のレンズを移動させる駆動手段と、前記映像信号を用いて画像の鮮鋭度を示す評価値を算出する評価値算出手段と、前記レンズが動き出すときの遅れ特性を示す特性情報を記憶する記憶手段と、前記レンズを駆動しながら前記評価値算出手段から前記評価値を取得するとともに、当該評価値を取得したときの前記レンズの位置情報を当該評価値に対応付ける処理を行って合焦位置を特定し、前記駆動手段を制御して焦点調節を行う制御手段を備える。前記制御手段は、前記対応付ける処理を行う際、前記記憶手段から前記特性情報を取得し、前記評価値を取得したときの前記撮像素子の露光条件を特定して、前記レンズの動き出しの遅れの影響を受けた前記評価値に対応する前記レンズの位置情報を補正する。   In order to solve the above-described problems, an apparatus according to the present invention includes an imaging element that photoelectrically converts light imaged through an imaging optical system to generate a video signal, and a focus adjustment that constitutes the imaging optical system. Driving means for moving the lens; evaluation value calculating means for calculating an evaluation value indicating the sharpness of an image using the video signal; storage means for storing characteristic information indicating a delay characteristic when the lens starts to move; While obtaining the evaluation value from the evaluation value calculation means while driving the lens, and specifying the in-focus position by performing a process of associating the position information of the lens when the evaluation value is acquired with the evaluation value, Control means for adjusting the focus by controlling the driving means is provided. The control unit acquires the characteristic information from the storage unit when performing the association process, specifies the exposure condition of the image sensor when the evaluation value is acquired, and affects the delay in the movement of the lens The lens position information corresponding to the evaluation value received is corrected.

本発明によれば、効率よく評価値を取得し、焦点調節動作にかかる時間の短縮と合焦精度の向上を両立させることができる。   According to the present invention, it is possible to efficiently obtain an evaluation value, and to simultaneously reduce the time required for the focus adjustment operation and improve the focusing accuracy.

図2ないし図10と併せて本発明の第1実施形態を説明するために、撮像装置の構成例を示すブロック図である。FIG. 11 is a block diagram illustrating a configuration example of an imaging apparatus in order to describe the first embodiment of the present invention in conjunction with FIGS. 2 to 10. フォーカスレンズの動き出し時の理想的な状態と実際の状態を示す図である。It is a figure which shows the ideal state at the time of a movement start of a focus lens, and an actual state. 焦点評価値の観点からみたレンズの動き出し時の遅れの影響を示す図である。It is a figure which shows the influence of the delay at the time of the movement start of the lens from the viewpoint of the focus evaluation value. AF動作例を示すフローチャートである。It is a flowchart which shows AF operation example. スキャン動作例を示すフローチャートである。It is a flowchart which shows the example of scanning operation | movement. 遅延評価値特定処理例を示すフローチャートである。It is a flowchart which shows the example of a delay evaluation value specific process. レンズ位置補正処理例を示すフローチャートである。It is a flowchart which shows the example of a lens position correction process. 遅れ特性情報を示す表である。It is a table | surface which shows delay characteristic information. レンズの軌跡と露光タイミングを例示する説明図である。It is explanatory drawing which illustrates the locus | trajectory and exposure timing of a lens. レンズの軌跡と露光タイミングの別例を示す説明図である。It is explanatory drawing which shows another example of the locus | trajectory of a lens, and exposure timing. 本発明の第2実施形態に係る合焦判定処理例を示すフローチャートである。It is a flowchart which shows the example of a focusing determination process which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係るAF動作例を示すフローチャートである。It is a flowchart which shows the AF operation example which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る粗いスキャンと合わせこみスキャンの範囲を示す説明図である。It is explanatory drawing which shows the range of a rough scan and a fitting scan which concerns on 3rd Embodiment of this invention. 本発明の第4実施形態に係る粗いスキャンと合わせこみスキャンの範囲を示す説明図である。It is explanatory drawing which shows the range of a rough scan and a fitting scan which concerns on 4th Embodiment of this invention.

本発明の各実施形態を以下に説明する。尚、以下ではレンズの種別を特に明示しない場合、「レンズ」はフォーカスレンズ、つまり焦点調節用の可動レンズを意味し、「レンズ位置」は光軸上におけるフォーカスレンズの位置を意味するものとする。   Each embodiment of the present invention will be described below. In the following description, when the lens type is not specified, “lens” means a focus lens, that is, a movable lens for focus adjustment, and “lens position” means the position of the focus lens on the optical axis. .

[第1実施形態]
図1は本発明の第1実施形態に係る撮像装置の回路構成例を示すブロック図である。撮影レンズ101はズーム機構を含み、撮像光学系を構成する。絞りシャッタ制御部102は光量を制御する絞り及びシャッタを駆動制御する。フォーカスレンズ制御部104は撮像素子108上に焦点を合わせるためのフォーカスレンズを駆動制御する。フォーカスレンズの駆動機構には、例えばステッピングモータが使用される。ストロボ106は被写体へ向けて光を照射する発光部を備え、EF処理部107により調光制御される。尚、絞りシャッタ制御部102、フォーカスレンズ制御部104に関しては、図示しないレンズ等の光学要素、絞り・シャッタといった機構部、及びそれらを駆動するアクチュエータや駆動制御回路が設けられている。この他、D(Digital)/A(Analog)変換器や、制御動作に必要な各種装置がある。
[First Embodiment]
FIG. 1 is a block diagram illustrating a circuit configuration example of an imaging apparatus according to the first embodiment of the present invention. The photographing lens 101 includes a zoom mechanism and constitutes an imaging optical system. The aperture shutter control unit 102 controls driving of an aperture and a shutter that control the light amount. The focus lens control unit 104 drives and controls a focus lens for focusing on the image sensor 108. For the focus lens drive mechanism, for example, a stepping motor is used. The strobe 106 includes a light emitting unit that emits light toward a subject, and light control is performed by an EF processing unit 107. The aperture shutter control unit 102 and the focus lens control unit 104 are provided with an optical element such as a lens (not shown), a mechanism unit such as an aperture / shutter, an actuator for driving them, and a drive control circuit. In addition, there are a D (Digital) / A (Analog) converter and various devices necessary for the control operation.

撮像素子108は、撮像光学系により結像される被写体からの光を電気信号に変換する受光及び光電変換手段としての機能をもつ。撮像素子108は、例えばCCD(電荷結合素子)やCMOS(相補型金属酸化膜半導体)を用いたイメージセンサである。撮像素子108は入射光を光電変換によって電荷に変換して映像信号を撮像処理部109に出力する。撮像処理部109はCDS(Correlated Double Sampling)回路、非線形増幅回路、A(Analog)/D(Digital)変換部を備える。CDS回路は撮像素子108の出力ノイズを相関二重サンプリング方式により除去する。CDS回路によりノイズを除去された撮像信号に対して非線形増幅回路は信号増幅(ゲイン制御)を行う。A/D変換部はアナログ信号である撮像信号をデジタル信号に変換する。   The image sensor 108 has a function as light receiving and photoelectric conversion means for converting light from a subject imaged by the imaging optical system into an electric signal. The image sensor 108 is an image sensor using, for example, a CCD (charge coupled device) or a CMOS (complementary metal oxide semiconductor). The image sensor 108 converts incident light into electric charge by photoelectric conversion, and outputs a video signal to the imaging processor 109. The imaging processing unit 109 includes a CDS (Correlated Double Sampling) circuit, a non-linear amplification circuit, and an A (Analog) / D (Digital) conversion unit. The CDS circuit removes output noise of the image sensor 108 by a correlated double sampling method. The nonlinear amplifier circuit performs signal amplification (gain control) on the imaging signal from which noise has been removed by the CDS circuit. The A / D converter converts an imaging signal that is an analog signal into a digital signal.

画像処理部110は、ガンマ補正や輪郭補正等の画像処理を行う。WB(ホワイトバランス)処理部111の制御に基づき、画像データのホワイトバランス処理が実行される。フォーマット変換部112は画像処理部110から取得した画像データを所定の形式に変換する。所定の形式とは、後述する画像記録部114での記録媒体に対する記録や、操作表示部117に供するのに適した形式である。メモリ113は高速な内蔵メモリ(例えばダイナミック・ランダム・アクセス・メモリ等、以下、DRAMと記す)である。DRAM113は一時的な画像記憶手段としての高速バッファや、画像データの圧縮伸長処理における作業用メモリ等に使用される。画像記録部114はメモリカード等の記録媒体とそのインターフェース部を備える。   The image processing unit 110 performs image processing such as gamma correction and contour correction. Based on the control of the WB (white balance) processing unit 111, white balance processing of image data is executed. The format conversion unit 112 converts the image data acquired from the image processing unit 110 into a predetermined format. The predetermined format is a format suitable for recording on a recording medium in the image recording unit 114 (to be described later) and for use in the operation display unit 117. The memory 113 is a high-speed built-in memory (for example, dynamic random access memory, hereinafter referred to as DRAM). The DRAM 113 is used as a high-speed buffer as temporary image storage means, a working memory in image data compression / decompression processing, or the like. The image recording unit 114 includes a recording medium such as a memory card and its interface unit.

システム制御部115は、CPU(中央演算処理装置)、RAM(ランダム・アクセス・メモリ)及びROM(リード・オンリー・メモリ)を有し、撮像装置全体の動作を制御する。CPUは、ROMに予め記憶されたプログラムを読み出して実行し、RAMを作業領域として使用する。後述のフローチャートにて説明する処理はCPUによって実行される。
AE(自動露出)処理部103は、撮像処理部109により得られた画像データに基づいて被写体の明るさに応じた測光値を算出する。この測光値に基づき、システム制御部115は絞りシャッタ制御部102と、撮像処理部109の非線形増幅回路を制御し、露光量を自動的に調整する。AF処理部105は、撮像処理部109により得た画像データから高周波成分を抽出して評価値算出処理、つまり焦点評価値の算出処理を行う。焦点評価値演算により算出された焦点評価値は画像の鮮鋭度を表わす目安となる。AF処理部105で得た焦点評価値はシステム制御部115に送られ、フォーカスレンズ制御部104が制御されて自動焦点調節(AF)動作が行われる。
The system control unit 115 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory), and controls the operation of the entire imaging apparatus. The CPU reads and executes a program stored in advance in the ROM, and uses the RAM as a work area. Processing described in the flowcharts described later is executed by the CPU.
The AE (automatic exposure) processing unit 103 calculates a photometric value corresponding to the brightness of the subject based on the image data obtained by the imaging processing unit 109. Based on this photometric value, the system control unit 115 controls the aperture shutter control unit 102 and the nonlinear amplification circuit of the imaging processing unit 109 to automatically adjust the exposure amount. The AF processing unit 105 extracts a high frequency component from the image data obtained by the imaging processing unit 109 and performs an evaluation value calculation process, that is, a focus evaluation value calculation process. The focus evaluation value calculated by the focus evaluation value calculation is a standard representing the sharpness of the image. The focus evaluation value obtained by the AF processing unit 105 is sent to the system control unit 115, and the focus lens control unit 104 is controlled to perform an automatic focus adjustment (AF) operation.

画像表示用メモリ(以下、VRAMと表記する)116はDRAM113からの画像データを記憶する。操作表示部117はシステム制御部115の制御指令に従って、画像表示や操作補助のための表示、カメラ状態の表示、撮影時の撮影画像等を表示する。メインスイッチ118はユーザが撮像装置の電源投入時に操作する。第1スイッチ(以下、SW1と表記する)119は、ユーザがAF動作やAE動作等の撮影スタンバイ動作(撮影準備動作)をシステム制御部115に指示する際に操作する。第2スイッチ(以下、SW2と表記する)120は、ユーザがスイッチSW1の操作後に、撮影動作をシステム制御部115に指示する際に操作する。姿勢センサ121は、撮像装置の姿勢(上向き、下向き等)を検出し、検出信号をシステム制御部115に出力する。   An image display memory (hereinafter referred to as VRAM) 116 stores image data from the DRAM 113. The operation display unit 117 displays an image display, a display for assisting operation, a display of a camera state, a captured image at the time of shooting, and the like according to a control command of the system control unit 115. The main switch 118 is operated by the user when the imaging apparatus is turned on. A first switch (hereinafter referred to as SW1) 119 is operated when the user instructs the system control unit 115 to perform a shooting standby operation (shooting preparation operation) such as an AF operation or an AE operation. A second switch (hereinafter referred to as SW2) 120 is operated when the user instructs the system control unit 115 to perform a shooting operation after operating the switch SW1. The posture sensor 121 detects the posture (upward, downward, etc.) of the imaging device and outputs a detection signal to the system control unit 115.

次に、フォーカスレンズの動き出し時の理想的な状態と実際の状態との差異について説明する。撮像装置はAF動作の高速化が求められる一方で、低価格化、小型化及び薄型化が要請されるため、焦点評価値に対する影響を考慮する必要がある。具体的には、フォーカスレンズを駆動させながら焦点評価値を取得する際、レンズの動き出し時点の付近で焦点評価値が正しい値を示さなくなる現象が生じる。これは、光軸上の実際のフォーカスレンズ位置とステッピングモータに供給する駆動パルスとは一対一の関係にあることが前提であり、駆動パルスを物理的なレンズ位置と等価に扱っていることに起因する。しかしながら、実際のレンズの動き出し時点の付近では、ステッピングモータが脱調しない状態であったとしても、慣性等の影響によりレンズ位置と電気的な位置(駆動パルスの数)とが一時的に乖離した状態となる場合がある。   Next, the difference between the ideal state and the actual state when the focus lens starts moving will be described. While the imaging apparatus is required to increase the AF operation speed, it is required to reduce the price, the size, and the thickness. Therefore, it is necessary to consider the influence on the focus evaluation value. Specifically, when the focus evaluation value is acquired while driving the focus lens, a phenomenon occurs in which the focus evaluation value does not show a correct value near the time when the lens starts moving. This is based on the premise that there is a one-to-one relationship between the actual focus lens position on the optical axis and the drive pulse supplied to the stepping motor, and the drive pulse is handled equivalently to the physical lens position. to cause. However, near the actual lens movement start point, even if the stepping motor does not step out, the lens position and electrical position (number of drive pulses) are temporarily deviated due to the influence of inertia or the like. There may be a state.

図2(A)はフォーカスレンズの移動開始時点t0での位置P0と、その後の時刻t1での位置P1を示す模式図である。フォーカスレンズは本来、時間経過とともに図2(A)に示すように光軸上を移動するはずである。しかし、実際には図2(B)に示すように時刻t1でのフォーカスレンズの姿勢に変化が生じ得る。つまり、駆動源側に近い部分の動きに対して、レンズの先端部分の動きが遅れてしまう場合がある。光軸上のレンズ位置で比較した場合、停止時(時刻t0)での位置P0との差が小さい状態が存在する(時刻t1でレンズは位置P1に来るべきであるが、実際のレンズ中心位置はP1よりもP0に近い位置Qとなる)。このようなレンズの状態で得られた焦点評価値を、電気的な位置(ステッピングモータの駆動パルス数)に基づくレンズ位置と対応付けたのでは正しい状態は得られない。
図3は、フォーカスレンズの動き出し時の遅れの影響を示す図である。横軸にレンズ位置を示し、縦軸に焦点評価値を示す。レンズを動かしながら焦点評価値を取得する際、レンズの移動開始位置の付近に合焦位置が存在する場合を想定する。レンズの移動が理想的な状態(図2(A)参照)にて、レンズ移動中に取得される焦点評価値は、図3の(α)に実線で示す山型形状となるはずである。しかし、実際には図2(B)で説明したように、レンズの遅れの影響により、レンズ移動中に取得する焦点評価値は図3の(β)に点線で示す曲線となる。つまり、最初の焦点評価値のレベルが(α)に比べて下がる。厳密には、図2の理想的な位置P1での露光ではなく、遅れの影響により位置Qで露光された焦点評価値が得られる。その結果、(β)で示す焦点評価値の形状(左半部)が(α)よりも全体的に右側へシフトした形になる。合焦位置がレンズ動き出し時点の付近で存在する場合には、合焦位置のずれ(誤差)が生じ、正しい合焦位置が得られなくなるので、AF精度の低下原因となる。
FIG. 2A is a schematic diagram showing a position P0 at the focus lens movement start time t0 and a subsequent position P1 at time t1. The focus lens is supposed to move on the optical axis with time as shown in FIG. However, in practice, as shown in FIG. 2B, the focus lens posture may change at time t1. That is, the movement of the front end portion of the lens may be delayed with respect to the movement of the portion close to the drive source side. When compared at the lens position on the optical axis, there is a state where the difference from the position P0 at the time of stop (time t0) is small (the lens should come to the position P1 at time t1, but the actual lens center position) Is a position Q closer to P0 than P1). If the focus evaluation value obtained in such a lens state is associated with the lens position based on the electrical position (number of driving pulses of the stepping motor), a correct state cannot be obtained.
FIG. 3 is a diagram illustrating the influence of delay when the focus lens starts to move. The horizontal axis represents the lens position, and the vertical axis represents the focus evaluation value. It is assumed that when a focus evaluation value is acquired while moving the lens, a focus position exists in the vicinity of the movement start position of the lens. In an ideal state of lens movement (see FIG. 2A), the focus evaluation value acquired during lens movement should be a mountain shape indicated by a solid line in FIG. However, in practice, as described with reference to FIG. 2B, the focus evaluation value acquired during lens movement is a curve indicated by a dotted line in FIG. That is, the level of the first focus evaluation value is lower than (α). Strictly speaking, not the exposure at the ideal position P1 in FIG. 2, but the focus evaluation value exposed at the position Q is obtained due to the influence of the delay. As a result, the shape (left half) of the focus evaluation value indicated by (β) is shifted to the right as a whole from (α). If the in-focus position exists in the vicinity of the lens movement start point, a shift (error) of the in-focus position occurs, and a correct in-focus position cannot be obtained, which causes a decrease in AF accuracy.

以下では、低価格化と小型化及び薄型化の要請を満たしつつ、効率よく焦点評価値を取得し、AF動作時間の短縮と合焦精度との両立を実現できるAF動作を説明する。まず、本実施形態におけるAF動作について図4を参照して基本的な流れを説明する。
S401にてシステム制御部115は、フォーカスレンズを動かしながら焦点評価値を取得する際の移動速度、及びレンズの移動開始位置と終了位置を決定する。この移動速度は焦点深度や焦点調節時のフレームレート等を考慮して決定される。次のS402にてシステム制御部115はフォーカスレンズ制御部104に指令を送り、S401で決定した移動開始位置にレンズを移動させる。次に、S403でスキャン動作が実行される。ここでいうスキャン動作とは、レンズを移動させながら合焦可否判断に用いる焦点評価値を連続して取得する焦点調節動作である。スキャン動作では、S401で決定した駆動条件に従って、指定されたレンズ移動範囲での焦点評価値を取得する処理が行われるが、その詳細については後述する。次にS404にてシステム制御部115は合焦判定を行う。合焦判定ではS403で得られた焦点評価値に基づいて、最大となる焦点評価値に対応するレンズ位置が特定される。レンズの移動速度やフレームレートによっては、取得できる焦点評価値に対応するレンズ位置の間隔が広くなる場合がある。本実施形態では得られた焦点評価値に基づいて本来の焦点評価値の形状を近似し、その値が最大となるレンズ位置を算出する処理が行われる。S405でシステム制御部115は、S404で算出した合焦位置にレンズを移動させる制御を行う。
In the following, an AF operation capable of efficiently obtaining a focus evaluation value and satisfying both the reduction of the AF operation time and the focusing accuracy while satisfying the demands for low price, miniaturization and thinning will be described. First, the basic flow of the AF operation in this embodiment will be described with reference to FIG.
In step S401, the system control unit 115 determines the moving speed when acquiring the focus evaluation value while moving the focus lens, and the lens movement start position and end position. This moving speed is determined in consideration of the depth of focus and the frame rate during focus adjustment. In next step S402, the system control unit 115 sends a command to the focus lens control unit 104, and moves the lens to the movement start position determined in step S401. Next, a scan operation is executed in S403. The scan operation here is a focus adjustment operation for continuously acquiring a focus evaluation value used for determining whether or not focusing is possible while moving the lens. In the scan operation, processing for acquiring a focus evaluation value in the designated lens movement range is performed according to the driving condition determined in S401, and details thereof will be described later. In step S404, the system control unit 115 performs in-focus determination. In focus determination, the lens position corresponding to the maximum focus evaluation value is specified based on the focus evaluation value obtained in S403. Depending on the moving speed and frame rate of the lens, the interval between the lens positions corresponding to the focus evaluation value that can be acquired may be wide. In the present embodiment, processing for approximating the shape of the original focus evaluation value based on the obtained focus evaluation value and calculating the lens position at which the value becomes maximum is performed. In step S405, the system control unit 115 performs control to move the lens to the in-focus position calculated in step S404.

次に、図4のS403で述べたスキャン動作について、図5を参照して詳細に説明する。
まず、S501にてシステム制御部115は遅延評価値の特定処理を実行する。遅延評価値とは、レンズが動き出す際の光軸上の実際のレンズ位置と、システム制御部115及びフォーカスレンズ制御部104が把握している電気的な位置との乖離の影響を受ける評価値である。S501では、スキャン動作を実施する際のレンズの駆動条件や遅延評価値の発生箇所が特定される。遅延評価値については、撮像装置に搭載された各種センサの出力に基づいてスキャン動作を実施した際の発生箇所を特定する処理が実行される。処理の詳細については後述する。次のS502でレンズが移動を開始する。S503でAF処理部105は周期的に実行される焦点評価値の算出処理が完了したか否かを判断する。S503にて焦点評価値の算出処理が完了してなければ、再度S503に戻り算出の完了を待つ。一方、焦点評価値の算出処理が完了している場合、S504に処理を進める。S504では、AF処理部105で算出された焦点評価値を取得してシステム制御部115のRAMに一時的に記憶する処理が実行される。次のS505でシステム制御部115は取得済みの焦点評価値の数(以下、焦点評価値数という)をカウントする。カウント値はスキャン動作の開始時点でゼロであり、レンズの移動開始後に焦点評価値が取得される度にカウント値が増加していく。したがって、スキャン動作中及びスキャン動作後にはその時点で何個の焦点評価値が取得済みであるかを把握できる。次のS506でレンズ位置の補正処理が実行される。補正処理の詳細については後述するが、基本的には焦点評価値にそれぞれ対応付けるレンズの位置情報が、シャッタースピードやフォーカスレンズの動き出し時の遅れを考慮して決定される。
Next, the scanning operation described in S403 in FIG. 4 will be described in detail with reference to FIG.
First, in S501, the system control unit 115 executes a delay evaluation value specifying process. The delay evaluation value is an evaluation value that is affected by the difference between the actual lens position on the optical axis when the lens starts to move and the electrical position that the system control unit 115 and the focus lens control unit 104 grasp. is there. In step S501, the lens driving conditions and the location where the delay evaluation value is generated when the scanning operation is performed are specified. For the delay evaluation value, a process for specifying the occurrence location when the scanning operation is performed based on the outputs of various sensors mounted on the imaging apparatus is executed. Details of the processing will be described later. In next step S502, the lens starts moving. In step S <b> 503, the AF processing unit 105 determines whether the focus evaluation value calculation process that is periodically executed is completed. If the focus evaluation value calculation processing is not completed in S503, the process returns to S503 again and waits for the completion of the calculation. On the other hand, if the focus evaluation value calculation process has been completed, the process proceeds to S504. In step S <b> 504, processing for acquiring the focus evaluation value calculated by the AF processing unit 105 and temporarily storing it in the RAM of the system control unit 115 is executed. In next step S505, the system control unit 115 counts the number of acquired focus evaluation values (hereinafter referred to as the number of focus evaluation values). The count value is zero at the start of the scanning operation, and the count value increases every time a focus evaluation value is acquired after the start of lens movement. Therefore, it is possible to grasp how many focus evaluation values have been acquired at the time during and after the scanning operation. In the next step S506, lens position correction processing is executed. Although details of the correction process will be described later, basically, lens position information corresponding to each focus evaluation value is determined in consideration of the shutter speed and the delay when the focus lens starts moving.

S507にてシステム制御部115は、S504で得られた焦点評価値と、S506で決定したレンズ位置とを対応付けてシステム制御部115のRAMに記憶する。次のS508は現在のレンズ位置が目標位置(移動終了位置)に到達したか否かの判定処理である。フォーカスレンズ制御部104はS508にてレンズ位置が目標位置に到達していないと判定した場合、S503に処理を戻す。一方、S508にて現在のレンズ位置が目標位置に到達していると判定された場合、S509に処理を進めてフォーカスレンズ制御部104はレンズの移動を停止させる。そしてリターン処理に移行する。
このように、図5で示すスキャン動作では、図4のS401で決定された駆動条件にて連続した焦点評価値とそれに対応するレンズ位置が取得され、システム制御部115はRAMにそれらのデータを対応付けて記憶させる。得られた一連の焦点評価値とそれに対応付けられたレンズ位置は、図4のS404に示す合焦判定で使用される。
In step S507, the system control unit 115 stores the focus evaluation value obtained in step S504 and the lens position determined in step S506 in association with each other in the RAM of the system control unit 115. The next S508 is a process for determining whether or not the current lens position has reached the target position (movement end position). If the focus lens control unit 104 determines in S508 that the lens position has not reached the target position, the process returns to S503. On the other hand, if it is determined in S508 that the current lens position has reached the target position, the process proceeds to S509, and the focus lens control unit 104 stops the movement of the lens. Then, the process proceeds to return processing.
As described above, in the scanning operation shown in FIG. 5, continuous focus evaluation values and corresponding lens positions are acquired under the driving conditions determined in S401 of FIG. 4, and the system control unit 115 stores these data in the RAM. Store them in association with each other. The obtained series of focus evaluation values and the lens positions associated therewith are used in the focus determination shown in S404 of FIG.

次に、図5のS501で示した遅延評価値の特定処理について図6、図8、図9を参照して説明する。
まず、レンズの動き出しの遅れ(以下、レンズ遅れという)による影響を受ける際の、レンズの動きと露光期間との関係について図9を用いて説明する。図9(A)は、スキャン動作時の要求速度が高速時(例えば1000pps)の場合の理想的なレンズ軌跡(実線)及び実際のレンズの遅れをモデル化した軌跡(破線)を例示する。図9(B)は、スキャン動作時の要求速度が低速時(例えば100pps)の場合の理想的なレンズ軌跡(実線)及び実際のレンズの遅れをモデル化した軌跡(破線)を例示する。グラフ図の横軸は時間tを示し、縦軸はレンズ位置を示す。その下方にVD(垂直同期信号)、読み出しパルス、露光状態をそれぞれ示す。
図9(A)にて、理想的なレンズ軌跡(実線)は原点を起点として点P1,P2,P3を通る右上がりの直線である。これに対して実際のレンズ軌跡は原点を起点として遅延時間TDelay1000が経過するまでの間の移動量はゼロである(停止状態)。その後のレンズ位置は、遅延時間TDelay1000の経過後、TRecovery1000の期間で立ち上がって点Q1,点P1Rを通り、点P1と点P2との間の位置で理想的なレンズ軌跡に回復するグラフ線で表わされる。
Next, the delay evaluation value specifying process shown in S501 of FIG. 5 will be described with reference to FIGS.
First, the relationship between the lens movement and the exposure period when affected by the delay in starting the lens movement (hereinafter referred to as lens delay) will be described with reference to FIG. FIG. 9A illustrates an ideal lens trajectory (solid line) and a trajectory (broken line) in which the actual lens delay is modeled when the required speed during the scanning operation is high (for example, 1000 pps). FIG. 9B illustrates an ideal lens trajectory (solid line) and a trajectory (broken line) modeling an actual lens delay when the required speed during the scanning operation is low (for example, 100 pps). The horizontal axis of the graph shows time t, and the vertical axis shows the lens position. Below that, VD (vertical synchronization signal), readout pulse, and exposure state are shown.
In FIG. 9A, an ideal lens trajectory (solid line) is a straight line going up to the right passing through points P1, P2, and P3 starting from the origin. On the other hand, the movement amount of the actual lens locus from the origin until the delay time T Delay 1000 elapses is zero (stopped state). After that, the lens position rises during the period of T Recovery 1000 after the delay time T Delay 1000 has elapsed, passes through points Q1 and P1 R , and recovers to an ideal lens locus at a position between points P1 and P2. Represented by a graph line.

図9(A)を参照して、レンズ遅れの影響を受ける焦点評価値に対応するレンズ位置を説明する。まず、1フレーム期間の長さ(TVDと記す)、遅延時間TDelay1000、及び露光時間(TVと記す)の関係から、レンズ遅れの影響を受ける露光期間におけるレンズの停止期間と移動期間が求まる。本実施形態では、移動期間の中央の時刻におけるレンズ位置を、焦点評価値に対応するレンズ位置とする。その際の速度SpeedRecovery1000と移動期間により、レンズ遅れの影響を受ける際の第1レンズ位置を算出することができる。一方、レンズが理想的な軌跡をたどる場合には、要求速度(レンズ駆動速度)と露光期間に基づいて露光期間の中央(TV/2)の時刻における第2レンズ位置を算出することができる。第1レンズ位置と第2レンズ位置との差が、レンズ遅れの影響を受ける場合と受けない場合との誤差である。この誤差を解消できないと、レンズの動き出し時点付近で生じる合焦精度の低下原因となる。本実施形態中の遅延評価値とは、レンズ遅れの影響を受けた焦点評価値を指す。 With reference to FIG. 9A, the lens position corresponding to the focus evaluation value affected by the lens delay will be described. First, the length of one frame period (referred to as T VD), the delay time T Delay 1000, and moving period from the relationship between the exposure time (referred to as T V), the lens of the stop period in the exposure period affected by the lens lag Is obtained. In the present embodiment, the lens position at the center time of the movement period is set as the lens position corresponding to the focus evaluation value. The first lens position at the time of the influence of the lens delay can be calculated from the speed Speed Recovery 1000 and the moving period at that time. On the other hand, when the lens follows an ideal trajectory, the second lens position at the center time (T V / 2) of the exposure period can be calculated based on the required speed (lens driving speed) and the exposure period. . The difference between the first lens position and the second lens position is an error between when the lens delay is affected and when it is not. If this error cannot be resolved, it will cause a reduction in focusing accuracy that occurs near the time when the lens starts moving. The delay evaluation value in the present embodiment refers to a focus evaluation value affected by the lens delay.

一般的にスキャン動作の要求速度に応じて理想的なレンズ軌跡と実際のレンズ軌跡とが異なる場合がある。例えば、図9(A)のように高速スキャン動作を実施した場合、理想的なレンズ軌跡をたどる場合の最初の焦点評価値に対応するレンズ位置をP1とする。レンズの動き出しの遅れを考慮した場合のレンズ位置はQ1となり、レンズ遅れの影響による誤差は大きくなる。図9(B)のように低速スキャン動作の場合、レンズ遅れの影響による誤差は高速スキャン動作の場合と比較して小さくなる。このようにレンズ遅れの影響によるレンズ位置の誤差については、実際のレンズの動き出しの軌跡が、どのような変化をどのような条件で示すかを特定する情報があれば算出可能である。   In general, an ideal lens trajectory may differ from an actual lens trajectory depending on a required speed of a scanning operation. For example, when the high-speed scanning operation is performed as shown in FIG. 9A, the lens position corresponding to the first focus evaluation value when following an ideal lens locus is set to P1. The lens position when taking into account the delay in the movement of the lens is Q1, and the error due to the influence of the lens delay becomes large. In the case of the low speed scanning operation as shown in FIG. 9B, the error due to the influence of the lens delay is smaller than that in the case of the high speed scanning operation. Thus, the lens position error due to the influence of the lens delay can be calculated if there is information specifying what change the actual locus of movement of the lens shows under what conditions.

遅延評価値を特定するため、システム制御部115はROM領域にて実際のレンズ軌跡を特定するためのレンズ遅れに関する特性情報(以下、遅れ特性情報という)を記憶している。具体的には、図8に示す表のように、スキャン動作を実施する際の要求速度ごとに、遅延時間、戻り時間、戻り速度の3情報が関連付けられてROM領域に保持される。図8に示す遅延時間は、図9(A)ではTDelay1000に該当し、要求速度でフォーカスレンズを動かした場合に実際にレンズが動き出すまでの時間を示している。戻り時間は図9(A)におけるTRecovery1000に該当し、理想的なレンズ軌跡(実線)に戻るまでの時間を示している。戻り速度は図9(A)におけるSpeedRecovery1000に該当し、理想的なレンズ軌跡(実線)に戻る際のレンズの速度を示している。本実施形態では、実際のレンズ軌跡を遅延時間、戻り時間、戻り速度に基づいて近似し、遅れ特性情報として利用する。この遅れ特性情報を用いることで、レンズ遅れの影響を受けた焦点評価値を特定できる。 In order to specify the delay evaluation value, the system control unit 115 stores characteristic information about the lens delay (hereinafter referred to as delay characteristic information) for specifying the actual lens locus in the ROM area. Specifically, as shown in the table of FIG. 8, for each requested speed when performing the scan operation, three pieces of information of delay time, return time, and return speed are associated and held in the ROM area. The delay time shown in FIG. 8 corresponds to T Delay 1000 in FIG. 9A, and shows the time until the lens actually starts moving when the focus lens is moved at the required speed. The return time corresponds to T Recovery 1000 in FIG. 9A, and indicates the time required to return to the ideal lens locus (solid line). The return speed corresponds to Speed Recovery 1000 in FIG. 9A, and indicates the speed of the lens when returning to an ideal lens locus (solid line). In the present embodiment, an actual lens locus is approximated based on the delay time, the return time, and the return speed, and is used as delay characteristic information. By using this delay characteristic information, the focus evaluation value affected by the lens delay can be specified.

露光タイミングにおけるレンズ状態に応じて焦点評価値をいくつかに分類することができる。例えば、遅延時間内での露光を「停止状態」とし、戻り時間内での露光を「戻り状態」とし、レンズ遅れの影響がなくなって要求速度で露光される状態を「安定状態」とする。この場合、下記の6種類に分類できる。
(1)停止状態のみ
(2)停止状態及び戻り状態
(3)停止状態及び戻り状態及び安定状態
(4)戻り状態
(5)戻り状態及び安定状態
(6)安定状態
これらの中で、(1)〜(5)の場合に取得される焦点評価値が遅延評価値に該当する。特に(1)の停止状態で取得される焦点評価値を「停止状態評価値」と呼び、(2)ないし(5)の場合に取得される焦点評価値を「戻り状態評価値」と呼ぶこととする。また、(6)の安定状態のみで露光されて取得される焦点評価値を「安定状態評価値」と呼ぶ。これらを特定する方法として、図9(A)を用いて説明すると下式に示す評価値数が定義される。
・遅延評価値数(上記(1)〜(5)のいずれかの場合) = (TDelay1000+TRecovery1000)/TVD
(剰余が存在する場合は1を加算する)
・停止状態評価値数(上記(1)の場合) = TDelay1000/TVD
・戻り状態評価値数(上記(2)〜(5)のいずれかの場合)=遅延評価値数 − 停止状態評価値数
Focus evaluation values can be classified into several types according to the lens state at the exposure timing. For example, the exposure within the delay time is set to “stop state”, the exposure within the return time is set to “return state”, and the state where the influence of the lens delay is eliminated and the exposure is performed at the required speed is set to “stable state”. In this case, it can be classified into the following six types.
(1) Stop state only (2) Stop state and return state (3) Stop state and return state and stable state (4) Return state (5) Return state and stable state (6) Stable state Among these, (1 The focus evaluation value acquired in the case of (5) to (5) corresponds to the delay evaluation value. In particular, the focus evaluation value acquired in the stop state of (1) is referred to as “stop state evaluation value”, and the focus evaluation value acquired in the cases of (2) to (5) is referred to as “return state evaluation value”. And Further, the focus evaluation value acquired by exposure only in the stable state (6) is referred to as a “stable state evaluation value”. As a method for specifying these, the number of evaluation values shown in the following formula is defined when described with reference to FIG.
-Number of delay evaluation values (in any of (1) to (5) above) = (T Delay 1000 + T Recovery 1000) / T VD
(If there is a remainder, add 1)
-Number of evaluation values in the stopped state (in the case of (1) above) = T Delay 1000 / T VD
-Number of return state evaluation values (in the case of any of (2) to (5) above) = Number of delay evaluation values-Number of stop state evaluation values

安定状態評価値は、遅延評価値以外の焦点評価値である。尚、図9(B)の場合にはTDelay1000、TRecovery1000の代わりにTDelay100、TRecovery100を使用すればよい。
こうしてスキャン動作の開始時点から順次得られる評価値に関して、どの評価値が、どのような露光条件で得られたのかを特定可能となる。
The stable state evaluation value is a focus evaluation value other than the delay evaluation value. Incidentally, it may be used to T Delay 100, T Recovery 100 instead of T Delay 1000, T Recovery 1000 in the case of FIG. 9 (B).
In this way, it is possible to specify which evaluation value is obtained under what exposure condition with respect to the evaluation value sequentially obtained from the start time of the scanning operation.

次に、図6のフローチャートを参照して遅延評価値の特定処理の流れについて説明する。図6の処理は図5で示したスキャン動作において、スキャン動作開始時に実行され、その結果は後述するレンズ位置情報の補正処理に利用される。
まず、S601にてスキャン動作時の要求速度(駆動速度)が取得される。次にS602にて遅れ特性情報が選択される。前述のとおり、遅れ特性情報は要求速度ごとに保持されている(図8参照)。このため、S601で得た要求速度に基づいて、以降の処理で使用する遅れ特性情報が選択されることになる。次にS603でシステム制御部115は停止状態評価値を特定する。この処理では、遅れ特性情報とTVD、VD(垂直同期信号)の関係から停止状態評価値が特定される。同様にS604では戻り状態評価値が特定される。次にS605にて遅延評価値数が算出される。遅延評価値数は、S603で特定した停止状態評価値の数と、S604で特定した戻り状態評価値の数との和として求めることができる。ここで算出される遅延評価値数、停止状態評価値数、戻り状態評価値数については、後述のレンズ位置情報の補正処理で利用するために、システム制御部115はそのRAM領域に一旦保存する。
Next, the flow of the delay evaluation value specifying process will be described with reference to the flowchart of FIG. The processing of FIG. 6 is executed at the start of the scanning operation in the scanning operation shown in FIG. 5, and the result is used for correction processing of lens position information described later.
First, in S601, a required speed (drive speed) at the time of a scan operation is acquired. In step S602, delay characteristic information is selected. As described above, the delay characteristic information is held for each requested speed (see FIG. 8). For this reason, the delay characteristic information used in the subsequent processing is selected based on the required speed obtained in S601. In step S603, the system control unit 115 identifies a stop state evaluation value. In this process, the stop state evaluation value is specified from the relationship between the delay characteristic information and TVD , VD (vertical synchronization signal). Similarly, a return state evaluation value is specified in S604. Next, the number of delay evaluation values is calculated in S605. The number of delay evaluation values can be obtained as the sum of the number of stop state evaluation values specified in S603 and the number of return state evaluation values specified in S604. The system control unit 115 temporarily stores the number of delay evaluation values, the number of stop state evaluation values, and the number of return state evaluation values calculated here for use in correction processing of lens position information described later. .

次に、図7及び図9、図10を参照してレンズ位置補正処理について説明する。図7のフローチャートに示す処理は図5で説明したとおり、焦点評価値の取得ごとに実行される。図10はレンズの軌跡と露光タイミングを例示した図である。図10にて理想的なレンズ軌跡(実線)は原点を起点として点P1,P2,P3,P3Rを通る右上がりの直線である。これに対して実際のレンズ軌跡は原点を起点として遅延時間TDelayが経過するまでの間の移動量はゼロである(停止状態)。遅延時間TDelayの経過後、TRecoveryの期間で立ち上がって点Q2,点P2Rを通り、点P3の位置で理想的なレンズ軌跡に回復するグラフ線で表わされる。 Next, the lens position correction process will be described with reference to FIGS. The process shown in the flowchart of FIG. 7 is executed every time the focus evaluation value is acquired as described in FIG. FIG. 10 is a diagram illustrating lens trajectories and exposure timing. In FIG. 10, an ideal lens locus (solid line) is a straight line going up to the right passing through points P1, P2, P3, and P3 R starting from the origin. On the other hand, the movement amount of the actual lens locus from the origin until the delay time T Delay elapses is zero (stop state). After the elapse of the delay time T Delay , it is represented by a graph line that rises during the period of T Recovery , passes through points Q2 and P2 R , and recovers to an ideal lens locus at the position of point P3.

まずS701では、図5のS505でのカウントにより取得した焦点評価値数と、図6のS605で求めた遅延評価値数とが比較される。遅延評価値数よりも取得した焦点評価値数の方が多い場合、つまり、レンズ遅れの影響を受けない安定状態評価値であることが特定された場合にはS705に処理を進める。ここでは、安定状態におけるレンズ位置情報の補正処理が実行される。図9(B)に示す2番目の露光タイミングを例に説明すると、この露光はレンズ遅れの影響を受けていない。このため、露光期間中は一定速度でレンズが移動している。この場合、露光期間の中央(Tv/2)の時刻におけるレンズ位置(P2参照)が算出され、その位置が露光より生成される焦点評価値に対応付けられる。これが安定状態における補正処理である。 First, in S701, the number of focus evaluation values acquired by the count in S505 in FIG. 5 is compared with the number of delay evaluation values obtained in S605 in FIG. If the acquired number of focus evaluation values is greater than the number of delay evaluation values, that is, if it is specified that the evaluation value is a stable state evaluation value that is not affected by lens delay, the process proceeds to S705. Here, correction processing of lens position information in a stable state is executed. Taking the second exposure timing shown in FIG. 9B as an example, this exposure is not affected by the lens delay. For this reason, the lens moves at a constant speed during the exposure period. In this case, the lens position (see P2) at the time of the center of the exposure period (T v / 2) is calculated, and that position is associated with the focus evaluation value generated by exposure. This is the correction process in the stable state.

一方、S701にて、取得した焦点評価値数が遅延評価値数以下の場合はS702に処理を進める。S702では、取得した焦点評価値数が図6のS603で求めた停止状態評価値数よりも多いか否かについて判定される。取得した焦点評価値数が停止状態評価値数以下の場合、すなわちレンズの遅れによりレンズの停止状態で露光された焦点評価値が得られたと判断される場合にはS703に進む。S703では、得られた焦点評価値に対応付けるレンズ位置としてスキャン動作の開始位置を設定する。
S702にて、取得した焦点評価値数が停止状態評価値数よりも多い場合、すなわち、レンズ遅れの影響を受け、戻り速度で露光された影響を含む焦点評価値が得られたと判断される場合にはS704に進む。S704で戻り状態補正処理が実行される。戻り状態補正処理とは、レンズ遅れの影響により戻り速度と戻り時間が生じる場合の焦点評価値に対応するレンズ位置を算出する処理である。具体的には、前記(2)〜(5)のいずれの状態での露光により得られた焦点評価値であるかが特定され、個々の状況にあった補正処理が行われる。その詳細は下記のとおりである。
On the other hand, if the acquired focus evaluation value number is equal to or less than the delay evaluation value number in S701, the process proceeds to S702. In S702, it is determined whether or not the acquired number of focus evaluation values is greater than the number of stop state evaluation values obtained in S603 of FIG. If the acquired focus evaluation value number is equal to or smaller than the stop state evaluation value number, that is, if it is determined that the focus evaluation value exposed in the lens stop state is obtained due to the lens delay, the process proceeds to S703. In step S703, the scan operation start position is set as a lens position to be associated with the obtained focus evaluation value.
If it is determined in S702 that the acquired number of focus evaluation values is larger than the number of stopped state evaluation values, that is, it is determined that a focus evaluation value including the influence of exposure at the return speed is obtained due to the influence of lens delay. The process proceeds to S704. In S704, the return state correction process is executed. The return state correction process is a process of calculating the lens position corresponding to the focus evaluation value when the return speed and the return time are generated due to the influence of the lens delay. Specifically, it is specified whether the focus evaluation value is obtained by the exposure in any of the states (2) to (5), and the correction process suitable for each situation is performed. The details are as follows.

(2)「停止状態および戻り状態」の場合 (図9(A)に示す1番目の露光が該当)
特定方法(判定条件):
・「遅延評価値数 > 停止状態評価値数」かつ「遅延評価値数が1より大きい」を満たすこと。
・「TVD×N番目 − ( 遅延時間+戻り時間 ) 」が負数であること。
・「Tv − (TVD×N番目 − 遅延時間) > 0」を満たすこと。
算出方法:
・レンズ位置 = P1R − 戻り速度 × (TVD×N番目 − 遅延時間)/2
尚、P1Rはt=TVDでのレンズ位置を表す。
(3)「停止状態及び戻り状態及び安定状態」の場合 (図9(B)の1番目の露光が該当)
特定方法(判定条件):
・「遅延評価値数 > 停止状態評価値数」かつ「遅延評価値数が1」を満たすこと。
算出方法:
・レンズ位置 = P1R−要求速度 × (TVD− ( 遅延時間+戻り時間 ) )/2
− 戻り速度 × (TVD− 遅延時間)/2

(4)「戻り状態」の場合 (図10の2番目の露光が該当)
特定方法(判定条件):
・「遅延評価値数 > 停止状態評価値数」を満たすこと。
・「TVD×N番目− (遅延時間+戻り時間)」が負数であること。
・「Tv − (TVD×N番目− 遅延時間) < 0」を満たすこと。
算出方法:
・レンズ位置 = P1R − 戻り速度 × Tv/2

(5)「戻り状態および安定状態」の場合 (図10の3番目の露光が該当)
特定方法(判定条件):
・「遅延評価値数 > 停止状態評価値数」を満たすこと。
・「TVD×N番目− (遅延時間+戻り時間)」が正数であること。
算出方法:
・TVD×N番目− (遅延時間+戻り時間) > Tv/2 の場合
レンズ位置 = P3R − 要求速度×Tv/2
・上記以外
レンズ位置 = P3R − 要求速度×(TVD×N番目− (遅延時間+戻り時間))/2
− 戻り速度 ×(Tv − TVD×N番目− (遅延時間+戻り時間))/2
尚、P3Rはt=3×TVDでのレンズ位置を表す。
前記「N」は自然数変数を表わし、算定方法にて示すレンズ位置は補正されたフォーカスレンズの位置である。
(2) In the case of “stop state and return state” (the first exposure shown in FIG. 9A is applicable)
Specific method (judgment condition):
-"Delay evaluation value number> Stop state evaluation value number" and "Delay evaluation value number greater than 1" are satisfied.
• “T VD × Nth – (delay time + return time)” must be a negative number.
• “Tv − (T VD × Nth − delay time)> 0” must be satisfied.
Calculation method:
Lens position = P1 R -Return speed x (T VD x Nth-Delay time) / 2
Note that P1 R represents the lens position at t = T VD .
(3) In the case of “stop state, return state, and stable state” (corresponding to the first exposure in FIG. 9B)
Specific method (judgment condition):
-"Delay evaluation value number> Stop state evaluation value number" and "Delay evaluation value number is 1".
Calculation method:
・ Lens position = P1 R − Required speed × (T VD − (Delay time + Return time)) / 2
− Return speed × (T VD − Delay time) / 2

(4) In the “returned state” (the second exposure in FIG. 10 corresponds)
Specific method (judgment condition):
-“Delay evaluation value number> Stop state evaluation value number” must be satisfied.
• “T VD × Nth- (delay time + return time)” must be a negative number.
• “Tv − (T VD × Nth − delay time) <0” must be satisfied.
Calculation method:
Lens position = P1 R -Return speed x Tv / 2

(5) In the case of “returned state and stable state” (corresponding to the third exposure in FIG. 10)
Specific method (judgment condition):
-“Delay evaluation value number> Stop state evaluation value number” must be satisfied.
• “T VD × Nth – (delay time + return time)” must be a positive number.
Calculation method:
・ T VD × Nth − (Delay time + Return time)> Tv / 2 Lens position = P3 R − Required speed × Tv / 2
・ Other than above Lens position = P3 R -Required speed x (T VD x Nth- (Delay time + Return time)) / 2
− Return speed × (Tv − T VD × Nth − (Delay time + Return time)) / 2
P3 R represents the lens position at t = 3 × T VD .
The “N” represents a natural number variable, and the lens position indicated by the calculation method is the corrected focus lens position.

第1実施形態では、システム制御部115のROM領域にフォーカスレンズの遅れ特性情報を保持する。遅れ特性情報を用いて、レンズの動き出し時の焦点評価値に対応するレンズ位置が算出される。これにより、レンズ遅れの影響を受けた焦点評価値に対応するレンズ位置について、実際のレンズの軌跡を考慮した上で算出可能となる。したがって、レンズの動き出し時点付近での焦点評価値の信頼性を確保するとともに、レンズ遅れの影響を受ける焦点評価値を合焦判定に無駄なく使用できる。すなわち、レンズ遅れが生じる場合であっても、その影響を受ける評価値を有効に活用できる。
第1実施形態によれば、新たな位置検出センサ等を追加することなく、正しい傾向を持った焦点評価値を効率よく取得できる。よって、AF動作にかかる時間の短縮と合焦精度の向上との両立を実現できる。
In the first embodiment, the delay characteristic information of the focus lens is held in the ROM area of the system control unit 115. Using the delay characteristic information, the lens position corresponding to the focus evaluation value when the lens starts moving is calculated. As a result, the lens position corresponding to the focus evaluation value affected by the lens delay can be calculated in consideration of the actual lens trajectory. Therefore, it is possible to ensure the reliability of the focus evaluation value in the vicinity of the time when the lens starts moving, and to use the focus evaluation value affected by the lens delay without waste. That is, even when a lens delay occurs, an evaluation value affected by the influence can be used effectively.
According to the first embodiment, it is possible to efficiently acquire a focus evaluation value having a correct tendency without adding a new position detection sensor or the like. Therefore, it is possible to realize both shortening of the time required for the AF operation and improvement of focusing accuracy.

[第2実施形態]
次に本発明の第2実施形態を説明する。第2実施形態では合焦精度を重視し、信頼性の低い焦点評価値が合焦判定で使用されないように規制する。基本的な処理の流れは第1実施形態の場合と同様であり、よって相違点を中心に説明する。尚、第1実施形態の場合と同様の構成要素については既に使用した符号を用いることでそれらの詳細な説明を省略する。このような説明の省略の仕方は後述する実施形態でも同様である。第2実施形態では、図4のS404の処理を図11のフローチャートのように変更する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the second embodiment, focusing accuracy is emphasized, and a focus evaluation value with low reliability is regulated so as not to be used in focusing determination. The basic processing flow is the same as that of the first embodiment, and therefore the differences will be mainly described. In addition, about the component similar to the case of 1st Embodiment, those detailed description is abbreviate | omitted by using the code | symbol already used. The way of omitting such description is the same in the embodiments described later. In the second embodiment, the process of S404 of FIG. 4 is changed as shown in the flowchart of FIG.

まずS1101にて図5のS501の結果を参照し、現在のスキャン動作によって遅延評価値が何個発生するかが特定される。次のS1102からS1105に示す一連の処理では、取得済みの各焦点評価値に対してレンズ遅れの影響が判断される。これは、取得済みの焦点評価値を合焦判定において使用するか否かを判断することである。まず、S1102にてシステム制御部115は、チェック済みの焦点評価値の数が、遅延評価値数を超えたか否かについて判定する。チェック済みの焦点評価値の数が遅延評価値数を超えていない場合、次のS1103に処理を進め、チェック対象としている焦点評価値の補正量が算出される。ここでいう補正量とは、図5のS506にて算出したレンズ位置と、理想的な軌跡でレンズが移動した場合のレンズ位置との差であり、図9(A)ではP1とQ1の差となる。   First, in S1101, the result of S501 in FIG. 5 is referred to and how many delay evaluation values are generated by the current scanning operation is specified. In a series of processes from S1102 to S1105, the influence of the lens delay is determined for each acquired focus evaluation value. This is to determine whether or not the acquired focus evaluation value is used in the focus determination. First, in S1102, the system control unit 115 determines whether or not the number of checked focus evaluation values exceeds the number of delay evaluation values. When the number of checked focus evaluation values does not exceed the number of delayed evaluation values, the process proceeds to the next S1103, and the correction amount of the focus evaluation value to be checked is calculated. The correction amount here is the difference between the lens position calculated in S506 in FIG. 5 and the lens position when the lens moves along an ideal locus. In FIG. 9A, the difference between P1 and Q1. It becomes.

S1104にて、S1103で求めた補正量と許容補正量とが比較される。許容補正量とは、合焦精度が確保できるか否かを判断するための閾値であり、事前に決定しておくものとする。補正値が閾値以上である場合にはS1105に進む。チェック済みの焦点評価値を合焦判定に使用しないように無効化するデータが記憶される。無効化するデータは、合焦判定の対象から除外するために用いる情報を含む。尚、焦点評価値に対して、無効化するデータへの書き換えが行われない限り、当該焦点評価値は有効な評価値として扱われるものとする。その後、再度S1102に戻る。一方、S1104にて補正値が閾値未満であると判定された場合にはS1102に戻る。したがって、該当する焦点評価値が存在する限り、S1104の判定処理が継続し、S1102にてチェック対象の焦点評価値がなくなるとS1106に進む。S1106では、有効な焦点評価値のみを使って合焦位置を特定する処理が実行される。
第2実施形態では、レンズ遅れの影響を受けた焦点評価値のうち、影響の大きい評価値を除外し、影響の小さい評価値を使用して合焦位置を特定できるので、合焦精度の低下を抑えることができる。
In S1104, the correction amount obtained in S1103 is compared with the allowable correction amount. The allowable correction amount is a threshold value for determining whether or not focusing accuracy can be ensured, and is determined in advance. If the correction value is greater than or equal to the threshold value, the process proceeds to S1105. Data for invalidating the checked focus evaluation value so as not to be used for in-focus determination is stored. The data to be invalidated includes information used to exclude it from the focus determination target. Note that the focus evaluation value is treated as a valid evaluation value as long as the focus evaluation value is not rewritten to data to be invalidated. Thereafter, the process returns to S1102 again. On the other hand, if it is determined in S1104 that the correction value is less than the threshold value, the process returns to S1102. Therefore, as long as the corresponding focus evaluation value exists, the determination process in S1104 continues, and if there is no focus evaluation value to be checked in S1102, the process proceeds to S1106. In step S1106, processing for specifying the in-focus position using only valid focus evaluation values is executed.
In the second embodiment, since the evaluation value having a large influence is excluded from the focus evaluation values affected by the lens delay and the focusing position can be specified using the evaluation value having a small influence, the focusing accuracy is lowered. Can be suppressed.

[第3実施形態]
次に、本発明の第3実施形態を説明する。第3実施形態では、レンズ遅れの影響を受けた焦点評価値が合焦位置近傍に存在する場合にスキャン動作(焦点調節動作)を行う。このスキャン動作(以下、合わせこみスキャンという)は、合焦精度を維持するために実行される。第3実施形態では、図4を図12のフローチャートのように変更する。図12のS1201からS1204の処理は、図4のS401からS404と同じである。但し、S1201で決定するスキャン動作(以下、「粗いスキャン」という)の要求速度は、後述するS1207で決定する合わせこみスキャンの速度よりも速いものとする。
[Third embodiment]
Next, a third embodiment of the present invention will be described. In the third embodiment, the scan operation (focus adjustment operation) is performed when the focus evaluation value affected by the lens delay exists in the vicinity of the in-focus position. This scanning operation (hereinafter referred to as “alignment scanning”) is executed in order to maintain the focusing accuracy. In 3rd Embodiment, FIG. 4 is changed like the flowchart of FIG. The processing from S1201 to S1204 in FIG. 12 is the same as S401 to S404 in FIG. However, it is assumed that the required speed of the scanning operation determined in S1201 (hereinafter referred to as “rough scanning”) is faster than the speed of the alignment scanning determined in S1207 described later.

S1205にてシステム制御部115は、合焦位置近傍の遅れ判定を実施する。この判定処理では、直前のS1204で求めた合焦位置と、スキャン動作の開始直後の動き出し付近での遅延評価値との位置関係が判断される。図13は粗いスキャンの範囲と合わせこみスキャンの範囲を例示する。(a)に示す粗いスキャン範囲1301において、領域1301aは、レンズ遅れの影響を強く受ける領域を示し、レンズ位置の補正量が閾値以上である。領域1301aを除いた領域はレンズ遅れの影響を受けない領域である。(a)に示すように、粗いスキャンで検出した第1合焦位置が、合わせこみスキャンの実施判断領域に含まれるか否かについて判断される。尚、本実施形態では、合わせこみスキャンの実施判断領域を、遅延評価値が取得された領域+αとして設定し、αを予めパラメータとして決定しておくものとする。図13に示すように、粗いスキャンの合焦位置がP0の場合、S1205での判定結果は「合焦位置近傍に遅延評価値は存在しない」となる。また、粗いスキャンにより検出される第1合焦位置が、合わせこみスキャンの実施判断領域に含まれるP1の場合、判定結果は「合焦位置近傍に遅延評価値が存在する」となる。S1206では、S1205の判定結果を踏まえて、合焦位置近傍に遅延評価値が存在したか否かについて判断される。合焦位置近傍に遅延評価値が存在すると判断された場合、S1207へ進み、また、そのような遅延評価値が存在しない場合にはS1211に進む。S11211では、粗いスキャンで検出した合焦位置にフォーカスレンズを移動させる制御が行われる。   In step S1205, the system control unit 115 performs delay determination near the in-focus position. In this determination process, the positional relationship between the in-focus position obtained in the previous S1204 and the delay evaluation value near the start of movement immediately after the start of the scanning operation is determined. FIG. 13 illustrates the coarse scan range and the combined scan range. In the rough scan range 1301 shown in (a), a region 1301a is a region that is strongly influenced by the lens delay, and the correction amount of the lens position is greater than or equal to the threshold value. The area excluding the area 1301a is an area that is not affected by the lens delay. As shown in (a), it is determined whether or not the first in-focus position detected by the coarse scan is included in the execution determination area for the alignment scan. In this embodiment, it is assumed that the execution determination area for the alignment scan is set as an area + α from which the delay evaluation value is acquired, and α is determined in advance as a parameter. As shown in FIG. 13, when the focus position of the coarse scan is P0, the determination result in S1205 is “no delay evaluation value exists near the focus position”. When the first focus position detected by the coarse scan is P1 included in the focus scan execution determination area, the determination result is “the delay evaluation value exists near the focus position”. In S1206, based on the determination result in S1205, it is determined whether or not a delay evaluation value exists in the vicinity of the in-focus position. If it is determined that there is a delay evaluation value in the vicinity of the in-focus position, the process proceeds to S1207. If there is no such delay evaluation value, the process proceeds to S1211. In step S11211, control for moving the focus lens to the in-focus position detected by the coarse scan is performed.

S1207でシステム制御部115は、合わせこみスキャンの駆動条件を決定する。この合わせこみスキャンでの検出範囲は、図13の(b)のように粗いスキャンの合焦位置を中心として精度を保証したい範囲1302を含むように決定される。範囲1302において、領域1302aは許容できるレベルの影響を受ける領域を示し、レンズ位置の補正量が閾値未満である。領域1302aを除いた領域はレンズ遅れの影響を受けない領域である。このように、焦点評価値に対応するレンズ位置補正量が閾値以上である場合、当該レンズ位置を除外した検出範囲が決定される。合わせこみスキャンにより範囲1302内で第2合焦位置の探索が行われる。尚、精度を保証したい範囲1302については、焦点深度等を考慮し、必要な合焦精度が確保できるように決定されるものとする。また、合わせこみスキャンにおけるレンズの速度は、合焦精度を満たすべく決定した速度以下であって、かつレンズの遅れ特性情報に基づいて遅延評価値のレンズ位置補正量が規定値(閾値)未満となる速度に決定される。このように範囲と速度を決定することにより、合わせこみスキャンにおける合焦精度の維持と、無駄のない効率的なスキャン動作を実現できる。尚、S1208からS1210の処理は図4のS402からS404と同様である。   In step S1207, the system control unit 115 determines a driving condition for the alignment scan. The detection range in this alignment scan is determined so as to include a range 1302 in which accuracy is desired to be guaranteed with the coarse scan focus position as the center, as shown in FIG. In the range 1302, a region 1302a indicates a region affected by an allowable level, and the correction amount of the lens position is less than the threshold value. The area excluding the area 1302a is an area not affected by the lens delay. Thus, when the lens position correction amount corresponding to the focus evaluation value is greater than or equal to the threshold value, the detection range excluding the lens position is determined. A search for the second in-focus position is performed within the range 1302 by the alignment scan. It should be noted that the range 1302 for which accuracy is to be guaranteed is determined so as to ensure the required focusing accuracy in consideration of the depth of focus and the like. In addition, the lens speed in the alignment scan is equal to or less than the speed determined to satisfy the focusing accuracy, and the lens position correction amount of the delay evaluation value is less than the specified value (threshold value) based on the lens delay characteristic information. Determined to be a speed. By determining the range and the speed in this way, it is possible to maintain the focusing accuracy in the in-focus scanning and realize an efficient scanning operation without waste. Note that the processing from S1208 to S1210 is the same as S402 to S404 in FIG.

第3実施形態では、粗いスキャン(第1焦点調節動作)として高速なスキャン動作が先ず実施される。そして、レンズ遅れの影響を考慮すべく、検出された合焦位置とレンズ遅れの影響を受ける領域との位置関係より、合わせこみスキャン(第2焦点調節動作)の実施の可否が判断される。さらに、粗いスキャンの合焦位置を中心としてより狭い範囲で、かつレンズ遅れの影響を抑えた速度で合わせこみスキャンが実施される。これにより、AF動作における速度と合焦精度の両立を図ることができる。
尚、本実施形態では、合わせこみスキャンを実施の有無を決定する際に、合焦位置とレンズ遅れの影響を受ける領域との位置関係を判断した。さらには、最大のレンズ位置補正量が、合焦精度を維持可能な所定の範囲(判定基準範囲)内に収まっているか否かについての判定結果を、合わせこみスキャンの実施基準として採用してもよい。この場合、スキャン動作の要求速度から遅れ特性情報をもとに最大のレンズ位置補正量が特定され、この補正量が前記所定の範囲内であると判定された場合に合わせこみスキャンが実施される。
In the third embodiment, a high-speed scan operation is first performed as a rough scan (first focus adjustment operation). In order to consider the influence of the lens delay, whether or not the focusing scan (second focus adjustment operation) can be performed is determined from the positional relationship between the detected focus position and the area affected by the lens delay. Further, the in-line scan is performed in a narrower range around the focus position of the coarse scan and at a speed that suppresses the influence of the lens delay. Thereby, both the speed and the focusing accuracy in the AF operation can be achieved.
In this embodiment, when determining whether or not to perform the alignment scan, the positional relationship between the in-focus position and the area affected by the lens delay is determined. Furthermore, even if the determination result as to whether or not the maximum lens position correction amount is within a predetermined range (determination reference range) where the focusing accuracy can be maintained is adopted as an execution reference for the fitting scan. Good. In this case, the maximum lens position correction amount is identified from the required speed of the scanning operation based on the delay characteristic information, and the adjustment scan is performed when it is determined that the correction amount is within the predetermined range. .

[第4実施形態]
次に、本発明の第4実施形態を説明する。第4実施形態でも合わせこみスキャンを行う点で基本的な処理の流れは第3実施形態と同様である。第4実施形態では図12のS1207の処理内容を変更し、レンズ遅れの影響を考慮して、合わせこみスキャンを実施する範囲を設定する。図14は粗いスキャンの範囲1401と合わせこみスキャンの範囲1403を例示する。
[Fourth embodiment]
Next, a fourth embodiment of the present invention will be described. In the fourth embodiment, the basic processing flow is the same as that of the third embodiment in that the alignment scan is performed. In the fourth embodiment, the processing content of S1207 in FIG. 12 is changed, and the range for performing the alignment scan is set in consideration of the influence of the lens delay. FIG. 14 illustrates a coarse scan range 1401 and a merged scan range 1403.

図14の(a)では、粗いスキャンにおける合焦位置が合わせこみスキャンの実施判断領域内に存在し、合わせこみスキャンを実施する条件が成立した場合を示す。合わせこみスキャン時のレンズ速度については、合焦精度や焦点深度等を考慮して決定されているものとする。その際、スキャン動作の要求速度を使用し、第1実施形態で説明した遅延評価値の特定処理を適用することで、レンズ遅れの影響を受ける遅延評価値の数を特定することができる。本来は、図14に破線で示すブロック1402のように、精度を保証したい範囲内で取得される焦点評価値の一部がレンズ遅れの影響を受けることになるが、この影響を受ける焦点評価値を特定できる。システム制御部115は逆算により、その一部の範囲を、図14の(b)のように拡張する処理を行う。合わせこみスキャンの範囲1403において、領域1403aはレンズ遅れの影響を受ける領域であり、精度を保証したい範囲から除外される。つまり、範囲1403にて、ブロック1402に相当する領域内ではレンズ遅れの影響を受けない。これにより、本実施形態では粗いスキャンの合焦位置近傍で高い精度を確保することが可能となる。   FIG. 14A shows a case where the in-focus position in the coarse scan exists in the alignment scan execution determination area, and the conditions for executing the alignment scan are satisfied. It is assumed that the lens speed during the alignment scan is determined in consideration of the focusing accuracy, the focal depth, and the like. At this time, the number of delay evaluation values affected by the lens delay can be specified by using the required speed of the scan operation and applying the delay evaluation value specifying process described in the first embodiment. Originally, as in a block 1402 indicated by a broken line in FIG. 14, a part of the focus evaluation value acquired within a range in which accuracy is to be guaranteed is affected by the lens delay. Can be identified. The system control unit 115 performs a process of extending a part of the range as shown in FIG. In the alignment scan range 1403, a region 1403a is affected by the lens delay and is excluded from the range where accuracy is desired to be guaranteed. That is, in the area 1403, the area corresponding to the block 1402 is not affected by the lens delay. Thereby, in this embodiment, it is possible to ensure high accuracy in the vicinity of the focus position of the coarse scan.

尚、本発明は前記実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の様々な形態も本発明の技術的範囲に含まれる。前記実施形態の一部を適宜組み合わせてもよい。例えば、フォーカスレンズの動き出しの遅れ特性については、撮像装置の姿勢によって変化し得る。そこで、撮像装置の姿勢(上向き、下向き等)を検出し、検出情報に応じて図8に例示した遅れ特性情報をメモリに保持する処理が実行される。姿勢検出情報に応じてレンズの遅れ特性情報を選択して使用することで合焦精度を向上させることができる。具体的には、図6のS602にて、姿勢センサ121の検出情報を取得し、姿勢検出結果に対応するレンズの遅れ特性情報の表を選択する処理が実行される。スキャン動作時の要求速度に応じてレンズの遅れ特性情報が選択されて適切なレンズ位置補正処理が行われる。   Note that the present invention is not limited to the above-described embodiment, and various forms within the scope of the present invention are also included in the technical scope of the present invention. A part of the embodiments may be appropriately combined. For example, the delay characteristic of the movement of the focus lens can change depending on the attitude of the imaging device. Therefore, a process of detecting the posture (upward, downward, etc.) of the imaging device and holding the delay characteristic information illustrated in FIG. 8 in the memory according to the detection information is executed. Focus accuracy can be improved by selecting and using lens delay characteristic information according to the posture detection information. Specifically, in S602 of FIG. 6, processing for acquiring detection information of the posture sensor 121 and selecting a table of lens delay characteristic information corresponding to the posture detection result is executed. Lens delay characteristic information is selected according to the required speed during the scanning operation, and appropriate lens position correction processing is performed.

[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

104 フォーカスレンズ制御部
105 AF処理部
108 撮像素子
109 撮像処理部
115 システム制御部
DESCRIPTION OF SYMBOLS 104 Focus lens control part 105 AF process part 108 Image pick-up element 109 Imaging process part 115 System control part

Claims (12)

撮像光学系を介して結像した光を光電変換して映像信号を生成する撮像素子と、
前記撮像光学系を構成する焦点調節用のレンズを移動させる駆動手段と、
前記映像信号を用いて画像の鮮鋭度を示す評価値を算出する評価値算出手段と、
前記レンズが動き出すときの遅れ特性を示す特性情報を記憶する記憶手段と、
前記レンズを駆動しながら前記評価値算出手段から前記評価値を取得するとともに、当該評価値を取得したときの前記レンズの位置情報を当該評価値に対応付ける処理を行って合焦位置を特定し、前記駆動手段を制御して焦点調節を行う制御手段を備え、
前記制御手段は、前記対応付ける処理を行う際、前記記憶手段から前記特性情報を取得し、前記評価値を取得したときの前記撮像素子の露光条件を特定して、前記レンズの動き出しの遅れの影響を受けた前記評価値に対応する前記レンズの位置情報を補正することを特徴とする撮像装置。
An image sensor that photoelectrically converts light imaged via an imaging optical system to generate a video signal; and
Driving means for moving a focus adjusting lens constituting the imaging optical system;
Evaluation value calculation means for calculating an evaluation value indicating the sharpness of an image using the video signal;
Storage means for storing characteristic information indicating a delay characteristic when the lens starts to move;
While obtaining the evaluation value from the evaluation value calculation means while driving the lens, and specifying the in-focus position by performing a process of associating the position information of the lens when the evaluation value is acquired with the evaluation value, Control means for controlling the driving means to adjust the focus,
The control unit acquires the characteristic information from the storage unit when performing the association process, specifies the exposure condition of the image sensor when the evaluation value is acquired, and affects the delay in the movement of the lens The imaging apparatus corrects position information of the lens corresponding to the evaluation value received.
前記制御手段は、前記レンズの動き出しの遅れにより前記レンズが停止した状態で取得した前記評価値、または前記停止した状態から前記レンズが移動を開始した状態で取得した前記評価値を特定することを特徴とする請求項1に記載の撮像装置。   The control means specifies the evaluation value acquired when the lens is stopped due to a delay in movement of the lens, or the evaluation value acquired when the lens starts moving from the stopped state. The imaging apparatus according to claim 1, wherein the imaging apparatus is characterized. 前記特性情報は、前記レンズが動き出すまでの遅延時間の情報を含んでおり、
前記制御手段は、前記特性情報の示す遅延時間内で前記レンズが停止状態にあると判定した場合、前記評価値算出手段から取得した前記評価値に対応付ける前記レンズの位置として、前記レンズの移動の開始位置を設定することを特徴とする請求項1または2に記載の撮像装置。
The characteristic information includes information on a delay time until the lens starts to move,
When the control means determines that the lens is in a stopped state within the delay time indicated by the characteristic information, the control means moves the lens as the position of the lens associated with the evaluation value acquired from the evaluation value calculation means. The imaging apparatus according to claim 1, wherein a start position is set.
前記特性情報は、前記レンズの動き出しに遅れがない場合において当該レンズが移動する軌跡に戻るまでの戻り時間および戻り速度の情報を含んでおり、
前記制御手段は、前記特性情報の示す戻り時間内に前記レンズが移動していると判定した場合、前記評価値算出手段から取得した前記評価値に対応付ける前記レンズの位置情報について、前記戻り速度および前記撮像素子の露光時間の情報を用いて補正することを特徴とする請求項1ないし3のいずれか1項に記載の撮像装置。
The characteristic information includes information on a return time and a return speed until the lens returns to a trajectory when the lens starts moving without delay.
When it is determined that the lens is moving within the return time indicated by the characteristic information, the control means determines the return speed and the position information of the lens associated with the evaluation value acquired from the evaluation value calculation means. The imaging apparatus according to claim 1, wherein correction is performed using information on an exposure time of the imaging element.
前記制御手段は、前記レンズの動き出しの遅れの影響を受けていないと判定した前記評価値に対応付ける前記レンズの位置情報として、露光期間の中央の時刻における前記レンズの位置を算出することを特徴とする請求項1ないし4のいずれか1項に記載の撮像装置。   The control means calculates a position of the lens at a central time of an exposure period as position information of the lens associated with the evaluation value determined not to be affected by a delay in movement of the lens. The imaging device according to any one of claims 1 to 4. 前記制御手段は、前記レンズの動き出しの遅れの影響を受けた前記評価値を特定し、当該評価値に対応する前記レンズの位置情報を補正する際、補正量が閾値以上である場合には当該評価値を合焦判定の対象から除外することを特徴とする請求項1ないし5のいずれか1項に記載の撮像装置。   The control means identifies the evaluation value affected by the delay in the movement of the lens, and corrects the position information of the lens corresponding to the evaluation value, and if the correction amount is equal to or greater than a threshold value, 6. The imaging apparatus according to claim 1, wherein the evaluation value is excluded from a focus determination target. 前記制御手段は、第1焦点調節動作において検出された第1合焦位置の近傍に、前記レンズの遅れの影響を受けた評価値が存在すると判断した場合、前記1焦点調節動作とは異なる駆動条件の第2焦点調節動作にて前記第1合焦位置およびその近傍を含む検出範囲を決定して、第2合焦位置を探索することを特徴とする請求項1ないし6のいずれか1項に記載の撮像装置。   When the control means determines that an evaluation value affected by the delay of the lens is present in the vicinity of the first focus position detected in the first focus adjustment operation, the drive is different from the one focus adjustment operation. 7. The second focus position is searched by determining a detection range including the first focus position and its vicinity by a second focus adjustment operation under conditions. The imaging device described in 1. 前記制御手段は、前記第2焦点調節動作を実施する際の駆動条件として、前記レンズの動き出しの遅れの影響を受けた前記評価値に対応する前記レンズの位置情報の補正量が閾値よりも小さくなる前記レンズの駆動速度を決定することを特徴とする請求項7の撮像装置。   The control means has a correction amount of the lens position information corresponding to the evaluation value that is affected by a delay in the movement of the lens as a driving condition for performing the second focus adjustment operation, which is smaller than a threshold value. The imaging apparatus according to claim 7, wherein a driving speed of the lens is determined. 前記制御手段は、前記第2焦点調節動作を実施する際、前記レンズの動き出しの遅れの影響を受けた前記評価値を特定し、当該評価値に対応する前記レンズの位置情報の補正量が閾値以上である場合、当該レンズの位置情報の示す位置を除外した前記検出範囲を決定することを特徴とする請求項7または8に記載の撮像装置。   When the second focus adjustment operation is performed, the control unit specifies the evaluation value affected by a delay in the movement of the lens, and a correction amount of the position information of the lens corresponding to the evaluation value is a threshold value 9. The imaging apparatus according to claim 7, wherein the detection range excluding the position indicated by the position information of the lens is determined in the case described above. 前記制御手段は、前記第2焦点調節動作を実施する際、前記検出範囲を拡張する処理を行い、前記レンズの動き出しの遅れの影響を受ける前記評価値に対応する前記レンズの位置を、前記第1合焦位置の近傍から除外して前記第2合焦位置を探索することを特徴とする請求項7または8に記載の撮像装置。   The control means performs a process of extending the detection range when performing the second focus adjustment operation, and determines the position of the lens corresponding to the evaluation value affected by a delay in movement of the lens. The imaging apparatus according to claim 7 or 8, wherein the second focusing position is searched by excluding from the vicinity of one focusing position. 前記撮像装置の姿勢を検出する姿勢検出手段を備え、
前記制御手段は前記姿勢検出手段から検出情報を取得して対応する前記特性情報を選択することを特徴とする請求項1ないし10のいずれか1項に記載の撮像装置。
A posture detecting means for detecting the posture of the imaging device;
The imaging device according to claim 1, wherein the control unit acquires detection information from the posture detection unit and selects the corresponding characteristic information.
撮像光学系を介して結像した光を光電変換して映像信号を生成する撮像素子と、
前記撮像光学系を構成する焦点調節用のレンズを移動させる駆動手段と、
前記映像信号を用いて画像の鮮鋭度を示す評価値を算出する評価値算出手段と、
前記レンズが動き出すときの遅れ特性を示す特性情報を記憶する記憶手段と、
前記レンズを駆動しながら前記評価値算出手段から前記評価値を取得して前記駆動手段を制御して焦点調節を行う制御手段を備えた撮像装置にて実行される制御方法であって、
前記レンズを駆動しながら前記評価値算出手段から前記評価値を取得するステップと、
前記評価値を取得したときの前記レンズの位置情報を当該評価値に対応付ける処理を行って合焦位置を特定する際、前記記憶手段から取得した前記特性情報を用いて、前記評価値を取得したときの前記撮像素子の露光条件を特定し、前記レンズの動き出しの遅れの影響を受けた前記評価値に対応する前記レンズの位置情報を補正するステップを有することを特徴とする撮像装置の制御方法。
An image sensor that photoelectrically converts light imaged via an imaging optical system to generate a video signal; and
Driving means for moving a focus adjusting lens constituting the imaging optical system;
Evaluation value calculation means for calculating an evaluation value indicating the sharpness of an image using the video signal;
Storage means for storing characteristic information indicating a delay characteristic when the lens starts to move;
A control method executed by an imaging apparatus including a control unit that acquires the evaluation value from the evaluation value calculation unit while driving the lens and controls the driving unit to perform focus adjustment,
Obtaining the evaluation value from the evaluation value calculating means while driving the lens;
When specifying the in-focus position by performing processing for associating the lens position information with the evaluation value when the evaluation value is acquired, the evaluation value is acquired using the characteristic information acquired from the storage unit. And a step of correcting the position information of the lens corresponding to the evaluation value affected by the delay of the start of movement of the lens. .
JP2013048973A 2013-03-12 2013-03-12 Image capturing device and control method therefor Pending JP2014174441A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013048973A JP2014174441A (en) 2013-03-12 2013-03-12 Image capturing device and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013048973A JP2014174441A (en) 2013-03-12 2013-03-12 Image capturing device and control method therefor

Publications (1)

Publication Number Publication Date
JP2014174441A true JP2014174441A (en) 2014-09-22

Family

ID=51695688

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013048973A Pending JP2014174441A (en) 2013-03-12 2013-03-12 Image capturing device and control method therefor

Country Status (1)

Country Link
JP (1) JP2014174441A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017151139A (en) * 2016-02-22 2017-08-31 キヤノン株式会社 Lens drive device, imaging apparatus, control method thereof, and control program
WO2020059152A1 (en) * 2018-09-21 2020-03-26 ソニー株式会社 Control device, imaging device, information processing device, and control method
CN115983297A (en) * 2023-03-17 2023-04-18 深圳思谋信息科技有限公司 Code scanning device debugging method and device, computer device and storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017151139A (en) * 2016-02-22 2017-08-31 キヤノン株式会社 Lens drive device, imaging apparatus, control method thereof, and control program
WO2020059152A1 (en) * 2018-09-21 2020-03-26 ソニー株式会社 Control device, imaging device, information processing device, and control method
CN115983297A (en) * 2023-03-17 2023-04-18 深圳思谋信息科技有限公司 Code scanning device debugging method and device, computer device and storage medium

Similar Documents

Publication Publication Date Title
US10462374B2 (en) Zooming control apparatus, image capturing apparatus and control methods thereof
US7620311B2 (en) Auto-focus apparatus. image-capture apparatus, and auto-focus method
US9986148B2 (en) Image capturing terminal and image capturing method
CN102694974B (en) Focus detection apparatus, method for controlling the same, and image capturing apparatus
JP5483953B2 (en) Focus adjustment device, focus adjustment method and program
US11223774B2 (en) Imaging apparatus, lens apparatus, and method for controlling the same
US9729774B2 (en) Imaging device, autofocus method and program of the same
CN101677360B (en) Imaging apparatus and control method
JP5213813B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2014056032A (en) Imaging apparatus
KR20150074641A (en) Auto focus adjusting method and auto focus adjusting apparatus
CN101945221B (en) Image pickup apparatus and control method thereof
JP2004264827A (en) Method for detecting focal distance and focusing device
JP5762156B2 (en) IMAGING DEVICE, FOCUS ADJUSTMENT METHOD, AND PROGRAM
US11095798B2 (en) Image capturing system, image capturing apparatus, and control method of the same
US9036075B2 (en) Image pickup apparatus, method for controlling the same, and storage medium
JP6808340B2 (en) Lens control device, control method
JP2014174441A (en) Image capturing device and control method therefor
US20190191091A1 (en) Image capturing apparatus, control method thereof, and non-transitory computer-readable storage medium
WO2019146164A1 (en) Imaging device, imaging method, and program
US9282234B2 (en) Focus adjustment apparatus and method, and image capturing apparatus
JP2015040930A (en) Image-capturing device, image-capturing system, method for controlling image-capturing device, program, and recording medium
JP6032884B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM
JP5322842B2 (en) Automatic focusing device, automatic focusing method and program
JP2006065337A (en) Automatic focusing device, camera, portable information input device, focused position detecting method, and recording medium readable by computer