JP2017223741A - Imaging device and control method thereof - Google Patents

Imaging device and control method thereof Download PDF

Info

Publication number
JP2017223741A
JP2017223741A JP2016117277A JP2016117277A JP2017223741A JP 2017223741 A JP2017223741 A JP 2017223741A JP 2016117277 A JP2016117277 A JP 2016117277A JP 2016117277 A JP2016117277 A JP 2016117277A JP 2017223741 A JP2017223741 A JP 2017223741A
Authority
JP
Japan
Prior art keywords
state
evaluation value
image
focus
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016117277A
Other languages
Japanese (ja)
Other versions
JP6740019B2 (en
Inventor
直幸 大原
Naoyuki Ohara
直幸 大原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016117277A priority Critical patent/JP6740019B2/en
Publication of JP2017223741A publication Critical patent/JP2017223741A/en
Application granted granted Critical
Publication of JP6740019B2 publication Critical patent/JP6740019B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device and its control method that can improve accuracy of a reliability determination in focus detection.SOLUTION: An imaging device is configured to acquire a pair of image signals varying in accordance with a focus state of an imaging optical system to implement focus detection. In phase difference AF (autofocus) processing, a correlation computation is implemented that uses the pair of image signals, and an amount of correlation and amount of image deviation are calculated. In the correlation computation, a first evaluation value in a first area (window area) where a correlation between the image signals is checked is calculated, and a second evaluation in a second area (viewing field area) broader than the first area is calculated. In focus control, a reliability determination with respect to an amount of image deviation between the pair of image signals is made by selecting the first evaluation value or increasing a ratio of the first evaluation value when the focus state is a focusing state or a state in the vicinity of focusing, or by selecting the second evaluation value or increasing a ratio of the second evaluation value when the focus state is not the focusing state.SELECTED DRAWING: Figure 9

Description

本発明は、デジタルカメラやビデオカメラなどの撮像装置の焦点検出に関する。   The present invention relates to focus detection of an imaging apparatus such as a digital camera or a video camera.

撮像装置のオートフォーカス(AF)方式として、位相差検出方式の焦点調節(以下、位相差AFと記す)がある。位相差AFでは、撮影レンズの射出瞳を通過した光束が分割されて複数の焦点検出用センサがそれぞれ受光する。複数の焦点検出用センサが出力する各信号のずれ量、すなわち、光束の分割方向の相対的な位置ずれ量(以下、像ずれ量と記す)を検出することで、撮影レンズの焦点ずれ量(以下、デフォーカス量と記す)が算出される。デフォーカス量に基づいてフォーカスレンズが駆動制御される。また、撮像面位相差検出方式の撮像素子を搭載した撮像装置は、専用の焦点検出用センサが不要であり、高速に位相差AFを実現できる。撮像素子の画素を構成する複数の光電変換部により瞳分割された画素信号が得られる。画素信号に基づく複数の画像信号を個別に処理することで焦点検出が行われるとともに、画素信号の合算出力が撮像画像信号として用いられる。   As an autofocus (AF) system of the imaging apparatus, there is a phase difference detection type focus adjustment (hereinafter referred to as phase difference AF). In the phase difference AF, the light beam that has passed through the exit pupil of the photographing lens is divided and each of the plurality of focus detection sensors receives light. By detecting the shift amount of each signal output by the plurality of focus detection sensors, that is, the relative positional shift amount in the beam splitting direction (hereinafter referred to as image shift amount), the focus shift amount ( Hereinafter, the defocus amount is calculated). The focus lens is driven and controlled based on the defocus amount. In addition, an image pickup apparatus equipped with an image pickup surface phase difference detection type image sensor does not require a dedicated focus detection sensor, and can realize phase difference AF at high speed. A pixel signal obtained by pupil division by a plurality of photoelectric conversion units constituting pixels of the image sensor is obtained. Focus detection is performed by individually processing a plurality of image signals based on the pixel signals, and the combined calculation power of the pixel signals is used as a captured image signal.

特許文献1には、位相差AFにかかる演算時間を短縮するための技術が開示されている。像ずれ量を算出する演算を行うべきか否かについて、算出した画像信号のコントラストから判定され、像ずれ量の算出後に改めてコントラストを算出することで最終判定が行われる。特許文献2には、撮像面位相差AFにて、画像信号から算出されたコントラストの結果に基づいて撮像面位相差AFの信頼性を判定する処理が開示されている。デフォーカス量が大きく、コントラスト値が大きい場合に信頼性が低いと判定される。   Patent Document 1 discloses a technique for reducing the calculation time required for phase difference AF. Whether or not to calculate the image shift amount is determined from the contrast of the calculated image signal, and the final determination is performed by calculating the contrast again after the image shift amount is calculated. Patent Document 2 discloses processing for determining the reliability of the imaging surface phase difference AF based on the result of contrast calculated from the image signal in the imaging surface phase difference AF. When the defocus amount is large and the contrast value is large, it is determined that the reliability is low.

特開2003−172870号公報JP 2003-172870 A 特開2013−171257号公報JP 2013-171257 A

焦点検出領域に相当する画像内のAF枠(検出枠)の数を増やすためには、位相差AFの演算の高速化が必要である。そのためには、像ずれ量とコントラストを並列演算で同時に算出することが必要である。しかし、特許文献1および特許文献2に開示の構成では、像ずれ量に応じた適切な範囲となるようにコントラストの算出範囲を変更することができない。つまり、並列処理にて、コントラストの算出範囲を、算出後の像ずれ量に応じて適切な範囲に設定できないため、コントラストを用いた信頼性判定の精度が安定しない可能性がある。
本発明の目的は、焦点検出における信頼性判定の精度を向上させることが可能な撮像装置およびその制御方法を提供することである。
In order to increase the number of AF frames (detection frames) in the image corresponding to the focus detection area, it is necessary to speed up the calculation of the phase difference AF. For this purpose, it is necessary to simultaneously calculate the image shift amount and the contrast by parallel calculation. However, in the configurations disclosed in Patent Document 1 and Patent Document 2, the contrast calculation range cannot be changed so as to be an appropriate range according to the image shift amount. That is, in parallel processing, the contrast calculation range cannot be set to an appropriate range according to the image shift amount after calculation, and therefore the accuracy of reliability determination using contrast may not be stable.
An object of the present invention is to provide an imaging apparatus capable of improving the accuracy of reliability determination in focus detection and a control method thereof.

本発明の一実施形態の撮像装置は、撮像光学系の焦点状態により変化する一対の像信号を取得して焦点検出を行う撮像装置であって、前記一対の像信号を用いて相関演算を行い、相関量および像ずれ量を算出するとともに、焦点検出用に設定される複数の領域からそれぞれ評価値を算出し、前記焦点状態を表わす指標を算出する算出手段と、前記評価値および指標を用いて前記像ずれ量の信頼性を判定し、信頼性があると判定した前記像ずれ量を用いて焦点調節の制御を行う制御手段と、を有する。前記算出手段は、前記焦点状態が第1の状態である場合、前記複数の領域のうち、第1の領域で算出された第1の評価値の割合を高くし、前記焦点状態が第2の状態である場合、前記複数の領域のうち、前記第1の領域よりも広い第2の領域で算出された第2の評価値の割合を高くする。   An imaging apparatus according to an embodiment of the present invention is an imaging apparatus that performs focus detection by acquiring a pair of image signals that change depending on a focus state of an imaging optical system, and performs a correlation calculation using the pair of image signals. Calculating a correlation amount and an image shift amount, calculating an evaluation value from each of a plurality of areas set for focus detection, and calculating an index representing the focus state, and using the evaluation value and the index Control means for determining the reliability of the image shift amount and controlling the focus adjustment using the image shift amount determined to be reliable. When the focus state is the first state, the calculation unit increases the ratio of the first evaluation value calculated in the first region among the plurality of regions, and the focus state is the second state. In the case of the state, the ratio of the second evaluation value calculated in the second region wider than the first region among the plurality of regions is increased.

本発明の撮像装置によれば、焦点検出における信頼性判定の精度を向上させることができる。   According to the imaging apparatus of the present invention, the accuracy of reliability determination in focus detection can be improved.

本発明の実施例における撮像装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the imaging device in the Example of this invention. 本発明の実施例における撮像装置の撮像動作を示すフローチャートである。It is a flowchart which shows the imaging operation of the imaging device in the Example of this invention. 本発明の実施例における撮像素子を説明する図である。It is a figure explaining the image pick-up element in the Example of this invention. 本発明の実施例における撮影レンズの瞳分割を説明する図である。It is a figure explaining the pupil division of the photographic lens in the Example of the present invention. 本発明の実施例における焦点検出領域を示す図である。It is a figure which shows the focus detection area | region in the Example of this invention. 本発明の実施例における焦点検出領域の画素配列を模式的に示す図である。It is a figure which shows typically the pixel arrangement | sequence of the focus detection area | region in the Example of this invention. 本発明の実施例における像信号および相関量波形を例示する図である。It is a figure which illustrates the image signal and correlation amount waveform in the Example of this invention. 本発明の実施例における位相差AF処理部のブロック図である。It is a block diagram of a phase difference AF processing unit in an embodiment of the present invention. 本発明の実施例における焦点検出領域の詳細を示す図である。It is a figure which shows the detail of the focus detection area | region in the Example of this invention. 本発明の実施例における撮像光学系を説明する図である。It is a figure explaining the imaging optical system in the Example of this invention. 本発明の実施例1における焦点検出動作を示すフローチャートである。It is a flowchart which shows the focus detection operation | movement in Example 1 of this invention. 本発明の実施例におけるボケ評価値に応じた合成の割合を示す図である。It is a figure which shows the ratio of the synthesis | combination according to the blur evaluation value in the Example of this invention. 本発明の実施例における焦点調節動作を示すフローチャートである。It is a flowchart which shows the focus adjustment operation | movement in the Example of this invention. 本発明の実施例2における焦点検出動作を示すフローチャートである。It is a flowchart which shows the focus detection operation | movement in Example 2 of this invention. 本発明の実施例3における信頼性判定動作を示すフローチャートである。It is a flowchart which shows the reliability determination operation | movement in Example 3 of this invention.

以下、本発明の各実施例について、図面を参照しながら詳細に説明する。なお、各図にて同一の構成要素については同一の参照番号を付すことにより、重複する説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, the same components are denoted by the same reference numerals, and redundant description is omitted.

[実施例1]
まず、図1を参照して、本発明の実施例1の撮像装置について説明する。図1は、撮像装置100の構成例を示すブロック図である。撮像装置100はビデオカメラやデジタルスチルカメラなどであり、被写体を撮像して、動画や静止画のデータをテープや固体メモリ、光ディスクや磁気ディスクなどの各種メディアに記録可能である。撮像装置100内の各部はバス160を介して接続され、メインCPU(中央演算処理装置)151により制御される。
[Example 1]
First, with reference to FIG. 1, an imaging apparatus according to a first embodiment of the present invention will be described. FIG. 1 is a block diagram illustrating a configuration example of the imaging apparatus 100. The imaging apparatus 100 is a video camera, a digital still camera, or the like, and can capture a subject and record moving image and still image data on various media such as a tape, a solid-state memory, an optical disk, and a magnetic disk. Each unit in the imaging apparatus 100 is connected via a bus 160 and is controlled by a main CPU (central processing unit) 151.

撮影レンズ部101は、第1の固定レンズ群102、ズームレンズ111、絞り103、第2の固定レンズ群121、フォーカスレンズ131を備える。撮影レンズ部101はカメラ本体部に装着されるか、あるいはカメラ本体部に設けられている。絞り制御部105は、メインCPU151の指令に従い、絞りモータ104を介して絞り103を駆動することにより、絞り103の開口径を調整して撮影時の光量調節を行う。ズーム制御部113は、ズームモータ112を介してズームレンズ111を駆動することにより、焦点距離を変更する。フォーカス制御部133は、フォーカスモータ132を介してフォーカスレンズ131を駆動することにより、焦点状態(フォーカス状態)を制御する。図1では焦点調節用レンズであるフォーカスレンズ131を単レンズとして簡略的に示すが、通常複数のレンズで構成される。   The photographic lens unit 101 includes a first fixed lens group 102, a zoom lens 111, a diaphragm 103, a second fixed lens group 121, and a focus lens 131. The taking lens unit 101 is attached to the camera body or is provided on the camera body. The diaphragm control unit 105 adjusts the light amount at the time of shooting by adjusting the aperture diameter of the diaphragm 103 by driving the diaphragm 103 via the diaphragm motor 104 in accordance with a command from the main CPU 151. The zoom control unit 113 changes the focal length by driving the zoom lens 111 via the zoom motor 112. The focus control unit 133 controls the focus state (focus state) by driving the focus lens 131 via the focus motor 132. In FIG. 1, the focus lens 131 that is a focus adjustment lens is simply shown as a single lens, but it is usually composed of a plurality of lenses.

撮像素子141は、1つのマイクロレンズを共有する複数の光電変換部を備える、瞳分割型の撮像素子である。つまり、撮像素子141が出力する画像信号を用いて位相差方式の焦点検出が行われる。撮影レンズ部101により撮像素子141上に結像される被写体像は、撮像素子141により電気信号に光電変換される。撮像素子141は、mおよびnを自然数の変数として、横(水平)方向にm画素で、縦(垂直)方向にn画素の受光素子を2次元アレイ状に配列した構成を有する。後述のように各マイクロレンズに対応する画素部は複数の光電変換素子を備える。撮像素子141により出力される電気信号は、撮像信号処理部142が処理し、画像信号として整える。   The image sensor 141 is a pupil-division type image sensor including a plurality of photoelectric conversion units sharing one microlens. That is, phase difference focus detection is performed using the image signal output from the image sensor 141. A subject image formed on the image sensor 141 by the photographing lens unit 101 is photoelectrically converted into an electric signal by the image sensor 141. The image sensor 141 has a configuration in which m and n are variables of natural numbers and m pixels in the horizontal (horizontal) direction and n pixels in the vertical (vertical) direction are arranged in a two-dimensional array. As will be described later, the pixel portion corresponding to each microlens includes a plurality of photoelectric conversion elements. The electrical signal output by the imaging element 141 is processed by the imaging signal processing unit 142 and arranged as an image signal.

位相差AF処理部135は、複数の画像信号を撮像信号処理部142より取得する。複数の画像信号とは、例えば画素部を構成する第1および第2の光電変換素子から個別に出力された画像信号(信号値)である。第1および第2の光電変換素子はそれぞれ独立して信号を出力するため、被写体からの光を分割して得られた像の分割方向における像ずれ量を算出することができる。つまり、撮影レンズ部101の異なる瞳部分領域をそれぞれ通過した光束を、第1および第2の光電変換素子がそれぞれ受光して光電変換した信号に基づいて位相差検出が行われる。また位相差AF処理部135は、像ずれ量を検出するにあたり、位相差AFに関する評価値を算出する。この評価値は、複数の画像信号のコントラスト値などにより算出される。位相差AF処理部135は、算出後の像ずれ量および評価値をフォーカス制御部133へ出力する。   The phase difference AF processing unit 135 acquires a plurality of image signals from the imaging signal processing unit 142. The plurality of image signals are, for example, image signals (signal values) output individually from the first and second photoelectric conversion elements constituting the pixel unit. Since the first and second photoelectric conversion elements each independently output a signal, it is possible to calculate the image shift amount in the division direction of the image obtained by dividing the light from the subject. That is, phase difference detection is performed based on signals obtained by the first and second photoelectric conversion elements respectively receiving and photoelectrically converting light beams that have passed through different pupil partial regions of the photographing lens unit 101. Further, the phase difference AF processing unit 135 calculates an evaluation value related to the phase difference AF when detecting the image shift amount. This evaluation value is calculated from the contrast values of a plurality of image signals. The phase difference AF processing unit 135 outputs the calculated image shift amount and evaluation value to the focus control unit 133.

フォーカス制御部133は、位相差AF処理部135から取得した像ずれ量に基づいて撮影レンズ部101のデフォーカス量を算出する。デフォーカス量は、像ずれ量に対して所定の係数(換算係数)を乗算することにより算出される。またフォーカス制御部133は、位相差AF処理部135から取得した評価値を用いて信頼性判定を行う。信頼性判定とは、検出された像ずれ量またはデフォーカス量が信頼できるか否かを判定することである。フォーカス制御部133は、デフォーカス量および信頼性判定の結果に基づいてフォーカスモータ132の駆動量を決定する。フォーカス制御部133は駆動量にしたがってフォーカスモータ132の駆動制御を行う。フォーカスレンズ131の移動制御により、AF制御が実現される。なお、デフォーカス量の算出および信頼性判定の各処理はメインCPU151の指令に基づいてフォーカス制御部133が行う。これらの処理の少なくとも一部をメインCPU151が実行する構成にしてもよい。   The focus control unit 133 calculates the defocus amount of the photographing lens unit 101 based on the image shift amount acquired from the phase difference AF processing unit 135. The defocus amount is calculated by multiplying the image shift amount by a predetermined coefficient (conversion coefficient). In addition, the focus control unit 133 performs reliability determination using the evaluation value acquired from the phase difference AF processing unit 135. The reliability determination is to determine whether the detected image shift amount or defocus amount is reliable. The focus control unit 133 determines the drive amount of the focus motor 132 based on the defocus amount and the reliability determination result. The focus control unit 133 performs drive control of the focus motor 132 according to the drive amount. AF control is realized by movement control of the focus lens 131. Note that the focus control unit 133 performs each process of calculating the defocus amount and determining the reliability based on a command from the main CPU 151. The main CPU 151 may be configured to execute at least a part of these processes.

撮像信号処理部142から出力される画像データは、撮像制御部143に送られるとともに、一時的にRAM(ランダム・アクセス・メモリ)154に蓄積される。撮像制御部143は、メインCPU151からの命令にしたがって撮像素子141を制御する。撮像素子141の蓄積時間や、撮像素子141から撮像信号処理部142へ出力する際のゲイン値の設定などが行われ、撮像素子141の駆動が制御される。   Image data output from the imaging signal processing unit 142 is sent to the imaging control unit 143 and is temporarily stored in a RAM (random access memory) 154. The imaging control unit 143 controls the imaging element 141 according to a command from the main CPU 151. The accumulation time of the image sensor 141, the setting of a gain value when outputting from the image sensor 141 to the image signal processor 142, and the like are performed, and the drive of the image sensor 141 is controlled.

画像圧縮伸長部153は、RAM154に蓄積された画像データを読み出して圧縮した後、画像記録媒体157に記録する処理を行う。これと並行して、RAM154から読み出された画像データは画像処理部152に送られる。画像処理部152は撮像画像データの処理を行う。撮像画像データは、撮像素子141の各画素部を構成する第1および第2の光電変換素子の加算信号から得られた画像信号に基づく画像データである。この場合、第1の光電変換素子と第2の光電変換素子がそれぞれ出力する信号を加算した信号に基づいて撮像画像データを取得する実施形態がある。また第1および第2の光電変換素子を含む領域で受光される光束から光電変換により取得される信号に基づいて撮像画像データを取得する実施形態がある。画像処理部152は、例えば、画像データに対して最適なサイズへの縮小または拡大の処理を行う。最適なサイズに処理された画像データは、モニタディスプレイ150に送られて画面に画像表示される。これにより、操作者はリアルタイムで撮影画像を観察することができる。また、撮影直後にはモニタディスプレイ150が所定時間だけ撮影画像を表示することで、操作者は撮影した画像を確認できる。   The image compression / decompression unit 153 performs a process of reading and compressing the image data stored in the RAM 154 and then recording it on the image recording medium 157. In parallel with this, the image data read from the RAM 154 is sent to the image processing unit 152. The image processing unit 152 performs processing of captured image data. The captured image data is image data based on an image signal obtained from an addition signal of the first and second photoelectric conversion elements that constitute each pixel portion of the image sensor 141. In this case, there is an embodiment in which captured image data is acquired based on a signal obtained by adding signals output from the first photoelectric conversion element and the second photoelectric conversion element. There is an embodiment in which captured image data is acquired based on a signal acquired by photoelectric conversion from a light beam received in a region including the first and second photoelectric conversion elements. The image processing unit 152 performs, for example, reduction or enlargement processing on the image data to an optimum size. The image data processed to the optimum size is sent to the monitor display 150 and displayed on the screen. Thereby, the operator can observe a captured image in real time. Further, immediately after shooting, the monitor display 150 displays the shot image for a predetermined time, so that the operator can check the shot image.

操作部156は操作スイッチやタッチパネル等の入力デバイスを備える。操作者は操作部156を使用して撮像装置100へ指示し、メインCPU151は操作部156から入力された操作指示信号を受け付ける。電源管理部158はバッテリ159を適切に管理し、撮像装置100の全体に安定した電源供給を行う。フラッシュメモリ155は、撮像装置100の動作に必要な制御プログラムを記憶している。ユーザの操作指示により電源OFF状態から電源ON状態へ移行して撮像装置100が起動すると、フラッシュメモリ155に格納された制御プログラムがロードされてRAM154の一部に記憶される。メインCPU151は、RAM154にロードされた制御プログラムに従って撮像装置100の動作を制御する。   The operation unit 156 includes input devices such as operation switches and a touch panel. The operator instructs the imaging apparatus 100 using the operation unit 156, and the main CPU 151 receives an operation instruction signal input from the operation unit 156. The power management unit 158 appropriately manages the battery 159 and stably supplies power to the entire imaging apparatus 100. The flash memory 155 stores a control program necessary for the operation of the imaging apparatus 100. When the imaging apparatus 100 is activated by shifting from the power-off state to the power-on state according to a user operation instruction, the control program stored in the flash memory 155 is loaded and stored in a part of the RAM 154. The main CPU 151 controls the operation of the imaging apparatus 100 according to a control program loaded in the RAM 154.

次に、図2のフローチャートを参照して、撮像装置100の焦点調節制御を含む撮影動作について説明する。図2に示す各ステップの処理は、メインCPU151が実行する制御プログラムに従う指令に基づいて行われる。   Next, a shooting operation including the focus adjustment control of the imaging apparatus 100 will be described with reference to the flowchart of FIG. Processing of each step shown in FIG. 2 is performed based on a command according to a control program executed by the main CPU 151.

まずステップS201において、撮像装置100の電源がONすると、メインCPU151は制御を開始する。続いてステップS202では、撮像装置100のフラグや制御変数などが初期化され、ステップS203においてメインCPU151は、フォーカスレンズ131などの撮像光学部材を初期位置に移動させる制御を行う。   First, in step S201, when the power of the imaging apparatus 100 is turned on, the main CPU 151 starts control. Subsequently, in step S202, the flags and control variables of the imaging apparatus 100 are initialized, and in step S203, the main CPU 151 performs control to move the imaging optical member such as the focus lens 131 to the initial position.

次に、ステップS204でメインCPU151は操作者により電源OFF操作が行われたか否かを判定する。電源OFF操作の有無が判定され、電源OFF操作が行われたことが判定された場合、ステップS205に進み、電源OFF操作が行われない場合には、ステップS207へ進む。ステップS205でメインCPU151は、撮像装置100の電源をOFFにするための後処理を実行する。後処理では、撮像光学部材を初期位置へ移動し、各種フラグや制御変数のクリアなどの処理が行われた後、ステップS206に進み、撮像装置100の撮影動作の制御を終了する。   Next, in step S204, the main CPU 151 determines whether or not a power-off operation has been performed by the operator. If it is determined whether or not the power OFF operation has been performed and it is determined that the power OFF operation has been performed, the process proceeds to step S205. If the power OFF operation has not been performed, the process proceeds to step S207. In step S205, the main CPU 151 executes post-processing for turning off the power of the imaging apparatus 100. In the post-processing, after the imaging optical member is moved to the initial position and processing such as clearing of various flags and control variables is performed, the process proceeds to step S206, and the control of the imaging operation of the imaging device 100 is terminated.

ステップS207において、メインCPU151は焦点検出処理を行う。次のステップS208にてフォーカス制御部133は、ステップS207で決定されたフォーカスレンズ131の駆動方向、速度、および位置に従ってフォーカスレンズ131の移動を制御する。フォーカスレンズ131を目標位置に移動させることで焦点調節制御が行われる。   In step S207, the main CPU 151 performs focus detection processing. In the next step S208, the focus control unit 133 controls the movement of the focus lens 131 according to the driving direction, speed, and position of the focus lens 131 determined in step S207. Focus adjustment control is performed by moving the focus lens 131 to the target position.

続いてステップS209にて、撮像素子141の露光動作が行われ、撮像素子141は被写体像を光電変換して撮像信号を生成する(撮像処理)。撮像信号処理部142は、光電変換により生成された撮像信号に所定の画像処理を施して画像信号を出力する。そして、ステップS210にてメインCPU151は、操作部156に含まれる記録ボタンを操作者が押下したか否かを判定する。判定の結果、記録指示が行われた場合、ステップS211に進み、記録指示がない場合には、ステップS204へ戻って処理を続行する。   Subsequently, in step S209, the image sensor 141 is exposed, and the image sensor 141 photoelectrically converts the subject image to generate an imaging signal (imaging processing). The imaging signal processing unit 142 performs predetermined image processing on the imaging signal generated by the photoelectric conversion and outputs an image signal. In step S210, the main CPU 151 determines whether or not the operator has pressed a recording button included in the operation unit 156. As a result of the determination, if a recording instruction is issued, the process proceeds to step S211. If there is no recording instruction, the process returns to step S204 to continue the process.

ステップS211において画像記録処理が行われる。画像信号は画像圧縮伸長部153が圧縮処理した後、画像データが画像記録媒体157に記録される。そしてステップS204へ戻り、前述の各ステップを繰り返す。   In step S211, an image recording process is performed. The image data is recorded on the image recording medium 157 after the image compression / decompression unit 153 compresses the image signal. And it returns to step S204 and repeats each above-mentioned step.

次に、本実施例における撮像面位相差検出方法について説明する。まず、図3を参照して、撮像素子141の構成例について説明する。図3(A)は、瞳分割機能を有する撮像素子141の画素構成を例示する概略断面図である。各画素部の光電変換素子30は、第1の光電変換素子30−1および第2の光電変換素子30−2に分割されている。   Next, the imaging surface phase difference detection method in the present embodiment will be described. First, a configuration example of the image sensor 141 will be described with reference to FIG. FIG. 3A is a schematic cross-sectional view illustrating the pixel configuration of the imaging element 141 having a pupil division function. The photoelectric conversion element 30 in each pixel unit is divided into a first photoelectric conversion element 30-1 and a second photoelectric conversion element 30-2.

マイクロレンズ31はオンチップマイクロレンズであり、光電変換素子30に対して効率良く集光する作用をもつ。二つの光電変換素子30−1、30−2は、それらの境界に光軸が合うように配置されている。また各画素部は、平坦化膜32、カラーフィルタ33、配線34、層間絶縁膜35を備える。   The microlens 31 is an on-chip microlens and has a function of efficiently condensing the photoelectric conversion element 30. The two photoelectric conversion elements 30-1 and 30-2 are arranged such that the optical axis is aligned with the boundary between them. Each pixel portion includes a planarizing film 32, a color filter 33, a wiring 34, and an interlayer insulating film 35.

図3(B)は、撮像素子141が有する画素部の配列を部分的に示す平面図である。撮像素子141は、図3(A)に示す画素部を複数配列させた構造として形成される。撮像を行うため、各画素部にはR(赤色)、G(緑色)、B(青色)のカラーフィルタ33が交互に配置され、四画素で一組の画素ブロック40、41、42を構成する。これは、所謂ベイヤー配列である。なお、図3(B)において、R、G、Bの各記号の下に付記した「1」は第1の光電変換素子30−1に対応し、「2」は第2の光電変換素子30−2に対応する。   FIG. 3B is a plan view partially showing an array of pixel portions included in the image sensor 141. The imaging element 141 is formed as a structure in which a plurality of pixel portions illustrated in FIG. In order to capture an image, R (red), G (green), and B (blue) color filters 33 are alternately arranged in each pixel portion, and a set of pixel blocks 40, 41, and 42 is formed by four pixels. . This is a so-called Bayer array. In FIG. 3B, “1” added below each symbol of R, G, and B corresponds to the first photoelectric conversion element 30-1, and “2” represents the second photoelectric conversion element 30. -2.

図3(C)は撮像素子141の光学原理図である。図3(C)では、図3(B)中のA−A線で切断して得られた断面図の一部を模式的に示す。撮像素子141は、撮影レンズ部101の予定結像面に配置されている。マイクロレンズ31の作用により、光電変換素子30−1、30−2はそれぞれ、撮影レンズ部101の射出瞳の異なる位置(瞳部分領域)を通過した一対の光束を受光する。第1の光電変換素子30−1は主に、撮影レンズ部101の瞳のうち図3(C)中の右側領域(瞳部分領域)を透過する光束を受光する。一方、第2の光電変換素子30−2は主に、撮影レンズ部101の瞳のうち図3(C)中の左側領域(瞳部分領域)を透過する光束を受光する。   FIG. 3C is an optical principle diagram of the image sensor 141. FIG. 3C schematically shows part of a cross-sectional view obtained by cutting along line AA in FIG. The image sensor 141 is disposed on the planned image plane of the photographic lens unit 101. Due to the action of the microlens 31, the photoelectric conversion elements 30-1 and 30-2 each receive a pair of light beams that have passed through different positions (pupil partial areas) of the exit pupil of the photographing lens unit 101. The first photoelectric conversion element 30-1 mainly receives a light beam that passes through the right region (pupil partial region) in FIG. 3C among the pupils of the photographing lens unit 101. On the other hand, the second photoelectric conversion element 30-2 mainly receives a light beam that passes through the left region (pupil partial region) in FIG.

図4を参照して、撮影レンズ部101の瞳について説明する。図4は、撮像素子141から見た場合の、撮影レンズ部101の瞳50を示す模式図である。右側領域51−1は第1の光電変換素子30−1の感度領域(以下、「A像瞳」という。)である。左側領域51−2は第2の光電変換素子30−2の感度領域(以下、「B像瞳」という。)である。重心52−1および52−2はそれぞれ、A像瞳およびB像瞳の重心位置を示している。   The pupil of the photographic lens unit 101 will be described with reference to FIG. FIG. 4 is a schematic diagram showing the pupil 50 of the photographic lens unit 101 when viewed from the image sensor 141. The right region 51-1 is a sensitivity region (hereinafter referred to as “A image pupil”) of the first photoelectric conversion element 30-1. The left region 51-2 is a sensitivity region (hereinafter referred to as “B image pupil”) of the second photoelectric conversion element 30-2. The centroids 52-1 and 52-2 indicate the centroid positions of the A image pupil and the B image pupil, respectively.

本実施例の撮像処理では、同一画素において同一色のカラーフィルタが配置された二つの光電変換素子の出力を加算することにより、撮像画像信号を生成することが可能である。一方、本実施例の焦点検出処理において、一画素ブロック内の第1の光電変換素子30−1の出力を積算することにより、一画素の焦点検出信号が取得される。この焦点検出信号を画素ブロック40、41、42のように横(水平)方向に連続して取得することによりA像信号を生成することができる。同様に、一画素ブロック内の第2の光電変換素子30−2の出力を積算することにより、一画素の焦点検出信号が取得される。この焦点検出信号を横方向の画素ブロックについて連続して取得することによりB像信号を生成することができる。A像信号およびB像信号により、一対の位相差検出用信号が生成される。   In the imaging process of this embodiment, it is possible to generate a captured image signal by adding the outputs of two photoelectric conversion elements in which color filters of the same color are arranged in the same pixel. On the other hand, in the focus detection process of this embodiment, the focus detection signal of one pixel is acquired by integrating the outputs of the first photoelectric conversion elements 30-1 in one pixel block. By acquiring this focus detection signal continuously in the horizontal (horizontal) direction as in the pixel blocks 40, 41, and 42, an A image signal can be generated. Similarly, the focus detection signal of one pixel is acquired by integrating the outputs of the second photoelectric conversion elements 30-2 in one pixel block. A B image signal can be generated by continuously acquiring this focus detection signal for pixel blocks in the horizontal direction. A pair of phase difference detection signals is generated from the A image signal and the B image signal.

図5を参照して、焦点検出用に設定される領域(焦点検出領域)を説明する。図5は、本実施例で用いられる焦点検出領域を例示する。矩形枠で示す撮像画角60に対して、適切な位置に焦点検出領域61が設定される。位相差AF処理部135は、例えば焦点検出領域61において、一対の位相差検出用信号を生成して焦点検出を行う。なお、撮像画角60にて、複数の焦点検出領域を設定することも可能である。本実施例では、撮像素子141を構成する全画素部が二つの光電変換素子を有しており、焦点検出領域に対応する位相差検出用信号を生成する方法について説明したが、これに限定されるものではない。例えば、焦点検出領域にのみ図3(A)に示される構造(分割画素構造)を有する撮像素子141を用いてもよい。   An area (focus detection area) set for focus detection will be described with reference to FIG. FIG. 5 illustrates the focus detection area used in this embodiment. A focus detection area 61 is set at an appropriate position with respect to the imaging angle of view 60 indicated by a rectangular frame. For example, in the focus detection region 61, the phase difference AF processing unit 135 generates a pair of phase difference detection signals and performs focus detection. Note that it is possible to set a plurality of focus detection areas at the imaging angle of view 60. In the present embodiment, the method of generating the phase difference detection signal corresponding to the focus detection area has been described in which all the pixel units constituting the imaging element 141 have two photoelectric conversion elements, but the present invention is not limited thereto. It is not something. For example, the image sensor 141 having the structure (divided pixel structure) shown in FIG. 3A may be used only in the focus detection region.

図6を参照して、ベイヤー配列の画素ブロック40,41,42を説明する。本実施例では、図6の縦方向において適度な範囲で輝度ライン加算した信号を用いる。図6に示す画素ブロック40,41,42では、ベイヤー配列における縦方向の2画素ブロック分を用いて、信号を加算平均することにより、焦点検出用の画像信号が生成される。ただし、輝度ラインの加算数は、任意に設定可能である。輝度ラインの加算数が多いほど、図5の焦点検出領域61が撮像画角60に対して、縦方向に大きくなる。   With reference to FIG. 6, the pixel blocks 40, 41, and 42 in the Bayer array will be described. In this embodiment, a signal obtained by adding luminance lines in an appropriate range in the vertical direction of FIG. 6 is used. In the pixel blocks 40, 41, and 42 shown in FIG. 6, an image signal for focus detection is generated by averaging the signals using the two vertical pixel blocks in the Bayer array. However, the number of luminance lines added can be arbitrarily set. The greater the number of luminance lines added, the larger the focus detection area 61 in FIG.

次に図7を参照して、A像信号およびB像信号(以下、まとめて「像信号」という)から像ずれ量を算出する方法について説明する。図7(A)は、像信号を説明するための図である。縦軸は像信号のレベル、横軸は画素位置をそれぞれ示している。A像信号を実線のグラフで示し、B像信号を破線のグラフで示す。生成された一対の位相差検出用信号の像ずれ量をXと表記すると、像ずれ量Xは、撮影レンズ部101における結像状態に応じて変化する。結像状態とは合焦状態、前ピン状態、または、後ピン状態である。   Next, a method of calculating the image shift amount from the A image signal and the B image signal (hereinafter collectively referred to as “image signal”) will be described with reference to FIG. FIG. 7A is a diagram for explaining an image signal. The vertical axis indicates the level of the image signal, and the horizontal axis indicates the pixel position. The A image signal is indicated by a solid line graph, and the B image signal is indicated by a broken line graph. When the image shift amount of the generated pair of phase difference detection signals is expressed as X, the image shift amount X changes according to the imaging state in the photographing lens unit 101. The imaging state is a focused state, a front pin state, or a rear pin state.

撮影レンズ部101が合焦状態の場合、二つの像信号の像ずれ量は無くなる。一方、前ピン状態または後ピン状態の場合、二つの像信号の間で異なる方向に像ずれ量が生じる。また、像ずれ量は、撮影レンズ部101により被写体からの光が結像している位置とマイクロレンズ上面との距離、いわゆるデフォーカス量と一定の関係を有する。そこで位相差AF処理部135は像ずれ量Xを算出するため、二つの像信号に対して相関演算を行う。この相関演算では、画素をシフトさせながら二つの像信号の相関量が演算され、相関が最も高くなる位置同士(または相違度が最も低い位置同士)の差が像ずれ量として算出される。   When the photographing lens unit 101 is in focus, the image shift amount between the two image signals is eliminated. On the other hand, in the front pin state or the rear pin state, an image shift amount occurs in different directions between the two image signals. The image shift amount has a certain relationship with the distance between the position where the light from the subject is focused by the photographing lens unit 101 and the upper surface of the microlens, so-called defocus amount. Therefore, the phase difference AF processing unit 135 performs a correlation operation on the two image signals in order to calculate the image shift amount X. In this correlation calculation, the correlation amount between the two image signals is calculated while shifting the pixels, and the difference between the positions having the highest correlation (or the positions having the lowest difference) is calculated as the image shift amount.

図7(B)を参照して、画素のシフト量と相関量との関係を説明する。図7(B)は、像信号の画素をシフトさせていった時のシフト位置における、二つの像信号の相関量を並べた波形(以下、相関量波形という)を示す図である。図7(B)において、横軸は画素のシフト位置(iと記す)を示す。縦軸はシフト位置iにおけるA像信号とB像信号の相関量(COR(i)と記す)を示す。相関量を算出する際には、二つの像信号を重ねて、それぞれ対応する信号同士を比較し、差分の累積値を取得する処理が行われる。なお、大きい方の値の累積値を取得する実施形態、または小さい方の値の累積値を取得する実施形態もある。累積値は、相関を示す指標となる。差分の累積値を取得する実施形態、または、大きい方の値の累積値を取得する実施形態の場合、累積値が最も小さいときが相関の高いときである。また、小さい方の値の累積値を取得する実施形態の場合には、累積値が最も大きいときが相関の高いときである。   With reference to FIG. 7B, the relationship between the pixel shift amount and the correlation amount will be described. FIG. 7B is a diagram illustrating a waveform (hereinafter referred to as a correlation amount waveform) in which the correlation amounts of two image signals are arranged at the shift position when the pixels of the image signal are shifted. In FIG. 7B, the horizontal axis indicates the pixel shift position (denoted i). The vertical axis represents the correlation amount (denoted as COR (i)) between the A image signal and the B image signal at the shift position i. When calculating the correlation amount, two image signals are overlapped, the corresponding signals are compared with each other, and a cumulative value of the difference is acquired. There are also embodiments in which the cumulative value of the larger value is acquired, or in which the cumulative value of the smaller value is acquired. The accumulated value is an index indicating the correlation. In the embodiment for acquiring the cumulative value of the difference or the embodiment for acquiring the cumulative value of the larger value, the time when the cumulative value is the smallest is when the correlation is high. In the embodiment in which the cumulative value of the smaller value is acquired, the time when the cumulative value is the largest is when the correlation is high.

位相差AF処理部135は像ずれ量Xを算出するとともに、像信号および相関量波形から、後述の信頼性判定で用いる評価値を算出する。以下、二つの像信号の差分の累積値を取得する場合の信頼性判定用の評価値を算出する処理について説明する。   The phase difference AF processing unit 135 calculates an image shift amount X and calculates an evaluation value used in reliability determination described later from the image signal and the correlation amount waveform. Hereinafter, a process of calculating an evaluation value for reliability determination when acquiring a cumulative value of differences between two image signals will be described.

信頼性に関して、被写体のコントラストの大きさや、二つの像信号の一致度、または二つの像が最も一致するときの相関量変化量によって定義することができる。例えば、被写体のコントラストの大きさを表す指標として、取得された像信号から、その最大値(ピーク値)と最小値(ボトム値)との差分であるピークボトム値を算出することができる。ピークボトム値が大きいほど信頼性が高いことを示す。   The reliability can be defined by the size of the contrast of the subject, the degree of coincidence between the two image signals, or the amount of change in the correlation amount when the two images most closely match. For example, a peak bottom value that is a difference between the maximum value (peak value) and the minimum value (bottom value) can be calculated from the acquired image signal as an index representing the contrast level of the subject. The larger the peak bottom value, the higher the reliability.

図7(B)に範囲70で示すように、二つの像信号の相関が最も高い場合に相関量が極小値となる。この時の相関量の大きさは、二つの像信号の相関が最も高い時の、二つの像信号の差分値である。二つの像信号の一致度をFと表記すると、一致度Fの値が小さいほど信頼性が高いことを示す。   As indicated by a range 70 in FIG. 7B, when the correlation between the two image signals is the highest, the correlation amount becomes a minimum value. The magnitude of the correlation amount at this time is a difference value between the two image signals when the correlation between the two image signals is the highest. When the degree of coincidence of two image signals is expressed as F, the smaller the value of the degree of coincidence F, the higher the reliability.

図7(C)は、相関変位量を並べた波形を示す図である。横軸は画素のシフト位置iを示し、縦軸は相関変位量(以下、ΔCOR(i)と記す)を示す。図7(B)に示す相関量波形で、例えば1シフト飛ばしの相関量の差から、下記式(1)のようにΔCORが算出される。
ΔCOR=COR(i−1)−COR(i+1) 式(1)
FIG. 7C is a diagram showing a waveform in which correlated displacement amounts are arranged. The horizontal axis represents the pixel shift position i, and the vertical axis represents the correlation displacement amount (hereinafter referred to as ΔCOR (i)). In the correlation amount waveform shown in FIG. 7B, ΔCOR is calculated as shown in the following equation (1) from the difference in the correlation amount of skipping one shift, for example.
ΔCOR = COR (i−1) −COR (i + 1) Formula (1)

図7(C)に示す範囲71は、図7(B)に示す範囲70に対応する。つまり、二つの像信号の相関が最も高い場合に、相関量COR(i)は極小となる。対応する相関変位量ΔCOR(i)は、範囲71にてプラスからマイナスに変化する部分を有する。相関変位量ΔCOR(i)の値が0となるシフト位置を「j」と表記する。シフト位置jは相関量が極小値となる位置に相当し、当該シフト位置付近での相関変位量の変化量を、二つの像が最も一致する時の相関変化量(Mと記す)とする。つまり、下記式(2)からM値が算出される。
M=|ΔCOR(j−1)|+|ΔCOR(j)| 式(2)
A range 71 illustrated in FIG. 7C corresponds to a range 70 illustrated in FIG. That is, when the correlation between the two image signals is the highest, the correlation amount COR (i) is minimal. Corresponding correlation displacement amount ΔCOR (i) has a portion that changes from plus to minus in range 71. A shift position where the value of the correlation displacement amount ΔCOR (i) is 0 is denoted as “j”. The shift position j corresponds to a position where the correlation amount becomes a minimum value, and the change amount of the correlation displacement amount in the vicinity of the shift position is defined as a correlation change amount (denoted as M) when the two images most closely match. That is, the M value is calculated from the following formula (2).
M = | ΔCOR (j−1) | + | ΔCOR (j) | Equation (2)

相関変化量Mは、隣り合う2つのシフト位置における各相関変位量の絶対値の和であり、M値が大きいほど信頼性が高いことを示す。本実施例では、信頼性判定用の評価値としてM値を例示するが、他の周知の方法により信頼性判定用の評価値を算出してもよい。   The correlation change amount M is the sum of absolute values of the respective correlation displacement amounts at two adjacent shift positions, and the larger the M value, the higher the reliability. In this embodiment, the M value is exemplified as the evaluation value for reliability determination, but the evaluation value for reliability determination may be calculated by another known method.

図8を参照して、位相差AF処理部135が行う処理について説明する。図8は、位相差AF処理部135の構成例を示すブロック図である。輝度ライン加算部81は、撮像信号処理部142から信号を取得して輝度ライン加算を行う。その後、補正処理部82は像信号の補正を行う。フィルタ処理部83は補正後の信号にフィルタ処理を施して相関演算処理部84に出力する。相関演算処理部84はフィルタ処理後の信号に対して相関演算を行い、像ずれ量を算出する。相関量波形と像ずれ量はフォーカス制御部133へ出力される。   A process performed by the phase difference AF processing unit 135 will be described with reference to FIG. FIG. 8 is a block diagram illustrating a configuration example of the phase difference AF processing unit 135. The luminance line addition unit 81 acquires a signal from the imaging signal processing unit 142 and performs luminance line addition. Thereafter, the correction processing unit 82 corrects the image signal. The filter processing unit 83 performs filter processing on the corrected signal and outputs the result to the correlation calculation processing unit 84. The correlation calculation processing unit 84 performs a correlation calculation on the signal after the filter processing, and calculates an image shift amount. The correlation amount waveform and the image shift amount are output to the focus control unit 133.

飽和検出部85、86は、輝度ライン加算部81から信号を取得して画素の飽和検出を行う。すなわち、飽和検出部85、86は、撮像信号処理部142から入力された信号の内、飽和画素信号の数をカウントして飽和画素数を出力する。飽和検出部85は窓領域飽和検出部であり、飽和検出部86は視野領域飽和検出部である。各検出部の詳細については後述する。   Saturation detectors 85 and 86 obtain signals from the luminance line adder 81 and detect pixel saturation. That is, the saturation detection units 85 and 86 count the number of saturated pixel signals among the signals input from the imaging signal processing unit 142 and output the number of saturated pixels. The saturation detection unit 85 is a window region saturation detection unit, and the saturation detection unit 86 is a visual field region saturation detection unit. Details of each detection unit will be described later.

コントラスト値算出部87、88は、補正処理部82の出力する信号を取得し、評価値算出方法に従って、コントラストに関する評価値を算出して出力する。コントラスト値算出部87は窓領域コントラスト値算出部であり、コントラスト値算出部88は視野領域コントラスト値算出部である。各算出部の詳細については後述する。   Contrast value calculation units 87 and 88 acquire signals output from the correction processing unit 82, and calculate and output an evaluation value related to contrast according to an evaluation value calculation method. The contrast value calculator 87 is a window area contrast value calculator, and the contrast value calculator 88 is a visual field area contrast value calculator. Details of each calculation unit will be described later.

図9は、図5で示した焦点検出領域61を詳細に示す図である。相関演算における領域として、第1の領域(窓領域)と、第2の領域(視野領域)を示す。窓領域とは、A像信号とB像信号との一致や相関を確認するための大きさをもつ領域である。視野領域とは、相関演算におけるA像信号およびB像信号のシフト領域であり、窓領域よりも広い領域である。図9では窓領域が視野領域の中央に位置する場合を例示する。   FIG. 9 is a diagram showing in detail the focus detection area 61 shown in FIG. As regions in the correlation calculation, a first region (window region) and a second region (viewing region) are shown. The window area is an area having a size for confirming the coincidence and correlation between the A image signal and the B image signal. The visual field area is a shift area of the A image signal and the B image signal in the correlation calculation, and is an area wider than the window area. FIG. 9 illustrates a case where the window area is located at the center of the visual field area.

位相差AF処理部135は、演算時間を短縮するために、ハードウェアで構成される。そのため、像ずれ量の算出処理とコントラスト値の算出処理は同時に実行されるので、像ずれ量に応じてコントラスト値の算出範囲を変えることはできない。つまり、窓領域と視野領域とで、それぞれの飽和検出と、コントラスト値の算出が行われる。窓領域飽和検出部85は窓領域を対象として画素の飽和検出を行う。窓領域コントラスト値算出部87は窓領域を対象としてコントラスト値を算出する。一方、視野領域飽和検出部86は視野領域を対象として画素の飽和検出を行う。視野領域コントラスト値算出部88は視野領域を対象としてコントラスト値を算出する。   The phase difference AF processing unit 135 is configured by hardware in order to shorten the calculation time. Therefore, the image shift amount calculation process and the contrast value calculation process are executed at the same time, and therefore the contrast value calculation range cannot be changed according to the image shift amount. That is, saturation detection and contrast value calculation are performed in the window region and the visual field region. The window area saturation detection unit 85 performs pixel saturation detection for the window area. The window area contrast value calculation unit 87 calculates a contrast value for the window area. On the other hand, the visual field region saturation detection unit 86 performs pixel saturation detection for the visual field region. The visual field region contrast value calculation unit 88 calculates a contrast value for the visual field region.

図10を参照して、相関演算により算出された像ずれ量からデフォーカス量への変換について説明する。デフォーカス量の算出はフォーカス制御部133によって行われる。図10は、撮影レンズ部101および撮像素子141を含む撮像光学系を示す概略図である。被写体90からの光は撮影レンズ部101を通過して結像する。予定結像面の位置p0の光軸上に焦点検出面の位置p1を示す。像ずれ量とデフォーカス量との関係は、撮像光学系に応じて決定される。像ずれ量Xに所定の換算係数Kを掛けることによりデフォーカス量を算出することができる。換算係数Kは、A像瞳とB像瞳それぞれの重心位置に基づいて算出される。   With reference to FIG. 10, the conversion from the image shift amount calculated by the correlation calculation to the defocus amount will be described. The defocus amount is calculated by the focus control unit 133. FIG. 10 is a schematic diagram showing an image pickup optical system including the taking lens unit 101 and the image pickup element 141. Light from the subject 90 passes through the taking lens unit 101 and forms an image. The position p1 of the focus detection surface is shown on the optical axis at the position p0 of the planned imaging plane. The relationship between the image shift amount and the defocus amount is determined according to the imaging optical system. The defocus amount can be calculated by multiplying the image shift amount X by a predetermined conversion coefficient K. The conversion coefficient K is calculated based on the gravity center positions of the A image pupil and the B image pupil.

焦点検出面の位置p1が位置p2に移動した場合を想定する。位置p1、q2、q3は移動前の焦点検出面上にあり、位置p2、q2、q3は移動後の焦点検出面上にある。位置p0、q2、q3を頂点位置とする三角形と、位置p0、q2、q3を頂点位置とする三角形との相似関係に従って、像ずれ量が変化する。このため、焦点検出面の位置p2におけるデフォーカス量を算出可能である。メインCPU151は、デフォーカス量に基づいて、被写体に対して合焦状態を得るためのフォーカスレンズ131の位置を算出する。 Assume that the position p1 of the focus detection surface is moved to the position p2. Positions p1, q2, and q3 are on the focus detection surface before movement, and positions p2, q2 * , and q3 * are on the focus detection surface after movement. The amount of image shift changes according to the similarity between the triangle having the positions p0, q2, and q3 as vertex positions and the triangle having the positions p0, q2 * , and q3 * as vertex positions. Therefore, the defocus amount at the position p2 on the focus detection surface can be calculated. Based on the defocus amount, the main CPU 151 calculates the position of the focus lens 131 for obtaining a focused state with respect to the subject.

図11のフローチャートを参照して、本実施例における焦点検出動作について説明する。図11の各ステップの処理は、メインCPU151が制御プログラムを実行して各部を制御することにより実施され、図2中のステップS207に相当する。   The focus detection operation in the present embodiment will be described with reference to the flowchart of FIG. The processing of each step in FIG. 11 is performed by the main CPU 151 executing a control program to control each unit, and corresponds to step S207 in FIG.

まずステップS1101において、焦点検出が開始する。ステップS1102にて、焦点検出に用いる像信号を取得するために、撮像素子141は被写体を撮像し、撮像信号を出力する。メインCPU151および撮像制御部143は撮像素子141を制御して所定の蓄積時間に従って電荷蓄積(露光)を行い、焦点検出領域での画像信号の画素値を読み出す。   First, in step S1101, focus detection starts. In step S1102, in order to acquire an image signal used for focus detection, the imaging element 141 images a subject and outputs an imaging signal. The main CPU 151 and the imaging control unit 143 control the imaging element 141 to perform charge accumulation (exposure) according to a predetermined accumulation time, and read out the pixel value of the image signal in the focus detection area.

ステップS1103において位相差AF処理部135は取得した像信号に対して相関演算を行う。位相差AF処理部135は算出した相関量から、相関が最も高くなるシフト量を算出する。位相差AF処理部135は像ずれ量を算出するとともに、コントラスト値などの評価値を算出する。ステップS1104において、メインCPU151およびフォーカス制御部133は、位相差AF処理部135より出力される像ずれ量、窓領域でのコントラスト値、視野領域でのコントラスト値を取得する。   In step S1103, the phase difference AF processing unit 135 performs a correlation operation on the acquired image signal. The phase difference AF processing unit 135 calculates a shift amount that maximizes the correlation from the calculated correlation amount. The phase difference AF processing unit 135 calculates an image shift amount and an evaluation value such as a contrast value. In step S1104, the main CPU 151 and the focus control unit 133 acquire the image shift amount, the contrast value in the window area, and the contrast value in the viewing area output from the phase difference AF processing unit 135.

ステップS1105において、ボケ評価値が算出される。ボケ評価値は撮像光学系の焦点状態を表わす指標である。例えばボケ評価値は、二つの像が最も一致するときの相関変化量Mを、像信号の輝度波形より得られるピークボトム値(最大値と最小値との差分値)で除算することで求められる。あるいは、二つの像が最も一致するときの相関変化量Mの代わりに、相関量波形の隣接差の絶対和、または相関量波形の隣接差の二乗和を用いてもよい。これらはいずれも相関量波形の急峻性を表す指標であり、焦点状態が合焦近傍の状態(デフォーカス量の大きさが所定の閾値以下である状態)であるほど値は大きく、ボケが大きいほど値が小さい。相関量波形は、像信号のレベルの影響を受けるため、相関変化量Mをピークボトム値で除算して正規化することにより、像信号のレベルの影響を低減できる。ボケ評価値が小さいほど、撮影シーンはボケの大きなシーンであり、ボケ評価値が大きいほど、撮影シーンは合焦度の高いシーンであることを示す。   In step S1105, a blur evaluation value is calculated. The blur evaluation value is an index representing the focus state of the imaging optical system. For example, the blur evaluation value is obtained by dividing the correlation change amount M when two images are the best match by the peak bottom value (difference value between the maximum value and the minimum value) obtained from the luminance waveform of the image signal. . Alternatively, instead of the correlation change amount M when the two images most closely match, the absolute sum of the adjacent difference of the correlation amount waveform or the square sum of the adjacent difference of the correlation amount waveform may be used. Each of these is an index representing the steepness of the correlation amount waveform, and the value is larger and the blur is larger as the focus state is near the in-focus state (the state where the defocus amount is equal to or less than a predetermined threshold). The smaller the value. Since the correlation amount waveform is affected by the level of the image signal, the influence of the level of the image signal can be reduced by normalizing the correlation change amount M by dividing it by the peak bottom value. The smaller the blur evaluation value, the larger the shooting scene, and the larger the blur evaluation value, the higher the degree of focus.

また、ボケ評価値として二つの像信号の一致度Fを用いてもよい。一致度Fは像信号間の相関度を表す指標である。一致度Fの値は焦点状態が合焦近傍の状態であるほど小さく、ボケが大きくなるほど、値は大きく算出される。このため、一致度Fの値により、ボケの程度を判別可能である。ただし、一致度Fについても像信号のレベルの影響を受けるため、ピークボトム値で除算することにより、正規化が行われる。この場合には、ボケ評価値が大きいほど、撮影シーンはボケが大きなシーンであり、ボケ評価値が小さいほど、撮影シーンは合焦度の高いシーンであることを示す。   Also, the degree of coincidence F of the two image signals may be used as the blur evaluation value. The degree of coincidence F is an index representing the degree of correlation between image signals. The value of the degree of coincidence F is smaller as the focus state is closer to the in-focus state, and the value is calculated larger as the blur increases. Therefore, the degree of blur can be determined by the value of the matching degree F. However, since the degree of coincidence F is also affected by the level of the image signal, normalization is performed by dividing by the peak bottom value. In this case, the larger the blur evaluation value is, the larger the shooting scene is, and the smaller the blur evaluation value is, the higher the degree of focus is.

また、ボケ評価値としては、今回または前回の焦点検出結果である像ずれ量、またはデフォーカス量を用いてもよい。焦点状態が合焦近傍の状態であるほど、これらの値は小さく、ボケが大きいほど、値は大きく算出されるので、像ずれ量、デフォーカス量そのものをボケ評価値として使用可能である。この場合には、ボケ評価値が大きいほど、撮影シーンはボケの大きなシーンであり、ボケ評価値が小さいほど、撮影シーンは合焦度の高いシーンである。なお、複数の指標を組み合わせたボケ評価値を定義することも可能である。   In addition, as the blur evaluation value, an image shift amount or a defocus amount that is a current or previous focus detection result may be used. These values are smaller as the focus state is closer to the in-focus state, and the larger the blur, the larger the value is calculated. Therefore, the image shift amount and the defocus amount itself can be used as the blur evaluation value. In this case, the larger the blur evaluation value, the larger the shooting scene is, and the smaller the blur evaluation value, the higher the degree of focus. Note that a blur evaluation value obtained by combining a plurality of indices can be defined.

ステップS1106にてメインCPU151は、信頼度判定に用いる係数(αと記す)を算出する。係数αは、ステップS1105で算出されたボケ評価値より、窓領域と視野領域でのコントラスト値の加重加算を行う際の割合を示す。図12を参照して、具体例を説明する。図12の横軸はボケ評価値を表し、縦軸は係数αを表す。例えば係数αは、ボケ評価値に基づいて算出され、閾値を超えると値が増加して1に到達する。あるいは、係数値は連続値でなくてもよい。この場合、係数αは図12に示す中間値をとらずに、1または0に設定され、ボケ評価値に応じて切り替えられる。   In step S1106, the main CPU 151 calculates a coefficient (denoted as α) used for reliability determination. The coefficient α indicates a ratio when performing weighted addition of contrast values in the window area and the visual field area from the blur evaluation value calculated in step S1105. A specific example will be described with reference to FIG. The horizontal axis in FIG. 12 represents the blur evaluation value, and the vertical axis represents the coefficient α. For example, the coefficient α is calculated based on the blur evaluation value. When the coefficient α exceeds the threshold value, the value increases to reach 1. Alternatively, the coefficient value may not be a continuous value. In this case, the coefficient α is set to 1 or 0 without taking the intermediate value shown in FIG. 12, and is switched according to the blur evaluation value.

ステップS1107において、信頼性判定用のコントラスト値(Contと記す)の算出処理が下記式(3)を用いて行われる。
Cont=α×コントラスト値(窓領域)+(1−α)×コントラスト値(視野領域) 式(3)
In step S1107, a contrast determination (denoted as Cont) calculation for reliability determination is performed using the following equation (3).
Cont = α × contrast value (window region) + (1−α) × contrast value (viewing region) Equation (3)

Contは、窓領域および視野領域でのコントラスト値に対して、係数αの値に応じた合成比率を用いた加重加算により算出される。このことにより、焦点状態が合焦状態または合焦近傍の状態と見なされる場合には、窓領域でのコントラスト値の占める割合が高くなり、ボケが大きい場合には、視野領域まで含めたコントラスト値が用いられる。あるいは、焦点状態が合焦状態または合焦近傍の状態と見なされる場合に係数αの値が1であって、窓領域でのコントラスト値が算出される。被写体に焦点が合っていない状態の場合に係数αの値が0であって、視野領域でのコントラスト値が算出される。この場合、窓領域でのコントラスト値と視野領域でのコントラスト値のうち、一方が評価値として選択される。   Cont is calculated by weighted addition using a composition ratio corresponding to the value of the coefficient α with respect to the contrast values in the window region and the visual field region. As a result, when the focus state is regarded as the in-focus state or near-in-focus state, the ratio of the contrast value in the window area increases, and when the blur is large, the contrast value including the visual field area is included. Is used. Alternatively, when the focus state is regarded as a focused state or a state near the focused state, the value of the coefficient α is 1, and the contrast value in the window region is calculated. When the subject is not in focus, the value of the coefficient α is 0, and the contrast value in the visual field region is calculated. In this case, one of the contrast value in the window area and the contrast value in the visual field area is selected as the evaluation value.

ステップS1108においてフォーカス制御部133は、ステップS1107で算出されたコントラスト値Contを用いて信頼性判定を行う。ステップS1109の信頼性判定では、コントラスト値および二つの像の一致度Fにより、算出された像ずれ量Xが信頼できるか否かについて判定が行われる。コントラスト値Contが、所定の閾値(CThと記す)と比較され、Cont>CThであるか否かが判定される。Cont>CThの場合には、算出された像ずれ量Xが信頼できると判定され、ステップS1110に進み、コントラスト値Contが閾値以下の場合には、S1111に移行する。   In step S1108, the focus control unit 133 performs reliability determination using the contrast value Cont calculated in step S1107. In the reliability determination in step S1109, it is determined whether or not the calculated image shift amount X is reliable based on the contrast value and the matching degree F between the two images. The contrast value Cont is compared with a predetermined threshold (denoted as CTh), and it is determined whether or not Cont> CTh. If Cont> CTh, it is determined that the calculated image shift amount X is reliable, and the process proceeds to step S1110. If the contrast value Cont is equal to or less than the threshold value, the process proceeds to S1111.

ステップS1109の信頼性判定は、像信号のコントラスト値が十分に大きいか否かの他、二つの像信号の一致度Fに関する信頼性判定を含む。メインCPU151およびフォーカス制御部133は、二つの像信号の一致度Fの値が所定の閾値(FThと記す)より小さいか否かを判定する。F<FThの場合には、算出された像ずれ量Xは信頼できると判定される。一方、一致度Fの値が閾値FTh以上である場合、像ずれ量Xの信頼性が低いと判定されてS1111に移行する。この他、信頼性判定には、像信号や相関量波形から、相関演算では充分な精度が得られない可能性のある被写体であるか否かの判定を含んでもよい。   The reliability determination in step S1109 includes a reliability determination regarding the degree of coincidence F of the two image signals in addition to whether or not the contrast value of the image signal is sufficiently large. The main CPU 151 and the focus control unit 133 determine whether or not the value of the coincidence F between the two image signals is smaller than a predetermined threshold value (denoted as FTh). When F <FTh, it is determined that the calculated image shift amount X is reliable. On the other hand, if the value of the matching degree F is equal to or greater than the threshold value FTh, it is determined that the reliability of the image shift amount X is low, and the process proceeds to S1111. In addition, the reliability determination may include a determination as to whether or not the subject has a possibility that sufficient accuracy cannot be obtained by the correlation calculation from the image signal or the correlation amount waveform.

ステップS1109の信頼性判定の結果に基づいて、信頼できる像ずれ量Xが得られた場合、ステップS1110にてメインCPU151およびフォーカス制御部133は、算出された像ずれ量Xに換算係数Kを乗算し、デフォーカス量Defを算出する。つまり、Def=K×Xの関係式により、デフォーカス量Defが算出される。デフォーカス量の算出にあたり、撮影レンズ部101にて、被写体に対してより焦点が合った状態を得るための後補正処理を行ってもよい。そしてステップS1112に進み、焦点検出を終了してリターン処理へ移行し、呼び出し元であるメインルーチンに戻る。一方、ステップS1111では、信頼性のある像ずれ量が検出できなかったと判定されるため、位相差AFを行わない(焦点検出NG)。そしてステップS1112に移行する。   If a reliable image shift amount X is obtained based on the result of the reliability determination in step S1109, the main CPU 151 and the focus control unit 133 multiply the calculated image shift amount X by the conversion coefficient K in step S1110. Then, the defocus amount Def is calculated. That is, the defocus amount Def is calculated by the relational expression Def = K × X. In calculating the defocus amount, the photographic lens unit 101 may perform post-correction processing to obtain a state where the subject is more focused. Then, the process proceeds to step S1112 to end the focus detection, shift to return processing, and return to the main routine that is the caller. On the other hand, in step S1111, since it is determined that a reliable image shift amount could not be detected, phase difference AF is not performed (focus detection NG). Then, control goes to a step S1112.

次に、図13を参照して、焦点制御動作(焦点調節動作)について説明する。図13は、本実施例の焦点制御動作を示すフローチャートである。図13に示す各ステップの処理は図2中のステップS208に相当し、メインCPU151およびフォーカス制御部133により実行される。メインCPU151は制御プログラムに従って所定の演算を行い、フォーカス制御部133は、メインCPU151の指令に基づいて、フォーカスモータ132の制御を行う。   Next, the focus control operation (focus adjustment operation) will be described with reference to FIG. FIG. 13 is a flowchart showing the focus control operation of this embodiment. The processing of each step shown in FIG. 13 corresponds to step S208 in FIG. 2, and is executed by the main CPU 151 and the focus control unit 133. The main CPU 151 performs a predetermined calculation according to the control program, and the focus control unit 133 controls the focus motor 132 based on a command from the main CPU 151.

ステップS1301で焦点制御動作が開始する。ステップS1302にてフォーカス制御部133は、図11の焦点検出で算出された、信頼性のあるデフォーカス量を取得する。ステップS1303にてフォーカス制御部133は、取得したデフォーカス量に基づいてフォーカスレンズ131の駆動量(レンズ駆動量)を算出する。レンズ駆動量の算出処理は、レンズ駆動方向と速度の算出も含む。ステップS1304は、デフォーカス量の絶対値が所定値(閾値)以下であるか否かの判定処理である。ステップS1304にてデフォーカス量の絶対値が所定値以下でない場合、ステップS1305に進み、デフォーカス量の絶対値が所定値以下である場合にはステップS1306に移行する。   In step S1301, the focus control operation starts. In step S1302, the focus control unit 133 acquires a reliable defocus amount calculated by the focus detection in FIG. In step S1303, the focus control unit 133 calculates a drive amount (lens drive amount) of the focus lens 131 based on the acquired defocus amount. The lens driving amount calculation processing includes calculation of the lens driving direction and speed. Step S1304 is processing for determining whether or not the absolute value of the defocus amount is equal to or less than a predetermined value (threshold value). If the absolute value of the defocus amount is not less than the predetermined value in step S1304, the process proceeds to step S1305. If the absolute value of the defocus amount is less than the predetermined value, the process proceeds to step S1306.

ステップS1305において、フォーカスレンズ131の現在位置は合焦位置(合焦点)でないと見なされるため、ステップS1303で算出されたレンズ駆動量に従って、フォーカスレンズ131が駆動され、ステップS1307に進む。一方、ステップS1306ではフォーカスレンズの現在位置は合焦点にあると見なされるため、フォーカスレンズの駆動が停止され、ステップS1307に進む。ステップS1307のリターン処理により、呼び出し元であるメインルーチンに戻る。以後、図2に示すフローチャートに従って焦点検出が行われ、デフォーカス量が再び所定値を超えた場合にはフォーカスレンズ131が駆動される。撮像装置100は、図2に示される通り、電源がOFFに操作されるまでの間、図11、図13に示す処理を繰り返す。被写体に合焦するまで複数回の焦点検出が行われる。   In step S1305, since the current position of the focus lens 131 is not considered to be the in-focus position (focus point), the focus lens 131 is driven according to the lens driving amount calculated in step S1303, and the process proceeds to step S1307. On the other hand, in step S1306, since the current position of the focus lens is considered to be in focus, the drive of the focus lens is stopped, and the process proceeds to step S1307. By the return processing in step S1307, the process returns to the main routine that is the caller. Thereafter, focus detection is performed according to the flowchart shown in FIG. 2, and when the defocus amount again exceeds a predetermined value, the focus lens 131 is driven. As illustrated in FIG. 2, the imaging apparatus 100 repeats the processes illustrated in FIGS. 11 and 13 until the power is turned off. Multiple focus detections are performed until the subject is focused.

本実施例では、ボケ評価値に応じた合成比率を用いて信頼性判定用のコントラスト値が算出される。焦点状態が第1の状態と見なされる場合には、主に窓領域でのコントラスト値が用いられる。第1の状態とは、被写体に焦点が合った合焦状態または合焦近傍の状態である。また、焦点状態が第2の状態と見なされる場合には、視野領域まで含めたコントラスト値が用いられる。第2の状態は被写体に焦点が合っていない状態であり、被写体像が暈けた状態である。ボケが大きい場合には、A像信号とB像信号とが大きくずれており、シフト量が大きい。焦点状態が合焦状態または合焦近傍の状態である場合には、A像信号、B像信号とも窓領域の付近で一致している。このため、コントラスト値をA像信号、B像信号の一致が見込まれる範囲で算出できる。コントラスト値を算出する範囲が適切に設定されて信頼性判定が行われるので、焦点検出の信頼性判定の精度を向上させることが可能である。例えば、ボケが大きい場合には窓領域でのコントラスト値が小さくなってしまうため、従来の装置では焦点調節動作が行われない可能性が高い。これに対して、本実施例では、窓領域だけでなく当該領域よりも広い視野領域でのコントラスト値から算出される信頼性判定用のコントラスト値を用いた判定が可能となる。   In the present embodiment, a contrast value for reliability determination is calculated using a composition ratio corresponding to the blur evaluation value. When the focus state is regarded as the first state, the contrast value in the window region is mainly used. The first state is a focused state where the subject is focused or a state in the vicinity of the focused state. When the focus state is regarded as the second state, a contrast value including the visual field region is used. The second state is a state where the subject is not in focus and the subject image is blurred. When the blur is large, the A image signal and the B image signal are greatly shifted, and the shift amount is large. When the focus state is an in-focus state or a state near the in-focus state, both the A image signal and the B image signal match in the vicinity of the window region. For this reason, the contrast value can be calculated within a range where the coincidence of the A image signal and the B image signal is expected. Since the range for calculating the contrast value is appropriately set and the reliability determination is performed, it is possible to improve the accuracy of the focus detection reliability determination. For example, when the blur is large, the contrast value in the window region becomes small, so that there is a high possibility that the focus adjustment operation is not performed in the conventional apparatus. On the other hand, in this embodiment, determination using a contrast value for reliability determination calculated from a contrast value not only in the window region but also in a visual field region wider than the region can be performed.

[実施例2]
次に、本発明の実施例2を説明する。実施例1では、ボケ評価値に応じた合成比率を用いて、窓領域および視野領域でのコントラスト値から信頼性判定用のコントラスト値を算出する方法について説明した。本実施例では、ボケ評価値に応じた合成比率を用いて、窓領域および視野領域での飽和検出画素数から信頼性判定用の飽和検出画素数を算出する方法について説明する。飽和した像信号を用いて算出した像ずれ量は信頼できないため、飽和について信頼性判定を行う必要がある。なお、本実施例において、実施例1と同様の構成部については、既に使用した符号を用いることでそれらの詳細な説明を省略し、主に相違点を説明する。このような説明の省略は後述の実施例でも同じである。
[Example 2]
Next, a second embodiment of the present invention will be described. In the first embodiment, the method of calculating the contrast value for reliability determination from the contrast values in the window region and the visual field region using the combination ratio according to the blur evaluation value has been described. In this embodiment, a method for calculating the number of saturation detection pixels for reliability determination from the number of saturation detection pixels in the window region and the visual field region using a combination ratio according to the blur evaluation value will be described. Since the image shift amount calculated using the saturated image signal is not reliable, it is necessary to perform reliability determination for saturation. In the present embodiment, the same components as those in the first embodiment will not be described in detail by using the reference numerals already used, and differences will be mainly described. Such a description is omitted in the embodiments described later.

図14に示すフローチャートを参照して、本実施例における焦点検出動作について説明する。ステップS1401からS1403の処理は、図11中のステップS1101からS1103の処理と同様であるため、それらの説明を省略する。   The focus detection operation in the present embodiment will be described with reference to the flowchart shown in FIG. Since the processing of steps S1401 to S1403 is the same as the processing of steps S1101 to S1103 in FIG. 11, the description thereof is omitted.

ステップS1404にてメインCPU151およびフォーカス制御部133は、位相差AF処理部135より出力される像ずれ量X、窓領域における飽和検出画素数、視野領域における飽和検出画素数を取得する。続くステップS1405、S1406の処理は図11中のステップS1105、S1106と同様であるため、それらの説明を省略する。
ステップS1407では、信頼性判定に用いる飽和検出画素数(Satと記す)が下記式(4)から算出される。
Sat=α×飽和検出画素数(窓領域)+(1−α)×飽和検出画素数(視野領域) 式(4)
In step S1404, the main CPU 151 and the focus control unit 133 obtain the image shift amount X output from the phase difference AF processing unit 135, the saturation detection pixel number in the window region, and the saturation detection pixel number in the visual field region. Subsequent processes in steps S1405 and S1406 are the same as steps S1105 and S1106 in FIG.
In step S1407, the saturation detection pixel number (denoted as Sat) used for reliability determination is calculated from the following equation (4).
Sat = α × saturation detection pixel number (window region) + (1−α) × saturation detection pixel number (field of view region) Equation (4)

飽和検出画素数Satは、窓領域および視野領域での飽和検出画素数に対して、係数αの値に応じた合成比率を用いた加重加算により算出される。このことにより、焦点状態が合焦状態または合焦近傍の状態と見なされる場合には、窓領域での飽和検出画素数の占める割合が高くなり、ボケが大きい場合には、視野領域まで含めた飽和検出画素数が用いられる。   The saturation detection pixel number Sat is calculated by weighted addition using a composition ratio corresponding to the value of the coefficient α with respect to the saturation detection pixel numbers in the window region and the visual field region. As a result, when the focus state is regarded as the in-focus state or the state near the in-focus state, the ratio of the saturation detection pixel number in the window region increases, and when the blur is large, the visual field region is included. The saturation detection pixel number is used.

ステップS1408でフォーカス制御部133は、ステップS1407で算出された飽和検出画素数Satを用いて信頼性判定を行う。飽和検出画素数に基づいて、像ずれ量Xが信頼できるか否かの判定処理が行われる。その際には、実施例1で説明したコントラスト値による信頼性判定と組み合わせてもよい。飽和検出画素数Satが所定の閾値(SThと記す)と比較される。ステップS1409でSat<SThの場合、算出された像ずれ量Xは信頼できると判定され、S1410に進み、デフォーカス量が算出される。一方、Satが閾値STh以上である場合にはS1411に進み、位相差AFは行わない。ステップS1410からS1412の処理は、図11中のステップS1110からステップS1112の処理と同様であるため、それらの説明を省略する。   In step S1408, the focus control unit 133 performs reliability determination using the saturation detection pixel number Sat calculated in step S1407. Based on the number of saturation detection pixels, a process for determining whether or not the image shift amount X is reliable is performed. In that case, you may combine with the reliability determination by the contrast value demonstrated in Example 1. FIG. The saturation detection pixel number Sat is compared with a predetermined threshold (denoted as STh). If Sat <STh in step S1409, it is determined that the calculated image shift amount X is reliable, and the process proceeds to S1410, where the defocus amount is calculated. On the other hand, if Sat is greater than or equal to the threshold value STh, the process proceeds to S1411 and the phase difference AF is not performed. Since the processing from step S1410 to S1412 is the same as the processing from step S1110 to step S1112 in FIG. 11, the description thereof is omitted.

本実施例では、焦点状態が合焦状態または合焦近傍の状態と見なされる場合、主に窓領域での飽和検出画素数を用い、ボケが大きい場合には、視野領域まで含めた飽和検出画素数を用いて信頼性判定を行う。よって、飽和検出画素数をA像信号、B像信号の一致が見込まれる範囲で算出できる。飽和検出画素数を算出する範囲が適切に設定されて信頼性判定が行われるので、焦点検出の信頼性判定の精度を向上させることが可能である。   In this embodiment, when the focus state is regarded as the in-focus state or the state near the in-focus state, the saturation detection pixel is mainly used in the window region, and when the blur is large, the saturation detection pixel including the visual field region is used. The reliability is determined using the number. Therefore, the saturation detection pixel number can be calculated within a range where the coincidence of the A image signal and the B image signal is expected. Since the range for calculating the saturation detection pixel number is appropriately set and the reliability determination is performed, it is possible to improve the accuracy of the focus detection reliability determination.

[実施例3]
次に、本発明の実施例3について説明する。本実施例では、窓領域での飽和検出画素数、および窓領域と視野領域でのコントラスト値から飽和に関する信頼性判定を行う方法について説明する。
[Example 3]
Next, Embodiment 3 of the present invention will be described. In the present embodiment, a method for performing reliability determination regarding saturation from the number of saturation detection pixels in the window region and the contrast values in the window region and the visual field region will be described.

図15に示すフローチャートを参照して、本実施例における焦点検出の信頼性判定について説明する。図15に示される各ステップの処理は、メインCPU151およびフォーカス制御部133により実行される。   With reference to the flowchart shown in FIG. 15, the reliability determination of the focus detection in a present Example is demonstrated. The processing of each step shown in FIG. 15 is executed by the main CPU 151 and the focus control unit 133.

ステップS1501において、信頼性判定が開始する。ステップS1502にてメインCPU151およびフォーカス制御部133は像ずれ量と窓領域での飽和検出画素数、窓領域および視野領域でのコントラスト値を位相差AF処理部135から取得する。ここでのコントラスト値はピーク値を用いる。ステップS1503にてメインCPU151は、窓領域での飽和検出画素数を所定値と比較する。所定値(閾値)は、例えば20画素などの固定値でよい。窓領域での飽和検出画素数が所定値未満の場合、ステップS1504へ進み、所定値以上の場合にはステップS1508へ進む。   In step S1501, reliability determination starts. In step S1502, the main CPU 151 and the focus control unit 133 acquire the image shift amount, the number of saturation detection pixels in the window region, and the contrast values in the window region and the visual field region from the phase difference AF processing unit 135. The contrast value here uses a peak value. In step S1503, the main CPU 151 compares the number of saturation detection pixels in the window area with a predetermined value. The predetermined value (threshold value) may be a fixed value such as 20 pixels. If the number of saturation detection pixels in the window area is less than the predetermined value, the process proceeds to step S1504, and if it is greater than the predetermined value, the process proceeds to step S1508.

ステップS1504は、像ずれ量Xの絶対値を所定値(閾値)と比較することにより行われる判定処理である。像ずれ量Xの絶対値が所定値未満である場合、ステップS1507へ進み、デフォーカス量が算出される。また像ずれ量Xの絶対値が所定値以上の場合にはステップS1505へ進む。   Step S1504 is a determination process performed by comparing the absolute value of the image shift amount X with a predetermined value (threshold value). If the absolute value of the image shift amount X is less than the predetermined value, the process proceeds to step S1507, and the defocus amount is calculated. If the absolute value of the image shift amount X is greater than or equal to a predetermined value, the process proceeds to step S1505.

ステップS1505にて、視野領域および窓領域での各ピーク値が比較される。本実施形態では視野領域での評価値が窓領域での評価値より大きいか、または窓領域での評価値が視野領域での評価値以上であるかについて判定処理が行われる。比較する評価値はいずれもコントラストピーク値である。視野領域でのピーク値が窓領域でのピーク値より大きい場合、ステップS1506へ進み、視野領域でのピーク値が窓領域でのピーク値以下である場合にはステップS1507へ進む。ステップS1506にて、視野領域でのピーク値が所定値と比較される。この所定値は飽和輝度に応じて設定される閾値である。視野領域でのピーク値が閾値以上である場合、ステップS1508へ進み、視野領域でのピーク値が閾値未満である場合にはステップS1507へ進む。ステップS1507、S1508、S1509の各処理は、図11中のステップS1110、S1111、S1112の各処理と同様であるため、それらの説明を省略する。   In step S1505, the peak values in the visual field area and the window area are compared. In the present embodiment, a determination process is performed as to whether the evaluation value in the visual field area is greater than the evaluation value in the window area or whether the evaluation value in the window area is greater than or equal to the evaluation value in the visual field area. All of the evaluation values to be compared are contrast peak values. If the peak value in the visual field area is larger than the peak value in the window area, the process proceeds to step S1506. If the peak value in the visual field area is equal to or less than the peak value in the window area, the process proceeds to step S1507. In step S1506, the peak value in the visual field region is compared with a predetermined value. This predetermined value is a threshold value set according to the saturation luminance. If the peak value in the visual field area is greater than or equal to the threshold value, the process proceeds to step S1508, and if the peak value in the visual field area is less than the threshold value, the process proceeds to step S1507. Since the processes in steps S1507, S1508, and S1509 are the same as the processes in steps S1110, S1111, and S1112 in FIG. 11, their descriptions are omitted.

本実施例では、焦点状態が合焦状態または合焦近傍の状態と見なされる場合、窓領域での飽和検出画素数に基づいて信頼性判定が行われる。像ずれ量から焦点状態がボケの大きい状態であると見なされる場合には、窓領域での飽和検出画素数のみでなく、窓領域と視野領域でのコントラスト値を用いて飽和検出の信頼性判定が行われる。飽和検出の範囲が適切に設定されて信頼性判定が行われるので、焦点検出の信頼性判定の精度を向上させることが可能である。   In the present embodiment, when the focus state is regarded as a focused state or a state in the vicinity of the focused state, reliability determination is performed based on the number of saturation detection pixels in the window region. When it is considered that the focus state is largely blurred from the amount of image shift, not only the saturation detection pixel count in the window area but also the saturation detection reliability judgment using the contrast values in the window area and the visual field area Is done. Since the saturation detection range is appropriately set and the reliability determination is performed, it is possible to improve the accuracy of the focus detection reliability determination.

各実施例によれば、焦点状態が合焦状態または合焦近傍の状態と見なされる場合には、窓領域の評価値を用い、ボケが大きい場合には、視野領域まで含めた評価値を用いた信頼性判定が可能である。焦点状態が大ボケを見込まれる場合には、位相差AFに関わる評価値の算出範囲を変更することで、位相差AFにおける信頼性判定の精度を向上させることができる。また各実施例では、窓領域と視野領域におけるそれぞれの評価値から、信頼性判定用の評価値を算出する方法について説明したが、領域の分割数は2つに限るものではない。分割数を3以上に設定することもできる。例えば視野領域は、窓領域と、窓領域を除いた右側領域および左側領域に3分割され、これらの組み合わせにより信頼性判定用の評価値が算出される。ボケが大きい場合には、A像信号の評価値を右側領域と窓領域の各評価値から算出し、B像信号の評価値を左側領域と窓領域の各評価値から算出することができる。   According to each embodiment, the evaluation value of the window area is used when the focus state is regarded as the in-focus state or the near-in-focus state, and the evaluation value including the visual field area is used when the blur is large. The reliability judgment that was possible is possible. When the focus state is expected to be largely blurred, the accuracy of reliability determination in the phase difference AF can be improved by changing the calculation range of the evaluation value related to the phase difference AF. In each embodiment, the method for calculating the evaluation value for reliability determination from the respective evaluation values in the window region and the visual field region has been described. However, the number of divisions of the region is not limited to two. The number of divisions can be set to 3 or more. For example, the visual field region is divided into a window region, a right region and a left region excluding the window region, and an evaluation value for reliability determination is calculated by a combination thereof. When the blur is large, the evaluation value of the A image signal can be calculated from the evaluation values of the right region and the window region, and the evaluation value of the B image signal can be calculated from the evaluation values of the left region and the window region.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

30 光電変換素子
31 マイクロレンズ
84 相関演算処理部
85 窓領域飽和検出部
86 視野領域飽和検出部
87 窓領域コントラスト値算出部
88 視野領域コントラスト値算出部
131 フォーカスレンズ
133 フォーカス制御部
135 位相差AF処理部
141 撮像素子
151 CPU

DESCRIPTION OF SYMBOLS 30 Photoelectric conversion element 31 Micro lens 84 Correlation calculation process part 85 Window area | region saturation detection part 86 Field of view area | region saturation detection part 87 Window area | region contrast value calculation part 88 Field of view area contrast value calculation part 131 Focus lens 133 Focus control part 135 Phase difference AF process Part 141 Image sensor 151 CPU

Claims (17)

撮像光学系の焦点状態により変化する一対の像信号を取得して焦点検出を行う撮像装置であって、
前記一対の像信号を用いて相関演算を行い、相関量および像ずれ量を算出するとともに、焦点検出用に設定される複数の領域からそれぞれ評価値を算出し、前記焦点状態を表わす指標を算出する算出手段と、
前記評価値および指標により前記像ずれ量の信頼性を判定し、信頼性があると判定した前記像ずれ量を用いて焦点調節の制御を行う制御手段と、を有し、
前記算出手段は、前記焦点状態が第1の状態である場合、前記複数の領域のうち、第1の領域で算出された第1の評価値の割合を高くし、前記焦点状態が第2の状態である場合、前記複数の領域のうち、前記第1の領域よりも広い第2の領域で算出された第2の評価値の割合を高くすることを特徴とする撮像装置。
An imaging apparatus that performs focus detection by acquiring a pair of image signals that change depending on a focus state of an imaging optical system,
The correlation calculation is performed using the pair of image signals, the correlation amount and the image shift amount are calculated, and evaluation values are calculated from a plurality of areas set for focus detection, and an index representing the focus state is calculated. Calculating means for
Control means for determining the reliability of the image shift amount based on the evaluation value and the index, and performing focus adjustment control using the image shift amount determined to be reliable,
When the focus state is the first state, the calculation unit increases the ratio of the first evaluation value calculated in the first region among the plurality of regions, and the focus state is the second state. In the state, the ratio of the second evaluation value calculated in a second area wider than the first area among the plurality of areas is increased.
撮像光学系の焦点状態により変化する一対の像信号を取得して焦点検出を行う撮像装置であって、
前記一対の像信号を用いて相関演算を行い、相関量および像ずれ量を算出するとともに、焦点検出用に設定される複数の領域からそれぞれ評価値を算出する算出手段と、
前記評価値により前記像ずれ量の信頼性を判定し、信頼性があると判定した前記像ずれ量を用いて焦点調節の制御を行う制御手段と、を有し、
前記算出手段は、前記焦点状態が第1の状態である場合、前記複数の領域のうち、第1の領域で算出された第1の評価値を選択し、前記焦点状態が第2の状態である場合、前記複数の領域のうち、前記第1の領域よりも広い第2の領域で算出された第2の評価値を選択することを特徴とする撮像装置。
An imaging apparatus that performs focus detection by acquiring a pair of image signals that change depending on a focus state of an imaging optical system,
Calculation means for performing correlation calculation using the pair of image signals, calculating a correlation amount and an image shift amount, and calculating an evaluation value from each of a plurality of regions set for focus detection;
Control means for determining the reliability of the image shift amount based on the evaluation value, and performing focus adjustment control using the image shift amount determined to be reliable,
When the focus state is the first state, the calculation unit selects a first evaluation value calculated in the first region from the plurality of regions, and the focus state is in the second state. In some cases, the imaging apparatus is configured to select a second evaluation value calculated in a second region wider than the first region among the plurality of regions.
前記第1の状態は、被写体に焦点が合った合焦状態または合焦近傍の状態であり、前記第2の状態は、被写体に焦点が合っていない状態であることを特徴とする請求項1または請求項2に記載の撮像装置。   2. The first state is a focused state in which the subject is focused or a state in the vicinity of the focused state, and the second state is a state in which the subject is not focused. Or the imaging device of Claim 2. 前記算出手段は、前記指標から決定される合成比率を用いて前記第1および第2の評価値の加重加算を行って評価値を算出し、前記制御手段は算出された前記評価値を閾値と比較することで前記像ずれ量の信頼性を判定することを特徴とする請求項1に記載の撮像装置。   The calculating means performs weighted addition of the first and second evaluation values using a composite ratio determined from the index to calculate an evaluation value, and the control means uses the calculated evaluation value as a threshold value. The imaging apparatus according to claim 1, wherein reliability of the image shift amount is determined by comparison. 前記制御手段は、前記第1および第2の評価値を閾値と比較することで前記像ずれ量の信頼性を判定することを特徴とする請求項2に記載の撮像装置。   The image pickup apparatus according to claim 2, wherein the control unit determines the reliability of the image shift amount by comparing the first and second evaluation values with a threshold value. 前記算出手段は、前記相関演算にて画素のシフトにより前記一対の像信号の相関量を演算し、
前記第1の領域は前記一対の像信号の相関を確認する窓領域であり、前記第2の領域は前記相関演算における前記一対の像信号のシフト量を含む視野領域であることを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。
The calculating means calculates a correlation amount of the pair of image signals by shifting pixels in the correlation calculation,
The first region is a window region for confirming a correlation between the pair of image signals, and the second region is a visual field region including a shift amount of the pair of image signals in the correlation calculation. The imaging device according to any one of claims 1 to 5.
前記算出手段は、
前記相関演算にて画素のシフトにより前記一対の像信号の相関量を演算し、
前記相関量の差分である相関変位量が前記相関量の極小値となるシフト位置において変化する変化量を、前記一対の像信号の最大値と最小値との差分値で除算することによって前記指標を算出することを特徴とする請求項1または請求項4に記載の撮像装置。
The calculating means includes
Calculate the correlation amount of the pair of image signals by shifting the pixels in the correlation calculation,
The index is obtained by dividing a change amount that changes at a shift position where a correlation displacement amount, which is a difference between the correlation amounts, becomes a minimum value of the correlation amount by a difference value between a maximum value and a minimum value of the pair of image signals. The imaging apparatus according to claim 1, wherein the imaging device is calculated.
前記算出手段は、
前記相関演算にて画素のシフトにより前記一対の像信号の相関量を演算し、
前記相関量の極小値となるシフト位置における像信号の相関度を、前記一対の像信号の最大値と最小値との差分値で除算することによって前記指標を算出することを特徴とする請求項1または請求項4に記載の撮像装置。
The calculating means includes
Calculate the correlation amount of the pair of image signals by shifting the pixels in the correlation calculation,
The index is calculated by dividing a correlation degree of an image signal at a shift position where the correlation value is a minimum value by a difference value between a maximum value and a minimum value of the pair of image signals. The imaging device according to claim 1 or 4.
前記算出手段は、前記像ずれ量またはデフォーカス量から前記指標を算出することを特徴とする請求項1または請求項4に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the calculation unit calculates the index from the image shift amount or the defocus amount. 前記算出手段は、前記一対の像信号のコントラスト値から前記評価値を算出し、
前記制御手段は、前記評価値が閾値より大きい場合に前記像ずれ量の信頼性があると判定することを特徴とする請求項1乃至9のいずれか1項に記載の撮像装置。
The calculation means calculates the evaluation value from a contrast value of the pair of image signals,
The image pickup apparatus according to claim 1, wherein the control unit determines that the image shift amount is reliable when the evaluation value is greater than a threshold value.
前記算出手段は、前記一対の像信号に対する飽和検出による検出画素数から前記評価値を算出し、
前記制御手段は、前記評価値が閾値より小さい場合に前記像ずれ量の信頼性があると判定することを特徴とする請求項1乃至9のいずれか1項に記載の撮像装置。
The calculation means calculates the evaluation value from the number of pixels detected by saturation detection for the pair of image signals,
The image pickup apparatus according to claim 1, wherein the control unit determines that the image shift amount is reliable when the evaluation value is smaller than a threshold value.
前記算出手段は、前記一対の像信号のコントラスト値および飽和検出による検出画素数から前記評価値を算出することを特徴とする請求項1乃至9のいずれか1項に記載の撮像装置。   10. The imaging apparatus according to claim 1, wherein the calculation unit calculates the evaluation value from a contrast value of the pair of image signals and the number of pixels detected by saturation detection. 11. 前記制御手段は、前記焦点状態が前記第1の状態であり、かつ前記第1の領域での前記検出画素数が閾値より小さい場合、前記像ずれ量の信頼性があると判定し、前記第1の領域での前記検出画素数が閾値以上である場合、前記像ずれ量の信頼性がないと判定することを特徴とする請求項12に記載の撮像装置。   The control means determines that the image shift amount is reliable when the focus state is the first state and the number of detected pixels in the first region is smaller than a threshold, The imaging apparatus according to claim 12, wherein when the number of detected pixels in one region is equal to or greater than a threshold value, the image shift amount is determined not to be reliable. 前記制御手段は、前記焦点状態が前記第2の状態であり、かつ前記第1の領域での前記検出画素数が閾値より小さい場合、前記第1の評価値と前記第2の評価値とを比較し、
前記第1の評価値が前記第2の評価値以上である場合、前記像ずれ量の信頼性があると判定することを特徴とする請求項13に記載の撮像装置。
The control means calculates the first evaluation value and the second evaluation value when the focus state is the second state and the number of detected pixels in the first region is smaller than a threshold value. Compare and
The imaging apparatus according to claim 13, wherein when the first evaluation value is greater than or equal to the second evaluation value, it is determined that the image shift amount is reliable.
前記制御手段は、前記第2の評価値が前記第1の評価値より大きい場合、前記第2の評価値が閾値より小さいときに前記像ずれ量の信頼性があると判定し、前記第2の評価値が前記閾値以上であるときに前記像ずれ量の信頼性がないと判定することを特徴とする請求項14に記載の撮像装置。   When the second evaluation value is larger than the first evaluation value, the control means determines that the image shift amount is reliable when the second evaluation value is smaller than a threshold, and the second evaluation value The image pickup apparatus according to claim 14, wherein the image shift amount is determined not to be reliable when the evaluation value is equal to or greater than the threshold value. 撮像光学系の焦点状態により変化する一対の像信号を取得して焦点検出を行う撮像装置にて実行される制御方法であって、
算出手段が前記一対の像信号を用いて相関演算を行い、相関量および像ずれ量を算出するとともに、焦点検出用に設定される複数の領域からそれぞれ評価値を算出し、前記焦点状態を表わす指標を算出する工程と、
制御手段が前記評価値および指標により前記像ずれ量の信頼性を判定し、信頼性があると判定した前記像ずれ量を用いて焦点調節の制御を行う工程と、を有し、
前記算出手段は、前記焦点状態が第1の状態である場合、前記複数の領域のうち、第1の領域で算出された第1の評価値の割合を高くし、前記焦点状態が第2の状態である場合、前記複数の領域のうち、前記第1の領域よりも広い第2の領域で算出された第2の評価値の割合を高くすることを特徴とする撮像装置の制御方法。
A control method executed by an imaging apparatus that acquires a pair of image signals that change depending on a focus state of an imaging optical system and performs focus detection,
The calculating means performs a correlation operation using the pair of image signals, calculates a correlation amount and an image shift amount, calculates an evaluation value from each of a plurality of areas set for focus detection, and represents the focus state Calculating a metric,
The control means determines the reliability of the image shift amount based on the evaluation value and the index, and performs a focus adjustment control using the image shift amount determined to be reliable,
When the focus state is the first state, the calculation unit increases the ratio of the first evaluation value calculated in the first region among the plurality of regions, and the focus state is the second state. When the state is a state, the ratio of the second evaluation value calculated in a second region wider than the first region among the plurality of regions is increased.
撮像光学系の焦点状態により変化する一対の像信号を取得して焦点検出を行う撮像装置にて実行される制御方法であって、
算出手段が前記一対の像信号を用いて相関演算を行い、相関量および像ずれ量を算出するとともに、焦点検出用に設定される複数の領域からそれぞれ評価値を算出する工程と、
制御手段が前記評価値により前記像ずれ量の信頼性を判定し、信頼性があると判定した前記像ずれ量を用いて焦点調節の制御を行う工程と、を有し、
前記算出手段は、前記焦点状態が第1の状態である場合、前記複数の領域のうち、第1の領域で算出された第1の評価値を選択し、前記焦点状態が第2の状態である場合、前記複数の領域のうち、前記第1の領域よりも広い第2の領域で算出された第2の評価値を選択することを特徴とする撮像装置の制御方法。
A control method executed by an imaging apparatus that acquires a pair of image signals that change depending on a focus state of an imaging optical system and performs focus detection,
Calculating a correlation using the pair of image signals, calculating a correlation amount and an image shift amount, and calculating an evaluation value from each of a plurality of regions set for focus detection;
The control means determines the reliability of the image shift amount based on the evaluation value, and performs focus adjustment control using the image shift amount determined to be reliable,
When the focus state is the first state, the calculation unit selects a first evaluation value calculated in the first region from the plurality of regions, and the focus state is in the second state. In some cases, the control method of the imaging apparatus, wherein a second evaluation value calculated in a second region wider than the first region is selected from the plurality of regions.
JP2016117277A 2016-06-13 2016-06-13 Imaging device and control method thereof Active JP6740019B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016117277A JP6740019B2 (en) 2016-06-13 2016-06-13 Imaging device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016117277A JP6740019B2 (en) 2016-06-13 2016-06-13 Imaging device and control method thereof

Publications (2)

Publication Number Publication Date
JP2017223741A true JP2017223741A (en) 2017-12-21
JP6740019B2 JP6740019B2 (en) 2020-08-12

Family

ID=60686874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016117277A Active JP6740019B2 (en) 2016-06-13 2016-06-13 Imaging device and control method thereof

Country Status (1)

Country Link
JP (1) JP6740019B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117853481A (en) * 2024-03-04 2024-04-09 枣庄矿业集团新安煤业有限公司 Linear guide rail surface defect measurement method of zero-speed passenger device

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63193133A (en) * 1987-02-06 1988-08-10 Minolta Camera Co Ltd Automatic focusing device
JPS63194240A (en) * 1987-02-07 1988-08-11 Minolta Camera Co Ltd Automatic focus detector
JPH1026526A (en) * 1996-07-10 1998-01-27 Fuji Photo Film Co Ltd Triangulation type range finding method
WO2013164937A1 (en) * 2012-05-01 2013-11-07 富士フイルム株式会社 Imaging device and focus control method
JP2014032214A (en) * 2010-11-30 2014-02-20 Fujifilm Corp Imaging apparatus and focus position detection method
JP2015018194A (en) * 2013-07-14 2015-01-29 キヤノン株式会社 Focus detection unit and image capturing device
JP2015087703A (en) * 2013-11-01 2015-05-07 キヤノン株式会社 Automatic focus adjustment unit, control method of automatic focus adjustment unit, control program of automatic focus adjustment unit, and storage medium
JP2015108672A (en) * 2013-12-03 2015-06-11 キヤノン株式会社 Image capturing device and control method therefor
JP2015129846A (en) * 2014-01-07 2015-07-16 キヤノン株式会社 Image capturing device and control method therefor
WO2015141081A1 (en) * 2014-03-18 2015-09-24 富士フイルム株式会社 Imaging device and focus control method
JP2015169708A (en) * 2014-03-05 2015-09-28 キヤノン株式会社 Image-capturing device, control method thereof, and control program

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63193133A (en) * 1987-02-06 1988-08-10 Minolta Camera Co Ltd Automatic focusing device
JPS63194240A (en) * 1987-02-07 1988-08-11 Minolta Camera Co Ltd Automatic focus detector
JPH1026526A (en) * 1996-07-10 1998-01-27 Fuji Photo Film Co Ltd Triangulation type range finding method
JP2014032214A (en) * 2010-11-30 2014-02-20 Fujifilm Corp Imaging apparatus and focus position detection method
WO2013164937A1 (en) * 2012-05-01 2013-11-07 富士フイルム株式会社 Imaging device and focus control method
JP2015018194A (en) * 2013-07-14 2015-01-29 キヤノン株式会社 Focus detection unit and image capturing device
JP2015087703A (en) * 2013-11-01 2015-05-07 キヤノン株式会社 Automatic focus adjustment unit, control method of automatic focus adjustment unit, control program of automatic focus adjustment unit, and storage medium
JP2015108672A (en) * 2013-12-03 2015-06-11 キヤノン株式会社 Image capturing device and control method therefor
JP2015129846A (en) * 2014-01-07 2015-07-16 キヤノン株式会社 Image capturing device and control method therefor
JP2015169708A (en) * 2014-03-05 2015-09-28 キヤノン株式会社 Image-capturing device, control method thereof, and control program
WO2015141081A1 (en) * 2014-03-18 2015-09-24 富士フイルム株式会社 Imaging device and focus control method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117853481A (en) * 2024-03-04 2024-04-09 枣庄矿业集团新安煤业有限公司 Linear guide rail surface defect measurement method of zero-speed passenger device
CN117853481B (en) * 2024-03-04 2024-05-24 枣庄矿业集团新安煤业有限公司 Linear guide rail surface defect measurement method of zero-speed passenger device

Also Published As

Publication number Publication date
JP6740019B2 (en) 2020-08-12

Similar Documents

Publication Publication Date Title
US8854528B2 (en) Imaging apparatus
US9137436B2 (en) Imaging apparatus and method with focus detection and adjustment
JP6033038B2 (en) FOCUS DETECTION DEVICE, IMAGING DEVICE, IMAGING SYSTEM, AND FOCUS DETECTION METHOD
US11095806B2 (en) Display control apparatus, display control method, and image capturing apparatus
US10049439B2 (en) Image processing method, image processing apparatus, image capturing apparatus and non-transitory computer-readable storage medium
US10395348B2 (en) Image pickup apparatus, image processing apparatus, and control method of image pickup apparatus
US10313577B2 (en) Focus detection apparatus, focus detection method, and image capturing apparatus
US9706131B2 (en) Image combining apparatus for generating a combined image from a plurality of images, image combining system, and image combining method
JP6808333B2 (en) Display control device and method, and imaging device
US9411211B2 (en) Image capturing apparatus and imaging method
US10218894B2 (en) Image capturing apparatus, image capturing method, and storage medium
US10999489B2 (en) Image processing apparatus, image processing method, and image capture apparatus
JP2015087511A (en) Focus detector, control method for the same, control program and imaging apparatus
JP6748477B2 (en) Imaging device, control method thereof, program, and storage medium
US10412330B2 (en) Image capture apparatus and method for controlling the same
JP6833405B2 (en) Focus detection device, focus adjustment device, imaging device and focus detection method
JP6740019B2 (en) Imaging device and control method thereof
US10003735B2 (en) Calculation device and image pickup device using calculation device and calculation method
US10205870B2 (en) Image capturing apparatus and control method thereof
JP6395621B2 (en) Focus adjustment device, imaging device using the same, and focus adjustment method
US11394899B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium for generating viewpoint movement moving image
JP6347581B2 (en) Focus detection apparatus and control method thereof
JP6611559B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
US20240089597A1 (en) Image capturing apparatus for capturing and compositing images different in in-focus position, control method, and storage medium
JP2015043044A (en) Focus detection unit and control method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190610

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200722

R151 Written notification of patent or utility model registration

Ref document number: 6740019

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151