JP5274307B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP5274307B2
JP5274307B2 JP2009048272A JP2009048272A JP5274307B2 JP 5274307 B2 JP5274307 B2 JP 5274307B2 JP 2009048272 A JP2009048272 A JP 2009048272A JP 2009048272 A JP2009048272 A JP 2009048272A JP 5274307 B2 JP5274307 B2 JP 5274307B2
Authority
JP
Japan
Prior art keywords
signal
focus detection
subject
divided
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009048272A
Other languages
Japanese (ja)
Other versions
JP2010204294A (en
Inventor
浩 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009048272A priority Critical patent/JP5274307B2/en
Publication of JP2010204294A publication Critical patent/JP2010204294A/en
Application granted granted Critical
Publication of JP5274307B2 publication Critical patent/JP5274307B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、被写体の状況に応じて適切な焦点検出を行う技術に関するものである。   The present invention relates to a technique for performing appropriate focus detection according to the state of a subject.

撮影レンズを透過して入射する被写体からの光を受光してピントのずれ量を検出し、カメラから被写体までの距離に応じて撮影レンズの焦点位置を自動調節する焦点調節装置を備えたカメラが普及している。その焦点調節を行う手段として、一般に以下の2つの方法が知られている。1つは、撮影レンズを通して撮像した画像信号のコントラストに基づいて焦点検出を行うコントラストAF方式(山登りAF方式、TV−AF方式)である。また、もう1つは、撮影レンズの異なる瞳領域を通過した複数の焦点検出用光束による像のズレ量に基づいて焦点検出を行う位相差AF方式(瞳分割方式、自己相関方式)である。   A camera equipped with a focus adjustment device that detects the amount of focus deviation by receiving light from a subject incident through the photographing lens and automatically adjusts the focal position of the photographing lens according to the distance from the camera to the subject. It is popular. The following two methods are generally known as means for adjusting the focus. One is a contrast AF method (mountain climbing AF method, TV-AF method) in which focus detection is performed based on the contrast of an image signal captured through a photographing lens. The other is a phase difference AF method (pupil division method, autocorrelation method) that performs focus detection based on the amount of image shift by a plurality of focus detection light beams that have passed through different pupil regions of the photographing lens.

ところで、被写体からの光を受光して焦点検出を行う上記の各焦点検出方式においては、被写体からの光だけではなく背景からの光も入射するため、検出されるピントのずれ量は背景の影響を受けることになる。被写体に比べ背景のコントラストが低いときには、ピントのずれ量検出に寄与する背景の影響は小さく、被写体のピントのずれを正しく検出することができる。しかし、コントラストの高い背景があるときにはピントのずれ量検出への背景の寄与が大きくなって、被写体のピントのずれ量を正しく検出することができない場合がある。言い換えると、遠近競合が発生してしまう場合がある。遠近競合が生じた場合、検出したピントのずれ量に基づいて撮影レンズ位置を設定すると、被写体とコントラストの高い背景との中間にピントが合う状態となって、ピントを合わせる目標である被写体に対して正しくピントが合わなくなる。   By the way, in each of the above-described focus detection methods in which light from a subject is received and focus detection is performed, not only light from the subject but also light from the background is incident, so the amount of focus deviation detected is influenced by the background. Will receive. When the background contrast is lower than that of the subject, the influence of the background contributing to the detection of the focus shift amount is small, and the focus shift of the subject can be detected correctly. However, when there is a high-contrast background, the contribution of the background to the detection of the focus shift amount becomes large, and the focus shift amount of the subject may not be detected correctly. In other words, perspective conflicts may occur. When perspective conflicts occur, setting the photographic lens position based on the detected amount of focus deviation results in focusing between the subject and the high-contrast background. Will not focus correctly.

このような問題を解決する方法として、以下のような方法が提案されている。   As a method for solving such a problem, the following method has been proposed.

特許文献1では、ずれ量検出用のラインセンサを設け、撮影レンズを透過した光からラインセンサ上に左右像を結像させ、ラインセンサの左像の映像信号を複数の画素ブロックに分割する。そして、各画素ブロックと右像の映像信号との相関演算を行ってピントのずれ量を検出する。更にそのピントのずれ量検出において遠近競合発生の有無を調べ、遠近競合時には画素ブロックをより少ない画素数のブロックに更に分割して、各分割ブロックについて相関演算を行ってピントのずれ量を検出する。   In Patent Document 1, a line sensor for detecting a deviation amount is provided, and left and right images are formed on the line sensor from light transmitted through a photographing lens, and a video signal of a left image of the line sensor is divided into a plurality of pixel blocks. Then, a correlation calculation between each pixel block and the video signal of the right image is performed to detect a focus shift amount. Further, in the detection of the amount of focus deviation, the presence / absence of perspective conflict is checked, and in the case of perspective conflict, the pixel block is further divided into blocks having a smaller number of pixels, and correlation calculation is performed on each divided block to detect the amount of focus deviation. .

特許文献2では、撮像素子の出力信号から高周波成分と低周波成分をフィルタにより抽出して、それによって得られた処理データを焦点検出演算の単位となるブロックに分割する。その分割されたブロック単位でデフォーカス量を算出して、デフォーカス量の信頼性を判定する。複数の領域のそれぞれの領域ごとに、領域の中に含まれるブロックのうち少なくとも一つについて信頼性が高いと判定されると、その領域を焦点検出可能と判断する。   In Patent Document 2, a high frequency component and a low frequency component are extracted from an output signal of an image sensor by a filter, and processing data obtained thereby is divided into blocks that are units of focus detection calculation. The defocus amount is calculated for each divided block, and the reliability of the defocus amount is determined. For each of the plurality of areas, if it is determined that at least one of the blocks included in the area is highly reliable, the area is determined to be focus-detectable.

特開平08−248303号公報Japanese Patent Laid-Open No. 08-248303 特開平08−075997号公報Japanese Patent Application Laid-Open No. 08-075997

特許文献1では、遠近競合の発生の有無の判断を一対の像の不一致度に基づいて行っている。しかし、像の不一致度を求める際にコントラストの影響は考慮しているが、像の周期性が考慮されていない。そのため、信頼性の低い像のずれ量をもとに焦点検出を行う可能性があり、高精度な焦点検出が行えるとは言い難い。また、撮像素子以外にずれ量を検出するためのラインセンサを設けているために、誤差要因が多くなり高精度な焦点検出を行うのが困難である。詳しくは、撮像素子への光学系とラインセンサへの光学系の経路の差、またそれぞれの光学系を構成するモールド部材等の製造誤差、温度による膨張などの要因による誤差など、誤差要因が多い。   In Patent Document 1, the presence / absence of perspective conflict is determined based on the degree of mismatch between a pair of images. However, although the influence of contrast is taken into account when obtaining the degree of image mismatch, the periodicity of the image is not taken into consideration. For this reason, there is a possibility that focus detection may be performed based on an unreliable image shift amount, and it is difficult to say that high-precision focus detection can be performed. In addition to the image sensor, a line sensor for detecting the shift amount is provided, so that there are many error factors and it is difficult to perform high-precision focus detection. Specifically, there are many error factors such as the difference in the path of the optical system to the image sensor and the optical system to the line sensor, the manufacturing error of the mold members etc. constituting each optical system, and the error due to factors such as expansion due to temperature. .

特許文献2では、デフォーカス量を用いてデフォーカス量の信頼性を判定しているので、被写体に周期性がある時などのように、もともとデフォーカス量自身に信頼性がない場合は、高精度な焦点検出が行えずに、無駄な信頼性判定演算を行うことになる。また完全に周期的な被写体に対して焦点検出を行いたい場合は、一旦、周期的な被写体と同程度の距離の被写体に対して合焦させるか、或いは手動でおおまかに撮影レンズを合焦位置近傍へ移動する手間を撮影者に強いることになってしまう。   In Patent Document 2, since the reliability of the defocus amount is determined by using the defocus amount, if the defocus amount itself is originally unreliable, such as when the subject has periodicity, Without performing accurate focus detection, useless reliability determination calculation is performed. Also, if you want to perform focus detection on a perfectly periodic subject, either focus once on a subject that is about the same distance as the periodic subject, or manually set the photographic lens roughly in focus. The photographer will be forced to move to the vicinity.

以上説明したように、上記の従来の焦点検出方式では、被写体によって遠近競合を低減できない場合があったり、信頼性の高い焦点検出が行えないことがあった。   As described above, in the conventional focus detection method described above, there are cases where the distance conflict cannot be reduced depending on the subject, or the focus detection with high reliability cannot be performed.

従って、本発明は上述した課題に鑑みてなされたものであり、その目的は、被写体の状況に応じた適切な焦点検出を可能とすることである。   Therefore, the present invention has been made in view of the above-described problems, and an object of the present invention is to enable appropriate focus detection according to the state of the subject.

上述した課題を解決し、目的を達成するために、本発明に係わる撮像装置は、撮影レンズにより結像される被写体像を光電変換して画像生成用の第1の信号を出力する第1の光電変換セルと、前記撮影レンズの瞳領域を分割して、分割された瞳領域からの被写体像を光電変換して位相差検出用の第2の信号を出力する第2の光電変換セルとを有する撮像素子と、少なくとも前記第1の信号を受けてコントラスト方式の焦点検出を行い、焦点調節のための第1の評価値を出力する第1の焦点検出手段と、前記第2の信号を受けて位相差方式の焦点検出を行い、焦点調節のための第2の評価値を出力する第2の焦点検出手段と、前記撮像素子の画面を複数の分割領域に分割し、該分割領域ごとに前記第1の信号と第2の信号から得られる被写体の低周波帯域成分と高周波帯域成分の量と前記撮影レンズのデフォーカス量とに基づいて、前記第2の焦点検出手段の焦点検出の信頼性を評価する評価手段と、前記評価手段による評価結果に基づいて、前記信頼性が高い場合には、前記第2の評価値を用いて前記撮影レンズを駆動した後、前記撮影レンズのデフォーカス量が所定値以内になった時点で前記第1の評価値を用いて前記撮影レンズを駆動する状態に切り替え、前記信頼性が低い場合には、前記第1の評価値を用いて前記撮影レンズを駆動するように制御する制御手段と、を備えることを特徴とする。 In order to solve the above-described problems and achieve the object, an imaging apparatus according to the present invention performs first photoelectric conversion on a subject image formed by a photographing lens and outputs a first signal for image generation. A photoelectric conversion cell; and a second photoelectric conversion cell that divides a pupil region of the photographing lens and photoelectrically converts a subject image from the divided pupil region to output a second signal for phase difference detection. An imaging device having at least a first focus detection unit that receives at least the first signal and performs contrast-type focus detection and outputs a first evaluation value for focus adjustment; and receives the second signal. And a second focus detection means for performing phase difference type focus detection and outputting a second evaluation value for focus adjustment, and dividing the screen of the image sensor into a plurality of divided areas, and for each divided area the subject obtained from the first and second signals On the basis of the defocus amount of the amount and the imaging lens of the frequency band component and a high frequency band component, and evaluating means for evaluating the reliability of the focus detection of the second focus detection unit, based on the evaluation result by the evaluation means When the reliability is high, the first evaluation value is obtained when the photographing lens is driven using the second evaluation value and the defocus amount of the photographing lens falls within a predetermined value. And a control means for controlling to drive the photographic lens using the first evaluation value when the reliability is low. And

本発明によれば、被写体の状況に応じた適切な焦点検出が可能となる。   According to the present invention, it is possible to detect an appropriate focus according to the state of the subject.

本発明の一実施形態に係る撮像装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an imaging apparatus according to an embodiment of the present invention. 一実施形態において位相差検出用画素を備えた撮像素子の画素配置を示す図である。It is a figure which shows pixel arrangement | positioning of the image pick-up element provided with the pixel for phase difference detection in one Embodiment. 一実施形態において撮像素子の第1の位相の検知のための画素の構造図である。FIG. 3 is a structural diagram of a pixel for detecting a first phase of an image sensor in an embodiment. 一実施形態において撮像素子の第2の位相の検知のための画素の構造図である。FIG. 6 is a structural diagram of a pixel for detecting a second phase of an image sensor in an embodiment. 一実施形態において焦点検出の概念を示す図である。It is a figure which shows the concept of a focus detection in one Embodiment. 一実施形態において焦点検出の概念を示す図である。It is a figure which shows the concept of a focus detection in one Embodiment. 一実施形態において像のずれを示す図である。It is a figure which shows the shift | offset | difference of an image in one Embodiment. 一実施形態においてコントラスト方式における、撮影レンズ位置とコントラスト評価値の関係(撮影レンズ駆動例)を説明する図である。It is a figure explaining the relationship (example of imaging lens drive) between an imaging lens position and a contrast evaluation value in a contrast method in an embodiment. 一実施形態において被写体判定ブロックの詳細な構成を示す図である。It is a figure which shows the detailed structure of a to-be-photographed object determination block in one Embodiment. 一実施形態における焦点調節動作を示すフローチャートである。It is a flowchart which shows the focus adjustment operation | movement in one Embodiment. 一実施形態において位相差方式の信頼性判定条件と判定結果を示す図である。It is a figure which shows the reliability determination conditions and determination result of a phase difference system in one Embodiment. 一実施形態において周期性を持つ被写体の像のずれを示す図The figure which shows shift | offset | difference of the image of the to-be-photographed object in one Embodiment 一実施形態において撮像素子に結像した被写体を示す図である。It is a figure which shows the to-be-photographed object imaged on the image pick-up element in one Embodiment. 一実施形態において顔枠が分割領域よりも小さく設定された様子を示す図である。It is a figure which shows a mode that the face frame was set smaller than the division area in one Embodiment. 一実施形態において顔枠が分割領域よりも大きく設定された様子を示す図である。It is a figure which shows a mode that the face frame was set larger than the division area in one Embodiment. 一実施形態において顔枠が分割領域と同等の大きさに設定された様子を示す図である。It is a figure which shows a mode that the face frame was set to the magnitude | size equivalent to a division area in one Embodiment. 一実施形態において顔枠と分割領域の境界が適合するように領域を再分割した様子を示す図である。It is a figure which shows a mode that the area | region was subdivided so that the boundary of a face frame and a division area might fit in one Embodiment.

以下、本発明の好適な一実施形態について、添付図面を参照して詳細に説明する。   Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明の一実施形態に係わる撮像装置の構成を示すブロック図である。   FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus according to an embodiment of the present invention.

図1において、撮影レンズ101を通過した被写体光束は、被写体像として結像され撮像素子102へ入射する。撮像素子102は離散的に位相差検出用画素が組み込まれた、電荷蓄積型のセンサであり、CMOSイメージセンサやCCDイメージセンサによって構成される。撮像素子102は、被写体光を、画像生成用の第1の信号に変換して出力する第1の光電変換セルと、位相差検出用の第2の信号に変換して出力する第2の光電変換セルを有している。A/D変換部103は撮像素子102から入力される電気信号をアナログ信号からデジタル信号に変換する。ここで、画像生成用の第1の信号とは第1の光電変換セル(以下、撮像画素と称する)が出力する信号をA/D変換部103で変換した信号のことである。また、位相差検出用の第2の信号とは第2の光電変換セル(以下、位相差検出用画素と称する)が出力する信号をA/D変換部103で変換した信号のことである。   In FIG. 1, the subject luminous flux that has passed through the photographing lens 101 is formed as a subject image and enters the image sensor 102. The image sensor 102 is a charge accumulation type sensor in which phase difference detection pixels are discretely incorporated, and is constituted by a CMOS image sensor or a CCD image sensor. The image sensor 102 converts a subject light into a first signal for image generation and outputs the first photoelectric conversion cell, and a second photoelectric sensor that converts the light into a second signal for phase difference detection and outputs the second signal. It has a conversion cell. The A / D conversion unit 103 converts an electrical signal input from the image sensor 102 from an analog signal to a digital signal. Here, the first signal for image generation is a signal obtained by converting the signal output from the first photoelectric conversion cell (hereinafter referred to as an imaging pixel) by the A / D conversion unit 103. The second signal for phase difference detection is a signal obtained by converting the signal output from the second photoelectric conversion cell (hereinafter referred to as phase difference detection pixel) by the A / D conversion unit 103.

領域指示部120はA/D変換部103から入力される全画面分の信号に対して、分割領域固有の信号を付加することで、どの分割領域かを指示する。コントラスト焦点検出ブロック112は画像生成用の第1の信号と位相差検出用の第2の信号を受けて、その高周波成分を抽出し、高周波成分に対して積分処理を行う。これにより、被写体の合焦状態を判定し、撮影レンズ101の駆動方向と駆動量を決定する。なお、本実施形態では、上記の第1の信号および第2の信号をコントラスト焦点検出ブロック(コントラスト方式の第1の焦点検出を行うブロック)112へ入力しているが、第1の信号のみを抽出して入力しても良い。   The region instruction unit 120 instructs which divided region by adding a signal specific to the divided region to the signals for the entire screen input from the A / D conversion unit 103. The contrast focus detection block 112 receives the first signal for image generation and the second signal for phase difference detection, extracts the high-frequency component, and performs integration processing on the high-frequency component. Thereby, the in-focus state of the subject is determined, and the driving direction and driving amount of the photographing lens 101 are determined. In the present embodiment, the first signal and the second signal are input to the contrast focus detection block 112 (block for performing contrast-type first focus detection). However, only the first signal is input. You may extract and input.

104は被写体の高周波成分を抽出するためのハイパスフィルタ(HPF)であり、積分回路105は選択された領域の高周波成分を積分すると共に、個々の分割領域に割り振られたアドレスをメモリ122へ与える。これによって、分割領域ごとの積分結果の書き込み、或いは、読み出しを行う。そして、積分結果をコントラスト評価部114へ出力する。メモリ122は、指定されたアドレスに分割領域ごとの積分結果を書き込む、或いは読み出す。ピークホールド回路106は積分回路105と同時に同じコントラスト評価領域内におけるHPF104からの入力から信号レベルのピーク値を検出して保持する。コントラスト評価部114は領域指示部120で選択された領域に対して、積分回路105、ピークホールド回路106からコントラスト評価値、ピーク値を読み出す。そして、ピーク値に対するコントラスト評価値の大小関係から撮影レンズ101の駆動量と駆動方向を示す第1の評価値を算出する。さらに、この第1の評価値を焦点検出方式切り替え部109へ出力する。コントラスト評価部114の具体的な動作は後述する。   Reference numeral 104 denotes a high-pass filter (HPF) for extracting a high-frequency component of the subject, and the integration circuit 105 integrates the high-frequency component in the selected area and supplies the memory 122 with an address assigned to each divided area. Thus, the integration result for each divided region is written or read. Then, the integration result is output to the contrast evaluation unit 114. The memory 122 writes or reads the integration result for each divided area at a specified address. The peak hold circuit 106 detects and holds the peak value of the signal level from the input from the HPF 104 in the same contrast evaluation region simultaneously with the integration circuit 105. The contrast evaluation unit 114 reads the contrast evaluation value and the peak value from the integration circuit 105 and the peak hold circuit 106 for the region selected by the region instruction unit 120. Then, a first evaluation value indicating the driving amount and driving direction of the photographing lens 101 is calculated from the magnitude relationship of the contrast evaluation value with respect to the peak value. Further, the first evaluation value is output to the focus detection method switching unit 109. The specific operation of the contrast evaluation unit 114 will be described later.

位相差焦点検出ブロック(位相差方式の第2の焦点検出を行うブロック)115は、領域指示部120の出力信号から第2の信号を抽出し、それに基づいてデフォーカス量を算出することにより合焦位置までの撮影レンズ101の駆動方向と駆動量を決定するブロックである。位相差検出用信号抽出部113は、領域指示部120の出力信号から第2の信号を抽出して、デフォーカス量算出部107へ第2の信号を出力する。デフォーカス量算出部107は、第2の信号からデフォーカス量を算出すると共に、個々の分割領域に割り振られたアドレスをメモリ121へ与えることによって、分割領域ごとのデフォーカス量を書き込み、或いは、読み出しを行う。デフォーカス量を位相差評価部111とシーン評価部119へ出力する。メモリ121は、指定されたアドレスに分割領域ごとのデフォーカス量を書き込む、或いは読み出す。位相差評価部111は、デフォーカス量に基づいて合焦するまでの撮影レンズ101の駆動方向と駆動量を算出する。その算出結果に基づいた第2の評価値を焦点検出方式切り替え部109へ出力する。   The phase difference focus detection block (block for performing phase difference type second focus detection) 115 extracts the second signal from the output signal of the area instruction unit 120 and calculates the defocus amount based on the second signal. This is a block for determining the driving direction and driving amount of the photographing lens 101 up to the focal position. The phase difference detection signal extraction unit 113 extracts the second signal from the output signal of the region instruction unit 120 and outputs the second signal to the defocus amount calculation unit 107. The defocus amount calculation unit 107 calculates the defocus amount from the second signal and writes the defocus amount for each divided region by giving the address assigned to each divided region to the memory 121, or Read. The defocus amount is output to the phase difference evaluation unit 111 and the scene evaluation unit 119. The memory 121 writes or reads the defocus amount for each divided area at a specified address. The phase difference evaluation unit 111 calculates the driving direction and driving amount of the photographing lens 101 until focusing is performed based on the defocus amount. The second evaluation value based on the calculation result is output to the focus detection method switching unit 109.

被写体判定ブロック108は、位相差検出用画素の配置によって決まる周波数fpから求まるカットオフ周波数fp/2を基準にして第1および第2の信号から被写体の周波数帯域分布を算出し、焦点検出を制御するブロックである。周波数fpの説明、被写体の判定方法、焦点検出方式の選択条件については後述する。周波数算出部117は、周波数fpから求まるカットオフ周波数fp/2を基準にして第1及び第2の信号の混在信号から算出した周波数を低周波帯域と高周波帯域に分離して、それぞれを積分する。この積分結果を周波数評価部118へ出力する。   The subject determination block 108 controls the focus detection by calculating the frequency band distribution of the subject from the first and second signals with reference to the cutoff frequency fp / 2 obtained from the frequency fp determined by the arrangement of the phase difference detection pixels. It is a block to do. The description of the frequency fp, the subject determination method, and the focus detection method selection conditions will be described later. The frequency calculation unit 117 separates the frequency calculated from the mixed signal of the first and second signals on the basis of the cut-off frequency fp / 2 obtained from the frequency fp into a low frequency band and a high frequency band, and integrates them. . This integration result is output to the frequency evaluation unit 118.

周波数評価部118は、上記の積分結果をもとに被写体が持つ低周波帯域成分と高周波帯域成分の比率を評価する。それに加えて、低周波帯域成分と高周波帯域成分に対するコントラスト検出の可否を評価する。撮像素子102の分割領域ごとの評価結果をシーン評価部119へ出力する。   The frequency evaluation unit 118 evaluates the ratio between the low frequency band component and the high frequency band component of the subject based on the integration result. In addition, whether or not the contrast can be detected for the low frequency band component and the high frequency band component is evaluated. The evaluation result for each divided region of the image sensor 102 is output to the scene evaluation unit 119.

シーン評価部119は、上記の分割領域ごとの評価結果と、分割領域ごとのデフォーカス量から領域ごとに撮影画像の評価を行い、分割領域ごとに位相差検出の信頼性を評価する。そして、信頼性評価結果から焦点検出方式を選択する制御信号を生成して焦点検出方式切り替え部109へ出力する。   The scene evaluation unit 119 evaluates the captured image for each area based on the evaluation result for each divided area and the defocus amount for each divided area, and evaluates the reliability of phase difference detection for each divided area. Then, a control signal for selecting a focus detection method is generated from the reliability evaluation result and output to the focus detection method switching unit 109.

なお、本実施形態では、第1及び第2の信号を被写体判定ブロック108へ入力しているが、第1の信号のみを抽出して入力しても良い。   In the present embodiment, the first and second signals are input to the subject determination block 108, but only the first signal may be extracted and input.

焦点検出方式切り替え部109はシーン評価部119から入力される制御信号に基づいてコントラスト評価部114から入力される第1の評価値と、位相差評価部111から入力される第2の評価値のいずれかを選択してモータ駆動制御部110に出力する。モータ駆動制御部110は焦点検出方式切り替え部109から入力される第1の評価値または第2の評価値に基づいてモータを駆動するモータ制御信号を生成し、モータ116へ出力する。モータ116はモータ制御信号に従って撮影レンズ101を駆動する(焦点調節を行う)。   The focus detection method switching unit 109 has a first evaluation value input from the contrast evaluation unit 114 and a second evaluation value input from the phase difference evaluation unit 111 based on the control signal input from the scene evaluation unit 119. Either is selected and output to the motor drive control unit 110. The motor drive control unit 110 generates a motor control signal for driving the motor based on the first evaluation value or the second evaluation value input from the focus detection method switching unit 109 and outputs the motor control signal to the motor 116. The motor 116 drives the photographic lens 101 according to the motor control signal (adjusts the focus).

次に、図2を用いて撮像素子102の位相差検出用画素の配置と、それによって決まる周波数fpについて説明する。   Next, the arrangement of the phase difference detection pixels of the image sensor 102 and the frequency fp determined thereby will be described with reference to FIG.

図2は、撮像素子102の一部を拡大した図である。図中、201(その他の白抜きの画素も含む)は通常の撮像画素、202,203(その他の斜線が施された画素も含む)は位相差検出用画素を示している。位相差検出用画素は隣接した2画素1組のペア構成になっており、撮像素子102内に離散的に配置されている。また、撮像画素の間隔をdとする。図2では説明の簡略化のために位相差検出用画素数を全画素数の2%の割合で記載している。更に、隣接している位相差検出用画素ペア同士の間隔を10*dとして記載している。   FIG. 2 is an enlarged view of a part of the image sensor 102. In the figure, 201 (including other white pixels) is a normal imaging pixel, and 202 and 203 (including other hatched pixels) are phase difference detection pixels. The phase difference detection pixels have a pair configuration of two adjacent pixels, and are discretely arranged in the image sensor 102. In addition, the interval between the imaging pixels is d. In FIG. 2, the number of phase difference detection pixels is shown as a ratio of 2% of the total number of pixels for the sake of simplicity of explanation. Further, the interval between adjacent phase difference detection pixel pairs is described as 10 * d.

図2に示した通りに位相差検出用画素を配置した場合、この撮像素子102の撮像画素の配置で決まる周波数は1/d(=fsとする)なので、サンプリング定理を満足する帯域は0〜fs/2と表せる。また位相差検出用画素ペア同士の配置で決まる周波数は1/10d(=fs/10=fpとする)なので、サンプリング定理を満足する帯域は0〜fs/20(=fp/2)と表せる。   When the phase difference detection pixels are arranged as shown in FIG. 2, the frequency determined by the arrangement of the imaging pixels of the imaging element 102 is 1 / d (= fs), so that the band satisfying the sampling theorem is 0 to 0. It can be expressed as fs / 2. Since the frequency determined by the arrangement of the phase difference detection pixel pairs is 1 / 10d (= fs / 10 = fp), the band that satisfies the sampling theorem can be expressed as 0 to fs / 20 (= fp / 2).

図3に位相差検出用画素S1(対になっている位相差検出用画素のうち、例えば202とする)の詳細図を示す。これは、原理的には特開2000−156823号公報に開示されている構造と同一である。   FIG. 3 shows a detailed view of the phase difference detection pixel S1 (for example, 202 among the pair of phase difference detection pixels). This is in principle the same as the structure disclosed in Japanese Patent Laid-Open No. 2000-156823.

図3(a)は位相差検出用画素S1を上部から見た図であり、図3(b)は図3(a)のB−B’断面である。この画素はカラーフィルタ層はもたず、最上部にマイクロレンズ301が形成されている。302はマイクロレンズを形成するための平面を構成するための平滑層、303は遮光膜である。そして遮光膜303に開口部303aが形成されている。また、304は平滑層、305は絶縁層である。   FIG. 3A is a view of the phase difference detection pixel S1 as viewed from above, and FIG. 3B is a B-B ′ cross section of FIG. This pixel does not have a color filter layer, and a microlens 301 is formed on the top. Reference numeral 302 denotes a smooth layer for forming a plane for forming a microlens, and 303 denotes a light shielding film. An opening 303 a is formed in the light shielding film 303. Reference numeral 304 denotes a smooth layer and 305 denotes an insulating layer.

図4は位相差検出用画素S2(対になっている位相差検出用画素のうち、例えば203とする)の詳細図である。S1画素とは反対方向に画素中心から同距離のところに開口部303aをもつ。   FIG. 4 is a detailed view of the phase difference detection pixel S2 (of the paired phase difference detection pixels, for example, 203). An opening 303a is provided at the same distance from the pixel center in the opposite direction to the S1 pixel.

次に、位相差方式による像のずれ検出について以下に説明する。   Next, detection of image shift by the phase difference method will be described below.

100万画素を越えるエリアセンサにおいては、図2の配列で、S1とS2では近似の像がマイクロレンズ上に結像される。いま撮像素子102に像を結ぶ撮影レンズ101が撮像素子102上でピントがあっているのであれば、S1からの像信号と、S2からの像信号は一致する。もし、ピントを結ぶ点が撮像素子102のイメージ面よりも前方か後方にあるならば、S1の像信号と、S2の像信号に位相差が生じる。そして、結像点が前の場合と後の場合では位相のずれ方向が逆になる。   In the area sensor exceeding 1 million pixels, an approximate image is formed on the microlens in S1 and S2 in the arrangement of FIG. If the photographing lens 101 that connects an image to the image sensor 102 is in focus on the image sensor 102, the image signal from S1 and the image signal from S2 are the same. If the point to be focused is in front of or behind the image plane of the image sensor 102, a phase difference occurs between the image signal of S1 and the image signal of S2. Then, the phase shift direction is reversed between the case where the image formation point is before and the case where the image formation point is after.

図5、図6に位相差方式による焦点検出の概念図を示す。ここでは説明の簡略化のためにS1及びS2を同一の平面上に表す。図中、S1とS2のペアが同一のマイクロレンズで覆われているが、S1とS2が別々のマイクロレンズで覆われていても原理は同じである。   5 and 6 are conceptual diagrams of focus detection by the phase difference method. Here, for simplification of description, S1 and S2 are represented on the same plane. In the figure, the pair of S1 and S2 is covered with the same microlens, but the principle is the same even if S1 and S2 are covered with different microlenses.

被写体の特定点からの光はS1にとっての瞳領域を通ってS1に入射する光束(L1)と、S2にとっての瞳領域を通ってS2に入射する光束(L2)に分けられる。この二つの光束は、カメラのピントが合っているときには、図5に示すようにマイクロレンズ表面上の一点に集光する。そしてS1及びS2には同一の像が露光される。これにより、S1から読み出した画像信号と、S2から読み出した画像信号は同一のものとなる。   Light from a specific point of the subject is divided into a light beam (L1) incident on S1 through the pupil region for S1 and a light beam (L2) incident on S2 through the pupil region for S2. These two light beams are condensed at one point on the surface of the microlens as shown in FIG. 5 when the camera is in focus. The same image is exposed on S1 and S2. Thereby, the image signal read from S1 and the image signal read from S2 are the same.

一方、カメラのピントが合っていないときには、図6に示すように、L1とL2はマイクロレンズ表面とは異なる位置で交差する。マイクロレンズ表面と二つの光束の交点との距離すなわちデフォーカス量がxであったとする。また、この時に発生したS1の像とS2の像のずれ量がn画素分であり、センサピッチがd、二つの瞳の重心間の距離がDaf、撮影レンズの主点から焦点までの距離がuであったとする。この時デフォーカス量xは、
x=n×d×u/Daf …(1)
で求められる。さらに、uは撮影レンズの焦点距離fにほぼ等しいと考えられるので、
x=n×d×f/Daf …(2)
で求めればよい。
On the other hand, when the camera is not in focus, L1 and L2 intersect at a position different from the microlens surface as shown in FIG. Assume that the distance between the microlens surface and the intersection of two light beams, that is, the defocus amount is x. Further, the amount of deviation between the S1 image and the S2 image generated at this time is n pixels, the sensor pitch is d, the distance between the centers of gravity of the two pupils is Daf, and the distance from the principal point of the photographing lens to the focal point is Suppose u. At this time, the defocus amount x is
x = n × d × u / Daf (1)
Is required. Furthermore, since u is considered to be approximately equal to the focal length f of the taking lens,
x = n × d × f / Daf (2)
Find it in

図7に撮像素子102上のS1から読み出した画像信号の様子とS2から読み出した画像信号の様子を示す。S1から読み出した画像信号とS2から読み出した画像信号には像のずれn×dが発生する。この二つの画像信号のずれ量を求め、これよりデフォーカス量xを求め、さらに撮影レンズ101をx移動すればオートフォーカスを達成することが可能となる。   FIG. 7 shows the state of the image signal read from S1 on the image sensor 102 and the state of the image signal read from S2. An image shift n × d occurs between the image signal read from S1 and the image signal read from S2. If the amount of deviation between the two image signals is obtained, the defocus amount x is obtained therefrom, and the photographing lens 101 is further moved by x, autofocus can be achieved.

ところで、上記のような像のずれを発生させるためには、レンズに入射する光のうち二つの異なる瞳を通った光束L1及びL2を分離する必要がある。本実施形態の方法は撮像素子102上に瞳分割の機能を持つフォーカス検出用セルを生成することにより、瞳分割を行う。これにより、光軸を中心として対称となる二つの瞳位置からの光束によりセンサ上に結像した像のうち、一方がS1によって光電変換され、もう一方がS2によって光電変換され、瞳位置の異なる二つの像が得られる。   By the way, in order to generate the image shift as described above, it is necessary to separate the light beams L1 and L2 passing through two different pupils among the light incident on the lens. In the method of this embodiment, pupil division is performed by generating a focus detection cell having a pupil division function on the image sensor 102. As a result, one of the images formed on the sensor by the light beams from the two pupil positions that are symmetric about the optical axis is photoelectrically converted by S1, the other is photoelectrically converted by S2, and the pupil positions are different. Two images are obtained.

位相差方式で焦点検出を行うときは、図1において撮像素子102からA/D変換部103を介して画像生成用の第1の信号および位相差検出用の第2の信号が位相差検出用信号抽出部113へ入力される。位相差検出用信号抽出部113では位相差検出用画素S1及びS2からの信号が抽出される。これによって得たS1及びS2の位相差検出用信号をデフォーカス量算出部107へ出力する。デフォーカス量算出部107では位相差検出用信号からS1による像とS2による像をそれぞれ生成し、二つの像の相関を演算することによって像のデフォーカス量を算出する。更に、算出したデフォーカス量をメモリ121に書き込む。デフォーカス量算出部107によって特定の領域のデフォーカス量をメモリ121から読み出した後、位相差評価部111へ出力する。位相差評価部111では、特定の領域のデフォーカス量に基づいて撮影レンズ101の駆動量、駆動方向を制御する第2の評価値を出力する。   When focus detection is performed by the phase difference method, the first signal for image generation and the second signal for phase difference detection are used for phase difference detection from the image sensor 102 via the A / D converter 103 in FIG. The signal is input to the signal extraction unit 113. The phase difference detection signal extraction unit 113 extracts signals from the phase difference detection pixels S1 and S2. The phase difference detection signals S1 and S2 obtained in this way are output to the defocus amount calculation unit 107. The defocus amount calculation unit 107 generates an image by S1 and an image by S2 from the phase difference detection signal, and calculates the defocus amount of the image by calculating the correlation between the two images. Further, the calculated defocus amount is written in the memory 121. The defocus amount calculation unit 107 reads the defocus amount of a specific area from the memory 121 and then outputs it to the phase difference evaluation unit 111. The phase difference evaluation unit 111 outputs a second evaluation value for controlling the driving amount and driving direction of the photographing lens 101 based on the defocus amount of a specific area.

次にコントラスト焦点検出ブロック112の具体的な動作について説明する。コントラスト焦点検出ブロック112は領域指示部120で選択された領域に対して、ピークホールド回路106からの読み出し値よりも積分回路105からのコントラスト評価値が大きくなる方向へ撮影レンズ101を駆動することによりコントラスト評価値の極大値を探索する。このときのコントラスト評価部114によるコントラスト評価値に応じた撮影レンズ101の駆動例を図8に示す。図8において、横軸はモータ駆動制御部110からモータ116に出力されるモータ制御信号に含まれる駆動パルス数、すなわち撮影レンズ101の移動位置を示す。縦軸は駆動パルス数に応じた各撮影レンズ位置において、第1および第2の信号から算出されるコントラスト評価値である。   Next, a specific operation of the contrast focus detection block 112 will be described. The contrast focus detection block 112 drives the photographing lens 101 in a direction in which the contrast evaluation value from the integration circuit 105 is larger than the read value from the peak hold circuit 106 for the region selected by the region instruction unit 120. The maximum value of the contrast evaluation value is searched. FIG. 8 shows an example of driving the photographing lens 101 according to the contrast evaluation value by the contrast evaluation unit 114 at this time. In FIG. 8, the horizontal axis indicates the number of drive pulses included in the motor control signal output from the motor drive control unit 110 to the motor 116, that is, the moving position of the photographing lens 101. The vertical axis represents the contrast evaluation value calculated from the first and second signals at each photographing lens position corresponding to the number of drive pulses.

コントラスト方式により撮影レンズ101を、例えば無限遠位置から至近方向に移動させていくと、ピークホールド回路106からの読み出し値より積分回路105からのコントラスト評価値が大きいという状態が続き合焦位置に近づいて行く。そして被写体に合焦する位置でコントラスト評価値は極大値を示す。現在の駆動方向に駆動するための制御信号を焦点検出方式切り替え部109へ出力する。更に撮影レンズ101を駆動していくと、ピークホールド回路106からの読み出し値より積分回路105からのコントラスト評価値が小さくなる。この二つの評価値の逆転により合焦位置を検出する。従って、コントラスト評価部114は二つの評価値の大小関係を評価しながらモータ駆動制御部110を介してモータ116を駆動するように制御する。図8の矢印にて示すようにコントラスト評価値が一旦極大値に達しこれを過ぎることにより、ピークホールド回路106からの読み出し値に対して積分回路105からのコントラスト評価値が小さくなる。ピークホールド回路106からの読み出し値に対して積分回路105からのコントラスト評価値が所定値だけ下降したところで撮影レンズ101が合焦位置を通過したと判断する。従って、コントラスト評価値がピークホールド回路106からの読み出し値と等しくなる位置まで撮影レンズ101を逆方向に駆動させるための制御信号を焦点検出方式切り替え部109へ出力する。そして積分回路105からのコントラスト評価値がピークホールド回路106からの読み出し値と等しくなると、撮影レンズ101を停止させるための制御信号を焦点検出方式切り替え部109へ出力する。   For example, when the photographing lens 101 is moved in the close direction from the infinity position by the contrast method, the contrast evaluation value from the integration circuit 105 is larger than the read value from the peak hold circuit 106 and approaches the in-focus position. Go. The contrast evaluation value shows a maximum value at the position where the subject is in focus. A control signal for driving in the current driving direction is output to the focus detection method switching unit 109. When the photographing lens 101 is further driven, the contrast evaluation value from the integration circuit 105 becomes smaller than the read value from the peak hold circuit 106. The in-focus position is detected by reversing these two evaluation values. Therefore, the contrast evaluation unit 114 controls the motor 116 to be driven via the motor drive control unit 110 while evaluating the magnitude relationship between the two evaluation values. As indicated by the arrow in FIG. 8, the contrast evaluation value once reaches the maximum value and passes through this, and the contrast evaluation value from the integration circuit 105 becomes smaller than the read value from the peak hold circuit 106. When the contrast evaluation value from the integration circuit 105 decreases by a predetermined value with respect to the read value from the peak hold circuit 106, it is determined that the taking lens 101 has passed the in-focus position. Therefore, a control signal for driving the photographing lens 101 in the reverse direction to a position where the contrast evaluation value becomes equal to the read value from the peak hold circuit 106 is output to the focus detection method switching unit 109. When the contrast evaluation value from the integration circuit 105 becomes equal to the read value from the peak hold circuit 106, a control signal for stopping the photographing lens 101 is output to the focus detection method switching unit 109.

次に図9を用いて周波数算出部117と周波数評価部118で行われる評価内容について説明する。   Next, evaluation contents performed by the frequency calculation unit 117 and the frequency evaluation unit 118 will be described with reference to FIG.

901は、カットオフ周波数がfp/2(=fs/20)のハイパスフィルタ(HPF)であり、A/D変換部103から受ける第1及び第2の信号の高周波帯域成分を抽出する。903は、HPF901で抽出された高周波成分を積分するための積分回路である。積分回路903の演算結果Hは、被写体が持つ高周波帯域の量を示す値である。   Reference numeral 901 denotes a high-pass filter (HPF) having a cutoff frequency of fp / 2 (= fs / 20), and extracts high-frequency band components of the first and second signals received from the A / D conversion unit 103. Reference numeral 903 denotes an integration circuit for integrating the high frequency components extracted by the HPF 901. The calculation result H of the integration circuit 903 is a value indicating the amount of the high frequency band that the subject has.

902はカットオフ周波数がfp/2のローパスフィルタ(LPF)であり、A/D変換部103から受ける第1及び第2の信号の低周波帯域成分を抽出する。904は、LPF902で抽出された低周波成分を積分するための積分回路である。積分回路904の演算結果Lは、被写体が持つ低周波帯域の量を示す値である。前述した位相差検出用画素の配置によって決まる周波数fpは不図示のCPU等から与えられる設定値である。これは固定値でも良いし、可変としても良い。   Reference numeral 902 denotes a low-pass filter (LPF) having a cutoff frequency of fp / 2, and extracts low-frequency band components of the first and second signals received from the A / D conversion unit 103. Reference numeral 904 denotes an integration circuit for integrating the low frequency components extracted by the LPF 902. The calculation result L of the integration circuit 904 is a value indicating the amount of the low frequency band that the subject has. The frequency fp determined by the arrangement of the phase difference detection pixels described above is a set value given from a CPU (not shown) or the like. This may be a fixed value or variable.

低周波帯域評価部905は、Lに重み付けのための補正係数kを乗じた積kLと、帯域判断基準値Aとを大小比較することによって、被写体が持つ低周波帯域成分を評価する。ここで帯域判断基準値Aとは、入力された被写体のコントラスト検出が可能かどうかを判定する基準値である。撮像素子102の感度などによりAの値が決定される。分布評価部906は、kLとHとを大小比較することによって、被写体が持つ周波数の分布を評価する。高周波帯域評価部907は、HとAを大小比較することによって、被写体が持つ高周波帯域成分を評価する。   The low frequency band evaluation unit 905 evaluates a low frequency band component of the subject by comparing the product kL obtained by multiplying L by a correction coefficient k for weighting and the band determination reference value A. Here, the band determination reference value A is a reference value for determining whether or not the contrast of the input subject can be detected. The value of A is determined by the sensitivity of the image sensor 102 and the like. The distribution evaluation unit 906 evaluates the frequency distribution of the subject by comparing the size of kL and H. The high frequency band evaluation unit 907 evaluates the high frequency band component of the subject by comparing H and A with each other.

シーン評価部119へは領域指示部120によって選択された領域に対する、低周波帯域評価部905、分布評価部906、高周波帯域評価部907からの評価結果が出力される。   Evaluation results from the low frequency band evaluation unit 905, the distribution evaluation unit 906, and the high frequency band evaluation unit 907 are output to the scene evaluation unit 119 for the region selected by the region instruction unit 120.

次に、シーン評価部119で行われる被写体の判定と焦点検出方式の決定について図9、図11、図12を用いて説明する。   Next, subject determination and focus detection method determination performed by the scene evaluation unit 119 will be described with reference to FIGS. 9, 11, and 12.

シーン評価部119は、領域ごとに入力される被写体の低周波帯域がコントラスト検出が可能かどうかを示す低周波帯域評価部905の評価値と、被写体の高周波帯域がコントラスト検出が可能かどうかを示す高周波帯域評価部907の評価値と、被写体がもつ周波数分布に対して精度の良い位相差方式による焦点検出が可能かどうかを示す分布評価部906の評価値に基づいて、領域ごとにシーン評価を行い、そのシーン評価結果を記憶しておく。また、シーン評価結果から焦点検出方式の判断を行い、焦点検出方式を選択する制御信号を焦点検出方式切り替え部109へ出力する。シーン評価、シーン評価結果については後述する。   The scene evaluation unit 119 indicates the evaluation value of the low frequency band evaluation unit 905 indicating whether or not the contrast can be detected in the low frequency band of the subject input for each region, and indicates whether the high frequency band of the subject can be detected in the contrast. Based on the evaluation value of the high-frequency band evaluation unit 907 and the evaluation value of the distribution evaluation unit 906 indicating whether or not the focus detection by the phase difference method with high accuracy can be performed on the frequency distribution of the subject, the scene evaluation is performed for each region. The scene evaluation result is stored. Further, the focus detection method is determined from the scene evaluation result, and a control signal for selecting the focus detection method is output to the focus detection method switching unit 109. The scene evaluation and the scene evaluation result will be described later.

図9ではLにkを乗じた積kLを判定に用いる評価値としているが、本実施形態では理解を容易にするため係数k=1とする。   In FIG. 9, a product kL obtained by multiplying L by k is used as an evaluation value for determination, but in this embodiment, a coefficient k = 1 is set to facilitate understanding.

次に図11を用いて、位相差方式の信頼性を判定する条件について説明する。   Next, conditions for determining the reliability of the phase difference method will be described with reference to FIG.

図11−1は被写体を周波数分布で分類する条件を示した表である。A、kL、Hの大小関係によりa〜cに分類される。   FIG. 11A is a table showing conditions for classifying a subject by frequency distribution. It is classified into a to c according to the magnitude relationship of A, kL, and H.

図11−2は、第1及び第2の信号が表す撮影画像の周波数分布を、横軸を周波数、縦軸を撮影画像を積分回路903、904で積分した出力(以下、Powerと称する)とした平面上に示した図である。周波数fsによるサンプリングで折り返しが生じない周波数分布を示している。   FIG. 11-2 shows the frequency distribution of the captured image represented by the first and second signals, with the horizontal axis representing the frequency and the vertical axis representing the output obtained by integrating the captured image with the integration circuits 903 and 904 (hereinafter referred to as “Power”). It is the figure shown on the done plane. A frequency distribution in which aliasing does not occur in sampling at the frequency fs is shown.

周波数がfp/2以下の低周波帯域成分をL(横線を施した領域)、周波数がfp/2以上の高周波帯域成分をH(縦線を施した領域)としている。また、図11−3の斜線部は図9に示したAを前述の平面上に面積換算して示した図形である。この領域の境界線を図11−2から図11−9では破線で示している。   A low frequency band component having a frequency of fp / 2 or lower is denoted by L (a region with a horizontal line), and a high frequency band component having a frequency of fp / 2 or higher is denoted by H (a region with a vertical line). Further, the hatched portion in FIG. 11-3 is a figure obtained by converting A shown in FIG. 9 into an area on the plane described above. The boundary line of this region is indicated by a broken line in FIGS. 11-2 to 11-9.

以下、図11−1に示したa〜cに分類される被写体について説明する。
(1)図11−1でaに分類される被写体
図11−1でaに分類されるのは、基準値Aと低周波帯域成分kLよりも高周波帯域成分Hが多い被写体である。aに判定されるとき、撮影レンズ101は合焦点付近にあると判断できる。このとき撮影画像が示す周波数特性の例としてA<kL<Hの場合を図11−4、kL<A<Hの場合を図11−6に示す。
(2)図11−1でbに分類される被写体
bに判定されるような高周波帯域成分が少ない周波数特性の例としてA<H<kLの場合を図11−5、H<A<kLの場合を図11−7、H<kL<Aの場合を図11−9に示す。これらは、高周波帯域成分Hが低周波帯域成分kLよりも小さいという特徴がある。
Hereinafter, subjects classified into ac shown in FIG. 11A will be described.
(1) Subjects classified as a in FIG. 11A Subjects classified as a in FIG. 11-1 are subjects having a higher frequency band component H than the reference value A and the low frequency band component kL. When the determination is a, it can be determined that the taking lens 101 is in the vicinity of the focal point. As examples of frequency characteristics indicated by the photographed image at this time, FIG. 11-4 shows a case where A <kL <H, and FIG. 11-6 shows a case where kL <A <H.
(2) Object classified as b in FIG. 11-1 As an example of the frequency characteristic with few high frequency band components determined as b, the case of A <H <kL is shown in FIG. 11-5, and H <A <kL. The case is shown in FIG. 11-7, and the case of H <kL <A is shown in FIG. 11-9. These are characterized in that the high frequency band component H is smaller than the low frequency band component kL.

図11−1におけるbの分類を更に細分化すると、
(b1)被写体自体に高周波帯域成分が少ないため、デフォーカス量が所定値以内であっても高周波成分Hが少なく算出される場合
(b2)デフォーカス量が所定値より大きいため、被写体によらず高周波成分Hが少なく算出される場合
(b3)高周波成分Hが少ないと判定されたが、位相差方式による焦点検出の信頼性が低い場合
となる。
When the classification of b in FIG.
(B1) Since the subject itself has few high-frequency band components, the high-frequency component H is calculated to be small even if the defocus amount is within a predetermined value. When the high frequency component H is calculated to be small (b3) It is determined that the high frequency component H is small, but the focus detection reliability by the phase difference method is low.

(b1)、(b2)に分類される被写体は低周波帯域成分Lに対して高周波帯域成分Hが少ないため、折り返しによる影響が小さいと考えられるので位相差方式による焦点検出が可能である。(b1)と判定されるのはデフォーカス量が所定値以内と算出された被写体である。(b2)と判定されるのは所定値より大きいデフォーカス量が算出された被写体である。このとき、撮影レンズ101の位置は合焦位置から離れていると判断できる。(b3)と判定されるのは位相差方式による焦点検出が困難な被写体の場合で、周期性を持つ被写体などが当てはまる。その例として周期性を持った被写体の像のずれを図12に示す。S1の像のある点P0に対して、S2の像の点P1,P2,P3,P4,P5,…では、像のずれ量がそれぞれN,3N,5N,7N,9N…と多数算出されて一意に求まらない。
(3)cに分類される被写体
cに分類されるのは低照度、低コントラストの被写体である。この被写体は、高周波帯域成分Hと低周波帯域成分kLのPowerが小さい。被写体が示す周波数特性の例としてkL<H<Aの場合を図11−8、H<kL<Aの場合を図11−9に示す。この被写体は精度の良い焦点検出を高速で行うのは困難である。従って後述する非合焦時の処理を行う。
Since the subject classified into (b1) and (b2) has less high-frequency band component H than low-frequency band component L, it is considered that the influence of aliasing is small, so that focus detection by the phase difference method is possible. What is determined as (b1) is a subject whose defocus amount is calculated to be within a predetermined value. What is determined as (b2) is a subject for which a defocus amount greater than a predetermined value has been calculated. At this time, it can be determined that the position of the taking lens 101 is away from the in-focus position. (B3) is determined in the case of a subject for which focus detection by the phase difference method is difficult, and a subject having periodicity is applied. As an example, FIG. 12 shows a shift of an image of a subject having periodicity. With respect to the point P0 where the image of S1 is located, at the points P1, P2, P3, P4, P5,... Not uniquely determined.
(3) Subjects classified as c Subjects classified as c are low-illuminance and low-contrast subjects. This subject has a small power of the high frequency band component H and the low frequency band component kL. As an example of the frequency characteristics of the subject, FIG. 11-8 shows a case where kL <H <A, and FIG. 11-9 shows a case where H <kL <A. It is difficult to perform accurate focus detection on this subject at high speed. Therefore, the process at the time of out-of-focus described later is performed.

以上に説明した焦点検出装置で行われる焦点検出処理の流れについて図10のフローチャートと図13A〜13Eを用いて説明する。   The flow of the focus detection process performed by the focus detection apparatus described above will be described using the flowchart of FIG. 10 and FIGS. 13A to 13E.

図13Aは撮像素子102に結像した被写体を示したものであり、人物の背景に樹木がある風景を示している。図13Bは、顔枠が分割領域よりも小さく設定された様子を示している。図中、太点線は分割領域の境界線、太実線の枠は顔枠を表している。この場合、顔枠の周辺に結像している樹木も顔枠と同一の分割領域に含まれてしまうので、分割領域内で遠近競合が発生する可能性がある。そこで本実施形態では、分割領域をさらに小さく分割する。図13Cは、顔枠が分割領域よりも大きく設定された様子を示している。図中、外側の太実線の枠は顔枠、太点線は分割領域の境界線を表している。この場合、シーン評価部119は顔枠に含まれる太実線で表した分割領域(図では18個の領域)に対してシーン評価や焦点検出を行う。図13Dは、顔枠が分割領域と同等の大きさに設定された様子を示している。この場合、分割領域の位置と顔枠の位置が適合していないと図13Dのように分割領域の中に背景が入ってしまう可能性があるので、分割領域の面積は変えずに、分割領域と顔枠の位置が合うように図13Eのように再分割する
焦点検出が開始されると、ステップS1001では図13Aに示した被写体に対して撮像素子102の領域を分割する。ステップS1002では、撮像素子102からの信号をもとに分割領域ごとに積分回路105が第1の信号を積分した後に領域ごとの積分結果をメモリ122へ書き込む。また、第2の信号をもとにデフォーカス量算出部107で分割領域ごとにデフォーカス量を算出してメモリ121へ書き込む。また、シーン評価部119にて分割領域ごとにシーン評価を行い、シーン評価結果を記憶しておく。積分の対象となる分割領域は領域指示部120が指定する。その後ステップS1003へ進む。
FIG. 13A shows a subject imaged on the image sensor 102, and shows a landscape with trees in the background of a person. FIG. 13B shows a state in which the face frame is set smaller than the divided area. In the figure, a thick dotted line represents a boundary line between divided areas, and a thick solid line frame represents a face frame. In this case, since the tree imaged around the face frame is also included in the same divided area as the face frame, perspective conflict may occur in the divided area. Therefore, in this embodiment, the divided area is further divided. FIG. 13C shows a state in which the face frame is set larger than the divided area. In the figure, the outer thick solid line frame represents the face frame, and the thick dotted line represents the boundary line of the divided areas. In this case, the scene evaluation unit 119 performs scene evaluation and focus detection on the divided areas (18 areas in the figure) represented by the thick solid line included in the face frame. FIG. 13D shows a state in which the face frame is set to the same size as the divided area. In this case, if the position of the divided area does not match the position of the face frame, the background may enter the divided area as shown in FIG. 13D. When the focus detection is started as shown in FIG. 13E so that the position of the face frame matches the position of the face frame, in step S1001, the area of the image sensor 102 is divided with respect to the subject shown in FIG. 13A. In step S1002, the integration circuit 105 integrates the first signal for each divided region based on the signal from the image sensor 102, and then writes the integration result for each region to the memory 122. Further, the defocus amount calculation unit 107 calculates the defocus amount for each divided region based on the second signal and writes it to the memory 121. In addition, the scene evaluation unit 119 performs scene evaluation for each divided region and stores the scene evaluation result. The area designating unit 120 designates a divided area to be integrated. Thereafter, the process proceeds to step S1003.

ステップS1003では、顔検出部(不図示)によって設定された顔枠とステップS1001にて分割した領域の面積を比較する。顔枠が分割領域よりも大きいと判定された場合(分割領域<顔枠)ステップS1007へ進む。顔枠が分割領域よりも小さいと判定された場合(分割領域>顔枠)ステップS1006へ進む。顔枠と分割領域が同程度と判定された場合(分割領域≒顔枠)ステップSS1004へ進む。   In step S1003, the face frame set by the face detection unit (not shown) is compared with the area of the region divided in step S1001. If it is determined that the face frame is larger than the divided area (divided area <face frame), the process proceeds to step S1007. If it is determined that the face frame is smaller than the divided area (divided area> face frame), the process advances to step S1006. If it is determined that the face frame and the divided area are approximately the same (divided area≈face frame), the process proceeds to step SS1004.

ステップS1004では、分割領域の面積を変えずに、領域の境界が顔枠の位置に近づくように領域を分割しなおしてからステップS1005へ進む。ステップS1005では、撮像素子102からの信号をもとに分割領域ごとに積分回路105が第1の信号を積分した後に領域ごとの積分結果をメモリ122へ書き込む。また、第2の信号をもとにデフォーカス量算出部107で分割領域ごとにデフォーカス量を算出してメモリ121へ書き込む。また、シーン評価部119にて分割領域ごとにシーン評価を行い、シーン評価結果を記憶しておく。積分の対象となる分割領域は領域指示部120が指定する。その後、ステップS1007へ進む。   In step S1004, the area is divided again so that the boundary of the area approaches the position of the face frame without changing the area of the divided area, and the process proceeds to step S1005. In step S1005, the integration circuit 105 integrates the first signal for each divided region based on the signal from the image sensor 102, and then writes the integration result for each region to the memory 122. Further, the defocus amount calculation unit 107 calculates the defocus amount for each divided region based on the second signal and writes it to the memory 121. In addition, the scene evaluation unit 119 performs scene evaluation for each divided region and stores the scene evaluation result. The area designating unit 120 designates a divided area to be integrated. Thereafter, the process proceeds to step S1007.

ステップS1006では、分割領域の面積を更に小さくするように分割しなおしてからステップS1002へ進む。   In step S1006, the image is divided again so that the area of the divided region is further reduced, and then the process proceeds to step S1002.

ステップS1007では、顔枠に含まれる分割領域に対してシーン評価部119からシーン評価結果を読み出す。顔枠に含まれる全ての分割領域のシーン評価結果の中で、図11−1のa〜cのどの判定結果が多数を占める(以下、支配的と称する)かを判定する。顔枠に含まれる分割領域のシーン評価結果の中でaが支配的である場合は、設定された顔枠に対して周波数がfpの位相差検出用画素ではこれ以上の精度で焦点検出を行うことは困難である。そのため、顔枠に含まれるaと判定された分割領域に対してコントラスト方式で焦点検出を行うためにステップS1008へ進む。顔枠に含まれる分割領域のシーン評価結果の中でbが支配的である場合は、位相差方式による焦点検出を行うためにステップS1009へ進む。顔枠に含まれる分割領域のシーン評価結果の中でcが支配的である場合は、非合焦時の処理を行うためにステップS1013へ進む。   In step S1007, the scene evaluation result is read from the scene evaluation unit 119 for the divided areas included in the face frame. Among the scene evaluation results of all the divided areas included in the face frame, it is determined which determination results of a to c in FIG. 11A occupy a large number (hereinafter referred to as dominant). When a is dominant in the scene evaluation results of the divided areas included in the face frame, the focus detection is performed with higher accuracy in the phase difference detection pixel having the frequency fp with respect to the set face frame. It is difficult. Therefore, the process proceeds to step S1008 in order to perform focus detection by the contrast method for the divided area determined as a included in the face frame. If b is dominant in the scene evaluation results of the divided areas included in the face frame, the process proceeds to step S1009 to perform focus detection by the phase difference method. If c is dominant in the scene evaluation results of the divided areas included in the face frame, the process proceeds to step S1013 in order to perform the process when out of focus.

ステップS1008では、顔枠に含まれる分割領域のうち、シーン評価結果がaである分割領域に対して撮影レンズ101の駆動によるコントラスト方式で焦点検出を行う。図8に示すコントラスト評価値のピークはそれぞれの分割領域で異なる可能性があるので、例えば分割領域の多数決によってピーク位置を決定する。   In step S <b> 1008, focus detection is performed using a contrast method by driving the photographic lens 101 for a divided region in which the scene evaluation result is a among divided regions included in the face frame. Since the peak of the contrast evaluation value shown in FIG. 8 may be different in each divided region, the peak position is determined by, for example, majority of the divided regions.

ステップS1009では、顔枠に含まれる分割領域のうち、シーン評価結果がbである分割領域のデフォーカス量をメモリ121から読み出す。その後、ステップS1010へ進む。   In step S <b> 1009, among the divided areas included in the face frame, the defocus amount of the divided area whose scene evaluation result is b is read from the memory 121. Thereafter, the process proceeds to step S1010.

ステップS1010では、メモリ121から読み出したデフォーカス量に基づいてシーン評価部119で被写体の焦点状態が判定される。位相差方式による焦点検出の信頼性が高いと判定されたとき、即ち、像のずれ量を一意に絞り込むことができたときは、上記のデフォーカス量に基づいて被写体判定を行うためにステップS1011へ進む。これに該当する被写体は上記の(b1)、(b2)である。位相差方式による焦点検出の信頼性が低いと判定されたとき、即ち、被写体に周期性があるために像のずれ量を一意に絞り込めないときは、コントラスト方式で焦点検出を行うためにステップS1008へ進む。これに該当する被写体は上記の(b3)である。   In step S1010, the scene evaluation unit 119 determines the focus state of the subject based on the defocus amount read from the memory 121. When it is determined that the focus detection reliability by the phase difference method is high, that is, when the image shift amount can be uniquely narrowed down, in order to perform subject determination based on the defocus amount, step S1011 is performed. Proceed to The subjects corresponding to this are the above (b1) and (b2). When it is determined that the reliability of focus detection by the phase difference method is low, that is, when the amount of image shift cannot be uniquely narrowed due to the periodicity of the subject, a step for performing focus detection by the contrast method The process proceeds to S1008. The subject corresponding to this is the above (b3).

ステップS1011では、算出したデフォーカス量と所定値の比較により焦点状態を判定する。デフォーカス量が所定値以内のときは、現状の位相差検出用画素の配置間隔ではこれ以上精度の良い位相差焦点検出は困難なので、コントラスト方式で焦点検出を行うためにステップS1008へ進む。ここで上記の(b1)の被写体が識別される。デフォーカス量が所定値より大きいときは、まだ位相差方式で精度の良い焦点検出を行うことが可能なのでステップS1012へ進む。これは上記の(b2)に該当する。上記の所定値とは、位相差検出用画素の配置によって決まる周波数fpに依存する。   In step S1011, the focus state is determined by comparing the calculated defocus amount with a predetermined value. When the defocus amount is within the predetermined value, it is difficult to detect the phase difference focus with a higher accuracy than the current phase difference detection pixel arrangement interval, and the process advances to step S1008 to perform focus detection using the contrast method. Here, the subject (b1) is identified. When the defocus amount is larger than the predetermined value, the focus detection can be performed with high accuracy by the phase difference method, and the process proceeds to step S1012. This corresponds to the above (b2). The predetermined value depends on the frequency fp determined by the arrangement of the phase difference detection pixels.

ステップS1012では、分割領域ごとにデフォーカス量が異なる可能性があるので、分割領域ごとのデフォーカス量による多数決や平均を求めることによってデフォーカス量の代表値を決定する。決定したデフォーカス量から撮影レンズ101の駆動量と駆動方向を算出する。このとき、その算出結果に基づいた第2の評価値を焦点検出方式切り替え部109へ出力する。焦点検出方式切り替え部109は、撮影レンズの駆動量と駆動方向に基づいた第2の評価値をモータ駆動制御部110へ伝送する。モータ駆動制御部110は、入力された評価値からモータ制御信号を生成し、モータ116へ供給することにより撮影レンズ101を駆動する。その後ステップS1007へ進む。   In step S1012, since there is a possibility that the defocus amount differs for each divided region, a representative value of the defocus amount is determined by obtaining a majority vote or an average based on the defocus amount for each divided region. The driving amount and driving direction of the photographing lens 101 are calculated from the determined defocus amount. At this time, the second evaluation value based on the calculation result is output to the focus detection method switching unit 109. The focus detection method switching unit 109 transmits the second evaluation value based on the driving amount and driving direction of the photographing lens to the motor drive control unit 110. The motor drive control unit 110 drives the photographing lens 101 by generating a motor control signal from the input evaluation value and supplying it to the motor 116. Thereafter, the process proceeds to step S1007.

ステップS1013では、撮像レンズ101を現在位置に停止させることにより焦点検出が困難な被写体の焦点検出を中断する。モータ駆動制御部110はモータ116に対して停止させる制御信号を出力する。処理後、焦点検出を終了する。   In step S1013, the focus detection of the subject for which focus detection is difficult is interrupted by stopping the imaging lens 101 at the current position. The motor drive control unit 110 outputs a control signal for stopping the motor 116. After processing, focus detection is terminated.

以上の構成により、前述した従来の課題に対しては以下の効果がある。   With the above configuration, the following effects can be obtained with respect to the above-described conventional problems.

特開平08−248303号公報で開示されている焦点検出装置に対しては、位相差検出の信頼性を評価する際に、周期性がある被写体などといった位相差方式では苦手な被写体に対してはコントラスト方式で焦点検出を行っているので、高精度な焦点検出が可能となる。   For the focus detection device disclosed in Japanese Patent Laid-Open No. 08-248303, when evaluating the reliability of phase difference detection, for subjects that are not good at the phase difference method such as a subject with periodicity, etc. Since focus detection is performed using the contrast method, highly accurate focus detection is possible.

特開平08−075997号公報で開示されている焦点検出装置に対しては、撮像画素からの信号をもとに位相差方式の信頼性を評価しているので、無駄な信頼性判定演算を行うことは無い。また周期性のある被写体に対しては、コントラスト方式で焦点検出を行っているので、高精度な焦点検出が可能となる。   For the focus detection device disclosed in Japanese Patent Application Laid-Open No. 08-075997, the reliability of the phase difference method is evaluated based on the signal from the imaging pixel, and therefore, useless reliability determination calculation is performed. There is nothing. In addition, since focus detection is performed on a subject with periodicity using a contrast method, high-precision focus detection can be performed.

以上より、本実施形態は、撮像素子102を複数の領域に分割することで、より高精度に被写体に対して焦点検出を行うことができ、遠近競合による誤合焦を低減することができる。   As described above, according to the present embodiment, by dividing the image sensor 102 into a plurality of regions, focus detection can be performed on the subject with higher accuracy, and erroneous focusing due to perspective conflict can be reduced.

Claims (2)

撮影レンズにより結像される被写体像を光電変換して画像生成用の第1の信号を出力する第1の光電変換セルと、前記撮影レンズの瞳領域を分割して、分割された瞳領域からの被写体像を光電変換して位相差検出用の第2の信号を出力する第2の光電変換セルとを有する撮像素子と、
少なくとも前記第1の信号を受けてコントラスト方式の焦点検出を行い、焦点調節のための第1の評価値を出力する第1の焦点検出手段と、
前記第2の信号を受けて位相差方式の焦点検出を行い、焦点調節のための第2の評価値を出力する第2の焦点検出手段と、
前記撮像素子の画面を複数の分割領域に分割し、該分割領域ごとに前記第1の信号と第2の信号から得られる被写体の低周波帯域成分と高周波帯域成分の量と前記撮影レンズのデフォーカス量とに基づいて、前記第2の焦点検出手段の焦点検出の信頼性を評価する評価手段と、
前記評価手段による評価結果に基づいて、前記信頼性が高い場合には、前記第2の評価値を用いて前記撮影レンズを駆動した後、前記撮影レンズのデフォーカス量が所定値以内になった時点で前記第1の評価値を用いて前記撮影レンズを駆動する状態に切り替え、前記信頼性が低い場合には、前記第1の評価値を用いて前記撮影レンズを駆動するように制御する制御手段と、
を備えることを特徴とする撮像装置。
A first photoelectric conversion cell that photoelectrically converts an object image formed by the photographing lens and outputs a first signal for generating an image; and a pupil region of the photographing lens is divided, and the divided pupil region An image sensor having a second photoelectric conversion cell that photoelectrically converts the subject image of the subject and outputs a second signal for phase difference detection;
First focus detection means for receiving at least the first signal, performing focus detection by contrast method, and outputting a first evaluation value for focus adjustment;
Second focus detection means for receiving the second signal and performing phase difference type focus detection and outputting a second evaluation value for focus adjustment;
The screen of the image sensor is divided into a plurality of divided areas, and the amount of the low frequency band component and the high frequency band component of the subject obtained from the first signal and the second signal for each divided area, and the data of the photographing lens. Evaluation means for evaluating the reliability of focus detection of the second focus detection means based on the focus amount ;
Based on the evaluation result by the evaluation means, when the reliability is high, the defocus amount of the photographic lens is within a predetermined value after driving the photographic lens using the second evaluation value. Control to switch to a state in which the photographing lens is driven using the first evaluation value at a point in time, and to drive the photographing lens using the first evaluation value when the reliability is low Means ,
An imaging apparatus comprising:
前記評価手段は、被写体の顔を検出する顔検出手段をさらに備え、該顔検出手段により設定された顔枠と前記分割領域の大きさを比較し、前記顔枠の方が前記分割領域よりも小さい場合に、該分割領域をさらに小さい領域に再分割することを特徴とする請求項1に記載の撮像装置。   The evaluation means further includes a face detection means for detecting the face of the subject, and compares the size of the divided area with the face frame set by the face detecting means. The face frame is more than the divided area. The imaging apparatus according to claim 1, wherein when the area is small, the divided area is subdivided into smaller areas.
JP2009048272A 2009-03-02 2009-03-02 Imaging device Expired - Fee Related JP5274307B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009048272A JP5274307B2 (en) 2009-03-02 2009-03-02 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009048272A JP5274307B2 (en) 2009-03-02 2009-03-02 Imaging device

Publications (2)

Publication Number Publication Date
JP2010204294A JP2010204294A (en) 2010-09-16
JP5274307B2 true JP5274307B2 (en) 2013-08-28

Family

ID=42965856

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009048272A Expired - Fee Related JP5274307B2 (en) 2009-03-02 2009-03-02 Imaging device

Country Status (1)

Country Link
JP (1) JP5274307B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012073334A (en) * 2010-09-28 2012-04-12 Nikon Corp Imaging apparatus
JP5396566B2 (en) 2011-03-30 2014-01-22 富士フイルム株式会社 Imaging apparatus and autofocus control method thereof
CN103460103B (en) * 2011-03-31 2015-06-17 富士胶片株式会社 Image capture device and driving method thereof
JP5615756B2 (en) * 2011-03-31 2014-10-29 富士フイルム株式会社 Imaging apparatus and imaging program
WO2013171840A1 (en) 2012-05-15 2013-11-21 キヤノン株式会社 Imaging apparatus, and imaging apparatus control method
JP5963552B2 (en) * 2012-06-08 2016-08-03 キヤノン株式会社 Imaging device
JP6347581B2 (en) * 2013-07-17 2018-06-27 キヤノン株式会社 Focus detection apparatus and control method thereof
WO2015025590A1 (en) 2013-08-22 2015-02-26 富士フイルム株式会社 Imaging device and focusing control method
JP6053652B2 (en) 2013-09-20 2016-12-27 富士フイルム株式会社 Imaging apparatus and focus control method
CN105980905B (en) * 2014-02-13 2018-04-27 富士胶片株式会社 Camera device and focusing control method
JP2016006449A (en) 2014-06-20 2016-01-14 キヤノン株式会社 Image pickup apparatus and control method thereof
JP6381434B2 (en) * 2014-12-16 2018-08-29 キヤノン株式会社 FOCUS CONTROL DEVICE, OPTICAL DEVICE, AND FOCUS CONTROL METHOD
JP6911250B2 (en) * 2020-01-08 2021-07-28 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Control device, imaging device, control method, and program
JP2020166297A (en) * 2020-06-29 2020-10-08 株式会社ニコン Focus detector, camera, and electronic apparatus

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001305413A (en) * 2000-04-18 2001-10-31 Olympus Optical Co Ltd Range-finding device
JP2008309882A (en) * 2007-06-12 2008-12-25 Nikon Corp Digital camera

Also Published As

Publication number Publication date
JP2010204294A (en) 2010-09-16

Similar Documents

Publication Publication Date Title
JP5274307B2 (en) Imaging device
JP3975395B2 (en) Camera system
JP6029309B2 (en) Focus detection device
US10904425B2 (en) Image processing apparatus, control method therefor, and storage medium for evaluating a focusing state of image data
US20110019028A1 (en) Image capturing apparatus and image processing method
JP6116277B2 (en) Imaging apparatus and control method thereof
JP2008026802A (en) Imaging apparatus
KR20100002051A (en) Photographing apparatus and method
JP2017126035A (en) Imaging apparatus, control method, program, and storage medium
US9591202B2 (en) Image processing apparatus and image processing method for generating recomposed images
RU2613586C2 (en) Image capturing device and control method
JP4949717B2 (en) In-focus position determining apparatus and method
US20190320122A1 (en) Control apparatus, image capturing apparatus, control method, and non-transitory computer-readable storage medium
US8582016B2 (en) Photographing apparatus and focus detecting method using the same
JP6427027B2 (en) Focus detection apparatus, control method therefor, imaging apparatus, program, and storage medium
JP6941011B2 (en) Imaging device and its control method, program, storage medium
JP6512989B2 (en) Focus detection apparatus and method, and imaging apparatus
US10911660B2 (en) Control apparatus, imaging apparatus, control method, and storage medium
JP5359150B2 (en) Imaging device
JP2010122356A (en) Focus detector and imaging apparatus
JP2009229732A (en) Camera
JP2008187331A (en) Image tracking device, and imaging apparatus
JP2009109792A (en) Autofocusing device and camera using it
JP2007166076A (en) Imaging device
US20230254471A1 (en) Control apparatus, electronic apparatus, control method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130415

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130514

R151 Written notification of patent or utility model registration

Ref document number: 5274307

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees