JP2015102840A - Focus detection device - Google Patents

Focus detection device Download PDF

Info

Publication number
JP2015102840A
JP2015102840A JP2013245733A JP2013245733A JP2015102840A JP 2015102840 A JP2015102840 A JP 2015102840A JP 2013245733 A JP2013245733 A JP 2013245733A JP 2013245733 A JP2013245733 A JP 2013245733A JP 2015102840 A JP2015102840 A JP 2015102840A
Authority
JP
Japan
Prior art keywords
focus detection
focus
light receiving
detection pixel
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013245733A
Other languages
Japanese (ja)
Other versions
JP6442824B2 (en
Inventor
宏明 高原
Hiroaki Takahara
宏明 高原
Original Assignee
株式会社ニコン
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン, Nikon Corp filed Critical 株式会社ニコン
Priority to JP2013245733A priority Critical patent/JP6442824B2/en
Publication of JP2015102840A publication Critical patent/JP2015102840A/en
Application granted granted Critical
Publication of JP6442824B2 publication Critical patent/JP6442824B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a focus detection device that enables a focus state of an optical system to be repeatedly detected at appropriate timing.SOLUTION: A focus detection device plurally including light reception sensors L1 to L4 having a plurality of pixels 222a and 222b arrayed one-dimensionally, the focus detection device comprises a control unit 21 that detects contrast information for each of the light reception sensors L1 to L4 on the basis of outputs of the light reception sensors L1 to L4, and determines light reception sensors L1 to L4 to be used in a focus detection from the plurality of light reception sensors L1 to L4 on the basis of the detected contrast information.

Description

本発明は、焦点検出装置に関する。   The present invention relates to a focus detection apparatus.
従来より、複数の受光センサを備えた焦点検出装置において、複数の受光センサのそれぞれについてデフォーカス量を算出し、算出した複数のデフォーカス量の中から1つのデフォーカス量を選択することで、選択したデフォーカス量に基づいて、焦点検出を行う技術が知られている(たとえば、特許文献1参照)。   Conventionally, in a focus detection apparatus including a plurality of light receiving sensors, a defocus amount is calculated for each of the plurality of light receiving sensors, and one defocus amount is selected from the calculated plurality of defocus amounts. A technique for performing focus detection based on a selected defocus amount is known (see, for example, Patent Document 1).
特開2003−215437号公報JP 2003-215437 A
しかしながら、従来技術では、複数の受光センサの全てについてデフォーカス量を算出するため、デフォーカス量の演算に時間がかかり、その結果、光学系の焦点状態の検出を適切なタイミングで繰り返し行うことができない場合があった。   However, in the prior art, since the defocus amount is calculated for all of the plurality of light receiving sensors, it takes time to calculate the defocus amount, and as a result, it is possible to repeatedly detect the focus state of the optical system at an appropriate timing. There were cases where it was not possible.
本発明が解決しようとする課題は、光学系の焦点状態の検出を適切なタイミングで繰り返し行うことができる焦点検出装置を提供することにある。   An object of the present invention is to provide a focus detection apparatus that can repeatedly detect the focus state of an optical system at an appropriate timing.
本発明は、以下の解決手段によって上記課題を解決する。   The present invention solves the above problems by the following means.
[1]本発明に係る焦点検出装置は、複数の画素を一次元状に配列した受光センサを複数有する焦点検出装置であって、前記受光センサの出力に基づいて、前記受光センサごとにコントラスト情報を検出し、検出した前記コントラスト情報に基づいて、前記複数の受光センサの中から焦点検出に用いる受光センサを決定する制御部を備えることを特徴とする。   [1] A focus detection apparatus according to the present invention is a focus detection apparatus having a plurality of light receiving sensors in which a plurality of pixels are arranged in a one-dimensional manner, and contrast information for each light receiving sensor based on an output of the light receiving sensor. And a control unit that determines a light receiving sensor to be used for focus detection from among the plurality of light receiving sensors based on the detected contrast information.
[2]上記焦点検出装置に係る発明において、前記制御部は、前記複数の受光センサの中から、コントラストが最も大きい被写体に対応する受光センサ、または、出力に高周波成分が最も多く含まれる受光センサを、前記焦点検出に用いる受光センサとして決定するように構成することができる。   [2] In the invention relating to the focus detection apparatus, the control unit may be a light receiving sensor corresponding to a subject having the highest contrast among the plurality of light receiving sensors, or a light receiving sensor in which a high frequency component is most included in the output. Can be determined as a light receiving sensor used for the focus detection.
[3]上記焦点検出装置に係る発明において、前記制御部は、前記受光センサの出力から周波数帯域の異なる複数の周波数成分を抽出し、抽出した前記複数の周波数成分に基づいて、前記受光センサごとに複数の前記コントラスト情報を検出するように構成することができる。   [3] In the invention related to the focus detection device, the control unit extracts a plurality of frequency components having different frequency bands from the output of the light receiving sensor, and each of the light receiving sensors based on the extracted frequency components. A plurality of the contrast information can be detected.
[4]上記焦点検出装置に係る発明において、前記制御部は、前記コントラスト情報に基づいて、前記複数の受光センサの中から、対応する被写体のコントラストが所定値以上である1または複数の受光センサ、または、出力に含まれる高周波成分の量が所定値以上である1または複数の受光センサを、前記焦点検出に用いる受光センサとして決定するように構成することができる。   [4] In the invention according to the focus detection apparatus, the control unit may include one or more light receiving sensors whose contrast of a corresponding subject is greater than or equal to a predetermined value from the plurality of light receiving sensors based on the contrast information. Alternatively, one or a plurality of light receiving sensors in which the amount of the high-frequency component included in the output is a predetermined value or more can be determined as the light receiving sensor used for the focus detection.
[5]上記焦点検出装置に係る発明において、前記焦点検出に用いる受光センサの出力に基づいて、光学系の焦点状態を検出する焦点検出部をさらに備え、前記制御部は、複数の受光センサを、前記焦点検出に用いる受光センサとして決定した場合には、前記複数の受光センサの出力を加算または平均化し、前記焦点検出部は、前記加算または平均化された複数の受光センサの出力に基づいて、前記光学系の焦点検出を行うように構成することができる。   [5] In the invention relating to the focus detection apparatus, the image pickup device further includes a focus detection unit that detects a focus state of the optical system based on an output of the light reception sensor used for the focus detection, and the control unit includes a plurality of light reception sensors. When the light receiving sensors to be used for the focus detection are determined, the outputs of the plurality of light receiving sensors are added or averaged, and the focus detection unit is based on the outputs of the plurality of light receiving sensors that have been added or averaged. The focus detection of the optical system can be performed.
[6] 上記焦点検出装置に係る発明において、前記光学系の像面に設定された複数の焦点検出位置の中から、焦点調節に用いる焦点検出位置を選択する選択部をさらに備え、前記制御部は、前記選択部により選択された前記焦点検出位置に対応する前記複数の受光センサの中から、前記焦点検出に用いる受光センサを決定するように構成することができる。   [6] In the invention according to the focus detection apparatus, the control unit may further include a selection unit that selects a focus detection position used for focus adjustment from a plurality of focus detection positions set on the image plane of the optical system. Can be configured to determine a light receiving sensor to be used for the focus detection from among the plurality of light receiving sensors corresponding to the focus detection position selected by the selection unit.
本発明によれば、光学系の焦点状態の検出を適切なタイミングで繰り返し行うことができる。   According to the present invention, it is possible to repeatedly detect the focus state of the optical system at an appropriate timing.
図1は、本実施形態に係るカメラを示すブロック図である。FIG. 1 is a block diagram showing a camera according to the present embodiment. 図2は、図1に示す撮像素子の撮像面を示す正面図である。FIG. 2 is a front view showing an imaging surface of the imaging device shown in FIG. 図3は、図2のIII部を拡大して撮像画素221、焦点検出画素222a,222bの配列を模式的に示す正面図である。FIG. 3 is a front view schematically showing an arrangement of the imaging pixels 221 and the focus detection pixels 222a and 222b by enlarging the part III in FIG. 図4(A)は、撮像画素221の一つを拡大して示す正面図、図4(B)は、第1焦点検出画素222aの一つを拡大して示す正面図、図4(C)は、第2焦点検出画素222bの一つを拡大して示す正面図、図4(D)は、撮像画素221の一つを拡大して示す断面図、図4(E)は、第1焦点検出画素222aの一つを拡大して示す断面図、図4(F)は、第2焦点検出画素222bの一つを拡大して示す断面図である。4A is an enlarged front view showing one of the imaging pixels 221, FIG. 4B is an enlarged front view showing one of the first focus detection pixels 222a, and FIG. 4C. FIG. 4D is an enlarged front view showing one of the second focus detection pixels 222b, FIG. 4D is a sectional view showing one of the imaging pixels 221 in an enlarged manner, and FIG. 4E is the first focus. FIG. 4F is an enlarged sectional view showing one of the second focus detection pixels 222b. FIG. 4F is an enlarged sectional view showing one of the detection pixels 222a. 図5は、図3のV-V線に沿う断面図である。FIG. 5 is a cross-sectional view taken along the line VV in FIG. 図6は、第1実施形態に係るカメラの動作を示すフローチャートである。FIG. 6 is a flowchart showing the operation of the camera according to the first embodiment. 図7は、本実施形態に係るカメラ1の動作例を説明するための図である。FIG. 7 is a diagram for explaining an operation example of the camera 1 according to the present embodiment. 図8は、従来のカメラの動作例を説明するための図である。FIG. 8 is a diagram for explaining an operation example of a conventional camera. 図9は、本実施形態に係る第1焦点検出画素222aおよび第2焦点検出画素222bの配列を模式的に示した図である。FIG. 9 is a diagram schematically showing the arrangement of the first focus detection pixels 222a and the second focus detection pixels 222b according to the present embodiment. 図10(A)は、本実施形態における相関量とシフト量との関係を示すグラフであり、図10(B)は、従来技術における相関量とシフト量との関係を示すグラフである。FIG. 10A is a graph showing the relationship between the correlation amount and the shift amount in the present embodiment, and FIG. 10B is a graph showing the relationship between the correlation amount and the shift amount in the prior art. 図11は、第2実施形態に係るカメラの動作を示すフローチャートである。FIG. 11 is a flowchart showing the operation of the camera according to the second embodiment. 図12は、他の実施形態に係る焦点検出画素222a,222bの配列を模式的に示す正面図である。FIG. 12 is a front view schematically showing an arrangement of focus detection pixels 222a and 222b according to another embodiment. 図13は、別の実施形態に係る焦点検出画素222a,222bの配列を模式的に示す正面図である。FIG. 13 is a front view schematically showing the arrangement of focus detection pixels 222a and 222b according to another embodiment. 図14は、さらに別の実施形態に係る焦点検出画素222a,222bの配列を模式的に示す正面図である。FIG. 14 is a front view schematically showing the arrangement of focus detection pixels 222a and 222b according to still another embodiment.
以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.
《第1実施形態》
図1は、本発明の実施形態に係るデジタルカメラ1を示す要部構成図である。本実施形態のデジタルカメラ1(以下、単にカメラ1という。)は、カメラ本体2とレンズ鏡筒3から構成され、これらカメラ本体2とレンズ鏡筒3はマウント部4により着脱可能に結合されている。
<< First Embodiment >>
FIG. 1 is a main part configuration diagram showing a digital camera 1 according to an embodiment of the present invention. A digital camera 1 according to the present embodiment (hereinafter simply referred to as a camera 1) includes a camera body 2 and a lens barrel 3, and the camera body 2 and the lens barrel 3 are detachably coupled by a mount unit 4. Yes.
レンズ鏡筒3は、カメラ本体2に着脱可能な交換レンズである。図1に示すように、レンズ鏡筒3には、レンズ31,32,33、および絞り34を含む撮影光学系が内蔵されている。   The lens barrel 3 is an interchangeable lens that can be attached to and detached from the camera body 2. As shown in FIG. 1, the lens barrel 3 includes a photographic optical system including lenses 31, 32, 33 and a diaphragm 34.
レンズ32は、フォーカスレンズであり、光軸L1方向に移動することで、撮影光学系の焦点状態を調節可能となっている。フォーカスレンズ32は、レンズ鏡筒3の光軸L1に沿って移動可能に設けられ、エンコーダ35によってその位置が検出されつつフォーカスレンズ駆動モータ36によってその位置が調節される。   The lens 32 is a focus lens and can adjust the focus state of the photographing optical system by moving in the direction of the optical axis L1. The focus lens 32 is provided so as to be movable along the optical axis L1 of the lens barrel 3, and its position is adjusted by the focus lens drive motor 36 while its position is detected by the encoder 35.
絞り34は、上記撮影光学系を通過して撮像素子22に至る光束の光量を制限するとともにボケ量を調整するために、光軸L1を中心にした開口径が調節可能に構成されている。絞り34による開口径の調節は、たとえば自動露出モードにおいて演算された適切な開口径が、カメラ制御部21からレンズ制御部37を介して送出されることにより行われる。また、カメラ本体2に設けられた操作部28によるマニュアル操作により、設定された開口径がカメラ制御部21からレンズ制御部37に入力される。絞り34の開口径は図示しない絞り開口センサにより検出され、レンズ制御部37で現在の開口径が認識される。   The diaphragm 34 is configured such that the aperture diameter around the optical axis L1 can be adjusted in order to limit the amount of light flux that passes through the photographing optical system and reaches the image sensor 22 and to adjust the blur amount. The adjustment of the aperture diameter by the diaphragm 34 is performed, for example, by sending an appropriate aperture diameter calculated in the automatic exposure mode from the camera control unit 21 via the lens control unit 37. Further, the set aperture diameter is input from the camera control unit 21 to the lens control unit 37 by a manual operation by the operation unit 28 provided in the camera body 2. The aperture diameter of the aperture 34 is detected by an aperture sensor (not shown), and the lens controller 37 recognizes the current aperture diameter.
レンズ制御部37は、カメラ制御部21からの指令に基づいて、フォーカスレンズ32の駆動、絞り34による開口径の調節などレンズ鏡筒3全体の制御を実行する。   The lens control unit 37 executes overall control of the lens barrel 3 such as driving of the focus lens 32 and adjustment of the aperture diameter by the diaphragm 34 based on a command from the camera control unit 21.
一方、カメラ本体2には、上記撮影光学系からの光束を受光する撮像素子22が、撮影光学系の予定焦点面に設けられ、その前面にシャッター23が設けられている。撮像素子22はCCDやCMOSなどのデバイスから構成され、受光した光信号を電気信号に変換してカメラ制御部21に送出する。カメラ制御部21に送出された撮影画像情報は、逐次、液晶駆動回路25に送出されて観察光学系の電子ビューファインダ(EVF)26に表示されるとともに、操作部28に備えられたレリーズボタン(不図示)が全押しされた場合には、その撮影画像情報が、記録媒体であるメモリ24に記録される。なお、メモリ24は着脱可能なカード型メモリや内蔵型メモリの何れをも用いることができる。また、撮像素子22の構造の詳細は後述する。   On the other hand, the camera body 2 is provided with an image sensor 22 that receives a light beam from the photographing optical system on a planned focal plane of the photographing optical system, and a shutter 23 on the front surface thereof. The image sensor 22 is composed of a device such as a CCD or CMOS, converts the received optical signal into an electrical signal, and sends it to the camera control unit 21. The captured image information sent to the camera control unit 21 is sequentially sent to the liquid crystal drive circuit 25 and displayed on the electronic viewfinder (EVF) 26 of the observation optical system, and a release button ( When (not shown) is fully pressed, the photographed image information is recorded in the memory 24 that is a recording medium. Note that the memory 24 can be either a removable card type memory or a built-in memory. Details of the structure of the image sensor 22 will be described later.
カメラ本体2には、撮像素子22で撮像される像を観察するための観察光学系が設けられている。本実施形態の観察光学系は、液晶表示素子からなる電子ビューファインダ(EVF)26と、これを駆動する液晶駆動回路25と、接眼レンズ27とを備えている。液晶駆動回路25は、撮像素子22で撮像され、カメラ制御部21へ送出された撮影画像情報を読み込み、これに基づいて電子ビューファインダ26を駆動する。これにより、ユーザは、接眼レンズ27を通して現在の撮影画像を観察することができる。なお、光軸L2による上記観察光学系に代えて、または、これに加えて、液晶ディスプレイをカメラ本体2の背面等に設け、この液晶ディスプレイに撮影画像を表示させることもできる。   The camera body 2 is provided with an observation optical system for observing an image picked up by the image pickup device 22. The observation optical system of the present embodiment includes an electronic viewfinder (EVF) 26 composed of a liquid crystal display element, a liquid crystal driving circuit 25 that drives the electronic viewfinder (EVF) 26, and an eyepiece lens 27. The liquid crystal drive circuit 25 reads the captured image information captured by the image sensor 22 and sent to the camera control unit 21, and drives the electronic viewfinder 26 based on the read image information. Thereby, the user can observe the current captured image through the eyepiece lens 27. Note that, instead of or in addition to the observation optical system using the optical axis L2, a liquid crystal display may be provided on the back surface of the camera body 2, and a photographed image may be displayed on the liquid crystal display.
カメラ本体2にはカメラ制御部21が設けられている。カメラ制御部21は、各種レンズ情報を受信するとともに、レンズ制御部37へデフォーカス量や絞り開口径などの情報を送信する。また、カメラ制御部21は、上述したように撮像素子22から画素出力を読み出すとともに、読み出した画素出力について、必要に応じて所定の情報処理を施すことにより画像情報を生成し、生成した画像情報を、電子ビューファインダ26の液晶駆動回路25やメモリ24に出力する。また、カメラ制御部21は、撮像素子22からの画像情報の補正やレンズ鏡筒3の焦点調節状態、絞り調節状態などを検出するなど、カメラ1全体の制御を司る。   A camera control unit 21 is provided in the camera body 2. The camera control unit 21 receives various types of lens information and transmits information such as a defocus amount and an aperture diameter to the lens control unit 37. The camera control unit 21 reads out the pixel output from the image sensor 22 as described above, generates image information by performing predetermined information processing on the read out pixel output as necessary, and generates the generated image information. Is output to the liquid crystal driving circuit 25 and the memory 24 of the electronic viewfinder 26. The camera control unit 21 controls the entire camera 1 such as correction of image information from the image sensor 22 and detection of a focus adjustment state and an aperture adjustment state of the lens barrel 3.
また、カメラ制御部21は、上記に加えて、撮像素子22から読み出した画素データに基づき、位相検出方式による撮影光学系の焦点状態の検出、およびコントラスト検出方式による撮影光学系の焦点状態の検出を行う。なお、具体的な焦点状態の検出方法については後述する。   In addition to the above, the camera control unit 21 detects the focus state of the photographic optical system by the phase detection method and the focus state of the photographic optical system by the contrast detection method based on the pixel data read from the image sensor 22. I do. A specific focus state detection method will be described later.
操作部28は、シャッターレリーズボタンなどの撮影者がカメラ1の各種動作モードを設定するための入力スイッチであり、オートフォーカスモード/マニュアルフォーカスモードの切換が行えるようになっている。この操作部28により設定された各種モードはカメラ制御部21へ送出され、当該カメラ制御部21によりカメラ1全体の動作が制御される。また、シャッターレリーズボタンは、ボタンの半押しでONとなる第1スイッチSW1と、ボタンの全押しでONとなる第2スイッチSW2とを含む。   The operation unit 28 is an input switch for a photographer to set various operation modes of the camera 1, such as a shutter release button, and can switch between an auto focus mode and a manual focus mode. Various modes set by the operation unit 28 are sent to the camera control unit 21, and the operation of the entire camera 1 is controlled by the camera control unit 21. The shutter release button includes a first switch SW1 that is turned on when the button is half-pressed and a second switch SW2 that is turned on when the button is fully pressed.
次に、本実施形態に係る撮像素子22について説明する。   Next, the image sensor 22 according to the present embodiment will be described.
図2は、撮像素子22の撮像面を示す正面図、図3は、図2のIII部を拡大して撮像画素221、焦点検出画素222a,222bの配列を模式的に示す正面図である。   FIG. 2 is a front view showing the imaging surface of the imaging device 22, and FIG. 3 is a front view schematically showing the arrangement of the imaging pixels 221 and focus detection pixels 222a and 222b by enlarging the III part of FIG.
本実施形態の撮像素子22は、図3に示すように、複数の撮像画素221が、撮像面の平面上に二次元的に配列され、緑色の波長領域を透過するカラーフィルタを有する緑画素Gと、赤色の波長領域を透過するカラーフィルタを有する赤画素Rと、青色の波長領域を透過するカラーフィルタを有する青画素Bがいわゆるベイヤー配列(Bayer Arrangement)されたものである。すなわち、隣接する4つの画素群223(稠密正方格子配列)において一方の対角線上に2つの緑画素が配列され、他方の対角線上に赤画素と青画素が1つずつ配列されている。このベイヤー配列された画素群223を単位として、当該画素群223を撮像素子22の撮像面に二次元状に繰り返し配列することで撮像素子22が構成されている。なお、本実施形態においては、この4つの画素群223により、1画素を構成することとなる。   As shown in FIG. 3, the imaging element 22 of the present embodiment includes a green pixel G having a color filter in which a plurality of imaging pixels 221 are two-dimensionally arranged on the plane of the imaging surface and transmit a green wavelength region. A red pixel R having a color filter that transmits a red wavelength region and a blue pixel B having a color filter that transmits a blue wavelength region are arranged in a so-called Bayer Arrangement. That is, in four adjacent pixel groups 223 (dense square lattice arrangement), two green pixels are arranged on one diagonal line, and one red pixel and one blue pixel are arranged on the other diagonal line. The image sensor 22 is configured by repeatedly arranging the pixel group 223 on the imaging surface of the image sensor 22 in a two-dimensional manner with the Bayer array pixel group 223 as a unit. In the present embodiment, one pixel is constituted by the four pixel groups 223.
なお、単位画素群223の配列は、図示する稠密正方格子以外にも、たとえば稠密六方格子配列にすることもできる。また、カラーフィルタの構成や配列はこれに限定されることはなく、補色フィルタ(緑:G、イエロー:Ye、マゼンタ:Mg,シアン:Cy)の配列を採用することもできる。   The unit pixel group 223 may be arranged in a dense hexagonal lattice arrangement other than the dense square lattice shown in the figure. Further, the configuration and arrangement of the color filters are not limited to this, and an arrangement of complementary color filters (green: G, yellow: Ye, magenta: Mg, cyan: Cy) can also be adopted.
図4(A)は、撮像画素221の一つを拡大して示す正面図、図4(D)は断面図である。一つの撮像画素221は、マイクロレンズ2211と、光電変換部2212と、図示しないカラーフィルタから構成され、図4(D)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2212が造り込まれ、その表面にマイクロレンズ2211が形成されている。光電変換部2212は、マイクロレンズ2211により撮影光学系31の射出瞳(たとえばF1.0)を通過する撮像光束を受光する形状とされ、撮像光束を受光する。   4A is an enlarged front view showing one of the imaging pixels 221 and FIG. 4D is a cross-sectional view. One imaging pixel 221 includes a microlens 2211, a photoelectric conversion unit 2212, and a color filter (not shown), and on the surface of the semiconductor circuit substrate 2213 of the imaging element 22 as shown in the cross-sectional view of FIG. A photoelectric conversion portion 2212 is built, and a microlens 2211 is formed on the surface thereof. The photoelectric conversion unit 2212 is configured to receive an imaging light beam that passes through an exit pupil (for example, F1.0) of the photographing optical system 31 by the micro lens 2211 and receives the imaging light beam.
また、図2に示すように、撮像素子22の撮像面の中心、および中心から左右対称位置と、それらの上下対称位置の計9箇所には、上述した撮像画素221に代えて、焦点検出画素222a,222bが配列された焦点検出画素列群22a〜22iが設けられている。そして、図3に示すように、各焦点検出画素列群は、4つの焦点検出画素列L1〜L4から構成されており、各焦点検出画素列L1〜L4は、複数の第1焦点検出画素222aおよび第2焦点検出画素222bが、互いに隣接して交互に、横一列に配列されて構成されている。また、図3に示すように、本実施形態では、焦点検出画素列L1,L3と焦点検出画素列L2,L4とにおいて、焦点検出画素222aおよび焦点検出画素222bがX軸方向において逆になるように配置されている。さらに、本実施形態では、図3に示すように、第1焦点検出画素222aおよび第2焦点検出画素222bが、ベイヤー配列された撮像画素221の緑画素Gと青画素Bとの位置にギャップを設けることなく密に配列されている。   In addition, as shown in FIG. 2, focus detection pixels instead of the above-described imaging pixels 221 are provided at a total of nine locations, that is, the center of the imaging surface of the imaging element 22, the left / right symmetrical positions from the center, and the vertically symmetrical positions thereof. Focus detection pixel array groups 22a to 22i in which 222a and 222b are arranged are provided. As shown in FIG. 3, each focus detection pixel column group includes four focus detection pixel columns L1 to L4, and each focus detection pixel column L1 to L4 includes a plurality of first focus detection pixels 222a. The second focus detection pixels 222b are alternately arranged adjacent to each other in a horizontal row. Also, as shown in FIG. 3, in the present embodiment, the focus detection pixels 222a and the focus detection pixels 222b are reversed in the X-axis direction in the focus detection pixel rows L1 and L3 and the focus detection pixel rows L2 and L4. Is arranged. Furthermore, in this embodiment, as shown in FIG. 3, the first focus detection pixel 222a and the second focus detection pixel 222b have a gap at the position of the green pixel G and the blue pixel B of the imaging pixel 221 arranged in the Bayer array. It is arranged closely without providing.
なお、図2に示す焦点検出画素列群22a〜22iの位置は図示する位置に限定されず、何れか1箇所または2〜8箇所等にすることもでき、また、10箇所以上の位置に配置することもできる。また、実際の焦点検出に際しては、複数配置された焦点検出画素列群22a〜22iの中から、撮影者が操作部28を手動操作することにより所望の焦点検出画素群を、焦点調節を行うための焦点検出エリアAFPとして選択することもできる。   Note that the positions of the focus detection pixel array groups 22a to 22i shown in FIG. 2 are not limited to the illustrated positions, and may be any one or 2 to 8 positions, and are arranged at 10 or more positions. You can also In actual focus detection, the photographer manually adjusts a desired focus detection pixel group by manually operating the operation unit 28 from among a plurality of focus detection pixel row groups 22a to 22i. The focus detection area AFP can also be selected.
図4(B)は、第1焦点検出画素222aの一つを拡大して示す正面図、図4(E)は、第1焦点検出画素222aの断面図である。また、図4(C)は、第2焦点検出画素222bの一つを拡大して示す正面図、図4(F)は、第2焦点検出画素222bの断面図である。第1焦点検出画素222aは、図4(B)に示すように、マイクロレンズ2221aと、矩形状の光電変換部2222aとから構成され、図4(E)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222aが造り込まれ、その表面にマイクロレンズ2221aが形成されている。また、第2焦点検出画素222bは、図4(C)に示すように、マイクロレンズ2221bと、光電変換部2222bとから構成され、図4(F)の断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222bが造り込まれ、その表面にマイクロレンズ2221bが形成されている。そして、これら焦点検出画素222aおよび222bは、図3に示すように、互いに隣接して交互に、横一列に配列されることにより、各焦点検出画素列L1〜L4を構成する。   4B is an enlarged front view showing one of the first focus detection pixels 222a, and FIG. 4E is a cross-sectional view of the first focus detection pixel 222a. 4C is an enlarged front view showing one of the second focus detection pixels 222b, and FIG. 4F is a cross-sectional view of the second focus detection pixel 222b. As shown in FIG. 4B, the first focus detection pixel 222a includes a microlens 2221a and a rectangular photoelectric conversion unit 2222a. As shown in the cross-sectional view of FIG. The photoelectric conversion part 2222a is built in the surface of 22 semiconductor circuit boards 2213, and the micro lens 2221a is formed in the surface. The second focus detection pixel 222b includes a micro lens 2221b and a photoelectric conversion unit 2222b as shown in FIG. 4C, and the imaging element 22 as shown in the cross-sectional view of FIG. A photoelectric conversion portion 2222b is formed on the surface of the semiconductor circuit substrate 2213, and a microlens 2221b is formed on the surface. Then, as shown in FIG. 3, these focus detection pixels 222a and 222b are alternately arranged adjacent to each other in a horizontal row to constitute each of the focus detection pixel rows L1 to L4.
なお、第1焦点検出画素222a、第2焦点検出画素222bの光電変換部2222a,2222bは、マイクロレンズ2221a,2221bにより撮影光学系の射出瞳の所定の領域(たとえばF2.8)を通過する光束を受光するような形状とされる。また、第1焦点検出画素222a、第2焦点検出画素222bにはカラーフィルタは設けられておらず、その分光特性は、光電変換を行うフォトダイオードの分光特性と、図示しない赤外カットフィルタの分光特性を総合したものとなっている。ただし、撮像画素221と同じカラーフィルタのうちの一つ、たとえば緑フィルタを備えるように構成することもできる。   The photoelectric conversion units 2222a and 2222b of the first focus detection pixel 222a and the second focus detection pixel 222b pass through a predetermined region (for example, F2.8) of the exit pupil of the photographing optical system by the microlenses 2221a and 2221b. The shape is such that light is received. Further, the first focus detection pixel 222a and the second focus detection pixel 222b are not provided with a color filter, and the spectral characteristics thereof are the spectral characteristics of a photodiode that performs photoelectric conversion and the spectral characteristics of an infrared cut filter (not shown). It is a synthesis of characteristics. However, it may be configured to include one of the same color filters as the imaging pixel 221, for example, a green filter.
また、図4(B)、図4(C)に示す第1焦点検出画素222a、第2焦点検出画素222bの光電変換部2222a,2222bは矩形状としたが、光電変換部2222a,2222bの形状はこれに限定されず、他の形状、たとえば、半円形状、楕円形状、多角形状とすることもできる。   In addition, although the photoelectric conversion units 2222a and 2222b of the first focus detection pixel 222a and the second focus detection pixel 222b illustrated in FIGS. 4B and 4C are rectangular, the shapes of the photoelectric conversion units 2222a and 2222b are illustrated. Is not limited to this, and other shapes such as a semicircular shape, an elliptical shape, and a polygonal shape may be used.
次いで、上述した焦点検出画素222a,222bの画素出力に基づいて撮影光学系の焦点状態を検出する、いわゆる位相差検出方式について説明する。   Next, a so-called phase difference detection method for detecting the focus state of the photographing optical system based on the pixel outputs of the focus detection pixels 222a and 222b described above will be described.
図5は、図3のV-V線に沿う断面図であり、撮影光軸L1近傍に配置され、互いに隣接する焦点検出画素222a−1,222b−1,222a−2,222b−2が、射出瞳350の測距瞳351,352から照射される光束AB1−1,AB2−1,AB1−2,AB2−2をそれぞれ受光していることを示している。なお、図5においては、複数の焦点検出画素222a,222bのうち、撮影光軸L1近傍に位置するもののみを例示して示したが、図5に示す焦点検出画素以外のその他の焦点検出画素についても、同様に、一対の測距瞳351,352から照射される光束をそれぞれ受光するように構成されている。   FIG. 5 is a cross-sectional view taken along the line V-V in FIG. 3. The focus detection pixels 222 a-1, 222 b-1, 222 a-2, and 222 b-2 that are arranged in the vicinity of the photographing optical axis L 1 and adjacent to each other are It shows that light beams AB1-1, AB2-1, AB1-2, and AB2-2 irradiated from the distance measuring pupils 351 and 352 of the exit pupil 350 are received. In FIG. 5, only the focus detection pixels 222 a and 222 b that are located in the vicinity of the photographing optical axis L <b> 1 are illustrated, but other focus detection pixels other than the focus detection pixels illustrated in FIG. 5 are illustrated. In the same manner, the light beams emitted from the pair of distance measuring pupils 351 and 352 are respectively received.
ここで、射出瞳350とは、撮影光学系の予定焦点面に配置された焦点検出画素222a,222bのマイクロレンズ2221a,2221bの前方の距離Dの位置に設定された像である。距離Dは、マイクロレンズの曲率、屈折率、マイクロレンズと光電変換部との距離などに応じて一義的に決まる値であって、この距離Dを測距瞳距離と称する。また、測距瞳351,352とは、焦点検出画素222a,222bのマイクロレンズ2221a,2221bにより、それぞれ投影された光電変換部2222a,2222bの像をいう。   Here, the exit pupil 350 is an image set at a distance D in front of the microlenses 2221a and 2221b of the focus detection pixels 222a and 222b arranged on the planned focal plane of the photographing optical system. The distance D is a value uniquely determined according to the curvature and refractive index of the microlens, the distance between the microlens and the photoelectric conversion unit, and the distance D is referred to as a distance measurement pupil distance. The distance measurement pupils 351 and 352 are images of the photoelectric conversion units 2222a and 2222b respectively projected by the micro lenses 2221a and 2221b of the focus detection pixels 222a and 222b.
なお、図5において焦点検出画素222a−1,222b−1,222a−2,222b−2の配列方向は一対の測距瞳351,352の並び方向と一致している。   In FIG. 5, the arrangement direction of the focus detection pixels 222 a-1, 222 b-1, 222 a-2, and 222 b-2 coincides with the arrangement direction of the pair of distance measuring pupils 351 and 352.
また、図5に示すように、焦点検出画素222a−1,222b−1,222a−2,222b−2のマイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2は、撮影光学系の予定焦点面近傍に配置されている。そして、マイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2の背後に配置された各光電変換部2222a−1,2222b−1,2222a−2,2222b−2の形状が、各マイクロレンズ2221a−1,2221b−1,2221a−2,2221b−2から測距距離Dだけ離れた射出瞳350上に投影され、その投影形状は測距瞳351,352を形成する。   As shown in FIG. 5, the microlenses 2221a-1, 2221b-1, 2221a-2, and 2221b-2 of the focus detection pixels 222a-1, 222b-1, 222a-2, and 222b-2 are photographic optical systems. Near the planned focal plane. The shapes of the photoelectric conversion units 2222a-1, 2222b-1, 2222a-2, 2222b-2 arranged behind the micro lenses 2221a-1, 2221b-1, 2221a-2, 2221b-2 are the same as Projected onto the exit pupil 350 that is separated from the lenses 2221 a-1, 2221 b-1, 2221 a-2, and 2221 b-2 by a distance measurement distance D, and the projection shape forms distance measurement pupils 351 and 352.
すなわち、測距距離Dにある射出瞳350上で、各焦点検出画素の光電変換部の投影形状(測距瞳351,352)が一致するように、各焦点検出画素におけるマイクロレンズと光電変換部の相対的位置関係が定められ、それにより各焦点検出画素における光電変換部の投影方向が決定されている。   That is, the microlens and the photoelectric conversion unit in each focus detection pixel so that the projection shapes (distance measurement pupils 351 and 352) of the focus detection pixels coincide on the exit pupil 350 at the distance D. Is determined, and the projection direction of the photoelectric conversion unit in each focus detection pixel is thereby determined.
図5に示すように、第1焦点検出画素222a−1の光電変換部2222a−1は、測距瞳351を通過し、マイクロレンズ2221a−1に向う光束AB1−1によりマイクロレンズ2221a−1上に形成される像の強度に対応した信号を出力する。同様に、第1焦点検出画素222a−2の光電変換部2222a−2は測距瞳351を通過し、マイクロレンズ2221a−2に向う光束AB1−2によりマイクロレンズ2221a−2上に形成される像の強度に対応した信号を出力する。   As shown in FIG. 5, the photoelectric conversion unit 2222a-1 of the first focus detection pixel 222a-1 passes through the distance measuring pupil 351, and is on the microlens 2221a-1 by the light beam AB1-1 that is directed to the microlens 2221a-1. A signal corresponding to the intensity of the image formed is output. Similarly, the photoelectric conversion unit 2222a-2 of the first focus detection pixel 222a-2 passes through the distance measuring pupil 351 and is formed on the microlens 2221a-2 by the light beam AB1-2 toward the microlens 2221a-2. A signal corresponding to the intensity of the signal is output.
また、第2焦点検出画素222b−1の光電変換部2222b−1は測距瞳352を通過し、マイクロレンズ2221b−1に向う光束AB2−1によりマイクロレンズ2221b−1上に形成される像の強度に対応した信号を出力する。同様に、第2焦点検出画素222b−2の光電変換部2222b−2は測距瞳352を通過し、マイクロレンズ2221b−2に向う光束AB2−2によりマイクロレンズ2221b−2上に形成される像の強度に対応した信号を出力する。   In addition, the photoelectric conversion unit 2222b-1 of the second focus detection pixel 222b-1 passes through the distance measuring pupil 352, and an image formed on the microlens 2221b-1 by the light beam AB2-1 toward the microlens 2221b-1. A signal corresponding to the intensity is output. Similarly, the photoelectric conversion unit 2222b-2 of the second focus detection pixel 222b-2 passes through the distance measuring pupil 352 and is formed on the microlens 2221b-2 by the light beam AB2-2 toward the microlens 2221b-2. A signal corresponding to the intensity of the signal is output.
そして、上述した焦点検出画素222a,222bの光電変換部2222a,2222bの出力を、測距瞳351と測距瞳352とのそれぞれに対応した出力グループにまとめることにより、測距瞳351と測距瞳352とのそれぞれを通過する焦点検出光束が焦点検出画素列上に形成する一対の像の強度分布に関するデータを得る。   The outputs of the photoelectric conversion units 2222a and 2222b of the focus detection pixels 222a and 222b described above are grouped into output groups corresponding to the distance measurement pupil 351 and the distance measurement pupil 352, respectively, so that the distance measurement pupil 351 and the distance measurement Data relating to the intensity distribution of the pair of images formed on the focus detection pixel array by the focus detection light beam passing through each of the pupils 352 is obtained.
そして、カメラ制御部21は、一対の像の強度分布に関するデータ列、すなわち、焦点検出画素列のうち第1焦点検出画素222aに基づくデータ列と、第2焦点検出画素222bに基づくデータ列とを、一次元状に相対的にシフトさせながら、下記式(1)に示す相関演算を行う。
C(k)=Σ|IA(n+k)−IB(n)| …(1)
なお、上記式(1)において、Σ演算はnについての累積演算(相和演算)を示し、像ずらし量kに応じてIA(n+k)、IB(n)のデータが存在する範囲に限定される。また、像ずらし量kは整数であり、各焦点検出画素222a,222bの画素間隔を単位としたシフト量である。なお、上記式(1)の演算結果においては、一対の像データの相関が高いシフト量において、相関量C(k)は極小(小さいほど相関度が高い)になる。
Then, the camera control unit 21 generates a data string related to the intensity distribution of the pair of images, that is, a data string based on the first focus detection pixel 222a and a data string based on the second focus detection pixel 222b among the focus detection pixel strings. The correlation calculation shown in the following formula (1) is performed while relatively shifting in a one-dimensional manner.
C (k) = Σ | IA (n + k) -IB (n) | (1)
In the above equation (1), the Σ operation indicates a cumulative operation (phase sum operation) with respect to n, and within a range in which data of IA (n + k) and IB (n) exist according to the image shift amount k. Limited. The image shift amount k is an integer, and is a shift amount in units of pixel intervals between the focus detection pixels 222a and 222b. In the calculation result of the above formula (1), the correlation amount C (k) is minimal (the correlation degree is higher as it is smaller) in the shift amount where the correlation between the pair of image data is high.
そして、上記式(1)に従って、相関量C(k)の算出を行い、相関量の極小値C(x)が得られるシフト量xに基づいて、下記式(2)に従い、デフォーカス量dfを算出する。なお、上記式(2)において、kは、相関量の極小値C(x)が得られるシフト量xをデフォーカス量に変換するための変換係数(kファクター)である。
df=x・k …(2)
Then, the correlation amount C (k) is calculated according to the above equation (1), and the defocus amount df is determined according to the following equation (2) based on the shift amount x from which the minimum value C (x) of the correlation amount is obtained. Is calculated. In the above equation (2), k is a conversion coefficient (k factor) for converting the shift amount x from which the minimum value C (x) of the correlation amount is obtained into the defocus amount.
df = x · k (2)
さらに、本実施形態において、カメラ制御部21は、複数の焦点検出画素列L1〜L4の出力から、コントラスト情報を検出し、検出したコントラスト情報に基づいて、デフォーカス量の演算に用いる焦点検出画素列を、特定焦点検出画素列として決定する。   Further, in the present embodiment, the camera control unit 21 detects contrast information from the outputs of the plurality of focus detection pixel rows L1 to L4, and uses focus detection pixels for calculation of the defocus amount based on the detected contrast information. The column is determined as a specific focus detection pixel column.
具体的には、カメラ制御部21は、各焦点検出画素列L1〜L4の出力を撮像素子22から取得し、取得した焦点検出画素列L1〜L4の出力を、高周波透過フィルタでフィルタ処理することで、焦点検出画素列L1〜L4の出力から高周波成分を抽出する。そして、カメラ制御部21は、各焦点検出画素列L1〜L4の高周波成分を比較し、比較の結果に基づいて、複数の焦点検出画素列L1〜L4のうち、コントラストが最も大きい被写体に対応する焦点検出画素列を、特定焦点検出画素列として決定する。また、カメラ制御部21は、上記比較結果に基づいて、複数の焦点検出画素列L1〜L4のうち、出力に高周波成分が最も多く含まれる焦点検出画素列を、特定焦点検出画素列として決定する構成としてもよい。   Specifically, the camera control unit 21 acquires the outputs of the focus detection pixel arrays L1 to L4 from the imaging device 22, and filters the acquired outputs of the focus detection pixel arrays L1 to L4 with a high-frequency transmission filter. Thus, high frequency components are extracted from the outputs of the focus detection pixel rows L1 to L4. And the camera control part 21 compares the high frequency component of each focus detection pixel row | line | column L1-L4, and respond | corresponds to a to-be-photographed object with the highest contrast among several focus detection pixel row | line | columns L1-L4 based on the comparison result. The focus detection pixel column is determined as the specific focus detection pixel column. Further, the camera control unit 21 determines, as the specific focus detection pixel column, a focus detection pixel column that includes the largest amount of high-frequency components in the output among the plurality of focus detection pixel columns L1 to L4 based on the comparison result. It is good also as a structure.
なお、本実施形態では、カメラ制御部21が、撮像素子22から複数の焦点検出画素列L1〜L4の出力を取得することで、複数の焦点検出画素列L1〜L4の中から、特定焦点検出画素列を決定する構成を例示して説明したが、この構成に限定されず、たとえば、撮像素子22が備える演算部により、各焦点検出画素列L1〜L4の出力に基づいて、点検出画素列L1〜L4ごとに、コントラスト情報を検出し、検出したコントラスト情報に基づいて、複数の焦点検出画素列L1〜L4の中から、特定焦点検出画素列を決定し、決定した特定焦点検出画素列の情報を、カメラ制御部21に送信する構成としてもよい。   In the present embodiment, the camera control unit 21 acquires the outputs of the plurality of focus detection pixel rows L1 to L4 from the image sensor 22, so that the specific focus detection is performed from the plurality of focus detection pixel rows L1 to L4. The configuration for determining the pixel column has been described by way of example. However, the configuration is not limited to this configuration. For example, the point detection pixel column is calculated based on the outputs of the focus detection pixel columns L1 to L4 by the arithmetic unit included in the imaging element 22. Contrast information is detected for each of L1 to L4, and based on the detected contrast information, a specific focus detection pixel column is determined from the plurality of focus detection pixel columns L1 to L4, and the determined specific focus detection pixel column The information may be transmitted to the camera control unit 21.
そして、カメラ制御部21は、決定した特定焦点検出画素列の出力に基づいて、デフォーカス量を演算する。このように、本実施形態では、複数の焦点検出画素列L1〜L4のうち、特定焦点出画素列として決定された焦点検出画素列の出力のみに基づいて、デフォーカス量の演算が行われるため、デフォーカス量の演算にかかる時間を短縮することができる。   Then, the camera control unit 21 calculates the defocus amount based on the determined output of the specific focus detection pixel row. As described above, in this embodiment, the defocus amount is calculated based only on the output of the focus detection pixel column determined as the specific focus pixel column among the plurality of focus detection pixel columns L1 to L4. The time required for calculating the defocus amount can be shortened.
すなわち、従来では、焦点検出画素列が複数ある場合に、全ての焦点検出画素列についてデフォーカス量の演算が行われ、算出した複数のデフォーカス量の中から、フォーカスレンズ32の駆動に用いるデフォーカス量を選択していた。そのため、従来では、選択されたデフォーカス量以外のデフォーカス量についての演算が無駄になるだけではなく、複数の焦点検出画素列L1〜L4の全てについてデフォーカス量を演算するため、デフォーカス量の演算時間が長くなってしまうという問題があった。これに対して、本実施形態では、特定焦点出画素列として決定された焦点検出画素列の出力のみに基づいて、デフォーカス量の演算が行われるため、デフォーカス量の算出にかかる時間を短縮することができ、その結果、焦点検出にかかる時間を短縮することができる。   That is, conventionally, when there are a plurality of focus detection pixel rows, the defocus amount is calculated for all focus detection pixel rows, and the defocus amount used for driving the focus lens 32 is calculated from the calculated defocus amounts. The focus amount was selected. Therefore, conventionally, not only the calculation for the defocus amount other than the selected defocus amount is wasted, but also the defocus amount is calculated for all of the plurality of focus detection pixel rows L1 to L4. There has been a problem that the calculation time of becomes long. On the other hand, in this embodiment, since the defocus amount is calculated based only on the output of the focus detection pixel column determined as the specific focus pixel row, the time required for calculating the defocus amount is reduced. As a result, the time required for focus detection can be shortened.
なお、本実施形態では、撮像素子22の焦点検出画素列群22a〜22iに対応して、撮影光学系の撮影画面内に、複数の焦点検出エリアAFPが設定されており、撮影者は、操作部28を介して、焦点調節に用いる焦点検出エリアAFPを設定することができる。たとえば、撮影者が、焦点調節に用いる焦点検出エリアAFPとして、焦点検出画素列群22aに対応する焦点検出エリアAFPを選択した場合には、カメラ制御部21は、焦点検出画素列群22aに含まれる焦点検出画素列L1〜L4の出力に基づいて、デフォーカス量を算出する。また、焦点検出エリアAFPを設定する方法は、撮影者が選択する方法に限定されず、たとえば、カメラ制御部21が、撮像素子22から出力される画像データに基づいて顔認識処理を行うことで、被写体の顔部に対応する焦点検出エリアAFPを、焦点調節に用いる焦点検出エリアAFPとして設定する構成としてもよい。あるいは、撮影画面内に設定されている全ての焦点検出エリアAFPにおける焦点検出画素列L1〜L4の出力を取得し、取得した焦点検出画素列L1〜L4の出力に基づいて、焦点調節に用いる焦点検出エリアAFPを設定する構成としてもよい。   In the present embodiment, a plurality of focus detection areas AFP are set in the shooting screen of the shooting optical system corresponding to the focus detection pixel row groups 22a to 22i of the image sensor 22, and the photographer can operate A focus detection area AFP used for focus adjustment can be set via the unit 28. For example, when the photographer selects a focus detection area AFP corresponding to the focus detection pixel array group 22a as the focus detection area AFP used for focus adjustment, the camera control unit 21 is included in the focus detection pixel array group 22a. The defocus amount is calculated based on the outputs of the focus detection pixel rows L1 to L4. The method of setting the focus detection area AFP is not limited to the method selected by the photographer. For example, the camera control unit 21 performs face recognition processing based on image data output from the image sensor 22. The focus detection area AFP corresponding to the face portion of the subject may be set as the focus detection area AFP used for focus adjustment. Alternatively, the outputs of the focus detection pixel rows L1 to L4 in all the focus detection areas AFP set in the photographing screen are acquired, and the focus used for focus adjustment based on the acquired outputs of the focus detection pixel rows L1 to L4. The detection area AFP may be set.
また、本実施形態において、カメラ制御部21は、上述した位相差検出方式による焦点検出に加えて、コントラスト検出方式による焦点検出も行う。具体的には、カメラ制御部21は、撮像素子22の撮像画素221の出力を読み出し、読み出した画素出力に基づき、焦点評価値の演算を行う。この焦点評価値は、たとえば撮像素子22の撮像画素221からの画像出力の高周波成分を、高周波透過フィルタを用いて抽出し、これを積算することで求めることができる。また、遮断周波数が異なる2つの高周波透過フィルタを用いて高周波成分を抽出し、それぞれを積算することでも求めることができる。   In the present embodiment, the camera control unit 21 performs focus detection by the contrast detection method in addition to the focus detection by the phase difference detection method described above. Specifically, the camera control unit 21 reads the output of the imaging pixel 221 of the imaging element 22 and calculates a focus evaluation value based on the read pixel output. This focus evaluation value can be obtained by, for example, extracting a high frequency component of an image output from the imaging pixel 221 of the imaging element 22 using a high frequency transmission filter and integrating the extracted high frequency component. It can also be obtained by extracting high-frequency components using two high-frequency transmission filters having different cutoff frequencies and integrating them.
そして、カメラ制御部21は、レンズ制御部37に制御信号を送出してフォーカスレンズ32を所定のサンプリング間隔(距離)で駆動させ、それぞれの位置における焦点評価値を求め、該焦点評価値が最大となるフォーカスレンズ32の位置を合焦位置として求める。なお、この合焦位置は、たとえば、フォーカスレンズ32を駆動させながら焦点評価値を算出した場合に、焦点評価値が、2回上昇した後、さらに、2回下降して推移した場合に、これらの焦点評価値を用いて、内挿法などの演算を行うことで求めることができる。   Then, the camera control unit 21 sends a control signal to the lens control unit 37 to drive the focus lens 32 at a predetermined sampling interval (distance) to obtain a focus evaluation value at each position, and the focus evaluation value is maximum. The position of the focus lens 32 is determined as the in-focus position. Note that this in-focus position is obtained when, for example, when the focus evaluation value is calculated while driving the focus lens 32, the focus evaluation value rises twice and then moves down twice. Can be obtained by performing an operation such as interpolation using the focus evaluation value.
次いで、本実施形態におけるカメラ1の動作例を、図6に示すフローチャートに沿って説明する。   Next, an example of the operation of the camera 1 in the present embodiment will be described along the flowchart shown in FIG.
まず、ステップS101では、撮像素子22により、撮像画素221、ならびに複数の焦点検出画素列L1〜L4を構成する各第1焦点検出画素222aおよび第2焦点検出画素222bの出力データの取得が行われる。   First, in step S101, the image sensor 22 acquires output data of the imaging pixel 221 and the first focus detection pixels 222a and the second focus detection pixels 222b constituting the plurality of focus detection pixel rows L1 to L4. .
ステップS102では、カメラ制御部21により、焦点調節に用いるための焦点検出エリアAFPの選択が行われる。たとえば、撮影者が、操作部28を介して、焦点調節に用いる焦点検出エリアAFPを設定した場合には、カメラ制御部21は、撮影者が設定した焦点検出エリアAFPを、焦点調節に用いる焦点検出エリアAFPとして選択することができる。また、カメラ制御部21は、撮像素子22から出力された画像データに対して顔認識処理を行うことで、被写体の顔部に対応する焦点検出エリアAFPを、焦点調節に用いる焦点検出エリアAFPとして選択する構成としてもよい。あるいは、カメラ制御部21は、撮影画面内に設定されている全ての焦点検出エリアAFPの焦点検出画素列L1〜L4の出力を解析することで、焦点調節に用いる焦点検出エリアAFPを選択する構成としてもよい。   In step S102, the camera control unit 21 selects a focus detection area AFP to be used for focus adjustment. For example, when the photographer sets the focus detection area AFP used for focus adjustment via the operation unit 28, the camera control unit 21 uses the focus detection area AFP set by the photographer for focus adjustment. It can be selected as a detection area AFP. Further, the camera control unit 21 performs a face recognition process on the image data output from the image sensor 22, so that the focus detection area AFP corresponding to the face of the subject is used as the focus detection area AFP used for focus adjustment. A configuration may be selected. Alternatively, the camera control unit 21 selects the focus detection area AFP used for focus adjustment by analyzing the outputs of the focus detection pixel rows L1 to L4 of all the focus detection areas AFP set in the shooting screen. It is good.
ステップS103では、カメラ制御部21により、各焦点検出画素列L1〜L4の出力に基づいて、焦点検出画素列L1〜L4ごとに、コントラスト情報の検出が行われる。具体的には、カメラ制御部21は、ステップS102で選択した焦点検出エリアAFPに対応する複数の焦点検出画素列L1〜L4の出力を、高周波透過フィルタによりフィルタ処理することで、焦点検出画素列L1〜L4の画素出力から高周波成分を抽出する。そして、カメラ制御部21は、焦点検出画素列L1〜L4ごとに、抽出した高周波成分の量や強度を含む情報を、コントラスト情報として検出する。   In step S103, the camera control unit 21 detects contrast information for each of the focus detection pixel rows L1 to L4 based on the outputs of the focus detection pixel rows L1 to L4. Specifically, the camera control unit 21 filters the outputs of the plurality of focus detection pixel arrays L1 to L4 corresponding to the focus detection area AFP selected in step S102 with a high-frequency transmission filter, so that the focus detection pixel array A high frequency component is extracted from the pixel outputs of L1 to L4. And the camera control part 21 detects the information containing the quantity and intensity | strength of the extracted high frequency component as contrast information for every focus detection pixel row L1-L4.
ステップS104では、カメラ制御部21により、特定焦点検出画素列の決定が行われる。具体的には、カメラ制御部21は、ステップS103で検出した焦点検出画素列L1〜L4ごとのコントラスト情報に基づいて、複数の焦点検出画素列L1〜L4のうち、コントラストが最も大きい被写体に対応する焦点検出画素列、あるいは、画素出力に高周波成分が最も多く含まれる焦点検出画素列を、特定焦点検出画素列として決定する。   In step S104, the camera control unit 21 determines a specific focus detection pixel row. Specifically, the camera control unit 21 corresponds to the subject having the highest contrast among the plurality of focus detection pixel rows L1 to L4 based on the contrast information for each of the focus detection pixel rows L1 to L4 detected in step S103. The focus detection pixel row to be detected or the focus detection pixel row in which the high frequency component is most contained in the pixel output is determined as the specific focus detection pixel row.
そして、ステップS105では、カメラ制御部21により、ステップS104で決定した特定焦点検出画素列の出力に基づいて、デフォーカス量の算出が行われる。そして、ステップS106では、ステップS105で算出したデフォーカス量に基づいて、フォーカスレンズ32の駆動量の算出およびフォーカスレンズ32の駆動が行われる。   In step S105, the camera control unit 21 calculates the defocus amount based on the output of the specific focus detection pixel array determined in step S104. In step S106, the drive amount of the focus lens 32 and the drive of the focus lens 32 are performed based on the defocus amount calculated in step S105.
以上のようにして、第1実施形態に係る光学系の焦点検出が行われる。   As described above, focus detection of the optical system according to the first embodiment is performed.
次に、本実施形態に係るカメラ1の動作例を、図7に基づいて説明する。図7は、本実施形態に係るカメラ1の動作例を説明するための図である。また、図7では、横軸に時間を示しており、時刻t5においてシャッターレリーズボタンの半押しが行われた場面を示している。たとえば、図7に示す例では、時刻t1において、撮像素子22の焦点検出画素222a,222bにより、入射光に応じた電荷の蓄積が開始される。また、本実施形態において、焦点検出画素222a,222bは、例えばCMOSイメージセンサーであり、電荷の蓄積と並行して、時刻t1以降に蓄積された電荷の量に応じた画素信号の転送が開始される。そして、時刻t3では、時刻t2で開始された画素信号の転送が終了し、コントラスト情報の検出と、特定焦点検出画素列の決定とが行われる(ステップS103,S104)。そして、時刻t4では、決定した特定焦点検出画素列の出力に基づいて、デフォーカス量の演算が開始される(ステップS105)。これにより、レンズ駆動量の演算が行われ、レンズ駆動量の演算後、時刻t6において、レンズ駆動の指示が、レンズ鏡筒3に送信され、フォーカスレンズ32の駆動が行われる。ここで、図7に示す例では、レンズ駆動の指示が行われる前の時刻t5において、シャッターレリーズボタンの半押しが行われているため、時刻t6におけるレンズ駆動の指示に基づいて、フォーカスレンズ32の駆動が開始される。   Next, an operation example of the camera 1 according to the present embodiment will be described with reference to FIG. FIG. 7 is a diagram for explaining an operation example of the camera 1 according to the present embodiment. In FIG. 7, the horizontal axis indicates time, and shows a scene where the shutter release button is half-pressed at time t5. For example, in the example illustrated in FIG. 7, at time t1, the focus detection pixels 222a and 222b of the image sensor 22 start to accumulate charges according to incident light. In the present embodiment, the focus detection pixels 222a and 222b are, for example, CMOS image sensors, and in parallel with the accumulation of charges, transfer of pixel signals corresponding to the amount of charges accumulated after time t1 is started. The At time t3, the transfer of the pixel signal started at time t2 ends, and contrast information is detected and a specific focus detection pixel row is determined (steps S103 and S104). At time t4, calculation of the defocus amount is started based on the determined output of the specific focus detection pixel row (step S105). Thereby, the lens driving amount is calculated, and after the lens driving amount is calculated, a lens driving instruction is transmitted to the lens barrel 3 at time t6, and the focus lens 32 is driven. In the example shown in FIG. 7, since the shutter release button is half-pressed at time t5 before the lens driving instruction is issued, the focus lens 32 is based on the lens driving instruction at time t6. Is started.
また、本実施形態では、シャッターレリーズボタンが半押しされた後も、撮像素子22のフレームレートに応じて、デフォーカス量の算出が繰り返し行われ、算出されたデフォーカス量に基づいて、フォーカスレンズ32の駆動指示が繰り返し行われる。たとえば、図7に示す例では、時刻t2において、2フレーム目の電荷の蓄積が開始され、その結果、時刻t7において、2フレーム目のデフォーカス量の算出が行われ、時刻t8において、2フレーム目の焦点検出画素列L1〜L4の出力結果に基づく、フォーカスレンズ32の駆動指示が行われる。同様に、3フレーム目以降においても、フレームごとに、焦点検出画素列L1〜L4の出力に基づいて、デフォーカス量の算出と、デフォーカス量に基づくフォーカスレンズ32の駆動とが繰り返される。   In this embodiment, the defocus amount is repeatedly calculated according to the frame rate of the image sensor 22 even after the shutter release button is half-pressed, and the focus lens is based on the calculated defocus amount. 32 drive instructions are repeatedly performed. For example, in the example shown in FIG. 7, charge accumulation for the second frame is started at time t2, and as a result, the defocus amount for the second frame is calculated at time t7. An instruction to drive the focus lens 32 is issued based on the output results of the eye focus detection pixel rows L1 to L4. Similarly, in the third and subsequent frames, the calculation of the defocus amount and the driving of the focus lens 32 based on the defocus amount are repeated for each frame based on the outputs of the focus detection pixel rows L1 to L4.
このように、本実施形態では、撮像素子22のフレームレートに応じたフレームごとに、デフォーカス量の算出と、デフォーカス量に基づくフォーカスレンズ32の駆動とが繰り返される。このように、フレームごとに、デフォーカス量を算出し、フォーカスレンズ32の駆動を指示するためには、デフォーカス量の演算からフォーカスレンズ32の駆動指示までを、1フレームの時間内に行う必要がある。この点、本実施形態では、コントラスト情報に基づいて1の特定焦点検出画素列を決定し、この特定焦点検出画素列の出力のみについてデフォーカス量を算出することで、図7に示すように、デフォーカス量の算出に要する時間を短くすることができるため、1フレームの時間内に、デフォーカス量を算出し、算出したデフォーカス量に基づいてフォーカスレンズ32を駆動させることができる。   As described above, in the present embodiment, the calculation of the defocus amount and the driving of the focus lens 32 based on the defocus amount are repeated for each frame corresponding to the frame rate of the image sensor 22. As described above, in order to calculate the defocus amount for each frame and instruct to drive the focus lens 32, it is necessary to perform the calculation from the defocus amount to the drive instruction to the focus lens 32 within one frame time. There is. In this regard, in the present embodiment, one specific focus detection pixel row is determined based on the contrast information, and the defocus amount is calculated only for the output of this specific focus detection pixel row, as shown in FIG. Since the time required for calculating the defocus amount can be shortened, the defocus amount can be calculated within one frame time, and the focus lens 32 can be driven based on the calculated defocus amount.
一方、図8は、従来のカメラの動作例を説明するための図であり、図7と同様に、横軸に時間を示している。図8に示す例では、比較的時間がかかるデフォーカス量の演算を、全ての焦点検出画素列L1〜L4について行うため、図7に示す本実施形態と比べて、デフォーカス量の演算時間が長くなる。その結果、図8に示す例では、図7に示す本実施形態と比べて、デフォーカス量の演算からレンズ駆動指示までの所要時間が、フレームレートの1フレーム分の時間よりも長くなってしまい、レンズ駆動指示をフレームごとに行うことができなくなってしまう場合があった。具体的には、図8に示す例では、1フレーム分の時間内に、デフォーカス量の演算からレンズ駆動指示までを行うことができないため、図7に示す本実施形態のタイムラグT1と比べて、電荷の蓄積からフォーカスレンズ32の駆動指示までのタイムラグT2が2倍の大きさとなっている。   On the other hand, FIG. 8 is a diagram for explaining an example of the operation of the conventional camera, and the time is shown on the horizontal axis as in FIG. In the example shown in FIG. 8, since the calculation of the defocus amount that takes a relatively long time is performed for all the focus detection pixel rows L1 to L4, the calculation time of the defocus amount is shorter than that in the present embodiment shown in FIG. become longer. As a result, in the example shown in FIG. 8, the time required from the calculation of the defocus amount to the lens driving instruction is longer than the time of one frame of the frame rate, compared with the present embodiment shown in FIG. In some cases, the lens drive instruction cannot be performed for each frame. Specifically, in the example shown in FIG. 8, since it is not possible to perform from the defocus amount calculation to the lens driving instruction within the time of one frame, compared with the time lag T1 of the present embodiment shown in FIG. The time lag T2 from the charge accumulation to the driving instruction of the focus lens 32 is twice as large.
その結果、図8に示す例では、時刻12において、時刻t11における光学系の焦点状態に基づいて、フォーカスレンズ32の駆動が指示されるため、フォーカスレンズ32が合焦位置を大きく超えた位置まで駆動してしまう場合や、被写体への追従性が低下してしまう場合があった。これに対して、本実施形態では、図7に示すように、時刻t9での光学系の焦点状態に基づいて、タイムラグの少ない時刻t10において、フォーカスレンズ32の駆動指示を行うことができるため、図8に示す従来例と比べて、フォーカスレンズ32を合焦位置まで適切に駆動することができる。   As a result, in the example shown in FIG. 8, at time 12, the focus lens 32 is instructed to be driven based on the focus state of the optical system at time t <b> 11, so that the focus lens 32 greatly exceeds the in-focus position. In some cases, it may be driven or the followability to the subject may be reduced. On the other hand, in the present embodiment, as shown in FIG. 7, based on the focus state of the optical system at time t9, the drive instruction for the focus lens 32 can be performed at time t10 with a small time lag. Compared with the conventional example shown in FIG. 8, the focus lens 32 can be appropriately driven to the in-focus position.
以上のように、第1実施形態では、焦点検出エリアAFP内の各焦点検出画素列L1〜L4の出力に基づいて、焦点検出画素列L1〜L4ごとに、コントラスト情報を検出する。そして、検出したコントラスト情報に基づいて、焦点検出に用いる焦点検出画素列を決定する。すなわち、複数の焦点検出画素列L1〜L4のうち、コントラストが最も大きい被写体に対応する焦点検出画素列、あるいは、画素出力に高周波成分が最も多く含まれている焦点検出画素列を、特定焦点検出画素列として決定し、この特定焦点検出画素列のみについて、デフォーカス量を決定する。これにより、コントラストが最も大きい被写体、あるいは、高周波成分が最も多い被写体に対する、光学系の焦点状態を検出することができるとともに、従来のように、複数の焦点検出画素列L1〜L4の全てについてデフォーカス量を算出する場合と比べて、デフォーカス量の演算にかかる時間を短縮することができ、焦点状態の検出を適切なタイミングで繰り返し行うことができる。   As described above, in the first embodiment, contrast information is detected for each of the focus detection pixel rows L1 to L4 based on the outputs of the focus detection pixel rows L1 to L4 in the focus detection area AFP. Then, based on the detected contrast information, a focus detection pixel row used for focus detection is determined. That is, among the plurality of focus detection pixel rows L1 to L4, the focus detection pixel row corresponding to the subject having the highest contrast or the focus detection pixel row containing the largest amount of high-frequency components in the pixel output is detected with a specific focus. A pixel row is determined, and the defocus amount is determined only for the specific focus detection pixel row. As a result, it is possible to detect the focus state of the optical system with respect to the subject having the highest contrast or the subject having the highest high-frequency component, and in the conventional manner, all of the focus detection pixel rows L1 to L4 can be detected. Compared with the case of calculating the focus amount, the time required to calculate the defocus amount can be shortened, and the detection of the focus state can be repeatedly performed at an appropriate timing.
また、第1実施形態では、複数の焦点検出画素列L1〜L4の出力のうち、1つの焦点検出画素列の出力に基づいて、デフォーカス量を算出する構成のため、複数の焦点検出画素列L1〜L4の出力を加算または平均化する場合と比べて、以下のような効果を奏することができる。すなわち、被写体が撮像画素221の斜め方向にコントラストを有する場合、複数の焦点検出画素列L1〜L4の出力を加算または平均化してしまうと、却って、コントラストが低下してしまう場合があり、被写体を適切に検出できない場合がある。これに対して、本実施形態では、1つの特定焦点検出画素列の出力に基づいて、デフォーカス量を算出するため、このような場合でも、コントラストの低下を防止することができ、被写体を適切に検出することができるという効果を奏することができる。   In the first embodiment, the defocus amount is calculated based on the output of one focus detection pixel column among the outputs of the plurality of focus detection pixel columns L1 to L4. Compared with the case where the outputs of L1 to L4 are added or averaged, the following effects can be obtained. That is, when the subject has a contrast in the oblique direction of the imaging pixel 221, if the outputs of the plurality of focus detection pixel rows L1 to L4 are added or averaged, the contrast may be reduced. It may not be detected properly. On the other hand, in this embodiment, since the defocus amount is calculated based on the output of one specific focus detection pixel row, even in such a case, a reduction in contrast can be prevented, and the subject is appropriately selected. The effect of being able to be detected can be achieved.
《第2実施形態》
次いで、本発明の第2実施形態について説明する。第2実施形態では、図1に示すカメラ1において、以下に説明するように動作すること以外は、上述した第1実施形態と同様の構成を有するものである。
<< Second Embodiment >>
Next, a second embodiment of the present invention will be described. In the second embodiment, the camera 1 shown in FIG. 1 has the same configuration as that of the first embodiment described above except that it operates as described below.
第2実施形態において、カメラ制御部21は、異なる周波数帯域の周波数成分を透過する複数のフィルタを備えており、各焦点検出画素列L1〜L4の出力から異なる複数の周波数帯域の周波数成分を抽出し、抽出した複数の周波数成分に基づいて、焦点検出画素列L1〜L4ごとに、複数のコントラスト情報を検出する。たとえば、カメラ制御部21が異なる3つの周波数帯域の周波数成分を抽出する3つのフィルタを備えている場合には、カメラ制御部21は、1つの焦点検出画素列の出力から3つのコントラスト情報を検出することができる。なお、第2実施形態で抽出される周波数成分の周波数帯域は、特に限定されず、低周波帯域から高周波帯域までの任意の周波数帯域とすることができる。   In the second embodiment, the camera control unit 21 includes a plurality of filters that transmit frequency components in different frequency bands, and extracts frequency components in a plurality of different frequency bands from the outputs of the focus detection pixel columns L1 to L4. Then, based on the extracted frequency components, a plurality of contrast information is detected for each of the focus detection pixel columns L1 to L4. For example, when the camera control unit 21 includes three filters that extract frequency components in three different frequency bands, the camera control unit 21 detects three contrast information from the output of one focus detection pixel array. can do. Note that the frequency band of the frequency component extracted in the second embodiment is not particularly limited, and may be any frequency band from a low frequency band to a high frequency band.
そして、カメラ制御部21は、複数のコントラスト情報に基づいて、複数の焦点検出画素列L1〜L4の中から、焦点検出に用いる1または複数の焦点検出画素列L1〜L4を、特定焦点検出画素列として検出する。たとえば、カメラ制御部21は、複数の焦点検出画素列L1〜L4の中から、対応する被写体のコントラストの大きさが所定値以上である1または複数の焦点検出画素列を、特定焦点検出画素列として検出することができる。あるいは、カメラ制御部21は、出力に含まれる高周波成分の量が所定値以上である1または複数の焦点検出画素列を、特定焦点検出画素列として検出することができる。   Then, the camera control unit 21 selects one or a plurality of focus detection pixel rows L1 to L4 used for focus detection from the plurality of focus detection pixel rows L1 to L4 based on the plurality of contrast information. Detect as a column. For example, the camera control unit 21 selects one or more focus detection pixel rows in which the magnitude of the contrast of the corresponding subject is equal to or greater than a predetermined value from the plurality of focus detection pixel rows L1 to L4. Can be detected as Alternatively, the camera control unit 21 can detect, as the specific focus detection pixel row, one or more focus detection pixel rows in which the amount of high-frequency components included in the output is a predetermined value or more.
なお、カメラ制御部21は、特定焦点検出画素列を決定する場合には、特定焦点検出画素列の数が、焦点検出エリアAFPに対応する焦点検出画素列L1〜L4の数よりも少なくなるように、特定焦点検出画素列を決定する。たとえば、本実施形態では、焦点検出エリアAFPに4つの焦点検出画素列L1〜L4が配置されているため、カメラ制御部21は、少なくとも、特定焦点検出画素列の数が3つ以下となるように、特定焦点検出画素列を決定する。   When the camera control unit 21 determines the specific focus detection pixel row, the number of the specific focus detection pixel rows is smaller than the number of the focus detection pixel rows L1 to L4 corresponding to the focus detection area AFP. Then, a specific focus detection pixel row is determined. For example, in the present embodiment, since the four focus detection pixel rows L1 to L4 are arranged in the focus detection area AFP, the camera control unit 21 has at least three specific focus detection pixel rows. Then, a specific focus detection pixel row is determined.
そして、カメラ制御部21は、複数の焦点検出画素列を特定焦点検出画素列として決定した場合には、複数の特定焦点検出画素列の出力を加算または平均化し、加算または平均化した複数の特定焦点検出画素列の出力に基づいて、デフォーカス量を算出する。ここで、図9は、図3に示す撮像素子22の撮像面から撮像画素221を除き、4つの焦点検出画素列L1〜L4を構成する第1焦点検出画素222aおよび第2焦点検出画素222bのみを模式的に示した図である。たとえば、カメラ制御部21は、複数の特定焦点検出画素列の出力を加算する場合には、図9に示す第1焦点検出画素列L1の画素A1L1の出力と、これと同じ測距瞳を通過する焦点検出光束を受光する、第2焦点検出画素列L2の画素A1L2の出力と、第3焦点検出画素列L3の画素A1L3の出力と、第4焦点検出画素列L4の画素A1L3の出力とを加算し、画素加算出力IA1を得る。同様に、第1焦点検出画素列L1の画素B1L1の出力と、これと同じ測距瞳を通過する焦点検出光束を受光する、第2焦点検出画素列L2の画素B1L2の出力と、第3焦点検出画素列L3の画素B1L3の出力と、第4焦点検出画素列L4の画素B1L4の出力とを加算し、画素加算出力IB1を得る。以下、同様に、A2L1とA2L2とA2L3とA2L4との出力からIA2を、B2L1とB2L2とB2L3とB2L4との出力からIB2を、A3L1とA3L2とA3L3とA3L4との出力からIA3を、B3L1とB3L2とB3L3とB3L4との出力からIB3を得る。 Then, when the plurality of focus detection pixel columns are determined as the specific focus detection pixel columns, the camera control unit 21 adds or averages the outputs of the plurality of specific focus detection pixel columns, and adds or averages the plurality of specific determinations. A defocus amount is calculated based on the output of the focus detection pixel array. Here, FIG. 9 shows only the first focus detection pixel 222a and the second focus detection pixel 222b that constitute the four focus detection pixel rows L1 to L4, excluding the imaging pixel 221 from the imaging surface of the imaging element 22 shown in FIG. FIG. For example, when adding the outputs of a plurality of specific focus detection pixel rows, the camera control unit 21 uses the same distance measurement pupil as the output of the pixel A1 L1 of the first focus detection pixel row L1 shown in FIG. receiving focus detection light fluxes passing through the output of the pixel A1 L2 of the second focus detection pixel row L2, the output of the pixel A1 L3 of the third focus detection pixel row L3, the pixels A1 L3 of the fourth focus detection pixel row L4 Are added together to obtain a pixel addition output I A1 . Similarly, the output of the pixel B1 L1 of the first focus detection pixel column L1, the output of the pixel B1 L2 of the second focus detection pixel column L2 that receives the focus detection light beam passing through the same distance measurement pupil, and the first The output of the pixel B1 L3 of the three focus detection pixel column L3 and the output of the pixel B1 L4 of the fourth focus detection pixel column L4 are added to obtain a pixel addition output I B1 . Similarly, I A2 is output from the outputs of A2 L1 , A2 L2 , A2 L3, and A2 L4 , I B2 is output from the outputs of B2 L1 , B2 L2 , B2 L3, and B2 L4, and A3 L1 , A3 L2, and A3. I A3 is obtained from the outputs of L3 and A3 L4, and I B3 is obtained from the outputs of B3 L1 , B3 L2 , B3 L3, and B3 L4 .
そして、カメラ制御部21は、得られた画素加算出力を用いて、第1焦点検出画素222aに基づくデータ列、すなわち、第1像データ列IA1,IA2,IA3,...,IAnと、第2焦点検出画素222bに基づくデータ列、すなわち、第2像データ列IB1,IB2,IB3,...,IBnとを、一次元状に相対的にシフトさせながら、上記式(1)に示す相関演算を行う。 Then, the camera control unit 21 uses the obtained pixel addition output to generate a data sequence based on the first focus detection pixel 222a, that is, the first image data sequence I A1 , I A2 , I A3,. . . , I An and the second focus detection pixel 222b, that is, the second image data sequence I B1 , I B2 , I B3,. . . , I Bn are relatively shifted in a one-dimensional manner, and the correlation calculation shown in the above equation (1) is performed.
ここで、図3に示すように、焦点検出画素列L1〜L4においては、第1焦点検出画素222aと、第2焦点検出画素222bとが、それぞれ0.5画素分ずれた位置に配置されている。従来では、本実施形態の第1焦点検出画素列L1および第2焦点検出画素列L2のうちいずれか一方のみを、焦点検出画素列として用いるものであるため、第1焦点検出画素222aと、第2焦点検出画素222bとが互いに0.5画素ずれた位置に存在し、これらの焦点検出画素を用いて得られる第1像データ列IA1,IA2,IA3,...,IAnと、第2像データ列IB1,IB2,IB3,...,IBnとは、互いに0.5画素ずれたデータとなってしまっていた。そのため、相関演算を行った場合には、図10(B)に示すように、相関量C(k)の極小値も0.5画素分ずれた位置となってしまうこととなる。このような場合に、相関量C(k)が極小値を示すシフト量およびデフォーカス量を算出するためには、内挿演算等を用いる必要があり、結果として、焦点検出精度が低下してしまう場合があった。特に、焦点検出画素で検出された出力のコントラストレベルが低い場合に、このような問題が顕著になる傾向にあった。 Here, as shown in FIG. 3, in the focus detection pixel rows L1 to L4, the first focus detection pixel 222a and the second focus detection pixel 222b are arranged at positions shifted by 0.5 pixels, respectively. Yes. Conventionally, since only one of the first focus detection pixel column L1 and the second focus detection pixel column L2 of the present embodiment is used as the focus detection pixel column, the first focus detection pixel 222a, The two focus detection pixels 222b are located at a position shifted by 0.5 pixels from each other, and the first image data strings I A1 , I A2 , I A3,. . . , I An and the second image data sequence I B1 , I B2 , I B3,. . . , IBn are data shifted by 0.5 pixels from each other. Therefore, when the correlation calculation is performed, the minimum value of the correlation amount C (k) is also shifted by 0.5 pixels as shown in FIG. In such a case, in order to calculate the shift amount and the defocus amount at which the correlation amount C (k) exhibits the minimum value, it is necessary to use an interpolation operation or the like. As a result, the focus detection accuracy decreases. There was a case. In particular, when the output contrast level detected by the focus detection pixel is low, such a problem tends to become remarkable.
これに対して、本実施形態においては、焦点検出画素列L1,L3と、焦点検出画素列L2,L4とにおいて、第1焦点検出画素222aおよび第2焦点検出画素222bがX軸方向において0.5画素分ずらした位置に配置されているため、画素出力を加算することにより得られる画素加算出力を用いた場合に、図10(A)に示すように、合焦状態(デフォーカス量がゼロの状態)において、相関量C(k)が極小値を与えるシフト量を正確に求めることができ、これにより、焦点検出精度を適切に高めることができる。   On the other hand, in the present embodiment, in the focus detection pixel rows L1 and L3 and the focus detection pixel rows L2 and L4, the first focus detection pixel 222a and the second focus detection pixel 222b are 0. 0 in the X-axis direction. Since it is arranged at a position shifted by 5 pixels, when a pixel addition output obtained by adding the pixel outputs is used, as shown in FIG. In this state, it is possible to accurately obtain the shift amount at which the correlation amount C (k) gives the minimum value, thereby appropriately increasing the focus detection accuracy.
次に、図11を参照して、第2実施形態に係るカメラ1の動作を説明する。図11は、第2実施形態に係るカメラ1の動作例を示すフローチャートである。   Next, the operation of the camera 1 according to the second embodiment will be described with reference to FIG. FIG. 11 is a flowchart illustrating an operation example of the camera 1 according to the second embodiment.
ステップS201では、第1実施形態のステップS101と同様に、撮像素子22により、撮像画素221、ならびに複数の焦点検出画素列L1〜L4を構成する各第1焦点検出画素222aおよび第2焦点検出画素222bの出力データの取得が行われる。また、ステップS202では、第1実施形態のステップS102と同様に、カメラ制御部21により、焦点調節に用いるための焦点検出エリアAFPの選択が行われる。   In step S201, as in step S101 of the first embodiment, the image sensor 22 and each of the first focus detection pixels 222a and the second focus detection pixels that configure the focus detection pixel rows L1 to L4 by the image sensor 22 are used. The output data 222b is acquired. In step S202, as in step S102 of the first embodiment, the camera control unit 21 selects a focus detection area AFP to be used for focus adjustment.
そして、ステップS203では、カメラ制御部21により、コントラスト情報の検出が行われる。第2実施形態において、カメラ制御部21は、異なる周波数帯域の周波数成分を抽出する複数のフィルタを用いて、各焦点検出画素列L1〜L4の出力にフィルタ処理を施すことで、各焦点検出画素列L1〜L4のそれぞれの出力から複数の周波数成分を抽出する。そして、カメラ制御部21は、抽出した周波数成分の量や強度を含む情報を、コントラスト情報として検出する。   In step S203, the camera control unit 21 detects contrast information. In the second embodiment, the camera control unit 21 performs filtering on the outputs of the focus detection pixel rows L1 to L4 by using a plurality of filters that extract frequency components in different frequency bands, so that each focus detection pixel. A plurality of frequency components are extracted from the outputs of the columns L1 to L4. Then, the camera control unit 21 detects information including the amount and intensity of the extracted frequency component as contrast information.
ステップS204では、カメラ制御部21により、ステップS203で検出した複数のコントラスト情報に基づいて、特定焦点検出画素列の決定が行われる。具体的には、カメラ制御部21は、ステップS203で検出したコントラスト情報に基づいて、複数の焦点検出画素列L1〜L4のうち、対応する被写体のコントラストが所定値以上である1または複数の焦点検出画素列を、特定焦点検出画素列として決定する。あるいは、カメラ制御部21は、ステップS203で検出した複数のコントラスト情報に基づいて、複数の焦点検出画素列L1〜L4のうち、出力に含まれる高周波成分の量が所定値以上となる1または複数の焦点検出画素列を、特定焦点検出画素列として決定する。   In step S204, the camera control unit 21 determines a specific focus detection pixel row based on the plurality of pieces of contrast information detected in step S203. Specifically, based on the contrast information detected in step S <b> 203, the camera control unit 21 selects one or a plurality of focal points in which the contrast of the corresponding subject is greater than or equal to a predetermined value among the plurality of focus detection pixel rows L <b> 1 to L <b> 4. The detection pixel column is determined as a specific focus detection pixel column. Alternatively, the camera control unit 21 has one or a plurality of high-frequency component amounts included in the output among the plurality of focus detection pixel rows L1 to L4 based on the plurality of contrast information detected in step S203. Are determined as a specific focus detection pixel column.
そして、ステップS205では、カメラ制御部21により、ステップS204で決定された1または複数の特定焦点検出画素列に基づいて、フォーカスレンズ32の駆動に用いるデフォーカス量の算出が行われる。たとえば、カメラ制御部21は、複数の焦点検出画素列を特定焦点検出画素列として決定した場合には、複数の特定焦点検出画素列の出力を加算あるいは平均化することで、1の出力を算出し、この出力に基づいて、フォーカスレンズ32の駆動に用いるデフォーカス量を算出することができる。   In step S205, the camera control unit 21 calculates the defocus amount used to drive the focus lens 32 based on the one or more specific focus detection pixel rows determined in step S204. For example, when the plurality of focus detection pixel arrays are determined as the specific focus detection pixel arrays, the camera control unit 21 calculates one output by adding or averaging the outputs of the plurality of specific focus detection pixel arrays. Based on this output, the defocus amount used for driving the focus lens 32 can be calculated.
ステップS206では、第1実施形態のステップS106と同様に、ステップS205で算出されたデフォーカス量に基づいて、フォーカスレンズ32の駆動量の算出およびフォーカスレンズ32の駆動が行われる。   In step S206, as in step S106 of the first embodiment, the drive amount of the focus lens 32 and the drive of the focus lens 32 are performed based on the defocus amount calculated in step S205.
以上のようにして、第2実施形態に係る光学系の焦点検出が行われる。   As described above, focus detection of the optical system according to the second embodiment is performed.
このように、第2実施形態では、焦点検出画素列L1〜L4ごとに、焦点検出画素列L1〜L4の出力に基づいて、異なる周波数帯域の周波数成分を抽出し、抽出した複数の周波数成分に基づいて、複数のコントラスト情報を検出する。そして、複数のコントラスト情報に基づいて、焦点検出画素列L1〜L4の中から、1または複数の特定焦点検出画素列を決定し、決定した特定焦点検出画素列の画素出力に基づいて、デフォーカス量を決定する。このように、第2実施形態では、全ての焦点検出画素列L1〜L4についてデフォーカス量を算出するのではなく、焦点検出画素列L1〜L4の数よりも少ない数の特定焦点検出画素列についてデフォーカス量の演算を行うことで、デフォーカス量の演算時間を短くすることができ、その結果、焦点状態の検出を適切なタイミングで繰り返し行うことが可能となる。   As described above, in the second embodiment, for each focus detection pixel column L1 to L4, frequency components in different frequency bands are extracted based on the outputs of the focus detection pixel columns L1 to L4. Based on this, a plurality of contrast information is detected. Then, one or more specific focus detection pixel columns are determined from the focus detection pixel columns L1 to L4 based on the plurality of contrast information, and defocusing is performed based on the pixel outputs of the determined specific focus detection pixel columns. Determine the amount. As described above, in the second embodiment, the defocus amount is not calculated for all the focus detection pixel rows L1 to L4, but the number of specific focus detection pixel rows is smaller than the number of focus detection pixel rows L1 to L4. By calculating the defocus amount, the defocus amount calculation time can be shortened, and as a result, the focus state can be repeatedly detected at an appropriate timing.
以上、本発明の実施形態について説明したが、上述した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   As mentioned above, although embodiment of this invention was described, embodiment mentioned above was described in order to make an understanding of this invention easy, and was not described in order to limit this invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.
たとえば、上述した実施形態では、1つの焦点検出エリアAFPにおいて4つの焦点検出画素列L1〜L4を備える構成を例示したが、焦点検出画素列の数はこれに限定されるものではなく、1つの焦点検出エリアにおける焦点検出画素列の数を、2または3としてもよいし、あるいは5以上としてもよい。   For example, in the above-described embodiment, the configuration including four focus detection pixel rows L1 to L4 in one focus detection area AFP is illustrated, but the number of focus detection pixel rows is not limited to this, and one The number of focus detection pixel rows in the focus detection area may be 2 or 3, or 5 or more.
また、上述した実施形態では、撮像素子22に焦点検出画素列L1〜L4を備え、焦点検出画素列L1〜L4の出力に基づいて、デフォーカス量を算出する構成を例示したが、この構成に限定されず、たとえば、撮像素子22とは別に、位相差式AF検出モジュールを備え、この位相差式AF検出モジュールで受光した受光信号に基づいて、デフォーカス量を算出する構成としてもよい。具体的には、位相差式AF検出モジュールは、光学系を通過する光束を受光する一対のラインセンサを複数有しており、ラインセンサごとにコントラスト情報を検出し、検出したコントラスト情報に基づいて、複数のラインセンサの中から、焦点検出に用いる一対のラインセンサを決定する構成としてもよい。なお、焦点検出に用いる一対のラインセンサを決定する場合には、位相差検出モジュールが備える演算部により、焦点検出に用いる一対のラインセンサを決定する構成としてもよいし、あるいは、カメラ制御部21が、各一対のラインセンサの出力を取得することで、焦点検出に用いる一対のラインセンサを決定する構成としてもよい。   In the above-described embodiment, the imaging element 22 includes the focus detection pixel rows L1 to L4, and the configuration for calculating the defocus amount based on the outputs of the focus detection pixel rows L1 to L4 is exemplified. For example, a phase difference AF detection module may be provided separately from the image sensor 22 and the defocus amount may be calculated based on a light reception signal received by the phase difference AF detection module. Specifically, the phase difference AF detection module has a plurality of paired line sensors that receive light beams passing through the optical system, detects contrast information for each line sensor, and based on the detected contrast information The configuration may be such that a pair of line sensors used for focus detection is determined from among a plurality of line sensors. In addition, when determining a pair of line sensor used for focus detection, it is good also as a structure which determines a pair of line sensor used for focus detection by the calculating part with which a phase difference detection module is provided, or the camera control part 21 However, it is good also as a structure which determines a pair of line sensor used for focus detection by acquiring the output of each pair of line sensor.
このように、本発明の「受光センサ」とは、焦点検出画素列L1〜L4であってもよいし、上述した一対のラインセンサであってもよい。また、本発明の「焦点検出装置」とは、撮像素子22またはそれを備えるカメラ1であってもよいし、もしくは、位相差式AF検出モジュールまたはそれを備えるカメラ1であってもよい。   As described above, the “light receiving sensor” of the present invention may be the focus detection pixel columns L1 to L4 or the pair of line sensors described above. In addition, the “focus detection apparatus” of the present invention may be the image sensor 22 or the camera 1 including the same, or may be the phase difference AF detection module or the camera 1 including the same.
さらに、上述した実施形態では、焦点検出画素列L1,L3と焦点検出画素列L2,L4とにおいて、第1焦点検出画素222aおよび第2焦点検出画素222bがX軸方向において逆となるように配置されているが、この構成に限定されず、たとえば、図12に示すように、焦点検出画素列L1a〜L4aを構成する焦点検出画素222a,222bをX軸方向において同じ位置となるように配置する構成としてもよい。   Furthermore, in the above-described embodiment, the first focus detection pixels 222a and the second focus detection pixels 222b are arranged in the focus detection pixel rows L1 and L3 and the focus detection pixel rows L2 and L4 so that they are reversed in the X-axis direction. However, the present invention is not limited to this configuration. For example, as shown in FIG. 12, the focus detection pixels 222a and 222b constituting the focus detection pixel rows L1a to L4a are arranged at the same position in the X-axis direction. It is good also as a structure.
また、図13の焦点検出画素列L1b,L2bに示すように、各焦点検出画素222a,222bが一対の光電変換部2222a,2222bを備える構成としてもよい。具体的には、図13に示すように、各焦点検出画素222a,222bにおいて、一対の光電変換部2222a,2222bがX軸方向に配列され、測距瞳351から照射される光束が、一対の光電変換部2222a,2222bのうち一方の光電変換部で受光され、測距瞳352から照射される光束が、他方の光電変換部で受光される。これにより、各焦点検出画素列L1b,L2bにおいて、一対の像データ列をそれぞれ出力することができる。なお、図13においては、測距瞳351から照射される光束を受光する光電変換部を灰色で表し、測距瞳352から照射される光束を受光する光電変換部を白塗りで表している。   Further, as shown in the focus detection pixel rows L1b and L2b in FIG. 13, the focus detection pixels 222a and 222b may include a pair of photoelectric conversion units 2222a and 2222b. Specifically, as shown in FIG. 13, in each focus detection pixel 222a, 222b, a pair of photoelectric conversion units 2222a, 2222b are arranged in the X-axis direction, and the light flux emitted from the distance measuring pupil 351 is a pair of light beams. A light beam received by one of the photoelectric conversion units 2222a and 2222b and irradiated from the distance measuring pupil 352 is received by the other photoelectric conversion unit. Accordingly, a pair of image data strings can be output from each of the focus detection pixel lines L1b and L2b. In FIG. 13, the photoelectric conversion unit that receives the light beam emitted from the distance measuring pupil 351 is shown in gray, and the photoelectric conversion unit that receives the light beam emitted from the distance measurement pupil 352 is shown in white.
さらに、各焦点検出画素列を構成する第1焦点検出画素222aおよび第2焦点検出画素222bの配列は、これらが少なくとも、同じ列上において交互に配列されたものであればよく、たとえば、図14に示す焦点検出画素列L1c〜L4cのように、焦点検出画素列中に、通常の撮像画素221が含まれるような構成としてもよい。   Furthermore, the arrangement of the first focus detection pixels 222a and the second focus detection pixels 222b constituting each focus detection pixel column may be any arrangement in which they are alternately arranged on at least the same column. For example, FIG. As shown in the focus detection pixel rows L1c to L4c shown in FIG. 3, the focus detection pixel row may include a normal imaging pixel 221.
また、上述した実施形態に加えて、被写体のコントラスト(あるいは被写体の輝度)が所定値以上である場合には、第1実施形態に示すように、焦点検出画素列L1〜L4のうち、コントラストが最も大きい被写体に対応する焦点検出画素列、または、出力に高周波成分が最も多く含まれる焦点検出画素列を、特定焦点検出画素列として決定し、一方、被写体のコントラスト(あるいは被写体の輝度)が所定値未満である場合には、第2実施形態に示したように、焦点検出画素列L1〜L4のうち、対応する被写体のコントラストが所定値以上となる1または複数の焦点検出画素列、または、出力に含まれる高周波成分の量が所定値以上となる1または複数の焦点検出画素列を、特定焦点検出画素列として決定する構成としてもよい。   Further, in addition to the above-described embodiment, when the contrast of the subject (or the brightness of the subject) is a predetermined value or more, as shown in the first embodiment, the contrast of the focus detection pixel rows L1 to L4 is as follows. The focus detection pixel row corresponding to the largest subject or the focus detection pixel row containing the largest amount of high-frequency components in the output is determined as the specific focus detection pixel row, while the subject contrast (or subject brightness) is predetermined. If it is less than the value, as shown in the second embodiment, among the focus detection pixel rows L1 to L4, one or a plurality of focus detection pixel rows where the contrast of the corresponding subject is equal to or higher than a predetermined value, or A configuration may be adopted in which one or a plurality of focus detection pixel arrays in which the amount of high-frequency components included in the output is equal to or greater than a predetermined value are determined as the specific focus detection pixel arrays.
1…デジタルカメラ
2…カメラ本体
21…カメラ制御部
22…撮像素子
221…撮像画素
L1〜L4…焦点検出画素列
222a,222b…焦点検出画素
3…レンズ鏡筒
32…フォーカスレンズ
36…フォーカスレンズ駆動モータ
37…レンズ制御部
DESCRIPTION OF SYMBOLS 1 ... Digital camera 2 ... Camera body 21 ... Camera control part 22 ... Imaging device 221 ... Imaging pixel L1-L4 ... Focus detection pixel row 222a, 222b ... Focus detection pixel 3 ... Lens barrel 32 ... Focus lens 36 ... Focus lens drive Motor 37 ... Lens control unit

Claims (6)

  1. 複数の画素を一次元状に配列した受光センサを複数有する焦点検出装置であって、
    前記受光センサの出力に基づいて、前記受光センサごとにコントラスト情報を検出し、検出した前記コントラスト情報に基づいて、前記複数の受光センサの中から焦点検出に用いる受光センサを決定する制御部を備えることを特徴とする焦点検出装置。
    A focus detection device having a plurality of light receiving sensors in which a plurality of pixels are arranged one-dimensionally,
    A control unit that detects contrast information for each light receiving sensor based on the output of the light receiving sensor and determines a light receiving sensor to be used for focus detection from the plurality of light receiving sensors based on the detected contrast information. A focus detection apparatus.
  2. 請求項1に記載の焦点検出装置であって、
    前記制御部は、前記複数の受光センサの中から、コントラストが最も大きい被写体に対応する受光センサ、または、出力に高周波成分が最も多く含まれる受光センサを、前記焦点検出に用いる受光センサとして決定することを特徴とする焦点検出装置。
    The focus detection apparatus according to claim 1,
    The control unit determines, from among the plurality of light receiving sensors, a light receiving sensor corresponding to a subject having the highest contrast or a light receiving sensor that includes the largest amount of high frequency components in an output as a light receiving sensor used for the focus detection. A focus detection apparatus.
  3. 請求項1または2に記載の焦点検出装置であって、
    前記制御部は、前記受光センサの出力から周波数帯域の異なる複数の周波数成分を抽出し、抽出した前記複数の周波数成分に基づいて、前記受光センサごとに複数の前記コントラスト情報を検出することを特徴とする焦点検出装置。
    The focus detection apparatus according to claim 1 or 2,
    The control unit extracts a plurality of frequency components having different frequency bands from the output of the light receiving sensor, and detects a plurality of contrast information for each of the light receiving sensors based on the extracted frequency components. Focus detection device.
  4. 請求項1〜3のいずれかに記載の焦点検出装置であって、
    前記制御部は、前記コントラスト情報に基づいて、前記複数の受光センサの中から、対応する被写体のコントラストが所定値以上である1または複数の受光センサ、または、出力に含まれる高周波成分の量が所定値以上である1または複数の受光センサを、前記焦点検出に用いる受光センサとして決定することを特徴とする焦点検出装置。
    The focus detection apparatus according to claim 1,
    Based on the contrast information, the control unit includes one or a plurality of light receiving sensors in which the contrast of a corresponding subject is equal to or higher than a predetermined value among the plurality of light receiving sensors, or an amount of a high frequency component included in an output. A focus detection apparatus, wherein one or a plurality of light receiving sensors having a predetermined value or more is determined as a light receiving sensor used for the focus detection.
  5. 請求項4に記載の焦点検出装置であって、
    前記焦点検出に用いる受光センサの出力に基づいて、光学系の焦点状態を検出する焦点検出部をさらに備え、
    前記制御部は、複数の受光センサを、前記焦点検出に用いる受光センサとして決定した場合には、前記複数の受光センサの出力を加算または平均化し、
    前記焦点検出部は、前記加算または平均化された複数の受光センサの出力に基づいて、光学系の焦点検出を行うことを特徴とする焦点検出装置。
    The focus detection apparatus according to claim 4,
    A focus detection unit for detecting a focus state of the optical system based on an output of a light receiving sensor used for the focus detection;
    When the control unit determines a plurality of light receiving sensors as light receiving sensors used for the focus detection, the outputs of the plurality of light receiving sensors are added or averaged,
    The focus detection device, wherein the focus detection unit performs focus detection of an optical system based on the outputs of the plurality of light receiving sensors added or averaged.
  6. 請求項1〜5のいずれかに記載の焦点検出装置であって、
    光学系の像面に設定された複数の焦点検出位置の中から、焦点調節に用いる焦点検出位置を選択する選択部をさらに備え、
    前記制御部は、前記選択部により選択された前記焦点検出位置に対応する前記複数の受光センサの中から、前記焦点検出に用いる受光センサを決定することを特徴とする焦点検出装置。
    It is a focus detection apparatus in any one of Claims 1-5,
    A selection unit that selects a focus detection position used for focus adjustment from a plurality of focus detection positions set on the image plane of the optical system;
    The said control part determines the light reception sensor used for the said focus detection from the said several light reception sensors corresponding to the said focus detection position selected by the said selection part, The focus detection apparatus characterized by the above-mentioned.
JP2013245733A 2013-11-28 2013-11-28 Focus detection device Active JP6442824B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013245733A JP6442824B2 (en) 2013-11-28 2013-11-28 Focus detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013245733A JP6442824B2 (en) 2013-11-28 2013-11-28 Focus detection device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018223255A Division JP2019061264A (en) 2018-11-29 2018-11-29 Focus detector, camera, and electronic apparatus

Publications (2)

Publication Number Publication Date
JP2015102840A true JP2015102840A (en) 2015-06-04
JP6442824B2 JP6442824B2 (en) 2018-12-26

Family

ID=53378537

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013245733A Active JP6442824B2 (en) 2013-11-28 2013-11-28 Focus detection device

Country Status (1)

Country Link
JP (1) JP6442824B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111485290B (en) * 2020-05-14 2021-06-11 杭州聚力氢能科技有限公司 Texturing additive for single crystal silicon surface treatment, texturing agent and method for texturing single crystal silicon surface

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62163008A (en) * 1986-01-13 1987-07-18 Minolta Camera Co Ltd Focus detector
JPH0815603A (en) * 1994-06-29 1996-01-19 Nikon Corp Device for detecting focus and method thereof
JP2006154065A (en) * 2004-11-26 2006-06-15 Canon Inc Imaging apparatus and its control method
JP2007192859A (en) * 2006-01-17 2007-08-02 Sony Corp Focusing controller and imaging apparatus
JP2009258307A (en) * 2008-04-15 2009-11-05 Olympus Imaging Corp Lens interchangeable type digital camera system
JP2011242678A (en) * 2010-05-20 2011-12-01 Hoya Corp Automatic focusing device and camera equipped with the same
JP2012108281A (en) * 2010-11-17 2012-06-07 Nikon Corp Focus detector and imaging apparatus
JP2012128343A (en) * 2010-12-17 2012-07-05 Nikon Corp Camera

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62163008A (en) * 1986-01-13 1987-07-18 Minolta Camera Co Ltd Focus detector
JPH0815603A (en) * 1994-06-29 1996-01-19 Nikon Corp Device for detecting focus and method thereof
JP2006154065A (en) * 2004-11-26 2006-06-15 Canon Inc Imaging apparatus and its control method
JP2007192859A (en) * 2006-01-17 2007-08-02 Sony Corp Focusing controller and imaging apparatus
JP2009258307A (en) * 2008-04-15 2009-11-05 Olympus Imaging Corp Lens interchangeable type digital camera system
JP2011242678A (en) * 2010-05-20 2011-12-01 Hoya Corp Automatic focusing device and camera equipped with the same
JP2012108281A (en) * 2010-11-17 2012-06-07 Nikon Corp Focus detector and imaging apparatus
JP2012128343A (en) * 2010-12-17 2012-07-05 Nikon Corp Camera

Also Published As

Publication number Publication date
JP6442824B2 (en) 2018-12-26

Similar Documents

Publication Publication Date Title
JP5361535B2 (en) Imaging device
JP5898481B2 (en) Imaging apparatus and focus detection method
JP2019091090A (en) Detector, imaging element, and imaging device
KR101711804B1 (en) Focus detection apparatus, focus detection method, and image capturing apparatus
WO2013015131A1 (en) Focus adjustment device and image capturing apparatus
JP5831070B2 (en) Imaging device
JP5966267B2 (en) Focus adjustment device and imaging device
JP2013003486A (en) Focus detector and imaging apparatus
JP5845660B2 (en) Focus detection apparatus and imaging apparatus
JP2009251523A (en) Correlation calculation method, correlation calculation device, focus detecting device and imaging apparatus
JP6442824B2 (en) Focus detection device
JP2013015806A (en) Focus detector and imaging apparatus
JP2014074851A (en) Focus detection device and image capturing device
JP2014211589A (en) Focus adjustment device and imaging device
JP2015064523A (en) Camera body and imaging apparatus
JP2017151458A (en) Imaging device
JP2019061264A (en) Focus detector, camera, and electronic apparatus
JP2020166297A (en) Focus detector, camera, and electronic apparatus
JP6047861B2 (en) Focus adjustment device and camera body
JP2019148817A (en) Focusing state detection device and camera
JP6642628B2 (en) Imaging device and imaging device
JP2021051322A (en) Focusing state detection device and camera
JP2015049473A (en) Focus adjustment device and imaging device
JP5923900B2 (en) Focus detection apparatus and imaging apparatus
JP2016102953A (en) Focus detection device and camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170620

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170821

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180313

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180514

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181112

R150 Certificate of patent or registration of utility model

Ref document number: 6442824

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150