JP2019074634A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2019074634A
JP2019074634A JP2017200219A JP2017200219A JP2019074634A JP 2019074634 A JP2019074634 A JP 2019074634A JP 2017200219 A JP2017200219 A JP 2017200219A JP 2017200219 A JP2017200219 A JP 2017200219A JP 2019074634 A JP2019074634 A JP 2019074634A
Authority
JP
Japan
Prior art keywords
focus detection
imaging
focus
detection image
pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017200219A
Other languages
Japanese (ja)
Inventor
門原 輝岳
Terutake Kadohara
輝岳 門原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017200219A priority Critical patent/JP2019074634A/en
Publication of JP2019074634A publication Critical patent/JP2019074634A/en
Pending legal-status Critical Current

Links

Abstract

To obtain higher focus detection accuracy in an imaging apparatus that can detect a focus by use of an imaging sensor and detect a focus by use of a focus detection sensor.SOLUTION: An imaging apparatus has: an imaging sensor 112 which photo-electrically converts a first subject image of a pair obtained by dividing a beam from an imaging optical system to generate a pair of first focus detection image signals and which captures the subject image formed by the beam; a focus detection unit 5110 which is disposed separately from the imaging sensor and which photo-electrically convert a second subject image of the pair obtained by dividing the beam from the imaging optical system to generate a pair of second focus detection image signals; and control means 6122 which controls a focus of the imaging optical system by use of at least one of the first and second focus detection image signals. The control means determines reliability of the second focus detection image signal depending on the results after comparing a plurality of first focus detection image signals acquired from a plurality of regions in the imaging sensor for focus control.SELECTED DRAWING: Figure 6

Description

本発明は、位相差検出方式による焦点検出を行う撮像装置に関する。   The present invention relates to an imaging device that performs focus detection by a phase difference detection method.

位相差検出方式によめ焦点状態の検出(焦点検出)を行う方法には、撮像センサとは別に焦点検出専用に設けられた焦点検出センサを用いる方法と、撮像センサを焦点検出センサとして併用する方法とがある。特許文献1には、焦点検出センサによる焦点検出結果に応じてフォーカスレンズを移動させ、フォーカスレンズの移動終了前から撮像センサから得始めたコントラスト情報を用いてフォーカスレンズを移動させて最終的に合焦状態を得る撮像装置が開示されている。また、特許文献2には、上記2つの焦点検出方法のうち、被写体が暗いとかデフォーカス量が大きい等の「被写体の撮影状況」に応じて使用する焦点検出方法を選択する撮像装置が開示されている。   The phase difference detection method uses the focus detection sensor provided exclusively for focus detection separately from the imaging sensor and the method using the imaging sensor in combination as a focus detection sensor. There is. In Patent Document 1, the focus lens is moved according to the focus detection result by the focus detection sensor, and the focus lens is moved using the contrast information which is obtained from the imaging sensor before the movement of the focus lens is completed. An imaging device for obtaining a focused state is disclosed. Further, Patent Document 2 discloses an imaging apparatus for selecting a focus detection method to be used according to the "photographing condition of a subject" such as a dark subject or a large defocus amount among the above two focus detection methods. ing.

特開2011−013324号公報JP, 2011-013324, A 特許第4349407号公報Patent No. 4349407 gazette

特許文献1にて開示された撮像装置では、2つの焦点検出方法を段階的に切り替えて使用するが、必ずしもこのような焦点検出方法の切り替えが適切であるとは限らない。またも特許文献2にて開示された撮像装置では、「被写体の撮影状況」に応じて使用する焦点検出方法を選択するが、各焦点検出結果を示す実際の信号に基づいて使用する焦点検出方法を選択する方がより高い焦点検出精度が得られる場合がある。   In the imaging apparatus disclosed in Patent Document 1, two focus detection methods are switched in stages and used, but such switching of the focus detection methods is not necessarily appropriate. Also, in the imaging device disclosed in Patent Document 2, the focus detection method to be used is selected according to the "shooting condition of the subject", but the focus detection method to be used based on the actual signals indicating the respective focus detection results There are cases where higher focus detection accuracy can be obtained by selecting.

本発明は、撮像センサを用いた焦点検出と焦点検出センサを用いた焦点検出とを行え、より高い焦点検出精度が得られるようにした撮像装置を提供する。   The present invention provides an imaging apparatus capable of performing focus detection using an imaging sensor and focus detection using a focus detection sensor and obtaining higher focus detection accuracy.

本発明の一側面としての撮像装置は、撮像光学系からの光束を分割して得られる対の第1の被写体像を光電変換して対の第1の焦点検出像信号を生成するとともに、該光束により形成される被写体像を撮像する撮像センサと、撮像センサとは別に設けられ、撮像光学系からの光束を分割して得られる対の第2の被写体像を光電変換して対の第2の焦点検出像信号を生成する焦点検出ユニットと、第1および第2の焦点検出像信号のうち少なくとも一方を用いて撮像光学系のフォーカス制御を行う制御手段とを有する。制御手段は、撮像センサにおける複数の領域から取得した複数の第1の焦点検出像信号を比較した結果に応じて第2の焦点検出像信号の信頼性を判定し、該判定結果に基づいてフォーカス制御を行うことを特徴する。   An imaging apparatus according to an aspect of the present invention photoelectrically converts a first subject image of a pair obtained by dividing a light beam from an imaging optical system to generate a first focus detection image signal of the pair, and An imaging sensor for imaging an object image formed by a light flux and an imaging sensor are provided separately, and photoelectric conversion is performed on a second object image of the pair obtained by dividing the light flux from the imaging optical system And a control unit that performs focus control of the imaging optical system using at least one of the first and second focus detection image signals. The control means determines the reliability of the second focus detection image signal according to the result of comparing the plurality of first focus detection image signals acquired from the plurality of areas in the imaging sensor, and focusing based on the determination result. It is characterized by performing control.

また、本発明の他の一側面としての制御方法は、撮像光学系からの光束を分割して得られる対の第1の被写体像を光電変換して対の第1の焦点検出像信号を生成するとともに、該光束により形成される被写体像を撮像する撮像センサと、撮像センサとは別に設けられ、撮像光学系からの光束を分割して得られる対の第2の被写体像を光電変換して対の第2の焦点検出像信号を生成する焦点検出ユニットとを有する撮像装置に、第1および第2の焦点検出像信号のうち少なくとも一方を用いて撮像光学系のフォーカス制御を行わせる。該制御方法は、撮像センサにおける複数の領域から複数の第1の焦点検出像信号を取得するステップと、複数の第1の焦点検出像信号を比較した結果に応じて第2の焦点検出像信号の信頼性を判定し、該判定結果に基づいてフォーカス制御を行うステップとを有することを特徴とする。   The control method according to another aspect of the present invention photoelectrically converts a pair of first object images obtained by dividing a light beam from the imaging optical system to generate a pair of first focus detection image signals. And an imaging sensor for imaging an object image formed by the light flux and an imaging sensor separately provided, and photoelectrically converting a pair of second object images obtained by dividing the light flux from the imaging optical system. An imaging apparatus having a focus detection unit that generates a pair of second focus detection image signals performs focus control of the imaging optical system using at least one of the first and second focus detection image signals. The control method comprises the steps of: acquiring a plurality of first focus detection image signals from a plurality of regions in an imaging sensor; and a second focus detection image signal according to a result of comparing the plurality of first focus detection image signals And a step of performing focus control based on the determination result.

なお、上記制御方法に従うフォーカス制御を撮像装置のコンピュータに実行させるコンピュータプログラムであるフォーカス制御プログラムも、本発明の他の一側面を構成する。   A focus control program, which is a computer program that causes a computer of an imaging apparatus to execute focus control according to the above control method, also constitutes another aspect of the present invention.

本発明によれば、撮像センサを用いた焦点検出と焦点検出ユニット(焦点検出センサ)を用いた焦点検出とを行える撮像装置において、より高い精度で焦点検出およびフォーカス制御を行うことができる。   According to the present invention, in an imaging apparatus capable of focus detection using an imaging sensor and focus detection using a focus detection unit (focus detection sensor), focus detection and focus control can be performed with higher accuracy.

本発明の実施例1であるカメラにおいて行われるAF処理を示すフローチャート。3 is a flowchart showing an AF process performed in the camera which is Embodiment 1 of the present invention. 実施例1における撮像センサの全体および1画素の構成を示す図。FIG. 2 is a diagram showing the entire configuration of an imaging sensor and the configuration of one pixel in Embodiment 1. 実施例1における撮像センサの画素部の構成を示す図。FIG. 2 is a diagram showing a configuration of a pixel unit of the imaging sensor in Embodiment 1. 実施例1における位相差検出方式焦点検出を説明する図。FIG. 6 is a diagram for explaining phase difference detection focus detection in the first embodiment. 実施例1における光学ファインダを有するカメラの構成を示す断面図。FIG. 2 is a cross-sectional view showing a configuration of a camera having an optical finder in Embodiment 1. 上記カメラの構成を示すブロック図。The block diagram which shows the structure of the said camera. 実施例1における焦点検出ユニットの構成を示す図。FIG. 2 shows a configuration of a focus detection unit in Embodiment 1. 実施例1における焦点検出の誤差要因を説明する図。FIG. 6 is a diagram for explaining an error factor of focus detection in the first embodiment. 実施例1における焦点検出タイミングを示す図。FIG. 6 is a diagram showing focus detection timing in the first embodiment. 実施例1における焦点検出画素とラインセンサ画素の大きさを比較する図。FIG. 6 is a diagram comparing the sizes of focus detection pixels and line sensor pixels in the first embodiment. 実施例1における誤差要因の発生について説明する図。FIG. 6 is a diagram for explaining the occurrence of an error factor in the first embodiment. 本発明の実施例2におけるEVFファインダを備えたカメラの断面図。Sectional drawing of the camera provided with the EVF finder in Example 2 of this invention. 実施例2のカメラの構成を示すブロック図。FIG. 7 is a block diagram showing the configuration of a camera of Example 2;

以下、本発明の実施例について図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図2(A)は、本発明の実施例である撮像装置に設けられた撮像センサ112の全体の構成を示している。撮像センサ112は、CCDセンサやCMOSセンサ等の撮像素子により構成されている。撮像センサ112は、複数の画素が2次元アレイ状に配置された画素部201と、該画素部201における画素行を選択する垂直選択回路202と、画素部201における画素列を選択する水平選択回路204とを含む。垂直選択回路202は、画素部201内の画素行を順に選択する。   FIG. 2A shows the entire configuration of an imaging sensor 112 provided in an imaging apparatus according to an embodiment of the present invention. The imaging sensor 112 is configured by an imaging element such as a CCD sensor or a CMOS sensor. The imaging sensor 112 includes a pixel unit 201 in which a plurality of pixels are arranged in a two-dimensional array, a vertical selection circuit 202 which selects a pixel row in the pixel unit 201, and a horizontal selection circuit which selects a pixel column in the pixel unit 201. And 204. The vertical selection circuit 202 sequentially selects pixel rows in the pixel unit 201.

また、撮像センサ112は、垂直選択回路202によって選択された画素列の画素から信号(画素信号)を読み出す読出し回路203を有する。読出し回路203は、画素信号を蓄積するメモリと、ゲインアンプと、AD変換器等を画素列ごとに有する。水平選択回路204は、読出し回路203によって読み出された画素信号を画素列ごとに順に選択する。さらに撮像センサ112は、上記各回路の動作モード等を外部から指定するためのシリアルインターフェイス205も含む。   Further, the imaging sensor 112 has a readout circuit 203 that reads out a signal (pixel signal) from the pixel of the pixel column selected by the vertical selection circuit 202. The readout circuit 203 has a memory for accumulating pixel signals, a gain amplifier, an AD converter, and the like for each pixel column. The horizontal selection circuit 204 sequentially selects the pixel signals read by the reading circuit 203 for each pixel column. Furthermore, the imaging sensor 112 also includes a serial interface 205 for specifying the operation mode and the like of each circuit from the outside.

撮像センサ112は、図示された構成要素以外にも、垂直選択回路202、水平選択回路204および読出し回路203等にタイミング信号を供給するタイミングジェネレータやこれらの回路を制御する制御回路を有する。   The imaging sensor 112 includes, in addition to the illustrated components, a timing generator that supplies timing signals to the vertical selection circuit 202, the horizontal selection circuit 204, the readout circuit 203 and the like, and a control circuit that controls these circuits.

図2(B)は、撮像センサ112の1つの画素206の構成を示す。画素206は、入射した光束を分割する1つのマイクロレンズ207と、分割された光束のそれぞれを受光する2つのフォトダイオード(以下、PDと記す)208,209とを有する。2つ(一対)のPD208,209は、画素206を位相差検出方式での焦点検出を行うための焦点検出画素として機能させるために設けられている。撮像センサ112を用いた位相差検出方式での焦点検出を撮像面焦点検出といい、その結果に基づくフォーカスレンズの駆動(すなわちフォーカス制御としてのAF)を、撮像面位相差AFという。   FIG. 2B shows the configuration of one pixel 206 of the imaging sensor 112. The pixel 206 has one micro lens 207 for dividing the incident light flux, and two photodiodes (hereinafter referred to as PD) 208 and 209 for receiving each of the divided light flux. Two (a pair of) PDs 208 and 209 are provided to cause the pixel 206 to function as a focus detection pixel for performing focus detection in the phase difference detection method. Focus detection in a phase difference detection method using the imaging sensor 112 is referred to as imaging surface focus detection, and drive of a focus lens based on the result (that is, AF as focus control) is referred to as imaging surface phase difference AF.

画素206は、さらに各PDからの信号(以下、PD信号という)を読出し回路203に出力する画素増幅アンプ、PD信号を読み出すPD列を選択する選択スイッチおよびPD信号をリセットするリセットスイッチ等を備えている。また、画素206を撮像用画素として機能させる場合は、2つのPD208,209からの信号を加算して撮像信号を出力する。   The pixel 206 further includes a pixel amplification amplifier for outputting a signal from each PD (hereinafter referred to as a PD signal) to the readout circuit 203, a selection switch for selecting a PD column from which the PD signal is read, and a reset switch for resetting the PD signal. ing. When the pixel 206 is made to function as an imaging pixel, the signals from the two PDs 208 and 209 are added and an imaging signal is output.

図3は、画素部201の構成を示す。画素部201において、301,302,303,304がそれぞれ図2(B)に示した1つの画素206に相当する。また、301L,302L,303L,304Lが図2(B)で示したPD208に相当し、301R,302R,303R,304Rが同図に示したPD209に相当する。   FIG. 3 shows the configuration of the pixel unit 201. In the pixel portion 201, reference numerals 301, 302, 303, and 304 correspond to one pixel 206 shown in FIG. 2B, respectively. Further, 301L, 302L, 303L, and 304L correspond to the PD 208 shown in FIG. 2B, and 301R, 302R, 303R, and 304R correspond to the PD 209 shown in the same figure.

図4は、撮影光学系(図示せず)の射出瞳406を通過した光束が上記のように構成された画素部201を有する撮像センサ112に入射する様子を示している。401は撮像センサ112を示し、402は図2(B)に示したマイクロレンズ207を示す。また、403はR,GまたはBの光を透過させるカラーフィルタであり、404,405は図2(B)に示したPD208,209を示す。   FIG. 4 shows how a light beam that has passed through the exit pupil 406 of the imaging optical system (not shown) is incident on the imaging sensor 112 having the pixel section 201 configured as described above. Reference numeral 401 denotes the imaging sensor 112, and reference numeral 402 denotes the microlens 207 shown in FIG. 2B. Reference numeral 403 denotes a color filter for transmitting R, G or B light, and reference numerals 404 and 405 denote PDs 208 and 209 shown in FIG. 2B.

マイクロレンズ402を有する画素に対して、射出瞳406を通過した光束の中心を光軸409という。射出瞳406からの光束は、光軸409を中心として撮像センサ112に入射する。407,408は射出瞳406における互いに異なる部分領域(以下、部分瞳領域という)を示す。部分瞳領域407を通過する光束の最外周の光線を410,411で示す。また、部分瞳領域408を通過する光束の最外周の光線を412,413で示す。図4から分かるように、射出瞳406からの光束のうち、光軸409を挟んで上側の光束はPD405に入射し、下側の光束はPD404に入射する。つまり、PD404とPD405はそれぞれ、撮像光学系の射出瞳406における別々の領域からの光束を受光する。   The center of the light flux that has passed through the exit pupil 406 with respect to the pixel having the microlens 402 is referred to as an optical axis 409. The light flux from the exit pupil 406 is incident on the imaging sensor 112 about the optical axis 409. Reference numerals 407 and 408 denote different partial regions in the exit pupil 406 (hereinafter referred to as partial pupil regions). The outermost rays of the light beam passing through the partial pupil area 407 are indicated by 410 and 411. Also, the outermost rays of the light flux passing through the partial pupil area 408 are indicated by 412 and 413. As can be seen from FIG. 4, among the light fluxes from the exit pupil 406, the light fluxes on the upper side sandwiching the optical axis 409 enter the PD 405, and the lower light fluxes enter the PD 404. That is, each of the PD 404 and the PD 405 receives the light flux from the different area in the exit pupil 406 of the imaging optical system.

図2(B)および図4では1つのマイクロレンズに対して2つのPD404,405が設けられているが、ある画素にPD404,405のうち一方のPDのみが設けられ、その隣の画素に他方のPDのみが設けられていてもよい。すなわち、互いに異なる部分瞳領域407,408からの光束をそれぞれ受光する対のPDが設けられていればよい。   Although two PDs 404 and 405 are provided for one microlens in FIG. 2B and FIG. 4, only one PD of the PDs 404 and 405 is provided for one pixel, and the other pixel is provided for the other. Only PD of may be provided. That is, a pair of PDs may be provided to respectively receive the light beams from different partial pupil regions 407 and 408.

撮像センサ112には、部分瞳領域407からの光束を受光するPDのライン(以下、Aラインという)と、部分瞳領域408からの光束を受光するPDのライン(以下、Bラインという)とが水平および垂直方向に並んでいる。図3において、画素ライン305のうち、PD301L、302L、303L、304Lが水平方向に延びるAラインを形成し、301R、302R、303R、304Rが水平方向に延びるBラインを形成する。ただし、実際には前述したように画素ごとにR、GまたはBのカラーフィルタが配置されているので、AラインおよびBラインはそれぞれ同色のカラーフィルタが配置された画素(例えば、Gカラーフィルタが配置されたG画素)のPDにより形成することが好ましい。   In the imaging sensor 112, a line of PD (hereinafter referred to as A line) for receiving the light flux from the partial pupil area 407 and a line of PD (hereinafter referred to as B line) for receiving the light flux from the partial pupil area 408 Horizontally and vertically aligned. In FIG. 3, among the pixel lines 305, PDs 301L, 302L, 303L, and 304L form an A line extending in the horizontal direction, and 301R, 302R, 303R, and 304R form a B line extending in the horizontal direction. However, in practice, as described above, R, G or B color filters are arranged for each pixel, so the A line and B line are pixels where color filters of the same color are respectively arranged (for example, G color filters It is preferable to form by PD of arrange | positioned G pixel.

AラインおよびBライン上に形成された対の被写体像(光学像:第1の被写体像)としての2像はAラインおよびBラインのPDによって光電変換される。AラインおよびBラインからのPD信号によって対の第1の焦点検出像信号としての2像信号が形成される。この2像信号の間隔であるずれ量(位相差)は、撮像光学系の被写体に対する焦点状態(合焦状態、前ピン状態および後ピン状態)、つまりはデフォーカス量によって異なる。このため、2像信号のずれ量を算出することで、デフォーカス量を算出することができる。そして、合焦状態を得るためのフォーカスレンズの移動量(フォーカス駆動量)は、デフォーカス量と該フォーカスレンズの単位移動量に対するデフォーカス量の変化量(フォーカス敏感度)とを用いて算出することができる。   Two images as a pair of subject images (optical image: first subject image) formed on the A and B lines are photoelectrically converted by the PDs of the A and B lines. The PD signals from the A and B lines form two image signals as a pair of first focus detection image signals. The shift amount (phase difference) which is the interval between the two image signals differs depending on the focus state (focus state, front pin state and back pin state) of the imaging optical system with respect to the object, that is, the defocus amount. Therefore, the defocus amount can be calculated by calculating the displacement amount of the two image signals. Then, the amount of movement of the focus lens (focus drive amount) for obtaining the in-focus state is calculated using the amount of defocus and the amount of change in the amount of defocus with respect to the unit movement amount of the focus lens (focus sensitivity). be able to.

図5は、撮像センサ112を有する撮像装置であるレンズ交換式一眼レフカメラ(以下、カメラ本体という)5100と、該カメラ本体5100に取り外し可能に装着された交換レンズ5200の光学的構成(一部に電気的構成を含む)を示す。交換レンズ5200内には、フォーカスレンズ5201を含む撮像光学系が設けられている。   FIG. 5 shows an optical configuration (a part of a lens interchangeable single-lens reflex camera (hereinafter referred to as a camera body) 5100 which is an imaging device having an imaging sensor 112 and an interchangeable lens 5200 detachably mounted on the camera body 5100. Shows the electrical configuration). In the interchangeable lens 5200, an imaging optical system including a focusing lens 5201 is provided.

カメラ本体5100において、5101は主ミラーであり、ファインダ観察状態においては図示のように撮像光路内に配置され、撮像状態では撮像光路外に退避する。主ミラー5101はハーフミラーであり、撮像光路内に配置されているときは交換レンズ(撮像光学系)5200からの光束、すなわち被写体からの光束の一部を後述する光学ファインダに向けて反射し、残りを透過する。5109はサブミラーであり、主ミラー5101を透過した光束を撮像センサ112とは別に設けられた焦点検出ユニット5110に向けて反射する。   In the camera body 5100, a main mirror 5101 is disposed in the imaging light path as shown in the figure in the finder observation state, and is retracted out of the imaging light path in the imaging state. The main mirror 5101 is a half mirror and reflects the light flux from the interchangeable lens (imaging optical system) 5200, that is, a part of the light flux from the subject toward the optical finder described later, when disposed in the imaging light path. Permeate the rest. Reference numeral 5109 denotes a sub mirror, which reflects the light flux transmitted through the main mirror 5101 toward a focus detection unit 5110 provided separately from the imaging sensor 112.

5102は光学ファインダの一部を構成し、撮像光学系の予定結像面に配置されたピント板である。5103はファインダ光路を折り曲げるペンタプリズムである。5104は接眼レンズであり、ユーザは接眼レンズ5104およびペンタプリズム5103を通してピント板5102を観察することで被写体像を視認することができる。   Reference numeral 5102 denotes a focusing plate which constitutes a part of the optical finder and is disposed on a predetermined imaging surface of the imaging optical system. Reference numeral 5103 denotes a pentaprism for bending the finder optical path. An eyepiece lens 5104 allows the user to visually recognize the subject image by observing the focusing plate 5102 through the eyepiece lens 5104 and the pentaprism 5103.

5105は結像レンズであり、5106は被写体輝度を測定するための測光センサである。結像レンズ5105は、ペンタプリズム5103を通過したピント板5102からの光束の一部を測光センサ5106上に結像させる。これにより、測光センサ5106はピント板5102上の被写体像の輝度を被写体輝度として測定することができる。   Reference numeral 5105 denotes an imaging lens, and reference numeral 5106 denotes a photometric sensor for measuring subject brightness. The imaging lens 5105 focuses a part of the light flux from the focusing plate 5102 that has passed through the pentaprism 5103 on the photometric sensor 5106. Thus, the photometric sensor 5106 can measure the brightness of the subject image on the focusing plate 5102 as the subject brightness.

5107はフォーカルプレーンシャッタであり、撮像センサ5108の露光を制御する。撮像センサ5108も、撮像光学系の予定結像面に配置される。   A focal plane shutter 5107 controls the exposure of the image sensor 5108. The imaging sensor 5108 is also disposed on the planned imaging surface of the imaging optical system.

焦点検出ユニット5110は、複数のPDを含む焦点検出専用のセンサ(焦点検出センサ)と、サブミラー5109から入射した光束を2つに分割して焦点検出センサ上にこれら2つの分割光束による2像を形成させる二次結像レンズとを有する。焦点検出ユニット5110は、2像をPDにより光電変換して得られる2像信号を後述するカメラマイクロコンピュータに送る。   The focus detection unit 5110 splits the light beam incident from the sub mirror 5109 into two by using a dedicated sensor for focus detection (a focus detection sensor) including a plurality of PDs, and two images of these two divided beams on the focus detection sensor. And a secondary imaging lens to be formed. The focus detection unit 5110 sends two image signals obtained by photoelectrically converting the two images by the PD to a camera microcomputer to be described later.

一方、交換レンズ5200には、上述したフォーカスレンズ5201と、変倍レンズ5202と、固定レンズ5203と、絞り5204とを含む撮像光学系を備えている。フォーカスレンズ5201および変倍レンズ5202はそれぞれ、撮像光学系の光軸方向に移動して焦点調節および変倍を行う。絞り504は、その絞り開口径を増減させることでカメラ本体5100内に入射する光量を調節する。   On the other hand, the interchangeable lens 5200 is provided with an imaging optical system including the above-described focus lens 5201, variable magnification lens 5202, fixed lens 5203, and stop 5204. The focus lens 5201 and the variable magnification lens 5202 move in the optical axis direction of the imaging optical system to perform focus adjustment and variable magnification. The diaphragm 504 adjusts the amount of light incident into the camera body 5100 by increasing or decreasing the diameter of the diaphragm opening.

5205はフォーカスレンズ5201を光軸方向に駆動するAF駆動回路であり、DCモータやステッピングモータ等のフォーカスアクチュエータを含む。5206は変倍レンズ5202を光軸方向に駆動するズーム駆動回路であり、DCモータやステッピングモータ等のズームアクチュエータを含む。5207は絞り駆動回路であり、DCモータやステッピングモータ等の絞りアクチュエータを含む。5208はカメラ本体5100と交換レンズ5200との間で通信を可能とするための通信インターフェイスとしてのマウント接点群である。   An AF driving circuit 5205 drives the focus lens 5201 in the optical axis direction, and includes a focus actuator such as a DC motor or a stepping motor. A zoom driving circuit 5206 drives the variable magnification lens 5202 in the optical axis direction, and includes a zoom actuator such as a DC motor or a stepping motor. An aperture driving circuit 5207 includes an aperture actuator such as a DC motor or a stepping motor. Reference numeral 5208 denotes a mount contact group as a communication interface for enabling communication between the camera body 5100 and the interchangeable lens 5200.

図6は、上記カメラ本体5100および交換レンズ5200の電気的構成(一部に光学的構成を含む)を示す。図5に示した構成要素には、図5と同符号を付している。AF駆動回路5205、ズーム駆動回路5206および絞り駆動回路5207は、カメラマイクロコンピュータ6122により交換レンズ5200との通信を介して制御される。また、シャッタ駆動回路6111は、カメラマイクロコンピュータ6122により制御されてフォーカルプレーンシャッタ5107を駆動する。   FIG. 6 shows an electrical configuration (including an optical configuration in part) of the camera body 5100 and the interchangeable lens 5200. The components shown in FIG. 5 are assigned the same reference numerals as those in FIG. The AF drive circuit 5205, the zoom drive circuit 5206, and the diaphragm drive circuit 5207 are controlled by the camera microcomputer 6122 via communication with the interchangeable lens 5200. The shutter drive circuit 6111 is controlled by the camera microcomputer 6122 to drive the focal plane shutter 5107.

カメラマイクロコンピュータ6122は、撮像センサ112および焦点検出ユニット5110から入力された2像信号のずれ量を算出し、該ずれ量からデフォーカス量を算出する。さらに、該デフォーカス量と上述したフォーカス敏感度とを用いてフォーカス駆動量を算出し、該フォーカス駆動量の情報を交換レンズ5200に送信する。これにより、AF駆動回路5205は、受信したフォーカス駆動量に応じてフォーカスレンズ5201を駆動する。焦点検出ユニット5110を用いた位相差検出方式での焦点検出を非撮像面焦点検出といい、その結果に基づくフォーカスレンズ5201の駆動(AF)を、非撮像面位相差AFという。   The camera microcomputer 6122 calculates the amount of deviation of the two image signals input from the imaging sensor 112 and the focus detection unit 5110, and calculates the amount of defocus from the amount of deviation. Further, the focus drive amount is calculated using the defocus amount and the above-mentioned focus sensitivity, and the information of the focus drive amount is transmitted to the interchangeable lens 5200. Thus, the AF drive circuit 5205 drives the focus lens 5201 according to the received focus drive amount. Focus detection in the phase difference detection method using the focus detection unit 5110 is referred to as non-imaging surface focus detection, and driving (AF) of the focus lens 5201 based on the result is referred to as non-imaging surface phase difference AF.

6112はクランプ回路であり、6113はAGC回路である。クランプ回路6112およびAGC回路6113は、A/D変換前の基本的なアナログ信号処理を行う。カメラマイクロコンピュータ6122は、映像信号処理回路6115を通して、クランプ回路6112およびAGC回路6113に対するクランプレベルおよびAGC基準レベルを設定する。   6112 is a clamp circuit and 6113 is an AGC circuit. The clamp circuit 6112 and the AGC circuit 6113 perform basic analog signal processing before A / D conversion. The camera microcomputer 6122 sets the clamp level and the AGC reference level for the clamp circuit 6112 and the AGC circuit 6113 through the video signal processing circuit 6115.

6114はA/D変換器であり、撮像センサ5108から出力されたアナログ撮像信号をデジタル撮像信号に変換する。6115は映像信号処理回路であり、ゲートアレイ等のロジックデバイスにより構成される。6116はTFT駆動回路であり、6117はカメラ本体5100の背面に設けられたTFT(液晶)モニタである。6118はメモリコントローラであり、6119はメモリである。6120は外部のコンピュータ等と接続可能なインターフェイスであり、6121はバッファメモリである。   An A / D converter 6114 converts an analog imaging signal output from the imaging sensor 5108 into a digital imaging signal. A video signal processing circuit 6115 is formed of a logic device such as a gate array. Reference numeral 6116 denotes a TFT drive circuit, and 6117 denotes a TFT (liquid crystal) monitor provided on the back of the camera body 5100. 6118 is a memory controller and 6119 is a memory. An interface 6120 is connectable to an external computer or the like, and 6121 is a buffer memory.

映像信号処理回路6115は、A/D変換器6114からのデジタル撮像信号に対して、フィルタ処理、色変換処理およびガンマ処理を行って画像データを生成する。また、画像データに対してJPEG等の圧縮処理を行って圧縮画像データをメモリコントローラ6118に出力する。映像信号処理回路6115は、生成した画像データやメモリコントローラ6118から入力された画像データを、TFT駆動回路6116を通してTFTモニタ6117に出力することができる。さらに映像信号処理回路6115は、必要に応じて撮像センサ5108の露出やホワイトバランス等の情報をカメラマイクロコンピュータ6122に出力する。カメラマイクロコンピュータ6122は、それらの情報に基づいてゲインやホワイトバランスを制御する。   The video signal processing circuit 6115 performs filter processing, color conversion processing, and gamma processing on the digital imaging signal from the A / D converter 6114 to generate image data. Further, compression processing such as JPEG is performed on image data, and compressed image data is output to the memory controller 6118. The video signal processing circuit 6115 can output the generated image data and the image data input from the memory controller 6118 to the TFT monitor 6117 through the TFT drive circuit 6116. Further, the video signal processing circuit 6115 outputs information such as the exposure of the image sensor 5108 and the white balance to the camera microcomputer 6122 as necessary. The camera microcomputer 6122 controls gain and white balance based on the information.

メモリコントローラ6118は、映像信号処理回路6115から入力された未処理の画像データをバッファメモリ6121に格納し、処理済みの画像データをメモリ6119に格納する。また、メモリコントローラ6118は、バッファメモリ6121やメモリ6119から画像データを映像信号処理回路部6115に出力させる。メモリ6119は、取り外し可能としてもよい。さらにメモリコントローラ6118は、インターフェイス6120を介してメモリ6119に記憶されている画像データを外部モニタ等に出力することも可能である。   The memory controller 6118 stores the unprocessed image data input from the video signal processing circuit 6115 in the buffer memory 6121 and stores the processed image data in the memory 6119. Further, the memory controller 6118 causes the video signal processing circuit unit 6115 to output image data from the buffer memory 6121 or the memory 6119. The memory 6119 may be removable. Furthermore, the memory controller 6118 can also output the image data stored in the memory 6119 via the interface 6120 to an external monitor or the like.

6123は操作部材であり、ユーザの操作に応じた操作信号をカメラマイクロコンピュータ6122に伝える。カメラマイクロコンピュータ6122は、操作信号に応じてカメラ本体5100の動作を制御する。6124はスイッチ1(以下、SW1と記す)であり、6125はスイッチ2(以下、SW2と記す)である。SW1は操作部材の1であるレリーズボタンの半押し操作でオンとなり、これに応じてカメラマイクロコンピュータ6122はAF動作や測光動作を行う。SW2はレリーズボタンの全押し操作によりオンとなり、これに応じてカメラマイクロコンピュータ6122は撮像動作を行う。操作部材6123には、ISO設定ボタン、画像サイズ設定ボタン、画質設定ボタン、情報表示ボタン等の各種操作ボタン、スイッチおよびダイヤル等が含まれている。   An operation member 6123 transmits an operation signal corresponding to the user's operation to the camera microcomputer 6122. The camera microcomputer 6122 controls the operation of the camera body 5100 according to the operation signal. 6124 is a switch 1 (hereinafter referred to as SW1), and 6125 is a switch 2 (hereinafter referred to as SW2). The switch SW1 is turned on by a half-press operation of the release button which is 1 of the operation member, and in response to this, the camera microcomputer 6122 performs an AF operation and a photometric operation. The switch SW2 is turned on by the full-pressing operation of the release button, and in response to this, the camera microcomputer 6122 performs an imaging operation. The operation member 6123 includes an ISO setting button, an image size setting button, an image quality setting button, various operation buttons such as an information display button, a switch, a dial, and the like.

6126は液晶駆動回路であり、6127は外部液晶表示素子である。6128はファインダ内液晶表示素子である。液晶駆動回路6126は、カメラマイクロコンピュータ6122の表示制御により、外部液晶表示素子6127やファインダ内液晶表示素子6128を撮像画像や各種情報を表示させるように駆動する。   6126 is a liquid crystal drive circuit, and 6127 is an external liquid crystal display element. Reference numeral 6128 denotes a liquid crystal display element in the finder. The liquid crystal drive circuit 6126 drives the external liquid crystal display element 6127 and the in-finder liquid crystal display element 6128 to display a captured image and various information under display control of the camera microcomputer 6122.

6129は不揮発性メモリ(EEPROM)であり、各種データを保存する。6130は電源部であり、各回路や駆動系に必要な電源を供給する。   A non-volatile memory (EEPROM) 6129 stores various data. A power supply unit 6130 supplies necessary power to each circuit and drive system.

次に、図7(A),(B)を用いて、焦点検出ユニット5110の構成について説明する。図7(A)は焦点検出ユニット5110を分解して示しており、図7(B)は焦点検出ユニット5110の光学構成を示している。図7(A),(B)の左端には、撮像センサ112と共役な一次結像面、すなわち撮像光学系の予定結像面が存在する。焦点検出ユニット5110は、一次結像面側から順に配置された視野マスク7001、フィールドレンズ7002、多孔絞り7003、二次結像レンズユニット7004および焦点検出センサ7005により構成されている。   Next, the configuration of the focus detection unit 5110 will be described using FIGS. 7 (A) and 7 (B). FIG. 7A shows the focus detection unit 5110 in an exploded manner, and FIG. 7B shows the optical configuration of the focus detection unit 5110. At the left end of FIGS. 7A and 7B, there is a primary imaging plane conjugate with the imaging sensor 112, that is, a planned imaging plane of the imaging optical system. The focus detection unit 5110 includes a field mask 7001, a field lens 7002, a porous stop 7003, a secondary imaging lens unit 7004, and a focus detection sensor 7005 disposed in order from the primary imaging surface side.

視野マスク7001は、中央に開口7001Aが設けられた薄板状の部品である。開口7001Aの形状が焦点検出センサ7005に結像する像視野を定める。フィールドレンズ7002は凸レンズであり、視野マスク7001の近傍に設けられる。フィールドレンズ7002は、多孔絞り7003の像を撮像光学系の射出瞳近傍に結像させる。射出瞳の大きさは、通常F5.6の領域で、より高い精度を求める明るい(焦点深度の浅い)レンズに対応する場合はF2.8の領域として基線長を長くする。   The field mask 7001 is a thin plate-like component having an opening 7001A at the center. The shape of the aperture 7001A defines an image field to be imaged on the focus detection sensor 7005. The field lens 7002 is a convex lens and is provided in the vicinity of the field mask 7001. A field lens 7002 forms an image of the porous stop 7003 in the vicinity of the exit pupil of the imaging optical system. When the size of the exit pupil corresponds to a bright (shallow focal depth) lens for higher accuracy in the area of F5.6, the base length is increased as the area of F2.8.

多孔絞り7003は、2か所に開口7003A,7003Bが設けられた薄板状の部品である。開口7003A,7003Bはフィールドレンズ7002から入射する光束を水平方向に分割する。二次結像レンズユニット7004は、焦点検出センサ7005と対向する面に2つ(一対)の凸レンズである二次結像レンズ7004A,7004Bを有する。二次結像レンズ7004A,7004Bは、撮像光学系によって結像された一次結像面上の被写体像を、焦点検出センサ7005上に再結像させる。具体的には、多孔絞り7003の開口7003Aを通過した光束は、二次結像レンズ7004Aによって焦点検出センサ7005上に結像される。多孔絞り7003の開口7003Bを通過した光束は、二次結像レンズ7004Bによって焦点検出センサ7005上に結像される。これにより、焦点検出センサ7005上に2像(第2の被写体像)が形成される。   The porous diaphragm 7003 is a thin plate-like component having openings 7003A and 7003B at two locations. The openings 7003A and 7003B divide the light beam incident from the field lens 7002 in the horizontal direction. The secondary imaging lens unit 7004 has secondary imaging lenses 7004A and 7004B that are two (a pair of) convex lenses on the surface facing the focus detection sensor 7005. The secondary imaging lenses 7004A and 7004B re-image the object image on the primary imaging surface formed by the imaging optical system on the focus detection sensor 7005. Specifically, the light flux that has passed through the aperture 7003A of the multi-aperture stop 7003 is imaged on the focus detection sensor 7005 by the secondary imaging lens 7004A. The luminous flux having passed through the aperture 7003 B of the multi-aperture stop 7003 is imaged on the focus detection sensor 7005 by the secondary imaging lens 7004 B. As a result, two images (second object images) are formed on the focus detection sensor 7005.

焦点検出センサ7005は、その受光面上の2像を光電変換して電気信号としての2像信号を出力する。焦点検出センサ7005には、複数の画素(PD)が2つ(一対)のラインセンサ7005A,7005Bを形成するように配置されている。本実施例では、ラインセンサ7005A,7005Bは、被写体像が結像する範囲の中心部分(図7(B)中のOAは撮像光学系の光軸である)において焦点検出を行うように配設されている。一対のラインセンサ7005A,7005Bのそれぞれで2像を光電変換することで対の第2の焦点検出像信号としての2像信号が生成される。   The focus detection sensor 7005 photoelectrically converts the two images on the light receiving surface and outputs a two image signal as an electric signal. In the focus detection sensor 7005, a plurality of pixels (PDs) are arranged to form two (pair) line sensors 7005A and 7005B. In this embodiment, the line sensors 7005A and 7005B are disposed so as to perform focus detection in the central portion of the range where the object image is formed (OA in FIG. 7B is the optical axis of the imaging optical system). It is done. By photoelectrically converting the two images by each of the pair of line sensors 7005A and 7005B, two image signals as a pair of second focus detection image signals are generated.

ここで、図7(A),(B)に示した焦点検出ユニット5110において発生する焦点検出誤差の要因について、図8(A)〜(D)を用いて説明する。図8(A)は、黒地に斜めの白線を有する被写体8000に対して、焦点検出センサ7005の一対のラインセンサ7005A,7005Bの視野8001A,8001Bが理想的に逆投影された状態を示している。この理想状態では、一対のラインセンサ7005A,7005Bの視野8001A,8001Bは重なり合っている。つまり、一対のラインセンサ7005A,7005B上には、2像として全く同じ被写体像が結像する。したがって、図8(B)に示すように、一対のラインセンサ7005A,7005Bの出力8002A,8002Bは互いに同じ位置に同じ形状の波形を有し、これにより、正しい2像信号のずれ量の検出が可能となる。   Here, the factors of the focus detection error generated in the focus detection unit 5110 shown in FIGS. 7A and 7B will be described using FIGS. 8A to 8D. FIG. 8A shows a state in which the fields 8001A and 8001B of the pair of line sensors 7005A and 7005B of the focus detection sensor 7005 are ideally back-projected with respect to the subject 8000 having an oblique white line on a black background. . In this ideal state, the fields of view 8001A and 8001B of the pair of line sensors 7005A and 7005B overlap each other. That is, completely the same subject image is formed as two images on the pair of line sensors 7005A and 7005B. Therefore, as shown in FIG. 8B, the outputs 8002A and 8002B of the pair of line sensors 7005A and 7005B have waveforms of the same shape at the same position as each other, which makes it possible to detect the amount of deviation between the two image signals correctly. It becomes possible.

一方、図8(C)は、黒地に斜めの白線を有する被写体8000に対して、一対のラインセンサ7005A,7005Bの視野8001A,8001Bが垂直方向にずれて逆投影された状態を示している。この状態は、いわゆる「やぶにらみ(斜視)」と呼ばれ、フィールドレンズ7002、多孔絞り7003、二次結像レンズユニット7004および焦点検出センサ7005の位置関係のずれによって生ずる。この「やぶにらみ」が生じた状態では、視野8001A,8001Bは水平方向では同じ位置にあるが、垂直方向において全く重なり合わない。したがって、図8(D)に示すように、一対のラインセンサ7005A,7005Bの出力8002A,8002Bの波形が水平方向にずれる。これにより、正しい2像信号のずれ量の検出ができなくなり、焦点検出誤差が生じる。この結果、高精度なAFを行うことができない。なお、ここでは一対のラインセンサの視野が垂直方向にずれる「やぶにらみ」について説明したが、「やぶにらみ」による視野のずれは垂直方向に限られない。   On the other hand, FIG. 8C shows a state in which the fields of view 8001A and 8001B of the pair of line sensors 7005A and 7005B are back-projected with being vertically shifted with respect to a subject 8000 having an oblique white line on a black background. This state is referred to as so-called “eyebrow” (oblique view), and is generated due to a positional deviation of the field lens 7002, the aperture stop 7003, the secondary imaging lens unit 7004, and the focus detection sensor 7005. In the state where this "gaze" occurs, the fields of view 8001A and 8001B are at the same position in the horizontal direction but do not overlap at all in the vertical direction. Therefore, as shown in FIG. 8D, the waveforms of the outputs 8002A and 8002B of the pair of line sensors 7005A and 7005B shift in the horizontal direction. As a result, the amount of deviation between the two image signals can not be detected correctly, resulting in a focus detection error. As a result, high precision AF can not be performed. Although “Yaburunami” in which the fields of view of the pair of line sensors shift in the vertical direction has been described here, the shift in the field of view due to “Yaburunami” is not limited to the vertical direction.

上記のような「やぶにらみ」は、フィールドレンズ7002、多孔絞り7003、二次結像レンズユニット7004および焦点検出センサ7005の位置関係を調整することで実用的に支障が無い様に抑え込むことは可能である。しかし、焦点検出ユニット5110に上記位置関係を調整するための調整機構を設ける必要があること、調整工程に長時間がかかることが問題となる。これに対して、「やぶにらみ」による焦点検出誤差が生じ得るか否かを判断して、その判断結果に応じて焦点検出結果の取り扱いを異ならせれば、AFの精度低下を抑えることができる。また、上記位置関係の調整精度を緩和することもできる。   It is possible to suppress the above "Yaburunari" without causing any practical problems by adjusting the positional relationship between the field lens 7002, the aperture stop 7003, the secondary imaging lens unit 7004, and the focus detection sensor 7005. It is. However, the focus detection unit 5110 needs to be provided with an adjustment mechanism for adjusting the above-mentioned positional relationship, and the adjustment process takes a long time. On the other hand, if it is determined whether or not a focus detection error may occur due to "viewing", and if the handling of the focus detection result is different according to the determination result, it is possible to suppress the decrease in AF accuracy. Moreover, the adjustment accuracy of the said positional relationship can also be relieved.

図9を用いて、撮像センサ112を用いた焦点検出と焦点検出ユニット5110を用いた焦点検出のタイミングについて説明する。図9において、「M−Up」は、主ミラー5101が撮像光路外に退避し、フォーカルプレーンシャッタ5107が開放されて撮像センサ112による撮像面焦点検出および撮像が可能な状態を示す。一方、「M−Down」は、主ミラー5101が撮像光路内に配置されたファインダ観察状態であり、焦点検出ユニット5110による非撮像面焦点検出が可能な状態を示す。また、x1〜x9は、時刻t2から連続して3回の撮像が行われる間に被写体(動体)がカメラに向かって近づいてくるときの像面位置の変化を示している。3回の撮像の間に、撮像面焦点検出と非撮像面焦点検出とが交互に行われる。奇数時刻t1、t3、t5、t7で非撮像面焦点検出が行われ、偶数時刻t2、t4、t6で撮像面焦点検出が行われる。理想的には、時刻t1、t3、t5、t7での非撮像面焦点検出と時刻t2、t4、t6での撮像面焦点検出による焦点検出結果(デフォーカス量)がそれぞれ像面位置x1〜x9に一致する。   The timing of focus detection using the imaging sensor 112 and focus detection using the focus detection unit 5110 will be described with reference to FIG. In FIG. 9, “M-Up” indicates a state in which the main mirror 5101 is retracted out of the imaging optical path, the focal plane shutter 5107 is opened, and imaging surface focus detection and imaging by the imaging sensor 112 are possible. On the other hand, “M-Down” is a finder observation state in which the main mirror 5101 is disposed in the imaging light path, and indicates a state in which non-imaging surface focus detection by the focus detection unit 5110 is possible. In addition, x1 to x9 indicate changes in the image plane position when the subject (moving object) approaches toward the camera during three consecutive imagings from time t2. Between three imagings, imaging surface focus detection and non-imaging surface focus detection are alternately performed. Non-imaging-plane focus detection is performed at odd times t1, t3, t5, and t7, and imaging-plane focus detection is performed at even times t2, t4, and t6. Ideally, the focal point detection results (defocus amounts) by non-imaging surface focal point detection at time t1, t3, t5 and t7 and imaging surface focal point detection at time t2, t4 and t6 are respectively the image plane positions x1 to x9. Match

以下では、図9に示したように動体の連続撮像において像面位置が変化する間に交互に行われる非撮像面焦点検出と撮像面焦点検出による焦点検出結果の取り扱いについて説明する。   In the following, as shown in FIG. 9, the handling of the focus detection result by non-imaging surface focus detection and imaging surface focus detection which is alternately performed while the image surface position changes in continuous imaging of a moving object will be described.

まず、「やぶにらみ」による焦点検出誤差の有無を判定する方法について説明する。図10では、撮像センサ112の画素(細線枠で囲んだR,G,B)と焦点検出ユニット5110におけるラインセンサの画素(太線枠)とをそれらの大きさを比較するために重ねて描いている。高画素化された撮像センサ112に対して、焦点検出ユニット5110は低輝度検出性能を重視する。このため、焦点検出ユニット5110の1画素の大きさは、撮像センサ112の1画素の大きさに比べてかなり大きい。   First, a method of determining the presence or absence of a focus detection error due to “Yabubira” will be described. In FIG. 10, the pixels of the image sensor 112 (R, G, B surrounded by thin line frames) and the pixels of the line sensor in the focus detection unit 5110 (thick line frames) are drawn overlappingly to compare their sizes. There is. The focus detection unit 5110 emphasizes the low luminance detection performance with respect to the imaging sensor 112 in which the number of pixels is increased. Therefore, the size of one pixel of the focus detection unit 5110 is considerably larger than the size of one pixel of the imaging sensor 112.

図10において、10001は撮像センサ112において焦点検出を行う画素領域を示し、10002〜10005が該画素領域10001のうち1番目からn番目の信号読出し行を示す。各信号読出し行は、垂直方向に4画素を含む。各信号読出し行のG画素から読み出したPD信号を垂直方向に加算して該信号読出し行の出力信号(2像信号)として用いる。そして、1番目からn番目の信号読出し行のそれぞれから得られたn対の2像信号の対ごとの相関を演算し、これらn個の相関演算結果を加算することで最終的に1つの相関演算結果としての2像信号のずれ量(位相差)を求める。   In FIG. 10, reference numeral 10001 denotes a pixel area where focus detection is performed in the imaging sensor 112, and reference numerals 10002 to 10000 denote first to n-th signal readout rows in the pixel area 10001. Each signal readout row includes four pixels in the vertical direction. PD signals read out from G pixels of each signal readout row are added in the vertical direction and used as an output signal (two image signals) of the signal readout row. Then, the correlation of each pair of two image signals of n pairs obtained from each of the first to n-th signal readout rows is calculated, and these n pieces of correlation calculation results are finally added to obtain one correlation. The shift amount (phase difference) of the two image signals as the calculation result is obtained.

撮像センサ112において各相関演算結果を求める2像信号は、図2および図3を用いて説明したように、同一画素内のマイクロレンズにより瞳分割された光束を受光する2つのPDから得られる信号であるため、「やぶにらみ」は発生しない。   Two image signals for obtaining each correlation calculation result in the imaging sensor 112 are signals obtained from two PDs that receive a light beam divided by a micro lens in the same pixel as described with reference to FIGS. 2 and 3. Because of that, "Yabu ni Remi" does not occur.

一方、10006は焦点検出ユニット5110の1つのラインセンサの範囲を示し、10007〜10012が該ラインセンサにおける1番目からn番目の画素を示す。このラインセンサから得られる画素信号(PD信号)の列が2像信号のうち1つの像信号となる。本実施例では、一対のラインセンサから得られる2像信号の差を利用して、「やぶにらみ」による焦点検出誤差の有無、すなわち焦点検出結果の信頼性を判定する。   On the other hand, 10006 indicates the range of one line sensor of the focus detection unit 5110, and 10007 to 10012 indicate the first to n-th pixels in the line sensor. A row of pixel signals (PD signals) obtained from the line sensor is one of the two image signals. In the present embodiment, the difference between two image signals obtained from a pair of line sensors is used to determine the presence or absence of a focus detection error due to “frightened eyes”, ie, the reliability of the focus detection result.

図11(A),(B)は、図8に示した黒地に斜めの白線を有する被写体(すなわち図8(A),(C)に示した被写体と同一被写体)8000に対して撮像センサ112から得られる2像信号を示す。図11(A)はそれぞれ相関演算結果を得るn個の信号読出し行10002〜10005を含む画素領域を示し、図11(B)には1番目からn番目の信号読出し行10002〜10005のそれぞれから得られる焦点検出像信号11002〜11005の波形を示す。図11(B)から、上記被写体8000に対して信号読出し行10002〜10005のそれぞれから得られる焦点検出像信号11002〜11005のピーク位置は互いに水平方向にずれていることが分かる。   FIGS. 11A and 11B show an image sensor 112 for an object having an oblique white line on the black background shown in FIG. 8 (ie, the same object as the object shown in FIGS. 8A and 8C). 2 shows two image signals obtained from. FIG. 11A shows a pixel region including n signal readout rows 10002 to 1005 for obtaining the correlation calculation result, and FIG. 11B shows each of the first to nth signal readout rows 10002 to 1005. The waveform of the focus detection image signal 11002-11005 obtained is shown. It can be understood from FIG. 11B that the peak positions of the focus detection image signals 11002 to 11005 obtained from the signal readout rows 10002 to 1005 with respect to the subject 8000 are mutually shifted in the horizontal direction.

本実施例では、この焦点検出像信号のピーク位置のずれを利用して、被写体(2像信号)が図8(C),(D)を用いて説明した「やぶにらみ」による焦点検出誤差を生じさせる可能性があるものか否かを判定する。図11(B)に示すように信号読出し行10002〜10005のそれぞれから得られる焦点検出像信号11002〜11005のピーク位置が互いにずれていれば、「やぶにらみ」による焦点検出誤差が発生する可能性があると判定することができる。つまり、焦点検出ユニット5110を用いた非撮像面焦点検出により得られる焦点検出結果の信頼性が低いと判定することができる。   In the present embodiment, the focus detection error due to “Yaburairai” described with reference to FIGS. 8C and 8D using the shift of the peak position of this focus detection image signal is used for the subject (two image signals). Determine if there is a possibility of causing it. As shown in FIG. 11B, if the peak positions of the focus detection image signals 11002 to 11005 obtained from each of the signal readout rows 10002 to 1005 are shifted from each other, there is a possibility that a focus detection error due to “viewing” occurs. It can be determined that there is That is, it can be determined that the reliability of the focus detection result obtained by non-imaging surface focus detection using the focus detection unit 5110 is low.

図1は、カメラマイクロコンピュータ(以下、カメラマイコンという)6122が実行するAF処理を示している。このAF処理において、カメラマイコン6122は、「やぶにらみ」に関する焦点検出結果の信頼性を判定し、その判定結果に応じてAFに撮像面焦点検出のみを用いるか、非撮像面焦点検出と撮像面焦点検出の両方を用いるかを選択する。カメラマイコン6122は、コンピュータプログラムとしてのフォーカス制御プログラムに従って本処理を実行する。   FIG. 1 shows an AF process executed by a camera microcomputer (hereinafter referred to as a camera microcomputer) 6122. In this AF process, the camera microcomputer 6122 determines the reliability of the focus detection result regarding “Yabu Shirasu”, and according to the determination result, whether to use only imaging surface focus detection for AF or non imaging surface focus detection and imaging surface Select whether to use both of focus detection. The camera microcomputer 6122 executes this process in accordance with a focus control program as a computer program.

ステップS1001では、カメラマイコン6122は、図11(B)に示したように撮像センサ112の信号読出し行10002〜10005のそれぞれから取得した焦点検出像信号11002〜11005を比較する。そして、ステップS1002では、焦点検出像信号11002〜11005のピーク位置が互いにずれているか否かを判定する。すなわち、被写体が焦点検出ユニット5110において「やぶにらみ」による焦点検出誤差が発生する可能性があるか否かを判定する。カメラマイコン6122は、「やぶにらみ」による焦点検出誤差が発生する可能性がある場合はステップS1003に進み、可能性がない(ピーク位置がずれていない)場合はステップS1004に進む。   In step S1001, the camera microcomputer 6122 compares the focus detection image signals 11002 to 11005 acquired from each of the signal readout rows 10002 to 1005 of the imaging sensor 112 as shown in FIG. 11B. Then, in step S1002, it is determined whether the peak positions of the focus detection image signals 11002 to 11005 are shifted from each other. That is, it is determined whether or not there is a possibility that a focus detection error may occur due to the subject being "focused upon" in the focus detection unit 5110. The camera microcomputer 6122 proceeds to step S1003 if there is a possibility that a focus detection error due to “restraint on Yabun” occurs, and proceeds to step S1004 if there is no possibility (the peak position is not shifted).

ステップS1003では、カメラマイコン6122は、AFに撮像面焦点検出のみを用いることを選択する。そして、ステップS1005では、カメラマイコン6122は、撮像面焦点検出によりデフォーカス量を算出し、該デフォーカス量に基づいてフォーカスレンズ5201を駆動する。   In step S1003, the camera microcomputer 6122 selects to use only the imaging surface focus detection for AF. Then, in step S1005, the camera microcomputer 6122 calculates the defocus amount by imaging surface focus detection, and drives the focus lens 5201 based on the defocus amount.

一方、ステップS1004では、カメラマイコン6122は、AFに非撮像面焦点検出と撮像面焦点検出の両方を用いることを選択する。そして、ステップS1005では、カメラマイコン6122は、非撮像面焦点検出によりデフォーカス量を算出し、該デフォーカス量に基づいてフォーカスレンズ5201を駆動する。その後カメラマイコン6122は、撮像面焦点検出によりデフォーカス量を算出し、該デフォーカス量に基づいてフォーカスレンズ5201を駆動する。これにより、非撮像面焦点検出と撮像面焦点検出を併用したより高精度なAFが行われる。   On the other hand, in step S1004, the camera microcomputer 6122 selects using both non-imaging surface focus detection and imaging surface focus detection for AF. Then, in step S1005, the camera microcomputer 6122 calculates the defocus amount by non-imaging surface focus detection, and drives the focus lens 5201 based on the defocus amount. After that, the camera microcomputer 6122 calculates the defocus amount by imaging surface focus detection, and drives the focus lens 5201 based on the defocus amount. As a result, more accurate AF is performed by using both non-imaging surface focus detection and imaging surface focus detection.

以上説明したように、本実施例では、撮像センサ112から得られる焦点検出像信号を用いて、焦点検出ユニット5110において「やぶにらみ」による焦点検出誤差の発生の可能性の有無を判定する。そして、焦点検出誤差の発生の可能性がある場合には、撮像センサ112から得られる焦点検出結果のみをAFに用いることで、「やぶにらみ」によるAF精度の低下を抑えた良好なAFを行うことができる。   As described above, in the present embodiment, using the focus detection image signal obtained from the imaging sensor 112, the focus detection unit 5110 determines the presence or absence of the possibility of the occurrence of a focus detection error due to "blurring". Then, when there is a possibility of the occurrence of a focus detection error, by using only the focus detection result obtained from the imaging sensor 112 for AF, a good AF is performed in which the decrease in the AF accuracy due to the "eye wear" is suppressed. be able to.

次に、本発明の実施例2について説明する。図12は、撮像センサ112を有する撮像装置であるカメラ本体12100と、該カメラ本体12100に取り外し可能に装着された交換レンズ5200の光学的構成(一部に電気的構成を含む)を示す。図13には、カメラ本体12100と交換レンズ5200の電気的構成(一部に光学的構成を含む)を示す。   Next, a second embodiment of the present invention will be described. FIG. 12 shows an optical configuration (a part of which includes an electrical configuration) of a camera body 12100 which is an imaging device having an imaging sensor 112, and an interchangeable lens 5200 removably mounted on the camera body 12100. FIG. 13 shows an electrical configuration (including an optical configuration in part) of the camera body 12100 and the interchangeable lens 5200.

前述した実施例1では、撮像光路に対して進退可能な主ミラー5101を有するカメラ本体5100について説明した。これに対し本実施例2では、ミラー12101が撮像光路内にて固定されているカメラ本体12100について説明する。本実施例では、交換レンズ(撮像光学系)5200から入射してミラー12101にて反射した光束が焦点検出ユニット12110に導かれる。図12および図13において、実施例1と共通する構成要素には実施例1と同符号を付して説明を省略する。   In the first embodiment described above, the camera body 5100 having the main mirror 5101 which can be advanced and retracted with respect to the imaging optical path has been described. On the other hand, in the second embodiment, the camera body 12100 in which the mirror 12101 is fixed in the imaging light path will be described. In the present embodiment, a light flux incident from an interchangeable lens (imaging optical system) 5200 and reflected by a mirror 12101 is guided to a focus detection unit 12110. In FIG. 12 and FIG. 13, the same components as in the first embodiment are given the same reference numerals as the first embodiment, and the description thereof is omitted.

ミラー12101は、前述したように撮像光路内にて固定されており、交換レンズ5200から入射した光束の一部(例えば半分)を焦点検出ユニット12110に向けて反射し、残りの光束を撮像センサ112に向けて透過させる。   As described above, the mirror 12101 is fixed in the imaging light path, reflects a part (for example, half) of the light flux incident from the interchangeable lens 5200 toward the focus detection unit 12110, and the remaining light flux is the imaging sensor 112 Make it transparent to

焦点検出ユニット12110は、実施例1において図7を用いて説明した焦点検出ユニット5110と同様に構成されており、位相差検出方式による撮像光学系の焦点検出を行うための2像信号をカメラマイクロコンピュータ6122に送る。12103はEVFモニタであり、実施例1のカメラ本体5100に設けられた光学ファインダに代わる電子ファインダを構成する。EVFモニタ12103は、カメラ本体12100の背面に設けられたTFTモニタ6117と同様にTFT駆動回路6116によって駆動される。   The focus detection unit 12110 is configured in the same manner as the focus detection unit 5110 described with reference to FIG. 7 in the first embodiment, and the two image signals for performing focus detection of the imaging optical system by the phase difference detection method are Send to computer 6122 An EVF monitor 12103 constitutes an electronic finder instead of the optical finder provided in the camera body 5100 of the first embodiment. The EVF monitor 12103 is driven by the TFT drive circuit 6116 as with the TFT monitor 6117 provided on the back of the camera body 12100.

本実施例においてカメラマイコン6122が実行するAF処理は、基本的に実施例1と同じである。すなわち、カメラマイコン6122は、「やぶにらみ」に関する焦点検出結果の信頼性を判定し、その判定結果に応じてAFに撮像面焦点検出のみを用いるか、非撮像面焦点検出と撮像面焦点検出の両方を用いるかを選択する。ここで、実施例1では図9に示したように連続撮像中に交互に行われる非撮像面焦点検出と撮像面焦点検出により得られる焦点検出結果を用いるのに対して、本実施例では常に非撮像面焦点検出と撮像面焦点検出により得られる焦点検出結果を用いることができる。本実施例では撮像センサ112と焦点検出ユニット5110とに撮影光学系を通過した光束が常に入射しているためである。このように、撮像センサ112の出力に基づく撮像面焦点検出の結果を得る対タイミングが主ミラー5101の駆動タイミングに依存しないことから、サーボAF動作を伴う連続撮像中に限らず、連続撮像を行わないサーボAF動作やワンショットAF動作時でも信頼性の判定が可能となる。つまり、実施例1の場合と比較して、例えば「やぶにらみ」による影響をより短い時間間隔で監視することも可能である。これにより、例えば実施例1の場合と比較して「やぶにらみ」による影響をより低減することが可能である。また、本実施例では実施例1と比較して「やぶにらみ」による影響をより低減することが可能であることから、実施例1の場合よりも「やぶにらみ」の程度が大きい焦点検出ユニット12110を用いることもできる。その分、焦点検出ユニット12110の各部品の位置関係の調整を実施例1の場合と比較して簡略化することも可能である。これにより、生産コストを下げることができる。   The AF processing executed by the camera microcomputer 6122 in the present embodiment is basically the same as that in the first embodiment. That is, the camera microcomputer 6122 determines the reliability of the focus detection result regarding “Yabu Shirai”, and according to the determination result, whether to use only imaging surface focus detection for AF, non imaging surface focus detection and imaging surface focus detection Choose to use both. Here, while the first embodiment uses the focus detection result obtained by non-imaging surface focus detection and imaging surface focus detection alternately performed during continuous imaging as shown in FIG. The focus detection result obtained by non-imaging surface focus detection and imaging surface focus detection can be used. In the present embodiment, the light flux that has passed through the photographing optical system always enters the imaging sensor 112 and the focus detection unit 5110. As described above, since the pair timing to obtain the result of the imaging surface focus detection based on the output of the imaging sensor 112 does not depend on the driving timing of the main mirror 5101, the continuous imaging is performed not only during the continuous imaging with the servo AF operation. Even when there is no servo AF operation or one-shot AF operation, it is possible to determine the reliability. That is, compared to the case of the first embodiment, it is also possible to monitor, for example, the influence of "regard to the hair" at shorter time intervals. Thereby, it is possible to further reduce the influence of “Yamibari” as compared to, for example, the case of the first embodiment. Further, in the present embodiment, since it is possible to further reduce the influence of “Yaburinami” as compared with the first embodiment, the focus detection unit 12110 has a larger degree of “Yaburanami” than the case of the first embodiment. Can also be used. Accordingly, it is possible to simplify the adjustment of the positional relationship of each part of the focus detection unit 12110 as compared with the case of the first embodiment. This can reduce the production cost.

以上説明したように、本実施例でも、撮像センサ112から得られる焦点検出像信号を用いて、焦点検出ユニット5110において「やぶにらみ」による焦点検出誤差の発生の可能性の有無を判定する。そして、焦点検出誤差の発生の可能性がある場合には、撮像センサ112から得られる焦点検出結果のみをAFに用いることで、「やぶにらみ」によるAF精度の低下を抑えた良好なAFを行うことができる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
As described above, also in the present embodiment, the focus detection unit 5110 determines the possibility of the occurrence of a focus detection error due to “blurring” using the focus detection image signal obtained from the imaging sensor 112. Then, when there is a possibility of the occurrence of a focus detection error, by using only the focus detection result obtained from the imaging sensor 112 for AF, a good AF is performed in which the decrease in the AF accuracy due to the "eye wear" is suppressed. be able to.
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。   The embodiments described above are only representative examples, and various modifications and changes can be made to the embodiments when the present invention is implemented.

112 撮像センサ
5100,12100 カメラ本体
5110 焦点検出ユニット
5200 撮影レンズ
6122 カメラマイクロコンピュータ
112 Image sensor 5100, 12100 Camera body 5110 Focus detection unit 5200 Shooting lens 6122 Camera microcomputer

Claims (6)

撮像光学系からの光束を分割して得られる対の第1の被写体像を光電変換して対の第1の焦点検出像信号を生成するとともに、前記光束により形成される被写体像を撮像する撮像センサと、
前記撮像センサとは別に設けられ、前記撮像光学系からの光束を分割して得られる対の第2の被写体像を光電変換して対の第2の焦点検出像信号を生成する焦点検出ユニットと、
前記第1および第2の焦点検出像信号のうち少なくとも一方を用いて前記撮像光学系のフォーカス制御を行う制御手段とを有し、
前記制御手段は、前記撮像センサにおける複数の領域から取得した複数の前記第1の焦点検出像信号を比較した結果に応じて前記第2の焦点検出像信号の信頼性を判定し、該判定結果に基づいてフォーカス制御を行うことを特徴する撮像装置。
The photoelectric conversion of the first subject image of the pair obtained by dividing the light flux from the imaging optical system to generate the first focus detection image signal of the pair, and the imaging for picking up the subject image formed by the light flux Sensor,
And a focus detection unit provided separately from the image sensor and photoelectrically converting a second object image of a pair obtained by dividing a light beam from the image pickup optical system to generate a second focus detection image signal of the pair ,
Control means for performing focus control of the imaging optical system using at least one of the first and second focus detection image signals;
The control means determines the reliability of the second focus detection image signal according to the result of comparing the plurality of first focus detection image signals acquired from a plurality of regions in the imaging sensor, and the determination result An imaging apparatus characterized in that focus control is performed based on.
前記制御手段は、前記複数の第1の焦点検出像信号のピーク位置を比較し、該ピーク位置にずれがあるとの前記結果が得られた場合は、前記第2の焦点検出像信号の信頼性が低いと判定して、前記第2の焦点検出像信号を前記フォーカス制御に用いないと選択することを特徴する請求項1に記載の撮像装置。   The control means compares peak positions of the plurality of first focus detection image signals, and when the result that there is a shift in the peak positions is obtained, the reliability of the second focus detection image signal is obtained. 2. The image pickup apparatus according to claim 1, wherein it is determined that the second focus detection image signal is not used for the focus control by determining that the second focus detection image signal is low. 前記第1の被写体像と前記第2の被写体像とは、同一被写体の光学像であることを特徴とする請求項1または2に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the first subject image and the second subject image are optical images of the same subject. 前記制御手段は、
前記第2の焦点検出像信号を前記フォーカス制御に用いないと選択した場合は前記対の第1の焦点検出像信号を用いて前記フォーカス制御を行い、
前記第2の焦点検出像信号を前記フォーカス制御に用いると選択した場合は、前記対の第1の焦点検出像信号および前記対の第2の焦点検出像信号を用いて前記フォーカス制御を行うことを特徴とする請求項1から3のいずれか一項に記載の撮像装置。
The control means
When it is selected that the second focus detection image signal is not used for the focus control, the focus control is performed using the pair of first focus detection image signals,
When it is selected to use the second focus detection image signal for the focus control, the focus control is performed using the first focus detection image signal of the pair and the second focus detection image signal of the pair. The imaging device according to any one of claims 1 to 3, characterized by
撮像光学系からの光束を分割して得られる対の第1の被写体像を光電変換して対の第1の焦点検出像信号を生成するとともに、前記光束により形成される被写体像を撮像する撮像センサと、前記撮像センサとは別に設けられ、前記撮像光学系からの光束を分割して得られる対の第2の被写体像を光電変換して対の第2の焦点検出像信号を生成する焦点検出ユニットとを有する撮像装置に、前記第1および第2の焦点検出像信号のうち少なくとも一方を用いて前記撮像光学系のフォーカス制御を行わせる制御方法であって、
前記撮像センサにおける複数の領域から複数の前記第1の焦点検出像信号を取得するステップと、
前記複数の第1の焦点検出像信号を比較した結果に応じて、前記第2の焦点検出像信号の信頼性を判定し、該判定結果に基づいてフォーカス制御を行うステップとを有することを特徴とする撮像装置の制御方法。
The photoelectric conversion of the first subject image of the pair obtained by dividing the light flux from the imaging optical system to generate the first focus detection image signal of the pair, and the imaging for picking up the subject image formed by the light flux A sensor and a focus sensor which is separately provided from the image sensor and photoelectrically converts a pair of second object images obtained by dividing a light flux from the image pickup optical system to generate a pair of second focus detection image signals A control method for causing an imaging apparatus having a detection unit to perform focus control of the imaging optical system using at least one of the first and second focus detection image signals.
Acquiring a plurality of first focus detection image signals from a plurality of areas in the imaging sensor;
Determining the reliability of the second focus detection image signal according to the result of comparing the plurality of first focus detection image signals, and performing focus control based on the determination result Control method of the imaging device.
撮像光学系からの光束を分割して得られる対の第1の被写体像を光電変換して対の第1の焦点検出像信号を生成するとともに、前記光束により形成される被写体像を撮像する撮像センサと、前記撮像センサとは別に設けられ、前記撮像光学系からの光束を分割して得られる対の第2の被写体像を光電変換して対の第2の焦点検出像信号を生成する焦点検出ユニットとを有する撮像装置のコンピュータに、前記第1および第2の焦点検出像信号のうち少なくとも一方を用いて前記撮像光学系のフォーカス制御を行わせるコンピュータプログラムであって、
前記コンピュータに、
前記撮像センサにおける複数の領域から複数の前記第1の焦点検出像信号を取得する処理と、
前記複数の第1の焦点検出像信号を比較した結果に応じて前記第2の焦点検出像信号の信頼性を判定し、該判定結果に基づいてフォーカス制御を行う処理とを行わせることを特徴とするフォーカス制御プログラム。
The photoelectric conversion of the first subject image of the pair obtained by dividing the light flux from the imaging optical system to generate the first focus detection image signal of the pair, and the imaging for picking up the subject image formed by the light flux A sensor and a focus sensor which is separately provided from the image sensor and photoelectrically converts a pair of second object images obtained by dividing a light flux from the image pickup optical system to generate a pair of second focus detection image signals A computer program that causes a computer of an imaging apparatus having a detection unit to perform focus control of the imaging optical system using at least one of the first and second focus detection image signals,
On the computer
A process of acquiring a plurality of first focus detection image signals from a plurality of areas in the imaging sensor;
It is characterized in that the reliability of the second focus detection image signal is determined according to the result of comparison of the plurality of first focus detection image signals, and processing for performing focus control is performed based on the determination result. Focus control program.
JP2017200219A 2017-10-16 2017-10-16 Imaging apparatus Pending JP2019074634A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017200219A JP2019074634A (en) 2017-10-16 2017-10-16 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017200219A JP2019074634A (en) 2017-10-16 2017-10-16 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2019074634A true JP2019074634A (en) 2019-05-16

Family

ID=66543185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017200219A Pending JP2019074634A (en) 2017-10-16 2017-10-16 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2019074634A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3722100A1 (en) 2019-04-10 2020-10-14 Seiko Epson Corporation Printing apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3722100A1 (en) 2019-04-10 2020-10-14 Seiko Epson Corporation Printing apparatus

Similar Documents

Publication Publication Date Title
JP5207797B2 (en) Imaging apparatus and control method thereof
US9344617B2 (en) Image capture apparatus and method of controlling that performs focus detection
JP5753371B2 (en) Imaging apparatus and control method thereof
JP2009244858A (en) Image capturing apparatus and image processing method
KR20150123737A (en) Image capturing apparatus and method for controlling image capturing apparatus
JP4995002B2 (en) Imaging device, focusing device, imaging method, and focusing method
JP6175748B2 (en) Imaging device
US9591203B2 (en) Image processing apparatus, image processing method, recording medium, and image pickup apparatus
JP2017126035A (en) Imaging apparatus, control method, program, and storage medium
JP2011007867A (en) Focus detecting means and camera
JP5206292B2 (en) Imaging apparatus and image recording method
JP2013113857A (en) Imaging device, and control method therefor
JP6624834B2 (en) Imaging device and control method thereof
JP6561437B2 (en) Focus adjustment device and imaging device
JP5240591B2 (en) Imaging device, focusing device, imaging method, and focusing method
JP2019074634A (en) Imaging apparatus
JP2020046482A (en) Imaging apparatus
JP2020127202A (en) Imaging apparatus
JP2017032874A (en) Focus detection device and method, and imaging apparatus
JP2016142924A (en) Imaging apparatus, method of controlling the same, program, and storage medium
JP2016071275A (en) Image-capturing device and focus control program
JP6344920B2 (en) Imaging device
JP6677336B2 (en) Imaging device
JP2009031562A (en) Light receiving element, light receiver, focus detecting device, camera
JP2015094871A (en) Image capturing device, image capturing system, method of controlling image capturing device, program, and storage medium