JP6347581B2 - Focus detection apparatus and control method thereof - Google Patents

Focus detection apparatus and control method thereof Download PDF

Info

Publication number
JP6347581B2
JP6347581B2 JP2013148473A JP2013148473A JP6347581B2 JP 6347581 B2 JP6347581 B2 JP 6347581B2 JP 2013148473 A JP2013148473 A JP 2013148473A JP 2013148473 A JP2013148473 A JP 2013148473A JP 6347581 B2 JP6347581 B2 JP 6347581B2
Authority
JP
Japan
Prior art keywords
focus detection
area
image
size
shift amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013148473A
Other languages
Japanese (ja)
Other versions
JP2015022058A (en
Inventor
直幸 大原
直幸 大原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013148473A priority Critical patent/JP6347581B2/en
Publication of JP2015022058A publication Critical patent/JP2015022058A/en
Application granted granted Critical
Publication of JP6347581B2 publication Critical patent/JP6347581B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、焦点検出装置およびその制御方法に関する。 The present invention relates to a focus detection apparatus and a control method thereof .

カメラ等の撮像装置に搭載されるオートフォーカス(AF)方式の一つとして、位相差検出方式(以下、位相差AFという)がある。位相差AFでは、撮影レンズの射出瞳を通過した光束を二分割し、二分割した光束を一組の焦点検出用センサによりそれぞれ受光する。そして、その受光量に応じて出力される信号のずれ量、すなわち、光束の分割方向の相対的位置ずれ量(以下、像ずれ量という)を検出することで撮影レンズのピント方向のずれ量(以下、デフォーカス量という)を求める。   As one of autofocus (AF) methods mounted on an imaging apparatus such as a camera, there is a phase difference detection method (hereinafter referred to as phase difference AF). In the phase difference AF, the light beam that has passed through the exit pupil of the photographing lens is divided into two, and the two divided light beams are received by a set of focus detection sensors. Then, by detecting the shift amount of the signal output according to the received light amount, that is, the relative positional shift amount in the beam splitting direction (hereinafter referred to as the image shift amount), the shift amount in the focus direction of the photographing lens ( Hereinafter, the defocus amount is obtained.

特許文献1は、撮像素子の画素の光電変換部を二分割して瞳分割機能を付与し、二分割された光電変換部の出力を個別に処理することで焦点検出を行うとともに、二分割された光電変換部の合算出力を撮像信号として用いる焦点検出装置を開示している。また、特許文献2は、顔検出の結果に基づいて位相差検出方式のAFを行うとともに、撮影するシーン毎の顔の検出状態に応じて焦点検出領域を選択するカメラを開示している。   Patent Document 1 divides a photoelectric conversion unit of a pixel of an image sensor into two parts to give a pupil division function, performs focus detection by individually processing the output of the divided photoelectric conversion unit, and is divided into two parts. A focus detection device that uses the combined calculation force of the photoelectric conversion unit as an imaging signal is disclosed. Further, Patent Document 2 discloses a camera that performs phase difference detection AF based on the result of face detection, and selects a focus detection area according to the face detection state for each scene to be shot.

特開2001−305415号公報JP 2001-305415 A 特開2007−286255号公報JP 2007-286255 A

特許文献1が開示する焦点検出装置は、焦点検出を行うエリア(焦点検出領域)を撮像画角中のどの位置に設定するかについて考慮していない。撮像素子の画素の光電変換部を二分割する構成では、任意に焦点検出領域を設けることができるため、被写体に適した焦点検出領域の設定が必要である。また、特許文献2が開示するカメラは、被写体として顔が検出されている時、検出される顔が小さい時や、撮像画角中央にない時などには、顔や目の位置に焦点検出領域がない場合があり、位相差AFの結果を用いた焦点調節処理を実行できない。   The focus detection device disclosed in Patent Document 1 does not consider which position in the imaging angle of view the focus detection area (focus detection area) is set to. In the configuration in which the photoelectric conversion unit of the pixel of the image sensor is divided into two, it is possible to arbitrarily provide a focus detection region, so it is necessary to set a focus detection region suitable for the subject. In addition, the camera disclosed in Patent Document 2 has a focus detection area at the face or eye position when a face is detected as a subject, when the detected face is small, or when it is not at the center of the imaging angle of view. In some cases, the focus adjustment process using the result of the phase difference AF cannot be executed.

本発明は、複数個に分割した光電変換部を有する撮像素子を用いて、主被写体の位置、大きさに応じた適切な焦点検出を行う焦点検出装置およびその制御方法の提供を目的とする。 An object of the present invention is to provide a focus detection apparatus and a control method thereof that perform appropriate focus detection according to the position and size of a main subject using an image sensor having a photoelectric conversion unit divided into a plurality of parts.

本発明の一実施形態の焦点検出装置は、一つのマイクロレンズに対して複数の光電変換素子を有し、当該マイクロレンズが2次元状に配置された撮像素子であって、画像信号を出力する撮像素子と、撮影画角内の主被写体領域を検出する検出手段と、焦点検出に用いる画像信号を取得する焦点検出領域を設定する設定手段と、前記焦点検出領域の画像信号により得られる2像の像ずれ量に基づいて、焦点検出処理を実行する制御手段とを備え、前記焦点検出領域は、前記2像の像ずれ量を算出する際の像のシフト量分の範囲である探索領域と、前記主被写体領域の位置と大きさに基づいて設定される基準領域とを含み、前記主被写体領域の大きさが予め決められた大きさよりも大きい場合、前記探索領域は、前記予め決められた大きさ以下の場合よりも大く、前記基準領域は、前記予め決められた大きさ以下の場合よりも前記主被写体領域の大きさに対する比率が小さいA focus detection apparatus according to an embodiment of the present invention is an imaging device that includes a plurality of photoelectric conversion elements for one microlens, and the microlenses are two-dimensionally arranged, and outputs an image signal. An image sensor, detection means for detecting a main subject area within a shooting angle of view, setting means for setting a focus detection area for acquiring an image signal used for focus detection, and two images obtained from image signals in the focus detection area Control means for executing a focus detection process based on the image shift amount of the image, and the focus detection area includes a search area that is a range corresponding to an image shift amount when calculating the image shift amount of the two images. A reference area set based on a position and a size of the main subject area , and when the size of the main subject area is larger than a predetermined size, the search area is the predetermined area Less than size Than if rather come large, the reference area has a smaller proportion to the size of the main subject region than in the case of less magnitude the predetermined.

本発明の一実施形態の焦点検出装置によれば、複数個に分割した光電変換部を有する撮像素子を用いて、主被写体の位置、大きさに応じた適切な焦点検出を行うことができる。 According to the focus detection apparatus of one embodiment of the present invention , it is possible to perform appropriate focus detection according to the position and size of the main subject using an imaging device having a plurality of photoelectric conversion units.

本実施例の撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device of a present Example. 撮像装置の動作例を説明するフローチャートである。It is a flowchart explaining the operation example of an imaging device. 撮像素子の構成例を説明する図である。It is a figure explaining the structural example of an image pick-up element. 撮像素子から見た場合の、撮影レンズの瞳を示す図である。It is a figure which shows the pupil of a photographic lens when it sees from an image sensor. A像信号およびB像信号を説明する図である。It is a figure explaining an A image signal and a B image signal. 相関演算を説明する図である。It is a figure explaining a correlation calculation. 像ずれ量からデフォーカス量への変換処理の例を説明する図である。It is a figure explaining the example of the conversion process from the image shift amount to the defocus amount. 焦点検出領域を説明する図である。It is a figure explaining a focus detection area. 実施例1の焦点検出領域の設定処理を説明するフローチャートである。6 is a flowchart for describing focus detection region setting processing according to the first exemplary embodiment. 本実施例における焦点検出処理を説明するフローチャートである。It is a flowchart explaining the focus detection process in a present Example. 本実施例の焦点制御処理を説明するフローチャートである。It is a flowchart explaining the focus control process of a present Example. 焦点検出領域を説明する図である。It is a figure explaining a focus detection area. 実施例2における焦点検出領域の設定処理を説明する図である。FIG. 10 is a diagram illustrating focus detection region setting processing in the second embodiment.

本実施形態について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照番号を付し、重複する説明は省略する。
(実施例1)
図1は、本実施例の撮像装置の構成例を示す図である。撮像装置100は、被写体を撮影して、動画や静止画のデータをテープや固体メモリ、光ディスクや磁気ディスクなどの各種メディアに記録可能なビデオカメラやデジタルスチルカメラなどであるが、これらに限定されるものではない。撮像装置100内の各ユニットは、バス160を介して接続されている。また各ユニットは、メインCPU151(中央演算処理装置)により制御される。
This embodiment will be described in detail with reference to the drawings. In each figure, the same members are denoted by the same reference numerals, and redundant description is omitted.
Example 1
FIG. 1 is a diagram illustrating a configuration example of the imaging apparatus according to the present embodiment. The imaging apparatus 100 is a video camera or a digital still camera that can shoot a subject and record moving image or still image data on various media such as a tape, a solid-state memory, an optical disk, and a magnetic disk, but is not limited thereto. It is not something. Each unit in the imaging apparatus 100 is connected via a bus 160. Each unit is controlled by a main CPU 151 (central processing unit).

撮像装置100は、一つのマイクロレンズを共有する複数の光電変換素子を備えた撮像素子を用いて位相差方式の焦点検出を行う焦点検出装置を搭載している。すなわち、この撮像素子は、一つのマイクロレンズに対して撮像光学系の射出瞳の分割された異なる領域を通過した光束を光電変換して画像信号を生成する第1、第2の光電変換部を有する画素部を備える。なお、本実施例の焦点検出装置は、撮像光学系(撮影レンズ)を介して得られた光学像を取得可能に構成された撮像装置(撮像装置本体)と、撮像装置本体に着脱可能な撮像光学系とを備えて構成された撮像システムに適用される。ただし、本実施例は、これに限定されるものではなく、撮像光学系が一体的に設けられた撮像装置にも適用可能である。   The imaging apparatus 100 is equipped with a focus detection apparatus that performs phase difference type focus detection using an imaging element including a plurality of photoelectric conversion elements sharing one microlens. That is, the imaging device includes first and second photoelectric conversion units that generate image signals by photoelectrically converting light beams that have passed through different regions of the exit pupil of the imaging optical system with respect to one microlens. Having a pixel portion. The focus detection apparatus of the present embodiment includes an imaging apparatus (imaging apparatus body) configured to be able to acquire an optical image obtained via an imaging optical system (imaging lens), and an imaging device that can be attached to and detached from the imaging apparatus body. The present invention is applied to an imaging system that includes an optical system. However, the present embodiment is not limited to this, and can be applied to an imaging apparatus in which an imaging optical system is integrally provided.

撮影レンズ101(レンズユニット)は、固定1群レンズ102、ズームレンズ111、絞り103、固定3群レンズ121、および、フォーカスレンズ131を備えて構成される。絞り制御部105は、メインCPU151の指令に従い、絞りモータ104を介して絞り103を駆動することにより、絞り103の開口径を調整して撮影時の光量調節を行う。   The photographing lens 101 (lens unit) includes a fixed first group lens 102, a zoom lens 111, a diaphragm 103, a fixed third group lens 121, and a focus lens 131. The diaphragm control unit 105 adjusts the light amount at the time of shooting by adjusting the aperture diameter of the diaphragm 103 by driving the diaphragm 103 via the diaphragm motor 104 in accordance with a command from the main CPU 151.

ズーム制御部113は、ズームモータ112を介してズームレンズ111を駆動することにより、焦点距離を変更する。また、フォーカス制御部133は、フォーカスモータ132を介してフォーカスレンズ131を駆動することにより、焦点調節状態を制御する。フォーカスレンズ131は、焦点調節用レンズである。フォーカスレンズ131は、図1では単レンズで簡略的に示されているが、通常複数のレンズで構成される。これらの光学部材(撮影レンズ101)を介して撮像素子141上に結像する被写体像は、撮像素子141により電気信号に変換される。   The zoom control unit 113 changes the focal length by driving the zoom lens 111 via the zoom motor 112. The focus control unit 133 controls the focus adjustment state by driving the focus lens 131 via the focus motor 132. The focus lens 131 is a focus adjustment lens. The focus lens 131 is simply illustrated as a single lens in FIG. A subject image formed on the image sensor 141 via these optical members (the photographing lens 101) is converted into an electric signal by the image sensor 141.

撮像素子141は、被写体像(光学像)を電気信号に光電変換を行う光電変換素子である。撮像素子141は、横方向にm画素、縦方向にn画素の受光素子のそれぞれに、後述のように二つの光電変換素子(受光領域)が配置されている。撮像素子141上に結像されて光電変換された画像は、撮像信号処理部142により画像信号(画像データ)として整えられる。   The imaging element 141 is a photoelectric conversion element that performs photoelectric conversion of a subject image (optical image) into an electrical signal. In the imaging device 141, two photoelectric conversion elements (light receiving regions) are arranged in each of the light receiving elements of m pixels in the horizontal direction and n pixels in the vertical direction as described later. An image formed on the imaging element 141 and subjected to photoelectric conversion is arranged as an image signal (image data) by the imaging signal processing unit 142.

位相差AF処理部135は、二つの光電変換素子(第1の光電変換素子、第2の光電変換素子)から個別に出力された画像信号(信号値)を用い、被写体からの光を分割して得られた像の分割方向における像ずれ量を検出(算出)する。つまり、位相差AF処理部135は、第1の光電変換素子および第2の光電変換素子のそれぞれから独立して得られた信号値を用いた相関演算を行って像ずれ量を算出する算出手段である。また、位相差AF処理部135は、検出した像ずれ量に基づいて撮影レンズ101のピント方向のずれ量(デフォーカス量)を算出するデフォーカス量算出手段である。なお、本発明の適用範囲は、撮像素子が備える光電変換素子が二つである場合に限定されない。本発明は、撮像素子が、2以上の任意の個数の光電変換素子を備える場合に適用可能である。   The phase difference AF processing unit 135 uses image signals (signal values) individually output from two photoelectric conversion elements (first photoelectric conversion element and second photoelectric conversion element) to divide light from the subject. An image shift amount in the division direction of the obtained image is detected (calculated). In other words, the phase difference AF processing unit 135 performs a correlation operation using signal values obtained independently from each of the first photoelectric conversion element and the second photoelectric conversion element, and calculates an image shift amount. It is. The phase difference AF processing unit 135 is a defocus amount calculation unit that calculates a shift amount (defocus amount) in the focus direction of the photographing lens 101 based on the detected image shift amount. Note that the scope of application of the present invention is not limited to the case where there are two photoelectric conversion elements included in the imaging element. The present invention is applicable when the imaging device includes an arbitrary number of photoelectric conversion elements of two or more.

デフォーカス量は、像ずれ量に係数(換算係数)を掛けることにより算出される。なお、像ずれ量算出手段、デフォーカス量算出手段の各動作は、メインCPU151の指令に基づいて行われる。また、これらの動作の少なくとも一部をメインCPU151またはフォーカス制御部133で実行するように構成してもよい。また、位相差AF処理部135に送られる画像信号の領域は、メインCPU151によって決定される。   The defocus amount is calculated by multiplying the image shift amount by a coefficient (conversion coefficient). Each operation of the image shift amount calculation unit and the defocus amount calculation unit is performed based on a command from the main CPU 151. Further, at least a part of these operations may be executed by the main CPU 151 or the focus control unit 133. Further, the area of the image signal sent to the phase difference AF processing unit 135 is determined by the main CPU 151.

位相差AF処理部135は、算出されたずれ量(デフォーカス量)をフォーカス制御部133へ出力する。フォーカス制御部133は、撮影レンズ101のピント方向のずれ量に基づいてフォーカスモータ132を駆動する駆動量を決定する。フォーカス制御部133およびフォーカスモータ132によるフォーカスレンズ131の移動制御により、AF制御が実現される。本実施例の焦点検出装置は、上述したメインCPU151、撮像素子141、撮像信号処理部142、位相差AF処理部135によって実現される。   The phase difference AF processing unit 135 outputs the calculated shift amount (defocus amount) to the focus control unit 133. The focus control unit 133 determines a drive amount for driving the focus motor 132 based on the shift amount of the photographing lens 101 in the focus direction. AF control is realized by the movement control of the focus lens 131 by the focus control unit 133 and the focus motor 132. The focus detection apparatus of the present embodiment is realized by the main CPU 151, the image sensor 141, the image signal processor 142, and the phase difference AF processor 135 described above.

撮像信号処理部142から出力される画像データは、撮像制御部143に送られ、一時的にRAM(Random Access Memory)154に蓄積される。RAM154に蓄積された画像データは、画像圧縮解凍部153にて圧縮された後、画像記録媒体157に記録される。この処理と並行して、RAM154に蓄積された画像データは、画像処理部152に送られる。   Image data output from the imaging signal processing unit 142 is sent to the imaging control unit 143 and temporarily stored in a RAM (Random Access Memory) 154. The image data stored in the RAM 154 is compressed by the image compression / decompression unit 153 and then recorded on the image recording medium 157. In parallel with this processing, the image data stored in the RAM 154 is sent to the image processing unit 152.

画像処理部152は、第1の光電変換素子および第2の光電変換素子の加算信号を用いて得られた画像信号を処理する。画像処理部152は、例えば、画像データに対して最適なサイズへの縮小・拡大処理を行う。最適なサイズに処理された画像データは、モニタディスプレイ150に送られて画像表示される。したがって、操作者は、リアルタイムで撮影画像を観察することができる。なお、画像の撮影直後にはモニタディスプレイ150が所定時間だけ撮影画像を表示することで、操作者は撮影画像を確認することができる。また、メインCPU151は、一時的にRAM154に蓄積された画像データを参照し、撮影画角内の主被写体を検出する検出手段として機能する。メインCPU151は、例えば、公知の顔認識技術を用いて、顔領域を主被写体として検出する。   The image processing unit 152 processes an image signal obtained using the addition signal of the first photoelectric conversion element and the second photoelectric conversion element. For example, the image processing unit 152 performs reduction / enlargement processing to an optimum size for image data. The image data processed to the optimum size is sent to the monitor display 150 and displayed as an image. Therefore, the operator can observe the captured image in real time. Note that the monitor display 150 displays the captured image for a predetermined time immediately after the image is captured, so that the operator can check the captured image. The main CPU 151 functions as a detection unit that refers to the image data temporarily stored in the RAM 154 and detects the main subject within the shooting angle of view. The main CPU 151 detects a face area as a main subject using a known face recognition technique, for example.

操作部156(操作スイッチ)は、操作者が撮像装置100への指示を行うために用いられる。操作部156から入力された操作指示信号は、バス160を介してメインCPU151に送られる。バッテリ159は、電源管理部158により適切に管理され、撮像装置100の全体に安定した電源供給を行う。フラッシュメモリ155は、撮像装置100の動作に必要な制御プログラムを記憶している。操作者の操作により撮像装置100が起動すると(電源OFF状態から電源ON状態へ移行すると)、フラッシュメモリ155に格納された制御プログラムがRAM154の一部に読み込まれる(ロードされる)。メインCPU151は、RAM154にロードされた制御プログラムに従って撮像装置100の動作を制御する。   The operation unit 156 (operation switch) is used for an operator to give an instruction to the imaging apparatus 100. An operation instruction signal input from the operation unit 156 is sent to the main CPU 151 via the bus 160. The battery 159 is appropriately managed by the power management unit 158, and stably supplies power to the entire imaging apparatus 100. The flash memory 155 stores a control program necessary for the operation of the imaging apparatus 100. When the imaging apparatus 100 is activated by the operation of the operator (when the power supply is turned off from the power-off state), the control program stored in the flash memory 155 is read (loaded) into a part of the RAM 154. The main CPU 151 controls the operation of the imaging apparatus 100 according to a control program loaded in the RAM 154.

図2は、撮像装置の動作例を説明するフローチャートである。図2の各ステップは、メインCPU151の指示に基づいて行われる。
まず、撮像装置100の電源がONにされると、メインCPU151が演算(制御)を開始する(ステップS201)。続いて、撮像装置100のフラグや制御変数などを初期化する(ステップS202)。そして、メインCPU151は、フォーカスレンズ131などの光学部材(撮像光学部材)を初期位置に移動させる(ステップS203)。
FIG. 2 is a flowchart for explaining an operation example of the imaging apparatus. Each step in FIG. 2 is performed based on an instruction from the main CPU 151.
First, when the power of the imaging apparatus 100 is turned on, the main CPU 151 starts calculation (control) (step S201). Subsequently, the flags and control variables of the imaging apparatus 100 are initialized (step S202). Then, the main CPU 151 moves an optical member (imaging optical member) such as the focus lens 131 to the initial position (step S203).

次に、メインCPU151は、操作者により電源OFF操作が行われたか否か(電源OFF操作の有無)を判断する(ステップS204)。電源OFF操作が行われた場合は、処理がステップS205に進む。電源OFF操作が行われていない場合は、所定がステップS207に進む。ステップS205において、メインCPU151が、撮像装置100の電源をOFFにするため、撮像光学部材を初期位置へ移動し、各種フラグや制御変数のクリアなどの後処理を行う(ステップS205)。そして、撮像装置100の処理(制御)を終了する(ステップS206)。   Next, the main CPU 151 determines whether or not a power OFF operation has been performed by the operator (whether there is a power OFF operation) (step S204). If a power OFF operation has been performed, the process proceeds to step S205. If the power OFF operation has not been performed, the predetermined process proceeds to step S207. In step S205, the main CPU 151 moves the imaging optical member to the initial position and performs post-processing such as clearing various flags and control variables in order to turn off the power of the imaging apparatus 100 (step S205). Then, the processing (control) of the imaging device 100 is terminated (step S206).

一方、ステップS207において、メインCPU151が焦点検出処理を行う。続いてフォーカス制御部133が、ステップS207の焦点検出処理にて決定された駆動方向、速度、および、位置でフォーカスレンズ131を駆動し、フォーカスレンズ131を所望の位置に移動させる(ステップS208)。   On the other hand, in step S207, the main CPU 151 performs focus detection processing. Subsequently, the focus control unit 133 drives the focus lens 131 with the driving direction, speed, and position determined in the focus detection process of step S207, and moves the focus lens 131 to a desired position (step S208).

次に、ステップS209において、撮像素子141が被写体像を光電変換する(撮像処理)。また、撮像信号処理部142が、光電変換された被写体像に所定の処理(画像処理)を施して画像信号を出力する。   Next, in step S209, the image sensor 141 photoelectrically converts the subject image (imaging process). Further, the imaging signal processing unit 142 performs predetermined processing (image processing) on the subject image subjected to photoelectric conversion, and outputs an image signal.

次に、メインCPU151が、操作者により記録ボタン(操作部156)の押下がなされたか否かを検出し、記録中であるか否かを判断する(ステップS210)。記録中でない場合には、処理がステップS204へ戻る。記録中である場合には、ステップS211に進む。ステップS211において、撮像信号処理部142から出力された画像信号(画像データ)は、画像圧縮解凍部153により圧縮処理され、画像記録媒体157に記録される。そして、処理がステップS204へ戻り、上述の各ステップを繰り返す。   Next, the main CPU 151 detects whether or not the recording button (operation unit 156) has been pressed by the operator, and determines whether or not recording is in progress (step S210). If not, the process returns to step S204. If recording is in progress, the process proceeds to step S211. In step S <b> 211, the image signal (image data) output from the imaging signal processing unit 142 is compressed by the image compression / decompression unit 153 and recorded on the image recording medium 157. Then, the process returns to step S204, and the above steps are repeated.

図3は、撮像素子の構成例を説明する図である。
図3を参照して、本実施例における位相差検出方法について説明する。図3(A)は、瞳分割機能を有する撮像素子141の画素の構成(断面)を示す。光電変換素子30は、一画素につき二つの光電変換素子30−1(第1の光電変換素子)および光電変換素子30−2(第2の光電変換素子)に分割されており、瞳分割機能を有する。マイクロレンズ31(オンチップマイクロレンズ)は、光電変換素子30に効率よく光を集める機能を有し、光電変換素子30−1、30−2の境界に光軸が合うように配置されている。また、一つの画素の内部には、平坦化膜32、カラーフィルタ33、配線34、および、層間絶縁膜35が設けられている。
FIG. 3 is a diagram illustrating a configuration example of the image sensor.
With reference to FIG. 3, the phase difference detection method in a present Example is demonstrated. FIG. 3A shows a configuration (cross section) of a pixel of an image sensor 141 having a pupil division function. The photoelectric conversion element 30 is divided into two photoelectric conversion elements 30-1 (first photoelectric conversion element) and photoelectric conversion element 30-2 (second photoelectric conversion element) per pixel, and has a pupil division function. Have. The microlens 31 (on-chip microlens) has a function of efficiently collecting light on the photoelectric conversion element 30, and is arranged so that the optical axis is aligned with the boundary between the photoelectric conversion elements 30-1 and 30-2. Further, a planarizing film 32, a color filter 33, a wiring 34, and an interlayer insulating film 35 are provided inside one pixel.

図3(B)は、撮像素子141の一部の構成図(平面図)である。撮像素子141は、図3(A)に示される構成を有する一画素を複数配列することで形成される。また、撮像を行うため、各画素にはR(赤色)、G(緑色)、B(青色)のカラーフィルタ33が交互に配置され、四画素で一組の画素ブロック40、41、42を配列することで、所謂ベイヤー配列が構成されている。なお、図3(B)において、R、G、Bのそれぞれの下に示される「1」または「2」は、光電変換素子30−1、30−2のそれぞれを表す数値である。   FIG. 3B is a partial configuration diagram (plan view) of the image sensor 141. The imaging element 141 is formed by arranging a plurality of pixels each having the configuration shown in FIG. In order to capture an image, R (red), G (green), and B (blue) color filters 33 are alternately arranged in each pixel, and a set of pixel blocks 40, 41, and 42 is arranged with four pixels. As a result, a so-called Bayer array is formed. In FIG. 3B, “1” or “2” shown below each of R, G, and B is a numerical value that represents each of the photoelectric conversion elements 30-1 and 30-2.

図3(C)は、撮像素子141の光学原理図である。図3(C)には、図3(B)中のA−A線で切断して得られた断面の一部を示す。撮像素子141は、撮影レンズ101の予定結像面に配置されている。マイクロレンズ31の作用により、光電変換素子30−1、30−2は、それぞれ、撮影レンズ101の瞳(射出瞳)の異なる位置(領域)を通過した一対の光束を受光するように構成されている。光電変換素子30−1は、主に、撮影レンズ101の瞳のうち、図3(C)中の右側位置を透過する光束を受光する。一方、光電変換素子30−2は、主に、撮影レンズ101の瞳の図3(C)中の左側位置を透過する光束を受光する。   FIG. 3C is an optical principle diagram of the image sensor 141. FIG. 3C illustrates part of a cross section obtained by cutting along line AA in FIG. The image sensor 141 is disposed on the planned image plane of the photographic lens 101. Due to the action of the microlens 31, the photoelectric conversion elements 30-1 and 30-2 are configured to receive a pair of light beams that have passed through different positions (regions) of the pupil (exit pupil) of the photographing lens 101, respectively. Yes. The photoelectric conversion element 30-1 mainly receives a light beam that passes through the right position in FIG. On the other hand, the photoelectric conversion element 30-2 mainly receives a light flux that passes through the left position of the pupil of the photographing lens 101 in FIG.

図4は、撮像素子から見た場合の、撮影レンズの瞳を示す図である。瞳50は、光電変換素子30−1の感度領域(A像瞳)51−1と、光電変換素子30−2の感度領域(B像瞳)51−2とを有する。符号52−1、52−2は、それぞれ、A像瞳およびB像瞳の重心位置である。   FIG. 4 is a diagram illustrating the pupil of the photographing lens when viewed from the image sensor. The pupil 50 has a sensitivity region (A image pupil) 51-1 of the photoelectric conversion element 30-1 and a sensitivity region (B image pupil) 51-2 of the photoelectric conversion element 30-2. Reference numerals 52-1 and 52-2 represent barycentric positions of the A image pupil and the B image pupil, respectively.

撮像装置100は、同一画素において同一色のカラーフィルタが配置された二つの光電変換素子の出力を加算することにより、画像信号を生成することが可能である。また、撮像装置は、焦点検出処理を行う場合、一画素ブロック内における光電変換素子30−1に対応する光電変換素子からの出力を積算することにより、一画素の焦点検出信号を取得する。そして、撮像装置100は、この信号を画素ブロック40、41、42のように横方向に連続して取得することによりA像信号を生成することが可能である。   The imaging apparatus 100 can generate an image signal by adding the outputs of two photoelectric conversion elements in which color filters of the same color are arranged in the same pixel. In addition, when performing the focus detection process, the imaging apparatus acquires a focus detection signal of one pixel by integrating outputs from the photoelectric conversion elements corresponding to the photoelectric conversion elements 30-1 in one pixel block. Then, the imaging apparatus 100 can generate the A image signal by continuously acquiring this signal in the horizontal direction like the pixel blocks 40, 41, and 42.

同様に、撮像装置100は、一画素ブロック内における光電変換素子30−2に対応する光電変換素子からの出力を積算することにより、一画素の焦点検出信号を取得する。そして、撮像装置100は、この信号を横方向に連続して取得することによりB像信号を生成することが可能である。A像信号およびB像信号により、一対の位相差検出用信号が生成される。   Similarly, the imaging apparatus 100 acquires a focus detection signal for one pixel by integrating outputs from the photoelectric conversion elements corresponding to the photoelectric conversion element 30-2 in one pixel block. The imaging apparatus 100 can generate a B image signal by continuously acquiring this signal in the horizontal direction. A pair of phase difference detection signals is generated from the A image signal and the B image signal.

図5は、A像信号およびB像信号を説明する図である。この例では、A像信号とB像信号とをまとめて「像信号」とも記述する。図5において、縦軸は像信号のレベル、横軸は画素位置をそれぞれ示している。また、図5中のグラフ曲線W1はA像信号、グラフ曲線W2はB像信号をそれぞれ示している。生成した一対の位相差検出用信号の像ずれ量Xは、撮影レンズ101の結像状態(合焦状態、前ピン状態、または、後ピン状態)に応じて変化する。撮影レンズ101が合焦状態の場合、二つの像信号の像ずれ量は無くなる。一方、前ピン状態または後ピン状態の場合、異なる方向の像ずれ量が生じる。また像ずれ量は、撮影レンズ101により被写体像が結像している位置とマイクロレンズ上面との距離、いわゆるデフォーカス量と一定の関係を有する。   FIG. 5 is a diagram for explaining the A image signal and the B image signal. In this example, the A image signal and the B image signal are collectively described as an “image signal”. In FIG. 5, the vertical axis indicates the level of the image signal, and the horizontal axis indicates the pixel position. In FIG. 5, a graph curve W1 indicates an A image signal, and a graph curve W2 indicates a B image signal. The image shift amount X of the generated pair of phase difference detection signals changes according to the imaging state (focused state, front pin state, or rear pin state) of the photographic lens 101. When the photographing lens 101 is in focus, the image shift amount between the two image signals is eliminated. On the other hand, in the front pin state or the rear pin state, image shift amounts in different directions occur. The image shift amount has a fixed relationship with the distance between the position where the subject image is formed by the photographing lens 101 and the upper surface of the microlens, the so-called defocus amount.

図6は、相関演算を説明する図である。
メインCPU151は、焦点検出領域に対応する第1、第2の光電変換部から、それぞれ、第1の像、第2の像を取得する。この例では、第1の像に係る像信号をA像信号、第2の像に係る像信号をB像信号とする。メインCPU151は、第2の像をシフトさせながら、第1の像と第2の像とを比較する。これにより、メインCPU151は、2像の相関値を算出し、算出された相関値に基づいて、当該2像の像ずれ量を算出する。メインCPU151は、相関値が最大になる位置同士の差を像ずれ量として算出する。したがって、相関演算には、二つの像信号を比較し、相関値を算出するための画素数と、シフト量分の画素数の和の画素数が必要である。以下では、相関値を算出するための画素の範囲を基準範囲と記述する。また、シフト量分の画素の範囲を探索範囲と記述する。
FIG. 6 is a diagram for explaining the correlation calculation.
The main CPU 151 obtains a first image and a second image from the first and second photoelectric conversion units corresponding to the focus detection area, respectively. In this example, an image signal related to the first image is an A image signal, and an image signal related to the second image is a B image signal. The main CPU 151 compares the first image with the second image while shifting the second image. Thereby, the main CPU 151 calculates a correlation value between the two images, and calculates an image shift amount between the two images based on the calculated correlation value. The main CPU 151 calculates a difference between positions at which the correlation value is maximized as an image shift amount. Therefore, the correlation calculation requires the number of pixels for comparing two image signals and calculating the correlation value and the sum of the number of pixels corresponding to the shift amount. Hereinafter, the pixel range for calculating the correlation value is referred to as a reference range. A pixel range corresponding to the shift amount is described as a search range.

メインCPU151は、算出された像ずれ量に基づいて、撮影レンズ101のデフォーカス量を求める。そして、メインCPU151は、求めたデフォーカス量に基づいて、撮影レンズ101が合焦状態になるようなレンズ駆動量を算出し、算出したレンズ駆動量にしたがって焦点調節を行う。   The main CPU 151 determines the defocus amount of the taking lens 101 based on the calculated image shift amount. Then, the main CPU 151 calculates a lens driving amount that brings the photographing lens 101 into a focused state based on the obtained defocus amount, and performs focus adjustment according to the calculated lens driving amount.

図7は、相関演算により算出された像ずれ量からデフォーカス量への変換処理の例を説明する図である。
図7(A)は、撮影レンズ101および撮像素子141を含む光学系を示す。被写体70に対する予定結像面の位置p0の光軸OA上に、焦点検出面の位置p1がある。図7(B)は、焦点検出面の位置p1での像信号である。像ずれ量とデフォーカス量との関係は、光学系に応じて決定される。
FIG. 7 is a diagram for explaining an example of conversion processing from the image shift amount calculated by the correlation calculation to the defocus amount.
FIG. 7A shows an optical system including the photographing lens 101 and the image sensor 141. A focus detection surface position p1 is located on the optical axis OA at the position p0 of the planned imaging plane with respect to the subject 70. FIG. 7B shows an image signal at a position p1 on the focus detection surface. The relationship between the image shift amount and the defocus amount is determined according to the optical system.

デフォーカス量は、像ずれ量Xに所定の係数K(換算係数)を掛けることにより算出することができる。係数Kは、A像瞳とB像瞳との重心位置に基づいて算出される。焦点検出面の位置p1が位置p2に移動した場合、位置p0、q2、q3の三角形と位置p0、q2’、q3’との三角形の相似に従って、像ずれ量が変化する。したがって、焦点検出面の位置p2でのデフォーカス量を算出することが可能である。メインCPU151は、デフォーカス量に基づいて、被写体に対して合焦状態を得るためのフォーカスレンズ131の位置を算出する。   The defocus amount can be calculated by multiplying the image shift amount X by a predetermined coefficient K (conversion coefficient). The coefficient K is calculated based on the barycentric positions of the A image pupil and the B image pupil. When the position p1 of the focus detection surface moves to the position p2, the image shift amount changes according to the similarity between the triangles at the positions p0, q2, and q3 and the triangles at the positions p0, q2 ', and q3'. Therefore, it is possible to calculate the defocus amount at the position p2 on the focus detection surface. Based on the defocus amount, the main CPU 151 calculates the position of the focus lens 131 for obtaining a focused state with respect to the subject.

図8は、焦点検出領域を説明する図である。
焦点検出領域は、撮像素子の画素部から焦点検出に用いる画像信号を読み出す対象となる領域である。メインCPU151は、焦点検出領域から読み出された画像信号により得られる2像の像ずれ量に基づいて、焦点検出処理を実行する制御手段として機能する。
FIG. 8 is a diagram illustrating the focus detection area.
The focus detection area is an area from which an image signal used for focus detection is read from the pixel portion of the image sensor. The main CPU 151 functions as a control unit that executes focus detection processing based on the image shift amount of the two images obtained from the image signal read from the focus detection area.

図8に示す焦点検出領域81は、顔認識による検出枠に基づいて設定される。具体的には、メインCPU151が、焦点検出領域を、検出された主被写体(顔)の位置と大きさとに基づいて設定する。これにより、顔が検出されている場合に、撮像画角80中の顔の位置に対して、焦点検出を行うことが可能となる。   A focus detection area 81 shown in FIG. 8 is set based on a detection frame based on face recognition. Specifically, the main CPU 151 sets the focus detection area based on the position and size of the detected main subject (face). Thereby, when a face is detected, focus detection can be performed on the position of the face in the imaging angle of view 80.

図8(A)は、顔が小さく検出されている場合の焦点検出領域を示す。顔が小さく検出されている場合、被写体となる人物は、撮像装置から離れた位置にいることが想定されるので、確実に顔を捉えるように焦点検出領域を設定する必要がある。したがって、撮像装置は、焦点検出領域81の中心を、検出された顔の中心位置に合わせ、相関演算における基準領域82を顔枠と同様の大きさに設定する。   FIG. 8A shows a focus detection region when a face is detected small. When the face is detected small, it is assumed that the person who is the subject is at a position away from the imaging device, so it is necessary to set the focus detection area so as to capture the face reliably. Therefore, the imaging apparatus aligns the center of the focus detection area 81 with the center position of the detected face, and sets the reference area 82 in the correlation calculation to the same size as the face frame.

図8(B)は、顔が大きく検出されている場合の焦点検出領域を示す。顔が大きく検出されている場合、被写体となる人物は、撮像装置の近距離にいることが想定される。また、顔をアップで撮影する場合には、目に焦点を合わせるために、目を捉えるように焦点検出領域を設定する必要がある。したがって、撮像装置は、焦点検出領域81の中心を、検出された目の位置に合わせ、相関演算における基準領域82を小さく、探索領域83を大きく設定する。   FIG. 8B shows a focus detection area in the case where a large face is detected. When a large face is detected, it is assumed that the person who is the subject is at a short distance from the imaging apparatus. Further, when photographing a face up, it is necessary to set a focus detection area so as to catch the eye in order to focus on the eye. Therefore, the imaging apparatus sets the center of the focus detection area 81 to the detected eye position, sets the reference area 82 in the correlation calculation small, and sets the search area 83 large.

なお、撮像装置が、一画素の焦点検出信号を生成する際に、適切な範囲で縦方向にライン加算を行ってもよい。また、基準領域82、探索領域83を含む焦点検出領域81の大きさは、検出された顔の大きさによって可変となるが、上限、下限を設けるようにしてもよい。また、図8(A),(B)中に示すように、撮像画角80上において、複数の焦点検出領域を設定し、目あるいは顔に設けた焦点検出領域81の周囲に、補助となる焦点検出領域84を設定してもよい。また、本実施例は、右目に対する焦点検出領域の設定の説明を行ったが、左目に対しても同様である。   Note that when the imaging apparatus generates a focus detection signal for one pixel, line addition may be performed in the vertical direction within an appropriate range. The size of the focus detection area 81 including the reference area 82 and the search area 83 is variable depending on the size of the detected face, but an upper limit and a lower limit may be provided. Further, as shown in FIGS. 8A and 8B, a plurality of focus detection areas are set on the imaging angle of view 80, and the area around the focus detection area 81 provided on the eyes or the face is auxiliary. The focus detection area 84 may be set. In this embodiment, the setting of the focus detection area for the right eye has been described, but the same applies to the left eye.

図9は、実施例1の焦点検出領域の設定処理を説明するフローチャートである。図9の各ステップは、メインCPU151により実行される。
まず、焦点検出領域設定が開始される(ステップS901)。メインCPU151が、基準領域Srを200画素、探索領域Ssを100画素として、焦点検出領域の大きさの初期値を代入する(ステップS902)。
FIG. 9 is a flowchart illustrating the focus detection area setting process according to the first embodiment. Each step in FIG. 9 is executed by the main CPU 151.
First, focus detection area setting is started (step S901). The main CPU 151 substitutes the initial value of the size of the focus detection area with the reference area Sr as 200 pixels and the search area Ss as 100 pixels (step S902).

次に、メインCPU151が、顔検出処理の結果として、顔の検出位置Xf、顔の検出大きさSfを取得する(ステップS903)。なお、顔が複数検出されている場合には、顔認識の結果に基づき、主被写体となる顔に対して、位置と大きさを取得するようにする。そして、メインCPU151が、顔の大きさが所定値(閾値)より大きいか否かを判断する(ステップS904)。   Next, the main CPU 151 acquires a face detection position Xf and a face detection size Sf as a result of the face detection process (step S903). When a plurality of faces are detected, the position and size are acquired for the face that is the main subject based on the result of face recognition. Then, the main CPU 151 determines whether or not the face size is larger than a predetermined value (threshold value) (step S904).

顔の大きさSfが所定値より大きい場合、メインCPU151が、目の位置Xeを取得する(ステップS905)。そして、メインCPU151が、基準領域Srを100画素、探索領域Ssを200画素と設定し直す(ステップS906)。つまり、メインCPU151は、基準領域の範囲を、上記ステップS902で設定した範囲の大きさより小さく設定する。また、メインCPU151は、探索領域の範囲を、上記ステップS902で設定した範囲の大きさより大きく設定する。続いて、焦点検出領域をXe−(Sr+Ss)/2〜Xe+(Sr+Ss)/2の範囲に設定し(ステップS907)、処理を終了する(ステップS912)。   When the face size Sf is larger than the predetermined value, the main CPU 151 acquires the eye position Xe (step S905). Then, the main CPU 151 resets the reference area Sr to 100 pixels and the search area Ss to 200 pixels (step S906). That is, the main CPU 151 sets the range of the reference area to be smaller than the size of the range set in step S902. The main CPU 151 sets the range of the search area to be larger than the size of the range set in step S902. Subsequently, the focus detection area is set in a range of Xe− (Sr + Ss) / 2 to Xe + (Sr + Ss) / 2 (step S907), and the process is terminated (step S912).

一方、ステップ904の判断処理において、顔の大きさSfが所定値より小さい場合、メインCPU151が、基準領域Srを顔の大きさSfとする(ステップS908)。この例では、メインCPU151は、基準領域Srを顔の大きさと等しい大きさとするが、メインCPU151は、基準領域Srを顔の大きさ以上の大きさとしてもよい。続いて、メインCPU151が、基準領域Srが所定値より大きいか否かを判断する(ステップS909)。この例では、上記所定値を100画素とする。   On the other hand, if it is determined in step 904 that the face size Sf is smaller than the predetermined value, the main CPU 151 sets the reference area Sr as the face size Sf (step S908). In this example, the main CPU 151 sets the reference area Sr to a size equal to the face size, but the main CPU 151 may set the reference area Sr to a size larger than the face size. Subsequently, the main CPU 151 determines whether or not the reference area Sr is larger than a predetermined value (step S909). In this example, the predetermined value is 100 pixels.

基準領域Srが100画素以下である場合には、メインCPU151が、基準領域Srに100画素を代入する(ステップS910)。すなわち、メインCPU151は、基準領域を下限値に設定する。そして、処理がステップS911に進む。   When the reference area Sr is 100 pixels or less, the main CPU 151 substitutes 100 pixels for the reference area Sr (step S910). That is, the main CPU 151 sets the reference area to the lower limit value. Then, the process proceeds to step S911.

基準領域Srが100画素より大きい場合は、メインCPU151が、焦点検出領域をXf−(Sr+Ss)/2〜Xf+(Sr+Ss)/2の範囲に設定する(ステップS911)。すなわち、メインCPU151は、焦点検出領域の中心を顔の中心の位置に設定する。なお、本実施例中の数値は一例である。   When the reference area Sr is larger than 100 pixels, the main CPU 151 sets the focus detection area to a range of Xf− (Sr + Ss) / 2 to Xf + (Sr + Ss) / 2 (step S911). That is, the main CPU 151 sets the center of the focus detection area to the position of the center of the face. In addition, the numerical value in a present Example is an example.

図10は、本実施例における焦点検出処理を説明するフローチャートである。図10の各ステップは、メインCPU151、位相差AF処理部135およびフォーカス制御部133により実行され、図2中のステップS207に相当する。   FIG. 10 is a flowchart for explaining the focus detection process in this embodiment. Each step in FIG. 10 is executed by the main CPU 151, the phase difference AF processing unit 135, and the focus control unit 133, and corresponds to step S207 in FIG.

まず、焦点検出が開始される(ステップS1001)。続いて、メインCPU151が、図9を参照して説明した焦点検出領域の設定を行う(ステップS1002)。そして、撮像素子141が電荷を蓄積する(ステップS1003)。   First, focus detection is started (step S1001). Subsequently, the main CPU 151 sets the focus detection area described with reference to FIG. 9 (step S1002). Then, the image sensor 141 accumulates charges (step S1003).

次に、メインCPU151が、電荷の蓄積が完了したか否かを判断する(ステップS1004)。撮像素子141の電荷蓄積が完了していない場合は、処理がステップS1003に戻る。電荷の蓄積が完了した場合、メインCPU151が、図8に示される焦点検出領域81について、像信号の画素値読み出しを行う(ステップS1005)。   Next, the main CPU 151 determines whether or not charge accumulation has been completed (step S1004). If the charge accumulation of the image sensor 141 has not been completed, the process returns to step S1003. When the charge accumulation is completed, the main CPU 151 reads out the pixel value of the image signal for the focus detection area 81 shown in FIG. 8 (step S1005).

次に、メインCPU151が、焦点検出領域81にある所定画素数分の読み出しが完了したか否かを判断する(ステップS1006)。所定画素数分の読み出しが完了していない場合は、処理がステップS1005に戻る。所定画素数分の読み出しが完了した場合は、処理がステップS1007に進む。   Next, the main CPU 151 determines whether or not reading for a predetermined number of pixels in the focus detection area 81 has been completed (step S1006). If reading for the predetermined number of pixels has not been completed, the process returns to step S1005. If reading for a predetermined number of pixels is completed, the process advances to step S1007.

次に、フォーカス制御部133が、取得した像信号に対して前補正処理を行う(ステップS1007)。前補正処理は、読み出した像信号に対する補正処理と、平均化フィルタ、エッジ強調フィルタなどの像信号のフィルタ処理とを含む。   Next, the focus control unit 133 performs pre-correction processing on the acquired image signal (step S1007). The pre-correction processing includes correction processing for the read image signal and image signal filtering processing such as an averaging filter and an edge enhancement filter.

そして、メインCPU151が、相関演算を行い、相関が最も高くなるシフト量を算出する(ステップS1008)。具体的には、メインCPU151が、焦点検出領域81内のA像信号およびB像信号の画素をシフトさせながら相関値を演算し、相関値が最大になる位置同士の差を像ずれ量Xとして算出する。相関値を算出する際、二つの像信号を重ねて、それぞれ対応する信号同士を比較し、小さい方の値の累積を取得する。なお、大きい方の値の累積を取得してもよい。また、これらの値の差分を取得してもよい。累積は、相関を指し示す指標となり、小さい方の値の累積を取得した場合には、この値が最も大きいときが相関の高いときである。   Then, the main CPU 151 performs a correlation calculation to calculate a shift amount at which the correlation is the highest (step S1008). Specifically, the main CPU 151 calculates the correlation value while shifting the pixels of the A image signal and the B image signal in the focus detection area 81, and the difference between the positions where the correlation value is maximized is set as the image shift amount X. calculate. When calculating the correlation value, the two image signals are overlapped, the corresponding signals are compared with each other, and the accumulation of the smaller value is obtained. The accumulation of the larger value may be acquired. Moreover, you may acquire the difference of these values. Accumulation is an index indicating correlation, and when the accumulation of the smaller value is acquired, the largest value is when the correlation is high.

なお、大きい方の値の累積を取得した場合、または差分を取得した場合、この値が最も小さいときが相関の高いときとなる。相関が最も高くなるシフト量を算出した後、そのシフト量と前後のシフト量での相関値を用いて、補間演算を行い、1シフト以内の補間値を算出する。このシフト量と補間値との和が像ずれ量Xとなる。このように、像ずれ量算出手段としてのメインCPU151、フォーカス制御部133、または、位相差AF処理部135は、第1の光電変換素子および第2の光電変換素子のそれぞれから独立して得られた信号値を用いた相関演算を行って像ずれ量を算出する。   When the accumulation of the larger value is acquired or when the difference is acquired, the time when this value is the smallest is the time when the correlation is high. After calculating the shift amount with the highest correlation, an interpolation operation is performed using the correlation value between the shift amount and the preceding and subsequent shift amounts, and an interpolation value within one shift is calculated. The sum of the shift amount and the interpolation value is the image shift amount X. As described above, the main CPU 151, the focus control unit 133, or the phase difference AF processing unit 135 as the image shift amount calculation unit is obtained independently from each of the first photoelectric conversion element and the second photoelectric conversion element. An image shift amount is calculated by performing correlation calculation using the obtained signal values.

次に、メインCPU151が、算出した像ずれ量Xの信頼性を評価する(ステップS1009)。信頼性は、像信号のコントラストや二つの像信号の一致度などに基づいて算出される。続いて、メインCPU151が、信頼性が所定の閾値よりも大きいか、つまり信頼性できる像ずれ量Xが得られたか否かを判断する(ステップS1010)。信頼性が閾値よりも大きい場合は、メインCPU151が、ずれ量Xに補正後の係数Kを掛けることにより(Def=K×Xの関係式により)、デフォーカス量Defを算出する(ステップS1011)。そして、焦点検出処理を終了する。信頼性が閾値以下である場合、つまり信頼性のある像ずれ量を検出できなかった場合は、メインCPU151は焦点検出を行わない。   Next, the main CPU 151 evaluates the reliability of the calculated image shift amount X (step S1009). The reliability is calculated based on the contrast of the image signal, the degree of coincidence between the two image signals, and the like. Subsequently, the main CPU 151 determines whether or not the reliability is greater than a predetermined threshold value, that is, whether or not the reliable image shift amount X has been obtained (step S1010). When the reliability is larger than the threshold, the main CPU 151 calculates the defocus amount Def by multiplying the deviation amount X by the corrected coefficient K (by the relational expression Def = K × X) (step S1011). . Then, the focus detection process ends. When the reliability is equal to or lower than the threshold value, that is, when a reliable image shift amount cannot be detected, the main CPU 151 does not perform focus detection.

図11は、本実施例の焦点制御処理を説明するフローチャートである。
焦点制御方法が開始されると、メインCPU151が、所定の演算を行う。そして、フォーカス制御部133が、メインCPU151の指示にしたがって、フォーカスモータ132の制御を行う。図11に示される各ステップは、メインCPU151およびフォーカス制御部133により実行され、図2中のステップS208に相当する。
FIG. 11 is a flowchart for explaining the focus control process of this embodiment.
When the focus control method is started, the main CPU 151 performs a predetermined calculation. Then, the focus control unit 133 controls the focus motor 132 in accordance with an instruction from the main CPU 151. Each step shown in FIG. 11 is executed by the main CPU 151 and the focus control unit 133, and corresponds to step S208 in FIG.

まず、焦点制御が開始される(ステップS1101)。続いて、フォーカス制御部133が、図10を参照して説明した焦点検出処理で算出されたデフォーカス量を取得する(ステップS1102)。そして、フォーカス制御部133が、デフォーカス量に基づいて、フォーカスレンズ131の駆動量(レンズ駆動量)を算出する(ステップS1103)。レンズ駆動量の算出には、レンズ駆動方向と速度の算出も含まれる。   First, focus control is started (step S1101). Subsequently, the focus control unit 133 acquires the defocus amount calculated in the focus detection process described with reference to FIG. 10 (step S1102). Then, the focus control unit 133 calculates a drive amount (lens drive amount) of the focus lens 131 based on the defocus amount (step S1103). Calculation of the lens driving amount includes calculation of the lens driving direction and speed.

次に、メインCPU151が、デフォーカス量の絶対値が所定値以下であるか否かを判断する(ステップS1104)。デフォーカス量の絶対値が所定値以下ではない場合は、メインCPU151が、フォーカスレンズ131の位置は合焦位置(合焦点)でないと判断して、処理がステップS1105に進む。そして、メインCPU151が、ステップS1103で算出されたレンズ駆動量に従って、フォーカスレンズ131を駆動して(ステップS1105)、処理が終了する。以後、図2に示されるフローチャートが示す処理に従って、焦点検出とフォーカスレンズ駆動を繰り返す。   Next, the main CPU 151 determines whether or not the absolute value of the defocus amount is equal to or less than a predetermined value (step S1104). If the absolute value of the defocus amount is not less than or equal to the predetermined value, the main CPU 151 determines that the position of the focus lens 131 is not the in-focus position (in-focus), and the process proceeds to step S1105. Then, the main CPU 151 drives the focus lens 131 according to the lens driving amount calculated in step S1103 (step S1105), and the process ends. Thereafter, focus detection and focus lens driving are repeated in accordance with the processing shown in the flowchart shown in FIG.

一方、デフォーカス量の絶対値が所定値以下である場合は、メインCPU151が、フォーカスレンズ位置は合焦点にあると判断する。そして、メインCPU151が、レンズ駆動を停止し(ステップS1106)、ステップS1107に進む。以後、図2に示されるフローチャートが示すに従って焦点検出を行い、デフォーカス量が再び所定値を超えた場合にはフォーカスレンズ131を駆動する。   On the other hand, when the absolute value of the defocus amount is equal to or less than the predetermined value, the main CPU 151 determines that the focus lens position is in focus. Then, the main CPU 151 stops lens driving (step S1106) and proceeds to step S1107. Thereafter, focus detection is performed according to the flowchart shown in FIG. 2, and when the defocus amount again exceeds a predetermined value, the focus lens 131 is driven.

以上のように、本実施例の焦点検出装置を備える撮像装置は、撮像画角に顔が検出されている場合、顔の位置に合わせて焦点検出領域(基準領域、探索領域)を設定する。これにより、主被写体となる顔が撮像画角中のどの位置にいても、焦点検出を行うことが可能となり、主被写体に対して、位相差AFの結果を用いることにより、焦点調節の高速化が可能である。また、顔の大きさに応じて、基準領域、探索領域の大きさを可変とすることにより、顔が小さい場合には、顔を焦点検出領域として、顔が大きい場合には、目を焦点検出領域として撮影状況に応じて適応的に切り替えることが可能である。   As described above, the imaging apparatus including the focus detection apparatus according to the present exemplary embodiment sets the focus detection area (reference area and search area) according to the face position when a face is detected at the imaging angle of view. As a result, focus detection can be performed at any position in the imaging angle of view of the face as the main subject, and the speed of focus adjustment can be increased by using the phase difference AF result for the main subject. Is possible. In addition, by changing the size of the reference area and the search area according to the size of the face, the face is the focus detection area when the face is small, and the focus of the eyes is detected when the face is large. The area can be switched adaptively according to the shooting situation.

(実施例2)
実施例2では、撮像装置が、顔検出枠の位置、大きさおよび検出された顔の目の間隔に基づいて、焦点検出領域を設定する。なお、実施例2において、実施例1と同一の内容については、同一の符号を用いてその説明を省略する。
(Example 2)
In the second embodiment, the imaging apparatus sets the focus detection region based on the position and size of the face detection frame and the detected eye distance of the face. In the second embodiment, the same contents as those in the first embodiment are denoted by the same reference numerals and the description thereof is omitted.

前述した図9中のステップS904では、顔の大きさSfが所定よりも大きい場合は、右目あるいは左目の位置に焦点検出領域の位置を合わせ、探索領域Ssを大きくとるように設定される。しかし、例えば図12(A)に示すように、顔の大きさが所定よりも大きい場合でも、検出された顔の大きさによっては、一方の目の焦点検出領域がもう一方の目にかかってしまう場合がある。メインCPU151がこの焦点検出領域に対して相関演算を行うと、相関の対象が右目か左目か分からなくなってしまう。そこで、実施例2では、第1の目に焦点検出領域の中心を設定すると焦点検出領域が第2の目にかかってしまう場合には、メインCPU151が以下の処理を実行する。メインCPU151は、図12(B)に示すように、第1、第2の目の双方が焦点検出領域に入るように基準領域82を再設定するとともに、焦点検出領域の中心を検出された顔に合わせる。   In step S904 in FIG. 9 described above, when the face size Sf is larger than a predetermined value, the position of the focus detection area is aligned with the position of the right eye or the left eye, and the search area Ss is set to be large. However, as shown in FIG. 12A, for example, even when the face size is larger than a predetermined size, the focus detection area of one eye covers the other eye depending on the size of the detected face. May end up. When the main CPU 151 performs a correlation calculation on this focus detection area, it is not known whether the target of correlation is the right eye or the left eye. Therefore, in the second embodiment, when the center of the focus detection area is set to the first eye, the main CPU 151 executes the following process when the focus detection area covers the second eye. As shown in FIG. 12B, the main CPU 151 resets the reference area 82 so that both the first and second eyes enter the focus detection area, and the face in which the center of the focus detection area is detected. To match.

図13は、実施例2における焦点検出領域の設定処理を説明するフローチャートである。図13のステップS1301〜S1304は、図9のステップS901〜S904とそれぞれ同様である。   FIG. 13 is a flowchart illustrating focus detection region setting processing according to the second embodiment. Steps S1301 to S1304 in FIG. 13 are the same as steps S901 to S904 in FIG.

顔の大きさSfが所定値より大きい場合、ステップS1305において、メインCPU151が、右目の位置Xe1および左目の位置Xe2を取得する(ステップS1305)。なお、撮像画角80中、右方をXの正の方向とし、Xe2>Xe1とする。   When the face size Sf is larger than the predetermined value, in step S1305, the main CPU 151 obtains the right eye position Xe1 and the left eye position Xe2 (step S1305). In the imaging field angle 80, the right side is the positive direction of X, and Xe2> Xe1.

次に、メインCPU151が、基準領域Srを100画素、探索領域Ssを200画素に設定し直す(ステップS1306)。そして、メインCPU151が、右目の位置にあわせた焦点検出領域が左目を含んでいないかを判断する(ステップS1307)。具体的には、メインCPU151は、Xe1+(Sr+Ss)/2<Xe2 であるかを判断する。Xe1+(Sr+Ss)/2<Xe2 である場合は、メインCPU151が、右目の位置あわせた焦点検出領域が左目を含んでいないと判断し、処理がステップS1308に進む。Xe1+(Sr+Ss)/2≧Xe2 である場合は、メインCPU151が、右目の位置にあわせた焦点検出領域が左目を含んでいると判断し、処理がステップS1309に進む。   Next, the main CPU 151 resets the reference area Sr to 100 pixels and the search area Ss to 200 pixels (step S1306). Then, the main CPU 151 determines whether the focus detection area aligned with the position of the right eye includes the left eye (step S1307). Specifically, the main CPU 151 determines whether Xe1 + (Sr + Ss) / 2 <Xe2. If Xe1 + (Sr + Ss) / 2 <Xe2, the main CPU 151 determines that the focus detection area aligned with the right eye does not include the left eye, and the process advances to step S1308. If Xe1 + (Sr + Ss) / 2 ≧ Xe2, the main CPU 151 determines that the focus detection area aligned with the position of the right eye includes the left eye, and the process advances to step S1309.

ステップS1308において、メインCPU151が、焦点検出領域をXe−(Sr+Ss)/2〜Xe+(Sr+Ss)/2の範囲に設定し(ステップS1308)、処理を終了する(ステップS1315)。   In step S1308, the main CPU 151 sets the focus detection area in the range of Xe− (Sr + Ss) / 2 to Xe + (Sr + Ss) / 2 (step S1308), and the process ends (step S1315).

また、ステップS1309において、メインCPU151が、基準領域Srを(Xe2−Xe1)+α、探索領域Ssを150画素に再設定する(ステップS1309)。ここで、Xe2−Xe1は被写体となる顔の目の間隔を表しており、αは基準領域Srを目の間隔より少し大きめに設定するためのマージンである。続いて、メインCPU151が、焦点検出領域をXf−(Sr+Ss)/2〜Xf+(Sr+Ss)/2の範囲に再設定する(ステップS1314)。これにより、一方の目に中心を合わせると焦点検出領域がもう一方の目を含んでしまう場合に、目が2つとも入るように基準領域82を再設定し、焦点検出領域の中心を検出された顔に合わせることが可能となる。   In step S1309, the main CPU 151 resets the reference area Sr to (Xe2-Xe1) + α and the search area Ss to 150 pixels (step S1309). Here, Xe2-Xe1 represents the distance between the eyes of the face to be the subject, and α is a margin for setting the reference area Sr slightly larger than the distance between the eyes. Subsequently, the main CPU 151 resets the focus detection area to a range of Xf− (Sr + Ss) / 2 to Xf + (Sr + Ss) / 2 (step S1314). As a result, if the focus detection area includes the other eye when the center of one eye is aligned, the reference area 82 is reset so that both eyes enter, and the center of the focus detection area is detected. It is possible to match the face.

一方、ステップ1304において、顔の大きさSfが所定値より小さい場合において実行される処理(ステップS1311〜S1314の処理)は、図9のステップS908〜S911の処理とそれぞれ同様である。なお、本実施例中の数値は一例である。   On the other hand, the processing executed in step 1304 when the face size Sf is smaller than the predetermined value (the processing in steps S1311 to S1314) is the same as the processing in steps S908 to S911 in FIG. In addition, the numerical value in a present Example is an example.

この例では、顔検出時に目の位置も検出できるものとして説明を行ったが、これに限定されるものではなく、メインCPU151が、顔の大きさから目の位置を推定してもよい。また、メインCPU151が、得られる像信号から目の位置を推定してもよい。   In this example, the description has been given on the assumption that the eye position can also be detected at the time of face detection. However, the present invention is not limited to this, and the main CPU 151 may estimate the eye position from the size of the face. The main CPU 151 may estimate the eye position from the obtained image signal.

以上のように、本実施例では、検出された顔の目の間隔に基づいて焦点検出領域を設けることにより、相関演算の際の、相関の対象を明確にすることが可能である。   As described above, in this embodiment, by providing the focus detection area based on the detected distance between the eyes of the face, it is possible to clarify the correlation target in the correlation calculation.

上記各実施例において、主被写体は顔検出によって検出された顔とし、顔の位置、大きさに基づいて焦点検出領域を設定する方法について説明したが、これに限定されるものではない。例えば、ペットやその他の物体など、認識技術による被写体検出が可能であって、その位置、大きさが検出可能であれば、本発明は適用可能である。   In each of the above embodiments, a method has been described in which the main subject is a face detected by face detection, and the focus detection area is set based on the position and size of the face. However, the present invention is not limited to this. For example, the present invention can be applied if a subject such as a pet or other object can be detected by a recognition technique and its position and size can be detected.

上記各実施例によれば、二分割された光電変換部を用いて撮像および焦点検出が可能な焦点検出装置において、撮像画角に顔が検出されている場合、顔の位置、大きさ、あるいは目の間隔に合わせて焦点検出領域を設定する。これにより、主被写体となる顔が撮像画角中のどの位置にいても、焦点検出を行うことが可能となる。このため上記各実施例によれば、主被写体に対して焦点検出することが可能な焦点検出装置、撮像装置、撮像システム、および、焦点検出方法を提供することができる。   According to each of the above embodiments, in the focus detection device capable of imaging and focus detection using the two-divided photoelectric conversion unit, when a face is detected at the imaging angle of view, the position of the face, the size, or A focus detection area is set according to the interval between eyes. As a result, focus detection can be performed at any position in the imaging angle of view of the face that is the main subject. Therefore, according to each of the embodiments described above, it is possible to provide a focus detection device, an imaging device, an imaging system, and a focus detection method capable of performing focus detection on the main subject.

以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although the preferable Example of this invention was described, this invention is not limited to these Examples, A various deformation | transformation and change are possible within the range of the summary.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.

101 撮影レンズ
135 位相差AF処理部
151 CPU
101 Shooting Lens 135 Phase Difference AF Processing Unit 151 CPU

Claims (9)

一つのマイクロレンズに対して複数の光電変換素子を有し、当該マイクロレンズが2次元状に配置された撮像素子であって、画像信号を出力する撮像素子と、
撮影画角内の主被写体領域を検出する検出手段と、
焦点検出に用いる画像信号を取得する焦点検出領域を設定する設定手段と、
前記焦点検出領域の画像信号により得られる2像の像ずれ量に基づいて、焦点検出処理を実行する制御手段とを備え、
前記焦点検出領域は、前記2像の像ずれ量を算出する際の像のシフト量分の範囲である探索領域と、前記主被写体領域の位置と大きさに基づいて設定される基準領域とを含み、
前記主被写体領域の大きさが予め決められた大きさよりも大きい場合、前記探索領域は、前記予め決められた大きさ以下の場合よりも大く、前記基準領域は、前記予め決められた大きさ以下の場合よりも前記主被写体領域の大きさに対する比率が小さいことを特徴とする焦点検出装置。
An image sensor that has a plurality of photoelectric conversion elements for one microlens, and the microlens is two-dimensionally arranged, and outputs an image signal;
Detecting means for detecting a main subject area within a shooting angle of view;
Setting means for setting a focus detection region for acquiring an image signal used for focus detection;
Control means for executing a focus detection process based on an image shift amount of two images obtained from an image signal of the focus detection area;
The focus detection area includes a search area that is a range corresponding to an image shift amount when calculating an image shift amount between the two images, and a reference area that is set based on the position and size of the main subject area. Including
If the size of the main subject region is larger than the size that is determined in advance, the search region, the rather larger can than below the predetermined magnitude, the reference region size the predetermined A focus detection apparatus characterized in that a ratio with respect to the size of the main subject region is smaller than that in the case of the following .
前記制御手段は、前記撮像素子の第1、第2の光電変換部からの出力信号に基づいて、それぞれ、第1の像、第2の像を取得し、前記第2の像をシフトさせながら、前記第1の像と前記第2の像とを比較することで、前記2像の相関値を算出し、算出された相関値に基づいて、当該2像の像ずれ量を算出することを特徴とする請求項1に記載の焦点検出装置。   The control means acquires a first image and a second image based on output signals from the first and second photoelectric conversion units of the image sensor, and shifts the second image, respectively. The correlation value between the two images is calculated by comparing the first image with the second image, and the image shift amount between the two images is calculated based on the calculated correlation value. The focus detection apparatus according to claim 1, wherein 前記検出手段は、前記主被写体領域として顔領域を検出することを特徴とする請求項1または2に記載の焦点検出装置。 The focus detection apparatus according to claim 1, wherein the detection unit detects a face area as the main subject area . 前記設定手段は、前記検出された顔領域が予め決められた閾値より大きい場合には、前記焦点検出領域の中心を前記顔領域に含まれる目の位置に設定し、前記検出された顔領域が前記閾値より大きくない場合には、前記焦点検出領域の中心を前記顔領域の中心の位置に設定することを特徴とする請求項3に記載の焦点検出装置。   When the detected face area is larger than a predetermined threshold, the setting means sets the center of the focus detection area to the position of the eye included in the face area, and the detected face area 4. The focus detection apparatus according to claim 3, wherein when the threshold value is not larger than the threshold value, a center of the focus detection area is set to a center position of the face area. 前記設定手段は、前記検出された顔領域が閾値より大きくない場合には、前記焦点検出領域に含まれる前記基準領域の範囲を、前記顔領域の大きさ以上の大きさに設定することを特徴とする請求項3または4に記載の焦点検出装置。   The setting means sets the range of the reference area included in the focus detection area to a size larger than the size of the face area when the detected face area is not larger than a threshold value. The focus detection apparatus according to claim 3 or 4. 前記設定手段は、前記焦点検出領域の中心を第1の目の位置に設定すると当該焦点検出領域が第2の目を含む場合には、前記焦点検出領域の中心を前記顔領域の中心の位置に再設定するとともに、当該再設定される焦点検出領域に含まれる基準領域が前記第1、第2の目を含むように当該基準領域を再設定することを特徴とする請求項3乃至5のいずれか1項に記載の焦点検出装置。   When the setting means sets the center of the focus detection area to the position of the first eye, and the focus detection area includes the second eye, the center of the focus detection area is set to the position of the center of the face area. The reference area is reset so that the reference area included in the reset focus detection area includes the first and second eyes. The focus detection apparatus of any one of Claims. 撮像光学系の異なる瞳領域を通過した光束を光電変換して、一対の焦点検出用信号を出力することが可能な複数の画素を有する撮像素子と、
撮影画角内の主被写体領域を検出する検出手段と、
焦点検出に用いる画像信号を取得する焦点検出領域を設定する設定手段と、
前記焦点検出領域の画像信号により得られる2像の像ずれ量に基づいて、焦点検出処理を実行する制御手段とを備え、
前記焦点検出領域は、前記2像の像ずれ量を算出する際の像のシフト量分の範囲である探索領域と、前記主被写体領域の位置と大きさに基づいて設定される基準領域とを含み、
前記主被写体領域の大きさが予め決められた大きさよりも大きい場合、前記探索領域は、前記予め決められた大きさ以下の場合よりも大く、前記基準領域は、前記予め決められた大きさ以下の場合よりも前記主被写体領域の大きさに対する比率が小さいことを特徴とする焦点検出装置。
An imaging device having a plurality of pixels capable of photoelectrically converting a light beam that has passed through different pupil regions of the imaging optical system and outputting a pair of focus detection signals;
Detecting means for detecting a main subject area within a shooting angle of view;
Setting means for setting a focus detection region for acquiring an image signal used for focus detection;
Control means for executing a focus detection process based on an image shift amount of two images obtained from an image signal of the focus detection area;
The focus detection area includes a search area that is a range corresponding to an image shift amount when calculating an image shift amount between the two images, and a reference area that is set based on the position and size of the main subject area. Including
If the size of the main subject region is larger than the size that is determined in advance, the search region, the rather larger can than below the predetermined magnitude, the reference region size the predetermined A focus detection apparatus characterized in that a ratio with respect to the size of the main subject region is smaller than that in the case of the following .
一つのマイクロレンズに対して複数の光電変換素子を有し、当該マイクロレンズが2次元状に配置された撮像素子であって、画像信号を出力する撮像素子を備えた焦点検出装置の制御方法であって、
撮影画角内の主被写体領域を検出する検出工程と、
焦点検出に用いる画像信号を取得する焦点検出領域を設定する設定工程と、
前記焦点検出領域の画像信号により得られる2像の像ずれ量に基づいて、焦点検出処理を実行する制御工程とを備え、
前記焦点検出領域は、前記2像の像ずれ量を算出する際の像のシフト量分の範囲である探索領域と、前記主被写体領域の位置と大きさに基づいて設定される基準領域とを含み、
前記主被写体領域の大きさが予め決められた大きさよりも大きい場合、前記探索領域は、前記予め決められた大きさ以下の場合よりも大く、前記基準領域は、前記予め決められた大きさ以下の場合よりも前記主被写体領域の大きさに対する比率が小さいことを特徴とする焦点検出装置の制御方法。
A method of controlling a focus detection apparatus having an image sensor that has a plurality of photoelectric conversion elements for one microlens, and the microlens is two-dimensionally arranged and outputs an image signal. There,
A detection step of detecting a main subject area within a shooting angle of view;
A setting step for setting a focus detection region for acquiring an image signal used for focus detection;
A control step of performing a focus detection process based on an image shift amount of two images obtained from an image signal of the focus detection region,
The focus detection area includes a search area that is a range corresponding to an image shift amount when calculating an image shift amount between the two images, and a reference area that is set based on the position and size of the main subject area. Including
If the size of the main subject region is larger than the size that is determined in advance, the search region, the rather larger can than below the predetermined magnitude, the reference region size the predetermined A control method for a focus detection apparatus, wherein a ratio to the size of the main subject area is smaller than that in the case of the following .
撮像光学系の異なる瞳領域を通過した光束を光電変換して、一対の焦点検出用信号を出力することが可能な複数の画素を有する撮像素子を備えた焦点検出装置の制御方法であって、
撮影画角内の主被写体領域を検出する検出工程と、
焦点検出に用いる画像信号を取得する焦点検出領域を設定する設定工程と、
前記焦点検出領域の画像信号により得られる2像の像ずれ量に基づいて、焦点検出処理を実行する制御工程とを備え、
前記焦点検出領域は、前記2像の像ずれ量を算出する際の像のシフト量分の範囲である探索領域と、前記主被写体領域の位置と大きさに基づいて設定される基準領域とを含み、
前記主被写体領域の大きさが予め決められた大きさよりも大きい場合、前記探索領域は、前記予め決められた大きさ以下の場合よりも大く、前記基準領域は、前記予め決められた大きさ以下の場合よりも前記主被写体領域の大きさに対する比率が小さいことを特徴とする焦点検出装置の制御方法。
A method for controlling a focus detection apparatus including an imaging element having a plurality of pixels capable of photoelectrically converting a light beam that has passed through different pupil regions of an imaging optical system and outputting a pair of focus detection signals,
A detection step of detecting a main subject area within a shooting angle of view;
A setting step for setting a focus detection region for acquiring an image signal used for focus detection;
A control step of performing a focus detection process based on an image shift amount of two images obtained from an image signal of the focus detection region,
The focus detection area includes a search area that is a range corresponding to an image shift amount when calculating an image shift amount between the two images, and a reference area that is set based on the position and size of the main subject area. Including
If the size of the main subject region is larger than the size that is determined in advance, the search region, the rather larger can than below the predetermined magnitude, the reference region size the predetermined A control method for a focus detection apparatus, wherein a ratio to the size of the main subject area is smaller than that in the case of the following .
JP2013148473A 2013-07-17 2013-07-17 Focus detection apparatus and control method thereof Expired - Fee Related JP6347581B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013148473A JP6347581B2 (en) 2013-07-17 2013-07-17 Focus detection apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013148473A JP6347581B2 (en) 2013-07-17 2013-07-17 Focus detection apparatus and control method thereof

Publications (2)

Publication Number Publication Date
JP2015022058A JP2015022058A (en) 2015-02-02
JP6347581B2 true JP6347581B2 (en) 2018-06-27

Family

ID=52486584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013148473A Expired - Fee Related JP6347581B2 (en) 2013-07-17 2013-07-17 Focus detection apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP6347581B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101808257B1 (en) 2016-05-03 2017-12-13 액츠 주식회사 Apparatus and method for recognizing iris
WO2018063625A1 (en) * 2016-09-28 2018-04-05 Kla-Tencor Corporation Direct focusing with image binning in metrology tools

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4908668B2 (en) * 2000-04-19 2012-04-04 キヤノン株式会社 Focus detection device
JP2004317699A (en) * 2003-04-15 2004-11-11 Nikon Gijutsu Kobo:Kk Digital camera
JP4910462B2 (en) * 2006-04-14 2012-04-04 株式会社ニコン camera
US20090080876A1 (en) * 2007-09-25 2009-03-26 Mikhail Brusnitsyn Method For Distance Estimation Using AutoFocus Image Sensors And An Image Capture Device Employing The Same
JP5274307B2 (en) * 2009-03-02 2013-08-28 キヤノン株式会社 Imaging device
JP5593990B2 (en) * 2010-09-08 2014-09-24 リコーイメージング株式会社 Imaging system and pixel signal readout method
JP5615756B2 (en) * 2011-03-31 2014-10-29 富士フイルム株式会社 Imaging apparatus and imaging program
JP2013015807A (en) * 2011-06-09 2013-01-24 Nikon Corp Focus detector and imaging apparatus
JP6029309B2 (en) * 2011-06-22 2016-11-24 キヤノン株式会社 Focus detection device

Also Published As

Publication number Publication date
JP2015022058A (en) 2015-02-02

Similar Documents

Publication Publication Date Title
JP6033038B2 (en) FOCUS DETECTION DEVICE, IMAGING DEVICE, IMAGING SYSTEM, AND FOCUS DETECTION METHOD
CN107087099B (en) Image pickup apparatus, image reproducing apparatus, and control method thereof
JP6271952B2 (en) Imaging device
CN102884802B (en) Three-dimensional imaging device, and disparity image restoration method
JP6465562B2 (en) Imaging apparatus and imaging method
JP5469258B2 (en) Imaging apparatus and imaging method
JP5871989B2 (en) Imaging apparatus, imaging method, and program
US10313577B2 (en) Focus detection apparatus, focus detection method, and image capturing apparatus
US20170048510A1 (en) Imaging apparatus and method for controlling same
JP2019028403A (en) Focus adjustment device and method
JP2015087511A (en) Focus detector, control method for the same, control program and imaging apparatus
JP6347581B2 (en) Focus detection apparatus and control method thereof
US10382676B2 (en) Image display apparatus, image capturing apparatus, image display method, and storage medium
JP6395621B2 (en) Focus adjustment device, imaging device using the same, and focus adjustment method
US10003735B2 (en) Calculation device and image pickup device using calculation device and calculation method
JP5366693B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
US11394899B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium for generating viewpoint movement moving image
JP2016065989A (en) Focus detection device, focus detection method and program and imaging device
JP6740019B2 (en) Imaging device and control method thereof
US20240089597A1 (en) Image capturing apparatus for capturing and compositing images different in in-focus position, control method, and storage medium
JP2015043044A (en) Focus detection unit and control method therefor
JP2016122950A (en) Imaging apparatus
JP2017161571A (en) Detection device, imaging device, focus detection method, program and recording medium
JP2017016064A (en) Focus adjustment device, focus adjustment method, and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180501

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180529

R151 Written notification of patent or utility model registration

Ref document number: 6347581

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees