JP2014095733A - Image capturing device and control method therefor - Google Patents

Image capturing device and control method therefor Download PDF

Info

Publication number
JP2014095733A
JP2014095733A JP2012245309A JP2012245309A JP2014095733A JP 2014095733 A JP2014095733 A JP 2014095733A JP 2012245309 A JP2012245309 A JP 2012245309A JP 2012245309 A JP2012245309 A JP 2012245309A JP 2014095733 A JP2014095733 A JP 2014095733A
Authority
JP
Japan
Prior art keywords
phase difference
detection
reliability
image
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012245309A
Other languages
Japanese (ja)
Inventor
Hiroyasu Morita
浩康 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012245309A priority Critical patent/JP2014095733A/en
Priority to US14/067,391 priority patent/US20140125861A1/en
Publication of JP2014095733A publication Critical patent/JP2014095733A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image capturing device which performs generation of a display image and detection of phase difference using image signals read from a read-out region of an image sensor and is capable of preventing reduction in accuracy of focus detection which is done using the detected phase difference.SOLUTION: An image capturing device includes an image sensor with pixel units, each having a plurality of photo-electric conversion sections for one microlens. The image capturing device defines a read-out region from the pixel units, detects phase difference from image signals read from the region, and outputs reliability of the phase difference. The image capturing device assesses validity of the phase difference detection using the phase difference reliability. If the phase difference detection is valid, the image capturing device carries out a focus adjustment process using the detected phase difference and, if the phase difference detection is invalid, focuses a lens, which forms an optical image of an object on the image sensor, in accordance with the outputted phase difference reliability.

Description

本発明は、撮像装置および撮像装置の制御方法に関する。   The present invention relates to an imaging apparatus and a method for controlling the imaging apparatus.

撮像素子において、1つの画素の中にある、1つのマイクロレンズで集光されるフォトダイオード(PD)を分割することによって、位相差方式の焦点検出を行う技術が提案されている。特許文献1は、1つの画素の中のフォトダイオードを2つに分割し、分割された各々のフォトダイオードが、撮像レンズの異なる瞳面の光を受光するように構成されている撮像装置を開示する。この撮像装置は、2つのフォトダイオードの出力を比較することにより、撮像レンズでの焦点検出をする。   In the imaging device, a technique for performing phase difference type focus detection by dividing a photodiode (PD) focused by one microlens in one pixel has been proposed. Patent Document 1 discloses an imaging device in which a photodiode in one pixel is divided into two, and each of the divided photodiodes is configured to receive light from different pupil planes of the imaging lens. To do. This imaging device performs focus detection with an imaging lens by comparing the outputs of two photodiodes.

また、特定領域の読み出しが可能な撮像素子を持ち、撮像素子の全領域より小さな領域を読みだすことで、ズームレンズを用いることなく望遠側へズームさせる機能を持つ撮像装置が提案されている。特許文献2は、電子ズームと光学ズームとを組み合わせて制御することにより一方のみで行うよりも広いズーム範囲を実現する撮像装置を開示する。   In addition, an imaging apparatus has been proposed that has an image sensor that can read a specific area and has a function of zooming to a telephoto side without using a zoom lens by reading an area smaller than the entire area of the image sensor. Patent Document 2 discloses an imaging apparatus that realizes a zoom range wider than that performed by only one by controlling a combination of electronic zoom and optical zoom.

特開2001−083407号公報JP 2001-083407 A 特開2002−314868号公報JP 2002-314868 A

特許文献1の技術を特許文献2の技術に適用し、撮像素子の特定領域を読み出してズーム表示用の画像を生成するとともに、1つの画素の中に含まれる複数のPDを利用して位相差の焦点検出を行う撮像装置(以下、撮像装置Aと記述)が考えられる。しかし、撮像装置Aでは、以下のような問題がある。   Applying the technique of Patent Document 1 to the technique of Patent Document 2 to generate a zoom display image by reading a specific region of the image sensor and using a plurality of PDs included in one pixel An imaging apparatus (hereinafter, referred to as an imaging apparatus A) that performs the focus detection can be considered. However, the imaging apparatus A has the following problems.

図9は、撮像装置Aの動作処理を説明する図である。撮像装置が持つ1つの画素の中に含まれるPDを左右2つとした場合、各PDから左画像と右画像という2つの画像が得られる。図9(B)は、左画像ラインデータと右画像ラインデータを示す図である。   FIG. 9 is a diagram for explaining operation processing of the imaging apparatus A. When the left and right PDs included in one pixel of the imaging apparatus are two, two images, a left image and a right image, are obtained from each PD. FIG. 9B is a diagram showing left image line data and right image line data.

ここで、撮像装置Aが、図9(A)に示すとおり、撮像素子の全画角を読み出す場合、撮像素子上の座標(X1,Y)から(X4, Y)までのラインデータを利用して、位相差の算出をすることができる。しかし、撮像装置Aが、図9(C)に示すように、撮像素子の特定領域を読み出す場合、位相差の算出に利用できる領域は(X2,Y)から(X3, Y)の範囲に限定されるので、焦点検出精度が低下する。   Here, when the imaging apparatus A reads out the entire angle of view of the imaging device as shown in FIG. 9A, line data from coordinates (X1, Y) to (X4, Y) on the imaging device is used. Thus, the phase difference can be calculated. However, when the imaging apparatus A reads a specific area of the imaging element as shown in FIG. 9C, the area that can be used for calculating the phase difference is limited to the range from (X2, Y) to (X3, Y). As a result, the focus detection accuracy decreases.

本発明は、撮像素子の読み出し領域から読み出した画像信号に基づいて表示用画像の生成と位相差の検出を行う撮像装置であって、検出した位相差に基づく焦点検出の精度の低下を防止する撮像装置の提供を目的とする。   The present invention is an image pickup apparatus that generates a display image and detects a phase difference based on an image signal read from a read area of an image pickup element, and prevents a decrease in focus detection accuracy based on the detected phase difference. An object is to provide an imaging device.

本発明の一実施形態の撮像装置は、一つのマイクロレンズに対して撮像光学系の射出瞳の分割された異なる領域を通過した光束を光電変換して画像信号を生成する複数の光電変換部を有する画素部を備える撮像素子と、前記画素部から画像信号を読み出す領域である読み出し領域を設定する設定手段と、前記読み出し領域から読み出された画像信号に含まれる左画像信号と右画像信号との位相差の検出処理を行って、前記位相差の信頼度を出力する検出手段と、前記出力された前記位相差の信頼度に基づいて、前記位相差の検出が成功したかを判断する判断手段と、前記位相差の検出が成功したと判断された場合に、該検出された位相差に基づいて焦点調節処理を実行する調節手段と、被写体の光学像を前記撮像素子に結像させるレンズを駆動する駆動手段と、前記位相差の検出が失敗したと判断された場合に、前記検出手段が出力した前記位相差の信頼度に応じて、前記駆動手段に指示して前記レンズを絞る制御手段とを備える。   An imaging apparatus according to an embodiment of the present invention includes a plurality of photoelectric conversion units that generate an image signal by photoelectrically converting a light beam that has passed through different regions of an exit pupil of an imaging optical system with respect to one microlens. An image sensor including a pixel unit, a setting unit that sets a reading region that is a region for reading an image signal from the pixel unit, a left image signal and a right image signal included in the image signal read from the reading region, Detecting means for performing phase difference detection processing for outputting the reliability of the phase difference, and determining whether the detection of the phase difference is successful based on the output reliability of the phase difference And a lens for performing focus adjustment processing based on the detected phase difference when it is determined that the detection of the phase difference is successful, and a lens for forming an optical image of a subject on the imaging device. Drive And a driving unit that instructs the driving unit to squeeze the lens according to the reliability of the phase difference output by the detecting unit when it is determined that the detection of the phase difference has failed. Is provided.

本発明の撮像装置によれば、撮像素子の読み出し領域から読み出した画像信号に基づいて、表示用画像(例えば、ズーム表示用の画像)の生成と位相差の検出を行い、検出した位相差に基づく焦点検出の精度の低下を防止することが可能となる。   According to the imaging apparatus of the present invention, based on the image signal read from the readout area of the imaging device, a display image (for example, an image for zoom display) is generated and a phase difference is detected. It is possible to prevent a decrease in the accuracy of the focus detection based on it.

本実施形態の撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device of this embodiment. 撮像素子の構成例を概略的に示す図である。It is a figure which shows the structural example of an image pick-up element roughly. 画素アレイの例を示す図である。It is a figure which shows the example of a pixel array. 撮影レンズの射出瞳から出た光束が撮像素子に入射する様子を表した概念図である。It is the conceptual diagram showing a mode that the light beam which came out of the exit pupil of the imaging lens injects into an image pick-up element. 映像信号処理部の構成例を示す図である。It is a figure which shows the structural example of a video signal processing part. 実施例1の撮像装置の動作処理の例を説明するフローチャートである。3 is a flowchart illustrating an example of operation processing of the imaging apparatus according to the first embodiment. 読み出し領域の設定を説明する図である。It is a figure explaining the setting of a read-out area | region. 実施例2の撮像装置の動作処理の例を説明するフローチャートである。10 is a flowchart illustrating an example of operation processing of the imaging apparatus according to the second embodiment. 撮像装置の動作処理を説明する図である。It is a figure explaining the operation processing of an imaging device.

図1は、本実施形態の撮像装置の構成例を示す図である。撮像装置100が備える構成要素のうち、電源100は、撮像装置100内の各回路に電源供給を行う。カードスロット172は、メモリカード(着脱可能な記録媒体)173が差し込み可能に構成されている。メモリカード173をカードスロット172に差し込んだ状態で、メモリカード173は、カード入出力部171と電気的に接続する。本実施形態では、記録媒体としてメモリカード173を採用しているが、その他の記録媒体、例えば、ハードディスク、光ディスク、光磁気ディスク、磁気ディスク、その他の固体メモリを使用してもよい。   FIG. 1 is a diagram illustrating a configuration example of an imaging apparatus according to the present embodiment. Among the components included in the imaging apparatus 100, the power supply 100 supplies power to each circuit in the imaging apparatus 100. The card slot 172 is configured such that a memory card (detachable recording medium) 173 can be inserted. With the memory card 173 inserted into the card slot 172, the memory card 173 is electrically connected to the card input / output unit 171. In this embodiment, the memory card 173 is employed as the recording medium, but other recording media such as a hard disk, an optical disk, a magneto-optical disk, a magnetic disk, and other solid-state memories may be used.

撮像レンズ101は、被写体の光学像を撮像素子103に結像させる。レンズ駆動部141は、撮像レンズ101を駆動して、ズーム制御、フォーカス制御、絞り制御などを実行する。メカニカルシャッタ102は、シャッタ制御部142によって駆動され、露光制御を実行する。   The imaging lens 101 forms an optical image of the subject on the imaging element 103. The lens driving unit 141 drives the imaging lens 101 to execute zoom control, focus control, aperture control, and the like. The mechanical shutter 102 is driven by the shutter control unit 142 and executes exposure control.

撮像素子103は、CMOS撮像素子等で構成される光電変換手段である。撮像素子103は、撮像レンズ101、シャッタ102を有する撮像光学系で形成された被写体像を光電変換し、画像信号を出力する。   The image sensor 103 is a photoelectric conversion means configured by a CMOS image sensor or the like. The imaging element 103 photoelectrically converts a subject image formed by an imaging optical system having an imaging lens 101 and a shutter 102 and outputs an image signal.

図2は、本実施形態の撮像装置が適用する撮像素子の構成例を概略的に示す図である。図2(A)は、撮像素子の全体構成を示す。撮像素子103は、画素アレイ201と、画素アレイ201における行を選択する垂直選択回路202と、画素アレイ201における列を選択する水平選択回路204を含む。読み出し回路203は、画素アレイ201中の画素部のうち垂直選択回路202によって選択される画素部の信号を読み出す。読み出し回路203は、信号を蓄積するメモリ、ゲインアンプ、A(Analog)/D(Digital )変換器などを列毎に有する。   FIG. 2 is a diagram schematically illustrating a configuration example of an imaging element applied by the imaging apparatus of the present embodiment. FIG. 2A shows the overall configuration of the image sensor. The image sensor 103 includes a pixel array 201, a vertical selection circuit 202 that selects a row in the pixel array 201, and a horizontal selection circuit 204 that selects a column in the pixel array 201. The readout circuit 203 reads out the signal of the pixel portion selected by the vertical selection circuit 202 among the pixel portions in the pixel array 201. The reading circuit 203 includes a memory for storing signals, a gain amplifier, an A (Analog) / D (Digital) converter, and the like for each column.

シリアルインターフェース(SI)部205は、各回路の動作モードなどを、CPU131からの指示に従って決定する。垂直選択回路202は、画素アレイ201の複数の行を順次選択し、読み出し回路203に画素信号を取り出す。また水平選択回路204は、読み出し回路303によって読み出された複数の画素信号を列毎に順次選択する。垂直選択回路202と水平選択回路204の動作を適宜変更することにより、特定領域の読み出しを実現できる。なお、撮像素子103は、図2に示す構成要素以外に、例えば、垂直選択回路202、水平選択回路204、読み出し回路203等にタイミング信号を提供するタイミングジェネレータや、制御回路等が存在するが、これらの詳細な説明については省略する。   A serial interface (SI) unit 205 determines an operation mode of each circuit according to an instruction from the CPU 131. The vertical selection circuit 202 sequentially selects a plurality of rows in the pixel array 201 and extracts pixel signals to the readout circuit 203. The horizontal selection circuit 204 sequentially selects a plurality of pixel signals read by the reading circuit 303 for each column. By appropriately changing the operations of the vertical selection circuit 202 and the horizontal selection circuit 204, reading of a specific area can be realized. In addition to the components shown in FIG. 2, the image sensor 103 includes, for example, a timing generator that provides a timing signal to the vertical selection circuit 202, the horizontal selection circuit 204, the readout circuit 203, and a control circuit. Detailed description thereof will be omitted.

図2(B)は、撮像素子103の画素部の構成例を示す。図2(B)に示す画素部300は、光学素子としてのマイクロレンズ301と、受光素子としての複数のフォトダイオード(以下、PDと略記する)302a乃至302dとを有する。PDは、光束を受光し、当該光束を光電変換して画像信号を生成する光電変換部として機能する。なお、図2(B)に示す例では、1つの画素部が備えるPDの数は4個であるが、PDの数は、2個以上の任意の数であればよい。なお、画素部は、図示された構成要素以外にも、例えば、PDの信号を読み出し回路203に読み出すための画素増幅アンプ、行を選択する選択スイッチ、PDの信号をリセットするリセットスイッチなどを備える。   FIG. 2B illustrates a configuration example of a pixel portion of the image sensor 103. A pixel portion 300 illustrated in FIG. 2B includes a microlens 301 as an optical element and a plurality of photodiodes (hereinafter abbreviated as PD) 302a to 302d as light receiving elements. The PD functions as a photoelectric conversion unit that receives a light beam and photoelectrically converts the light beam to generate an image signal. Note that in the example illustrated in FIG. 2B, the number of PDs included in one pixel portion is four, but the number of PDs may be an arbitrary number of two or more. The pixel unit includes, in addition to the illustrated components, for example, a pixel amplification amplifier for reading a PD signal to the reading circuit 203, a selection switch for selecting a row, a reset switch for resetting the PD signal, and the like. .

PD302aおよびPD302cは、受光した光束を光電変換して左画像信号を出力する。PD302bおよびPD302dは、受光した光束を光電変換して右画像信号を出力する。すなわち、1つの画素部が備える複数のPDのうち、右側のPDが出力する画像信号が右画像信号であり、左側のPDが出力する画像信号が左画像信号である。   PD 302a and PD 302c photoelectrically convert the received light beam and output a left image signal. PD 302b and PD 302d photoelectrically convert the received light beam and output a right image signal. That is, among a plurality of PDs included in one pixel unit, an image signal output by the right PD is a right image signal, and an image signal output by the left PD is a left image signal.

本実施形態の撮像装置が、ユーザに立体画像を鑑賞させる構成をとる場合、左画像信号に対応する画像データは、ユーザが左目で鑑賞する左目用画像データとして機能する。また、右画像信号に対応する画像データは、ユーザが右目で鑑賞する右目用画像データとして機能する。撮像装置100が、左目用画像データをユーザに左目で鑑賞させ、右目用画像データをユーザに左目で鑑賞させるようにすれば、ユーザに立体画像を鑑賞させることができる。撮像装置が、複数のPDの出力を選択して加算するようにしてもよい。例えば、撮像装置が、PD302aとPD302c、PD302bとPD302dのPD出力を各々加算し、2つの出力としてもよい。なお、画素部300は、図示の構成要素以外にも、例えば、PD信号を読み出し回路303に取り出す画素増幅アンプや、行選択スイッチ、PD信号のリセットスイッチなどを備える。   When the imaging apparatus according to the present embodiment is configured to allow the user to view a stereoscopic image, the image data corresponding to the left image signal functions as left-eye image data that the user views with the left eye. The image data corresponding to the right image signal functions as right-eye image data that the user views with the right eye. If the imaging apparatus 100 allows the user to appreciate the left-eye image data with the left eye and causes the user to appreciate the right-eye image data with the left eye, the user can appreciate the stereoscopic image. The imaging apparatus may select and add the outputs of a plurality of PDs. For example, the imaging apparatus may add the PD outputs of PD 302a and PD 302c, PD 302b and PD 302d, and obtain two outputs. The pixel unit 300 includes, for example, a pixel amplification amplifier that extracts a PD signal to the readout circuit 303, a row selection switch, a PD signal reset switch, and the like in addition to the illustrated components.

図3は、画素アレイの例を示す図である。画素アレイ201は、2次元画像を提供するため、図3に示すように、水平方向にN個、垂直方向にM個の画素部を複数2次元アレイ状に配列して構成される。画素アレイ201の各画素部300は、カラーフィルタを有している。この例では、奇数行が、赤(R)と緑(G)のカラーフィルタの繰り返し、偶数行が、緑(G)と青(B)のカラーフィルタの繰り返しである。すなわち、画素アレイ301が備える画素部は、予め決められた画素配列(この例ではベイヤー配列)に従って配置されている。   FIG. 3 is a diagram illustrating an example of a pixel array. In order to provide a two-dimensional image, the pixel array 201 is configured by arranging a plurality of N pixel portions in the horizontal direction and a plurality of M pixel portions in the vertical direction as shown in FIG. Each pixel unit 300 of the pixel array 201 has a color filter. In this example, odd rows are repetitions of red (R) and green (G) color filters, and even rows are repetitions of green (G) and blue (B) color filters. That is, the pixel units included in the pixel array 301 are arranged according to a predetermined pixel arrangement (in this example, a Bayer arrangement).

次に、図3に示す画素構成を有する撮像素子の受光について説明する。図4は、撮影レンズの射出瞳から出た光束が撮像素子に入射する様子を表した概念図である。符号501は、3つの画素アレイの断面を示す。各々の画素アレイは、マイクロレンズ502、カラーフィルタ503、PD504、505を有する。PD504は、図2(B)中のPD302aに相当する。また、PD505は、図2(B)中のPD302bに相当する。   Next, light reception of the image sensor having the pixel configuration shown in FIG. 3 will be described. FIG. 4 is a conceptual diagram illustrating a state in which a light beam emitted from the exit pupil of the photographing lens enters the image sensor. Reference numeral 501 indicates a cross section of three pixel arrays. Each pixel array includes a microlens 502, a color filter 503, and PDs 504 and 505. The PD 504 corresponds to the PD 302a in FIG. The PD 505 corresponds to the PD 302b in FIG.

符号506は、撮影レンズの射出瞳である。この例では、マイクロレンズ502を有する画素部に対して、射出瞳506から出た光束の中心を光軸509とする。射出瞳506から出た光は、光軸509を中心として撮像素子103に入射される。符号507、508は、撮影レンズの射出瞳の一部領域を表す。一部領域507、508は、撮像光学系の射出瞳の分割された異なる領域である。   Reference numeral 506 denotes an exit pupil of the photographing lens. In this example, the center of the light beam emitted from the exit pupil 506 is defined as the optical axis 509 for the pixel portion having the microlens 502. Light emitted from the exit pupil 506 is incident on the image sensor 103 around the optical axis 509. Reference numerals 507 and 508 denote partial areas of the exit pupil of the photographing lens. The partial areas 507 and 508 are different areas obtained by dividing the exit pupil of the imaging optical system.

光線510、511は、一部領域507を通過する光の最外周の光線である。光線512、513は、一部領域508を通過する光の最外周の光線である。射出瞳から出る光束のうち、光軸509を境にして、上側の光束はPD505に入射され、下側の光束はPD504に入射される。つまり、PD504とPD505は、各々、撮影レンズの射出瞳に対する別の領域の光を受光するという特性を有する。   Light rays 510 and 511 are the outermost light rays of the light passing through the partial region 507. Light rays 512 and 513 are the outermost peripheral light rays of the light passing through the partial region 508. Out of the light beams emitted from the exit pupil, the upper light beam is incident on the PD 505 and the lower light beam is incident on the PD 504 with the optical axis 509 as a boundary. That is, the PD 504 and the PD 505 each have a characteristic of receiving light in a different region with respect to the exit pupil of the photographing lens.

この特性を生かして、撮像装置100は、視差のある少なくとも2つの画像を取得することができる。例えば、撮像装置100は、画素部内の領域において、複数の左側のPDから左画像信号を第1ラインとして取得し、複数の右側のPDから右画像信号を第2ラインとして取得する。そして、撮像装置100は、この2つの画像信号の位相差の検知を行なって位相差AF(オートフォーカス)を実現する。   Taking advantage of this characteristic, the imaging apparatus 100 can acquire at least two images having parallax. For example, the imaging apparatus 100 acquires a left image signal as a first line from a plurality of left PDs and acquires a right image signal as a second line from a plurality of right PDs in an area in the pixel unit. The imaging apparatus 100 detects the phase difference between the two image signals to realize phase difference AF (autofocus).

上述した説明から、撮像素子103は、一つのマイクロレンズに対して、各々が、撮像光学系の射出瞳の異なる領域を通過した光束を光電変換して画像信号を生成する複数のPDを有する画素部を、水平方向および垂直方向に並べて配置した撮像素子である。   From the above description, the imaging element 103 is a pixel having a plurality of PDs that generate an image signal by photoelectrically converting light beams that have passed through different areas of the exit pupil of the imaging optical system with respect to one microlens. This is an image sensor in which the units are arranged in the horizontal direction and the vertical direction.

図1に戻って、映像信号処理部121は、撮像素子103が出力した画像信号に基づいて、表示用の画像データを生成する。   Returning to FIG. 1, the video signal processing unit 121 generates image data for display based on the image signal output from the image sensor 103.

図5は、映像信号処理部の構成例を示す図である。映像信号処理部121は、位相差検出部601、画像加算部602、トリミング処理部603、現像処理部604を備える。位相差検出部601は、撮像素子103が有する画素部の読み出し領域から出力される左画像信号と右画像信号との間の位相差を検出し、検出結果をメモリ132に出力する。読み出し領域は、画素部から画像信号を読み出す領域である。   FIG. 5 is a diagram illustrating a configuration example of the video signal processing unit. The video signal processing unit 121 includes a phase difference detection unit 601, an image addition unit 602, a trimming processing unit 603, and a development processing unit 604. The phase difference detection unit 601 detects a phase difference between the left image signal and the right image signal output from the readout region of the pixel unit included in the image sensor 103 and outputs the detection result to the memory 132. The reading area is an area for reading an image signal from the pixel portion.

また、位相差検出部601は、算出した位相差の信頼性を出力する。位相差検出部601が、検出結果を、メモリ132でなく、位相差検出部601の内部メモリに出力するようにしてもよい。すなわち、位相差検出部601は、読み出し領域から読み出された画像信号に含まれる左画像信号と右画像信号との位相差を検出し、検出した位相差と該位相差の信頼度を出力する検出手段として機能する。具体的には、位相差検出部601は、設定された読み出し領域の水平方向1ライン分の画像信号に含まれる左画像信号と右画像信号との位相差を検出する。また、信頼度は、左画像信号と右画像信号との類似度に対応する。信頼度は、左画像信号と右画像信号との類似度が高いほど高い。   The phase difference detection unit 601 outputs the reliability of the calculated phase difference. The phase difference detection unit 601 may output the detection result to the internal memory of the phase difference detection unit 601 instead of the memory 132. That is, the phase difference detection unit 601 detects the phase difference between the left image signal and the right image signal included in the image signal read from the reading area, and outputs the detected phase difference and the reliability of the phase difference. It functions as a detection means. Specifically, the phase difference detection unit 601 detects the phase difference between the left image signal and the right image signal included in the image signal for one horizontal line in the set readout region. The reliability corresponds to the similarity between the left image signal and the right image signal. The reliability is higher as the similarity between the left image signal and the right image signal is higher.

画像加算部602は、右画像信号と左画像信号との加算合成を行い、1つの画像データとして出力する。トリミング処理部603は、画像加算部602が出力した画像データの一部を切り取る処理(トリミング処理)を実行する。現像処理部604は、トリミング処理部603が出力したトリミング処理結果(デジタル画像データ)に対して、ホワイトバランス、色補間、色補正、γ変換、エッジ強調、解像度変換、画像圧縮等の処理を実行する。これにより、表示用の画像データが生成される。   The image addition unit 602 performs addition synthesis of the right image signal and the left image signal and outputs the result as one image data. The trimming processing unit 603 executes processing (trimming processing) for cutting out part of the image data output from the image adding unit 602. The development processing unit 604 performs processing such as white balance, color interpolation, color correction, γ conversion, edge enhancement, resolution conversion, and image compression on the trimming processing result (digital image data) output from the trimming processing unit 603. To do. Thereby, image data for display is generated.

図1に戻って、メモリ132は、映像信号処理部121が出力する表示用の画像データを記憶する。また、メモリ132は、CPU105が各種処理を行う際にデータを一時的に記憶する。タイミングジェネレータ143は、撮像素子103、映像信号処理回路141にタイミングを提供する。バス150には、レンズ駆動部141、シャッタ駆動部142、撮像素子103、タイミングジェネレータ143、映像信号処理部121、CPU131、電源110、メモリ132、表示制御装置151が接続される。また、バス150には、メインスイッチ161、第1レリーズスイッチ162、第2レリーズスイッチ163、ライブビュー開始/終了ボタン164、AF開始/終了ボタン165、上下左右選択ボタン166、決定ボタン167、カード入出力部171が接続される。   Returning to FIG. 1, the memory 132 stores display image data output from the video signal processing unit 121. The memory 132 temporarily stores data when the CPU 105 performs various processes. The timing generator 143 provides timing to the image sensor 103 and the video signal processing circuit 141. To the bus 150, a lens driving unit 141, a shutter driving unit 142, an image sensor 103, a timing generator 143, a video signal processing unit 121, a CPU 131, a power supply 110, a memory 132, and a display control device 151 are connected. The bus 150 also includes a main switch 161, a first release switch 162, a second release switch 163, a live view start / end button 164, an AF start / end button 165, an up / down / left / right selection button 166, an enter button 167, a card input. An output unit 171 is connected.

CPU131は、撮像装置100全体を制御する。例えば、CPU131は、撮像素子103の画像信号読み出し処理、映像信号処理部121、メモリ132の動作タイミングを制御する。表示制御装置151は、液晶表示素子からなるTFT152、VIDEO出力端子153、HDMI端子の駆動および制御をする。また、表示制御装置151は、CPU131の指示にしたがって、メモリ132に記憶されている表示用画像データを、表示装置へ出力する。メモリ132内の表示用画像データ領域をVRAMと呼ぶ。表示制御装置151が、VRAMをTFT152に出力することを通じて、表示画像が更新される(表示更新処理が実行される)。   The CPU 131 controls the entire imaging apparatus 100. For example, the CPU 131 controls the operation timing of the image signal reading process of the image sensor 103, the video signal processing unit 121, and the memory 132. The display control device 151 drives and controls the TFT 152 made of a liquid crystal display element, the VIDEO output terminal 153, and the HDMI terminal. Further, the display control device 151 outputs the display image data stored in the memory 132 to the display device in accordance with an instruction from the CPU 131. The display image data area in the memory 132 is referred to as VRAM. The display control device 151 outputs the VRAM to the TFT 152, whereby the display image is updated (display update processing is executed).

ユーザが、メインスイッチ161をオンにすると、CPU131が、所定のプログラムを実行する。ユーザが、メインスイッチ161をオフにすると、CPU131が、所定のプログラムを実行し、カメラをスタンバイモードにする。   When the user turns on the main switch 161, the CPU 131 executes a predetermined program. When the user turns off the main switch 161, the CPU 131 executes a predetermined program and puts the camera into a standby mode.

第1レリーズスイッチ162は、レリーズボタンの第1ストローク(半押し状態)でオンとなる。第2レリーズスイッチ163は、レリーズボタンの第2ストローク(全押し状態)でオンとなる。また、CPU131は、上下左右選択ボタン166、設定ボタン167の押下と撮像装置100の動作状態に応じて制御を行う。ユーザは、ライブビュー中に、上下左右選択ボタン166でオートフォーカスの対象とする被写体を指定することができる。ユーザが、上下左右選択ボタン166と設定ボタン167を用いて、グラフィカルユーザインタフェースでの選択と設定を行うことで、ライブビュー撮影を通常モードとズームモードのいずれかに切り替え設定することができる。ズームモードに設定された場合のライブビュー撮影を、ズームライブビュー撮影と記述する。   The first release switch 162 is turned on at the first stroke (half-pressed state) of the release button. The second release switch 163 is turned on by the second stroke (fully pressed state) of the release button. In addition, the CPU 131 performs control according to pressing of the up / down / left / right selection button 166 and the setting button 167 and the operation state of the imaging apparatus 100. The user can specify a subject to be autofocused with the up / down / left / right selection buttons 166 during live view. The user can switch and set the live view shooting to either the normal mode or the zoom mode by performing selection and setting in the graphical user interface using the up / down / left / right selection button 166 and the setting button 167. Live view shooting when the zoom mode is set is described as zoom live view shooting.

ズームライブビュー撮影時には、映像信号処理部121には、撮像素子103の所定の読み出し領域から読み出された画像信号が映像信号処理部121に入力される。また、CPU131が、映像信号処理部121が出力する画像データを所定のズーム倍率にしたがって拡大処理し、表示用画像データとする。   During zoom live view shooting, an image signal read from a predetermined reading area of the image sensor 103 is input to the video signal processing unit 121 to the video signal processing unit 121. Further, the CPU 131 enlarges the image data output from the video signal processing unit 121 in accordance with a predetermined zoom magnification to obtain display image data.

ユーザがライブビュー開始/終了ボタン164を押すと、CPU131が、定期的(例えば1秒に30回)に撮像素子103から画像データを取り込み、VRAMへ配置する。これにより、リアルタイムに撮像素子103から取り込んだ画像を表示することができる。ライブビューが動作している状態で、ユーザがライブビュー開始/終了ボタン164を押すと、ライブビューが終了する。ユーザが、AF開始/終了ボタン165を押すと、撮像装置100がオートフォーカス動作を開始する。すなわち、AF開始/終了ボタン165は、自動焦点調節処理の実行開始を指示する指示手段として機能する。本実施形態の撮像装置の制御方法は、図1に示す撮像装置100が備える処理部の機能によって実現される。   When the user presses the live view start / end button 164, the CPU 131 periodically captures image data from the image sensor 103 (for example, 30 times per second) and arranges the image data in the VRAM. As a result, an image captured from the image sensor 103 can be displayed in real time. When the user presses the live view start / end button 164 while the live view is operating, the live view ends. When the user presses the AF start / end button 165, the imaging apparatus 100 starts an autofocus operation. That is, the AF start / end button 165 functions as an instruction unit that instructs the start of execution of the automatic focus adjustment process. The control method of the imaging apparatus of the present embodiment is realized by the function of the processing unit included in the imaging apparatus 100 illustrated in FIG.

(実施例1)
図6は、実施例1の撮像装置の動作処理の例を説明するフローチャートである。CPU131が、CPU131は、ライブビュー開始/終了ボタン164の押下を検知して、ズームライブビュー撮影を開始する(ステップS100)。続いて、CPU131が、読み出し領域を設定する設定手段として機能する(ステップS101)。
Example 1
FIG. 6 is a flowchart illustrating an example of operation processing of the imaging apparatus according to the first embodiment. The CPU 131 detects that the live view start / end button 164 has been pressed, and starts zoom live view shooting (step S100). Subsequently, the CPU 131 functions as a setting unit that sets a reading area (step S101).

図7は、読み出し領域の設定を説明する図である。図7(A)に示す左画像信号と右画像信号は、ステップS101において読み出し領域を設定する時の左画像信号と右画像信号である。図7(A)に示す例では、左画像信号と右画像信号との間の位相差が大きく、ピントが合っていない。   FIG. 7 is a diagram for explaining the setting of the readout area. The left image signal and the right image signal shown in FIG. 7A are the left image signal and the right image signal when the reading area is set in step S101. In the example shown in FIG. 7A, the phase difference between the left image signal and the right image signal is large, and the focus is not achieved.

図7(A)中の太線で囲まれた領域R1が、ステップS101において設定される読み出し領域である。読み出し領域R1は、撮像素子上の水平方向にX2からX3までの区間に対応する領域である。表示領域は、表示用データを生成するための領域である。本実施例では、表示領域は、読み出し領域R1と一致している。もちろん、表示領域は、読み出し領域R1に含まれ、かつ読み出し領域R1より小さい領域に設定してもよい。   A region R1 surrounded by a thick line in FIG. 7A is a read region set in step S101. The readout region R1 is a region corresponding to a section from X2 to X3 in the horizontal direction on the image sensor. The display area is an area for generating display data. In this embodiment, the display area coincides with the reading area R1. Of course, the display area may be set to an area included in the readout area R1 and smaller than the readout area R1.

次に、CPU131が、AF開始/終了ボタン165がONになったかを判断する(ステップS102)。AF開始/終了ボタン165がONになっていない場合は、再度ステップS102に戻る。   Next, the CPU 131 determines whether or not the AF start / end button 165 is turned on (step S102). If the AF start / end button 165 is not ON, the process returns to step S102 again.

AF開始/終了ボタン165は、焦点調節処理の開始を指示する指示手段として機能し、このボタンがONになったことは、自動焦点調節処理の実行開始が指示されたことを意味する。したがって、AF開始/終了ボタン165がONになった場合、位相差検出部601が、ステップS101で設定された読み出し領域から読み出された左画像信号と右画像信号との位相差を検出し、位相差とその信頼度を出力結果としてメモリ132に記憶する。そして、処理がステップS103に進む。   The AF start / end button 165 functions as an instruction means for instructing the start of the focus adjustment process. When this button is turned on, it means that the execution start of the automatic focus adjustment process has been instructed. Therefore, when the AF start / end button 165 is turned on, the phase difference detection unit 601 detects the phase difference between the left image signal and the right image signal read from the read area set in step S101, and The phase difference and its reliability are stored in the memory 132 as an output result. Then, the process proceeds to step S103.

ステップS103において、CPU131が、位相差検出部601の出力結果をメモリ132から読み出す(ステップS103)。位相差検出部601の出力結果は、図7(A)中の(X2,Y)から(X3,Y)の区間におけるラインデータから求められた位相差を含む。   In step S103, the CPU 131 reads the output result of the phase difference detection unit 601 from the memory 132 (step S103). The output result of the phase difference detection unit 601 includes the phase difference obtained from the line data in the section (X2, Y) to (X3, Y) in FIG.

次に、CPU131が、位相差検出部601の出力結果に含まれる位相差の信頼性に基づいて、位相差の検出に成功したかを判断する(ステップS104)。位相差の信頼度が閾値を超える場合に、CPU131は、位相差の検出が成功したと判断する。また、位相差の信頼度が閾値以下の場合に、CPU131は、位相差の検出が失敗したと判断する。CPU131が、位相差の検出に成功したと判断した場合は、ステップS105に進む。そして、CPU131が、検出した位相差に基づいて、撮像レンズ101のフォーカス制御量を算出し、レンズ駆動部141を通じて、フォーカス制御を行う(ステップS105)。すなわち、CPU131が、検出された位相差に基づいて焦点調節処理を実行する調節手段として機能する。   Next, the CPU 131 determines whether the phase difference has been successfully detected based on the reliability of the phase difference included in the output result of the phase difference detection unit 601 (step S104). When the reliability of the phase difference exceeds the threshold, the CPU 131 determines that the phase difference has been successfully detected. Further, when the reliability of the phase difference is equal to or less than the threshold, the CPU 131 determines that the detection of the phase difference has failed. If the CPU 131 determines that the phase difference has been successfully detected, the process proceeds to step S105. Then, the CPU 131 calculates the focus control amount of the imaging lens 101 based on the detected phase difference, and performs focus control through the lens driving unit 141 (step S105). That is, the CPU 131 functions as an adjustment unit that executes the focus adjustment process based on the detected phase difference.

フォーカス制御が完了すると、処理がステップS106に進む。そして、CPU131が、表示制御装置151を通じて、TFT152に合焦完了したことを表示して(ステップS106)、ステップS114に進む。   When the focus control is completed, the process proceeds to step S106. Then, the CPU 131 displays the completion of focusing on the TFT 152 via the display control device 151 (step S106), and proceeds to step S114.

CPU131が、位相差の検出に失敗したと判断した場合は、ステップS107に進む。そして、CPU131が、レンズ絞り量を予め決められた絞り量に決定し、レンズ駆動部141へ設定する。CPU131は、絞り量を設定する前の絞り値を、メモリ132に保持しておく。CPU131は、絞り量を1段としてもよいし、2段としてもよい。但し、CPU131は、撮像レンズ101を絞ることで位相差検出部601の精度に影響を与えるような絞り量には決定しない。撮像レンズ101を絞りすぎると、画像が暗くなりすぎて、位相差検出部601の精度が落ちるためである。したがって、CPU131は、レンズ絞り量を、位相差の検出処理によって出力される位相差の信頼度が閾値以下とならない範囲に設定する。   If the CPU 131 determines that the phase difference detection has failed, the process proceeds to step S107. Then, the CPU 131 determines the lens aperture amount to be a predetermined aperture amount and sets it in the lens driving unit 141. The CPU 131 holds the aperture value before setting the aperture amount in the memory 132. The CPU 131 may set the aperture amount to one level or two levels. However, the CPU 131 does not determine a diaphragm amount that affects the accuracy of the phase difference detection unit 601 by narrowing the imaging lens 101. This is because if the imaging lens 101 is made too narrow, the image becomes too dark and the accuracy of the phase difference detection unit 601 decreases. Therefore, the CPU 131 sets the lens aperture amount in a range in which the reliability of the phase difference output by the phase difference detection process does not fall below the threshold value.

次に、ステップS108において、レンズ駆動部141が、上記ステップS107で決定された絞り量で撮像レンズ101を絞る(レンズ絞り駆動を行う)。すなわち、CPU131が、出力された位相差の信頼度に応じて、レンズ駆動部141に指示して撮像レンズ101を絞る制御手段として機能する。そして、位相差検出部601が、ステップS108におけるレンズ絞り駆動後に読み出し領域から読み出された画像信号に基づいて、位相差を検出し、位相差の信頼度を出力して、出力結果をメモリ132に記憶する(ステップS108)。すなわち、位相差検出部601は、撮像レンズ101が絞られた状態で位相差の検出を再度行って、位相差の信頼度を再出力する。そして、CPU131が、位相差検出部601の出力結果をメモリ132から読み出す。   Next, in step S108, the lens driving unit 141 stops the imaging lens 101 with the aperture amount determined in step S107 (performs lens aperture driving). That is, the CPU 131 functions as a control unit that instructs the lens driving unit 141 to narrow down the imaging lens 101 according to the reliability of the output phase difference. Then, the phase difference detection unit 601 detects the phase difference based on the image signal read from the reading area after driving the lens diaphragm in step S108, outputs the reliability of the phase difference, and outputs the output result to the memory 132. (Step S108). That is, the phase difference detection unit 601 detects the phase difference again in a state where the imaging lens 101 is stopped, and re-outputs the reliability of the phase difference. Then, the CPU 131 reads out the output result of the phase difference detection unit 601 from the memory 132.

ステップS108においてレンズ絞り駆動を行うことによって、読み出し領域からの左画像信号と右画像信号とは、図7(B)に示すように、位相差が小さくなる。すなわち、レンズを絞ることによって、被写界深度が深くなり、ピントが少し合う状態となる。これにより、位相差の信頼度が大きくなり、位相差の検出精度が上がる。   By performing lens aperture driving in step S108, the phase difference between the left image signal and the right image signal from the readout region becomes small as shown in FIG. 7B. That is, when the lens is squeezed, the depth of field is deepened and the focus is slightly adjusted. Thereby, the reliability of the phase difference is increased, and the detection accuracy of the phase difference is increased.

図6に戻って、CPU131が、ステップS107でメモリに保持しておいた絞り値をレンズ駆動部141に再設定する。つまり、CPU131は、レンズ絞り値を位相差の信頼度が再出力される前の絞り値に戻す。そして、ステップS111において、レンズ駆動部141が、ステップS110で設定した絞り値に撮像レンズ101を駆動させる。   Returning to FIG. 6, the CPU 131 resets the aperture value stored in the memory in step S <b> 107 in the lens driving unit 141. That is, the CPU 131 returns the lens aperture value to the aperture value before the phase difference reliability is output again. In step S111, the lens driving unit 141 drives the imaging lens 101 to the aperture value set in step S110.

次に、CPU131が、ステップS109において読み出した位相差検出部601の出力結果に基づいて、上記ステップS104の判断処理と同様の方法で、位相差の検出に成功したかを判断する(ステップS112)。位相差の検出に成功した場合は、ステップS105に進む。位相差の検出に失敗した場合は、ステップS113に進む。   Next, based on the output result of the phase difference detection unit 601 read out in step S109, the CPU 131 determines whether the phase difference has been successfully detected by the same method as the determination process in step S104 (step S112). . If the phase difference is successfully detected, the process proceeds to step S105. If the phase difference detection fails, the process proceeds to step S113.

ステップS113の判断処理で、位相差の検出に成功したと判断された場合は、ステップS105に進む。ステップS113の判断処理で、位相差の検出に失敗したと判断された場合は、ステップS114に進む。そして、CPU131が、表示制御装置151を通じて、TFT152に、合焦できないことを示す非合焦表示を行い(ステップS114)、ステップS115に進む。   If it is determined in step S113 that the phase difference has been successfully detected, the process proceeds to step S105. If it is determined in step S113 that the phase difference detection has failed, the process proceeds to step S114. Then, the CPU 131 performs an out-of-focus display indicating that focusing cannot be performed on the TFT 152 through the display control device 151 (step S114), and the process proceeds to step S115.

ステップS115において、CPU131が、AF開始/終了ボタン165がOFFになったかを判断する(ステップS115)。AF開始/終了ボタン165がOFFになっていない場合は、ステップS115に戻る。AF開始/終了ボタン165がOFFになった場合は、ステップS116に進む。そして、CPU131が、TFT152に表示されている表示(合焦完了表示または非合焦表示)を解除し(ステップS116)、ステップS102に戻る。   In step S115, the CPU 131 determines whether or not the AF start / end button 165 is turned off (step S115). If the AF start / end button 165 is not OFF, the process returns to step S115. If the AF start / end button 165 is turned off, the process proceeds to step S116. Then, the CPU 131 cancels the display (focus completion display or non-focus display) displayed on the TFT 152 (step S116) and returns to step S102.

本実施例では、ステップS109において位相差を検出した後に、ステップS110、S111でレンズの絞り量を元に戻したうえで、ステップS105のフォーカス制御を行う。もちろん、ステップS105のフォーカス制御を行った後に、ステップS110、S111のレンズ絞り量を元に戻すようにしてもよい。   In this embodiment, after detecting the phase difference in step S109, the lens aperture is returned to the original in steps S110 and S111, and then the focus control in step S105 is performed. Of course, after performing the focus control in step S105, the lens aperture amount in steps S110 and S111 may be restored.

実施例1の撮像装置によれば、部分読み出しでのライブビューにおいて、位相差を検出する際に、位相差の検出精度を確保しながら、オートフォーカス動作を実現することが可能となる。   According to the image pickup apparatus of the first embodiment, it is possible to realize an autofocus operation while ensuring the accuracy of detecting a phase difference when detecting a phase difference in a live view with partial reading.

(実施例2)
図8は、実施例2の撮像装置の動作処理の例を説明するフローチャートである。実施例2では、CPU131は、読み出し領域の設定処理(ステップS201)がされたことを契機として位相差検出処理(ステップS202)を行う。すなわち、実施例2の撮像装置は、実施例1の撮像装置と異なり、AF開始/終了ボタン165がONとなったことを契機とせずに、位相差検出処理を行う。
(Example 2)
FIG. 8 is a flowchart illustrating an example of operation processing of the imaging apparatus according to the second embodiment. In the second embodiment, the CPU 131 performs the phase difference detection process (step S202) when the read area setting process (step S201) is performed. That is, unlike the imaging device of the first embodiment, the imaging device of the second embodiment performs the phase difference detection process without being triggered by the AF start / end button 165 being turned on.

図8中のステップS200、S201、S202、S203、S204は、それぞれ、図6中のステップS100、S101、S103、S104、S105と同様である。また、図8中のステップS205、S206、S207、S208、S209、S210は、それぞれ、図6中のステップS107、S108、S109、S110、S111、S112と同様である。なお、ステップS204の処理の後は、ステップS202に戻る。また、ステップS211の判断処理で位相差検出に失敗したと判断された場合は、ステップS202に戻る。   Steps S200, S201, S202, S203, and S204 in FIG. 8 are the same as steps S100, S101, S103, S104, and S105 in FIG. 6, respectively. Further, steps S205, S206, S207, S208, S209, and S210 in FIG. 8 are the same as steps S107, S108, S109, S110, S111, and S112, respectively, in FIG. In addition, after the process of step S204, it returns to step S202. If it is determined in step S211 that the phase difference detection has failed, the process returns to step S202.

実施例2の撮像装置によれば、部分読み出しでのライブビューにおいて、位相差を検出する際に、位相差の検出精度を確保しながら、連続的なオートフォーカス動作を実現することが可能となる。   According to the imaging apparatus of the second embodiment, it is possible to realize continuous autofocus operation while ensuring the phase difference detection accuracy when detecting the phase difference in the live view with partial reading. .

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.

100 撮像装置
103 撮像素子
131 CPU
DESCRIPTION OF SYMBOLS 100 Imaging device 103 Image pick-up element 131 CPU

Claims (7)

一つのマイクロレンズに対して撮像光学系の射出瞳の分割された異なる領域を通過した光束を光電変換して画像信号を生成する複数の光電変換部を有する画素部を備える撮像素子と、
前記画素部から画像信号を読み出す領域である読み出し領域を設定する設定手段と、
前記読み出し領域から読み出された画像信号に含まれる左画像信号と右画像信号との位相差の検出処理を行って、前記位相差の信頼度を出力する検出手段と、
前記出力された前記位相差の信頼度に基づいて、前記位相差の検出が成功したかを判断する判断手段と、
前記位相差の検出が成功したと判断された場合に、該検出された位相差に基づいて焦点調節処理を実行する調節手段と、
被写体の光学像を前記撮像素子に結像させるレンズを駆動する駆動手段と、
前記位相差の検出が失敗したと判断された場合に、前記検出手段が出力した前記位相差の信頼度に応じて、前記駆動手段に指示して前記レンズを絞る制御手段とを備える
ことを特徴とする撮像装置。
An imaging device including a pixel unit having a plurality of photoelectric conversion units that photoelectrically convert light beams that have passed through different regions divided by the exit pupil of the imaging optical system with respect to one microlens;
Setting means for setting a reading area which is an area for reading an image signal from the pixel unit;
Detecting means for detecting a phase difference between the left image signal and the right image signal included in the image signal read from the reading region, and outputting the reliability of the phase difference;
Determination means for determining whether the detection of the phase difference is successful based on the reliability of the output phase difference;
Adjusting means for executing a focus adjustment process based on the detected phase difference when it is determined that the detection of the phase difference is successful;
Driving means for driving a lens that forms an optical image of a subject on the image sensor;
Control means for instructing the drive means to squeeze the lens according to the reliability of the phase difference output by the detection means when it is determined that the detection of the phase difference has failed. An imaging device.
前記判断手段は、前記位相差の信頼度が閾値を超える場合に、前記位相差の検出が成功したと判断し、前記位相差の信頼度が閾値以下の場合に、前記位相差の検出が失敗したと判断する
ことを特徴とする請求項1に記載の撮像装置。
The determination unit determines that the detection of the phase difference is successful when the reliability of the phase difference exceeds a threshold value, and fails to detect the phase difference when the reliability of the phase difference is equal to or less than the threshold value. The image pickup apparatus according to claim 1, wherein the image pickup apparatus is determined to have performed.
前記制御手段は、レンズ駆動手段による前記レンズの絞り量を、前記検出手段が出力する位相差の信頼度が前記閾値以下とならない範囲に設定する
ことを特徴とする請求項1または請求項2に記載の撮像装置。
3. The control unit according to claim 1, wherein the control unit sets the aperture amount of the lens by the lens driving unit within a range in which the reliability of the phase difference output from the detection unit does not fall below the threshold value. The imaging device described.
前記検出手段は、前記レンズ駆動手段によって前記レンズが絞られた状態で前記位相差の検出処理を再度行って、前記位相差の信頼度を再出力し、
前記検出手段によって、前記位相差の信頼度が再出力された後に、前記制御手段は、前記レンズの絞り値を前記位相差の信頼度が再出力される前の絞り値に戻す
ことを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。
The detection means performs the phase difference detection process again in a state where the lens is narrowed by the lens driving means, and re-outputs the reliability of the phase difference,
After the reliability of the phase difference is re-output by the detection means, the control means returns the aperture value of the lens to the aperture value before the reliability of the phase difference is re-output. The imaging device according to any one of claims 1 to 3.
焦点調節処理の開始を指示する指示手段を備え、
前記検出手段は、前記指示手段によって焦点調節処理の開始が指示された場合に、前記位相差の検出処理を行って、前記位相差の信頼度を出力する
ことを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。
Instructing means for instructing the start of the focus adjustment process,
The detection means performs the phase difference detection process and outputs the reliability of the phase difference when the instruction means instructs the start of a focus adjustment process. The imaging device according to any one of the above.
前記検出手段は、前記出力した位相差と前記位相差の信頼度とを記憶手段に記憶し、
前記判断手段は、前記記憶手段に記憶された前記位相差の信頼度に基づいて、前記位相差の検出が成功したかを判断する
ことを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。
The detection means stores the output phase difference and the reliability of the phase difference in a storage means,
6. The determination unit according to claim 1, wherein the determination unit determines whether the detection of the phase difference is successful based on the reliability of the phase difference stored in the storage unit. The imaging device described.
一つのマイクロレンズに対して撮像光学系の射出瞳の分割された異なる領域を通過した光束を光電変換して画像信号を生成する複数の光電変換部を有する画素部を備える撮像素子と、被写体の光学像を前記撮像素子に結像させるレンズを駆動する駆動手段とを備える撮像装置の制御方法であって、
前記画素部から画像信号を読み出す領域である読み出し領域を設定する設定工程と、
前記読み出し領域から読み出された画像信号に含まれる左画像信号と右画像信号との位相差の検出処理を行って、前記位相差の信頼度を出力する検出工程と、
前記出力された前記位相差の信頼度に基づいて、前記位相差の検出が成功したかを判断する判断工程と、
前記位相差の検出が成功したと判断された場合に、該検出された位相差に基づいて焦点調節処理を実行する調節工程と、
前記位相差の検出が失敗したと判断された場合に、前記検出工程で出力した前記位相差の信頼度に応じて、前記駆動手段に指示して前記レンズを絞る制御工程とを有する
ことを特徴とする撮像装置の制御方法。
An imaging device including a pixel unit having a plurality of photoelectric conversion units that photoelectrically convert light beams that have passed through different regions divided by the exit pupil of the imaging optical system with respect to one microlens, and a subject A control method for an imaging apparatus comprising: a driving unit that drives a lens that forms an optical image on the imaging element;
A setting step of setting a reading area which is an area for reading an image signal from the pixel unit;
A detection step of detecting the phase difference between the left image signal and the right image signal included in the image signal read from the reading region and outputting the reliability of the phase difference;
A determination step of determining whether the phase difference has been successfully detected based on the reliability of the output phase difference;
An adjustment step of performing a focus adjustment process based on the detected phase difference when it is determined that the detection of the phase difference is successful;
A control step of instructing the driving means to squeeze the lens according to the reliability of the phase difference output in the detection step when it is determined that the detection of the phase difference has failed. A method for controlling the imaging apparatus.
JP2012245309A 2012-11-07 2012-11-07 Image capturing device and control method therefor Pending JP2014095733A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012245309A JP2014095733A (en) 2012-11-07 2012-11-07 Image capturing device and control method therefor
US14/067,391 US20140125861A1 (en) 2012-11-07 2013-10-30 Imaging apparatus and method for controlling same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012245309A JP2014095733A (en) 2012-11-07 2012-11-07 Image capturing device and control method therefor

Publications (1)

Publication Number Publication Date
JP2014095733A true JP2014095733A (en) 2014-05-22

Family

ID=50938861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012245309A Pending JP2014095733A (en) 2012-11-07 2012-11-07 Image capturing device and control method therefor

Country Status (1)

Country Link
JP (1) JP2014095733A (en)

Similar Documents

Publication Publication Date Title
JP5424679B2 (en) Imaging apparatus and signal processing apparatus
JP5400406B2 (en) Imaging device
US9578231B2 (en) Image capture apparatus and method for controlling the same
US9344617B2 (en) Image capture apparatus and method of controlling that performs focus detection
JP2010271670A (en) Imaging apparatus
JP2013218297A (en) Focus adjustment device and focus adjustment method
US20160044231A1 (en) Image capturing apparatus and method of controlling the same
US8902294B2 (en) Image capturing device and image capturing method
US20140125861A1 (en) Imaging apparatus and method for controlling same
US9693037B2 (en) Imaging apparatus having an imaging element in which a plurality of light receiving elements is arranged with respect to a micro lens and method for controlling same
JP2013113857A (en) Imaging device, and control method therefor
JP2012129726A (en) Imaging apparatus, control method of the same and control program
JP5871535B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP5963550B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2015166799A (en) Imaging apparatus, imaging method, and program thereof
JP2014102400A (en) Imaging apparatus and method for controlling imaging apparatus
JP2014222268A (en) Imaging device and imaging device control method
JP2016071275A (en) Image-capturing device and focus control program
JP6071748B2 (en) Imaging apparatus and control method thereof
JP2014095733A (en) Image capturing device and control method therefor
US9648213B2 (en) Image sensor, image capturing apparatus, and control method of image capturing apparatus
JP2014239316A (en) Imaging device and control method for the same
US20220385875A1 (en) Device, capturing device, control method, and storage medium
US20230199342A1 (en) Imaging device and imaging method
WO2016178310A1 (en) Image processing apparatus, method for controlling the same, and image capture apparatus