JP2017158039A - Imaging apparatus and control method of the same - Google Patents

Imaging apparatus and control method of the same Download PDF

Info

Publication number
JP2017158039A
JP2017158039A JP2016039756A JP2016039756A JP2017158039A JP 2017158039 A JP2017158039 A JP 2017158039A JP 2016039756 A JP2016039756 A JP 2016039756A JP 2016039756 A JP2016039756 A JP 2016039756A JP 2017158039 A JP2017158039 A JP 2017158039A
Authority
JP
Japan
Prior art keywords
divided pixel
divided
mode
pixel units
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016039756A
Other languages
Japanese (ja)
Other versions
JP6727856B2 (en
Inventor
洋平 堀川
Yohei Horikawa
洋平 堀川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016039756A priority Critical patent/JP6727856B2/en
Publication of JP2017158039A publication Critical patent/JP2017158039A/en
Application granted granted Critical
Publication of JP6727856B2 publication Critical patent/JP6727856B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of improving S/N without lowering focus detection accuracy.SOLUTION: An imaging apparatus 100 includes: a plurality of unit pixel cells 200 each having a plurality of divided pixel portions; and an imaging device capable of outputting a parallax image signal. The imaging apparatus 100 has a second synthesis mode in which signals from the divided pixel portions having the same positional relationship are combined in the plurality of pixel portions to generate a second parallax image signal, and a first synthesis mode in which signals from the divided pixel portions in the pixel portions are combined to generate a first parallax image signal.SELECTED DRAWING: Figure 1

Description

撮像装置およびその制御方法に関する。   The present invention relates to an imaging apparatus and a control method thereof.

特許文献1は、マイクロレンズを二次元的に配置するとともに、各マイクロレンズの下に射出瞳を分割するように複数の光電変換部(分割画素部) を備える撮像素子を用いて、位相差方式の焦点検出を行う撮像装置を開示している。この撮像装置は、縦の瞳分割(縦目) と、横の瞳分割(横目) とを、分割画素部同士の加算によって実現する。また、特許文献2は、瞳分割された像を複数画素加算することによって、S/Nを向上させる撮像装置を開示している。   Patent Document 1 discloses a phase difference method using an imaging element that two-dimensionally arranges microlenses and includes a plurality of photoelectric conversion units (divided pixel units) so as to divide an exit pupil under each microlens. An imaging device that performs focus detection is disclosed. This imaging device realizes vertical pupil division (vertical eyes) and horizontal pupil division (horizontal eyes) by adding the divided pixel portions. Further, Patent Document 2 discloses an imaging device that improves S / N by adding a plurality of pixels to an image obtained by pupil division.

特許第5157128号公報Japanese Patent No. 5157128 国際公開第2011/136031号International Publication No. 2011/136031

特許文献1が開示する撮像装置のように、マイクロレンズ下の分割画素部間の加算によってS/Nを向上させる場合、加算前の信号に対して被写界深度の浅い信号を生成することとなる。したがって、生成された信号は、大きなデフォーカス量の画像領域に関する焦点検出に用いる信号には適さない。これは、被写体のエッジ成分がボケによる低周波成分と混合されてしまい、バンドパスフィルタのような線形フィルタで抽出が困難であるので、相関演算を行ったとしても極値を求められないからである。   When the S / N is improved by addition between the divided pixel portions under the microlens as in the imaging device disclosed in Patent Document 1, a signal with a shallow depth of field is generated with respect to the signal before addition. Become. Therefore, the generated signal is not suitable for a signal used for focus detection related to an image region having a large defocus amount. This is because the edge component of the subject is mixed with the low frequency component due to blur, and it is difficult to extract with a linear filter such as a bandpass filter, so even if correlation calculation is performed, extreme values cannot be obtained. is there.

また、特許文献2が開示する撮像装置では、瞳分割された像の空間周波数が下がってしまうので、焦点検出精度が低下してしまう。本発明は、焦点検出精度を低下させることなくS/Nを向上させることが可能な撮像装置の提供を目的とする。   Moreover, in the imaging apparatus disclosed in Patent Document 2, the spatial frequency of the image that is divided into pupils is lowered, so that the focus detection accuracy is lowered. An object of the present invention is to provide an imaging apparatus capable of improving S / N without reducing focus detection accuracy.

本発明の一実施形態の撮像装置は、複数の分割画素部をそれぞれ有する複数の画素部を備え視差画像信号を出力可能な撮像素子と、前記複数の画素部でそれぞれ同じ位置関係にある分割画素部からの信号同士の合成を行って第2の視差画像信号を生成する第2の合成モードと、前記画素部内の前記分割画素部からの信号を合成して第1の視差画像信号を生成する第1の合成モードとを有する合成手段を有する。   An imaging device according to an embodiment of the present invention includes an imaging element that includes a plurality of pixel units each having a plurality of divided pixel units and that can output a parallax image signal, and divided pixels that have the same positional relationship in the plurality of pixel units. A second parallax image signal that generates a second parallax image signal by combining signals from the unit and a signal from the divided pixel unit in the pixel unit are combined to generate a first parallax image signal And a synthesis means having a first synthesis mode.

本発明の撮像装置によれば、焦点検出精度を低下させることなくS/Nを向上させることが可能となる。   According to the imaging apparatus of the present invention, it is possible to improve the S / N without reducing the focus detection accuracy.

本実施形態の撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device of this embodiment. 単位画素セルの構成の一例を説明する図である。It is a figure explaining an example of composition of a unit pixel cell. ML内分割画素加算で得られた像の被写界深度を説明する図である。It is a figure explaining the depth of field of the image obtained by the division | segmentation pixel addition in ML. デフォーカス量の検出処理の例を説明するフローチャートである。10 is a flowchart illustrating an example of a defocus amount detection process. 実施例2で用いられる撮像素子の構成を示す図である。6 is a diagram illustrating a configuration of an image sensor used in Example 2. FIG. 焦点検出部が実行する相関演算を説明する図である。It is a figure explaining the correlation calculation which a focus detection part performs. 斜め線に関するML間分割画素加算を説明する図である。It is a figure explaining the division pixel addition between ML regarding a diagonal line. 斜め線検出フィルタの出力値の例を示す図である。It is a figure which shows the example of the output value of a diagonal detection filter.

(実施例1)
図1は、本実施形態の撮像装置の構成例を示す図である。
撮像装置100は、撮像光学系101乃至光学ユニット駆動制御部110を備える。撮像光学系101は、被写体光を受け、不図示の複数のレンズ群および絞りを介して撮像素子102に光束を導く。撮像光学系101を通過した光束は、撮像素子102上に結像し、光学像を形成する。また、撮像光学系101にはフォーカスレンズが構成されている。フォーカスレンズは、光学ユニット駆動制御部110からの駆動制御命令によって、または撮像光学系に構成される不図示のフォーカスリングを手動で調節することによって、光軸方向に駆動する。
Example 1
FIG. 1 is a diagram illustrating a configuration example of an imaging apparatus according to the present embodiment.
The imaging apparatus 100 includes an imaging optical system 101 to an optical unit drive control unit 110. The imaging optical system 101 receives subject light and guides a light beam to the imaging element 102 via a plurality of lens groups and a diaphragm (not shown). The light beam that has passed through the imaging optical system 101 forms an image on the image sensor 102 to form an optical image. The imaging optical system 101 includes a focus lens. The focus lens is driven in the optical axis direction by a drive control command from the optical unit drive control unit 110 or by manually adjusting a focus ring (not shown) configured in the imaging optical system.

撮像素子102は、視差画像信号を出力可能である。撮像素子102には、複数の単位画素セル(画素部)が2次元マトリクス状に配列されており、撮像光学系101に含まれるシャッターによって露光量の制御が行われる。撮像光学系101によって結像された像は光電変換され、読み出し制御時に、単位画素中に構成される分割画素部に蓄積された電荷を、A/D変換部103に順次出力する。なお、撮像装置100は、不図示のシステム制御部として機能するCPU(Central Processing Unit)を備えている。システム制御部が、撮像装置100が備える各処理部を制御することによって、撮像装置100の機能が実現される。   The image sensor 102 can output a parallax image signal. A plurality of unit pixel cells (pixel portions) are arranged in a two-dimensional matrix on the image sensor 102, and the exposure amount is controlled by a shutter included in the image pickup optical system 101. The image formed by the imaging optical system 101 is photoelectrically converted, and the charges accumulated in the divided pixel portions formed in the unit pixel are sequentially output to the A / D conversion portion 103 at the time of readout control. The imaging device 100 includes a CPU (Central Processing Unit) that functions as a system control unit (not shown). The system control unit controls each processing unit included in the imaging apparatus 100, thereby realizing the function of the imaging apparatus 100.

図2は、単位画素セルの構成の一例を説明する図である。
複数の単位画素セル200の各々は、入射光を集光する1つのマイクロレンズ201の下に、複数の分割画素部を有する。具体的には、単位画素セル200は、少なくとも4つ(2×2)の分割画素部を有する。複数の分割画素部は、撮像光学系101の異なる瞳領域をそれぞれ通過する光束を受光するように瞳分割されている。撮像光学系101を介して入射された光は、マイクロレンズ201を通って、各分割画素部にて蓄積される。この例では、単位画素セル200は、各々R,G,Bのカラーフィルタを備えている。カラーフィルタは、二次元状にベイヤー配列で固体撮像素子上に配置されている。
FIG. 2 is a diagram illustrating an example of the configuration of the unit pixel cell.
Each of the plurality of unit pixel cells 200 has a plurality of divided pixel portions under one microlens 201 that collects incident light. Specifically, the unit pixel cell 200 has at least four (2 × 2) divided pixel portions. The plurality of divided pixel portions are pupil-divided so as to receive light beams respectively passing through different pupil regions of the imaging optical system 101. The light incident through the imaging optical system 101 passes through the microlens 201 and is accumulated in each divided pixel unit. In this example, the unit pixel cell 200 includes R, G, and B color filters. The color filters are arranged on the solid-state imaging device in a two-dimensional Bayer array.

各マイクロレンズ下の同一画素位置に存在する画素のみで構成された二次元画像は、他の同一画素位置に存在する画素のみで構成された二次元画像に対して、視差を有する。つまり、図2の1Aに対応する2A,3A,4Aの画素で構成された画像と、1Bに対応する2B,3B,4Bの画素で構成された画像は、異なる視差を有する。図2に示す2×2の分割画素部からは、合計4つの視差を有する画像信号(視差画像信号)が出力される。これらの視差画像信号の相関演算処理を行うことで、視差量の検出が可能となる。   A two-dimensional image composed only of pixels existing at the same pixel position under each microlens has a parallax with respect to a two-dimensional image composed only of pixels existing at the same pixel position. That is, an image composed of 2A, 3A, and 4A pixels corresponding to 1A in FIG. 2 and an image composed of 2B, 3B, and 4B pixels corresponding to 1B have different parallaxes. From the 2 × 2 divided pixel unit illustrated in FIG. 2, an image signal (parallax image signal) having a total of four parallaxes is output. By performing the correlation calculation processing of these parallax image signals, the amount of parallax can be detected.

図1の説明に戻る。A/D変換部103は、不図示のアナログ信号処理部でのアナログ信号処理によって撮像素子102から出力されるアナログ電気信号を、デジタル電気信号(画素信号) に変換し、キャプチャー部104に出力する。アナログ信号処理部は、伝送路上のノイズを除去するCDS回路や非線形増幅回路等である。   Returning to the description of FIG. The A / D conversion unit 103 converts an analog electric signal output from the image sensor 102 by analog signal processing in an analog signal processing unit (not shown) into a digital electric signal (pixel signal) and outputs the digital electric signal to the capture unit 104. . The analog signal processing unit is a CDS circuit, a nonlinear amplifier circuit, or the like that removes noise on the transmission path.

キャプチャー部104は、マイクロレンズ201に対する分割画素部の相対的な位置を判別する属性を付与し、画像合成部105および分割画素加算部108に信号出力を行う。画像合成部105は、入力された単位画素セル内の画素の信号を全加算して撮像用画像(本画像)を生成し、デジタル信号処理部106に出力する。具体的には、画像合成部105は、図2の1A,1B,1C,1Dの位置に対応する分割画素部からの信号を加算する。   The capture unit 104 gives an attribute for determining the relative position of the divided pixel unit with respect to the microlens 201, and outputs a signal to the image composition unit 105 and the divided pixel addition unit 108. The image synthesizing unit 105 adds all the signals of the pixels in the input unit pixel cell to generate an imaging image (main image), and outputs it to the digital signal processing unit 106. Specifically, the image composition unit 105 adds signals from the divided pixel units corresponding to the positions 1A, 1B, 1C, and 1D in FIG.

デジタル信号処理部106は、ベイヤー配列で入力された画像に対して、同時化処理、ガンマ処理やノイズリダクション処理に代表されるデジタル信号処理を行い、外部記録装置107に出力する。同時化処理、ガンマ処理、ノイズリダクション等のデジタル信号処理については周知であり、説明を省略する。   The digital signal processing unit 106 performs digital signal processing typified by synchronization processing, gamma processing, and noise reduction processing on an image input in a Bayer array, and outputs the result to the external recording device 107. Digital signal processing such as synchronization processing, gamma processing, and noise reduction is well known and will not be described.

システム制御部および分割画素加算部108は、分割画素部からの信号を加算することで合成して、視差画像信号を生成する合成手段として機能する。分割画素加算部108は、第2の合成モードと、第1の合成モードとを有する。第2の合成モードは、複数の画素部でそれぞれ同じ位置関係にある分割画素部からの信号同士の合成を行って第2の視差画像信号を生成する合成モードである。第1の合成モードは、画素部内の分割画素部からの信号を合成して第1の視差画像信号を生成する合成モードである。分割画素加算部108は、焦点検出処理の種類に応じて、第2の合成モードまたは第1の合成モードで動作する。例えば、第1の合成モードでは、分割画素部1Aと1Cからの信号を加算し、分割画素部1Bと1Dからの信号を加算して横目生成を行う。この加算を、第1の加算であるML(Micro Lens)内分割画素加算とする。もちろん、ML内分割画素加算は、縦目生成に適用してもよい。縦目生成の際には、例えば、分割画素部1Aと1Bとを加算し、分割画素部1Cと1Dとを加算する。すなわち、この例では、画素部内すなわち単位画素セル200内で、瞳分割方向と直交する方向に分割画素部からの信号を加算することをML内分割画素加算とする。   The system control unit and the divided pixel adding unit 108 function as a combining unit that generates a parallax image signal by combining signals by adding signals from the divided pixel unit. The divided pixel addition unit 108 has a second synthesis mode and a first synthesis mode. The second synthesis mode is a synthesis mode in which a plurality of pixel units combine signals from the divided pixel units that have the same positional relationship to generate a second parallax image signal. The first synthesis mode is a synthesis mode in which signals from the divided pixel units in the pixel unit are synthesized to generate a first parallax image signal. The divided pixel addition unit 108 operates in the second synthesis mode or the first synthesis mode depending on the type of focus detection processing. For example, in the first combination mode, signals from the divided pixel units 1A and 1C are added, and signals from the divided pixel units 1B and 1D are added to generate the horizontal eye. This addition is the first addition, that is, ML (Micro Lens) divided pixel addition. Of course, the intra-ML divided pixel addition may be applied to the vertical eye generation. At the time of generating the vertical eye, for example, the divided pixel units 1A and 1B are added, and the divided pixel units 1C and 1D are added. That is, in this example, adding the signal from the divided pixel unit in the direction orthogonal to the pupil division direction in the pixel unit, that is, in the unit pixel cell 200, is the intra-ML divided pixel addition.

また、例えば、第2の合成モードでは、分割画素部1Aと3Aからの信号を加算し、分割画素部1Bと3Bからの信号を加算して横目生成を行う。この加算を、第2の加算であるML間分割画素加算とする。もちろん、ML間分割画素加算は、縦目生成に適用してもよい。縦目生成の際には、例えば、分割画素部1Aと2Aからの信号を加算し、分割画素部1Cと2Cからの信号を加算する。すなわち、この例では、単位画素セル200間で、瞳分割方向と直交する方向に、同じ位置の分割画素部からの信号を加算することをML内分割画素加算とする。分割画素加算部108は、例えば、焦点検出処理において検出されるデフォーカス量の大きさに応じて、第2の合成モードまたは第1の合成モードで動作する。   Further, for example, in the second synthesis mode, signals from the divided pixel units 1A and 3A are added, and signals from the divided pixel units 1B and 3B are added to generate the horizontal eye. This addition is referred to as a second addition, that is, an ML divided pixel addition. Of course, the inter-ML divided pixel addition may be applied to the vertical eye generation. When generating the vertical eye, for example, the signals from the divided pixel units 1A and 2A are added, and the signals from the divided pixel units 1C and 2C are added. That is, in this example, adding the signals from the divided pixel portions at the same position in the direction orthogonal to the pupil division direction between the unit pixel cells 200 is referred to as intra-ML divided pixel addition. The divided pixel addition unit 108 operates in the second synthesis mode or the first synthesis mode, for example, according to the magnitude of the defocus amount detected in the focus detection process.

図3は、ML内分割画素加算によって得られた像の被写界深度を説明する図である。
ML内分割画素加算は、被写界深度の浅い画像が生成されるので、ML間分割画素加算の場合に比べて、なまった像が得られるという特徴がある。
FIG. 3 is a diagram for explaining the depth of field of an image obtained by adding the divided pixels in ML.
Since the intra-ML divided pixel addition generates an image with a shallow depth of field, there is a feature that a distorted image can be obtained compared to the case of the inter-ML divided pixel addition.

図3では、許容錯乱円をδとし、撮像光学系の絞り値をFとすると、絞り値Fでの被写界深度は±Fδである。点線で示された面が、撮像素子の存在する像面である。通常、単位画素セルは許容錯乱円δのサイズに応じて画素ピッチが設定される。   In FIG. 3, when the allowable circle of confusion is δ and the aperture value of the imaging optical system is F, the depth of field at the aperture value F is ± Fδ. A surface indicated by a dotted line is an image surface on which the image sensor is present. Usually, the pixel pitch of the unit pixel cell is set according to the size of the allowable circle of confusion δ.

位置300から放射される光線は、2×2に分割されて狭くなった瞳分割領域301を介して撮像素子に結像される。このとき、瞳分割領域301を介して得られた光線の水平及び垂直方向の実効絞り値F01は、F01=2F(2は分割数) と暗くなる。各視差画像信号の実行的な被写界深度は、±2Fδと2倍深くなり、合焦範囲が2倍に広がる。実行的な被写界深度±2Fδの範囲内では、各視差画像信号に合焦した被写体像が取得されている。つまり、分割画素部1Aと1C、分割画素部1Bと1Dとを加算して生成される横目は、1A、1Bの位置のみで生成される横目よりも被写界深度が浅い。したがって、ML内分割画素加算によって得られる像は、相関演算処理を行った際に、一致度に変化が起きにくいので、大きなデフォーカス量を有した像に対しては検出精度が低くなる。   Light rays emitted from the position 300 are imaged on the image sensor through the pupil division region 301 that is divided by 2 × 2 and becomes narrower. At this time, the effective aperture value F01 in the horizontal and vertical directions of the light obtained through the pupil division region 301 becomes dark as F01 = 2F (2 is the number of divisions). The effective depth of field of each parallax image signal is twice as deep as ± 2Fδ, and the focusing range is doubled. An object image focused on each parallax image signal is acquired within the range of effective depth of field ± 2Fδ. That is, the horizontal depth generated by adding the divided pixel portions 1A and 1C and the divided pixel portions 1B and 1D is shallower than the horizontal eye generated only at the positions 1A and 1B. Therefore, since the image obtained by the intra-ML divided pixel addition hardly undergoes a change in the degree of coincidence when the correlation calculation process is performed, the detection accuracy is low for an image having a large defocus amount.

一方、ML間分割画素加算を行った像は、±2Fδのままであり、シャープな像が得られる。したがって、一致度の変化が起きやすく大きなデフォーカス量を有した像に対して検出精度が高くなる。   On the other hand, the image subjected to the ML divided pixel addition remains ± 2Fδ, and a sharp image is obtained. Therefore, the degree of coincidence is likely to change, and the detection accuracy is increased for an image having a large defocus amount.

なお、2×2分割の撮像素子の場合には、ML内の分割画素加算方向は、瞳分割方向と直交方向のみの加算となるため、横目の瞳分割に対する縦目間の画素加算による被写界深度の影響は小さくなる。しかし、縦目方向の被写界深度が浅くなることによって、低周波成分の増加が発生し、デフォーカス検出可能な範囲が狭まってしまう。   In the case of an image sensor with 2 × 2 divisions, the division pixel addition direction in the ML is addition only in the direction orthogonal to the pupil division direction. The effect of depth of field is reduced. However, as the depth of field in the vertical eye direction becomes shallow, an increase in low frequency components occurs, and the range in which defocus detection is possible is narrowed.

また、撮像素子の画素配列としての水平垂直方向と各分割画素部の開口重心によって定まる瞳分割方向は、ケラレの影響などで必ずしも一致しない。したがって、垂直方向のML内分割画素加算を行ったとしても、水平方向の被写界深度は浅くなり、同様の問題が発生する。さらに、4×4に分割された撮像素子において、横目を生成する際に、横2画素と縦4画素を加算して瞳分割画素を生成する場合においては、被写界深度が浅くなる影響が大きくなる。   Further, the horizontal and vertical directions as the pixel array of the image sensor and the pupil division direction determined by the center of gravity of the aperture of each divided pixel portion do not necessarily match due to the influence of vignetting. Therefore, even if vertical division of ML divided pixels is performed, the depth of field in the horizontal direction becomes shallow, and the same problem occurs. Furthermore, in the image sensor divided into 4 × 4, when the horizontal eye is generated, when the pupil divided pixel is generated by adding the horizontal 2 pixels and the vertical 4 pixels, there is an effect that the depth of field becomes shallow. growing.

ML間分割画素加算は、像高方向の解像度が低くなってしまうので、合焦付近にフォーカスレンズが存在していたとしても、細線に代表される高周波成分の検出精度が下がってしまうという特徴がある。一方、ML内分割画素加算は像高方向の解像度が低くならないため、細線の検出精度が上がるという特徴がある。   Since the divided pixel addition between MLs lowers the resolution in the image height direction, even if a focus lens exists in the vicinity of the in-focus state, the detection accuracy of high-frequency components typified by thin lines is reduced. is there. On the other hand, the intra-ML divided pixel addition has a feature that the fine line detection accuracy is improved because the resolution in the image height direction is not lowered.

なお、ML間分割画素加算は、射出瞳の一部を通過した像を用いて相関演算処理を行うことになるため、像高の高い部分でシェーディングの影響を受けやすくなるという特徴がある。具体的には、像高の左方向にいくにしたがってBおよびD像は入射光が減り、右方向にいくにしたがってAおよびC像は入射光が減ることになる。また上方向にいくにしたがってAおよびB像は入射光が減り、下方向にいくにしたがってCおよびD像は入射光が減ることになる。このような課題を解決するために、像高に応じて、シェーディングの影響を受けにくい分割画素部を、合成する信号の出力元の分割画素部として選択した上で、ML間分割画素加算を行ってもよい。また、ML間分割画素加算を行う際には、相関演算を行う際のシフト方向と直交する方向、つまり瞳分割方向と直交する方向に画素加算を行うことが望ましい。   In addition, since the ML divided pixel addition performs correlation calculation processing using an image that has passed through a part of the exit pupil, it has a feature that it is easily affected by shading at a portion where the image height is high. Specifically, the incident light decreases in the B and D images as it goes to the left of the image height, and the incident light decreases in the A and C images as it goes to the right. Further, the incident light decreases in the A and B images as it goes upward, and the incident light decreases in the C and D images as it goes downward. In order to solve such a problem, an ML divided pixel addition is performed after selecting a divided pixel portion that is not easily affected by shading as an output source divided pixel portion according to the image height. May be. Further, when performing the ML divided pixel addition, it is desirable to perform the pixel addition in the direction orthogonal to the shift direction when performing the correlation calculation, that is, the direction orthogonal to the pupil division direction.

上述の特徴より、分割画素加算部108は、例えば、デフォーカス量の検出モードに応じて、ML間分割画素加算またはML内分割画素加算を実行する。具体的には、分割画素加算部108は、大きなデフォーカス量を検出する検出モードでは、ML間分割画素加算を選択し、合焦付近のデフォーカス量を検出する検出モードでは、ML内分割画素加算を選択し、加算により得られる像を焦点検出部109に出力する。焦点検出部109は、相関演算を行うことで、位相差を持った分割画素部間の像ずれ量Nを算出し、撮像光学系101の状態によって一意に決定する固定値Kに基づいて、デフォーカス量を検出し、光学ユニット駆動制御部110に出力する。   From the above-described features, the divided pixel addition unit 108 performs, for example, the inter-ML divided pixel addition or the intra-ML divided pixel addition according to the defocus amount detection mode. Specifically, the divided pixel adding unit 108 selects the divided pixel addition between ML in the detection mode for detecting a large defocus amount, and in the detection mode for detecting the defocus amount near the in-focus state, the divided pixel in the ML. The addition is selected, and an image obtained by the addition is output to the focus detection unit 109. The focus detection unit 109 performs correlation calculation to calculate an image shift amount N between the divided pixel units having a phase difference, and based on a fixed value K that is uniquely determined according to the state of the imaging optical system 101. The focus amount is detected and output to the optical unit drive control unit 110.

図6は、焦点検出部が実行する相関演算を説明する図である。
図6中のaおよびbは、ML間分割画素加算もしくはML内分割画素加算によって生成された擬似的な画素出力を示す符号である。焦点検出部109は、画素出力a,bを、各々列方向または行方向に組み合わせ、同色単位画素セル群の出力として、A像及びB像を生成・データ化し、各々の対応点のずれをSAD演算によって求める。SAD演算の結果は、式(1)によって求められる。

Figure 2017158039
YAnおよびYBnは、水平のマイクロレンズのn個の画素数を含んだ数列である。iは、各画素位置を表す。焦点検出部109が画素をずらしながら差の絶対値を算出するときのずらし量をmとする。最も値の小さなCを取るmの位置が、合焦位置に対応するずれ量Nを示す。 FIG. 6 is a diagram for explaining the correlation calculation executed by the focus detection unit.
In FIG. 6, “a” and “b” are codes indicating pseudo pixel outputs generated by the inter-ML divided pixel addition or the intra-ML divided pixel addition. The focus detection unit 109 combines the pixel outputs a and b in the column direction or the row direction, and generates and datas A and B images as the output of the same color unit pixel cell group. Calculate by calculation. The result of the SAD calculation is obtained by equation (1).
Figure 2017158039
YAn and YBn are a sequence of numbers including the number of n pixels of the horizontal microlens. i represents each pixel position. Let m be the shift amount when the focus detection unit 109 calculates the absolute value of the difference while shifting the pixel. The position of m taking the smallest value C indicates the shift amount N corresponding to the in-focus position.

(1)合焦のときには、撮影光学系が結像する位置が、P7のML下のPDになるので、A像用画素群とB像用画素群は、ほぼ一致する。この時、相関演算で求められるA像用画素群とB像用画素群の像ずれ量N(1)は、0に近似することを表している。
(2)後ピンのときには、撮影光学系が結像する位置として、A像用画素がP5、B像用画素がP9のML下の画素になる。この時、相関演算で求められるA像用画素群とB像用画素群の像ずれ量N(2)が発生する。
(3)前ピンのときには、撮影光学系と結像する位置として、A像用画素がP9、B像用画素がP5のML下の画素になる。この時、相関演算で求められるA像用画素群とB像用画素群の像ずれ量N(3)は、後ピンとは逆方向の像ずれ量を示す。このことは、合焦時には、A像用画素群およびB像用画素群は、同一の被写体を見ているが、後ピンおよび前ピン時には、A像用画素群およびB像用画素群は、像ずれ量Nだけずれた被写体を見ているということを意味する。
(1) At the time of focusing, the position where the imaging optical system forms an image is the PD under the ML of P7, so that the A image pixel group and the B image pixel group substantially coincide. At this time, the image deviation amount N (1) between the A image pixel group and the B image pixel group obtained by the correlation calculation represents that the image deviation amount N (1) approximates 0.
(2) In the case of the rear pin, the A image pixel is a pixel below the ML of P5 and the B image pixel is a pixel below the ML of P9 as the position where the imaging optical system forms an image. At this time, an image shift amount N (2) between the A image pixel group and the B image pixel group obtained by the correlation calculation occurs.
(3) In the case of the front pin, the A image pixel is a pixel below the ML of P9 and the B image pixel is a pixel below the ML of P5 as a position where an image is formed with the photographing optical system. At this time, the image shift amount N (3) between the A image pixel group and the B image pixel group obtained by the correlation calculation indicates an image shift amount in the direction opposite to the rear pin. This means that at the time of focusing, the A image pixel group and the B image pixel group look at the same subject, but at the rear pin and the front pin, the A image pixel group and the B image pixel group are This means that the subject is shifted by the image shift amount N.

デフォーカス量dは、公知の技術を用いて、例えば、像ずれ量Nと受光素子に至るまでの光学状態によって一意に決まるKの関係に基づいて、式(2)によって求める事が可能である。
d=N×K…式(2)
The defocus amount d can be obtained by using a known technique, for example, based on the relationship between the image shift amount N and K that is uniquely determined by the optical state up to the light receiving element, using Equation (2). .
d = N × K (2)

なお、焦点検出部109による相関演算を行う前に、バンドパスフィルタによって被写体像の帯域制限を行うことが望ましい。したがって、撮像装置100が、分割画素部から出力される視差画像信号の帯域を制限するバンドパスフィルタを備えるようにしてもよい。具体的には、撮像装置100は、小さいデフォーカス量を検出する場合においては、被写体の高い帯域の像の検出に用いるバンドパスフィルタを適用した上で、ML内分割画素加算を実行する。すなわち、撮像装置100は、帯域の制限により得られる帯域の大きさに応じて、ML内分割画素加算またはML間分割加算を実行する。撮像装置100が、最終合焦位置を検出する場合に、被写体の高い帯域の像の検出に用いるバンドパスフィルタを適用した上で、ML内分割画素加算を実行してもよい。図1に示す光学ユニット駆動制御部110は、焦点検出部109で得られたデフォーカス量に基づいて、被写体に合焦するように撮像光学系101を駆動させる。   Note that it is desirable to limit the band of the subject image using a bandpass filter before performing the correlation calculation by the focus detection unit 109. Therefore, the imaging apparatus 100 may include a bandpass filter that limits the band of the parallax image signal output from the divided pixel unit. Specifically, in the case of detecting a small defocus amount, the imaging apparatus 100 executes intra-ML divided pixel addition after applying a bandpass filter used for detecting a high-band image of the subject. In other words, the imaging apparatus 100 performs intra-ML divided pixel addition or inter-ML divided addition according to the band size obtained by band limitation. When the imaging apparatus 100 detects the final in-focus position, the intra-ML divided pixel addition may be executed after applying a bandpass filter used for detecting a high-band image of the subject. The optical unit drive control unit 110 illustrated in FIG. 1 drives the imaging optical system 101 to focus on the subject based on the defocus amount obtained by the focus detection unit 109.

図4は、撮像装置によるデフォーカス量の検出処理の例を説明するフローチャートである。
以下の説明では、大きいデフォーカス量を検出する検出モードを大デフォーカス検出モードと記述する。また、小さいデフォーカス量を検出する検出モードを小デフォーカス検出モードと記述する。不図示のシステム制御部は、SW1が押されている間、オートフォーカス動作をスタートする。ステップS400において、システム制御部が、検出モードを大デフォーカス検出モードに設定する。
FIG. 4 is a flowchart illustrating an example of a defocus amount detection process performed by the imaging apparatus.
In the following description, a detection mode for detecting a large defocus amount is described as a large defocus detection mode. A detection mode for detecting a small defocus amount is described as a small defocus detection mode. A system control unit (not shown) starts an autofocus operation while SW1 is being pressed. In step S400, the system control unit sets the detection mode to the large defocus detection mode.

ステップS401において、撮像素子102が、分割画素部1A,1B,1C,1Dから出力されるA,B,C,D像の読み出しを行う。次に、ステップS402において、システム制御部が、検出モードが大デフォーカス検出モードであるかを判定する。検出モードが大デフォーカス検出モードである場合は、処理がステップS404に進む。検出モードが大デフォーカス検出モードでない場合(例えば、小デフォーカス検出モードである場合)は、処理がステップS403に進む。   In step S401, the image sensor 102 reads out the A, B, C, and D images output from the divided pixel portions 1A, 1B, 1C, and 1D. Next, in step S402, the system control unit determines whether the detection mode is the large defocus detection mode. If the detection mode is the large defocus detection mode, the process proceeds to step S404. If the detection mode is not the large defocus detection mode (for example, the small defocus detection mode), the process proceeds to step S403.

ステップS404において、分割画素加算部108が、ML間分割画素加算を行う。これにより、位相差のある2像を擬似的に生成する。そして、処理がステップS405に進む。ML間分割画素加算によって得られた像は、被写界深度が深いので、大きなボケが生じている状態でもデフォーカス量の検出性能が高いという特徴がある。   In step S404, the divided pixel adding unit 108 performs ML divided pixel addition. Thereby, two images having a phase difference are generated in a pseudo manner. Then, the process proceeds to step S405. Since the image obtained by the ML divided pixel addition has a deep depth of field, there is a feature that the defocus amount detection performance is high even when a large blur is generated.

また、ステップS403において、分割画素加算部108が、ML内分割画素加算を行う。そして、処理がステップS405に進む。ML内分割画素加算によって得られた像は、空間周波数成分が減衰していないので、細線に代表される高周波成分の検出性能が高いという特徴がある。したがって、ML内分割画素加算は、最終合焦判断を行うためのデフォーカス量を検出する設定がされている場合において、有効である。   In step S403, the divided pixel addition unit 108 performs in-ML divided pixel addition. Then, the process proceeds to step S405. The image obtained by adding the divided pixels in ML has a feature that the detection performance of the high frequency component represented by the thin line is high because the spatial frequency component is not attenuated. Therefore, the intra-ML divided pixel addition is effective when the defocus amount for performing the final focus determination is set to be detected.

ステップS405において、焦点検出部109が、ステップS403もしくはS404で生成された像に対して、相関演算(SAD演算)を行う。続いて、ステップS406において、焦点検出部109が、極値の検出処理を行う。続いて、ステップS407において、システム制御部が、極値を検出できたかを判定する。極値を検出できた場合は、システム制御部が、像ずれ量dにKを乗算して得られるデフォーカス量を光学ユニット駆動制御部110に出力して、処理がS409に進む。極値を検出できなかった場合は、処理がS408に進む。   In step S405, the focus detection unit 109 performs a correlation calculation (SAD calculation) on the image generated in step S403 or S404. Subsequently, in step S406, the focus detection unit 109 performs extreme value detection processing. Subsequently, in step S407, the system control unit determines whether an extreme value has been detected. If the extreme value can be detected, the system control unit outputs the defocus amount obtained by multiplying the image shift amount d by K to the optical unit drive control unit 110, and the process proceeds to S409. If the extreme value cannot be detected, the process proceeds to S408.

ステップS408において、システム制御部が、検出モードを大デフォーカス検出モードに設定する。また、ステップS409において、システム制御部が、最終合焦位置を次のフレームで検出するために、検出モードを小デフォーカス検出モードに設定する。このように小デフォーカス検出モードに変更することで、大デフォーカス検出モードでのML間分割画素加算によって減衰する空間周波数による影響を抑えることが可能となる。   In step S408, the system control unit sets the detection mode to the large defocus detection mode. In step S409, the system control unit sets the detection mode to the small defocus detection mode in order to detect the final focus position in the next frame. By changing to the small defocus detection mode in this way, it is possible to suppress the influence of the spatial frequency that is attenuated by the addition of the divided pixels between MLs in the large defocus detection mode.

次に、ステップS410において、システム制御部が、SW1が押されたかを判定する。SW1が押された場合は、処理がステップS402に戻る。SW1が押されていない場合は、オートフォーカス動作を終了する。このように、本実施例では、デフォーカス量の検出モードに応じて、ML間分割画素加算またはML内分割画素加算を実行することで、焦点検出処理の精度を低下させることなくS/N比を向上させることが可能となる。   Next, in step S410, the system control unit determines whether SW1 is pressed. If SW1 is pressed, the process returns to step S402. If SW1 is not pressed, the autofocus operation is terminated. As described above, in this embodiment, the S / N ratio is reduced without reducing the accuracy of the focus detection process by performing the inter-ML divided pixel addition or the intra-ML divided pixel addition according to the defocus amount detection mode. Can be improved.

撮像装置が、以下の方式を適用してもよい。すなわち、撮像装置は、分割画素部を輝度信号化する目的でML間分割画素加算を一定数行った像に対して、さらにデフォーカス量の検出モードに基づいてML間分割画素加算またはML内分割画素加算を実行する。具体的には、輝度信号を行う目的でML間分割画素加算を水平2、垂直2画素加算して瞳分割した像を生成し、さらにS/Nを向上させる目的でML間分割画素加算またはML内分割画素加算を実行する。なお、ML間分割画素加算とML内分割画素加算とを排他的に実行してもよい。   The imaging apparatus may apply the following method. In other words, the imaging apparatus further performs inter-ML divided pixel addition or intra-ML division based on the defocus amount detection mode for an image obtained by performing a certain number of ML divided pixel additions for the purpose of converting the divided pixel portion into a luminance signal. Perform pixel addition. Specifically, an ML divided pixel addition is performed by adding two horizontal pixels and two vertical pixels for the purpose of performing a luminance signal to generate a pupil-divided image, and further, an ML divided pixel addition or ML for the purpose of improving S / N. The inner divided pixel addition is executed. In addition, the inter-ML divided pixel addition and the intra-ML divided pixel addition may be executed exclusively.

また、本実施例では、大デフォーカス量モードの際にML間分割画素加算を選択し、小デフォーカス量モードの際にML内分割画素加算を選択するが、必ずしもこのように制御する必要はない。ML間分割画素加算による相関像と、ML内分割画素加算による相関像とを同時に算出し、大デフォーカス量検出の目的でML間分割画素加算による相関像を用い、最終合焦位置を判定する目的でML内分割画素加算による相関像を用いてもよい。さらに、一方の加算による相関像を他方の相関像の信頼性評価の目的で用いてもよい。具体的には、ML内分割画素加算によって得られた相関像に複数の極値が存在する場合において、ML間分割画素加算によって得られた相関像の極値の像ずれ量付近に存在する極値を有効とする。   Further, in this embodiment, the ML divided pixel addition is selected in the large defocus amount mode, and the ML divided pixel addition is selected in the small defocus amount mode. However, such control is not necessarily required. Absent. A correlation image obtained by addition of divided pixels between ML and a correlation image obtained by addition of divided pixels within ML is calculated at the same time, and a final focused position is determined using a correlation image obtained by addition of divided pixels between ML for the purpose of detecting a large defocus amount. For the purpose, a correlation image obtained by addition of divided pixels in ML may be used. Further, the correlation image obtained by one addition may be used for the purpose of evaluating the reliability of the other correlation image. Specifically, in the case where a plurality of extreme values exist in the correlation image obtained by the intra-ML divided pixel addition, the poles present in the vicinity of the image shift amount of the extreme value of the correlation image obtained by the inter-ML divided pixel addition. The value is valid.

さらに、分割画素加算部108が、ML内分割画素加算で得られた第1の視差画像信号から更にML間分割画素加算で合成された視差画像信号を第2の視差画像信号として生成するようにしてもよい。   Further, the divided pixel addition unit 108 generates a parallax image signal that is further synthesized from the first parallax image signal obtained by the intra-ML divided pixel addition by addition of the divided pixels between ML as the second parallax image signal. May be.

(実施例2)
撮像素子102から全ての分割画素部を読み出し、A/D変換後のデジタル処理によって分割画素部からの信号の加算を行うと、転送時間および消費電力が多くかかってしまう場合がある。そこで、実施例2の撮像装置では、システム制御部が、A/D変換前に、撮像素子内で、予め、第2の合成モードまたは第1の合成モードで信号の合成を行う。
(Example 2)
If all the divided pixel portions are read out from the image sensor 102 and the signals from the divided pixel portions are added by digital processing after A / D conversion, a transfer time and power consumption may be increased. Therefore, in the imaging apparatus according to the second embodiment, the system control unit performs signal synthesis in the second synthesis mode or the first synthesis mode in advance in the imaging device before A / D conversion.

図5は、実施例2で用いられる撮像素子の構成を示す図である。
図5において、PD1A、PD1B、PD1C、PD1D、PD3A,PD3B,PD3C,PD3Dは、それぞれ、分割画素部1A、1B、1C、1D、3A、3B、3C、3Dに対応するフォトダイオードである。フォトダイオードの出力は、Rd1A、Rd1B、Rd1C、Rd1D、Rd3A、Rd3B、Rd3C、Rd3Dの読み出しトランジスタによって、電荷としてフローティングディフュージョン(FD)上に転送される。VDDは、撮像素子の電源であって、ResによってFD上の電荷がクリアされる。Selは、行読み出しトランジスタであって、画素ソースフォロワを介して、画素値が出力される。
FIG. 5 is a diagram illustrating a configuration of an image sensor used in the second embodiment.
In FIG. 5, PD1A, PD1B, PD1C, PD1D, PD3A, PD3B, PD3C, and PD3D are photodiodes corresponding to the divided pixel portions 1A, 1B, 1C, 1D, 3A, 3B, 3C, and 3D, respectively. The output of the photodiode is transferred onto the floating diffusion (FD) as charges by the read transistors Rd1A, Rd1B, Rd1C, Rd1D, Rd3A, Rd3B, Rd3C, and Rd3D. VDD is a power source of the image sensor, and the electric charge on the FD is cleared by Res. Sel is a row readout transistor, and a pixel value is output via a pixel source follower.

実施例1で説明したML間分割画素加算と同等の処理を行うためには、システム制御部が、Resによって画素値をリセットした上で、Rd1AおよびRd3Aのトランジスタを制御し、FD上にPD1AおよびPD3Aの電荷を転送する。次に、システム制御部が、Selを制御し、画素値をA/D変換部103に出力する。同様に、システム制御部が、Rd1BおよびRd3Bを制御することで、横目方向のML分割画素加算を行うことが可能となる。   In order to perform the same processing as the ML divided pixel addition described in the first embodiment, the system control unit resets the pixel value by Res, and then controls the transistors of Rd1A and Rd3A, and PD1A and PD1A on the FD The charge of PD3A is transferred. Next, the system control unit controls Sel and outputs the pixel value to the A / D conversion unit 103. Similarly, the system control unit controls Rd1B and Rd3B, so that ML divided pixel addition in the horizontal direction can be performed.

一方、ML内分割画素加算を行う際には、Rd1A、Rd1CをFDに蓄積し、画素値として出力を行った後で、Rd1B、Rd1Dを同様に制御し出力を行う。このように分割画素部間の加算を行う単位でFDを共有することで、撮像素子102内で分割画素部からの信号の加算を行うことが可能である。   On the other hand, when performing intra-ML divided pixel addition, Rd1A and Rd1C are accumulated in the FD and output as pixel values, and then Rd1B and Rd1D are similarly controlled and output. Thus, by sharing the FD in units for performing addition between the divided pixel portions, it is possible to add signals from the divided pixel portions in the image sensor 102.

実施例2では、システム制御部が、ML間分割画素加算を実行するかML内分割画素加算を実行するかを判定し、判定結果に基づいて、トランジスタの転送の順番を切り換えるレジスタを制御する。このように制御することで、転送時間の削減および省電力化が可能となる。   In the second embodiment, the system control unit determines whether to perform inter-ML divided pixel addition or intra-ML divided pixel addition, and controls a register that switches the order of transfer of transistors based on the determination result. By controlling in this way, transfer time can be reduced and power can be saved.

(実施例3)
実施例3の撮像装置は、画像の方向成分を検出する方向検出手段として斜め線検出フィルタを備える。そして、撮像装置100は、検出された画像の方向成分に基づいて、第2の合成モードまたは第1の合成モードで動作する。
(Example 3)
The image pickup apparatus according to the third embodiment includes a diagonal line detection filter as a direction detection unit that detects a direction component of an image. Then, the imaging apparatus 100 operates in the second synthesis mode or the first synthesis mode based on the detected direction component of the image.

図7は、斜め方向の細線について、ML間分割画素加算で生成される像について説明する図である。
Lは、相関演算を行うオートフォーカス枠の範囲である。Nは、ML間分割画素加算数である。Pは、画素ピッチを示す。θ1およびθ2は、細線の角度を示す。図7(A)および図7(C)は、それぞれ異なる角度の細線を画素上に投影した像を示す。図7(B)は、図7(A)に示す像を垂直方向にML間分割画素加算した結果を示す。図7(D)は、図7(C)に示す像を垂直方向にML間分割画素加算した結果を示す。
FIG. 7 is a diagram for explaining an image generated by ML divided pixel addition with respect to an oblique thin line.
L is a range of an autofocus frame in which correlation calculation is performed. N is an ML divided pixel addition number. P indicates a pixel pitch. θ1 and θ2 indicate the angles of the thin lines. FIG. 7A and FIG. 7C show images obtained by projecting thin lines with different angles onto the pixels. FIG. 7B shows the result of adding the ML divided pixels in the vertical direction to the image shown in FIG. FIG. 7D shows the result of adding the ML divided pixels in the vertical direction to the image shown in FIG.

図7(A)に示す像に対して、垂直N画素のML間分割画素加算を行うと、図7(B)に示されるように、水平方向に一様の輝度値となるので、模様が存在しなくなる。したがって、分割画素部の加算結果に基づいて相関演算を行っても、極が存在しないので、焦点検出処理を行うことが困難である。   When an ML divided pixel addition of vertical N pixels is performed on the image shown in FIG. 7A, a uniform luminance value is obtained in the horizontal direction as shown in FIG. No longer exists. Therefore, even if the correlation calculation is performed based on the addition result of the divided pixel unit, since there is no pole, it is difficult to perform the focus detection process.

一方、図7(C)に示す像に対して垂直N画素のML間分割画素加算を行うと、図7(D)に示されるように、水平方向端部に模様が存在するので、相関演算によって極を検出することが可能となる。つまり、下記の式(3)で示される角度θの細線が、N画素のML間分割加算を行った際に極の検出が可能な細線である。

Figure 2017158039
On the other hand, if ML-interleaved pixel addition of vertical N pixels is performed on the image shown in FIG. 7C, a pattern exists at the edge in the horizontal direction as shown in FIG. Makes it possible to detect the pole. That is, the thin line of the angle θ shown in the following formula (3) is a thin line that can detect the pole when performing the division addition between ML of N pixels.
Figure 2017158039

θで示される範囲は、ML間分割画素加算を行った場合に極を検出可能な細線の角度である。したがって、実施例2では、撮像装置100が、斜め線検出フィルタ(不図示)を備え、この検出フィルタを、ML間分割画素加算を行う前の像に適用する。撮像装置100は、検出フィルタの出力値を閾値と比較し、出力値が閾値以上である場合には、ML間分割加算を行う。撮像装置100は、出力値が閾値未満である場合には、ML内分割画素加算を行う。このように、実施例2の撮像装置100は、斜め線検出フィルタの出力に応じて、ML間分割画素加算またはML内分割画素加算を実行する。もちろん、分割画素部を輝度信号化する目的でML間分割画素加算を選択した上で、さらに、斜め線検出フィルタの出力に応じて、ML内分割画素加算を選択してもよい。   A range indicated by θ is an angle of a thin line capable of detecting a pole when ML divided pixel addition is performed. Therefore, in the second embodiment, the imaging apparatus 100 includes an oblique line detection filter (not shown), and this detection filter is applied to an image before performing the ML divided pixel addition. The imaging apparatus 100 compares the output value of the detection filter with a threshold value, and performs division addition between MLs when the output value is equal to or greater than the threshold value. When the output value is less than the threshold value, the imaging apparatus 100 performs in-ML divided pixel addition. As described above, the imaging apparatus 100 according to the second embodiment performs the inter-ML divided pixel addition or the intra-ML divided pixel addition according to the output of the oblique line detection filter. Of course, it is also possible to select the intra-ML divided pixel addition in accordance with the output of the diagonal line detection filter after selecting the ML divided pixel addition for the purpose of converting the divided pixel portion into a luminance signal.

図8は、斜め線検出フィルタの出力値の例を示す図である。
図8(A)乃至(D)に示す斜め線検出フィルタは、3×3タップのデジタルフィルタである。デジタルフィルタは、各タップ位置に存在する係数を画素ごとに適用することで、斜め線の検出を行うことが可能となる。ML間分割画素加算で角度22.5°までの細線について極を検出可能とする場合は、図8(B)のデジタルフィルタの出力値と図8(D)のデジタルフィルタの出力値を水平方向に積分する。積分した結果が閾値よりも高ければ、極の検出が可能となる。以上説明したように、斜め線検出フィルタによる斜め線の検出結果に応じた合成モードで信号を加算することで、S/N比の高い相関像を得ることが可能となる。
FIG. 8 is a diagram illustrating an example of output values of the oblique line detection filter.
The diagonal line detection filters shown in FIGS. 8A to 8D are 3 × 3 tap digital filters. The digital filter can detect a diagonal line by applying a coefficient present at each tap position for each pixel. When the pole can be detected for the fine line up to an angle of 22.5 ° by adding the divided pixels between ML, the output value of the digital filter in FIG. 8B and the output value of the digital filter in FIG. Integrate into. If the result of integration is higher than the threshold value, the pole can be detected. As described above, it is possible to obtain a correlation image with a high S / N ratio by adding signals in the synthesis mode corresponding to the detection result of the oblique line by the oblique line detection filter.

本実施例では、2×2の分割画素部に分割された撮像素子102を用いて説明を行ったが、本発明の適用範囲は、2×2の分割画素部に分割された撮像素子に限定されない。4×4の分割画素部に分割された撮像素子を用いて、ML間分割画素加算によって極を検出可能な斜め線の角度を実施例3で説明した方法で算出し、その上でML内分割画素加算も併用するようにしてもよい。これにより、細線の検出角度の精度と、検出可能なデフォーカス量とを確保することが可能となる。また、本発明は、ML内分割画素加算またはML間分割画素加算とを、焦点検出処理の種類に応じて実行する焦点検出装置に適用することもできる。   In this embodiment, the image sensor 102 divided into 2 × 2 divided pixel portions has been described. However, the scope of application of the present invention is limited to the image sensor divided into 2 × 2 divided pixel portions. Not. Using the image sensor divided into 4 × 4 divided pixel portions, the angle of the oblique line capable of detecting the pole by adding the divided pixels between MLs is calculated by the method described in the third embodiment, and then the intra-ML division is performed. Pixel addition may also be used together. Thereby, it is possible to ensure the accuracy of the detection angle of the fine line and the defocus amount that can be detected. The present invention can also be applied to a focus detection apparatus that performs intra-ML divided pixel addition or inter-ML divided pixel addition according to the type of focus detection processing.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 撮像装置
108 分割画素加算部
109 焦点検出部
DESCRIPTION OF SYMBOLS 100 Imaging device 108 Divided pixel addition part 109 Focus detection part

Claims (15)

複数の分割画素部をそれぞれ有する複数の画素部を備え視差画像信号を出力可能な撮像素子と、
前記複数の画素部でそれぞれ同じ位置関係にある分割画素部からの信号同士の合成を行って第2の視差画像信号を生成する第2の合成モードと、前記画素部内の前記分割画素部からの信号を合成して第1の視差画像信号を生成する第1の合成モードとを有する合成手段を有する
ことを特徴とする撮像装置。
An image sensor that includes a plurality of pixel units each having a plurality of divided pixel units and is capable of outputting a parallax image signal;
A second synthesis mode for generating a second parallax image signal by synthesizing signals from the divided pixel units having the same positional relationship in the plurality of pixel units, and from the divided pixel units in the pixel unit An image pickup apparatus comprising: a combining unit having a first combining mode for combining signals and generating a first parallax image signal.
前記合成手段は、前記第1の視差画像信号から更に前記第2の合成モードで合成された視差画像信号を前記第2の視差画像信号として生成する
ことを特徴とする請求項1に記載の撮像装置。
The imaging according to claim 1, wherein the synthesizing unit generates a parallax image signal further synthesized from the first parallax image signal in the second synthesis mode as the second parallax image signal. apparatus.
前記第2の視差画像信号を用いて焦点検出を行う焦点検出手段を更に有する
ことを特徴とする請求項1または請求項2に記載の撮像装置。
The imaging apparatus according to claim 1, further comprising a focus detection unit that performs focus detection using the second parallax image signal.
前記合成手段は、焦点検出処理の種類に応じて、前記第2の合成モードまたは前記第1の合成モードで動作する
ことを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。
The imaging apparatus according to any one of claims 1 to 3, wherein the synthesizing unit operates in the second synthesis mode or the first synthesis mode according to a type of focus detection processing. .
前記合成手段は、前記焦点検出処理でのデフォーカス量の検出モードに応じて、前記第2の合成モードまたは前記第1の合成モードで動作する
ことを特徴とする請求項4に記載の撮像装置。
The imaging apparatus according to claim 4, wherein the combining unit operates in the second combining mode or the first combining mode according to a defocus amount detection mode in the focus detection process. .
前記合成手段は、前記焦点検出処理において検出するデフォーカス量の大きさに応じて、前記第2の合成モードまたは前記第1の合成モードで動作する
ことを特徴とする請求項5に記載の撮像装置。
The imaging according to claim 5, wherein the synthesizing unit operates in the second synthesis mode or the first synthesis mode according to a defocus amount detected in the focus detection process. apparatus.
前記合成手段は、前記焦点検出処理において合焦付近のデフォーカス量を検出する場合には、前記第1の合成モードで動作する
ことを特徴とする請求項5または請求項6に記載の撮像装置。
The imaging device according to claim 5 or 6, wherein the synthesizing unit operates in the first synthesis mode when detecting a defocus amount in the vicinity of in-focus in the focus detection process. .
デフォーカス量の検出に用いられる被写体像の帯域を制限する制限手段を備え、
前記合成手段は、前記帯域の制限により得られる帯域の大きさに応じて、前記第2の合成モードまたは前記第1の合成モードで動作する
ことを特徴とする請求項5乃至7のいずれか1項に記載の撮像装置。
Comprising limiting means for limiting the band of the subject image used for detecting the defocus amount;
The said synthesis | combination means operate | moves in the said 2nd synthetic | combination mode or the said 1st synthetic | combination mode according to the magnitude | size of the zone | band obtained by the restriction | limiting of the said band. The imaging device according to item.
前記合成手段は、像高に応じて、前記第2の合成モードで合成する信号の出力元の分割画素部を選択する
ことを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。
9. The imaging according to claim 1, wherein the synthesizing unit selects a divided pixel unit that is an output source of a signal to be synthesized in the second synthesis mode according to an image height. apparatus.
前記画素部の各々に対して、入射光を集光する1つのマイクロレンズが設けられており、
前記複数の分割画素部は、撮像光学系の異なる瞳領域をそれぞれ通過する光束を受光するように瞳分割されている
ことを特徴とする請求項1乃至9のいずれか1項に記載の撮像装置。
One microlens for condensing incident light is provided for each of the pixel portions,
The imaging device according to any one of claims 1 to 9, wherein the plurality of divided pixel units are pupil-divided so as to receive light beams respectively passing through different pupil regions of the imaging optical system. .
前記合成手段が前記第2の合成モードで前記同じ位置関係にある前記分割画素部からの信号同士の合成を行う際の信号の加算方向は、前記瞳分割の方向と直交する方向である
ことを特徴とする請求項10に記載の撮像装置。
The signal adding direction when the synthesizing unit synthesizes the signals from the divided pixel units having the same positional relationship in the second synthesis mode is a direction orthogonal to the pupil division direction. The imaging apparatus according to claim 10, wherein the imaging apparatus is characterized.
前記合成手段は、前記撮像素子内で前記第2の合成モードまたは前記第1の合成モードで動作して信号を合成する
ことを特徴とする請求項1乃至11のいずれか1項に記載の撮像装置。
12. The imaging according to claim 1, wherein the synthesizing unit operates in the second synthesis mode or the first synthesis mode in the imaging device to synthesize a signal. apparatus.
前記画素部は、それぞれ、少なくとも4つ以上の前記分割画素部を有する
ことを特徴とする請求項1乃至12のいずれか1項に記載の撮像装置。
The imaging device according to any one of claims 1 to 12, wherein each of the pixel units includes at least four or more divided pixel units.
画像の方向成分を検出する方向検出手段を備え、
前記合成手段は、前記方向検出手段による前記画像の方向成分の検出結果に基づいて、前記第2の合成モードまたは前記第1の合成モードで動作する
ことを特徴とする請求項1に記載の撮像装置。
A direction detecting means for detecting a direction component of the image;
2. The imaging according to claim 1, wherein the synthesizing unit operates in the second synthesis mode or the first synthesis mode based on a detection result of a direction component of the image by the direction detection unit. apparatus.
複数の分割画素部をそれぞれ有する複数の画素部を備え視差画像信号を出力可能な撮像素子を有する撮像装置の制御方法であって、
前記複数の画素部でそれぞれ同じ位置関係にある分割画素部からの信号同士の合成を行って第2の視差画像信号を生成する第2の合成モードと、前記画素部内の前記分割画素部からの信号を合成して第1の視差画像信号を生成する第1の合成モードとを有する合成工程を有する
ことを特徴とする制御方法。
A method for controlling an imaging apparatus having an imaging device that includes a plurality of pixel units each having a plurality of divided pixel units and is capable of outputting a parallax image signal,
A second synthesis mode for generating a second parallax image signal by synthesizing signals from the divided pixel units having the same positional relationship in the plurality of pixel units, and from the divided pixel units in the pixel unit And a first synthesizing mode for synthesizing signals to generate a first parallax image signal.
JP2016039756A 2016-03-02 2016-03-02 Imaging device and control method thereof Active JP6727856B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016039756A JP6727856B2 (en) 2016-03-02 2016-03-02 Imaging device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016039756A JP6727856B2 (en) 2016-03-02 2016-03-02 Imaging device and control method thereof

Publications (2)

Publication Number Publication Date
JP2017158039A true JP2017158039A (en) 2017-09-07
JP6727856B2 JP6727856B2 (en) 2020-07-22

Family

ID=59810750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016039756A Active JP6727856B2 (en) 2016-03-02 2016-03-02 Imaging device and control method thereof

Country Status (1)

Country Link
JP (1) JP6727856B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014157338A (en) * 2013-02-18 2014-08-28 Canon Inc Distance measurement device, distance measurement method, and imaging apparatus
JP2015119416A (en) * 2013-12-19 2015-06-25 キヤノン株式会社 Image processing device and its control method
JP2015128215A (en) * 2013-12-27 2015-07-09 キヤノン株式会社 Solid state image pickup device and imaging system using the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014157338A (en) * 2013-02-18 2014-08-28 Canon Inc Distance measurement device, distance measurement method, and imaging apparatus
JP2015119416A (en) * 2013-12-19 2015-06-25 キヤノン株式会社 Image processing device and its control method
JP2015128215A (en) * 2013-12-27 2015-07-09 キヤノン株式会社 Solid state image pickup device and imaging system using the same

Also Published As

Publication number Publication date
JP6727856B2 (en) 2020-07-22

Similar Documents

Publication Publication Date Title
JP5387856B2 (en) Image processing apparatus, image processing method, image processing program, and imaging apparatus
US8947585B2 (en) Image capturing apparatus, image processing method, and storage medium
KR20170137633A (en) Image processing apparatus, image capturing apparatus, image processing method, and computer-readable storage medium
JP5470458B2 (en) Imaging apparatus, image processing apparatus, and image processing method
US20160044230A1 (en) Focus detection apparatus, control method for the same, and image capture apparatus
KR101950689B1 (en) Image processing apparatus, image capturing apparatus, image processing method, program, and storage medium
US10021289B2 (en) Image pickup apparatus and image pickup system with point image intensity distribution calculation
US9967451B2 (en) Imaging apparatus and imaging method that determine whether an object exists in a refocusable range on the basis of distance information and pupil division of photoelectric converters
KR20150030615A (en) Image processing apparatus and control method thereof
JP6095266B2 (en) Image processing apparatus and control method thereof
JP2015169722A (en) Imaging apparatus
US20170257583A1 (en) Image processing device and control method thereof
US9591203B2 (en) Image processing apparatus, image processing method, recording medium, and image pickup apparatus
US10362214B2 (en) Control apparatus, image capturing apparatus, control method, and non-transitory computer-readable storage medium
JP2015194736A (en) Imaging device and method for controlling the same
JP2016111678A (en) Image sensor, image capturing apparatus, focus detection apparatus, image processing apparatus, and control method thereof
JP2017032646A (en) Image-capturing device and method for controlling the same
JP5673764B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium
JP2015210285A (en) Imaging device, manufacturing method of the same, program thereof and recording medium
JP6727856B2 (en) Imaging device and control method thereof
KR101839357B1 (en) Imaging apparatus and imaging method
JP2019074634A (en) Imaging apparatus
JP6541477B2 (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
JP6478520B2 (en) Image processing apparatus and control method therefor, imaging apparatus and control method therefor, program, and storage medium
JP6491539B2 (en) Imaging apparatus and control method, system and program thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200701

R151 Written notification of patent or utility model registration

Ref document number: 6727856

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151