JP2009003122A - Imaging device and its control method - Google Patents

Imaging device and its control method Download PDF

Info

Publication number
JP2009003122A
JP2009003122A JP2007163019A JP2007163019A JP2009003122A JP 2009003122 A JP2009003122 A JP 2009003122A JP 2007163019 A JP2007163019 A JP 2007163019A JP 2007163019 A JP2007163019 A JP 2007163019A JP 2009003122 A JP2009003122 A JP 2009003122A
Authority
JP
Japan
Prior art keywords
focus detection
pixels
pixel
imaging
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007163019A
Other languages
Japanese (ja)
Other versions
JP5028154B2 (en
Inventor
Ichiro Onuki
一朗 大貫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007163019A priority Critical patent/JP5028154B2/en
Priority to US12/141,575 priority patent/US7920781B2/en
Publication of JP2009003122A publication Critical patent/JP2009003122A/en
Application granted granted Critical
Publication of JP5028154B2 publication Critical patent/JP5028154B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/08Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted to co-operate with a remote control mechanism
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/285Systems for automatic generation of focusing signals including two or more different focus detection devices, e.g. both an active and a passive focus detecting device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/771Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising storage means other than floating diffusion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Focusing (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform further accurate focus detection by improving the detection capability of luminance distribution of a subject in a focus detection part. <P>SOLUTION: The imaging device comprises an imaging element 107, a composition means 902, a connection means 903, and an arithmetic means 904. The imaging element 107 includes a plurality of focus detection parts 901 each composed of a pupil-divided first focus detection pixel 901a and a second focus detection pixel 901b, and the composition means 902 performs, in a plurality of sections CST assigned to the imaging element 107, processing for obtaining a first composition signal by composing an output signal from the first focus detection pixel 901a and processing for obtaining a second composition signal by composing output signal from the second focus detection pixel 901b. The connection means 903 performs processing for obtaining a first connection signal by connecting the first composition signal and processing for obtaining a second connection signal by connecting the second composition signal, and the arithmetic means 904 computes a focal slippage based on the first connection signal and the second connection signal. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、2次元に構成された複数の光電変換素子で静止画及び動画の少なくとも一方を撮像可能な撮像素子を用いた撮像装置及びその制御方法に関する。   The present invention relates to an image pickup apparatus using an image pickup device capable of picking up at least one of a still image and a moving image with a plurality of two-dimensionally configured photoelectric conversion elements, and a control method thereof.

撮像装置の自動焦点検出・調節方法で撮影光学系を通過した光束を用いる一般的な方式として、コントラスト検出方式(ぼけ方式と呼ばれる)と位相差検出方式(ずれ方式と呼ばれる)とがある。   There are a contrast detection method (called a blur method) and a phase difference detection method (called a shift method) as a general method using a light beam that has passed through a photographing optical system in an automatic focus detection / adjustment method of an imaging apparatus.

コントラスト検出方式は動画撮影用ビデオムービー機器(カムコーダー)や電子スチルカメラで多く用いられる方式であり、撮像素子が焦点検出用センサとして用いられるものである。撮像素子の出力信号、特に高周波成分の情報(コントラスト情報)に着目し、その評価値が最も大きくなる撮影光学系の位置を合焦位置とする方式である。しかしながら、山登り方式とも言われるように、撮影光学系を微少量動かしながら評価値を求め、その評価値が結果的に最大であったとわかるまで動かす事が必要であるため、高速な焦点調節動作には不向きとされている。   The contrast detection method is a method often used in video movie equipment (camcorder) for video recording and electronic still cameras, and an image sensor is used as a focus detection sensor. Focusing on the output signal of the image sensor, particularly information on high-frequency components (contrast information), the position of the photographing optical system having the largest evaluation value is used as the in-focus position. However, it is necessary to move the photographic optical system while moving the photographic optical system by a small amount, and it is necessary to move until the evaluation value is found to be the maximum, so that it is possible to perform high-speed focus adjustment. Is not suitable.

もう一方の位相差検出方式は、銀塩フィルムによる一眼レフカメラに多く用いられ、自動焦点検出(Auto Focus:AF)一眼レフカメラの実用化に最も貢献した技術である。位相差検出方式では、撮影光学系の射出瞳を通過した光束を2分割し、2分割した光束を一組の焦点検出用センサによりそれぞれ受光する。そして、その受光量に応じて出力される信号のずれ量、すなわち、光束の分割方向の相対的位置ずれ量を検出することで撮影光学系のピント方向のずれ量を直接求めるものである。従って、焦点検出用センサにより一度蓄積動作を行なえばピントずれの量と方向が得られ、高速な焦点調節動作が可能となっている。但し、撮影光学系の射出瞳を通過した光束を2分割し、それぞれの光束に対応する信号を得るためには、撮像光路中にクイックリターンミラーやハーフミラー等の光路分割手段を設け、その先に焦点検出用光学系とAFセンサを設けるのが一般的である。そのため、装置が大型、かつ高価となる欠点がある。   The other phase difference detection method is often used in a single-lens reflex camera using a silver salt film, and is the technology that has contributed most to the practical application of an auto focus (AF) single-lens reflex camera. In the phase difference detection method, the light beam that has passed through the exit pupil of the photographing optical system is divided into two, and the two divided light beams are received by a set of focus detection sensors. Then, the amount of deviation in the focus direction of the photographic optical system is directly obtained by detecting the amount of deviation of the output signal according to the amount of received light, that is, the amount of relative positional deviation in the beam splitting direction. Therefore, once the accumulation operation is performed by the focus detection sensor, the amount and direction of the focus shift can be obtained, and high-speed focus adjustment operation is possible. However, in order to divide the light beam that has passed through the exit pupil of the photographing optical system into two and obtain signals corresponding to the respective light beams, optical path dividing means such as a quick return mirror or a half mirror is provided in the imaging optical path, and beyond In general, a focus detection optical system and an AF sensor are provided. Therefore, there is a drawback that the apparatus is large and expensive.

この欠点を解消するために、撮像素子に位相差検出機能を付与し、専用のAFセンサを不要とし、かつ高速の位相差AFを実現するための技術も開示されている。   In order to eliminate this drawback, a technique for providing a phase difference detection function to an image sensor, making a dedicated AF sensor unnecessary, and realizing high-speed phase difference AF is also disclosed.

例えば、特許文献1では、撮像素子の一部の受光素子(画素)において、オンチップマイクロレンズの光軸に対して受光部の感度領域を偏心させることで瞳分割機能を付与している。そしてこれらの画素を焦点検出用画素とし、撮像用画素群の間に所定の間隔で配置することで、位相差式焦点検出を行なう。また、焦点検出用画素が配置された箇所は撮像画素の欠損部に相当するため、周辺の撮像画素情報から補間して画像情報を生成している。   For example, in Patent Document 1, in some of the light receiving elements (pixels) of the image sensor, the pupil division function is provided by decentering the sensitivity region of the light receiving unit with respect to the optical axis of the on-chip microlens. These pixels are used as focus detection pixels, and are arranged at predetermined intervals between the imaging pixel groups, thereby performing phase difference focus detection. Further, since the location where the focus detection pixels are arranged corresponds to a defective portion of the imaging pixel, image information is generated by interpolation from surrounding imaging pixel information.

また、特許文献2では、撮像素子の一部の画素の受光部を左右方向又は上下方向に2分割することで瞳分割機能を付与している。そしてこれらの画素を焦点検出用画素(焦点検出部)とし、撮像用画素群の間に所定の間隔で配置することで、位相差式焦点検出を行なう。また、当技術においても焦点検出用画素が配置された箇所は撮像画素が欠損しているため、周辺の撮像画素情報から補間して画像情報を生成している。   Moreover, in patent document 2, the pupil division function is provided by dividing the light receiving part of a part of pixels of the image sensor into two in the left-right direction or the up-down direction. These pixels are used as focus detection pixels (focus detection units), and are arranged at predetermined intervals between the imaging pixel groups to perform phase difference focus detection. Also, in this technology, since the image pickup pixel is missing at the position where the focus detection pixel is arranged, the image information is generated by interpolation from the peripheral image pickup pixel information.

また、特許文献3では、撮像素子の一部の画素の受光部を上下方向に2分割することで瞳分割機能を付与し、2分割された受光部の出力を個別に処理することで、上下方向に輝度分布を有した被写体に対して位相差式焦点検出を行なう。また、2分割受光部の出力を合算することで撮像信号にも用いるほか、左右方向に隣接した画素間のコントラストを検出することで、該方向に輝度分布を有する被写体に対してコントラスト式焦点検出を行なう技術が開示されている。   Further, in Patent Document 3, a pupil division function is provided by vertically dividing a light receiving portion of a part of a pixel of an image sensor in the vertical direction, and an output of the light receiving portion divided in two is individually processed. Phase difference focus detection is performed on a subject having a luminance distribution in the direction. In addition to adding the outputs of the two-part light receiving unit, it is also used for imaging signals, and by detecting the contrast between adjacent pixels in the left-right direction, contrast-type focus detection is performed on a subject having a luminance distribution in that direction. A technique for performing is disclosed.

また、特許文献4では、受光部を左右方向又は上下方向に分割した焦点検出用素子を、撮像素子の1行おきに繰り返し配置することで、左右方向及び上下方向に輝度分布を有した被写体に対して位相差式焦点検出を行なう技術が開示されている。
特開2000−156823号公報 特開2000−292686号公報 特開2001−305415号公報 特開2003−153291号公報
Further, in Patent Document 4, a focus detection element obtained by dividing the light receiving unit in the left-right direction or the up-down direction is repeatedly arranged in every other row of the image sensor, so that an object having a luminance distribution in the left-right direction and the up-down direction can be obtained. On the other hand, a technique for performing phase difference type focus detection is disclosed.
JP 2000-156823 A JP 2000-292686 A JP 2001-305415 A JP 2003-153291 A

しかしながら、特許文献1〜4のいずれも、焦点検出部の1つ1つの輝度は小さく、被写体の輝度分布を十分に検出することが出来ない場合があった。そのため、正確な焦点検出を行うことが困難であるという課題があった。   However, in each of Patent Documents 1 to 4, the brightness of each focus detection unit is small, and the brightness distribution of the subject may not be sufficiently detected. Therefore, there is a problem that it is difficult to perform accurate focus detection.

本発明は、上記の課題に鑑みてなされたものであり、焦点検出部における検出能力を向上させ、より正確な焦点検出を行うことを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to improve detection capability in a focus detection unit and perform more accurate focus detection.

本発明の第1の側面は、撮像装置に係り、瞳分割された第1の焦点検出用画素と第2の焦点検出用画素とで構成される焦点検出部を複数有する撮像素子と、複数の前記焦点検出部を含むように前記撮像素子にそれぞれ割り当てられた複数のセクションの各々において、前記第1の焦点検出用画素からの出力信号を合成して第1の合成信号を得る処理と、前記第2の焦点検出用画素からの出力信号を合成して第2の合成信号を得る処理とを行う合成手段と、前記複数のセクションに渡って、前記第1の合成信号を連結して第1の連結信号を得る処理と、前記第2の合成信号を連結して第2の連結信号を得る処理とを行う連結手段と、前記第1の連結信号及び前記第2の連結信号に基づいて、結像光学系の焦点ずれ量を演算する演算手段と、を備えることを特徴とする。   A first aspect of the present invention relates to an imaging apparatus, and includes an imaging element having a plurality of focus detection units each including a first focus detection pixel and a second focus detection pixel that are divided into pupils, In each of a plurality of sections allocated to the image sensor so as to include the focus detection unit, a process of obtaining a first synthesized signal by synthesizing an output signal from the first focus detection pixel; A synthesizing unit configured to synthesize an output signal from the second focus detection pixel to obtain a second synthesized signal; and a first unit configured by coupling the first synthesized signal across the plurality of sections. Based on the first connection signal and the second connection signal, the connection means for performing the process of obtaining the connection signal of the second and the second combined signal to obtain the second connection signal, And a calculation means for calculating the defocus amount of the imaging optical system. And wherein the Rukoto.

本発明の第2の側面は、瞳分割された第1の焦点検出用画素と第2の焦点検出用画素とで構成される焦点検出部を複数有する撮像素子を備えた撮像装置の制御方法に係り、前記撮像素子に前記焦点検出部を複数含むセクションを複数割り当てる工程と、前記複数のセクションの各々において、前記第1の焦点検出用画素からの出力信号を合成して第1の合成信号を得る工程と、前記複数のセクションの各々において、前記第2の焦点検出用画素からの出力信号を合成して第2の合成信号を得る工程と、前記複数のセクションに渡って、前記第1の合成信号を連結して第1の連結信号を得る工程と、前記複数のセクションに渡って、前記第2の合成信号を連結して第2の連結信号を得る工程と、前記第1の連結信号及び前記第2の連結信号に基づいて、結像光学系の焦点ずれ量を演算する工程と、を含むことを特徴とする。   According to a second aspect of the present invention, there is provided a control method for an image pickup apparatus including an image pickup device having a plurality of focus detection units each including a first focus detection pixel and a second focus detection pixel which are divided into pupils. In particular, a step of assigning a plurality of sections including the plurality of focus detection units to the image sensor, and a first synthesized signal obtained by synthesizing output signals from the first focus detection pixels in each of the plurality of sections. Obtaining a second synthesized signal by synthesizing an output signal from the second focus detection pixel in each of the plurality of sections, and obtaining the second synthesized signal over the plurality of sections. Concatenating synthesized signals to obtain a first concatenated signal; concatenating the second synthesized signal across the plurality of sections to obtain a second concatenated signal; and the first concatenated signal. And based on the second connection signal There are, characterized in that it comprises a step of calculating a defocus amount of the imaging optical system, the.

本発明によれば、焦点検出部における検出能力を向上させ、より正確な焦点検出を行うことができる。   ADVANTAGE OF THE INVENTION According to this invention, the detection capability in a focus detection part can be improved, and more exact focus detection can be performed.

以下、本発明の好適な実施形態に係る撮像装置及びその制御方法について、図面を参照して詳細に説明する。   Hereinafter, an imaging device and a control method thereof according to preferred embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施形態)
図1〜図20は本発明の実施形態に係る撮像装置及びその制御方法を説明する図である。以下、図を用いて実施形態の作用を説明する。
(First embodiment)
1 to 20 are diagrams illustrating an imaging apparatus and a control method thereof according to an embodiment of the present invention. Hereinafter, the operation of the embodiment will be described with reference to the drawings.

図1は本発明の好適な実施の形態に係る撮像装置の構成図であり、撮像素子を有したカメラ本体と撮影光学系が一体となった電子カメラを示している。同図において、101は撮影光学系(結像光学系)の先端に配置された第1レンズ群であり、光軸方向に進退可能に保持される。102は絞り兼用シャッタであり、その開口径を調節することで撮影時の光量調節を行なうほか、静止画撮影時には露光秒時調節用シャッタとしての機能も備える。103は第2レンズ群である。そして絞り兼用シャッタ102及び第2レンズ群103は一体となって光軸方向に進退し、第1レンズ群101の進退動作との連動により、変倍作用(ズーム機能)をなす。   FIG. 1 is a configuration diagram of an image pickup apparatus according to a preferred embodiment of the present invention, and shows an electronic camera in which a camera body having an image sensor and a photographing optical system are integrated. In the figure, reference numeral 101 denotes a first lens group disposed at the tip of a photographing optical system (imaging optical system), which is held so as to be able to advance and retract in the optical axis direction. Reference numeral 102 denotes an aperture / shutter which adjusts the light amount at the time of shooting by adjusting the aperture diameter, and also has a function as an exposure time adjustment shutter at the time of still image shooting. Reference numeral 103 denotes a second lens group. The diaphragm shutter 102 and the second lens group 103 integrally move forward and backward in the optical axis direction, and perform a zooming function (zoom function) in conjunction with the forward and backward movement of the first lens group 101.

105は第3レンズ群であり、光軸方向の進退により、焦点調節を行なう。106は光学的ローパスフィルタであり、撮影画像の偽色やモアレを軽減するための光学素子である。107はCMOSイメージセンサとその周辺回路で構成された撮像素子である。この撮像素子は、横方向m画素、縦方向n画素の受光画素上に、ベイヤー配列の原色カラーモザイクフィルタがオンチップで形成された、2次元単板カラーセンサが用いられる。   Reference numeral 105 denotes a third lens group, which performs focus adjustment by moving back and forth in the optical axis direction. Reference numeral 106 denotes an optical low-pass filter, which is an optical element for reducing false colors and moire in a captured image. Reference numeral 107 denotes an image sensor composed of a CMOS image sensor and its peripheral circuits. This image sensor uses a two-dimensional single-plate color sensor in which a Bayer array primary color mosaic filter is formed on-chip on light receiving pixels of m pixels in the horizontal direction and n pixels in the vertical direction.

111はズームアクチュエータであり、不図示のカム筒を回動することで、第1レンズ群101〜第3レンズ群103を光軸方向に進退駆動し、変倍操作を行なう。112は絞りシャッタアクチュエータであり、絞り兼用シャッタ102の開口径を制御して撮影光量を調節すると共に、静止画撮影時の露光時間制御を行なう。114はフォーカスアクチュエータであり、第3レンズ群105を光軸方向に進退駆動して焦点調節を行なう。   Reference numeral 111 denotes a zoom actuator, which rotates a cam cylinder (not shown) to drive the first lens group 101 to the third lens group 103 forward and backward in the optical axis direction to perform a zooming operation. Reference numeral 112 denotes an aperture shutter actuator which controls the aperture diameter of the aperture / shutter 102 to adjust the amount of photographing light and controls the exposure time during still image photographing. Reference numeral 114 denotes a focus actuator, which performs focus adjustment by driving the third lens group 105 forward and backward in the optical axis direction.

115は撮影時の被写体照明用電子フラッシュであり、キセノン管を用いた閃光照明装置が好適であるが、連続発光するLEDを備えた照明装置を用いても良い。116はAF補助光手段であり、所定の開口パターンを有したマスクの像を、投光レンズを介して被写界に投影し、暗い被写体や低コントラスト被写体に対する焦点検出能力を向上させる。   Reference numeral 115 denotes an electronic flash for illuminating a subject at the time of photographing, and a flash illumination device using a xenon tube is suitable, but an illumination device including an LED that emits light continuously may be used. Reference numeral 116 denotes an AF auxiliary light unit that projects an image of a mask having a predetermined aperture pattern onto a subject field via a light projection lens, thereby improving the focus detection capability for a dark subject or a low-contrast subject.

121はCPUであり、撮像装置内でカメラ本体の種々の制御を司る。CPU121は、例えば、演算部、ROM、RAM、A/Dコンバータ、D/Aコンバータ、通信インターフェイス回路等を有する。そして、CPU121は、ROMに記憶された所定のプログラムに基づいて、撮像装置が有する各種回路を駆動し、AF、撮影、画像処理と記録等の一連の動作を実行する。   Reference numeral 121 denotes a CPU which controls various controls of the camera body in the imaging apparatus. The CPU 121 includes, for example, a calculation unit, ROM, RAM, A / D converter, D / A converter, communication interface circuit, and the like. Then, the CPU 121 drives various circuits included in the imaging apparatus based on a predetermined program stored in the ROM, and executes a series of operations such as AF, shooting, image processing, and recording.

122は電子フラッシュ制御回路であり、撮影動作に同期して照明手段115を点灯制御する。123は補助光駆動回路であり、焦点検出動作に同期してAF補助光手段116を点灯制御する。124は撮像素子駆動回路であり、撮像素子107の撮像動作を制御するとともに、取得した画像信号をA/D変換してCPU121に送信する。125は画像処理回路であり、撮像素子107が取得した画像のγ変換、カラー補間、JPEG圧縮等の処理を行なう。   An electronic flash control circuit 122 controls lighting of the illumination unit 115 in synchronization with the photographing operation. Reference numeral 123 denotes an auxiliary light driving circuit, which controls lighting of the AF auxiliary light unit 116 in synchronization with the focus detection operation. Reference numeral 124 denotes an image sensor drive circuit that controls the image capturing operation of the image sensor 107 and A / D-converts the acquired image signal and transmits it to the CPU 121. An image processing circuit 125 performs processing such as γ conversion, color interpolation, and JPEG compression of an image acquired by the image sensor 107.

126はフォーカス駆動回路であり、焦点検出結果に基づいてフォーカスアクチュエータ114を駆動制御し、第3レンズ群105を光軸方向に進退駆動して焦点調節を行なう。128は絞りシャッタ駆動回路であり、絞りシャッタアクチュエータ112を駆動制御して絞り兼用シャッタ102の開口を制御する。129はズーム駆動回路であり、撮影者のズーム操作に応じてズームアクチュエータ111を駆動する。   A focus driving circuit 126 controls the focus actuator 114 based on the focus detection result, and performs focus adjustment by driving the third lens group 105 back and forth in the optical axis direction. Reference numeral 128 denotes an aperture shutter drive circuit which controls the aperture shutter actuator 112 to control the aperture of the aperture / shutter 102. Reference numeral 129 denotes a zoom drive circuit that drives the zoom actuator 111 in accordance with the zoom operation of the photographer.

131はLCD等の表示器であり、撮像装置の撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、焦点検出時の合焦状態表示画像等を表示する。132は操作スイッチ群であり、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等で構成される。133は着脱可能なフラッシュメモリであり、撮影済み画像を記録する。   Reference numeral 131 denotes a display such as an LCD, which displays information related to the shooting mode of the imaging apparatus, a preview image before shooting and a confirmation image after shooting, a focus state display image at the time of focus detection, and the like. An operation switch group 132 includes a power switch, a release (shooting trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like. Reference numeral 133 denotes a detachable flash memory that records a photographed image.

図2は本発明の好適な実施形態に係る撮像素子の概略的回路構成図を示したものであり、本発明者による特開平09−046596号公報等に開示された技術を用いて製造されうる。図2はCMOSイメージセンサが2次元に配列されたエリアセンサのうち2列×4行の画素領域を示したものである。撮像素子として利用する場合は、図2に示した画素領域が複数配置され、高解像度画像の取得を可能としている。本実施形態においては、画素ピッチが2μm、有効画素数が横3000列×縦2000行=600万画素、撮像画面サイズが横6mm×縦4mmのデジタルスチルカメラ用の撮像素子を一例として説明を行なう。   FIG. 2 is a schematic circuit diagram of an image sensor according to a preferred embodiment of the present invention, which can be manufactured by using the technique disclosed in Japanese Patent Laid-Open No. 09-046596 by the present inventor. . FIG. 2 shows a pixel region of 2 columns × 4 rows in an area sensor in which CMOS image sensors are two-dimensionally arranged. When used as an image sensor, a plurality of pixel regions shown in FIG. 2 are arranged to enable acquisition of a high resolution image. In the present embodiment, an image sensor for a digital still camera having a pixel pitch of 2 μm, an effective pixel number of 3000 columns × 2000 rows = 6 million pixels, and an image capture screen size of 6 mm × 4 mm is described as an example. .

図2において、1はトランジスタで構成された光電変換素子、2はフォトゲート、3は転送スイッチトランジスタである。光電変換素子1、フォトゲート2及び転送スイッチトランジスタ3により画素30−11〜30−32のうちの1画素が構成されている。4はリセット用トランジスタ、5はソースフォロワアンプトランジスタ、6は水平選択スイッチトランジスタ、7はソースフォロワの負荷トランジスタである。8は暗出力転送トランジスタ、9は明出力転送トランジスタ、10は暗出力蓄積容量CTN、11は明出力蓄積容量CTS、12は水平転送トランジスタである。13は水平出力線リセットトランジスタ、14は差動出力アンプ、15は水平走査回路、16は垂直走査回路である。なお、図2に示す各トランジスタは、例えば、MOSトランジスタで構成されうる。 In FIG. 2, reference numeral 1 denotes a photoelectric conversion element formed of a transistor, 2 denotes a photogate, and 3 denotes a transfer switch transistor. The photoelectric conversion element 1, the photogate 2, and the transfer switch transistor 3 constitute one pixel among the pixels 30-11 to 30-32. 4 is a reset transistor, 5 is a source follower amplifier transistor, 6 is a horizontal selection switch transistor, and 7 is a load transistor of the source follower. 8 the dark output transfer transistor 9 bright output transfer transistor 10 is dark output accumulation capacitor C TN, 11 is bright output accumulation capacitor C TS, 12 a horizontal transfer transistor. 13 is a horizontal output line reset transistor, 14 is a differential output amplifier, 15 is a horizontal scanning circuit, and 16 is a vertical scanning circuit. Note that each transistor shown in FIG. 2 can be formed of, for example, a MOS transistor.

図3に2画素で構成されるユニットの断面図を示す。図3のユニット301は、図2の画素30−11及び画素30−21の2画素を1ユニットで構成したものを例示的に示したものである。図3において、17はPウェル、18は酸化膜等で形成されるゲート絶縁膜、19は一層目のポリSi、20は二層目のポリSi、21はnフローティングディフュージョン部(FD)である。21のFDは他の転送トランジスタを介して他の光電変換素子と接続される。図3において、2つの転送スイッチトランジスタ3のドレインとFD部21を共通化して微細化とFD部21の容量低減による感度向上を図っているが、Al等の配線でFD部21を接続しても良い。 FIG. 3 shows a cross-sectional view of a unit composed of two pixels. The unit 301 in FIG. 3 shows an example in which two pixels of the pixel 30-11 and the pixel 30-21 in FIG. 2 are configured as one unit. In FIG. 3, 17 is a P well, 18 is a gate insulating film formed of an oxide film, 19 is a first layer of poly-Si, 20 is a second layer of poly-Si, and 21 is an n + floating diffusion portion (FD). is there. The FD 21 is connected to another photoelectric conversion element via another transfer transistor. In FIG. 3, the drains of the two transfer switch transistors 3 and the FD portion 21 are made common to improve the sensitivity by miniaturization and the capacitance reduction of the FD portion 21, but the FD portion 21 is connected by a wiring such as Al. Also good.

次に、図4のタイミングチャートを用いて動作を説明する。このタイミングチャートは全画素独立出力の場合である。図4において、横軸は時間、縦軸は各信号の信号波形を示す。   Next, the operation will be described with reference to the timing chart of FIG. This timing chart is for the case of all pixel independent output. In FIG. 4, the horizontal axis represents time, and the vertical axis represents the signal waveform of each signal.

まず垂直走査回路16からのタイミング出力によって、制御パルスφLをハイとして垂直出力線をリセットする。また制御パルスφR0,φPG00,φPGe0をハイとし、リセット用トランジスタ4をオンとし、フォトゲート2の一層目のポリSi19をハイとしておく。期間T0において、制御パルスφS0をハイとし、選択スイッチトランジスタ6をオンさせ、第1、第2ラインの画素を選択する。次に制御パルスφR0をロウとし、FD部21のリセットを止め、FD部21をフローティング状態とする。FD部21に蓄積される電荷は、ソースフォロワアンプトランジスタ5のゲートを介して、電圧の変化としてソースから読み出される。その後、期間T1において制御パルスφTNをハイとし、FD部21から読み出された暗電圧をソースフォロワ動作で蓄積容量CTN10に出力させる。   First, according to the timing output from the vertical scanning circuit 16, the control pulse φL is set to high to reset the vertical output line. Further, the control pulses φR0, φPG00, and φPGe0 are set high, the reset transistor 4 is turned on, and the first-layer poly Si 19 of the photogate 2 is set high. In the period T0, the control pulse φS0 is set high, the selection switch transistor 6 is turned on, and the pixels on the first and second lines are selected. Next, the control pulse φR0 is set low, the reset of the FD unit 21 is stopped, and the FD unit 21 is set in a floating state. The charge accumulated in the FD unit 21 is read from the source as a voltage change via the gate of the source follower amplifier transistor 5. Thereafter, the control pulse φTN is set to high in the period T1, and the dark voltage read from the FD unit 21 is output to the storage capacitor CTN10 by the source follower operation.

次に、第1ラインの画素の光電変換出力を行うため、第1ラインの制御パルスφTX00をハイとして転送スイッチトランジスタ3を導通した後、期間T2において制御パルスφPG00をローとする。この時フォトゲート2の下に拡がっていたポテンシャル井戸を上げて、光発生キャリアをFD部21に完全転送させるような電圧関係が好ましい。従って完全転送が可能であれば制御パルスφTXはパルスではなくある固定電位でもかまわない。   Next, in order to perform photoelectric conversion output of the pixels of the first line, the control pulse φTX00 of the first line is set high, the transfer switch transistor 3 is turned on, and then the control pulse φPG00 is set low during the period T2. At this time, a voltage relationship is preferable in which the potential well that has spread under the photogate 2 is raised so that photogenerated carriers are completely transferred to the FD portion 21. Therefore, if complete transfer is possible, the control pulse φTX may be a fixed potential instead of a pulse.

期間T2でフォトダイオードの光電変換素子1からの電荷がFD部21に転送されることにより、FD部21の電位が光に応じて変化することになる。この時ソースフォロワアンプトランジスタ5がフローティング状態であるので、FD部21の電位を期間T3において制御パルスφTsをハイとして蓄積容量CTS11に出力する。この時点で第1ラインの画素の暗出力と光出力はそれぞれ蓄積容量CTN10とCTS11に蓄積されている。そして、期間T4で制御パルスφHCを一時ハイとして水平出力線リセットトランジスタ13を導通して水平出力線をリセットし、水平転送期間において水平走査回路15の走査タイミング信号により水平出力線に画素の暗出力と光出力が出力される。この時、蓄積容量CTN10とCTS11の差動増幅器14によって、差動出力VOUTを取れば、画素のランダムノイズ、固定パターンノイズを除去したS/Nの良い信号が得られる。また画素30−12、30−22の光電荷は、画素30−11、30−21と同時に夫々の蓄積容量CTN10とCTS11に蓄積される。しかしながら、その読み出しは水平走査回路15からのタイミングパルスを1画素分遅延させて、水平出力線に読み出して差動増幅器14から出力される。   In the period T2, the electric charge from the photoelectric conversion element 1 of the photodiode is transferred to the FD unit 21, so that the potential of the FD unit 21 changes according to light. At this time, since the source follower amplifier transistor 5 is in a floating state, the potential of the FD section 21 is output to the storage capacitor CTS11 with the control pulse φTs being high in the period T3. At this time, the dark output and the light output of the pixels on the first line are stored in the storage capacitors CTN10 and CTS11, respectively. In the period T4, the control pulse φHC is temporarily set to high to turn on the horizontal output line reset transistor 13 to reset the horizontal output line, and in the horizontal transfer period, the dark output of the pixel to the horizontal output line is performed by the scanning timing signal of the horizontal scanning circuit 15. And output light. At this time, if the differential output VOUT is obtained by the differential amplifier 14 of the storage capacitors CTN10 and CTS11, a signal with good S / N from which random noise and fixed pattern noise of the pixel are removed can be obtained. The photocharges of the pixels 30-12 and 30-22 are accumulated in the respective storage capacitors CTN10 and CTS11 simultaneously with the pixels 30-11 and 30-21. However, in the readout, the timing pulse from the horizontal scanning circuit 15 is delayed by one pixel, read out to the horizontal output line, and output from the differential amplifier 14.

本実施形態では、差動出力VOUTをチップ内で行う構成を示しているが、チップ内に含めず、外部で従来のCDS(Correlated Double Sampling:相関二重サンプリング)回路を用いても同様の効果が得られる。   In the present embodiment, the configuration in which the differential output VOUT is performed in the chip is shown. However, the same effect can be obtained even if a conventional CDS (Correlated Double Sampling) circuit is used outside without being included in the chip. Is obtained.

蓄積容量CTS11に明出力を出力した後、制御パルスφR0をハイとしてリセット用トランジスタ4を導通し、FD部21を電源VDDにリセットする。第1ラインの水平転送が終了した後、第2ラインの読み出しを行う。第2ラインの読み出しは、制御パルスφTXe0、制御パルスφPGe0を同様に駆動させ、制御パルスφTN、φTSに夫々ハイパルスを供給して、蓄積容量CTN10とCTS11に夫々光電荷を蓄積し、暗出力及び明出力を取り出す。以上の駆動により、第1、第2ラインの読み出しが夫々独立に行なえる。この後、垂直走査回路を走査させ、同様に第2n+1ライン、第2n+2ライン(n=1、2、…)の読み出しを行なえば、全画素独立出力が行える。例えば、n=1の場合は、まず制御パルスφS1をハイとし、次に次にφR1をローとする。次いで、制御パルスφTN、φTX01をハイとし、制御パルスφPG01をロー、制御パルスφTSをハイ、制御パルスφHCを一時ハイとして画素30−31、30−32の画素信号を読み出す。続いて、制御パルスφTXe1、φPGe1及び上記と同様に制御パルスを印加して、画素30−41、30−42の画素信号を読み出す。   After outputting a bright output to the storage capacitor CTS11, the control transistor φR0 is set to high to turn on the reset transistor 4, and the FD unit 21 is reset to the power supply VDD. After the horizontal transfer of the first line is completed, the second line is read. In reading the second line, the control pulse φTXe0 and the control pulse φPGe0 are driven in the same manner, and high pulses are supplied to the control pulses φTN and φTS, respectively, and photocharges are accumulated in the storage capacitors CTN10 and CTS11, respectively. Take the output. With the above driving, the first and second lines can be read independently. Thereafter, by scanning the vertical scanning circuit and similarly reading out the 2n + 1 line and the 2n + 2 line (n = 1, 2,...), All pixels can be independently output. For example, when n = 1, first, the control pulse φS1 is set to high, and then φR1 is set to low. Next, the control pulses φTN and φTX01 are set to high, the control pulse φPG01 is set to low, the control pulse φTS is set to high, and the control pulse φHC is set to high temporarily to read the pixel signals of the pixels 30-31 and 30-32. Subsequently, the control pulses φTXe1, φPGe1 and the control pulse are applied in the same manner as described above, and the pixel signals of the pixels 30-41, 30-42 are read out.

図5〜図7は、撮像用画素と焦点検出用画素の構造を説明する図である。本発明の好適な実施形態においては、2行×2列の4画素のうち、対角2画素にG(緑色)の分光感度を有する画素を配置し、他の2画素にR(赤色)とB(青色)の分光感度を有する画素を各1個配置した、ベイヤー配列が採用されている。そして、このベイヤー配列の間に、後述する構造の焦点検出用画素が所定の規則にて分散配置される。   5 to 7 are diagrams illustrating the structures of the imaging pixels and the focus detection pixels. In a preferred embodiment of the present invention, out of 4 pixels of 2 rows × 2 columns, a pixel having a spectral sensitivity of G (green) is arranged in 2 diagonal pixels, and R (red) is placed in the other 2 pixels. A Bayer arrangement in which one pixel each having B (blue) spectral sensitivity is arranged is employed. In addition, focus detection pixels having a structure described later are distributed and arranged in a predetermined rule between the Bayer arrays.

図5に撮像用画素の配置と構造を示す。図5(a)は2行×2列の撮像用画素の平面図である。周知のように、ベイヤー配列では対角方向にG画素が、他の2画素にRとBの画素が配置される。そして2行×2列の構造が繰り返し配置される。   FIG. 5 shows the arrangement and structure of the imaging pixels. FIG. 5A is a plan view of 2 × 2 imaging pixels. As is well known, in the Bayer array, G pixels are arranged diagonally, and R and B pixels are arranged in the other two pixels. A structure of 2 rows × 2 columns is repeatedly arranged.

図5(a)におけるA−A断面図を図5(b)に示す。MLは各画素の最前面に配置されたオンチップマイクロレンズ、CFはR(赤色)のカラーフィルタ、CFはG(緑色)のカラーフィルタである。PD(Photo Diode)は図3で説明したCMOSイメージセンサの光電変換素子を模式的に示したものである。CL(Contact Layer)は、CMOSイメージセンサ内の各種信号を伝達する信号線を形成するための配線層である。TLは撮影光学系を模式的に示したものである。 FIG. 5B is a cross-sectional view taken along the line AA in FIG. ML denotes an on-chip microlens arranged in front of each pixel, CF R is a color filter, CF G of R (red), a G (green) color filter. PD (Photo Diode) schematically shows the photoelectric conversion element of the CMOS image sensor described in FIG. CL (Contact Layer) is a wiring layer for forming signal lines for transmitting various signals in the CMOS image sensor. TL schematically shows the photographing optical system.

ここで、撮像用画素のオンチップマイクロレンズMLと光電変換素子PDは、撮影光学系TL(Taking Lens)を通過した光束を可能な限り有効に取り込むように構成されている。換言すると、撮影光学系TLの射出瞳EP(Exit Pupil)と光電変換素子PDは、マイクロレンズMLにより共役関係にあり、かつ光電変換素子の有効面積は大面積に設計される。また、図5(b)ではR画素の入射光束について説明したが、G画素及びB(青色)画素も同一の構造となっている。従って、撮像用のRGB各画素に対応した射出瞳EPは大径となり、被写体からの光束(光量子)を効率よく取り込んで画像信号のS/Nを向上させている。   Here, the on-chip microlens ML and the photoelectric conversion element PD of the imaging pixel are configured to capture the light beam that has passed through the photographing optical system TL (Taking Lens) as effectively as possible. In other words, the exit pupil EP (Exit Pupil) of the photographing optical system TL and the photoelectric conversion element PD are in a conjugate relationship by the microlens ML, and the effective area of the photoelectric conversion element is designed to be large. Further, FIG. 5B describes the incident light beam of the R pixel, but the G pixel and the B (blue) pixel have the same structure. Therefore, the exit pupil EP corresponding to each RGB pixel for imaging has a large diameter, and the S / N of the image signal is improved by efficiently taking in the light flux (photon) from the subject.

図6は、撮影光学系の水平方向(横方向)に瞳分割を行なうための焦点検出用画素の配置と構造を示す。ここで水平方向又は横方向とは、撮影光学系の光軸と撮影画面の長辺とが地面に平行となるように撮像装置を構えたとき、この光軸に直交し、かつ水平方向に伸びる直線に沿った方向をいう。また、図6における瞳分割方向は水平方向である。図6(a)は、焦点検出用画素を含む2行×2列の画素の平面図である。記録又は観賞のための画像信号を得る場合、G画素で輝度情報の主成分を取得する。そして人間の画像認識特性は輝度情報に敏感であるため、G画素が欠損すると画質劣化が認知されやすい。一方でR画素又はB画素は、色情報(色差情報)を取得する画素であるが、人間の視覚特性は色情報には鈍感であるため、色情報を取得する画素は多少の欠損が生じても画質劣化は認識され難い。そこで本実施形態においては、2行×2列の画素のうち、G画素は撮像用画素として残し、R画素とB画素を焦点検出用画素に置き換える。この焦点検出用画素を図6(a)においてSHA及びSHBと示す。 FIG. 6 shows the arrangement and structure of focus detection pixels for performing pupil division in the horizontal direction (lateral direction) of the photographing optical system. Here, the horizontal direction or the horizontal direction is perpendicular to the optical axis and extends in the horizontal direction when the imaging apparatus is set so that the optical axis of the imaging optical system and the long side of the imaging screen are parallel to the ground. The direction along a straight line. Further, the pupil division direction in FIG. 6 is the horizontal direction. FIG. 6A is a plan view of pixels of 2 rows × 2 columns including focus detection pixels. When obtaining an image signal for recording or viewing, the main component of luminance information is acquired by G pixels. Since human image recognition characteristics are sensitive to luminance information, image quality degradation is easily recognized when G pixels are lost. On the other hand, the R pixel or the B pixel is a pixel that acquires color information (color difference information). However, since human visual characteristics are insensitive to color information, the pixel that acquires color information has some defects. However, image quality degradation is difficult to recognize. Therefore, in the present embodiment, among the pixels of 2 rows × 2 columns, the G pixel is left as an imaging pixel, and the R pixel and the B pixel are replaced with focus detection pixels. The focus detection pixels are denoted as S HA and S HB in FIG.

図6(a)におけるA−A断面図を図6(b)に示す。マイクロレンズMLと、光電変換素子PDは図5(b)に示した撮像用画素と同一構造である。本実施形態においては、焦点検出用画素の信号は画像生成には用いないため、色分離用カラーフィルタの代わりに透明膜CF(白色)が配置される。また、撮像素子で瞳分割を行なうため、配線層CLの開口部はマイクロレンズMLの中心線に対して一方向に偏倚している。具体的には、画素SHA及の開口部OPHAは右側に偏倚しているため、撮影光学系TLの左側の射出瞳EPHAを通過した光束を受光する。同様に、画素SHBの開口部OPHBは左側に偏倚しているため、撮影光学系TLの右側の射出瞳EPHBを通過した光束を受光する。よって、画素SHAを水平方向に規則的に配列し、これらの画素群で取得した被写体像をA像とする。また、画素SHも水平方向に規則的に配列し、これらの画素群で取得した被写体像をB像とすると、A像とB像の相対位置を検出することで、被写体像のピントずれ量(デフォーカス量)が検出できる。 FIG. 6B is a cross-sectional view taken along the line AA in FIG. The microlens ML and the photoelectric conversion element PD have the same structure as the imaging pixel shown in FIG. In this embodiment, since the signal of the focus detection pixel is not used for image generation, a transparent film CF W (white) is disposed instead of the color separation color filter. Moreover, since pupil division is performed by the image sensor, the opening of the wiring layer CL is biased in one direction with respect to the center line of the microlens ML. Specifically, since the opening OP HA of the pixel S HA and the opening OP HA are biased to the right side, the light beam that has passed through the left exit pupil EP HA of the photographing optical system TL is received. Similarly, since the opening OP HB of the pixel S HB is biased to the left side, the light beam that has passed through the right exit pupil EP HB of the imaging optical system TL is received. Therefore, the pixels SHA are regularly arranged in the horizontal direction, and the subject image acquired by these pixel groups is defined as an A image. Further, the pixels SH B are also regularly arranged in the horizontal direction, and the subject image acquired by these pixel groups is a B image. By detecting the relative positions of the A image and the B image, the amount of focus deviation of the subject image is detected. (Defocus amount) can be detected.

なお、上記画素SHA及びSHBでは、撮影画面の横方向に輝度分布を有した被写体、例えば縦線に対しては焦点検出可能だが、縦方向に輝度分布を有する横線は焦点検出不能である。そこで本実施形態では、後者についても焦点状態を検出できるよう、撮影光学系の垂直方向(縦方向)にも瞳分割を行なう画素も備えるよう構成されうる。 In the pixels S HA and S HB , focus detection is possible for an object having a luminance distribution in the horizontal direction of the shooting screen, for example, a vertical line, but focus detection is not possible for a horizontal line having a luminance distribution in the vertical direction. . Therefore, in the present embodiment, the latter can be configured to include pixels that perform pupil division in the vertical direction (longitudinal direction) of the photographing optical system so that the focus state can be detected.

図7は、撮影光学系の垂直方向(上下方向又は縦方向)に瞳分割を行なうための焦点検出用画素の配置と構造を示す。ここで垂直方向、上下方向及び縦横方向は、撮影光学系の光軸と撮影画面の長辺とが地面に平行となるように撮像装置を構えたとき、この光軸に直交し、鉛直方向に伸びる直線に沿った方向をいう。また、図7における瞳分割方向は垂直方向である。図7(a)は、焦点検出用画素を含む2行×2列の画素の平面図であり、図6(a)と同様に、G画素は撮像用画素として残し、R画素とB画素のを焦点検出用画素としている。この焦点検出用画素を図7(a)においてSVC及びSVDと示す。 FIG. 7 shows the arrangement and structure of focus detection pixels for performing pupil division in the vertical direction (vertical direction or vertical direction) of the photographing optical system. Here, the vertical direction, the vertical direction, and the vertical and horizontal directions are perpendicular to the optical axis when the imaging apparatus is set so that the optical axis of the imaging optical system and the long side of the imaging screen are parallel to the ground. A direction along an extending straight line. Further, the pupil division direction in FIG. 7 is the vertical direction. FIG. 7A is a plan view of pixels of 2 rows × 2 columns including focus detection pixels. As in FIG. 6A, G pixels are left as imaging pixels, and R pixels and B pixels are Are focus detection pixels. The focus detection pixels are denoted as S VC and S VD in FIG.

図7(a)のA−A断面図を図7(b)に示す。図6(b)の画素が横方向に瞳分離する構造であるのに対して、図7(b)の画素は瞳分離方向が縦方向になっているが、その他の画素の構造は同様である。画素SVCの開口部OPVCは下側に偏倚しているため、撮影光学系TLの上側の射出瞳EPVCを通過した光束を受光する。同様に、画素SVDの開口部OPVDは上側に偏倚しているため、撮影光学系TLの下側の射出瞳EPVDを通過した光束を受光する。よって、画素SVCを垂直方向に規則的に配列し、これらの画素群で取得した被写体像をC像とする。また、画素SVDも垂直方向に規則的に配列し、これらの画素群で取得した被写体像をD像とする。すると、C像とD像の相対位置を検出することで、垂直方向に輝度分布を有する被写体像のピントずれ量(デフォーカス量)が検出できる。 FIG. 7B is a cross-sectional view taken along the line AA in FIG. The pixel shown in FIG. 6B has a structure in which pupils are separated in the horizontal direction, whereas the pixel in FIG. 7B has a vertical pupil separation direction, but the other pixels have the same structure. is there. Since the opening OP VC of the pixel S VC is offset downward, and receives a light beam that has passed through an exit pupil EP VC of the upper of the photographic optical system TL. Similarly, since the opening OP VD of the pixel S VD is biased upward, the light beam that has passed through the lower exit pupil EP VD of the imaging optical system TL is received. Therefore, the pixels SVC are regularly arranged in the vertical direction, and a subject image acquired by these pixel groups is defined as a C image. Further, the pixels SVD are also regularly arranged in the vertical direction, and the subject image acquired by these pixel groups is defined as a D image. Then, by detecting the relative positions of the C image and the D image, it is possible to detect the focus shift amount (defocus amount) of the subject image having the luminance distribution in the vertical direction.

図8は、本発明の好適な実施形態における焦点検出を概略的に示す図である。撮像素子107は、瞳分割された第1の焦点検出用画素901aと第2の焦点検出用画素901bとで構成される焦点検出部901を複数有する。撮像素子107はまた、撮影光学系(結像光学系)で結像された被写体像を光電変換するための撮像用画素を複数含む。CPU121は、合成手段902と、連結手段903と、演算手段904と、を含む。CPU121はまた、複数の焦点検出部901を含むように、撮像素子107の撮像面にセクション(領域)CSTを複数割り当てる。CPU121は、セクションCSTの大きさ、配置、数等を適宜変更することができる。合成手段902は、撮像素子107に割り当てられた複数のセクションCSTの各々において、第1の焦点検出用画素901aからの出力信号を合成して1画素の第1の合成信号を得る処理を行う。合成手段902はまた、各セクションCSTにおいて、第2の焦点検出用画素901bからの出力信号を合成して1画素の第2の合成信号を得る処理を行う。連結手段903は、複数のセクションCSTにおいて、第1の合成信号である各画素を連結して第1の連結信号を得る処理と、第2の合成信号を連結して第2の連結信号を得る処理とを行う。このように、第1の焦点検出用画素901a及び第1の焦点検出用画素901bのそれぞれに対して、セクション数の画素が連結された連結信号が得られる。演算手段904は、第1の連結信号及び第2の連結信号に基づいて、結像光学系の焦点ずれ量を演算する。このように、セクション内に配置された同一の瞳分割方向における焦点検出用画素の出力信号を合成するため、焦点検出部の1つ1つの輝度は小さい場合であっても、被写体の輝度分布を十分に検出することが可能となる。また、後述するように、焦点検出部901を瞳分割方向(図8では、水平方向)に密に配置することにより、細線(高周波パターン)の画像捕捉能力が向上する。なお、図8では、説明を簡略化するために水平方向に瞳分割する場合を例に示したが、後述するように垂直方向に瞳分割する場合についても同様である。   FIG. 8 is a diagram schematically showing focus detection in a preferred embodiment of the present invention. The image sensor 107 includes a plurality of focus detection units 901 including first focus detection pixels 901a and second focus detection pixels 901b that are divided into pupils. The image sensor 107 also includes a plurality of imaging pixels for photoelectrically converting a subject image formed by a photographing optical system (imaging optical system). The CPU 121 includes a combining unit 902, a connecting unit 903, and a calculating unit 904. The CPU 121 also assigns a plurality of sections (regions) CST to the imaging surface of the imaging element 107 so as to include a plurality of focus detection units 901. The CPU 121 can appropriately change the size, arrangement, number, etc. of the section CST. The synthesizing unit 902 performs a process of synthesizing the output signals from the first focus detection pixels 901a to obtain a first synthesized signal of one pixel in each of the plurality of sections CST assigned to the image sensor 107. The synthesizing unit 902 also performs a process of synthesizing the output signals from the second focus detection pixels 901b in each section CST to obtain a second synthesized signal of one pixel. In the plurality of sections CST, the connecting unit 903 connects the pixels that are the first combined signal to obtain the first connected signal, and connects the second combined signal to obtain the second connected signal. Process. In this way, a connection signal in which the number of sections of pixels are connected to each of the first focus detection pixel 901a and the first focus detection pixel 901b is obtained. The computing means 904 computes the defocus amount of the imaging optical system based on the first connection signal and the second connection signal. In this way, since the output signals of the focus detection pixels in the same pupil division direction arranged in the section are synthesized, even if the brightness of each focus detection unit is small, the brightness distribution of the subject is Sufficient detection is possible. Further, as described later, the ability to capture an image of a fine line (high frequency pattern) is improved by arranging the focus detection units 901 densely in the pupil division direction (horizontal direction in FIG. 8). In FIG. 8, the case of dividing the pupil in the horizontal direction is shown as an example in order to simplify the explanation, but the same applies to the case of dividing the pupil in the vertical direction as described later.

図9〜図11は、図5〜図7に示した撮像用画素及び焦点検出用画素の配置規則を説明する図である。   9 to 11 are diagrams for explaining the arrangement rules of the imaging pixels and focus detection pixels shown in FIGS. 5 to 7.

図9は撮像用画素の間に焦点検出用画素を離散的に配置する場合の、本発明の好適な第1の実施形態に係る最小単位の配置規則を説明するための図である。図9において、10行×10列=100画素の正方形領域を1つのブロックと定義する。左上のブロックBLKh(1、1)において、一番左下のR画素とB画素を、水平方向(第1の方向)に瞳分割を行なう1組の焦点検出用画素(第1の焦点検出部)SHA及びSHBで置き換える。 FIG. 9 is a diagram for explaining a minimum unit arrangement rule according to the preferred first embodiment of the present invention when focus detection pixels are discretely arranged between imaging pixels. In FIG. 9, a square area of 10 rows × 10 columns = 100 pixels is defined as one block. In the upper left block BLKh (1, 1), a pair of focus detection pixels (first focus detection unit) that divides the lower left R pixel and B pixel in the horizontal direction (first direction). Replace with S HA and S HB .

その右隣りのブロックBLKv(1、2)においては、同じく一番左下のR画素とB画素を、垂直方向(第2の方向)に瞳分割を行なう1組の焦点検出用画素(第2の焦点検出部)SVC及びSVDで置き換える。また、最初のブロックBLKh(1、1)の下に隣接したブロックBLKv(2、1)の画素配列は、ブロックBLKv(1、2)と同一とする。そして、その右隣りのブロックBLKh(2、2)の画素配列は、先頭のブロックBLKh(1、1)と同一とする。 In the block BLKv (1, 2) on the right side, a pair of focus detection pixels (second pixels) that similarly divide the lower left R pixel and B pixel in the vertical direction (second direction). Focus detection unit) Replace with S VC and S VD . The pixel arrangement of the block BLKv (2, 1) adjacent below the first block BLKh (1, 1) is the same as that of the block BLKv (1, 2). The pixel arrangement of the block BLKh (2, 2) on the right side is the same as that of the leading block BLKh (1, 1).

この配置規則を一般化すると、ブロックBLK(i、j)において、i+jが偶数であれば水平瞳分割用の焦点検出画素を配置し、i+jが奇数であれば垂直瞳分割用の焦点検出画素を配置することになる。そして、図9の2×2=4ブロック、すなわち20行×20列=400画素の領域を、ブロックの上位の配列単位として、クラスタと定義する。   Generalizing this arrangement rule, in block BLK (i, j), if i + j is an even number, a horizontal pupil division focus detection pixel is arranged, and if i + j is an odd number, a vertical pupil division focus detection pixel is arranged. Will be placed. Then, a 2 × 2 = 4 block in FIG. 9, that is, an area of 20 rows × 20 columns = 400 pixels is defined as a cluster as an upper array unit of the block.

図10は、上記のクラスタを単位とした配置規則を説明するための図である。図10において、20行×20列=400画素で構成された一番左上のクラスタをCST(u、w)=CST(1、1)とする。クラスタCST(1、1)においては、各ブロックの一番左下のR画素とB画素を、焦点検出用画素SHA及びSHB、又は、SVC及びSVDで置き換える。 FIG. 10 is a diagram for explaining an arrangement rule with the above cluster as a unit. In FIG. 10, the upper left cluster composed of 20 rows × 20 columns = 400 pixels is assumed to be CST (u, w) = CST (1, 1). In the cluster CST (1, 1), the lower left R pixel and B pixel of each block are replaced with focus detection pixels S HA and S HB or S VC and S VD .

その右隣りのクラスタCST(1、2)においては、ブロック内における焦点検出用画素の配置を、クラスタCST(1、1)に対して上方向に2画素分シフトした位置に配置する。また、最初のクラスタCST(1、1)の下に隣接したクラスタCST(2、1)においては、ブロック内における焦点検出用画素の配置を、クラスタCST(1、1)に対して右方向に2画素分シフトした位置に配置する。以上の規則を繰り返し適用すると図10に示した配置が得られる。   In the cluster CST (1, 2) on the right side, the focus detection pixels in the block are arranged at positions shifted upward by two pixels with respect to the cluster CST (1, 1). In the cluster CST (2, 1) adjacent to the first cluster CST (1, 1), the focus detection pixel is arranged in the block in the right direction with respect to the cluster CST (1, 1). Arranged at a position shifted by two pixels. When the above rule is repeatedly applied, the arrangement shown in FIG. 10 is obtained.

この配置規則を一般化すると以下のようになる。なお、焦点検出用画素の座標は、図6又は図7で示したG画素を含む4画素を一つの単位(ペア)とし、そのうちの左上の画素の座標で規定する。また各ブロック内の座標は左上を(1、1)とし、下方向と右方向を正とする。   This arrangement rule is generalized as follows. Note that the coordinates of the focus detection pixels are defined by the coordinates of the upper left pixel of the four pixels including the G pixel shown in FIG. 6 or 7 as one unit (pair). In the coordinates in each block, the upper left is (1, 1), and the lower direction and the right direction are positive.

以上の定義を適用すると、クラスタCST(u、w)において、各ブロック内の焦点検出用画素ペアの水平座標は2×u−1となり、垂直座標は11−2×wとなる。そして、図10の5×5=25クラスタ、すなわち100行×100列=1万画素の領域を、クラスタの上位の配列単位として、フィールドと定義する。   When the above definition is applied, in the cluster CST (u, w), the horizontal coordinate of the focus detection pixel pair in each block is 2 × u−1, and the vertical coordinate is 11-2 × w. Then, 5 × 5 = 25 clusters in FIG. 10, that is, an area of 100 rows × 100 columns = 10,000 pixels is defined as a field as an upper array unit of the clusters.

図11は、上記のフィールドを単位とした配置規則を説明するための図である。同図において、100行×100列=1万画素で構成された一番左上のフィールドをFLD(q、r)=FLD(1、1)とする。そして本実施形態では、すべてのフィールドFLD(q、r)は先頭フィールドFLD(1、1)と同様の配列となっている。そこで、FLD(1、1)を水平方向に30個、垂直方向に20個配列すると、3000列×2000行=600万画素の撮像領域は600個のフィールドで構成される。そして撮像領域全面に渡って焦点検出用画素を均一に分布させることができる。   FIG. 11 is a diagram for explaining an arrangement rule with the above field as a unit. In the figure, the upper left field composed of 100 rows × 100 columns = 10,000 pixels is assumed to be FLD (q, r) = FLD (1,1). In this embodiment, all the fields FLD (q, r) are arranged in the same manner as the first field FLD (1, 1). Therefore, when 30 FLDs (1, 1) are arranged in the horizontal direction and 20 in the vertical direction, an imaging region of 3000 columns × 2000 rows = 6 million pixels is configured by 600 fields. The focus detection pixels can be uniformly distributed over the entire imaging region.

次に図12〜図15を用いて、焦点検出時の画素のグループと信号加算方法について説明する。図12は、撮影光学系によって形成された被写体像の、横ずれ方向の焦点検出を行なう場合の画素グループ化方法を説明する図である。横ずれ方向の焦点検出とは、図6で説明した、撮影光学系の射出瞳を横方向(左右方向、水平方向)に分割するための焦点検出用画素を用いて、位相差式焦点検出を行なうことを指す。   Next, a group of pixels and a signal addition method at the time of focus detection will be described with reference to FIGS. FIG. 12 is a diagram for explaining a pixel grouping method in the case of performing focus detection in the lateral shift direction of a subject image formed by the photographing optical system. The focus detection in the lateral shift direction performs phase difference focus detection using the focus detection pixels for dividing the exit pupil of the photographing optical system in the horizontal direction (left-right direction, horizontal direction) described in FIG. Refers to that.

図12に示す画素配列は図10で説明したものであるが、焦点検出の際には、横方向に1ブロック、縦方向に10ブロックの合計10ブロックを1つのグループとし、これをセクション(ここでは、第1のセクション)と定義する。そして、本実施形態では、一例として、横方向に複数配列された30個のセクションで、1つの焦点検出領域を構成する。すなわち、100行×300列=3万画素の領域が1つの焦点検出領域となる。この1つの焦点検出領域をAFエリアと定義する。ここで、1つのセクション内においては、横方向における一方の瞳分割を行なう画素SHAが5個、他方の瞳分割を行なう画素SHBも5個含まれている。そこで本実施形態においては、5個のSHAの出力を加算して1画素の信号とし、位相差演算用の一方の画像信号(A像と称する)の1AF画素を得る。同様に、5個のSHBの出力を加算して1画素の信号とし、位相差演算用の他方の画像信号(B像と称する)の1AF画素を得る。 The pixel arrangement shown in FIG. 12 is the same as that described with reference to FIG. 10. In focus detection, a total of 10 blocks of 1 block in the horizontal direction and 10 blocks in the vertical direction are combined into one group (here Then, the first section is defined. In the present embodiment, as an example, one focus detection region is configured by 30 sections arranged in the horizontal direction. That is, an area of 100 rows × 300 columns = 30,000 pixels is one focus detection area. This one focus detection area is defined as an AF area. Here, in one section, five pixels S HA that perform one pupil division in the horizontal direction and five pixels S HB that perform the other pupil division are included. Therefore, in the present embodiment, the outputs of the five SHAs are added to form a signal of one pixel, and one AF signal of one image signal (referred to as A image) for phase difference calculation is obtained. Similarly, the outputs of the five SHBs are added to form a signal of one pixel, and 1AF pixel of the other image signal (referred to as B image) for phase difference calculation is obtained.

図13は、一つのセクションにおける、被写体像の捕捉能力を説明するための図である。図13(a)は図12の左端のセクションを切り出したものである。下端に示された水平線PRJは、焦点検出用画素SHA及びSHBの瞳分割方向(第1の方向)と直交する第2の方向に延伸した第1の射影軸(Projection Line)である。右端に示された垂直線PRJは、瞳分割方向に延伸した第2の射影軸である。ここで、1つのセクション内の画素SHAはすべて加算され、SHBも加算される。そこで、1つのセクションを1つのAF画素と見なした場合、1つのAF画素に含まれる受光部を瞳分割方向と直交する方向の射影軸PRJに射影すると、画素SHAとSHBが交互に緻密に並ぶことがわかる。このときの、瞳分割方向と直交する方向の射影軸PRJにおける画素SHAの配列ピッチをP1とすると、P1=PH=2(単位は画素)となる。ピッチの代わりに空間周波数F1で表わすと、F1=0.5(単位は画素/画素)となる。同様に射影軸PRJにおける画素SHBの配列ピッチもP1=2(単位は画素)、空間周波数表記ではF1=0.5(単位は画素/画素)となる。 FIG. 13 is a diagram for explaining a subject image capturing capability in one section. FIG. 13A shows the section at the left end of FIG. A horizontal line PRJ h shown at the lower end is a first projection line extending in a second direction orthogonal to the pupil division direction (first direction) of the focus detection pixels S HA and S HB. . Vertical line PRJ v shown at the right end is a second projection axis which extends in the pupil division direction. Here, all the pixels S HA in one section are added, and S HB is also added. Accordingly, when one section is regarded as one AF pixel, pixels S HA and S HB alternate when a light receiving portion included in one AF pixel is projected onto a projection axis PRJ h in a direction orthogonal to the pupil division direction. It can be seen that they are closely lined up. When the arrangement pitch of the pixels S HA on the projection axis PRJ h in the direction orthogonal to the pupil division direction at this time is P1, P1 = PH h = 2 (unit is a pixel). When expressed by the spatial frequency F1 instead of the pitch, F1 = 0.5 (unit is pixel / pixel). Similarly, the arrangement pitch of the pixels S HB on the projection axis PRJ h is also P1 = 2 (unit is pixel), and F1 = 0.5 (unit is pixel / pixel) in the spatial frequency notation.

一方、1つのAF画素に含まれる受光部を瞳分割方向の射影軸PRJに射影すると、画素SHAとSHBはまばらに並ぶことがわかる。このときの、射影軸PRJにおける画素SHAの配列ピッチをP2とすると、P2=PH=20(単位は画素)となる。ピッチの代わりに空間周波数F2で表わすと、F2=0.05(単位は画素/画素)となる。同様に射影軸PRJにおける画素SHBの配列ピッチも、P2=20(単位は画素)、空間周波数表記ではF2=0.05(単位は画素/画素)となる。 On the other hand, when projecting the light receiving portions included in one AF pixel projection axis PRJ v in the pupil division direction, the pixels S HA and S HB is seen that aligned sparsely. If the arrangement pitch of the pixels S HA on the projection axis PRJ v at this time is P2, then P2 = PH v = 20 (the unit is a pixel). When expressed by the spatial frequency F2 instead of the pitch, F2 = 0.05 (unit: pixel / pixel). Similarly, the array pitch of the pixels S HB along the projection PRJ v also, P2 = 20 (the unit is a pixel), a F2 = 0.05 (the unit is pixel / pixel) of the spatial frequency notation.

すなわち、本実施形態におけるAF画素は、上記グループ化前の分散特性については、瞳分割方向とこれに直交する方向の配置上のピッチが等しい。しかしながら、グループ化する際のグループ形状を長方形とすることで、瞳分割方向のサンプリング誤差を低減している。具体的には、1セクションの瞳分割方向と直交する方向の最大寸法L1は10画素、瞳分割方向の最大寸法L2は100画素としている。すなわち、セクション寸法をL1<L2とすることで、瞳分割方向と直交する方向のサンプリング周波数F1を高周波(密)に、瞳分割方向のサンプリング周波数F2を低周波(疎)としている。   That is, the AF pixels in the present embodiment have the same arrangement pitch in the pupil division direction and the direction orthogonal thereto with respect to the dispersion characteristics before grouping. However, the sampling error in the pupil division direction is reduced by making the group shape at the time of grouping rectangular. Specifically, the maximum dimension L1 in the direction orthogonal to the pupil division direction of one section is 10 pixels, and the maximum dimension L2 in the pupil division direction is 100 pixels. That is, by setting the section size to L1 <L2, the sampling frequency F1 in the direction orthogonal to the pupil division direction is set to a high frequency (fine), and the sampling frequency F2 in the pupil division direction is set to a low frequency (sparse).

図13(a)で説明したAF画素(一つのセクション)に、細線の被写体像が投影された場合の画像捕捉能力を図13(b)にて説明する。図13(b)において、LINEは、撮像素子107上に投影された細い縦線を表わし、その幅は画素換算で4画素、画像の実寸では幅8μmになっている。この時、セクションSCT(1)内では、ブロックBLK(3、1)とブロックBLK(5、1)に含まれる焦点検出用画素が被写体像を捕捉する。なお、被写体像の最小寸法は、撮影光学系の収差と撮像素子前面に配置された光学LPFの特性で決まるが、通常は非常に細い線でも2画素以上の幅になる。従って、本実施形態の1つのセクション内では、最低でも各1個ずつの画素SHAとSHBで画像を捕捉することになり、捕捉洩れは生じない。 FIG. 13B illustrates an image capturing capability when a thin line subject image is projected onto the AF pixel (one section) described with reference to FIG. In FIG. 13B, LINE v represents a thin vertical line projected on the image sensor 107, the width of which is 4 pixels in terms of pixel, and the actual size of the image is 8 μm. At this time, in the section SCT h (1), the focus detection pixels included in the block BLK (3, 1) and the block BLK (5, 1) capture the subject image. Note that the minimum size of the subject image is determined by the aberration of the photographing optical system and the characteristics of the optical LPF disposed on the front surface of the image pickup element. Accordingly, in one section of this embodiment, an image is captured by at least one pixel S HA and S HB at least, and no capture leakage occurs.

一方、図13(b)のLINEは、撮像素子107上に投影された細い横線を表わし、その幅は前述のLINEと同様に画素換算で4画素、画像の実寸では幅8μmになっている。この時には、横線LINEはブロックBLK(5、1)にかかっているが、焦点検出用画素SHA及びSHBには捕捉されない。しかしながら、セクションSCT(1)は、縦線のように横方向に輝度分布を有する被写体について焦点検出を行なうためのものである。従って、横線のように縦方向に輝度分布を有する被写体については、焦点検出用画素による像の捕捉洩れが生じても構わない。 On the other hand, LINE h in FIG. 13B represents a thin horizontal line projected on the image sensor 107, and the width thereof is 4 pixels in terms of pixel as in the above-described LINE v, and the actual size of the image is 8 μm. Yes. At this time, the horizontal line LINE h covers the block BLK (5, 1), but is not captured by the focus detection pixels S HA and S HB . However, the section SCT h (1) is for performing focus detection on a subject having a luminance distribution in the horizontal direction such as a vertical line. Therefore, for an object having a luminance distribution in the vertical direction such as a horizontal line, an image capturing omission due to focus detection pixels may occur.

図14は、撮影光学系によって形成された被写体像の、縦ずれ方向の焦点検出を行なう場合の画素グループ化方法を説明する図である。縦ずれ方向の焦点検出とは、図7で説明した、撮影光学系の射出瞳を縦方向(上下方向、すなわち垂直方向)に分割するための焦点検出用画素を用いて、位相差式焦点検出を行なうことをいう。すなわち、図12を90度回転したものに相当する。   FIG. 14 is a diagram for explaining a pixel grouping method in the case where focus detection in the direction of vertical shift of a subject image formed by a photographing optical system is performed. The focus detection in the longitudinal shift direction is a phase difference focus detection using the focus detection pixels for dividing the exit pupil of the photographing optical system in the vertical direction (vertical direction, that is, the vertical direction) described in FIG. To do. That is, it corresponds to the one obtained by rotating FIG. 12 by 90 degrees.

図14に示す画素配列も図10で説明したものであるが、焦点検出の際には、横方向に10ブロック、縦方向に1ブロックの合計10ブロックを1つのグループとし、これをセクション(ここでは、第2のセクション)と定義する。そして、本実施形態では、一例として、縦方向に複数配列された30個のセクションで、1つの焦点検出領域を構成する。すなわち、300行×100列=3万画素の領域が1つの焦点検出領域となる。この1つの焦点検出領域も図12と同様にAFエリアと定義する。ここで、1つのセクション内においては、縦方向における一方の瞳分割を行なう画素SVCが5個、他方の瞳分割を行なう画素SVDも5個含まれている。そこで本実施形態においては、5個のSVCの出力を加算して、位相差演算用の一方の画像信号(C像と称する)の1AF画素とする。同様に、5個のSVDの出力を加算して、位相差演算用の他方の画像信号(D像と称する)の1AF画素とする。 The pixel arrangement shown in FIG. 14 is the same as that described with reference to FIG. Then, the second section) is defined. In the present embodiment, as an example, one focus detection region is configured by 30 sections arranged in the vertical direction. That is, an area of 300 rows × 100 columns = 30,000 pixels is one focus detection area. This one focus detection area is also defined as an AF area as in FIG. Here, in one section, five pixels SVC performing one pupil division in the vertical direction and five pixels SVD performing the other pupil division are included. Therefore, in the present embodiment, the outputs of five SVCs are added to form one AF pixel of one image signal (referred to as a C image) for phase difference calculation. Similarly, the outputs of the five SVDs are added to form a 1AF pixel of the other image signal (referred to as a D image) for phase difference calculation.

図15は、一つのセクションにおける被写体像の捕捉能力を説明するための図であり、図13を90度回転したものと等価である。図15(a)は図14の上端のセクションを切り出したものである。そして右端に示された垂直線PRJは、焦点検出用画素SVC及びSVDの瞳分割方向(第2の方向)と直交する第1の方向に延伸した第3の射影軸、下端に示された水平線PRJは、瞳分割方向に延伸した第4の射影軸である。図15(a)においても、1つのセクション内の画素SVCはすべて加算され、SVも加算される。そこで、1セクションを1AF画素と見なした場合、1AF画素に含まれる受光部を瞳分割方向と直交する方向の射影軸PRJに射影すると、画素SVC及びSVDが交互に緻密に並ぶことがわかる。このときの、瞳分割方向と直交する方向の射影軸PRJにおける画素SVCの配列ピッチをP1とすると、P1=PV=2(単位は画素)となる。ピッチの代わりに空間周波数F1で表わすと、F1=0.5(単位は画素/画素)となる。同様に射影軸PRJにおける画素SVDの配列ピッチもP1=2(単位は画素)、空間周波数表記ではF1=0.5(単位は画素/画素)となる。 FIG. 15 is a diagram for explaining the subject image capturing capability in one section, and is equivalent to the one obtained by rotating FIG. 13 by 90 degrees. FIG. 15A is a cut out section at the upper end of FIG. The vertical line PRJ v shown at the right end, the third projection axis extending in a first direction perpendicular to the pupil division direction of the pixel S VC and S VD for focus detection (second direction), shown at the lower end The horizontal line PRJ h made is the fourth projective axis extending in the pupil division direction. Also in FIG. 15A, all the pixels S VC in one section are added, and SV D is also added. Therefore, when one section is regarded as one AF pixel, pixels S VC and S VD are alternately arranged densely when the light receiving portion included in the one AF pixel is projected onto a projection axis PRJ v in a direction orthogonal to the pupil division direction. I understand. If the arrangement pitch of the pixels S VC on the projection axis PRJ v in the direction orthogonal to the pupil division direction at this time is P1, P1 = PV v = 2 (unit is pixel). When expressed by the spatial frequency F1 instead of the pitch, F1 = 0.5 (unit is pixel / pixel). Similarly, the array pitch of the pixels S VD along the projection PRJ v be P1 = 2 (the unit is a pixel), the F1 = 0.5 (the unit is a pixel / pixel) of the spatial frequency notation.

一方、1つのAF画素に含まれる受光部を瞳分割方向の射影軸PRJに射影すると、画素SVCとSVはまばらに並ぶことがわかる。このときの、射影軸PRJにおける画素SVCの配列ピッチをP2とすると、P2=PV=20(単位は画素)となる。ピッチの代わりに空間周波数F2で表わすと、F2=0.05(単位は画素/画素)となる。同様に射影軸PRJにおける画素SVDの配列ピッチも、P2=20(単位は画素)、空間周波数表記ではF2=0.05(単位は画素/画素)となる。 On the other hand, when projecting the light receiving portions included in one AF pixel projection axis PRJ h in the pupil division direction, the pixels S VC and SV D it can be seen that aligned sparsely. When the arrangement pitch of the pixels S VC on the projection axis PRJ h at this time is P2, P2 = PV h = 20 (unit is pixel). When expressed by the spatial frequency F2 instead of the pitch, F2 = 0.05 (unit: pixel / pixel). Similarly, the array pitch of the pixels S VD along the projection PRJ v also, P2 = 20 (the unit is a pixel), a F2 = 0.05 (the unit is pixel / pixel) of the spatial frequency notation.

以上のように、図15におけるAF画素のサンプリング特性は、瞳分割方向を基準に考えると、図13と同様の特性、すなわちF1>F2となっている。これは、図15のセクションにおいても、瞳分割方向と直交する方向のセクション寸法L1と、瞳分割方向の寸法L2を、L1<L2としたからである。これにより、空間周波数の高い被写体に対しても瞳分割方向と直交する方向の輝度情報を正確に検出することができるとともに、被写体輝度が低くても複数画素の加算によって焦点検出信号のS/N比を向上させることができる。   As described above, the sampling characteristics of the AF pixels in FIG. 15 are the same as those in FIG. 13, that is, F1> F2 when the pupil division direction is taken as a reference. This is because also in the section of FIG. 15, the section dimension L1 in the direction orthogonal to the pupil division direction and the dimension L2 in the pupil division direction are set to L1 <L2. Accordingly, it is possible to accurately detect luminance information in a direction orthogonal to the pupil division direction even for a subject having a high spatial frequency, and the S / N of the focus detection signal can be obtained by adding a plurality of pixels even if the subject luminance is low. The ratio can be improved.

図15(a)で説明したAF画素(一つのセクション)に、細線の被写体像が投影された場合の画像捕捉能力を図15(b)にて説明する。図15(b)において、LINEは、撮像素子107上に投影された細い横線を表わし、その幅は画素換算で4画素、画像の実寸では幅8μmになっている。この時、セクションSCT(1)内では、ブロックBLK(1、4)とブロックBLK(1、6)に含まれる焦点検出用画素が被写体像を捕捉する。 FIG. 15B illustrates an image capturing capability when a thin line subject image is projected onto the AF pixel (one section) described with reference to FIG. In FIG. 15B, LINE h represents a thin horizontal line projected on the image sensor 107, the width of which is 4 pixels in terms of pixel, and the actual size of the image is 8 μm. At this time, in the section SCT v (1), the focus detection pixels included in the block BLK (1, 4) and the block BLK (1, 6) capture the subject image.

一方、図15(b)のLINEは、撮像素子107上に投影された細い縦線を表わし、その幅は前述のLINEと同様に画素換算で4画素、画像の実寸では幅8μmになっている。この時には、縦線LINEはブロックBLK(1、6)にかかっているが、焦点検出用画素SVC及びSVDには捕捉されない。しかしながら、セクションSCT(1)は、横線のように縦方向に輝度分布を有する被写体について焦点検出を行なうためのものである。従って、縦線のように横方向に輝度分布を有する被写体については、焦点検出用画素による像の捕捉洩れが生じても構わない。 On the other hand, LINE v in FIG. 15B represents a thin vertical line projected on the image sensor 107, and the width thereof is 4 pixels in terms of pixel as in the above-described LINE h, and the actual size of the image is 8 μm. ing. At this time, the vertical line LINE v covers the block BLK (1, 6), but is not captured by the focus detection pixels S VC and S VD . However, the section SCT v (1) is for performing focus detection on a subject having a luminance distribution in the vertical direction, such as a horizontal line. Therefore, for an object having a luminance distribution in the horizontal direction such as a vertical line, an omission of image capture by the focus detection pixels may occur.

図16は、第1の実施形態における撮像素子の瞳分割機能を概念的に説明する図である。TLは撮影光学系、107は撮像素子、OBJは被写体、IMGは被写体像である。   FIG. 16 is a diagram conceptually illustrating the pupil division function of the image sensor according to the first embodiment. TL is a photographing optical system, 107 is an image sensor, OBJ is a subject, and IMG is a subject image.

撮像用画素は図5で説明したように、撮影光学系の射出瞳全域EPを通過した光束を受光する。一方、焦点検出用画素は図6及び図7で説明したように、瞳分割機能を有している。具体的には、図6の画素SHAは撮像面からレンズ後端を見て左側の瞳を通過した光束LHA、すなわち図16の瞳EPHAを通過した光束を受光する。同様に画素SHB、SVC及びSVDはそれぞれ瞳EPHB、EPVC及びEPVDを通過した光束LHB、LHC、LHDをそれぞれ受光する。そして、焦点検出用画素は、図11で説明したように撮像素子107の全領域に渡って分布しているため、撮像領域全域で焦点検出も可能となっている。 As described with reference to FIG. 5, the imaging pixel receives the light beam that has passed through the entire exit pupil EP of the imaging optical system. On the other hand, the focus detection pixel has a pupil division function as described with reference to FIGS. Specifically, the pixel S HA in FIG. 6 is a light beam LHA having passed through the pupil of the left looking at the lens rear from the imaging surface, i.e. receives a light flux that has passed through the pupil EPHA in FIG. 16. Similarly, the pixels S HB , S VC and S VD receive light beams LHB, LHC and LHD that have passed through the pupils EPHB, EPVC and EPVD, respectively. Since the focus detection pixels are distributed over the entire area of the image sensor 107 as described with reference to FIG. 11, focus detection is also possible over the entire image pickup area.

図17は、焦点検出時に取得した画像と焦点検出領域を説明する図である。図17において、撮像面に形成された被写体像には、中央に人物、左側に近景の樹木、右側に遠景の山並みが写っている。そして本実施形態においては、焦点検出用画素は、横ずれ検出用の画素ペアSHA及びSHBと、縦ずれ検出用の画素ペアSVC及びSVDが、図11に示したように撮像領域全域に渡って均等な密度で配置されている。そして横ずれ検出の際には、位相差演算のためのAF画素信号を図12及び図13で示したようにグループ化処理する。また、縦ずれ検出の際には、位相差演算のためのAF画素信号を図14及び図15で示したようにグループ化処理する。よって、撮像領域の任意位置において、横ずれ検出及び縦ずれ検出のための測距領域を設定可能である。 FIG. 17 is a diagram for explaining an image acquired during focus detection and a focus detection area. In FIG. 17, the subject image formed on the imaging surface includes a person at the center, a close-up tree on the left side, and a distant mountain range on the right side. In the present embodiment, the focus detection pixels include the lateral displacement detection pixel pairs S HA and S HB and the longitudinal displacement detection pixel pairs S VC and S VD as shown in FIG. Are arranged at an even density. At the time of lateral shift detection, AF pixel signals for phase difference calculation are grouped as shown in FIGS. Further, when detecting vertical shift, AF pixel signals for phase difference calculation are grouped as shown in FIGS. Therefore, it is possible to set a distance measurement area for detecting lateral deviation and longitudinal deviation at an arbitrary position in the imaging area.

図17においては、画面中央に人物の顔が存在している。そこで公知の顔認識技術によって顔の存在が検出されると、顔領域を中心に横ずれ検知のための焦点検出領域AFAR(x1,y1)と、縦ずれ検知のための焦点検出領域AFAR(x3,y3)が設定される。ここで添え字のhは水平方向を表わし、(x1,y1)及び(x3,y3)は焦点検出領域の左上隅の座標を表わす。そして、焦点検出領域AFAR(x1,y1)の各セクション内に含まれる5個の焦点検出画素用SHAを加算し、これを30セクションに渡って連結した位相差検出用のA像信号がAFSIG(A1)である。また、同様に各セクションの5個の焦点検出画素用SHBを加算し、これを30セクションに渡って連結した位相差検出用のB像信号がAFSIG(B1)である。そして、A像信号AFSIG(A1)とB像信号AFSIG(B1)の相対的な横ずれ量を公知の相関演算によって演算することで、被写体の焦点ずれ量(デフォーカス量)を求めることができる。 In FIG. 17, a human face exists in the center of the screen. Therefore, when the presence of a face is detected by a known face recognition technique, a focus detection area AFAR h (x1, y1) for detecting lateral deviation centered on the face area and a focus detection area AFAR v (for detecting vertical deviation). x3, y3) are set. Here, the subscript h represents the horizontal direction, and (x1, y1) and (x3, y3) represent the coordinates of the upper left corner of the focus detection area. Then, the A image signal of each adds five focus detection pixels for S HA included in a section, a phase difference detection linked across this 30 section of the focus detection area AFAR h (x1, y1) AFSIG h (A1). Similarly, adding the five focus detection pixels for S HB of each section, B image signal for phase difference detection which is connected across this 30 section is AFSIG h (B1). Then, by calculating the relative lateral shift amount between the A image signal AFSIG h (A1) and the B image signal AFSIG h (B1) by a known correlation calculation, the defocus amount (defocus amount) of the subject can be obtained. it can.

焦点検出領域AFAR(x3,y3)についても同様に焦点ずれ量を求める。そして、横ずれ及び縦ずれの焦点検出領域で検出した2つの焦点ずれ量を比較し、信頼性の高い値を採用すればよい。 Focus detection area AFAR v (x3, y3) obtains the defocus amount Similarly for. Then, the two defocus amounts detected in the lateral shift and vertical shift focus detection areas are compared, and a highly reliable value may be adopted.

一方、画面左側の樹木の幹部は、縦線成分が主体、すなわち横方向に輝度分布を有しているため、横ずれ検知に適した被写体と判断され、横ずれ検知のための焦点検出領域AFAR(x2,y2)が設定される。また、画面右側の山並み稜線部は、横線成分が主体、すなわち縦方向に輝度分布を有しているため、縦ずれ検知に適した被写体と判断され、縦ずれ検知のための焦点検出領域AFAR(x4,y4)が設定される。 On the other hand, since the trunk of the tree on the left side of the screen is mainly composed of vertical line components, that is, has a luminance distribution in the horizontal direction, it is determined that the subject is suitable for lateral shift detection, and the focus detection area AFAR h ( x2, y2) are set. The ridgeline of the mountains on the right side of the screen, because the horizontal line component mainly has, namely, a luminance distribution in the longitudinal direction, it is determined that object suitable for longitudinal defocus detection, focus detection area AFAR v for longitudinal defocus detection (X4, y4) is set.

以上のように本実施形態においては、横ずれ及び縦ずれ検出のための焦点検出領域が画面の任意位置に設定可能なため、被写体の投影位置や輝度分布の方向性が様々であっても、正確な焦点検出が可能である。   As described above, in the present embodiment, since the focus detection area for detecting the lateral shift and the vertical shift can be set at an arbitrary position on the screen, even if the projection position of the subject and the directionality of the luminance distribution are various, it is accurate. Focus detection is possible.

図18〜図20は、本発明の好適な実施形態に係る撮像装置の焦点調節及び撮影方法等の制御方法を説明するためのフローチャートである。本フローチャートの制御方法は、後述する第2の実施形態〜第4の実施形態においても同様にして適用することができる。なお、本フローチャートの各工程は、特に言及がない限り、図1のCPU121により実行されるものとする。以下、先に説明した図1〜図17の各図を参照しながら、図18以降の制御フローを説明する。   18 to 20 are flowcharts for explaining control methods such as focus adjustment and imaging method of the imaging apparatus according to the preferred embodiment of the present invention. The control method of this flowchart can be similarly applied to the second to fourth embodiments described later. Note that each step of this flowchart is executed by the CPU 121 of FIG. 1 unless otherwise specified. Hereinafter, the control flow after FIG. 18 will be described with reference to FIGS. 1 to 17 described above.

図18は、本発明の好適な実施形態に係る撮像装置のメインフローである。ステップS101において撮影者が撮像装置の電源スイッチをオン操作すると、ステップS103においてCPU121は撮像装置内の各アクチュエータや撮像素子の動作確認を行う。そして、メモリ内容や実行プログラムの初期化状態を検出すると共に、撮影準備動作を実行する。ステップS105では撮像素子の撮像動作を開始し、プレビュー用の低画素動画像を出力する。ステップS107では読み出した動画を撮像装置背面に設けられた表示器131に表示し、撮影者はこのプレビュー画像を目視して撮影時の構図決定を行なう。   FIG. 18 is a main flow of the imaging apparatus according to the preferred embodiment of the present invention. When the photographer turns on the power switch of the imaging apparatus in step S101, the CPU 121 checks the operation of each actuator and imaging element in the imaging apparatus in step S103. Then, the memory contents and the initialization state of the execution program are detected, and the shooting preparation operation is executed. In step S105, the imaging operation of the image sensor is started, and a low-pixel moving image for preview is output. In step S107, the read moving image is displayed on the display 131 provided on the rear surface of the image pickup apparatus, and the photographer visually determines the composition at the time of photographing by viewing the preview image.

ステップS109では、プレビュー用動画像に顔が存在するか否かを認識する。そして、撮影領域に顔が存在していると認識された場合には(ステップS111で「YES」)、ステップS111からステップS113に移行し、焦点調節モードを顔AFモードに設定する。ここで顔AFモードとは、撮影領域の顔に焦点を合わせるAFモードを指す。   In step S109, it is recognized whether or not a face exists in the preview moving image. If it is recognized that a face exists in the shooting area (“YES” in step S111), the process proceeds from step S111 to step S113, and the focus adjustment mode is set to the face AF mode. Here, the face AF mode refers to an AF mode for focusing on the face in the shooting area.

一方、撮影領域に顔が存在していない場合は(ステップS111で「NO」)、ステップS111からステップS115に移行し、焦点調節モードを多点AFモードに設定する。ここで多点AFモードとは、撮影領域を例えば3×5=15分割し、各分割領域で焦点検出を行ない、焦点検出結果と被写体の輝度情報から主被写体を類推し、その領域を合焦させるモードを指す。   On the other hand, if no face is present in the shooting area (“NO” in step S111), the process proceeds from step S111 to step S115, and the focus adjustment mode is set to the multipoint AF mode. Here, the multi-point AF mode refers to, for example, dividing the shooting area by 3 × 5 = 15, performing focus detection in each divided area, inferring the main subject from the focus detection result and the luminance information of the subject, and focusing the region. Refers to the mode to be activated.

ステップS113又はステップS115でAFモードを決定したら、ステップS117で焦点検出領域を決定する。ステップS121では、撮影準備スイッチがオン操作されたか否かを判別し、オン操作されていなければステップS105に戻り、撮像素子駆動からステップS117の焦点検出領域の決定を繰り返し実行する。   When the AF mode is determined in step S113 or step S115, the focus detection area is determined in step S117. In step S121, it is determined whether or not the photographing preparation switch is turned on. If the photographing preparation switch is not turned on, the process returns to step S105, and the determination of the focus detection area in step S117 is repeatedly executed from the image sensor driving.

ステップS121で撮影準備スイッチがオン操作されるとステップS131に移行し、焦点検出サブルーチンを実行する。   When the photographing preparation switch is turned on in step S121, the process proceeds to step S131, and a focus detection subroutine is executed.

図19は焦点検出サブルーチンのフロー図である。メインフローのステップS121からこのサブルーチンのステップS131に進むと、ステップS133においては、メインルーチンのステップS117で決定した焦点検出領域に含まれる焦点検出用画素を読み出す。ステップS134では、少なくとも2つの焦点検出部901を含むように、撮像素子107の撮像面にセクションを複数割り当てる。各セクションは、互いに重なり合わないように配置されることが好ましい。また、撮像素子107の撮像面の全ての焦点検出部901がいずれかのセクションに配置されるようにセクションを割り当てても良いし、一部の焦点検出部901がどのセクションにも配置されないようにセクションを割り当ててもよい。ステップS135では、ステップS134で割り当てた複数のセクションの各々において、焦点検出部901のうち第1の焦点検出用画素からの出力信号を合成して第1の合成信号を得る。同様に、ステップS134で割り当てた複数のセクションの各々において、第2の焦点検出用画素からの出力信号を合成して第2の合成信号を得る。ステップS136では、ステップS134で割り当てた複数のセクションに渡って、ステップS135で得られた第1の合成信号を連結して第1の連結信号を得る。同様に、ステップS134で割り当てた複数のセクションに渡って、ステップS135で得られた第2の合成信号を連結して第2の連結信号を得る。これらの第1、第2の連結信号は、相関演算用の2像の信号に対応する。具体的には、図17に示したAFSIGh(A1)とAFSIGh(B1)、又はAFSIGv(C3)とAFSIGv(D3)等の対の信号に対応する。ステップS139では得られた2像の信号の相関演算を行ない、2像の信号の相対的な位置ずれ量を演算する。ステップS141では、ステップS139の相関演算結果の信頼性を判定する。ここで、信頼性とは、2像の信号の一致度を指し、2像の信号の一致度が良い場合には、一般的に焦点検出結果の信頼性が高い。そこで、複数の焦点検出領域が選択されている場合は、信頼性の高い情報を優先的に使用する。   FIG. 19 is a flowchart of the focus detection subroutine. When the process proceeds from step S121 of the main flow to step S131 of this subroutine, in step S133, the focus detection pixels included in the focus detection area determined in step S117 of the main routine are read. In step S134, a plurality of sections are assigned to the imaging surface of the imaging device 107 so as to include at least two focus detection units 901. The sections are preferably arranged so as not to overlap each other. In addition, sections may be assigned so that all the focus detection units 901 on the imaging surface of the image sensor 107 are arranged in any section, or some focus detection units 901 are not arranged in any section. Sections may be assigned. In step S135, in each of the plurality of sections assigned in step S134, the output signals from the first focus detection pixels in the focus detection unit 901 are combined to obtain a first combined signal. Similarly, in each of the plurality of sections allocated in step S134, the output signal from the second focus detection pixel is synthesized to obtain a second synthesized signal. In step S136, the first combined signal obtained in step S135 is concatenated across a plurality of sections assigned in step S134 to obtain a first concatenated signal. Similarly, the second combined signal obtained in step S135 is concatenated across a plurality of sections assigned in step S134 to obtain a second concatenated signal. These first and second concatenated signals correspond to two image signals for correlation calculation. Specifically, it corresponds to a pair of signals such as AFSIGh (A1) and AFSIGh (B1) or AFSIGv (C3) and AFSIGv (D3) shown in FIG. In step S139, the correlation between the two image signals obtained is calculated, and the relative displacement between the two image signals is calculated. In step S141, the reliability of the correlation calculation result in step S139 is determined. Here, the reliability refers to the degree of coincidence of the signals of the two images. When the degree of coincidence of the signals of the two images is good, the reliability of the focus detection result is generally high. Therefore, when a plurality of focus detection areas are selected, highly reliable information is preferentially used.

ステップS143では、上記の信頼性の高い検出結果から焦点ずれ量を演算する。そして、ステップS145では、図18のメインフロー内のステップS151にリターンする。   In step S143, the defocus amount is calculated from the above reliable detection result. In step S145, the process returns to step S151 in the main flow of FIG.

図18のステップS151では、図19のステップS143で演算した焦点ずれ量が許容値以下か否かを判断する。そして焦点ずれ量が許容値異常である場合は、非合焦と判断し、ステップS153でフォーカスレンズを駆動し、その後ステップS131〜ステップS151を繰り返し実行する。そしてステップS151にて合焦状態に達したと判定されると、ステップS155にて合焦表示を行ない、ステップS157に移行する。   In step S151 of FIG. 18, it is determined whether or not the amount of defocus calculated in step S143 of FIG. If the defocus amount is an allowable value abnormality, it is determined that the in-focus state is out of focus, the focus lens is driven in step S153, and then step S131 to step S151 are repeatedly executed. If it is determined in step S151 that the in-focus state has been reached, in-focus display is performed in step S155, and the process proceeds to step S157.

ステップS157では、撮影開始スイッチがオン操作されたか否かを判別し、オン操作されていなければステップS157にて撮影待機状態を維持する。ステップS157で撮影開始スイッチがオン操作されるとステップS161に移行し、撮影サブルーチンを実行する。   In step S157, it is determined whether or not the shooting start switch has been turned on. If the switch has not been turned on, the shooting standby state is maintained in step S157. When the shooting start switch is turned on in step S157, the process proceeds to step S161, and a shooting subroutine is executed.

図20は撮影サブルーチンのフロー図である。撮影開始スイッチが操作されると、ステップS161を経由して、ステップS163では光量調節絞りを駆動し、露光時間を規定するメカニカルシャッタの開口制御を行なう。ステップS165では、高画素静止画撮影のための画像読み出し、すなわち全画素の読み出しを行なう。ステップS167では読み出した画像信号の欠損画素補間を行なう。すなわち、焦点検出用画素の出力は撮像のためのRGBカラー情報を有しておらず、画像を得る上では欠陥画素に相当するため、周囲の撮像用画素の情報から補間により画像信号を生成する。   FIG. 20 is a flowchart of the photographing subroutine. When the photographing start switch is operated, via step S161, in step S163, the light amount adjusting diaphragm is driven to perform aperture control of the mechanical shutter that defines the exposure time. In step S165, image reading for high-pixel still image shooting, that is, reading of all pixels is performed. In step S167, defective pixel interpolation of the read image signal is performed. That is, the output of the focus detection pixel does not have RGB color information for imaging, and corresponds to a defective pixel in obtaining an image. Therefore, an image signal is generated by interpolation from information on surrounding imaging pixels. .

ステップS169では、画像のγ補正、エッジ強調等の画像処理をおこない、ステップS171において、フラッシュメモリ133に撮影画像を記録する。ステップS173では、表示器131に撮影済み画像を表示し、ステップS175で図18のメインフローにリターンする。   In step S169, image processing such as γ correction and edge enhancement of the image is performed. In step S171, the captured image is recorded in the flash memory 133. In step S173, the captured image is displayed on the display 131, and the process returns to the main flow in FIG. 18 in step S175.

図18のメインフローに戻ると、ステップS181にて一連の撮影動作を終了する。   Returning to the main flow of FIG. 18, a series of photographing operations is terminated in step S181.

以上のように、本発明の好適な第1の実施形態によれば、瞳分割機能を有した複数の焦点検出用画素の出力を合成して焦点検出演算に用いることができる。そのため、焦点検出信号のサンプリング特性とS/Nを向上させることができる。また、焦点検出用画素が離散的に配置されているため、撮像用画素の欠損が少なく、撮影画像の劣化も回避できる。   As described above, according to the first preferred embodiment of the present invention, outputs of a plurality of focus detection pixels having a pupil division function can be combined and used for focus detection calculation. Therefore, the sampling characteristic and S / N of the focus detection signal can be improved. In addition, since the focus detection pixels are discretely arranged, there are few defects in the imaging pixels, and deterioration of the captured image can be avoided.

また、位相差検出用信号を得るためのAF画素を長方形とし、この長方形領域内の焦点検出用画素の出力を合成したものをAF演算用1画素の信号としている。そして、この長方形領域の瞳分割方向と直交する方向の寸法を他方に対して小とすることで、瞳分割方向と直交する方向におけるAF画素のサンプリング能力の低下を防止することができる。従って、細い線や高周波の被写体の捕捉洩れが防止でき、焦点検出性能が向上する。   In addition, the AF pixel for obtaining the phase difference detection signal is rectangular, and a signal obtained by synthesizing the outputs of the focus detection pixels in the rectangular area is used as a signal for one AF calculation pixel. Then, by reducing the size of the rectangular area in the direction orthogonal to the pupil division direction relative to the other, it is possible to prevent the AF pixel sampling ability from decreasing in the direction orthogonal to the pupil division direction. Therefore, it is possible to prevent a thin line or high-frequency subject from being captured and to improve focus detection performance.

また、横ずれ検出用画素と縦ずれ検出用画素を市松状に実質上等間隔かつ等配置密度で配置することができる。これにより、横方向に輝度分布を有する被写体と、縦方向に輝度分布を有する被写体の、いずれに対しても正確な焦点検出が可能となる。   Further, the lateral shift detection pixels and the vertical shift detection pixels can be arranged in a checkered pattern at substantially equal intervals and at equal arrangement density. As a result, accurate focus detection can be performed for both a subject having a luminance distribution in the horizontal direction and a subject having a luminance distribution in the vertical direction.

なお、本実施形態では、焦点検出用画素が撮像素子の撮像面の全領域に渡って分布している場合を例に示したが、本発明はこれに限定されない。例えば、本発明の範囲を逸脱しない範囲内で、撮像素子の周辺領域には焦点検出用画素を配置しない等の変更が可能である。   In the present embodiment, the case where the focus detection pixels are distributed over the entire area of the imaging surface of the imaging device has been described as an example, but the present invention is not limited to this. For example, it is possible to make changes such as not disposing the focus detection pixels in the peripheral area of the image sensor within a range not departing from the scope of the present invention.

(第2の実施形態)
第1の実施形態は、1対の横ずれ検出用画素、又は1対の縦ずれ検出用画素は、斜め方向に隣接するR画素とB画素の位置に割り当てられていた。以下に示す第2の実施形態は、焦点検出用画素が単一色の画素、すなわちR画素又はB画素のみの場所に割り当てられる実施形態である。図21〜図25を用いて第2の実施形態の構成を説明する。
(Second Embodiment)
In the first embodiment, a pair of lateral shift detection pixels or a pair of vertical shift detection pixels are assigned to positions of R pixels and B pixels adjacent in an oblique direction. The second embodiment described below is an embodiment in which the focus detection pixels are assigned only to pixels of a single color, that is, R pixels or B pixels. The configuration of the second embodiment will be described with reference to FIGS.

図21は第2の実施形態の焦点検出用画素配列を示す図であり、第1の実施形態の図9に対応する。図9に示した第1の実施形態では、ベイヤー配列を有した撮像用画素において、斜め方向に隣接するR画素とB画素の位置に、焦点検出用画素SHA、SHB、SVC及びSVDが割り当てられていた。これに対して図21に示す第2の実施形態では、ベイヤー配列におけるB画素のみに焦点検出用画素が割り当てられる。具体的には、一番左上のブロックBLK(1、1)とその右下のブロックBLK(2、2)においては、最下行の左寄りにある2個のB画素を水平方向に瞳分割を行なう1組の焦点検出用画素SHA及びSHBで置き換える。 FIG. 21 is a diagram illustrating a focus detection pixel array according to the second embodiment, and corresponds to FIG. 9 according to the first embodiment. In the first embodiment shown in FIG. 9, focus detection pixels S HA , S HB , S VC and S are located at positions of R pixels and B pixels adjacent in the oblique direction in the imaging pixels having the Bayer array. VD was assigned. In contrast, in the second embodiment shown in FIG. 21, focus detection pixels are assigned only to B pixels in the Bayer array. Specifically, in the upper left block BLK h (1, 1) and the lower right block BLK h (2, 2), two B pixels located on the left side of the lowermost row are horizontally divided into pupils. Are replaced with a set of focus detection pixels S HA and S HB .

また残りのブロックBLKv(1、2)とBLKv(2、1)においては、左から2番目の列の下寄りにある2個のB画素を、垂直方向に瞳分割を行なう1組の焦点検出用画素SVC及びSVDで置き換える。 In the remaining blocks BLKv (1, 2) and BLKv (2, 1), a set of focus detections that perform pupil division in the vertical direction on the two B pixels located on the lower side of the second column from the left. The pixels S VC and S VD are replaced.

この配置規則を一般化すると、第1の実施形態と同様に、ブロックBLK(i、j)において、i+jが偶数であれば水平瞳分割用の焦点検出画素を配置し、i+jが奇数であれば垂直瞳分割用の焦点検出画素を配置することになる。そして、2×2=4ブロック、すなわち20行×20列=400画素の領域がクラスタとなる。   Generalizing this arrangement rule, as in the first embodiment, in block BLK (i, j), if i + j is an even number, a focus detection pixel for horizontal pupil division is arranged, and if i + j is an odd number, Focus detection pixels for vertical pupil division are arranged. An area of 2 × 2 = 4 blocks, that is, 20 rows × 20 columns = 400 pixels is a cluster.

図22は、上記のクラスタを単位とした配置規則を説明するための図であり、第1の実施形態の図10に対応する。図22において、20行×20列=400画素で構成された一番左上のクラスタをCST(u、w)=CST(1、1)とする。そしてクラスタCST(1、1)においては、各ブロックの左下寄りにあるB画素を、焦点検出用画素SHA及びSHB、又はSVC及びSVDで置き換える。 FIG. 22 is a diagram for explaining the arrangement rule with the cluster as a unit, and corresponds to FIG. 10 of the first embodiment. In FIG. 22, the upper left cluster composed of 20 rows × 20 columns = 400 pixels is assumed to be CST (u, w) = CST (1, 1). In the cluster CST (1, 1), the B pixel located on the lower left side of each block is replaced with focus detection pixels S HA and S HB or S VC and S VD .

その右隣りのクラスタCST(1、2)においては、ブロック内における焦点検出用画素の配置を、クラスタCST(1、1)に対して上方向に2画素分シフトした位置に配置する。また、最初のクラスタCST(1、1)の下に隣接したクラスタCST(2、1)においては、ブロック内における焦点検出用画素の配置を、クラスタCST(1、1)に対して右方向に2画素分シフトした位置に配置する。以上の規則を繰り返し適用すると、図22に示した配置が得られ、図22に示した範囲がクラスタの上位に位置するフィールドとなる。なお、図10に示した第1の実施形態では、5×5=25クラスタが1フィールドであったが、第2の実施形態では4×4=16クラスタが1フィールドとなる。   In the cluster CST (1, 2) on the right side, the focus detection pixels in the block are arranged at positions shifted upward by two pixels with respect to the cluster CST (1, 1). In the cluster CST (2, 1) adjacent to the first cluster CST (1, 1), the focus detection pixel is arranged in the block in the right direction with respect to the cluster CST (1, 1). Arranged at a position shifted by two pixels. When the above rule is repeatedly applied, the arrangement shown in FIG. 22 is obtained, and the range shown in FIG. 22 becomes a field positioned at the top of the cluster. In the first embodiment shown in FIG. 10, 5 × 5 = 25 clusters are one field, but in the second embodiment, 4 × 4 = 16 clusters are one field.

図23は、上記のフィールドを単位とした配置規則を説明するための図であり、第1の実施形態の図11に対応する。図23において、80行×80列=6、400画素で構成された一番左上のフィールドをFLD(q、r)=FLD(1、1)とする。そして第2の実施形態でも、すべてのフィールドFLD(q、r)は先頭フィールドFLD(1、1)と同様の配列となっている。そこで、FLD(1、1)を水平方向に37個、垂直方向に25個配列すると、3000列×2000行=600万画素の撮像領域は925個のフィールドで構成される。ただし、右端の40列は1フィールドが構成できなかった端数領域であり、この領域には焦点検出用画素が配置されないが、実質的に撮像領域全面に渡って焦点検出用画素を均一に分布させている。   FIG. 23 is a diagram for explaining an arrangement rule with the above field as a unit, and corresponds to FIG. 11 of the first embodiment. In FIG. 23, the upper left field composed of 80 rows × 80 columns = 6,400 pixels is assumed to be FLD (q, r) = FLD (1,1). Also in the second embodiment, all the fields FLD (q, r) have the same arrangement as the first field FLD (1, 1). Therefore, when 37 FLDs (1, 1) are arranged in the horizontal direction and 25 in the vertical direction, an imaging area of 3000 columns × 2000 rows = 6 million pixels is configured by 925 fields. However, the 40 columns at the right end are fractional areas where one field could not be constructed, and focus detection pixels are not arranged in this area, but the focus detection pixels are substantially uniformly distributed over the entire imaging area. ing.

次に図24及び図25を用いて、焦点検出時の画素のグループと信号加算方法について説明する。図12は、撮影光学系によって形成された被写体像の、横ずれ方向の焦点検出を行なう場合の画素グループ化方法を説明する図であり、第1の実施形態の図12に対応する。   Next, a group of pixels and a signal addition method at the time of focus detection will be described with reference to FIGS. FIG. 12 is a diagram for explaining a pixel grouping method in the case of performing focus detection in the lateral shift direction of the subject image formed by the photographing optical system, and corresponds to FIG. 12 of the first embodiment.

図24に示す画素配列は図22で説明したものだが、焦点検出の際には、横方向に1ブロック、縦方向に8ブロックの合計8ブロックを1つのセクションとする。そして、第2の実施形態では、横方向に並んだ24セクションで、1つの焦点検出領域を構成する。すなわち、80行×240列=19、200画素の領域が1つの焦点検出領域となる。この1つの焦点検出領域がAFエリアである。ここで、1つのセクション内においては、横方向における一方の瞳分割を行なう画素SHAが4個、他方の瞳分割を行なう画素SHBも4個含まれている。そこで第2の実施形態においては、4個のSHAの出力を加算して、位相差演算用の一方の画像信号(A像と称する)の1AF画素とする。同様に、4個のSHBの出力を加算して、位相差演算用の他方の画像信号(B像と称する)の1AF画素とする。 The pixel arrangement shown in FIG. 24 is the same as that described with reference to FIG. 22, but in the focus detection, one block in the horizontal direction and eight blocks in the vertical direction are combined into one section. In the second embodiment, one focus detection area is configured by 24 sections arranged in the horizontal direction. That is, an area of 80 rows × 240 columns = 19, 200 pixels is one focus detection area. This one focus detection area is an AF area. Here, in one section, four pixels S HA that perform one pupil division in the horizontal direction and four pixels S HB that perform the other pupil division are included. Therefore, in the second embodiment, the outputs of the four SHAs are added to form one AF pixel of one image signal (referred to as an A image) for phase difference calculation. Similarly, the outputs of the four SHBs are added to form a 1AF pixel of the other image signal (referred to as a B image) for phase difference calculation.

図25は、一つのセクションにおける、被写体像の捕捉能力を説明するための図であり、第1の実施形態の図13に対応する。図25(a)は図24の左端のセクションを切り出したものである。下端に示された水平線PRJは、焦点検出用画素SHA及びSHBの瞳分割方向(第1の方向)と直交する第2の方向に延伸した第1の射影軸(Projection Line)である。右端に示された垂直線PRJは、瞳分割方向に延伸した第2の射影軸である。ここで、1つのセクション内の画素SHAはすべて加算され、SHBも加算される。そこで、1セクションを1AF画素と見なした場合、1AF画素に含まれる受光部を瞳分割方向と直交する方向の射影軸PRJに射影すると、画素SHAとSHBが交互に緻密に並ぶことがわかる。このときの、瞳分割方向と直交する方向の射影軸PRJにおける画素SHAの平均的な配列ピッチをP1とすると、P1=PH=2(単位は画素)となる。ピッチの代わりに空間周波数F1で表わすと、F1=0.5(単位は画素/画素)となる。同様に射影軸PRJにおける画素SHBの配列ピッチもP1=2(単位は画素)、空間周波数表記ではF1=0.5(単位は画素/画素)となる。 FIG. 25 is a diagram for explaining the subject image capturing capability in one section, and corresponds to FIG. 13 of the first embodiment. FIG. 25A shows the section at the left end of FIG. A horizontal line PRJ h shown at the lower end is a first projection line extending in a second direction orthogonal to the pupil division direction (first direction) of the focus detection pixels S HA and S HB. . Vertical line PRJ v shown at the right end is a second projection axis which extends in the pupil division direction. Here, all the pixels S HA in one section are added, and S HB is also added. Therefore, when one section is regarded as one AF pixel, pixels S HA and S HB are alternately arranged densely when the light receiving portion included in the one AF pixel is projected onto a projection axis PRJ h in a direction orthogonal to the pupil division direction. I understand. If the average arrangement pitch of the pixels S HA on the projection axis PRJ h in the direction orthogonal to the pupil division direction at this time is P1, P1 = PH h = 2 (unit is a pixel). When expressed by the spatial frequency F1 instead of the pitch, F1 = 0.5 (unit is pixel / pixel). Similarly, the arrangement pitch of the pixels S HB on the projection axis PRJ h is also P1 = 2 (unit is pixel), and F1 = 0.5 (unit is pixel / pixel) in the spatial frequency notation.

一方、1AF画素に含まれる受光部を瞳分割方向の射影軸PRJに射影すると、画素SHAとSHBはまばらに並ぶことがわかる。このときの、射影軸PRJにおける画素SHAの配列ピッチをP2とすると、P2=PH=20(単位は画素)となる。ピッチの代わりに空間周波数F2で表わすと、F2=0.05(単位は画素/画素)となる。同様に射影軸PRJにおける画素SHBの配列ピッチも、P2=20(単位は画素)、空間周波数表記ではF2=0.05(単位は画素/画素)となる。すなわち、第2の実施形態におけるAF画素の被写体像のサンプリング特性は、第1の実施形態とほぼ等しいことが判る。 On the other hand, when projecting the light receiving portions included in 1AF pixel in the pupil division direction in projection axis PRJ v, the pixel S HA and S HB is seen that aligned sparsely. If the arrangement pitch of the pixels S HA on the projection axis PRJ v at this time is P2, then P2 = PH v = 20 (the unit is a pixel). When expressed by the spatial frequency F2 instead of the pitch, F2 = 0.05 (unit: pixel / pixel). Similarly, the array pitch of the pixels S HB along the projection PRJ v also, P2 = 20 (the unit is a pixel), a F2 = 0.05 (the unit is pixel / pixel) of the spatial frequency notation. That is, it can be seen that the sampling characteristics of the subject image of the AF pixel in the second embodiment are substantially equal to those in the first embodiment.

図25(a)で説明したAF画素(一つのセクション)に、細線の被写体像が投影された場合の画像捕捉能力を図25(b)にて説明する。図25(b)において、LINEは、撮像素子107上に投影された細い縦線を表わし、その幅は画素換算で4画素、画像の実寸では幅8μmになっている。この時、セクションSCT(1)内では、ブロックBLK(1、1)、ブロックBLK(3、1)及びブロックBLK(5、1)に含まれる焦点検出用画素が被写体像を捕捉する。すなわち第2の実施形態においても、1つのセクション内では、最低でも各1個ずつの画素SHAとSHBで画像を捕捉することになり、捕捉洩れは生じない。 The image capture capability when a thin line subject image is projected onto the AF pixel (one section) described in FIG. 25A will be described with reference to FIG. In FIG. 25B, LINE v represents a thin vertical line projected on the image sensor 107, and the width thereof is 4 pixels in terms of pixels, and the actual size of the image is 8 μm. At this time, in the section SCT h (1), the focus detection pixels included in the block BLK (1, 1), the block BLK (3, 1), and the block BLK (5, 1) capture the subject image. That is, also in the second embodiment, an image is captured by at least one pixel S HA and S HB in one section, and no capture leakage occurs.

一方、図25(b)のLINEは、撮像素子107上に投影された幅4画素分の細い横線を表わす。この時には、横線LINEはブロックBLK(5、1)にかかっているが、焦点検出用画素SHA及びSHBには捕捉されない。しかしながら、セクションSCT(1)は、縦線のように横方向に輝度分布を有する被写体について焦点検出を行なうためのものである。従って、横線のように縦方向に輝度分布を有する被写体については、焦点検出用画素による像の捕捉洩れが生じても構わない。 On the other hand, LINE h in FIG. 25B represents a thin horizontal line of 4 pixels wide projected on the image sensor 107. At this time, the horizontal line LINE h covers the block BLK (5, 1), but is not captured by the focus detection pixels S HA and S HB . However, the section SCT h (1) is for performing focus detection on a subject having a luminance distribution in the horizontal direction such as a vertical line. Therefore, for an object having a luminance distribution in the vertical direction such as a horizontal line, an image capturing omission due to focus detection pixels may occur.

なお、第2の実施形態における縦ずれ方向の焦点検出における特性は、図25を90度回転したものと等価であるため、説明は省略する。また、焦点検出動作も図17〜図20で説明したフローを用いればよい。なお、上記の説明では焦点検出用画素をB画素に割り当てたが、R画素に割り当てても良い。また、1組の焦点検出画素の配置も実施形態の形態に限定されない。例えば図21では横ずれ方向の2個1組の焦点検出用画素を、横方向に離間して配置したが、縦方向に離間配置しても構わない。   Note that the characteristics in detecting the focus in the longitudinal shift direction in the second embodiment are equivalent to those obtained by rotating FIG. 25 by 90 degrees, and thus the description thereof is omitted. Further, the flow described in FIGS. 17 to 20 may also be used for the focus detection operation. In the above description, the focus detection pixels are assigned to the B pixels, but may be assigned to the R pixels. Further, the arrangement of a set of focus detection pixels is not limited to the embodiment. For example, in FIG. 21, a pair of focus detection pixels in the lateral shift direction are arranged apart from each other in the horizontal direction, but may be arranged apart from each other in the vertical direction.

以上の第2の実施形態によれば、焦点検出用画素を単一色の画素に割り当てたため、出力画像生成時の欠陥画素補間アルゴリズムが簡単になる。また、特定色における画像劣化や偽色が軽減される。   According to the second embodiment described above, since the focus detection pixels are assigned to single color pixels, the defective pixel interpolation algorithm at the time of output image generation is simplified. In addition, image deterioration and false color in a specific color are reduced.

(第3の実施形態)
第1の実施形態及び第2の実施形態で用いた焦点検出用画素は、2個で1組となり、2分割された瞳領域について、一方の画素が一方の瞳を通過する光束を受光し、他方の画素がもう一方の瞳を通過する光束を受光していた。これに対して以下に示す第3の実施形態は、2分割された瞳領域の光束を1つの画素で取得し、その信号を出力する撮像素子を用いた実施形態を示す。
(Third embodiment)
The focus detection pixels used in the first embodiment and the second embodiment are a set of two, and for one pupil region divided into two, one pixel receives a light beam passing through one pupil, The other pixel received the light beam passing through the other pupil. On the other hand, a third embodiment described below shows an embodiment using an imaging device that acquires a luminous flux of a pupil region divided into two by one pixel and outputs the signal.

以下、図26及び図27を用いて第3の実施形態を説明する。   Hereinafter, the third embodiment will be described with reference to FIGS. 26 and 27.

図26は第3の実施形態の焦点検出用画素配列を示す図であり、第1の実施形態の図9に対応する。図9に示した第1の実施形態では、ベイヤー配列を有した撮像用画素において、斜め方向に隣接するR画素とB画素の位置に、焦点検出用画素SHA、SHB、SVC及びSVDが割り当てられていた。これに対して図26に示す第3の実施形態では、10×10=100画素の各ブロックにおいて、1個のR画素に焦点検出用画素が割り当てられる。具体的には、一番左上のブロックBLK(1、1)とその右下のブロックBLK(2、2)においては、左端列の最下端にある1個のR画素を水平方向に瞳分割を行なう1個の焦点検出用画素SHABで置き換える。ここで、焦点検出用画素SHABは、本出願人による特開2003−156677号公報に開示された技術を用いればよい。すなわち当公報の図2に開示された撮像素子のように、オンチップマイクロレンズ後方の光電変換素子を多分割することで撮影光学系の瞳分割を行ない、分割された各瞳領域からの光束を独立して取得し、画像信号として出力する。そのため、1画素で位相差検出用の1組の信号が得られる。 FIG. 26 is a diagram illustrating a focus detection pixel array according to the third embodiment, and corresponds to FIG. 9 according to the first embodiment. In the first embodiment shown in FIG. 9, focus detection pixels S HA , S HB , S VC and S are located at positions of R pixels and B pixels adjacent in the oblique direction in the imaging pixels having the Bayer array. VD was assigned. On the other hand, in the third embodiment shown in FIG. 26, a focus detection pixel is assigned to one R pixel in each block of 10 × 10 = 100 pixels. Specifically, in the upper left block BLK h (1, 1) and the lower right block BLK h (2, 2), one R pixel at the lowermost end of the left end column is horizontally pupild. It is replaced with one focus detection pixel SHAB to be divided. Here, the technique disclosed in Japanese Patent Application Laid-Open No. 2003-156667 by the present applicant may be used for the focus detection pixel S HAB . That is, as in the imaging device disclosed in FIG. 2 of this publication, the photoelectric conversion element behind the on-chip microlens is divided into multiple parts to divide the pupil of the photographing optical system, and the luminous flux from each divided pupil region is It is acquired independently and output as an image signal. Therefore, one set of signals for phase difference detection is obtained with one pixel.

また残りのブロックBLKv(1、2)とBLKv(2、1)においては、左端列の最下端にある1個のR画素を、垂直方向に瞳分割を行なう1個の焦点検出用画素SVABで置き換える。 In the remaining blocks BLKv (1, 2) and BLKv (2, 1), one focus detection pixel S VAB that performs pupil division in the vertical direction on one R pixel at the lowermost end of the leftmost column. Replace with.

この配置規則を一般化すると、第1の実施形態と同様に、ブロックBLK(i、j)において、i+jが偶数であれば水平瞳分割用の焦点検出画素を配置し、i+jが奇数であれば垂直瞳分割用の焦点検出画素を配置することになる。そして、2×2=4ブロック、すなわち20行×20列=400画素の領域がクラスタとなる。   Generalizing this arrangement rule, as in the first embodiment, in block BLK (i, j), if i + j is an even number, a focus detection pixel for horizontal pupil division is arranged, and if i + j is an odd number, Focus detection pixels for vertical pupil division are arranged. An area of 2 × 2 = 4 blocks, that is, 20 rows × 20 columns = 400 pixels is a cluster.

図27は、上記のクラスタを単位とし、クラスタが複数集合した配置規則を説明するための図であり、第1の実施形態の図10に対応する。図27に示した全領域が、クラスタの上位となる1フィールドを表わすが、フィールドにおける配置規則は第1の実施形態と同一である。   FIG. 27 is a diagram for explaining an arrangement rule in which a plurality of clusters are collected with the above cluster as a unit, and corresponds to FIG. 10 of the first embodiment. The entire area shown in FIG. 27 represents one field that is higher in the cluster, but the arrangement rule in the field is the same as in the first embodiment.

また、第3の実施形態における、撮像領域全域におけるフィールド配置や、焦点検出特性、焦点検出フローは、第1の実施形態の図11〜図20に示したものと同一なため、説明は省略する。   The field arrangement, focus detection characteristics, and focus detection flow in the entire imaging region in the third embodiment are the same as those shown in FIGS. .

以上の第3の実施形態によれば、焦点検出用画素に割り当てる画素数の比率が減少するため、出力画像の劣化や偽色が一層軽減される。また、出力画像生成時の欠陥画素補間アルゴリズムも単純化される。   According to the third embodiment described above, since the ratio of the number of pixels allocated to the focus detection pixels is reduced, deterioration of the output image and false colors are further reduced. In addition, the defective pixel interpolation algorithm when generating the output image is simplified.

(第4の実施形態)
第1の実施形態〜第3の実施形態は、横ずれ検出用画素と縦ずれ検出用画素が等しい配置密度で配置されていたが、以下に示す第4の実施形態は、一方の画素のみを配置した実施形態である。図28〜図30を用いて第4の実施形態の構成を説明する。
(Fourth embodiment)
In the first to third embodiments, the lateral deviation detection pixels and the vertical deviation detection pixels are arranged with the same arrangement density. However, in the fourth embodiment described below, only one pixel is arranged. Embodiment. The configuration of the fourth embodiment will be described with reference to FIGS.

図28は第4の実施形態の焦点検出用画素配列を示す図であり、第1の実施形態の図12に対応する。第4の実施形態においては、画素配列の最小単位であるブロックは、第1の実施形態と同様に10行×10列=100画素で構成される。ただし、第4の実施形態が有する焦点検出用画素は、図6に示した画素、すなわち撮影光学系の瞳を水平方向に分割する画素SHA及びSHBのみである。また、焦点検出のための1つのセクションは2×5=10ブロック、すなわち50行×20列=1000画素で構成される。そして各セクションにおいては、焦点検出用画素ペアは図示のようにV字状に配列される。ただし、各ブロックBLK(i、j)において、jが奇数のブロック群と偶数のブロック群では、焦点検出用画素ペアの上下方向の配置場所を異ならせている。 FIG. 28 is a diagram illustrating a focus detection pixel array according to the fourth embodiment, and corresponds to FIG. 12 according to the first embodiment. In the fourth embodiment, the block that is the minimum unit of the pixel array is configured by 10 rows × 10 columns = 100 pixels as in the first embodiment. However, the focus detection pixels included in the fourth embodiment are only the pixels shown in FIG. 6, that is, the pixels S HA and S HB that divide the pupil of the photographing optical system in the horizontal direction. One section for focus detection is composed of 2 × 5 = 10 blocks, that is, 50 rows × 20 columns = 1000 pixels. In each section, the focus detection pixel pairs are arranged in a V shape as illustrated. However, in each block BLK (i, j), the arrangement positions of the focus detection pixel pairs in the vertical direction are different between an odd-numbered block group and an even-numbered block group.

図29は、一つのセクションにおける、被写体像の捕捉能力を説明するための図であり、第1の実施形態の図13に対応する。図29(a)は図28の左端のセクションを切り出したものである。そして下端に示された水平線PRJは、焦点検出用画素SHA及びSHBの瞳分割方向(第1の方向)と直交する第2の方向に延伸した第1の射影軸、右端に示された垂直線PRJは、瞳分割方向に延伸した第2の射影軸である。第4の実施形態においても、1つのセクション内の画素SHの出力はすべて加算され、SHBの出力も加算される。そこで、1セクションを1AF画素と見なした場合、1AF画素に含まれる受光部を瞳分割方向と直交する方向の射影軸PRJに射影すると、画素SHとSHが交互に緻密に並ぶことがわかる。このときの、瞳分割方向と直交する方向の射影軸PRJにおける画素SHの配列ピッチをP1とすると、P1=PH=2(単位は画素)となる。ピッチの代わりに空間周波数F1で表わすと、F1=0.5(単位は画素/画素)となる。同様に射影軸PRJにおける画素SHBの配列ピッチもP1=2(単位は画素)、空間周波数表記ではF1=0.5(単位は画素/画素)となる。 FIG. 29 is a diagram for explaining the subject image capturing capability in one section, and corresponds to FIG. 13 of the first embodiment. FIG. 29A shows the section at the left end of FIG. The horizontal line PRJ h shown at the lower end is shown at the right end of the first projection axis extending in the second direction orthogonal to the pupil division direction (first direction) of the focus detection pixels S HA and S HB. vertical line PRJ v is the second projection axis which extends in the pupil division direction. In the fourth embodiment, the output of the pixel SH A in one section are added all the output of the S HB are also added. Accordingly, when one section is regarded as one AF pixel, pixels SH A and SH B are alternately arranged densely when the light receiving portion included in the one AF pixel is projected onto a projection axis PRJ h in a direction orthogonal to the pupil division direction. I understand. When the arrangement pitch of the pixels SH A on the projection axis PRJ h in the direction orthogonal to the pupil division direction at this time is P1, P1 = PH h = 2 (unit is a pixel). When expressed by the spatial frequency F1 instead of the pitch, F1 = 0.5 (unit is pixel / pixel). Similarly, the arrangement pitch of the pixels S HB on the projection axis PRJ h is also P1 = 2 (unit is pixel), and F1 = 0.5 (unit is pixel / pixel) in the spatial frequency notation.

一方、1つのAF画素に含まれる受光部を瞳分割方向の射影軸PRJに射影すると、画素SHAとSHBはまばら、かつ不等間隔に並ぶことがわかる。このときの、射影軸PRJにおける画素SHAの配列ピッチは2つの値となり、大きい方のピッチはPHv1=6、小さい方のピッチはPHv2=4、平均値はP2=5(ともに単位は画素)となる。ピッチの代わりに平均空間周波数F2で表わすと、F2=0.2(単位は画素/画素)となる。同様に射影軸PRJにおける画素SHBの平均配列ピッチも、P2=5(単位は画素)、平均空間周波数表記ではF2=0.2(単位は画素/画素)となる。 On the other hand, when projecting the light receiving portions included in one AF pixel projection axis PRJ v in the pupil division direction, the pixels S HA and S HB is seen that arranged in sparsely, and unequal. At this time, the arrangement pitch of the pixels S HA on the projection axis PRJ v has two values, the larger pitch is PH v1 = 6, the smaller pitch is PH v2 = 4, and the average value is P2 = 5 (both units) Is a pixel). When expressed by the average spatial frequency F2 instead of the pitch, F2 = 0.2 (unit is pixel / pixel). The average arrangement pitch of the pixels S HB at Similarly projection axis PRJ v also, P2 = 5 (the unit is a pixel), a F2 = 0.2 (the unit is a pixel / pixel) the average spatial frequency notation.

すなわち、第4の実施形態におけるAF画素は、上記グループ化前の分散特性は、瞳分割方向とこれに直交する方向の配置特性が異なるが、グループ化する際のグループ形状を長方形とすることで、所望のサンプリング特性を得ている。具体的には、1セクションの瞳分割方向と直交する方向の最大寸法L1は20画素、瞳分割方向の最大寸法L2は50画素としている。すなわち、セクション寸法をL1<L2とすることで、瞳分割方向と直交する方向のサンプリング周波数F1を高周波(密)に、瞳分割方向のサンプリング周波数F2を低周波(疎)としている。   That is, in the AF pixel according to the fourth embodiment, the dispersion characteristics before the grouping are different in the arrangement characteristics in the pupil division direction and the direction orthogonal to the pupil division direction, but the group shape at the time of grouping is rectangular. The desired sampling characteristics are obtained. Specifically, the maximum dimension L1 in the direction orthogonal to the pupil division direction of one section is 20 pixels, and the maximum dimension L2 in the pupil division direction is 50 pixels. That is, by setting the section size to L1 <L2, the sampling frequency F1 in the direction orthogonal to the pupil division direction is set to a high frequency (fine), and the sampling frequency F2 in the pupil division direction is set to a low frequency (sparse).

図29(a)で説明したAF画素(一つのセクション)に、細線の被写体像が投影された場合の画像捕捉能力を図29(b)にて説明する。図29(b)において、LINEは、撮像素子107上に投影された細い縦線を表わし、その幅は画素換算で4画素、画像の実寸では幅8μmになっている。この時、セクションSCT(1)内では、ブロックBLK(3、1)とブロックBLK(4、1)に含まれる焦点検出用画素が被写体像を捕捉する。 FIG. 29B illustrates the image capturing capability when a thin line subject image is projected onto the AF pixel (one section) described with reference to FIG. In FIG. 29B, LINE v represents a thin vertical line projected on the image sensor 107, the width of which is 4 pixels in terms of pixel, and the actual size of the image is 8 μm. At this time, in the section SCT h (1), the focus detection pixels included in the block BLK (3, 1) and the block BLK (4, 1) capture the subject image.

また、図29(b)のLINEは、縦線LINE撮が反時計方向に15度回転した傾斜縦線である。この傾斜縦線は、ブロックBLK(4、2)に含まれる焦点検出用画素により捕捉される。一方、第4の実施形態においては縦ずれ検出画素は備えていないので、横線については焦点検出不能である。 Further, LINE C in FIG. 29 (b) vertical lines LINE v Ta is inclined vertical line rotated 15 degrees counterclockwise. This inclined vertical line is captured by the focus detection pixels included in the block BLK (4, 2). On the other hand, in the fourth embodiment, since no vertical shift detection pixel is provided, focus detection is impossible for the horizontal line.

図30は撮像素子107の全領域における画素配置図であり、第1の実施形態の図11に対応する。第4の実施形態においては、図28で説明したセクションがフィールドにも対応するため、図30のように、撮影領域は40×150=6000個のフィールドで構成される。そして撮像領域全面に渡って、横ずれ方向の焦点検出が可能となっている。   FIG. 30 is a pixel arrangement diagram in the entire region of the image sensor 107 and corresponds to FIG. 11 of the first embodiment. In the fourth embodiment, since the section described with reference to FIG. 28 also corresponds to a field, as shown in FIG. 30, the imaging region is configured by 40 × 150 = 6000 fields. The focus detection in the lateral shift direction is possible over the entire imaging region.

以上の第4の実施形態によれば、焦点検出用画素の配列規則が単純化されるため、この配列規則を記憶するメモリ領域が節約でき、機器を安価に製造できる。また、欠陥画素を補完するアルゴリズムも単純化され、画像処理速度が向上し、軽快な焦点調節を撮影が可能となる。   According to the fourth embodiment described above, the arrangement rule of the focus detection pixels is simplified, so that the memory area for storing the arrangement rule can be saved, and the device can be manufactured at low cost. Also, the algorithm for complementing defective pixels is simplified, the image processing speed is improved, and light focus adjustment can be taken.

以上説明した第1の実施形態〜第4の実施形態は、デジタルスチルカメラにおける実施形態を説明したが、本発明はこれに限定されない。本発明の撮像装置は、デジタルスチルカメラだけでなく、動画撮影を行なうカムコーダ(ムービーカメラ)、各種検査カメラ、監視カメラ、内視鏡カメラ、ロボット用カメラ等に適用されうる。また、以上説明した第1の実施形態〜第4の実施形態において、合成には、加算と平均化とが含まれるものとする。   In the first to fourth embodiments described above, the embodiments of the digital still camera have been described. However, the present invention is not limited to this. The image pickup apparatus of the present invention can be applied not only to a digital still camera but also to a camcorder (movie camera) that performs moving image shooting, various inspection cameras, a surveillance camera, an endoscope camera, a robot camera, and the like. Further, in the first to fourth embodiments described above, the synthesis includes addition and averaging.

以上説明した第1の実施形態〜第4の実施形態に記載された構成要素の配置や数値等は例示的なものであり、本発明の範囲をそれらのみに限定する趣旨のものではない。   The arrangement, numerical values, and the like of the components described in the first to fourth embodiments described above are illustrative, and are not intended to limit the scope of the present invention only to them.

本発明は、撮像素子を備えた電子カメラ等の撮像装置の焦点調節動作を提供するものであり、特にデジタルスチルカメラ、ムービーカメラに有用である。   The present invention provides a focus adjustment operation of an imaging apparatus such as an electronic camera equipped with an imaging element, and is particularly useful for a digital still camera and a movie camera.

本発明の好適な実施形態に係る撮像装置の構成図である。1 is a configuration diagram of an imaging apparatus according to a preferred embodiment of the present invention. 本発明の好適な実施形態に係る撮像素子の回路図である。It is a circuit diagram of an image sensor according to a preferred embodiment of the present invention. 本発明の好適な実施形態に係る撮像素子の画素断面図である。It is a pixel sectional view of the image sensor concerning a suitable embodiment of the present invention. 本発明の好適な実施形態に係る撮像素子の駆動タイミングチャートである。3 is a drive timing chart of an image sensor according to a preferred embodiment of the present invention. 本発明の好適な実施形態に係る撮像素子の撮像用画素の平面図と断面図である。It is the top view and sectional drawing of the pixel for an imaging of the image pick-up element which concerns on suitable embodiment of this invention. 本発明の好適な実施形態に係る撮像素子の焦点検出用画素の平面図と断面図である。2A and 2B are a plan view and a cross-sectional view of a focus detection pixel of an image sensor according to a preferred embodiment of the present invention. 本発明の好適な実施形態に係る撮像素子の他の焦点検出用画素の平面図と断面図である。It is the top view and sectional view of other focus detection pixels of an image sensor according to a preferred embodiment of the present invention. 本発明の好適な実施形態に係る焦点検出を説明する概念図である。It is a conceptual diagram explaining the focus detection which concerns on suitable embodiment of this invention. 本発明の好適な第1の実施形態に係る撮像素子の最小単位の画素配列説明図である。FIG. 2 is a pixel array explanatory diagram of a minimum unit of the image sensor according to the preferred first embodiment of the present invention. 本発明の好適な第1の実施形態に係る撮像素子の上位単位の画素配列説明図である。It is a pixel arrangement explanatory drawing of the upper unit of the image sensor according to the preferred first embodiment of the present invention. 本発明の好適な第1の実施形態に係る撮像素子の全領域における画素配列説明図である。It is a pixel arrangement explanatory view in the whole area of the image sensor according to the preferred first embodiment of the present invention. 本発明の好適な第1の実施形態に係る横ずれ焦点検出時の画素グループ化方法説明図である。It is a pixel grouping method explanatory view at the time of lateral shift focus detection according to a preferred first embodiment of the present invention. 本発明の好適な第1の実施形態に係る横ずれ焦点検出時の画像サンプリング特性説明図である。It is an image sampling characteristic explanatory view at the time of lateral shift focus detection according to a preferred first embodiment of the present invention. 本発明の好適な第1の実施形態に係る縦ずれ焦点検出時の画素グループ化方法説明図である。It is a pixel grouping method explanatory view at the time of longitudinal shift focus detection according to a preferred first embodiment of the present invention. 本発明の好適な第1の実施形態に係る縦ずれ焦点検出時の画像サンプリング特性説明図である。It is image sampling characteristics explanatory drawing at the time of longitudinal shift focus detection concerning a suitable 1st embodiment of the present invention. 本発明の好適な第1の実施形態に係る撮像素子の瞳分割状況を説明する概念図である。It is a conceptual diagram explaining the pupil division | segmentation condition of the image pick-up element which concerns on suitable 1st Embodiment of this invention. 本発明の好適な第1の実施形態に係る焦点検出領域説明図である。It is a focus detection area explanatory drawing concerning a suitable 1st embodiment of the present invention. 本発明の好適な実施形態に係るメイン制御フロー図である。It is a main control flow figure concerning a suitable embodiment of the present invention. 本発明の好適な実施形態に係る焦点検出サブルーチンフロー図である。It is a focus detection subroutine flow chart concerning a preferred embodiment of the present invention. 本発明の好適な実施形態に係る撮影サブルーチンフロー図である。It is an imaging | photography subroutine flowchart which concerns on suitable embodiment of this invention. 本発明の好適な第2の実施形態に係る撮像素子の最小単位の画素配列説明図である。It is pixel array explanatory drawing of the minimum unit of the image pick-up element which concerns on suitable 2nd Embodiment of this invention. 本発明の好適な第2の実施形態に係る撮像素子の上位単位の画素配列説明図である。It is pixel arrangement explanatory drawing of the high-order unit of the image pick-up element which concerns on suitable 2nd Embodiment of this invention. 本発明の好適な第2の実施形態に係る撮像素子の全領域における画素配列説明図である。It is pixel arrangement explanatory drawing in the whole area | region of the image pick-up element based on suitable 2nd Embodiment of this invention. 本発明の好適な第2の実施形態に係る横ずれ焦点検出時の画素グループ化方法説明図である。It is a pixel grouping method explanatory view at the time of lateral shift focus detection according to a preferred second embodiment of the present invention. 本発明の好適な第2の実施形態に係る横ずれ焦点検出時の画像サンプリング特性説明図である。It is image sampling characteristics explanatory drawing at the time of a lateral shift focus detection concerning a suitable 2nd embodiment of the present invention. 本発明の好適な第3の実施形態に係る撮像素子の最小単位の画素配列説明図である。It is pixel arrangement explanatory drawing of the minimum unit of the image pick-up element concerning the suitable 3rd Embodiment of this invention. 本発明の好適な第3の実施形態に係る撮像素子の上位単位の画素配列説明図である。It is pixel arrangement explanatory drawing of the upper unit of the image pick-up element concerning the suitable 3rd Embodiment of this invention. 本発明の好適な第4の実施形態に係る焦点検出時の画素グループ化方法説明図である。It is a pixel grouping method explanatory view at the time of focus detection according to a preferred fourth embodiment of the present invention. 本発明の好適な第4の実施形態に係る焦点検出時の画像サンプリング特性説明図である。It is image sampling characteristics explanatory drawing at the time of focus detection concerning a suitable 4th embodiment of the present invention. 本発明の好適な第4の実施形態に係る撮像素子の全領域における画素配列説明図である。It is pixel array explanatory drawing in the whole area | region of the image pick-up element based on suitable 4th Embodiment of this invention.

符号の説明Explanation of symbols

107 撮像素子
901 焦点検出部
901a 第1の焦点検出用画素
901b 第2の焦点検出用画素
902 合成手段
903 連結手段
904 演算手段
107 Image sensor 901 Focus detection unit 901a First focus detection pixel 901b Second focus detection pixel 902 Composition unit 903 Connection unit 904 Calculation unit

Claims (11)

瞳分割された第1の焦点検出用画素と第2の焦点検出用画素とで構成される焦点検出部を複数有する撮像素子と、
複数の前記焦点検出部を含むように前記撮像素子にそれぞれ割り当てられた複数のセクションの各々において、前記第1の焦点検出用画素からの出力信号を合成して第1の合成信号を得る処理と、前記第2の焦点検出用画素からの出力信号を合成して第2の合成信号を得る処理とを行う合成手段と、
前記複数のセクションに渡って、前記第1の合成信号を連結して第1の連結信号を得る処理と、前記第2の合成信号を連結して第2の連結信号を得る処理とを行う連結手段と、
前記第1の連結信号及び前記第2の連結信号に基づいて、結像光学系の焦点ずれ量を演算する演算手段と、
を備えることを特徴とする撮像装置。
An imaging device having a plurality of focus detection units each composed of a first focus detection pixel and a second focus detection pixel which are divided into pupils;
Processing for obtaining a first synthesized signal by synthesizing output signals from the first focus detection pixels in each of a plurality of sections respectively assigned to the image sensor so as to include a plurality of the focus detection units; Combining means for combining the output signals from the second focus detection pixels to obtain a second combined signal;
A concatenation that performs processing for concatenating the first composite signal to obtain a first concatenated signal and processing for concatenating the second composite signal to obtain a second concatenated signal over the plurality of sections. Means,
An arithmetic means for calculating a defocus amount of the imaging optical system based on the first connection signal and the second connection signal;
An imaging apparatus comprising:
前記撮像素子は、前記結像光学系で結像された被写体像を光電変換するための撮像用画素を複数有することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the imaging element includes a plurality of imaging pixels for photoelectrically converting a subject image formed by the imaging optical system. 複数の前記焦点検出部のうち第1の焦点検出部は、前記第1の焦点検出用画素及び前記第2の焦点検出用画素が第1の方向に瞳分割され、かつ、前記複数のセクションのうち第1のセクションにおける前記第1の方向及び前記第1の方向に垂直な第2の方向において等間隔に配置され、
前記第1の焦点検出部の前記第1の方向における間隔は、前記第1の焦点検出部の前記第2の方向における間隔よりも小さいことを特徴する請求項1又は請求項2に記載の撮像装置。
Of the plurality of focus detection units, the first focus detection unit is configured such that the first focus detection pixels and the second focus detection pixels are pupil-divided in a first direction, and The first section in the first section and the second direction perpendicular to the first direction are arranged at equal intervals in the first section,
3. The imaging according to claim 1, wherein an interval of the first focus detection unit in the first direction is smaller than an interval of the first focus detection unit in the second direction. apparatus.
前記第1のセクションの前記第1の方向における最大寸法は、前記第1のセクションの前記第2の方向における最大寸法よりも小さいことを特徴とする請求項3に記載の撮像装置。   The imaging apparatus according to claim 3, wherein a maximum dimension of the first section in the first direction is smaller than a maximum dimension of the first section in the second direction. 複数の前記焦点検出部のうち第2の焦点検出部は、前記第1の焦点検出用画素及び前記第2の焦点検出用画素が前記第2の方向に瞳分割され、かつ、前記複数のセクションのうち第2のセクションにおける前記第1の方向及び前記第2の方向において等間隔に配置され、
前記第2の焦点検出部の前記第2の方向における間隔は、前記第2の焦点検出部の前記第1の方向における間隔よりも小さいことを特徴する請求項3又は請求項4に記載の撮像装置。
Of the plurality of focus detection units, the second focus detection unit is configured such that the first focus detection pixels and the second focus detection pixels are pupil-divided in the second direction and the plurality of sections. Are arranged at equal intervals in the first direction and the second direction in the second section,
5. The imaging according to claim 3, wherein an interval of the second focus detection unit in the second direction is smaller than an interval of the second focus detection unit in the first direction. 6. apparatus.
前記第2のセクションの前記第2の方向における最大寸法は、前記第2のセクションの前記第1の方向における最大寸法よりも小さいことを特徴とする請求項5に記載の撮像装置。   The imaging device according to claim 5, wherein a maximum dimension of the second section in the second direction is smaller than a maximum dimension of the second section in the first direction. 前記第1のセクションは、複数の正方形領域により構成され、
前記第1の焦点検出部は、前記複数の正方形領域の各々に1つずつ配置されていることを特徴とする請求項1乃至請求項4のいずれか1項に記載の撮像装置。
The first section is composed of a plurality of square regions,
5. The imaging apparatus according to claim 1, wherein one first focus detection unit is disposed in each of the plurality of square regions.
前記第2のセクションは、複数の正方形領域により構成され、
前記第2の焦点検出部は、前記複数の正方形領域の各々に1つずつ配置されていることを特徴とする請求項5又は請求項6に記載の撮像装置。
The second section is composed of a plurality of square regions,
The imaging device according to claim 5, wherein one second focus detection unit is arranged in each of the plurality of square regions.
請求項7に記載の第1の焦点検出部が配置された正方形領域と、請求項8に記載の第2の焦点検出部が配置された正方形領域とが、前記第1の方向及び前記第2の方向において交互に配置されていることを特徴とする撮像装置。   A square region in which the first focus detection unit according to claim 7 is arranged, and a square region in which the second focus detection unit according to claim 8 is arranged include the first direction and the second region. An imaging device, wherein the imaging devices are alternately arranged in the direction of. 前記第1の焦点検出部の配置密度と前記第2の焦点検出部の配置密度とが等しいことを特徴とする請求項9に記載の撮像装置。   The imaging apparatus according to claim 9, wherein an arrangement density of the first focus detection units is equal to an arrangement density of the second focus detection units. 瞳分割された第1の焦点検出用画素と第2の焦点検出用画素とで構成される焦点検出部を複数有する撮像素子を備えた撮像装置の制御方法であって、
前記撮像素子に前記焦点検出部を複数含むセクションを複数割り当てる工程と、
前記複数のセクションの各々において、前記第1の焦点検出用画素からの出力信号を合成して第1の合成信号を得る工程と、
前記複数のセクションの各々において、前記第2の焦点検出用画素からの出力信号を合成して第2の合成信号を得る工程と、
前記複数のセクションに渡って、前記第1の合成信号を連結して第1の連結信号を得る工程と、
前記複数のセクションに渡って、前記第2の合成信号を連結して第2の連結信号を得る工程と、
前記第1の連結信号及び前記第2の連結信号に基づいて、結像光学系の焦点ずれ量を演算する工程と、
を含むことを特徴とする。
A method for controlling an imaging apparatus including an imaging element having a plurality of focus detection units each including a first focus detection pixel and a second focus detection pixel that are divided into pupils,
Assigning a plurality of sections including a plurality of the focus detection units to the image sensor;
Synthesizing output signals from the first focus detection pixels in each of the plurality of sections to obtain a first synthesized signal;
Synthesizing output signals from the second focus detection pixels in each of the plurality of sections to obtain a second synthesized signal;
Concatenating the first combined signal across the plurality of sections to obtain a first concatenated signal;
Concatenating the second composite signal over the plurality of sections to obtain a second concatenated signal;
Calculating a defocus amount of the imaging optical system based on the first connection signal and the second connection signal;
It is characterized by including.
JP2007163019A 2007-06-20 2007-06-20 Imaging apparatus and control method thereof Active JP5028154B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007163019A JP5028154B2 (en) 2007-06-20 2007-06-20 Imaging apparatus and control method thereof
US12/141,575 US7920781B2 (en) 2007-06-20 2008-06-18 Image capturing apparatus and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007163019A JP5028154B2 (en) 2007-06-20 2007-06-20 Imaging apparatus and control method thereof

Publications (2)

Publication Number Publication Date
JP2009003122A true JP2009003122A (en) 2009-01-08
JP5028154B2 JP5028154B2 (en) 2012-09-19

Family

ID=40136602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007163019A Active JP5028154B2 (en) 2007-06-20 2007-06-20 Imaging apparatus and control method thereof

Country Status (2)

Country Link
US (1) US7920781B2 (en)
JP (1) JP5028154B2 (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009113644A1 (en) * 2008-03-11 2009-09-17 Canon Kabushiki Kaisha Focus detection device and imaging apparatus having the same
JP2010191366A (en) * 2009-02-20 2010-09-02 Nikon Corp Imaging apparatus
JP2010258912A (en) * 2009-04-27 2010-11-11 Canon Inc Imaging apparatus
WO2011004686A1 (en) * 2009-07-07 2011-01-13 Canon Kabushiki Kaisha Focus detection apparatus
EP2287661A1 (en) 2009-07-23 2011-02-23 Canon Kabushiki Kaisha Image processing apparatus and method
WO2011077639A1 (en) 2009-12-22 2011-06-30 Canon Kabushiki Kaisha Camera
WO2011086792A1 (en) * 2010-01-15 2011-07-21 Canon Kabushiki Kaisha Image capturing apparatus
JP2011197080A (en) * 2010-03-17 2011-10-06 Olympus Corp Image pickup apparatus and camera
US8264592B2 (en) 2009-06-05 2012-09-11 Canon Kabushiki Kaisha Image pickup apparatus having improved contrast autofocus accuracy
JP2013078085A (en) * 2011-09-30 2013-04-25 Canon Inc Imaging apparatus and image processing method
US8692928B2 (en) 2010-09-02 2014-04-08 Canon Kabushiki Kaisha Autofocus apparatus and image-pickup apparatus
US8830379B2 (en) 2010-06-22 2014-09-09 Olympus Corporation Image pickup apparatus with inter-frame addition components
KR20140130030A (en) * 2013-04-30 2014-11-07 캐논 가부시끼가이샤 Image capturing apparatus and method of controlling the same
JP2014239507A (en) * 2010-04-28 2014-12-18 富士フイルム株式会社 Imaging apparatus
US9049365B2 (en) 2010-12-10 2015-06-02 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
US9565352B2 (en) 2012-02-02 2017-02-07 Canon Kabushiki Kaisha Optical apparatus
JP2017173615A (en) * 2016-03-24 2017-09-28 株式会社ニコン Focus adjustment device and image capturing device
US10277800B2 (en) 2016-07-29 2019-04-30 Canon Kabushiki Kaisha Image pickup apparatus with focus detection technique, control method therefor, and storage medium
US10326925B2 (en) 2016-08-10 2019-06-18 Canon Kabushiki Kaisha Control apparatus for performing focus detection, image capturing apparatus, control method, and non-transitory computer-readable storage medium

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5552214B2 (en) * 2008-03-11 2014-07-16 キヤノン株式会社 Focus detection device
JP5241355B2 (en) * 2008-07-10 2013-07-17 キヤノン株式会社 Imaging apparatus and control method thereof
JP5322561B2 (en) * 2008-09-25 2013-10-23 キヤノン株式会社 Imaging apparatus and control method thereof
JP2010091943A (en) * 2008-10-10 2010-04-22 Canon Inc Imaging apparatus
WO2010061756A1 (en) * 2008-11-27 2010-06-03 Canon Kabushiki Kaisha Solid-state image sensing element and image sensing apparatus
US8558940B2 (en) * 2008-11-27 2013-10-15 Nikon Corporation Image sensor and image-capturing device
KR101700658B1 (en) * 2008-12-30 2017-02-01 삼성전자주식회사 Single lens reflex camera comprising a focus detecting apparatus and method for photographing
KR101588299B1 (en) * 2009-01-20 2016-01-25 삼성전자주식회사 4- AF module with 4-Tr type AF pixels to real-time monitoring amount of received light and photographing apparatus using the same
US8913166B2 (en) * 2009-01-21 2014-12-16 Canon Kabushiki Kaisha Solid-state imaging apparatus
JP5159700B2 (en) * 2009-05-19 2013-03-06 キヤノン株式会社 Optical apparatus and focus detection method
JP2011257444A (en) * 2010-06-04 2011-12-22 Olympus Corp Imaging apparatus
JP5693082B2 (en) * 2010-08-09 2015-04-01 キヤノン株式会社 Imaging device
JP5254291B2 (en) * 2010-09-07 2013-08-07 株式会社東芝 Solid-state imaging device
JP5493010B2 (en) * 2010-11-30 2014-05-14 富士フイルム株式会社 Imaging apparatus and focus position detection method thereof
JP5762002B2 (en) * 2011-01-06 2015-08-12 キヤノン株式会社 Imaging device
JP5178898B1 (en) * 2011-10-21 2013-04-10 株式会社東芝 Image signal correction device, imaging device, endoscope device
JP2013239904A (en) * 2012-05-15 2013-11-28 Sony Corp Image processing apparatus and image processing method and program
JP5988291B2 (en) * 2012-06-13 2016-09-07 ソニーセミコンダクタソリューションズ株式会社 Imaging apparatus and imaging display system
WO2014002732A1 (en) * 2012-06-27 2014-01-03 オリンパスメディカルシステムズ株式会社 Imaging device and imaging system
JP6202927B2 (en) * 2012-08-31 2017-09-27 キヤノン株式会社 Distance detection device, imaging device, program, recording medium, and distance detection method
CN103888655B (en) * 2012-12-21 2017-07-25 联想(北京)有限公司 A kind of photographic method and electronic equipment
JP6346439B2 (en) * 2013-01-07 2018-06-20 キヤノン株式会社 Imaging apparatus and control method thereof
JP6271952B2 (en) * 2013-01-23 2018-01-31 キヤノン株式会社 Imaging device
JP6116301B2 (en) * 2013-03-21 2017-04-19 キヤノン株式会社 Imaging apparatus and control method thereof
JP5810136B2 (en) 2013-07-04 2015-11-11 オリンパス株式会社 TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
US20150185308A1 (en) * 2014-01-02 2015-07-02 Katsuhiro Wada Image processing apparatus and image processing method, image pickup apparatus and control method thereof, and program
JP6466656B2 (en) * 2014-06-19 2019-02-06 オリンパス株式会社 Imaging device and imaging apparatus
JP6463010B2 (en) * 2014-06-24 2019-01-30 オリンパス株式会社 Imaging device and imaging apparatus
JP6530593B2 (en) * 2014-08-11 2019-06-12 キヤノン株式会社 Imaging device, control method therefor, storage medium
EP3213251A1 (en) * 2014-10-27 2017-09-06 FTS Computertechnik GmbH Computer vision monitoring for a computer vision system
RU2681703C1 (en) * 2015-10-09 2019-03-12 АйЭйчАй КОРПОРЕЙШН Line segment detection method
JP6395790B2 (en) * 2016-11-18 2018-09-26 キヤノン株式会社 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND FOCUS CONTROL PROGRAM
US10848631B2 (en) * 2018-09-26 2020-11-24 Ricoh Company, Ltd. Reading device and image forming apparatus
CN115361506B (en) * 2022-08-17 2024-05-24 中科微机电技术(北京)有限公司 Control method of active pixel sensor, active pixel sensor and electronic equipment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000156823A (en) * 1998-08-20 2000-06-06 Canon Inc Solid-state image pickup device, its control method, image pickup device, basic array of photoelectric conversion cell and storage medium
JP2003153291A (en) * 2001-11-08 2003-05-23 Canon Inc Imaging apparatus and system
JP2006071656A (en) * 2004-08-31 2006-03-16 Canon Inc Focus detector
JP2007103590A (en) * 2005-10-03 2007-04-19 Nikon Corp Image pick-up device, focus detector and image pick-up system
JP2008103885A (en) * 2006-10-18 2008-05-01 Nikon Corp Imaging device, focus detecting device, and imaging apparatus

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3031606B2 (en) 1995-08-02 2000-04-10 キヤノン株式会社 Solid-state imaging device and image imaging device
JP4098884B2 (en) * 1998-07-08 2008-06-11 浜松ホトニクス株式会社 Solid-state imaging device
US7683926B2 (en) * 1999-02-25 2010-03-23 Visionsense Ltd. Optical device
US6819360B1 (en) * 1999-04-01 2004-11-16 Olympus Corporation Image pickup element and apparatus for focusing
JP4007713B2 (en) 1999-04-06 2007-11-14 オリンパス株式会社 Imaging device
JP2001238134A (en) * 2000-02-23 2001-08-31 Sony Corp Solid-state imaging device, driving method therefor and camera system
JP4908668B2 (en) 2000-04-19 2012-04-04 キヤノン株式会社 Focus detection device
JP3977062B2 (en) 2001-11-21 2007-09-19 キヤノン株式会社 Imaging apparatus and focus adjustment method
US7193197B2 (en) * 2001-12-05 2007-03-20 Hamamatsu Photonics K.K. Light detection device, imaging device and distant image acquisition device
US7751700B2 (en) * 2006-03-01 2010-07-06 Nikon Corporation Focus adjustment device, imaging device and focus adjustment method
US8471918B2 (en) * 2006-03-22 2013-06-25 Panasonic Corporation Imaging device with plural imaging regions and parallax computing portion
JP4449936B2 (en) * 2006-03-31 2010-04-14 ソニー株式会社 Imaging apparatus, camera system, and driving method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000156823A (en) * 1998-08-20 2000-06-06 Canon Inc Solid-state image pickup device, its control method, image pickup device, basic array of photoelectric conversion cell and storage medium
JP2003153291A (en) * 2001-11-08 2003-05-23 Canon Inc Imaging apparatus and system
JP2006071656A (en) * 2004-08-31 2006-03-16 Canon Inc Focus detector
JP2007103590A (en) * 2005-10-03 2007-04-19 Nikon Corp Image pick-up device, focus detector and image pick-up system
JP2008103885A (en) * 2006-10-18 2008-05-01 Nikon Corp Imaging device, focus detecting device, and imaging apparatus

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8711270B2 (en) 2008-03-11 2014-04-29 Canon Kabushiki Kaisha Focus detection device and imaging apparatus having the same
WO2009113644A1 (en) * 2008-03-11 2009-09-17 Canon Kabushiki Kaisha Focus detection device and imaging apparatus having the same
JP2010191366A (en) * 2009-02-20 2010-09-02 Nikon Corp Imaging apparatus
JP2010258912A (en) * 2009-04-27 2010-11-11 Canon Inc Imaging apparatus
US8264592B2 (en) 2009-06-05 2012-09-11 Canon Kabushiki Kaisha Image pickup apparatus having improved contrast autofocus accuracy
JP2011017800A (en) * 2009-07-07 2011-01-27 Canon Inc Focus detection apparatus
WO2011004686A1 (en) * 2009-07-07 2011-01-13 Canon Kabushiki Kaisha Focus detection apparatus
US8730374B2 (en) 2009-07-07 2014-05-20 Canon Kabushiki Kaisha Focus detection apparatus
EP2287661A1 (en) 2009-07-23 2011-02-23 Canon Kabushiki Kaisha Image processing apparatus and method
US8711274B2 (en) 2009-07-23 2014-04-29 Canon Kabushiki Kaisha Image processing apparatus and method configured to calculate defocus amount of designated area
WO2011077639A1 (en) 2009-12-22 2011-06-30 Canon Kabushiki Kaisha Camera
US8736745B2 (en) 2009-12-22 2014-05-27 Canon Kabushiki Kaisha Camera
WO2011086792A1 (en) * 2010-01-15 2011-07-21 Canon Kabushiki Kaisha Image capturing apparatus
US8599304B2 (en) 2010-01-15 2013-12-03 Canon Kabushiki Kaisha Image capturing apparatus having focus detection pixels producing a focus signal with reduced noise
JP2011197080A (en) * 2010-03-17 2011-10-06 Olympus Corp Image pickup apparatus and camera
JP2014239507A (en) * 2010-04-28 2014-12-18 富士フイルム株式会社 Imaging apparatus
US8830379B2 (en) 2010-06-22 2014-09-09 Olympus Corporation Image pickup apparatus with inter-frame addition components
US8692928B2 (en) 2010-09-02 2014-04-08 Canon Kabushiki Kaisha Autofocus apparatus and image-pickup apparatus
US9049365B2 (en) 2010-12-10 2015-06-02 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
JP2013078085A (en) * 2011-09-30 2013-04-25 Canon Inc Imaging apparatus and image processing method
US9357121B2 (en) 2011-09-30 2016-05-31 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
US9565352B2 (en) 2012-02-02 2017-02-07 Canon Kabushiki Kaisha Optical apparatus
KR20140130030A (en) * 2013-04-30 2014-11-07 캐논 가부시끼가이샤 Image capturing apparatus and method of controlling the same
KR101886059B1 (en) * 2013-04-30 2018-08-07 캐논 가부시끼가이샤 Image capturing apparatus and method of controlling the same
JP2017173615A (en) * 2016-03-24 2017-09-28 株式会社ニコン Focus adjustment device and image capturing device
US10277800B2 (en) 2016-07-29 2019-04-30 Canon Kabushiki Kaisha Image pickup apparatus with focus detection technique, control method therefor, and storage medium
US10326925B2 (en) 2016-08-10 2019-06-18 Canon Kabushiki Kaisha Control apparatus for performing focus detection, image capturing apparatus, control method, and non-transitory computer-readable storage medium

Also Published As

Publication number Publication date
US7920781B2 (en) 2011-04-05
US20080317454A1 (en) 2008-12-25
JP5028154B2 (en) 2012-09-19

Similar Documents

Publication Publication Date Title
JP5028154B2 (en) Imaging apparatus and control method thereof
JP5552214B2 (en) Focus detection device
JP5322561B2 (en) Imaging apparatus and control method thereof
EP2318873B1 (en) Image-capturing apparatus
JP5276374B2 (en) Focus detection device
EP2304486B1 (en) Image-capturing apparatus
JP5180717B2 (en) Imaging device
JP5202289B2 (en) Imaging device
US8964061B2 (en) Image capturing apparatus with selection of thinning and readout mode in accordance with moving image recording mode
US8817165B2 (en) Image capturing apparatus
JP5746496B2 (en) Imaging device
JP2009128892A (en) Imaging sensor and image-capturing device
JP5911252B2 (en) Imaging apparatus and image processing method
JP2012220790A (en) Imaging apparatus
JP5864989B2 (en) Imaging device and imaging apparatus
JP6254780B2 (en) Focus detection apparatus and method, and imaging apparatus
JP2014013392A (en) Imaging apparatus and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120525

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120625

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150629

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5028154

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151