JP5735784B2 - Imaging device and control method thereof, lens device and control method thereof - Google Patents

Imaging device and control method thereof, lens device and control method thereof Download PDF

Info

Publication number
JP5735784B2
JP5735784B2 JP2010267496A JP2010267496A JP5735784B2 JP 5735784 B2 JP5735784 B2 JP 5735784B2 JP 2010267496 A JP2010267496 A JP 2010267496A JP 2010267496 A JP2010267496 A JP 2010267496A JP 5735784 B2 JP5735784 B2 JP 5735784B2
Authority
JP
Japan
Prior art keywords
frame
information
pixel group
pixel
optical system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010267496A
Other languages
Japanese (ja)
Other versions
JP2012118269A (en
Inventor
山本 英明
英明 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010267496A priority Critical patent/JP5735784B2/en
Publication of JP2012118269A publication Critical patent/JP2012118269A/en
Application granted granted Critical
Publication of JP5735784B2 publication Critical patent/JP5735784B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Description

本発明は、撮像装置における撮影光学系の焦点調節技術に関するものである。   The present invention relates to a focus adjustment technique for a photographing optical system in an image pickup apparatus.

撮影レンズの焦点状態を検出する方式の一つとして、センサの各画素にマイクロレンズが形成された2次元のセンサを用いて瞳分割方式の焦点検出を行う装置が特許文献1に開示されている。特許文献1の装置では、センサを構成する各画素の光電変換部が複数に分割されており、分割された光電変換部がマイクロレンズを介して撮影レンズの瞳の異なる領域を受光するように構成している。   As one of methods for detecting the focus state of a photographing lens, Patent Document 1 discloses an apparatus that performs focus detection by a pupil division method using a two-dimensional sensor in which a microlens is formed in each pixel of the sensor. . In the device of Patent Document 1, the photoelectric conversion unit of each pixel constituting the sensor is divided into a plurality of parts, and the divided photoelectric conversion unit is configured to receive different areas of the pupil of the photographing lens through the microlens. doing.

また特許文献2では、マイクロレンズと光電変換部の相対位置を偏位させた画素を2次元的に配置した、イメージセンサを兼ねた固体撮像装置を開示している。特許文献2の固体撮像装置では、撮影レンズの焦点状態を検出する時は、マイクロレンズと光電変換部の相対偏位方向が異なる画素列で生成される像に基づいて撮影レンズの焦点状態を検出している。一方通常の画像を撮像するときは、マイクロレンズと光電変換部の相対偏位方向が異なる画素を加算することにより、画像を生成している。   Patent Document 2 discloses a solid-state imaging device that also serves as an image sensor in which pixels in which the relative positions of a microlens and a photoelectric conversion unit are displaced are two-dimensionally arranged. In the solid-state imaging device of Patent Document 2, when detecting the focus state of the photographic lens, the focus state of the photographic lens is detected based on an image generated by a pixel array having different relative displacement directions of the microlens and the photoelectric conversion unit. doing. On the other hand, when a normal image is captured, an image is generated by adding pixels having different relative displacement directions between the microlens and the photoelectric conversion unit.

また、デジタルスチルカメラに用いられるCMOS型イメージセンサ(固体撮像装置)を用いて瞳分割方式の焦点検出を行う固体撮像装置が特許文献3に開示されている。特許文献3の固体撮像装置は、固体撮像装置を構成する多数の画素のうち一部の画素は撮影レンズの焦点状態を検出するために光電変換部が2つに分割された構成になっている。光電変換部は、マイクロレンズを介して撮影レンズの瞳の所定領域を受光するように構成されている。   Further, Patent Document 3 discloses a solid-state imaging device that performs pupil-division focus detection using a CMOS image sensor (solid-state imaging device) used in a digital still camera. The solid-state imaging device of Patent Document 3 has a configuration in which some of the many pixels constituting the solid-state imaging device have a photoelectric conversion unit divided into two in order to detect the focus state of the photographic lens. . The photoelectric conversion unit is configured to receive a predetermined region of the pupil of the photographing lens via the microlens.

図23は、特許文献3に開示されている固体撮像装置の中央に位置する焦点検出を行う画素の受光分布の説明図で、2つに分割された光電変換部がそれぞれ受光可能な撮影レンズの瞳上の領域を示している。図中円内の斜線部は撮影レンズの射出瞳を示し、白抜きされた領域Sα、領域Sβは2つに分割された光電変換部の受光可能な領域で、通常撮影レンズの光軸(図中x軸とy軸の交点)に対して対称になるように設定されている。   FIG. 23 is an explanatory diagram of a light reception distribution of a pixel that performs focus detection located in the center of the solid-state imaging device disclosed in Patent Document 3, and shows a photographing lens that can be received by each of the two photoelectric conversion units. The area on the pupil is shown. In the figure, the hatched portion in the circle indicates the exit pupil of the photographic lens, and the white area Sα and the area Sβ are areas that can be received by the photoelectric conversion unit divided into two, and the optical axis of the normal photographic lens (see FIG. It is set to be symmetric with respect to the intersection of the middle x axis and the y axis.

カメラにおいては、撮影レンズの瞳上の領域Sαを透過した光束により生成された像と領域Sβを透過した光束により生成される像の相関演算を行って、撮影レンズの焦点状態が検出される。撮影レンズの異なる瞳領域を透過した光束より生成される像の相関演算を行って焦点検出を行う方法は、特許文献4に開示されている。   In the camera, the focal state of the photographic lens is detected by performing a correlation operation between the image generated by the light beam transmitted through the region Sα on the pupil of the photographic lens and the image generated by the light beam transmitted through the region Sβ. A method of performing focus detection by performing correlation calculation of images generated from light beams transmitted through different pupil regions of the photographing lens is disclosed in Patent Document 4.

また、特許文献4では、カメラに格納された特定の、像を修正するためのフィルタを口径比、射出瞳位置、像ズレ量によって変形し、該変形フィルタを被写体像に適応したのち、結像状態を検出する技術が開示されている。   In Patent Document 4, a specific filter for correcting an image stored in a camera is deformed according to an aperture ratio, an exit pupil position, and an image shift amount. A technique for detecting a state is disclosed.

特開昭58−24105号公報(第2頁、図1)JP 58-24105 (2nd page, FIG. 1) 特許第2959142号公報(第2頁、図2)Japanese Patent No. 2959142 (2nd page, FIG. 2) 特開2005−106994号公報(第7頁、図3)Japanese Patent Laying-Open No. 2005-106994 (page 7, FIG. 3) 特開平5−127074号公報(第15頁、図34)JP-A-5-127074 (page 15, FIG. 34)

光電変換部はマイクロレンズを介して撮影レンズの瞳の所定領域を受光している。図15は、マイクロレンズを介して撮影レンズの瞳の所定領域を受光する受光感度の分布と、レンズ枠を重ね合わせたものである。   The photoelectric conversion unit receives a predetermined region of the pupil of the photographing lens through the microlens. FIG. 15 is a graph in which the distribution of the light receiving sensitivity for receiving a predetermined region of the pupil of the photographing lens through the microlens and the lens frame are superimposed.

図15は撮像素子中央の焦点検出用画素の入射角特性に、レンズ枠や絞りなどの、光束を制限する部材の枠を重ねて表示した模式図である。枠は実際は、複数の枠の重ね合わせとなるが、ここでは簡単のため、一つの枠を記載している。   FIG. 15 is a schematic diagram in which a frame of a member that restricts a light beam such as a lens frame or a diaphragm is superimposed on the incident angle characteristic of the focus detection pixel at the center of the image sensor. The frame is actually a superposition of a plurality of frames, but one frame is shown here for simplicity.

図15(a)は画素SHA、図15(b)は画素SHBの特性を示している。図15中x軸、y軸はそれぞれ画素のx方向、y方向の入射角度を表している。図15では、色が濃くなるほど受光強度が高いことを示している。また、画素SHA及び画素SHBにはArea1で示したレンズ枠形状の内側を透過した光束が図示した瞳強度分布で入射する。   FIG. 15A shows the characteristics of the pixel SHA, and FIG. 15B shows the characteristics of the pixel SHB. In FIG. 15, the x-axis and y-axis represent the incident angles of the pixel in the x-direction and y-direction, respectively. FIG. 15 shows that the received light intensity is higher as the color is darker. Further, a light beam that has passed through the inside of the lens frame shape indicated by Area 1 is incident on the pixel SHA and the pixel SHB with the illustrated pupil intensity distribution.

図15で明らかなように、撮影レンズのレンズ枠や絞りなどの光束を制限する部材によって光束のけられが生じてしまう。その結果、撮影レンズの瞳上の領域Sαを透過した光束により生成された像と領域Sβを透過した光束により生成される像とに基づいて相関演算を行っても、精度の高い焦点検出ができないという欠点があった。   As apparent from FIG. 15, the light flux is displaced by a member that restricts the light flux, such as a lens frame or a diaphragm of the photographing lens. As a result, even if correlation calculation is performed based on the image generated by the light beam transmitted through the region Sα on the pupil of the photographing lens and the image generated by the light beam transmitted through the region Sβ, highly accurate focus detection cannot be performed. There was a drawback.

また、特許文献4の発明では、カメラに格納された特定のフィルタを条件によって変形しただけではケラレ状態に応じた修復ができないという欠点があった。   In addition, the invention of Patent Document 4 has a drawback that it cannot be repaired according to the vignetting state only by deforming a specific filter stored in the camera according to conditions.

本発明は上述した課題に鑑みてなされたものであり、その目的は、より精度良く焦点検出を行うことを可能にした撮像装置を提供することである。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide an imaging apparatus capable of performing focus detection with higher accuracy.

本発明に係わる撮像装置は、被写体像を結像させる結像光学系の第1の瞳領域を通過する光束を受光する第1の画素群と、前記結像光学系の第2の瞳領域を通過する光束を受光する第2の画素群とを有する撮像素子と、前記結像光学系における該結像光学系を通過する光束の外縁を規定する枠の情報である枠情報と、前記枠の種類を識別する識別情報とを前記結像光学系から取得する取得手段と、前記枠情報と前記識別情報とに基づいて前記第1の画素群からの信号と前記第2の画素群からの信号とを補正する補正手段と、前記補正手段により補正された前記第1の画素群からの信号と前記第2の画素群からの信号とに基づいて、前記結像光学系の焦点状態を検出する焦点検出手段と、を備え、前記識別情報は、同一の枠をグループ化して識別するための情報であることを特徴とする。 An imaging apparatus according to the present invention includes a first pixel group that receives a light beam passing through a first pupil region of an imaging optical system that forms a subject image, and a second pupil region of the imaging optical system. An image sensor having a second pixel group that receives a light beam passing therethrough, frame information that is information on a frame defining an outer edge of the light beam passing through the imaging optical system in the imaging optical system, An acquisition means for acquiring identification information for identifying the type from the imaging optical system; a signal from the first pixel group and a signal from the second pixel group based on the frame information and the identification information And a focus state of the imaging optical system is detected based on a correction unit that corrects the signal and a signal from the first pixel group and a signal from the second pixel group corrected by the correction unit. comprising a focus detection unit, wherein the identification information is to group the same frame identification And wherein the information der Rukoto for.

本発明によれば、光束のケラレのある像をより精度良く修復することが可能となり、より精度良く焦点検出を行うことが可能な撮像装置を提供することができる。   According to the present invention, it is possible to restore an image with vignetting of a light beam with higher accuracy, and it is possible to provide an imaging device capable of performing focus detection with higher accuracy.

本発明の撮像装置の一実施形態であるカメラの構成を示す図。1 is a diagram illustrating a configuration of a camera that is an embodiment of an imaging apparatus of the present invention. 撮像素子の概略的回路構成図。The schematic circuit block diagram of an image pick-up element. 撮像素子の画素部の断面図。Sectional drawing of the pixel part of an image pick-up element. 撮像素子の駆動タイミングチャート。The drive timing chart of an image pick-up element. 撮像素子の撮像用画素の平面図と断面図。The top view and sectional drawing of the pixel for an imaging of an image pick-up element. 撮影レンズの水平方向(横方向)に瞳分割を行うための焦点検出用画素の平面図と断面図。The top view and sectional drawing of the pixel for a focus detection for performing pupil division in the horizontal direction (lateral direction) of an imaging lens. 撮影レンズの垂直方向に瞳分割を行うための焦点検出用画素の平面図と断面図。The top view and sectional drawing of the pixel for focus detection for performing pupil division | segmentation to the orthogonal | vertical direction of an imaging lens. 撮像素子の瞳分割状況を概念的に説明する図。The figure which illustrates notionally the pupil division | segmentation condition of an image sensor. 焦点検出時に取得した画像と焦点検出領域を説明する図。The figure explaining the image and focus detection area which were acquired at the time of focus detection. 撮像素子中央の焦点検出用画素の入射角特性を表した模式図。The schematic diagram showing the incident angle characteristic of the pixel for focus detection in the center of an image sensor. 焦点検出用画素の入射角特性を2次元で表した図。The figure which represented the incident angle characteristic of the pixel for focus detection in two dimensions. 光束のケラレを説明する図。The figure explaining the vignetting of a light beam. 瞳面Me上での瞳領域を示した図。The figure which showed the pupil area | region on the pupil surface Me. 焦点検出用画素の瞳強度分布を示す図。The figure which shows the pupil intensity distribution of the pixel for focus detection. 撮像素子中央の焦点検出用画素の瞳面Me上でのケラレを示した図。The figure which showed the vignetting on the pupil surface Me of the focus detection pixel in the center of the image sensor. 撮像素子中央の焦点検出用画素の瞳面Me上での入射光束の瞳強度分布を2次元で表した図。The figure which expressed the pupil intensity distribution of the incident light beam on the pupil plane Me of the focus detection pixel in the center of the image sensor in two dimensions. 撮像素子の中央から像高を持った位置の画素の瞳面Me上でのケラレを示した図。The figure which showed the vignetting on the pupil surface Me of the pixel of the position which has image height from the center of an image pick-up element. 撮像素子の中央から像高を持った位置の画素の瞳面Me上での入射光束の瞳強度分布を2次元で表した図。The figure which represented the pupil intensity distribution of the incident light beam on the pupil plane Me of the pixel of the position which has an image height from the center of an image pick-up element in two dimensions. 焦点検出動作を示すフローチャート。The flowchart which shows a focus detection operation | movement. レンズ枠の位置や半径と、撮像素子のある像高でのレンズ光束を模式的に示した断面図。FIG. 5 is a cross-sectional view schematically showing a lens beam at a position and radius of a lens frame and an image height at which an image sensor is present. 枠情報のデータテーブル。Frame information data table. 枠の素性を示すデータテーブル。A data table showing the features of the frame. 撮像素子の受光分布の説明図。Explanatory drawing of the light reception distribution of an image pick-up element.

以下、図1〜図22を参照して、本発明の一実施形態の撮像装置について説明する。   Hereinafter, an imaging device according to an embodiment of the present invention will be described with reference to FIGS.

図1は本発明の撮像装置の一実施形態であるカメラの構成を示す図である。図1において、101は撮影光学系(結像光学系)の先端に配置された第1レンズ群で、光軸方向に進退可能に保持される。102は絞り兼用シャッタで、その開口径を調節することで撮影時の光量調節を行うほか、静止画撮影時には露光秒時調節用シャッタとしての機能も備える。103は第2レンズ群である。そして絞り兼用シャッタ102及び第2レンズ群103は一体となって光軸方向に進退し、第1レンズ群101の進退動作との連動により、変倍作用(ズーム機能)をなす。   FIG. 1 is a diagram showing a configuration of a camera which is an embodiment of an imaging apparatus of the present invention. In FIG. 1, reference numeral 101 denotes a first lens group disposed at the tip of a photographing optical system (imaging optical system), which is held so as to be able to advance and retract in the optical axis direction. Reference numeral 102 denotes an aperture / shutter, which adjusts the light amount at the time of shooting by adjusting the aperture diameter, and also has a function as an exposure time adjustment shutter at the time of still image shooting. Reference numeral 103 denotes a second lens group. The diaphragm shutter 102 and the second lens group 103 integrally move forward and backward in the optical axis direction, and perform a zooming function (zoom function) in conjunction with the forward and backward movement of the first lens group 101.

105は第3レンズ群で、光軸方向の進退により、焦点調節を行う。106は光学的ローパスフィルタで、撮影画像の偽色やモアレを軽減するための光学素子である。107は、光電変換手段であるC−MOSセンサとその周辺回路で構成された撮像素子である。撮像素子107には、横方向m画素、縦方向n画素の受光ピクセル上に、ベイヤー配列の原色カラーモザイクフィルタがオンチップで形成された、2次元単板カラーセンサが用いられる。   Reference numeral 105 denotes a third lens group that performs focus adjustment by advancing and retreating in the optical axis direction. Reference numeral 106 denotes an optical low-pass filter, which is an optical element for reducing false colors and moire in a captured image. Reference numeral 107 denotes an image sensor composed of a C-MOS sensor which is a photoelectric conversion means and its peripheral circuits. The imaging element 107 is a two-dimensional single-plate color sensor in which a Bayer array primary color mosaic filter is formed on-chip on light receiving pixels of m pixels in the horizontal direction and n pixels in the vertical direction.

111はズームアクチュエータで、不図示のカム筒を回動することで、第1レンズ群111乃至第3レンズ群105を光軸方向に進退駆動し、変倍操作を行う。112は絞りシャッタアクチュエータで、絞り兼用シャッタ102の開口径を制御して撮影光量を調節すると共に、静止画撮影時の露光時間制御を行う。114はフォーカスアクチュエータで、第3レンズ群105を光軸方向に進退駆動して焦点調節を行う。   Reference numeral 111 denotes a zoom actuator, which rotates a cam cylinder (not shown) to drive the first lens group 111 to the third lens group 105 forward and backward in the optical axis direction, thereby performing a zooming operation. Reference numeral 112 denotes an aperture shutter actuator that controls the aperture diameter of the aperture / shutter 102 to adjust the amount of photographing light, and controls the exposure time during still image photographing. Reference numeral 114 denotes a focus actuator that performs focus adjustment by driving the third lens group 105 back and forth in the optical axis direction.

115は撮影時の被写体照明用の電子フラッシュで、キセノン管を用いた閃光照明装置が好適であるが、連続発光するLEDを備えた照明装置を用いても良い。116はAF補助光装置で、所定の開口パターンを有したマスクの像を、投光レンズを介して被写界に投影し、暗い被写体あるいは低コントラスト被写体に対する焦点検出能力を向上させる。   Reference numeral 115 denotes an electronic flash for illuminating a subject at the time of photographing, and a flash illumination device using a xenon tube is suitable, but an illumination device including an LED that emits light continuously may be used. Reference numeral 116 denotes an AF auxiliary light device that projects an image of a mask having a predetermined aperture pattern onto a subject field via a light projection lens, thereby improving the focus detection capability for a dark subject or a low-contrast subject.

121は、カメラ本体の種々の制御を司るカメラ内CPUで、演算部、ROM、RAM、A/Dコンバータ、D/Aコンバータ、通信インターフェイス回路等を有し、ROMに記憶された所定のプログラムに基づいて、カメラが有する各種回路を駆動する。そして、AF、撮影、画像処理、記録等の一連の動作を実行する。カメラ内CPU121は本発明の焦点検出手段、光量補正手段、光束規定情報補正手段である。   Reference numeral 121 denotes an in-camera CPU that controls various controls of the camera body, and includes a calculation unit, ROM, RAM, A / D converter, D / A converter, communication interface circuit, and the like, and a predetermined program stored in the ROM Based on this, various circuits of the camera are driven. Then, a series of operations such as AF, shooting, image processing, and recording are executed. The in-camera CPU 121 is a focus detection unit, a light amount correction unit, and a light flux regulation information correction unit of the present invention.

122は電子フラッシュ制御回路で、撮影動作に同期して電子フラッシュ115を点灯制御する。123は補助光駆動回路で、焦点検出動作に同期してAF補助光装置116を点灯制御する。124は撮像素子駆動回路で、撮像素子107の撮像動作を制御するとともに、取得した画像信号をA/D変換してカメラ内CPU121に送信する。125は画像処理回路で、撮像素子107が取得した画像のγ変換、カラー補間、JPEG圧縮等の処理を行う。   An electronic flash control circuit 122 controls lighting of the electronic flash 115 in synchronization with the photographing operation. Reference numeral 123 denotes an auxiliary light driving circuit that controls the lighting of the AF auxiliary light device 116 in synchronization with the focus detection operation. An image sensor driving circuit 124 controls the image capturing operation of the image sensor 107, A / D converts the acquired image signal, and transmits it to the in-camera CPU 121. An image processing circuit 125 performs processing such as γ conversion, color interpolation, and JPEG compression of an image acquired by the image sensor 107.

126はフォーカス駆動回路で、焦点検出結果に基づいてフォーカスアクチュエータ114を駆動制御し、第3レンズ群105を光軸方向に進退駆動して焦点調節を行う。128は絞りシャッタ駆動回路で、絞りシャッタアクチュエータ112を駆動制御して絞り兼用シャッタ102の開口を制御する。129はズーム駆動回路で、撮影者のズーム操作に応じてズームアクチュエータ111を駆動する。   A focus drive circuit 126 controls the focus actuator 114 based on the focus detection result, and adjusts the focus by driving the third lens group 105 back and forth in the optical axis direction. Reference numeral 128 denotes an aperture shutter drive circuit which controls the aperture shutter actuator 112 to control the aperture of the aperture / shutter 102. Reference numeral 129 denotes a zoom drive circuit that drives the zoom actuator 111 in accordance with the zoom operation of the photographer.

131はLCD等の表示器で、カメラの撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、焦点検出時の合焦状態表示画像等を表示する。132は操作スイッチ群で、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等で構成される。133は着脱可能なフラッシュメモリで、撮影済み画像を記録する。   Reference numeral 131 denotes a display device such as an LCD, which displays information related to the shooting mode of the camera, a preview image before shooting and a confirmation image after shooting, a focus state display image at the time of focus detection, and the like. An operation switch group 132 includes a power switch, a release (shooting trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like. Reference numeral 133 denotes a detachable flash memory that records a photographed image.

図2は本実施形態における撮像素子の概略的回路構成を示した図で、特開平09−046596号報等に開示された技術が好適である。図2は2次元C−MOSエリアセンサの2列×4行画素の範囲を示したものであるが、撮像素子として利用する場合は、当図に示した画素を多数配置し、高解像度画像の取得を可能としている。本実施形態においては、画素ピッチが2μm、有効画素数が横3000列×縦2000行=600万画素、撮像画面サイズが横6mm×縦4mmの撮像素子として説明を行う。   FIG. 2 is a diagram showing a schematic circuit configuration of the image sensor in the present embodiment, and the technique disclosed in Japanese Patent Application Laid-Open No. 09-046596 is suitable. FIG. 2 shows the range of 2 columns × 4 rows of pixels of a two-dimensional C-MOS area sensor, but when used as an image sensor, a large number of pixels shown in FIG. Acquisition is possible. In the present embodiment, description will be made on the assumption that the pixel pitch is 2 μm, the number of effective pixels is 3000 horizontal columns × 2000 vertical rows = 6 million pixels, and the imaging screen size is 6 mm horizontal × 4 mm vertical.

図2において、1はMOSトランジスタゲートとゲート下の空乏層からなる光電変換素子の光電変換部、2はフォトゲート、3は転送スイッチMOSトランジスタ、4はリセット用MOSトランジスタ、5はソースフォロワアンプMOSトランジスタである。6は水平選択スイッチMOSトランジスタ、7はソースフォロワの負荷MOSトランジスタ、8は暗出力転送MOSトランジスタ、9は明出力転送MOSトランジスタ、10は暗出力蓄積容量CTN、11は明出力蓄積容量CTSである。12は水平転送MOSトランジスタ、13は水平出力線リセットMOSトランジスタ、14は差動出力アンプ、15は水平走査回路、16は垂直走査回路である。   In FIG. 2, 1 is a photoelectric conversion portion of a photoelectric conversion element comprising a MOS transistor gate and a depletion layer under the gate, 2 is a photogate, 3 is a transfer switch MOS transistor, 4 is a reset MOS transistor, and 5 is a source follower amplifier MOS. It is a transistor. 6 is a horizontal selection switch MOS transistor, 7 is a load MOS transistor of the source follower, 8 is a dark output transfer MOS transistor, 9 is a light output transfer MOS transistor, 10 is a dark output storage capacitor CTN, and 11 is a light output storage capacitor CTS. . 12 is a horizontal transfer MOS transistor, 13 is a horizontal output line reset MOS transistor, 14 is a differential output amplifier, 15 is a horizontal scanning circuit, and 16 is a vertical scanning circuit.

図3は本実施形態における撮像素子の画素部の断面図である。図3において、17はP型ウェル、18はゲート酸化膜、19は一層目ポリSi、20は二層目ポリSi、21はn+ フローティングディフュージョン部(FD)である。FD部21は別の転送MOSトランジスタを介して別の光電変換部と接続される。図3において、2つの転送MOSトランジスタ3のドレインとFD部21を共通化して微細化とFD部21の容量低減による感度向上を図っているが、Al配線でFD部21を接続しても良い。   FIG. 3 is a cross-sectional view of the pixel portion of the image sensor according to the present embodiment. In FIG. 3, 17 is a P-type well, 18 is a gate oxide film, 19 is a first-layer poly-Si, 20 is a second-layer poly-Si, and 21 is an n + floating diffusion portion (FD). The FD unit 21 is connected to another photoelectric conversion unit via another transfer MOS transistor. In FIG. 3, the drain of the two transfer MOS transistors 3 and the FD portion 21 are made common to improve the sensitivity by miniaturization and the capacity reduction of the FD portion 21, but the FD portion 21 may be connected by an Al wiring. .

次に、図4のタイミングチャートを用いて動作を説明する。このタイミングチャートは全画素独立出力の場合である。   Next, the operation will be described with reference to the timing chart of FIG. This timing chart is for the case of all pixel independent output.

まず垂直走査回路16からのタイミング出力によって、制御パルスφLをハイとして垂直出力線をリセットする。また制御パルスφR0,φPG00,φPGe0をハイとし、リセット用MOSトランジスタ4をオンとし、フォトゲート2の一層目ポリSi19をハイとしておく。時刻T0において、制御パルスφS0をハイとし、選択スイッチMOSトランジスタ6をオンさせ、第1,第2ラインの画素部を選択する。次に制御パルスφR0をロウとし、FD部21のリセットを止め、FD部21をフローティング状態とし、ソースフォロワアンプMOSトランジスタ5のゲート・ソース間をスルーとする。その後、時刻T1において制御パルスφTNをハイとし、FD部21の暗電圧をソースフォロワ動作で蓄積容量CTN10に出力させる。   First, according to the timing output from the vertical scanning circuit 16, the control pulse φL is set to high to reset the vertical output line. Further, the control pulses φR0, φPG00, and φPGe0 are set high, the reset MOS transistor 4 is turned on, and the first-layer poly Si 19 of the photogate 2 is set high. At time T0, the control pulse φS0 is set high, the selection switch MOS transistor 6 is turned on, and the pixel portions of the first and second lines are selected. Next, the control pulse φR0 is set to low, the reset of the FD unit 21 is stopped, the FD unit 21 is set in a floating state, and the source and follower amplifier MOS transistor 5 is set to the through state. Thereafter, the control pulse φTN is set to high at time T1, and the dark voltage of the FD unit 21 is output to the storage capacitor CTN10 by the source follower operation.

次に、第1ラインの画素の光電変換出力を行うため、第1ラインの制御パルスφTX00をハイとして転送スイッチMOSトランジスタ3を導通した後、時刻T2 において制御パルスφPG00をローとして下げる。この時フォトゲート2の下に拡がっていたポテンシャル井戸を上げて、光発生キャリアをFD部21に完全転送させるような電圧関係が好ましい。従って完全転送が可能であれば制御パルスφTXはパルスではなくある固定電位でもかまわない。   Next, in order to perform photoelectric conversion output of the pixels on the first line, the control pulse φTX00 on the first line is set to high to turn on the transfer switch MOS transistor 3, and then the control pulse φPG00 is lowered to low at time T2. At this time, a voltage relationship is preferable in which the potential well that has spread under the photogate 2 is raised so that photogenerated carriers are completely transferred to the FD portion 21. Therefore, if complete transfer is possible, the control pulse φTX may be a fixed potential instead of a pulse.

時刻T2 でフォトダイオードの光電変換部1からの電荷がFD部21に転送されることにより、FD部21の電位が光に応じて変化することになる。この時ソースフォロワアンプMOSトランジスタ5がフローティング状態であるので、FD部21の電位を時刻T3 において制御パルスφTs をハイとして蓄積容量CTS11に出力する。この時点で第1ラインの画素の暗出力と光出力はそれぞれ蓄積容量CTN10とCTS11に蓄積されており、時刻T4 の制御パルスφHCを一時ハイとして水平出力線リセットMOSトランジスタ13を導通して水平出力線をリセットする。そして、水平転送期間において水平走査回路15の走査タイミング信号により水平出力線に画素の暗出力と光出力が出力される。この時、蓄積容量CTN10とCTS11の差動増幅器14によって、差動出力VOUTを取れば、画素のランダムノイズ、固定パターンノイズを除去したS/Nの良い信号が得られる。また画素30−12、30−22の光電荷は画素30−11、30−21と同時に夫々の蓄積容量CTN10とCTS11に蓄積されるが、その読み出しは水平走査回路15からのタイミングパルスを1画素分遅らして水平出力線に読み出して差動増幅器14から出力される。   At time T2, charges from the photoelectric conversion unit 1 of the photodiode are transferred to the FD unit 21, so that the potential of the FD unit 21 changes according to light. At this time, since the source follower amplifier MOS transistor 5 is in a floating state, the potential of the FD section 21 is output to the storage capacitor CTS11 with the control pulse φTs being high at time T3. At this time, the dark output and the light output of the pixels on the first line are stored in the storage capacitors CTN10 and CTS11, respectively, and the horizontal output line reset MOS transistor 13 is turned on by setting the control pulse φHC at time T4 to be temporarily high. Reset the line. In the horizontal transfer period, the dark output and the light output of the pixel are output to the horizontal output line by the scanning timing signal of the horizontal scanning circuit 15. At this time, if the differential output VOUT is obtained by the differential amplifier 14 of the storage capacitors CTN10 and CTS11, a signal having a good S / N from which random noise and fixed pattern noise of the pixel are removed can be obtained. The photoelectric charges of the pixels 30-12 and 30-22 are accumulated in the respective storage capacitors CTN10 and CTS11 simultaneously with the pixels 30-11 and 30-21, but the timing is read from the horizontal scanning circuit 15 by one pixel. The data is read out to the horizontal output line after being delayed and output from the differential amplifier 14.

本実施形態では、差動出力VOUTをチップ内で行う構成を示しているが、チップ内に含めず、外部で従来のCDS(Correlated Double Sampling:相関二重サンプリング)回路を用いても同様の効果が得られる。   In the present embodiment, a configuration in which the differential output VOUT is performed in the chip is shown, but the same effect can be obtained even if a conventional CDS (Correlated Double Sampling) circuit is used outside without including it in the chip. Is obtained.

蓄積容量CTS11に明出力を出力した後、制御パルスφR0をハイとしてリセット用MOSトランジスタ4を導通しFD部21を電源VDDにリセットする。第1ラインの水平転送が終了した後、第2ラインの読み出しを行う。第2ラインの読み出しは、制御パルスφTXe0,制御パルスφPGe0を同様に駆動させ、制御パルスφTN、φTSに夫々ハイパルスを供給して、蓄積容量CTN10とCTS11に夫々光電荷を蓄積し、暗出力及び明出力を取り出す。以上の駆動により、第1,第2ラインの読み出しが夫々独立に行える。この後、垂直走査回路を走査させ、同様に第2n+1,第2n+2(n=1,2,…)の読み出しを行えば全画素独立出力が行える。即ち、n=1の場合は、まず制御パルスφS1をハイとし、次にφR1をローとし、続いて制御パルスφTN、φTX01をハイとし、制御パルスφPG01をロー、制御パルスφTSをハイ、制御パルスφHCを一時ハイとして画素30−31,30−32の画素信号を読み出す。続いて、制御パルスφTXe1,φPGe1及び上記と同様に制御パルスを印加して、画素30−41,30−42の画素信号を読み出す。   After a bright output is output to the storage capacitor CTS11, the control pulse φR0 is set to high, the reset MOS transistor 4 is turned on, and the FD portion 21 is reset to the power supply VDD. After the horizontal transfer of the first line is completed, the second line is read. In reading the second line, the control pulse φTXe0 and the control pulse φPGe0 are driven in the same manner, and high pulses are supplied to the control pulses φTN and φTS, respectively, and photocharges are accumulated in the storage capacitors CTN10 and CTS11, respectively. Take the output. With the above driving, the first and second lines can be read independently. Thereafter, by scanning the vertical scanning circuit and reading out the second n + 1 and second n + 2 (n = 1, 2,...) In the same manner, all the pixels can be independently output. That is, when n = 1, first, the control pulse φS1 is set high, then φR1 is set low, then the control pulses φTN and φTX01 are set high, the control pulse φPG01 is set low, the control pulse φTS is set high, and the control pulse φHC Is temporarily high to read out pixel signals of the pixels 30-31 and 30-32. Subsequently, the control pulses φTXe1, φPGe1 and the control pulse are applied in the same manner as described above, and the pixel signals of the pixels 30-41 and 30-42 are read out.

図5乃至図7は、撮像用画素と焦点検出用画素の構造を説明する図である。本実施形態においては、2行×2列の4画素のうち、対角2画素にG(緑色)の分光感度を有する画素を配置し、他の2画素にR(赤色)とB(青色)の分光感度を有する画素を各1個配置した、ベイヤー配列が採用されている。そして、ベイヤー配列の間に、後述する構造の焦点検出用画素が所定の規則にて分散配置される。   5 to 7 are diagrams illustrating the structure of the imaging pixel and the focus detection pixel. In the present embodiment, out of 4 pixels of 2 rows × 2 columns, pixels having G (green) spectral sensitivity are arranged in 2 diagonal pixels, and R (red) and B (blue) are arranged in the other 2 pixels. A Bayer arrangement in which one pixel each having a spectral sensitivity of 1 is arranged is employed. In addition, focus detection pixels having a structure to be described later are distributed and arranged in a predetermined rule between the Bayer arrays.

図5は、撮像用画素の平面図と断面図である。図5(a)は撮像素子中央に位置する2行×2列の撮像用画素の平面図である。周知のごとく、ベイヤー配列では対角方向にG画素が、他の2画素にRとBの画素が配置される。そして2行×2列の構造が繰り返し配置される。   FIG. 5 is a plan view and a cross-sectional view of the imaging pixel. FIG. 5A is a plan view of 2 × 2 imaging pixels located in the center of the imaging device. As is well known, in the Bayer array, G pixels are arranged diagonally, and R and B pixels are arranged in the other two pixels. A structure of 2 rows × 2 columns is repeatedly arranged.

図5(a)の断面A−Aを図5(b)に示す。MLは各画素の最前面に配置されたオンチップマイクロレンズ、CFRはR(Red)のカラーフィルタ、CFGはG(Green)のカラーフィルタである。PDは図3で説明したC−MOSセンサの光電変換部を模式的に示したもの、CLはC−MOSセンサ内の各種信号を伝達する信号線を形成するための配線層である。TLは撮影光学系を模式的に示したものである。   FIG. 5B shows a cross section AA of FIG. ML is an on-chip microlens disposed on the forefront of each pixel, CFR is an R (Red) color filter, and CFG is a G (Green) color filter. PD is a schematic diagram of the photoelectric conversion unit of the C-MOS sensor described with reference to FIG. 3, and CL is a wiring layer for forming signal lines for transmitting various signals in the C-MOS sensor. TL schematically shows the photographing optical system.

ここで、撮像用画素のオンチップマイクロレンズMLと光電変換部PDは、撮影光学系MLを通過した光束を可能な限り有効に取り込むように構成されている。換言すると、撮影光学系TLの射出瞳EPと光電変換部PDは、マイクロレンズMLにより共役関係にあり、かつ光電変換部の有効面積は大面積に設計される。また、図5(b)ではR画素の入射光束について説明したが、G画素及びB(Blue)画素も同一の構造となっている。従って、撮像用のRGB各画素に対応した射出瞳EPは大径となり、被写体からの光束を効率よく取り込んで画像信号のS/Nを向上させている。   Here, the on-chip microlens ML and the photoelectric conversion unit PD of the imaging pixel are configured to capture the light beam that has passed through the photographing optical system ML as effectively as possible. In other words, the exit pupil EP of the photographing optical system TL and the photoelectric conversion unit PD are conjugated with each other by the microlens ML, and the effective area of the photoelectric conversion unit is designed to be large. Further, although the incident light beam of the R pixel has been described in FIG. 5B, the G pixel and the B (Blue) pixel have the same structure. Accordingly, the exit pupil EP corresponding to each of the RGB pixels for imaging has a large diameter, and the S / N of the image signal is improved by efficiently capturing the light flux from the subject.

図6は、撮影レンズの図中x方向に瞳分割を行うための焦点検出用画素の平面図と断面図である。図6(a)は、撮像素子中央に位置する焦点検出用画素を含む2行×2列の画素の平面図である。撮像信号を得る場合、G画素は輝度情報の主成分をなす。そして人間の画像認識特性は輝度情報に敏感であるため、G画素が欠損すると画質劣化が認められやすい。一方でRもしくはB画素は、色情報を取得する画素であるが、人間は色情報には鈍感であるため、色情報を取得する画素は多少の欠損が生じても画質劣化に気づきにくい。そこで本実施形態においては、2行×2列の画素のうち、G画素は撮像用画素として残し、RとBに相当する位置の画素に、ある割合で焦点検出用画素を配列している。これを図6(a)においてSHA及びSHBで示す。   FIG. 6 is a plan view and a cross-sectional view of a focus detection pixel for performing pupil division in the x direction in the drawing of the photographing lens. FIG. 6A is a plan view of 2 × 2 pixels including focus detection pixels located at the center of the image sensor. When obtaining an imaging signal, the G pixel is a main component of luminance information. Since human image recognition characteristics are sensitive to luminance information, image quality degradation is likely to be recognized if G pixels are lost. On the other hand, the R or B pixel is a pixel that acquires color information. However, since humans are insensitive to color information, pixels that acquire color information are less likely to notice deterioration in image quality even if some loss occurs. Therefore, in the present embodiment, among the pixels in 2 rows × 2 columns, the G pixel is left as an imaging pixel, and focus detection pixels are arranged at a certain ratio to pixels at positions corresponding to R and B. This is indicated by SHA and SHB in FIG.

図6(a)の断面B−Bを図6(b)に示す。マイクロレンズMLと、光電変換部PDは図5(b)に示した撮像用画素と同一構造である。本実施形態においては、焦点検出用画素の信号は画像創生には用いないため、色分離用カラーフィルタの代わりに透明膜CFW(White)が配置される。また、撮像素子で瞳分割を行うため、配線層CLの開口部はマイクロレンズMLの中心線に対してx方向に偏倚している。具体的には、画素SHAの開口部OPHAは−x方向に偏倚しているため、撮影レンズTLの左側の射出瞳EPHA(第1の瞳領域)を通過した光束を受光する。同様に、画素SHBの開口部OPHBは+x方向に偏倚しているため、撮影レンズTLの右側の射出瞳EPHB(第2の瞳領域)を通過した光束を受光する。よって、画素SHAをx方向に規則的に配列し、これらの画素群(本発明の第1の画素群に相当)で取得した被写体像をA像とし、画素SHBもx方向に規則的に配列し、これらの画素群(本発明の第2の画素群に相当)で取得した被写体像をB像とすると、A像とB像の相対位置を検出することで、被写体像のピントずれ量(デフォーカス量)が検出できる。   A cross section BB of FIG. 6A is shown in FIG. The microlens ML and the photoelectric conversion unit PD have the same structure as the imaging pixel shown in FIG. In the present embodiment, since the signal of the focus detection pixel is not used for image creation, a transparent film CFW (White) is arranged instead of the color separation color filter. Further, since pupil division is performed by the image sensor, the opening of the wiring layer CL is deviated in the x direction with respect to the center line of the microlens ML. Specifically, since the opening OPHA of the pixel SHA is biased in the −x direction, the light beam that has passed through the exit pupil EPHA (first pupil region) on the left side of the photographic lens TL is received. Similarly, since the opening OPHB of the pixel SHB is biased in the + x direction, the light beam that has passed through the right exit pupil EPHB (second pupil region) of the photographic lens TL is received. Therefore, the pixels SHA are regularly arranged in the x direction, the subject image acquired by these pixel groups (corresponding to the first pixel group of the present invention) is set as an A image, and the pixels SHB are also regularly arranged in the x direction. If the subject image acquired by these pixel groups (corresponding to the second pixel group of the present invention) is a B image, the relative position between the A image and the B image is detected, so that the subject image defocus amount ( Defocus amount) can be detected.

なお、上記の画素SHA及びSHBでは、撮影画面のx方向に輝度分布を有した被写体、例えばy方向の線に対しては焦点検出可能だが、y方向に輝度分布を有するx方向の線は焦点検出不能である。そこで本実施形態では、後者についても焦点検出できるよう、撮影レンズのy方向にも瞳分割を行う画素も備えている。   In the pixels SHA and SHB, focus detection is possible for an object having a luminance distribution in the x direction on the photographing screen, for example, a line in the y direction, but a line in the x direction having a luminance distribution in the y direction is the focus. It cannot be detected. Therefore, in the present embodiment, pixels that perform pupil division are also provided in the y direction of the taking lens so that the latter can be detected in focus.

図7は、撮影レンズの図中y方向に瞳分割を行うための焦点検出用画素の平面図と断面図である。図7(a)は、撮像素子中央に位置する焦点検出用画素を含む2行×2列の画素の平面図で、図6(a)と同様に、G画素は撮像用画素として残し、RとBに相当する位置の画素に、ある割合で焦点検出用画素を配列している。これを図7(a)においてSVC及びSVDで示す。   FIG. 7 is a plan view and a cross-sectional view of focus detection pixels for performing pupil division in the y direction in the drawing of the photographing lens. FIG. 7A is a plan view of pixels of 2 rows × 2 columns including focus detection pixels located at the center of the image sensor. As in FIG. 6A, G pixels are left as image capture pixels, and R Focus detection pixels are arranged at a certain ratio in pixels corresponding to positions B and B. This is indicated by SVC and SVD in FIG.

図7(a)の断面C−Cを図7(b)に示すが、図6(b)の画素がx方向に瞳分離する構造であるのに対して、図7(b)の画素は瞳分離方向がy方向になっているだけで、画素の構造としては変わらない。すなわち、画素SVCの開口部OPVCは−y方向に偏倚しているため、撮影レンズTLの+y方向の射出瞳EPVCを通過した光束を受光する。同様に、画素SVDの開口部OPVDは+y方向に偏倚しているため、撮影レンズTLの−y方向の射出瞳EPVDを通過した光束を受光する。よって、画素SVCをy方向に規則的に配列し、これらの画素群で取得した被写体像をC像とし、画素SVDもy方向に規則的に配列し、これらの画素群で取得した被写体像をD像とすると、C像とD像の相対位置を検出することで、y方向に輝度分布を有する被写体像のピントずれ量(デフォーカス量)が検出できる。   FIG. 7B shows a cross-section C-C of FIG. 7A. The pixel of FIG. 6B has a structure in which the pupil is separated in the x direction, whereas the pixel of FIG. Only the pupil separation direction is in the y direction, and the pixel structure does not change. That is, since the opening OPVC of the pixel SVC is biased in the −y direction, the light beam that has passed through the exit pupil EPVC in the + y direction of the photographic lens TL is received. Similarly, since the opening OPVD of the pixel SVD is biased in the + y direction, the light beam that has passed through the exit pupil EPVD of the photographing lens TL in the −y direction is received. Therefore, the pixels SVC are regularly arranged in the y direction, the subject images acquired by these pixel groups are set as C images, the pixels SVD are also regularly arranged in the y direction, and the subject images acquired by these pixel groups are Assuming a D image, the amount of defocus (defocus amount) of a subject image having a luminance distribution in the y direction can be detected by detecting the relative position of the C image and the D image.

図8は、本実施形態における撮像素子の瞳分割状況を概念的に説明する図である。TLは撮影レンズ、107は撮像素子、OBJは被写体、IMGは被写体像である。   FIG. 8 is a diagram conceptually illustrating the pupil division state of the image sensor in the present embodiment. TL is a photographing lens, 107 is an image sensor, OBJ is a subject, and IMG is a subject image.

撮像用画素は図5の撮像素子の撮像用画素の平面図と断面図で説明したように、撮影レンズの射出瞳全域EPを通過した光束を受光する。一方、焦点検出用画素は図6のx方向に瞳分割を行うための焦点検出用画素の平面図と断面図及び図7のy方向に瞳分割を行うための焦点検出用画素の平面図と断面図で説明したように、瞳分割機能を有している。具体的には、図6の画素SHAは+X方向の側の瞳を通過した光束、すなわち図8の瞳EPHAを通過した光束を受光する。同様に画素SHB、SVC及びSVDはそれぞれ瞳EPHB、EPVC及びEPVDを通過した光束を受光する。そして、焦点検出用画素を、撮像素子107の全領域に渡って分布させることで、撮像領域全域で焦点検出を可能とさせている。   As described in the plan view and the cross-sectional view of the imaging pixel of the imaging device in FIG. 5, the imaging pixel receives the light beam that has passed through the entire exit pupil EP of the imaging lens. On the other hand, the focus detection pixel includes a plan view and a cross-sectional view of the focus detection pixel for performing pupil division in the x direction in FIG. 6, and a plan view of the focus detection pixel for performing pupil division in the y direction in FIG. 7. As described in the cross-sectional view, it has a pupil division function. Specifically, the pixel SHA in FIG. 6 receives a light beam that has passed through the pupil on the + X direction side, that is, a light beam that has passed through the pupil EPHA in FIG. Similarly, the pixels SHB, SVC, and SVD receive light beams that have passed through the pupils EPHB, EPVC, and EPVD, respectively. The focus detection pixels are distributed over the entire area of the image sensor 107, thereby enabling focus detection in the entire image pickup area.

図9は、焦点検出時に取得した画像と焦点検出領域を説明する図である。図9において、撮像面に形成された被写体像には、中央に人物、左側に近景の樹木、右側に遠景の山並みが写っている。そして本実施形態においては、焦点検出用画素は、x方向ずれ検出用の画素ペアSHA及びSHBと、y方向ずれ検出用の画素ペアSVC及びSVDが、撮像領域全域に渡って均等な密度で配置されている。そしてx方向ずれ検出の際には、x方向ずれ検出用の画素ペアSHA及びSHBから得られる一対の画像信号を、位相差演算のためのAF画素信号として使用する。また、y方向ずれ検出の際には、y方向ずれ検出用の画素ペアSVC及びSVDから得られる一対の画像信号を、位相差演算のためのAF画素信号として使用する。よって、撮像領域の任意位置において、x方向ずれ検出及びy方向ずれ検出のための測距領域を設定可能である。   FIG. 9 is a diagram illustrating an image acquired at the time of focus detection and a focus detection area. In FIG. 9, the subject image formed on the imaging surface shows a person in the center, a tree in the foreground on the left side, and a mountain range in the foreground on the right side. In the present embodiment, the focus detection pixels are arranged such that the pixel pairs SHA and SHB for detecting the x-direction deviation and the pixel pairs SVC and SVD for detecting the y-direction deviation are arranged at an equal density over the entire imaging region. Has been. In detecting the x-direction deviation, a pair of image signals obtained from the pixel pair SHA and SHB for detecting the x-direction deviation is used as an AF pixel signal for phase difference calculation. When detecting the y-direction deviation, a pair of image signals obtained from the y-direction deviation detection pixel pair SVC and SVD is used as an AF pixel signal for phase difference calculation. Therefore, it is possible to set a distance measurement area for detecting an x-direction deviation and a y-direction deviation at an arbitrary position in the imaging area.

図9においては、画面中央に人物の顔が存在している。そこで公知の顔認識技術によって顔の存在が検出されると、顔領域を中心にx方向ずれ検知のための焦点検出領域AFARh(x1,y1)と、y方向ずれ検知のための焦点検出領域AFARv(x3,y3)が設定される。ここで添え字のhはx方向を表わし、(x1,y1)及び(x3,y3)は焦点検出領域の左上隅の座標を表わす。そして、焦点検出領域AFARh(x1,y1)の各セクション内に含まれるx方向ずれ検出用の焦点検出画素SHAを30セクションに渡って連結した位相差検出用のA像信号がAFSIGh(A1)である。また、同様に各セクションのx方向ずれ検出用の焦点検出画素SHBを30セクションに渡って連結した位相差検出用のB像信号がAFSIGh(B1)である。そして、A像信号AFSIGh(A1)とB像信号AFSIGh(B1)の相対的なx方向ずれ量を公知の相関演算によって計算することで、撮影レンズの焦点ずれ量(デフォーカス量、焦点状態))を求めることができる。   In FIG. 9, a human face exists in the center of the screen. Therefore, when the presence of a face is detected by a known face recognition technique, a focus detection area AFARh (x1, y1) for detecting a deviation in the x direction around the face area and a focus detection area AFARv for detecting a deviation in the y direction. (X3, y3) is set. Here, the subscript h represents the x direction, and (x1, y1) and (x3, y3) represent the coordinates of the upper left corner of the focus detection area. Then, an A image signal for phase difference detection obtained by connecting focus detection pixels SHA for detecting x-direction deviation included in each section of the focus detection area AFARh (x1, y1) over 30 sections is AFSIGh (A1). is there. Similarly, a B image signal for phase difference detection obtained by connecting focus detection pixels SHB for detecting deviation in the x direction of each section over 30 sections is AFSIGh (B1). Then, by calculating the relative x-direction shift amount between the A image signal AFSIGh (A1) and the B image signal AFSIGh (B1) by a known correlation calculation, the defocus amount (defocus amount, focus state) of the photographing lens. ).

焦点検出領域AFARv(x3,y3)についても同様に焦点ずれ量を求める。そして、x方向ずれ及びy方向ずれの焦点検出領域で検出した2つの焦点ずれ量を比較し、信頼性の高い値を採用すればよい。   The defocus amount is similarly obtained for the focus detection area AFARv (x3, y3). Then, the two defocus amounts detected in the x-direction shift and y-direction shift focus detection regions are compared, and a highly reliable value may be adopted.

一方、画面左側の樹木の幹部は、y方向成分が主体、すなわちx方向に輝度分布を有しているため、x方向ずれ検知に適した被写体と判断され、x方向ずれ検知のための焦点検出領域AFARh(x2,y2)が設定される。また、画面右側の山並み稜線部は、x方向成分が主体、すなわちy方向に輝度分布を有しているため、y方向ずれ検知に適した被写体と判断され、y方向ずれ検知のための焦点検出領域AFARv(x4,y4)が設定される。   On the other hand, the trunk of the tree on the left side of the screen is mainly composed of the y-direction component, that is, has a luminance distribution in the x-direction. An area AFARh (x2, y2) is set. Further, the mountain ridge on the right side of the screen is mainly composed of x-direction components, that is, has a luminance distribution in the y-direction, so that it is determined as a subject suitable for y-direction deviation detection, and focus detection for y-direction deviation detection is performed. An area AFARv (x4, y4) is set.

以上のごとく本実施形態においては、x方向ずれ及びy方向ずれ検出のための焦点検出領域が画面の任意位置に設定可能なため、被写体の投影位置や輝度分布の方向性が様々であっても、常に焦点検出が可能である。なお、原理はx方向ずれとy方向ずれとでは方向が異なること以外は同じであるため、以下はx方向ずれの検出のための説明とし、y方向ずれ検出の説明は省略する。   As described above, in this embodiment, since the focus detection area for detecting the x-direction shift and the y-direction shift can be set at an arbitrary position on the screen, even if the projection position of the subject and the directionality of the luminance distribution are various. , Focus detection is always possible. Since the principle is the same except that the x-direction deviation and the y-direction deviation are different from each other, the following description is for detecting the x-direction deviation, and the explanation for the y-direction deviation detection is omitted.

図10は撮像素子中央の焦点検出用画素の入射角特性を表した模式図であり、図10(a)は画素SHA、図10(b)は画素SHBの特性を示している。図10中x軸、y軸はそれぞれ画素のx方向、y方向の入射角度を表している。図10では、色が濃くなるほど受光強度が高いことを示している。図6では説明を分かりやすくするため、画素SHAの射出瞳をEPHA、画素SHBの射出瞳をEPHBと、それぞれ分離して表した。しかし、図10に示すように、実際には、開口部OPHA及び開口部OPHBの開口部による回折の影響を低減させたり、SNを向上させるために画素SHAと画素SHBの射出瞳は一部領域の重なる部分がある。図11は焦点検出用画素の入射角特性を1次元で表した図である。横軸は入射角を、縦軸は図10のθy方向の受光感度を加算したものを表しており、原点が光軸である。図11に示すように、撮像素子中央の焦点検出用画素では、画素SHAと画素SHBの入射角特性は光軸に対して略対称となる。   10A and 10B are schematic diagrams showing the incident angle characteristics of the focus detection pixel at the center of the image sensor. FIG. 10A shows the characteristics of the pixel SHA, and FIG. 10B shows the characteristics of the pixel SHB. In FIG. 10, the x-axis and y-axis represent the incident angles of the pixel in the x-direction and y-direction, respectively. FIG. 10 shows that the received light intensity is higher as the color becomes darker. In FIG. 6, for ease of explanation, the exit pupil of the pixel SHA is shown separately as EPHA, and the exit pupil of the pixel SHB is shown separately as EPHB. However, as shown in FIG. 10, the exit pupils of the pixel SHA and the pixel SHB are actually partial areas in order to reduce the influence of diffraction due to the openings OPHA and the openings OPHB or to improve the SN. There are overlapping parts. FIG. 11 is a one-dimensional representation of the incident angle characteristics of the focus detection pixels. The abscissa represents the incident angle, the ordinate represents the sum of the light receiving sensitivity in the θy direction in FIG. 10, and the origin is the optical axis. As shown in FIG. 11, in the focus detection pixel at the center of the image sensor, the incident angle characteristics of the pixel SHA and the pixel SHB are substantially symmetric with respect to the optical axis.

図12は光束のケラレを説明する図である。図12(a)は撮像素子中央の画素に入射する光束を示し、図12(b)は撮像素子の中央から像高を持った位置の画素に入射する光束を示している。撮像素子には撮影レンズのレンズ保持枠や絞り102などいくつかの構成部材によって外縁を制限された光束が入射する。ここでは説明を分かりやすくするため、あらゆる像高において光束を制限する部材が2つあるとして説明する。   FIG. 12 is a diagram for explaining the vignetting of the light beam. FIG. 12A shows a light beam incident on a pixel at the center of the image sensor, and FIG. 12B shows a light beam incident on a pixel at a position having an image height from the center of the image sensor. A light beam whose outer edge is limited by several components such as a lens holding frame of the photographing lens and the diaphragm 102 is incident on the image sensor. Here, in order to make the explanation easy to understand, it is assumed that there are two members that limit the light flux at any image height.

Iw1、Iw2は光束を制限する部材を窓として、光束はこの内側を通過する。MeはマイクロレンズMLの構成によって設定された瞳面を表している。図12(a)を用いて、撮像素子中央の画素に入射する光束のケラレを説明する。L1rc、L1lcは窓Iw1の射出光束の外周を表しており、L1rcは図12中右端、L1lcは図12中左端を示している。L2rc、L2lcは窓Iw2の射出光束をマイクロレンズMLの瞳位置まで投影したものの外周を表しており、L2rcは図12中右端、L2lcは図12中左端を示している。図12(a)に示すように、撮像素子中央画素に入射する光束の瞳面Meでの瞳領域はL2lcとL2rcを外周とする光束、つまり、矢印Area1で示される。次に、図12(b)を用いて、撮像素子の中央から像高を持った位置の画素に入射する光束のケラレを説明する。L1rh、L1lhは窓Iw1の射出光束の外周を表しており、L1rhは図12中右端、L1lhは図12中左端を示している。L2rh、L2lhは窓Iw2の射出光束をマイクロレンズMLの瞳位置まで投影したものの外周を表しており、L2rhは図12中右端、L2lhは図12中左端を示している。図12(b)に示すように、撮像素子の中央から像高を持った位置の画素に入射する光束の瞳面Me上での瞳領域はL1lhとL2rhを外周とする光束、つまり、矢印Area2で示される。   In Iw1 and Iw2, a member that restricts the luminous flux is used as a window, and the luminous flux passes through the inside. Me represents a pupil plane set by the configuration of the microlens ML. With reference to FIG. 12A, vignetting of the light beam incident on the pixel at the center of the image sensor will be described. L1rc and L1lc represent the outer periphery of the light beam emitted from the window Iw1, L1rc represents the right end in FIG. 12, and L1lc represents the left end in FIG. L2rc and L2lc represent the outer periphery of the projection of the light beam emitted from the window Iw2 up to the pupil position of the microlens ML, L2rc indicates the right end in FIG. 12, and L2lc indicates the left end in FIG. As shown in FIG. 12A, the pupil region on the pupil plane Me of the light beam incident on the image sensor central pixel is indicated by a light beam having L2lc and L2rc as outer circumferences, that is, an arrow Area1. Next, with reference to FIG. 12B, vignetting of a light beam incident on a pixel at a position having an image height from the center of the image sensor will be described. L1rh and L1lh represent the outer periphery of the light beam emitted from the window Iw1, L1rh represents the right end in FIG. 12, and L1lh represents the left end in FIG. L2rh and L2lh represent the outer periphery of the projected light beam of the window Iw2 up to the pupil position of the microlens ML, L2rh indicates the right end in FIG. 12, and L2lh indicates the left end in FIG. As shown in FIG. 12B, the pupil region on the pupil plane Me of the light beam incident on the pixel at the position having the image height from the center of the image sensor is a light beam having L1lh and L2rh as outer circumferences, that is, an arrow Area2. Indicated by

図13は瞳面Me上での瞳領域を示した図である。図13(a)は撮像素子中央の画素の瞳領域を示し、図13(b)は撮像素子の中央から像高を持った位置の画素の瞳領域を示している。図12で説明したように、撮像素子中央の画素は同一窓Iw2のみによって制限された光束が入射するため、図13(a)に示すように瞳領域Area1は窓Iw2の形状がそのまま投影される。光束を制限する窓は円形状であるため、瞳領域Area1の形状も円形状となる。一方、撮像素子の中央から像高を持った位置の画素はIw1とIw2によって制限された光束が入射するため、瞳領域Area2は図13(b)に示したような形状となる。   FIG. 13 is a diagram showing a pupil region on the pupil plane Me. FIG. 13A shows a pupil region of a pixel at the center of the image sensor, and FIG. 13B shows a pupil region of a pixel at a position having an image height from the center of the image sensor. As described with reference to FIG. 12, since the light beam limited by the same window Iw2 is incident on the pixel in the center of the image sensor, the shape of the window Iw2 is projected as it is in the pupil area Area1 as shown in FIG. . Since the window for limiting the luminous flux is circular, the shape of the pupil area Area1 is also circular. On the other hand, since the light beam limited by Iw1 and Iw2 enters the pixel at the image height from the center of the image sensor, the pupil area Area2 has a shape as shown in FIG.

図14は焦点検出用画素の瞳強度分布を示す図である。これは、図10に示した撮像素子中央の焦点検出用画素の入射角特性をマイクロレンズMLの瞳上に投影したものに等しく、図14の縦軸および横軸は瞳上の座標に展開したものである。この瞳強度分布は、撮像素子の中央から像高を持った位置の画素についても同じ特性をもっている。なぜならば、撮像素子の中央から像高を持った位置の画素のマイクロレンズMLは光軸中心がマイクロレンズMLの瞳の中心を通過するように偏芯して作製されているためである。   FIG. 14 is a diagram showing a pupil intensity distribution of focus detection pixels. This is equivalent to the incident angle characteristic of the focus detection pixel at the center of the image sensor shown in FIG. 10 projected onto the pupil of the microlens ML, and the vertical and horizontal axes in FIG. 14 are expanded to the coordinates on the pupil. Is. This pupil intensity distribution has the same characteristics for pixels at positions having an image height from the center of the image sensor. This is because the microlens ML of the pixel at a position having an image height from the center of the image sensor is made eccentric so that the center of the optical axis passes through the center of the pupil of the microlens ML.

図15は撮像素子中央の焦点検出用画素の瞳面Me上でのケラレを示した図である。図15(a)は画素SHA、図15(b)は画素SHBの特性を示している。図15は図13(a)と図14を重ね合わせたものであり、画素SHA及び画素SHBにはArea1で示した形状の内側を透過した光束が図示した瞳強度分布で入射する。図16は撮像素子中央の焦点検出用画素の瞳面Me上での入射光束の瞳強度分布を2次元で表した図である。横軸は瞳面Me上のx方向の座標を表し、縦軸は各座標の強度を表している。各座標の強度は図15のy方向の瞳強度を加算したものである。画素SHAと画素SHBの瞳面Me上での入射光束の瞳強度分布はEsdAc、EsdBcで示している。図15に示すように、画素SHA及び画素SHBの瞳面Me上の瞳強度分布は、撮影レンズのレンズ枠や絞りなどの光束を制限する部材によってケラレが生じている。   FIG. 15 is a diagram showing vignetting on the pupil plane Me of the focus detection pixel at the center of the image sensor. FIG. 15A shows the characteristics of the pixel SHA, and FIG. 15B shows the characteristics of the pixel SHB. FIG. 15 is a view obtained by superimposing FIG. 13A and FIG. 14. A light beam transmitted through the inside of the shape indicated by Area 1 is incident on the pixel SHA and the pixel SHB with the illustrated pupil intensity distribution. FIG. 16 is a two-dimensional representation of the pupil intensity distribution of the incident light beam on the pupil plane Me of the focus detection pixel at the center of the image sensor. The horizontal axis represents coordinates in the x direction on the pupil plane Me, and the vertical axis represents the intensity of each coordinate. The intensity of each coordinate is obtained by adding the pupil intensity in the y direction in FIG. The pupil intensity distribution of the incident light beam on the pupil plane Me of the pixel SHA and the pixel SHB is indicated by EsdAc and EsdBc. As shown in FIG. 15, the pupil intensity distribution on the pupil plane Me of the pixel SHA and the pixel SHB is vignetted by a member that restricts a light beam such as a lens frame or a diaphragm of the photographing lens.

図17は撮像素子の中央から像高を持った位置の画素の瞳面Me上でのケラレを示した図である。図17(a)は画素SHA、図17(b)は画素SHBの特性を示している。図17は図13(b)と図14を重ね合わせたものであり、画素SHA及び画素SHBにはArea2で示した形状の内側を透過した光束が図示した瞳強度分布で入射する。図18は撮像素子の中央から像高を持った位置の画素の瞳面Me上での入射光束の瞳強度分布を2次元で表した図である。横軸は瞳面Me上のx方向の座標を表し、縦軸は各座標の強度を表している。各座標の強度は図17のy方向の瞳強度を瞳分離方向と直交する方向に加算したものである。図18中、画素SHAと画素SHBの瞳面Me上での入射光束の瞳強度分布はEsdAh、EsdBhで示している。   FIG. 17 is a diagram showing vignetting on a pupil plane Me of a pixel at an image height from the center of the image sensor. FIG. 17A shows the characteristics of the pixel SHA, and FIG. 17B shows the characteristics of the pixel SHB. FIG. 17 is a view obtained by superimposing FIG. 13B and FIG. 14. A light beam transmitted through the inside of the shape indicated by Area 2 is incident on the pixel SHA and the pixel SHB with the illustrated pupil intensity distribution. FIG. 18 is a two-dimensional representation of the pupil intensity distribution of the incident light beam on the pupil plane Me of the pixel located at the image height from the center of the image sensor. The horizontal axis represents coordinates in the x direction on the pupil plane Me, and the vertical axis represents the intensity of each coordinate. The intensity of each coordinate is obtained by adding the pupil intensity in the y direction in FIG. 17 in a direction orthogonal to the pupil separation direction. In FIG. 18, the pupil intensity distributions of incident light beams on the pupil plane Me of the pixel SHA and the pixel SHB are indicated by EsdAh and EsdBh.

前述したように、画素SHAをx方向に規則的に配列し、これらの画素群で取得した被写体像A像と、画素SHBもx方向に規則的に配列し、これらの画素群で取得した被写体像B像との相対位置を検出することで、被写体像のピントずれ量(デフォーカス量)を検出している。   As described above, the pixels SHA are regularly arranged in the x direction, the subject image A image acquired by these pixel groups, and the pixels SHB are also regularly arranged in the x direction, and the subjects acquired by these pixel groups. By detecting the relative position with respect to the image B image, the focus shift amount (defocus amount) of the subject image is detected.

いま被写体の光量分布をf(x,y)、被写体像の光量分布をg(x,y)とするとき、   If the light amount distribution of the subject is f (x, y) and the light amount distribution of the subject image is g (x, y),

の関係(たたみこみ積分;convolution)が成立する。ここでh(x,y)は被写体が画像形成システムにおいて劣化する状態を表す伝達関数で、点像分布関数(point spread function)と呼ばれる。従って、焦点検出に用いる1対の被写体像を知るには、点像分布関数を知る必要がある。ここで、位相差方式焦点検出においては、1対の被写体像の1次元方向に注目し、その位相ずれを検出するため、点像分布関数の代わりに1次元の関数である線像分布関数(line spread function)により、焦点検出に関する画像システムを評価することができる。そこで、被写体の光量分布をf(x)、被写体像の光量分布をg(x)と置き換えると、上記式(1)は線像分布関数L(a)を用いて以下のように書き換えられる。 (Convolution) is established. Here, h (x, y) is a transfer function representing a state in which the subject deteriorates in the image forming system, and is called a point spread function. Therefore, in order to know a pair of subject images used for focus detection, it is necessary to know a point spread function. Here, in the phase difference type focus detection, attention is paid to the one-dimensional direction of a pair of subject images, and the phase shift is detected. Therefore, instead of the point spread function, a linear image distribution function ( The line spread function can evaluate the image system for focus detection. Therefore, when the light amount distribution of the subject is replaced with f (x) and the light amount distribution of the subject image is replaced with g (x), the above equation (1) can be rewritten as follows using the line image distribution function L (a).

従って、式(2)より任意のデフォーカス時の位相ずれ方向における通過する瞳領域が異なる光束により生成される1対の線像分布関数を知ることにより、1対の被写体像を知ることができる。1対の被写体像がわかれば、それぞれの被写体像の重心間隔から基線長を求め、1対の被写体像の像ズレ量と基線長からデフォーカス量を算出することができる。基線長は以下の(3)〜(5)式により求めることができる。被写体像の重心をGA、GB、基線長をGとすると、   Therefore, a pair of subject image can be known by knowing a pair of line image distribution functions generated by light fluxes passing through different pupil regions in the phase shift direction at any defocusing time from the equation (2). . If a pair of subject images is known, the base line length can be obtained from the center-of-gravity interval of each subject image, and the defocus amount can be calculated from the image shift amount and base line length of the pair of subject images. The baseline length can be determined by the following equations (3) to (5). If the center of gravity of the subject image is GA, GB, and the baseline length is G,

…(3),(4),(5)
次に本実施形態の焦点検出動作について図19のフローチャートを用いて説明する。なお、図19のフローチャートにおける動作は本発明の焦点検出手段、光量補正手段、光束規定情報補正手段であるCPU121によって実行される。
... (3), (4), (5)
Next, the focus detection operation of this embodiment will be described using the flowchart of FIG. The operation in the flowchart of FIG. 19 is executed by the CPU 121 which is a focus detection unit, a light amount correction unit, and a light flux regulation information correction unit of the present invention.

ステップS1ではケラレ状態を知るためのレンズ情報が読み出され、ステップS2へと進む。レンズ情報の詳細は後述するが、撮影条件であるF値やズームステートの他、、本実施形態における枠情報や、絞りの累積駆動回数がレンズ情報に含まれる。   In step S1, lens information for knowing the vignetting state is read, and the process proceeds to step S2. Although details of the lens information will be described later, in addition to the F value and the zoom state which are imaging conditions, the frame information in the present embodiment and the cumulative driving number of the aperture are included in the lens information.

ステップS2では使用者が設定した測距位置や範囲などの測距点情報が読み出される。完了後ステップS3へと進む。
ステップS3では、レンズ光束を規定する枠を算出する。詳細は後述するが、レンズ光束を規定する枠は、ステップ1で読み出されたレンズ情報に含まれる枠情報から、ステップS2で取得した測距点情報に対応する像高の枠情報(位置、半径、枠識別情報)を読み出し、光束規定情報補正手段によって、製造誤差補正と耐久補正を実施して算出される。
In step S2, distance measurement point information such as the distance measurement position and range set by the user is read. After completion, the process proceeds to step S3.
In step S3, a frame that defines the lens luminous flux is calculated. Although details will be described later, the frame defining the lens luminous flux is frame information (position, position) of the image height corresponding to the distance measurement point information acquired in step S2 from the frame information included in the lens information read in step 1. (Radius, frame identification information) is read, and the manufacturing error correction and endurance correction are performed by the light beam regulation information correction means.

ステップS4では各焦点検出用画素においてCPU121内のROMに保管されている瞳強度分布を読み出し、ステップS3で得られた光束規定枠と合わせて線像分布関数を算出する。完了後、ステップS5へと進む。   In step S4, the pupil intensity distribution stored in the ROM in the CPU 121 is read for each focus detection pixel, and the line image distribution function is calculated together with the light flux defining frame obtained in step S3. After completion, the process proceeds to step S5.

ステップS5では、ステップS4で得られた線像分布関数の重心を算出し、基線長を求める。ここでの基線長の算出方法の詳細は後述する。完了すると、ステップS6へと進む。ステップS6では、ステップS2で読み出された測距位置での焦点検出用画素の画像信号を読み出し、被写体A像、被写体B像が形成される。完了後、ステップS7へと進む。   In step S5, the center of gravity of the line image distribution function obtained in step S4 is calculated, and the baseline length is obtained. Details of the calculation method of the baseline length will be described later. When completed, the process proceeds to step S6. In step S6, the image signal of the focus detection pixel at the distance measurement position read in step S2 is read, and the subject A image and the subject B image are formed. After completion, the process proceeds to step S7.

ステップS7では、ステップS3で算出した光束規定枠から被写体像A像と被写体像B像の光束のケラレ量を予測し、A像B像の光量比を調節する光量補正を行う。光量補正後、ステップS8へと進む。   In step S7, the amount of vignetting of the subject image A image and the subject image B image is predicted from the light flux defining frame calculated in step S3, and light amount correction is performed to adjust the light amount ratio of the A image B image. After the light amount correction, the process proceeds to step S8.

ステップS8では、焦点検出手段はステップS7で得られた光量補正後の被写体像A像、被写体像B像を用いて公知の相関演算方法により像ズレ量を求め、デフォーカス量を求める。デフォーカス量算出後、ステップS9へと進む。   In step S8, the focus detection unit obtains an image shift amount by a known correlation calculation method using the subject image A image and the subject image B image after light amount correction obtained in step S7, and obtains a defocus amount. After calculating the defocus amount, the process proceeds to step S9.

ステップS9では、算出されたデフォーカス量が、合焦か否かの判定がされる。合焦だと判定されなかった場合には、ステップS10へと進む。合焦だと判定された場合には、ステップS11へと進む。   In step S9, it is determined whether or not the calculated defocus amount is in focus. If it is not determined that the subject is in focus, the process proceeds to step S10. If it is determined that focus is achieved, the process proceeds to step S11.

ステップS10では、算出されたデフォーカス演算結果に応じて、第3レンズ群105を進退させる。そして、ステップS6へと戻る。ステップS11にて、一連の焦点検出フローが終了する。   In step S10, the third lens group 105 is advanced or retracted according to the calculated defocus calculation result. Then, the process returns to step S6. In step S11, a series of focus detection flows ends.

次に、ステップS1で取得されるレンズ情報について、図20〜図22を用いて詳細に説明する。レンズ情報には、現在の撮影条件のF値、ズームステート、絞りの累積駆動回数、枠情報が含まれる。ズームステートとは、ズームレンズにおいて、Tele端からWide端までを例えば2分割や50分割などに分割した際の、どの位置にいるかである。また枠情報には、光束規定情報である、枠の位置、半径の情報と、枠識別情報が含まれる。   Next, the lens information acquired in step S1 will be described in detail with reference to FIGS. The lens information includes the F value of the current shooting condition, the zoom state, the cumulative number of aperture driving times, and frame information. The zoom state is a position in the zoom lens when the distance from the Tele end to the Wide end is divided into, for example, two divisions or 50 divisions. Further, the frame information includes information on the position and radius of the frame, which is light flux defining information, and frame identification information.

図20は、レンズ枠の位置や半径と、撮像素子107のある像高でのレンズ光束を模式的に示した断面図である。また、図21は、あるF値、あるズームステートにおいて保有される枠情報のデータテーブルの例である。これと同様の情報が各F値、各ズームステートで保有されている。ここでは例として、像高0,1,2を挙げているが、選択される測距点に対応できるよう、実際は更に細かいピッチで、高い像高までのデータが保有されている。   FIG. 20 is a cross-sectional view schematically showing a lens beam at a position and radius of the lens frame and an image height at which the image sensor 107 is present. FIG. 21 is an example of a data table of frame information held in a certain F value and a certain zoom state. Similar information is held in each F value and each zoom state. Here, the image heights 0, 1, and 2 are given as examples, but data up to a high image height is actually held at a finer pitch so as to correspond to the selected distance measuring point.

図20において、像高0の状態では、レンズの絞りである枠Bのみでレンズ光束が遮られている。それに対して、例えば像高1の状態では、レンズの後枠である枠Cと絞りである枠Bの2つの枠によって、レンズ光束が遮られているのがわかる。   In FIG. 20, when the image height is 0, the lens luminous flux is blocked only by the frame B which is the lens diaphragm. On the other hand, in the state where the image height is 1, for example, it can be seen that the lens luminous flux is blocked by the two frames of the frame C as the rear frame of the lens and the frame B as the stop.

このような状況に従って、図21に示すとおり、各像高ごとに、レンズ光束を遮る枠を枠1、枠2として、それぞれについて、位置、半径、種類の情報を保有している。位置は、撮像素子の画素からレンズを介して見た、レンズ光束を遮る枠の光軸方向の位置である。半径は、撮像素子の画素からレンズを介して見た、レンズ光束を遮る枠の半径である。種類は、レンズ光束を遮る枠の種類を識別するための枠識別情報で、例えば図20の例では、前枠である枠Aか、絞りである枠Bか、後枠である枠Cかを識別するための情報である。   According to such a situation, as shown in FIG. 21, for each image height, the frame that blocks the lens light flux is set as the frame 1 and the frame 2, and information on the position, radius, and type is held for each. The position is a position in the optical axis direction of the frame that blocks the lens light flux when viewed from the pixel of the image sensor through the lens. The radius is a radius of a frame that blocks the lens light flux when viewed from the pixels of the image sensor through the lens. The type is frame identification information for identifying the type of the frame that blocks the lens luminous flux. For example, in the example of FIG. 20, whether the frame A is the front frame, the frame B is the stop, or the frame C is the rear frame. This is information for identification.

例えばレンズ後枠は、実際の物としては一つの枠であっても、撮像素子の画素から結像光学系を介して見ると、像高によって位置や半径が異なって見える。そのため、光束規定情報は、実際の物の位置や半径ではなく、撮像素子の画素から見てどう見えるかの情報を、各像高ごとに保有している。但し、実際の物として同一の枠であれば、同一であると認識する(グループ化する)ために、枠の種類を識別するための枠識別情報を保有している。   For example, even if the rear lens frame is actually a single frame, when viewed from the pixels of the image sensor through the imaging optical system, the position and the radius appear different depending on the image height. For this reason, the light flux defining information has information on how it looks from the pixels of the image sensor for each image height, not the actual position and radius of the object. However, frame identification information for identifying the type of the frame is retained in order to recognize (group) the same frame as the actual object.

図22は、枠識別情報によって識別された枠の素性を示すデータテーブルである。製造誤差は、実際の枠半径の、設計値に対する倍率を示している。耐久補正は、絞り駆動回数に対する、枠半径変化量の係数を示している。   FIG. 22 is a data table showing the features of the frame identified by the frame identification information. The manufacturing error indicates the magnification of the actual frame radius with respect to the design value. The durability correction indicates a coefficient of the frame radius change amount with respect to the number of times of aperture driving.

光束規定情報は、線像分布関数を求める際に、レンズの射出瞳面に投影して用いる。その際、撮像素子に近い位置にある枠は、位置や半径に僅かでも誤差があると、レンズの射出瞳位置では大きな誤差となる。それに対して、撮像素子から遠い位置にある枠は、位置や半径に誤差があっても、レンズの射出瞳位置に投影した際の位置変動は少ない。そこで、本実施形態では、撮像素子から遠い位置にある枠Cに関しては製造誤差情報を保有していない。   The luminous flux defining information is used by being projected onto the exit pupil plane of the lens when obtaining the line image distribution function. At that time, if there is a slight error in the position or radius of the frame located near the image sensor, a large error will occur at the exit pupil position of the lens. On the other hand, the frame located far from the image sensor has little positional fluctuation when projected onto the exit pupil position of the lens even if there is an error in position or radius. Therefore, in the present embodiment, no manufacturing error information is held for the frame C located far from the image sensor.

また、光束を規定する枠のうち、枠Aや枠Bのようにレンズ鏡筒によるものは、絞りの駆動回数に依らず一定であるが、絞りによるものは、絞りの累積駆動回数によって半径が変化することがある。例えば、繰返し絞り駆動を行うことで、絞りこみ位置を決める軸が磨耗し、繰返し駆動前よりも絞りこみ時の半径が変化することがある。そこで絞りである枠Bのみが、耐久補正の係数を保有している。   Of the frames that define the luminous flux, those with lens barrels such as frame A and frame B are constant regardless of the number of times the diaphragm is driven, but those with a diaphragm have a radius depending on the cumulative number of times the diaphragm is driven. May change. For example, when the aperture is repeatedly driven, the shaft that determines the aperture position is worn, and the radius at the time of aperture may change more than before the repeated drive. Therefore, only the frame B, which is a diaphragm, has a durability correction coefficient.

以上がレンズ情報の説明である。これらのレンズ情報は、ステップS3の光束規定枠決定に用いられ、更にその情報を用いて、ステップS4の線像作成や、ステップS7の光量補正が行われる。   The above is the description of the lens information. These pieces of lens information are used for determining the luminous flux defining frame in step S3, and further using the information, line image creation in step S4 and light amount correction in step S7 are performed.

次に、ステップS3の光束規定枠の決定について詳細に説明する。   Next, the determination of the luminous flux regulation frame in step S3 will be described in detail.

まず、ステップS1で読み出されたレンズ情報に含まれる光束規定情報から、現在の撮影条件のF値、ズームステート、測距点情報に対応する像高の枠情報(位置、半径、枠識別情報)を読み出す。次に、光束規定情報補正手段によって、製造誤差補正と耐久補正が行われる。   First, frame information (position, radius, frame identification information) of image height corresponding to the F value, zoom state, and distance measuring point information of the current shooting condition from the light flux defining information included in the lens information read out in step S1. ). Next, the manufacturing error correction and the durability correction are performed by the light beam regulation information correcting means.

製造誤差補正と耐久補正は、枠情報に含まれる枠識別情報に従って行われる。具体的には、補正後の枠の半径Rhは、補正前の枠の半径R、製造誤差Fer、耐久補正係数Uer、絞り駆動回数Ndを用いて、下記のように表される。   Manufacturing error correction and durability correction are performed in accordance with frame identification information included in the frame information. Specifically, the radius Rh of the frame after correction is expressed as follows using the radius R of the frame before correction, the manufacturing error Fer, the durability correction coefficient Uer, and the number of aperture driving times Nd.

Rh=R×Fer+(1+Nd×Uer)
このように、光束を規定する枠の半径について、製造誤差量を補正するので、より正確に光束を規定する枠を求めることができる。また、絞りの累積駆動回数に応じて枠の半径を変化させるので、絞りの駆動によって、枠の半径が変化しても、より正確に光束を規定する枠を求めることができる。
Rh = R × Fer + (1 + Nd × Uer)
As described above, since the manufacturing error amount is corrected for the radius of the frame that defines the light beam, the frame that defines the light beam can be obtained more accurately. In addition, since the radius of the frame is changed according to the cumulative number of times of driving the diaphragm, even if the radius of the frame is changed by driving the diaphragm, it is possible to obtain a frame that defines the light flux more accurately.

また、前述のとおり、実際の物としては一つの枠であっても、光束規定情報は、各像高ごとに異なる値を保有している。本実施形態では、枠情報が枠識別情報を保有するので、実際の物の製造誤差や耐久補正値が得られると、それを全ての光束規定情報に容易に反映することが可能となる。具体的には、光束規定情報として、像高によって異なる半径や位置を保有して一見異なる枠に見える情報も、枠識別情報を参照することで、同一の枠によって形成される枠は、全て同じ製造誤差情報を適用することが可能となる。また、或は、様々な枠によって規定されている光束規定情報の中から、絞りによって規定されている枠情報のみに、耐久補正をかけることが可能となる。   Further, as described above, the light flux defining information has a different value for each image height even if the actual object is one frame. In the present embodiment, since the frame information holds the frame identification information, if an actual manufacturing error or durability correction value is obtained, it can be easily reflected in all the light flux defining information. Specifically, as the luminous flux defining information, information that looks differently in a frame having different radii and positions depending on the image height is also referred to the frame identification information, so that all the frames formed by the same frame are the same. Manufacturing error information can be applied. In addition, it is possible to apply durability correction only to the frame information defined by the diaphragm from the light flux defining information defined by various frames.

また、撮像素子に近い位置にある枠の光束規定情報は、撮像素子から遠い位置にある枠の光束規定情報よりも精度が高いので、より少ないデータ量で、より精度良く補正を行うことができる。   Further, since the light flux defining information of the frame located near the image sensor is higher in accuracy than the light flux defining information of the frame located far from the image sensor, it can be corrected more accurately with a smaller amount of data. .

次に、ステップS5の基線長算出方法について詳細に説明する。   Next, the baseline length calculation method in step S5 will be described in detail.

まず、被写体像A像に対応した線像(以下、線像A)と被写体像B像に対応した線像(以下、線像B)の重心を合わせるように移動させる。移動させた線像A、線像Bをそれぞれ線像A0、線像B0とすると、線像Aに線像B0を畳み込み積分した修正線像Aと、線像Bに線像A0を畳み込み積分した修正線像Bの重心間隔により、修正基線長を算出する。これを式で表すと以下のようになる。   First, a line image corresponding to the subject image A (hereinafter referred to as line image A) and a line image corresponding to the subject image B image (hereinafter referred to as line image B) are moved so as to coincide with each other. Assuming that the moved line image A and line image B are the line image A0 and the line image B0, respectively, the line image A is convolved and integrated with the line image B0, and the line image B is convolved with the line image A0. The corrected baseline length is calculated from the center of gravity interval of the corrected line image B. This is expressed as follows.

修正線像Aを求める式は、修正線像AをMA(x)、線像AをLA(x)、線像B0をLB’(x)とすると、   The equation for calculating the corrected line image A is MA (x) for the corrected line image A, LA (x) for the line image A, and LB '(x) for the line image B0.

…(6)
よって、修正線像Aの重心をGA’とすると、
(6)
Therefore, if the center of gravity of the corrected line image A is GA ′,

…(7)
となる。
... (7)
It becomes.

同様に、修正線像Bを求める式は、修正線像BをMB(x)、線像BをLB(x)、線像A0をLA’(x)とすると、   Similarly, the equation for obtaining the corrected line image B is as follows. If the corrected line image B is MB (x), the line image B is LB (x), and the line image A0 is LA ′ (x),

…(8)
よって、修正線像Bの重心をGB’とすると、
... (8)
Therefore, if the center of gravity of the corrected line image B is GB ′,

…(9)
となる。
... (9)
It becomes.

よって、求める基線長をG’とすると、   Therefore, if the baseline length to be obtained is G ′,

…(10)
以上の計算により、基線長が算出される。
(10)
The baseline length is calculated by the above calculation.

以上のような構成により、レンズ枠や絞りなどの、光束を制限する部材によって生じるケラレをより精度良く修復することが可能になり、より精度良く焦点検出を行うことが可能となる。   With the configuration as described above, it is possible to repair vignetting caused by a member that restricts the light flux, such as a lens frame and a diaphragm, with higher accuracy, and it is possible to perform focus detection with higher accuracy.

詳細に説明すると、ステップS3において、光束を規定する枠の半径について、設計値に対して、製造誤差量を補正するので、より正確に光束を規定する枠を求めることができる。また、ステップS3において、絞りの累積駆動回数に応じて枠の半径を変化させるので、絞りの駆動によって、枠の半径が変化しても、より正確に光束を規定する枠を求めることができる。   More specifically, in step S3, the manufacturing error amount is corrected with respect to the design value for the radius of the frame that defines the luminous flux, so that the frame that defines the luminous flux can be obtained more accurately. In step S3, since the radius of the frame is changed according to the number of times the diaphragm is driven, even if the radius of the frame changes due to the driving of the aperture, a frame that defines the light flux more accurately can be obtained.

また、枠情報が枠識別情報を保有するので、実際の物の製造誤差や耐久補正情報を容易に光束規定情報に反映することができる。また、撮像素子に近い位置にある枠の光束規定情報は、撮像素子から遠い位置にある枠の光束規定情報よりも精度が高いので、より少ないデータ量で、より精度良く光束を規定する枠を求めることができる。   In addition, since the frame information holds the frame identification information, the actual manufacturing error and durability correction information can be easily reflected in the light flux defining information. In addition, since the light flux defining information of the frame located close to the image sensor is more accurate than the light flux defining information of the frame far from the image sensor, a frame that defines the light flux more accurately with a smaller amount of data. Can be sought.

なお、本実施形態では、相関演算に公知の像ズレ方式を用いたが、他の方法を用いたとしても同様の結果が得られる。   In this embodiment, a known image shift method is used for the correlation calculation, but the same result can be obtained even if another method is used.

また、本実施形態では光電変換手段としてC−MOSセンサとその周辺回路で構成された撮像素子を利用した焦点演算方法を例に説明したが、光電変換手段としてラインセンサを用いた従来の一眼レフカメラの瞳分割方式の焦点検出装置においても有効である。   Further, in this embodiment, the focus calculation method using an image sensor composed of a C-MOS sensor and its peripheral circuit as a photoelectric conversion means has been described as an example, but a conventional single-lens reflex camera using a line sensor as a photoelectric conversion means. It is also effective in a focus detection device of a camera pupil division type.

また、本実施形態では説明を分かりやすくするため、ある像高の撮像画素からは、最大2つの枠が同時に見えるモデルとして説明したが、実際は3つ以上の枠が同時に見えるモデルとして、枠3、枠4などの位置、半径、枠識別情報を保有しても良い。   Further, in the present embodiment, in order to make the explanation easy to understand, a model in which a maximum of two frames can be seen simultaneously from an imaging pixel having a certain image height has been described. The position, radius, and frame identification information of the frame 4 may be held.

また、本実施形態では説明を分かりやすくするため、レンズ光束を遮る枠は円であるとして、光束規定情報を位置と半径の2つのパラメータで表した。しかし、例えば、光束規定情報として、楕円や多角形を想定して、更に他のパラメータを持っても良い。   Further, in the present embodiment, for easy understanding of the description, it is assumed that the frame that blocks the lens luminous flux is a circle, and the luminous flux defining information is expressed by two parameters, position and radius. However, for example, as the luminous flux defining information, an ellipse or a polygon may be assumed and further parameters may be provided.

また、本実施形態では、撮像素子から遠い位置にある後枠Cに関しては、製造誤差情報を保有しないことで、データ量を削減したが、例えば、製造誤差情報を保有はしても、前枠Aに対しては精度を落として保有するなどの構成としても良い。   In the present embodiment, the rear frame C located far from the image sensor reduces the amount of data by not having manufacturing error information. For example, even if the manufacturing error information is held, the front frame A configuration may be adopted in which A is held with reduced accuracy.

また、本実施形態では、光束規定情報の補正の例として、製造誤差補正、耐久補正ともに、枠の半径を補正することを例に説明したが、枠位置を補正しても良い。   Further, in the present embodiment, as an example of correction of the luminous flux regulation information, the case where both the manufacturing error correction and the durability correction are corrected for the radius of the frame has been described as an example. However, the frame position may be corrected.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

Claims (14)

被写体像を結像させる結像光学系の第1の瞳領域を通過する光束を受光する第1の画素群と、前記結像光学系の第2の瞳領域を通過する光束を受光する第2の画素群とを有する撮像素子と、
前記結像光学系における該結像光学系を通過する光束の外縁を規定する枠の情報である枠情報と、前記枠の種類を識別する識別情報とを前記結像光学系から取得する取得手段と、
前記枠情報と前記識別情報とに基づいて前記第1の画素群からの信号と前記第2の画素群からの信号とを補正する補正手段と、
前記補正手段により補正された前記第1の画素群からの信号と前記第2の画素群からの信号とに基づいて、前記結像光学系の焦点状態を検出する焦点検出手段と、を備え
前記識別情報は、同一の枠をグループ化して識別するための情報であることを特徴とする撮像装置。
A first pixel group that receives a light beam that passes through a first pupil region of an imaging optical system that forms a subject image, and a second pixel that receives a light beam that passes through a second pupil region of the imaging optical system. An image sensor having a pixel group of
Acquisition means for acquiring from the imaging optical system frame information, which is information about a frame defining an outer edge of a light beam passing through the imaging optical system in the imaging optical system, and identification information for identifying the type of the frame When,
Correction means for correcting a signal from the first pixel group and a signal from the second pixel group based on the frame information and the identification information;
A focus detection unit that detects a focus state of the imaging optical system based on a signal from the first pixel group and a signal from the second pixel group corrected by the correction unit ;
The identification information, the image pickup apparatus, wherein information der Rukoto for identifying and grouping the same frame.
前記枠情報は、前記第1および第2の画素群の各画素から前記結像光学系を介して見た場合の、前記枠の位置と前記枠の形状と前記枠の大きさの情報を含むことを特徴とする請求項1に記載の撮像装置。   The frame information includes information on the position of the frame, the shape of the frame, and the size of the frame when viewed from each pixel of the first and second pixel groups through the imaging optical system. The imaging apparatus according to claim 1. 前記識別情報は、前記結像光学系に備えられた絞りの駆動回数によって前記枠情報が変化するか否かを識別するための情報であることを特徴とする請求項1または2に記載の撮像装置。 The identification information, the image pickup according to claim 1 or 2, characterized in that the number of times of driving of the aperture provided in the imaging optical system is information for identifying whether the frame information changes apparatus. 被写体像を結像させる結像光学系の第1の瞳領域を通過する光束を受光する第1の画素群と、前記結像光学系の第2の瞳領域を通過する光束を受光する第2の画素群とを有する撮像素子と、A first pixel group that receives a light beam that passes through a first pupil region of an imaging optical system that forms a subject image, and a second pixel that receives a light beam that passes through a second pupil region of the imaging optical system. An image sensor having a pixel group of
前記結像光学系における該結像光学系を通過する光束の外縁を規定する枠の情報である枠情報と、前記枠の種類を識別する識別情報とを前記結像光学系から取得する取得手段と、Acquisition means for acquiring from the imaging optical system frame information, which is information about a frame defining an outer edge of a light beam passing through the imaging optical system in the imaging optical system, and identification information for identifying the type of the frame When,
前記枠情報と前記識別情報とに基づいて前記第1の画素群からの信号と前記第2の画素群からの信号とを補正する補正手段と、Correction means for correcting a signal from the first pixel group and a signal from the second pixel group based on the frame information and the identification information;
前記補正手段により補正された前記第1の画素群からの信号と前記第2の画素群からの信号とに基づいて、前記結像光学系の焦点状態を検出する焦点検出手段と、を備え、A focus detection unit that detects a focus state of the imaging optical system based on a signal from the first pixel group and a signal from the second pixel group corrected by the correction unit;
前記識別情報は、前記結像光学系に備えられた絞りの駆動回数によって前記枠情報が変化するか否かを識別するための情報であることを特徴とする撮像装置。The imaging apparatus according to claim 1, wherein the identification information is information for identifying whether or not the frame information changes depending on a number of times of driving of a diaphragm provided in the imaging optical system.
前記枠情報は、前記第1および第2の画素群の各画素から前記結像光学系を介して見た場合の、前記枠の位置と前記枠の形状と前記枠の大きさの情報を含むことを特徴とする請求項4に記載の撮像装置。The frame information includes information on the position of the frame, the shape of the frame, and the size of the frame when viewed from each pixel of the first and second pixel groups through the imaging optical system. The imaging apparatus according to claim 4. 被写体像を結像させる結像光学系の第1の瞳領域を通過する光束を受光する第1の画素群と、前記結像光学系の第2の瞳領域を通過する光束を受光する第2の画素群とを有する撮像素子を備える撮像装置の制御方法であって、A first pixel group that receives a light beam that passes through a first pupil region of an imaging optical system that forms a subject image, and a second pixel that receives a light beam that passes through a second pupil region of the imaging optical system. A method for controlling an imaging apparatus including an imaging device having a pixel group of:
前記結像光学系における該結像光学系を通過する光束の外縁を規定する枠の情報である枠情報と、前記枠の種類を識別する識別情報とを前記結像光学系から取得する取得工程と、An acquisition step of acquiring from the imaging optical system frame information, which is information on a frame defining an outer edge of a light beam passing through the imaging optical system in the imaging optical system, and identification information for identifying the type of the frame. When,
前記枠情報と前記識別情報とに基づいて前記第1の画素群からの信号と前記第2の画素群からの信号とを補正する補正工程と、A correction step of correcting a signal from the first pixel group and a signal from the second pixel group based on the frame information and the identification information;
前記補正工程において補正された前記第1の画素群からの信号と前記第2の画素群からの信号とに基づいて、前記結像光学系の焦点状態を検出する焦点検出工程と、を有し、A focus detection step of detecting a focus state of the imaging optical system based on the signal from the first pixel group and the signal from the second pixel group corrected in the correction step. ,
前記識別情報は、同一の枠をグループ化して識別するための情報であることを特徴とする撮像装置の制御方法。The method of controlling an imaging apparatus, wherein the identification information is information for grouping and identifying the same frame.
被写体像を結像させる結像光学系の第1の瞳領域を通過する光束を受光する第1の画素群と、前記結像光学系の第2の瞳領域を通過する光束を受光する第2の画素群とを有する撮像素子を備える撮像装置の制御方法であって、A first pixel group that receives a light beam that passes through a first pupil region of an imaging optical system that forms a subject image, and a second pixel that receives a light beam that passes through a second pupil region of the imaging optical system. A method for controlling an imaging apparatus including an imaging device having a pixel group of:
前記結像光学系における該結像光学系を通過する光束の外縁を規定する枠の情報である枠情報と、前記枠の種類を識別する識別情報とを前記結像光学系から取得する取得工程と、An acquisition step of acquiring from the imaging optical system frame information, which is information on a frame defining an outer edge of a light beam passing through the imaging optical system in the imaging optical system, and identification information for identifying the type of the frame. When,
前記枠情報と前記識別情報とに基づいて前記第1の画素群からの信号と前記第2の画素群からの信号とを補正する補正工程と、A correction step of correcting a signal from the first pixel group and a signal from the second pixel group based on the frame information and the identification information;
前記補正工程において補正された前記第1の画素群からの信号と前記第2の画素群からの信号とに基づいて、前記結像光学系の焦点状態を検出する焦点検出工程と、を有し、A focus detection step of detecting a focus state of the imaging optical system based on the signal from the first pixel group and the signal from the second pixel group corrected in the correction step. ,
前記識別情報は、前記結像光学系に備えられた絞りの駆動回数によって前記枠情報が変化するか否かを識別するための情報であることを特徴とする撮像装置の制御方法。The method for controlling an imaging apparatus according to claim 1, wherein the identification information is information for identifying whether or not the frame information changes depending on a number of times of driving of a diaphragm provided in the imaging optical system.
被写体像を結像させるレンズ装置の第1の瞳領域を通過する光束を受光する第1の画素群と、前記レンズ装置の第2の瞳領域を通過する光束を受光する第2の画素群とを有する撮像素子と、A first pixel group that receives a light beam that passes through a first pupil region of a lens device that forms a subject image; and a second pixel group that receives a light beam that passes through a second pupil region of the lens device; An imaging device having:
前記レンズ装置における該レンズ装置を通過する光束の外縁を規定する枠の情報である枠情報と、前記枠の種類を識別する識別情報とを前記レンズ装置から取得する取得手段と、Acquisition means for acquiring, from the lens device, frame information that is information of a frame that defines an outer edge of a light beam that passes through the lens device in the lens device, and identification information that identifies the type of the frame;
前記枠情報と前記識別情報とに基づいて前記第1の画素群からの信号と前記第2の画素群からの信号とを補正する補正手段と、Correction means for correcting a signal from the first pixel group and a signal from the second pixel group based on the frame information and the identification information;
前記補正手段により補正された前記第1の画素群からの信号と前記第2の画素群からの信号とに基づいて、前記レンズ装置の焦点状態を検出する焦点検出手段と、を備える撮像装置に用いられる前記レンズ装置であって、A focus detection unit that detects a focus state of the lens device based on a signal from the first pixel group and a signal from the second pixel group corrected by the correction unit. The lens device used,
前記枠情報と、前記識別情報とを送信可能に格納しており、前記識別情報は、同一の枠をグループ化して識別するための情報であることを特徴とするレンズ装置。The lens apparatus, wherein the frame information and the identification information are stored so as to be transmittable, and the identification information is information for grouping and identifying the same frame.
前記枠情報は、前記第1および第2の画素群の各画素から前記レンズ装置を介して見た場合の、前記枠の位置と前記枠の形状と前記枠の大きさの情報を含むことを特徴とする請求項8に記載のレンズ装置。The frame information includes information on a position of the frame, a shape of the frame, and a size of the frame when viewed from each pixel of the first and second pixel groups through the lens device. The lens apparatus according to claim 8, characterized in that: 前記識別情報は、前記レンズ装置に備えられた絞りの駆動回数によって前記枠情報が変化するか否かを識別するための情報であることを特徴とする請求項8または9に記載のレンズ装置。The lens apparatus according to claim 8, wherein the identification information is information for identifying whether or not the frame information changes depending on a number of times of driving of a diaphragm provided in the lens apparatus. 被写体像を結像させるレンズ装置の第1の瞳領域を通過する光束を受光する第1の画素群と、前記レンズ装置の第2の瞳領域を通過する光束を受光する第2の画素群とを有する撮像素子と、A first pixel group that receives a light beam that passes through a first pupil region of a lens device that forms a subject image; and a second pixel group that receives a light beam that passes through a second pupil region of the lens device; An imaging device having:
前記レンズ装置における該レンズ装置を通過する光束の外縁を規定する枠の情報である枠情報と、前記枠の種類を識別する識別情報とを前記レンズ装置から取得する取得手段と、Acquisition means for acquiring, from the lens device, frame information that is information of a frame that defines an outer edge of a light beam that passes through the lens device in the lens device, and identification information that identifies the type of the frame;
前記枠情報と前記識別情報とに基づいて前記第1の画素群からの信号と前記第2の画素群からの信号とを補正する補正手段と、Correction means for correcting a signal from the first pixel group and a signal from the second pixel group based on the frame information and the identification information;
前記補正手段により補正された前記第1の画素群からの信号と前記第2の画素群からの信号とに基づいて、前記レンズ装置の焦点状態を検出する焦点検出手段と、を備える撮像装置に用いられる前記レンズ装置であって、A focus detection unit that detects a focus state of the lens device based on a signal from the first pixel group and a signal from the second pixel group corrected by the correction unit. The lens device used,
前記枠情報と、前記識別情報とを送信可能に格納しており、前記識別情報は、前記結像光学系に備えられた絞りの駆動回数によって前記枠情報が変化するか否かを識別するための情報であることを特徴とするレンズ装置。The frame information and the identification information are stored so as to be transmitted, and the identification information is used to identify whether or not the frame information changes depending on the number of times the diaphragm provided in the imaging optical system is driven. The lens apparatus characterized by the above-mentioned.
前記枠情報は、前記第1および第2の画素群の各画素から前記レンズ装置を介して見た場合の、前記枠の位置と前記枠の形状と前記枠の大きさの情報を含むことを特徴とする請求項11に記載のレンズ装置。The frame information includes information on a position of the frame, a shape of the frame, and a size of the frame when viewed from each pixel of the first and second pixel groups through the lens device. The lens apparatus according to claim 11, characterized in that: 被写体像を結像させるレンズ装置の第1の瞳領域を通過する光束を受光する第1の画素群と、前記レンズ装置の第2の瞳領域を通過する光束を受光する第2の画素群とを有する撮像素子と、A first pixel group that receives a light beam that passes through a first pupil region of a lens device that forms a subject image; and a second pixel group that receives a light beam that passes through a second pupil region of the lens device; An imaging device having:
前記レンズ装置における該レンズ装置を通過する光束の外縁を規定する枠の情報である枠情報と、前記枠の種類を識別する識別情報とを前記レンズ装置から取得する取得手段と、Acquisition means for acquiring, from the lens device, frame information that is information of a frame that defines an outer edge of a light beam that passes through the lens device in the lens device, and identification information that identifies the type of the frame;
前記枠情報と前記識別情報とに基づいて前記第1の画素群からの信号と前記第2の画素群からの信号とを補正する補正手段と、Correction means for correcting a signal from the first pixel group and a signal from the second pixel group based on the frame information and the identification information;
前記補正手段により補正された前記第1の画素群からの信号と前記第2の画素群からの信号とに基づいて、前記レンズ装置の焦点状態を検出する焦点検出手段と、を備える撮像装置に用いられる前記レンズ装置の制御方法であって、A focus detection unit that detects a focus state of the lens device based on a signal from the first pixel group and a signal from the second pixel group corrected by the correction unit. A method for controlling the lens device used, comprising:
前記枠情報と、前記識別情報とを送信可能に格納する工程を有し、前記識別情報は、同一の枠をグループ化して識別するための情報であることを特徴とするレンズ装置の制御方法。A method for controlling a lens apparatus, comprising: storing the frame information and the identification information in a transmittable manner, wherein the identification information is information for grouping and identifying the same frame.
被写体像を結像させるレンズ装置の第1の瞳領域を通過する光束を受光する第1の画素群と、前記レンズ装置の第2の瞳領域を通過する光束を受光する第2の画素群とを有する撮像素子と、A first pixel group that receives a light beam that passes through a first pupil region of a lens device that forms a subject image; and a second pixel group that receives a light beam that passes through a second pupil region of the lens device; An imaging device having:
前記レンズ装置における該レンズ装置を通過する光束の外縁を規定する枠の情報である枠情報と、前記枠の種類を識別する識別情報とを前記レンズ装置から取得する取得手段と、Acquisition means for acquiring, from the lens device, frame information that is information of a frame that defines an outer edge of a light beam that passes through the lens device in the lens device, and identification information that identifies the type of the frame;
前記枠情報と前記識別情報とに基づいて前記第1の画素群からの信号と前記第2の画素群からの信号とを補正する補正手段と、Correction means for correcting a signal from the first pixel group and a signal from the second pixel group based on the frame information and the identification information;
前記補正手段により補正された前記第1の画素群からの信号と前記第2の画素群からの信号とに基づいて、前記レンズ装置の焦点状態を検出する焦点検出手段と、を備える撮像装置に用いられる前記レンズ装置の制御方法であって、A focus detection unit that detects a focus state of the lens device based on a signal from the first pixel group and a signal from the second pixel group corrected by the correction unit. A method for controlling the lens device used, comprising:
前記枠情報と、前記識別情報とを送信可能に格納する工程を有し、前記識別情報は、前記結像光学系に備えられた絞りの駆動回数によって前記枠情報が変化するか否かを識別するための情報であることを特徴とするレンズ装置の制御方法。The frame information and the identification information are stored so as to be transmittable, and the identification information identifies whether the frame information changes depending on the number of times of driving of the diaphragm provided in the imaging optical system. The control method of the lens apparatus characterized by the above-mentioned.
JP2010267496A 2010-11-30 2010-11-30 Imaging device and control method thereof, lens device and control method thereof Expired - Fee Related JP5735784B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010267496A JP5735784B2 (en) 2010-11-30 2010-11-30 Imaging device and control method thereof, lens device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010267496A JP5735784B2 (en) 2010-11-30 2010-11-30 Imaging device and control method thereof, lens device and control method thereof

Publications (2)

Publication Number Publication Date
JP2012118269A JP2012118269A (en) 2012-06-21
JP5735784B2 true JP5735784B2 (en) 2015-06-17

Family

ID=46501166

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010267496A Expired - Fee Related JP5735784B2 (en) 2010-11-30 2010-11-30 Imaging device and control method thereof, lens device and control method thereof

Country Status (1)

Country Link
JP (1) JP5735784B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6288909B2 (en) * 2012-10-19 2018-03-07 キヤノン株式会社 Imaging device and imaging apparatus
JP6061655B2 (en) * 2012-12-04 2017-01-18 キヤノン株式会社 Imaging apparatus, control method therefor, and lens apparatus
JP6137316B2 (en) 2014-02-26 2017-05-31 パナソニックIpマネジメント株式会社 Depth position detection device, imaging device, and depth position detection method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007071905A (en) * 2005-09-02 2007-03-22 Canon Inc Imaging apparatus and method for controlling the imaging apparatus
JP4973273B2 (en) * 2007-03-28 2012-07-11 株式会社ニコン Digital camera
JP5159205B2 (en) * 2007-08-07 2013-03-06 キヤノン株式会社 Focus detection device and control method thereof
JP5089515B2 (en) * 2008-07-15 2012-12-05 キヤノン株式会社 Focus adjustment device, imaging device, interchangeable lens, conversion coefficient calibration method, conversion coefficient calibration program
JP5147645B2 (en) * 2008-10-30 2013-02-20 キヤノン株式会社 Imaging device
JP5237059B2 (en) * 2008-11-14 2013-07-17 キヤノン株式会社 Focus detection apparatus and method, and imaging apparatus
JP5302663B2 (en) * 2008-12-24 2013-10-02 キヤノン株式会社 Focus detection apparatus and method, and imaging apparatus

Also Published As

Publication number Publication date
JP2012118269A (en) 2012-06-21

Similar Documents

Publication Publication Date Title
JP5675157B2 (en) Focus detection device
JP5237059B2 (en) Focus detection apparatus and method, and imaging apparatus
JP5147645B2 (en) Imaging device
US9591246B2 (en) Image pickup apparatus with blur correcting function
JP5276374B2 (en) Focus detection device
JP5552214B2 (en) Focus detection device
JP5322561B2 (en) Imaging apparatus and control method thereof
JP5028154B2 (en) Imaging apparatus and control method thereof
JP5455397B2 (en) Optical equipment
US8149324B2 (en) Phase difference detection device, imaging apparatus, phase difference detection method
JP5489641B2 (en) Focus detection apparatus and control method thereof
US8159599B2 (en) Focus detection apparatus, focus detection method, and image sensing apparatus
JP5746496B2 (en) Imaging device
JP5898481B2 (en) Imaging apparatus and focus detection method
JP5164707B2 (en) Phase difference detection apparatus, imaging apparatus, signal level correction method for phase difference detection apparatus, and signal level correction program
JP2011029932A (en) Imaging element and imaging apparatus
JP2012220790A (en) Imaging apparatus
JP5735784B2 (en) Imaging device and control method thereof, lens device and control method thereof
JP2011227388A (en) Imaging device
JP5793210B2 (en) Imaging device
JP2017169012A (en) Image processing device, control method of image processing device, and imaging apparatus
JP2014013392A (en) Imaging apparatus and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141010

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150417

R151 Written notification of patent or utility model registration

Ref document number: 5735784

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees