JP2014186338A - Imaging apparatus, imaging system, and method for controlling imaging apparatus - Google Patents

Imaging apparatus, imaging system, and method for controlling imaging apparatus Download PDF

Info

Publication number
JP2014186338A
JP2014186338A JP2014101762A JP2014101762A JP2014186338A JP 2014186338 A JP2014186338 A JP 2014186338A JP 2014101762 A JP2014101762 A JP 2014101762A JP 2014101762 A JP2014101762 A JP 2014101762A JP 2014186338 A JP2014186338 A JP 2014186338A
Authority
JP
Japan
Prior art keywords
focus detection
image
exit pupil
pixel
pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014101762A
Other languages
Japanese (ja)
Other versions
JP5968359B2 (en
Inventor
Akira Yamazaki
亮 山▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014101762A priority Critical patent/JP5968359B2/en
Publication of JP2014186338A publication Critical patent/JP2014186338A/en
Application granted granted Critical
Publication of JP5968359B2 publication Critical patent/JP5968359B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To accurately perform focus detection, even if there is vignetting of a focus detection luminous flux due to manufacture errors in focus detection by a phase difference system.SOLUTION: An imaging apparatus comprises: an imaging device (107) comprising a plurality of focus detecting pixel pairs for outputting an image signal pair by respectively photoelectric converting a luminous flux pair passing through different areas of a taking lens (TL); a flash memory (133) for storing center axis misalignment information of the focus detecting pixel pair, relative to an optical axis of the taking lens; a correction part (170) for correcting a signal level of the image signal pair so as to compensate for imbalance in quantity of light incident on each of the focus detecting pixel pair, on the basis of the center axis misalignment information and exit pupil information of the taking lens; and focus detection means (171) for performing focus detection of the taking lens, by using the image signal pair corrected by the correction part.

Description

本発明は、撮像装置、撮像システム、及び焦点検出方法に関し、更に詳しくは、デジタルスチルカメラ、ビデオカメラ、銀塩カメラなどの撮像装置、撮像システム、及び焦点検出方法に関する。   The present invention relates to an imaging apparatus, an imaging system, and a focus detection method, and more particularly to an imaging apparatus such as a digital still camera, a video camera, and a silver salt camera, an imaging system, and a focus detection method.

撮像装置の焦点検出、調節方法で撮影レンズを通過した光束を用いる一般的な方式として、コントラスト検出方式と位相差検出方式とがある。コントラスト検出方式はビデオカメラやデジタルスチルカメラで多く用いられる方式であり、撮像素子が焦点検出用センサとして用いられるものである。撮像素子の出力信号、特に高周波成分の情報(コントラスト情報)に着目し、その評価値が最も大きくなる撮影レンズの位置を合焦位置とする方式である。しかしながら、山登り方式とも言われるように、撮影レンズを微少量動かしながら評価値を求め、その評価値が結果的に最大であったとわかるまで動かす事が必要であるため、高速な焦点調節動作には不向きとされている。   There are a contrast detection method and a phase difference detection method as a general method using a light beam that has passed through a photographing lens in a focus detection and adjustment method of an imaging apparatus. The contrast detection method is a method often used in video cameras and digital still cameras, and an image sensor is used as a focus detection sensor. Focusing on the output signal of the image sensor, particularly information on high-frequency components (contrast information), the position of the photographing lens with the largest evaluation value is used as the in-focus position. However, as it is said to be a hill-climbing method, it is necessary to obtain an evaluation value while moving the photographic lens by a small amount and move it until it is understood that the evaluation value is the maximum as a result. It is considered unsuitable.

一方、位相差検出方式は、銀塩フィルムによる一眼レフカメラに多く用いられ、自動焦点検出(Auto Focus:AF)一眼レフカメラの実用化に最も貢献した技術である。位相差検出方式では、撮影レンズの射出瞳を通過した光束を2分割し、2分割した光束を一組の焦点検出用センサによりそれぞれ受光する。そして、その受光量に応じて出力される信号のずれ量、すなわち、光束の分割方向の相対的位置ずれ量を検出することで撮影レンズのピント方向のずれ量を直接求めるものである。従って、焦点検出用センサにより一度蓄積動作を行えばピントずれの量と方向が得られるため、高速な焦点調節動作が可能となっている。   On the other hand, the phase difference detection method is often used in a single-lens reflex camera using a silver salt film, and is the technology that has contributed most to the practical application of an auto focus (AF) single-lens reflex camera. In the phase difference detection method, the light beam that has passed through the exit pupil of the photographing lens is divided into two, and the two divided light beams are received by a set of focus detection sensors. Then, the amount of deviation of the photographic lens in the focus direction is directly obtained by detecting the amount of deviation of the output signal according to the amount of received light, that is, the amount of relative positional deviation in the light beam splitting direction. Therefore, once the accumulation operation is performed by the focus detection sensor, the amount and direction of the focus shift can be obtained, and thus a high-speed focus adjustment operation is possible.

そして、2分割されたそれぞれの光束に対応する信号を得るために、撮像光路中にクイックリターン機構からなるハーフミラーや反射ミラー等の光路分割機構を設け、その先に焦点検出用光学系とAFセンサを設けるのが一般的である。   Then, in order to obtain a signal corresponding to each of the light beams divided into two, an optical path splitting mechanism such as a half mirror or a reflecting mirror consisting of a quick return mechanism is provided in the imaging optical path, and a focus detection optical system and an AF are provided beyond that. It is common to provide a sensor.

ところで、この位相差検出方式による焦点検出を行うためには、上記2分割した光束が撮影レンズの射出瞳や像高変化、ズーム位置変化によるビネッティング(口径食)などによりケラレないよう焦点検出光学系を設定する必要がある。特に、射出瞳位置や径、さらにはビネッティングがそれぞれ異なる複数の撮影レンズを装着可能なカメラシステムにおいては、ケラレないよう焦点検出を行うには制約が多い。そのため、広範囲に焦点検出領域を設定できない、2分割する光束の基線長拡大による高精度化ができない、などの問題がある。   By the way, in order to perform focus detection by this phase difference detection method, focus detection optics is used so that the above-described two-divided light beams are not vignetted due to vignetting (vignetting) due to changes in the exit pupil, image height, and zoom position of the photographing lens. It is necessary to set the system. In particular, in a camera system in which a plurality of photographing lenses having different exit pupil positions and diameters and vignettings can be mounted, there are many restrictions on performing focus detection so as not to cause vignetting. For this reason, there is a problem that the focus detection area cannot be set in a wide range, and the accuracy cannot be improved by expanding the base length of the light beam divided into two.

そこで、特許文献1では、焦点検出光束のケラレによる焦点検出用信号の光量低下を撮影レンズの射出瞳等の情報から補正して焦点検出を行う例が開示されている。この例によれば、多少のケラレがあっても位相差方式の焦点検出を行うことができるため、広範囲での焦点検出、基線長拡大による高精度な焦点検出を行うことができる。   Therefore, Patent Document 1 discloses an example in which focus detection is performed by correcting a decrease in light amount of a focus detection signal due to vignetting of a focus detection light beam from information such as an exit pupil of a photographing lens. According to this example, since the phase difference type focus detection can be performed even if there is some vignetting, it is possible to perform focus detection in a wide range and highly accurate focus detection by expanding the base line length.

また近年、撮像素子に位相差検出機能を付与し、専用のAFセンサを不要とし、かつ高速の位相差AFを実現するための技術も開示されている。   In recent years, a technique for providing a phase difference detection function to an image sensor, eliminating the need for a dedicated AF sensor, and realizing high-speed phase difference AF has also been disclosed.

例えば、特許文献2では、撮像素子の一部の受光素子(画素)において、オンチップマイクロレンズの光軸に対して受光部の感度領域を偏心させることで瞳分割機能を付与している。そしてこれらの画素を焦点検出用画素とし、撮像用画素群の間に所定の間隔で配置することで、位相差式焦点検出を行う。また、焦点検出用画素が配置された箇所は撮像画素の欠損部に相当するため、周辺の撮像画素情報から補間して画像情報を生成している。この例によると撮像面で位相差方式の焦点検出を行うことが可能なため、高速かつ高精度な焦点検出を行うことができる。   For example, in Patent Document 2, in some of the light receiving elements (pixels) of the image sensor, the pupil division function is given by decentering the sensitivity region of the light receiving unit with respect to the optical axis of the on-chip microlens. These pixels are used as focus detection pixels, and are arranged at predetermined intervals between the imaging pixel groups, thereby performing phase difference focus detection. Further, since the location where the focus detection pixels are arranged corresponds to a defective portion of the imaging pixel, image information is generated by interpolation from surrounding imaging pixel information. According to this example, since it is possible to perform phase difference type focus detection on the imaging surface, high-speed and high-precision focus detection can be performed.

特開平03−214133号公報Japanese Patent Laid-Open No. 03-214133 特開2000−156823号公報JP 2000-156823 A

しかしながら、特許文献1及び2には以下のような課題がある。
特許文献1では、撮影レンズのケラレによる焦点検出用信号の光量低下補正は撮影レンズ側の情報をもとに行っている。しかしながら、ケラレ具合は撮影レンズ側のみならず、カメラ側の製造誤差によっても左右される。特に、一眼レフカメラは、焦点検出用光学系に複雑な光路変換および光路分離を行っているため、これによる製造誤差は大きい。したがって、撮影レンズ側の情報のみで光量低下補正を行っても焦点検出結果に誤差が生じてしまう。
However, Patent Documents 1 and 2 have the following problems.
In Patent Document 1, correction of light amount reduction of a focus detection signal due to vignetting of a photographing lens is performed based on information on the photographing lens side. However, the degree of vignetting depends not only on the taking lens side but also on manufacturing errors on the camera side. In particular, since a single-lens reflex camera performs complicated optical path conversion and optical path separation in a focus detection optical system, a manufacturing error due to this is large. Therefore, even if the light amount reduction correction is performed only with information on the photographing lens side, an error occurs in the focus detection result.

特許文献2では、オンチップマイクロレンズと受光部の相対位置関係により瞳分割を行うため、オンチップマイクロレンズの製造誤差により瞳分割が大きくずれてしまうという問題がある。オンチップマイクロレンズによる瞳分割は、マイクロレンズに対して数ミクロン深さにある受光部を数十〜数百ミリの先の撮影レンズ射出瞳位置に逆投影しているため、その結像倍率は非常に大きくなる。したがって、わずかなオンチップマイクロレンズの製造誤差が大きなずれとなってしまうため、焦点検出光束に大きなケラレが生じて焦点検出できなくなってしまう。   In Patent Document 2, since pupil division is performed based on the relative positional relationship between the on-chip microlens and the light receiving unit, there is a problem that the pupil division is greatly shifted due to a manufacturing error of the on-chip microlens. In the pupil division by the on-chip microlens, the light receiving part at a depth of several microns with respect to the microlens is back projected onto the exit pupil position of the taking lens several tens to several hundreds of millimeters, so the imaging magnification is Become very large. Therefore, since a slight manufacturing error of the on-chip microlens becomes a large deviation, a large amount of vignetting occurs in the focus detection light beam, and the focus cannot be detected.

本発明は上記問題点を鑑みてなされたものであり、位相差方式の焦点検出において、製造誤差による焦点検出光束のケラレがあっても高精度に焦点検出を行うことを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to perform focus detection with high accuracy even when there is vignetting of a focus detection light beam due to a manufacturing error in focus detection using a phase difference method.

上記目的を達成するために、本発明の撮像装置は、撮影レンズの異なる領域を通過する対の光束をそれぞれ光電変換して画像信号対を出力する複数の焦点検出用画素対を含み、各画素に対応したマイクロレンズがそれぞれ形成された撮像素子と、前記マイクロレンズの形成時のアライメント誤差を含む製造誤差に関する中心軸ずれ情報を記憶する記憶手段と、前記撮影レンズの射出瞳を介して前記焦点検出用画素対のそれぞれに入射する光量のアンバランスを補償するように、前記製造誤差が無い場合に像高に応じて変化する前記光量の比を示す関数を前記中心軸ずれ情報に基づいて変更し、該変更した関数と前記焦点検出用画素対の像高とに応じて前記画像信号対の信号レベルを補正する補正手段と、前記補正手段により補正された前記画像信号対を用いて、前記撮影レンズの焦点検出を行う焦点検出手段とを備える。   In order to achieve the above object, an imaging apparatus according to the present invention includes a plurality of focus detection pixel pairs that photoelectrically convert pairs of light beams that pass through different regions of a photographing lens and output image signal pairs. Imaging devices each having a microlens corresponding to the above, a storage means for storing center axis deviation information relating to a manufacturing error including an alignment error at the time of forming the microlens, and the focus through the exit pupil of the photographing lens A function indicating the ratio of the amount of light that changes in accordance with the image height when there is no manufacturing error is changed based on the center axis deviation information so as to compensate for an unbalance of the amount of light incident on each detection pixel pair. Correction means for correcting the signal level of the image signal pair in accordance with the changed function and the image height of the focus detection pixel pair, and the image corrected by the correction means. Using the signal to, and a focus detection means for performing focus detection of the photographing lens.

また、本発明の撮像システムは、上記撮像装置と、前記撮像装置に着脱可能なレンズユニットとを有し、前記撮像装置に前記中心軸ずれ情報を格納し、前記レンズユニットに前記射出瞳に関する情報を格納し、前記レンズユニットから前記撮像装置へ前記射出瞳に関する情報を送信する。   The imaging system of the present invention includes the imaging device and a lens unit that can be attached to and detached from the imaging device, stores the central axis deviation information in the imaging device, and information on the exit pupil in the lens unit. And information on the exit pupil is transmitted from the lens unit to the imaging device.

また、撮像装置における本発明の焦点検出方法は、出力手段が、撮像素子に含まれる複数の焦点検出用画素対により、撮影レンズの異なる領域を通過する対の光束をそれぞれ光電変換して画像信号対を出力する出力工程と、取得手段が、前記撮像素子の各画素に対応して形成されたマイクロレンズの形成時のアライメント誤差を含む製造誤差に関する中心軸ずれ情報を取得する取得工程と、補正手段が、前記撮影レンズの射出瞳を介して前記焦点検出用画素対のそれぞれに入射する光量のアンバランスを補償するように、前記製造誤差が無い場合に像高に応じて変化する前記光量の比を示す関数を、前記中心軸ずれ情報に基づいて変更し、該変更した関数と前記焦点検出用画素対の像高とに応じて前記画像信号対の信号レベルを補正する補正工程と、焦点検出手段が、前記補正工程で補正された前記画像信号対を用いて、前記撮影レンズの焦点検出を行う焦点検出工程とを備える。   Further, in the focus detection method of the present invention in the image pickup apparatus, the output means photoelectrically converts a pair of light fluxes passing through different regions of the photographing lens by a plurality of focus detection pixel pairs included in the image pickup device, respectively, to generate an image signal. An output step of outputting a pair; an acquisition unit that acquires center axis deviation information relating to a manufacturing error including an alignment error when forming a microlens formed corresponding to each pixel of the image sensor; and a correction Means for compensating for an unbalance of the amount of light incident on each of the focus detection pixel pairs via the exit pupil of the photographing lens, so that the amount of light that changes according to the image height when there is no manufacturing error. A function that changes the function indicating the ratio based on the center axis deviation information, and corrects the signal level of the image signal pair according to the changed function and the image height of the focus detection pixel pair. Comprising a degree, the focus detection means, using the image signal to which has been corrected by said correction step, and a focus detection step of performing focus detection of the photographing lens.

本発明によれば、位相差方式の焦点検出において、製造誤差による焦点検出光束のケラレがあっても高精度に焦点検出を行うことができる。   According to the present invention, focus detection can be performed with high accuracy even when there is vignetting of a focus detection light beam due to manufacturing errors in phase difference type focus detection.

本発明の第1の実施形態におけるカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the camera in the 1st Embodiment of this invention. 本発明の第1の実施形態における撮像素子の受光画素を撮影レンズ側からみた平面図である。It is the top view which looked at the light reception pixel of the image sensor in the 1st Embodiment of this invention from the imaging lens side. 本発明の第1の実施形態における撮像用画素の構造を説明する図である。It is a figure explaining the structure of the pixel for imaging in the 1st Embodiment of this invention. 本発明の第1の実施形態における焦点検出用画素の構造を説明する図である。It is a figure explaining the structure of the pixel for focus detection in the 1st Embodiment of this invention. 本発明の第1の実施形態における撮像素子の周辺部の焦点検出用画素の構造を説明する図である。It is a figure explaining the structure of the pixel for a focus detection of the peripheral part of the image pick-up element in the 1st Embodiment of this invention. 本発明の第1の実施形態における撮影レンズの垂直方向に瞳分割を行う焦点検出用画素の構造を説明する図である。It is a figure explaining the structure of the pixel for a focus detection which performs pupil division in the orthogonal | vertical direction of the imaging lens in the 1st Embodiment of this invention. 本発明の第1の実施形態における焦点検出構成を概略的に示す図である。It is a figure which shows schematically the focus detection structure in the 1st Embodiment of this invention. 本発明の第1の実施形態における焦点検出用信号を示す図である。It is a figure which shows the signal for focus detection in the 1st Embodiment of this invention. 本発明の第1の実施形態における焦点検出用画素による瞳分割機能を概念的に説明する図である。It is a figure which illustrates notionally the pupil division function by the pixel for a focus detection in the 1st Embodiment of this invention. レイヤー層構造のCMOSセンサチップを模式的に表す図である。It is a figure which represents typically the CMOS sensor chip of a layer layer structure. 図4の構造においてマイクロレンズのアライメント誤差が発生した場合を示す図である。FIG. 5 is a diagram showing a case where an alignment error of a microlens occurs in the structure of FIG. 図5の構造においてマイクロレンズのアライメント誤差が発生した場合を示す図である。It is a figure which shows the case where the alignment error of a micro lens has generate | occur | produced in the structure of FIG. マイクロレンズのアライメント誤差が発生した場合の射出瞳を撮像素子側から見た図である。It is the figure which looked at the exit pupil when the alignment error of a micro lens occurred from the image sensor side. マイクロレンズのアライメント誤差が発生した場合の射出瞳を撮像素子側から見た図である。It is the figure which looked at the exit pupil when the alignment error of a micro lens occurred from the image sensor side. 入射瞳と射出瞳との関係を示す図である。It is a figure which shows the relationship between an entrance pupil and an exit pupil. 撮像素子とその像高における射出瞳形状を対応付けた図である。It is the figure which matched the exit pupil shape in an image sensor and its image height. 本発明の第1の実施形態における焦点検出用信号を補正するための構成を示すブロック図である。It is a block diagram which shows the structure for correct | amending the signal for focus detection in the 1st Embodiment of this invention. 本発明の第1の実施形態における焦点検出用信号の補正手順を示すフローチャートである。It is a flowchart which shows the correction | amendment procedure of the signal for focus detection in the 1st Embodiment of this invention. 焦点検出画素の像高hと光量比Cの関係を示すグラフである。It is a graph which shows the relationship between the image height h of a focus detection pixel, and the light quantity ratio C. 本発明の第2の実施形態における焦点検出用画素の構造を説明する図である。It is a figure explaining the structure of the pixel for focus detection in the 2nd Embodiment of this invention. 本発明の第2の実施形態における射出瞳を撮像素子側から見た図である。It is the figure which looked at the exit pupil in the 2nd Embodiment of this invention from the image pick-up element side. 本発明の第3の実施形態におけるカメラシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the camera system in the 3rd Embodiment of this invention. 本発明の第3の実施形態における焦点検出用信号を補正するための構成を示すブロック図である。It is a block diagram which shows the structure for correct | amending the signal for focus detection in the 3rd Embodiment of this invention. 本発明の第4の実施形態におけるカメラシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the camera system in the 4th Embodiment of this invention. 本発明の第4の実施形態における焦点検出部と各種交換レンズの射出瞳の関係を示す概念図である。It is a conceptual diagram which shows the relationship between the focus detection part in the 4th Embodiment of this invention, and the exit pupil of various interchangeable lenses.

以下、添付図面を参照して本発明を実施するための最良の形態を詳細に説明する。   The best mode for carrying out the present invention will be described below in detail with reference to the accompanying drawings.

<第1の実施形態>
図1は本発明の第1の実施形態に係るカメラの構成を示すブロック図であり、一例として、撮像素子を有するカメラ本体と撮影レンズ100が一体構成されたデジタルスチルカメラを示している。
<First Embodiment>
FIG. 1 is a block diagram showing a configuration of a camera according to the first embodiment of the present invention. As an example, a digital still camera in which a camera body having an image sensor and a photographing lens 100 are integrally configured is shown.

同図において、Lは撮影レンズ100の光軸、101は撮影レンズ100の先端に配置された第1レンズ群であり、光軸方向に進退可能に保持される。102は絞り兼用シャッタであり、その開口径を調節することで撮影時の光量調節を行うほか、静止画撮影時には露光秒時を調節する機能も備える。103は第2レンズ群である。そして、絞り兼用シャッタ102及び第2レンズ群103は一体となって光軸方向に進退し、第1レンズ群101の進退動作との連動により、変倍作用(ズーム機能)をなす。   In the figure, L is an optical axis of the taking lens 100, and 101 is a first lens group disposed at the tip of the taking lens 100, and is held so as to be able to advance and retreat in the optical axis direction. Reference numeral 102 denotes an aperture / shutter which adjusts the light amount during shooting by adjusting the aperture diameter, and also has a function of adjusting the exposure time during still image shooting. Reference numeral 103 denotes a second lens group. The aperture / shutter 102 and the second lens group 103 integrally move forward and backward in the optical axis direction, and perform a zooming function (zoom function) in conjunction with the forward and backward movement of the first lens group 101.

105は第3レンズ群であり、光軸方向の進退により、焦点調節を行う。106は光学的ローパスフィルタであり、撮影画像の偽色やモアレを軽減するための光学素子である。107はCMOSイメージセンサとその周辺回路で構成された撮像素子である。この撮像素子107では、横方向m画素、縦方向n画素の受光画素上に、ベイヤー配列の原色カラーフィルタがオンチップで形成されている。   Reference numeral 105 denotes a third lens group, which performs focus adjustment by moving back and forth in the optical axis direction. Reference numeral 106 denotes an optical low-pass filter, which is an optical element for reducing false colors and moire in a captured image. Reference numeral 107 denotes an image sensor composed of a CMOS image sensor and its peripheral circuits. In this image sensor 107, a Bayer array primary color filter is formed on-chip on light receiving pixels of m pixels in the horizontal direction and n pixels in the vertical direction.

111はズームアクチュエータであり、不図示のカム筒を回動することで、第1レンズ群101〜第2レンズ群103を光軸方向に進退駆動し、変倍操作を行う。112は絞りシャッタアクチュエータであり、絞り兼用シャッタ102の開口径を制御して撮影光量を調節すると共に、静止画撮影時の露光時間制御を行う。114はフォーカスアクチュエータであり、第3レンズ群105を光軸方向に進退駆動して焦点調節を行う。   Reference numeral 111 denotes a zoom actuator, which rotates a cam cylinder (not shown) to drive the first lens group 101 to the second lens group 103 back and forth in the optical axis direction to perform a zooming operation. Reference numeral 112 denotes an aperture shutter actuator that controls the aperture diameter of the aperture / shutter 102 to adjust the amount of photographing light, and controls the exposure time during still image photographing. Reference numeral 114 denotes a focus actuator, which performs focus adjustment by driving the third lens group 105 back and forth in the optical axis direction.

115は撮影時の被写体照明用電子フラッシュであり、キセノン管を用いた閃光照明装置が好適であるが、連続発光するLEDを備えた照明装置を用いても良い。116はAF補助光発光部であり、所定の開口パターンを有したマスクの像を、投光レンズを介して被写界に投影し、暗い被写体や低コントラスト被写体に対する焦点検出能力を向上させる。   Reference numeral 115 denotes an electronic flash for illuminating a subject at the time of photographing, and a flash illumination device using a xenon tube is suitable, but an illumination device including an LED that emits light continuously may be used. Reference numeral 116 denotes an AF auxiliary light emitting unit that projects an image of a mask having a predetermined opening pattern onto a subject field via a light projecting lens, and improves focus detection capability for a dark subject or a low-contrast subject.

121はCPUであり、撮像装置内でカメラ本体の種々の制御を司る。CPU121は、例えば、演算部、ROM、RAM、A/Dコンバータ、D/Aコンバータ、通信インターフェイス回路等を有する。そして、CPU121は、ROMに記憶された所定のプログラムに基づいて、撮像装置が有する各種回路を駆動し、AF、撮影、画像処理、及び記録等の一連の動作を実行する。   Reference numeral 121 denotes a CPU which controls various controls of the camera body in the imaging apparatus. The CPU 121 includes, for example, a calculation unit, ROM, RAM, A / D converter, D / A converter, communication interface circuit, and the like. Then, the CPU 121 drives various circuits included in the imaging device based on a predetermined program stored in the ROM, and executes a series of operations such as AF, shooting, image processing, and recording.

122は電子フラッシュ制御回路であり、撮影動作に同期して電子フラッシュ115を点灯制御する。123は補助光駆動回路であり、焦点検出動作に同期してAF補助光発光部116を点灯制御する。124は撮像素子駆動回路であり、撮像素子107の撮像動作を制御すると共に、取得した画像信号をA/D変換してCPU121に送信する。125は画像処理回路であり、撮像素子107が取得した画像のγ変換、カラー補間、JPEG圧縮等の処理を行う。   An electronic flash control circuit 122 controls lighting of the electronic flash 115 in synchronization with the photographing operation. Reference numeral 123 denotes an auxiliary light driving circuit that controls the lighting of the AF auxiliary light emitting unit 116 in synchronization with the focus detection operation. Reference numeral 124 denotes an image sensor driving circuit that controls the imaging operation of the image sensor 107 and A / D-converts the acquired image signal and transmits it to the CPU 121. An image processing circuit 125 performs processing such as γ conversion, color interpolation, and JPEG compression of an image acquired by the image sensor 107.

126はフォーカス駆動回路であり、焦点検出結果に基づいてフォーカスアクチュエータ114を駆動制御し、第3レンズ群105を光軸方向に進退駆動して焦点調節を行う。128は絞りシャッタ駆動回路であり、絞りシャッタアクチュエータ112を駆動制御して絞り兼用シャッタ102の開口を制御する。129はズーム駆動回路であり、撮影者のズーム操作に応じてズームアクチュエータ111を駆動する。   A focus driving circuit 126 controls the focus actuator 114 based on the focus detection result, and performs focus adjustment by driving the third lens group 105 back and forth in the optical axis direction. Reference numeral 128 denotes an aperture shutter drive circuit which controls the aperture shutter actuator 112 to control the aperture of the aperture / shutter 102. Reference numeral 129 denotes a zoom drive circuit that drives the zoom actuator 111 in accordance with the zoom operation of the photographer.

131はLCD等の表示器であり、撮像装置の撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、焦点検出時の合焦状態表示画像等を表示する。132は操作スイッチ群であり、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等で構成される。133は着脱可能なフラッシュメモリであり、撮影済み画像を記録する。   Reference numeral 131 denotes a display such as an LCD, which displays information related to the shooting mode of the imaging apparatus, a preview image before shooting and a confirmation image after shooting, a focus state display image at the time of focus detection, and the like. An operation switch group 132 includes a power switch, a release (shooting trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like. Reference numeral 133 denotes a detachable flash memory that records a photographed image.

図2は、図1の撮像素子107において、被写体像が形成される受光画素を撮影レンズ100側からみた平面図である。20は撮像素子107上に横方向m画素、縦方向n画素で形成される画素全体を、21はそのうちの1つの画素部を示す。そして各画素部にはオンチップでベイヤー配列の原色カラーフィルタが形成され、2行×2列の4画素周期で並んでいる。なお、図2においては図を見やすくするために、左上側の10画素×10画素の画素部のみを表示し、その他の画素部は省略している。   FIG. 2 is a plan view of a light receiving pixel on which a subject image is formed in the image sensor 107 of FIG. Reference numeral 20 denotes an entire pixel formed of m pixels in the horizontal direction and n pixels in the vertical direction on the image sensor 107, and 21 denotes a pixel portion thereof. In each pixel portion, an on-chip Bayer array primary color filter is formed and arranged in a 4-pixel cycle of 2 rows × 2 columns. In FIG. 2, only the pixel portion of 10 pixels × 10 pixels on the upper left side is displayed and the other pixel portions are omitted for easy understanding of the drawing.

図3及び図4は、図2における画素部のうち撮像用画素と焦点検出用画素の構造を説明する図である。第1の実施形態においては、2行×2列の4画素のうち、対角2画素にG(緑色)の分光感度を有する画素を配置し、他の2画素にR(赤色)とB(青色)の分光感度を有する画素を各1個配置した、ベイヤー配列が採用されている。そして、このベイヤー配列の間に、後述する構造の焦点検出用画素が配置される。   3 and 4 are diagrams illustrating the structure of the imaging pixel and the focus detection pixel in the pixel portion in FIG. In the first embodiment, out of 4 pixels of 2 rows × 2 columns, pixels having G (green) spectral sensitivity are arranged in 2 diagonal pixels, and R (red) and B ( A Bayer arrangement in which one pixel each having a spectral sensitivity of (blue) is arranged is employed. A focus detection pixel having a structure to be described later is arranged between the Bayer arrays.

図3に撮像用画素の配置と構造を示す。図3(a)は2行×2列の撮像用画素の平面図である。図3(a)におけるA−A断面図を図3(b)に示す。MLは各画素の最前面に配置されたオンチップマイクロレンズ、CFはR(赤色)のカラーフィルタ、CFはG(緑色)のカラーフィルタである。PD(Photo Diode)は撮像素子107の光電変換素子を模式的に示したものである。CL(Contact Layer)は、撮像素子107内の各種信号を伝達する信号線を形成するための配線層である。TL(Taking Lens)は撮影レンズ100を模式的に示したもの、Lは撮影レンズTLの光軸である。なお、図3は撮像素子107の内、中心付近の画素、すなわち撮影レンズTLの軸上付近の画素構造を示す図である。 FIG. 3 shows the arrangement and structure of the imaging pixels. FIG. 3A is a plan view of 2 × 2 imaging pixels. FIG. 3B is a cross-sectional view taken along the line AA in FIG. ML denotes an on-chip microlens arranged in front of each pixel, CF R is a color filter, CF G of R (red), a G (green) color filter. PD (Photo Diode) schematically shows a photoelectric conversion element of the image sensor 107. CL (Contact Layer) is a wiring layer for forming signal lines for transmitting various signals in the image sensor 107. TL (Taking Lens) schematically shows the photographing lens 100, and L is an optical axis of the photographing lens TL. FIG. 3 is a diagram showing a pixel structure in the vicinity of the center of the image sensor 107, that is, a pixel structure in the vicinity of the photographing lens TL.

ここで、撮像用画素のオンチップマイクロレンズMLと光電変換素子PDは、撮影レンズTLを通過した光束を可能な限り有効に取り込むように構成されている。換言すると、撮影レンズTLの射出瞳EP(Exit Pupil)と光電変換素子PDは、マイクロレンズMLにより共役関係にあり、かつ光電変換素子の有効面積は大面積に設計される。光束30はその様子を示し、射出瞳EPの全領域が光電変換素子PDに取り込まれている。なお、図3(b)ではR画素の入射光束について説明したが、G画素及びB(青色)画素も同一の構造となっている。   Here, the on-chip microlens ML and the photoelectric conversion element PD of the imaging pixel are configured to capture the light beam that has passed through the photographing lens TL as effectively as possible. In other words, the exit pupil EP (Exit Pupil) of the photographic lens TL and the photoelectric conversion element PD are in a conjugate relationship by the microlens ML, and the effective area of the photoelectric conversion element is designed to be large. The light beam 30 shows the state, and the entire area of the exit pupil EP is taken into the photoelectric conversion element PD. In FIG. 3B, the incident light beam of the R pixel has been described, but the G pixel and the B (blue) pixel have the same structure.

図4は、撮影レンズTLの水平方向(横方向)に瞳分割を行うための焦点検出用画素の配置と構造を示す。ここで水平方向とは、図2で示す撮像素子107の長手方向を示す。図4(a)は、焦点検出用画素を含む2行×2列の画素の平面図である。記録又は観賞のための画像信号を得る場合、G画素で輝度情報の主成分を取得する。これは、人間の画像認識特性は輝度情報に敏感であるためで、G画素が欠損すると画質劣化が認知されやすい。一方でR画素又はB画素は、色情報(色差情報)を取得する画素であるが、人間の視覚特性は色情報には鈍感であるため、色情報を取得する画素は多少の欠損が生じても画質劣化は認識され難い。そこで、本第1の実施形態においては、2行×2列の画素のうち、G画素は撮像用画素として残し、R画素とB画素を焦点検出用画素に置き換える。この焦点検出用画素対を図4(a)においてSHA及びSHBと示す。 FIG. 4 shows the arrangement and structure of focus detection pixels for performing pupil division in the horizontal direction (lateral direction) of the photographic lens TL. Here, the horizontal direction indicates the longitudinal direction of the image sensor 107 shown in FIG. FIG. 4A is a plan view of pixels of 2 rows × 2 columns including focus detection pixels. When obtaining an image signal for recording or viewing, the main component of luminance information is acquired by G pixels. This is because human image recognition characteristics are sensitive to luminance information, and if G pixels are lost, image quality degradation is easily recognized. On the other hand, the R pixel or the B pixel is a pixel that acquires color information (color difference information). However, since human visual characteristics are insensitive to color information, the pixel that acquires color information has some defects. However, image quality degradation is difficult to recognize. Therefore, in the first embodiment, among the pixels in 2 rows × 2 columns, the G pixel is left as an imaging pixel, and the R pixel and the B pixel are replaced with focus detection pixels. This focus detection pixel pair is denoted as S HA and S HB in FIG.

図4(a)におけるA−A断面図を図4(b)に示す。マイクロレンズMLと、光電変換素子PDは図3(b)に示した撮像用画素と同一構造である。なお図4も、撮像素子107のうち中心付近の画素、すなわち撮影レンズTLの軸上付近の画素の構造を示す図である。   FIG. 4B is a cross-sectional view taken along the line AA in FIG. The microlens ML and the photoelectric conversion element PD have the same structure as the imaging pixel shown in FIG. FIG. 4 is also a diagram showing the structure of a pixel near the center of the image sensor 107, that is, a pixel near the axis of the photographic lens TL.

本第1の実施形態においては、焦点検出用画素の信号は画像生成には用いないため、色分離用カラーフィルタの代わりに透明膜CFW(白色)が配置される。また、撮像素子107で瞳分割を行うため、配線層CLの開口部はマイクロレンズMLの中心線に対して一方向に偏心している。具体的には、画素SHAの開口部OPHAはマイクロレンズMLの中心線に対して右側に41HAだけ偏心しているため、撮影レンズTLの光軸Lを挟んで左側の射出瞳領域EPHAを通過した光束40HAを受光する。同様に、画素SHBの開口部OPHBはマイクロレンズMLの中心線に対して左側に41HBだけ偏心しているため、撮影レンズTLの光軸Lを挟んで右側の射出瞳領域EPHBを通過した光束40HBを受光する。そして、図から明らかなように、偏心量41HAは偏心量41HBに等しい。 In the first embodiment, since the signal of the focus detection pixel is not used for image generation, a transparent film CFW (white) is arranged instead of the color separation color filter. Further, since pupil division is performed by the image sensor 107, the opening of the wiring layer CL is eccentric in one direction with respect to the center line of the microlens ML. Specifically, since the opening OP HA of the pixel S HA is decentered by 41 HA on the right side with respect to the center line of the microlens ML, the left exit pupil region EP HA across the optical axis L of the photographing lens TL. The light beam 40 HA that has passed through is received. Similarly, since the opening OP HB of the pixel S HB is decentered by 41 HB on the left side with respect to the center line of the micro lens ML, it passes through the right exit pupil region EP HB across the optical axis L of the photographing lens TL. The received light beam 40 HB is received. As is apparent from the figure, the eccentric amount 41 HA is equal to the eccentric amount 41 HB .

以上のような構成を有する画素SHAを水平方向に規則的に配列し、これらの画素群で取得した被写体像をA像とする。また、画素SHBも水平方向に規則的に配列し、これらの画素群で取得した被写体像をB像とすると、A像とB像の相対位置を検出することで、被写体像のピントずれ量(デフォーカス量)が検出できる。 The pixels SHA having the above-described configuration are regularly arranged in the horizontal direction, and a subject image acquired by these pixel groups is defined as an A image. Also, the pixels SHB are regularly arranged in the horizontal direction, and the subject image acquired by these pixel groups is a B image. By detecting the relative positions of the A image and the B image, the amount of focus deviation of the subject image is detected. (Defocus amount) can be detected.

一方、図5は図4(b)と同じように図4(a)におけるA−A断面図であるが、撮像素子107の周辺部の焦点検出用画素に関する構造を示す。周辺部においては、マイクロレンズMLと配線層CLの開口部OPHA、OPHBを図4(b)とは異なる状態で偏心させることにより瞳分割を行っている。開口部OPHAの方を例にとって説明すると、開口部OPHAの中心と射出瞳領域EPHA中心を結ぶ線上に略球状でできたマイクロレンズMLの球芯を合わせるよう偏心させることにより周辺部においても軸上とほぼ同等の瞳分割を行うことができる。 On the other hand, FIG. 5 is a cross-sectional view taken along the line AA in FIG. 4A as in FIG. In the peripheral portion, pupil division is performed by decentering the openings OP HA and OP HB of the microlens ML and the wiring layer CL in a state different from that in FIG. When towards the opening OP HA will be described as an example, in the peripheral portion by the eccentric to adjust the center and the sphere center of the microlens ML made of substantially spherical on a line connecting the exit pupil area EP HA center of the opening OP HA Can also perform pupil division substantially equivalent to that on the axis.

具体的には、画素SHAの開口部OPHAはマイクロレンズMLの中心線に対して右側に51HAだけ偏心しているため、撮影レンズTLの光軸Lを挟んで左側の射出瞳領域EPHAを通過した光束50HAを受光する。同様に、画素SHBの開口部OPHBはマイクロレンズMLの中心線に対して左側に51HBだけ偏心しているため、撮影レンズTLの光軸Lを挟んで右側の射出瞳領域EPHBを通過した光束50HBを受光する。そして、図から明らかなように、偏心量51HAより偏心量51HBは大きく設定される。なお、上記説明による偏心は水平方向に関する周辺部を例として説明したが、垂直方向の周辺部、さらには水平と垂直が混在する周辺部においても同様の手法で瞳分割を行うことが可能となる。 Specifically, since the opening OP HA of the pixel S HA is decentered by 51 HA on the right side with respect to the center line of the microlens ML, the left exit pupil region EP HA across the optical axis L of the photographing lens TL. The beam 50 HA that has passed through is received. Similarly, since the opening OP HB of the pixel S HB is decentered by 51 HB on the left side with respect to the center line of the microlens ML, it passes through the right exit pupil region EP HB across the optical axis L of the photographing lens TL. The received light beam 50 HB is received. As is apparent from the figure, the eccentric amount 51 HB is set larger than the eccentric amount 51 HA . Note that the eccentricity described above has been described by taking the peripheral portion in the horizontal direction as an example, but it is possible to perform pupil division in the same manner in the peripheral portion in the vertical direction and also in the peripheral portion where both horizontal and vertical are mixed. .

ところで、上記焦点検出用画素対SHA及びSHBでは、撮影画面の横方向に輝度分布を有した被写体、例えば縦線に対しては焦点検出可能だが、縦方向に輝度分布を有する横線は焦点検出不能である。そのためには、撮影レンズの垂直方向(縦方向)にも瞳分割を行う画素も備えるよう構成すればよい。 In the focus detection pixel pair S HA and S HB , focus detection is possible for an object having a luminance distribution in the horizontal direction of the photographing screen, for example, a vertical line, but a horizontal line having a luminance distribution in the vertical direction is a focus. It cannot be detected. For this purpose, it is only necessary to provide a pixel that performs pupil division in the vertical direction (longitudinal direction) of the photographing lens.

図6は、撮影レンズの垂直方向に瞳分割を行うための焦点検出用画素の配置と構造を示す。ここで垂直方向及び縦方向は、図2で示す撮像素子107の短手方向を示す。図6(a)は、焦点検出用画素を含む2行×2列の画素の平面図であり、図4(a)と同様に、G画素は撮像用画素として残し、R画素とB画素を焦点検出用画素としている。この焦点検出用画素を図6(a)においてSVC及びSVDと示す。 FIG. 6 shows the arrangement and structure of focus detection pixels for performing pupil division in the vertical direction of the photographing lens. Here, the vertical direction and the vertical direction indicate the short direction of the image sensor 107 shown in FIG. FIG. 6A is a plan view of pixels of 2 rows × 2 columns including focus detection pixels. As in FIG. 4A, G pixels are left as imaging pixels, and R pixels and B pixels are used. Focus detection pixels are used. The focus detection pixels are denoted as S VC and S VD in FIG.

図6(a)のA−A断面図を図6(b)に示す。図4(b)の画素が横方向に瞳分離する構造であるのに対して、図6(b)の画素は瞳分離方向が縦方向になっているが、その他の画素の構造は同様である。画素SVCの開口部OPVCはマイクロレンズMLの中心線に対して下側に61VCだけ偏心しているため、撮影レンズTLの光軸Lを挟んで上側の射出瞳領域EPVCを通過した光束60VCを受光する。同様に、画素SVDの開口部OPVDはマイクロレンズMLの中心線に対して上側に61VDだけ偏心しているため、撮影レンズTLの光軸Lを挟んで下側の射出瞳領域EPVDを通過した光束60VDを受光する。なお、図から明らかであるが、図6は図4と同様に撮像素子107の軸上付近の画素構造を示すため、偏心量61VCと偏心量61VDは等しくなっている。 FIG. 6B is a sectional view taken along the line AA in FIG. The pixel in FIG. 4B has a structure in which the pupil is separated in the horizontal direction, whereas the pixel in FIG. 6B has the vertical direction in the pupil separation direction. is there. Due to the decentered by 61 VC below the the center line of the opening OP VC microlens ML of the pixel S VC, the light flux passing through the upper exit pupil region EP VC across the optical axis L of the taking lens TL 60 VC is received. Similarly, since the opening OP VD of the pixel S VD is decentered by 61 VD on the upper side with respect to the center line of the microlens ML, the lower exit pupil region EP VD across the optical axis L of the photographing lens TL is defined. The transmitted light beam 60 VD is received. As is apparent from the figure, FIG. 6 shows the pixel structure near the axis of the image sensor 107 as in FIG. 4, and therefore the eccentricity 61 VC and the eccentricity 61 VD are equal.

以上のような構成を有する画素SVCを垂直方向に規則的に配列し、これらの画素群で取得した被写体像をC像とする。また、画素SVDも垂直方向に規則的に配列し、これらの画素群で取得した被写体像をD像とする。すると、C像とD像の相対位置を検出することで、垂直方向に輝度分布を有する被写体像のピントずれ量(デフォーカス量)が検出できる。なお、縦方向に瞳分割を行う場合においても、周辺部の焦点検出画素については図5で説明した手法にて瞳分割を行っており、説明は省略する。 The pixels SVC having the above-described configuration are regularly arranged in the vertical direction, and a subject image acquired by these pixel groups is defined as a C image. Further, the pixels SVD are also regularly arranged in the vertical direction, and the subject image acquired by these pixel groups is defined as a D image. Then, by detecting the relative positions of the C image and the D image, it is possible to detect the focus shift amount (defocus amount) of the subject image having the luminance distribution in the vertical direction. Even in the case where the pupil division is performed in the vertical direction, the pupil detection is performed on the peripheral focus detection pixels by the method described with reference to FIG.

ところで、上記焦点検出用画素対SHA及びSHB、SVC及びSVDは本来の色情報を有さないため、撮影画像形成にあたっては周辺部の画素信号から補間演算することによって信号を作成する。したがって、撮像素子107に焦点検出用画素対を連続的に並べるのではなく離散的に並べることで撮影画像の画質を低減させることもない。 By the way, since the focus detection pixel pairs S HA and S HB , S VC and S VD do not have original color information, a signal is created by performing interpolation calculation from pixel signals in the peripheral portion when forming a captured image. . Therefore, the image quality of the captured image is not reduced by arranging the focus detection pixel pairs on the image sensor 107 in a discrete manner rather than continuously.

以上図3〜図6を参照して説明したように、撮像素子107は撮像のみの機能だけではなく本発明の焦点検出手段としての役割を果たしている。   As described above with reference to FIGS. 3 to 6, the image sensor 107 serves not only as an image capturing function but also as a focus detection means of the present invention.

図7は、本発明の焦点検出構成を概略的に示す図である。撮像素子107は、瞳分割された第1の焦点検出用画素901aと第2の焦点検出用画素901bとで構成される焦点検出部901を複数有する。なお、焦点検出部901は図4(a)に示した構成を有し、焦点検出用画素901aが画素SHAに、焦点検出用画素901bが画素SHBにそれぞれ対応する。また、撮像素子107は撮影レンズ100により結像された被写体像を光電変換するための撮像用画素を複数含む。 FIG. 7 is a diagram schematically showing the focus detection configuration of the present invention. The image sensor 107 includes a plurality of focus detection units 901 including first focus detection pixels 901a and second focus detection pixels 901b that are divided into pupils. Incidentally, the focus detection unit 901 has the configuration shown in FIG. 4 (a), the focus detection pixels 901a on the pixel S HA, the focus detection pixel 901b corresponding to the pixel S HB. The image sensor 107 includes a plurality of imaging pixels for photoelectrically converting the subject image formed by the photographing lens 100.

CPU121は、合成部902と、連結部903と、演算部904とを含む。CPU121はまた、複数の焦点検出部901を含むように、撮像素子107の撮像面にセクション(領域)CSTを複数割り当てる。CPU121は、セクションCSTの大きさ、配置、数等を適宜変更することができる。合成部902は、撮像素子107に割り当てられた複数のセクションCSTの各々において、第1の焦点検出用画素901aからの出力信号を合成して1画素の第1の合成信号を得る処理を行う。合成部902はまた、各セクションCSTにおいて、第2の焦点検出用画素901bからの出力信号を合成して1画素の第2の合成信号を得る処理を行う。連結部903は、複数のセクションCSTにおいて、第1の合成信号である各画素を連結して第1の連結信号を得る処理と、第2の合成信号を連結して第2の連結信号を得る処理とを行う。このように、第1の焦点検出用画素901a及び第1の焦点検出用画素901bのそれぞれに対して、セクション数の画素が連結された連結信号が得られる。演算部904は、第1の連結信号及び第2の連結信号に基づいて、結像光学系の焦点ずれ量を演算する。このように、セクション内に配置された同一の瞳分割方向における焦点検出用画素の出力信号を合成するため、焦点検出部の1つ1つの輝度は小さい場合であっても、被写体の輝度分布を十分に検出することが可能となる。   The CPU 121 includes a synthesis unit 902, a connection unit 903, and a calculation unit 904. The CPU 121 also assigns a plurality of sections (regions) CST to the imaging surface of the imaging element 107 so as to include a plurality of focus detection units 901. The CPU 121 can appropriately change the size, arrangement, number, etc. of the section CST. In each of the plurality of sections CST assigned to the image sensor 107, the combining unit 902 performs a process of combining the output signals from the first focus detection pixels 901a to obtain a first combined signal of one pixel. In addition, in each section CST, the combining unit 902 performs a process of combining the output signals from the second focus detection pixels 901b to obtain a second combined signal of one pixel. In the plurality of sections CST, the connecting unit 903 connects the pixels that are the first combined signal to obtain the first connected signal, and connects the second combined signal to obtain the second connected signal. Process. In this way, a connection signal in which the number of sections of pixels are connected to each of the first focus detection pixel 901a and the first focus detection pixel 901b is obtained. The calculation unit 904 calculates a defocus amount of the imaging optical system based on the first connection signal and the second connection signal. In this way, since the output signals of the focus detection pixels in the same pupil division direction arranged in the section are synthesized, even if the brightness of each focus detection unit is small, the brightness distribution of the subject is Sufficient detection is possible.

なお、図7では、水平方向に瞳分割する場合を例に示したが、垂直方向に瞳分割する場合についても同様である。   FIG. 7 shows an example in which the pupil is divided in the horizontal direction, but the same applies to the case where the pupil is divided in the vertical direction.

図8は、図7の焦点検出部901、合成部902、連結部903により形成され、演算部904に入力される焦点検出用信号対(画像信号対)の一例を示す。図8のグラフにおいて、横軸は連結された信号の画素並び方向を示し、縦軸は信号の強度である。図8に示す焦点検出用信号は、縦1本線を検出した際のもので、焦点検出用信号IMGは焦点検出用画素901aで、焦点検出用信号IMGは焦点検出用画素901bでそれぞれ形成される信号である。そして、図1で示す撮影レンズ100が撮像素子107に対して後ピン側にずれた状態であるため、焦点検出用信号IMGは左側に、焦点検出用信号IMGは右側にずれた状態となっている。 FIG. 8 shows an example of a focus detection signal pair (image signal pair) formed by the focus detection unit 901, the synthesis unit 902, and the connection unit 903 in FIG. 7 and input to the calculation unit 904. In the graph of FIG. 8, the horizontal axis indicates the pixel arrangement direction of the connected signals, and the vertical axis indicates the signal intensity. The focus detection signal shown in FIG. 8 is obtained when a single vertical line is detected. The focus detection signal IMG A is formed by the focus detection pixel 901a, and the focus detection signal IMG B is formed by the focus detection pixel 901b. Signal. Since the photographing lens 100 shown in FIG. 1 is shifted to the rear pin side with respect to the image sensor 107, the focus detection signal IMG A is shifted to the left side and the focus detection signal IMG B is shifted to the right side. It has become.

この焦点検出用信号IMG、IMGのずれ量を公知の相関演算などによって算出することにより、撮影レンズ100がどれだけデフォーカスしているかを知ることができるので、焦点合わせを行うことが可能となる。なお、ずれ量の算出については公知であるため、説明は省略する。また、図8では後ピン側にずれた場合を例として説明したが、前ピン側にずれる場合は焦点検出用信号IMG、IMGのずれ方向が左右反転する。 By calculating the deviation amount of the focus detection signals IMG A and IMG B by a known correlation calculation or the like, it is possible to know how much the photographing lens 100 is defocused, so that focusing can be performed. It becomes. Since the calculation of the deviation amount is known, the description is omitted. In FIG. 8, the case of shifting to the rear pin side is described as an example. However, when shifting to the front pin side, the shift directions of the focus detection signals IMG A and IMG B are reversed left and right.

図9は、撮像素子107の焦点検出用画素による瞳分割機能を概念的に説明する図である。TLは撮影レンズ、107は撮像素子、OBJは被写体、IMGは被写体像である。   FIG. 9 is a diagram for conceptually explaining the pupil division function by the focus detection pixels of the image sensor 107. TL is a photographing lens, 107 is an image sensor, OBJ is a subject, and IMG is a subject image.

撮像用画素は図3で説明したように、撮影レンズTLの射出瞳全域EPを通過した光束を受光する。一方、焦点検出用画素は図4〜図6で説明したように、瞳分割機能を有している。具体的には、図4の画素SHAは撮像面からレンズ後端を見て左側の瞳を通過した光束LHA、すなわち図4の瞳EPHAを通過した光束を受光する。同様に画素SHB、SVC及びSVDはそれぞれ射出瞳領域EPHB、EPVC及びEPVDを通過した光束をそれぞれ受光する。そして、焦点検出用画素は、撮像素子107の全領域に渡って分布しているため、撮像領域全域での焦点検出も可能となっている。以上のような構成により、撮像素子107の広い範囲に渡って位相差方式の焦点検出を行うことが可能である。 As described with reference to FIG. 3, the imaging pixels receive the light flux that has passed through the entire exit pupil EP of the photographing lens TL. On the other hand, the focus detection pixel has a pupil division function as described with reference to FIGS. Specifically, the pixel S HA in FIG. 4 receives the light beam L HA that has passed through the left pupil when viewed from the imaging surface, that is, the light beam that has passed through the pupil EP HA in FIG. Similarly, the pixels S HB , S VC, and S VD receive the light beams that have passed through the exit pupil regions EP HB , EP VC, and EP VD , respectively. Since the focus detection pixels are distributed over the entire area of the image sensor 107, it is possible to detect the focus in the entire imaging area. With the configuration as described above, it is possible to perform phase difference type focus detection over a wide range of the image sensor 107.

ところで、上記説明は製造誤差を考慮しない、理想の状態での焦点検出系を説明したが、実際には製造誤差などの変動要因により焦点検出用の射出瞳領域EPHA、EPHB、EPVC、EPVDに大きなずれが生じてしまう。したがって、本発明ではこのずれ情報をあらかじめ記憶しておき、焦点検出用信号を補正することで高精度な焦点検出を行う。以下詳細を説明する。 In the above description, the focus detection system in an ideal state without considering the manufacturing error has been described. However, in reality, the exit pupil regions EP HA , EP HB , EP VC for focus detection are caused by a variation factor such as a manufacturing error. A large deviation occurs in the EP VD . Therefore, in the present invention, this shift information is stored in advance, and the focus detection signal is corrected to perform highly accurate focus detection. Details will be described below.

一般的にCMOSセンサなどの撮像素子はシリコンウエハ上に複数のレイヤー層を重ねて製造される。図10は、図1における撮像素子107に含まれるレイヤー層構造のCMOSセンサチップを模式的に表す図である。CMOSセンサチップにおいては、フォトダイオードとトランジスタとが形成されている下部層の上に、パッド絶縁層を形成して、単位画素を形成する。次に、下部層内の金属配線を露出させるように、パッド絶縁層を選択的に除去する。金属配線は、トランジスタを外部素子に接続するために使用される。そして、このような配線および絶縁層は回路規模に応じて複数形成され、図10ではまとめて配線層および絶縁層11として示す。つまり、図4〜図6における配線層CLも11内に含まれる。   In general, an image sensor such as a CMOS sensor is manufactured by stacking a plurality of layer layers on a silicon wafer. FIG. 10 is a diagram schematically showing a CMOS sensor chip having a layer layer structure included in the image sensor 107 in FIG. In the CMOS sensor chip, a unit pixel is formed by forming a pad insulating layer on a lower layer where a photodiode and a transistor are formed. Next, the pad insulating layer is selectively removed so that the metal wiring in the lower layer is exposed. The metal wiring is used to connect the transistor to an external element. A plurality of such wirings and insulating layers are formed according to the circuit scale, and are collectively shown as a wiring layer and an insulating layer 11 in FIG. That is, the wiring layer CL in FIGS.

それから、着色フォトレジストを塗布し、これを露光及び現像工程によって処理することで、カラーフィルタ層12を形成する。次に、均一なマイクロレンズを形成できるように、マイクロレンズ平坦化層13を形成する。そして、マイクロレンズ平坦化層13上にフォトレジストを塗布し、これを露光及び現像工程によって処理することで、フォトレジストをパターニングする。次に、熱処理工程によってパターニングされたフォトレジストを処理することで、フォトレジストにリフロー工程を施して、ドーム形状のマイクロレンズ14の層を形成する。このように、CMOSセンサチップはレイヤー層ごとに製造されるため、各レイヤー層間には製造時の誤差が介在する。したがって、配線層および絶縁層11に対するマイクロレンズ14の位置精度は、フォトレジストをパターニングする半導体製造装置のアライメント精度により決定する。つまり、図4〜6で示す配線層CLに対してマイクロレンズMLは、このアライメント精度によりずれが生じることとなる。一般的にマイクロレンズMLとフォトダイオードPDまでの距離は数ミクロンである。一方、マイクロレンズMLから撮影レンズ100の射出瞳までの距離は数十ミリという単位であるため、光学的な結像倍率は数万倍となる。そうすると、0.1ミクロンのアライメント誤差が、射出瞳上においては、数ミリの非常に大きなずれとなってしまい、焦点検出精度を大きく低下させる要因となる。   Then, a colored photoresist is applied, and this is processed by an exposure and development process to form the color filter layer 12. Next, the microlens flattening layer 13 is formed so that a uniform microlens can be formed. Then, a photoresist is applied on the microlens planarizing layer 13, and this is processed by exposure and development processes, thereby patterning the photoresist. Next, by processing the photoresist patterned by the heat treatment process, the photoresist is subjected to a reflow process to form a dome-shaped microlens 14 layer. As described above, since the CMOS sensor chip is manufactured for each layer layer, an error in manufacturing is interposed between the layer layers. Therefore, the positional accuracy of the microlens 14 with respect to the wiring layer and the insulating layer 11 is determined by the alignment accuracy of the semiconductor manufacturing apparatus for patterning the photoresist. That is, the microlens ML is displaced by this alignment accuracy with respect to the wiring layer CL shown in FIGS. In general, the distance between the microlens ML and the photodiode PD is several microns. On the other hand, since the distance from the microlens ML to the exit pupil of the photographing lens 100 is a unit of several tens of millimeters, the optical imaging magnification is several tens of thousands of times. In this case, an alignment error of 0.1 μm results in a very large deviation of several millimeters on the exit pupil, which is a factor that greatly reduces the focus detection accuracy.

図11は図4(b)で示す撮影レンズの水平方向(横方向)に瞳分割を行うための焦点検出用画素において、この水平方向にマイクロレンズMLにアライメント誤差が発生した場合を示す。図において、マイクロレンズMLは左側にDML分だけずれており、点線で示すマイクロレンズMLが誤差がない場合(図4(b))を表す。すなわち、図4(b)の偏心量41HA、41HBに図11のずれDMLが加減算され、画素SHAの開口部OPHAはマイクロレンズMLの中心線に対して右側に111HAだけ偏心している。また、画素SHBの開口部OPHBはマイクロレンズMLの中心線に対して左側に111HBだけ偏心している。そして、画素SHA、SHBは撮影レンズTLの光軸Lに対してDEPだけずれた射出瞳領域EPHA、EPHBに対応する光束110HA、110HBを受光する。 FIG. 11 shows a case where an alignment error occurs in the microlens ML in the horizontal direction in the focus detection pixel for pupil division in the horizontal direction (lateral direction) of the photographing lens shown in FIG. In the figure, the microlens ML represents a case is shifted by D ML amount to the left, the microlens ML shown by a dotted line is no error (Figure 4 (b)). That is, the deviation D ML in FIG. 11 is added to or subtracted from the eccentric amounts 41 HA and 41 HB in FIG. 4B, and the opening OP HA of the pixel S HA is deviated by 111 HA on the right side with respect to the center line of the microlens ML. I have a heart. The opening OP HB of the pixel S HB is offset by 111 HB to the left relative to the center line of the microlens ML. The pixels S HA and S HB receive the light beams 110 HA and 110 HB corresponding to the exit pupil regions EP HA and EP HB that are shifted by D EP with respect to the optical axis L of the photographing lens TL.

図12は図5に示す撮像素子107の周辺部の焦点検出用画素において、図9と同様にマイクロレンズMLのアライメント誤差が生じた場合を示す。図10で説明したように、マイクロレンズはレイヤー層ごとに製造されるため、アライメント誤差は撮像素子107上の位置によらず一定である。したがって、図11でアライメント誤差がDMLだけ発生すると、図12においても点線で示すマイクロレンズMLに誤差がない場合(図5)に比べて同量のDMLだけずれている。すなわち、図5の偏心量51HA、51HBに図12のずれDMLが加減算され、画素SHAの開口部OPHAはマイクロレンズMLの中心線に対して右側に121HAだけ偏心している。また、画素SHBの開口部OPHBはマイクロレンズMLの中心線に対して左側に121HBだけ偏心している。そして、画素SHA、SHBは撮影レンズTLの光軸Lに対してDEPだけずれた射出瞳領域EPHA、EPHBに対応する光束120HA、120HBを受光する。 FIG. 12 shows a case where an alignment error of the microlens ML occurs in the focus detection pixels in the peripheral portion of the image sensor 107 shown in FIG. As described with reference to FIG. 10, since the microlens is manufactured for each layer layer, the alignment error is constant regardless of the position on the image sensor 107. Therefore, when the alignment error occurs only D ML in FIG. 11 are shifted by the same amount of DML as compared with the case where there is no error (Figure 5) to the microlens ML shown by a dotted line also in Fig. 12. That is, the deviation D ML in FIG. 12 is added to or subtracted from the amount of eccentricity 51 HA, 51 HB of FIG. 5, the opening OP HA of the pixel S HA is offset by 121 HA on the right side of the center line of the microlens ML. The opening OP HB of the pixel S HB is offset by 121 HB to the left relative to the center line of the microlens ML. The pixels S HA and S HB receive light beams 120 HA and 120 HB corresponding to the exit pupil regions EP HA and EP HB that are shifted by D EP with respect to the optical axis L of the photographing lens TL.

一方、図6(b)で説明した垂直方向に瞳分割を行うための焦点検出用画素においては、誤差の発生方向が紙面垂直方向であるため、この断面においては瞳分割状態に変わりはない。したがって、図を用いた詳細な説明は省略する。なお、上記説明ではずれDEPをマイクロレンズMLのアライメント誤差として説明したが、実際のカメラにおいては、撮像素子107の平行偏心や傾きなど組み込み調整誤差も加わる。しかしながら、ずれDEPの中ではマイクロレンズMLのアライメント誤差がもっとも支配的である。 On the other hand, in the focus detection pixel for performing pupil division in the vertical direction described with reference to FIG. 6B, the error generation direction is the vertical direction on the paper surface, and thus the pupil division state remains unchanged in this cross section. Therefore, detailed description using the drawings is omitted. Although described disengagement D EP above description as an alignment error of the microlens ML, in an actual camera, also applied embedded adjustment error such as parallel eccentricity and inclination of the imaging element 107. However, in the displacement D EP alignment error of the microlenses ML is the most dominant.

図13、図14は、図11もしくは図4(b)、図6(b)における撮像素子107の軸上付近の画素の射出瞳EPを撮像素子107側から見た図である。図13(a)及び図14(a)がマイクロレンズMLの誤差ありの状態を、図13(b)図14(b)を付した図が誤差なしの状態をそれぞれ示す。   FIGS. 13 and 14 are views of the exit pupil EP of the pixels in the vicinity of the axis of the image sensor 107 in FIG. 11 or FIGS. 4B and 6B as viewed from the image sensor 107 side. FIGS. 13 (a) and 14 (a) show the microlens ML with error, and FIGS. 13 (b) and 14 (b) show the state without error.

図13(a)において、撮影レンズTLの光軸Lに対して、焦点検出用の射出瞳領域EPHA、EPHB、EPVC、EPVDの中心LAFはDEPだけずれた位置にある。ここで、LAFは本発明における焦点検出手段の中心軸となり、DEPが中心軸ずれに相当する。そして、射出瞳EPと焦点検出用の射出瞳領域EPHA、EPHBとの共通領域、すなわち、実際に焦点検出に使用する光束が通過する領域を図で示すように右上がりの斜線領域130HA、130HBで示す。このとき、斜線領域130HA、130HBは中心軸ずれDEPにより瞳分割方向である水平方向に非対称形状となっている。 In FIG. 13A, the center L AF of the exit pupil areas EP HA , EP HB , EP VC , and EP VD for focus detection is shifted by D EP with respect to the optical axis L of the photographing lens TL. Here, L AF becomes a central axis of the focus detection means in the present invention, D EP corresponds to the central axis shift. A common area of the exit pupil EP and the exit pupil areas EP HA and EP HB for focus detection, that is, an area through which a light beam actually used for focus detection passes, as shown in the figure, is a hatched area 130 HA that rises to the right. , 130 HB . In this case, the hatched region 130 HA, 130 HB has a horizontally asymmetrical a pupil division direction by the central axis shift D EP.

一方、図13(b)に示すように、マイクロレンズMLの誤差がない場合においては、光軸Lと焦点検出手段の中心軸LAFは一致する。したがって、焦点検出光束が通過する右上がりの斜線領域131HAと131HBは中心軸LAFを中心として水平方向に対称形状となっている。 On the other hand, as shown in FIG. 13B, when there is no error of the microlens ML, the optical axis L and the central axis LAF of the focus detection means coincide. Accordingly, the diagonally upward slanting regions 131 HA and 131 HB through which the focus detection light beam passes are symmetrical in the horizontal direction about the central axis LAF.

図14は図13と同様の図で、垂直方向に射出瞳EPを分離する焦点検出用の射出瞳領域EPVC、EPVDに注目した図である。撮影レンズTLの射出瞳EPと焦点検出用の射出瞳領域EPVC、EPVDの共通領域は、左上がりの斜線領域140VC、140VDとなっている。この場合、中心軸ずれDEPにより斜線領域140VC、140VDは同様に横ずれしているが、光軸Lもしくは中心軸LAFを中心として瞳分割方向である垂直方向においては上下対称性を維持したまま横ずれしている。 FIG. 14 is a view similar to FIG. 13, focusing on the exit pupil regions EP VC and EP VD for focus detection that separate the exit pupil EP in the vertical direction. The common areas of the exit pupil EP of the photographic lens TL and the exit pupil areas EP VC and EP VD for focus detection are diagonally upward areas 140 VC and 140 VD that rise to the left. In this case, the hatched region 140 VC, 140 VD to the center axis shift D EP is displaced laterally in the same manner, maintaining the vertical symmetry in the vertical direction is a pupil division direction about the optical axis L or the central axis L AF It is laterally shifted.

なお、上記説明は水平方向に中心軸ずれDEPが発生した場合を説明したが、垂直方向に発生する場合、もしくは水平垂直両方向に発生する場合においても上記と同様の考え方で焦点検出光束が通過する斜線領域を導き出すことができる。 In the above description, the center axis deviation DEP has occurred in the horizontal direction. However, the focus detection light flux passes through the same way as described above when it occurs in the vertical direction or in both the horizontal and vertical directions. The shaded area can be derived.

図13及び図14は、撮像素子107の中央付近の画素についての説明だが、周辺部ではこれに加え像高によって撮影レンズTLの射出瞳EPが変化する。図15はこれを説明するための図で、撮影レンズ100を入射瞳ENTPと射出瞳EPで単純化している。入射瞳ENTPと射出瞳EPは撮像素子107からの距離と径がそれぞれ異なり、撮像素子107に入射する光束はこの2つの円を通過しなければならない。したがって、撮像素子107の光軸L付近以外の画素部に入射する光束は、射出瞳EPのみならず入射瞳ENTPの影響を受ける。 13 and 14 illustrate the pixel near the center of the image sensor 107. In addition, the exit pupil EP of the photographic lens TL varies depending on the image height in the peripheral portion. FIG. 15 is a diagram for explaining this, and the photographic lens 100 is simplified by an entrance pupil E NTP and an exit pupil EP. The entrance pupil E NTP and the exit pupil EP have different distances and diameters from the image sensor 107, and the light beam incident on the image sensor 107 must pass through these two circles. Therefore, the light beam incident on the pixel portion other than the vicinity of the optical axis L of the imaging element 107 is affected by the entrance pupil E NT P not only the exit pupil EP.

図16は撮像素子107とその像高における射出瞳形状を対応付けた図である。図16において、EPは軸上の射出瞳形状を示し、添え字T、B、L、Rがそれぞれ上下左右の像高を示す。そして、例えば左上対角はTLを合わせてEPTLと表記している。この図から明らかなように撮像素子107中央からの像高が大きいほど射出瞳形状が小さくなるのが分かる。したがって、本第1の実施形態では、図中点線で示す160を焦点検出領域として設定し、全ズーム、フォーカス位置にて射出瞳形状の変化が比較的少ない領域を使用している。なお、撮影レンズ100を撮像素子107の端まで射出瞳の形状変化が少ないテレセントリックな光学系にすれば、より撮影画面の端まで良好な焦点検出を行うことができる。 FIG. 16 is a diagram in which the imaging element 107 is associated with the exit pupil shape at the image height. In Figure 16, EP C denotes an exit pupil shape of the on-axis shows subscript T, B, L, the image height of vertical and horizontal R, respectively. For example, the upper left diagonal is expressed as EP TL together with TL . As can be seen from the figure, the exit pupil shape decreases as the image height from the center of the image sensor 107 increases. Therefore, in the first embodiment, 160 indicated by a dotted line in the figure is set as a focus detection area, and an area where the change in the exit pupil shape is relatively small at all zoom and focus positions is used. If the photographic lens 100 is a telecentric optical system in which the shape change of the exit pupil is small up to the end of the image sensor 107, better focus detection can be performed to the end of the photographic screen.

以上のことからマイクロレンズのアライメント誤差による中心軸ずれと像高による撮影レンズの射出瞳の形状変化の組み合わせで、図13、図14の斜線部に示すような射出瞳上における焦点検出用光束の射出瞳領域は決定する。そして、位相差方式焦点検出においては、このような射出瞳領域変化が生じた際に、主に3つの弊害が生じてしまう。
(1)各焦点検出用画素対に入射する光量のアンバランス
(2)瞳分離方向の線像分布変化による焦点検出用信号の形状くずれ
(3)基線長変化によるデフォーカス量検知誤差
このうち、(2)、(3)については合焦位置に近づくに従って影響が少なくなり、合焦位置では理論上完全に無くなるため、焦点検出のアルゴリズムなどを工夫して合焦時間に多少時間をかければ、最終的な合焦精度での影響を低減することができる。しかしながら、(1)についてはデフォーカス量を算出する相関演算精度に多大なる影響を及ぼす。そのため、本第1の実施形態においては(1)に関して、焦点調節用信号対の信号レベルを光量のアンバランスを補償するように補正することにより高精度な位相差方式焦点検出を実現する。
From the above, the combination of the center axis deviation due to the microlens alignment error and the shape change of the exit pupil of the photographing lens due to the image height, the focus detection light beam on the exit pupil as shown by the hatched portion in FIGS. The exit pupil area is determined. In the phase difference type focus detection, when such an exit pupil region change occurs, there are mainly three adverse effects.
(1) Unbalance of light quantity incident on each focus detection pixel pair (2) Deformation of focus detection signal shape due to change in line image distribution in pupil separation direction (3) Defocus amount detection error due to change in baseline length, As for (2) and (3), the effect decreases as the focus position is approached, and the effect is completely eliminated at the focus position. Therefore, if the focus detection algorithm is devised and the focus time is somewhat longer, The influence on the final focusing accuracy can be reduced. However, (1) greatly affects the correlation calculation accuracy for calculating the defocus amount. Therefore, in the first embodiment, with respect to (1), highly accurate phase difference focus detection is realized by correcting the signal level of the focus adjustment signal pair so as to compensate for the light quantity imbalance.

図17は本第1の実施形態におけるの焦点検出用信号対を補正するための、図7のCPU121に設けられる演算部904の内部詳細を示すブロック図である。図17において図7の連結部903にて形成される焦点検出用信号は演算部904内部の補正部170にて(1)を含む補正を行い、その後相関演算部171に入力される。   FIG. 17 is a block diagram showing the internal details of the calculation unit 904 provided in the CPU 121 of FIG. 7 for correcting the focus detection signal pair in the first embodiment. In FIG. 17, the focus detection signal formed by the connecting unit 903 in FIG. 7 is subjected to correction including (1) by the correction unit 170 inside the calculation unit 904 and then input to the correlation calculation unit 171.

CPU121に連結されるフラッシュメモリ133は焦点検出用信号を形成する各画素の画素感度ムラ情報175、撮影レンズ100の像高による射出瞳情報176、マイクロレンズのアライメント誤差による中心軸ずれ情報177を備える。ここで、画素感度ムラ情報175と中心軸ずれ情報177はカメラの製造工程時に書き込まれる情報である。そして、射出瞳情報176は誤差のない設計値による情報をあらかじめ記憶している。   A flash memory 133 connected to the CPU 121 includes pixel sensitivity unevenness information 175 of each pixel forming a focus detection signal, exit pupil information 176 based on the image height of the photographing lens 100, and center axis deviation information 177 based on an alignment error of the microlens. . Here, the pixel sensitivity unevenness information 175 and the center axis deviation information 177 are information written during the manufacturing process of the camera. The exit pupil information 176 stores information based on design values without error in advance.

図18は本第1の実施形態の焦点検出用信号の補正手順を示すフローチャートである。まず入力される一対の焦点検出用信号に対して、補正部170ではステップS181とステップS182により2段階の補正を行う。そして、相関演算部171ではステップS183〜S186の処理を行う。   FIG. 18 is a flowchart showing a procedure for correcting the focus detection signal according to the first embodiment. First, the correction unit 170 performs two-step correction on the input pair of focus detection signals in steps S181 and S182. And the correlation calculation part 171 performs the process of step S183-S186.

ステップS181ではフラッシュメモリ133の画素感度ムラ情報175をもとに、各画素の出力値データに感度ムラを補正する係数を乗じることによって各画素固有の感度ムラ補正を行う。   In step S181, based on the pixel sensitivity unevenness information 175 of the flash memory 133, sensitivity unevenness correction specific to each pixel is performed by multiplying the output value data of each pixel by a coefficient for correcting the sensitivity unevenness.

ステップS182では、一対の焦点検出用信号を形成する各画素ごとに、射出瞳情報176、中心軸ずれ情報177から図13(a)、図14(a)で説明したような斜線領域の面積を計算する。そして、この面積に応じた係数を各画素の出力値に乗じることで光量の補正が行われる。ここで、各画素ごとに面積演算を都度行うのでは演算量が膨大すぎて焦点検出に時間がかかってしまう。そこで以下のような手法をとることにより演算量を削減することが可能となる。   In step S182, for each pixel that forms a pair of focus detection signals, the hatched area as described with reference to FIGS. 13A and 14A is calculated from the exit pupil information 176 and the center axis deviation information 177. calculate. The light amount is corrected by multiplying the output value of each pixel by a coefficient corresponding to the area. Here, if the area calculation is performed for each pixel each time, the calculation amount is too large and it takes time to detect the focus. Therefore, the amount of calculation can be reduced by taking the following method.

図19は横軸に対となる焦点検出画素の像高hを、縦軸にその光量比Cをとった場合のグラフを示す。ここで、光量比Cは、図4の焦点検出用画素部SHAを基準としたときのSHBの光量比を表す。190は図13(b)、図14(b)で説明したような製造誤差がない場合の光量比を示し、h=0では光量比C=1.0となっている。そして、190で示す光量比をC0とし、像高hの関数であらわすと以下の式(1)のように表現できる。
C0=f(h) …(1)
FIG. 19 shows a graph in which the horizontal axis represents the image height h of the paired focus detection pixels, and the vertical axis represents the light amount ratio C thereof. Here, the light quantity ratio C represents the light quantity ratio of S HB when the focus detection pixel unit S HA of FIG. 4 is used as a reference. Reference numeral 190 denotes a light amount ratio when there is no manufacturing error as described in FIGS. 13B and 14B. When h = 0, the light amount ratio C is 1.0. When the light quantity ratio indicated by 190 is C0 and is expressed as a function of the image height h, it can be expressed as the following equation (1).
C0 = f (h) (1)

191はマイクロレンズのアライメント誤差DMLなどにより製造誤差が生じた場合の光量比を示し、対となる焦点検出用画素部の光量が等しくなる像高はシフトしている。そのシフト量をhERRとすると、h=hERRのときC=1.0となる。hERRに応じて全体の曲がり具合も変わってくるため、191で示す光量比をCERRとし、像高hとhERRを変数とすると、以下の式(2)で表現できる。
CERR=f(h−hERR)・g(hERR) …(2)
Reference numeral 191 denotes a light amount ratio in the case where a manufacturing error occurs due to a microlens alignment error DML or the like, and the image heights at which the light amounts of the paired focus detection pixel portions are equal are shifted. When the shift amount is h ERR , C = 1.0 when h = h ERR . Since the entire curve changes depending on h ERR , the light quantity ratio indicated by 191 is C ERR , and the image height h and h ERR are variables, and can be expressed by the following equation (2).
CERR = f (h−h ERR ) · g (h ERR ) (2)

本第1の実施形態のカメラにおいては、撮影レンズ100の射出瞳変化は光軸Lを中心として回転対称であるが、撮像素子107の焦点検出用画素構造は回転対称ではない。そのため、像高hの代わりに撮像素子107の焦点検出用画素の軸上からの距離を(x,y)、製造誤差によるシフト距離を(xERR、yERR)と置き換えると、式(2)は以下の式(3)に書き換えることができる。
C(xERR,yERR)=f(x−xERR,y−yERR)・g(xERR,yERR) …(3)
In the camera of the first embodiment, the exit pupil change of the photographing lens 100 is rotationally symmetric about the optical axis L, but the focus detection pixel structure of the image sensor 107 is not rotationally symmetric. Therefore, when the distance from the axis of the focus detection pixel of the image sensor 107 instead of the image height h is replaced with (x, y) and the shift distance due to the manufacturing error is replaced with (x ERR , y ERR ), Expression (2) Can be rewritten as the following equation (3).
C (x ERR , y ERR ) = f (xx ERR , yy ERR ) · g (x ERR , y ERR ) (3)

以上のような構成で、射出瞳情報176としてf(x,y)を、中心軸ずれ情報177として、(xERR,yERR)とg(xERR,yERR)をあらかじめ格納しておく。そして、焦点検出用信号に式(3)で算出される光量比C(xERR,yERR)に基づいた係数を乗じることで、演算量の少ない補正を行うことが可能となる。ここで、製造誤差(xERR,yERR)は、マイクロレンズのアライメント誤差が支配的である。アライメント誤差は、図10で説明した製造方法によるとウエハ単位で一律なずれとなる。そのため、カメラの製造工程においてはこのアライメント誤差をCMOSセンサチップごとに管理すれば、1台ごとにアライメント誤差を確認する必要がないため工程を短縮することができる。製造誤差(xERR,yERR)としては、その他に撮像素子107をカメラに組み込む際の平行偏心や傾きなどの位置調整誤差がある。 With the above configuration, f (x, y) is stored in advance as exit pupil information 176, and (x ERR , y ERR ) and g (x ERR , y ERR ) are stored as center axis deviation information 177 in advance. Then, by multiplying the focus detection signal by a coefficient based on the light amount ratio C (x ERR , y ERR ) calculated by Expression (3), it is possible to perform correction with a small amount of calculation. Here, the manufacturing error (x ERR , y ERR ) is dominated by the alignment error of the microlens. According to the manufacturing method described with reference to FIG. 10, the alignment error is uniformly shifted for each wafer. Therefore, in the camera manufacturing process, if this alignment error is managed for each CMOS sensor chip, it is not necessary to check the alignment error for each unit, and therefore the process can be shortened. Other manufacturing errors (x ERR , y ERR ) include position adjustment errors such as parallel eccentricity and tilt when the image sensor 107 is incorporated into the camera.

なお、上記の格納された情報が撮影レンズのズームもしくはフォーカス位置で異なる場合は、ズームもしくはフォーカス位置を便宜分割し、その分割位置ごとに格納すればよい。なお、本第1の実施形態の撮影レンズ100はズームもしくはフォーカスによる射出瞳の変動がない撮影レンズとしている。   When the stored information differs depending on the zoom or focus position of the photographing lens, the zoom or focus position may be divided for convenience and stored for each divided position. Note that the photographing lens 100 according to the first embodiment is a photographing lens in which there is no change in the exit pupil due to zooming or focusing.

ステップS183では補正部170により補正された焦点検出用信号に以後の処理を行うにあたって、十分に信頼性があるかを判定する。具体的には、像のコントラスト成分等を分析することにより判定を行う。   In step S183, it is determined whether the focus detection signal corrected by the correction unit 170 is sufficiently reliable when the subsequent processing is performed. Specifically, the determination is performed by analyzing the contrast component of the image.

ステップS184は焦点検出用信号に信頼性があると判定された場合の処理で、デジタルフィルタ処理を行うことで演算に不要な周波数成分を除去する。一方、S185は焦点検出用信号に信頼性がないと判定された場合の処理で、この場合はユーザーに合焦不能を知らせるなどの合焦不能処理を行い終了する。   Step S184 is a process performed when it is determined that the focus detection signal is reliable. A digital filter process is performed to remove frequency components unnecessary for the calculation. On the other hand, S185 is a process when it is determined that the focus detection signal is not reliable. In this case, an in-focus process such as notifying the user of the in-focus state is performed and the process ends.

最後にステップS186では、公知の相関演算により像ずれ量を算出する。そして、図17に示すようにこの像ずれ量をもとに撮影レンズ100の焦点ずれ量、すなわちデフォーカス量が算出される。   Finally, in step S186, an image shift amount is calculated by a known correlation calculation. Then, as shown in FIG. 17, the defocus amount, that is, the defocus amount of the photographing lens 100 is calculated based on the image shift amount.

以上のような構成により、マイクロレンズのアライメント誤差による焦点検出用射出瞳領域の中心軸ずれが発生した場合にも、補正部により焦点検出用信号を補正することで高精度な焦点検出を実現できる。なお、本第1の実施形態の補正部による補正は上述した(1)〜(3)のうち(1)のみを補正する構成としたが、(2)、(3)についても第1の実施形態の構成で補正することは可能である。そうすれば、デフォーカス時においてもより高精度な焦点検出を行うことができる。   With the configuration as described above, even when the center axis deviation of the focus detection exit pupil region due to the microlens alignment error occurs, high-precision focus detection can be realized by correcting the focus detection signal by the correction unit. . The correction by the correction unit of the first embodiment is configured to correct only (1) among the above-described (1) to (3), but the first implementation is also performed for (2) and (3). It is possible to correct by the configuration of the form. By doing so, it is possible to perform focus detection with higher accuracy even during defocusing.

<第2の実施形態>
次に、本発明の第2の実施形態について説明する。
<Second Embodiment>
Next, a second embodiment of the present invention will be described.

第2の実施形態は第1の実施形態と比較して、撮影レンズ100がズームやフォーカス位置により大きく瞳距離が変化する場合に対応するところが異なる。   The second embodiment is different from the first embodiment in that the photographing lens 100 corresponds to a case where the pupil distance greatly changes depending on the zoom or focus position.

図20はこれを説明するための図で、第1の実施形態の図11で示した焦点検出画素に対応する焦点検出用画素を示す。図20において、EPは撮影レンズ100のズーム位置がテレ端にある場合の射出瞳を示し、一方EPは撮影レンズ100のズーム位置がワイド端にある場合を示す。そして、テレとワイドの間においては、射出瞳は図中点線で結ぶ範囲で変化する。 FIG. 20 is a diagram for explaining this, and shows focus detection pixels corresponding to the focus detection pixels shown in FIG. 11 of the first embodiment. In FIG. 20, EP 1 shows the exit pupil when the zoom position of the taking lens 100 is at the tele end, while EP 2 shows the case when the zoom position of the taking lens 100 is at the wide end. And between tele and wide, an exit pupil changes in the range connected with a dotted line in a figure.

このように、第2の実施形態では撮影レンズ100のズーム位置に応じて射出瞳径のみならず、マイクロレンズから射出瞳までの距離、すなわち射出瞳距離が変化しているのが分かる。したがって、射出瞳EPとEPとでマイクロレンズMLのアライメント誤差DMLによる射出瞳領域EPHA1とEPHB1、EPHA2とEPHB2のずれDEP1とDEP2はそれぞれ異なる。 Thus, in the second embodiment, it can be seen that not only the exit pupil diameter but also the distance from the microlens to the exit pupil, that is, the exit pupil distance, changes according to the zoom position of the photographic lens 100. Therefore, the deviations D EP1 and D EP2 of the exit pupil regions EP HA1 and EP HB1 and EP HA2 and EP HB2 due to the alignment error D ML of the microlens ML are different between the exit pupils EP 1 and EP 2 .

図21は図20における撮像素子107の軸上付近の画素の射出瞳を撮像素子107側から見た図で、(a)がテレ端側を、(b)がワイド端側をそれぞれ示す。撮影レンズTLの光軸Lに対して、焦点検出用の射出瞳領域EPHA1とEPHB1、EPHA2とEPHB2の中心LAF1、LAF2はそれぞれDEP1、DEP2だけずれた位置にある。ここで、LAF1、LAF2は各射出瞳EP1、EP2における焦点検出手段の中心軸となり、DEP1、DEP2が中心軸ずれに相当する。そして射出瞳EP、EP2と焦点検出用の射出瞳領域EPHA1とEPHB1、EPHA2とEPHB2との共通領域、すなわち、実際焦点検出に使用する光束が通過する領域を右上がりの斜線領域210HA1と210HB1、211HA2と211HB2で示す。 FIGS. 21A and 21B are views of the exit pupils of pixels near the axis of the image sensor 107 in FIG. 20 as viewed from the image sensor 107 side, where FIG. 21A shows the tele end side and FIG. 21B shows the wide end side. The centers L AF1 and L AF2 of the exit pupil areas EP HA1 and EP HB1 and EP HA2 and EP HB2 for focus detection are shifted from the optical axis L of the photographing lens TL by D EP1 and D EP2 , respectively. Here, L AF1 and L AF2 are the central axes of the focus detection means in the respective exit pupils EP1 and EP2, and D EP1 and D EP2 correspond to the center axis deviation. The exit pupil regions EP 1 and EP 2 and the exit pupil regions EP HA1 and EP HB1 for focus detection, the common region of EP HA2 and EP HB2 , that is, the region through which the light beam used for actual focus detection passes is an oblique line region that rises to the right. 210 HA1 and 210 HB1 , 211 HA2 and 211 HB2 .

これら斜線領域から明らかなように、テレ端側とワイド端側では対となる焦点検出用画素の光量比は異なることが分かる。これは射出瞳EPからEPへの変動に加えて、中心軸ずれがDEP1からDEP2へ変化しているためである。また、図20及び図21は撮像素子107の軸上付近の画素についての説明だが、周辺部においては中心軸ずれの変化具合が軸上とは異なる。したがって、中心軸ずれを第1の実施形態のように1つの射出瞳上だけでの情報として記憶するのではなく、射出瞳距離変化に対応できるような形式で記憶しておく必要がある。 As is apparent from these hatched areas, it is understood that the light quantity ratio of the focus detection pixels that are paired differs between the tele end side and the wide end side. This in addition to variations from the exit pupil EP 1 to EP 2, the central axis shift is due to changes from D EP1 to D EP2. 20 and 21 illustrate the pixels in the vicinity of the axis of the image sensor 107. In the peripheral portion, the change degree of the center axis deviation is different from that on the axis. Therefore, it is necessary to store the center axis deviation in a format that can cope with the change in the exit pupil distance, instead of storing it as information on only one exit pupil as in the first embodiment.

そこで、撮像素子107から射出瞳までの距離をlとすると、撮像素子107の任意の画素位置(x,y)における中心軸ずれ(xERR,yERR)はこの距離lと画素位置(x,y)の関数として以下の式(4)、(5)で表すことができる。
ERR=h(l,x) …(4)
ERR=i(l,y) …(5)
Therefore, if the distance from the image sensor 107 to the exit pupil is 1, the center axis deviation (x ERR , y ERR ) at an arbitrary pixel position (x, y) of the image sensor 107 is the distance l and the pixel position (x, It can be expressed by the following formulas (4) and (5) as a function of y).
x ERR = h (l, x) (4)
y ERR = i (l, y) (5)

このh(l,x)とi(l,y)を中心軸ずれ情報としてあらかじめカメラに記憶しておき、算出した(xERR,yERR)を第1の実施形態の式(3)に代入することにより光量の補正を行うことができる。ところで、h(l,x)とi(l,y)をカメラの製造工程中に書き込むにあたっては、図20で示すような2つの射出瞳距離EP、EPにおける中心軸ずれDEP1、DEP2を複数の像高で測定する。このようにすれば容易にh(l,x)とi(l,y)を決定することができる。なお、第2の実施形態はズーム位置に応じて射出瞳が変化しているため、式(3)におけるf(x,y)、g(xERR,yERR)もズーム位置ごとに格納する構成をとっている。 The h (l, x) and i (l, y) are stored in the camera in advance as center axis deviation information, and the calculated (x ERR , y ERR ) is substituted into the expression (3) of the first embodiment. By doing so, the amount of light can be corrected. By the way, when writing h (l, x) and i (l, y) during the manufacturing process of the camera, the center axis deviations D EP1 and D at two exit pupil distances EP 1 and EP 2 as shown in FIG. EP2 is measured at multiple image heights. In this way, h (l, x) and i (l, y) can be easily determined. In the second embodiment, since the exit pupil changes according to the zoom position, f (x, y) and g (x ERR , y ERR ) in Expression (3) are also stored for each zoom position. Have taken.

以上のように、第2の実施形態では中心軸ずれ情報を撮影レンズ100の瞳距離変化に対応した形の情報としてカメラに記憶するため、瞳距離変動が大きい撮影レンズが備えられたカメラにおいても精度よく焦点検出を行うことができる。なお、上記説明は撮影レンズのズームによる瞳距離変動を例として説明したが、本第2の実施形態は射出瞳が個々で異なる複数の撮影レンズを装着可能なカメラシステムにも適用できる。   As described above, in the second embodiment, since the center axis deviation information is stored in the camera as information in a form corresponding to the pupil distance change of the photographing lens 100, even in a camera equipped with a photographing lens having a large pupil distance variation. Focus detection can be performed with high accuracy. In the above description, the pupil distance variation due to the zoom of the photographing lens has been described as an example. However, the second embodiment can be applied to a camera system in which a plurality of photographing lenses having different exit pupils can be mounted.

<第3の実施形態>
次に、本発明の第3の実施形態について説明する。
<Third Embodiment>
Next, a third embodiment of the present invention will be described.

第3の実施形態は、第1の実施形態の焦点検出手段をカメラシステムに適用した例を示す。   The third embodiment shows an example in which the focus detection unit of the first embodiment is applied to a camera system.

図22は第3の実施形態におけるカメラシステムの構成を示すブロック図である。なお、第1の実施形態と同様の符号を付したものは同様の役割を果たし、説明は省略する。図22において、220はカメラ本体、221はカメラ本体220に着脱可能な交換レンズを示し、それぞれのIF部222と223を介して、情報通信可能な構成にて接合されている。交換レンズ221は各種演算処理を行うCPU224を備え、撮影レンズ100のズーム、フォーカス、絞りシャッターなどを駆動する駆動回路225が接続され、さらに駆動回路225には各アクチュエータ226が接続される。また、各種情報を書き換え可能なフラッシュメモリ227をカメラ本体220と同様に備える。   FIG. 22 is a block diagram illustrating a configuration of a camera system according to the third embodiment. In addition, what attached | subjected the code | symbol similar to 1st Embodiment plays the same role, and abbreviate | omits description. In FIG. 22, reference numeral 220 denotes a camera body, and 221 denotes an interchangeable lens that can be attached to and detached from the camera body 220. The interchangeable lens 221 includes a CPU 224 that performs various arithmetic processes, and is connected to a drive circuit 225 that drives zoom, focus, aperture shutter, and the like of the photographing lens 100, and each actuator 226 is connected to the drive circuit 225. Further, a flash memory 227 capable of rewriting various information is provided in the same manner as the camera body 220.

図23は、図22のブロック図中、本発明に関わる部分を抜き出したブロック図で、より詳細な内容を示す。図において中央の点線より右側がカメラ本体220で、左側が交換レンズ221(レンズユニット)を示す。第1の実施形態と異なる箇所は、カメラ本体220のフラッシュメモリ133は画素感度ムラ情報175と中心軸ずれ情報177のみを有し、交換レンズ221のフラッシュメモリ227が射出瞳情報176を有することである。したがって、交換レンズ221として別の種類のレンズが装着された際にも、そのレンズ固有の射出瞳情報176をIF部222、223を介して取得することができる。   FIG. 23 is a block diagram in which portions related to the present invention are extracted from the block diagram of FIG. 22 and shows more detailed contents. In the figure, the right side of the center dotted line is the camera body 220, and the left side is the interchangeable lens 221 (lens unit). The difference from the first embodiment is that the flash memory 133 of the camera body 220 has only pixel sensitivity unevenness information 175 and center axis deviation information 177, and the flash memory 227 of the interchangeable lens 221 has exit pupil information 176. is there. Therefore, even when another type of lens is attached as the interchangeable lens 221, the exit pupil information 176 unique to the lens can be acquired via the IF units 222 and 223.

なお、本第3の実施形態は射出瞳径および距離が個々のレンズで異なる複数の撮影レンズを装着可能なカメラシステムが前提であるため、中心軸ずれ情報177は第2の実施形態のような形式で格納するのが好適である。フラッシュメモリ133の容量を減らすためには、各種交換レンズの代表的な射出瞳距離での中心軸ずれ情報177とすることが効果的であるが、第2の実施形態による手法がより高精度であることは言うまでもない。以上のような構成で、補正部170により第1の実施形態もしくは第2の実施形態で説明した補正を行うことで、カメラシステムにおいても高精度な焦点検出を実現することができる。   Since the third embodiment is premised on a camera system in which a plurality of photographing lenses having different exit pupil diameters and distances can be attached to individual lenses, the center axis deviation information 177 is the same as that of the second embodiment. It is preferable to store in the format. In order to reduce the capacity of the flash memory 133, it is effective to use the center axis deviation information 177 at typical exit pupil distances of various interchangeable lenses. However, the method according to the second embodiment is more accurate. Needless to say. With the above-described configuration, the correction unit 170 performs the correction described in the first embodiment or the second embodiment, so that highly accurate focus detection can be realized even in the camera system.

<第4の実施形態>
次に、本発明の第4の実施形態について説明する。
<Fourth Embodiment>
Next, a fourth embodiment of the present invention will be described.

第4の実施形態は第1の実施形態と比較して、2次結像タイプで位相差方式の焦点検出部を有するカメラシステムに本発明を適用した例を示す。   Compared to the first embodiment, the fourth embodiment shows an example in which the present invention is applied to a camera system having a secondary imaging type and a phase difference type focus detection unit.

図24は第4の実施形態におけるカメラシステムの構成を示すブロック図である。なお、第1〜第3の実施形態と同様の符号を付したものは同様の役割を果たし、説明は省略する。図において、カメラ本体220には2次結像タイプで位相差方式の焦点検出部240を備える。したがって、撮像素子107は第1の実施形態とは異なり、図3の画素のみで構成される撮像専用の撮像素子となる。交換レンズ221の撮影レンズ100と撮像素子107の間にはメインミラー241とサブミラー242が配置され、撮影レンズ100を通過した光束を分割および偏光している。   FIG. 24 is a block diagram illustrating a configuration of a camera system according to the fourth embodiment. In addition, what attached | subjected the code | symbol similar to 1st-3rd embodiment played the same role, and abbreviate | omits description. In the figure, the camera body 220 includes a secondary imaging type and phase difference type focus detection unit 240. Therefore, unlike the first embodiment, the image sensor 107 is an image sensor dedicated to imaging, which includes only the pixels of FIG. A main mirror 241 and a sub mirror 242 are disposed between the photographing lens 100 of the interchangeable lens 221 and the image sensor 107 to split and polarize the light beam that has passed through the photographing lens 100.

まず、メインミラー241はハーフミラーで構成され、撮影レンズ100を通過した光束の一部を上方に反射し、残りを透過する。メインミラー241で反射した光束は、フォーカシングスクリーン、コンデンサレンズ、ペンタプリズム、接眼レンズ群からなるファインダー光学系243に入射し、ユーザーによって被写体像を観察可能な構成となっている。一方、メインミラー241を透過した光束はサブミラー242で下方へ反射され、焦点検出部240に入射する。メインミラー241とサブミラー242は周知のクイックリターン機構により構成され、撮影時には光路外へ退避することができる。   First, the main mirror 241 is formed of a half mirror, and reflects part of the light beam that has passed through the photographing lens 100 upward and transmits the rest. The light beam reflected by the main mirror 241 is incident on a finder optical system 243 including a focusing screen, a condenser lens, a pentaprism, and an eyepiece lens group so that a subject image can be observed by a user. On the other hand, the light beam transmitted through the main mirror 241 is reflected downward by the sub-mirror 242 and enters the focus detection unit 240. The main mirror 241 and the sub mirror 242 are configured by a known quick return mechanism, and can be retracted out of the optical path during photographing.

焦点検出部240は2次結像タイプの位相差方式を用いており、フィールドレンズ、対の2次結像レンズ、対の受光センサなどから構成される公知の構成であり、詳細な説明は省略する。   The focus detection unit 240 uses a secondary imaging type phase difference method and has a known configuration including a field lens, a pair of secondary imaging lenses, a pair of light receiving sensors, and the like, and detailed description thereof is omitted. To do.

図25は焦点検出部240と各種交換レンズの射出瞳の関係を示す概念図で、図24のメインミラー241とサブミラー242を省略して展開した図である。図25において、EPL1はある交換レンズの射出瞳を示し、EPL2はこれとは異なる別の交換レンズの射出瞳を示す。L1、L2はこれら交換レンズの光軸を示し、2つの光軸が重なっているためここでは1本の線で表されている。250は交換レンズの焦点面である1次結像面を示し、図24の撮像素子107の撮像面と光学的に等価な位置となっている。そして、焦点検出部240は1次結像面250の後方に配置され、一点鎖線で示す251が焦点検出部240の中心軸となっている。 FIG. 25 is a conceptual diagram illustrating the relationship between the focus detection unit 240 and the exit pupils of various interchangeable lenses, and is a diagram in which the main mirror 241 and the sub mirror 242 in FIG. 24 are omitted. In FIG. 25, EP L1 indicates an exit pupil of an interchangeable lens, and EP L2 indicates an exit pupil of another interchangeable lens different from this. L1 and L2 indicate the optical axes of these interchangeable lenses, and are represented by one line here because the two optical axes overlap. Reference numeral 250 denotes a primary imaging plane which is a focal plane of the interchangeable lens, and is at a position optically equivalent to the imaging plane of the imaging element 107 in FIG. The focus detection unit 240 is disposed behind the primary imaging plane 250, and 251 indicated by a one-dot chain line is the central axis of the focus detection unit 240.

中心軸251は製造誤差により光軸L1、L2に対してずれが生じ、射出瞳EPL1上では中心軸ずれDEPL1となり、射出瞳EPL2上では中心軸ずれDEPL2となっている。すなわち、焦点検出部240の中心軸251にずれが生じた場合、様々な射出瞳を有する撮影レンズが装着可能なカメラシステムにおいては、中心軸ずれが射出瞳距離によって異なることを示す。したがって、このような中心軸ずれ情報を射出瞳距離に対応する形式であらかじめカメラに記憶しておけば、第2の実施形態で説明した手法により高精度な焦点検出を行うことができる。 Central axis 251 deviation occurs with respect to the optical axis L1, L2 due to a manufacturing error, than on the exit pupil EP L1 central axis shift D EPL1 next, it is on the exit pupil EP L2 has a central axis shift D EPL2. That is, when a deviation occurs in the central axis 251 of the focus detection unit 240, it indicates that the deviation of the central axis varies depending on the exit pupil distance in a camera system in which a photographing lens having various exit pupils can be attached. Therefore, if such center axis deviation information is stored in the camera in a format corresponding to the exit pupil distance in advance, high-precision focus detection can be performed by the method described in the second embodiment.

なお、本第4の実施形態における中心軸ずれはメインミラー241やサブミラー242の位置誤差、もしくは焦点検出部240内部のフィールドレンズによる製造誤差などで起こり得る。そこで、焦点検出部240の中心軸ずれを調整する機構を設けて、組立製造時に調整を行ういくつかの方法が公開されているが、本第4の実施形態を適用すれば、この機構自体を無くすことができるため、コストダウンの効果がある。   The center axis deviation in the fourth embodiment may occur due to a position error of the main mirror 241 and the sub mirror 242 or a manufacturing error due to a field lens inside the focus detection unit 240. In view of this, some mechanisms for adjusting the center axis deviation of the focus detection unit 240 and performing adjustment at the time of assembling and manufacturing have been disclosed. If this fourth embodiment is applied, this mechanism itself is Since it can be eliminated, there is an effect of cost reduction.

100:撮影レンズ、107:撮像素子、170:補正部、176:射出瞳情報、177:中心軸ずれ情報   100: photographing lens 107: imaging device 170: correction unit 176: exit pupil information 177: center axis deviation information

上記目的を達成するために、本発明の撮像装置は、対の画像信号からレンズの焦点位置を検出可能な撮像装置であって、画面内の設定された領域に対応する対の画像信号を出力可能な撮像素子と記レンズの射出瞳を介して前記対の画像信号を出力可能な撮像素子に入射する光量のアンバランスに起因する信号レベルの違いを補償するように、前記設定された領域の像高と前記撮像素子の製造の際のアライメント誤差に関連した補正情報とに応じて前記対の画像信号の信号レベルを補正する補正手段と、を備える。 In order to achieve the above object, an imaging apparatus of the present invention is an imaging apparatus capable of detecting a focal position of a lens from a pair of image signals, and outputs a pair of image signals corresponding to a set area in a screen. an imaging element capable, prior to compensate for the difference in signal level caused by the imbalance of the amount of light incident to the image signal capable of outputting the image pickup device of said pair through the exit pupil of sharp lens, is the set comprising areas and correcting means for correcting the signal level of the image signal of the pair in accordance with the correction information associated with misalignment during manufacture of the image height and the image sensor, a.

また、本発明の撮像システムは、上記撮像装置と、前記撮像装置に着脱可能なレンズユニットとを有し、前記撮像装置に前記補正情報を格納し、前記レンズユニットに前記射出瞳に関する情報を格納し、前記レンズユニットから前記撮像装置へ前記射出瞳に関する情報を送信する。 The imaging system of the present invention includes the imaging device and a lens unit that can be attached to and detached from the imaging device, stores the correction information in the imaging device, and stores information on the exit pupil in the lens unit. Then, information regarding the exit pupil is transmitted from the lens unit to the imaging device.

また、対の画像信号からレンズの焦点位置を検出可能な撮像装置の本発明の制御方法は、画面内の設定された領域に対応する対の画像信号を撮像素子から出力する出力工程と、前記レンズの射出瞳を介して前記対の画像信号を出力可能な撮像素子に入射する光量のアンバランスに起因する信号レベルの違いを補償するように補正する補正工程において、前記設定された領域の像高と前記撮像素子の製造の際のアライメント誤差に関連した補正情報とに応じて前記対の画像信号の信号レベルを補正する。 Further, the control method of the present invention for an imaging apparatus capable of detecting the focal position of a lens from a pair of image signals includes an output step of outputting a pair of image signals corresponding to a set area in a screen from the imaging device, In the correction step of correcting so as to compensate for the difference in signal level caused by the unbalance of the amount of light incident on the imaging device capable of outputting the pair of image signals via the exit pupil of the lens, the image of the set region The signal level of the pair of image signals is corrected according to the height and correction information related to an alignment error at the time of manufacturing the imaging device.

Claims (7)

撮影レンズの異なる領域を通過する対の光束をそれぞれ光電変換して画像信号対を出力する複数の焦点検出用画素対を含み、各画素に対応したマイクロレンズがそれぞれ形成された撮像素子と、
前記マイクロレンズの形成時のアライメント誤差を含む製造誤差に関する中心軸ずれ情報を記憶する記憶手段と、
前記撮影レンズの射出瞳を介して前記焦点検出用画素対のそれぞれに入射する光量のアンバランスを補償するように、前記製造誤差が無い場合に像高に応じて変化する前記光量の比を示す関数を前記中心軸ずれ情報に基づいて変更し、該変更した関数と前記焦点検出用画素対の像高とに応じて前記画像信号対の信号レベルを補正する補正手段と、
前記補正手段により補正された前記画像信号対を用いて、前記撮影レンズの焦点検出を行う焦点検出手段と
を備えることを特徴とする撮像装置。
An image sensor including a plurality of focus detection pixel pairs that photoelectrically convert a pair of light fluxes that pass through different areas of the photographing lens and output image signal pairs, each of which is formed with a microlens corresponding to each pixel;
Storage means for storing center axis deviation information relating to manufacturing errors including alignment errors at the time of forming the microlens;
The ratio of the amount of light that changes according to the image height when there is no manufacturing error so as to compensate for the unbalance of the amount of light incident on each of the focus detection pixel pairs via the exit pupil of the photographing lens. A function that changes a function based on the center axis deviation information, and corrects the signal level of the image signal pair according to the changed function and the image height of the focus detection pixel pair;
An imaging apparatus comprising: a focus detection unit that performs focus detection of the photographing lens using the image signal pair corrected by the correction unit.
前記補正手段は、更に、前記撮影レンズの射出瞳までの射出瞳距離に基づいて、前記撮像素子の各位置における前記焦点検出用画素対の中心軸ずれ情報を補正し、該補正した後の中心軸ずれ情報に基づいて前記画像信号対の信号レベルを補正することを特徴とする請求項1に記載の撮像装置。   The correction means further corrects the center axis deviation information of the focus detection pixel pair at each position of the imaging element based on the exit pupil distance to the exit pupil of the photographing lens, and the corrected center The imaging apparatus according to claim 1, wherein a signal level of the image signal pair is corrected based on axis deviation information. 前記撮像素子は、画像の撮影に用いる撮像素子であって、該撮像素子の一部の画素を前記焦点検出用画素対として構成したことを特徴とする請求項1または2に記載の撮像装置。   The imaging device according to claim 1, wherein the imaging device is an imaging device used for taking an image, and a part of pixels of the imaging device is configured as the focus detection pixel pair. 前記撮像素子は、画像の撮影に用いる撮像素子とは別に構成された、焦点検出用の撮像素子であることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the imaging element is an imaging element for focus detection that is configured separately from an imaging element used for capturing an image. 前記中心軸ずれ情報は少なくとも撮像装置ごとに設定される情報であることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the center axis deviation information is information set at least for each imaging apparatus. 請求項1乃至5のいずれか1項に記載の撮像装置と、
前記撮像装置に着脱可能なレンズユニットとを有し、
前記撮像装置に前記中心軸ずれ情報を格納し、前記レンズユニットに前記射出瞳に関する情報を格納し、前記レンズユニットから前記撮像装置へ前記射出瞳に関する情報を送信することを特徴とする撮像システム。
The imaging apparatus according to any one of claims 1 to 5,
A lens unit detachable from the imaging device;
An imaging system comprising: storing the central axis deviation information in the imaging apparatus; storing information on the exit pupil in the lens unit; and transmitting information on the exit pupil from the lens unit to the imaging apparatus.
撮像装置における焦点検出方法であって、
出力手段が、撮像素子に含まれる複数の焦点検出用画素対により、撮影レンズの異なる領域を通過する対の光束をそれぞれ光電変換して画像信号対を出力する出力工程と、
取得手段が、前記撮像素子の各画素に対応して形成されたマイクロレンズの形成時のアライメント誤差を含む製造誤差に関する中心軸ずれ情報を取得する取得工程と、
補正手段が、前記撮影レンズの射出瞳を介して前記焦点検出用画素対のそれぞれに入射する光量のアンバランスを補償するように、前記製造誤差が無い場合に像高に応じて変化する前記光量の比を示す関数を、前記中心軸ずれ情報に基づいて変更し、該変更した関数と前記焦点検出用画素対の像高とに応じて前記画像信号対の信号レベルを補正する補正工程と、
焦点検出手段が、前記補正工程で補正された前記画像信号対を用いて、前記撮影レンズの焦点検出を行う焦点検出工程と
を備えることを特徴とする焦点検出方法。
A focus detection method in an imaging apparatus,
An output unit that outputs a pair of image signals by photoelectrically converting a pair of light beams that pass through different regions of the photographing lens by a plurality of focus detection pixel pairs included in the image sensor; and
An acquisition step in which an acquisition unit acquires center axis deviation information related to a manufacturing error including an alignment error when forming a microlens formed corresponding to each pixel of the image sensor;
The amount of light that changes in accordance with the image height when there is no manufacturing error so that the correction means compensates for an unbalance of the amount of light incident on each of the focus detection pixel pairs via the exit pupil of the photographing lens. A correction step for correcting the signal level of the image signal pair according to the changed function and the image height of the focus detection pixel pair,
A focus detection method, comprising: a focus detection step of performing focus detection of the photographing lens using the image signal pair corrected in the correction step.
JP2014101762A 2014-05-15 2014-05-15 IMAGING DEVICE, IMAGING SYSTEM, AND IMAGING DEVICE CONTROL METHOD Active JP5968359B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014101762A JP5968359B2 (en) 2014-05-15 2014-05-15 IMAGING DEVICE, IMAGING SYSTEM, AND IMAGING DEVICE CONTROL METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014101762A JP5968359B2 (en) 2014-05-15 2014-05-15 IMAGING DEVICE, IMAGING SYSTEM, AND IMAGING DEVICE CONTROL METHOD

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012275093A Division JP5548761B2 (en) 2012-12-17 2012-12-17 Imaging apparatus, imaging system, and focus detection method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016134396A Division JP6302512B2 (en) 2016-07-06 2016-07-06 IMAGING DEVICE, IMAGING SYSTEM, AND IMAGING DEVICE CONTROL METHOD

Publications (2)

Publication Number Publication Date
JP2014186338A true JP2014186338A (en) 2014-10-02
JP5968359B2 JP5968359B2 (en) 2016-08-10

Family

ID=51833913

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014101762A Active JP5968359B2 (en) 2014-05-15 2014-05-15 IMAGING DEVICE, IMAGING SYSTEM, AND IMAGING DEVICE CONTROL METHOD

Country Status (1)

Country Link
JP (1) JP5968359B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016194717A (en) * 2016-07-06 2016-11-17 キヤノン株式会社 Imaging apparatus, imaging system, and focus detection method
US10623624B2 (en) 2017-03-27 2020-04-14 Canon Kabushiki Kaisha Electronic apparatus equipped with detachable image pickup apparatuses, control method therefor, and storage medium storing control program therefor
CN112740090A (en) * 2018-07-20 2021-04-30 株式会社尼康 Focus detection device, imaging device, and interchangeable lens
CN113424102A (en) * 2018-12-26 2021-09-21 株式会社尼康 Interchangeable lens, focus detection device, and camera body

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6479711A (en) * 1987-09-21 1989-03-24 Fuji Photo Film Co Ltd Automatic focusing adjuster
JPS6479714A (en) * 1987-09-21 1989-03-24 Fuji Photo Film Co Ltd Automatic focusing device
JP2002131623A (en) * 2000-10-24 2002-05-09 Canon Inc Imaging apparatus and system
JP2007189312A (en) * 2006-01-11 2007-07-26 Nikon Corp Imaging apparatus, imaging method, and camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6479711A (en) * 1987-09-21 1989-03-24 Fuji Photo Film Co Ltd Automatic focusing adjuster
JPS6479714A (en) * 1987-09-21 1989-03-24 Fuji Photo Film Co Ltd Automatic focusing device
JP2002131623A (en) * 2000-10-24 2002-05-09 Canon Inc Imaging apparatus and system
JP2007189312A (en) * 2006-01-11 2007-07-26 Nikon Corp Imaging apparatus, imaging method, and camera

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016194717A (en) * 2016-07-06 2016-11-17 キヤノン株式会社 Imaging apparatus, imaging system, and focus detection method
US10623624B2 (en) 2017-03-27 2020-04-14 Canon Kabushiki Kaisha Electronic apparatus equipped with detachable image pickup apparatuses, control method therefor, and storage medium storing control program therefor
CN112740090A (en) * 2018-07-20 2021-04-30 株式会社尼康 Focus detection device, imaging device, and interchangeable lens
CN112740090B (en) * 2018-07-20 2022-08-12 株式会社尼康 Focus detection device, imaging device, and interchangeable lens
CN113424102A (en) * 2018-12-26 2021-09-21 株式会社尼康 Interchangeable lens, focus detection device, and camera body
CN113424102B (en) * 2018-12-26 2024-02-13 株式会社尼康 Interchangeable lens, focus detection device, and camera body

Also Published As

Publication number Publication date
JP5968359B2 (en) 2016-08-10

Similar Documents

Publication Publication Date Title
JP5161702B2 (en) Imaging apparatus, imaging system, and focus detection method
JP5028154B2 (en) Imaging apparatus and control method thereof
JP5552214B2 (en) Focus detection device
JP5676962B2 (en) Focus detection apparatus and imaging apparatus
US8488956B2 (en) Focus adjusting apparatus and focus adjusting method
JP5895355B2 (en) Imaging device
JP5762002B2 (en) Imaging device
JP6239857B2 (en) Imaging apparatus and control method thereof
JP2012141585A (en) Imaging apparatus
KR20120022947A (en) Focus detection apparatus
JP2013125095A (en) Imaging apparatus and focus detection method
JP2015079193A (en) Image capturing device, image capturing system, method of controlling image capturing device, program, and recording medium
JP5968359B2 (en) IMAGING DEVICE, IMAGING SYSTEM, AND IMAGING DEVICE CONTROL METHOD
JP6302512B2 (en) IMAGING DEVICE, IMAGING SYSTEM, AND IMAGING DEVICE CONTROL METHOD
JP2017158018A (en) Image processing apparatus, control method of the same, and imaging apparatus
JP2018132581A (en) Focus detection device, focus detection method, and focus detection program
JP2017032646A (en) Image-capturing device and method for controlling the same
JP5548761B2 (en) Imaging apparatus, imaging system, and focus detection method
JP2017219782A (en) Control device, imaging device, control method, program, and storage medium
JP2014238517A (en) Imaging device, imaging system, imaging device control method, program, and storage medium
JP2019074634A (en) Imaging apparatus
JP6765829B2 (en) Image processing device, control method of image processing device, imaging device
JP6365568B2 (en) Imaging device and imaging apparatus
JP2015099218A (en) Focal point detector, focal point detector control method, imaging device, program, and recording medium
JP2018191304A (en) Imaging element and imaging device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160705

R151 Written notification of patent or utility model registration

Ref document number: 5968359

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151