JP2012252280A - Imaging apparatus - Google Patents
Imaging apparatus Download PDFInfo
- Publication number
- JP2012252280A JP2012252280A JP2011126701A JP2011126701A JP2012252280A JP 2012252280 A JP2012252280 A JP 2012252280A JP 2011126701 A JP2011126701 A JP 2011126701A JP 2011126701 A JP2011126701 A JP 2011126701A JP 2012252280 A JP2012252280 A JP 2012252280A
- Authority
- JP
- Japan
- Prior art keywords
- focus detection
- image
- pixel
- crosstalk
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Devices (AREA)
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
Abstract
Description
本発明は、2次元に構成された多数の光電変換素子で動画もしくは静止画を撮像可能な撮像素子を備え、この撮像素子を用いて位相差式焦点検出を行なう撮像装置に関する。 The present invention relates to an image pickup apparatus that includes an image pickup device capable of picking up a moving image or a still image with a large number of two-dimensionally configured photoelectric conversion elements and performs phase difference focus detection using the image pickup device.
動画や静止画が記録可能な電子カメラにおいて、画像記録用の撮像素子を用いて位相差検出方式の焦点検出を実現する技術が提案されている。位相差検出方式では、撮影光学系の射出瞳を通過した光束を2分割し、2分割した光束を1組の焦点検出用受光素子群で受光する。そして、その受光量に応じて出力される1対2像の信号波形のずれ量、すなわち、光束の瞳分割方向に生ずる相対的位置ずれ量を検出することで、撮影光学系の焦点ずれ量(デフォーカス量)を求めるものである。 In an electronic camera capable of recording a moving image or a still image, a technique for realizing focus detection by a phase difference detection method using an image recording image sensor has been proposed. In the phase difference detection method, the light beam that has passed through the exit pupil of the photographing optical system is divided into two, and the two divided light beams are received by a set of focus detection light receiving element groups. Then, by detecting the shift amount of the signal waveform of the one-to-two image output according to the received light amount, that is, the relative positional shift amount generated in the pupil division direction of the light beam, the defocus amount ( Defocus amount).
この位相差検出方式を実現するための構成として、焦点検出専用の光学系と受光センサを用いた方式と、画像記録用の撮像素子で焦点検出を行なう方式がある。前者の例として、AF一眼レフカメラに採用されている二次結像位相差検出方式が挙げられる。これは、撮影光学系の予定結像面に瞳分割用のフィールドレンズと二次結像レンズを配し、その後方に配置した受光センサに1対2像を結像させ、焦点検出用信号を得るものである。また後者の例として、撮像素子の各画素に搭載されたオンチップマイクロレンズで瞳分割を行なう方式が提案されている。 As a configuration for realizing this phase difference detection method, there are a method using an optical system dedicated to focus detection and a light receiving sensor, and a method of performing focus detection using an image sensor for image recording. As an example of the former, there is a secondary imaging phase difference detection method employed in an AF single-lens reflex camera. This is because a pupil-dividing field lens and a secondary imaging lens are arranged on the planned imaging plane of the photographing optical system, and a one-to-two image is formed on a light receiving sensor arranged behind the lens, and a focus detection signal is generated. To get. As the latter example, a method of dividing the pupil with an on-chip microlens mounted on each pixel of the image sensor has been proposed.
後者の方式では、二次結像方式に用いられる焦点検出専用の機構が不要なため、機器の小型化、低価格化に有利である。また、撮像と焦点検出が同時に行なえるため、特に動画撮影に適している。一方で、この方式は種々の理由により1対の焦点検出信号に歪みが生じ易く、焦点検出専用の機構を用いた方式に対して焦点検出誤差が大きいという問題がある。その焦点検出信号が歪む一つの原因として、隣接画素間での出力干渉、いわゆるクロストークが挙げられる。また他の原因として、焦点検出光束が撮影光学系の射出瞳でけられ、像が歪むことが挙げられる。そこで、上記クロストークや光束ケラレによる像歪みの影響を軽減するため、以下のような技術が提案されている。 The latter method is advantageous in reducing the size and cost of the device because a mechanism dedicated to focus detection used in the secondary imaging method is unnecessary. Moreover, since imaging and focus detection can be performed simultaneously, it is particularly suitable for moving image shooting. On the other hand, this method has a problem that a pair of focus detection signals are easily distorted due to various reasons, and a focus detection error is larger than a method using a mechanism dedicated to focus detection. One cause of distortion of the focus detection signal is output interference between adjacent pixels, so-called crosstalk. Another cause is that the focus detection light beam is displaced by the exit pupil of the photographing optical system and the image is distorted. Therefore, the following techniques have been proposed in order to reduce the influence of the image distortion due to the crosstalk and luminous flux vignetting.
例えば特開2009−122524号公報(特許文献1)では、焦点検出用画素とその周囲画素間のクロストーク率を予め測定し、焦点検出信号にクロストーク補正を施すことで、焦点検出信号に生じた歪みを補正している。 For example, in Japanese Patent Application Laid-Open No. 2009-122524 (Patent Document 1), a crosstalk rate between a focus detection pixel and its surrounding pixels is measured in advance, and crosstalk correction is performed on the focus detection signal, thereby generating a focus detection signal. Corrects distortion.
また特開2010−117679号公報(特許文献2)では、焦点検出用画素の受光特性と撮影光学系の射出瞳情報から、像歪み特性を表わす線像分布関数を算出する。そして、この線像分布関数から、像歪みを解消するための修正フィルタを創生し、焦点検出信号にこのフィルタを畳み込み積分することで、像歪みを解消している。 In Japanese Patent Laid-Open No. 2010-117679 (Patent Document 2), a line image distribution function representing image distortion characteristics is calculated from light reception characteristics of focus detection pixels and exit pupil information of the imaging optical system. Then, a correction filter for eliminating the image distortion is created from this line image distribution function, and the image distortion is eliminated by convolving and integrating the filter with the focus detection signal.
しかしながら上記公知技術には、以下のような欠点があった。特許文献1に開示された技術では、焦点検出用光束がケラレることによる像歪みが解消されないため、1対2像の一致度が低下する。その結果、相関演算時の2像の横ずれ量検出誤差が発生し、焦点検出誤差が生ずる。
However, the above known technique has the following drawbacks. In the technique disclosed in
特許文献2に開示された技術では、線像分布関数にもクロストークの影響による歪みが発生するはずであるが、線像分布関数の歪みを解消する技術は開示されていない。そこで焦点検出用像信号の歪みを解消する修正フィルタにも誤差を生じ、その結果焦点検出精度を低下させるという懸念がある。 In the technique disclosed in Patent Document 2, distortion due to the influence of crosstalk should also occur in the line image distribution function, but a technique for eliminating the distortion of the line image distribution function is not disclosed. Therefore, there is a concern that an error also occurs in the correction filter that eliminates distortion of the focus detection image signal, resulting in a decrease in focus detection accuracy.
本発明は上述した課題に鑑みてなされたものであり、その目的は、撮像用画素の間に焦点検出用画素が配置された撮像素子を用いて位相差方式の焦点検出を行う場合の、検出精度を向上させることである。 The present invention has been made in view of the above-described problems, and an object of the present invention is to detect in the case where phase difference type focus detection is performed using an image sensor in which focus detection pixels are arranged between imaging pixels. It is to improve accuracy.
本発明に係わる撮像装置は、撮影光学系により結像された被写体像を撮像する撮像用画素群と、前記撮影光学系の射出瞳を分割し、該分割された領域からの光束を用いて位相差式の焦点検出を行なうための焦点検出用画素群とを備えた撮像素子と、前記焦点検出用画素群における隣接画素からのクロストーク成分を補正した所定の信号を算出するとともに、該所定の信号により補正された焦点検出用の像信号を用いて焦点検出演算を行なう演算手段と、を備えることを特徴とする。 An imaging apparatus according to the present invention divides an imaging pixel group that captures a subject image formed by a photographic optical system and an exit pupil of the photographic optical system, and uses a light beam from the divided area. An image sensor having a focus detection pixel group for performing phase difference type focus detection, a predetermined signal in which a crosstalk component from an adjacent pixel in the focus detection pixel group is corrected, and a predetermined signal are calculated. And a calculation means for performing focus detection calculation using the image signal for focus detection corrected by the signal.
本発明によれば、撮像用画素の間に焦点検出用画素が配置された撮像素子を用いて位相差方式の焦点検出を行う場合の、検出精度を向上させることが可能となる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to improve a detection precision in the case of performing a phase difference type focus detection using the image pick-up element by which the focus detection pixel was arrange | positioned between the image pickup pixels.
以下、本発明の実施形態について、添付図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
(第1の実施形態)
図1は本発明の第1の実施形態に係る撮像装置100の構成図で、撮像素子を有したカメラ本体と撮影光学系が一体となった電子カメラを示しており、動画及び静止画が記録可能である。図1において、101は撮影光学系(結像光学系)の先端に配置された第1レンズ群で、光軸方向に移動可能に保持される。102は絞りで、その開口径を調節することで撮影時の光量調節を行なうほか、静止画撮影時には露光秒時調節用シャッタとしての機能も備える。103は第2レンズ群である。そして絞り102及び第2レンズ群103は一体となって光軸方向に駆動され、第1レンズ群101の移動動作との連動により、変倍作用(ズーム機能)をなす。
(First embodiment)
FIG. 1 is a configuration diagram of an
105は第3レンズ群で、光軸方向の移動により焦点調節を行なう。106は光学的ローパスフィルタで、撮影画像の偽色やモアレを軽減するための光学素子である。107はC−MOSセンサとその周辺回路で構成された撮像素子である。撮像素子107には、横方向にM画素、縦方向にN画素の受光ピクセルが正方配置され、ベイヤー配列の原色カラーモザイクフィルタがオンチップで形成された、2次元単板カラーセンサが用いられる。
111はズームアクチュエータで、不図示のカム筒を回動することにより、第1レンズ群101乃至第3レンズ群105を光軸方向に駆動し、変倍操作を行なう。112は絞りアクチュエータで、絞り102の開口径を制御して撮影光量を調節すると共に、静止画撮影時の露光時間制御を行なう。114はフォーカスアクチュエータで、第3レンズ群105を光軸方向に駆動して焦点調節を行なう。
115は無線式通信部で、インターネット等のネットワークを通じてサーバーコンピュータと通信するためのアンテナや信号処理回路で構成される。116はカメラの姿勢検知部で、カメラの撮影姿勢、すなわち横位置撮影か縦位置撮影かを判別するための電子水準器が用いられる。
A
121はCPUで、カメラ本体の種々の制御を司るために、演算部、ROM、RAM、A/Dコンバータ、D/Aコンバータ、通信インターフェイス回路等を有する。そしてROMに記憶された所定のプログラムに基づいて、カメラが有する各種回路を駆動し、AF、撮影、画像処理と記録等の一連の動作を実行する。
122は通信制御回路で、通信部115を介して、カメラから撮影画像をサーバーコンピュータに送信したり、サーバーコンピュータから画像や各種情報を受信する。123は姿勢検知回路で、姿勢検知部116の出力信号から、カメラの姿勢を判別する。124は撮像素子駆動回路で、撮像素子107の撮像動作を制御するとともに、取得した画像信号をA/D変換してCPU121に送信する。125は画像処理回路で、撮像素子107が取得した画像のγ変換、カラー補間、画像圧縮等の処理を行なう。
A
126はフォーカス駆動回路で、焦点検出結果に基づいてフォーカスアクチュエータ114を駆動制御し、第3レンズ群105を光軸方向に駆動して焦点調節を行なう。128は絞り駆動回路で、絞りアクチュエータ112を駆動制御して絞り102の開口を制御する。129はズーム駆動回路で、撮影者のズーム操作に応じてズームアクチュエータ111を駆動する。
A
131はLCD等の表示器で、カメラの撮影モードに関する情報、撮影時のプレビュー画像と撮影後の確認用画像、焦点検出時の合焦状態表示画像、カメラの姿勢情報等を表示する。132は操作スイッチ群で、電源スイッチ、撮影開始スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等で構成される。133は着脱可能なフラッシュメモリで、撮影済み画像を記録する。
141はカメラとは独立した外部PCで、カメラの各種調整工程を実施する際に適宜用いられ、各種工具と連携するためのインターフェイスや調整プログラムが内蔵されている。
図2は本発明の第1の実施形態における撮像素子の画素配列領域を示したもので、撮影光学系側から撮像素子107の受光面を見た図である。107imは撮像領域で、撮像用の画素及び焦点検出用の画素がX−Y平面上に2次元配置されている。107ctはクロストーク情報取得領域で、焦点検出信号用画像信号におけるクロストーク成分、及び後述する瞳強度分布におけるクロストーク情報を得るための画素が配列される。
FIG. 2 shows a pixel array region of the image sensor according to the first embodiment of the present invention, and is a view of the light receiving surface of the
図3は、図2で説明した撮像領域107imにおける画素配列を示したもので、本願出願人による特開平09−046596号報等に開示された技術を用いて製造される。図3は2次元C−MOSエリアセンサの縦(Y方向)14行と横(X方向)14列の範囲を、撮影光学系側から観察した状態を示している。 FIG. 3 shows a pixel arrangement in the imaging region 107im described with reference to FIG. 2, and is manufactured using the technique disclosed in Japanese Patent Application Laid-Open No. 09-046596 by the applicant of the present application. FIG. 3 shows a state in which a range of 14 rows in the vertical direction (Y direction) and 14 columns in the horizontal direction (X direction) of the two-dimensional C-MOS area sensor is observed from the photographing optical system side.
211は第1の画素群(撮像用画素群)で、撮像のために使用され、カラーフィルタはベイヤー配列が適用される。すなわち奇数行の画素には、左から順に赤(Red)と緑1(Green)のカラーフィルタが交互に設けられ、それぞれ画素211R及び211G1で示す。また、偶数行の画素には、左から順に緑2(Green)と青(Blue)のカラーフィルタが交互に設けられ、同じく画素211G2及び211Bで示す。各画素に備わった円はオンチップマイクロレンズを表わし、その内側に配置された矩形は光電変換部である。なお、緑1と緑2のカラーフィルタの分光透過率特性は同一であるが、画素内部の配線構造は若干異なっており、周囲の画素の配列も異なるため、クロストーク特性も若干異なる。そこで本実施形態では異なる種別の画素として取り扱う。
A first pixel group (imaging pixel group) 211 is used for imaging, and a Bayer arrangement is applied to the color filter. In other words, red (Red) and green 1 (Green) color filters are alternately provided in order from the left on the pixels in the odd-numbered rows, which are indicated by
221は第2の画素群で、焦点検出のために用いられ、所定の配列規則に則って第1の画素群の間に離散配置される。第2の画素群221(焦点検出用画素群)は、221a及び221bの2個で1対をなし、後述する方法にて位相差検出のための瞳分割機能が付与されている。そして、X軸方向に離間配置された複数の画素221aの出力と、同じ領域での複数の画素221bの出力から、焦点検出用信号を創生する。
A second pixel group 221 is used for focus detection and is discretely arranged between the first pixel groups in accordance with a predetermined arrangement rule. In the second pixel group 221 (focus detection pixel group), two
231は第3の画素群(焦点検出用画素群)で、同じく焦点検出のために用いられ、所定の配列規則に則って第1の画素群の間に離散配置される。第3の画素群231も、231c及び231dの2個で1対をなしている。そして第2の画素群221a及び221bが、X方向の瞳分割を行なうのに対して、第3の画素群231a及び231bはY方向の瞳分割を行なう。第3の画素群も、Y軸方向に離間配置された複数の画素出力を連結し、焦点検出用信号を創生する。
Reference numeral 231 denotes a third pixel group (focus detection pixel group) which is also used for focus detection and is discretely arranged between the first pixel groups in accordance with a predetermined arrangement rule. The third pixel group 231 is also paired with two of 231c and 231d. The
上記第2及び第3の画素群は、第1の画素群のうち、RとBに置換して配置される。その理由は次のとおりである。記録もしくは観賞のための画像信号を得る場合、G画素で輝度情報の主成分を取得する。そして人間の画像認識特性は輝度情報に敏感であるため、G画素が欠損すると画質劣化が認知されやすい。一方でRもしくはB画素は、色情報(色差情報)を取得する画素であるが、人間の視覚特性は色情報には鈍感であるため、色情報を取得する画素は多少の欠損が生じても画質劣化は認識され難い。そこで本実施形態においては、G画素は撮像用画素として残し、RとBの画素の一部を焦点検出用の第2及び第3の画素群に置き換える。また、第2及び第3の画素群のカラーフィルタは、可視光帯域全域に渡って高透過率を有する材料が用いられる。このフィルタを透明フィルタと呼称する。 The second and third pixel groups are arranged by replacing R and B in the first pixel group. The reason is as follows. When obtaining an image signal for recording or viewing, the main component of luminance information is acquired with G pixels. Since human image recognition characteristics are sensitive to luminance information, image quality degradation is easily recognized when G pixels are lost. On the other hand, the R or B pixel is a pixel that acquires color information (color difference information). However, since human visual characteristics are insensitive to color information, the pixel that acquires color information may have some loss. Image quality degradation is difficult to recognize. Therefore, in this embodiment, the G pixel is left as an imaging pixel, and a part of the R and B pixels is replaced with the second and third pixel groups for focus detection. For the color filters of the second and third pixel groups, a material having a high transmittance over the entire visible light band is used. This filter is called a transparent filter.
図4は、第1の画素群の構造と、撮影光学系の射出瞳に対する光電変換部の共役関係を示した図である。図4(a)は第1の画素群の2行×2列部分を取り出した平面図である。図4(a)における断面A−Aを図4(b)に示す。MLは各画素の最前面に配置されたオンチップマイクロレンズ、CFRはR(Red)のカラーフィルタ、CFG1はG1(Green)のカラーフィルタである。PD(Photo Diode)は図3で説明したC−MOSセンサの光電変換部を模式的に示したものであり、CL(Contact Layer)はC−MOSセンサ内の各種信号を伝達する信号線を形成するための配線層である。TLは撮影光学系を模式的に示したものである。 FIG. 4 is a diagram showing a conjugate relationship of the photoelectric conversion unit with respect to the structure of the first pixel group and the exit pupil of the photographing optical system. FIG. 4A is a plan view showing a 2 × 2 portion of the first pixel group. FIG. 4B shows a cross section AA in FIG. ML is an on-chip microlens disposed on the forefront of each pixel, CFR is an R (Red) color filter, and CFG1 is a G1 (Green) color filter. PD (Photo Diode) schematically shows the photoelectric conversion unit of the C-MOS sensor described in FIG. 3, and CL (Contact Layer) forms a signal line for transmitting various signals in the C-MOS sensor. This is a wiring layer. TL schematically shows the photographing optical system.
ここで、各画素のオンチップマイクロレンズMLと光電変換部PDは、撮影光学系TL(Taking Lens)を通過した光束を可能な限り有効に取り込むように構成されている。換言すると、撮影光学系TLの射出瞳EP(Exit Pupil)と光電変換部PDは、マイクロレンズMLにより共役関係にあり、かつ光電変換部PDの有効面積はできる限り大きくなるように設計される。また、図4(b)ではR画素の入射光束について説明したが、G1、G2及びB画素も実質的に同一の構造となっている。従って、第1の画素群のRGB各画素に対応した射出瞳EPは大径となり、被写体からの光束(光量子)を効率よく取り込んで画像信号のS/Nを向上させている。 Here, the on-chip microlens ML and the photoelectric conversion unit PD of each pixel are configured to capture as effectively as possible the light flux that has passed through the photographing optical system TL (Taking Lens). In other words, the exit pupil EP (Exit Pupil) of the photographing optical system TL and the photoelectric conversion unit PD are designed to have a conjugate relationship with the microlens ML, and the effective area of the photoelectric conversion unit PD is as large as possible. In FIG. 4B, the incident light beam of the R pixel has been described, but the G1, G2, and B pixels have substantially the same structure. Accordingly, the exit pupil EP corresponding to each of the RGB pixels of the first pixel group has a large diameter, and the light flux (photon) from the subject is efficiently captured to improve the S / N of the image signal.
図5は、第2の画素群の構造と、撮影光学系の射出瞳における瞳分割機能を示した図である。図5(a)は第2の画素221a及び221bを含む2行×2列部分を取り出した平面図である。
FIG. 5 is a diagram showing the structure of the second pixel group and the pupil division function in the exit pupil of the photographing optical system. FIG. 5A is a plan view showing a 2 × 2 column portion including the
図5(a)における断面A−Aを図5(b)に示す。マイクロレンズMLと、光電変換部PDは図4(b)に示した撮像用画素と同一構造である。本実施形態においては、焦点検出用画素の信号は画像創生には用いないため、色分離用カラーフィルタの代わりに透明膜CFW(White)が配置される。また、撮像素子で瞳分割を行なうため、最下層の配線層CL1の開口幅はフォトダイオードPDの寸法よりも狭く設定されると共に、開口中心はマイクロレンズMLの中心線に対して一方向に偏倚している。具体的には、画素221aの開口部OPHAは右側に偏倚しているため、撮影光学系TLの左側の射出瞳EPHAを通過した光束を受光する。同様に、画素221bの開口部OPHBは左側に偏倚しているため、撮影光学系TLの右側の射出瞳EPHBを通過した光束を受光する。よって、画素221aをX方向に規則的に配列し、これらの画素群で取得した被写体像をA像とする。また、画素221bもX方向に規則的に配列し、これらの画素群で取得した被写体像をB像とすると、A像とB像の相対位置(X方向の横ずれ量)を検出することで、被写体像のピントずれ量(デフォーカス量)が検出できる。
FIG. 5B shows a cross section AA in FIG. The microlens ML and the photoelectric conversion unit PD have the same structure as the imaging pixel shown in FIG. In the present embodiment, since the signal of the focus detection pixel is not used for image creation, a transparent film CFW (White) is arranged instead of the color separation color filter. Further, since pupil division is performed by the imaging device, the opening width of the lowermost wiring layer CL1 is set to be narrower than the dimension of the photodiode PD, and the opening center is deviated in one direction with respect to the center line of the microlens ML. is doing. Specifically, since the opening OPHA of the
なお、上記第2の画素群221a及び221bでは、撮影画面のX方向に輝度分布を有した被写体、例えば縦線に対しては焦点検出可能だが、縦方向に輝度分布を有する横線は焦点検出不能である。そこで本実施形態では、Y方向に瞳分割を行なう第3の画素群231a及び231bを用いることで、Y方向に輝度分布を有した被写体に対しても焦点検出可能としている。第3の画素群の瞳分割原理は、図5(b)のX軸とY軸とを置き換えて考えればよいので、説明は省略する。
In the
図6は、画素間におけるクロストークの関係と、クロストーク情報を得るための画素配列を説明する図である。図6(a)は、図2の撮像領域107imにおける第2の画素群近傍でのクロストーク現象を説明する図である。すべての画素は、周囲に隣接する画素より、光波及び電荷の洩れ込みを受けると共に、自身が受光した光波及び電荷の一部が隣接画素へ漏れ出す。その様子を矢印で示している。なお、クロストークは上下及び左右に隣接した画素間で大きく、斜め方向に隣接した画素間では相対的に小さいことがわかっているので、本実施形態では斜め方向のクロストークは無いと見なして説明する。 FIG. 6 is a diagram for explaining a crosstalk relationship between pixels and a pixel arrangement for obtaining crosstalk information. FIG. 6A is a diagram illustrating a crosstalk phenomenon in the vicinity of the second pixel group in the imaging region 107im of FIG. All pixels receive light waves and charge leakage from neighboring pixels, and part of the light waves and charges received by the pixels leak to the adjacent pixels. This is indicated by arrows. Since crosstalk is known to be large between pixels adjacent vertically and horizontally and relatively small between pixels adjacent to each other in the diagonal direction, in this embodiment, it is assumed that there is no crosstalk in the diagonal direction. To do.
ここで、焦点検出信号の歪み原因となるクロストークは、第2の画素221a及び221bが周囲の画素から受ける成分である。すなわち、画素221aにおいては、X方向に隣接した2個のG1画素からの洩れ込みと、Y方向に隣接した2個のG2画素からの洩れ込みがクロストークの主成分となる。同様に、画素221bにおいては、X方向に隣接した2個のG2画素からの洩れ込みと、Y方向に隣接した2個のG1画素からの洩れ込みがクロストークの主成分となる。すなわち、焦点検出用画素のクロストークの主たる発生元はG1及びG2の2種類であり、その方向はX方向正負とY方向正負の4方向である。よって、画素2種類×方向4種類の合計8種類のクロストーク情報が得られれば良い。
Here, the crosstalk that causes distortion of the focus detection signal is a component received by the
図6(b)は、クロストーク情報を得るための画素配列説明図である。縦4行×横6列=24画素の領域において、図示のごとく第1の画素211G1及び211G2を各1個、正規の状態で配置する。そしてその他の画素は、オンチップマイクロレンズと光電変換部の間が遮光処理された、遮光画素211BLKとする。これらの画素間のクロストークを矢印で示すが、遮光画素は光学的に遮蔽されているため、クロストークは2個の画素211G1及び211G2から四方に向かう成分のみとなる。 FIG. 6B is an explanatory diagram of a pixel arrangement for obtaining crosstalk information. In the region of 4 vertical rows × 6 horizontal columns = 24 pixels, one each of the first pixels 211G1 and 211G2 is arranged in a normal state as illustrated. The other pixels are light-shielding pixels 211BLK in which light shielding processing is performed between the on-chip microlens and the photoelectric conversion unit. Crosstalk between these pixels is indicated by an arrow. Since the light-shielded pixels are optically shielded, the crosstalk is only a component that goes in the four directions from the two pixels 211G1 and 211G2.
ここで焦点検出信号にクロストーク補正を施すために必要な情報は、前述したように、G1及びG2画素のX及びY方向のクロストーク情報である。これら8種の情報は、それぞれ次の画素の出力を参照すればよい。まず、画素G1のX方向クロストークは、左右に隣接する画素G1x+とG1x−の出力から、Y方向クロストークは上下に隣接する画素G1y+とG1y−の出力から得られる。また、画素G2のX方向クロストークは左右に隣接する画素G2x+とG2x−の出力から、Y方向クロストークは上下に隣接する画素G2y+とG2y−の出力から得られる。 Here, the information necessary for performing the crosstalk correction on the focus detection signal is the crosstalk information in the X and Y directions of the G1 and G2 pixels as described above. These eight types of information may each refer to the output of the next pixel. First, the X direction crosstalk of the pixel G1 is obtained from the outputs of the pixels G1x + and G1x− adjacent to the left and right, and the Y direction crosstalk is obtained from the outputs of the pixels G1y + and G1y− adjacent to the top and bottom. The X direction crosstalk of the pixel G2 is obtained from the outputs of the pixels G2x + and G2x− adjacent to the left and right, and the Y direction crosstalk is obtained from the outputs of the pixels G2y + and G2y− adjacent to the top and bottom.
図6(c)は、クロストーク情報取得領域における画素配列を示したもので、図6(b)に示した4行×6列=24画素の更に外側に、1行及び1列の遮光画素を追加し、クロストーク情報取得画素への洩れ込みが、中央に配置された2個の画素211G1及び211G2を起源とする洩れ込みのみに限定されるようにしたものである。そしてこの6行×8列=48画素を最小単位とし、この最小単位を図2における8箇所のクロストーク情報取得領域107ctに各々配置する。 FIG. 6C shows a pixel arrangement in the crosstalk information acquisition region. One row and one column of light-shielding pixels are further outside the 4 rows × 6 columns = 24 pixels shown in FIG. 6B. Is added so that the leakage into the crosstalk information acquisition pixel is limited to the leakage originating from the two pixels 211G1 and 211G2 arranged in the center. Then, this 6 rows × 8 columns = 48 pixels is set as a minimum unit, and these minimum units are arranged in eight crosstalk information acquisition regions 107ct in FIG.
図7は、クロストーク情報を取得するための遮光画素の構造と、撮影光学系の射出瞳に対する光電変換部の共役関係を示した図である。図7(a)は、図6(b)の画素211G1とこれに隣接する遮光画素を含む2行×2列部分を取り出した平面図である。 FIG. 7 is a diagram illustrating the structure of a light-shielding pixel for acquiring crosstalk information and the conjugate relationship of the photoelectric conversion unit with respect to the exit pupil of the imaging optical system. FIG. 7A is a plan view in which a 2 × 2 column portion including the pixel 211G1 of FIG. 6B and the light shielding pixel adjacent thereto is taken out.
図7(a)における断面A−Aを図7(b)に示す。左側の画素211G1における光電変換部と撮影光学系の射出瞳間の共役関係は、図4における画素211Rと同じである。一方、遮光画素G1x+は、最上層の配線層CL3の開口部が完全に遮蔽され、マイクロレンズから入射した直接光は光電変換部に到達できない。すなわち、画素G1x+の出力は、隣接する画素211G1からの光波及び電荷の洩れ成分と見なすことができる。
FIG. 7B shows a cross section AA in FIG. The conjugate relationship between the photoelectric conversion unit and the exit pupil of the photographing optical system in the left pixel 211G1 is the same as that of the
図8は、像信号におけるクロストーク測定方法と測定結果を示す図である。撮像素子107の前方には、射出瞳TLで簡略表記された測定用撮影光学系が配置され、物体側には面光源と拡散板で構成された均一輝度面ILMが配置される。この測定系において、撮影光学系の絞り値を変えながら、撮像素子に適正露光量を与える。そして図2のクロストーク情報取得領域107ctに配置された所定画素に対し、図6(b)で説明したX方法及びY方向のクロストークを算出する。
FIG. 8 is a diagram showing a crosstalk measurement method and measurement results for an image signal. In front of the
図8(b)は撮影光学系の絞り値がF2.8の場合、図8(c)はF8の場合のクロストーク測定結果の一例である。両図における数値は、中央の撮像用画素の出力を1とした時の、その周辺8画素から出力される信号を示したもので、これらの数値がクロストーク率に相当する。クロストークは隣接画素間での光波及び電荷の洩れに起因するが、画素に入射する光波の入射角特性は、撮影光学系のF値と像高に依存するため、クロストーク率もF値と像面上の位置により変化する。ここで位置による補正方法を図8(d)にて説明する。 FIG. 8B shows an example of the crosstalk measurement result when the aperture value of the photographing optical system is F2.8, and FIG. 8C shows an example of the crosstalk measurement result when F8. The numerical values in both figures show the signals output from the surrounding eight pixels when the output of the central imaging pixel is 1, and these numerical values correspond to the crosstalk rate. Crosstalk is caused by leakage of light waves and charges between adjacent pixels, but the incident angle characteristics of light waves incident on the pixels depend on the F value and image height of the imaging optical system, so the crosstalk rate is also F value. It varies depending on the position on the image plane. Here, the correction method based on the position will be described with reference to FIG.
図8(d)は、図2に示したクロストーク情報取得領域107ctの配置を示したものである。また、AFW1及びAFW2は、被写体認識等の結果により選択された焦点検出領域である。ここで、クロストーク情報取得領域107ctは撮像領域の外側に配置されている。一方で、焦点検出領域は撮像領域内にあり、クロストーク情報取得領域とは位置が異なり、図8(b)に示した1組のクロストーク率をそのまま用いると誤差を生ずる。よって、複数のクロストーク情報取得領域107ctにおけるクロストーク率を、着目する焦点検出領域の座標に基づいて補間(内挿演算)することで、任意の焦点検出領域におけるクロストーク率を算出することができる。図8(d)では、3箇所のクロストーク情報取得領域107ctの値を用いて、着目する焦点検出領域でのクロストーク率を算出する様子を示しているが、他の補間方法を用いても構わない。 FIG. 8D shows an arrangement of the crosstalk information acquisition area 107ct shown in FIG. AFW1 and AFW2 are focus detection areas selected based on the result of subject recognition or the like. Here, the crosstalk information acquisition area 107ct is arranged outside the imaging area. On the other hand, the focus detection area is in the imaging area, and its position is different from that of the crosstalk information acquisition area. If the set of crosstalk ratios shown in FIG. Therefore, the crosstalk rate in an arbitrary focus detection region can be calculated by interpolating (interpolating) the crosstalk rates in the plurality of crosstalk information acquisition regions 107ct based on the coordinates of the focus detection region of interest. it can. FIG. 8D shows a state in which the crosstalk rate in the focus detection region of interest is calculated using the values of the three crosstalk information acquisition regions 107ct, but other interpolation methods may be used. I do not care.
図9は、撮像素子上に配列された各画素の瞳強度分布を測定する装置の概略構成図である。瞳強度分布とは、画素における受光効率の方向依存性を指すが、詳しくは後述する。REFは投影平面で、撮像素子107からZ方向(光軸方向)に所定寸法だけ離間した位置に定義された平面であり、撮影光学系の射出瞳TLが位置する面とほぼ等価な面として規定される。LSは光源で、投影平面REF上を、X方向及びY方向に自在に移動できるように構成されている。
FIG. 9 is a schematic configuration diagram of an apparatus for measuring the pupil intensity distribution of each pixel arranged on the image sensor. The pupil intensity distribution refers to the direction dependency of the light receiving efficiency in the pixel, and will be described in detail later. REF is a projection plane, which is a plane defined at a position separated from the
この装置において、投影平面REF上に所定ピッチの正方格子を設定し、この格子上の所定座標(X,Y)に光源LSを駆動する。そして、撮像素子の撮像動作を行なうと、このとき撮像素子107の各画素から得られる出力は、撮影光学系の射出瞳面上の所定座標(X,Y)における、各画素の受光効率の入射方向依存性とみなすことができる。そこで、投影平面REFの全面に渡って光源を駆動し、各光源位置における各画素の出力信号を処理することで、射出瞳領域における各画素の受光効率の入射方向依存性分布を得ることができる。
In this apparatus, a square lattice having a predetermined pitch is set on the projection plane REF, and the light source LS is driven to predetermined coordinates (X, Y) on the lattice. When the image pickup operation of the image pickup device is performed, the output obtained from each pixel of the
図10は、図4乃至図7に示した各画素の受光特性を説明する図である。図10(a)は、図5(a)に示した4画素のうち、焦点検出用画素221aと撮像用画素211G1を取り出した平面図である。ここで図4(b)及び図5(b)に示したように、各画素の光電変換部PDはオンチップマイクロレンズMLにより、撮影光学系の射出瞳面上に投影される。
FIG. 10 is a diagram for explaining the light receiving characteristics of each pixel shown in FIGS. FIG. 10A is a plan view in which the
図10(b)は、図8に示した投影平面における、各2種類の画素の光電変換部の投影像と、撮影光学系の射出瞳の投影像を示した平面図である。EP211は撮像画素211G1の光電変換部の投影像、EP221aは焦点検出用画素221aの光電変換部の投影像である。また、TLは撮影光学系の射出瞳の投影像である。
FIG. 10B is a plan view showing a projection image of the photoelectric conversion unit of each of the two types of pixels and a projection image of the exit pupil of the photographing optical system in the projection plane shown in FIG. EP211 is a projection image of the photoelectric conversion unit of the imaging pixel 211G1, and EP221a is a projection image of the photoelectric conversion unit of the
図10(c)は図10(b)のA−A断面における受光特性で、横軸は投影平面における水平座標、縦軸は光電変換部の受光効率を表わす。図4及び図5において、画素内に配置された光電変換部はオンチップマイクロレンズにより、撮影光学系の射出瞳と共役関係にあると説明した。これは、射出瞳面上における撮影光学系の射出瞳TLと光電変換部の投影像EPの共通領域を通過する光束のみが、光電変換部に到達することを意味する。したがって、上記の投影像は撮影光学系の射出瞳面上、すなわち投影平面REF上に配置された画素固有の開口絞りに相当し、図10(c)の縦軸は各開口絞りの透過率分布になる。そしてこの透過率分布は光電変換部の光束受光効率と見なすことができる。この光束受光効率の分布特性を便宜上「瞳強度分布」と称することにする。 FIG. 10C is a light receiving characteristic in the section AA in FIG. 10B, the horizontal axis represents the horizontal coordinate on the projection plane, and the vertical axis represents the light receiving efficiency of the photoelectric conversion unit. 4 and 5, it has been described that the photoelectric conversion unit arranged in the pixel is in a conjugate relationship with the exit pupil of the photographing optical system by the on-chip microlens. This means that only the light beam passing through the common area of the exit pupil TL of the photographing optical system and the projection image EP of the photoelectric conversion unit on the exit pupil plane reaches the photoelectric conversion unit. Therefore, the projection image corresponds to a pixel-specific aperture stop arranged on the exit pupil plane of the photographing optical system, that is, the projection plane REF, and the vertical axis in FIG. 10C represents the transmittance distribution of each aperture stop. become. This transmittance distribution can be regarded as the light beam receiving efficiency of the photoelectric conversion unit. The distribution characteristic of the light beam receiving efficiency is referred to as “pupil intensity distribution” for convenience.
ここで、オンチップマイクロレンズによる投影性能が幾何光学的に無収差であれば、瞳強度分布はゼロもしくは1のいずれか一方の値のみを有するステップ関数となる。しかしながら、各画素の寸法は数μm程度と微小なため、射出瞳面上に投影された光電変換部の像は光の回折により鮮鋭度が低下する。また、通常オンチップマイクロレンズは球面レンズであるため、球面収差によっても投影像の鮮鋭度は低下する。そこで、各画素の瞳強度分布もボケを生じ、ステップ関数の肩部はなまり、基底部は裾を引いた形状となる。例えば撮像画素211G1の光電変換部の中心はマイクロレンズMLの光軸と一致しているため、瞳強度分布EP211は中心軸に対してX方向に対称であり、その重心も中心軸上に位置する。これに対して焦点検出用画素221aの光電変換部はマイクロレンズの光軸に対して偏倚しているため、瞳強度分布EP221aの重心も中心軸に対してX軸の正方向に偏倚している。そしてその形状は、重心を通る軸に対して左右非対称であり、X軸の負方向の裾が長くなっている。これは、隣接画素からのクロストークにより、瞳強度分布にも歪みが生じたことが主因である。
Here, if the projection performance by the on-chip microlens is geometrically optically free of aberrations, the pupil intensity distribution is a step function having only one value of zero or one. However, since the size of each pixel is as small as about several μm, the sharpness of the image of the photoelectric conversion unit projected on the exit pupil plane is reduced due to light diffraction. Further, since the on-chip microlens is usually a spherical lens, the sharpness of the projected image is also reduced by spherical aberration. Therefore, the pupil intensity distribution of each pixel is also blurred, the shoulder of the step function is rounded, and the base is a shape with a skirt. For example, since the center of the photoelectric conversion unit of the imaging pixel 211G1 coincides with the optical axis of the microlens ML, the pupil intensity distribution EP211 is symmetric with respect to the central axis in the X direction, and the center of gravity is also located on the central axis. . In contrast, since the photoelectric conversion unit of the
図10(d)は、図6(b)に示した撮像画素211G1と左右に隣接した遮光画素G1x−およびG1x+の計3画素を取り出した平面図である。 FIG. 10D is a plan view in which a total of three pixels, that is, the light-shielding pixels G1x− and G1x + adjacent to the imaging pixel 211G1 shown in FIG.
図10(e)は、投影平面REFにおける上記の3画素の光電変換部の投影像を示した平面図である。EP211は撮像画素211G1の光電変換部の投影像であり、10図(b)に示したEP211と同一である。また、遮光画素については、マイクロレンズと光電変換部の間に遮光部材が配置されるため、光電変換部の投影像は存在しない。 FIG. 10E is a plan view showing a projection image of the above-described three-pixel photoelectric conversion unit on the projection plane REF. EP211 is a projection image of the photoelectric conversion unit of the imaging pixel 211G1, and is the same as EP211 shown in FIG. In addition, regarding the light-shielding pixel, since the light-shielding member is disposed between the microlens and the photoelectric conversion unit, there is no projection image of the photoelectric conversion unit.
図10(f)は図10(e)のA−A断面における瞳強度分布で、横軸と縦軸は図10(c)と同一である。EP211は撮像画素211G1の瞳強度分布で、その形状は図10(c)に示した瞳強度分布EP211と略同一だが、強度は若干小さくなっている。その理由は、図10(c)の特性は隣接画素からのクロストークを含んだものであるのに対して、図10(f)では隣接画素が遮光画素のため、クロストークによる漏れ込みが殆ど無いからである。 FIG. 10F is a pupil intensity distribution in the AA cross section of FIG. 10E, and the horizontal axis and the vertical axis are the same as those in FIG. EP211 is the pupil intensity distribution of the imaging pixel 211G1, and its shape is substantially the same as the pupil intensity distribution EP211 shown in FIG. 10C, but the intensity is slightly smaller. The reason for this is that the characteristic of FIG. 10C includes crosstalk from adjacent pixels, whereas in FIG. Because there is no.
一方CTx−は、遮光画素G1x−の瞳強度分布である。遮光画素の瞳強度分布は、本来はX軸上全域に渡ってゼロのはずであるが、隣接する撮像画素からの光波と電荷の洩れにより、瞳強度分布においてもある値を示す。すなわち、瞳強度分布においても隣接画素間のクロストークが発生し、瞳強度分布CTx−は撮像画素211G1がX軸上負の方向に隣接する画素に与えるクロストークと見なすことができる。同様にCTx+は遮光画素G1x+の瞳強度分布であり、撮像画素211G1がX軸上正方向に隣接する画素に与えるクロストークとなる。 On the other hand, CTx− is the pupil intensity distribution of the light shielding pixel G1x−. The pupil intensity distribution of the light-shielded pixels should be zero over the entire area on the X axis, but shows a certain value in the pupil intensity distribution due to leakage of light waves and charges from adjacent imaging pixels. That is, crosstalk between adjacent pixels also occurs in the pupil intensity distribution, and the pupil intensity distribution CTx− can be regarded as crosstalk that the imaging pixel 211G1 gives to pixels adjacent in the negative direction on the X axis. Similarly, CTx + is a pupil intensity distribution of the light-shielding pixel G1x +, and is crosstalk that the imaging pixel 211G1 gives to pixels adjacent in the positive direction on the X axis.
図10(g)は、焦点検出用画素の瞳強度分布におけるクロストーク補正前後の特性を説明する図である。EP221aは、焦点検出用画素221aにおけるクロストーク補正前の瞳強度分布で、図10(c)に示した波形EP221aである。CTx+及びCTx−は、撮像画素から焦点検出用画素へのクロストークで、図10(f)に示した波形CTx+及びCTx−である。EP221actはクロストーク補正後の瞳強度分布で、波形EP221aからCTx+とCTx−を減じたものである。このように瞳強度分布にクロストーク補正を施すことで、クロストークに起因する波形歪みが減少し、後述するように瞳強度分布を用いた焦点検出の精度が向上する。
FIG. 10G is a diagram illustrating the characteristics before and after crosstalk correction in the pupil intensity distribution of the focus detection pixels. EP221a is a pupil intensity distribution before crosstalk correction in the
なお、図10(c)に示した焦点検出用画素の瞳強度分布EP221aは像高により異なるので、撮影画面上の複数の代表位置ごとに値を記憶しておくのが好ましい。また、図10(f)に示したクロストーク波形CTx+及びCTx−は、撮影画面の外側で取得された値である。よって、図10(g)に示した瞳強度分布のクロストーク補正も、図8(d)に示したように焦点検出用画素の位置に応じた補間を行なう。 Since the pupil intensity distribution EP221a of the focus detection pixels shown in FIG. 10C varies depending on the image height, it is preferable to store a value for each of a plurality of representative positions on the photographing screen. Further, the crosstalk waveforms CTx + and CTx− shown in FIG. 10F are values acquired outside the imaging screen. Therefore, the crosstalk correction of the pupil intensity distribution shown in FIG. 10G is also performed according to the position of the focus detection pixel as shown in FIG.
図11は、瞳強度分布から焦点検出用像信号の補正情報を得るための信号処理方法を説明する図である。図11(a)は、投影平面REF上に投影された焦点検出用画素の瞳強度分布と撮影光学系の射出瞳の平面図で、撮影画面中央での状態を示した図である。EP221a及びEP221bは、焦点検出用画素221a及び221bについての2次元平面での瞳強度分布を等高線にて示したものである。この値は、図9の装置で測定され、図10の方法でクロストーク補正された結果を示している。なお、図10(g)ではクロストーク補正後の瞳強度分布をEP221actと表記したが、図11以降は「ct」の文字を省略する。TLは撮影光学系の射出瞳、すなわち焦点検出光束が通過できる開口である。
FIG. 11 is a diagram for explaining a signal processing method for obtaining correction information of the focus detection image signal from the pupil intensity distribution. FIG. 11A is a plan view of the pupil intensity distribution of the focus detection pixels projected on the projection plane REF and the exit pupil of the photographing optical system, and shows a state at the center of the photographing screen. EP221a and EP221b are contour lines showing the pupil intensity distribution on the two-dimensional plane for the
図11(a)に示した射出瞳TL内の瞳強度分布EP221a及びEP221bを、X軸上に射影したものが図11(b)のPRJa及びPRJbである。この射影は後述する線像分布波形と実質的に等価であり、ケラレによって歪んだ焦点検出像を修正するための像修正フィルタを創生するために用いられる。 Projecting the pupil intensity distributions EP221a and EP221b in the exit pupil TL shown in FIG. 11A onto the X axis is PRJa and PRJb in FIG. 11B. This projection is substantially equivalent to a line image distribution waveform described later, and is used to create an image correction filter for correcting a focus detection image distorted by vignetting.
一方で、この射影の重心間隔XGは、位相差式焦点検出システムの基線長に相当する。この基線長は、焦点検出用2像の横ずれ量をデフォーカス量に変換する際に用いられるため、後述する焦点検出演算ではこの重心間隔も計算する。また、この射影をX軸方向に積分した値、すなわち射影波形の面積は、基準となる均一輝度光源から出射し、撮影光学系の射出瞳を通過して画素に入射する全光量に比例する。すなわち、各画素の射影の積分値はその画素における受光効率と等価であるため、その積分値は焦点検出信号のシェーディング補正のための係数として利用できる。 On the other hand, the projection center-of-gravity interval XG corresponds to the baseline length of the phase difference focus detection system. Since this base line length is used when the lateral shift amount of the two images for focus detection is converted into the defocus amount, the center-of-gravity interval is also calculated in the focus detection calculation described later. Further, the value obtained by integrating this projection in the X-axis direction, that is, the area of the projection waveform, is proportional to the total amount of light emitted from the reference uniform luminance light source, passing through the exit pupil of the photographing optical system, and entering the pixel. That is, since the integral value of the projection of each pixel is equivalent to the light receiving efficiency in that pixel, the integral value can be used as a coefficient for shading correction of the focus detection signal.
図11(c)は、撮影画面上の周辺位置における瞳強度分布と射出瞳の様子を示したもので、焦点検出用画素の瞳強度分布EP221a及びEP221bは実質的に図11(a)と同じである。一方で、撮影光学系の射出瞳TLは口径食のために形状が変化し、X方向寸法が小さくなっている。また、像面から射出瞳までの距離が標準的な距離からずれていると、その開口中心も瞳強度分布の対称軸から偏心する。 FIG. 11C shows the pupil intensity distribution and the exit pupil at the peripheral positions on the imaging screen. The pupil intensity distributions EP221a and EP221b of the focus detection pixels are substantially the same as those in FIG. It is. On the other hand, the shape of the exit pupil TL of the photographing optical system changes due to vignetting, and the dimension in the X direction is small. If the distance from the image plane to the exit pupil deviates from the standard distance, the center of the opening is also decentered from the symmetry axis of the pupil intensity distribution.
図11(c)における瞳強度分布の射影を計算したものが図11(d)である。口径食により、射影PRJaとPRJbの形状(幅や最大強度)は異なることがわかる。従って射影の重心間隔XGや、シェーディング補正情報として利用される射影の積分値も異なっている。 FIG. 11D shows the projection of the pupil intensity distribution in FIG. It can be seen that the shapes (width and maximum strength) of the projections PRJa and PRJb differ depending on vignetting. Accordingly, the projection center-of-gravity interval XG and the integral value of the projection used as shading correction information are also different.
図12は、図11で説明した射影と、デフォーカス時の線像分布波形の関係について説明したものである。被写体は黒い背景上に描かれた白い細線で、その線幅は実質的にゼロと見なせる値となっている。着目する画素は焦点検出用画素221aで、撮影光学系の射出瞳面にはこの画素の光電変換部の投影像EP221aが投影されている。この投影像EP221aは図11(a)に示した瞳強度分布EP221aに対応し、この瞳強度分布に応じた光束が焦点検出用画素に到達する。この状況は、上記の瞳強度分布と同一特性の透過率分布を有したグラデーションNDフィルタが、撮影光学系の射出瞳面に配置されていることと等価である。
FIG. 12 explains the relationship between the projection explained in FIG. 11 and the line image distribution waveform at the time of defocusing. The subject is a thin white line drawn on a black background, and the line width is a value that can be regarded as substantially zero. The pixel of interest is a
細線被写体から射出した光束は撮影光学系の射出瞳面上の領域EP221aを通過し、像面に収束する。そしてこの結像系において収差及び回折の影響が無いと仮定すると、合焦位置における被写体像は幅がゼロの線像となり、この線像を任意位置で切った断面での照度分布LNa0は幅がゼロのδ関数となる。一方、デフォーカス量がDEFの前ピン位置では、ボケた線像が投影され、任意位置における照度分布LNa+の形状は、図11(b)に示した射影PRJaと相似形になる。そして照度分布LNa+の幅は、デフォーカス量DEFに比例することがわかる。後ピン位置でのボケた線像の照度分布LNa−も同様に求めることができるが、その形状は、図11(b)の射影PRJaを左右反転させたものとなる。 The light beam emitted from the thin line subject passes through the region EP221a on the exit pupil plane of the photographing optical system and converges on the image plane. Assuming that there is no influence of aberration and diffraction in this imaging system, the subject image at the in-focus position is a line image having a width of zero, and the illuminance distribution LNa0 at the cross section obtained by cutting the line image at an arbitrary position has a width. It becomes a zero δ function. On the other hand, at the front pin position where the defocus amount is DEF, a blurred line image is projected, and the shape of the illuminance distribution LNa + at an arbitrary position is similar to the projection PRJa shown in FIG. It can be seen that the width of the illuminance distribution LNa + is proportional to the defocus amount DEF. The illuminance distribution LNa− of the blurred line image at the rear pin position can be obtained in the same manner, but the shape thereof is obtained by reversing the projection PRJa of FIG.
すなわち、線像波形LNa+もしくはLNa−は、細線被写体とその線像を関係付ける伝達関数であり、この伝達関数は図11(b)に示した瞳強度分布の射影PRJaから求まることを示している。ただし、線像波形の幅はデフォーカス量に比例するため、正確な線像を求めるためにはデフォーカス量が既知でなければならない。一方で、焦点検出時にはデフォーカス量が未知であるため、焦点検出開始時には線像波形を求めることができず、焦点検出像の歪み補正もできない。この問題を回避する方法は後述する。 That is, the line image waveform LNa + or LNa− is a transfer function that associates a thin line subject with the line image, and this transfer function is obtained from the projection PRJa of the pupil intensity distribution shown in FIG. . However, since the width of the line image waveform is proportional to the defocus amount, the defocus amount must be known in order to obtain an accurate line image. On the other hand, since the defocus amount is unknown at the time of focus detection, the line image waveform cannot be obtained at the start of focus detection, and the distortion of the focus detection image cannot be corrected. A method for avoiding this problem will be described later.
図13は焦点検出用像信号に各種補正を施す前と、施した後の波形を説明する図である。ここでの被写体は、黒地に2本の白線が印刷されたもので、この2本の白線の反射率が若干異なっているものを想定している。図13(a)は合焦時に撮像用画素が出力する被写体像の波形である。 FIG. 13 is a diagram for explaining waveforms before and after performing various corrections on the focus detection image signal. The subject here assumes that two white lines are printed on a black background, and the reflectance of these two white lines is slightly different. FIG. 13A shows the waveform of the subject image output by the imaging pixel during focusing.
図13(b)は、デフォーカス時の1対の焦点検出像で、AFaは画素群221aの出力波形、AFbは画素群221bの出力波形である。デフォーカス状態のため、1対2像はX軸方法に相対的な横ずれを生じている。そして、この2像が同一形状で、横ずれのみが発生しているならば、公知の相関演算により2像の横ずれ量を正確に算出することができるが、本実施形態に用いられる焦点検出システムでは、主に以下の3つの理由により、2像が歪んでしまう。
FIG. 13B shows a pair of focus detection images at the time of defocusing, AFa is an output waveform of the
第1の理由は口径食による光量差である。被写体が均一輝度の場合、焦点検出用画素に入射する光量は、図11(a)もしくは(c)に示したように、撮影光学系の射出瞳TL内での各画素の瞳強度分布積分値に比例する。そして、射出瞳TLは口径食の影響により、像高に応じてその位置と面積が変化する。そこで、焦点検出用画素221aと221bに入射する光量も、像高に応じてそれぞれ異なり、いわゆるシェーディングと呼ばれる光量落ち現象が発生する。よって2像の出力強度は座標依存性を生じ、波形としては異なったものになってしまう。
The first reason is a light amount difference due to vignetting. When the subject has uniform luminance, the amount of light incident on the focus detection pixels is the integrated value of the pupil intensity distribution of each pixel in the exit pupil TL of the photographing optical system, as shown in FIG. 11 (a) or (c). Is proportional to The position and area of the exit pupil TL change depending on the image height due to the effect of vignetting. Therefore, the amount of light incident on the
第2の理由は、像信号におけるクロストークである。ここでは上記シェーディングの影響が無い、すなわち口径食の影響がなく、合焦時には焦点検出用の1対2像は完全に一致すると仮定して考える。合焦時には2像の横ずれが無く、クロストークによる信号変化は2像に対してほぼ同一となるため、2像の一致度は保たれる。一方で、デフォーカス時の2像はX軸方向にずれているため、クロストークが焦点検出信号波形AFa及びAFbに与える影響はそれぞれ異なる。よって、2像の一致度が低下してしまう。 The second reason is crosstalk in the image signal. Here, it is assumed that there is no influence of the shading, that is, no influence of vignetting, and that the one-to-two images for focus detection are completely coincident at the time of focusing. At the time of focusing, there is no lateral shift between the two images, and the signal change due to crosstalk is substantially the same for the two images, so the degree of coincidence between the two images is maintained. On the other hand, since the two images at the time of defocusing are shifted in the X-axis direction, the influence of crosstalk on the focus detection signal waveforms AFa and AFb is different. Therefore, the degree of coincidence between the two images is reduced.
第3の理由は、口径食による像歪みである。図12で説明したように、被写体と像の関係を規定する伝達関数は、合焦時にはδ関数となるため、焦点検出用画像は被写体と相似形になり、2像は一致する。一方デフォーカス時の像信号波形は、合焦時の波形に線像分布関数を畳み込み積分した形状となっている。そして、焦点検出用画素221aと221bの線像分布波形は各々異なるため、デフォーカス時の2像も異なる形状となってしまう。
The third reason is image distortion due to vignetting. As described with reference to FIG. 12, since the transfer function that defines the relationship between the subject and the image is a δ function at the time of focusing, the focus detection image is similar to the subject, and the two images match. On the other hand, the image signal waveform at the time of defocusing has a shape obtained by convolving and integrating the line image distribution function with the waveform at the time of focusing. Since the line image distribution waveforms of the
これら3つの原因による焦点検出信号の歪みは、本実施形態においてはそれぞれ以下のように補正する。 The distortion of the focus detection signal due to these three causes is corrected as follows in the present embodiment.
まず、口径食による光量差の補正方法について説明する。図11(b)において、射影波形の積分値は当該画素の受光効率であると説明した。よって、焦点検出に用いる焦点検出用の各画素について、射影の積分値を計算し、その逆数を焦点検出用画素の出力に乗ずる(補正値を算出する)ことで、シェーディング補正が行なわれる。すなわち、受光効率が低い画素は射影の積分値が小さく、その逆数は大きな値となるため、受光効率の差に起因する信号の歪みを補正することができる。 First, a method for correcting a light amount difference due to vignetting will be described. In FIG. 11B, it has been described that the integral value of the projection waveform is the light receiving efficiency of the pixel. Therefore, shading correction is performed by calculating the integral value of projection for each focus detection pixel used for focus detection and multiplying the reciprocal thereof by the output of the focus detection pixel (calculating a correction value). That is, a pixel with low light receiving efficiency has a small integral value of projection and a large reciprocal value thereof, so that it is possible to correct signal distortion due to a difference in light receiving efficiency.
2番目の像信号のクロストークは、焦点検出用画素とこれを取り囲む撮像画素の信号を取り出し、図8(b)もしくは(c)で求めたクロストーク率に基づいた信号の減算処理を行なえばよい。 Crosstalk of the second image signal is obtained by extracting signals of focus detection pixels and image pickup pixels surrounding the focus detection pixels and performing signal subtraction processing based on the crosstalk rate obtained in FIG. 8B or 8C. Good.
3番目の口径食による像ひずみは、
AFa←AFa*LNb …(1)
AFb←AFb*LNa …(2)
の式にて補正する。LNa及びLNbは図12に示した線像、*は畳み込み演算を表わす。なお、線像LNa及びLNbは、補正対象となる焦点検出信号のゲインと位相に影響を与えないようにするため、その面積と重心位置はそれぞれ一致するように加工されたものが用いられる。ここで、1対の焦点検出信号に、互いに相手の線像分布波形を畳み込み演算する理由は以下のとおりである。
The image distortion due to the third vignetting is
AFa ← AFa * LNb (1)
AFb ← AFb * LNa (2)
Correct with the following formula. LNa and LNb are line images shown in FIG. 12, and * represents a convolution operation. Note that the line images LNa and LNb are processed so that the area and the center of gravity position coincide with each other so as not to affect the gain and phase of the focus detection signal to be corrected. Here, the reason why the pair of focus detection signals are convolved with the other line image distribution waveforms is as follows.
図12によると、焦点検出用画素221aが取得した像信号は、理想的な像信号に対して線像LNaが畳み込み積分されたものである。同様に、焦点検出用画素221bが取得した像信号は、理想的な像信号に対して線像LNbが畳み込み積分されたものである。そこで、像信号AFaに線像LNbを畳み込み積分すると、得られた信号は理想的な像信号に対して線像LNaとLNbの両方を畳み込み積分したものに等価である。同様に、像信号AFbに線像LNaを畳み込み積分すると、得られた信号は理想的な像信号に対して線像LNaとLNbの両方を畳み込み積分したものに等価である。よって、1対2像の歪み特性は同一となり、式(1)及び(2)で補正された2像は形状が同一で横ずれのみが生じていることになる。
According to FIG. 12, the image signal acquired by the
ここで、上記の線像LNa及びLNbは、図11(b)もしくは(d)の射影と、デフォーカス量からから求めるが、焦点検出時にはデフォーカス量は未知なため、線像を求めることができないという問題がある。この問題を解決する方法は後述のフローチャートにて説明する。 Here, the above-described line images LNa and LNb are obtained from the projection of FIG. 11B or 11D and the defocus amount, but since the defocus amount is unknown at the time of focus detection, the line image can be obtained. There is a problem that you can not. A method for solving this problem will be described with reference to a flowchart described later.
以上の3種類の修正を施すことで、焦点検出用の2像は図13(c)に示すごとく形状が同一となるように復元され、横ずれのみが残る。よって、修正後の波形に公知の相関演算を適用することで、2像の横ずれ量が正確に算出でき、正確な焦点検出が可能となる。 By performing the above three types of correction, the two images for focus detection are restored so as to have the same shape as shown in FIG. 13C, and only the lateral shift remains. Therefore, by applying a known correlation calculation to the corrected waveform, the amount of lateral deviation between the two images can be accurately calculated, and accurate focus detection can be performed.
図14は本実施形態の撮像素子における読み出し回路の構成を示したものである。151は水平走査回路、153は垂直走査回路である。そして各画素の境界部には、水平走査ライン152と、垂直走査ライン154が配線され、各光電変換部はこれらの走査ラインを介して信号が外部に読み出される。
FIG. 14 shows the configuration of the readout circuit in the image sensor of this embodiment. Reference numeral 151 denotes a horizontal scanning circuit, and 153 denotes a vertical scanning circuit. A
なお、本実施形態の撮像素子は以下の2種類の読み出しモードを有する。第1の読み出しモードは全画素読み出しモードと称するもので、高精細静止画を撮像するためのモードである。この場合は、全画素の信号が読み出される。第2の読み出しモードは間引き読み出しモードと称するもので、動画記録、もしくはプレビュー画像の表示のみを行なうためのモードである。この場合に必要な画素数は全画素よりも少ないため、第1の画素群はX方向及びY方向ともに所定比率に間引いた画素のみ読み出す。また第2及び第3の画素群はすべて読み出すことで、焦点検出機能は維持される。 Note that the image sensor of the present embodiment has the following two types of readout modes. The first readout mode is called an all-pixel readout mode and is a mode for capturing a high-definition still image. In this case, signals of all pixels are read out. The second readout mode is called a thinning readout mode, and is a mode for performing only moving image recording or preview image display. In this case, since the number of pixels required is smaller than the total number of pixels, the first pixel group reads only the pixels thinned out at a predetermined ratio in both the X direction and the Y direction. Further, the focus detection function is maintained by reading out all of the second and third pixel groups.
図15は、焦点検出時に取得された画像と焦点検出信号、及び焦点検出結果から得られたデフォーカスマップを説明する図である。図15(a)において、撮像面に形成された被写体像には、中央に近景の人物、左側に中景の樹木、右側に遠景の山並みが写っている。そして図15における焦点検出信号は、第2の画素群222による信号を採用した場合について説明する。 FIG. 15 is a diagram illustrating a defocus map obtained from an image and a focus detection signal acquired at the time of focus detection, and a focus detection result. In FIG. 15 (a), the subject image formed on the imaging surface includes a person in the foreground in the center, a tree in the middle foreground on the left, and a mountain range in the foreground on the right. The case where the signal from the second pixel group 222 is adopted as the focus detection signal in FIG. 15 will be described.
図15(a)においては、画面中央に人物の顔が存在している。そこで公知の顔認識技術によって顔の存在が検出されると、顔領域を中心に第2の画素群222による1対の焦点検出用信号AFa及びAFbが得られる。また、顔以外の領域については、所定ピッチで焦点検出領域が撮影画面全面にわたって設定される。図15(a)の左は木の幹に対応した焦点検出領域とその信号が、右上には山の稜線に対応した焦点検出領域とその信号が示されている。そして、各焦点検出領域において得られた1対の信号はそれぞれ横ずれしているため、公知の相関演算により横ずれ量u(単位をmmに換算したもの)を計算する。そして、以下の式(3)を用いてデフォーカス量DEF(単位はmm)を算出する。 In FIG. 15A, a human face exists in the center of the screen. Therefore, when the presence of a face is detected by a known face recognition technique, a pair of focus detection signals AFa and AFb are obtained by the second pixel group 222 around the face area. For areas other than the face, focus detection areas are set over the entire shooting screen at a predetermined pitch. The left of FIG. 15A shows a focus detection area corresponding to a tree trunk and its signal, and the upper right shows a focus detection area corresponding to a ridgeline of a mountain and its signal. Since the pair of signals obtained in each focus detection area are laterally displaced, the lateral displacement amount u (unit converted to mm) is calculated by a known correlation calculation. Then, the defocus amount DEF (unit: mm) is calculated using the following equation (3).
θ×DEF=u …(3)
上式のθは位相差式焦点検出システムにおける基線長で、図11(b)もしくは(d)に示した射影の重心間隔XGに相当する。ただし単位をラジアンとするため、上記の重心間隔XG(単位はmm)を投影平面REFまでの距離(単位はmm)で除した値を用いる。
θ × DEF = u (3)
In the above equation, θ is the baseline length in the phase difference focus detection system, and corresponds to the projection center-of-gravity interval XG shown in FIG. However, since the unit is radians, a value obtained by dividing the centroid distance XG (unit: mm) by the distance (unit: mm) to the projection plane REF is used.
その後、主被写体、図15においては中央に位置する顔領域について、デフォーカス量がゼロとなるように撮影光学系のフォーカスレンズを駆動し、再度焦点検出を行なう。 Thereafter, the focus lens of the photographic optical system is driven so that the defocus amount is zero for the main subject, that is, the face region located in the center in FIG.
以上の焦点調節過程で、撮影画面全面における焦点ずれ情報、いわゆるデフォーカスマップが取得できるが、その一例を図15(b)に示す。当図では、デフォーカス量を所定の分解能に基づいて整理統合し、デフォーカス量の小さい領域から順に、DEF0乃至DEF3に統合した例を示す。 In the above focus adjustment process, defocus information on the entire surface of the photographing screen, so-called defocus map, can be acquired. One example is shown in FIG. This figure shows an example in which the defocus amounts are consolidated and integrated based on a predetermined resolution, and are integrated into DEF0 to DEF3 in order from the region with the smallest defocus amount.
なお、デフォーカスマップを作成する場合は撮像領域全域に測距領域を設定する必要があるため、そのデータ分解能を高めるためには焦点検出時間も長くなり、カメラの応答性を低下させる恐れがある。その場合には、撮像時にカメラ内で作成するデフォーカスマップの分解能は粗く、撮影後に外部のコンピュータで高分解能のデフォーカスマップを作成すればよい。 Note that when creating a defocus map, it is necessary to set a distance measurement area over the entire imaging area, so in order to increase the data resolution, the focus detection time becomes longer, which may reduce the responsiveness of the camera. . In that case, the resolution of the defocus map created in the camera at the time of imaging is rough, and a high-resolution defocus map may be created by an external computer after shooting.
図16及び図17は、撮像素子のクロストーク情報を取得するためのフローチャートである。撮像素子を備えたカメラの製造工程において、図8乃至図10で説明した原理に基づいて2種類のクロストーク情報を取得する。そしてこのフローを実行する際は、図1に示した外部PC141とカメラ内CPUが連携して各ステップを実行する。
16 and 17 are flowcharts for acquiring the crosstalk information of the image sensor. In the manufacturing process of the camera including the image sensor, two types of crosstalk information are acquired based on the principle described with reference to FIGS. When executing this flow, the
図16は、画像信号のクロストーク率を取得するためのフローチャートである。図1に示した本実施形態のカメラは、その製造工程において、図8に示した装置を用いてクロストーク情報を取得する。 FIG. 16 is a flowchart for acquiring the crosstalk rate of the image signal. The camera of the present embodiment shown in FIG. 1 acquires crosstalk information using the apparatus shown in FIG. 8 in the manufacturing process.
ステップS172では絞り値を設定するが、初回の測定では絞り値を開放に設定する。ステップS173では、設定した絞り値と均一輝度面の輝度設定値より、撮像素子の電荷蓄積量が適正になるように、蓄積時間を設定する。ステップS174では撮像を行なう。ステップS175では、クロストーク情報取得領域の各画素の出力を処理し、図8(b)に示したクロストーク率を算出してカメラ内CPUに記憶する。ステップS176では絞り値を判断し、全絞り値における測定が完了していなければステップS172に戻って絞り値を変更し、同様の測定を繰り返す。全絞り値の測定が完了したら、ステップS176からステップS177に移行し、画像信号のクロストーク情報取得を完了する。 In step S172, the aperture value is set, but in the first measurement, the aperture value is set to open. In step S173, the accumulation time is set based on the set aperture value and the luminance setting value of the uniform luminance surface so that the charge accumulation amount of the image sensor becomes appropriate. In step S174, imaging is performed. In step S175, the output of each pixel in the crosstalk information acquisition area is processed, and the crosstalk rate shown in FIG. 8B is calculated and stored in the in-camera CPU. In step S176, the aperture value is determined. If the measurement has not been completed for all aperture values, the process returns to step S172 to change the aperture value and repeat the same measurement. When the measurement of all the aperture values is completed, the process proceeds from step S176 to step S177, and the acquisition of the crosstalk information of the image signal is completed.
図17は瞳強度分布のクロストーク測定フローである。この測定方法は図9に示したように、撮影光学系を不要としているため、測定用の光学系を取り外して行なう。ステップS182では図9に示した光源LSの位置を制御する。最初は初期位置、例えばX、Y座標共に正方向の駆動範囲の最大値に駆動する。ステップS183では撮像素子の電荷蓄積量が適正になるように、蓄積時間を設定するが、この測定では全測定工程に渡って光源の明るさと蓄積時間は一定として構わない。ステップS184では撮像を行なう。ステップS185では瞳強度分布情報を取得すべき画素の画像信号を一時記憶する。ステップS186では光源LSの全座標における測定が完了したか否かを判定する。そして測定が完了していなければ、ステップS182に戻って光源LSを次の測定座標に駆動し、同様の測定を繰り返す。 FIG. 17 is a crosstalk measurement flow of pupil intensity distribution. As shown in FIG. 9, this measurement method does not require a photographing optical system, and therefore is performed with the measurement optical system removed. In step S182, the position of the light source LS shown in FIG. 9 is controlled. Initially, the initial position, for example, the X and Y coordinates are both driven to the maximum value in the positive driving range. In step S183, the accumulation time is set so that the charge accumulation amount of the image sensor is appropriate. In this measurement, the brightness and accumulation time of the light source may be constant over the entire measurement process. In step S184, imaging is performed. In step S185, the image signal of the pixel from which pupil intensity distribution information is to be acquired is temporarily stored. In step S186, it is determined whether measurement at all coordinates of the light source LS is completed. If the measurement is not completed, the process returns to step S182 to drive the light source LS to the next measurement coordinate and repeat the same measurement.
設定した全座標における測定が完了したら、ステップS186からステップS187に移行し、所定画素における瞳強度分布を作成して記憶する。これは、ステップS182乃至ステップS186で取得した複数組の画像情報から、図10(c)及び(f)に示したデータ形式に整理する工程である。そして、ステップS188で瞳強度分布、及びそのクロストーク情報の取得を完了する。 When the measurement at all the set coordinates is completed, the process proceeds from step S186 to step S187, and a pupil intensity distribution at a predetermined pixel is created and stored. This is a process of organizing the data formats shown in FIGS. 10C and 10F from a plurality of sets of image information acquired in steps S182 to S186. In step S188, the acquisition of the pupil intensity distribution and its crosstalk information is completed.
図18及び図19は、本実施形態に係わるカメラの焦点調節及び撮影工程を説明するためのフローチャートである。先に説明した図1乃至図17の各図を参照しながら、図18以降の制御フローを説明する。 18 and 19 are flowcharts for explaining the focus adjustment and photographing process of the camera according to the present embodiment. The control flow after FIG. 18 will be described with reference to each of FIGS. 1 to 17 described above.
図18はカメラのメインフローである。撮影者がカメラの電源スイッチをオン操作すると、ステップS102においてCPU121はカメラ内の各アクチュエータや撮像素子の動作確認を行ない、メモリ内容や実行プログラムの初期化を行なうと共に、撮影準備動作を実行する。
FIG. 18 is a main flow of the camera. When the photographer turns on the power switch of the camera, in step S102, the
ステップS103では撮影条件の設定受付けを行なう。具体的には、露光調節モード、焦点調節モード、画質(記録画素数や圧縮率)等を撮影者が設定するのを受け付ける。ステップS104では、撮影光学系のズーム状態、フォーカスレンズ状態、及び絞り状態を検出し、射出瞳の大きさや射出瞳距離等の情報をROMから読み出す。ステップS105では撮像素子の撮像動作を行ない、画素信号を読み出す。ステップS107では読み出した画素信号から表示用縮小画像を創生し、カメラ背面に設けられた表示器131に表示する。すると撮影者はこのプレビュー画像を目視して構図決定やズーム操作等を行なう。
In step S103, the setting of the photographing condition is accepted. Specifically, it accepts that the photographer sets the exposure adjustment mode, the focus adjustment mode, the image quality (the number of recorded pixels and the compression rate), and the like. In step S104, the zoom state, focus lens state, and aperture state of the photographing optical system are detected, and information such as the exit pupil size and exit pupil distance is read from the ROM. In step S105, the image pickup operation of the image pickup device is performed and the pixel signal is read out. In step S107, a reduced display image is created from the read pixel signal and displayed on the
ステップS121では後述する焦点検出サブルーチンを実行する。ステップS151では、ステップS121で算出したフォーカスレンズ駆動量が所定値以下か否かを判断する。そしてその駆動量が所定値以下の場合は合焦と判断し、ステップS153にジャンプする。一方レンズ駆動量が所定値以上の場合はステップS152でフォーカスレンズを駆動する。 In step S121, a focus detection subroutine described later is executed. In step S151, it is determined whether or not the focus lens drive amount calculated in step S121 is equal to or less than a predetermined value. If the drive amount is less than or equal to the predetermined value, it is determined that focus is achieved, and the process jumps to step S153. On the other hand, if the lens driving amount is greater than or equal to the predetermined value, the focus lens is driven in step S152.
ステップS153では、撮影スイッチがオン操作されたか否かを判別し、オン操作されていなければステップS181にジャンプし、オン操作されている場合はステップS161にて画像記録を実行する。 In step S153, it is determined whether or not the photographing switch has been turned on. If not, the process jumps to step S181. If the photographing switch has been turned on, image recording is executed in step S161.
ステップS181では、メインスイッチのオフ状態を判別し、NOの場合、すなわちオン状態が維持されている場合はステップS102に戻り、ステップS102乃至ステップS161を繰り返し実行する。ステップS181にてメインスイッチがオフされていたら、ステップS182以降を実行する。 In step S181, it is determined whether the main switch is off. If NO, that is, if the on state is maintained, the process returns to step S102, and steps S102 to S161 are repeatedly executed. If the main switch is turned off in step S181, step S182 and subsequent steps are executed.
ステップS182では、ステップS161で記録された画像を、インターネット回線を介してサーバーコンピュータに送信する。するとサーバーコンピュータでは、デフォーカスマップの高精度演算等の、演算規模の大きな処理を実行する。ステップS183では、サーバーコンピュータで処理した画像を受信する。ステップS184では、ステップS161で記録したオリジナル画像に対して、サーバーコンピュータで処理した修正部分を追加したり、置き換え修正を行なう。そしてステップS185にて撮影を終了する。 In step S182, the image recorded in step S161 is transmitted to the server computer via the Internet line. Then, the server computer executes processing with a large computation scale such as high-precision computation of the defocus map. In step S183, an image processed by the server computer is received. In step S184, the corrected portion processed by the server computer is added to the original image recorded in step S161, or replacement correction is performed. Then, in step S185, shooting is finished.
図19は焦点検出サブルーチンのフロー図である。メインフローのステップS121から当サブルーチンのステップS121にジャンプすると、ステップS122において、プレビュー画像から被写体パターンを認識し、顔画像の判別や、撮影画面全体のコントラスト分析等を行なう。ステップS123では、ステップS122での認識結果から、焦点を合わせるべき焦点検出領域を決定する。ここで、焦点検出領域は1箇所に限定されるものではなく、複数箇所が選択されても良い。ステップS124では、決定された焦点検出領域に含まれる焦点検出用画素の信号を抽出し、相関演算用の1対2像を準備する。ステップS125では、図16のフローで測定し、記憶された像信号のクロストーク情報と、焦点検出領域の座標から、像信号のクロストーク率を算出する。ステップS126では、ステップS124で創生した1対2像に対して、ステップS125で算出したクロストーク率を用いて、焦点検出用信号のクロストーク補正を行なう。 FIG. 19 is a flowchart of the focus detection subroutine. When jumping from step S121 of the main flow to step S121 of this subroutine, in step S122, the subject pattern is recognized from the preview image, and the face image is discriminated and the contrast of the entire photographing screen is analyzed. In step S123, a focus detection area to be focused is determined from the recognition result in step S122. Here, the focus detection region is not limited to one location, and a plurality of locations may be selected. In step S124, a focus detection pixel signal included in the determined focus detection region is extracted to prepare a one-to-two image for correlation calculation. In step S125, the crosstalk rate of the image signal is calculated from the crosstalk information of the image signal measured and stored in the flow of FIG. 16 and the coordinates of the focus detection area. In step S126, the crosstalk correction of the focus detection signal is performed on the one-to-two image created in step S124 using the crosstalk rate calculated in step S125.
ステップS127では、メインフローのステップSで検出したレンズ状態と、当フローのステップS123で決定した焦点検出領域の座標から、この座標における撮影光学系の射出瞳の計算を行ない、図11(a)もしくは(c)に示した投影平面REF上における射出瞳TLの形状を算出する。ステップS128では、焦点検出用画素における瞳強度分布を読み出し、続いてステップS129では、瞳強度分布のクロストーク情報を読み出す。そしてステップS130では、これらの情報から焦点検出用画素の瞳強度分布にクロストーク補正を施し、クロストークが除去された瞳強度分布を算出する。ステップS131では、図11(b)で説明した、瞳強度分布の射影計算を行ない、ステップS132では1対2個の射影の重心間隔から、基線長θを計算する。 In step S127, the exit pupil of the photographing optical system at this coordinate is calculated from the lens state detected in step S of the main flow and the coordinates of the focus detection area determined in step S123 of this flow, and FIG. Alternatively, the shape of the exit pupil TL on the projection plane REF shown in (c) is calculated. In step S128, the pupil intensity distribution in the focus detection pixel is read out, and in step S129, the crosstalk information of the pupil intensity distribution is read out. In step S130, crosstalk correction is performed on the pupil intensity distribution of the focus detection pixels from these pieces of information to calculate a pupil intensity distribution from which crosstalk has been removed. In step S131, the projection calculation of the pupil intensity distribution described in FIG. 11B is performed, and in step S132, the baseline length θ is calculated from the centroid interval of the one-to-two projection.
ステップS133では、ステップ131で求めた射影を積分することにより、シェーディング補正係数を算出する。ステップS134では、ステップS126で処理した焦点検出用の像信号に対して、ステップS133で算出したシェーディング補正係数を乗じて、シェーディング補正を行ない、1対2像の信号強度を揃える。ステップS135では、公知の相関演算手法を用いて、ステップS134で求めた1対2像の横ずれ量を計算する。ステップS136では、ステップS132で計算した基線長と、ステップS135で算出された2像の横ずれ量から、デフォーカス量を算出する。
In step S133, the shading correction coefficient is calculated by integrating the projection obtained in
ステップS141では、デフォーカス量の大きさ判定を行ない、デフォーカス量が所定値以下で実質的に合焦と見なせる場合は、ステップS142で撮影画面全域のデフォーカスマップ作成を行なう。一方ステップS141で非合焦と判断されたらステップS143に移行する。ステップS143では、ステップS131で計算した射影と、ステップS136で算出したデフォーカス量から、図14で説明した線像分布波形LNaを求め、これを像修正フィルタとする。なお、図14では焦点検出用画素221aの線像波形のみを示しているが、もう一方の画素221bの線像波形LNbも同様に求める。ステップS144では、ステップS134で求めたシェーディング補正後の1対2像に、ステップS143で求めた像修正フィルタを前述の式(1)及び式(2)に従って適用し、像修正を行なう。
In step S141, the size of the defocus amount is determined. If the defocus amount is not more than a predetermined value and can be regarded as substantially in focus, a defocus map is created for the entire shooting screen in step S142. On the other hand, if it is determined in step S141 that the image is out of focus, the process proceeds to step S143. In step S143, the line image distribution waveform LNa described in FIG. 14 is obtained from the projection calculated in step S131 and the defocus amount calculated in step S136, and this is used as an image correction filter. In FIG. 14, only the line image waveform of the
ステップS145では、修正された2像に対して再度相関演算を行ない、ステップS146でデフォーカス量を算出する。ステップS147では、前回算出したデフォーカス量に対して、今回算出したデフォーカス量が異なっているか否かを判定する。ここで、像修正が初回の場合は、前回算出したデフォーカス量はステップS136で算出した、像修正無しでの演算、今回算出したデフォーカス量は像修正ありの演算結果である。そして前者で用いた焦点検出信号には口径食による歪みが乗っており、焦点検出誤差も大きい。一方で、後者で用いた焦点検出信号は口径食による歪みが補正されているため、焦点検出誤差も低減している。そこで、両者の差は所定値以上になり、ステップS143に戻って像修正フィルタを再度算出する。このとき用いられるデフォーカス量は、ステップS146で算出された値、すなわち誤差が低減された値を用いることができる。そこで、ステップS144乃至ステップS146にて実行される演算は、口径食による歪み補正がより高精度に補正された2像を用いることができるため、焦点検出誤差も低下する。 In step S145, the correlation calculation is performed again on the two corrected images, and the defocus amount is calculated in step S146. In step S147, it is determined whether or not the currently calculated defocus amount is different from the previously calculated defocus amount. When image correction is performed for the first time, the previously calculated defocus amount is the calculation without image correction calculated in step S136, and the defocus amount calculated this time is the calculation result with image correction. The focus detection signal used in the former is distorted by vignetting and has a large focus detection error. On the other hand, since the focus detection signal used in the latter is corrected for distortion due to vignetting, the focus detection error is also reduced. Therefore, the difference between the two becomes a predetermined value or more, and the process returns to step S143 to calculate the image correction filter again. As the defocus amount used at this time, the value calculated in step S146, that is, the value with reduced error can be used. Therefore, since the calculations executed in steps S144 to S146 can use two images in which distortion correction due to vignetting is corrected with higher accuracy, the focus detection error is also reduced.
上記のステップS143乃至147を繰り返し実行すると、像修正の精度が次第に向上し、演算されたデフォーカス量も真の値に漸近する。そして、焦点検出結果の変動が所定値以下に収束したら、ステップS147からステップS148に移行し、最後に算出されたデフォーカス量をレンズ駆動量に変換し、ステップS149にてメインルーチンにリターンする。 When the above steps S143 to S147 are repeatedly executed, the accuracy of image correction gradually improves, and the calculated defocus amount gradually approaches a true value. When the fluctuation of the focus detection result converges to a predetermined value or less, the process proceeds from step S147 to step S148, the last calculated defocus amount is converted into a lens drive amount, and the process returns to the main routine in step S149.
以上の第1の実施形態による作用と効果をまとめると以下のようになる。
(1−1)口径食に起因する焦点検出用信号の歪みを補正するための像修正フィルタを創生する際、瞳強度分布におけるクロストークを補正した情報を用いるため、焦点検出用信号の歪み補正精度が向上し、焦点検出精度が向上する。
(1−2)撮像素子の複数の領域にクロストーク情報検出用画素を配置したため、正確なクロストーク情報を入手でき、焦点検出精度が向上する。
The actions and effects of the first embodiment are summarized as follows.
(1-1) When an image correction filter for correcting distortion of a focus detection signal due to vignetting is created, information that corrects crosstalk in the pupil intensity distribution is used. Correction accuracy is improved, and focus detection accuracy is improved.
(1-2) Since the crosstalk information detection pixels are arranged in a plurality of regions of the image sensor, accurate crosstalk information can be obtained and focus detection accuracy is improved.
(第2の実施形態)
第1の実施形態は、撮影に供する撮像素子に、クロストーク情報取得用画素群が配置されていた。以下に示す第2の実施形態は、計測専用の撮像素子を用いてクロストーク情報を取得し、取得された情報を撮影用の撮像素子に供する実施形態を示す。
(Second Embodiment)
In the first embodiment, a crosstalk information acquisition pixel group is arranged in an image sensor used for photographing. The second embodiment described below shows an embodiment in which crosstalk information is acquired using an image sensor dedicated for measurement, and the acquired information is provided to an image sensor for photographing.
図20は、第2の実施形態に係わる撮像装置の構成を示し、計測用撮像装置200においては、図1に示した第1の実施形態の撮像装置100が備える撮像素子107の代わりに、画素配列の異なる撮像素子207が組み込まれている。そしてCPU121は外部PC141を介して撮影用の撮像装置100と通信可能な構成になっている。また、撮像装置100の撮像素子は、クロストーク情報取得用の画素は省略されている。すなわち計測用撮像装置200はクロストーク情報取得専用カメラとして使用され、取得されたクロストーク情報は、外部PC141を介して撮像装置100へ転送される。
FIG. 20 shows a configuration of an imaging apparatus according to the second embodiment. In the
図21は撮像素子207の画素配列領域を示したもので、第1の実施形態の図2と同様に、撮影光学系側から撮像素子207の受光面を見た図である。207imは撮像領域で、図2の107imと同様に撮像及び焦点検出用の画素がX−Y平面上に2次元配置されている。そしてその中の特定部分が、クロストーク情報取得領域207ctに置き換えられている。このクロストーク情報取得領域207ctの画素配列は、第1の実施形態の図6と同様の配列になっている。
FIG. 21 shows a pixel array region of the
図22及び図23は、撮像装置200を用いてクロストーク情報を取得するためのフローチャートである。第2の実施形態においては、撮像装置200を用いて、第1の実施形態と同様に図8乃至図10で説明した原理に基づいて2種類のクロストーク情報を取得する。そしてこのフローを実行する際は、取得されたクロストーク情報を図20に示した外部PC141に一時記憶し、次いで撮影用の撮像装置100に転送する。
22 and 23 are flowcharts for acquiring crosstalk information using the
図22は、画像信号のクロストーク率を取得するためのフローチャートで、第1の実施形態の図16に示したフローチャートと同一の方法にて情報を取得するが、データの一時記憶と転送のステップが追加されている。図16と同一内容のステップは同一番号にて示す。 FIG. 22 is a flowchart for acquiring the crosstalk rate of the image signal. Information is acquired by the same method as the flowchart shown in FIG. 16 of the first embodiment. Has been added. Steps having the same contents as in FIG. 16 are denoted by the same numbers.
ステップS172では絞り値を設定するが、初回の測定では絞り値を開放に設定する。ステップS173では、設定した絞り値と均一輝度面の輝度設定値より、撮像素子の電荷蓄積量が適正になるように、蓄積時間を設定する。ステップS174では撮像を行なう。ステップS175では、クロストーク情報取得領域の各画素の出力を処理し、図8(b)に示したクロストーク率を算出してカメラ内CPU121に記憶する。ステップS176では絞り値を判断し、全絞り値における測定が完了していなければステップS172に戻って絞り値を変更し、同様の測定を繰り返す。
In step S172, the aperture value is set, but in the first measurement, the aperture value is set to open. In step S173, the accumulation time is set based on the set aperture value and the luminance setting value of the uniform luminance surface so that the charge accumulation amount of the image sensor becomes appropriate. In step S174, imaging is performed. In step S175, the output of each pixel in the crosstalk information acquisition region is processed, and the crosstalk rate shown in FIG. 8B is calculated and stored in the in-
全絞り値の測定が完了したら、ステップS176からステップS271に移行し、外部PC141を介して撮影用の撮像装置100にクロストーク情報を転送する。そしてステップS177に移行し、画像信号のクロストーク情報取得を完了する。
When the measurement of all the aperture values is completed, the process proceeds from step S176 to step S271, and the crosstalk information is transferred to the
図23は瞳強度分布のクロストーク測定フローで、第1の実施形態の図17に示したフローチャートと同一の方法にて情報を取得するが、データの一時記憶と転送のステップが追加されている。図17と同一内容のステップは同一番号にて示す。 FIG. 23 shows a crosstalk measurement flow of pupil intensity distribution. Information is acquired by the same method as the flowchart shown in FIG. 17 of the first embodiment, but steps for temporarily storing and transferring data are added. . Steps having the same contents as those in FIG. 17 are denoted by the same numbers.
第2の実施形態の測定フローにおいても、図9に示したように撮影光学系を不要としているため、測定用の光学系を取り外して行なう。ステップS182では図9に示した光源LSの位置を制御する。最初は初期位置、例えばX、Y座標共に正方向の駆動範囲の最大値に駆動する。ステップS183では撮像素子の電荷蓄積量が適正になるように、蓄積時間を設定するが、当測定では全測定工程に渡って光源の明るさと蓄積時間は一定として構わない。ステップS184では撮像を行なう。ステップS185では瞳強度分布情報を取得すべき画素の画像信号を一時記憶する。ステップS186では光源LSの全座標における測定が完了したか否かを判定する。そして測定が完了していなければ、ステップS182に戻って光源LSを次の測定座標に駆動し、同様の測定を繰り返す。 Also in the measurement flow of the second embodiment, since the photographing optical system is not required as shown in FIG. 9, the measurement optical system is removed. In step S182, the position of the light source LS shown in FIG. 9 is controlled. Initially, the initial position, for example, the X and Y coordinates are both driven to the maximum value in the positive driving range. In step S183, the accumulation time is set so that the charge accumulation amount of the image sensor is appropriate. In this measurement, the brightness and accumulation time of the light source may be constant over the entire measurement process. In step S184, imaging is performed. In step S185, the image signal of the pixel from which pupil intensity distribution information is to be acquired is temporarily stored. In step S186, it is determined whether measurement at all coordinates of the light source LS is completed. If the measurement is not completed, the process returns to step S182 to drive the light source LS to the next measurement coordinate and repeat the same measurement.
設定した全座標における測定が完了したら、ステップS186からステップS187に移行し、所定画素における瞳強度分布を作成して記憶する。これは、ステップS182乃至ステップS186で取得した複数組の画像情報から、図10(c)及び(f)に示したデータ形式に整理する工程である。続いてステップS281では焦点検出用画素の瞳強度分布にクロストーク補正を施して図10(g)の情報を作成する。ステップS282では、外部PC141を介して撮影用の撮像装置100にクロストーク情報を転送する。そしてその情報をカメラ内CPU121に記憶し、ステップS188で瞳強度分布の測定とクロストーク補正を完了する。
When the measurement at all the set coordinates is completed, the process proceeds from step S186 to step S187, and a pupil intensity distribution at a predetermined pixel is created and stored. This is a process of organizing the data formats shown in FIGS. 10C and 10F from a plurality of sets of image information acquired in steps S182 to S186. Subsequently, in step S281, crosstalk correction is performed on the pupil intensity distribution of the focus detection pixels to create information shown in FIG. In step S282, the crosstalk information is transferred to the
図22と図23で取得した2種類のクロストーク情報が撮影用の撮像装置100に転送されると、撮像装置100はこのクロストーク情報を用いた焦点検出が可能となる。撮像装置100の撮影に関するメインフローは第1の実施形態の図18に示したものと実質的に同一であるため、説明は省略する。
When the two types of crosstalk information acquired in FIGS. 22 and 23 are transferred to the
図24は第2の実施形態における撮像装置100で焦点検出する際のフローである。第1の実施形態の図19に示したフローに対して、クロストーク補正を実行する順番が異なっているが、それ以外のステップは実質的に同一であり、同一ステップは同一番号で示している。
FIG. 24 is a flowchart when focus detection is performed by the
メインフローのステップS121から当サブルーチンのステップS121にジャンプすると、ステップS122において、プレビュー画像から被写体パターンを認識し、顔画像の判別や、撮影画面全体のコントラスト分析等を行なう。ステップS123では、ステップS122での認識結果から、焦点を合わせるべき焦点検出領域を決定する。ここで、焦点検出領域は1箇所に限定されるものではなく、複数箇所が選択されても良い。ステップS124では、決定された焦点検出領域に含まれる焦点検出用画素の信号を抽出し、相関演算用の1対2像を準備する。 When jumping from step S121 of the main flow to step S121 of this subroutine, in step S122, the subject pattern is recognized from the preview image, and the face image is discriminated and the contrast of the entire photographing screen is analyzed. In step S123, a focus detection area to be focused is determined from the recognition result in step S122. Here, the focus detection region is not limited to one location, and a plurality of locations may be selected. In step S124, a focus detection pixel signal included in the determined focus detection region is extracted to prepare a one-to-two image for correlation calculation.
ステップS127では、メインフローのステップS104で検出したレンズ状態と、当フローのステップS123で決定した焦点検出領域の座標から、当座標における撮影光学系の射出瞳の計算を行ない、図11(a)もしくは(c)に示した投影平面REF上における射出瞳TLの形状を算出する。ステップS228では、図23のステップS281及びステップS282で取得及び転送記憶された、クロストーク補正済みの瞳強度分布を読み出す。ステップS131では、図11(b)で説明した、瞳強度分布の射影計算を行ない、ステップS132では1対2個の射影の重心間隔から、基線長θを計算する。 In step S127, the exit pupil of the imaging optical system at the coordinates is calculated from the lens state detected in step S104 of the main flow and the coordinates of the focus detection area determined in step S123 of the flow, and FIG. Alternatively, the shape of the exit pupil TL on the projection plane REF shown in (c) is calculated. In step S228, the crosstalk-corrected pupil intensity distribution acquired and transferred and stored in steps S281 and S282 in FIG. 23 is read. In step S131, the projection calculation of the pupil intensity distribution described in FIG. 11B is performed, and in step S132, the baseline length θ is calculated from the centroid interval of the one-to-two projection.
ステップS133では、ステップ131で求めた射影を積分することにより、シェーディング補正係数を算出する。ステップS134では、ステップS126で処理した焦点検出用の像信号に対して、ステップS133で算出したシェーディング補正係数を乗じて、シェーディング補正を行ない、1対2像の信号強度を揃える。ステップS135では、公知の相関演算手法を用いて、ステップS134で求めた1対2像の横ずれ量を計算する。ステップS136では、ステップS132で計算した基線長と、ステップS135で算出された2像の横ずれ量から、デフォーカス量を算出する。
In step S133, the shading correction coefficient is calculated by integrating the projection obtained in
ステップS141では、デフォーカス量の大きさ判定を行ない、デフォーカス量が所定値以下で実質的に合焦と見なせる場合は,ステップS142で撮影画面全域のデフォーカスマップ作成を行なう。一方ステップS141で非合焦と判断されたらステップS241に移行する。ステップS241では、図22のフローにて取得及び転送記憶された像信号におけるクロストーク率を読み出し、ステップS242では焦点検出用像信号にクロストーク補正を施す。そしてステップS243では、ステップS134と同様のシェーディング補正を行なう。 In step S141, the size of the defocus amount is determined. If the defocus amount is not more than a predetermined value and can be regarded as substantially in focus, a defocus map is created for the entire shooting screen in step S142. On the other hand, if it is determined in step S141 that the image is out of focus, the process proceeds to step S241. In step S241, the crosstalk rate in the image signal acquired and transferred and stored in the flow of FIG. 22 is read, and in step S242, crosstalk correction is performed on the focus detection image signal. In step S243, the same shading correction as in step S134 is performed.
ステップS143では、ステップS131で計算した射影と、ステップS136で算出したデフォーカス量から、図14で説明した線像分布波形LNaを求め、これを像修正フィルタとする。なお、図14では焦点検出用画素221aの線像波形のみを示しているが、もう一方の画素221bの線像波形LNbも同様に求める。ステップS144では、ステップS134で求めたシェーディング補正後の1対2像に、ステップS143で求めた像修正フィルタを前述の式(1)及び(2)に従って適用し、像修正を行なう。
In step S143, the line image distribution waveform LNa described in FIG. 14 is obtained from the projection calculated in step S131 and the defocus amount calculated in step S136, and this is used as an image correction filter. In FIG. 14, only the line image waveform of the
ステップS145では、修正された2像に対して再度相関演算を行ない、ステップS146でデフォーカス量を算出する。ステップS147では、前回算出したデフォーカス量に対して、今回算出したデフォーカス量が異なっているか否かを判定する。ここで、像修正が初回の場合は、前回算出したデフォーカス量はステップS136で算出した、像修正無しでの演算、今回算出したデフォーカス量は像修正ありの演算結果である。そして前者で用いた焦点検出信号には口径食による歪みが乗っており、焦点検出誤差も大きい。一方で、後者で用いた焦点検出信号は口径食による歪みが補正されているため、焦点検出誤差も低減している。そこで、両者の差は所定値以上になるためステップS241に戻り、ステップS143にて像修正フィルタを再度算出する。このとき用いられるデフォーカス量は、ステップS146で算出された値、すなわち誤差が低減された値を用いることができる。そこで、ステップS144乃至ステップS146にて実行される演算は、口径食による歪み補正がより高精度に補正された2像を用いることができるため、焦点検出誤差も低下する。 In step S145, the correlation calculation is performed again on the two corrected images, and the defocus amount is calculated in step S146. In step S147, it is determined whether or not the currently calculated defocus amount is different from the previously calculated defocus amount. When image correction is performed for the first time, the previously calculated defocus amount is the calculation without image correction calculated in step S136, and the defocus amount calculated this time is the calculation result with image correction. The focus detection signal used in the former is distorted by vignetting and has a large focus detection error. On the other hand, since the focus detection signal used in the latter is corrected for distortion due to vignetting, the focus detection error is also reduced. Therefore, since the difference between the two becomes a predetermined value or more, the process returns to step S241, and the image correction filter is calculated again in step S143. As the defocus amount used at this time, the value calculated in step S146, that is, the value with reduced error can be used. Therefore, since the calculations executed in steps S144 to S146 can use two images in which distortion correction due to vignetting is corrected with higher accuracy, the focus detection error is also reduced.
上記ステップS241乃至147を繰り返し実行すると、像修正の精度が次第に向上し、演算されたデフォーカス量も真の値に漸近する。そして、焦点検出結果の変動が所定値以下に収束したら、ステップS147からステップS148に移行し、最後に算出されたデフォーカス量をレンズ駆動量に変換し、ステップS149にてメインルーチンにリターンする。 When the above steps S241 to 147 are repeatedly executed, the accuracy of image correction gradually improves, and the calculated defocus amount gradually approaches a true value. When the fluctuation of the focus detection result converges to a predetermined value or less, the process proceeds from step S147 to step S148, the last calculated defocus amount is converted into a lens drive amount, and the process returns to the main routine in step S149.
上記第2の実施形態の焦点検出サブルーチンが第1の実施形態と異なるのは以下の2点である。 The focus detection subroutine of the second embodiment is different from the first embodiment in the following two points.
1つめの相違点は、初回の焦点検出演算時における、像信号のクロストーク補正の有無である。ステップS124乃至ステップS136の焦点検出で用いる焦点検出用の像信号に対して、第1の実施形態ではクロストーク補正を行ない、第2の実施形態ではクロストーク補正を行なわない。その理由は次のとおりである。もし、1回目の焦点検出演算で合焦と判断された場合、1対2像は一致しているので像信号のクロストーク補正は実施する必要がない。一方で、1回目の焦点検出演算で非合焦と判断された場合はクロストーク補正が必要であるが、この時はステップS241及びステップS242にて実行される。すなわち、最初のクロストーク補正は不要な場合があるため、必要な時のみこの補正を実施することで、無駄な演算を省略し、第2の実施形態では焦点検出演算を短縮することができる。 The first difference is the presence or absence of crosstalk correction of the image signal during the first focus detection calculation. In the first embodiment, the crosstalk correction is performed on the image signal for focus detection used in the focus detection in steps S124 to S136, and the crosstalk correction is not performed in the second embodiment. The reason is as follows. If it is determined that the in-focus state is obtained by the first focus detection calculation, the one-to-two images coincide with each other, so that it is not necessary to perform crosstalk correction of the image signal. On the other hand, if it is determined that the in-focus state is out of focus in the first focus detection calculation, crosstalk correction is necessary, but at this time, it is executed in steps S241 and S242. That is, since the first crosstalk correction may be unnecessary, by performing this correction only when necessary, useless calculation can be omitted, and the focus detection calculation can be shortened in the second embodiment.
2つめの相違点は、瞳強度分布のクロストーク補正の実施タイミングである。第1の実施形態では、図19の焦点検出サブルーチン内で実施していたが、第2の実施形態においては、図23の工程内、すなわち瞳強度分布のクロストーク情報取得時にクロストーク補正も行ない、補正後の瞳強度分布を撮像装置100に記憶させる。従って、第2の実施形態では焦点検出サブルーチン内で実施する必要が無く、焦点検出時間の短縮が図れる。
The second difference is the execution timing of the crosstalk correction of the pupil intensity distribution. In the first embodiment, the focus detection subroutine of FIG. 19 is used. However, in the second embodiment, the crosstalk correction is also performed in the process of FIG. 23, that is, when the pupil intensity distribution crosstalk information is acquired. Then, the corrected pupil intensity distribution is stored in the
以上の第2の実施形態によると、
(2−1)クロストーク情報検出のための専用の撮像素子を用いてその情報を取得するため、撮影画面の任意位置におけるクロストーク情報を正確に入手することができ、焦点検出精度が向上する。
(2−2)像信号のクロストーク補正を必要な時のみ実施するため、無駄な演算を回避でき、焦点検出時間が短縮され、応答性のよい焦点検出が可能となる。
という効果がある。
According to the second embodiment described above,
(2-1) Since the information is acquired using a dedicated image sensor for detecting crosstalk information, the crosstalk information at an arbitrary position on the shooting screen can be obtained accurately, and the focus detection accuracy is improved. .
(2-2) Since the crosstalk correction of the image signal is performed only when necessary, useless calculation can be avoided, the focus detection time is shortened, and focus detection with good responsiveness is possible.
There is an effect.
なお、以上説明した第1及び第2の実施形態では、動画や静止画が記録可能な民生用電子カメラにおける実施形態を説明したが、本技術の焦点検出装置は、各種検査カメラ、測量カメラ、監視カメラ、内視鏡カメラ、ロボット用カメラ等に応用しても良い。 In the first and second embodiments described above, the embodiment of the consumer electronic camera capable of recording moving images and still images has been described. However, the focus detection device of the present technology includes various inspection cameras, survey cameras, The present invention may be applied to surveillance cameras, endoscope cameras, robot cameras, and the like.
Claims (5)
前記焦点検出用画素群における隣接画素からのクロストーク成分を補正した所定の信号を算出するとともに、該所定の信号により補正された焦点検出用の像信号を用いて焦点検出演算を行なう演算手段と、
を備えることを特徴とする撮像装置。 To divide an imaging pixel group that captures a subject image formed by a photographic optical system and an exit pupil of the photographic optical system, and perform phase difference type focus detection using a light beam from the divided area An image sensor including a focus detection pixel group;
Calculating means for calculating a predetermined signal in which a crosstalk component from an adjacent pixel in the focus detection pixel group is corrected, and performing a focus detection calculation using the image signal for focus detection corrected by the predetermined signal; ,
An imaging apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011126701A JP5850648B2 (en) | 2011-06-06 | 2011-06-06 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011126701A JP5850648B2 (en) | 2011-06-06 | 2011-06-06 | Imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012252280A true JP2012252280A (en) | 2012-12-20 |
JP5850648B2 JP5850648B2 (en) | 2016-02-03 |
Family
ID=47525126
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011126701A Expired - Fee Related JP5850648B2 (en) | 2011-06-06 | 2011-06-06 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5850648B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014219549A (en) * | 2013-05-08 | 2014-11-20 | キヤノン株式会社 | Focus adjustment device, focus adjustment method and program, and imaging device |
US9426350B2 (en) | 2013-09-27 | 2016-08-23 | Canon Kabushiki Kaisha | Image capturing apparatus and control method thereof |
US9525856B2 (en) | 2013-06-26 | 2016-12-20 | Olympus Corporation | Imaging device and imaging method |
JP2017156764A (en) * | 2017-04-20 | 2017-09-07 | 株式会社ニコン | Focus detection device and focus adjustment device |
US9826140B2 (en) | 2013-12-05 | 2017-11-21 | Canon Kabushiki Kaisha | Image capturing apparatus and control method thereof |
US9838659B2 (en) | 2013-06-26 | 2017-12-05 | Olympus Corporation | Image processing device and image processing method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009122524A (en) * | 2007-11-16 | 2009-06-04 | Nikon Corp | Focus detecting device and imaging apparatus |
JP2010117679A (en) * | 2008-11-14 | 2010-05-27 | Canon Inc | Focus detection device and method, and image pickup device |
JP2010154115A (en) * | 2008-12-24 | 2010-07-08 | Canon Inc | Imaging apparatus |
-
2011
- 2011-06-06 JP JP2011126701A patent/JP5850648B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009122524A (en) * | 2007-11-16 | 2009-06-04 | Nikon Corp | Focus detecting device and imaging apparatus |
JP2010117679A (en) * | 2008-11-14 | 2010-05-27 | Canon Inc | Focus detection device and method, and image pickup device |
JP2010154115A (en) * | 2008-12-24 | 2010-07-08 | Canon Inc | Imaging apparatus |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014219549A (en) * | 2013-05-08 | 2014-11-20 | キヤノン株式会社 | Focus adjustment device, focus adjustment method and program, and imaging device |
US9525856B2 (en) | 2013-06-26 | 2016-12-20 | Olympus Corporation | Imaging device and imaging method |
US9838659B2 (en) | 2013-06-26 | 2017-12-05 | Olympus Corporation | Image processing device and image processing method |
US9426350B2 (en) | 2013-09-27 | 2016-08-23 | Canon Kabushiki Kaisha | Image capturing apparatus and control method thereof |
US9826140B2 (en) | 2013-12-05 | 2017-11-21 | Canon Kabushiki Kaisha | Image capturing apparatus and control method thereof |
JP2017156764A (en) * | 2017-04-20 | 2017-09-07 | 株式会社ニコン | Focus detection device and focus adjustment device |
Also Published As
Publication number | Publication date |
---|---|
JP5850648B2 (en) | 2016-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5914055B2 (en) | Imaging device | |
CN104104849B (en) | Picture pick-up device and its control method | |
JP5825817B2 (en) | Solid-state imaging device and imaging apparatus | |
JP5956782B2 (en) | Imaging device and imaging apparatus | |
JP6362060B2 (en) | Imaging apparatus, control method thereof, and program | |
CN103842877B (en) | imaging device and focus parameter value calculation method | |
JP5629832B2 (en) | Imaging device and method for calculating sensitivity ratio of phase difference pixel | |
JP6239857B2 (en) | Imaging apparatus and control method thereof | |
JP5850648B2 (en) | Imaging device | |
JP7057397B2 (en) | Image processing device, image pickup device, image processing method, program, and storage medium | |
JP6381266B2 (en) | IMAGING DEVICE, CONTROL DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP6700986B2 (en) | Image processing device, imaging device, image processing method, and program | |
JP2016038414A (en) | Focus detection device, control method thereof, and imaging apparatus | |
US20170257583A1 (en) | Image processing device and control method thereof | |
JP6254843B2 (en) | Image processing apparatus and control method thereof | |
US10326926B2 (en) | Focus detection apparatus and method, and image capturing apparatus | |
JP2013054137A (en) | Imaging apparatus | |
JP7022575B2 (en) | Focus detectors and methods, and imaging devices | |
KR20170015158A (en) | Control apparatus, image pickup apparatus, and control method | |
CN113596431B (en) | Image processing apparatus, image capturing apparatus, image processing method, and storage medium | |
JP5949893B2 (en) | Imaging device | |
JP6136364B2 (en) | Defocus amount detection device and camera | |
JP6493444B2 (en) | Imaging device | |
JP2018110299A (en) | Image processing method, image processing device, and imaging device | |
JP6714434B2 (en) | Imaging device, control method thereof, program, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140604 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150327 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150525 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151102 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151201 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5850648 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |