JP5784395B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP5784395B2
JP5784395B2 JP2011155120A JP2011155120A JP5784395B2 JP 5784395 B2 JP5784395 B2 JP 5784395B2 JP 2011155120 A JP2011155120 A JP 2011155120A JP 2011155120 A JP2011155120 A JP 2011155120A JP 5784395 B2 JP5784395 B2 JP 5784395B2
Authority
JP
Japan
Prior art keywords
pixel
imaging
lens
correction
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011155120A
Other languages
Japanese (ja)
Other versions
JP2013021615A (en
Inventor
圭悟 松尾
圭悟 松尾
後藤 尚志
尚志 後藤
市川 良一
良一 市川
竜飛 大久保
竜飛 大久保
弘 高瀬
弘 高瀬
高橋 利夫
利夫 高橋
大地 村上
大地 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2011155120A priority Critical patent/JP5784395B2/en
Priority to US13/545,400 priority patent/US8810713B2/en
Priority to CN201210240803.5A priority patent/CN102883093B/en
Publication of JP2013021615A publication Critical patent/JP2013021615A/en
Application granted granted Critical
Publication of JP5784395B2 publication Critical patent/JP5784395B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、オートフォーカス機能を有する撮像装置に関する。   The present invention relates to an imaging apparatus having an autofocus function.

近年、デジタルカメラなどの撮影機能付き携帯機器(撮像装置)は、オートフォーカス機能を有するものが多い。この種の撮像装置には、画像構成のための撮像用画素(通常画素)以外に、焦点検出用の画素(以下、AF画素という)を内蔵した撮像素子を採用して、瞳分割位相差法によりオートフォーカスを行うものがある。この手法では、瞳を左右方向に分割し、左、右それぞれの瞳を透過した光束を別々に受光する撮像部を有するAF画素を撮像素子に構成する必要がある。これらの各種AF画素による画像信号に対する演算(以下、AF演算、相関演算という)によって、ピント合わせのためのAF信号を生成してピント合わせを行うことにより、高速なオートフォーカスが可能である。   In recent years, many portable devices (imaging devices) with a photographing function such as a digital camera have an autofocus function. This type of imaging apparatus employs an imaging element that incorporates a focus detection pixel (hereinafter referred to as an AF pixel) in addition to an imaging pixel (normal pixel) for image configuration, and uses a pupil division phase difference method. There are some that perform autofocus. In this method, it is necessary to divide the pupil in the left-right direction, and to configure an AF pixel having an imaging unit that separately receives light beams transmitted through the left and right pupils as an imaging element. A high-speed autofocus is possible by generating an AF signal for focusing and performing focusing on an image signal by these various AF pixels (hereinafter referred to as AF calculation and correlation calculation).

しかし、オートフォーカス性能を高くするためには、撮像素子内に比較的多くのAF画素を配置する必要があり、AF画素部分の画像信号の欠落によって、撮像画像の画質が劣化するという欠点がある。   However, in order to improve the autofocus performance, it is necessary to arrange a relatively large number of AF pixels in the image sensor, and there is a drawback that the image quality of the captured image is deteriorated due to the lack of the image signal of the AF pixel portion. .

そこで、特許文献1においては、通常画素を利用して、AF画素の画素値を推定する手法を採用することで、AF画素の画素数を低減する技術が提案されている。   Therefore, Patent Document 1 proposes a technique for reducing the number of AF pixels by adopting a method of estimating the pixel value of an AF pixel using a normal pixel.

特開2007−155929号公報     JP 2007-155929 A

しかし、特許文献1で提案されているAF画素の画素値を推定する手法は、同一被写体部位からの光の光電変換により、(通常画素の画素値):(AF画素の画素値)= 2:1となる場合のみ成り立つ手法である。
上記、関係式を満たさない場合は、相関演算に基づくフォーカス精度が低下する。
However, the method of estimating the pixel value of the AF pixel proposed in Patent Document 1 is based on the photoelectric conversion of light from the same subject region, (pixel value of normal pixel) :( pixel value of AF pixel) = 2: This is a method that holds only when 1.
When the above relational expression is not satisfied, the focus accuracy based on the correlation calculation is lowered.

さらに、撮像素子の各画素上には、被写体からの光を効率よく受光部に導くためのオンチップレンズが採用されている。このオンチップレンズは、撮像素子の周辺光量の低下を抑制するために、撮像素子の位置に応じて面頂が偏心している。この偏心によって、同一種類のAF画素であっても、画素位置に応じて受光領域が変化し、各AF画素を用いたAF演算に基づくフォーカス精度が低下する。   Further, an on-chip lens for efficiently guiding light from the subject to the light receiving unit is employed on each pixel of the image sensor. In this on-chip lens, the top of the surface is decentered according to the position of the image sensor in order to suppress a decrease in the amount of light around the image sensor. Due to this eccentricity, even with the same type of AF pixel, the light receiving area changes according to the pixel position, and the focus accuracy based on the AF calculation using each AF pixel is lowered.

また、撮像素子においては、受光部の周辺部では、撮影レンズの瞳にケラレが生じる場合がある。このケラレは、画素位置に応じて変化することから、各AF画素を用いたAF演算に基づくフォーカス精度は一層低下する。   Further, in the image sensor, vignetting may occur in the pupil of the photographing lens in the periphery of the light receiving unit. Since this vignetting changes according to the pixel position, the focus accuracy based on the AF calculation using each AF pixel is further lowered.

なお、特許文献1の提案では、AF信号の生成に通常画素を用いる。ところが、通常画素は、撮影レンズの瞳のケラレによる受光量が画素位置に応じて大きく変化することから、特許文献1の提案では、このケラレの影響によるフォーカス精度の低下が著しいという欠点がある。   In the proposal of Patent Document 1, normal pixels are used for generating an AF signal. However, since the amount of light received by the vignetting of the pupil of the photographic lens varies greatly depending on the pixel position, the proposal of Patent Document 1 has a drawback that the focus accuracy is significantly lowered due to the influence of the vignetting.

本発明は、上記問題点を鑑みて、通常画素とAF画素の画素値の比率に応じて相関演算に使用する信号を補正することにより、フォーカス精度を向上させることができる撮像装置を提供することを目的とする。   In view of the above problems, the present invention provides an imaging apparatus capable of improving focus accuracy by correcting a signal used for correlation calculation in accordance with a ratio of pixel values of normal pixels and AF pixels. With the goal.

本発明に係る一態様の撮像装置は、レンズにより結像される被写体像を光電変換する撮像素子であって、上記レンズの射出瞳を分割した一部の領域を通過する光束を受光するAF画素と、撮影用の撮像画素と、を含み、画素がマトリクス状に配列された撮像素子と、上記AF画素と撮像画素との画素位置に応じた受光量の差を補正するためのそれぞれの補正情報を格納する補正用メモリと、上記補正情報を読み出して上記AF画素の画素値と上記撮像画素の画素値とを補正する補正部と、上記補正部によって補正された画素値を用いて焦点検出を行う焦点検出部と、を具備し、上記補正情報は、上記AF画素に関する画素位置に応じた当該AF画素の受光量の比と、上記撮像画素に関する画素位置に応じた当該撮像画素の受光量の比とに基づく情報であり、上記補正部は、上記補正情報により上記AF画素の画素値と当該AF画素に隣接する上記撮像画素の画素値とをそれぞれ補正し、上記焦点検出部は、上記撮像画素の画素値と上記AF画素の画素値とに基づいて、上記AF画素が受光する光束が通過する分割された射出瞳の領域と対をなす領域を通過する光束を受光する仮想のAF画素の画素値に相当する信号を算出し、上記AF画素の画素値と上記仮想のAF画素の画素値に相当する信号とに基づいて焦点検出を行う際に、上記補正後の上記AF画素の画素値と補正後の上記撮像画素の画素値とに基づいて上記仮想のAF画素の画素値に相当する信号を算出する。 An image pickup apparatus according to an aspect of the present invention is an image pickup device that photoelectrically converts a subject image formed by a lens, and receives AF light that passes through a partial region obtained by dividing the exit pupil of the lens. Each of the correction information for correcting the difference in the amount of received light according to the pixel position between the AF pixel and the imaging pixel, and the imaging element including the imaging pixels for photographing and the pixels arranged in a matrix A correction memory that stores the correction information, a correction unit that reads the correction information and corrects the pixel value of the AF pixel and the pixel value of the imaging pixel, and focus detection using the pixel value corrected by the correction unit. And the correction information includes a ratio of the received light amount of the AF pixel according to the pixel position with respect to the AF pixel and a received light amount of the image pickup pixel according to the pixel position with respect to the imaging pixel. Based on ratio The correction unit corrects the pixel value of the AF pixel and the pixel value of the imaging pixel adjacent to the AF pixel by the correction information, and the focus detection unit corrects the pixel value of the imaging pixel. And the pixel value of the AF pixel corresponding to the pixel value of the virtual AF pixel that receives the light beam that passes through the region that forms a pair with the divided exit pupil region through which the light beam received by the AF pixel passes. When the focus detection is performed based on the pixel value of the AF pixel and the signal corresponding to the pixel value of the virtual AF pixel, the pixel value of the AF pixel after correction and the pixel value after correction are calculated. A signal corresponding to the pixel value of the virtual AF pixel is calculated based on the pixel value of the imaging pixel.

本発明によれば、通常画素とAF画素の画素値の比率に応じて相関演算に使用する信号を補正することにより、フォーカス精度を向上させることができるという効果を有する。   According to the present invention, there is an effect that the focus accuracy can be improved by correcting the signal used for the correlation calculation according to the ratio of the pixel value of the normal pixel and the AF pixel.

本発明の第1の実施の形態に係る撮像装置を含むカメラを示すブロック図。1 is a block diagram showing a camera including an imaging device according to a first embodiment of the present invention. 瞳分割位相差法を説明するための説明図。Explanatory drawing for demonstrating a pupil division | segmentation phase difference method. AF画素の構造を示す断面図。Sectional drawing which shows the structure of AF pixel. 撮像部22における画素配列の一例を示す説明図。FIG. 4 is an explanatory diagram illustrating an example of a pixel array in the imaging unit. AF画素の画素位置とその位置における受光領域との関係を説明するための説明図。Explanatory drawing for demonstrating the relationship between the pixel position of AF pixel, and the light reception area | region in the position. AF画素の画素位置とその位置における受光領域との関係を説明するための説明図。Explanatory drawing for demonstrating the relationship between the pixel position of AF pixel, and the light reception area | region in the position. AF画素の画素位置とその位置における受光領域との関係を説明するための説明図。Explanatory drawing for demonstrating the relationship between the pixel position of AF pixel, and the light reception area | region in the position. AF画素の画素位置とその位置における受光領域との関係を説明するための説明図。Explanatory drawing for demonstrating the relationship between the pixel position of AF pixel, and the light reception area | region in the position. 受光量補正用メモリ27に記憶されているテーブルを説明するための説明図。Explanatory drawing for demonstrating the table memorize | stored in the memory 27 for light reception amount correction | amendment. 図1中のボディ制御部24の具体的な構成を示すブロック図。The block diagram which shows the specific structure of the body control part 24 in FIG. 第1の形態の動作を説明するためのフローチャート。The flowchart for demonstrating the operation | movement of a 1st form. 第2の実施の形態において採用されるボディ制御部の具体的な構成の一例を示すブロック図。The block diagram which shows an example of the specific structure of the body control part employ | adopted in 2nd Embodiment. 受光量補正用メモリ17に格納される情報を説明するための説明図。Explanatory drawing for demonstrating the information stored in the memory 17 for light reception amount correction | amendment. 受光量補正用メモリ27に格納される情報を説明するための説明図。Explanatory drawing for demonstrating the information stored in the memory 27 for light reception amount correction | amendment. 第2の実施の形態の動作を説明するためのフローチャート。The flowchart for demonstrating operation | movement of 2nd Embodiment.

以下、図面を参照して本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施の形態)
図1は本発明の第1の実施の形態に係る撮像装置を含むカメラを示すブロック図である。
(First embodiment)
FIG. 1 is a block diagram showing a camera including an imaging apparatus according to the first embodiment of the present invention.

図1において、デジタルカメラ11は、交換レンズ12と、カメラボディ13と、から構成され、交換レンズ12はマウント部14によりカメラボディ13に装着される。   In FIG. 1, the digital camera 11 includes an interchangeable lens 12 and a camera body 13, and the interchangeable lens 12 is attached to the camera body 13 by a mount portion 14.

交換レンズ12は、レンズ制御部30、レンズ駆動部16、絞り駆動部15、ズーミング用レンズ18、固定レンズ19、フォーカシング用レンズ20、及び、絞り21を備えている。レンズ制御部30は、マイクロコンピューターとメモリなどの周辺部品から成り、フォーカシング用レンズ20と絞り21の駆動制御、絞り21、ズーミング用レンズ18およびフォーカシング用レンズ20の状態検出、並びに、ボディ制御部24に対するレンズ情報の送信とカメラ情報の受信などを行う。   The interchangeable lens 12 includes a lens control unit 30, a lens driving unit 16, a diaphragm driving unit 15, a zooming lens 18, a fixed lens 19, a focusing lens 20, and a diaphragm 21. The lens control unit 30 includes peripheral components such as a microcomputer and a memory. The lens control unit 30 controls driving of the focusing lens 20 and the aperture 21, detects the state of the aperture 21, the zooming lens 18 and the focusing lens 20, and the body control unit 24. Lens information and camera information are received.

絞り駆動部15は、レンズ制御部30を介して、ボディ制御部24からの信号に基づいて、絞り21の開口径を制御する。また、レンズ駆動部16は、レンズ制御部30を介して、ボディ制御部24からの信号に基づいて、ズーミング用レンズ18、フォーカシング用レンズ20を駆動する。   The aperture driving unit 15 controls the aperture diameter of the aperture 21 via the lens control unit 30 based on the signal from the body control unit 24. Further, the lens driving unit 16 drives the zooming lens 18 and the focusing lens 20 via the lens control unit 30 based on the signal from the body control unit 24.

本実施の形態においては、交換レンズ12には、受光量補正用メモリ17が設けられている。受光量補正用メモリ17には、AF画素等の受光量を画素位置に応じて補正するためのレンズ側の情報、例えば、Fナンバー、ズーム状態、フォーカスレンズの位置等のレンズ側補正情報を記憶する。レンズ制御部30は、受光量補正用メモリ17に記憶されているレンズ側補正情報を読み出してボディ制御部24に送信することができるようになっている。   In the present embodiment, the interchangeable lens 12 is provided with a received light amount correction memory 17. The received light amount correction memory 17 stores lens side information for correcting the received light amount of an AF pixel or the like according to the pixel position, for example, lens side correction information such as an F number, a zoom state, and a focus lens position. To do. The lens control unit 30 can read lens-side correction information stored in the received light amount correction memory 17 and transmit it to the body control unit 24.

カメラボディ13は撮像部22、ボディ制御部24、液晶表示部駆動回路25、液晶表示部26、メモリカード29などを備えている。撮像部22は、例えば後述する図4等の画素配列を有する受光部を有している。即ち、受光部には、画素が2次元状に配列されており、交換レンズ12の予定結像面に配置されて交換レンズ12により結像される被写体像を撮像する。撮像部22の受光部の所定の焦点検出位置にはAF画素が配列される。   The camera body 13 includes an imaging unit 22, a body control unit 24, a liquid crystal display unit driving circuit 25, a liquid crystal display unit 26, a memory card 29, and the like. The imaging unit 22 includes a light receiving unit having a pixel array shown in FIG. That is, in the light receiving unit, pixels are two-dimensionally arranged, and an object image formed by the interchangeable lens 12 is imaged by being arranged on the planned image formation surface of the interchangeable lens 12. AF pixels are arranged at predetermined focus detection positions of the light receiving unit of the imaging unit 22.

ボディ制御部24はマイクロコンピューターとメモリなどの周辺部品から構成され、撮像部駆動回路28を介して、撮像部22からの画像信号の読み出し、画像信号の補正、交換レンズ12の焦点調節状態の検出、レンズ制御部30からのレンズ情報の受信とカメラ情報(デフォーカス量)の送信、デジタルカメラ全体の動作制御などを行う。ボディ制御部24とレンズ制御部30は、マウント部14の電気接点部23を介して通信を行い、各種情報の授受を行う。   The body control unit 24 includes peripheral parts such as a microcomputer and a memory, and reads out an image signal from the imaging unit 22, corrects the image signal, and detects the focus adjustment state of the interchangeable lens 12 via the imaging unit drive circuit 28. In addition, it receives lens information from the lens control unit 30, transmits camera information (defocus amount), and controls the operation of the entire digital camera. The body control unit 24 and the lens control unit 30 communicate via the electrical contact unit 23 of the mount unit 14 to exchange various information.

液晶表示部駆動回路25は、液晶表示部26を駆動する。撮影者は液晶表示部26によって撮影された画像を観察することができる。メモリカード29はカメラボディ13に脱着可能であり、画像信号を格納記憶する可搬記憶媒体である。   The liquid crystal display unit driving circuit 25 drives the liquid crystal display unit 26. The photographer can observe an image photographed by the liquid crystal display unit 26. The memory card 29 is removable from the camera body 13 and is a portable storage medium that stores and stores image signals.

交換レンズ12を通過して撮像部22上に形成された被写体像は、撮像部22により光電変換され、その出力はボディ制御部24へ送られる。ボディ制御部24は、撮像部22の出力に基づいて生成した画像データをメモリカード29に格納するとともに、画像信号を液晶表示部駆動回路25へ送り、液晶表示部26に画像を表示させる。   The subject image formed on the imaging unit 22 after passing through the interchangeable lens 12 is photoelectrically converted by the imaging unit 22, and its output is sent to the body control unit 24. The body control unit 24 stores the image data generated based on the output of the imaging unit 22 in the memory card 29 and sends an image signal to the liquid crystal display unit drive circuit 25 to cause the liquid crystal display unit 26 to display an image.

カメラボディ13には不図示の操作部材(シャッターボタン、焦点検出位置の設定部材など)が設けられており、これらの操作部材からの操作状態信号をボディ制御部24が検出し、検出結果に応じた動作(撮像動作、焦点検出位置の設定動作、画像処理動作)の制御を行う。   The camera body 13 is provided with operation members (not shown) (shutter buttons, focus detection position setting members, etc.), and the body control unit 24 detects operation state signals from these operation members, and according to the detection results. The following operations (imaging operation, focus detection position setting operation, image processing operation) are controlled.

レンズ制御部30は、レンズ情報をフォーカシング状態、ズーミング状態、絞り設定状態、絞り開放F値などに応じて変更する。具体的には、レンズ制御部30は、レンズ18及びフォーカシング用レンズ20の位置と絞り21の絞り位置をモニターし、モニター情報に応じてレンズ情報を演算したり、あるいは予め用意されたルックアップテーブルからモニター情報に応じたレンズ情報を選択する。レンズ制御部30は、受信したレンズ駆動量に基づいてフォーカシング用レンズ20をレンズ駆動部16のモーター等の駆動源により合焦点へと駆動する。   The lens control unit 30 changes the lens information according to the focusing state, zooming state, aperture setting state, aperture opening F value, and the like. Specifically, the lens control unit 30 monitors the positions of the lens 18 and the focusing lens 20 and the aperture position of the aperture 21 and calculates lens information according to the monitor information, or a lookup table prepared in advance. Select the lens information according to the monitor information. The lens control unit 30 drives the focusing lens 20 to a focal point by a driving source such as a motor of the lens driving unit 16 based on the received lens driving amount.

本実施の形態においては、カメラボディ13には、受光量補正用メモリ27が設けられている。受光量補正用メモリ27には、AF画素等の受光量を画素位置に応じて補正するための本体側補正情報が記憶されている。例えば、受光量補正用メモリ27には、本体側補正情報として、画素位置に応じた受光量補正係数αのテーブルがFナンバー毎に記憶されている。ボディ制御部24は、交換レンズ12のメモリ17から読み出したレンズ側補正情報と、受光量補正用メモリ27から読み出した本体側補正情報とを基に、フォーカス制御に用いる画素の画素値を補正するための受光量補正係数αを画素位置に応じて取得する。ボディ制御部24は、撮像部22からAF画素等の画素値を読み出すと共に、読み出した画素値を受光量補正係数αを用いて画素位置に応じて補正した後、補正後の画素値を用いて瞳分割位相差法に基づいて所定の焦点検出エリアにおけるデフォーカス量を算出してAF信号として出力する。このAF信号がレンズ制御部30に供給され、レンズ制御部30は、AF信号に基づきレンズ駆動量を算出し、このレンズ駆動量によってレンズ駆動部16を制御して、ピント合わせを行うようになっている。   In the present embodiment, the camera body 13 is provided with a received light amount correction memory 27. The received light amount correction memory 27 stores main body side correction information for correcting the received light amount of the AF pixel or the like according to the pixel position. For example, the received light amount correction memory 27 stores a table of received light amount correction coefficients α corresponding to pixel positions as main body side correction information for each F number. The body control unit 24 corrects the pixel value of the pixel used for focus control based on the lens side correction information read from the memory 17 of the interchangeable lens 12 and the main body side correction information read from the received light amount correction memory 27. The received light amount correction coefficient α is acquired according to the pixel position. The body control unit 24 reads out pixel values such as AF pixels from the imaging unit 22, corrects the read pixel values according to the pixel position using the received light amount correction coefficient α, and then uses the corrected pixel values. Based on the pupil division phase difference method, a defocus amount in a predetermined focus detection area is calculated and output as an AF signal. The AF signal is supplied to the lens control unit 30, and the lens control unit 30 calculates a lens driving amount based on the AF signal, and controls the lens driving unit 16 based on the lens driving amount to perform focusing. ing.

次に、図2乃至図9を参照してAF画素値を補正するためにメモリ17,27に格納する情報について説明する。図2は瞳分割位相差法を説明するための説明図である。   Next, information stored in the memories 17 and 27 for correcting the AF pixel value will be described with reference to FIGS. FIG. 2 is an explanatory diagram for explaining the pupil division phase difference method.

被写体の1点31から各光路を介して撮像装置に入射する光学像は撮影レンズ32によって撮像素子33の入射面に結像する。なお、図2のx方向は水平方向であり、z方向は撮影レンズ32の光軸方向であり、y方向(紙面垂直方向)は垂直方向である。図2においては、撮像素子33の各枠によって画素を示している。AF検出用の画素(AF画素)として2つの撮像部(例えば、R撮像部とL撮像部)を構成し、各光路を例えば右方向と左方向とに分割して、即ち、射出瞳を左右方向に分割して、右側の瞳を透過した光束(右光)と、左側の瞳を透過した光束(左光)とを、R撮像部とL撮像部とにそれぞれ入射する。例えば、撮影レンズ32の光軸に対してR,L撮像部を偏心させることで、右光と左光とを各R,L撮像部にそれぞれ入射させることができる。   An optical image incident on the imaging device from each point 31 of the subject via each optical path is formed on the incident surface of the imaging element 33 by the photographing lens 32. 2 is the horizontal direction, the z direction is the optical axis direction of the photographic lens 32, and the y direction (the vertical direction on the paper surface) is the vertical direction. In FIG. 2, pixels are indicated by the frames of the image sensor 33. Two image pickup units (for example, an R image pickup unit and an L image pickup unit) are configured as AF detection pixels (AF pixels), and each optical path is divided into, for example, a right direction and a left direction. The light beam (right light) transmitted through the right pupil and the light beam (left light) transmitted through the left pupil are incident on the R imaging unit and the L imaging unit, respectively. For example, by decentering the R and L imaging units with respect to the optical axis of the photographing lens 32, the right light and the left light can be incident on the R and L imaging units, respectively.

ピントが合っている場合には、同一画素のR,L撮像部には被写体の同一点からの光が入射する。従って、水平方向に配置したAF検出用の複数のR撮像部によって得られる画像信号と複数のL撮像部によって得られる画像信号とは同一となる。ピントがずれると、図2(a)に示すように、被写体の同一点からの光は、ピントのずれ量に応じてずれた位置のR撮像部とL撮像部とに入射する。従って、水平方向に配置したAF検出用の複数のR撮像部によって得られる画像信号と複数のL撮像部によって得られる画像信号とは位相がずれ、位相のずれ量はピントのずれ量に対応する。R,L撮像部によって得られる画像信号同士の位相差に基づいて、ピント調整用のレンズを駆動することで、オートフォーカスを実現することができる。   When the subject is in focus, light from the same point of the subject enters the R and L imaging units of the same pixel. Accordingly, the image signal obtained by the plurality of R imaging units for AF detection arranged in the horizontal direction is the same as the image signal obtained by the plurality of L imaging units. When the focus is shifted, as shown in FIG. 2A, light from the same point of the subject enters the R imaging unit and the L imaging unit at positions shifted according to the focus shift amount. Accordingly, the phase of the image signal obtained by the plurality of R imaging units for AF detection arranged in the horizontal direction is different from that of the image signal obtained by the plurality of L imaging units, and the phase deviation amount corresponds to the focus deviation amount. . Autofocus can be realized by driving a lens for focus adjustment based on the phase difference between the image signals obtained by the R and L imaging units.

なお、図2(a)は読み出し回路をAF画素と通常画素とで共通化するために、画素にR,L撮像部の両方を構成することなく、R撮像部のみを有する画素(以下、R画素という)とL撮像部のみを有する画素(以下、L画素という)によってAF画素を構成した例を示している。   In FIG. 2A, since the readout circuit is shared between the AF pixel and the normal pixel, the pixel having only the R imaging unit (hereinafter referred to as R) without forming both the R and L imaging units in the pixel. An example in which an AF pixel is configured by a pixel having only an L imaging unit (hereinafter referred to as an L pixel) is shown.

更に、図2(b)は、R画素を省略し、AF画素としてL画素のみを用いると共に、複数の通常画素(以下、N画素ともいう)の画素値とL画素の画素値との差分によってR画素(以下、仮想R画素という)を推定し、複数の仮想R画素によって得られる画像信号の位相とL撮像部によって得られる画像信号の位相とを比較することで、ピントのずれ量を求める例を示している。   Further, in FIG. 2B, the R pixel is omitted, only the L pixel is used as the AF pixel, and the difference between the pixel value of a plurality of normal pixels (hereinafter also referred to as N pixels) and the pixel value of the L pixel is used. An R pixel (hereinafter referred to as a virtual R pixel) is estimated, and a phase shift amount is obtained by comparing the phase of an image signal obtained by a plurality of virtual R pixels and the phase of an image signal obtained by an L imaging unit. An example is shown.

更に、図2(c)は、R画素を省略し、AF画素としてL画素のみを用いて、N画素によって得られる画像信号の位相とL撮像部によって得られる画像信号の位相とを比較することで、ピントのずれ量を求める例を示している。   Further, in FIG. 2C, the R pixel is omitted, and only the L pixel is used as the AF pixel, and the phase of the image signal obtained by the N pixel is compared with the phase of the image signal obtained by the L imaging unit. In this example, the amount of focus shift is obtained.

なお、焦点検出に用いるN画素としては、AF画素に最も近接した緑画素の少なくとも1つを利用する方法が考えられる。また、撮像画像の出力時には、AF画素位置の画素値として、AF画素の近接緑画素の画素値の平均値を用いてもよい。更に、AF画素位置の画素値としては、周辺画素のパターン判別を含む画素補間処理によって算出してもよい。   As the N pixel used for focus detection, a method using at least one of the green pixels closest to the AF pixel is conceivable. Further, when outputting a captured image, an average value of pixel values of adjacent green pixels of the AF pixel may be used as the pixel value of the AF pixel position. Further, the pixel value at the AF pixel position may be calculated by pixel interpolation processing including pattern determination of surrounding pixels.

ところで、撮像画像に横線が多い場合には、ピントがずれていてもL,R撮像部によって夫々得られる画像が一致することが考えられる。この場合には、射出瞳を例えば上下に分割して、上側の瞳を透過した光束と、下側の瞳を透過した光束とを、夫々受光するU撮像部とD撮像部とを構成すればよい。そして、複数のU撮像部によって得られる画像信号の位相と、複数のD撮像部によって得られる画像信号の位相とを比較することで、ピントのずれ量を検出して、ピント合わせが可能である。   By the way, when there are many horizontal lines in the captured image, it is conceivable that the images obtained by the L and R imaging units match even if the focus is shifted. In this case, for example, the exit pupil is divided into upper and lower parts, and a U imaging unit and a D imaging unit are configured to receive the light beam transmitted through the upper pupil and the light beam transmitted through the lower pupil, respectively. Good. Then, by comparing the phase of the image signal obtained by the plurality of U imaging units and the phase of the image signal obtained by the plurality of D imaging units, it is possible to detect the amount of focus shift and to focus. .

図3はこのようなAF画素の構造を示す断面図である。図3は撮像素子の画素の開口部を光電変換領域の中心に対して偏心させることによって射出瞳を分割する例を示している。図3は撮像素子の1画素の構造を示している。   FIG. 3 is a cross-sectional view showing the structure of such an AF pixel. FIG. 3 shows an example in which the exit pupil is divided by decentering the aperture of the pixel of the image sensor with respect to the center of the photoelectric conversion region. FIG. 3 shows the structure of one pixel of the image sensor.

画素41は、最上部から、順に、マイクロレンズ42、マイクロレンズ42を形成するための平面を構成するための平滑層43、色画素の混色防止のための遮光膜44、色フィルタ層をのせる表面を平らにするための平滑層45、及び、光電変換領域49が配置されている。さらに、画素41においては、遮光膜44が、光電変換領域49の中心47から外側に偏心した開口部48、カラーフィルタ50を有している。   The pixel 41 has a microlens 42, a smooth layer 43 for forming a plane for forming the microlens 42, a light shielding film 44 for preventing color mixture of color pixels, and a color filter layer in order from the top. A smoothing layer 45 for flattening the surface and a photoelectric conversion region 49 are arranged. Further, in the pixel 41, the light shielding film 44 includes an opening 48 and a color filter 50 that are eccentric to the outside from the center 47 of the photoelectric conversion region 49.

このように、図3に示す例では、画素41の開口部48を光電変換領域49の中心に対して偏心させている。光線L41は、光電変換領域49中の例えばL撮像部のみに入射することから、射出瞳が分割される。   As described above, in the example illustrated in FIG. 3, the opening 48 of the pixel 41 is eccentric with respect to the center of the photoelectric conversion region 49. Since the light ray L41 is incident only on, for example, the L imaging unit in the photoelectric conversion region 49, the exit pupil is divided.

なお、図3では、画素の開口部を偏心させることで射出瞳を分割させる例を示したが、射出瞳を分割する手法としては種々の方法を採用することができる。例えば、オンチップレンズを偏心させることによって射出瞳を分割してもよく、DML(デジタルマイクロレンズ)を用いて射出瞳を分割する方法を採用してもよい。   Although FIG. 3 shows an example in which the exit pupil is divided by decentering the opening of the pixel, various methods can be adopted as a method for dividing the exit pupil. For example, the exit pupil may be divided by decentering the on-chip lens, or a method of dividing the exit pupil using a DML (digital microlens) may be employed.

図4は撮像部22における画素配列の一例を示す説明図である。   FIG. 4 is an explanatory diagram illustrating an example of a pixel array in the imaging unit 22.

本実施の形態においては、画素配列としてベイヤー配列を採用する例について説明する。図4においてBは青色のフィルタが配置された青色の画素を示し、Rは赤色のフィルタが配置された赤色の画素を示し、Gは緑色のフィルタが配置された緑色の画素を示し、斜線部は、AF画素を示している。なお、図4は受光部の一部の領域のみを示している。   In the present embodiment, an example in which a Bayer array is adopted as the pixel array will be described. In FIG. 4, B indicates a blue pixel in which a blue filter is disposed, R indicates a red pixel in which a red filter is disposed, G indicates a green pixel in which a green filter is disposed, and a hatched portion Indicates an AF pixel. FIG. 4 shows only a partial region of the light receiving unit.

図4に示すように、ベイヤー配列では、水平及び垂直2×2画素を単位として同一の配列が繰り返される。即ち、2×2画素のうち斜めに青と赤の画素が配置され、残りの斜めの2画素には緑の画素が配置される。斜線部にて示す画素L1〜L8はL画素である。このように、AF画素は、受光部内の適宜の位置に配置される。   As shown in FIG. 4, in the Bayer array, the same array is repeated in units of horizontal and vertical 2 × 2 pixels. That is, of the 2 × 2 pixels, blue and red pixels are diagonally arranged, and green pixels are arranged in the remaining two diagonal pixels. Pixels L1 to L8 indicated by hatched portions are L pixels. As described above, the AF pixels are arranged at appropriate positions in the light receiving unit.

図5乃至図8はAF画素の画素位置とその位置における受光領域との関係を説明するための説明図である。   5 to 8 are explanatory diagrams for explaining the relationship between the pixel position of the AF pixel and the light receiving region at the position.

図5乃至図8は対象画素の受光部上での位置(アドレス)を(x,y)で示し、撮影レンズの光軸を通る画素(以下、軸上の画素という)のアドレスを(0,0)とする。図5乃至図8において、楕円領域はAF画素(L画素)の瞳面上での受光可能領域を示し、破線円は対象画素が軸上の画素の場合の撮影レンズの瞳、即ち軸上のN画素の瞳面での受光可能領域51を示している。また、×印は、撮影レンズの光軸の位置54を示している。   5 to 8 show the position (address) of the target pixel on the light receiving unit by (x, y), and the address of the pixel passing through the optical axis of the photographing lens (hereinafter referred to as the pixel on the axis) is (0, 0). 5 to 8, an elliptical area indicates a receivable area on the pupil plane of the AF pixel (L pixel), and a broken-line circle indicates the pupil of the photographing lens when the target pixel is an on-axis pixel, that is, on the axis. A light-receivable area 51 on the pupil plane of N pixels is shown. Further, the x mark indicates the position 54 of the optical axis of the photographing lens.

なお、図5乃至図8において、AF画素の受光可能領域を示す楕円領域内の模様は、受光面への入射光の強度分布を模式的に示したものであり、楕円領域の中央ほど入射強度が高く、楕円の短軸方向周辺ほど入射強度が低く、同一線上では入射強度が等しいことを示している。このような入射光の強度分布は、光の回折等によって生じ、絞り、焦点距離、画素構造等の光学的な構造によって決まる分布となる。   5 to 8, the pattern in the elliptical area indicating the light receiving area of the AF pixel schematically shows the intensity distribution of the incident light on the light receiving surface, and the incident intensity increases toward the center of the elliptical area. The incident intensity is lower toward the periphery of the ellipse in the minor axis direction, indicating that the incident intensity is equal on the same line. Such an intensity distribution of incident light is generated by light diffraction or the like, and is a distribution determined by an optical structure such as a stop, a focal length, and a pixel structure.

図5は対象画素が軸上の画素である場合の例を示している。この場合の、受光可能領域51(撮影レンズの瞳)は、×印にて示す撮影レンズの光軸の位置54を中心とした円形状であるのに対し、AF画素の受光可能領域53は、楕円形である。   FIG. 5 shows an example where the target pixel is an on-axis pixel. In this case, the light receivable region 51 (pupil of the photographing lens) has a circular shape centered on the optical axis position 54 of the photographing lens indicated by a cross, whereas the light receivable region 53 of the AF pixel is It is oval.

上述したように、AF画素は部分的に入射強度が低下するが、N画素は入射強度は変化せず、撮影レンズの瞳を通る光束全てを受光できる。なお、軸上のAF画素においては、撮影レンズの光軸の位置54とAF画素のオンチップレンズ面頂を瞳に投影した位置とは、一致している。   As described above, the incident intensity of the AF pixel partially decreases, but the incident intensity of the N pixel does not change, and all light beams passing through the pupil of the photographing lens can be received. In the AF pixel on the axis, the position 54 of the optical axis of the photographing lens and the position where the on-chip lens surface apex of the AF pixel is projected onto the pupil coincide with each other.

図6乃至図8は対象画素が撮影レンズの光軸を通る位置からずれた画素(以下、軸外の画素という)の例を示している。図6は対象画素がy方向にずれたアドレス(0,l)である軸外の画素の例を示している。この場合には、ビネッティングの影響等により、受光部上の位置に応じた射出瞳、即ち、軸外のN画素の瞳面上での受光可能領域52yは、軸上のN画素の瞳面での受光可能領域51に比べて、y方向にケラレが生じている。   6 to 8 show examples of pixels in which the target pixel is shifted from a position passing through the optical axis of the photographing lens (hereinafter referred to as off-axis pixel). FIG. 6 shows an example of an off-axis pixel whose address (0, l) is shifted in the y direction. In this case, due to the effect of vignetting, the exit pupil corresponding to the position on the light receiving unit, that is, the light receivable region 52y on the off-axis N pixel pupil plane is the N-pixel pupil plane on the axis. Compared with the light receiving area 51 in FIG. 5, vignetting occurs in the y direction.

また、上述したように、光軸の位置54以外の位置の画素のオンチップレンズの面頂は、シェーディング対策のために、画素の中心軸から偏心している。その結果、撮影レンズの光軸の位置54とAF画素のオンチップレンズ面頂を瞳に投影した位置54yとは、一致せず、y方向にズレが発生する。この結果、アドレス(0,l)のAF画素の受光可能領域53yは、AF画素が光軸上の位置54に存在する場合の受光可能領域53よりもy方向にずれる。   Further, as described above, the top surface of the on-chip lens of the pixel at a position other than the position 54 of the optical axis is decentered from the central axis of the pixel for shading countermeasures. As a result, the position 54 on the optical axis of the photographing lens and the position 54y where the on-chip lens surface top of the AF pixel is projected onto the pupil do not coincide with each other, and a deviation occurs in the y direction. As a result, the light receivable area 53y of the AF pixel at the address (0, l) is shifted in the y direction from the light receivable area 53 when the AF pixel exists at the position 54 on the optical axis.

図7は対象画素が撮影レンズの光軸を通る位置からx方向にずれたアドレス(k,0)である場合の例を示している。この場合には、対象画素がN画素である場合の瞳面上での受光可能領域52xは、軸上のN画素の瞳面での受光可能領域51に比べて、x方向にケラレが生じている。   FIG. 7 shows an example in which the target pixel is an address (k, 0) shifted in the x direction from a position passing through the optical axis of the photographing lens. In this case, vignetting occurs in the x direction in the light-receiving area 52x on the pupil plane when the target pixel is N pixels, compared to the light-receiving area 51 on the pupil plane of N pixels on the axis. Yes.

また、撮影レンズの光軸の位置54とAF画素のオンチップレンズ面頂を瞳に投影した位置54xとは、一致せず、x方向にズレが発生する。この結果、アドレス(k,0)のAF画素の受光可能領域53xは、AF画素が光軸上の位置54に存在する場合の受光可能領域53よりもx方向にずれる。   Further, the position 54 of the optical axis of the photographing lens and the position 54x where the on-chip lens surface top of the AF pixel is projected onto the pupil do not coincide with each other, and a deviation occurs in the x direction. As a result, the light receiving area 53x of the AF pixel at the address (k, 0) is shifted in the x direction from the light receiving area 53 when the AF pixel is located at the position 54 on the optical axis.

図8は対象画素が撮影レンズの光軸を通る位置からx,y方向にずれたアドレス(k,l)である場合の例を示している。この場合には、対象画素がN画素である場合の瞳面上での受光可能領域52xyは、軸上のN画素の瞳面での受光可能領域51に比べて、x,y方向にケラレが生じている。   FIG. 8 shows an example in which the target pixel is an address (k, l) deviated in the x and y directions from the position passing through the optical axis of the photographing lens. In this case, when the target pixel is an N pixel, the light receiving area 52xy on the pupil plane is vignetted in the x and y directions compared to the light receiving area 51 on the axial N pixel pupil plane. Has occurred.

また、撮影レンズの光軸の位置54とAF画素のオンチップレンズ面頂を瞳に投影した位置54xyとは、一致せず、x,y方向にズレが発生する。この結果、アドレス(k,l)のAF画素の受光可能領域53xyは、AF画素が光軸上の位置54に存在する場合の受光可能領域53よりもx,y方向にずれる。   Further, the position 54 of the optical axis of the photographing lens and the position 54xy where the on-chip lens surface top of the AF pixel is projected onto the pupil do not coincide with each other, and a deviation occurs in the x and y directions. As a result, the receivable area 53xy of the AF pixel at the address (k, l) is shifted in the x and y directions from the receivable area 53 when the AF pixel exists at the position 54 on the optical axis.

なお、上記図5乃至図8の楕円は、AF画素がL画素の場合の例を示している。AF画素としてL画素ではなく、右側瞳検出用画素(R画素),上側瞳検出用画素(U画素),下側瞳検出用画素(D画素)の場合にも、画素位置に応じて受光可能領域がシフトすることは明らかである。   The ellipses in FIGS. 5 to 8 show an example in which the AF pixel is an L pixel. Even if the AF pixel is not the L pixel, but the right pupil detection pixel (R pixel), the upper pupil detection pixel (U pixel), and the lower pupil detection pixel (D pixel), light can be received according to the pixel position. It is clear that the region shifts.

N画素については、N画素の瞳面上での受光可能領域51,52y,52x,52xyを透過した光束が、所定の入射強度で入射される。従って、N画素については、各画素位置において受光可能領域の面積に応じた受光量が得られる。   For the N pixel, a light beam that has passed through the light receiving areas 51, 52y, 52x, and 52xy on the pupil plane of the N pixel is incident at a predetermined incident intensity. Therefore, for N pixels, the amount of received light corresponding to the area of the light receiving area can be obtained at each pixel position.

一方、AF画素については、N画素の瞳面上での受光可能領域とAF画素の瞳面上での受光可能領域とを透過した光束を受光する。この光束は、上述したように、受光可能領域内の位置によって入射強度が異なる。従って、AF画素については、N画素の瞳面上での受光可能領域とAF画素の瞳面上での受光可能領域とが重なった領域において、入射光の強度分布に応じた光量を積分することで受光量が得られる。   On the other hand, with respect to the AF pixel, the light flux that has passed through the light-receiving area on the pupil plane of the N pixel and the light-receiving area on the pupil plane of the AF pixel is received. As described above, the incident intensity of this light beam varies depending on the position within the light receiving area. Therefore, for the AF pixel, the amount of light corresponding to the intensity distribution of the incident light is integrated in the region where the light-receiving area on the pupil plane of the N pixel and the light-receiving area on the pupil plane of the AF pixel overlap. The amount of light received can be obtained with.

本実施の形態においては、図5乃至図8で説明したAF画素とN画素の画素位置に応じた受光量の変化に基づく画素位置毎の補正係数を用いて、各種画素の画素値を補正する。   In the present embodiment, the pixel values of various pixels are corrected using the correction coefficient for each pixel position based on the change in the amount of received light according to the pixel positions of the AF pixel and the N pixel described with reference to FIGS. .

即ち、本実施の形態においては、画素位置(x,y)におけるL画素の受光量、N画素の受光量を夫々IL(x,y)、IN(x,y)とし、各受光量の比に基づいて受光量補正係数αを決定し、AF画素やN画素の画素値に受光量補正係数αを乗算することで、瞳分割位相差法において用いる画素値を補正するようになっている。   That is, in the present embodiment, the received light amount of the L pixel and the received light amount of the N pixel at the pixel position (x, y) are IL (x, y) and IN (x, y), respectively, and the ratio of each received light amount. The received light amount correction coefficient α is determined based on the above, and the pixel value used in the pupil division phase difference method is corrected by multiplying the pixel value of the AF pixel or N pixel by the received light amount correction coefficient α.

なお、撮影レンズの射出瞳は、撮影レンズのFナンバーによっても変化する。また、Fナンバーは、ズーム状態やフォーカスレンズの位置によっても変化する。そこで、Fナンバー、ズーム状態、フォーカスレンズの位置に応じて、受光量補正係数αを変化させるようにしてもよい。なお、Fナンバーは受光素子上の位置に応じた射出瞳の面積に対応し、受光量に対する影響が最も大きい。そこで、例えばFナンバー毎に、受光量補正係数αを変化させるようにしてもよい。   The exit pupil of the photographic lens also changes depending on the F number of the photographic lens. The F number also changes depending on the zoom state and the position of the focus lens. Therefore, the received light amount correction coefficient α may be changed according to the F number, the zoom state, and the position of the focus lens. The F number corresponds to the area of the exit pupil corresponding to the position on the light receiving element, and has the greatest influence on the amount of received light. Therefore, for example, the received light amount correction coefficient α may be changed for each F number.

図9は受光量補正用メモリ27に記憶されているテーブルを説明するための説明図である。   FIG. 9 is an explanatory diagram for explaining a table stored in the received light amount correction memory 27.

本実施の形態においては、ボディ制御部24は、計測によって求めた受光量補正係数αを受光量補正用メモリ27に与えて格納するようになっている。即ち、標準被写体を撮像して、AF画素及びN画素の各画素位置の受光量を求めるのである。この計測結果に従って、ボディ制御部24は、画素位置毎の受光量補正係数αを求めてテーブルを作成する。   In the present embodiment, the body control unit 24 supplies the received light amount correction coefficient α obtained by measurement to the received light amount correction memory 27 for storage. That is, a standard subject is imaged, and the amount of received light at each pixel position of the AF pixel and N pixel is obtained. According to this measurement result, the body control unit 24 obtains the received light amount correction coefficient α for each pixel position and creates a table.

受光量補正用メモリ27には、画素位置(xy座標)に応じた受光量補正係数αのテーブルがFナンバー毎に記憶されている。各テーブルには、補正する画素の画素位置のアドレス(x,y)に対応した各受光量補正係数α(x,y)が記憶されている。図9の例では、x方向のn個の画素位置及びy方向のm個の画素位置のAF画素等に対応した受光量補正係数αが格納されていることを示している。   In the received light amount correction memory 27, a table of received light amount correction coefficients α corresponding to pixel positions (xy coordinates) is stored for each F number. Each table stores each received light amount correction coefficient α (x, y) corresponding to the pixel position address (x, y) of the pixel to be corrected. In the example of FIG. 9, it is shown that the received light amount correction coefficient α corresponding to the AF pixel at the n pixel positions in the x direction and the m pixel positions in the y direction is stored.

受光量補正係数αのテーブルの値は、Fナンバー毎に異なり、図9では、1つのFナンバーについての受光量補正係数αのみを示している。また、受光量補正係数αは、受光部の全画素領域の全域に渡って、略均等の画素位置に対応して設定されていてもよく、受光部の全画素領域に設定されたAFエリア毎に、適宜の間隔の画素位置に対応して設けられていてもよい。また、受光部上の中央と周辺とで、異なる画素間隔の画素位置に対応して設定されていてもよい。   The table value of the received light amount correction coefficient α is different for each F number. FIG. 9 shows only the received light amount correction coefficient α for one F number. Further, the received light amount correction coefficient α may be set corresponding to substantially equal pixel positions over the entire pixel area of the light receiving unit, and for each AF area set in the entire pixel area of the light receiving unit. In addition, they may be provided corresponding to pixel positions at appropriate intervals. Further, it may be set corresponding to pixel positions having different pixel intervals between the center and the periphery on the light receiving unit.

即ち、受光量補正係数αは、焦点検出に必要な全ての画素位置に対応して設定してもよく、AFエリア毎に1つの受光量補正係数αを設定してもよい。或いは、周辺のエリアでは、焦点検出に必要な画素毎に受光量補正係数αを設定し、中央のエリアではエリアに1つだけ受光量補正係数αを設定してもよい。   That is, the received light amount correction coefficient α may be set corresponding to all pixel positions necessary for focus detection, or one received light amount correction coefficient α may be set for each AF area. Alternatively, the received light amount correction coefficient α may be set for each pixel necessary for focus detection in the peripheral area, and only one received light amount correction coefficient α may be set for the area in the center area.

受光量補正係数αとしては、AF画素とN画素との受光量の比を用いることができる。例えば、AF画素としてL画素を用いた場合には、アドレス(x,y)におけるL画素の画素値をL(x,y)とし、アドレス(x+1,y+1)におけるN画素の画素値をN(x+1,y+1)とし、アドレス(x,y)における仮想R画素の画素値をR(x,y)として、α(x,y)=IL(x,y)/IN(x,y)。さらに、R(x,y)R(x,y)=α(x,y)・N(x+1,y+1)としてもよい。   As the received light amount correction coefficient α, the ratio of the received light amount between the AF pixel and the N pixel can be used. For example, when an L pixel is used as the AF pixel, the pixel value of the L pixel at the address (x, y) is L (x, y), and the pixel value of the N pixel at the address (x + 1, y + 1) is N ( x + 1, y + 1), and the pixel value of the virtual R pixel at the address (x, y) is R (x, y), α (x, y) = IL (x, y) / IN (x, y). Furthermore, it is good also as R (x, y) R (x, y) = (alpha) (x, y) * N (x + 1, y + 1).

図10は図1中のボディ制御部24の具体的な構成を示すブロック図である。   FIG. 10 is a block diagram showing a specific configuration of the body control unit 24 in FIG.

撮像部駆動回路28からの撮像信号は信号処理部61を介して撮像信号取得部62に入力される。像信号取得部62は、撮像信号のうち通常画素に基づく信号を表示画像構成部63に出力する。表示画像構成部63は、入力された信号に基づいて表示用の画像を生成して液晶表示部駆動回路25に出力する。液晶表示部駆動回路25によって液晶表示部26の表示画面上に撮像画像が表示される。また、記録画像構成部64は、像信号取得部62から通常画素に基づく信号が与えられ、AF画素を補間して、記録画像を生成する。この記録画像は、メモリーカード29に供給されて格納される。   The imaging signal from the imaging unit drive circuit 28 is input to the imaging signal acquisition unit 62 via the signal processing unit 61. The image signal acquisition unit 62 outputs a signal based on the normal pixel among the imaging signals to the display image configuration unit 63. The display image configuration unit 63 generates a display image based on the input signal and outputs the generated image to the liquid crystal display unit drive circuit 25. The captured image is displayed on the display screen of the liquid crystal display unit 26 by the liquid crystal display unit driving circuit 25. Further, the recording image construction unit 64 is given a signal based on the normal pixel from the image signal acquisition unit 62, and interpolates the AF pixel to generate a recording image. This recorded image is supplied to and stored in the memory card 29.

一方、像信号取得部62は、焦点検出に用いるAF画素及びN画素の信号をα算出部65に出力する。α算出部65は、撮像部22において所定の標準被写体を撮像している場合に、焦点検出に用いる各AF画素及びN画素の信号の受光量と各画素位置との情報に基づいて、各画素位置毎に受光量補正係数αを算出してテーブル生成部66に出力する。テーブル生成部66には、後述する制御部68を介してFナンバーの情報も入力されており、テーブル生成部66は、図9に示す受光量補正係数αのテーブルを生成する。このテーブルは受光量補正用メモリ27に供給されて格納される。   On the other hand, the image signal acquisition unit 62 outputs AF pixel and N pixel signals used for focus detection to the α calculation unit 65. When the imaging unit 22 captures a predetermined standard subject, the α calculation unit 65 determines each pixel based on the information of the received light amount and each pixel position of each AF pixel and N pixel signal used for focus detection. The received light amount correction coefficient α is calculated for each position and output to the table generating unit 66. F-number information is also input to the table generation unit 66 via a control unit 68 described later, and the table generation unit 66 generates a table of received light amount correction coefficient α shown in FIG. This table is supplied to and stored in the received light amount correction memory 27.

実使用時には、制御部68は交換レンズ12のレンズ制御部30からFナンバーの情報を読み出して演算部/相関演算部67に与える。また、演算部/相関演算部67には、像信号取得部62から焦点検出に用いるAF画素及びN画素の信号が与えられる。演算部/相関演算部67は、Fナンバーの情報に基づいて受光量補正用メモリ27に記憶されているテーブルを選択し、選択したテーブルからAF画素及びN画素の画素位置に応じた受光量補正係数αを読み出して、AF画素又はN画素の画素値を補正する。   At the time of actual use, the control unit 68 reads the information of the F number from the lens control unit 30 of the interchangeable lens 12 and gives it to the calculation unit / correlation calculation unit 67. The calculation unit / correlation calculation unit 67 is supplied with signals of AF pixels and N pixels used for focus detection from the image signal acquisition unit 62. The calculation unit / correlation calculation unit 67 selects a table stored in the received light amount correction memory 27 based on the F number information and corrects the received light amount according to the pixel positions of the AF pixel and the N pixel from the selected table. The coefficient α is read and the pixel value of the AF pixel or N pixel is corrected.

演算部/相関演算部67は、補正したAF画素及びN画素の画素値を用いて、瞳分割位相差法の演算を行ってデフォーカス量を算出する。演算部/相関演算部67は、求めたデフォーカス量に基づくAF信号を制御部68に出力する。制御部68は、AF信号をレンズ制御部30に与える。   The calculation unit / correlation calculation unit 67 calculates the defocus amount by performing the pupil division phase difference calculation using the corrected AF pixel value and N pixel value. The computing unit / correlation computing unit 67 outputs an AF signal based on the obtained defocus amount to the control unit 68. The controller 68 gives the AF signal to the lens controller 30.

次にこのように構成された実施の形態の動作について図11のフローチャートを参照して説明する。図11はオートフォーカス制御を示している。   Next, the operation of the embodiment configured as described above will be described with reference to the flowchart of FIG. FIG. 11 shows autofocus control.

撮像装置11に電源が投入された場合や交換レンズが交換された場合には、ボディ制御部24は、ステップS11において、交換レンズ12のレンズ制御部30から受光量補正用メモリ17に記憶されているレンズ側補正情報を読み出す。   When the image pickup apparatus 11 is turned on or the interchangeable lens is replaced, the body control unit 24 stores the received light amount correction memory 17 from the lens control unit 30 of the interchangeable lens 12 in step S11. Lens correction information is read.

次に、ボディ制御部24は、撮影モードが指示されたか否かを判定する。撮影モードが指示されていない場合には、ボディ制御部24はズーム操作が行われたか否かを判定する(ステップS13)。ズーム操作が行われと、レンズ制御部30は、レンズ駆動部16に対してズーム制御を行う。また、レンズ制御部30は、ズームに関する情報、Fナンバーに関する情報等をレンズ側補正情報としてボディ制御部24に送信する(ステップS15)。こうして、ボディ制御部24は、更新されたレンズ側補正情報を取得する(ステップS11)。   Next, the body control unit 24 determines whether or not the shooting mode is instructed. If the shooting mode is not instructed, the body control unit 24 determines whether a zoom operation has been performed (step S13). When the zoom operation is performed, the lens control unit 30 performs zoom control on the lens driving unit 16. In addition, the lens control unit 30 transmits information regarding zoom, information regarding F-number, and the like as lens-side correction information to the body control unit 24 (step S15). Thus, the body control unit 24 acquires the updated lens side correction information (Step S11).

撮影モードが指示されると、ボディ制御部24は、ステップS21において、撮像部22からの画像信号に基づいて、液晶表示部26に撮像画像(スルー画)をライブビュー表示させる。   When the shooting mode is instructed, the body control unit 24 causes the liquid crystal display unit 26 to display a captured image (through image) in live view based on the image signal from the imaging unit 22 in step S21.

次のステップS22において、ボディ制御部24は、撮像部22から焦点検出に用いるAF画素、N画素の画素値を読み出す。また、ボディ制御部24は、各画素の画素位置に対応した受光量補正係数αを受光量補正用メモリ27から読み出し(ステップS23)、AF画素、N画素の画素値を受光量補正係数αを用いて補正する(ステップS24)。   In the next step S <b> 22, the body control unit 24 reads out the pixel values of AF pixels and N pixels used for focus detection from the imaging unit 22. The body control unit 24 reads the received light amount correction coefficient α corresponding to the pixel position of each pixel from the received light amount correction memory 27 (step S23), and sets the pixel values of the AF pixel and N pixel as the received light amount correction coefficient α. It corrects using (step S24).

ボディ制御部24は、補正したAF画素、N画素を用いて、デフォーカス量を求めピント合わせを行うためのAF信号を生成する(ステップS25)。このAF信号がレンズ制御部30に供給されて、ピント合わせが行われる。   The body control unit 24 calculates the defocus amount using the corrected AF pixel and N pixel, and generates an AF signal for performing focusing (step S25). The AF signal is supplied to the lens control unit 30, and focusing is performed.

このように本実施の形態においては、画素位置に応じた受光量補正係数αを用いて、焦点検出に用いるN画素の画素値、AF画素の画素値の少なくとも一方を補正するようになっている。受光部上の位置に応じて、射出瞳のケラレ、オンチップレンズの偏心、瞳面におけるAF画素の入射光の強度強度分布等に相違があることから、AF画素及びN画素の受光量は画素位置に応じて変化する。受光量補正係数αはこの変化を補正するものであり、受光量補正係数αを記憶するテーブルを用いることで、AF画素及びN画素の画素値を補正して、高精度のフォーカス制御を行うことができる。   As described above, in this embodiment, at least one of the pixel value of the N pixel and the pixel value of the AF pixel used for focus detection is corrected using the received light amount correction coefficient α corresponding to the pixel position. . Depending on the position on the light receiving unit, there is a difference in the vignetting of the exit pupil, the eccentricity of the on-chip lens, the intensity intensity distribution of the incident light of the AF pixel on the pupil plane, etc. It changes according to the position. The received light amount correction coefficient α corrects this change. By using a table that stores the received light amount correction coefficient α, the pixel values of the AF pixel and the N pixel are corrected, and high-precision focus control is performed. Can do.

なお、上記実施の形態においては、Fナンバー等が可変の例を説明したが、Fナンバー等が固定の固定レンズを採用した場合には、受光量補正用メモリ17を省略してもよい。   In the above embodiment, an example in which the F number and the like are variable has been described. However, when a fixed lens having a fixed F number or the like is employed, the received light amount correction memory 17 may be omitted.

また、上記実施の形態においては、標準被写体の撮像によって計測した受光量に基づいて受光量補正係数を算出して受光量補正用メモリに記憶させる例について説明したが、既知のカメラの構造から受光量補正係数αが既に求められている場合には、受光量補正係数αの算出部は不要であり、既知の受光量補正係数αを格納する受光量補正用メモリのみを備えていればよい。   In the above-described embodiment, the example in which the received light amount correction coefficient is calculated based on the received light amount measured by imaging the standard subject and is stored in the received light amount correction memory has been described. When the amount correction coefficient α has already been obtained, the light reception amount correction coefficient α calculation unit is not necessary, and it is sufficient to provide only the light reception amount correction memory for storing the known light reception amount correction coefficient α.

(第2の実施の形態)
図12は第2の実施の形態において採用されるボディ制御部の具体的な構成の一例を示すブロック図である。図12において図10と同一の構成要素には同一符号を付して説明を省略する。また、図13及び図14は夫々受光量補正用メモリ17,27に格納される情報を説明するための説明図である。
(Second Embodiment)
FIG. 12 is a block diagram showing an example of a specific configuration of the body control unit employed in the second embodiment. In FIG. 12, the same components as those of FIG. 13 and 14 are explanatory diagrams for explaining information stored in the received light amount correction memories 17 and 27, respectively.

第1の実施の形態においては、ボディ制御部24において、測定値を用いて受光量補正係数αを求め、これにより、テーブルを作成して受光量補正用メモリ27に記憶させる例を示した。これに対し、本実施の形態は、演算処理によって受光量補正係数αを求めるボディ制御部71を採用した点が第1の実施の形態と異なる。   In the first embodiment, an example has been described in which the body control unit 24 obtains the received light amount correction coefficient α using the measurement value, thereby creating a table and storing it in the received light amount correction memory 27. On the other hand, the present embodiment is different from the first embodiment in that a body control unit 71 that obtains a received light amount correction coefficient α by calculation processing is employed.

本実施の形態においては、交換レンズ12の受光量補正用メモリ17には、レンズ側補正情報β(x,y)として、図5乃至図8の符号51,52y,52x,52xyに対応する射出瞳の情報、即ち、ケラレの情報が格納されている。図13に示すように、レンズ側補正情報β(x,y)は、Fナンバー毎に、画素位置に対応して設けられる。なお、レンズ側補正情報βをFナンバー毎に設ける例を示したが、ズーム状態やフォーカス状態に応じてレンズ側補正情報βを設けてもよい。   In the present embodiment, the received light amount correction memory 17 of the interchangeable lens 12 emits the lens side correction information β (x, y) corresponding to the reference numerals 51, 52y, 52x, and 52xy in FIGS. Stores pupil information, that is, vignetting information. As shown in FIG. 13, the lens side correction information β (x, y) is provided corresponding to the pixel position for each F number. Although the example in which the lens side correction information β is provided for each F number has been described, the lens side correction information β may be provided according to the zoom state or the focus state.

一方、カメラボディ13の受光量補正用メモリ27には、AF画素の入射光の強度分布に関する情報及びオンチップの偏心によるAF画素の受光可能領域の情報に基づいて生成される本体側補正情報が格納されている。図14に示すように、本体側補正情報γ(x,y)は、Fナンバー毎に、画素位置に対応して設けられる。なお、本体側補正情報γも、レンズ側補正情報βに応じて、ズーム状態やフォーカス状態毎に設定してもよい。   On the other hand, the received light amount correction memory 27 of the camera body 13 includes main body side correction information generated based on information on the intensity distribution of incident light of the AF pixel and information on the light receiving area of the AF pixel due to on-chip eccentricity. Stored. As shown in FIG. 14, the main body side correction information γ (x, y) is provided corresponding to the pixel position for each F number. The main body side correction information γ may also be set for each zoom state or focus state in accordance with the lens side correction information β.

ボディ制御部71は、例えば、Fナンバーに基づいて受光量補正用メモリ17のテーブルを選択し、選択したテーブルのレンズ側補正情報βをレンズ制御部30を介して読み込む。また、ボディ制御部71は、Fナンバーに基づいて受光量補正用メモリ27のテーブルを選択し、選択したテーブルの本体側補正情報γを読み込む。   For example, the body control unit 71 selects a table of the received light amount correction memory 17 based on the F number, and reads the lens side correction information β of the selected table via the lens control unit 30. Further, the body control unit 71 selects a table of the received light amount correction memory 27 based on the F number, and reads the main body side correction information γ of the selected table.

ボディ制御部71は、α算出部72aを有している。α算出部72aは、レンズ側補正情報βと本体側補正情報γとの演算によって、受光量補正係数αを求める。例えば、α算出部72aは、本体側補正情報γとして、非対称性に基づく補正係数が設定されている場合には、画素位置に対応するレンズ側補正情報βと非対称性に基づく補正係数との乗算によって、受光量補正係数αを求めることができる。   The body control unit 71 has an α calculation unit 72a. The α calculating unit 72a obtains the received light amount correction coefficient α by calculating the lens side correction information β and the main body side correction information γ. For example, when a correction coefficient based on asymmetry is set as the main body side correction information γ, the α calculation unit 72a multiplies the lens side correction information β corresponding to the pixel position by the correction coefficient based on the asymmetry. Thus, the received light amount correction coefficient α can be obtained.

なお、α算出部72aは、本体側補正情報γとして、AF画素の入射光の強度分布に関する情報及びオンチップの偏心によるAF画素の受光可能領域の情報が記憶されている場合には、これらの情報と射出瞳の形状に関する情報とを用いた積分処理によって、受光量補正係数αを求めてもよい。   Note that the α calculation unit 72a, when main body side correction information γ, stores information on the intensity distribution of incident light of the AF pixel and information on the receivable area of the AF pixel due to on-chip eccentricity, these items are stored. The received light amount correction coefficient α may be obtained by integration processing using information and information related to the shape of the exit pupil.

ボディ制御部71は、α算出部72aが算出した受光量補正係数αを用いて、各画素位置のAF画素、N画素の画素値を補正し、補正した画素値を用いて焦点検出を行う。   The body control unit 71 corrects the pixel values of the AF pixel and the N pixel at each pixel position using the received light amount correction coefficient α calculated by the α calculation unit 72a, and performs focus detection using the corrected pixel value.

次に、このように構成された実施の形態の動作について図15のフローチャートを参照して説明する。図15において図11と同一の手順には同一符号を付して説明を省略する。   Next, the operation of the embodiment configured as described above will be described with reference to the flowchart of FIG. In FIG. 15, the same steps as those in FIG.

図15のフローは、図11のステップS23のα読み出し処理に代えて、ステップS31の本体側補正情報読み出し処理及びステップS32のα算出処理を設けた点が図11のフローと異なる。   The flow in FIG. 15 differs from the flow in FIG. 11 in that a main body side correction information read process in step S31 and an α calculation process in step S32 are provided instead of the α read process in step S23 in FIG.

ボディ制御部71は、ステップS11のレンズ情報取得処理において、レンズ側補正情報を読み出す。また、ボディ制御部71はステップS31において、本体側補正情報を読み出す。ボディ制御部71のα算出部71aは、ステップS32において、レンズ側補正情報と本体側補正情報を用いて、受光量補正係数αを算出する。   The body control unit 71 reads lens-side correction information in the lens information acquisition process in step S11. Further, the body control unit 71 reads the main body side correction information in step S31. In step S32, the α calculation unit 71a of the body control unit 71 calculates the received light amount correction coefficient α using the lens side correction information and the main body side correction information.

他の作用は第1の実施の形態と同様である。   Other operations are the same as those in the first embodiment.

このように本実施の形態においても、第1の実施の形態と同様の効果を得ることができる。また、本実施の形態においては、レンズ側に設けた受光量補正用メモリと本体側に設けた受光量補正用メモリに夫々レンズ側補正情報及び本体側補正情報を記憶させ、これらの情報を基に受光量補正係数αを求めており、予め受光量補正係数αを求めておく必要がないという利点を有する。   As described above, also in this embodiment, the same effect as that of the first embodiment can be obtained. In the present embodiment, the lens side correction information and the main body side correction information are stored in the received light amount correction memory provided on the lens side and the received light amount correction memory provided on the main body side, respectively. The light reception amount correction coefficient α is obtained, and there is an advantage that it is not necessary to obtain the light reception amount correction coefficient α beforehand.

なお、上記実施の形態においては、画素位置に応じて受光量補正係数αを求める例について説明したが、軸上の画素であっても、例えばFナンバーが変化することによって受光量は変化するので、Fナンバー毎に受光量補正係数αを設定し、この受光量補正係数αのテーブルを用いて、軸上の画素の画素値を補正するようにしてもよい。   In the above embodiment, an example in which the received light amount correction coefficient α is obtained according to the pixel position has been described. However, even for an on-axis pixel, for example, the received light amount changes as the F number changes. The received light amount correction coefficient α may be set for each F number, and the pixel value of the pixel on the axis may be corrected using the table of the received light amount correction coefficient α.

この場合のテーブルも、本体側の受光量補正用メモリに格納する。また、受光量補正係数αの値は、例えば、白色の均等拡散面を各Fナンバーで撮影した場合の、L画素の画素値とN画素の画素値とから算出することができる。また、この場合には、受光量補正係数αをレンズデータと撮像素子のデータから算出することも可能である。また、Fナンバーに限らず、ズーム状態やフォーカスレンズの位置に対応した受光量補正係数αを設定してもよい。   The table in this case is also stored in the received light amount correction memory on the main body side. Further, the value of the received light amount correction coefficient α can be calculated from the pixel value of the L pixel and the pixel value of the N pixel when a white uniform diffusion surface is photographed with each F number, for example. In this case, it is also possible to calculate the received light amount correction coefficient α from the lens data and the image sensor data. In addition to the F number, a received light amount correction coefficient α corresponding to the zoom state and the position of the focus lens may be set.

なお、上記各実施の形態においては、焦点検出にAF画素のみを用いる場合にも適用可能であり、画素位置に応じて上述した手法によりAF画素の画素値を補正して、高精度のフォーカス制御を行うことが可能である。   In each of the above embodiments, the present invention can also be applied to the case where only AF pixels are used for focus detection. The pixel values of the AF pixels are corrected by the above-described method according to the pixel position, and high-precision focus control is performed. Can be done.

10…本体回路部、11…信号処理及び制御部、14…撮像部、14a…受光部、14b…垂直アナログ加算回路、14c…水平デジタル加算回路、14d…AF用メモリ、17…記録再生部、18…表示部。     DESCRIPTION OF SYMBOLS 10 ... Main body circuit part, 11 ... Signal processing and control part, 14 ... Imaging part, 14a ... Light receiving part, 14b ... Vertical analog addition circuit, 14c ... Horizontal digital addition circuit, 14d ... AF memory, 17 ... Recording / reproducing part, 18: Display section.

Claims (6)

レンズにより結像される被写体像を光電変換する撮像素子であって、上記レンズの射出瞳を分割した一部の領域を通過する光束を受光するAF画素と、撮影用の撮像画素と、を含み、画素がマトリクス状に配列された撮像素子と、
上記AF画素と撮像画素との画素位置に応じた受光量の差を補正するためのそれぞれの補正情報を格納する補正用メモリと、
上記補正情報を読み出して上記AF画素の画素値と上記撮像画素の画素値とを補正する補正部と、
上記補正部によって補正された画素値を用いて焦点検出を行う焦点検出部と、
を具備し
上記補正情報は、上記AF画素に関する画素位置に応じた当該AF画素の受光量の比と、上記撮像画素に関する画素位置に応じた当該撮像画素の受光量の比とに基づく情報であり、
上記補正部は、上記補正情報により上記AF画素の画素値と当該AF画素に隣接する上記撮像画素の画素値とをそれぞれ補正し、
上記焦点検出部は、上記撮像画素の画素値と上記AF画素の画素値とに基づいて、上記AF画素が受光する光束が通過する分割された射出瞳の領域と対をなす領域を通過する光束を受光する仮想のAF画素の画素値に相当する信号を算出し、上記AF画素の画素値と上記仮想のAF画素の画素値に相当する信号とに基づいて焦点検出を行う際に、上記補正後の上記AF画素の画素値と補正後の上記撮像画素の画素値とに基づいて上記仮想のAF画素の画素値に相当する信号を算出する
ことを特徴とする撮像装置。
An imaging element that photoelectrically converts a subject image formed by a lens, including an AF pixel that receives a light beam that passes through a partial area obtained by dividing the exit pupil of the lens, and an imaging pixel for photographing An image sensor in which pixels are arranged in a matrix;
A correction memory for storing respective correction information for correcting a difference in received light amount according to the pixel position of the AF pixel and the imaging pixel ;
A correction unit that reads out the correction information and corrects the pixel value of the AF pixel and the pixel value of the imaging pixel ;
A focus detection unit that performs focus detection using the pixel values corrected by the correction unit;
Equipped with,
The correction information is information based on the ratio of the received light amount of the AF pixel according to the pixel position regarding the AF pixel and the ratio of the received light amount of the imaging pixel according to the pixel position regarding the imaging pixel,
The correction unit corrects the pixel value of the AF pixel and the pixel value of the imaging pixel adjacent to the AF pixel by the correction information,
The focus detection unit, based on the pixel value of the imaging pixel and the pixel value of the AF pixel, passes through a region that forms a pair with the divided exit pupil region through which the light beam received by the AF pixel passes. The signal corresponding to the pixel value of the virtual AF pixel that receives light is calculated, and the correction is performed when focus detection is performed based on the pixel value of the AF pixel and the signal corresponding to the pixel value of the virtual AF pixel. An image pickup apparatus that calculates a signal corresponding to a pixel value of the virtual AF pixel based on a pixel value of the AF pixel after correction and a pixel value of the image pickup pixel after correction .
上記AF画素に関する補正情報は、上記画素位置に応じた射出瞳の形状、上記画素位置に応じたAF画素の受光可能領域の形状及び上記受光可能領域の入射光強度分布に基づいて生じる上記受光量の差を補正するための情報である
ことを特徴とする請求項1に記載の撮像装置。
The correction information related to the AF pixel is the amount of received light generated based on the shape of the exit pupil according to the pixel position, the shape of the light receiving area of the AF pixel according to the pixel position, and the incident light intensity distribution of the light receiving area. The imaging apparatus according to claim 1, wherein the information is for correcting a difference between the two.
上記補正情報は、上記レンズのFナンバーに応じて複数の上記AF画素に関する画素位置に応じた当該AF画素の受光量の比と上記撮像画素に関する画素位置に応じた当該撮像画素の受光量の比とに基づく情報を有する
ことを特徴とする請求項1に記載の撮像装置。
The correction information includes a ratio of a received light amount of the AF pixel according to a pixel position relating to a plurality of AF pixels according to an F number of the lens and a ratio of a received light amount of the imaging pixel according to a pixel position related to the imaging pixel. And have information based on
The imaging apparatus according to claim 1 .
上記補正部は、上記補正情報により上記AF画素に隣接する上記撮像画素の画素値を補正する際に、当該AF画素と同一色の色フィルタを有する複数の上記撮像画素の画素値の平均値に基づいて当該AF画素に隣接する上記撮像画素の画素値を算出することを特徴とする請求項1に記載の撮像装置。 When the correction unit corrects the pixel value of the imaging pixel adjacent to the AF pixel based on the correction information, the correction unit calculates an average value of the pixel values of the plurality of imaging pixels having the same color filter as the AF pixel. The imaging apparatus according to claim 1, wherein a pixel value of the imaging pixel adjacent to the AF pixel is calculated based on the AF pixel . 上記レンズに関する射出瞳情報を上記補正部に送信するレンズ部
を具備したことを特徴とする請求項1乃至4に記載の撮像装置。
The imaging apparatus according to the exit pupil information related to the lens to claims 1 to 4, characterized by comprising a lens unit to be sent to the correction unit.
上記補正用メモリは、上記画素位置に応じた上記AF画素の受光可能領域の形状及び上記受光可能領域の入射光強度分布に基づく補正情報を保持し、
上記補正部は、上記レンズ部から取得した上記レンズに関する射出瞳情報と、上記補正用メモリに記憶されている上記補正情報とに基づいて、上記AF画素の画素値を補正する
ことを特徴とする請求項5に記載の撮像装置。
The correction memory holds correction information based on the shape of the light-receiving area of the AF pixel according to the pixel position and the incident light intensity distribution of the light-receiving area,
The correction unit corrects the pixel value of the AF pixel based on exit pupil information regarding the lens acquired from the lens unit and the correction information stored in the correction memory.
The imaging apparatus according to claim 5.
JP2011155120A 2011-07-13 2011-07-13 Imaging device Active JP5784395B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011155120A JP5784395B2 (en) 2011-07-13 2011-07-13 Imaging device
US13/545,400 US8810713B2 (en) 2011-07-13 2012-07-10 Image pickup apparatus and image pickup device for performing auto-focusing
CN201210240803.5A CN102883093B (en) 2011-07-13 2012-07-11 Camera head and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011155120A JP5784395B2 (en) 2011-07-13 2011-07-13 Imaging device

Publications (2)

Publication Number Publication Date
JP2013021615A JP2013021615A (en) 2013-01-31
JP5784395B2 true JP5784395B2 (en) 2015-09-24

Family

ID=47692582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011155120A Active JP5784395B2 (en) 2011-07-13 2011-07-13 Imaging device

Country Status (1)

Country Link
JP (1) JP5784395B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5866478B2 (en) * 2013-03-13 2016-02-17 富士フイルム株式会社 Imaging apparatus, signal processing method, and signal processing program
JP6239857B2 (en) * 2013-05-13 2017-11-29 キヤノン株式会社 Imaging apparatus and control method thereof
JP6331676B2 (en) * 2014-05-13 2018-05-30 コニカミノルタ株式会社 Image forming apparatus
JP6630058B2 (en) * 2014-06-16 2020-01-15 キヤノン株式会社 Imaging device, control method of imaging device, and program
JP6764518B2 (en) * 2014-06-16 2020-09-30 キヤノン株式会社 Imaging device, control method of imaging device, and program
JP6469026B2 (en) 2016-01-19 2019-02-13 キヤノン株式会社 Imaging apparatus and control method thereof
JP2019219499A (en) * 2018-06-19 2019-12-26 キヤノン株式会社 Controller, imaging apparatus, control method, program, and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4946059B2 (en) * 2006-01-11 2012-06-06 株式会社ニコン Imaging device
JP5161702B2 (en) * 2008-08-25 2013-03-13 キヤノン株式会社 Imaging apparatus, imaging system, and focus detection method
JP5147645B2 (en) * 2008-10-30 2013-02-20 キヤノン株式会社 Imaging device
JP5229060B2 (en) * 2009-03-31 2013-07-03 ソニー株式会社 Imaging apparatus and focus detection method

Also Published As

Publication number Publication date
JP2013021615A (en) 2013-01-31

Similar Documents

Publication Publication Date Title
US8810713B2 (en) Image pickup apparatus and image pickup device for performing auto-focusing
JP6478457B2 (en) Focus adjustment device and focus adjustment method
JP5784395B2 (en) Imaging device
JP4946059B2 (en) Imaging device
JP6429546B2 (en) Imaging apparatus, control method, program, and storage medium
JP5361535B2 (en) Imaging device
JP5454223B2 (en) camera
JP5947602B2 (en) Imaging device
JP6464118B2 (en) Focus detection apparatus and method, imaging apparatus, and lens unit
JP6682310B2 (en) Focus detection apparatus and method, and imaging apparatus
JP6843604B2 (en) Information processing device and information processing method
JP2013037296A (en) Image pickup apparatus and image pickup device
JP5781021B2 (en) LENS DEVICE AND IMAGING DEVICE
JP2021027523A5 (en)
JP6854619B2 (en) Focus detection device and method, imaging device, lens unit and imaging system
JP2014135562A (en) Image pickup device and control method thereof
JP7037271B2 (en) Focus detectors and focus detectors, imaging devices, programs and storage media
JP5589799B2 (en) Imaging device
JP6395790B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND FOCUS CONTROL PROGRAM
JP6685769B2 (en) Information processing device, imaging device, and information processing method
JP2019091067A (en) Lens assembly and control method thereof
JP2019200348A (en) Imaging device and control method for imaging device
JP7504579B2 (en) Image capture device, image capture device control method and program
JP5691440B2 (en) Imaging device
JP6548626B2 (en) Image pickup apparatus, control method for image pickup apparatus, and focus control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150303

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150722

R151 Written notification of patent or utility model registration

Ref document number: 5784395

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250