JP2017102228A - Imaging apparatus and method for controlling the same - Google Patents

Imaging apparatus and method for controlling the same Download PDF

Info

Publication number
JP2017102228A
JP2017102228A JP2015234315A JP2015234315A JP2017102228A JP 2017102228 A JP2017102228 A JP 2017102228A JP 2015234315 A JP2015234315 A JP 2015234315A JP 2015234315 A JP2015234315 A JP 2015234315A JP 2017102228 A JP2017102228 A JP 2017102228A
Authority
JP
Japan
Prior art keywords
image sensor
image
focus detection
sensor
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015234315A
Other languages
Japanese (ja)
Other versions
JP6639208B2 (en
Inventor
大貫 一朗
Ichiro Onuki
一朗 大貫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015234315A priority Critical patent/JP6639208B2/en
Publication of JP2017102228A publication Critical patent/JP2017102228A/en
Application granted granted Critical
Publication of JP6639208B2 publication Critical patent/JP6639208B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of performing highly accurate focus detection, according to the lens pupil distance of a wider range, in comparison with a conventional technology and to provide a method for controlling the imaging apparatus.SOLUTION: The imaging apparatus includes a beam splitter 103 which divides a luminous flux after passing through the exit pupil of a photographic lens 500 into a plurality of luminous fluxes, an imaging element 101 which has a plurality of pixel parts having a microlens and a plurality of photoelectric conversion parts and receives one of the divided luminous fluxes, and an imaging element 102. The length of a sensor pupil distance which is a distance from an image surface to a sensor pupil surface located in a point where the principal ray of the pixel part crosses the optical axis of the luminous flux passing through the photographic lens, in the imaging element 101 is shorter than that in the imaging element 102. A camera CPU 104 calculates a defocus amount by using two signals having a parallax obtained from at least one of the imaging element 101 and the imaging element 102.SELECTED DRAWING: Figure 4

Description

本発明は、焦点検出することが可能な撮像装置及びその制御方法に関する。   The present invention relates to an imaging apparatus capable of focus detection and a control method thereof.

近年、記録用又は表示用の画像を取得するとともに、撮像面で位相差式の焦点検出を行う機能、いわゆる撮像面位相差検出に適した機能を有する撮像素子を複数備えた撮像装置が提案されている。特許文献1の撮像装置では、静止画撮影用の撮像素子と、動画撮影用の撮像素子の2つの撮像素子を有することが開示されている。ここでは、静止画撮影用の撮像素子からの信号を用いて記録用画像として静止画を生成する場合は、動画撮影用の撮像素子から取得した信号を焦点検出に用いる。また、動画撮影用の撮像素子からの信号を用いて記録用画像として動画を生成する場合は、静止画撮影用の撮像素子から取得した信号を焦点検出に用いることが開示されている。   In recent years, there has been proposed an imaging apparatus including a plurality of imaging elements that acquire a recording or display image and perform a phase difference type focus detection on an imaging surface, that is, a function suitable for so-called imaging surface phase difference detection. ing. The image pickup apparatus disclosed in Patent Document 1 discloses that the image pickup device has two image pickup devices, that is, an image pickup device for still image shooting and an image pickup device for moving image shooting. Here, when a still image is generated as a recording image using a signal from an image pickup device for still image shooting, a signal acquired from the image pickup device for moving image shooting is used for focus detection. In addition, it is disclosed that when a moving image is generated as a recording image using a signal from an imaging element for moving image shooting, a signal acquired from the imaging element for still image shooting is used for focus detection.

特開2015−34917号公報Japanese Patent Laid-Open No. 2015-34917

撮像面位相差検出用撮像素子においては、撮影レンズのレンズ瞳距離(射出瞳距離)と、撮像素子の各画素の受光光束の瞳が実質的に一致する面の距離(センサ瞳距離とも称する。詳しくは後述する)とが近いほど、焦点検出精度が高い。一方で、レンズ瞳距離はレンズの種類やズームポジションによって変化するため、レンズ瞳距離とセンサ瞳距離との乖離が大きい場合は、乖離がより小さい場合と比較して、焦点検出精度が低下する。このことから、センサ瞳距離に対し、高い精度で焦点検出を行うことができるレンズ瞳距離の範囲が限られている。   In the imaging surface phase difference detection imaging device, the lens pupil distance (exit pupil distance) of the photographing lens and the distance of the surface where the pupil of the received light beam of each pixel of the imaging device substantially coincides (also referred to as sensor pupil distance). The closer it is to (described later in detail), the higher the focus detection accuracy. On the other hand, since the lens pupil distance changes depending on the type of lens and the zoom position, when the deviation between the lens pupil distance and the sensor pupil distance is large, the focus detection accuracy is lowered as compared with the case where the deviation is smaller. For this reason, the range of the lens pupil distance that can perform focus detection with high accuracy with respect to the sensor pupil distance is limited.

前述の特許文献1では、記録用画像として静止画と動画どちらを記録用画像として取得するかに応じて、静止画撮影用の撮像素子と動画用撮像素子とを使い分けることについては記載されている。しかし、センサ瞳距離に対し、高い精度で焦点検出を行うことができるレンズ瞳距離の範囲が限られていることについては課題が残るため、より広い範囲のレンズ瞳距離に対応して高い精度で焦点検出を行うことができる技術が求められていた。   In the above-described Patent Document 1, it is described that an image sensor for still image shooting and an image sensor for moving image are properly used depending on whether a still image or a moving image is acquired as a recording image. . However, there remains a problem with the limited range of lens pupil distances that can be used for focus detection with high accuracy with respect to the sensor pupil distance. A technique capable of performing focus detection has been demanded.

そこで、本発明は、従来技術と比較して、より広い範囲のレンズ瞳距離に対応して、精度の高い焦点検出を行うことができる撮像装置及びその制御方法を提供することを目的とする。   Accordingly, an object of the present invention is to provide an imaging apparatus capable of performing focus detection with high accuracy corresponding to a wider range of lens pupil distances and a control method therefor as compared with the prior art.

本発明は、撮影レンズを通過した光束を複数の光束に分割する光束分割手段と、1つのマイクロレンズに対して、視差を有する光束をそれぞれ受光し光電変換する複数の光電変換部を有する画素部を複数有し、前記分割された光束の一方を受光する第1の撮像素子と、1つのマイクロレンズに対して、視差を有する光束をそれぞれ受光し光電変換する複数の光電変換部を有する画素部を複数有し、前記分割された光束の他方を受光し、センサ瞳距離の長さが前記第1の撮像素子のセンサ瞳距離よりも長い第2の撮像素子と、前記第1の撮像素子と前記第2の撮像素子の少なくとも一方から取得した視差を有する2つの信号を用いてデフォーカス量を算出する第1の焦点検出手段と、を有するよう構成したことを特徴とする。   The present invention relates to a light beam splitting unit that splits a light beam that has passed through a photographing lens into a plurality of light beams, and a pixel unit that includes a plurality of photoelectric conversion units that receive and photoelectrically convert light beams having parallax for one microlens. And a first imaging element that receives one of the divided light beams, and a pixel unit that includes a plurality of photoelectric conversion units that respectively receive and photoelectrically convert light beams having parallax with respect to one microlens. A second imaging element that receives the other of the divided luminous fluxes and has a sensor pupil distance longer than the sensor pupil distance of the first imaging element; and the first imaging element; And a first focus detection unit configured to calculate a defocus amount using two signals having parallax acquired from at least one of the second imaging elements.

また、本発明は撮影レンズを通過した光束を複数の光束に分割する光束分割手段と、1つのマイクロレンズに対して、視差を有する光束をそれぞれ受光し光電変換する複数の光電変換部を有する画素部を複数有し、前記分割された光束の一方を受光する第2の撮像素子と、光束を受光し光電変換する光電変換部を有する画素部を複数有し、前記分割された光束の他方を受光する第3の撮像素子と、前記第2の撮像素子と前記第3の撮像素子の少なくとも一方から取得した信号を用いてデフォーカス量を算出する第1の焦点検出手段と、を有し、前記第2の撮像素子から取得した信号の信頼性が高い場合には、前記第1の焦点検出手段は前記第2の撮像素子から取得した信号を前記第3の撮像素子から取得した信号よりも多く用いて焦点検出を行い、前記第2の撮像素子から取得した信号の信頼性が低い場合には、前記第1の焦点検出手段は前記第3の撮像素子から取得した信号を第2の撮像素子から取得した信号よりも多く用いて焦点検出を行うよう構成したことを特徴とする。   Further, the present invention provides a pixel having a light beam splitting unit that splits a light beam that has passed through the photographing lens into a plurality of light beams, and a plurality of photoelectric conversion units that receive and photoelectrically convert each of the light beams having parallax for one microlens. A plurality of pixel units, a second imaging element that receives one of the divided light beams, and a pixel unit that includes a photoelectric conversion unit that receives and photoelectrically converts the light beam, and the other of the divided light beams A third image sensor that receives light; and first focus detection means that calculates a defocus amount using a signal acquired from at least one of the second image sensor and the third image sensor; When the reliability of the signal acquired from the second image sensor is high, the first focus detection unit uses the signal acquired from the second image sensor more than the signal acquired from the third image sensor. Use focus detection often On the other hand, when the reliability of the signal acquired from the second image sensor is low, the first focus detection means uses the signal acquired from the third image sensor as compared with the signal acquired from the second image sensor. Is also used to perform focus detection.

本発明によれば、従来技術と比較して、より広い範囲のレンズ瞳距離に対応して、精度の高い焦点検出を行うことができる。   According to the present invention, it is possible to perform focus detection with high accuracy corresponding to a wider range of lens pupil distances than in the prior art.

撮像装置の構成図Configuration diagram of imaging device 撮像素子101の構成図Configuration diagram of the image sensor 101 撮像素子101の読み出し回路構成図Readout circuit configuration diagram of the image sensor 101 撮影レンズ500の射出瞳距離(レンズ瞳距離)PLとセンサ瞳距離について説明する図The figure explaining the exit pupil distance (lens pupil distance) PL and sensor pupil distance of the taking lens 500 各画素部の焦点検出瞳と撮影レンズ500の射出瞳の相対的な位置関係を説明する図The figure explaining the relative positional relationship of the focus detection pupil of each pixel part, and the exit pupil of the photographic lens 500 シェーディング特性を説明する図Diagram explaining shading characteristics シェーディング比SHのレンズ瞳距離に対する変化を説明する図The figure explaining the change with respect to the lens pupil distance of the shading ratio SH 焦点検出信号の波形例を説明する図The figure explaining the example of a waveform of a focus detection signal 一対2像の位相差と相関値の関係を説明する図The figure explaining the relationship between the phase difference of a pair of 2 images, and a correlation value シェーディング補正情報を説明する図A diagram for explaining shading correction information デフォーカス量変換情報を説明する図The figure explaining defocus amount conversion information 撮影に関わるメインフロー図Main flow chart for shooting 撮像素子101の「焦点検出1」及び「静止画撮影1」のサブルーチンフロー図Subroutine flowchart of “focus detection 1” and “still image shooting 1” of the image sensor 101 撮像素子102の「焦点検出2」及び「静止画撮影2」のサブルーチンフロー図Subroutine flowchart of “focus detection 2” and “still image shooting 2” of the image sensor 102 実施例2における「焦点検出3」及び「焦点検出4」のサブルーチンフロー図Subroutine flowchart of “focus detection 3” and “focus detection 4” in the second embodiment 実施例3における撮像素子の構成図Configuration diagram of image pickup device in embodiment 3 実施例3におけるセンサ瞳距離を説明する図FIG. 6 is a diagram for explaining sensor pupil distances according to the third embodiment. 実施例4における撮像素子の構成図Configuration diagram of image pickup device in embodiment 4 実施例4におけるセンサ瞳距離を説明する図FIG. 6 is a diagram for explaining sensor pupil distances according to the fourth embodiment. 実施例4における「焦点検出5」及び「焦点検出6」のサブルーチンフロー図Subroutine flowchart of “focus detection 5” and “focus detection 6” in the fourth embodiment 実施例1〜4における変形例を説明する図The figure explaining the modification in Examples 1-4

以下に、本発明を適用した好ましい実施の形態を、添付の図面に基づいて説明する。   Hereinafter, preferred embodiments to which the present invention is applied will be described with reference to the accompanying drawings.

[実施例1]
[カメラ本体の構成]
図1は、本発明を実施した撮像装置の一例としての、レンズ交換式のデジタルカメラ本体100(以下、カメラ本体100)および撮影レンズ500の構成図である。
[Example 1]
[Configuration of camera body]
FIG. 1 is a configuration diagram of an interchangeable lens digital camera main body 100 (hereinafter, camera main body 100) and a photographing lens 500 as an example of an imaging apparatus embodying the present invention.

撮影レンズ500はカメラ本体100に対して着脱可能であり、撮影レンズ500内の各レンズ群を透過した光束は、カメラ本体100に備え付けられた光束分割手段としてのビームスプリッタ103に入射する。ビームスプリッタ103はカメラ本体100内に固定されており、本実施例においてはハーフミラーである。ビームスプリッタ103によって分割された光束の一方の光束はビームスプリッタ103を透過して第1の撮像面に被写体像を結像するよう配置された撮像素子101(第1の撮像素子)へと導かれる。他方の光束はビームスプリッタ103で反射して第2の撮像面に被写体像を結像するよう配置された撮像素子102(第2の撮像素子)へと導かれる。ここで、撮像面とは、撮像素子のセンサ面である。詳しくは後述する。なお、ビームスプリッタ103は、ハーフミラーと同様に入射する光束を分割することができるものであれば、ハーフミラーでなくても良い。   The photographing lens 500 can be attached to and detached from the camera body 100, and the light beam transmitted through each lens group in the photographing lens 500 is incident on a beam splitter 103 as a light beam dividing unit provided in the camera body 100. The beam splitter 103 is fixed in the camera body 100, and is a half mirror in this embodiment. One of the light beams divided by the beam splitter 103 passes through the beam splitter 103 and is guided to the image sensor 101 (first image sensor) arranged to form a subject image on the first image pickup surface. . The other light beam is reflected by the beam splitter 103 and guided to the image sensor 102 (second image sensor) arranged so as to form a subject image on the second imaging surface. Here, the imaging surface is a sensor surface of the imaging device. Details will be described later. The beam splitter 103 may not be a half mirror as long as it can split an incident light beam in the same manner as a half mirror.

第1及び第2の撮像面は撮影レンズから見て光学的に等価な(共役な)位置にある。言い換えると、第1の撮像面に配置された撮像素子101と第2の撮像面に配置された撮像素子102はそれぞれ、撮影レンズ500を介して、被写体に対して光学的に共役な結像面にある。   The first and second imaging surfaces are at optically equivalent (conjugated) positions when viewed from the photographic lens. In other words, the image pickup device 101 arranged on the first image pickup surface and the image pickup device 102 arranged on the second image pickup surface are respectively optically conjugate with respect to the subject via the photographing lens 500. It is in.

第1及び第2の撮像面には、ビームスプリッタ103の透過率及び反射率に応じた明るさの被写体像が形成される。撮像光束中に配置されたハーフミラーは理想的な平面で、かつ光束が透過する領域の屈折率も一様であることが望ましいが、現実にはそうでない場合もあり得る。このため、ビームスプリッタ103を透過又は反射した光束により形成される画像は、ビームスプリッタ103を透過又は反射しない場合と比較して、画質が低下する場合がある。そして、ハーフミラーが薄板ガラスで構成される場合、画質低下の程度は、透過した光束により形成される画像と比較し、反射した光束により形成される画像において相対的に大きい。そこで本実施例では、透過側の撮像素子101を静止画を撮影するための撮像素子とし、反射側の撮像素子102は動画の撮影に用いる撮像素子として用いる。しかしながら本発明はこの形態に限定されるものではなく、また、ビームスプリッタ103の特性やその他の条件に応じて撮像素子101と撮像素子102の位置を入れ替えても良い。   A subject image having a brightness corresponding to the transmittance and reflectance of the beam splitter 103 is formed on the first and second imaging surfaces. Although it is desirable that the half mirror disposed in the imaging light beam is an ideal plane and the refractive index of the region through which the light beam is transmitted is uniform, it may not actually be the case. For this reason, an image formed by a light beam transmitted or reflected by the beam splitter 103 may be deteriorated in image quality as compared with a case where the image is not transmitted or reflected by the beam splitter 103. When the half mirror is made of thin glass, the degree of image quality degradation is relatively large in the image formed by the reflected light beam compared to the image formed by the transmitted light beam. Therefore, in this embodiment, the transmissive-side image sensor 101 is used as an image sensor for capturing a still image, and the reflective-side image sensor 102 is used as an image sensor used for capturing a moving image. However, the present invention is not limited to this mode, and the positions of the image sensor 101 and the image sensor 102 may be interchanged according to the characteristics of the beam splitter 103 and other conditions.

CMOSエリアセンサからなる撮像素子101および撮像素子102は、被写体像を電気信号に変換するマトリクス状に配置された画素部を複数有する。電気信号に変換された画素情報は、画像処理専用の回路であるAFE114(第1の画像処理部)及びAFE115(第2の画像処理部)で処理される。具体的には、記録画像信号や焦点検出信号を得るための各種補正処理や、得られた記録画像信号をライブビュー画像信号や記録画像信号へ変換するための処理等が行われる。本実施例では、カメラ本体100が2つの撮像素子それぞれに対応したAFEを有することで、2つの撮像素子それぞれから取得した信号を並行して処理することができる。AFE114及びAFE115で処理された信号は、カメラCPU104へと送信される。操作部材105はカメラの撮影モードや撮影条件等を設定するための各種部材である。記憶媒体106はフラッシュメモリであり、撮影した静止画や動画を記録するための媒体である。ファインダ内表示器107は、有機ELディスプレイや液晶ディスプレイ等の小型で高精細な表示手段としてのディスプレイ108と接眼レンズ109とで構成される。外部表示器110は、裸眼視に適した画面サイズの有機ELディスプレイや液晶ディスプレイが用いられる。カメラ本体100の設定状態、ライブビュー画像、撮影済み画像等の各種情報は、ファインダ内表示器107や外部表示器110に表示される。   The image sensor 101 and the image sensor 102 made up of CMOS area sensors have a plurality of pixel portions arranged in a matrix for converting a subject image into an electric signal. The pixel information converted into the electrical signal is processed by AFE 114 (first image processing unit) and AFE 115 (second image processing unit), which are circuits dedicated to image processing. Specifically, various correction processes for obtaining a recorded image signal and focus detection signal, a process for converting the obtained recorded image signal into a live view image signal and a recorded image signal, and the like are performed. In the present embodiment, since the camera body 100 has AFEs corresponding to the two image sensors, signals acquired from the two image sensors can be processed in parallel. Signals processed by the AFE 114 and the AFE 115 are transmitted to the camera CPU 104. The operation member 105 is various members for setting a camera shooting mode, shooting conditions, and the like. A storage medium 106 is a flash memory, and is a medium for recording captured still images and moving images. The in-finder display 107 includes a display 108 and an eyepiece 109 as a small and high-definition display means such as an organic EL display or a liquid crystal display. As the external display 110, an organic EL display or a liquid crystal display having a screen size suitable for naked-eye viewing is used. Various information such as the setting state of the camera body 100, a live view image, and a captured image are displayed on the in-finder display 107 and the external display 110.

フォーカルプレンシャッタ111は撮像素子101の前面に配置されている。シャッタ駆動部112は例えばモーターであり、シャッタの羽根を駆動制御することで、静止画を撮像する際の露光時間を制御する。撮影レンズを装着するためのカメラマウント部(不図示)には、カメラ側通信端子113が設けられている。カメラ側通信端子113は、レンズマウント部に設けられたレンズ側通信端子508とともに、カメラCPU104と後述のレンズCPU507との間でやりとりされる情報を送受信する。   The focal plane shutter 111 is disposed in front of the image sensor 101. The shutter driving unit 112 is, for example, a motor, and controls the exposure time when capturing a still image by driving and controlling the shutter blades. A camera-side communication terminal 113 is provided on a camera mount (not shown) for mounting the taking lens. The camera side communication terminal 113 transmits and receives information exchanged between the camera CPU 104 and a later-described lens CPU 507 together with the lens side communication terminal 508 provided in the lens mount unit.

撮影レンズ500はカメラ本体100に対して着脱可能であり、本実施例では焦点距離が可変なズームレンズである。被写体からの光束は第1レンズ群501、第2レンズ群502、第3レンズ群503を透過し、カメラ本体100内の撮像面に被写体像を形成する。第2レンズ群502は光軸方向に進退して変倍を行なうバリエータとして機能する。第3レンズ群503は光軸方向に進退して焦点調節を行なうフォーカスレンズとして機能する。第3レンズ群503は、ステッピングモーターなどを用いたフォーカス駆動部504によって駆動される。虹彩絞り505は撮影レンズに入射する光量を調節するための複数の絞り羽根で構成されている。絞り駆動部506は、虹彩絞り505を、絞り羽根を所定のFナンバになるまで絞り込み駆動する。レンズCPU507は、レンズ側通信端子508及びカメラ側通信端子113を介してカメラCPU104と通信し、各種情報を送受信するとともに、カメラCPU104からの指令に基づいてフォーカス駆動部504や絞り駆動部506を駆動制御する。   The photographic lens 500 is detachable from the camera body 100, and in this embodiment is a zoom lens having a variable focal length. The luminous flux from the subject passes through the first lens group 501, the second lens group 502, and the third lens group 503, and forms a subject image on the imaging surface in the camera body 100. The second lens group 502 functions as a variator that performs zooming by moving back and forth in the optical axis direction. The third lens group 503 functions as a focus lens that moves forward and backward in the optical axis direction to adjust the focus. The third lens group 503 is driven by a focus driving unit 504 using a stepping motor or the like. The iris diaphragm 505 is composed of a plurality of diaphragm blades for adjusting the amount of light incident on the photographing lens. The diaphragm drive unit 506 drives the iris diaphragm 505 to narrow down the diaphragm blades until a predetermined F number is reached. The lens CPU 507 communicates with the camera CPU 104 via the lens-side communication terminal 508 and the camera-side communication terminal 113 to transmit and receive various types of information, and drives the focus driving unit 504 and the aperture driving unit 506 based on commands from the camera CPU 104. Control.

撮影者は撮影意図に適した撮影レンズを選択して使用するため、撮影レンズ500のズームレンジや開放Fナンバは種々の値を取り得るが、本実施例においては、特に説明がない場合には、開放Fナンバはズーム状態やフォーカス状態によらずF2の一定値を想定して説明する。   Since the photographer selects and uses a photographing lens suitable for the purpose of photographing, the zoom range and the open F number of the photographing lens 500 can take various values. However, in this embodiment, unless otherwise described. The open F number will be described assuming a constant value of F2 regardless of the zoom state or the focus state.

[撮像素子の構成]
図2は撮像素子101の構成を説明する図である。本実施例の撮像素子101は撮像面で位相差式の焦点検出を行う、所謂撮像面位相差AF方式を採用した撮像素子である。本実施例では、一例として、撮像素子101と撮像素子102は、後述するマイクロレンズの偏心量を除き、同一構造で同一画素数を有する構成であるとして説明する。よって撮像素子102についての説明は省略する。ただし、撮像素子101と撮像素子102とでは異なる構造・構成を有していても良く、その例を実施例2〜実施例4において後述する。
[Configuration of image sensor]
FIG. 2 is a diagram illustrating the configuration of the image sensor 101. The image sensor 101 of the present embodiment is an image sensor that employs a so-called image plane phase difference AF method that performs phase difference type focus detection on the image plane. In the present embodiment, as an example, the image sensor 101 and the image sensor 102 will be described as having the same structure and the same number of pixels except for the amount of eccentricity of a microlens described later. Therefore, description of the image sensor 102 is omitted. However, the image sensor 101 and the image sensor 102 may have different structures and configurations, and examples thereof will be described later in Embodiments 2 to 4.

同図(a)は撮像面の中央近傍(像高0付近)における一部の画素部を撮影レンズ側から見た平面図である。撮像素子101が有する複数の画素部はそれぞれ撮像面上の水平方向(x)、垂直方向(y)共に4μmの大きさを有した正方形の画素部である。これらの画素部が水平方向に6000画素、垂直方向に4000画素配列された、有効画素数2400万画素の撮像素子である。撮像領域の大きさは画素部の大きさ、すなわち画素ピッチに画素数を乗じれば求めることができ、この場合は水平方向に24mm、垂直方向に16mmとなる。各画素部にはRGBのカラーフィルタがモザイク状に配列されている。   FIG. 4A is a plan view of a part of the pixel portion in the vicinity of the center of the imaging surface (near the image height of 0) as viewed from the photographing lens side. The plurality of pixel portions included in the imaging element 101 are square pixel portions each having a size of 4 μm in the horizontal direction (x) and the vertical direction (y) on the imaging surface. The image sensor is an image sensor having 24 million effective pixels, in which these pixel portions are arranged in a horizontal direction of 6000 pixels and a vertical direction of 4000 pixels. The size of the imaging region can be obtained by multiplying the size of the pixel portion, that is, the pixel pitch by the number of pixels. In this case, the size is 24 mm in the horizontal direction and 16 mm in the vertical direction. In each pixel portion, RGB color filters are arranged in a mosaic pattern.

同図(b)は上記画素群のうちの一つの画素部の断面図である。CMOSイメージセンサの基体を成すシリコン基板101dは、光電変換部101a(第1の光電変換部)及び光電変換部101b(第2の光電変換部)を有する。また、シリコン基板101dは、光電変換部101a及び光電変換部101bで発生した電荷を電圧に変換して外部に読み出すスイッチングトランジスタ(不図示)等を有し、光電変換後の信号は配線層101eによって読み出される。   FIG. 2B is a cross-sectional view of one pixel portion in the pixel group. A silicon substrate 101d that forms a base of the CMOS image sensor includes a photoelectric conversion unit 101a (first photoelectric conversion unit) and a photoelectric conversion unit 101b (second photoelectric conversion unit). In addition, the silicon substrate 101d includes a switching transistor (not shown) that converts the electric charges generated in the photoelectric conversion unit 101a and the photoelectric conversion unit 101b into a voltage and reads them out, and a signal after photoelectric conversion is transmitted by the wiring layer 101e. Read out.

各配線層101eは透明な層間膜101fによって絶縁されている。オンチップマイクロレンズ101cの下には色分離用のカラーフィルタ101gが設けられている。オンチップマイクロレンズ101cの形状は、その焦点位置が光電変換部101a及び光電変換部101bの上面に略一致するように決められる。そのため、光電変換部101a及び101bはオンチップマイクロレンズ101cを介して、後述する撮影レンズ500の射出瞳EP近傍に逆投影され、該逆投影像が位相差式焦点検出の際の焦点検出瞳として機能する。そして、位相差式の焦点検出を行なう際は、光電変換部101a及び光電変換部101bの出力信号を個別に処理して一対2像の位相差像を生成する。カメラCPU104(第1の焦点検出手段)が、当該2像の相対的な像ずれ量から、撮像面における被写体像のデフォーカス量を算出する。本実施例において、焦点検出とは、2像の位相差をもとにデフォーカス量を算出することである。また、AFE114(加算制御手段)が一対の光電変換部101a及び101bの信号を加算して静止画又は動画の記録画像信号もしくはライブビュー用(表示用)の画像信号を得る。なお、当該加算処理は専用の回路を設けて行っても良いし、撮像素子が光電変換部101a及び光電変換部101bの出力信号を個別に出力したのちに、撮像素子内で加算して出力しても良い。   Each wiring layer 101e is insulated by a transparent interlayer film 101f. A color filter 101g for color separation is provided under the on-chip microlens 101c. The shape of the on-chip microlens 101c is determined so that the focal position thereof substantially coincides with the upper surfaces of the photoelectric conversion unit 101a and the photoelectric conversion unit 101b. Therefore, the photoelectric conversion units 101a and 101b are back-projected through the on-chip microlens 101c to the vicinity of an exit pupil EP of the photographing lens 500 described later, and the backprojected image is used as a focus detection pupil for phase difference focus detection. Function. When performing phase difference type focus detection, the output signals of the photoelectric conversion unit 101a and the photoelectric conversion unit 101b are individually processed to generate a pair of phase difference images. The camera CPU 104 (first focus detection unit) calculates the defocus amount of the subject image on the imaging surface from the relative image shift amount of the two images. In this embodiment, focus detection is to calculate the defocus amount based on the phase difference between two images. Further, the AFE 114 (addition control means) adds the signals of the pair of photoelectric conversion units 101a and 101b to obtain a recorded image signal of a still image or a moving image or an image signal for live view (for display). Note that the addition processing may be performed by providing a dedicated circuit, or after the image pickup device individually outputs the output signals of the photoelectric conversion unit 101a and the photoelectric conversion unit 101b, the addition processing is performed in the image pickup device and output. May be.

図3は本実施例の撮像素子101の読み出し回路の構成を示したものである。光電変換部101a及び光電変換部101bは1つの画素部に配置された一対の光電変換部、121は水平走査回路、123は垂直走査回路である。そして各画素部の境界部には、水平走査ライン122a及び122bと、垂直走査ライン124a及び124bが配線され、各光電変換部からの信号は、これらの走査ラインを介して外部に読み出される。撮像素子102もこれと同様の読み出し回路を有しているため、説明は省略する。   FIG. 3 shows the configuration of the readout circuit of the image sensor 101 of this embodiment. The photoelectric conversion unit 101a and the photoelectric conversion unit 101b are a pair of photoelectric conversion units arranged in one pixel unit, 121 is a horizontal scanning circuit, and 123 is a vertical scanning circuit. In addition, horizontal scanning lines 122a and 122b and vertical scanning lines 124a and 124b are wired at the boundary between the pixel portions, and signals from the photoelectric conversion units are read out to the outside through these scanning lines. Since the image sensor 102 also has a readout circuit similar to this, description thereof is omitted.

本実施例の撮像素子101及び撮像素子102は、以下の2種類の読み出しモードを有する。第1の読み出しモードは全画素読み出しモードと称するもので、記録用の静止画や動画を撮像するためのモードである。この場合は、全画素部の信号が読み出される。第2の読み出しモードは間引き読み出しモードと称するもので、上記記録用の静止画よりも画素数の少ないライブビュー画像の表示を行うためのモードである。ライブビュー画像とは、撮像素子が取得した画像をファインダ内表示器107や外部表示器110にリアルタイムで表示するための画像である。ライブビューに必要な画素数は全画素数よりも少ないため、撮像素子はx方向及びy方向ともに所定比率に間引いた画素部のみから信号読み出すことで、信号処理回路の処理負荷を軽減するとともに、消費電力の低減にも寄与する。また、第1及び第2のいずれの読み出しモードにおいても、各画素部が備える一対2個の光電変換部の信号は独立して読み出し可能であるため、いずれのモードにおいても焦点検出のための信号(デフォーカス量算出のための信号)の生成が可能である。   The image sensor 101 and the image sensor 102 of the present embodiment have the following two types of readout modes. The first readout mode is referred to as an all-pixel readout mode, and is a mode for capturing a still image or moving image for recording. In this case, signals of all the pixel portions are read out. The second readout mode is called a thinning readout mode, and is a mode for displaying a live view image having a smaller number of pixels than the recording still image. The live view image is an image for displaying an image acquired by the image sensor on the in-finder display 107 or the external display 110 in real time. Since the number of pixels required for live view is smaller than the total number of pixels, the image sensor reads out signals only from the pixel portion thinned at a predetermined ratio in both the x direction and the y direction, thereby reducing the processing load on the signal processing circuit. It also contributes to reduction of power consumption. In both the first and second readout modes, the signals of the one to two photoelectric conversion units included in each pixel unit can be independently read out. Therefore, the signal for focus detection in any mode. (A signal for defocus amount calculation) can be generated.

なお、本実施例では撮像素子101は主として静止画撮影用に用いられるが、動画撮影を禁止するものでは無い。たとえば、撮像素子102で動画撮影中に、撮像素子101は先に説明した間引き読み画像を動画として記録することも可能である。同様に、撮像素子102は主として動画撮影用に用いられるが、静止画撮影も可能である。例えば、動画記録中に所望の1フレームを静止画として記録することも可能である。   In this embodiment, the image sensor 101 is mainly used for still image shooting, but does not prohibit moving image shooting. For example, during moving image shooting by the image sensor 102, the image sensor 101 can record the thinned-out image described above as a moving image. Similarly, the image sensor 102 is mainly used for moving image shooting, but still image shooting is also possible. For example, it is possible to record one desired frame as a still image during moving image recording.

[射出瞳・射出瞳距離(レンズ瞳距離)]
図4は、撮影レンズ500の射出瞳距離(レンズ瞳距離)PL1とセンサ瞳距離PSについて説明する図である。図4(a)は撮像素子101の説明図、図4(b)は撮像素子102の説明図である。まず、撮影レンズの射出瞳距離(レンズ瞳距離)PL1について説明する。
[Exit pupil / exit pupil distance (lens pupil distance)]
FIG. 4 is a diagram illustrating the exit pupil distance (lens pupil distance) PL1 and the sensor pupil distance PS of the photographing lens 500. 4A is an explanatory diagram of the image sensor 101, and FIG. 4B is an explanatory diagram of the image sensor 102. First, the exit pupil distance (lens pupil distance) PL1 of the photographing lens will be described.

図4(a)には撮影レンズ500の光学要素部と、撮像素子101が有する2個の画素部1011及び1012が図示されている。画素部1011は撮像面中央、すなわち像高x=0に配置された画素部、画素部1012は撮像面の端に近い場所、例えば像高x=10mmに配置された画素部である。   FIG. 4A illustrates an optical element portion of the photographing lens 500 and two pixel portions 1011 and 1012 included in the image pickup device 101. The pixel unit 1011 is a pixel unit disposed at the center of the imaging surface, that is, the image height x = 0, and the pixel unit 1012 is a pixel unit disposed at a location near the end of the imaging surface, for example, the image height x = 10 mm.

当実施例を構成する撮影レンズ500は焦点距離が可変のズームレンズであり、ズーム操作に応じて焦点距離、開放Fナンバ、及び射出瞳距離PL1(後述)が変化する。図4においては、撮影レンズ500の焦点距離は広角端に設定されているものとする。撮影レンズ500を構成する第1レンズ群501は、その最前面が前枠501rで不図示のレンズ鏡筒に保持され、同じく第3レンズ群503の最後面は後枠503rでレンズ鏡筒に保持されている。第1レンズ群501と第3レンズ群503の間には虹彩絞り505がある。当図における虹彩絞りの開口は開放状態を示している。絞りが開放の時、画素部1011に到達する光束のうち、最も外側の光線L11aとL11bは虹彩絞り505の開口部で規制された光線となり、この光線がなす角度θ11は広角端における開放Fナンバに対応する光束の角度である。   The photographing lens 500 constituting this embodiment is a zoom lens having a variable focal length, and the focal length, the open F number, and the exit pupil distance PL1 (described later) change according to the zoom operation. In FIG. 4, it is assumed that the focal length of the taking lens 500 is set at the wide angle end. The first lens group 501 constituting the photographing lens 500 has its frontmost surface held by a lens barrel (not shown) with a front frame 501r, and similarly, the rearmost surface of the third lens group 503 is held by a lens barrel with a rear frame 503r. Has been. There is an iris diaphragm 505 between the first lens group 501 and the third lens group 503. The aperture of the iris diaphragm in this figure shows the open state. When the aperture is open, the outermost rays L11a and L11b out of the light beams reaching the pixel unit 1011 become rays regulated by the opening of the iris diaphragm 505, and the angle θ11 formed by these rays is the open F number at the wide angle end. Is the angle of the luminous flux corresponding to.

一方で、撮影レンズ500を通過して撮像面の端付近に配置された画素部1012に到達する光束は、光線L12aとL12bに挟まれた領域内の光束となる。ここで、光線L12aは前枠501rで規制された光線で、いわゆる下線と称される光線である。また、光線L12bは後枠503rで規制された光線で、上線と称される光線である。上線L12bと下線L12aのなす角度θ12は、口径食のために画面中央の光線角度θ11よりも小さくなっている。   On the other hand, the light beam that passes through the photographing lens 500 and reaches the pixel portion 1012 disposed in the vicinity of the end of the imaging surface is a light beam in an area sandwiched between the light beams L12a and L12b. Here, the light beam L12a is a light beam regulated by the front frame 501r, and is a so-called underline. The light beam L12b is a light beam regulated by the rear frame 503r and is a light beam called an overline. The angle θ12 formed by the upper line L12b and the lower line L12a is smaller than the light beam angle θ11 at the center of the screen due to vignetting.

上線L12bと下線L12aの中間の光線L12cが主光線であり、光軸L11cと主光線L12cの交角は角度β1をなしている。そして、光軸L11cと主光線L12cが交差する点CL1をとおり、光軸L11cに垂直な面が、射出瞳が位置する面である射出瞳面EPL1である。また、射出瞳面EPL1上において、画素部1012へ到達する光束が通る領域が画素部1012からみた射出瞳EP(図4では不図示)である。撮像面と射出瞳EP(又は射出瞳面EPL1)の間隔(距離)が射出瞳距離PL1となる。ここでは撮影レンズの射出瞳距離PL1をレンズ瞳距離PL1とも称する。射出瞳EPの位置は撮影レンズ500のズームやフォーカスの状態変化により変化することから、レンズ瞳距離PL1も撮影レンズ500のズームやフォーカスの状態変化により変化する。   An intermediate ray L12c between the upper line L12b and the lower line L12a is the principal ray, and the intersection angle of the optical axis L11c and the principal ray L12c forms an angle β1. A plane perpendicular to the optical axis L11c passing through the point CL1 where the optical axis L11c and the principal ray L12c intersect is an exit pupil plane EPL1 on which the exit pupil is located. On the exit pupil plane EPL1, the region through which the light beam reaching the pixel portion 1012 passes is the exit pupil EP (not shown in FIG. 4) viewed from the pixel portion 1012. An interval (distance) between the imaging surface and the exit pupil EP (or exit pupil plane EPL1) is an exit pupil distance PL1. Here, the exit pupil distance PL1 of the photographing lens is also referred to as a lens pupil distance PL1. Since the position of the exit pupil EP changes depending on the zoom and focus state changes of the photographing lens 500, the lens pupil distance PL1 also changes depending on the zoom and focus state changes of the photographing lens 500.

なお、虹彩絞りの絞り込みに応じて口径食が変化するため、撮影レンズ500のレンズ瞳距離PL1も厳密には絞り込み状態に応じても変化する。ただし、一般的には絞り込みによる射出瞳距離PL1の変動が僅少となるようにレンズ設計が行なわれるため、絞り込みによる射出瞳距離の変化は無視し得ることが多い。そこで、本実施例においても、射出瞳距離はズーム状態やフォーカス状態に応じて変化するが、絞り値に対しては不変であるとして説明する。   Note that since the vignetting changes according to the iris diaphragm being narrowed down, the lens pupil distance PL1 of the photographing lens 500 also changes strictly depending on the narrowed state. However, in general, since the lens design is performed so that the variation of the exit pupil distance PL1 due to the narrowing is small, the change in the exit pupil distance due to the narrowing is often negligible. Therefore, in this embodiment as well, the exit pupil distance changes according to the zoom state and the focus state, but will be described as being unchanged with respect to the aperture value.

[焦点検出瞳]
次に、画素部の構造と焦点検出瞳について説明する。画素部1011は撮像領域の中央、すなわち撮影レンズの光軸上に位置した画素部である。一対の光電変換部1011a及び1011bは隣接配置され、その境界部が極小幅の不感帯である。該境界部の中心が画素部の中心と一致しており、一対の光電変換部はx方向において画素部の中心に対して対称形状である。よって、個々の光電変換部の重心位置は画素部の中心に対してx方向に等距離である。主点1011pは該画素部が備えるマイクロレンズ1011cの光線屈折作用を考える上での基準位置であり、主点1011pを通って光軸に直交する面が撮像素子101の予定結像面、いわゆる撮像面IP1となる。すなわち、撮影レンズ500によって形成される被写体像のピント位置が各マイクロレンズの主点1011pを連ねた予定結像面IP1上に一致する状態が合焦で、この時に撮像素子が取得する被写体像が最も先鋭なものとなる。なお、マイクロレンズの厚さは1μm程度であり、マイクロレンズの頂点と主点1011pの間隔は更に小さな値であるため、主点1011pはマイクロレンズの頂点とみなしても差し支えない。
[Focus detection pupil]
Next, the structure of the pixel portion and the focus detection pupil will be described. The pixel unit 1011 is a pixel unit located at the center of the imaging region, that is, on the optical axis of the photographing lens. The pair of photoelectric conversion units 1011a and 1011b are arranged adjacent to each other, and the boundary portion is a dead zone having a minimum width. The center of the boundary portion coincides with the center of the pixel portion, and the pair of photoelectric conversion portions are symmetrical with respect to the center of the pixel portion in the x direction. Therefore, the gravity center positions of the individual photoelectric conversion units are equidistant in the x direction with respect to the center of the pixel unit. The principal point 1011p is a reference position for considering the light refraction action of the microlens 1011c included in the pixel portion, and a plane that passes through the principal point 1011p and is perpendicular to the optical axis is a so-called imaging surface of the image sensor 101, so-called imaging. It becomes surface IP1. That is, the state where the focus position of the subject image formed by the photographic lens 500 is coincident with the planned imaging plane IP1 connecting the principal points 1011p of each microlens is in focus, and the subject image acquired by the image sensor at this time is in focus. It will be the most advanced. Since the thickness of the microlens is about 1 μm and the distance between the apex of the microlens and the main point 1011p is a smaller value, the main point 1011p can be regarded as the apex of the microlens.

画素部1011はマイクロレンズ1011cの光軸と画素部の中心(一対の光電変換部の境界中心)が一致している。一方、撮像面IP1の端部に位置する画素部1012においては、マイクロレンズ1012cの光軸と画素部の中心が一致しておらず、撮影レンズ500の光軸寄りに所定量dx1だけ偏心している。ここで、一対の光電変換部の境界部の中心とマイクロレンズの主点を結ぶ線を画素部の主光線と定義する。すると、画素部の主光線は光軸に対して所定の角度ω1だけ傾斜することになり、撮像面IP1から所定距離だけ隔たった点CS1で光軸と交差する。この交点CS1をとおり光軸と直交する仮想面をセンサ瞳面SPL1、センサ瞳面SPL1と撮像面IP1の間の距離PS1をセンサ瞳距離PS1と称する。センサ瞳面上ではすべての画素部の焦点検出瞳が実質的に一致する。その理由は後述する。   In the pixel portion 1011, the optical axis of the microlens 1011 c and the center of the pixel portion (boundary center of a pair of photoelectric conversion portions) are coincident. On the other hand, in the pixel portion 1012 located at the end of the imaging surface IP1, the optical axis of the micro lens 1012c and the center of the pixel portion do not coincide with each other, and are decentered by a predetermined amount dx1 near the optical axis of the photographing lens 500. . Here, a line connecting the center of the boundary between the pair of photoelectric conversion units and the principal point of the microlens is defined as a principal ray of the pixel unit. Then, the principal ray of the pixel portion is inclined by a predetermined angle ω1 with respect to the optical axis, and intersects the optical axis at a point CS1 separated from the imaging surface IP1 by a predetermined distance. A virtual plane passing through the intersection CS1 and orthogonal to the optical axis is referred to as a sensor pupil plane SPL1, and a distance PS1 between the sensor pupil plane SPL1 and the imaging plane IP1 is referred to as a sensor pupil distance PS1. On the sensor pupil plane, the focus detection pupils of all the pixel portions substantially coincide. The reason will be described later.

撮像面中央の画素部1011において、マイクロレンズ1011cの主点1011pと一対の光電変換部の上面間の高さh1が画素部の光学的な高さである。厳密な光学的高さは、機械的寸法である高さh1に画素部内の光路部分の屈折率を乗じた値であるが、ここでは説明を平易にするため、図示した高さh1を画素部の高さとする。そして、マイクロレンズ1011cの焦点が光電変換部1011a及び光電変換部1011bの上面と略一致するように、マイクロレンズ1011cの形状(光学パワー)が設定されている。ここで図4においては、画素部の高さh1に対してレンズ瞳距離PL1及びセンサ瞳距離PS1は数倍程度の大きさに描かれている。しかし、現実には画素部の高さh1がマイクロメートルオーダーであるのに対して、レンズ瞳距離PL1及びセンサ瞳距離PS1は数10mmオーダーであり、両者の大きさには4桁程度の開きがある。すなわち、マイクロレンズの集光作用を考える場合、画素部1011から見た撮影レンズの射出瞳やセンサ瞳面は非常に遠方にあると見なせる。そこで、マイクロレンズ1011cの焦点位置が光電変換部の上面に略一致していると、光電変換部の上面は遠方にある平面上に投影されることになるが、その投影像の大きさは投影される面の距離に比例する。ここで、投影面を前述のセンサ瞳面SPL1とすると、センサ瞳面SPL1上には一対の光電変換部1011a及び1011bに対応する一対の逆投影像AP1a及びAP1bが形成され、これが焦点検出時の光束を規定する焦点検出瞳となる。すなわち、光電変換部1011aは逆投影像AP1aに対応する領域の光束を受光し光電変換する。また光電変換部1011bは逆投影像AP1bに対応する領域の光束を受光し光電変換する。このことから、光電変換部1011a及び1011bは互いに視差を有する光束を受光する。   In the pixel portion 1011 at the center of the imaging surface, the height h1 between the principal point 1011p of the microlens 1011c and the upper surfaces of the pair of photoelectric conversion portions is the optical height of the pixel portion. The strict optical height is a value obtained by multiplying the mechanical dimension height h1 by the refractive index of the optical path portion in the pixel unit. However, for the sake of simplicity of explanation, the illustrated height h1 is used as the pixel unit. Of height. The shape (optical power) of the microlens 1011c is set so that the focal point of the microlens 1011c substantially coincides with the upper surfaces of the photoelectric conversion units 1011a and 1011b. Here, in FIG. 4, the lens pupil distance PL1 and the sensor pupil distance PS1 are drawn several times as large as the height h1 of the pixel portion. However, in reality, the height h1 of the pixel portion is on the order of micrometers, whereas the lens pupil distance PL1 and the sensor pupil distance PS1 are on the order of several tens of millimeters, and there is a gap of about 4 digits in the size of both. is there. That is, when considering the light condensing action of the microlens, it can be considered that the exit pupil and the sensor pupil plane of the photographing lens viewed from the pixel unit 1011 are very far away. Therefore, if the focal position of the microlens 1011c is substantially coincident with the upper surface of the photoelectric conversion unit, the upper surface of the photoelectric conversion unit is projected on a distant plane, but the size of the projected image is projected. It is proportional to the distance of the surface to be done. Here, if the projection plane is the aforementioned sensor pupil plane SPL1, a pair of back-projected images AP1a and AP1b corresponding to the pair of photoelectric conversion units 1011a and 1011b are formed on the sensor pupil plane SPL1, and this is the focus detection time. It becomes a focus detection pupil that defines the luminous flux. That is, the photoelectric conversion unit 1011a receives a light beam in a region corresponding to the backprojection image AP1a and photoelectrically converts it. In addition, the photoelectric conversion unit 1011b receives and photoelectrically converts a light beam in a region corresponding to the backprojected image AP1b. Thus, the photoelectric conversion units 1011a and 1011b receive light beams having parallax with each other.

[画素部の構造とセンサ瞳距離]
次に、画素部1012の構造とセンサ瞳距離PS1の関係について説明する。同図(a)において、画素部1012のx座標をX1とすると、マイクロレンズ1012cの主点及びセンサ瞳面上の点CS1を頂点とする2つの三角形の相似関係より、
X1/(PS1+h1)=dx1/h1 (式1)
となる。ここで、PS1≫h1なので、左項の分母PS1+h1はPS1と近似でき、式4を変形すると、
PS1=X1×(h1/dx1) (式2)
dx1=h1×(X1/PS1) (式3)
が得られる。
[Pixel structure and sensor pupil distance]
Next, the relationship between the structure of the pixel unit 1012 and the sensor pupil distance PS1 will be described. In the same figure (a), when the x coordinate of the pixel unit 1012 is X1, the similarity between two triangles having the principal point of the microlens 1012c and the point CS1 on the sensor pupil plane as vertices,
X1 / (PS1 + h1) = dx1 / h1 (Formula 1)
It becomes. Here, since PS1 >> h1, the denominator PS1 + h1 in the left term can be approximated to PS1.
PS1 = X1 × (h1 / dx1) (Formula 2)
dx1 = h1 × (X1 / PS1) (Formula 3)
Is obtained.

また、画素部1012の画素構造や各部の寸法は、マイクロレンズの偏心量を除いて画素部1011と同一である。よって、センサ瞳面SPL1上には、一対の光電変換部1012a及び1012bに対応する一対の逆投影像が形成され、この逆投影像は画素部1011の光電変換部の逆投影像AP1a及びAP1bと実質的に同一となる。すなわち、任意の画素部において、式3が成り立つように各画素のマイクロレンズの偏心量を設定することにより、すべての画素のセンサ瞳距離PSがセンサ瞳距離PS1となる。そして、センサ瞳面上においてはすべての画素の焦点検出瞳がAP1a及びAP1bに共通化される。すなわち、マイクロレンズアレイを介して各画素が備える光電変換部とセンサ瞳面とが共役な関係になり、すべての画素の焦点検出瞳がセンサ瞳面上で実質的に一致することになる。   The pixel structure of the pixel portion 1012 and the dimensions of each portion are the same as those of the pixel portion 1011 except for the amount of eccentricity of the microlens. Therefore, a pair of backprojected images corresponding to the pair of photoelectric conversion units 1012a and 1012b is formed on the sensor pupil plane SPL1, and these backprojected images are backprojected images AP1a and AP1b of the photoelectric conversion unit of the pixel unit 1011. It becomes substantially the same. That is, by setting the amount of eccentricity of the microlens of each pixel so that Equation 3 is satisfied in an arbitrary pixel portion, the sensor pupil distance PS of all the pixels becomes the sensor pupil distance PS1. On the sensor pupil plane, the focus detection pupils of all the pixels are shared by AP1a and AP1b. That is, the photoelectric conversion unit included in each pixel and the sensor pupil plane are in a conjugate relationship via the microlens array, and the focus detection pupils of all the pixels substantially coincide on the sensor pupil plane.

[焦点検出瞳の基線長(撮像素子101)]
次に焦点検出瞳の基線長について説明する。画素部1011における一対の光電変換部1011a及び1011bは、x方向において対称形状となっており、各々の光電変換部における感度重心位置のx方向間隔をGS1とする。ここで、該光電変換部の感度重心位置とマイクロレンズ1011cの主点1011pを結び、撮影レンズの射出瞳方向に延長した線を光電変換部の主光線と定義する。マイクロレンズの主点を頂点とし、一対2本の主光線S11aとS11bが形成する2つの三角形の相似関係より、
GP1/PS1=GS1/h1 (式4)
が導かれ、これを変形すると、焦点検出瞳の基線長GP1は次式、
GP1=GS1×(PS1/h1) (式5)
となる。また、一対の焦点検出光束における一対の主光線S11aとS11bのなす角度が基線角度α11で、sinα≒tanα≒αの近似が成り立つ領域では、
α11=GS1/h1=GP1/PS1 (式6)
となる。
[Baseline length of focus detection pupil (image sensor 101)]
Next, the baseline length of the focus detection pupil will be described. The pair of photoelectric conversion units 1011a and 1011b in the pixel unit 1011 has a symmetrical shape in the x direction, and the interval in the x direction of the sensitivity centroid position in each photoelectric conversion unit is GS1. Here, a line extending between the sensitivity gravity center position of the photoelectric conversion unit and the principal point 1011p of the microlens 1011c and extending in the exit pupil direction of the photographing lens is defined as a principal ray of the photoelectric conversion unit. From the similarity of two triangles formed by a pair of principal rays S11a and S11b with the principal point of the microlens as the apex,
GP1 / PS1 = GS1 / h1 (Formula 4)
Is derived, the base length GP1 of the focus detection pupil is expressed by the following equation:
GP1 = GS1 × (PS1 / h1) (Formula 5)
It becomes. In the region where the angle formed by the pair of principal rays S11a and S11b in the pair of focus detection light beams is the base line angle α11 and the approximation of sin α≈tan α≈α holds.
α11 = GS1 / h1 = GP1 / PS1 (Formula 6)
It becomes.

撮像面の端部に位置する画素部1012においても、光電変換部1012aの感度重心位置と光電変換部1012bの感度重心位置のx方向間隔はGS1であり、一対の光電変換部の主光線S12aとS12bが定義でき、前述の式1及び式2が成り立つ。すなわち、画素部1011と画素部1012において、焦点検出瞳の基線長は互いに等しい値GP1となる。一方で、両者の基線角度は厳密には異なり、画素部1011の基線角度はα11、画素部1012の基線角度はα12となり、α11>α12の関係となる。   Also in the pixel unit 1012 located at the end of the imaging surface, the x-direction interval between the sensitivity gravity center position of the photoelectric conversion unit 1012a and the sensitivity gravity center position of the photoelectric conversion unit 1012b is GS1, and S12b can be defined, and Equations 1 and 2 described above hold. That is, in the pixel portion 1011 and the pixel portion 1012, the baseline lengths of the focus detection pupils are equal to each other GP1. On the other hand, the baseline angles of the two are strictly different, the baseline angle of the pixel portion 1011 is α11, the baseline angle of the pixel portion 1012 is α12, and α11> α12.

基線長という用語は、2眼式ステレオカメラや、外測式位相差検出モジュールにおける一対の光学系の入射瞳間の距離を指すが、本実施例における撮像面位相差検出方式ではセンサ瞳面SPL1上の一対の光束の間の距離GP1を基線長と称している。この場合、センサ瞳面SPL1と撮像面IP1の間隔であるセンサ瞳距離PS1が変わると基線長GP1も変化してしまうので、基線長の長短を比較する場合は、センサ瞳距離PS1を揃えて比較する必要がある。また、図4に示した基線長GP1及びGP2は画素部単体の基線長だが、焦点検出時には焦点検出瞳が撮影レンズ500の射出瞳でけられるため、けられ状況に応じて基線長も短くなる。なお、基線角度α11はレンズ瞳距離PLやセンサ瞳距離PSには依存せず、画素の構造と寸法のみで決まるため、撮像素子単体の焦点検出能力を比較する場合は基線角度αによって比較することができる。位相差検出時の一対2像の相対的な横ずれ量は基線長GP1もしくは基線角度α11に比例するので、これらの値が大きいほど、焦点検出分解能が高い。   The term “base line length” refers to the distance between the entrance pupils of a pair of optical systems in a binocular stereo camera or an external measurement type phase difference detection module. In the imaging plane phase difference detection method in this embodiment, the sensor pupil plane SPL1. A distance GP1 between the upper pair of light beams is referred to as a base line length. In this case, if the sensor pupil distance PS1, which is the distance between the sensor pupil plane SPL1 and the imaging plane IP1, changes, the baseline length GP1 also changes. Therefore, when comparing the lengths of the baseline lengths, the sensor pupil distance PS1 is aligned and compared. There is a need to. In addition, although the baseline lengths GP1 and GP2 shown in FIG. 4 are the baseline lengths of the pixel unit alone, the focus detection pupil is positioned at the exit pupil of the photographing lens 500 at the time of focus detection. . Note that the baseline angle α11 does not depend on the lens pupil distance PL or the sensor pupil distance PS, but is determined only by the structure and dimensions of the pixels. Therefore, when comparing the focus detection capabilities of the image pickup elements alone, the baseline angle α11 should be compared. Can do. Since the relative lateral shift amount of the pair of two images at the time of detecting the phase difference is proportional to the baseline length GP1 or the baseline angle α11, the larger these values are, the higher the focus detection resolution is.

[焦点検出瞳の基線長(撮像素子102)]
次に、撮像素子102に対応する焦点検出瞳の基線長について説明する。画素部1021における一対の光電変換部1021a及び1012bは、撮像素子101の画素部1011と同様にx方向において対称形状となっており、各々の光電変換部における感度重心位置のx方向間隔をGS2とする。また、画素部の高さはh2である。すると、撮像素子101における前述の式4ないし式6は、撮像素子102においては、
GP2/PS2=GS2/h2 (式12)
GP2=GS2×(PS2/h2) (式13)
α21=GS2/h2=GP2/PS2 (式14)
となる。そしてh1=h2、GS1=GS2であるため、撮像素子101と撮像素子102とでは基線角度は等しく、α11=α21となる。一方で、焦点検出瞳の基線長はGP2>GP1となり、両者は異なる値であるが、これは焦点検出瞳を投影する面と撮像面の間隔が異なることに起因する。そして、焦点検出精度は基線角度αに依存するため、撮像素子101と撮像素子102において、撮像面中央にある画素部単体の焦点検出性能は同一となる。撮像面の端部における画素部1022についても式12及び式13が成り立つため、撮像素子単体では撮像素子101と撮像素子102の焦点検出性能は等しい。
[Baseline length of focus detection pupil (image sensor 102)]
Next, the baseline length of the focus detection pupil corresponding to the image sensor 102 will be described. The pair of photoelectric conversion units 1021a and 1012b in the pixel unit 1021 has a symmetrical shape in the x direction like the pixel unit 1011 of the imaging element 101, and the x direction interval of the sensitivity centroid position in each photoelectric conversion unit is GS2. To do. Further, the height of the pixel portion is h2. Then, the above-described Expressions 4 to 6 in the image sensor 101 are as follows.
GP2 / PS2 = GS2 / h2 (Formula 12)
GP2 = GS2 × (PS2 / h2) (Formula 13)
α21 = GS2 / h2 = GP2 / PS2 (Formula 14)
It becomes. Since h1 = h2 and GS1 = GS2, the image sensor 101 and the image sensor 102 have the same base line angle, and α11 = α21. On the other hand, the baseline length of the focus detection pupil is GP2> GP1, and both are different values, which is due to the difference in the distance between the surface on which the focus detection pupil is projected and the imaging surface. Since the focus detection accuracy depends on the baseline angle α, the focus detection performance of the pixel unit alone at the center of the imaging surface is the same in the image sensor 101 and the image sensor 102. Since Expression 12 and Expression 13 also hold for the pixel portion 1022 at the end of the imaging surface, the focus detection performances of the imaging element 101 and the imaging element 102 are equal for the imaging element alone.

以上のごとく、撮像素子101と撮像素子102は、各画素部の基本的な特性は同一だが、センサ瞳距離PSが異なっている。よって、撮像面中央において両者は同等の焦点検出特性となるが、撮像面端部においては撮影レンズ500の射出瞳と撮像素子の焦点検出瞳の位置関係が異なり、焦点検出特性も異なる(図5を用いて後述する)。   As described above, the image pickup device 101 and the image pickup device 102 have the same basic characteristics of the respective pixel portions, but have different sensor pupil distances PS. Therefore, both have the same focus detection characteristics at the center of the imaging surface, but the positional relationship between the exit pupil of the photographing lens 500 and the focus detection pupil of the imaging device is different at the edge of the imaging surface, and the focus detection characteristics are also different (FIG. 5). To be described later).

[焦点検出原理]
撮像素子101及び撮像素子102を用いた焦点検出の原理を、以下に説明する。撮像素子101に配置された任意像高の画素部内の一方の光電変換部(図4の1011a及び1012a)は、マイクロレンズアレイを介して焦点検出瞳AP1aを通過した光束を受光し、光電変換信号Saを出力する。同様に画素部内の他方の光電変換部(図4の1011b及び1012b)は、マイクロレンズアレイを介して焦点検出瞳AP1bを通過した光束を受光し、光電変換信号Sbを出力する。そこで、x方向に連続して配置された複数の画素部が出力する信号Sa同士と、信号Sb同士を連ねた信号を、A像信号及びB像信号と定義する。すると、A像信号とB像信号は、被写体像のピントズレ状態に応じてx方向に横ずれしている(視差を有している)。この横ずれ量(位相差、又は像ずれ量とも称する)は、被写体像のピントズレ量すなわちデフォーカス量に比例するとともに、焦点検出瞳の基線長GP1あるいは基線角度α11にも比例する。
[Focus detection principle]
The principle of focus detection using the image sensor 101 and the image sensor 102 will be described below. One photoelectric conversion unit (1011a and 1012a in FIG. 4) in the pixel unit having an arbitrary image height arranged in the image sensor 101 receives the light beam that has passed through the focus detection pupil AP1a via the microlens array, and receives a photoelectric conversion signal. Sa is output. Similarly, the other photoelectric conversion unit (1011b and 1012b in FIG. 4) in the pixel unit receives the light beam that has passed through the focus detection pupil AP1b via the microlens array, and outputs a photoelectric conversion signal Sb. Thus, signals Sa output from a plurality of pixel portions arranged continuously in the x direction and signals obtained by connecting the signals Sb are defined as an A image signal and a B image signal. Then, the A image signal and the B image signal are laterally shifted in the x direction (has parallax) in accordance with the out-of-focus state of the subject image. This lateral shift amount (also referred to as phase difference or image shift amount) is proportional to the focus shift amount of the subject image, that is, the defocus amount, and is also proportional to the baseline length GP1 or the baseline angle α11 of the focus detection pupil.

次に図4(b)に示した撮像素子102の画素部構造と焦点検出瞳について説明する。本実施例においては、2つの撮像素子は1つの撮影レンズ500を共用しているが、撮影レンズ500から撮像素子102に向かう光束はビームスプリッタ103を介して90度折れ曲がる。そこで、撮像素子102上に形成される被写体像は鏡像であるが、ここでは光束を直線状に展開し、鏡像も元の正像に戻した状態で説明する。   Next, the pixel portion structure and focus detection pupil of the image sensor 102 shown in FIG. 4B will be described. In the present embodiment, the two imaging elements share one imaging lens 500, but the light beam traveling from the imaging lens 500 to the imaging element 102 is bent 90 degrees via the beam splitter 103. Therefore, the subject image formed on the image sensor 102 is a mirror image, but here, a description will be given in a state where the light beam is developed linearly and the mirror image is also returned to the original normal image.

図4(b)では撮像素子102が有する複数画素部のうち、2個の画素部1021及び画素部1022を図示している。画素部1021は撮像面中央、すなわち像高x=0mmに配置され、画素部1022は像高x=10mmに配置されている。   FIG. 4B illustrates two pixel portions 1021 and 1022 among a plurality of pixel portions included in the image sensor 102. The pixel unit 1021 is arranged at the center of the imaging surface, that is, at an image height x = 0 mm, and the pixel unit 1022 is arranged at an image height x = 10 mm.

撮像面中央の画素部1021は同図(a)の画素部1011と同一構成である。すなわち、画素部1021の画素部の高さh2は画素部1011の画素部の高さh1と同一であり、マイクロレンズ1021cの主点1021pをとおり光軸S21cに直交する面が撮像面IP2である。また、マイクロレンズ1021cの光軸は一対の光電変換部の境界部と一致し、かつマイクロレンズ1021cの焦点位置は一対の光電変換部の上面と略一致している。   The pixel unit 1021 at the center of the imaging surface has the same configuration as the pixel unit 1011 in FIG. That is, the height h2 of the pixel portion of the pixel portion 1021 is the same as the height h1 of the pixel portion of the pixel portion 1011 and the surface that passes through the principal point 1021p of the microlens 1021c and is orthogonal to the optical axis S21c is the imaging surface IP2. . The optical axis of the microlens 1021c coincides with the boundary between the pair of photoelectric conversion units, and the focal position of the microlens 1021c substantially coincides with the upper surfaces of the pair of photoelectric conversion units.

一方で、撮像面IP2の端部近傍に位置する画素部1022においては、撮像素子101の画素部1012と同様に、マイクロレンズ1022cの光軸が画素部の中心に対して偏心している。その偏心量は前述の所定量dx1とは異なる所定量dx2に設定されている。そこで、画素部1022の主光線S22c(一対の光電変換部境界とマイクロレンズの主点を結ぶ線)は光軸に対して所定の角度ω2だけ傾斜することになり、撮像面IP1から所定距離だけ隔たった点CS2で光軸と交差する。この交差点CS2をとおり光軸と直交する仮想面を、同図(a)で説明したものと同様にセンサ瞳面SPL2とし、センサ瞳面SPL2と撮像面IP2の間の距離PS2をセンサ瞳距離PS2と称する。   On the other hand, in the pixel portion 1022 located in the vicinity of the end portion of the imaging surface IP2, the optical axis of the micro lens 1022c is decentered with respect to the center of the pixel portion, like the pixel portion 1012 of the imaging element 101. The amount of eccentricity is set to a predetermined amount dx2 different from the aforementioned predetermined amount dx1. Therefore, the principal ray S22c of the pixel unit 1022 (a line connecting the boundary between the pair of photoelectric conversion units and the principal point of the microlens) is inclined by a predetermined angle ω2 with respect to the optical axis, and is only a predetermined distance from the imaging surface IP1. Crosses the optical axis at a separated point CS2. A virtual plane that passes through this intersection CS2 and is orthogonal to the optical axis is the sensor pupil plane SPL2 in the same manner as described with reference to FIG. 5A, and the distance PS2 between the sensor pupil plane SPL2 and the imaging plane IP2 is the sensor pupil distance PS2. Called.

よって、撮像素子101で説明したセンサ瞳距離PSに関する式1ないし及び式3は、撮像素子102においては、
X1/(PS2+h2)=dx2/h2 (式7)
PS2=X1×(h2/dx2) (式8)
dx2=h2×(X1/PS2) (式9)
となる。そして、画素部1022の画素構造や各部の寸法は、マイクロレンズの偏心量を除いて画素部1021と同一である。よって、センサ瞳面SPL2上には、一対の光電変換部1022a及び1022bに対応する一対の逆投影像が形成され、この逆投影像は画素部1021の光電変換部の逆投影像AP2a及びAP2bと実質的に同一となる。すなわち、任意の画素部において、式9が成り立つように当該画素部のマイクロレンズの偏心量を設定することにより、すべての画素部のセンサ瞳距離PSがセンサ瞳距離PS2となる。そして、センサ瞳面上においてはすべての画素部の焦点検出瞳がAP2a及びAP2bに共通化される。
Therefore, Expressions 1 to 3 related to the sensor pupil distance PS described in the image sensor 101 are as follows.
X1 / (PS2 + h2) = dx2 / h2 (Formula 7)
PS2 = X1 × (h2 / dx2) (Formula 8)
dx2 = h2 × (X1 / PS2) (Formula 9)
It becomes. The pixel structure of the pixel portion 1022 and the dimensions of each portion are the same as those of the pixel portion 1021 except for the amount of eccentricity of the microlens. Therefore, a pair of backprojected images corresponding to the pair of photoelectric conversion units 1022a and 1022b is formed on the sensor pupil plane SPL2, and these backprojected images are backprojected images AP2a and AP2b of the photoelectric conversion unit of the pixel unit 1021. It becomes substantially the same. That is, by setting the amount of eccentricity of the microlens of the pixel unit so that Equation 9 is satisfied in an arbitrary pixel unit, the sensor pupil distance PS of all the pixel units becomes the sensor pupil distance PS2. On the sensor pupil plane, the focus detection pupils of all the pixel portions are shared by AP2a and AP2b.

ここで、画素部1012のマイクロレンズ1022cの偏心量dx2は、同図(a)に示した撮像素子101における偏心量dx1より小さな値である。そのために、撮像面端部における主光線角度ωとセンサ瞳距離PSの大小関係は、
ω1>ω2 (式10)
PS1<PS2 (式11)
となる。
Here, the amount of eccentricity dx2 of the micro lens 1022c of the pixel portion 1012 is smaller than the amount of eccentricity dx1 in the image sensor 101 shown in FIG. Therefore, the magnitude relationship between the principal ray angle ω and the sensor pupil distance PS at the edge of the imaging surface is
ω1> ω2 (Formula 10)
PS1 <PS2 (Formula 11)
It becomes.

ここで、前述のように射出瞳距離EPL1は撮影レンズ500のズームやフォーカスの状態変化により変化する。さらには、装着される撮影レンズの種類が異なれば、射出瞳距離の変化範囲も異なる。従って、センサ瞳距離PS1とセンサ瞳距離PS2は、装着される可能性のある種々の撮影レンズのレンズ瞳距離EPL1を勘案して設定されるのが好ましい。その具体的な設定方法の例を以下に説明する。 カメラ本体100に装着される撮影レンズ500の射出瞳距離について、その最小値をPLmin、最大値をPLmaxとすると、センサ瞳距離PS1及びPS2はともにPLminとPLmaxの間に設定する。また、射出瞳距離の中間値をPLmidとすると、センサ瞳距離PS1及びPS2はその一方がPLmidより小さく、他方がPLmidより大きくなるように設定されるのが好ましい。   Here, as described above, the exit pupil distance EPL1 changes depending on the zooming or focusing state change of the photographing lens 500. Furthermore, the range of change in the exit pupil distance varies depending on the type of photographic lens to be mounted. Accordingly, the sensor pupil distance PS1 and the sensor pupil distance PS2 are preferably set in consideration of the lens pupil distance EPL1 of various photographing lenses that may be attached. An example of a specific setting method will be described below. With respect to the exit pupil distance of the photographing lens 500 attached to the camera body 100, if the minimum value is PLmin and the maximum value is PLmax, the sensor pupil distances PS1 and PS2 are both set between PLmin and PLmax. If the intermediate value of the exit pupil distance is PLmid, the sensor pupil distances PS1 and PS2 are preferably set so that one of them is smaller than PLmid and the other is larger than PLmid.

なお、撮像素子はその製造工程において、画素部の高さには所定の製造ばらつきを生ずるため、主光線角度ωとセンサ瞳距離PSもばらつきを生ずる。そこで、画素部の高さの製造ばらつきが生じても式10及び式11の大小関係が逆転しないようにすることも重要である。   In the manufacturing process of the imaging device, a predetermined manufacturing variation occurs in the height of the pixel portion. Therefore, the principal ray angle ω and the sensor pupil distance PS also vary. Therefore, it is also important that the magnitude relationship of Equation 10 and Equation 11 does not reverse even if manufacturing variations in the height of the pixel portion occur.

すなわち、以上のような条件を考慮してマイクロレンズの偏心量dx1及びdx2を設定するのが好ましい。   That is, it is preferable to set the eccentric amounts dx1 and dx2 of the microlens in consideration of the above conditions.

[像高に応じた、焦点検出瞳及び射出瞳の口径食]
図5は、図4に示したセンサ瞳面SPL1及びSPL2における、各画素部の焦点検出瞳と撮影レンズ500の射出瞳の相対的な位置関係を示した図である。同図(a)は撮像素子101の画素部1011に関する図、同図(b)は撮像素子101の画素部1012に関する図、同図(c)は撮像素子102の画素部1021に関する図、同図(d)は撮像素子102の画素部1022に関する図である。先に、焦点検出瞳の大きさは、焦点検出瞳の投影面距離に比例すると説明した。そして、同図(a)(b)と、同図(c)(d)は投影面であるセンサ瞳距離PSが異なるため、投影距離が揃うように図面の縮尺を調整している。また、いずれの図においても、センサ瞳面における光軸位置を原点としている。まず同図(a)について説明する。
[Vapor eclipse of focus detection pupil and exit pupil according to image height]
FIG. 5 is a diagram showing a relative positional relationship between the focus detection pupil of each pixel unit and the exit pupil of the photographing lens 500 on the sensor pupil planes SPL1 and SPL2 shown in FIG. 3A is a diagram related to the pixel portion 1011 of the image sensor 101, FIG. 1B is a diagram related to the pixel portion 1012 of the image sensor 101, FIG. 1C is a diagram related to the pixel portion 1021 of the image sensor 102, and FIG. FIG. 4D is a diagram related to the pixel portion 1022 of the image sensor 102. Previously, it has been described that the size of the focus detection pupil is proportional to the projection plane distance of the focus detection pupil. Since the sensor pupil distance PS, which is the projection plane, is different between FIGS. 10A and 10B, the scale of the drawing is adjusted so that the projection distances are the same. In any figure, the optical axis position on the sensor pupil plane is the origin. First, FIG. 1A will be described.

図5(a)は、撮像素子101の撮像面中央に位置する画素部1011からセンサ瞳面SPL1を見た時の焦点検出瞳と撮影レンズ500の射出瞳を示す。原点はセンサ瞳面SPL1と光軸の交点であり、図4(a)における点CS1である。一対の焦点検出瞳AP1a及びAP1bは、マイクロレンズ1011cを介して画素部1011が有する一対の光電変換部1011a及び1011bと光学的に共役関係にある。ただし、マイクロレンズ1011cの光学収差、及び画素部の大きさが微小であることによる光波の回折により、一対の焦点検出瞳AP1a及びAP1bは輪郭がぼけている。そして各焦点検出瞳はクロスハッチングで示した中心部に行くほど効率が高い、換言すれば中心部に近づくほど受光強度が高い。また、網点で示した領域は周辺部に行くほど効率が低い、換言すれば受光強度は低くなる。そして周辺部は互いの領域の一部が重なっている。   FIG. 5A shows the focus detection pupil and the exit pupil of the photographic lens 500 when the sensor pupil plane SPL1 is viewed from the pixel unit 1011 located at the center of the imaging plane of the imaging element 101. FIG. The origin is the intersection of the sensor pupil plane SPL1 and the optical axis, and is the point CS1 in FIG. The pair of focus detection pupils AP1a and AP1b are optically conjugate with the pair of photoelectric conversion units 1011a and 1011b included in the pixel unit 1011 via the micro lens 1011c. However, the contours of the pair of focus detection pupils AP1a and AP1b are blurred due to the optical aberration of the microlens 1011c and the diffraction of the light wave due to the small size of the pixel portion. Each focus detection pupil has higher efficiency as it goes to the center indicated by cross-hatching, in other words, the light reception intensity becomes higher as it approaches the center. Further, the efficiency of the region indicated by the halftone dots is lower toward the periphery, in other words, the received light intensity is lower. In the peripheral portion, a part of each region overlaps.

射出瞳EP11は撮影レンズ500における絞り開放時、すなわちF2における射出瞳であり、射出瞳EP11sは小絞り時に虹彩絞りが形成する開口で、F2よりも大きいFナンバ(例えばF5.6)である場合における射出瞳を示している。撮像面中央においては焦点検出瞳と射出瞳は原点である光軸に対して瞳分割方向(横軸u方向)に対称である。よって、焦点検出時のFナンバに関わりなく、一対の焦点検出瞳のけられは瞳分割方向に対称となり、画素部1011が有する一対の光電変換部1011aと1011bの受光信号強度は等しくなる。   The exit pupil EP11 is an exit pupil at the photographing lens 500 when the aperture is opened, that is, the exit pupil at F2, and the exit pupil EP11s is an aperture formed by the iris diaphragm at the time of a small aperture and has an F number larger than F2 (for example, F5.6). The exit pupil is shown in FIG. At the center of the imaging surface, the focus detection pupil and the exit pupil are symmetrical in the pupil division direction (horizontal axis u direction) with respect to the optical axis as the origin. Therefore, regardless of the F number at the time of focus detection, the shift of the pair of focus detection pupils is symmetric in the pupil division direction, and the received light signal intensity of the pair of photoelectric conversion units 1011a and 1011b included in the pixel unit 1011 is equal.

図5(b)は、撮像素子101の撮像面端部に位置する画素部1012からセンサ瞳面SPL1を見た時の焦点検出瞳と撮影レンズ500の射出瞳を示す。原点は同図(a)と同様に、図4(a)における点CS1である。一対の焦点検出瞳AP1a及びAP1bの形状と位置は図4(a)に示した画素部1011のものと同様であり、原点CS1に対して瞳分割方向に対称である。   FIG. 5B shows the focus detection pupil and the exit pupil of the photographing lens 500 when the sensor pupil plane SPL1 is viewed from the pixel unit 1012 located at the end of the imaging surface of the imaging element 101. FIG. The origin is the point CS1 in FIG. 4A, as in FIG. The shape and position of the pair of focus detection pupils AP1a and AP1b are the same as those of the pixel portion 1011 shown in FIG. 4A, and are symmetrical with respect to the origin CS1 in the pupil division direction.

射出瞳EP12は絞り開放時の射出瞳であるが、画素部1012から見た射出瞳は口径食により2つの円弧で囲まれた形状となり、u軸方向の幅は狭くなっている。また、射出瞳EP12sは同図(a)と同じく絞り値F5.6における射出瞳である。図4(a)で説明したように、レンズ瞳距離PL1と第1の撮像素子101のセンサ瞳距離PS1は若干異なっているため、開放及び絞り込み時の射出瞳中心CD1は焦点検出瞳の境界中心CS1に対して左方向に若干偏心している。しかしその偏心量は僅かであるため、一対の焦点検出瞳のけられは瞳分割方向に略対称となり、画素部1012が有する一対の光電変換部1012aと1012bの受光信号強度はほぼ等しい。   The exit pupil EP12 is an exit pupil when the aperture is opened, but the exit pupil viewed from the pixel portion 1012 has a shape surrounded by two arcs due to vignetting, and the width in the u-axis direction is narrow. Further, the exit pupil EP12s is an exit pupil at the aperture value F5.6 as in FIG. As described with reference to FIG. 4A, since the lens pupil distance PL1 and the sensor pupil distance PS1 of the first image sensor 101 are slightly different, the exit pupil center CD1 at the time of opening and narrowing is the boundary center of the focus detection pupil. It is slightly eccentric to the left with respect to CS1. However, since the amount of eccentricity is small, the displacement of the pair of focus detection pupils is substantially symmetric in the pupil division direction, and the light reception signal intensities of the pair of photoelectric conversion units 1012a and 1012b included in the pixel unit 1012 are substantially equal.

図5(c)は、撮像素子102の撮像面中央に位置する画素部1021からセンサ瞳面SPL2を見た時の焦点検出瞳と撮影レンズ500の射出瞳を示している。原点はセンサ瞳面SPL2と光軸の交点であり、図4(b)における点CS2である。一対の焦点検出瞳AP2a及びAP2bは、実質的に同図(a)の画素部1011のものと同一である。   FIG. 5C shows the focus detection pupil and the exit pupil of the photographing lens 500 when the sensor pupil plane SPL2 is viewed from the pixel unit 1021 located at the center of the imaging plane of the imaging element 102. FIG. The origin is the intersection of the sensor pupil plane SPL2 and the optical axis, and is the point CS2 in FIG. The pair of focus detection pupils AP2a and AP2b is substantially the same as that of the pixel portion 1011 in FIG.

また、絞り開放時の射出瞳EP21と、F5.6における射出瞳EP21sも同図(a)に示した射出瞳EP11及び射出瞳EP11sと同一である。よって、画素部1021においても焦点検出時のFナンバに関わりなく、一対の焦点検出瞳のけられは瞳分割方向に対称となり、一対の光電変換部1021aと1021bの受光信号強度は等しくなる。   Further, the exit pupil EP21 when the aperture is opened and the exit pupil EP21s at F5.6 are the same as the exit pupil EP11 and the exit pupil EP11s shown in FIG. Therefore, in the pixel unit 1021, regardless of the F number at the time of focus detection, the shift of the pair of focus detection pupils is symmetric in the pupil division direction, and the received light signal intensities of the pair of photoelectric conversion units 1021 a and 1021 b are equal.

図5(d)は、撮像素子102の撮像面端部に位置する画素部1022からセンサ瞳面SPL2を見た時の焦点検出瞳と撮影レンズの射出瞳を示す。当図の原点CS2は同図(c)と同様に、図4(b)における点CS2である。一対の焦点検出瞳AP2a及びAP2bは、図5(c)と同様に原点CS2に対して瞳分割方向に対称である。   FIG. 5D shows the focus detection pupil and the exit pupil of the photographing lens when the sensor pupil plane SPL2 is viewed from the pixel unit 1022 located at the end of the imaging surface of the imaging element 102. FIG. The origin CS2 in this figure is the point CS2 in FIG. 4B, as in FIG. The pair of focus detection pupils AP2a and AP2b are symmetric in the pupil division direction with respect to the origin CS2, as in FIG.

射出瞳EP22は絞り開放時の射出瞳であり、同図(b)と同様に、口径食により2つの円弧で囲まれた形状である。また、射出瞳EP22sは他の図と同じく絞り値F5.6における射出瞳である。図4(b)で説明したように、レンズ瞳距離PL1と撮像素子102のセンサ瞳距離PS2はかなり異なっているため、開放及び絞り込み時の射出瞳中心CD2は焦点検出瞳の境界中心CS2に対して左方向に大きく偏倚する。そこで、一対の焦点検出瞳のけられは瞳分割方向に非対称となり、画素部1022が有する一対の光電変換部1022aと1022bの受光信号強度は大きく異なる。この光量差(厳密には光量比)は、像高が大きく、また小絞りになるほど著しくなる。   The exit pupil EP22 is an exit pupil when the aperture is opened, and has a shape surrounded by two arcs by vignetting as in FIG. Further, the exit pupil EP22s is an exit pupil at the aperture value F5.6 as in the other drawings. As described with reference to FIG. 4B, since the lens pupil distance PL1 and the sensor pupil distance PS2 of the image sensor 102 are considerably different, the exit pupil center CD2 at the time of opening and narrowing is relative to the boundary center CS2 of the focus detection pupil. Greatly deviates to the left. Therefore, the shift of the pair of focus detection pupils is asymmetric in the pupil division direction, and the received light signal strengths of the pair of photoelectric conversion units 1022a and 1022b included in the pixel unit 1022 are greatly different. This light amount difference (strictly speaking, the light amount ratio) becomes more significant as the image height increases and the aperture becomes smaller.

[シェーディング特性と焦点検出性能]
図6は撮影レンズ500の絞り値を開放(ここではF2)、及びF5.6に絞り込んだ時の、一様な輝度分布を有する被写体を撮像した際の撮像素子の受光光量、すなわちシェーディング特性を説明する図である。同図(a)は撮像素子101の特性図であり、同図(b)は撮像素子102の特性図である。まず同図(a)について説明する。
[Shading characteristics and focus detection performance]
FIG. 6 shows the amount of light received by the image sensor, that is, the shading characteristics, when an object having a uniform luminance distribution is captured when the aperture value of the photographic lens 500 is widened (F2 in this case) and narrowed down to F5.6. It is a figure explaining. 3A is a characteristic diagram of the image sensor 101, and FIG. 1B is a characteristic diagram of the image sensor 102. FIG. First, FIG. 1A will be described.

同図(a)の横軸は撮像素子101の撮像面IP1におけるx方向の像高、縦軸は一対の焦点検出瞳に対応する光束を受光する光電変換部の出力信号で、各画素部が備える光電変換部の受光光量に比例した値である。S1a(F2)は、絞り開放(F2)時における、一方の焦点検出瞳AP1aに対応する光電変換部群の出力信号であり、これをA像信号と称する。S1b(F2)は対となる他方の焦点検出瞳AP1bに対応する光電変換部の出力信号で、これをB像信号と称する。焦点検出の際は、所定の明暗パターンを有する被写体についてのA像信号とB像信号の相関演算を行なってデフォーカス量を検出する。これに対し同図の波形は、無地の均一輝度面に対する信号の特性、すなわち焦点検出系のシェーディング特性を表わしている。当図によると両信号は像高xの増加とともにその値が急激に低下するが、これは撮影レンズの口径食に起因する。また、撮像素子101はレンズ瞳距離PL1とセンサ瞳距離PS1が略一致しているが、図4(a)で説明したように、厳密にはレンズ瞳距離PL1の方が若干小さい。そこで、図5(a)及び(b)で説明したように、像高の増加と共に撮影レンズの射出瞳中心と焦点検出瞳の中立点が僅かにずれるため、図6(a)のA像信号S1a(F2)とB像信号S1b(F2)は像高に応じてその値も若干のずれを生じている。また、像高xが正の領域ではA像>B像、像高xが負の領域ではA像<B像となり、像高の正負に応じて両信号の大小関係は逆転する。   The horizontal axis of FIG. 6A is the image height in the x direction on the imaging surface IP1 of the image sensor 101, and the vertical axis is the output signal of the photoelectric conversion unit that receives the light beam corresponding to the pair of focus detection pupils. It is a value proportional to the amount of light received by the photoelectric conversion unit provided. S1a (F2) is an output signal of the photoelectric conversion unit group corresponding to one focus detection pupil AP1a at the time of full aperture (F2), and this is referred to as an A image signal. S1b (F2) is an output signal of the photoelectric conversion unit corresponding to the other focus detection pupil AP1b to be paired, and is referred to as a B image signal. At the time of focus detection, a defocus amount is detected by performing a correlation operation between the A image signal and the B image signal for a subject having a predetermined light and dark pattern. On the other hand, the waveform in the figure represents the signal characteristic for a solid uniform luminance surface, that is, the shading characteristic of the focus detection system. According to the figure, the values of both signals rapidly decrease as the image height x increases. This is due to the vignetting of the taking lens. In the imaging device 101, the lens pupil distance PL1 and the sensor pupil distance PS1 substantially coincide with each other, but strictly speaking, the lens pupil distance PL1 is slightly smaller as described with reference to FIG. Therefore, as described with reference to FIGS. 5A and 5B, the center of the exit pupil of the photographic lens and the neutral point of the focus detection pupil are slightly shifted as the image height increases, so that the A image signal in FIG. The values of S1a (F2) and B image signal S1b (F2) are slightly different depending on the image height. Further, in the region where the image height x is positive, A image> B image, and in the region where the image height x is negative, A image <B image, and the magnitude relationship of both signals is reversed depending on whether the image height is positive or negative.

図6(a)のS1a(F5.6)及びS1b(F5.6)はF5.6に絞った時のA像及びB像信号である。両信号は像高と共に出力が緩やかに低下するが、その低下原因はコサイン4乗則によるものである。また、両信号も像高の増加とともに値が異なっていくが、その理由は絞り開放の場合と同様である。   S1a (F5.6) and S1b (F5.6) in FIG. 6A are A and B image signals when the aperture is reduced to F5.6. The output of both signals gradually decreases with the image height, and the cause of the decrease is due to the cosine fourth law. Both signals have different values as the image height increases. The reason is the same as in the case of full aperture.

図6(b)は撮像素子102の特性図であり、同図(a)と対応している。S2a(F2)とS2b(F2)は、絞り開放(F2)時におけるA像信号とB像信号、S2a(F5.6)とS2b(F5.6)は、F5.6に絞り込んだ時のA像信号とB像信号である。図4(b)で説明したように、撮像素子102は撮像素子101と比較して、現在のレンズ瞳距PL1に対するセンサ瞳距離PS2の乖離が大きい。そのため、図5(d)で示したように、像高の高い領域では撮影レンズの射出瞳中心と焦点検出瞳の中立点のずれも大きく、一対の焦点検出瞳の光量比もアンバランスになる。よって、撮像素子102のシェーディング特性も口径食やコサイン4乗則を起因とする光量低下に加えて、射出瞳と焦点検出瞳の位置ずれに起因するA像信号とB像信号の乖離が、撮像素子101よりも大きくなっている。A像信号とB像信号の乖離が大きいまま相関演算を行うと、焦点検出の精度が低下してしまう。このため、焦点検出時には撮像装置が記憶しているシェーディング補正情報を用いてA像信号とB像信号にシェーディングを施したのちに相間演算を行なうのが一般的である。しかしながら、元のA像信号とB像信号のレベル差が大きいとシェーディング補正誤差も大きくなりがちである。また、元の信号レベルが本来想定したレベルより低いと、シェーディング補正による信号増幅比も大きくなり、その結果ノイズ等を増幅してしまい、焦点検出精度が低下してしまう。以上説明した内容を踏まえて図6(a)と(b)のシェーディング特性を比較すると、同図(a)の方がA像信号とB像信号のレベル差が少ない。A像信号とB像信号のレベル差は小さければ小さいほど焦点検出精度が高いと言える。よって、2つの撮像素子の両方が位相差検出可能な場合、レンズ瞳距離PLとセンサ瞳距離PSの乖離がより小さく、A像信号とB像信号のシェーディング特性が一致している方の撮像素子の焦点検出結果を優先的に使用することが好ましい。   FIG. 6B is a characteristic diagram of the image sensor 102 and corresponds to FIG. S2a (F2) and S2b (F2) are the A and B image signals when the aperture is open (F2), and S2a (F5.6) and S2b (F5.6) are the A values when the aperture is reduced to F5.6. An image signal and a B image signal. As described with reference to FIG. 4B, the image sensor 102 has a larger discrepancy between the sensor pupil distance PS <b> 2 and the current lens pupil distance PL <b> 1 than the image sensor 101. For this reason, as shown in FIG. 5D, in the region where the image height is high, the deviation between the exit pupil center of the photographing lens and the neutral point of the focus detection pupil is large, and the light quantity ratio between the pair of focus detection pupils is also unbalanced. . Therefore, the shading characteristic of the image sensor 102 is also caused by the difference between the A image signal and the B image signal caused by the positional deviation between the exit pupil and the focus detection pupil, in addition to the light amount decrease caused by vignetting and the cosine fourth law. It is larger than the element 101. If the correlation calculation is performed while the difference between the A image signal and the B image signal is large, the accuracy of focus detection is reduced. For this reason, at the time of focus detection, inter-phase calculation is generally performed after shading the A image signal and the B image signal using shading correction information stored in the imaging apparatus. However, if the level difference between the original A image signal and the B image signal is large, the shading correction error tends to be large. If the original signal level is lower than the originally assumed level, the signal amplification ratio by shading correction also increases, and as a result, noise and the like are amplified, and the focus detection accuracy decreases. Comparing the shading characteristics of FIGS. 6A and 6B based on the contents described above, the level difference between the A image signal and the B image signal is smaller in FIG. 6A. It can be said that the smaller the level difference between the A image signal and the B image signal, the higher the focus detection accuracy. Therefore, when both of the two image pickup devices can detect the phase difference, the image pickup device having the smaller deviation between the lens pupil distance PL and the sensor pupil distance PS and having the same shading characteristics of the A image signal and the B image signal. It is preferable to preferentially use the focus detection result.

シェーディング特性の一致度は、以下のように定義して判断する。撮像面の端部に近い所定像高において、A像信号とB像信号のうちの大きな方をMax(A,B)、小さな方をMin(A,B)、両者の比をシェーディング比SHとし、次式
SH=Max(A,B)/Min(A,B) (式14)
で定義する。図7は2つの撮像素子におけるシェーディング比SHがレンズ瞳距離PLに対してどのように変化するのかを示した図である。横軸は撮影レンズのレンズ瞳距離PL、縦軸はシェーディング比SHである。本実施例の撮影レンズ500は、前述の通り、ズームやフォーカスの状態変化により、レンズ瞳距離PLがPLminからPLmaxまで変化する。シェーディング比SH1(F2)及びSH1(F5.6)は、撮影レンズの絞り値が開放及びF5.6における撮像素子101のシェーディング比である。レンズ瞳距離PL1が撮像素子101のセンサ瞳距離PS1に一致すると、A像信号とB像信号のシェーディング波形は等しく、シェーディング比SH1は極小値の1となる。そして、レンズ瞳距離PL1とセンサ瞳距離PS1との乖離が大きくなるに従って、シェーディング比SH1は増加し、撮影レンズ500の絞りが小絞りになるほどシェーディング比の増加が著しい。
The degree of coincidence of the shading characteristics is determined by defining as follows. At a predetermined image height close to the edge of the imaging surface, the larger one of the A image signal and the B image signal is Max (A, B), the smaller one is Min (A, B), and the ratio of both is the shading ratio SH. The following equation SH = Max (A, B) / Min (A, B) (Equation 14)
Define in. FIG. 7 is a diagram showing how the shading ratio SH in the two image sensors changes with respect to the lens pupil distance PL. The horizontal axis represents the lens pupil distance PL of the photographing lens, and the vertical axis represents the shading ratio SH. As described above, in the photographing lens 500 of the present embodiment, the lens pupil distance PL changes from PLmin to PLmax due to a change in zoom or focus state. The shading ratios SH1 (F2) and SH1 (F5.6) are the shading ratios of the image sensor 101 when the aperture value of the photographing lens is full and F5.6. When the lens pupil distance PL1 coincides with the sensor pupil distance PS1 of the image sensor 101, the shading waveforms of the A image signal and the B image signal are equal, and the shading ratio SH1 becomes a minimum value of 1. As the difference between the lens pupil distance PL1 and the sensor pupil distance PS1 increases, the shading ratio SH1 increases, and the shading ratio increases significantly as the aperture of the photographing lens 500 becomes smaller.

シェーディング比SH2(F2)及びSH2(F5.6)は、同じく撮影レンズの絞り値が開放及びF5.6に絞った時の撮像素子102のシェーディング比である。レンズ瞳距離PL1が撮像素子102のセンサ瞳距離PS2に一致すると、A像信号とB像信号のシェーディング波形は等しく、シェーディング比SH1は極小値の1となる。そして、レンズ瞳距離PL1がセンサ瞳距離PS2からずれるに従って、シェーディング比SH2は増加し、撮影レンズ500の絞りが小絞りになるほどシェーディング比の増加が著しい。   Similarly, the shading ratios SH2 (F2) and SH2 (F5.6) are shading ratios of the image sensor 102 when the aperture value of the photographing lens is opened and reduced to F5.6. When the lens pupil distance PL1 coincides with the sensor pupil distance PS2 of the image sensor 102, the shading waveforms of the A image signal and the B image signal are equal, and the shading ratio SH1 has a minimum value of 1. As the lens pupil distance PL1 deviates from the sensor pupil distance PS2, the shading ratio SH2 increases, and the shading ratio increases significantly as the aperture of the taking lens 500 becomes smaller.

境界瞳距離PSmid(第1の所定距離)はシェーディング比SH1とSH2の大小関係が反転するレンズ瞳距離PLである。境界瞳距離PSmidは、撮像素子101のセンサ瞳距離PS1より大きく、撮像素子102のセンサ瞳距離PS2よりも小さい。レンズ瞳距離が境界瞳距離PSmid(第1の所定距離)以下である場合は、撮像素子102のシェーディング比SH2よりも撮像素子101のシェーディング比SH1が小さい。また、レンズ瞳距離が境界瞳距離PSmid(第1の所定距離)より大きい場合は、撮像素子101のシェーディング比SH1よりも撮像素子102のシェーディング比SH2が小さい。シェーディング比SHが小さいほど、A像信号とB像信号のレベル差が少ないため、焦点検出の際にはシェーディング比SHが小さい方の撮像素子を用いるのが好ましい。よって、本実施例では、焦点検出時のレンズ瞳距離PL1が境界瞳距離PSmid以下(第1の所定距離以下)である場合は、撮像素子101の焦点検出結果を優先する。また、レンズ瞳距離PL1が境界瞳距離PSmid(所定距離)より長い時は、撮像素子102の焦点検出結果を優先する。詳しくは後述する。   The boundary pupil distance PSmid (first predetermined distance) is a lens pupil distance PL at which the magnitude relationship between the shading ratios SH1 and SH2 is reversed. The boundary pupil distance PSmid is larger than the sensor pupil distance PS1 of the image sensor 101 and smaller than the sensor pupil distance PS2 of the image sensor 102. When the lens pupil distance is equal to or less than the boundary pupil distance PSmid (first predetermined distance), the shading ratio SH1 of the image sensor 101 is smaller than the shading ratio SH2 of the image sensor 102. When the lens pupil distance is larger than the boundary pupil distance PSmid (first predetermined distance), the shading ratio SH2 of the image sensor 102 is smaller than the shading ratio SH1 of the image sensor 101. Since the level difference between the A image signal and the B image signal is smaller as the shading ratio SH is smaller, it is preferable to use an image sensor having a smaller shading ratio SH for focus detection. Therefore, in this embodiment, when the lens pupil distance PL1 at the time of focus detection is equal to or less than the boundary pupil distance PSmid (less than the first predetermined distance), priority is given to the focus detection result of the image sensor 101. When the lens pupil distance PL1 is longer than the boundary pupil distance PSmid (predetermined distance), priority is given to the focus detection result of the image sensor 102. Details will be described later.

図8は、所定の焦点検出エリア内に存在する被写体を焦点検出する場合の焦点検出信号の波形例で、同図(a)はシェーディング補正前、同図(b)はシェーディング補正後の波形である。両図共に、横軸は撮像面のx座標、縦軸は焦点検出信号の出力強度で、Saは撮像素子101もしくは撮像素子102から出力されるA像信号、Sbは同じくB像信号である。同図(a)はシェーディング補正前のため、一対の信号にはレベル差を生じている。すなわちB像信号Sbに対してA像信号Saは平均値が高く、かつ、像高xの増加に応じてレベル差が拡大している。   FIG. 8 is an example of a waveform of a focus detection signal when a subject existing within a predetermined focus detection area is detected. FIG. 8A shows a waveform before shading correction, and FIG. 8B shows a waveform after shading correction. is there. In both figures, the horizontal axis is the x coordinate of the imaging surface, the vertical axis is the output intensity of the focus detection signal, Sa is the A image signal output from the image sensor 101 or 102, and Sb is the B image signal. Since FIG. 5A is before shading correction, a level difference is generated between the pair of signals. That is, the average value of the A image signal Sa is higher than that of the B image signal Sb, and the level difference increases as the image height x increases.

同図(b)は後述するシェーディング補正処理を行なった後の焦点検出信号であり、A像信号SaとB像信号Sbのシェーディングが解消し、信号レベルが揃っている。そこで、シェーディング補正後の一対2像の信号において、所定の相間演算により2像の位相差φを算出する。   FIG. 4B shows a focus detection signal after a shading correction process described later, in which the shading of the A image signal Sa and the B image signal Sb is eliminated and the signal levels are uniform. Therefore, the phase difference φ between the two images is calculated by a predetermined interphase calculation in the signal of the pair of two images after the shading correction.

相間演算式には種々のものが提案されているが、例えば以下の式15が用いられる。   Various expressions have been proposed as interphase arithmetic expressions. For example, the following expression 15 is used.

C(φ)=Σ|A(i)−B(i)| (式15)       C (φ) = Σ | A (i) −B (i) | (Formula 15)

A(i)及びB(i)は所定の焦点検出領域から出力されたA像信号とB像信号で、iはx軸方向の画素番号を表わす。例えば焦点検出領域のx軸方向に存在する焦点検出用画素の数が100画素であれば、iは1から100の値を取る。従って、式15の右辺は、焦点検出領域内のA像信号とB像信号の差の絶対値を積算したものになる。C(φ)は相関値で、φは上記積算演算を行なう際のA像信号とB像信号の相対的なずらし量である。すなわち、相間演算はA像信号とB像信号を相対的にずらしながら式15を計算し、相関値C(φ)が極小値を取る時のφをA像信号とB像信号の位相差とみなす。   A (i) and B (i) are an A image signal and a B image signal output from a predetermined focus detection area, and i represents a pixel number in the x-axis direction. For example, if the number of focus detection pixels existing in the x-axis direction of the focus detection area is 100 pixels, i takes a value from 1 to 100. Therefore, the right side of Expression 15 is obtained by integrating the absolute values of the differences between the A image signal and the B image signal in the focus detection area. C (φ) is a correlation value, and φ is a relative shift amount between the A image signal and the B image signal when performing the integration calculation. That is, the interphase calculation calculates Equation 15 while relatively shifting the A image signal and the B image signal, and φ when the correlation value C (φ) takes the minimum value is the phase difference between the A image signal and the B image signal. I reckon.

[位相差の取得と、デフォーカス量の算出(焦点検出)]
図9は一対2像の位相差と相関値の関係を説明する図である。横軸はA像信号とB像信号の相対的なずらし量、縦軸は式15の相関値C(φ)である。C1は撮像素子101の焦点検出信号の相関値で、ずらし量φ1において、相関値は極小値C1minを示す。C2は撮像素子102の焦点検出信号の相関値で、ずらし量φ2において、相関値は極小値C2minを示す。図4においては、レンズ瞳距離PLとセンサ瞳距離PSの一致度は撮像素子101の方がよいため、焦点検出信号も撮像素子101から出力された信号の方が信頼性が高い場合が多い。よって、相関値C(φ)の極小値も撮像素子101による値の方が小さく、得られた位相差も、φ2よりもφ1の方が信頼性が高いと推定される。
[Acquisition of phase difference and calculation of defocus amount (focus detection)]
FIG. 9 is a diagram illustrating the relationship between the phase difference between the pair of two images and the correlation value. The horizontal axis represents the relative shift amount of the A image signal and the B image signal, and the vertical axis represents the correlation value C (φ) of Equation 15. C1 is a correlation value of the focus detection signal of the image sensor 101, and the correlation value indicates a minimum value C1min at the shift amount φ1. C2 is a correlation value of the focus detection signal of the image sensor 102, and the correlation value indicates a minimum value C2min at the shift amount φ2. In FIG. 4, since the degree of coincidence between the lens pupil distance PL and the sensor pupil distance PS is better for the image sensor 101, the signal output from the image sensor 101 is often more reliable as the focus detection signal. Therefore, it is estimated that the minimum value of the correlation value C (φ) is smaller by the image sensor 101, and the obtained phase difference is more reliable in φ1 than in φ2.

次いで、式15で得られた位相差φをデフォーカス量DEFに変換する。ここで、位相差φとデフォーカス量DEFは次式の関係にある。   Next, the phase difference φ obtained by Expression 15 is converted into a defocus amount DEF. Here, the phase difference φ and the defocus amount DEF are in the relationship of the following equation.

φ=DEF×α (式16)
DEF=φ/α=φ×K (式17)
φ = DEF × α (Formula 16)
DEF = φ / α = φ × K (Equation 17)

αは一対の焦点検出光束の基線角度で、図4(a)のα11やα12、あるいは同図(b)のα21やα22である。ただし、図4に示した基線角度は撮像素子単体における値であるが、焦点検出光束は撮影レンズ500の射出瞳のけられに対応してけられが生ずる。これにより、式16や式17の基線角度αは、撮影レンズ500の光学状態、すなわち撮影レンズ500のFナンバやレンズ瞳距離PLによっても変化する。従って、デフォーカス量DEFを算出するためには基線角度αに関する情報が必要となる。基線角度αについては、詳しくは後述する。   α is a baseline angle of a pair of focus detection light beams, which is α11 and α12 in FIG. 4A or α21 and α22 in FIG. However, although the base line angle shown in FIG. 4 is a value in the image pickup device alone, the focus detection light beam is injured corresponding to the exit pupil of the photographing lens 500. Accordingly, the baseline angle α in Expression 16 and Expression 17 also changes depending on the optical state of the photographing lens 500, that is, the F number of the photographing lens 500 and the lens pupil distance PL. Therefore, in order to calculate the defocus amount DEF, information on the baseline angle α is necessary. Details of the baseline angle α will be described later.

カメラCPU104は式17を用いて位相差φをデフォーカス量DEFに変換し、さらにフォーカスレンズの駆動量に変換して撮影レンズ500のレンズCPU507に送信する。するとレンズCPU507は受信したレンズ駆動量に基づいてフォーカスレンズアクチュエータ506を駆動制御することで、被写体像を合焦させる。   The camera CPU 104 converts the phase difference φ into the defocus amount DEF using Expression 17, and further converts it into the drive amount of the focus lens and transmits it to the lens CPU 507 of the photographing lens 500. Then, the lens CPU 507 controls the focus lens actuator 506 based on the received lens driving amount to focus the subject image.

[シェーディング補正情報]
図10は当実施例の撮像装置が有するシェーディング補正情報で、ルックアップテーブルとして例えば記憶媒体106等のメモリに記憶されている。同図(a)は撮像素子101用に記憶された情報、同図(b)は撮像素子102用の情報である。同図(a)において、ルックアップテーブルの列方向(横方向)には撮影レンズ500のFナンバが、F1.4からF16まで1段絞りごとに8種の値として割り当てられる。行方向(縦方向)には撮影レンズ500のレンズ瞳距離PLが、最小値のレンズ瞳距離1(例えば50mm)から最大値のレンズ瞳距離8(例えば200mm)まで、等差数列もしくは等比数列として割り当てられる。そして各Fナンバとレンズ瞳距離に対応する箇所には、撮像素子101に対応するシェーディング補正情報Fs111からFs188が格納されている。ここで、Fs111ないしFs188は単一の定数ではなく、所定の関数を定義するための複数の係数で構成される。焦点検出信号に生ずるシェーディングは、図6で説明したように、撮像面上の像高に応じて連続的に変化する。そこで、シェーディング補正関数を、像高x及び像高yを変数とする多項式関数で定義し、図6のシェーディング波形を該関数で近似した時の各次数における係数を記憶すればよい。
[Shading correction information]
FIG. 10 shows shading correction information included in the image pickup apparatus of the present embodiment, which is stored in a memory such as the storage medium 106 as a lookup table. FIG. 4A shows information stored for the image sensor 101, and FIG. 4B shows information for the image sensor 102. FIG. In FIG. 6A, in the row direction (lateral direction) of the lookup table, the F number of the taking lens 500 is assigned as eight values for each aperture from F1.4 to F16. In the row direction (vertical direction), the lens pupil distance PL of the photographic lens 500 is an equal number sequence or a ratio number sequence from a minimum lens pupil distance 1 (for example, 50 mm) to a maximum lens pupil distance 8 (for example, 200 mm). Assigned as. Then, shading correction information Fs111 to Fs188 corresponding to the image sensor 101 is stored at locations corresponding to the respective F numbers and lens pupil distances. Here, Fs111 to Fs188 are not a single constant, but are composed of a plurality of coefficients for defining a predetermined function. As described with reference to FIG. 6, the shading generated in the focus detection signal continuously changes according to the image height on the imaging surface. Therefore, the shading correction function may be defined by a polynomial function having the image height x and the image height y as variables, and the coefficients in each order when the shading waveform in FIG. 6 is approximated by the function may be stored.

同図(b)は撮像素子102に対するシェーディング補正情報であり、その内容は同図(a)と同様であるため、説明は省略する。   FIG. 6B shows shading correction information for the image sensor 102, and the content thereof is the same as that shown in FIG.

[2像の位相差φをデフォーカス量に変換するための変換情報]
図11は、図8(b)に示した2像の位相差φをデフォーカス量に変換するための変換情報で、式17のKに相当し、図10と同様のルックアップテーブルとして例えば記憶媒体106等のメモリに記憶されている。図11(a)は撮像素子101用に記憶された変換情報、同図(b)は撮像素子102用の変換情報である。同図(a)において、ルックアップテーブルのFナンバとレンズ瞳距離に対応する箇所には、撮像素子101に対応する変換情報Fk111からFk188が格納されている。ここで、Fk111ないしFk188も単一の定数ではなく、所定の関数を定義するための複数の係数で構成される。位相差検出時に撮像面上の各画素部が受光する焦点検出光束は、撮像面上のx及びy座標に応じてけられ状態が変化するため、焦点検出瞳の基線長も像高に応じて連続的に変化する。そこで、位相差φをデフォーカス量に変換する係数も、像高x及び像高yを変数とする多項式関数で定義し、光学計算もしくは実測で求めた変換係数分布を該関数で近似し、近似した関数の各次数における係数を記憶すればよい。
[Conversion information for converting phase difference φ between two images into defocus amount]
FIG. 11 shows conversion information for converting the phase difference φ between the two images shown in FIG. 8B into a defocus amount, which corresponds to K in Expression 17 and is stored as, for example, a lookup table similar to FIG. It is stored in a memory such as medium 106. 11A shows the conversion information stored for the image sensor 101, and FIG. 11B shows the conversion information for the image sensor 102. In FIG. 9A, conversion information Fk111 to Fk188 corresponding to the image sensor 101 is stored at locations corresponding to the F number and lens pupil distance in the lookup table. Here, Fk111 to Fk188 are not a single constant, but are composed of a plurality of coefficients for defining a predetermined function. Since the focus detection light beam received by each pixel unit on the imaging surface at the time of phase difference detection is changed according to the x and y coordinates on the imaging surface, the base length of the focus detection pupil is also continuous according to the image height. Changes. Therefore, the coefficient for converting the phase difference φ into the defocus amount is also defined by a polynomial function having the image height x and the image height y as variables, and the conversion coefficient distribution obtained by optical calculation or actual measurement is approximated by the function. What is necessary is just to memorize | store the coefficient in each order of the performed function.

同図(b)は撮像素子102に対する変換情報であり、その内容は同図(a)と同様であるため、説明は省略する。   FIG. 6B shows conversion information for the image sensor 102, and the content thereof is the same as that shown in FIG.

[実施例1のメインフローチャート(図12)]
図12は本実施例における撮影処理の手順を示すメインフローチャートである。S101で撮影者がカメラの電源スイッチをオン操作すると、カメラCPU104はカメラ内の各アクチュエータや撮像素子101及び撮像素子102の動作確認を行なうとともに、メモリ内容や実行プログラムの初期化を行う。
[Main Flowchart of First Embodiment (FIG. 12)]
FIG. 12 is a main flowchart showing the procedure of photographing processing in this embodiment. When the photographer turns on the power switch of the camera in S101, the camera CPU 104 checks the operation of each actuator in the camera, the image sensor 101, and the image sensor 102, and initializes the memory contents and the execution program.

S102ではカメラCPU104がレンズCPU507と通信を行ない、撮影レンズ500の開放Fナンバ、焦点距離、レンズ瞳距離PL、フォーカスレンズ繰り出し量とピント変化量の比例定数であるフォーカス敏感度等の情報を受信する。   In S102, the camera CPU 104 communicates with the lens CPU 507 and receives information such as the open F number of the photographing lens 500, the focal length, the lens pupil distance PL, and the focus sensitivity that is a proportional constant between the focus lens extension amount and the focus change amount. .

[静止画撮影時]
S103では、カメラCPU104が撮影モードが静止画モードであるか動画モードであるかを判別し、静止画モードであればS111へ移行し、動画モードであればS131へ移行する。
[When shooting still images]
In S103, the camera CPU 104 determines whether the shooting mode is the still image mode or the moving image mode. If the shooting mode is the still image mode, the process proceeds to S111. If the shooting mode is the moving image mode, the process proceeds to S131.

S111では、カメラCPU104が静止画撮影用の撮像素子101をライブビューモードで駆動するよう制御する。ライブビューとは、撮像素子で取得した画像を図1のファインダ内表示器107もしくは外部表示器110にリアルタイムで表示するモードである。記録用画像の画素数に対して該表示器の画素数は水平及び垂直方向共に少ないため、ライブビューモードでは撮像素子から読み出す際に、水平方向及び垂直方向共に画素の間引きを行ない、撮像素子や信号処理回路の消費電力を低く抑えている。また、ライブビューモードで読み出した画像信号を用いてカメラCPU104(第1の焦点検出手段)は位相差検出も行なうが、焦点検出信号の分解能維持のため、焦点検出領域のみ間引き読みせずに全画素部の情報を読み出してもよい。   In step S111, the camera CPU 104 controls to drive the image sensor 101 for still image shooting in the live view mode. The live view is a mode in which an image acquired by the image sensor is displayed on the in-finder display 107 or the external display 110 in FIG. 1 in real time. Since the number of pixels of the display is small in both the horizontal and vertical directions with respect to the number of pixels of the image for recording, the pixels are thinned out in both the horizontal and vertical directions when reading from the image sensor in the live view mode. The power consumption of the signal processing circuit is kept low. The camera CPU 104 (first focus detection means) also performs phase difference detection using the image signal read out in the live view mode. However, in order to maintain the resolution of the focus detection signal, only the focus detection area is not thinned out and read out. Information on the pixel portion may be read out.

S112では、カメラCPU104がS111で取得した画像信号の明るさを判断し、ライブビュー時の絞り制御を行なう。S111ないしS115は静止画撮影時のライブビューと焦点調節を行なうステップであるが、静止画撮影時はライブビュー時と静止画撮影時の絞り値が異なっても大きな支障は無い。一方で、静止画は記録画素数が多く、画像の解像度が高いために合焦誤差の許容値は小さい。そこで、S112では、カメラCPU104が、レンズCPU507を介して、撮影レンズ500のFナンバが小さい、すなわち絞り開口径が大きくなるように絞り制御を行なう。具体的には、撮影レンズのFナンバを開放寄りのFナンバとし、決定したFナンバ情報をカメラ側通信端子113及びレンズ側通信端子508を介してレンズCPU507に送信する。すると、レンズCPU507は絞り駆動部506を駆動制御し、虹彩絞りの開口径を所定の値に制御する。そして撮影レンズ500を通過する光量が多く露光過多となる場合は、撮像素子の信号を増幅するアンプゲインを低くするとともに、露光時間を制御する電子シャッタの蓄積時間を短くする。   In S112, the camera CPU 104 determines the brightness of the image signal acquired in S111, and performs aperture control during live view. Steps S111 to S115 are steps for performing live view and focus adjustment during still image shooting. However, there is no significant problem even when the aperture value is different between live view and still image shooting during still image shooting. On the other hand, a still image has a large number of recorded pixels and a high resolution of the image, so that a tolerance value for focusing error is small. Therefore, in S112, the camera CPU 104 performs aperture control via the lens CPU 507 so that the F number of the photographing lens 500 is small, that is, the aperture aperture diameter is large. Specifically, the F number of the photographing lens is set to the F number closer to the open position, and the determined F number information is transmitted to the lens CPU 507 via the camera side communication terminal 113 and the lens side communication terminal 508. Then, the lens CPU 507 controls the aperture driving unit 506 to control the aperture diameter of the iris diaphragm to a predetermined value. When the amount of light passing through the photographic lens 500 is large and overexposed, the amplifier gain for amplifying the signal of the image sensor is lowered and the accumulation time of the electronic shutter for controlling the exposure time is shortened.

S113では、撮像素子101で取得した信号を表示用信号に変換し、ファインダ内表示器107もしくは外部表示器110に送信してライブビュー表示を開始する。   In S113, the signal acquired by the image sensor 101 is converted into a display signal and transmitted to the in-finder display 107 or the external display 110 to start live view display.

S114では、カメラCPU104が、静止画撮影に適した焦点検出1のサブルーチンを実行するよう制御する。当サブルーチンの詳細は図13(a)で説明する。   In step S114, the camera CPU 104 controls to execute a focus detection 1 subroutine suitable for still image shooting. Details of this subroutine will be described with reference to FIG.

S115では、カメラCPU104が、S114で算出したフォーカスレンズ駆動量を、カメラ側通信手段113及びレンズ側通信手段508を介してレンズCPU507に送信する。すると、レンズCPU507は、ピントズレを解消するために、フォーカス駆動部504を所定量だけ駆動するよう制御する。   In S115, the camera CPU 104 transmits the focus lens driving amount calculated in S114 to the lens CPU 507 via the camera side communication unit 113 and the lens side communication unit 508. Then, the lens CPU 507 controls to drive the focus driving unit 504 by a predetermined amount in order to eliminate the focus shift.

S116では、カメラCPU104が、静止画開始トリガボタンがオン操作されたか否かを判断する。オン操作されていなければS111に戻り、S111ないしS115のライブビュー表示と焦点調節動作を繰り返し実行する。静止画開始トリガボタンがオン操作されていたら、S116からS121に移行する。   In S116, the camera CPU 104 determines whether or not the still image start trigger button has been turned on. If it is not turned on, the process returns to S111, and the live view display and the focus adjustment operation of S111 to S115 are repeatedly executed. If the still image start trigger button has been turned on, the process proceeds from S116 to S121.

S121では、カメラCPU104が静止画撮影1のサブルーチンを実行するよう制御する。当サブルーチンの詳細は図13(b)で説明する。   In S121, the camera CPU 104 controls to execute the still image shooting 1 subroutine. Details of this subroutine will be described with reference to FIG.

S122では、カメラCPU104がS121で取得した信号の処理を行ない、静止画像信号を生成して記憶媒体106(メモリ手段)に記録する。撮像素子101の各画素部は位相差検出のために一対2個の光電変換部を有しているため、その出力信号も各画素部について一対2つの信号からなりたっている。そこで画素部毎の一対の信号をAFE114(加算制御手段)が加算し、各画素部の記録用又は表示用の画像信号を得る。ついで、ベイヤー配列の色情報をデモザイキングするカラー変換、ガンマ補正、圧縮等の処理を行ない、記録用の画像を生成する。なお、当該信号の処理や記録画像の生成は、専用の回路を設けて行っても良い。   In S122, the camera CPU 104 processes the signal acquired in S121, generates a still image signal, and records it in the storage medium 106 (memory means). Since each pixel unit of the image sensor 101 has a pair of two photoelectric conversion units for phase difference detection, the output signal is also composed of a pair of two signals for each pixel unit. Therefore, the AFE 114 (addition control means) adds a pair of signals for each pixel unit to obtain an image signal for recording or display of each pixel unit. Next, processing such as color conversion for demosaicing the Bayer array color information, gamma correction, and compression is performed to generate a recording image. Note that processing of the signal and generation of a recorded image may be performed by providing a dedicated circuit.

そしてS123で、カメラCPU104は、静止画撮影を終了するよう制御する。   In step S123, the camera CPU 104 performs control so as to end the still image shooting.

[動画撮影時]
次いで、動画撮影時のフローについて説明する。S103において、カメラCPU104は、動画撮影モードが設定されているかどうかを判断する。動画撮影モードが設定されていたら、S103からS131に移行する。
[When recording movies]
Next, a flow at the time of moving image shooting will be described. In S103, the camera CPU 104 determines whether or not the moving image shooting mode is set. If the moving image shooting mode is set, the process proceeds from S103 to S131.

S131では、カメラCPU104が、動画撮影用である撮像素子102をライブビューモードで駆動するよう制御する。   In S131, the camera CPU 104 controls to drive the image sensor 102 for moving image shooting in the live view mode.

S132では、カメラCPU104がが、絞り駆動部506を介して動画記録用の絞り制御を行なう。動画撮影時はライブビュー時と動画記録時の絞りが同じであるため、当ステップにおいては動画に適した絞り値を選択する。動画撮影時に電子シャッタの露光時間を短くし過ぎると、動きのある被写体の連続性が失われ、ストップモーションの静止画が高速でコマ送りされるような不自然な動画となる。よって、このような現象を回避する電子シャッタの秒時が選択され、適正露光となるように撮影レンズの絞り値や撮像素子のアンプゲインが適正に制御される。ここで決定したFナンバは、カメラCPU104によって、カメラ側通信端子113及びレンズ側通信端子508を介してレンズCPU507に送信される。すると、レンズCPU507は絞り駆動部506を駆動制御し、虹彩絞り505の開口径を所定の値に制御する。   In S <b> 132, the camera CPU 104 performs aperture control for moving image recording via the aperture drive unit 506. During movie shooting, the aperture for live view and movie recording is the same, so in this step, an aperture value suitable for the movie is selected. If the exposure time of the electronic shutter is too short during moving image shooting, the continuity of a moving subject is lost, resulting in an unnatural moving image in which a still image of stop motion is frame-fed at high speed. Therefore, the time of the electronic shutter that avoids such a phenomenon is selected, and the aperture value of the photographing lens and the amplifier gain of the image sensor are appropriately controlled so as to achieve proper exposure. The F number determined here is transmitted by the camera CPU 104 to the lens CPU 507 via the camera side communication terminal 113 and the lens side communication terminal 508. Then, the lens CPU 507 controls the aperture driving unit 506 to control the aperture diameter of the iris diaphragm 505 to a predetermined value.

S133では、カメラCPU104が、撮像素子102で取得した信号を表示用信号に変換し、ファインダ内表示器107もしくは外部表示器110に送信してライブビュー表示を開始するよう制御する。   In S133, the camera CPU 104 converts the signal acquired by the image sensor 102 into a display signal, and transmits it to the in-finder display 107 or the external display 110 to control to start live view display.

S134では、カメラCPU104が、動画撮影に適した焦点検出2のサブルーチンを実行するよう制御する。当サブルーチンの詳細は図14(a)で説明する。   In S134, the camera CPU 104 controls to execute a focus detection 2 subroutine suitable for moving image shooting. Details of this subroutine will be described with reference to FIG.

S135では、カメラCPU104が、S134で算出したフォーカスレンズ駆動量を、カメラ側通信端子113及びレンズ側通信端子508を介してレンズCPU507に送信する。すると、レンズCPU507は、ピントズレを解消するために、フォーカス駆動部504を所定量だけ駆動するよう制御する。   In S135, the camera CPU 104 transmits the focus lens driving amount calculated in S134 to the lens CPU 507 via the camera side communication terminal 113 and the lens side communication terminal 508. Then, the lens CPU 507 controls to drive the focus driving unit 504 by a predetermined amount in order to eliminate the focus shift.

S141では動画撮影トリガボタンがオン操作されたか否かを判断する。そしてオン操作されていたら、S142でAFE115が動画用の画像処理を行い、動画を生成する。生成された動画が記録されると、S143に移行する。動画撮影トリガボタンがオン操作されていなければ動画記録することなく、S141からS143にジャンプする。   In S141, it is determined whether or not the moving image shooting trigger button is turned on. If the ON operation has been performed, the AFE 115 performs image processing for a moving image and generates a moving image in S142. When the generated moving image is recorded, the process proceeds to S143. If the movie shooting trigger button is not turned on, the procedure jumps from S141 to S143 without recording a movie.

S143ではカメラCPU104が、静止画開始トリガボタンがオン操作されたか否かを判断する。本実施例では、動画用ライブビューもしくは動画記録時に静止画撮影が指示されると、撮像素子101による静止画の記録を可能としている。そこで、静止画開始トリガボタンがオン操作されていた場合には、S143からS144に移行する。   In S143, the camera CPU 104 determines whether or not the still image start trigger button has been turned on. In this embodiment, when a still image shooting is instructed during live view for moving images or recording of a moving image, recording of a still image by the image sensor 101 is possible. Therefore, if the still image start trigger button has been turned on, the process proceeds from S143 to S144.

S144では、カメラCPU104が、静止画撮影2のサブルーチンを実行するよう制御する。当サブルーチンでは、S121の静止画撮影1のサブルーチンとは異なり、動画撮影モードが選択された状態で、動画撮影に並行して静止画撮影を行なうよう,カメラCPU104が制御する。詳細は図14(b)で説明する。   In S144, the camera CPU 104 controls to execute the still image shooting 2 subroutine. In this subroutine, unlike the still image shooting 1 subroutine of S121, the camera CPU 104 controls the still image shooting in parallel with the moving image shooting in the state where the moving image shooting mode is selected. Details will be described with reference to FIG.

S145では、カメラCPU104がS144で取得した静止画信号の処理を行ない、静止画像信号を生成して記憶媒体106に記録する。なお、当該信号の処理や記録画像の生成は、専用の回路を設け、当該回路において行っても良い。具体的な処理内容は先に説明したS122と同様である。   In S145, the camera CPU 104 processes the still image signal acquired in S144, generates a still image signal, and records it in the storage medium 106. Note that the processing of the signal and the generation of the recorded image may be performed in the circuit provided with a dedicated circuit. The specific processing content is the same as S122 described above.

S145を実行したのちはS146に移行し、カメラCPU104が、動画撮影トリガボタンがオフ操作されたか否かを判断する。オン状態が継続していた場合には、S131ないしS145のステップを繰り返し実行し、動画用のAF制御や動画記録を継続するとともに、静止画の割り込みも許可する。一方、S146で動画撮影トリガボタンがオフ操作されたとカメラCPU104が判断した場合には、S123に移行して動画撮影を終了する。   After executing S145, the process proceeds to S146, and the camera CPU 104 determines whether or not the moving image shooting trigger button is turned off. If the on-state continues, steps S131 to S145 are repeatedly executed to continue the AF control for moving images and the moving image recording, and also permit interruption of still images. On the other hand, when the camera CPU 104 determines that the moving image shooting trigger button has been turned off in S146, the process proceeds to S123 and the moving image shooting is ended.

[焦点検出1(図13(a))]
図13(a)は静止画撮影時に実行される「焦点検出1」のフローであり、図12のS114で実行するサブルーチンである。
[Focus Detection 1 (FIG. 13A)]
FIG. 13A is a “focus detection 1” flow executed at the time of still image shooting, and is a subroutine executed in S114 of FIG.

S114よりS151に移行すると、カメラCPU104は、レンズCPU507から送信された撮影レンズ500のレンズ瞳距離PLと、図7で説明した境界瞳距離PSmidの大小比較を行なう。そして、レンズ瞳距離PLが境界瞳距離PSmid(第1の所定距離)以下である場合は、S152へ移行する。S152では、カメラCPU104は、静止画撮影のために駆動している撮像素子101による焦点検出を行なう。具体的には、まずAFE114が撮像素子101で取得した信号から一対の焦点検出信号(A像信号とB像信号)を生成する。そして、カメラCPU104は、図10(a)に示したシェーディング補正のためのルックアップデーブルから、焦点検出時のFナンバとレンズ瞳距離PLに対応する情報を読み出し、A像信号とB像信号にシェーディング補正を施す。次いで、カメラCPU104は、式15の相間演算式を用いた相間演算により、A像信号とB像信号の位相差φ1を計算する。そして、カメラCPU104は、図11(a)に示したルックアップテーブルからデフォーカス量DEFを算出するための変換情報を読み出し、前述の式17を用いてデフォーカス量DEFを算出(焦点検出)し、S155に移行する。S155では、カメラCPU104がデフォーカス量をフォーカスレンズ駆動量に変換し、S156でメインフローにリターンする。   When the process proceeds from S114 to S151, the camera CPU 104 compares the lens pupil distance PL of the photographing lens 500 transmitted from the lens CPU 507 with the boundary pupil distance PSmid described in FIG. If the lens pupil distance PL is equal to or less than the boundary pupil distance PSmid (first predetermined distance), the process proceeds to S152. In S152, the camera CPU 104 performs focus detection by the image sensor 101 that is driven for still image shooting. Specifically, first, the AFE 114 generates a pair of focus detection signals (A image signal and B image signal) from the signals acquired by the image sensor 101. Then, the camera CPU 104 reads information corresponding to the F number and the lens pupil distance PL at the time of focus detection from the look-up table for shading correction shown in FIG. 10A, and converts the information into an A image signal and a B image signal. Apply shading correction. Next, the camera CPU 104 calculates the phase difference φ1 between the A image signal and the B image signal by the interphase calculation using the interphase calculation formula of Formula 15. Then, the camera CPU 104 reads conversion information for calculating the defocus amount DEF from the look-up table shown in FIG. 11A, and calculates (focus detection) the defocus amount DEF using the above-described equation 17. , The process proceeds to S155. In S155, the camera CPU 104 converts the defocus amount into the focus lens drive amount, and returns to the main flow in S156.

一方、S151においてカメラCPU104が、現在のレンズ瞳距離PLが境界瞳距離PSmid(第1の所定距離)よりも長いと判断した場合は、S153に移行する。   On the other hand, when the camera CPU 104 determines in S151 that the current lens pupil distance PL is longer than the boundary pupil distance PSmid (first predetermined distance), the process proceeds to S153.

S153ではカメラCPU104が非駆動状態にある動画用の撮像素子102を駆動し、先に説明したS152と同様の制御を行なう。すなわち、まずAFE115が撮像素子102で取得した信号から一対の焦点検出信号(A像信号とB像信号)を生成する。そして、カメラCPU104は、図10(b)に示したシェーディング補正のためのルックアップデーブルから、焦点検出時のFナンバとレンズ瞳距離PLに対応する情報を読み出し、A像信号とB像信号にシェーディング補正を施す。次いで、カメラCPU104は、公知の相間演算アルゴリズムを用いてA像信号とB像信号の位相差φ2を計算する。そして、カメラCPU104は、図11(b)に示したルックアップデーブルからデフォーカス量DEFを算出するための変換情報を読み出し、前述の式17を用いてデフォーカス量DEFを算出し、S155に移行する。S155では、カメラCPU104は、カメラCPU104又はレンズCPU507はデフォーカス量をフォーカスレンズ駆動量に変換し、S156でメインフローにリターンする。   In S153, the camera CPU 104 drives the moving image pickup element 102 in the non-driven state, and performs the same control as S152 described above. That is, first, the AFE 115 generates a pair of focus detection signals (A image signal and B image signal) from signals acquired by the image sensor 102. Then, the camera CPU 104 reads information corresponding to the F number and the lens pupil distance PL at the time of focus detection from the look-up table for shading correction shown in FIG. 10B, and converts the information into an A image signal and a B image signal. Apply shading correction. Next, the camera CPU 104 calculates a phase difference φ2 between the A image signal and the B image signal by using a known interphase calculation algorithm. Then, the camera CPU 104 reads the conversion information for calculating the defocus amount DEF from the lookup table shown in FIG. 11B, calculates the defocus amount DEF using the above-described equation 17, and proceeds to S155. To do. In S155, the camera CPU 104 converts the defocus amount into the focus lens drive amount, and the camera CPU 104 or the lens CPU 507 returns to the main flow in S156.

[焦点検出1の処理による効果]
焦点検出1のフロー(図13(a))の効果を説明する。
[Effects of processing of focus detection 1]
The effect of the focus detection 1 flow (FIG. 13A) will be described.

前述の通り、レンズ瞳距離PL1がセンサ瞳距離PS1からずれるに従って、シェーディング比SH1は大きくなる。シェーディング比が大きいということは、A像信号とB像信号のレベル差が大きいということであるため、シェーディング比が大きい場合は、シェーディング比が小さい場合と比較して、焦点検出精度が低下する。   As described above, the shading ratio SH1 increases as the lens pupil distance PL1 deviates from the sensor pupil distance PS1. The fact that the shading ratio is large means that the level difference between the A image signal and the B image signal is large. Therefore, when the shading ratio is large, the focus detection accuracy is lower than when the shading ratio is small.

そこで、焦点検出1において、カメラCPU104は、レンズ瞳距離PL1が境界瞳距離PSmid以下である場合には(S151)、撮像素子101から取得した信号を用いて焦点検出を行う(S152)。センサ瞳距離PS2と比較して、センサ瞳距離PS1の距離が現在のレンズ瞳距離PL1に近いからである。   Accordingly, in the focus detection 1, when the lens pupil distance PL1 is equal to or less than the boundary pupil distance PSmid (S151), the camera CPU 104 performs focus detection using the signal acquired from the image sensor 101 (S152). This is because the distance of the sensor pupil distance PS1 is closer to the current lens pupil distance PL1 than the sensor pupil distance PS2.

また、焦点検出1において、カメラCPU104は、レンズ瞳距離PL1が境界瞳距離PSmidより長い場合には(S151)、撮像素子102から取得した信号を用いて焦点検出を行う(S154)。センサ瞳距離PS1と比較して、センサ瞳距離PS2がレンズ瞳距離PL1に対して距離が近いからである。   Further, in the focus detection 1, when the lens pupil distance PL1 is longer than the boundary pupil distance PSmid (S151), the camera CPU 104 performs focus detection using the signal acquired from the image sensor 102 (S154). This is because the sensor pupil distance PS2 is closer to the lens pupil distance PL1 than the sensor pupil distance PS1.

以上のように、焦点検出1では、レンズ瞳距離PL1に対してより近いセンサ瞳距離PSを有する撮像素子を用いて、カメラCPU104が焦点検出を行う。これにより、これにより、2つの撮像素子のセンサ瞳距離PSが同じである場合と比較して、より広い範囲のレンズ瞳距離PL1の変化にも対応することができる。すなわち、より良い精度の焦点検出を行うことができる。   As described above, in the focus detection 1, the camera CPU 104 performs focus detection using the image sensor having the sensor pupil distance PS closer to the lens pupil distance PL1. Thereby, compared with the case where the sensor pupil distance PS of two image sensors is the same, it can respond also to the change of the lens pupil distance PL1 of a wider range. That is, it is possible to perform focus detection with better accuracy.

[静止画撮影1(図13(b))]
図13(b)は「静止画撮影1」のフローであり、図12のS121でカメラCPU104が実行するサブルーチンである。S121よりS161に移行すると、カメラCPU104は、静止画撮影用のFナンバをカメラ側通信端子113及びレンズ側通信手段508を介してレンズCPU507に送信する。レンズCPU507は絞り駆動部506を駆動制御し、虹彩絞り505の開口径を静止画撮影に適したFナンバに対応する値に制御する。
[Still Image Shooting 1 (FIG. 13B)]
FIG. 13B is a flow of “still image shooting 1”, which is a subroutine executed by the camera CPU 104 in S121 of FIG. After shifting from S121 to S161, the camera CPU 104 transmits an F number for still image shooting to the lens CPU 507 via the camera-side communication terminal 113 and the lens-side communication means 508. The lens CPU 507 controls the aperture driving unit 506 to control the aperture diameter of the iris diaphragm 505 to a value corresponding to an F number suitable for still image shooting.

S162では、カメラCPU104は、ライブビュー用に開放状態となっていたフォーカルプレンシャッタ111を、いったん閉鎖状態にリセット駆動するようシャッタ駆動部112を制御する。   In S162, the camera CPU 104 controls the shutter driving unit 112 so as to reset the focal plane shutter 111 that has been opened for live view to the closed state.

S163では撮像素子101が、静止画撮影を行なうための電荷蓄積動作を開始する。   In S163, the image sensor 101 starts a charge accumulation operation for taking a still image.

S164では所定の露出演算プログラムで計算された静止画撮影用のシャッタ秒時に基づき、シャッタ駆動部112がフォーカルプレンシャッタ111の先幕及び後幕を駆動し、撮像素子に所定の露光量を与える。   In S164, the shutter drive unit 112 drives the front curtain and the rear curtain of the focal plane shutter 111 based on the still image shooting shutter time calculated by the predetermined exposure calculation program, and gives a predetermined exposure amount to the image sensor.

フォーカルプレンシャッタ111の走行が完了すると、S165で撮像素子101の蓄積動作を終了し、電荷転送を行う。S166でメインフローにリターンする。   When the travel of the focal plane shutter 111 is completed, the accumulation operation of the image sensor 101 is terminated in S165, and charge transfer is performed. In S166, the process returns to the main flow.

以上のごとく、静止画撮影モードが選択された状態で静止画撮影を行なう場合は、フォーカルプレンシャッタ111が光量調節を行ない、電荷転送時には撮像素子へ到達する光束を遮蔽する。これによりスミアやブルーミングの発生が回避でき、高画質の静止画を得ることができる。   As described above, when still image shooting is performed in a state where the still image shooting mode is selected, the focal plane shutter 111 performs light amount adjustment, and blocks the light flux reaching the image sensor during charge transfer. As a result, occurrence of smear and blooming can be avoided, and a high-quality still image can be obtained.

[焦点検出2(図14(a))]
図14(a)は動画撮影時に実行される「焦点検出2」のフローであり、図12のS134で実行するサブルーチンである。
[Focus Detection 2 (FIG. 14A)]
FIG. 14A is a “focus detection 2” flow executed during moving image shooting, and is a subroutine executed in S134 of FIG.

S134よりS171に移行すると、カメラCPU104が、現時点での撮影レンズのレンズ瞳距離PL1と、図7で説明した境界瞳距離PSmidの大小比較を行なう。カメラCPU104が、レンズ瞳距離PL1が境界瞳距離PSmidよりも長いと判断した場合は、S172へ移行する。S172では、カメラCPU104が、動画撮影のために駆動している撮像素子102による焦点検出を行なう。その制御内容は図13(a)のS154と実質的に同一であるため、説明は省略する。S172でカメラCPU104がデフォーカス量DEFを算出すると、S175に移行する。S175では、カメラCPU104がデフォーカス量をフォーカスレンズ駆動量に変換し、S176でメインフローにリターンする。   When the process shifts from S134 to S171, the camera CPU 104 compares the lens pupil distance PL1 of the photographing lens at the present time with the boundary pupil distance PSmid described with reference to FIG. When the camera CPU 104 determines that the lens pupil distance PL1 is longer than the boundary pupil distance PSmid, the process proceeds to S172. In step S172, the camera CPU 104 performs focus detection by the image sensor 102 that is driven for moving image shooting. The content of the control is substantially the same as S154 in FIG. When the camera CPU 104 calculates the defocus amount DEF in S172, the process proceeds to S175. In S175, the camera CPU 104 converts the defocus amount into the focus lens drive amount, and returns to the main flow in S176.

一方、S171においてカメラCPU104が、現在のレンズ瞳距離PL1が境界瞳距離PSmid(第1の所定距離)以下である場合は、S173に移行する。   On the other hand, if the current lens pupil distance PL1 is equal to or smaller than the boundary pupil distance PSmid (first predetermined distance) in S171, the camera CPU 104 proceeds to S173.

S173ではカメラCPU104が非駆動状態である静止画用の撮像素子101を駆動するよう制御し、S174では先に説明した図13(a)のS152と同様の計算を行なう。S174でカメラCPU104がデフォーカス量DEFを算出すると、S175に移行してデフォーカス量をフォーカスレンズ駆動量に変換し、S176でメインフローにリターンする。   In S173, the camera CPU 104 controls to drive the still image sensor 101 that is in the non-driven state, and in S174, the same calculation as S152 in FIG. 13A described above is performed. When the camera CPU 104 calculates the defocus amount DEF in S174, the process proceeds to S175 to convert the defocus amount into the focus lens drive amount, and returns to the main flow in S176.

[焦点検出2の処理による効果]
「焦点検出2」のフロー(図14(a))の効果を説明する。
[Effects of processing of focus detection 2]
The effect of the “focus detection 2” flow (FIG. 14A) will be described.

焦点検出1で説明した理由と同様の理由により、撮像素子102に関しても、レンズ瞳距離PL1とセンサ瞳距離PS2とのずれが大きい場合は、ずれが小さい場合と比較して、焦点検出精度が低下する。   For the same reason as described in the focus detection 1, the focus detection accuracy of the image sensor 102 is lower when the deviation between the lens pupil distance PL1 and the sensor pupil distance PS2 is larger than when the deviation is small. To do.

そこで、焦点検出1では、レンズ瞳距離PL1が境界瞳距離PSmidより長い場合には(S171)、撮像素子102から取得した信号を用いて焦点検出を行う(S172)。センサ瞳距離PS2と比較してセンサ瞳距離PS1の距離が現在のレンズ瞳距離PL1に近いからである。   Therefore, in the focus detection 1, when the lens pupil distance PL1 is longer than the boundary pupil distance PSmid (S171), focus detection is performed using a signal acquired from the image sensor 102 (S172). This is because the sensor pupil distance PS1 is closer to the current lens pupil distance PL1 than the sensor pupil distance PS2.

また、焦点検出2では、レンズ瞳距離PL1が境界瞳距離PSmid以下である場合には(S171)、撮像素子102から取得した信号を用いて焦点検出を行う(S173)。センサ瞳距離PS2と比較して、センサ瞳距離PS1がレンズ瞳距離PL1に対して距離が近いからである。   In the focus detection 2, when the lens pupil distance PL1 is equal to or less than the boundary pupil distance PSmid (S171), focus detection is performed using the signal acquired from the image sensor 102 (S173). This is because the sensor pupil distance PS1 is closer to the lens pupil distance PL1 than the sensor pupil distance PS2.

以上のように、焦点検出2では、焦点検出1と同様に、レンズ瞳距離PL1に対してより近いセンサ瞳距離PSを有する撮像素子を用いて検出を行う。これにより、これにより、2つの撮像素子のセンサ瞳距離PSが同じである場合と比較して、より広い範囲のレンズ瞳距離PL1の変化にも対応することができる。すなわち、より良い精度の焦点検出を行うことができる。   As described above, in the focus detection 2, similarly to the focus detection 1, the detection is performed using the imaging element having the sensor pupil distance PS closer to the lens pupil distance PL1. Thereby, compared with the case where the sensor pupil distance PS of two image sensors is the same, it can respond also to the change of the lens pupil distance PL1 of a wider range. That is, it is possible to perform focus detection with better accuracy.

[静止画撮影2(図14(b))]
図14(b)は動画撮影中に静止画記録を行なう「静止画撮影2」のフローであり、図12のS144でカメラCPU104が実行するサブルーチンである。
[Still Image Shooting 2 (FIG. 14B)]
FIG. 14B is a flow of “still image shooting 2” for recording a still image during moving image shooting, and is a subroutine executed by the camera CPU 104 in S144 of FIG.

S144よりS181に移行する時点で、フォーカルプレンシャッタ111は開放状態になっているとともに、撮影レンズ500の虹彩絞り505は動画撮影用のFナンバに制御されている。そこでS181では、この時点におけるFナンバや撮像素子101について設定された感度に基づき、カメラCPU104が静止画用の撮像素子101の露出時間を演算する。   At the time of shifting from S144 to S181, the focal plane shutter 111 is in an open state, and the iris diaphragm 505 of the photographing lens 500 is controlled to an F number for moving image photographing. In step S181, the camera CPU 104 calculates the exposure time of the still image sensor 101 based on the F number and the sensitivity set for the image sensor 101 at this time.

S182では、カメラCPU104は、フォーカルプレンシャッタ111は開放状態のまま、撮像素子101の電子シャッタを動作するよう制御する。これにより撮像素子101は電荷蓄積を開始する。   In step S182, the camera CPU 104 controls the electronic shutter of the image sensor 101 to operate while the focal plane shutter 111 is open. Thereby, the image sensor 101 starts charge accumulation.

S183では、撮像素子101は所定時間が経過したのちに電子シャッタを閉動作させて電荷蓄積を終了し、S184で電荷転送を行ない、S184でメインフローにリターンする。   In S183, after a predetermined time has elapsed, the image sensor 101 closes the electronic shutter to finish charge accumulation, performs charge transfer in S184, and returns to the main flow in S184.

以上のごとく、動画撮影モードが選択された状態で、動画撮影に並行して静止画撮影を行なう場合は、カメラCPU104は動画撮影モードで制御されているFナンバのまま静止画撮影を行なうよう制御する。また、フォーカルプレンシャッタ111は動作させず、電子シャッタによる露光制御を行なう。したがって、動画記録中に絞り開口径が不用意に変化することなく、かつフォーカルプレンシャッタ111の動作音が録音されることもないため、高品位な動画記録を継続したまま、静止画を得ることができる。   As described above, when still image shooting is performed in parallel with moving image shooting in a state in which the moving image shooting mode is selected, the camera CPU 104 controls to perform still image shooting with the F number controlled in the moving image shooting mode. To do. Further, the focal plane shutter 111 is not operated, and exposure control by the electronic shutter is performed. Therefore, since the aperture diameter of the aperture does not change inadvertently during moving image recording and the operation sound of the focal plane shutter 111 is not recorded, a still image can be obtained while continuing high-quality moving image recording. Can do.

[実施例1による効果]
以上の実施例1においては、撮像素子101のセンサ瞳距離PS1と第2の撮像素子のセンサ瞳距離PS2を異ならせる。そして、図13(a)のS151及び図14(a)のS171で説明したように、焦点検出時のレンズ瞳距離PL1と境界瞳距離PSmidの大小関係を判別し、センサ瞳距離PSとレンズ瞳距離PLの乖離が少ない方の撮像素子で焦点検出する。その結果、A像信号とB像信号のレベル差の少ない方の撮像素子を用いた焦点検出を行なうため、信頼性の高い焦点検出が可能となり、焦点の合った高品位な静止画や動画を取得できる。
[Effects of Example 1]
In the first embodiment described above, the sensor pupil distance PS1 of the image sensor 101 and the sensor pupil distance PS2 of the second image sensor are made different. Then, as described in S151 in FIG. 13A and S171 in FIG. 14A, the magnitude relationship between the lens pupil distance PL1 and the boundary pupil distance PSmid at the time of focus detection is determined, and the sensor pupil distance PS and the lens pupil are determined. Focus detection is performed by an image sensor having a smaller distance PL. As a result, since focus detection is performed using the image sensor with a smaller level difference between the A image signal and the B image signal, highly reliable focus detection is possible, and high-quality still images and moving images that are in focus can be obtained. You can get it.

実施例1においては、撮像素子101は主として静止画撮影用、第2の撮像素子は主として動画撮影用であり、センサ瞳距離PSは撮像素子101よりも撮像素子102のほうが長い。その理由は、動画撮影に適した撮影レンズ500はレンズ瞳距離PLが長くなるように設計される傾向があるためである。焦点調節時にフォーカスレンズを駆動した際に、ピント状態だけでなく、像の大きさの変化、いわゆる像倍率変動を生ずる。そして動画記録時に像倍率変動が生ずると動画の品位を低下させてしまうので、動画撮影用レンズは像倍率変化を抑えるため、レンズ瞳距離PLが長い、いわゆる像側テレセントリックとなるように設計するのが好ましい。そこで実施例1においては、上記背景に鑑み、動画撮影用の撮像素子102のセンサ瞳距離PSが、撮像素子101より長い。ただし、これに限定されるものではなく、例えば撮像素子101を動画用とする場合は、センサ瞳距離PSを長くしても良い。   In the first embodiment, the image sensor 101 is mainly for still image shooting, the second image sensor is mainly for moving image shooting, and the sensor pupil distance PS is longer in the image sensor 102 than in the image sensor 101. The reason is that the photographing lens 500 suitable for moving image photographing tends to be designed so that the lens pupil distance PL becomes long. When the focus lens is driven at the time of focus adjustment, not only the focus state but also a change in image size, so-called image magnification fluctuation, occurs. If the image magnification fluctuation occurs during moving image recording, the quality of the moving image is deteriorated. Therefore, the moving image shooting lens is designed to be so-called image side telecentric with a long lens pupil distance PL in order to suppress a change in image magnification. Is preferred. Therefore, in the first embodiment, in view of the above background, the sensor pupil distance PS of the imaging element 102 for moving image shooting is longer than that of the imaging element 101. However, the present invention is not limited to this. For example, when the image sensor 101 is used for moving images, the sensor pupil distance PS may be increased.

また、実施例1では焦点検出に用いる撮像素子を選択するための判断基準として、センサ瞳距離PSの長さを用いていたが、これに限定されるものではない。例えば、図10に示したシェーディング補正情報を判断基準に用いることも可能である。図10において、焦点検出時のFナンバがF2、レンズ瞳距離がレンズ瞳距離2の場合、撮像素子101におけるシェーディング補正情報は同図(a)よりFs122、撮像素子102におけるシェーディング補正情報は同図(b)よりFs222である。そして、Fs122とFs222の値を比較することにより、A像信号とB像信号のレベル差を推定することが可能である。すなわち焦点検出信号の補正のために記憶された情報を比較し、その結果に基づいて焦点検出に用いる撮像素子を選択するという実施形態も可能である。なお、本実施例では、静止画もしくは動画記録に用いておらず、かつ焦点検出に適さないと判断された方の撮像素子は駆動しないため、無駄な電力消費が回避され、合焦精度の向上と省電を両立することができる。ただし、本発明はこれに限定されるものではない。2つの撮像素子を同時に駆動することで、記録に用いていない撮像素子から焦点検出信号を取得する場合に、駆動時間を短縮し、駆動タイミングを合わせることができる。この場合には、カメラ本体100は、2つの撮像素子それぞれに対応して、別個の画像処理部を有する。   In the first embodiment, the length of the sensor pupil distance PS is used as a criterion for selecting an image sensor used for focus detection. However, the present invention is not limited to this. For example, the shading correction information shown in FIG. 10 can be used as a determination criterion. In FIG. 10, when the F number at the time of focus detection is F2 and the lens pupil distance is lens pupil distance 2, the shading correction information in the image sensor 101 is Fs122 and the shading correction information in the image sensor 102 is the same as FIG. From (b), it is Fs222. Then, by comparing the values of Fs122 and Fs222, it is possible to estimate the level difference between the A image signal and the B image signal. That is, an embodiment in which information stored for correcting a focus detection signal is compared and an image sensor used for focus detection is selected based on the result is also possible. In this embodiment, the image pickup device that is not used for recording a still image or a moving image and is determined not to be suitable for focus detection is not driven, so unnecessary power consumption is avoided and focusing accuracy is improved. And power saving. However, the present invention is not limited to this. By simultaneously driving the two image sensors, when a focus detection signal is acquired from an image sensor that is not used for recording, the drive time can be shortened and the drive timing can be adjusted. In this case, the camera body 100 has separate image processing units corresponding to the two image sensors.

[実施例2]
実施例1は、焦点検出に用いる撮像素子を選択するための判断基準として、レンズ瞳距離PLとセンサ瞳距離PSの情報や、シェーディング補正情報を用いていた。これに対し、以下に示す実施例2では、カメラCPU104が焦点検出時には2つの撮像素子の両方からの信号を用いて焦点検出し、各々の焦点検出結果のうち信頼性が高いと推定される焦点検出結果を選択するものである。実施例2における撮像装置の構成や焦点検出特性は実施例1と同様であるため、説明は省略する。実施例2における撮影処理のメインフローは図12に示したメインフローチャートと同一であるが、焦点検出のサブルーチンであるS114とS132が異なるため、焦点検出サブルーチンのみ説明する。
[Example 2]
In the first embodiment, information on the lens pupil distance PL and the sensor pupil distance PS and shading correction information are used as a determination criterion for selecting an image sensor used for focus detection. On the other hand, in the second embodiment described below, the camera CPU 104 performs focus detection using signals from both of the two image sensors at the time of focus detection, and a focus that is estimated to have high reliability among the focus detection results. The detection result is selected. Since the configuration and focus detection characteristics of the imaging apparatus in the second embodiment are the same as those in the first embodiment, description thereof is omitted. Although the main flow of the photographing process in the second embodiment is the same as the main flowchart shown in FIG. 12, the focus detection subroutines S114 and S132 are different, and only the focus detection subroutine will be described.

図12のメインフローにおいて、静止画モードの場合はS103からS111に移行し、S111ないしS113を実行してS114に移行する。S114では、図15(a)に示した焦点検出3のサブルーチンを実行する。   In the main flow of FIG. 12, in the still image mode, the process proceeds from S103 to S111, S111 to S113 are executed, and the process proceeds to S114. In S114, the focus detection 3 subroutine shown in FIG. 15A is executed.

[焦点検出3(図15(a))]
図15(a)は、実施例2の撮像装置において、カメラCPU104静止画撮影時に実行する「焦点検出3」のフローである。
[Focus Detection 3 (FIG. 15A)]
FIG. 15A is a flowchart of “focus detection 3” executed at the time of still image shooting of the camera CPU 104 in the image pickup apparatus of the second embodiment.

S114よりS251に移行すると、カメラCPU104は、静止画撮影のために駆動している撮像素子101による焦点検出(デフォーカス量の算出)を行なう。具体的には、カメラCPU104は、AFE114が撮像素子101で取得した信号から一対の焦点検出信号(A像信号とB像信号)を生成するよう制御する。そして、カメラCPU104は、図10(a)に示したシェーディング補正のためのルックアップデーブルから、焦点検出時のFナンバとレンズ瞳距離PLに対応する情報を読み出し、A像信号とB像信号にシェーディング補正を施すよう制御する。次いで、カメラCPU104は、式15の相間演算式を用いた相間演算により、A像信号とB像信号の位相差φ1と相関値の極小値C1を計算する。そして、カメラCPU104は、図11(a)に示したルックアップテーブルからデフォーカス量DEFを算出するための変換情報を読み出し、前述の式17を用いてデフォーカス量DEFを算出する。   After shifting from S114 to S251, the camera CPU 104 performs focus detection (defocus amount calculation) by the image sensor 101 that is driven for still image shooting. Specifically, the camera CPU 104 controls the AFE 114 to generate a pair of focus detection signals (A image signal and B image signal) from signals acquired by the image sensor 101. Then, the camera CPU 104 reads information corresponding to the F number and the lens pupil distance PL at the time of focus detection from the look-up table for shading correction shown in FIG. 10A, and converts the information into an A image signal and a B image signal. Control to perform shading correction. Next, the camera CPU 104 calculates the phase difference φ1 between the A image signal and the B image signal and the minimum value C1 of the correlation value by the interphase calculation using the interphase calculation formula of Formula 15. Then, the camera CPU 104 reads conversion information for calculating the defocus amount DEF from the look-up table shown in FIG. 11A, and calculates the defocus amount DEF using the above-described equation 17.

S252では、カメラCPU104が非駆動状態にある動画用の撮像素子102を駆動するよう制御する。S253では、カメラCPU104が先に説明したS251と同様の制御を行なう。すなわち、カメラCPU104は、AFE115が撮像素子102で取得した信号から一対の焦点検出信号(A像信号とB像信号)を生成するよう制御する。そして、カメラCPU104は、図10(b)に示したシェーディング補正のためのルックアップデーブルから焦点検出時のFナンバとレンズ瞳距離PLに対応する情報を読み出し、A像信号とB像信号にシェーディング補正を施すよう制御する。次いで、カメラCPU104は、式15の相間演算式を用いた相間演算により、A像信号とB像信号の位相差φ2と相間値の極小値C2を計算する。そして、カメラCPU104は、図11(b)に示したルックアップデーブルからデフォーカス量DEFを算出するための変換情報を読み出し、前述の式17を用いてデフォーカス量DEFを算出し、S254に移行する。   In step S252, the camera CPU 104 performs control so as to drive the moving image pickup element 102 in a non-driven state. In S253, the camera CPU 104 performs the same control as in S251 described above. That is, the camera CPU 104 controls the AFE 115 to generate a pair of focus detection signals (A image signal and B image signal) from the signal acquired by the image sensor 102. Then, the camera CPU 104 reads information corresponding to the F number and the lens pupil distance PL at the time of focus detection from the look-up table for shading correction shown in FIG. 10B, and performs shading into an A image signal and a B image signal. Control to apply correction. Next, the camera CPU 104 calculates the phase difference φ2 between the A image signal and the B image signal and the minimum value C2 of the interphase value by the interphase operation using the interphase arithmetic expression of Expression 15. Then, the camera CPU 104 reads conversion information for calculating the defocus amount DEF from the look-up table shown in FIG. 11B, calculates the defocus amount DEF using the above-described equation 17, and proceeds to S254. To do.

S254では、カメラCPU104(第1の判定手段)が、S251で得た撮像素子101による焦点検出結果と、S253で得た第2の撮像素子による焦点検出結果の信頼性を比較し判定する。信頼性を示す指標の一例として、本実施例では図9で説明した相関値の極小値を用いる。A像信号とB像信号のレベル差が大きい場合、レベル差が小さい場合と比較して、レベルの低い方の信号はシェーディング補正による増幅ゲインが大きくなる。すると、元の信号のノイズ成分や、各画素部の感度バラツキに起因する出力誤差も拡大され、2像の一致度が低下する。この場合、相間値の極小値を示す位相差φにおいても、相対的に大きな値を示す。すなわち、相間値の極小値が低いほど、A像信号とB像信号の一致度が高く、得られた位相差φの信頼性が高い。よって、S254においては、カメラCPU104(第1の判定手段)が、A像とB像の相関値の極小値(以下、単に相関値の極小値とも称する)がより小さい結果、すなわちA像とB像の一致度がより高い結果をより信頼性が高いと判定する。具体的には、撮像素子101から取得した相関値の極小値が、撮像素子102から取得した相関値の極小値以下である場合には、カメラCPU104は撮像素子101から取得した信号の信頼性が撮像素子102から取得した信号の信頼性よりも高いと判定する。また、撮像素子101から取得した相関値の極小値が、撮像素子102から取得した相関値の極小値よりも大きい場合には、カメラCPU104は撮像素子102から取得した信号の信頼性が撮像素子101から取得した信号の信頼性よりも高いと判定する。カメラCPU104は撮像素子101から取得した信号又は撮像素子102から取得した信号のうちより信頼性の高い信号に基づく焦点検出結果を選択し、S255に移行する。なお、2つの撮像素子から取得した焦点検出結果のうち、より信頼性の高い焦点検出結果をより多く用いるように重みづけし、2つの撮像素子両方の焦点検出結果を用いても良い。   In S254, the camera CPU 104 (first determination unit) compares and determines the reliability of the focus detection result obtained by the image sensor 101 obtained in S251 and the focus detection result obtained by the second image sensor obtained in S253. As an example of an index indicating reliability, the minimum value of the correlation value described in FIG. 9 is used in the present embodiment. When the level difference between the A image signal and the B image signal is large, the signal having the lower level has a larger amplification gain due to shading correction than when the level difference is small. Then, the noise component of the original signal and the output error due to the sensitivity variation of each pixel unit are enlarged, and the degree of coincidence of the two images is lowered. In this case, the phase difference φ indicating the minimum value of the interphase value also shows a relatively large value. That is, as the minimum value of the interphase value is lower, the degree of coincidence between the A image signal and the B image signal is higher, and the reliability of the obtained phase difference φ is higher. Therefore, in S254, the camera CPU 104 (first determination means) has a smaller result of a minimum correlation value between the A image and the B image (hereinafter also simply referred to as a minimum correlation value), that is, the A image and the B image. A result with a higher degree of coincidence of images is determined to be more reliable. Specifically, when the minimum value of the correlation value acquired from the image sensor 101 is less than or equal to the minimum value of the correlation value acquired from the image sensor 102, the camera CPU 104 has reliability of the signal acquired from the image sensor 101. It is determined that the reliability of the signal acquired from the image sensor 102 is higher. Further, when the minimum value of the correlation value acquired from the image sensor 101 is larger than the minimum value of the correlation value acquired from the image sensor 102, the camera CPU 104 determines that the reliability of the signal acquired from the image sensor 102 is the image sensor 101. It is determined that the reliability of the signal acquired from the above is higher. The camera CPU 104 selects a focus detection result based on a more reliable signal from the signal acquired from the image sensor 101 or the signal acquired from the image sensor 102, and the process proceeds to S255. Note that the focus detection results obtained from the two image sensors may be weighted so that more reliable focus detection results are used, and the focus detection results of both the two image sensors may be used.

S255では、カメラCPU104が、S254で選択された焦点検出結果であるデフォーカス量をフォーカスレンズ駆動量に変換し、S256でメインフローにリターンする。   In S255, the camera CPU 104 converts the defocus amount, which is the focus detection result selected in S254, into a focus lens drive amount, and returns to the main flow in S256.

[焦点検出4]
図15(b)は、実施例2の撮像装置において、カメラCPU104が動画撮影時に実行する「焦点検出4」のフローである。
[Focus detection 4]
FIG. 15B is a flow of “focus detection 4” executed by the camera CPU 104 during moving image shooting in the image pickup apparatus according to the second embodiment.

図12に示したメインフローのS134よりS271に移行すると、カメラCPU104は、動画撮影のために駆動している撮像素子102による焦点検出を行なう。当ステップは図15(a)のS253と同一のため、説明は省略する。S271では、カメラCPU104が、撮像素子102による位相差φ2とデフォーカス量DEF2が算出する。S272では、カメラCPU104非駆動状態にある静止画用の撮像素子102を駆動し、S273では図15(a)のS251と同様の制御を行なうため、説明を省略する。S273では、カメラCPU104が、撮像素子101による位相差φ1とデフォーカス量DEF1が算出し、S274に移行する。   When the process shifts from S134 in the main flow shown in FIG. 12 to S271, the camera CPU 104 performs focus detection by the image sensor 102 that is driven for moving image shooting. Since this step is the same as S253 in FIG. In S271, the camera CPU 104 calculates the phase difference φ2 and the defocus amount DEF2 due to the image sensor 102. In S272, the still image pickup device 102 in the non-driven state of the camera CPU 104 is driven. In S273, the same control as S251 in FIG. In S273, the camera CPU 104 calculates the phase difference φ1 and the defocus amount DEF1 by the image sensor 101, and the process proceeds to S274.

S274では、カメラCPU104(第1の判定手段)が図15(a)のS254と同一の判定を行なう。すなわち、カメラCPU104が、S271で得た第2の撮像素子による焦点検出結果の信頼性と、S273で得た撮像素子101による焦点検出結果の信頼性を比較する。S274において、カメラCPU104(第1の判定手段)がより信頼性の高い焦点検出結果を選択すると、S275に移行する。S275では、S247でカメラCPU104が選択したデフォーカス量をフォーカスレンズ駆動量に変換し、S276でメインフローにリターンする。   In S274, the camera CPU 104 (first determination unit) performs the same determination as in S254 of FIG. That is, the camera CPU 104 compares the reliability of the focus detection result obtained by the second image sensor obtained in S271 with the reliability of the focus detection result obtained by the image sensor 101 obtained in S273. In S274, when the camera CPU 104 (first determination unit) selects a more reliable focus detection result, the process proceeds to S275. In S275, the defocus amount selected by the camera CPU 104 in S247 is converted into a focus lens drive amount, and the process returns to the main flow in S276.

[実施例2の効果]
以上の実施例2においては、撮像素子101の焦点検出結果と撮像素子102の焦点検出結果を比較し、カメラCPU104(第1の判定手段)がより信頼性の高い結果を採用する。なお、本実施例で例示したように一方の結果を択一的に選択するのではなく、カメラCPU104が、焦点検出結果の信頼性の大小に基づいて、両方の焦点検出結果に重み付けを施し、新たなデフォーカス量を算出しても良い。
[Effect of Example 2]
In the second embodiment described above, the focus detection result of the image sensor 101 and the focus detection result of the image sensor 102 are compared, and the camera CPU 104 (first determination unit) adopts a more reliable result. Instead of selecting one result alternatively as illustrated in the present embodiment, the camera CPU 104 weights both focus detection results based on the reliability of the focus detection results, A new defocus amount may be calculated.

実施例2によれば、撮像装置に記憶された情報、例えばレンズ瞳距離PLとセンサ瞳距離PSの情報や、シェーディング補正情報の精度が不足しているような場合でも、カメラCPU104がより精度の高い焦点検出結果を選択することができる。   According to the second embodiment, even when the information stored in the imaging apparatus, for example, the information of the lens pupil distance PL and the sensor pupil distance PS, or the shading correction information is insufficient, the camera CPU 104 has more accuracy. A high focus detection result can be selected.

[実施例3]
実施例1及び実施例2においては、撮像素子101と撮像素子102はセンサ瞳距離PSのみが異なり、画素部の大きさや画素数は両撮像素子において同一であった。以下に示す実施例3は、撮像素子101は高画素静止画撮影を得るために画素数が多く、撮像素子101よりもフレームレートを高くすべく、画素数が相対的に少ない撮像素子302(第2の撮像素子)を有する撮像装置に本発明を適用したものである。
[Example 3]
In Example 1 and Example 2, the image sensor 101 and the image sensor 102 differ only in the sensor pupil distance PS, and the size and the number of pixels of the pixel portion are the same in both image sensors. In Example 3 described below, the image sensor 101 has a large number of pixels in order to obtain high-pixel still image shooting, and the image sensor 302 (the first image element 302) has a relatively small number of pixels in order to increase the frame rate compared to the image sensor 101. The present invention is applied to an image pickup apparatus having two image pickup elements).

[撮像素子の構成]
図16は実施例3における、撮像素子101(第1の撮像素子)および撮像素子302(第2の撮像素子)の構成を説明する図である。同図(a)は撮像素子101の中央近傍における平面図、同図(b)は一つの画素部の断面図である。実施例3における撮像素子101は、実施例1において図2(a)及び(b)に示した第1の撮像素子と同じである。すなわち、撮像素子101が有する複数の画素部はそれぞれ撮像面上の水平方向(x)、垂直方向(y)共に4μmの大きさを有した正方形の画素部であり、これらの画素部の構造は実質的にすべて同じである。これらの画素部が水平方向に6000画素、垂直方向に4000画素配列された、有効画素数2400万画素の撮像素子で、撮像領域の大きさは水平方向に24mm、垂直方向に16mmとなる。各画素部にはRGBのカラーフィルタがモザイク状に配列されている。
[Configuration of image sensor]
FIG. 16 is a diagram illustrating the configuration of the image sensor 101 (first image sensor) and the image sensor 302 (second image sensor) in the third embodiment. 2A is a plan view in the vicinity of the center of the image sensor 101, and FIG. 2B is a cross-sectional view of one pixel portion. The image sensor 101 according to the third embodiment is the same as the first image sensor illustrated in FIGS. 2A and 2B in the first embodiment. That is, the plurality of pixel portions included in the imaging element 101 are square pixel portions each having a size of 4 μm in the horizontal direction (x) and the vertical direction (y) on the imaging surface, and the structure of these pixel portions is as follows. Virtually all are the same. These pixel portions are 6000 pixels in the horizontal direction and 4000 pixels in the vertical direction, and have an effective pixel number of 24 million pixels. The size of the imaging region is 24 mm in the horizontal direction and 16 mm in the vertical direction. In each pixel portion, RGB color filters are arranged in a mosaic pattern.

図16(c)及び(d)は、撮像素子302の平面図と断面図である。撮像素子302は主として動画を撮影するための撮像素子である。個々の画素部は水平方向(x)、垂直方向(y)共に6μmの大きさを有し、これらの画素部が水平方向に3840画素、垂直方向に2160画素配列された、有効画素数830万画素のいわゆる4K動画用の撮像素子である。撮像領域の大きさは第1の撮像素子と同様の計算で求めることができ、水平方向に23.04mm、垂直方向に12.96mmとなる。各画素部には撮像素子101と同様にRGBのカラーフィルタがモザイク状に配列されている。   FIGS. 16C and 16D are a plan view and a cross-sectional view of the image sensor 302. The image pickup element 302 is an image pickup element for mainly taking a moving image. Each pixel portion has a size of 6 μm in both the horizontal direction (x) and the vertical direction (y), and these pixel portions are arranged with 3840 pixels in the horizontal direction and 2160 pixels in the vertical direction, and the number of effective pixels is 8.30 million. This is an image sensor for so-called 4K moving image of pixels. The size of the imaging region can be obtained by the same calculation as that of the first imaging device, and is 23.04 mm in the horizontal direction and 12.96 mm in the vertical direction. Similar to the image sensor 101, RGB color filters are arranged in a mosaic pattern in each pixel portion.

また、同図(b)及び(d)の比較でわかるように、撮像素子101と撮像素子302の断面における構造は同一であるが、各構成部材の寸法は異なる。その結果、撮像素子101と撮像素子302における一対の焦点検出瞳の大きさや基線長も異なる。   Further, as can be seen from a comparison between FIGS. 4B and 4D, the image sensor 101 and the image sensor 302 have the same cross-sectional structure, but the dimensions of the constituent members are different. As a result, the size and baseline length of the pair of focus detection pupils in the image sensor 101 and the image sensor 302 are also different.

[センサ瞳距離]
図17は、撮影レンズ500の射出瞳と、2つの撮像素子における焦点検出瞳の関係を説明する図であり、実施例1の図4に対応する。撮影レンズ500は実施例1と同一のものとして説明する。図17(a)は撮像素子101の説明図であるが、実施例3における撮像素子101は実施例1における第1の撮像素子と同一構成、同一寸法のため、詳細説明は省略する。よって、第1の撮像素子101に関する種々の特性は、式1ないし式6がそのまま適用できる。
[Sensor pupil distance]
FIG. 17 is a diagram for explaining the relationship between the exit pupil of the photographing lens 500 and the focus detection pupil in the two image sensors, and corresponds to FIG. 4 of the first embodiment. The photographic lens 500 will be described as being the same as in the first embodiment. FIG. 17A is an explanatory diagram of the image sensor 101. Since the image sensor 101 in the third embodiment has the same configuration and the same dimensions as the first image sensor in the first embodiment, detailed description thereof is omitted. Therefore, Expressions 1 to 6 can be applied to various characteristics related to the first image sensor 101 as they are.

図17(b)は撮像素子302の説明図である。画素部3021は撮像面中央、すなわち像高x=0に配置された画素部、画素部3022は撮像面の端に近い場所、例えば像高x=10mmに配置された画素部である。画素部3021の主点3021pは該画素部が備えるマイクロレンズ3021cの光線屈折作用を考える上での基準位置であり、主点3021pを通って光軸に直交する面が撮像素子302の予定結像面、いわゆる撮像面IP3となる。   FIG. 17B is an explanatory diagram of the image sensor 302. The pixel unit 3021 is a pixel unit disposed at the center of the imaging surface, that is, the image height x = 0, and the pixel unit 3022 is a pixel unit disposed near the end of the imaging surface, for example, the image height x = 10 mm. A principal point 3021p of the pixel portion 3021 is a reference position for considering the light refraction action of the microlens 3021c included in the pixel portion, and a plane perpendicular to the optical axis passing through the principal point 3021p is a scheduled image formation of the image sensor 302. This is a so-called imaging surface IP3.

撮像面中央の画素部3021において、マイクロレンズ3021cの主点3021pと一対の光電変換部上面間の高さh3が画素部の高さである。そして、マイクロレンズ3021cの焦点が光電変換部3021a及び光電変換部3021bの上面と略一致するように、マイクロレンズ3021cの形状(光学パワー)が設定されている。よって、後述するセンサ瞳面SPL3上に、一対の光電変換部3021a及び3021bに対応する一対の逆投影像AP3a及びAP3bが形成され、これが焦点検出時の光束を規定する焦点検出瞳となる。   In the pixel portion 3021 at the center of the imaging surface, the height h3 between the principal point 3021p of the microlens 3021c and the upper surfaces of the pair of photoelectric conversion portions is the height of the pixel portion. The shape (optical power) of the microlens 3021c is set so that the focal point of the microlens 3021c substantially coincides with the upper surfaces of the photoelectric conversion unit 3021a and the photoelectric conversion unit 3021b. Therefore, a pair of back-projected images AP3a and AP3b corresponding to the pair of photoelectric conversion units 3021a and 3021b are formed on a sensor pupil plane SPL3 to be described later, and this becomes a focus detection pupil that defines a light beam at the time of focus detection.

画素部3021はマイクロレンズ3021cの光軸と画素部の中心(一対の光電変換部の境界部中心)が一致している。しかし、撮像面IP3の端部に位置する画素部3022においては、マイクロレンズ3022cの光軸と画素部の中心が一致しておらず、撮影レンズの光軸寄りに所定量dx3だけ偏心している。そこで、画素部3022の主光線S32c(一対の光電変換部境界とマイクロレンズの主点を結ぶ線)は光軸に対して所定の角度ω3だけ傾斜することになり、撮像面IP3から所定距離だけ隔たった点CS3で光軸と交差する。この交点CS3をとおり光軸と直交する仮想面がセンサ瞳面SPL3、センサ瞳面SPL3と撮像面IP1の間の距離PS3がセンサ瞳距離PS3である。センサ瞳面上ではすべての画素部の焦点検出瞳が実質的に一致する。   In the pixel portion 3021, the optical axis of the microlens 3021 c and the center of the pixel portion (the boundary portion center between the pair of photoelectric conversion portions) coincide with each other. However, in the pixel portion 3022 located at the end of the imaging surface IP3, the optical axis of the micro lens 3022c does not coincide with the center of the pixel portion, and is decentered by a predetermined amount dx3 closer to the optical axis of the photographing lens. Therefore, the principal ray S32c of the pixel portion 3022 (a line connecting the boundary between the pair of photoelectric conversion portions and the principal point of the microlens) is inclined by a predetermined angle ω3 with respect to the optical axis, and is only a predetermined distance from the imaging surface IP3. Crosses the optical axis at a separated point CS3. A virtual plane passing through the intersection CS3 and orthogonal to the optical axis is the sensor pupil plane SPL3, and a distance PS3 between the sensor pupil plane SPL3 and the imaging plane IP1 is a sensor pupil distance PS3. On the sensor pupil plane, the focus detection pupils of all the pixel portions substantially coincide.

撮像素子101の基線長は先に説明したように式1ないし式3で計算できるが、撮像素子302の基線長GP3や基線角度α31についても同様に計算でき、以下の式で表わされる。
GP3/PS3=GS3/h3 (式18)
GP3=GS3×(PS3/h3) (式19)
α31=GS3/h3=GP3/PS3 (式20)
The base line length of the image sensor 101 can be calculated by the formulas 1 to 3 as described above, but the base line length GP3 and the base line angle α31 of the image sensor 302 can be calculated in the same manner, and are represented by the following formulas.
GP3 / PS3 = GS3 / h3 (Formula 18)
GP3 = GS3 × (PS3 / h3) (Formula 19)
α31 = GS3 / h3 = GP3 / PS3 (Formula 20)

また、撮像素子101のセンサ瞳距離PSは式4ないし式6で計算できたが、撮像素子302のセンサ瞳距離PS3も同様の方向で計算でき、以下の式のようになる。   In addition, the sensor pupil distance PS of the image sensor 101 can be calculated by Expressions 4 to 6, but the sensor pupil distance PS3 of the image sensor 302 can also be calculated in the same direction, as shown in the following expression.

X3/(PS3+h3)=dx3/h3 (式21)
PS3=X3×(h3/dx3) (式22)
dx3=h3×(X3/PS3) (式23)
X3 / (PS3 + h3) = dx3 / h3 (Formula 21)
PS3 = X3 × (h3 / dx3) (Formula 22)
dx3 = h3 × (X3 / PS3) (Formula 23)

ここで、X3は画素部3022のx座標、dx3はマイクロレンズ3022cの偏心量、PS3はセンサ瞳距離PSである。   Here, X3 is the x coordinate of the pixel portion 3022, dx3 is the amount of eccentricity of the microlens 3022c, and PS3 is the sensor pupil distance PS.

画素部3022の画素構造や各部の寸法は、マイクロレンズの偏心量を除いて画素部3021と同一である。よって、センサ瞳面SPL3上には、一対の光電変換部3022a及び3022bに対応する一対の逆投影像が形成され、この逆投影像は画素部3021の光電変換部の逆投影像AP3a及びAP3bと実質的に同一となる。すなわち、任意の画素部において、式23が成り立つように当該画素部のマイクロレンズの偏心量を設定することにより、すべての画素部のセンサ瞳距離がセンサ瞳距離PS3となる。つまり、センサ瞳面上においてはすべての画素部の焦点検出瞳がAP3a及びAP3bに共通化される。   The pixel structure of the pixel portion 3022 and the dimensions of each portion are the same as those of the pixel portion 3021 except for the amount of eccentricity of the microlens. Therefore, a pair of backprojected images corresponding to the pair of photoelectric conversion units 3022a and 3022b is formed on the sensor pupil plane SPL3. The backprojected images are backprojected images AP3a and AP3b of the photoelectric conversion unit of the pixel unit 3021. It becomes substantially the same. That is, by setting the amount of eccentricity of the microlens of the pixel unit so that Expression 23 holds in an arbitrary pixel unit, the sensor pupil distance of all the pixel units becomes the sensor pupil distance PS3. That is, on the sensor pupil plane, the focus detection pupils of all the pixel portions are shared by AP3a and AP3b.

以上のように、実施例3の撮像装置が備える撮像素子101と撮像素子302は、画素部の構造は実質的に同じだが、画素部の平面寸法や高さ方向の寸法も異なり、焦点検出瞳の基線長やセンサ瞳距離PSも異なる。しかしながら実施例3においても、撮像面端部における主光線角度ωとセンサ瞳距離PSの大小関係は、
ω1>ω3 (式24)
PS1<PS3 (式25)
の関係が成り立っている。すなわち、撮像素子101と撮像素子302とではセンサ瞳距離PSが異なるようにマイクロレンズの偏心量が設定されている。
As described above, the image pickup device 101 and the image pickup device 302 included in the image pickup apparatus according to the third embodiment have substantially the same pixel portion structure, but the pixel portion has different planar dimensions and height direction dimensions, and the focus detection pupil. The base line length and sensor pupil distance PS are also different. However, also in Example 3, the magnitude relationship between the principal ray angle ω at the edge of the imaging surface and the sensor pupil distance PS is
ω1> ω3 (Formula 24)
PS1 <PS3 (Formula 25)
The relationship is established. That is, the eccentric amount of the microlens is set so that the sensor pupil distance PS differs between the image sensor 101 and the image sensor 302.

[撮影処理]
実施例3における撮影処理としては、実施例1あるいは実施例2で説明した撮影フローや焦点検出フローを適用することができる。
[Shooting process]
As the shooting process in the third embodiment, the shooting flow and the focus detection flow described in the first or second embodiment can be applied.

[実施例3の効果]
実施例1及び実施例2では撮像素子101と撮像素子102とで画素数が同じであったのに対し、本実施例では撮像素子302の画素数は撮像素子101の画素数よりも相対的に少ない。これにより、撮像素子302では撮像素子101と比較して、よりフレームレートの高い動画を撮影することができる。
[Effect of Example 3]
In the first and second embodiments, the image sensor 101 and the image sensor 102 have the same number of pixels, but in this embodiment, the number of pixels of the image sensor 302 is relatively larger than the number of pixels of the image sensor 101. Few. As a result, the image sensor 302 can shoot a moving image with a higher frame rate than the image sensor 101.

本実施例では、実施例1及び実施例2で説明した撮影フローや焦点検出フローを適用することで、実施例1及び実施例2と同様の効果を得ることができる。   In the present embodiment, the same effects as in the first and second embodiments can be obtained by applying the photographing flow and the focus detection flow described in the first and second embodiments.

[実施例4]
実施例1、実施例2及び実施例3においては、2つの撮像素子が共に位相差検出のための信号を出力することが可能であった。これに対して、以下に示す実施例4は、2つの撮像素子のうち一方の撮像素子302(第2の撮像素子)のみが撮像面位相差検出のための信号を出力することができる撮像装置に本発明を適用した実施例である。なお、2つの撮像素子のうちもう一方である撮像素子401は実施例1における撮像素子101に対応しており、本実施例の撮像装置は実施例1におけるAFE114の代わりに、AFE116(第3の画像処理部)を有する。
[Example 4]
In the first embodiment, the second embodiment, and the third embodiment, both of the two image sensors can output a signal for detecting a phase difference. On the other hand, in the fourth embodiment described below, an image pickup apparatus in which only one of the two image pickup elements 302 (second image pickup element) can output a signal for detecting an imaging surface phase difference. It is the Example which applied this invention to. The other image sensor 401 of the two image sensors corresponds to the image sensor 101 in the first embodiment, and the image pickup apparatus of the present embodiment replaces the AFE 114 in the first embodiment with an AFE 116 (third Image processing unit).

[撮像素子の構成]
図18は実施例4における、撮像素子401(第3の撮像素子)および撮像素子302(第2の撮像素子)の構成を説明する図である。同図(a)は撮像素子101の中央近傍における平面図、同図(b)は一つの画素部の断面図である。実施例4における撮像素子401は、画素部の大きさや画素数は実施例1、実施例2及び実施例3に用いられる撮像素子101と同一であるが、画素部が備える光電変換部は各画素部に対して1個であり、位相差検出のための信号を取得しない。
[Configuration of image sensor]
FIG. 18 is a diagram illustrating the configuration of the image sensor 401 (third image sensor) and the image sensor 302 (second image sensor) in the fourth embodiment. 2A is a plan view in the vicinity of the center of the image sensor 101, and FIG. 2B is a cross-sectional view of one pixel portion. The image sensor 401 in the fourth embodiment has the same size and the number of pixels as the image sensor 101 used in the first, second, and third embodiments, but the photoelectric conversion unit included in the pixel section is each pixel. No signal is acquired for phase difference detection.

図18(a)において、撮像素子401が有する複数の画素部はそれぞれ撮像面上の水平方向(x)、垂直方向(y)共に4μmの大きさを有した正方形の画素部であり、これらの画素部の構造は実質的にすべて同じである。これらの画素部が水平方向に6000画素部、垂直方向に4000画素配列された、有効画素数2400万画素の撮像素子で、撮像領域の大きさは水平方向に24mm、垂直方向に16mmとなる。各画素部にはRGBのカラーフィルタがモザイク状に配列されている。そして各画素部は、同図(b)に示すように単一の光電変換部401aを備える。   In FIG. 18A, the plurality of pixel portions included in the imaging element 401 are square pixel portions each having a size of 4 μm in the horizontal direction (x) and the vertical direction (y) on the imaging surface. The structure of the pixel portion is substantially the same. These pixel portions are 6000 pixel portions in the horizontal direction and 4000 pixels in the vertical direction, and have an effective pixel number of 24 million pixels. The size of the imaging region is 24 mm in the horizontal direction and 16 mm in the vertical direction. In each pixel portion, RGB color filters are arranged in a mosaic pattern. Each pixel unit includes a single photoelectric conversion unit 401a as shown in FIG.

[センサ瞳距離]
図19は、撮影レンズ500の射出瞳と、2つの撮像素子における焦点検出瞳の関係を説明する図であり、実施例1の図4及び実施例3の図17に対応する。撮影レンズ500は実施例1と同一のものとして説明する。図19(a)は撮像素子401の説明図、同図(b)は撮像素子302の説明図であるが、実施例4における撮像素子302は実施例3における撮像素子302と同一構成、同一寸法のため、詳細説明は省略する。以下に、撮像素子401について説明する。
[Sensor pupil distance]
FIG. 19 is a diagram for explaining the relationship between the exit pupil of the photographing lens 500 and the focus detection pupils in the two image sensors, and corresponds to FIG. 4 of the first embodiment and FIG. 17 of the third embodiment. The photographic lens 500 will be described as being the same as in the first embodiment. 19A is an explanatory diagram of the image sensor 401, and FIG. 19B is an explanatory diagram of the image sensor 302. The image sensor 302 in the fourth embodiment has the same configuration and the same dimensions as the image sensor 302 in the third embodiment. Therefore, detailed description is omitted. Hereinafter, the image sensor 401 will be described.

図19(a)において、画素部4011は撮像面中央、すなわち像高x=0に配置された画素部、画素部3022は撮像面の端に近い場所、例えば像高x=10mmに配置された画素部である。画素部4011の主点4011pは該画素部が備えるマイクロレンズ4011cの光線屈折作用を考える上での基準位置であり、主点4011pを通って光軸に直交する面が撮像素子401の予定結像面、すなわち撮像面IP4となる。   In FIG. 19A, the pixel unit 4011 is arranged at the center of the imaging surface, that is, the pixel unit arranged at the image height x = 0, and the pixel unit 3022 is arranged near the end of the imaging surface, for example, the image height x = 10 mm. This is a pixel portion. The principal point 4011p of the pixel portion 4011 is a reference position for considering the light refraction action of the microlens 4011c included in the pixel portion, and a plane perpendicular to the optical axis passing through the principal point 4011p is the expected image formation of the image sensor 401. This is the surface, that is, the imaging surface IP4.

撮像面中央の画素部4011において、マイクロレンズ4011cの主点4011pと単一の光電変換部上面間の高さh4が画素部の高さである。そして、マイクロレンズ4011cの焦点が光電変換部4011aの上面と略一致するように、マイクロレンズ4011cの形状(光学パワー)が設定されている。よって、後述するセンサ瞳面SPL4上に、単一の光電変換部4011aに対応する単一の逆投影像AP4a及が形成され、これが撮像時の光束を規定する撮像瞳となる。   In the pixel portion 4011 at the center of the imaging surface, the height h4 between the principal point 4011p of the microlens 4011c and the upper surface of the single photoelectric conversion portion is the height of the pixel portion. The shape (optical power) of the microlens 4011c is set so that the focal point of the microlens 4011c substantially coincides with the upper surface of the photoelectric conversion unit 4011a. Therefore, a single backprojection image AP4a corresponding to a single photoelectric conversion unit 4011a is formed on a sensor pupil plane SPL4 described later, and this becomes an imaging pupil that defines a light flux at the time of imaging.

画素部4011はマイクロレンズ4011cの光軸と画素部の中心(単一の光電変換部の感度重心)が一致している。しかし、撮像面IP4の端部に位置する画素部4012においては、マイクロレンズ4012cの光軸と画素部の中心が一致しておらず、撮影レンズの光軸寄りに所定量dx4だけ偏心している。そこで、画素部4012の主光線S42c(単一の光電変換部の感度重心位置とマイクロレンズの主点を結ぶ線)は光軸に対して所定の角度ω4だけ傾斜することになり、撮像面IP4から所定距離だけ隔たった点CS4で光軸と交差する。この交点CS4をとおり光軸と直交する仮想面がセンサ瞳面SPL4、センサ瞳面SPL4と撮像面IP4の間の距離PS4がセンサ瞳距離PS4である。センサ瞳面上ではすべての画素部の撮像瞳が実質的に一致する。   In the pixel portion 4011, the optical axis of the micro lens 4011c and the center of the pixel portion (sensitivity centroid of a single photoelectric conversion portion) coincide with each other. However, in the pixel portion 4012 located at the end of the imaging surface IP4, the optical axis of the micro lens 4012c and the center of the pixel portion do not coincide with each other, and are decentered by a predetermined amount dx4 near the optical axis of the photographing lens. Therefore, the principal ray S42c of the pixel portion 4012 (a line connecting the sensitivity center of gravity of the single photoelectric conversion portion and the principal point of the microlens) is inclined by a predetermined angle ω4 with respect to the optical axis, and the imaging surface IP4. Crosses the optical axis at a point CS4 separated by a predetermined distance from the optical axis. A virtual plane passing through the intersection CS4 and orthogonal to the optical axis is the sensor pupil plane SPL4, and a distance PS4 between the sensor pupil plane SPL4 and the imaging plane IP4 is the sensor pupil distance PS4. On the sensor pupil plane, the imaging pupils of all the pixel portions substantially coincide.

撮像素子401の光電変換部は単一であり、かつ画素部の中心と光電変換部の感度中心も一致しているため、位相差検出のための瞳分割機能は有していない。ただし、センサ瞳距離は瞳分割機能を備えた撮像素子と同様の方法で規定できる。すなわち実施例1の撮像素子101のセンサ瞳距離PSは式4ないし式6で計算できたが、実施例4の撮像素子401のセンサ瞳距離PS4も同様の方向で計算でき、以下の式のようになる。   Since the image sensor 401 has a single photoelectric conversion unit, and the center of the pixel unit and the sensitivity center of the photoelectric conversion unit coincide with each other, it does not have a pupil division function for phase difference detection. However, the sensor pupil distance can be defined by a method similar to that for an image sensor having a pupil division function. In other words, the sensor pupil distance PS of the image sensor 101 of the first embodiment can be calculated by Expressions 4 to 6. However, the sensor pupil distance PS4 of the image sensor 401 of the fourth embodiment can be calculated in the same direction as in the following expression. become.

X4/(PS4+h4)=dx4/h4 (式26)
PS4=X4×(h4/dx4) (式27)
dx4=h4×(X4/PS4) (式28)
X4 / (PS4 + h4) = dx4 / h4 (Formula 26)
PS4 = X4 × (h4 / dx4) (Formula 27)
dx4 = h4 × (X4 / PS4) (Formula 28)

ここで、X4は画素部4012のx座標、dx4はマイクロレンズ4012cの偏心量、PS4はセンサ瞳距離PS4である。   Here, X4 is the x coordinate of the pixel portion 4012, dx4 is the amount of eccentricity of the microlens 4012c, and PS4 is the sensor pupil distance PS4.

画素部4012の画素構造や各部の寸法は、マイクロレンズの偏心量を除いて画素部4011と同一である。よって、センサ瞳面SPL4上には、単一の光電変換部4012aに対応する単一の逆投影像が形成され、この逆投影像は画素部4011の光電変換部の逆投影像AP4aと実質的に同一となる。すなわち、任意の画素部において、式28が成り立つように当該画素部のマイクロレンズの偏心量を設定することにより、すべての画素部のセンサ瞳距離がセンサ瞳距離PS4となり、センサ瞳面上においてはすべての画素部の撮像瞳がAP4aに共通化される。   The pixel structure of the pixel portion 4012 and the dimensions of each portion are the same as those of the pixel portion 4011 except for the amount of eccentricity of the microlens. Accordingly, a single backprojection image corresponding to the single photoelectric conversion unit 4012a is formed on the sensor pupil plane SPL4, and this backprojection image is substantially the same as the backprojection image AP4a of the photoelectric conversion unit of the pixel unit 4011. Are the same. That is, by setting the amount of eccentricity of the microlens of the pixel unit so that Equation 28 holds in any pixel unit, the sensor pupil distance of all the pixel units becomes the sensor pupil distance PS4, and on the sensor pupil plane The imaging pupils of all the pixel portions are shared by the AP 4a.

以上のように、実施例4の撮像装置が備える撮像素子401は瞳分割機能を有さず、撮像素子302は瞳分割機能を有しており、両撮像素子のセンサ瞳距離PSが異なる。そして実施例4においても、撮像面端部における撮像素子401及び撮像素子302における主光線角度ω4とω3の大小関係は、
ω4>ω3 (式29)
となり、第1及び第2の撮像素子におけるセンサ瞳距離PS4とPS3の大小関係は、
PS4<PS3 (式30)
の関係が成り立っている。すなわち、撮像素子401と撮像素子302はセンサ瞳距離PSが異なるようにマイクロレンズの偏心量が設定されている。
As described above, the image sensor 401 included in the image pickup apparatus according to the fourth embodiment does not have a pupil division function, the image sensor 302 has a pupil division function, and the sensor pupil distance PS of both image sensors is different. Also in Example 4, the magnitude relationship between the principal ray angles ω4 and ω3 in the imaging element 401 and the imaging element 302 at the edge of the imaging surface is
ω4> ω3 (Formula 29)
The magnitude relationship between the sensor pupil distances PS4 and PS3 in the first and second image sensors is
PS4 <PS3 (Formula 30)
The relationship is established. That is, the amount of eccentricity of the microlens is set so that the image sensor 401 and the image sensor 302 have different sensor pupil distances PS.

[撮影処理]
実施例4における撮影処理の手順は、図12に示した実施例1のメインフローチャートに対して、S114の焦点検出1のサブルーチンとS134の焦点検出2のサブルーチンが異なり、その他のステップは実質的に同一である。よって、実施例1に対して異なるフローのみを説明する。
[Shooting process]
The procedure of the photographing process in the fourth embodiment is different from the main flowchart of the first embodiment shown in FIG. 12 in the subroutine of focus detection 1 in S114 and the subroutine of focus detection 2 in S134, and the other steps are substantially the same. Are the same. Therefore, only a flow different from that in the first embodiment will be described.

実施例4における、撮像素子401による静止画撮影時には、カメラCPU104が、図12のS101からS103及びS111等を経由し、S114で静止画撮影に適した焦点検出5のサブルーチンが実行する。図20(a)は実施例4における焦点検出5のサブルーチンフローであり、一連の制御内容をS414以降のステップで示している。   At the time of still image shooting by the image sensor 401 in the fourth embodiment, the camera CPU 104 goes from S101 to S103 and S111 in FIG. 12, and a focus detection 5 subroutine suitable for still image shooting is executed at S114. FIG. 20A is a subroutine flow of focus detection 5 in the fourth embodiment, and shows a series of control contents in steps after S414.

S414よりS451に移行すると、カメラCPU104が、非駆動状態にある動画用の撮像素子302を駆動し、動画用の撮像素子302で取得した信号から、焦点検出領域における一対の焦点検出信号(A像信号とB像信号)を生成するよう制御する。S452では、カメラCPU104が、シェーディング補正のためのルックアップデーブルから、焦点検出時のFナンバとレンズ瞳距離PLに対応する情報を読み出し、A像信号とB像信号にシェーディング補正を施す。次いで、式15の相間演算式を用いた相間演算により、A像信号とB像信号の位相差φ2と相間値の極小値C2を計算する。そして、所定のルックアップデーブルからデフォーカス量DEFを算出するための変換情報を読み出し、前述の式17を用いてデフォーカス量DEFを算出し、S453に移行する。   When the process proceeds from S414 to S451, the camera CPU 104 drives the moving image pickup element 302 in the non-driven state, and a pair of focus detection signals (A image in the focus detection region) from the signal acquired by the moving image pickup element 302. Signal and B image signal). In S452, the camera CPU 104 reads information corresponding to the F number and the lens pupil distance PL at the time of focus detection from the look-up table for shading correction, and performs shading correction on the A image signal and the B image signal. Next, the phase difference φ2 between the A image signal and the B image signal and the minimum value C2 of the interphase value are calculated by the interphase operation using the interphase arithmetic expression of Expression 15. Then, conversion information for calculating the defocus amount DEF is read from a predetermined lookup table, the defocus amount DEF is calculated using the above-described equation 17, and the process proceeds to S453.

S453では、S452で得た焦点検出結果の信頼性を計算する。本実施例では、一例として、信頼性を図9で説明した相関値C(φ)から求める。すなわち、カメラCPU104(第2の判定手段)は、A像とB像の相関値の極小値がより小さいほど、あるいは極小値近傍の相関値曲線の傾きが大きいほど、焦点検出結果の信頼性が高いと判定する。具体的には、本実施例では、A像とB像の極小値を、第2所定値と比較する。または、極小値近傍の相関値曲線の傾きを、第3の所定値と比較する。ただし、判断の指標はこれに限定されず、その他の指標を用いることも可能である。S454では、S453で算出された信頼性の判定を行なう。信頼性が高いと判断された場合(相関値の極小値が第2の所定値以下である、又は、極小値近傍の相関値曲線の傾きが第3の所定値よりも大きい場合)はS455へ移行する。S455では、S452で算出されたデフォーカス量をフォーカスレンズ駆動量に変換し、S458でメインフローにリターンする。   In S453, the reliability of the focus detection result obtained in S452 is calculated. In this embodiment, as an example, the reliability is obtained from the correlation value C (φ) described with reference to FIG. That is, the camera CPU 104 (second determination unit) has a more reliable focus detection result as the minimum value of the correlation value between the A image and the B image is smaller, or the inclination of the correlation value curve near the minimum value is larger. Judge as high. Specifically, in this embodiment, the minimum values of the A image and the B image are compared with a second predetermined value. Alternatively, the slope of the correlation value curve near the minimum value is compared with a third predetermined value. However, the determination index is not limited to this, and other indexes may be used. In S454, the reliability calculated in S453 is determined. When it is determined that the reliability is high (when the minimum value of the correlation value is equal to or smaller than the second predetermined value, or when the slope of the correlation value curve near the minimum value is larger than the third predetermined value), the process proceeds to S455. Transition. In S455, the defocus amount calculated in S452 is converted into a focus lens drive amount, and the process returns to the main flow in S458.

S454でカメラCPU104(第2の判定手段)が焦点検出結果の信頼性が低い(相関値の極小値が第2の所定値より大きい、又は、極小値近傍の相関値曲線の傾きが第3の所定値以下である場合)と判断した場合は、S456に移行する。S456ではカメラCPU104がコントラストAFを行なうための情報を得る。すなわち、カメラCPU104は、焦点検出領域のA像とB像を加算した撮像信号における高周波成分を検出する。そして、カメラCPU104(第2の焦点検出手段)は、高周波成分の検出結果をもとに、コントラストAF用の評価値を算出する。そして、カメラCPU104は、算出した評価値を基にS457ではコントラストAFのためのフォーカスレンズスキャン指令をレンズCPU507に対して送信し、S458に移行してメインルーチンにリターンする。   In S454, the camera CPU 104 (second determination unit) has low reliability of the focus detection result (the minimum value of the correlation value is larger than the second predetermined value or the slope of the correlation value curve near the minimum value is the third value). If it is determined that the value is equal to or smaller than the predetermined value, the process proceeds to S456. In S456, the camera CPU 104 obtains information for performing contrast AF. That is, the camera CPU 104 detects a high frequency component in the image pickup signal obtained by adding the A image and the B image in the focus detection area. The camera CPU 104 (second focus detection unit) calculates an evaluation value for contrast AF based on the detection result of the high frequency component. Then, the camera CPU 104 transmits a focus lens scan command for contrast AF to the lens CPU 507 in S457 based on the calculated evaluation value, shifts to S458, and returns to the main routine.

なお、S454における信頼性の判定結果に応じて、撮像素子401と撮像素子302それぞれから取得した信号に基づく結果を重みづけして用いても良い。この場合、カメラCPU104(第2の判定手段)が焦点検出結果の信頼性が高いと判定した場合には、撮像素子302から取得した信号に基づく結果を撮像素子401から取得した信号に基づく結果よりも多く採用する(多く重みづけする)。また、カメラCPU104(第2の判定手段)が焦点検出結果の信頼性が低いと判定した場合には、撮像素子401から取得した信号に基づく結果を撮像素子302から取得した信号に基づく結果よりも多く採用する(多く重みづけする)。   Note that the results based on the signals acquired from the image sensor 401 and the image sensor 302 may be weighted and used in accordance with the reliability determination result in S454. In this case, when the camera CPU 104 (second determination unit) determines that the reliability of the focus detection result is high, the result based on the signal acquired from the image sensor 302 is compared with the result based on the signal acquired from the image sensor 401. Adopt a lot (weight a lot). When the camera CPU 104 (second determination unit) determines that the reliability of the focus detection result is low, the result based on the signal acquired from the image sensor 401 is more than the result based on the signal acquired from the image sensor 302. Adopt a lot (weight a lot).

実施例4における、撮像素子302による動画撮影時には、カメラCPU104は、図12のS101からS103及びS131等を経由し、S134で動画撮影に適した焦点検出6のサブルーチンを実行する。図20(b)は実施例4における焦点検出6のサブルーチンフローで、一連の制御内容をS434以降のステップで示している。   At the time of moving image shooting by the image sensor 302 in the fourth embodiment, the camera CPU 104 executes a focus detection 6 subroutine suitable for moving image shooting at S134 via S101 to S103 and S131 in FIG. FIG. 20B is a subroutine flow of focus detection 6 in the fourth embodiment, and shows a series of control contents in steps after S434.

S434よりS471に移行すると、カメラCPU104は、動画撮影のために駆動している撮像素子302による焦点検出を行なう。S302の制御内容は図20(a)のS452と同一である。すなわち、カメラCPU104は撮像素子302で位相差式焦点検出を行ない、デフォーカス量を算出する。S472では、カメラCPU104は、S471で算出されたデフォーカス量をフォーカスレンズ駆動量に変換し、S473でメインフローにリターンする。   After shifting from S434 to S471, the camera CPU 104 performs focus detection by the image sensor 302 that is driven for moving image shooting. The control content of S302 is the same as that of S452 in FIG. That is, the camera CPU 104 performs phase difference type focus detection with the image sensor 302 and calculates the defocus amount. In S472, the camera CPU 104 converts the defocus amount calculated in S471 into a focus lens drive amount, and returns to the main flow in S473.

[実施例4の効果]
以上の実施例4においては、撮像素子401のセンサ瞳距離PSと撮像素子302のセンサ瞳距離PSとして、各々の撮像素子の使用目的に適したセンサ瞳距離PSが設定されており、両者は異なる値である。そして、主として動画撮影に用いられる撮像素子302のみが位相差検出のための瞳分割機能を備えている。そのために、静止画撮影時の焦点調節に際しては、まずは動画撮影用の撮像素子302を用いて位相差式焦点検出を行なう。そして、該焦点検出結果の信頼性が高い場合、は位相差検出結果を用いてフォーカスレンズを駆動する。一方、位相差式焦点検出結果の信頼性が低い場合は、コントラストAF(コントラスト検出方式の焦点調節)を行なう。その理由は、静止画撮影時にはフォーカスレンズの動作の影響を考慮しなくても良い一方、合焦精度が最も重要であるため、位相差式焦点検出結果の信頼性が低い場合には、より合焦精度の高いコントラストAFを実行する方が好ましいからである。また、コントラストAFは、A像信号とB像信号を加算した撮像信号を用いるため、レンズ瞳距離PLとセンサ瞳距離PSの乖離による焦点検出精度の低下は、位相差式焦点検出よりも軽微であるというメリットもある。
[Effect of Example 4]
In the fourth embodiment described above, the sensor pupil distance PS suitable for the intended use of each image sensor is set as the sensor pupil distance PS of the image sensor 401 and the sensor pupil distance PS of the image sensor 302, which are different from each other. Value. Only the image sensor 302 mainly used for moving image shooting has a pupil division function for phase difference detection. Therefore, when adjusting the focus during still image shooting, first, phase difference focus detection is performed using the imaging device 302 for moving image shooting. If the focus detection result is highly reliable, the focus lens is driven using the phase difference detection result. On the other hand, if the reliability of the phase difference focus detection result is low, contrast AF (contrast detection focus adjustment) is performed. The reason for this is that it is not necessary to consider the influence of the focus lens operation when taking a still image, but focusing accuracy is the most important, so if the reliability of the phase difference focus detection result is low, it is more appropriate. This is because it is preferable to execute contrast AF with high focus accuracy. In contrast, since the contrast AF uses an imaging signal obtained by adding the A image signal and the B image signal, the decrease in focus detection accuracy due to the difference between the lens pupil distance PL and the sensor pupil distance PS is smaller than that of the phase difference focus detection. There is also a merit that there is.

一方で、動画撮影時には位相差式焦点検出結果の信頼性判定は行なわず、常に位相差式の焦点調節を実行する。その理由は、動画撮影時のAFは精度とともに動作品位も重要であるため、合焦精度が多少低下すると予想されても動作品位の良い位相差AFを行なう方が好ましいからである。   On the other hand, the reliability determination of the phase difference focus detection result is not performed during moving image shooting, and phase difference focus adjustment is always performed. The reason for this is that since AF at the time of moving image shooting is important not only for accuracy but also for operation quality, it is preferable to perform phase difference AF with good operation quality even if the focusing accuracy is expected to decrease somewhat.

すなわち、本実施例によれば、実施例1、実施例2及び実施例3と同様、2つの撮像素子間でセンサ瞳距離を異ならせることで、センサ瞳距離PSが同じである場合と比較して、より広い範囲でのレンズ瞳距離PLの変化に対応することができる。また、本実施例によれば、特性の異なる2つのAF方式(位相差AF及びコントラストAF)を状況に応じて用いることで、記録画像の画質を担保するとともに、より精度の高い焦点検出を行うことができる。   That is, according to the present embodiment, as in the first embodiment, the second embodiment, and the third embodiment, the sensor pupil distance PS is made different by comparing the sensor pupil distance between the two imaging elements. Thus, it is possible to cope with a change in the lens pupil distance PL in a wider range. Further, according to the present embodiment, by using two AF methods (phase difference AF and contrast AF) having different characteristics according to the situation, the image quality of the recorded image is ensured and more accurate focus detection is performed. be able to.

なお、本実施例の撮像素子402の画素部が備える光電変換部は各画素部に対して1個であるとして説明したが、撮像素子302のように、複数の光電変換部を有していても良い。この場合であっても、これまで本実施例で説明した効果と同様の効果を得ることができる。   Although the description has been made assuming that the pixel unit of the image sensor 402 of the present embodiment includes one photoelectric converter, each pixel unit has a plurality of photoelectric converters like the image sensor 302. Also good. Even in this case, it is possible to obtain the same effects as those described in the present embodiment.

[変形例]
先に説明した実施例1、実施例2、実施例3及び実施例4の各撮像素子において、位相差検出に供される各画素部はx方向に並置された一対の光電変換部を備え、撮影レンズの射出瞳をx方向に瞳分割し、被写体像のx方向の位相差を検出する実施形態であった。これに対して、撮像素子の各画素部を撮像面に沿ったx方向とy方向にm×n個の光電変換部で構成し、被写体像の明暗パターンの方向性に応じてx方向もしくはy方向のうちの所望の方向、もしくは両方向に対して位相差検出する構成とすることも可能である。また、焦点検出だけでなく、ライトフィールド情報を取得可能な撮像装置に適用しても、同様の効果を発揮する。
[Modification]
In each of the imaging elements of the first embodiment, the second embodiment, the third embodiment, and the fourth embodiment described above, each pixel unit provided for phase difference detection includes a pair of photoelectric conversion units juxtaposed in the x direction. In this embodiment, the exit pupil of the photographing lens is divided into pupils in the x direction, and the phase difference in the x direction of the subject image is detected. On the other hand, each pixel unit of the image sensor is configured by m × n photoelectric conversion units in the x direction and the y direction along the imaging surface, and the x direction or y according to the directionality of the bright and dark pattern of the subject image. It is also possible to adopt a configuration in which a phase difference is detected in a desired direction among the directions or in both directions. In addition to the focus detection, the same effect can be achieved when applied to an imaging apparatus capable of acquiring light field information.

また、実施例1ないし実施例4の各撮像素子において、瞳分割機能を備えた撮像素子はすべての画素部が複数の光電変換部を有し、全画素部が位相差検出可能な構成になっていた。これに対して、撮像用画素部の一部を焦点検出用画素部に置き換えた撮像素子を用いてもよい。この場合、すべての画素部は単一の光電変換部を備え、撮像用画素部は撮影レンズの射出瞳の全域を通過する光束を受光し、焦点検出用画素部は射出瞳領域において光軸に対して偏心した一部の領域の光束を受光する。焦点検出用画素部は、例えば、光電変換部を部分的に遮光する遮光部を有することにより、射出瞳領域において光軸に対して偏心した一部の領域の光束を受光することが可能である。そして、焦点検出用画素部は、撮像用画素部の間に所定の配列パターンにより配列される。あるいは、全画素部の半数がA像信号取得用、残りの半数がB像信号取得用画素部であり、これらの画素部が交互に配置される構成でも構わない。   In addition, in each of the image sensors of Examples 1 to 4, the image sensor having the pupil division function has a configuration in which all the pixel units have a plurality of photoelectric conversion units, and all the pixel units can detect the phase difference. It was. On the other hand, an imaging element in which a part of the imaging pixel unit is replaced with a focus detection pixel unit may be used. In this case, all the pixel units include a single photoelectric conversion unit, the imaging pixel unit receives a light beam that passes through the entire exit pupil of the photographing lens, and the focus detection pixel unit has an optical axis in the exit pupil region. On the other hand, the light beam in a part of the region decentered is received. The focus detection pixel unit includes, for example, a light-shielding unit that partially shields the photoelectric conversion unit, so that it can receive a light beam in a part of the exit pupil region that is decentered with respect to the optical axis. . The focus detection pixel units are arranged in a predetermined arrangement pattern between the imaging pixel units. Alternatively, a configuration in which half of all the pixel portions are for acquiring an A image signal and the other half is a pixel portion for acquiring a B image signal, and these pixel portions are alternately arranged.

これまで説明したように、センサ瞳距離とレンズ瞳距離(射出瞳距離)の乖離が大きくなると、撮像素子の像高が高い位置にある画素部では像高が低い位置にある画素部と比較して、A像信号とB像信号のレベル差が大きくなる。このことから、すなわち、像高の低い位置にある画素部では像高が高い位置にある画素部と比較して、センサ瞳距離とレンズ瞳距離(射出瞳距離)の乖離によるA像信号とB像信号のレベル差が小さい。このことから、位相差検出に用いる信号を取得する画素部が位置する像高に応じて、2つの撮像素子のうちどちらの撮像素子を用いて焦点検出を行うかを異ならせても良い。   As described above, when the difference between the sensor pupil distance and the lens pupil distance (exit pupil distance) increases, the pixel portion at a position where the image height of the image sensor is high is compared with the pixel portion where the image height is low. Thus, the level difference between the A image signal and the B image signal becomes large. Therefore, in other words, in the pixel portion at the position where the image height is low, the A image signal and B due to the difference between the sensor pupil distance and the lens pupil distance (exit pupil distance) are compared with the pixel portion where the image height is high. The level difference of the image signal is small. From this, depending on the image height at which the pixel unit for acquiring the signal used for phase difference detection is located, it may be different which of the two image sensors is used for focus detection.

図21は変形例を説明する図である。図21において、Area0は撮像素子101あるいは撮像素子102の撮像範囲、Area1は撮像領域の周辺部、Area2は撮像領域の中央部である。そして、像高が所定の像高よりも高い位置、すなわちArea1にある画素部の信号を用いて位相差を検出する場合には、実施例1〜実施例4で説明したように、焦点検出に用いる信号を取得する撮像素子を選択する。一方、像高が所定の像高よりも低い位置、すなわちArea2にある画素部の信号を用いて焦点検出する場合には、焦点検出のための信号を取得するための撮像素子を選択するために別途基準を設け、当該基準に従って乖離がより大きい撮像素子を選択する場合があっても良い。一例として、他方の撮像素子よりもセンサ瞳距離とレンズ瞳距離との乖離が大きい撮像素子から記録画像信号を取得する場合に、所定の像高よりも低い位置の画素部の信号を用いて焦点検出する場合は、同じ撮像素子の信号を用いて焦点検出しても良い。この場合、両方の撮像素子を駆動する場合と比較して、消費電力が少なくなる。また、Area2の範囲は撮影レンズのFナンバ等に応じて変化させても良い。   FIG. 21 is a diagram for explaining a modification. In FIG. 21, Area 0 is the imaging range of the imaging element 101 or the imaging element 102, Area 1 is the periphery of the imaging area, and Area 2 is the center of the imaging area. When the phase difference is detected by using the signal of the pixel portion in the area where the image height is higher than the predetermined image height, that is, Area 1, as described in the first to fourth embodiments, focus detection is performed. An image sensor that acquires a signal to be used is selected. On the other hand, in the case where focus detection is performed using a signal of the pixel portion in the position where the image height is lower than the predetermined image height, that is, Area 2, in order to select an image sensor for acquiring a signal for focus detection There may be a case where a separate reference is provided, and an image sensor having a larger deviation is selected according to the reference. As an example, when a recorded image signal is acquired from an image sensor in which the difference between the sensor pupil distance and the lens pupil distance is larger than that of the other image sensor, the focus is obtained by using the signal of the pixel portion at a position lower than a predetermined image height. In the case of detection, focus detection may be performed using signals from the same image sensor. In this case, the power consumption is reduced as compared with the case of driving both image sensors. The area of Area 2 may be changed according to the F number of the photographing lens.

これらの変形例において、各画素部が備えるマイクロレンズを実施例1、実施例2、実施例3及び実施例4で説明したように偏心させることで、2つの撮像素子間でセンサ瞳距離PSを異ならせ、各実施例と同様の効果を得ることができる。   In these modifications, the sensor lens distance PS is set between the two imaging elements by decentering the microlens included in each pixel unit as described in the first, second, third, and fourth embodiments. It is possible to obtain the same effect as in each embodiment.

101、401 第1の撮像素子
102、302 第2の撮像素子
103 ビームスプリッタ
500 撮影レンズ
501 第1レンズ群
502 第2レンズ群
503 第3レンズ群
1011、1012、1021、1022、3021、3022、4011 画素部
1011a、1011b、1012a、1012b、1021a、1021b、1022a、1022b、3021a、3021b、3022a、3022b、4011a4012a 光電変換部
1011c、1012c、1021c、1022c、3021c、3022c、4011c、4012c マイクロレンズ
EPL1 レンズ瞳面(射出瞳面)
SPL1、SPL2、SPL3、SPL4 センサ瞳面
IP1、IP2、IP3、IP4 予定結像面(撮像面)
101, 401 First imaging element 102, 302 Second imaging element 103 Beam splitter 500 Shooting lens 501 First lens group 502 Second lens group 503 Third lens group 1011, 1012, 1021, 1022, 3021, 3022, 4011 Pixel unit 1011a, 1011b, 1012a, 1012b, 1021a, 1021b, 1022a, 1022b, 3021a, 3021b, 3022a, 3022b, 4011a4012a photoelectric conversion unit 1011c, 1012c, 1021c, 1022c, 3021c, 3022c, 4011c, 4012c micro lens EPL1 lens pupil Surface (exit pupil surface)
SPL1, SPL2, SPL3, SPL4 Sensor pupil plane IP1, IP2, IP3, IP4 Planned imaging plane (imaging plane)

Claims (35)

撮影レンズを通過した光束を複数の光束に分割する光束分割手段と、
1つのマイクロレンズに対して、視差を有する光束をそれぞれ受光し光電変換する複数の光電変換部を有する画素部を複数有し、前記分割された光束の一方を受光する第1の撮像素子と、
1つのマイクロレンズに対して、視差を有する光束をそれぞれ受光し光電変換する複数の光電変換部を有する画素部を複数有し、前記分割された光束の他方を受光し、センサ瞳距離の長さが前記第1の撮像素子のセンサ瞳距離よりも長い第2の撮像素子と、
前記第1の撮像素子と前記第2の撮像素子の少なくとも一方から取得した視差を有する2つの信号を用いてデフォーカス量を算出する第1の焦点検出手段と、を有することを特徴とする撮像装置。
Light beam splitting means for splitting the light beam that has passed through the taking lens into a plurality of light beams;
A first imaging element that has a plurality of pixel units each having a plurality of photoelectric conversion units that respectively receive and photoelectrically convert light beams having parallax with respect to one microlens, and receive one of the divided light beams;
One microlens has a plurality of pixel units each having a plurality of photoelectric conversion units that receive and photoelectrically convert a light beam having parallax, and receive the other of the divided light beams, and the length of the sensor pupil distance A second image sensor that is longer than the sensor pupil distance of the first image sensor;
1st focus detection means for calculating a defocus amount using two signals having parallax acquired from at least one of the first image sensor and the second image sensor apparatus.
前記センサ瞳距離は、撮像面から画素部の主光線と前記撮影レンズを通過する光束の光軸とが交わる点に位置するセンサ瞳面までの距離であることを特徴とする、請求項1に記載の撮像装置。   The sensor pupil distance is a distance from an imaging surface to a sensor pupil surface located at a point where a principal ray of a pixel unit and an optical axis of a light beam passing through the photographing lens intersect. The imaging device described. 前記画素部の主光線は、前記複数の光電変換部の境界部の中心とマイクロレンズの主点を結ぶ線であることを特徴とする、請求項1又は請求項2に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the principal ray of the pixel unit is a line connecting the center of the boundary between the plurality of photoelectric conversion units and the principal point of the microlens. 前記第1の焦点検出手段は、射出瞳が位置する面である射出瞳面と撮像面との距離であるレンズ瞳距離に応じて、デフォーカス量を算出するための信号を取得する撮像素子を切り替えることを特徴とする請求項1乃至請求項3のいずれか1項に記載の撮像装置。   The first focus detection unit includes an imaging element that acquires a signal for calculating a defocus amount according to a lens pupil distance that is a distance between an exit pupil plane that is a plane on which the exit pupil is located and an imaging plane. The imaging device according to claim 1, wherein the imaging device is switched. 前記第1の焦点検出手段は、前記第1の撮像素子と前記第2の撮像素子のうち、前記レンズ瞳距離と前記センサ瞳距離との差がより小さい撮像素子を用いてデフォーカス量を算出することを特徴とする請求項4に記載の撮像装置。   The first focus detection unit calculates a defocus amount by using an image sensor having a smaller difference between the lens pupil distance and the sensor pupil distance among the first image sensor and the second image sensor. The imaging apparatus according to claim 4, wherein: 前記レンズ瞳距離が、第1の所定距離以下である場合には、前記第1の焦点検出手段は前記第1の撮像素子から取得した、視差を有する2つの信号を用いてデフォーカス量を算出し、
前記レンズ瞳距離が、前記第1の所定距離よりも長い場合には、前記第1の焦点検出手段は前記第2の撮像素子から取得した、視差を有する2つの信号を用いてデフォーカス量を算出することを特徴とする請求項4又は請求項5に記載の撮像装置。
When the lens pupil distance is equal to or less than a first predetermined distance, the first focus detection unit calculates a defocus amount using two signals having parallax acquired from the first image sensor. And
When the lens pupil distance is longer than the first predetermined distance, the first focus detection unit calculates the defocus amount using two signals having parallax acquired from the second image sensor. 6. The imaging device according to claim 4, wherein the imaging device calculates the imaging device.
前記第1の所定距離は、第1の撮像素子のセンサ瞳距離より長く、第2の撮像素子のセンサ瞳距離より短いことを特徴とする、請求項6に記載の撮像装置。   The imaging apparatus according to claim 6, wherein the first predetermined distance is longer than a sensor pupil distance of the first imaging element and shorter than a sensor pupil distance of the second imaging element. 前記撮影レンズから前記レンズ瞳距離を取得する取得手段を有することを特徴とする請求項4乃至請求項7のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 4, further comprising an acquisition unit that acquires the lens pupil distance from the photographing lens. 第1の撮像素子と第2の撮像素子のセンサ瞳距離は、前記レンズ瞳距離が変化し得る範囲内の距離であることを特徴とする、請求項4乃至請求項8のいずれか1項に記載の撮像装置。   9. The sensor pupil distance between the first image sensor and the second image sensor is a distance within a range in which the lens pupil distance can be changed, according to claim 4. The imaging device described. 前記第1の撮像素子から取得した視差を有する2つの信号についての信頼性と、前記第2の撮像素子から取得した視差を有する2つの信号についての信頼性とのいずれが信頼性が高いかに応じて、前記第1の焦点検出手段は、デフォーカス量の算出に用いる撮像素子を切り替えることを特徴とする、請求項1に記載の撮像装置。   Depending on which of the reliability of the two signals having parallax acquired from the first image sensor and the reliability of the two signals having parallax acquired from the second image sensor is higher The image pickup apparatus according to claim 1, wherein the first focus detection unit switches an image pickup element used for calculating a defocus amount. 前記第1の撮像素子から取得した視差を有する2つの信号の信頼性が、前記第2の撮像素子から取得した視差を有する2つの信号よりも信頼性よりも高い場合には、前記第1の焦点検出手段は、前記第1の撮像素子から取得した視差を有する2つの信号を用いてデフォーカス量を算出し、
前記第1の撮像素子から取得した視差を有する2つの信号の信頼性よりも、前記第2の撮像素子から取得した視差を有する2つの信号の信頼性が高い場合には、前記第1の焦点検出手段は、前記第2の撮像素子から取得した視差を有する2つの信号を用いてデフォーカス量を算出することを特徴とする請求項10に記載の撮像装置。
When the reliability of two signals having parallax acquired from the first image sensor is higher than the reliability of two signals having parallax acquired from the second image sensor, the first signal The focus detection means calculates a defocus amount using two signals having parallax acquired from the first image sensor,
When the reliability of two signals having parallax acquired from the second image sensor is higher than the reliability of two signals having parallax acquired from the first image sensor, the first focus The image pickup apparatus according to claim 10, wherein the detection unit calculates a defocus amount using two signals having parallax acquired from the second image pickup element.
前記第1の撮像素子から取得した視差を有する2つの信号の相関値の極小値が、前記第2の撮像素子から取得した視差を有する2つの信号の相関値の極小値以下である場合には、前記第1の撮像素子から取得した視差を有する2つの信号の信頼性が前記第2の撮像素子から取得した視差を有する2つの信号の信頼性よりも高く、
前記第1の撮像素子から取得した2つの信号の相関値の極小値が、前記第2の撮像素子から取得した視差を有する2つの信号の相関値の極小値よりも大きい場合には、前記第2の撮像素子から取得した視差を有する2つの信号の信頼性が前記第1の撮像素子から取得した視差を有する2つの信号の信頼性よりも高いことを特徴とする、請求項10又は請求項11に記載の撮像装置。
When the minimum value of the correlation value of two signals having parallax acquired from the first image sensor is equal to or less than the minimum value of the correlation value of two signals having parallax acquired from the second image sensor The reliability of the two signals having parallax acquired from the first image sensor is higher than the reliability of the two signals having parallax acquired from the second image sensor;
When the minimum value of the correlation value of two signals acquired from the first image sensor is larger than the minimum value of the correlation value of two signals having parallax acquired from the second image sensor, the first value The reliability of two signals having parallax acquired from two image sensors is higher than the reliability of two signals having parallax acquired from the first image sensor. 11. The imaging device according to 11.
前記光束分割手段は、前記撮影レンズを通過した光束を透過及び反射させることで、前記光束を分割することを特徴とする請求項1乃至請求項12のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the light beam splitting unit splits the light beam by transmitting and reflecting the light beam that has passed through the photographing lens. 前記第1の撮像素子は、前記光束分割手段を透過した光束を受光し、前記第2の撮像素子は、前記光束分割手段が反射した光束を受光することを特徴とする、請求項13に記載の撮像装置。   The first image sensor receives a light beam transmitted through the light beam splitting unit, and the second image sensor receives a light beam reflected by the light beam splitting unit. Imaging device. 前記第1撮像素子が有する前記複数の画素部の大きさは、前記第2の撮像素子が有する前記複数の画素部の大きさよりも小さいことを特徴とする、請求項1乃至請求項14のいずれか1項に記載の撮像装置。   15. The size of the plurality of pixel portions included in the first image sensor is smaller than the size of the plurality of pixel portions included in the second image sensor. The imaging apparatus of Claim 1. 前記第2の撮像素子が有する前記複数の画素部の数は、前記第1の撮像素子が有する複数の画素部の数よりも少なく、
前記第2の撮像素子では、前記第1の撮像素子よりもフレームレートが高いことを特徴とする、請求項1乃至請求項15のいずれか1項に記載の撮像装置。
The number of the plurality of pixel units included in the second image sensor is less than the number of the plurality of pixel units included in the first image sensor,
The image pickup apparatus according to claim 1, wherein the second image pickup element has a higher frame rate than the first image pickup element.
前記第1の撮像素子は記録画像信号として主に静止画を生成するための信号を取得し、前記第2の撮像素子は、記録画像信号として主に動画を生成するための信号を取得することを特徴とする請求項14乃至請求項16のいずれか1項に記載の撮像装置。   The first image sensor mainly acquires a signal for generating a still image as a recorded image signal, and the second image sensor acquires a signal for mainly generating a moving image as a recorded image signal. The imaging device according to any one of claims 14 to 16, wherein 前記第1の撮像素子から取得した信号を処理するための第1の画像処理部と、
前記第2の撮像素子から取得した信号を処理するための第2の画像処理部と、を有し、
前記第1の画像処理部と前記第2の画像処理部によって前記第1の撮像素子と前記第2の撮像素子のそれぞれから取得した信号を、並行して処理することを特徴とする、請求項1乃至請求項17のいずれか1項に記載の撮像装置。
A first image processing unit for processing a signal acquired from the first image sensor;
A second image processing unit for processing a signal acquired from the second image sensor,
The signal acquired from each of the first image sensor and the second image sensor by the first image processor and the second image processor is processed in parallel. The imaging device according to any one of claims 1 to 17.
前記第1の撮像素子と前記第2の撮像素子とは光学的に等価な位置に配置されており、第1の撮像素子の撮像面から前記射出瞳面までの距離と、第2の撮像素子の撮像面から前記射出瞳面までの距離は等しいことを特徴とする、請求項1乃至請求項18のいずれか1項に記載の撮像装置。   The first image sensor and the second image sensor are disposed at optically equivalent positions, the distance from the imaging surface of the first image sensor to the exit pupil plane, and the second image sensor The imaging apparatus according to claim 1, wherein a distance from the imaging surface to the exit pupil plane is equal. 撮影レンズを通過した光束を複数の光束に分割する光束分割手段と、
1つのマイクロレンズに対して、視差を有する光束をそれぞれ受光し光電変換する複数の光電変換部を有する画素部を複数有し、前記分割された光束の一方を受光する第2の撮像素子と、
光束を受光し光電変換する光電変換部を有する画素部を複数有し、前記分割された光束の他方を受光する第3の撮像素子と、
前記第2の撮像素子と前記第3の撮像素子の少なくとも一方から取得した信号を用いてデフォーカス量を算出する第1の焦点検出手段と、を有し、
前記第2の撮像素子から取得した信号の信頼性が高い場合には、前記第1の焦点検出手段は前記第2の撮像素子から取得した信号を前記第3の撮像素子から取得した信号よりも多く用いて焦点検出を行い、
前記第2の撮像素子から取得した信号の信頼性が低い場合には、前記第1の焦点検出手段は前記第3の撮像素子から取得した信号を第2の撮像素子から取得した信号よりも多く用いて焦点検出を行うことを特徴とする撮像装置。
Light beam splitting means for splitting the light beam that has passed through the taking lens into a plurality of light beams;
A second imaging element that has a plurality of pixel units each having a plurality of photoelectric conversion units that respectively receive and photoelectrically convert light beams having parallax with respect to one microlens, and receive one of the divided light beams;
A plurality of pixel units each having a photoelectric conversion unit that receives and photoelectrically converts a light beam, and receives the other of the divided light beams;
First focus detection means for calculating a defocus amount using a signal acquired from at least one of the second image sensor and the third image sensor;
When the reliability of the signal acquired from the second image sensor is high, the first focus detection unit uses the signal acquired from the second image sensor more than the signal acquired from the third image sensor. Use many to detect focus,
When the reliability of the signal acquired from the second image sensor is low, the first focus detection unit has more signals acquired from the third image sensor than signals acquired from the second image sensor. An imaging apparatus characterized by using the focus detection.
前記第2の撮像素子から取得した視差を有する2つの信号の相関値の極小値が第2の所定値以下である場合には、前記第2の撮像素子から取得した視差を有する2つの信号の信頼性が高く、
前記第2の撮像素子から取得した視差を有する2つの信号の相関値の極小値が第2の所定値より大きい場合には前記第3の撮像素子から取得した視差を有する2つの信号の信頼性が低いことを特徴とする、請求項20に記載の撮像装置。
When the minimum value of the correlation value of two signals having parallax acquired from the second image sensor is equal to or less than a second predetermined value, the two signals having parallax acquired from the second image sensor Reliable,
Reliability of two signals having parallax acquired from the third image sensor when the minimum value of the correlation value of the two signals having parallax acquired from the second image sensor is larger than a second predetermined value The imaging device according to claim 20, wherein the imaging device is low.
前記第1の焦点検出手段は、前記第2の撮像素子と前記第3の撮像素子のいずれか一方から取得した信号を用いてデフォーカス量を算出し、
前記第2の撮像素子から取得した信号の信頼性が高い場合には、前記第1の焦点検出手段は前記第2の撮像素子から取得した信号を用いてデフォーカス量を算出し、前記第2の撮像素子から取得した信号の信頼性が低い場合には、前記第1の焦点検出手段は前記第3の撮像素子から取得した信号を用いてデフォーカス量を算出することを特徴とする、請求項20又は請求項21に記載の撮像装置。
The first focus detection unit calculates a defocus amount using a signal acquired from one of the second image sensor and the third image sensor,
When the reliability of the signal acquired from the second image sensor is high, the first focus detection unit calculates the defocus amount using the signal acquired from the second image sensor, and the second The first focus detection means calculates a defocus amount using a signal acquired from the third image sensor when the reliability of the signal acquired from the image sensor is low. Item 20. The imaging device according to Item 20 or Item 21.
前記第1の焦点検出手段は前記第2の撮像素子から取得した信号に基づく結果と、前記第3の撮像素子から取得した信号に基づく結果の両方を、それぞれの撮像素子から取得した信号に基づく結果の信頼性に応じて重みづけしてデフォーカス量の検出に用い、
前記第1の焦点検出手段は、前記第2の撮像素子から取得した信号の信頼性が高い場合には、前記第3の撮像素子よりも前記第2の撮像素子から取得した信号に基づく結果をより多く重みづけしてデフォーカス量の算出に用い、前記第2の撮像素子から取得した信号の信頼性が低い場合には、前記第2の撮像素子よりも前記第3の撮像素子から取得した信号に基づく結果をより多く重みづけしてデフォーカス量の算出に用いることを特徴とする、請求項20又は請求項21に記載の撮像装置。
The first focus detection means is based on both the result based on the signal acquired from the second image sensor and the result based on the signal acquired from the third image sensor based on the signal acquired from each image sensor. Weighted according to the reliability of the result and used to detect the defocus amount,
When the reliability of the signal acquired from the second image sensor is high, the first focus detection unit obtains a result based on the signal acquired from the second image sensor rather than the third image sensor. When the reliability of the signal acquired from the second image sensor is low, the weight is obtained from the third image sensor rather than the second image sensor. The imaging apparatus according to claim 20 or 21, wherein a result based on the signal is weighted more and used for calculation of a defocus amount.
前記第3の撮像素子の複数の画素部は、1つのマイクロレンズに対して、視差を有する光束をそれぞれ受光し光電変換する複数の光電変換部を有することを特徴とする、請求項20乃至請求項23のいずれか1項に記載の撮像装置。   21. The plurality of pixel units of the third image sensor each include a plurality of photoelectric conversion units that receive and photoelectrically convert a light beam having parallax with respect to one microlens. Item 24. The imaging device according to any one of Items 23. コントラストAF用の評価値を算出する第2の焦点検出手段を有し、
前記第2の焦点検出手段は、前記第3の撮像素子から取得した信号を用いて焦点検出を行う場合には、コントラストAF用の評価値に基づき焦点検出を行うことを特徴とする、請求項20乃至請求項24のいずれか1項に記載の撮像装置。
Second focus detection means for calculating an evaluation value for contrast AF;
The said 2nd focus detection means performs a focus detection based on the evaluation value for contrast AF, when performing a focus detection using the signal acquired from the said 3rd image pick-up element. The imaging device according to any one of claims 20 to 24.
前記第2の撮像素子の、撮像面から画素部の主光線と撮影レンズを通過する光束の光軸とが交わる点に位置するセンサ瞳面までの距離であるセンサ瞳距離の長さは、前記第3の撮像素子よりも短いことを特徴とする、請求項20乃至請求項25のいずれか1項に記載の撮像装置。   The length of the sensor pupil distance, which is the distance from the imaging surface of the second imaging device to the sensor pupil plane located at the point where the principal ray of the pixel unit and the optical axis of the light beam passing through the photographing lens intersect, The imaging device according to any one of claims 20 to 25, wherein the imaging device is shorter than the third imaging device. 前記光束分割手段は、前記撮影レンズを通過した光束を透過及び反射させることで、前記光束を分割することを特徴とする請求項20乃至請求項26のいずれか1項に記載の撮像装置。   27. The imaging apparatus according to claim 20, wherein the light beam splitting unit splits the light beam by transmitting and reflecting the light beam that has passed through the photographing lens. 前記第2の撮像素子は、前記光束分割手段が反射した光束を受光し、前記第3の撮像素子は、前記光束分割手段を透過した光束を受光することを特徴とする、請求項27に記載の撮像装置。   28. The second imaging device according to claim 27, wherein the second image sensor receives a light beam reflected by the light beam splitting unit, and the third image sensor receives a light beam transmitted through the light beam splitting unit. Imaging device. 前記第3撮像素子が有する前記複数の画素部の大きさは、前記第2の撮像素子が有する前記複数の画素部の大きさよりも小さいことを特徴とする、請求項20乃至請求項28のいずれか1項に記載の撮像装置。   29. The size of the plurality of pixel portions included in the third image sensor is smaller than the size of the plurality of pixel portions included in the second image sensor. The imaging apparatus of Claim 1. 前記第2の撮像素子が有する前記複数の画素部の数は、前記第3の撮像素子が有する複数の画素部の数よりも少なく、
前記第2の撮像素子では、前記第1の撮像素子よりもフレームレートが高いことを特徴とする、請求項20乃至請求項29のいずれか1項に記載の撮像装置。
The number of the plurality of pixel units included in the second image sensor is less than the number of the plurality of pixel units included in the third image sensor,
30. The image pickup apparatus according to claim 20, wherein the second image pickup element has a higher frame rate than the first image pickup element.
前記第2の撮像素子は、記録画像信号として主に動画を生成するための信号を取得し、前記第1の撮像素子は記録画像信号として主に静止画を生成するための信号を取得することを特徴とする請求項28乃至請求項30のいずれか1項に記載の撮像装置。   The second image sensor mainly acquires a signal for generating a moving image as a recorded image signal, and the first image sensor mainly acquires a signal for generating a still image as a recorded image signal. The imaging device according to any one of claims 28 to 30, wherein 前記第2の撮像素子から取得した信号を処理するための第2の画像処理部と、
前記第3の撮像素子から取得した信号を処理するための第1の画像処理部と、を有し、
前記第1の画像処理部と第2の画像処理部によって前記第2の撮像素子と前記第3の撮像素子のそれぞれから取得した信号を、並行して処理することを特徴とする、請求項20乃至請求項31のいずれか1項に記載の撮像装置。
A second image processing unit for processing a signal acquired from the second image sensor;
A first image processing unit for processing a signal acquired from the third image sensor,
The signal acquired from each of the second image sensor and the third image sensor by the first image processor and the second image processor is processed in parallel. 32. The imaging device according to any one of claims 31 to 31.
前記第2の撮像素子と前記第3の撮像素子とは光学的に等価な位置に配置されており、前記第2の撮像素子の撮像面から射出瞳面までの距離と、前記第3の撮像素子の撮像面から射出瞳面までの距離は等しいことを特徴とする、請求項20乃至請求項32のいずれか1項に記載の撮像装置。   The second image sensor and the third image sensor are disposed at optically equivalent positions, the distance from the imaging surface of the second image sensor to the exit pupil plane, and the third imaging The imaging apparatus according to any one of claims 20 to 32, wherein the distances from the imaging surface of the element to the exit pupil plane are equal. 撮影レンズを通過した光束を複数の光束に分割する光束分割手段と、
1つのマイクロレンズに対して、視差を有する光束をそれぞれ受光し光電変換する複数の光電変換部を有する画素部を複数有し、前記分割された光束の一方を受光する第1の撮像素子と、
1つのマイクロレンズに対して、視差を有する光束をそれぞれ受光し光電変換する複数の光電変換部を有する画素部を複数有し、前記分割された光束の他方を受光し、センサ瞳距離の長さが前記第1の撮像素子のセンサ瞳距離よりも長い第2の撮像素子と、を有する撮像装置の制御方法において、
前記第1の撮像素子と前記第2の撮像素子の少なくとも一方から取得した視差を有する2つの信号を用いてデフォーカス量を算出する第1の焦点検出ステップを有することを特徴とする撮像装置。
Light beam splitting means for splitting the light beam that has passed through the taking lens into a plurality of light beams;
A first imaging element that has a plurality of pixel units each having a plurality of photoelectric conversion units that respectively receive and photoelectrically convert light beams having parallax with respect to one microlens, and receive one of the divided light beams;
One microlens has a plurality of pixel units each having a plurality of photoelectric conversion units that receive and photoelectrically convert a light beam having parallax, and receive the other of the divided light beams, and the length of the sensor pupil distance In the control method of the imaging apparatus, wherein the second imaging element is longer than the sensor pupil distance of the first imaging element,
An image pickup apparatus comprising: a first focus detection step for calculating a defocus amount using two signals having parallax acquired from at least one of the first image pickup element and the second image pickup element.
撮影レンズを通過した光束を複数の光束に分割する光束分割手段と、
1つのマイクロレンズに対して、視差を有する光束をそれぞれ受光し光電変換する複数の光電変換部を有する画素部を複数有し、前記分割された光束の一方を受光する第2の撮像素子と、
光束を受光し光電変換する光電変換部を有する画素部を複数有し、前記分割された光束の他方を受光する第3の撮像素子と、を有する撮像装置の制御方法において、
前記第2の撮像素子と前記第3の撮像素子の少なくとも一方から取得した信号を用いてデフォーカス量を算出する第1の焦点検出ステップを有し、
前記第2の撮像素子から取得した信号の信頼性が高い場合には、前記第1の焦点検出ステップでは前記第2の撮像素子から取得した信号を前記第3の撮像素子から取得した信号よりも多く用いて焦点検出を行い、
前記第2の撮像素子から取得した信号の信頼性が低い場合には、前記第1の焦点検出ステップでは前記第3の撮像素子から取得した信号を第2の撮像素子から取得した信号よりも多く用いて焦点検出を行うことを特徴とする撮像装置の制御方法。
Light beam splitting means for splitting the light beam that has passed through the taking lens into a plurality of light beams;
A second imaging element that has a plurality of pixel units each having a plurality of photoelectric conversion units that respectively receive and photoelectrically convert light beams having parallax with respect to one microlens, and receive one of the divided light beams;
In a method for controlling an imaging apparatus, comprising: a plurality of pixel units each having a photoelectric conversion unit that receives and photoelectrically converts a light beam; and a third image sensor that receives the other of the divided light beams.
A first focus detection step of calculating a defocus amount using a signal acquired from at least one of the second image sensor and the third image sensor;
When the reliability of the signal acquired from the second image sensor is high, in the first focus detection step, the signal acquired from the second image sensor is more than the signal acquired from the third image sensor. Use many to detect focus,
When the reliability of the signal acquired from the second image sensor is low, the signal acquired from the third image sensor is larger than the signal acquired from the second image sensor in the first focus detection step. A method for controlling an imaging apparatus, wherein focus detection is performed using the imaging apparatus.
JP2015234315A 2015-11-30 2015-11-30 Imaging device and control method thereof Expired - Fee Related JP6639208B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015234315A JP6639208B2 (en) 2015-11-30 2015-11-30 Imaging device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015234315A JP6639208B2 (en) 2015-11-30 2015-11-30 Imaging device and control method thereof

Publications (2)

Publication Number Publication Date
JP2017102228A true JP2017102228A (en) 2017-06-08
JP6639208B2 JP6639208B2 (en) 2020-02-05

Family

ID=59017903

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015234315A Expired - Fee Related JP6639208B2 (en) 2015-11-30 2015-11-30 Imaging device and control method thereof

Country Status (1)

Country Link
JP (1) JP6639208B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021076777A (en) * 2019-11-12 2021-05-20 キヤノン株式会社 Control device, imaging apparatus, control method, and program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59133512A (en) * 1983-01-21 1984-07-31 Nippon Kogaku Kk <Nikon> Focus detecting device
JP2009015164A (en) * 2007-07-06 2009-01-22 Nikon Corp Imaging apparatus
JP2012043939A (en) * 2010-08-18 2012-03-01 Sony Corp Imaging element and imaging apparatus
JP2013037295A (en) * 2011-08-10 2013-02-21 Olympus Imaging Corp Image pickup apparatus and image pickup device
JP2013037296A (en) * 2011-08-10 2013-02-21 Olympus Imaging Corp Image pickup apparatus and image pickup device
JP2013210507A (en) * 2012-03-30 2013-10-10 Nikon Corp Imaging device
JP2014232137A (en) * 2013-05-28 2014-12-11 キヤノン株式会社 Imaging device and method of controlling the same
JP2015034917A (en) * 2013-08-09 2015-02-19 キヤノン株式会社 Imaging device, imaging system, control method for imaging device, program, and memory medium
JP2015161906A (en) * 2014-02-28 2015-09-07 株式会社ニコン Imaging apparatus
JP2015194706A (en) * 2014-03-26 2015-11-05 キヤノン株式会社 Focus detection device and control method thereof

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59133512A (en) * 1983-01-21 1984-07-31 Nippon Kogaku Kk <Nikon> Focus detecting device
JP2009015164A (en) * 2007-07-06 2009-01-22 Nikon Corp Imaging apparatus
JP2012043939A (en) * 2010-08-18 2012-03-01 Sony Corp Imaging element and imaging apparatus
JP2013037295A (en) * 2011-08-10 2013-02-21 Olympus Imaging Corp Image pickup apparatus and image pickup device
JP2013037296A (en) * 2011-08-10 2013-02-21 Olympus Imaging Corp Image pickup apparatus and image pickup device
JP2013210507A (en) * 2012-03-30 2013-10-10 Nikon Corp Imaging device
JP2014232137A (en) * 2013-05-28 2014-12-11 キヤノン株式会社 Imaging device and method of controlling the same
JP2015034917A (en) * 2013-08-09 2015-02-19 キヤノン株式会社 Imaging device, imaging system, control method for imaging device, program, and memory medium
JP2015161906A (en) * 2014-02-28 2015-09-07 株式会社ニコン Imaging apparatus
JP2015194706A (en) * 2014-03-26 2015-11-05 キヤノン株式会社 Focus detection device and control method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021076777A (en) * 2019-11-12 2021-05-20 キヤノン株式会社 Control device, imaging apparatus, control method, and program
JP7471799B2 (en) 2019-11-12 2024-04-22 キヤノン株式会社 Control device, imaging device, control method, and program

Also Published As

Publication number Publication date
JP6639208B2 (en) 2020-02-05

Similar Documents

Publication Publication Date Title
US10212334B2 (en) Focusing adjustment apparatus and focusing adjustment method
JP6584149B2 (en) Imaging device
JP5207797B2 (en) Imaging apparatus and control method thereof
JP5169499B2 (en) Imaging device and imaging apparatus
US9742982B2 (en) Image capturing apparatus and method for controlling image capturing apparatus
CN110636277B (en) Detection apparatus, detection method, and image pickup apparatus
JP5947601B2 (en) FOCUS DETECTION DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE
JP6506560B2 (en) Focus control device and method therefor, program, storage medium
US9667853B2 (en) Image-capturing apparatus
JP7156352B2 (en) IMAGING DEVICE, IMAGING METHOD, AND PROGRAM
JP2014153509A (en) Imaging device and imaging method
CN107431755B (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP6381266B2 (en) IMAGING DEVICE, CONTROL DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2017220724A (en) Image processing apparatus, imaging device, image processing method, and program
JP2017181797A (en) Focus detection device, method thereof, imaging apparatus, program, and storage medium
JP2016142999A (en) Imaging device and control method of the same
JP7171331B2 (en) Imaging device
JP6639208B2 (en) Imaging device and control method thereof
JP5409588B2 (en) Focus adjustment method, focus adjustment program, and imaging apparatus
JP6611559B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP6305016B2 (en) FOCUS CONTROL DEVICE, FOCUS CONTROL DEVICE CONTROL METHOD, AND IMAGING DEVICE
JP2019045568A (en) Imaging apparatus and imaging system
JP7022534B2 (en) Image processing device and image processing method
JP6929140B2 (en) Control device, image pickup device, control method, program, and storage medium
JP6902921B2 (en) Imaging equipment, control methods, and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191224

R151 Written notification of patent or utility model registration

Ref document number: 6639208

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees