JP2019074623A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2019074623A
JP2019074623A JP2017200088A JP2017200088A JP2019074623A JP 2019074623 A JP2019074623 A JP 2019074623A JP 2017200088 A JP2017200088 A JP 2017200088A JP 2017200088 A JP2017200088 A JP 2017200088A JP 2019074623 A JP2019074623 A JP 2019074623A
Authority
JP
Japan
Prior art keywords
imaging
spectral
image
focus
focus detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017200088A
Other languages
Japanese (ja)
Inventor
優 稲垣
Masaru Inagaki
優 稲垣
英之 浜野
Hideyuki Hamano
英之 浜野
友美 高尾
Tomomi Takao
友美 高尾
康平 岡本
Kohei Okamoto
康平 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017200088A priority Critical patent/JP2019074623A/en
Publication of JP2019074623A publication Critical patent/JP2019074623A/en
Pending legal-status Critical Current

Links

Abstract

To achieve high accuracy focus adjustment when detecting a focus by use of beams having different spectral conditions.SOLUTION: An imaging apparatus 100 has: image sensors 101, 102 for imaging a subject image formed by beams from an imaging optical system; an optical element 103 capable of directing a beam in a first spectral state and a beam in a second spectral state different from the first spectral state to the image sensors; and control means 104 for detecting a focus by a phase difference detection method using a signal from the image sensors and adjusting and controlling a focus by using the results of the focus detection. The control means adjusts and controls a focus by using the results of focus detection, first spectral distribution information relating to the spectral distribution of the beam in the first spectral state, and second spectral distribution information relating to the spectral distribution of the beam in the second spectral state.SELECTED DRAWING: Figure 1

Description

本発明は、複数の撮像素子を有する撮像装置の焦点調節制御に関する。   The present invention relates to focusing control of an imaging device having a plurality of imaging elements.

上記のような撮像装置として、特許文献1には、ハーフミラーの透過側と反射側のそれぞれに1つずつ撮像素子を設けた撮像装置が開示されている。このような撮像装置において、それぞれの撮像素子により焦点検出を行うことも可能である。特許文献2には、色分離プリズムによって分離された可視光と赤外光をそれぞれ受光する2つの撮像素子と、赤外光の結像位置を調節するための補正レンズとを有し、可視光と赤外光での撮像を同一被写体にピントを合わせて同時に行う撮像装置が開示されている。   As an imaging device as described above, Patent Document 1 discloses an imaging device in which an imaging element is provided on each of the transmission side and the reflection side of the half mirror. In such an imaging device, it is also possible to perform focus detection by each imaging device. Patent Document 2 includes two imaging devices that respectively receive visible light and infrared light separated by a color separation prism, and a correction lens for adjusting the image formation position of infrared light, And an imaging device for simultaneously focusing on the same object and imaging with infrared light.

特許第5691440号公報Patent No. 5691440 gazette 特開2004−354714号公報JP 2004-354714 A

しかしながら、ハーフミラーは、像高やレンズ瞳距離に応じて変化する光束の入射角度に応じて分光透過率および分光反射率が異なる。このため、透過側と反射側とで光束の分光状態が異なり、この結果、透過側の撮像素子で得られる焦点検出結果と反射側の撮像素子で得られる焦点検出結果とが異なる。また、同様に、ハーフミラーが撮像光路内に配置した状態で得られる焦点検出結果とハーフミラーが撮像光路外に退避した状態で得られる焦点検出結果にも違いが生じる。   However, in the half mirror, the spectral transmittance and the spectral reflectance are different according to the incident angle of the light flux which changes according to the image height and the lens pupil distance. For this reason, the spectral state of the light flux is different between the transmission side and the reflection side, and as a result, the focus detection result obtained by the transmission side imaging element is different from the focus detection result obtained by the reflection side imaging element. Similarly, a difference occurs between the focus detection result obtained when the half mirror is disposed in the imaging light path and the focus detection result obtained when the half mirror is retracted outside the imaging light path.

本発明は、分光状態が異なる光束を用いて焦点検出を行う場合に高精度な焦点検出、さらには焦点調節制御が可能な撮像装置を提供する。   The present invention provides an imaging device capable of performing high-accuracy focus detection and further focus adjustment control when focus detection is performed using light beams in different spectral states.

本発明の一側面としての撮像装置は、撮像光学系からの光束により形成される被写体像を撮像する撮像素子と、撮像素子に対して、第1の分光状態の光束と第1の分光状態とは異なる第2の分光状態の光束とを入射させることが可能な光学素子と、撮像素子からの信号を用いて位相差検出方式の焦点検出を行い、該焦点検出の結果を用いて焦点調節制御を行う制御手段とを有する。制御手段は、焦点検出の結果と、第1の分光状態での光束の分光分布に関する第1の分光分布情報と、第2の分光状態での光束の分光分布に関する第2の分光分布情報とを用いて焦点調節制御を行うことを特徴とする。   An imaging apparatus according to one aspect of the present invention includes an imaging element for capturing an object image formed by a light flux from an imaging optical system, a light flux in a first spectral state, and a first spectral state with respect to the imaging element. An optical element capable of causing light beams of different second spectral states to enter and focus detection using a phase difference detection method using a signal from an imaging element, and focus adjustment control using the result of the focus detection And control means for The control means includes the result of focus detection, first spectral distribution information on the spectral distribution of the light flux in the first spectral state, and second spectral distribution information on the spectral distribution of the light flux in the second spectral state. It is characterized in that focusing control is performed by using.

また、本発明の他の一側面としての焦点調節制御方法は、撮像光学系からの光束により形成される被写体像を撮像する撮像素子と、撮像素子に対して、第1の分光状態の光束と第1の分光状態とは異なる第2の分光状態の光束とを入射させることが可能な光学素子とを有し、撮像素子からの信号を用いて位相差検出方式の焦点検出を行い、該焦点検出の結果を用いて焦点調節制御を行う撮像装置に適用される。該焦点調節制御方法は、第1の分光状態での光束の分光分布に関する第1の分光分布情報を取得するステップと、第2の分光状態での光束の分光分布に関する第2の分光分布情報を取得するステップと、焦点検出の結果と、第1の分光分布情報と、第2の分光分布情報とを用いて焦点調節制御を行うステップとを有することを特徴とする。   According to another aspect of the present invention, there is provided a focus adjustment control method comprising: an imaging device for capturing an object image formed by a light beam from an imaging optical system; a light beam in a first spectral state with respect to the imaging device; And an optical element capable of causing a light beam of a second spectral state different from the first spectral state to be incident, performing focus detection of the phase difference detection method using a signal from the imaging element, and performing the focal point detection. The present invention is applied to an imaging apparatus that performs focusing control using the result of detection. The focus adjustment control method comprises the steps of acquiring first spectral distribution information on spectral distribution of light flux in a first spectral state, and second spectral distribution information on spectral distribution of light flux in a second spectral state. It is characterized by having the step of acquiring, and performing the focus adjustment control using the result of focus detection, the first spectral distribution information, and the second spectral distribution information.

なお、撮像装置のコンピュータに、上記焦点調節制御方法に対応する処理を実行させるコンピュータプログラムも本発明の他の一側面を構成する。   A computer program that causes a computer of an imaging device to execute processing corresponding to the above-described focus adjustment control method also constitutes another aspect of the present invention.

本発明によれば、分光状態が異なる光束を用いて焦点検出を行う場合に高精度な焦点検出および焦点調節制御を行うことができる。   According to the present invention, high-accuracy focus detection and focus adjustment control can be performed when focus detection is performed using light beams in different spectral states.

本発明の実施例1であるカメラの構成を示すブロック図。1 is a block diagram showing the configuration of a camera that is Embodiment 1 of the present invention. 上記カメラに用いられる撮像素子の構成を示す図。The figure which shows the structure of the image pick-up element used for the said camera. 実施例1における射出瞳と焦点検出瞳との相対位置関係を示す図。FIG. 6 is a diagram showing a relative positional relationship between an exit pupil and a focus detection pupil in Embodiment 1. 実施例1における焦点検出領域を示す図。FIG. 2 is a diagram showing a focus detection area in Embodiment 1. 実施例1における撮像処理を示すフローチャート。3 is a flowchart showing imaging processing in Embodiment 1. 実施例1におけるAF処理を示すフローチャート。6 is a flowchart showing AF processing in Embodiment 1. 実施例1における被写体情報抽出処理を示すフローチャート。6 is a flowchart showing subject information extraction processing in the first embodiment. 実施例1における各撮像素子で得られる被写体情報の例を示す図。FIG. 6 is a diagram showing an example of subject information obtained by each image sensor in the first embodiment. 実施例1におけるAF評価帯域および撮像画像評価帯域を示す図。FIG. 3 is a diagram showing an AF evaluation band and a captured image evaluation band in Embodiment 1. 実施例1におけるAF評価帯域および撮像画像評価帯域を示す別の図。FIG. 8 is another view showing an AF evaluation band and a captured image evaluation band in Embodiment 1. 実施例1におけるBP量算出処理を示すフローチャート。6 is a flowchart showing BP amount calculation processing in the first embodiment. 実施例1における撮像レンズの収差情報の例を示す図。FIG. 6 is a diagram showing an example of aberration information of the imaging lens in Embodiment 1. 実施例1におけるハーフミラーの分光透過率の角度依存性を示す図。FIG. 6 is a graph showing the angular dependence of the spectral transmittance of the half mirror in Example 1; 実施例1におけるハーフミラーに対する入射角度を示す図。FIG. 6 is a diagram showing an incident angle to a half mirror in the first embodiment. 実施例1における被写体情報抽出タイミングを示す図。FIG. 6 is a diagram showing object information extraction timing in the first embodiment. 本発明の実施例2であるカメラの構成を示すブロック図。The block diagram which shows the structure of the camera which is Example 2 of this invention. 実施例2における撮像処理を示すフローチャート。6 is a flowchart showing an imaging process in Embodiment 2. 実施例2におけるAF処理を示すフローチャート。6 is a flowchart showing an AF process in Embodiment 2. 実施例2におけるBP量算出処理を示すフローチャート。10 is a flowchart showing BP amount calculation processing in the second embodiment. 実施例2のカメラのハーフミラーの退避状態を示す図。FIG. 7 is a diagram showing a retracted state of a half mirror of the camera of the second embodiment.

以下、本発明の実施例について図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施例1である撮像装置(カメラ)としてのレンズ交換式デジタルカメラ本体100および撮像レンズ500の構成を示している。撮像レンズ500は、カメラ本体100に対して着脱可能に構成されている。なお、カメラは、本実施例のようなレンズ交換型カメラに限らず、レンズがカメラ本体に固定されたレンズ一体型カメラでもよい。   FIG. 1 shows the configuration of a lens-interchangeable digital camera body 100 and an imaging lens 500 as an imaging apparatus (camera) according to a first embodiment of the present invention. The imaging lens 500 is configured to be attachable to and detachable from the camera body 100. The camera is not limited to the interchangeable lens camera as in this embodiment, and may be a lens integrated camera in which a lens is fixed to the camera body.

撮像レンズ500内の撮像光学系を透過した光束は、カメラ本体100内に固定された光束分割手段としてのビームスプリッタ103に入射して2つの光束に分割される。本実施例では、ビームスプリッタ103として、入射した光束を透過光束(第1の光束)と反射光束(第2の光束)とに分割する光束分割手段としてのハーフミラーにより構成されている。ビームスプリッタ103からの透過光束は第1の撮像素子101に向かい、ビームスプリッタ103からの反射光束は第2の撮像素子102に向かう。ビームスプリッタ103は、ハーフミラーと同様に入射する光束を分割することができれば、ハーフミラーでなくてもよい。   The luminous flux transmitted through the imaging optical system in the imaging lens 500 is incident on a beam splitter 103 as luminous flux splitting means fixed in the camera body 100 and is split into two luminous fluxes. In the present embodiment, the beam splitter 103 is configured by a half mirror as a beam splitting unit that splits an incident beam into a transmitted beam (first beam) and a reflected beam (second beam). The transmitted beam from the beam splitter 103 is directed to the first imaging device 101, and the reflected beam from the beam splitter 103 is directed to the second imaging device 102. The beam splitter 103 may not be a half mirror as long as it can split an incident light beam similarly to the half mirror.

第1の撮像素子101の撮像面(以下、第1の撮像面という)と第2の撮像素子102の撮像面(以下、第2の撮像面という)は、撮像レンズ500から見て光学的に等価な位置にある。言い換えれば、第1の撮像面と第2の撮像面はそれぞれ、撮像レンズ500を介して、被写体に対して光学的に共役な結像面に位置する。   The imaging surface of the first imaging element 101 (hereinafter referred to as a first imaging surface) and the imaging surface of the second imaging element 102 (hereinafter referred to as a second imaging surface) are optically viewed from the imaging lens 500. It is in the equivalent position. In other words, the first imaging surface and the second imaging surface are each positioned on an imaging surface optically conjugate to the subject via the imaging lens 500.

第1および第2の撮像面には、ビームスプリッタ103の透過率および反射率に応じた明るさの被写体像が形成される。ビームスプリッタ(ハーフミラー)103は理想的には平面で、かつ光束が透過する領域の屈折率が一様であることが望ましいが、現実にはある程度のうねりや屈折率分布を有する。このため、ビームスプリッタ103を透過および反射した光束により形成される被写体像を撮像して得られる画像の画質が低下するおそれがある。   An object image having a brightness according to the transmittance and reflectance of the beam splitter 103 is formed on the first and second imaging surfaces. It is desirable that the beam splitter (half mirror) 103 is ideally flat and have a uniform refractive index in the region through which the light flux passes, but in reality it has a certain degree of waviness and refractive index distribution. For this reason, there is a possibility that the image quality of the image obtained by capturing the subject image formed by the light flux transmitted and reflected by the beam splitter 103 may be degraded.

また、ハーフミラーが薄板ガラスにより構成される場合には、反射光束により形成される被写体像を撮像して得られる画像の方が、透過光束により形成される被写体像を撮像して得られる画像より画質の低下度が大きい。   When the half mirror is formed of thin glass, an image obtained by capturing an object image formed by the reflected light beam is better than an image obtained by capturing the object image formed by the transmitted light beam. The degree of deterioration of the image quality is large.

このため、本実施例では、透過側の第1の撮像素子101を高解像度記録用の撮像素子、すなわち主として静止画を撮像するための撮像素子として用いる。一方、反射側の第2の撮像素子102を、静止画よりも記録画素数が少ない動画を撮像するための撮像素子として用いる。ただし、後述するように、第1の撮像素子101により動画撮像を行い、第2の撮像素子102により静止画撮像を行ってもよい。   For this reason, in this embodiment, the first imaging element 101 on the transmission side is used as an imaging element for high resolution recording, that is, an imaging element for mainly capturing a still image. On the other hand, the second imaging element 102 on the reflection side is used as an imaging element for capturing a moving image having a smaller number of recording pixels than a still image. However, as described later, a moving image may be captured by the first imaging element 101, and a still image may be captured by the second imaging element 102.

それぞれCMOSエリアセンサからなる第1および第2の撮像素子101,102は、被写体像を電気信号に変換するマトリクス状に配置された画素によって構成される。電気信号に変換された画素情報はカメラCPU104で画像信号や焦点検出信号を得るための各種補正処理や、得られた画像信号をライブビュー画像や記録画像へ変換するための処理等が行われる。なお、本実施例では上記処理等をカメラCPU104が行うが、それぞれの処理に専用回路を設けてもよい。   The first and second imaging elements 101 and 102, each of which is a CMOS area sensor, are configured by pixels arranged in a matrix that converts an object image into an electrical signal. The pixel information converted into the electrical signal is subjected to various correction processing for obtaining an image signal and a focus detection signal by the camera CPU 104, and processing for converting the obtained image signal into a live view image and a recorded image. In the present embodiment, the camera CPU 104 performs the above processing and the like, but a dedicated circuit may be provided for each processing.

撮像素子駆動部114は、第2の撮像素子102を光軸方向(撮像光学系の光軸が延びる方向)に移動させる。第1および第2の撮像素子101,102は、上述したように光学的に共役な結像面に配置されるが、カメラ本体100の組立誤差や後述する収差の影響による最良像面の差によって共役な結像面に対して誤差を持って配置される。このため、第1および第2の撮像素子101,102を通して同時に画像を得る際に、撮像レンズ500に設けられた後述するフォーカスレンズ(第3レンズ群503)だけでは第1および第2の撮像素子101,102に対して精度良く焦点調節を行うことができない。そこで、本実施例では、撮像素子駆動部114を設けている。撮像素子駆動部114は、上述したように第2の撮像素子102を光軸方向に移動させてよいし、ビームスプリッタ103を同方向に移動させてもよい。また、第1および第2の撮像素子101,102のそれぞれには、赤外カットフィルタや光学的ローパスフィルタ等の光学フィルタが一体的に配置されている。   The imaging element drive unit 114 moves the second imaging element 102 in the optical axis direction (the direction in which the optical axis of the imaging optical system extends). The first and second imaging elements 101 and 102 are disposed on the optically conjugate imaging plane as described above, but due to the assembly error of the camera body 100 and the difference in the best imaging plane due to the influence of the aberration described later. It is arranged with an error with respect to the conjugate imaging plane. Therefore, when an image is simultaneously obtained through the first and second imaging elements 101 and 102, the first and second imaging elements can be provided only by a focusing lens (third lens group 503), which will be described later, provided on the imaging lens 500. The focus adjustment can not be performed with high accuracy for 101 and 102. Therefore, in the present embodiment, the imaging element driving unit 114 is provided. The imaging device driving unit 114 may move the second imaging device 102 in the optical axis direction as described above, or may move the beam splitter 103 in the same direction. Further, an optical filter such as an infrared cut filter or an optical low pass filter is integrally disposed in each of the first and second imaging elements 101 and 102.

操作部105は、撮像モードや撮像条件等を設定するためにユーザにより操作されるスイッチ、ダイヤル等の各種操作部材を含む。記憶媒体106は、フラッシュメモリにより構成され、撮像画像(静止画および動画)を記録する。   The operation unit 105 includes various operation members such as a switch operated by the user to set an imaging mode, an imaging condition, and the like, a dial, and the like. The storage medium 106 is configured by a flash memory, and records captured images (still images and moving images).

ファインダ内表示器107は、有機EL素子や液晶素子等のディスプレイデバイス108と接眼レンズ109とで構成され、接眼レンズ109を覗いたユーザにディスプレイデバイス108に表示された画像を観察させる。外部表示器110は、有機EL素子や液晶素子等により構成され、カメラ本体100の背面に設けられている。カメラ本体100の各種設定状態、ライブビュー画像および撮像画像等は、ファインダ内表示器107および外部表示器110に表示される。   The in-finder display 107 includes a display device 108 such as an organic EL element or a liquid crystal element and an eyepiece lens 109, and allows a user looking through the eyepiece lens 109 to observe an image displayed on the display device 108. The external display 110 is configured of an organic EL element, a liquid crystal element, and the like, and is provided on the back surface of the camera body 100. Various setting states of the camera body 100, a live view image, a captured image, and the like are displayed on the in-finder display 107 and the external display 110.

フォーカルプレンシャッタ111は、第1の撮像素子101の前面に配置され、静止画撮像時に第1の撮像素子101の露光秒時を制御する。シャッタ駆動部112は、モータ等のアクチュエータとその駆動回路とにより構成され、フォーカルプレンシャッタ111のシャッタ羽根を駆動する。カメラ本体100および撮像レンズ500にはそれぞれ、撮像レンズ500をカメラ本体100に装着するためのカメラマウント部およびレンズマウント部が設けられている。カメラマウント部に設けられたカメラ側通信端子113およびレンズマウント部に設けられたに設けられたレンズ側通信端子508は、後述するカメラCPU104とレンズCPU507との間の通信を可能とする。   The focal plane shutter 111 is disposed in front of the first imaging device 101, and controls the exposure time of the first imaging device 101 at the time of capturing a still image. The shutter drive unit 112 is constituted by an actuator such as a motor and its drive circuit, and drives the shutter blades of the focal plane shutter 111. Each of the camera body 100 and the imaging lens 500 is provided with a camera mount and a lens mount for mounting the imaging lens 500 on the camera body 100. The camera side communication terminal 113 provided in the camera mount unit and the lens side communication terminal 508 provided in the lens mount unit enable communication between the camera CPU 104 and the lens CPU 507 described later.

撮像レンズ500内の撮像光学系は、焦点距離が可変であるズームレンズとして、以下のように構成されている。被写体からの光束は、第1レンズ群501、第2レンズ群502、虹彩絞り505および第3レンズ群503を透過して被写体像を形成する。第2レンズ群502は、光軸方向に移動して変倍を行うバリエータである。第3レンズ群503は、光軸方向に移動して焦点調節を行うフォーカスレンズ(フォーカス素子)である。第3レンズ群503は、ステッピングモータ等のアクチュエータを含むフォーカス駆動部504によって移動される。虹彩絞り505は、光量を調節するための複数の絞り羽根を有する。絞り駆動部506は、絞りアクチュエータおよびその駆動回路を含み、複数の絞り羽根を開閉方向に駆動する。   The imaging optical system in the imaging lens 500 is configured as follows as a zoom lens whose focal length is variable. A light flux from the subject passes through the first lens group 501, the second lens group 502, the iris diaphragm 505, and the third lens group 503 to form a subject image. The second lens group 502 is a variator which moves in the direction of the optical axis to change magnification. The third lens group 503 is a focusing lens (focusing element) which moves in the optical axis direction to perform focusing. The third lens group 503 is moved by a focus drive unit 504 including an actuator such as a stepping motor. The iris diaphragm 505 has a plurality of diaphragm blades for adjusting the amount of light. The diaphragm drive unit 506 includes a diaphragm actuator and its drive circuit, and drives a plurality of diaphragm blades in the opening and closing direction.

レンズCPU507は、レンズ側通信端子508およびカメラ側通信端子113を介してカメラCPU104と通信し、各種情報を送受信したり、カメラCPU104からの指令に基づいてフォーカス駆動部504や絞り駆動部506を制御したりする。   The lens CPU 507 communicates with the camera CPU 104 via the lens communication terminal 508 and the camera communication terminal 113 to transmit and receive various information, and controls the focus driver 504 and the diaphragm driver 506 based on an instruction from the camera CPU 104. Do.

本実施例では、撮像レンズ500の開放Fナンバは、ズーム状態やフォーカス状態によらず、一定値(例えばF2)となる。撮像レンズ500の射出瞳と各撮像面(各撮像素子)との間の距離である射出瞳距離は、ズーム状態およびフォーカス状態に応じて変化する。   In this embodiment, the open F number of the imaging lens 500 is a constant value (for example, F2) regardless of the zoom state and the focus state. An exit pupil distance which is a distance between an exit pupil of the imaging lens 500 and each imaging surface (each imaging element) changes in accordance with the zoom state and the focus state.

図2(a),(b)は、第1の撮像素子101の構成を示している。本実施例では、第1の撮像素子101と第2の撮像素子102は、画素ピッチと、1つのマイクロレンズに対応する光電変換部の数とが異なるが、それ以外の構成については同様である。第2の撮像素子102の構成については後述する。   2A and 2B show the configuration of the first imaging element 101. FIG. In the present embodiment, the first imaging device 101 and the second imaging device 102 have different pixel pitches and the number of photoelectric conversion units corresponding to one microlens, but the other configurations are the same. . The configuration of the second imaging element 102 will be described later.

図2(a)は、第1の撮像素子101(第1の撮像面)のうち中央(像高0)近傍の複数の画素を撮像レンズ側から見て示している。各画素は、第1の撮像面上の水平(x)方向および垂直(y)方向のそれぞれにおいて4μmのサイズの正方形状を有し、各画素の構造は基本的に同じである。第1の撮像素子101は、画素が水平方向に6000画素、垂直方向に4000画素配列された、有効画素数2400万画素の撮像素子である。第1の撮像面のサイズは各画素のサイズ、すなわち画素ピッチに画素数を乗じれば求めることができ、本実施例では水平方向24mm、垂直方向16mmである。全ての画素には、R、GまたはBのカラーフィルタがモザイク状となるように設けられている。   FIG. 2A shows a plurality of pixels in the vicinity of the center (image height 0) of the first imaging device 101 (first imaging surface) as viewed from the imaging lens side. Each pixel has a square shape of 4 μm in size in each of the horizontal (x) direction and the vertical (y) direction on the first imaging surface, and the structure of each pixel is basically the same. The first imaging device 101 is an imaging device having 24 million effective pixels, in which pixels are arrayed 6,000 pixels in the horizontal direction and 4000 pixels in the vertical direction. The size of the first imaging plane can be obtained by multiplying the size of each pixel, ie, the pixel pitch, by the number of pixels, and in this embodiment, it is 24 mm in the horizontal direction and 16 mm in the vertical direction. All the pixels are provided with R, G or B color filters in a mosaic manner.

図2(b)は、1つの画素の断面構造を示している。CMOSイメージセンサの基体を成すシリコン基板101d内には、一対の光電変換部101aおよび光電変換部101bが設けられている。また、シリコン基板101d内には、各光電変換部で発生した光電子を電圧に変換して外部に読み出す不図示のスイッチングトランジスタ等が形成されている。各光電変換部からの出力信号は、複数の配線層101eを通じて読み出される。   FIG. 2B shows the cross-sectional structure of one pixel. A pair of photoelectric conversion units 101 a and photoelectric conversion units 101 b are provided in a silicon substrate 101 d that is a base of the CMOS image sensor. Further, in the silicon substrate 101d, a switching transistor (not shown) or the like (not shown) is formed by converting the photoelectrons generated in each photoelectric conversion unit into a voltage and reading it to the outside. The output signal from each photoelectric conversion unit is read out through the plurality of wiring layers 101 e.

複数の配線層101eは、透明な層間膜101fによって互いに絶縁されている。オンチップマイクロレンズ101cの下には、色分離用カラーフィルタ101gが設けられている。マイクロレンズ101cの形状は、その焦点位置が一対の光電変換部101a,101bの上面に一致するように決められる。このため、一対の光電変換部101a,101bはマイクロレンズ101cを介して後述する撮像レンズ500の射出瞳近傍に逆投影され、その逆投影像がそれぞれ位相差検出方式焦点検出における焦点検出瞳となる。撮像光学系の射出瞳において一対の焦点検出瞳が並ぶ方向(瞳分割方向)は、水平方向または垂直方向である。   The plurality of wiring layers 101 e are mutually insulated by the transparent interlayer film 101 f. A color separation color filter 101g is provided below the on-chip microlenses 101c. The shape of the micro lens 101c is determined such that the focal position thereof coincides with the upper surface of the pair of photoelectric conversion units 101a and 101b. Therefore, the pair of photoelectric conversion units 101a and 101b are backprojected near the exit pupil of the imaging lens 500 described later via the micro lens 101c, and the backprojected images become focus detection pupils in phase difference detection focus detection, respectively. . The direction in which the pair of focus detection pupils are arranged in the exit pupil of the imaging optical system (the pupil division direction) is the horizontal direction or the vertical direction.

位相差検出方向焦点検出を行う際には、光電変換部101aからの出力信号と光電変換部101bからの出力信号とを個別に処理して一対の位相差像信号を生成する。そして、焦点検出手段としてのカメラCPU104は、一対の位相差像信号の相対的なずれ量(像ずれ量)から第1の撮像面における被写体像のデフォーカス量を算出する。   When performing phase difference detection direction focus detection, an output signal from the photoelectric conversion unit 101a and an output signal from the photoelectric conversion unit 101b are separately processed to generate a pair of phase difference image signals. And camera CPU104 as a focus detection means calculates the defocusing quantity of the to-be-photographed image in a 1st imaging surface from relative deviation | shift amount (image deviation | shift amount) of a pair of phase difference image signal.

また、制御手段としてのカメラCPU104は、一対の光電変換部101a,101bからの出力信号を加算して、静止画(または動画)記録用の画素信号もしくはライブビュー画像用の画素信号を生成する。ライブビュー画像は、記録用画像を取得するための撮像前にファインダ内表示器107および外部表示器110にリアルタイムで表示される画像である。なお、この加算処理をカメラCPU104とは別の専用回路により行ってもよい。また、第1の撮像素子101が光電変換部101a,101bの出力信号を個別に読み出し、第1の撮像素子101内で加算して画素信号として出力してもよい。   The camera CPU 104 as a control unit adds the output signals from the pair of photoelectric conversion units 101a and 101b to generate a pixel signal for still image (or moving image) recording or a pixel signal for live view image. The live view image is an image displayed in real time on the in-finder display 107 and the external display 110 before capturing for obtaining a recording image. Note that this addition processing may be performed by a dedicated circuit different from the camera CPU 104. Alternatively, the first imaging device 101 may individually read the output signals of the photoelectric conversion units 101a and 101b, add them in the first imaging device 101, and output the result as a pixel signal.

図2(c)は、第2の撮像素子102の構成を示しており、第2撮像面における中央(像高0)近傍における複数の画素を撮像レンズ側から見て示している。各画素は、第2の撮像面上の水平(x)方向および垂直(y)方向のそれぞれにおいて12μmのサイズの正方形状を有し、各画素の構造は実質的に同じである。第2の撮像素子102は、画素が水平方向に2000画素、垂直方向に1333画素配列された、有効画素数約267万画素の撮像素子である。第2の撮像面のサイズは、水平方向24mm、垂直方向16mmである。全ての画素には、R、GまたはBのカラーフィルタがモザイク状となるように設けられている。第2の撮像素子102の画素ピッチは第1の撮像素子101の2倍であるため、第2の撮像素子102の総画素数は第1の撮像素子101の1/4である。   FIG. 2C shows the configuration of the second imaging element 102, and shows a plurality of pixels in the vicinity of the center (image height 0) in the second imaging surface as viewed from the imaging lens side. Each pixel has a square shape with a size of 12 μm in each of the horizontal (x) direction and the vertical (y) direction on the second imaging surface, and the structure of each pixel is substantially the same. The second imaging element 102 is an imaging element having about 2.67 million effective pixels, in which 2000 pixels are arranged in the horizontal direction and 1333 pixels in the vertical direction. The size of the second imaging surface is 24 mm in the horizontal direction and 16 mm in the vertical direction. All the pixels are provided with R, G or B color filters in a mosaic manner. Since the pixel pitch of the second image sensor 102 is twice that of the first image sensor 101, the total number of pixels of the second image sensor 102 is 1⁄4 of that of the first image sensor 101.

第2の撮像素子102の各画素は、配線層、マイクロレンズおよび色分離用カラーフィルタについては第1の撮像素子101と同様に構成されている。第2の撮像素子102は、第1の撮像素子101と異なり、1つのオンチップマイクロレンズ102jの下に9つの光電変換部102a〜102iを有する。これにより、第1の撮像素子101に比べて、受光する光線の角度分解能を上げることができる。   Each pixel of the second imaging element 102 is configured in the same manner as the first imaging element 101 with respect to the wiring layer, the microlens, and the color separation color filter. Unlike the first imaging device 101, the second imaging device 102 has nine photoelectric conversion units 102a to 102i under one on-chip microlens 102j. As a result, compared to the first imaging device 101, the angular resolution of the light beam to be received can be increased.

上述したように第1の撮像素子101からは一対の光電変換部101a,101bが撮像レンズの射出瞳近傍に逆投影されるが、第2の撮像素子102からは9つの光電変換部102a〜102iが逆投影される。つまり、9つの逆投影像がそれぞれ焦点検出瞳となる。位相差検出方向焦点検出を行う際には、9つの光電変換部102a〜102iのうち一対の光電変換部からの出力信号を個別に処理して一対の位相差像信号を生成する。一対の焦点検出瞳が並ぶ瞳分割方向として、水平方向、垂直方向および斜め方向を選択することができる。そして、カメラCPU104は、一対の位相差像信号の相対的なずれ量から第2の撮像面における被写体像のデフォーカス量を算出する。   As described above, from the first imaging device 101, the pair of photoelectric conversion units 101a and 101b are back-projected in the vicinity of the exit pupil of the imaging lens, but from the second imaging device 102, nine photoelectric conversion units 102a to 102i Is backprojected. That is, nine backprojected images become focus detection pupils, respectively. When performing phase difference detection direction focus detection, output signals from a pair of photoelectric conversion units among the nine photoelectric conversion units 102a to 102i are individually processed to generate a pair of phase difference image signals. A horizontal direction, a vertical direction, and an oblique direction can be selected as a pupil division direction in which a pair of focus detection pupils are arranged. Then, the camera CPU 104 calculates the defocus amount of the subject image on the second imaging surface from the relative shift amount of the pair of phase difference image signals.

また、カメラCPU104は、9つの光電変換部102a〜102iの全部または一部からの出力信号を加算して、動画(または静止画)記録用の画素信号もしくはライブビュー表示用の画素信号を生成する。なお、この加算処理をカメラCPU104とは別の専用回路により行ってもよい。また、第2の撮像素子102が光電変換部102a〜102iの出力信号を個別に読み出し、第2の撮像素子102内で加算して画素信号として出力してもよい。   Also, the camera CPU 104 adds output signals from all or part of the nine photoelectric conversion units 102a to 102i to generate a pixel signal for moving image (or still image) recording or a pixel signal for live view display. . Note that this addition processing may be performed by a dedicated circuit different from the camera CPU 104. Alternatively, the second imaging device 102 may individually read the output signals of the photoelectric conversion units 102 a to 102 i, add them in the second imaging device 102, and output the result as a pixel signal.

本実施例では、第1および第2の撮像素子101,102は、第1の読み出しモードと第2の読み出しモードとを有する。第1の読み出しモードは、記録用の静止画や動画を撮像するために全画素から出力信号が読み出される全画素読み出しモードである。第2の読み出しモードは、記録用の静止画よりも画素数が少ないライブビュー画像の表示を行うため、全画素のうち一部の画素からの出力信号のみが読み出される間引き読み出しモードである。ライブビュー画像の生成に必要な画素数は全画素数よりも少ないため、撮像素子からx方向およびy方向ともに所定比率で間引いた数の画素のみから出力信号を読み出すことで、信号処理負荷を軽減するとともに、消費電力の低減にも寄与する。また、第1および第2の読み出しモードのいずれにおいても各画素に設けられた各光電変換部からの出力信号は独立して読み出しされるため、いずれの読み出しモードでも一対の位相差像信号の生成が可能である。   In the present embodiment, the first and second imaging elements 101 and 102 have a first readout mode and a second readout mode. The first readout mode is an all-pixel readout mode in which output signals are read out from all the pixels in order to capture a still image or a moving image for recording. The second readout mode is a thinning readout mode in which only an output signal from a part of all the pixels is read out in order to display a live view image having a smaller number of pixels than a recording still image. Since the number of pixels required to generate a live view image is smaller than the total number of pixels, the signal processing load is reduced by reading out output signals only from the number of pixels thinned out at a predetermined ratio in both x and y directions from the imaging device Contribute to the reduction of power consumption. Further, since the output signal from each photoelectric conversion unit provided in each pixel is read independently in any of the first and second read modes, generation of a pair of phase difference image signals in any read mode Is possible.

上述したように本実施例では第1の撮像素子101は静止画撮像に用いられるが、動画撮像を行ってもよい。例えば、第2の撮像素子102による動画撮像中に、第1の撮像素子101から第2の読み出しモードで生成した低解像度動画を記録することも可能である。また、本実施例では第2の撮像素子102は動画撮像に用いられるが、静止画撮像も可能である。例えば、動画撮像中に特定の1フレーム画像を記録用静止画として取得することも可能である。   As described above, in the present embodiment, the first imaging element 101 is used for still image capturing, but moving image capturing may be performed. For example, it is possible to record a low resolution moving image generated from the first imaging device 101 in the second readout mode during moving image imaging by the second imaging device 102. In addition, although the second imaging element 102 is used for moving image capturing in the present embodiment, still image capturing is also possible. For example, it is also possible to acquire a specific one frame image as a recording still image while capturing a moving image.

次に、図3(a)〜(d)を用いて、第1および第2の撮像素子101,102の光電変換部と焦点検出瞳との関係について説明する。図3(a),(b)は、撮像光学系の射出瞳面と第1の撮像素子101における像高0の位置に配置された光電変換部との共役関係を示す。撮像光学系の射出瞳面と第1の撮像素子101の光電変換部101a,101bとは、マイクロレンズ101cによって共役関係とされる。撮像光学系の射出瞳の位置は、一般に虹彩絞り505の位置と一致する。   Next, with reference to FIGS. 3A to 3D, the relationship between the photoelectric conversion units of the first and second imaging elements 101 and 102 and the focus detection pupil will be described. FIGS. 3A and 3B show the conjugate relationship between the exit pupil plane of the imaging optical system and the photoelectric conversion unit disposed at the position of the image height 0 in the first imaging device 101. The exit pupil plane of the imaging optical system and the photoelectric conversion units 101a and 101b of the first imaging element 101 are in a conjugate relationship by the micro lens 101c. The position of the exit pupil of the imaging optical system generally coincides with the position of the iris diaphragm 505.

本実施例の撮像光学系はズームレンズであるが、その光学タイプによっては変倍によって射出瞳から像面(撮像面)までの射出瞳距離や射出瞳の大きさが変化する。図3(a)に示す撮像光学系は、焦点距離が広角端と望遠端との間の中間ズーム状態にある。このときの射出瞳距離を基準となる射出瞳距離Zepとして、マイクロレンズ101cの形状や像高(X座標、Y座標)に応じた偏心パラメータが最適化される。   The imaging optical system of the present embodiment is a zoom lens, but depending on the optical type, the power of the exit pupil from the exit pupil to the image plane (image pickup surface) and the size of the exit pupil change depending on the magnification change. The imaging optical system shown in FIG. 3A is in an intermediate zoom state where the focal length is between the wide-angle end and the telephoto end. The eccentricity parameter according to the shape of the micro lens 101c and the image height (X coordinate, Y coordinate) is optimized as the exit pupil distance Zep which is the reference at the exit pupil distance at this time.

図3(a)において、図1に示した構成要素と同じ構成要素には、図1と同符号を付す。501rは第1レンズ群501を保持する鏡筒部材であり、503rはフォーカスレンズ503を保持する鏡筒部材である。505aは虹彩絞り505の開放口径を決める開口部を有する開口板であり、505bは絞り込み開口径を調節するための絞り羽根である。撮像光学系を通過する光束を制限する部材としての鏡筒部材501r、開口板505a、絞り羽根505bおよび鏡筒部材503rは、像面側から観察した場合の光学的な虚像として示している。また、虹彩絞り505の近傍における合成開口を撮像光学系の射出瞳(以下、レンズ射出瞳という)と定義して、前述したように像面からレンズ射出瞳までの距離をZepとする。   In FIG. 3A, the same components as those shown in FIG. 1 are designated by the same reference numerals as in FIG. A lens barrel member 501r holds the first lens group 501, and a lens barrel member 503r holds the focus lens 503. Reference numeral 505a denotes an aperture plate having an opening that determines the aperture of the iris diaphragm 505, and reference numeral 505b denotes an aperture blade for adjusting the aperture diameter. A lens barrel member 501r as a member for limiting a light flux passing through the imaging optical system, an aperture plate 505a, an aperture blade 505b, and a lens barrel member 503r are shown as optical virtual images when observed from the image plane side. Further, the synthetic aperture in the vicinity of the iris diaphragm 505 is defined as an exit pupil (hereinafter referred to as a lens exit pupil) of the imaging optical system, and the distance from the image plane to the lens exit pupil is Zep as described above.

2つの光電変換部101a,101bは、マイクロレンズ101cによって撮像光学系の射出瞳面上に像EP1a,EP1bとして逆投影される。言い換えれば、撮像光学系の射出瞳のうち互いに異なる焦点検出瞳であるEP1a,EP1bが、マイクロレンズ101cを介して光電変換部101a,101bの表面に投影される。   The two photoelectric conversion units 101a and 101b are back projected as the images EP1a and EP1b on the exit pupil plane of the imaging optical system by the micro lens 101c. In other words, among the exit pupils of the imaging optical system, different focus detection pupils EP1a and EP1b are projected onto the surfaces of the photoelectric conversion units 101a and 101b via the microlenses 101c.

図3(b)は、撮像光学系の射出瞳面上における光電変換部101a,101bの逆投影像EP1a,EP1bを光軸方向から見て示す。第1の撮像素子101は、2つの光電変換部101a,101bのうち一方からの信号を出力することができるとともに、これらの両方からの信号を加算して出力できる画素を有する。加算して出力された信号は、焦点検出瞳EP1a,EP1bを通過した全ての光束を光電変換して得られた信号である。   FIG. 3B shows the backprojected images EP1a and EP1b of the photoelectric conversion units 101a and 101b on the exit pupil plane of the imaging optical system as viewed from the optical axis direction. The first image sensor 101 can output a signal from one of the two photoelectric conversion units 101a and 101b, and also has a pixel that can add and output signals from both of them. The signal output as a result of addition is a signal obtained by photoelectric conversion of all the luminous fluxes passing through the focus detection pupils EP1a and EP1b.

図3(a)において、撮像光学系を通過する光束(図ではその外縁を直線で示している)Lは、絞り505の開口板505aによって制限されており、焦点検出瞳EP1a,EP1bからの光束は撮像光学系においてケラレることなく画素に到達する。図3(b)では、図3(a)に示した光束Lの射出瞳面での断面(外縁)をTLとして示している。TLで示される円(つまりは開口板505aの開口)の内部に2つの光電変換部101a,101bの逆投影像EP1a,EP1bの大部分が含まれていることから、逆投影像EP1a,EP1bにはわずかなケラレしか発生していないことが分かる。この際、射出瞳面の中央では逆投影像EP1a,EP1bのケラレ状態は、撮像光学系の光軸(図3(a)に一点鎖線で示す)に関して対称となり、光電変換部101a,101bが受光する光量は互いに等しい。   In FIG. 3A, a light flux L (the outer edge of which is indicated by a straight line in the figure) passing through the imaging optical system is limited by the aperture plate 505a of the stop 505, and the light flux from the focus detection pupils EP1a and EP1b Reaches the pixel without vignetting in the imaging optical system. In FIG. 3B, the cross section (outer edge) of the light flux L shown in FIG. 3A on the exit pupil plane is indicated as TL. Since most of the backprojected images EP1a and EP1b of the two photoelectric conversion units 101a and 101b are included in the circle indicated by TL (that is, the opening of the aperture plate 505a), the backprojected images EP1a and EP1b are included. It can be seen that only a slight vignetting has occurred. At this time, the vignetting states of the backprojected images EP1a and EP1b at the center of the exit pupil plane are symmetrical with respect to the optical axis of the imaging optical system (indicated by dashed dotted line in FIG. 3A), and the photoelectric conversion units 101a and 101b receive light. The amount of light to be emitted is equal to one another.

図3(c),(d)は、撮像光学系の射出瞳面と第2の撮像素子102における像高0の位置に配置された光電変換部との共役関係を示す。撮像光学系の射出瞳面と第2の撮像素子102の光電変換部102a〜102iとは、マイクロレンズ102jによって共役関係とされる。図3(c)は、上述した第1レンズ群501、鏡筒部材501r、虹彩絞り505、フォーカスレンズ503、鏡筒部材503rおよび第2の撮像素子102の1つの画素を示す。   FIGS. 3C and 3D show the conjugate relationship between the exit pupil plane of the imaging optical system and the photoelectric conversion unit disposed at the position of image height 0 in the second imaging element 102. FIG. The exit pupil plane of the imaging optical system and the photoelectric conversion units 102a to 102i of the second imaging element 102 are in a conjugate relationship by the microlens 102j. FIG. 3C shows one pixel of the first lens group 501, the lens barrel member 501r, the iris diaphragm 505, the focus lens 503, the lens barrel member 503r, and the second imaging element 102 described above.

9つの光電変換部102a〜102iは、マイクロレンズ102jによって撮像光学系の射出瞳面上に投影像EP2a〜EP2iとして逆投影される。言い換えれば、逆投影像EP2a〜EP2iが形成される焦点検出瞳の像は、マイクロレンズ101cを介して光電変換部102a〜102iの表面に投影される。   The nine photoelectric conversion units 102a to 102i are back projected as projected images EP2a to EP2i on the exit pupil plane of the imaging optical system by the micro lens 102j. In other words, the image of the focus detection pupil in which the backprojected images EP2a to EP2i are formed is projected on the surface of the photoelectric conversion units 102a to 102i through the micro lens 101c.

図3(d)は、撮像光学系の射出瞳面上における光電変換部102a〜102iの逆投影像EP2a〜EP2iを光軸方向から見て示す。第2の撮像素子102は、9つの光電変換部102a〜102iのそれぞれから信号を出力することができるとともに、9つの光電変換部102a〜102iからの信号を加算して出力できる画素を有する。加算して出力された信号は、焦点検出瞳EP2a〜EP2iを通過した全ての光束を光電変換して得られた信号である。   FIG. 3D shows the backprojected images EP2a to EP2i of the photoelectric conversion units 102a to 102i on the exit pupil plane of the imaging optical system as viewed from the optical axis direction. The second image sensor 102 can output signals from each of the nine photoelectric conversion units 102a to 102i, and has pixels that can add and output signals from the nine photoelectric conversion units 102a to 102i. The signal output as a result of addition is a signal obtained by photoelectric conversion of all the luminous fluxes passing through the focus detection pupils EP2a to EP2i.

図3(c)でも、撮像光学系を通過した光束Lは、虹彩絞り505の開口板505aによって制限されている。また図3(d)でも、図3(c)に示した光束Lの射出瞳面での断面(外縁)をTLとして示している。TLで示される円(つまりは開口板505aの開口)の内部に9つの光電変換部102a〜102iの逆投影像EP2a〜EP2iの大部分が含まれていることから、逆投影像EP2a〜EP2iにはわずかなケラレしか発生していないことが分かる。この際、射出瞳面の中央では逆投影像EP2a〜EP2iのケラレ状態は、撮像光学系の光軸に関して対称となり、光電変換部102a〜102iが受光する光量は互いに等しい。   Also in FIG. 3C, the light beam L that has passed through the imaging optical system is limited by the aperture plate 505 a of the iris diaphragm 505. Also in FIG. 3 (d), the cross section (outer edge) of the light beam L shown in FIG. 3 (c) on the exit pupil plane is indicated as TL. Since most of the backprojected images EP2a to EP2i of the nine photoelectric conversion units 102a to 102i are included inside the circle indicated by TL (that is, the opening of the aperture plate 505a), the backprojected images EP2a to EP2i It can be seen that only a slight vignetting has occurred. At this time, the vignetting states of the backprojected images EP2a to EP2i are symmetrical with respect to the optical axis of the imaging optical system at the center of the exit pupil plane, and the light amounts received by the photoelectric conversion units 102a to 102i are equal to each other.

ここで、位相差検出方式の焦点検出に用いられる一対の位相差像信号について説明する。上述したように、第1の撮像素子101では、マイクロレンズ101cと2つの光電変換部101a,101bとによって撮像光学系の射出瞳を瞳分割する。そして、第1の撮像素子101の同一画素行に配置された焦点検出領域内の複数の焦点検出画素の光電変換部101aからの出力信号を繋ぎ合わせることで、一対の位相差像信号うち一方の位相差像信号(以下、A像信号という)が生成される。また、上記複数の焦点検出画素の光電変換部101bからの出力信号を繋ぎ合わせることで、一対の位相差像信号うち他方の位相差像信号(以下、B像信号という)が生成される。   Here, a pair of phase difference image signals used for focus detection of the phase difference detection method will be described. As described above, in the first imaging element 101, the exit pupil of the imaging optical system is pupil-divided by the micro lens 101c and the two photoelectric conversion units 101a and 101b. Then, by combining the output signals from the photoelectric conversion units 101 a of the plurality of focus detection pixels in the focus detection area arranged in the same pixel row of the first image sensor 101, one of the pair of phase difference image signals A phase difference image signal (hereinafter referred to as an A image signal) is generated. Further, by combining output signals from the photoelectric conversion units 101 b of the plurality of focus detection pixels, the other phase difference image signal (hereinafter, referred to as a B image signal) of the pair of phase difference image signals is generated.

A像信号およびB像信号はともに、ベイヤー配列のR画素、B画素および2つのG画素からの出力信号を信号加算処理したものであり、疑似的に輝度(Y)信号として算出される。ただし、R画素ごと、B画素ごとおよびG画素ごとにA像信号およびB像信号を生成してもよい。   Both of the A image signal and the B image signal are signal addition processing of output signals from the R pixel, B pixel and two G pixels of Bayer arrangement, and are pseudo-calculated as a luminance (Y) signal. However, the A image signal and the B image signal may be generated for each R pixel, each B pixel, and each G pixel.

このように生成したA像信号とB像信号の相対的なずれ量である位相差を相関演算により算出することにより、該位相差を用いて焦点検出領域におけるデフォーカス量を算出することができる。   By calculating the phase difference which is a relative shift amount between the A image signal and the B image signal generated in this manner by correlation calculation, it is possible to calculate the defocus amount in the focus detection area using the phase difference. .

また、第2の撮像素子102の出力信号からも、同様にして一対の位相差像信号としてのC像信号およびD像信号が生成される。第2の撮像素子102は、第1の撮像素子101よりも瞳分割数が多いため、C像信号およびD像信号の生成方法が複数考えられる。例えば、光電変換部102a,102d,102gからの出力信号を加算して1つの加算信号とし、複数の焦点検出画素間で加算信号同士を繋ぎ合わせることでC像信号を生成する。また、光電変換部102c,102f,102iからの出力信号を加算して1つの加算信号とし、複数の焦点検出画素間で加算信号同士を繋ぎ合わせることでD像信号を生成する。   Similarly, the C image signal and the D image signal as a pair of phase difference image signals are generated from the output signal of the second imaging element 102 as well. Since the second imaging device 102 has a larger number of pupil divisions than the first imaging device 101, a plurality of methods of generating C and D image signals can be considered. For example, output signals from the photoelectric conversion units 102a, 102d, and 102g are added to form one addition signal, and the addition signals are connected between a plurality of focus detection pixels to generate a C image signal. Further, output signals from the photoelectric conversion units 102c, 102f, and 102i are added to form one addition signal, and the addition signals are connected between a plurality of focus detection pixels to generate a D image signal.

他の生成方法としては、例えば、複数の焦点検出画素間で光電変換部102dからの出力信号のみを繋ぎ合わせてC像信号を生成し、光電変換部102fからの出力信号のみを繋ぎ合わせてD像信号を生成してもよい。さらに別の生成方法としては、左側6つの光電変換部102a,102b,102d,102e,102g,102hからの出力信号を加算して1つの加算信号とし、複数の焦点検出画素間で加算信号同士を繋ぎ合わせることでC像信号を生成してもよい。この場合、右側6つの光電変換部102b,102c,102e,102f,102h,102iからの出力信号を加算して1つの加算信号とし、複数の焦点検出画素間で加算信号同士を繋ぎ合わせることでD像信号を生成する。   As another generation method, for example, only the output signal from the photoelectric conversion unit 102 d is connected between a plurality of focus detection pixels to generate a C image signal, and only the output signal from the photoelectric conversion unit 102 f is connected to perform D An image signal may be generated. Further, as another generation method, the output signals from the six photoelectric conversion units 102a, 102b, 102d, 102e, 102g, and 102h on the left side are added to form one addition signal, and the addition signals are mutually added between a plurality of focus detection pixels. The C image signal may be generated by joining together. In this case, the output signals from the six photoelectric conversion units 102b, 102c, 102e, 102f, 102h, and 102i on the right side are added to form one addition signal, and the addition signals are joined together among a plurality of focus detection pixels. Generate an image signal.

なお、一対の位相差像信号のそれぞれの生成に用いる光電変換部の数は同じでなくてもよい。各撮像素子において像高が高い領域では、到達する光束にビネッティングが発生するため、ビネッティングを考慮して一対の位相差像信号の生成に用いる光電変換部を選択してもよい。一対の位相差像信号の生成に用いられる光電変換部間に受光量、すなわち出力信号の大きさに差がある場合でも、後述するシェーディング補正によって出力信号の大きさを同等にすることができるため、問題はない。   Note that the number of photoelectric conversion units used to generate each of the pair of phase difference image signals may not be the same. In the region where the image height is high in each imaging element, vignettes occur in the arriving light flux, so the photoelectric conversion unit used to generate the pair of phase difference image signals may be selected in consideration of vignette. Even if there is a difference in the amount of light received, that is, the magnitude of the output signal between the photoelectric conversion units used to generate the pair of phase difference image signals, the magnitude of the output signal can be made equal by shading correction described later ,No problem.

以下では、第1の撮像素子101から得られるA像およびB像信号と、第2の撮像素子102から得られるC像およびD像信号はともに、水平方向に位相差が発生するように構成されている場合について説明する。ただし、第2の撮像素子102は、垂直方向に位相差が発生するC像およびD像信号を生成することもできる。このため、本実施例では、第2の撮像素子102から、C像およびD像信号だけでなく、垂直方向に位相差が発生する一対の位相差像信号として、E像信号およびF像信号も生成する。E像およびF像信号の生成に用いられる光電変換部も、C像およびD像信号の生成に用いられる光電変換部と同様に様々に選択される。   In the following, both the A and B image signals obtained from the first imaging element 101 and the C and D image signals obtained from the second imaging element 102 are configured to generate a phase difference in the horizontal direction. Will be described. However, the second imaging element 102 can also generate C and D image signals in which a phase difference occurs in the vertical direction. Therefore, in this embodiment, not only the C and D image signals but also the E and F image signals from the second image sensor 102 as a pair of phase difference image signals in which a phase difference occurs in the vertical direction. Generate The photoelectric conversion units used to generate the E image and F image signals are also variously selected similarly to the photoelectric conversion units used to generate the C image and D image signals.

以上説明したように、第1の撮像素子101および第2の撮像素子102はいずれも、撮像センサとしての機能のみではなく、位相差検出方式用の焦点検出センサとしての機能も有する。すなわち、本実施例のカメラ本体100は、第1の撮像素子101または第2の撮像素子102を焦点検出センサとして用いて撮像面位相差AF(焦点検出および焦点調節制御)を行うことができる。   As described above, each of the first imaging device 101 and the second imaging device 102 has not only a function as an imaging sensor but also a function as a focus detection sensor for a phase difference detection method. That is, the camera body 100 of this embodiment can perform imaging surface phase difference AF (focus detection and focus adjustment control) using the first imaging device 101 or the second imaging device 102 as a focus detection sensor.

次に、図4を用いて、本実施例における焦点検出領域について説明する。第1の撮像素子101に対して、水平方向に瞳分割を行う複数の焦点検出画素を含む焦点検出領域が複数設定されている。また、第2の撮像素子102に対しては、水平方向および垂直方向のそれぞれに瞳分割を行う焦点検出領域が複数設定されている。   Next, the focus detection area in this embodiment will be described with reference to FIG. A plurality of focus detection areas including a plurality of focus detection pixels for performing pupil division in the horizontal direction are set to the first image sensor 101. Further, for the second imaging element 102, a plurality of focus detection areas in which pupil division is performed in each of the horizontal direction and the vertical direction are set.

図4中に点線で示される長方形は、第1および第2の撮像素子101,102のそれぞれの撮像面(全画素領域)のうち撮像に用いる撮像領域217を示す。なお、ここでは第1および第2の撮像素子101,102の撮像領域217の大きさを共通としているが、互いに異ならせてもよい。例えば、第1の撮像素子101で静止画撮像を行い、第2の撮像素子で動画撮像を行う場合には、第1および第2の撮像素子101,102の撮像領域アスペクト比を異ならせてもよい。このような場合には、撮像画像を表示する際に、各撮像素子の撮像領域を枠で明示する等してユーザに認識させることが好ましい。   A rectangle indicated by a dotted line in FIG. 4 indicates an imaging region 217 used for imaging in the imaging surfaces (all pixel regions) of the first and second imaging elements 101 and 102. Although the sizes of the imaging regions 217 of the first and second imaging elements 101 and 102 are the same here, they may be different from each other. For example, in the case where the first imaging device 101 performs still image imaging and the second imaging device performs moving image imaging, the imaging area aspect ratios of the first and second imaging devices 101 and 102 may be different. Good. In such a case, when displaying a captured image, it is preferable to make the user recognize the imaging region of each imaging element by clearly indicating by a frame.

第1の撮像素子101の撮像領域217内には、水平方向に瞳分割を行う3つの焦点検出領域218ah,218bh,218chがそれぞれ、撮像領域217の中央部と左右2箇所に設けられている。一方、第2の撮像素子102の撮像領域217内には、上記3つの焦点検出領域218ah,218bh,218chと垂直方向に瞳分割を行う3つの焦点検出領域218av,218bv,218cvとが撮像領域217の中央部と左右2箇所に設けられている。   In the imaging area 217 of the first imaging element 101, three focus detection areas 218ah, 218bh, and 218ch for performing pupil division in the horizontal direction are provided at the central part and two places on the left and right of the imaging area 217, respectively. On the other hand, in the imaging area 217 of the second imaging element 102, there are three focus detection areas 218av, 218bv, and 218cv that perform pupil division in the vertical direction with the three focus detection areas 218ah, 218bh, and 218ch. Provided at the central part of the

第1の撮像素子101のうち焦点検出領域218ah,218bh,218chに含まれる画素からの出力信号を用いてA像信号およびB像信号を得ることで、水平方向にコントラストを有する被写体に対する焦点検出を行うことができる。同様に、第2の撮像素子102のうち焦点検出領域218ah,218bh,218chに含まれる画素からの出力信号を用いてC像信号およびD像信号を得ることで、水平方向にコントラストを有する被写体に対する焦点検出を行うことができる。さらに、第2の撮像素子102のうち焦点検出領域218av,218bv,218cvからの出力信号を用いて、C像信号およびD像信号と同様にE像信号およびF像信号を得ることで、垂直方向にコントラストを有する被写体に対する焦点検出を行うことができる。以下の説明において、被写体がコントラストを有する方向を、コントラスト方向という。   By obtaining the A image signal and the B image signal using output signals from pixels included in the focus detection areas 218ah, 218bh, and 218ch of the first image sensor 101, focus detection for an object having contrast in the horizontal direction is performed. It can be carried out. Similarly, by obtaining C and D image signals using output signals from pixels included in the focus detection areas 218 ah, 218 b h and 218 ch of the second image sensor 102, a subject having a contrast in the horizontal direction can be obtained. Focus detection can be performed. Furthermore, by using the output signals from the focus detection areas 218av, 218bv, and 218cv of the second imaging element 102, the E image signal and the F image signal are obtained similarly to the C image signal and the D image signal, thereby the vertical direction It is possible to perform focus detection on an object having a contrast. In the following description, the direction in which the subject has contrast is referred to as the contrast direction.

また図4は、外部表示器110において焦点検出領域を表示するための表示枠219a,219b,219cを破線で示している。これら表示枠219a,219b,219cを焦点検出領域と概ね同じサイズにすることにより、撮像者が表示枠内に配置した被写体に対して適切に焦点検出を行うことができる。   Further, FIG. 4 shows the display frames 219a, 219b, 219c for displaying the focus detection area on the external display 110 by broken lines. By making the display frames 219a, 219b, 219c substantially the same size as the focus detection area, it is possible to appropriately perform focus detection on the subject arranged in the display frame by the photographer.

図5のフローチャートは、本実施例における撮像処理を示している。カメラCPU104は、コンピュータプログラムである撮像制御プログラムに従って本処理を実行する。以下の説明において、「S」はステップを意味する。   The flowchart of FIG. 5 shows an imaging process in the present embodiment. The camera CPU 104 executes this process in accordance with an imaging control program which is a computer program. In the following description, "S" means a step.

ユーザがカメラ本体100に設けられた電源スイッチをオン操作すると、カメラCPU104は、S101においてレンズCPU507と通信を行い、撮像レンズ500の開放Fナンバ、焦点距離、射出瞳距離PLおよびフォーカス敏感度等の情報を受信する。フォーカス敏感度は、フォーカスレンズ503の移動量に対する像面の移動量を示す。   When the user turns on the power switch provided in the camera body 100, the camera CPU 104 communicates with the lens CPU 507 in S101, and the open F number of the imaging lens 500, the focal length, the exit pupil distance PL, the focus sensitivity, etc. Receive information The focus sensitivity indicates the amount of movement of the image plane with respect to the amount of movement of the focus lens 503.

次にS102では、カメラCPU104は、ユーザにより現在設定されている撮像モードが静止画撮像と動画撮像とを同時に行う静止画・動画撮像モードか動画撮像のみを行う動画撮像モードかを判定する。カメラCPU104は、静止画・動画撮像モードである場合はS103に進み、動画撮像モードである場合はS104に進む。   Next, in S102, the camera CPU 104 determines whether the imaging mode currently set by the user is a still image / moving image imaging mode in which still image imaging and moving image imaging are simultaneously performed or a moving image imaging mode in which only moving image imaging is performed. If the camera CPU 104 is in the still image / moving image capturing mode, the process proceeds to step S103. If the camera CPU 104 is in the moving image capturing mode, the process proceeds to step S104.

S103では、カメラCPU104は、静止画撮像用の第1の撮像素子101を被写体情報取得モードで駆動し、動画撮像用の第2の撮像素子102はライブビューモードで駆動する。   In S103, the camera CPU 104 drives the first image sensor 101 for still image shooting in the subject information acquisition mode, and drives the second image sensor 102 for moving image shooting in the live view mode.

ここで、被写体情報取得モードとは、後述する被写体情報や焦点検出情報(デフォーカス量)を取得するためのモードである。このモードにおいて、焦点検出領域が複数であったり広かったりする場合には、第1の撮像素子101を上述した第2の読み出しモードで駆動する。一方、ユーザの指示や被写体検出機能等によって焦点検出を行う焦点検出領域が限定される場合には、第1の撮像素子101を第1の読み出しモードで駆動する。   Here, the subject information acquisition mode is a mode for acquiring subject information and focus detection information (defocus amount) to be described later. In this mode, when the focus detection area is plural or wide, the first imaging device 101 is driven in the second readout mode described above. On the other hand, when the focus detection area for performing focus detection is limited by the instruction of the user, the subject detection function, or the like, the first imaging device 101 is driven in the first readout mode.

また、ライブビューモードとは、外部表示器110に表示するライブビュー画像を生成するためのモードである。記録用画像の画素数に対して外部表示器110の画素数が水平および垂直方向とも少ないため、ライブビューモードでは第1の撮像素子101を第2の読み出しモードで駆動する。また、ライブビューモードで位相差像信号を取得して焦点検出を行うこともできる。この場合は、位相差像信号の分解能を高くするため、第1の読み出しモードで駆動することが好ましい。   The live view mode is a mode for generating a live view image to be displayed on the external display 110. Since the number of pixels of the external display 110 in the horizontal and vertical directions is smaller than the number of pixels of the recording image, in the live view mode, the first image sensor 101 is driven in the second readout mode. Also, focus detection can be performed by acquiring a phase difference image signal in the live view mode. In this case, it is preferable to drive in the first readout mode in order to increase the resolution of the phase difference image signal.

S104では、カメラCPU104は、動画撮像を行うために第2の撮像素子102を駆動する。この際、静止画撮像用の第1の撮像素子101を駆動しない。これは、動画撮像で得られる画像の解像度は第2の撮像素子102の画素ピッチによって制限されるため、第1の撮像素子101からより高周波の情報を得ても有効に活用できないためである。これにより消費電力の抑制が可能となる。ただし、静止画撮像用の第1の撮像素子101を動画撮像用の第2の撮像素子102よりもフレームレートを上げて駆動することにより、より多くの被写体情報を得るようにしてもよい。   In S104, the camera CPU 104 drives the second imaging element 102 to perform moving image capturing. At this time, the first imaging device 101 for capturing a still image is not driven. This is because the resolution of an image obtained by moving image capturing is limited by the pixel pitch of the second image sensor 102, and therefore, even if information of a higher frequency is obtained from the first image sensor 101, it can not be effectively used. This makes it possible to reduce power consumption. However, more subject information may be obtained by driving the first image pickup device 101 for still image pickup at a higher frame rate than the second image pickup device 102 for moving image pickup.

次にS105では、カメラCPU104は、第2の撮像素子102からの出力信号を表示用画像信号に変換し、外部表示器110またはファインダ内表示器107送信してライブビュー画像の表示を開始する。   Next, in S105, the camera CPU 104 converts the output signal from the second imaging element 102 into a display image signal, transmits it to the external display 110 or the in-finder display 107, and starts displaying a live view image.

次にS106では、カメラCPU104は、各撮像素子の駆動により得られる画像信号の明るさを判断し、ライブビュー画像表示時の絞り制御を行う。   Next, in step S106, the camera CPU 104 determines the brightness of the image signal obtained by driving each image sensor, and performs aperture control at the time of live view image display.

次にS107では、カメラCPU104は、AF処理を行う。本実施例では、第1および第2の撮像素子101,102を用いて焦点検出を行うとともに被写体情報を取得する。また、被写体情報を用いて焦点検出結果(デフォーカス量)を補正する。さらに、カメラCPU104は、補正後の焦点検出結果に基づいてフォーカスレンズ503を駆動し、合焦表示も行う。焦点検出から合焦表示までのAF処理の詳細については後述する。   Next, in step S107, the camera CPU 104 performs an AF process. In this embodiment, focus detection is performed using the first and second imaging elements 101 and 102, and subject information is acquired. Also, the focus detection result (defocus amount) is corrected using the subject information. Furthermore, the camera CPU 104 drives the focus lens 503 based on the corrected focus detection result, and performs in-focus display. Details of AF processing from focus detection to in-focus display will be described later.

次にS108では、カメラCPU104は、動画撮像トリガボタンがユーザによりオン操作されたか否かを判断する。オン操作されていた場合は、カメラCPU104はS109に進み、動画用の画像処理を行って動画の生成を開始する。これにより、生成された動画が記録される。この後、S110に進む。動画撮像トリガボタンがオン操作されていない場合は、カメラCPU104はS109をスキップしてS110に進む。   Next, in S108, the camera CPU 104 determines whether the moving image capturing trigger button has been turned on by the user. If the on-operation has been performed, the camera CPU 104 proceeds to S109, performs image processing for a moving image, and starts generating a moving image. Thereby, the generated moving image is recorded. After this, the process proceeds to S110. If the moving image capturing trigger button has not been turned on, the camera CPU 104 skips S109 and proceeds to S110.

S110では、カメラCPU104は、静止画撮像トリガボタンがユーザによりオン操作されたか否かを判断する。カメラCPU104は、動画用ライブビューもしくは動画記録時に静止画撮像トリガボタンがオン操作されることに応じて、第1の撮像素子101による静止画の記録を行う。静止画撮像トリガボタンがオン操作された場合は、カメラCPU104はS111に進む。静止画撮像トリガボタンがオン操作されていない場合は、カメラCPU104はS111をスキップしてS112に進む。   In S110, the camera CPU 104 determines whether the still image capturing trigger button has been turned on by the user. The camera CPU 104 records a still image by the first imaging element 101 in response to the still image capturing trigger button being turned on during moving image live view or moving image recording. When the still image capturing trigger button is turned on, the camera CPU 104 proceeds to S111. If the still image capturing trigger button has not been turned on, the camera CPU 104 skips S111 and proceeds to S112.

S111では、カメラCPU104は、静止画撮像を行う。この際、カメラCPU104は、静止画撮像用のFナンバ(絞り値)をレンズCPU507に送信する。レンズCPU507は、絞り駆動部506を通じて虹彩絞り505の絞り開口径を静止画撮像用のFナンバに対応する径に制御する。その後、カメラCPU104は、フォーカルプレンシャッタ111を開閉制御して第1の撮像素子101の露光を制御し、第1の撮像素子101から出力信号を読み出して記録用静止画を生成および記録する。ここで行う静止画撮像は、単写でも連写でもよいが、以下では連写が行われる場合について説明する。   At S111, the camera CPU 104 captures a still image. At this time, the camera CPU 104 transmits an F number (aperture value) for capturing a still image to the lens CPU 507. The lens CPU 507 controls the aperture opening diameter of the iris diaphragm 505 to a diameter corresponding to the F number for imaging a still image through the aperture driving unit 506. Thereafter, the camera CPU 104 controls the opening and closing of the focal plane shutter 111 to control the exposure of the first image sensor 101, reads an output signal from the first image sensor 101, and generates and records a still image for recording. The still image capturing performed here may be single shooting or continuous shooting, but the case where continuous shooting is performed will be described below.

次にS112では、カメラCPU104は、動画撮像トリガボタンがユーザによりオフ操作されたか否かを判断する。オフ操作されていない場合は、カメラCPU104はS105からS111の処理を繰り返して動画用のAF処理や動画撮像を継続するとともに、静止画撮像の割り込みも許可する。動画撮像トリガボタンがオフ操作された場合は、カメラCPU104は本処理を終了する。   Next, in step S112, the camera CPU 104 determines whether the moving image capturing trigger button has been turned off by the user. If the off-operation has not been performed, the camera CPU 104 repeats the processing of S105 to S111 to continue the AF processing for moving images and moving image capturing, and also permits the still image capturing interrupt. When the moving image capturing trigger button is turned off, the camera CPU 104 ends this processing.

本実施例では、静止画撮像用の第1の撮像素子101と動画撮像用の第2の撮像素子102から得た出力信号を用いて焦点検出や撮像を行う。これら焦点検出や撮像を指示するために、静止画撮像トリガボタンと動画撮像トリガボタンという異なる操作部材を用意している。これにより、静止画撮像と動画撮像の開始タイミングを独立して制御できるだけでなく、焦点検出についても、静止画用の焦点検出を高速に行い、動画用の焦点検出を低速(緩やか)に行う等の異なる制御を行うことができる。   In this embodiment, focus detection and imaging are performed using output signals obtained from the first imaging device 101 for capturing a still image and the second imaging device 102 for capturing a moving image. In order to instruct focus detection and imaging, different operation members such as a still image imaging trigger button and a moving image imaging trigger button are prepared. Thus, not only can control start timings of still image capture and moving image capture independently, but also for focus detection, focus detection for still images can be performed at high speed, and focus detection for moving images can be performed slowly (slowly) Different controls can be performed.

次に、図6のフローチャートを用いて焦点検出処理およびこれを含むAF処理(焦点調節制御方法)について説明する。カメラCPU104は、上記撮像制御プログラムの一部である焦点調節制御プログラムに従って本処理を実行する。   Next, focus detection processing and AF processing (focus adjustment control method) including the focus detection processing will be described using the flowchart of FIG. The camera CPU 104 executes this process according to a focusing control program which is a part of the imaging control program.

カメラCPU104は、S901において、図4に示した焦点検出領域219a〜219cからの実際に焦点検出を行う1または2以上の焦点検出領域を設定(選択)する。この設定は、ユーザの指示に応じて行ってもよいし、事前に行われた焦点検出の結果や顔認識等の被写体認識の結果等に基づいて行ってもよい。   In step S901, the camera CPU 104 sets (selects) one or more focus detection areas on which focus detection is actually performed from the focus detection areas 219a to 219c illustrated in FIG. This setting may be performed in accordance with a user's instruction, or may be performed based on the result of focus detection performed in advance, the result of object recognition such as face recognition, or the like.

次にS902では、カメラCPU104は、設定された焦点検出領域内の焦点検出画素から一対の位相差像信号を取得する。第1の撮像素子101からはA像およびB像信号を取得し、第2の撮像素子102からはC像およびD像信号と、E像およびF像信号を取得する。   Next, in step S902, the camera CPU 104 acquires a pair of phase difference image signals from focus detection pixels in the set focus detection area. The A and B image signals are acquired from the first imaging element 101, and the C and D image signals and the E and F image signals are acquired from the second imaging element 102.

次にS903では、カメラCPU104は、位相差像信号に対する補正処理とフィルタ処理を行う。補正処理としては、各撮像素子の信号出力特性に応じたオフセットやゲインを調整する処理を行う。また、撮像レンズ500のビネッティングの影響による一対の位相差像信号間の光量差を補正するシェーディング補正も行う。フィルタ処理としては、焦点検出に用いる評価帯域に合わせたデジタルフィルタ処理を行う。一般に、高周波数帯域を評価すると検出可能なデフォーカス領域が狭くなる。このため、複数の周波数帯域を評価するために、複数のフィルタ処理を行う。   Next, in step S903, the camera CPU 104 performs correction processing and filter processing on the phase difference image signal. As the correction process, a process of adjusting the offset and the gain according to the signal output characteristics of each image sensor is performed. In addition, shading correction is also performed to correct the light amount difference between the pair of phase difference image signals due to the influence of the vignette of the imaging lens 500. As filter processing, digital filter processing is performed in accordance with an evaluation band used for focus detection. Generally, evaluation of a high frequency band narrows the detectable defocus region. Therefore, in order to evaluate a plurality of frequency bands, a plurality of filtering processes are performed.

第1の撮像素子101から得られるA像およびB像信号は、第1の撮像素子101の画素ピッチが第2の撮像素子102よりも細かいため、より高周波数帯域での評価が可能である。このため、A像およびB像信号には高周波数帯域と中周波数帯域に対応するフィルタ処理を行う。また、第2の撮像素子102から得られるC像およびD像信号とE像およびF像信号には、低周波数帯域と超低周波数帯域のフィルタ処理を行う。   The A and B image signals obtained from the first imaging device 101 can be evaluated in a higher frequency band because the pixel pitch of the first imaging device 101 is finer than that of the second imaging device 102. Therefore, the filter processing corresponding to the high frequency band and the middle frequency band is performed on the A image and the B image signal. The C and D image signals and the E and F image signals obtained from the second imaging element 102 are subjected to filter processing in the low frequency band and the ultra low frequency band.

次にS904では、カメラCPU104は、一対の位相差像信号(A像およびB像信号、C像およびD像信号、E像およびF像信号)に対する相関演算を行って該一対の位相差像信号間の位相差を算出し、さらに該位相差からデフォーカス量を算出する。   Next, in step S904, the camera CPU 104 performs a correlation operation on the pair of phase difference image signals (A and B image signals, C and D image signals, E and F image signals) to calculate the pair of phase difference image signals. The phase difference between them is calculated, and the defocus amount is further calculated from the phase difference.

相関演算は、例えば以下の式(1)に示す相関量COR(h)を用いる。   The correlation operation uses, for example, a correlation amount COR (h) shown in the following equation (1).

式(1)においては、一対の位相差像信号をS1(k)とS2(k)(1≦k≦P)で表している。NW1は焦点検出領域の広さを示す視野内データ数である。hmaxは一対の位相差像信号S1(k),S2(k)の位置関係をずらしながら(つまりはシフト量hを変えながら)相関量を評価する際の最大ずらし量を示すシフトデータ数である。各シフト量hでの相関量COR(h)を求めた後、相関量CORが最小となる(すなわち一対の位相差像信号の相関が最大となる)シフト量dhを求める。このシフト量dhが位相差に相当する。 In the equation (1), a pair of phase difference image signals are represented by S1 (k) and S2 (k) (1 ≦ k ≦ P). NW1 is the number of in-field data indicating the size of the focus detection area. hmax is a shift data number indicating the maximum shift amount when evaluating the correlation amount while shifting the positional relationship between the pair of phase difference image signals S1 (k) and S2 (k) (that is, changing the shift amount h) . After the correlation amount COR (h) for each shift amount h is determined, the shift amount dh for which the correlation amount COR is minimized (that is, the correlation of the pair of phase difference image signals is maximized) is determined. The shift amount dh corresponds to the phase difference.

カメラCPU104は、このようにして求めた位相差としてのシフト量dhに、フォーカスレンズ503の単位移動量に対する像面移動量を示すフォーカス敏感度を乗じる等してデフォーカス量(焦点検出結果)を算出する。こうして、カメラCPU104は、A像およびB像信号から第1のデフォーカス量(第1の焦点検出結果)を取得し、C像およびD像信号から第2のデフォーカス量(第2の焦点検出結果)を取得する。さらに、E像およびF像信号から第3のデフォーカス量(第3の焦点検出結果)を取得する。   The camera CPU 104 multiplies the shift amount dh as the phase difference thus calculated by the focus sensitivity indicating the image plane movement amount with respect to the unit movement amount of the focus lens 503, etc. calculate. Thus, the camera CPU 104 obtains the first defocus amount (first focus detection result) from the A and B image signals, and the second defocus amount (second focus detection from the C and D image signals. Get the result). Further, a third defocus amount (third focus detection result) is acquired from the E image and the F image signal.

次にS905では、カメラCPU104は第1および第2の撮像素子102のそれぞれから得られた出力信号から被写体情報を抽出(取得)する。被写体情報とは、被写体の空間周波数特性、分光分布(色)、コントラスト方向等に関する情報である。被写体情報の抽出処理の詳細については後述する。被写体情報の抽出を終えると、カメラCPU104は、S906にて被写体情報に対応した焦点調節補正量としてのベストピント(BP)補正量を算出する。   Next, in step S905, the camera CPU 104 extracts (acquires) subject information from output signals obtained from the first and second imaging elements 102, respectively. The subject information is information on spatial frequency characteristics of the subject, spectral distribution (color), contrast direction, and the like. Details of the subject information extraction process will be described later. After extracting the subject information, the camera CPU 104 calculates a best focus (BP) correction amount as a focus adjustment correction amount corresponding to the subject information in S906.

そしてS907では、カメラCPU104は、S904で算出した第1〜第3のデフォーカス量に対してS905で算出したBP補正量を適用する補正を行う。BP補正量の算出方法の詳細については後述する。   In step S 907, the camera CPU 104 performs correction to apply the BP correction amount calculated in step S 905 to the first to third defocus amounts calculated in step S 904. Details of the method of calculating the BP correction amount will be described later.

次にS908では、S907で得られた補正後の第1〜第3のデフォーカス量から信頼性の高いデフォーカス量を選択する。例えば、被写体情報として高周波成分が多い場合には、第1の撮像素子101から得られた第1のデフォーカス量を選択する。また、コントラスト方向として垂直方向の成分が多い場合には、第2の撮像素子102から得られた第3のデフォーカス量を選択する。また、デフォーカス量が大きい場合には評価帯域が低周波数帯域である方が信頼性が高いため、第1〜第3のデフォーカス量からどれを選択するかを決定する。   Next, in S908, a highly reliable defocus amount is selected from the corrected first to third defocus amounts obtained in S907. For example, when there are many high frequency components as subject information, the first defocus amount obtained from the first image sensor 101 is selected. When there are many components in the vertical direction as the contrast direction, the third defocus amount obtained from the second image sensor 102 is selected. Further, when the defocus amount is large, the reliability is higher if the evaluation band is the low frequency band, so it is determined which of the first to third defocus amounts is to be selected.

次にS909では、カメラCPU104は、選択したデフォーカス量に基づいてフォーカスレンズ503および第2の撮像素子102を移動させる(駆動する)。本実施例では、フォーカスレンズ503の移動によるフォーカシングに加えて、第2の撮像素子102の移動によってもフォーカシングが可能である。これは、上述したBP補正値や、第1および第2の撮像素子101,102の位置がそれらの組付け誤差により光学的に共役ではないこと等に対応するものである。   Next, in step S909, the camera CPU 104 moves (drives) the focus lens 503 and the second imaging element 102 based on the selected defocus amount. In this embodiment, in addition to focusing by the movement of the focus lens 503, focusing is also possible by the movement of the second image sensor 102. This corresponds to the above-described BP correction value and the fact that the positions of the first and second imaging elements 101 and 102 are not optically conjugate due to their assembly errors.

カメラCPU104は、第1の撮像素子101から得られた第1のデフォーカス量に基づいてフォーカスレンズ503を移動させる。さらに、フォーカスレンズ503の移動によるフォーカシングの過不足を第2の撮像素子102から得られた第2または第3のデフォーカス量に基づく第2の撮像素子102の移動で補う。カメラCPU104は、第2の撮像素子102の移動量を、撮像光学系の収差情報および後述する撮像画像評価帯域(第1の撮像特性情報および第2の撮像特性情報)のうち少なくとも1つの変更に応じて変更する。   The camera CPU 104 moves the focus lens 503 based on the first defocus amount obtained from the first image sensor 101. Furthermore, the excess or deficiency of focusing due to the movement of the focus lens 503 is compensated by the movement of the second imaging element 102 based on the second or third defocus amount obtained from the second imaging element 102. The camera CPU 104 changes the amount of movement of the second imaging element 102 by changing at least one of aberration information of the imaging optical system and a captured image evaluation band (first imaging characteristic information and second imaging characteristic information) described later. Change accordingly.

第2の撮像素子102の移動量を、第1の撮像素子101から得られた第1のデフォーカス量と、第1および第2の撮像素子101,102の組み付け誤差量やBP補正量の差分値から決定してもよい。フォーカスレンズ503の移動量を第2のデフォーカス量を用いて決定してもよい。   The amount of movement of the second image sensor 102 is the difference between the first defocus amount obtained from the first image sensor 101 and the amount of assembly error of the first and second image sensors 101 and 102 and the amount of BP correction. It may be determined from the value. The movement amount of the focus lens 503 may be determined using the second defocus amount.

こうして合焦状態が得られると、カメラCPU104は、S910においてファインダ内表示器107や外部表示器110に合焦状態が得られたことをユーザに知らせるための表示を行う。そして、本処理を終了する。   In this way, when the in-focus state is obtained, the camera CPU 104 performs a display for informing the user that the in-focus state has been obtained on the in-finder display 107 or the external display 110 in S910. Then, the process ends.

次に、図7から図9を用いて、図6のS905における被写体情報の抽出方法について説明する。図7のフローチャートは被写体情報抽出処理を示す。   Next, a method of extracting subject information in S905 of FIG. 6 will be described using FIGS. 7 to 9. The flowchart of FIG. 7 shows subject information extraction processing.

まずS9051において、カメラCPU104は、第1の撮像素子101から得られた撮像信号(第1の撮像信号)を用いて被写体情報を抽出する。ここにいう撮像信号は、設定された焦点検出領域に含まれる画素が撮像光学系の射出瞳全域を通過した光束を光電変換することにより得られる信号である。言い換えれば、第1の撮像素子101の各画素の光電変換部101a,101bからの出力信号を加算して得られる信号である。   First, in step S <b> 9051, the camera CPU 104 extracts subject information using the imaging signal (first imaging signal) obtained from the first imaging element 101. The imaging signal referred to here is a signal obtained by photoelectrically converting a light flux in which a pixel included in the set focus detection area has passed the entire exit pupil of the imaging optical system. In other words, it is a signal obtained by adding the output signals from the photoelectric conversion units 101 a and 101 b of each pixel of the first image sensor 101.

カメラCPU104は、ベイヤー配列に対応するモザイク撮像信号をR、GおよびBの色信号に分離し、それぞれの色信号について水平方向および垂直方向での空間周波数特性を算出する。水平方向および垂直方向での空間周波数特性を得る方法として、2次元FFTを用いてもよい。また、互いに周波数帯域が異なる複数のデジタルフィルタ処理を垂直方向に行って得られた撮像信号の信号量(パワー)と該デジタルフィルタ処理を水平方向に行って得られた撮像信号の信号量とを得てもよい。これにより、焦点検出を行う被写体の色味、周波数成分およびコントラスト方向を得ることができる。   The camera CPU 104 separates mosaic imaging signals corresponding to the Bayer arrangement into R, G and B color signals, and calculates spatial frequency characteristics in the horizontal direction and vertical direction for each color signal. As a method of obtaining spatial frequency characteristics in the horizontal direction and the vertical direction, a two-dimensional FFT may be used. Further, the signal amount (power) of an imaging signal obtained by performing a plurality of digital filter processing in different frequency bands in the vertical direction and the signal amount of an imaging signal obtained by performing the digital filter processing in the horizontal direction You may get it. As a result, it is possible to obtain the color tone, frequency component and contrast direction of the subject for which focus detection is to be performed.

第1の撮像素子101では、焦点検出を行う際の瞳分割方向が水平方向のみであるため、第1の撮像素子101のみを用いた焦点検出や撮像を行う場合には、垂直方向の被写体情報の抽出を省略してもよい。   In the first image sensor 101, since the pupil division direction at the time of focus detection is only the horizontal direction, when focus detection and imaging are performed using only the first image sensor 101, object information in the vertical direction The extraction of may be omitted.

次にS9052では、カメラCPU104は、S9051と同様に、第2の撮像素子102から得られた撮像信号(第2の撮像信号)を用いて被写体情報を抽出する。ここにいう撮像信号は、第2の撮像素子102の各画素の光電変換部102a〜102iからの出力信号を加算して得られる信号である。   Next, in step S9052, the camera CPU 104 extracts subject information using the imaging signal (second imaging signal) obtained from the second imaging element 102, as in step S9051. The imaging signal here is a signal obtained by adding the output signals from the photoelectric conversion units 102 a to 102 i of each pixel of the second imaging element 102.

図8は、第1の撮像素子101と第2の撮像素子102で得られる被写体情報の特性を示している。第1の撮像素子101は、第2の撮像素子102に比べて画素ピッチが小さいため、必要に応じて上述した被写体情報取得モードで駆動することにより、空間周波数帯域に関して高周波数域から低周波数帯域までの幅広い周波数帯域で被写体情報を得ることができる。また、第1の撮像素子101の用途を被写体情報の取得に特化することにより、電荷蓄積時間を短く設定することも可能であり、手振れや被写体振れの影響による撮像信号の高周波成分の損失を抑えて被写体情報を取得することができる。また、コントラスト方向に関しては、上述した方法により、水平方向および垂直方向ともに取得することが可能である。   FIG. 8 shows the characteristics of subject information obtained by the first image sensor 101 and the second image sensor 102. Since the first imaging device 101 has a smaller pixel pitch than the second imaging device 102, by driving in the above-described subject information acquisition mode as necessary, the high frequency range to the low frequency range with respect to the spatial frequency range Subject information can be obtained in a wide frequency band up to In addition, it is possible to set the charge accumulation time short by specializing the use of the first imaging element 101 for acquiring subject information, and the loss of high frequency components of the imaging signal due to the influence of camera shake or subject shake. It is possible to suppress and obtain subject information. Further, with regard to the contrast direction, both horizontal and vertical directions can be acquired by the above-described method.

ただし、撮像信号に対する補正処理やデジタルフィルタ処理を位相差像信号と共通とする場合には、焦点検出には用いない低周波数帯域信号の算出や垂直方向のフィルタ処理が別途必要となる。図8中の第1の撮像素子101について「要演算」と記載された項目については、第2の撮像素子102についての計算結果を代用する。また、被写体情報の抽出に際して各種処理が行われた一対の位相差像信号の和の信号を用いて行うことにより、演算量を低減することができる。   However, in the case where correction processing for an imaging signal and digital filter processing are common to the phase difference image signal, calculation of a low frequency band signal not used for focus detection and filter processing in the vertical direction are additionally required. For the items described as “operation required” for the first imaging device 101 in FIG. 8, the calculation result for the second imaging device 102 is substituted. In addition, the amount of computation can be reduced by using the signal of the sum of a pair of phase difference image signals subjected to various types of processing when extracting subject information.

一方、第2の撮像素子102は、第1の撮像素子101に比べて画素ピッチが大きいため、高周波数帯域の信号を得ることは不可能である。しかし、焦点検出用に処理された信号を用いて、低周波数帯域および超低周波数帯域の被写体情報を、演算量を増やすことなく得ることができる。コントラスト方向に関しても、垂直方向の位相差像信号を得ているため、演算量を増やすことなく垂直方向の被写体情報を得ることができる。   On the other hand, since the second imaging element 102 has a pixel pitch larger than that of the first imaging element 101, it is impossible to obtain a signal in a high frequency band. However, by using the signal processed for focus detection, it is possible to obtain subject information in the low frequency band and the very low frequency band without increasing the amount of calculation. Also in the contrast direction, since the phase difference image signal in the vertical direction is obtained, it is possible to obtain subject information in the vertical direction without increasing the amount of calculation.

このように、本実施例では、第1および第2の撮像素子101,102のそれぞれの特性に応じてそれら撮像素子から取得する被写体情報を分ける。これにより、演算量を増やすことなく、必要十分な被写体情報を取得することができる。   As described above, in the present embodiment, subject information acquired from the imaging elements is divided according to the characteristics of the first and second imaging elements 101 and 102. Thereby, necessary and sufficient subject information can be acquired without increasing the amount of calculation.

次にS9053では、カメラCPU104は、第1および第2の撮像素子101,102から得られた被写体情報を統合する。これにより、色の数3、コントラスト方向の数2および周波数帯域の数4を乗じた24のカテゴリーの被写体情報量の大小関係を得ることができる。   Next, in step S9053, the camera CPU 104 integrates subject information obtained from the first and second imaging elements 101 and 102. As a result, it is possible to obtain the magnitude relationship of the object information amount of 24 categories multiplied by the number 3 of colors, the number 2 in the contrast direction, and the number 4 of the frequency bands.

なお、第1および第2の撮像素子101,102から同じ被写体情報、例えば、水平方向における中周波数帯域の信号を得ることにより、それぞれから得られた信号間で校正を行うことができる。   Note that by obtaining the same subject information, for example, a signal in the middle frequency band in the horizontal direction, from the first and second imaging elements 101 and 102, calibration can be performed between the signals obtained from each.

次にS9054では、カメラCPU104は、焦点検出に用いられる位相差像信号に対する評価を行う周波数帯域(以下、AF評価帯域という)を算出する。カメラCPU104は、被写体情報、撮像光学系の光学特性、撮像素子のサンプリング周波数および評価に用いるデジタルフィルタの影響を考慮してAF評価帯域を算出する。具体的AF評価帯域の算出方法については後述する。   Next, in step S9054, the camera CPU 104 calculates a frequency band (hereinafter referred to as an AF evaluation band) on which the phase difference image signal used for focus detection is to be evaluated. The camera CPU 104 calculates the AF evaluation band in consideration of subject information, the optical characteristics of the imaging optical system, the sampling frequency of the imaging device, and the digital filter used for evaluation. The specific AF evaluation band calculation method will be described later.

また、カメラCPU104は、記録用画像(撮像画像)の生成に用いられる撮像信号の評価帯域(以下、撮像画像評価帯域という)を算出する。カメラCPU104は、被写体情報、撮像光学系の光学特性、撮像素子のサンプリング周波数および撮像画像を干渉する鑑賞者の評価帯域の影響を考慮して撮像画像評価帯域を算出する。   Further, the camera CPU 104 calculates an evaluation band (hereinafter referred to as a pickup image evaluation band) of an imaging signal used for generating a recording image (pickup image). The camera CPU 104 calculates a captured image evaluation band in consideration of subject information, optical characteristics of an imaging optical system, a sampling frequency of an imaging element, and an evaluation band of a viewer who interferes with a captured image.

図9(a)〜(c)および図10(a)〜(c)を用いてAF評価帯域および撮像画像評価帯域の算出について説明する。カメラCPU104は、AF評価帯域を一対の位相差像信号ごとに算出し、撮像画像評価帯域を撮像素子ごとに算出する。AF評価帯域は、焦点検出信号の特性に関する焦点検出特性情報に相当し、焦点検出信号の評価周波数帯域、コントラスト方向および色のうち少なくとも1つに応じて異なる情報である。また、第1の撮像素子101に対して算出される撮像画像評価帯域が第1の撮像特性情報に相当し、第2の撮像素子102に対して算出される撮像画像評価帯域が第2の撮像特性情報に相当する。各撮像画像評価帯域は、各撮像信号の特性に関する情報である。各撮像画像評価帯域は、各撮像素子の画素ピッチ、画素ごとに設けられた光電変換部の数、各画素における瞳分割方向およびビームスプリッタ103の各撮像素子に対する分光特性(後述する分光透過率および分光反射率)等に応じて異なる情報である。   Calculation of the AF evaluation band and the captured image evaluation band will be described using FIGS. 9A to 9C and FIGS. 10A to 10C. The camera CPU 104 calculates an AF evaluation band for each pair of phase difference image signals, and calculates a captured image evaluation band for each imaging element. The AF evaluation band corresponds to focus detection characteristic information related to the characteristics of the focus detection signal, and is information different according to at least one of the evaluation frequency band of the focus detection signal, the contrast direction, and the color. In addition, the captured image evaluation band calculated for the first imaging element 101 corresponds to the first imaging characteristic information, and the captured image evaluation band calculated for the second imaging element 102 is the second imaging. It corresponds to the characteristic information. Each captured image evaluation band is information on the characteristics of each captured signal. Each captured image evaluation band includes the pixel pitch of each imaging element, the number of photoelectric conversion units provided for each pixel, the pupil division direction in each pixel, and the spectral characteristics for each imaging element of the beam splitter 103 (spectral transmittance and This is different information according to the spectral reflectance).

図9(a)〜(c)および図10(a)〜(c)はいずれも空間周波数ごとの信号の強度を示し、横軸に空間周波数を、縦軸に強度を示す。   9 (a) to (c) and 10 (a) to (c) all show the intensity of the signal for each spatial frequency, the horizontal axis shows the spatial frequency, and the vertical axis shows the intensity.

図9(a)は、被写体の空間周波数特性Iを示している。横軸上のF1,F2,F3およびF4は評価する空間周波数を示し、F1からF4に向かって高周波数となる。S9053で得られた被写体情報における高周波数帯域はF4に、中周波数帯域はF3に、低周波数帯域はF2に、超低周波数帯域はF1にそれぞれ相当する。   FIG. 9A shows the spatial frequency characteristic I of the subject. F1, F2, F3 and F4 on the horizontal axis indicate spatial frequencies to be evaluated, and become higher from F1 to F4. The high frequency band in the subject information obtained in S9053 corresponds to F4, the middle frequency band to F3, the low frequency band to F2, and the very low frequency band to F1.

被写体情報は、R,G,Bの色ごとおよびコントラスト方向ごとに存在するが、ここでは、水平方向におけるGの被写体情報のみを示している。また、Nqは第1の撮像素子101の画素ピッチに応じて決定されるナイキスト周波数である。空間周波数F1〜F4およびナイキスト周波数Nqについては、後述の図9(b),(c)および図10(a)〜(c)にも同様に示されている。   The subject information exists for each of the R, G, and B colors and for each contrast direction, but here, only the G subject information in the horizontal direction is shown. Further, Nq is a Nyquist frequency determined according to the pixel pitch of the first imaging device 101. The spatial frequencies F1 to F4 and the Nyquist frequency Nq are similarly shown in FIGS. 9 (b) and 9 (c) and 10 (a) to 10 (c) described later.

被写体の空間周波数特性Iは、S9053で得た被写体情報を用いる。図9(a)では被写体の空間周波数特性Iが曲線で描かれているが、実際には離散的に空間周波数F1,F2,F3およびF4に対応した値を有し、それをI(n)(1≦n≦4)と表す。   The spatial frequency characteristic I of the subject uses the subject information obtained in S9053. In FIG. 9 (a), the spatial frequency characteristic I of the object is drawn as a curve, but in practice it has discrete values corresponding to the spatial frequencies F1, F2, F3 and F4, and I (n) It is expressed as (1 ≦ n ≦ 4).

図9(b)は、撮像光学系の合焦状態での空間周波数特性Oを示す。この空間周波数特性Oの情報はレンズCPU507から取得してもよいし、カメラCPU104内のRAM等のメモリ(以下、カメラメモリという)に記憶しておいてもよい。図9(b)では撮像光学系の空間周波数特性Oは曲線で描かれているが、実際には離散的に空間周波数F1,F2,F3およびF4に対応した値を有し、それをO(n)(1≦n≦4)と表す。   FIG. 9B shows the spatial frequency characteristic O in the in-focus state of the imaging optical system. The information of the space frequency characteristic O may be acquired from the lens CPU 507 or may be stored in a memory such as a RAM in the camera CPU 104 (hereinafter referred to as a camera memory). In FIG. 9B, the spatial frequency characteristic O of the imaging optical system is drawn as a curve, but in practice it has discrete values corresponding to the spatial frequencies F1, F2, F3 and F4, and n) (1 <n <4).

図9(c)は、光学ローパスフィルタの空間周波数特性Lを示す。この空間周波数特性Lの情報は、カメラメモリに記憶されている。図9(c)では光学ローパスフィルタの空間周波数特性Lは曲線で描かれているが、実際には離散的に空間周波数F1,F2,F3,F4に対応した値を有し、それをL(n)(1≦n≦4)と表す。本実施例において、第1および第2の撮像素子101,102間で異なる光学ローパスフィルタを用いる場合には、それら光学ローパスフィルタの空間周波数特性を別々に記憶しておくことが望ましい。   FIG. 9C shows the spatial frequency characteristic L of the optical low pass filter. The information of the spatial frequency characteristic L is stored in the camera memory. In FIG. 9C, the spatial frequency characteristic L of the optical low pass filter is drawn as a curve, but in practice it has discrete values corresponding to the spatial frequencies F1, F2, F3 and F4, and n) (1 <n <4). In the present embodiment, when different optical low pass filters are used between the first and second imaging elements 101 and 102, it is desirable to separately store the spatial frequency characteristics of the optical low pass filters.

図10(a)は、信号生成に関する空間周波数特性M1,M2を示す。前述したように、第1および第2の撮像素子101,102から出力信号を読み出して位相差像信号としての焦点検出信号や撮像信号を生成する際の読み出しモードには、第1の読み出しモードと第2の読み出しモードがある。全画素読み出しモードである第1の読み出しモードで信号生成を行う場合には空間周波数特性は変化しない。図10(a)中の空間周波数特性M1は、第1の読み出しモードで信号生成を行う場合の空間周波数特性である。   FIG. 10A shows spatial frequency characteristics M1 and M2 related to signal generation. As described above, the readout mode for reading out the output signals from the first and second imaging elements 101 and 102 and generating the focus detection signal or the imaging signal as the phase difference image signal includes the first readout mode and the first readout mode. There is a second read mode. When signal generation is performed in the first readout mode which is the all-pixel readout mode, the spatial frequency characteristic does not change. A spatial frequency characteristic M1 in FIG. 10A is a spatial frequency characteristic when signal generation is performed in the first readout mode.

一方、間引き読み出しモードである第2の読み出しモードで信号生成を行う場合には、空間周波数特性が変化する。具体的には、X方向での間引きの際に信号加算を行ってS/Nの改善を図るため、この信号加算によるローパス効果が発生する。図10(a)中の空間周波数特性M2は、第2の読み出しモードで信号生成を行う場合の空間周波数特性である。空間周波数特性M2は、間引きの影響は加味せず、信号加算によるローパス効果を示す。   On the other hand, when signal generation is performed in the second readout mode which is the thinning readout mode, the spatial frequency characteristic changes. Specifically, in order to improve the S / N by performing signal addition at the time of thinning in the X direction, a low pass effect is generated by the signal addition. A spatial frequency characteristic M2 in FIG. 10A is a spatial frequency characteristic when signal generation is performed in the second readout mode. The spatial frequency characteristic M2 does not take into account the effect of thinning, and exhibits a low pass effect by signal addition.

図10(a)において、信号生成に関する空間周波数特性M1,M2は曲線で描かれているが、実際には離散的に空間周波数F1,F2,F3およびF4に対応した値を有し、それをM1(n),M2(n)(1≦n≦4)と表す。   In FIG. 10A, the spatial frequency characteristics M1 and M2 related to signal generation are drawn by curves, but in practice they have discrete values corresponding to the spatial frequencies F1, F2, F3 and F4, and It is expressed as M1 (n), M2 (n) (1 ≦ n ≦ 4).

図10(b)は、撮像画像を鑑賞する際の空間周波数ごとの感度を示す空間周波数特性D1とAF評価信号の処理時に用いるデジタルフィルタの空間周波数特性D2を示している。撮像画像を鑑賞する際の空間周波数ごとの感度は、鑑賞者の個人差、画像サイズ、鑑賞距離、明るさ等の鑑賞環境により影響を受ける。本実施例では、代表的な値として、鑑賞時の空間周波数ごとの感度を設定してカメラメモリに記憶している。鑑賞距離は、ユーザから撮像画像が表示されるディスプレイデバイスまたは撮像画像が印刷されたシートまでの距離を意味する。   FIG. 10B shows a spatial frequency characteristic D1 indicating sensitivity for each spatial frequency when viewing a captured image, and a spatial frequency characteristic D2 of a digital filter used when processing an AF evaluation signal. The sensitivity for each spatial frequency when viewing a captured image is affected by the viewer's individual differences, the image size, the viewing distance, the brightness, and other viewing environments. In this embodiment, as a representative value, the sensitivity for each spatial frequency at the time of viewing is set and stored in the camera memory. The viewing distance means the distance from the user to the display device on which the captured image is displayed or the sheet on which the captured image is printed.

一方、第2の読み出しモードを用いる際には、間引きの影響によって信号の周波数成分の折り返しノイズが発生する。空間周波数特性D2は、その影響を加味したデジタルフィルタの空間周波数特性である。図10(b)において、空間周波数特性D1,D2は曲線で描かれているが、実際には離散的に空間周波数F1,F2,F3およびF4に対応した値を有し、それをD1(n),D2(n)(1≦n≦4)と表す。   On the other hand, when using the second read mode, aliasing noise of the frequency component of the signal is generated due to the influence of thinning. The spatial frequency characteristic D2 is a spatial frequency characteristic of the digital filter in which the influence is taken into consideration. In FIG. 10 (b), the spatial frequency characteristics D1 and D2 are drawn as curves, but in practice they have discrete values corresponding to the spatial frequencies F1, F2, F3 and F4, which are represented by D1 (n And D 2 (n) (1 ≦ n ≦ 4).

以上のように種々の空間周波数特性を予め記憶しておくことにより、撮像特性情報である撮像画像評価帯域W1および焦点検出特性情報であるAF評価帯域W2を、以下の式(2),(3)を用いて算出する。式(2),(3)において、nは1≦n≦4である。   As described above, by storing various spatial frequency characteristics in advance, the captured image evaluation band W1 which is imaging characteristic information and the AF evaluation band W2 which is focus detection characteristic information can be expressed by the following formulas (2), (3) Calculated using). In the formulas (2) and (3), n is 1 ≦ n ≦ 4.

W1(n)=I(n)×O(n)×L(n)×M1(n)×D1(n) (2)
W2(n)=I(n)×O(n)×L(n)×M2(n)×D2(n) (3)
図10(c)は、撮像画像評価帯域W1およびAF評価帯域W2を示している。式(2),(3)で表される計算を行うことにより、撮像画像の合焦状態を決定する因子に対して、空間周波数ごとに、どの程度の影響度合いを有するかを定量化することができる。同様に、焦点検出結果としてのデフォーカス量が有する誤差が、空間周波数ごとに、どの程度の影響度合いを有するかを定量化することができる。本実施例では、撮像画像評価帯域W1およびAF評価帯域W2を、R,G,Bの色ごとおよびコントラスト方向としての水平方向と垂直方向に対応した6つずつ算出する。
W1 (n) = I (n) × O (n) × L (n) × M1 (n) × D1 (n) (2)
W2 (n) = I (n) × O (n) × L (n) × M2 (n) × D2 (n) (3)
FIG. 10C shows the captured image evaluation band W1 and the AF evaluation band W2. Quantify the degree of influence for each spatial frequency with respect to the factor that determines the in-focus state of the captured image by performing the calculations represented by the equations (2) and (3) Can. Similarly, it is possible to quantify how much the error of the defocus amount as the focus detection result has for each spatial frequency. In this embodiment, six captured image evaluation bands W1 and AF evaluation bands W2 are calculated for each of R, G, and B colors and in the horizontal and vertical directions as contrast directions.

図10(a)〜(c)では、第1の撮像素子101のナイキスト周波数Nqに対して、各周波数特性を説明したが、第2の撮像素子102の周波数特性も同様に算出する。例えば、信号生成に関する空間周波数特性は、画素ピッチの違いに合わせて、第1の撮像素子102用の特性に対して変更する。また、撮像画像を鑑賞する際の空間周波数ごとの感度を示す空間周波数特性やAF評価信号の処理時に用いるデジタルフィルタの空間周波数特性についても、第1の撮像素子101に対する第2の撮像素子102のナイキスト周波数の比に応じた修正を行う。これにより、第1の撮像素子101および第2の撮像素子102とで、図10(c)に示す撮像画像評価帯域W1およびAF評価帯域W2として異なる結果が得られる。   Although each frequency characteristic was explained to Nyquist frequency Nq of the 1st image sensor 101 in Drawing 10 (a)-(c), the frequency characteristic of the 2nd image sensor 102 is computed similarly. For example, the spatial frequency characteristics relating to signal generation are changed with respect to the characteristics for the first imaging device 102 in accordance with the difference in pixel pitch. In addition, spatial frequency characteristics indicating sensitivity for each spatial frequency when viewing a captured image and spatial frequency characteristics of a digital filter used when processing an AF evaluation signal, the second image sensor 102 for the first image sensor 101 Make corrections according to the ratio of the Nyquist frequency. As a result, different results as the captured image evaluation band W1 and the AF evaluation band W2 shown in FIG. 10C can be obtained for the first imaging element 101 and the second imaging element 102.

図9(a)〜(c)および 図10(a)〜(c)では4つ空間周波数F1〜F4を用いて説明したが、データを有する空間周波数の数は、多いほど撮像画像評価帯域W1およびAF評価帯域W2の空間周波数特性を正確に再現することができる。このため、より高精度な補正値を算出することができる。   Although FIG. 9A to FIG. 9C and FIG. 10A to FIG. 10C have been described using four spatial frequencies F1 to F4, the larger the number of spatial frequencies having data, the larger the captured image evaluation band W1. And the spatial frequency characteristics of the AF evaluation band W2 can be accurately reproduced. Therefore, the correction value can be calculated with higher accuracy.

S9054での撮像画像評価帯域W1およびAF評価帯域W2の算出を終えたカメラCPU104は、本処理を終了する。   The camera CPU 104 that has finished calculating the captured image evaluation band W1 and the AF evaluation band W2 in S9054 ends the present processing.

次に、図11から図14を用いて、図6のS906でのBP補正量の算出方法について説明する。図11のフローチャートは、BP量算出処理を示す。S9061において、カメラCPU104は、図5のS106で行われた絞り制御において設定されたFナンバを取得する。   Next, a method of calculating the BP correction amount in S906 of FIG. 6 will be described using FIGS. 11 to 14. The flowchart of FIG. 11 shows the BP amount calculation process. In step S9061, the camera CPU 104 acquires the F number set in the aperture control performed in step S106 of FIG.

次にS9062では、カメラCPU104は、S901で設定された焦点検出領域の情報を取得し、該焦点検出領域の撮像素子上での像高を算出する。   Next, in step S9062, the camera CPU 104 obtains information of the focus detection area set in step S901, and calculates an image height of the focus detection area on the imaging device.

その後S9063では、カメラCPU104は、撮像光学系の収差情報を取得する。撮像光学系の収差情報は、カメラCPU104の要求に応じてレンズCPU507から通信により得られる情報であり、被写体の色ごと、コントラスト方向ごとおよび空間周波数ごとの撮像光学系の結像位置に関する情報である。被写体の色ごとの結像位置に関する情報は、主として色収差に関する情報である。被写体のコントラスト方向ごとの結像位置に関する情報は、主として非点収差に関する情報である。被写体の空間周波数ごとの結像位置に関する情報は、主として球面収差に関する情報である。   Thereafter, in step S9063, the camera CPU 104 acquires aberration information of the imaging optical system. The aberration information of the imaging optical system is information obtained by communication from the lens CPU 507 in response to the request of the camera CPU 104, and is information on the imaging position of the imaging optical system for each color of the subject, for each contrast direction and for each spatial frequency. . The information on the imaging position for each color of the subject is mainly information on chromatic aberration. The information on the imaging position in each contrast direction of the subject is mainly information on astigmatism. The information on the imaging position for each spatial frequency of the subject is mainly information on spherical aberration.

図12(a),(b)を用いて、撮像レンズ500内の不図示のメモリ(以下、レンズメモリという)に格納されている撮像光学系の収差情報について具体的に説明する。図12(a)は、撮像光学系の特性である空間周波数ごとのデフォーカスMTFが極大値となるフォーカスレンズ503の位置を示している。横軸は、空間周波数を示し、F1,F2,F3およびF4は図9(a)〜(c)および図10(a)〜(c)に示したF1,F2,F3およびF4に対応している。Nqは第1の撮像素子102のナイキスト周波数であり、Nq2は第2の撮像素子102のナイキスト周波数である。縦軸は、デフォーカスMTFが極大値となるフォーカスレンズ503の位置(以下、デフォーカスMTFピーク位置という)を示す。   The aberration information of the imaging optical system stored in a memory (hereinafter referred to as a lens memory) (not shown) in the imaging lens 500 will be specifically described using FIGS. 12 (a) and 12 (b). FIG. 12A shows the position of the focus lens 503 at which the defocus MTF for each spatial frequency, which is a characteristic of the imaging optical system, becomes a maximum value. The horizontal axis indicates the spatial frequency, and F1, F2, F3 and F4 correspond to F1, F2, F3 and F4 shown in FIGS. 9 (a) to (c) and 10 (a) to (c). There is. Nq is the Nyquist frequency of the first imaging device 102, and Nq2 is the Nyquist frequency of the second imaging device 102. The vertical axis indicates the position of the focusing lens 503 at which the defocus MTF is at the maximum value (hereinafter referred to as the defocus MTF peak position).

図12(a)は、色がGでコントラスト方向が水平方向である場合のデフォーカスMTFピーク位置MTF_GHと、色がGでコントラスト方向が垂直方向である場合のデフォーカスMTFピーク位置MTF_GVを示している。赤と青に対応したデフォーカスMTFピーク位置を含めると、レンズメモリには合計6つの異なる条件でのデフォーカスMTFピーク位置の情報が格納されている。   FIG. 12A shows the defocus MTF peak position MTF_GH when the color is G and the contrast direction is the horizontal direction, and the defocus MTF peak position MTF_GV when the color is G and the contrast direction is the vertical direction. There is. When defocus MTF peak positions corresponding to red and blue are included, information on defocus MTF peak positions under a total of six different conditions is stored in the lens memory.

MTF_GHは、4つの空間周波数F1,F2,F3およびF4に対するデフォーカスMTFピーク位置PGH1,PGH2,PGH3,PGH4を有する。MTF_GVも、4つの空間周波数F1,F2,F3およびF4に対するデフォーカスMTFピーク位置PGV1,PGV2,PGV3,PGV4を有する。これらは、RおよびBについても同様である。   MTF_GH has defocus MTF peak positions PGH1, PGH2, PGH3 and PGH4 for four spatial frequencies F1, F2, F3 and F4. MTF_GV also has defocus MTF peak positions PGV1, PGV2, PGV3 and PGV4 for the four spatial frequencies F1, F2, F3 and F4. These are also true for R and B.

以下の説明では、空間周波数F1,F2,F3およびF4をF(n)(1≦n≦4)と表し、色がG,R,Bでコントラスト方向が水平方向である場合の撮像光学系の収差情報をそれぞれ、MTF_GH(n),MTF_RH(n),MTF_BH(n)と表す。また、色がG,R,Bでコントラスト方向が垂直方向である場合の撮像光学系の収差情報をそれぞれ、MTF_GV(n),MTF_RV(n),MTF_BV(n)と表す。レンズメモリには、撮像光学系の収差情報として、ズーム状態(焦点距離)、焦点調節状態(フォーカスレンズ503の位置)、Fナンバおよび焦点検出領域の像高によって情報が格納されている。例えば、ズーム状態と焦点調節状態とFナンバを8つのゾーンに分割し、分割ゾーンごとに3分割した像高のそれぞれに対する収差情報が格納されている。ただし、これ以外の収差情報の格納方法を採用してもよい。   In the following description, the spatial frequencies F1, F2, F3 and F4 are represented as F (n) (1 ≦ n ≦ 4), and the color is G, R, B and the contrast direction is horizontal. The aberration information is represented as MTF_GH (n), MTF_RH (n), and MTF_BH (n), respectively. Further, the aberration information of the imaging optical system in the case where the color is G, R, B and the contrast direction is the vertical direction is denoted as MTF_GV (n), MTF_RV (n), MTF_BV (n), respectively. In the lens memory, information is stored as aberration information of the imaging optical system according to the zoom state (focal length), the focus adjustment state (position of the focus lens 503), the F number, and the image height of the focus detection area. For example, the zoom state, the focus adjustment state, and the F number are divided into eight zones, and aberration information is stored for each of the image heights divided into three for each divided zone. However, other methods of storing aberration information may be employed.

S9063では、カメラCPU104は、事前に得たFナンバおよび焦点検出領域の像高の情報を、レンズCPU507に送信する。レンズCPU507は、レンズメモリからこれらFナンバおよび焦点検出領域の像高と現在のズーム状態および焦点調節状態に対応する収差情報を選択し、カメラCPU104に送信する。   In S9063, the camera CPU 104 transmits, to the lens CPU 507, information of the F number and the image height of the focus detection area obtained in advance. The lens CPU 507 selects the F number, the image height of the focus detection area, and the aberration information corresponding to the current zoom state and the focus adjustment state from the lens memory, and transmits the selected information to the camera CPU 104.

次にS9064では、カメラCPU104は、ビームスプリッタ103であるハーフミラー(光学素子)の光学情報を用いて撮像光学系の収差情報を加工する。図12(b)を用いて、この収差情報の加工について説明する。   Next, in step S9064, the camera CPU 104 processes the aberration information of the imaging optical system using the optical information of the half mirror (optical element) that is the beam splitter 103. The processing of the aberration information will be described with reference to FIG.

撮像光学系を透過してハーフミラーで反射された光束(第2の分光状態の光束)が到達する第2の撮像素子102については、ハーフミラーが歪等を持たず、反射によって新たに収差が発生しない場合には、撮像光学系の収差情報を加工することなく用いればよい。しかし、撮像光学系を透過してハーフミラーも透過して第1の撮像素子101に到達する光束(第1の分光状態の光束)には、ハーフミラーの材質に応じた屈折率や分散によって、ハーフミラーへの入射角度や波長に応じて異なる屈折が発生する。収差情報は、デフォーカスMTFの極大値と対応するフォーカスレンズ503の位置であるデフォーカスMTFピーク位置の情報を有するため、光束がハーフミラーを透過することでデフォーカスMTFピーク位置がオフセットする。このオフセット量は、色(波長)、射出瞳距離および像高で決まるハーフミラーへの光束の入射角度から算出することができる。   The half mirror does not have distortion or the like for the second imaging element 102 that the light flux (light flux in the second spectral state) transmitted by the imaging optical system and reflected by the half mirror reaches, and aberration is newly generated by reflection. If it does not occur, it may be used without processing the aberration information of the imaging optical system. However, the light flux (the light flux in the first spectral state) which passes through the imaging optical system and also through the half mirror and reaches the first imaging element 101 is determined by the refractive index and dispersion according to the material of the half mirror. Different refraction occurs depending on the incident angle to the half mirror and the wavelength. Since the aberration information has information on the defocus MTF peak position which is the position of the focus lens 503 corresponding to the maximum value of the defocus MTF, the defocus MTF peak position is offset when the light beam passes through the half mirror. The offset amount can be calculated from the incident angle of the light beam to the half mirror determined by the color (wavelength), the exit pupil distance and the image height.

図12(b)では、オフセット前のMTF_GH(破線で示す)に対して、ハーフミラーを透過することによりオフセットした収差情報であるMTF_GH2を示している。図示はしないが、他の収差情報も同様にオフセット量を算出することで、MTF_GV2、MTF_RH2、MTF_RV2、MTF_BH2およびMTF_BV2を算出することができる。   FIG. 12B shows MTF_GH2 which is aberration information offset by transmitting through the half mirror with respect to MTF_GH (shown by a broken line) before offset. Although not shown, MTF_GV2, MTF_RH2, MTF_RV2, MTF_BH2 and MTF_BV2 can be calculated by similarly calculating offset amounts of other aberration information.

次にS9065では、カメラCPU104は、S9054で算出した撮像評価帯域W1とAF評価帯域W2の情報を、カメラメモリから取得する。撮像評価帯域W1としては、第1の撮像素子101により取得された撮像画像に対応するW1_a(n)と、第2の撮像素子102により取得された撮像画像に対応するW1_b(n)とを取得する。AF評価帯域W2としては、A像およびB像信号に対してW2_a(n)を、C像およびD像信号に対してW2_b(n)を、E像およびF像信号に対してW2_c(n)をそれぞれ取得する。これらの評価帯域(係数)の情報はそれぞれ、3つの色(RGB)×2つのコントラスト方向(水平および垂直方向)の計6つずつ取得される。例えば、W2_a(n)として、W2_a_RH(n)、W2_a_RV(n)、W2_a_GH(n)、W2_a_GV(n)、W2_a_BH(n)およびW2_a_BV(n)の6つが取得される。   Next, in S9065, the camera CPU 104 acquires, from the camera memory, the information of the imaging evaluation band W1 and the AF evaluation band W2 calculated in S9054. As the imaging evaluation band W1, W1_a (n) corresponding to the captured image acquired by the first imaging device 101 and W1_b (n) corresponding to the captured image acquired by the second imaging device 102 are acquired. Do. As the AF evaluation band W2, W2_a (n) for the A and B image signals, W2_b (n) for the C and D image signals, and W2_c (n) for the E and F image signals Get each one. Information of these evaluation bands (coefficients) is acquired in total of six each of three colors (RGB) × two contrast directions (horizontal and vertical directions). For example, six W2_a_RH (n), W2_a_RV (n), W2_a_GH (n), W2_a_GV (n), W2_a_BH (n) and W2_a_BV (n) are acquired as W2_a (n).

さらにこれらの6つの係数がそれぞれ4つの空間周波数に対応した4つの係数を含むことで、計24の係数が取得される。これらの24の係数は、色、空間周波数およびコントラスト方向の組み合わせごとの情報量の大小関係を示す。本実施例では、これら24の係数を、その総和が1となるように規格化して、被写体情報に対する重み付け用の重みとして用いる。   Furthermore, a total of 24 coefficients are obtained by including these four coefficients corresponding to four spatial frequencies, respectively. These 24 coefficients indicate the magnitude relation of the amount of information for each combination of color, spatial frequency and contrast direction. In this embodiment, these 24 coefficients are normalized so that the sum becomes 1 and used as a weighting for subject information.

次にS9066では、カメラCPU104は、ハーフミラーの分光透過率に応じた分光分布に関する情報(第1の分光分布情報)およびハーフミラーの分光反射率に基づく分光分布に関する情報(第2の分光分布情報)を取得する。分光分布に関する情報とは、分光分布自体を示す情報、または分光分布自体ではないが、分光分布に対応する情報を意味する。図13および図14を用いて、ハーフミラーの分光透過率および分光反射率の角度依存性について説明する。   Next, in step S9066, the camera CPU 104 performs information on the spectral distribution (first spectral distribution information) according to the spectral transmittance of the half mirror and information on the spectral distribution based on the spectral reflectance of the half mirror (second spectral distribution information Get). The information on the spectral distribution means information indicating the spectral distribution itself, or information that is not the spectral distribution itself but corresponds to the spectral distribution. The angular dependence of the spectral transmittance and the spectral reflectance of the half mirror will be described with reference to FIGS. 13 and 14.

図13は、ハーフミラーの分光透過率を光線の入射角度ごとに示している。横軸に波長を、縦軸に透過率を示している。分光反射率は、100%から分光透過率を差し引いた値となる。誘電多層膜によりハーフミラーを構成した場合、光線の入射角度および波長によって透過率が変化する。図13には、入射角が30度、45度、60度の場合の分光透過率を示している。カメラメモリには、撮像素子のカラーフィルタの主波長に対応したRGBの3つの色の分光透過率として、入射角度30度、45度および60度のそれぞれの分光透過率が記憶されている。   FIG. 13 shows the spectral transmittance of the half mirror for each light incident angle. The abscissa represents the wavelength, and the ordinate represents the transmittance. The spectral reflectance is a value obtained by subtracting the spectral transmittance from 100%. When the half mirror is formed of a dielectric multilayer film, the transmittance changes depending on the incident angle and wavelength of the light beam. FIG. 13 shows spectral transmittances at incident angles of 30 degrees, 45 degrees, and 60 degrees. In the camera memory, spectral transmittances at incident angles of 30 degrees, 45 degrees, and 60 degrees are stored as spectral transmittances of the three colors of RGB corresponding to the main wavelength of the color filter of the imaging device.

図14は、射出瞳距離と像高によってハーフミラー(ビームスプリッタ103)への入射角度が変化することを示す。本実施例のように撮像レンズ500が交換可能であったりズームレンズであったりする場合には、交換や焦点距離に応じて射出瞳距離が変化する。図14には、互いに異なる射出瞳距離の例として、LPO1とLPO2を示しており、さらに撮像光学系囲の射出瞳の中心を通って第1の撮像素子101上の像高IH1,IH2に到達する光線を示している。   FIG. 14 shows that the incident angle to the half mirror (beam splitter 103) changes depending on the exit pupil distance and the image height. When the imaging lens 500 is replaceable or a zoom lens as in this embodiment, the exit pupil distance changes according to the replacement and the focal length. In FIG. 14, LPO1 and LPO2 are shown as examples of different exit pupil distances, and the image heights IH1 and IH2 on the first imaging element 101 are reached through the center of the exit pupil of the imaging optical system enclosure. Shows a ray of light.

射出瞳距離LPO1,LPO2に対応する射出瞳のそれぞれから像高IH1に到達する光線を見れば分かるように、それらの光線は互いにハーフミラーに対する入射角度が異なる。また、射出瞳距離LPO1に対応する射出瞳から像高IH1,IH2のそれぞれに到達する光線を見れば分かるように、それらの光線は互いにハーフミラーに対する入射角度が異なる。S9066では、カメラCPU104は、射出瞳距離とBP補正量の演算を行う像高とに基づいて、ハーフミラーに対する光線の入射角度を計算する。その後、カメラCPU104は、得られた入射角度から各波長における反射率および透過率を補間演算等により算出する。   As can be seen from the light rays reaching the image height IH1 from the respective exit pupils corresponding to the exit pupil distances LPO1 and LPO2, those light rays have different incident angles with respect to the half mirror. Further, as can be seen from light rays reaching each of the image heights IH1 and IH2 from the exit pupil corresponding to the exit pupil distance LPO1, those light rays have different incident angles with respect to the half mirror. In step S9066, the camera CPU 104 calculates the incident angle of the light beam on the half mirror based on the exit pupil distance and the image height at which the BP correction amount is calculated. Thereafter, the camera CPU 104 calculates the reflectance and transmittance at each wavelength from the obtained incident angle by interpolation calculation or the like.

そして、カメラCPU104は、分光分布の情報として、R,GおよびBの反射率(%)をそれぞれRr,Gr,Brとし、透過率(%)をRt,Gt,Btとして取得する。上述したように、Rt=100%−Rrの関係にあるため、RtとRrのうちいずれか一方を算出すればよい。   Then, the camera CPU 104 obtains the reflectances (%) of R, G and B as Rr, Gr and Br, respectively, and the transmittances (%) as Rt, Gt and Bt as the information of the spectral distribution. As described above, since there is a relationship of Rt = 100% −Rr, either one of Rt and Rr may be calculated.

図14では射出瞳の中心を通る光線を例に説明したが、実際の光束は虹彩絞り505やレンズ枠等により決定される射出瞳上の開口部を通り、ハーフミラーへの入射角度に幅を持つ。このため、虹彩絞り505の開口部の大きさに対応するFナンバや、レンズ枠等によるケラレ状態を示すビネッティング情報を用いて入射角度を計算してもよい。   In FIG. 14, a light beam passing through the center of the exit pupil has been described as an example, but the actual light beam passes through the opening on the exit pupil determined by the iris diaphragm 505 or the lens frame and the like. Have. Therefore, the incident angle may be calculated using F number corresponding to the size of the opening of the iris diaphragm 505, and vignette information indicating a vignetting state by a lens frame or the like.

S9067では、カメラCPU104は、ハーフミラーの分光透過率または分光反射率とAF評価帯域W2と撮像光学系の収差情報とを用いて、焦点検出信号により想定される焦点位置を算出する。ハーフミラーを透過した光束を受光する第1の撮像素子101から得られたA像およびB像信号間の相関演算(以下、第1の相関演算という)は水平方向でのみ行われる。カメラCPU104は、焦点検出信号により想定される焦点位置P_AF1を以下の式(4)を用いて算出する。   In step S9067, the camera CPU 104 calculates the focal position assumed by the focus detection signal using the spectral transmittance or spectral reflectance of the half mirror, the AF evaluation band W2 and the aberration information of the imaging optical system. The correlation calculation between the A and B image signals obtained from the first imaging element 101 that receives the light flux transmitted through the half mirror (hereinafter referred to as the first correlation calculation) is performed only in the horizontal direction. The camera CPU 104 calculates the focus position P_AF1 assumed by the focus detection signal using the following equation (4).

式(4)を用いた計算により、撮像光学系の収差情報を、被写体の分光分布およびハーフミラーの分光透過率に基づいて重み付け加算することにより、第1の相関演算を用いた焦点位置を算出することができる。P_AF1は、撮像光学系の収差情報において、焦点検出信号を構成する色の分布(分光特性)および空間周波数の分布(空間周波数特性)から想定されるデフォーカスMTFピーク位置に相当する。 The focal position using the first correlation calculation is calculated by weighting and adding the aberration information of the imaging optical system based on the spectral distribution of the object and the spectral transmittance of the half mirror by calculation using Equation (4). can do. P_AF1 corresponds to the defocus MTF peak position assumed from the distribution (spectral characteristics) of colors forming the focus detection signal and the distribution (spatial frequency characteristics) of spatial frequencies in the aberration information of the imaging optical system.

また、ハーフミラーで反射した光束を受光する第2の撮像素子102から得られたC像およびD像信号間の相関演算(以下、第2の相関演算という)は水平方向でのみ行われる。カメラCPU104は、焦点検出信号により想定される焦点位置P_AF2を以下の式(5)を用いて算出する。すなわち、撮像光学系の収差情報を、被写体の分光分布およびハーフミラーの分光反射率に基づいて重み付け加算することにより、第2の相関演算を用いた焦点位置を算出することができる。   Further, the correlation calculation between the C and D image signals obtained from the second imaging element 102 that receives the light beam reflected by the half mirror (hereinafter referred to as the second correlation calculation) is performed only in the horizontal direction. The camera CPU 104 calculates the focus position P_AF2 assumed by the focus detection signal using the following equation (5). That is, the focal position using the second correlation calculation can be calculated by weighting and adding the aberration information of the imaging optical system based on the spectral distribution of the object and the spectral reflectance of the half mirror.

さらに、第2の撮像素子102から得られたE像およびF像信号間の相関演算(以下、第3の相関演算という)は垂直方向でのみ行われる。カメラCPU104は、焦点検出信号で想定される焦点位置P_AF3を以下の式(6)を用いて算出する。すなわち、撮像光学系の収差情報を、被写体の分光分布およびハーフミラーの分光反射率に基づいて重み付け加算することにより、第3の相関演算を用いた焦点位置を算出することができる。 Further, the correlation calculation between the E image and the F image signal obtained from the second imaging element 102 (hereinafter referred to as the third correlation calculation) is performed only in the vertical direction. The camera CPU 104 calculates the focus position P_AF3 assumed by the focus detection signal using the following equation (6). That is, the focal position using the third correlation operation can be calculated by weighting and adding the aberration information of the imaging optical system based on the spectral distribution of the object and the spectral reflectance of the half mirror.

式(6)においては、垂直方向のコントラスト信号を用いて焦点位置の算出を行うため、撮像光学系の収差情報やAF評価帯域の情報は垂直方向のものを用いる。 In Equation (6), since the focus position is calculated using the contrast signal in the vertical direction, the aberration information of the imaging optical system and the information of the AF evaluation band in the vertical direction are used.

次にS9068では、カメラCPU104は、ハーフミラーの分光透過率と撮像評価帯域と撮像光学系の収差情報とを用いて、撮像信号を想定した場合の焦点位置を算出する。   Next, in step S9068, the camera CPU 104 calculates the focal position in the case of assuming an imaging signal, using the spectral transmittance of the half mirror, the imaging evaluation band, and the aberration information of the imaging optical system.

第1の撮像素子101を用いて得られる静止画像(以下、第1の撮像画像という)は、ハーフミラーを透過した光束により形成される被写体像の光電変換により得られる。また、焦点調節状態の評価は、水平および垂直方向のコントラストも評価することで行われるこのため、第1の撮像画像における焦点調節状態の評価で想定される焦点位置P_IMG1を、以下の式(7)を用いて算出する。   A still image (hereinafter, referred to as a first captured image) obtained using the first imaging element 101 is obtained by photoelectric conversion of an object image formed by a light beam transmitted through a half mirror. Further, the evaluation of the focusing state is performed by also evaluating the contrast in the horizontal and vertical directions. Therefore, the focal position P_IMG1 assumed in the evaluation of the focusing state in the first captured image is expressed by the following equation (7) Calculated using).

P_IMG1は、撮像光学系の収差情報において、第1の撮像画像で評価する色の分布、空間周波数の分布およびコントラスト方向の分布から想定されるデフォーカスMTFピーク位置に相当する。 P_IMG1 corresponds to the defocus MTF peak position assumed from the distribution of the color evaluated in the first captured image, the distribution of the spatial frequency, and the distribution of the contrast direction in the aberration information of the imaging optical system.

また、第2の撮像素子101を用いて得られる動画像(以下、第2の撮像画像という)は、ハーフミラーで反射した光束により形成される被写体像の光電変換により得られる。また、焦点調節状態の評価は、水平および垂直方向のコントラストも評価することで行われる。このため、第2の撮像画像における焦点調節状態の評価で想定される焦点位置P_IMG2を、以下の式(8)を用いて算出する。   A moving image (hereinafter referred to as a second captured image) obtained using the second imaging element 101 is obtained by photoelectric conversion of an object image formed by the light beam reflected by the half mirror. The evaluation of the focusing state is also performed by evaluating the horizontal and vertical contrasts. Therefore, the focal position P_IMG2 assumed in the evaluation of the focusing state in the second captured image is calculated using the following equation (8).

以上のように、S9067およびS9068では、カメラCPU104は、焦点検出信号や撮像信号の特性(色、空間周波数およびコントラスト方向)と撮像光学系の収差情報とを用いて、想定されるデフォーカスMTFピーク位置を算出する。 As described above, in steps S9067 and S9068, the camera CPU 104 estimates the defocus MTF peak assumed using the characteristics (color, spatial frequency and contrast direction) of the focus detection signal or the imaging signal and the aberration information of the imaging optical system. Calculate the position.

次に、S9069では、カメラCPU104は、BP補正量を算出する。BP補正量は、どの焦点検出結果としてのデフォーカス量をどの撮像画像の焦点調節に用いるかによって異なる。第1のデフーカス量を第1の撮像画像の焦点調節に用いる場合のBP補正量をBP1とし、第2の撮像画像の焦点調節に用いる場合のBP補正量をBP2とすると、カメラCPU104はこれらを以下の式(9),(10)を用いて算出する。
BP1=P_IMG1−P_AF1 (9)
BP2=P_IMG2−P_AF1 (10)
また、第2のデフォーカス量を第1の撮像画像の焦点調節に用いる場合のBP補正量をBP3とし、第2の撮像画像の焦点調節に用いる場合のBP補正量をBP4とすると、カメラCPU104はこれらを以下の式(11),(12)を用いて算出する。
BP3=P_IMG1−P_AF2 (11)
BP4=P_IMG2−P_AF2 (12)
さらに、第3のデフォーカス量を第1の撮像画像の焦点調節に用いる場合のBP補正量をBP5とし、第2の撮像画像の焦点調節に用いる場合のBP補正量をBP6とすると、カメラCPU104はこれらを以下の式(13),(14)を用いて算出する。
BP5=P_IMG1−P_AF3 (13)
BP6=P_IMG2−P_AF3 (14)
カメラCPU104は、S9069で算出したBP補正量BP1〜BP6を、被写体情報に応じて切り替えて用いる。例えば、被写体が垂直方向にコントラストを有し、第3の相関演算で得られる焦点検出結果(第3のデフォーカス量)の信頼性が高い場合は、第1の撮像素子101用のBP補正量(第1の焦点調節補正量)としてBP5を用いて焦点検出結果を補正する。そして、補正後の焦点検出結果を用いてフォーカスレンズ503の移動量を算出する。また、同じ場合に、第2の撮像素子102用のBP補正量(第2の焦点調節補正量)としてBP6を用いて焦点検出結果を補正し、補正後の焦点検出結果を用いて第2の撮像素子102の移動量を算出する。第2の撮像素子102の移動量は、撮像光学系の収差情報、第1の撮像素子情報および第2の撮像素子情報のうち少なくとも1つの変更に伴って変更される。
Next, at S9069, the camera CPU 104 calculates a BP correction amount. The BP correction amount differs depending on which defocus amount as a focus detection result is used for focus adjustment of which captured image. Assuming that the BP correction amount in the case of using the first defocus amount for focusing the first captured image is BP1, and the BP correction amount in the case of using the second imaging image for focus adjustment is BP2, the camera CPU 104 It calculates using following formula (9), (10).
BP1 = P_IMG1-P_AF1 (9)
BP2 = P_IMG2-P_AF1 (10)
Further, assuming that the BP correction amount when using the second defocus amount for focusing of the first captured image is BP3 and the BP correction amount when using for focusing of the second captured image is BP4, the camera CPU 104 These are calculated using the following formulas (11) and (12).
BP3 = P_IMG1-P_AF2 (11)
BP4 = P_IMG2-P_AF2 (12)
Furthermore, assuming that the BP correction amount when using the third defocus amount for focusing of the first captured image is BP5 and the BP correction amount when using for focusing of the second captured image is BP6, the camera CPU 104 These are calculated using the following equations (13) and (14).
BP5 = P_IMG1-P_AF3 (13)
BP6 = P_IMG2-P_AF3 (14)
The camera CPU 104 switches and uses the BP correction amounts BP1 to BP6 calculated in S9069 according to the subject information. For example, when the subject has a contrast in the vertical direction and the reliability of the focus detection result (third defocus amount) obtained by the third correlation operation is high, the BP correction amount for the first image sensor 101 The focus detection result is corrected using BP5 as (first focus adjustment correction amount). Then, using the focus detection result after correction, the amount of movement of the focus lens 503 is calculated. Also, in the same case, the focus detection result is corrected using BP6 as the BP correction amount (second focus adjustment correction amount) for the second imaging element 102, and the second after the correction using the focus detection result. The movement amount of the imaging element 102 is calculated. The amount of movement of the second imaging element 102 is changed in accordance with at least one of the aberration information of the imaging optical system, the first imaging element information, and the second imaging element information.

カメラCPU104は、第1の撮像素子101用のBP補正量と第2の撮像素子102用のBP補正量に対して、第1の分光状態と第2の分光状態を以下のような組み合わせに設定する。   The camera CPU 104 sets the first spectral state and the second spectral state in the following combination with respect to the BP correction amount for the first imaging device 101 and the BP correction amount for the second imaging device 102. Do.

例えば、BP1とBP2については、第1の分光状態を、ハーフミラーを透過して第1の撮像素子101に到達する光束の焦点検出時の分光状態と、ハーフミラーを透過して第1の撮像素子101に到達する光束の撮像時の分光状態との組み合わせとする。また、第2の分光状態を、ハーフミラーで反射して第2の撮像素子102に到達する光束の焦点検出時の分光状態と、ハーフミラーで反射して第2の撮像素子102に到達する光束の撮像時の分光状態の組み合わせとする。ただし、第1の分光状態と第2の分光状態は、上述した組み合わせに限らず、BP1とBP4等に対する組み合わせであってもよい。   For example, with regard to BP1 and BP2, the first spectral state is a spectral state at the time of focus detection of a light beam which passes through the half mirror and reaches the first imaging element 101, and passes through the half mirror to perform the first imaging The combination with the spectral state at the time of imaging of the light flux reaching the element 101 is used. In addition, the second spectral state is reflected by the half mirror to reach the second imaging element 102, and the spectral state at the time of focus detection of the light flux is reflected by the half mirror to reach the second imaging element 102 The combination of spectral states at the time of imaging. However, the first spectral state and the second spectral state are not limited to the combination described above, and may be a combination for BP1 and BP4 or the like.

以上のように、本実施例では、第1および第2の撮像素子101,102のそれぞれから取得される焦点検出信号の特性に応じて、想定される焦点位置(P_AF1,P_AF2,P_AF3)を算出する。また、第1および第2の撮像素子101,102のそれぞれから取得される撮像信号の特性に応じて、想定される焦点位置(P_IMG1,P_IMG2)を算出する。そして、これら想定される焦点位置を用いてBP補正量を算出することにより、信頼性の高い焦点検出結果を採用しながら、撮像画像の特性に応じた焦点調節制御を行うことができる。   As described above, in this embodiment, the estimated focal positions (P_AF1, P_AF2, P_AF3) are calculated according to the characteristics of the focus detection signals acquired from the first and second imaging elements 101 and 102, respectively. Do. Further, in accordance with the characteristics of the imaging signals acquired from each of the first and second imaging elements 101 and 102, assumed focal positions (P_IMG1 and P_IMG2) are calculated. Then, by calculating the BP correction amount using these assumed focus positions, it is possible to perform focus adjustment control according to the characteristics of the captured image while adopting a highly reliable focus detection result.

本実施例では、静止画撮像用のBP補正量と動画撮像用のBP補正量として異なる値が算出されることに備えて、第2の撮像素子102を光軸方向に移動可能に構成した。すなわち、フォーカスレンズ503の移動と第2の撮像素子102の移動とにより焦点調節を行うように構成した。しかし、第2の撮像素子102は必ずしも移動できなくてもよい。この場合は、例えば、静止画撮像用のBP補正量(第1の焦点調節補正量)と動画撮像用のBP補正量(第2の焦点調節補正量)の平均値(第3の焦点調節補正量)を用いてフォーカスレンズ503を移動させて焦点調節を行えばよい。これにより、焦点調節精度は低下するが、第2の撮像素子102を移動させる機構が不要となる。   In this embodiment, the second imaging element 102 is configured to be movable in the optical axis direction in preparation for calculating different values as the BP correction amount for still image capturing and the BP correction amount for moving image capturing. That is, focusing is performed by the movement of the focus lens 503 and the movement of the second imaging element 102. However, the second imaging element 102 may not necessarily be movable. In this case, for example, an average value (third focus adjustment correction) of the BP correction amount (first focus adjustment correction amount) for still image capturing and the BP correction amount (second focus adjustment correction amount) for moving image capturing Amount may be used to move the focus lens 503 to perform focus adjustment. As a result, although the focus adjustment accuracy is reduced, a mechanism for moving the second image sensor 102 is not necessary.

また、第2の撮像素子102を移動させない場合に、ユーザまたはカメラ本体100の設定により、第1および第2の撮像素子101,102から得られる撮像画像の記録優先度を求め、その記録優先度に応じてBP補正量(第3の焦点調節補正量)を設定してもよい。例えば、第1の撮像素子101により得られる静止画が優先度が高い場合は、第1の撮像素子101に対するBP補正量と第2の撮像素子102に対するBP補正量を4:1で重み付けしたBP補正量を算出(設定)して焦点調節制御を行ってもよい。   In addition, when the second imaging element 102 is not moved, the recording priority of the captured image obtained from the first and second imaging elements 101 and 102 is determined by the setting of the user or the camera main body 100, and the recording priority The BP correction amount (third focus adjustment correction amount) may be set in accordance with. For example, when the still image obtained by the first imaging device 101 has a high priority, the BP correction amount for the first imaging device 101 and the BP correction amount for the second imaging device 102 are weighted by 4: 1. The focus adjustment control may be performed by calculating (setting) the correction amount.

また、上述したように、BP補正量の大小は撮像光学系の収差情報により決定される。このため、該収差情報から収差量の大小を判定し、収差量が小さい場合にはBP補正量(第1または第2の焦点調節補正量)の算出を省略してもよい。   As described above, the magnitude of the BP correction amount is determined by the aberration information of the imaging optical system. Therefore, the magnitude of the aberration amount may be determined from the aberration information, and the calculation of the BP correction amount (first or second focus adjustment correction amount) may be omitted if the aberration amount is small.

次に、図15を用いて、カメラCPU104がS9051およびS9052で行う第1および第2の撮像素子101,102を用いた被写体情報の抽出タイミングについて説明する。図15は、第1および第2の撮像素子101,102の垂直同期信号V1,V2,V3,V4,・・・が同期している例を示している。第1の撮像素子101は、Ea1,Ra1,Ea2,Ra2,・・・で示すように、垂直同期タイミングV1,V2,・・・を境として電荷蓄積と読み出しとを繰り返す。第2の撮像素子102は、Eb1,Rb1,Eb2,Rb2,・・・で示すように、垂直同期タイミングV1,V2,・・・を境として電荷蓄積と読み出しとを繰り返す。   Next, the extraction timing of the subject information using the first and second imaging elements 101 and 102 performed by the camera CPU 104 in S9051 and S9052 will be described using FIG. FIG. 15 shows an example in which the vertical synchronization signals V1, V2, V3, V4,... Of the first and second imaging elements 101, 102 are synchronized. As indicated by Ea1, Ra1, Ea2, Ra2,..., The first imaging element 101 repeats charge accumulation and readout at the boundaries of vertical synchronization timings V1, V2,. As indicated by Eb1, Rb1, Eb2, Rb2,..., The second imaging element 102 repeats charge storage and readout at boundaries of vertical synchronization timings V1, V2,.

第2の撮像素子102は、動画撮像用であるため、静止画撮像用の第1の撮像素子101よりも電荷蓄積時間が長く設定されている。ただし、第2の撮像素子102は第1の撮像素子101よりも画素数が少ないため、出力信号の読み出し時間は短い。第1の撮像素子101は、被写体情報抽出手段として機能しているため、手振れや被写体振れの影響を低減するために短い電荷蓄積時間で駆動される。   Since the second imaging element 102 is for moving image capturing, the charge accumulation time is set to be longer than that of the first imaging element 101 for capturing a still image. However, since the second imaging device 102 has a smaller number of pixels than the first imaging device 101, the readout time of the output signal is short. The first imaging element 101 functions as a subject information extraction unit, and therefore, is driven in a short charge accumulation time to reduce the influence of camera shake and subject shake.

第1および第2の撮像素子101,102からの出力信号の読み出しを終えると、カメラCPU104は、取得した出力信号を用いて被写体情報の検出D1,D2,D3,・・・を行う。そして、被写体情報の検出を終えると、カメラCPU104は、得られた被写体情報を用いてBP補正量の算出C1,C2,C3,・・・を行う。   After reading the output signals from the first and second imaging elements 101 and 102, the camera CPU 104 performs detection D1, D2, D3,... Of subject information using the acquired output signals. Then, when detection of subject information is completed, the camera CPU 104 performs calculation C1, C2, C3,... Of BP correction amount using the obtained subject information.

このような処理を行うことにより、おおよそ同じタイミングでの被写体情報を第1および第2の撮像素子101,102を通して得られるため、タイムラグによる被写体情報の変化の影響を受けにくく、信頼性の高い被写体情報が得られる。   By performing such processing, subject information at approximately the same timing can be obtained through the first and second imaging elements 101 and 102, so it is difficult to be affected by changes in subject information due to time lag, and a highly reliable subject Information can be obtained.

第1の撮像素子101における被写体情報の抽出領域を狭めることによって、第1の撮像素子101の駆動レート(フレームレート)を2倍等に上げて、より多くの情報を得てもよい。その際に、半分のデータは、第2の撮像素子102から得られる情報と同期がとれないが、第1の撮像素子101から得られる情報から連続性を判定する等により、より信頼性の高い被写体情報を抽出することができる。また、第2の撮像素子102の駆動レートが高い場合には、第1の撮像素子101の駆動を間引いて被写体情報の抽出間隔を長くしてもよい。これにより、得られる被写体情報は減るが、消費電力を低減することができる。   By narrowing the extraction area of the subject information in the first image sensor 101, the drive rate (frame rate) of the first image sensor 101 may be doubled to obtain more information. At this time, half of the data can not be synchronized with the information obtained from the second imaging device 102, but the reliability is higher by determining continuity from the information obtained from the first imaging device 101. Subject information can be extracted. In addition, when the drive rate of the second image sensor 102 is high, the drive of the first image sensor 101 may be thinned to lengthen the extraction interval of the subject information. Although this reduces the subject information to be obtained, it is possible to reduce the power consumption.

以上説明したように、本実施例では、ハーフミラーの分光透過率および分光反射率を用いた重み付け演算によって焦点位置を算出する。これにより、ハーフミラーの反射側と透過側で分光状態が異なることによる焦点位置の差を考慮した焦点検出および焦点調節制御を行うことができる。   As described above, in the present embodiment, the focal position is calculated by the weighting operation using the spectral transmittance and the spectral reflectance of the half mirror. As a result, it is possible to perform focus detection and focus adjustment control in consideration of the difference in focus position due to the difference in spectral state between the reflection side and the transmission side of the half mirror.

なお、本実施例では、第1の分光分布情報から第1の焦点調節補正量を算出し、かつ第2の分光分布情報から第2の焦点調節補正量を算出する場合について説明した。しかし、第1の分光分布情報と第2の分光分布情報とが互いに近い場合は、第1および第2の焦点調節補正量のうち一方を算出するようにしてもよい。   In the present embodiment, the case where the first focus adjustment correction amount is calculated from the first spectral distribution information and the second focus adjustment correction amount is calculated from the second spectral distribution information has been described. However, when the first spectral distribution information and the second spectral distribution information are close to each other, one of the first and second focus adjustment correction amounts may be calculated.

次に、本発明の実施例2のカメラについて説明する。実施例1では、第1の分光状態をハーフミラーの透過側の焦点検出時の分光状態と撮像時の分光状態との組み合わせとし、第2の分光状態を反射側の焦点検出時の分光状態と撮像時の分光状態との組み合わせとして、第1および第2の焦点調節補正量を算出した。   Next, a camera according to a second embodiment of the present invention will be described. In the first embodiment, the first spectral state is a combination of the spectral state at the time of focal point detection on the transmission side of the half mirror and the spectral state at the time of imaging, and the second spectral state is at the spectral state at focal point detection on the reflective side. First and second focus adjustment correction amounts were calculated as a combination with the spectral state at the time of imaging.

これに対して、本実施例では、第1の分光状態をハーフミラーを透過したときの焦点検出時の分光状態とハーフミラーが光路から退避した撮像時の分光状態との組み合わせとする。また、第2の分光状態をハーフミラーが退避した焦点検出時の分光状態と撮像時の分光状態との組み合わせとする。   On the other hand, in the present embodiment, the first spectral state is a combination of the spectral state at the time of focus detection when passing through the half mirror and the spectral state at the time of imaging when the half mirror is retracted from the light path. Further, the second spectral state is a combination of the spectral state at the time of focus detection when the half mirror retracts and the spectral state at the time of imaging.

図16は、本実施例のカメラ本体1500および撮像レンズ500の構成を示す。図16において実施例1(図1)と共通する構成要素には実施例1と同符号を付している。本実施例のカメラ本体1500は、実施例1における第2の撮像素子102とディスプレイデバイス108を有さず、ペンタプリズム1501を有する。ペンタプリズム1501は、ハーフミラー103により反射された光束を接眼レンズ109に導く。ペンタプリズム1501と接眼レンズ109とにより光学ファインダが構成される。また、実施例1では撮像レンズ500からの光路内に固定されたビームスプリッタ103としてのハーフミラーが設けられているが、本実施例では該光路に対して進退(挿抜)可能な光学素子としてのハーフミラー1502が設けられている。   FIG. 16 shows the configuration of the camera body 1500 and the imaging lens 500 of this embodiment. Components in FIG. 16 common to those in Embodiment 1 (FIG. 1) are assigned the same reference numerals as in Embodiment 1. The camera body 1500 of the present embodiment does not have the second imaging element 102 and the display device 108 in Embodiment 1, but has a pentaprism 1501. The pentaprism 1501 guides the light beam reflected by the half mirror 103 to the eyepiece lens 109. The pentaprism 1501 and the eyepiece lens 109 constitute an optical finder. Further, in Example 1, a half mirror as the beam splitter 103 fixed in the optical path from the imaging lens 500 is provided, but in this example, it is an optical element that can be moved back and forth (inserted and removed) with respect to the optical path. A half mirror 1502 is provided.

一般的な撮像装置はハーフミラー1502によりAF専用センサおよびファインダ内表示器107に光束を導くが、本実施例はAF専用センサを有さない。このため、本実施例では、被写体像をファインダ内表示器107を通して観察しながら、第1の撮像素子101にてハーフミラー1502を透過した光束を用いて焦点検出を行う。   A general imaging device guides a light flux to the AF dedicated sensor and the in-finder display 107 by the half mirror 1502, but this embodiment does not have the AF dedicated sensor. For this reason, in the present embodiment, while observing the subject image through the in-finder display 107, focus detection is performed using the light flux transmitted through the half mirror 1502 by the first imaging device 101.

図17のフローチャートは、本実施例における撮像処理を示している。カメラCPU104は、コンピュータプログラムである撮像制御プログラムに従って本処理を実行する。実施例1(図5)のステップと同じステップについては実施例1と同符号を付している。   The flowchart of FIG. 17 shows an imaging process in the present embodiment. The camera CPU 104 executes this process in accordance with an imaging control program which is a computer program. The same steps as those of the first embodiment (FIG. 5) are denoted by the same reference numerals as those of the first embodiment.

S101の後のS1601では、カメラCPU104は、設定されている撮像モードがファインダ撮像モードかライブビュー撮像モードかを判定する。カメラCPU104は、ファインダ撮像モードが設定されている場合はS1602に進み、ライブビュー撮像モードが設定されている場合S1604に進む。   In S1601 after S101, the camera CPU 104 determines whether the set imaging mode is a finder imaging mode or a live view imaging mode. The camera CPU 104 proceeds to S1602 when the finder imaging mode is set, and proceeds to S1604 when the live view imaging mode is set.

ファインダ撮像モードでのカメラCPU104の動作について説明する。S1602では、カメラCPU104は、撮像レンズ500からの光束をペンタプリズム1501に導くためにハーフミラー1502を光路内に配置する(ミラーダウンする)。   The operation of the camera CPU 104 in the finder imaging mode will be described. In S1602, the camera CPU 104 places the half mirror 1502 in the optical path (mirror down) in order to guide the light flux from the imaging lens 500 to the pentaprism 1501.

続いてS107では、カメラCPU104は、ミラーダウンしたまま、AF処理を行う。AF処理については後述する。   Subsequently, in S107, the camera CPU 104 performs an AF process while the mirror is down. The AF processing will be described later.

次にS1603では、カメラCPU104は、図20に示すように、ハーフミラー1502を光路外に退避させ、撮像レンズ500からの光束をハーフミラー1502を透過させることなく第1の撮像素子101に導く。   Next, in S1603, as shown in FIG. 20, the camera CPU 104 retracts the half mirror 1502 out of the optical path, and guides the light flux from the imaging lens 500 to the first imaging element 101 without transmitting the half mirror 1502.

続いてS111では、カメラCPU104は、静止画撮像を行う。ハーフミラー1502を光路外に退避させて静止画撮像を行うことで、取得される静止画の画質がハーフミラー1502による撮像光学系の収差の拡大によって低下したり、光量が低下したりすることが防止される。   Subsequently, at S111, the camera CPU 104 performs still image capturing. By imaging the still image by retracting the half mirror 1502 out of the optical path, the image quality of the obtained still image may be degraded due to the expansion of the aberration of the imaging optical system by the half mirror 1502 or the light amount may be reduced. It is prevented.

ライブビュー撮像モードでのカメラCPU104の動作について説明する。S1604において、カメラCPU104は、ハーフミラー1502を光路外に退避させる(ミラーアップさせる)。撮像レンズ500からの光束を、ハーフミラー1502を透過させずに第1の撮像素子101に導くことで、良好なライビュー画像を取得することができる。   The operation of the camera CPU 104 in the live view imaging mode will be described. In step S1604, the camera CPU 104 retracts the half mirror 1502 out of the optical path (mirrors up). By guiding the light flux from the imaging lens 500 to the first imaging device 101 without transmitting the half mirror 1502, a good live view image can be obtained.

続いてS107では、カメラCPU104は、ミラーアップしたままAF処理を行う。そして、S111に進んで静止画撮像を行う。   Subsequently, in S107, the camera CPU 104 performs an AF process with the mirror up. Then, the process proceeds to step S111 to perform still image capturing.

図18のフローチャートを用いて焦点検出処理およびこれを含むAF処理について説明する。実施例1(図6)のステップと同じステップについては実施例1と同符号を付している。   The focus detection process and the AF process including the same will be described with reference to the flowchart of FIG. The same steps as those of the first embodiment (FIG. 6) are denoted by the same reference numerals as those of the first embodiment.

本実施のカメラ本体1500は、第2の撮像素子102を有さないため、実施例1で説明した被写体情報抽出処理を行わない。また、カメラ本体1500は、撮像素子駆動部114を有さないため、図6のS909でのフォーカスレンズ503および第2の撮像素子102の駆動を、S1601でのフォーカスレンズ503の駆動としている。その他の処理は、実施例1と同様である。   The camera body 1500 of this embodiment does not have the second imaging element 102, and thus does not perform the subject information extraction process described in the first embodiment. Further, since the camera body 1500 does not have the imaging element driving unit 114, the driving of the focus lens 503 and the second imaging element 102 in S909 of FIG. 6 is the driving of the focus lens 503 in S1601. The other processes are the same as in the first embodiment.

図19のフローチャートは、本実施例におけるBP量算出処理を示す。実施例1(図11)のステップと同じステップについては実施例1と同符号を付している。実施例1ではビームスプリッタ(ハーフミラー)103の反射側と透過側とで分光状態が異なるために、S9066においてカメラCPU104はハーフミラー1502の分光透過率に基づく分光分布の情報を取得する。   The flowchart of FIG. 19 shows the BP amount calculation process in this embodiment. The same steps as those of the first embodiment (FIG. 11) are denoted by the same reference numerals as those of the first embodiment. In the first embodiment, since the spectral state is different between the reflection side and the transmission side of the beam splitter (half mirror) 103, the camera CPU 104 acquires information of spectral distribution based on the spectral transmittance of the half mirror 1502 in S9066.

一方、本実施例では、ファインダ撮像モードにおいてハーフミラー1502を透過した光束の分光状態(第1の分光状態)と、ライブビュー撮像モードにおいて退避したハーフミラー1502を透過していない光束の分光状態(第2の分光状態)とが異なる。このため、S1801では、カメラCPU104は、ハーフミラー1502を透過した光束の分光分布に関する情報(第1の分光分布情報:以下、透過分光分布情報という)を取得し、これを用いてBP補正量(第1の焦点調節補正量)を算出する。具体的には、カメラCPU104は、ファインダ撮像モードにおいて、ハーフミラーを透過した光束の焦点検出時の分光状態とハーフミラーが退避した撮像時の分光状態との組み合わせに応じてBP補正量を算出する。   On the other hand, in this embodiment, the spectral state (first spectral state) of the light beam transmitted through the half mirror 1502 in the finder imaging mode and the spectral state of the light beam not transmitted through the half mirror 1502 retracted in the live view imaging mode ( The second spectral state is different. For this reason, in S1801, the camera CPU 104 acquires information on the spectral distribution of the light flux transmitted through the half mirror 1502 (first spectral distribution information: hereinafter referred to as transmission spectral distribution information), and uses this to obtain the BP correction amount ( The first focus adjustment correction amount is calculated. Specifically, in the finder imaging mode, the camera CPU 104 calculates the BP correction amount according to the combination of the spectral state at the time of focus detection of the light flux transmitted through the half mirror and the spectral state at the time of imaging with the half mirror retracted. .

S9067では、カメラCPU104は、S1801で取得した透過分光分布情報を用いて、焦点検出信号を想定した場合の焦点位置を算出する。   In step S9067, the camera CPU 104 calculates the focus position when the focus detection signal is assumed, using the transmission spectral distribution information acquired in step S1801.

そしてS9068では、カメラCPU104は、ハーフミラー1502を退避させたときの分光状態にはハーフミラー1502による変化が生じないため、透過分光分布情報を用いずに、撮像信号を想定した場合の焦点位置を算出する。   Then, in step S9068, the camera CPU 104 does not cause a change due to the half mirror 1502 in the spectral state when the half mirror 1502 is retracted, so the focal position in the case where the imaging signal is assumed is used without using the transmission spectral distribution information. calculate.

これに対して、ライブビュー撮像モードでは、カメラCPU104は、ハーフミラー1502が退避した焦点検出時の分光状態と撮像時の分光状態との組み合わせに応じてBP補正量を算出する。ライブビュー撮像モードでは、AFおよび撮像のそれぞれをハーフミラー1502が退避した分光状態で行う。このため、S9067およびS9068においてカメラCPU104は、透過分光分布情報を用いずに(言い換えれば、透過分光分布情報とは異なる第2の分光分布情報を用いて)、焦点検出信号を想定した場合の焦点位置および撮像信号を想定した焦点位置を算出する。上記以外の処理は、実施例1と共通である。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
On the other hand, in the live view imaging mode, the camera CPU 104 calculates the BP correction amount according to the combination of the spectral state at the time of focus detection when the half mirror 1502 is retracted and the spectral state at the time of imaging. In the live view imaging mode, each of AF and imaging is performed in a spectral state in which the half mirror 1502 is retracted. Therefore, in S9067 and S9068, the camera CPU 104 does not use the transmission spectral distribution information (in other words, uses the second spectral distribution information different from the transmission spectral distribution information) and assumes the focus detection signal. The position and the focal position assuming the imaging signal are calculated. The processes other than the above are the same as in the first embodiment.
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。   The embodiments described above are only representative examples, and various modifications and changes can be made to the embodiments when the present invention is implemented.

100 カメラ本体
101 第1の撮像素子
102 第2の撮像素子
104 カメラCPU
500 撮像レンズ
503 フォーカスレンズ(第3レンズ群)
507 レンズCPU
100 Camera Body 101 First Image Sensor 102 Second Image Sensor 104 Camera CPU
500 imaging lens 503 focus lens (third lens group)
507 lens CPU

Claims (9)

撮像光学系からの光束により形成される被写体像を撮像する撮像素子と、
前記撮像素子に対して、第1の分光状態の光束と前記第1の分光状態とは異なる第2の分光状態の光束とを入射させることが可能な光学素子と、
前記撮像素子からの信号を用いて位相差検出方式の焦点検出を行い、該焦点検出の結果を用いて焦点調節制御を行う制御手段とを有し、
前記制御手段は、
前記焦点検出の結果と、前記第1の分光状態での前記光束の分光分布に関する第1の分光分布情報と、前記第2の分光状態での前記光束の分光分布に関する第2の分光分布情報とを用いて前記焦点調節制御を行うことを特徴とする撮像装置。
An image pickup element for picking up an object image formed by a light flux from the image pickup optical system;
An optical element capable of causing a light flux in a first spectral state and a light flux in a second spectral state different from the first spectral state to be incident on the imaging element;
Control means for performing focus detection of a phase difference detection method using a signal from the imaging element and performing focus adjustment control using a result of the focus detection;
The control means
The result of the focus detection, first spectral distribution information on the spectral distribution of the light flux in the first spectral state, and second spectral distribution information on the spectral distribution of the light flux in the second spectral state An imaging device that performs the focusing control using the
前記第1の分光分布情報および前記第2の分光分布情報はそれぞれ、前記光学素子に対する撮像光学系からの光束の入射角度に応じた情報であることを特徴とする請求項1に記載の撮像装置。   The image pickup apparatus according to claim 1, wherein the first spectral distribution information and the second spectral distribution information are information according to an incident angle of a light beam from an imaging optical system to the optical element. . 前記第1の分光分布情報および前記第2の分光分布情報はそれぞれ、焦点検出時における前記の分光分布に関する情報と撮像時における前記分光分布に関する情報とを含むことを特徴とする請求項1または2に記載の撮像装置。   The first spectral distribution information and the second spectral distribution information each include information on the spectral distribution at the time of focus detection and information on the spectral distribution at the time of imaging. The imaging device according to. 前記制御手段は、
前記第1の分光分布情報を用いて第1の焦点調節補正量を取得するとともに、前記第2の分光分布情報を用いて第2の焦点調節補正量を取得し、
前記焦点検出の結果と、前記第1の焦点調節補正量と、前記第2の焦点調節補正量とを用いて前記焦点調節制御を行うことを特徴とする請求項1から3のいずれか一項に記載の撮像装置。
The control means
A first focus adjustment correction amount is acquired using the first spectral distribution information, and a second focus adjustment correction amount is acquired using the second spectral distribution information.
The focus adjustment control is performed using the result of the focus detection, the first focus adjustment correction amount, and the second focus adjustment correction amount. The imaging device according to.
前記光学素子は、前記撮像光学系からの光束を前記第1の分光状態にある第1の光束と前記第2の分光状態にある第2の光束に分割し、
前記撮像素子として、前記第1の光束により形成される被写体像を撮像する第1の撮像素子と、前記第2の光束により形成される被写体像を撮像する第2の撮像素子とを有し、
前記第1および第2の撮像素子のうち少なくとも一方からの信号を用いた前記焦点検出の結果と、前記第1の分光分布情報と、前記第2の分光分布情報とを用いて、前記第1および第2の撮像素子に対する合焦状態を得るための前記焦点調節制御を行うことを特徴とする請求項1から4のいずれか一項に記載の撮像装置。
The optical element splits the light flux from the imaging optical system into a first light flux in the first spectral state and a second light flux in the second spectral state.
The imaging device includes a first imaging device for capturing a subject image formed by the first light flux, and a second imaging device for capturing a subject image formed by the second light flux,
Using the result of the focus detection using the signal from at least one of the first and second imaging elements, the first spectral distribution information, and the second spectral distribution information, the first The imaging apparatus according to any one of claims 1 to 4, wherein the focusing control is performed to obtain an in-focus state with respect to the second imaging element and the second imaging element.
前記制御手段は、前記撮像光学系に含まれるフォーカス素子を移動させて前記第1の撮像素子に対する合焦状態を得るための前記焦点調節制御を行い、前記第2の撮像素子を移動させて該第2の撮像素子に対する合焦状態を得るための前記焦点調節制御を行うことを特徴とする請求項5に記載の撮像装置。   The control means moves the focusing element included in the imaging optical system to perform the focusing control for obtaining the in-focus state with respect to the first imaging element, and moves the second imaging element to perform the focusing control. The imaging apparatus according to claim 5, wherein the focusing control is performed to obtain a focusing state for the second imaging element. 前記光学素子は、前記撮像光学系からの光路内と光路外に配置することが可能であり、前記光路内に配置されたときに前記第1の分光状態の光束を前記撮像素子に入射させ、前記光路外に配置されたときに前記第2の分光状態の光束を前記撮像素子に入射させることを特徴とする請求項1から4のいずれか一項に記載の撮像装置。   The optical element can be disposed in the optical path from the imaging optical system and outside the optical path, and when disposed in the optical path, causes the light flux in the first spectral state to be incident on the imaging element. The imaging device according to any one of claims 1 to 4, wherein the light beam in the second spectral state is made incident on the imaging device when the light beam is arranged outside the optical path. 撮像光学系からの光束により形成される被写体像を撮像する撮像素子と、前記撮像素子に対して、第1の分光状態の光束と前記第1の分光状態とは異なる第2の分光状態の光束とを入射させることが可能な光学素子とを有し、前記撮像素子からの信号を用いて位相差検出方式の焦点検出を行い、該焦点検出の結果を用いて焦点調節制御を行う撮像装置の焦点調節制御方法であって、
前記第1の分光状態での前記光束の分光分布に関する第1の分光分布情報を取得するステップと、
前記第2の分光状態での前記光束の分光分布に関する第2の分光分布情報を取得するステップと、
前記焦点検出の結果と、前記第1の分光分布情報と、前記第2の分光分布情報とを用いて前記焦点調節制御を行うステップとを有することを特徴とする焦点調節制御方法。
An imaging device for capturing an object image formed by a light beam from an imaging optical system, and a light beam in a first spectroscopic condition and a light beam in a second spectroscopic condition different from the first spectroscopic condition with respect to the imaging device And an optical element capable of making the light incident thereon, wherein focus detection using a phase difference detection method is performed using a signal from the image pickup element, and focus adjustment control is performed using a result of the focus detection. A focusing control method,
Acquiring first spectral distribution information related to the spectral distribution of the light flux in the first spectral state;
Acquiring second spectral distribution information on the spectral distribution of the light flux in the second spectral state;
A focus adjustment control method comprising: performing the focus adjustment control using a result of the focus detection, the first spectral distribution information, and the second spectral distribution information.
撮像装置のコンピュータに、請求項8に記載の焦点調節制御方法に対応する処理を実行させるコンピュータプログラムであることを特徴とする焦点調節制御プログラム。   A focusing control program that is a computer program that causes a computer of an imaging device to execute processing corresponding to the focusing control method according to claim 8.
JP2017200088A 2017-10-16 2017-10-16 Imaging apparatus Pending JP2019074623A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017200088A JP2019074623A (en) 2017-10-16 2017-10-16 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017200088A JP2019074623A (en) 2017-10-16 2017-10-16 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2019074623A true JP2019074623A (en) 2019-05-16

Family

ID=66544716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017200088A Pending JP2019074623A (en) 2017-10-16 2017-10-16 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2019074623A (en)

Similar Documents

Publication Publication Date Title
US8730374B2 (en) Focus detection apparatus
EP2169459B1 (en) Image sensing apparatus, image sensing system and focus detection method
JP5300414B2 (en) Camera and camera system
JP6584149B2 (en) Imaging device
US9160918B2 (en) Focus control apparatus and method for performing focus control by phase difference detection, and image capturing apparatus
JP4826507B2 (en) Focus detection apparatus and imaging apparatus
US7355154B2 (en) Image sensing apparatus with movable light flux splitter and control method thereof
JP2017107204A (en) Information processing apparatus and information processing method
JP2007163545A (en) Imaging apparatus
JP5348258B2 (en) Imaging device
US10630883B2 (en) Image capturing apparatus and focus detection method
JP6529387B2 (en) Imaging device, control method therefor, program, storage medium
JP2011028177A (en) Imaging apparatus
JP6890937B2 (en) Focus detector, image pickup device, and focus detection method
JP7171331B2 (en) Imaging device
JP2019074623A (en) Imaging apparatus
JP6632582B2 (en) Imaging device and control method thereof
JP2022103610A (en) Lens device, image capturing device, method of controlling lens device, and program
JP5610005B2 (en) Imaging device
JP6395790B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND FOCUS CONTROL PROGRAM
JP2019035825A (en) Imaging device
JP2019091067A (en) Lens assembly and control method thereof
JP6671868B2 (en) Control device, imaging device, control method, program, and storage medium
JP2019219577A (en) Detection device and detection method
JP6686191B2 (en) Focus detection device, imaging device, and focus detection method