JP2012113189A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2012113189A
JP2012113189A JP2010263191A JP2010263191A JP2012113189A JP 2012113189 A JP2012113189 A JP 2012113189A JP 2010263191 A JP2010263191 A JP 2010263191A JP 2010263191 A JP2010263191 A JP 2010263191A JP 2012113189 A JP2012113189 A JP 2012113189A
Authority
JP
Japan
Prior art keywords
focus detection
optical system
image
signal
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010263191A
Other languages
Japanese (ja)
Inventor
Yosuke Kusaka
洋介 日下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010263191A priority Critical patent/JP2012113189A/en
Publication of JP2012113189A publication Critical patent/JP2012113189A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Viewfinders (AREA)
  • Cameras In General (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus suitably carrying out exposure control and thus capable of carrying out excellent detection of the focal state of an imaging optical system.SOLUTION: The imaging apparatus includes: focus detection means 25 for detecting the focal state based on a received light signal from a prescribed pixel in imaging elements 22 which are a plurality of pixels arranged two dimensionally; a mirror 21 conducting flux to an observation optical system 24 by reflecting and having one part of the flux transmit in the state of being inserted in an optical path; display means 271 for displaying an imaged image when the mirror 21 is in the detached state from the optical path; and exposure control means 25 for carrying out exposure control so that the signal strength of the received light signal from the pixel used for detection of the focal state is a predetermined threshold or less when the mirror 21 is in the inserted state into the optical path and carrying out exposure control so that the signal strength of the received light signal from the pixel used for display of the imaged image is suitable for displaying the imaged image when the mirror 21 is in the detached state from the optical path.

Description

本発明は、撮像装置に関するものである。   The present invention relates to an imaging apparatus.

従来より、撮影光学系を通過する一対の光束が形成する一対の像に対応した一対の像信号を生成する複数個の焦点検出画素の配列を、撮像画素の配列中に混在させた撮像素子を備え、撮像画素の出力により画像信号を生成するとともに、焦点検出画素が生成する一対の像信号のズレ量に基づいて、撮影光学系の焦点状態を検出する、いわゆる瞳分割位相差検出方式の焦点検出機能を備えた撮像装置が知られている(例えば、特許文献1参照)。なお、このような撮像装置においては、撮像画素の出力に基づいて生成される撮像画像を、撮像装置に備えられた表示装置に、スルー画像として表示させることが一般的に行なわれている。   Conventionally, an imaging device in which an array of a plurality of focus detection pixels that generate a pair of image signals corresponding to a pair of images formed by a pair of light beams passing through a photographing optical system is mixed in the array of imaging pixels is provided. The focus of the so-called pupil division phase difference detection method that detects the focus state of the photographing optical system based on the deviation amount of the pair of image signals generated by the focus detection pixel while generating the image signal by the output of the imaging pixel An imaging device having a detection function is known (for example, see Patent Document 1). Note that in such an imaging apparatus, a captured image generated based on the output of the imaging pixel is generally displayed as a through image on a display device provided in the imaging apparatus.

特開2009−75407号公報JP 2009-75407 A

しかしながら、上記特許文献1では、撮像画素の出力に基づいて生成される撮像画像の表示を適正なものとするために、撮像素子の露光制御を行うものであるため、焦点検出画素の信号強度が不適切になる場合があった。具体的には、撮影画面全体の平均的な露光量が適正なものとなるように、露光制御を行った際に、たとえば、主要被写体が高輝度被写体である場合においては、焦点検出画素の信号強度が飽和してしまう場合があり、そのため、焦点検出が不能となってしまうという問題があった。   However, in the above-mentioned Patent Document 1, since the exposure control of the image sensor is performed in order to properly display the captured image generated based on the output of the imaging pixel, the signal intensity of the focus detection pixel is There were cases where it became inappropriate. Specifically, when exposure control is performed so that the average exposure amount of the entire shooting screen is appropriate, for example, when the main subject is a high-luminance subject, the signal of the focus detection pixel There is a case where the intensity is saturated, which causes a problem that focus detection becomes impossible.

本発明が解決しようとする課題は、露光制御を適切に行ない、これにより撮影光学系の焦点状態の検出を良好に行うことのできる撮像装置を提供することにある。   The problem to be solved by the present invention is to provide an imaging apparatus capable of appropriately performing exposure control and thereby detecting the focus state of the photographing optical system satisfactorily.

本発明は、以下の解決手段によって上記課題を解決する。   The present invention solves the above problems by the following means.

[1]本発明の第一の観点に係る撮像装置は、撮影光学系を介した光束を受光して受光信号を出力する複数の画素を、2次元状に配列してなる撮像素子と、前記撮影光学系による像を視認可能な観察光学系と、前記複数の画素のうち、所定の画素からの受光信号に基づいて、前記撮影光学系の焦点状態を検出する焦点検出手段と、前記撮影光学系と前記撮像素子との間の光路中に挿脱可能に設けられ、前記光路中に挿入された状態において、前記光束を反射して前記観察光学系に導くとともに、前記光束の一部を透過するミラーと、前記ミラーが前記光路から脱離した状態である場合に、前記複数の画素からの受光信号に基づいて、撮影画像を表示する表示手段と、前記ミラーが前記光路に挿入された状態である場合には、前記焦点状態の検出に用いる画素からの受光信号の信号強度が、予め定められた閾値以下となるように、露光制御を行うとともに、前記ミラーが前記光路から脱離した状態である場合には、前記撮影画像の表示に用いる画素からの受光信号の信号強度が、前記撮影画像を表示するのに適したものとなるように、露光制御を行う露光制御手段と、を備えることを特徴とする。   [1] An image pickup apparatus according to a first aspect of the present invention includes an image pickup element in which a plurality of pixels that receive a light beam through a photographing optical system and output a light reception signal are arranged two-dimensionally; An observation optical system capable of visually recognizing an image by the photographing optical system, focus detection means for detecting a focus state of the photographing optical system based on a light reception signal from a predetermined pixel among the plurality of pixels, and the photographing optical In the optical path between the system and the image sensor, the optical path is reflected so that the light beam is reflected and guided to the observation optical system, and a part of the light beam is transmitted. And a display means for displaying a captured image based on light reception signals from the plurality of pixels when the mirror is detached from the optical path, and the mirror is inserted in the optical path The focus state is detected. The exposure control is performed so that the signal intensity of the light reception signal from the pixel to be used is equal to or lower than a predetermined threshold, and when the mirror is detached from the optical path, the captured image is displayed. Exposure control means for performing exposure control so that a signal intensity of a light reception signal from a pixel to be used is suitable for displaying the photographed image.

[2]本発明の第二の観点に係る撮像装置は、撮影光学系を介した光束を受光して受光信号を出力する複数の画素を、2次元状に配列してなる撮像素子と、前記撮影光学系による像を視認可能な観察光学系と、前記複数の画素のうち、所定の画素からの受光信号に基づいて、前記撮影光学系の焦点状態を検出する焦点検出手段と、前記観察光学系への接眼を検知する接眼検知手段と、前記観察光学系への接眼が検知されない場合に、前記複数の画素からの受光信号に基づいて、撮影画像を表示する表示手段と、前記観察光学系への接眼が検知された場合には、前記焦点状態の検出に用いる画素からの受光信号の信号強度が、予め定められた閾値以下となるように、露光制御を行うとともに、前記観察光学系への接眼が検知されない場合には、前記撮影画像の表示に用いる画素からの受光信号の信号強度が、前記撮影画像を表示するのに適したものとなるように、露光制御を行う露光制御手段と、を備えることを特徴とする。   [2] An image pickup apparatus according to a second aspect of the present invention includes an image pickup element in which a plurality of pixels that receive a light beam through a photographing optical system and output a light reception signal are arranged two-dimensionally; An observation optical system capable of visually recognizing an image by the photographing optical system, focus detection means for detecting a focus state of the photographing optical system based on a light reception signal from a predetermined pixel among the plurality of pixels, and the observation optical An eyepiece detecting means for detecting an eyepiece to the system; a display means for displaying a photographed image based on light reception signals from the plurality of pixels when an eyepiece to the observation optical system is not detected; and the observation optical system When the eyepiece is detected, exposure control is performed so that the signal intensity of the light reception signal from the pixel used for the detection of the focus state is equal to or lower than a predetermined threshold value, and the observation optical system is If no eyepiece is detected, the front Signal intensity of the received signal from the pixels used to display the captured image, such that those suitable for displaying the captured image, characterized in that it comprises an exposure control means for performing exposure control.

[3]本発明の第三の観点に係る撮像装置は、撮影光学系を介した光束を受光して受光信号を出力する複数の画素を、2次元状に配列してなる撮像素子と、前記撮影光学系による像を視認可能な観察光学系と、前記複数の画素のうち、所定の画素からの受光信号に基づいて、前記撮影光学系の焦点状態を検出する焦点検出手段と、前記複数の画素からの受光信号に基づいて、撮影画像を表示するための表示手段と、ユーザにより前記観察光学系が使用される場合には、前記焦点状態の検出に用いる画素からの受光信号の信号強度が、予め定められた閾値以下となるように、露光制御を行うとともに、ユーザにより表示手段が使用される場合には、前記撮影画像の表示に用いる画素からの受光信号の信号強度が、前記撮影画像を表示するのに適したものとなるように、露光制御を行う露光制御手段と、を備えることを特徴とする。   [3] An image pickup apparatus according to a third aspect of the present invention includes an image pickup element in which a plurality of pixels that receive a light beam through a photographing optical system and output a light reception signal are two-dimensionally arranged; An observation optical system capable of visually recognizing an image by the photographing optical system, focus detection means for detecting a focus state of the photographing optical system based on a light reception signal from a predetermined pixel among the plurality of pixels, and the plurality of the plurality of pixels When the observation optical system is used by a user and a display unit for displaying a captured image based on a light reception signal from the pixel, the signal intensity of the light reception signal from the pixel used for detection of the focus state is In addition, when exposure control is performed so that the threshold value is equal to or less than a predetermined threshold and the display unit is used by the user, the signal intensity of the light reception signal from the pixel used for displaying the captured image is the captured image. Suitable for displaying So that things, characterized in that it comprises an exposure control means for performing exposure control.

[4]本発明の撮像装置において、前記露光制御手段が、前記ミラーが前記光路から脱離した状態である場合には、露光時間を所定時間以下に設定するように構成することができる。   [4] In the imaging apparatus of the present invention, the exposure control means may be configured to set the exposure time to be equal to or less than a predetermined time when the mirror is in a state of being detached from the optical path.

[5]本発明の撮像装置において、前記露光制御手段が、観察光学系への接眼が検知されない場合には、露光時間を所定時間以下に設定するように構成することができる。   [5] In the image pickup apparatus of the present invention, the exposure control means can be configured to set the exposure time to a predetermined time or less when the eyepiece to the observation optical system is not detected.

[6]本発明の撮像装置において、前記所定時間が、前記表示手段により撮影画像を表示する際における、フレームレートに基づいて決定される時間であるように構成することができる。   [6] In the imaging apparatus of the present invention, the predetermined time may be configured to be a time determined based on a frame rate when a captured image is displayed by the display means.

[7]本発明の撮像装置において、前記撮像素子が、前記撮像光学系による像に対応した画像データを生成するための信号を出力する複数の撮像画素と、撮像面上に設定された複数の焦点検出領域に対応して設けられ、前記撮影光学系の焦点状態を検出するための信号を出力する複数の焦点検出画素とを備え、前記焦点検出手段が、前記複数の焦点検出領域のうち、一または二以上の焦点検出領域を構成する焦点検出画素からの信号に基づいて、前記撮影光学系の焦点状態の検出を行い、前記表示手段が、前記複数の撮像画素からの信号に基づいて、撮影画像の表示を行なうように構成することができる。   [7] In the imaging apparatus of the present invention, the imaging element outputs a plurality of imaging pixels that output a signal for generating image data corresponding to an image obtained by the imaging optical system, and a plurality of imaging pixels set on the imaging surface. A plurality of focus detection pixels provided corresponding to a focus detection region and outputting a signal for detecting a focus state of the photographing optical system, and the focus detection unit includes, among the plurality of focus detection regions, Based on signals from focus detection pixels constituting one or more focus detection areas, the focus state of the imaging optical system is detected, and the display means is based on signals from the plurality of imaging pixels, It can be configured to display a captured image.

[8]本発明の撮像装置において、前記露光制御手段が、前記複数の焦点検出領域のうち、全ての焦点検出領域を構成する焦点検出画素からの信号の信号強度が、前記閾値以下となるように、露光制御を行うように構成することができる。   [8] In the imaging apparatus of the present invention, the exposure control means may be configured such that signal intensity of signals from focus detection pixels constituting all focus detection areas of the plurality of focus detection areas is equal to or less than the threshold value. Further, it can be configured to perform exposure control.

[9]本発明の撮像装置において、前記焦点検出画素が、前記撮像光学系の一対の瞳領域を通過する一対の光束を受光する光電変換部と、前記光電変換部に対応して設けられたマイクロレンズとを備え、前記焦点検出手段が、前記焦点検出画素からの信号に基づいて、前記一対の光束により形成される一対の像の像ズレ量を算出することで、前記撮影光学系の焦点状態の検出を行うように構成することができる。   [9] In the imaging apparatus of the present invention, the focus detection pixel is provided corresponding to the photoelectric conversion unit that receives a pair of light beams that pass through a pair of pupil regions of the imaging optical system, and the photoelectric conversion unit. And the focus detection unit calculates an image shift amount of the pair of images formed by the pair of light beams on the basis of a signal from the focus detection pixel, so that the focus of the photographing optical system is calculated. It can be configured to perform state detection.

[10]本発明の撮像装置において、前記焦点検出画素から出力される信号を、時系列順に複数記憶する記憶手段を備え、前記焦点検出手段が、前記焦点検出画素から出力された信号と、前記記憶手段に記憶された信号とを積算し、積算した信号に基づいて、前記撮影光学系の焦点状態の検出を行うように構成することができる。   [10] In the imaging apparatus of the present invention, the image pickup apparatus includes a storage unit that stores a plurality of signals output from the focus detection pixels in time series, and the focus detection unit includes the signals output from the focus detection pixels, The signal stored in the storage means can be integrated, and the focus state of the photographing optical system can be detected based on the integrated signal.

本発明の撮像装置によれば、露光制御を適切に行なうことができ、これにより撮影光学系の焦点状態を良好に検出することができる。   According to the image pickup apparatus of the present invention, exposure control can be performed appropriately, whereby the focus state of the photographing optical system can be detected well.

図1は、本発明の実施形態に係る一眼レフデジタルカメラを示す要部構成図である。FIG. 1 is a main part configuration diagram showing a single-lens reflex digital camera according to an embodiment of the present invention. 図2は、図1に示す撮像素子の撮像面における焦点検出位置を示す正面図である。FIG. 2 is a front view showing a focus detection position on the imaging surface of the imaging device shown in FIG. 図3は、図2のIII部を拡大して焦点検出画素の配列を模式的に示す正面図である。FIG. 3 is a front view schematically showing an array of focus detection pixels by enlarging a part III in FIG. 図4Aは、図3の撮像画素の一つを拡大して示す正面図である。FIG. 4A is an enlarged front view showing one of the imaging pixels of FIG. 図4Bは、図3の焦点検出画素の一つを拡大して示す正面図である。4B is an enlarged front view showing one of the focus detection pixels in FIG. 3. 図5は、図3に示す3つの撮像画素RGBそれぞれの波長に対する相対感度を示す分光感度特性図である。FIG. 5 is a spectral sensitivity characteristic diagram showing the relative sensitivity with respect to the wavelength of each of the three imaging pixels RGB shown in FIG. 図6は、図3に示す焦点検出画素222の波長に対する相対感度を示す分光感度特性図である。FIG. 6 is a spectral sensitivity characteristic diagram showing the relative sensitivity with respect to the wavelength of the focus detection pixel 222 shown in FIG. 図7Aは、図4AのVIIa−VIIa線に沿う断面図である。7A is a cross-sectional view taken along line VIIa-VIIa in FIG. 4A. 図7Bは、図4BのVIIb−VIIb線に沿う断面図である。7B is a cross-sectional view taken along line VIIb-VIIb in FIG. 4B. 図8は、図3のVIII-VIII線に沿う断面図である。8 is a cross-sectional view taken along line VIII-VIII in FIG. 図9は、本発明の他の実施形態に係る画素の配列を模式的に示す正面図であり、図2のIII部に相当する拡大正面図である。FIG. 9 is a front view schematically showing an arrangement of pixels according to another embodiment of the present invention, and is an enlarged front view corresponding to a portion III in FIG. 図10は、図9の一対の焦点検出画素を拡大して示す正面図である。FIG. 10 is an enlarged front view showing the pair of focus detection pixels in FIG. 図11は、本発明の実施形態に係るカメラの動作例を示すフローチャート(その1)である。FIG. 11 is a flowchart (part 1) illustrating an operation example of the camera according to the embodiment of the present invention. 図12は、本発明の実施形態に係るカメラの動作例を示すフローチャート(その2)である。FIG. 12 is a flowchart (part 2) illustrating an operation example of the camera according to the embodiment of the present invention. 図13は、本発明の実施形態が適用される一場面例を示す図である。FIG. 13 is a diagram showing an example of a scene to which the embodiment of the present invention is applied. 図14(A)〜図14(C)は、図13に示す場面例における、各焦点検出エリアを構成する焦点検出画素の並び方向の位置と、焦点検出画素の信号強度との関係を示すグラフである。FIGS. 14A to 14C are graphs showing the relationship between the position of the focus detection pixels constituting the focus detection areas and the signal intensity of the focus detection pixels in the scene example shown in FIG. It is. 図15(A)〜図15(C)は、図14(A)〜図14(C)において、焦点検出エリアを構成する焦点検出画素の信号強度が飽和しないように、撮像素子の露光条件の設定した場合におる焦点検出画素の信号強度を示すグラフである。15A to 15C show the exposure conditions of the image sensor so that the signal intensity of the focus detection pixels constituting the focus detection area is not saturated in FIGS. 14A to 14C. It is a graph which shows the signal strength of the focus detection pixel in the case of setting. 図16は、本発明の実施形態における、焦点検出画素の像信号の保存処理を説明するための図である。FIG. 16 is a diagram for explaining the storage processing of the image signal of the focus detection pixel in the embodiment of the present invention. 図17(A)〜図17(C)は、図15(A)〜図15(C)において、信号強度の積算処理を行なった場合における焦点検出画素の信号強度を示すグラフである。FIGS. 17A to 17C are graphs showing the signal intensity of the focus detection pixels when the signal intensity integration process is performed in FIGS. 15A to 15C. 図18は、本発明の実施形態に係るカメラの焦点検出演算(デフォーカス量演算)手順を説明するためのグラフである。FIG. 18 is a graph for explaining the focus detection calculation (defocus amount calculation) procedure of the camera according to the embodiment of the present invention.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施形態に係る一眼レフデジタルカメラ1を示す要部構成図である。本実施形態の一眼レフデジタルカメラ1(以下、単にカメラ1という。)は、カメラ本体2とレンズ鏡筒3から構成され、これらカメラ本体2とレンズ鏡筒3はマウント部4により着脱可能に結合されている。   FIG. 1 is a main part configuration diagram showing a single-lens reflex digital camera 1 according to an embodiment of the present invention. The single-lens reflex digital camera 1 (hereinafter simply referred to as the camera 1) of the present embodiment includes a camera body 2 and a lens barrel 3, and the camera body 2 and the lens barrel 3 are detachably coupled by a mount unit 4. Has been.

レンズ鏡筒3には、レンズ311、絞り312、ズームレンズ313、フォーカスレンズ314を含む撮影光学系31が内蔵されている。フォーカスレンズ314は、レンズ鏡筒3の光束L1の光軸に沿って移動可能に設けられ、フォーカスレンズ駆動モータ35によってその位置が調節される。なお、フォーカスレンズ駆動モータ35は、後述するカメラ制御CPU25から出力され、レンズ制御CPU32を介してフォーカスレンズ駆動モータ35に入力される指令信号に基づいて駆動する。   The lens barrel 3 includes a photographic optical system 31 including a lens 311, a diaphragm 312, a zoom lens 313, and a focus lens 314. The focus lens 314 is provided to be movable along the optical axis of the light beam L1 of the lens barrel 3, and its position is adjusted by the focus lens drive motor 35. The focus lens drive motor 35 is driven based on a command signal output from a camera control CPU 25 described later and input to the focus lens drive motor 35 via the lens control CPU 32.

カメラ本体2は、被写体からの光束L1を撮像素子22および光学ファインダ(観察光学系)24へ導くためのハーフミラー21を備えている。このハーフミラー21は、回転軸Oを中心にして被写体の観察位置と撮影位置との間を回転する。図1では、ハーフミラー21が被写体の観察位置にある状態を実線で示し、被写体の撮影位置にある状態を点線で示す。ハーフミラー21は、被写体の観察位置にある状態では光束L1の光路上に挿入される一方で、被写体の撮影位置にある状態では光束L1の光路から退避するように回転する。したがって、以下の説明においてはハーフミラー21が観察位置にある状態を挿入位置とも言い、撮影位置にある状態を退避位置ともいう。   The camera body 2 includes a half mirror 21 for guiding the light beam L 1 from the subject to the image sensor 22 and the optical finder (observation optical system) 24. The half mirror 21 rotates about the rotation axis O between the observation position and the photographing position of the subject. In FIG. 1, a state where the half mirror 21 is at the observation position of the subject is indicated by a solid line, and a state where the half mirror 21 is at the photographing position of the subject is indicated by a dotted line. The half mirror 21 is inserted on the optical path of the light beam L1 in the state where the subject is in the observation position, and rotates so as to be retracted from the optical path of the light beam L1 in the state where the subject is in the photographing position. Therefore, in the following description, the state where the half mirror 21 is in the observation position is also referred to as an insertion position, and the state where it is in the photographing position is also referred to as a retraction position.

ハーフミラー21は、たとえば1mm程度の平行平面ガラスにより構成され、被写体側の主面に光束の半透過性を付与する多層膜が形成されている。そして、被写体の観察位置にある状態では、被写体からの光束L1の一部の光束L2を当該ハーフミラー21で反射して光学ファインダ24へ導き、残りの光束L3を透過させて撮像素子22へ導く。   The half mirror 21 is made of, for example, parallel plane glass of about 1 mm, and a multilayer film that imparts semi-transmission of light flux is formed on the main surface on the subject side. In a state where the subject is at the observation position, a part of the light beam L2 from the subject is reflected by the half mirror 21 and guided to the optical viewfinder 24, and the remaining light beam L3 is transmitted and guided to the image sensor 22. .

したがって、ハーフミラー21が観察位置にある場合、被写体からの光束L1は光学ファインダ24と撮像素子22に導かれ、接眼レンズ243を介して、使用者により被写体が観察されるとともに、フォーカスレンズ314の焦点調節状態の検出が行われる。この状態から、使用者が操作部28に備えられたレリーズボタンを押すとハーフミラー21が撮影位置に回転し、被写体からの光束L1は全て撮像素子22へ導かれ、撮影した画像データをメモリ26に保存する。   Therefore, when the half mirror 21 is at the observation position, the light beam L1 from the subject is guided to the optical finder 24 and the image sensor 22, and the subject is observed by the user via the eyepiece 243, and the focus lens 314 The focus adjustment state is detected. From this state, when the user presses the release button provided in the operation unit 28, the half mirror 21 is rotated to the photographing position, and all the luminous flux L1 from the subject is guided to the image sensor 22, and the photographed image data is stored in the memory 26. Save to.

光学ファインダ24は、スクリーン241とペンタプリズム242と接眼レンズ243を備えている。スクリーン241は、ハーフミラー21が観察位置にある状態において、撮像素子22の撮像面と共役な面に配置されている。これにより、使用者は、スクリーン241上に形成された像をペンタプリズム242と接眼レンズ243を介して観察することができる。   The optical viewfinder 24 includes a screen 241, a pentaprism 242, and an eyepiece lens 243. The screen 241 is disposed on a plane conjugate with the imaging surface of the imaging element 22 in a state where the half mirror 21 is at the observation position. As a result, the user can observe the image formed on the screen 241 through the pentaprism 242 and the eyepiece lens 243.

カメラ本体2にはカメラ制御CPU25が設けられている。カメラ制御CPU25は、マウント部4に設けられた電気信号接点部41によりレンズ制御CPU32と電気的に接続され、このレンズ制御CPU32からレンズ情報を受信するとともに、レンズ制御CPU32へデフォーカス量などのカメラボディ情報を送信する。また、カメラ制御CPU25は、撮像素子22から画像信号を読み出すとともに、所定の情報処理を施して液晶ディスプレイ27やメモリ26に出力する。また、カメラ制御CPU25は、画像信号の補正や交換レンズ3の焦点調節状態、絞り調節状態などを検出するなど、カメラ全体の制御を司る。   The camera body 2 is provided with a camera control CPU 25. The camera control CPU 25 is electrically connected to the lens control CPU 32 through an electrical signal contact 41 provided in the mount unit 4, receives lens information from the lens control CPU 32, and receives a camera such as a defocus amount to the lens control CPU 32. Send body information. In addition, the camera control CPU 25 reads an image signal from the image sensor 22, performs predetermined information processing, and outputs it to the liquid crystal display 27 and the memory 26. The camera control CPU 25 controls the entire camera, such as correction of the image signal, detection of the focus adjustment state, aperture adjustment state, and the like of the interchangeable lens 3.

液晶ディスプレイ27は、たとえばカメラ本体の背面に設けられた背面液晶表示素子271と、これを駆動する駆動回路272とを備え、カメラ制御CPU25から送出された画像信号を駆動回路272で受信し、この画像信号に応じた駆動信号を背面液晶表示素子271へ送出することで撮影画像を表示する。
なお、メモリ26は着脱可能なカード型メモリや内蔵型メモリの何れをも用いることができる。
The liquid crystal display 27 includes, for example, a rear liquid crystal display element 271 provided on the rear surface of the camera body and a drive circuit 272 for driving the element. The drive circuit 272 receives an image signal sent from the camera control CPU 25, and A drive signal corresponding to the image signal is sent to the rear liquid crystal display element 271 to display the captured image.
The memory 26 can be either a removable card type memory or a built-in memory.

操作部28は、カメラ1を起動させるための主電源スイッチや、シャッターレリーズボタン、ズームレンズ313のズーム動作を行なうためのズームスイッチ、さらには、撮影者がカメラ1の各種動作モードを設定するための入力スイッチや、観察モード切替スイッチなどを備えている。観察モード切替スイッチは、被写体の観察モードを切替えるためのスイッチであり、観察モード切替スイッチを操作することにより、被写体像の観察に光学ファインダ24を使用する光学ファインダモードと、被写体像の観察に背面液晶表示素子271を使用する背面液晶モードと、を切替えることが可能となっている。背面液晶モードにおいては、ハーフミラー21が退避位置とされ、撮像素子22からの画像信号が、カメラ制御CPU25を介して、駆動回路272および背面液晶表示素子271に送信され、送信された画像信号に基づく撮影画像を、背面液晶表示素子271に表示することにより、背面液晶表示素子271を使用して被写体像の観察を可能とする。一方、光学ファインダモードにおいては、ハーフミラー21が挿入位置とされ、光学ファインダ24を使用して被写体像の観察を行なうためのモードであるため、このような背面液晶表示素子271による撮影画像の表示は行なわない。   The operation unit 28 is a main power switch for activating the camera 1, a shutter release button, a zoom switch for performing a zoom operation of the zoom lens 313, and a photographer for setting various operation modes of the camera 1. Input switch and observation mode selector switch. The observation mode switching switch is a switch for switching the observation mode of the subject. By operating the observation mode switching switch, an optical finder mode that uses the optical finder 24 for observing the subject image, and a rear surface for observing the subject image. It is possible to switch between the rear liquid crystal mode using the liquid crystal display element 271. In the rear liquid crystal mode, the half mirror 21 is in the retracted position, and the image signal from the image sensor 22 is transmitted to the drive circuit 272 and the rear liquid crystal display element 271 via the camera control CPU 25, and the transmitted image signal is converted into the transmitted image signal. By displaying the captured image based on the rear liquid crystal display element 271, it is possible to observe the subject image using the rear liquid crystal display element 271. On the other hand, in the optical finder mode, the half mirror 21 is set to the insertion position and the subject image is observed using the optical finder 24. Therefore, the photographed image is displayed by the rear liquid crystal display element 271. Does not.

次に、本実施形態に係る撮像素子22について説明する。   Next, the image sensor 22 according to the present embodiment will be described.

図2は、撮像素子22の撮像面における焦点検出位置を示す正面図、図3は、図2のIII部を拡大して焦点検出画素222の配列を模式的に示す正面図である。なお、撮像素子22は、たとえば、CCDイメージセンサやCMOSイメージセンサ等で構成される。   FIG. 2 is a front view showing the focus detection position on the imaging surface of the image sensor 22, and FIG. 3 is a front view schematically showing the arrangement of the focus detection pixels 222 by enlarging the III part of FIG. Note that the image sensor 22 is configured by, for example, a CCD image sensor, a CMOS image sensor, or the like.

本実施形態の撮像素子22は、複数の撮像画素221が、撮像面の平面上に二次元的に配列され、緑色の波長領域を透過するカラーフィルタを有する緑画素Gと、赤色の波長領域を透過するカラーフィルタを有する赤画素Rと、青色の波長領域を透過するカラーフィルタを有する青画素Bがいわゆるベイヤー配列(Bayer Arrangement)されたものである。すなわち、隣接する4つの画素群223(稠密正方格子配列)において一方の対角線上に2つの緑画素が配列され、他方の対角線上に赤画素と青画素が1つずつ配列されている。このベイヤー配列された画素群223を単位として、当該画素群223を撮像素子22の撮像面に二次元状に繰り返し配列することで撮像素子22が構成されている。   In the imaging device 22 of the present embodiment, a plurality of imaging pixels 221 are two-dimensionally arranged on the plane of the imaging surface, and a green pixel G having a color filter that transmits a green wavelength region, and a red wavelength region. A red pixel R having a transmissive color filter and a blue pixel B having a color filter that transmits a blue wavelength region are arranged in a so-called Bayer Arrangement. That is, in four adjacent pixel groups 223 (dense square lattice arrangement), two green pixels are arranged on one diagonal line, and one red pixel and one blue pixel are arranged on the other diagonal line. The image sensor 22 is configured by repeatedly arranging the pixel group 223 on the imaging surface of the image sensor 22 in a two-dimensional manner with the Bayer array pixel group 223 as a unit.

なお、単位画素群223の配列は、図示する稠密正方格子配列以外にも、たとえば稠密六方格子配列にすることもできる。また、カラーフィルタの構成や配列はこれに限定されることはなく、補色フィルタ(緑:G、イエロー:Ye、マゼンタ:Mg,シアン:Cy)の配列を採用することもできる。   The unit pixel group 223 may be arranged in a dense hexagonal lattice arrangement other than the dense square lattice arrangement shown in the figure. Further, the configuration and arrangement of the color filters are not limited to this, and an arrangement of complementary color filters (green: G, yellow: Ye, magenta: Mg, cyan: Cy) can also be adopted.

図4Aは、撮像画素221の一つを拡大して示す正面図、図7Aは図4AのVIIa−VIIa線に沿う断面図である。一つの撮像画素221は、マイクロレンズ2211と、光電変換部2212と、図示しないカラーフィルタから構成され、図7Aの断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2212が造り込まれ、その表面にマイクロレンズ2211が形成されている。光電変換部2212は、マイクロレンズ2211により撮影光学系31の射出瞳(たとえばF1.0)を通過する撮像光束を受光する形状とされ、撮像光束IBを受光する。   4A is an enlarged front view showing one of the imaging pixels 221, and FIG. 7A is a cross-sectional view taken along the line VIIa-VIIa in FIG. 4A. One imaging pixel 221 includes a microlens 2211, a photoelectric conversion unit 2212, and a color filter (not shown). As shown in the cross-sectional view of FIG. 7A, the photoelectric conversion unit is formed on the surface of the semiconductor circuit substrate 2213 of the imaging element 22. 2212 is built in and a microlens 2211 is formed on the surface. The photoelectric conversion unit 2212 is configured to receive an imaging light beam passing through an exit pupil (for example, F1.0) of the imaging optical system 31 by the micro lens 2211 and receives the imaging light beam IB.

なお、本実施形態のカラーフィルタはマイクロレンズ2211と光電変換部2212との間に設けられ、緑画素Gと赤画素Rと青画素Bのそれぞれのカラーフィルタの分光感度は、たとえば図5に示すとおりとされている。   The color filter of this embodiment is provided between the microlens 2211 and the photoelectric conversion unit 2212. The spectral sensitivities of the color filters of the green pixel G, the red pixel R, and the blue pixel B are shown in FIG. It is said to be as follows.

図2および図3に戻り、撮像素子22の撮像面の中心および中心から左右対称位置の3箇所には、上述した撮像画素221に代えて焦点検出画素222が配列された焦点検出画素列22a,22b,22cが設けられている。図3に示すように、一つの焦点検出画素列は、複数の焦点検出画素222が横一列に配列されて構成されており、これらが1つの焦点検出エリアを形成する(以下、適宜、焦点検出画素列22a,22b,22cを、焦点検出エリア22a,22b,22cとする。)。本例の焦点検出画素222は、ベイヤー配列された撮像画素221の緑画素Gと青画素Bの位置にギャップを設けることなく密に配列されている。   2 and 3, focus detection pixel rows 22a, in which focus detection pixels 222 are arranged in place of the above-described imaging pixels 221 at three positions that are symmetrical to the center of the imaging surface of the imaging element 22 and from the center. 22b and 22c are provided. As shown in FIG. 3, one focus detection pixel row is configured by arranging a plurality of focus detection pixels 222 in a horizontal row, and these form one focus detection area (hereinafter, focus detection is appropriately performed). Pixel rows 22a, 22b, and 22c are designated as focus detection areas 22a, 22b, and 22c). The focus detection pixels 222 of this example are densely arranged without providing a gap at the positions of the green pixels G and blue pixels B of the image pickup pixels 221 arranged in the Bayer array.

なお、図2に示す焦点検出画素列22a,22b,22cの位置、すなわち、焦点検出エリア22a,22b,22cの位置は図示する位置にのみ限定されず、何れか一箇所又は二箇所にすることもでき、また、撮像素子22の中心から上下対称の位置に配置することもできる。   Note that the positions of the focus detection pixel rows 22a, 22b, and 22c shown in FIG. 2, that is, the positions of the focus detection areas 22a, 22b, and 22c are not limited to the positions shown in the figure, and may be either one or two. It is also possible to arrange the image sensor 22 at a symmetrical position from the center of the image sensor 22.

図4Bは、焦点検出画素222の一つを拡大して示す正面図、図7Bは図4BのVIIb−VIIb線に沿う断面図である。焦点検出画素222は、図4Bに示すように、マイクロレンズ2221と、一対の光電変換部2222,2223から構成され、図7Bの断面図に示すように、撮像素子22の半導体回路基板2213の表面に光電変換部2222,2223が造り込まれ、その表面にマイクロレンズ2221が形成されている。一対の光電変換部2222,2223は同じ大きさで、かつマイクロレンズ2221の光軸に対して左右対称に配置されている。この光電変換部2222,2223は、マイクロレンズ2221により撮影光学系31の特定の射出瞳(たとえばF2.8)を通過する一対の光束を受光する形状とされている。すなわち、図7Bに示すように、焦点検出画素222の一方の光電変換部2222は一方の光束AB1を受光する一方で、焦点検出画素222の他方の光電変換部2223は、マイクロレンズ2221の光軸に対して光束AB1と対称となる光束AB2を受光する。   4B is an enlarged front view showing one of the focus detection pixels 222, and FIG. 7B is a cross-sectional view taken along line VIIb-VIIb in FIG. 4B. As shown in FIG. 4B, the focus detection pixel 222 includes a micro lens 2221 and a pair of photoelectric conversion units 2222 and 2223. As shown in the cross-sectional view of FIG. 7B, the surface of the semiconductor circuit substrate 2213 of the imaging element 22 is formed. The photoelectric conversion parts 2222 and 2223 are built in, and the micro lens 2221 is formed on the surface thereof. The pair of photoelectric conversion units 2222 and 2223 have the same size and are arranged symmetrically with respect to the optical axis of the microlens 2221. The photoelectric conversion units 2222 and 2223 are configured to receive a pair of light beams that pass through a specific exit pupil (for example, F2.8) of the photographing optical system 31 by the micro lens 2221. That is, as shown in FIG. 7B, one photoelectric conversion unit 2222 of the focus detection pixel 222 receives one light beam AB1, while the other photoelectric conversion unit 2223 of the focus detection pixel 222 is an optical axis of the micro lens 2221. In contrast, a light beam AB2 that is symmetrical with the light beam AB1 is received.

なお、焦点検出画素222にはカラーフィルタは設けられておらず、その分光特性は、光電変換を行うフォトダイオードの分光特性と、図示しない赤外カットフィルタの分光特性を総合したものとなっている。図6に焦点検出画素222の分光感度特性を示すが、相対感度は、図5に示す撮像画素221の青画素B、緑画素Gおよび赤画素Rの各感度を加算したような分光感度特性とされ、また感度が現れる光波長領域は、図5に示す撮像画素221の青画素B、緑画素Gおよび赤画素Rの感度の光波長領域を包摂した領域となっている。ただし、撮像画素221と同じカラーフィルタのうちの一つ、たとえば緑フィルタを備えるように構成することもできる。   Note that the focus detection pixel 222 is not provided with a color filter, and its spectral characteristics are a combination of the spectral characteristics of a photodiode that performs photoelectric conversion and the spectral characteristics of an infrared cut filter (not shown). . FIG. 6 shows the spectral sensitivity characteristics of the focus detection pixel 222. The relative sensitivity is a spectral sensitivity characteristic obtained by adding the sensitivity of the blue pixel B, the green pixel G, and the red pixel R of the imaging pixel 221 shown in FIG. In addition, the light wavelength region where the sensitivity appears is a region including the light wavelength regions of the sensitivity of the blue pixel B, the green pixel G, and the red pixel R of the imaging pixel 221 shown in FIG. However, it may be configured to include one of the same color filters as the imaging pixel 221, for example, a green filter.

また、図4Bに示す焦点検出画素222の光電変換部2222,2223は半円形状としたが、光電変換部2222,2223の形状はこれに限定されず、他の形状、たとえば、楕円形状、矩形状、多角形状にすることもできる。   In addition, although the photoelectric conversion units 2222 and 2223 of the focus detection pixel 222 illustrated in FIG. 4B have a semicircular shape, the shape of the photoelectric conversion units 2222 and 2223 is not limited to this, and other shapes such as an elliptical shape, a rectangular shape, and the like. It can also be a shape or a polygonal shape.

ここで、上述した焦点検出画素222の出力に基づいて焦点を調節する、いわゆる瞳分割位相差検出方式について説明する。   Here, a so-called pupil division phase difference detection method for adjusting the focus based on the output of the focus detection pixel 222 described above will be described.

図8は、図3のVIII-VIII線に沿う断面図であり、撮影光軸L上に配置された焦点検出画素222−1と、これに隣接する焦点検出画素222−2が、射出瞳34の測距瞳341,342から照射される光束AB1−1,AB2−1,AB2−1,AB2−2を受光することを示す。ただし、その他の焦点検出画素についても、一対の光電変換部は一対の測距瞳341,342から照射される一対の光束を受光する。   FIG. 8 is a cross-sectional view taken along the line VIII-VIII in FIG. 3, and the focus detection pixel 222-1 disposed on the photographing optical axis L and the focus detection pixel 222-2 adjacent thereto are formed by the exit pupil 34. The light beams AB1-1, AB2-1, AB2-1, AB2-2 irradiated from the distance measuring pupils 341, 342 are received. However, for other focus detection pixels, the pair of photoelectric conversion units receive a pair of light beams emitted from the pair of distance measurement pupils 341 and 342.

ここで、射出瞳34とは、交換レンズ3の予定焦点面に配置された焦点検出画素222のマイクロレンズ2221の前方Dの位置に設定された像である。距離Dは、マイクロレンズの曲率、屈折率、マイクロレンズと光電変換部との距離などに応じて一義的に決まる値であって、この距離Dを測距瞳距離と称する。また、測距瞳341,342とは、焦点検出画素222のマイクロレンズ2221により投影された光電変換部2222,2223の像をいう。   Here, the exit pupil 34 is an image set at a position D in front of the microlens 2221 of the focus detection pixel 222 disposed on the planned focal plane of the interchangeable lens 3. The distance D is a value uniquely determined according to the curvature and refractive index of the microlens, the distance between the microlens and the photoelectric conversion unit, and the distance D is referred to as a distance measurement pupil distance. The distance measurement pupils 341 and 342 are images of the photoelectric conversion units 2222 and 2223 projected by the micro lens 2221 of the focus detection pixel 222.

なお、同図において焦点検出画素222−1,222−2の配列方向は一対の測距瞳341,342の並び方向と一致している。   In the figure, the arrangement direction of the focus detection pixels 222-1 and 222-2 is coincident with the arrangement direction of the pair of distance measurement pupils 341 and 342.

焦点検出画素222のマイクロレンズ2221−1,2221−2は、交換レンズ3の予定焦点面近傍に配置されており、光軸L上に配置されたマイクロレンズ2221−1により、その背後に配置された一対の光電変換部2222−1,2223−1の形状が測距瞳距離Dだけ離れた射出瞳34上に投影され、その投影形状は測距瞳341,342を形成する。   The micro lenses 2221-1 and 221-2 of the focus detection pixel 222 are disposed in the vicinity of the planned focal plane of the interchangeable lens 3, and are disposed behind the micro lenses 2221-1 disposed on the optical axis L. The shape of the pair of photoelectric conversion units 2222-1 and 22223-1 is projected on the exit pupil 34 separated by the distance measuring pupil distance D, and the projected shape forms the distance measuring pupils 341 and 342.

同様に、光軸L上から離間して配置されたマイクロレンズ2221−2により、その背後に配置された一対の光電変換部2222−2,2223−2の形状が測距瞳距離Dだけ離れた射出瞳34上に投影され、その投影形状は測距瞳341,342を形成する。   Similarly, the shape of the pair of photoelectric conversion units 2222-2 and 2223-2 arranged behind the microlens 2221-2 arranged away from the optical axis L is separated by the distance measuring pupil distance D. Projected onto the exit pupil 34, the projection shape forms distance measuring pupils 341 and 342.

すなわち、測距瞳距離Dにある射出瞳34上で、各焦点検出画素222の光電変換部2222,2223の投影形状(測距瞳341,342)が一致するように各画素222の投影方向が決定されている。   That is, on the exit pupil 34 at the distance measurement pupil distance D, the projection direction of each pixel 222 is set so that the projection shapes (distance detection pupils 341 and 342) of the photoelectric conversion units 2222 and 2223 of the focus detection pixels 222 match. It has been decided.

なお、焦点検出画素222−1の光電変換部2222−1は、一方の測距瞳341を通過しマイクロレンズ2221−1に向かう一方の焦点検出光束AB1−1により、マイクロレンズ2221−1上に形成される像の強度に対応した信号を出力する。これに対して、光電変換部2223−1は、他方の測距瞳342を通過しマイクロレンズ2221−1に向かう他方の焦点検出光束AB2−1により、マイクロレンズ2221−1上に形成される像の強度に対応した信号を出力する。   Note that the photoelectric conversion unit 2222-1 of the focus detection pixel 222-1 is placed on the microlens 2222-1 by one focus detection light beam AB1-1 that passes through one distance measuring pupil 341 and travels toward the microlens 2222-1. A signal corresponding to the intensity of the formed image is output. In contrast, the photoelectric conversion unit 2223-1 has an image formed on the microlens 2221-1 by the other focus detection light beam AB2-1 that passes through the other distance measuring pupil 342 and travels toward the microlens 2222-1. A signal corresponding to the intensity of the signal is output.

同様に、焦点検出画素222−2の光電変換部2222−2は、一方の測距瞳341を通過しマイクロレンズ2221−2に向かう一方の焦点検出光束AB1−2により、マイクロレンズ2221−2上に形成される像の強度に対応した信号を出力する。これに対して、光電変換部2223−2は、他方の測距瞳342を通過しマイクロレンズ2221−2に向かう他方の焦点検出光束AB2−2により、マイクロレンズ2221−2上に形成される像の強度に対応した信号を出力する。   Similarly, the photoelectric conversion unit 2222-2 of the focus detection pixel 222-2 passes through one distance measuring pupil 341 and is focused on the microlens 2221-2 by one focus detection light beam AB1-2 that goes to the microlens 2221-2. A signal corresponding to the intensity of the image formed is output. On the other hand, the photoelectric conversion unit 2223-2 is an image formed on the microlens 221-2 by the other focus detection light beam AB <b> 2-2 passing through the other distance measuring pupil 342 and traveling toward the microlens 221-2. A signal corresponding to the intensity of the signal is output.

以上の焦点検出画素222を、図3に示すように直線状に複数配置し、各焦点検出画素222の一対の光電変換部2222,2223の出力を、測距瞳341と測距瞳342のそれぞれに対応した出力グループにまとめることにより、測距瞳341と測距瞳342のそれぞれを通過する焦点検出光束AB1,AB2が焦点検出画素列上に形成する一対の像の強度分布に関するデータが得られる。この強度分布データに対し、相関演算処理又は位相差検出処理などの像ズレ検出演算処理を施すことにより、いわゆる瞳分割位相差検出方式による像ズレ量を検出することができる。   A plurality of the focus detection pixels 222 are arranged in a straight line as shown in FIG. 3, and the outputs of the pair of photoelectric conversion units 2222 and 2223 of each focus detection pixel 222 are respectively output from the distance measurement pupil 341 and the distance measurement pupil 342. Are collected into output groups corresponding to the data, the data on the intensity distribution of a pair of images formed on the focus detection pixel array by the focus detection light beams AB1 and AB2 passing through the distance measurement pupil 341 and the distance measurement pupil 342, respectively, is obtained. . By applying an image shift detection calculation process such as a correlation calculation process or a phase difference detection process to the intensity distribution data, an image shift amount by a so-called pupil division phase difference detection method can be detected.

そして、得られた像ズレ量に一対の測距瞳の重心間隔に応じた変換演算を施すことにより、予定焦点面に対する現在の焦点面(予定焦点面上のマイクロレンズアレイの位置に対応した焦点検出位置における焦点面をいう。)の偏差、すなわちデフォーカス量を求めることができる。   Then, a conversion calculation is performed on the obtained image shift amount according to the center-of-gravity interval of the pair of distance measuring pupils, thereby obtaining a current focal plane with respect to the planned focal plane (the focal point corresponding to the position of the microlens array on the planned focal plane) The deviation of the focal plane at the detection position, that is, the defocus amount can be obtained.

ちなみに、図3および図4Bに示す本実施形態の焦点検出画素222に代えて、図9および図10に示す焦点検出画素222a,222bを用いることもできる。図9は、本発明の他の実施形態に係る画素の配列を模式的に示す正面図であり、図2のIII部に相当する拡大正面図、図10は、図9の一対の焦点検出画素を拡大して示す正面図である。   Incidentally, focus detection pixels 222a and 222b shown in FIGS. 9 and 10 can be used in place of the focus detection pixels 222 of the present embodiment shown in FIGS. 3 and 4B. FIG. 9 is a front view schematically showing an arrangement of pixels according to another embodiment of the present invention, an enlarged front view corresponding to the III part of FIG. 2, and FIG. 10 is a pair of focus detection pixels of FIG. It is a front view which expands and shows.

図3および図4Bに示す実施形態では、焦点検出画素222として一つの画素に一対の光電変換部2222,2223を有するものを用いたのに対し、図9および図10に示す実施形態では一対の焦点検出画素222a,222bのそれぞれに対をなす光電変換部2224,2225を有するものを用いる。   In the embodiment shown in FIG. 3 and FIG. 4B, the focus detection pixel 222 has a pair of photoelectric conversion units 2222 and 2223, whereas in the embodiment shown in FIG. 9 and FIG. A pixel having photoelectric conversion units 2224 and 2225 paired with the focus detection pixels 222a and 222b is used.

図10に示す焦点検出画素222aは、マイクロレンズ2221と、光電変換部2224から構成され、図7Bに示す断面図と同様に、撮像素子22の半導体回路基板2213の表面に光電変換部2224が造り込まれ、その表面にマイクロレンズ2221が形成されている。光電変換部2224はマイクロレンズ2221の光軸に対して左右対称の位置のうちの左側に配置されている。   A focus detection pixel 222a illustrated in FIG. 10 includes a microlens 2221 and a photoelectric conversion unit 2224, and the photoelectric conversion unit 2224 is formed on the surface of the semiconductor circuit substrate 2213 of the image sensor 22 as in the cross-sectional view illustrated in FIG. 7B. The microlens 2221 is formed on the surface. The photoelectric conversion unit 2224 is disposed on the left side of a position symmetrical with respect to the optical axis of the micro lens 2221.

これに対して、図10に示す焦点検出画素222bも、マイクロレンズ2221と、光電変換部2225から構成され、図7Bに示す断面図と同様に、撮像素子22の半導体回路基板2213の表面に光電変換部2225が造り込まれ、その表面にマイクロレンズ2221が形成されている。光電変換部2225はマイクロレンズ2221の光軸に対して左右対称の位置のうちの右側に配置されている。   On the other hand, the focus detection pixel 222b shown in FIG. 10 also includes a microlens 2221 and a photoelectric conversion unit 2225. Like the cross-sectional view shown in FIG. A conversion unit 2225 is built, and a microlens 2221 is formed on the surface thereof. The photoelectric conversion unit 2225 is disposed on the right side of a position symmetrical to the optical axis of the micro lens 2221.

そして、図9に示すように、一対の焦点検出画素222a,222bは撮像素子22の中心から左右一列に配置され、撮影光学系31の射出瞳を通過する一対の光束をこれら一対の焦点検出画素222a,222bそれぞれの光電変換部2224,2225で受光する。   As shown in FIG. 9, the pair of focus detection pixels 222 a and 222 b are arranged in a line on the left and right from the center of the image sensor 22, and a pair of light fluxes passing through the exit pupil of the photographing optical system 31 are converted into the pair of focus detection pixels. Light is received by the respective photoelectric conversion units 2224 and 2225 of 222a and 222b.

このように、異なる画素で構成される一対の焦点検出画素222a,222bを用いても、一対の光電変換部2224,2225の出力結果に基づいて、瞳分割位相差検出方式による像ズレ量を検出することができる。   As described above, even when a pair of focus detection pixels 222a and 222b configured by different pixels is used, the image shift amount by the pupil division phase difference detection method is detected based on the output results of the pair of photoelectric conversion units 2224 and 2225. can do.

これに加えて、撮像素子22を構成する画素からの出力読出回路の構成がシンプルになるという利点もある。   In addition to this, there is an advantage that the configuration of the output readout circuit from the pixels constituting the image sensor 22 is simplified.

次に、本実施形態に係るカメラの動作例を説明する。図11、図12は本実施形態に係るカメラ1の動作を示すフローチャートである。   Next, an operation example of the camera according to the present embodiment will be described. 11 and 12 are flowcharts showing the operation of the camera 1 according to this embodiment.

まず、ステップS100にてカメラ1の電源がONされていることが確認されると、ステップS110に進む。なお、本実施形態のカメラ1は、電源がONされると、撮像素子22により、所定の周期(たとえば、1秒間に60フレーム)で、撮像光束の受光および信号の出力が繰り返し行なわれるような設定とされている。   First, when it is confirmed in step S100 that the camera 1 is powered on, the process proceeds to step S110. In the camera 1 of the present embodiment, when the power is turned on, the imaging element 22 repeatedly receives the imaging light flux and outputs a signal at a predetermined cycle (for example, 60 frames per second). It is set.

次いで、ステップS110に進み、ステップS110では、操作部28を介して、光学ファインダモード(被写体像の観察に光学ファインダ24を使用するモード)が選択されているか、あるいは、背面液晶モード(被写体像の観察に背面液晶表示素子271を使用するモード)が選択されているかの判断が行なわれる。光学ファインダモードが選択されている場合には、ステップS120に進む。一方、背面液晶モードが選択されている場合には、ステップS140に進む。   Next, the process proceeds to step S110. In step S110, the optical finder mode (the mode in which the optical finder 24 is used for observing the subject image) is selected via the operation unit 28, or the rear liquid crystal mode (subject image It is determined whether the mode in which the rear liquid crystal display element 271 is used for observation is selected. If the optical finder mode is selected, the process proceeds to step S120. On the other hand, if the rear liquid crystal mode is selected, the process proceeds to step S140.

ステップS110において、光学ファインダモードが選択されていると判定された場合には、ステップS120に進む。ステップS120では、ハーフミラー21が挿入位置(観察位置)にあるか否かの判定が行なわれ、ハーフミラー21が挿入位置にない場合には、ハーフミラー21を、挿入位置に移動させる。一方、ハーフミラー21が挿入位置にある場合には、挿入位置のままとする。   If it is determined in step S110 that the optical finder mode is selected, the process proceeds to step S120. In step S120, it is determined whether or not the half mirror 21 is at the insertion position (observation position). If the half mirror 21 is not at the insertion position, the half mirror 21 is moved to the insertion position. On the other hand, when the half mirror 21 is at the insertion position, the insertion position remains unchanged.

次いで、ステップS130では、カメラ制御CPU25により、図2に示す焦点検出画素列22a,22b,22c、すなわち、焦点検出エリア22a,22b,22cを構成する焦点検出画素222の信号強度が飽和しないように、撮像素子22の露光条件の設定が行なわれる。   Next, in step S130, the camera control CPU 25 prevents the signal intensity of the focus detection pixel rows 22a, 22b, and 22c shown in FIG. 2, that is, the focus detection pixels 222 that constitute the focus detection areas 22a, 22b, and 22c, from being saturated. Then, the exposure condition of the image sensor 22 is set.

たとえば、図13に示すように、焦点検出エリア22aにおいて高輝度被写体100aを、焦点検出エリア22bにおいて中輝度被写体100bを、焦点検出エリア22cにおいて低輝度被写体100cを、それぞれ捕捉している場合において、露光条件によっては、各焦点検出エリア22a,22b,22cにおける信号強度は、図14(A)〜図14(C)に示すようになってしまう。ここで、図14(A)〜図14(C)は、図13に示す場面例における、各焦点検出エリア22a,22b,22cを構成する焦点検出画素222の並び方向の位置と、焦点検出画素222の信号強度との関係を示すグラフであり、図14(A)は、高輝度被写体100aを捕捉している焦点検出エリア22aにおける信号強度を、図14(B)は、中輝度被写体100bを捕捉している焦点検出エリア22bにおける信号強度を、図14(C)は、低輝度被写体100cを捕捉している焦点検出エリア22cにおける信号強度を、それぞれ示している。また、図14(A)〜図14(C)において、焦点検出画素222の一対の像信号の信号強度のうち、一方の信号強度を実線で、他方の信号強度を破線で、それぞれ示している。   For example, as shown in FIG. 13, when a high-luminance subject 100a is captured in the focus detection area 22a, a medium-luminance subject 100b is captured in the focus detection area 22b, and a low-luminance subject 100c is captured in the focus detection area 22c. Depending on the exposure conditions, the signal intensities in the focus detection areas 22a, 22b, and 22c are as shown in FIGS. 14 (A) to 14 (C). Here, FIGS. 14A to 14C show the positions of the focus detection pixels 222 constituting the focus detection areas 22a, 22b, and 22c in the example of the scene shown in FIG. FIG. 14A is a graph showing the relationship with the signal intensity of 222, FIG. 14A shows the signal intensity in the focus detection area 22a capturing the high-luminance subject 100a, and FIG. 14B shows the medium-luminance subject 100b. FIG. 14C shows the signal intensity in the focus detection area 22c capturing the low-luminance subject 100c, respectively. 14A to 14C, one signal intensity of the pair of image signals of the focus detection pixel 222 is indicated by a solid line, and the other signal intensity is indicated by a broken line. .

すなわち、このような場合においては、図14(A)に示すように、高輝度被写体100aを捕捉している焦点検出エリア22aにおいては、焦点検出画素222からの一対の信号強度が飽和信号強度に達してしまい、焦点検出エリア22aにおいては、焦点検出が不能となってしまう。   That is, in such a case, as shown in FIG. 14A, in the focus detection area 22a capturing the high-luminance subject 100a, the pair of signal intensities from the focus detection pixels 222 becomes the saturation signal intensity. Therefore, focus detection becomes impossible in the focus detection area 22a.

そのため、本実施形態では、図15(A)〜図15(C)に示すように、焦点検出エリア22a,22b,22cを構成する焦点検出画素222の一対の像信号の信号強度が飽和しないように、撮像素子22の露光条件を設定するものである。なお、図14(A)〜図14(C)において、露光条件を変更した場合における各焦点検出エリア22a,22b,22cを構成する焦点検出画素222の並び方向の位置と、焦点検出画素222の信号強度との関係を示すグラフであり、図14(A)〜図14(C)と同様に、図15(A)は、高輝度被写体100aを捕捉している焦点検出エリア22aにおける信号強度を、図15(B)は、中輝度被写体100bを捕捉している焦点検出エリア22bにおける信号強度を、図15(C)は、低輝度被写体100cを捕捉している焦点検出エリア22cにおける信号強度を、それぞれ示している。図15(A)〜図15(C)に示すように、各焦点検出エリア22a,22b,22cを構成する焦点検出画素222の一対の像信号の信号強度が、飽和信号強度に到達しないような露光条件を設定することにより、高輝度被写体100aを捕捉している焦点検出エリア22aにおいて、焦点検出画素222からの一対の像信号の信号強度が所定の飽和信号強度に達してしまい、焦点検出が不能となってしまうことを有効に防止することができる。   Therefore, in this embodiment, as shown in FIGS. 15A to 15C, the signal intensity of the pair of image signals of the focus detection pixels 222 constituting the focus detection areas 22a, 22b, and 22c is not saturated. In addition, the exposure condition of the image sensor 22 is set. 14A to 14C, the positions of the focus detection pixels 222 constituting the focus detection areas 22a, 22b, and 22c when the exposure conditions are changed, and the positions of the focus detection pixels 222. FIG. 15A is a graph showing the relationship with the signal intensity, and FIG. 15A shows the signal intensity in the focus detection area 22a capturing the high-luminance subject 100a, as in FIGS. 14A to 14C. 15B shows the signal intensity in the focus detection area 22b capturing the medium luminance subject 100b, and FIG. 15C shows the signal intensity in the focus detection area 22c capturing the low luminance subject 100c. , Respectively. As shown in FIGS. 15A to 15C, the signal intensity of the pair of image signals of the focus detection pixels 222 constituting each focus detection area 22a, 22b, 22c does not reach the saturation signal intensity. By setting the exposure condition, the signal intensity of the pair of image signals from the focus detection pixel 222 reaches a predetermined saturation signal intensity in the focus detection area 22a capturing the high brightness subject 100a, and focus detection is performed. It can be effectively prevented from becoming impossible.

焦点検出エリア22a,22b,22cを構成する焦点検出画素222の信号強度が飽和しないような露光条件の設定方法としては、特に限定されないが、たとえば、前回処理時に取得した各焦点検出画素222の像信号のうち、最も高い信号強度を有する像信号の信号強度をFmaxとし、飽和信号強度以下の予め定められた閾値をFaとした場合に、撮像素子22の露光量が、前回処理時の露光量に対して、「前回露光量×(Fa/Fmax)」となるような露光条件を設定することができる。なお、閾値Faは、飽和信号強度をFsatとした場合に、たとえば、Fa=0.5×Fsat〜0.8×Fsatの範囲に設定される。   An exposure condition setting method that does not saturate the signal intensity of the focus detection pixels 222 constituting the focus detection areas 22a, 22b, and 22c is not particularly limited. For example, for example, an image of each focus detection pixel 222 acquired during the previous processing. Among the signals, when the signal intensity of the image signal having the highest signal intensity is Fmax and the predetermined threshold value equal to or lower than the saturation signal intensity is Fa, the exposure amount of the image sensor 22 is the exposure amount at the time of the previous processing. In contrast, an exposure condition such that “previous exposure amount × (Fa / Fmax)” can be set. Note that the threshold Fa is set in a range of Fa = 0.5 × Fsat to 0.8 × Fsat, for example, when the saturation signal intensity is Fsat.

また、本実施形態において、撮像素子22の露光量は、撮像素子22を構成する撮像画素221および焦点検出画素222の電荷蓄積時間、撮像素子22を構成する撮像画素221および焦点検出画素222の信号の増幅ゲイン、および、絞り312の開口径を調整することにより、制御することができる。ここで、撮像素子22を構成する撮像画素221および焦点検出画素222の電荷蓄積時間は、撮像素子22による、撮像光束の受光および信号の出力の周期以下の時間とする。また、撮像素子22が、CCDイメージセンサやCMOSイメージセンサである場合には、撮像画素221および焦点検出画素222は、同一の電荷蓄積時間および同一の増幅ゲインに設定される。   In the present embodiment, the exposure amount of the image sensor 22 includes the charge accumulation time of the image pickup pixel 221 and the focus detection pixel 222 constituting the image pickup element 22 and the signals of the image pickup pixel 221 and the focus detection pixel 222 constituting the image pickup element 22. Can be controlled by adjusting the amplification gain and the aperture diameter of the diaphragm 312. Here, the charge accumulation time of the image pickup pixel 221 and the focus detection pixel 222 constituting the image pickup device 22 is set to a time shorter than the period of light reception of the image pickup light beam and signal output by the image pickup device 22. When the image sensor 22 is a CCD image sensor or a CMOS image sensor, the image pickup pixel 221 and the focus detection pixel 222 are set to have the same charge accumulation time and the same amplification gain.

一方、ステップS110において、背面液晶モードが選択されている場合には、ステップS140に進む。ステップS140では、ハーフミラー21が退避位置(撮影位置)にあるか否かの判定が行なわれ、ハーフミラー21が退避位置にない場合には、ハーフミラー21を、退避位置に移動させる。一方、ハーフミラー21が退避位置にある場合には、退避位置のままとする。   On the other hand, if the rear liquid crystal mode is selected in step S110, the process proceeds to step S140. In step S140, it is determined whether or not the half mirror 21 is at the retracted position (shooting position). If the half mirror 21 is not at the retracted position, the half mirror 21 is moved to the retracted position. On the other hand, when the half mirror 21 is in the retracted position, the retracted position remains unchanged.

次いで、ステップS150では、カメラ制御CPU25により、撮像画素221の画像信号の信号強度が、背面液晶表示素子271に表示させるための表示用画像の生成に適した値となるように、露光条件の設定が行なわれる。なお、表示用画像の生成に適した値となるような露光条件としては、特に限定されないが、たとえば、撮像面の中央付近に位置する撮像画素221の画像信号の信号強度が、飽和信号強度に到達しないような露光条件としてもよいし、あるいは、撮像面全体において、撮像画素221の画像信号の信号強度が不適切な部分(信号強度が弱すぎる部分や、飽和信号強度に到達してしまう部分)が最も少なくなるような露光条件としてもよい。さらには、撮像素子22を構成する全ての撮像画素221の画像信号の信号強度の平均値が予め定められた閾値以上となるような露光条件としてもよい。   Next, in step S150, the exposure condition is set by the camera control CPU 25 so that the signal intensity of the image signal of the imaging pixel 221 becomes a value suitable for generating a display image to be displayed on the rear liquid crystal display element 271. Is done. Note that the exposure condition that provides a value suitable for generating a display image is not particularly limited. For example, the signal intensity of the image signal of the imaging pixel 221 located near the center of the imaging surface is the saturation signal intensity. The exposure condition may not be reached, or the entire image pickup surface may be a portion where the signal intensity of the image signal of the imaging pixel 221 is inappropriate (a portion where the signal strength is too weak or a portion where the saturation signal strength is reached). ) May be the exposure condition that minimizes the exposure. Furthermore, the exposure condition may be such that the average value of the signal intensity of the image signals of all the imaging pixels 221 constituting the imaging element 22 is equal to or greater than a predetermined threshold value.

また、ステップS150において、露光条件を決定する際には、前回処理時における撮像画素221の画像信号の信号強度を用いて、撮像素子22の露光量を決定してもよいし、あるいは、カメラ1に備えられた測光手段(図示省略)による測光データを用いて、撮像素子22の露光量を決定してもよく、撮像素子22の露光量は、上述したステップS130と同様にして制御することができる。なお、ステップS150においては、撮像素子22を構成する撮像画素221および焦点検出画素222の電荷蓄積時間は、後述するステップS180において、背面液晶表示素子271により表示用画像を表示する際のフレームレート以下に設定する。背面液晶表示素子271により表示用画像を表示する際のフレームレートは、通常、撮像素子22による、撮像光束の受光および信号の出力の周期と同様に設定される。   In step S150, when determining the exposure condition, the exposure amount of the image sensor 22 may be determined using the signal intensity of the image signal of the imaging pixel 221 at the time of the previous process, or the camera 1 The exposure amount of the image sensor 22 may be determined using photometric data obtained by the photometry means (not shown) provided in the image sensor, and the exposure amount of the image sensor 22 can be controlled in the same manner as in step S130 described above. it can. In step S150, the charge accumulation time of the imaging pixel 221 and the focus detection pixel 222 constituting the imaging element 22 is equal to or less than the frame rate when displaying the display image on the rear liquid crystal display element 271 in step S180 described later. Set to. The frame rate at the time of displaying a display image by the rear liquid crystal display element 271 is normally set in the same manner as the period of light reception of the imaging light flux and signal output by the imaging element 22.

ステップS160では、カメラ制御CPU25により、撮像素子22を構成する撮像画素221からの画像信号および焦点検出画素222からの一対の像信号の読み出しが行なわれる。なお、ステップS160では、ステップS130またはステップS150において設定された露光条件で露光された際の撮像画素221および焦点検出画素222の画像信号および像信号が読み出される。   In step S <b> 160, the camera control CPU 25 reads out an image signal from the imaging pixel 221 that constitutes the imaging element 22 and a pair of image signals from the focus detection pixel 222. In step S160, the image signal and the image signal of the imaging pixel 221 and the focus detection pixel 222 when exposed under the exposure conditions set in step S130 or step S150 are read out.

ステップS170では、操作部28を介して、光学ファインダモードが選択されているか、あるいは、背面液晶モードが選択されているかの判断が行なわれる。光学ファインダモードが選択されている場合には、ステップS190に進む。一方、背面液晶モードが選択されている場合には、ステップS180に進む。   In step S170, it is determined whether the optical finder mode is selected or the rear liquid crystal mode is selected via the operation unit 28. If the optical finder mode is selected, the process proceeds to step S190. On the other hand, if the rear liquid crystal mode is selected, the process proceeds to step S180.

ステップS180では、カメラ制御CPU25により、ステップS160において読み出した撮像画素221からの画像信号に基づき、背面液晶表示素子271に表示させるための表示用画像の生成が行なわれる。そして、カメラ制御CPU25は、生成された表示用画像の画像信号を駆動回路272に送信し、画像信号に応じた駆動信号が、背面液晶表示素子271へ送出されることで、背面液晶表示素子271により表示用画像の表示が行なわれる。なお、背面液晶表示素子271による表示用画像の表示は、背面液晶モードが選択されている場合には、操作部28に備えられたレリーズボタンが押されるまで、撮像素子22の撮像光束の受光および信号の出力の周期に対応して、繰り返し実行される。   In step S180, the camera control CPU 25 generates a display image to be displayed on the rear liquid crystal display element 271 based on the image signal from the imaging pixel 221 read in step S160. Then, the camera control CPU 25 transmits the generated image signal of the display image to the driving circuit 272, and the driving signal corresponding to the image signal is transmitted to the rear liquid crystal display element 271, so that the rear liquid crystal display element 271 is transmitted. Thus, the display image is displayed. When the rear liquid crystal mode is selected, the display image is displayed on the rear liquid crystal display element 271 until the release light button provided on the operation unit 28 is pressed and the imaging light flux is received. It is repeatedly executed in accordance with the signal output period.

ステップS190では、ステップS160で読み出した各焦点検出画素221の像信号の保存処理が行なわれる。図16は、本実施形態における、焦点検出画素221の一対の像信号の保存処理を説明するための図である。図16においては、時間tにおいて、各焦点検出画素221の像信号は、焦点検出画素信号nとして読み出され、同様に、時間tよりも1周期前の時間tn−1において焦点検出画素信号n−1、さらに時間tn−2において焦点検出画素信号n−2、時間tn−3において焦点検出画素信号n−3として読み出された場面を示している。 In step S190, the image signal storage processing of each focus detection pixel 221 read in step S160 is performed. FIG. 16 is a diagram for explaining a process for storing a pair of image signals of the focus detection pixel 221 in the present embodiment. In Figure 16, at time t n, the image signal of each focus detection pixel 221 is read as a focus detection pixel signal n, similarly, the focus detection at time t n-1 of one period before the time t n A scene read as a pixel signal n-1, a focus detection pixel signal n-2 at time t n-2 , and a focus detection pixel signal n-3 at time t n-3 is shown.

本実施形態においては、カメラ本体2に備えられたメモリ26には、図16に示すように、撮像素子22を構成する各焦点検出画素221の像信号を保存するための領域として、第1メモリ領域〜第8メモリ領域の8つの領域が確保されており、たとえば、時間tn−3においては、メモリ26中の第1メモリ領域に、時間tn−3において読み出された焦点検出画素信号n−3が格納され、かつ、メモリ26中の第2メモリ領域〜第8メモリ領域に、時間tn−3よりも1周期前〜7周期前に読み出された焦点検出画素信号n−4〜焦点検出画素信号n−10が格納される。すなわち、本実施形態においては、今回処理時に読み出された像信号に加え、1周期前〜7周期前に読出された像信号を、メモリ26に保存する。 In the present embodiment, the memory 26 provided in the camera body 2 includes a first memory as an area for storing image signals of the focus detection pixels 221 constituting the image sensor 22 as shown in FIG. For example, at time t n-3 , the focus detection pixel signal read out at time t n−3 is stored in the first memory area in the memory 26. n-3 is stored, and the focus detection pixel signal n-4 read out from the second memory area to the eighth memory area in the memory 26 one to seven periods before the time t n-3 ~ Focus detection pixel signal n-10 is stored. That is, in this embodiment, in addition to the image signal read at the time of the current process, the image signal read from one cycle before to seven cycles before is stored in the memory 26.

そして、図16に示すように、時間tn−3の次の周期である時間tn−2においては、メモリ26中の第1メモリ領域に、時間tn−2において読み出された焦点検出画素信号n−2が格納され、時間tn−3において、第1メモリ領域〜第7メモリ領域に、それぞれ格納されていた焦点検出画素信号n−3〜焦点検出画素信号n−9が、それぞれ、第2メモリ領域〜第8メモリ領域に移動するとともに、時間tn−3において、第8メモリ領域に格納されていた焦点検出画素信号n−10は、削除される。 Then, as shown in FIG. 16, at time t n−2 , which is the next cycle of time t n−3 , focus detection read out at time t n−2 in the first memory area in the memory 26. The pixel signal n-2 is stored, and at time tn -3 , the focus detection pixel signal n-3 to the focus detection pixel signal n-9 respectively stored in the first memory area to the seventh memory area are respectively The focus detection pixel signal n-10 stored in the eighth memory area is deleted at time tn -3 while moving from the second memory area to the eighth memory area.

同様に、時間tn−1、時間tにおいても、それぞれ、焦点検出画素信号n−1、焦点検出画素信号nが、第1メモリ領域に格納され、第1メモリ領域〜第7メモリ領域に、それぞれ格納されていた焦点検出画素信号が、第2メモリ領域〜第8メモリ領域に移動するとともに、第8メモリ領域に格納されていた焦点検出画素信号については、削除されることとなる。このように、本実施形態では、当該周期において読出された焦点検出画素信号と、直近7周期において読出された焦点検出画素信号とが、メモリ26に格納されるように、撮像素子22を構成する各焦点検出画素221の像信号の保存処理を行なう。なお、図16には、メモリ26が、撮像素子22を構成する各焦点検出画素221の像信号を保存するための領域として、第1メモリ領域〜第8メモリ領域の8つの領域を有している例を示したが、その数は特に限定されず、適宜、設定することができる。 Similarly, at time t n−1 and time t n , the focus detection pixel signal n−1 and the focus detection pixel signal n are stored in the first memory area and stored in the first memory area to the seventh memory area, respectively. The focus detection pixel signals stored respectively move to the second memory area to the eighth memory area, and the focus detection pixel signals stored in the eighth memory area are deleted. As described above, in the present embodiment, the image sensor 22 is configured such that the focus detection pixel signal read in the cycle and the focus detection pixel signal read in the latest seven cycles are stored in the memory 26. The image signal of each focus detection pixel 221 is stored. In FIG. 16, the memory 26 has eight areas, that is, a first memory area to an eighth memory area, as areas for storing image signals of the focus detection pixels 221 constituting the image sensor 22. However, the number is not particularly limited and can be set as appropriate.

次いで、ステップS200では、メモリ26中の第1メモリ領域〜第8メモリ領域に格納されている焦点検出画素信号の積算処理が行なわれる。たとえば、図16に示す時間tにおいては、第1メモリ領域に格納された焦点検出画素信号n、および第2メモリ領域〜第8メモリ領域にそれぞれ格納された焦点検出画素信号n−1〜焦点検出画素信号n−7を用いて、これらの信号強度を積算する処理が行なわれる。 Next, in step S200, integration processing of focus detection pixel signals stored in the first memory area to the eighth memory area in the memory 26 is performed. For example, at time t n shown in FIG. 16, the focus detection pixel signal n stored in the first memory area and the focus detection pixel signal n−1 to focus stored in the second to eighth memory areas, respectively. Processing for integrating these signal intensities is performed using the detection pixel signal n-7.

図17(B)、図17(C)に、積算処理後の信号強度を示すグラフを示す。ここで、図17(B)は、図15(B)に示す信号強度に対して、積算処理を行なった後における信号強度を示すグラフ、すなわち、中輝度被写体100bを捕捉している焦点検出エリア22bにおける像信号の信号強度に対して、積算処理を行なった後における信号強度を示すグラフである。同様に、図17(C)は、図15(C)に示す信号強度に対して、積算処理を行なった後における信号強度を示すグラフ、すなわち、低輝度被写体100cを捕捉している焦点検出エリア22cにおける像信号の信号強度に対して、積算処理を行なった後における信号強度を示すグラフである。   FIGS. 17B and 17C are graphs showing the signal intensity after the integration process. Here, FIG. 17B is a graph showing the signal intensity after the integration process is performed on the signal intensity shown in FIG. 15B, that is, the focus detection area capturing the medium luminance subject 100b. It is a graph which shows the signal strength after performing an integration process with respect to the signal strength of the image signal in 22b. Similarly, FIG. 17C is a graph showing the signal intensity after the integration process is performed on the signal intensity shown in FIG. 15C, that is, the focus detection area capturing the low-luminance subject 100c. It is a graph which shows the signal strength after performing an integration process with respect to the signal strength of the image signal in 22c.

本実施形態によれば、ステップS130において、焦点検出エリア22a,22b,22cを構成する焦点検出画素222の信号強度が飽和しないように、撮像素子22の露光条件の設定が行なわれることによって、図15(B)、図15(C)に示すように、焦点検出に適さない信号強度となった場合でも、このような信号強度の積算処理を行なうことにより、図17(B)、図17(C)に示すように、焦点検出に適したものとすることができる。   According to the present embodiment, in step S130, the exposure condition of the image sensor 22 is set so that the signal intensity of the focus detection pixels 222 constituting the focus detection areas 22a, 22b, and 22c is not saturated. As shown in FIG. 15B and FIG. 15C, even when the signal intensity is not suitable for focus detection, by performing such signal intensity integration processing, FIG. 17B and FIG. As shown in C), it can be suitable for focus detection.

なお、図15(A)に示すように、高輝度被写体100aを捕捉している焦点検出エリア22aにおける像信号の信号強度は、焦点検出を行うために充分なものとなっており、このような場合には、信号強度の積算処理は必ずしも必要ないため、このような場合には、信号強度の積算処理は行なわない(図17(A))。すなわち、本実施形態においては、信号強度が、焦点検出に適したものとなっているか否かを判断し、その結果、焦点検出に適したものとなっていない場合に、信号強度の積算処理を行なう。また、信号強度の積算処理を行なう際に用いる像信号の数(積算回数)は、特に限定されないが、たとえば、第1メモリ領域に格納されている今回処理時における像信号の信号強度と、焦点検出を行うのに必要となる信号強度との差に基づいて、決定することができる。すなわち、これらの差が大きい場合には、信号強度の積算処理を行なう際に用いる像信号の数を多く設定し、反対に、これらの差が小さい場合には、信号強度の積算処理を行なう際に用いる像信号の数を少なく設定することができる。   As shown in FIG. 15A, the signal intensity of the image signal in the focus detection area 22a capturing the high-luminance subject 100a is sufficient to perform focus detection. In such a case, the signal intensity integration process is not necessarily required, and in such a case, the signal intensity integration process is not performed (FIG. 17A). That is, in the present embodiment, it is determined whether or not the signal intensity is suitable for focus detection. As a result, if the signal intensity is not suitable for focus detection, the signal intensity integration process is performed. Do. In addition, the number of image signals (number of integrations) used when performing signal intensity integration processing is not particularly limited. For example, the signal intensity of the image signal stored in the first memory area and the focal point at this time This can be determined based on the difference from the signal strength required to perform the detection. That is, when these differences are large, a large number of image signals are used when performing signal intensity integration processing. On the contrary, when these differences are small, signal intensity integration processing is performed. It is possible to set the number of image signals used for.

次いで、図12に進み、図12に示すステップS210では、カメラ制御CPU25により、ステップS160において読出した焦点検出画素222の一対の像信号に基づいて、デフォーカス量の算出が行なわれる。本実施形態においては、デフォーカス量の算出は、焦点検出エリア22a,22b,22cごとに行なわれる。また、上述したステップS200において信号強度の積算処理が行なわれている場合には、積算処理後のデータを用いて、デフォーカス量の算出を行なう。   Next, proceeding to FIG. 12, in step S210 shown in FIG. 12, the camera control CPU 25 calculates the defocus amount based on the pair of image signals of the focus detection pixel 222 read in step S160. In the present embodiment, the defocus amount is calculated for each focus detection area 22a, 22b, 22c. In addition, when the signal intensity integration process is performed in step S200 described above, the defocus amount is calculated using the data after the integration process.

ここで、読み出された一対の像信号に基づく像ズレ検出演算処理(相関演算処理)の一例を簡単に説明する。   Here, an example of image shift detection calculation processing (correlation calculation processing) based on the read pair of image signals will be briefly described.

焦点検出画素222により検出される一対の像は、測距瞳341,342が交換レンズ3の絞り開口312により遮光され、光量バランスが崩れている可能性がある。したがって、本実施形態では、この光量バランスの崩れに対して像ズレ検出精度を維持できるタイプの相関演算を施す。   In the pair of images detected by the focus detection pixel 222, the distance measurement pupils 341 and 342 may be shielded by the aperture opening 312 of the interchangeable lens 3, and the light quantity balance may be lost. Therefore, in the present embodiment, a correlation calculation of a type capable of maintaining the image shift detection accuracy is performed with respect to the loss of light amount balance.

まず、焦点検出画素列から読み出された一対の像信号のデータ列をA1〜A1、A2〜A2(Mはデータ数)とし、下記相関演算式(下記式(1))を行い、相関量C(k)を演算する。
C(k)=Σ|A1・A2n+1+k−A2n+k・A1n+1| (1)
First, a data sequence of a pair of image signals read from the focus detection pixel sequence is A1 1 to A1 M and A2 1 to A2 M (M is the number of data), and the following correlation calculation formula (the following formula (1)) is used. The correlation amount C (k) is calculated.
C (k) = Σ | A1 n · A2 n + 1 + k− A2 n + k · A1 n + 1 | (1)

なお、上記式(1)においてΣ演算はnについての累積演算(総和演算)を示し、nの範囲は、像ずらし量kに応じてA1、A1n+1、A2n+k、A2n+1+kのデータが存在する範囲に限定される。また、像ずらし量kは整数であり、データ列のデータ間隔を単位とした相対的シフト量である。 In the above formula (1), Σ operation indicates a cumulative operation (sum operation) for n, and the range of n includes data of A1 n , A1 n + 1 , A2 n + k , A2 n + 1 + k according to the image shift amount k. The range is limited. Further, the image shift amount k is an integer, and is a relative shift amount with the data interval of the data string as a unit.

上記式(1)の演算結果は、図18(A)に示すように、一対のデータの相関が高いシフト量(図18(A)ではk=kj=2)において相関量C(k)が極小(小さいほど相関度が高い)になる。   As shown in FIG. 18A, the calculation result of the above equation (1) shows that the correlation amount C (k) is the amount of shift with high correlation between a pair of data (k = kj = 2 in FIG. 18A). Minimal (the smaller the value, the higher the degree of correlation).

次に、下記式(2)〜下記式(5)による3点内挿の手法を用いて、連続的な相関量に対する極小値C(x)を与えるシフト量xを求める。
x=kj+D/SLOP (2)
C(x)= C(kj)−|D| (3)
D={C(kj−1)−C(k j+1)}/2 (4)
SLOP=MAX{C(kj+1)−C(kj),C(kj−1)−C(kj)} (5)
Next, a shift amount x that gives a minimum value C (x) with respect to the continuous correlation amount is obtained by using a three-point interpolation method according to the following equations (2) to (5).
x = kj + D / SLOP (2)
C (x) = C (kj) − | D | (3)
D = {C (kj-1) -C (kj + 1)} / 2 (4)
SLOP = MAX {C (kj + 1) -C (kj), C (kj-1) -C (kj)} (5)

そして、上記式(2)で算出されたシフト量xの信頼性があるかどうかは、以下のようにして判定する。   Then, whether or not the shift amount x calculated by the equation (2) is reliable is determined as follows.

すなわち、図18(B)に示すように、一対のデータの相関度が低い場合は、内挿された相関量の極小値C(x)の値が大きくなる。したがって、C(x)が所定の閾値以上の場合は算出されたシフト量の信頼性が低いと判定し、算出されたシフト量xをキャンセルする。   That is, as shown in FIG. 18B, when the degree of correlation between a pair of data is low, the value of the minimal value C (x) of the interpolated correlation amount increases. Therefore, when C (x) is equal to or greater than a predetermined threshold value, it is determined that the reliability of the calculated shift amount is low, and the calculated shift amount x is canceled.

または、C(x)をデータのコントラストで規格化するために、コントラストに比例した値となるSLOPでC(x)を除した値が予め定められた閾値以上の場合は、算出されたシフト量の信頼性が低いと判定し、算出されたシフト量xをキャンセルする。   Or, in order to normalize C (x) with the contrast of data, when the value obtained by dividing C (x) by SLOP that is proportional to the contrast is equal to or greater than a predetermined threshold, the calculated shift amount And the calculated shift amount x is cancelled.

あるいは、コントラストに比例した値となるSLOPが予め定められた閾値以下の場合は、被写体が低コントラストであり、算出されたシフト量の信頼性が低いと判定し、算出されたシフト量xをキャンセルする。   Alternatively, when SLOP that is proportional to the contrast is equal to or less than a predetermined threshold, it is determined that the subject has low contrast and the reliability of the calculated shift amount is low, and the calculated shift amount x is canceled. To do.

また、図18(C)に示すように、一対のデータの相関度が低く、シフト範囲kmin〜kmaxの間で相関量C(k)の落ち込みがない場合は、極小値C(x)を求めることができず、このような場合は焦点検出不能と判定する。   As shown in FIG. 18C, when the correlation between the pair of data is low and there is no drop in the correlation amount C (k) between the shift ranges kmin to kmax, the minimum value C (x) is obtained. In such a case, it is determined that the focus cannot be detected.

なお、相関演算式としては上述した上記式(1)に限定されず他の公知の相関式を利用することもできる。   The correlation calculation formula is not limited to the above formula (1), and other known correlation formulas can also be used.

算出されたシフト量xの信頼性があると判定された場合は、下記式(6)により像ズレ量shftを求める。
shft=PY・x (6)
なお、上記式(6)において、PYは検出ピッチ(焦点検出画素のピッチ)である。
When it is determined that the calculated shift amount x is reliable, the image shift amount shft is obtained by the following equation (6).
shft = PY · x (6)
In the above formula (6), PY is a detection pitch (pitch of focus detection pixels).

そして、最後に、上記式(6)で算出された像ズレ量shftに所定の変換係数kを乗じてデフォーカス量defを求める。
def=k・shft (7)
Finally, the defocus amount def is obtained by multiplying the image shift amount shft calculated by the above equation (6) by a predetermined conversion coefficient k.
def = k · shft (7)

ステップS220では、カメラ制御CPU25により、ステップS210で算出したデフォーカス量のうち、最至近のデフォーカス量が、焦点調節用デフォーカス量に設定される。なお、本実施形態では、最至近のデフォーカス量を焦点調節用デフォーカス量に設定する場合を例示するが、特に限定されず、たとえば、特定被写体に対応するデフォーカス量を、焦点調節用デフォーカス量としてもよい。   In step S220, the camera control CPU 25 sets the closest defocus amount among the defocus amounts calculated in step S210 as the focus adjustment defocus amount. In the present embodiment, the case where the closest defocus amount is set as the focus adjustment defocus amount is exemplified, but the present invention is not particularly limited. For example, the defocus amount corresponding to a specific subject is set as the focus adjustment defocus amount. The amount of focus may be used.

次いで、ステップS230では、カメラ制御CPU25により、ステップS220で設定された焦点調節用デフォーカス量の絶対値が、予め定められた閾値以内であるか否かの判定が行なわれる。焦点調節用デフォーカス量の絶対値が予め定められた閾値以内にあるときは合焦しているものとし、ステップS250に進む。一方、焦点調節用デフォーカス量の絶対値が予め定められた閾値以内にないときは、合焦していないものとし、ステップS240に進む。   Next, in step S230, the camera control CPU 25 determines whether or not the absolute value of the focus adjustment defocus amount set in step S220 is within a predetermined threshold. When the absolute value of the defocus amount for focus adjustment is within a predetermined threshold value, it is assumed that the in-focus state is achieved, and the process proceeds to step S250. On the other hand, when the absolute value of the defocus amount for focus adjustment is not within the predetermined threshold value, it is determined that the in-focus state is not achieved, and the process proceeds to step S240.

ステップS230において、合焦していないと判定された場合には、ステップS240に進み、ステップS230においては、カメラ制御CPU25により、ステップS220で設定された焦点調節用デフォーカス量が、レンズ制御CPU32に送信される。そして、レンズ制御CPU32は、焦点調節用デフォーカス量に基づき、フォーカスレンズ駆動モータ35により、フォーカスレンズ314を、合焦位置に駆動させて、ステップS110に戻り、再度、上述したステップS110〜S230の処理を実行する。なお、ステップS220で設定された焦点調節用デフォーカス量の信頼性が低い場合や、ステップS210においてデフォーカス量が算出できなかった場合には、カメラ制御CPU25は、デフォーカス量が得られなかったという旨の信号を、レンズ制御CPU32に送出し、レンズ制御CPU32にフォーカスレンズ駆動モータ35の制御を更新させずに、ステップS110に戻る。すなわち、このような場合には、前回処理時以前に算出されたデフォーカス量に基づくフォーカスレンズ314の駆動が、引き続き継続される。   If it is determined in step S230 that the subject is not in focus, the process proceeds to step S240. In step S230, the camera control CPU 25 sets the defocus amount for focus adjustment set in step S220 to the lens control CPU 32. Sent. Then, the lens control CPU 32 drives the focus lens 314 to the in-focus position by the focus lens drive motor 35 based on the defocus amount for focus adjustment, returns to step S110, and again in steps S110 to S230 described above. Execute the process. If the defocus amount for focus adjustment set in step S220 is not reliable, or if the defocus amount cannot be calculated in step S210, the camera control CPU 25 cannot obtain the defocus amount. Is sent to the lens control CPU 32, and the control returns to step S110 without causing the lens control CPU 32 to update the control of the focus lens drive motor 35. That is, in such a case, the driving of the focus lens 314 based on the defocus amount calculated before the previous processing is continued.

一方、ステップS230において、合焦していると判定された場合には、ステップS250に進み、ステップS250においては、操作部28に設けられた図示しないレリーズボタンが押されたか否かを判断する。レリーズボタンが押された場合にはステップS260に進み、レリーズボタンが押されていない場合には、ステップS110に戻り、再度、上述したステップS110〜S230の処理を実行する。   On the other hand, if it is determined in step S230 that the subject is in focus, the process proceeds to step S250. In step S250, it is determined whether or not a release button (not shown) provided on the operation unit 28 is pressed. If the release button has been pressed, the process proceeds to step S260. If the release button has not been pressed, the process returns to step S110, and the processes of steps S110 to S230 described above are executed again.

ステップS260では、操作部28を介して、光学ファインダモードが選択されているか、あるいは、背面液晶モードが選択されているかの判断が行なわれる。光学ファインダモードが選択されている場合には、ステップS270に進む。一方、背面液晶モードが選択されている場合には、ステップS280に進む。   In step S260, it is determined whether the optical finder mode is selected or the rear liquid crystal mode is selected via the operation unit 28. If the optical finder mode is selected, the process proceeds to step S270. On the other hand, if the rear liquid crystal mode is selected, the process proceeds to step S280.

ステップS270では、ステップS260において、光学ファインダモードが選択されていると判定されたため、被写体からの光束L1を全て撮像素子22に導くために、ハーフミラー21を退避位置に移動させる。   In step S270, since it is determined in step S260 that the optical finder mode is selected, the half mirror 21 is moved to the retracted position in order to guide all the light flux L1 from the subject to the image sensor 22.

ステップS280では、カメラ制御CPU25により、撮影用の適正露光量となるように、撮像素子22の露光制御が行われ、次いで、ステップS290では、カメラ制御CPU25により、撮像素子22を構成する撮像画素221からの画像信号および焦点検出画素222からの像信号の読み出しが行なわれる。   In step S280, the exposure control of the image sensor 22 is performed by the camera control CPU 25 so as to obtain an appropriate exposure amount for photographing. Next, in step S290, the camera control CPU 25 performs the imaging pixel 221 constituting the image sensor 22. And the image signal from the focus detection pixel 222 are read out.

ここで、ステップS290において読み出された焦点検出画素222の画像データは白黒データであることから、ステップS300にて、焦点検出画素222が位置する画素データを、これら焦点検出画素222の周囲の撮像画素221の画像データに基づいて画素補間する。これにより、焦点検出画素222の位置におけるカラー画像データを得ることができる。   Here, since the image data of the focus detection pixel 222 read in step S290 is monochrome data, in step S300, the pixel data in which the focus detection pixel 222 is located is captured around these focus detection pixels 222. Pixel interpolation is performed based on the image data of the pixel 221. Thereby, color image data at the position of the focus detection pixel 222 can be obtained.

最後に、ステップS300にて、撮像画素221の画像データおよび補間された画像データをメモリ26に保存する。このとき、得られた画像データを間引き処理して背面液晶表示素子271に表示することもできる。   Finally, in step S300, the image data of the imaging pixel 221 and the interpolated image data are stored in the memory 26. At this time, the obtained image data can be thinned and displayed on the rear liquid crystal display element 271.

本実施形態のカメラ1は、以上のように動作する。   The camera 1 of this embodiment operates as described above.

本実施形態においては、被写体を観察するためのモードとして、被写体像の観察に光学ファインダ24を使用する光学ファインダモードが選択されており、ハーフミラー21が、挿入位置とされる場合には、焦点検出エリア22a,22b,22cを構成する焦点検出画素222の一対の像信号の信号強度が飽和しないように、撮像素子22の露光条件を制御するものである。これにより、本実施形態によれば、焦点検出画素222の一対の像信号の信号強度が飽和してしまうことにより、焦点検出ができなくなってしまうという不具合を有効に防止することができ、これにより、撮影光学系の焦点状態を良好に検出することができる。特に、本実施形態においては、光学ファインダモードが選択されており、ハーフミラー21が、挿入位置とされる場合には、背面液晶表示素子271を使用した被写体の観察が行なわれないため、このような場合には、撮像素子22の露光条件を、背面液晶表示素子271に表示するための表示画像に適したものとする必要はないことを利用して、上記したような露光条件の制御を行なうものである。   In the present embodiment, as the mode for observing the subject, the optical finder mode using the optical finder 24 for observing the subject image is selected, and when the half mirror 21 is at the insertion position, the focus is set. The exposure conditions of the image sensor 22 are controlled so that the signal intensities of the pair of image signals of the focus detection pixels 222 constituting the detection areas 22a, 22b, and 22c are not saturated. Thereby, according to the present embodiment, it is possible to effectively prevent a problem that the focus detection cannot be performed because the signal intensity of the pair of image signals of the focus detection pixel 222 is saturated. The focus state of the photographing optical system can be detected satisfactorily. In particular, in the present embodiment, when the optical finder mode is selected and the half mirror 21 is set to the insertion position, the subject using the rear liquid crystal display element 271 is not observed. In such a case, the exposure condition of the image pickup device 22 is controlled so as not to be suitable for a display image to be displayed on the rear liquid crystal display element 271 as described above. Is.

なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   The embodiment described above is described for facilitating the understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.

たとえば、上述した実施形態では、撮影者が操作部28を操作することにより、光学ファインダモードと、背面液晶モードとを切替えるような構成としたが、撮影者の操作によることなく自動で、光学ファインダモードと、背面液晶モードとを切替えるような構成としてもよい。たとえば、図1に示す光学ファインダ24を構成する接眼レンズ243の近傍に、撮影者が光学ファインダ24を覗き込んだ場合に、接眼レンズ243への接眼を検知する接眼検知装置を設け、接眼検知装置により、撮影者の接眼を検知した場合に、光学ファインダモードに切替えるとともに、撮影者の接眼が検知されない場合には、背面液晶モードに切替えるような構成としてもよい。なお、このような接眼検知装置としては、たとえば、発光素子と受光素子とを備え、撮影者が光学ファインダ24を覗き込んだ場合に、発光素子が発光した赤外光が、撮影者の眼球などにより反射することで生じる反射光を受光素子により受光することにより、接眼を検知できるような装置を用いることができる。   For example, in the above-described embodiment, the photographer operates the operation unit 28 to switch between the optical viewfinder mode and the rear liquid crystal mode. However, the optical viewfinder is automatically and independently operated by the photographer. The mode and the rear liquid crystal mode may be switched. For example, an eyepiece detection device that detects an eyepiece to the eyepiece lens 243 when a photographer looks into the optical viewfinder 24 is provided in the vicinity of the eyepiece lens 243 constituting the optical viewfinder 24 shown in FIG. Thus, it is possible to switch to the optical finder mode when the photographer's eye is detected, and to switch to the rear liquid crystal mode when the photographer's eye is not detected. As such an eyepiece detection device, for example, a light emitting element and a light receiving element are provided, and when the photographer looks into the optical viewfinder 24, the infrared light emitted from the light emitting element is the eyeball of the photographer. A device that can detect the eyepiece by receiving the reflected light generated by the reflection by the light receiving element can be used.

そして、この場合においても、光学ファインダモードが選択されている場合には、上述した実施形態と同様にして、焦点検出エリア22a,22b,22cを構成する焦点検出画素222の一対の像信号の信号強度が飽和しないように、撮像素子22の露光条件の設定が行なわれ、一方、背面液晶モードが選択されている場合にも、上述した実施形態と同様にして、撮像画素221の画像信号の信号強度が、背面液晶表示素子271に表示させるための表示用画像の生成に適した値となるように、露光条件の設定が行なわれる。   Also in this case, when the optical finder mode is selected, a pair of image signal signals of the focus detection pixels 222 constituting the focus detection areas 22a, 22b, and 22c, as in the above-described embodiment. The exposure condition of the image sensor 22 is set so as not to saturate the intensity. On the other hand, when the rear liquid crystal mode is selected, the signal of the image signal of the image pickup pixel 221 is the same as in the above-described embodiment. The exposure conditions are set so that the intensity becomes a value suitable for generating a display image to be displayed on the rear liquid crystal display element 271.

また、上述した実施形態では、光学ファインダモードが選択されている場合には、ハーフミラー21を挿入位置とし、背面液晶モードが選択されている場合には、ハーフミラー21を退避位置に移動させるような構成としたが、背面液晶モードが選択されている場合に、ハーフミラー21を退避位置に移動させずに、挿入位置のままとしてもよい。あるいは、上述した実施形態では、ハーフミラー21を挿入位置と退避位置とを移動可能な構成としたが、たとえば、ハーフミラー21をペリクルミラーで構成し、挿入位置に固定したような構成としてもよい。このような構成とすることで、ハーフミラー21の移動機構が不要となり、そのため、カメラ1の軽量・小型化が可能となると共に、ハーフミラー21の移動動作が不要となるため、スムースな撮影動作が可能となる。   In the above-described embodiment, when the optical finder mode is selected, the half mirror 21 is set to the insertion position, and when the rear liquid crystal mode is selected, the half mirror 21 is moved to the retracted position. However, when the rear liquid crystal mode is selected, the half mirror 21 may be left in the insertion position without being moved to the retracted position. Alternatively, in the above-described embodiment, the half mirror 21 is configured to be movable between the insertion position and the retracted position. However, for example, the half mirror 21 may be configured with a pellicle mirror and fixed at the insertion position. . With such a configuration, the moving mechanism of the half mirror 21 is not required, and thus the camera 1 can be reduced in weight and size, and the moving operation of the half mirror 21 is not required. Is possible.

さらに、上述した実施形態においては、光学ファインダモードにおける、撮像素子22を構成する撮像画素221および焦点検出画素222の電荷蓄積時間を、撮像素子22による、撮像光束の受光および信号の出力の周期以下の時間に設定したが、低輝度時には、電荷蓄積時間を、撮像光束の受光および信号の出力の周期よりも長く設定してもよい。すなわち、撮像光束の受光および信号の出力の周期を、電荷蓄積時間に応じて、長く設定してもよい。特に、本実施形態においては、光学ファインダモードが選択されている場合には、背面液晶表示素子271への撮像画像の表示を行なわないため、このように、撮像光束の受光および信号の出力の周期を、電荷蓄積時間に応じて、長く設定することが可能となる。   Furthermore, in the above-described embodiment, the charge accumulation time of the imaging pixel 221 and the focus detection pixel 222 constituting the imaging device 22 in the optical finder mode is equal to or less than the cycle of receiving the imaging light flux and outputting the signal by the imaging device 22. However, when the luminance is low, the charge accumulation time may be set longer than the cycle of receiving the imaging light beam and outputting the signal. In other words, the period of receiving the imaging light beam and outputting the signal may be set longer according to the charge accumulation time. In particular, in the present embodiment, when the optical finder mode is selected, the captured image is not displayed on the rear liquid crystal display element 271. Thus, the light reception period of the imaging light beam and the signal output period are as described above. Can be set longer depending on the charge accumulation time.

また、上述した実施形態では、撮像素子22に備えられえた各焦点検出エリア22a,22b,22cにおいて、同時に焦点検出を行う態様を例示したが、撮影者が、手動で、各焦点検出エリア22a,22b,22cのうち、焦点検出を行うための焦点検出エリアを選択し、選択された焦点検出エリアにおいて、焦点検出を行うような構成としてもよい。さらに、上述した実施形態では、撮像素子22に、複数の焦点検出エリアを有する構成を例示したが、単一の焦点検出エリアを有するような構成としてもよく、この場合においても、上述した効果を奏することができるのはもちろんである。   In the above-described embodiment, the focus detection areas 22a, 22b, and 22c provided in the image sensor 22 are exemplified to perform focus detection at the same time. However, the photographer manually operates each focus detection area 22a, A configuration may be adopted in which a focus detection area for performing focus detection is selected from 22b and 22c, and focus detection is performed in the selected focus detection area. Furthermore, in the above-described embodiment, the configuration having the plurality of focus detection areas is exemplified in the image sensor 22, but a configuration having a single focus detection area may be used, and in this case, the above-described effects can be obtained. Of course you can play.

さらに、上述した実施形態では、撮像素子22が瞳分割型位相差検出用の焦点検出画素222を備える構成を例示したが、本発明はこのような構成に特に限定されるものではく、撮像素子22が、いわゆるコントラスト検出に用いられる焦点検出画素を備える構成である場合にも、適用することができる。   Furthermore, in the above-described embodiment, the configuration in which the image sensor 22 includes the focus detection pixel 222 for pupil division type phase difference detection is illustrated, but the present invention is not particularly limited to such a configuration. The present invention can also be applied when the configuration 22 includes a focus detection pixel used for so-called contrast detection.

なお、本実施形態の撮像装置1は、上述した一眼レフデジタルカメラに限定されず、レンズ一体型デジタルスチルカメラやビデオカメラにも適用できる。また、携帯電話機などに内蔵される小型カメラモジュール、監視カメラ、ロボット用視覚認識装置等にも適用できる。   Note that the imaging apparatus 1 of the present embodiment is not limited to the single-lens reflex digital camera described above, and can also be applied to a lens-integrated digital still camera and video camera. Further, the present invention can also be applied to a small camera module, a surveillance camera, a robot visual recognition device, and the like built in a mobile phone.

1…一眼レフデジタルカメラ
2…カメラ本体
21…ハーフミラー
22…撮像素子
221…撮像画素
222,222a,222b…焦点検出画素
2221…マイクロレンズ
2222〜2225…光電変換部
24…光学ファインダ(観察光学系)
25…カメラ制御CPU
271…背面液晶表示素子
3…交換レンズ
32…レンズ制御CPU
33…距離表示器
314…フォーカスレンズ
DESCRIPTION OF SYMBOLS 1 ... Single-lens reflex digital camera 2 ... Camera body 21 ... Half mirror 22 ... Imaging device 221 ... Imaging pixel 222, 222a, 222b ... Focus detection pixel 2221 ... Micro lens 2222-2225 ... Photoelectric conversion part 24 ... Optical finder (observation optical system) )
25 ... Camera control CPU
271: Rear liquid crystal display element 3 ... Interchangeable lens 32 ... Lens control CPU
33 ... Distance indicator 314 ... Focus lens

Claims (10)

撮影光学系を介した光束を受光して受光信号を出力する複数の画素を、2次元状に配列してなる撮像素子と、
前記撮影光学系による像を視認可能な観察光学系と、
前記複数の画素のうち、所定の画素からの受光信号に基づいて、前記撮影光学系の焦点状態を検出する焦点検出手段と、
前記撮影光学系と前記撮像素子との間の光路中に挿脱可能に設けられ、前記光路中に挿入された状態において、前記光束を反射して前記観察光学系に導くとともに、前記光束の一部を透過するミラーと、
前記ミラーが前記光路から脱離した状態である場合に、前記複数の画素からの受光信号に基づいて、撮影画像を表示する表示手段と、
前記ミラーが前記光路に挿入された状態である場合には、前記焦点状態の検出に用いる画素からの受光信号の信号強度が予め定められた閾値以下となるように、露光制御を行うとともに、前記ミラーが前記光路から脱離した状態である場合には、前記撮影画像の表示に用いる画素からの受光信号の信号強度が、前記撮影画像を表示するのに適したものとなるように、露光制御を行う露光制御手段と、を備えることを特徴とする撮像装置。
An image pickup device in which a plurality of pixels that receive a light beam through an imaging optical system and output a light reception signal are two-dimensionally arranged;
An observation optical system capable of visually recognizing an image by the photographing optical system;
A focus detection unit that detects a focus state of the photographing optical system based on a light reception signal from a predetermined pixel among the plurality of pixels;
The optical path between the imaging optical system and the imaging device is detachably provided. When the optical path is inserted into the optical path, the optical path reflects and guides the light beam to the observation optical system. A mirror that passes through the part,
When the mirror is in a state of being detached from the optical path, display means for displaying a captured image based on light reception signals from the plurality of pixels;
When the mirror is inserted in the optical path, exposure control is performed so that the signal intensity of the light reception signal from the pixel used for detecting the focus state is equal to or lower than a predetermined threshold, and When the mirror is detached from the optical path, exposure control is performed so that the signal intensity of the light reception signal from the pixel used for displaying the captured image is suitable for displaying the captured image. An image pickup apparatus comprising: an exposure control means for performing
撮影光学系を介した光束を受光して受光信号を出力する複数の画素を、2次元状に配列してなる撮像素子と、
前記撮影光学系による像を視認可能な観察光学系と、
前記複数の画素のうち、所定の画素からの受光信号に基づいて、前記撮影光学系の焦点状態を検出する焦点検出手段と、
前記観察光学系への接眼を検知する接眼検知手段と、
前記観察光学系への接眼が検知されない場合に、前記複数の画素からの受光信号に基づいて、撮影画像を表示する表示手段と、
前記観察光学系への接眼が検知された場合には、前記焦点状態の検出に用いる画素からの受光信号の信号強度が、予め定められた閾値以下となるように、露光制御を行うとともに、前記観察光学系への接眼が検知されない場合には、前記撮影画像の表示に用いる画素からの受光信号の信号強度が、前記撮影画像を表示するのに適したものとなるように、露光制御を行う露光制御手段と、を備えることを特徴とする撮像装置。
An image pickup device in which a plurality of pixels that receive a light beam through an imaging optical system and output a light reception signal are two-dimensionally arranged;
An observation optical system capable of visually recognizing an image by the photographing optical system;
A focus detection unit that detects a focus state of the photographing optical system based on a light reception signal from a predetermined pixel among the plurality of pixels;
Eyepiece detecting means for detecting an eyepiece to the observation optical system;
Display means for displaying a photographed image based on light reception signals from the plurality of pixels when an eyepiece to the observation optical system is not detected;
When an eyepiece to the observation optical system is detected, exposure control is performed so that a signal intensity of a light reception signal from a pixel used for detection of the focus state is equal to or lower than a predetermined threshold, and When an eyepiece to the observation optical system is not detected, exposure control is performed so that a signal intensity of a light reception signal from a pixel used for displaying the photographed image is suitable for displaying the photographed image. An image pickup apparatus comprising: an exposure control unit.
撮影光学系を介した光束を受光して受光信号を出力する複数の画素を、2次元状に配列してなる撮像素子と、
前記撮影光学系による像を視認可能な観察光学系と、
前記複数の画素のうち、所定の画素からの受光信号に基づいて、前記撮影光学系の焦点状態を検出する焦点検出手段と、
前記複数の画素からの受光信号に基づいて、撮影画像を表示するための表示手段と、
ユーザにより前記観察光学系が使用される場合には、前記焦点状態の検出に用いる画素からの受光信号の信号強度が、予め定められた閾値以下となるように、露光制御を行うとともに、ユーザにより表示手段が使用される場合には、前記撮影画像の表示に用いる画素からの受光信号の信号強度が、前記撮影画像を表示するのに適したものとなるように、露光制御を行う露光制御手段と、を備えることを特徴とする撮像装置。
An image pickup device in which a plurality of pixels that receive a light beam through an imaging optical system and output a light reception signal are two-dimensionally arranged;
An observation optical system capable of visually recognizing an image by the photographing optical system;
A focus detection unit that detects a focus state of the photographing optical system based on a light reception signal from a predetermined pixel among the plurality of pixels;
Display means for displaying a captured image based on light reception signals from the plurality of pixels;
When the observation optical system is used by the user, the exposure control is performed so that the signal intensity of the light reception signal from the pixel used for detection of the focus state is equal to or lower than a predetermined threshold, and the user When a display unit is used, an exposure control unit that performs exposure control so that a signal intensity of a light reception signal from a pixel used for displaying the captured image is suitable for displaying the captured image. An imaging apparatus comprising:
請求項1に記載の撮像装置において、
前記露光制御手段は、前記ミラーが前記光路から脱離した状態である場合には、露光時間を所定時間以下に設定することを特徴とする撮像装置。
The imaging device according to claim 1,
The exposure apparatus is configured to set the exposure time to a predetermined time or less when the mirror is detached from the optical path.
請求項2に記載の撮像装置において、
前記露光制御手段は、観察光学系への接眼が検知されない場合には、露光時間を所定時間以下に設定することを特徴とする撮像装置。
The imaging device according to claim 2,
The exposure apparatus is configured to set the exposure time to a predetermined time or less when an eyepiece to the observation optical system is not detected.
請求項4または5に記載の撮像装置において、
前記所定時間は、前記表示手段により撮影画像を表示する際における、フレームレートに基づいて決定される時間であることを特徴とする撮像装置。
In the imaging device according to claim 4 or 5,
The imaging apparatus according to claim 1, wherein the predetermined time is a time determined based on a frame rate when a captured image is displayed by the display means.
請求項1〜6のいずれか一項に記載の撮像装置において、
前記撮像素子は、前記撮像光学系による像に対応した画像データを生成するための信号を出力する複数の撮像画素と、撮像面上に設定された複数の焦点検出領域に対応して設けられ、前記撮影光学系の焦点状態を検出するための信号を出力する複数の焦点検出画素とを備え、
前記焦点検出手段は、前記複数の焦点検出領域のうち、一または二以上の焦点検出領域を構成する焦点検出画素からの信号に基づいて、前記撮影光学系の焦点状態の検出を行い、
前記表示手段は、前記複数の撮像画素からの信号に基づいて、撮影画像の表示を行なうことを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 6,
The imaging element is provided corresponding to a plurality of imaging pixels that output a signal for generating image data corresponding to an image by the imaging optical system, and a plurality of focus detection areas set on the imaging surface, A plurality of focus detection pixels for outputting a signal for detecting a focus state of the photographing optical system,
The focus detection means detects a focus state of the photographing optical system based on a signal from a focus detection pixel constituting one or more focus detection areas among the plurality of focus detection areas,
The image pickup apparatus, wherein the display means displays a captured image based on signals from the plurality of image pickup pixels.
請求項7に記載の撮像装置において、
前記露光制御手段は、前記複数の焦点検出領域のうち、全ての焦点検出領域を構成する焦点検出画素からの信号の信号強度が、前記閾値以下となるように、露光制御を行うことを特徴とする撮像装置。
The imaging apparatus according to claim 7,
The exposure control means performs exposure control so that signal intensity of signals from focus detection pixels constituting all focus detection areas out of the plurality of focus detection areas is equal to or less than the threshold value. An imaging device.
請求項7または8に記載の撮像装置において、
前記焦点検出画素は、前記撮像光学系の一対の瞳領域を通過する一対の光束を受光する光電変換部と、前記光電変換部に対応して設けられたマイクロレンズとを備え、
前記焦点検出手段は、前記焦点検出画素からの信号に基づいて、前記一対の光束により形成される一対の像の像ズレ量を算出することで、前記撮影光学系の焦点状態の検出を行うことを特徴とする撮像装置。
The imaging apparatus according to claim 7 or 8,
The focus detection pixel includes a photoelectric conversion unit that receives a pair of light beams that pass through a pair of pupil regions of the imaging optical system, and a microlens provided corresponding to the photoelectric conversion unit,
The focus detection unit detects a focus state of the photographing optical system by calculating an image shift amount of a pair of images formed by the pair of light beams based on a signal from the focus detection pixel. An imaging apparatus characterized by the above.
請求項7〜9のいずれか一項に記載の撮像装置において、
前記焦点検出画素から出力される信号を、時系列順に複数記憶する記憶手段を備え、
前記焦点検出手段は、前記焦点検出画素から出力された信号と、前記記憶手段に記憶された信号とを積算し、積算した信号に基づいて、前記撮影光学系の焦点状態の検出を行うことを特徴とする撮像装置。
In the imaging device according to any one of claims 7 to 9,
Storage means for storing a plurality of signals output from the focus detection pixels in chronological order;
The focus detection unit integrates the signal output from the focus detection pixel and the signal stored in the storage unit, and detects the focus state of the photographing optical system based on the integrated signal. An imaging device that is characterized.
JP2010263191A 2010-11-26 2010-11-26 Imaging apparatus Pending JP2012113189A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010263191A JP2012113189A (en) 2010-11-26 2010-11-26 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010263191A JP2012113189A (en) 2010-11-26 2010-11-26 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2012113189A true JP2012113189A (en) 2012-06-14

Family

ID=46497442

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010263191A Pending JP2012113189A (en) 2010-11-26 2010-11-26 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2012113189A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014050718A1 (en) * 2012-09-28 2014-04-03 株式会社ニコン Focus detection device, and imaging device
JP2014219588A (en) * 2013-05-09 2014-11-20 キヤノン株式会社 Imaging device and control method of the same
JP2015068959A (en) * 2013-09-27 2015-04-13 キヤノン株式会社 Imaging device and control method of the same
WO2016027397A1 (en) * 2014-08-20 2016-02-25 パナソニックIpマネジメント株式会社 Solid-state image pickup apparatus and camera
JP2016142999A (en) * 2015-02-04 2016-08-08 キヤノン株式会社 Imaging device and control method of the same
US9826140B2 (en) 2013-12-05 2017-11-21 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
JP2017216711A (en) * 2017-07-13 2017-12-07 株式会社ニコン Imaging apparatus

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000292686A (en) * 1999-04-06 2000-10-20 Olympus Optical Co Ltd Image pickup device
JP2001125173A (en) * 1999-10-26 2001-05-11 Minolta Co Ltd Digital camera
JP2008085738A (en) * 2006-09-28 2008-04-10 Nikon Corp Imaging apparatus
JP2009044231A (en) * 2007-08-06 2009-02-26 Canon Inc Imaging apparatus and control method thereof
JP2009075407A (en) * 2007-09-21 2009-04-09 Nikon Corp Imaging apparatus
JP2009109623A (en) * 2007-10-29 2009-05-21 Sony Corp Imaging apparatus
JP2010081351A (en) * 2008-09-26 2010-04-08 Canon Inc Imaging apparatus
JP2010093619A (en) * 2008-10-09 2010-04-22 Nikon Corp Imaging device
JP2010091943A (en) * 2008-10-10 2010-04-22 Canon Inc Imaging apparatus
JP2010154171A (en) * 2008-12-25 2010-07-08 Olympus Imaging Corp Imaging apparatus and imaging method
JP2010181485A (en) * 2009-02-03 2010-08-19 Nikon Corp Image-pickup device and imaging element

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000292686A (en) * 1999-04-06 2000-10-20 Olympus Optical Co Ltd Image pickup device
JP2001125173A (en) * 1999-10-26 2001-05-11 Minolta Co Ltd Digital camera
JP2008085738A (en) * 2006-09-28 2008-04-10 Nikon Corp Imaging apparatus
JP2009044231A (en) * 2007-08-06 2009-02-26 Canon Inc Imaging apparatus and control method thereof
JP2009075407A (en) * 2007-09-21 2009-04-09 Nikon Corp Imaging apparatus
JP2009109623A (en) * 2007-10-29 2009-05-21 Sony Corp Imaging apparatus
JP2010081351A (en) * 2008-09-26 2010-04-08 Canon Inc Imaging apparatus
JP2010093619A (en) * 2008-10-09 2010-04-22 Nikon Corp Imaging device
JP2010091943A (en) * 2008-10-10 2010-04-22 Canon Inc Imaging apparatus
JP2010154171A (en) * 2008-12-25 2010-07-08 Olympus Imaging Corp Imaging apparatus and imaging method
JP2010181485A (en) * 2009-02-03 2010-08-19 Nikon Corp Image-pickup device and imaging element

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014050718A1 (en) * 2012-09-28 2014-04-03 株式会社ニコン Focus detection device, and imaging device
JP2014071290A (en) * 2012-09-28 2014-04-21 Nikon Corp Focus detection device, and imaging device
CN104685399A (en) * 2012-09-28 2015-06-03 株式会社尼康 Focus detection device, and imaging device
US9451154B2 (en) 2012-09-28 2016-09-20 Nikon Corporation Focus detection device and image-capturing apparatus
US9756237B2 (en) 2012-09-28 2017-09-05 Nikon Corporation Focus detection device and image-capturing apparatus
JP2014219588A (en) * 2013-05-09 2014-11-20 キヤノン株式会社 Imaging device and control method of the same
JP2015068959A (en) * 2013-09-27 2015-04-13 キヤノン株式会社 Imaging device and control method of the same
US9826140B2 (en) 2013-12-05 2017-11-21 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
WO2016027397A1 (en) * 2014-08-20 2016-02-25 パナソニックIpマネジメント株式会社 Solid-state image pickup apparatus and camera
JPWO2016027397A1 (en) * 2014-08-20 2017-06-01 パナソニックIpマネジメント株式会社 Solid-state imaging device and camera
JP2016142999A (en) * 2015-02-04 2016-08-08 キヤノン株式会社 Imaging device and control method of the same
JP2017216711A (en) * 2017-07-13 2017-12-07 株式会社ニコン Imaging apparatus

Similar Documents

Publication Publication Date Title
EP1975695B1 (en) Focus detection device, focusing state detection method and imaging apparatus
US8259215B2 (en) Image pickup apparatus having focus control using phase difference detection
JP5653035B2 (en) Imaging apparatus, focus detection method, and control method
KR101711804B1 (en) Focus detection apparatus, focus detection method, and image capturing apparatus
JP5597078B2 (en) Imaging apparatus and control method thereof
US7940323B2 (en) Image-pickup apparatus and control method thereof
JP5699480B2 (en) Focus detection device and camera
JP2012113189A (en) Imaging apparatus
JP5256675B2 (en) Imaging device
JP5625856B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP6642628B2 (en) Imaging device and imaging device
JP5609232B2 (en) Imaging device
JP5747510B2 (en) Imaging device
JP5440585B2 (en) Digital camera
JP2013122494A (en) Focus detector and camera
JP5610005B2 (en) Imaging device
JP2013122495A (en) Focus detector and camera
JP2009081522A (en) Imaging apparatus
JP2008129466A (en) Imaging apparatus and imaging system
JP6349624B2 (en) Image sensor and focus detection apparatus
JP5407567B2 (en) Imaging device and imaging element unit
JP2012226088A (en) Imaging apparatus
JP4928236B2 (en) Imaging apparatus and imaging system
JP2009031562A (en) Light receiving element, light receiver, focus detecting device, camera
JP2005006217A (en) Digital single lens reflex camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150407

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150804