JP2019204022A - Image capturing device - Google Patents

Image capturing device Download PDF

Info

Publication number
JP2019204022A
JP2019204022A JP2018099820A JP2018099820A JP2019204022A JP 2019204022 A JP2019204022 A JP 2019204022A JP 2018099820 A JP2018099820 A JP 2018099820A JP 2018099820 A JP2018099820 A JP 2018099820A JP 2019204022 A JP2019204022 A JP 2019204022A
Authority
JP
Japan
Prior art keywords
light
optical
light source
eyepiece
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018099820A
Other languages
Japanese (ja)
Inventor
祐一郎 芦田
Yuichiro Ashida
祐一郎 芦田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018099820A priority Critical patent/JP2019204022A/en
Publication of JP2019204022A publication Critical patent/JP2019204022A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Viewfinders (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

To provide an image capturing device capable of detecting the position of a user's eye at an optical viewfinder while minimizing an increase in cost and size.SOLUTION: An image capturing device 100 comprises: an optical viewfinder 131 against which a user places an eye to check an object to be shot; a photometric sensor 123 configured to receive light to measure luminance of the object; and an optical element 114a disposed in a light path to the photometric sensor 123 to reflect light entering through the optical viewfinder 131 toward the photometric sensor 123.SELECTED DRAWING: Figure 1

Description

本発明は、光学ファインダを有する撮像装置に関する。   The present invention relates to an imaging apparatus having an optical viewfinder.

光学ファインダを有する撮像装置では、ユーザが撮像する被写体を確認するために光学ファインダに接眼する。この場合、撮像装置では、特許文献1に開示されるように、光学ファインダに対するユーザの接眼を検出するための投光素子と受光素子とを設けることが考えられる。   In an imaging apparatus having an optical finder, the user touches the optical finder in order to confirm a subject to be imaged. In this case, as disclosed in Patent Document 1, it is conceivable that the imaging apparatus includes a light projecting element and a light receiving element for detecting a user's eyepiece with respect to the optical viewfinder.

特開2009−175586号公報JP 2009-175586 A

しかしながら、特許文献1では、光学ファインダに対するユーザの接眼を検出するために、専用の投光素子と受光素子とを撮像装置に追加している。接眼検出専用の投光素子と受光素子とを追加することにより、撮像装置では、コストアップおよび大型化の課題が生じる。このように撮像装置では、撮像装置のコストアップおよび大型化を抑制しつつ、光学ファインダに対するユーザの接眼状態を検出できるようにすることが求められている。   However, in Patent Document 1, in order to detect the user's eyepiece with respect to the optical viewfinder, a dedicated light projecting element and light receiving element are added to the imaging apparatus. By adding a light projecting element and a light receiving element dedicated for eyepiece detection, the imaging apparatus has problems of cost increase and size increase. As described above, the imaging apparatus is required to detect the eyepiece state of the user with respect to the optical viewfinder while suppressing the increase in cost and size of the imaging apparatus.

本発明の撮像装置は、撮像する被写体を確認するためにユーザが接眼する光学ファインダと、前記被写体の輝度を測定するために設けられる測光用撮像素子と、前記測光用撮像素子の光路に設けられ、前記光学ファインダから入射する光を、前記測光用撮像素子へ向かうように反射する反射光学部材と、を有する。   An imaging apparatus according to the present invention is provided in an optical viewfinder that a user takes an eye to confirm a subject to be imaged, a photometric image sensor provided to measure the luminance of the subject, and an optical path of the photometric image sensor. A reflective optical member that reflects light incident from the optical viewfinder so as to travel toward the photometric image sensor.

本発明では、撮像装置のコストアップおよび大型化を抑制しつつ、光学ファインダに対するユーザの接眼状態を検出できる。   In the present invention, it is possible to detect the eyepiece state of the user with respect to the optical viewfinder while suppressing an increase in cost and size of the imaging apparatus.

本発明の実施形態に係る撮像装置としてのデジタルカメラの光学系についての概略構成図である。It is a schematic block diagram about the optical system of the digital camera as an imaging device which concerns on embodiment of this invention. 図1の光学ファインダを覗いたファインダ視野の説明図である。It is explanatory drawing of the finder visual field which looked at the optical finder of FIG. 図1の光学素子の透過特性および反射特性を示すグラフである。It is a graph which shows the transmission characteristic and reflection characteristic of the optical element of FIG. 測光センサの受光特性を説明する図である。It is a figure explaining the light reception characteristic of a photometry sensor. 被写体の輝度を測るための測光光学系の説明図である。It is explanatory drawing of the photometry optical system for measuring the brightness | luminance of a to-be-photographed object. 光学ファインダへの接眼を検出するための接眼検出光学系の説明図である。It is explanatory drawing of the eyepiece detection optical system for detecting the eyepiece to an optical finder. 図1のカメラの制御系の概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the control system of the camera of FIG. 電源投入から撮像動作までの処理を示すフローチャートである。It is a flowchart which shows the process from power activation to imaging operation.

以下、本発明の実施形態について図面を参照しながら詳細に説明する。しかしながら、以下の実施形態に記載されている構成はあくまで例示に過ぎず、本発明の範囲は実施形態に記載されている構成によって限定されることはない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the configurations described in the following embodiments are merely examples, and the scope of the present invention is not limited by the configurations described in the embodiments.

図1は、本発明の実施形態に係る撮像装置としてのデジタルカメラ(以下、カメラという)100の光学系についての概略構成図である。図1のカメラ100は、撮像レンズ105が取り外し可能に取り付けられるボディ130を有する。撮像レンズ105は、レンズ105a、撮像レンズ制御部106、を有する。なお、同図には便宜的に1枚のレンズ105aを図示している。撮像レンズ105は、複数のレンズ105aを備えてよい。撮像レンズ制御部106は、レンズ105aを駆動して、撮像レンズ105の焦点位置を制御する。ボディ130の内部には、主ミラー111、サブミラー112、撮像センサ107、焦点検出制御部119、フォーカルプレーンシャッタ113、が設けられる。撮像センサ107は、たとえば撮像する被写体の光を受光するCCDセンサ、CMOSセンサである。撮像レンズ105のレンズ105aから撮像センサ107までに、撮像センサ107への光路が形成される。撮像レンズ105から入射した被写体の光は、レンズ105aにより集光され、撮像センサ107に結像し得る。撮像センサ107への光路には、撮像レンズ105から入射した被写体の光の一部を反射する主ミラー111、サブミラー112といった半透過ミラーが配置される。サブミラー112で反射された光は、焦点検出制御部119により受光される。焦点検出制御部119は、周知の位相差検出方式の焦点検出動作を実行し、被写体に対して自動的に撮像レンズ105を焦点位置に駆動する、いわゆるAF(オートフォーカシング)動作を実施する。AF動作において、撮像レンズ制御部106は、周知の位相差検出方式による焦点検出動作を実行し、レンズ105aを被写体に対して自動的に合焦する焦点位置へ駆動する。なお、撮像レンズ制御部106は、焦点検出において、後述する図2に示すように撮像範囲についての中央部分およびその上下左右に設定された19点の検出領域において合焦を判断すればよい。また、焦点検出制御部119は、焦点検出用の一対のラインセンサを有し、ラインセンサの出力の位相差(デフォーカス量)を算出する。また、焦点検出制御部119は、ラインセンサの蓄積時間と、ラインセンサのAGC(オートゲインコントロール)と、を制御する。   FIG. 1 is a schematic configuration diagram of an optical system of a digital camera (hereinafter referred to as a camera) 100 as an imaging apparatus according to an embodiment of the present invention. The camera 100 of FIG. 1 has a body 130 to which the imaging lens 105 is detachably attached. The imaging lens 105 includes a lens 105 a and an imaging lens control unit 106. In the drawing, one lens 105a is shown for convenience. The imaging lens 105 may include a plurality of lenses 105a. The imaging lens control unit 106 drives the lens 105 a to control the focal position of the imaging lens 105. Inside the body 130, a main mirror 111, a sub mirror 112, an image sensor 107, a focus detection control unit 119, and a focal plane shutter 113 are provided. The image sensor 107 is, for example, a CCD sensor or a CMOS sensor that receives light of a subject to be imaged. An optical path to the imaging sensor 107 is formed from the lens 105 a of the imaging lens 105 to the imaging sensor 107. The light of the subject incident from the imaging lens 105 can be condensed by the lens 105 a and imaged on the imaging sensor 107. In the optical path to the image sensor 107, semi-transmissive mirrors such as a main mirror 111 and a sub mirror 112 that reflect a part of the light of the subject incident from the image pickup lens 105 are arranged. The light reflected by the sub mirror 112 is received by the focus detection control unit 119. The focus detection control unit 119 performs a so-called AF (autofocusing) operation that executes a focus detection operation of a well-known phase difference detection method and automatically drives the imaging lens 105 to the focus position with respect to the subject. In the AF operation, the imaging lens control unit 106 performs a focus detection operation by a known phase difference detection method, and drives the lens 105a to a focus position where the subject is automatically focused. In the focus detection, the imaging lens control unit 106 may determine in-focus in the central portion of the imaging range and 19 detection areas set on the top, bottom, left, and right as shown in FIG. Further, the focus detection control unit 119 has a pair of line sensors for focus detection, and calculates the phase difference (defocus amount) of the output of the line sensor. The focus detection control unit 119 controls the accumulation time of the line sensor and the AGC (auto gain control) of the line sensor.

また、ボディ130には、焦点を検出するピント板116、視野枠117、PN液晶パネル114、光学素子114a、ペンタプリズム120、接眼レンズ124、光学ファインダ131、ファインダ内表示部118、接眼検出用光源127、が設けられる。光学ファインダ131は、カメラ100のボディ130において、撮像レンズ105についての反対側の背面に設けられる。ユーザは、撮像する被写体を確認するために光学ファインダ131に接眼して覗く。主ミラー111で反射された光は、ピント板116、視野枠117、PN液晶パネル114、光学素子114a、ペンタプリズム120、接眼レンズ124を透過し、光学ファインダ131へ導かれる。また、光学ファインダ131へ導かれる光の一部は、ピント板116においてプリズム屈折され、PN液晶パネル114、光学素子114a、ペンタプリズム120を透過し、さらに測光用光学素子121,122を透過し、測光センサ123により受光される。ピント板116は、撮像レンズ105からみて撮像センサ107の撮像面と等価になる位置に配置された焦点検出板である。被写体像は、主ミラー111で反射されて、ピント板116の位置にて1次結像する。ペンタプリズム120、接眼レンズ124は、ピント板116の位置に結像する被写体像の光を、光学ファインダ131へ導く。ユーザは、レンズ105aを通じたTTL方式の光学ファインダ131に接眼することにより、撮像する被写体を確認できる。視野枠117は、被写体の光束についての周辺部分を遮光する。ユーザは、撮像センサ107にて撮像する被写体の範囲を、光学ファインダ131にて確認できる。PN液晶パネル114は、ピント板116の近傍に配置される高分子分散液晶パネルである。PN液晶パネル114は、たとえば焦点検出制御部119の状態や焦点検出領域125を表示する。ファインダ内表示部118は、PN液晶パネル114と並べて配置される。ファインダ内表示部118は、絞り値やシャッタ速度などのカメラ100の各種の撮像情報を表示する。PN液晶パネル114およびファインダ内表示部118の表示光は、導光プリズム、ペンタプリズム120、接眼レンズ124を透過して、光学ファインダ131に導かれる。これにより、被写体の像と重ねて各種の情報が表示される。ユーザは、光学ファインダ131に接眼した状態で、撮像する被写体とともに各種の情報を確認できる。   The body 130 includes a focus plate 116 for detecting a focus, a field frame 117, a PN liquid crystal panel 114, an optical element 114a, a pentaprism 120, an eyepiece lens 124, an optical viewfinder 131, a viewfinder display 118, and an eyepiece detection light source. 127 is provided. The optical viewfinder 131 is provided on the back surface on the opposite side of the imaging lens 105 in the body 130 of the camera 100. The user looks through the optical viewfinder 131 in order to confirm the subject to be imaged. The light reflected by the main mirror 111 passes through the focus plate 116, the field frame 117, the PN liquid crystal panel 114, the optical element 114a, the pentaprism 120, and the eyepiece 124, and is guided to the optical viewfinder 131. Further, part of the light guided to the optical finder 131 is prism-refracted by the focusing plate 116, passes through the PN liquid crystal panel 114, the optical element 114a, and the pentaprism 120, and further passes through the photometric optical elements 121 and 122. Light is received by the photometric sensor 123. The focus plate 116 is a focus detection plate disposed at a position equivalent to the imaging surface of the imaging sensor 107 when viewed from the imaging lens 105. The subject image is reflected by the main mirror 111 and forms a primary image at the position of the focus plate 116. The pentaprism 120 and the eyepiece 124 guide the light of the subject image formed at the position of the focus plate 116 to the optical viewfinder 131. The user can confirm the subject to be imaged by observing the TTL optical viewfinder 131 through the lens 105a. The field frame 117 shields the peripheral part of the light flux of the subject. The user can confirm the range of the subject imaged by the imaging sensor 107 with the optical viewfinder 131. The PN liquid crystal panel 114 is a polymer dispersed liquid crystal panel disposed in the vicinity of the focus plate 116. The PN liquid crystal panel 114 displays the state of the focus detection control unit 119 and the focus detection area 125, for example. The in-finder display unit 118 is arranged side by side with the PN liquid crystal panel 114. The in-finder display unit 118 displays various types of imaging information of the camera 100 such as an aperture value and a shutter speed. The display light of the PN liquid crystal panel 114 and the in-viewfinder display unit 118 passes through the light guide prism, the pentaprism 120, and the eyepiece lens 124 and is guided to the optical viewfinder 131. As a result, various types of information are displayed superimposed on the subject image. The user can check various types of information together with the subject to be imaged while the eyepiece is in contact with the optical viewfinder 131.

また、ボディ130には、CPU101、が設けられる。CPU101は、撮像のための各種のプログラムを実行する中央演算処理装置であり、カメラ100の動作を制御する。CPU101は、たとえば撮像レンズ制御部106によるレンズ105aの駆動を制御し、絞りやピント位置を制御する。   The body 130 is provided with a CPU 101. The CPU 101 is a central processing unit that executes various programs for imaging, and controls the operation of the camera 100. The CPU 101 controls, for example, the driving of the lens 105a by the imaging lens control unit 106, and controls the aperture and focus position.

図2は、光学ファインダ131を覗いたファインダ視野の説明図である。図2には、撮像領域を視認させるためのファインダの視野枠117と、19点の焦点検出領域125と、測光センサ123の測光範囲126とが図示されている。19点の焦点検出領域125は、PN液晶パネル114によって視認可能に表示される。ユーザが19点の内の1点の焦点検出領域125を選択した場合、PN液晶パネル114は、選択された焦点検出領域125のみを表示する。PN液晶パネル114は、残りの18点の焦点検出領域125を非表示とする。ユーザは、ファインダの視野枠117の内側において、被写体の像を視認できる。また、ユーザは、被写体の像と重ねて、19点の焦点検出領域125を視認し得る。   FIG. 2 is an explanatory view of the viewfinder field viewed through the optical viewfinder 131. In FIG. 2, a viewfinder field frame 117 for visually recognizing the imaging region, a 19-point focus detection region 125, and a photometric range 126 of the photometric sensor 123 are illustrated. The 19 focus detection areas 125 are displayed by the PN liquid crystal panel 114 so as to be visible. When the user selects one of the 19 focus detection areas 125, the PN liquid crystal panel 114 displays only the selected focus detection area 125. The PN liquid crystal panel 114 hides the remaining 18 focus detection areas 125. The user can visually recognize the subject image inside the field frame 117 of the viewfinder. Further, the user can visually recognize the 19 focus detection areas 125 so as to overlap the subject image.

光学素子114aは、表裏それぞれにおいて、所定の波長の光に対して所望の透過特性または反射特性を有する光学素子114aである。光学素子114aは、PN液晶パネル114の表面に蒸着または貼付させたフィルムである。光学素子114aは、PN液晶パネル114と一体化している。図3は、図1の光学素子114aの透過特性および反射特性を示すグラフである。図3(a)は、図1の光学素子114aにおいて下側から入射する光についての透過特性である。図3(a)の横軸は波長であり、縦軸は透過率である。図3(a)に示すように、光学素子114aは、主に400〜750nmの波長域の光を透過し、それ以上の波長の赤外域の光をカットする。本実施形態では特に、800nmよりも長い波長域の光は、略透過しない。このように、光学素子114aは、被写体の光のうちの400〜750nmの波長域の光を透過する。透過した光は、ペンタプリズム120を通じて測光センサ123および光学ファインダ131へ導かれる。図3(b)は、図1の光学素子114aにおいて上側から入射する光についての反射特性である。図3(b)の横軸は波長であり、縦軸は反射率である。図3(b)に示すように、光学素子114aは、図3(a)で示した透過特性を反転させた反射特性を有する。特に、800nmよりも長い波長の光は、略100%で反射する。このように、光学素子114aは、反射光学部材として機能する。   The optical element 114a is an optical element 114a having desired transmission characteristics or reflection characteristics with respect to light of a predetermined wavelength on each of the front and back surfaces. The optical element 114a is a film deposited or stuck on the surface of the PN liquid crystal panel 114. The optical element 114a is integrated with the PN liquid crystal panel 114. FIG. 3 is a graph showing transmission characteristics and reflection characteristics of the optical element 114a of FIG. FIG. 3A shows transmission characteristics of light incident from below in the optical element 114a of FIG. In FIG. 3A, the horizontal axis represents wavelength, and the vertical axis represents transmittance. As shown in FIG. 3A, the optical element 114a mainly transmits light in the wavelength region of 400 to 750 nm and cuts light in the infrared region having a wavelength longer than that. In the present embodiment, in particular, light in a wavelength range longer than 800 nm is not substantially transmitted. Thus, the optical element 114a transmits light in the wavelength range of 400 to 750 nm out of the light of the subject. The transmitted light is guided to the photometric sensor 123 and the optical finder 131 through the pentaprism 120. FIG. 3B shows reflection characteristics for light incident from above in the optical element 114a of FIG. The horizontal axis of FIG.3 (b) is a wavelength and a vertical axis | shaft is a reflectance. As shown in FIG. 3B, the optical element 114a has a reflection characteristic obtained by inverting the transmission characteristic shown in FIG. In particular, light having a wavelength longer than 800 nm is reflected at approximately 100%. Thus, the optical element 114a functions as a reflective optical member.

接眼検出用光源127は、たとえばLEDなどからなる光源である。接眼検出用光源127は、光学ファインダ131に接眼しているユーザの眼およびその近傍に向けて光を発するように、不図示の保持部材によって、接眼レンズ124の近傍に配置される。接眼検出用光源127は、光学ファインダ131への光路から外れるように、光学ファインダ131の周囲に設けられる。本実施形態では、接眼検出用光源127は、図1に示すように光学ファインダ131の下側に設けられる。なお、接眼検出用光源127は、カメラ100の姿勢がいわゆる正位置である場合に、光学ファインダ131の下側に位置するように設けられている。そして、カメラ100の正位置は、ペンタプリズム120や光学ファインダ131などが撮像センサ107についての重力方向とは逆側に位置する姿勢である。接眼検出用光源127が発した光は、光学ファインダ131に接眼したユーザの眼およびその近傍において反射され、光学ファインダ131からボディ130へ入射する。光学ファインダ131から入射する光は、光学ファインダ131への光路に対して斜めの角度をもっている。接眼検出用光源127は、ユーザが視認できない近赤外の波長域の光を発する。本実施形態において接眼検出用光源127は、光学素子114aで反射することができる850nm近傍の波長を有する近赤外の赤外光を発する。接眼検出用光源127は、光学ファインダ131に接眼するユーザに向けて、可視光の波長ではない850nm近傍の波長の近赤外の赤外光を発する。   The eyepiece detection light source 127 is a light source made of, for example, an LED. The eyepiece detection light source 127 is disposed in the vicinity of the eyepiece lens 124 by a holding member (not shown) so as to emit light toward the eye of the user who is in contact with the optical viewfinder 131 and the vicinity thereof. The eyepiece detection light source 127 is provided around the optical viewfinder 131 so as to be out of the optical path to the optical viewfinder 131. In the present embodiment, the eyepiece detection light source 127 is provided below the optical viewfinder 131 as shown in FIG. Note that the eyepiece detection light source 127 is provided below the optical viewfinder 131 when the camera 100 is in the so-called normal position. The normal position of the camera 100 is a posture in which the pentaprism 120, the optical finder 131, and the like are located on the opposite side to the gravity direction with respect to the image sensor 107. The light emitted from the eyepiece detection light source 127 is reflected by the user's eye that is in contact with the optical viewfinder 131 and the vicinity thereof, and enters the body 130 from the optical viewfinder 131. The light incident from the optical finder 131 has an oblique angle with respect to the optical path to the optical finder 131. The eyepiece detection light source 127 emits light in the near-infrared wavelength region that cannot be visually recognized by the user. In the present embodiment, the eyepiece detection light source 127 emits near-infrared light having a wavelength near 850 nm that can be reflected by the optical element 114a. The eyepiece detection light source 127 emits near-infrared light having a wavelength in the vicinity of 850 nm, which is not the wavelength of visible light, toward the user who is in contact with the optical viewfinder 131.

測光センサ123は、測光用撮像素子であり、被写体の輝度の測光処理などのために光を受ける。測光センサ123は、たとえば画素ピッチ約6umにより横640×縦480で受光用の画素が配列された、約30万画素の高画素数のセンサである。被写体の輝度の測光処理では、撮像レンズ105から入射した光は、ピント板116に結像された被写体像の光路を折り曲げるための測光用プリズム121で屈折され、測光センサ123に入射する。被写体の像は、測光センサ123において2次結像する。測光センサ123の受光範囲には、Rを受光する画素、Gを受光する画素、Bを受光する画素、IR1を受光する画素、IR2を受光する画素、の5色に感度を有する複数の受光用の画素が配列される。ここで、Rは赤色であり、Gは緑色であり、Bは青色であり、IR1は第一の赤外波長領域の光であり、IR2は第二の赤外波長領域の光である。5色に対応する複数の画素は、各色がストライプとなるように配列される。測光センサ123は、被写体の輝度から露出制御値を決定するためだけでなく、撮像画像のオートホワイトバランスを最適化するためにも用いられる。夕景や朝焼けといった自然風景が被写体である場合、近赤外光が発せられる。このため、測光センサ123は、IR1(第一の赤外波長領域の光)を受光する画素を有する。IR1(第一の赤外波長領域の光)を受光する画素は、近赤外である680nmよりも長い波長域に感度を有する。IR1(第一の赤外波長領域の光)を受光する画素の出力は、R、G、Bの各色の画素の出力とともに、被写体が近赤外光の反射特性を有しているか否かを判定するために用いられる。IR2(第二の赤外波長領域の光)を受光する画素は、接眼検出用光源127の光の波長域である850nmの光に対して主感度を有する。   The photometric sensor 123 is a photometric image sensor and receives light for photometric processing of the luminance of the subject. The photometric sensor 123 is a sensor having a high pixel count of about 300,000 pixels in which light receiving pixels are arranged in a width of 640 × length 480 with a pixel pitch of about 6 μm, for example. In the photometric processing of the luminance of the subject, the light incident from the imaging lens 105 is refracted by the photometric prism 121 for bending the optical path of the subject image formed on the focus plate 116 and enters the photometric sensor 123. A subject image is secondarily formed by the photometric sensor 123. The light receiving range of the photometric sensor 123 includes a plurality of light receiving sensitivities having five colors: a pixel that receives R, a pixel that receives G, a pixel that receives B, a pixel that receives IR1, and a pixel that receives IR2. Pixels are arranged. Here, R is red, G is green, B is blue, IR1 is light in the first infrared wavelength region, and IR2 is light in the second infrared wavelength region. A plurality of pixels corresponding to five colors are arranged so that each color is a stripe. The photometric sensor 123 is used not only for determining the exposure control value from the luminance of the subject but also for optimizing the auto white balance of the captured image. Near-infrared light is emitted when a natural scene such as sunset or sunrise is the subject. For this reason, the photometric sensor 123 has pixels that receive IR1 (light in the first infrared wavelength region). A pixel that receives IR1 (light in the first infrared wavelength region) has sensitivity in a wavelength region longer than 680 nm, which is near infrared. The output of the pixel that receives IR1 (light in the first infrared wavelength region) is the output of the pixels of each color of R, G, and B, and whether or not the subject has reflection characteristics of near-infrared light. Used to determine. A pixel that receives IR2 (light in the second infrared wavelength region) has main sensitivity to light of 850 nm that is the wavelength region of the light of the eyepiece detection light source 127.

図4は、測光センサ123の受光特性を説明する図である。図4(a)には、測光センサ123に設けられるR、G、B、IR1、IR2の5種類の画素に対応するフィルタの透過特性を示している。図4(a)の横軸は波長であり、縦軸は、各画素に対応する透過率である。各画素に対応する透過率は、G画素での最大の透過率を100%として正規化された相対的なものである。これにより、B画素は400〜500nmの光に感度を有する。G画素は480nm〜800nmの光に感度を有する。R画素は550nmよりも長い波長領域の光に感度を有する。IR1の画素は680nmよりも長い波長領域の光に感度を有する。IR2の画素は800nmよりも長い波長領域の光に感度を有する。IR2の画素は、接眼検出用光源127の出力するたとえば850nmの波長成分に対して感度を有する。IR1の画素といったその他の画素は、接眼検出用光源127の出力する波長成分より短い波長に感度を有する。IR1の画素は、接眼検出用光源127の出力する波長成分より短い740nmの波長の赤外光について感度を有する。図4(b)は、測光センサ123による被写体の光の受光特性を示すものである。図4(b)の横軸は波長であり、縦軸は、各画素による受光率である。被写体の光は、撮像レンズ105、ピント板116、PN液晶パネル114、光学素子114a、ペンタプリズム120を介して、測光センサ123に入射する。光学素子114aは、図3(a)に示すように、800nmよりも長波長域の光を透過しない。このため、測光センサ123には、図4(b)に示すように、被写体の光として800nmよりも短い波長域の光のみが入射する。実際の被写体の光に800nmよりも長い波長の成分が含まれているとしても、測光センサ123は、被写体の光として、第二の赤外領域IR2の画素が感度を有する波長成分を受光し得ない。測光センサ123は、被写体の光を受ける場合、第二の赤外領域IR2の画素から出力を得ることができない。   FIG. 4 is a diagram for explaining the light receiving characteristics of the photometric sensor 123. FIG. 4A shows the transmission characteristics of filters corresponding to five types of pixels R, G, B, IR1, and IR2 provided in the photometric sensor 123. The horizontal axis in FIG. 4A is the wavelength, and the vertical axis is the transmittance corresponding to each pixel. The transmittance corresponding to each pixel is a relative value normalized with the maximum transmittance at the G pixel as 100%. Thereby, the B pixel has sensitivity to light of 400 to 500 nm. The G pixel is sensitive to light of 480 nm to 800 nm. The R pixel is sensitive to light in a wavelength region longer than 550 nm. The IR1 pixel is sensitive to light in a wavelength region longer than 680 nm. The IR2 pixel is sensitive to light in a wavelength region longer than 800 nm. The pixel of IR2 has sensitivity to a wavelength component of, for example, 850 nm output from the eyepiece detection light source 127. Other pixels such as the IR1 pixel are sensitive to wavelengths shorter than the wavelength component output from the eyepiece detection light source 127. The IR1 pixel is sensitive to infrared light having a wavelength of 740 nm, which is shorter than the wavelength component output from the eyepiece detection light source 127. FIG. 4B shows the light receiving characteristics of the light of the subject by the photometric sensor 123. The horizontal axis of FIG.4 (b) is a wavelength and a vertical axis | shaft is the light reception rate by each pixel. The light of the subject enters the photometric sensor 123 via the imaging lens 105, the focusing plate 116, the PN liquid crystal panel 114, the optical element 114a, and the pentaprism 120. As shown in FIG. 3A, the optical element 114a does not transmit light having a wavelength longer than 800 nm. Therefore, as shown in FIG. 4B, only light having a wavelength range shorter than 800 nm is incident on the photometric sensor 123 as shown in FIG. Even if the actual subject light includes a component having a wavelength longer than 800 nm, the photometric sensor 123 can receive the wavelength component with which the pixel in the second infrared region IR2 is sensitive as the subject light. Absent. The photometric sensor 123 cannot obtain an output from the pixel in the second infrared region IR2 when receiving light from the subject.

図5は、被写体の輝度を測るための測光光学系の説明図である。図5(a)には、測光のための被写体の光路として、測光センサ123の中心部が測光用プリズム121及び測光レンズ122を介してピント板116を観察する光路が示されている。ピント板116は、撮像レンズ105を介した被写体の光を、微小なプリズムで拡散させる特性を有する。測光センサ123は、ピント板116によって拡散された被写体の光を受光する。測光センサ123の中心部は、たとえば図5(a)に示すように、ファインダ光軸に対して角度θ1だけ傾いた方向からピント板116を観察する。この場合、測光センサ123は、拡散角度θ1の光を受光することになる。図5(b)には、測光センサ123がピント板116の中央及びファインダ視野の上下を観察する3つの光路が示されている。ファインダ視野の上下方向とは、図2で示したファインダ視野の短手方向(図2のy方向)であり、図5ではy方向が対応する。ファインダ視野の上側及び下側について、測光センサ123は、中心部分とは異なる角度でピント板116を観察する。ファインダ視野の上側を観察する角度θ2は、θ1より小さい。ファインダ視野の下側を観察する角度θ3は、θ1より大きい。   FIG. 5 is an explanatory diagram of a photometric optical system for measuring the luminance of a subject. FIG. 5A shows an optical path through which the central portion of the photometric sensor 123 observes the focusing plate 116 via the photometric prism 121 and the photometric lens 122 as the optical path of the subject for photometry. The focus plate 116 has a characteristic of diffusing the light of the subject through the imaging lens 105 with a minute prism. The photometric sensor 123 receives the light of the subject diffused by the focus plate 116. For example, as shown in FIG. 5A, the central portion of the photometric sensor 123 observes the focusing plate 116 from a direction inclined by an angle θ1 with respect to the finder optical axis. In this case, the photometric sensor 123 receives light having a diffusion angle θ1. FIG. 5B shows three optical paths through which the photometric sensor 123 observes the center of the focus plate 116 and the top and bottom of the viewfinder field. The vertical direction of the finder field is the short direction (y direction in FIG. 2) of the finder field shown in FIG. 2, and the y direction corresponds in FIG. With respect to the upper side and the lower side of the viewfinder field, the photometric sensor 123 observes the focus plate 116 at an angle different from the central portion. The angle θ2 for observing the upper side of the viewfinder field is smaller than θ1. The angle θ3 for observing the lower side of the viewfinder field is larger than θ1.

測光レンズ122は、たとえば結像倍率が0.15倍のレンズである。この場合、図2のファインダ視野に模式的に重ねて図示するように、測光センサ123の受光範囲126は、ファインダの視野枠117より少し内側となる領域を計測できる。露出制御値を演算する場合、測光センサ123の受光範囲126は、横20×縦20の粗い分割領域に区切られる。分割領域には、横32×縦24の画素が含まれる。測光センサ123は、400画素の低画素センサとして用いられる。この場合、CPU101は、400の分割領域ごとに各々に含まれるRGBの画素の出力値から輝度値を算出し、さらに複数の分割領域の輝度値の和や平均値などを演算し、被写体の輝度を得る。なお、CPU101は、主要被写体に適正な露光を行うように、測光センサ123に設定された複数の分割領域の被写体の輝度値に対して、主要な被写体に対応する焦点検出領域125を中心とした所定の重みづけの演算をし、露出制御値を算出してよい。CPU101は、算出した露出制御値に基づいて、撮像レンズ105の不図示の絞りの開口量と、フォーカルプレーンシャッタ113のシャッタ速度とを設定する。これにより、被写体の光は、適正な光量で撮像センサ107に到達し得る。カメラ100は、所望の明るさの画像を撮像できる。   The photometric lens 122 is, for example, a lens having an imaging magnification of 0.15. In this case, as schematically shown in the viewfinder field of FIG. 2, the light receiving range 126 of the photometric sensor 123 can measure a region slightly inside the viewfinder field frame 117. When calculating the exposure control value, the light receiving range 126 of the photometric sensor 123 is divided into coarse divided areas of horizontal 20 × vertical 20. The divided area includes 32 × 24 pixels. The photometric sensor 123 is used as a 400 pixel low pixel sensor. In this case, the CPU 101 calculates the luminance value from the output values of the RGB pixels included in each of the 400 divided areas, and further calculates the sum, average value, etc. of the luminance values of the plurality of divided areas to obtain the luminance of the subject. Get. Note that the CPU 101 focuses on the focus detection area 125 corresponding to the main subject with respect to the luminance values of the subjects in the plurality of divided areas set in the photometric sensor 123 so that the main subject is appropriately exposed. An exposure control value may be calculated by calculating a predetermined weight. Based on the calculated exposure control value, the CPU 101 sets the aperture amount of a diaphragm (not shown) of the imaging lens 105 and the shutter speed of the focal plane shutter 113. Thereby, the light of the subject can reach the image sensor 107 with an appropriate amount of light. The camera 100 can capture an image with a desired brightness.

図6は、光学ファインダ131への接眼を検出するための接眼検出光学系の説明図である。本実施形態において、測光センサ123は、接眼を検出するためのセンサを兼ねている。図6(a)には、測光センサ123がファインダ視野上側を観察する光路をベースとした接眼検出用の光路が示されている。接眼を検出する場合、測光センサ123は、接眼検出用光源127が光学ファインダ131に接眼しているユーザの眼およびその近傍に向けて発した光を受ける。光学ファインダ131から入射する接眼検出用の光は、接眼レンズ124およびペンタプリズム120を透過し、PN液晶パネル114の上に設けられた光学素子114aに達する。光学素子114aは、測光センサ123の光路に設けられ、光学ファインダ131から入射する光についての800nmよりも長い波長の成分を、測光センサ123へ向けて反射する。光学素子114aにより反射された光は、再びペンタプリズム120を透過し、さらに測光用プリズム121および測光レンズ122を透過し、測光センサ123に照射される。測光センサ123は、接眼検出用光源127が発した光を、光学ファインダ131から入射する光として受光する。図6(b)は、図6(a)に対する比較例を示している。図6(b)において、測光センサ123は、その中心部において接眼を検出しようとしている。測光センサ123の中心部において接眼を検出する光路を、測光センサ123の側から逆にたどる。測光センサ123の中心部に照射される光は、測光レンズ122、測光用プリズム121およびペンタプリズム120を透過し、PN液晶パネル114に配置された光学素子114aで反射される。反射された光は、再びペンタプリズム120を透過する。しかしながら、この場合、測光センサ123の中心部に照射される光は、接眼レンズ124から外れた方向へ導かれることになる。すなわち、測光センサ123は、その中心部において、ユーザの眼またはその近傍で反射されて光学ファインダ131から入射する接眼検出用の光を観察することができない。このように測光センサ123において、接眼検出用の光を観察することができる領域は限られる。本実施形態では、測光センサ123は、図2で斜線を付したファインダ視野の上側の観察領域128において、接眼検出用の光を観察する。測光センサ123は、被写体の輝度を測定するための光と、光学ファインダ131から入射する光とを、受光範囲において互いにずれた領域で受光する。測光センサ123は、観察領域128に設けられた第二の赤外領域IR2を受光する画素の出力に基づいて、ユーザが接眼しているか否かを検出することができる。   FIG. 6 is an explanatory diagram of an eyepiece detection optical system for detecting an eyepiece to the optical viewfinder 131. In the present embodiment, the photometric sensor 123 also serves as a sensor for detecting an eyepiece. FIG. 6A shows an optical path for eyepiece detection based on an optical path through which the photometric sensor 123 observes the upper side of the viewfinder field. When the eyepiece is detected, the photometric sensor 123 receives light emitted from the eyepiece detection light source 127 toward the user's eye that is in contact with the optical viewfinder 131 and the vicinity thereof. The eye detection light incident from the optical viewfinder 131 passes through the eyepiece lens 124 and the pentaprism 120 and reaches the optical element 114 a provided on the PN liquid crystal panel 114. The optical element 114 a is provided in the optical path of the photometric sensor 123 and reflects a component having a wavelength longer than 800 nm with respect to the light incident from the optical finder 131 toward the photometric sensor 123. The light reflected by the optical element 114 a passes through the pentaprism 120 again, passes through the photometric prism 121 and the photometric lens 122, and is irradiated on the photometric sensor 123. The photometric sensor 123 receives light emitted from the eyepiece detection light source 127 as light incident from the optical viewfinder 131. FIG. 6B shows a comparative example with respect to FIG. In FIG.6 (b), the photometry sensor 123 is going to detect an eyepiece in the center part. The optical path for detecting the eyepiece at the center of the photometric sensor 123 is traced back from the photometric sensor 123 side. The light irradiated to the central portion of the photometric sensor 123 passes through the photometric lens 122, the photometric prism 121, and the pentaprism 120, and is reflected by the optical element 114a disposed on the PN liquid crystal panel 114. The reflected light passes through the pentaprism 120 again. However, in this case, the light emitted to the central portion of the photometric sensor 123 is guided in a direction away from the eyepiece lens 124. That is, the photometric sensor 123 cannot observe the eyepiece detection light that is reflected from the user's eye or the vicinity thereof and incident from the optical finder 131 at the center thereof. Thus, in the photometric sensor 123, the region where the eyepiece detection light can be observed is limited. In the present embodiment, the photometric sensor 123 observes the eyepiece detection light in the observation region 128 above the viewfinder field hatched in FIG. The photometric sensor 123 receives light for measuring the luminance of the subject and light incident from the optical viewfinder 131 in areas shifted from each other in the light receiving range. The photometric sensor 123 can detect whether the user is in contact with the eye based on the output of the pixel that receives the second infrared region IR2 provided in the observation region 128.

図7は、図1のカメラ100の制御系の概略構成を示す説明図である。図7のカメラ100の制御系は、CPU101、およびこれに接続されたROM(リードオンリーメモリ)102、RAM(ランダムアクセスメモリ)103、データ格納部104、を有する。また、CPU101には、撮像センサ制御部108、画像処理部109、フォーカルプレーンシャッタ113、表示制御部110、測光センサ123、接眼検出用光源127、が接続される。CPU101には、DC/DCコンバータ142、レリーズスイッチ140、焦点検出制御部119、撮影レンズ制御部106、が接続される。CPU101は、不揮発性メモリであるEEPROM101aを有し、ROM102から制御プログラムを読み込んで実行する。これにより、CPU101は、カメラ100の動作を制御する制御部として機能する。CPU101は、たとえば、画像処理部109から出力された撮像画像信号を読み込み、RAM103へ転送する。この他にもたとえば、CPU101は、RAM103から表示制御部110へデータを転送する。この他にもたとえば、CPU101は、画像データをJPEG圧縮してファイル形式でデータ格納部104へ格納する。RAM103は画像展開エリア103a、ワークエリア103b、VRAM103c、一時退避エリア103dを備える。画像展開エリア103aは、画像処理部109より送られてきた撮像画像(YUVデジタル信号)やデータ格納部104から読み出されたJPEG圧縮画像データを一時的に格納するためのテンポラリバッファとして用いられる。画像展開エリア103aは、画像圧縮処理、解凍処理のための画像専用ワークエリアとしても用いられる。ワークエリア103bは、各種プログラムのためのワークエリアである。VRAM103cは、後述する外表示部115へ表示する表示データを格納する。一時退避エリア103dは、各種データを一時的に退避するために用いられる。データ格納部104は、CPU101によりJPEG圧縮された撮像画像データ、あるいはアプリケーションより参照される各種付属データ等をファイル形式で格納しておくためのフラッシュメモリである。   FIG. 7 is an explanatory diagram showing a schematic configuration of a control system of the camera 100 of FIG. The control system of the camera 100 in FIG. 7 includes a CPU 101, a ROM (read only memory) 102, a RAM (random access memory) 103, and a data storage unit 104 connected to the CPU 101. The CPU 101 is connected with an image sensor control unit 108, an image processing unit 109, a focal plane shutter 113, a display control unit 110, a photometric sensor 123, and an eyepiece detection light source 127. A DC / DC converter 142, a release switch 140, a focus detection control unit 119, and a photographing lens control unit 106 are connected to the CPU 101. The CPU 101 has an EEPROM 101a which is a nonvolatile memory, and reads a control program from the ROM 102 and executes it. Thereby, the CPU 101 functions as a control unit that controls the operation of the camera 100. For example, the CPU 101 reads a captured image signal output from the image processing unit 109 and transfers it to the RAM 103. In addition to this, for example, the CPU 101 transfers data from the RAM 103 to the display control unit 110. In addition to this, for example, the CPU 101 JPEG compresses the image data and stores it in the data storage unit 104 in a file format. The RAM 103 includes an image development area 103a, a work area 103b, a VRAM 103c, and a temporary save area 103d. The image development area 103 a is used as a temporary buffer for temporarily storing a captured image (YUV digital signal) sent from the image processing unit 109 and JPEG compressed image data read from the data storage unit 104. The image development area 103a is also used as an image-dedicated work area for image compression processing and decompression processing. The work area 103b is a work area for various programs. The VRAM 103c stores display data to be displayed on the outer display unit 115 described later. The temporary save area 103d is used for temporarily saving various data. The data storage unit 104 is a flash memory for storing captured image data JPEG-compressed by the CPU 101 or various attached data referenced by an application in a file format.

撮像レンズ制御部106は、レンズ105aを駆動して、撮像レンズ105の焦点位置を制御する。CPU101は、撮像レンズ制御部106に対して、焦点位置を指示する。撮像センサ107には、撮像センサ制御部108が接続される。撮像センサ制御部108には、画像処理部109が接続される。撮像センサ107は、撮像レンズ105によって投影された撮像画像を光電変換処理し、アナログ信号を出力する。撮像センサ制御部108は、撮像センサ107に転送クロック信号やシャッタ信号を供給するタイミングジェネレータ、センサ出力信号のノイズ除去およびゲイン処理を行う回路、を含む。撮像センサ制御部108は、撮像センサ107から出力されるアナログ信号を10ビットのデジタル信号に変換するA/D変換回路、CPU101の解像度変換指示に従って画素間引き処理を行う回路、を含む。画像処理部109は、撮像センサ制御部108から出力される10ビットのデジタル信号について、ガンマ変換、色空間変換、ホワイトバランス、AE、フラッシュ補正などの画像処理を行う。画像処理部109は、YUV(4:2:2)フォーマットの8ビットのデジタル信号をCPU101へ出力する。CPU101は、撮像レンズ制御部106、撮像センサ107、撮像センサ制御部108、画像処理部109、表示制御部110に対して、データ取り込み画素数やデジタル画像処理の変更を指示する。   The imaging lens control unit 106 drives the lens 105 a to control the focal position of the imaging lens 105. The CPU 101 instructs the imaging lens control unit 106 to determine the focal position. An imaging sensor control unit 108 is connected to the imaging sensor 107. An image processing unit 109 is connected to the image sensor control unit 108. The imaging sensor 107 performs a photoelectric conversion process on the captured image projected by the imaging lens 105 and outputs an analog signal. The image sensor control unit 108 includes a timing generator that supplies a transfer clock signal and a shutter signal to the image sensor 107, and a circuit that performs noise removal and gain processing of the sensor output signal. The imaging sensor control unit 108 includes an A / D conversion circuit that converts an analog signal output from the imaging sensor 107 into a 10-bit digital signal, and a circuit that performs pixel thinning processing in accordance with a resolution conversion instruction from the CPU 101. The image processing unit 109 performs image processing such as gamma conversion, color space conversion, white balance, AE, and flash correction on the 10-bit digital signal output from the image sensor control unit 108. The image processing unit 109 outputs an 8-bit digital signal in YUV (4: 2: 2) format to the CPU 101. The CPU 101 instructs the imaging lens control unit 106, the imaging sensor 107, the imaging sensor control unit 108, the image processing unit 109, and the display control unit 110 to change the number of data capture pixels and digital image processing.

焦点検出制御部119は、焦点検出用の一対のラインセンサを有する。焦点検出制御部119は、ラインセンサから得た電圧をA/D変換し、CPU101に送る。CPU101は、焦点検出制御部119に対して、ラインセンサの蓄積時間と、AGC(オートゲインコントロール)とを指示する。   The focus detection control unit 119 has a pair of line sensors for focus detection. The focus detection control unit 119 performs A / D conversion on the voltage obtained from the line sensor and sends it to the CPU 101. The CPU 101 instructs the focus detection control unit 119 about the accumulation time of the line sensor and AGC (auto gain control).

測光センサ123及び接眼検出用光源127は、CPU101により制御される。CPU101は、接眼検出用光源127を所定の周期で点滅させる。CPU101は、接眼検出用光源127の点滅周期よりも短い周期で、測光センサ123に蓄積させる。接眼検出用光源127を点滅させる理由としては、たとえば、ユーザが接眼している状態においてユーザの背後に太陽などの赤外を含んだ強度の強い外光源が存在する場合において、その外光源の光を誤って検知しないようにするためである。たとえばCPU101は、接眼検出用光源127の点灯と消灯とのそれぞれにおいて測光センサ123に蓄積させる。そしして、点灯時に測光センサ123に蓄積されてIR2の画素から出力される検出量と、消灯時に測光センサ123に蓄積されてIR2の画素から出力される検出量との差分を得ることにより、外光源の光をキャンセルできる。CPU101は、算出された差分と所定の閾値とを比較する。そして、差分が閾値を越える場合、CPU101は、ユーザが接眼している状態であると判断する。算出された差分が閾値以下である場合、CPU101は、ユーザが接眼していないと判断する。また、測光センサ123のアナログ信号は、CPU101により8ビットのデジタル信号へA/D変換される。CPU101は、測光センサ123から取得した縦640×480画素(約30万画素)のベイヤー配列またはストライプ配列されたR、G、B、IR1、IR2の各色のアナログ信号をA/D変換し、RAM103に保存する。CPU101は、デジタル信号として保存した測光センサ123のIR2の画素の出力に基づいて、ユーザがカメラ100を接眼しているか否かを判定する。CPU101は、接眼検出の判定結果に応じて、外表示手段としての外表示部115の表示/非表示を切り換える。CPU101は、デジタル信号として保存された測光センサ123のR、G、Bの画素の出力に基づいて、輝度信号または色信号を作成し、露出制御値を演算する。CPU101は、IR1の画素の出力に基づいて、近赤外光を含む色情報を算出する。画像処理部109は、算出された近赤外光を含む色情報に基づいて、撮像センサ107の信号を処理する際のオートホワイトバランスを最適化する。   The photometric sensor 123 and the eyepiece detection light source 127 are controlled by the CPU 101. The CPU 101 causes the eyepiece detection light source 127 to blink at a predetermined cycle. The CPU 101 causes the photometric sensor 123 to accumulate at a cycle shorter than the blinking cycle of the eyepiece detection light source 127. The reason for blinking the eyepiece detection light source 127 is, for example, when there is a strong external light source including infrared rays such as the sun behind the user in a state where the user is in eye contact. This is to prevent erroneous detection. For example, the CPU 101 causes the photometric sensor 123 to store the eyepiece detection light source 127 each time it is turned on or off. Then, by obtaining the difference between the detection amount accumulated in the photometric sensor 123 when it is turned on and output from the IR2 pixel, and the detection amount accumulated in the photometric sensor 123 when it is turned off and output from the IR2 pixel, The light from the external light source can be canceled. The CPU 101 compares the calculated difference with a predetermined threshold value. If the difference exceeds the threshold value, the CPU 101 determines that the user is in an eyepiece state. When the calculated difference is equal to or smaller than the threshold value, the CPU 101 determines that the user is not eyepiece. The analog signal of the photometric sensor 123 is A / D converted by the CPU 101 into an 8-bit digital signal. The CPU 101 performs A / D conversion on analog signals of R, G, B, IR1, and IR2 colors arranged in a Bayer array or stripe array of 640 × 480 pixels (approximately 300,000 pixels) obtained from the photometric sensor 123, and the RAM 103 Save to. The CPU 101 determines whether the user is eyeing the camera 100 based on the output of the IR2 pixel of the photometric sensor 123 stored as a digital signal. The CPU 101 switches display / non-display of the outer display unit 115 as the outer display unit according to the determination result of the eyepiece detection. The CPU 101 creates a luminance signal or a color signal based on the output of the R, G, and B pixels of the photometric sensor 123 stored as a digital signal, and calculates an exposure control value. The CPU 101 calculates color information including near-infrared light based on the output of the IR1 pixel. The image processing unit 109 optimizes the auto white balance when processing the signal of the image sensor 107 based on the calculated color information including near infrared light.

表示制御部110には、外表示部115、ファインダ内表示部118、PN液晶パネル114、が接続される。外表示部115は、たとえばTFTカラー液晶である。表示制御部110は、画像処理部109から転送されたYUVデジタル画像データを受け取り、RGBデジタル信号へ変換し、外表示部115へ出力する処理を行う。また、表示制御部110は、データ格納部104の画像ファイルに対してJPEGの解凍を行ったYUVデジタル画像データを受け取り、RGBデジタル信号へ変換し、外表示部115へ出力する処理を行う。表示制御部110は、たとえば外表示部115に、撮像センサ107にて撮像された画像を縦横各々間引き処理した画像により、撮像する被写体を表示する。表示制御部110は、PN液晶パネル114は、図2の焦点検出領域125を表示させるためにPN液晶パネル114を駆動する。CPU101は、表示制御部110による外表示部115、ファインダ内表示部118、およびPN液晶パネル114の表示を制御する。   The display control unit 110 is connected to an outer display unit 115, a viewfinder display unit 118, and a PN liquid crystal panel 114. The outer display unit 115 is, for example, a TFT color liquid crystal. The display control unit 110 performs processing for receiving the YUV digital image data transferred from the image processing unit 109, converting it into an RGB digital signal, and outputting it to the outer display unit 115. In addition, the display control unit 110 performs processing for receiving YUV digital image data obtained by performing JPEG decompression on the image file in the data storage unit 104, converting it into an RGB digital signal, and outputting the RGB digital signal to the external display unit 115. For example, the display control unit 110 displays the subject to be imaged on the outer display unit 115 by using an image obtained by thinning the image captured by the image sensor 107 vertically and horizontally. In the display control unit 110, the PN liquid crystal panel 114 drives the PN liquid crystal panel 114 to display the focus detection area 125 of FIG. The CPU 101 controls display of the outer display unit 115, the in-finder display unit 118, and the PN liquid crystal panel 114 by the display control unit 110.

DC/DCコンバータ142には、電池141が接続される。電池141は、リチャージャブルの2次電池または乾電池でよい。DC/DCコンバータ142は、電池141からの電源供給を受け、供給された電圧を昇圧し、レギュレーションにより複数の電圧を生成する。DC/DCコンバータ142は、生成した複数の電圧を、CPU101を含む制御系の各部へ供給する。CPU101は、DC/DCコンバータ142の動作停止を制御する。   A battery 141 is connected to the DC / DC converter 142. The battery 141 may be a rechargeable secondary battery or a dry battery. The DC / DC converter 142 receives power supply from the battery 141, boosts the supplied voltage, and generates a plurality of voltages by regulation. The DC / DC converter 142 supplies the generated plurality of voltages to each part of the control system including the CPU 101. The CPU 101 controls the operation stop of the DC / DC converter 142.

レリーズスイッチ140は、ユーザによる第一段階(半押し)への押込と、第二段階(全押し)への押込とを検出する。以下、レリーズスイッチ140における第一段階への押込みの検出をSW1と記載し、第二段階への押込みの検出をSW2と記載する。レリーズスイッチ140は、これらの検出状態を、CPU101へ出力する。CPU101は、SW1の操作を検出すると、撮像条件を計測および設定する処理を実行する。撮像条件の計測および設定の処理において、CPU101は、たとえば焦点検出動作、露出制御値演算動作を実行する。これにより、撮像レンズ105がAF動作する。露出制御値が設定される。続けてSW2の操作を検出すると、CPU101は、設定した撮像条件での撮像処理を実行する。撮像処理において、CPU101は、主ミラー111を図1の撮像レンズ105への光路の外へ退避するように駆動し、露出制御値演算動作による設定にしたがって撮像レンズ105の絞り値とフォーカルプレーンシャッタ113のシャッタ速度とを制御する。撮像センサ107は、入射した被写体の光束により撮像し、撮像した画像を光電変換する。CPU101は、画像処理部109から取得した撮像画像のデータを、データ格納部104などの記録メディアに記録するとともに、撮像画像を外表示部115に表示させる。   The release switch 140 detects whether the user has pushed into the first stage (half-pressed) and pushed into the second stage (full-pressed). Hereinafter, detection of the first step in the release switch 140 is described as SW1, and detection of the second step is described as SW2. The release switch 140 outputs these detection states to the CPU 101. When the CPU 101 detects the operation of SW1, the CPU 101 executes processing for measuring and setting the imaging condition. In the process of measuring and setting the imaging conditions, the CPU 101 executes, for example, a focus detection operation and an exposure control value calculation operation. As a result, the imaging lens 105 performs an AF operation. An exposure control value is set. When the operation of SW2 is subsequently detected, the CPU 101 executes an imaging process under the set imaging conditions. In the imaging process, the CPU 101 drives the main mirror 111 so as to be retracted out of the optical path to the imaging lens 105 in FIG. 1, and the aperture value of the imaging lens 105 and the focal plane shutter 113 according to the setting by the exposure control value calculation operation. The shutter speed is controlled. The imaging sensor 107 captures an image of the incident subject with light flux and photoelectrically converts the captured image. The CPU 101 records the captured image data acquired from the image processing unit 109 on a recording medium such as the data storage unit 104 and causes the external display unit 115 to display the captured image.

図8は、電源投入から撮像動作までの処理を示すフローチャートである。CPU101は、カメラ100の不作動状態から不図示の電源スイッチがONにされると、図8の処理を実行する。CPU101は、カメラ100の電源が投入されるたびに図8の処理を実行してよい。また、CPU101は、外表示部115が表示している状態において、図8の処理を実行してよい。図8のステップS300において、CPU101は、カメラ100の電源スイッチのONを検出する。ステップS301において、CPU101は、外表示部115の表示状態を判断する。外表示部115は、電源投入後のユーザ操作により点灯した表示状態になる。外表示部115は、撮像条件の設定画面などのユーザインタフェースを表示する。外表示部115が消灯状態であると、CPU101は、処理をステップS307へ進める。ステップS307において、CPU101は、SW1が操作されたか否かを判断する。SW1が操作されていない場合、CPU101は、ステップS307の判断処理を繰り返す。CPU101は、SW1が操作されるまで待機する。SW1が操作された場合、CPU101は、処理をステップS308に進める。ステップS308において、CPU101は、測光センサ123の蓄積および読み出しの制御を行い、測光センサ123のR、G、B、IR1、IR2の画素の出力に基づくデジタル信号を、一時的にRAM103に保存する。このステップS308において測光センサ123は、被写体の輝度を計測するためだけに用いられる。よって、測光センサ123は、上述したように、接眼検出用光源127の発光周期に同期して動作しなくてよい。ステップS309において、CPU101は、ステップS308で保存した測光センサ123の出力を20×20に分割した輝度値を算出する。また、CPU101は、輝度値に基づいて、カメラ100の露出を決める撮像レンズ105の絞り値とフォーカルプレーンシャッタ113のシャッタ速度とを内蔵されたプログラムにより演算する。これにより、CPU101は、露出制御値を決定する。ステップS310において、CPU101は、焦点検出制御部119の出力に基づいて、撮像レンズ105を被写体に対して調節されたピント位置に制御する。ステップS311において、CPU101は、SW2が操作されたか否かを判断する。SW2が操作されていない場合、CPU101は、処理をステップS307へ戻す。CPU101は、SW2が操作されるまで、ステップS307からステップS311までの処理を繰り返す。SW21が操作された場合、CPU101は、処理をステップS308に進める。ステップS308において、CPU101は、撮像を指示する信号を、フォーカルプレーンシャッタ113、不図示の絞り駆動部、撮像センサ制御部108に対して出力する。これにより、カメラ100は、撮像を実行する。   FIG. 8 is a flowchart showing processing from power-on to imaging operation. When the power switch (not shown) is turned on from the inoperative state of the camera 100, the CPU 101 executes the process of FIG. The CPU 101 may execute the process of FIG. 8 every time the camera 100 is turned on. Further, the CPU 101 may execute the process of FIG. 8 while the outer display unit 115 is displaying. In step S300 of FIG. 8, the CPU 101 detects that the power switch of the camera 100 is turned on. In step S <b> 301, the CPU 101 determines the display state of the outer display unit 115. The outer display unit 115 is turned on by a user operation after power-on. The outer display unit 115 displays a user interface such as an imaging condition setting screen. If the outer display unit 115 is in the off state, the CPU 101 advances the process to step S307. In step S307, the CPU 101 determines whether the SW1 has been operated. When SW1 is not operated, the CPU 101 repeats the determination process in step S307. CPU 101 waits until SW1 is operated. When SW1 is operated, the CPU 101 advances the process to step S308. In step S <b> 308, the CPU 101 controls accumulation and readout of the photometric sensor 123, and temporarily stores a digital signal based on the R, G, B, IR1, and IR2 pixel outputs of the photometric sensor 123 in the RAM 103. In step S308, the photometric sensor 123 is used only for measuring the luminance of the subject. Therefore, as described above, the photometric sensor 123 does not have to operate in synchronization with the light emission period of the eyepiece detection light source 127. In step S309, the CPU 101 calculates a luminance value obtained by dividing the output of the photometric sensor 123 stored in step S308 into 20 × 20. Further, the CPU 101 calculates the aperture value of the imaging lens 105 that determines the exposure of the camera 100 and the shutter speed of the focal plane shutter 113 based on the luminance value using a built-in program. Thereby, the CPU 101 determines the exposure control value. In step S310, the CPU 101 controls the imaging lens 105 to the focus position adjusted with respect to the subject based on the output of the focus detection control unit 119. In step S311, the CPU 101 determines whether or not the SW2 has been operated. When SW2 is not operated, the CPU 101 returns the process to step S307. The CPU 101 repeats the processing from step S307 to step S311 until SW2 is operated. When the SW 21 is operated, the CPU 101 advances the process to step S308. In step S <b> 308, the CPU 101 outputs a signal for instructing imaging to the focal plane shutter 113, a diaphragm driving unit (not shown), and the imaging sensor control unit 108. Thereby, the camera 100 performs imaging.

ステップS301の判断において外表示部115が点灯状態であると、CPU101は、処理をステップS302へ進める。ステップS302において、CPU101は、接眼検出用光源127に発光を指示する。接眼検出用光源127は、発光指示を受けると、点滅を開始する。ステップS303において、CPU101は、測光センサ123の動作を制御する。具体的には、CPU101は、接眼検出用光源127の点滅周期よりも速い周期で、測光センサ123に蓄積および読み出しを繰り返させる。測光センサ123は、接眼検出用光源127の点滅周期のたとえば半分の周期で蓄積および読み出しを繰り返す。CPU101は、測光センサ123のR、G、B、IR1、IR2の画素の出力をデジタル信号へ変換して、RAM103に保存する。RAM103には、R、G、B、IR1、IR2の画素の出力として、接眼検出用光源127が点灯している状態でのデジタル信号と、接眼検出用光源127が消灯している状態でのデジタル信号とを含む、少なくとも2組の出力のデジタル信号が蓄積保存される。ステップS304において、CPU101は、ステップS303で取得した測光センサ123のIR2画素の出力の有無の結果から、ユーザが接眼しているか否かの判定を行う。CPU101は、接眼検出用光源127が点灯しているタイミングでのIR2画素の出力と、接眼検出用光源127が消灯しているタイミングでのIR2画素の出力との差分が、所定の閾値より大きい場合、ユーザが接眼していると判断する。それ以外の場合、CPU101は、ユーザが接眼していないと判断する。ユーザが接眼していない場合、CPU101は、処理をステップS301へ戻す。CPU101は、ユーザが接眼するまで、ステップS301からステップS304の処理を繰り返す。接眼検出手段としてのCPU101は、外表示部115が点灯状態である場合、ユーザが光学ファインダ131に接眼するまで接眼検出用光源127を繰り返し発光させて接眼を検出する。   If the external display unit 115 is in the lighting state in the determination in step S301, the CPU 101 advances the process to step S302. In step S302, the CPU 101 instructs the eyepiece detection light source 127 to emit light. When receiving the light emission instruction, the eyepiece detection light source 127 starts blinking. In step S <b> 303, the CPU 101 controls the operation of the photometric sensor 123. Specifically, the CPU 101 causes the photometric sensor 123 to repeat accumulation and reading at a cycle that is faster than the blinking cycle of the eyepiece detection light source 127. The photometric sensor 123 repeats accumulation and reading at, for example, a half cycle of the blinking cycle of the eyepiece detection light source 127. The CPU 101 converts the outputs of the R, G, B, IR1, and IR2 pixels of the photometric sensor 123 into digital signals and stores them in the RAM 103. The RAM 103 outputs digital signals when the eyepiece detection light source 127 is turned on and digital signals when the eyepiece detection light source 127 is turned off, as outputs of R, G, B, IR1, and IR2 pixels. And at least two sets of output digital signals, including signals. In step S304, the CPU 101 determines whether or not the user is in contact with the result of the presence or absence of the output of the IR2 pixel of the photometric sensor 123 acquired in step S303. When the difference between the output of the IR2 pixel when the eyepiece detection light source 127 is turned on and the output of the IR2 pixel when the eyepiece detection light source 127 is turned off is larger than a predetermined threshold value , It is determined that the user is eyepiece. In other cases, the CPU 101 determines that the user does not have an eye. If the user is not eyepiece, the CPU 101 returns the process to step S301. The CPU 101 repeats the processing from step S301 to step S304 until the user touches the eye. When the outer display unit 115 is in a lighting state, the CPU 101 as an eyepiece detection unit repeatedly detects the eyepiece by causing the eyepiece detection light source 127 to emit light repeatedly until the user touches the optical viewfinder 131.

ステップS304においてユーザが接眼していると判断した場合、CPU101は、処理をステップS305へ進める。ステップS305において、表示オフ手段としてのCPU101は、外表示部115を非表示状態に切り換える。これにより、外表示部115の表示は消える。その後、判断手段としてのCPU101は、ステップS306において、撮像の際に操作されるSW1が、撮像のために操作されたか否かを判断する。SW1が操作されていない場合、CPU101は、処理をステップS307に進める。これ以降のCPU101の処理は、外表示部115が最初から消灯していた場合と同じである。SW1が操作されている場合、CPU101は、処理をステップS309に進める。ステップS309からステップS312の処理は、上述したものと同じである。ただし、ステップS309の露出制御値の演算動作において、取得手段としてのCPU101は、ステップS308で保存した測光センサ123の出力ではなく、ステップS303で保存した測光センサ123の出力(受光結果)を用いる。CPU101は、ステップS303で保存した測光センサ123の出力(受光結果)に基づいて、撮像のための露出制御値を決定して取得する。RAM103に測光センサ123の出力として複数組のデジタル信号が蓄積保存されている場合、CPU101は、最も新しい測光センサ123の出力に基づいて、撮像のための露出制御値を決定して取得すればよい。これにより、取得手段としてのCPU101は、外表示部115の表示が消された直後の最初のSW1の操作判断では、接眼検出用光源127が発光している状態での測光センサ123の出力(受光結果)に基づいて、撮像のための露出を取得する。ステップS303で保存した測光センサ123の出力(受光結果)は、ステップS304における接眼判定処理と、ステップS309の露出制御値の演算処理とに用いられる。   When determining in step S304 that the user is eyepiece, the CPU 101 advances the process to step S305. In step S305, the CPU 101 serving as the display-off means switches the outer display unit 115 to the non-display state. Thereby, the display of the outer display unit 115 disappears. Thereafter, in step S306, the CPU 101 as a determination unit determines whether or not the SW1 operated at the time of imaging is operated for imaging. If SW1 is not operated, the CPU 101 advances the process to step S307. The subsequent processing of the CPU 101 is the same as the case where the outer display unit 115 has been turned off from the beginning. When SW1 is operated, the CPU 101 advances the process to step S309. The processing from step S309 to step S312 is the same as described above. However, in the calculation operation of the exposure control value in step S309, the CPU 101 as the acquisition unit uses the output (light reception result) of the photometric sensor 123 stored in step S303 instead of the output of the photometric sensor 123 stored in step S308. The CPU 101 determines and acquires an exposure control value for imaging based on the output (light reception result) of the photometric sensor 123 stored in step S303. When a plurality of sets of digital signals are accumulated and stored in the RAM 103 as the output of the photometric sensor 123, the CPU 101 may determine and acquire an exposure control value for imaging based on the latest output of the photometric sensor 123. . As a result, the CPU 101 as the acquisition unit determines the output (light reception) of the photometric sensor 123 when the eyepiece detection light source 127 emits light in the first SW1 operation determination immediately after the display of the outer display unit 115 is turned off. Based on the result, the exposure for imaging is acquired. The output (light reception result) of the photometric sensor 123 stored in step S303 is used for the eyepiece determination process in step S304 and the exposure control value calculation process in step S309.

以上のように、本実施形態では、光学ファインダ131から入射する光は、測光センサ123の光路に設けられた光学素子114aにより、測光センサ123へ向けて反射される。よって、ユーザの接眼状態に応じて光学ファインダ131から入射する光は、被写体の輝度を測定するために設けられた測光センサ123により受けられる。本実施形態では、光学ファインダ131から入射する光を受光するための専用の素子を、カメラ100に設ける必要がない。本実施形態では、カメラ100のコストアップおよび大型化を抑制しつつ、光学ファインダ131に対するユーザの接眼状態を検出できる。本実施形態では、接眼検出用光源127は、光学ファインダ131に接眼するユーザに向けて可視光の波長ではない所定の波長成分を含む光を発する。また、光学素子114aは、光学ファインダ131から入射する光についての波長成分を反射する。この場合の波長成分は、たとえば赤外光となる波長成分でよい。よって、測光センサ123は、光学ファインダ131から入射する光として、可視光の波長ではない所定の波長成分の光を受けることができる。測光センサ123は、被写体の輝度を測定するための光として可視光を含む光を受け、また、測光センサ123は、ユーザの接眼状態に応じて光学ファインダ131から入射する光として可視光の波長ではない所定の波長成分の光を光できる。   As described above, in this embodiment, the light incident from the optical finder 131 is reflected toward the photometric sensor 123 by the optical element 114 a provided in the optical path of the photometric sensor 123. Therefore, the light incident from the optical viewfinder 131 according to the eyepiece state of the user is received by the photometric sensor 123 provided for measuring the luminance of the subject. In the present embodiment, it is not necessary to provide the camera 100 with a dedicated element for receiving light incident from the optical viewfinder 131. In the present embodiment, it is possible to detect the eyepiece state of the user with respect to the optical viewfinder 131 while suppressing an increase in cost and size of the camera 100. In the present embodiment, the eyepiece detection light source 127 emits light including a predetermined wavelength component that is not the wavelength of visible light toward the user who is in eye contact with the optical viewfinder 131. The optical element 114a reflects the wavelength component of the light incident from the optical finder 131. The wavelength component in this case may be a wavelength component that becomes infrared light, for example. Therefore, the photometric sensor 123 can receive light having a predetermined wavelength component that is not the wavelength of visible light as light incident from the optical finder 131. The photometric sensor 123 receives light including visible light as light for measuring the luminance of the subject, and the photometric sensor 123 uses the wavelength of visible light as light incident from the optical finder 131 according to the eyepiece state of the user. It is possible to emit light having a predetermined wavelength component.

本実施形態において、接眼検出用光源127は、光学ファインダ131への光路から外れるように光学ファインダ131の周囲に設けられる。具体的にはたとえば、接眼検出用光源127は、光学ファインダ131の下側に設けられてよい。これにより、光学ファインダ131から入射する光は、光学ファインダ131への光路に対して角度をもって、光学ファインダ131から入射する。よって、測光センサ123の受光範囲において、被写体の輝度を測定するための光を受ける部分と、光学ファインダ131から入射する光を受ける部分とは、完全に一致しないようにずれた部位において受光され得る。本実施形態では、測光センサ123の受光範囲の部位に応じて、被写体の輝度を測定するための光の量と、光学ファインダ131から入射する光の量とを別々に得ることが可能になる。これらの受光結果に基づいて、被写体の輝度の測定と、ユーザの接眼状況の検出との双方を同時に実施することが可能になる。この際、たとえば、波長成分に感度を有する画素は、850nmの波長の赤外光について感度を有し、波長成分より短い波長に感度を有する画素は、740nmの波長の赤外光について感度を有すればよい。これに対し、仮にたとえば、測光センサ123の受光範囲において、被写体の輝度を測定するための光を受ける部位と、光学ファインダ131から入射する光を受ける部位とが完全に重なるとする。この場合、それらの光は混ざった状態で画素に入射する。したがって、カメラ100には、被写体の輝度を測定するための光と、光学ファインダ131から入射する光との中の一方のみを測光センサ123へ入射させるシャッタ部材などを追加する必要がある。また、カメラ100は、シャッタ部材を切り替えるように駆動しながら、被写体の輝度の測定のための受光処理と、ユーザの接眼状況の検出のための受光処理とを別々に実施する必要がある。このように、本実施形態では、接眼検出のための専用のセンサを設けることなく、省スペースで且つ測光と接眼検出とを共通の出力に基づいて同時的に行うことができる。   In the present embodiment, the eyepiece detection light source 127 is provided around the optical viewfinder 131 so as to be out of the optical path to the optical viewfinder 131. Specifically, for example, the eyepiece detection light source 127 may be provided below the optical viewfinder 131. Thereby, the light incident from the optical finder 131 is incident from the optical finder 131 at an angle with respect to the optical path to the optical finder 131. Therefore, in the light receiving range of the photometric sensor 123, the portion that receives the light for measuring the luminance of the subject and the portion that receives the light incident from the optical finder 131 can be received at a portion that is shifted so as not to completely match. . In the present embodiment, it is possible to separately obtain the amount of light for measuring the luminance of the subject and the amount of light incident from the optical finder 131 according to the region of the light receiving range of the photometric sensor 123. Based on these light reception results, it is possible to simultaneously perform both the measurement of the luminance of the subject and the detection of the eyepiece state of the user. At this time, for example, a pixel having sensitivity to a wavelength component has sensitivity to infrared light having a wavelength of 850 nm, and a pixel having sensitivity to a wavelength shorter than the wavelength component has sensitivity to infrared light having a wavelength of 740 nm. do it. On the other hand, for example, in the light receiving range of the photometric sensor 123, it is assumed that a part that receives light for measuring the luminance of the subject and a part that receives light incident from the optical finder 131 completely overlap. In this case, the light enters the pixel in a mixed state. Therefore, it is necessary to add a shutter member or the like that allows only one of the light for measuring the luminance of the subject and the light incident from the optical viewfinder 131 to enter the photometric sensor 123. Further, the camera 100 needs to separately perform a light receiving process for measuring the luminance of the subject and a light receiving process for detecting the eyepiece state of the user while driving to switch the shutter member. Thus, in the present embodiment, it is possible to perform photometry and eyepiece detection simultaneously based on a common output without providing a dedicated sensor for eyepiece detection.

本実施形態では、撮像する被写体を表示する外表示部115がその被写体を表示している場合、ユーザが光学ファインダ131に接眼するまで接眼検出用光源127を繰り返し発光させる。そして、接眼が検出された場合、本実施形態では、外表示部115の表示を消す。これにより、本実施形態では、ユーザが光学ファインダ131に接眼して外表示部115の表示を必要としていない場合に、外表示部115の表示を適切に消すことができる。特に、本実施形態では、点滅する前記接眼検出用光源127が点灯しているタイミングでの画素の出力と、点滅する前記接眼検出用光源127が消灯しているタイミングでの画素の出力との差分に基づいて、ユーザの接眼を検出する。このように接眼検出用光源127の点滅に同期して取得する出力の差分に基づいて判断することにより、本実施形態では、接眼検出用光源127による光を、外光源の光と区別することができる。本実施形態では、接眼検出用光源127とは異なる外光源から光学ファインダ131へ接眼検出用光源127と同じ波長成分が入射したとしても、外光源の光の影響を減らして、接眼検出用光源127による光によりユーザの接眼を適切に検出できる。また、本実施形態では、外表示部115が消灯された直後にレリーズスイッチ140(SW1)が操作され場合、外表示部115の表示制御のために接眼検出用光源127が発光している状態で取得した測光センサ123の受光結果を用いて露出を演算する。よって、外表示部115の表示消灯直後以外のタイミングにおいてレリーズスイッチ140(SW1)が操作されたと判断された場合のように、レリーズスイッチ140(SW1)の操作の後に測光センサ123により新たな受光結果を取得する必要がない。カメラ100は、レリーズスイッチ140(SW1)が操作されたら、既に取得している受光結果に基づいて直ちに露出を判断でき、撮像を実行することができる。   In the present embodiment, when the outer display unit 115 that displays the subject to be imaged displays the subject, the eyepiece detection light source 127 is caused to emit light repeatedly until the user touches the optical viewfinder 131. If an eyepiece is detected, the display of the outer display unit 115 is turned off in this embodiment. Accordingly, in the present embodiment, when the user does not need to display the outer display unit 115 by eye contact with the optical viewfinder 131, the display of the outer display unit 115 can be appropriately turned off. In particular, in this embodiment, the difference between the pixel output at the timing when the blinking eyepiece detection light source 127 is turned on and the pixel output at the timing when the blinking eyepiece detection light source 127 is turned off. Based on the above, the eyepiece of the user is detected. In this embodiment, by making a determination based on the difference between the outputs acquired in synchronization with the blinking of the eyepiece detection light source 127 as described above, the light from the eyepiece detection light source 127 can be distinguished from the light of the external light source. it can. In this embodiment, even if the same wavelength component as the eyepiece detection light source 127 is incident on the optical viewfinder 131 from an external light source different from the eyepiece detection light source 127, the influence of the light of the external light source is reduced and the eyepiece detection light source 127 is reduced. The user's eyepiece can be appropriately detected by the light generated by. In the present embodiment, when the release switch 140 (SW1) is operated immediately after the outer display unit 115 is turned off, the eyepiece detection light source 127 emits light for display control of the outer display unit 115. The exposure is calculated using the obtained light reception result of the photometric sensor 123. Therefore, a new light reception result is obtained by the photometric sensor 123 after the operation of the release switch 140 (SW1), as in the case where it is determined that the release switch 140 (SW1) is operated at a timing other than immediately after the display of the outer display unit 115 is turned off. No need to get. When the release switch 140 (SW1) is operated, the camera 100 can immediately determine exposure based on the already received light reception result, and can perform imaging.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included.

本発明は、上述の実施の形態の1以上の機能を実現するプログラムを、ネットワークや記憶媒体を介してシステムや装置に供給し、そのシステム又は装置のコンピュータの1つ以上のプロセッサーがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors of the computer of the system or apparatus read the program. It can also be realized by the process executed in this way. The present invention can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 カメラ
101 CPU
105 撮像レンズ
107 撮像センサ
114 PN液晶パネル
114a 光学素子
115 外表示部
120 ペンタプリズム
123 測光センサ
124 接眼レンズ
125 焦点検出領域
126 測光範囲
127 接眼検出用光源
131 光学ファインダ
140 レリーズスイッチ
100 Camera 101 CPU
105 Imaging Lens 107 Imaging Sensor 114 PN Liquid Crystal Panel 114a Optical Element 115 External Display Unit 120 Penta Prism 123 Photometric Sensor 124 Eyepiece Lens 125 Focus Detection Area 126 Photometric Range 127 Eyepiece Detection Light Source 131 Optical Finder 140 Release Switch

Claims (10)

撮像する被写体を確認するためにユーザが接眼する光学ファインダと、
前記被写体の輝度を測定するために設けられる測光用撮像素子と、
前記測光用撮像素子へと被写体の光束を導く光路に設けられ、前記光学ファインダから入射する光を、前記測光用撮像素子へ向かうように反射する反射光学部材と、
を有する、撮像装置。
An optical viewfinder that the user eyepieces to confirm the subject to be imaged;
A photometric image sensor provided for measuring the luminance of the subject;
A reflective optical member that is provided in an optical path that guides a luminous flux of a subject to the photometric image sensor, and that reflects light incident from the optical finder toward the photometric image sensor;
An imaging device.
前記光学ファインダに接眼するユーザに向けて可視光の波長ではない所定の波長成分を含む光を発する光源、を有し、
前記反射光学部材は、前記光学ファインダから入射する光についての前記光源の波長成分を反射し、
前記測光用撮像素子は、前記光源の波長成分の受光できる、
請求項1記載の撮像装置。
A light source that emits light including a predetermined wavelength component that is not a wavelength of visible light toward a user who is eyepiece to the optical viewfinder,
The reflective optical member reflects the wavelength component of the light source for light incident from the optical finder,
The photometric image sensor can receive the wavelength component of the light source,
The imaging device according to claim 1.
前記光源は、赤外光の波長成分を含む光を発する、
請求項2記載の撮像装置。
The light source emits light including a wavelength component of infrared light;
The imaging device according to claim 2.
前記光源は、前記光学ファインダへの光路から外れるように前記光学ファインダの周囲に設けられ、
前記測光用撮像素子は、前記被写体の輝度を測定するための光と、前記光学ファインダから入射する光とを、受光範囲においてずらして受光する、
請求項2または3記載の撮像装置。
The light source is provided around the optical finder so as to be out of the optical path to the optical finder,
The photometric image sensor receives light for measuring the luminance of the subject and light incident from the optical finder while shifting in a light receiving range.
The imaging device according to claim 2 or 3.
前記光源は、前記撮像装置の正位置において、前記光学ファインダの下側に設けられる、
請求項4記載の撮像装置。
The light source is provided below the optical viewfinder at a normal position of the imaging device.
The imaging device according to claim 4.
前記測光用撮像素子の受光範囲には、前記波長成分に感度を有する画素と、前記波長成分より短い波長に感度を有する画素と、が設けられる、
請求項2から5のいずれか一項記載の撮像装置。
In the light receiving range of the photometric image sensor, a pixel having sensitivity to the wavelength component and a pixel having sensitivity to a wavelength shorter than the wavelength component are provided.
The imaging device according to any one of claims 2 to 5.
前記波長成分に感度を有する前記画素は、850nmの波長の赤外光について感度を有し、
前記波長成分より短い波長に感度を有する前記画素は、740nmの波長の赤外光について感度を有する、
請求項6記載の撮像装置。
The pixel having sensitivity to the wavelength component is sensitive to infrared light having a wavelength of 850 nm,
The pixel having sensitivity to a wavelength shorter than the wavelength component has sensitivity to infrared light having a wavelength of 740 nm.
The imaging device according to claim 6.
撮像する前記被写体を表示する外表示手段と、
ユーザが前記光学ファインダに接眼するまで前記光源を繰り返し発光させる接眼検出手段と、
前記接眼検出手段により接眼が検出された場合に前記外表示手段の表示を消す表示オフ手段と、
を有する、請求項2から7のいずれか一項記載の撮像装置。
Outside display means for displaying the subject to be imaged;
Eyepiece detection means for repeatedly emitting light from the light source until a user contacts the optical viewfinder;
Display off means for turning off the display of the external display means when an eyepiece is detected by the eyepiece detection means;
The imaging device according to any one of claims 2 to 7, which has:
前記接眼検出手段は、点滅する前記光源が点灯しているタイミングでの画素の出力と、点滅する前記光源が消灯しているタイミングでの画素の出力との差分に基づいて、ユーザの接眼を検出する、
請求項8記載の撮像装置。
The eyepiece detecting unit detects a user's eyepiece based on a difference between a pixel output at a timing when the flashing light source is turned on and a pixel output at a timing when the flashing light source is turned off. To
The imaging device according to claim 8.
撮像の際に操作されるスイッチと、
前記スイッチが撮像のために操作されたかを判断する判断手段と、
前記測光用撮像素子の受光結果に基づいて、撮像のための露出を取得する取得手段と、を有し、
前記取得手段は、前記表示オフ手段により前記外表示手段の表示が消された後に前記判断手段により前記スイッチが操作されたと判断された場合、前記光源が発光している状態での前記測光用撮像素子の受光結果に基づいて、撮像のための露出を取得する、
請求項8または9記載の撮像装置。
A switch operated during imaging,
Determining means for determining whether the switch has been operated for imaging;
Obtaining means for obtaining an exposure for imaging based on a light reception result of the photometric image sensor;
The acquisition unit is configured to perform the photometry imaging in a state where the light source emits light when it is determined that the switch is operated by the determination unit after the display of the external display unit is turned off by the display off unit. Based on the light reception result of the element, obtain exposure for imaging,
The imaging device according to claim 8 or 9.
JP2018099820A 2018-05-24 2018-05-24 Image capturing device Pending JP2019204022A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018099820A JP2019204022A (en) 2018-05-24 2018-05-24 Image capturing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018099820A JP2019204022A (en) 2018-05-24 2018-05-24 Image capturing device

Publications (1)

Publication Number Publication Date
JP2019204022A true JP2019204022A (en) 2019-11-28

Family

ID=68726849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018099820A Pending JP2019204022A (en) 2018-05-24 2018-05-24 Image capturing device

Country Status (1)

Country Link
JP (1) JP2019204022A (en)

Similar Documents

Publication Publication Date Title
US8150252B2 (en) Imaging apparatus and imaging apparatus control method
JP5020651B2 (en) Imaging apparatus and imaging system
JP5597078B2 (en) Imaging apparatus and control method thereof
US8164681B2 (en) Image pickup apparatus
US8559808B2 (en) Imaging apparatus
JP2006317595A (en) Optical apparatus and its control method
US10212344B2 (en) Image capturing device and control method capable of adjusting exposure timing based on detected light quantity change characteristic
US9921454B2 (en) Imaging apparatus capable of generating an image with a weight of a signal corresponding to each type of spectral sensitivity characteristics and method of controlling the apparatus
JP2019020508A (en) Imaging apparatus, method for controlling the same, and control program
JP2019204022A (en) Image capturing device
JP2013066051A (en) Photographing device
JP2016080740A (en) Finder device of optical instrument
JP2006072084A (en) Automatic focus detecting device and camera system
JP4810256B2 (en) Optical device
JP2014048492A (en) Image capturing device
JP7446898B2 (en) Electronics
US20220345611A1 (en) Image capturing apparatus and control method thereof and storage medium
US10873707B2 (en) Image pickup apparatus and method, for ensuring correct color temperature based on first or second preliminary light emission of a flash device
JP2002182296A (en) Ranging point display device for camera
JP2007036951A (en) Camera having electronic viewfinder
JP2008203407A (en) Imaging apparatus, lens device and imaging system
JP6806471B2 (en) Focus detection device and method, and imaging device
JP2016142776A (en) Imaging device
JP4940072B2 (en) Imaging apparatus, control method, and program
JP2015232665A (en) Imaging device