JP4504031B2 - Camera system - Google Patents

Camera system Download PDF

Info

Publication number
JP4504031B2
JP4504031B2 JP2004014303A JP2004014303A JP4504031B2 JP 4504031 B2 JP4504031 B2 JP 4504031B2 JP 2004014303 A JP2004014303 A JP 2004014303A JP 2004014303 A JP2004014303 A JP 2004014303A JP 4504031 B2 JP4504031 B2 JP 4504031B2
Authority
JP
Japan
Prior art keywords
light
light source
amount
proceeds
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2004014303A
Other languages
Japanese (ja)
Other versions
JP2005208300A (en
Inventor
昌孝 井出
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2004014303A priority Critical patent/JP4504031B2/en
Priority claimed from US11/037,102 external-priority patent/US7260322B2/en
Publication of JP2005208300A publication Critical patent/JP2005208300A/en
Application granted granted Critical
Publication of JP4504031B2 publication Critical patent/JP4504031B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明はカメラシステムに関し、より詳しくは撮影レンズ等の色収差の影響を低減するために、撮影レンズに入射する光源に応じて合焦点の位置を補正するようにしたカメラシステムに関するものである。 The present invention relates to a camera system, and more particularly to reduce the effects of chromatic aberration such as imaging lenses, relates to a camera system which is adapted to correct the position of the focus point depending on the light source incident on the photographing lens It is.

従来より、撮影の際に被写体の輝度及び背景光を検出して測距時の補正を行う技術が開発されている。例えば、一対の受光素子列に結像する一対の像の位置関係から測定対象の焦点状態を検出し、その検出結果に応じて撮影レンズの焦点調節を行う、いわゆる位相差AF(オートフォーカス)方式の自動焦点調節装置が知られている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, a technique has been developed that detects the luminance and background light of a subject at the time of shooting and corrects the distance during distance measurement. For example, a so-called phase difference AF (autofocus) system that detects a focus state of a measurement target from a positional relationship between a pair of images formed on a pair of light receiving element arrays and adjusts the focus of the photographing lens according to the detection result. Is known (for example, see Patent Document 1).

このような特許文献1に記載のAF方式を採用したカメラ等に於いては、一般的に撮影レンズ等を透過した光束によって被写体像が結像されるようになっている。しかしながら、このとき、被写体像の合焦点の位置は、撮影レンズ等に入射する光源の波長によって異なる現象が見られることは周知である。   In a camera or the like that employs the AF method described in Patent Document 1, a subject image is generally formed by a light beam that has passed through a photographing lens or the like. However, it is well known that at this time, a phenomenon in which the position of the focal point of the subject image varies depending on the wavelength of the light source incident on the photographing lens or the like.

例えば、室内に於いて写真撮影を行う場合には、例えばタングステンランプやフラッドランプ等の人工光源を用いて被写体を照明することがある。この場合には、撮影レンズ等の有する光学特性、すなわち、色収差等の影響によって被写体像の合焦点の位置にズレが生じてしまうことがある。上記問題を改善したものとして、交換レンズ内に基準波長に対する特定波長の色収差補正データをメモリしており、被写体光の色を測定する測色手段で測定した被写体光の主要色に基づいて補正データを算出しピント補正を行う焦点検出装置が知られている(例えば、特許文献2参照)。
特開平9−211306号公報 特開2003−2451064号公報
For example, when taking a picture in a room, the subject may be illuminated using an artificial light source such as a tungsten lamp or a flood lamp. In this case, there may be a shift in the in-focus position of the subject image due to the optical characteristics of the photographing lens or the like, that is, the influence of chromatic aberration or the like. As an improvement of the above problem, chromatic aberration correction data of a specific wavelength with respect to the reference wavelength is stored in the interchangeable lens, and correction data is based on the main color of the subject light measured by the colorimetric means for measuring the color of the subject light. There is known a focus detection device that calculates the focus and corrects the focus (for example, see Patent Document 2).
Japanese Patent Laid-Open No. 9-211306 JP 2003-2451064 A

ところが、上記特許文献2に記載の装置は、基準波長に対する特定波長の色収差補正データと、被写体光の色を測定する測色手段で測定した被写体光の主要色に基づいて複雑な計算を行い補正値を算出するようにしている。このため、交換レンズ内のメモリ容量が増大し、カメラ内処理回路が大型化してコストアップするという課題を有している。   However, the apparatus described in Patent Document 2 performs correction by performing complex calculation based on chromatic aberration correction data of a specific wavelength with respect to a reference wavelength and main colors of subject light measured by a colorimetric means for measuring the color of subject light. The value is calculated. For this reason, there is a problem that the memory capacity in the interchangeable lens is increased, the processing circuit in the camera is enlarged, and the cost is increased.

したがって本発明は、上述した点に鑑みてなされたものであって、その目的とするところは、補正方法を簡略化して、メモリ、処理回路を小型化することにより、交換レンズ、カメラ等をコストダウンすると共に、高精度なピントずれ補正を可能としたカメラシステムを提供することにある。 Accordingly, the present invention has been made in view of the above-described points. The object of the present invention is to simplify the correction method and reduce the size of the memory and processing circuit, thereby reducing the cost of an interchangeable lens, a camera, and the like. while down, is to provide a camera system which enables highly accurate defocus correction.

すなわち、請求項1に記載の発明は、撮影レンズを含むレンズ鏡筒と、該レンズ鏡筒を装着可能なカメラボディとを有するカメラシステムであって、上記レンズ鏡筒の内部に配置され、被写体を照明する光源の種類に応じて焦点ずれを補正するための上記光源の種類に応じた補正量を記憶している補正量記憶手段と、上記レンズ鏡筒の内部に配置され、上記カメラボディと通信するためのレンズ通信手段と、上記カメラボディの内部に配置され、上記レンズ鏡筒と通信するためのボディ通信手段と、少なくとも被写体の赤外光若しくは近赤外光の光量と可視光の光量とをそれぞれ検出する光量検出手段と、上記光量検出手段によって検出された赤外光若しくは近赤外光の光量と可視光の光量との差に基づいて上記被写体を照明する光源を検出し、該光源の種類に応じた信号を出力する光源検出手段と、上記撮影レンズの焦点検出を行う焦点検出手段と、上記レンズ通信手段と上記ボディ通信手段との通信によって上記補正量記憶手段から取得された光源の種類に応じた補正量を記憶する記憶手段と、上記記憶手段に記憶されている光源の種類に応じた補正量の中から、上記光源検出手段から出力された光源の種類に応じた信号に対応した補正量を選択する補正量選択手段と、上記補正量選択手段によって選択された補正量に基づいて、上記焦点検出手段の出力を補正する補正手段と、を有し、上記光源検出手段は、赤外光若しくは近赤外光の光量と可視光の光量との差に基づいて判定される2種類の光源の種類及び2種類の光源の混合割合に関する検出信号を出力し、上記補正量選択手段は、上記検出信号に基づく2種類の光源に対応する上記補正量記憶手段の補正量を選択し、上記補正手段は、上記選択された2種類の光源に対応する補正量と2種類の光源の混合割合とに基づいて上記焦点検出手段の出力を補正することを特徴とする。 That is, the invention according to claim 1 is a camera system having a lens barrel including a photographing lens and a camera body to which the lens barrel can be attached, and is disposed inside the lens barrel, A correction amount storage means for storing a correction amount according to the type of the light source for correcting the defocus according to the type of the light source that illuminates the light source, and the camera body disposed inside the lens barrel, Lens communication means for communicating, body communication means disposed inside the camera body for communicating with the lens barrel, at least the amount of infrared light or near infrared light of the subject, and the amount of visible light And a light source for illuminating the subject based on a difference between the light amount of infrared light or near infrared light detected by the light amount detection unit and the light amount of visible light. Acquired from the correction amount storage means by communication between the light source detection means for outputting a signal corresponding to the type of the light source, the focus detection means for detecting the focus of the photographing lens, and the lens communication means and the body communication means. A storage unit that stores a correction amount according to the type of the light source, and a correction amount according to the type of the light source stored in the storage unit according to the type of the light source output from the light source detection unit. a correction amount selecting means for selecting a correction amount corresponding to the signals, based on the correction amount selected by the correction amount selecting means, have a, and correcting means for correcting the output of said focus detecting means, said light source The detection means outputs a detection signal relating to the types of the two types of light sources and the mixing ratio of the two types of light sources, which are determined based on the difference between the light amount of infrared light or near infrared light and the light amount of visible light, and Correction amount selection The means selects the correction amount of the correction amount storage means corresponding to the two types of light sources based on the detection signal, and the correction means selects the correction amounts corresponding to the two types of selected light sources and the two types of light sources. The output of the focus detection means is corrected on the basis of the mixing ratio.

本発明によれば、交換レンズ内の焦点補正データを光源種類に応じて設けたことにより、補正方法が非常に簡略化されメモリ、処理回路を小型化することができるので交換レンズ、カメラ等をコストダウンすると共に、高精度なピントずれ補正を可能とするカメラシステムを提供することが可能となる。 According to the present invention, since the focus correction data in the interchangeable lens is provided according to the light source type, the correction method is greatly simplified, and the memory and processing circuit can be miniaturized. while cost, it is possible to provide a camera system that enables highly accurate defocus correction.

以下、図面を参照して、本発明の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の焦点検出装置が適用されたデジタルカメラの概略構成を示すブロック図である。   FIG. 1 is a block diagram showing a schematic configuration of a digital camera to which a focus detection apparatus of the present invention is applied.

図1に於いて、本デジタルカメラは、カメラボディ1と、交換レンズ2とから構成されている。上記交換レンズ2は、光源の種類に応じて焦点ずれを補正するための補正値を記憶するメモリ3を有している。一方、カメラボディ1は、上記光源に応じた信号を出力する光源検知部4と、交換レンズ2の焦点検出を行うAF制御部5とを有している。   In FIG. 1, the digital camera includes a camera body 1 and an interchangeable lens 2. The interchangeable lens 2 has a memory 3 for storing a correction value for correcting a defocus according to the type of light source. On the other hand, the camera body 1 includes a light source detection unit 4 that outputs a signal corresponding to the light source and an AF control unit 5 that performs focus detection of the interchangeable lens 2.

このような構成に於いて、被写体を照明する光源がカメラボディ1内の光源検知部4で検知されると、該光源検知部4から当該光源に応じた信号が出力される。また、メモリ3に記憶されている光源の種類に応じて焦点ずれを補正するための補正値が、補正データとして読み出される。AF制御部5では、光源検知部4からの信号と上記メモリ3から読出された補正データとに基づいて、焦点検出が実行される。   In such a configuration, when the light source that illuminates the subject is detected by the light source detection unit 4 in the camera body 1, a signal corresponding to the light source is output from the light source detection unit 4. Further, a correction value for correcting the defocus according to the type of light source stored in the memory 3 is read as correction data. The AF control unit 5 performs focus detection based on the signal from the light source detection unit 4 and the correction data read from the memory 3.

(第1の実施形態)
図2は、本発明の第1の実施形態に係るデジタルカメラの一部を切断してその内部構成を概略的に示す斜視図である。
(First embodiment)
FIG. 2 is a perspective view schematically showing an internal configuration of a part of the digital camera according to the first embodiment of the present invention.

図2に於いて、本実施形態のデジタルカメラ10は、それぞれが別体に構成されるカメラボディ11と、レンズ鏡筒12とから成り、これらカメラボディ11とレンズ鏡筒12とは、互いに着脱自在に構成されてなるものである。   In FIG. 2, the digital camera 10 of the present embodiment includes a camera body 11 and a lens barrel 12 that are configured separately, and the camera body 11 and the lens barrel 12 are attached to and detached from each other. It is configured freely.

上記レンズ鏡筒12は、複数の撮影レンズやその駆動機構等から成る撮影光学系12aを内部に保持して構成されている。この撮影光学系12aは、被写体からの光束を透過させることで当該被写体光束により形成される被写体の像を、所定の位置(後述する撮像素子40の光電変換面上)に結像せしめるように、例えば、複数の光学レンズ等によって構成されるものである。そして、このレンズ鏡筒12は、カメラボディ11の前面に向けて突出するように配設されている。   The lens barrel 12 is configured by holding therein a photographic optical system 12a including a plurality of photographic lenses and their driving mechanisms. The photographing optical system 12a transmits a light beam from a subject so that an image of the subject formed by the subject light beam is formed at a predetermined position (on a photoelectric conversion surface of an image sensor 40 described later). For example, it is composed of a plurality of optical lenses. The lens barrel 12 is disposed so as to protrude toward the front surface of the camera body 11.

尚、このレンズ鏡筒12については、従来のカメラ等に於いて一般的に利用されているものと同様のものが適用される。したがって、その詳細な構成についての説明は省略する。   The lens barrel 12 is the same as that generally used in conventional cameras and the like. Therefore, the detailed description of the configuration is omitted.

カメラボディ11は、内部に各種の構成部材等を備えて構成され、且つ、撮影光学系12aを保持するレンズ鏡筒12を着脱自在となるように配設するための連結部材である撮影光学系装着部(撮影レンズ装着部とも称する)をその前面に備えて構成されてなる、いわゆる一眼レフレックス方式のカメラである。   The camera body 11 includes various constituent members and the like, and is a photographic optical system that is a connecting member for detachably mounting the lens barrel 12 that holds the photographic optical system 12a. This is a so-called single-lens reflex camera having a mounting portion (also referred to as a photographing lens mounting portion) provided on the front surface thereof.

つまり、カメラボディ11の前面側の略中央部には、被写体光束を当該カメラボディ11の内部へと導き得る所定の口径を有する露光用開口が形成されている。この露光用開口の周縁部には、撮影光学系装着部(図示せず)が形成されている。   That is, an exposure opening having a predetermined aperture capable of guiding the subject light flux into the camera body 11 is formed in a substantially central portion on the front side of the camera body 11. A photographing optical system mounting portion (not shown) is formed at the peripheral edge of the exposure opening.

カメラボディ11の外面側には、その前面に上述の撮影光学系装着部が配設されているほか、上面部や背面部等の所定の位置にカメラボディ11を動作させるための各種の操作部材、例えば撮影動作を開始せしめるための指示信号等を発生させるためのレリーズ釦13と、カメラボディ11のグリップ部とレンズ鏡筒12の間で内部に後述する光源センサ55が配設された拡散板14等が配設されている。上記拡散板14は、カメラボディ11の撮影光学系接続部の側に設けられており、撮影する被写体及びその周辺の光が入射する構成となっている。   On the outer surface side of the camera body 11, the above-described photographing optical system mounting portion is disposed on the front surface thereof, and various operation members for operating the camera body 11 at predetermined positions such as an upper surface portion and a rear surface portion. For example, a release button 13 for generating an instruction signal or the like for starting a photographing operation, and a diffuser plate in which a light source sensor 55 described later is disposed between the grip portion of the camera body 11 and the lens barrel 12. 14 etc. are arranged. The diffusion plate 14 is provided on the camera body 11 on the side of the photographing optical system connection part, and is configured to receive a subject to be photographed and light around it.

尚、上述した操作部材については、この発明とは直接関連しない部分であるので、図面の煩雑化を避けるために、レリーズ釦13以外の操作部材については、その図示及び説明を省略する。   Since the above-described operation members are not directly related to the present invention, the illustration and description of the operation members other than the release button 13 are omitted in order to avoid complication of the drawing.

カメラボディ11の内部には、図2に示されるように、各種の構成部材、例えば、ファインダ装置16と、シャッタ部17と、撮像ユニット18と、主回路基板19を始めとした複数の回路基板(図2では主回路基板19のみが図示されている)とが、それぞれ所定の位置に配設されている。   In the camera body 11, as shown in FIG. 2, various components such as a finder device 16, a shutter unit 17, an imaging unit 18, and a plurality of circuit boards including a main circuit board 19 are provided. (Only the main circuit board 19 is shown in FIG. 2), respectively, are arranged at predetermined positions.

上記ファインダ装置16は、上記撮影光学系12aによって形成される所望の被写体像を撮像素子40(図2参照)の光電変換面上とは異なる所定の位置に形成させるべく設けられたもので、いわゆる観察光学系を構成する。   The finder device 16 is provided to form a desired subject image formed by the photographing optical system 12a at a predetermined position different from the photoelectric conversion surface of the image sensor 40 (see FIG. 2). An observation optical system is configured.

ファインダ装置16は、クイックリターンミラー16aと、ペンタプリズム16bと、接眼レンズ16cとから構成されている。   The viewfinder device 16 includes a quick return mirror 16a, a pentaprism 16b, and an eyepiece lens 16c.

上記クイックリターンミラー16aは、撮影光学系12aを透過した被写体光束の光軸を折り曲げて観察光学系の側へと導き得るようにしたものである。ペンタプリズム16bは、上記クイックリターンミラー16aから出射する光束を受けて正立正像を形成する。また、接眼レンズ16cは、上記ペンタプリズム16bにより形成される像を拡大して観察するのに最適な形態の像を結像させるためのものである。   The quick return mirror 16a can be guided to the observation optical system side by bending the optical axis of the subject luminous flux transmitted through the photographing optical system 12a. The pentaprism 16b receives the light beam emitted from the quick return mirror 16a and forms an erect image. The eyepiece 16c is used to form an image in an optimal form for magnifying and observing the image formed by the pentaprism 16b.

また、クイックリターンミラー16aは、撮影光学系12aの光軸から退避する露光退避位置と当該光軸上の所定の位置との間で移動自在に構成され、通常状態に於いては撮影光学系12aの光軸上に於いて当該光軸に対して所定の角度、例えば、角度45度を有して配置されている。これにより、撮影光学系12aを透過した被写体光束は、当該デジタルカメラ10が通常状態にある場合には、クイックリターンミラー16aによってその光軸が折り曲げられて、当該クイックリターンミラー16aの上方に配置されるペンタプリズム16bの側へと反射されるようになっている。すなわち、これがクイックリターンミラー(可動ミラー)16aのファインダ観察位置である。   The quick return mirror 16a is configured to be movable between an exposure retracting position retracted from the optical axis of the photographing optical system 12a and a predetermined position on the optical axis. In a normal state, the quick return mirror 16a is configured to be movable. The optical axis is arranged at a predetermined angle with respect to the optical axis, for example, an angle of 45 degrees. As a result, when the digital camera 10 is in a normal state, the subject luminous flux that has passed through the photographic optical system 12a is disposed above the quick return mirror 16a with its optical axis bent by the quick return mirror 16a. Reflected toward the pentaprism 16b. That is, this is the finder observation position of the quick return mirror (movable mirror) 16a.

一方、本デジタルカメラ10が撮影動作の実行中に於いて、その実際の露光動作中には、当該クイックリターンミラー16aは、撮影光学系12aの光軸から退避する所定の位置に移動するようになっている。これによって、被写体光束は、撮像素子40の側へと導かれ、その光電変換面を照射するようになっている。   On the other hand, while the digital camera 10 is performing the photographing operation, during the actual exposure operation, the quick return mirror 16a is moved to a predetermined position retracted from the optical axis of the photographing optical system 12a. It has become. As a result, the subject luminous flux is guided to the image sensor 40 side and irradiates the photoelectric conversion surface.

上記シャッタ部17は、撮像素子40の光電変換面への被写体光束の照射時間等を制御するもので、シャッタ機構等を備えて構成されている。   The shutter unit 17 controls the irradiation time of the subject light beam onto the photoelectric conversion surface of the image sensor 40, and includes a shutter mechanism.

撮像ユニット18は、上記シャッタ部17と、このシャッタ部17を含み撮影光学系12aを透過した被写体光束に基づいて形成される被写体像に対応した画像信号を得る撮像素子40を含んだアッセンブリで構成される。   The imaging unit 18 includes an assembly including the shutter unit 17 and an imaging element 40 that obtains an image signal corresponding to a subject image formed based on a subject light beam that includes the shutter unit 17 and passes through the photographing optical system 12a. Is done.

また、上記主回路基板19は、撮像素子40により取得した画像信号に対して各種の信号処理を施す画像信号処理回路(図示せず)答の電気回路を構成する各種の電気部材が実装されている。更に、カメラボディ11の上部には、図示されないストロボ接点が設けられており、外部ストロボを取付け可能であると共に、外部ストロボと通信して所定の光量、タイミングでストロボを発光可能な構成となっている。   The main circuit board 19 is mounted with various electric members constituting an electric circuit of an image signal processing circuit (not shown) that performs various signal processing on the image signal acquired by the image sensor 40. Yes. Further, a strobe contact (not shown) is provided on the upper portion of the camera body 11 so that an external strobe can be attached and the strobe can be emitted at a predetermined light amount and timing by communicating with the external strobe. Yes.

上記シャッタ部17は、例えばフォーカルプレーン方式のシャッタ機構や、このシャッタ機構の動作を制御する駆動回路等、従来のカメラ等に於いて一般的に利用されているものと同様のものが適用される。したがって、その詳細な構成についての説明は省略する。   As the shutter unit 17, for example, a focal plane type shutter mechanism, a drive circuit for controlling the operation of the shutter mechanism, and the like that are generally used in conventional cameras and the like are applied. . Therefore, the detailed description of the configuration is omitted.

図3は、本デジタルカメラの主に電気的な構成を概略的に示すブロック構成図である。   FIG. 3 is a block diagram schematically showing mainly the electrical configuration of the digital camera.

図3に於いて、このデジタルカメラは、上述したように、カメラボディ11と、交換レンズとしてのレンズ鏡筒12とから主に構成されており、カメラボディ11の前面に対して、所望のレンズ鏡筒12が着脱自在に設定されている。   In FIG. 3, as described above, this digital camera is mainly composed of a camera body 11 and a lens barrel 12 as an interchangeable lens, and a desired lens with respect to the front surface of the camera body 11. The lens barrel 12 is set to be detachable.

上記レンズ鏡筒12の制御は、レンズ制御用マイクロコンピュータ(以下、Lμcomと称する)25によって行われる。一方、カメラボディ11の制御は、ボディ制御用マイクロコンピュータ(以下、Bμcomと称する)50によって行われる。   The lens barrel 12 is controlled by a lens control microcomputer (hereinafter referred to as Lμcom) 25. On the other hand, control of the camera body 11 is performed by a body control microcomputer (hereinafter referred to as “Bμcom”) 50.

尚、これらLμcom25とBμcom50とは、合体時に於いて通信コネクタ63を介して、通信可能に電気的接続がなされる。そしてカメラシステムとして、Lμcom25がBμcom50に従属的に協働しながら稼動するようになっている。   The Lμcom 25 and Bμcom 50 are electrically connected via the communication connector 63 so that they can communicate with each other when they are combined. As a camera system, the Lμcom 25 is operated in cooperation with the Bμcom 50 in a dependent manner.

レンズ鏡筒12内には、撮影レンズ21と絞り22が設けられている。撮影レンズ21は、レンズ駆動機構23内に存在する図示されないDCモータによって駆動される。また、絞り22は、絞り駆動機構24内に存在する図示されないステッピングモータによって駆動される。Lμcom25は、Bμcom50の指令に従って、これら各モータを制御する。   In the lens barrel 12, a photographing lens 21 and a diaphragm 22 are provided. The taking lens 21 is driven by a DC motor (not shown) existing in the lens driving mechanism 23. The diaphragm 22 is driven by a stepping motor (not shown) existing in the diaphragm drive mechanism 24. Lμcom 25 controls each of these motors in accordance with the command of Bμcom50.

また、レンズ鏡筒12内には、後述するピントズレ量を補正するための補正データを記憶している補正値メモリ27が設けられている。この補正値メモリ27に記憶されている補正データは、Lμcom25により読み出される。その後、通信により、Bμcom50に送信される。   The lens barrel 12 is provided with a correction value memory 27 that stores correction data for correcting a focus shift amount described later. The correction data stored in the correction value memory 27 is read out by the Lμcom 25. Then, it transmits to Bmicrocom50 by communication.

一方、カメラボディ11内には、次の構成部材が図示のように配設されている。   On the other hand, the following components are arranged in the camera body 11 as shown.

例えば、光学系としての一眼レフ方式の構成部材(クイックリターンミラー16a、ペンタプリズム16b、接眼レンズ16c、フォーカシングスクリーン31、サブミラー35)と、光軸上のフォーカルプレーン式のシャッタ部17と、上記サブミラー35からの反射光束を受けて自動測距するためのAFセンサユニット36が設けられている。   For example, a single-lens reflex type structural member (quick return mirror 16a, pentaprism 16b, eyepiece 16c, focusing screen 31, submirror 35) as an optical system, a focal plane type shutter unit 17 on the optical axis, and the submirror An AF sensor unit 36 for receiving a reflected light beam from 35 and automatically measuring the distance is provided.

また、カメラボディ内には、上記ペンタプリズム16bからの光束に基づき測光センサ(光検出手段)32を介して測光処理する測光回路33と、上記AFセンサユニット36を駆動制御するためのAFセンサ駆動回路37と、上記クイックリターンミラー16aを駆動制御するミラー駆動機構38と、上記シャッタ部17の先幕と後幕を駆動するバネをチャージするシャッタチャージ機構47と、それら先幕と後幕の動きを制御するシャッタ制御回路48とが設けられている。   Further, in the camera body, a photometric circuit 33 for performing photometric processing based on a light beam from the pentaprism 16b via a photometric sensor (light detecting means) 32, and an AF sensor drive for driving and controlling the AF sensor unit 36. A circuit 37; a mirror drive mechanism 38 for controlling the drive of the quick return mirror 16a; a shutter charge mechanism 47 for charging a spring for driving the front curtain and the rear curtain of the shutter unit 17; And a shutter control circuit 48 for controlling the above.

また、光軸上には、上記光学系を通過した被写体像を光電変換するための撮像手段であるCCDユニット(撮像素子)40が、光電変換素子として設けられている。   On the optical axis, a CCD unit (imaging device) 40 that is an imaging means for photoelectrically converting the subject image that has passed through the optical system is provided as a photoelectric conversion device.

このデジタルカメラには、また、CCDユニット40に接続されたCCDインターフェイス回路41と、液晶モニタ43と、記憶領域として設けられたSDRAM44と、FlashROM45及び記録メディア46等を利用して画像処理する画像処理コントローラ(画像形成手段)42とが設けられ、電子撮像機能と共に電子記録表示機能を提供できるように構成されている。   The digital camera also includes image processing for image processing using a CCD interface circuit 41 connected to the CCD unit 40, a liquid crystal monitor 43, an SDRAM 44 provided as a storage area, a flash ROM 45, a recording medium 46, and the like. A controller (image forming means) 42 is provided so that an electronic recording display function can be provided together with an electronic imaging function.

その他の記憶領域としては、カメラ制御に必要な所定の制御パラメータを記憶するもので、補正量記憶手段として、例えば、EEPROMから成る不揮発性メモリ49が、Bμcom50からアクセス可能に設けられている。   The other storage area stores predetermined control parameters necessary for camera control. As a correction amount storage means, for example, a non-volatile memory 49 made of an EEPROM is provided so as to be accessible from the Bμcom 50.

また、上記測光センサ32は、接眼レンズ16cの上部の、フォーカシングスクリーン31をやぶにらむ位置に配設されている。この測光センサ32は、撮影光学系21、クイックリターンミラー16a、フォーカシングスクリーン31、ペンタプリズム16bを介して得られる被写体光を、測光用のレンズで該センサに集光して明るさを測定するものである。   In addition, the photometric sensor 32 is disposed at a position on the upper portion of the eyepiece lens 16c so as to stare at the focusing screen 31. This photometric sensor 32 collects subject light obtained via the photographing optical system 21, the quick return mirror 16a, the focusing screen 31, and the pentaprism 16b on the sensor with a photometric lens and measures the brightness. It is.

この測光センサ32はシリコンフォトダイオードで構成されており、センサと測光レンズ(図示せず)の間には赤外カットフィルタが挿入されている。これらの光学系と合わせた測光センサ32の分光感度は、ほぼ視感度に等しいものとなっている。   The photometric sensor 32 is composed of a silicon photodiode, and an infrared cut filter is inserted between the sensor and a photometric lens (not shown). The spectral sensitivity of the photometric sensor 32 combined with these optical systems is substantially equal to the visual sensitivity.

更に、シャッタ部17をやぶにらむ位置(光路よりクイックリターンミラー16aが退避した状態でシャッタ幕をカメラ横からやぶにらむ位置)には、白または灰色のシャッタ幕への反射光量を測定するためのストロボ測光センサ51が配設されている。ストロボ発光するような撮影条件の場合には、絞り22が絞り込み動作を終了し、クイックリターンミラー16aが光路より退避した後、撮影に先立ち、外部ストロボ装置64をプリ発光させたときの明るさを、このストロボ測光センサ51で検出し、その出力は、ストロボ光検出回路52を介してBμcom50に供給される。   Further, a strobe for measuring the amount of light reflected on the white or gray shutter curtain at a position where the shutter section 17 is blurred (position where the shutter curtain is blurred from the side of the camera with the quick return mirror 16a retracted from the optical path). A photometric sensor 51 is provided. In the case of shooting conditions such that the strobe light is emitted, the brightness when the external strobe device 64 is pre-flashed before shooting after the diaphragm 22 finishes the narrowing operation and the quick return mirror 16a is retracted from the optical path. The strobe photometry sensor 51 detects the output, and the output is supplied to the Bμcom 50 via the strobe light detection circuit 52.

Bμcom50は、この出力に応じてストロボ発光量を求め、ストロボ通信回路61を介して外部ストロボ装置64に送信し、本撮影時のストロボ発光量とタイミングを制御する。上記ストロボ測光センサ51もシリコンフォトダイオードで構成されており、ストロボ測光センサ51と測光レンズ(図示せず)の間には、赤外カットフィルタ(図示せず)が挿入されている。これらの光学系と合わせたストロボ測光センサ51の分光感度は、ほぼ視感度に等しいものとなっている。   The Bμcom 50 obtains the strobe emission amount according to this output and transmits it to the external strobe device 64 via the strobe communication circuit 61 to control the strobe emission amount and timing at the time of actual photographing. The strobe photometry sensor 51 is also composed of a silicon photodiode, and an infrared cut filter (not shown) is inserted between the strobe photometry sensor 51 and a photometry lens (not shown). The spectral sensitivity of the strobe photometry sensor 51 combined with these optical systems is substantially equal to the visual sensitivity.

上述した光源センサ55は、本実施形態では外光式のセンサで構成される光源検出手段であり、レンズ鏡筒12を通過していない被写体光を拡散板14を介して検出する。この光源センサ55は、可視光センサ69及び赤外光センサ68から構成されており、拡散板14を介して被写体光が入射される構成のため、センサの視野は同一であり、広い画角を有している。   The light source sensor 55 described above is a light source detection unit configured by an external light sensor in the present embodiment, and detects subject light that has not passed through the lens barrel 12 via the diffusion plate 14. The light source sensor 55 includes a visible light sensor 69 and an infrared light sensor 68. Since the subject light is incident through the diffusion plate 14, the field of view of the sensor is the same, and a wide angle of view is obtained. Have.

可視光センサ69は、正しくは可視及び近赤外の分光感度を有しているが、可視光センサ69と拡散板14との間には、赤外カットフィルタ(図示せず)が挿入されており、最終的に可視光のみを受光するような構成となっている。光源センサ55は、各分光感度のセンサに応じた光電流を圧縮、電流電圧変換して出力する。光源検出センサの出力は光源検出回路54でA/D変換され、各センサの分光感度に応じた被写体全域の明るさが検出可能な構成となっている。   The visible light sensor 69 correctly has visible and near infrared spectral sensitivities, but an infrared cut filter (not shown) is inserted between the visible light sensor 69 and the diffuser plate 14. Finally, only visible light is received. The light source sensor 55 compresses the photocurrent corresponding to each spectral sensitivity sensor, converts the current to voltage, and outputs the result. The output of the light source detection sensor is A / D converted by the light source detection circuit 54 so that the brightness of the entire subject according to the spectral sensitivity of each sensor can be detected.

また、Bμcom50には、当該カメラの動作状態を表示出力によってユーザへ告知するための動作表示用LCD57と、カメラ操作スイッチ(SW)58と、ストロボ通信回路61が設けられている。上記カメラ操作スイッチ58は、例えばレリーズスイッチ、モード変更スイッチ、測光モード変更スイッチ及びパワースイッチ等、当該カメラを操作するために必要な操作釦を含むスイッチ群で構成される。   Further, the Bμcom 50 is provided with an operation display LCD 57 for notifying the user of the operation state of the camera by display output, a camera operation switch (SW) 58, and a strobe communication circuit 61. The camera operation switch 58 includes a group of switches including operation buttons necessary for operating the camera, such as a release switch, a mode change switch, a photometric mode change switch, and a power switch.

上記ストロボ通信回路61は、上述したストロボ測光センサ51で得られBμcom50で算出したストロボの発光量に基づいた信号を受ける。そして、通信コネクタ62を経てストロボ装置64に信号を出力して、ストロボ装置64が所定光量で発光する。   The strobe communication circuit 61 receives a signal based on the light emission amount of the strobe obtained by the strobe photometric sensor 51 and calculated by Bμcom50. Then, a signal is output to the strobe device 64 via the communication connector 62, and the strobe device 64 emits light with a predetermined amount of light.

更に、カメラボディ11内には、電源としての電池60と、この電源の電圧を当該デジタルカメラを構成する各回路ユニットが必要とする電圧に変換して供給するための電源回路59とが設けられている。   Further, the camera body 11 is provided with a battery 60 as a power source and a power circuit 59 for converting the voltage of the power source into a voltage required by each circuit unit constituting the digital camera and supplying the same. ing.

上述したように構成されたデジタルカメラでは、各部が次のように稼動する。   In the digital camera configured as described above, each unit operates as follows.

画像処理コントローラ42により、Bμcom50の指令に従って、CCDインターフェイス回路41が制御され、CCDユニット40から画像データが取り込まれる。この画像データは、画像処理コントローラ42でビデオ信号に変換され、液晶モニタ43にて出力表示される。ユーザは、この液晶モニタ43の表示画像から、撮影された画像イメージが確認可能である。   The image processing controller 42 controls the CCD interface circuit 41 in accordance with a command from the Bμcom 50 and takes in image data from the CCD unit 40. This image data is converted into a video signal by the image processing controller 42 and output and displayed on the liquid crystal monitor 43. The user can confirm the captured image from the display image on the liquid crystal monitor 43.

SDRAM44は画像データの一時的保管用メモリであり、画像データが変換される際のワークエリア等に使用される。また、この画像データは、JPEGデータに変換された後に、記録メディア50に保管されるように設定されている。   The SDRAM 44 is a memory for temporarily storing image data, and is used as a work area when image data is converted. The image data is set to be stored in the recording medium 50 after being converted into JPEG data.

ミラー駆動機構38は、クイックリターンミラー16aのUP(アップ)位置とDOWN(ダウン)位置へと駆動するための機構である。上記クイックリターンミラー16aがDOWN位置にある時、撮影レンズ21からの光束は、AFセンサユニット36側とペンタプリズム16b側へと分割されて導かれる。   The mirror drive mechanism 38 is a mechanism for driving the quick return mirror 16a to the UP (up) position and the DOWN (down) position. When the quick return mirror 16a is in the DOWN position, the light beam from the photographing lens 21 is divided and guided to the AF sensor unit 36 side and the pentaprism 16b side.

AFセンサユニット36内のAFセンサからの出力は、AFセンサ駆動回路37を介してBμcom50へ送信されて周知の測距処理が行われる。   The output from the AF sensor in the AF sensor unit 36 is transmitted to the Bμcom 50 via the AF sensor driving circuit 37 and a known distance measurement process is performed.

ここで、被写体を照明する光源の種類によって、AFセンサユニット36による測距結果にどのような影響があるのかを説明する。   Here, how the distance measurement result by the AF sensor unit 36 is affected by the type of the light source that illuminates the subject will be described.

初めに、光源の波長特性について説明する。   First, the wavelength characteristics of the light source will be described.

図4は、被写体を照明する各種の照明光源の分光特性を示す概略図である。照明光源としては、図示されるように、A;蛍光灯、B;白熱電球、C;ブルーフラッドランプ、D;昼光の各特性曲線を例示している。   FIG. 4 is a schematic diagram illustrating spectral characteristics of various illumination light sources that illuminate a subject. Illustrative examples of illumination light sources include A: fluorescent lamp, B: incandescent lamp, C: blue flood lamp, D: daylight.

図4に示されるように、蛍光灯の分光特性は、略500nm付近を頂点として略300nm付近から略800nm付近の範囲にある。また、白熱電球の分光特性は、略1000nm付近を頂点に略300nm付近より長波長寄りの領域にある。ブルーフラッドランプの分光特性は、略800nm付近に急峻な感度を有し、略300nm付近から略850nm付近の領域にある。そして、一般的な自然光(昼光)の分光特性は、略300nm付近より長波長寄りの領域から比較的全範囲にわたる分光特性を有している。   As shown in FIG. 4, the spectral characteristics of the fluorescent lamp are in the range from about 300 nm to about 800 nm with the peak at about 500 nm. Further, the spectral characteristics of the incandescent lamp are in a region closer to a longer wavelength than the vicinity of about 300 nm with the vicinity of about 1000 nm as the apex. The spectral characteristics of the blue flood lamp have a steep sensitivity in the vicinity of about 800 nm and are in a region from about 300 nm to about 850 nm. And the spectral characteristic of general natural light (daylight) has a spectral characteristic over a relatively entire range from a region closer to a longer wavelength than about 300 nm.

図5は、被写体を照明している光源の種類によって、AFセンサユニット36の受光部に結像される2つの像の間隔にズレが生じている状態を示した図である。   FIG. 5 is a diagram illustrating a state in which a gap between two images formed on the light receiving unit of the AF sensor unit 36 is shifted depending on the type of the light source that illuminates the subject.

例えば、2つの像の間隔が昼光に於いて合焦状態で結像しているものとした場合、この同一被写体をブルーフラッドランプで照明して撮影すると、以下のようになる。すなわち、図5に示されるように、昼光に於ける合焦状態に比べて、測距センサ28の受光面上に於いて、約+0.2画素分のズレが生じることがわかる。これは、AF検出光束の波長成分が異なると撮影レンズやAF光学系の光学的な作用が異なるため、上記のズレが発生する。この詳細については、特許第2666274号公報に開示されているので、ここでの説明は省略する。   For example, assuming that the interval between two images is focused in daylight, and the same subject is illuminated with a blue flood lamp and photographed, the following occurs. That is, as shown in FIG. 5, it can be seen that a deviation of about +0.2 pixels occurs on the light receiving surface of the distance measuring sensor 28 as compared with the focused state in daylight. This is because the optical components of the photographic lens and the AF optical system are different when the wavelength component of the AF detection light beam is different. Since this is disclosed in Japanese Patent No. 2666274, description thereof is omitted here.

尚、上記約+0.2画素は、ピント位置に換算して、例えば+0.1mmに相当する。測距センサは、ラインセンサを有しており、その画素を意味する。   The above approximately +0.2 pixel corresponds to, for example, +0.1 mm in terms of the focus position. The distance measuring sensor has a line sensor and means the pixel.

このように照明光源によって合焦位置にズレが生じてしまうと、いわゆるピンボケ写真が生成されることとなり問題となる。このため、本発明では、光源センサ55により、光源の種類を判別し、それに応じてレンズ鏡筒12内の補正値メモリ27の補正値を使用して、上記ズレを補正することにより、上記問題を解決している。   In this way, when the in-focus position is shifted by the illumination light source, a so-called out-of-focus photograph is generated, which becomes a problem. For this reason, in the present invention, the type of the light source is discriminated by the light source sensor 55, and the above-mentioned problem is corrected by using the correction value in the correction value memory 27 in the lens barrel 12 and correcting the deviation. Has solved.

図6は、本実施形態のカメラに於ける焦点検出装置の一部を構成するAFセンサユニット36の検出エリアと、光源センサ55の検出エリアとを概略的に示し、これらの検出エリアの撮影画面(撮影画角)57aに対する関係をそれぞれ示したものである。   FIG. 6 schematically shows a detection area of the AF sensor unit 36 and a detection area of the light source sensor 55 that constitute a part of the focus detection device in the camera of the present embodiment, and a photographing screen of these detection areas. The relationship with respect to (shooting angle of view) 57a is shown.

図6に於いて、領域56(図6に於いて斜線で示される領域)は、AFセンサユニット36の検出エリアを示している。同様に、領域57bは、光源センサ55の検出エリアを示している。   In FIG. 6, a region 56 (a region indicated by hatching in FIG. 6) indicates a detection area of the AF sensor unit 36. Similarly, a region 57b indicates a detection area of the light source sensor 55.

また、ペンタプリズム16bに隣接する接眼レンズ16cからは、ユーザが被写体を目視できる。一方、このペンタプリズム16bを通過した光束の一部は、測光センサ32へ導かれ、ここで検知された光量に基づいて周知の測光処理が行われる。   In addition, the user can view the subject from the eyepiece 16c adjacent to the pentaprism 16b. On the other hand, a part of the light beam that has passed through the pentaprism 16b is guided to the photometric sensor 32, and a known photometric process is performed based on the amount of light detected here.

上記測光センサ32は、各測光パターンに応じた光電流を圧縮電流電圧変換し、出力する。測光センサ32の出力は、測光回路33でA/D変換され、各パターンに応じた被写体輝度が検出可能になる。   The photometric sensor 32 converts the photocurrent corresponding to each photometric pattern into a compressed current and outputs it. The output of the photometric sensor 32 is A / D converted by the photometric circuit 33, and the subject luminance corresponding to each pattern can be detected.

また、ファインダ測光による測光結果に基づいて、露出値(シヤッタ速度、絞り、ISO感度)が決定される。   Further, the exposure value (shutter speed, aperture, ISO sensitivity) is determined based on the photometric result obtained by the finder photometry.

このデジタルカメラは、複数の撮影モード(P;プログラムモード、A;絞り優先モード、S;シャッタ速度優先モード、M;マニュアルモード)を有しており、撮影者により選択された撮影モードに応じて、露出値が演算されて決定される。そして、決定された露出値に基いて、シャッタ速度制御、絞り制御、感度制御が行われる。   This digital camera has a plurality of shooting modes (P: program mode, A: aperture priority mode, S: shutter speed priority mode, M: manual mode), depending on the shooting mode selected by the photographer. The exposure value is calculated and determined. Based on the determined exposure value, shutter speed control, aperture control, and sensitivity control are performed.

また、ここで、被写体輝度が暗く、外部ストロボ装置64が接続されている状態で発光可能な場合には、Bμcom50がストロボ発光必要と判断し、ストロボ発光制御が行われる。   If the subject brightness is low and light can be emitted while the external strobe device 64 is connected, the Bμcom 50 determines that strobe light emission is necessary, and performs strobe light emission control.

上記シャッタ速度は、シャッタ部17のフォーカルプレーンシャッタにより生成される。ストロボ装置64の閃光発光の同調秒時は、1/180秒である。   The shutter speed is generated by the focal plane shutter of the shutter unit 17. The synchronization time of flash emission of the strobe device 64 is 1/180 seconds.

絞り22はレンズ鏡筒12内にあり、Bμcom50とLμcom25間の通信によって、絞り駆動がレンズに指示されることにより実現される。   The aperture 22 is in the lens barrel 12 and is realized by instructing the lens to drive the aperture by communication between Bμcom 50 and Lμcom 25.

感度制御は、CCDユニット40の出力データにアナログゲインをかけることにより実現されるもので、インターフェイス回路41により行われる。   The sensitivity control is realized by applying an analog gain to the output data of the CCD unit 40 and is performed by the interface circuit 41.

また、ストロボ装置64の発光量はストロボ測光センサ51により行われる。   The amount of light emitted from the strobe device 64 is measured by the strobe photometric sensor 51.

上述したように、ストロボ測光センサ51はシャッタ部17をやぶにらむ位置に、白または灰色のシャッタ幕の反射光を測定するように配設されている。このストロボ測光センサ51は、クイックリターンミラー16aがアップされた後に、ストロボ装置64のプリ発光により得られるシャッタ幕で反射された光について測定する。Bμcom50は、測定光量から発光量を算出し、ストロボ通信回路61を介してストロボ装置62に通信する。これにより、撮影時のストロボ装置64の本発光の光量に反映される。   As described above, the strobe photometric sensor 51 is disposed at a position where the shutter unit 17 is obscured so as to measure the reflected light of the white or gray shutter curtain. The strobe photometry sensor 51 measures the light reflected by the shutter curtain obtained by the pre-emission of the strobe device 64 after the quick return mirror 16a is raised. The Bμcom 50 calculates the light emission amount from the measured light amount, and communicates with the strobe device 62 via the strobe communication circuit 61. As a result, the amount of main light emission of the flash device 64 at the time of shooting is reflected.

次に、光源の種類を検出する原理について説明する。   Next, the principle of detecting the type of light source will be described.

図7は、本実施形態のカメラに於いて、被写体を照明する照明光を測定するもので後述する可視光センサ69の分光感度特性と、後述する赤外光センサ68の分光感度特性をそれぞれ示した図である。   FIG. 7 shows the spectral sensitivity characteristic of a visible light sensor 69 described later and the spectral sensitivity characteristic of an infrared light sensor 68 described later, which measure illumination light for illuminating a subject in the camera of this embodiment. It is a figure.

本実施形態のカメラに於ける可視光センサ69の分光感度特性は、図7の符号Eで示されるように、略500nm付近を頂点(ピーク;最大値)とした短波長領域寄りの分光感度特性を有し、可視光領域に感度を有している。また、同カメラに於ける赤外光センサ68の分光感度特性は、図7の符号Fで示されるように、略600nm付近を頂点として1000nm付近の長波長領域までの分光感度特性を有している。   The spectral sensitivity characteristic of the visible light sensor 69 in the camera according to the present embodiment is as shown by the symbol E in FIG. 7. The spectral sensitivity characteristic near the short wavelength region with the apex (peak: maximum value) near about 500 nm. And has sensitivity in the visible light region. Further, the spectral sensitivity characteristic of the infrared light sensor 68 in the same camera has a spectral sensitivity characteristic up to a long wavelength region of about 1000 nm with a vertex of about 600 nm as the apex, as indicated by reference numeral F in FIG. Yes.

尚、以下の説明に於いて、可視光センサ69による測光を可視測光と称し、赤外光センサ69による測光を赤外測光と称するものとする。   In the following description, photometry by the visible light sensor 69 is referred to as visible photometry, and photometry by the infrared light sensor 69 is referred to as infrared photometry.

図8は、上述した光源による赤外測光と可視測光の差(ΔBV)を、タングステンランプを基準として規格化して表した図であり、本実施形態に於ける光源判定の方法を示した図である。   FIG. 8 is a diagram showing the difference (ΔBV) between infrared photometry and visible photometry by the above-mentioned light source, normalized using a tungsten lamp as a reference, and is a diagram showing a light source determination method in this embodiment. is there.

図8に於いては、基準光源がタングステンランプとされているので、輝度差ΔBVは、タングステンランプで0.0、太陽光で−1.1、白色蛍光灯で−7.1、3波昼白蛍光灯で−7.5、昼白蛍光灯で−6.2、3波昼光蛍光灯で−7.5、そしてブルーフラッドランプで+1.3である。ここで、“タングステンランプで規格化”とは、各光源光をカメラに照射した場合の輝度差からタングステンランプをカメラに照射した場合の輝度差を引いた値である。   In FIG. 8, since the reference light source is a tungsten lamp, the luminance difference ΔBV is 0.0 for a tungsten lamp, −1.1 for sunlight, −7.1 for a white fluorescent lamp, and 3 daylight. -7.5 for white fluorescent lamps, -6.2 for daylight white fluorescent lamps, -7.5 for 3-wave daylight fluorescent lamps, and +1.3 for blue flood lamps. Here, “standardized with a tungsten lamp” is a value obtained by subtracting the luminance difference when the camera is irradiated with the tungsten lamp from the luminance difference when the camera is irradiated with each light source light.

ここで、例えば、輝度差−3及び+0.5の位置に閾値を設けた場合、上記輝度差ΔBVの値が−3を越えると蛍光灯であると判定し、+0.5を越えるとブルーフラッドランプと判定することができる。   Here, for example, in the case where threshold values are provided at positions where the luminance difference is −3 and +0.5, when the value of the luminance difference ΔBV exceeds −3, it is determined that the lamp is a fluorescent lamp. It can be determined as a lamp.

図9は光源センサ55の配置について示した図であり、図10はこの光源センサ55の構成を示した平面図である。   FIG. 9 is a diagram showing the arrangement of the light source sensor 55, and FIG. 10 is a plan view showing the configuration of the light source sensor 55.

光源センサ55は、カメラ本体11のカメラ外装65より内側で、拡散板14の後方に配置されている。そして、この光源センサ55は、クリアモールド66上に、赤外センサ68及び可視赤外センサ(SPD)69と、これらのセンサを制御する制御IC72が搭載された構成となっている。更に、可視赤外光センサ68の前面部、すなわち拡散板14と対向する側には、赤外カットフィルタ70が配置されている。この赤外カットフィルタ70により、赤外光がカットされるので、可視赤外光センサ69は可視光に近い分光感度を有した可視光センサとなる。   The light source sensor 55 is disposed behind the diffusion plate 14 inside the camera exterior 65 of the camera body 11. The light source sensor 55 has a configuration in which an infrared sensor 68 and a visible infrared sensor (SPD) 69 and a control IC 72 for controlling these sensors are mounted on a clear mold 66. Further, an infrared cut filter 70 is disposed on the front surface of the visible infrared light sensor 68, that is, on the side facing the diffusion plate 14. Since infrared light is cut by the infrared cut filter 70, the visible infrared light sensor 69 is a visible light sensor having spectral sensitivity close to visible light.

本実施形態では、可視測光を行うために、赤外可視域に分光感度を有するセンサと赤外カットフィルタとを組み合わせている。このような構成の場合、赤外カットフィルタの位置により、微少ではあるが赤外カットされずにセンサに入射する光が発生する。そして、カメラの組み立て誤差等により、この量が異なるため、各光源の光をカメラに照射した場合の可視光と赤外光の輝度差の絶対量は相違する。   In this embodiment, in order to perform visible photometry, a sensor having spectral sensitivity in the infrared visible region and an infrared cut filter are combined. In the case of such a configuration, light that is incident on the sensor without being cut by infrared rays is generated depending on the position of the infrared cut filter. Since this amount varies depending on the assembly error of the camera and the like, the absolute amount of the luminance difference between visible light and infrared light when the light from each light source is irradiated on the camera is different.

しかし、基準の光源(本実施形態ではタングステン光)を基に輝度差を規格化した値は、カメラ個体差によらず一定となる。よって、図8に示される原理に基づいて、安定して光源を判定することができる。   However, the value obtained by standardizing the luminance difference based on the reference light source (in this embodiment, tungsten light) is constant regardless of the individual camera difference. Therefore, the light source can be determined stably based on the principle shown in FIG.

次に、このように構成されたカメラの動作について説明する。尚、以下に述べる種々の動作は、Bμcom50により制御される。   Next, the operation of the camera configured as described above will be described. The various operations described below are controlled by the Bμcom 50.

初めに、図11のフローチャートを参照して、カメラ本体に電池装填やA/Dアダプタ等の電源投入、または電源スイッチがオンされた場合の動作について説明する。   First, with reference to the flowchart of FIG. 11, the operation when the camera body is loaded with a battery, the A / D adapter or the like is turned on, or the power switch is turned on will be described.

先ず、ステップS1にて、カメラボディ11内で、Bμcom50によって、回路全体の初期化動作が実行される。次いで、ステップS2に於いて、電源スイッチ(SW)の状態が判定される。ここで、電源スイッチがオフの場合はカメラの動作が終了する。一方、電源スイッチがオンされている場合は、ステップS3に移行して、Bμcom50とLμcom25との間で通信が行われて、レンズ鏡筒12内の初期化動作や、該レンズ鏡筒12内の補正値メモリ27のピント補正データ、レンズの焦点距離情報等の各種データの授受が行われる。   First, in step S <b> 1, the entire circuit is initialized by the Bμcom 50 in the camera body 11. Next, in step S2, the state of the power switch (SW) is determined. Here, when the power switch is off, the operation of the camera ends. On the other hand, when the power switch is turned on, the process proceeds to step S3, where communication is performed between Bμcom 50 and Lμcom 25, the initialization operation in the lens barrel 12, and the lens barrel 12 Various data such as focus correction data in the correction value memory 27 and focal length information of the lens are exchanged.

そして、ステップS4に於いて、レリーズスイッチ(SW)の状態が判定される。ここで、レリーズスイッチがオフであれば、上記ステップS2へ移行して、再度電源スイッチの状態が判定される。一方、レリーズスイッチがオンされていれば、ステップS5へ移行して、サブルーチン「レリーズ」が実行される。その後、上記ステップS2へ移行する。   In step S4, the state of the release switch (SW) is determined. If the release switch is off, the process proceeds to step S2, and the state of the power switch is determined again. On the other hand, if the release switch is on, the process proceeds to step S5, and the subroutine “release” is executed. Thereafter, the process proceeds to step S2.

図12は、本実施形態のカメラの作用のうち写真撮影を行う際に行われるサブルーチン「レリーズ」の動作を説明するフローチャートである。   FIG. 12 is a flowchart for explaining the operation of the subroutine “Release” performed when taking a picture out of the actions of the camera of the present embodiment.

本カメラの電源がオン状態にあり、撮影動作を行い得る撮影準備状態にあるときに、使用者によってカメラ操作スイッチ58のうちファーストレリーズスイッチに連動する操作部材が操作される。すると、この操作に応じた所定の指令信号(ファーストレリーズ信号)が発生されることによって、図12のレリーズ動作のサブルーチンが呼び出されて、同シーケンスが開始される。   When the power of the camera is on and the camera is in a shooting preparation state in which a shooting operation can be performed, the user operates an operation member that is linked to the first release switch among the camera operation switches 58. Then, when a predetermined command signal (first release signal) corresponding to this operation is generated, the release operation subroutine of FIG. 12 is called and the same sequence is started.

先ず、ステップS11に於いて、Bμcom50によって、ファーストレリーズ信号が受信されて、測光回路33を介して測光センサ32が駆動制御され、測光が行われる。これにより、その測光結果である測光データが取得される。次いで、ステップS12にて、Bμcom50により、同様に光源検出回路54による光源検出が行われて、その結果である光源検出データが取得される。このようにして取得された光源検出データは、Bμcom50に内蔵されたRAM(図示せず)の所定の領域(BVA、BVB)に格納される。   First, in step S11, the first release signal is received by the Bμcom 50, the photometric sensor 32 is driven and controlled via the photometric circuit 33, and photometry is performed. Thereby, photometric data which is the photometric result is acquired. Next, in step S12, the light source detection by the light source detection circuit 54 is similarly performed by the Bμcom 50, and the light source detection data as a result is acquired. The light source detection data acquired in this way is stored in predetermined areas (BVA, BVB) of a RAM (not shown) built in the Bμcom 50.

続いて、ステップS13にて、Bμcom50により、ストロボ装置64に含まれるストロボ用コンデンサ(図示せず)の充電電圧の状態が確認されて、ストロボ発光動作が行われ得るレベルの充電がなされているか否かの判定が行われる(充電チェックの処理)。この充電チェックの処理は、ステップS14の測距動作のシーケンスが行われる際に、被写体が低輝度である場合には、ストロボ装置64を含む閃光発光装置が用いられて補助光が被写体に向けて照射される必要があることから、この段階で予めストロボ用コンデンサの電圧チェックが行われるようにしているものである。   Subsequently, in step S13, the state of the charging voltage of the strobe capacitor (not shown) included in the strobe device 64 is confirmed by the Bμcom 50, and whether or not the charging is performed at a level at which the strobe light emission operation can be performed. Is determined (charging check process). In the charging check process, if the subject has low brightness when the ranging operation sequence in step S14 is performed, a flash light emitting device including the strobe device 64 is used to direct auxiliary light toward the subject. Since it is necessary to irradiate, the voltage of the strobe capacitor is checked in advance at this stage.

尚、測距動作時に被写体が低輝度であるか否かが判定され、測距動作時に於いて補助光の照射が必要であるか否かの判定は、上述したステップS12に於ける測光結果に基づいて行われる。   Note that it is determined whether or not the subject has low brightness during the distance measuring operation, and whether or not the auxiliary light needs to be irradiated during the distance measuring operation is determined based on the photometric result in step S12 described above. Based on.

ステップS14では、Bμcom50によって焦点検出装置が駆動制御されて、サブルーチン「測距動作」のシーケンスが実行される。尚、このサブルーチン「測距動作」の詳細は後述する。続いて、ステップS15に於いて、上述したステップS14の測距動作の測距結果が参照されて、焦点位置の検出が不能であったか否かの判定が行われる。   In step S14, the focus detection device is driven and controlled by Bμcom 50, and the subroutine “ranging operation” sequence is executed. The details of this subroutine “ranging operation” will be described later. Subsequently, in step S15, the distance measurement result of the distance measurement operation in step S14 described above is referred to and it is determined whether or not the focus position cannot be detected.

ここで、焦点位置の検出が不能であった場合には、ステップS22に移行する。このステップS22では、合焦位置が検出できなかった旨の表示が、所定の情報表示装置(図示せず)等が用いられて行われる非合焦表示の処理が実行される。その後、本レリーズ処理のシーケンスが終了する。   If the focal position cannot be detected, the process proceeds to step S22. In step S22, a non-focus display process is performed in which a display indicating that the in-focus position cannot be detected is performed using a predetermined information display device (not shown) or the like. Thereafter, the sequence of the release process ends.

一方、上記ステップS15にて、上記ステップS14の測距動作の結果、焦点位置が検出されたことが確認された場合には、ステップS16に移行する。ステップS16では、上記ステップS14(図13参照)に於ける測距動作時に閃光発光装置が用いられた補助光が発光されたか否かの確認が行われる。ここで、測距動作時に補助光が発光されたと判定された場合にはステップS17に移行し、補助光の発光が実行されていないと判断された場合にはステップS18に移行する。   On the other hand, if it is confirmed in step S15 that the focal position has been detected as a result of the distance measuring operation in step S14, the process proceeds to step S16. In step S16, it is confirmed whether or not the auxiliary light used by the flash light emitting device is emitted during the distance measuring operation in step S14 (see FIG. 13). If it is determined that the auxiliary light is emitted during the distance measuring operation, the process proceeds to step S17. If it is determined that the auxiliary light is not emitted, the process proceeds to step S18.

ステップS17に於いては、測距動作時にて補助光が発光されたことで、適正となる露光量に比べて光量過多(オーバ)または光量不足(アンダー)が生じたか否かが判定される。ここで、光量オーバまたはアンダーと判定された場合には、このような状況下で実行された測距動作による測距結果には信頼性がないものと考えられる。したがって、このような場合には、上記ステップS14に移行して、以降の処理に於いて補助光の光量が変更れて、再度同様の測距動作が実行される。   In step S17, it is determined whether or not an excessive amount of light (over) or an insufficient amount of light (under) has occurred as a result of the auxiliary light being emitted during the distance measuring operation, compared to the appropriate exposure amount. Here, when it is determined that the light amount is over or under, it is considered that the distance measurement result obtained by the distance measurement operation performed under such circumstances is not reliable. Therefore, in such a case, the process proceeds to step S14, and the amount of auxiliary light is changed in the subsequent processing, and the same distance measuring operation is executed again.

尚、測距動作時に於ける補助光の光量調整等、所定の動作については、本件出願人による特開平6−289281公報等によって詳細な説明を行っている。本実施形態のカメラに於いても、これらの従来より用いられている手段に従って測距動作時に於ける補助光照射がなされるものとする。したがって、本実施の形態に於いて、その詳細な説明は省略する。   The predetermined operation such as the adjustment of the amount of auxiliary light during the distance measuring operation is described in detail in Japanese Patent Application Laid-Open No. Hei 6-289281 by the present applicant. Also in the camera of the present embodiment, it is assumed that auxiliary light irradiation is performed during the distance measuring operation in accordance with these conventionally used means. Therefore, detailed description thereof is omitted in the present embodiment.

次に、ステップS18に於いて、測距動作による測距結果に基づいて移動させられた撮影レンズにより結像される被写体像が合焦状態にあるか否かが判断される。ここで、合焦状態にあるものと判断された場合はステップS19に移行し、合焦状態にないものと判断された場合にはステップS20に移行する。   Next, in step S18, it is determined whether or not the subject image formed by the photographic lens moved based on the distance measurement result of the distance measurement operation is in focus. If it is determined that the subject is in focus, the process proceeds to step S19. If it is determined that the subject is not in focus, the process proceeds to step S20.

ステップS19では合焦状態にある場合であるので、Bμcom50により、ファインダLED表示やブザの発音等の図示されない表示・警告装置等が用いられて、合焦状態になった旨の情報が使用者に告知される(合焦表示の処理)。その後、本ルーチンが終了する(リターン)。   In step S19, since it is in the in-focus state, the Bμcom 50 uses a display / warning device (not shown) such as a finder LED display or a buzzer sounding to inform the user that the in-focus state has been achieved. Notification is made (focus display processing). Thereafter, this routine ends (return).

一方、ステップS20では非合焦状態である場合なので、所定のレンズ駆動の処理が実行される。この場合は、上記ステップS14の測距結果が、レンズ鏡筒12内のLμcom25に送信される。このLμcom25により、測距結果に基づいて撮影レンズが所定の位置に移動されるよう駆動制御がなされる。   On the other hand, since it is a case where it is an out-of-focus state in step S20, a predetermined lens driving process is executed. In this case, the distance measurement result in step S14 is transmitted to Lμcom 25 in the lens barrel 12. With this Lμcom 25, drive control is performed so that the photographic lens is moved to a predetermined position based on the distance measurement result.

そして、ステップS21にて、Bμcom50により、上記ステップS20のレンズ駆動処理の結果、合焦状態になったか否かが判定される。ここで、合焦状態になったものと判定された場合にはステップS19に移行する。そして、このステップS19に於いて合焦表示処理が実行された後、一連の動作が終了する(リターン)。また、ステップS21に於いて、未だ非合焦状態にあるものと判断された場合には、上記ステップS14に移行して、再度同様の測距動作が繰り返される。   In step S21, it is determined by Bμcom50 whether or not the lens has been in focus as a result of the lens driving process in step S20. Here, when it is determined that the in-focus state is obtained, the process proceeds to step S19. Then, after the focus display process is executed in step S19, a series of operations is completed (return). If it is determined in step S21 that the lens is still out of focus, the process proceeds to step S14 and the same distance measuring operation is repeated again.

次に、図13のフローチャートを参照して、上述した図12のフローチャートのステップS14に於けるサブルーチン「測距」の動作を説明する。   Next, the operation of the subroutine “ranging” in step S14 of the flowchart of FIG. 12 described above will be described with reference to the flowchart of FIG.

上述したように、図12のフローチャートのステップS14に於いて、サブルーチン「測距」のシーケンスが実行されると、先ずステップS31に於いて、積分が実行される。尚、測距動作時に於ける積分動作についても、上述した特開平6−289281号公報等によって、従来より開示がなされている。したがって、ここではその詳細な説明は省略する。   As described above, when the subroutine “ranging” is executed in step S14 of the flowchart of FIG. 12, integration is first executed in step S31. Incidentally, the integration operation during the distance measuring operation has also been conventionally disclosed by the above-mentioned Japanese Patent Application Laid-Open No. 6-289281. Therefore, detailed description thereof is omitted here.

次に、ステップS32にて、Bμcom50によって、AFセンサユニット36から測距結果である測距データが読み出される。続いて、ステップS33にて、上記ステップS32の処理によってAFセンサユニット36から読み出されたセンサデータに基づいて、所定の演算処理により測光データが算出される。この測光データは、Bμcom内の図示されないRAMの所定の領域(BVAF)に格納される。   Next, in step S32, distance measurement data as a distance measurement result is read out from the AF sensor unit 36 by Bμcom 50. Subsequently, in step S33, photometric data is calculated by a predetermined calculation process based on the sensor data read from the AF sensor unit 36 by the process of step S32. This photometric data is stored in a predetermined area (BVAF) of a RAM (not shown) in Bμcom.

尚、ここで実行される所定の測光演算については、上述した特開平6−289281号公報等によって開示されている手段に従うものとする。   It should be noted that the predetermined photometric calculation executed here is in accordance with the means disclosed in the above-mentioned JP-A-6-289281.

次に、ステップS34にて、上記ステップS31の処理に於けるAFセンサユニット36の積分動作時に、低輝度環境である等の理由によって光量が不足である場合に、閃光発光装置が用いられて、被写体に対して補助光を照射する必要があるか否かの判定及びその場合に於ける補助光の発光光量を設定する等の所定の処理が行われる。   Next, in step S34, if the amount of light is insufficient due to a low-luminance environment or the like during the integration operation of the AF sensor unit 36 in the processing of step S31, the flash light emitting device is used. Predetermined processing such as determining whether or not it is necessary to irradiate the subject with auxiliary light and setting the light emission amount of the auxiliary light in that case is performed.

ステップS35では、測距動作により測距結果の検出が不能であるか否かの判定が行われる。その結果、検出が不能であると判定された場合にはステップS50に移行する。このステップS50では、非合焦フラグが設定(セット)された後、この一連の測距動作のシーケンスを終了して、上述した図12のフローチャートの所定の処理に戻る(リターン)。   In step S35, it is determined whether or not the distance measurement result cannot be detected by the distance measurement operation. As a result, when it is determined that the detection is impossible, the process proceeds to step S50. In step S50, after the out-of-focus flag is set (set), the series of the distance measuring operation sequence is terminated, and the process returns to the predetermined process in the flowchart of FIG. 12 described above (return).

一方、上記ステップS35にて測距結果が検出された場合には、ステップS36に移行する。そして、このステップS36に於いて、閃光発光装置(ストロボ装置64)による補助光が照射されて積分が行われた結果が光量オーバであるか否かが判定される。ここで、光量オーバであると判定された場合には、一連の測距動作のシーケンスが終了し、上述した図12のフローチャートの所定の処理に戻る(リターン)。そして、所定の手順によって再度測距動作が行われることになる。   On the other hand, if a distance measurement result is detected in step S35, the process proceeds to step S36. Then, in step S36, it is determined whether or not the result of the integration by the application of the auxiliary light from the flash light emitting device (strobe device 64) is excessive. Here, when it is determined that the light amount is over, a series of distance measuring operation sequence ends, and the process returns to the predetermined processing of the flowchart of FIG. 12 described above (return). Then, the distance measuring operation is performed again according to a predetermined procedure.

上記ステップS36にて光量オーバでないと判断された場合は、ステップS37に移行して照度分布補正の処理が実行される。この照度分布補正処理とは、センサデータの感度偏差を補正するための処理である。続いて、ステップS38にて、相関演算の処理が実行される。これにより、いわゆる二像間隔の検出がなされる。   If it is determined in step S36 that the light amount is not over, the process proceeds to step S37, and the illuminance distribution correction process is executed. This illuminance distribution correction process is a process for correcting the sensitivity deviation of the sensor data. Subsequently, in step S38, a correlation calculation process is executed. Thereby, a so-called two-image interval is detected.

尚、この相関演算の処理についても、上述した特開平6−289281号公報等によって、その詳細が開示されているので、本実施形態に於いても従来の手段に従って相関演算処理が実行されるものとする。   Since the details of this correlation calculation process are disclosed in the above-mentioned Japanese Patent Laid-Open No. Hei 6-289281, etc., the correlation calculation process is executed according to the conventional means also in this embodiment. And

ステップS39では、上記ステップS38に於ける相関演算処理の結果が判定される。ここで、相関性を有するものと判定された場合にはステップS40に移行し、相関性が無いものと判断された場合にはステップS47に移行する。   In step S39, the result of the correlation calculation process in step S38 is determined. If it is determined that there is a correlation, the process proceeds to step S40. If it is determined that there is no correlation, the process proceeds to step S47.

ステップS40では、像ずれ量の演算処理が実行される。次いで、ステップS41にて、上記ステップS40の処理にて算出された像ずれ量から、光軸上の撮像素子面に対する結像位置のずれ量、すなわち、デフォーカス量を算出する演算処理が実行される。   In step S40, an image shift amount calculation process is executed. Next, in step S41, a calculation process is performed to calculate a shift amount of the imaging position with respect to the image sensor surface on the optical axis, that is, a defocus amount, from the image shift amount calculated in the process of step S40. The

次に、ステップS42にて、光源センサ55による検出結果(図12のフローチャートのステップS12の光源検出による)に基づいて、サブルーチン「光源判定」の処理(図15参照)が実行される。尚、このサブルーチン「光源判定」の詳細な動作については後述する。   Next, in step S42, based on the detection result by the light source sensor 55 (by the light source detection in step S12 in the flowchart of FIG. 12), the subroutine “light source determination” processing (see FIG. 15) is executed. The detailed operation of this subroutine “light source determination” will be described later.

ステップS43では、上記ステップS42の処理に於けるサブルーチン「光源判定」の処理の結果に基づいて、サブルーチン「デフォーカス補正」の処理(図14参照)が実行される。尚、このサブルーチン「デフォーカス補正」の処理の後は、ステップS44に移行する。   In step S43, the subroutine “defocus correction” (see FIG. 14) is executed based on the result of the subroutine “light source determination” in the process of step S42. After the subroutine “defocus correction”, the process proceeds to step S44.

ステップS44では、算出されたデフォーカス量が焦点深度の範囲内にあるか否か、すなわち合焦許容範囲内にあるか否かが判定される。ここで、合焦許容範囲内にあると判定された場合にはステップS46へ移行し、合焦許容範囲内に無いと判定された場合にはステップS45へ移行する。   In step S44, it is determined whether or not the calculated defocus amount is within the depth of focus range, that is, whether or not it is within the focus tolerance range. Here, if it is determined that it is within the focus allowable range, the process proceeds to step S46, and if it is determined that it is not within the focus allowable range, the process proceeds to step S45.

ステップS45では、Bμcom50により、Lμcom25に対して、補正後のデフォーカス量が送信される。その後、一連の測距動作のシーケンスが終了し、上述した図12のフローチャートの所定の処理に戻る(リターン)。そして、所定の手順によって再度測距動作が行われる。   In step S45, the corrected defocus amount is transmitted to Lμcom 25 by Bμcom50. Thereafter, a series of distance measuring operation sequence ends, and the process returns to the predetermined process of the flowchart of FIG. 12 described above (return). Then, the distance measuring operation is performed again according to a predetermined procedure.

一方、ステップS46に於いては、合焦フラグの設定(セット)処理が実行された後、一連の測距動作のシーケンスが終了する。これにより、同様に上述した図12のフローチャートの所定の処理に戻る(リターン)。そして、所定の手順によって再度測距動作が行われる。   On the other hand, in step S46, after the focusing flag setting (setting) process is executed, a series of distance measuring operation sequence ends. As a result, the process returns to the predetermined process of the flowchart of FIG. Then, the distance measuring operation is performed again according to a predetermined procedure.

上記ステップS39に於いて、相関演算処理の結果、相関性を有しないものと判定された場合は、ステップS47に移行して、センサ積分動作時に補助光による照明が行われたか否かの判定がなされる。ここで、補助光の照明が行われたものと判定された場合にはステップS48に移行し、補助光の照明が行われていないものと判定された場合にはステップS50に移行する。   If it is determined in step S39 that there is no correlation as a result of the correlation calculation process, the process proceeds to step S47 to determine whether illumination with auxiliary light has been performed during the sensor integration operation. Made. If it is determined that the auxiliary light is illuminated, the process proceeds to step S48. If it is determined that the auxiliary light is not illuminated, the process proceeds to step S50.

ステップS48では、補助光光量を増加して照明を行う処理が実行される。そして、ステップS49に於いて、測距結果の検出が不能であるか否かの判定がなされる。ここで、補助光の光量を増加したにも関わらず測距結果に改善が見られないものと判定された場合には、上述したステップS50に移行して、非合焦フラグが設定(セット)される。その後、この一連の測距動作のシーケンスを終了して、上述した図12のフローチャートの所定の処理に戻る(リターン)。   In step S48, processing for increasing the amount of auxiliary light and performing illumination is executed. In step S49, it is determined whether or not the distance measurement result cannot be detected. If it is determined that there is no improvement in the distance measurement result despite the increase in the amount of auxiliary light, the process proceeds to step S50 described above, and the out-of-focus flag is set (set). Is done. Thereafter, the series of the distance measuring operation sequence is terminated, and the process returns to the predetermined process of the flowchart of FIG. 12 described above (return).

一方、上記ステップS49に於いて、補助光の光量を増加したことで測距結果に改善が見られたと判定された場合、すなわち測距結果が検出された場合には、一連の測距動作のシーケンスを終了して、上述した図12のフローチャートの所定の処理に戻る(リターン)。   On the other hand, if it is determined in step S49 that the distance measurement result has been improved by increasing the amount of auxiliary light, that is, if the distance measurement result is detected, a series of distance measurement operations are performed. The sequence is terminated, and the process returns to the predetermined process in the flowchart of FIG. 12 described above (return).

尚、上記ステップS34にて、補助光が使用されて測距動作が行われる場合は、補助光フラグ(F_HOJO)がセットされ、補助光が使用されなかった場合は補助光フラグはクリアされる。   In step S34, when the auxiliary light is used and the distance measuring operation is performed, the auxiliary light flag (F_HOJO) is set, and when the auxiliary light is not used, the auxiliary light flag is cleared.

図14は、図13のフローチャートのステップS43に於けるサブルーチン「デフォーカス補正」のシーケンスを示すフローチャートである。   FIG. 14 is a flowchart showing the sequence of the subroutine “defocus correction” in step S43 of the flowchart of FIG.

本ルーチンに入ると、先ず、ステップS61に於いて、ストロボ装置64による補助光が使用されて測距されたか否かが、フラグ[F_HOJO]が参照されて判定される。ここで、フラグ[F_HOJO]がセットされている場合は、ステップS62へ移行して、収差補正量を格納するメモリ[D_SYUSA]に対して、後述する焦点距離毎に相違する関数gで決定される値の、撮影レンズの球面収差量[f]及び補助光によって発生する色収差量[hojo]の値が格納される。その後、ステップS70へ移行する。   When this routine is entered, first, in step S61, it is determined by referring to the flag [F_HOJO] whether or not the distance is measured using the auxiliary light from the strobe device 64. Here, when the flag [F_HOJO] is set, the process proceeds to step S62, and the memory g [D_SYUSA] storing the aberration correction amount is determined by a function g that is different for each focal length described later. The values of the spherical aberration amount [f] of the photographing lens and the chromatic aberration amount [hojo] generated by the auxiliary light are stored. Thereafter, the process proceeds to step S70.

ここで関数gは、撮影レンズの特性によって決定されるものであり、レンズ鏡筒12内の補正値メモリ27に格納されている。   Here, the function g is determined by the characteristics of the photographing lens, and is stored in the correction value memory 27 in the lens barrel 12.

下記表1は、上記補正値メモリ27に予め格納されているピント補正データを表したものである。
Table 1 below shows focus correction data stored in advance in the correction value memory 27.

撮影レンズ21の焦点距離に対応して、関数gn 、球面収差補正量fn 、色収差補正量として、蛍光灯用fluon 、昼光用sunn 、白熱灯用infrn 、ブルーフラッドランプ用brufn 、補助光用hojon が、それぞれ格納されている。これらのデータは、Bμcom50とLμcom25間の通信により、SDRAM44等のカメラボディ11内のメモリに格納される。 Corresponding to the focal length of the taking lens 21, the function g n, the spherical aberration correction amount f n, as chromatic aberration correction amount, the fluorescent lamp fluo n, sun n for daylight, incandescent lamp infr n, bruf for blue flood lamps n, Hojo n is an auxiliary light, are stored, respectively. These data are stored in a memory in the camera body 11 such as the SDRAM 44 by communication between the Bμcom 50 and the Lμcom 25.

撮影レンズ21の焦点距離も上記通信によってBμcom50にて判定され、関数gn 及び球面収差量fn が選択される。また、光源判定結果に応じて色収差量が選択され、収差補正量D_SYUSAが作成される。 The focal length of the photographic lens 21 is also determined by Bμcom 50 by the above communication, and the function g n and the spherical aberration amount f n are selected. Further, the chromatic aberration amount is selected according to the light source determination result, and an aberration correction amount D_SYUSA is created.

上記ステップS61にて、フラグ[F_HOJO]がセットされない場合は、ステップS63へ移行する。   If the flag [F_HOJO] is not set in step S61, the process proceeds to step S63.

ステップS63では、上述した光源判定処理(図12または図13のフローチャートのステップS42)の結果が参照されて、被写体を照明している光源がブルーフラッドランプであるか否かの確認が行われる。すなわち、フラグ[F_BRUF]がセットされているか否かの確認が行われる。   In step S63, the result of the light source determination process described above (step S42 in the flowchart of FIG. 12 or FIG. 13) is referred to, and it is confirmed whether or not the light source illuminating the subject is a blue flood lamp. That is, it is confirmed whether or not the flag [F_BRUF] is set.

ここで、フラグ[F_BRUF]がセットされており、ブルーフラッドランプであることが確認された場合には、ステップS64へ移行する。ステップS64では、収差補正量を格納するメモリ[D_SYUSA]に対して焦点距離毎に相違する関数gによって決定される撮影レンズの球面収差量[f]及びブルーフラッドランプによって発生する色収差量[bruf]の値が格納される。ここで関数gは、撮影レンズの特性によって決定されるものである。その後、後述するステップS70に移行する。   If the flag [F_BRUF] is set and it is confirmed that the flag is a blue flood lamp, the process proceeds to step S64. In step S64, the spherical aberration amount [f] of the taking lens determined by the function g that differs for each focal length with respect to the memory [D_SYUSA] that stores the aberration correction amount and the chromatic aberration amount [bruf] generated by the blue flood lamp. The value of is stored. Here, the function g is determined by the characteristics of the taking lens. Thereafter, the process proceeds to step S70 described later.

一方、上記ステップS63に於いてブルーフラッドランプではないと判定された場合には、ステップS65へ移行する。このステップS65では、光源判定処理の結果が参照されて、被写体を照明している光源が白熱電球であるか否か、すなわち、フラグ[F_INFR]がセットされているか否かの確認がなされる。   On the other hand, if it is determined in step S63 that the lamp is not a blue flood lamp, the process proceeds to step S65. In step S65, the result of the light source determination process is referred to, and it is confirmed whether or not the light source illuminating the subject is an incandescent bulb, that is, whether or not the flag [F_INFR] is set.

ここで、フラグ[F_INFR]がセットされており、白熱電球であることが確認された場合には、ステップS66に移行する。そして、このステップS66にて、収差補正量を格納するメモリ[D_SYUSA]に焦点距離毎に相違する関数gによって決定される撮影レンズの球面収差量[f]及び白熱電球によって発生する色収差量[infr]が格納される。その後、後述するステップS70に移行する。   If the flag [F_INFR] is set and it is confirmed that the light bulb is an incandescent lamp, the process proceeds to step S66. In step S66, the spherical aberration amount [f] of the photographing lens determined by the function g that differs for each focal length in the memory [D_SYUSA] that stores the aberration correction amount and the chromatic aberration amount [infr] generated by the incandescent bulb. ] Is stored. Thereafter, the process proceeds to step S70 described later.

また、上記ステップS65に於いて、白熱電球ではないと判断された場合には、ステップS67に移行する。このステップS67では、光源判定処理の結果が参照されて、被写体を照明している光源が蛍光灯であるか否か、すなわち、フラグ[F_FLUO]がセットされているか否かの確認がなされる。   If it is determined in step S65 that the light bulb is not an incandescent lamp, the process proceeds to step S67. In step S67, the result of the light source determination process is referred to, and it is confirmed whether or not the light source illuminating the subject is a fluorescent lamp, that is, whether or not the flag [F_FLUO] is set.

ここで、フラグ[F_FLUO]がセットされており、蛍光灯であることが確認された場合には、ステップS68に移行する。そして、このステップS68にて、収差補正量を格納するメモリ[D_SYUSA]に焦点距離毎に相違する関数gによって決定される撮影レンズの球面収差量[f]及び蛍光灯によって発生する色収差量[fluo]が格納される。その後、ステップS70に移行する。   If the flag [F_FLUO] is set and it is confirmed that the lamp is a fluorescent lamp, the process proceeds to step S68. In this step S68, the spherical aberration amount [f] of the taking lens determined by the function g that differs for each focal length in the memory [D_SYUSA] that stores the aberration correction amount and the chromatic aberration amount [fluo generated by the fluorescent lamp] ] Is stored. Thereafter, the process proceeds to step S70.

一方、上記ステップS67に於いて蛍光灯ではないと判断された場合には、被写体が照明されている光源は、白熱電球、蛍光灯、ブルーフラッドランプの何れでもないので、太陽光(昼光)である。したがって、収差補正量を格納するメモリ[D_SYUSA]に、焦点距離毎に相違する関数gによって決定される撮影レンズの球面収差量[f]及び昼光によって発生する色収差量[sun]が格納される。その後、後述するステップS70に移行する。   On the other hand, if it is determined in step S67 that the light source is not a fluorescent lamp, the light source on which the subject is illuminated is neither an incandescent lamp, a fluorescent lamp, nor a blue flood lamp. It is. Accordingly, the spherical aberration amount [f] of the photographing lens determined by the function g that differs for each focal length and the chromatic aberration amount [sun] generated by daylight are stored in the memory [D_SYUSA] that stores the aberration correction amount. . Thereafter, the process proceeds to step S70 described later.

また、ステップS70に於いては、メモリ[D_DF]に対してメモリ[D_SYUSA]に格納されたデータが加算される。その後、一連のデフォーカス補正処理が終了する(リターン)。   In step S70, the data stored in the memory [D_SYUSA] is added to the memory [D_DF]. Thereafter, a series of defocus correction processing ends (return).

このようにして、Bμcom50は、所定の演算処理の結果、算出した合焦点位置に関する各種の情報を補正する機能も有している。そして、補正された情報がLμcom25へと出力され、これにより撮影レンズ21が所定のレンズ駆動量で移動される。   In this way, the Bμcom 50 also has a function of correcting various information related to the calculated in-focus position as a result of a predetermined calculation process. Then, the corrected information is output to Lμcom 25, whereby the photographing lens 21 is moved by a predetermined lens driving amount.

次に、図15のフローチャートを参照して、図13のフローチャートに於けるステップS42のサブルーチン「光源検出」の詳細な動作について説明する。   Next, the detailed operation of the subroutine “light source detection” in step S42 in the flowchart of FIG. 13 will be described with reference to the flowchart of FIG.

本ルーチンに入ると、ステップS81にて、先ず光源の種類を表すフラグF_FLUO、F_SUN、F_INFR、F_BRUFがクリアされ、光源センサ55の出力が読み出される。次いで、ステップS82にて上記光源センサ55の出力から、光源の輝度が算出される。更に、ステップS83にて、可視光及び赤外光の輝度値が、それぞれ算出される。   When this routine is entered, first in step S81, flags F_FLUO, F_SUN, F_INFR, and F_BRUF indicating the type of light source are cleared, and the output of the light source sensor 55 is read. Next, the luminance of the light source is calculated from the output of the light source sensor 55 in step S82. Further, in step S83, luminance values of visible light and infrared light are respectively calculated.

ステップS84では、可視光(BV_eye)と赤外光(BV_ir)の差が、下記式に従って算出される。
D_BV←BV_ir−BV_eye
D_BV←D_BV−DBV_REF
ここで、DBV_REFは、基準のタングステン光(白熱灯)照射時の可視光と赤外光の輝度差であり、カメラ個体に応じて異なる値としてBμcom50内に調整値として記憶されている。
In step S84, the difference between visible light (BV_eye) and infrared light (BV_ir) is calculated according to the following equation.
D_BV ← BV_ir-BV_eye
D_BV ← D_BV-DBV_REF
Here, DBV_REF is a luminance difference between visible light and infrared light at the time of reference tungsten light (incandescent lamp) irradiation, and is stored as an adjustment value in Bμcom 50 as a different value depending on the individual camera.

このように、タングステン光(白熱灯)を基準にして上記算出された差が規格化される。   In this way, the calculated difference is normalized based on tungsten light (incandescent lamp).

次に、ステップS85に於いて、上述した可視光の輝度値が使用可能な値であるか否かが判定される。これは、輝度が明るすぎる場合や暗すぎる場合は、その光源センサの光源検出精度が悪化するため、光源検出の出力があまり信用できないからである。この場合、ステップS85では、可視光の輝度値が−2より小さいか、または8より大きいかが判定される。   Next, in step S85, it is determined whether or not the above-described luminance value of visible light is a usable value. This is because when the luminance is too bright or too dark, the light source detection accuracy of the light source sensor deteriorates, and the output of the light source detection is not very reliable. In this case, in step S85, it is determined whether the luminance value of visible light is less than −2 or greater than 8.

ここで、上記可視光の輝度値が−2より小または8より大であれば、ステップS84へ移行して光源が不明であるとされる。一方、上記輝度値が−2以上で且つ8以下であれば、ステップS86へ移行する。   Here, if the luminance value of the visible light is smaller than −2 or larger than 8, the process proceeds to step S84 and the light source is unknown. On the other hand, if the luminance value is −2 or more and 8 or less, the process proceeds to step S86.

ステップS86では、上記ステップS84で算出された輝度差D_BVが、蛍光灯の閾値BV_TH_keiと比較される。ここで、上記輝度差D_BVの方が蛍光灯の閾値BV_TH_keiよりも小さければステップS90へ移行し、大きければステップS87へ移行する。   In step S86, the luminance difference D_BV calculated in step S84 is compared with the fluorescent lamp threshold value BV_TH_kei. If the brightness difference D_BV is smaller than the fluorescent lamp threshold BV_TH_kei, the process proceeds to step S90, and if greater, the process proceeds to step S87.

ステップS87では、上記ステップS84で算出された輝度差D_BVが、蛍光灯の閾値BV_TH_keiと太陽光の閾値BV_TH_sunの間にあるか否かが判定される。ここで、輝度差D_BVが両者の閾値の範囲内にあればステップS91へ移行し、両者の閾値の範囲外であればステップS88へ移行する。   In step S87, it is determined whether or not the brightness difference D_BV calculated in step S84 is between the fluorescent lamp threshold BV_TH_kei and the sunlight threshold BV_TH_sun. Here, if the luminance difference D_BV is within the range of both thresholds, the process proceeds to step S91, and if it is outside the range of both thresholds, the process proceeds to step S88.

また、ステップS88では、上記ステップS84で算出された輝度差D_BVが、太陽光の閾値BV_TH_sunとタングステン光の閾値BV_TH_flの間にあるか否かが判定される。ここで、輝度差D_BVが両者の閾値の範囲内にあればステップS92へ移行し、両者の閾値の範囲外であればステップS89へ移行する。   In step S88, it is determined whether or not the luminance difference D_BV calculated in step S84 is between the sunlight threshold value BV_TH_sun and the tungsten light threshold value BV_TH_fl. Here, if the luminance difference D_BV is within the range of both thresholds, the process proceeds to step S92, and if it is outside the range of both thresholds, the process proceeds to step S89.

ステップS89では、上記ステップS84で算出された輝度差D_BVと、タングステン光の閾値BV_TH_flとが比較される。ここで、上記輝度差D_BVの方がタングステン光の閾値BV_TH_flよりも大きければステップS93へ移行し、小さければステップS94へ移行する。   In step S89, the brightness difference D_BV calculated in step S84 is compared with the tungsten light threshold value BV_TH_fl. If the luminance difference D_BV is larger than the tungsten light threshold BV_TH_fl, the process proceeds to step S93, and if smaller, the process proceeds to step S94.

上述した各光源の閾値は、下記表2に示されるように、例えば、蛍光灯の閾値BV_TH_keiが−3、太陽光の閾値BV_TH_sunが−0.5、タングステン光の閾値BV_TH_flが+0.5と設定される。
As shown in Table 2 below, the threshold values of the light sources described above are set such that, for example, the fluorescent lamp threshold BV_TH_kei is −3, the sunlight threshold BV_TH_sun is −0.5, and the tungsten light threshold BV_TH_fl is +0.5. Is done.

そして、ステップS90では、光源は蛍光灯であるとみなされる(フラグ[F_FLUO]に1がセットされる)。同様に、ステップS91では光源が太陽光であるとみなされ、ステップS92では光源がタングステン光であるとみなされる。更に、ステップS93では、光源がブルーフラッドランプであるとみなされる。また、ステップS94では、上述したように、光源が不明であるとされる。光源が不明の場合は、レンズ内ピントズレ補正値を調整するときの基準光源である蛍光灯の補正値が使用されるため、フラグ[F_FLUO]がセットされる。   In step S90, the light source is regarded as a fluorescent lamp (1 is set in the flag [F_FLUO]). Similarly, in step S91, the light source is regarded as sunlight, and in step S92, the light source is regarded as tungsten light. Further, in step S93, the light source is regarded as a blue flood lamp. In step S94, the light source is unknown as described above. When the light source is unknown, the flag [F_FLUO] is set because the correction value of the fluorescent lamp that is the reference light source when adjusting the in-lens defocus correction value is used.

こうして光源が検出されると、本ルーチンを抜ける。   When the light source is thus detected, the routine is exited.

このように、第1の実施形態によれば、カメラの焦点調節精度の高精度化に寄与することができる。   As described above, according to the first embodiment, it is possible to contribute to the improvement of the focus adjustment accuracy of the camera.

(第2の実施形態)
次に、本発明の第2の実施形態を説明する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described.

上述した第1の実施形態では、光源の種類を何れか1つに選択する場合を例にしていたが、実際には蛍光灯室内の窓際での撮影等の用に、光源が複数存在するような撮影状況も少なくない。以下に述べる第2の実施形態は、光源が複数種類の混合である場合でも適正な露光量となるような構成となっている。   In the first embodiment described above, the case where one of the types of light sources is selected is taken as an example. However, in reality, there are a plurality of light sources for shooting at a window in a fluorescent lamp room. There are not a few situations of shooting. The second embodiment described below is configured so that an appropriate exposure amount is obtained even when the light source is a mixture of a plurality of types.

尚、この第2の実施形態は、上述した第1の実施形態とは制御動作が異なるだけであり、カメラの構成及び基本的な動作等については、基本的に図1乃至図14に示されたものと同様であるので、同一の部分には同一の参照番号を付して、その図示及び説明は省略する。   The second embodiment is different from the first embodiment only in the control operation, and the configuration and basic operation of the camera are basically shown in FIGS. The same reference numerals are assigned to the same parts, and illustration and description thereof are omitted.

先ず、本第2の実施形態の特徴である補正量の算出について、図16を参照して説明する。   First, calculation of the correction amount, which is a feature of the second embodiment, will be described with reference to FIG.

本第2の実施形態では、補正量を算出する際に、図13のフローチャートに於けるステップS42のサブルーチン「光源検出」に於いて求めた光源の混合割合に相当する量(以下、ミックスレベルと記す)を基に、光源の混合割合に応じた補正を行うことが特徴である。   In the second embodiment, when calculating the correction amount, an amount (hereinafter referred to as the mix level) corresponding to the light source mixing ratio obtained in the subroutine “light source detection” in step S42 in the flowchart of FIG. It is a feature that correction is performed in accordance with the mixing ratio of the light sources.

ある光源、例えば太陽光の場合、同じ太陽光が光源であっても、蛍光灯に近い側とタングステン光に近い側が考えられる。そのため、本実施形態では、その光源が他の何れの光源に近いかを光源のミックスレベルとして表すものとする。   In the case of a certain light source, for example, sunlight, even if the same sunlight is a light source, a side close to a fluorescent lamp and a side close to tungsten light are considered. For this reason, in the present embodiment, it is assumed that the other light source is closer to the light source as a mix level of the light sources.

図16に於いて、横軸は後述する赤外光と可視光の輝度差を基準光で規格化した値であるD_BVであり、縦軸は収差補正量を示している。また、0,100,200等の数値は、各光源に於けるミックスレベル量の値を示している。   In FIG. 16, the horizontal axis represents D_BV, which is a value obtained by standardizing the luminance difference between infrared light and visible light, which will be described later, with reference light, and the vertical axis represents the aberration correction amount. Numerical values such as 0, 100, and 200 indicate the value of the mix level amount in each light source.

例えば、太陽光の場合のミックスレベル算出式は、
ミックスレベル=((D_BV−BV_kei)
/(BV_TH_sun−BV_TH_kei))
×200
である。
For example, the formula for calculating the mix level for sunlight is:
Mix level = ((D_BV−BV_kei)
/ (BV_TH_sun-BV_TH_kei))
× 200
It is.

このミックスレベルは、他の光源との判定閾値の1/2の輝度を100としている。そして、例えば、太陽光が主光源であってタングステン光に近いと100より大きく、蛍光灯に近いと100より小さい値となる。   In this mix level, the luminance that is 1/2 of the determination threshold with other light sources is set to 100. For example, when sunlight is the main light source and close to tungsten light, the value is larger than 100, and when close to a fluorescent lamp, the value is smaller than 100.

つまり、太陽光の基準値であるBV_sun_REFを100とすると、タングステンと太陽光の閾値であるBV_TH_sunの場合はミックスレベルが200、太陽光と蛍光灯の閾値であるBV_TH_keiのミックスレベルは0となる。そして、これらの間は、リニアに変化する値となる。つまり、ミックスレベルが50であれば、主光源は太陽光であるが蛍光灯の光が少し混合されたことを表している。   That is, assuming that BV_sun_REF, which is the reference value of sunlight, is 100, the mix level is 200 in the case of BV_TH_sun, which is the threshold value of tungsten and sunlight, and the mix level of BV_TH_kei, which is the threshold value of sunlight and fluorescent lamp, is 0. Between these values, the value changes linearly. In other words, if the mix level is 50, the main light source is sunlight, but the light from the fluorescent lamp is mixed a little.

こうして得られたミックスレベルに基づいて、各光源の収差補正量gが求められる。   Based on the mix level thus obtained, the aberration correction amount g of each light source is obtained.

例えば、太陽光のミックスレベルが100の場合は、g(f,sun)の値が収差補正量である。また、蛍光灯のミックスレベルが100の場合は、g(f,fluo)の値が収差補正量である。   For example, when the mix level of sunlight is 100, the value of g (f, sun) is the aberration correction amount. When the fluorescent lamp mix level is 100, the value of g (f, fluo) is the aberration correction amount.

そして、太陽光のミックスレベルが0の場合、すなわち、BV_TH_keiの場合は、(g(f,fluo)+g(f,sun))/2の値が収差補正量となる。更に、上述したように、太陽光のミックスレベルが50の場合は、BV_TH_keiの補正値と太陽光のミックスレベルが100の場合の補正値を直線補間した値が収差補正量となる。   When the sunlight mix level is 0, that is, BV_TH_kei, the value of (g (f, fluo) + g (f, sun)) / 2 is the aberration correction amount. Furthermore, as described above, when the sunlight mix level is 50, the aberration correction amount is a value obtained by linearly interpolating the correction value of BV_TH_kei and the correction value when the sunlight mix level is 100.

このように、光源毎の補正量を算出するにあたり、直線補間を利用して光源のミックスレベルから補正量を算出するようにしている。   Thus, in calculating the correction amount for each light source, the correction amount is calculated from the mix level of the light sources using linear interpolation.

次に、図17のフローチャートを参照して、図13のフローチャートに於けるステップS42のサブルーチン「光源検出」の第2の実施形態による詳細な動作について説明する。   Next, the detailed operation according to the second embodiment of the subroutine “light source detection” in step S42 in the flowchart of FIG. 13 will be described with reference to the flowchart of FIG.

本ルーチンに入ると、先ず、ステップS101にて、光源センサ55の出力が読み出される。次いで、ステップS102にて上記光源センサ55の出力から、光源の輝度が算出される。更に、ステップS103にて、可視光及び赤外光の輝度値が、それぞれ算出される。   When this routine is entered, first, in step S101, the output of the light source sensor 55 is read. Next, the luminance of the light source is calculated from the output of the light source sensor 55 in step S102. Further, in step S103, the luminance values of visible light and infrared light are respectively calculated.

ステップS104では、可視光(BV_eye)と赤外光(BV_ir)の差が算出され、タングステン光を基準にして上記算出された差が規格化される。   In step S104, a difference between visible light (BV_eye) and infrared light (BV_ir) is calculated, and the calculated difference is normalized with reference to tungsten light.

次に、ステップS105に於いて、上述した可視光の輝度値が使用可能な値であるか否かが判定される。これは、輝度が明るすぎる場合や暗すぎる場合は、その光源センサの精度が悪化し、出力値があまり信用できないからである。この場合、ステップS105では、可視光の輝度値が−2より小さいか、または8より大きいかが判定される。   Next, in step S105, it is determined whether or not the above-described luminance value of visible light is a usable value. This is because when the luminance is too bright or too dark, the accuracy of the light source sensor deteriorates and the output value is not very reliable. In this case, in step S105, it is determined whether the luminance value of visible light is less than −2 or greater than 8.

ここで、上記可視光の輝度値が−2より小または8より大であれば、ステップS104へ移行して光源が不明であるとされる。一方、上記ステップS105にて、上記輝度値が−2以上で且つ8以下であれば、ステップS106へ移行する。   Here, if the luminance value of the visible light is less than −2 or greater than 8, the process proceeds to step S104 and the light source is determined to be unknown. On the other hand, if the luminance value is not less than −2 and not more than 8 in step S105, the process proceeds to step S106.

ステップS106では、上記ステップS104で算出された輝度差D_BVが、蛍光灯の閾値BV_TH_keiと比較される。ここで、上記輝度差D_BVの方が蛍光灯の閾値BV_TH_keiよりも小さければステップS110へ移行し、大きければステップS107へ移行する。   In step S106, the luminance difference D_BV calculated in step S104 is compared with a fluorescent lamp threshold value BV_TH_kei. If the brightness difference D_BV is smaller than the fluorescent lamp threshold BV_TH_kei, the process proceeds to step S110, and if greater, the process proceeds to step S107.

ステップS107では、上記ステップS104で算出された輝度差D_BVが、蛍光灯の閾値BV_TH_keiと太陽光の閾値BV_TH_sunの間にあるか否かが判定される。ここで、輝度差D_BVが両者の閾値の範囲内にあればステップS111へ移行し、両者の閾値の範囲外であればステップS108へ移行する。   In step S107, it is determined whether or not the luminance difference D_BV calculated in step S104 is between the fluorescent lamp threshold BV_TH_kei and the sunlight threshold BV_TH_sun. Here, if the luminance difference D_BV is within the range of both threshold values, the process proceeds to step S111, and if it is outside the range of both threshold values, the process proceeds to step S108.

また、ステップS108では、上記ステップS104で算出された輝度差D_BVが、太陽光の閾値BV_TH_sunとタングステン光の閾値BV_TH_flの間にあるか否かが判定される。ここで、輝度差D_BVが両者の閾値の範囲内にあればステップS112へ移行し、両者の閾値の範囲外であればステップS109へ移行する。   In step S108, it is determined whether the luminance difference D_BV calculated in step S104 is between the sunlight threshold BV_TH_sun and the tungsten light threshold BV_TH_fl. Here, if the luminance difference D_BV is within the range of both thresholds, the process proceeds to step S112, and if it is outside the range of both thresholds, the process proceeds to step S109.

ステップS109では、上記ステップS104で算出された輝度差D_BVと、タングステン光の閾値BV_TH_flとが比較される。ここで、上記輝度差D_BVの方がタングステン光の閾値BV_TH_flよりも大きければステップS113へ移行し、小さければステップS114へ移行する。   In step S109, the brightness difference D_BV calculated in step S104 is compared with the tungsten light threshold value BV_TH_fl. If the luminance difference D_BV is larger than the tungsten light threshold BV_TH_fl, the process proceeds to step S113, and if smaller, the process proceeds to step S114.

尚、各光源の閾値は、上述した例と同様である。   In addition, the threshold value of each light source is the same as that of the example mentioned above.

ステップS110では、光源が蛍光灯を含む場合の光源の混合割合を示す量、すなわちミックスレベルが算出される。そして、ミックスレベルに対応する収差補正量gが算出される(図16参照)。ミックスレベルの算出式や考え方は、上述したとおりである。同様に、ステップS111では光源が太陽光を含む場合のミックスレベルが算出され、ステップS112では光源がタングステン光を含む場合のミックスレベルが算出される。更に、ステップS113では、光源がブルーフラッドランプを含む場合のミックスレベルが算出され、同様に収差補正量gが算出される。   In step S110, an amount indicating a mixing ratio of light sources when the light source includes a fluorescent lamp, that is, a mix level is calculated. Then, an aberration correction amount g corresponding to the mix level is calculated (see FIG. 16). The calculation formula and concept of the mix level are as described above. Similarly, in step S111, a mix level when the light source includes sunlight is calculated, and in step S112, a mix level when the light source includes tungsten light is calculated. In step S113, the mix level when the light source includes a blue flood lamp is calculated, and the aberration correction amount g is calculated in the same manner.

このように、光源検出及び収差補正量gが求められると、図13のフローチャートのステップS42へ移行し、図18に示される第2の実施形態に於けるサブルーチン「デフォーカス補正」が実行される。   When the light source detection and aberration correction amount g are obtained in this way, the process proceeds to step S42 in the flowchart of FIG. 13, and the subroutine “defocus correction” in the second embodiment shown in FIG. 18 is executed. .

図18は、第2の実施形態に於けるサブルーチン「デフォーカス補正」の動作を説明するフローチャートである。   FIG. 18 is a flowchart for explaining the operation of the subroutine “defocus correction” in the second embodiment.

本サブルーチンに入ると、ステップS121に於いて、光源のミックスレベルに応じて算出された収差補正量gが、フラグ[D_SYUSA]に入力される。次いで、ステップS122にて、検出されたデフォーカス量D_DFに対して、収差補正量gであるD_SYUSAが加算されたものが、D_DFに入力される。これにより、収差補正されたデフォーカス量が算出される。その後、本ルーチンを抜ける。   When this subroutine is entered, in step S121, the aberration correction amount g calculated according to the light source mix level is input to the flag [D_SYUSA]. Next, in step S122, the detected defocus amount D_DF plus D_SYUSA that is the aberration correction amount g is input to D_DF. Thereby, the aberration-corrected defocus amount is calculated. Thereafter, the routine is exited.

このように、第2の実施形態によれば、光源センサ55の出力輝度差に応じて、同じ光源であっても補正量を変化させているので、例えば、光源が室内の窓際等のように、蛍光灯と太陽光の混合光のように光源判定の閾値に極めて近い場合であっても、光源の混合割合に応じた補正を可能にしている。更に、補正量が光源センサ55の出力に応じて連続的に変化する構成となっているため、連続撮影する場合でも、光源判定結果に応じて急に補正量が変化することなく安定した露出が得られる。   As described above, according to the second embodiment, the correction amount is changed even for the same light source in accordance with the output luminance difference of the light source sensor 55. Even if it is a case that is very close to the light source determination threshold, such as a mixed light of a fluorescent lamp and sunlight, correction according to the mixing ratio of the light sources is possible. Further, since the correction amount is continuously changed according to the output of the light source sensor 55, even when continuous shooting is performed, a stable exposure can be obtained without abruptly changing the correction amount according to the light source determination result. can get.

以上のようにして、光源に応じて適切なAFを行い、撮影を行うことができる。   As described above, appropriate AF can be performed according to the light source, and photographing can be performed.

尚、上述した第1及び第2の実施形態は、一眼レフレックスタイプのデジタルカメラに適用された例について述べたが、これに限られるものではなく、レンズ一体型のカメラであっても良い。   In the first and second embodiments described above, an example applied to a single-lens reflex digital camera has been described. However, the present invention is not limited to this, and a lens-integrated camera may be used.

(第3の実施形態)
次に、本発明の第3の実施形態について説明する。
(Third embodiment)
Next, a third embodiment of the present invention will be described.

この第3の実施形態は、被写体距離による補正を加えた例である。   The third embodiment is an example in which correction by subject distance is added.

光源によって発生するピントずれ量は、フォーカスレンズの位置によって異なることは公知である。これは、フォーカスレンズ位置、すなわちフォーカスレンズの繰り出し量により球面収差が変化することに起因することも知られている(図19参照)。   It is known that the amount of focus deviation generated by the light source varies depending on the position of the focus lens. It is also known that this is caused by the change of spherical aberration depending on the focus lens position, that is, the amount of extension of the focus lens (see FIG. 19).

フォーカスレンズ位置は被写体距離に対応するので、以下、同じ意味として説明する。尚、フォーカスレンズ位置は、レンズ駆動機構23内の図示されないフォーカスエンコーダによって検出される。   Since the focus lens position corresponds to the subject distance, the following description will be given with the same meaning. The focus lens position is detected by a focus encoder (not shown) in the lens driving mechanism 23.

下記表3は、レンズ鏡筒12内の補正値メモリ27に格納されている光源に対応したピントずれ補正データを表したものである。
Table 3 below shows focus shift correction data corresponding to the light source stored in the correction value memory 27 in the lens barrel 12.

このフォーカスレンズは、例えば最至近撮影距離が0.5mであり、0.5m〜無限の被写体距離を4つの領域に分割して、ピントずれ補正データを有している。   This focus lens has, for example, a closest shooting distance of 0.5 m, and has a focus deviation correction data obtained by dividing a subject distance of 0.5 m to infinity into four areas.

図19は、1種類の光源についてのみの特性を示したもので、上記各領域内の平均値のピントずれ量を補正データgとしている。   FIG. 19 shows the characteristics of only one type of light source, and the average defocus amount in each area is used as the correction data g.

図20及び図21は、第3の実施形態に於いて、上記表3のピントずれ補正データを用いてピントずれを補正するサブルーチン「デフォーカス補正」の動作を説明するフローチャートである。   FIGS. 20 and 21 are flowcharts for explaining the operation of the subroutine “defocus correction” for correcting the focus shift using the focus shift correction data shown in Table 3 in the third embodiment.

以下、この動作について説明する。   Hereinafter, this operation will be described.

図13のフローチャートのステップS43のサブルーチン「デフォーカス補正」に入ると、図20及び図21フローチャートのステップS131に於いて、先ずフラグ[F_HOJO]が判定される。ここで、フラグ[F_HOJO]がセットされている場合は、ステップS132へ移行して被写体距離Lが5m以上であるか否かが判定される。その結果、被写体距離Lが5m以上であれば、ステップS133へ移行して、上記表3の補正データに従って、収差補正量g1hがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 When the subroutine “defocus correction” in step S43 in the flowchart of FIG. 13 is entered, the flag [F_HOJO] is first determined in step S131 of the flowcharts of FIGS. Here, when the flag [F_HOJO] is set, the process proceeds to step S132, and it is determined whether or not the subject distance L is 5 m or more. As a result, if the subject distance L is 5 m or more, the process proceeds to step S133, and the aberration correction amount g 1h is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.

一方、上記ステップS132にて被写体距離Lが5m未満であれば、ステップS134に移行して、被写体距離のLが2m〜5mの間であるか否かが判定される。ここで、被写体距離Lが2m〜5mの間であれば、ステップS135へ移行して、上記表3の補正データに従って、収差補正量g2hがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 On the other hand, if the subject distance L is less than 5 m in step S132, the process proceeds to step S134 to determine whether or not the subject distance L is between 2 m and 5 m. If the subject distance L is between 2 m and 5 m, the process proceeds to step S135, and the aberration correction amount g 2h is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.

更に、上記ステップS134にて被写体距離Lが2m未満であれば、ステップS136に移行して、被写体距離のLが1m〜2mの間であるか否かが判定される。ここで、被写体距離Lが1m〜2mの間であれば、ステップS137へ移行して、上記表3の補正データに従って、収差補正量g3hがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 Furthermore, if the subject distance L is less than 2 m in step S134, the process proceeds to step S136, and it is determined whether or not the subject distance L is between 1 m and 2 m. If the subject distance L is between 1 m and 2 m, the process proceeds to step S137, and the aberration correction amount g 3h is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.

そして、上記ステップS136にて被写体距離Lが1m未満であれば、ステップS138へ移行して、上記表3の補正データに従って、収差補正量g4hがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 If the subject distance L is less than 1 m in step S136, the process proceeds to step S138, and the aberration correction amount g 4h is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.

これに対し、上記ステップS131に於いて、フラグ[F_HOJO]がセットされていない場合は、ステップS139へ移行して、フラグ[F_BRUF]がセットされているか否かが判定される。ここで、フラグ[F_BRUF]がセットされている場合は、ステップS140へ移行する。   On the other hand, if the flag [F_HOJO] is not set in step S131, the process proceeds to step S139 and it is determined whether or not the flag [F_BRUF] is set. If the flag [F_BRUF] is set, the process proceeds to step S140.

ステップS140では、被写体距離Lが5m以上であるか否かが判定される。その結果、被写体距離Lが5m以上であれば、ステップS141へ移行して、上記表3の補正データに従って、収差補正量g1bがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 In step S140, it is determined whether or not the subject distance L is 5 m or more. As a result, if the subject distance L is 5 m or more, the process proceeds to step S141, and the aberration correction amount g 1b is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.

一方、上記ステップS140にて被写体距離Lが5m未満であれば、ステップS142に移行して、被写体距離のLが2m〜5mの間であるか否かが判定される。ここで、被写体距離Lが2m〜5mの間であれば、ステップS143へ移行して、上記表3の補正データに従って、収差補正量g2bがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 On the other hand, if the subject distance L is less than 5 m in step S140, the process proceeds to step S142 to determine whether or not the subject distance L is between 2 m and 5 m. If the subject distance L is between 2 m and 5 m, the process proceeds to step S143, and the aberration correction amount g 2b is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.

更に、上記ステップS142にて被写体距離Lが2m未満であれば、ステップS144に移行して、被写体距離のLが1m〜2mの間であるか否かが判定される。ここで、被写体距離Lが1m〜2mの間であれば、ステップS145へ移行して、上記表3の補正データに従って、収差補正量g3bがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 Furthermore, if the subject distance L is less than 2 m in step S142, the process proceeds to step S144, and it is determined whether or not the subject distance L is between 1 m and 2 m. Here, if the subject distance L is between 1 m and 2 m, the process proceeds to step S145, and the aberration correction amount g 3b is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.

そして、上記ステップS144にて被写体距離Lが1m未満であれば、ステップS146へ移行して、上記表3の補正データに従って、収差補正量g4bがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 If the subject distance L is less than 1 m in step S144, the process proceeds to step S146, and the aberration correction amount g 4b is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.

上記ステップS139に於いて、フラグ[F_BRUF]がセットされていない場合は、ステップS147へ移行して、フラグ[F_INFR]がセットされているか否かが判定される。ここで、フラグ[F_INFR]がセットされている場合は、ステップS149へ移行する。   If the flag [F_BRUF] is not set in step S139, the process proceeds to step S147 to determine whether or not the flag [F_INFR] is set. If the flag [F_INFR] is set, the process proceeds to step S149.

ステップS149では、被写体距離Lが5m以上であるか否かが判定される。その結果、被写体距離Lが5m以上であれば、ステップS150へ移行して、上記表3の補正データに従って、収差補正量g1iがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 In step S149, it is determined whether or not the subject distance L is 5 m or more. As a result, if the subject distance L is 5 m or more, the process proceeds to step S150, and the aberration correction amount g 1i is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.

一方、上記ステップS149にて被写体距離Lが5m未満であれば、ステップS151に移行して、被写体距離のLが2m〜5mの間であるか否かが判定される。ここで、被写体距離Lが2m〜5mの間であれば、ステップS152へ移行して、上記表3の補正データに従って、収差補正量g2iがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 On the other hand, if the subject distance L is less than 5 m in step S149, the process proceeds to step S151 and it is determined whether or not the subject distance L is between 2 m and 5 m. If the subject distance L is between 2 m and 5 m, the process proceeds to step S152, and the aberration correction amount g 2i is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.

更に、上記ステップS151にて被写体距離Lが2m未満であれば、ステップS153に移行して、被写体距離のLが1m〜2mの間であるか否かが判定される。ここで、被写体距離Lが1m〜2mの間であれば、ステップS154へ移行して、上記表3の補正データに従って、収差補正量g3iがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 Furthermore, if the subject distance L is less than 2 m in step S151, the process proceeds to step S153 to determine whether or not the subject distance L is between 1 m and 2 m. If the subject distance L is between 1 m and 2 m, the process proceeds to step S154, and the aberration correction amount g 3i is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.

そして、上記ステップS153にて被写体距離Lが1m未満であれば、ステップS155へ移行して、上記表3の補正データに従って、収差補正量g4iがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 If the subject distance L is less than 1 m in step S153, the process proceeds to step S155, and the aberration correction amount g 4i is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.

また、上記ステップS147に於いて、フラグ[F_INFR]がセットされていない場合は、ステップS148へ移行して、フラグ[F_FLUO]がセットされているか否かが判定される。ここで、フラグ[F_FLUO]がセットされている場合は、ステップS156へ移行する。   If the flag [F_INFR] is not set in step S147, the process proceeds to step S148 to determine whether or not the flag [F_FLUO] is set. If the flag [F_FLUO] is set, the process proceeds to step S156.

ステップS156では、被写体距離Lが5m以上であるか否かが判定される。その結果、被写体距離Lが5m以上であれば、ステップS157へ移行して、上記表3の補正データに従って、収差補正量g1fがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 In step S156, it is determined whether or not the subject distance L is 5 m or more. As a result, if the subject distance L is 5 m or more, the process proceeds to step S157, and the aberration correction amount g 1f is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.

一方、上記ステップS156にて被写体距離Lが5m未満であれば、ステップS158に移行して、被写体距離のLが2m〜5mの間であるか否かが判定される。ここで、被写体距離Lが2m〜5mの間であれば、ステップS159へ移行して、上記表3の補正データに従って、収差補正量g2fがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 On the other hand, if the subject distance L is less than 5 m in step S156, the process proceeds to step S158 to determine whether or not the subject distance L is between 2 m and 5 m. If the subject distance L is between 2 m and 5 m, the process proceeds to step S159, and the aberration correction amount g 2f is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.

更に、上記ステップS158にて被写体距離Lが2m未満であれば、ステップS160に移行して、被写体距離のLが1m〜2mの間であるか否かが判定される。ここで、被写体距離Lが1m〜2mの間であれば、ステップS161へ移行して、上記表3の補正データに従って、収差補正量g3fがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 Further, if the subject distance L is less than 2 m in step S158, the process proceeds to step S160, and it is determined whether or not the subject distance L is between 1 m and 2 m. If the subject distance L is between 1 m and 2 m, the process proceeds to step S161, and the aberration correction amount g 3f is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.

そして、上記ステップS160にて被写体距離Lが1m未満であれば、ステップS162へ移行して、上記表3の補正データに従って、収差補正量g4fがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 If the subject distance L is less than 1 m in step S160, the process proceeds to step S162, and the aberration correction amount g 4f is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.

上記ステップS148に於いて、フラグ[F_FLUO]がセットされていない場合は、ステップS163へ移行する。この場合は、上記補助光、ブルーフラッドランプ、白熱灯、蛍光灯の何れでもないので、光源は太陽光と判定される。   If the flag [F_FLUO] is not set in step S148, the process proceeds to step S163. In this case, since the auxiliary light, the blue flood lamp, the incandescent lamp, and the fluorescent lamp are not included, the light source is determined to be sunlight.

ステップS163では、被写体距離Lが5m以上であるか否かが判定される。その結果、被写体距離Lが5m以上であれば、ステップS164へ移行して、上記表3の補正データに従って、収差補正量g1sがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 In step S163, it is determined whether or not the subject distance L is 5 m or more. As a result, if the subject distance L is 5 m or more, the process proceeds to step S164, and the aberration correction amount g 1s is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.

一方、上記ステップS164にて被写体距離Lが5m未満であれば、ステップS165に移行して、被写体距離のLが2m〜5mの間であるか否かが判定される。ここで、被写体距離Lが2m〜5mの間であれば、ステップS166へ移行して、上記表3の補正データに従って、収差補正量g2sがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 On the other hand, if the subject distance L is less than 5 m in step S164, the process proceeds to step S165 to determine whether the subject distance L is between 2 m and 5 m. If the subject distance L is between 2 m and 5 m, the process proceeds to step S166, and the aberration correction amount g 2s is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.

更に、上記ステップS165にて被写体距離Lが2m未満であれば、ステップS167に移行して、被写体距離のLが1m〜2mの間であるか否かが判定される。ここで、被写体距離Lが1m〜2mの間であれば、ステップS168へ移行して、上記表3の補正データに従って、収差補正量g3sがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 Further, if the subject distance L is less than 2 m in step S165, the process proceeds to step S167, and it is determined whether or not the subject distance L is between 1 m and 2 m. If the subject distance L is between 1 m and 2 m, the process proceeds to step S168, and the aberration correction amount g 3s is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.

そして、上記ステップS167にて被写体距離Lが1m未満であれば、ステップS169へ移行して、上記表3の補正データに従って、収差補正量g4sがフラグ[D_SYUSA]に入力される。その後、ステップS170に移行する。 If the subject distance L is less than 1 m in step S167, the process proceeds to step S169, and the aberration correction amount g 4s is input to the flag [D_SYUSA] according to the correction data in Table 3 above. Thereafter, the process proceeds to step S170.

ステップS170では、このように光源の種類及び被写体距離Lに応じて検出されたデフォーカス量D_DFにD_SYUSAが加算されたものが、D_DFに入力される。これにより、収差補正されたデフォーカス量が算出される。その後、本ルーチンを抜ける。   In step S170, a value obtained by adding D_SYUSA to the defocus amount D_DF detected according to the type of the light source and the subject distance L is input to D_DF. Thereby, the aberration-corrected defocus amount is calculated. Thereafter, the routine is exited.

また、上述した第1乃至第3の実施形態では、太陽光、蛍光灯、タングステン光(白熱灯)、ブルーフラッドランプの4種類の光源について検出するようにしているが、これら4種類だけでなく、より細かな光源を検出して精度の良い補正を行うことも可能である。   In the first to third embodiments described above, four types of light sources such as sunlight, fluorescent lamp, tungsten light (incandescent lamp), and blue flood lamp are detected, but not only these four types. It is also possible to detect a finer light source and perform accurate correction.

以上、この発明の実施形態について説明したが、この発明の主旨を逸脱しない範囲で変形可能であることはもちろんである。   The embodiment of the present invention has been described above, but it goes without saying that the present invention can be modified without departing from the gist of the present invention.

本発明の焦点検出装置が適用されたデジタルカメラの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the digital camera to which the focus detection apparatus of this invention was applied. 本発明の第1の実施形態に係るデジタルカメラの一部を切断してその内部構成を概略的に示す斜視図である。1 is a perspective view schematically showing an internal configuration of a part of a digital camera according to a first embodiment of the present invention. 第1の実施形態に係るデジタルカメラの主に電気的な構成を概略的に示すブロック構成図である。1 is a block configuration diagram schematically illustrating mainly an electrical configuration of a digital camera according to a first embodiment. 被写体を照明する各種の照明光源の分光特性を示す概略図である。It is the schematic which shows the spectral characteristic of the various illumination light sources which illuminate a to-be-photographed object. 被写体を照明している光源の種類によって、AFセンサユニット36の受光部に結像される2つの像の間隔にズレが生じている状態を示した図である。FIG. 5 is a diagram showing a state in which a gap between two images formed on the light receiving portion of the AF sensor unit 36 is shifted depending on the type of light source that illuminates the subject. 本実施形態のカメラに於ける焦点検出装置の一部を構成するAFセンサユニット36の検出エリアと、光源センサ55の検出エリアとを概略的に示し、これらの検出エリアの撮影画面(撮影画角)に対する関係をそれぞれ示した図である。The detection area of the AF sensor unit 36 and the detection area of the light source sensor 55 that constitute a part of the focus detection device in the camera of the present embodiment are schematically shown, and a shooting screen (shooting angle of view) of these detection areas is shown. FIG. 第1の実施形態のカメラに於いて、被写体を照明する照明光を測定するもので可視光センサ69の分光感度特性と、後述する赤外光センサ68の分光感度特性をそれぞれ示した図である。In the camera of the first embodiment, the illumination light for illuminating the subject is measured, and is a diagram showing the spectral sensitivity characteristic of a visible light sensor 69 and the spectral sensitivity characteristic of an infrared light sensor 68 described later. . 光源による赤外測光と可視測光の差(ΔBV)を、タングステンランプを基準として規格化して表した図であり、本実施形態に於ける光源判定の方法を示した図である。It is the figure which expressed and standardized the difference ((DELTA) BV) of the infrared photometry by a light source and a visible photometry on the basis of a tungsten lamp, and is the figure which showed the light source determination method in this embodiment. 光源センサ55の配置について示した図である。It is the figure shown about arrangement | positioning of the light source sensor. 光源センサ55の構成を示した平面図である。5 is a plan view showing a configuration of a light source sensor 55. FIG. カメラ本体に電池装填やA/Dアダプタ等の電源投入、または電源スイッチがオンされた場合の動作について説明するフローチャートである。It is a flowchart explaining operation | movement at the time of turning on power supply of a battery loading, an A / D adapter etc. to a camera main body, or a power switch being turned on. 第1の実施形態のカメラの作用のうち写真撮影を行う際に行われるサブルーチン「レリーズ」の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the subroutine "release" performed when taking a photograph among the effects | actions of the camera of 1st Embodiment. 図12のフローチャートのステップS14に於けるサブルーチン「測距」の動作を説明するフローチャートである。13 is a flowchart for explaining the operation of a subroutine “ranging” in step S14 of the flowchart of FIG. 図13のフローチャートのステップS43に於けるサブルーチン「デフォーカス補正」のシーケンスを示すフローチャートである。It is a flowchart which shows the sequence of the subroutine "defocus correction | amendment" in step S43 of the flowchart of FIG. 図13のフローチャートに於けるステップS42のサブルーチン「光源検出」の詳細な動作について説明するフローチャートである。It is a flowchart explaining the detailed operation | movement of the subroutine "light source detection" of step S42 in the flowchart of FIG. 本発明の第2の実施形態であって、光源の混合割合に応じた補正量算出について説明する図である。It is a 2nd embodiment of the present invention, and is a figure explaining correction amount calculation according to the mixture ratio of a light source. 図13のフローチャートに於けるステップS42のサブルーチン「光源検出」の第2の実施形態による詳細な動作について説明するフローチャートである。It is a flowchart explaining the detailed operation | movement by 2nd Embodiment of the subroutine "light source detection" of step S42 in the flowchart of FIG. 第2の実施形態に於けるサブルーチン「デフォーカス補正」の動作を説明するフローチャートである。12 is a flowchart for explaining the operation of a subroutine “defocus correction” in the second embodiment. 本発明の第3の実施形態であって、1種類の光源についてのみの特性を示した図である。It is the 3rd Embodiment of this invention, and is the figure which showed the characteristic about only one type of light source. 第3の実施形態に於いて、上記表3のピントずれ補正データを用いてピントずれを補正するサブルーチン「デフォーカス補正」の動作を説明するフローチャートである。14 is a flowchart for explaining the operation of a subroutine “defocus correction” for correcting a focus shift using the focus shift correction data of Table 3 in the third embodiment. 第3の実施形態に於いて、上記表3のピントずれ補正データを用いてピントずれを補正するサブルーチン「デフォーカス補正」の動作を説明するフローチャートである。14 is a flowchart for explaining the operation of a subroutine “defocus correction” for correcting a focus shift using the focus shift correction data of Table 3 in the third embodiment.

符号の説明Explanation of symbols

1、11…カメラボディ、2…交換レンズ、3…メモリ、4…光源検知部、5…オートフォーカス(AF)制御部、10…デジタルカメラ、12…レンズ鏡筒、12a…撮影光学系、13…レリーズ釦、14…拡散板、16…ファインダ装置、16a…クイックリターンミラー、16b…ペンタプリズム、16c…接眼レンズ、17…シャッタ部、18…撮像ユニット、21…撮影レンズ、22…絞り、25…レンズ制御用マイクロコンピュータ(Lμcom)、27…補正値メモリ、32…測光センサ、33測光回路、35…サブミラー、36…AFセンサユニット、40…CCDユニット(撮像素子)、41…CCDインターフェイス回路、42…画像処理コントローラ、43…液晶モニタ、49…不揮発性メモリ(EEPROM)、50…ボディ制御用マイクロコンピュータ(Bμcom)、51…ストロボ測光センサ、52…ストロボ光検出回路、53…ストロボ光制御回路、54…光源検出回路、55…光源センサ、61…ストロボ通信回路、62、63…通信コネクタ、64…ストロボ装置。   DESCRIPTION OF SYMBOLS 1,11 ... Camera body, 2 ... Interchangeable lens, 3 ... Memory, 4 ... Light source detection part, 5 ... Auto-focus (AF) control part, 10 ... Digital camera, 12 ... Lens barrel, 12a ... Shooting optical system, 13 ... release button, 14 ... diffuser plate, 16 ... finder device, 16a ... quick return mirror, 16b ... pentaprism, 16c ... eyepiece lens, 17 ... shutter part, 18 ... imaging unit, 21 ... taking lens, 22 ... aperture, 25 Lens microcomputer (Lμcom), 27 Correction value memory, 32 Photometric sensor, 33 photometric circuit, 35 Sub-mirror, 36 AF sensor unit, 40 CCD unit (imaging device), 41 CCD interface circuit 42 ... Image processing controller, 43 ... Liquid crystal monitor, 49 ... Non-volatile memory (EEPROM), 5 DESCRIPTION OF SYMBOLS ... Body control microcomputer (Bmicrocom), 51 ... Strobe photometry sensor, 52 ... Strobe light detection circuit, 53 ... Strobe light control circuit, 54 ... Light source detection circuit, 55 ... Light source sensor, 61 ... Strobe communication circuit, 62, 63 ... Communication connector, 64 ... Strobe device.

Claims (1)

  1. 撮影レンズを含むレンズ鏡筒と、該レンズ鏡筒を装着可能なカメラボディとを有するカメラシステムであって、
    上記レンズ鏡筒の内部に配置され、被写体を照明する光源の種類に応じて焦点ずれを補正するための上記光源の種類に応じた補正量を記憶している補正量記憶手段と、
    上記レンズ鏡筒の内部に配置され、上記カメラボディと通信するためのレンズ通信手段と、
    上記カメラボディの内部に配置され、上記レンズ鏡筒と通信するためのボディ通信手段と、
    少なくとも被写体の赤外光若しくは近赤外光の光量と可視光の光量とをそれぞれ検出する光量検出手段と、
    上記光量検出手段によって検出された赤外光若しくは近赤外光の光量と可視光の光量との差に基づいて上記被写体を照明する光源を検出し、該光源の種類に応じた信号を出力する光源検出手段と、
    上記撮影レンズの焦点検出を行う焦点検出手段と、
    上記レンズ通信手段と上記ボディ通信手段との通信によって上記補正量記憶手段から取得された光源の種類に応じた補正量を記憶する記憶手段と、
    上記記憶手段に記憶されている光源の種類に応じた補正量の中から、上記光源検出手段から出力された光源の種類に応じた信号に対応した補正量を選択する補正量選択手段と、
    上記補正量選択手段によって選択された補正量に基づいて、上記焦点検出手段の出力を補正する補正手段と、
    を有し、
    上記光源検出手段は、赤外光若しくは近赤外光の光量と可視光の光量との差に基づいて判定される2種類の光源の種類及び2種類の光源の混合割合に関する検出信号を出力し、
    上記補正量選択手段は、上記検出信号に基づく2種類の光源に対応する上記補正量記憶手段の補正量を選択し、
    上記補正手段は、上記選択された2種類の光源に対応する補正量と2種類の光源の混合割合とに基づいて上記焦点検出手段の出力を補正することを特徴とするカメラシステム。
    A camera system having a lens barrel including a photographic lens and a camera body to which the lens barrel can be attached,
    A correction amount storage unit that is disposed inside the lens barrel and stores a correction amount according to the type of the light source for correcting defocus according to the type of light source that illuminates the subject;
    A lens communication means disposed inside the lens barrel for communicating with the camera body;
    A body communication means disposed inside the camera body for communicating with the lens barrel;
    A light amount detection means for detecting at least the amount of infrared light or near infrared light of the subject and the amount of visible light, respectively;
    A light source that illuminates the object is detected based on the difference between the light amount of infrared light or near infrared light detected by the light amount detection means and the light amount of visible light, and a signal corresponding to the type of the light source is output. Light source detection means;
    Focus detection means for detecting the focus of the photographing lens;
    Storage means for storing a correction amount corresponding to the type of light source acquired from the correction amount storage means by communication between the lens communication means and the body communication means;
    A correction amount selection means for selecting a correction amount corresponding to a signal according to the type of light source output from the light source detection means from among correction amounts according to the type of light source stored in the storage means;
    Correction means for correcting the output of the focus detection means based on the correction amount selected by the correction amount selection means;
    I have a,
    The light source detection means outputs a detection signal relating to two types of light sources and a mixing ratio of the two types of light sources determined based on a difference between the light amount of infrared light or near infrared light and the light amount of visible light. ,
    The correction amount selection means selects the correction amount of the correction amount storage means corresponding to two types of light sources based on the detection signal,
    The camera system according to claim 1, wherein the correction means corrects the output of the focus detection means based on a correction amount corresponding to the selected two types of light sources and a mixing ratio of the two types of light sources.
JP2004014303A 2004-01-22 2004-01-22 Camera system Active JP4504031B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004014303A JP4504031B2 (en) 2004-01-22 2004-01-22 Camera system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2004014303A JP4504031B2 (en) 2004-01-22 2004-01-22 Camera system
CNB2004101027313A CN1327291C (en) 2004-01-22 2004-12-23 Camera and focus detection device
US11/037,102 US7260322B2 (en) 2004-01-21 2005-01-18 Changeable-lens camera, camera system, and focus detection device
US11/827,325 US20070258708A1 (en) 2004-01-21 2007-07-11 Changeable-lens camera, camera system, and focus detection device

Publications (2)

Publication Number Publication Date
JP2005208300A JP2005208300A (en) 2005-08-04
JP4504031B2 true JP4504031B2 (en) 2010-07-14

Family

ID=34879007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004014303A Active JP4504031B2 (en) 2004-01-22 2004-01-22 Camera system

Country Status (2)

Country Link
JP (1) JP4504031B2 (en)
CN (1) CN1327291C (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10122911B2 (en) 2016-02-09 2018-11-06 Canon Kabushiki Kaisha Image pickup apparatus, control method, and non-transitory computer-readable storage medium with aberration and object information acquisition for correcting automatic focus detection

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103647894A (en) * 2005-12-06 2014-03-19 松下电器产业株式会社 Digital camera, camera frame, camera system and control method of the digital camera
WO2007142649A1 (en) 2006-06-09 2007-12-13 Thomson Licensing Method and system for color correction using three-dimensional information
JP5034429B2 (en) * 2006-10-16 2012-09-26 ソニー株式会社 Lens device, imaging device, and aberration correction method
CN101542537B (en) 2006-11-21 2012-09-19 汤姆逊许可证公司 Methods and systems for color correction of 3D images
JP4950634B2 (en) * 2006-11-22 2012-06-13 キヤノン株式会社 Imaging apparatus and imaging system
JP5020651B2 (en) 2007-02-02 2012-09-05 キヤノン株式会社 Imaging apparatus and imaging system
JP4986764B2 (en) * 2007-08-09 2012-07-25 キヤノン株式会社 Imaging apparatus and control method thereof
JP2009053568A (en) * 2007-08-29 2009-03-12 Canon Inc Imaging apparatus and imaging system
CN101408660B (en) * 2007-10-08 2010-10-13 De&T株式会社 Automatic multiple-focus focusing device and method thereof
JP5115324B2 (en) * 2008-05-15 2013-01-09 株式会社ニコン Focus detection apparatus and imaging apparatus
JP5821187B2 (en) * 2010-12-24 2015-11-24 ソニー株式会社 Imaging system, mount adapter, imaging apparatus, and program
JP5794665B2 (en) * 2011-02-16 2015-10-14 キヤノン株式会社 Imaging device
JP6562693B2 (en) * 2015-04-27 2019-08-21 キヤノン株式会社 Control device, imaging device, control method, program, and storage medium
JP6664177B2 (en) * 2015-09-28 2020-03-13 キヤノン株式会社 Focus detection device, prediction method, program, and storage medium
CN108957914B (en) * 2018-07-25 2020-05-15 Oppo广东移动通信有限公司 Laser projection module, depth acquisition device and electronic equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0695237A (en) * 1992-09-14 1994-04-08 Olympus Optical Co Ltd Camera
JP2000292682A (en) * 1999-04-09 2000-10-20 Olympus Optical Co Ltd Automatic focus adjustment device
JP3206913B2 (en) * 1990-09-14 2001-09-10 旭光学工業株式会社 Camera auto focus device
JP2003241064A (en) * 2002-02-14 2003-08-27 Pentax Corp Focus detecting device

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1042775A (en) * 1996-07-29 1998-02-17 Hatsupou Denki Seisakusho:Kk Automatic noodle cutter for handmade noodle
JPH10148752A (en) * 1996-11-20 1998-06-02 Canon Inc Lens barrel and cameras
JP2000121922A (en) * 1998-10-19 2000-04-28 Asahi Optical Co Ltd Object display device for camera
JP2000171685A (en) * 1998-12-09 2000-06-23 Olympus Optical Co Ltd Focus detector
JP2000258681A (en) * 1999-03-05 2000-09-22 Olympus Optical Co Ltd Focusing device
JP2001166200A (en) * 1999-12-08 2001-06-22 Olympus Optical Co Ltd Electronic camera provided with auto-fucusing function
US7084907B2 (en) * 2001-01-15 2006-08-01 Nikon Corporation Image-capturing device
US20030016885A1 (en) * 2001-07-23 2003-01-23 Cornelius Chow Closure device and method of manufacture
JP3630149B2 (en) * 2002-06-14 2005-03-16 カシオ計算機株式会社 Imaging apparatus, white balance control method, and white balance control program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3206913B2 (en) * 1990-09-14 2001-09-10 旭光学工業株式会社 Camera auto focus device
JPH0695237A (en) * 1992-09-14 1994-04-08 Olympus Optical Co Ltd Camera
JP2000292682A (en) * 1999-04-09 2000-10-20 Olympus Optical Co Ltd Automatic focus adjustment device
JP2003241064A (en) * 2002-02-14 2003-08-27 Pentax Corp Focus detecting device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10122911B2 (en) 2016-02-09 2018-11-06 Canon Kabushiki Kaisha Image pickup apparatus, control method, and non-transitory computer-readable storage medium with aberration and object information acquisition for correcting automatic focus detection

Also Published As

Publication number Publication date
CN1645181A (en) 2005-07-27
JP2005208300A (en) 2005-08-04
CN1327291C (en) 2007-07-18

Similar Documents

Publication Publication Date Title
US9503616B2 (en) Image capturing apparatus
JP5223870B2 (en) Illumination device for photography and camera
TWI258609B (en) Imaging device, focusing method and program computer-readable recording medium
JP5268438B2 (en) Strobe device, imaging device, and control method thereof
KR101786953B1 (en) Light emitting device and camera system including the same
US7145602B2 (en) Exposure control method for digital camera
TW548504B (en) Image capturing device
US6263164B1 (en) Distance measuring apparatus
US8150252B2 (en) Imaging apparatus and imaging apparatus control method
US7646976B2 (en) Digital camera
US7414231B2 (en) Focus-state detecting device, image sensing apparatus and image sensing system having same and lens unit mounted thereon
CN1327291C (en) Camera and focus detection device
US4705382A (en) Flash photographing apparatus
JP5020651B2 (en) Imaging apparatus and imaging system
US6707997B2 (en) Flash control system
JP4325158B2 (en) Flash control device, electronic flash device, and photographing system
US7907841B2 (en) Camera, camera system and light emission controlling method
US8315513B2 (en) Focus detection apparatus and control method thereof
JP2003143458A (en) Image pickup device and operation control system thereof
JP2001004909A (en) Camera having automatic focusing device
EP2431806B1 (en) Imaging apparatus and method for controlling the same
US20090245775A1 (en) Image pickup apparatus, camera system, and control method for image pickup apparatus
JP2009103912A (en) Image pickup apparatus
US20060280495A1 (en) Finder device and camera
US6424805B2 (en) Exposure control device for use in camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091027

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100112

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100406

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100422

R151 Written notification of patent or utility model registration

Ref document number: 4504031

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130430

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140430

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250