JP2008129466A - Imaging apparatus and imaging system - Google Patents

Imaging apparatus and imaging system Download PDF

Info

Publication number
JP2008129466A
JP2008129466A JP2006316331A JP2006316331A JP2008129466A JP 2008129466 A JP2008129466 A JP 2008129466A JP 2006316331 A JP2006316331 A JP 2006316331A JP 2006316331 A JP2006316331 A JP 2006316331A JP 2008129466 A JP2008129466 A JP 2008129466A
Authority
JP
Japan
Prior art keywords
focus
light
state
optical system
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006316331A
Other languages
Japanese (ja)
Other versions
JP4950634B2 (en
Inventor
Takashi Ichinomiya
敬 一宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006316331A priority Critical patent/JP4950634B2/en
Publication of JP2008129466A publication Critical patent/JP2008129466A/en
Application granted granted Critical
Publication of JP4950634B2 publication Critical patent/JP4950634B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To avoid the lowering of focus control accuracy due to influence of a light source which exists in the field of a light source detection sensor. <P>SOLUTION: The imaging apparatus 1 includes: a focus detection means 201 (211a and 211b) to detect the focus state of a photographic optical system by using light from the photographic optical system; first and second light receiving sensors 213a and 213b to detect light having a different wavelength region from each other out of the light from the photographic optical system; and a control means 100 capable of generating information used for focus control by using the detected result of the focus state and signals from the first and the second light receiving sensors. The control means changes a method for generating the information used for the focus control according to the superposed state of the field of the first and the second light receiving sensors. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、フォーカス制御を行う撮像装置に関し、さらに詳しくは、光源に関する情報に応じてフォーカス制御を行う撮像装置に関する。   The present invention relates to an imaging apparatus that performs focus control, and more particularly to an imaging apparatus that performs focus control according to information about a light source.

デジタル一眼レフカメラ等の撮像装置のAF(オートフォーカス)方式として、いわゆるTTL(Through The Lens)位相差検出方式がある。TTL位相差検出方式を採用したカメラでは、撮影レンズから入射した光をミラー等の光分離部材で分離し、透過光を撮像系に反射光を焦点検出系に導く。このように、TTL位相差検出方式のカメラでは、撮像系と焦点検出系とが別々に設けられている。このため、以下の問題が生じる。   There is a so-called TTL (Through The Lens) phase difference detection method as an AF (autofocus) method for an imaging apparatus such as a digital single lens reflex camera. In a camera that employs a TTL phase difference detection method, light incident from a photographing lens is separated by a light separation member such as a mirror, and transmitted light is guided to an imaging system and reflected light is guided to a focus detection system. Thus, in the TTL phase difference detection type camera, the imaging system and the focus detection system are provided separately. For this reason, the following problems arise.

撮像系の分光感度特性は、一般的な銀塩フィルムの場合では、人間の目の特性に合わせた色再現性を持たせるために、通常400〜650nm程度の光に対してもっとも感度を有している。   The spectral sensitivity characteristics of the imaging system are usually most sensitive to light of about 400 to 650 nm in order to give color reproducibility that matches the characteristics of the human eye in the case of a general silver salt film. ing.

一方、撮像系に用いられるCMOSセンサ等の撮像素子を構成するシリコンフォトダイオードは、一般的には800nm程度に感度ピークを持っており、長波長側は1100nm程度まで感度を持っている。ただし、色再現性を重視するために、感度を多少犠牲にして上記周波数範囲外の波長の光はフィルタで遮断する。   On the other hand, a silicon photodiode constituting an imaging device such as a CMOS sensor used in an imaging system generally has a sensitivity peak at about 800 nm, and has a sensitivity up to about 1100 nm on the long wavelength side. However, in order to place importance on color reproducibility, light having a wavelength outside the above frequency range is blocked by a filter at the expense of sensitivity.

また、位相差検出方式による焦点検出を行うセンサとしての光電変換素子は、一般に1100nm程度まで感度を持っている。ただし、低輝度被写体に対しても焦点検出が行え、また低輝度下でカメラから近赤外域(700nm程度)の補助光を被写体に照射して正確な焦点検出が行えるように、1100nmよりさらに100nm程度、長波長領域まで感度を有する場合が多い。   In addition, a photoelectric conversion element as a sensor that performs focus detection by the phase difference detection method generally has a sensitivity up to about 1100 nm. However, the focus detection can be performed even on a low-luminance subject, and an accurate focus detection can be performed by irradiating the subject with auxiliary light in the near-infrared region (about 700 nm) from the camera under a low luminance. In many cases, it has sensitivity up to a long wavelength region.

図10には、各種光源と撮像素子と補助光の分光感度を示す。横軸は波長を示す。また、縦軸は相対的エネルギー又はレンズの色収差による相対的なピント位置を示す。同図において、Cは撮影レンズの色収差、B,G,Rは原色型撮像素子の青画素、緑画素及び赤画素のそれぞれの分光感度を示す。Fは蛍光灯、Lはフラッドランプ、Aは前述した補助光の分光感度を示す。   FIG. 10 shows spectral sensitivities of various light sources, image sensors, and auxiliary light. The horizontal axis indicates the wavelength. The vertical axis indicates the relative focus position due to relative energy or chromatic aberration of the lens. In the figure, C represents chromatic aberration of the photographing lens, and B, G, and R represent the respective spectral sensitivities of the blue pixel, green pixel, and red pixel of the primary color image sensor. F indicates a fluorescent lamp, L indicates a flood lamp, and A indicates the spectral sensitivity of the auxiliary light described above.

同図より、蛍光灯の波長成分としては、620nmより長い波長成分はほとんど含まれていないが、フラッドランプは長波長側になるほど相対感度が強くなることが分かる。   From the figure, it is understood that the wavelength component of the fluorescent lamp contains almost no wavelength component longer than 620 nm, but the flood lamp has a higher relative sensitivity as the wavelength becomes longer.

一方、レンズの色収差Cは、波長に応じてピント位置が変わり、長波長側になると焦点距離が伸びる。   On the other hand, the focal position of the chromatic aberration C of the lens changes according to the wavelength, and the focal length increases as the wavelength becomes longer.

したがって、700nmに最大感度がある焦点検出センサを用いる場合には、長波長成分の少ない蛍光灯とフラッドランプでは、検出するピント位置が異なることになり、結果として撮像素子上でのピントもずれてしまう。   Therefore, when a focus detection sensor having a maximum sensitivity at 700 nm is used, the focus position to be detected differs between the fluorescent lamp and the flood lamp with a small long wavelength component, and as a result, the focus on the image sensor is also shifted. End up.

このように光源の分光感度に応じて焦点検出系による検出ピント位置がずれるという問題に対して、該ピント位置を補正するカメラが特許文献1により開示されている。   A camera that corrects the focus position is disclosed in Patent Document 1 for the problem that the focus position detected by the focus detection system shifts in accordance with the spectral sensitivity of the light source.

このカメラでは、分光感度の異なる2種類の光源検出センサの出力を比較して光源の種類を判別し、ピント位置の補正を行うことにより、光源の分光特性によるピントずれを補正する。
特開昭62−174710号公報(6頁左上欄2行〜7頁左上欄3行、図9等)
In this camera, the output of two types of light source detection sensors having different spectral sensitivities are compared to determine the type of the light source, and the focus position is corrected to correct the focus shift due to the spectral characteristics of the light source.
JP-A-62-174710 (page 6, upper left column, line 2 to page 7, upper left column, line 3, FIG. 9 etc.)

しかしながら、上記特許文献1にて開示されているカメラでは、撮影光学系のデフォーカス状態によっては、撮影画面上での2種類の光源検出センサ(可視光センサと赤外光センサ)の視野のずれが大きくなる。   However, in the camera disclosed in Patent Document 1, the field of view of the two types of light source detection sensors (visible light sensor and infrared light sensor) on the photographing screen is shifted depending on the defocus state of the photographing optical system. Becomes larger.

ここで、可視光センサと赤外光センサの視野の関係について説明する。図11Aは、デフォーカス量が小さい場合の両センサの視野のずれを示している。デフォーカス量が小さい場合は、両センサの視野はほとんど一致して(重なって)いる。このため、例えば視野内の周辺部に強い光源があったとしても、両センサの出力に誤差はほとんど発生しない。   Here, the relationship between the visual field of the visible light sensor and the infrared light sensor will be described. FIG. 11A shows the field of view shift of both sensors when the defocus amount is small. When the defocus amount is small, the fields of view of both sensors almost coincide (overlap). For this reason, for example, even if there is a strong light source in the peripheral part in the field of view, an error hardly occurs in the outputs of both sensors.

一方、図11Bは、デフォーカス量が大きい場合の両センサの視野のずれを示している。デフォーカス量が大きい場合は、両センサの視野のずれが大きくなり、例えば可視光センサの視野内の周辺部に太陽等の強い光源がある場合、可視用センサからの出力が赤外光センサからの出力に比べて極めて大きくなる。   On the other hand, FIG. 11B shows the visual field shift of both sensors when the defocus amount is large. When the defocus amount is large, the field of view of both sensors becomes large. For example, when there is a strong light source such as the sun in the periphery of the field of the visible light sensor, the output from the visible sensor is output from the infrared light sensor. It becomes very large compared to the output of.

このように、デフォーカス量が大きい場合は、センサ視野内の周辺部に存在する光源の影響によって、該視野の中央付近に存在する被写体を照らす光源を正確に判別することができなくなり、正しいデフォーカス量補正を行えなくなる。   As described above, when the defocus amount is large, the light source that illuminates the subject existing near the center of the field of view cannot be accurately determined due to the influence of the light source that exists in the periphery of the sensor field of view. The focus amount cannot be corrected.

本発明は、光源検出視野内に存在する光源の影響によるフォーカス制御精度の低下を回避できるようにした撮像装置を提供することを目的の1つとしている。   An object of the present invention is to provide an imaging apparatus capable of avoiding a decrease in focus control accuracy due to the influence of a light source existing in a light source detection visual field.

本発明の一側面としての撮像装置は、撮影光学系からの光を用いて撮影光学系の焦点状態を検出する焦点検出手段と、撮影光学系からの光のうち互いに異なる波長領域の光を検出する第1及び第2の受光センサと、上記焦点状態の検出結果と第1及び第2の受光センサからの信号とを用いてフォーカス制御に用いる情報を生成可能な制御手段とを有する。そして、制御手段は、第1及び第2の受光センサの視野の重なり状態に応じて、フォーカス制御に用いる情報の生成方法を変更することを特徴とする。   An imaging apparatus according to one aspect of the present invention detects light in a different wavelength region from focus detection means for detecting a focus state of a shooting optical system using light from the shooting optical system and light from the shooting optical system. First and second light receiving sensors, and control means capable of generating information used for focus control using the focus state detection results and signals from the first and second light receiving sensors. The control means changes a method for generating information used for focus control in accordance with the overlapping state of the visual fields of the first and second light receiving sensors.

なお、上記撮像装置と、該撮像装置に対して着脱が可能であり、撮影光学系を有するレンズ装置とを有する撮像システムも本発明の他の側面を構成する。   Note that an imaging system including the imaging device and a lens device that can be attached to and detached from the imaging device and has a photographing optical system also constitutes another aspect of the present invention.

また、本発明の他の側面としての撮像装置の制御方法は、撮影光学系からの光を用いて撮影光学系の焦点状態を検出するステップと、第1及び第2の受光センサを用いて撮影光学系からの光のうち互いに異なる波長領域の光を検出するステップと、上記焦点状態の検出結果と第1及び第2の受光センサからの信号とを用いてフォーカス制御に用いる情報を生成可能な情報生成ステップとを有する。そして、情報生成ステップにおいて、第1及び第2の受光センサの視野の重なり状態に応じて、フォーカス制御に用いる情報の生成方法を変更することを特徴とする。   According to another aspect of the present invention, there is provided a method for controlling an imaging apparatus, the step of detecting a focus state of a photographing optical system using light from the photographing optical system, and photographing using first and second light receiving sensors. Information used for focus control can be generated using the step of detecting light in different wavelength regions from the light from the optical system, the detection result of the focus state, and the signals from the first and second light receiving sensors. An information generation step. In the information generation step, the method for generating information used for focus control is changed according to the overlapping state of the visual fields of the first and second light receiving sensors.

本発明によれば、第1及び第2の受光センサの視野の重なり状態(逆に言えば、ずれ状態)に応じた適切な方法によりフォーカス制御に用いる情報を生成することができる。このため、ずれた視野のうち一方に強い光源が含まれているような場合でも、該光源の影響によるフォーカス制御精度の低下を回避できる。これにより、良好なフォーカス性能を有する撮像装置及び撮像システムを実現することができる。   According to the present invention, it is possible to generate information used for focus control by an appropriate method according to the overlapping state (in other words, a shift state) of the visual fields of the first and second light receiving sensors. For this reason, even when a strong light source is included in one of the shifted fields of view, a decrease in focus control accuracy due to the influence of the light source can be avoided. Thereby, an imaging device and an imaging system having good focusing performance can be realized.

以下、本発明の好ましい実施例について図面を参照しながら説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

図1には、本発明の実施例1である一眼レフレックスカメラシステム(撮像システム)を示している。該カメラシステムは、一眼レフカメラ(撮像装置)1と、該カメラ1に着脱可能に装着される交換レンズ(レンズ装置)11とによって構成される。   FIG. 1 shows a single-lens reflex camera system (imaging system) that is Embodiment 1 of the present invention. The camera system includes a single-lens reflex camera (imaging device) 1 and an interchangeable lens (lens device) 11 that is detachably attached to the camera 1.

同図において、カメラ1内には、光学部品、機械部品、電気回路及び撮像素子(又はフィルム)等が収納され、画像(又は写真)撮影を行うことができる。   In the figure, an optical component, a mechanical component, an electric circuit, an image sensor (or film), and the like are accommodated in the camera 1 and an image (or photograph) can be taken.

2は主ミラーであり、ファインダ観察状態では撮影光路内に斜めに配置され、撮影状態では撮影光路外に退避する。また、主ミラー2はハーフミラーとなっており、撮影光路内に配置されているときは、後述する焦点検出光学系へ被写体からの光線の約半分を透過させる。   Reference numeral 2 denotes a main mirror, which is disposed obliquely in the photographing optical path in the viewfinder observation state and retracts out of the photographing optical path in the photographing state. Further, the main mirror 2 is a half mirror, and when arranged in the photographing optical path, transmits about half of the light beam from the subject to a focus detection optical system described later.

3はピント板であり、ファインダ光学系の一部を構成し、後述する撮影光学系の予定結像面に配置されている。4はファインダ光路変更用のペンタプリズムである。5はアイピースであり、撮影者はこの窓からピント板3を観察することで、被写体像を観察することができる。   Reference numeral 3 denotes a focusing plate, which constitutes a part of the finder optical system and is disposed on a planned imaging plane of a photographing optical system described later. Reference numeral 4 denotes a finder optical path changing pentaprism. Reference numeral 5 denotes an eyepiece, and the photographer can observe the subject image by observing the focus plate 3 from this window.

6と7はファインダ観察画面内の被写体輝度を測定するための第1の結像レンズと測光センサである。30と31はファインダ観察画面内の被写体輝度を測定するための第2の結像レンズと光源検出回路である。   Reference numerals 6 and 7 denote a first imaging lens and a photometric sensor for measuring the subject luminance in the viewfinder observation screen. Reference numerals 30 and 31 denote a second imaging lens and a light source detection circuit for measuring the luminance of the subject in the viewfinder observation screen.

8はフォーカルプレンシャッタである。9は撮像素子であり、CCDセンサ又はCMOSセンサにより構成される。25はサブミラーであり、主ミラー2とともにファインダ観察状態では撮影光路内に斜めに配置され、撮影状態では撮影光路外に退避する。このサブミラー25は、撮影光路内に配置された主ミラー2を透過した光束を下方に折り曲げて、後述の焦点検出ユニットに導く。   Reference numeral 8 denotes a focal plane shutter. Reference numeral 9 denotes an image sensor, which is composed of a CCD sensor or a CMOS sensor. Reference numeral 25 denotes a sub-mirror, which is disposed obliquely in the photographing optical path together with the main mirror 2 in the finder observation state, and retracts out of the photographing optical path in the photographing state. The sub mirror 25 bends the light beam transmitted through the main mirror 2 arranged in the photographing optical path downward and guides it to a focus detection unit described later.

焦点検出ユニット200は、視野マスク26、フィールドレンズ27、ミラー30、絞り28、2次結像レンズ29、焦点検出センサ201により構成されている。ミラー30及び2次結像レンズ29は焦点検出光学系を構成し、撮影光学系の2次結像面を焦点検出センサ201上に形成している。この焦点検出ユニット200は、いわゆる位相差検出方式によって撮影光学系の焦点状態(位相差を持った画素情報)を検出し、その検出結果を後述するカメラマイクロコンピュータに送る。   The focus detection unit 200 includes a field mask 26, a field lens 27, a mirror 30, a stop 28, a secondary imaging lens 29, and a focus detection sensor 201. The mirror 30 and the secondary imaging lens 29 constitute a focus detection optical system, and the secondary imaging surface of the photographing optical system is formed on the focus detection sensor 201. The focus detection unit 200 detects the focus state (pixel information having a phase difference) of the photographing optical system by a so-called phase difference detection method, and sends the detection result to a camera microcomputer to be described later.

10はカメラ1と交換レンズ11との通信インターフェイスとなるマウント接点群である。   A mount contact group 10 serves as a communication interface between the camera 1 and the interchangeable lens 11.

12〜14はレンズユニットである。第1レンズユニット(以下、フォーカスレンズと記す)12は、光軸上を移動することで焦点調節を行う。第2レンズユニット13は、光軸上を移動することで撮影光学系の焦点距離を変更して変倍を行うものである。   Reference numerals 12 to 14 denote lens units. A first lens unit (hereinafter referred to as a focus lens) 12 performs focus adjustment by moving on the optical axis. The second lens unit 13 performs zooming by changing the focal length of the photographing optical system by moving on the optical axis.

14は固定の第3レンズユニットである。15は絞りである。16はフォーカス駆動モータであり、AF時にフォーカスレンズ12を光軸方向に移動させる。17は絞り15の開口径を変化させるための絞り駆動モータである。   Reference numeral 14 denotes a fixed third lens unit. Reference numeral 15 denotes an aperture. A focus driving motor 16 moves the focus lens 12 in the optical axis direction during AF. Reference numeral 17 denotes an aperture drive motor for changing the aperture diameter of the aperture 15.

18は距離エンコーダであり、フォーカスレンズ12に取り付けられたブラシ19が摺動することで、該フォーカスレンズ12の位置を読み取り、被写体距離に相当する信号を発生する。   A distance encoder 18 slides a brush 19 attached to the focus lens 12 to read the position of the focus lens 12 and generate a signal corresponding to the subject distance.

次に、図2を用いて、上記カメラシステムの電気回路構成について説明する。なお、図1と共通の構成要素には同じ符号を付している。   Next, the electric circuit configuration of the camera system will be described with reference to FIG. In addition, the same code | symbol is attached | subjected to the same component as FIG.

まず、カメラ1内の回路構成について説明する。カメラマイクロコンピュータ100には、焦点検出センサ201、測光センサ7、シャッタ制御回路107、モータ制御回路108及び液晶表示回路111が接続されている。また、カメラマイクロコンピュータ100は、交換レンズ11内に配置されたレンズマイクロコンピュータ112とはマウント接点10を介して通信を行う。   First, the circuit configuration in the camera 1 will be described. The camera microcomputer 100 is connected with a focus detection sensor 201, a photometric sensor 7, a shutter control circuit 107, a motor control circuit 108, and a liquid crystal display circuit 111. The camera microcomputer 100 communicates with the lens microcomputer 112 arranged in the interchangeable lens 11 via the mount contact 10.

焦点検出センサ201は、一対又は複数対のAFラインセンサ(CCDラインセンサ)と、光源検出センサとを有する。   The focus detection sensor 201 includes a pair or a plurality of pairs of AF line sensors (CCD line sensors) and a light source detection sensor.

制御手段としてのカメラマイクロコンピュータ100は、上記AFラインセンサの電荷蓄積制御と電荷読み出し制御を行う。そして、それぞれのAFラインセンサからの画素情報(対のAFラインセンサ上に形成された2つの像を表す情報)をA/D変換し、該画素情報の位相差を検出する。さらに、該位相差に基づいて撮影光学系のデフォーカス量、すなわちフォーカス制御に用いる情報を求める。   A camera microcomputer 100 as a control unit performs charge accumulation control and charge readout control of the AF line sensor. Then, pixel information from each AF line sensor (information representing two images formed on the pair of AF line sensors) is A / D converted to detect a phase difference between the pixel information. Further, a defocus amount of the photographing optical system, that is, information used for focus control is obtained based on the phase difference.

ここで、カメラマイクロコンピュータ100は、後に詳しく説明するように、所定の条件に応じてデフォーカス量の光源に応じた補正(以下、デフォーカス量の光源補正という)を行う。そして、該デフォーカス量(光源補正されてない又は光源補正されたデフォーカス量)と撮影光学系のフォーカス敏感度情報等とに基づいて、合焦を得るためのフォーカスレンズ12の駆動量(フォーカス駆動モータ16の駆動量)を算出する。フォーカスレンズ12の駆動量情報は、レンズマイクロコンピュータ112に送信される。レンズマイクロコンピュータ112は、受信した駆動量情報に応じてフォーカス駆動モータ16を制御する。これにより、交換レンズ11におけるAF制御が行われ、合焦が得られる。   Here, as will be described in detail later, the camera microcomputer 100 performs correction according to a defocus light source (hereinafter referred to as defocus light source correction) in accordance with a predetermined condition. Based on the defocus amount (the light source is not corrected or the light source is corrected), the focus sensitivity information of the photographing optical system, and the like, the drive amount of the focus lens 12 for focusing (focus) The drive amount of the drive motor 16) is calculated. The driving amount information of the focus lens 12 is transmitted to the lens microcomputer 112. The lens microcomputer 112 controls the focus drive motor 16 according to the received drive amount information. Thereby, AF control in the interchangeable lens 11 is performed, and focusing is obtained.

また、光源検出センサは、互いに分光感度の異なる、すなわち互いに異なる波長領域の光を検出する可視光センサ及び赤外光センサ(第1及び第2の受光センサ)を有する。   Further, the light source detection sensor includes a visible light sensor and an infrared light sensor (first and second light receiving sensors) that detect light having different spectral sensitivities, that is, different wavelength regions.

ここで、本実施例では、主として可視光波長領域に感度を有する可視光センサと、主として赤外光波長領域に感度を有する赤外光センサとを用いる。本発明における「互いに異なる波長領域の光を検出する」とは、検出する(感度を有する)波長領域が完全に分離している場合に限る意味ではなく、後述する図6に示すように波長領域の一部同士が重複している場合も含む意味である。また、一方のセンサの感度波長領域内に他方のセンサの感度波長領域が含まれていてもよい。   Here, in this embodiment, a visible light sensor mainly having sensitivity in the visible light wavelength region and an infrared light sensor mainly having sensitivity in the infrared light wavelength region are used. In the present invention, “detecting light in different wavelength regions” does not mean only when the wavelength regions to be detected (having sensitivity) are completely separated, but as shown in FIG. This includes the case where a part of each overlaps. Further, the sensitivity wavelength region of one sensor may be included in the sensitivity wavelength region of one sensor.

カメラマイクロコンピュータ100は、これら可視光センサ及び赤外光センサの電荷蓄積制御と電荷読み出し制御を行う。そして、それぞれのセンサにより得られた輝度情報を示す信号をA/D変換し、可視光と赤外光の輝度情報(輝度値)の比である輝度比を光源に関する情報として生成する。   The camera microcomputer 100 performs charge accumulation control and charge readout control of these visible light sensor and infrared light sensor. And the signal which shows the luminance information obtained by each sensor is A / D-converted, and the luminance ratio which is a ratio of the luminance information (luminance value) of visible light and infrared light is produced | generated as information regarding a light source.

シャッタ制御回路107は、カメラマイクロコンピュータ100からの信号に従ってフォーカルプレンシャッタ8を構成するシャッタ先幕駆動マグネットMG−1及びシャッタ後幕駆動マグネットMG−2の通電制御を行う。これにより、シャッタ先幕及び後幕が走行し、撮像素子9が露光される。   The shutter control circuit 107 performs energization control of the shutter front curtain drive magnet MG-1 and the shutter rear curtain drive magnet MG-2 constituting the focal plane shutter 8 in accordance with a signal from the camera microcomputer 100. As a result, the shutter front curtain and rear curtain travel, and the image sensor 9 is exposed.

モータ制御回路108は、カメラマイクロコンピュータ100からの信号に従ってミラー駆動モータMを制御する。これにより、主ミラー2のアップダウン動作とフォーカルプレンシャッタ8のチャージ動作等が行われる。   The motor control circuit 108 controls the mirror drive motor M in accordance with a signal from the camera microcomputer 100. Thereby, the up / down operation of the main mirror 2 and the charging operation of the focal plane shutter 8 are performed.

SW1は不図示のレリーズボタンの第1ストローク(半押し)操作でONし、測光やAFを開始させるスイッチである。   SW1 is a switch that is turned on by a first stroke (half-press) operation of a release button (not shown) to start photometry and AF.

SW2はレリーズボタンの第2ストローク(全押し)操作でONし、シャッタ走行、すなわち露光動作を開始させるスイッチである。カメラマイクロコンピュータ100は、スイッチSW1,SW2の他、不図示の操作部材であるISO感度設定スイッチ、絞り設定スイッチ、シャッタ速度設定スイッチ等の各種スイッチの状態を読み取る。   SW2 is a switch that is turned on by a second stroke (full press) operation of the release button and starts shutter running, that is, an exposure operation. In addition to the switches SW1 and SW2, the camera microcomputer 100 reads the states of various switches such as an ISO sensitivity setting switch, an aperture setting switch, and a shutter speed setting switch which are not shown.

液晶表示回路111は、ファインダ内表示器24と外部表示器42をカメラマイクロコンピュータ100からの信号に従って制御する。   The liquid crystal display circuit 111 controls the in-finder display 24 and the external display 42 according to signals from the camera microcomputer 100.

次に、交換レンズ11内の電気回路構成について説明する。前述したように、交換レンズ11はカメラ1とマウント接点10を介して相互に電気的に接続される。このマウント接点10は、交換レンズ11内のフォーカス駆動モータ16及び絞り駆動モータ17の電源用接点である接点L0と、レンズマイクロコンピュータ112の電源用接点L1と、シリアルデータ通信を行うためのクロック用接点L2とを含む。さらに、カメラ1から交換レンズ11へのデータ送信用接点L3と、交換レンズ11からカメラ1へのデータ送信用接点L4と、モータ用電源に対するモータ用グランド接点L5と、レンズマイクロコンピュータ112用の電源に対するグランド接点L6とを含む。   Next, an electric circuit configuration in the interchangeable lens 11 will be described. As described above, the interchangeable lens 11 is electrically connected to the camera 1 via the mount contact 10. The mount contact 10 is a contact L0 that is a power contact for the focus drive motor 16 and the aperture drive motor 17 in the interchangeable lens 11, and a power contact L1 for the lens microcomputer 112, and a clock for serial data communication. Contact L2. Further, a data transmission contact L3 from the camera 1 to the interchangeable lens 11, a data transmission contact L4 from the interchangeable lens 11 to the camera 1, a motor ground contact L5 to the motor power supply, and a power supply for the lens microcomputer 112. And a ground contact L6.

レンズマイクロコンピュータ112は、マウント接点10を介してカメラマイクロコンピュータ100と接続され、カメラマイクロコンピュータ100からの信号に応じてフォーカス駆動モータ16及び絞り駆動モータ17を制御する。これにより、焦点調節と光量調節が行われる。   The lens microcomputer 112 is connected to the camera microcomputer 100 via the mount contact 10 and controls the focus drive motor 16 and the aperture drive motor 17 in accordance with signals from the camera microcomputer 100. Thereby, focus adjustment and light quantity adjustment are performed.

50と51は光検出器とパルス板である。パルス板51はフォーカス駆動モータ16により回転される。パルス板51が回転すると、光検出器50は間欠的に検出光を受け、パルス信号を出力する。レンズマイクロコンピュータ112は、光検出器50からのパルス数をカウントすることで、焦点調節時のフォーカスレンズ12の位置情報を得る。レンズマイクロコンピュータ112は、フォーカスレンズ12の位置情報がカメラマイクロコンピュータ100から送信されたフォーカスレンズ12の合焦のための駆動量に一致するようにフォーカス駆動モータ16を制御する。これにより、焦点調節が行われる。   Reference numerals 50 and 51 denote a photodetector and a pulse plate. The pulse plate 51 is rotated by the focus drive motor 16. When the pulse plate 51 rotates, the photodetector 50 receives detection light intermittently and outputs a pulse signal. The lens microcomputer 112 obtains position information of the focus lens 12 at the time of focus adjustment by counting the number of pulses from the photodetector 50. The lens microcomputer 112 controls the focus drive motor 16 so that the position information of the focus lens 12 matches the drive amount for focusing the focus lens 12 transmitted from the camera microcomputer 100. Thereby, focus adjustment is performed.

18は前述した距離エンコーダであり、ここで読み取られたフォーカスレンズ12の位置情報はレンズマイクロコンピュータ112に入力される。レンズマイクロコンピュータ112は、該位置情報を被写体距離情報に変換してカメラマイクロコンピュータ100に送信する。   Reference numeral 18 denotes the above-described distance encoder, and the position information of the focus lens 12 read here is input to the lens microcomputer 112. The lens microcomputer 112 converts the position information into subject distance information and transmits it to the camera microcomputer 100.

図3から図6を用いて、焦点検出センサ201について詳細に説明する。図3は、焦点検出に関わる光学系の詳細な構成を示した図である。撮影光学系を通過した被写体からの光束は、図1に示したサブミラー25で反射されて、撮像面と共役な面に配置された視野マスク26の近傍に一旦結像する。図3では、サブミラー25で反射された後、複数のミラー30で折り返された光路を展開して示している。視野マスク26は、画面内の焦点検出領域以外の余分な光を遮光するための部材である。   The focus detection sensor 201 will be described in detail with reference to FIGS. FIG. 3 is a diagram showing a detailed configuration of an optical system related to focus detection. The light beam from the subject that has passed through the photographing optical system is reflected by the sub-mirror 25 shown in FIG. 1, and once forms an image in the vicinity of the field mask 26 arranged on a plane conjugate with the imaging surface. In FIG. 3, the optical path reflected by the sub-mirror 25 and then turned back by the plurality of mirrors 30 is developed. The field mask 26 is a member for shielding extra light other than the focus detection area in the screen.

フィールドレンズ27は、絞り28に形成された二対の開口部の像を撮影光学系の射出瞳付近に形成する作用を有している。絞り28の後方には二次結像レンズ29が配置されている。二次結像レンズ29は、二対のレンズにより構成され、各レンズは絞り28の各開口部に対応している。視野マスク26、フィールドレンズ27、絞り28の開口部及び二次結像レンズ29を通過した光束は、焦点検出センサ201上のAFラインセンサ及び光源検出センサ上に結像する。   The field lens 27 has an action of forming images of two pairs of openings formed in the stop 28 in the vicinity of the exit pupil of the photographing optical system. A secondary imaging lens 29 is disposed behind the stop 28. The secondary imaging lens 29 includes two pairs of lenses, and each lens corresponds to each opening of the diaphragm 28. The light flux that has passed through the field mask 26, the field lens 27, the aperture 28, and the secondary imaging lens 29 forms an image on the AF line sensor and the light source detection sensor on the focus detection sensor 201.

図4には、焦点検出センサ201におけるAFラインセンサ及び光源検出センサの配置を示している。焦点検出センサ201には、4つ(二対)のAFラインセンサ211a,211b,212a,212bと、4つ(二対)の光源検出センサ213a,213b,214a,214bとが配置されている。光源検出センサ213a,214aは第1の受光センサとしての可視光センサであり、光源検出センサ213b,214bは第2の受光センサとしての赤外光センサである。   FIG. 4 shows the arrangement of AF line sensors and light source detection sensors in the focus detection sensor 201. The focus detection sensor 201 includes four (two pairs) AF line sensors 211a, 211b, 212a, and 212b, and four (two pairs) light source detection sensors 213a, 213b, 214a, and 214b. The light source detection sensors 213a and 214a are visible light sensors as first light receiving sensors, and the light source detection sensors 213b and 214b are infrared light sensors as second light receiving sensors.

図5には、撮影画面内におけるAFラインセンサの視野に相当する焦点検出領域と、光源検出センサの視野に相当する光源検出領域との位置関係を示している。焦点検出領域である縦視野51は、ここからの光束が一対のAFラインセンサ211a,211bに対して導かれる領域である。すなわち、縦視野51に存在する被写体からの光束は一対のAFラインセンサ211a,211b上に2像を形成し、AFラインセンサ211a,211bからの該2像に応じた信号(像信号)の位相差により撮影光学系の焦点検出が行われる。横視野52は、ここからの光束が一対のAFラインセンサ212a,212bに対して導かれる領域である。すなわち、横視野52に存在する被写体からの光束は一対のAFラインセンサ212a,212b上に2像を形成し、AFラインセンサ212a,212bからの該2像に応じた信号(像信号)の位相差により撮影光学系の焦点検出が行われる。   FIG. 5 shows a positional relationship between a focus detection area corresponding to the visual field of the AF line sensor and a light source detection area corresponding to the visual field of the light source detection sensor in the photographing screen. The vertical visual field 51 which is a focus detection area is an area where a light beam from here is guided to the pair of AF line sensors 211a and 211b. That is, the light flux from the subject existing in the vertical visual field 51 forms two images on the pair of AF line sensors 211a and 211b, and the signal (image signal) corresponding to the two images from the AF line sensors 211a and 211b. The focus detection of the photographing optical system is performed based on the phase difference. The horizontal visual field 52 is an area where the light flux from here is guided to the pair of AF line sensors 212a and 212b. That is, the light flux from the subject existing in the horizontal visual field 52 forms two images on the pair of AF line sensors 212a and 212b, and the signal (image signal) corresponding to the two images from the AF line sensors 212a and 212b. The focus detection of the photographing optical system is performed based on the phase difference.

また、光源検出領域である上部視野53は、ここからの光束が互いに対をなす可視光センサ213a及び赤外光センサ213bに対して導かれる領域である。可視光センサ213a及び赤外光センサ213bからの信号はそれぞれ、上部視野53内に存在する被写体や光源からの光束のうち可視波長領域の光成分及び赤外波長領域の光成分の輝度値(輝度情報)を示す。該輝度値の比である輝度比によって上部視野53内に存在する被写体を照らす光源を検出(推定)することができる。   Further, the upper visual field 53 that is a light source detection region is a region where light beams from here are guided to the visible light sensor 213a and the infrared light sensor 213b that make a pair with each other. The signals from the visible light sensor 213a and the infrared light sensor 213b are respectively the luminance values (luminance values) of the light component in the visible wavelength region and the light component in the infrared wavelength region of the light flux from the subject and the light source present in the upper visual field 53. Information). The light source that illuminates the subject existing in the upper visual field 53 can be detected (estimated) by the luminance ratio that is the ratio of the luminance values.

また、光源検出領域である下部視野54は、ここからの光束が互いに対をなす可視光センサ214a及び赤外光センサ214bに対して導かれる領域である。可視光センサ214a及び赤外光センサ214bからの信号はそれぞれ、下部視野54内に存在する被写体や光源からの光束のうち可視波長領域の光成分及び赤外波長領域の光成分の輝度値(輝度情報)を示す。該輝度値の比である輝度比によって下部視野54内に存在する被写体を照らす光源を検出(推定)することができる。   Further, the lower visual field 54 which is a light source detection region is a region where light beams from here are guided to the visible light sensor 214a and the infrared light sensor 214b which make a pair with each other. The signals from the visible light sensor 214a and the infrared light sensor 214b are respectively the luminance values (luminance values) of the light component in the visible wavelength region and the light component in the infrared wavelength region of the light flux from the subject and the light source present in the lower visual field 54. Information). The light source that illuminates the subject existing in the lower visual field 54 can be detected (estimated) by the luminance ratio that is the ratio of the luminance values.

このように、本実施例では、焦点検出センサ201に縦横に二対のAFラインセンサを配置することで、縦方向にコントラストを持つ被写体に対しても横方向にコントラストを持つ被写体に対しても焦点検出が可能である。また、焦点検出領域(AFラインセンサの視野)に近接して又はその少なくとも一部に重なるように光源検出領域(光源検知センサの視野)を配置することで、焦点検出を行う被写体又はその近傍を照らす光源の検出が可能になっている。   As described above, in this embodiment, the focus detection sensor 201 is provided with two pairs of AF line sensors in the vertical and horizontal directions, so that the object having the contrast in the vertical direction and the object having the contrast in the horizontal direction can be used. Focus detection is possible. In addition, by arranging the light source detection region (field of the light source detection sensor) so as to be close to or overlap at least part of the focus detection region (field of view of the AF line sensor), the subject for which focus detection is performed or the vicinity thereof Detection of the illuminating light source is possible.

次に、図6を用いて、可視光センサ213a,214a及び赤外光センサ213b,314bの分光感度特性について説明する。同図において、Aは可視光センサ213a,214aの分光感度特性を示す。横軸は波長(nm)、縦軸は感度である。また、Bは赤外光センサ213b,314bの分光感度特性を示す。特性A,Bは、600〜750nm付近で感度を持つ波長領域が重複するが、感度がピークとなる波長領域はそれぞれ、可視光領域と近赤外光領域である。これにより、可視光センサ213a,214aは、主として可視光領域の光を検出し、赤外光センサ213b,314bは、可視光領域よりも長波長側の主として近赤外光領域の光を検出する。   Next, the spectral sensitivity characteristics of the visible light sensors 213a and 214a and the infrared light sensors 213b and 314b will be described with reference to FIG. In the figure, A indicates the spectral sensitivity characteristics of the visible light sensors 213a and 214a. The horizontal axis represents wavelength (nm) and the vertical axis represents sensitivity. B represents the spectral sensitivity characteristics of the infrared light sensors 213b and 314b. In the characteristics A and B, wavelength regions having sensitivity in the vicinity of 600 to 750 nm overlap, but the wavelength regions where the sensitivity reaches a peak are a visible light region and a near infrared light region, respectively. Accordingly, the visible light sensors 213a and 214a mainly detect light in the visible light region, and the infrared light sensors 213b and 314b mainly detect light in the near infrared light region on the longer wavelength side than the visible light region. .

次に、本実施例のカメラシステムにおけるAF動作について、図13のフローチャートを用いて説明する。このAF動作は、主として制御手段としてのカメラマイクロコンピュータ100がコンピュータプログラムに従って実行する。   Next, the AF operation in the camera system of the present embodiment will be described using the flowchart of FIG. This AF operation is mainly executed by the camera microcomputer 100 as control means in accordance with a computer program.

図2で示したカメラ1のSW1がオンされると、ステップ(図ではsと略す)101から動作を開始する。カメラマイクロコンピュータ100は、焦点検出ユニット200内のAFラインセンサでの電荷蓄積を行わせ、撮影光学系の焦点状態に応じた画素情報を生成させる。   When SW1 of the camera 1 shown in FIG. 2 is turned on, the operation starts from step (abbreviated as “s” in FIG. 2) 101. The camera microcomputer 100 accumulates charges in the AF line sensor in the focus detection unit 200 and generates pixel information corresponding to the focus state of the photographing optical system.

ステップ102では、カメラマイクロコンピュータ100は、取得した画素情報のずれ(位相差)に基づいて撮影光学系のデフォーカス量を演算する。   In step 102, the camera microcomputer 100 calculates the defocus amount of the photographing optical system based on the acquired pixel information shift (phase difference).

ステップ103では、カメラマイクロコンピュータ100は、光源検出センサの電荷蓄積と蓄積された電荷(輝度信号)の読み出しとを行う。そして、ステップ104では、光源検出センサ(赤外光センサ及び可視光センサ)からの輝度信号の出力比である輝度比(赤外光/可視光)を計算する。本実施例では、上部視野53と下部視野54において検出された輝度比を平均化する。   In step 103, the camera microcomputer 100 performs charge accumulation of the light source detection sensor and reading of the accumulated charge (luminance signal). In step 104, a luminance ratio (infrared light / visible light), which is an output ratio of luminance signals from the light source detection sensors (infrared light sensor and visible light sensor), is calculated. In this embodiment, the luminance ratios detected in the upper visual field 53 and the lower visual field 54 are averaged.

ステップ105では、カメラマイクロコンピュータ100は、該平均化した輝度比に応じて、図9に示すデータテーブルからデフォーカス補正係数である第1補正係数(補正情報)を読み出す。   In step 105, the camera microcomputer 100 reads a first correction coefficient (correction information) that is a defocus correction coefficient from the data table shown in FIG. 9 according to the averaged luminance ratio.

図9のデータテーブルは、カメラマイクロコンピュータ100内のメモリ(ROMテーブル)100aに記憶されたものである。横軸は輝度比を示し、縦軸は第1補正係数を示す。なお、本実施例では、データテーブル形式で輝度比に応じた第1補正係数を記憶した場合について説明するが、輝度比に応じて第1補正係数を算出するための計算式を補正情報として記憶しておいてもよい。   The data table in FIG. 9 is stored in a memory (ROM table) 100a in the camera microcomputer 100. The horizontal axis represents the luminance ratio, and the vertical axis represents the first correction coefficient. In this embodiment, the case where the first correction coefficient corresponding to the luminance ratio is stored in the data table format will be described. However, a calculation formula for calculating the first correction coefficient according to the luminance ratio is stored as correction information. You may keep it.

次のステップ106では、カメラマイクロコンピュータ100は、レンズマイクロコンピュータ112に対して、その交換レンズ(撮影光学系)固有の色収差量データの送信を要求する。この要求は、図2に示すシリアル通信ラインLCK,LDO,LDIを介してレンズマイクロコンピュータ112に送信される。   In the next step 106, the camera microcomputer 100 requests the lens microcomputer 112 to transmit chromatic aberration amount data specific to the interchangeable lens (imaging optical system). This request is transmitted to the lens microcomputer 112 via the serial communication lines LCK, LDO, and LDI shown in FIG.

要求を受けたレンズマイクロコンピュータ112は、まずその要求(通信)の内容を解析する。その要求が色収差量データの送信要求であった場合は、撮影光学系の現在の焦点距離とフォーカスレンズ位置とに応じた色収差量データをレンズマイクロコンピュータ112内のメモリ(ROMテーブル)112aから読み出す。色収差量データは、交換レンズの個体ごとに、焦点距離とフォーカスレンズ位置とに対応付けられて予め計測され、メモリ112aに保存されている。レンズマイクロコンピュータ112は、該色収差量データをシリアル通信ラインLCK,LDO,LDIを介してカメラマイクロコンピュータ100に返送する。   Upon receiving the request, the lens microcomputer 112 first analyzes the content of the request (communication). If the request is a transmission request for chromatic aberration amount data, chromatic aberration amount data corresponding to the current focal length and focus lens position of the photographing optical system is read from the memory (ROM table) 112a in the lens microcomputer 112. The chromatic aberration amount data is measured in advance in association with the focal length and the focus lens position for each individual interchangeable lens, and is stored in the memory 112a. The lens microcomputer 112 returns the chromatic aberration amount data to the camera microcomputer 100 via the serial communication lines LCK, LDO, and LDI.

次のステップ107では、カメラマイクロコンピュータ100は、ステップ106で取得した色収差データに対して、ステップ105で求めた第1補正係数を乗じてデフォーカス補正量を演算する。   In the next step 107, the camera microcomputer 100 calculates a defocus correction amount by multiplying the chromatic aberration data acquired in step 106 by the first correction coefficient obtained in step 105.

ステップ108では、カメラマイクロコンピュータ100は、ステップ102で演算したデフォーカス量(焦点状態の検出結果)が、図8に示す±d2の範囲内であるか否かを判定する。±d2の範囲である場合(第1の状態)は、光源検出センサで検出した結果の信頼性が高いとみなして次のステップ109へ移行し、デフォーカス量の光源補正を行う。一方、デフォーカス量が±d2の範囲外である場合(第2の状態)は、光源検出センサで検出した結果の信頼性が低いとみなしてデフォーカス量の光源補正は行わず、ステップ110へ移行する。   In step 108, the camera microcomputer 100 determines whether or not the defocus amount (focus state detection result) calculated in step 102 is within a range of ± d2 shown in FIG. If it is within the range of ± d2 (first state), it is regarded that the reliability of the result detected by the light source detection sensor is high, the process proceeds to the next step 109, and the light source correction of the defocus amount is performed. On the other hand, if the defocus amount is outside the range of ± d2 (second state), the reliability of the result detected by the light source detection sensor is regarded as low, and the light source correction of the defocus amount is not performed, and step 110 is performed. Transition.

ここで、光源検出センサで検出した結果の信頼性を判定する基準であるデフォーカス量d2の決定方法について、図7及び図8を用いて説明する。   Here, a method of determining the defocus amount d2, which is a reference for determining the reliability of the result detected by the light source detection sensor, will be described with reference to FIGS.

図8は、カメラマイクロコンピュータ100内のメモリ(ROMテーブル)100a内に記憶されたデータテーブルである。横軸はデフォーカス量を、縦軸は光源検出センサ(赤外光センサ及び可視光センサ)の視野の重なり量の割合(重なり状態又は重なり度合い)を示している。   FIG. 8 is a data table stored in the memory (ROM table) 100a in the camera microcomputer 100. The horizontal axis represents the defocus amount, and the vertical axis represents the ratio (overlapping state or overlapping degree) of the overlapping amount of the visual field of the light source detection sensor (infrared light sensor and visible light sensor).

図7に示すように、可視光センサの視野VSFと赤外光センサの視野ISFの面積をともに「S」とし、これらの視野が重なっている部分の面積を「S′」とする。   As shown in FIG. 7, the area of the visual field VSF of the visible light sensor and the visual field ISF of the infrared light sensor are both “S”, and the area of the portion where these visual fields overlap is “S ′”.

図8に示すように、デフォーカス量が0のとき(合焦状態のとき)は重なり量の割合S′/Sは1であり、デフォーカス量が大きくなるほどS’/Sは線形的に減少する。そして、可視光センサの視野VSFと赤外光センサの視野ISFの重なり量の割合が1に近い方が、一方のセンサの視野にのみ存在する光源の影響を受けにくくなる。   As shown in FIG. 8, when the defocus amount is 0 (in a focused state), the overlap amount ratio S ′ / S is 1, and as the defocus amount increases, S ′ / S decreases linearly. To do. And the one where the ratio of the overlapping amount of the visual field VSF of the visible light sensor and the visual field ISF of the infrared light sensor is close to 1 is less affected by the light source existing only in the visual field of one sensor.

本実施例では、S′/S≧0.8か否かを光源検出センサによる検出結果の信頼性の判定基準とする。このため、デフォーカス量がS′/S=0.8に対応する±d2以内であることをもって光源検出センサによる検出結果の信頼性が高いとしている。デフォーカス量とS′/Sとの関係は、設計値又は実測値がROMテーブル内に記憶される。   In this embodiment, whether or not S ′ / S ≧ 0.8 is used as a criterion for determining the reliability of the detection result by the light source detection sensor. For this reason, the reliability of the detection result by the light source detection sensor is high when the defocus amount is within ± d2 corresponding to S ′ / S = 0.8. As for the relationship between the defocus amount and S ′ / S, a design value or an actual measurement value is stored in the ROM table.

なお、上記の信頼性判定基準は、図4に示した可視光センサ213aと赤外光センサ213b及び可視光センサ214aと赤外光センサ214bの双方に対して共通のものである。また、上記判定基準は例にすぎず、本発明がこれに限定されるわけではない。   Note that the above reliability determination criteria are common to both the visible light sensor 213a and the infrared light sensor 213b and the visible light sensor 214a and the infrared light sensor 214b shown in FIG. Moreover, the above criteria are only examples, and the present invention is not limited thereto.

図13において、ステップ109では、カメラマイクロコンピュータ100は、ステップ107で演算したデフォーカス補正量を、ステップ102で求めたデフォーカス量に加算して、最終的なデフォーカス量を演算する。これを以下、光源補正済みデフォーカス量という。   In FIG. 13, in step 109, the camera microcomputer 100 calculates the final defocus amount by adding the defocus correction amount calculated in step 107 to the defocus amount obtained in step 102. This is hereinafter referred to as a light source corrected defocus amount.

ステップ110では、カメラマイクロコンピュータ100は、ステップ102又はステップ109で演算したデフォーカス量(光源補正が行われていないデフォーカス量又は光源補正済みデフォーカス量)が、所定の合焦範囲内であるか否かを判別する。合焦範囲内であれば、ステップ112へ移行する。   In step 110, the camera microcomputer 100 determines that the defocus amount (defocus amount that has not undergone light source correction or defocus amount that has undergone light source correction) calculated in step 102 or step 109 is within a predetermined focus range. It is determined whether or not. If it is within the focusing range, the routine proceeds to step 112.

合焦範囲外であれば、ステップ111に進み、デフォーカス量を前述したシリアル通信ラインLCK,LDO,LDIを介してレンズマイクロコンピュータ112に送信する。レンズマイクロコンピュータ112は、このデフォーカス量の情報に応じてフォーカス駆動モータ16の駆動方向と駆動量を決定し、フォーカス駆動モータ16を駆動する。そして、ステップ101に戻り、合焦状態が得られるまでステップ101〜111の処理を繰り返す。   If it is out of focus range, the process proceeds to step 111, and the defocus amount is transmitted to the lens microcomputer 112 via the serial communication lines LCK, LDO, and LDI described above. The lens microcomputer 112 determines the drive direction and drive amount of the focus drive motor 16 according to the information on the defocus amount, and drives the focus drive motor 16. And it returns to step 101 and repeats the process of steps 101-111 until an in-focus state is acquired.

ステップ112では、カメラマイクロコンピュータ100は、スイッチSW2がオンされたか否かを判別し、オンされた場合は、図14に示すステップ201に進む。また、スイッチSW2がオフの場合は、AF動作の処理を終了する。   In step 112, the camera microcomputer 100 determines whether or not the switch SW2 is turned on. If it is turned on, the process proceeds to step 201 shown in FIG. If the switch SW2 is off, the AF operation process ends.

次に図14を用いて撮像動作について説明する。前述したAF動作が終了し、スイッチSW2がオンされると、ステップ201で、カメラマイクロコンピュータ100は、測光センサ7を通じて被写体輝度を測光する。さらに、測光センサ7による測光値から被写体輝度BVを求め、設定されたISO感度SVと加算して露出値EVを求め、所定のアルゴリズムで絞り値AVとシャッタ速度TVを算出する。   Next, an imaging operation will be described with reference to FIG. When the above-described AF operation is completed and the switch SW2 is turned on, the camera microcomputer 100 measures subject luminance through the photometric sensor 7 in step 201. Further, the subject brightness BV is obtained from the photometric value obtained by the photometric sensor 7 and added to the set ISO sensitivity SV to obtain the exposure value EV, and the aperture value AV and the shutter speed TV are calculated by a predetermined algorithm.

ステップ202では、カメラマイクロコンピュータ100は、主ミラー2をアップ動作させて撮影光路から退避させる。また、これと同時に、レンズマイクロコンピュータ112に対してステップ202で決定した絞り値AVの情報を送信する。レンズマイクロコンピュータ112は、該絞り値情報に応じて絞り15を絞り込む。   In step 202, the camera microcomputer 100 moves the main mirror 2 up and retracts it from the photographing optical path. At the same time, the aperture value AV information determined in step 202 is transmitted to the lens microcomputer 112. The lens microcomputer 112 narrows down the aperture 15 according to the aperture value information.

主ミラー2が撮影光路から完全に退避すると、ステップ203で、カメラマイクロコンピュータ100は、シャッタ先幕駆動マグネットMG−1に通電し、フォーカルプレンシャッタ8の開放動作を開始させる。   When the main mirror 2 is completely retracted from the photographing optical path, in step 203, the camera microcomputer 100 energizes the shutter front curtain drive magnet MG-1, and starts the opening operation of the focal plane shutter 8.

そして、所定のシャッタ開放時間が経過すると、ステップ204へ進み、カメラマイクロコンピュータ100は、シャッタ後幕駆動マグネットMG−2に通電して、フォーカルプレンシャッタ8の後幕を閉じる。これにより、撮像素子9の露光が終了する。   When a predetermined shutter opening time elapses, the process proceeds to step 204, where the camera microcomputer 100 energizes the shutter rear curtain drive magnet MG-2 and closes the rear curtain of the focal plane shutter 8. Thereby, the exposure of the image sensor 9 is completed.

ステップ205では、カメラマイクロコンピュータ100は主ミラー2をダウン動作させる。こうして撮像動作を終了する。   In step 205, the camera microcomputer 100 moves the main mirror 2 down. Thus, the imaging operation is completed.

以上説明したように、本実施例のカメラでは、光源検出センサの視野に近接した又は少なくとも一部が重なる視野を有するAFラインセンサによって検出したデフォーカス量と、可視光センサ及び赤外光センサの視野のずれ量との関係を記憶している。したがって、デフォーカス量から可視光センサ及び赤外光センサの視野のずれ量を判定(推定)できる。そして、可視光センサ及び赤外光センサの視野のずれ量、つまりはデフォーカス量が特定の値より大きい場合は、光源検出の結果の信頼性が低いので、デフォーカス量の光源補正を行わない。これにより、可視光センサ及び赤外光センサのうち一方の視野内に存在する光源がフォーカス制御の精度に悪影響を及ぼすことを抑制できる。一方、可視光センサ及び赤外光センサの視野のずれ量、つまりはデフォーカス量が特定の値より小さい場合は、光源検出の結果の信頼性が高いので、デフォーカス量の光源補正を行う。これにより、被写体を照らす光源の種類に応じた精度の高いフォーカス制御を行うことができる。   As described above, in the camera of the present embodiment, the defocus amount detected by the AF line sensor having a visual field that is close to or at least partially overlaps the visual field of the light source detection sensor, the visible light sensor, and the infrared light sensor. The relationship with the amount of visual field deviation is stored. Therefore, it is possible to determine (estimate) the amount of visual field shift between the visible light sensor and the infrared light sensor from the defocus amount. Then, when the visual field shift amount, that is, the defocus amount is larger than a specific value, the reliability of the light source detection result is low, so the light source correction of the defocus amount is not performed. . Thereby, it can suppress that the light source which exists in one visual field among a visible light sensor and an infrared-light sensor has a bad influence on the precision of focus control. On the other hand, when the visual field shift amount of the visible light sensor and the infrared light sensor, that is, the defocus amount is smaller than a specific value, the light source detection result is highly reliable, and thus the light source correction of the defocus amount is performed. Accordingly, it is possible to perform focus control with high accuracy according to the type of light source that illuminates the subject.

図15は、本発明の実施例2であるカメラシステムにおけるAF動作のフローチャートである。本実施例のカメラシステムの構成は、実施例1のカメラシステムと同じである。このため、本実施例において実施例1と共通する構成要素には、実施例1と同符号を付する。   FIG. 15 is a flowchart of the AF operation in the camera system that is Embodiment 2 of the present invention. The configuration of the camera system of the present embodiment is the same as that of the camera system of the first embodiment. For this reason, in this embodiment, the same reference numerals as those in the first embodiment are assigned to the components common to the first embodiment.

図15において、カメラ1のスイッチSW1がオンされると、カメラマイクロコンピュータ100は、ステップ301から動作を開始する。ここでは、カメラマイクロコンピュータ100は、焦点検出ユニット200内のAFラインセンサでの電荷蓄積を行わせ、撮影光学系の焦点状態に応じた画素情報を生成させる。   In FIG. 15, when the switch SW <b> 1 of the camera 1 is turned on, the camera microcomputer 100 starts operation from step 301. Here, the camera microcomputer 100 causes the AF line sensor in the focus detection unit 200 to perform charge accumulation, and generates pixel information corresponding to the focus state of the photographing optical system.

ステップ302では、カメラマイクロコンピュータ100は、取得した画素情報のずれ(位相差)に基づいて撮影光学系のデフォーカス量を演算する。   In step 302, the camera microcomputer 100 calculates the defocus amount of the photographing optical system based on the acquired pixel information shift (phase difference).

ステップ303では、ステップ302で演算したデフォーカス量が、実施例1で図8を用いて説明した±d2の範囲内であるか否かを判定する。±d2の範囲である場合は、光源検出センサによる検出結果の信頼性が高いとみなして次のステップ304へ移行する。一方、±d2の範囲外である場合は、光源検出センサによる検出結果の信頼性が低いとみなしてステップ310へ移行する。   In step 303, it is determined whether or not the defocus amount calculated in step 302 is within the range of ± d2 described in the first embodiment with reference to FIG. When it is within the range of ± d2, it is considered that the reliability of the detection result by the light source detection sensor is high, and the process proceeds to the next step 304. On the other hand, when it is out of the range of ± d2, it is considered that the reliability of the detection result by the light source detection sensor is low, and the process proceeds to step 310.

ステップ304では、カメラマイクロコンピュータ100は、光源検出センサの電荷蓄積と蓄積された電荷(輝度信号)の読み出しとを行う。そして、ステップ305では、光源検出センサ(赤外光センサ及び可視光センサ)からの輝度信号の出力比である輝度比(赤外光/可視光)を計算する。本実施例では、上部視野53と下部視野54において検出された輝度比を平均化する。   In step 304, the camera microcomputer 100 performs charge accumulation of the light source detection sensor and reading of the accumulated charge (luminance signal). In step 305, a luminance ratio (infrared light / visible light), which is an output ratio of luminance signals from the light source detection sensors (infrared light sensor and visible light sensor), is calculated. In this embodiment, the luminance ratios detected in the upper visual field 53 and the lower visual field 54 are averaged.

ステップ306では、カメラマイクロコンピュータ100は、該平均化した輝度比に応じて、図9に示すデータテーブルからデフォーカス補正係数である第1補正係数(補正情報)を読み出す。   In step 306, the camera microcomputer 100 reads a first correction coefficient (correction information), which is a defocus correction coefficient, from the data table shown in FIG. 9 according to the averaged luminance ratio.

ステップ307では、カメラマイクロコンピュータ100は、レンズマイクロコンピュータ112に対して、その交換レンズ(撮影光学系)固有の色収差量データの送信を要求する。この要求は、図2に示すシリアル通信ラインLCK,LDO,LDIを介してレンズマイクロコンピュータ112に送信される。   In step 307, the camera microcomputer 100 requests the lens microcomputer 112 to transmit chromatic aberration amount data specific to the interchangeable lens (imaging optical system). This request is transmitted to the lens microcomputer 112 via the serial communication lines LCK, LDO, and LDI shown in FIG.

要求を受けたレンズマイクロコンピュータ112は、まずその要求(通信)の内容を解析する。その要求が色収差量データの送信要求であった場合は、撮影光学系の現在の焦点距離とフォーカスレンズ位置とに応じた色収差量データをレンズマイクロコンピュータ112内のメモリ(ROMテーブル)112aから読み出す。レンズマイクロコンピュータ112は、該色収差量データをシリアル通信ラインLCK,LDO,LDIを介してカメラマイクロコンピュータ100に返送する。   Upon receiving the request, the lens microcomputer 112 first analyzes the content of the request (communication). If the request is a transmission request for chromatic aberration amount data, chromatic aberration amount data corresponding to the current focal length and focus lens position of the photographing optical system is read from the memory (ROM table) 112a in the lens microcomputer 112. The lens microcomputer 112 returns the chromatic aberration amount data to the camera microcomputer 100 via the serial communication lines LCK, LDO, and LDI.

ステップ308では、カメラマイクロコンピュータ100は、ステップ307で取得した色収差データに対して、ステップ306で求めた第1補正係数を乗じてデフォーカス補正量を演算する。   In step 308, the camera microcomputer 100 calculates the defocus correction amount by multiplying the chromatic aberration data acquired in step 307 by the first correction coefficient obtained in step 306.

ステップ309では、カメラマイクロコンピュータ100は、ステップ308にて演算したデフォーカス補正量をステップ302で演算したデフォーカス量に加算して、最終的なデフォーカス量(光源補正済みデフォーカス量)を得る。   In step 309, the camera microcomputer 100 adds the defocus correction amount calculated in step 308 to the defocus amount calculated in step 302 to obtain a final defocus amount (light source corrected defocus amount). .

ステップ310では、カメラマイクロコンピュータ100は、ステップ302又はステップ309で演算したデフォーカス量(光源補正が行われていないデフォーカス量又は光源補正済みデフォーカス量)が、所定の合焦範囲内であるか否かを判別する。合焦範囲内であれば、ステップ312へ移行する。   In step 310, the camera microcomputer 100 determines that the defocus amount (defocus amount that has not been subjected to light source correction or defocus amount that has undergone light source correction) calculated in step 302 or step 309 is within a predetermined focusing range. It is determined whether or not. If it is within the focusing range, the process proceeds to step 312.

合焦範囲外であれば、ステップ311に進み、デフォーカス量を前述したシリアル通信ラインLCK,LDO,LDIを介してレンズマイクロコンピュータ112に送信する。レンズマイクロコンピュータ112は、このデフォーカス量の情報に応じてフォーカス駆動モータ16の駆動方向と駆動量を決定し、フォーカス駆動モータ16を駆動する。そして、ステップ301に戻り、合焦状態が得られるまでステップ301〜311の処理を繰り返す。   If it is out of focus range, the process proceeds to step 311 and the defocus amount is transmitted to the lens microcomputer 112 via the serial communication lines LCK, LDO and LDI described above. The lens microcomputer 112 determines the drive direction and drive amount of the focus drive motor 16 according to the information on the defocus amount, and drives the focus drive motor 16. And it returns to step 301 and repeats the process of steps 301-311 until an in-focus state is acquired.

ステップ312では、カメラマイクロコンピュータ100は、スイッチSW2がオンされたか否かを判別し、オンされた場合は、図14に示すステップ201に進む。また、スイッチSW2がオフの場合は、AF動作の処理を終了する。   In step 312, the camera microcomputer 100 determines whether or not the switch SW2 is turned on. If it is turned on, the process proceeds to step 201 shown in FIG. If the switch SW2 is off, the AF operation process ends.

以上説明した本実施例でも、実施例1と同様の作用効果が得られる。また、本実施例では、デフォーカス量の光源補正のための処理を行う前に該光源補正を行うか否かを判別するため、光源補正を行わない場合のAF処理を高速で行うことができる。   In the present embodiment described above, the same effects as those of the first embodiment can be obtained. Further, in this embodiment, since it is determined whether or not the light source correction is performed before performing the process for correcting the light source of the defocus amount, the AF process when the light source correction is not performed can be performed at high speed. .

図16は、本発明の実施例3であるカメラシステムにおけるAF動作のフローチャートである。本実施例のカメラシステムの構成は、実施例1のカメラシステムと同じである。このため、本実施例において実施例1と共通する構成要素には、実施例1と同符号を付する。   FIG. 16 is a flowchart of the AF operation in the camera system that is Embodiment 3 of the present invention. The configuration of the camera system of the present embodiment is the same as that of the camera system of the first embodiment. For this reason, in this embodiment, the same reference numerals as those in the first embodiment are assigned to the components common to the first embodiment.

図16において、カメラ1のスイッチSW1がオンされると、カメラマイクロコンピュータ100は、ステップ401から動作を開始する。ここでは、カメラマイクロコンピュータ100は、焦点検出ユニット200内のAFラインセンサでの電荷蓄積を行わせ、撮影光学系の焦点状態に応じた画素情報を生成させる。   In FIG. 16, when the switch SW <b> 1 of the camera 1 is turned on, the camera microcomputer 100 starts operation from step 401. Here, the camera microcomputer 100 causes the AF line sensor in the focus detection unit 200 to perform charge accumulation, and generates pixel information corresponding to the focus state of the photographing optical system.

ステップ402では、カメラマイクロコンピュータ100は、取得した画素情報のずれ(位相差)に基づいて撮影光学系のデフォーカス量を演算する。   In step 402, the camera microcomputer 100 calculates the defocus amount of the photographing optical system based on the acquired pixel information shift (phase difference).

ステップ403では、ステップ302で演算したデフォーカス量が、実施例1で図8を用いて説明した±d2の範囲内であるか否かを判定する。±d2の範囲である場合は、光源検出センサによる検出結果の信頼性が高いとみなして次のステップ404へ移行する。一方、±d2の範囲外である場合は、光源検出センサによる検出結果の信頼性が低いとみなしてステップ411へ移行する。   In step 403, it is determined whether or not the defocus amount calculated in step 302 is within the range of ± d2 described in the first embodiment with reference to FIG. If it is within the range of ± d2, it is considered that the reliability of the detection result by the light source detection sensor is high, and the process proceeds to the next step 404. On the other hand, when it is outside the range of ± d2, it is considered that the reliability of the detection result by the light source detection sensor is low, and the process proceeds to step 411.

ステップ404では、カメラマイクロコンピュータ100は、ステップ402で演算したデフォーカス量に応じて、図12に示すデータテーブルからデフォーカス補正量の重み付け係数である第2補正係数を読み出す。   In step 404, the camera microcomputer 100 reads out a second correction coefficient that is a weighting coefficient of the defocus correction amount from the data table shown in FIG. 12 according to the defocus amount calculated in step 402.

図12のデータテーブルは、カメラマイクロコンピュータ100内のメモリ(ROMテーブル)102a内に記憶されている。横軸はデフォーカス量を示し、縦軸は第2補正係数を示す。図12において、光源検出結果の信頼性が十分高い−d2〜+d2の範囲については第2補正係数として1が設定されている。また、−d2〜−d1の間と+d2〜+d1の間は、デフォーカス量が大きくなるほど第2補正係数を1から徐々に減るように設定されている。また、−d1及び+d1を超える範囲では、第2補正係数は0に設定されている。   The data table in FIG. 12 is stored in a memory (ROM table) 102a in the camera microcomputer 100. The horizontal axis indicates the defocus amount, and the vertical axis indicates the second correction coefficient. In FIG. 12, 1 is set as the second correction coefficient for a range of −d2 to + d2 where the reliability of the light source detection result is sufficiently high. Further, between -d2 and -d1 and between + d2 and + d1, the second correction coefficient is set to gradually decrease from 1 as the defocus amount increases. Further, the second correction coefficient is set to 0 in a range exceeding −d1 and + d1.

−d2〜+d2の範囲では、図8に示すS′/Sが0.8以上となるデフォーカス量の範囲である。また、±d1は、S′/Sが0.5となるデフォーカス量である。ただし、図12のデータテーブルは例にすぎず、本発明がこれに限定されるわけではない。   The range of −d2 to + d2 is a defocus amount range in which S ′ / S shown in FIG. ± d1 is a defocus amount at which S ′ / S becomes 0.5. However, the data table of FIG. 12 is only an example, and the present invention is not limited to this.

また、本実施例では、データテーブル形式でデフォーカス量(視野のずれ量)に応じた第2補正係数を記憶した場合について説明するが、デフォーカス量に応じて第2補正係数を算出するための計算式を記憶しておいてもよい。   In this embodiment, a case where the second correction coefficient corresponding to the defocus amount (field-of-view shift amount) is stored in the data table format will be described. However, in order to calculate the second correction coefficient according to the defocus amount. May be stored.

ステップ405では、カメラマイクロコンピュータ100は、光源検出センサの電荷蓄積と蓄積された電荷(輝度信号)の読み出しとを行う。そして、ステップ406では、光源検出センサ(赤外光センサ及び可視光センサ)からの輝度信号の出力比である輝度比(赤外光/可視光)を計算する。本実施例では、上部視野53と下部視野54において検出された輝度比を平均化する。   In step 405, the camera microcomputer 100 performs charge accumulation of the light source detection sensor and reading of the accumulated charge (luminance signal). In step 406, a luminance ratio (infrared light / visible light), which is an output ratio of luminance signals from the light source detection sensors (infrared light sensor and visible light sensor), is calculated. In this embodiment, the luminance ratios detected in the upper visual field 53 and the lower visual field 54 are averaged.

ステップ407では、カメラマイクロコンピュータ100は、該平均化した輝度比に応じて、図9に示すデータテーブルからデフォーカス補正係数である第1補正係数(補正情報)を読み出す。   In step 407, the camera microcomputer 100 reads out a first correction coefficient (correction information) that is a defocus correction coefficient from the data table shown in FIG. 9 according to the averaged luminance ratio.

ステップ408では、カメラマイクロコンピュータ100は、レンズマイクロコンピュータ112に対して、その交換レンズ(撮影光学系)固有の色収差量データの送信を要求する。この要求は、図2に示すシリアル通信ラインLCK,LDO,LDIを介してレンズマイクロコンピュータ112に送信される。   In step 408, the camera microcomputer 100 requests the lens microcomputer 112 to transmit chromatic aberration amount data specific to the interchangeable lens (imaging optical system). This request is transmitted to the lens microcomputer 112 via the serial communication lines LCK, LDO, and LDI shown in FIG.

要求を受けたレンズマイクロコンピュータ112は、まずその要求(通信)の内容を解析する。その要求が色収差量データの送信要求であった場合は、撮影光学系の現在の焦点距離とフォーカスレンズ位置とに応じた色収差量データをレンズマイクロコンピュータ112内のメモリ(ROMテーブル)112aから読み出す。レンズマイクロコンピュータ112は、該色収差量データをシリアル通信ラインLCK,LDO,LDIを介してカメラマイクロコンピュータ100に返送する。   Upon receiving the request, the lens microcomputer 112 first analyzes the content of the request (communication). If the request is a transmission request for chromatic aberration amount data, chromatic aberration amount data corresponding to the current focal length and focus lens position of the photographing optical system is read from the memory (ROM table) 112a in the lens microcomputer 112. The lens microcomputer 112 returns the chromatic aberration amount data to the camera microcomputer 100 via the serial communication lines LCK, LDO, and LDI.

ステップ409では、カメラマイクロコンピュータ100は、ステップ408で取得した色収差データに対して、ステップ406で求めた第1補正係数を乗じてデフォーカス補正量を演算する。さらに、該デフォーカス補正量に対してステップ404で求めた第2補正係数を乗じて、デフォーカス量(つまりは、可視光センサと赤外光センサの視野のずれ量)に応じて重み付けられたデフォーカス補正量を算出する。   In step 409, the camera microcomputer 100 calculates a defocus correction amount by multiplying the chromatic aberration data acquired in step 408 by the first correction coefficient obtained in step 406. Further, the defocus correction amount is multiplied by the second correction coefficient obtained in step 404 and weighted according to the defocus amount (that is, the visual field shift amount between the visible light sensor and the infrared light sensor). A defocus correction amount is calculated.

ステップ410では、カメラマイクロコンピュータ100は、ステップ402で求めたデフォーカス量に、ステップ409で求めた重み付けられたデフォーカス補正量を加算して、最終的なデフォーカス量(光源補正済みデフォーカス量)を演算する。   In step 410, the camera microcomputer 100 adds the weighted defocus correction amount obtained in step 409 to the defocus amount obtained in step 402 to obtain the final defocus amount (light source corrected defocus amount). ) Is calculated.

ステップ411では、カメラマイクロコンピュータ100は、ステップ302又はステップ309で演算したデフォーカス量(光源補正が行われていないデフォーカス量又は光源補正済みデフォーカス量)が、所定の合焦範囲内であるか否かを判別する。合焦範囲内であれば、ステップ413へ移行する。   In step 411, the camera microcomputer 100 determines that the defocus amount (defocus amount that has not been subjected to light source correction or defocus amount that has undergone light source correction) calculated in step 302 or step 309 is within a predetermined focusing range. It is determined whether or not. If it is within the focusing range, the process proceeds to step 413.

合焦範囲外であれば、ステップ412に進み、デフォーカス量を前述したシリアル通信ラインLCK,LDO,LDIを介してレンズマイクロコンピュータ112に送信する。レンズマイクロコンピュータ112は、このデフォーカス量の情報に応じてフォーカス駆動モータ16の駆動方向と駆動量を決定し、フォーカス駆動モータ16を駆動する。そして、ステップ301に戻り、合焦状態が得られるまでステップ401〜412の処理を繰り返す。   If it is out of focus range, the process proceeds to step 412 and the defocus amount is transmitted to the lens microcomputer 112 via the serial communication lines LCK, LDO and LDI described above. The lens microcomputer 112 determines the drive direction and drive amount of the focus drive motor 16 according to the information on the defocus amount, and drives the focus drive motor 16. And it returns to step 301 and repeats the process of steps 401-412 until an in-focus state is acquired.

ステップ413では、カメラマイクロコンピュータ100は、スイッチSW2がオンされたか否かを判別し、オンされた場合は、図14に示すステップ201に進む。また、スイッチSW2がオフの場合は、AF動作の処理を終了する。   In step 413, the camera microcomputer 100 determines whether or not the switch SW2 is turned on. If it is turned on, the process proceeds to step 201 shown in FIG. If the switch SW2 is off, the AF operation process ends.

以上説明した本実施例でも、実施例1,2と同様の作用効果が得られる。しかも、本実施例では、デフォーカス量、つまりは可視光センサと赤外光センサの視野のずれ量に応じてデフォーカス補正量の重み付けを変更している。このため、両視野のずれ量が少ない場合でも、一方の視野内に存在する光源によるフォーカス制御精度への悪影響を抑制することができる。したがって、実施例1,2に比べて、より精度の高いフォーカス制御を行うことができる。   In the present embodiment described above, the same effects as those of the first and second embodiments can be obtained. In addition, in this embodiment, the weighting of the defocus correction amount is changed according to the defocus amount, that is, the visual field shift amount of the visible light sensor and the infrared light sensor. For this reason, even when there is little deviation | shift amount of both visual fields, the bad influence to the focus control precision by the light source which exists in one visual field can be suppressed. Therefore, it is possible to perform focus control with higher accuracy than in the first and second embodiments.

なお、上記実施例では、焦点検出結果としてのデフォーカス量を補正する場合について説明したが、本発明はこれに限られない。例えば、デフォーカス量に基づいて算出されるフォーカスレンズ駆動量を補正することもできる。本発明における補正の対象は、デフォーカス量やフォーカスレンズ駆動量といったフォーカス制御に用いられる情報であればどの情報であってもよい。   In the above embodiment, the case where the defocus amount as the focus detection result is corrected has been described. However, the present invention is not limited to this. For example, the focus lens drive amount calculated based on the defocus amount can be corrected. The correction target in the present invention may be any information as long as it is information used for focus control such as a defocus amount and a focus lens drive amount.

また、上記実施例では、一眼レフカメラについて説明したが、本発明は、レンズ交換タイプのビデオカメラであって、位相差検出方式AFを行うものにも適用することができる。   In the above embodiments, a single-lens reflex camera has been described. However, the present invention can also be applied to a lens exchange type video camera that performs phase difference detection AF.

本発明の実施例1〜3であるカメラシステムの概略構成を示す断面図。Sectional drawing which shows schematic structure of the camera system which is Examples 1-3 of this invention. 実施例1〜3のカメラシステムの電気的構成を示すブロック図。FIG. 3 is a block diagram showing an electrical configuration of camera systems of Examples 1 to 3. 実施例1〜3のカメラに搭載された焦点検出センサの構成を示す斜視図。The perspective view which shows the structure of the focus detection sensor mounted in the camera of Examples 1-3. 上記焦点検出センサにおけるAFラインセンサ及び光源検出センサの配置を示す図。The figure which shows arrangement | positioning of the AF line sensor and light source detection sensor in the said focus detection sensor. 実施例1〜3のカメラにおける撮影画面内の焦点検出領域と光源検出領域との位置関係を示す図。The figure which shows the positional relationship of the focus detection area and light source detection area in the imaging | photography screen in the camera of Examples 1-3. 実施例1〜3における光源検出センサ(可視光センサ及び赤外光センサ)の分光感度特性を示す図。The figure which shows the spectral sensitivity characteristic of the light source detection sensor (visible light sensor and infrared light sensor) in Examples 1-3. 上記可視光センサと赤外光センサの視野の重なり状態を示す図。The figure which shows the overlapping state of the visual field of the said visible light sensor and an infrared light sensor. 実施例1〜3のカメラにおけるデフォーカス量と光源検出センサの視野の重なり量(割合)との関係を示す図。The figure which shows the relationship between the defocus amount in the camera of Examples 1-3, and the overlap amount (ratio) of the visual field of a light source detection sensor. 実施例1〜3のカメラにおける光源検出センサにより検出された輝度比に応じた第1補正係数を示す図。The figure which shows the 1st correction coefficient according to the luminance ratio detected by the light source detection sensor in the camera of Examples 1-3. 各種光源、撮像素子及び補助光の分光感度と、レンズの色収差による相対的なピント位置とを示した図。The figure which showed the spectral sensitivity of various light sources, an image pick-up element, and auxiliary light, and the relative focus position by the chromatic aberration of a lens. 可視光センサと赤外光センサの視野のずれがほとんどない状態を示す図。The figure which shows the state with almost no deviation | shift of the visual field of a visible light sensor and an infrared light sensor. 可視光センサと赤外光センサの視野のずれによる不具合を説明するための図。The figure for demonstrating the malfunction by the shift | offset | difference of the visual field of a visible light sensor and an infrared light sensor. 実施例3におけるデフォーカス量に応じた第2補正係数を示す図。FIG. 10 is a diagram illustrating a second correction coefficient according to the defocus amount in the third embodiment. 実施例1のカメラシステムにおけるAF動作を示すフローチャート。6 is a flowchart illustrating an AF operation in the camera system according to the first exemplary embodiment. 実施例1のカメラシステムにおける撮像動作を示すフローチャート。5 is a flowchart illustrating an imaging operation in the camera system according to the first embodiment. 実施例2のカメラシステムにおけるAF動作を示すフローチャート。9 is a flowchart illustrating an AF operation in the camera system according to the second embodiment. 実施例3のカメラシステムにおけるAF動作を示すフローチャート。10 is a flowchart illustrating an AF operation in the camera system according to the third embodiment.

符号の説明Explanation of symbols

1 カメラ
11 交換レンズ
12 フォーカスレンズ
51,52 (AFラインセンサの)視野
53,54 (光源検知センサの)視野
100 カメラマイクロコンピュータ
112 レンズマイクロコンピュータ
201 焦点検出センサ
211a,211b,212a,212b AFラインセンサ
213a,214a 可視光センサ
213b,214b 赤外光センサ
DESCRIPTION OF SYMBOLS 1 Camera 11 Interchangeable lens 12 Focus lens 51, 52 Field of view 53, 54 (Field of light source detection sensor) Field of view 100 Camera microcomputer 112 Lens microcomputer 201 Focus detection sensor 211a, 211b, 212a, 212b AF line sensor 213a, 214a Visible light sensor 213b, 214b Infrared light sensor

Claims (9)

撮影光学系からの光を用いて撮影光学系の焦点状態を検出する焦点検出手段と、
前記撮影光学系からの光のうち互いに異なる波長領域の光を検出する第1及び第2の受光センサと、
前記焦点状態の検出結果と前記第1及び第2の受光センサからの信号とを用いてフォーカス制御に用いる情報を生成可能な制御手段とを有し、
前記制御手段は、前記第1及び第2の受光センサの視野の重なり状態に応じて、前記フォーカス制御に用いる情報の生成方法を変更することを特徴とする撮像装置。
Focus detection means for detecting the focus state of the photographic optical system using light from the photographic optical system;
First and second light receiving sensors for detecting light in different wavelength regions among the light from the photographing optical system;
Control means capable of generating information used for focus control using the detection result of the focus state and the signals from the first and second light receiving sensors;
The image pickup apparatus, wherein the control unit changes a method of generating information used for the focus control in accordance with an overlapping state of visual fields of the first and second light receiving sensors.
前記制御手段は、前記焦点状態の検出結果を前記視野の重なり状態に対応する情報として用いることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the control unit uses the detection result of the focus state as information corresponding to the overlapping state of the visual fields. 前記第1及び第2の受光センサの視野が、前記焦点検出手段の視野に対して近接又は少なくとも一部が重なっていることを特徴とする請求項1又は2に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the visual field of the first and second light receiving sensors is close to or at least partially overlaps the visual field of the focus detection unit. 前記制御手段は、前記第1及び第2の受光センサの視野の重なり状態に応じた補正情報を記憶しており、
前記制御手段は、前記視野の重なり状態が第1の状態であるときは前記焦点状態の検出結果と該補正情報とを用いて前記フォーカス制御に用いる情報を生成し、前記視野の重なり状態が前記第1の状態よりも重なり度合いが低い第2の状態であるときは前記補正情報を用いずに前記焦点状態の検出結果を用いて前記フォーカス制御に用いる情報を生成することを特徴とする請求項1から3のいずれか1つに記載の撮像装置。
The control means stores correction information according to the overlapping state of the visual fields of the first and second light receiving sensors,
When the overlapping state of the visual field is the first state, the control unit generates information used for the focus control using the detection result of the focus state and the correction information, and the overlapping state of the visual field is The information used for the focus control is generated using the detection result of the focus state without using the correction information when the second state has a lower degree of overlap than the first state. The imaging device according to any one of 1 to 3.
前記制御手段は、前記第1及び第2の受光センサからの信号に応じた補正情報を記憶しており、
前記制御手段は、前記焦点状態の検出結果と前記補正情報とを用いて前記フォーカス制御に用いる情報を生成し、かつ前記視野の重なり状態に応じて前記補正情報の重み付けを変更することを特徴とする請求項1から3のいずれか1つに記載の撮像装置。
The control means stores correction information according to signals from the first and second light receiving sensors,
The control means generates information used for the focus control using the focus state detection result and the correction information, and changes the weight of the correction information according to the overlapping state of the visual field. The imaging device according to any one of claims 1 to 3.
前記制御手段は、前記焦点状態の検出結果と前記撮影光学系の色収差量に関する情報と前記補正情報とを用いて前記フォーカス制御に用いる情報を生成することを特徴とする請求項4又は5に記載の撮像装置。   The said control means produces | generates the information used for the said focus control using the detection result of the said focus state, the information regarding the chromatic aberration amount of the said imaging optical system, and the said correction information. Imaging device. 請求項1から6のいずれか1つに記載の撮像装置と、
該撮像装置に対して着脱が可能であり、前記撮影光学系を有するレンズ装置とを有することを特徴とする撮像システム。
The imaging device according to any one of claims 1 to 6,
An imaging system comprising: a lens device that is detachable from the imaging device and has the imaging optical system.
前記レンズ装置は、前記撮影光学系の色収差量に関する情報を記憶した記憶手段を有することを特徴とする請求項7に記載の撮像システム。   The image pickup system according to claim 7, wherein the lens device includes a storage unit that stores information relating to a chromatic aberration amount of the photographing optical system. 撮影光学系からの光を用いて該撮影光学系の焦点状態を検出するステップと、
第1及び第2の受光センサを用いて前記撮影光学系からの光のうち互いに異なる波長領域の光を検出するステップと、
前記焦点状態の検出結果と前記第1及び第2の受光センサからの信号とを用いてフォーカス制御に用いる情報を生成可能な情報生成ステップとを有し、
前記情報生成ステップにおいて、前記第1及び第2の受光センサの視野の重なり状態に応じて、前記フォーカス制御に用いる情報の生成方法を変更することを特徴とする撮像装置の制御方法。
Detecting the focus state of the photographing optical system using light from the photographing optical system;
Detecting light in different wavelength regions from the light from the imaging optical system using the first and second light receiving sensors;
An information generation step capable of generating information used for focus control using the detection result of the focus state and the signals from the first and second light receiving sensors;
A method for controlling an imaging apparatus, wherein, in the information generation step, a method for generating information used for the focus control is changed according to an overlapping state of visual fields of the first and second light receiving sensors.
JP2006316331A 2006-11-22 2006-11-22 Imaging apparatus and imaging system Expired - Fee Related JP4950634B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006316331A JP4950634B2 (en) 2006-11-22 2006-11-22 Imaging apparatus and imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006316331A JP4950634B2 (en) 2006-11-22 2006-11-22 Imaging apparatus and imaging system

Publications (2)

Publication Number Publication Date
JP2008129466A true JP2008129466A (en) 2008-06-05
JP4950634B2 JP4950634B2 (en) 2012-06-13

Family

ID=39555300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006316331A Expired - Fee Related JP4950634B2 (en) 2006-11-22 2006-11-22 Imaging apparatus and imaging system

Country Status (1)

Country Link
JP (1) JP4950634B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010266736A (en) * 2009-05-15 2010-11-25 Canon Inc Focus detecting device
JP2012173309A (en) * 2011-02-17 2012-09-10 Canon Inc Focus detection device and control method therefor
JP2015172640A (en) * 2014-03-11 2015-10-01 リコーイメージング株式会社 Imaging apparatus including af function

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62174710A (en) * 1986-01-28 1987-07-31 Minolta Camera Co Ltd Focus detecting device
JP2000275512A (en) * 1999-03-25 2000-10-06 Olympus Optical Co Ltd Camera
JP2005208300A (en) * 2004-01-22 2005-08-04 Olympus Corp Camera and focus detecting device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62174710A (en) * 1986-01-28 1987-07-31 Minolta Camera Co Ltd Focus detecting device
JP2000275512A (en) * 1999-03-25 2000-10-06 Olympus Optical Co Ltd Camera
JP2005208300A (en) * 2004-01-22 2005-08-04 Olympus Corp Camera and focus detecting device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010266736A (en) * 2009-05-15 2010-11-25 Canon Inc Focus detecting device
JP2012173309A (en) * 2011-02-17 2012-09-10 Canon Inc Focus detection device and control method therefor
JP2015172640A (en) * 2014-03-11 2015-10-01 リコーイメージング株式会社 Imaging apparatus including af function

Also Published As

Publication number Publication date
JP4950634B2 (en) 2012-06-13

Similar Documents

Publication Publication Date Title
JP5020651B2 (en) Imaging apparatus and imaging system
JP5424708B2 (en) Focus detection device
JP5653035B2 (en) Imaging apparatus, focus detection method, and control method
US7940323B2 (en) Image-pickup apparatus and control method thereof
JP2006098771A (en) Focus detecting device, imaging apparatus, imaging system, and lens unit
JP4709247B2 (en) Focus detection apparatus and control method
JP2008275712A (en) Imaging apparatus
JP2006317595A (en) Optical apparatus and its control method
JP2009053568A (en) Imaging apparatus and imaging system
JP4350199B2 (en) camera
JP4950634B2 (en) Imaging apparatus and imaging system
US6901218B2 (en) Photometer, image sensing device, photometric method, program and recording medium
US20160299406A1 (en) Imaging apparatus and method of controlling the same
JP5794665B2 (en) Imaging device
JP4865275B2 (en) Focus detection apparatus and imaging apparatus
JP4928236B2 (en) Imaging apparatus and imaging system
JP2006072084A (en) Automatic focus detecting device and camera system
JP4525023B2 (en) Focus detection apparatus and imaging apparatus
JP5171124B2 (en) Focus adjustment device, imaging device, and focus adjustment method
JP2006135513A (en) Imaging apparatus
JP2008203407A (en) Imaging apparatus, lens device and imaging system
JP2018197812A (en) Imaging device, method for controlling the same, and program
JP4208887B2 (en) Focus detection apparatus and signal processing method
JP2013231885A (en) Automatic focus detection device
JP2006146058A (en) Photometry apparatus for camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110913

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120306

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120309

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees