JP2005221951A - Automatic focusing apparatus for camera - Google Patents

Automatic focusing apparatus for camera Download PDF

Info

Publication number
JP2005221951A
JP2005221951A JP2004032022A JP2004032022A JP2005221951A JP 2005221951 A JP2005221951 A JP 2005221951A JP 2004032022 A JP2004032022 A JP 2004032022A JP 2004032022 A JP2004032022 A JP 2004032022A JP 2005221951 A JP2005221951 A JP 2005221951A
Authority
JP
Japan
Prior art keywords
camera
time
lens
driving
mirror
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004032022A
Other languages
Japanese (ja)
Inventor
Toshiyuki Matsumoto
寿之 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2004032022A priority Critical patent/JP2005221951A/en
Publication of JP2005221951A publication Critical patent/JP2005221951A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an automatic focusing apparatus for a camera capable of accurately obtaining a release time lag in a prediction calculation of a moving body and capable of enhancing a moving body predicting performance. <P>SOLUTION: In predicting the release time lag, a mirror driving time at the present temperature is calculated on the basis of the present temperature measuring result and a temperature at a factory adjustment (step S83), the calculated mirror driving time is corrected in accordance with the present camera attitude (step S85). The release time lag is predicted by using the mirror driving time calculated in such the manner (step S88). <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、カメラの自動焦点調節装置に関し、特に、移動する被写体に合焦させる動体予測制御が可能なカメラの自動焦点調節装置に関する。   The present invention relates to an automatic focus adjustment device for a camera, and more particularly to an automatic focus adjustment device for a camera capable of moving object prediction control for focusing on a moving subject.

移動する被写体に合焦させるように、焦点検出とレンズ駆動とを行う動体予測に関する技術は数多い。特に一眼レフレクスカメラ(以下、カメラと称する)では、撮影者による露光指示がなされた後の露光シーケンスにおいて、タイムラグ短縮のために絞り駆動とメインミラーの駆動とを同時に行っている。即ち、動体予測を行うカメラでは、レリーズタイムラグ(撮影者による露光開始指示から実際に露光が開始するまでの時間)中の被写体移動によって生じるデフォーカス量を補正するために、このデフォーカス量に相当するレンズ駆動量、即ち動体予測量だけ露光シーケンス中にレンズ駆動を行っている。このような動体予測量を求める提案としては、例えば特許文献1のように、レリーズタイムラグを演算し、このレリーズタイムラグの間にデフォーカスするデフォーカス量を予測演算して、動体追従駆動するものがある。   There are many techniques related to moving object prediction that perform focus detection and lens drive so that a moving subject is focused. In particular, in a single-lens reflex camera (hereinafter referred to as a camera), in the exposure sequence after an exposure instruction is given by the photographer, the aperture driving and the main mirror driving are simultaneously performed in order to reduce the time lag. That is, in a camera that performs moving object prediction, it corresponds to this defocus amount in order to correct the defocus amount caused by subject movement during the release time lag (the time from the start of exposure by the photographer until the actual exposure starts). The lens is driven during the exposure sequence by the amount of driving lens, that is, the predicted amount of moving object. As a proposal for obtaining such a moving body predicted amount, for example, as disclosed in Patent Document 1, a release time lag is calculated, a defocus amount to be defocused during the release time lag is predicted and calculated, and moving body follow-up driving is performed. is there.

ここで、動体予測演算に使用するレリーズタイムラグは、カメラのメインミラーの駆動時間と密接にかかわっている。例えば特許文献2では、レリーズタイムラグをメインミラーの駆動時間とレンズの駆動時間とで補正する技術が提案されている。また、特許文献2では、メインミラーの駆動時間に前回のメインミラー駆動時の駆動時間を用いるようにしている。
特公平8−30780号公報 特開平6−337345号公報
Here, the release time lag used for the moving object prediction calculation is closely related to the driving time of the main mirror of the camera. For example, Patent Document 2 proposes a technique for correcting the release time lag by the driving time of the main mirror and the driving time of the lens. Further, in Patent Document 2, the driving time for driving the main mirror last time is used as the driving time for the main mirror.
Japanese Patent Publication No. 8-30780 JP-A-6-337345

しかしながら、レリーズタイムラグは、次のような理由で必ずしも正確に求めることができない。例えば、特許文献2のように、レリーズタイムラグを求める際に用いるミラー駆動時間を前回の測定結果で代用する場合、初回の撮影時にはそのデータがない。また、初回のミラー駆動時間を所定値で代用するようにしても不正確である。また、レリーズタイムラグは、その大部分がメインミラーの駆動時間であるが、この駆動時間は、ミラー駆動回路の機械的なパラメータや、カメラの姿勢、撮影時の温度によっても異なるので、これらに対する補正が必要になる。更に、特許文献1や特許文献2では、レリーズタイムラグを露光開始(即ち、シャッタ開口開始時点)までとしているが、動体予測演算に用いるレリーズタイムラグとしては、露光時間の半分の時点までとしたほうがより好ましい。したがって、レリーズタイムラグをシャッタ駆動時間によって補正することが好ましい。   However, the release time lag cannot always be obtained accurately for the following reason. For example, as in Patent Document 2, when the mirror driving time used when obtaining the release time lag is substituted with the previous measurement result, there is no data at the time of the first photographing. Even if the first mirror drive time is substituted with a predetermined value, it is inaccurate. Most of the release time lag is the drive time of the main mirror, but this drive time also depends on the mechanical parameters of the mirror drive circuit, the camera posture, and the temperature at the time of shooting. Is required. Furthermore, in Patent Document 1 and Patent Document 2, the release time lag is set to the exposure start (that is, the shutter opening start time), but the release time lag used for the moving object prediction calculation is more preferably set to the time half the exposure time. preferable. Therefore, it is preferable to correct the release time lag by the shutter driving time.

本発明は、上記の事情に鑑みてなされたもので、動体予測演算においてレリーズタイムラグを正確に求め、動体予測性能を向上させることができるカメラの自動焦点調節装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an automatic focusing apparatus for a camera capable of accurately obtaining a release time lag in moving object prediction calculation and improving moving object prediction performance.

上記の目的を達成するために、本発明の第1の態様によるカメラの自動焦点調節装置は、移動する被写体に合焦させる動体予測制御を行うカメラの自動焦点調節装置において、所定の条件下におけるカメラのメインミラーの駆動時間を予測する駆動時間予測手段と、上記駆動時間予測手段の出力に基づいて、動体予測制御に関わるレリーズタイムラグを予測するレリーズタイムラグ予測手段とを具備することを特徴とする。   In order to achieve the above object, an automatic focusing apparatus for a camera according to a first aspect of the present invention is an automatic focusing apparatus for a camera that performs moving object predictive control for focusing on a moving subject. Drive time prediction means for predicting the drive time of the main mirror of the camera, and release time lag prediction means for predicting a release time lag related to moving object prediction control based on the output of the drive time prediction means .

この第1の態様によれば、動体予測制御の際に、レリーズタイムラグを正確に求めることができるので、動体予測性能を向上させることができる。   According to the first aspect, since the release time lag can be accurately obtained during the moving object prediction control, the moving object prediction performance can be improved.

本発明によれば、動体予測演算においてレリーズタイムラグを正確に求め、動体予測性能を向上させることができるカメラの自動焦点調節装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the automatic focus adjustment apparatus of the camera which can obtain | require a release time lag correctly in a moving body prediction calculation and can improve a moving body prediction performance can be provided.

以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態に係るカメラの自動焦点調節装置の要部について説明するための概念図である。即ち、このカメラの焦点制御装置は、動体予測を行う動体AFの制御全体を司る動体AF制御部1が設けられており、この動体AF制御部1には、駆動時間予測手段としての露光時間演算部2、温度測定手段としての温度測定部3、姿勢測定手段としての姿勢測定部4が接続されている。露光時間演算部2は、被写体の輝度やISO感度などの情報からシャッタ駆動時間(シャッタが開口開始してから開口終了するまでの時間)を演算して、その結果を動体AF制御部1に入力する。また、温度測定部3は、カメラ内部の温度を測定して、その結果を動体AF制御部1に入力する。更に、姿勢測定部4は、撮影者がカメラをどのような姿勢で使用しているのかを測定し、その結果を動体AF制御部1に入力する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a conceptual diagram for explaining a main part of an automatic focusing apparatus for a camera according to an embodiment of the present invention. That is, the camera focus control apparatus is provided with a moving object AF control unit 1 that controls the entire moving object AF that performs moving object prediction. The moving object AF control unit 1 includes an exposure time calculation unit as a drive time predicting unit. A unit 2, a temperature measuring unit 3 as a temperature measuring unit, and a posture measuring unit 4 as a posture measuring unit are connected. The exposure time calculation unit 2 calculates the shutter drive time (the time from when the shutter starts to open until the shutter ends) from information such as the brightness of the subject and ISO sensitivity, and inputs the result to the moving object AF control unit 1. To do. The temperature measuring unit 3 measures the temperature inside the camera and inputs the result to the moving object AF control unit 1. Further, the posture measuring unit 4 measures the posture in which the photographer is using the camera and inputs the result to the moving object AF control unit 1.

ここで、動体AF制御部1には、レリーズタイムラグ予測手段としてのレリーズタイムラグ予測部5が含まれている。レリーズタイムラグ予測部5は、露光時間演算部2、温度測定部3、及び姿勢測定部4の出力に基づいて、動体予測演算に用いるレリーズタイムラグを予測する。なお、レリーズタイムラグ予測部5の詳しい動作については後で述べる。動体予測制御部1は、レリーズタイムラグ予測部5の演算結果に基づいて、移動被写体に対する合焦制御を行う。即ち、動体予測制御部1は、レリーズタイムラグ予測部5の演算結果に基づいて、詳細は後で述べる動体予測演算を行い、この結果に基づいてメカトロ制御部6を制御する。   Here, the moving object AF control unit 1 includes a release time lag prediction unit 5 as a release time lag prediction unit. The release time lag prediction unit 5 predicts a release time lag used for moving object prediction calculation based on outputs from the exposure time calculation unit 2, the temperature measurement unit 3, and the posture measurement unit 4. The detailed operation of the release time lag prediction unit 5 will be described later. The moving object prediction control unit 1 performs focus control on the moving subject based on the calculation result of the release time lag prediction unit 5. That is, the moving object prediction control unit 1 performs a moving object prediction calculation, which will be described later in detail, based on the calculation result of the release time lag prediction unit 5, and controls the mechatronics control unit 6 based on the result.

メカトロ制御部6は、一眼レフレクスカメラのメインミラーの駆動制御、一眼レフレクスカメラのレンズ内の絞り駆動、及び一眼レフレクスカメラのレンズ内の焦点調節レンズの駆動といったメカトロ制御を行う。   The mechatronic control unit 6 performs mechatronic control such as driving control of the main mirror of the single-lens reflex camera, driving of the aperture in the lens of the single-lens reflex camera, and driving of the focus adjustment lens in the lens of the single-lens reflex camera.

図2は、図1で説明した機能を有する自動焦点調節装置を搭載した一眼レフレクスカメラの概観図である。つまり、このカメラは、カメラ本体10と、カメラ本体10に対して着脱可能な交換レンズ部11とで構成されている。なお、このカメラはデジタルスチルカメラを想定したものであるが、銀塩カメラを用いてもよい。   FIG. 2 is a schematic view of a single-lens reflex camera equipped with an automatic focusing apparatus having the function described in FIG. In other words, this camera includes a camera body 10 and an interchangeable lens unit 11 that can be attached to and detached from the camera body 10. Although this camera is assumed to be a digital still camera, a silver salt camera may be used.

交換レンズ部11は、焦点調節レンズ12及びズームレンズ13から構成されている。焦点調節レンズ12は、光軸方向に駆動されて、交換レンズ部11の焦点状態を調節するレンズである。また、ズームレンズ13は、光軸方向に駆動されて、交換レンズ部11の焦点距離を変更するレンズである。   The interchangeable lens unit 11 includes a focus adjustment lens 12 and a zoom lens 13. The focus adjustment lens 12 is a lens that is driven in the optical axis direction to adjust the focus state of the interchangeable lens unit 11. The zoom lens 13 is a lens that is driven in the optical axis direction to change the focal length of the interchangeable lens unit 11.

一方、カメラ本体10は、メインミラー14、サブミラー15、焦点検出光学系16、焦点検出センサ(以下、AFセンサと称する)17、フォーカルプレンシャッタ18、撮像素子19、スクリーンマット20、ファインダ光学系21、及び接眼レンズ22から構成されている。   On the other hand, the camera body 10 includes a main mirror 14, a sub mirror 15, a focus detection optical system 16, a focus detection sensor (hereinafter referred to as AF sensor) 17, a focal plane shutter 18, an image sensor 19, a screen mat 20, and a viewfinder optical system 21. And an eyepiece lens 22.

メインミラー14はハーフミラーで構成されており、被写体からの光束を一部透過させ、一部反射させる。ここで、メインミラー14は、露光時において全光束が撮像素子19で構成される撮像面に行くように、図の矢印で示す方向に回動可能な構成になっている。   The main mirror 14 is composed of a half mirror, which partially transmits and partially reflects the light flux from the subject. Here, the main mirror 14 is configured to be rotatable in a direction indicated by an arrow in the drawing so that all light fluxes go to an image pickup surface constituted by the image pickup element 19 at the time of exposure.

一方、露光時以外では、メインミラー14を透過した被写体からの光束が、サブミラー15によって反射されて焦点検出光学系16に導かれる。焦点検出光学系16は、焦点検出のためのレンズなどで構成されており、サブミラー15で反射された光束をAFセンサ17に導く。なお、この焦点検出光学系16の詳しい構成については後に詳述する。また、AFセンサ17は、例えば、フォトダイオードアレイから成るセンサである。このAFセンサ17は、複数の焦点検出が可能であるように構成されている。つまり、AFセンサ17は、複数の焦点検出エリアに対応する複数のフォトダイオードアレイを持つ。なお、AFセンサ17の詳しい構成については後に詳述する。   On the other hand, the light beam from the subject that has passed through the main mirror 14 is reflected by the sub mirror 15 and guided to the focus detection optical system 16 except during exposure. The focus detection optical system 16 includes a lens for focus detection and the like, and guides the light beam reflected by the sub mirror 15 to the AF sensor 17. The detailed configuration of the focus detection optical system 16 will be described in detail later. The AF sensor 17 is, for example, a sensor composed of a photodiode array. The AF sensor 17 is configured to be able to detect a plurality of focal points. That is, the AF sensor 17 has a plurality of photodiode arrays corresponding to a plurality of focus detection areas. The detailed configuration of the AF sensor 17 will be described in detail later.

前述したように、露光時においては、メインミラー14が交換レンズ部11の光軸上から退避するので、被写体からの光束が撮像面方向に入射する。このとき、フォーカルプレンシャッタ18は、撮像面に適切な量の光を与えるように駆動制御される。ここで、撮像面を構成する撮像素子19には、デジタルスチルカメラの場合にはCCDが用いられる。また、銀塩カメラの場合には、撮像素子19の代わりに銀塩フィルムが用いられる。前述のフォーカルプレンシャッタ18が開いたときには、撮像素子19で構成された撮像面に、被写体からの光束が入射する。   As described above, at the time of exposure, the main mirror 14 is retracted from the optical axis of the interchangeable lens unit 11, so that the light flux from the subject is incident in the imaging surface direction. At this time, the focal plane shutter 18 is driven and controlled to give an appropriate amount of light to the imaging surface. Here, in the case of a digital still camera, a CCD is used as the image pickup device 19 constituting the image pickup surface. In the case of a silver salt camera, a silver salt film is used instead of the image sensor 19. When the above-described focal plane shutter 18 is opened, the light flux from the subject is incident on the imaging surface formed by the imaging device 19.

また、露光時以外では、メインミラー14で反射された被写体からの光束はファインダ方向に入射して、スクリーンマット20で像を結ぶ。この像は、ファインダ光学系21を介して接眼レンズ22に入射する。撮影者はこの接眼レンズ22を覗くことによって、撮影範囲や被写体の焦点状態などを知ることができる。   At times other than exposure, the light beam from the subject reflected by the main mirror 14 is incident in the finder direction and an image is formed by the screen mat 20. This image enters the eyepiece 22 via the finder optical system 21. The photographer can know the photographing range and the focus state of the subject by looking into the eyepiece 22.

図3は、ファインダ内に表示される焦点検出エリアについての概略図である。なお、この図3の例は、3点の測距エリアを持つマルチAFの例である。即ち、撮影者が接眼レンズ22から覗いた場合に、ファインダ内には、AFセンサ17の複数の焦点検出エリアに対応した焦点検出エリアマーク、即ち、中央測距エリアマーク25、右測距エリアマーク26、及び左測距エリアマーク27が表示される。   FIG. 3 is a schematic diagram of the focus detection area displayed in the viewfinder. The example of FIG. 3 is an example of multi-AF having three distance measuring areas. That is, when the photographer looks into the eyepiece 22, the focus detection area mark corresponding to the plurality of focus detection areas of the AF sensor 17, that is, the center distance measurement area mark 25 and the right distance measurement area mark are displayed in the finder. 26 and the left distance measuring area mark 27 are displayed.

次に、このようなカメラに関する電気的な構成について図4を参照して説明する。
まず、交換レンズ部11に関する構成について説明する。交換レンズ部11の外部には、その周囲を取り巻くようにリング状になったズーム駆動用回転環51及びマニュアルフォーカス(MF)用回転環58が構成されている。撮影者は、ズーム駆動用回転環51を交換レンズ部11の光軸中心に回転させることによって、ズームレンズ13を光軸方向に駆動させて、交換レンズ部11の焦点距離を変更することができる。
Next, an electrical configuration relating to such a camera will be described with reference to FIG.
First, the structure regarding the interchangeable lens part 11 is demonstrated. A zoom drive rotary ring 51 and a manual focus (MF) rotary ring 58 that are ring-shaped so as to surround the periphery of the interchangeable lens unit 11 are formed outside the interchangeable lens unit 11. The photographer can change the focal length of the interchangeable lens unit 11 by driving the zoom lens 13 in the optical axis direction by rotating the zoom driving rotary ring 51 about the optical axis of the interchangeable lens unit 11. .

また、MF用回転環58を交換レンズ部11の光軸中心に回転させると、それに連動して、焦点調節レンズ12が光軸方向に駆動する。これにより、交換レンズ部11の焦点を手動で調節することができる。なお、このMF用回転環58は、撮影者がオートフォーカスモードとマニュアルフォーカスモードとを切り替える図示しない切り替えスイッチを操作して、マニュアルフォーカスモードを選択した場合に使用されるものである。   Further, when the MF rotating ring 58 is rotated about the optical axis of the interchangeable lens unit 11, the focus adjustment lens 12 is driven in the optical axis direction in conjunction with the rotation. Thereby, the focus of the interchangeable lens part 11 can be adjusted manually. The MF rotating ring 58 is used when the photographer selects a manual focus mode by operating a changeover switch (not shown) that switches between an autofocus mode and a manual focus mode.

交換レンズ部11の内部は、焦点調節レンズ12、ズームレンズ13、絞り53、及び交換レンズ部11の各種制御(例えば、レンズ駆動制御、絞り駆動制御、通信制御など)を司るレンズ内CPU(以下、LCPUと称する)50から構成されている。そして、このLCPU50には、ズーム位置検出回路52、絞り駆動回路54、レンズ駆動回路55、レンズ位置検出回路56、及び通信回路57が接続されている。   The inside of the interchangeable lens unit 11 is an in-lens CPU (hereinafter, referred to as a lens adjustment control, a diaphragm drive control, a communication control, etc.) for the focus adjustment lens 12, the zoom lens 13, the diaphragm 53, and the interchangeable lens unit 11. , Referred to as LCPU). The LCPU 50 is connected to a zoom position detection circuit 52, a diaphragm drive circuit 54, a lens drive circuit 55, a lens position detection circuit 56, and a communication circuit 57.

前述のズーム駆動用回転環51によって駆動されたズームレンズ13の位置は、ズーム位置検出回路52によって検出される。LCPU50は、ズーム位置検出回路52によって検出されたズームレンズ13の位置に基づいて、交換レンズ部11の焦点距離情報を得る。   The position of the zoom lens 13 driven by the zoom driving rotary ring 51 is detected by a zoom position detection circuit 52. The LCPU 50 obtains focal length information of the interchangeable lens unit 11 based on the position of the zoom lens 13 detected by the zoom position detection circuit 52.

絞り53はカメラ本体10方向に入射する光の光量を調節するための開口部を含んで構成される。LCPU50は、絞り駆動回路54を制御することによって絞り53の開口部の大きさを変化させて、適切な光量の光をカメラ本体10方向に入射させる。   The diaphragm 53 is configured to include an opening for adjusting the amount of light incident in the direction of the camera body 10. The LCPU 50 controls the diaphragm drive circuit 54 to change the size of the opening of the diaphragm 53 so that an appropriate amount of light enters the camera body 10 direction.

また、オートフォーカスモード時において、LCPU50は、レンズ駆動回路55を制御して焦点調節レンズ12を駆動させる。レンズ位置検出回路56は、レンズ駆動回路55によって駆動された焦点調節レンズ12の位置を検出する。ここで、レンズ位置検出回路56は、例えば、フォトインタラプタ(PI)回路などから構成されている。フォトインタラプタ回路は、レンズ駆動回路55の駆動用モータの回転量をパルス数に変換して検出する回路である。即ち、レンズ位置検出回路56は、焦点調節レンズ12からの絶対位置を、ある基準位置からのパルス数として検出する。LCPU50は、レンズ位置検出回路56によって検出されたレンズ位置に基づいて交換レンズ部11の焦点状態情報を算出することができる。   In the autofocus mode, the LCPU 50 controls the lens driving circuit 55 to drive the focus adjustment lens 12. The lens position detection circuit 56 detects the position of the focus adjustment lens 12 driven by the lens driving circuit 55. Here, the lens position detection circuit 56 includes, for example, a photo interrupter (PI) circuit. The photo interrupter circuit is a circuit that detects the amount of rotation of the driving motor of the lens driving circuit 55 by converting it into the number of pulses. That is, the lens position detection circuit 56 detects the absolute position from the focus adjustment lens 12 as the number of pulses from a certain reference position. The LCPU 50 can calculate the focus state information of the interchangeable lens unit 11 based on the lens position detected by the lens position detection circuit 56.

また、LCPU50は、絞り駆動量や交換レンズ部11のデフォーカス量などの情報を、通信回路57を介して後に詳述するカメラ本体のCPUやAF/AECPUと通信する。このため、通信回路57の通信接続端子は交換レンズ部11の外部に設けられている。   Further, the LCPU 50 communicates information such as the aperture driving amount and the defocus amount of the interchangeable lens unit 11 with the CPU and AF / AECPU of the camera body, which will be described in detail later, via the communication circuit 57. For this reason, the communication connection terminal of the communication circuit 57 is provided outside the interchangeable lens unit 11.

次に、カメラ本体10に関する構成について説明する。つまり、カメラ本体10の内部は、カメラ全体の制御を司る本体CPU59が設けられている。また、この本体CPU59には、LCPU50と通信回路57を介して通信するための通信ライン60、本体CPU59のプログラムなどが格納されているフラッシュROM(FROM)61、本体CPU59の各種情報を一時格納するRAM62、画像データを得るために撮像素子19を制御する撮像素子制御回路63、図示しないストロボを制御するストロボ制御回路64、メインミラー14のアップダウンを制御するミラー制御回路65、フォーカルプレンシャッタ18を制御するシャッタ制御回路66、撮像素子制御回路63で得られた画像データを画像処理する画像処理回路67、撮影した画像や各種撮影情報を図示しない表示部に表示するための表示回路68、撮影者が操作する各種操作スイッチが接続された操作スイッチ回路69、カメラに電源を供給するための電源回路72、カメラ内部の温度を測定するための温度測定回路82、カメラの姿勢を測定するための姿勢測定回路83、及びAF/AECPU74が接続されている。   Next, a configuration related to the camera body 10 will be described. That is, a main body CPU 59 that controls the entire camera is provided inside the camera body 10. The main body CPU 59 temporarily stores a communication line 60 for communicating with the LCPU 50 via the communication circuit 57, a flash ROM (FROM) 61 in which a program of the main body CPU 59 is stored, and various types of information of the main body CPU 59. A RAM 62, an image sensor control circuit 63 that controls the image sensor 19 to obtain image data, a strobe control circuit 64 that controls a strobe (not shown), a mirror control circuit 65 that controls the up and down of the main mirror 14, and a focal plane shutter 18 are provided. A shutter control circuit 66 for controlling, an image processing circuit 67 for image processing of image data obtained by the image sensor control circuit 63, a display circuit 68 for displaying a photographed image and various photographing information on a display unit (not shown), a photographer Operation switch circuit connected to various operation switches operated by 9. A power supply circuit 72 for supplying power to the camera, a temperature measurement circuit 82 for measuring the temperature inside the camera, an attitude measurement circuit 83 for measuring the attitude of the camera, and an AF / AECPU 74 are connected. .

ここで、操作スイッチ回路69は、カメラの撮影モードを切り替える図示しない切り替えスイッチや、レリーズボタンの操作によって動作するレリーズスイッチなどを含む。ここで、本一実施形態におけるレリーズスイッチは、一般的な2段階スイッチになっている。つまり、レリーズボタンの半押しで第1レリーズスイッチ70(以下、1Rスイッチと称する)がオンして、焦点検出や測光が行われ、焦点調節レンズ12が駆動されて合焦状態になる。更に、レリーズボタンの全押しで第2レリーズスイッチ71(以下、2Rスイッチと称する)がオンして、メインミラー14とフォーカルプレンシャッタ18が駆動されて露光が開始される。   Here, the operation switch circuit 69 includes a change-over switch (not shown) that switches the shooting mode of the camera, a release switch that operates by operating a release button, and the like. Here, the release switch in the present embodiment is a general two-stage switch. That is, when the release button is half-pressed, the first release switch 70 (hereinafter referred to as 1R switch) is turned on to perform focus detection and photometry, and the focus adjustment lens 12 is driven to be in focus. Further, when the release button is fully pressed, the second release switch 71 (hereinafter referred to as a 2R switch) is turned on, and the main mirror 14 and the focal plane shutter 18 are driven to start exposure.

また、電源回路72は、装填された電池73の電圧を平滑化したり昇圧したりする回路である。また、温度測定回路82は、カメラ本体10内、特にメインミラー14周辺の温度を測定する回路であり、例えばサーミスタのような温度検出素子から構成される。また、姿勢測定回路83は、撮影者がカメラを構えたときのカメラの姿勢(正面、上向、下向きなど)を測定するための回路であり、公知の姿勢センサから構成される。   The power supply circuit 72 is a circuit that smoothes or boosts the voltage of the loaded battery 73. The temperature measurement circuit 82 is a circuit that measures the temperature inside the camera body 10, particularly around the main mirror 14, and includes a temperature detection element such as a thermistor. The posture measurement circuit 83 is a circuit for measuring the posture (front, upward, downward, etc.) of the camera when the photographer holds the camera, and includes a known posture sensor.

AF/AECPU74はカメラの自動焦点調節(AF)制御及び測光(AE)制御を行う。ここで、AF/AECPU74は図1の動体予測制御部1の機能を有するものである。そして、このAF/AECPU74には、AF/AECPU74と交換レンズ部11の通信回路57とで通信するための通信ライン75、AF/AECPU74と本体CPU59とで通信するための通信ライン76、AF/AECPU74のプログラム等が格納されているフラッシュROM(FROM)77、AF/AECPU74の各種情報を一時格納するRAM78、測光回路79、焦点検出回路80、及び補助光回路81が接続されている。   The AF / AECPU 74 performs automatic focus adjustment (AF) control and photometry (AE) control of the camera. Here, the AF / AECPU 74 has the function of the moving object prediction control unit 1 of FIG. The AF / AECPU 74 includes a communication line 75 for communication between the AF / AECPU 74 and the communication circuit 57 of the interchangeable lens unit 11, a communication line 76 for communication between the AF / AECPU 74 and the main body CPU 59, and the AF / AECPU 74. Are connected to a flash ROM (FROM) 77 in which are stored, a RAM 78 for temporarily storing various information of the AF / AECPU 74, a photometry circuit 79, a focus detection circuit 80, and an auxiliary light circuit 81.

ここで、測光回路79は、被写体輝度を測定する図示しない測光素子を制御して、被写体輝度情報を得るための回路である。この測光回路79で得られた被写体輝度情報に基づいて露光時間が演算される。また、焦点検出回路80は、AFセンサ17を制御して得られた情報に基づいて焦点検出演算を行い、焦点検出情報を得るための回路である。更に、補助光回路81は、被写体が低輝度のため焦点検出回路80による焦点検出が不能であり、再度焦点検出を行う必要がある場合に、LEDなどの発光素子を用いて被写体に補助光を照射するための回路である。   Here, the photometric circuit 79 is a circuit for obtaining subject luminance information by controlling a photometric element (not shown) that measures the subject luminance. The exposure time is calculated based on the subject luminance information obtained by the photometry circuit 79. The focus detection circuit 80 is a circuit for performing focus detection calculation based on information obtained by controlling the AF sensor 17 and obtaining focus detection information. Further, the auxiliary light circuit 81 uses a light emitting element such as an LED to emit auxiliary light when the focus detection by the focus detection circuit 80 is impossible because the subject has low brightness and focus detection needs to be performed again. It is a circuit for irradiating.

次に、図5を参照して焦点検出光学系16とAFセンサ17の構成について詳しく説明する。
図5において、視野マスク41はサブミラー15を介して得られる光束を絞り込むものである。サブミラー15から導かれる3つの焦点検出領域の光束(図中、一点鎖線で示す)を透過させるために、視野マスク41は3つの開口41a,41b,41cを有している。
Next, the configuration of the focus detection optical system 16 and the AF sensor 17 will be described in detail with reference to FIG.
In FIG. 5, the field mask 41 narrows the light beam obtained through the sub mirror 15. The field mask 41 has three openings 41a, 41b, and 41c in order to transmit the light beams (indicated by a one-dot chain line in the figure) of the three focus detection regions guided from the sub mirror 15.

赤外カットフィルタ42は、焦点検出に有害な赤外光成分をカットするためのフィルタである。コンデンサレンズ43は、赤外カットフィルタ42を通過した光を集光するためのものである。ここで、コンデンサレンズ43は、3つの開口41a,41b,41cの位置にそれぞれ対応して配置された3つのコンデンサレンズ43a,43b,43cで構成されている。   The infrared cut filter 42 is a filter for cutting an infrared light component harmful to focus detection. The condenser lens 43 is for collecting the light that has passed through the infrared cut filter 42. Here, the condenser lens 43 includes three condenser lenses 43a, 43b, and 43c that are arranged corresponding to the positions of the three openings 41a, 41b, and 41c, respectively.

全反射ミラー44は、各コンデンサレンズを介して入射した光束を、セパレータ絞りマスク45の方向に反射させるものである。セパレータ絞りマスク45は、入射してきた光束を絞るためのものである。ここで、セパレータ絞りマスク45は、前述のコンデンサレンズ43a,43b,43cを介して得られる3つの焦点検出領域の光束をそれぞれ2つの光束に分割するために、3つの焦点検出領域に対してそれぞれ設けられた3つの開口45a,45b,45cを有している。   The total reflection mirror 44 reflects the light beam incident through each condenser lens in the direction of the separator diaphragm mask 45. The separator diaphragm mask 45 is for narrowing the incident light flux. Here, the separator aperture mask 45 divides the light beams of the three focus detection regions obtained through the condenser lenses 43a, 43b, and 43c into two light beams, respectively, so as to respectively separate the three focus detection regions. It has three provided openings 45a, 45b, 45c.

セパレータレンズ46は、前述のセパレータ絞りマスク45を介して得られる光束を再結像させるものである。ここで、セパレータレンズ46は、3つの焦点検出領域に対してそれぞれ設けられた3つのセパレータレンズ46a,46b,46cで構成されている。   The separator lens 46 re-images the light beam obtained through the separator diaphragm mask 45 described above. Here, the separator lens 46 includes three separator lenses 46a, 46b, and 46c provided for the three focus detection areas, respectively.

前述のAFセンサ17は、受光光束の光強度分布に対応した光強度信号を得る光電変換素子列であるフォトダイオードアレイ47を含む。ここで、フォトダイオードアレイ47は3つの焦点検出領域の光束に対してそれぞれ設けられた3つのフォトダイオードアレイ47a,47b,47cで構成されている。即ち、セパレータレンズ46a,46b,46cにおいて分割された2つの光束は、それぞれ対応するフォトダイオードアレイ47a,47b,47cに入射して像を結ぶ。ここで、フォトダイオードアレイ47aは撮影画面の水平方向に対応する方向に配列されており、他の2つのフォトダイオードアレイ47b,47cは、それぞれ光軸を含まない位置に、撮影画面の垂直方向に対応する方向に配列されている。   The AF sensor 17 includes a photodiode array 47 that is a photoelectric conversion element array that obtains a light intensity signal corresponding to the light intensity distribution of the received light flux. Here, the photodiode array 47 includes three photodiode arrays 47a, 47b, and 47c provided for the light beams in the three focus detection regions. That is, the two light beams divided by the separator lenses 46a, 46b, and 46c are incident on the corresponding photodiode arrays 47a, 47b, and 47c to form an image. Here, the photodiode array 47a is arranged in a direction corresponding to the horizontal direction of the shooting screen, and the other two photodiode arrays 47b and 47c are respectively positioned in positions not including the optical axis in the vertical direction of the shooting screen. Arranged in the corresponding direction.

ここで、図5に示す撮影レンズ48は、交換レンズ部11内の各レンズ群、例えば、前述の焦点調節レンズ12やズームレンズ13を合成した仮想的なレンズである。図5のように構成された焦点検出光学系16では、撮影レンズ48の射出瞳面の互いに異なる領域48a,48bと領域48c,48dとを通過する焦点検出光束が、フォトダイオードアレイ47a,47b,47cによりそれぞれ受光されて、像の光強度分布パターンを示す電気信号(光強度信号)に変換される。この光強度信号は、焦点検出の一方式であるTTL位相差方式を用いてAF演算を行うときに用いられる。   Here, the photographing lens 48 shown in FIG. 5 is a virtual lens obtained by synthesizing each lens group in the interchangeable lens unit 11, for example, the focus adjustment lens 12 and the zoom lens 13 described above. In the focus detection optical system 16 configured as shown in FIG. 5, focus detection light beams that pass through different regions 48a and 48b and regions 48c and 48d on the exit pupil plane of the photographing lens 48 are converted into photodiode arrays 47a, 47b, Each light is received by 47c and converted into an electric signal (light intensity signal) indicating a light intensity distribution pattern of the image. This light intensity signal is used when AF calculation is performed using a TTL phase difference method which is one method of focus detection.

図6は、このようなカメラのコンティニュアスAFモード時において実行されるAF演算を説明するためのサブルーチンのフローチャートである。   FIG. 6 is a flowchart of a subroutine for explaining the AF calculation executed in the continuous AF mode of such a camera.

本一実施形態に係る自動焦点調節装置を搭載した一眼レフレクスカメラでは、操作スイッチ回路69の中に含まれる図示しないAFモード切替スイッチによって、シングルAFモードとコンティニュアスAFモードとの間での切り替えが可能である。ここで、シングルAFモードとは一度合焦状態が検出されるとフォーカスロックされるAFモードであり、コンティニュアスAFモードとは焦点検出とレンズ駆動を連続して行うことによって移動する被写体に合焦させる、所謂動体予測AFを行うAFモードである。図6は、このコンティニュアスAF時に実行されるAF演算のサブルーチンのフローチャートである。   In the single-lens reflex camera equipped with the automatic focusing device according to the present embodiment, an AF mode changeover switch (not shown) included in the operation switch circuit 69 is used to switch between the single AF mode and the continuous AF mode. Switching is possible. Here, the single AF mode is an AF mode in which the focus is locked once an in-focus state is detected, and the continuous AF mode is used to focus on a moving subject by continuously performing focus detection and lens driving. This is an AF mode for performing so-called moving object prediction AF. FIG. 6 is a flowchart of an AF calculation subroutine executed during the continuous AF.

AF/AECPU74は、積分の時間間隔を測定するための所定のタイマの動作を開始させる(ステップS10)。このタイマによって測定された積分間隔は、所定のメモリ(ここではRAM78)に格納される。ここで、コンティニュアスAFモードでは、積分が繰り返し行われるので、最初のタイマの動作開始以後も、AF/AECPU74は、積分動作の開始と同期させて、タイマを動作開始させるものとする。   The AF / AECPU 74 starts the operation of a predetermined timer for measuring the integration time interval (step S10). The integration interval measured by this timer is stored in a predetermined memory (here, RAM 78). Here, in the continuous AF mode, since the integration is repeatedly performed, the AF / AECPU 74 starts the timer operation in synchronization with the start of the integration operation even after the start of the first timer operation.

次に、AFセンサ17の積分動作を制御する(ステップS11)。また、AFセンサ17で検出したセンサデータを読み出す際のゲインを設定する(ステップS12)。その後、AFセンサ17で検出したセンサデータを読み出して、RAM78に格納する(ステップS13)。   Next, the integration operation of the AF sensor 17 is controlled (step S11). Further, a gain for reading sensor data detected by the AF sensor 17 is set (step S12). Thereafter, the sensor data detected by the AF sensor 17 is read and stored in the RAM 78 (step S13).

次に、AF/AECPU74は、焦点検出回路80に所定の相関演算を行わせる(ステップS14)。この相関演算は、AFセンサ17で検出したセンサデータに基づいて、セパレータレンズ46a,46b,46cで分割されたフォトダイオードアレイ47a,47b,47c上の2像の相関量を演算する演算である。この相関演算の結果からAF/AECPU74は、AFセンサ17で検出したデータに信頼性があるか否か、即ちAFが可能であるか否かを判定する信頼性判定処理を行う(ステップS15)。また、この信頼性判定結果をRAM78に格納する。   Next, the AF / AECPU 74 causes the focus detection circuit 80 to perform a predetermined correlation calculation (step S14). This correlation calculation is a calculation for calculating the correlation amount of two images on the photodiode arrays 47a, 47b, 47c divided by the separator lenses 46a, 46b, 46c based on the sensor data detected by the AF sensor 17. From the correlation calculation result, the AF / AECPU 74 performs a reliability determination process for determining whether or not the data detected by the AF sensor 17 is reliable, that is, whether or not AF is possible (step S15). The reliability determination result is stored in the RAM 78.

次に、AF/AECPU74は、信頼性判定処理の結果を判定する(ステップS16)。そして、ステップS16の判定において、ステップS15における信頼性判定処理の結果、信頼性がないと判定した場合には、所定回数連続して信頼性がないと判定されたか否かを判定する(ステップS17)。ステップS17の判定において、所定回数連続して信頼性がないと判定された場合には、ステップS12に移行して現在演算している測距点の隣の測距点のデータを用いて再演算を開始させる。一方、ステップS17の判定の結果、まだ、所定回数連続して信頼性がないと判定されていない場合には、現在の測距点での検出を継続させるために、ステップS10に戻る。即ち、所定回数までは現在の測距点での検出を継続させ、所定回数信頼性が低い場合には、その測距点をあきらめて隣の測距点で演算を行う。   Next, the AF / AECPU 74 determines the result of the reliability determination process (step S16). In step S16, if it is determined that there is no reliability as a result of the reliability determination process in step S15, it is determined whether it is determined that there is no reliability continuously for a predetermined number of times (step S17). ). If it is determined in step S17 that there is no reliability continuously for a predetermined number of times, the process proceeds to step S12 and recalculation is performed using the data of the distance measuring point next to the current distance measuring point. To start. On the other hand, as a result of the determination in step S17, if it is not yet determined that there is no reliability for a predetermined number of times, the process returns to step S10 in order to continue detection at the current distance measuring point. That is, the detection at the current distance measuring point is continued until a predetermined number of times, and when the reliability is low a predetermined number of times, the distance measuring point is given up and the calculation is performed at the adjacent distance measuring point.

一方、ステップS16の判定において、信頼性判定処理の結果、信頼性があると判定した場合には、AF/AECPU74は、焦点検出回路80に、ステップS14で演算した相関量に基づいて撮影レンズ48のデフォーカス量を演算させる(ステップS18)。そして、この演算させたデフォーカス量を、RAM78に格納すると同時に、LCPU50に送信する。続いて、前回検出したデフォーカス量と今回検出したデフォーカス量とを比較する連続性判定処理を行う(ステップS19)。なお、ここでの「連続性」は、被写体が前回と同じ測距点に存在していることを示す用語である。この連続性判定処理のフローチャートを図7に示す。   On the other hand, if it is determined in step S16 that the reliability is determined as a result of the reliability determination process, the AF / AECPU 74 causes the focus detection circuit 80 to detect the photographic lens 48 based on the correlation amount calculated in step S14. Is calculated (step S18). The calculated defocus amount is stored in the RAM 78 and simultaneously transmitted to the LCPU 50. Subsequently, a continuity determination process for comparing the previously detected defocus amount with the currently detected defocus amount is performed (step S19). Here, “continuity” is a term indicating that the subject exists at the same distance measuring point as the previous time. A flowchart of this continuity determination process is shown in FIG.

つまり、連続性判定処理においては、まず、前回のデフォーカス量の絶対値と今回のデフォーカス量の絶対値との差の絶対値を演算する(ステップS30)。ここでは、この差の絶対値を連続性係数と定義する。次に、連続性係数が所定値よりも小さいか否かを判定する(ステップS31)。連続性係数が所定値よりも小さいと判定した場合、即ち前回と今回のデフォーカス量の差がある程度小さい場合には、連続であると判定して、連続であることを示す所定のフラグをセットする(ステップS32)。一方、ステップS31の判定において、連続性係数が所定値以上であると判定した場合、つまり、前回と今回のデフォーカス量の差が大きい場合には、不連続と判定して不連続であることを示す所定のフラグをセットする(ステップS33)。以上の動作後、連続性判定処理を終了する。   That is, in the continuity determination process, first, the absolute value of the difference between the absolute value of the previous defocus amount and the absolute value of the current defocus amount is calculated (step S30). Here, the absolute value of this difference is defined as the continuity coefficient. Next, it is determined whether or not the continuity coefficient is smaller than a predetermined value (step S31). When it is determined that the continuity coefficient is smaller than a predetermined value, that is, when the difference between the previous defocus amount and the current defocus amount is small to some extent, it is determined that the continuity is continuous and a predetermined flag indicating that the continuity coefficient is continuous is set. (Step S32). On the other hand, if it is determined in step S31 that the continuity coefficient is greater than or equal to a predetermined value, that is, if the difference between the previous and current defocus amounts is large, it is determined that the discontinuity is discontinuous. Is set (step S33). After the above operation, the continuity determination process is terminated.

ここで、再び図6のフローチャートに戻る。連続性判定処理の後、AF/AECPU74は、連続であることを示す所定のフラグがセットされているか否かを判定する(ステップS20)。そして、ステップS20の判定において、連続であると判定した場合には、このフローチャートのAF演算を終了する。   Here, it returns to the flowchart of FIG. 6 again. After the continuity determination process, the AF / AECPU 74 determines whether or not a predetermined flag indicating continuity is set (step S20). If it is determined in step S20 that it is continuous, the AF calculation of this flowchart ends.

一方、ステップS20の判定の結果、不連続であると判定した場合には、全測距点(3点)において不連続であったか否かを判定する(ステップS21)。ステップS21の判定において、何れかの測距点が連続であればステップS12に移行して、以下、その連続性のある測距点において、AF演算を行う。   On the other hand, as a result of the determination in step S20, if it is determined that the distance is discontinuous, it is determined whether or not the distance measurement points (three points) are discontinuous (step S21). If it is determined in step S21 that one of the distance measuring points is continuous, the process proceeds to step S12, and AF calculation is performed at the distance measuring point having the continuity.

一方、ステップS21の判定の結果、全測距点が不連続であると判定した場合には、前回の測距点におけるAF演算に信頼性があったか否かを判定する(ステップS22)。前回の測距点におけるAF演算に信頼性があったと判定した場合には、前回選択した測距点を選択した後(ステップS23)、このフローチャートのAF演算を終了する。一方、ステップS22の判定の結果、前回選択した測距点におけるAF演算に信頼性がなかったと判定した場合には、今回の3点の測距点の中から最もデフォーカス量の小さい測距点を選択した後(ステップS24)、このフローチャートのAF演算を終了する。即ち、測距点の選択においては、最も連続性があるであろうと思われる測距点を選択する。   On the other hand, if it is determined in step S21 that all the distance measuring points are discontinuous, it is determined whether or not the AF calculation at the previous distance measuring point is reliable (step S22). If it is determined that the AF calculation at the previous distance measurement point is reliable, the previously selected distance measurement point is selected (step S23), and then the AF calculation of this flowchart ends. On the other hand, as a result of the determination in step S22, when it is determined that the AF calculation at the previously selected distance measurement point is not reliable, the distance measurement point with the smallest defocus amount among the current three distance measurement points. After selecting (step S24), the AF calculation of this flowchart is terminated. That is, in the selection of the distance measurement points, the distance measurement points that are considered to have the most continuity are selected.

図8は、コンティニュアスAF時において2Rスイッチ71がオンされる前後のタイミングチャートである。   FIG. 8 is a timing chart before and after the 2R switch 71 is turned on during continuous AF.

まず、1Rスイッチ70がオン状態であり、2Rスイッチ71がオフ状態であるときのシーケンス(以下、1Rシーケンスと称する)について説明する。まず、第1回目のAF演算の結果、LCPU50は送信されてきたデフォーカス量に基づいてレンズ駆動量を演算する。ここで、このレンズ駆動量はレンズ駆動回路55の駆動パルス数に相当するものである。その後、レンズ駆動回路55は、演算した駆動パルス数に基づいて、焦点調節レンズ12の駆動を開始する。   First, a sequence when the 1R switch 70 is in an on state and the 2R switch 71 is in an off state (hereinafter referred to as a 1R sequence) will be described. First, as a result of the first AF calculation, the LCPU 50 calculates the lens driving amount based on the transmitted defocus amount. Here, this lens driving amount corresponds to the number of driving pulses of the lens driving circuit 55. Thereafter, the lens driving circuit 55 starts driving the focus adjustment lens 12 based on the calculated number of driving pulses.

AF/AECPU74は、AF演算が終了してLCPU50にデフォーカス量を送信した後、すぐに次のAF演算を行う。即ち、AF/AECPU74は、LCPU50がレンズ駆動するのと並行してAF演算を行う。そして、AF演算が終了するごとに、そこで演算したデフォーカス量をLCPU50に送信する。   The AF / AECPU 74 performs the next AF calculation immediately after the AF calculation is completed and the defocus amount is transmitted to the LCPU 50. That is, the AF / AECPU 74 performs AF calculation in parallel with the LCPU 50 driving the lens. Each time the AF calculation is completed, the calculated defocus amount is transmitted to the LCPU 50.

LCPU50は、レンズ駆動回路にレンズ駆動を行わせるのと並行して、AF/AECPU74から送信されてきたデフォーカス量に基づいてレンズ駆動量を演算する。そして演算したレンズ駆動量から、駆動目標位置を算出して、そのデータをAF/AECPU74に返信する。以後、これらの動作を繰り返す。ここで、この駆動目標位置については、後で説明する。   The LCPU 50 calculates the lens driving amount based on the defocus amount transmitted from the AF / AECPU 74 in parallel with causing the lens driving circuit to drive the lens. Then, a drive target position is calculated from the calculated lens drive amount, and the data is returned to the AF / AECPU 74. Thereafter, these operations are repeated. Here, the drive target position will be described later.

LCPU50は、最初のレンズ駆動が終了すると、AF/AECPU74にレンズ駆動終了信号を送信する。AF/AECPU74は、そのレンズ駆動終了信号を受信すると、現在演算しているAF演算の終了後に、測光回路79に測光動作を行わせる。   When the first lens drive is completed, the LCPU 50 transmits a lens drive end signal to the AF / AECPU 74. When the AF / AECPU 74 receives the lens drive end signal, the AF / AECPU 74 causes the photometric circuit 79 to perform a photometric operation after the currently calculated AF calculation.

以上説明したように、1Rスイッチ70がオン状態で2Rスイッチ71がオフ状態のときは、AF、AE、レンズ駆動の動作を繰り返し行っている。また、図6において説明したように、AF/AECPU74はAF間隔(即ち、タイマでカウントした積分時間である)やデフォーカス量などの情報を所定のメモリ、ここではRAM78に格納していく。   As described above, when the 1R switch 70 is on and the 2R switch 71 is off, the AF, AE, and lens driving operations are repeated. Further, as described with reference to FIG. 6, the AF / AECPU 74 stores information such as the AF interval (that is, the integration time counted by the timer) and the defocus amount in a predetermined memory, in this case, the RAM 78.

次に、2Rスイッチ71がオンしている状態のシーケンス(以下、2Rシーケンスと称する)について説明する。ここで、2Rスイッチ71は、撮影者が任意のタイミングでオンさせスイッチである。即ち、2Rスイッチは、1Rシーケンス中の何れかのタイミングでオンされることになる。ここでは、AF/AECPU74がAF演算中であり、LCPU50がレンズ駆動中であるときに、2Rスイッチ71がオンされた場合について説明する。   Next, a sequence in a state where the 2R switch 71 is turned on (hereinafter referred to as a 2R sequence) will be described. Here, the 2R switch 71 is a switch that the photographer turns on at an arbitrary timing. That is, the 2R switch is turned on at any timing in the 1R sequence. Here, a case will be described in which the 2R switch 71 is turned on when the AF / AECPU 74 is performing an AF calculation and the LCPU 50 is driving a lens.

2Rスイッチ71がオンしたので、カメラは露光動作に移行する。即ち、LCPU50では、前回のレンズ駆動を継続するが、AF/AECPU74は、タイムラグ短縮のために、現在演算しているAF演算を中止して、動体予測演算を行う。この動体予測演算については後に詳述する。   Since the 2R switch 71 is turned on, the camera shifts to an exposure operation. That is, in the LCPU 50, the previous lens driving is continued, but the AF / AECPU 74 stops the currently calculated AF calculation and performs the moving object prediction calculation in order to reduce the time lag. This moving object prediction calculation will be described in detail later.

そして、動体予測演算によって、レリーズタイムラグ(2Rスイッチ71がオンされてから露光動作が開始されるまでの時間)中に被写体が移動するであろう量を予測し、その予測量からレンズ駆動量を演算する。更に、この予測駆動量から焦点調節レンズ12の最終目標位置を求めて、求めた最終駆動位置情報をLCPU50に送信する。なお、これらの動作については後に詳述する。   Then, the amount of movement of the subject during the release time lag (the time from when the 2R switch 71 is turned on until the exposure operation is started) is predicted by the moving body prediction calculation, and the lens driving amount is calculated from the predicted amount. Calculate. Further, the final target position of the focus adjustment lens 12 is obtained from the predicted drive amount, and the obtained final drive position information is transmitted to the LCPU 50. These operations will be described in detail later.

また、LCPU50は、受信した駆動目標位置まで更にレンズ駆動する。即ち、現在は前回のレンズ駆動量でのレンズ駆動を継続しているので、更新した目標位置までレンズ駆動を継続する。更に、LCPU50は、AF/AECPU74から予測駆動量を受信すると同時に絞り53の駆動量も受信する。ここで、この絞り駆動量は、最新の測光結果に基づいて測光回路79で演算した結果である。また、LCPU50は、受信した絞り駆動量に基づいて絞り駆動回路54を制御して絞り53を駆動する。即ち、レンズ駆動中においては、絞り53も同時に駆動する。   The LCPU 50 further drives the lens to the received drive target position. In other words, since the lens drive is continued at the previous lens drive amount, the lens drive is continued to the updated target position. Further, the LCPU 50 receives the predicted driving amount from the AF / AECPU 74 and simultaneously receives the driving amount of the diaphragm 53. Here, the aperture driving amount is a result calculated by the photometric circuit 79 based on the latest photometric result. Further, the LCPU 50 drives the diaphragm 53 by controlling the diaphragm drive circuit 54 based on the received diaphragm drive amount. That is, during the lens driving, the diaphragm 53 is also driven simultaneously.

一方、本体CPU59は、メインミラー14をミラー制御回路65でアップ位置まで駆動する。即ち、LCPU50がレンズ駆動と絞り駆動とを行っているときに、本体CPU59によってミラー駆動も並行して行われる。このように3つのメカトロ制御を並行して行うのはタイムラグ短縮のためである。   On the other hand, the main body CPU 59 drives the main mirror 14 to the up position by the mirror control circuit 65. That is, when the LCPU 50 performs lens driving and diaphragm driving, mirror driving is also performed in parallel by the main body CPU 59. The reason why the three mechatronic controls are performed in parallel is to reduce the time lag.

更に、本体CPU59は、これら3つのメカトロ制御がすべて終了すると、フォーカルプレンシャッタ18を、シャッタ制御回路66を介して駆動させる。このとき、撮像素子19において画像が撮像される。ここで、フォーカルプレンシャッタ18の駆動時間は、測光回路79の測光結果に基づいて演算された時間である。   Further, the main body CPU 59 drives the focal plane shutter 18 via the shutter control circuit 66 when all of these three mechatronic controls are completed. At this time, an image is captured by the image sensor 19. Here, the driving time of the focal plane shutter 18 is a time calculated based on the photometric result of the photometric circuit 79.

最後に、本体CPU59は、撮像素子19を撮像素子制御回路63によって制御して、画像データを得る。そして、このようにして得た画像データをRAM62に格納する。   Finally, the main body CPU 59 controls the image sensor 19 by the image sensor control circuit 63 to obtain image data. The image data obtained in this way is stored in the RAM 62.

図9は、図8において説明した2Rシーケンスのフローチャートを示す図である。なお、この2Rシーケンスの処理は、1Rシーケンスから継続されているので、レンズ駆動は継続されたままであるとする。   FIG. 9 is a flowchart of the 2R sequence described in FIG. Note that the 2R sequence processing is continued from the 1R sequence, and therefore it is assumed that the lens drive is continued.

AF/AECPU74は、2Rスイッチ71がオンしたので、タイムラグ短縮のために、現在演算しているAF演算(場合によってはAE演算)を中止する(ステップS40)。次に、動体予測演算を行って(ステップS41)、レリーズタイムラグの時間中に被写体が移動するであろう量を予測する。なお、この動体予測演算については後に詳述する。次に、求めた予測結果をLCPU50に送信する(ステップS42)と同時に絞り53の駆動量もLCPU50に送信する(ステップS43)。なお、この絞り駆動量は、最新の測光結果に基づいて測光回路79で演算した結果である。   Since the 2R switch 71 is turned on, the AF / AECPU 74 stops the currently calculated AF calculation (in some cases, AE calculation) in order to shorten the time lag (step S40). Next, a moving object prediction calculation is performed (step S41), and the amount that the subject will move during the release time lag is predicted. This moving object prediction calculation will be described in detail later. Next, the obtained prediction result is transmitted to the LCPU 50 (step S42), and at the same time, the driving amount of the diaphragm 53 is also transmitted to the LCPU 50 (step S43). The aperture driving amount is a result calculated by the photometry circuit 79 based on the latest photometry result.

次に、本体CPU59は、ミラー制御回路65を制御してメインミラー14をアップ位置まで駆動する(ステップS44)。次に、LCPU50は、受信した絞り駆動量に基づいて絞り駆動回路54を制御して絞り53を駆動する(ステップS45)。なお、このときもLCPU50はレンズ駆動中である。即ち、1Rシーケンスから継続しているレンズ駆動は、焦点調節レンズ12がステップS42で補正された最終目標位置に到達するまで行う。そして、絞り駆動とレンズ駆動とが終了した場合に、LCPU50は、その旨を駆動終了信号として本体CPU59に送信する(ステップS46)。更に、本体CPU59は、駆動終了信号を受信したか否かを判定する(ステップS47)。このステップS47の判定において、駆動終了信号を受信していないと判定した場合には、駆動信号を受信するまで待機する。   Next, the main body CPU 59 controls the mirror control circuit 65 to drive the main mirror 14 to the up position (step S44). Next, the LCPU 50 controls the diaphragm drive circuit 54 based on the received diaphragm drive amount to drive the diaphragm 53 (step S45). At this time, the LCPU 50 is still driving the lens. That is, the lens driving continued from the 1R sequence is performed until the focus adjustment lens 12 reaches the final target position corrected in step S42. When the diaphragm drive and the lens drive are completed, the LCPU 50 transmits a message to that effect to the main body CPU 59 (step S46). Further, the main body CPU 59 determines whether or not a drive end signal has been received (step S47). If it is determined in step S47 that the drive end signal has not been received, the process waits until the drive signal is received.

一方、ステップS47の判定において、駆動終了信号を受信したと判定した場合に、本体CPU59は、シャッタ制御回路66を制御してフォーカルプレンシャッタ18を駆動する。これにより、撮像素子19で画像が撮像される。ここで、このときのシャッタ駆動時間は測光回路79で演算された時間である。そして、本体CPU59は、撮像素子19を撮像素子制御回路63で制御して、画像データを得る(ステップ48)。次に、このようにして得た画像データをRAM62に格納する(ステップS49)。   On the other hand, if it is determined in step S47 that the drive end signal has been received, the main body CPU 59 controls the shutter control circuit 66 to drive the focal plane shutter 18. Thereby, an image is picked up by the image pickup device 19. Here, the shutter driving time at this time is a time calculated by the photometry circuit 79. Then, the main body CPU 59 controls the image sensor 19 with the image sensor control circuit 63 to obtain image data (step 48). Next, the image data obtained in this way is stored in the RAM 62 (step S49).

次に、図10を参照して動体予測の概念について説明する。ここで、焦点調節レンズ12は、レンズ駆動回路55の駆動によって図示しない駆動カムが回転することにより、光軸上を移動するように構成されている。この駆動カムの回転量に対するカムの光軸方向の位置を示した曲線を符号100で示している。なお、図10の横軸は、駆動カムの回転量であるが、ある基準位置から、レンズ位置検出回路56の図示しないフォトインタラプタによって測定したパルス数でもある。また、図10の縦軸はある基準位置から所定量回転したときの駆動カムのリフト量である。   Next, the concept of moving object prediction will be described with reference to FIG. Here, the focus adjustment lens 12 is configured to move on the optical axis when a driving cam (not shown) is rotated by driving of the lens driving circuit 55. A curve 100 indicates the position of the cam in the optical axis direction with respect to the rotation amount of the drive cam. The horizontal axis in FIG. 10 represents the rotation amount of the drive cam, but also the number of pulses measured from a certain reference position by a photo interrupter (not shown) of the lens position detection circuit 56. Further, the vertical axis in FIG. 10 represents the lift amount of the drive cam when it is rotated by a predetermined amount from a certain reference position.

すでに説明したように、1Rシーケンス中において検出したデフォーカス量をLCPU50に送信して、LCPU50で演算したパルス数をAF/AECPU74に返信してもらう。このとき、積分開始時での焦点調節レンズの駆動カム上の現在位置に、演算したパルス数を加えると、それは積分開始時点における被写体の合焦位置(以下、駆動目標位置と称する。また、これらの駆動目標位置を符号101〜106で示す)となる。この駆動目標位置をAF/AECPU74に送信し、AF/AECPU74はその情報を所定のRAM78に格納していく。また、RAM78には、各AFの時間間隔や各AFでの信頼性情報なども格納される。   As described above, the defocus amount detected in the 1R sequence is transmitted to the LCPU 50, and the number of pulses calculated by the LCPU 50 is returned to the AF / AECPU 74. At this time, when the calculated number of pulses is added to the current position on the drive cam of the focus adjustment lens at the start of integration, it is the in-focus position of the subject at the start of integration (hereinafter referred to as the drive target position. Are indicated by reference numerals 101 to 106). The drive target position is transmitted to the AF / AECPU 74, and the AF / AECPU 74 stores the information in a predetermined RAM 78. The RAM 78 also stores time intervals for each AF, reliability information for each AF, and the like.

2Rスイッチ71がオンするとAF/AECPU74は動体予測演算を行い、レリーズタイムラグ後の駆動目標位置を予測する。そして、すでに説明したような2Rシーケンスを経て、シャッタ駆動に至る。   When the 2R switch 71 is turned on, the AF / AECPU 74 performs a moving object prediction calculation and predicts the drive target position after the release time lag. Then, the shutter driving is performed through the 2R sequence as described above.

図11は、図9のステップS41における動体予測演算のフローチャートである。即ち、動体予測演算においては、まず、過去の複数の測距結果(つまり、駆動目標位置101〜106)の中から、複数測距結果(例えば3点)を選択する(ステップS70)。この測距結果の選択基準としては、最新の測距結果を優先し、更に、RAM78に格納されている信頼性情報に基づいた信頼性の高いデータを採用する。次に、レリーズタイムラグを予測する(ステップS71)。例えば、図10で説明した例であれば、ミラー駆動時間と露光時間(即ちシャッタ駆動時間)がレリーズタイムラグとなる。このレリーズタイムラグの予測方法については、後で詳しく説明する。   FIG. 11 is a flowchart of the moving object prediction calculation in step S41 of FIG. That is, in the moving object prediction calculation, first, a plurality of distance measurement results (for example, three points) are selected from a plurality of past distance measurement results (that is, drive target positions 101 to 106) (step S70). As a selection criterion for this distance measurement result, the latest distance measurement result is prioritized, and furthermore, highly reliable data based on the reliability information stored in the RAM 78 is employed. Next, a release time lag is predicted (step S71). For example, in the example described with reference to FIG. 10, the mirror driving time and the exposure time (that is, the shutter driving time) are the release time lag. The method for predicting the release time lag will be described in detail later.

レリーズタイムラグを予測した後は、レリーズタイムラグ後の駆動量を予測するための予測式の係数を演算する(ステップS72)。ここで、この予測式は例えば2次式であり、レリーズタイムラグとステップS70で選択した測距の時間間隔(予めRAM78に格納されている)とによって係数が異なるので、その都度演算する。その後は、決定した予測式に基づいて、レリーズタイムラグ後の駆動量を予測する(ステップS73)。この予測結果が焦点調節レンズ12の最終目標位置であり、図9のステップS42でLCPU50に送信されるものである。   After predicting the release time lag, a coefficient of a prediction formula for predicting the drive amount after the release time lag is calculated (step S72). Here, the prediction formula is, for example, a quadratic formula, and the coefficient varies depending on the release time lag and the distance measurement time interval selected in step S70 (previously stored in the RAM 78), and is calculated each time. Thereafter, the drive amount after the release time lag is predicted based on the determined prediction formula (step S73). This prediction result is the final target position of the focus adjustment lens 12, and is transmitted to the LCPU 50 in step S42 in FIG.

次に、図11のステップS71におけるレリーズタイムラグ予測について説明する。図12は、撮影者がカメラを正面、所謂正位置に構えた場合における、カメラ内部、特にメインミラー14近傍の温度とミラー駆動時間との関係について示した図である。より具体的には、ミラー駆動時間は、メインミラー14が上昇を開始してから上昇が完了するまでのミラーアップ駆動時間である。図12に示すように、温度が高くなるほど、ミラー駆動時間は短くなり、温度が低くなるほど、ミラー駆動時間は長くなる。ここで、カメラ内温度とミラー駆動時間との関係には、カメラ毎にばらつきがあるので、ここでは典型的な3台のカメラABC(それぞれ、ミラー駆動時間が最大、平均、最小)の例について示している。なお、このようなカメラ毎のばらつきが生じるのは、例えばメインミラー14の機械的な出来栄えや、ミラー制御回路65内の図示しないモータの性能、ミラー制御回路65内の図示しないモータ駆動回路の性能等のためである。即ち、カメラ内温度とミラー駆動時間との関係には、カメラ毎にばらつきがあるので、カメラの組立工程内でカメラ毎にミラー駆動時間を調整する必要が生じる。   Next, the release time lag prediction in step S71 of FIG. 11 will be described. FIG. 12 is a diagram showing the relationship between the temperature inside the camera, particularly in the vicinity of the main mirror 14, and the mirror driving time when the photographer holds the camera in the front, that is, the so-called normal position. More specifically, the mirror drive time is the mirror up drive time from when the main mirror 14 starts to rise until the rise is completed. As shown in FIG. 12, the mirror driving time becomes shorter as the temperature becomes higher, and the mirror driving time becomes longer as the temperature becomes lower. Here, since the relationship between the camera internal temperature and the mirror driving time varies for each camera, an example of typical three cameras ABC (maximum mirror driving time, average, minimum) is shown here. Show. Such variations among cameras are caused by, for example, the mechanical performance of the main mirror 14, the performance of a motor (not shown) in the mirror control circuit 65, and the performance of a motor drive circuit (not shown) in the mirror control circuit 65. Is for etc. That is, since the relationship between the camera internal temperature and the mirror drive time varies from camera to camera, it is necessary to adjust the mirror drive time for each camera in the camera assembly process.

また、図13は、常温下(約25℃)における、カメラの姿勢とミラー駆動時間との関係について示した図である。図13に示すように、カメラの姿勢の変化に対するミラー駆動時間の変化の割合は、カメラ内温度の変化に対するミラー駆動時間の変化の割合に比べて小さく、機械的な出来次第では殆ど調整が必要ないほどのレベルである。ここで、図13においても、カメラ毎のばらつきを考慮して、典型的な3台のカメラABC(それぞれ、ミラー駆動時間が最大、平均、最小)の例について示している。なお、このようなカメラ毎のばらつきが生じるのは、カメラの姿勢によってメインミラー14の機械的な負荷の量が変化するためである。   FIG. 13 is a diagram showing the relationship between the camera posture and the mirror drive time at room temperature (about 25 ° C.). As shown in FIG. 13, the rate of change in the mirror drive time relative to the change in the camera attitude is smaller than the rate of change in the mirror drive time relative to the change in the camera temperature, and adjustment is almost necessary depending on the mechanical performance. There is no level. Here, FIG. 13 also shows an example of typical three cameras ABC (maximum, average, and minimum of the mirror driving time, respectively) in consideration of the variation for each camera. Note that such a variation from camera to camera occurs because the amount of mechanical load on the main mirror 14 changes depending on the posture of the camera.

図14は、レリーズタイムラグの概念について示した図である。図8でも説明したが、2Rスイッチ71がオンしたタイミングにおいて、そのとき実行中のAF動作はレリーズタイムラグ短縮のために途中で中止される。ここで、動体予測演算に用いるデフォーカス量は、その時点で演算が完了している最新のAFデータ(即ちデフォーカス量)と、この最新のAFデータを基準として、それから過去に信頼性の高かったAFデータが用いられる。   FIG. 14 is a diagram showing the concept of the release time lag. As described with reference to FIG. 8, at the timing when the 2R switch 71 is turned on, the AF operation being executed at that time is stopped halfway in order to shorten the release time lag. Here, the defocus amount used for the moving object prediction calculation is based on the latest AF data (that is, the defocus amount) that has been calculated at that time and the latest AF data as a reference, and then has high reliability. AF data is used.

即ち、レンズ駆動は、過去のAFデータに基づいて制御されている。ここで、図6で説明したAFが行われるたびに新たなAFデータが得られるので、これに応じてレンズ駆動目標位置も更新しながらレンズ駆動を行う。このときの動体予測演算に使用するAF間隔は、各AFにおける積分時間の半分の時点を基準とした間隔である。このAF間隔は、AF/AECPU74内の図示しないタイマによって計測するものである。   That is, lens driving is controlled based on past AF data. Here, since new AF data is obtained every time the AF described with reference to FIG. 6 is performed, the lens driving is performed while updating the lens driving target position accordingly. The AF interval used for the moving object prediction calculation at this time is an interval based on a time point that is half the integration time in each AF. The AF interval is measured by a timer (not shown) in the AF / AECPU 74.

また、2Rスイッチ71がオンすると図11で説明した動体予測を行う。このとき、2Rスイッチ71がオンしたタイミングで中止されたAFにおける積分時間の半分の時点から動体予測演算開始までの時間を、AF/AECPU74内の所定のタイマによって計測する。更に、動体予測演算開始から実際にメインミラー14の駆動が開始するまでの時間も同様に計測する。ここで、動体予測演算開始から実際にメインミラー14の駆動が開始するまでの時間には、ほとんどばらつきがないので、固定値でも代用できる。メインミラー14の駆動が開始して、更にミラー駆動時間分だけ経過した後、測光回路79で測光した被写体輝度に基づいてAF/AECPU74で演算したシャッタ駆動時間だけフォーカルプレンシャッタ18を開口する。そして露光に至る。   When the 2R switch 71 is turned on, the moving object prediction described with reference to FIG. 11 is performed. At this time, the time from the half of the integration time in AF stopped at the timing when the 2R switch 71 is turned on to the start of moving object prediction calculation is measured by a predetermined timer in the AF / AECPU 74. Further, the time from the start of the moving object prediction calculation until the actual driving of the main mirror 14 is also measured in the same manner. Here, since there is almost no variation in the time from the start of the moving object prediction calculation to the actual driving of the main mirror 14, even a fixed value can be substituted. After the drive of the main mirror 14 has started and the mirror drive time has elapsed, the focal plane shutter 18 is opened for the shutter drive time calculated by the AF / AECPU 74 based on the subject brightness measured by the photometry circuit 79. And it leads to exposure.

このとき、撮影者が感じるレリーズタイムラグは、2Rスイッチ71がオンしたタイミングからフォーカルプレンシャッタ18の開口開始(あるいは開口終了)までの時間である。しかし、動体予測演算上のトータルのレリーズタイムラグとしては、動体予測演算に使用する最新のAFにおける積分時間の半分の時点からフォーカルプレンシャッタ18の駆動時間の半分の時点までである。ここで、レリーズタイムラグを、フォーカルプレンシャッタ18の開口開始の時点までではなく、フォーカルプレンシャッタ18の駆動時間の半分の時点までとする理由は、露光開始(シャッタ開口開始)から露光終了(シャッタ開口終了)までの間の被写体の移動量を平均化するためである。   At this time, the release time lag felt by the photographer is the time from the timing when the 2R switch 71 is turned on until the opening of the focal plane shutter 18 (or the opening end). However, the total release time lag in the moving object prediction calculation is from the time half of the integration time in the latest AF used for the moving object prediction calculation to the time half of the drive time of the focal plane shutter 18. Here, the reason for setting the release time lag not to the time of opening of the focal plane shutter 18 but to the time of half of the driving time of the focal plane shutter 18 is from the start of exposure (start of shutter opening) to the end of exposure (shutter opening). This is to average the amount of movement of the subject until (end).

以上のことから、動体予測演算上のトータルのレリーズタイムラグは、図14に示すように、動体予測演算上のトータルのレリーズタイムラグ=AF間隔a(最新のAFにおける積分時間の半分の時点から2Rスイッチ71がオンした時点でのAFにおける積分時間の半分の時点までの時間)+動体予測開始までの時間+ミラー駆動開始までの時間+ミラー駆動時間+(シャッタ駆動時間/2)となる。   From the above, as shown in FIG. 14, the total release time lag in the moving object prediction calculation is the total release time lag in the moving object prediction calculation = AF interval a (the 2R switch from the half of the integration time in the latest AF). (Time until the time of half of the integration time in AF when 71 is turned on) + time to start moving object prediction + time to start mirror driving + mirror driving time + (shutter driving time / 2).

図15は、ミラー駆動時間演算の概念について示すブロック図である。図14で説明したように、動体予測演算上のトータルのレリーズタイムラグには、ミラー駆動時間が含まれており、このミラー駆動時間を正確に演算することが動体予測精度を向上させるのに不可欠である。   FIG. 15 is a block diagram showing the concept of mirror drive time calculation. As described with reference to FIG. 14, the total release time lag in the moving object prediction calculation includes the mirror driving time, and calculating this mirror driving time accurately is indispensable for improving the moving object prediction accuracy. is there.

ミラー駆動時間演算部200はAF/AECPU74内に設けられており、工場調整時データ201、現在温度情報204、及び現在姿勢情報205に基づいてメインミラー14の駆動時間を演算する。ここで、工場調整時データ201は、工場等におけるカメラの調整時にFROM61に格納されるデータであり、工場調整時の温度データ202と工場調整時のミラー駆動時間データ203とから構成されている。また、現在温度情報204は、温度測定回路82によって測定された現在のカメラ内部の温度(特にメインミラー周辺の温度)であり、現在温度情報204は、姿勢測定回路83によって測定された現在のカメラ姿勢である。   The mirror drive time calculation unit 200 is provided in the AF / AECPU 74, and calculates the drive time of the main mirror 14 based on the factory adjustment time data 201, the current temperature information 204, and the current attitude information 205. Here, the factory adjustment time data 201 is data stored in the FROM 61 at the time of camera adjustment in a factory or the like, and includes temperature data 202 at the time of factory adjustment and mirror drive time data 203 at the time of factory adjustment. The current temperature information 204 is the current temperature inside the camera (particularly the temperature around the main mirror) measured by the temperature measurement circuit 82, and the current temperature information 204 is the current camera measured by the attitude measurement circuit 83. It is posture.

以下、所定の条件下、即ち所定の温度及び所定のカメラ姿勢におけるミラー駆動時間演算の詳細について説明する。図16は、図11のステップS71におけるレリーズタイムラグ予測演算のサブルーチンのフローチャートである。   Hereinafter, details of the mirror drive time calculation under a predetermined condition, that is, a predetermined temperature and a predetermined camera posture will be described. FIG. 16 is a flowchart of a release time lag prediction calculation subroutine in step S71 of FIG.

即ち、AF/AECPU74内のミラー駆動時間演算部200は、温度測定回路82の出力である現在のカメラ内部の温度を読み出す(ステップS80)。次に、ミラー駆動時間演算部200は、FROM61に格納されている工場調整時の温度データを読み出す(ステップS81)。   That is, the mirror drive time calculation unit 200 in the AF / AECPU 74 reads the current temperature inside the camera, which is the output of the temperature measurement circuit 82 (step S80). Next, the mirror drive time calculation unit 200 reads temperature data at the time of factory adjustment stored in the FROM 61 (step S81).

次に、ミラー駆動時間演算部200は、FROM61に格納されている工場調整時のミラー駆動時間データを読み出す(ステップS82)。なお、この工場調整時のミラー駆動時間データは、工場等における調整時に一度メインミラー14を駆動して測定するものである。即ち、ミラー駆動時間データは、工場調整時にカメラを正位置に構えた状態でメインミラー14を駆動して測定する。この測定は、例えばAF/AECPU74内のタイマで測定できるように、FROM77に調整用のサブルーチンプログラムを格納しておけばよい。ここで、工場調整時のミラー駆動時間データをFROM61に格納しておくのは、図12で説明したようなカメラ毎の個体差を吸収するためである。   Next, the mirror drive time calculation unit 200 reads the mirror drive time data at the time of factory adjustment stored in the FROM 61 (step S82). The mirror drive time data at the time of factory adjustment is measured by driving the main mirror 14 once at the time of adjustment in a factory or the like. That is, the mirror drive time data is measured by driving the main mirror 14 with the camera held in the normal position during factory adjustment. This measurement may be performed by storing a subroutine program for adjustment in the FROM 77 so that it can be measured by a timer in the AF / AECPU 74, for example. Here, the mirror drive time data at the time of factory adjustment is stored in the FROM 61 in order to absorb individual differences for each camera as described with reference to FIG.

工場調整時のミラー駆動時間データを読み出した後、ミラー駆動時間演算部200は、現在の環境下において、カメラが正位置の場合のミラー駆動時間を演算する(ステップS83)。これは、正位置でのミラー駆動時間=工場調整時のミラー駆動時間+(工場調整時の温度−現在の温度)×係数で求めることができる。ここで、式中の係数は、図12に示した特性から求めることができる。あるいは、図12の各温度とミラー駆動時間との関係を、FROM61内にテーブルとして格納しておくことでも求めることができる。   After reading the mirror drive time data at the time of factory adjustment, the mirror drive time calculation unit 200 calculates the mirror drive time when the camera is in the normal position under the current environment (step S83). This can be obtained by mirror drive time at the normal position = mirror drive time at factory adjustment + (temperature at factory adjustment−current temperature) × coefficient. Here, the coefficient in the equation can be obtained from the characteristics shown in FIG. Alternatively, the relationship between each temperature in FIG. 12 and the mirror driving time can also be obtained by storing the relationship in the FROM 61 as a table.

次に、ミラー駆動時間演算部200は、姿勢測定回路83の出力である現在のカメラ姿勢を読み出す(ステップS84)。そして、ミラー駆動時間演算部200は、ステップS83で演算した正位置でのミラー駆動時間を、図13で説明したようなカメラ姿勢とミラー駆動時間との関係に基づいて補正する(ステップS85)。なお、図13でも説明したように、カメラの姿勢差によるミラー駆動時間の変化が小さい場合には、姿勢差の影響を無視することができる。この場合には、ステップS84及びステップS85の処理を省略しても良い。   Next, the mirror drive time calculation unit 200 reads the current camera posture, which is the output of the posture measurement circuit 83 (step S84). Then, the mirror drive time calculation unit 200 corrects the mirror drive time at the normal position calculated in step S83 based on the relationship between the camera posture and the mirror drive time as described in FIG. 13 (step S85). As described with reference to FIG. 13, when the change in the mirror driving time due to the camera posture difference is small, the influence of the posture difference can be ignored. In this case, the processing in step S84 and step S85 may be omitted.

次に、AF/AECPU74は、図14で説明したAF間隔aを読み出す(ステップS86)。更に、AF/AECPU74は、図14で説明した動体予測開始までの時間を求める(ステップS87)。   Next, the AF / AECPU 74 reads the AF interval a described with reference to FIG. 14 (step S86). Further, the AF / AECPU 74 obtains the time until the moving object prediction described with reference to FIG. 14 (step S87).

以上求めた各時間から、AF/AECPU74は、動体予測上のトータルのレリーズタイムラグを求める(ステップS88)。そして、このようにして得られたレリーズタイムラグを図11のステップS72やステップS73の動体予測演算に使用する。なお、ミラー駆動時間の温度変化による影響を考えないのであれば、ミラー駆動時間をミラー制御回路65の機械的なパラメータのみによって決まる固定値としても良い。この場合には、ステップS80からステップS83の処理も省略することができる。   From each time obtained above, the AF / AECPU 74 obtains a total release time lag for moving object prediction (step S88). The release time lag obtained in this way is used for the moving object prediction calculation in step S72 and step S73 of FIG. If the influence of temperature change of the mirror driving time is not considered, the mirror driving time may be a fixed value determined only by the mechanical parameters of the mirror control circuit 65. In this case, the processing from step S80 to step S83 can also be omitted.

以上説明したように、本一実施形態によれば、現在の温度及び現在のカメラ姿勢の少なくとも一方を考慮した正確なミラー駆動時間を演算できるので、動体予測演算上のトータルのレリーズタイムラグの演算が正確に行える。したがって、動体予測精度の向上が望める。   As described above, according to the present embodiment, it is possible to calculate an accurate mirror driving time in consideration of at least one of the current temperature and the current camera posture, so that the total release time lag in the moving object prediction calculation can be calculated. It can be done accurately. Therefore, improvement of moving object prediction accuracy can be expected.

以上実施形態に基づいて本発明を説明したが、本発明は上記した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。   Although the present invention has been described based on the above embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention.

さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and the effect described in the column of the effect of the invention Can be extracted as an invention.

本発明の一実施形態に係るカメラの自動焦点調節装置の要部について説明するための概念図である。It is a conceptual diagram for demonstrating the principal part of the automatic focus adjustment apparatus of the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係る自動焦点調節装置を搭載した一眼レフレクスカメラの概観図である。It is a general-view figure of the single-lens reflex camera carrying the automatic focus adjustment apparatus which concerns on one Embodiment of this invention. ファインダ内に表示される焦点検出エリアについての概略図である。It is the schematic about the focus detection area displayed in a finder. 本発明の一実施形態において用いるカメラに関する電気的な構成を説明するためのブロック図である。It is a block diagram for demonstrating the electrical structure regarding the camera used in one Embodiment of this invention. 焦点検出光学系及びAFセンサの構成を詳細に説明するための分解斜視図である。It is a disassembled perspective view for demonstrating in detail the structure of a focus detection optical system and AF sensor. コンティニュアスAF時において実行されるAF演算処理のフローチャートである。It is a flowchart of AF calculation processing executed at the time of continuous AF. 連続性判定処理のフローチャートである。It is a flowchart of a continuity determination process. コンティニュアスAF時において2Rスイッチがオンされる前後のタイミングチャートである。6 is a timing chart before and after the 2R switch is turned on during continuous AF. 第2レリーズシーケンスにおける制御手順を示すフローチャートである。It is a flowchart which shows the control procedure in a 2nd release sequence. 動体予測の概念図である。It is a conceptual diagram of a moving body prediction. 動体予測演算におけるフローチャートである。It is a flowchart in a moving body prediction calculation. カメラ内部の温度とカメラを正位置に構えたときのミラー駆動時間との関係を示す図である。It is a figure which shows the relationship between the temperature inside a camera, and the mirror drive time when holding a camera in a normal position. カメラの姿勢と常温でのミラー駆動時間との関係を示す図である。It is a figure which shows the relationship between the attitude | position of a camera, and the mirror drive time at normal temperature. レリーズタイムラグの概念について示した図である。It is the figure shown about the concept of release time lag. ミラー駆動時間演算の概念について示すブロック図である。It is a block diagram shown about the concept of mirror drive time calculation. レリーズタイムラグ予測演算のサブルーチンのフローチャートである。It is a flowchart of a subroutine of a release time lag prediction calculation.

符号の説明Explanation of symbols

1…動体予測制御部、2…露光時間演算部、3…温度測定部、4…姿勢測定部、5…レリーズタイムラグ予測部、6…メカトロ制御部、50…レンズ内CPU(LCPU)、51…ズーム駆動用回転環、52…ズーム位置検出回路、53…絞り、54…絞り駆動回路、55…レンズ駆動回路、56…レンズ位置検出回路、57…通信回路、58…マニュアルフォーカス(MF)用回転環、59…本体CPU、60,75,76…通信ライン、61,77…フラッシュROM(FROM)、62,78…RAM、63…撮像素子制御回路、64…ストロボ制御回路、65…ミラー制御回路、66…シャッタ制御回路、67…画像処理回路、68…表示回路、69…操作スイッチ回路、70…第1レリーズスイッチ(1Rスイッチ)、71…第2レリーズスイッチ(2Rスイッチ)、72…電源回路、73…電池、74…AF/AECPU、79…測光回路、80…焦点検出回路、81…補助光回路、82…温度測定回路、83…姿勢測定回路、200…ミラー駆動時間演算部、201…工場調整時データ、202…温度データ、204…現在温度情報、205…現在姿勢情報   DESCRIPTION OF SYMBOLS 1 ... Moving body prediction control part, 2 ... Exposure time calculating part, 3 ... Temperature measurement part, 4 ... Attitude measurement part, 5 ... Release time lag prediction part, 6 ... Mechatronics control part, 50 ... In-lens CPU (LCPU), 51 ... Rotating ring for zoom drive, 52 ... Zoom position detection circuit, 53 ... Aperture, 54 ... Aperture drive circuit, 55 ... Lens drive circuit, 56 ... Lens position detection circuit, 57 ... Communication circuit, 58 ... Rotation for manual focus (MF) Ring 59, main body CPU, 60, 75, 76 ... communication line 61, 77 ... flash ROM (FROM), 62, 78 ... RAM, 63 ... image sensor control circuit, 64 ... strobe control circuit, 65 ... mirror control circuit , 66 ... shutter control circuit, 67 ... image processing circuit, 68 ... display circuit, 69 ... operation switch circuit, 70 ... first release switch (1R switch), 71 ... second Leeds switch (2R switch), 72 ... power supply circuit, 73 ... battery, 74 ... AF / AECPU, 79 ... photometry circuit, 80 ... focus detection circuit, 81 ... auxiliary light circuit, 82 ... temperature measurement circuit, 83 ... attitude measurement circuit , 200 ... mirror driving time calculation unit, 201 ... factory adjustment data, 202 ... temperature data, 204 ... current temperature information, 205 ... current posture information

Claims (4)

移動する被写体に合焦させる動体予測制御を行うカメラの自動焦点調節装置において、
所定の条件下におけるカメラのメインミラーの駆動時間を予測する駆動時間予測手段と、
上記駆動時間予測手段の出力に基づいて、動体予測制御に関わるレリーズタイムラグを予測するレリーズタイムラグ予測手段と、
を具備することを特徴とするカメラの自動焦点調節装置。
In an automatic focus adjustment device of a camera that performs moving object prediction control for focusing on a moving subject,
Drive time prediction means for predicting the drive time of the main mirror of the camera under a predetermined condition;
A release time lag predicting means for predicting a release time lag related to moving object predictive control based on the output of the drive time predicting means;
An automatic focusing apparatus for a camera, comprising:
カメラ内部の温度を測定する温度測定手段を更に具備し、
上記駆動時間予測手段は、上記温度測定手段によって測定した上記カメラ内部の温度に基づいて上記メインミラーの駆動時間を予測することを特徴とする請求項1に記載のカメラの自動焦点調節装置。
A temperature measuring means for measuring the temperature inside the camera;
2. The automatic focusing apparatus for a camera according to claim 1, wherein the driving time predicting unit predicts the driving time of the main mirror based on the temperature inside the camera measured by the temperature measuring unit.
カメラの姿勢を測定する姿勢測定手段を更に具備し、
上記駆動時間予測手段は、上記姿勢測定手段によって測定した上記カメラの姿勢に基づいて上記メインミラーの駆動時間を予測することを特徴とする請求項1又は2に記載のカメラの自動焦点調節装置。
It further comprises posture measuring means for measuring the posture of the camera,
3. The automatic focusing apparatus for a camera according to claim 1, wherein the driving time predicting unit predicts the driving time of the main mirror based on the posture of the camera measured by the posture measuring unit.
上記レリーズタイムラグ予測手段は、カメラのシャッタ駆動時間の半分の時間を更に考慮して上記メインミラーの駆動時間を予測することを特徴とする請求項1乃至3の何れか1つに記載のカメラの自動焦点調節装置。   4. The camera according to claim 1, wherein the release time lag predicting unit predicts the driving time of the main mirror further considering a time half of the shutter driving time of the camera. Automatic focusing device.
JP2004032022A 2004-02-09 2004-02-09 Automatic focusing apparatus for camera Pending JP2005221951A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004032022A JP2005221951A (en) 2004-02-09 2004-02-09 Automatic focusing apparatus for camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004032022A JP2005221951A (en) 2004-02-09 2004-02-09 Automatic focusing apparatus for camera

Publications (1)

Publication Number Publication Date
JP2005221951A true JP2005221951A (en) 2005-08-18

Family

ID=34997608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004032022A Pending JP2005221951A (en) 2004-02-09 2004-02-09 Automatic focusing apparatus for camera

Country Status (1)

Country Link
JP (1) JP2005221951A (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06265975A (en) * 1993-03-12 1994-09-22 Nikon Corp Camera provided with shutter measuring device
JPH0850229A (en) * 1994-05-31 1996-02-20 Nikon Corp Image pickup device system, interchangeable lens and image pickup device
JPH0868933A (en) * 1994-08-31 1996-03-12 Nikon Corp Automatic focusing device
JPH08334807A (en) * 1995-06-07 1996-12-17 Olympus Optical Co Ltd Shutter mechanism
JPH09297335A (en) * 1996-03-06 1997-11-18 Olympus Optical Co Ltd Automatic focusing device for camera
JP2000010156A (en) * 1998-06-23 2000-01-14 Canon Inc Camera
JP2000019378A (en) * 1998-06-30 2000-01-21 Canon Inc Camera
JP2000352738A (en) * 1999-04-05 2000-12-19 Nidec Copal Corp Shutter controller
JP2001021794A (en) * 1999-07-12 2001-01-26 Canon Inc Auto-focusing adjusting device, and optical instrument

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06265975A (en) * 1993-03-12 1994-09-22 Nikon Corp Camera provided with shutter measuring device
JPH0850229A (en) * 1994-05-31 1996-02-20 Nikon Corp Image pickup device system, interchangeable lens and image pickup device
JPH0868933A (en) * 1994-08-31 1996-03-12 Nikon Corp Automatic focusing device
JPH08334807A (en) * 1995-06-07 1996-12-17 Olympus Optical Co Ltd Shutter mechanism
JPH09297335A (en) * 1996-03-06 1997-11-18 Olympus Optical Co Ltd Automatic focusing device for camera
JP2000010156A (en) * 1998-06-23 2000-01-14 Canon Inc Camera
JP2000019378A (en) * 1998-06-30 2000-01-21 Canon Inc Camera
JP2000352738A (en) * 1999-04-05 2000-12-19 Nidec Copal Corp Shutter controller
JP2001021794A (en) * 1999-07-12 2001-01-26 Canon Inc Auto-focusing adjusting device, and optical instrument

Similar Documents

Publication Publication Date Title
KR101710633B1 (en) Auto focus adjusting method, auto focus adjusting apparatus, and digital photographing apparatus including the same
JP5904773B2 (en) Camera system, interchangeable lens, and camera
JP5366643B2 (en) Imaging device
JP2005107213A (en) Automatic focusing device for camera
JP2009109839A (en) Image tracking device and imaging device
JP2010160427A (en) Camera system and conversion adaptor
JP6489817B2 (en) Imaging apparatus and control method thereof
JP2017211487A (en) Imaging apparatus and automatic focus adjustment method
JP2007264299A (en) Focus adjustment device
JP2011090048A (en) Automatic focus regulator for camera
JP2010152140A (en) Camera system and conversion adaptor
JP5379448B2 (en) Imaging device
JP4992761B2 (en) LENS DRIVE DEVICE AND IMAGING DEVICE
US11272120B2 (en) Imaging device and control method thereof
JP6355348B2 (en) IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2013073140A (en) Focus detector and imaging apparatus with the same
JP2004170633A (en) Automatic focusing device for camera
JP2005221951A (en) Automatic focusing apparatus for camera
JP2006171147A (en) Auxiliary light device for focus detection of camera
JP2019008246A (en) Imaging device and control method for imaging device
JP2006251033A (en) Single-lens reflex electronic camera
JP2014102298A (en) Imaging apparatus, control program for imaging apparatus, and method for controlling imaging apparatus
JP6699679B2 (en) Imaging device
JP4773769B2 (en) Focus detection device
JP2007156249A (en) Focus detector

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20061019

Free format text: JAPANESE INTERMEDIATE CODE: A621

A131 Notification of reasons for refusal

Effective date: 20091104

Free format text: JAPANESE INTERMEDIATE CODE: A131

A521 Written amendment

Effective date: 20091221

Free format text: JAPANESE INTERMEDIATE CODE: A523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100119

A131 Notification of reasons for refusal

Effective date: 20100518

Free format text: JAPANESE INTERMEDIATE CODE: A131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100928