JPH01288814A - Automatic focusing device - Google Patents

Automatic focusing device

Info

Publication number
JPH01288814A
JPH01288814A JP11881988A JP11881988A JPH01288814A JP H01288814 A JPH01288814 A JP H01288814A JP 11881988 A JP11881988 A JP 11881988A JP 11881988 A JP11881988 A JP 11881988A JP H01288814 A JPH01288814 A JP H01288814A
Authority
JP
Japan
Prior art keywords
lens
prediction
determined
focus
subroutine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11881988A
Other languages
Japanese (ja)
Inventor
Masaki Higashihara
東原 正樹
Ichiro Onuki
一朗 大貫
Akira Akashi
明石 彰
Terutake Kadohara
輝岳 門原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP11881988A priority Critical patent/JPH01288814A/en
Publication of JPH01288814A publication Critical patent/JPH01288814A/en
Pending legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PURPOSE:To execute a focusing display even by a focusing device for executing a predictive operation by providing a prediction propriety deciding means and executing the focusing display immediately when it has been decided to be a followable object to be photographed by a prediction processing. CONSTITUTION:A prediction arithmetic circuit for deriving an image face position of an object to be phototraphed after a prescribed time, based on the defocus quantity DEF which has been derived by a focus detecting circuit plural times in the past, and is prescribed prediction propriety deciding circuit are provided in a controller PRS. In this state, in the prediction propriety deciding circuit, when it has been decided that correct focusing can be executed by driving a lens to the image face position, lighting of a focusing display is executed immediately by a light emission diode LED through a display use driving circuit DDR. Accordingly, by executing a follow-up correction, it can be eliminated to decide to be non-focusing in spite of a fact that the follow-up to the object to be photographed is executed exactly.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明はカメラ等に用いられる自動焦点調節装置に関す
るものである。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an automatic focus adjustment device used in cameras and the like.

〔従来の技術〕[Conventional technology]

従来、−眼レフ・カメラの自動焦点調節方式の多(は「
焦点検出(センサ信号入力、焦点検出演算)、レンズ駆
動」のサイクルを繰り返し行うことによって、被写体に
ピントを合わせようとするものである。
Conventionally, many automatic focus adjustment methods for eye reflex cameras (
By repeating the cycle of focus detection (sensor signal input, focus detection calculation), and lens drive, it is possible to bring the subject into focus.

この様な従来装置ではレンズ駆動後の焦点検出にて求め
られたデフォーカス量がゼロの時に合焦と判定している
In such conventional devices, in-focus is determined when the amount of defocus determined by focus detection after driving the lens is zero.

但し、実際の撮影時においては、撮影レンズが正確に合
焦位置に来る必要はなく(デフォーカス量ゼロとなる必
要はなく)、レンズの開放Fナンバーや撮影時の絞り値
から、ピントのズレ量(デフオー力刈1が許容量(像面
深度)以下であれば合焦とみなせるので、前記合焦位置
は一点ではな(、幅を有する合焦ゾーンとして与えられ
、前記焦点検出手段によって検出されたデフォーカス量
が合焦ゾーン内にあれば合焦と判断し、合焦表示を行っ
ていた。
However, during actual shooting, it is not necessary for the shooting lens to come to the exact in-focus position (there is no need for the amount of defocus to be zero), and the focus may vary depending on the lens's open F number and the aperture value at the time of shooting. If the amount (default force cutting 1) is less than or equal to the allowable amount (field depth), it can be considered that the focus is in focus. If the defocus amount is within the in-focus zone, it is determined that the camera is in focus, and an in-focus display is performed.

又、従来、装置は上記の如(「焦点検出(センサ信号入
力、焦点検出演算)、レンズ駆動」のサイクルを繰り返
し行うことによって、被写体にピントを合わせようとす
るものであり、各サイクルにおけるレンズ駆動量はその
サイクルで焦点検出を行った時点でのデフォーカス量に
基づいており、これはレンズ駆動終了時に焦点検出時の
デフォーカス量が解消されることを期待している。
Furthermore, conventional devices try to focus on the subject by repeating the cycle of "focus detection (sensor signal input, focus detection calculation), lens drive" as described above, and the lens changes in each cycle. The amount of drive is based on the amount of defocus at the time of focus detection in that cycle, and it is expected that the amount of defocus at the time of focus detection will be eliminated when the lens drive is completed.

従って、当然のことながら、焦点検出、レンズ駆動には
それ相当の時間を必要とするわけであるので、動きの大
きな被写体の場合には、焦点検出。
Therefore, as a matter of course, a considerable amount of time is required for focus detection and lens driving, so focus detection is necessary in the case of a subject with large movements.

レンズ駆動中にデフォーカス量が変化し、前記解消すべ
きデフォーカス量と検出デフォーカス量が著しく異なる
ことがあり、結果として、レンズ駆動終了時に被写体に
ピントが合っていないという問題になる。
The amount of defocus changes during lens driving, and the defocus amount to be eliminated and the detected defocus amount may be significantly different, resulting in a problem that the subject is out of focus when the lens driving ends.

上記問題の解決を目的とした自動焦点調節方法として、
本出願人は特願昭62−328233号を提案している
。該提案にて示される方法の要旨は、上記各サイクルに
おける検出デフォーカス変化と各サイクルの時間間隔を
鑑みて、被写体の移動に起因するデフォーカス変化を予
測してレンズ駆動量に補正をかけようとするもの(以下
追従補正と称す。)であり、レンズの駆動終了時のピン
ト精度という見地からは、同方法により上記問題の改善
が期待される。
As an automatic focusing method aimed at solving the above problem,
The present applicant has proposed Japanese Patent Application No. 62-328233. The gist of the method presented in this proposal is to predict the defocus change caused by the movement of the subject and correct the lens drive amount, taking into consideration the detected defocus change in each cycle and the time interval of each cycle. (hereinafter referred to as follow-up correction), and from the viewpoint of focusing accuracy at the end of lens driving, this method is expected to improve the above problem.

しかしながら、前記追従補正を実際に行った場合、次の
ような問題が生じてくる。
However, when the tracking correction is actually performed, the following problem arises.

以下、図面を用いて、上記追従補正の動作について説明
する。
The operation of the tracking correction described above will be described below with reference to the drawings.

第2図は追従補正によるレンズ駆動方法を説明するため
の図である。図中の横軸は時刻t、縦軸は被写体の像面
位置Xを表わしている。
FIG. 2 is a diagram for explaining a lens driving method using tracking correction. The horizontal axis in the figure represents time t, and the vertical axis represents the image plane position X of the subject.

実線で表わした曲線x(t)は撮影レンズが無限遠にあ
るときに、カメラに対して光軸方向に接近してくる被写
体の時刻tにおける像面位置を意味している。破線で表
わした2(1)は時刻tにおける撮影レンズ位置を意味
しており、x(t )と1!(1)が一致したときに合
焦となる。そして[t+、t+’]が焦点検出動作、[
t+’ 、 t+++ ]がレンズ駆駆動量である。
The curve x(t) represented by a solid line indicates the image plane position at time t of a subject approaching the camera in the optical axis direction when the photographing lens is at infinity. 2(1) represented by a broken line means the photographing lens position at time t, and x(t ) and 1! When (1) matches, the image is in focus. And [t+, t+'] is the focus detection operation, [
t+', t+++] is the lens drive amount.

また、同図に示した従来例では、像面位置が2次関数に
従って変化するという仮定をおいている。即ち、時刻t
3において現在および過去3回の像面位置(t、 +X
l ) (tz lX2 ) (t31X3 )がわか
れば、上記式x(t) =at”+bt+cに基づき、
時刻t3よりTL (AFタイムラグ+レリーズタイム
ラグ)後の時刻t4での像面位置X4が予測できるもの
である。
Further, in the conventional example shown in the figure, it is assumed that the image plane position changes according to a quadratic function. That is, time t
3, the current and past three image plane positions (t, +X
l ) (tz lX2 ) (t31X3 ), based on the above formula x(t) =at''+bt+c,
The image plane position X4 at time t4, which is TL (AF time lag+release time lag) after time t3, can be predicted.

ところが、実際にカメラに検知し得るのは像面位置XI
 + x2+ x3ではなく、デフォーカス量DF、。
However, what can actually be detected by the camera is image plane position XI.
+x2+x3, but the defocus amount DF.

DF2.DF3ならびに、像面移動量換算のレンズ駆動
fl D L 1r  D L2である。そして時刻t
4はあくまで将来の値であり、実際には、被写体輝度に
よって蓄積型のセンサの蓄積時間が変化すると、それに
伴って変化する値であるが、ここでは簡単のため、次の
ように仮定する。
DF2. DF3 and lens drive fl D L 1r D L2 in terms of image plane movement amount. and time t
4 is just a future value, and in reality, it is a value that changes as the storage time of the storage type sensor changes depending on the subject brightness, but for simplicity, it is assumed as follows.

t4二t3 =TL=TM2+(レリーズタイムラグ)
  (1)以上の仮定の下に、時間t3での焦点検出結
果から算出されたレンズ駆動量DL3は以下のように求
まる。
t4 2 t3 = TL = TM2 + (release time lag)
(1) Under the above assumptions, the lens drive amount DL3 calculated from the focus detection result at time t3 is determined as follows.

x(t)=at2+bt+c           (
2)そして、図中の(till!I)を原点と考えると
、t、 =Q       Xl ==I)F’、  
      (3)tz =TM 1x2 :I)F2
+ DLl    (4)t3=TM1+TM2   
x3=DF3+DL1+DL2(5)(2)式に(3)
、(4)、(5)式を代入してa、  b。
x(t)=at2+bt+c (
2) Then, considering (till!I) in the figure as the origin, t, =Q Xl ==I)F',
(3) tz = TM 1x2 :I) F2
+ DLl (4) t3=TM1+TM2
x3=DF3+DL1+DL2 (5) (2) and (3)
, (4), and (5) to obtain a, b.

Cを求めると、 c=DF、                  (8
)よって時刻t4における像面移動量換算のレンズ駆動
fiDL3は、 DL3=x4−13 = x 4−x 3 +DF 3 =a [(TM、+TM2+TL)’−(TM、+TM
2)”1+b−TL+I)F、     (9)のよう
に求まる。
When calculating C, c=DF, (8
) Therefore, the lens drive fiDL3 converted to the amount of image plane movement at time t4 is: DL3=x4-13=x4-x3+DF3=a[(TM,+TM2+TL)'-(TM,+TM
2)"1+b-TL+I)F, calculated as (9).

上記、演算結果に基づいたレンズ駆動を行った場合、レ
ンズは第3図のように制御される。
When the lens is driven based on the above calculation results, the lens is controlled as shown in FIG. 3.

即ち、該方法ではAFタイムラグ+レリーズタイムラグ
を考慮し、このタイムラグによる遅れをあらかじめ補正
しながらレンズを駆動するため、゛レンズはレリーズタ
イムラグ分像面位置に対して先行した位置へ駆動され、
レンズ駆動終了時には、レリーズタイムラグによって発
生する追従遅れ量DFだけレンズが先行した状態となる
。すなわち、レンズ駆動終了後に測距すると、デフォー
カス量DFが検出される。
That is, in this method, the lens is driven while taking into account the AF time lag + release time lag and correcting the delay due to this time lag in advance.
At the end of lens driving, the lens is in a state in which it is ahead by the amount of follow-up delay DF caused by the release time lag. That is, when distance measurement is performed after lens driving is completed, the defocus amount DF is detected.

〔発明が解決しようとしている問題点〕このように、動
(被写体に対して、上述の追従補正を行うと、常にレリ
ーズタイムラグ間に変化するピント移動量だけデフォー
カスした状態で測距を行うため、従来のような合焦判定
、すなわち、検出されたデフォーカス量が所定の像面深
度(合焦範囲)内であれば合焦状態であると判定するよ
うな方式では、正確に被写体に追従しているにもかかわ
らず、非合焦と判断してしまうという問題が発生する。
[Problem to be solved by the invention] In this way, when the above-mentioned tracking correction is performed on a moving subject, distance measurement is always performed with the focus being defocused by the amount of focus movement that changes during the release time lag. , the conventional method of determining focus, that is, determining that the camera is in focus if the detected amount of defocus is within a predetermined depth of field (focusing range), cannot accurately track the subject. The problem arises that it is determined that the camera is out of focus even though the camera is in focus.

〔問題点を解決するための手段〕[Means for solving problems]

本発明は上記事項に鑑み、予測可否判定手段を設け、上
記予測処理によるレンズ駆動を行うことが出来る被写体
、即ち予測処理にて従追可能な被写体であると判定され
た場合に直ちに合焦表示を行う様なし、上記予測処理に
てレンズ駆動を行う型式の焦点調節装置にあっても合焦
表示を可能ならしめたものである。
In view of the above, the present invention provides a means for determining whether prediction is possible, and immediately displays an in-focus display when it is determined that the subject is one for which the lens can be driven by the prediction process, that is, a subject that can be tracked by the prediction process. Even in a focus adjustment device of the type that drives the lens through the above-mentioned prediction processing, the in-focus display is made possible.

即ち、上記予測演算にて求められたレンズ駆動にてレリ
ーズタイムラグ後の像面位置とレンズ位置とが一致可能
な状態の時には、その時点でのデフォーカス量が大であ
ろうとも合焦表示を行わせ、上記の問題を解決したもの
である。
In other words, when the image plane position after the release time lag and the lens position can match with the lens drive determined by the above prediction calculation, the in-focus display is performed even if the amount of defocus at that point is large. This solves the above problem.

〔実施例〕〔Example〕

第4図は本発明に関わる自動焦点装置を備えたカメラの
実施例を示す回路図である。
FIG. 4 is a circuit diagram showing an embodiment of a camera equipped with an automatic focusing device according to the present invention.

図においてPH1はカメラの制御装置で、例えば内部に
CPU (中央処理装置)、ROM、RAM。
In the figure, PH1 is a camera control device, which includes, for example, a CPU (central processing unit), ROM, and RAM.

A/D変換機能を有する1チツプ・マイクロコンピュー
タである。コンピュータPR8はROMに格納されたカ
メラのシーケンス・プログラムに従って、自動露出制御
機能、自動焦点検出機能、フィルムの巻き上げ等のカメ
ラの一連の動作を行う。そのために、PH1は同期式通
信用信号So、SI、5CLK、通信選択信号CLCM
、C3DR,CDDRを用いて、カメラ本体内の周辺回
路およびレンズと通信して、各々の回路やレンズの動作
を制御する。
It is a 1-chip microcomputer with A/D conversion function. The computer PR8 performs a series of camera operations such as automatic exposure control function, automatic focus detection function, and film winding according to the camera sequence program stored in the ROM. For this purpose, PH1 is the synchronous communication signal So, SI, 5CLK, communication selection signal CLCM.
, C3DR, and CDDR to communicate with peripheral circuits and lenses within the camera body and control the operations of each circuit and lens.

SOはコンピュータPR8から出力されるデータ信号、
SIはコンピュータPR3へ入力されるデータ信号、5
CLKは信号so、  srの同期クロックである。
SO is a data signal output from computer PR8,
SI is a data signal input to computer PR3, 5
CLK is a synchronization clock for signals so and sr.

LCMはレンズ通信バッファ回路であり、カメラが動作
中のときにはレンズ用電源端子に電力を供給すると共に
、コンピュータPR3からの選択信号CLCMが高電位
レベル(以下゛H゛と略記する)のときにはカメラとレ
ンズ間通信バッファとなる。
LCM is a lens communication buffer circuit, which supplies power to the lens power supply terminal when the camera is in operation, and when the selection signal CLCM from the computer PR3 is at a high potential level (hereinafter abbreviated as "H"), it supplies power to the lens communication buffer circuit. Serves as an inter-lens communication buffer.

即ち、コンピュータPRSがCLCMをH゛にして、5
CLKに同期して所定のデータをSOから送出すると、
LCMはカメラ・レンズ間接点を介して、5CLK、S
oの各々のバッファ信号LCK、DCLをレンズへ出力
する。それと同時にレンズからの信号DLCのバッファ
信号をSIとして出力し、コンピュータPR3は5CL
Kに同期して上記SIをレンズからのデータとして入力
する。
That is, the computer PRS sets CLCM to H, and 5
When predetermined data is sent from SO in synchronization with CLK,
LCM connects 5CLK and S via the camera-lens interface.
The buffer signals LCK and DCL of o are output to the lens. At the same time, the buffer signal of the signal DLC from the lens is output as SI, and the computer PR3 outputs the buffered signal as 5CL.
In synchronization with K, the above SI is input as data from the lens.

SDRはCCD等から構成され、る焦点検出用のライン
センサ装置SNSの駆動回路であり、信号C3DRがH
′のとき選択されて、So、SI、5CLKを用いてP
H1から制御される。
The SDR is a drive circuit for the line sensor device SNS for focus detection, which is composed of a CCD, etc., and the signal C3DR is H.
', and P is selected using So, SI, and 5CLK.
Controlled from H1.

信号CKはCOD駆動用クロりクφ1.φ2を生成する
ためのタロツクであり、信号INTENDは蓄積動作が
終了したことをPH1へ知らせる信号である。
The signal CK is the COD drive clock φ1. The signal INTEND is a tarokk for generating φ2, and the signal INTEND is a signal that notifies PH1 that the accumulation operation has been completed.

SNSの出力信号O8はクロックφ1.φ2に同期した
時系列の像信号であり、SDR内の増幅回路で増幅され
た後、AOSとしてコンピュータPR3に出力される。
The output signal O8 of the SNS is the clock φ1. It is a time-series image signal synchronized with φ2, and after being amplified by the amplifier circuit in the SDR, it is output to the computer PR3 as an AOS.

コンピュータPR3はAOSをアナログ入力端子から入
力し、CKに同期して、内部のA/D変換機能でA/D
変換後、RAMの所定のアドレスに順次格納する。
Computer PR3 inputs AOS from the analog input terminal, synchronizes with CK, and converts A/D using the internal A/D conversion function.
After conversion, the data is sequentially stored at a predetermined address in RAM.

同じくセンサ装置SNSの出力信号である5AGCは、
センサ装置SNS内のAGC(自動利得制御:Aut。
5AGC, which is also the output signal of the sensor device SNS, is
AGC (automatic gain control: Aut) in the sensor device SNS.

Ga1n  Control)用センサの出力であり、
駆動回路SDRに入力されてセンサ装置SNSでの像信
号蓄積制御に用いられる。
It is the output of the sensor for Ga1n Control),
The signal is input to the drive circuit SDR and used for image signal accumulation control in the sensor device SNS.

SPCは撮影レンズを介した被写体からの光を受光する
露出制御用の測光センサであり、その出力5SPCはコ
ンピュータPR3のアナログ入力端子に入力され、A/
D変換後、所定のプログラムに従って自動露出制御(A
E)に用いられる。
SPC is a photometric sensor for exposure control that receives light from the subject through the photographic lens, and its output 5SPC is input to the analog input terminal of computer PR3, and
After D conversion, automatic exposure control (A
E).

DDRはスイッチ検知および表示用回路であり、信号C
DDRがH′のとき選択されて、So、 SI。
DDR is a switch detection and display circuit, and the signal C
Selected when DDR is H', So, SI.

5CLKを用いてPRSから制御される。即ち、PRS
から送られてくるデータに基づいてカメラの表示部材D
SPの表示を切り替えたり、カメラの各種操作部材のオ
ン・オフ状態を通信によってコンピュータPR3へ報知
する。
Controlled from PRS using 5CLK. That is, PRS
Display member D of the camera based on the data sent from
The display of the SP is switched and the on/off status of various operating members of the camera is notified to the computer PR3 by communication.

LEDは表示部材DSPの一例として合焦表示又は非合
焦表示売行う発光ダイオードで、合焦・非合焦を点灯及
び点滅にて表示する。
The LED is a light emitting diode that serves as an example of a display member DSP to indicate in-focus or out-of-focus, and indicates in-focus or out-of-focus by lighting or blinking.

スイッチSWI、SW2は不図示のレリーズボタンに連
動したスイッチで、レリーズボタンの第1段階の押下に
よりSWlがオンし、引き続いて第2段階までの押下で
SW2がオンする。コンピュータPR3は後述するよう
に、SWIオンで測光、自動焦点調節動作を行い、SW
2オンをトリがとして露出制御とフィルムの巻き上げを
行う。尚、SW2はマイクロコンピュータPR3の「割
込み入力端子」に接続され、SW1オン時のプログラム
実行中でもSW2オンによって割込みがかかり、直ちに
所定の割込みプログラムへ移行することが出来る。
The switches SWI and SW2 are switches that are linked to a release button (not shown), and when the release button is pressed to the first stage, SW1 is turned on, and when the release button is pressed to the second stage, SW2 is turned on. As will be described later, the computer PR3 performs photometry and automatic focus adjustment when the SWI is turned on, and
2-on is used as a trigger to control exposure and advance the film. Note that SW2 is connected to the "interrupt input terminal" of the microcomputer PR3, and even if a program is being executed when SW1 is on, an interrupt is generated by turning on SW2, and the program can immediately proceed to a predetermined interrupt program.

MTRIはフィルム給送用、MTR2はミラーアップ・
ダウンおよびシャッタはねチャージ用のモータであり、
各々の駆動回路MDRI、MDR2により正転・逆転の
制御が行われる。PRSからMDRI。
MTRI is for film feeding, MTR2 is for mirror up/
It is a motor for down and shutter spring charging,
Forward rotation/reverse rotation control is performed by each of the drive circuits MDRI and MDR2. PRS to MDRI.

MDR2に入力されている信号MIF、MIR,M2F
Signals MIF, MIR, M2F input to MDR2
.

M2Rはモータ制御用の信号である。M2R is a signal for motor control.

MCI、MG2は各々シャッタ先幕・後幕走行開始用マ
グネットで、信号SMGI、5MG2、増幅トランジス
タTRI、TR2で通電され、PRSによりシャッタ制
御が行われる。
MCI and MG2 are magnets for starting the running of the front and rear shutter curtains, respectively, and are energized by signals SMGI, 5MG2, and amplification transistors TRI and TR2, and shutter control is performed by PRS.

尚、スイッチ検知および表示用回路DDR,モータ駆動
回路MDRI、MDR2、シャッタ制御は、本発明と直
接間わりがないので、詳しい説明は省略する。
Note that the switch detection and display circuit DDR, motor drive circuits MDRI and MDR2, and shutter control are not directly related to the present invention, so detailed explanations thereof will be omitted.

レンズ内制御回路LPR3にLCKに同期して入力され
る信号DCLは、カメラからレンズFLNSに対する命
令のデータであり、命令に対するレンズの動作が予め決
められている。
The signal DCL input to the in-lens control circuit LPR3 in synchronization with LCK is data of a command from the camera to the lens FLNS, and the operation of the lens in response to the command is determined in advance.

LPR5は、所定の手続きに従ってその命令を解析し、
焦点調節や絞り制御の動作や、出力DLCからのレンズ
の各種パラメータ(開放Fナンバー。
LPR5 analyzes the instruction according to a predetermined procedure,
Focus adjustment and aperture control operations, as well as various lens parameters (open F number) from the output DLC.

焦点距離、デフォーカス量対繰り出し量の係数等)の出
力を行う。
(focal length, defocus amount vs. extension amount coefficient, etc.).

実施例では、ズームレンズの例を示しており、カメラか
ら焦点調節の命令が送られた場合には、同時に送られて
くる駆動量・方向に従って、焦点調節用モータLMTR
を信号LMF、LMRによって駆動して、光学系を光軸
方向移動させて焦点調節を行う。光学系の移動量はエン
コーダ回路ENCFのパルス信号5ENCFでモニター
して、LPR3内のカウンタで計数しており、所定の移
動が完了した時点で、LPR3自身が信号LMF、LM
Rを′L″にしてモータLMTRを制動する。
In the embodiment, an example of a zoom lens is shown, and when a focus adjustment command is sent from a camera, the focus adjustment motor LMTR is activated according to the driving amount and direction sent at the same time.
is driven by signals LMF and LMR to move the optical system in the optical axis direction and perform focus adjustment. The amount of movement of the optical system is monitored by the pulse signal 5ENCF of the encoder circuit ENCF and counted by a counter in the LPR3, and when the predetermined movement is completed, the LPR3 itself outputs the signals LMF and LM.
Set R to 'L' to brake motor LMTR.

このため、−旦カメラから焦点調節の命令が送られた後
は、カメラ内の制御装置PR3はレンズの駆動が終了す
るまで、レンズ駆動に関して全く関与する必要がない。
Therefore, once the focus adjustment command is sent from the camera, the control device PR3 within the camera does not need to be involved in lens driving at all until the lens driving is completed.

又、カメラから絞り制御の命令が送られた場合には、同
時に送られて(る絞り段数に従って、絞・り駆動用とし
ては公知のステッピング・モータDMTRを駆動する。
Further, when an aperture control command is sent from the camera, it is sent at the same time (according to the number of aperture stages), a stepping motor DMTR, which is known for driving the aperture, is driven.

尚、ステッピング・モータはオープン制御が可能なため
、動作をモニターするためのエンコーダを必要としない
Note that since the stepping motor can be controlled in an open manner, it does not require an encoder to monitor its operation.

ENCZはズーム光学系に付随したエンコーダ回路であ
り、レンズ内制御回路LPR3はエンコーダ回路ENC
Zからの信号5ENCZを入力してズーム位置を検出す
る。レンズ内制御回路LPR3内には各ズーム位置にお
けるレンズパラメータが格納されており、カメラ側のコ
ンピュータPR3から要求があった場合には、現在のズ
ーム位置に対応したパラメータをカメラへ送出する。
ENCZ is an encoder circuit attached to the zoom optical system, and the in-lens control circuit LPR3 is the encoder circuit ENC.
The zoom position is detected by inputting the signal 5ENCZ from Z. Lens parameters at each zoom position are stored in the in-lens control circuit LPR3, and when requested by the camera-side computer PR3, the parameters corresponding to the current zoom position are sent to the camera.

上記構成によるカメラの動作について第5図以下のフロ
ーチャートに従って説明する。
The operation of the camera with the above configuration will be explained according to the flowcharts shown in FIG. 5 and subsequent figures.

不図示の電源スィッチがオンとなると、マイクロコンピ
ュータPR3への給電が開始され、コンピュータPRS
はROMに格納されたシーケンスプログラムの実行を開
始する。
When the power switch (not shown) is turned on, power supply to the microcomputer PR3 is started, and the computer PRS
starts executing the sequence program stored in the ROM.

第5図は上記プログラムの全体の流れを表わすフローチ
ャートである。上記操作にてプログラムの実行が開始さ
れると、ステップ(001)を経て、ステップ(002
)においてレリーズボタンの第1段階押下によりオンと
なるスイッチSWIの状態検知がなされ、SWIオフの
ときにはステップ(003)へ移行して、コンピュータ
PRS内のRAMに設定されている制御用のフラグ、変
数を全てクリアし、初期化する。
FIG. 5 is a flow chart showing the overall flow of the above program. When the program execution starts with the above operation, it passes through step (001) and then step (002).
), the state of the switch SWI, which is turned on by pressing the first step of the release button, is detected, and when the SWI is off, the process moves to step (003), and control flags and variables set in the RAM in the computer PRS are detected. Clear all and initialize.

上記ステップ(002)、(003)はスイッチSWI
がオンとなるか、あるいは電源スィッチがオフとなるま
でくり返し実行される。SWIがオンすることによりス
テップ(002)からステップ(005)へ移行する。
The above steps (002) and (003) are the switch SWI
It will run repeatedly until it is turned on or the power switch is turned off. When SWI is turned on, the process moves from step (002) to step (005).

ステップ(005)では露出制御のための「測光」サブ
ルーチンを実行する。コンピュータPR3は第4図に示
した測光用センサSPCの出力5spcをアナログ入力
端子に入力し、A/D変換を行って、そのディジタル測
光値から最適なシャッタ制御値。
In step (005), a "photometering" subroutine for exposure control is executed. The computer PR3 inputs the output 5 spc of the photometric sensor SPC shown in FIG. 4 to an analog input terminal, performs A/D conversion, and obtains an optimal shutter control value from the digital photometric value.

絞り制御値を演算して、RAMの所定アドレスへ格納す
る。そして、レリーズ動作時にはこれら値に基づいてシ
ャッタおよび絞りの制御を行う。
The aperture control value is calculated and stored at a predetermined address in the RAM. During the release operation, the shutter and aperture are controlled based on these values.

続いてステップ(006)で「像信号人力」サブルーチ
ンを実行する。このサブルーチンのフローは第6図に示
しているが、コンピュータPR3は焦点検出用センサ装
置SNSから像信号の入力を行う。
Subsequently, in step (006), the "image signal manual input" subroutine is executed. The flow of this subroutine is shown in FIG. 6, and the computer PR3 inputs an image signal from the focus detection sensor device SNS.

詳細は後述する。Details will be described later.

次のステップ(007)で、入力した像信号に基づいて
撮影レンズのデフォーカス量DEFを演算する。具体的
な演算方法は本出願人によって特願昭61−16082
4号公報等に開示されているので詳細な説明は省略する
In the next step (007), the defocus amount DEF of the photographing lens is calculated based on the input image signal. The specific calculation method is disclosed in Japanese Patent Application No. 61-16082 by the applicant.
Since it is disclosed in Publication No. 4 etc., detailed explanation will be omitted.

ステップ(008)では「予測演算」サブルーチンを実
行する。この「予測演算」サブルーチンではレンズ駆動
量の補正を行うものであり、詳細は後述する。
In step (008), a "prediction calculation" subroutine is executed. This "prediction calculation" subroutine corrects the lens drive amount, and details will be described later.

次のステップ(009)では「レンズ駆動」サブルーチ
ンを実行し、先のステップ(008)で補正されたレン
ズ駆動量に基づいてレンズ駆動を行う。
In the next step (009), a "lens drive" subroutine is executed, and the lens is driven based on the lens drive amount corrected in the previous step (008).

この「レンズ駆動」サブルーチンは第7図にそのフロー
を示している。レンズ駆動終了後は再びステップ(00
2)へ移動して、SWlがオフか不図示のレリーズスイ
ッチの第2ストロークSW2がオンするまで、ステップ
(005)〜(009)がくり返して実行され、動いて
いる被写体に対しても好ましい焦点調節が行われる。
The flow of this "lens drive" subroutine is shown in FIG. After the lens drive is completed, the step (00
2), and steps (005) to (009) are repeatedly executed until SWl is turned off or the second stroke SW2 of the release switch (not shown) is turned on, thereby achieving a preferable focus even for a moving subject. Adjustments are made.

、さて、レリーズボタンがさらに押しこまれてスイッチ
SW2がオンすると、割込み機能によって、いずれのス
テップにあっても直ちにステ゛ンフ(010)へ移行し
てレリーズ動作を開始する。
Now, when the release button is pressed further and the switch SW2 is turned on, the interrupt function immediately shifts to step (010) and starts the release operation, regardless of which step it is in.

ステップ(011)ではレンズ駆動を実行中かどうか判
別し、駆動中であれば、ステ゛ンプ(012)に移行し
、レンズ駆動停止命令を送出し、レンズを停止させ、ス
テップ(013)に進み、レンズを駆動していなければ
、直にステップ(013) lこ移行する。
In step (011), it is determined whether the lens is being driven. If it is, the process moves to step (012), where a lens drive stop command is sent to stop the lens, and the process moves to step (013), where the lens is stopped. If it is not being driven, the process immediately proceeds to step (013).

ステップ(013)ではカメラのクイックリターンミラ
ーのミラーアップを行う。これは、第4図番こ示したモ
ータ制御用信号M2F、M2Rを制御することで実行さ
れる。次のステップ(014)で(′!先のステップ(
005)の測光サブルーチンで既各こ格納されている絞
り制御値をSO倍信号して回路LCMを介してレンズ内
制御回路LPR3へ送出して絞り制御を行わせる。
In step (013), the quick return mirror of the camera is raised. This is executed by controlling the motor control signals M2F and M2R shown in FIG. In the next step (014) ('! Previous step (
In the photometry subroutine (005), the aperture control value already stored is multiplied by the SO signal and sent to the in-lens control circuit LPR3 via the circuit LCM to perform aperture control.

ステップ(013)、(014)のミラーアップと絞り
制御が完了したか否かはステップ(015)で検知する
わけであるが、ミラーアップはミラーに付随した不図示
の検知スイッチにて確認することが出来、絞り制御は、
レンズに対して所定の絞り値まで駆動したか否かを通信
で確認する。いずれかが未完了の場合には、このステッ
プで待機し、引き続き状態検知を行う。両者の制御終了
が確認されるとステップ(016)へ移行される。
Whether or not the mirror up and aperture control in steps (013) and (014) have been completed is detected in step (015), but mirror up must be confirmed with a detection switch (not shown) attached to the mirror. is possible, and the aperture control is
It is confirmed via communication whether the lens has been driven to a predetermined aperture value. If either one is not completed, the process waits at this step and continues to detect the status. When it is confirmed that both controls have been completed, the process moves to step (016).

ステップ(016)では先のステップ(005)の測光
サブルーチンで既に格納されているシャツタ秒時にてシ
ャッタの制御を行いフィルムを露光する。
In step (016), the shutter is controlled using the shutter speed already stored in the photometry subroutine of the previous step (005), and the film is exposed.

シャッタの制御が終了すると次のステップ(017)で
はレンズに対して、絞りを開放状態にするように命令を
前述の通信動作にて送り、引き続いてステップ(018
)でミラーダウンを行う。ミラーダウンはミラーアップ
と同様にモータ制御用信号M2F。
When the shutter control is completed, the next step (017) is to send a command to the lens to open the aperture using the communication operation described above, followed by step (018).
) to perform a mirror down. Mirror down is the same as mirror up using motor control signal M2F.

M2Rを用いてモータMTR2を制御することで実行さ
れる。
This is executed by controlling motor MTR2 using M2R.

次のステップ(019)ではステップ(015)と同様
にミラーダウンと絞り開放が完了するのを待つ、ミラー
ダウンと絞り開放制御がともに完了するとステップ(0
20)へ移行する。
In the next step (019), similarly to step (015), wait for the mirror down and aperture opening control to be completed.When both mirror down and aperture opening control are completed, step (019)
20).

ステップ(020)では第4図に示したモータ制御用信
号MIF、MIRを適正に制御することでフィルム1駒
分が巻上げられる。
In step (020), one frame of film is wound by appropriately controlling the motor control signals MIF and MIR shown in FIG.

以上が予測AFを実施したカメラの全体シーケンスであ
る。
The above is the entire sequence of the camera that performed predictive AF.

次に第6図に示した「像信号入力」サブルーチンについ
て説明する。
Next, the "image signal input" subroutine shown in FIG. 6 will be explained.

「像信号人力」は新たな焦点検出動作の最初に実行され
る動作であり、このサブルーチンがコールされると、ス
テップ(101)を経てステップ(102)にて、マイ
クロコンピュータPR3自身が有している自走タイマの
タイマ値TIMERをRAM上の記憶領域TNに格納す
ることによって、焦点検出動作の開始時刻を記憶してい
る。
"Image signal manual" is an operation executed at the beginning of a new focus detection operation, and when this subroutine is called, the process proceeds to step (101) and then to step (102). By storing the timer value TIMER of the self-running timer in the storage area TN on the RAM, the start time of the focus detection operation is stored.

次のステップ(103)では、レンズ駆動量補正式(6
)、(7)、(8)中の時間間隔をメモリするメモリT
M、、TM2の内容を更新する。
In the next step (103), the lens drive amount correction formula (6
), (7), and (8).
Update the contents of M, , TM2.

即ち、ステップ(103)ではメモリTN、にステップ
(102)にて検知された今回の焦点検出開始時刻TN
が入力されるので、次回該像信号入カサブルーチンが実
行された時には、TN、−TNが前回の焦点検出時間間
隔となる。よって、TM2←TN、−TNにてメモリT
M2に前回の時間間隔が、又、TM。
That is, in step (103), the memory TN stores the current focus detection start time TN detected in step (102).
is input, so the next time the image signal input subroutine is executed, TN and -TN become the previous focus detection time interval. Therefore, memory T at TM2←TN, -TN
The previous time interval is M2, and TM.

←TM2にてメモリTM、に前前回の時間間隔が格納さ
れる。この様にステップ(103)の実行にて式(6)
、(7)、(8)に用いるメモリTM、には常に前前回
の時間間隔が、TM2に前回の時間間隔がメモリされる
こととなる。
←The previous time interval is stored in the memory TM at TM2. In this way, by executing step (103), formula (6)
, (7) and (8), the previous time interval is always stored in memory TM, and TM2 is always stored with the previous time interval.

さて、次のステップ(104)でセンサ装置SNSに光
像の蓄積を開始させる。具体的にはマイクロコンピュー
タPRSがセンサ駆動回路SDRに通信にて「蓄積開始
コマンド」を送出して、これを受けて駆動回路SDRは
センサ装置SNSの光電変換素子部のクリア信号CLR
をL′にして電荷の蓄積を開始させる。
Now, in the next step (104), the sensor device SNS is caused to start accumulating optical images. Specifically, the microcomputer PRS sends an "accumulation start command" to the sensor drive circuit SDR via communication, and in response to this, the drive circuit SDR issues a clear signal CLR of the photoelectric conversion element section of the sensor device SNS.
is set to L' to start charge accumulation.

ステップ(105)では自走タイマのタイマ値を変数T
Iに格納して現在の時刻を記憶する。
In step (105), the timer value of the free-running timer is set as a variable T.
I to store the current time.

次のステップ(106)ではコンピュータPR3の入力
INTEND端子の状態を検知し、蓄積が終了したか否
かを調べる。センサ駆動回路SDRは蓄積開始と同時に
信号INTENDをL′にし、センサ装置SNSからの
AGC信号5AGCをモニターし、該5AGCが所定レ
ベルに達すると、信号INTENDをH′にし、同時に
電荷転送信号SHを所定時間′H′にして、光電変換素
子部の電荷をCCD部に転送させる構造を有している。
In the next step (106), the state of the input INTEND terminal of the computer PR3 is detected, and it is determined whether or not the storage has been completed. The sensor drive circuit SDR sets the signal INTEND to L' at the same time as the start of accumulation, monitors the AGC signal 5AGC from the sensor device SNS, and when the 5AGC reaches a predetermined level, sets the signal INTEND to H' and simultaneously sets the charge transfer signal SH. It has a structure in which the charge in the photoelectric conversion element section is transferred to the CCD section at a predetermined time 'H'.

ステップ(106)でINTEND端子がH゛ならば蓄
積が終了したということでステップ(110)へ移行し
、L′ならば未だ蓄積が終了していないということでス
テップ(107’)へ移行する。
In step (106), if the INTEND terminal is H, it means that the storage has been completed, and the process moves to step (110); if it is L', it means that the storage has not finished yet, and the process moves to step (107').

ステップ(107)では自走タイマのタイマ値TIME
Rから、ステップ(105)で記憶した時刻TIを減じ
て変数TEに格納する。従ってTHには蓄積開始してか
らここまでの時刻、いわゆる蓄積時間が格納されること
になる。次のステップ(108)ではTEと定数MAX
INTを比較し、TEがM A X I N’T未満な
らばステップ(106)へ戻り、再び蓄積終了待ちとな
る。TEがMAXINT以上になるとステツブ(109
)へ移行して、強制的に蓄積終了させる。
In step (107), the timer value TIME of the free-running timer is
The time TI stored in step (105) is subtracted from R and stored in the variable TE. Therefore, the time from the start of accumulation to this point, the so-called accumulation time, is stored in TH. In the next step (108), TE and constant MAX
INT is compared, and if TE is less than M A When TE becomes MAXINT or more, STEP (109
) and force the accumulation to end.

強制蓄積終了はコンピュータPR3から回路SDRへ「
蓄積終了コマンド」を送出することで実行される。SD
RはPH1から「蓄積終了コマンド」が送られると、電
荷転送信号SHを所定時間I Hlにして光電変換部の
電荷をCCD部へ転送させる。ステップ(109)まで
のフローでセンサの蓄積は終了することになる。
To complete the forced accumulation, send a message from computer PR3 to circuit SDR.
This is executed by sending the "accumulation end command". SD
When R receives the "accumulation end command" from PH1, it sets the charge transfer signal SH to IH1 for a predetermined period of time to transfer the charge in the photoelectric conversion section to the CCD section. The sensor accumulation ends in the flow up to step (109).

ステップ(110)ではセンサ装置SNSの像信号O8
をセンサ駆動回路SDRで増幅した信号AO3のA/D
変換およびそのディジタル信号のRAM格納を行う。よ
り詳しく述べるならば、SDRはPH1からのクロック
CKに同期してCOD駆動用クロりクφ1.φ2を生成
してセンサ装置SNSへ与え、センサ装置SNSはφl
、φ2によってCCD部が駆動され、CCD内の電荷は
、像信号として出力O8から時系列的に出力される。こ
の信号は駆動回路SDR内部の増巾器で増巾された後に
、AO3としてコンピュータPR3のアナログ入力端子
へ入力される。
In step (110), the image signal O8 of the sensor device SNS is
A/D of signal AO3 amplified by sensor drive circuit SDR
Performs conversion and stores the digital signal in RAM. To explain in more detail, the SDR uses the COD driving clock φ1. in synchronization with the clock CK from PH1. φ2 is generated and given to the sensor device SNS, and the sensor device SNS generates φl.
, φ2, and the charges in the CCD are output in time series from the output O8 as an image signal. After this signal is amplified by an amplifier inside the drive circuit SDR, it is input as AO3 to the analog input terminal of the computer PR3.

コンピュータPRSは自らが出力しているクロックCK
に同期してA/D変換を行い、A/D変換後のディジタ
ル像信号を順次RAMの所定アドレスに格納してゆ(。
The computer PRS outputs its own clock CK.
A/D conversion is performed in synchronization with , and the digital image signals after A/D conversion are sequentially stored at predetermined addresses in the RAM.

このようにして像信号の入力を終了するとステップ(1
11)にて「像信号入力」サブルーチンをリターンする
After inputting the image signal in this way, step (1
At step 11), the "image signal input" subroutine is returned.

第7図に「レンズ駆動」サブルーチンのフローチャート
を示す。
FIG. 7 shows a flowchart of the "lens drive" subroutine.

このサブルーチンが実行されると、ステップ(202)
においてレンズと通信して、2つのデータrsJ rP
THJを入力する。rSJは撮影レンズ固有の「デフォ
ーカス量対焦点調節レンズくり出し量の係数」であり、
例えば全体くり出し型の単レンズの場合には、撮影レン
ズ全体が焦点調節レンズであるからS=1であり、ズー
ムレンズの場合にはエンコーダENCZにて検知された
各ズーム位置に応じて制御回路LPR3にてSを決定す
る。rPTHJは焦点調節レンズLNSの光軸方向の移
動に連動したエンコーダENCFからの出力パルスlパ
ルス当たりの焦点調節レンズのくり出し量である。
When this subroutine is executed, step (202)
communicates with the lens at
Enter THJ. rSJ is the "coefficient of defocus amount versus focusing lens extension amount" specific to the photographic lens,
For example, in the case of a single lens that extends entirely, S=1 because the entire photographic lens is a focusing lens, and in the case of a zoom lens, the control circuit LPR3 is adjusted according to each zoom position detected by the encoder ENCZ. Determine S. rPTHJ is the amount of protrusion of the focusing lens per 1 output pulse from the encoder ENCF that is linked to the movement of the focusing lens LNS in the optical axis direction.

従って焦点調節すべきデフォーカス量DL、上記S、P
THにより焦点調節レンズのくり出し量をエンコーダの
出力パルス数に換算した値、いわゆるレンズ駆動量FP
は次式で与えられることになる。
Therefore, the defocus amount DL to be adjusted, the above S, P
The value obtained by converting the protrusion amount of the focusing lens into the number of output pulses of the encoder using TH, the so-called lens drive amount FP
is given by the following equation.

FP=DLXS/PTH ステップ(203)は上式をそのまま実行している。FP=DLXS/PTH Step (203) executes the above equation as is.

ステップ(204)ではステップ(203)で求めたF
Pをレンズに送出して焦点調節レンズ(全体くり出し型
単レンズの場合には撮影レンズ全体)の駆動を命令する
In step (204), F obtained in step (203)
P is sent to the lens to command the driving of the focusing lens (or the entire photographing lens in the case of a fully extending single lens).

次のステップ(206)で、レンズと通信してステップ
(206)で命令したレンズ駆動量FPの駆動が終了し
たか否かを検知し、駆動が終了するとステップ(206
)へ移行して「レンズ駆動」サブルーチンをリターンす
る。このレンズ駆動完了検知は上述の如く制御回路LP
R3内のカウンターで上記エンコーダENCFのパルス
信号をカウントしており、該カウント値が上記レンズ駆
動量FPと一致したか否かを上述の通信にて検知するこ
とで実行される。
In the next step (206), it is detected whether or not the driving of the lens driving amount FP commanded in step (206) is completed by communicating with the lens, and when the driving is completed, step (206)
) and return to the "lens drive" subroutine. This lens drive completion detection is performed by the control circuit LP as described above.
A counter in R3 counts the pulse signal of the encoder ENCF, and the process is executed by detecting whether or not the count value matches the lens drive amount FP through the above-mentioned communication.

次に「予測演算」サブルーチンのフローを第1図を用い
て説明する。第1図は「予測演算」サブルーチンのフロ
ーを示したものであり、予測演算の可否を判定し、予測
可能であれば、AFタイムラグとレリーズタイムラグを
考慮したレンズ駆動量を計算するものである。
Next, the flow of the "prediction calculation" subroutine will be explained using FIG. FIG. 1 shows the flow of the "prediction calculation" subroutine, in which it is determined whether prediction calculation is possible or not, and if prediction is possible, the lens drive amount is calculated in consideration of the AF time lag and release time lag.

ステップ(302)は、予測に必要なデータの蓄積がな
されたかどうかを判定するためのカウンターC0UNT
をカウントアツプするかどうかを判定する。
Step (302) is a counter C0UNT for determining whether data necessary for prediction has been accumulated.
Determine whether to count up or not.

本実施例では3回以上の測距データ・レンズ駆動データ
が蓄積されている場合、すなわちC0UNT>2であれ
ば予測演算可能であり、これ以上のカウントアツプは必
要ないので、C0UNT>2であればステップ(304
)へ進む。また、C0UNT<3であればステップ(3
03)でC0UNTをカウントアツプした後ステップ(
304)へ進む。
In this embodiment, if three or more distance measurement data and lens drive data have been accumulated, that is, if C0UNT>2, predictive calculation is possible, and no further count-up is necessary. Step (304
). Also, if C0UNT<3, step (3
After counting up C0UNT in step 03), step (
Proceed to 304).

ステップ(304)では、今回の予測演算のためのデー
タの更新を行っている。即ち予測演算は(6)。
In step (304), data for the current prediction calculation is updated. That is, the prediction calculation is (6).

(7)、(8)、(9)式に基づいて行われるため、そ
のデータとしては第2図における今回のデフォーカス量
DF3、前回及び前前回のデフォーカス量DF2゜DF
、、前回のレンズ駆動量DL1、今回のレンズ駆動量D
L2、前前回及び前回の時間間隔TM1゜1M2、見込
みタイムラグTLを必要とする。よってステップ(30
4)では焦点検出が行われるごとに今回検出されたデフ
ォーカス量DFをRAM上の記憶領域DF、に入力し、
前回のデフォーカス量を記憶領域DF2に、又前前回の
デフ−カス量を記憶領域DF、に入力し、更に前回の像
面移動量換算のレンズ駆動量DLを記憶領域DL2に、
前前回の像面移動量換算のレンズ駆動量DL、を記憶領
域DL1に入力し、各記憶領域のデータを今回の予測演
算に必要なデータに更新する。尚、前回のレンズ駆動量
DLは後述のステップ(316)にて求められた今回の
レンズ駆動量が次回の予測演算時に前回の駆動量データ
として用いられる。
Since it is performed based on equations (7), (8), and (9), the data includes the current defocus amount DF3 in Fig. 2, the previous and previous defocus amounts DF2゜DF
,, Previous lens drive amount DL1, Current lens drive amount D
L2, the previous and previous time intervals TM1°1M2, and the expected time lag TL are required. Therefore step (30
In 4), each time focus detection is performed, the currently detected defocus amount DF is input into the storage area DF on the RAM,
The previous defocus amount is input into the storage area DF2, the previous defocus amount is input into the storage area DF, and the previous lens drive amount DL converted to the image plane movement amount is input into the storage area DL2.
The lens drive amount DL converted from the previous image plane movement amount is input into the storage area DL1, and the data in each storage area is updated to the data necessary for the current prediction calculation. As for the previous lens drive amount DL, the current lens drive amount obtained in step (316), which will be described later, is used as the previous drive amount data at the time of the next prediction calculation.

ステップ(305)では、予測演算に必要なデータが上
記各記憶領域に入力されているか否かを判別する。上記
の如(、予測演算は今回、前回。
In step (305), it is determined whether data necessary for the prediction calculation has been input to each of the storage areas. As shown above (prediction calculation is done this time, last time.

前前回のデフォーカス量と前回、前前回のレンズ駆動量
を必要とし、過去3回以上の焦点調節動作が行われてい
ることを条件としている。よってステップ(303)に
て焦点調節動作が行われるごとにカウンターC0UNT
に+1を行い、カウンターに焦点調節動作が行われた回
数をカウントさせ、その回数が2より大きいか否か、即
ち3回以上の動作が行われたか否かを判別し、3回以上
行われ予測演算が可能な場合にはステップ(306)へ
、又、不可能な場合にはステップ(319)へ移行させ
る。
The previous defocus amount and the previous and previous lens drive amounts are required, and the condition is that the focus adjustment operation has been performed three or more times in the past. Therefore, each time a focus adjustment operation is performed in step (303), the counter C0UNT is
+1 is added to the counter, the counter counts the number of times the focus adjustment operation has been performed, and it is determined whether the number of times is greater than 2, that is, whether or not the operation has been performed three or more times. If the predictive calculation is possible, the process proceeds to step (306), and if it is not possible, the process proceeds to step (319).

ステップ(306)では、今回検出されたデフォーカス
量が予測に適しているかどうかについて「予測、非予測
判定」サブルーチンにて判定する。この「予測、非予測
判定」サブルーチンで予測に用いる上記記憶領域のデー
タが予測に適していないと判断された場合、ステップ(
307)へ移行し、予測に適していると判断された場合
にはステップ(312)へ進む。
In step (306), a "prediction/non-prediction determination" subroutine determines whether the defocus amount detected this time is suitable for prediction. If this "prediction/non-prediction determination" subroutine determines that the data in the storage area used for prediction is not suitable for prediction, step (
The process moves to step 307), and if it is determined that it is suitable for prediction, the process moves to step (312).

ステップ(306)で予測演算に適していないと判断さ
れ、ステップ(307)へ移行した場合には、すぐに予
測を禁止せずに再度測距を行い、それでも予測演算に適
していなければ、予測演算を禁止するようにしである。
If it is determined in step (306) that it is not suitable for prediction calculation and the process moves to step (307), distance measurement is performed again without prohibiting prediction immediately, and if it is still not suitable for prediction calculation, prediction is performed. It is designed to prohibit calculations.

これは動く被写体を撮影者が追う場合に、測距視野から
被写体がはずれて別の被写体を測距したり、別の被写体
が主被写体の手前を通過する際に測距してしまうと、本
来得られるべきデフォーカス量と違った値となってしま
い、これによって予測に適していないと判断されると、
再度、予測演算を行うためには過去3回以上の焦点調節
動作が必要であり、すぐに予測演算を再開することがで
きなくなる。
This is because when a photographer chases a moving subject, if the subject moves out of the range-finding field of view and range-finding is performed on another subject, or when another subject passes in front of the main subject. If the value is different from the defocus amount that should be obtained and it is determined that it is not suitable for prediction,
In order to perform the predictive calculation again, the focus adjustment operation must be performed three times or more in the past, and the predictive calculation cannot be restarted immediately.

そこで、本実施例では1度予測に適していないと判断さ
れても、ステップ(307)で再度「像信号人力2」サ
ブルーチンによって、像信号の取り込みを行う。このサ
ブルーチンについては後で説明する。このステップを終
了するとステップ(308)へ移行する。
Therefore, in this embodiment, even if it is once determined that the image signal is not suitable for prediction, the image signal is captured again by the "image signal manual input 2" subroutine in step (307). This subroutine will be explained later. When this step is completed, the process moves to step (308).

ステップ(308)ではステップ(307)で得られた
像信号を基に焦点検出演算を行い、デフォーカス量DF
を算出する。
In step (308), focus detection calculation is performed based on the image signal obtained in step (307), and the defocus amount DF is
Calculate.

次のステップ(309)では前回検出されたデフォーカ
ス量DF3が予測演算に適さないと判断されたので、こ
のDF3を今回検出されたデフォーカス量DFに更新し
ステップ(310)へ移行する。
In the next step (309), it is determined that the previously detected defocus amount DF3 is not suitable for the prediction calculation, so this DF3 is updated to the currently detected defocus amount DF, and the process moves to step (310).

ステップ(310)はステップ(306)と同じ「予測
、非予測判定」サブルーチンであり、予測演算に適した
データであると判断された場合にはステップ(311)
に進み、予測演算を行い、適していないと判断された場
合はステップ(319)へ移行し、予測演算を禁止する
Step (310) is the same "prediction/non-prediction determination" subroutine as step (306), and if it is determined that the data is suitable for prediction calculation, step (311) is performed.
The process proceeds to step (319), where a predictive calculation is performed, and if it is determined that it is not suitable, the process proceeds to step (319), and the predictive calculation is prohibited.

ステップ(319)では2回連続して予測に不適と判断
され、予測禁止(リセット)を行うために予測に必要な
データの蓄積状態を表わすカウンターC0UNTをO(
リセット)にする。
In step (319), it is determined that the prediction is unsuitable twice in a row, and in order to prohibit (reset) the prediction, the counter C0UNT representing the accumulation state of data necessary for the prediction is set to O(
reset).

次のステップ(320)では予測に不適すなわち正確な
追従補正が行えないと判断されたため、「予測NG表示
」を行う。ここで、NG表示方法としては、ファインダ
ー内のLEDの点滅によって撮影者に対して予測不能を
知らせる。
In the next step (320), it is determined that the prediction is unsuitable, that is, accurate tracking correction cannot be performed, so a "prediction NG display" is performed. Here, as an NG display method, the photographer is notified of the unpredictability by blinking the LED in the viewfinder.

そして、次のステップ(321)では予測演算を行わな
い場合のレンズ駆動量DLを計算する。ここでDLは従
来のサーボAFと同様にDL=DF (ステップ(30
8)にて求めたデフォーカス量)として計算している。
Then, in the next step (321), the lens drive amount DL when no predictive calculation is performed is calculated. Here, DL is similar to conventional servo AF, DL=DF (step (30
It is calculated as the defocus amount obtained in 8).

ステップ(311)では予測演算を行うのに必要な見込
みタイムラグTLを演算するが、このときの見込みAF
タイムラグ(焦点検出及びレンズ駆動に要する時間)は
、1M2ではな(TM、とTR(レリーズタイムラグ)
の和を用いる。これは前回の焦点検出から今回の焦点検
出までの時間TM2では2回測距を行っているため、実
際に予測される今回のAFタイムラグより太き(見積っ
てしまう。そこで、本実施例では前前回の焦点検出から
前回の焦点検出までの時間TM、を用いた。このステッ
プを終了するとステップ(313)へ移行する。尚、ス
テップ(311)でのTLは(TM2+TM2)/2+
TRでも良い。
In step (311), the expected time lag TL necessary for performing the predictive calculation is calculated, but at this time, the expected AF
The time lag (time required for focus detection and lens drive) is not 1M2 (TM, TR (release time lag)).
Use the sum of Since distance measurement is performed twice in the time TM2 from the previous focus detection to the current focus detection, this is longer than the actual predicted current AF time lag (estimated). The time TM from the previous focus detection to the previous focus detection was used.When this step is completed, the process moves to step (313).In addition, TL in step (311) is (TM2+TM2)/2+
TR is also fine.

又、ステップ(306)で予測可能と判断されステップ
(312)へ移行した場合には、ステップ(312)で
見込みタイムラグTLの計算を行う。記憶領域TM2に
は前述の如(、前回から今回の焦点検出動作までの時間
が記憶されており、今回の焦点調節に要する時間も1M
2と一致しているものとの仮定のもとてタイムラグTL
=TM2+TRを求める。
If it is determined in step (306) that prediction is possible and the process moves to step (312), the expected time lag TL is calculated in step (312). As mentioned above, the storage area TM2 stores the time from the previous focus detection operation to the current focus detection operation, and the time required for the current focus adjustment is also 1M.
The time lag TL is based on the assumption that it is consistent with 2.
Find =TM2+TR.

次のステップ(313)では、前記予測判定手段により
、予測可能と判断され、正確な追従補正が可能であると
して、合焦表示を行う。ここで、合焦表示としては、フ
ァインダー内のLEDを点灯させ、撮影者に追従補正が
正確に行われていることを知らせる。
In the next step (313), the prediction determination means determines that prediction is possible and that accurate follow-up correction is possible, so that an in-focus display is performed. Here, as an in-focus display, an LED in the finder is turned on to notify the photographer that tracking correction is being performed accurately.

次のステップ(314)、  (315)では各記憶領
域DF、〜DF、、DL、、DL2.TM、、1M2に
格納されたデータに基づき、(6)、(7)式のa、 
b項を表わすA、  Bを求め、ステップ(316)へ
移行する。
In the next steps (314) and (315), each storage area DF, ~DF, DL, DL2. Based on the data stored in TM, 1M2, a in equations (6) and (7),
A and B representing the b term are determined, and the process moves to step (316).

ステップ(316)では各記憶手段のデータ及びステッ
プ(311)あるいは(312)及びステップ(314
)、(315)の演算値にもとづき(9)式の演算値を
求め、これを今回の像面移動量換算のレンズ駆動量DL
を求める。
In step (316), data of each storage means and step (311) or (312) and step (314) are stored.
), (315), calculate the calculated value of equation (9), and use this as the lens drive amount DL in terms of the current image plane movement amount.
seek.

次のステップ(317)では、ステップ(316)で求
まったレンズ駆動量DLと撮影レンズの開放Fナンバー
FN及び所定の係数δ(本実施例では0.035mm)
の積FN・δを比較し、DL<FN・δであればステッ
プ(318)へ移行し、そうでなければステップ(32
2)にてリターンする。
In the next step (317), the lens drive amount DL found in step (316), the open F number FN of the photographing lens, and a predetermined coefficient δ (0.035 mm in this example) are determined.
The product FN・δ is compared, and if DL<FN・δ, the process moves to step (318);
2) Return.

ステップ(318)では先のステップ(317)にて、
像面深度FN・δよりレンズ駆動量DLが小さい、すな
わちレンズ駆動の必要性がないと判断し、レンズ駆動量
DL=Oとし、レンズの駆動を禁止する。これにより不
必要な微少レンズ駆動を行うことがな(なり、使用感及
び電力消費の両面を改善することができる。また、本実
施例ではFNを撮影レンズの開放Fナンバーとしたが、
これを撮影絞り値としても何ら問題はな(、δも0 、
035 m mに限定するものではない。そして、この
ステップを終了すると、次のステップ(320)にてこ
のサブルーチンをリターンする。
In step (318), in the previous step (317),
It is determined that the lens drive amount DL is smaller than the image plane depth FN·δ, that is, there is no need to drive the lens, the lens drive amount DL is set to O, and driving of the lens is prohibited. This eliminates unnecessary minute lens drive (and improves both usability and power consumption.Also, in this example, FN is the open F number of the photographic lens.
There is no problem even if this is the shooting aperture value (, δ is also 0,
It is not limited to 0.035 mm. When this step is completed, the subroutine is returned to the next step (320).

ここで、本実施例では、2回連続して予測演算に適して
いないと判断された場合に予測演算を禁止し、再度デー
タの蓄積を開始するように設定したが、AF系のレスポ
ンスを考えて1回の判定で予測禁止にしても良(、また
2回以上連続して不適と判断されたときに予測禁止にし
ても良い。
In this embodiment, the prediction calculation is prohibited when it is determined that the prediction calculation is not suitable twice in a row, and data accumulation is started again. However, considering the response of the AF system, The prediction may be prohibited after one judgment (or the prediction may be prohibited when it is judged as inappropriate two or more times in a row).

次に「予測、非予測判定」サブルーチンのフローについ
て説明する。第8図は「予測、非予測判定」サブルーチ
ンのフローを示したものであり、ステップ(402)は
、像面(被写体位置)の連続性を検出するための「像面
位置の連続性判定」のサブルーチンであり、これによっ
てカメラが同一被写体に対して連続的に測距しているか
どうかを判定するサブルーチンであり、詳細は後述する
Next, the flow of the "prediction/non-prediction determination" subroutine will be explained. FIG. 8 shows the flow of the "prediction/non-prediction determination" subroutine, and step (402) is "continuity determination of image plane position" for detecting continuity of the image plane (subject position). This subroutine determines whether the camera is continuously measuring the distance to the same subject, and the details will be described later.

このステップで像面位置が連続的に変化していると判断
されると、ステップ(403)に移行し、そうでなけれ
ば別の被写体を測距したと判断し、ステップ(406)
に進みリターンする。
If it is determined in this step that the image plane position is changing continuously, the process moves to step (403); otherwise, it is determined that another subject has been measured, and the process proceeds to step (406).
Proceed to and return.

ステップ(403)は焦点検出結果の信頼性を評価する
「焦点検出精度演算」サブルーチンである。
Step (403) is a "focus detection accuracy calculation" subroutine that evaluates the reliability of the focus detection result.

このステップでは予測演算に用いるデフォーカス量が予
測演算に使用できる信頼性があるかどうかを判定し、信
頼性が高いと判断されればステップ(404)へ移行し
、信頼性が低いと判断されれば予測演算を中止するステ
ップ(406)へ移行しリターンする。
In this step, it is determined whether the defocus amount used in the prediction calculation is reliable enough to be used in the prediction calculation. If it is determined that the defocus amount is reliable enough to be used in the prediction calculation, the process moves to step (404), and if it is determined that the reliability is low. If so, the process moves to step (406) where the prediction calculation is stopped and the process returns.

ステップ(404)は予測AFの効果のある被写体ある
いは条件であるかどうかを判定する「予測AFの適性判
定」サブルーチンであり、詳細は後述する。
Step (404) is a "predictive AF suitability determination" subroutine for determining whether the subject or condition is effective for predictive AF, and the details will be described later.

ステップ(404)では、予算演算結果に基づいたにン
ズ駆動を行った場合に、予測演算の効果があるかどうか
、あるいは逆効果となるかどうかについて判定し、予測
AFを必要としない被写体あるいは撮影条件である場合
には、予測演算を中止するステップ(406)へ移行し
、必要とする場合には予測演算可能とするステップ(4
05)へ移行しリターンする。
In step (404), it is determined whether or not the predictive calculation has an effect or has the opposite effect when the lens is driven based on the budget calculation result. If the condition is met, the process moves to a step (406) of stopping the prediction calculation, and if necessary, a step (406) of enabling the prediction calculation.
05) and return.

ここで、本実施例においては、大きく分けて「像面位置
の連続性」「焦点検出精度」「予測AFの適性」につい
て評価し、このすべての条件を満足した場合に予測演算
可能としたが、更に[レンズ駆動精度J l’−AFタ
イムラグの変動jなどの要因を考慮した判定の追加、あ
るいはレスポンスを重視し、演算時間を短縮するために
判定項目を削減し、一つにしたりすることも可能である
Here, in this example, we evaluated "continuity of image plane position,""focus detection accuracy," and "appropriateness of predictive AF" broadly, and predicted calculation was possible when all of these conditions were satisfied. Furthermore, [Lens drive accuracy J l' - AF time lag variation j, etc. may be added for judgment, or the number of judgment items may be reduced to one in order to emphasize response and shorten calculation time. is also possible.

また、「予測、非予測判定」において、各判定のサブル
ーチンの順序を判定時間の短いルーチンを先に行う。あ
るいは非予測と判定される確率の高いルーチンを先に行
うことにより、予測、非予測判定の処理時間を短縮する
ことが可能となる。
Furthermore, in the "prediction/non-prediction determination", the order of subroutines for each determination is such that the routine with the shortest determination time is performed first. Alternatively, by performing a routine with a high probability of being determined as non-prediction first, it is possible to shorten the processing time for prediction and non-prediction determination.

次に第9図を用いて第8図に示した「予測、非予測判定
」サブルーチンのステップ(402)における「像面位
置の連続性判定」サブルーチンについて説明する。
Next, the "continuity determination of image plane position" subroutine in step (402) of the "prediction/non-prediction determination" subroutine shown in FIG. 8 will be explained using FIG. 9.

ステップ(502)は各記憶領域のデータに基づき(D
F2+DL、−DF、)/TM、なる演算を行う。この
演算は第2図の時刻t1とt2間の像面移動速度の平均
値vlを計算するステップである。
Step (502) is based on the data of each storage area (D
The following calculation is performed: F2+DL, -DF, )/TM. This calculation is a step for calculating the average value vl of the image plane movement speed between times t1 and t2 in FIG.

次のステップ(503)での演算は同様に時刻t2とt
3間の像面移動速度の平均値v2を計算するステップで
ある。この後ステップ(504)へ進む。
The calculation in the next step (503) is similarly performed at times t2 and t.
This is a step of calculating the average value v2 of the image plane movement speed between the three images. After this, the process advances to step (504).

ステップ(504)では、ステップ(502)、  (
503)で求めた像面移動速度Vl、V2の差の絶対値
VAを計算し、ステップ(505)へ移行する。
In step (504), step (502), (
The absolute value VA of the difference between the image plane movement velocities Vl and V2 obtained in step 503) is calculated, and the process moves to step (505).

ステップ(505)ではステップ(504)で求まった
VAとあらかじめ設定された数AXを比較し、VAがA
Xより大のときは像面位置の連続性無し、VAがAXよ
り小のときには連続性有りと判断される。
In step (505), the VA determined in step (504) is compared with a preset number AX, and VA is
When VA is larger than X, it is judged that there is no continuity in the image plane position, and when VA is smaller than AX, it is judged that there is continuity.

上記フローによる予測、非予測の判定原理は同一被写体
を追っていればその時の像面移動速度も連続的に変化す
ることになることに基づいている。
The principle of determining prediction or non-prediction using the above flow is based on the fact that if the same subject is being tracked, the image plane movement speed at that time will also change continuously.

そこで、時間的に隣接した、像面移動速度を算出し、こ
の差が小さければ像面移動速度が連続的に変化している
ものと見做し、同一の被写体を測距していると判断して
予測演算によるピント合わせを行うことが可能と判定し
ている。これに対し像面移動速度の変化が十分大きい場
合には、像面移動速度が連続的に変化していないと見做
し、別の被写体を測距したと判断し、予測演算によるピ
ント合わせが不可能であると判定している。
Therefore, we calculate the temporally adjacent image plane movement speeds, and if the difference is small, it is assumed that the image plane movement speeds are changing continuously, and it is determined that the same subject is being measured. It has been determined that it is possible to perform focusing using predictive calculations. On the other hand, if the change in the image plane movement speed is sufficiently large, it is assumed that the image plane movement speed is not changing continuously, and it is determined that a different subject has been measured, and the focus is adjusted by predictive calculation. It is determined that it is not possible.

、第10図は「像面位置の連続性判定」サブルーチンの
他の実施例のフローを示したものである。
, FIG. 10 shows the flow of another embodiment of the "continuity determination of image plane position" subroutine.

これは検出されたデフォーカス量DFの絶対値が、ある
値BXよりも太き(なった場合、別の被写体を測距した
と判断し、予測演算を禁止するものである。
This is because if the absolute value of the detected defocus amount DF is thicker than a certain value BX, it is determined that another object has been measured, and predictive calculation is prohibited.

即ち、同一被写体を追従測距している状態では検出され
るデフォーカス量が大きく変化する場合が少なく、検知
デフォーカス量が所定値より大の時には連続性がないと
判定するものである。
That is, when tracking and distance measuring the same subject, the detected defocus amount rarely changes significantly, and when the detected defocus amount is larger than a predetermined value, it is determined that there is no continuity.

これらの像面位置の連続性判定は同一被写体を連続して
測距している様な場合は予測演算を行えば合焦させるこ
とが出来るが、他の被写体を測距した時には予測演算が
不可であることに着目しており、この判定で予測演算に
てピント合わせが可能か否か判定している。
To determine the continuity of these image plane positions, if you are continuously measuring the same subject, you can focus by performing predictive calculations, but if you are measuring the distance of another subject, predictive calculations are not possible. We focus on this fact, and use this judgment to determine whether or not focusing is possible using predictive calculations.

第11図を用いて第8図の「焦点検出精度判定」サブル
ーチンのフローについて説明する。
The flow of the "focus detection accuracy determination" subroutine shown in FIG. 8 will be explained using FIG. 11.

ステップ(802)は先のステップ(006)又は(3
07)で取り込まれた像信号についてコントラスト値C
RTを演算する「コントラスト演算」サブルーチンであ
り、コントラスト値の演算方法は公知であり、ここでは
その説明は省略する。
Step (802) is the previous step (006) or (3)
Contrast value C for the image signal captured in 07)
This is a "contrast calculation" subroutine for calculating RT, and the method of calculating the contrast value is well known, and its explanation will be omitted here.

次のステップ(803)ではステップ(802)で求め
たコントラスト値CRTとある数CRAを比較し、CR
T>CRAであれば、像信号のコントラストが太き(焦
点検出精度も高いと判断し、ステップ(804)へ移行
し、そうでなければ検出精度が低いと判断し、ステップ
(806)へ進みリターンする。
In the next step (803), the contrast value CRT obtained in step (802) is compared with a certain number CRA, and CR
If T>CRA, it is determined that the contrast of the image signal is thick (the focus detection accuracy is also high), and the process proceeds to step (804); otherwise, the detection accuracy is determined to be low, and the process proceeds to step (806). Return.

ステップ(804)では像信号の蓄積時間TEとある数
TZ1を比較し、TE<TZ、であれば蓄積時間が短く
焦点検出精度が高いと判断し、ステップ(805)へ進
みリターンし、そうでなければ蓄積中に像面が大きく移
動する可能性があり、焦点検出結果に対する信頼性が低
いと考えステップ(806)へ進みリターンする。
In step (804), the image signal accumulation time TE is compared with a certain number TZ1, and if TE<TZ, it is determined that the accumulation time is short and the focus detection accuracy is high, and the process proceeds to step (805) and returns. If not, there is a possibility that the image plane will move significantly during accumulation, and the reliability of the focus detection result is low, so the process proceeds to step (806) and returns.

ここで、本実施例においてはコントラストと蓄積時間の
みによって焦点検出精度を評価したが、それ以外の方法
、たとえば2像の一致度やゴーストなどによる像信号の
異常などの信頼性しきい値によって焦点検出結果の信頼
性を評価しても良い。
Here, in this example, focus detection accuracy was evaluated only by contrast and accumulation time, but other methods, such as reliability thresholds such as the coincidence degree of two images and abnormalities in image signals due to ghosts, etc., were used to evaluate the focus detection accuracy. The reliability of the detection results may also be evaluated.

第12図を用いて第8図の「予測AFの適性判定」サブ
ルーチンのフローについて説明する。
The flow of the "predictive AF suitability determination" subroutine shown in FIG. 8 will be explained using FIG. 12.

ステップ(902)では前前前回と前前回のレンズ駆動
方向の反転、非反転を示すパラメータLX。
In step (902), a parameter LX indicating reversal or non-reversal of the lens driving direction between the previous and previous times and the previous and previous times.

のデータを更新するために、LX2の値をLX、へ移動
する。これは前回の予測AFの適性判定に用いたデータ
がLXlに残っているため、今回の判定を行うためには
、今回の判定では前前前回と前前回のレンズ駆動方向の
反転、非反転を示すLX2の値をLX、に入力する。
In order to update the data in LX, move the value of LX2 to LX. This is because the data used for the previous prediction AF suitability judgment remains in the LXl, so in order to make the current judgment, it is necessary to invert or non-reverse the lens drive direction of the previous and previous previous and previous previous judgments. Input the value of LX2 shown in LX.

次のステップ(903)では前前回のレンズ駆動fiD
L、と前回のレンズ駆動量から次式のようにしてLXを
計算する。
In the next step (903), the previous lens drive fiD
LX is calculated from L and the previous lens drive amount using the following equation.

LX= l DL21− I DL2−DL、lステッ
プ(904)ではステップ(903)で得られたLXか
ら前前回と前回のレンズ駆動方向の反転、非反転を判定
する。ここでLX>0の場合にはIDL21 > ID
L2−DL、lということであり1、これはDL2とD
L、が同符号の場合に成立する。すなわち、LX>Oと
いう条件はレンズの駆動方向が反転していない状態であ
る。これに対してLX<0の場合というのはレンズ駆動
方向が反転していると判断できる。そしてこのステップ
では、レンズ駆動方向が反転していないと判断されたと
きには、ステップ(906)へ、また反転していると判
断された場合にはステップ(905)へ移行する。
LX=l DL21-I DL2-DL, In the l step (904), it is determined from the LX obtained in the step (903) whether or not the lens drive direction of the previous and previous lens drive directions is reversed or not. Here, if LX>0, IDL21>ID
L2-DL, l means 1, which means DL2 and D
This holds true when L and have the same sign. That is, the condition LX>O means that the driving direction of the lens is not reversed. On the other hand, if LX<0, it can be determined that the lens drive direction is reversed. In this step, if it is determined that the lens drive direction is not reversed, the process proceeds to step (906), and if it is determined that it is reversed, the process proceeds to step (905).

ステップ(906)では前前回と前回のレンズの駆動方
向の反転、非反転を示すパラメータLX2に非反転を示
すrOJを入力し、ステップ(905)では反転を示す
rlJを入力する。
In step (906), rOJ indicating non-inversion is input to parameter LX2 indicating reversal or non-inversion of the driving directions of the previous and previous lenses, and in step (905) rlJ indicating reversal is input.

そして、次のステップ(907)では2回連続してレン
ズ駆動方向が反転しているかどうかを判定する。LX、
+LX2=2(7)場合、すなわちLX、=1゜Lx2
=1の場合には2回連続して反転しているということで
あり、このような状態というのは予測AFに適した被写
体、あるいは条件ではないと考え、ステップ(912)
に進みリターンする。これに対して連続して反転してい
なければ予測に適していると考え、ステップ(908)
へ進む。
Then, in the next step (907), it is determined whether the lens drive direction has been reversed twice in a row. LX,
+LX2=2(7), that is, LX,=1°Lx2
If = 1, it means that the image has been inverted twice in a row, and considering that such a state is not a suitable subject or condition for predictive AF, step (912) is performed.
Proceed to and return. On the other hand, if there is no continuous reversal, it is considered suitable for prediction, and step (908)
Proceed to.

ステップ(908)は被写体−カメラ間の距離の検出を
行うサブルーチンであり、その方法としてはアクティブ
AFなどの外部の測距装置による測定や撮影レンズの焦
点距離及びレンズ(り出し位置とデフォーカス量から求
めるなどの手段、又は距離環での距離値から直接得る等
の方法が考えられるが、本実施例ではその詳細は省略す
る。
Step (908) is a subroutine that detects the distance between the subject and the camera. Methods for this include measurement using an external distance measuring device such as active AF, the focal length of the photographic lens, and the lens (extension position and defocus amount). Methods such as obtaining it from the distance value or directly obtaining it from the distance value in a distance ring may be considered, but the details thereof will be omitted in this embodiment.

次のステップ(909)ではステップ(908)で求め
た被写体−カメラ間距離DZを撮影レンズの焦点距離F
Lで割った値LZを算出する。
In the next step (909), the subject-camera distance DZ obtained in step (908) is converted to the focal length F of the photographing lens.
Calculate the value LZ divided by L.

ステップ(910)ではステップ(909)で求めたL
Zに対して、LZ<200であれば、予測に適した被写
体であると判断し、ステップ(911)へ進みリターン
する。そしてLZ<200でなければ像面移動速度が大
きい確率が低く予測AFが必要ないと判断し、ステップ
(912)へ進みリターンする。
In step (910), L obtained in step (909)
If LZ<200 for Z, it is determined that the subject is suitable for prediction, and the process proceeds to step (911) and returns. If LZ<200, it is determined that the probability that the image plane movement speed is high is low and predictive AF is not necessary, and the process proceeds to step (912) and returns.

ここで被写体−カメラ間距離による判定では撮影レンズ
の焦点距離の200倍を目安にしたが、これは他の値で
も良く、また被写体の移動速度やしンズ、被写体輝度に
よって変化する値でも良い。
Here, in the determination based on the distance between the subject and the camera, 200 times the focal length of the photographing lens is used as a guide, but this may be any other value, or may be a value that changes depending on the moving speed of the subject, the lens, or the brightness of the subject.

また、本実施例ではレンズ駆動方向の反転、非反転と被
写体カメラ間距離から判定したが、どちらか一方の判定
手段によって判定しても良い。
Further, in this embodiment, the determination was made based on whether the lens drive direction is reversed or not reversed and the distance between the subject and the camera, but the determination may be made using either one of the determining means.

また、本実施例では2回連続してレンズの駆動方向が反
転した場合に、予測に不適切と判断したが、これは1回
のレンズ駆動方向の反転があるような撮影シーンは比較
的多く、たとえばブランコの撮影や人や乗り物が近くを
通過するときには、レンズの駆動方向が1度反転する。
In addition, in this example, it was determined that it was inappropriate for prediction when the lens driving direction was reversed twice in a row, but this is because there are relatively many shooting scenes where the lens driving direction is reversed once. For example, when photographing a swing or when a person or vehicle passes nearby, the driving direction of the lens is reversed once.

このようなときに、すぐに予測を禁止すると次の予測を
行うまでに時間がかかり、結果的にシャッターチャンス
を逃すなどのデメリットが発生するため、本実施例では
2回連続してレンズ駆動方向が反転したときに予測を禁
止するように設定したが、これも上記理由を考慮して、
2回以上たとえば3回あるいは4回レンズ駆動方向が反
転した場合に予測に不適と判断するよにしても良い。
In such a case, if prediction is immediately prohibited, it will take time to make the next prediction, resulting in disadvantages such as missing a photo opportunity, so in this example, the lens drive direction is We set it to prohibit prediction when the value is reversed, but considering the above reasons,
If the lens drive direction is reversed two or more times, for example, three or four times, it may be determined that the prediction is inappropriate.

第13図はステップ(307)の「像信号人力2」サブ
ルーチンのフローを示したものであり、この「像信号人
力2」サブルーチンについて説明する。
FIG. 13 shows the flow of the "image signal human power 2" subroutine of step (307), and this "image signal human power 2" subroutine will be explained.

第13図のサブルーチンのフローはステップ(1003
)(1004)以外は第6図の「像信号入力」サブルー
チンと全(同じであり、ここではステップ(1003)
(1004)についてのみ説明を行い、他の説明は省略
する。
The flow of the subroutine in FIG. 13 is the step (1003
) (1004) is the same as the "image signal input" subroutine in FIG. 6, and here step (1003)
Only (1004) will be explained, and other explanations will be omitted.

ステップ(1003)では前回から今回の測距時間間隔
TM2を算出するステップであるが、この場合ステップ
(006)での「像信号入力」ならびに、ステップ(0
07)での「焦点検出演算」によって得られた前回のデ
フォーカス量DF3が予測演算に不適切と判定されてい
るため、ここでは前前回から今回の測距時間間隔を1M
2としなければならない。
Step (1003) is a step of calculating the current distance measurement time interval TM2 from the previous time, but in this case, the "image signal input" in step (006) and step (0
Since the previous defocus amount DF3 obtained by the "focus detection calculation" in 07) has been determined to be inappropriate for the prediction calculation, here the distance measurement time interval from the previous to the current distance measurement is set to 1M.
Must be 2.

そこで、前前回から前回までの測距時間間隔TM2と前
回から今回の測距時間間隔TN、−TNの和を1M2と
する。
Therefore, the sum of the ranging time interval TM2 from the previous time to the previous time and the ranging time interval TN, -TN from the previous time to this time is set to 1M2.

次のステップ(1004)では今回の測距開始時刻TN
をTN、へ入力し、以下のフローへ移行する。
In the next step (1004), the current distance measurement start time TN
is input to TN, and the process moves to the following flow.

以上の各フローにて予想演算によるレンズ駆動及び合焦
・非合焦表示が行われるのであるが、以上全体的な動作
の概略につき説明する。
In each of the above-described flows, lens driving and in-focus/out-of-focus display are performed based on predictive calculations, and an overview of the overall operations will be explained below.

スイッチSWlのオンにて第5図のステップ(005)
〜(009)のフローが実行される。このステップの初
回及び2回目の実行にあっては第1図の予測演算サブル
ーチンにおけるカウンターC0UNTのカウント値が1
又は2となっているので、レンズ駆動量はステップ(3
21)にて決るDL、即ち、該予測演算サブルーチンが
なされる直前のス゛テップ(007)の焦点検出演算に
て求められたデフォーカス量DFがレンズ駆動量となる
。従って、初回及び2回目の焦点検出動作では直前の焦
点検出にて得られたデフォーカス量に基づ(レンズ駆動
がなされる。3回目以後の上記ステップ(005)〜(
009)の実行にあっては、予測演算サブルーチンにお
ける(305)にてカウンターC0UNT≧3となるの
で、ステップは(306)以後のステップが実行される
。よって、3回目以後の焦点検出動作ではステップ(3
06)にて予測演算が可能と判断されればステップ(3
12)〜(318)が実行される。よって、式(6)〜
(9)の予想演算処理によりAFタイムラグ及びレリー
ズタイムラグ後の予想像面位置へのレンズ駆動量が求め
られ、前述の第3図に示したレリーズタイムラグを先取
りしたレンズ駆動がなされる。又、この際には合焦表示
がなされる。
Step (005) in Figure 5 when switch SWl is turned on.
The flow from to (009) is executed. In the first and second executions of this step, the count value of the counter C0UNT in the prediction calculation subroutine of FIG. 1 is 1.
or 2, so the lens drive amount is in steps (3
DL determined in step 21), that is, the defocus amount DF obtained by the focus detection calculation in step (007) immediately before the prediction calculation subroutine is performed, becomes the lens drive amount. Therefore, in the first and second focus detection operations, the lens is driven based on the defocus amount obtained in the previous focus detection.The third and subsequent steps (005) to (
In the execution of step 009), since the counter C0UNT≧3 at step (305) in the prediction calculation subroutine, the steps after step (306) are executed. Therefore, in the focus detection operation after the third time, step (3
If it is determined in step 06) that predictive calculation is possible, step 3
12) to (318) are executed. Therefore, formula (6) ~
Through the predictive calculation process (9), the lens driving amount to the expected image plane position after the AF time lag and the release time lag is determined, and the lens is driven in advance of the release time lag shown in FIG. 3 described above. Also, at this time, an in-focus display is performed.

上記動作が繰り返し実行され、レンズが第3図に示され
る様に予想位置へ駆動制御される過程でステップ(30
6)にて第8図〜第12図に示したフローで予測演算に
よるレンズ駆動ではピントを合わせることが出来ない様
な状態となったと判定されると、ステップは(307)
以後へ進む。よって、この場合は第13図の「像信号人
力2」サブルーチンにて得られた像信号を基に再度焦点
検出動作が行われ、再度ステップ(310)にて予測演
算が可能か否か判定される。
The above operation is repeated and the lens is driven to the expected position as shown in FIG.
If it is determined in step 6) that the lens cannot be brought into focus by driving the lens using predictive calculation in the flow shown in FIGS. 8 to 12, step (307) is performed.
Proceed to the next step. Therefore, in this case, the focus detection operation is performed again based on the image signal obtained in the "image signal manual input 2" subroutine of FIG. 13, and it is determined again in step (310) whether predictive calculation is possible. Ru.

そして、ステップ(308)にて得た再度のデフォーカ
ス信号等の再測距データによっても予測演算処理による
レンズ駆動ではピントが合わないと判定されると、ステ
ップは(319)〜(321)へ進み、予測NG表示が
なされるとともに、レンズは上記再測距にて得たデフォ
ーカス量に応じて駆動され、その後の焦点検出動作は初
回の焦点検出動作状態に戻り、再度前述の動作を繰り返
す。
Then, if it is determined that the focus cannot be achieved by lens driving based on the predictive calculation processing based on the remeasured distance data such as the re-defocus signal obtained in step (308), the steps proceed to (319) to (321). Then, the prediction NG is displayed, and the lens is driven according to the defocus amount obtained in the re-measurement, and the subsequent focus detection operation returns to the initial focus detection operation state and repeats the above operation again. .

又、ステップ(310)での再度の予測演算可能か否か
の判定で予測演算可能と判定された時にはステップ(3
11)を介してステップ(313)〜(31g)を実行
し、上記の予想演算処理によるレンズ駆動及び合焦表示
(予想OK表示)がなされることとなる。
In addition, if it is determined that predictive calculation is possible in step (310), step (310) is performed.
Steps (313) to (31g) are executed via step 11), and lens driving and focus display (predicted OK display) are performed by the above-described predictive calculation processing.

次いで、上述の予測・非予測判定サブルーチンとして像
面位置の連続性を予測演算によって得られる2次関数の
各係数やレンズ駆動量によって判断し、各測距データや
レンズ駆動量の信頼性から予測精度を評価し、これらの
パラメータによって予測の可否を判断する方法について
説明する。この方法を用いた場合のカメラ全体のシステ
ム及びシーケンス、メインフローについては上述の実施
例と同じであるので、ここでは説明を省略し、上記方法
による「予測演算」サブルーチンについてのみ説明する
Next, as the prediction/non-prediction determination subroutine described above, the continuity of the image plane position is determined based on the coefficients of the quadratic function obtained by predictive calculation and the amount of lens drive, and the continuity of the image plane position is predicted based on the reliability of each distance measurement data and the amount of lens drive. A method for evaluating accuracy and determining whether prediction is possible based on these parameters will be explained. The overall system, sequence, and main flow of the camera when this method is used are the same as those in the above-mentioned embodiment, so their explanation will be omitted here, and only the "prediction calculation" subroutine according to the above method will be explained.

第14図は上記方法を用いた「予測演算」サブルーチン
のフローを示したものであり、予測演算の可否を判定し
、予測可能であればAFタイムラグとレリーズタイムラ
グを考慮したレンズ駆動量を計算するものである。
Figure 14 shows the flow of the "predictive calculation" subroutine using the above method, in which it is determined whether the predictive calculation is possible, and if it is possible to predict, calculates the lens drive amount taking into account the AF time lag and release time lag. It is something.

ステップ(1301)〜(1305)までは第1図のス
テップ(301)〜(305)と同様であり、その説明
は省略する。
Steps (1301) to (1305) are the same as steps (301) to (305) in FIG. 1, and their explanation will be omitted.

ステップ(1306)〜(1309)は第1図のステッ
プ(312)、(314)〜(316)と同様であり、
これらのステップにて焦点検出が3回以上行われた時に
予想演算によるレンズ駆動量DLが求められる。
Steps (1306) to (1309) are similar to steps (312) and (314) to (316) in FIG.
When focus detection is performed three or more times in these steps, the lens drive amount DL is determined by predictive calculation.

ステップ(1310)は予測・非予測判定サブルーチン
で、後述する如く予測可能か否か判定し、予測可能な場
合はステップ(1311)にて合焦表示を行う。この表
示は第1図と同様にしてLEDを駆動したり発音体を駆
動することで実行される。ステップ(1312)〜(1
325)は第1図のステップ(317)〜(322)と
同様であり、その説明は省略する。
Step (1310) is a prediction/non-prediction determination subroutine in which it is determined whether or not prediction is possible, as will be described later. If prediction is possible, in-focus display is performed in step (1311). This display is performed by driving the LED or the sounding body in the same manner as in FIG. Steps (1312) to (1
325) is the same as steps (317) to (322) in FIG. 1, and the explanation thereof will be omitted.

以上のステップにて3回目以後の焦点検出動作にあたっ
ては予測演算によるレンズ駆動及び合焦指示がなされる
In the above steps, for the third and subsequent focus detection operations, lens drive and focusing instructions are given based on predictive calculations.

又、ステップ(1310)にて予測演算によるレンズ駆
動では合焦とならないと判定された時にはステップ(1
314)〜(1317)へ移行する。このステップは第
1図の(307)〜(309)、(311)と同様であ
るので、その説明は省略する。その後ステップ(131
8)〜(1320)が行われる。このステップは(13
07)〜(1309)と同一であるので、ステップ(1
315)にて得られた再測距結果に基づ(レンズ駆動量
DLが(6)〜(9)式にて再度求められる。
Further, when it is determined in step (1310) that the lens driving based on the predictive calculation does not result in focus, step (1310) is performed.
314) to (1317). This step is similar to steps (307) to (309) and (311) in FIG. 1, so its explanation will be omitted. Then step (131
8) to (1320) are performed. This step is (13
07) to (1309), so step (1
Based on the distance measurement result obtained in step 315), the lens drive amount DL is determined again using equations (6) to (9).

再度のレンズ駆動量が求められた後、ステップ(132
1)にて再度ステップ(1310)と同一の予測・非予
測判定サブルーチンし、予測不可と判定された時にはス
テップ(1322)〜(1324)、(1312)〜(
1325)へ移行する。このステップは第1図のステッ
プ(319)〜(321)、(317)〜(322)と
同一であり、再測距によるデータでも予測不可と判定さ
れた時には予測NG表示を行い、直前の焦点検出結果に
よって得られたデフォーカス量にもとづくレンズ駆動を
行う。又、ステップ(1321)にて予測演算可能と判
定された時にはステップ(1311)以後へ進み合焦表
示を行い、上記ステップ(1320)にて求めた予測演
算によるレンズ駆動量分レンズを駆動する。
After the lens drive amount is determined again, step (132
In step 1), the same prediction/non-prediction determination subroutine as in step (1310) is carried out again, and when it is determined that prediction is not possible, steps (1322) to (1324) and (1312) to (
1325). This step is the same as steps (319) to (321) and (317) to (322) in FIG. Lens driving is performed based on the defocus amount obtained from the detection results. If it is determined in step (1321) that predictive calculation is possible, the process proceeds to step (1311) and subsequent steps to display focus and drive the lens by the amount of lens drive determined by the predictive calculation in step (1320).

第15図は第14図に示した「予測、非予測判定」サブ
ルーチンのフローを示したものである。
FIG. 15 shows the flow of the "prediction/non-prediction determination" subroutine shown in FIG. 14.

ステップ(1102)は「予測AFの適性判定」サブル
ーチンである。このサブルーチンは第8図のものと同じ
であり、詳細な説明は省略する。このステップで予測A
Fの効果の出る条件であると判断されると、ステップ(
1103)へ移行し、そうでなければ予測に不適と判断
し、ステップ(1106)へ進みリターンする。
Step (1102) is a "predictive AF suitability determination" subroutine. This subroutine is the same as that in FIG. 8, and detailed explanation will be omitted. Prediction A at this step
When it is determined that the conditions are such that the effect of F occurs, step (
If not, it is determined that the prediction is inappropriate, and the process proceeds to step (1106) to return.

ステップ(1103)は「予測精度判定」サブルーチン
であり、詳細は後述する。このステップでは予測演算に
用いるデータDF、〜DF3.DL、、DL 2の精度
を評価し、これらのデータ全体の精度から予測値の信頼
性を評価するものである。ステップ(1103)で予測
演算値の信頼性が高いと判断された場合にはステラ、プ
(1104)に移行し、そうでない場合には予測に不適
と判断しステップ(1106)へ進みリターンする。
Step (1103) is a "prediction accuracy determination" subroutine, the details of which will be described later. In this step, data DF, ~DF3. The accuracy of DL, DL 2 is evaluated, and the reliability of the predicted value is evaluated from the accuracy of the entire data. If it is determined in step (1103) that the predicted calculated value is highly reliable, the process moves to Stellar P (1104); otherwise, it is judged that it is unsuitable for prediction, and the process proceeds to step (1106) and returns.

ステップ(1104)は「像面位置の連続性判定」サブ
ルーチンである。このサブルーチンは後述するが、この
ステップでは、撮影者が同一被写体を追っているかどう
かを像面位置の連続性から判断し、連続性が有ると判断
されると、予測演算に適した状態であると判断し、ステ
ップ(1105)へ進み、そうでなければ予測に不適と
判断し、ステップ(1106)へ移行しリターンする。
Step (1104) is a "continuity determination of image plane position" subroutine. This subroutine will be described later, but in this step, it is determined whether the photographer is following the same subject based on the continuity of the image plane position, and if it is determined that there is continuity, the state is suitable for predictive calculation. After making a judgment, the process proceeds to step (1105). If not, it is judged that the prediction is inappropriate, and the process proceeds to step (1106) and returns.

ここで、「予測精度の判定」を「像面位置の連続性判定
」より前にしたのは、各データの信頼性が高(ないと、
これらのデータを使って求める像面位置の信頼性が低(
、評価に値しないため、本実施例ではこのような判定順
序のフローとした。
Here, the reason why "judgment of prediction accuracy" was placed before "judgment of continuity of image plane position" is because each data is highly reliable (if not
The reliability of the image plane position determined using these data is low (
, is not worth evaluating, so this example has a flow with such a judgment order.

但し、これらの判定順序は本実施例以外の順序でも可能
であり、また、場合によっては判定項目を削減すること
も可能である。
However, these judgment orders may be other than those in this embodiment, and the number of judgment items may be reduced depending on the case.

第16図は第15図に示した「予測精度判定」サブルー
チンのフローを示したものであり、この図により「予測
精度判定」サブルーチンの説明を進める。
FIG. 16 shows the flow of the "prediction accuracy determination" subroutine shown in FIG. 15, and the "prediction accuracy determination" subroutine will be explained with reference to this diagram.

ステップ(1202)は前前回及び前回の測距精度、な
らびに前前回のレンズ駆動精度を表わすパラメータCR
,,CR2,LX、のデータ更新を行っている。
Step (1202) is a parameter CR representing the previous and previous distance measurement accuracy, and the previous and previous lens driving accuracy.
,,CR2,LX, data is being updated.

これは前回の判定に用いられたデータが残っているため
、今回の予測精度判定を行うには古いデータを新しいデ
ータに更新しなければならない。そこで、 前前回の測距精度を表わすパラメータCR,にCR2の
値を 前回の測距精度を表わすパラメータCR2にCR3の値
を 前回のレンズ駆動精度を表わすパラメータLx1にLX
2の値を 入力している。
This is because the data used in the previous judgment remains, so in order to judge the prediction accuracy this time, the old data must be updated with new data. Therefore, the value of CR2 is set to the parameter CR, which represents the previous distance measurement accuracy, and the value of CR3 is set to the parameter Lx1, which represents the previous lens drive accuracy.
The value of 2 is entered.

ここでCR,、CR2,CR3は、それぞれ第2図のD
F、、DF2.DF3の焦点検出精度を表わすパラメー
タであり、LX、、LX2は、それぞれDL、、DL2
のレンズ駆動精度を表わすパラメータである。
Here, CR, , CR2, and CR3 are D in Fig. 2, respectively.
F,,DF2. It is a parameter representing the focus detection accuracy of DF3, and LX, , LX2 are DL, DL2, respectively.
This is a parameter that represents the lens driving accuracy.

次のステップ(1203)、(1204)ではDL、あ
るいはDL2がOである場合、後のレンズ駆動方向、反
転、非反転を判定する際に誤判断をしてしまうため、D
L、あるいはDL2がOである場合には駆動方向は反転
していないと判断し、ステップ(1207)へ移行し、
そうでなければステップ(1205)へ移行するように
した。
In the next steps (1203) and (1204), if DL or DL2 is O, an erroneous judgment will be made when determining the subsequent lens drive direction, inversion, or non-inversion.
If L or DL2 is O, it is determined that the driving direction has not been reversed, and the process moves to step (1207).
Otherwise, the process moves to step (1205).

ステップ(1205)、(1206)では第12図での
レンズ駆動方向、反転、非反転判定と同様にしてレンズ
の駆動方向を判定し、反転していればステップ(120
8)へ進み、レンズ駆動精度を表わすパラメータLX2
にrlJを入力し、非反転であればステップ(1207
)へ進みLX2にrOJを入力する。
In steps (1205) and (1206), the driving direction of the lens is determined in the same way as the lens driving direction, inversion, and non-inversion determination in FIG.
Proceed to 8) and set the parameter LX2 that represents lens drive accuracy.
Input rlJ to , and if it is non-inverted, step (1207
) and input rOJ to LX2.

ここでレンズの駆動方向が反転するとレンズ駆動系のバ
ックラッシュによって、レンズ駆動精度が低下する。そ
こで本実施例ではレンズ駆動方向が反転した場合にはレ
ンズ駆動精度が低いと判断し、パラメータLx2にrl
Jを入力し、非反転の場合には駆動精度が高いと判断し
、LX2に「0」を入力する。すなわちLX2及びLX
、の値が「1」のときは精度が悪(、「O」のときは精
度が良いことを示している。
If the driving direction of the lens is reversed here, lens driving accuracy will be reduced due to backlash in the lens driving system. Therefore, in this embodiment, when the lens driving direction is reversed, it is determined that the lens driving accuracy is low, and the parameter Lx2 is set to rl.
J is input, and if it is non-inverted, it is determined that the drive accuracy is high, and "0" is input to LX2. i.e. LX2 and LX
When the value of , is "1", the accuracy is poor (and when the value is "O", the accuracy is good.

次のステップ(1209)では、今回の焦点検出使用し
た像信号のコントラストCRTを演算する。そして次の
ステップ(1210)ではステップ(1209)で算出
したCRTとある数CRAを比較し、CRT>CRAで
あればステップ(1211)へ進み、そうでなければス
テップ(1216)へ移行する。ここでCRAは焦点検
出系の低コントラスト限界の値であり、ここでCRT<
CRAであれば焦点検出不能と判断し、ステップ(12
16)で今回の焦点検出精度を示すパラメータCR,に
「3」を入力し、ステップ(1220)でリターンする
。これに対して、焦点検出可能な場合にはステップ(1
211)に進む。
In the next step (1209), the contrast CRT of the image signal used for the current focus detection is calculated. Then, in the next step (1210), the CRT calculated in step (1209) is compared with a certain number CRA, and if CRT>CRA, the process proceeds to step (1211); otherwise, the process proceeds to step (1216). Here, CRA is the value of the low contrast limit of the focus detection system, where CRT<
If it is CRA, it is determined that focus cannot be detected, and step (12)
In step 16), "3" is input to the parameter CR, which indicates the current focus detection accuracy, and the process returns in step (1220). On the other hand, if focus detection is possible, step (1
211).

ステップ(1211)ではコントラストCRTをある数
CRBと比較し、CRT>CRBであればステッブ(1
212)に進み、そうでなければステップ(1215)
に移行し、検出精度評価パラメータCR3に「2」を入
力し、ステップ(1217)へ進む。ステップ(121
1)で焦点検出精度があるレベル以上あると判断された
場合(CRT>CRB)にはステップ(1212)へ移
行する。
In step (1211), contrast CRT is compared with a certain number CRB, and if CRT>CRB, step (1211) is performed.
212), otherwise step (1215)
, inputs "2" into the detection accuracy evaluation parameter CR3, and proceeds to step (1217). Step (121
If it is determined in 1) that the focus detection accuracy is above a certain level (CRT>CRB), the process moves to step (1212).

ステップ(1212)ではコントラストCRTとある数
CRCを比較し、CRT>CRCであれば、焦点検出精
度が非常に高いと判断しステップ(1213)へ進み、
CR3に「0」を入力し、そうでなければステップ(1
214)へ進みCR3に「1」を入力し、ステップ(1
217)へ移行する。
In step (1212), the contrast CRT is compared with a certain number of CRCs, and if CRT>CRC, it is determined that the focus detection accuracy is very high, and the process proceeds to step (1213).
Enter “0” in CR3, otherwise step (1
214), enter "1" in CR3, and proceed to step (1
217).

ここでCR3の値が小さいほど、検出精度が高いことを
示している。尚、CRA<CRB<CRCに設定されて
いる。ステップ(1217)では各焦点検出精度及びレ
ンズ駆動精度を示すパラメータの和CRXを計算する。
Here, the smaller the value of CR3, the higher the detection accuracy. Note that CRA<CRB<CRC is set. In step (1217), the sum CRX of parameters indicating each focus detection accuracy and lens drive accuracy is calculated.

次のステップ(1218)ではCRXとある数CZを比
較しCRX<CZであればトータルの精度として信頼で
きるデータと判断してステップ(1219)に進みリタ
ーンする。これに対してそうでない場合には予測値の信
頼性が無いと判断し、ステップ(1220)へ移行しリ
ターンする。
In the next step (1218), CRX is compared with a certain number CZ, and if CRX<CZ, it is determined that the data is reliable in terms of total accuracy, and the process proceeds to step (1219) and returns. On the other hand, if this is not the case, it is determined that the predicted value is unreliable, and the process moves to step (1220) and returns.

本実施例では、各データの精度の合計を予測精度として
評価したが他の方法として、時間間隔や実際の予測演算
式から評価しても良い。
In this embodiment, the total accuracy of each data was evaluated as the prediction accuracy, but as another method, the evaluation may be performed based on the time interval or the actual prediction calculation formula.

たとえばTM、、7M2に対してTLが大きい場合には
CZの値を小さくし、逆の場合には大きくすることも有
効であり、また、第2図のxI+  x2+X3の検出
には Xi :I)F’。
For example, it is effective to reduce the value of CZ when TL is large with respect to TM, 7M2, and to increase it in the opposite case. Also, to detect xI+x2+X3 in Fig. 2, Xi :I) F'.

x2 ==I)I、、 +DF2 X3 :I)L、、 +DL2 +DF3としている。x2 ==I) I,, +DF2 X3: I) L, , +DL2 +DF3.

そこで CRX=(CR,”+CR2”+LX、”+CR3”+
LX、”+LX2”)としても良い。
Therefore, CRX=(CR, “+CR2”+LX, “+CR3”+
LX, "+LX2").

また、本実施例では蓄積時間やゴースト、温。In addition, in this embodiment, accumulation time, ghost, and temperature are also considered.

湿度などの焦点検出精度に影響を及ぼす要因を加味して
評価を行っても良い。
The evaluation may be performed taking into account factors that affect focus detection accuracy, such as humidity.

更にレンズ駆動精度については、レンズの駆動方式、レ
ンズ構成、レンズIDによる評価を加えると、より効果
的な精度の評価が可能となる。
Furthermore, regarding lens drive accuracy, if evaluation based on lens drive method, lens configuration, and lens ID is added, more effective accuracy evaluation becomes possible.

次に予測演算によって得られるパラメータを使った、第
15図のステップ(1104)に用いられる像面位置の
連続性判定のサブルーチンについて説明する。
Next, a subroutine for determining the continuity of the image plane position used in step (1104) in FIG. 15 using parameters obtained by predictive calculation will be described.

第17図は予測演算によって得られた2次の項の係数A
の値によって連続性を判定する「像面位置の連続性判定
」のサブルーチンの一例を示すフローチャートである。
Figure 17 shows the coefficient A of the quadratic term obtained by the predictive calculation.
12 is a flowchart illustrating an example of a subroutine of "continuity determination of image plane position" in which continuity is determined based on the value of .

第17図のステップ(702)では、今回の予測演算に
よって求まった係数Aと前回の予測演算によって求まっ
た予測関数の2次の項の係数A1との差ABを求める。
In step (702) in FIG. 17, the difference AB between the coefficient A found by the current prediction calculation and the coefficient A1 of the quadratic term of the prediction function found by the previous prediction calculation is calculated.

但し、このA1はステップ(704)にて新たなAが求
められるごとにA、に入力されることとなるので、Aが
求められるごとに更新され、常に前回の焦点検出動作に
て求められた係数Aが入力されている。
However, this A1 will be input to A every time a new A is found in step (704), so it will be updated every time A is found, and it will always be the same as that found in the previous focus detection operation. Coefficient A has been input.

ステップ(703)では上記ABの絶対値と一定値FX
との比較がなされ、l AB l <FXの時にはろテ
ップ(704)に進み、上記の係数Aを更新動作を行い
連続性有りと判断する。
In step (703), the absolute value of AB and the constant value FX are
When l AB l <FX, the process proceeds to step (704), where the above-mentioned coefficient A is updated and it is determined that there is continuity.

又、ABの絶対値がFXより大きい場合には、ステップ
(706)に移行し連続性無しと判断する。
If the absolute value of AB is greater than FX, the process moves to step (706) and it is determined that there is no continuity.

該第17図に示した判定原理は同一の被写体を測距して
いれば、像面位置は連続的に変化し、このとき、予測関
数の係数も連続的に変化すると見做し、予測関数の二次
の項の係数Aの変化を調べ、Aの値の変化が小さいとき
予測可能と判断している。
The determination principle shown in FIG. 17 is that if the same subject is being measured, the image plane position will change continuously, and at this time, the coefficients of the prediction function will also change continuously, and the prediction function The change in the coefficient A of the quadratic term is examined, and it is determined that prediction is possible when the change in the value of A is small.

ここでは二次の項の係数Aにのみ着目したが、−次の項
の係数Bあるいは一次及び二次の項の係数の変化から判
断しても良い。即ち、第2図の予測関数x (t)のa
項又はb項は同一被写体に対して焦点検出動作ごとには
あまり大きく変化しないこととなるので、このa項又は
b項の変化率の大小検知して像面位置の連続性の判定を
行っている。
Here, we focused only on the coefficient A of the second-order term, but it may be determined based on the coefficient B of the -th-order term or the change in the coefficients of the first-order and second-order terms. That is, a of the prediction function x (t) in FIG.
Since the term or b term does not change significantly with each focus detection operation for the same subject, the continuity of the image plane position is determined by detecting the rate of change of the a term or b term. There is.

第18図は他の「像面位置の連続性判定」サブルーチン
を示すもので、そのフローを説明する。
FIG. 18 shows another "continuity determination of image plane position" subroutine, and its flow will be explained.

該第18図の原理は測距している被写体が途中で別の被
写体に移った場合、この影響は上記予測関数の一次の項
Bより二次の項Aに良く表われ、Aの値の絶対値が非常
に大きくなることに着目しており、Aの値の絶対値によ
って、連続性有りか無しか判断している。
The principle shown in Fig. 18 is that when the subject being measured moves to another subject mid-way, this effect is more clearly expressed in the quadratic term A than the linear term B of the prediction function, and the value of A is Focusing on the fact that the absolute value becomes very large, it is determined whether continuity exists or not based on the absolute value of the value of A.

ステップ(712)では予測関数の二次の項の係数Aが
ある数CXより大であればステップ(713)へ進み、
そうでなければステップ(716)へ移行し、連続性無
しと判断する。但し、任意の数Cxは負の数である。
In step (712), if the coefficient A of the quadratic term of the prediction function is greater than a certain number CX, the process proceeds to step (713);
Otherwise, the process moves to step (716) and it is determined that there is no continuity. However, the arbitrary number Cx is a negative number.

ステップ(713)では予測関数の二次の項の係数Aが
ある数DXより大のとき連続性無しと判断し、ステップ
(716)へ進み、AがDXより小さいときステップ(
715)へ移行し連続性有りと判断する。但し、DXは
正の数である。
In step (713), when the coefficient A of the quadratic term of the prediction function is larger than a certain number DX, it is determined that there is no continuity, and the process proceeds to step (716), and when A is smaller than DX, step (
715) and it is determined that there is continuity. However, DX is a positive number.

第19図は他の[像面位置の連続性判定」サブルーチン
の一例を示すフローであり、このフローはレンズ駆動量
の変化から予測可能かどうか判断するものである。
FIG. 19 is a flowchart showing an example of another [continuity determination of image plane position] subroutine, and this flow is for determining whether prediction is possible from a change in the lens drive amount.

ステップ(722)では、今回のレンズ駆動量DLの絶
対値が所定の値EX、より大きいときステップ(723
)へ移行し、そうでないときにはステップ(724)へ
移行する。ステップ(723)では前回のレンズ駆動f
!kDL2の絶対値が所定の値Ex2より大きいかどう
か比較し、l DL21 >EX2であればステップ(
725)へ移行し、そうでなければステップ(724)
へ移行する。
In step (722), if the absolute value of the current lens drive amount DL is greater than a predetermined value EX, step (723)
), otherwise the process moves to step (724). In step (723), the previous lens drive f
! Compare whether the absolute value of kDL2 is larger than a predetermined value Ex2, and if lDL21 > EX2, step (
725), otherwise step (724)
Move to.

ステップ(725)では、DL及びDL2の値が比較的
大きく、像面位置が速く移動していると考え、DLとD
L2の比から連続性を判定する。すなわち、DLとDL
2の比が1に近ければ、連続性があると考え、このステ
ップではDC=DL/DL2−1を計算する。
In step (725), considering that the values of DL and DL2 are relatively large and the image plane position is moving quickly, DL and D
Continuity is determined from the ratio of L2. That is, DL and DL
If the ratio of 2 is close to 1, it is considered that there is continuity, and in this step, DC=DL/DL2-1 is calculated.

そして、次のステップ(726)ではDCの値が所定の
値EX4より小さければ連続性有りと判断し、ステップ
(727)へ移行しリターンし、そうでなければ連続性
無しと判断し、ステップ(728)へ移行しリターンす
る。
Then, in the next step (726), if the value of DC is smaller than the predetermined value EX4, it is determined that there is continuity, and the process moves to step (727) and returns; otherwise, it is determined that there is no continuity, and step ( 728) and return.

ステップ(724)では、DLあるいはDL2が比較的
小さく、像面位置があまり変化していないと考え、DL
とDL2の差によって連続性を判定する。
In step (724), considering that DL or DL2 is relatively small and the image plane position has not changed much, DL
Continuity is determined based on the difference between and DL2.

すなわち、DLとDL2の差が所定の値EX3より小さ
ければ連続性有りと判断し、ステップ(727)へ進み
、そうでなければステップ(728)へ移行しリターン
する。
That is, if the difference between DL and DL2 is smaller than a predetermined value EX3, it is determined that there is continuity and the process proceeds to step (727); otherwise, the process proceeds to step (728) and returns.

上記実施例は全て、像面移動速度や像面位置変化の連続
性によって、同一の被写体に対して測距を行っているか
どうか判断したが、これらの実施例を組合わせた判定手
段によっても本発明が有効であることは明らかである。
In all of the above embodiments, it was determined whether distance measurement was being performed on the same subject based on the image plane movement speed and the continuity of changes in the image plane position. It is clear that the invention is effective.

また、全く別の判定手段として、前回の像信号と今回測
距で得られた像信号を比較し、両者の像信号が同一の被
写体のものであると判断された場合に予測演算を行うこ
とができる。
In addition, as a completely different determination method, the previous image signal and the image signal obtained in the current distance measurement are compared, and a predictive calculation is performed when it is determined that both image signals are of the same subject. I can do it.

以上の如く本発明では予測可能な場合には合焦表示不可
能な場合にはNG表示を行うようにしたが、この場合、
実際にファインダーで観察される像はピントがズした状
態であるにもかかわらず、合焦表示が出ることとなる。
As described above, in the present invention, if it is predictable, NG display is performed when in-focus display is impossible, but in this case,
Even though the image actually observed in the viewfinder is out of focus, an in-focus display will appear.

そこで、表示の方法を従来の合焦表示とは異なったもの
にし、撮影者に対して予測制御を行っていることを知ら
せる表示にしても良い。
Therefore, the display method may be different from the conventional focus display to notify the photographer that predictive control is being performed.

また、上記問題点を考慮し、予測不能の場合にのみNG
表示を出し、予測中の合焦表示を行わないという方法も
考えられる。
In addition, considering the above problems, we will only accept NG if it is unpredictable.
It is also conceivable to display a display and not display an in-focus display during prediction.

更には、前記予測可能あるいはNG表示のどちらかの表
示だけによって撮影者にカメラの状態を知らせることも
可能である。
Furthermore, it is also possible to notify the photographer of the camera status only by displaying either the predictable or NG display.

〔効果〕〔effect〕

以上の如(本発明にあっては、予測演算処理に基づ(レ
ンズ駆動が可能な状態と判定された時に合焦表示を行う
様にしたものであるので、予測演算処理による焦点調節
装置にあっても合焦表示が可能となるものである。
As described above (in the present invention, since the in-focus display is performed based on predictive calculation processing (when it is determined that the lens can be driven), the focus adjustment device based on predictive calculation processing Even if there is an object, it is possible to display the focus.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明に係る焦点調節装置に用いる「予測演算
」のフローチャートを示す説明図、第2図は第1図の「
予測演算」処理にてレンズを駆動した際の動作を説明す
る原理説明図、第3図は第2図に基づ(レンズ駆動状態
を説明するための説明図、 第4図は本発明に係る焦点調節装置の一実施例を示す回
路図、 第5図は本発明に係る焦点調節装置の動作を説明するた
めのメインフローチャートを示す説明図、第6図は第5
図示の「像信号人力」サブルーチンのフローチャートを
示す説明図、 第7図は第5図示の「レンズ駆動」サブルーチンのフロ
ーチャートを示す説明図、 第8図は第5図示の「予測、非予測判定」サブルーチン
のフローチャートを示す説明図、 第9図は第8図示の「像面位置の連続性判定」サブルー
チンのフローチャートを示す説明図、第10図は他の「
像面位置の連続性判定」サブルーチンのフローチャート
を示す説明図、 第11図は第8図示の「焦点検出精度判定」サブルーチ
ンのフローチャートを示す説明図、第12図は第8図示
の「予測AFの適性判定」サブルーチンのフローチャー
トを示す説明図、第13図は第5図示の「像信号人力2
」サブルーチンのフローチャートを示す説明図、 第14図は他の1予測演算」サブルーチンのフローチャ
ートを示す説明図、 第15図は第14図示の「予測、非予測判定」サブルー
チンのフローチャートを示す説明図、第16図は第15
図示の「予測精度判定」、サブルーチンのフローチャー
トを示す説明図、 第17図は第15図示の「像面位置の連続性判定」サブ
ルーチンのフローチャートを示す説明図、第18図、第
19図は他の「像面位置の連続性判定」サブルーチンの
フローチャートを示す説明図である。 LED・・・発光ダイオード PH1・・・コンピュータ SNS・・・センサ装置 LPR3・・・制御回路 特許出願人  キャノン株式会社 Pr1PI七 揺乙凹  弓7図 (601υ
FIG. 1 is an explanatory diagram showing a flowchart of "prediction calculation" used in the focus adjustment device according to the present invention, and FIG.
3 is a principle explanatory diagram explaining the operation when the lens is driven in the "predictive calculation" process, and FIG. 3 is based on FIG. 2 (an explanatory diagram for explaining the lens driving state, and FIG. 5 is an explanatory diagram showing a main flowchart for explaining the operation of the focus adjustment device according to the present invention; FIG. 6 is a circuit diagram showing an embodiment of the focus adjustment device; FIG.
FIG. 7 is an explanatory diagram showing a flowchart of the "image signal manual power" subroutine shown in the figure. FIG. 7 is an explanatory diagram showing a flowchart of the "lens drive" subroutine shown in FIG. 5. FIG. FIG. 9 is an explanatory diagram showing a flowchart of the subroutine "continuity determination of image plane position" shown in FIG. 8, and FIG.
FIG. 11 is an explanatory diagram showing a flowchart of the "Continuity determination of image plane position" subroutine. FIG. 11 is an explanatory diagram showing a flowchart of the "Focus detection accuracy determination" subroutine shown in FIG. FIG. 13 is an explanatory diagram showing a flowchart of the subroutine "aptitude determination", and FIG.
FIG. 14 is an explanatory diagram showing a flowchart of the subroutine "Another prediction calculation"; FIG. 15 is an explanatory diagram showing a flowchart of the "prediction/non-prediction determination" subroutine shown in FIG. 14; Figure 16 is the 15th
FIG. 17 is an explanatory diagram showing a flowchart of the subroutine "Judge prediction accuracy" shown in FIG. 15. FIGS. FIG. 2 is an explanatory diagram showing a flowchart of the "continuity determination of image plane position" subroutine of FIG. LED...Light emitting diode PH1...Computer SNS...Sensor device LPR3...Control circuit Patent applicant Canon Co., Ltd.

Claims (1)

【特許請求の範囲】[Claims] 撮影レンズのデフオーカス量を求める焦点検出回路と、
該焦点検出回路出力に基づいてレンズを駆動するレンズ
駆動回路とを備え焦点検出回路によるデフオーカス量の
検出動作と該検出結果に基づくレンズ駆動動作を繰り返
えし行う自動焦点調節装置において、過去複数回におけ
る焦点検出回路にて求められたデフオーカス量に基づき
所定時間後における被写体の像面位置を数次の関数にて
求める演算回路を設け、所定時間後における被写体の像
面位置とレンズの像面位置を一致させるべくレンズ駆動
を行うとともに、前記演算回路にて求めた像面位置への
レンズ駆動にて適正な焦点合わせが得られるか否かを判
定する判定回路を設け、該判定回路の判定結果として適
正な焦点合わせが得られると判定された時に適正表示を
行い、上記演算回路にて求められた像面位置へレンズ駆
動をすることを特徴とする自動焦点調節装置。
A focus detection circuit that determines the amount of defocus of the photographic lens;
In the past, several automatic focusing devices have been developed that include a lens drive circuit that drives a lens based on the output of the focus detection circuit, and repeatedly perform an operation of detecting the amount of defocus by the focus detection circuit and a lens drive operation based on the detection result. An arithmetic circuit is provided that calculates the image plane position of the subject after a predetermined time using a several-order function based on the amount of defocus obtained by the focus detection circuit in the second focus detection circuit. In addition to driving the lens to match the positions, a determination circuit is provided to determine whether proper focusing can be obtained by driving the lens to the image plane position determined by the arithmetic circuit, and the determination circuit makes a determination. An automatic focusing device characterized in that when it is determined that proper focusing can be obtained as a result, a proper display is made and the lens is driven to the image plane position determined by the arithmetic circuit.
JP11881988A 1988-05-16 1988-05-16 Automatic focusing device Pending JPH01288814A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11881988A JPH01288814A (en) 1988-05-16 1988-05-16 Automatic focusing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11881988A JPH01288814A (en) 1988-05-16 1988-05-16 Automatic focusing device

Publications (1)

Publication Number Publication Date
JPH01288814A true JPH01288814A (en) 1989-11-21

Family

ID=14745925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11881988A Pending JPH01288814A (en) 1988-05-16 1988-05-16 Automatic focusing device

Country Status (1)

Country Link
JP (1) JPH01288814A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011087115A1 (en) * 2010-01-12 2011-07-21 Ricoh Company, Ltd. Auto-focus controlling apparatus, electronic imaging apparatus and digital still camera

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011087115A1 (en) * 2010-01-12 2011-07-21 Ricoh Company, Ltd. Auto-focus controlling apparatus, electronic imaging apparatus and digital still camera
JP2011145313A (en) * 2010-01-12 2011-07-28 Ricoh Co Ltd Auto-focus controlling apparatus, electronic imaging apparatus and digital still camera
CN102812391A (en) * 2010-01-12 2012-12-05 株式会社理光 Auto-focus controlling apparatus, electronic imaging apparatus and digital still camera
US8964105B2 (en) 2010-01-12 2015-02-24 Ricoh Company, Ltd. Auto-focus controlling apparatus, electronic imaging apparatus and digital still camera

Similar Documents

Publication Publication Date Title
JPH01285908A (en) Automatic focusing device for camera
JP2511409B2 (en) Automatic focus adjustment device
JPH01285907A (en) Autofocusing device for camera
JPH01213614A (en) Automatic focusing device
JPH01167815A (en) Automatic focusing device
JPH01177507A (en) Camera possessing automatic focusing device
JPH01134410A (en) Automatic focusing device
JPH01280713A (en) Automatic focus adjustor
JPH01288814A (en) Automatic focusing device
JP2736537B2 (en) Automatic focusing device
JP2832006B2 (en) Automatic focusing device
JP2974637B2 (en) Automatic focusing device
JPH01185506A (en) Focus detecting device for camera
JP2762513B2 (en) Automatic focusing device
JPH0797174B2 (en) Automatic focus adjustment device
JP3486464B2 (en) Automatic focusing device
JPH02208642A (en) Automatic focus adjusting device
JPH0830780B2 (en) Automatic focus adjustment device
JPH10186218A (en) Camera provided with automatic focusing device and focus measurement device thereof
JP3544052B2 (en) Optical device and camera
JPH0478832A (en) Focus detecting device
JPH03209413A (en) Automatic focusing device
JPH0541966B2 (en)
JPH024207A (en) Focus detector
JPH0829670A (en) Automatic focusing device and camera