JPH01200315A - Automatic focusing device - Google Patents

Automatic focusing device

Info

Publication number
JPH01200315A
JPH01200315A JP2549088A JP2549088A JPH01200315A JP H01200315 A JPH01200315 A JP H01200315A JP 2549088 A JP2549088 A JP 2549088A JP 2549088 A JP2549088 A JP 2549088A JP H01200315 A JPH01200315 A JP H01200315A
Authority
JP
Japan
Prior art keywords
lens
amount
time
image plane
focus detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2549088A
Other languages
Japanese (ja)
Inventor
Masaki Higashihara
東原 正樹
Yasuo Suda
康夫 須田
Ichiro Onuki
一朗 大貫
Akira Akashi
明石 彰
Terutake Kadohara
輝岳 門原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2549088A priority Critical patent/JPH01200315A/en
Priority to US07/305,162 priority patent/US4908645A/en
Publication of JPH01200315A publication Critical patent/JPH01200315A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To secure a high following performance while estimated errors are prevented by obtaining the image plane position of an object after a prescribed time has passed, based on a defocus amount, the result of iteration, with the aid of a several-degree function and correcting the highest-degree coefficient. CONSTITUTION:In a several-degree function used for predictive calculation, the highest term is corrected. Namely, the image plane position that a camera recognizes is calculated from the detected defocus amount and a lens driving amount, however, they have errors. Consequently, the image plane position recognized by a camera also has an error, and a predictive error in predictive AF is amplified and turns into a nonpermissible amount. Then, a secondary term accounting for the most of a predictive error is corrected to reduce a predictive error substantially. Thus, AF is impervious to errors in focal point detection and in lens driving, whereby highly accurate following and correcting are possible.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明はカメラ等に用いられる自動焦点調節装置に関す
るものである。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an automatic focus adjustment device used in cameras and the like.

〔従来の技術〕[Conventional technology]

従来、−眼レフ・カメラの自動焦点調節方式の多くは「
焦点検出(センサ信号入力、焦点検出演算)、レンズ駆
動」のサイクルを繰り返し行うことによって、被写体に
ピントを合わせようとするものである。各サイクルにお
けるレンズ駆動量はそのサイクルで焦点検出を行った時
点でのデフォーカス量に基づいており、これはレンズ駆
動終了時に焦点検出時のデフォーカス量が解消されるこ
とを期待している。
Conventionally, most automatic focusing systems for eye reflex cameras were
By repeating the cycle of focus detection (sensor signal input, focus detection calculation), and lens drive, it is possible to bring the subject into focus. The amount of lens drive in each cycle is based on the amount of defocus at the time point when focus detection is performed in that cycle, and this is expected to eliminate the amount of defocus at the time of focus detection when lens drive is completed.

当然のことながら、焦点検出、レンズ駆動にはそれ相当
の時間を必要とするわけであるが、静止した被写体の場
合には、レンズを駆動しない限りデフォーカス量の変化
がないので、レンズ駆動が終了した時点に解消すべきデ
フォーカス量は、焦点検出時点でのデフォーカス量に等
しく、正しい焦点調節が行われる。
Naturally, focus detection and lens drive require a considerable amount of time, but in the case of a stationary subject, the amount of defocus will not change unless the lens is driven, so lens drive is The amount of defocus to be canceled at the time of completion is equal to the amount of defocus at the time of focus detection, and correct focus adjustment is performed.

ところが、動きの大きな被写体の場合には、焦点検出、
レンズ駆動中にデフォーカス量が変化し、前記解消すべ
きデフォーカス量と検出デフォーカス量が著しく異なる
ことがあり、結果として、レンズ駆動終了時に被写体に
ピントが合っていないという問題になる。
However, in the case of subjects with large movements, focus detection,
The amount of defocus changes during lens driving, and the defocus amount to be eliminated and the detected defocus amount may be significantly different, resulting in a problem that the subject is out of focus when the lens driving ends.

上記問題点の解決を目的とした自動焦点調節方法として
、本出願人は特願昭62−263728を提案している
As an automatic focusing method aimed at solving the above problems, the present applicant has proposed Japanese Patent Application No. 62-263728.

同提案によって開示されている方法の要旨は、上記各サ
イクルにおける検出デフォーカス量、レンズ駆動量と各
す゛イクルの時間間隔を鑑みて、被写体の移動に起因す
る像面位置と時間の関係を1次関数および2次関数に近
似し、レンズ駆動量に補正をかけようとするものであり
、上記問題の改善が期待される。
The gist of the method disclosed in this proposal is to calculate the relationship between the image plane position and time caused by the movement of the subject into one by taking into consideration the detected defocus amount, lens drive amount, and time interval of each cycle in each cycle. This is an attempt to correct the lens driving amount by approximating the following function and quadratic function, and is expected to improve the above problem.

〔発明が解決しようとしている問題点〕本発明は上記予
測方法による焦点調節に対する更なる改良に関し、焦点
検出動作ならびに、レンズ駆動動作に起因する焦点検出
誤差及びレンズ駆動誤差に基づく誤ったレンズ駆動を防
止せんとするものである。
[Problems to be Solved by the Invention] The present invention relates to further improvements to focus adjustment using the above prediction method, and eliminates focus detection errors caused by focus detection operations, lens drive operations, and incorrect lens drive based on lens drive errors. It is intended to prevent this.

以下、上記誤差による誤ったレンズ駆動につき説明する
Incorrect lens driving due to the above error will be explained below.

第2図は上述のレンズ駆動補正方法を説明するための図
である。図中の横軸は時刻t、縦軸は被写体の像面位置
Xを表わしている。
FIG. 2 is a diagram for explaining the above-mentioned lens drive correction method. The horizontal axis in the figure represents time t, and the vertical axis represents the image plane position X of the subject.

実線で表わした曲線x(t )は撮影レンズが無限遠に
あるときに、カメラに対して光軸方向に接近して(る被
写体の時刻tにおける像面位置を意味している。破線で
表わした2(1)は時刻tにおける撮影レンズ位置を意
味しており、x(t)とf(t)が一致したときに合焦
となる。そして[t+、  t+’ ]が焦点検出動作
時間、[t I’ 、  t +++ ]がレンズ駆動
動作時間を示すものである。また、同図に示した例では
、像面位置が2次関数(at”+bt+c)に従って変
化するという仮定をおいている。即ち、時刻t3におい
て現在および過去3回の像面位置(t+、x+)(t2
 + X2 ) (t3 * Xs )がわかれば、時
刻t3よりTL (AFタイムラグ+レリーズタイムラ
グ)後の時刻t4での像面位置x4が予測できるもので
ある(AFタイムラグ:焦点検出及びレンズ駆動に要す
る時間、レリーズタイムラグ:レリーズ指令がだされて
から露光が開始されるまでの時間)。
The curve x(t) represented by a solid line means the image plane position at time t of a subject approaching the camera in the optical axis direction when the photographing lens is at infinity. 2(1) means the photographing lens position at time t, and in-focus occurs when x(t) and f(t) match.And [t+, t+'] is the focus detection operation time, [t I' , t +++ ] indicates the lens driving operation time. Also, in the example shown in the figure, it is assumed that the image plane position changes according to a quadratic function (at''+bt+c). That is, at time t3, the current and past three image plane positions (t+, x+)(t2
+ X2 ) (t3 * time, release time lag: time from when a release command is issued until exposure starts).

ところが、実際にカメラが検知し得るのは像面位置xl
 l x2 + x3ではなく、デフォーカス量DF、
However, what the camera can actually detect is the image plane position xl.
l Instead of x2 + x3, the defocus amount DF,
.

DF2.DF3ならびに、像面移動量換算のレンズ駆動
量DL、、DL2である。そして時刻t4はあくまで将
来の値であり、実際には、被写体輝度によって蓄積型の
センサの蓄積時間が変化すると、それに伴って変化する
値であるが、ここでは簡単のため、次のように仮定する
DF2. DF3, and lens drive amounts DL, DL2 in terms of image plane movement amount. The time t4 is only a future value, and in reality, it is a value that changes as the storage time of the storage type sensor changes depending on the subject brightness, but for the sake of simplicity, it is assumed as follows. do.

t4−t3 = TL = 7M2+ (レリーズタイ
ムラグ)  (1)以上の仮定の下に、時間t3での焦
点検出結果から算出されたレンズ駆動量DL3は以下の
ように求まる。
t4-t3 = TL = 7M2+ (Release time lag) (1) Under the above assumptions, the lens drive amount DL3 calculated from the focus detection result at time t3 is determined as follows.

x(t)=at”+bt+c           (
2)そして、図中の(1+、I!1)を原点と考えると
、t1==o       xl=DF、      
  (3)t2 =TM1     x2 =DF2 
+ DLI    (4)t3=TM1+TM2   
x3=DF3+DL1+DL2(5)(2)式に(3)
、  (4)、  (5)式を代入してa。
x(t)=at”+bt+c (
2) Then, considering (1+, I!1) in the figure as the origin, t1==o xl=DF,
(3) t2 = TM1 x2 = DF2
+ DLI (4) t3=TM1+TM2
x3=DF3+DL1+DL2 (5) (2) and (3)
, (4), and (5) by substituting equations a.

b、  cを求めると、 c = DPI                  
(8)よって時刻t4における像面移動量換算のレンズ
駆動量DL3は、 DL3=x4−13 =x4−x3+DF3 = a [(TM1+TM2+TL)”−(TMl+T
M2)’)+b−TL+DF3(9) のように求まる。
When calculating b and c, c = DPI
(8) Therefore, the lens drive amount DL3 converted to the image plane movement amount at time t4 is: DL3=x4-13 =x4-x3+DF3=a [(TM1+TM2+TL)''-(TMl+T
M2)')+b-TL+DF3 (9)

次に、焦点検出誤差、及びレンズ駆動誤差による誤予測
について、第3図を使って説明する。
Next, erroneous predictions due to focus detection errors and lens drive errors will be explained using FIG. 3.

第3図は像面位置と時間の関係を示したものであり、実
線は実際に移動する像面の位置である。
FIG. 3 shows the relationship between the image plane position and time, and the solid line indicates the position of the image plane that actually moves.

すなわち、(tto  x+) (t21  X2) 
(ji+ X3)を通る二次関数 x = a t” + b t + c       
          (10)に近似して考えることが
できる。
That is, (tto x+) (t21 X2)
Quadratic function x = a t” + b t + c passing through (ji+X3)
(10) can be approximated.

それに対して、カメラが認識している像面位置は検出さ
れたデフォーカス量及びレンズ駆動量から計算されたも
のであるが、このデフォーカス量及びレンズ駆動量には
誤差が存在するために、カメラが認識している像面位置
にも誤差が発生する。
On the other hand, the image plane position recognized by the camera is calculated from the detected defocus amount and lens drive amount, but since there is an error in this defocus amount and lens drive amount, Errors also occur in the image plane position recognized by the camera.

すなわち、XI’ 、 X2’ 、 X3’  は次式
のように求められる。
That is, XI', X2', and X3' are obtained as shown in the following equation.

x、′:I)F、’ =DF1+δt 、      
       (n)x2’ ==I)F’2’ +D
t、、’ :I)F’2+DL1+δf2+δI!、 
 (12)x3’ =DF3’ +DL1’ +DL2
’ =DF3 +DL1 +DL2+δf3+δ11+
δl12(13) ここで、DF、’ 、  DF2’ 、  DF3’ 
 は検出されたデフォーカス量 DL、’ 、 DL2’  はカメラが検出したレンズ
駆動量であり、 DF、、DF2.DF3は真のデフォーカス量DL、、
DL2は実際に駆動されたレンズ駆動量であり、 δf1.δf2+  δf3は焦点検出誤差δ11.δ
12はレンズ駆動誤差である。
x,′:I)F,′=DF1+δt,
(n)x2'==I)F'2' +D
t,,':I)F'2+DL1+δf2+δI! ,
(12)x3' = DF3'+DL1' +DL2
'=DF3 +DL1 +DL2+δf3+δ11+
δl12(13) Here, DF,' , DF2', DF3'
is the detected defocus amount DL, ', DL2' is the lens drive amount detected by the camera, and DF, DF2. DF3 is the true defocus amount DL,
DL2 is the actual lens driving amount, and δf1. δf2+δf3 is the focus detection error δ11. δ
12 is a lens drive error.

すると、カメラが認識している像面位置と実際の像面位
置の差δ1.δ2.δ3は次のようになる。
Then, the difference between the image plane position recognized by the camera and the actual image plane position is δ1. δ2. δ3 is as follows.

δ1 ”XI’  xl =δf、         
(14)δ2 =X2’  X2 ”δf2+δ11 
  (15)δ3 =X3’  x3 =δf3+δl
、+δ12(16)そして、(tl +  X+’ )
 (t21  X2’ ) (t3+  X3’ )を
通る二次関数は x = a’ t” + b’ t + c’    
      (17)となり、この関数を使って求まっ
たレンズ位置X4′とt4での像面位置x4にはδpの
予測誤差が発生する。
δ1 ``XI' xl = δf,
(14) δ2 = X2' X2 ”δf2+δ11
(15) δ3 = X3' x3 = δf3+δl
, +δ12(16) and (tl + X+')
The quadratic function passing through (t21 X2') (t3+X3') is x = a't" + b' t + c'
(17), and a prediction error of δp occurs between the lens position X4' found using this function and the image plane position x4 at t4.

この予測誤差δpは焦点検出誤差、あるいはレンズ駆動
誤差の数倍の誤差量となってしまう。
This prediction error δp becomes an error amount several times the focus detection error or lens drive error.

このように、従来の焦点調節装置では問題とならなかっ
た焦点検出誤差やレンズ駆動誤差が追従補正を行う予測
AFの予測誤差では数倍に増幅されるために、許容でき
ない量になってしまう。
In this way, the focus detection error and lens drive error, which did not pose a problem with the conventional focus adjustment device, are amplified several times in the prediction error of the predictive AF that performs tracking correction, resulting in an unacceptable amount.

〔問題点を解決するための手段〕[Means for solving problems]

本発明は、前記問題点の解消を目的としたものであり、
予測演算に用いる数次の関数のうち、高次の項を補正す
ることによって、焦点検出系あるいはレンズ駆動系で発
生する誤差の影響を減少させ、予測精度を向上させんと
したものである。
The present invention aims to solve the above problems,
By correcting high-order terms among several-order functions used in predictive calculations, the influence of errors occurring in the focus detection system or lens drive system is reduced, and prediction accuracy is improved.

〔実施例〕〔Example〕

第4図は本発明に関わる自動焦点装置を備えたカメラの
実施例を示す回路図である。
FIG. 4 is a circuit diagram showing an embodiment of a camera equipped with an automatic focusing device according to the present invention.

図においてPRSはカメラの制御装置で、例えば内部に
CPU (中央処理装置)、ROM、RAM、A/D変
換機能を有するlチップ・マイクロコンピュータである
。コンピュータPR3はROMに格納されたカメラのシ
ーケンス・プログラムに従って、自動露出制御機能、自
動焦点検出機能、フィルムの巻き上げ等のカメラの一連
の動作を行う。そのために、コンピュータPR3は同期
式通信用信号5O9SI、5CLK、通信選択信号CL
CM、C3DR,CDDRを用いて、カメラ本体内の周
辺回路およびレンズと通信して、各々の回路やレンズの
動作を制御する。
In the figure, PRS is a camera control device, and is, for example, an l-chip microcomputer having an internal CPU (central processing unit), ROM, RAM, and A/D conversion function. The computer PR3 performs a series of camera operations such as an automatic exposure control function, an automatic focus detection function, and film winding according to a camera sequence program stored in the ROM. For this purpose, the computer PR3 uses the synchronous communication signals 5O9SI, 5CLK, and the communication selection signal CL.
The CM, C3DR, and CDDR are used to communicate with peripheral circuits and lenses within the camera body to control the operations of each circuit and lens.

SOはコンピュータPR3から出力されるデータ信号、
SlはコンピュータPR3へ入力されるデータ信号、5
CLKは信号So、 SIの同期クロックである。
SO is a data signal output from computer PR3,
Sl is a data signal input to the computer PR3, 5
CLK is a synchronization clock for signals So and SI.

LCMはレンズ通信バッファ回路であり、カメラが動作
中のときにはレンズ用電源端子に電力を供給すると共に
、コンピュータPR3からの選択信号CLCMが高電位
レベル(以下゛H°と略記する)のときにはカメラとレ
ンズ間通信バッファとなる。
LCM is a lens communication buffer circuit that supplies power to the lens power supply terminal when the camera is in operation, and when the selection signal CLCM from the computer PR3 is at a high potential level (hereinafter abbreviated as ゛H°), it supplies power to the lens power terminal. Serves as an inter-lens communication buffer.

コンピュータPRSがCLCMをH゛にして、S CL
 Kに同期して所定のデータをSOから送出すると、L
CMはカメラ・レンズ間接点を介して、5CLK、So
の各々のバッファ信号LCK、DCLをレンズへ出力す
る。それと同時にレンズからの信号DLCのバッファ信
号をSlに出力し、PRSは5CLKに同期してSlか
らレンズのデータを入力する。
Computer PRS sets CLCM to high and S CL
When predetermined data is sent from SO in synchronization with K, L
CM is sent via the camera-lens interface, 5CLK, So
The respective buffer signals LCK and DCL are output to the lens. At the same time, a buffered signal of the signal DLC from the lens is output to Sl, and PRS inputs lens data from Sl in synchronization with 5CLK.

SDRはCCD等から構成される焦点検出用のラインセ
ンサ装置SNSの駆動回路であり、信号C3DRがH°
のとき選択されて、So、Sl、5CLKを用いてPR
Sから制御される。
SDR is a drive circuit for the line sensor device SNS for focus detection, which is composed of a CCD, etc., and the signal C3DR is H°.
is selected and PR is performed using So, Sl, 5CLK.
Controlled from S.

信号CKはCOD駆動用クロりクφ1.φ2を生成する
ためのクロックであり、信号INTENDは蓄積動作が
終了したことをPH1へ知らせる信号である。
The signal CK is the COD driving clock φ1. This is a clock for generating φ2, and the signal INTEND is a signal that notifies PH1 that the accumulation operation has ended.

SNSの出力信号O8はクロックφl、φ2に同期した
時系列の像信号であり、SDR内の増幅回路で増幅され
た後、AO5としてPH1に出力される。PH1はAO
3をアナログ入力端子から入力し、CKに同期して、内
部のA/D変換機能でA/D変換後、RAMの所定のア
ドレスに順次格納する。
The output signal O8 of the SNS is a time-series image signal synchronized with the clocks φl and φ2, and after being amplified by the amplifier circuit in the SDR, it is outputted to the PH1 as AO5. PH1 is AO
3 is input from the analog input terminal, is A/D converted by the internal A/D conversion function in synchronization with CK, and is sequentially stored at a predetermined address in the RAM.

同じ< SNSの出力信号である5AGCは、SNS内
のAGC(自動利得制御:Auto Ga1n Con
trol)用センサの出力であり、SDRに入力されて
、SNSの蓄積制御に用いられる。
Same < 5AGC, which is the output signal of SNS,
trol) sensor, is input to the SDR, and is used for SNS storage control.

SPCは撮影レンズを介した被写体からの光を受光する
露出制御用の測光センサであり、その出力5spcはP
H1のアナログ入力端子に入力され、A/D変換後、所
定のプログラムに従って自動露出制御(AE)に用いら
れる。
SPC is a photometric sensor for exposure control that receives light from the subject through the photographic lens, and its output of 5spc is P
The signal is input to the analog input terminal of H1, and after A/D conversion is used for automatic exposure control (AE) according to a predetermined program.

DDRはスイッチ検知および表示用回路であり、信号C
DDRが“H′のとき選択されて、So、 Sr、 5
CLKを用いてPH1から制御される。即ち、PH1か
ら送られてくるデータに基づいてカメラの表示部材DS
Pの表示を切り替えたり、カメラの各種操作部材に連動
するスイッチSWSのオン・オフ状態を通信によってP
H1へ報知する。
DDR is a switch detection and display circuit, and the signal C
Selected when DDR is “H”, So, Sr, 5
Controlled from PH1 using CLK. That is, based on the data sent from PH1, the display member DS of the camera
The P display can be switched, and the on/off status of the switch SWS linked to various camera operation members can be changed via communication.
Notify H1.

スイッチSWI、SW2は不図示のレリーズボタンに連
動したスイッチで、レリーズボタンの第1段階の押下に
よりSWIがオンし、引き続いて第2段階までの押下で
SW2がオンする。コンピュータPR3は後述するよう
に、SWIオンで測光、自動焦点調節動作を行い、SW
2オンをトリガとして露出制御とフィルムの巻き上げを
行う。尚、SW2はマイクロコンピュータPR8の「割
込み入力端子」に接続され、SWIオン時のプログラム
実行中でもSW2オンによって割込みがかかり、直ちに
所定の割込みプログラムへ移行することが出来る。
The switches SWI and SW2 are switches linked to a release button (not shown), and when the release button is pressed to the first stage, SWI is turned on, and when the release button is pressed to the second stage, SW2 is turned on. As will be described later, the computer PR3 performs photometry and automatic focus adjustment when the SWI is turned on, and
Exposure control and film winding are performed using 2-on as a trigger. Note that SW2 is connected to the "interrupt input terminal" of the microcomputer PR8, and even if the program is being executed when the SWI is on, an interrupt is generated by turning on the SW2, and the program can immediately proceed to a predetermined interrupt program.

MTRIはフィルム給送用、MTR2はミラーアップ・
ダウンおよびシャッタばねチャージ用のモータであり、
各々の駆動回路MDRI、MDR2により正転・逆転の
制御が行われる。PH1からMDRI。
MTRI is for film feeding, MTR2 is for mirror up/
It is a motor for down and shutter spring charging,
Forward rotation/reverse rotation control is performed by each of the drive circuits MDRI and MDR2. PH1 to MDRI.

MDR2に入力されている信号MIF、MIR,M2F
Signals MIF, MIR, M2F input to MDR2
.

M2Rはモータ制御用の信号である。M2R is a signal for motor control.

MCI、MG2は各々シャッタ先幕・後幕走行開始用マ
グネットで、信号SMGI、5MG2、増幅トランジス
タTRI、TR2で通電され、PH1によりシャッタ制
御が行われる。
MCI and MG2 are magnets for starting the movement of the front and rear shutter curtains, respectively, and are energized by signals SMGI, 5MG2, and amplification transistors TRI and TR2, and shutter control is performed by PH1.

尚、スイッチ検知および表示用回路DDR,モータ駆動
回路MDRI、MDR2、シャッタ制御は、本発明と直
接間わりがないので、詳しい説明は省略する。
Note that the switch detection and display circuit DDR, motor drive circuits MDRI and MDR2, and shutter control are not directly related to the present invention, so detailed explanations thereof will be omitted.

レンズ内制御回路LPR3にLCKに同期して入力され
る信号DCLは、カメラからレンズFLNSに対する命
令のデータであり、命令に対するレンズの動作が予め決
められている。
The signal DCL input to the in-lens control circuit LPR3 in synchronization with LCK is data of a command from the camera to the lens FLNS, and the operation of the lens in response to the command is determined in advance.

LPR8は、所定の手続きに従ってその命令を解析し、
焦点調節や絞り制御の動作や、出力DLCからのレンズ
の各種パラメータ(開放Fナンバー、焦点距離、デフォ
ーカス1対繰り出し量の係数等)の出力を行う。
LPR8 analyzes the instruction according to a predetermined procedure,
It performs focus adjustment and aperture control operations, and outputs various lens parameters (open F number, focal length, coefficient of defocus ratio versus extension amount, etc.) from the output DLC.

実施例では、ズームレンズの例を示しており、カメラか
ら焦点調節の命令が送られた場合には、同時に送られて
くる駆動量・方向に従って、焦点調節用モータLMTR
を信号LMF、LMRによって駆動して、光学系を光軸
方向移動させて焦点調節を行う。光学系の移動量はエン
コーダ回路ENCFのパルス信号5ENCFでモニター
して、LPR3内のカウンタで計数しており、所定の移
動が完了した時点で、LPR3自身が信号LMF、LM
Rを′L。
In the embodiment, an example of a zoom lens is shown, and when a focus adjustment command is sent from a camera, the focus adjustment motor LMTR is activated according to the driving amount and direction sent at the same time.
is driven by signals LMF and LMR to move the optical system in the optical axis direction and perform focus adjustment. The amount of movement of the optical system is monitored by the pulse signal 5ENCF of the encoder circuit ENCF and counted by a counter in the LPR3, and when the predetermined movement is completed, the LPR3 itself outputs the signals LMF and LM.
'L' for R.

にしてモータLMTRを制動する。to brake motor LMTR.

このため、−旦カメラから焦点調節の命令が送られた後
は、カメラ内の制御装置PR3はレンズの駆動が終了す
るまで、レンズ駆動に関して全く関与する必要がない。
Therefore, once the focus adjustment command is sent from the camera, the control device PR3 within the camera does not need to be involved in lens driving at all until the lens driving is completed.

又、カメラから絞り制御の命令が送られた場合には、同
時に送られてくる絞り段数に従って、絞り駆動用として
は公知のステッピング串モータDMTRを駆動する。
Further, when an aperture control command is sent from the camera, a stepping skewer motor DMTR, which is known for driving an aperture, is driven in accordance with the number of aperture stages sent at the same time.

ENCZはズーム光学系に付随したエンコーダ回路であ
り、LPR3はENCZからの信号5ENCZを入力し
てズーム位置を検出する。LPR3内には各ズーム位置
におけるレンズパラメータが格納されており、カメラ側
のPH1から要求があった場合には、現在のズーム位置
に対応したパラメータをカメラへ送出する。
ENCZ is an encoder circuit attached to the zoom optical system, and LPR3 receives a signal 5ENCZ from ENCZ to detect the zoom position. Lens parameters at each zoom position are stored in the LPR3, and when a request is made from the camera side PH1, parameters corresponding to the current zoom position are sent to the camera.

上記構成によるカメラの動作について第5図以下のフロ
ーチャートに従って説明する。
The operation of the camera with the above configuration will be explained according to the flowcharts shown in FIG. 5 and subsequent figures.

不図示の電源スィッチがオンとなると、マイクロコンピ
ュータPR3への給電が開始され、PH1はROMに格
納されたシーケンスプログラムの実行を開始する。
When a power switch (not shown) is turned on, power supply to the microcomputer PR3 is started, and PH1 starts executing the sequence program stored in the ROM.

第5図は上記プログラムの全体の流れを表わすフローチ
ャートである。上記操作にてプログラムの実行が開始さ
れると、ステップ(001)を経て、ステップ(002
)においてレリーズボタンの第1段階押下によりオンと
なるスイッチSWIの状態検知がなされ、SWlオフの
ときにはステップ(OOa)へ移行して、PRS内のR
AMに設定されている制御用のフラグ、変数を総てクリ
アし、初期化する。
FIG. 5 is a flow chart showing the overall flow of the above program. When the program execution starts with the above operation, it passes through step (001) and then step (002).
), the state of the switch SWI, which is turned on by pressing the first step of the release button, is detected, and when SWl is off, the process moves to step (OOa), and the R in PRS is detected.
Clear and initialize all control flags and variables set in AM.

上記ステップ(002) (003)はスイッチSWI
がオンとなるか、あるいは電源スィッチがオフとなるま
で(り返し実行される。SWlがオンすることによりス
テップ(002)からステップ(005)へ移行する。
The above steps (002) and (003) are the switch SWI
is turned on or the power switch is turned off (repeatedly executed. When SW1 is turned on, the process moves from step (002) to step (005).

ステップ(005)では露出制御のための「測光」サブ
ルーチンを実行する。PH1は第4図に示した測光用セ
ンサSPCの出力5spcをアナログ入力端子に入力し
、A/D変換を行って、そのディジタル測光値から最適
なシャッタ制御値、絞り制御値を演算して、それぞれを
RAMの所定アドレスへ格納する。そして、レリーズ動
作時にはこれら値に基づいてシャッタおよび絞りの制御
を行う。
In step (005), a "photometering" subroutine for exposure control is executed. PH1 inputs the output 5spc of the photometry sensor SPC shown in Fig. 4 to the analog input terminal, performs A/D conversion, calculates the optimal shutter control value and aperture control value from the digital photometry value, Each is stored at a predetermined address in RAM. During the release operation, the shutter and aperture are controlled based on these values.

続いてステップ(006)で「像信号入力」サブルーチ
ンを実行する。このサブルーチンのフローは第6図に示
しているが、PH1は焦点検出用センサ装置SNSから
像信号の入力を行う。詳細は後述する。
Subsequently, in step (006), an "image signal input" subroutine is executed. The flow of this subroutine is shown in FIG. 6, and PH1 inputs an image signal from the focus detection sensor device SNS. Details will be described later.

次のステップ(007)で、入力した像信号に基づいて
撮影レンズのデフォーカス量DEFを演算する。具体的
な演算方法は本出願人によって特願昭61−16082
4号公報等に開示されているので詳細な説明は省略する
In the next step (007), the defocus amount DEF of the photographing lens is calculated based on the input image signal. The specific calculation method is disclosed in Japanese Patent Application No. 61-16082 by the applicant.
Since it is disclosed in Publication No. 4 etc., detailed explanation will be omitted.

ステップ(008)では「予測演算」サブルーチンを実
行する。「予測演算」サブルーチンはレンズ駆動量の補
正を行うものであり、そのフローを第1図に示している
In step (008), a "prediction calculation" subroutine is executed. The "prediction calculation" subroutine is for correcting the lens drive amount, and its flow is shown in FIG.

続いて、ステップ(009)では「レンズ駆動」サブル
ーチンを実行し、先のステップ(008)で゛補正され
たレンズ駆動量DLに基づいてレンズ駆動を行う。この
「レンズ駆動」サブルーチンは第7図にそのフローを示
している。レンズ駆動終了後は再びステップ(002)
 ’へ移行して、SWlがオ□フするか不図示のスイッ
チSW2がオンするまで、ステップ(005)〜(00
9)がくり返して実行され、動いている被写体に対して
も好ましい焦点調節が行われる。
Subsequently, in step (009), a "lens drive" subroutine is executed, and the lens is driven based on the lens drive amount DL corrected in the previous step (008). The flow of this "lens drive" subroutine is shown in FIG. After lens driving is completed, step (002) is performed again.
' until SWl is turned off or switch SW2 (not shown) is turned on, steps (005) to (00
Step 9) is repeatedly executed to achieve preferable focus adjustment even for a moving subject.

さて、レリーズボタンがさらに押しこまれてスイッチS
W2がオンすると、割込み機能によって、いずれのステ
ップにあっても直ちにステップ(010)へ移行してレ
リーズ動作を開始する。
Now, the release button is pushed in further and the switch S
When W2 is turned on, the interrupt function immediately moves to step (010) to start the release operation, regardless of which step it is in.

ステップ(011)ではレンズ駆動、を実行中かどうか
判別し、駆動中であれば、ステップ(012)に移行し
、レンズに駆動停止命令を送出し、レンズ、を停止させ
、ステップ(013)に進み、レンズを駆動していなけ
れば、すぐにステップ(013)に進む。
In step (011), it is determined whether or not lens driving is being executed. If driving is in progress, the process moves to step (012), a driving stop command is sent to the lens, the lens is stopped, and step (013) is performed. If the lens is not being driven, the process immediately advances to step (013).

ステップ(013)ではカメラのクイックリターンミラ
ーのミラーアップを行う。これは、第4図に示したモー
タ制御用信号M2F、M2RにてモーターMTR2を制
御することで実行される。次のステップ(014)では
先のステップ(005)の測光サブルーチンで既に格納
されている絞り制御値をレンズへ送出してレンズに絞り
制御を行わせる。
In step (013), the quick return mirror of the camera is raised. This is executed by controlling the motor MTR2 using the motor control signals M2F and M2R shown in FIG. In the next step (014), the aperture control value already stored in the photometry subroutine of the previous step (005) is sent to the lens to cause the lens to perform aperture control.

ステップ(013)(014)のミラーアップと絞り制
御が完了したか否かはステップ(015)で検知するわ
けであるが、ミラーアップはミラーに付随した不図示の
検知スイッチにて確認することが出来、絞り制御は、レ
ンズに対して所定の絞り値まで駆動したか否かを通信で
確認する。いずれかが未完了の場合には、このステップ
で待機し、引き続き状態検知を行う。両者の制御終了が
確認されるとステップ(016)へ移行される。
Whether or not the mirror up and aperture control in steps (013) and (014) have been completed is detected in step (015), and mirror up can be confirmed using a detection switch (not shown) attached to the mirror. For aperture control, it is confirmed via communication whether the lens has been driven to a predetermined aperture value. If either one is not completed, the process waits at this step and continues to detect the status. When it is confirmed that both controls have been completed, the process moves to step (016).

ステップ(016)では先のステップ(005)の測光
サブルーチンで既に格納されているシャッタ制御値にて
シャッタの制御を行いフィルムを露光する。
In step (016), the shutter is controlled using the shutter control value already stored in the photometry subroutine of the previous step (005), and the film is exposed.

シャッタの制御が終了すると次のステップ(017)で
はレンズに対して、絞りを開放状態にするように命令を
送り、引き続いてステップ(018)でミラーダウンを
行う。ミラーダウンはミラーアップと同様にモータ制御
用信号M2F、M2Rを用いてモータMTR2を制御す
ることで実行される。
When the shutter control is completed, in the next step (017), a command is sent to the lens to open the aperture, and then in step (018), the mirror is lowered. Similar to mirror up, mirror down is executed by controlling motor MTR2 using motor control signals M2F and M2R.

次のステップ(019)ではステップ(015)と同様
にミラーダウンと絞り開放が完了するのを待つ、ミラー
ダウンと絞り開放制御がともに完了するとステップ(0
20)へ移行する。
In the next step (019), similarly to step (015), wait for the mirror down and aperture opening control to be completed.When both mirror down and aperture opening control are completed, step (019)
20).

ステップ(020)では第4図に示したモータ制御用信
号MIF、MIRを適正に制御することでモーターMT
R1を制御し、フィルム1駒分が巻上げられる。
In step (020), the motor MT is controlled by appropriately controlling the motor control signals MIF and MIR shown in FIG.
By controlling R1, one frame of film is wound.

以上が予測AFを実施したカメラのシーケンスである。The above is the sequence of the camera that performed predictive AF.

次に第6図に示した「像信号入力」サブルーチンについ
て説明する。
Next, the "image signal input" subroutine shown in FIG. 6 will be explained.

「像信号入力」は新たな焦点検出動作の最初に実行され
る動作であり、このサブルーチンがコールされると、ス
テップ(101)を経てステップ(102)にて、マイ
クロコンピュータPR3自身が有している自走タイマの
タイマ値TIMERをRAM上の記憶領域TNに格納す
ることによって、焦点検出動作の開始時刻を記憶してい
る。
"Image signal input" is the first operation to be executed in a new focus detection operation, and when this subroutine is called, the process proceeds to step (101) and then to step (102). By storing the timer value TIMER of the self-running timer in the storage area TN on the RAM, the start time of the focus detection operation is stored.

次のステップ(103)では、レンズ駆動量補正式(6
) (7) (9)中の時間間隔TIVln−2,TM
n−+に対応するTMI、7M2を更新する。ステップ
(103)を実行する以前には、TMI、7M2には前
回の焦点検出動作における時間間隔T M n−2、T
 M n−1が記憶されており、またTNIには前回の
焦点検出動作を開始した時刻が記憶されている。
In the next step (103), the lens drive amount correction formula (6
) (7) Time interval TIVln-2,TM in (9)
Update TMI 7M2 corresponding to n-+. Before executing step (103), TMI, 7M2 includes time intervals T M n-2, T
M n-1 is stored, and TNI stores the time when the previous focus detection operation was started.

従って7M2は前々回から前回まで、TNI−TNは前
回から今回までの焦点検出動作の時間間隔を表わし、こ
れが式(6) (7) (9)中のT Mn−2,T 
Mn−+に相当するRAM上の記憶領域TMI、TM2
に格納されるわけである。そしてTNIには次回の焦点
検出動作のために今回の時刻TNが格納される。即ち、
ステップ(103)にて記憶領域TMI、TM2には常
に前々回から前回までと前回から今回までの焦点検出動
作時間が記憶される。
Therefore, 7M2 represents the time interval of the focus detection operation from the previous time to the previous time, and TNI-TN represents the time interval of the focus detection operation from the previous time to the current time, and this is T Mn-2,T in equations (6), (7), and (9).
Storage areas TMI and TM2 on the RAM corresponding to Mn-+
It is stored in . Then, the current time TN is stored in TNI for the next focus detection operation. That is,
In step (103), the focus detection operation times from the previous time to the previous time and from the previous time to the current time are always stored in the storage areas TMI and TM2.

さて、次のステップ(104)でセンサ装置SNSに光
像の蓄積を開始させる。具体的にはマイクロコンピュー
タPR5がC3DRをHとなし、センサ駆動回路SDR
に通信にてSOとしての「蓄積開始コマンド」を送出し
て、これを受けてSDRはセンサ装置SNSの光電変換
素子部のクリア信号CLRをL゛にして電荷の蓄積を開
始させる。
Now, in the next step (104), the sensor device SNS is caused to start accumulating optical images. Specifically, the microcomputer PR5 sets C3DR to H, and the sensor drive circuit SDR
In response to this, the SDR sends an "accumulation start command" as an SO via communication, and in response to this, the SDR changes the clear signal CLR of the photoelectric conversion element section of the sensor device SNS to L to start accumulating charges.

ステップ(105)では自走タイマのタイマ値を変数T
Iに格納して現在の時刻を記憶する。
In step (105), the timer value of the free-running timer is set as a variable T.
I to store the current time.

次のステップ(106)ではコンピュータPR3への入
力INTEND端子の状態を検知し、蓄積が終了したか
否かを調べる。センサ駆動回路SDRは蓄積開始と同時
に信号INTENDをL′にし、センサ装置SNSから
のAGC信号5AGC(蓄積量を表わす信号)をモニタ
し、該5AGCが所定レベルに達すると、信号INTE
NDをH′にし、同時に電荷転送信号SHを所定時間゛
H゛にして、光電変換素子部の電荷をCCD部に転送さ
せる構造を有している。
In the next step (106), the state of the input INTEND terminal to the computer PR3 is detected, and it is determined whether or not the storage has been completed. The sensor drive circuit SDR sets the signal INTEND to L' at the same time as the start of accumulation, monitors the AGC signal 5AGC (signal representing the accumulation amount) from the sensor device SNS, and when the 5AGC reaches a predetermined level, changes the signal INTEND to L'.
It has a structure in which the charge in the photoelectric conversion element section is transferred to the CCD section by setting ND to H' and simultaneously setting the charge transfer signal SH to "H" for a predetermined period of time.

ステップ(106)でINTEND端子がH°ならば蓄
積が終了したということでステップ(110)へ移行し
、L°ならば未だ蓄積が終了していないということでス
テップ(107)へ移行する。
In step (106), if the INTEND terminal is H°, it means that the storage has been completed, and the process moves to step (110); if it is L°, it means that the storage has not finished yet, and the process moves to step (107).

ステップ(107)では自走タイマのタイマ値TIME
Rから、ステップ(105)で記憶した時刻TIを減じ
て変数TEに格納する。従ってTHには蓄積開始してか
らここまでの時刻、いわゆる蓄積時間が格納されること
になる。次のステップ(108)ではTEと定数MAX
INTを比較し、TEがMAXINT未満ならばステッ
プ(106)へ戻り、再び蓄積終了待ちとなる。TEが
MAXINT以上になるとステップ(109)へ移行し
て、強制的に蓄積終了させる。
In step (107), the timer value TIME of the free-running timer is
The time TI stored in step (105) is subtracted from R and stored in the variable TE. Therefore, the time from the start of accumulation to this point, the so-called accumulation time, is stored in TH. In the next step (108), TE and constant MAX
INT is compared, and if TE is less than MAXINT, the process returns to step (106) and waits for the completion of accumulation again. When TE exceeds MAXINT, the process moves to step (109) and the accumulation is forcibly terminated.

強制蓄積終了はコンピュータPR3から上記通信号にて
回路SDRへ「蓄積終了コマンド」を送出することで実
行される。SDRはPH1から「蓄積終了コマンド」が
送られると、電荷転送信号SHを所定時間゛H°にして
光電変換部の電荷をCCD部へ転送させる。ステップ(
109)までのフローでセンサの蓄積は終了することに
なる。
The forced storage termination is executed by sending an "accumulation termination command" from the computer PR3 to the circuit SDR using the above communication signal. When the SDR receives an "accumulation end command" from the PH1, it sets the charge transfer signal SH to ゛H° for a predetermined period of time and transfers the charges in the photoelectric conversion section to the CCD section. Step (
The sensor accumulation ends with the flow up to step 109).

ステップ(110)ではセンサ装置SNSの像信号O8
をセンサ駆動回路SDRで増幅した信号AO3のA/D
変換およびそのディジタル信号のRAM格納を行う。よ
り詳しく述べるならば、SDRはPH1からのクロック
CKに同期してCOD駆動用クロりクφ1.φ2を生成
してSNS内部の制御回路へ与え、SNSはφ1.φ2
によってCCD部が駆動され、CCD内の電荷は、像信
号として出力O8から時系列的に出力される。この信号
はSDR内部の増巾器で増巾された後に、AO3として
PH1のアナログ入力端子へ入力される。PH1は自ら
が出力しているクロックCKに同期してA/D変換を行
い、A/D変換後のディジタル像信号を順次RAMの所
定アドレスに格納してゆ(。
In step (110), the image signal O8 of the sensor device SNS is
A/D of signal AO3 amplified by sensor drive circuit SDR
Performs conversion and stores the digital signal in RAM. To explain in more detail, the SDR uses the COD driving clock φ1. in synchronization with the clock CK from PH1. φ2 is generated and given to the control circuit inside the SNS, and the SNS generates φ1. φ2
The CCD unit is driven by the CCD unit, and the charges in the CCD are output in time series from the output O8 as an image signal. After this signal is amplified by an amplifier inside the SDR, it is input as AO3 to the analog input terminal of PH1. The PH1 performs A/D conversion in synchronization with the clock CK that it outputs, and sequentially stores the digital image signals after A/D conversion at predetermined addresses in the RAM.

このようにして像信号の入力を終了するとステップ(1
11)にて「像信号入力」サブルーチンをリターンする
After inputting the image signal in this way, step (1
At step 11), the "image signal input" subroutine is returned.

第7図に「レンズ駆動」サブルーチンのフローチャート
を示す。
FIG. 7 shows a flowchart of the "lens drive" subroutine.

このサブルーチンが実行されると、ステップ(202)
においてレンズと通信して、2つのデータrsJ rP
THJを入力する。rSJは撮影レンズ固有の[デフォ
ーカス量対焦点調節レンズくり出し量の係数」であり、
例えば全体(り出し型の単レンズの場合には、撮影レン
ズ全体が焦点調節レンズであるからS=1であり、ズー
ムレンズの場合には各ズーム位置によってSは変化する
。rPTHJは焦点調節レンズLNSの光軸方向の移動
に連動したエンコーダENCFの出力1パルス当たりの
焦点調節レンズのくり出し量である。
When this subroutine is executed, step (202)
communicates with the lens at
Enter THJ. rSJ is the [coefficient of the amount of defocus versus the amount of protrusion of the focusing lens] specific to the photographic lens,
For example, in the case of the entire (extending type single lens), S = 1 because the entire photographing lens is a focusing lens, and in the case of a zoom lens, S changes depending on each zoom position.rPTHJ is the focusing lens This is the amount by which the focusing lens is extended per one pulse output from the encoder ENCF, which is linked to the movement of the LNS in the optical axis direction.

従って焦点調節すべきデフォーカス量DL、上記S、P
THにより焦点調節レンズのくり出し量をエンコーダの
出力パルス数に換算した値、いわゆるレンズ駆動fiF
Pは次式で与えられることになる。
Therefore, the defocus amount DL to be adjusted, the above S, P
The value obtained by converting the amount of protrusion of the focusing lens into the number of output pulses of the encoder using TH, the so-called lens drive fiF
P will be given by the following equation.

FP=DLXS/PTH ステップ(203)は上式をそのまま実行している。FP=DLXS/PTH Step (203) executes the above equation as is.

ステップ(204)ではステップ(203)で求めたF
Pをレンズに送出して焦点調節レンズ(全体くり出し型
単レンズの場合には撮影レンズ全体)の駆動を命令する
In step (204), F obtained in step (203)
P is sent to the lens to command the driving of the focusing lens (or the entire photographing lens in the case of a fully extending single lens).

次のステップ(205)で、レンズと通信してステップ
(206)で命令したレンズ駆動量FPの駆動が終了し
たか否かを検知し、駆動が終了するとステップ(206
)へ移行して「レンズ駆動」サブルーチンをリターンす
る。
In the next step (205), it is detected whether or not the driving of the lens driving amount FP commanded in step (206) is completed by communicating with the lens, and when the driving is completed, step (206)
) and return to the "lens drive" subroutine.

尚、レンズ駆動の終了検知は上述の如く駆動量FPが回
路LPR3入力され、且つレンズ駆動がなされるとエン
コーダー回路ENCFのパルス5ENCFがLPRS内
のカウンターにて計数されており、この計数値が上記F
Pと一致したか否かの判別が回路LPR3内にて行われ
、計数値とFPとが一致した際のLPR3の出力状態を
上記ステップ(205)での通信にて検知され上記ステ
ップ(206)へ移行するものである。
In addition, to detect the end of lens driving, as described above, the driving amount FP is input to the circuit LPR3, and when the lens is driven, the pulse 5ENCF of the encoder circuit ENCF is counted by the counter in the LPRS, and this counted value is the above-mentioned value. F
A determination as to whether or not P matches is made in the circuit LPR3, and the output state of LPR3 when the counted value and FP match is detected through the communication in step (205) above, and step (206) This is a transition to

次に「予測演算」サブルーチンのフローを第1図で説明
する。第1図は「予測演算」サブルーチンのフローを示
したものであり、レリーズタイムラグを考慮したレンズ
駆動量を計算するものである。ステップ(302) (
’303)では今回の予測演算のためのデータの更新を
行っている。
Next, the flow of the "prediction calculation" subroutine will be explained with reference to FIG. FIG. 1 shows the flow of the "prediction calculation" subroutine, which calculates the lens drive amount taking into account the release time lag. Step (302) (
'303), the data for the current prediction calculation is updated.

即ち、ステップ(302)ではメモリーDF2のデータ
をDF、に入力する。メモリーDF2には今回の該サブ
ルーチンが行われる以前には前回のデフォーカス量が入
力されているが、今回の該サブルーチンが実行される時
点ではDF2の内容は前前回のデフォーカス量となって
しまうので、これをメモリーDF、に入力しメモリーD
F、には常に前前回のデフォーカス量がストアーされる
様なしている。
That is, in step (302), the data in the memory DF2 is input to DF. The previous defocus amount is input to the memory DF2 before this subroutine is executed, but at the time the current subroutine is executed, the contents of DF2 become the previous defocus amount. So, input this into memory DF and save it to memory D.
The previous defocus amount is always stored in F.

又、メモリーDF3の内容をDF2に入力し、DF2に
常に前回のデフォーカス量が、又、今回の検出デフォー
カスfi DEFをDF3にストアーしてDF3に常に
今回のデフォーカス量が格納される様なしている。
Also, input the contents of the memory DF3 to DF2 so that DF2 always stores the previous defocus amount, and stores the current detected defocus fi DEF in DF3 so that DF3 always stores the current defocus amount. I am doing it.

又、ステップ(303)ではメモリーDL2のデ−ター
をメモリーDL、に入力し、DL、に常に前々回のレン
ズ駆動量データーをストアーする。又データーDLをメ
モリーDL2に入力する。データー〇Lは前回の駆動量
データーであり、メモリーDL2には常に直前に行われ
たレンズ駆動量データーが格納される。
Further, in step (303), the data in the memory DL2 is input to the memory DL, and the lens driving amount data from the previous time is always stored in the memory DL. The data DL is also input to the memory DL2. Data 〇L is the previous driving amount data, and the memory DL2 always stores the lens driving amount data performed immediately before.

以上のステップ(302) (303)にて過去複数回
前から今回のデフォーカス量及びレンズ駆動量データー
が各メモリーに更新され格納される。
In the above steps (302) and (303), the current defocus amount and lens drive amount data from the past multiple times are updated and stored in each memory.

ステップ(304)ではタイムラグTLの演算を行う。In step (304), a time lag TL is calculated.

この演算は記憶領域TM2のデーターとレリーズタイム
ラグTRの和を求めることで実行される。
This calculation is executed by calculating the sum of the data in the storage area TM2 and the release time lag TR.

記憶領域TM2には前述の如(前回から今回までの焦点
検出動作時間が記憶されており、今回の焦点検出動作時
間も前回の焦点検出動作時間と一致しているものとの仮
定のもとてタイムラグTL=TM2+TRを求める。
As mentioned above, the memory area TM2 stores the focus detection operation time from the previous time to the current time, and the current focus detection operation time is assumed to match the previous focus detection operation time. Find time lag TL=TM2+TR.

ステップ(305)、(306)では各メモリーDF。In steps (305) and (306), each memory DF.

〜DF3.DL、、DL2.TM、、7M2に格納され
たデーターに基づき(6)、  (7)式のa、  b
項を表わすA、  Bを求める。
~DF3. DL,,DL2. Based on the data stored in TM, 7M2, a and b in equations (6) and (7)
Find A and B that represent the terms.

次のステップ(307)では後述のサブルーチンにて補
正係数TFを求め、ステップ(308)へ移行する。
In the next step (307), a correction coefficient TF is determined in a subroutine to be described later, and the process moves to step (308).

このステップ(308)では各メモリーのデーター及び
ステップ(304)〜(306)の演算値にもとづき(
9)式の演算値を求め、この演算値に上記補正係数TF
をかけたものを演算し今回の像面移動量換算のレンズ駆
動量DLを求める。この後ステップ(309)にてリタ
ーンする。
In this step (308), based on the data in each memory and the calculated values in steps (304) to (306),
9) Find the calculated value of the formula, and add the above correction coefficient TF to this calculated value.
The multiplied value is calculated to obtain the lens drive amount DL in terms of the current image plane movement amount. After this, the process returns to step (309).

この様にして予測演算が行われるとステップ(009)
iこで上述のレンズ駆動がなされ、レンズは像面位を一
致させる位置へ移行される。
When the prediction calculation is performed in this way, step (009)
At this point, the lens is driven as described above, and the lens is moved to a position where the image plane positions match.

次に「補正係数演算」サブルーチンのフローについて説
明する。
Next, the flow of the "correction coefficient calculation" subroutine will be explained.

第8図は「補正係数演算」のフローを示したものであり
、ステップ(402)では、焦点検出動作時間間隔と予
測に用いるタイムラグとの比TX = (TM 。
FIG. 8 shows the flow of "correction coefficient calculation", and in step (402), the ratio between the focus detection operation time interval and the time lag used for prediction is TX = (TM).

+7M2)/ (2・TL)を各記憶領域TM、、TM
2のデーター及び上記ステップ(304)にて求めたT
Lに基づき計算し、次のステップへ進む。
+7M2)/(2・TL) for each storage area TM,,TM
2 data and T obtained in step (304) above
Calculate based on L and proceed to the next step.

ステップ(403)では、ステップ(402)で得られ
たTXによって2次の項を補正する係数TFを算出し、
リターンする。
In step (403), a coefficient TF for correcting the quadratic term is calculated using the TX obtained in step (402),
Return.

本実施例では、レリーズタイムラグが一定であれば、T
XO値が小さいときは焦点検出動作時間間隔が短かくな
ることに着目し、TXが小さ(なると補正係数TFも小
さ(なるように設定した(0<TF≦1)。また、TX
が大きい場合にはTFを過剰に小さくすると逆に悪影響
を与えるため、TXが大きいときにはTFが1に近づ(
ように設定した。
In this embodiment, if the release time lag is constant, T
Focusing on the fact that when the XO value is small, the focus detection operation time interval becomes short, we set the correction coefficient TF to be small (0<TF≦1).
When TX is large, reducing TF excessively has a negative effect, so when TX is large, TF approaches 1 (
I set it like this.

以上の如く、本発明ではステップ(308)にて(9)
式にて求めるレンズ駆動量における2次項の係数を低減
する様補正しているので、(9)式に基づいたレンズ駆
動量の誤差を減少させることが出来る。
As described above, in the present invention, in step (308), (9)
Since the correction is made to reduce the coefficient of the quadratic term in the lens drive amount determined by the equation (9), it is possible to reduce the error in the lens drive amount based on equation (9).

第9図は実際に本発明を実施した場合の効果を示したも
のである。
FIG. 9 shows the effect when the present invention is actually implemented.

この図で実線は実際に被写体の移動によって移動してい
る像面位置と仮定し、tl及びt2でそれぞれ、δ1.
δ2の誤差が生じた場合、予測関数は1点差線のように
なり、予測エラーδeはδ1.δ2の約11倍の大きさ
となっている。
In this figure, the solid line is assumed to be the image plane position that is actually moving due to the movement of the subject, and δ1.
When an error of δ2 occurs, the prediction function becomes like a dashed-dotted line, and the prediction error δe becomes δ1. It is approximately 11 times larger than δ2.

これに対して、2次の項を補正係数(この場合0.6)
倍し、補正することにより、予測関数は破線のようにな
り、予測エラーδe′ は未対策の予測エラーδeの約
1/8に減少することとなる。
On the other hand, the quadratic term is a correction coefficient (0.6 in this case)
By multiplying and correcting, the prediction function becomes as shown by the broken line, and the prediction error δe' is reduced to about 1/8 of the unmeasured prediction error δe.

このように、本発明の補正は、焦点検出系やレンズ駆動
系の誤差によって、カメラが認識している像面位置と実
際の像面位置に誤差が発生しこれによって予測エラーが
生じるが、予測エラーの大部分を占める2次の項を補正
することにより、予測エラーを大幅に減少させることが
できる。
As described above, the correction according to the present invention is effective in preventing prediction errors, which occur due to errors in the focus detection system and lens drive system, and errors occur between the image plane position recognized by the camera and the actual image plane position, which causes prediction errors. By correcting the quadratic term, which accounts for most of the error, the prediction error can be significantly reduced.

このような補正による対策は非線形な関数を線形な関数
に近づける効果があるため、焦点検出動作時間間隔が小
さく、像面の移動を線形な関数に近似できる場合には、
特に効果が大きい。また、焦点検出動作時間間隔が大き
く、像面の非線形な要素が無視できない場合には、補正
係数を1に近づけることにより、非線形な要素を重視し
た予測関数とすることができる。このように状態に応じ
て補正係数を切換えることにより、予測エラー防止しな
がら高い追従性能を確保することができる。
Such correction measures have the effect of making a nonlinear function closer to a linear function, so if the focus detection operation time interval is small and the movement of the image plane can be approximated to a linear function,
Especially effective. In addition, if the focus detection operation time interval is long and nonlinear elements on the image plane cannot be ignored, by making the correction coefficient close to 1, it is possible to create a prediction function that emphasizes nonlinear elements. By switching the correction coefficient according to the state in this way, it is possible to ensure high tracking performance while preventing prediction errors.

前記実施例では、補正係数を焦点検出動作時間間隔と予
測に用いるタイムラグとの比であるTXの関数として表
わした。
In the embodiment described above, the correction coefficient was expressed as a function of TX, which is the ratio between the focus detection operation time interval and the time lag used for prediction.

しかし、本発明による補正係数は、このようなTXの関
数として得られるものに限定されるものではなく、焦点
検出動作時間間隔が太き(、非線形的要素(2次的要素
)が無視できなくなる場合には、補正係数を1に近づけ
るなど、他のパラメータによって決定されるものでも成
立し、また、補正係数を他のパラメータによって決める
のでな(、常に一定の値となるようにしても有効である
ことは明らかである。
However, the correction coefficient according to the present invention is not limited to the one obtained as a function of TX, and is not limited to that obtained as a function of TX. In some cases, it is valid even if the correction coefficient is determined by other parameters, such as making the correction coefficient close to 1.Also, it is valid even if the correction coefficient is determined by other parameters (it is also valid even if it is always a constant value). It is clear that there is.

〔発明の効果〕〔Effect of the invention〕

以上説明したように、像面位置と時間の関係を数次の関
数に近似し、所定時間のタイムラグ後の像面位置を予測
するような追従補正を行う場合に、本発明による予測関
数補正を行うことにより、焦点検出誤差やレンズ駆動誤
差によって発生する予測誤差を減少させ、従来の追従補
正より、焦点検出誤差やレンズ駆動誤差の影響を受けに
<<、高精度の追従補正が可能となる。
As explained above, when performing tracking correction that approximates the relationship between the image plane position and time to a multi-order function and predicts the image plane position after a time lag of a predetermined time, the prediction function correction according to the present invention is used. By doing this, prediction errors caused by focus detection errors and lens drive errors are reduced, and it becomes possible to perform highly accurate tracking corrections that are less affected by focus detection errors and lens drive errors than conventional tracking corrections. .

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明に係るオートフォーカス装置における予
測演算サブルーチンを示す説明図、第2図は予測演算に
よるオートフォーカス装置にてレンズを駆動した際の原
理を説明する説明図、第3図は本願発明が解決せんとす
る誤差を説明する説明図、第4図は本発明のオートフォ
ーカス装置の一実施例を示す回路図、第5図は第4図示
のオートフォーカス装置における動作を説明するプログ
ラムフローを示す説明図、第6図、第7図は第5図示の
プログラムフローにおけるサブルーチンを示す説明図、
第8図は第1図示のサブルーチン内における補正係数演
算ルーチンフローを示す説明図、第9図は本願によるオ
ートフォーカス装置を用いたレンズ駆動を説明するため
の説明図である。 PH1・・・・・・・・・・・・・・・・・・・・・・
・・・コンピューターLCM・・・・・・・・・・・・
・・・・・・・・・・・・レンズ通信バッファー回路L
PRS ・・・・・・・・・・・・・・・・・・・・・
レンズ内制御回路特許出願人  キャノン株式会社 像面Nケ量:)− C,2:2   tl       r:4rsalq
t第6図    帛7図
FIG. 1 is an explanatory diagram showing a predictive computation subroutine in an autofocus device according to the present invention, FIG. 2 is an explanatory diagram explaining the principle of driving a lens in an autofocus device using predictive computation, and FIG. An explanatory diagram explaining the error that the invention aims to solve, FIG. 4 is a circuit diagram showing an embodiment of the autofocus device of the present invention, and FIG. 5 is a program flow explaining the operation of the autofocus device shown in FIG. FIGS. 6 and 7 are explanatory diagrams showing subroutines in the program flow shown in FIG.
FIG. 8 is an explanatory diagram showing the correction coefficient calculation routine flow in the subroutine shown in FIG. 1, and FIG. 9 is an explanatory diagram for explaining lens driving using the autofocus device according to the present application. PH1・・・・・・・・・・・・・・・・・・・・・
・・・Computer LCM・・・・・・・・・・・・
・・・・・・・・・・・・Lens communication buffer circuit L
PRS ・・・・・・・・・・・・・・・・・・・・・
In-lens control circuit patent applicant Canon Co., Ltd. Image plane N quantity:) - C, 2:2 tl r: 4rsalq
Figure 6 Figure 7

Claims (1)

【特許請求の範囲】[Claims]  撮影レンズのデフォーカス量を求める焦点検出回路と
、該焦点検出回路出力に基づいてレンズを駆動するレン
ズ駆動回路とを備え焦点検出回路によるデフォーカス量
の検出動作と該検出結果に基づくレンズ駆動動作を繰り
返えし行う自動焦点調節装置において、過去複数回にお
ける焦点検出回路にて求められたデフォーカス量に基づ
き所定時間後における被写体の像面位置を数次の関数に
て求める演算回路を設け、所定時間後における被写体の
像面位置とレンズの像面位置を一致させるべくレンズ駆
動を行うとともに、前記数次の関数における最高次の係
数を補正する補正手段を設けたことを特徴とする自動焦
点調節装置。
A focus detection circuit that determines the amount of defocus of a photographic lens, and a lens drive circuit that drives the lens based on the output of the focus detection circuit, and an operation of detecting the amount of defocus by the focus detection circuit and a lens drive operation based on the detection result. In an automatic focus adjustment device that repeatedly performs The automatic camera is characterized by driving the lens to match the image plane position of the object and the lens after a predetermined period of time, and further comprising a correction means for correcting the highest order coefficient in the multi-order function. Focusing device.
JP2549088A 1988-02-05 1988-02-05 Automatic focusing device Pending JPH01200315A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2549088A JPH01200315A (en) 1988-02-05 1988-02-05 Automatic focusing device
US07/305,162 US4908645A (en) 1988-02-05 1989-02-02 Automatic focus adjusting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2549088A JPH01200315A (en) 1988-02-05 1988-02-05 Automatic focusing device

Publications (1)

Publication Number Publication Date
JPH01200315A true JPH01200315A (en) 1989-08-11

Family

ID=12167501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2549088A Pending JPH01200315A (en) 1988-02-05 1988-02-05 Automatic focusing device

Country Status (1)

Country Link
JP (1) JPH01200315A (en)

Similar Documents

Publication Publication Date Title
US4908645A (en) Automatic focus adjusting device
JPH01285907A (en) Autofocusing device for camera
JPH01285908A (en) Automatic focusing device for camera
US4972221A (en) Camera having an automatic focus adjusting apparatus
US4974002A (en) Automatic focus adjusting device
US5060002A (en) Automatic focus adjusting device
US5005037A (en) Auto focus adjusting device
JPH01167815A (en) Automatic focusing device
US5089843A (en) Auto focus device with predictive focussing
JPH0229636A (en) Automatic focusing camera
US5422699A (en) Photographic camera with variable focal length
US5079581A (en) Automatic focus adjusting apparatus
US5081479A (en) Automatic focusing device
JPH01200315A (en) Automatic focusing device
JPS63172231A (en) Auto-focusing device
US5053799A (en) Camera having auto-focusing device
JP2941891B2 (en) Automatic focusing device
JP2762513B2 (en) Automatic focusing device
JPH02181738A (en) Automatic focusing controller
JPH02208642A (en) Automatic focus adjusting device
JPH02181739A (en) Automatic focusing controller
JPH02176735A (en) Focus adjusting device
JPH01205115A (en) Automatic focusing adjuster
JPH01288816A (en) Automatic focus adjustor
JPH03229209A (en) Automatic focus adjusting device