JP3140730B2 - Autofocus device - Google Patents

Autofocus device

Info

Publication number
JP3140730B2
JP3140730B2 JP9316098A JP9316098A JP3140730B2 JP 3140730 B2 JP3140730 B2 JP 3140730B2 JP 9316098 A JP9316098 A JP 9316098A JP 9316098 A JP9316098 A JP 9316098A JP 3140730 B2 JP3140730 B2 JP 3140730B2
Authority
JP
Japan
Prior art keywords
speed
lens
fuzzy inference
defocus amount
driving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP9316098A
Other languages
Japanese (ja)
Other versions
JPH10246853A (en
Inventor
順一 伊藤
稔 押切
弘次 中沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optic Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optic Co Ltd filed Critical Olympus Optic Co Ltd
Priority to JP9316098A priority Critical patent/JP3140730B2/en
Publication of JPH10246853A publication Critical patent/JPH10246853A/en
Application granted granted Critical
Publication of JP3140730B2 publication Critical patent/JP3140730B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Lens Barrels (AREA)
  • Automatic Focus Adjustment (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、たとえばカメラに
おける自動焦点装置に係り、特に移動する被写体に対し
てもリアルタイムに焦点調整を可能にした自動焦点装置
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic focusing device in a camera, for example, and more particularly to an automatic focusing device that enables real-time focus adjustment even for a moving subject.

【0002】[0002]

【従来の技術】従来、自動焦点(オートフォーカス、以
下AFと略称する)装置を備えたカメラにあっては、ま
ず焦点検出用の受光素子の出力を積分することにより、
焦点状態に対応したデータを得る。このデータは、A/
D変換した後、マイクロコンピュータに入力し、このマ
イクロコンピュータにより被写体に対するデフォーカス
量を演算する。そして、このデフォーカス量を打ち消す
方向に撮影レンズを駆動することにより、焦点を合わせ
る。
2. Description of the Related Art Conventionally, in a camera provided with an automatic focusing (AF) device, an output of a light-receiving element for focus detection is first integrated.
Obtain data corresponding to the focus state. This data is A /
After the D conversion, the data is input to a microcomputer, and the microcomputer calculates a defocus amount for the subject. Then, the photographing lens is driven in such a direction as to cancel the defocus amount, thereby achieving focusing.

【0003】ところが、AF動作の開始から撮影レンズ
の駆動終了までには、時間的な遅れがあるため、被写体
の移動によりデフォーカス量に時間的に変化があると、
レンズ駆動の終了時点において被写体に焦点がかならず
しも合わない。したがって、被写体を合焦状態に保つた
めには、デフォーカス量の検出およびレンズ駆動を繰返
してデフォーカス量の変化に追従させる必要がある。こ
のようなAFの制御方法は、たとえば特開昭60-214325
に述べられている。
However, since there is a time delay from the start of the AF operation to the end of driving of the photographing lens, if there is a temporal change in the defocus amount due to the movement of the subject,
At the end of driving the lens, the subject is not always focused. Therefore, in order to keep the subject in focus, it is necessary to repeatedly detect the defocus amount and drive the lens to follow the change in the defocus amount. Such an AF control method is disclosed, for example, in Japanese Patent Application Laid-Open No. 60-214325.
It is described in.

【0004】また、特開昭63-2010 、特開昭63-148218
などには、時間を隔てた2回のデフォーカス量の検出動
作からデフォーカス量の時間的変化率を求めて、この変
化率も考慮した制御方法が述べられている。
Further, Japanese Patent Application Laid-Open Nos. 63-2010 and 63-148218
Describes a control method in which a temporal change rate of the defocus amount is obtained from two defocus amount detection operations separated by time, and this change rate is also taken into consideration.

【0005】[0005]

【発明が解決しようとする課題】以上述べた従来技術
は、現在主に使用されているAFセンサ、レンズ駆動用
モータの応答性などを考慮すると、ほぼ完成に近いAF
の制御方法とみることができる。しかし、AFの目的で
あるところの被写体に対して常に合焦状態に光学系を調
整するということを考えると、まだ不充分な制御方法と
いえる。理想を言えば、リアルタイムに焦点状態を検出
して、その結果をレンズ駆動用のアクチェータへフィー
ドバックをかけることである。
The above-mentioned prior art is almost completed AF in consideration of the responsiveness of the currently used AF sensor and lens driving motor.
Control method. However, considering that the objective of AF is to always adjust the optical system to a focused state with respect to the subject, it can be said that the control method is still insufficient. Ideally, the focus state is detected in real time, and the result is fed back to the lens driving actuator.

【0006】現在、AFセンサおよびレンズ駆動用モー
タの制御は、マイクロコンピュータで行なうことが主流
となっている。しかし、今後、AFセンサの性能が向上
し、従来よりも焦点状態の検出が高速に実行できるよう
になったときや、新しい素子の出現により、リアルタイ
ムに焦点状態を検出できるようになったときは、マイク
ロコンピュータを用いた制御方法では、制御スピードの
問題によりAFセンサの能力を充分に生かすことができ
ない。
At present, control of the AF sensor and the motor for driving the lens is mainly performed by a microcomputer. However, when the performance of the AF sensor is improved in the future and the detection of the focus state can be performed faster than before, or when the focus state can be detected in real time by the emergence of a new element, In a control method using a microcomputer, the ability of the AF sensor cannot be fully utilized due to a control speed problem.

【0007】また、レンズ駆動用のアクチェータに関し
て言えば、現在主流の直流モータの制御であれば、マイ
クロコンピュータでも充分である。しかし、最近、実用
化された超音波モータなどをアクチェータとして用いる
場合は、直流モータに比べて応答性が著しく向上してい
るためと、その制御において非線形性を有するために、
マイクロコンピュータによる制御方法では、その能力を
充分に生かすことは困難である。特に、制御対象に非線
形性がある場合は、その非線形を方程式で近似的に演算
することになるが、正確に制御を行なおうとすると、そ
の演算が非常に複雑化してしまい、マイクロコンピュー
タによる制御は、その制御スピードが低下してしまう。
[0007] Regarding the lens driving actuator, a microcomputer is sufficient for controlling a DC motor which is currently mainstream. However, when an ultrasonic motor or the like that has been put into practical use recently is used as an actuator, the response is remarkably improved as compared with the DC motor, and the control has nonlinearity.
It is difficult to make full use of the ability by the control method by the microcomputer. In particular, when the control target has nonlinearity, the nonlinearity is approximately calculated by an equation. However, if accurate control is performed, the calculation becomes extremely complicated, and the control by the microcomputer is performed. In this case, the control speed is reduced.

【0008】本発明は、このような課題に着目してなさ
れたもので、その目的とするところは、高速に撮影レン
ズ駆動用の制御信号を生成でき、よって移動する被写体
に対してもリアルタイムに高速かつ正確な焦点調整が可
能となる自動焦点装置を提供することにある。
The present invention has been made in view of such a problem, and an object thereof is to generate a control signal for driving a photographing lens at a high speed, so that a moving subject can be generated in real time. It is an object of the present invention to provide an automatic focusing device that enables high-speed and accurate focus adjustment.

【0009】[0009]

【課題を解決するための手段】上記の目的を達成するた
めに、発明に係る自動焦点装置は、被写体に関する焦
点情報として、上記被写体までの距離情報または撮影レ
ンズの焦点ずれ量と、その微分値とを出力する焦点情報
検出手段と、上記撮影レンズを駆動するための、超音波
モータおよび該超音波モータの駆動回路を含むレンズ駆
動手段と、上記焦点情報検出手段の出力からファジィ推
論を行い、上記レンズ駆動手段の制御信号として上記超
音波モータの駆動速度を変化させる量を求めるファジィ
推論手段と、上記ファジィ推論手段から得られる制御信
を電圧値に変換し、上記超音波モータの印加電圧を設
する駆動制御手段とを具備する。
In order to achieve the above object, an automatic focusing apparatus according to the present invention includes, as focus information on a subject, information on a distance to the subject or a photographing level.
A defocus amount of lens, and focus information detecting means for outputting a differential value thereof, for driving the photographing lens, ultrasonic
A motor and lens driving means including a driving circuit for the ultrasonic motor, and fuzzy inference from the output of the focus information detecting means.
And the control signal of the lens driving means
Fuzzy inference means for obtaining an amount to change the drive speed of the ultrasonic motor, and a control signal obtained from the fuzzy inference means converted into a voltage value, and a voltage applied to the ultrasonic motor is set.
It includes a constant drive control means.

【0010】[0010]

【0011】[0011]

【0012】[0012]

【0013】[0013]

【発明の実施の形態】以下、本発明の実施形態について
図面を参照して説明する。まず、本発明の実施形態を説
明するに先立って、図12を参照してファジィ推論の概
要について説明しておく。ファジィ推論とは、人間が日
常の中で使用するあいまいな言葉で表現したファジィ・
ルール(ファジィ推論規則)を用いた推論である。ファ
ジィ・ルールは「if A=BIG and B=NO
RMALthen X=SMALL」のように記述でき
る。
Embodiments of the present invention will be described below with reference to the drawings. First, before describing the embodiment of the present invention, an outline of fuzzy inference will be described with reference to FIG. Fuzzy inference is a fuzzy expression that is expressed in obscure words used by humans in everyday life.
Inference using rules (fuzzy inference rules). The fuzzy rule is "if A = BIG and B = NO
RMALthen X = SMALL ".

【0014】図12において、A,Bは入力変数、Xは
出力変数である。ルールが成立するための条件を書いた
部分である「A=BIG and B=NORMAL」
を前件部、その結論部分である「X=SMALL」を後
件部という。ファジィ推論では、各入力変数を0〜1の
値に変換して演算するが、この変換を定義するのがメン
バシップ関数(前件部メンバシップ関数)である。
In FIG. 12, A and B are input variables, and X is an output variable. "A = BIG and B = NORMAL" which is the part where the condition for the rule to be satisfied is written
Is referred to as the antecedent, and the conclusion, "X = SMALL", is referred to as the consequent. In the fuzzy inference, each input variable is converted into a value of 0 to 1 for calculation, and this conversion is defined by a membership function (antecedent membership function).

【0015】メンバシップ関数は、ファジィ・ルールで
取扱う命題(BIG,NORMAL,SMALLなど)
ごとに定義されている。メンバシップ関数を参照して入
力変数が各命題を満足する度合いを計算する。前件部に
命題が複数ある場合は、そのうちの最小値を求める。こ
れを最小値(MIN)演算という。次に、各ルールごと
のメンバシップ値を合成する。これは、各ルールの後件
部を比べ、その最大値をとり、新しいメンバシップ関数
を作ることにより行なわれる。これを最大値(MAX)
演算という。この合成されたメンバシップ関数の重心値
が推論結果(出力値)となり、これに基づいて後段の制
御が行なわれる。
Propositions handled by fuzzy rules (BIG, NORMAL, SMALL, etc.)
Each is defined. The degree to which the input variable satisfies each proposition is calculated with reference to the membership function. If there are multiple propositions in the antecedent, find the minimum value. This is called a minimum value (MIN) operation. Next, the membership values for each rule are combined. This is done by comparing the consequents of each rule, taking the maximum value, and creating a new membership function. This is the maximum value (MAX)
It is called operation. The center of gravity value of the combined membership function becomes the inference result (output value), and the subsequent control is performed based on the result.

【0016】なお、図12にはファジィ推論方式の代表
的な例を示したが、他にも様々なファジィ推論方式が提
案されている。図1は第1の発明を適用した自動焦点装
置の構成を示すブロック図である。第1の発明に係る自
動焦点装置は、図1に示すように、撮影レンズ1のデフ
ォーカス量を検出するデフォーカス量検出手段2と、こ
のデフォーカス量検出手段で検出されたデフォーカス量
を微分し、その微分値を求める微分手段3と、前記デフ
ォーカス量検出手段2で検出されたデフォーカス量と前
記微分手段3から出力される微分値とから、前記撮影レ
ンズ1を駆動するレンズ駆動用アクチェータ4の制御信
号をファジィ量として求めるファジィ推論手段5と、こ
のファジィ推論手段5から得られる制御信号に基づいて
前記レンズ駆動用アクチェータ4を駆動制御する駆動制
御手段6とを具備している。
Although FIG. 12 shows a typical example of the fuzzy inference method, various other fuzzy inference methods have been proposed. FIG. 1 is a block diagram showing a configuration of an automatic focusing apparatus to which the first invention is applied. As shown in FIG. 1, an automatic focusing device according to a first aspect of the present invention includes a defocus amount detecting unit 2 for detecting a defocus amount of a photographing lens 1 and a defocus amount detected by the defocus amount detecting unit. Differentiating means 3 for differentiating and obtaining the differential value, and lens driving for driving the photographing lens 1 based on the defocus amount detected by the defocus amount detecting means 2 and the differential value output from the differentiating means 3 Fuzzy inference means 5 for obtaining a control signal of the actuator 4 for fuzzy as a fuzzy amount, and drive control means 6 for driving and controlling the lens driving actuator 4 based on the control signal obtained from the fuzzy inference means 5. .

【0017】図2は第2の発明を適用した自動焦点装置
の構成を示すブロック図である。第2の発明に係る自動
焦点装置は、図2に示すように、撮影レンズ1のデフォ
ーカス量を検出するデフォーカス量検出手段2と、この
デフォーカス量検出手段2で検出されたデフォーカス量
を微分し、その微分値を求める微分手段3と、前記デフ
ォーカス量検出手段2で検出されたデフォーカス量と前
記微分手段3から出力される微分値とから、前記撮影レ
ンズ1の移動速度の変化量をファジィ量として求めるフ
ァジィ推論手段7と、前記撮影レンズ1の初速度を演算
する初速演算手段8と、前記ファジィ推論手段7の出力
と前記初速演算手段8で求められた初速度から、前記撮
影レンズ1の移動速度を演算する速度演算手段9と、こ
の速度演算手段9の出力に基づいて前記撮影レンズ1を
駆動制御するレンズ駆動制御手段10とを具備してい
る。
FIG. 2 is a block diagram showing a configuration of an automatic focusing apparatus to which the second invention is applied. As shown in FIG. 2, the automatic focusing apparatus according to the second invention has a defocus amount detecting means 2 for detecting a defocus amount of the photographing lens 1, and a defocus amount detected by the defocus amount detecting means 2. From the defocus amount detected by the defocus amount detecting means 2 and the differential value output from the differentiating means 3 to determine the moving speed of the photographic lens 1. Fuzzy inference means 7 for obtaining the amount of change as a fuzzy amount; initial speed calculation means 8 for calculating the initial speed of the photographing lens 1; and the output of the fuzzy inference means 7 and the initial speed obtained by the initial speed calculation means 8, A speed calculating means for calculating a moving speed of the photographing lens; and a lens drive controlling means for driving and controlling the photographing lens based on an output of the speed calculating means. That.

【0018】図3は本発明の第1実施形態を示してい
る。この実施形態は、たとえばTTL式AFカメラにお
いて、一般的に用いられている射出瞳分割方式の焦点検
出方法を用いた場合を示している。すなわち、瞳分割光
学系14は、被写体11からの光を撮影レンズ12およ
びハーフミラー13を介して受光することにより、撮影
レンズ12の射出瞳の光束を分割し、それぞれの光束に
よる像を第1ラインセンサ151 および第2ラインセン
サ152 へ導く。
FIG. 3 shows a first embodiment of the present invention. This embodiment shows a case where a generally used exit pupil division type focus detection method is used in a TTL AF camera, for example. That is, the pupil division optical system 14 receives light from the subject 11 via the photographing lens 12 and the half mirror 13 to divide the light beam of the exit pupil of the photographing lens 12 and to form an image based on each light beam into the first light beam. guided to the line sensor 15 1 and the second line sensor 15 2.

【0019】各ラインセンサ151 ,152 からのデー
タは、それぞれデフォーカス量算出手段16に送られ
る。デフォーカス量算出手段16は、各ラインセンサ1
1 ,152 からのデータに基づき、第1ラインセンサ
151 上の像と第2ラインセンサ152 の像との相対的
なずれを算出することにより、撮影レンズ12のデフォ
ーカス量(D)を出力する。このデフォーカス量算出方
式については、たとえば特開昭59-12517公報に詳しく述
べられているので、それを参照されたい。
The data from the line sensors 15 1 and 15 2 are sent to the defocus amount calculating means 16 respectively. The defocus amount calculating means 16 is provided for each line sensor 1
5 1, 15 based on the data from the 2, by calculating the image of the first line sensor 15 on a relative displacement between the second line sensor 15 and second image, the defocus amount of the photographing lens 12 (D ) Is output. This defocus amount calculation method is described in detail in, for example, Japanese Patent Application Laid-Open No. 59-12517, so please refer to it.

【0020】本発明の利点を引き出すためには、デフォ
ーカス量をリアルタイムもしくは、それとほぼ同等とみ
なせる速さで出力できなければならない。しかし、現
在、AF用に用いられているラインセンサは、CCDな
どの電荷蓄積型のセンサであるため、積分時間があり、
リアルタイムでデータを取出すことができない。また、
取出したデータからデフォーカス量を算出するための相
関演算は、マイクロプロセッサにより逐次処理されるの
で、リアルタイムでデフォーカス量を得ることができな
い。
In order to obtain the advantages of the present invention, it is necessary to output the defocus amount in real time or at a speed that can be regarded as substantially equivalent thereto. However, since the line sensor currently used for AF is a charge accumulation type sensor such as a CCD, there is an integration time,
Cannot retrieve data in real time. Also,
Since the correlation calculation for calculating the defocus amount from the extracted data is sequentially performed by the microprocessor, the defocus amount cannot be obtained in real time.

【0021】したがって、ラインセンサには、SPD
(シリコンフォトダイオード)などの光電変換素子を配
列し、リアルタイムでデータが読出せるものが望まし
い。しかし、SPDなどを用いてリアルタイムで読出そ
うとすると、感度を高めるために素子の面積を広げる必
要があり、CCDなどのラインセンサに比べると分解能
が小さいという問題がある。
Therefore, the line sensor includes the SPD
It is desirable that a photoelectric conversion element such as a (silicon photodiode) is arranged and data can be read out in real time. However, when attempting to read in real time using an SPD or the like, it is necessary to increase the area of the element in order to increase the sensitivity, and there is a problem that the resolution is smaller than a line sensor such as a CCD.

【0022】分解能の問題でCCDなどを使用せざるを
得ないときは、分解能は必要最小限にして感度を向上さ
せる、光学系を明るいものとする、などの工夫を行な
い、リアルタイムに近づける必要がある。
When a CCD or the like has to be used due to the problem of resolution, it is necessary to improve the sensitivity by minimizing the resolution and to make the optical system brighter, and to make it closer to real time. is there.

【0023】また、デフォーカス量の算出においても、
演算時間を短縮するために、データを並列で読出して一
括して処理を行なう専用のハードウェアを用いる、マイ
クロプロセッサを使用せざるを得ないときは高速の専用
のプロセッサを使用する、などの工夫が必要である。
In calculating the defocus amount,
Use dedicated hardware to read data in parallel and perform batch processing to shorten the operation time, or use a dedicated high-speed processor when a microprocessor must be used. is necessary.

【0024】できることであれば、センサと演算手段は
デジタル処理ではなく、リアルタイムに処理ができるア
ナログ回路が望ましいだろう。また、デフォーカス量を
時間で微分する微分手段17においても上述したような
考慮が必要となる。
If possible, it would be desirable for the sensor and the arithmetic means to be an analog circuit capable of real-time processing instead of digital processing. In addition, the above-described consideration is necessary for the differentiating means 17 for differentiating the defocus amount with respect to time.

【0025】以下、デフォーカス量Dとその微分値dD
/dtが必要充分なる速さで得られたとして説明を続け
る。ファジィ推論手段18は、デフォーカス量検出手段
16の出力Dと、その微分値を求める微分手段17の出
力dD/dtを前件部の入力としてファジィ推論を行な
うことにより、撮影レンズ12を駆動するモータ(レン
ズ駆動用アクチェータ)の駆動速度(撮影レンズ12の
移動速度)の変化量と駆動方向を算出する。なお、ファ
ジィ推論手段18については後で詳細を説明することと
し、以下ではファジィ推論手段18の出力に基づいて超
音波モータ(以下USMと略称する)を制御する例を説
明する。
Hereinafter, the defocus amount D and its differential value dD
The explanation will be continued on the assumption that / dt is obtained at a sufficiently high speed. The fuzzy inference means 18 drives the photographing lens 12 by performing fuzzy inference using the output D of the defocus amount detection means 16 and the output dD / dt of the differentiation means 17 for obtaining a differential value thereof as inputs to the antecedent part. The change amount and the driving direction of the driving speed (moving speed of the photographing lens 12) of the motor (lens driving actuator) are calculated. The fuzzy inference means 18 will be described later in detail, and an example in which an ultrasonic motor (hereinafter abbreviated as USM) is controlled based on the output of the fuzzy inference means 18 will be described below.

【0026】ファジィ推論手段18が出力したデジタル
値の速度変化量信号Δvは、速度演算手段19に送られ
る。速度演算手段19は、現在の撮影レンズ12の移動
速度vに上記変化量Δvを加えることにより、新たにv
=v+ΔvとしてD/A変換器31に出力する。D/A
変換器31は、速度演算手段19の出力をアナログ電圧
に変換して差動増幅器32の一方の入力端子に入力す
る。
The speed change signal Δv of the digital value output from the fuzzy inference means 18 is sent to the speed calculation means 19. The speed calculating means 19 adds the change amount Δv to the current moving speed v of the photographing lens 12 to newly calculate v
= V + Δv to the D / A converter 31. D / A
The converter 31 converts the output of the speed calculating means 19 into an analog voltage and inputs the analog voltage to one input terminal of the differential amplifier 32.

【0027】一方、撮影レンズ12を駆動するレンズ駆
動用アクチェータとしてのUSM33の回転数は、エン
コーダ34によって検出され、その出力はf/v変換器
(周波数・電圧変換器)35でアナログ電圧に変換され
て差動増幅器32の他方の入力端子に入力される。差動
増幅器32は、D/A変換器31の出力とf/v変換器
35の出力との差、つまり速度の誤差信号を比較器36
に供給する。
On the other hand, the rotation speed of the USM 33 as a lens driving actuator for driving the photographing lens 12 is detected by an encoder 34, and the output thereof is converted into an analog voltage by an f / v converter (frequency / voltage converter) 35. Then, the signal is input to the other input terminal of the differential amplifier 32. The differential amplifier 32 compares the difference between the output of the D / A converter 31 and the output of the f / v converter 35, that is, the speed error signal with a comparator 36.
To supply.

【0028】比較器36は、差動増幅器32からの誤差
信号を判定レベルとして、三角波発振器37の出力と比
較することにより、PWM(パルス幅変調)信号を生成
し、そのPWM信号でトランジスタ38をオン,オフ制
御する。そして、トランジスタ38を通って電池電源3
9から供給される電圧が、ダイオード40、チョークコ
イル41、コンデンサ42からなる平滑回路を通ってト
ランジスタ38のオン,オフ比に比例した電圧としてト
ランス43,44の1次コイルに印加される。
The comparator 36 generates a PWM (Pulse Width Modulation) signal by comparing the error signal from the differential amplifier 32 with the output of the triangular wave oscillator 37 as a determination level, and activates the transistor 38 with the PWM signal. On / off control. Then, the battery power supply 3 passes through the transistor 38.
9 is applied to the primary coils of the transformers 43 and 44 as a voltage proportional to the on / off ratio of the transistor 38 through a smoothing circuit including a diode 40, a choke coil 41, and a capacitor 42.

【0029】トランス43,44は、USM33に必要
な電圧まで電池電源39の電圧を昇圧するもので、その
制御はプリドライバ45とトランジスタ46〜49によ
って行なわれる。プリドライバ45は、電圧制御発振器
51から供給されるパルスをトランジスタ46〜49へ
90°位相をシフトした交流が発生するように分配する
とともに、ファジィ推論手段18から出力される方向信
号CCW/CWに応じて位相の関係を反転させる。
The transformers 43 and 44 boost the voltage of the battery power supply 39 to a voltage required for the USM 33, and the control is performed by a pre-driver 45 and transistors 46 to 49. The pre-driver 45 distributes the pulse supplied from the voltage controlled oscillator 51 to the transistors 46 to 49 so that an alternating current having a phase shifted by 90 ° is generated, and also converts the pulse into the direction signal CCW / CW output from the fuzzy inference means 18. The phase relationship is reversed accordingly.

【0030】そして、トランス43,44で昇圧された
90°位相をシフトされた交流が共振周波数でUSM3
3の電極331 ,332 に供給されると、USM33は
その共振周波数で回転する。USM33の共振状態は電
極333 でモニタされ、そのモニタ信号は周波数追尾回
路50に供給される。周波数追尾回路50は、電圧制御
発振器51の発振周波数が適正になるように制御する。
Then, the AC whose phase has been shifted by 90 °, which has been boosted by the transformers 43 and 44,
When supplied to the third electrodes 33 1 and 33 2 , the USM 33 rotates at its resonance frequency. USM33 resonant state of being monitored by the electrodes 33 3, the monitoring signal is supplied to the frequency tracking circuit 50. The frequency tracking circuit 50 controls the oscillation frequency of the voltage controlled oscillator 51 to be appropriate.

【0031】したがって、USM33は、フィードバッ
クループによりファジィ推論手段18の演算結果に応じ
た速度で回転することになる。なお、USM33の回転
運動は、図示されていない機構により撮影レンズ12の
光軸上の往復移動運動に変換されることになる。
Therefore, the USM 33 rotates at a speed corresponding to the calculation result of the fuzzy inference means 18 by the feedback loop. The rotational movement of the USM 33 is converted into a reciprocating movement on the optical axis of the taking lens 12 by a mechanism not shown.

【0032】上述のリアルタイムAFを実現させるため
には、検出系,演算系,駆動系の高速制御が要求され
る。また、リアルタイムであるために急激な被写体の変
化に対して追従していくためにも高速化が要求される。
従来の2値理論による制御では、高速化を行なうために
はその制御規則を少くなくしなければならない。けれど
も制御規則を少なくすると、円滑な制御動作が行なえな
かったり、ひいては制御不可能となってしまう。このよ
うな、矛盾が従来の方法では存在する。
In order to realize the above-described real-time AF, high-speed control of a detection system, a calculation system, and a drive system is required. In addition, high speed is required in order to follow a sudden change of the subject because of real time.
In the control based on the conventional binary theory, the control rule must be reduced to increase the speed. However, if the number of control rules is reduced, smooth control operations cannot be performed, and control becomes impossible. Such contradictions exist in conventional methods.

【0033】ファジィ理論による制御の特徴として、簡
易な制御規則があげられる。ファジィ理論がある量の判
断を行なうときには、その判断基準に分布を持たせ、異
なる判断が互いにオーバーラップすることにより、規則
のない部分の補間を行なっているために制御規則の簡易
化が実現できる。また、最近出現したファジィ制御によ
る列車自動運転で言われているように、ファジィの制御
動作は人間的感性のある円滑な挙動を示す。
A feature of the control based on the fuzzy theory is a simple control rule. When the fuzzy theory makes a certain amount of judgment, the judgment criteria have a distribution and the different judgments overlap each other, so that the interpolation of the ruleless part can be performed, so that the control rule can be simplified. . In addition, as described in the automatic train operation by fuzzy control which has recently appeared, the fuzzy control operation shows a smooth behavior with human feeling.

【0034】以上のことより、ファジィ制御は制御規則
の簡易性から高速化が可能になり、しかも円滑な制御が
できる。これらの理由により、ファジィ制御はリアルタ
イムAFの演算制御系に適している。
As described above, the speed of the fuzzy control can be increased due to the simplicity of the control rules, and smooth control can be performed. For these reasons, fuzzy control is suitable for an arithmetic control system of real-time AF.

【0035】本実施形態では、ファジィ推論手段18の
入力としてデフォーカス量検出手段16からのデフォー
カス量と、微分手段17からのデフォーカス量の時間微
分値とをとり、演算後、モータ駆動の速さの変化量とそ
の回転方向を出力させる。
In the present embodiment, the defocus amount from the defocus amount detecting means 16 and the time differential value of the defocus amount from the differentiating means 17 are taken as inputs to the fuzzy inference means 18 and, after calculation, the motor drive is started. The change amount of the speed and the rotation direction are output.

【0036】ここで、本実施形態でのメンバシップ関数
とそのルール(規則)を図4に示す。図4に示されてい
るルールを「if(前件部) then(後件部)」と
いう言語表現に直すと、以下のようになる。 ルール(1):if Dが正に大きく、dD/dtが零
に近いときはthen 速度変化を正に大きくする。 ルール(2):if Dが正にやや大きく、dD/dt
が正に大きいときはthen 速度変化を正に大きくす
る。 ルール(3):if Dが正にやや大きく、dD/dt
が負に大きいときはthen 速度変化を負にやや大き
くする。 ルール(4):if Dが負にやや大きく、dD/dt
が負に大きいときはthen 速度変化を負に大きくす
る。 ルール(5):if Dが負にやや大きく、dD/dt
が正に大きいときはthen 速度変化を正にやや大き
くする。 ルール(6):if Dが零に近く、dD/dtが零に
近いときはthen 速度変化を零に近くする。 ルール(7):if Dが負に大きく、dD/dtが零
に近いときはthen 速度変化を負に大きくする。
FIG. 4 shows the membership function and its rules in the present embodiment. When the rule shown in FIG. 4 is converted into a linguistic expression “if (consequent part) then (consequent part)”, the following is obtained. Rule (1): If if D is positively large and dD / dt is close to zero, then the speed change is positively increased. Rule (2): if D is slightly larger and dD / dt
Is positively large, then the speed change is positively increased. Rule (3): if D is slightly larger and dD / dt
When is large negatively, then the speed change is made slightly large negatively. Rule (4): if D is slightly larger than negative, dD / dt
When is large negatively, then the speed change is made large negatively. Rule (5): if D is slightly larger negatively, dD / dt
Is very large, then the speed change is made slightly larger. Rule (6): When if D is close to zero and dD / dt is close to zero, then the speed change is made close to zero. Rule (7): If if D is large negatively and dD / dt is close to zero, then the speed change is made large negatively.

【0037】図4の前件部から後件部への演算は最小値
演算と言い、入力D,dD/dtに対するそれぞれのグ
レードの小さい方を取る。その値により、後件部のメン
バシップ関数は図4に示すように頭を切られ、斜線で示
した面積が求められる。これらのことをルールごとに行
なう。次に、最大値演算と言われる、各ルールごとに求
めた後件部メンバシップ関数の面積の和を取る。最後
に、デファジィ化と言われる、最大値演算の結果から求
まった面積の重心点を求める演算を行なう。その重心点
の値をモータ回転の速度変化量として出力する。なお、
一連の演算のフローを図5に示す。
The operation from the antecedent part to the consequent part in FIG. 4 is called a minimum value operation, and the smaller of the respective grades for the inputs D and dD / dt is taken. According to the value, the membership function of the consequent part is truncated as shown in FIG. 4, and the area indicated by the oblique line is obtained. Do this for each rule. Next, the sum of the areas of the consequent part membership functions obtained for each rule, which is called a maximum value calculation, is calculated. Finally, an operation called defuzzification is performed to find the center of gravity of the area obtained from the result of the maximum value operation. The value of the center of gravity is output as the speed change amount of the motor rotation. In addition,
FIG. 5 shows a flow of a series of calculations.

【0038】以上述べたファジィ推論を実行する手段と
しては、たとえば特願昭63-278797号に示されているデ
ジタルファジィ回路が使用可能である。その場合、デフ
ォーカス量算出手段と微分手段の出力をデジタル量とし
てファジィ回路へ入力し、メンバシップ関数定義パラメ
ータもデジタル量としてファジィ回路を制御するマイク
ロコンピュータから入力すれば、推論結果が得られる。
メンバシップ関数定義パラメータは、必ずしも固定であ
る必要はなく、レンズ交換式のカメラであるならば、そ
のレンズ個々にそのレンズ特有のパラメータを記憶して
おいて、その記憶値を読出してパラメータとして入力し
てもよい。また、ズームレンズの場合は、焦点距離の変
化に応じてパラメータを変化させてもよい。
As means for executing the fuzzy inference described above, for example, a digital fuzzy circuit disclosed in Japanese Patent Application No. 63-278797 can be used. In this case, if the outputs of the defocus amount calculating means and the differentiating means are input as digital quantities to the fuzzy circuit, and the membership function definition parameters are also input as digital quantities from the microcomputer which controls the fuzzy circuit, an inference result can be obtained.
The membership function definition parameters do not necessarily have to be fixed. If the camera is of an interchangeable lens type, parameters unique to the lens are stored for each lens, and the stored values are read out and input as parameters. May be. In the case of a zoom lens, the parameter may be changed according to a change in the focal length.

【0039】また、DSP(デジタル・シグナル・プロ
セッサ)とマイクロコンピュータとの組合わせによりデ
ジタルファジィ回路の代用としてもよい。図6は本発明
の第2実施形態を示している。この実施形態は、たとえ
ば非TTL式AFカメラにおいて、半導体位置検出素子
(以下PSDと略称する)と投光素子とによるアクティ
ブタイプの距離検出方法を用いた場合を示している。す
なわち、距離検出手段21において、投光素子22が出
力した光は、投光レンズ23により集光されて被写体1
1に照射され、その反射光は受光レンズ24によってP
SD25の受光面に結像される。PSD25は、受光レ
ンズ24の光軸に中心を合わせて配設されている。無限
大(∞)の被写体からの反射光による結像点の重心とP
SD25の中心とが一致している場合、基線長をH、結
像点の光軸からのずれをX、受光レンズ24の焦点距離
をfJ 、被写体との距離をL0 とすると、
Further, a combination of a DSP (digital signal processor) and a microcomputer may be used as a substitute for a digital fuzzy circuit. FIG. 6 shows a second embodiment of the present invention. This embodiment shows a case where an active type distance detection method using a semiconductor position detecting element (hereinafter abbreviated as PSD) and a light projecting element is used in a non-TTL AF camera, for example. That is, in the distance detecting means 21, the light output from the light projecting element 22 is condensed by the light projecting lens 23 and
1 and the reflected light is
An image is formed on the light receiving surface of SD25. The PSD 25 is disposed so as to be centered on the optical axis of the light receiving lens 24. The center of gravity of the imaging point due to the reflected light from the subject of infinity (∞) and P
When the center of the SD 25 coincides with the center, if the base line length is H, the deviation of the imaging point from the optical axis is X, the focal length of the light receiving lens 24 is f J , and the distance to the subject is L 0 ,

【0040】[0040]

【数1】 となる。また、PSD25の全光電流をI0 、PSD2
5の全長を2tとすると、被写体11からの反射光によ
る光電流I1 ,I2 は、
(Equation 1) Becomes Also, the total photocurrent of PSD 25 is I 0 , PSD 2
5 is 2t, the photocurrents I 1 and I 2 due to the reflected light from the subject 11 are

【0041】[0041]

【数2】 となる。(Equation 2) Becomes

【0042】上式から光電流I1 ,I2 には距離情報1
/L0 が含まれている。そこで、距離演算手段26によ
って、上記光電流I1 ,I2 から被写体までの距離L0
が演算される。被写体までの距離L0 の演算方法は、た
とえば特願昭62-310689 号に詳しく述べられているの
で、それを参照されたい。
From the above equation, the distance information 1 is added to the photocurrents I 1 and I 2.
/ L 0 is included. Therefore, the distance calculating means 26 calculates the distance L 0 from the photocurrents I 1 and I 2 to the subject.
Is calculated. Calculation method of the distance L 0 to the object, for example because the described in detail in Japanese Patent Application Sho 62-310689, see it.

【0043】距離演算手段26で算出された距離L0
レンズ位置信号L1 は引算器27へ入力され、それらの
差信号Lが出力される。レンズ位置信号L1 は、レンズ
位置検出手段28が撮影レンズ12の位置に対応して出
力する信号である。また、引算器27から出力される差
信号Lは、撮影レンズ12の合焦位置に対するずれ量を
表わしている。したがって、差信号Lが零になるように
撮影レンズ12を駆動すればよい。
The distance L 0 and the lens position signal L 1 calculated by the distance calculating means 26 are input to a subtracter 27, and a difference signal L between them is output. The lens position signal L 1 is a signal output by the lens position detecting means 28 in accordance with the position of the taking lens 12. Further, the difference signal L output from the subtractor 27 indicates the amount of deviation of the taking lens 12 from the in-focus position. Therefore, the photographing lens 12 may be driven so that the difference signal L becomes zero.

【0044】さて、引算器27から出力される差信号L
は、ファジィ推論手段30と微分手段29へ入力され
る。微分手段29は、入力される差信号Lを時間で微分
し、その出力dL/dtをファジィ推論手段30へ送
る。ファジィ推論手段30は、入力される2つの信号L
とdL/dtを前件部の入力としてファジィ推論を行な
うことにより、撮影レンズ12を駆動するUSM33の
駆動速度および駆動方向を算出する。一方、USM33
は、その駆動速度および駆動方向信号により撮影レンズ
12を駆動する。なお、USM33の制御ブロックは第
1実施形態に示したものと同じであるので説明は省略す
る。
The difference signal L output from the subtractor 27
Is input to the fuzzy inference means 30 and the differentiation means 29. The differentiating means 29 differentiates the input difference signal L with respect to time, and sends the output dL / dt to the fuzzy inference means 30. The fuzzy inference means 30 outputs two input signals L
And dL / dt are input to the antecedent part to perform fuzzy inference to calculate the drive speed and drive direction of the USM 33 that drives the taking lens 12. On the other hand, USM33
Drives the taking lens 12 according to the driving speed and driving direction signal. Note that the control blocks of the USM 33 are the same as those shown in the first embodiment, and a description thereof will be omitted.

【0045】上記したようなAFの方式以外に、超音波
の反射時間から測距する方法や、二重像合致方式などを
使用してもよい。次に、TTL式AFのデフォーカス量
を高速に演算する方法について述べる。第1ラインセン
サ151 上の像と第2ラインセンサ152 上の像との相
対的なずれを算出するには、一般的には次の2式が採用
されている。
In addition to the AF method described above, a method of measuring the distance from the reflection time of the ultrasonic wave, a double image matching method, or the like may be used. Next, a method of calculating the defocus amount of the TTL AF at a high speed will be described. To calculate the image of the first line sensor 15 on a relative displacement between the image on the second line sensor 15 2 is generally the following two expressions are employed.

【0046】[0046]

【数3】 (Equation 3)

【0047】ただし、この評価式のみでは、ずれを正確
に求めることはできない。そこで、(1)式と(2)式
の添え字の関係を1つづつずらしてFを求め、これをず
らす量Sの関数F(S)として、(1)式ではF(S)
=0となるSを、(2)式ではF(S)=最小値となる
Sを求めて、ずれ量Sを算出することになる。ここで、
Sについては補間計算を行なって小数点まで求め、極力
誤差を小さくしている。この場合、仮にN=24、S=
1〜24とすると、上記(1)式,(2)式の( )内
の計算を(24−1)×24回行なわなければならない
((1)式の場合)。これが、マイクロプロセッサによ
る演算時間が大きくなる理由である。
However, it is not possible to accurately determine the deviation only with this evaluation formula. Therefore, the relationship between the suffixes of the equations (1) and (2) is shifted one by one to obtain F, and as a function F (S) of the shift amount S, F (S) in the equation (1)
Then, the shift amount S is calculated by finding S that satisfies = 0 and S that satisfies F (S) = minimum value in equation (2). here,
For S, interpolation calculation is performed to find the decimal point, and the error is reduced as much as possible. In this case, if N = 24 and S =
Assuming 1 to 24, the calculations in parentheses in the above equations (1) and (2) must be performed (24-1) × 24 times (in the case of equation (1)). This is the reason why the operation time by the microprocessor becomes longer.

【0048】ここで、(1)式のFとデフォーカスの関
係についてみると、図7に斜線部で示すようにある幅を
持つことになる。その原因は、被写体のコントラストお
よび空間周波数に影響されることであり、またデフォー
カスが大のとき、すなわち大ボケのときは、ラインセン
サ上の像のコントラストが小さくなることによる。した
がって、このFを総コントラスト、たとえば隣り合うセ
ンサの差の総和Cで正規化することによって、かなり幅
は小さくなり、また直線に近づく。これによっても、そ
の数値F/Cから正確にデフォーカス量を得られるわけ
ではない。
Here, looking at the relationship between F and defocus in equation (1), it has a certain width as shown by the hatched portion in FIG. The cause is that it is affected by the contrast and the spatial frequency of the subject, and when the defocus is large, that is, when the image is largely blurred, the contrast of the image on the line sensor becomes small. Therefore, by normalizing this F with the total contrast, for example, the sum C of the differences between adjacent sensors, the width becomes considerably small and approaches a straight line. Even by this, the defocus amount cannot be accurately obtained from the numerical value F / C.

【0049】ところで、ファジィ推論は、前述のように
ある程度の信号が得られれば、フィードバックによって
最終的には一定値におさまるので、それほどの正確さは
必要でない。したがって、ファジィ推論を利用する場合
はF/Cでも充分となる。この場合の演算回数はSをふ
る必要がないので、「(24+1)+総コントラスト
量」となる。総コントラスト量を求める式を
By the way, in the fuzzy inference, if a certain amount of signal is obtained as described above, the feedback is eventually reduced to a constant value, so that not so much accuracy is required. Therefore, when fuzzy inference is used, F / C is sufficient. In this case, the number of calculations does not need to be S, so that it becomes “(24 + 1) + total contrast amount”. The formula for calculating the total contrast is

【0050】[0050]

【数4】 とすれば、基本構成は(1)式と同じになるので、
(1)式に換算した演算回数は(24×1)×2であ
り、前述の例に比して1/12となる。さらに、Sをふる必
要がないので、センサも、いわゆる参照部だけでよく、
演算部をパラレル処理のハードで構成することも、より
容易となる。その場合のブロック図の一例を図8に示
す。
(Equation 4) Then, since the basic configuration is the same as the equation (1),
The number of operations converted into the expression (1) is (24 × 1) × 2, which is 1/12 as compared with the above example. Further, since it is not necessary to shake S, the sensor may be only a so-called reference unit,
It is easier to configure the arithmetic unit with hardware for parallel processing. FIG. 8 shows an example of a block diagram in that case.

【0051】以上説明した構成によれば、被写体の動き
に速応した高速かつ正確なAF制御が可能となる。とこ
ろで、初期状態、たとえば被写体および撮影レンズとも
停止していて、デフォーカスしている状態からの合焦へ
の変化を考えると、撮影レンズの移動速度は、図9
(a)に示す実線のようになり、また撮影レンズの変位
量は図9(b)に示す実線のようになる。スチールカメ
ラの場合は、初期状態からの合焦時間も重要である。し
たがって、適当な初速を与えて図9に示す点線のように
することが望まれる。
According to the configuration described above, high-speed and accurate AF control can be performed in response to the movement of the subject. By the way, considering the change from the initial state, for example, both the subject and the photographing lens are stopped and the state of defocusing to focusing, the moving speed of the photographing lens is as shown in FIG.
A solid line shown in FIG. 9A is obtained, and a displacement amount of the photographing lens becomes a solid line shown in FIG. 9B. In the case of a still camera, the focusing time from the initial state is also important. Therefore, it is desired to give an appropriate initial speed to make it as shown by the dotted line in FIG.

【0052】図10は、上記の点を考慮した第3実施形
態を示している。この実施形態の第1実施形態と異なる
点は、速度変化量Δvを出力するファジィ推論手段18
を第1ファジィ推論手段181 とし、新たに、デフォー
カス量とその微分値から初速v0 を演算する第2ファジ
ィ推論手段182 を設けたこと、および、速度演算手段
19は、初速として第2ファジィ推論手段182 の出力
0 を、以降は現速度vに第1ファジィ推論手段181
の出力Δvを加えた速度、すなわちv=v+Δvを出力
するようにしたことである。
FIG. 10 shows a third embodiment in consideration of the above points. The difference of this embodiment from the first embodiment is that the fuzzy inference means 18 for outputting the speed change amount Δv
The first and fuzzy inference means 18 1, new, second fuzzy inference means for calculating the initial velocity v 0 from the defocus amount and the differential value 18 2 that was provided, and the speed calculating means 19, first as an initial velocity The output f 0 of the two-fuzzy inference means 18 2 is changed to the current speed v, and the first fuzzy inference means 18 1
That is, a speed obtained by adding the output Δv, that is, v = v + Δv is output.

【0053】第2ファジィ推論手段182 の演算は、第
1ファジィ推論手段181 と同じでもよく、その出力を
Δvでなくv0 とすればよい。ただし、スケールは異
る。したがって、第1ファジィ推論手段181 の出力に
係数を掛けて初速v0 としてもよい。
The operation of the second fuzzy inference means 18 2 may be the same as that of the first fuzzy inference means 18 1, and its output may be v 0 instead of Δv. However, the scale is different. Therefore, it may be the initial speed v 0 is multiplied by a coefficient to the output of the first fuzzy inference means 18 1.

【0054】また、第2ファジィ推論手段182 の入力
は、デフォーカス量とその微分値でなく、デフォーカス
量と被写体速度とすることも考えられる。その場合、モ
ータ(USM33)の速度とデフォーカス量の微分値と
から被写体速度を演算することになる。
[0054] The input of the second fuzzy inference means 18 2 is not the defocus amount and the differential value, it is also conceivable to defocus amount and the object speed. In this case, the subject speed is calculated from the speed of the motor (USM33) and the differential value of the defocus amount.

【0055】ここで、初速とは、厳密なものではなく、
ごく初期段階で現速度に加えてもよい。さらに、初期状
態では、デフォーカス量の微分値=0の場合も、シーケ
ンスによっては考えられるが、この場合は初速ファジィ
推論によらず、図11に示す第4実施形態のように、デ
フォーカス量のみから初速v0 を演算する初速演算手段
20を設け、その出力を速度演算手段19に入力する方
法でもよい。その場合、演算方法としてはデフォーカス
量に対して速度を比例させればよい。
Here, the initial speed is not strict.
It may be added to the current speed at a very early stage. Further, in the initial state, the case where the differential value of the defocus amount is equal to 0 can be considered depending on the sequence. In this case, regardless of the initial speed fuzzy inference, as in the fourth embodiment shown in FIG. It is also possible to provide an initial speed calculating means 20 for calculating the initial speed v 0 only from the above, and to input the output to the speed calculating means 19. In this case, the calculation method may be to make the speed proportional to the defocus amount.

【0056】上述した第3実施形態(第4実施形態)に
よれば、第1実施形態および第2実施形態に比べ、撮影
レンズの駆動開始時にデフォーカス量に応じた初速を与
えることができるので、撮影レンズの駆動開始時におけ
る立上がり特性を著しく向上できる。
According to the above-described third embodiment (fourth embodiment), an initial speed corresponding to the defocus amount can be given at the start of driving of the photographing lens, as compared with the first embodiment and the second embodiment. In addition, the rising characteristics at the start of driving of the taking lens can be remarkably improved.

【0057】[0057]

【発明の効果】以上詳述したように本発明によれば、高
速に撮影レンズ駆動用の制御信号を生成することがで
き、よって移動する被写体に対してもリアルタイムに高
速かつ正確な焦点調整が可能となる自動焦点装置を提供
できる。
As described above in detail, according to the present invention, a control signal for driving a photographing lens can be generated at high speed, and therefore, high-speed and accurate focus adjustment can be performed on a moving subject in real time. It is possible to provide an autofocus device that can be used.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1の発明を適用した自動焦点装置の構成を示
すブロック図である。
FIG. 1 is a block diagram showing a configuration of an automatic focusing device to which the first invention is applied.

【図2】第2の発明を適用した自動焦点装置の構成を示
すブロック図である。
FIG. 2 is a block diagram showing a configuration of an automatic focusing device to which the second invention is applied.

【図3】本発明の第1実施形態を説明する構成図であ
る。
FIG. 3 is a configuration diagram illustrating a first embodiment of the present invention.

【図4】ファジィ推論に用いるメンバシップ関数の一例
を示す図である。
FIG. 4 is a diagram illustrating an example of a membership function used for fuzzy inference.

【図5】ファジィ推論手段の演算手順を説明するフロー
チャートである。
FIG. 5 is a flowchart illustrating a calculation procedure of fuzzy inference means.

【図6】本発明の第2実施形態を説明する構成図であ
る。
FIG. 6 is a configuration diagram illustrating a second embodiment of the present invention.

【図7】2つのセンサ上における像の相対的なずれとデ
フォーカスとの関係を示す図である。
FIG. 7 is a diagram showing a relationship between relative displacement of images on two sensors and defocus.

【図8】デフォーカス量を高速に演算するハード構成の
一例を示すブロック図である。
FIG. 8 is a block diagram showing an example of a hardware configuration for calculating a defocus amount at high speed.

【図9】撮影レンズの駆動開始時における移動速度およ
び変位量の変化状態を示す図である。
FIG. 9 is a diagram illustrating a change state of a moving speed and a displacement amount at the start of driving of a photographing lens.

【図10】本発明の第3実施形態を説明する構成図であ
る。
FIG. 10 is a configuration diagram illustrating a third embodiment of the present invention.

【図11】本発明の第4実施形態を説明する構成図であ
る。
FIG. 11 is a configuration diagram illustrating a fourth embodiment of the present invention.

【図12】ファジィ推論の概要を説明する図である。FIG. 12 is a diagram illustrating an outline of fuzzy inference.

【符号の説明】[Explanation of symbols]

1……撮影レンズ、 2……デフォーカス量検出手段、 3……微分手段、 4……レンズ駆動用アクチェータ、 5,7……ファジィ推論手段、 6……駆動制御手段、 8……初速演算手段、 9……速度演算手段、 10……レンズ駆動制御手段。 DESCRIPTION OF SYMBOLS 1 ... Photography lens, 2 ... Defocus amount detection means, 3 ... Differentiation means, 4 ... Lens drive actuator, 5, 7 ... Fuzzy inference means, 6 ... Drive control means, 8 ... Initial speed calculation Means 9, speed calculation means 10, lens drive control means

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 昭63−118133(JP,A) 特開 昭62−139512(JP,A) 特開 昭62−253107(JP,A) 特開 昭63−2010(JP,A) 特開 昭63−148218(JP,A) 特開 昭63−265309(JP,A) 特開 昭58−192407(JP,A) 特開 昭60−218290(JP,A) 特開 昭64−42712(JP,A) 特開 昭64−4563(JP,A) 特開 昭63−246546(JP,A) 特開 平1−276106(JP,A) 特開 平2−207229(JP,A) 特開 平2−149811(JP,A) 特開 平2−149810(JP,A) 特開 平1−285907(JP,A) 特開 平1−287514(JP,A) (58)調査した分野(Int.Cl.7,DB名) G02B 7/28 G02B 7/08 G03B 13/36 ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-63-118133 (JP, A) JP-A-62-139512 (JP, A) JP-A-62-253107 (JP, A) JP-A 63-118107 2010 (JP, A) JP-A-63-148218 (JP, A) JP-A-63-265309 (JP, A) JP-A-58-192407 (JP, A) JP-A-60-218290 (JP, A) JP-A-64-42712 (JP, A) JP-A-64-4563 (JP, A) JP-A-63-246546 (JP, A) JP-A-1-276106 (JP, A) JP-A-2-207229 (JP, A) JP-A-2-149811 (JP, A) JP-A-2-149810 (JP, A) JP-A-1-285907 (JP, A) JP-A-1-287514 (JP, A) ( 58) Surveyed field (Int.Cl. 7 , DB name) G02B 7/28 G02B 7/08 G03B 13/36

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 被写体に関する焦点情報として、上記被
写体までの距離情報または撮影レンズの焦点ずれ量と、
その微分値とを出力する焦点情報検出手段と、上記 撮影レンズを駆動するための、超音波モータおよび
該超音波モータの駆動回路を含むレンズ駆動手段と、 上記焦点情報検出手段の出力からファジィ推論を行い、
上記レンズ駆動手段の制御信号として上記超音波モータ
の駆動速度を変化させる量を求めるファジィ推論手段
と、 上記ファジィ推論手段から得られる制御信号を電圧値に
変換し、上記超音波モータの印加電圧を設定する駆動制
御手段と、 を具備したことを特徴とする自動焦点装置。
1. The method according to claim 1, wherein the focus information on the subject is
Information on the distance to the object or the defocus amount of the taking lens,
A focus information detecting means for outputting a differential value thereof, for driving the photographing lens, an ultrasonic motor and
Lens driving means including a driving circuit of the ultrasonic motor, and fuzzy inference from the output of the focus information detecting means ,
The ultrasonic motor as a control signal of the lens driving means
Fuzzy inference means for obtaining the amount of change in the driving speed of the motor, and the control signal obtained from the fuzzy inference means is converted to a voltage value.
And a drive control means for converting and setting an applied voltage of the ultrasonic motor .
JP9316098A 1998-04-06 1998-04-06 Autofocus device Expired - Fee Related JP3140730B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9316098A JP3140730B2 (en) 1998-04-06 1998-04-06 Autofocus device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9316098A JP3140730B2 (en) 1998-04-06 1998-04-06 Autofocus device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP1090419A Division JP2886882B2 (en) 1989-04-10 1989-04-10 Autofocus device

Publications (2)

Publication Number Publication Date
JPH10246853A JPH10246853A (en) 1998-09-14
JP3140730B2 true JP3140730B2 (en) 2001-03-05

Family

ID=14074814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9316098A Expired - Fee Related JP3140730B2 (en) 1998-04-06 1998-04-06 Autofocus device

Country Status (1)

Country Link
JP (1) JP3140730B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090129131A (en) * 2008-06-12 2009-12-16 엘지이노텍 주식회사 Method for measuring displacement of auto focusing actuator in camera module
KR102149389B1 (en) * 2018-07-10 2020-08-28 삼성전기주식회사 Camera module

Also Published As

Publication number Publication date
JPH10246853A (en) 1998-09-14

Similar Documents

Publication Publication Date Title
US6332060B1 (en) Camera with vibration compensation device varying the compensating action in accordance with the focal length of a lens and the distance to the subject
US6311019B1 (en) Automatic focus adjusting system capable of adjusting focus of moving subject
US5270763A (en) Auto-focusing device
US4518242A (en) Automatic focus adjusting device
US11953819B2 (en) Lens apparatus and image pickup apparatus
US5239332A (en) Automatic focusing device of camera for moving object photography
US20020186970A1 (en) Camera which compensates for motion by setting the time at which a movable member begins moving and which adjusts the movement of the movable member for motion originating in the camera
JP3140730B2 (en) Autofocus device
JP2886882B2 (en) Autofocus device
JP3500435B2 (en) Automatic focus adjusting device and automatic focus adjusting method
JPH02146010A (en) Control method for automatic focus adjusting device
JPS6283713A (en) Automatic focus adjusting device
US5628036A (en) Focus adjustment device and method
JP4649130B2 (en) Imaging apparatus and control method thereof
JP2712412B2 (en) Focus detection device
JPH02287310A (en) Automatic focusing device
US4816858A (en) Automatic focusing cameras
JPH06186473A (en) Automatic focusing camera
JPH0588069A (en) Controller for vari-focal lens
JPH04161912A (en) Automatic focusing device for electronic camera
JP2615679B2 (en) Camera focusing device
JP2531182B2 (en) Camera auto focus device
JP2974338B2 (en) Automatic focusing device
JP3403447B2 (en) microscope
JP3245904B2 (en) Camera system with automatic focusing device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20001128

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081215

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees