JPH02194312A - Range finder - Google Patents

Range finder

Info

Publication number
JPH02194312A
JPH02194312A JP1465489A JP1465489A JPH02194312A JP H02194312 A JPH02194312 A JP H02194312A JP 1465489 A JP1465489 A JP 1465489A JP 1465489 A JP1465489 A JP 1465489A JP H02194312 A JPH02194312 A JP H02194312A
Authority
JP
Japan
Prior art keywords
output
photoelectric conversion
diameter
component
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1465489A
Other languages
Japanese (ja)
Inventor
Yasunobu Otsuka
大塚 康信
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP1465489A priority Critical patent/JPH02194312A/en
Publication of JPH02194312A publication Critical patent/JPH02194312A/en
Pending legal-status Critical Current

Links

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)

Abstract

PURPOSE:To perform speedy and smooth focusing operation by an easy method by finding a distance by an arithmetic processing method from the ratio of the varying component and mean component of an image with the photoelectric conversion output signal of a subject image. CONSTITUTION:The light from a subject 1 is imaged on a photoelectric converting means (image sensor) 4 through the stop member 3 of an optical system 2. Then the output of the sensor 4 is detected as the varying component by a varying component detection part 5 and detected as the mean component by a mean component detection part 6. Then a ratio calculation part 7 compares the varying component of the detection part 5 with the mean component of the detection part 6. An arithmetic part 8 controls the stop member 3 and also drives the lens group of an optical system 2 through the lens driving part 9 according to the output of the calculation part 7 and the output of a system processor to calculate a defocusing quantity. Thus, the speedy and smooth focusing operation is easily performed.

Description

【発明の詳細な説明】 [メイ、業上の利用分野] 本発明はa+す釦装置、詳しくはイメージセンサ等の光
r5変換T段上に結像された被写体像からの映像信けを
演算処理することにより被写体距離をal11定する測
距装置に関する。
[Detailed Description of the Invention] [Mei, Field of Industrial Application] The present invention is an a+ button device, specifically, a method for calculating image reliability from a subject image formed on a light r5 conversion T stage of an image sensor, etc. The present invention relates to a distance measuring device that determines a distance to a subject through processing.

[従来の技術j イメージセンサ等の光電変換手段」二に結像された被写
体像から?ツられる映像f≦号をl寅算処理して被写体
距離を求める測距装置を用いたオートフォーカス(以下
、AFと略記するう装置は、従来がら種々のものが提供
されている。この種AF装置においては例えば、合焦の
度合を示す値が大きくなる方向に撮影レンズを移動させ
、ピーク位置を検出(、たら、そこで停止するように構
成された、所謂、由登り方式と呼称される方式が、例え
ば特公昭39−5265号公報に開示されている。この
山登り方式は、像のピントが合ってくると映像信号の高
周波成分か増える点に希目し、バント゛パスフィルタ(
以下、BPFと略記する)笠により映像信号中から取り
出されたその高周波成分を、合焦の度合を示す信号とし
て検出するものである。
[Conventional technology j Photoelectric conversion means such as image sensors] From the image of the subject formed on the second? Autofocus (hereinafter abbreviated as AF) using a distance measuring device that calculates the subject distance by calculating the subject distance of the captured image f≦ has been provided in various types.This type of AF For example, the device is configured to move the photographing lens in the direction in which the value indicating the degree of focus increases, detect the peak position, and then stop there. is disclosed, for example, in Japanese Patent Publication No. 39-5265.This mountain-climbing method focuses on the fact that the high-frequency components of the video signal increase when the image comes into focus, and uses a band-pass filter (
The high frequency component extracted from the video signal by the shade (hereinafter abbreviated as BPF) is detected as a signal indicating the degree of focus.

58−41487公報参jj(0、偏差・12方の和ま
たは偏差n乗の和を使ったもの(特開昭5i−5662
8号、特開昭55−121413号公報1特開昭55−
1.21414号の各公報参μ(()、あるいは映像信
号のn乗の合1;1を使ったもの(特公昭41−162
28号公f12参照)笠かある。
58-41487 publication jj (0, deviation, sum of 12 directions or sum of deviations to the nth power (Japanese Patent Application Laid-Open No. 58-5662)
No. 8, JP-A-55-121413 Publication 1 JP-A-55-
1. Reference to each publication of No. 21414 μ((), or one using the sum of the n-th power of the video signal 1; 1 (Special Publication No. 41-162
(Refer to No. 28 f12) There is a hat.

また、被写体像を検+’f:lする手段としては、投数
のセンサを光路長を変えて設定するもの(特開昭52−
104245号公報参照)やピーク値を記録しておいて
、その値になったら停止するもの(特開昭62−299
924号公報参照)などがある。
In addition, as a means for detecting the subject image, a method is used in which the number of projection sensors is set by changing the optical path length (Japanese Patent Application Laid-open No.
104245) or one that records the peak value and stops when that value is reached (Japanese Patent Laid-Open No. 62-299)
(Refer to Publication No. 924).

上述の各手段は、何れも被写体像にピントか合うと像の
高周波成分が増えることを利用したちのであるが、同時
に像全体の平均光強度も増すので、これを利用して平均
光強度最大点に合イっぜる手段(特公昭52−3778
5号、特開昭49−22127号、特開昭48−576
26号の各公報参照)も提供されている。
Each of the above-mentioned methods takes advantage of the fact that when the subject image is brought into focus, the high frequency components of the image increase, but at the same time the average light intensity of the entire image also increases, so this is used to maximize the average light intensity. Means of matching the points
No. 5, JP-A-49-22127, JP-A-48-576
26) are also provided.

17かしながら、上記各手段では、合焦度合を示す値の
ピークを検出するまではデフォーカス量が不明なので、
常に細かくレンズを移動して合焦度合を示す値を測定し
なければならなかった。
17 However, with each of the above means, the amount of defocus is unknown until the peak of the value indicating the degree of focus is detected.
It was necessary to constantly move the lens minutely to measure the value that indicates the degree of focus.

そこで、デフォーカス量を検出する手段として、2つの
光路長のデータからデフォーカス方向と大体のデフォー
カス量を検出する手段が特開昭62198811号公報
に開示されている。
Therefore, as means for detecting the defocus amount, Japanese Patent Application Laid-Open No. 62198811 discloses means for detecting the defocus direction and the approximate defocus amount from data on two optical path lengths.

また、デフォーカス量を検出する他の手段として、被写
体像のMTF(変調伝達関数)成分の光路長の変化によ
る変動割合からデフォーカス量を検出する手段が特開昭
62−291.610号、特開昭62−284314号
、特開昭62−272217号、特開昭62−2722
18号の各公報等に開示されている。
Further, as another means for detecting the amount of defocus, a means for detecting the amount of defocus from the variation rate due to changes in the optical path length of the MTF (modulation transfer function) component of the subject image is disclosed in Japanese Patent Application Laid-Open No. 62-291.610. JP-A-62-284314, JP-A-62-272217, JP-A-62-2722
It is disclosed in various publications such as No. 18.

[発明が解決しようとする課題] ところで、結像光学系をそのまま使って合焦検出をする
従来例の一つである111登り力式のAFでは、デフォ
ーカス方向とデフォーカス量か1回の検出では不明なの
で、割にスキャンしなから合焦点を通過してから初めて
合焦位置の検出か可能となる。従って、多くの回数の像
検出が必要であり、また合焦点付近では一度合焦点を通
り越してから合焦点に戻る、所謂ハンチングが不可避な
ので、合焦動作に時間がかかると共に、円滑な動作が期
待できなかった。
[Problems to be Solved by the Invention] By the way, in the 111 climbing force type AF, which is one of the conventional examples of focusing detection using the imaging optical system as it is, the defocus direction and defocus amount are determined at one time. Since it is unknown by detection, the in-focus position can only be detected after passing through the in-focus point without having to scan. Therefore, it is necessary to detect the image many times, and near the in-focus point, so-called hunting is unavoidable, in which the camera passes through the in-focus point and then returns to the in-focus point, so it takes time for the focusing operation, and smooth operation is expected. could not.

また、2つの光路長のデータからデフォーカス方向と大
体のデフォーカス量を検出する第2の従来の手段では、
少ない回数の像信号検出でデフォーカス方向とデフォー
カス量を算出することはできるが、測距精度が不十分で
ある。
In addition, in the second conventional means of detecting the defocus direction and the approximate amount of defocus from data on two optical path lengths,
Although the defocus direction and defocus amount can be calculated by detecting the image signal a small number of times, the distance measurement accuracy is insufficient.

更に、被写体像のMTF成分の光路長の変化による変動
割合から合焦検出する第3の従来の手段では、周波数解
析をするために像の周波数成分や周波数解析を行なう方
向、それにサンプリングする範囲により、測距精度が影
響されやすかった。
Furthermore, in the third conventional method of detecting focus based on the variation rate due to changes in the optical path length of the MTF component of the subject image, in order to perform frequency analysis, the focus is detected based on the frequency component of the image, the direction in which the frequency analysis is performed, and the sampling range. , the ranging accuracy was easily affected.

更に、BPF等の回路や高速高精度の演算装置が必要と
なり、また、レンズの収差による影響も受けやすかった
Furthermore, a circuit such as a BPF and a high-speed, high-precision arithmetic unit are required, and it is also susceptible to the effects of lens aberrations.

そこで本発明の目的は、上述の問題点を解消し、少ない
回数の像検出でデフォーカス方向とデフォーカス量を算
出し、迅速かつ円滑な合焦動作が可能なAF装置に使用
されるAll距装置を提供するにある。
Therefore, an object of the present invention is to solve the above-mentioned problems, calculate the defocus direction and defocus amount with a small number of image detections, and provide an all-lens distance for use in an AF device that can perform quick and smooth focusing operations. We are in the process of providing equipment.

[課題を解決するための手段および作用コ本発明の41
1距装置は、被写体像を結像する光学系と、この光学系
により結像された被写体像を光電変換する光電変換手段
と、この光電変換手段からの光電変換出力信号を演算処
理して距離を求める演算処理手段とを有する測距装置に
おいて、上記演算処理手段は、上記被写体像の光電変換
出力信号から像の変動成分と平均成分の比より距離を求
めることを特徴とするものである。
[Means and effects for solving the problems 41 of the present invention]
A single distance device includes an optical system that forms an image of a subject, a photoelectric conversion means that photoelectrically converts the subject image formed by this optical system, and a distance that calculates the distance by processing the photoelectric conversion output signal from the photoelectric conversion means. In the distance measuring device, the arithmetic processing means calculates the distance from the photoelectric conversion output signal of the subject image based on the ratio of the fluctuation component and the average component of the image.

[実 施 例コ 以下、図示の実施例により本発明を説明する。[Implementation example] The present invention will be explained below with reference to illustrated embodiments.

先ず、本発明の詳細な説明するに先立って第2゜3図を
用いて本発明の枯木概念を説明する。
First, before explaining the present invention in detail, the dead tree concept of the present invention will be explained using FIGS. 2-3.

第2図は、結像光学系2における、そのピント面からの
デフォーカス量と被写体の点像分布との関係を示す光路
図である。図示しない被写体よりの光は、結像光学系2
の絞り部材3で絞り制御されてその出射瞳が調整され、
光軸0に垂直なピント面21a上に結像する。従って、
光電変換手段を上記ピント面21a上に配置すれば、f
LIられる被写体の点像分布は合焦点21となるが、ピ
ント面21aからその前後にデフォーカスした面22a
FIG. 2 is an optical path diagram showing the relationship between the amount of defocus from the focal plane of the imaging optical system 2 and the point spread distribution of the object. Light from an object (not shown) is transmitted to the imaging optical system 2.
The aperture is controlled by the aperture member 3 and the exit pupil is adjusted.
An image is formed on a focus plane 21a perpendicular to the optical axis 0. Therefore,
If the photoelectric conversion means is placed on the focus plane 21a, f
The point spread distribution of the subject to be LI is a focused point 21, but a defocused surface 22a before and after the focal plane 21a
.

23 a、  24 aに光電変換手段を配置したとき
に得られる被写体の点像分布は、被写体像22゜23.
24のようにデフォーカス量によって被写体像の点像強
度分布が変化する。この点像強度分布の変化を求めるた
めに光学系の射出瞳を円型とすると、瞳半径りにより点
像強度分布の円径すは、デフォーカス量をd5瞳面から
焦点面までの距離をLとして b = −x D となる。
The point spread distribution of the object obtained when the photoelectric conversion means are placed at 23 a and 24 a is as follows: 22° 23 .
As shown in 24, the point spread intensity distribution of the subject image changes depending on the amount of defocus. If the exit pupil of the optical system is made circular in order to find the change in the point spread intensity distribution, the radius of the point spread intensity distribution is determined by the pupil radius. As L, b = -x D.

点像内の強度分布を一定とすると、点像強度分布h (
x / 、 y / )  は、・−j7す〒z<b のとさ h(r)=01 となり、その他のとき h(r)−〇 となる。従って、光学系2のOTF (レスポンス関数
)H(S)は、 で表わされる(理工学基礎講座Hの光学概論■「波動光
学」辻内順平著 朝倉書店刊参照)。
Assuming that the intensity distribution within the point spread is constant, the point spread intensity distribution h (
x / , y / ) becomes h(r)=01 when -j7s〒z<b, and h(r)-〇 in other cases. Therefore, the OTF (response function) H(S) of the optical system 2 is expressed as follows (see Introduction to Optics in Science and Engineering Basic Course H, "Wave Optics" by Junpei Tsujiuchi, published by Asakura Shoten).

ここで、2つのデフォーカス量の像のMTFO(s)l
と0(S)2の比は、周波数81被写体のMTFをF(
S)とすれば、 2J1(2πbs) となるから、被写体に関係なく一定となる。ここでs=
0のときは、 従って、あるデフォーカス装置にある被写体像1−10
(。)と錯乱円径すの間には直線関係が成立する。
Here, MTFO(s)l of the image with two defocus amounts
and 0(S)2, the MTF of the frequency 81 subject is F(
S), it becomes 2J1 (2πbs), so it is constant regardless of the subject. Here s=
0, therefore, the subject image 1-10 in a certain defocus device
A linear relationship exists between (.) and the diameter of the circle of confusion.

一般に平均値(s=0)が一定になるように充電変換4
段としての撮像装置がl+”)成されているので、被写
体像のM T F特性のMTFXsの面積か一定になる
ように、換言すると像の情報量か一定になるようにすれ
ば、通常平均値の変動か7Il11定できることになる
。そして、平均値は情報を持っていないので、(+’i
報量は被写体像の変動成分、即ち低周波から高周波まで
の量の割合、例えば被写体像の標準偏差で表現すること
かできる。
In general, charge conversion 4 is performed so that the average value (s=0) is constant
Since the imaging device as a stage is made up of l+"), if the area of MTFXs of the MTF characteristic of the subject image is kept constant, in other words, the amount of information of the image is kept constant, then the average The fluctuation of the value can be determined by 7Il11.And since the average value has no information, (+'i
The amount of information can be expressed by the variation component of the subject image, that is, the ratio of the amount from low frequency to high frequency, for example, the standard deviation of the subject image.

従って、求めたい平均値又は、像の変動成分をΣとする
と となる。前述のように、0(。)と錯乱円径すとの間に
は反比例の関係があることと、実際には0(。)は常に
正の値であることから、C1とC2となる。但し、 C2<01×b のときは一般的に Σ/マーC) と考えて略差支えない。
Therefore, let Σ be the average value or image fluctuation component to be determined. As mentioned above, there is an inversely proportional relationship between 0 (.) and the diameter of the circle of confusion, and in reality, 0 (.) is always a positive value, so they are C1 and C2. However, when C2<01×b, it is generally safe to assume that Σ/merC).

第3A図は錯乱円径すとΣ/又の関係を示す線図である
。図において、ある被写体像では、その特性が直線ρ1
.Ω1′となり、また別の被写体像ではその特性が直線
ρ2’ f12′となる。
FIG. 3A is a diagram showing the relationship between the diameter of the circle of confusion and Σ/or. In the figure, for a certain subject image, its characteristic is a straight line ρ1
.. Ω1', and in another subject image, its characteristic becomes a straight line ρ2'f12'.

そこで、このことを利用してデフォーカス量を求めるこ
とが可能となる。即ち、第3B図に示すように、例えば
、出発点があるデフォーカス量を持った点てそこに撮影
レンズが位置し、そのときの錯乱内径をbとする。ここ
で、絞り部材3により絞りを半分の径にすると錯乱円径
b′はb/2になる。そこで、錯乱円径がbのときの後
述する比率算出部から出力される変動成分と平均成分の
比Σ/7をylとし、錯乱円径がb/2のときの出力を
y2とすれば、上記y1とy2の差の2倍が合焦時のΣ
/¥とyの差になる。
Therefore, it becomes possible to obtain the defocus amount by utilizing this fact. That is, as shown in FIG. 3B, for example, the starting point is a point with a certain amount of defocus, the photographing lens is positioned there, and the inner diameter of confusion at that time is defined as b. Here, if the diameter of the aperture is reduced to half by the aperture member 3, the diameter b' of the circle of confusion becomes b/2. Therefore, if the ratio Σ/7 of the fluctuation component and the average component output from the ratio calculation unit (described later) when the diameter of the circle of confusion is b is yl, and the output when the diameter of the circle of confusion is b/2 is y2, then Twice the difference between y1 and y2 above is Σ when in focus
It is the difference between /¥ and y.

次に、レンズをレンズ駆動部により微小移動させてΔb
だけ錯乱円径すを変化させれば、つまり微小移動量より
演算によりΔbを求めることかできるので、ΔΣ/X−
Δy3を測定することができる。これによって、錯乱円
径すの変化と変動成分と平均成分の比とΣ/ヌの変化率
が検出できることになる。
Next, the lens is minutely moved by the lens drive unit to
If we change the diameter of the circle of confusion by the same amount, that is, we can calculate Δb from the amount of minute movement, so ΔΣ/X−
Δy3 can be measured. This makes it possible to detect changes in the diameter of the circle of confusion, the ratio of the fluctuation component to the average component, and the rate of change in Σ/nu.

上式より(錯乱円径の大きさ)−(デフォーカス量)を
求めることができる。
From the above equation, (size of circle of confusion diameter) - (defocus amount) can be obtained.

ところで、上式を一般式の形で表わすために、瞳径の変
化率をΔpルンズを微小移動させて錯乱円径すをΔb変
化させたときの変動成分と平均成分との比Σ/又をy3
とすれば、 がiIjられる。
By the way, in order to express the above equation in the form of a general equation, the ratio Σ/or of the fluctuation component to the average component when the diameter of the circle of confusion is changed by Δb by slightly moving the pupil diameter by Δp. y3
Then, is iIj.

つまり、上述のことをまとめると次のようになる。In other words, the above can be summarized as follows.

現在のレンズの位置は“b”点にあるが、“0”からど
の位置れているか不明であり、これを求める。
The current position of the lens is at point "b", but it is unknown where it is from "0", so this is determined.

■現在の瞳径におけるΣ/マを求める。これをylとす
る。
■Calculate Σ/ma at the current pupil diameter. Let this be yl.

■現在の瞳径と異なる瞳径(たとえば1/2)でのΣ/
マを求める。これをy2とする。
■Σ/ with a pupil diameter different from the current pupil diameter (for example, 1/2)
Ask for Ma. Let this be y2.

■レンズの位置を変え、錯乱円径をΔbだけ移動させ、
Δy3を求める。
■Change the position of the lens and move the diameter of the circle of confusion by Δb,
Find Δy3.

■上記y1.Y2.Δy3.Δbよりbを求める。この
場合、Δy3を求めるデータをy1y2と共用してもよ
い。
■Y1 above. Y2. Δy3. Find b from Δb. In this case, the data for calculating Δy3 may be shared with y1y2.

このような基本概念を有する本発明を、その実施例によ
り更に詳細に説明する。
The present invention having such a basic concept will be explained in more detail with reference to examples thereof.

第1図は、本発明を用いたAF装置を、走査によるイメ
ージセンサに応用した例で、この第1図により本発明の
第1実施例を説明する。図において、この第1実施例を
示ず411j距装置は、被写体1からの光をイメージセ
ンサ4」二に結像する光学系2と、同光学系2の出射瞳
の径を変える絞り部材3と、上記イメージセンサ4から
の出力の変動成分を検出する変動成分検出部5と、平均
成分を検出する平均成分検出部6と、上記変動成分を平
均成分で比較する比率算出部7と、同算出部7の出力と
システムプロセッサ(図示せず)からの出力に基づいて
、上記絞り部材3を絞り制御すると共にレンズ駆動部9
を介し上記光学系2のレンズ群をレンズ駆動しながら、
デフォーカス量を算出する演算部8とから構成されてい
る。
FIG. 1 shows an example in which an AF device using the present invention is applied to a scanning image sensor, and a first embodiment of the present invention will be explained with reference to FIG. In the figure, the first embodiment is not shown, but the distance device 411j includes an optical system 2 that forms an image of light from a subject 1 on an image sensor 4'', and an aperture member 3 that changes the diameter of the exit pupil of the optical system 2. , a fluctuation component detection section 5 that detects a fluctuation component of the output from the image sensor 4, an average component detection section 6 that detects an average component, and a ratio calculation section 7 that compares the fluctuation component with the average component. Based on the output of the calculation unit 7 and the output from the system processor (not shown), the aperture member 3 is controlled to aperture, and the lens drive unit 9
While driving the lens group of the optical system 2 through the
It is composed of a calculation section 8 that calculates the amount of defocus.

上記変動成分検出部5.平均成分検出部6.比率算出部
7.演算部8は、その具体的な構成が第4図、第6図に
示されるように、第4図に示す電気回路によるアナログ
出力を第6図に示すCPU801にA/Dコンバータ8
02,803てディジタル変換して入力するようになっ
ていて、第8図に示すアルゴリズムで演算せられ、第7
図に示すフローに従って絞りおよびレンズ駆動の制御が
行なわれる。
The fluctuation component detection section 5. Average component detection section 6. Ratio calculation unit 7. The arithmetic unit 8, whose specific configuration is shown in FIGS. 4 and 6, sends an analog output from the electric circuit shown in FIG. 4 to a CPU 801 shown in FIG.
02,803 is digitally converted and input, and is calculated using the algorithm shown in Figure 8.
Control of the aperture and lens drive is performed according to the flow shown in the figure.

タイミングチャートを併用しながら説明すると、このア
ナログ信号出力回路は、被写体像を光電変換して得られ
た映像信号VINを緩衝増幅するバッファ601と、測
距エリア内の信号を抽出するスイッチ602.加算回路
111反転反転口路12からなり、上記映像信号を積分
して積分出力記スイッチ602と同様に動作して測距エ
リア内の信号を抽出するスイッチ510.加算回路16
反反転幅回路17からなり上記映像信号■lNを222
乗積出力回路とから構成されている。
Explaining this using a timing chart, this analog signal output circuit includes a buffer 601 that buffers and amplifies a video signal VIN obtained by photoelectrically converting a subject image, and a switch 602 that extracts a signal within the distance measurement area. A switch 510, which is composed of an adder circuit 111 and an inverter circuit 12, integrates the video signal and operates in the same manner as the integral output switch 602 to extract a signal within the distance measurement area. Addition circuit 16
It consists of an anti-inversion width circuit 17 and the video signal ■lN is input to 222
It is composed of a product output circuit.

上記積分出力回路を構成する加算回路11は、抵抗60
3.積分コンデンサ604.後述するリセットスイッチ
605.オペアンプ606が図示のように接続されて形
成された積分器で形成され、反転増幅回路12は、抵抗
値の等しい抵抗607゜608、オペアンプ609が図
示のように接続されて形成さた増幅度1で入出力信号の
極性のみ反転する位相反転増幅器で構成されている。
The adder circuit 11 constituting the integral output circuit has a resistor 60
3. Integrating capacitor 604. Reset switch 605, which will be described later. The inverting amplifier circuit 12 is formed by an integrator formed by connecting an operational amplifier 606 as shown in the figure, and the inverting amplifier circuit 12 is formed by an integrator formed by connecting resistors 607 and 608 with the same resistance value, and an operational amplifier 609 connected as shown in the figure. It consists of a phase inversion amplifier that inverts only the polarity of input and output signals.

また、上記2乗積分出力回路を構成する対数変換回路1
3は、抵抗501.ダイオード502オペアンプ503
が図示のように接続されて形成され、入力信号の対数を
とって出力する対数変換回路で構成され、増幅回路14
は、抵抗504゜この抵抗504の抵抗値の2倍の抵抗
値を有する抵抗505.オペアンプ506が図示のよう
に接続されて形成され、増幅度2の増幅器からなり、逆
対数変換回路15は、上記対数変換回路13のダイオー
ド502と同一特性を有するダイオード507、抵抗5
08.オペアンプ509が図示のように接続されて形成
され、入力信号の指数、つまり逆対数変換して出力する
逆対数変換回路で構成されている。
Also, a logarithmic conversion circuit 1 constituting the square integral output circuit
3 is a resistor 501. Diode 502 operational amplifier 503
The amplifier circuit 14 is formed by connecting as shown in the figure, and is composed of a logarithmic conversion circuit that takes the logarithm of an input signal and outputs the logarithm.
is a resistor 504°, a resistor 505. whose resistance value is twice the resistance value of this resistor 504. The inverse logarithmic conversion circuit 15 is formed by connecting an operational amplifier 506 as shown in the figure, and is composed of an amplifier with an amplification factor of 2.
08. It is formed by connecting operational amplifiers 509 as shown in the figure, and is constituted by an anti-logarithmic conversion circuit that converts the index of an input signal, that is, anti-logarithmic and outputs the result.

また、加算回路16は、抵抗511.fa分コンデンサ
512.後述するリセットスイッチ513゜オペアンプ
514が図示のように接続されて形成された積分器で形
成され、反転増幅回路17は、抵抗515.この抵抗5
]5の抵抗値と等しい抵抗値を有する抵抗516.オペ
アンプ517が図示のように接続されて形成された増幅
度1で入出力信号の極性のみ反転する位相反転増幅器で
構成されている。
Further, the adder circuit 16 includes resistors 511 . fa capacitor 512. The inverting amplifier circuit 17 is formed of an integrator formed by connecting a reset switch 513, an operational amplifier 514, and a resistor 515, which will be described later, as shown. This resistance 5
]5 having a resistance value equal to the resistance value of 516. The operational amplifier 517 is connected as shown in the figure to form a phase inverting amplifier with an amplification factor of 1 and inverting only the polarity of input/output signals.

上記スイッチ602と510は、第5図に示すように、
1垂直走査期間lv中の映像信号中から測距エリア内オ
ン時間tl中に前記システムプロセッサ(第1図参照)
から供給される信号に応動して作動し、これによって1
垂直走査期間]V内の映像信号中から測距エリア内信号
のみを抽出し積分するようになっている。また、加算回
路11゜16内に設けられたスイッチ605,513は
、積分リセット用で、第5図に示すように、]垂直走査
期間IVのスタートに同期して作動し、上記加算回路1
1.16の積分コンデンサ604゜512にそれぞれ充
電されていた電荷を放電して初期状態にリセットする役
目をする。
The switches 602 and 510 are as shown in FIG.
The system processor (see FIG. 1) during the distance measurement area on-time tl from the video signal during one vertical scanning period lv.
operates in response to a signal supplied from the
Vertical scanning period] Only the signal within the ranging area is extracted from the video signal within V and integrated. Further, switches 605 and 513 provided in the adder circuit 11 and 16 are for resetting the integral, and operate in synchronization with the start of the vertical scanning period IV, as shown in FIG.
It serves to discharge the charges stored in the 1.16 integrating capacitors 604 and 512, respectively, and reset them to the initial state.

なお、上記各スイッチを制御するタイミングおよびCP
U演算開始の制御を行なう回路は、一般的でかつ本発明
の本質には関係がないのでこれを省略する。
In addition, the timing and CP for controlling each of the above switches
The circuit for controlling the start of the U calculation is omitted because it is common and has no bearing on the essence of the present invention.

て、CPU801は、システムプロセッサ(第1図参照
)からのイ1j号により、A/Dコンバータ1図に示す
絞り部材3を絞り制御し、レンズ駆動部9を介17て光
学系2をレンズ駆動するようにな一〕でいる。
Then, the CPU 801 controls the aperture member 3 shown in the A/D converter 1 in accordance with No. 1j from the system processor (see FIG. Be like one.

このように構成された本実施例の動作を、第7図に示す
メインのフローチャー1・に基づいて説明する。先ずシ
ステムプロセッサ(第1図参照)から入力された主に3
11光系のデータに基づいて“最適F値を測定”し、そ
の”F値を設定″する。
The operation of this embodiment configured as described above will be explained based on the main flowchart 1 shown in FIG. First, mainly 3 inputs from the system processor (see Figure 1)
11 "Measure the optimum F value" based on the data of the optical system and "set the F value".

瞳径変化による光学系の収差変化がサイデルの収差の式
より3乗や2乗で影響するものが多いので、なるべくF
値は大きくなるようにする。次いで、設定したF値で変
動成分と平均成分の比“Σ/Xを演算”する。この変動
成分と平均成分]9 の比Σ/7の演算は、第8図にフローを示すようにCP
U演算開始43号によって開始される。
Changes in aberrations in the optical system due to changes in pupil diameter are often influenced by the cube or square of Seidel's aberration formula, so if possible, use F as much as possible.
Make the value larger. Next, the ratio ``Σ/X'' between the fluctuation component and the average component is calculated using the set F value. The calculation of the ratio Σ/7 between the fluctuation component and the average component]9 is performed using the CP
It is started by U operation start No. 43.

第8図において、」二記第4図、f2J5図に示した“
スイッチ605,513がオンの後オフ″ し、これに
よってコンデンサ604,512の電荷をリセットシた
後に、映像イに号VINがバッファアンプ601を通り
スイッチ602によってall+距エリアの信号だけが
選択される。選択された映像信号は、加算回路11の抵
抗603で電流に変換され、オペアンプ606とコンデ
ンサ604により積分器で積分される。しかし、この積
分器の出力は正負が逆なので、抵抗607,608とオ
ペアンプ609による反転増幅回路12で極性を反転し
て50]、ダイオード502.オペアンプ503による
対数変換回路13により対数変換され、抵抗504.5
05とオペアンプ506からなる増幅回路14により2
倍され、ダイオード507.抵抗508.オペアンプ5
09による逆対数変換回路15により逆変換され、その
結果として2乗される。
In Figure 8, "2, Figure 4, and Figure f2J5"
After the switches 605 and 513 are turned on and then turned off, thereby resetting the charges in the capacitors 604 and 512, the video signal VIN passes through the buffer amplifier 601 and the switch 602 selects only the signal in the all+range area. The selected video signal is converted into a current by the resistor 603 of the adder circuit 11, and integrated by the integrator by the operational amplifier 606 and the capacitor 604.However, since the output of this integrator has the opposite polarity, the resistors 607 and 608 The polarity is inverted by an inverting amplifier circuit 12 using an operational amplifier 609, and then logarithmically converted by a logarithmic conversion circuit 13 using a diode 502 and an operational amplifier 503, and a resistor 504.5
05 and an operational amplifier 506.
multiplied by diode 507. Resistance 508. operational amplifier 5
It is inversely transformed by the inverse logarithm transformer 15 according to 09, and is squared as a result.

2乗された映像信号っまりX は、スイッチ510によ
りfll11距エリアの信号を選択されて、上記積分出
力回路を構成する加算回路111反転反転口路12と同
じタイプの加算回路161反転増幅回路17による2乗
積分出力回路で2乗積分出CPU演算開始信号(第5.
第6図参照)によりCPU801 (第6図参照)はA
/Dコンバータ802.803 (第6図参照)を動か
し積分出力標準偏差 と平均 を算出する。
The squared video signal X is selected by a switch 510 to select the signal in the fl11 distance area, and is then sent to an adder circuit 111 which constitutes the integral output circuit, an adder circuit 161 of the same type as the inverter circuit 12, and an inverter amplifier circuit 17. The square integral output circuit outputs the square integral by the CPU calculation start signal (fifth.
(see Fig. 6), the CPU 801 (see Fig. 6) is A.
/D converters 802 and 803 (see Figure 6) are operated to calculate the integrated output standard deviation and average.

そして、第7図に示すように上記で算出した変動成分と
平均成分の比Σ/Yをylへ記録した後、絞り部+33
(第1図参照)を紋って上記で設定したレンズのF値を
C倍(C3は任意の定数)にする。つまり、射出瞳の径
を1/C3にしてy2−Σ/又を求めると、合焦点での
変動成分と平均成分の比Σ/又を予想できる。但し、レ
ンズの移動量とΣ/7の変化の関係が不明なので、Δた
けレンズを駆動してY3=Σ/マを求めて変化を知る。
Then, as shown in FIG. 7, after recording the ratio Σ/Y of the fluctuation component and the average component calculated above to yl,
(see Fig. 1), the F value of the lens set above is multiplied by C (C3 is an arbitrary constant). That is, if y2-Σ/or is calculated by setting the diameter of the exit pupil to 1/C3, the ratio Σ/or of the fluctuation component and the average component at the focused point can be predicted. However, since the relationship between the amount of lens movement and the change in Σ/7 is unknown, the change is determined by driving the lens by Δ and finding Y3=Σ/ma.

従って、デフォーカス量を求める式は、ri焦点でのΣ
/Xと最初に41す定したΣ/マとの差A1は、レンズ
がΔだけ移動した時のΣ/又の変化(ya  yt)の
何倍かを求め6倍すれば良い。
Therefore, the formula for determining the amount of defocus is Σ at the ri focus.
The difference A1 between /X and Σ/ma, which is initially set at 41, can be calculated by finding how many times the change in Σ/(ya yt) when the lens moves by Δ and multiplying by 6.

この場合、既にΔだけ動いているので、デフォを求め1
,1的の となる。これは、レンズの移動量に対して被写体までの
距離が大きいときであり、レンズの移動によりレンズと
被写体までの距離が大きく変化するときは、そのことも
考慮する必要がある。
In this case, it has already moved by Δ, so find the default and 1
, becomes the first target. This occurs when the distance to the subject is large relative to the amount of movement of the lens, and when the distance between the lens and the subject changes significantly due to movement of the lens, this must also be taken into consideration.

」二連のようにして求めたデフォーカス量dによりレン
ズを移動した後、正しく測距できたか否かを確認するた
めに1、予想した合焦点でのΣ/Xの値とレンズ移動後
のΣ/′9:の値の比をとる。
After moving the lens according to the defocus amount d obtained in two series, in order to check whether the distance was measured correctly, 1. Σ/'9: Take the ratio of the values.

般に光学系では合焦点近傍では収差の影響が大きくなる
のでΣ/又は小さくなる。このことも考慮して比率が1
〜C4(C4は実験的に求めた最良値)の間にあるかど
うかで判断する。もし、はずれているときは誤測距とし
て最後に測定したΣ/又をylとしてF値を変えて合焦
時のΣ/Xを予想する所から繰り返し行なう。このとき
許容誤差を設けて終了するように設定するとか、回数で
制限する等も可能である。
In general, in an optical system, the influence of aberrations increases near the focal point, so Σ/or becomes smaller. Considering this, the ratio is 1
-C4 (C4 is the best value determined experimentally). If it is off, it is considered an erroneous distance measurement and the last measured distance Σ/X is used as yl, the F value is changed, and the process is repeated from the point where Σ/X when in focus is predicted. At this time, it is possible to set a tolerance and set the process to end, or to limit the number of times.

また、上記実施例ではy3はylを測定したときの瞳径
で測定したが、y2や他の瞳径で求めた値で測定し、そ
れぞれに対応するA]とレンズ移動量ΔとΣ/Xの変化
の関係で求めてもよい。そのときの錯乱円径すは、 (但し、Δy3 :Δb変化したときの出力の変化量) 上述の第1実施例によれば、高速動作の必要な部分を安
価で簡単なアナログデバイスによる回路で構成できるの
で、高速のCPUやディジタルデバイスが必要ない。ま
た高価な大容量メモリが不要であるにもかかわらず、測
距エリアを任意に選ぶことができる。
In addition, in the above embodiment, y3 was measured using the pupil diameter when yl was measured, but it was also measured using y2 and other pupil diameters, and the corresponding A], lens movement amount Δ, and Σ/X It can also be found in relation to the change in . The diameter of the circle of confusion at that time is (where Δy3 is the amount of change in output when Δb changes) According to the first embodiment described above, the portions that require high-speed operation are constructed using inexpensive and simple analog device circuits. configurable, there is no need for a high-speed CPU or digital device. Moreover, the distance measurement area can be arbitrarily selected, even though expensive large-capacity memory is not required.

第9図は、本発明の第2実施例を示ずδI11距装置に
おける、その演算処理手段のブロック系統図である。こ
の第2実施例は、本発明を映像信号をメモリに蓄請して
おくタイプのカメラに応用したもので、上記第1実施例
と大きく異なる点は、前記第1図に示す光電変換手段4
から出力された光電変換信号を直ちにA/D変換してデ
ィジタル信号とし、このディジタル信号をCPUに入力
してCを求めるのに、上記第1実施例では、第4図に示
すようにハード的に行なっていたのに対し、本第2実施
例ではソフト的に行なうようになっている。
FIG. 9 is a block system diagram of the arithmetic processing means in the δI11 distance device, which does not show the second embodiment of the present invention. This second embodiment is an application of the present invention to a type of camera in which video signals are stored in a memory.The main difference from the first embodiment is that the photoelectric conversion means 4 shown in FIG.
In the first embodiment described above, in order to immediately A/D convert the photoelectric conversion signal outputted from the CPU into a digital signal and input this digital signal to the CPU to obtain C, the hardware is required as shown in FIG. In contrast, in the second embodiment, this is done by software.

なお、以下の第2実施例では上記第1実施例と全く同じ
構成部材には同じ符号をイ」シて、その説明を省略する
In the following second embodiment, the same components as those in the first embodiment are designated by the same reference numerals, and their explanations will be omitted.

第9図において、光電変換信号VINは、バッファ60
1を介してA/Dコンバータ804に供給され、同コン
バータ804でディジタル値に変換されてメモリ806
に記憶される。メモリ806の記憶データは、CPU8
01に供給され、同CPU801によって変動成分と平
均成分の比Σ/7が算出される。
In FIG. 9, the photoelectric conversion signal VIN is transferred to the buffer 60.
1 to an A/D converter 804, which converts it into a digital value and stores it in a memory 806.
is memorized. The data stored in the memory 806 is stored in the CPU 8.
01, and the CPU 801 calculates the ratio Σ/7 between the fluctuation component and the average component.

上記A/Dコンバータ804.メモリ806゜CPU8
01は、コントローラ805から送信される各種同期信
号、例えば垂直同期信号vSYNC水平同期信号H3Y
)JCによりコントロールされるようになっている。な
お、CPU80]の全体のシーケンスは上記第1実施例
と同様で、上記第7図に示すフローチャートに基づいて
作動する。
The above A/D converter 804. Memory 806°CPU8
01 is various synchronization signals transmitted from the controller 805, such as vertical synchronization signal vSYNC and horizontal synchronization signal H3Y.
) is controlled by JC. The overall sequence of the CPU 80 is the same as that of the first embodiment, and operates based on the flowchart shown in FIG. 7 above.

このように構成された第2実施例においては、光学系2
.絞り部材3.光電変換手段4およびCPU801全体
のシーケンスは、上記第1実施例と同様であるので省略
し、演算処理手段の動作を第9図、第10図、第11図
に基づいて説明する。
In the second embodiment configured in this way, the optical system 2
.. Aperture member 3. The overall sequence of the photoelectric conversion means 4 and the CPU 801 is the same as that of the first embodiment, so the description thereof will be omitted, and the operation of the arithmetic processing means will be explained based on FIGS. 9, 10, and 11.

第9図に示すように、光電変換信号■lNは、バッファ
アンプ601を介してA/Dコンバータ804に入力さ
れる。A/Dコンバータ804では、メモリに対応した
画素で光電変換信号をディジタル値に変換してメモリ8
06へ供給する。メモリ806は、コントローラ805
の制御下で各画素に対応したディジタル値を記憶する。
As shown in FIG. 9, the photoelectric conversion signal 1N is input to an A/D converter 804 via a buffer amplifier 601. The A/D converter 804 converts the photoelectric conversion signal into a digital value using a pixel corresponding to the memory and stores it in the memory 8.
Supply to 06. The memory 806 is the controller 805
The digital value corresponding to each pixel is stored under the control of the pixel.

全メモ9分のデータを取り込むとCPU80]は、第1
0図または第11図に示すアルゴリズムのどちらかを実
行し変動成分と平均成分の比Σ/Xを算出する。
After importing 9 minutes of data for all memos, the CPU 80] is the first
Either the algorithm shown in FIG. 0 or FIG. 11 is executed to calculate the ratio Σ/X between the fluctuation component and the average component.

第10図は、上記第1実施例と同様に変動成分にした場
合の、変動成分と平均成分の比Σ/マを求めるソロ−チ
ャー1・である。
FIG. 10 is a solo chart 1 for calculating the ratio Σ/ma between the fluctuation component and the average component when the fluctuation component is used as in the first embodiment.

第10図において、CPU80]はシステムブロセッザ
からの演算開始指令を待機し、演算開始指令を受付ける
と、先ず′エリア51..S2.n内の記憶内容をクリ
アする。次いて、個々のAIIJ距エリアデータを読出
すと共に、エリアnの記憶内容に1を加算する。そして
、エリアS1には、個々のi’1l11距データX の
積算値を、エリアS2には個々の測距データx5を2乗
したX の積算値を格納する。この加算動作を個々のi
’lll距エリアチエリアデータるまで繰返す。Δ1り
距エリアデータの加算か終rすると、上記エリアS]に
格納された積算を演算してエリアyに代入してこのサブ
ルーチンを終了し、メインルーチンのΣ/マを求めるル
ア チンの次にリターンする。この第10図のアルゴリズム
では、fや2乗の演算が多く入っているので、次に述べ
る第11図に比し演算に要する時間が長(なる。
In FIG. 10, the CPU 80 waits for a computation start command from the system processor, and when it receives the computation start command, first the CPU 80 waits for a computation start command from the system processor. .. S2. Clear the memory contents in n. Next, each AIIJ distance area data is read out, and 1 is added to the stored content of area n. Then, the area S1 stores the integrated value of the individual i'1l11 distance data X2, and the area S2 stores the integrated value of the individual distance measurement data x5 squared. This addition operation is performed for each i
Repeat until 'llll distance reach area data is reached. When the addition of the Δ1 distance area data is finished r, calculate the integration stored in the above area S and assign it to the area y, end this subroutine, and return after the main routine where Σ/ma is calculated. do. Since the algorithm shown in FIG. 10 includes many calculations of f and square, the time required for the calculations is longer than that of FIG. 11, which will be described next.

第11において、演算開始指令を受イ・1けると、先す
エリアx、n、Slをクリアし、その後個々の71!I
距エリアデータを読出す。そして、エリアr〕にデータ
個数を記憶するために、1をその都度加算する。次いで
エリア又に個々のAIす距データX。
In the 11th step, when the calculation start command is received, areas x, n, and Sl are cleared first, and then each 71! I
Read distance area data. Then, in order to store the number of data in area r], 1 is added each time. Next, area or individual AI distance data X.

】 を読込んでデータがなくなるまで繰返す。個々のデータ
がなくなると、データ読出しポインタをリセットした」
二で、エリアXにストアされた値をエリアnにストアさ
れた値で割って、この商x / nつまり・V均値を再
度エリアマに格納する。
] and repeat until there is no more data. When individual data is lost, the data read pointer is reset.
2, divide the value stored in area

そして再度、測距エリアデータを読出して、」−記エリ
ア又に格納されている平均値から差引いて、その絶対値
を求めてエリアS1に格納し、これをデータがなくなる
まで繰返す。測距エリアのブタの平均値から差をエリア
S1に加算し終ると、エリアS1の記憶内容をn−xて
割ってその商S 1. / n−xを求め、これをエリ
アyに格納してこのサブルーチンを終了してメインルー
チンのΣ/Xを求めるルーチンの次にリターンする。こ
の第11図のアルゴリズムでは、主に加減算の繰返しな
ので個々のプログラムが単純であるから、上記第10図
に示すフローチャートより高速動作が可能となる。従っ
て、この2つのアルゴリズムをパターンによって選択的
に使用い分けても良い。
Then, the distance measurement area data is read out again, subtracted from the average value stored in the "-" area, and its absolute value is determined and stored in area S1. This is repeated until there is no more data. After adding the difference from the average value of the pigs in the distance measurement area to area S1, the stored contents of area S1 are divided by n-x to obtain the quotient S1. /n-x is calculated, stored in area y, this subroutine is terminated, and the routine returns to the main routine following the routine for calculating Σ/X. Since the algorithm shown in FIG. 11 mainly involves repetition of addition and subtraction, the individual programs are simple, so higher-speed operation is possible than in the flowchart shown in FIG. 10 above. Therefore, these two algorithms may be selectively used depending on the pattern.

以上述べたように、この第2実施例によれば、特に全体
の構成を大きく変更することなく、生にCPUのアルゴ
リズムの追加だけでデフォーカス量とデフォーカス方向
の検出かできるので安価に小型、軽量化が図れると共に
、高速高性能の測距が可能となる。
As described above, according to the second embodiment, the defocus amount and defocus direction can be detected simply by adding a CPU algorithm without making any major changes to the overall configuration, making it inexpensive and compact. , weight reduction can be achieved, and high-speed, high-performance distance measurement is possible.

この他レンズ位置によって検出の際のレンズ微小移動Δ
の方向を変えることやレンズ収差の情報で検出位置を補
正することもより効果的である。
In addition, lens minute movement Δ during detection depends on the lens position.
It is also more effective to change the direction of the lens or to correct the detection position using information about lens aberration.

なお、上記各実施例ではイメージセンサ上の像について
の測距であったが、この測距データを用いて他の光学系
を制御することやAFとして働かしてイメージセンサ共
役面にある感光祠料上のピント合わぜを行なったり、ピ
ント合わせ以外でも相対的距離であれば変動成分と(1
月4J成分の比Σ/Xにより求めることも可能であるこ
とは言うまでもない。
In each of the above embodiments, the distance was measured for the image on the image sensor, but this distance measurement data can be used to control other optical systems or to work as an AF to detect the photosensitive abrasive material on the conjugate surface of the image sensor. If you perform the above focusing, or if it is a relative distance other than focusing, the fluctuation component and (1
Needless to say, it is also possible to obtain it by the ratio Σ/X of the monthly 4J component.

また実施例では、レンズを移動することにより、錯乱円
径の変化量Δbを得ていたが、予め光軸方向に2つのイ
メージセンサを設けても良いことは勿論である。
Further, in the embodiment, the amount of change Δb in the diameter of the circle of confusion was obtained by moving the lens, but it goes without saying that two image sensors may be provided in advance in the optical axis direction.

[発明の効果〕 以上述べたように本発明によれば、より少ない回数の像
検出でデフォーカス方向とデフォーカス量を算出できる
ので迅速、且つ、円滑な合焦動作か簡単な手法で可能に
なる。また光学系、イメージセンサには何ら加工するこ
とがないのでビデオカメラや電子映像を組込んだカメラ
3゛に応用すれば映像信号の処理だけでAl11距可能
である。この場合、B、  P、  F等を用いていな
いので、被写体による影響が少ないばかりか任意の測距
エリアの設定を行なっても111+1距窓の影響がない
。更に、構成か簡単で縦横両方向の縞模様にも検出可能
である等の顕著な効果が発揮される。
[Effects of the Invention] As described above, according to the present invention, it is possible to calculate the defocus direction and defocus amount with fewer image detections, which enables quick and smooth focusing operation using a simple method. Become. Furthermore, since no processing is required for the optical system or image sensor, if applied to a video camera or a camera 3 with built-in electronic video, it is possible to achieve an Al11 distance just by processing the video signal. In this case, since B, P, F, etc. are not used, not only is there little influence from the subject, but there is no influence from the 111+1 distance window even if an arbitrary distance measurement area is set. Furthermore, it has a simple configuration and has remarkable effects such as being able to detect striped patterns in both vertical and horizontal directions.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、本発明の第1実施例を示す測距装置のブロッ
ク系統図、 第2図は、結像光学系におけるピント面からのデフォー
カス量と被写体の点像分布との関係を示す光路図、 第3A図および第3B図は、変動成分と平均成分との比
Σ/又の錯乱円径すに対する変化を示す線図、 第4図は、上記第1図における光電変換手段から出力さ
れる光電変換信号から、積分出力と2乗積分出力をハー
ト的に形成するだめの回路図、第5図は、上記第4図に
おける各スイッチの動作タイミングを示すタイミングチ
ャート、第6図は、上記第4図に示す積分出力と2乗積
分出力から被写体像を結像する光学系のレンズ位置や瞳
径を制御するnrU御系のブロック系統図、第7図は、
」二記第1実施例の動作を説明するフ3] ローチャート、 第8図は、上記第7図中のΣ/又演算のルーチンを説明
するフローチャー1・、 第9図は、本発明の第2実施例を示す1ill+距装置
における演算処理手段のブロック系統図、第1.0.1
1図は、上記第9図の第2実施例における動作中のΣ/
又演算のルーチンを説明するフローチャートで、第10
図は変動成分Σを標準偏差にした場合、第11図は、平
均からの差の絶対値の和にした場合をそれぞれ示すフロ
ーチャートである。 1・・・・・・・・・・・・・・被写体2・・・・・・
・・・・・・・・光学系4・・・・・・・・・・・・・
・・光電変換手段5・・・・・・・・・・・・・・・変
動成分検出部(演算処理手段)6・・・・・・・・・・
・・・・・平均成分検出部(ll)7・・・・・・・・
・・・・・・比率算出部  (ll)8・・・・・・・
・・・・・・・・演算部    (ll)Σ/7・・・
・・・・・像の変動成分と平均成分の比=84− QI’Q Ln    0 へ l\ 丁   続 捕 門「 古 (自発) <3)明細書第10頁下から第4行寸1から第3行「1
にイ)tこ−って8己載し/こ「ここでs = C1の
ときは、」を「ここでSを限りなく0に近づけてゆくと
、1、:31件の表示 2、発明の名称 3、補正をする者 事件との関係 所在地 名称 4、代理人 住所 平成 1年特許願第014654号 測距装置
Fig. 1 is a block system diagram of a distance measuring device showing a first embodiment of the present invention. Fig. 2 shows the relationship between the amount of defocus from the focus plane in the imaging optical system and the point spread distribution of the subject. The optical path diagram, Figures 3A and 3B are diagrams showing changes in the ratio Σ/of the fluctuation component and the average component with respect to the diameter of the circle of confusion, and Figure 4 shows the output from the photoelectric conversion means in Figure 1 above. FIG. 5 is a timing chart showing the operation timing of each switch in FIG. 4, and FIG. Figure 7 is a block diagram of the nrU control system that controls the lens position and pupil diameter of the optical system that forms a subject image from the integral output and square integral output shown in Figure 4 above.
2) Flowchart 3 for explaining the operation of the first embodiment, FIG. 8 is a flowchart 1 for explaining the routine of the Σ/or operation in FIG. Block system diagram of the arithmetic processing means in the 1ill+ distance device showing the second embodiment of 1.0.1
FIG. 1 shows the Σ/ during operation in the second embodiment shown in FIG.
Also, in the flowchart explaining the calculation routine, the 10th
The figure shows a case where the fluctuation component Σ is the standard deviation, and FIG. 11 is a flowchart showing the case where the fluctuation component Σ is taken as the sum of the absolute values of the differences from the average. 1・・・・・・・・・・・・・・・Subject 2・・・・・・
......Optical system 4...
・・Photoelectric conversion means 5 ・・・・・・・・・・・ Fluctuation component detection section (arithmetic processing means) 6 ・・・・・・・・・・・
...Average component detection unit (ll) 7...
・・・・・・Ratio calculation part (ll) 8・・・・・・
...... Arithmetic section (ll) Σ/7...
...Ratio of image fluctuation component to average component = 84- QI'Q Ln 0 to l\ Ding Zokuryomon "Ko (spontaneous) <3) From page 10 of the specification, 4th line from the bottom, dimension 1 3rd line “1
Nii) tThis is 8 Self-posting/ko ``When s = C1,'' is changed to ``Here, if S is brought as close to 0 as possible, 1, : 31 display 2, Invention Name 3, Name of the location related to the case of the person making the amendment 4, Address of the agent 1999 Patent Application No. 014654 Distance Measuring Device

Claims (3)

【特許請求の範囲】[Claims] (1)被写体像を結像する光学系と、 この光学系により結像された被写体像を光電変換する光
電変換手段と、 この光電変換手段からの光電変換出力信号を演算処理し
て距離を求める演算処理手段と、 を有する測距装置において、 上記演算処理手段は、上記被写体像の光電変換出力信号
から像の変動成分と平均成分の比より距離を求めること
を特徴とする測距装置。
(1) An optical system that forms a subject image, a photoelectric conversion means that photoelectrically converts the subject image formed by this optical system, and calculates the distance by processing the photoelectric conversion output signal from this photoelectric conversion means. A distance measuring device comprising: arithmetic processing means; wherein the arithmetic processing means calculates a distance from a photoelectric conversion output signal of the subject image based on a ratio of an image fluctuation component to an average component.
(2)上記演算手段は、 b={(y_1−y_2)/[(1−Δp)・(y_3
−y_1)]}・Δbここで、b:錯乱円径 y_1:第1のピント面における第1の瞳 径での光電変換手段の出力 y_2:第1のピント面における第2の瞳 径での光電変換手段の出力 y_3:第2のピント面における光電変換 手段の出力 Δb:第1のピン面と異なるピント面へ のレンズの移動量から算出される 錯乱円径の変化量 Δp:瞳径の変化率 から求められる錯乱円径bに基づいて距離を求めること
を特徴とする請求項1記載の測距装置。
(2) The above calculation means b={(y_1-y_2)/[(1-Δp)・(y_3
-y_1)]}・Δb where, b: diameter of the circle of confusion y_1: output of the photoelectric conversion means at the first pupil diameter on the first focusing plane y_2: output at the second pupil diameter on the first focusing plane Output of the photoelectric conversion means y_3: Output of the photoelectric conversion means at the second focus plane Δb: Amount of change in the diameter of the circle of confusion Δp calculated from the amount of movement of the lens to a focus plane different from the first focus plane: Δp of the pupil diameter 2. The distance measuring device according to claim 1, wherein the distance is determined based on the diameter b of the circle of confusion determined from the rate of change.
(3)上記演算手段は、 b={(y_1−y_2)/[(1−Δp)・Δy_3
]}・Δbここで、b:錯乱円径 y_1:第1のピント面における第1の瞳 径での光電変換手段の出力 y_2:第1のピント面における第2の瞳 径での光電変換手段の出力 Δy_3:Δb変化したときの出力の変化量Δb:第1
のピント面と異なるピント面 へのレンズの移動量から算出され る錯乱円径の変化量 Δp:瞳径の変化率 から求められる錯乱円径bに基づいて距離を求めること
を特徴とする請求項1記載の測距装置。
(3) The above calculation means b={(y_1-y_2)/[(1-Δp)・Δy_3
]}・Δb where, b: diameter of the circle of confusion y_1: output of the photoelectric conversion means at the first pupil diameter on the first focus plane y_2: photoelectric conversion means at the second pupil diameter on the first focus plane Output Δy_3: Amount of change in output when Δb changes Δb: 1st
Amount of change Δp in the diameter of the circle of confusion calculated from the amount of movement of the lens to a focal plane different from the focal plane of . 1. The distance measuring device according to 1.
JP1465489A 1989-01-23 1989-01-23 Range finder Pending JPH02194312A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1465489A JPH02194312A (en) 1989-01-23 1989-01-23 Range finder

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1465489A JPH02194312A (en) 1989-01-23 1989-01-23 Range finder

Publications (1)

Publication Number Publication Date
JPH02194312A true JPH02194312A (en) 1990-07-31

Family

ID=11867201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1465489A Pending JPH02194312A (en) 1989-01-23 1989-01-23 Range finder

Country Status (1)

Country Link
JP (1) JPH02194312A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008046027A (en) * 2006-08-17 2008-02-28 National Institute Of Advanced Industrial & Technology Height measuring method and device therefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008046027A (en) * 2006-08-17 2008-02-28 National Institute Of Advanced Industrial & Technology Height measuring method and device therefor
JP4665125B2 (en) * 2006-08-17 2011-04-06 独立行政法人産業技術総合研究所 Method for measuring height and apparatus therefor

Similar Documents

Publication Publication Date Title
JP2772079B2 (en) Automatic focusing device
JPS6278519A (en) Automatic focusing device
JPH01293771A (en) Automatic focusing system
JPH0410051B2 (en)
JPH0477289B2 (en)
JPH02194312A (en) Range finder
JPS587984A (en) Controlling system for signal storage time of signal storage type photoelectric transducer
JP2737388B2 (en) Electronic camera autofocus device
JPH01131508A (en) Photographing system
JP2554051B2 (en) Autofocus device
US5432332A (en) Method of auto-focussing and system therefor
JPH01131507A (en) Optical device
JPS59111479A (en) Automatic focusing device
JPH08327891A (en) Patterned light projecting device
US4587416A (en) Focus detecting apparatus for microscope or camera
JPS599613A (en) Automatically adjusting method of focal point
JP3140491B2 (en) Automatic focusing device
JPS6146805B2 (en)
JPH0234004B2 (en)
JP3001289B2 (en) Auto focus camera
JPH0234006B2 (en)
JPH03238978A (en) Image pickup device
JPH0267529A (en) Camera with zoom function
JPS6048008B2 (en) Camera focus detection device
JP3077998B2 (en) Moving speed detector