JPS59155807A - Automatic focus detecting device - Google Patents

Automatic focus detecting device

Info

Publication number
JPS59155807A
JPS59155807A JP2859483A JP2859483A JPS59155807A JP S59155807 A JPS59155807 A JP S59155807A JP 2859483 A JP2859483 A JP 2859483A JP 2859483 A JP2859483 A JP 2859483A JP S59155807 A JPS59155807 A JP S59155807A
Authority
JP
Japan
Prior art keywords
image
focusing
image data
focus
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2859483A
Other languages
Japanese (ja)
Other versions
JPH0553241B2 (en
Inventor
Yoshiaki Horikawa
嘉明 堀川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp, Olympus Optical Co Ltd filed Critical Olympus Corp
Priority to JP2859483A priority Critical patent/JPS59155807A/en
Priority to DE3406578A priority patent/DE3406578C2/en
Publication of JPS59155807A publication Critical patent/JPS59155807A/en
Priority to US06/928,730 priority patent/US4740678A/en
Priority to US07/140,537 priority patent/US4833315A/en
Publication of JPH0553241B2 publication Critical patent/JPH0553241B2/ja
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PURPOSE:To raise remarkably a detecting accuracy and a detecting speed by executing a correlating operation by using only a part of a picture data obtained by an image sensor, and also executing the correlating operation by using a data shifted by plural pieces each of the picture data in case the defocus quantity is large. CONSTITUTION:A titled device is provided with a light shielding plate 7 having an opening 7a provided in the vicinity of a pupil on the front side of an image forming lens 6, and at the time of focusing, an image Q is formed on an image surface 8, and at the time of non-focusing, out-of-focus images Q1, Q2 are formed on the image surface 8 at a position shifted in the reflecting direction in the direction vertical to each optical axis O with regard ro the image Q in accordance with front-focusing and rear- focusing. Also, when the opening 7a of the light shielding plate 7 is moved to the opposide side against the optical axis O, an image Q' is formed on the image surface 8 at the time of focusing, and out-of-focus images Q1', Q2' are formed on the image surface in accordance with front-focusing/rear-focusing at the time of non-focusing. Accordingly, when a position of the light shielding plate is moved downward from upward against the optical axis, a state of the image in a state of focusing, front-focusing and rear-focusing is measured by an image sensor provided on the image surface 8.

Description

【発明の詳細な説明】 本発明は、顕微鏡やカメラ等の光学系に用いられる自動
焦点検出装置であって、異なる光路を通って形成された
二つの像を多数の素子を配列して成る光電変換装置によ
シ個別に光電出力信号に変換し、該光電出力信号に基い
て二つの像の相対位置関係を検出することにより合焦検
出を行うようにした自動焦点検出装置に関するものであ
る。
DETAILED DESCRIPTION OF THE INVENTION The present invention is an automatic focus detection device used in optical systems such as microscopes and cameras. The present invention relates to an automatic focus detection device that performs focus detection by individually converting each image into a photoelectric output signal using a conversion device and detecting the relative positional relationship between two images based on the photoelectric output signal.

この種従来の自動焦点検出装置には、三角測量を応用し
た距離計式のものや瞳を通る光束を分割して二つの像を
得るTTL方式のものがあり、いずれも二つの像の合致
を検出するのに二つの像についてデジタル的に相関を求
め、その相関値の極、値をもって一合致となし且つその
合致まで二つの像の相対移動量をもって像の位相差量と
するものであった。
Conventional automatic focus detection devices of this type include a rangefinder type that uses triangulation and a TTL type that divides the light flux passing through the pupil to obtain two images. For detection, the correlation between the two images was calculated digitally, and the extreme value of the correlation value was taken as a match, and the amount of relative movement of the two images until the match was taken as the amount of phase difference between the images. .

第1図はその一例を示しており、図示しないイメージセ
ンサ−により撮られた二つの像のデータA、Bはサンプ
ルホールド回路、A−D変換器くいずれも図示せず)等
を通ってリング状のシフトレジスタ1a、1bに夫々記
憶される。この例では画像データを128ビツトで構成
している。
Figure 1 shows an example of this, in which data A and B of two images taken by an image sensor (not shown) are passed through a sample hold circuit, an A-D converter (both not shown), etc. The signals are stored in shift registers 1a and 1b, respectively. In this example, the image data is composed of 128 bits.

両画像データA、Bが夫々シフトレジスタla。Both image data A and B are sent to shift registers la.

1bに格納されると、続いて差の絶対値を求める回路2
によυ各ビット毎の差の絶対値が求められ、更に加算器
3によってそれらの和が求められて二つの像の相関値と
なる。次に、クロックOLからのパルスによりシフトレ
ジスタ1bの画像データBが1ピツト分移動されて再び
回路2.加算器3ニヨり相関値が求められる。このよう
にして、クロックOLにより次々と一方の画像データを
移動させるたびに相関値が求められ、更にピークディテ
クタ4によって相関値の極値が求められ、極値を検出し
た位置が合焦位置となる。又、極値の場合のクロック数
がカウンタ5によって求められ、とのクロック数即ちシ
フトレジスタ1bの画像データBの移動量が二つの画像
の位相差量となり、これからデフォーカスの方向と量を
知ることが出来る。
1b, then the circuit 2 that calculates the absolute value of the difference
The absolute value of the difference for each bit is determined by υ, and the sum of these is determined by the adder 3 to obtain a correlation value between the two images. Next, the image data B in the shift register 1b is shifted by one pit by a pulse from the clock OL, and the image data B in the shift register 1b is shifted again to the circuit 2. Adder 3 calculates the correlation value. In this way, a correlation value is determined each time one image data is moved one after another by the clock OL, and the peak detector 4 further determines the extreme value of the correlation value, and the position where the extreme value is detected is determined as the in-focus position. Become. Further, the number of clocks in the case of the extreme value is determined by the counter 5, and the number of clocks, that is, the amount of movement of the image data B in the shift register 1b becomes the amount of phase difference between the two images, and from this, the direction and amount of defocus can be determined. I can do it.

ところが、と刀従来装置では、イメージセンサ−が一定
の大きさを有せざるを得ないためイメージセンサ−に写
る二つの像は単に位置がずれているだけでなく周辺部分
が異なったものとなり、その結i二つのシフトレジスタ
la、lbに記憶される画像データA 4. Bも単に
位置がずれでいるだけでなく端部において異なったもの
となり、而もこの一方の画像データをリング状に回転さ
せながら相関を計算するので、正確な像の位相差が求め
られ得なかった。この点を第2図に基づき詳細に説明す
れば、(a)及び(blはシフトレジスタ1aに格納さ
れた画像データA及びシフトレジスタ1bに格納された
画像データBを夫々用していて、焦点が合っていない場
合両方の画像データA、Bがずれ従ってビー、りp、、
p/もずれていると共に、両方の画像データA’、Bi
l″ti部において異なったものと壺 なっている。又、(C)シフトレジスタ1bの画像デー
タBをαビット移動せしめたものを示している。
However, in the conventional device, the image sensor has to have a certain size, so the two images captured on the image sensor are not only shifted in position, but also have different peripheral parts. The result is image data A stored in two shift registers la and lb.4. B is not only misaligned, but also different at the edges, and since the correlation is calculated while rotating the image data of one of them in a ring shape, it is impossible to obtain an accurate phase difference between the images. Ta. To explain this point in detail based on FIG. 2, (a) and (bl) use image data A stored in shift register 1a and image data B stored in shift register 1b, respectively, and focus If they do not match, both image data A and B will be misaligned, so be, rip, .
p/ is also shifted, and both image data A', Bi
(C) shows the image data B in the shift register 1b shifted by α bits.

従って、ピークP、P“が一致していることがら両画像
テークA、Bの位相差がαビットであることがわかるが
、(C)の画像データのうち0〜αビツトの部分は(b
)の状態におけるβ〜127ビツトの部分であり、(a
)と(C)の画像データは完全には一致しない。即ち、
相関の計算を0〜127ビツトの全ての画像データにつ
いて行うと、像の位相差が零の場合即ちピークP、P“
が一致した場合に相関の値が極−値になるとは限らない
。従って、この装置では正確な像の位相差を求めること
は困難である。
Therefore, since the peaks P and P'' match, it can be seen that the phase difference between both image takes A and B is α bits, but the portion of 0 to α bits in the image data of (C) is (b
) is the part of β ~ 127 bits in the state of (a
) and (C) do not completely match. That is,
When the correlation is calculated for all image data of 0 to 127 bits, when the image phase difference is zero, that is, the peaks P, P"
The correlation value does not necessarily reach an extreme value when the two match. Therefore, it is difficult to obtain an accurate image phase difference with this device.

父、この装置では画像データの移動を1ピツトずつでし
か行っていないので、大きカブフォーカス量を検出する
場合に時間がかかつてしまうという欠点もあった。
However, since this device only moves image data one pit at a time, it also has the disadvantage that it takes time to detect a large focus amount.

本発明は、上記間順点に鑑み、光電変換装置の一部の素
子の光電出力信号を用いて相対位置関係を検出すると共
に、デフォーカス量が大きい場合は該光電変換装置の複
数個ずつずれた素子の光電出力信号を用いて相対位置関
係を検出するようにして、検出精度及び検出速度の大巾
な向上を実現した自動焦点検出装置を提供せんとするも
のであるが、以下第3図乃至第15図に示した一実施例
に基づきこれを説明すれば、第3図は本実施例に用いら
れる瞳分割法の原理を示しており、(a)において、6
は結像レンズ、7は結像レンズ6の前側で瞳の近傍に配
設された開ロアaを有する遮光板、8は像面であり、合
焦時には像面8上に像Qが結像されるが、非合焦時には
前ピン、後ピンに対応して像Qに関して各々光軸0に垂
直な方向で反対方向にずれた位置にボケた像Q1 + 
Q2が像面8上に形成される。(b)は遮光板7の開ロ
アaを光軸Oに関して反対側に移動させた場合を示して
おり、合焦時には像面8上に像Q′が結像されるが、非
合焦時には各々前ピン、後ピンに対応してボケた像Q1
′。
In view of the above-mentioned problems, the present invention detects the relative positional relationship using photoelectric output signals of some elements of a photoelectric conversion device, and when the amount of defocus is large, shifts a plurality of the photoelectric conversion devices at a time. The present invention aims to provide an automatic focus detection device that achieves a significant improvement in detection accuracy and detection speed by detecting the relative positional relationship using the photoelectric output signals of the elements, as shown in Figure 3 below. This will be explained based on one embodiment shown in FIGS. 15 to 15. FIG. 3 shows the principle of the pupil division method used in this embodiment, and in (a), 6
is an imaging lens, 7 is a light-shielding plate with an open lower a disposed near the pupil in front of the imaging lens 6, and 8 is an image plane, and an image Q is formed on the image plane 8 when in focus. However, when out of focus, the blurred image Q1 + is shifted in the opposite direction in the direction perpendicular to the optical axis 0 with respect to the image Q corresponding to the front focus and the back focus.
Q2 is formed on the image plane 8. (b) shows the case where the opening lower a of the light shielding plate 7 is moved to the opposite side with respect to the optical axis O. When in focus, an image Q' is formed on the image plane 8, but when out of focus, an image Q' is formed on the image plane 8, but when out of focus, Blurred image Q1 corresponding to front focus and back focus, respectively
'.

Q21が像面8上に形成される。従って、遮光板7の開
ロアaを例えば(a)の位置からfb)の位置へ移動さ
せると、合焦時には像Q及びQ′が同じ位置にあって移
動しないが、前ピンの場合には像はQlからQ1′の位
置へ移動し、まだ後ピンの場合にはQ2かうQ2′の位
置へ移動する。そして、8の像面上にいわゆるイメージ
センサ−を設けることにより像の状態を測定できる。
Q21 is formed on the image plane 8. Therefore, when the opening lower a of the light shielding plate 7 is moved, for example, from the position (a) to the position fb), the images Q and Q' are at the same position and do not move when in focus, but in the case of front focus, The image moves from Ql to position Q1', and if still in rear focus, moves to position Q2 (Q2'). By providing a so-called image sensor on the image plane 8, the state of the image can be measured.

以上のことから、前ピン、後ピンの判別が可能となると
共に、その時の非合焦の量を像の移動方向及び量(すな
わち位相差)から知ることができる。
From the above, it becomes possible to distinguish between front focus and rear focus, and the amount of out-of-focus at that time can be known from the direction and amount of image movement (ie, phase difference).

給4図は上記原理を顕微鏡に用いた場合の実施例の全体
図であり、51は光源、52はコンデンサージングであ
る。53はステージで、この上に標本をのせて観察を行
なう。54は対物レンズ、55は焦点検出系へ光を導く
ビームスプリッタ−156は接眼レンズに光の一部を導
くプリズム、57は接眼レンズである。58は写真用接
眼レンズ、59はフィルムである。ここまでは、普通の
顕微鏡と何ら異なるところは無い光学系である。60は
ビームスプリッタ−55からの光を検出光学系に導くリ
レーレンズ、61は瞳をつくるレンズ、62はレンズ6
1によってつくられた瞳の位置におかれる瞳分割器であ
る。63は結像レンズで、これを通る光をフィルター6
4を介してイメージセンサ−65上に結像させる。66
は瞳分割器駆動回路、67はステージ駆動回路であり、
それぞれマイクロコンピュータ70によって制御される
Figure 4 is an overall view of an embodiment in which the above principle is applied to a microscope, where 51 is a light source and 52 is a condenser. 53 is a stage on which the specimen is placed for observation. 54 is an objective lens; 55 is a beam splitter that guides light to the focus detection system; 156 is a prism that guides a portion of the light to an eyepiece; and 57 is an eyepiece. 58 is a photographic eyepiece lens, and 59 is a film. Up to this point, the optical system is no different from an ordinary microscope. 60 is a relay lens that guides the light from the beam splitter 55 to the detection optical system, 61 is a lens that creates a pupil, and 62 is a lens 6
This is a pupil divider placed at the position of the pupil created by 1. 63 is an imaging lens, and the light passing through this is filtered 6
4 onto an image sensor 65. 66
is a pupil divider drive circuit, 67 is a stage drive circuit,
Each is controlled by a microcomputer 70.

68はイメージセンサ−駆動回路、69はイメージセン
サ−65からの画像データをマイクロコンピュータ70
に入力するインターフェイス回路である。71は自動焦
点動作を行なったり、合焦表示や不可能表示を行なうコ
ンソールである。相関の演算や合焦の判定等は全てマイ
クロコンピュータ70が行なっている。相関の演算は最
近開発され市場に出ている計算専用LSIを用いると良
い。
68 is an image sensor driving circuit; 69 is a microcomputer 70 for transmitting image data from the image sensor 65;
This is an interface circuit that inputs to the Reference numeral 71 denotes a console that performs automatic focusing operations and displays in-focus and impossible images. The microcomputer 70 performs all correlation calculations, focus determination, etc. For the correlation calculation, it is preferable to use a calculation-dedicated LSI that has been recently developed and is on the market.

次に各部分の動作について詳述する。第5図は二つの像
を形成する為に瞳を通る光束を分割する瞳分割器の具体
的な二つの例を示しており、(a)はガラス基板に連光
部分(斜線部)を設は且つ軸Oを中心に回転させること
により瞳9を半分ずつ交互に開閉す、るようにしたもの
であり、(b)は開口部】0を有した扇形のもので軸O
を中心に左右に回転させることにより瞳9を半分ずつ交
互に開閉するようになっている。(a)の場合は、DC
モータ等によって回転させつつ回転する瞳分割器による
同期信号に応じてイメージセンサ−で撮像する方法に適
している。(b)はマイクロコンピュータ等の制御装置
に従って瞳分割器を動かしながらそれと同期してイメー
ジセンサ−で撮像する方法に適している。かくして、以
上の様な瞳分割器によって第3図における(a)、(b
)の状態を作り出し、その(a)。
Next, the operation of each part will be explained in detail. Figure 5 shows two specific examples of a pupil splitter that splits the light flux passing through the pupil to form two images, and (a) shows a continuous light section (hatched area) installed on the glass substrate. The pupil 9 is opened and closed alternately in half by rotating it around the axis O, and (b) is a sector-shaped one with an opening 】0, and the pupil 9 is rotated around the axis O.
By rotating left and right around the center, the pupils 9 are alternately opened and closed in half. In case (a), DC
This method is suitable for a method in which an image sensor is used to capture an image in response to a synchronization signal from a pupil splitter that is rotated by a motor or the like. (b) is suitable for a method in which the pupil divider is moved according to a control device such as a microcomputer and an image is taken by an image sensor in synchronization with the movement of the pupil divider. Thus, by using the pupil divider as described above, (a) and (b) in FIG.
), and then (a).

(b)の状態それぞれの場合の画像データをイメージセ
ンサ−によって得ることが可能となる。
It becomes possible to obtain image data for each of the states (b) using the image sensor.

父、一般に合焦の対象となる被写体や標本は視野の中心
にあるとは限らないので、イメージセンサ−は視野の中
心だけでなくなるぺ〈広範囲にわたっていることが望ま
しい。しかし、視野全体をカバーしようとするとイメー
ジセンサ−の素子数を増やす必要がある。これは合焦精
度を一定に保つためには素子のピッチをある程度の大き
さにしなければならないところからくる。
Generally speaking, the object or specimen to be focused on is not necessarily located at the center of the field of view, so it is desirable that the image sensor cover a wide range of fields, not just the center of the field of view. However, in order to cover the entire field of view, it is necessary to increase the number of elements in the image sensor. This comes from the fact that the pitch of the elements must be set to a certain degree in order to maintain constant focusing accuracy.

この点について以下説明する。第6図は二つの像の位相
差量とデフォーカス量との関係を示す図である。こ\で
は、説明を簡単にする為に点像を考える。13は光学系
の光軸であり、後側聞口数がN A’の光学系によって
点像11が形成されているとする。今デフォーカス量δ
dの位置にイメージセンサ−12があるとすると、二つ
の像11A。
This point will be explained below. FIG. 6 is a diagram showing the relationship between the amount of phase difference and the amount of defocus between two images. Here, to simplify the explanation, we will consider a point image. 13 is the optical axis of the optical system, and it is assumed that the point image 11 is formed by the optical system with the number of rear apertures NA'. Now defocus amount δ
If the image sensor 12 is located at position d, there will be two images 11A.

11BはSpだけ位相差をもって形成されるから、δd
とSpの関係は となる。今10×の対晩レンズを用いた場合の合焦精度
を考える。10×対物レノズのNAを0.40とすると
NA’は0.04となり、(1)式からδd〒258p
              (2)が導かれる。一方
、10×対物レンズの焦点深度tは t = ’□             (8)NA’ で表わされる(εは最小錯乱円である)から、ε−0,
05mm(20本/mm)分解能K 相当) t4++
h’t = ’ 1.25mm           
  (4)となる。この焦点深度以内の合焦検出精度が
必要であるから、 δd=−−(5) として δa = 0.625mm            (
6)よって Sp = 251+m             (7
)となる。この程度の像の位相差量を精度良く求めるに
は、イメージセンサ−12のダイオードアレイのピッチ
がやはり25μm程度である必要がある。
Since 11B is formed with a phase difference of Sp, δd
The relationship between and Sp is as follows. Now let's consider the focusing accuracy when using a 10x night lens. If the NA of the 10× objective lens is 0.40, NA' is 0.04, and from equation (1), δd〒258p
(2) is derived. On the other hand, the depth of focus t of the 10× objective lens is expressed as t = '□ (8) NA' (ε is the circle of least confusion), so ε-0,
05mm (20 lines/mm) resolution K equivalent) t4++
h't=' 1.25mm
(4) becomes. Since focus detection accuracy within this depth of focus is required, δd=--(5) and δa = 0.625mm (
6) Therefore, Sp = 251+m (7
). In order to accurately obtain this amount of image phase difference, the pitch of the diode array of the image sensor 12 must be approximately 25 μm.

以上の様に合焦精度の要求からイメージセンサ−12の
ピッチが決定される。この場合板に128個のダイオー
ドアレイを有するイメージセンサ−を用いたとすると、
イメージセンサ−がカバーする範囲は128 X 0.
025 = 3.2mmとなり、これは視野数21(視
野が直径21mm )に比べて非常に小さく、合焦の対
象となる被写体をイメージセンサ−の位置(一般的には
中心)に移動させて合焦を行う必要が生じる。
As described above, the pitch of the image sensor 12 is determined based on the requirement for focusing accuracy. In this case, if we use an image sensor with 128 diode arrays on the board,
The area covered by the image sensor is 128 x 0.
025 = 3.2mm, which is very small compared to the number of fields of view 21 (field of view is 21mm in diameter), and the object to be focused is moved to the position of the image sensor (generally at the center). It becomes necessary to perform jiao.

第7図は本実施例に使用したイメージセンサ−とそこに
おける処理方法を示したものである。本実施例は512
個のフオ、トダイオードアレイを有するイメージセンサ
−を使用しているが、このイメージセンサ−によると5
12 X (1,025= 12.8mmとなり、視野
のか々りの部分をカバーすることができる。
FIG. 7 shows the image sensor used in this embodiment and the processing method used therein. In this example, 512
According to this image sensor, an image sensor with a photodiode array of
12X (1,025=12.8mm), which can cover the sharp part of the field of view.

しかし、全てのビット(ダイオードアレイ)を用いて相
関演算すると非常に演算時間が長くなるし、意味も無い
。そこで512ビツトを128ビツトの五つのブロック
a −dに分け、その内股もコントラストの高いブロッ
クで相関の演算を行なう。
However, if the correlation calculation is performed using all the bits (diode array), the calculation time will be extremely long and it will be meaningless. Therefore, the 512 bits are divided into five blocks a to d of 128 bits, and correlation calculations are performed using the inner blocks of high contrast blocks.

ここで、コントラスト計算方法の一例について説明する
。一般にコントラスト評価の評価関数としては、’f 
(x)をセンサーのXビット目の出力とした場合 C−Σl f(x) −f (X+1 ) I又は、 C−Σ(f(X) −f (X+1 ) )2となるこ
とが知られている。本実施例の場合、コントラストの変
化を精度良く知る必要のあるコントラスト法による川魚
合わせとは異なり、各ブロック間の相対的コントラスト
強度を知れば良いから、必ずしも隣りのビットの差を計
算する必要はない。例えば C−Σ′1f(X)−f(X+5)I とする(Σ′はXを4つおきに計算するという意味−I
f(64)−f(69)l+・・・・+l f (18
4)−f (188) lとなり、差の絶対値を31回
計算しながら加算すれば良いことになる。従来の計算法
なら121回心要となる。
Here, an example of a contrast calculation method will be described. Generally, the evaluation function for contrast evaluation is 'f
It is known that when (x) is the output of the X-th bit of the sensor, it becomes C-Σl f(x) - f (X+1) I or C-Σ(f(X) - f (X+1))2. ing. In the case of this example, unlike river fish matching using the contrast method, which requires accurate knowledge of changes in contrast, it is only necessary to know the relative contrast strength between each block, so it is not necessary to calculate the difference between adjacent bits. There isn't. For example, suppose C-Σ'1f(X)-f(X+5)I (Σ' means to calculate every fourth X -I
f(64)-f(69)l+...+l f (18
4)-f (188) l, which means that it is sufficient to add the absolute value of the difference while calculating it 31 times. Using the conventional calculation method, it would take 121 times.

尚、ここで5ビット隣りの値との差の絶対値を4ピツト
おきに計算しているのは、ただ単に隣りの値の差の絶対
値を4ビツトおきに計算するよりもコントラストの感度
を良くするためである。この点に関し、例えば第8図に
示したイメージセンザー上の光の強度分布lに基づき比
較計算を行ってみると、本実施例の場合は C= If(64)−f(69)l+1f(68)−f
(73)l= 113−301+125−601 =52 となるのに対し、従来の場合は 0’−1f(64)−f(65)l+1f(68)−f
(69)1= 113−141+125−3(] = 6 となることから、・本実施例の方が従来の場合よりコン
トラスト感度が良くなっている。
Note that the reason why the absolute value of the difference between adjacent 5-bit values is calculated every 4 bits is to improve the contrast sensitivity, rather than simply calculating the absolute value of the difference between adjacent values every 4 bits. It's to make things better. Regarding this point, for example, if we perform a comparative calculation based on the light intensity distribution l on the image sensor shown in FIG. 68)-f
(73)l= 113-301+125-601 =52, whereas in the conventional case 0'-1f(64)-f(65)l+1f(68)-f
(69)1=113-141+125-3(] = 6 Therefore, the present example has better contrast sensitivity than the conventional case.

更に、計8算量を少なくする為にXビット隣りの値との
差を求め、これをXビットおきに計算する場合は、x>
Yが好ましい。本実施例はX二5>4=Yである。
Furthermore, in order to reduce the amount of calculation in total, if you calculate the difference between the adjacent value of X bits and calculate this every X bits, then x>
Y is preferred. In this embodiment, X25>4=Y.

なお、上記関数fに用いるデータは画像データA、Bの
どちらか一方で良い。
Note that the data used for the function f may be either image data A or B.

かくして、以上の様な方法でブロックa、b。Thus, blocks a and b are created in the above manner.

・・・・、eのコントラストを計算してその内の一番コ
ントラストの良いものを選ぶが、ここで第7図から明ら
かなようにブロックaとbが128〜192ビツトで重
なっているので、無駄な計算をしないように64〜12
8 ピッ ト 、128〜192ピッl−,192〜2
56ビツトのコントラストを各々計算し、ブロックaの
コントラストは64〜128ビツトと128〜192ビ
ツトのコントラストの和、ブロックbのコントラストは
128〜192ビツトと192〜256ビツトのコント
ラストの和としても良い。尚、ブロックa 、 b 、
 c 、 a。
..., calculate the contrast of e and select the one with the best contrast, but as it is clear from Figure 7, blocks a and b overlap at 128 to 192 bits, so 64-12 to avoid unnecessary calculations
8 pit, 128~192 pit l-, 192~2
The contrast of 56 bits may be calculated respectively, and the contrast of block a may be the sum of the contrasts of 64 to 128 bits and 128 to 192 bits, and the contrast of block b may be the sum of the contrasts of 128 to 192 bits and 192 to 256 bits. Furthermore, blocks a, b,
c, a.

eが各々の半分ずつ重なり合っているのは、ブロックの
境界に画像強度変化の著しい部分がある場合でもその変
化を含んだブロックを設定できるようにする為である。
The reason why each half of e overlaps is so that even if there is a part with a significant change in image intensity at the block boundary, it is possible to set a block that includes the change.

例えばブロックa、cの境界すなわち192ビット近辺
に画像強度変化の著しい部分があった場合、ブロックa
あるいはブロックCでは情報を全て使うことは出来ない
が、ブロックbが設定されていれば情報の全てがブロッ
クbに含まれることになり都合が良い。コントラストを
求める演算は相関の演算に比べて非常に短時間で済むの
で、本実施例の演算時間は128ビツトだけの相関演算
時間+α程度の時間で済む。父、両側のそれぞれ64ビ
ツトにブロックを設定していないのは、像をずらして相
関を計算する場合に第2図で述べたことが起こらないよ
ってする為である。
For example, if there is a significant change in image intensity near the boundary between blocks a and c, that is, around 192 bits, block a
Alternatively, although it is not possible to use all of the information in block C, if block b is set, all of the information will be included in block b, which is convenient. Since the calculation for determining the contrast takes a much shorter time than the calculation for the correlation, the calculation time in this embodiment is about 128-bit correlation calculation time + α. The reason why blocks are not set for 64 bits on each side is to prevent the situation described in FIG. 2 from occurring when the correlation is calculated by shifting the images.

以上のように処理を行なえば、必ずしも合焦させるべき
被写体や標本が視野の中心になくとも被写体のおる部分
(ブロック)が自動的に選ばれて焦点検出が行われる。
By performing the processing as described above, even if the subject or specimen to be focused is not necessarily in the center of the field of view, the area (block) where the subject is located will be automatically selected and focus detection will be performed.

以上のことは特に固定的なブロックを定めておく必要は
なく、視野の大部分をカバーするように配設されたイメ
ージセンサ−の数多くの7オトダイオードアレイの中か
ら、相関演算に必要なフォトダイオードアレイを含んだ
部分をコントラスト等で選べば良い。寸だ観察用の視野
中にマーク等を設は手動で設定するようにしても良い。
For the above, there is no need to define a fixed block, and the number of photodiodes required for the correlation calculation can be selected from among the numerous 7-otodiode arrays of the image sensor arranged to cover most of the field of view. All you have to do is select the part that includes the diode array based on contrast, etc. Marks etc. may be manually set in the field of view for close observation.

この様にすると視野中に立体的な標本があって(、ある
いはゴミがあっても、使用者の合わせたい被写体に焦点
を合わせることができる。
In this way, even if there is a three-dimensional specimen (or dust) in the field of view, the user can focus on the subject he or she wants to focus on.

次に、全体の動作について説明する。捷ず、第4図のイ
メージセンサ−65からの二つの画像データA及びBは
インターフェイス69を通してマイクロコンピュータ7
0のメモリに格納される。そして、五つのブロックの内
設もコントラストの高いブロックが選択され、そのブロ
ックの画像データによって相関が演算される。仮に第7
図のブロックaを選択したとして話を進める。
Next, the overall operation will be explained. The two image data A and B from the image sensor 65 in FIG.
Stored in memory 0. Then, among the five blocks, a block with high contrast is selected, and a correlation is calculated based on the image data of that block. Temporarily the 7th
Let us proceed with the discussion assuming that block a in the diagram is selected.

相関演算はメモリに格納された二つの画像に対応する画
像データAと画像データBとを相対的に1ビツトずつず
らしながら計算し、何ビット分ずらしたら画像が重なっ
たかを判定して像の位相差量を求める。相関の1式は、
例えば となり、ABSは絶対値を表わし、関数fA(X)、f
B(X)は夫々画像データA、BのXビット目の値を表
わしている。そして、−組の関数fA、fBについてδ
としている。又、この例では一64≦δ≦64としてい
る。このδの範囲は合焦点近くでは狭くすることができ
るので、演算時間の短縮となる。
In the correlation calculation, image data A and image data B corresponding to two images stored in memory are calculated by relatively shifting them by 1 bit, and the position of the images is determined by determining how many bits have to be shifted before the images overlap. Find the amount of phase difference. One equation of correlation is
For example, ABS represents the absolute value, and the functions fA(X), f
B(X) represents the value of the X-th bit of image data A and B, respectively. Then, for the − set of functions fA and fB, δ
It is said that Further, in this example, -64≦δ≦64. Since the range of δ can be narrowed near the focal point, calculation time can be shortened.

実際のδの値はイメージセンサ−の1ビツトごとの値し
かとらないので、さらに精度良く検出する為には相関の
離数的な値をカーブフイテイングとその前後の圧点O9
p、qを用いて二次曲線近似ヲ行うことによって求める
こともできる1、(第10図)。
Since the actual value of δ is only taken for each bit of the image sensor, in order to detect it more precisely, the discrete value of the correlation is curve fitted and the pressure points O9 before and after it are used.
It can also be obtained by performing quadratic curve approximation using p and q (Fig. 10).

以上の結果、視野の多くの部分をカッ<−シ且つ合焦の
精度を維持しながら、演算時間をほとんど増加させない
で済む。
As a result of the above, it is possible to keep most parts of the field of view in focus and maintain focus accuracy while hardly increasing the calculation time.

上記の例ではδが−64〜64の範囲にあり、この範囲
のデフォーカス量は(6)式から0.625X64=4
0mmとなり1.対物側では40/102= 0−4=
400μmである力・らデフォーカス量が±400μm
となる。これ以上の広い範囲のデフォーカス量を検出範
囲に入れようとする場合、δの範囲を増やすことが考え
られるが、これは計算量が増大し好捷しくない。捷だそ
の様にデフォーカス量が大きい場合に上記の様な精度の
高い計算をしても意味が無い。
In the above example, δ is in the range of -64 to 64, and the defocus amount in this range is 0.625X64=4 from equation (6).
0mm and 1. On the objective side, 40/102= 0-4=
The force and defocus amount is ±400μm.
becomes. If an attempt is made to include a wider range of defocus amounts within the detection range, it is conceivable to increase the range of δ, but this increases the amount of calculation and is not desirable. When the amount of defocus is large like that of Kade, there is no point in performing highly accurate calculations as described above.

そこで、本実施例では画像データとして取込んだデータ
の内の数ビットごとのデータを用いてコントラストや相
関の計算を実行している。具体的には5ビットおきにデ
ータを用いるとすると、画像メモリ中−のデータf(0
) ! f (1) 、 f (2) 、・・・・、f
(510)。
Therefore, in this embodiment, contrast and correlation calculations are performed using data for every few bits of data captured as image data. Specifically, if data is used every 5 bits, data f(0
)! f (1), f (2),..., f
(510).

f (511)の内のf(0)? f(5) 、 f(
IQ 9・・・・、 f (505) 、f (510
)が使用するデータになると考えれば良い。実際には計
算の際[5ヒツトおきのデータを用いるに過きない。例
えば(8)弐に R(δ)二 Σ lf  (96+4n)−fB(96
+4n+δ)+   (9)n、=OA の様になる。この場合は、デフォーカス量が大きく像も
ぼやけて低周波成分しかないから、ブロック分けは行な
っていない。この場合のδの変化雁も5つおきに言1算
するから、ノの範囲を例えば−200≦δ≦200とし
た場合でも相関計算の回数は81回となり少なくて済む
。検出範囲は±1.25mmとなる。
f(0) in f(511)? f(5), f(
IQ 9..., f (505), f (510
) can be considered as the data to be used. In reality, we only use data for every fifth hit during calculations. For example, (8) R(δ)2 Σ lf (96+4n)-fB(96
+4n+δ)+ (9)n,=OA. In this case, since the defocus amount is large and the image is blurred and contains only low frequency components, no block division is performed. In this case, since the variation of δ is also calculated every 5 times, even if the range of δ is, for example, -200≦δ≦200, the number of correlation calculations is 81, which is a small number. The detection range is ±1.25 mm.

以上の様に、画像データを数ビットおきに用いることに
より計算量を増やすことなく検出範囲を広げられる。こ
の様にデフォーカス量の大きい時は数ビットごとの計算
により焦点位置の近くに合わせ、その後に前述の精度を
考えた計算を行なうと、合焦可能範囲が広く且つ合焦精
度の良い自動焦点検出を行なうことが出来る。
As described above, by using image data every few bits, the detection range can be expanded without increasing the amount of calculation. When the amount of defocus is large like this, by calculating every few bits to get close to the focus position, and then performing calculations that take into account the accuracy mentioned above, automatic focusing with a wide focusing range and high focusing accuracy can be achieved. Detection can be performed.

さらにデフォーカス量が大きい場合には、画像データか
らコントラスト(計算量が少なくて済む)だけを計算し
つつステージを移動し、コントラストが一定の 値にな
ってから相関による焦点合わせを行なうようにすると良
い。才だこれは、コントラストが一定以上ないと相関計
算が誤った像位相を計算する恐れもあるので、それより
低いコントラストの場合は計算しないなどの判断に用い
てもよい。
Furthermore, if the amount of defocus is large, move the stage while calculating only the contrast (which requires less calculation) from the image data, and then focus by correlation after the contrast reaches a constant value. good. Since there is a risk that the correlation calculation will calculate an incorrect image phase if the contrast is not above a certain level, it may be used to decide not to perform the calculation if the contrast is lower than that.

尚、カメラ等対物光学系を移動して焦点合わせを行なう
装置の場合は、光学系を駆動するのは言う捷でもない。
In addition, in the case of a device such as a camera that moves an objective optical system to perform focusing, it is not necessary to drive the optical system.

上記の実施例の場合、瞳を通る光束を分割して二つの像
を得るので、光学系の偏芯や瞳の偏芯等で画像データA
とBの光量が異なる場合がある。
In the case of the above embodiment, the light flux passing through the pupil is divided to obtain two images, so the image data A
and B may be different in quantity.

特に合焦系をアタッチメント形式にすると影響が出やす
い。また瞳位置に瞳分割器が無い場合には、第11図の
ように画像データAとBで光量にむらが出来る。第12
図は光量むらを模式的に説明する図である。(a)の場
合、瞳と瞳分割器が一致しているから各像高り、i、j
に対して瞳を通過する光量は全てaに等しい。(b)の
場合、瞳と瞳分割器が一致していないから、各像高り、
i、jに対して瞳を通過する光量はそれぞれす、a、c
となって不均一となり、光量むらが生じる。
This is especially likely to be the case if the focusing system is attached. Furthermore, if there is no pupil divider at the pupil position, the amount of light will be uneven between image data A and B as shown in FIG. 12th
The figure is a diagram schematically explaining the unevenness of light amount. In case (a), since the pupil and pupil divider match, each image height, i, j
In contrast, the amount of light passing through the pupil is all equal to a. In case (b), the pupil and pupil divider do not match, so each image height is
The amounts of light passing through the pupils for i and j are a, c, respectively.
This results in non-uniformity and unevenness in the amount of light.

以上のような光量差や光量むらがあると、画像データA
とBの二つの像の相似性が悪化し、相関処理結果の精度
が著しく低下することになる。そこで補正か必要となる
。補正の一つの例は、イメージセンサ−の固定パターン
ノイズの除去によく用いられている方法で、あらかじめ
均一な光でイメージセンサ−を露光しその画像データを
得る。
If there is a difference in the amount of light or unevenness in the amount of light as described above, the image data A
The similarity between the two images B and B will deteriorate, and the accuracy of the correlation processing result will drop significantly. Therefore, correction is necessary. One example of correction is a method often used to remove fixed pattern noise from image sensors, in which image data is obtained by exposing an image sensor to uniform light in advance.

入射光が均一であることにより画像データは固定パター
ンノイズそのものであるから、その逆数によって補正係
数をつくれば、その後画像データに補正係数をかけるこ
とにより固定パターンノイズの影響を除くことができる
。本実施例の場合、合焦光学系を通した均一な光で画像
データA及びBを得ると画像データAとBは偏芯等によ
り第11図の様に光量むらのあるデータとなっている。
Since the image data is the fixed pattern noise itself due to the uniformity of the incident light, if a correction coefficient is created by the inverse number of the image data, then the influence of the fixed pattern noise can be removed by multiplying the image data by the correction coefficient. In the case of this embodiment, when image data A and B are obtained with uniform light passing through the focusing optical system, image data A and B have uneven light intensity as shown in Fig. 11 due to eccentricity, etc. .

従って、その逆数等によって補正係数をつくり同様な処
理を行なえば、光量むらの影響を除くことが出来る。光
量差がある場合もその光学系を通して同様な処理・を行
なえば同様々効果を得るととができる。付随的にはイメ
ージセンサ−の固定パターンノイズの除去にもなる。均
一光で露光する具体的方法としては、ステージ53上に
試料をおかない状態での画像データを入力する方法が簡
単である。
Therefore, by creating a correction coefficient using its reciprocal or the like and performing similar processing, the influence of uneven light amount can be removed. Even if there is a difference in the amount of light, the same effect can be obtained by performing the same processing through the optical system. Additionally, fixed pattern noise of the image sensor can be removed. As a specific method for exposing with uniform light, a simple method is to input image data with no sample placed on the stage 53.

以上のように、上記の補正には一度均一光によるデータ
入力を行なう必要がある。とれはめんどうな操作ではな
いが、それでも補正用のデータ入力を行ないたくない場
合は計算によって補正することも出来る。第13図はそ
れを説明する図で、y軸をセンサーアレイの並び方向に
y軸を画像データの強度の方向に夫々とっである。画像
データA。
As described above, the above correction requires data input using uniform light once. Although it is not a troublesome operation, if you still do not want to input data for correction, you can correct it by calculation. FIG. 13 is a diagram explaining this, in which the y-axis is in the direction of arrangement of the sensor array, and the y-axis is in the direction of the intensity of image data. Image data A.

Bの値は、第12図の説明でもわかる通りある一定の傾
きをもつ直線と考えることが出来る。それデれをeA、
lBとする。画像データlAの傾きをβ9とすると、画
像データlAの式は、lAをlAの光量の平均として、 y−βAX十ハ ら求めることか出来る。kはその光学系の特性により決
−まるもので、あらかじめ測定しておけば良い。画像デ
ータA、Bの光量の平均を工al)l!とすると、補正
係数αば となり、これによって光量差の補正及び光量むらの補正
ができる。
As can be seen from the explanation of FIG. 12, the value of B can be thought of as a straight line with a certain slope. That's it, eA,
Let it be 1B. Assuming that the slope of the image data lA is β9, the equation for the image data lA can be obtained from y-βAX10, where lA is the average of the light amount of lA. k is determined by the characteristics of the optical system and may be measured in advance. Calculate the average light intensity of image data A and B al)l! Then, the correction coefficient .alpha. is obtained, and thereby the difference in light amount and the unevenness in light amount can be corrected.

以上の様に、均一光を用いたりあるいは計算することで
、光学系の偏芯あるいは瞳の偏芯の影響や瞳と瞳分割器
が一致していない影響を補正し除去することが出来る。
As described above, by using uniform light or performing calculations, it is possible to correct and eliminate the effects of eccentricity of the optical system or eccentricity of the pupil, or the effects of misalignment between the pupil and the pupil divider.

その結果、合焦の精度が向上し、検出範囲も拡がる。更
には合焦検出部もアタッチメント形式にしても使用出来
る。最も大きな効果としては、瞳位置の異なる各種各倍
率の対物レンズが使用出来ることである。
As a result, focusing accuracy is improved and the detection range is expanded. Furthermore, the focus detection section can also be used as an attachment. The most significant effect is that objective lenses of various magnifications with different pupil positions can be used.

また、顕微鏡のように多くの種類の対物レンズを用いる
とそれぞれの対物レンズによシ瞳位置が違うので、瞳分
割器を瞳位置に全ての対物レンズについて正しく設置す
ることが難しい。この不具合の解決法の一つとして1童
分割器を複数個設けることが考えられる。複数の瞳分割
器をそれぞれの対物しン・ズの瞳位置に設けることによ
り瞳と瞳分割器とを一致させる。一つの瞳分割器を使用
している場合、他の瞳分割器が瞳をけらないように構、
成されているのは言うまでもない。例えば第14図のよ
うに第5図と同じ瞳分割器を二枚連結したものを用いて
もよい。
Furthermore, when many types of objective lenses are used, such as in a microscope, each objective lens has a different pupil position, so it is difficult to correctly install the pupil divider at the pupil position for all the objective lenses. One possible solution to this problem is to provide a plurality of one-child dividers. By providing a plurality of pupil dividers at the pupil positions of each objective lens, the pupils and the pupil dividers are made to coincide. When using one pupil divider, make sure that the other pupil divider does not cut the pupil.
Needless to say, it has been achieved. For example, as shown in FIG. 14, two pupil dividers similar to those shown in FIG. 5 may be connected.

第4図において、フィルター64は赤外カットフィルタ
ー或いはバンドパスフィルターであって、イメージセン
サ−及び光源51等の分光感度1分光分布が比想感度と
異なるので、そのことによる焦点ずれの現象を防ぐ役目
をする。
In FIG. 4, the filter 64 is an infrared cut filter or a bandpass filter, and since the spectral sensitivity 1 spectral distribution of the image sensor, light source 51, etc. is different from the relative sensitivity, it prevents the phenomenon of defocus caused by this. play a role.

以上のような自動焦点装置の制御、演算処理を行つ場合
、マイクロコンピュータ及び演算処理ユニットによる方
法が最も設計容易で安価である。
When controlling and calculating the automatic focusing device as described above, a method using a microcomputer and an arithmetic processing unit is the easiest and cheapest to design.

これについて、第15図のフローチャートで説明を補足
す・る。これは最も基本的な場合を示している。合焦が
開始されると、まず顕微鏡の状態が合焦動作に適した状
態になっているかをチェックし、対物の種類3倍率を判
別する。これは、光量むら補正の場合対物の種類及び倍
率によってパラメータが異なり、像位相差量をステージ
移動量に変換する変換の係数も倍率によって違うからで
ある((1)式参照)。次に、イメージセンサ−からへ
及びfBのデータを得てメモリに格納する。その後、光
量むらを補正し、再びメモリに格納する。合焦開始時は
焦点が大きくずれていることがあるので、5ビツトおき
の相関演算でおおよその焦点位置を決定する((9)式
参照)。そして、相関により求めた像位相差量をステー
ジ移動量に変換しステージを移動する。そこで再びfA
、 f)3のデータを得、補正を行なう。次にコントラ
スト評価によりフ゛ロックを決定する。コントラストが
一定値以上なければ相関による結果の信頼性が少ないの
で、もう一度5ビット相関を行ないステージを焦点位置
に近づける。数回性なってもコントラストが上がらない
場合は試料のコントラストが低すぎるので不可能表示を
行なう。コントラストが一定以上あれば、決定されたブ
ロックで相関を計算し、ステージを移動して合焦する。
Regarding this, the explanation will be supplemented with the flowchart shown in FIG. This shows the most basic case. When focusing is started, it is first checked whether the condition of the microscope is suitable for focusing operation, and the type of objective and 3 magnification are determined. This is because, in the case of light intensity unevenness correction, parameters differ depending on the type of objective and magnification, and the conversion coefficient for converting the amount of image phase difference into the amount of stage movement also differs depending on the magnification (see equation (1)). Next, the data of fB and fB are obtained from the image sensor and stored in the memory. Thereafter, the unevenness in light amount is corrected and the image is stored in the memory again. Since the focus may be largely deviated at the start of focusing, the approximate focus position is determined by correlation calculation every 5 bits (see equation (9)). Then, the image phase difference amount determined by the correlation is converted into a stage movement amount, and the stage is moved. So again fA
, f) Obtain the data of 3 and perform correction. Next, block is determined by contrast evaluation. If the contrast is less than a certain value, the reliability of the correlation result is low, so 5-bit correlation is performed again and the stage is moved closer to the focal position. If the contrast does not increase even after repeating several times, the contrast of the sample is too low, and an "impossible" indication is displayed. If the contrast is above a certain level, the correlation is calculated using the determined block, and the stage is moved to focus.

合焦の確認としてもう一度fA、fBを得、相関を計算
する。ここで像位相差量が焦点深度内の値であれば合焦
であり、ステージを移動しない。もし焦点深度外であれ
ばもう一度同じ動作を繰り返す。
To confirm focus, fA and fB are obtained again and the correlation is calculated. Here, if the image phase difference amount is within the depth of focus, the image is in focus and the stage is not moved. If it is outside the depth of focus, repeat the same operation again.

以上は最も基本的な動作を説明したもので、実際のプロ
グラムには試料が無かった場合とか機械が故障した場合
のフェイル・セイフ等も考慮されている。
The above is an explanation of the most basic operation, and the actual program also takes into account fail-safe situations in the event that there is no sample or the machine breaks down.

壕だ5ビツト相関から1ビツト相関に移る場合の判定に
像位相差量を用いてもよい。前例の場合−200≦δ≦
200の範囲を5つおきに計算しているが、相関R(δ
)が最小値をとるδが一200≦δ′≦200ならばそ
の分ステージを移動した後に1ビツト相関に移る。この
場合判定条件を一180≦δ′≦180のように計算し
たδの範囲より小さめに設定するほうがよい。これはデ
フォーカス量が大きい場合には雑音等で誤って最小値を
とるδ′を決定することがあるからである。
The amount of image phase difference may also be used to determine when moving from 5-bit correlation to 1-bit correlation. In the case of the previous example -200≦δ≦
200 ranges are calculated every 5th range, but the correlation R(δ
) takes the minimum value if δ is -200≦δ'≦200, the stage is moved by that amount and then the process moves to 1-bit correlation. In this case, it is better to set the determination condition to be smaller than the calculated range of δ, such as -180≦δ'≦180. This is because when the amount of defocus is large, δ' may be determined to take the minimum value erroneously due to noise or the like.

第16図は第二実施例とし、て中央処理装置以外を・・
−ドウエアで構成した例の制御・演算回路を示している
。これについて説明すれば、まずコンソール7Iからの
合焦開始信号により瞳分割器駆動回路66が働き画像デ
ータAをイメージセンサ−65によシ得る。イメージセ
ンサ−65は瞳分割器62と同期してセンサー駆動回路
68により撮像を開始する。この時、蓄積型イメージセ
ンサ−の場合は(一般に固体撮像素子はこの型)、一度
以前に蓄積された信号を消去する為にカラ読み出しを行
なう。イメージセンサ−65から連続して読み出される
画像データAはサンプルホールド回路31.A/Dコン
バータ32.スイッチ回路33を通って第一メモリ34
に記憶される。そして、図示していないメモリにあらか
じめ記憶されている補正係数データによって画像データ
Aは補正されて再び第一メモリ34に記憶される。補正
係数データはあらかじ・め均一光を入射して画像センサ
ーで撮像した前述の画像データの逆数にその時の画像デ
ータA、Bの平均値を掛けたものである。
Figure 16 shows the second embodiment, except for the central processing unit...
- shows an example control/arithmetic circuit configured with hardware. To explain this, first, the pupil divider drive circuit 66 operates in response to a focus start signal from the console 7I to obtain image data A from the image sensor 65. The image sensor 65 starts imaging by the sensor drive circuit 68 in synchronization with the pupil splitter 62. At this time, in the case of an accumulation type image sensor (generally, solid-state image sensors are of this type), color readout is performed in order to erase previously accumulated signals. Image data A continuously read out from the image sensor 65 is sent to a sample hold circuit 31. A/D converter 32. The first memory 34 passes through the switch circuit 33
is memorized. Then, the image data A is corrected using correction coefficient data stored in advance in a memory (not shown) and stored in the first memory 34 again. The correction coefficient data is obtained by multiplying the reciprocal of the above-mentioned image data captured by the image sensor with uniform light incident thereon by the average value of the image data A and B at that time.

512ビツトのイメージセンサーの場合を考える。Consider the case of a 512-bit image sensor.

画像データA、Bは両方台わせると0〜1023ビツト
まで合計1024個と々る。画像データAは0〜511
ビツト、画像データBは512〜1023ビツトとする
。試料が無い状態での均一光で得た画像データのnビッ
ト目のイ直をXnとすると、nビットk   =− h となる。
When both image data A and B are combined, a total of 1024 bits are obtained from 0 to 1023 bits. Image data A is 0 to 511
Image data B is assumed to be 512 to 1023 bits. If the n-th bit of image data obtained with uniform light without a sample is Xn, then n bits k = -h.

次に、画像データAが第一メモリ34に格納されると、
i1m分割器62は画像データBを取る状態になり画像
データBは画像データAと同様にして第二メモリ35に
補正されて格納される。第一メモリ34に格納されたデ
ータは第7図に示したブロックごとにコントラスト判別
器36に送られ、コントラストの高さにより用いるべき
ブロックが決定される。ブロックb′のコントラストが
最も高い場合にはアドレス指定回路37に128が与え
られる。アドレスシフト回#!r38には初期値−32
か入っており、アドレス指定回路37が第一メモリ34
の128を指定すると、アドレスシフト回路38は第二
メモリ35の96を指定する。そして画像データfA(
128)とfB(96)が減算器39に入カサレ、絶対
値回路4oを経テ]fA(128)−fB(96)1ノ
演算が行なわれる。そして、加算器41を経てメモリ4
2に格納てれる。以上が終ると、アドレス指定回路37
はメモリ34の129を指定し、アドレスシフト回路3
8はメモリ35の97を指定し、以後同様に演算され1
fA(129) fB(97)1  は加算器41によ
って前のデータl fA(t2g)−fB(96) l
に加えられてメモリ42に格納される。以後第一メモリ
34のアドレス255まで繰り返され、相が完了する。
Next, when the image data A is stored in the first memory 34,
The i1m divider 62 is in a state of receiving image data B, and the image data B is corrected and stored in the second memory 35 in the same manner as the image data A. The data stored in the first memory 34 is sent to the contrast discriminator 36 for each block shown in FIG. 7, and the block to be used is determined based on the height of contrast. If the contrast of block b' is the highest, 128 is given to the addressing circuit 37. Address shift #! Initial value -32 for r38
The addressing circuit 37 is connected to the first memory 34.
When the address shift circuit 38 specifies 128 of the second memory 35, the address shift circuit 38 specifies the address 96 of the second memory 35. And image data fA (
128) and fB(96) are input into the subtracter 39 and then passed through the absolute value circuit 4o.]fA(128)-fB(96)1 operation is performed. Then, through the adder 41, the memory 4
It can be stored in 2. When the above is completed, the addressing circuit 37
specifies 129 of the memory 34, and the address shift circuit 3
8 specifies 97 in memory 35, and is calculated in the same way thereafter as 1.
fA(129) fB(97)1 is the previous data l fA(t2g)-fB(96) l
and stored in the memory 42. Thereafter, the process is repeated up to address 255 of the first memory 34, and the phase is completed.

この計算が完了すると、アドレスシフト回路38の値は
−31になり、 が計算される。そして、これはアドレスシフト回路38
の値が31になるまで続き、全体の相関演算 が行なわれる。続いて中央処理装置43によりメモリ4
2内のR(δ)を比較し、R(δ)が最小となるδを見
つけて像の位相差量とする。それに従ってステージ駆動
回路67を駆動しピントを合わせる。
When this calculation is completed, the value of the address shift circuit 38 becomes -31, and the following is calculated. And this is the address shift circuit 38
This continues until the value of becomes 31, and the entire correlation calculation is performed. Subsequently, the central processing unit 43 writes the memory 4
2 is compared, and δ for which R(δ) is the minimum is found and used as the amount of phase difference of the image. Accordingly, the stage drive circuit 67 is driven to adjust the focus.

尚、デフォーカス量が太きく一32≦δ≦31の位相差
量では不足な場合は、アドレス指定回路37は第一メモ
リ34の128を指定し且つアドレスシフト回路38の
初期値は−64となる。そして、それぞれの相関計算が
終るごとに2ずつ増え、R(64)= l f′A(1
28)−fB(128−64)l +l fA(]30
)−fB(130−64月−+−・・・・・・・・・ 
刊fA(382)−fB(382−64) 1R(−6
2)=  ・・・・・・・ R(60)−・・・・・・・ という計算が行なわれる。これは画像データを1ビツト
おきに用いたことに相当し、同じ計算量で像位相差の検
出範囲が二倍になっている。但し合焦精度は1/2にな
る。
Note that if the defocus amount is large and the phase difference amount of -32≦δ≦31 is insufficient, the address designation circuit 37 specifies 128 in the first memory 34, and the initial value of the address shift circuit 38 is -64. Become. Then, each time the correlation calculation is completed, it increases by 2, and R (64) = l f'A (1
28)-fB(128-64)l +l fA(]30
)-fB(130-64 month-+-・・・・・・・・・
Publication fA(382)-fB(382-64) 1R(-6
2)= . . . R(60) - . . . The following calculation is performed. This corresponds to using every other bit of the image data, and the detection range of the image phase difference is doubled with the same amount of calculation. However, the focusing accuracy becomes 1/2.

以上のように像位相差を計算しステージ駆動回路67を
駆動してピントを合わせるが、ピントを正確に合わせる
為上記動作を数回繰り返しても良い。尚、コンソール7
1では合焦開始や合焦表示を行なう。
As described above, the image phase difference is calculated and the stage drive circuit 67 is driven to adjust the focus, but the above operation may be repeated several times to accurately adjust the focus. Furthermore, console 7
In step 1, focusing is started and focused display is performed.

上述の如く、本発明による自動焦点検出装置は、イメー
ジセンサ−で得た画像データの一部だけを用いて相関演
算を行うと共に、デフォーカス量が大きい場合は画像デ
ータの複数個ずつずれたデータを用いて相関演算を行っ
ているので、検出精度及び検出速度が大幅に向上する。
As described above, the automatic focus detection device according to the present invention performs a correlation calculation using only a part of the image data obtained by the image sensor, and when the amount of defocus is large, the automatic focus detection device according to the present invention performs a correlation calculation using only a part of the image data obtained by the image sensor. Since the correlation calculation is performed using , detection accuracy and detection speed are significantly improved.

尚、本発明は、二つのイメージセンサ−を用いた自動焦
点検出装置にも適用し得るのは言う丑でもない。
It goes without saying that the present invention can also be applied to an automatic focus detection device using two image sensors.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は従来の自動焦点検出装置の要部回路を示す図、
第2図は上記従来例のシフトレジスタに記憶される画像
データの一例を示す図、第3図は本発明による自動焦点
検出装置の一実施例に用いられる瞳分割法の原理を示す
図、第4図は上記実施例の全体図、第5図は上記実施例
に用いられる瞳分割器の具体例を示す正面図、第6図は
二つの像の位相差量とデフォーカス量との関係を示す図
、第7図は上記実施例のイメージセンサ−とそこにおけ
る処理方法を示す図、第8図はイメージセンザー上の光
の強度分布の一例を示す図、第9図及び第10図は合焦
点付近における精度の良い位相差計算法を示す図、第1
1図は上記実施例における画像データの光量むらを示す
図、第12図は光量むらを模式的に説明する図、第13
図は光量むらの補正方法を示す図、第14図は他の瞳分
割器の斜視図、第15図は上記実施例のコンピュータに
よる制御及び演算処理方法を示すフローチャート、第1
6図は他の実施例の制御・演算回路を示す図である。 51・・・・光源、52・・・・コンデンサーレンズ、
53・・・・ステージ、54・両対物レンズ、55・・
・・ ビームスプリッタ−156・山プリズム、57・
・・・接眼レンズ、58・・・・写真用接眼レンズ、5
つ・・・・フィルム、60・・・・リレーレンズ、61
・・・・レンズ、62・・・・瞳分割器、63・・・・
結像レンズ、64・・・・フィルター、65・・・・イ
メージセンサー、66・・・・瞳分割器1駆動回路、6
7・・・・ステージ5駆動回路、68・山イ、メージセ
ンサー駆動回路、69・・・・インターフェイス回路、
7o・・・・マイクロコンピュータ、71・・・・コン
ソール。 6〕τj’We 代理人 篠原泰司;−=l′:lii’E!−+++−
I− 11図    第2凶 第3図 r 第4図 9 第5図 十S 図 19図   オio図 オti図
FIG. 1 is a diagram showing the main circuit of a conventional automatic focus detection device.
2 is a diagram showing an example of image data stored in the conventional shift register, FIG. 3 is a diagram showing the principle of the pupil division method used in an embodiment of the automatic focus detection device according to the present invention, Fig. 4 is an overall view of the above embodiment, Fig. 5 is a front view showing a specific example of the pupil divider used in the above embodiment, and Fig. 6 is a diagram showing the relationship between the amount of phase difference and the amount of defocus between two images. 7 is a diagram showing the image sensor of the above embodiment and the processing method therein, FIG. 8 is a diagram showing an example of the light intensity distribution on the image sensor, and FIGS. 9 and 10 are Diagram showing a highly accurate phase difference calculation method near the focal point, Part 1
FIG. 1 is a diagram showing the unevenness of light amount of image data in the above embodiment, FIG. 12 is a diagram schematically explaining the unevenness of light amount, and FIG.
14 is a perspective view of another pupil divider, and FIG. 15 is a flowchart showing the computer control and arithmetic processing method of the above embodiment.
FIG. 6 is a diagram showing a control/arithmetic circuit of another embodiment. 51... Light source, 52... Condenser lens,
53... Stage, 54. Both objective lenses, 55...
・・Beam splitter-156・Mountain prism, 57・
...Eyepiece, 58...Photography eyepiece, 5
Two...Film, 60...Relay lens, 61
... Lens, 62 ... Pupil divider, 63 ...
Imaging lens, 64...filter, 65...image sensor, 66...pupil splitter 1 drive circuit, 6
7... Stage 5 drive circuit, 68... Image sensor drive circuit, 69... Interface circuit,
7o...Microcomputer, 71...Console. 6] τj'We Agent Yasushi Shinohara;-=l':lii'E! −+++−
I- 11 Figure 2 Figure 3 r Figure 4 9 Figure 5 10S Figure 19 Figure Oio Figure Oti Figure

Claims (1)

【特許請求の範囲】[Claims] 異なる光路を通って形成された二つの像を多数の素子を
配列して成る光電変換装置により個別に光電出力信号に
変換し、該光電出力信号に基づいて二つの像の相対位置
関係を検出することにより合焦検出を行うようにした自
動焦点検出装置において、光電変換装置の一部の素子の
光電出力信号を用いて相対位置関係を検出すると共に、
デフォーカス量が大きい場合は該光電変換装置の複数個
ずつずれだ素子の光電出力信号を用いて相対位置関係を
検出するようにしたことを特徴とする自動焦点検出装置
Two images formed through different optical paths are individually converted into photoelectric output signals by a photoelectric conversion device comprising a large number of elements arranged, and the relative positional relationship between the two images is detected based on the photoelectric output signals. In an automatic focus detection device that performs focus detection by
An automatic focus detection device characterized in that when the amount of defocus is large, the relative positional relationship is detected using photoelectric output signals of a plurality of shifted elements of the photoelectric conversion device.
JP2859483A 1983-02-24 1983-02-24 Automatic focus detecting device Granted JPS59155807A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2859483A JPS59155807A (en) 1983-02-24 1983-02-24 Automatic focus detecting device
DE3406578A DE3406578C2 (en) 1983-02-24 1984-02-21 Automatic focus detection device
US06/928,730 US4740678A (en) 1983-02-24 1986-11-10 Automatic focus detecting device in which two objects images formed through different light paths are converted to photoelectric signals
US07/140,537 US4833315A (en) 1983-02-24 1988-01-04 Automatic focus detecting device in which two object images formed through different light paths are converted to photoelectric signals

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2859483A JPS59155807A (en) 1983-02-24 1983-02-24 Automatic focus detecting device

Publications (2)

Publication Number Publication Date
JPS59155807A true JPS59155807A (en) 1984-09-05
JPH0553241B2 JPH0553241B2 (en) 1993-08-09

Family

ID=12252913

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2859483A Granted JPS59155807A (en) 1983-02-24 1983-02-24 Automatic focus detecting device

Country Status (1)

Country Link
JP (1) JPS59155807A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02126212A (en) * 1988-11-07 1990-05-15 Nikon Corp Focus detecting device
US5572011A (en) * 1993-12-28 1996-11-05 Olympus Optical Co., Ltd. Focus detecting method and distance measuring method with a plurality of light fluxes and a contrast operation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5675607A (en) * 1979-11-26 1981-06-22 Ricoh Co Ltd Automatic focus detecting device
JPS56101111A (en) * 1980-01-14 1981-08-13 Mamiya Koki Kk Automatic focus adjustment method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5675607A (en) * 1979-11-26 1981-06-22 Ricoh Co Ltd Automatic focus detecting device
JPS56101111A (en) * 1980-01-14 1981-08-13 Mamiya Koki Kk Automatic focus adjustment method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02126212A (en) * 1988-11-07 1990-05-15 Nikon Corp Focus detecting device
US5572011A (en) * 1993-12-28 1996-11-05 Olympus Optical Co., Ltd. Focus detecting method and distance measuring method with a plurality of light fluxes and a contrast operation

Also Published As

Publication number Publication date
JPH0553241B2 (en) 1993-08-09

Similar Documents

Publication Publication Date Title
US5103254A (en) Camera with subject highlighting and motion detection
US5455654A (en) Multi-area focus detection apparatus for detecting focus either automatically or intentionally
JP3230098B2 (en) Focus detection device
JPH0541965B2 (en)
US4740678A (en) Automatic focus detecting device in which two objects images formed through different light paths are converted to photoelectric signals
US8369699B2 (en) Focus detection apparatus
JPS6155618A (en) Automatic focusing device
JP5641771B2 (en) Focus detection device
JPH08262552A (en) Camera capable of displaying distance information
US6636699B2 (en) Focus detection device and distance measurement device
JPS59155807A (en) Automatic focus detecting device
JP2008052285A (en) Focus detecting device
JPH09189850A (en) Automatic focusing microscope
JP2018097176A (en) Focus adjustment device and focus adjustment method
JPS63194240A (en) Automatic focus detector
US5838425A (en) Exposure control for the photographic recording of a microscope image
JP3382321B2 (en) Optical equipment
JPS6155620A (en) Automatic focusing device
JPS59155808A (en) Automatic focus detecting device
JP2000089091A (en) Focus detector, range-finding device, and optical equipment
JPH04163537A (en) Multipoint range finder with sight line detecting means
JPH06138377A (en) Camera provided with focus detecting means and line-of-sight detecting means
JPS6155619A (en) Automatic focusing device
JPS6153614A (en) Automatic focusing device
JP3703153B2 (en) Focus detection device