JPH07313464A - Focusing detector of fundus oculi observation system - Google Patents

Focusing detector of fundus oculi observation system

Info

Publication number
JPH07313464A
JPH07313464A JP7103885A JP10388595A JPH07313464A JP H07313464 A JPH07313464 A JP H07313464A JP 7103885 A JP7103885 A JP 7103885A JP 10388595 A JP10388595 A JP 10388595A JP H07313464 A JPH07313464 A JP H07313464A
Authority
JP
Japan
Prior art keywords
index
signal
light
array sensor
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7103885A
Other languages
Japanese (ja)
Other versions
JP2803594B2 (en
Inventor
Yasunori Ueno
保典 上野
Koichi Suzuki
好一 鈴木
Yoshihiro Takahashi
嘉裕 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP7103885A priority Critical patent/JP2803594B2/en
Publication of JPH07313464A publication Critical patent/JPH07313464A/en
Application granted granted Critical
Publication of JP2803594B2 publication Critical patent/JP2803594B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To exactly detect signals regardless of a difference in the reflectivity of the fundus oculi, variable power, etc., by providing this system with a subtraction means for determining a differential signal between the signal obtd. from a photoelectric converter at the time of projecting an index and the signal obtd. at the time of non-projecting and outputting a focusing signal and a driving means capable of varying the accumulation time of this photoelectric converter. CONSTITUTION:The light from a light source 16 forms an image after passing a slit. This light is again imaged near a holed mirror 9 by a relay lens 17b for projecting the index, a dichroic prism 7 and a relay lens 8 for a ring slit. The light is further imaged near the pupil of the eye 12 to be inspected by an objective lens 11, by which the fundus oculi is illuminated. The slit image from the fundus oculi is imaged near an array sensor 23 by a reimaging lens 21. The signal outputted from this array sensor 23 is inputted to a microcomputer, from which only the signal component is obtd. by obtaining the difference between the output of the array sensor 23 when the light source 16 for projecting the index is lighted and the output when the light source is turned off. The focusing information is thus obtd.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は眼底カメラの合焦検出装
置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a focus detection device for a fundus camera.

【0002】[0002]

【従来技術】眼底を観察する装置では、眼底の低い反射
率による光量不足やコントラストの悪さから、合焦する
ことが困難である。そこで特公昭57-13294号公報などに
みられるように、眼底に指標を投影し、その指標像によ
って合焦する装置が提案されている。
2. Description of the Related Art In a device for observing the fundus, it is difficult to focus due to insufficient light amount due to low reflectance of the fundus and poor contrast. Therefore, as seen in Japanese Examined Patent Publication No. 57-13294, there is proposed a device that projects an index on the fundus and focuses on the index image.

【0003】この装置は、指標像をスプリットプリズム
等で分割して眼底に結像させ、その横ずれを観察し、合
焦させるものであった。ここでは観察光学系は、この横
ずれの様子をみるためだけのものであり、直接眼底に合
焦させるのは指標投影光学系である。そしてこの指標と
観察像面(必要なら撮影像画も)とを機械的連動装置に
よって共動せしめ指標を眼底と共役にすることによって
間接的に眼底に合焦させている。
In this apparatus, the index image is divided by a split prism or the like to form an image on the fundus of the eye, and the lateral deviation thereof is observed and focused. Here, the observation optical system is only for observing the state of the lateral deviation, and the index projection optical system is used to directly focus on the fundus. Then, the index and the observation image plane (and the photographed image, if necessary) are made to cooperate by a mechanical interlocking device, and the index is conjugated with the fundus to indirectly focus on the fundus.

【0004】しかしながら、このような間接的な構造で
は、指標投影光学系と観察光学系の連動装置の機械的誤
差、あるいは各々の光学系の違いによる誤差(指標投影
光学系はN.A.が大きく、かつ周辺の光束を使うので収差
が大きくなり、観察光学系はN.A.が小さく焦点深度が深
く、収差が比較的小さいという違いによる)が入る可能
性があり、また連動装置自体も複雑になり、装置の大型
化、コストアップにつながるという欠点があった。ま
た、変倍すると光量不足ということがおこったり、また
眼底は部位により反射率が異なるため、ある部位では光
量不足になったりある部位では光量過剰になったりして
受光素子(たとえばCCD)が飽和をおこしたり、光量不足
のため信号検出が難しくなるという欠点があった。
However, in such an indirect structure, the mechanical error of the interlocking device of the index projection optical system and the observation optical system or the error due to the difference between the optical systems (the index projection optical system has a large NA, and Since the peripheral light flux is used, the aberration becomes large, the observation optical system has a small NA, a large depth of focus, and the aberration is relatively small.), And the interlocking device itself becomes complicated. It had the drawback of increasing the size and cost. Also, when the magnification is changed, insufficient light may occur, and because the reflectance of the fundus varies depending on the site, the light receiving element (for example, CCD) may become saturated due to insufficient light at some sites or excessive light at other sites. However, there is a drawback that signal detection becomes difficult due to insufficient light amount.

【0005】また人間の眼に入射できる光源の輝度には
限界があるため、合焦検出に必要な大きな信号を得るた
めに単に光源の輝度を高めることは、眼底を損傷させる
恐れが生じるという欠点があった。
Further, since there is a limit to the brightness of a light source that can enter the human eye, simply increasing the brightness of the light source to obtain a large signal necessary for focus detection may cause damage to the fundus. was there.

【0006】[0006]

【発明が解決しようとする問題点】本発明の目的は、こ
れらの欠点を解消し、眼底の反射率の違いや変倍等にか
かわらず、正確な信号検出の行える合焦検出装置を供す
ることを目的とする。
SUMMARY OF THE INVENTION An object of the present invention is to solve these drawbacks and to provide a focus detection device capable of accurate signal detection regardless of the difference in reflectance of the fundus of the eye or zooming. With the goal.

【0007】[0007]

【問題点を解決するための手段】そこで本発明は、被検
眼眼底に発光指標を投影する指標投影光学系と被検眼眼
底の前記指標を受光する光電変換器を有し、該光電変換
器の出力によって、合焦情報を検出する合焦情報検出光
学系とを備えた眼底観察装置の合焦検出装置において、
前記指標を投影するか否かを選択する選択手段と、前記
指標の投影時に前記光電変換器から得られる第1の信号
と前記指標の非投影時に前記光電変換器から得られる第
2の信号との差信号を求め、該差信号から合焦信号を出
力する減算手段と、前記光電変換器の蓄積時間を2段階
に可変できる駆動手段とを設けたことを特徴とする。
Therefore, the present invention has an index projection optical system for projecting a luminescent index on the fundus of the eye to be examined and a photoelectric converter for receiving the index of the fundus of the eye to be examined. By the output, in the focus detection device of the fundus oculi observation device having a focus information detection optical system for detecting the focus information,
Selection means for selecting whether or not to project the index, a first signal obtained from the photoelectric converter when projecting the index, and a second signal obtained from the photoelectric converter when the index is not projected And subtracting means for outputting a focus signal from the difference signal, and driving means capable of varying the accumulation time of the photoelectric converter in two steps.

【0008】[0008]

【実施例】図1は本発明の一実施例の合焦検出装置を有
する眼底カメラ全体の構成を示す図である。通常、照明
系は観察用照明光源1、光源用リレーレンズ2、反射鏡
3、光源用リレーレンズ2によって光源1と共役に配設
されるストロボ管4、リングスリット5、(平面図は図
3に示す)、リングスリット用リレーレンズ6、8、穴
あきミラー9、対物レンズ11によって構成される。リン
グスリット5はリングスリット用リレーレンズ6、8、
対物レンズ11によってよく知られているように、被検眼
12の角膜にほぼ共役になるように眼底カメラと被検眼12
との作動距離が調節される。後述の指標投影用光源駆動
手段によって点灯、消灯が可能な指標投影用光源16は指
標投影用リレーレンズ17aを通り、スリットを形成した
指標板18(平面図は図4に示す)を背後から照明する。
光源16は指標板18のスリットを通過後、結像し、指標投
影用リレーレンズ17b、ダイクロイックプリズム7およ
びリングスリット用リレーレンズ8によって穴あきミラ
ー9の付近に再び結像され、さらに対物レンズ11によっ
て被検眼12の瞳孔付近に結像され眼底を照明する。これ
らの光源は図1で二点鎖線で描かれている。
1 is a diagram showing the overall structure of a fundus camera having a focus detection device according to an embodiment of the present invention. Usually, the illumination system includes an observation illumination light source 1, a light source relay lens 2, a reflecting mirror 3, a strobe tube 4 and a ring slit 5, which are arranged conjugate with the light source 1 by the light source relay lens 2 (the plan view of FIG. ), A ring slit relay lens 6, 8, a perforated mirror 9, and an objective lens 11. The ring slit 5 is a relay lens 6, 8 for the ring slit,
As well known by the objective lens 11, the eye to be examined
The fundus camera and the eye to be examined 12 so that they are almost conjugated to the 12 corneas.
The working distance between and is adjusted. An index projection light source 16 that can be turned on and off by an index projection light source driving unit described below passes through an index projection relay lens 17a and illuminates a slit-formed index plate 18 (a plan view is shown in FIG. 4) from behind. To do.
The light source 16 forms an image after passing through the slit of the index plate 18, is imaged again near the perforated mirror 9 by the index projection relay lens 17b, the dichroic prism 7 and the ring slit relay lens 8, and further the objective lens 11 is formed. An image is formed in the vicinity of the pupil of the eye 12 to be inspected, and the fundus is illuminated. These light sources are depicted in dashed lines in FIG.

【0009】ところで図1で示した光学系の場合、指標
投影用光源16は例えば赤外発光ダイオードであり、ダイ
クロイックプリズム7は赤外光反射・可視光透過の特性
になっている。従ってダイクロイックプリズム7は観察
用光源1、ストロボ管4からの可視光を通過するが、こ
れらの光源1、4から出る赤外光を反射して照明光学系
外に出してしまい、結局眼底は指標投影用光源16からの
赤外光によって照明されることになる。そしてダイクロ
イックミラー14を赤外光反射、可視光透過の特性にする
と、後述のアレイセンサー23に到達する光は、指標投影
用光源16によって照明された指標板18の透過光だけとな
り、指標像(スリット像)はコントラストの比較的よい
ものとなる。
In the case of the optical system shown in FIG. 1, the index projection light source 16 is, for example, an infrared light emitting diode, and the dichroic prism 7 has characteristics of reflecting infrared light and transmitting visible light. Therefore, the dichroic prism 7 passes the visible light from the observation light source 1 and the strobe tube 4, but reflects the infrared light emitted from these light sources 1 and 4 to go out of the illumination optical system, and the fundus eventually becomes an index. It will be illuminated by infrared light from the projection light source 16. When the dichroic mirror 14 is made to have a characteristic of reflecting infrared light and transmitting visible light, the light reaching the array sensor 23 described later is only the transmitted light of the index plate 18 illuminated by the index projection light source 16, and the index image ( The slit image) has a relatively good contrast.

【0010】一方、図1の点線で示すように、指標板18
のスリットは、指標投影系用リレーレンズ17bによって
ダイクロイックプリズム7の付近に結像した後、リレー
レンズ8、穴あきミラー9、によって対物レンズ11の後
側焦点位置に結像する。したがって対物レンズ11を経た
スリットの透過光はほぼ平行光となって被検眼12に入射
し、被検眼12が正視眼であれば、眼底上にスリットが結
像する。ところが被検眼12の視度によってはスリット像
はデフォーカスする場合がある。しかし実際に指標像18
を照明している光源は、被検眼12に関して瞳孔付近にそ
の共役像ができ、かつ光源像の大きさが小さいので実質
的にスリットから出る光束の開口数(N.A.) が小さくな
ったことになり、焦点深度は深くなる。したがって、実
質的な被検眼の範囲(±15ジオプトリー程度)では、デ
フォーカスによる像のぼけはあまり大きくなく、合焦検
出に耐えるコントラストが保障される。
On the other hand, as shown by the dotted line in FIG.
The slit is imaged near the dichroic prism 7 by the index projection system relay lens 17b, and then imaged at the rear focal position of the objective lens 11 by the relay lens 8 and the perforated mirror 9. Therefore, the light transmitted through the slit that has passed through the objective lens 11 becomes substantially parallel light and enters the eye 12 to be inspected. If the eye 12 to be inspected is an emmetropic eye, the slit forms an image on the fundus. However, the slit image may be defocused depending on the diopter of the eye 12 to be inspected. But actually the index image 18
The light source illuminating is that the conjugate image is formed in the vicinity of the pupil with respect to the eye 12 to be examined, and the size of the light source image is small, so the numerical aperture (NA) of the light flux emitted from the slit is substantially reduced. , The depth of focus becomes deeper. Therefore, in the substantial range of the eye to be inspected (about ± 15 diopters), the blur of the image due to defocus is not so large, and the contrast that withstands the focus detection is guaranteed.

【0011】図2に図1における合焦情報検出光学系の
みを示す。本実施例は変倍、ズームに対しても合焦情報
が得られるようにしたものであるが、説明上、ある倍率
での動作について述べ、そのあと変倍、ズームに際して
の工夫を説明する。図2の実線で示すように、眼底上に
投影されたスリット像は2次光源となって、対物レンズ
11によって一度結像された後、穴あきミラー9の開口、
開口絞り10、合焦リレーレンズ13を通り、赤外反射・可
視光透過のダイクロイックミラー14で反射された後に視
野絞り19付近に結像される。この視野絞り19は、再結像
レンズ21によってアレイセンサー23と共役になってお
り、さらにアレイセンサー23は撮像面(観察像面は不図
示)15と共役になっている。従って、眼底からのスリッ
ト像は再結像レンズ21によってアレイセンサー23付近に
結像するわけだが、その際、瞳分割屋根型プリズム22
(図5に立体図を示す…図1と図2ではその稜が紙面に
垂直にかいてあるが、それは表現の便宜のためであり、
実際は光軸のまわりに90°回転していて稜が紙面と平行
になるように配設されている)によって光束は2分さ
れ、各々の光束はアレイセンサー23(プリズム22の稜の
方向に合わせてアレイセンサー23のセルの配列方向が紙
面に直交するように配設される)の違った部分に結像さ
れる。
FIG. 2 shows only the focusing information detecting optical system in FIG. In the present embodiment, the focus information is obtained even for zooming and zooming, but for the sake of explanation, an operation at a certain magnification will be described, and then a device for zooming and zooming will be described. As shown by the solid line in FIG. 2, the slit image projected on the fundus serves as a secondary light source and serves as an objective lens.
After being imaged once by 11, the aperture of the perforated mirror 9,
After passing through the aperture stop 10 and the focusing relay lens 13, the light is reflected by a dichroic mirror 14 that transmits infrared light and visible light, and then an image is formed in the vicinity of the field stop 19. The field stop 19 is conjugated with the array sensor 23 by the re-imaging lens 21, and the array sensor 23 is conjugated with the imaging surface (observation image surface is not shown) 15. Therefore, the slit image from the fundus is imaged in the vicinity of the array sensor 23 by the re-imaging lens 21, but at that time, the pupil division roof type prism 22
(A three-dimensional view is shown in FIG. 5 ... In FIG. 1 and FIG. 2, the edges are drawn perpendicularly to the paper surface, which is for convenience of expression.
Actually, it is rotated by 90 ° around the optical axis and is arranged so that the ridge is parallel to the paper surface.) The light flux is divided into two parts, and each light flux is aligned with the direction of the ridge of the prism 22. Are arranged so that the cell array direction of the array sensor 23 is orthogonal to the paper surface).

【0012】ここで図2の点線で示すように、瞳分割プ
リズム22のプリズムの稜は、合焦リレーレンズ13と視野
絞り19の背後のフィールドレンズ20によって開口絞り10
とほぼ共役になっている。この開口絞り10は合焦光学系
の射出瞳に相当するので、アレイセンサー23上の像はこ
の光学系の瞳の異なった2つの部分からの光束によって
結像したものとなり、このようにして得られた2つの像
は良く知られているように前ピン、後ピンによって互い
に横ずれを起こす。従って合焦状態の検出は、アレイセ
ンサー23上での2つの像の間隔を測定することによって
行うことができる。すなわち図6に実線で示した如く、
合焦時に2つの像の間隔がLだったとすると、合焦点が
視野絞り19より後方の場合(図6では点線)では、像間
隔は図6に点線で示した如く、Lよりも狭くなり、合焦
点が視野絞り19より前方の場合は像間隔はLよりも広く
なる。
Here, as shown by the dotted line in FIG. 2, the ridge of the prism of the pupil division prism 22 is formed by the focusing relay lens 13 and the field lens 20 behind the field diaphragm 19 and the aperture diaphragm 10.
Is almost conjugated with. Since the aperture stop 10 corresponds to the exit pupil of the focusing optical system, the image on the array sensor 23 is formed by the light fluxes from the two different parts of the pupil of the optical system. As is well known, the obtained two images are laterally offset from each other by the front pin and the rear pin. Therefore, the focus state can be detected by measuring the distance between the two images on the array sensor 23. That is, as shown by the solid line in FIG.
Assuming that the distance between the two images at the time of focusing is L, when the focal point is behind the field stop 19 (dotted line in FIG. 6), the image distance becomes narrower than L as shown by the dotted line in FIG. When the focal point is in front of the field stop 19, the image interval is wider than L.

【0013】ここで像の間隔を測る場合、像自体がコン
トラストの良い良好な結像状態であれば、2つの像位置
の間隔は簡単にはかれる。しかし実際には、アレイセン
サー23上にはデフォーカスした状態で結像する場合が多
く、必ずしも良い像が得られるとは限らない。そこで、
このような条件の悪い場合であっても、像の横変位を正
確に抽出するために特開昭54−68667 号公報等に提案さ
れている方法を使う。
Here, when the distance between the images is measured, the distance between the two image positions can be easily determined if the image itself is in a good image-forming state with good contrast. However, in practice, an image is often formed on the array sensor 23 in a defocused state, and a good image is not always obtained. Therefore,
Even under such bad conditions, the method proposed in Japanese Patent Laid-Open No. 54-68667 is used to accurately extract the lateral displacement of the image.

【0014】これはアレイセンサー23上の像をフーリエ
変換し、その位相成分を抽出して、フーリエ変換の推移
定理により横ずれを求める方法である。アレイセンサー
23上での像の強度を位置Xの関数f(x)とすれば、像
が変位する前の関数f(x)のフーリエ変換F1 は空間
周波数をSとして式(1)のように表すことができる。
This is a method in which the image on the array sensor 23 is Fourier transformed, the phase component thereof is extracted, and the lateral shift is obtained by the transition theorem of Fourier transform. Array sensor
Assuming that the intensity of the image on 23 is the function f (x) of the position X, the Fourier transform F 1 of the function f (x) before the displacement of the image is represented by the equation (1) where S is the spatial frequency. be able to.

【0015】[0015]

【数1】 [Equation 1]

【0016】この像が横にαだけ変位した場合のフーリ
エ変換F2 は推移定理により式(2)のようになる。
The Fourier transform F 2 when this image is laterally displaced by α is given by equation (2) according to the transition theorem.

【0017】[0017]

【数2】 [Equation 2]

【0018】式(1)と(2)をくらべると変位によっ
てフーリエ成分の大きさは変わらず、位相だけが2πas
ずれるので、ずれた位相をΔθとすると、Δθを知るこ
とにより変位αが式(3)のように求まる。
Comparing equations (1) and (2), the magnitude of the Fourier component does not change due to the displacement, and only the phase is 2πas.
Since there is a shift, assuming that the shifted phase is Δθ, the displacement α can be obtained as in equation (3) by knowing Δθ.

【0019】[0019]

【数3】 [Equation 3]

【0020】これを具体的に実現するには、空間周波数
をアレイセンサー23上でのサンプル長lの逆数(1/
1)として離散的フーリエ変換(DET)を行う。すなわち
図7で示したように、アレイセンサー23上の2つのスリ
ット像のうちの一方の像についてアレイセンサー23上の
各セルに入射する光量に対応した電気信号をI1 、セル
のサンプル数をN1 サンプルした部分のアレイセンサー
23の長さを1として次の電気量をIx、Iyを求める。
In order to realize this concretely, the spatial frequency is calculated by reciprocal of the sample length l on the array sensor 23 (1 /
As 1), discrete Fourier transform (DET) is performed. That is, as shown in FIG. 7, I 1 is an electric signal corresponding to the amount of light incident on each cell on the array sensor 23 for one of the two slit images on the array sensor 23, and the number of sampled cells is N 1 sampled array sensor
With the length of 23 set to 1, the next electric quantities Ix and Iy are obtained.

【0021】[0021]

【数4】 [Equation 4]

【0022】[0022]

【数5】 [Equation 5]

【0023】このIx、Iyはアレイセンサー23上の像のう
ち、空間周波数1/lのフーリエ成分の実部(Ix)と虚
部(Iy)にN/1を乗じたものになっている。従って、
このIx、Iyによりフーリエ成分の位相偏角θが(6)の
ように求まる。
These Ix and Iy are obtained by multiplying the real part (Ix) and the imaginary part (Iy) of the Fourier component of the spatial frequency 1 / l in the image on the array sensor 23 by N / 1. Therefore,
From Ix and Iy, the phase deviation angle θ of the Fourier component is obtained as shown in (6).

【0024】[0024]

【数6】 [Equation 6]

【0025】像の横変位がおこればこの位相偏角θが変
位することになり、演算により求めたθの変化分は式
(3)に従って横変位になおすことができる。そこで位
相偏角θにより次の距離dを式(7)のように定義す
る。
When the image is laterally displaced, the phase deviation angle θ is displaced, and the amount of change in θ obtained by the calculation can be corrected to the lateral displacement according to the equation (3). Therefore, the following distance d is defined by the phase deviation angle θ as in Expression (7).

【0026】[0026]

【数7】 [Equation 7]

【0027】この距離dをアレイセンサー23上の2つの
スリット像について各々求め、それにより2つのスリッ
ト像の間隔を算出して、これを合焦時の間隔と比較する
ことによって合焦情報を得ることができる。図1に示し
たように、アレイセンサー23からは駆動手段24からの信
号によって各セルが順次駆動され、各セルに対応した光
電変換信号が順次出力される。この出力から演算手段25
によって上記演算を行なわせ、その結果に基づいてモー
タ駆動手段26によりモータMを駆動し、合焦リレーレン
ズ13を光軸方向へ動かして合焦させる。
This distance d is calculated for each of the two slit images on the array sensor 23, the distance between the two slit images is calculated, and the focus information is obtained by comparing this distance with the focus distance. be able to. As shown in FIG. 1, the array sensor 23 sequentially drives each cell by the signal from the driving unit 24, and sequentially outputs photoelectric conversion signals corresponding to each cell. From this output, computing means 25
Then, the motor M is driven by the motor driving means 26 based on the calculation result, and the focusing relay lens 13 is moved in the direction of the optical axis for focusing.

【0028】上述の処理を行う電気処理系を図8のブロ
ック図に示すと共に、その動作を図9及びマイクロコン
ピュータ252のフローチャートである図10、図11によっ
て説明する。図8のブロック図において図1と同一部材
には同一符号を付すが、アレイセンサー23は例えば電荷
結合素子(CCD)と呼ばれるものであって、周知の駆動手
段24からのスタート信号(図9(b))に引き続くクロ
ックパルス(図9(c))によって各セルが駆動され
る。すなわちスタート信号が生じた後、一番目のパルス
1 でアレイセンサー23(図9(a))の一番目のセル
1 に入射した光量に応じた電気信号がアレイセンサー
23により出力される。また、たとえば7番目のパルスP
7 で7番目のセルC7 に入射した光量に応じた電気信号
が出力される。
An electric processing system for performing the above processing is shown in the block diagram of FIG. 8, and its operation will be described with reference to FIG. 9 and the flowcharts of the microcomputer 252 shown in FIGS. In the block diagram of FIG. 8, the same members as those in FIG. 1 are denoted by the same reference numerals, but the array sensor 23 is called, for example, a charge coupled device (CCD), and a start signal from a well-known driving means 24 (see FIG. Each cell is driven by the clock pulse (FIG. 9C) following b)). That is, after the start signal is generated, an electric signal corresponding to the amount of light incident on the first cell C 1 of the array sensor 23 (FIG. 9A) by the first pulse P 1 is an array sensor.
Output by 23. Also, for example, the seventh pulse P
At 7 , an electric signal corresponding to the amount of light incident on the seventh cell C 7 is output.

【0029】ところでアレイセンサー23から出力される
電気信号をみてみると、各種の雑音成分が含まれてい
る。つまりアレイセンサー23に入射する光束には得たい
信号成分としての眼底の投影したスリット像からの光束
Sと不要な雑音成分としての観察N1 、迷光N2 等の光
束がある。さらにアレイセンサー23自身の暗電流による
雑音成分N3 がある。したがって、アレイセンサー23か
ら出力される電気信号はS+N1 +N2 +N 3 というこ
とになる(図13(a))。以上は指標投影用光源駆動回
路253 によって指標投影用光源16を点灯した場合だが、
次に指標投影用光源16を消灯した場合について考えてみ
ると、アレイセンサー23から出力される電気信号は不要
な雑音成分としての観察光N1 、迷光N2 、暗電流N3
の合成信号N1 +N2 +N3 である(図13(b))。そ
こで指標投影用光源16を点灯したときのアレイセンサー
23の出力(図13(a))と指標投影用光源16を消灯した
ときのアレイセンサー23の出力(図13(b))との差を
とることで、信号成分Sだけを得ることができる(図13
(c))。
Output from the array sensor 23
Looking at the electrical signal, it contains various noise components.
It In other words, we want to obtain the light flux that enters the array sensor 23
Light flux from the slit image projected on the fundus as a signal component
S and observation N as an unnecessary noise component1, Stray light N2Light of etc
There is a bunch. Furthermore, due to the dark current of the array sensor 23 itself
Noise component N3There is. Therefore, the array sensor 23
The electrical signal output from S + N1+ N2+ N 3That
(Fig. 13 (a)). The above is the driving time for the light source for index projection
When the light source 16 for index projection is turned on by the path 253,
Next, consider the case where the light source 16 for index projection is turned off.
Then, the electric signal output from the array sensor 23 is unnecessary.
Observation light N as a significant noise component1, Stray light N2, Dark current N3
Composite signal N1+ N2+ N3(FIG. 13 (b)). So
Array sensor when the index projection light source 16 is turned on
The output of 23 (Fig. 13 (a)) and the light source 16 for index projection were turned off.
Difference from the output of the array sensor 23 (Fig. 13 (b))
By taking this, only the signal component S can be obtained (see FIG. 13).
(C)).

【0030】指標投影用光源16を点灯したときと消灯し
たときのアレイセンサー23の出力の差をとる方法につい
て説明する。アレイセンサー23によって光電変換された
電気信号は、アレイセンサー23の蓄積時間Tint 毎に出
力される。そこで指標投影用光源16をあらかじめ消灯
し、一回目に点灯する期間T(<Tint)をT0 としてお
き、(図10のステップ100)すくなくとも一蓄積時間Tin
t 経過後のN番目のスタートパルス(図14(a))に同
期して(図10のステップ101)指標投影用光源16を点灯す
ると(図10のステップ102)ここで出力されるアレイセン
サー23の出力は光源16が消灯時に光電変換した値であり
図13(b)の雑音成分となる。アレイセンサー23から出
力された信号は増幅器250 等を経てA/D変換器251 に
よってデジタル信号に変換される。このデジタル信号は
マイクロコンピュータ252 に入力される。すなわちマイ
クロコンピュータ252 はアレイセンサー23の走査に同期
してA/D変換器251 の出力Ii を読み込み、各セルに
対応させてその出力を内蔵したメモリM1-1 、M2-1
記憶する。(図10のステップ103)。ここでメモリM1-1
は図9(a)に示した如く、アレイセンサー23のほぼ左
半分にある長さl1 のセル群からの信号を記憶し、メモ
リM2-1 は同様にアレイセンサー23のほぼ右半分にある
長さl2 のセル群からの信号を記憶することになる。マ
イクロコンピュータ252 は光源16が点灯してから所定期
間Tが経過したことを検出し(図10のステップ104)、光
源16を消灯する(図10のステップ105)。次にN+1番目
のスタートパルスに同期されるアレイセンサー23の出力
は光源16が消灯時に光電変換した値であり、図13(a)
の信号成分+雑音成分となる(図10のステップ106)。こ
の出力された信号は雑音成分だけのときの処理と同様に
してメモリM1-2 、M2-2 に記憶される(図10のステッ
プ107)。図10のステップ105 における指標投影用光源16
の消灯のタイミングは後述することとして、次にマイク
ロコンピュータ252 はメモリM1-1 、M1-2 、M2- 1
2-2 、の記憶値が所定値以上か否かの判断を行ない。
(図10のステップ108)、所定値以下であれば上記記憶値
のうちメモリM1-2 からメモリM1-1 の差をとりメモリ
1 に記憶し、メモリM2-2 からメモリM2-1 との差を
とりメモリM 2 に記憶する(図10のステップ109)。そし
て、メモリM1 、M2 に記憶された値の大きさから、次
に光源16を点灯する期間Tを決定する(図10のステップ
110)。
When the index projection light source 16 is turned on and off
The difference in the output of the array sensor 23 when
Explain. Photoelectrically converted by the array sensor 23
The electric signal is output at every storage time Tint of the array sensor 23.
I will be forced. Therefore, the light source 16 for index projection is turned off in advance.
Then, the period T (<Tint) during the first lighting is T0As
(Step 100 in FIG. 10) At least one storage time Tin
Same as the Nth start pulse (Fig. 14 (a)) after t
In time (step 101 in FIG. 10), the index projection light source 16 is turned on.
Then (step 102 in FIG. 10), the array sensor output here is output.
The output of the sensor 23 is the value photoelectrically converted when the light source 16 is off.
It becomes the noise component of FIG. 13 (b). Output from array sensor 23
The input signal is sent to the A / D converter 251 via the amplifier 250 and so on.
Therefore, it is converted into a digital signal. This digital signal is
Input to the microcomputer 252. Ie my
Black computer 252 is synchronized with scanning of array sensor 23
The output I of the A / D converter 251iRead in each cell
Corresponding memory M with built-in output1-1, M2-1To
Remember. (Step 103 in FIG. 10). Memory M here1-1
Is almost left of the array sensor 23 as shown in FIG.
Half length l1Memorize the signal from the cell group of
Re M2-1Is also in the right half of array sensor 23
Length l2The signal from the cell group will be stored. Ma
Microcomputer 252 has been in the predetermined period since the light source 16 was turned on.
It is detected that the time T has passed (step 104 in FIG. 10), and
Turn off the source 16 (step 105 in FIG. 10). Next N + 1
Array sensor 23 output synchronized to the start pulse of
Is a value obtained by photoelectric conversion when the light source 16 is turned off.
Signal component + noise component (step 106 in FIG. 10). This
The output signal of is similar to the processing when only the noise component
And memory M1-2, M2-2Stored in the
107). Light source 16 for index projection in step 105 of FIG.
The timing of turning off the light will be described later.
The computer 252 is a memory M1-1, M1-2, M2- 1,
M2-2It is determined whether or not the stored value of, is greater than or equal to a predetermined value.
(Step 108 in FIG. 10), if the value is less than or equal to the predetermined value, the stored value
Out of memory M1-2To memory M1-1The difference between the memory
M1Stored in the memory M2-2To memory M2-1Difference from
Tori memory M 2(Step 109 in FIG. 10). That
Memory M1, M2From the magnitude of the value stored in
The period T for turning on the light source 16 is determined (step in FIG. 10).
110).

【0031】次にマイクロコンピュータ252 はメモリM
1 の記憶値によって式(4)、式(5)、式(6)、式
(7)の演算を順次行ない、求めた距離d1 をメモリM
3 に記憶させる(図11のステップ111)。また同様にメモ
リM2 の記憶値より求めた距離d2 をメモリM4 に記憶
させる(図11のステップ112)。次にマイクロコンピュー
タ252 はメモリM3 、M4 の記憶値d1 、d2 と距離l
1 との間で演算(l1 −d1 +d2 )を行なう(図11の
ステップ113)。そしてステップ113 で求めた値(l−d
1 +d2 )……この値は2つのスリット像の間隔に相当
する……を合焦時の間隔と比較してその差を求め、この
差を合焦情報として用いればよい。
Next, the microcomputer 252 has a memory M.
The equation (4), the equation (5), the equation (6), and the equation (7) are sequentially calculated according to the stored value of 1 , and the obtained distance d 1 is stored in the memory M.
It is stored in 3 (step 111 in FIG. 11). Similarly, the distance d 2 obtained from the stored value of the memory M 2 is stored in the memory M 4 (step 112 in FIG. 11). Next, the microcomputer 252 determines the stored values d 1 and d 2 of the memories M 3 and M 4 and the distance l.
The calculation (l 1 −d 1 + d 2 ) is performed with respect to 1 (step 113 in FIG. 11). Then, the value obtained in step 113 (ld
1 + d 2 ) ... This value corresponds to the distance between two slit images, and is compared with the distance at the time of focusing to find the difference, and this difference may be used as focusing information.

【0032】モーター駆動手段26はマイクロコンピュー
タ252 から出力された合焦情報に応じて異なった周波数
のパルス信号をモータMに入力する。その際モーターM
に入力される信号の周波数は合焦用リレーレンズ13が合
焦位置から大きくはずれるときは大きく従ってモーター
Mは急速に回転し、合焦用リレーレンズ13が合焦位置に
近づくとパルス信号が小さく、モーターMは低速に回転
し合焦位置でモーターMがすみやかに停止するように制
御される。
The motor driving means 26 inputs a pulse signal having a different frequency to the motor M according to the focus information output from the microcomputer 252. At that time, motor M
The frequency of the signal input to is large when the focusing relay lens 13 largely deviates from the in-focus position. Therefore, the motor M rapidly rotates, and the pulse signal becomes small when the focusing relay lens 13 approaches the in-focus position. The motor M is controlled to rotate at a low speed so that the motor M immediately stops at the in-focus position.

【0033】以下、上述のフローチャートのステップ10
8 、110 及び変倍に応じた合焦制御について詳述する。
ステップ108 はまばたき等によりアレイセンサー23の入
射光量が大きくなった時に、合焦制御不能として再び測
定値を取り直すための判断を行なっており、入射光量が
所定値以下ならば一応合焦制御可能としている。ところ
で眼底は、部位により反射率がかなり異なる。例えば乳
頭部の反射率は黄班部のそれにくらべて10倍くらい大き
い。そのために、光源16の出力を合焦検出系で得られた
メモリM1 、M2 の記憶値の最大値を一定のレベルにな
るようにコントロールしないと黄班部では光量が不足あ
るいは乳頭部では光量過剰の為にアレイセンサー23が飽
和を起こす可能性が出てくる。そこで合焦検出系で上述
のレベルが一定になるようにする為には、アレイセンサ
ー23が蓄積時間をコントロールすることでもある程度可
能であるが、蓄積時間をコントロールすると暗電流を影
響でアレイセンサー23のダイナミックレンジを小さくし
てしまうことになる。そこでステップ110 では、蓄積時
間は一定のままつまり−蓄積時間内で光源16の点灯時間
Tを指標投影用光源駆動回路253 を介してコントロール
することで、一定のレベルの信号を得ている。既に述べ
たように、図14(a)はスタートパルス、図14(b)は
光源16の消灯期間と点灯期間の関係で、例えば期間T1
は合焦検出系で信号レベルが大きい場合の光源16の点灯
時間を示している。また期間T 2 はレベルが小さい場合
の光源16の点灯時間を示している。しかし実際にこれを
実現しようとすると、人間の眼に入射可能な光源の輝度
には限界があるので、アレイセンサー23の出力した電気
信号を増幅する増幅器250 等を利得が可能なプログラマ
ブルアンプと、アンプの利得をマイクロコンピュータ25
2 によってコントロールすることにより、光源の輝度と
点灯時間のコントロールと合わせて非常に小さい信号か
ら大きい信号までを少ない部分で実現するようにしても
よい。
Step 10 of the above flow chart will be described below.
8, 110 and focusing control according to zooming will be described in detail.
Step 108 turns on the array sensor 23 by blinking.
When the amount of light becomes large, the focus cannot be controlled and the measurement is performed again.
Judgment is made to restore the constant value, and the incident light quantity
If it is less than a predetermined value, focus control is possible. By the way
The reflectance of the fundus differs considerably depending on the site. For example milk
The reflectance of the head is about 10 times larger than that of the macula.
Yes. Therefore, the output of the light source 16 was obtained by the focus detection system.
Memory M1, M2The maximum value of the memorized value of the
If you do not control it like this, the light intensity will be insufficient in the macular region.
The array sensor 23 gets tired due to excessive light on the nipple or the nipple.
There is a possibility of harmony. Therefore, in the focus detection system described above
In order to maintain a constant level, the array sensor
-23 can be controlled to some extent by controlling the accumulation time
However, controlling the storage time will affect the dark current.
Sound to reduce the dynamic range of the array sensor 23.
Will be lost. Therefore, in step 110,
The light source 16 turns on within the accumulation time.
Control T via the index projection light source drive circuit 253
By doing so, a signal of a constant level is obtained. Already mentioned
As shown in Fig. 14 (a), the start pulse and Fig. 14 (b) are
In the relationship between the turn-off period and the turn-on period of the light source 16, for example, the period T1
Is the focus detection system and turns on the light source 16 when the signal level is high.
Showing the time. Also period T 2If the level is small
The lighting time of the light source 16 is shown. But actually this
Brightness of the light source that can enter the human eye when trying to realize
Since there is a limit to the
Programmer capable of gaining the amplifier 250 etc. for amplifying the signal
The gain of the bull amplifier and the amplifier
By controlling with 2
Is it a very small signal combined with the control of the lighting time?
Even if you realize a large signal from a small portion
Good.

【0034】次に変倍、ズームについて述べる。変倍、
ズームにおいても合焦検出ができるように光学設計上次
のような工夫を行なった。変倍、ズームを行なうとアレ
イセンサー23上での合焦位置も指標像の大きさもわか
る。図12に変倍されたときのアレイセンサー23上での像
の移動を示す。(被検眼OD)アレイセンサー23の大きさ
を十分に考慮し、高倍時において被検眼視度による移動
(アレイセンサー23上での像の横変位)は底倍時よりも
大きいので、実用的な被検眼視度(±15D程度)を満足
するように合焦検出光学系の倍率(フィールドレンズ20
と再結像レンズ21によって定める)と指標の大きさ(ス
リット)を決める。ここで注意しなければならないの
は、瞳分割された2つのスリット像はかさならないよう
にすることである。
Next, zooming and zooming will be described. Scaling,
The following ideas were made in the optical design so that the focus can be detected even when zooming. When the magnification is changed and the zoom is performed, the focus position on the array sensor 23 and the size of the index image can be known. FIG. 12 shows the movement of the image on the array sensor 23 when the magnification is changed. (Inspection eye OD) Considering the size of the array sensor 23 sufficiently, the movement due to the diopter of the eye (horizontal displacement of the image on the array sensor 23) at the time of high magnification is larger than that at the time of bottom magnification, so that it is practical The magnification of the focus detection optical system (field lens 20) so that the eye diopter (about ± 15D) is satisfied.
And the size of the index (slit) is determined. It should be noted here that the two slit images divided into the pupils should not be bulky.

【0035】このようにして構成した変倍、スムーズで
の合焦検出の動作は以下の如くである。たとえば、今変
倍として3変倍を行なうものを例にとる。その場合に
は、ターレット等により、図1、図2の合焦用リレーレ
ンズ13を他の合焦用リレーレンズ13aに置き換えればよ
い。
The operation of focus detection with variable magnification and smoothness thus configured is as follows. For example, let us take an example of a case where the variable magnification is 3 times. In that case, the focusing relay lens 13 in FIGS. 1 and 2 may be replaced with another focusing relay lens 13a by a turret or the like.

【0036】a倍(低倍)、b倍(中倍)、c倍(高
倍)に対応する合焦間隔A、B、Cをマイクロコンピュ
ータに記憶させておき、眼底観察装置から変倍の情報を
受け(図11のステップ114 、115)それによってステップ
113 で求めた演算結果をそれぞれの倍率時における合焦
間隔と比較し(図11のステップ116 、117 、118)、合焦
情報を得ればよい(図11のステップ119)。またズームの
場合も同様に、ズーミングしたときのアレイセンサー23
上でのそれぞれの倍率時での合焦位置の変動をある曲線
にのせるなりして、それをマイクロコンピュータに記憶
させ、ズームの情報を眼底観察装置からうけてその倍率
時での位置を求め、ステップ114 ないしステップ119 に
のべたと同様の処理を行なえばよい。
Focusing intervals A, B, and C corresponding to a-times (low-magnification), b-times (medium-times), and c-times (high-times) are stored in a microcomputer, and information of magnification change is obtained from a fundus observation device. (Steps 114 and 115 in Fig. 11)
The calculation result obtained in 113 is compared with the focusing interval at each magnification (steps 116, 117 and 118 in FIG. 11) to obtain the focusing information (step 119 in FIG. 11). Similarly, when zooming, the array sensor 23
The variation of the in-focus position at each magnification above is put on a curve, stored in a microcomputer, and the zoom information is received from the fundus observation device to obtain the position at that magnification. The same processing as that described in steps 114 to 119 may be performed.

【0037】ここで各種雑音成分N1 、N2 、N3 を除
く方法を前述したが、先の方法では1回の処理をするの
に最低2蓄積時間必要だった、そこでより短い時間で処
理する方法について述べる。蓄積時間を2段階に可変で
きるアレイセンサー駆動手段であって、つまり光源16が
点灯している時の蓄積時間をTinton として図14(a)
と同じ蓄積時間すなわちT2 に定める。また消灯してい
る時の蓄積時間をTintoffとして、Tintoff<Tinton
となるように設定しておくこととする。
Here, the method of removing the various noise components N 1 , N 2 and N 3 has been described above. However, in the previous method, at least 2 accumulation times were required to perform one processing. How to do is described. FIG. 14 (a) shows an array sensor driving means capable of varying the accumulation time in two steps, that is, the accumulation time when the light source 16 is turned on is Tinton.
The same accumulation time, that is, T 2 is set. Also, assuming that the storage time when the light is off is Tintoff, Tintoff <Tinton
It will be set so that

【0038】このようにして前述の方法で信号成分だけ
を得ようとしても蓄積時間の長さが点灯、消灯時で異な
っている為に正確な信号成分は得られない。すなわち、
アレイセンサー23の光電出力は入射光量だけでなく蓄積
時間にも比例するからである。そこであらかじめアレイ
センサー23の暗時出力値を蓄積時間をTinton とTinto
ffとで測定して、その値をNintonとNintoff としてメモ
リーに記憶しておく(アレイセンサー23の出力=入射光
量による光電変換成分+暗時出力成分)。
In this way, even if only the signal component is obtained by the above-mentioned method, the accurate signal component cannot be obtained because the length of the accumulation time differs depending on whether the light is on or off. That is,
This is because the photoelectric output of the array sensor 23 is proportional to not only the amount of incident light but also the storage time. Therefore, the dark output value of the array sensor 23 is stored in advance as Tinton and Tinto.
It is measured by ff and is stored in the memory as Ninton and Nintoff (output of array sensor 23 = photoelectric conversion component by incident light amount + dark output component).

【0039】またアレイセンサー23の同一入射量による
蓄積時間Tinton とTintoffとの光電変換の比例定数K
を測定しておき、メモリーに記憶させておく。このよう
にして消灯時にアレイセンサーに蓄積された信号成分を
読み出すときに読み出されたアレイセンサーデータSint
off に対して(Sintoff −Nintoff)×Kを計算する。点
灯時のデータをSintonに対して(Sinton−Ninton)を計
算し、さらに(Sinton−Ninton)−(Sintoff −Nintof
f)×Kを求めることによって信号成分だけを得ることが
できる。
Further, the proportional constant K of photoelectric conversion between the accumulation times Tinton and Tintoff for the same incident amount of the array sensor 23.
Is measured and stored in memory. In this way, the array sensor data Sint read when reading the signal component accumulated in the array sensor when the light is turned off
Calculate (Sintoff-Nintoff) * K for off. (Sinton−Ninton) − (Sintoff−Nintof) is calculated for the data at the time of lighting with respect to Sinton.
Only the signal component can be obtained by obtaining f) × K.

【0040】暗時出力値が信号成分に対して無視できる
ようであれば(Sinton−Sintoff)×Kを求めることでも
十分である。それならばアレイセンサー駆動手段と同期
してA/Dコンバータの基準電源VrefをTinton とTin
toffとの光電変換の比例定数Kの割合でつまりVrefonと
Vrefoff (Vrefon=Vrefoff ×K)とに切り替えるか、
VrefonとVrefoff を基準電源とした2つのA/Dコンバ
ータを使用して、A/Dコンバータを切り替えるように
すれば、光源16が消灯時に蓄積されたアレイセンサー出
力を読み取った後に比例定数Kを乗ずる必要もなく、さ
らに蓄積時間を短くすることによって出力値が小さくな
り、それによるダイナミックレンジの低下を避けること
もできる。
If the dark output value can be ignored for the signal component, it is sufficient to obtain (Sinton-Sintoff) × K. In that case, the reference power source Vref of the A / D converter is set to Tinton and Tin in synchronization with the array sensor driving means.
Ratio of proportional constant K of photoelectric conversion with toff, that is, Vrefon
Switch to Vrefoff (Vrefon = Vrefoff × K),
If two A / D converters using Vrefon and Vrefoff as reference power supplies are used to switch the A / D converters, the proportional constant K is multiplied after reading the array sensor output accumulated when the light source 16 is turned off. It is not necessary, and the output value becomes smaller by further shortening the accumulation time, and it is possible to avoid a decrease in the dynamic range due to that.

【0041】なお、以上の説明では指標板18を指標投影
用光源16によって背後から照明し、指標板18のスリット
を発光指標として用いていたが、スリットの代わりに長
方形の発光体を設け、この発光体を発光指標として用い
ても良いことは勿論である。また、指標の光量を変化さ
せるためには他の種々の光量調節手段、例えば絞りやND
フィルターを用いることも同様に考えることができる。
In the above description, the index plate 18 is illuminated from behind by the index projection light source 16 and the slit of the index plate 18 is used as a light emitting index. However, a rectangular light emitter is provided instead of the slit. Needless to say, the light emitting body may be used as the light emitting index. In addition, in order to change the light amount of the index, various other light amount adjusting means such as a diaphragm and ND
The use of filters can be considered as well.

【0042】[0042]

【発明の効果】以上のように本発明を実施することによ
り光学的ノイズ(観察光によるノイズや迷光等)や電気
的ノイズを除くことができ、また指標の光量をコントロ
ールすることにより眼底のどこでも正確な合焦検出がで
きるようになった。
As described above, by carrying out the present invention, optical noise (noise due to observation light, stray light, etc.) and electrical noise can be eliminated, and by controlling the light amount of the index, it can be anywhere on the fundus. Accurate focus detection is now possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例を有する眼底カメラの光学系
及び電気ブロックを示す図
FIG. 1 is a diagram showing an optical system and an electric block of a fundus camera having an embodiment of the present invention.

【図2】図1のうち、合焦検出光学系および観察光学系
のみを示した図
FIG. 2 is a diagram showing only a focus detection optical system and an observation optical system in FIG.

【図3】リングスリットの拡大平面図FIG. 3 is an enlarged plan view of a ring slit.

【図4】指標を有する指標の拡大平面図FIG. 4 is an enlarged plan view of an index having an index.

【図5】瞳分割屋根形プリズムの拡大斜視図FIG. 5 is an enlarged perspective view of a pupil division roof prism.

【図6】合焦情報検出光学系の主要部拡大図FIG. 6 is an enlarged view of the main part of the focusing information detection optical system.

【図7】アレイセンサー上の光像の強度分布を示す図FIG. 7 is a diagram showing an intensity distribution of a light image on an array sensor.

【図8】図1の電気ブロックの詳細図FIG. 8 is a detailed view of the electric block of FIG.

【図9】アレイセンサーの駆動状態を示す図FIG. 9 is a diagram showing a drive state of an array sensor.

【図10】図8で用いたマイクロコンピュータの作動を説
明するためのフローチャート
10 is a flowchart for explaining the operation of the microcomputer used in FIG.

【図11】図8で用いたマイクロコンピュータの作動を説
明するためのフローチャート図10の続き
11 is a flowchart for explaining the operation of the microcomputer used in FIG. 8 continued from FIG.

【図12】変倍したときの合焦時のスリット像の移動(被
検眼OD)を示す図
FIG. 12 is a diagram showing movement of a slit image (inspection eye OD) during focusing when zooming.

【図13(a)、(b)、(c)】信号成分+不要な雑音
成分(a)、不要な雑音成分(b)、信号成分(c)を
各々示す図
13 (a), (b), (c)] Diagrams showing signal component + unwanted noise component (a), undesired noise component (b), and signal component (c), respectively.

【図14(a)、(b)】スタートパルス(a)、光源16
の消灯期間と点灯期間の関係(b)を示す図
14 (a), (b): Start pulse (a), light source 16
Showing the relationship (b) between the extinguishing period and the lighting period of

【図15(a)、(b)】スタートパルス(a)の光源16
の消灯期間と点灯期間の関係(b)を示す図
15 (a), (b): Light source 16 for start pulse (a)
Showing the relationship (b) between the extinguishing period and the lighting period of

【主要部分の符号の説明】[Explanation of symbols for main parts]

7 ダイクロイックプリズム 8 リングスリット用リレーレンズ 9 穴あきミラー 10 開口絞り 11 対物レンズ 13 リレーレンズ 13a 変倍リレーレンズ 14 ダイクロイックミラー 16 指標投影用光源 17a、17b 指標投影系用リレーレンズ 18 指標板 19 視野絞り 20 フィールドレンズ 21 再結像レンズ 22 瞳分割屋根形プリズム 23 アレイセンサー 24 駆動手段 25 演算手段 26 モーター駆動手段 M モーター 252 マイクロコンピュータ 253 指標投影用光源駆動回路 7 Dichroic prism 8 Relay lens for ring slit 9 Perforated mirror 10 Aperture stop 11 Objective lens 13 Relay lens 13a Variable magnification relay lens 14 Dichroic mirror 16 Light source for index projection 17a, 17b Index projection system relay lens 18 Index plate 19 Field stop 20 field lens 21 re-imaging lens 22 pupil-split roof prism 23 array sensor 24 driving means 25 computing means 26 motor driving means M motor 252 microcomputer 253 light source driving circuit for index projection

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 被検眼眼底に発光指標を投影する指標投
影光学系と被検眼眼底の前記指標を受光する光電変換器
を有し、該光電変換器の出力によって、合焦情報を検出
する合焦情報検出光学系とを備えた眼底観察装置の合焦
検出装置において、前記指標を投影するか否かを選択す
る選択手段と、前記指標の投影時に前記光電変換器から
得られる第1の信号と前記指標の非投影時に前記光電変
換器から得られる第2の信号との差信号を求め、該差信
号から合焦信号を出力する減算手段と、前記光電変換器
の蓄積時間を2段階に可変できる駆動手段と、を設けた
ことを特徴とする合焦検出装置。
1. An index projection optical system for projecting a luminescent index onto the fundus of the eye to be examined and a photoelectric converter for receiving the index of the fundus of the eye to be examined, and a focus information is detected by the output of the photoelectric converter. In a focus detection device of a fundus oculi observation device including a focus information detection optical system, selection means for selecting whether or not to project the index, and a first signal obtained from the photoelectric converter when projecting the index. And a subtraction means for obtaining a difference signal between the second signal obtained from the photoelectric converter when the index is not projected, and outputting a focusing signal from the difference signal, and a storage time of the photoelectric converter in two stages. A focus detection device comprising: a variable drive unit.
JP7103885A 1995-04-27 1995-04-27 Focus detection device for fundus observation device Expired - Lifetime JP2803594B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7103885A JP2803594B2 (en) 1995-04-27 1995-04-27 Focus detection device for fundus observation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7103885A JP2803594B2 (en) 1995-04-27 1995-04-27 Focus detection device for fundus observation device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP60181421A Division JPH0624517B2 (en) 1985-08-19 1985-08-19 Focus detection device of fundus observation device

Publications (2)

Publication Number Publication Date
JPH07313464A true JPH07313464A (en) 1995-12-05
JP2803594B2 JP2803594B2 (en) 1998-09-24

Family

ID=14365895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7103885A Expired - Lifetime JP2803594B2 (en) 1995-04-27 1995-04-27 Focus detection device for fundus observation device

Country Status (1)

Country Link
JP (1) JP2803594B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100923843B1 (en) * 2006-11-29 2009-10-27 캐논 가부시끼가이샤 Focusing unit and ophthalmic photographing apparatus
JP2012522594A (en) * 2009-04-01 2012-09-27 テイアサイエンス・インコーポレーテツド Ocular surface interference spectroscopy (OSI) apparatus, system and method for imaging, processing and / or displaying ocular tear film and / or measuring ocular tear film layer thickness
JP2014519943A (en) * 2011-07-14 2014-08-21 コーニンクレッカ フィリップス エヌ ヴェ System and method for telemetry of optical focus
US8888286B2 (en) 2009-04-01 2014-11-18 Tearscience, Inc. Full-eye illumination ocular surface imaging of an ocular tear film for determining tear film thickness and/or providing ocular topography
US8915592B2 (en) 2009-04-01 2014-12-23 Tearscience, Inc. Apparatuses and methods of ocular surface interferometry (OSI) employing polarization and subtraction for imaging, processing, and/or displaying an ocular tear film
US9339177B2 (en) 2012-12-21 2016-05-17 Tearscience, Inc. Full-eye illumination ocular surface imaging of an ocular tear film for determining tear film thickness and/or providing ocular topography
US9642520B2 (en) 2009-04-01 2017-05-09 Tearscience, Inc. Background reduction apparatuses and methods of ocular surface interferometry (OSI) employing polarization for imaging, processing, and/or displaying an ocular tear film
US9795290B2 (en) 2013-11-15 2017-10-24 Tearscience, Inc. Ocular tear film peak detection and stabilization detection systems and methods for determining tear film layer characteristics
US9888839B2 (en) 2009-04-01 2018-02-13 Tearscience, Inc. Methods and apparatuses for determining contact lens intolerance in contact lens wearer patients based on dry eye tear film characteristic analysis and dry eye symptoms
US10278587B2 (en) 2013-05-03 2019-05-07 Tearscience, Inc. Eyelid illumination systems and method for imaging meibomian glands for meibomian gland analysis

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59230534A (en) * 1983-06-13 1984-12-25 キヤノン株式会社 Ophthalmic automatic focusing apparatus
JPS60135025A (en) * 1983-12-23 1985-07-18 キヤノン株式会社 Measurement of refractive power of eye

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59230534A (en) * 1983-06-13 1984-12-25 キヤノン株式会社 Ophthalmic automatic focusing apparatus
JPS60135025A (en) * 1983-12-23 1985-07-18 キヤノン株式会社 Measurement of refractive power of eye

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100923843B1 (en) * 2006-11-29 2009-10-27 캐논 가부시끼가이샤 Focusing unit and ophthalmic photographing apparatus
US10582848B2 (en) 2009-04-01 2020-03-10 Tearscience, Inc. Ocular surface interferometry (OSI) devices and systems for imaging, processing, and/or displaying an ocular tear film
US11259700B2 (en) 2009-04-01 2022-03-01 Tearscience Inc Ocular surface interferometry (OSI) for imaging, processing, and/or displaying an ocular tear film
US8888286B2 (en) 2009-04-01 2014-11-18 Tearscience, Inc. Full-eye illumination ocular surface imaging of an ocular tear film for determining tear film thickness and/or providing ocular topography
US8915592B2 (en) 2009-04-01 2014-12-23 Tearscience, Inc. Apparatuses and methods of ocular surface interferometry (OSI) employing polarization and subtraction for imaging, processing, and/or displaying an ocular tear film
US9888839B2 (en) 2009-04-01 2018-02-13 Tearscience, Inc. Methods and apparatuses for determining contact lens intolerance in contact lens wearer patients based on dry eye tear film characteristic analysis and dry eye symptoms
US9642520B2 (en) 2009-04-01 2017-05-09 Tearscience, Inc. Background reduction apparatuses and methods of ocular surface interferometry (OSI) employing polarization for imaging, processing, and/or displaying an ocular tear film
US9662008B2 (en) 2009-04-01 2017-05-30 Tearscience, Inc. Ocular surface interferometry (OSI) devices and systems for imaging, processing, and/or displaying an ocular tear film
US11771317B2 (en) 2009-04-01 2023-10-03 Tearscience, Inc. Ocular surface interferometry (OSI) for imaging, processing, and/or displaying an ocular tear film
US9693682B2 (en) 2009-04-01 2017-07-04 Tearscience, Inc. Ocular surface interferometry (OSI) devices and systems for imaging, processing, and/or displaying an ocular tear film
US10716465B2 (en) 2009-04-01 2020-07-21 Johnson & Johnson Vision Care, Inc. Methods and apparatuses for determining contact lens intolerance in contact lens wearer patients based on dry eye tear film characteristic analysis and dry eye symptoms
JP2012522594A (en) * 2009-04-01 2012-09-27 テイアサイエンス・インコーポレーテツド Ocular surface interference spectroscopy (OSI) apparatus, system and method for imaging, processing and / or displaying ocular tear film and / or measuring ocular tear film layer thickness
US9999346B2 (en) 2009-04-01 2018-06-19 Tearscience, Inc. Background reduction apparatuses and methods of ocular surface interferometry (OSI) employing polarization for imaging, processing, and/or displaying an ocular tear film
US10004396B2 (en) 2009-04-01 2018-06-26 Tearscience, Inc. Ocular surface interferometry (OSI) devices and systems for imaging, processing, and/or displaying an ocular tear film
JP2014519943A (en) * 2011-07-14 2014-08-21 コーニンクレッカ フィリップス エヌ ヴェ System and method for telemetry of optical focus
US10244939B2 (en) 2012-12-21 2019-04-02 Tearscience, Inc. Full-eye illumination ocular surface imaging of an ocular tear film for determining tear film thickness and/or providing ocular topography
US10582849B2 (en) 2012-12-21 2020-03-10 Tearscience, Inc. Full-eye illumination ocular surface imaging of an ocular tear film for determining tear film thickness and/or providing ocular topography
US9993151B2 (en) 2012-12-21 2018-06-12 Tearscience, Inc. Full-eye illumination ocular surface imaging of an ocular tear film for determining tear film thickness and/or providing ocular topography
US9668647B2 (en) 2012-12-21 2017-06-06 Tearscience Inc. Full-eye illumination ocular surface imaging of an ocular tear film for determining tear film thickness and/or providing ocular topography
US9339177B2 (en) 2012-12-21 2016-05-17 Tearscience, Inc. Full-eye illumination ocular surface imaging of an ocular tear film for determining tear film thickness and/or providing ocular topography
US10278587B2 (en) 2013-05-03 2019-05-07 Tearscience, Inc. Eyelid illumination systems and method for imaging meibomian glands for meibomian gland analysis
US11844586B2 (en) 2013-05-03 2023-12-19 Tearscience, Inc. Eyelid illumination systems and methods for imaging meibomian glands for meibomian gland analysis
US11141065B2 (en) 2013-05-03 2021-10-12 Tearscience, Inc Eyelid illumination systems and methods for imaging meibomian glands for meibomian gland analysis
US10512396B2 (en) 2013-11-15 2019-12-24 Tearscience, Inc. Ocular tear film peak detection and stabilization detection systems and methods for determining tear film layer characteristics
US9795290B2 (en) 2013-11-15 2017-10-24 Tearscience, Inc. Ocular tear film peak detection and stabilization detection systems and methods for determining tear film layer characteristics

Also Published As

Publication number Publication date
JP2803594B2 (en) 1998-09-24

Similar Documents

Publication Publication Date Title
EP0392744B1 (en) Ophthalmological measurement method and apparatus
US5036347A (en) Visual line detecting device and camera having the same
CN105579880B (en) The method of work of endoscope-use camera system, endoscope-use camera system
US4400070A (en) Focus detecting device for opthalmologic instruments
JPH07313464A (en) Focusing detector of fundus oculi observation system
JPH07313465A (en) Focusing detector of fundus oculi observation system
JP2014083397A (en) Ophthalmologic apparatus, control method thereof, and program
JP2000116602A (en) Retinal camera
JPH09274129A (en) Automatic focusing device and camera
JPH0624517B2 (en) Focus detection device of fundus observation device
JP3431300B2 (en) Automatic focus detection system for microscope
JPH044891B2 (en)
JPH09189850A (en) Automatic focusing microscope
US5694198A (en) Apparatus including waveform rectifying means and method for eye examination
JP3762025B2 (en) Ophthalmic examination equipment
JPH1026725A (en) Automatic focusing device
JP2894701B2 (en) Eye gaze detection device
JP3390068B2 (en) Microscope equipment
JP2830168B2 (en) Eye gaze detection device
JP5680164B2 (en) Ophthalmic apparatus, image acquisition method, and program
JP3650143B2 (en) Photomicroscope
JP3645625B2 (en) Microscope automatic focus detection method, microscope automatic focus detection device, and microscope using the same
JP6216435B2 (en) Ophthalmic equipment
JPH09127403A (en) Automatic focus detector
JP3108135B2 (en) Ophthalmic imaging equipment