JPH0624517B2 - Focus detection device of fundus observation device - Google Patents

Focus detection device of fundus observation device

Info

Publication number
JPH0624517B2
JPH0624517B2 JP60181421A JP18142185A JPH0624517B2 JP H0624517 B2 JPH0624517 B2 JP H0624517B2 JP 60181421 A JP60181421 A JP 60181421A JP 18142185 A JP18142185 A JP 18142185A JP H0624517 B2 JPH0624517 B2 JP H0624517B2
Authority
JP
Japan
Prior art keywords
index
array sensor
light
image
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP60181421A
Other languages
Japanese (ja)
Other versions
JPS6241637A (en
Inventor
保典 上野
好一 鈴木
嘉裕 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nippon Kogaku KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Kogaku KK filed Critical Nippon Kogaku KK
Priority to JP60181421A priority Critical patent/JPH0624517B2/en
Publication of JPS6241637A publication Critical patent/JPS6241637A/en
Publication of JPH0624517B2 publication Critical patent/JPH0624517B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 (発明の技術分野) 本発明は眼底カメラの合焦検出装置に関するものであ
る。
TECHNICAL FIELD OF THE INVENTION The present invention relates to a focus detection device for a fundus camera.

(発明の背景) 眼底を観察する装置では、眼底の低い反射率による光量
不足やコントラストの悪さから、合焦することが困難で
ある。そこで特公昭57−13294号公報などにみら
れるように、眼底に指標を投影し、その指標像によって
合焦する装置が提案されている。
(Background of the Invention) In an apparatus for observing the fundus, it is difficult to focus due to insufficient light amount due to low reflectance of the fundus and poor contrast. Therefore, as disclosed in Japanese Patent Publication No. 57-13294, there is proposed a device that projects an index on the fundus and focuses on the index image.

この装置は、指標像をスプリットプリズム等で分割して
眼底に結像させ、その横ずれを観察し、合焦させるもの
であった。ここでは観察光学系は、この横ずれの様子を
見るためだけのものであり、直接眼底に合焦させるのは
指標投影光学系である。そしてこの指標と観察像面(必
要なら撮影像面も)とを機械的連動装置によって共動せ
しめ指標を眼底と共役にすることによって間接的に眼底
に合焦させている。
This device divides an index image with a split prism or the like to form an image on the fundus of the eye, observes lateral displacement of the index image, and focuses the image. Here, the observation optical system is only for observing the state of the lateral shift, and it is the index projection optical system that directly focuses on the fundus. Then, the index and the observation image plane (and, if necessary, the imaging image plane) are made to cooperate by a mechanical interlocking device, and the index is conjugated with the fundus to indirectly focus on the fundus.

しかしながら、このような間接的な構造では、指標投影
光学系と観察光学系の連動装置の機械的誤差、あるいは
各々の光学系の違いによる誤差(指標投影光学系はN.A.
が大きく、かつ周辺の光束を使うので収差が大きくな
り、観察光学系はN.A.が小さく焦点深度が深く、収差が
比較的小さいという違いによる)が入る可能性があり、
また連動装置自体も複雑になり、装置の大型化、コスト
アップにつながるという欠点があった。また、変倍する
と光量不足ということがおこったり、また眼底は部位に
より反射率がことなるためある部位では光量不足になっ
たりある部位では光量過剰になったりして受光素子(た
とえばCCD)が飽和をおこしたり、光量不足のため信
号検出が難かしくなるという欠点があった。
However, in such an indirect structure, a mechanical error of the interlocking device between the index projection optical system and the observation optical system or an error due to the difference between the optical systems (the index projection optical system is
Is large, and since the peripheral light flux is used, the aberration is large, and the observation optical system has a small NA, a deep depth of focus, and the aberration is relatively small.)
In addition, the interlocking device itself becomes complicated, which leads to an increase in size and cost of the device. In addition, when the magnification is changed, insufficient light intensity may occur, and the reflectance of the fundus may vary depending on the site, resulting in insufficient light intensity at some regions or excessive light intensity at certain regions, resulting in saturation of the light receiving element (eg, CCD). However, there is a drawback that signal detection becomes difficult due to insufficient light amount.

(発明の目的) 本発明の目的はこれらの欠点を解消し、眼底の反射率の
違いや変倍等にかかわらず、正確な信号検出の行なえる
合焦検出装置を供することを目的とする。
(Object of the Invention) An object of the present invention is to solve these drawbacks, and to provide a focus detection device capable of performing accurate signal detection regardless of the difference in the reflectance of the fundus and the magnification change.

(発明の概要) そこで本発明は、被検眼眼底に発光指標を投影する指標
投影光学系と被検眼眼底の前記指標を受光する光電変換
器を有し、該光電変換器の出力によって、合焦情報を検
出する合焦情報検出光学系とを備えた眼底観察装置の合
焦検出装置において、前記指標を投影するか否かを選択
する選択手段と、前記指標の投影時の前記光電変換器か
ら得られる第1の信号と前記指標の非投影時に前記光電
変換器から得られる第2の信号との差信号を求め、該差
信号から合焦信号を出力する減算手段と、前記選択手段
により前記指標が投影されているときに、前記光電変換
器から得られる信号が所定のレベル以上のときに、前記
レベル以下になるように前記指標の光量を減少させる制
御手段と、を設けたことを特徴とする。
(Summary of the invention) Therefore, the present invention has an index projection optical system for projecting a luminescent index on the fundus of the eye to be examined and a photoelectric converter for receiving the index of the fundus of the eye to be examined, and the output of the photoelectric converter causes focusing. In the focus detection device of the fundus oculi observation device including the focus information detection optical system that detects information, a selection unit that selects whether or not to project the index, and from the photoelectric converter at the time of projection of the index. A subtraction unit that obtains a difference signal between the obtained first signal and the second signal obtained from the photoelectric converter when the index is not projected, and outputs a focusing signal from the difference signal; When the signal obtained from the photoelectric converter is equal to or higher than a predetermined level when the index is projected, a control unit that reduces the light amount of the index so as to be equal to or lower than the level is provided. And

(実施例) 第1図は本発明の一実施例の合焦検出装置を有する眼底
カメラ全体の構成を示す図である。
(Embodiment) FIG. 1 is a diagram showing the overall configuration of a fundus camera having a focus detection device according to an embodiment of the present invention.

通常、照明系は観察用照明光源1、光源用リレーレンズ
2、反射鏡3、光源用リレーレンズ2によって光源1と
共役に配設されるストロボ管4、リングスリット5、
(平面図は第3図に示す)、リングスリット用リレーレ
ンズ6,8、穴あきミラー9、対物レンズ11によって構
成される。リングスリット5はリングスリット用リレー
レンズ6,8、対物レンズ11によって、よく知られてい
るように、被検眼12の角膜にほぼ共役になるように眼底
カメラと被検眼12との作動距離が調節される。後述の指
標投影用光源駆動手段によって点灯、消灯が可能な指標
投影用光源16は指標投影用リレーレンズ17aを通り、ス
リットを形成した指標板18(平面図は第4図に示す)を
背後から照明する。光源16は指標板18のスリットを通過
後、結像し、指標投影用リレーレンズ17b、ダイクロイ
ックプリズム7およびリングスリット用リレーレンズ8
によって穴あきミラー9の付近に再び結像され、さらに
対物レンズ11によって被検眼12の瞳孔付近に結像され眼
底を照明する。これらの光線は第1図で二点鎖線で描か
れている。
Normally, the illumination system includes an observation illumination light source 1, a light source relay lens 2, a reflecting mirror 3, and a strobe tube 4 and a ring slit 5, which are arranged conjugate with the light source 1 by the light source relay lens 2.
(The plan view is shown in FIG. 3), the ring slit relay lenses 6 and 8, the perforated mirror 9, and the objective lens 11. As is well known, the ring slit 5 is adjusted by the relay lenses 6 and 8 for the ring slit and the objective lens 11 so that the working distance between the fundus camera and the eye 12 is adjusted so as to be substantially conjugate with the cornea of the eye 12. To be done. An index projection light source 16 that can be turned on and off by an index projection light source driving unit described below passes through an index projection relay lens 17a and a slit-formed index plate 18 (a plan view is shown in FIG. 4) from behind. Illuminate. The light source 16 forms an image after passing through the slit of the index plate 18, and the index projection relay lens 17b, the dichroic prism 7, and the ring slit relay lens 8 are formed.
Is imaged again in the vicinity of the perforated mirror 9 and further in the vicinity of the pupil of the eye 12 to be examined by the objective lens 11 to illuminate the fundus. These rays are drawn by the chain double-dashed line in FIG.

ところで第1図で示した光学系の場合、指標投影用光源
16は例えば赤外発光ダイオードであり、ダイクロイック
プリズム7は赤外光反射・可視光透過の特性になってい
る。従ってダイクロイックプリズム7は観察用光源1、
ストロボ管4からの可視光を通過するが、これらの光源
1,4から出る赤外光を反射して照明光学系外に出して
しまい、結局眼底は指標投影用光源16からの赤外光によ
って照明されることになる。そしてダイクロイックミラ
ー14を赤外光反射、可視光透過の特性にすると、後述の
アレイセンサー23に到達する光は、指標投影用光源16に
よって照明された指標板18の透過光だけとなり、指標像
(スリット像)はコントラストの比較的良いものとな
る。
By the way, in the case of the optical system shown in FIG.
Reference numeral 16 is, for example, an infrared light emitting diode, and the dichroic prism 7 has characteristics of infrared light reflection and visible light transmission. Therefore, the dichroic prism 7 is the observation light source 1,
Visible light from the strobe tube 4 passes, but infrared light emitted from these light sources 1 and 4 is reflected and goes out of the illumination optical system, and the fundus is eventually reflected by the infrared light from the index projection light source 16. Will be illuminated. When the dichroic mirror 14 is made to have a characteristic of reflecting infrared light and transmitting visible light, the light reaching the array sensor 23 described later is only the transmitted light of the index plate 18 illuminated by the index projection light source 16, and the index image ( The slit image) has a relatively good contrast.

一方、第1図の点線で示すように、指標板18のスリット
は、指標投影系用リレーレンズ17bによってダイクロイ
ックプリズム7の付近に結像した後、リレーレンズ8、
穴あきミラー9、によって対物レンズ11の後側焦点位置
に結像する。従って対物レンズ11を経たスリットの透過
光はほぼ平行光となって被検眼12に入射し、被検眼12が
正視眼であれば、眼底上にスリットが結像する。ところ
が被検眼12の視度によってはスリット像はデフォーカス
する場合がある。しかし実際に指標像18を照明している
光源は、被検眼12に関して瞳孔付近にその共役像がで
き、かつ光源像の大きさが小さいので実質的にスリット
から出る光束の開口数(N.A.)が小さくなったことにな
り、焦点深度は深くなる。従って、実質的な被検眼の範
囲(±15ジオプトリー程度)では、デフォーカスによる
像のぼけはあまり大きくなく、合焦検出に耐えるコント
ラストが保障される。
On the other hand, as shown by the dotted line in FIG. 1, after the slit of the index plate 18 is imaged near the dichroic prism 7 by the index projection system relay lens 17b, the relay lens 8,
An image is formed at the rear focal position of the objective lens 11 by the perforated mirror 9. Therefore, the light transmitted through the slit that has passed through the objective lens 11 becomes substantially parallel light and enters the eye 12 to be inspected, and if the eye 12 to be inspected is an emmetropic eye, the slit forms an image on the fundus. However, the slit image may be defocused depending on the diopter of the eye 12 to be inspected. However, the light source that actually illuminates the index image 18 forms a conjugate image of the eye 12 near the pupil with respect to the subject's eye 12, and since the size of the light source image is small, the numerical aperture (NA) of the light flux that substantially exits the slit is It becomes smaller and the depth of focus becomes deeper. Therefore, in the substantial range of the eye to be inspected (about ± 15 diopters), the blur of the image due to defocus is not so large, and the contrast that withstands the focus detection is guaranteed.

第2図に第1図における合焦情報検出光学系のみを示
す。本実施例は変倍、ズームに対しても合焦情報が得ら
れるようにしたものであるが、説明上、ある倍率での動
作について述べ、そのあと変倍、ズームに際しての工夫
を説明する。
FIG. 2 shows only the focus information detection optical system in FIG. In the present embodiment, the focus information is obtained even for zooming and zooming, but for the sake of explanation, an operation at a certain magnification will be described, and then a device for zooming and zooming will be described.

第2図の実線で示すように、眼底上に投影されたスリッ
ト像は2次光源となって、対物レンズ11によって一度結
像された後、穴あきミラー9の開口、開口絞り10、合焦
リレーレンズ13を通り、赤外反射・可視光透過のダイク
ロイックミラー14で反射された後に、視野絞り19付近に
結像される。この視野絞り19は、再結像レンズ21によっ
てアレイセンサー23と共役になっており、さらにアレイ
センサー23は撮像面(観察像面は不図示)15と共役にな
っている。したがって、眼底からのスリット像は再結像
レンズ21によってアレイセンサー23付近に結像するわけ
だが、その際、瞳分割屋根型プリズム22(第5図に立体
図を示す…第1図と第2図ではその稜が紙面に垂直にか
いてあるが、それは表現の便宜のためであり、実際は光
軸のまわりに90゜回転していて稜が紙面と平行になる
ように配設されている)によって光束は2分され、各々
の光束はアレイセンサー23(プリズム22の稜の方向に合
わせてアレイセンサー23のセルの配列方向が紙面に直交
するように配設される)の違った部分に結像される。
As shown by the solid line in FIG. 2, the slit image projected on the fundus serves as a secondary light source and is once imaged by the objective lens 11, and then the aperture of the perforated mirror 9, the aperture stop 10, and the focusing. After passing through the relay lens 13 and being reflected by a dichroic mirror 14 that transmits infrared light and visible light, an image is formed in the vicinity of the field stop 19. The field stop 19 is conjugated with the array sensor 23 by the re-imaging lens 21, and the array sensor 23 is conjugated with the imaging surface (observation image surface is not shown) 15. Therefore, the slit image from the fundus is imaged in the vicinity of the array sensor 23 by the re-imaging lens 21, and at that time, the pupil division roof type prism 22 (a stereoscopic view is shown in FIG. 5 ... FIGS. 1 and 2). In the figure, the ridge is drawn perpendicular to the paper surface, but for convenience of expression, it is actually rotated by 90 ° around the optical axis and is arranged so that the ridge is parallel to the paper surface.) The light flux is divided into two by each, and each light flux is coupled to a different part of the array sensor 23 (arranged so that the array direction of the cells of the array sensor 23 is orthogonal to the paper surface according to the ridge direction of the prism 22). To be imaged.

ここで第2図の点線で示すように、瞳分割プリズム22の
プリズムの稜は、合焦リレーレンズ13と視野絞り19の背
後のフィールドレンズ20によって開口絞り10とほぼ共役
になっている。
Here, as shown by the dotted line in FIG. 2, the ridge of the prism of the pupil division prism 22 is almost conjugate with the aperture stop 10 by the focusing relay lens 13 and the field lens 20 behind the field stop 19.

この開口絞り10は合焦光学系の射出瞳に相当するので、
アレイセンサー23上の像はこの光学系の瞳の異なった2
つの部分からの光束によって結像したものとなり、この
ようにして得られらた2つの像は良く知られているよう
に前ピン,後ピンによって互いに横ずれを起こす。従っ
て合焦状態の検出は、アレイセンサー23上での2つの像
の間隔を測定することによって行なうことができる。す
なわち第6図に実線で示した如く、合焦時に2つの像の
間隔がLだったとすると、合焦点が視野絞り19より後方
の場合(第6図では点線)では、像間隔は第6図に点線
で示した如く、Lよりも狭くなり、合焦点が視野絞り19
より前方の場合は像間隔はLよりも広くなる。
Since this aperture stop 10 corresponds to the exit pupil of the focusing optical system,
The image on the array sensor 23 has two different pupils of this optical system.
An image is formed by the light fluxes from the two parts, and the two images thus obtained are laterally offset from each other by the front focus and the rear focus, as is well known. Therefore, the focus state can be detected by measuring the distance between the two images on the array sensor 23. That is, if the distance between the two images is L during focusing as shown by the solid line in FIG. 6, if the focal point is behind the field stop 19 (dotted line in FIG. 6), the image distance is as shown in FIG. As indicated by the dotted line in Fig. 2, the focus is narrower than L and the focal point is the field stop 19
In the case of being further forward, the image interval is wider than L.

ここで像の間隔を測る場合、像自体がコントラストの良
い良好な結像状態であれば、2つの像位置の間隔は簡単
にはかれる。しかし実際には、アレイセンサー23上には
デフォーカスした状態で結像する場合が多く、必ずしも
よい像が得られるとは限らない。
When measuring the distance between the images, the distance between the two image positions can be easily determined if the image itself is in a good image-forming state with good contrast. However, in reality, an image is often formed in a defocused state on the array sensor 23, and a good image is not always obtained.

そこで、このような条件の悪い場合であっても、像の横
変位を正確に抽出するために特開昭54−68667号
公報等に提案されている方法を使う。
Therefore, even in such a bad condition, the method proposed in Japanese Patent Laid-Open No. 54-68667 is used to accurately extract the lateral displacement of the image.

これはアレイセンサー23上の像をフーリエ変換し、その
位相成分を抽出して、フーリエ変換の推移定理により横
ずれを求める方法である。
This is a method in which the image on the array sensor 23 is Fourier-transformed, the phase component thereof is extracted, and the lateral shift is obtained by the transition theorem of Fourier transform.

アレイセンサー23上での像の強度を位置Xの関数f(x)
とすれば、像が変位する前の関数f(x)のフーリエ変換
1は空間周波数をSとして式(1)のように表わすことが
できる。
The image intensity on the array sensor 23 is defined as a function f (x) of the position X.
Then, the Fourier transform F 1 of the function f (x) before the image is displaced can be expressed as in equation (1) where S is the spatial frequency.

この像が横にαだけ変位した場合のフーリエ変換F2
は推移定理により式(2)のようになる。
Fourier transform F 2 when this image is laterally displaced by α 2
Becomes the formula (2) according to the transition theorem.

2(s)=e-2 π ias1(s)……(2) 式(1)と(2)をくらべると変位によってフーリエ成分の大
きさは変わらず、位相だけが2πasずれるので、ずれた
位相をΔθとすると、Δθを知ることにより変位αが式
(3)のように求まる。
F 2 (s) = e −2 π ias F 1 (s) …… (2) When comparing equations (1) and (2), the magnitude of the Fourier component does not change due to the displacement, and only the phase shifts by 2πas. If the shifted phase is Δθ, the displacement α can be calculated by knowing Δθ.
Obtained as in (3).

これを具体的に実現するには、空間周波数をアレイセン
サー23上でのサンプル長lの逆数(1/l)として離散的
フーリエ変換(DFT)を行う。
To specifically realize this, the discrete Fourier transform (DFT) is performed with the spatial frequency as the reciprocal (1 / l) of the sample length l on the array sensor 23.

すなわち第7図で示したように、アレイセンサー23上の
2つのスリット像のうちの一方の像についてアレイセン
サー23上の各セルに入射する光量に対応した電気信号を
i,セルのサンプル数をNi,サンプルした部分のアレ
イセンサー23の長さをlとして次の電気量をIx,Iyを求
める。
That is, as shown in FIG. 7, for one of the two slit images on the array sensor 23, an electric signal corresponding to the amount of light incident on each cell on the array sensor 23 is I i , and the number of samples of the cell. Is N i and the length of the array sensor 23 at the sampled portion is 1, and the following electric quantities Ix and Iy are obtained.

このIx,Iyはアレイセンサー23上の像のうち、空間周波
数1/lのフーリエ成分の実部(Ix)と虚部(Iy)にN/lを
乗じたものになっている。従って、このIx,Iyによりフ
ーリエ成分の位相偏角θが(6)のように求まる。
These Ix and Iy are obtained by multiplying the real part (Ix) and the imaginary part (Iy) of the Fourier component of the spatial frequency 1 / l in the image on the array sensor 23 by N / l. Therefore, the phase deviation angle θ of the Fourier component is obtained from Ix and Iy as shown in (6).

像の横変位がおこればこの位相偏角θが変位することに
なり、演算により求めたθの変化分は式(3)に従って横
変位になおすことができる。
If the image is laterally displaced, this phase deviation angle θ is displaced, and the amount of change in θ obtained by the calculation can be corrected to the lateral displacement according to the equation (3).

そこで位相偏角θにより次の距離dを式(7)のように定
義する。
Therefore, the following distance d is defined by the phase deviation angle θ as in Expression (7).

この距離dをアレイセンサー23上の2つのスリット像に
ついて各々求め、それにより2つのスリット像の間隔を
算出して、これを合焦時の間隔と比較することによって
合焦情報を得ることができる。第1図に示したように、
アレイセンサー23からは駆動手段24からの信号によって
各セルが順次駆動され、各セルに対応した光電変換信号
が順次出力される。この出力から演算手段25によって上
記演算を行なわせ、その結果に基づいてモータ駆動手段
26によりモータMを駆動し、合焦リレーレンズ13を光軸
方向へ動かして合焦させる。
Focusing information can be obtained by calculating the distance d for each of the two slit images on the array sensor 23, calculating the distance between the two slit images, and comparing this with the distance at the time of focusing. . As shown in Figure 1,
From the array sensor 23, each cell is sequentially driven by the signal from the driving means 24, and photoelectric conversion signals corresponding to each cell are sequentially output. Based on this output, the calculation means 25 performs the above calculation, and based on the result, the motor drive means
The motor M is driven by 26, and the focusing relay lens 13 is moved in the optical axis direction for focusing.

上述の処理を行なう電気処理系を第8図のブロック図に
示すと共に、その動作を第9図及びマイクロコンピュー
タ252のフローチャートである第10図(a)、第10図(b)
によって説明する。第8図のブロック図において第1図
と同一部材には同一符号を付すが、アレイセンサー23は
例えば電荷結合素子(CCD)と呼ばれるものであっ
て、周知の駆動手段24からのスタート信号(第9図
(b))に引き続くクロックパルス(第9図(C)によって各
セルが駆動される。すなわちスタート信号が生じた後、
一番目のパルスP1でアレイセンサー23(第9図(a))の
一番目のセルC1に入射した光量に応じた電気信号がア
レイセンサー23により出力される。また、たとえば7番
目のパルスP7で7番目のセルC7に入射した光量に応じ
た電気信号が出力される。
An electric processing system for performing the above-mentioned processing is shown in the block diagram of FIG. 8, and its operation is shown in FIG. 9 and a flow chart of the microcomputer 252 in FIG. 10 (a) and FIG. 10 (b).
Explained by. In the block diagram of FIG. 8, the same members as those in FIG. 1 are designated by the same reference numerals, but the array sensor 23 is called, for example, a charge coupled device (CCD), and has a start signal (see Figure 9
Each cell is driven by the clock pulse (FIG. 9 (C)) following (b)), that is, after the start signal is generated,
The array sensor 23 outputs an electric signal corresponding to the amount of light incident on the first cell C 1 of the array sensor 23 (FIG. 9A) with the first pulse P 1 . Further, for example, an electric signal corresponding to the amount of light incident on the seventh cell C 7 by the seventh pulse P 7 is output.

ところでアレイセンサー23から出力される電気信号をみ
てみると、各種の雑音成分が含まれている。
By the way, looking at the electric signal output from the array sensor 23, various noise components are included.

つまりアレイセンサー23に入射する光束には得たい信号
成分としての眼底の投影したスリット像からの光束Sと
不要な雑音成分としての観察N1、迷光N2等の光束があ
る。さらにアレイセンサー23自身の暗電流による雑音成
分N3がある。したがって、アレイセンサー23から出力
される電気信号はS+N1+N2+N3ということになる
(第12図(a))。以上は指標投影用光源駆動回路253
によって指標投影用光源16を点灯した場合だが、次に指
標投影用光源16を消灯した場合について考えてみると、
アレイセンサー23から出力される電気信号は不要な雑音
成分としての観察光N1、迷光N2、暗電流N3の合成信
号N1+N2+N3である(第12図(b))。そこで指標投影
用光源16を点灯したときのアレイセンサー23の出力(第
12図(a))と指標投影用光源16を消灯したときのアレイ
センサー23の出力(第12図(b))との差をとることで、
信号成分Sだけを得ることができる(第12図(c))。
In other words, the light flux incident on the array sensor 23 includes the light flux S from the slit image projected on the fundus as a signal component to be obtained and the observation N 1 and stray light N 2 as unnecessary noise components. Further, there is a noise component N 3 due to the dark current of the array sensor 23 itself. Therefore, the electric signal output from the array sensor 23 is S + N 1 + N 2 + N 3 (FIG. 12 (a)). The above is the index projection light source drive circuit 253.
When the index projection light source 16 is turned on by, but consider next when the index projection light source 16 is turned off,
The electric signal output from the array sensor 23 is a combined signal N 1 + N 2 + N 3 of the observation light N 1 , stray light N 2 , and dark current N 3 as unnecessary noise components (FIG. 12 (b)). Therefore, the output of the array sensor 23 when the light source 16 for index projection is turned on (
By taking the difference between the output of the array sensor 23 when the light source 16 for index projection is turned off (FIG. 12 (b)),
Only the signal component S can be obtained (Fig. 12 (c)).

指標投影用光源16を点灯したときと消灯したときのアレ
イセンサー23の出力の差をとる方法について説明する。
アレイセンサー23によって光電変換された電気信号は、
アレイセンサー23の蓄積時間Tint毎に出力される。そこ
で指標投影用光源16をあらかじめ消灯し、1回目に点灯
する期間TをToとしておき、(第10図(a)のステップ1
00)少なくとも一蓄積時間Tint経過後のN番目のスタ
ートパルス(第13図(a))に同期して(第10図(a)のステ
ップ101)指標投影用光源16を点灯すると(第10図
(a)のステップ102)ここで出力されるアレイセンサ
ー23の出力は光源16が消灯時に光電変換した値であり第
12図(b)の雑音成分となる。アレイセンサー23から出力
された信号は増幅器250等を経てA/D変換器251によって
デジタル信号に変換される。このデジタル信号はマイク
ロコンピュータ252に入力される。すなわちマイクロコ
ンピュータ252はアレイセンサー23の走査に同期してA/D
変換器251の出力Iiを読み込み、各セルに対応させてそ
の出力を内蔵したメモリM1-1,M2-1に記憶する。(第
10図(a)のステップ103)。ここでメモリM1-1は第9
図(a)に示した如く、アレイセンサー23のほぼ左半分に
ある長さlのセル群からの信号を記憶し、メモリM2-1
は同様にアレイセンサー23のほぼ右半分にある長さl2
のセル群からの信号を記憶することになる。マイクロコ
ンピュータ252は光源16が点灯してから所定期間Tが
経過したことを検出し(第10図(a)のステップ10
4)、光源16を消灯する(第10図(a)のステップ10
5)。次にN+2番目のスタートパルスに同期されるア
レイセンサー23の出力は光源16が消灯時に光電変換した
値であり、第12図(a)の信号成分+雑音成分となる(第1
0図(a)のステップ106)。この出力された信号は雑音
成分だけのときの処理と同様にしてメモリM1-2,M2-2
記憶される(第10図(a)のステップ107)。第10図(a)
のステップ105における指標投影用光源16の消灯のタ
イミングは後述することとして、次にマイクロコンピュ
ータ252はメモリM1-1,M1-2,M2-1,M2-2,の記憶値
が所定値以上か否かの判断を行ない(第10図(a)のステ
ップ108)、所定値以下であれば上記記憶値のうちメ
モリN2-1からメモリM1-1の差をとりメモリM1に記憶し、
メモリM2-2からメモリM2-1との差をとりメモリM2に記憶
する(第10図(a)のステップ109)。そして、メモリM
1,M2に記憶された値の大きさから、次に光源16を点灯
する期間Tを決定する(第10図(a)のステップ11
0)。
A method for obtaining the difference between the outputs of the array sensor 23 when the index projection light source 16 is turned on and when it is turned off will be described.
The electric signal photoelectrically converted by the array sensor 23 is
It is output at every storage time Tint of the array sensor 23. Therefore, the index projection light source 16 is turned off in advance and the period T during which it is turned on for the first time is set to To (step 1 in FIG. 10 (a)).
00) In synchronization with the N-th start pulse (FIG. 13 (a)) after at least one storage time Tint has elapsed (step 101 in FIG. 10 (a)), the index projection light source 16 is turned on (FIG. 10).
(Step 102 of (a)) The output of the array sensor 23 output here is a value photoelectrically converted when the light source 16 is turned off.
It becomes the noise component in Fig. 12 (b). The signal output from the array sensor 23 is converted into a digital signal by the A / D converter 251 via the amplifier 250 and the like. This digital signal is input to the microcomputer 252. That is, the microcomputer 252 synchronizes with the scanning of the array sensor 23 and the A / D
The output I i of the converter 251 is read and the output corresponding to each cell is stored in the built-in memories M 1-1 and M 2-1 . (No.
10 Step 103 of FIG. 10A). Here, the memory M 1-1 is the ninth
As shown in FIG. 3A, the signals from the cells of the length l 1 in the left half of the array sensor 23 are stored in the memory M 2-1.
Also has a length l 2 that is approximately in the right half of the array sensor 23.
The signal from the cell group will be stored. The microcomputer 252 detects that a predetermined period T has elapsed since the light source 16 was turned on (step 10 in FIG. 10 (a)).
4), turn off the light source 16 (step 10 in FIG. 10 (a))
5). Next, the output of the array sensor 23 synchronized with the (N + 2) th start pulse is a value photoelectrically converted when the light source 16 is turned off, and becomes the signal component + noise component of FIG. 12 (a) (first
0 step 106 of FIG. The output signal is stored in the memories M 1-2 and M 2-2 in the same manner as the processing for the noise component only (step 107 in FIG. 10 (a)). Fig. 10 (a)
The timing of turning off the index projection light source 16 in step 105 will be described later. Next, the microcomputer 252 determines that the stored values of the memories M 1-1 , M 1-2 , M 2-1 and M 2-2 . performs determination of whether more than a predetermined value (a step 108 of FIG. 10 (a)), a memory M takes the difference between the memory M 1-1 from the memory N 2-1 among the stored value is equal to or less than a predetermined value Remember in 1 ,
The difference between the memory M 2-2 and the memory M 2-1 is calculated and stored in the memory M 2 (step 109 in FIG. 10 (a)). And memory M
The period T in which the light source 16 is next turned on is determined from the magnitudes of the values stored in 1 and M 2 (step 11 in FIG. 10 (a)).
0).

次にマイクロコンピュータ252はメモリM1の記憶値に
よって式(4),式(5),式(6),式(7)の演算を順次行な
い、求めた距離d1をメモリM3に記憶させる(第10図(b)
のステップ111)。また同様にメモリM2の記憶値より
求めた距離d2をメモリM4に記憶させる(第10図(b)のス
テップ112)。
Next, the microcomputer 252 sequentially performs the operations of the formula (4), the formula (5), the formula (6) and the formula (7) according to the stored value of the memory M 1 , and stores the obtained distance d 1 in the memory M 3 . (Fig. 10 (b)
Step 111). Similarly, the distance d 2 obtained from the stored value of the memory M 2 is stored in the memory M 4 (step 112 in FIG. 10 (b)).

次にマイクロコンピュータ252はメモリM3,M4の記憶
値d1,d2と距離l1との間で演算(l1−d1+d2)を行なう
(第10図(b)のステップ113)。そしてステップ11
3で求めた値(l−d1+d2)……この値は2つのスリッ
ト像の間隔に相当する……を合焦時の間隔と比較してそ
の差を求め、この差を合焦情報として用いればよい。
Next, the microcomputer 252 performs an operation (l 1 −d 1 + d 2 ) between the stored values d 1 and d 2 of the memories M 3 and M 4 and the distance l 1 (step 113 in FIG. 10 (b)). ). And step 11
The value (l−d 1 + d 2 ) obtained in step 3 ... This value corresponds to the interval between the two slit images, and is compared with the in-focus interval to find the difference, and this difference is used as in-focus information. Can be used as

モーター駆動手段26はマイクロコンピュータ252から出
力された合焦情報に応じて異なった周波数のパルス信号
をモータMに入力する。その際モーターMに入力される
信号の周波数は合焦用リレーレンズ13が合焦位置から大
きくはずれるときは大きく従ってモータMは急速に回転
し、合焦用リレーレンズ13が合焦位置に近づくとパルス
信号が小さく、モーターMは低速に回転し合焦位置でモ
ーターMがすみやかに停止するように制御される。
The motor driving means 26 inputs a pulse signal of a different frequency to the motor M according to the focus information output from the microcomputer 252. At this time, the frequency of the signal input to the motor M is large when the focusing relay lens 13 largely deviates from the in-focus position. Therefore, the motor M rapidly rotates, and when the focusing relay lens 13 approaches the in-focus position. Since the pulse signal is small, the motor M rotates at a low speed and is controlled so that the motor M stops immediately at the in-focus position.

以下、上述のフローチャートのステップ108,110
及び変倍に応じた合焦制御について詳述する。ステップ
108は、まばたき等によりアレイセンサー23の入射光
量が大きくなった時に、合焦制御不能として再び測定値
を取り直すための判断を行なっており、入射光量が所定
値以下ならば一応合焦制御可能としている。
Hereinafter, steps 108 and 110 of the above-mentioned flowchart
Focusing control according to zooming will be described in detail. In step 108, when the amount of light incident on the array sensor 23 becomes large due to blinking or the like, it is determined that focus control is impossible and the measurement value is re-acquired. I am trying.

ところで眼定は、部位により反射率がかなり異なる。例
えば乳頭部の反射率は黄斑部のそれにくらべて10倍くら
い大きい。そのために、光源16の出力を合焦検出系で得
られたメモリM1,M2の記憶値の最大値を一定のレベルに
なるようにコントロールしないと黄斑部では光量が不足
あるいは乳頭部では光量過剰の為にアレイセンサー23が
飽和を起こす可能性が出てくる。そこで合焦検出系で上
述のレベルが一定になるようにする為には、アレイセン
サー23が蓄積時間をコントロールすることでもある程度
可能であるが、蓄積時間をコントロールすると暗電流を
影響でアレイセンサー23のダイナミックレンジを小さく
してしまうことになる。そこでステップ110では、蓄
積時間は一定のままつまり一蓄積時間内で光源16の点灯
時間Tを指標投影用光源駆動回路253を介してコント
ロールすることで、一定のレベルの信号を得ている。既
に述べたように、第13図(a)はスタートパルス、第13図
(b)は光源16の消灯期間と点灯期間の関係で、例えば期
間T1は合焦検出系で信号レベルが大きい場合の光源16
の点灯時間を示している。また期間T2はレベルが小さい
場合の光源16の点灯時間を示している。しかし実際にこ
れを実現しようとすると、人間の眼に入射可能な光源の
輝度には限界があるので、アレイセンサー23の出力した
電気信号を増幅する増幅器250等を利得が可能なプロ
グラマブルアンプと、アンプの利得をマイクロコンピュ
ータ252によってコントロールすることにより、光源
の輝度と点灯時間のコントロールと合わせて非常に小さ
い信号から大きい信号までを少ない部品で実現するよう
にしてもよい。
By the way, the ocular measurement has a considerably different reflectance depending on the site. For example, the reflectance of the papilla is about 10 times higher than that of the macula. Therefore, if the output of the light source 16 is not controlled so that the maximum value of the memory values of the memories M 1 and M 2 obtained by the focus detection system becomes a constant level, the light amount is insufficient in the macula or the light amount in the nipple. The array sensor 23 may become saturated due to excess. Therefore, in order to make the above level constant in the focus detection system, it is possible to some extent by controlling the storage time by the array sensor 23, but if the storage time is controlled, the array sensor 23 will be affected by the dark current. Will reduce the dynamic range of. Therefore, in step 110, a constant level signal is obtained by controlling the lighting time T of the light source 16 via the index projection light source drive circuit 253 while keeping the accumulation time constant, that is, within one accumulation time. As already mentioned, Fig. 13 (a) shows the start pulse, Fig. 13
(b) shows the relationship between the light-off period and the light-on period of the light source 16. For example, during the period T 1 , the light source 16 when the signal level is high in the focus detection system
Shows the lighting time of. Further, the period T 2 shows the lighting time of the light source 16 when the level is small. However, in order to actually realize this, there is a limit to the brightness of the light source that can enter the human eye, so that the amplifier 250 that amplifies the electrical signal output from the array sensor 23 is a programmable amplifier capable of gaining, By controlling the gain of the amplifier by the microcomputer 252, a very small signal to a large signal may be realized with a small number of parts in combination with the control of the brightness of the light source and the lighting time.

次に変倍、ズームについて述べる。変倍、ズームにおい
ても合焦検出ができるように光学設計上次のような工夫
を行なった。
Next, zooming and zooming will be described. The following ideas were made in the optical design so that the focus can be detected even during zooming and zooming.

変倍、ズームを行なうとアレイセンサー23上での合焦位
置も指標像の大きさもわかる。第11図に変倍されたとき
のアレイセンサー23上での像の移動を示す。(被検眼O
D)アレイセンサー23の大きさを十分に考慮し、高倍時
において被検眼視度による移動(アレイセンサー23上で
の像の横変位)は低倍時よりも大きいので、実用的な被
検眼視度(±15D程度)を満足するように合焦検出光学
系の倍率(フィールドレンズ20と再結像レンズ21によっ
て定める)と指標の大きさ(スリット)を決める。ここ
で注意しなければならないのは、瞳分割された2つのス
リット像がかさならないよにすることである。
When the magnification is changed and the zoom is performed, the focus position on the array sensor 23 and the size of the index image can be known. FIG. 11 shows the movement of the image on the array sensor 23 when the magnification is changed. (Inspected eye O
D) Considering the size of the array sensor 23 sufficiently, the movement due to the diopter of the eye (horizontal displacement of the image on the array sensor 23) at the time of high magnification is larger than that at the time of low magnification. The magnification (determined by the field lens 20 and the re-imaging lens 21) and the size of the index (slit) of the focus detection optical system are determined so as to satisfy the degree (± 15D). It should be noted here that the two slit images divided into the pupils should not be bulky.

このようにして構成した変倍、スムーズでの合焦検出の
動作は以下の如くである。
The operation of the focus detection with the variable magnification and the smoothness thus configured is as follows.

たとえば、今変倍として3変倍を行なうものを例にと
る。その場合には、ターレット等により、第1図、第2
図の合焦用リレーレンズ13を他の合焦用リレーレンズ13
aに置き換えればよい。
For example, let us take an example of a case where the variable magnification is 3 times. In that case, the turret and the like
The focusing relay lens 13 shown in the figure is replaced by another focusing relay lens 13
You can replace it with a.

a倍(低倍)、b倍(中倍)、c倍(高倍)に対応する
合焦間隔A,B,Cをマイクロコンピュータに記憶させ
ておき、眼底観察装置から変倍の情報を受け(第10図
(b)のステップ114,115)それによってステップ
113で求めた演算結果をそれぞれの倍率時における合
焦間隔と比較し(第10図(b)のステップ116,11
7,118)、合焦情報を得ればよい(第10図(b)のス
テップ119)。またズームの場合も同様に、ズーミン
グしたときのアレイセンサー23上でのそれぞれの倍率時
での合焦位置の変動をある曲線にのせるなりして、それ
をマイクロコンピュータに記憶させ、ズームの情報を眼
底観察装置からうけてその倍率時での位置を求め、ステ
ップ114ないしステップ119にのべたと同様の処理
を行なえばよい。
Focusing intervals A, B, and C corresponding to a-times (low-magnification), b-times (medium-times), and c-times (high-magnification) are stored in a microcomputer, and information of magnification change is received from a fundus observation device ( Fig. 10
(Steps 114 and 115 in (b)) The calculation result obtained in Step 113 is compared with the focusing interval at each magnification (steps 116 and 11 in FIG. 10B).
7, 118), and the focus information may be obtained (step 119 in FIG. 10 (b)). Similarly, in the case of zooming, the variation of the focus position at each magnification on the array sensor 23 at the time of zooming is put on a certain curve, which is stored in the microcomputer, and the zoom information is stored. The position at the time of the magnification is obtained from the eye fundus observation device, and the same processing as that described in steps 114 to 119 may be performed.

ここで各種雑音成分N1,N2,N3を除く方法を前述した
が、先の方法では1回の処理をするのに最低2蓄積時間
必要だった、そこでより短かい時間で処理する方法につ
いて述べる。
Here, the method of removing the various noise components N 1 , N 2 , and N 3 was described above, but in the previous method, at least 2 accumulation times were required to perform one processing, so a method of processing in a shorter time there I will describe.

蓄積時間を2段階に可変できるアレイセンサー駆動手段
であって、つまり光源16が点灯している時の蓄積時間を
Tinton として第13(a)と同じ蓄積時間すなわちT2に定め
る。また消灯している時の蓄積時間をTintoffとして、T
intoff<Tintonとなるように設定しておくこととする。
このようにして前述の方法で信号成分だけを得ようとし
ても蓄積時間の長さが点灯、消灯時で異なっている為に
正確な信号成分は得られない。すなわち、アレイセンサ
ー23の光電出力は入射光量だけでなく蓄積時間にも比例
するからである。そこであらかじめアレイセンサー23の
暗時出力値を蓄積時間をTintonとTintoffとで測定し
て、その値をNintonとNintoffとしてメモリーに記憶し
ておく(アレイセンサー23の出力=入射光量による光電
変換成分+暗時出力成分)。
It is an array sensor driving means that can change the accumulation time in two steps, that is, the accumulation time when the light source 16 is turned on.
The tinton is set to the same accumulation time as the 13th (a), that is, T 2 . In addition, Tintoff is the accumulation time when the light is off, and
We will set it so that intoff <Tinton.
In this way, even if only the signal component is obtained by the above-described method, the accurate signal component cannot be obtained because the length of the accumulation time differs depending on whether the light is on or off. That is, the photoelectric output of the array sensor 23 is proportional to not only the amount of incident light but also the accumulation time. Therefore, the dark output value of the array sensor 23 is measured in advance by the accumulation time Tinton and Tintoff, and the value is stored in the memory as Ninton and Nintoff (output of the array sensor 23 = photoelectric conversion component depending on incident light amount + Dark output component).

またアレイセンサー23の同一入射光量による蓄積時間Ti
ntonとTintoffとの光電変換の比例定数Kを測定してお
き、メモリーに記憶させておく。
In addition, the accumulation time Ti for the same incident light amount of the array sensor 23
The proportional constant K of photoelectric conversion between nton and Tintoff is measured and stored in the memory.

このようにして消灯時にアレイセンサーに蓄積された信
号成分を読み出すときに読み出されたアレイセンサーデ
ータSintoffに対して(Sintoff-Nintoff)×Kを計算す
る。点灯時のデータをSintonに対して(Sinton-Ninton)
を計算し、さらに(Sinton-Ninton)-(Sintoff-Nintoff)
×Kを求めることによって信号成分だけを得ることがで
きる。
In this way, (Sintoff-Nintoff) × K is calculated for the array sensor data Sintoff read when reading the signal components accumulated in the array sensor when the light is turned off. Lighting data for Sinton (Sinton-Ninton)
And then (Sinton-Ninton)-(Sintoff-Nintoff)
Only the signal component can be obtained by obtaining xK.

暗時出力値が信号成分に対して無視できるようであれば
(Sinton-Sintoff)×Kを求めることもでも十分である。
それならばアレイセンサー駆動手段と同期してA/Dコ
ンバータの基準電源VrefをTintonとTintoffとの光電変
換の比例定数Kの割合でつまりVrefonとVrefoff(Vrefon
=Vrefoff×K)とに切り替えるか、VrefonとVrefoffを
基準電源とした2つのA/Dコンバータを使用して、A
/Dコンバータを切り替えるようにすれば、光源16が消
灯時に蓄積されたアレイセンサー出力を読み取った後に
比例定数Kを乗ずる必要もなく、さらに蓄積時間を短く
することによって出力値が小さくなり、それによるダイ
ナミックレンジの低下を避けることもできる。
If the dark output value can be ignored for the signal component
It is sufficient to obtain (Sinton-Sintoff) × K.
Then, in synchronization with the array sensor driving means, the reference power source Vref of the A / D converter is set at the ratio of the proportional constant K of photoelectric conversion between Tinton and Tintoff, that is, Vrefon and Vrefoff (Vrefon
= Vrefoff × K) or by using two A / D converters with Vrefon and Vrefoff as the reference power supply,
If the / D converter is switched, it is not necessary to multiply the proportional constant K after reading the array sensor output accumulated when the light source 16 is turned off, and further shortening the accumulation time reduces the output value. It is also possible to avoid lowering the dynamic range.

なお、以上の説明では指標板18を指標投影用光源16によ
って背後から照明し、指標板18のスリットを発光指標と
して用いていたが、スリットの代わりに長方形の発光体
を設け、この発光体を発光指標として用いても良いこと
は勿論である。
In the above description, the index plate 18 is illuminated from behind by the index projection light source 16, and the slit of the index plate 18 is used as a light emitting index.However, a rectangular light emitter is provided instead of the slit, and this light emitter is used. Of course, it may be used as a light emission index.

また、指標の光量を変化させるためには他の種々の光量
調節手段、例えば絞りやNDフィルターを用いることも
同様に考えることができる。
Further, in order to change the light quantity of the index, it is possible to use other various light quantity adjusting means, for example, a diaphragm or an ND filter.

(発明の効果) 以上のように本発明を実施することにより光学的ノイズ
(観察光によるノイズや迷光等)や電気的ノイズを除く
ことができ、また指標の光量をコントロールすることに
より眼底のどこでも正確な合焦検出ができるようになっ
(Effects of the Invention) By implementing the present invention as described above, optical noise (noise due to observation light, stray light, etc.) and electrical noise can be removed, and by controlling the light amount of an index, it can be anywhere on the fundus. Accurate focus detection is now possible

【図面の簡単な説明】[Brief description of drawings]

第1図は、本発明の一実施例を有する眼底カメラの光学
系及び電気ブロックを示す図、 第2図は、第1図のうち、合焦情報検出光学系および観
察光学系のみを示した図、 第3図は、リングスリットの拡大平面図、 第4図は、指標を有する指標の拡大平面図、 第5図は、瞳分割屋根形プリズムの拡大斜視図、 第6図は、合焦情報検出光学系の主要部拡大図、 第7図は、アレイセンサー上の光像の強度分布を示す
図、 第8図は、第1図の電気ブロックの詳細図、 第9図は、アレイセンサーの駆動状態を示す図、 第10図(a),(b)は、第8図で用いたマイクロコンピュー
タの作動を説明するためのフローチャート、 第11図は、変倍したときの合焦時のスリット像の移動
(被検眼OD)を示す図、 第12図(a),(b),(c)は、信号成分+不要な雑音成分
(a)、不要な雑音成分(b)、信号成分(c)を各々示す図、 第13図(a),(b)は、スタートパルス(a)、光源16の消灯
期間と点灯期間の関係(b)を示す図、 第14図(a),(b)は、スタートパルス(a)の光源16の消灯
期間と点灯期間の関係(b)を示す図、である。 (主要部分の符号の説明) 7……ダイクロイックプリズム、8……リングスリット
用リレーレンズ、9……穴あきミラー、10……開口絞
り、11……対物レンズ、13……リレーレンズ、13a……
変倍リレーレンズ、14……ダイクロイックミラー、16…
…指標投影用光源、17a,17b……指標投影系用リレーレ
ンズ、18……指標板、19……視野絞り、20……フィール
ドレンズ、21……再結像レンズ、22……瞳分割屋根形プ
リズム、23……アレイセンサー、24……駆動手段、25…
…演算手段、26……モーター駆動手段、M……モータ
ー、252……マイクロコンピュータ、253……指標投影用
光源駆動回路。
FIG. 1 is a diagram showing an optical system and an electric block of a fundus camera having an embodiment of the present invention, and FIG. 2 shows only a focus information detection optical system and an observation optical system in FIG. Fig. 3, Fig. 3 is an enlarged plan view of a ring slit, Fig. 4 is an enlarged plan view of an index having an index, Fig. 5 is an enlarged perspective view of a split pupil roof prism, and Fig. 6 is an in-focus state. An enlarged view of the main part of the information detection optical system, FIG. 7 is a view showing the intensity distribution of the optical image on the array sensor, FIG. 8 is a detailed view of the electric block of FIG. 1, and FIG. 9 is an array sensor. 10 (a) and 10 (b) are flowcharts for explaining the operation of the microcomputer used in FIG. 8, and FIG. 11 is a flowchart for explaining the operation of the microcomputer used in FIG. The figure which shows the movement of the slit image (eye OD to be inspected), FIG. 12 (a), (b), (c) shows the signal component + unnecessary noise component.
FIG. 13 (a), unnecessary noise component (b), and signal component (c), respectively, and FIGS. 13 (a) and 13 (b) show the relationship between the start pulse (a), the turn-off period and the turn-on period of the light source 16, respectively. FIG. 14 (b) is a diagram, and FIGS. 14 (a) and 14 (b) are diagrams showing a relationship (b) between the turn-off period and the turn-on period of the light source 16 of the start pulse (a). (Explanation of symbols of main parts) 7 ... dichroic prism, 8 ... relay lens for ring slit, 9 ... perforated mirror, 10 ... aperture stop, 11 ... objective lens, 13 ... relay lens, 13a ... …
Variable magnification relay lens, 14 …… dichroic mirror, 16…
Light source for index projection, 17a, 17b ... Relay lens for index projection system, 18 ... Index plate, 19 ... Field stop, 20 ... Field lens, 21 ... Reimaging lens, 22 ... Split pupil roof Shape prism, 23 ... Array sensor, 24 ... Driving means, 25 ...
… Computing means, 26 …… Motor driving means, M …… Motor, 252 …… Microcomputer, 253 …… Light source driving circuit for index projection.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】被検眼眼底に発光指標を投影する指標投影
光学系と被検眼眼底の前記指標を受光する光電変換器を
有し、該光電変換器の出力によって、合焦情報を検出す
る合焦情報検出光学系とを備えた眼底観察装置の合焦検
出装置において、前記指標を投影するか否かを選択する
選択手段と、前記指標の投影時に前記光電変換器から得
られる第1の信号と前記指標の非投影時に前記光電変換
器から得られる第2の信号との差信号を求め、該差信号
から合焦信号を出力する減算手段と、前記選択手段によ
り前記指標が投影されているときに、前記光電変換器か
ら得られる信号が所定のレベル以上のときに、前記レベ
ル以下になるように前記指標の光量を減少させる制御手
段と、を設けたことを特徴とする合焦検出装置。
1. An index projection optical system for projecting a luminescent index onto the fundus of the eye to be inspected and a photoelectric converter for receiving the index of the fundus to be inspected, the focus information being detected by the output of the photoelectric converter. In a focus detection device of a fundus oculi observation device including a focus information detection optical system, selection means for selecting whether or not to project the index, and a first signal obtained from the photoelectric converter when projecting the index. And a second subtraction signal obtained from the photoelectric converter when the index is not projected, subtraction means for outputting a focus signal from the difference signal, and the selection means projecting the index. Sometimes, when the signal obtained from the photoelectric converter is above a predetermined level, the focus detection device is provided with a control means for reducing the light amount of the index so as to be below the level. .
JP60181421A 1985-08-19 1985-08-19 Focus detection device of fundus observation device Expired - Lifetime JPH0624517B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60181421A JPH0624517B2 (en) 1985-08-19 1985-08-19 Focus detection device of fundus observation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60181421A JPH0624517B2 (en) 1985-08-19 1985-08-19 Focus detection device of fundus observation device

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP7103886A Division JPH07313465A (en) 1995-04-27 1995-04-27 Focusing detector of fundus oculi observation system
JP7103885A Division JP2803594B2 (en) 1995-04-27 1995-04-27 Focus detection device for fundus observation device

Publications (2)

Publication Number Publication Date
JPS6241637A JPS6241637A (en) 1987-02-23
JPH0624517B2 true JPH0624517B2 (en) 1994-04-06

Family

ID=16100474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60181421A Expired - Lifetime JPH0624517B2 (en) 1985-08-19 1985-08-19 Focus detection device of fundus observation device

Country Status (1)

Country Link
JP (1) JPH0624517B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8722839D0 (en) * 1987-09-29 1987-11-04 Shell Int Research Hydrocracking of hydrocarbon feedstock
JP2753527B2 (en) * 1988-03-18 1998-05-20 キヤノン株式会社 Eye refractive power measuring device
JPH07313466A (en) * 1994-05-20 1995-12-05 Nikon Corp Fundus oculi photographing system
JPH0833610A (en) * 1994-07-25 1996-02-06 Nikon Corp Ophthalmological photographing device
US5694198A (en) * 1995-06-13 1997-12-02 Nikon Corporation Apparatus including waveform rectifying means and method for eye examination
JP5341386B2 (en) * 2008-04-24 2013-11-13 キヤノン株式会社 Ophthalmic imaging equipment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59230534A (en) * 1983-06-13 1984-12-25 キヤノン株式会社 Ophthalmic automatic focusing apparatus
JPS60135025A (en) * 1983-12-23 1985-07-18 キヤノン株式会社 Measurement of refractive power of eye

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59230534A (en) * 1983-06-13 1984-12-25 キヤノン株式会社 Ophthalmic automatic focusing apparatus
JPS60135025A (en) * 1983-12-23 1985-07-18 キヤノン株式会社 Measurement of refractive power of eye

Also Published As

Publication number Publication date
JPS6241637A (en) 1987-02-23

Similar Documents

Publication Publication Date Title
EP0392744B1 (en) Ophthalmological measurement method and apparatus
US4436388A (en) Eye-fundus camera provided with automatic focusing function
JPH08564A (en) Ophthalmologic device
JP2014083397A (en) Ophthalmologic apparatus, control method thereof, and program
JPH07313464A (en) Focusing detector of fundus oculi observation system
JPH0624517B2 (en) Focus detection device of fundus observation device
US4389565A (en) Automatic focus controlling device
JPH07313465A (en) Focusing detector of fundus oculi observation system
JP2000116602A (en) Retinal camera
JPS5991943A (en) Apparatus for measuring refractive index of eye
JPH044891B2 (en)
JP2001258848A (en) Fundus camera
JPS6017052B2 (en) Slit lamp photometering device
US5694198A (en) Apparatus including waveform rectifying means and method for eye examination
JP3762025B2 (en) Ophthalmic examination equipment
JP5539103B2 (en) Fundus camera
JP5383285B2 (en) Ophthalmic apparatus and control method thereof
JPH08317905A (en) Eyeground camera
JP2001112716A (en) Ophthalmic examination apparatus
JP5680164B2 (en) Ophthalmic apparatus, image acquisition method, and program
JPH08150121A (en) Eyeground camera
JP2830168B2 (en) Eye gaze detection device
JPH1080399A (en) Photographing apparatus for ophthalmology
JP3650143B2 (en) Photomicroscope
JPH043215B2 (en)