JP2004113530A - Fundus camera - Google Patents

Fundus camera Download PDF

Info

Publication number
JP2004113530A
JP2004113530A JP2002282105A JP2002282105A JP2004113530A JP 2004113530 A JP2004113530 A JP 2004113530A JP 2002282105 A JP2002282105 A JP 2002282105A JP 2002282105 A JP2002282105 A JP 2002282105A JP 2004113530 A JP2004113530 A JP 2004113530A
Authority
JP
Japan
Prior art keywords
fundus
image
photographed
divided
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002282105A
Other languages
Japanese (ja)
Inventor
Takeyuki Kato
加藤 健行
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2002282105A priority Critical patent/JP2004113530A/en
Publication of JP2004113530A publication Critical patent/JP2004113530A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a fundus camera whereby a region of an eye fundus photographed before is made to coincide automatically with one to be photographed this time. <P>SOLUTION: A dividing means divides a fundus image ErG shown at present and a fundus image ErK photographed before into 36 divisions AG1-AG36 and AK1-AK36, respectively, for instance. A determination calculation means compares the divisions AG1-AG36 and the divisions AK1-AK36 with each other and determines whether or not split images in the divisions AG1-AG36 and in the divisions AK1-AK36 coincide with each other, while it calculates the number of coincidences of the split images. Based on the results of calculation of the determination calculation means, a control device controls automatically pulse motors and drives automatically main equipment in the direction wherein the number of coincidences of the split images in the divisions AG1-AG36 with those in the divisions AK1-AK36 increases. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、今回撮影する眼底像を以前に撮影した眼底像に自動的に一致させることのできる眼底カメラに関する。
【0002】
【従来の技術】
従来から、眼底カメラでは、顎を顎受けに載せ、額を額当てに当接させ、被検眼に固視標を提示して、被検眼に対する装置本体の作動距離(角膜頂点から装置本体の対物レンズまでの光軸方向距離)と被検眼に対する装置本体の光軸方向の上下左右方向位置との整合を図り、被検眼に対する装置本体の位置決めを行った後、撮影したい眼底部位に被検眼の視線を誘導し、その眼底部位を撮影している(例えば、特許文献1参照。)。
【0003】
【特許文献1】
特開2002−209855号公報(図2)
【0004】
【発明が解決しようとする課題】
しかしながら、同じ眼底カメラを用いて、以前に撮影した眼底部位を再度撮影したいとき、以前に撮影したと同様に被検眼に対して装置本体を位置決めしたとしても、かつ、被検眼の視線の方向を以前撮影した視線の方向へ固視標を用いて誘導したとしても、顎受けに対する顎の置き方、額当てへの額の当て方等、被検眼と装置本体との微妙な位置関係のずれによって、以前に撮影した眼底部位と同一部位を撮影し難いという問題点がある。
【0005】
本発明は、上記の事情に鑑みて為されたもので、その目的とするところは、以前に撮影した眼底部位を今回撮影する眼底部位に自動的に一致させることのできる眼底カメラを提供することにある。
【0006】
【課題を解決するための手段】
請求項1に記載の眼底カメラは、以前に撮影した眼底像と今回撮影する眼底像とを画像比較する画像比較処理手段と、該画像比較処理手段の比較結果に基づき以前に撮影した眼底部位に今回撮影する眼底部位が一致するように撮影光学系を内蔵する装置本体を自動的に駆動する駆動手段とが設けられ、
前記画像比較処理手段は、以前に撮影した眼底部位と今回撮影する眼底部位とを大きさが同じでかつ個数が一致する複数個の区画に分割する分割手段と、該分割手段により分割された一方の眼底部位の分割区画内に含まれている分割区画内画像と前記分割手段により分割された他方の眼底部位の分割区画内に含まれている分割区画内画像との当該他方の眼底部位の全分割区画についての比較を一方の眼底部位の各分割区画毎に全分割個数に渡って行って分割区画内画像同士が一致するか否かを判定すると共に一致個数を演算する判定演算手段とを備え、
前記駆動手段は、前記判定演算手段の演算結果に基づき一致個数が増大する方向に前記装置本体を駆動することを特徴とする。
【0007】
請求項2に記載の眼底カメラは、請求項1に記載の眼底カメラにおいて、以前に撮影した眼底部位が被検眼に対して上下左右方向のいずれの位置であるか予め知得されているときには、手動スイッチ操作に基づく駆動手段の駆動により以前に撮影した眼底部位が撮像される方向に前記装置本体を自動的に移動することを特徴とする。
【0008】
請求項3に記載の眼底カメラは、請求項1に記載の眼底カメラにおいて、 前記判定演算手段は、今回撮影する眼底部位の分割区画のうち以前に撮影した眼底部位の分割区画内画像と一致する分割区画が今回撮影する眼底部位の中央部に対していずれの方向にあるかを判断して、その中央部に対して以前に撮影した眼底部位の分割区画内画像と一致する分割区画内画像が存在する方向に前記装置本体が自動的に駆動されるように前記駆動手段を制御することを特徴とする。
【0009】
【発明の実施の形態】
図1は本発明に係わる眼底カメラの一例を示し、ここでは、無散瞳タイプのものが示されている。
<構成>
この図1において、1Aはベース、1Bは架台、1Cは装置本体、2は顎受け、3は額当て、4は外部固視灯、5Aはジョイスティック、5Bは撮影スイッチ、6はTVカメラであり、これらの構成は公知である。また、7は装置本体1Cの後面(検者側の面)、8は後面7に設けられた表示手段としての液晶表示器等のモニターである。また、図2において、9は制御装置であり、装置本体1Cにはジョイスティック5Aの手動操作により駆動される駆動手段としてのパルスモータPM’が内蔵され、制御装置9に接続されている。
<光学系>
装置本体1Cの内部には、図2に示すように、被検眼Eの眼底Erを照明する照明光学系10、眼底Erを撮影する撮影光学系20、眼底Erを観察する観察光学系20’、眼底Erに固視標を投影して被検眼Eを固視させる内部固視標投影光学系50、被検眼Eに対する装置本体1Cの位置合わせを行うアライメント光学系(図示を略す)を備えている。
【0010】
照明光学系10は、対物レンズ11、孔空きミラー12、リレーレンズ13、反射ミラー14、リレーレンズ15、被検眼Eの瞳孔Eaと共役関係に保たれたリング開口16Aを有するリング開口板16、ダイクロイックミラー17、コンデンサレンズ18a、18b、ハロゲンランプやキセノンランプ等の可視照明光源19a、赤外レーザーダイオード等の赤外照明光源19bを有する。
【0011】
この照明光学系10は、観察時には赤外照明光源19bを点灯させて赤外光により眼底を照明し、撮影時には可視照明光源19aを点灯させて可視光により眼底Erを照明する。
【0012】
すなわち、撮影時に可視照明光源19aから発光される可視光は、コンデンサレンズ18a、ダイクロイックミラー17、リング開口板16のリング開口16A、リレーレンズ15、反射ミラー14、リレーレンズ13、孔空きミラー12、対物レンズ11を介して被検眼Eに案内され、被検眼Eの眼底Erを照明する。
【0013】
また、観察時、赤外照明光源19bから発光される赤外光は、コンデンサレンズ18b、ダイクロイックミラー17、リング開口板16のリング開口16A、リレーレンズ15、反射ミラー14、リレーレンズ13、孔空きミラー12、対物レンズ11を介して被検眼Eに案内され、被検眼Eの眼底Erを照明する。
【0014】
撮影光学系20は、対物レンズ11、変倍レンズML、図1に示す操作ノブ21Aが連結された合焦レンズ21、結像レンズ22、反射ミラー23を有し、TVカメラ6は撮像素子6aを有する。TVカメラ6はフィールドレンズ24、反射ミラー25、リレーレンズ26からなるリレーレンズ系25Aを介して撮影光学系20に光学的に接続されている。その撮像素子6aは眼底Erと光学的に共役関係に維持される。なお、変倍レンズMLは、図示を略すパルスモータ(駆動手段)PMにより駆動制御される。
【0015】
観察光学系20’は、ダイクロイックミラー23’、反射ミラー25’、リレーレンズ26’、TVカメラ6’を有し、TVカメラ6’は撮像素子6a’を有する。ダイクロイックミラー23’は、赤外光を反射し、可視光を透過する特性を有する。その撮像素子6a’は眼底Erと光学的に共役関係に維持される。
【0016】
内部固視標投影光学系50は、図3に示すように、中心に配置された発光ダイオード51a、この発光ダイオード51aの周囲に円周方向に配置された8個の発光ダイオード51b〜51i、図4に示すように各発光ダイオード51a〜51iに対向して設けられたピンホール52a〜52iを有するマスク板52、ハーフミラー53、結像レンズ22、合焦レンズ21、対物レンズ11からなる。
【0017】
この発光ダイオード51a〜51iの光はピンホール52a〜52i、ハーフミラー53、結像レンズ22、合焦レンズ21、対物レンズ11を介して眼底Erに固視標として投影され、眼底Erにピンホール像が結像され、被検者はこの固視標を視認することにより被検眼の視軸が固定され、このピンホール52a〜52iのいずれを点灯させるかによって、撮影光学系20の光軸Oに対する被検者の固視方向が変更され、これにより、眼底Erの撮影すべき部位が変更される。例えば、発光ダイオード51a〜51iをそれぞれ発光させると図5に示すように各眼底部位Er1〜Er9が撮影される。
<制御装置>
制御装置9には、ジョイステッィク5Aの撮影スイッチ5B、TVカメラ6、6’が接続され、撮影スイッチ5Bのオン・オフ信号、TVカメラ6、6’の映像信号が入力される。また、制御装置9には、マウス、キーボード等の入力手段70、画像記録再生装置としてのスチルビデオレコーダ71、画像記憶手段としての第1のフレームメモリ72が接続されている。この第1のフレームメモリ72には以前に撮影した後述の眼底像ErKが記憶されている。
【0018】
また、制御装置9には、被検眼Eをリアルタイムで観察するために、TVカメラ6’で撮影されている被検眼Eの眼底像ErGを記憶する第2のフレームメモリ73が接続されている。制御装置9は、第2のフレームメモリ73の眼底像データをリアルタイムで更新し、この更新された画像データを画像処理回路74を介してモニター8に出力し、TVカメラ6’で撮影された眼底像ErGを画面8Aにリアルタイムで表示するものとされている。そして、制御装置9には、以前に撮影された眼底像ErKと現在映し出されている眼底像ErGとを画像比較する画像比較処理手段100が接続されており、この画像比較処理手段100は分割手段101と判定演算手段102とを備えている。
【0019】
ここで、被検眼Eの眼底Erの目的の部位を撮影するに際して、制御装置9は、図6に示すように、現在映し出されている眼底像ErGを画面8Aに表示すると共に、以前に撮影された眼底像ErKを第1のフレームメモリ72から読み出して画面8Aに表示する。
【0020】
次に、分割手段101は、図7に示すように、現在映し出されている眼底像ErGと以前に撮影された眼底像ErKとを、大きさが同じでかつ個数が一致する複数個に分割する。すなわち、分割手段101はフレームメモリ72、73の領域を例えば36個ずつの矩形状の分割区画AG1〜AG36と分割区画AK1〜AK36とに分割する。
【0021】
ついで、制御装置9は装置本体1Cをランダムな方向に移動させる。そして、このランダムな移動の結果、たとえば分割区画AG1〜AG36の一部と分割区画AK1〜AK36の一部とが重なったとする。その図7には、現在映し出されている眼底像ErGの分割区画AG5、AG6、AG11、AG12と、以前に撮影された眼底像ErKの分割区画AK25、AK26、AK31、AK32とがそれぞれ重なっている状態が示されている。
【0022】
判定演算手段102は、現在映し出されている眼底像ErGの分割区画AG1〜AG36内に含まれている分割画像と、以前に撮影された眼底像ErKの分割区画AK1〜AK36内に含まれている分割画像とを以下に説明するようにして比較する。
【0023】
すなわち、現在映し出されている眼底像ErGの1番目の分割区画AG1と、以前に撮影された眼底像ErKの全ての分割区画AK1〜AK36とを順次に比較する。次に、現在映し出されている眼底像ErGの2番目の分割区画AG2と、以前に撮影された眼底像ErKの全ての分割区画AK1〜AK36とを同様に比較する。このようにして順次に比較を続け、現在映し出されている眼底像ErGの36番目の分割区画AG36と、以前に撮影された眼底像ErKの全ての分割区画AK1〜AK36とを順次に比較することにより、現在映し出されている眼底像ErGの分割区画AG1〜AG36内に含まれている分割画像と、以前に撮影された眼底像ErKの分割区画AK1〜AK36内に含まれている分割画像との比較を終了する。
【0024】
この間に、判定演算手段102は、現在映し出されている眼底像ErGの分割区画AG1〜AG36内の分割画像と、以前に撮影された分割区画AK1〜AK36内の分割画像とが、それぞれ一致するか否かを判定すると共に一致個数を演算する。ここでは、上述したように現在映し出されている眼底像ErGの分割区画AG5、AG6、AG11、AG12と、以前に撮影された眼底像ErKの分割区画AK25、AK26、AK31、AK32とが一致したことを判定すると共に、一致個数が4であると判定する。また、個数に対する一致度としての整合率を演算する。一致個数が4であるとき、整合率は4/36であると演算する。
【0025】
また、判定演算手段102は、現在映し出されている眼底像ErGの分割区画AG1〜AG36のうち、以前に撮影された眼底像ErKの分割区画AK1〜AK36内の分割画像と一致する分割画像が、現在映し出されている眼底像ErGの中央部に対していずれの方向にあるかを判断する。
【0026】
そして、制御装置9は、判定演算手段102の演算結果に基づいてパルスモータPM’を駆動し、現在映し出されている眼底像ErGの中央部に対して、以前に撮影された眼底像ErKの分割区画AK1〜AK36内の分割画像と一致する分割画像が現在映し出されている眼底像ErGの分割区画AG1〜AG36に存在する方向に装置本体1Cを自動的に駆動する。このときの画面8A上での装置本体1Cの移動方向を矢印で示す。これにより、装置本体1Cが被検眼Eに対して自動的に移動し、図8に示すように画面8A上に以前に撮影された眼底像ErKと一致する眼底像ErGが映し出される。
【0027】
そして、整合率が一定以上になると、判定演算手段102はパルスモータPM’の作動を停止し、装置本体1Cの移動を停止する。従って、撮影者が撮影スイッチ5Bを操作すれば、現在映し出されている眼底像ErGを以前に撮影された眼底像ErKに正確に一致させて撮影できる。
【0028】
なお、上述の実施の形態では、現在映し出されている眼底像ErGと以前に撮影された眼底像ErKとをそれぞれ36個に分割したが、36個を超えて分割すれば眼底像ErG、ErK同士をより正確に一致させることが可能となり、36個以下に分割すればそれらをより迅速に一致させることができる。
【0029】
また、分割区画AG1〜AG36の一部と分割区画AK1〜AK36の一部とが重なるように装置本体1Cをランダム方向に移動させたが、以前に撮影された眼底像ErKが被検眼Eに対して上下左右方向のいずれの位置にあるかを予め知得できる場合には、図示しないスイッチの操作に基づいてパルスモータPM’を制御し、以前に撮影された眼底像ErKが撮像される方向に装置本体1Cを自動的に移動するように構成できる。
【0030】
さらに、ここでは以前に撮影された眼底像ErKを画面8Aに表示したが、必ずしも表示する必要はない。
【0031】
【発明の効果】
本発明によれば、判定演算手段の演算結果に基づいて分割区画内画像同士の一致個数が増大する方向に装置本体を駆動することにより、以前に撮影した眼底部位を今回撮影する眼底部位に自動的に一致させることができる。
【図面の簡単な説明】
【図1】本発明に係わる眼底カメラの外観図である。
【図2】本発明に係わる眼底カメラの要部構成を示す図である。
【図3】図2に示す発光ダイオードの配置を示す図である。
【図4】図2に示すマスク板の一例を示す図である。
【図5】撮影光学系によって撮影される眼底部位の説明図である。
【図6】現在映し出されている眼底像と以前に撮影された眼底像とを画面に表示した状態の図である。
【図7】現在映し出されている眼底像と以前に撮影された眼底像とを複数個に分割した状態の図である。
【図8】現在映し出されている眼底像が以前に撮影された眼底像に一致した状態の図である。
【符号の説明】
1C 装置本体
5A ジョイスティック
20 撮影光学系
100 画像比較処理手段
101 分割手段
102 判定演算手段
AG1〜AG36 現在映し出されている眼底像の分割区画
AK1〜AK36 以前に撮影された眼底像の分割区画
E 被検眼
ErG 現在映し出されている眼底像
ErK 以前に撮影された眼底像
PM’ パルスモータ
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a fundus camera that can automatically match a fundus image captured this time with a fundus image captured previously.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, in a fundus camera, a chin is placed on a chin rest, a forehead is brought into contact with a forehead rest, a fixation target is presented to an eye to be examined, and a working distance of the apparatus body with respect to the eye to be examined (from the corneal vertex to the (The distance in the optical axis direction to the lens) and the vertical and horizontal positions in the optical axis direction of the apparatus main body with respect to the eye to be inspected. , And the fundus region is photographed (for example, see Patent Document 1).
[0003]
[Patent Document 1]
JP-A-2002-209855 (FIG. 2)
[0004]
[Problems to be solved by the invention]
However, when the same fundus camera is used to re-capture the previously captured fundus region, even if the apparatus body is positioned with respect to the subject's eye in the same manner as previously captured, and the direction of the line of sight of the subject's eye is changed. Even if the eye is guided using the fixation target in the direction of the line of sight taken previously, the delicate positional relationship between the subject's eye and the device body, such as how to place the chin on the chin rest and how to apply the forehead to the forehead, etc. However, there is a problem that it is difficult to photograph the same region as the fundus region previously photographed.
[0005]
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a fundus camera capable of automatically matching a previously photographed fundus region with a fundus region photographed this time. It is in.
[0006]
[Means for Solving the Problems]
The fundus camera according to claim 1, wherein an image comparison processing unit that compares an image between a previously captured fundus image and a fundus image captured this time, and a fundus region captured previously based on a comparison result of the image comparison processing unit. Driving means for automatically driving the device body incorporating the photographing optical system so that the fundus region to be photographed this time coincides is provided,
The image comparison processing unit includes a dividing unit that divides a fundus part previously photographed and a fundus part that is photographed this time into a plurality of sections having the same size and the same number, and one of the divided parts. Of the other segment of the fundus of the fundus region and the image of the other segment of the fundus included in the segment of the other fundus segment divided by the dividing means. A determination operation unit that performs the comparison of the divided sections over all divided numbers for each divided section of one fundus region, determines whether the images in the divided sections match, and calculates the number of matches. Prepare,
The driving means drives the apparatus main body in a direction in which the number of matches increases based on the calculation result of the determination calculation means.
[0007]
The fundus camera according to claim 2 is the fundus camera according to claim 1, wherein it is previously known which position in the up, down, left, or right direction the fundus region previously photographed is with respect to the subject's eye. The apparatus body is automatically moved in a direction in which a fundus region previously photographed is imaged by driving the driving means based on a manual switch operation.
[0008]
The fundus camera according to claim 3 is the fundus camera according to claim 1, wherein the determination calculation unit matches an image in a divided section of the fundus part captured earlier in a divided section of the fundus part captured this time. It is determined in which direction the divided section is located with respect to the central portion of the fundus region to be photographed this time, and an image in the divided section corresponding to the previously acquired image in the divided section of the fundus region is determined for the central portion. The driving means is controlled so that the apparatus main body is automatically driven in the existing direction.
[0009]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 shows an example of a fundus camera according to the present invention, in which a non-mydriatic type is shown.
<Structure>
In FIG. 1, 1A is a base, 1B is a base, 1C is a device body, 2 is a chin rest, 3 is a forehead, 4 is an external fixation lamp, 5A is a joystick, 5B is a photographing switch, and 6 is a TV camera. These configurations are known. Reference numeral 7 denotes a rear surface (a surface on the examiner side) of the apparatus main body 1C, and reference numeral 8 denotes a monitor such as a liquid crystal display as a display means provided on the rear surface 7. In FIG. 2, reference numeral 9 denotes a control device, and a pulse motor PM ′ as driving means driven by manual operation of the joystick 5A is built in the device main body 1C, and is connected to the control device 9.
<Optical system>
As shown in FIG. 2, an illumination optical system 10 for illuminating the fundus Er of the eye E to be examined, a photographing optical system 20 for photographing the fundus Er, an observation optical system 20 ′ for observing the fundus Er, An internal fixation target projection optical system 50 for projecting a fixation target onto the fundus Er to fixate the eye E to be inspected, and an alignment optical system (not shown) for positioning the apparatus main body 1C with respect to the eye E to be inspected are provided. .
[0010]
The illumination optical system 10 includes an objective lens 11, a perforated mirror 12, a relay lens 13, a reflection mirror 14, a relay lens 15, a ring aperture plate 16 having a ring aperture 16A maintained in a conjugate relationship with the pupil Ea of the eye E, It has a dichroic mirror 17, condenser lenses 18a and 18b, a visible illumination light source 19a such as a halogen lamp or a xenon lamp, and an infrared illumination light source 19b such as an infrared laser diode.
[0011]
The illumination optical system 10 illuminates the fundus with infrared light by illuminating the infrared illumination light source 19b during observation, and illuminates the fundus Er with visible light by illuminating the visible illumination light source 19a during imaging.
[0012]
That is, the visible light emitted from the visible illumination light source 19a at the time of photographing is the condenser lens 18a, the dichroic mirror 17, the ring opening 16A of the ring opening plate 16, the relay lens 15, the reflection mirror 14, the relay lens 13, the holed mirror 12, The eye E is guided through the objective lens 11 and illuminates the fundus Er of the eye E.
[0013]
At the time of observation, the infrared light emitted from the infrared illumination light source 19b is supplied to the condenser lens 18b, the dichroic mirror 17, the ring opening 16A of the ring opening plate 16, the relay lens 15, the reflection mirror 14, the relay lens 13, The eye E is guided through the mirror 12 and the objective lens 11 to illuminate the fundus Er of the eye E.
[0014]
The photographing optical system 20 includes an objective lens 11, a variable power lens ML, a focusing lens 21 to which an operation knob 21A shown in FIG. 1 is connected, an imaging lens 22, and a reflection mirror 23, and the TV camera 6 includes an image sensor 6a. Having. The TV camera 6 is optically connected to the photographing optical system 20 via a relay lens system 25A including a field lens 24, a reflection mirror 25, and a relay lens 26. The image sensor 6a is maintained in an optically conjugate relationship with the fundus Er. The drive of the variable power lens ML is controlled by a pulse motor (drive means) PM (not shown).
[0015]
The observation optical system 20 'has a dichroic mirror 23', a reflection mirror 25 ', a relay lens 26', and a TV camera 6 ', and the TV camera 6' has an image sensor 6a '. The dichroic mirror 23 'has a characteristic of reflecting infrared light and transmitting visible light. The image sensor 6a 'is maintained in an optically conjugate relationship with the fundus Er.
[0016]
As shown in FIG. 3, the internal fixation target projection optical system 50 includes a light emitting diode 51a disposed at the center, and eight light emitting diodes 51b to 51i disposed circumferentially around the light emitting diode 51a. As shown in FIG. 4, a mask plate 52 having pinholes 52a to 52i provided opposite to the light emitting diodes 51a to 51i, a half mirror 53, an imaging lens 22, a focusing lens 21, and an objective lens 11 are provided.
[0017]
The light from the light emitting diodes 51a to 51i is projected as a fixation target on the fundus Er via the pinholes 52a to 52i, the half mirror 53, the imaging lens 22, the focusing lens 21, and the objective lens 11, and the pinhole is formed on the fundus Er. An image is formed, and the subject visually recognizes the fixation target so that the visual axis of the subject's eye is fixed. Depending on which of the pinholes 52a to 52i is turned on, the optical axis O of the imaging optical system 20 is determined. The fixation direction of the subject with respect to is changed, thereby changing the part of the fundus Er to be imaged. For example, when the light emitting diodes 51a to 51i emit light, the fundus oculi parts Er1 to Er9 are photographed as shown in FIG.
<Control device>
The control device 9 is connected to the photographing switch 5B of the joystick 5A and the TV cameras 6, 6 ', and receives the ON / OFF signal of the photographing switch 5B and the video signals of the TV cameras 6, 6'. Further, the control device 9 is connected with input means 70 such as a mouse and a keyboard, a still video recorder 71 as an image recording / reproducing device, and a first frame memory 72 as image storage means. The first frame memory 72 stores a fundus image ErK, which has been photographed before and will be described later.
[0018]
In order to observe the eye E in real time, a second frame memory 73 that stores a fundus image ErG of the eye E captured by the TV camera 6 ′ is connected to the control device 9. The control device 9 updates the fundus image data in the second frame memory 73 in real time, outputs the updated image data to the monitor 8 via the image processing circuit 74, and updates the fundus image captured by the TV camera 6 ′. The image ErG is displayed on the screen 8A in real time. The control device 9 is connected to an image comparison processing unit 100 for comparing the image of the fundus image ErK captured previously and the currently displayed fundus image ErG, and the image comparison processing unit 100 includes a dividing unit. 101 and a judgment calculation means 102.
[0019]
Here, when photographing a target portion of the fundus Er of the eye E to be examined, as shown in FIG. 6, the control device 9 displays the currently projected fundus image ErG on the screen 8A, and simultaneously captures the previously photographed fundus image ErG. The obtained fundus image ErK is read out from the first frame memory 72 and displayed on the screen 8A.
[0020]
Next, as shown in FIG. 7, the dividing unit 101 divides the currently displayed fundus image ErG and the previously captured fundus image ErK into a plurality of pieces having the same size and the same number of pieces. . That is, the dividing means 101 divides the area of the frame memories 72 and 73 into, for example, 36 rectangular divided sections AG1 to AG36 and divided sections AK1 to AK36.
[0021]
Next, the control device 9 moves the device main body 1C in a random direction. Then, as a result of this random movement, for example, it is assumed that a part of the divided sections AG1 to AG36 and a part of the divided sections AK1 to AK36 overlap. In FIG. 7, the divided sections AG5, AG6, AG11, and AG12 of the currently displayed fundus image ErG and the divided sections AK25, AK26, AK31, and AK32 of the previously captured fundus image ErK respectively overlap. The state is shown.
[0022]
The determination calculation means 102 is included in the divided sections AG1 to AG36 of the currently displayed fundus image ErG and in the divided sections AK1 to AK36 of the previously captured fundus image ErK. The divided images are compared with each other as described below.
[0023]
That is, the first divided section AG1 of the currently displayed fundus image ErG is sequentially compared with all the divided sections AK1 to AK36 of the previously captured fundus image ErK. Next, the second divided section AG2 of the currently displayed fundus image ErG is similarly compared with all the divided sections AK1 to AK36 of the previously captured fundus image ErK. In this way, the comparison is sequentially continued, and the 36th divided section AG36 of the currently displayed fundus image ErG is sequentially compared with all the divided sections AK1 to AK36 of the previously captured fundus image ErK. As a result, the divided images included in the divided sections AG1 to AG36 of the fundus image ErG currently displayed and the divided images included in the divided sections AK1 to AK36 of the previously captured fundus image ErK are obtained. End the comparison.
[0024]
During this time, the determination calculation means 102 determines whether the divided images in the divided sections AG1 to AG36 of the currently displayed fundus image ErG match the divided images in the divided sections AK1 to AK36 shot earlier. It is determined whether or not the number is the same, and the number of matches is calculated. Here, as described above, the divided sections AG5, AG6, AG11, and AG12 of the currently displayed fundus image ErG coincide with the divided sections AK25, AK26, AK31, and AK32 of the previously captured fundus image ErK. And the number of matches is determined to be 4. Further, a matching ratio as a degree of matching with the number is calculated. When the number of matches is 4, it is calculated that the matching ratio is 4/36.
[0025]
In addition, the determination calculation means 102 determines, among the divided sections AG1 to AG36 of the currently displayed fundus image ErG, a divided image that matches the divided image in the divided sections AK1 to AK36 of the previously captured fundus image ErK, It is determined in which direction the fundus image ErG currently being projected is located with respect to the center.
[0026]
Then, the control device 9 drives the pulse motor PM ′ based on the calculation result of the determination calculation means 102, and divides the previously captured fundus image ErK with respect to the central portion of the currently displayed fundus image ErG. The apparatus main body 1C is automatically driven in a direction in which a divided image coincident with the divided images in the sections AK1 to AK36 is present in the divided sections AG1 to AG36 of the fundus image ErG currently displayed. The direction of movement of the apparatus main body 1C on the screen 8A at this time is indicated by an arrow. As a result, the apparatus main body 1C automatically moves with respect to the eye E to be examined, and a fundus image ErG corresponding to the previously photographed fundus image ErK is displayed on the screen 8A as shown in FIG.
[0027]
Then, when the matching ratio becomes equal to or more than a certain value, the determination calculation means 102 stops the operation of the pulse motor PM 'and stops the movement of the apparatus main body 1C. Therefore, if the photographer operates the photographing switch 5B, the photographed fundus image ErG can be photographed in such a manner that the fundus image ErG is accurately matched with the previously photographed fundus image ErK.
[0028]
In the above-described embodiment, the currently displayed fundus image ErG and the previously captured fundus image ErK are each divided into 36 pieces. However, if the fundus image ErG and ErK are divided into more than 36 pieces, the fundus images ErG and ErK are separated from each other. Can be matched more accurately, and if they are divided into 36 or less, they can be matched more quickly.
[0029]
The apparatus main body 1C is moved in a random direction so that a part of the divided sections AG1 to AG36 and a part of the divided sections AK1 to AK36 overlap. If it is possible to know in advance which position in the up, down, left, and right directions, the pulse motor PM ′ is controlled based on the operation of a switch (not shown) in the direction in which the previously captured fundus image ErK is captured. The apparatus main body 1C can be configured to move automatically.
[0030]
Further, here, the fundus image ErK photographed before is displayed on the screen 8A, but is not necessarily displayed.
[0031]
【The invention's effect】
According to the present invention, by driving the apparatus main body in the direction in which the number of coincidences between images in the divided sections increases based on the calculation result of the determination calculation means, the fundus region previously photographed is automatically changed to the fundus region photographed this time. Can be matched.
[Brief description of the drawings]
FIG. 1 is an external view of a fundus camera according to the present invention.
FIG. 2 is a diagram showing a configuration of a main part of a fundus camera according to the present invention.
FIG. 3 is a diagram showing an arrangement of the light emitting diodes shown in FIG.
FIG. 4 is a view showing an example of a mask plate shown in FIG. 2;
FIG. 5 is an explanatory diagram of a fundus oculi region photographed by a photographing optical system.
FIG. 6 is a diagram showing a state in which a currently projected fundus image and a previously photographed fundus image are displayed on a screen.
FIG. 7 is a diagram showing a state in which a currently displayed fundus image and a previously photographed fundus image are divided into a plurality of parts.
FIG. 8 is a view showing a state in which a currently displayed fundus image matches a previously photographed fundus image.
[Explanation of symbols]
1C Apparatus main body 5A Joystick 20 Imaging optical system 100 Image comparison processing means 101 Division means 102 Judgment calculation means AG1 to AG36 Division sections AK1 to AK36 of fundus image currently displayed Division section E of fundus image photographed before the previous eye E to be examined ErG Fundus image PM ′ currently being photographed Fundus image PM ′ photographed before ErK Pulse motor

Claims (3)

以前に撮影した眼底像と今回撮影する眼底像とを画像比較する画像比較処理手段と、該画像比較処理手段の比較結果に基づき以前に撮影した眼底部位に今回撮影する眼底部位が一致するように撮影光学系を内蔵する装置本体を自動的に駆動する駆動手段とが設けられ、
前記画像比較処理手段は、以前に撮影した眼底部位と今回撮影する眼底部位とを大きさが同じでかつ個数が一致する複数個の区画に分割する分割手段と、該分割手段により分割された一方の眼底部位の分割区画内に含まれている分割区画内画像と前記分割手段により分割された他方の眼底部位の分割区画内に含まれている分割区画内画像との当該他方の眼底部位の全分割区画についての比較を一方の眼底部位の各分割区画毎に全分割個数に渡って行って分割区画内画像同士が一致するか否かを判定すると共に一致個数を演算する判定演算手段とを備え、
前記駆動手段は、前記判定演算手段の演算結果に基づき一致個数が増大する方向に前記装置本体を駆動することを特徴とする眼底カメラ。
Image comparison processing means for comparing the previously captured fundus image with the currently captured fundus image, so that the previously captured fundus part matches the previously captured fundus part based on the comparison result of the image comparison processing means. Driving means for automatically driving an apparatus body incorporating a photographic optical system,
The image comparison processing unit includes a dividing unit that divides a fundus part previously photographed and a fundus part that is photographed this time into a plurality of sections having the same size and the same number, and one of the divided parts. Of the other segment of the fundus of the fundus region and the image of the other segment of the fundus included in the segment of the other fundus segment divided by the dividing means. A determination operation unit that performs the comparison of the divided sections over all divided numbers for each divided section of one fundus region, determines whether the images in the divided sections match, and calculates the number of matches. Prepare,
The fundus camera, wherein the driving means drives the apparatus body in a direction in which the number of coincidences increases based on a calculation result of the determination calculation means.
以前に撮影した眼底部位が被検眼に対して上下左右方向のいずれの位置であるか予め知得されているときには、手動スイッチ操作に基づく駆動手段の駆動により以前に撮影した眼底部位が撮像される方向に前記装置本体を自動的に移動することを特徴とする請求項1に記載の眼底カメラ。When it is previously known which position in the up, down, left, and right directions the previously photographed fundus region is with respect to the subject's eye, the previously photographed fundus region is photographed by driving the driving unit based on the manual switch operation. The fundus camera according to claim 1, wherein the apparatus main body is automatically moved in a direction. 前記判定演算手段は、今回撮影する眼底部位の分割区画のうち以前に撮影した眼底部位の分割区画内画像と一致する分割区画が今回撮影する眼底部位の中央部に対していずれの方向にあるかを判断して、その中央部に対して以前に撮影した眼底部位の分割区画内画像と一致する分割区画内画像が存在する方向に前記装置本体が自動的に駆動されるように前記駆動手段を制御することを特徴とする請求項1に記載の眼底カメラ。The determination calculating means may determine which direction of the central section of the fundus region to be photographed is the one of the divided regions of the fundus region to be photographed this time, of the divided region of the fundus region to be photographed this time. Is determined, and the driving unit is automatically driven in a direction in which there is an image in the divided section corresponding to the image in the divided section of the fundus region previously photographed with respect to the center thereof. The fundus camera according to claim 1, wherein the fundus camera is controlled.
JP2002282105A 2002-09-27 2002-09-27 Fundus camera Pending JP2004113530A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002282105A JP2004113530A (en) 2002-09-27 2002-09-27 Fundus camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002282105A JP2004113530A (en) 2002-09-27 2002-09-27 Fundus camera

Publications (1)

Publication Number Publication Date
JP2004113530A true JP2004113530A (en) 2004-04-15

Family

ID=32276338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002282105A Pending JP2004113530A (en) 2002-09-27 2002-09-27 Fundus camera

Country Status (1)

Country Link
JP (1) JP2004113530A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018122104A (en) * 2013-10-23 2018-08-09 マクセルホールディングス株式会社 Surface state imaging display system and surface state imaging display method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018122104A (en) * 2013-10-23 2018-08-09 マクセルホールディングス株式会社 Surface state imaging display system and surface state imaging display method

Similar Documents

Publication Publication Date Title
US6779890B2 (en) Ophthalmic photographic apparatus
JP2000333905A (en) Ophthalmic device
US7275824B2 (en) Fundus camera
JP4649229B2 (en) Fundus camera
JP2003047595A (en) Ophthalmic imaging system
JPH05192299A (en) Fundus camera
JP2008212307A (en) Fundus camera
JP3833529B2 (en) Ophthalmic imaging equipment
JP2004024470A (en) Ophthalmic photographing apparatus
JPH1085189A (en) Ophthalmologic photographic apparatus
JPH08565A (en) Ophthalmologic device
JP2000189387A (en) Ophthalmic imaging device
JPH09173298A (en) Ophthalmological camera
JP3778274B2 (en) Fundus camera
JPH07121255B2 (en) Corneal endothelial cell observation and imaging device
JPH1075932A (en) Eyeground photographing device
JP3490796B2 (en) Fundus camera
JP2004113530A (en) Fundus camera
JP2006116091A (en) Fundus camera
JP2003019117A (en) Fundus camera
JP2003079579A (en) Ophthalmic device
JP3708694B2 (en) OPERATION POSITION DETERMINING DEVICE FOR OPTICAL DEVICE AND OPERATION POSITION DETERMINING DEVICE FOR retinal Imaging Device
JP3708669B2 (en) Fundus photographing device
JP2003225208A (en) Fundus camera
JP3332489B2 (en) Optometry device