JP2011206519A - Ophthalmologic apparatus and control method for the same - Google Patents
Ophthalmologic apparatus and control method for the same Download PDFInfo
- Publication number
- JP2011206519A JP2011206519A JP2010243537A JP2010243537A JP2011206519A JP 2011206519 A JP2011206519 A JP 2011206519A JP 2010243537 A JP2010243537 A JP 2010243537A JP 2010243537 A JP2010243537 A JP 2010243537A JP 2011206519 A JP2011206519 A JP 2011206519A
- Authority
- JP
- Japan
- Prior art keywords
- image
- fundus
- eye
- feature point
- fundus image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 47
- 238000003384 imaging method Methods 0.000 claims abstract description 37
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 31
- 239000000284 extract Substances 0.000 claims abstract 5
- 238000012014 optical coherence tomography Methods 0.000 claims description 57
- 210000001508 eye Anatomy 0.000 claims description 46
- 238000000605 extraction Methods 0.000 claims description 45
- 238000007689 inspection Methods 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 2
- 238000005259 measurement Methods 0.000 abstract description 34
- 238000012545 processing Methods 0.000 abstract description 22
- 238000007796 conventional method Methods 0.000 abstract 1
- 230000004424 eye movement Effects 0.000 description 26
- 230000003287 optical effect Effects 0.000 description 15
- 239000000835 fiber Substances 0.000 description 14
- 210000004204 blood vessel Anatomy 0.000 description 10
- 230000000694 effects Effects 0.000 description 6
- 210000002445 nipple Anatomy 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 206010025421 Macule Diseases 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000011514 reflex Effects 0.000 description 3
- 230000001427 coherent effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 230000002207 retinal effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 206010027146 Melanoderma Diseases 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000001028 reflection method Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、眼科装置及びその制御方法に関するもので、特に眼球の移動量を求める眼科装置及びその制御方法に関するものである。 The present invention relates to an ophthalmologic apparatus and a control method thereof, and more particularly, to an ophthalmologic apparatus for obtaining a movement amount of an eyeball and a control method thereof.
近年、眼球運動を計測する装置が注目されている。眼球運動の計測が可能になれば、視野検査や、より高精細な画像を取得する眼底断層撮像装置等に応用し、より精度の高い眼底検査が可能になる。 In recent years, an apparatus for measuring eye movement has attracted attention. If the eye movement can be measured, it can be applied to a visual field inspection, a fundus tomographic imaging apparatus that acquires a higher-definition image, etc., and a fundus inspection with higher accuracy can be performed.
眼球運動を計測する方法としては角膜反射法(プルキニエ像)、サーチコイル法等、様々な技術が公知である。なかでも、簡易的で被験者に負担が少ない方法として、眼底画像から眼球運動を計測する方法が検討されている。 Various techniques such as a corneal reflection method (Purkinje image) and a search coil method are known as methods for measuring eye movement. In particular, a method for measuring eye movement from a fundus image has been studied as a simple method with less burden on the subject.
眼底画像から精度良く眼球運動を計測するには、眼底画像から特徴点を抽出し、対象となる画像において特徴点を探索・検出した後、特徴点の移動量を算出する必要がある。これらのうち、特徴点の抽出工程は眼球運動の計測安定性・精度・再現性という点で重要である。眼底画像の特徴点としては、黄斑や視神経乳頭(以下、乳頭とする)などが用いられる。また、患眼等では黄斑や乳頭が不完全な場合が少なくないため、眼底画像の特徴点として、血管が用いられることもある。血管の特徴点の抽出方法としては様々な方法が知られている。例えば特許文献1には、眼底画像に設定したフィルターの外周部上における画素値の平均値から、血管の本数及び、フィルター中心部における血管の存在の有無を判定し、フィルター領域内における血管交叉部の存在判定を行う方法が開示されている。
In order to accurately measure eye movements from the fundus image, it is necessary to extract feature points from the fundus image, search for and detect feature points in the target image, and then calculate the movement amount of the feature points. Among these, the feature point extraction process is important in terms of measurement stability, accuracy, and reproducibility of eye movements. As the feature point of the fundus image, the macula, the optic disc (hereinafter referred to as the nipple), or the like is used. In addition, since there are many cases in which the macula and the nipple are incomplete in the affected eye, blood vessels may be used as feature points of the fundus image. Various methods are known as methods for extracting feature points of blood vessels. For example, in
特許文献1の様な方法を用いて眼底の特徴点を抽出し、画像間の特徴点の位置関係を比較して取得画像間での眼球の移動量を算出することで、眼底画像から精度良く眼球の移動量を検出できる。しかし、これらの方法は精度・再現性・安定性に優れているが、画像処理に時間が必要であるという問題があった。
The feature points of the fundus are extracted using a method such as
上述の課題を解決するため、本発明の第一の構成に係る被検眼の眼底画像から特徴点を抽出して前記被検眼の移動量を検出する眼科装置は、前記被検眼の複数の眼底画像を取得する取得手段と、前記取得された眼底画像のうち、第1の眼底画像から特徴点を抽出する抽出手段と、前記特徴点とマッチする位置を抽出するための抽出領域を、前記抽出した特徴点と前記眼底画像の取得時間とに基づき、前記取得された眼底画像のうち第2の眼底画像に設定する設定手段と、前記第2の眼底画像に設定した前記抽出領域から前記特徴点とマッチする画像を抽出するマッチング手段と、前記第1の眼底画像の特徴点の座標と前記第2の眼底画像から抽出した画像の座標とに基づき、前記被検眼の移動量を求める手段とを有することを特徴とする。 In order to solve the above-described problem, an ophthalmologic apparatus for extracting a feature point from a fundus image of the eye to be examined according to the first configuration of the present invention and detecting a movement amount of the eye to be examined includes a plurality of fundus images of the eye to be examined. An extraction means for extracting a feature point from the first fundus image, and an extraction region for extracting a position that matches the feature point from the acquired fundus image Based on the feature point and the acquisition time of the fundus image, setting means for setting the second fundus image among the acquired fundus images, and the feature point from the extraction region set in the second fundus image Matching means for extracting a matching image, and means for determining the movement amount of the eye to be examined based on the coordinates of the feature points of the first fundus image and the coordinates of the image extracted from the second fundus image It is characterized by that.
また、本発明の第二の構成に係る被検眼の眼底画像から特徴点を抽出して前記被検眼の移動量を検出する眼科装置の制御方法は、前記被検眼の複数の眼底画像を取得する工程と、前記取得された眼底画像のうち、第1の眼底画像から特徴点を抽出する工程と、前記特徴点とマッチする位置を抽出するための抽出領域を、前記抽出された特徴点と前記眼底画像の取得時間とに基づき、前記取得された眼底画像のうち第2の眼底画像に設定する工程と、前記第2の眼底画像に設定した前記抽出領域から前記特徴点とマッチする画像を抽出する工程と、前記第1の眼底画像の特徴点の座標と前記第2の眼底画像から抽出した画像の座標とに基づき、前記被検眼の移動量を求める工程とを有することを特徴とする。 Further, the control method of the ophthalmologic apparatus for extracting the feature point from the fundus image of the eye to be examined and detecting the movement amount of the eye to be examined according to the second configuration of the present invention acquires a plurality of fundus images of the eye to be examined. A step of extracting a feature point from a first fundus image out of the acquired fundus image, an extraction region for extracting a position that matches the feature point, and the extracted feature point and the Based on the acquisition time of the fundus image, a step of setting the second fundus image among the acquired fundus images, and extracting an image matching the feature point from the extraction region set in the second fundus image And a step of obtaining a movement amount of the eye to be examined based on the coordinates of the feature points of the first fundus image and the coordinates of the image extracted from the second fundus image.
本発明によれば、特徴点のマッチ領域を処理対象画像内で効率的に見つけることができ、テンプレートマッチングを高速化することが可能となる。 According to the present invention, a matching region of feature points can be efficiently found in a processing target image, and template matching can be speeded up.
本発明を実施するための形態について、以下の実施例において図面を用いて詳細に説明する。 EMBODIMENT OF THE INVENTION The form for implementing this invention is demonstrated in detail using drawing in the following Examples.
なお、以下の実施例では本発明を単一の装置に応用した例を記載するが、本発明の対象は下記の構成に限定されることはなく、また、下記の構成を備える単一の装置に限定されることはない。本発明は、下記の機能を実現するための方法の使用及び、これらの機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理によっても実現される。 In the following embodiments, an example in which the present invention is applied to a single device will be described. However, the object of the present invention is not limited to the following configuration, and a single device having the following configuration is used. It is not limited to. The present invention uses a method for realizing the following functions and supplies software (computer program) for realizing these functions to a system or apparatus via a network or various storage media. It is also realized by a process in which a computer (or CPU, MPU, etc.) reads and executes a program.
[実施例1]
以下、本発明の実施例1について説明する。
本実施例では、上記説明した課題を解決するために、内部固視灯を有する眼底画像取得装置において、眼底画像の特徴点を抽出した後、対象とする画像内で抽出した特徴点を探索する領域を適正化することで、処理速度を向上させる例について述べる。
[Example 1]
In this embodiment, in order to solve the above-described problem, in the fundus image acquisition apparatus having the internal fixation lamp, after extracting the feature points of the fundus image, the feature points extracted in the target image are searched. An example in which the processing speed is improved by optimizing the area will be described.
(眼底撮像装置)
本実施例で眼底撮像に用いる眼底カメラに関して説明する。図1に眼底カメラの概略図を示す。眼底カメラ本体部1には、信号取得部としてビデオレートで撮像可能なデジタル一眼レフカメラ50が接続部40を介し接続されている。被検眼Eと対向する対物レンズ11の光路上には、孔あきミラー12が設けられている。孔あきミラー12の入射方向の光路上には、リレーレンズ13、黒点板14、リレーレンズ15、リングスリット板16、蛍光エキサイタフィルタ17、ミラー18が配列されている。さらに、ミラー18の入射方向には、コンデンサレンズ19、キセノン管から成る撮影用光源20、コンデンサレンズ21、赤外発光ダイオードから成る観察用光源22が配置されている。なお、図上における光路は点線で示している。
(Fundus imaging device)
A fundus camera used for fundus imaging in this embodiment will be described. FIG. 1 shows a schematic diagram of a fundus camera. A digital single lens reflex camera 50 capable of imaging at a video rate as a signal acquisition unit is connected to the fundus camera
孔あきミラー12の背後には、フォーカスレンズ24、蛍光バリアフィルタ25、結像レンズ26が配列され、そして、デジタル一眼レフカメラ50が接続されている。デジタル一眼レフカメラ50内には、対物レンズ11の背後の光路と同一光路上に、クイックリターンミラー51、フォーカルプレーンシャッタ(図示せず)、二次元センサ53が配置されている。また、クイックリターンミラー51の反射方向には、ペンタプリズム54、接眼レンズ55が設けられている。二次元センサ53で受光した信号は信号処理基盤52で処理され、ケーブルを介し、HDD58を有するPC56へ転送され、ディスプレイ57に表示される。眼底カメラ本体部1には、内部固視灯ユニット60が設けられ、内部固視灯の光源61から出射された光はレンズ62を介し、ダイクロイックミラー63により反射され被検眼に照射される。なお、眼底カメラ本体部1には、不図示の制御部が設けられ、PC56と通信を行いつつ眼底カメラ全体を制御する。
Behind the
(制御方法)
図2に本実施例で用いられる機能体系を示す。その機能体系は、システム全体を制御するCPU203、眼底カメラを制御する制御部205、眼底画像を取得する眼底カメラ201、システム状態を表示する表示部202、眼底画像や撮像条件等を記録するHDD(記録部)204、により構成されている。眼底の観察時及び撮影時には、CPU203より制御部205に撮像条件が指令され、眼底が撮像される。眼底が撮像された後、眼底カメラ201からCPU203に画像が送られ、画像処理等がなされた後、表示部202で表示され、同時又はその後、記録部204に保存される。
(Control method)
FIG. 2 shows a functional system used in this embodiment. The functional system includes a
上述の機能を用い、一定時間の眼球運動を計測する全体のフローを図3に示す。眼底カメラ1(本実施例において取得手段に相当する)を用い、眼底画像を取得する(ステップ302)。眼底画像を取得した後、PC56(抽出手段に相当する)により、特徴点(以下、テンプレート画像と記す)を抽出する(ステップ303)。テンプレート画像と、テンプレート画像の基準座標であるテンプレート座標を記録部204に保存する(ステップ304)。眼底カメラは一定時間連続撮像しているため、次の新規の眼底画像が取得(ステップ305)される。処理A(ステップ306)において、PC56(本実施例においてマッチング手段に相当する)において、取得された画像からテンプレート画像を探索(以下テンプレートマッチングと記す)し、処理B(ステップ307)により一定時間の眼球運動量が算出される。眼球運動量、画像、計測時間、前眼部のリアルタイムモニタ画像等が表示される(ステップ308)。ステップ305からステップ308の処理を眼球運動の計測を終了するまで繰り返す。
FIG. 3 shows an overall flow of measuring eye movements for a predetermined time using the above-described function. A fundus image is acquired using the fundus camera 1 (corresponding to an acquisition unit in this embodiment) (step 302). After acquiring the fundus image, feature points (hereinafter referred to as template images) are extracted by the PC 56 (corresponding to the extracting means) (step 303). The template image and the template coordinates that are the reference coordinates of the template image are stored in the recording unit 204 (step 304). Since the fundus camera continuously captures images for a certain period of time, the next new fundus image is acquired (step 305). In the process A (step 306), the PC 56 (corresponding to the matching means in this embodiment) searches for a template image from the acquired image (hereinafter referred to as template matching), and the process B (step 307) performs a predetermined time. An eye movement amount is calculated. The amount of eye movement, image, measurement time, real-time monitor image of the anterior segment, etc. are displayed (step 308). The processing from
部分的なフローである処理A(ステップ306)におけるテンプレートマッチングついての詳細フローを、図4を用い説明する。ここでは記録部204に保存されたテンプレート画像を読み出し(ステップ402)、新規取得眼底画像内でテンプレートマッチングを実施する領域を設定し(ステップ403)、新規取得眼底画像内でテンプレートマッチングを行う(ステップ404)。テンプレートマッチング終了後、マッチングした画像の基準座標、つまりマッチング座標を記録部204に保存する(ステップ405)。なお、本実施例において、基準座標をマッチングした画像の中心座標とするが、左上角の座標等の基準となる座標であればいずれでもよい。
A detailed flow of template matching in process A (step 306), which is a partial flow, will be described with reference to FIG. Here, the template image stored in the
次に、処理Bについて、図5を用い説明する。処理Bにおいては、まず、記録部204からテンプレート座標とマッチング座標を読み出し(ステップ502)、座標差を算出し(ステップ503)、座標差から移動距離を算出する(ステップ504)。 Next, processing B will be described with reference to FIG. In the process B, first, template coordinates and matching coordinates are read from the recording unit 204 (step 502), a coordinate difference is calculated (step 503), and a moving distance is calculated from the coordinate difference (step 504).
(追尾計測:具体例)
以上の処理に相当する各画像を図6に示す。上述の眼底カメラを用い、10Hzの周期で、直径10mmの眼底画像を取得する測定条件で20秒間追尾計測する場合を例として示す。
(Tracking measurement: specific example)
Each image corresponding to the above processing is shown in FIG. An example in which tracking measurement is performed for 20 seconds under the measurement conditions for acquiring a fundus image having a diameter of 10 mm with a period of 10 Hz using the above-described fundus camera will be described.
図6(a)に取得された第1の眼底画像605を示す。図6(a)のように、乳頭から血管が端部に向かって複雑に伸びている。第1の眼底画像を取得した後、図6の(b)の点線で示すようにテンプレート画像601を抽出する。ここでは500μm×500μmの正方形の画像領域をテンプレート画像としたが、これに限定されることなく、テンプレート画像の形状やサイズは任意に決定することができる。抽出したテンプレート画像601とテンプレート座標Z0を保存する。本実施例では、眼底画像605の中心座標を原点(0,0)とし、今回のテンプレート画像の中心座標はZ0(0、−200)である。座標単位はμmである。ただし、座標の設定方法についてもこれに限定されることはない。次に、図6の(c)のように、CPU203(本実施例における設定手段に相当する)により、第1の眼底画像にて、新たな眼底画像からテンプレート画像601を検出する際に、テンプレート画像を探索する領域602、つまりテンプレートマッチング実施領域602(以下、マッチング領域と記す)を設定する。このとき、第1の画像におけるテンプレート画像のテンプレート座標を基準(中心)として測定時間内に固視微動等による眼球の移動や回旋によりテンプレート画像の領域が移動する範囲よりもマッチング領域が広くなるように、第2の画像におけるマッチング領域を設定する。次に、新たに取得されたマッチング対象である第2の眼底画像を示す図6(d)において、抽出領域603(第1の抽出領域)を、第1の眼底画像におけるマッチング領域602と同じ座標位置に設ける。その後、抽出領域603内でテンプレート画像601と一致する領域を探索(テンプレートマッチング)する。このような構成とすることにより、テンプレートと一致する領域は抽出領域のみから探索すればよく、第2の眼底画像全体から探索する必要はないため、探索時間の短縮化が実現される。図6(e)のように一致領域604を検出した後、テンプレート画像と一致する画像領域604の中心座標(マッチング座標)Z1を計測する。この例では、マッチング座標Z1は(0、−400)である。図6(f)のようにテンプレート座標Z0とマッチング座標Z1を用い、座標の変化を求め、眼球運動量(本実施例では0μm,−200μm)を算出する。新規に取得される眼底画像に対して上述の図6(d)〜(g)のテンプレートマッチングを繰り返し、10Hz周期で取得される新規の画像を各々マッチングし、計測中に眼球が基準位置からどの程度移動したか計測し、表示する。
FIG. 6A shows the
図6(c)で行ったマッチング領域の設定方法の例を以下に示す。この例では、テンプレート画像の領域と、テンプレート画像の端部から外側に一定の幅(R1)を持つ範囲の領域と、を合わせた領域を、マッチング領域としている。図7に図6の眼底画像605の拡大図701を中央に示す。テンプレート画像702の拡大図を図7の上部に示す。下部にマッチング領域704の拡大図を示す。マッチング領域704は、眼底画像の大きさ、精度、そして、固視微動等の属性情報を考慮し算出する。本実施例では、テンプレート画像702の画像端部からテンプレート画像領域の外側にR1mm以内の範囲の領域及びテンプレート画像702からなる領域をマッチング領域704とする。ここで、R1には測定時間内の人眼の移動量よりも大きくなる値を用いる。図8に、内部固視灯を有する装置において、人眼の固視微動を計測した結果を示す。図8のように、固視灯を有する場合、固視微動による人眼の移動は固視点を中心にある一定距離以内に収まる傾向にある。このような傾向を含めて、図9に固視の開始からの時間と人眼の移動距離とについてモデル化された関数を示す。このグラフをもとに、測定時間内の人眼の移動量を求めることができる。このグラフは外部固視、内部固視、患眼若しくは健常者、年齢、又は1枚の眼底画像を撮像する時間等の撮像条件ごとあらかじめ用意されている公知のグラフを使用することができ、測定の方法や対象ごとに任意に選択することができる。本実施例では20秒間の測定であり、この関数より、眼球の移動量は700μmと考えられるので、R1を700μmとする。そのため、マッチング領域704は1.9mm×1.9mmとなる。
次に、テンプレートマッチングについて、図10を用い詳しく説明する。新たに撮像された第2の眼底画像1001内に上述で算出された抽出領域1002を座標から設定し、抽出領域の拡大図1002内からテンプレート画像を探索する。探索の結果、一致した画像領域1004を検出し、その中心座標Z1をマッチング座標として算出する。上述の結果をリアルタイム又は測定後にモニタに表示する。
以上のようにテンプレートマッチングの際に、マッチング領域及び抽出領域を設定することで、テンプレートマッチングを高速化できる。また、領域を制限することにより、誤った検出を防止することにもなる。
An example of the matching area setting method performed in FIG. In this example, a region obtained by combining the region of the template image and the region in the range having a certain width (R 1 ) outward from the end of the template image is used as the matching region. FIG. 7 shows an
Next, template matching will be described in detail with reference to FIG. The
As described above, the template matching can be speeded up by setting the matching region and the extraction region at the time of template matching. In addition, by limiting the area, erroneous detection can be prevented.
[実施例2]
以下、本発明の実施例2について説明する。
実施例2では、眼底撮像取得にSLO(Scanning Laser Ophthalmoscope)を用い、SLO眼底画像から実施例1と同様の方法により眼球運動の計測を行い、眼球運動の計測結果を光干渉断層撮像装置(OCT:Optical Coherent Tomography)にリアルタイムにフィードバックすることで高精細な3DのOCT画像を取得する例について述べる。
[Example 2]
In the second embodiment, SLO (Scanning Laser Ophthalmoscope) is used for acquiring fundus imaging, and eye movement is measured from the SLO fundus image by the same method as in the first embodiment. : An example of acquiring a high-definition 3D OCT image by feeding back in real time to (Optical Coherence Tomography).
(OCT装置構成)
本実施例においては、眼科装置としてOCT装置を用いた。OCT装置の装置概要に関して、図11を用いて説明する。
低コヒーレント光源1101は、SLD光源(Super Luminescent Diode)や、ASE光源(Amplified Spontaneous Emission)が好適に用いることができる。低コヒーレント光としては、850nm近傍及び1050nm近傍の波長が眼底撮影には好適に用いられる。本実施例では、中心波長840nm、波長半値幅45nmのSLD光源を用いる。低コヒーレント光源1101から照射される低コヒーレント光がファイバーを経由して、ファイバカプラ1102に入り、計測光(OCTビームとも言う)と参照光に分けられる。ここではファイバを用いた干渉計構成を記載しているが、空間光光学系でビームスプリッタを用いた構成としてもかまわない。
(OCT system configuration)
In this embodiment, an OCT apparatus is used as an ophthalmic apparatus. An outline of the OCT apparatus will be described with reference to FIG.
As the low-coherent light source 1101, an SLD light source (Super Luminescent Diode) or an ASE light source (Amplified Spontaneous Emission) can be suitably used. As low-coherent light, wavelengths near 850 nm and 1050 nm are preferably used for fundus photography. In this embodiment, an SLD light source having a center wavelength of 840 nm and a wavelength half width of 45 nm is used. The low coherent light emitted from the low coherent light source 1101 enters the fiber coupler 1102 via the fiber, and is divided into measurement light (also referred to as OCT beam) and reference light. Although an interferometer configuration using a fiber is described here, a configuration using a beam splitter in a spatial light optical system may be used.
計測光は、ファイバ1103を介して、ファイバコリメータ1104から平行光となって照射される。さらに計測光は、OCTスキャナ(Y)1105、リレーレンズ1106、1107を経由し、さらにOCTスキャナ(X)1108を通り、ダイクロイックビームスプリッタ1109を透過しスキャンレンズ1110、ダイクロイックミラー1111、そして、接眼レンズ1112を通り被検眼eに入射する。ここで、OCTスキャナ(X)1108及び(Y)1105は、ガルバノスキャナを用いている。被検眼eに入射した計測光は、網膜で反射し、同一光路を通りファイバカプラ1102に戻る。参照光は、ファイバカプラ1102からファイバコリメータ1113に導かれ、平行光となり照射される。照射された参照光は、分散補正ガラス1114を通り、光路長可変ステージ1115上の参照ミラー1116により反射される。参照ミラー1116により反射された参照光は、同一の光路をたどり、ファイバカプラ1102に戻る。
The measurement light is irradiated as parallel light from the
ファイバカプラ1102で戻ってきた計測光及び参照光が合波され、ファイバコリメータ1117に導かれる。ここでは合波された光を干渉光と呼ぶ。ファイバコリメータ1117、グレーティング1118、レンズ1119、ラインセンサ1120によって、分光器が構成されている。干渉光は、分光器によって、波長毎の強度情報となって計測される。ラインセンサ1120によって計測された波長毎の強度情報は、不図示のPCに転送され、被検眼eの断層画像として生成される。 The measurement light and reference light returned by the fiber coupler 1102 are combined and guided to the fiber collimator 1117. Here, the combined light is called interference light. The fiber collimator 1117, the grating 1118, the lens 1119, and the line sensor 1120 constitute a spectrometer. The interference light is measured by the spectrometer as intensity information for each wavelength. The intensity information for each wavelength measured by the line sensor 1120 is transferred to a PC (not shown) and is generated as a tomographic image of the eye e.
(SLO構成)
次に、眼底画像を取得するSLO撮影部の光学構成に関して、同じく図11を用いて説明する。レーザ光源1130は、半導体レーザやSLD光源が好適に用いることができる。用いる波長は、OCT用の低コヒーレント光源の波長と波長分離手段によって、使用波長同士が分離できる光源であれば制約はないが、眼底観察像の画質として、700nm〜1000nmの近赤外の波長域が好適に用いられる。本実施例においては、波長760nmの半導体レーザを用いる。レーザ光源1130から出射されたレーザはファイバ1131を介して、ファイバコリメータ1132から平行光となって出射され、シリンダーレンズ1133に入射する。本実施例ではシリンダーレンズで記載しているが、ラインビーム生成可能な光学素子であれば特に制約はなく、パウエルレンズや回折光学素子を用いたラインビームシェイパーを用いることができる。シリンダーレンズ1133で広げられたビーム(SLOビームともいう)は、リレーレンズ1134、1135によって、リングミラー1136の中心を通り、リレーレンズ1137、1138を通り、SLOスキャナ(Y)1139に導かれる。SLOスキャナ(Y)は、ガルバノスキャナを用いている。さらにダイクロイックビームスプリッタ1109で反射され、スキャンレンズ1110、ダイクロイックミラー1111と接眼レンズ1112を通り、被検眼eに入射する。ダイクロイックビームスプリッタ1109は、OCTビームを透過し、SLOビームを反射するように構成しておく。被検眼に入射したSLOビームは、被検眼eの眼底に、ライン状のビームで照射される。このライン状のビームが、被検眼eの眼底で反射あるいは散乱され、同一光路をたどり、リングミラー1136まで戻る。リングミラー1136の位置は、被検眼eの瞳孔位置と共役になっており、眼底に照射されているラインビームが後方散乱した光のうち、瞳孔周辺部を通った光が、リングミラー1136によって反射され、レンズ1150によりラインセンサ1151上に結像する。ラインセンサ1151の位置毎の強度情報に基づき,不図示のPCにより眼底の平面画像を生成する。本実施例では、ラインビームを用いるラインスキャンSLO(以下、L-SLOと記す)構成でSLOを記載したが、当然ながら、フライングスポットSLOであっても構わない。
(SLO configuration)
Next, the optical configuration of the SLO photographing unit that acquires the fundus image will be described with reference to FIG. As the laser light source 1130, a semiconductor laser or an SLD light source can be suitably used. The wavelength to be used is not limited as long as the wavelength used can be separated from the wavelength of the low-coherent light source for OCT by the wavelength separation means, but the near-infrared wavelength region of 700 nm to 1000 nm is used as the image quality of the fundus observation image. Are preferably used. In this embodiment, a semiconductor laser having a wavelength of 760 nm is used. The laser emitted from the laser light source 1130 is emitted as parallel light from the
(内部固視灯)
本実施例では、被検眼eに注視させることで固視微動を安定させる内部固視灯を有している。本実施例が有する内部固視灯について、OCT装置、SLO装置同様、図11を用い説明する。固視灯に用いる光源1170は発光ダイオード(LD)を用いた。発光ダイオードの点灯位置を、PCの制御により撮像したい部位に合わせて変更する。発光ダイオード1170は500nmの波長で、光源から出射されたビームは、レンズ1171とダイクロイックミラー1111を経由し、被検眼eに照射される。ダイクロイックミラー1111は、スキャンレンズ1110と接眼レンズ1112の間に位置し、短波長(500nm程度)の光とOCTビーム,SLOビーム(700nm以上)を波長分離する。
(Internal fixation light)
In this embodiment, there is an internal fixation lamp that stabilizes the fixation fine movement by gazing at the eye e. The internal fixation lamp of this embodiment will be described with reference to FIG. 11 as in the case of the OCT apparatus and the SLO apparatus. A
(制御方法)
図12に本実施例で用いられる機能体系を示す。その機能体系は、システム全体を制御するCPU1201、SLO部、OCT部制御する各々の制御部1202、1203、固視灯1208、SLO画像及びOCT画像を取得する各々のカメラ1204、1205、システム状態を表示するPCの表示部1206、眼底画像や撮像条件等を記録するPCの記録部1207、により構成されている。眼底の撮影時には、CPU1201より制御部1202、1203に各々の撮像条件が指令され、眼底が撮像される。眼底が撮像された後、カメラ装置1204、1205からCPU1201に画像が送られ、画像処理された後、表示部1206で表示され、同時又はその後、記録部1207に保存される。
(Control method)
FIG. 12 shows a functional system used in this embodiment. The functional system includes a
上述の機能を用い、OCT部で眼底の断層像を取得している間の眼球運動を計測する全体のフローを図13に示す。 FIG. 13 shows an overall flow of measuring the eye movement while the tomographic image of the fundus is acquired by the OCT unit using the above function.
まず、処理C(マッチング領域計測)を実行し(ステップ1302)、測定時間内に固視微動等による眼球の移動によりテンプレート画像の領域が移動する範囲よりも、マッチング領域が広くなるように、CPU1201(本実施例において設定手段に相当する)によりマッチング領域を設定する(ステップ1303)。以上の処理と同時に、SLO部を作動させSLOにより眼底画像を取得する(ステップ1304)。SLOの画像からテンプレート画像を抽出する(ステップ1305)。テンプレート画像の抽出後、抽出したテンプレート画像と座標を保存する(ステップ1306)。OCT部の走査基準位置を記録し(ステップ1307)、OCT部の計測を開始する(ステップ1308)。SLO部からの新規の画像を取得後(ステップ1309)、実施例1と同様、処理A(テンプレートマッチング)(ステップ1310)、処理B(眼球移動量算出)を実行し(ステップ1311)、処理D(OCTへフィードバック)を行い(ステップ1312)、OCT部が断層像を継続計測している間はステップ1309〜1312の工程を繰り返す。OCT撮像が終了した後、眼球運動の計測を終了する(ステップ1314)。なお、処理A、処理Bは実施例1と同様であるため、説明は省略する。
First, processing C (matching area measurement) is executed (step 1302), and the
部分的なフローである処理C(マッチング領域計測)の例について(ステップ1302)、図14を用い説明する。ユーザにより入力されるOCT撮像条件から(ステップ1402)、OCT撮像時間を計測する(ステップ1403)。図9を参考に、OCT撮像時間からグラフ901に適合させ、眼球移動距離(マッチング領域)を算出する(ステップ1404)。図9のグラフは内部固視灯を有した装置で健常眼を測定した際の眼球移動量情報である。 An example of processing C (matching area measurement) which is a partial flow (step 1302) will be described with reference to FIG. From the OCT imaging conditions input by the user (step 1402), the OCT imaging time is measured (step 1403). With reference to FIG. 9, the eye movement distance (matching region) is calculated from the OCT imaging time according to the graph 901 (step 1404). The graph of FIG. 9 is eye movement amount information when a healthy eye is measured with an apparatus having an internal fixation lamp.
処理D(OCT部へのフィードバック)について(ステップ1312)、図15を用いて説明する。CPU1201にて、OCT部のスキャン位置データを読み出し(ステップ1502)、眼球移動量からOCTスキャナに投入する電圧を算出し(ステップ1503)、CPU1201より投入電力をOCT制御部1203へ転送した後(ステップ1504)、スキャナ移動の信号を確認後(ステップ1505)、スキャン位置の変更情報を保存する(ステップ1506)。変更状態、OCT画像、SLO画像(マッチング領域、テンプレート位置表示)残り時間、等を表示する(ステップ1507)。
Process D (feedback to the OCT unit) (step 1312) will be described with reference to FIG. The
(追尾計測:具体例)
以上の処理に相当するSLO画像を図16に示す。本実施例において、SLOは眼底位置での取得画像の大きさが、ライン幅10mm、スキャン範囲10mm、10mm×10mmである。SLO画像の取得レートは30Hzである。また、OCT部は、カメラを70k A−scanで動作させ、B−scan画像(眼底スキャン範囲10mm、レーザスポット径20μm)は1000lineで構成され、B−scan280枚、網膜の3D画像を取得する。撮像時間は4秒となる。
(Tracking measurement: specific example)
FIG. 16 shows an SLO image corresponding to the above processing. In the present embodiment, the SLO has an acquired image size at the fundus position of 10 mm line width, 10 mm scan range, and 10 mm × 10 mm. The acquisition rate of the SLO image is 30 Hz. The OCT unit operates the camera at 70 k A-scan, and the B-scan image (fundus scan range: 10 mm, laser spot diameter: 20 μm) is composed of 1000 lines, and acquires 280 B-scan, 3D images of the retina. The imaging time is 4 seconds.
まず、図16(a)にSLOで取得された眼底画像1601(以下、単にSLO画像と記す)を示す。図16(a)のように、乳頭から血管が端部に向かって複雑に伸びている。第1のSLO画像を取得した後、OCTの撮像条件から撮像時間(本実施例では4秒)を算出する。図9を参照すると、4秒間に眼球は450μm移動する。その間に第1のSLO画像1601からテンプレート画像を抽出(b)する。テンプレート画像1602とテンプレート座標X0(−25、−200)を保存する。座標は、SLO画像の中心を(0,0)としている。その後、眼球移動距離450μmを考慮したマッチング領域1604を設定する(c)。次に、(d)のように新規に取得された第2のSLO画像1605上に抽出領域1604を設定する。このとき、第1の画像におけるテンプレート画像の座標を基準(中心)として、測定時間内に固視微動等による眼球の移動や回旋によりテンプレート画像の領域が移動する範囲よりも抽出領域が広くなるように、第2の画像における抽出領域を設定する。さらに、抽出領域1604内でテンプレート画像1602を探索する。マッチング画像1606を検出した後、マッチング画像1606の中心座標X1を保存する。その後、(f)のように、テンプレート座標X0とマッチング座標X1との座標差から、眼球の移動距離を算出する。
First, FIG. 16A shows a
マッチング領域の算出方法の例について、図17を用い説明する。マッチング領域1703はSLO眼底画像1706内で、テンプレート画像1701にマッチング領域設定幅R2を加えた領域からなる。実施例1と同様に、図9のグラフをもとにして測定時間内の人眼の移動量を求めることができる。このグラフは外部固視、内部固視、患眼若しくは健常者、年齢、又は1枚の眼底画像を撮像する時間等の撮像条件ごとあらかじめ用意されている公知のグラフを使用することができ、測定の方法や対象ごとに任意に選択することができる。このうち、実施例2では、OCT撮像時間に応じマッチング領域設定幅R2を変更する。OCT撮像時間は4秒であるため、図9から、眼球移動距離は450μmである。そのため、R2は450μmで、テンプレート領域1703はテンプレート領域1701より周囲の幅を450μmずつ広くした領域となる。
An example of a matching area calculation method will be described with reference to FIG.
マッチング方法について、図18を用い説明する。新規SLO画像1801に抽出領域1082を設定し、抽出領域1802内でテンプレート画像が一致する領域を探索する。テンプレート画像が一致した一致画像領域1804を検出した後、マッチング座標X1を読み取る。
The matching method will be described with reference to FIG. An extraction area 1082 is set in the new SLO image 1801, and an area where the template images match in the
このとき、図19のように、OCT画像1901、眼球運動計測結果1906、残りの計測時間1905、SLO画像(マッチング領域、テンプレート画像の表示を含む)1904、撮像条件1908、等をPCのディスプレイ1907に表示し、ユーザが動作を確認できるようにしてもよい。
At this time, as shown in FIG. 19, an
以上のように、OCT撮像時間に応じ、マッチング領域及び抽出領域を設定することで、高速な眼球運動の計測が可能となり、眼球上で安定してOCTビームを走査させることができ、眼球運動に依る画像ズレの無い3D画像が取得できる。 As described above, by setting the matching region and the extraction region according to the OCT imaging time, it is possible to measure the eye movement at high speed, and to stably scan the OCT beam on the eyeball. It is possible to obtain a 3D image with no image shift.
[実施例3]
以下、本発明の実施例3について説明する。
実施例3では実施例2と同様、眼底撮像取得にSLO(Scanning Laser Ophthalmoscope)を用い、SLO眼底画像から実施例1、2とは異なる方法により眼球運動の計測を行い、より高速に、眼球運動の計測結果を光干渉断層撮像装置(OCT:Optical Coherent Tomography)にリアルタイムにフィードバックすることで高精細な3DのOCT画像を取得する例について述べる。
眼底撮像装置(SLO)と光干渉断層撮像装置(OCT)の構成に関しては実施例2と同様であるので、説明を省略する。異なる点である、フローに関して、説明する。
[Example 3]
Embodiment 3 of the present invention will be described below.
In the third embodiment, as in the second embodiment, SLO (Scanning Laser Ophthalmoscope) is used for acquiring fundus imaging, and the eye movement is measured from the SLO fundus image by a method different from those in the first and second embodiments. An example of acquiring a high-definition 3D OCT image by feeding back the measurement result to an optical coherence tomography (OCT) in real time will be described.
Since the configurations of the fundus imaging apparatus (SLO) and the optical coherence tomography apparatus (OCT) are the same as those in the second embodiment, description thereof is omitted. The flow, which is a different point, will be described.
(制御フロー)
本実施例の制御フロー全体図を図20に示す。
まず、SLO画像(第1の眼底画像)を取得し(ステップ2002)、取得したSLO画像から特徴点(以下、テンプレート画像と記す)を抽出し(ステップ2003)、抽出したテンプレート画像とその座標(テンプレート座標)を記録部に保存する(ステップ2004)。OCT部の走査基準位置を記録し(ステップ2005)、OCT撮像を開始し(ステップ2006)、同時にSLO画像(第2の眼底画像)を取得する(ステップ2007)。ステップ2007で取得したSLO画像において、処理Eのテンプレートマッチング(ステップ2008)と処理Fの眼球移動量計算(ステップ2009)を行い、次に、実施例2と同様、処理D(ステップ2010)を実施する。処理D(ステップ2010)の後、再度SLO画像(第3の眼底画像)を取得し(ステップ2011)、処理Eのテンプレート画像との間のテンプレートマッチング(ステップ2012)と、処理Fの第2の眼底画像と第3の眼底画像とを取得する間の眼球移動量計算(ステップ2013)を行い、やはり実施例2と同様に処理Dのその結果をOCT装置への反映(ステップ2014)を実施する。以上のステップ2011〜ステップ2014の工程をOCT撮像が終了するまで繰り返す。
(Control flow)
An overall control flow diagram of this embodiment is shown in FIG.
First, an SLO image (first fundus image) is acquired (step 2002), feature points (hereinafter referred to as template images) are extracted from the acquired SLO image (step 2003), the extracted template image and its coordinates ( The template coordinates are stored in the recording unit (step 2004). The scanning reference position of the OCT unit is recorded (step 2005), OCT imaging is started (step 2006), and at the same time, an SLO image (second fundus image) is acquired (step 2007). In the SLO image acquired in
本実施例におけるテンプレートマッチング(処理E)について、図21を用い説明する。
ステップ2003で抽出したテンプレート画像を読み出し(ステップ2102)、ステップ2002又はステップ2007で取得したSLO撮像時間を読み出す(ステップ2103)。撮像する間の眼球の移動量を図9(実施例2と同様の条件)から算出する(ステップ2104)。実施例2と同様、算出された数値をステップ2007で取得したSLO画像における抽出領域(第2の抽出領域)に反映させ、設定する(ステップ2105)。なお、抽出領域の設定方法はこれに限られず、測定時間内に固視微動等による眼球の移動や回旋によりテンプレート画像の領域が移動する範囲よりもマッチング領域が広くなるように設定すればよい。ただし、本実施例では、SLO画像を1枚取得する間の眼球の移動距離をもとにマッチング領域を設定することで、テンプレートマッチングをする範囲をより少なくし、より短時間での処理を実現することができる。ステップ2011で取得したSLO画像において、ステップ2105で設定された領域でテンプレートマッチングを行い(ステップ2106)、マッチング情報を保存する(ステップ2107)。
Template matching (processing E) in the present embodiment will be described with reference to FIG.
The template image extracted in
本実施例における眼球移動量計算(処理F)について、図22を用い説明する。ステップ2012で取得したSLO画像と、その直前に取得したSLO画像のマッチング座標を読み出し(ステップ2202)、その座標差を算出する(ステップ2203)。この座標差から移動量を算出する(ステップ2204)。
The eyeball movement amount calculation (processing F) in the present embodiment will be described with reference to FIG. The matching coordinates between the SLO image acquired in
(具体例)
以上の処理に相当する各画像を図23に示す。実施例2と同様、SLOは眼底位置での取得画像の大きさが、ライン幅10mm、スキャン範囲10mm、すなわち、10mm×10mmである。SLO画像の取得レートは30Hzである。また、OCT装置は、カメラを70k A−scanで動作させ、B−scan画像(眼底スキャン範囲10mm、レーザスポット径20μm)は1000lineで構成され、B−scan画像280枚で構成される網膜の3D画像を取得する。撮像時間は4秒となる。
(Concrete example)
Each image corresponding to the above processing is shown in FIG. Similar to the second embodiment, in the SLO, the size of the acquired image at the fundus position is a line width of 10 mm and a scan range of 10 mm, that is, 10 mm × 10 mm. The acquisition rate of the SLO image is 30 Hz. In addition, the OCT apparatus operates the camera at 70 kA-scan, the B-scan image (
まず、SLOで取得された眼底画像2301(第1の眼底画像)を図23(a)に示す。図23(b)のように、取得したSLO画像2301から血管を含むテンプレート画像2305を抽出する。抽出したテンプレート画像の中心座標X0を保存する。SLO画像の取得レート30Hzから、マッチング領域を設定する。図9を参照し、SLO画像を1枚取得する時間1/30秒に対応する眼球移動距離である100μmを考慮して、図23(c)のように、マッチング領域2306を設定する。
First, a fundus image 2301 (first fundus image) acquired by SLO is shown in FIG. As shown in FIG. 23B, a
次に、図23(d)のように新たなSLO画像2302(第2の眼底画像)を取得する。図23(c)で設定したマッチング領域2306に対応するSLO画像2302内の抽出領域(第1の抽出領域)内でテンプレートマッチングを行う。テンプレート画像と一致する領域2307を検出し、その座標X1を取得する。さらに、図23(e)のように、テンプレート画像と一致する領域の基準座標(本実施例では中心座標)X1を中心として、眼球移動距離100μmを考慮して次のマッチング領域2308を設定する。マッチング領域を設定すると同時に、座標X0とX1の座標値から眼球の移動量を算出する。算出した結果をOCT装置のスキャナにフィードバックする。
Next, a new SLO image 2302 (second fundus image) is acquired as shown in FIG. Template matching is performed within the extraction region (first extraction region) in the
図23(f)のように新たなSLO画像2303を取得する。図23(e)で設定したマッチング領域2308に対応するSLO画像2303内の抽出領域(第2の抽出領域)内でテンプレートマッチングを行う。テンプレート画像と一致する領域2309を検出し、テンプレート画像と一致する領域の基準座標(本実施例では中心座標)X2を取得する。さらに、図23(g)のように、座標X2を中心として、眼球移動距離100μmを考慮して次のマッチング領域2310を設定する。マッチング領域を設定すると同時に、座標X1とX2の座標値から眼球の移量を算出する。
A
これ以降の処理は省略するが、さらに図23(h)の様に新たなSLO画像2304を取得し、マッチング領域2310に対応するSLO画像2304内の領域内でテンプレートマッチングを行い、テンプレート画像と一致する領域を検出し、その基準座標を取得し、さらに次のマッチング領域を設定していくという処理をOCT画像撮像が終了するまで繰り返す。
Although the subsequent processing is omitted, a
以上のように、マッチング領域をSLO画像の取得レートに合わせて、取得するSLO画像1枚ごとにマッチング領域を設定して次に取得したSLO画像に適応させることで、フィードバック速度が向上する。さらに、OCT撮像中、SLO画像から眼球の移動量を算出し、OCT装置にフィードバックして、OCTスキャンが走査する領域も眼球の移動量に合わせて移動させながらOCT画像を取得することで、高画質のOCT画像が得られる。 As described above, the feedback area is improved by setting the matching area for each SLO image to be acquired and adapting it to the next acquired SLO image in accordance with the acquisition rate of the SLO image. Furthermore, during OCT imaging, the amount of movement of the eyeball is calculated from the SLO image, fed back to the OCT apparatus, and the OCT image is acquired while moving the region scanned by the OCT scan according to the amount of movement of the eyeball. An image quality OCT image is obtained.
なお、実施例において、1つの特徴点を抽出して移動量を求めたが、複数の特徴点を抽出し、それぞれの特徴点に基づきパターンマッチングを実施して得られる各移動量の平均値をOCT装置へフィードバックするようにしてもよい。 In the embodiment, the amount of movement is obtained by extracting one feature point, but the average value of each amount of movement obtained by extracting a plurality of feature points and performing pattern matching based on each feature point is obtained. You may make it feed back to an OCT apparatus.
(その他)
実施例1、2、3では血管のテンプレート画像を用いて抽出したが、黄斑や乳頭をテンプレート画像として用いても同様の効果が得られる。眼底画像取得には、眼底カメラ、走査レーザ検眼鏡(SLO)、光干渉断層撮像装置等、実施例に記載したもの以外の撮像系を用い眼底画像を取得してもよい。さらに、視野検査を行う視野検査装置などでも同様の効果が得られる。
(Other)
In Examples 1, 2, and 3, extraction was performed using a blood vessel template image, but the same effect can be obtained by using a macula or nipple as a template image. For acquiring the fundus image, the fundus image may be acquired using an imaging system other than those described in the embodiments, such as a fundus camera, a scanning laser ophthalmoscope (SLO), and an optical coherence tomography apparatus. Further, a similar effect can be obtained with a visual field inspection apparatus that performs visual field inspection.
また、血管などでは眼球の旋回を検出するために複数の特徴点を抽出することがある。そのような場合にも実施例1、2、3と同様に各特徴点に対応するマッチング領域及び抽出領域を設定することにより、同様の効果が得られる。 In blood vessels or the like, a plurality of feature points may be extracted in order to detect the rotation of the eyeball. Even in such a case, the same effect can be obtained by setting the matching region and the extraction region corresponding to each feature point as in the first, second, and third embodiments.
実施例1、2、3で示したフローの順序はこれに限定されるものではなく、順序が異なっていたり、又は、その他のフローによっても、本発明と同様にしてマッチング領域及び抽出領域を設定することで同様の効果が得られる。また、移動量を算出する基準座標は中心座標を用いたが、各エッジ座標又は欠陥の交差座標でも同様の効果が得られる。 The order of the flows shown in the first, second, and third embodiments is not limited to this, and the matching area and the extraction area are set in the same manner as in the present invention even if the order is different or other flows. By doing so, the same effect can be obtained. In addition, although the center coordinate is used as the reference coordinate for calculating the movement amount, the same effect can be obtained by the edge coordinate or the intersection coordinate of the defect.
実施例1では、内部固視灯を設けていたため、マッチング領域を700μmとしたが、マッチング領域として設定する幅は眼底画像の撮像条件等の各種状況に応じて適宜設定できる。例えば、固視が更に安定する場合ではマッチング領域を小さくすることができるし、一方で高年齢者や患眼等、固視が安定しない場合などはマッチング領域を広くした方がよい。また、撮像条件として1枚の眼底画像を撮像するために必要な時間を考慮してもよい。同被験者について複数回測定を行う場合、前回の測定データを用いることでより正確なマッチング領域を設定できるため、テンプレートマッチングを高速化できる。本実施例ではテンプレート画像の周囲すべてについて同じR1だけ拡張した領域をマッチング領域としたが、測定時間内における人眼の移動量に応じて、拡張する方向ごとに違う値を用いても同様の効果が得られる。 In the first embodiment, since the internal fixation lamp is provided, the matching area is set to 700 μm. However, the width set as the matching area can be appropriately set according to various conditions such as the fundus image capturing condition. For example, when the fixation is further stabilized, the matching area can be reduced. On the other hand, when the fixation is not stable, such as an elderly person or an affected eye, it is better to widen the matching area. In addition, as an imaging condition, a time required to capture one fundus image may be considered. When performing the measurement for the same subject a plurality of times, template matching can be speeded up because a more accurate matching region can be set by using the previous measurement data. Although the area that extends for all around by the same R 1 of the template image and the matching area in the present embodiment, in accordance with the amount of movement of the human eye in the measuring time, the same be a different value for each direction to extend An effect is obtained.
実施例2、3では、眼科機器に対してリアルタイムで眼球運動の補正を行ったが、得られた画像に対して測定終了後に補正又は後処理を行っても効果がある。 In Examples 2 and 3, eye movement correction was performed in real time on the ophthalmic device, but it is also effective to perform correction or post-processing on the obtained image after completion of the measurement.
眼球運動量を算出する際の図9のグラフは外部固視/内部固視、患眼/健常者、年齢、個人、等の条件により異なるグラフを用いることでより正確な運動量を算出でき、マッチング領域をより正確に提供できる。 The graph of FIG. 9 when calculating the amount of eye movement can be calculated more accurately by using different graphs depending on conditions such as external fixation / internal fixation, affected eye / normal subject, age, individual, etc. Can be provided more accurately.
1:眼底カメラ本体部
50:デジタル一眼レフカメラ
602:マッチング領域
R1:マッチング領域設定幅
1002:抽出領域
1: Fundus camera body
50: Digital SLR camera
602: Matching region R 1 : Matching region setting width
1002: Extraction area
Claims (10)
前記被検眼の複数の眼底画像を取得する取得手段と、
前記取得された眼底画像のうち、第1の眼底画像から特徴点を抽出する抽出手段と、
前記特徴点とマッチする位置を抽出するための第1の抽出領域を、眼球の移動や回旋により前記抽出した特徴点が撮像中に移動する範囲よりも広い領域となるように、前記取得された眼底画像のうち第2の眼底画像に設定する設定手段と、
前記第2の眼底画像に設定した前記第1の抽出領域から前記特徴点とマッチする画像を抽出するマッチング手段と、
前記第1の眼底画像の特徴点の基準座標と前記第2の眼底画像から抽出した画像の座標とに基づき、前記被検眼の移動量を求める手段とを有することを特徴とする眼科装置。 An ophthalmologic apparatus for extracting a feature point from a fundus image of a subject eye and detecting a movement amount of the subject eye,
Obtaining means for obtaining a plurality of fundus images of the eye to be examined;
Extracting means for extracting feature points from the first fundus image among the acquired fundus images;
The first extraction region for extracting a position that matches the feature point is acquired so that the extracted feature point is wider than the range in which the extracted feature point moves during imaging by moving or rotating the eyeball. Setting means for setting the second fundus image among the fundus images;
A matching means for extracting an image that matches the feature point from the first extraction region set in the second fundus image;
An ophthalmologic apparatus comprising: means for determining a movement amount of the eye to be examined based on reference coordinates of feature points of the first fundus image and coordinates of an image extracted from the second fundus image.
前記設定手段は、前記複数の特徴点のそれぞれに対応する複数の第1の抽出領域を設定することを特徴とする請求項1乃至4のいずれか1項に記載の眼科装置。 The extraction means extracts a plurality of feature points,
5. The ophthalmologic apparatus according to claim 1, wherein the setting unit sets a plurality of first extraction regions corresponding to each of the plurality of feature points. 6.
前記マッチング手段は、さらに前記第2の抽出領域から前記特徴点とマッチする画像を抽出し、
前記被検眼の移動量を求める手段は、さらに前記第2の眼底画像においてマッチング手段で抽出された画像の基準座標と前記第2の抽出領域から抽出した前記特徴点とマッチする画像の座標とに基づき、前記被検眼の移動量を求めることを特徴とする、請求項1乃至4のいずれか1項に記載の眼科装置。 The setting means further sets the second extraction region in a range around the reference coordinates of the image extracted by the matching means in the second fundus image by moving the feature point by moving the eyeball being imaged. Set the third fundus image among the acquired fundus images so as to be a wide area,
The matching means further extracts an image that matches the feature point from the second extraction region,
The means for obtaining the movement amount of the eye to be examined further includes reference coordinates of the image extracted by the matching means in the second fundus image and coordinates of the image matching the feature point extracted from the second extraction region. The ophthalmologic apparatus according to claim 1, wherein a movement amount of the eye to be examined is obtained based on the eye.
前記設定手段は、前記複数の特徴点のそれぞれに対応する複数の第1の抽出領域を設定し、さらに前記複数の第1の抽出領域のそれぞれに対応する複数の第2の抽出領域を設定することを特徴とする請求項5又は6に記載の眼科装置。 The extraction means extracts a plurality of feature points,
The setting means sets a plurality of first extraction areas corresponding to the plurality of feature points, and further sets a plurality of second extraction areas corresponding to the plurality of first extraction areas. The ophthalmologic apparatus according to claim 5 or 6, characterized by the above.
前記被検眼の複数の眼底画像を取得する工程と、
前記取得された眼底画像のうち、第1の眼底画像から特徴点を抽出する工程と、
前記特徴点とマッチする位置を抽出するための第1の抽出領域を、眼球の移動や回旋により前記抽出した特徴点が撮像中に移動する範囲よりも広い領域となるように、前記取得された眼底画像のうち第2の眼底画像に設定する工程と、
前記第2の眼底画像に設定した前記第1の抽出領域から前記特徴点とマッチする画像を抽出する工程と、
前記第1の眼底画像の特徴点の座標と前記第2の眼底画像から抽出した画像の座標とに基づき、前記被検眼の移動量を求める工程とを有することを特徴とする制御方法。 A method for controlling an ophthalmologic apparatus that extracts a feature point from a fundus image of a subject eye and detects a movement amount of the subject eye,
Obtaining a plurality of fundus images of the eye to be examined;
A step of extracting feature points from the first fundus image among the acquired fundus images;
The first extraction region for extracting a position that matches the feature point is acquired so that the extracted feature point is wider than the range in which the extracted feature point moves during imaging by moving or rotating the eyeball. Setting the second fundus image of the fundus image;
Extracting an image that matches the feature point from the first extraction region set in the second fundus image;
And a step of obtaining a movement amount of the eye to be examined based on the coordinates of the feature points of the first fundus image and the coordinates of the image extracted from the second fundus image.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010243537A JP5858603B2 (en) | 2010-03-12 | 2010-10-29 | Ophthalmic apparatus and control method thereof |
CN201180013700.9A CN103096785B (en) | 2010-03-12 | 2011-03-08 | Ophthalmologic apparatus and control method thereof |
US13/581,675 US8998412B2 (en) | 2010-03-12 | 2011-03-08 | Ophthalmologic apparatus and control method for the same |
PCT/JP2011/055872 WO2011111851A1 (en) | 2010-03-12 | 2011-03-08 | Ophthalmologic apparatus and control method for the same |
US14/628,420 US9468374B2 (en) | 2010-03-12 | 2015-02-23 | Ophthalmologic apparatus and control method for the same |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010056545 | 2010-03-12 | ||
JP2010056545 | 2010-03-12 | ||
JP2010243537A JP5858603B2 (en) | 2010-03-12 | 2010-10-29 | Ophthalmic apparatus and control method thereof |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2011206519A true JP2011206519A (en) | 2011-10-20 |
JP2011206519A5 JP2011206519A5 (en) | 2013-12-05 |
JP5858603B2 JP5858603B2 (en) | 2016-02-10 |
Family
ID=44938270
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010243537A Expired - Fee Related JP5858603B2 (en) | 2010-03-12 | 2010-10-29 | Ophthalmic apparatus and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5858603B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8967804B2 (en) | 2012-01-26 | 2015-03-03 | Canon Kabushiki Kaisha | Ophthalmic apparatus, ophthalmic apparatus control method and storage medium |
WO2015166551A1 (en) * | 2014-04-30 | 2015-11-05 | 株式会社クリュートメディカルシステムズ | Ocular function measurement device |
JP2016055123A (en) * | 2014-09-12 | 2016-04-21 | 株式会社ニデック | Ophthalmic imaging device, ophthalmic imaging system and ophthalmic imaging program |
JP2017205658A (en) * | 2017-09-04 | 2017-11-24 | キヤノン株式会社 | Ocular fundus imaging apparatus |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10146319A (en) * | 1996-11-20 | 1998-06-02 | Yukinobu Kunihiro | Eye movement analyzer |
JP2004313545A (en) * | 2003-04-17 | 2004-11-11 | Hitachi Medical Corp | Cardiac motion display method and image diagnostic apparatus |
JP2008079792A (en) * | 2006-09-27 | 2008-04-10 | Hitachi Ltd | Ultrasonic diagnostic apparatus |
JP2010012109A (en) * | 2008-07-04 | 2010-01-21 | Nidek Co Ltd | Ocular fundus photographic apparatus |
JP2011135933A (en) * | 2009-12-25 | 2011-07-14 | Nidek Co Ltd | Retinal function measuring apparatus |
-
2010
- 2010-10-29 JP JP2010243537A patent/JP5858603B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10146319A (en) * | 1996-11-20 | 1998-06-02 | Yukinobu Kunihiro | Eye movement analyzer |
JP2004313545A (en) * | 2003-04-17 | 2004-11-11 | Hitachi Medical Corp | Cardiac motion display method and image diagnostic apparatus |
JP2008079792A (en) * | 2006-09-27 | 2008-04-10 | Hitachi Ltd | Ultrasonic diagnostic apparatus |
JP2010012109A (en) * | 2008-07-04 | 2010-01-21 | Nidek Co Ltd | Ocular fundus photographic apparatus |
JP2011135933A (en) * | 2009-12-25 | 2011-07-14 | Nidek Co Ltd | Retinal function measuring apparatus |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8967804B2 (en) | 2012-01-26 | 2015-03-03 | Canon Kabushiki Kaisha | Ophthalmic apparatus, ophthalmic apparatus control method and storage medium |
WO2015166551A1 (en) * | 2014-04-30 | 2015-11-05 | 株式会社クリュートメディカルシステムズ | Ocular function measurement device |
JP2016055123A (en) * | 2014-09-12 | 2016-04-21 | 株式会社ニデック | Ophthalmic imaging device, ophthalmic imaging system and ophthalmic imaging program |
JP2017205658A (en) * | 2017-09-04 | 2017-11-24 | キヤノン株式会社 | Ocular fundus imaging apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP5858603B2 (en) | 2016-02-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9468374B2 (en) | Ophthalmologic apparatus and control method for the same | |
JP5818409B2 (en) | Fundus imaging apparatus and control method thereof | |
JP5901124B2 (en) | Imaging apparatus and control method thereof | |
CN102525403B (en) | Ophthalmologic apparatus and control method therefor | |
JP2012196439A (en) | Image photographing apparatus and image photographing method | |
JP2012187229A (en) | Photographing apparatus and photographing method | |
JP6411728B2 (en) | Ophthalmic observation device | |
US10244942B2 (en) | Ophthalmologic photographing apparatus, method, and storage medium | |
JP2019155003A (en) | Ophthalmologic apparatus and method of controlling the same | |
JP5858603B2 (en) | Ophthalmic apparatus and control method thereof | |
JP6633468B2 (en) | Blood flow measurement device | |
JP5653055B2 (en) | Ophthalmic apparatus and control method thereof | |
JP5931163B2 (en) | Ophthalmic apparatus and method for measuring movement of eye to be examined | |
US10289907B2 (en) | Image processing apparatus, image pickup apparatus, and image processing method | |
WO2011111851A1 (en) | Ophthalmologic apparatus and control method for the same | |
JP6099782B2 (en) | Ophthalmic imaging equipment | |
JP2018023818A (en) | Ophthalmological observation device | |
JP2019155002A (en) | Ophthalmologic apparatus and method of controlling the same | |
JP2018023816A (en) | Ophthalmological observation device | |
JP6404431B2 (en) | Ophthalmic observation device | |
JP6254729B2 (en) | Ophthalmic imaging equipment | |
JP2018023815A (en) | Ophthalmological observation device | |
JP2018023819A (en) | Ophthalmological observation device | |
JP2020006182A (en) | Imaging system and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20120730 |
|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20120731 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20120831 |
|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20130701 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131021 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131021 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140828 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140909 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150407 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150605 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151117 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151215 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5858603 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |