JP5931163B2 - Ophthalmic apparatus and method for measuring movement of eye to be examined - Google Patents

Ophthalmic apparatus and method for measuring movement of eye to be examined Download PDF

Info

Publication number
JP5931163B2
JP5931163B2 JP2014234236A JP2014234236A JP5931163B2 JP 5931163 B2 JP5931163 B2 JP 5931163B2 JP 2014234236 A JP2014234236 A JP 2014234236A JP 2014234236 A JP2014234236 A JP 2014234236A JP 5931163 B2 JP5931163 B2 JP 5931163B2
Authority
JP
Japan
Prior art keywords
fundus
eye
image
region
examined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014234236A
Other languages
Japanese (ja)
Other versions
JP2015033650A (en
Inventor
牧平 朋之
朋之 牧平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014234236A priority Critical patent/JP5931163B2/en
Publication of JP2015033650A publication Critical patent/JP2015033650A/en
Application granted granted Critical
Publication of JP5931163B2 publication Critical patent/JP5931163B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、眼科装置及び制御方法に関するもので、特に眼球の動きを求める眼科装置及び被検眼の動きを測定する方法に関するものである。   The present invention relates to an ophthalmologic apparatus and a control method, and more particularly to an ophthalmologic apparatus that obtains the movement of an eyeball and a method of measuring the movement of an eye to be examined.

近年、眼球運動を計測する装置が注目されている。眼球運動の計測が可能になれば、視野検査や、より高精細な画像を取得する眼底断層撮像装置等に応用し、より精度の高い眼底検査が可能になる。   In recent years, an apparatus for measuring eye movement has attracted attention. If the eye movement can be measured, it can be applied to a visual field inspection, a fundus tomographic imaging apparatus that acquires a higher-definition image, etc., and a fundus inspection with higher accuracy can be performed.

眼球運動を計測する方法としては角膜反射法(プルキニエ像)、サーチコイル法等、様々な技術が公知である。なかでも、簡易的で被験者に負担が少ない方法として、眼底画像から眼球運動を計測する方法が検討されている。   Various techniques such as a corneal reflection method (Purkinje image) and a search coil method are known as methods for measuring eye movement. In particular, a method for measuring eye movement from a fundus image has been studied as a simple method with less burden on the subject.

眼底画像から精度良く眼球運動を計測するには、眼底画像から特徴点を抽出し、処理対象とする画像において特徴点を探索・検出した後、特徴点の移動量を算出する必要がある。これらのうち、特徴点の抽出工程は眼球運動の計測安定性・精度・再現性という点で重要である。眼底画像の特徴点としては、黄斑や視神経乳頭(以下、乳頭とする)などが用いられる。また、患眼等では黄斑や乳頭が不完全な場合が少なくない為、眼底画像の特徴点として、血管が用いられる事もある。血管の特徴点の抽出方法として様々な方法が知られている。例えば特許文献1には、眼底画像に設定したフィルターの外周部上における画素値の平均値から、血管の本数及び、フィルター中心部における血管の存在の有無を判定し、フィルター領域内における血管交叉部の存在判定を行う方法が開示されている。   In order to accurately measure eye movements from the fundus image, it is necessary to extract feature points from the fundus image, search for and detect feature points in the image to be processed, and then calculate the amount of movement of the feature points. Among these, the feature point extraction process is important in terms of measurement stability, accuracy, and reproducibility of eye movements. As the feature point of the fundus image, the macula, the optic disc (hereinafter referred to as the nipple), or the like is used. In addition, since there are many cases in which the macula and the nipple are incomplete in the affected eye, blood vessels may be used as feature points of the fundus image. Various methods are known as methods for extracting feature points of blood vessels. For example, in Patent Document 1, the number of blood vessels and the presence / absence of blood vessels in the center of the filter are determined from the average value of the pixel values on the outer periphery of the filter set in the fundus image, and the blood vessel crossing portion in the filter region is determined. Is disclosed.

特開2001−70247JP 2001-70247 A

特許文献1の様な方法を用いて眼底の特徴点を抽出し、画像間の特徴点の位置関係を比較する事で取得画像間での眼球の動き量を算出すれば、眼底画像から精度良く眼球の動きを検出することが可能である。しかし、抽出された特徴点が取得画像の端部に位置しているような場合には、眼球の動きによって特徴点が処理対象とする画像上から外れてしまい、眼球の動き量が検出できなくなること(特徴点探索エラー)があるという問題があった。また、眼球の回旋運動を検出しようとする際に、画像の中心部から特徴点が抽出されると、眼球の回旋による特徴点の位置の変化が生じず、回旋が検出できないおそれがある。   If a feature point of the fundus is extracted using a method as in Patent Document 1 and the amount of movement of the eyeball between acquired images is calculated by comparing the positional relationship of the feature points between images, the fundus image can be accurately obtained. It is possible to detect the movement of the eyeball. However, when the extracted feature point is located at the end of the acquired image, the feature point is deviated from the image to be processed due to the movement of the eyeball, and the amount of movement of the eyeball cannot be detected. (Feature point search error). Further, when a feature point is extracted from the center of the image when attempting to detect the rotational movement of the eyeball, the position of the feature point does not change due to the rotation of the eyeball, and the rotation may not be detected.

上述の課題を解決する為、本発明に係る眼科装置は、被検眼の複数の眼底画像を異なる時間に取得する画像取得手段と、
前記取得された複数の眼底画像のうち少なくとも1つの眼底画像の周辺部から所定の幅を有する部分領域を決定する決定手段と、
前記少なくとも1つの眼底画像のうち、前記決定された部分領域とは異なる他の領域から少なくとも1つの特徴領域の抽出を行う処理手段と、
前記少なくとも1つの特徴領域を用いて、前記被検眼の動きを測定する手段と
を有することを特徴とする。
In order to solve the above-described problem, an ophthalmologic apparatus according to the present invention includes an image acquisition unit that acquires a plurality of fundus images of an eye to be examined at different times;
Determining means for determining a partial region having a predetermined width from a peripheral portion of at least one fundus image among the plurality of acquired fundus images;
Processing means for extracting at least one feature region from another region different from the determined partial region of the at least one fundus image;
Means for measuring movement of the eye to be examined using the at least one feature region.

また、本発明に係る被検眼の動きを測定する方法は、被検眼の複数の眼底画像を異なる時間に取得する工程と、
前記取得された複数の眼底画像のうち少なくとも1つの眼底画像の周辺部から所定の幅を有する部分領域を決定する工程と、
前記少なくとも1つの眼底画像のうち、前記決定された部分領域とは異なる他の領域から少なくとも1つの特徴領域の抽出を行う工程と、
前記少なくとも1つの特徴領域を用いて、前記被検眼の動きを測定する工程と、
を含むことを特徴とする
Further, the method for measuring the movement of the eye to be inspected according to the present invention includes a step of acquiring a plurality of fundus images of the eye to be examined at different times,
Determining a partial region having a predetermined width from a peripheral portion of at least one fundus image among the plurality of acquired fundus images;
Extracting at least one feature region from another region different from the determined partial region of the at least one fundus image;
Measuring the movement of the eye to be examined using the at least one feature region;
It is characterized by including

本発明に依れば、眼球が動いた際にも眼底特徴点が取得画像の枠外に外れる事が無く、特徴点探索エラーの発生を防止できる。   According to the present invention, even when the eyeball moves, the fundus feature point does not fall outside the frame of the acquired image, and the occurrence of a feature point search error can be prevented.

本発明の実施例1における眼底カメラの光学系の構成を説明する概略図である。It is the schematic explaining the structure of the optical system of the retinal camera in Example 1 of this invention. 本発明の実施例1における眼底画像を説明する概略図である。It is the schematic explaining the fundus image in Example 1 of the present invention. 本発明の実施例1における装置の機能体系の概略図である。It is the schematic of the function system of the apparatus in Example 1 of this invention. 本発明の実施例1における制御フロー図である。It is a control flow figure in Example 1 of the present invention. 本発明の実施例1における制御フローの処理Aに関するフロー図である。It is a flowchart regarding the process A of the control flow in Example 1 of this invention. 本発明の実施例1における制御フローの処理Bに関するフロー図である。It is a flowchart regarding the process B of the control flow in Example 1 of this invention. 本発明の実施例2におけるOCT装置とSLO装置の光学系の構成を説明する概略図である。It is the schematic explaining the structure of the optical system of the OCT apparatus and SLO apparatus in Example 2 of this invention. 本発明の実施例2における装置の機能体系の概略図である。It is the schematic of the function system of the apparatus in Example 2 of this invention. 本発明の実施例2における制御フロー図である。It is a control flow figure in Example 2 of the present invention. 本発明の実施例2における制御フローの処理Cに関するフロー図である。It is a flowchart regarding the process C of the control flow in Example 2 of this invention. 本発明の実施例2における眼球の移動距離を算出する為のグラフに関する概略図である。It is the schematic regarding the graph for calculating the moving distance of the eyeball in Example 2 of this invention. 本発明の実施例2における制御フローの処理Dに関するフロー図である。It is a flowchart regarding the process D of the control flow in Example 2 of this invention. 本発明の実施例2におけるSLO画像を説明する概略図である。It is the schematic explaining the SLO image in Example 2 of this invention. 本発明の実施例2における表示例を表す概略図である。It is the schematic showing the example of a display in Example 2 of this invention. 本発明の実施例3における眼底画像を表す概略図である。It is the schematic showing the fundus image in Example 3 of the present invention.

本発明を実施するための形態について、以下の実施例において図面を用い詳細に説明する。
なお、以下の実施例では本発明を単一の装置に応用した例を記載するが、本発明の対象は下記の構成に限定されることはなく、また、下記の構成を備える単一の装置に限定されることはない。本発明は、下記の機能を実現するための方法の使用及び、これらの機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理によっても実現される。
EMBODIMENT OF THE INVENTION The form for implementing this invention is demonstrated in detail using drawing in the following Examples.
In the following embodiments, an example in which the present invention is applied to a single device will be described. However, the object of the present invention is not limited to the following configuration, and a single device having the following configuration is used. It is not limited to. The present invention uses a method for realizing the following functions and supplies software (computer program) for realizing these functions to a system or apparatus via a network or various storage media. It is also realized by a process in which a computer (or CPU, MPU, etc.) reads and executes a program.

[実施例1]
以下、本発明の実施例1について説明する。
本実施例では、上記説明した課題を解決するために、眼底画像の特徴点を抽出する際、抽出領域を指定する事で、眼球運動を計測する例について述べる。
[Example 1]
Embodiment 1 of the present invention will be described below.
In this embodiment, in order to solve the above-described problem, an example in which eye movement is measured by specifying an extraction region when extracting feature points of a fundus image will be described.

(眼底カメラ)
眼底画像取得に眼底カメラを用いた。図1に眼底カメラの概略図を示す。眼底カメラ本体部1には、信号取得部としてビデオレートで撮像可能なデジタル一眼レフカメラ50が接続部40を介し接続されている。被検眼Eと対向する対物レンズ11の光路上には、孔あきミラー12が設けられている。孔あきミラー12の入射方向の光路上には、リレーレンズ13、黒点板14、リレーレンズ15、リングスリット板16、蛍光エキサイタフィルタ17、ミラー18が配列されている。更に、ミラー18の入射方向には、コンデンサレンズ19、キセノン管から成る撮影用光源20、コンデンサレンズ21、赤外発光ダイオードから成る観察用光源22が配置されている。尚、図上における光路は点線で示している。
(Fundus camera)
A fundus camera was used to acquire the fundus image. FIG. 1 shows a schematic diagram of a fundus camera. A digital single lens reflex camera 50 capable of imaging at a video rate as a signal acquisition unit is connected to the fundus camera main body unit 1 via a connection unit 40. On the optical path of the objective lens 11 facing the eye E, a perforated mirror 12 is provided. A relay lens 13, a black spot plate 14, a relay lens 15, a ring slit plate 16, a fluorescent exciter filter 17, and a mirror 18 are arranged on the optical path in the incident direction of the perforated mirror 12. Further, in the incident direction of the mirror 18, a condenser lens 19, a photographing light source 20 made of a xenon tube, a condenser lens 21, and an observation light source 22 made of an infrared light emitting diode are arranged. In the figure, the optical path is indicated by a dotted line.

孔あきミラー12の背後には、フォーカスレンズ24、蛍光バリアフィルタ25、結像レンズ26が配列され、デジタル一眼レフカメラ50が接続されている。デジタル一眼レフカメラ50内には、対物レンズ11の背後の光路と同一光路上に、クイックリターンミラー51、フォーカルプレーンシャッタ(図示せず)、二次元センサ53が配置されている。また、クイックリターンミラー51の反射方向には、ペンタプリズム54、接眼レンズ55が設けられている。二次元センサ53で受光した信号は信号処理基盤52で処理され、ケーブルを介し、HDD58を有するPC56へ転送され、ディスプレイ57に表示される。眼底カメラには、外部固視灯(図示せず)が設けられ、固視が安定するよう構成されている。   A focus lens 24, a fluorescent barrier filter 25, and an imaging lens 26 are arranged behind the perforated mirror 12, and a digital single lens reflex camera 50 is connected thereto. In the digital single-lens reflex camera 50, a quick return mirror 51, a focal plane shutter (not shown), and a two-dimensional sensor 53 are arranged on the same optical path as the optical path behind the objective lens 11. A pentaprism 54 and an eyepiece 55 are provided in the reflection direction of the quick return mirror 51. The signal received by the two-dimensional sensor 53 is processed by the signal processing board 52, transferred to the PC 56 having the HDD 58 via the cable, and displayed on the display 57. The fundus camera is provided with an external fixation lamp (not shown) so that fixation is stable.

(制御方法)
図3に機能体系を示す。機能体系は、システム全体を制御するCPU303、眼底画像取得部を制御する制御部305、眼底画像を取得するカメラ部301、システム状態を表示する表示部302、眼底画像や撮像条件等を記録するHDD(記録部)304、により構成されている。眼底の観察時及び撮影時には、CPU303より制御部305に撮像条件が指令され、眼底が撮像される。眼底が撮像された後、カメラ部301からCPU303に画像が送られ、画像処理等がなされた後、表示部302で表示され、同時又はその後、記録部304に保存される。
(Control method)
Fig. 3 shows the functional system. The functional system includes a CPU 303 that controls the entire system, a control unit 305 that controls the fundus image acquisition unit, a camera unit 301 that acquires the fundus image, a display unit 302 that displays the system state, and an HDD that records the fundus image and imaging conditions. (Recording unit) 304. At the time of observing and photographing the fundus, the CPU 303 instructs the control unit 305 to capture image conditions, and the fundus is imaged. After the fundus is imaged, an image is sent from the camera unit 301 to the CPU 303, subjected to image processing and the like, displayed on the display unit 302, and stored in the recording unit 304 at the same time or thereafter.

上述の機能を用い、一定時間の眼球運動を計測する全体のフローを図4に示す。眼底カメラ1を用い、第1の眼底画像を取得する(ステップ402)。第1の眼底画像を取得した後、特徴点(以下、テンプレートと記す)を抽出する前に、第1の画像の周辺部から画像の中心座標方向に一定の幅である所定の幅を有する領域を、マスク領域(第1の領域)として設定する(ステップ403)。このとき、測定時間内の固視微動等により眼球が移動する距離よりもマスク領域の幅が広くなるように、部分領域の一例であるマスク領域を設定する。マスク領域以外の部分を抽出領域(第2の領域)として、抽出領域からテンプレート画像を抽出する(ステップ404)。特徴領域としてのテンプレート画像の抽出の方法は、複数の画像間で探索・検出することができる特徴点を抽出する方法であれば、特に限定されない。テンプレート画像、第1の画像内に設定した基準位置の情報、及びテンプレート座標の情報を記録部304に保存する(ステップ405)。ここで、テンプレート座標とは、基準位置を原点(0、0)としたときのテンプレート画像の中心座標の値であり、基準位置に対するテンプレート画像の位置の情報(第1の位置の情報)を意味する。眼底カメラは一定時間連続撮像している為、次の新規の眼底画像(第2の眼底画像)が取得される(ステップ406)。処理Aにおいて(ステップ407)、既に特徴領域が抽出された眼底画像以外の少なくとも一つである取得された第2の眼底画像全体から、抽出された特徴領域に対応する或いは類似するテンプレート画像を探索(以下テンプレートマッチングとも記す)する。処理Bにより、テンプレート画像の位置の変化を算出し、一定時間の眼球運動量を算出する(ステップ408)。以上、ステップ406からステップ408の処理を眼球運動の計測が終了(新規画像が取得される)するまで繰り返す。また、眼球運動量、画像、計測時間、前眼部のリアルタイムモニタ画像等を表示部302に特定の表示形態で表示させる制御を、表示制御手段を配してこれに実行させてもよい(ステップ409)。   FIG. 4 shows the overall flow of measuring eye movements for a certain period of time using the functions described above. A first fundus image is acquired using the fundus camera 1 (step 402). After acquiring the first fundus image, before extracting feature points (hereinafter referred to as templates), an area having a predetermined width that is a constant width from the periphery of the first image in the center coordinate direction of the image Is set as a mask area (first area) (step 403). At this time, a mask region, which is an example of a partial region, is set so that the width of the mask region is wider than the distance that the eyeball moves due to fixation micromotion within the measurement time. A template image is extracted from the extraction region using a portion other than the mask region as an extraction region (second region) (step 404). The method for extracting a template image as a feature region is not particularly limited as long as it is a method for extracting feature points that can be searched and detected between a plurality of images. The template image, the reference position information set in the first image, and the template coordinate information are stored in the recording unit 304 (step 405). Here, the template coordinate is the value of the center coordinate of the template image when the reference position is the origin (0, 0), and means the position information (first position information) of the template image with respect to the reference position. To do. Since the fundus camera continuously captures images for a certain period of time, the next new fundus image (second fundus image) is acquired (step 406). In the process A (step 407), a template image corresponding to or similar to the extracted feature region is searched from the entire acquired second fundus image other than the fundus image from which the feature region has already been extracted. (Hereinafter also referred to as template matching). By the process B, the change in the position of the template image is calculated, and the eye movement for a certain time is calculated (step 408). As described above, the processing from step 406 to step 408 is repeated until the measurement of eye movement is completed (a new image is acquired). In addition, control for displaying the eye movement amount, the image, the measurement time, the real-time monitor image of the anterior eye portion, and the like on the display unit 302 in a specific display form may be performed using a display control unit (step 409). ).

部分的なフローである処理Aについて(ステップ407)、図5を用い説明する。テンプレートマッチングは記録部304に保存されたテンプレート画像を読み出し(ステップ502)、新規取得眼底画像内でテンプレートマッチングを行う(ステップ503)。テンプレートマッチングの手段は限定されず、公知のいかなる手法によっても行うことができる。テンプレートマッチング終了後(ステップ504)、マッチング座標を記録部304に保存する。ここで、マッチング座標とは、第1の画像における基準位置に対応する第2の画像上の点を原点(0、0)としたときのマッチング画像の中心座標の値であり、基準位置に対するマッチング画像の位置の情報(第2の位置の情報)を意味する。   The process A which is a partial flow (step 407) will be described with reference to FIG. In template matching, a template image stored in the recording unit 304 is read (step 502), and template matching is performed in the newly acquired fundus image (step 503). The template matching means is not limited and can be performed by any known technique. After completion of template matching (step 504), the matching coordinates are stored in the recording unit 304. Here, the matching coordinates are the values of the center coordinates of the matching image when the point on the second image corresponding to the reference position in the first image is the origin (0, 0), and matching with the reference position is performed. It means image position information (second position information).

次に、処理B(ステップ408)について、図6を用い説明する。先ず、記録部304からテンプレート座標とマッチング座標とを読み出し(ステップ602)、テンプレート座標とマッチング座標との間の座標差を算出し(ステップ603)、算出した座標差から移動距離を算出する。   Next, process B (step 408) will be described with reference to FIG. First, template coordinates and matching coordinates are read from the recording unit 304 (step 602), a coordinate difference between the template coordinates and the matching coordinates is calculated (step 603), and a movement distance is calculated from the calculated coordinate difference.

(追尾計測:具体例)
取得した眼底画像に対して以上の各処理を行った具体例を図2に示す。上述した眼底カメラ1を用い、10Hzの周期で、直径10mmの眼底画像を取得する測定条件で10秒間眼底を追尾計測する。
(Tracking measurement: specific example)
A specific example in which each of the above processes is performed on the acquired fundus image is shown in FIG. Using the above-described fundus camera 1, the fundus is tracked for 10 seconds under a measurement condition for acquiring a fundus image having a diameter of 10 mm at a cycle of 10 Hz.

先ず、図2(a)に取得された第1のデジタル眼底画像を示す。図2(a)の様に、乳頭201から血管が端部に向かって複雑に伸びている。第1の眼底画像を取得した後、図2(b)の様に画像端部からY=1mmの領域をマスク領域202に設定する。マスク領域の幅Yの設定方法は後述する。マスク領域202からはテンプレートを抽出しないようにし、マスク領域以外の抽出領域から、図2(c)の点線で示す、血管の分岐又は交差の少なくとも一つを特徴部として含むテンプレート画像203を抽出する。ここではテンプレート画像を500μm×500μmの正方形としたが、これに限定されることなく、テンプレート画像の形状やサイズは任意に決定することができる。本実施例では、眼底写真の中心座標を原点(0、0)とすると、図2(d)で示す第1の眼底画像で抽出したテンプレート画像の中心座標(以下、テンプレート座標と記す)はZ(0、−200)である。なお、座標単位はμmである。次に、対象とする第2の眼底画像である図2(e)からテンプレートを探索する。図2(f)の様にテンプレートマッチングした後、テンプレート画像と一致したマッチング画像のマッチング座標Zを計測する。この例では、マッチング座標Zは(0、−400)である。図2(g)の様にテンプレート座標Zとマッチング座標Zから座標の変化を差として計算して求め、眼球運動量(本実施例では(0μm、−200μm))を算出する。同様にして10Hzで取得される第3、第4・・・の眼底画像図についても上述の図2(e)〜(g)のテンプレートマッチングを繰り返し、計測中に眼球が基準位置からどの程度移動したか計測し、特定の表示形態にて表示する表示制御を行っても良い。 First, FIG. 2A shows the first digital fundus image acquired. As shown in FIG. 2A, the blood vessel extends in a complicated manner from the nipple 201 toward the end. After acquiring the first fundus image, an area of Y = 1 mm from the edge of the image is set as the mask area 202 as shown in FIG. A method for setting the width Y of the mask area will be described later. A template is not extracted from the mask region 202, and a template image 203 including at least one of the branching or crossing of blood vessels as a feature portion, which is indicated by a dotted line in FIG. . Here, the template image is a square of 500 μm × 500 μm, but the shape and size of the template image can be arbitrarily determined without being limited to this. In this embodiment, assuming that the center coordinates of the fundus photograph are the origin (0, 0), the center coordinates (hereinafter referred to as template coordinates) of the template image extracted from the first fundus image shown in FIG. 0 (0, -200). The coordinate unit is μm. Next, the template is searched from FIG. 2E which is the second fundus image to be processed. After the template matching as in FIG. 2 (f), the measured matching coordinates Z 1 of the matched matching image with the template image. In this example, the matching coordinates Z 1 is (0, -400). Figure 2 determined by calculating the change of coordinates as a difference from the template coordinates Z 0 matching coordinates Z 1 as in (g), eye movement amount (in this embodiment (0μm, -200μm)) is calculated. Similarly, for the third, fourth,... Fundus image diagrams acquired at 10 Hz, the template matching in FIGS. 2E to 2G is repeated, and how much the eyeball moves from the reference position during measurement. It is possible to perform display control to measure whether or not to display in a specific display form.

図2(b)で行ったマスク領域の設定方法の例を以下に示す。図2(b)のように眼底画像の大きさ、精度、及びすべての眼底画像を撮像する間の測定時間(本実施例では10秒間)内における固視微動による眼球の動く距離等の属性情報を考慮し、画像周辺部よりYmmの幅を有する範囲をマスク領域と指定する。今回、画像の直径は10mmであり、10μm程度の精度である。また、固視の開始からの時間と人眼の移動距離との関係についてモデル化された関数を示すグラフをもとに、測定時間内の人眼の移動量を求めることができる。このグラフは外部固視、内部固視、患眼若しくは健常者、年齢、または1枚の眼底画像を撮像する時間等の撮像条件ごとに予め用意されている公知のグラフを使用することができ、測定の方法や対象ごとに任意に選択することができる。本外部固視灯を有する健常者の固視微動は、測定時間10秒間で約1mm程度である。その為、上述条件では、画像周辺部から1mmの幅の領域をマスク領域として確保した。   An example of the mask area setting method performed in FIG. As shown in FIG. 2B, attribute information such as the size and accuracy of the fundus image, and the distance that the eyeball moves due to microscopic fixation within a measurement time (10 seconds in this embodiment) between capturing all the fundus images. In consideration of the above, a range having a width of Ymm from the peripheral portion of the image is designated as a mask region. This time, the diameter of the image is 10 mm, and the accuracy is about 10 μm. Further, the movement amount of the human eye within the measurement time can be obtained based on a graph showing a function modeled on the relationship between the time from the start of fixation and the movement distance of the human eye. This graph can be a known graph prepared in advance for each imaging condition such as external fixation, internal fixation, affected eye or healthy subject, age, or time to image one fundus image, Any method can be selected for each measurement method and target. Fixation fine movement of a healthy person having this external fixation lamp is about 1 mm in a measurement time of 10 seconds. Therefore, under the above conditions, an area having a width of 1 mm from the peripheral portion of the image is secured as a mask area.

このマスク領域は測定中の人眼の動きにより測定範囲から外れてしまう可能性のある領域である。そのため、以上の様にテンプレート抽出時にマスク領域202を設定する事で、測定中の人眼の動きによりテンプレート画像が取得した画像の範囲から外れることがなくなるため、テンプレート検出エラーを防止し、安定した眼球運動の計測が可能となる。   This mask area is an area that may be out of the measurement range due to the movement of the human eye during measurement. Therefore, by setting the mask area 202 at the time of template extraction as described above, the template image will not deviate from the acquired image range due to the movement of the human eye during measurement. Eye movement can be measured.

[実施例2]
以下、本発明の実施例2について説明する。
実施例2では、眼底撮像取得にSLO(Scanning Laser Opthalmoscope)を用い、SLO眼底画像から実施例1と同様の方法により眼球運動の計測を行い、眼球運動の計測結果を眼底の断層像を撮像する光干渉断層撮像(OCT:Optical Coherent Tomography)装置にリアルタイムにフィードバックする事で高精細な立体のOCT画像を取得した例について述べる。
[Example 2]
Embodiment 2 of the present invention will be described below.
In the second embodiment, SLO (Scanning Laser Optimalscope) is used for acquiring fundus imaging, and eye movement is measured from the SLO fundus image by the same method as in the first embodiment, and the measurement result of the eye movement is captured as a tomographic image of the fundus. An example in which a high-definition stereoscopic OCT image is acquired by feedback in real time to an optical coherence tomography (OCT) apparatus will be described.

(OCT構成)
眼科装置としてOCT装置を用いた。OCTの構成概要に関して、図7を用いて説明する。
低コヒーレント光源715は、SLD光源(Super Luminescent Diode)や、ASE光源(Amplified Spontaneous Emission)が好適に用いることができる。低コヒーレント光の好適な波長は、850nm近傍および1050nm近傍の波長が眼底撮影には好適に用いられる。本実施例では、中心波長840nm、波長半値幅45nmのSLD光源を用いる。低コヒーレント光源から照射される低コヒーレント光がファイバーを経由して、ファイバカプラ710に入り、計測光OCTビームとも言う)と参照光に分けられる。ここではファイバを用いた干渉計構成を記載しているが、空間光光学系でビームスプリッタを用いた構成としてもかまわない。
(OCT configuration)
An OCT apparatus was used as an ophthalmic apparatus. An outline of the OCT configuration will be described with reference to FIG.
As the low-coherent light source 715, an SLD light source (Super Luminescent Diode) or an ASE light source (Amplified Spontaneous Emission) can be suitably used. As the suitable wavelength of the low-coherent light, wavelengths near 850 nm and 1050 nm are preferably used for fundus photography. In this embodiment, an SLD light source having a center wavelength of 840 nm and a wavelength half width of 45 nm is used. The low-coherent light emitted from the low-coherent light source enters the fiber coupler 710 via the fiber, and is divided into a measurement light OCT beam) and a reference light. Although an interferometer configuration using a fiber is described here, a configuration using a beam splitter in a spatial light optical system may be used.

計測光(測定光)は、ファイバ709を介して、ファイバコリメータ708から平行光となって照射される。さらに計測光は、OCTスキャナ(Y)707、リレーレンズ706、705を経由し、さらにOCTスキャナ(X)704を通り、ダイクロイックビームスプリッタ703を透過しスキャンレンズ702、接眼レンズ701を通り700の被検眼に入射する。ここでOCTスキャナ(X)707および(Y)704は、ガルバノスキャナを用いている。被検眼eに入射した計測光は、網膜で反射し、同一光路を通りファイバカプラ710に戻る。   Measurement light (measurement light) is irradiated as parallel light from a fiber collimator 708 via a fiber 709. Further, the measurement light passes through the OCT scanner (Y) 707 and the relay lenses 706 and 705, further passes through the OCT scanner (X) 704, passes through the dichroic beam splitter 703, passes through the scan lens 702, and the eyepiece lens 701, and is covered by 700. Enter the optometry. Here, the OCT scanners (X) 707 and (Y) 704 use galvano scanners. The measurement light incident on the eye e is reflected by the retina and returns to the fiber coupler 710 through the same optical path.

参照光は、ファイバカプラ710から716のファイバコリメータ716に導かれ、平行光となり照射される。照射された参照光は、分散補正ガラス717を通り、光路長可変ステージ718上の参照ミラー719により反射される。参照ミラー719により反射された参照光は、同一の光路をたどり、ファイバカプラ710に戻る。
ファイバカプラ710で戻ってきた計測光および参照光が合波され、ファイバコリメータ711に導かれる。ここでは合波された光を干渉光と呼ぶ。ファイバコリメータ711、グレーティング712、レンズ713、ラインセンサ714によって、分光器が構成されている。干渉光は、分光器によって、波長毎の強度情報となって計測される。ラインセンサ714によって計測された波長毎の強度情報は、不図示のPCに転送され、被検眼eの断層画像として生成される。
The reference light is guided to the fiber collimator 716 of the fiber couplers 710 to 716 and irradiated as parallel light. The irradiated reference light passes through the dispersion correction glass 717 and is reflected by the reference mirror 719 on the optical path length variable stage 718. The reference light reflected by the reference mirror 719 follows the same optical path and returns to the fiber coupler 710.
The measurement light and the reference light returned by the fiber coupler 710 are combined and guided to the fiber collimator 711. Here, the combined light is called interference light. The fiber collimator 711, the grating 712, the lens 713, and the line sensor 714 constitute a spectrometer. The interference light is measured by the spectrometer as intensity information for each wavelength. The intensity information for each wavelength measured by the line sensor 714 is transferred to a PC (not shown) and is generated as a tomographic image of the eye e.

(SLO構成)
次に眼底画像を取得するSLO撮影部の光学構成を同じく図7を用いて説明する。レーザ光源729は、半導体レーザやSLD光源が好適に用いることができる。用いる波長は、波長分離手段によってOCT用の低コヒーレント光源の波長と分離できる光源であれば制約はないが、眼底観察像の画質として、700nm〜1000nmの近赤外の波長域が好適に用いられる。本実施例においては、波長760nmの半導体レーザを用いる。
(SLO configuration)
Next, the optical configuration of the SLO photographing unit that acquires the fundus image will be described with reference to FIG. As the laser light source 729, a semiconductor laser or an SLD light source can be preferably used. The wavelength to be used is not limited as long as it is a light source that can be separated from the wavelength of the low-coherent light source for OCT by the wavelength separation means, but the near-infrared wavelength region of 700 nm to 1000 nm is preferably used as the image quality of the fundus observation image. . In this embodiment, a semiconductor laser having a wavelength of 760 nm is used.

レーザ光源729から出射されたレーザはファイバ728を介して、ファイバコリメータ727から並行光となって出射され、シリンダーレンズ726に入射する。本実施例ではシリンダーレンズで記載しているが、ラインビーム生成可能な光学素子であれば特に制約はなく、パウエルレンズや回折光学素子を用いたラインビームシェイパーを用いることができる。シリンダーレンズ726で広げられたビーム(SLOビームとも言う)は、リレーレンズ725、724によって、リングミラー723の中心を通り、リレーレンズ721、722を通り、SLOスキャナ(Y)720に導かれる。SLOスキャナは、ガルバノスキャナを用いている。さらにダイクロイックビームスプリッタ703で反射され、スキャンレンズ702と接眼レンズ701を通り、被検眼700に入射する。ダイクロイックビームスプリッタ703は、OCTビームを透過し、SLOビームを反射するように構成しておく。被検眼に入射したビームは、被検眼の眼底に、ライン状のビームで照射される。このライン状のビームが、被検眼の眼底で反射あるいは散乱され、同一光路をたどり、リングミラー723まで戻る。リングミラー723の位置は、被検眼の瞳孔位置と共役になっており、眼底に照射されているラインビームが後方散乱した光のうち、瞳孔周辺部を通った光が、リングミラー723によって反射され、レンズ730によりラインセンサ731上に結像する。ラインセンサの位置毎の強度情報に基づき,不図示のPCにより眼底の平面画像を生成する。本実施例では、ラインビームを用いるラインスキャンSLO(以下、L-SLOと記す)構成でSLOを記載したが、当然ながら、フライングスポットSLOであっても構わない。   The laser emitted from the laser light source 729 is emitted as parallel light from the fiber collimator 727 via the fiber 728 and enters the cylinder lens 726. In this embodiment, a cylinder lens is used. However, any optical element capable of generating a line beam is not particularly limited, and a line beam shaper using a Powell lens or a diffractive optical element can be used. A beam (also referred to as an SLO beam) spread by the cylinder lens 726 passes through the center of the ring mirror 723 by the relay lenses 725 and 724, passes through the relay lenses 721 and 722, and is guided to the SLO scanner (Y) 720. The SLO scanner uses a galvano scanner. Further, the light is reflected by the dichroic beam splitter 703, passes through the scan lens 702 and the eyepiece lens 701, and enters the eye 700 to be examined. The dichroic beam splitter 703 is configured to transmit the OCT beam and reflect the SLO beam. The beam incident on the subject's eye is irradiated with a linear beam on the fundus of the subject's eye. This linear beam is reflected or scattered by the fundus of the subject's eye, and follows the same optical path and returns to the ring mirror 723. The position of the ring mirror 723 is conjugate with the pupil position of the eye to be examined. Of the light backscattered by the line beam applied to the fundus, the light passing through the periphery of the pupil is reflected by the ring mirror 723. The image is formed on the line sensor 731 by the lens 730. A planar image of the fundus is generated by a PC (not shown) based on the intensity information for each position of the line sensor. In the present embodiment, the SLO is described in a line scan SLO (hereinafter referred to as L-SLO) configuration using a line beam, but it may be a flying spot SLO as a matter of course.

(内部固視灯)
本実施例では、被検眼eに注視させることで固視微動を安定させる内部固視灯を有している。本実施例が有する内部固視灯について、OCT装置、SLO装置同様、図7を用い説明する。固視灯に用いる光源752は発光ダイオード(LD)を用いた。発光ダイオードの点灯位置を、PCの制御により撮像したい部位に合わせて変更する。発光ダイオード752は500nmの波長で、光源から出射されたビームは、レンズ751とダイクロイックミラー750を経由し、被検眼eに照射される。ダイクロイックミラー750は、スキャンレンズ702と接眼レンズ701の間に位置し、短波長(500nm程度)の光とOCTビーム,SLOビーム(700nm以上)を波長分離する。
(Internal fixation light)
In this embodiment, there is an internal fixation lamp that stabilizes the fixation fine movement by gazing at the eye e. The internal fixation lamp of this embodiment will be described with reference to FIG. The light source 752 used for the fixation lamp is a light emitting diode (LD). The lighting position of the light emitting diode is changed in accordance with the part to be imaged under the control of the PC. The light emitting diode 752 has a wavelength of 500 nm, and the beam emitted from the light source is irradiated to the eye e through the lens 751 and the dichroic mirror 750. The dichroic mirror 750 is located between the scan lens 702 and the eyepiece lens 701, and wavelength-separates light having a short wavelength (about 500 nm), OCT beam, and SLO beam (700 nm or more).

(制御方法)
図8に本実施例で用いられる機能体系を示す。その機能体系は、システム全体を制御するCPU801、SLO装置、OCT装置及び固視灯を制御する各々の制御部802、803、808、SLO画像及びOCT画像を取得する各々のラインセンサカメラ部804、805、システム状態を表示するPCの表示部806、眼底画像や撮像条件等を記録するPCの記録部807、により構成されている。眼底の撮影時には、CPU801より制御部802、803に各々の撮像条件が指令され、眼底が撮像される。眼底が撮像された後、カメラ部804、805からCPU801に画像が送られ、CPU801にて画像処理された後、表示部806で表示され、同時又はその後、記録部807に保存される。
(Control method)
FIG. 8 shows a functional system used in this embodiment. The functional system includes a CPU 801 that controls the entire system, each control unit 802, 803, and 808 that controls the fixation lamp and each line sensor camera unit 804 that acquires an SLO image and an OCT image. Reference numeral 805 denotes a PC display unit 806 that displays a system state, and a PC recording unit 807 that records fundus images and imaging conditions. When photographing the fundus, the CPU 801 instructs each of the imaging conditions to the control units 802 and 803 to image the fundus. After the fundus is imaged, images are sent from the camera units 804 and 805 to the CPU 801, processed by the CPU 801, displayed on the display unit 806, and stored in the recording unit 807 simultaneously or thereafter.

上述の機能を用い、OCT装置で眼球の断層像を取得している間の眼球運動を計測する全体のフローを図9に示す。   FIG. 9 shows an overall flow of measuring the eye movement while acquiring the tomographic image of the eyeball with the OCT apparatus using the above function.

まず、処理C(マスク領域計測)を実行し(ステップ901)、測定時間内の固視微動等により眼球が移動する距離よりもマスク領域の幅が広くなるように、マスク領域幅を決定する(ステップ902)。以上の処理と同時に、SLO装置を作動させSLOにより眼底画像を取得する(ステップ903)。SLOの画像に対して、第1の画像の周辺部から画像の中心座標方向にマスク領域(第1の領域)を設定し(ステップ904)、マスク領域以外の抽出領域(第2の領域)からテンプレートを抽出する(ステップ905)。テンプレート抽出後、テンプレート情報の画像とテンプレート画像の中心座標であるテンプレート座標を保存する(ステップ906)。OCT装置の走査基準位置を記録し(ステップ907)、OCT装置の計測を開始する(ステップ908)。SLO装置からの新規の画像を取得後(ステップ909)、実施例1と同様、処理A(テンプレートマッチング)(ステップ910)、処理B(眼球移動量算出)を実行し(ステップ911)、処理D(眼球移動量のOCTへのフィードバック)を行い(ステップ912)、OCT装置が断層像を継続計測している間はステップ909〜912の工程を繰り返す(ステップ913)。これら工程はこの順番で繰り返されることが好ましい。OCT撮像が終了した後、眼球運動の計測を終了する(ステップ914)。なお、処理A、処理Bは実施例1と同様であるため、説明は省略する。   First, processing C (mask area measurement) is executed (step 901), and the mask area width is determined so that the width of the mask area becomes wider than the distance that the eyeball moves due to fixation movement within the measurement time (step 901). Step 902). Simultaneously with the above processing, the SLO device is activated to acquire a fundus image by SLO (step 903). For the SLO image, a mask area (first area) is set from the periphery of the first image to the center coordinate direction of the image (step 904), and from the extraction area (second area) other than the mask area A template is extracted (step 905). After template extraction, the template information image and the template coordinates which are the center coordinates of the template image are stored (step 906). The scanning reference position of the OCT apparatus is recorded (step 907), and measurement of the OCT apparatus is started (step 908). After acquiring a new image from the SLO device (step 909), processing A (template matching) (step 910) and processing B (eyeball movement amount calculation) are executed (step 911) and processing D, as in the first embodiment. (Feedback of eye movement amount to OCT) is performed (step 912), and steps 909 to 912 are repeated while the OCT apparatus continuously measures tomographic images (step 913). These steps are preferably repeated in this order. After the OCT imaging is completed, the eye movement measurement is terminated (step 914). Note that the processing A and the processing B are the same as those in the first embodiment, and thus description thereof is omitted.

部分的なフローである処理C(マスク領域計測)について(ステップ901)、図10を用い説明する。OCT撮像条件から(ステップ1002)、すべての眼底画像を撮像する間のOCT撮像時間を計測する(ステップ1003)。固視の開始からの時間と人眼の移動距離との関係についてモデル化された関数を示すグラフである図11を参考に、OCT撮像時間をグラフ1101に適合させ、眼球移動距離(マスク領域)を算出する(ステップ1004)。実施例1と同様、このグラフは外部固視、内部固視、患眼若しくは健常者、年齢、または1枚の眼底画像を撮像する時間等の撮像条件ごとに予め用意されている公知のグラフを使用することができ、測定の方法や対象ごとに任意に選択することができる。図11のグラフは内部固視灯を有した装置で健常眼を測定した際の眼球移動量情報である。   Processing C (mask area measurement) which is a partial flow (step 901) will be described with reference to FIG. From the OCT imaging conditions (step 1002), the OCT imaging time during imaging of all fundus images is measured (step 1003). With reference to FIG. 11, which is a graph showing a function modeled on the relationship between the time from the start of fixation and the movement distance of the human eye, the OCT imaging time is adapted to the graph 1101, and the eyeball movement distance (mask region). Is calculated (step 1004). As in Example 1, this graph is a known graph prepared in advance for each imaging condition such as external fixation, internal fixation, affected eye or healthy subject, age, or time for imaging one fundus image. It can be used and can be arbitrarily selected for each measurement method and target. The graph of FIG. 11 is eyeball movement amount information when a healthy eye is measured with a device having an internal fixation lamp.

処理D(OCT装置へのフィードバック)について(ステップ912)、図12を用いて説明する。CPUにて、OCT装置のスキャン位置データを読み出し(ステップ1202)、眼球移動量からOCTスキャナに投入する電圧を算出し(ステップ1203)、CPUより投入電力をOCT制御部へ転送した後(ステップ1204)、スキャナ移動の信号を確認し(ステップ1205)、スキャン位置の変更情報を保存する(ステップ1206)。任意で変更状態、OCT画像、SLO画像(マスク領域、テンプレート位置表示)残り時間、等を表示する(ステップ1207)。   Process D (feedback to the OCT apparatus) (step 912) will be described with reference to FIG. The CPU reads the scan position data of the OCT apparatus (step 1202), calculates the voltage to be applied to the OCT scanner from the eyeball movement amount (step 1203), and transfers the input power from the CPU to the OCT controller (step 1204). ) Confirm the scanner movement signal (step 1205), and store the scan position change information (step 1206). Optionally, the change state, OCT image, SLO image (mask area, template position display) remaining time, etc. are displayed (step 1207).

(追尾計測:具体例)
内部固視灯を有した装置で健常眼を測定した際に取得したSLO画像に対し以上の各処理を行った具体例を図13に示す。L-SLOは眼底位置での画像の大きさは、ライン幅10mm、スキャン範囲10mm、つまり、10mm×10mmである。SLO画像は30Hzで取得できる。OCT画像を取得する際の条件は、上述したSD―OCTを用い、カメラを70k A−scanで動作させ、B―scan画像(眼底スキャン範囲10mm、レーザスポット径20μm)は1000lineで構成され、B―scan280枚、網膜の立体画像を取得する。計測時間は4秒となる。
(Tracking measurement: specific example)
FIG. 13 shows a specific example in which each of the above processes is performed on the SLO image acquired when a normal eye is measured with an apparatus having an internal fixation lamp. In the L-SLO, the size of the image at the fundus position is a line width of 10 mm and a scanning range of 10 mm, that is, 10 mm × 10 mm. SLO images can be acquired at 30 Hz. The conditions for acquiring the OCT image are the above-described SD-OCT, the camera is operated at 70 kA-scan, the B-scan image (fundus scan range 10 mm, laser spot diameter 20 μm) is composed of 1000 lines, B -Acquire 280 sheets of retinal stereoscopic images. The measurement time is 4 seconds.

図13(a)にSLOで取得された眼底画像(以下、単にSLO画像と記す)を示す。図13(a)の様に、乳頭から血管が端部に向かって複雑に伸びている。第1のSLO画像を取得した後、OCTの撮像条件から撮像時間4秒を算出する。図11を参照すると、4秒間に眼球は250μm移動する為、図13(b)の様に画像端部(4辺)から所定の幅の一例であるP=250μmの領域をマスク領域1301に設定し、マスク領域1301からはテンプレートを抽出しないようにし、図13の(c)の点線で示す様な500μm×500μmのテンプレート画像1302を抽出する。ここではテンプレート画像を500μm×500μmの正方形としたが、これに限定されることなく、テンプレート画像の形状やサイズは任意に決定することができる。テンプレート抽出後、図13(d)のテンプレート座標Xを移動量算出の基準として設定する。本実施例では、SLO画像の中心座標を原点(0、0)とすると、このテンプレート画像のテンプレート座標はX(−50、−200)であった。座標単位はμmである。次に対象とする第2の眼底画像である図13(e)からテンプレートをマッチングする。図13(f)の様にテンプレートマッチングした後、マッチングしたマッチング画像のマッチング座標Xを計測する。この第2の眼底画像図では、マッチング座標はX(−50、−400)であった。図13(g)の様にテンプレート座標Xとマッチング座標Xから座標の変化を求め、眼球の移動量(0μm、−200μm)を算出する。以上の算出した結果はCPUを介し、OCT装置のスキャナ707、704へ反映され、OCTの走査位置を変更する。上述の図13(e)〜(g)のテンプレートマッチングを繰り返し、30Hzで取得されるSLO画像を各々マッチングし、OCT装置にフィードバックする。以上の処理中、図14の様に、OCT画像1501、眼球運動計測結果1506、残りの計測時間1505、SLO画像(マスク領域、テンプレート画像表示含む)1504、撮像条件1503、等をディスプレイ1507に表示し、ユーザが動作を確認できるようにしてもよい。 FIG. 13A shows a fundus image acquired by SLO (hereinafter simply referred to as SLO image). As shown in FIG. 13A, the blood vessel extends in a complicated manner from the nipple toward the end. After acquiring the first SLO image, the imaging time of 4 seconds is calculated from the OCT imaging conditions. Referring to FIG. 11, since the eyeball moves 250 μm in 4 seconds, an area of P = 250 μm, which is an example of a predetermined width from the image end (four sides), is set as the mask area 1301 as shown in FIG. 13B. Then, the template is not extracted from the mask area 1301, and a 500 μm × 500 μm template image 1302 as shown by the dotted line in FIG. 13C is extracted. Here, the template image is a square of 500 μm × 500 μm, but the shape and size of the template image can be arbitrarily determined without being limited to this. After template extracting, set as a reference of the movement amount calculating a template coordinates X 0 in FIG. 13 (d). In this embodiment, when the center coordinate of the SLO image is the origin (0, 0), the template coordinate of the template image is X 0 (−50, −200). The coordinate unit is μm. Next, the template is matched from FIG. 13 (e) which is the second fundus image to be processed. After the template matching as in FIG. 13 (f), to measure the matching coordinates X 1 matching image matching. In the second fundus image diagram, the matching coordinates are X 1 (−50, −400). 13 obtains a change of coordinates from the template coordinates X 0 and matching coordinates X 1 as in (g), it calculates the amount of movement of the eyeball (0μm, -200μm). The calculated results are reflected on the scanners 707 and 704 of the OCT apparatus via the CPU, and the OCT scanning position is changed. The template matching shown in FIGS. 13E to 13G is repeated to match SLO images acquired at 30 Hz and feed back to the OCT apparatus. During the above processing, as shown in FIG. 14, the OCT image 1501, the eye movement measurement result 1506, the remaining measurement time 1505, the SLO image (including mask area and template image display) 1504, the imaging condition 1503, and the like are displayed on the display 1507. The user may be able to confirm the operation.

図13(b)のようなマスク領域の設定方法を以下に示す。眼底撮像手段とは別の眼科機器(本実施例のOCT装置)で検査する際の検査時間を算出する。検査時間と、撮像条件から、例えば、外部固視、内部固視、患眼若しくは健常者、年齢、または1枚の眼底画像を撮像する時間等の撮像条件に適合した図11のグラフを選択し、選択したグラフから眼球の移動量を算出する。眼球の移動量をマスク領域Pの幅とし、マスク領域を決定する。   A method for setting the mask area as shown in FIG. An examination time is calculated when an examination is performed using an ophthalmic device (an OCT apparatus according to the present embodiment) different from the fundus imaging unit. From the examination time and the imaging conditions, for example, select the graph of FIG. 11 that matches the imaging conditions such as external fixation, internal fixation, affected eye or healthy person, age, or time for imaging one fundus image. The amount of movement of the eyeball is calculated from the selected graph. The movement amount of the eyeball is set as the width of the mask area P, and the mask area is determined.

このマスク領域は測定中の人眼の動きにより測定範囲から外れてしまう可能性のある領域である。そのため、以上の様に、OCT撮像時間に応じ、テンプレート抽出時のマスク領域202を設定する事で、測定中の人眼の動きによりテンプレート画像が取得した画像の範囲から外れることがなくなり、テンプレート検出エラーを防止し、眼球運動に依る画像ズレの無い立体のOCT画像が取得できる。   This mask area is an area that may be out of the measurement range due to the movement of the human eye during measurement. Therefore, as described above, by setting the mask area 202 at the time of template extraction according to the OCT imaging time, the template image is not deviated from the acquired image range due to the movement of the human eye during measurement, and template detection is performed. An error can be prevented, and a three-dimensional OCT image with no image shift due to eye movement can be acquired.

(実施例3)
実施例1、2において、マスク領域を設定する領域は画像の周辺部には限定されず、例えば取得した第1の眼底画像の中心部に設定することもできる。
このとき、マスク領域は画像の中心部にのみ設定してもよいし、画像の周辺部と中心部との双方に設定してもよい。
(Example 3)
In the first and second embodiments, the region for setting the mask region is not limited to the peripheral portion of the image, and may be set to the central portion of the acquired first fundus image, for example.
At this time, the mask area may be set only in the center of the image, or may be set in both the peripheral and center of the image.

眼球の回旋を検出する為、図15の様に、第1の眼底画像から複数の特徴点を抽出する事がある。このとき、実施例1、2の通り、1505の斜線部が示すように、画像周辺部よりマスク領域(第1の領域)を設定する。更に、画像の中心部1506にもマスク領域を設定する。ここで、中心部は、例えば、すべての眼底画像を撮像する間の時間に眼球の移動する距離よりも大きい半径を持つ、第1の眼底画像の中心を中心とする円で規定される領域である、と定義することができる。本実施例にて、円の半径を眼球の移動量より大きい値に設定しているのは、各特徴点が中心を超えて動いた場合、回旋運動、眼球のシフトと眼球の倍率(眼軸方向の動き)を切り分ける事が困難になる為である。半径が眼球の移動量より小さくても、測定の際の条件(特徴点の数、大きさや抽出方法を変更する)で対応できる。実施例1,2と同様、固視の開始からの時間と人眼の移動距離との関係についてモデル化された関数を示すグラフから眼球嚢移動する距離を求めることができる。また、同様に外部固視、内部固視、患眼若しくは健常者、年齢、または1枚の眼底画像を撮像する時間等の撮像条件ごとに予め用意されている公知のグラフを使用することができ、測定の方法や対象ごとに任意に選択することができる。   In order to detect the rotation of the eyeball, a plurality of feature points may be extracted from the first fundus image as shown in FIG. At this time, as shown in the first and second embodiments, a mask region (first region) is set from the peripheral portion of the image as indicated by the shaded portion 1505. Further, a mask area is also set at the center 1506 of the image. Here, the central portion is an area defined by a circle centered on the center of the first fundus image, for example, having a radius larger than the distance that the eyeball moves during the time during which all fundus images are captured. It can be defined as being. In this embodiment, the radius of the circle is set to a value larger than the amount of movement of the eyeball. When each feature point moves beyond the center, rotation, eyeball shift, and eyeball magnification (eye axis) This is because it becomes difficult to separate the movement in the direction). Even if the radius is smaller than the moving amount of the eyeball, it can be dealt with by the conditions at the time of measurement (changing the number, size and extraction method of feature points). Similar to the first and second embodiments, the distance to move the eyeball sac can be obtained from the graph showing the function modeled on the relationship between the time from the start of fixation and the movement distance of the human eye. Similarly, a well-known graph prepared in advance for each imaging condition such as external fixation, internal fixation, affected eye or healthy subject, age, or time for imaging one fundus image can be used. The method can be arbitrarily selected for each measurement method and target.

このマスク領域から特徴点を抽出した場合、眼球の回旋によるテンプレート座標とマッチング座標との間の座標差が生じず、回旋が測定できないおそれがある。そのため、以上の様に、撮像時間に応じ、テンプレート抽出時のマスク領域1506を設定する事で、画像の中心部からテンプレートを抽出することを防ぐことができ、より確実に眼球の回旋運動を検出することが可能となる。   When feature points are extracted from this mask region, there is a possibility that the rotation cannot be measured because the coordinate difference between the template coordinates and the matching coordinates due to the rotation of the eyeball does not occur. Therefore, as described above, by setting the mask area 1506 at the time of template extraction according to the imaging time, it is possible to prevent the template from being extracted from the center of the image, and to detect the rotational movement of the eyeball more reliably. It becomes possible to do.

そして、上記マスクを決定した後、画像をA、B、C、Dの様に4分割し、各分割されたエリア内から特徴点1501〜1504を抽出する。その後、実施例1,2と同様に各特徴点1501〜1504の各々の移動距離を検出し、4点から眼球の旋回を算出する。以上の様に画像の以外から特徴点を抽出する事で、眼球の旋回を正確に算出する事が出来る。今回、実施例1のような円形の画像を用いたが、実施例2の様な長方形の眼底画像でも同様の事が出来る。   Then, after determining the mask, the image is divided into four like A, B, C, and D, and feature points 1501 to 1504 are extracted from the divided areas. Thereafter, the movement distances of the feature points 1501 to 1504 are detected in the same manner as in the first and second embodiments, and the turning of the eyeball is calculated from the four points. As described above, it is possible to accurately calculate the rotation of the eyeball by extracting feature points other than the image. Although a circular image as in the first embodiment is used this time, the same can be done with a rectangular fundus image as in the second embodiment.

(その他)
実施例1、2では血管のテンプレートを用いて抽出したが、黄斑や乳頭をテンプレートとして用いても同様の効果が得られる。眼底画像は、眼底カメラ、走査レーザ検眼鏡(SLO)を用い画像を取得していたが、実施例に記載したもの以外の装置を用い眼底画像を取得しても良い。更に、視野検査を行う視野検査装置などでも同様の効果が得られる。
実施形態で示したフローの順序はこれに限定されるものではなく、順序が異なっていたり、又は、その他のフローによっても、テンプレート抽出時にマスク領域を設定する事で同様の効果が得られる。
(Other)
In Examples 1 and 2, extraction was performed using a blood vessel template, but the same effect can be obtained by using a macula or nipple as a template. The fundus image is acquired using a fundus camera and a scanning laser ophthalmoscope (SLO). However, the fundus image may be acquired using an apparatus other than those described in the embodiments. Further, the same effect can be obtained with a visual field inspection apparatus for performing visual field inspection.
The order of the flows shown in the embodiment is not limited to this, and the same effect can be obtained by setting the mask area at the time of template extraction even if the order is different or other flows.

実施例1では、外部固視を設けていた為、マスク領域を1mmとしたが、マスク領域として設定する幅は眼底画像の撮像条件等の各種状況に応じて適宜設定できる。例えば、固視が更に安定する内部固視灯が装置されている装置ではマスク領域を小さくすることができるし、一方で高年齢者や患眼等、固視が安定しない場合などはマスク領域を広くした方が良い。同被験者について複数回測定を行う場合、前回の測定データを用いる事でより正確なマスク領域を設定できる。   In the first embodiment, since the external fixation is provided, the mask area is set to 1 mm. However, the width set as the mask area can be appropriately set according to various conditions such as the fundus image capturing condition. For example, in an apparatus equipped with an internal fixation lamp that further stabilizes the fixation, the mask area can be reduced. On the other hand, when the fixation is unstable, such as in an elderly person or an affected eye, the mask area is reduced. It is better to make it wider. When measuring the subject multiple times, a more accurate mask area can be set by using the previous measurement data.

上記実施例では、眼科機器に対してリアルタイムで眼球運動の補正を行ったが、得られた画像に対して測定終了後に補正又は後処理を行っても同様の効果が得られる。   In the above embodiment, the eye movement is corrected in real time for the ophthalmologic apparatus, but the same effect can be obtained even if correction or post-processing is performed on the obtained image after completion of the measurement.

1:眼底カメラ
50:デジタル一眼レフカメラ
202:マスク領域
403:マスク領域設定
1301:マスク領域
1: Fundus camera
50: Digital SLR camera
202: Mask area
403: Mask area setting
1301: Mask area

Claims (24)

被検眼の複数の眼底画像を異なる時間に取得する画像取得手段と、
前記取得された複数の眼底画像のうち少なくとも1つの眼底画像の周辺部から所定の幅を有する部分領域を決定する決定手段と、
前記少なくとも1つの眼底画像のうち、前記決定された部分領域とは異なる他の領域から少なくとも1つの特徴領域の抽出を行う処理手段と、
前記少なくとも1つの特徴領域を用いて、前記被検眼の動きを測定する手段と
を有することを特徴とする眼科装置。
Image acquisition means for acquiring a plurality of fundus images of the eye to be examined at different times;
Determining means for determining a partial region having a predetermined width from a peripheral portion of at least one fundus image among the plurality of acquired fundus images;
Processing means for extracting at least one feature region from another region different from the determined partial region of the at least one fundus image;
An ophthalmologic apparatus comprising: means for measuring movement of the eye to be examined using the at least one feature region.
前記処理手段は、
前記決定された部分領域とは異なる他の領域から特徴領域を抽出する抽出手段と、
前記取得された複数の眼底画像のうち前記特徴領域が抽出された眼底画像以外の少なくとも1つの眼底画像から、前記抽出された特徴領域に対応する領域を探索する探索手段と、
を有することを特徴とする請求項1に記載の眼科装置。
The processing means includes
Extraction means for extracting a feature region from another region different from the determined partial region;
Search means for searching an area corresponding to the extracted feature area from at least one fundus image other than the fundus image from which the feature area is extracted from the plurality of acquired fundus images;
The ophthalmic apparatus according to claim 1, comprising:
前記処理手段は、前記複数の眼底画像のうち少なくとも1つから特徴領域を抽出する抽出手段を有し、前記処理手段はさらに、前記複数の眼底画像のうち、その他の少なくとも1つの眼底画像から前記抽出された特徴領域と類似する画像を探索する探索手段を有することを特徴とする請求項1又は2に記載の眼科装置。   The processing means includes extraction means for extracting a feature region from at least one of the plurality of fundus images, and the processing means further includes at least one other fundus image from the plurality of fundus images. The ophthalmologic apparatus according to claim 1, further comprising a search unit that searches for an image similar to the extracted feature region. 前記画像取得手段は、走査手段を介して前記被検眼に照射された測定光による戻り光に基づいて前記複数の眼底画像を取得し、
前記画像取得手段は前記複数の眼底画像における位置ずれに基づいて前記走査手段を制御する制御手段を有することを特徴とする請求項1〜3のいずれか1項に記載の眼科装置。
The image acquisition means acquires the plurality of fundus images based on return light by measurement light irradiated to the eye to be examined through a scanning means,
The ophthalmologic apparatus according to claim 1, wherein the image acquisition unit includes a control unit that controls the scanning unit based on a positional shift in the plurality of fundus images.
前記処理、前記測定、前記制御、及び前記取得はこの順番で行われることを特徴とする請求項4に記載の眼科装置。   The ophthalmologic apparatus according to claim 4, wherein the processing, the measurement, the control, and the acquisition are performed in this order. 前記決定手段は、前記取得された複数の眼底画像のうち少なくとも1つの眼底画像の4辺から所定の幅を有する部分領域を決定することを特徴とする請求項1〜5のいずれか1項に記載の眼科装置。   The said determination means determines the partial area | region which has a predetermined | prescribed width | variety from four sides of the at least 1 fundus image among the acquired several fundus images. The ophthalmic device described. 前記決定手段は前記部分領域とは異なる他の領域に複数の領域を決定し、
前記処理手段は前記複数の領域のそれぞれから複数の特徴領域を抽出することを特徴とすることを特徴とする請求項1〜6のいずれか1項に記載の眼科装置。
The determining means determines a plurality of regions in another region different from the partial region;
The ophthalmologic apparatus according to claim 1, wherein the processing unit extracts a plurality of feature regions from each of the plurality of regions.
被検眼の複数の眼底画像を異なる時間に取得する画像取得手段と、
前記取得された複数の眼底画像のうち少なくとも1つの眼底画像の周辺部から所定の幅を有する部分領域とは異なる他の領域から、少なくとも1つの特徴領域の抽出を行う処理手段と、
前記少なくとも1つの特徴領域を用いて、前記被検眼の動きを測定する手段と、
を有することを特徴とする眼科装置。
Image acquisition means for acquiring a plurality of fundus images of the eye to be examined at different times;
Processing means for extracting at least one feature region from another region different from a partial region having a predetermined width from a peripheral portion of at least one fundus image among the plurality of acquired fundus images;
Means for measuring movement of the eye to be examined using the at least one feature region;
An ophthalmologic apparatus comprising:
前記処理手段は、前記取得された複数の眼底画像のうち少なくとも1つの眼底画像の4辺から所定の幅を有する部分領域とは異なる他の領域から、少なくとも1つの特徴領域の抽出を行うことを特徴とする請求項8に記載の眼科装置。   The processing means extracts at least one feature region from another region different from a partial region having a predetermined width from four sides of at least one fundus image among the plurality of acquired fundus images. The ophthalmic apparatus according to claim 8, wherein the ophthalmic apparatus is characterized. 前記少なくとも1つの特徴領域は血管の分岐及び交差のうち少なくとも1つの画像を含むことを特徴とする請求項1〜9のいずれか1項に記載の眼科装置。   The ophthalmologic apparatus according to claim 1, wherein the at least one feature region includes at least one image of a branch and intersection of blood vessels. 被検眼の複数の眼底画像を異なる時間に取得する画像取得手段と、
前記取得された複数の眼底画像のうち、少なくとも1つの眼底画像の周辺部から所定の幅を有する部分領域を決定する決定手段と、
前記複数の眼底画像のうち少なくとも2つの眼底画像における前記部分領域とは異なる他の領域から特徴領域を抽出し、前記抽出された特徴領域の間の座標の差を計算する、処理手段と、
前記処理の結果に基づいて前記被検眼の動きを測定する手段と、
を有することを特徴とする眼科装置。
Image acquisition means for acquiring a plurality of fundus images of the eye to be examined at different times;
Determining means for determining a partial region having a predetermined width from a peripheral portion of at least one fundus image among the plurality of acquired fundus images;
Processing means for extracting a feature region from another region different from the partial region in at least two fundus images among the plurality of fundus images, and calculating a difference in coordinates between the extracted feature regions;
Means for measuring the movement of the eye to be examined based on the result of the processing;
An ophthalmologic apparatus comprising:
前記決定手段は、前記複数の眼底画像のうち、少なくとも1つの眼底画像の4辺から所定の幅を有する部分領域を決定することを特徴とする請求項11に記載の眼科装置。   The ophthalmologic apparatus according to claim 11, wherein the determining unit determines a partial region having a predetermined width from four sides of at least one fundus image among the plurality of fundus images. 前記画像取得手段は、眼底カメラ、走査レーザ検眼鏡、光干渉断層撮像装置、又は視野検査装置のいずれかを含むことを特徴とする請求項1〜12のいずれか1項に記載の眼科装置。   The ophthalmologic apparatus according to claim 1, wherein the image acquisition unit includes any one of a fundus camera, a scanning laser ophthalmoscope, an optical coherence tomography apparatus, or a visual field inspection apparatus. 前記複数の眼底画像は複数のSLO画像を含み、
前記眼科装置は前記SLO画像のそれぞれに対応する複数のOCT画像を取得する手段を有することを特徴とする請求項1〜13のいずれか1項に記載の眼科装置。
The plurality of fundus images includes a plurality of SLO images;
The ophthalmologic apparatus according to claim 1, wherein the ophthalmologic apparatus includes a unit that acquires a plurality of OCT images corresponding to each of the SLO images.
前記測定された被検眼の動きを示す表示形態を表示手段に表示させる表示制御手段を有することを特徴とする請求項1〜14のいずれか1項に記載の眼科装置。 The ophthalmologic apparatus according to claim 1, further comprising a display control unit that causes a display unit to display a display form indicating the measured movement of the eye to be examined . 前記部分領域を示す表示形態を表示手段に表示させる表示制御手段を有することを特徴とする請求項1〜14のいずれか1項に記載の眼科装置。 The ophthalmologic apparatus according to claim 1, further comprising a display control unit that causes a display unit to display a display form indicating the partial area . コンピュータを、請求項1〜16のいずれか1項に記載の眼科装置として機能させるためのコンピュータプログラム。   The computer program for functioning a computer as an ophthalmologic apparatus of any one of Claims 1-16. 異なる時間に取得された被検眼の複数の眼底画像のうち少なくとも1つの眼底画像の周辺部から所定の幅を有する部分領域を決定する決定手段と、Determining means for determining a partial region having a predetermined width from a peripheral portion of at least one fundus image among a plurality of fundus images of the eye to be examined acquired at different times;
前記少なくとも1つの眼底画像のうち、前記決定された部分領域とは異なる他の領域から少なくとも1つの特徴領域の抽出を行う処理手段と、Processing means for extracting at least one feature region from another region different from the determined partial region of the at least one fundus image;
前記少なくとも1つの特徴領域を用いて、前記被検眼の動きを測定する手段とMeans for measuring movement of the eye to be examined using the at least one feature region;
を有することを特徴とする被検眼の動きを測定する装置。A device for measuring the movement of the eye to be examined.
異なる時間に取得された被検眼の複数の眼底画像のうち少なくとも1つの眼底画像の周辺部から所定の幅を有する部分領域とは異なる他の領域から、少なくとも1つの特徴領域の抽出を行う処理手段と、Processing means for extracting at least one feature region from another region different from a partial region having a predetermined width from the peripheral portion of at least one fundus image among a plurality of fundus images of the eye to be examined acquired at different times When,
前記少なくとも1つの特徴領域を用いて、前記被検眼の動きを測定する手段と、Means for measuring movement of the eye to be examined using the at least one feature region;
を有することを特徴とする被検眼の動きを測定する装置。A device for measuring the movement of the eye to be examined.
異なる時間に取得された被検眼の複数の眼底画像のうち、少なくとも1つの眼底画像の周辺部から所定の幅を有する部分領域を決定する決定手段と、Determining means for determining a partial region having a predetermined width from a peripheral portion of at least one fundus image among a plurality of fundus images of the eye to be examined acquired at different times;
前記複数の眼底画像のうち少なくとも2つの眼底画像における前記部分領域とは異なる他の領域から特徴領域を抽出し、前記抽出された特徴領域の間の座標の差を計算する、処理手段と、Processing means for extracting a feature region from another region different from the partial region in at least two fundus images among the plurality of fundus images, and calculating a difference in coordinates between the extracted feature regions;
前記処理の結果に基づいて前記被検眼の動きを測定する手段と、Means for measuring the movement of the eye to be examined based on the result of the processing;
を有することを特徴とする被検眼の動きを測定する装置。A device for measuring the movement of the eye to be examined.
異なる時間に取得された被検眼の複数の眼底画像のうち少なくとも1つの眼底画像の周辺部から所定の幅を有する部分領域を決定する工程と、
前記少なくとも1つの眼底画像のうち、前記決定された部分領域とは異なる他の領域から少なくとも1つの特徴領域の抽出を行う工程と、
前記少なくとも1つの特徴領域を用いて、前記被検眼の動きを測定する工程と、
を含むことを特徴とする被検眼の動きを測定する方法。
Determining a partial region having a predetermined width from the periphery of at least one fundus image among a plurality of fundus images of the eye to be examined acquired at different times ;
Extracting at least one feature region from another region different from the determined partial region of the at least one fundus image;
Measuring the movement of the eye to be examined using the at least one feature region;
A method for measuring movement of an eye to be examined, comprising:
異なる時間に取得された被検眼の複数の眼底画像のうち少なくとも1つの眼底画像の周辺部から所定の幅を有する部分領域とは異なる他の領域から、少なくとも1つの特徴領域の抽出を行う工程と、
前記少なくとも1つの特徴領域を用いて、前記被検眼の動きを測定する工程と、
を含むことを特徴とする被検眼の動きを測定する方法。
Extracting at least one feature region from another region different from a partial region having a predetermined width from a peripheral portion of at least one fundus image among a plurality of fundus images of the eye to be examined acquired at different times; and ,
Measuring the movement of the eye to be examined using the at least one feature region;
A method for measuring movement of an eye to be examined, comprising:
異なる時間に取得された被検眼の複数の眼底画像のうち少なくとも1つの眼底画像の周辺部から所定の幅を有する部分領域を決定する工程と、
前記複数の眼底画像のうち少なくとも2つの眼底画像における前記部分領域とは異なる他の領域から特徴領域を抽出する工程、及び前記抽出された特徴領域の間の座標の差を計算する工程、を含む処理をする工程と、
前記処理の結果に基づいて前記被検眼の動きを測定する工程と、
を含むことを特徴とする被検眼の動きを測定する方法。
Determining a partial region having a predetermined width from the periphery of at least one fundus image among a plurality of fundus images of the eye to be examined acquired at different times ;
Extracting a feature region from another region different from the partial region in at least two fundus images among the plurality of fundus images, and calculating a coordinate difference between the extracted feature regions. A process of processing;
Measuring the movement of the eye to be examined based on the result of the processing;
A method for measuring movement of an eye to be examined, comprising:
請求項21〜2のいずれか1項に記載の方法の各工程をコンピュータに実行させることを特徴とするプログラム。 A program characterized by executing the steps of the method according to the computer in any one of claims 21 ~ 2.
JP2014234236A 2014-11-19 2014-11-19 Ophthalmic apparatus and method for measuring movement of eye to be examined Expired - Fee Related JP5931163B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014234236A JP5931163B2 (en) 2014-11-19 2014-11-19 Ophthalmic apparatus and method for measuring movement of eye to be examined

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014234236A JP5931163B2 (en) 2014-11-19 2014-11-19 Ophthalmic apparatus and method for measuring movement of eye to be examined

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010056557A Division JP5653055B2 (en) 2010-03-12 2010-03-12 Ophthalmic apparatus and control method thereof

Publications (2)

Publication Number Publication Date
JP2015033650A JP2015033650A (en) 2015-02-19
JP5931163B2 true JP5931163B2 (en) 2016-06-08

Family

ID=52542594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014234236A Expired - Fee Related JP5931163B2 (en) 2014-11-19 2014-11-19 Ophthalmic apparatus and method for measuring movement of eye to be examined

Country Status (1)

Country Link
JP (1) JP5931163B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019170464A (en) * 2018-03-27 2019-10-10 株式会社トプコン Ophthalmologic apparatus
WO2022163188A1 (en) * 2021-01-29 2022-08-04 ソニーグループ株式会社 Image processing device, image processing method, and surgical microscope system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4636841B2 (en) * 2004-09-29 2011-02-23 キヤノン株式会社 Ophthalmic image photographing apparatus and photographing method
JP2010012109A (en) * 2008-07-04 2010-01-21 Nidek Co Ltd Ocular fundus photographic apparatus

Also Published As

Publication number Publication date
JP2015033650A (en) 2015-02-19

Similar Documents

Publication Publication Date Title
US9468374B2 (en) Ophthalmologic apparatus and control method for the same
JP5818409B2 (en) Fundus imaging apparatus and control method thereof
JP5901124B2 (en) Imaging apparatus and control method thereof
JP6966737B2 (en) Small removable microscope-mounted keratometer for cataract surgery
KR20120068704A (en) Ophthalmologic apparatus and control method therefor
JP2014113385A (en) Ophthalmologic apparatus
JP6899632B2 (en) Ophthalmologic imaging equipment
JP6411728B2 (en) Ophthalmic observation device
JP2019155003A (en) Ophthalmologic apparatus and method of controlling the same
JP6633468B2 (en) Blood flow measurement device
JP5858603B2 (en) Ophthalmic apparatus and control method thereof
JP5653055B2 (en) Ophthalmic apparatus and control method thereof
JP5931163B2 (en) Ophthalmic apparatus and method for measuring movement of eye to be examined
JP7384987B2 (en) ophthalmology equipment
JP7117873B2 (en) ophthalmic equipment
JP2017158867A (en) Ophthalmological imaging apparatus
JP2019155002A (en) Ophthalmologic apparatus and method of controlling the same
WO2011111851A1 (en) Ophthalmologic apparatus and control method for the same
JP6099782B2 (en) Ophthalmic imaging equipment
JP2018023818A (en) Ophthalmological observation device
JP2018023816A (en) Ophthalmological observation device
JP2018051340A (en) Ophthalmologic apparatus
JP6404431B2 (en) Ophthalmic observation device
JP6310589B2 (en) Ophthalmic equipment
JP6254729B2 (en) Ophthalmic imaging equipment

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160426

R151 Written notification of patent or utility model registration

Ref document number: 5931163

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees