JP2017127578A - Imaging method, imaging apparatus, and program for executing the imaging method - Google Patents

Imaging method, imaging apparatus, and program for executing the imaging method Download PDF

Info

Publication number
JP2017127578A
JP2017127578A JP2016010644A JP2016010644A JP2017127578A JP 2017127578 A JP2017127578 A JP 2017127578A JP 2016010644 A JP2016010644 A JP 2016010644A JP 2016010644 A JP2016010644 A JP 2016010644A JP 2017127578 A JP2017127578 A JP 2017127578A
Authority
JP
Japan
Prior art keywords
image
imaging
slo
fundus
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016010644A
Other languages
Japanese (ja)
Inventor
海史 大橋
Kaishi Ohashi
海史 大橋
佐藤 章
Akira Sato
章 佐藤
廣瀬 太
Futoshi Hirose
太 廣瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016010644A priority Critical patent/JP2017127578A/en
Publication of JP2017127578A publication Critical patent/JP2017127578A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To acquire an image of an imaging position intended by an imaging person, eliminating involuntary movements of the eye.SOLUTION: Provided is a control method for an examination apparatus, comprising the steps of: acquiring an image of a given imaging range of an object to be examined as a reference image for measuring the movement of the object to be examined; detecting a positional deviation between the reference image and plural detected images acquired in a period of time different from that for the step of acquiring the reference image; calculating a center position of the positional deviation by applying statistical processing to the positional deviation detected in the step of detecting the positional deviation; and correcting the image acquisition position for the object to be examined, based on the center position and detected images acquired after the center position calculation step.SELECTED DRAWING: Figure 4

Description

本発明は、眼底に例示される被検査物を撮像する撮像方法、撮像装置および該撮像方法を実行するプログラムに関する。   The present invention relates to an imaging method, an imaging apparatus, and a program for executing the imaging method for imaging an object to be inspected exemplified by the fundus.

近年、眼科用の撮像装置として、SLO(Scanning Laser Ophthalmoscope:走査型レーザ検眼鏡)や、OCT(Optical Coherence Tomography:光干渉断層装置)が用いられる。SLOは、例えば眼底へ照射されるレーザ光を2次元的に走査し、その反射光を受光して画像化して眼底の画像を得ている。また、OCTは、低コヒーレンス光の干渉を利用して例えば眼底における網膜の断層画像を生成するイメージング装置である。これら装置は、特に眼底の画像あるいは眼底の近傍の断層像を得る目的で用いられている。   In recent years, SLO (Scanning Laser Ophthalmoscope) and OCT (Optical Coherence Tomography) are used as an ophthalmic imaging apparatus. In SLO, for example, laser light irradiated to the fundus is scanned two-dimensionally, the reflected light is received and imaged to obtain an image of the fundus. The OCT is an imaging apparatus that generates a tomographic image of the retina, for example, in the fundus using the interference of low-coherence light. These apparatuses are used particularly for the purpose of obtaining a fundus image or a tomographic image near the fundus.

このような眼科用の撮像装置は、近年、照射レーザの高NA化等によって、高解像度化が進められている。   In recent years, such an ophthalmic imaging apparatus has been improved in resolution by increasing the NA of an irradiation laser.

しかしながら、眼底を撮像する場合には、角膜や水晶体等の眼の光学組織を通して撮像をしなければならない。そのため、高解像度化が進むに連れて、これら角膜や水晶体の収差による撮像画像の画質への影響が顕著になってきた。   However, when imaging the fundus, the image must be captured through the optical tissue of the eye such as the cornea or the crystalline lens. For this reason, as the resolution increases, the influence on the image quality of the picked-up image due to the aberration of the cornea and the crystalline lens has become remarkable.

そこで、眼の収差を測定し、その収差を補正する補償光学(Adaptive Optics:AO)機能を光学系に組み込んだ、AO−SLOやAO−OCTの研究が進められている。収差の測定では、一般的にはシャックハルトマン方式の波面センサーによって、眼の収差が表現される波面分布を測定する。シャックハルトマン方式とは、眼に照明光を入射させ、マイクロレンズアレイを通してその反射光を分光かつ集光してCCDカメラで受光し、複数の集光位置から反射光の波面分布を測定するものである。測定した波面分布に対しては、これを補正する可変形状ミラーや空間位相変調器といった波面補正装置を光路上に配して、その補正を行っている。このような補償光学系を通して眼底の撮像を行うことにより、AO−SLOやAO−OCTでは、眼の収差の影響を低減した高分解能な撮像が可能となる。   Therefore, research on AO-SLO and AO-OCT in which an adaptive optics (AO) function for measuring aberrations of an eye and correcting the aberrations is incorporated in an optical system has been underway. In the measurement of aberration, generally, a wavefront distribution expressing the aberration of the eye is measured by a Shack-Hartmann wavefront sensor. In the Shack-Hartmann method, illumination light is incident on the eye, the reflected light is dispersed and condensed through a microlens array, received by a CCD camera, and the wavefront distribution of the reflected light is measured from a plurality of condensing positions. is there. For the measured wavefront distribution, a wavefront correction device such as a deformable mirror or a spatial phase modulator for correcting the wavefront distribution is arranged on the optical path to correct it. By performing imaging of the fundus through such an adaptive optical system, AO-SLO and AO-OCT enable high-resolution imaging with reduced effects of eye aberrations.

また、これらの眼科用の撮像装置では、眼の動きによって、眼底の撮像位置が意図した位置にならないという課題も存在する。眼底撮像時において、被検者の視線が固定されるように、固視標と呼ばれる指標を提示し、この指標を被検者に注視させることで眼の動きを小さくする事が一般的に行われている。しかし、このような状態であっても、固視微動と言われる眼の動きが常に生じている。この固視微動は、視覚を維持するために眼球が不随意的に常に繰り返している微小な運動のことである。また、固視標を注視し続ける事は集中力の維持や疲労等の問題で難しい。更に、眼に疾患をもっている被検者では、視力低下や視野狭窄などがあって、眼の動きが大きくなってしまう。   Further, in these ophthalmologic imaging apparatuses, there is a problem that the imaging position of the fundus is not an intended position due to the movement of the eyes. It is common practice to reduce the movement of the eye by presenting an index called a fixation target so that the subject's line of sight is fixed during fundus imaging, and letting the subject gaze at this index. It has been broken. However, even in such a state, eye movement called fixation fixation micromotion always occurs. This involuntary eye movement is a minute movement of the eyeball that is involuntarily repeated in order to maintain vision. Also, it is difficult to keep a close eye on the fixation target because of problems such as maintenance of concentration and fatigue. Furthermore, in a subject having a disease in the eye, there is a decrease in visual acuity, narrowing of the visual field, and the movement of the eye becomes large.

このような眼の動きへの対応として、眼の動きを測定し、この動きに追尾(トラッキングとも言う)するように眼底へのレーザ光の照射位置をリアルタイムに変更する眼底追尾技術がある。   As a response to such eye movement, there is a fundus tracking technique that measures the movement of the eye and changes the irradiation position of the laser light to the fundus in real time so as to track the movement (also referred to as tracking).

特許文献1には、この追尾技術の一例が開示されている。この追尾技術では、基準となる画像としてリファレンスイメージ(以降、基準画像と称する。)をまず設定する。その後、撮像により時々刻々得られるターゲットイメージ(以降、被検出画像を称する。)と、基準画像との相対的な位置ずれを演算する。照明光であるレーザ光は、スキャナーによって被検眼上での走査位置が変更され、このレーザ光の走査によって平面的な画像を得ている。この演算された相対的な位置ずれを入力して、眼底にて該レーザ光の走査するスキャナーの動作位置を補正することで、眼の動きへの追尾が可能となっている。   Patent Document 1 discloses an example of this tracking technique. In this tracking technique, a reference image (hereinafter referred to as a reference image) is first set as a reference image. Thereafter, a relative positional deviation between a target image (hereinafter referred to as a detected image) obtained every moment by imaging and a reference image is calculated. The scanning position of the laser light as illumination light on the eye to be examined is changed by a scanner, and a planar image is obtained by scanning with the laser light. By inputting the calculated relative positional deviation and correcting the operation position of the scanner that scans the laser beam on the fundus, it is possible to track the movement of the eye.

US2015/0077710A1US2015 / 0077710A1

撮像者は、固視標の位置に対応した眼底位置を撮像する意思を持って、装置を使用する。しかしながら、前述した眼の動きの中には、サッケードと呼ばれ不随意的に生じる大きな動きがある。例えば前述した追尾技術を用いた場合に、このサッケードが生じた時に取得した画像を基準画像とした場合を考える。この場合、一時的に意図する位置を大きく外れた位置を中心とする画像が基準画像とされ、この中心位置を追尾の目標位置として追尾機能が働くこととなる。その結果、適切な相対的な位置ずれを得ることができなくなり、撮像者が意図した位置と大きく異なる位置を撮像することになってしまう。   The imager uses the apparatus with the intention to image the fundus position corresponding to the position of the fixation target. However, among the eye movements described above, there is a large movement that is called a saccade and occurs involuntarily. For example, in the case where the tracking technique described above is used, consider a case where an image acquired when this saccade occurs is used as a reference image. In this case, an image centered on a position that is temporarily deviated from the temporarily intended position is set as a reference image, and the tracking function is activated with the center position as a target position for tracking. As a result, an appropriate relative positional shift cannot be obtained, and a position that is significantly different from the position intended by the photographer is captured.

本発明はこのような状況に鑑みて為されたものであって、眼の不随意運動によらず、撮像者が意図した撮像位置の画像を得ることができる撮像方法、撮像装置および該撮像方法を実行するプログラムを提供する。   The present invention has been made in view of such a situation, and an imaging method, an imaging apparatus, and the imaging method capable of obtaining an image at an imaging position intended by an imager without depending on involuntary eye movements. Provide a program to execute

上記課題を解決するために、本発明の一態様に係る撮影方法は、
被検査物の所定の撮像範囲の画像を、被検査物の動きを測定する際の基準画像として取得する工程と、
前記基準画像として取得する工程とは異なる時間において取得される複数の被検出画像と、前記基準画像との位置ずれを検出する工程と、
前記位置ずれを検出する工程によって検出された位置ずれに統計処理を施して前記位置ずれの中心位置を演算する工程と、
前記中心位置と、前記中心位置を演算する工程の後に得られる前記被検出画像とに基づいて前記被検査物の画像の取得位置を補正する工程と、を含むことを特徴とする。
In order to solve the above problems, a photographing method according to one embodiment of the present invention includes:
Obtaining an image of a predetermined imaging range of the inspection object as a reference image when measuring the movement of the inspection object;
Detecting a positional deviation between a plurality of detected images acquired at a time different from the step of acquiring the reference image and the reference image;
Calculating the center position of the positional deviation by performing statistical processing on the positional deviation detected by the step of detecting the positional deviation;
Correcting the acquisition position of the image of the inspection object based on the center position and the detected image obtained after the step of calculating the center position.

本発明によれば、眼の不随意運動によらず、撮像者が意図した撮像位置の画像を得ることができる。   According to the present invention, it is possible to obtain an image at an imaging position intended by an imager, regardless of involuntary eye movement.

本発明の実施例1に係る眼底撮像装置の構成を示す模式図である。1 is a schematic diagram illustrating a configuration of a fundus imaging apparatus according to Embodiment 1 of the present invention. WF−SLO画像における基準画像と被検出画像との関係を説明する図である。It is a figure explaining the relationship between the reference | standard image in a WF-SLO image, and a to-be-detected image. 従来の追尾機能を動作させた場合の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence at the time of operating the conventional tracking function. 眼の動き、AO−SLOの撮像可能な範囲、およびAO−SLOの撮像画角の関係を模式的に表した図である。It is the figure which represented typically the relationship of the eye movement, the range which can image AO-SLO, and the imaging field angle of AO-SLO. 本発明の実施例1に係る追尾機能を動作させた場合の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence at the time of operating the tracking function which concerns on Example 1 of this invention. 本発明の実施例2に係る追尾機能を動作させた場合の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence at the time of operating the tracking function which concerns on Example 2 of this invention. 本発明の実施例3におけるAO−SLOの画像の画角を模式的に表した図である。It is the figure which represented typically the angle of view of the image of AO-SLO in Example 3 of this invention. 本発明の実施例3に係る追尾機能を動作させた場合の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence at the time of operating the tracking function which concerns on Example 3 of this invention. 本発明の実施例4に係る追尾機能を動作させた場合の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence at the time of operating the tracking function which concerns on Example 4 of this invention. 本発明の一実施例に係る眼底撮像装置における操作画面の表示例を示す図である。It is a figure which shows the example of a display of the operation screen in the fundus imaging apparatus which concerns on one Example of this invention. 本発明の一実施例に係る眼底撮像装置における処理全体のフローチャートである。It is a flowchart of the whole process in the fundus imaging apparatus which concerns on one Example of this invention.

以下、本発明の実施例について、図面を参照して説明する。なお、以下で述べる実施例は特許請求の範囲に関わる本発明を限定するものではなく、また、本実施例で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。   Embodiments of the present invention will be described below with reference to the drawings. The embodiments described below do not limit the present invention related to the scope of claims, and all combinations of features described in the present embodiments are essential for the solution means of the present invention. Not exclusively.

本発明は、被検眼の動きを測定して、撮像位置を補正する眼底撮像方法、および眼底撮像装置に関する。より詳細には、本発明では、眼の運動による継時的な照明光照射位置のずれを検知して、眼の運動の影響を補正するように照明光の照射方向を変更することで眼底での撮像位置を補正する追尾機能を、眼底撮像方法および装置に配している。   The present invention relates to a fundus imaging method that corrects an imaging position by measuring a movement of an eye to be examined, and a fundus imaging apparatus. More specifically, in the present invention, the illumination light irradiation position is detected by the movement of the eye, and the illumination light irradiation direction is changed so as to correct the influence of the eye movement. A tracking function for correcting the imaging position is provided in the fundus imaging method and apparatus.

[実施例1]
以下、本発明の実施例1に係る眼底撮像方法が搭載された走査型レーザ検眼鏡(SLO)について、その構成を示す模式図である図1を用いて説明する。
[Example 1]
Hereinafter, a scanning laser ophthalmoscope (SLO) equipped with a fundus imaging method according to Embodiment 1 of the present invention will be described with reference to FIG. 1 which is a schematic diagram showing the configuration thereof.

図1において、撮像構成は二つある。一方は、補償光学系を用いた高精細画像を得るための走査型レーザ検眼鏡のAO−SLO(Adaptive Optics −SLO)である。他方は、補償光学系を用いない走査型レーザ検眼鏡のWF−SLO(Wide Field −SLO)である。WF−SLOは、AO−SLOに対して画質的には劣るが、撮像画角が広いという特徴を有している。   In FIG. 1, there are two imaging configurations. One is an AO-SLO (Adaptive Optics-SLO) of a scanning laser ophthalmoscope for obtaining a high-definition image using an adaptive optical system. The other is a WF-SLO (Wide Field-SLO) of a scanning laser ophthalmoscope that does not use an adaptive optical system. Although WF-SLO is inferior in image quality to AO-SLO, it has a feature that the imaging angle of view is wide.

ここで、AO−SLOの主要構成について図1を用いて更に詳細に説明する。
本実施例では、光源101として、波長840nmのSLD光源(Super Luminescent Diode)を用いた。なお、光源101の波長は特に制限されるものではないが、眼底撮像用としては被検者の眩しさの軽減と分解能維持のために、800〜1500nm程度が好適に用いられる。また、本実施例においては、光源101にSLD光源を用いたが、その他の光源を用いる事も可能である。
Here, the main configuration of the AO-SLO will be described in more detail with reference to FIG.
In this embodiment, an SLD light source (Super Luminescent Diode) having a wavelength of 840 nm was used as the light source 101. Although the wavelength of the light source 101 is not particularly limited, about 800 to 1500 nm is preferably used for fundus imaging in order to reduce the glare of the subject and maintain the resolution. In this embodiment, an SLD light source is used as the light source 101, but other light sources may be used.

光源101から照射された光は、単一モード光ファイバー102を通って、コリメータレンズ103により、平行光線(照明光105)として照射される。   The light emitted from the light source 101 passes through the single mode optical fiber 102 and is irradiated as a parallel light (illumination light 105) by the collimator lens 103.

照射された照明光105はビームスプリッターからなる光分割部104を透過し、収差補正を行うための補償光学系に導光される。補償光学系は、光分割部106、波面測定装置115、波面補正装置108、およびそれらに導光するための反射ミラー107−1〜4から構成される。ここで、反射ミラー107−1〜4は、少なくとも被検眼111の瞳と波面測定装置115、および該瞳と波面補正装置108とが光学的に共役関係になるように配置されている。また、光分割部106として、本実施例ではビームスプリッターを用いている。   The irradiated illumination light 105 passes through the light splitting unit 104 formed of a beam splitter and is guided to the compensation optical system for performing aberration correction. The adaptive optics system includes a light splitting unit 106, a wavefront measuring device 115, a wavefront correcting device 108, and reflecting mirrors 107-1 to 107-4 for guiding them. Here, the reflection mirrors 107-1 to 107-4 are arranged so that at least the pupil of the eye 111 to be examined and the wavefront measuring device 115 and the pupil and the wavefront correcting device 108 are optically conjugate. Further, as the light splitting unit 106, a beam splitter is used in this embodiment.

光分割部106を透過した照明光105は、反射ミラー107−1、2で反射されて波面補正装置108に入射する。波面補正装置108で反射された照明光105は、反射ミラー107−3に向けて出射される。   The illumination light 105 transmitted through the light splitting unit 106 is reflected by the reflection mirrors 107-1 and 107-2 and enters the wavefront correction device 108. The illumination light 105 reflected by the wavefront correction device 108 is emitted toward the reflection mirror 107-3.

本実施例では、波面補正手段を有する波面補正装置108として液晶素子を用いた反射型液晶空間位相変調器を用いた。しかし、波面補正装置としては、ミラーの形状が可変となっている可変形状ミラー(デフォーマブルミラーとも言う。)を用いてもよく、波面が補正できるものであれば、いずれのものを用いてもよい。   In this embodiment, a reflective liquid crystal spatial phase modulator using a liquid crystal element is used as the wavefront correction device 108 having wavefront correction means. However, as the wavefront correction device, a deformable mirror (also referred to as a deformable mirror) having a variable mirror shape may be used, and any wavefront correction device can be used as long as the wavefront can be corrected. Good.

図1において、反射ミラー107−3、4で反射された照明光105は、走査光学系109によって、1次元もしくは2次元に被検眼111の眼底上で走査される。本実施例では走査光学系109に主走査用(眼底の水平方向)と副走査用(眼底の鉛直方向)として2つのスキャナー109−1、2(本実施例ではガルバノスキャナー)を用いた。なお、この走査光学系109として、より高速な撮像のために主走査用に共振スキャナーを用いることもある。また、走査光学系109内の各スキャナーを光学的な共役状態にするために、各スキャナーの間にミラーやレンズといった光学素子を配置する場合もある。これら走査光学系109のスキャナーは各々追尾制御部202に接続されており、通常の照明光の走査に加えて、眼の運動の影響を取得画像において補正するように照明光の走査位置の変更の指示を受け付ける。   In FIG. 1, the illumination light 105 reflected by the reflection mirrors 107-3 and 4 is scanned on the fundus of the eye 111 to be examined one-dimensionally or two-dimensionally by the scanning optical system 109. In this embodiment, two scanners 109-1 and 109-2 (galvano scanner in this embodiment) are used for the scanning optical system 109 for main scanning (horizontal direction of the fundus) and sub-scanning (vertical direction of the fundus). As the scanning optical system 109, a resonant scanner may be used for main scanning for higher-speed imaging. In addition, in order to make each scanner in the scanning optical system 109 optically conjugate, optical elements such as mirrors and lenses may be arranged between the scanners. Each of the scanners of the scanning optical system 109 is connected to the tracking control unit 202. In addition to the normal illumination light scanning, the scanning position of the illumination light is changed so that the influence of the eye movement is corrected in the acquired image. Accept instructions.

走査光学系109で走査された照明光105は、接眼レンズ110−1および110−2を通して被検眼111に照射される。被検眼111に照射された照明光105は、眼底で反射もしくは散乱される。接眼レンズ110−1、2の位置を調整することによって、被検眼111の視度にあわせて照明光105の最適な照射を行うことが可能となる。なお、本実施例では、接眼部として接眼レンズ110−1、2を用いたが、これらを球面ミラー等で構成してもよい。   The illumination light 105 scanned by the scanning optical system 109 is irradiated to the eye 111 through the eyepieces 110-1 and 110-2. The illumination light 105 irradiated to the eye 111 is reflected or scattered by the fundus. By adjusting the positions of the eyepieces 110-1 and 110-2, it is possible to optimally irradiate the illumination light 105 in accordance with the diopter of the eye 111 to be examined. In this embodiment, the eyepieces 110-1 and 110-2 are used as the eyepiece, but these may be constituted by a spherical mirror or the like.

被検眼111の眼底の網膜から反射もしくは散乱された反射光は、入射した時の経路を逆向きに進行し、一部は光分割部106によって波面測定装置115に反射され、光線の波面分布を測定するために用いられる。なお、本実施例では、波面測定手段を有する波面測定装置115としてシャックハルトマンセンサーを用いた。しかし、波面測定装置はそれに限定されるものではなく、曲率センサーのような他の波面測定手段や、結像させた点像から波面収差を逆計算で求めるような方法を適用した装置を用いてもよい。   Reflected light reflected or scattered from the retina of the fundus of the eye 111 to be examined travels in the opposite direction along the incident path, and part of the reflected light is reflected by the light splitting unit 106 to the wavefront measuring device 115, and the wavefront distribution of the light beam is determined. Used to measure. In this embodiment, a Shack-Hartmann sensor is used as the wavefront measuring device 115 having wavefront measuring means. However, the wavefront measuring apparatus is not limited to this, and other wavefront measuring means such as a curvature sensor or an apparatus to which a method for obtaining wavefront aberration by inverse calculation from an imaged point image is used. Also good.

図1において、光分割部106を透過した反射光は光分割部104によって反射され、コリメータ112、および光ファイバー113を通して光強度センサー114に導光される。反射光は光強度センサー114で電気信号に変換され、制御部117によって検出された光の強度が配列化されて、該強度に基づいて画像に構成される。構成された画像は、眼底画像としてディスプレイ118に表示される。   In FIG. 1, the reflected light transmitted through the light splitting unit 106 is reflected by the light splitting unit 104 and guided to the light intensity sensor 114 through the collimator 112 and the optical fiber 113. The reflected light is converted into an electric signal by the light intensity sensor 114, and the intensity of the light detected by the control unit 117 is arranged, and an image is formed based on the intensity. The constructed image is displayed on the display 118 as a fundus image.

波面測定装置115は補償光学制御部116に接続され、測定した光の波面分布を補償光学制御部116に伝える。波面補正装置108も補償光学制御部116に接続されており、これを経る光に対して補償光学制御部116から指示された空間的な位相変調を行う。より詳細には、補償光学制御部116は波面測定装置115で測定された波面分布を基に、収差のない波面分布へと補正するような補正量を計算し、波面補正装置108に補正条件を指令する。   The wavefront measuring device 115 is connected to the adaptive optics controller 116 and transmits the measured wavefront distribution of the light to the adaptive optics controller 116. The wavefront correction device 108 is also connected to the adaptive optics control unit 116, and performs spatial phase modulation instructed by the adaptive optics control unit 116 on the light passing through the adaptive optical control unit 116. More specifically, the adaptive optics control unit 116 calculates a correction amount for correcting to a wavefront distribution having no aberration based on the wavefront distribution measured by the wavefront measuring device 115, and sets a correction condition in the wavefront correcting device 108. Command.

なお、AO−SLOでは、光学系の一部に被検眼が含まれていることで、光学系が不確定な状態となっている。このため、一般的に1回の波面分布の測定および補正では、小さな収差の波面分布に到達することは困難である。従って、波面分布の測定と補正とを繰り返して実行し、撮像可能な収差まで収束するまでこの繰り返しを継続している。これによって、照明光が眼底に至るまでの光路の収差を小さくでき、眼底に集光するスポットの大きさを小さくでき、空間的な分解能が高い画像を得る事が可能となる。   In AO-SLO, the optical system is indeterminate because the eye to be examined is included in a part of the optical system. For this reason, it is generally difficult to reach a wavefront distribution with small aberrations by measuring and correcting the wavefront distribution once. Therefore, the measurement and correction of the wavefront distribution are repeatedly performed, and this repetition is continued until the aberration that can be imaged is converged. Thereby, the aberration of the optical path from the illumination light to the fundus can be reduced, the size of the spot condensed on the fundus can be reduced, and an image with high spatial resolution can be obtained.

次に、WF−SLOについて説明する。WF−SLOの構成は、基本的には、これまで説明してきたAO−SLOと同じである。WF−SLOは、AO−SLOに対して、波面測定装置や波面補正装置や補償光学制御部が無いことにおいて異なっている。また、WF−SLOで撮像する画像の画角は、AO−SLOの画角よりも広くなっている。また、WF−SLOで撮像する画像の解像度は、AO−SLOの解像度よりも劣っている。つまり、WF−SLOは低解像度で広画角な画像が得られ、AO−SLOは高解像度で狭画角な画像が得られる。また、上述した眼の不随意運動はAO−SLOの画角を超える場合があり、追尾のための情報を得るためには広画角なWF−SLOの画像を通常用いている。   Next, WF-SLO will be described. The configuration of WF-SLO is basically the same as AO-SLO described so far. WF-SLO differs from AO-SLO in that there is no wavefront measuring device, wavefront correcting device, or adaptive optics control unit. In addition, the angle of view of an image captured by WF-SLO is wider than that of AO-SLO. Further, the resolution of an image captured with WF-SLO is inferior to that of AO-SLO. That is, the WF-SLO can obtain a low-resolution and wide-angle image, and the AO-SLO can obtain a high-resolution and narrow-angle image. In addition, the involuntary eye movement described above may exceed the angle of view of AO-SLO, and in order to obtain information for tracking, a WF-SLO image having a wide angle of view is usually used.

図1に示す構成におけるWF−SLO201において使用している光源の波長は、900nmとなっている。AO−SLO中にダイクロイックミラー200があり、WF−SLO201からの照明光とAO−SLOの照明光105とが合波されて、被検眼111に照射される。被検眼111に照射された光は、眼のレンズである水晶体によって、眼底上に集光される。この集光された光が、眼底で反射され、装置に戻ってくる。被検眼111より戻ってきた光は、ダイクロイックミラー200により、光りの波長の帯域に応じて、WF−SLO201の光とAO−SLOの光とに分離され、各々の光学系に導光される。   The wavelength of the light source used in the WF-SLO 201 in the configuration shown in FIG. 1 is 900 nm. There is a dichroic mirror 200 in the AO-SLO, and the illumination light from the WF-SLO 201 and the illumination light 105 of the AO-SLO are combined and applied to the eye 111 to be examined. The light irradiated to the eye 111 is collected on the fundus by a crystalline lens that is an eye lens. This condensed light is reflected by the fundus and returns to the apparatus. The light returned from the eye 111 to be examined is separated into WF-SLO 201 light and AO-SLO light by the dichroic mirror 200 according to the wavelength band of light, and is guided to each optical system.

WF−SLO201により取得される画像(WF画像と呼ぶ)の一例を図2に示す。同図に示すように、眼底画像において、視神経乳頭300、血管301、および中心窩の存在する領域303が同時に画像化されている。   An example of an image (referred to as a WF image) acquired by the WF-SLO 201 is shown in FIG. As shown in the figure, in the fundus image, the optic disc 300, the blood vessel 301, and the region 303 where the fovea exists are simultaneously imaged.

また、眼の動きを小さくするために被検者に注視させる固視標が、被検者の眼に対して表示される。固視標は、例えば有機ELディスプレイ(不図示)を用いて表示される。固視標の形状は十字型が一般的であるが、丸形状でもよいしリング形状でもよい。この固視標の位置や大きさは、変更できることが好ましい。この固視標の表示位置を変えることで、被検者が注視する方向、すなわち眼の向きを変更する。これによって、WF−SLO201とAO−SLOの光が眼底上で集光する箇所を変更し、撮像する位置を変更できるようになっている。   In addition, a fixation target that causes the subject to gaze to reduce eye movement is displayed on the subject's eye. The fixation target is displayed using, for example, an organic EL display (not shown). The shape of the fixation target is generally a cross shape, but may be a round shape or a ring shape. It is preferable that the position and size of the fixation target can be changed. By changing the display position of the fixation target, the direction in which the subject gazes, that is, the direction of the eyes is changed. As a result, the location where the light of WF-SLO 201 and AO-SLO is collected on the fundus can be changed, and the imaging position can be changed.

ここで、図10を用いて、ディスプレイ118に表示される画像等の詳細な内容について説明する。また、表示内容に付随して、撮像者の撮像手順やこれに応じた走査型レーザ検眼鏡(SLO)等の眼底撮像装置の挙動についても説明する。   Here, with reference to FIG. 10, detailed contents such as an image displayed on the display 118 will be described. Further, accompanying the display contents, the imaging procedure of the photographer and the behavior of the fundus imaging apparatus such as a scanning laser ophthalmoscope (SLO) corresponding thereto will be described.

ディスプレイ118には、後述する各種画像等を含めたディスプレイ全体の画像700が表示される。実際の眼底画像等の撮影に際しては、不図示の前眼部カメラを用いて、被検眼111の前眼部の画像を撮像する。この画像が前眼部画像として前眼部表示画面701に表示される。   The display 118 displays an image 700 of the entire display including various images to be described later. When capturing an actual fundus image or the like, an image of the anterior segment of the eye 111 to be examined is captured using an anterior segment camera (not shown). This image is displayed on the anterior segment display screen 701 as an anterior segment image.

固視標位置画面702は、固視標の表示位置を表示する。また、該固視標位置画面702に表示される印702-1、2は、実際に被検眼に提示される固視標の位置を示す。撮像者が制御部117に接続されているマウス等を用いて、固視標位置画面702の任意の位置に表示される指標を移動させてクリック動作をすると、上述した有機ELディスプレイ上のその位置に対応した場所に固視標が移動する。この固視標を被検者が注視する事で、被検眼を所望の向きに向かせる事ができ、眼底の撮像位置を変更できる。   The fixation target position screen 702 displays the display position of the fixation target. In addition, marks 702-1 and 702-2 displayed on the fixation target position screen 702 indicate the positions of the fixation target actually presented to the eye to be examined. When the photographer moves the index displayed at an arbitrary position on the fixation target position screen 702 using a mouse or the like connected to the control unit 117 and performs a click operation, the position on the organic EL display described above The fixation target moves to the location corresponding to. When the subject gazes at the fixation target, the eye to be examined can be directed in a desired direction, and the fundus imaging position can be changed.

WF−SLOリアルタイム表示画面703では、WF−SLO201によって撮像された画像がリアルタイムに表示される。WF−SLOリアルタイム表示画面703の中の矢印は、ある瞬間の被検者の眼の動きによる、眼底の移動の方向および量を表している。また、同表示中の丸は乳頭を模擬しており、そこから伸びている二本の曲線はアーケード血管を模擬している。これらも眼の動きに対応して移動する。また、WF−SLOリアルタイム表示画面703に重畳表示される枠900(900−1、2)は、AO−SLOで撮像する領域であるAO−SLO撮像枠である。   On the WF-SLO real-time display screen 703, an image captured by the WF-SLO 201 is displayed in real time. An arrow in the WF-SLO real-time display screen 703 indicates the direction and amount of movement of the fundus due to the eye movement of the subject at a certain moment. The circle in the display simulates a nipple, and the two curves extending from it simulate an arcade blood vessel. These also move in response to eye movements. In addition, frames 900 (900-1 and 2) superimposed on the WF-SLO real-time display screen 703 are AO-SLO imaging frames that are areas to be imaged by AO-SLO.

本実施例では後述の追尾機能によって、被検眼の動きが検出され、常に眼底の同じ位置をAO−SLOで撮影できるようになっている。そのため、この追尾の操作に対応して、AO−SLO撮像枠900も900−1から900−2に移動している。撮像者は、トラッキングONボタン710やトラッキングOFFボタン711をクリックする事で、任意にトラッキングのONやOFFを切り替えられる。   In this embodiment, the movement of the eye to be examined is detected by a tracking function described later, and the same position of the fundus can always be captured with AO-SLO. Therefore, the AO-SLO imaging frame 900 has also moved from 900-1 to 900-2 in response to this tracking operation. The imager can arbitrarily switch tracking ON / OFF by clicking the tracking ON button 710 or tracking OFF button 711.

起動ボタン708は、WF−SLO201の撮像において照明光を眼底に合焦させるオートフォーカス機能を起動するボタンである。撮像者は、WF−SLO201の撮像が開始されたら、この起動ボタン708をクリックし、眼底にオートフォーカスして良好なWF−SLO画像を得ることが可能となっている。本実施例における実際のオートフォーカスの操作では、画像のコントラストがピークとなるように、不図示のフォーカスレンズの位置を変更する。   The activation button 708 is a button for activating an autofocus function that focuses illumination light on the fundus in the imaging of the WF-SLO 201. When the imaging of the WF-SLO 201 is started, the imager can click the activation button 708 to autofocus on the fundus and obtain a good WF-SLO image. In the actual autofocus operation in this embodiment, the position of the focus lens (not shown) is changed so that the contrast of the image reaches a peak.

ここで、WF−SLOによる静止画の記録について述べる。
WF−SLO静止画表示画面705には、所定の時間分のWF−SLOの動画を基に作成されたWF−SLO静止画が表示される。この所定の時間は、WF−SLO記録時間指示部707に数値を入力することで指定される。WF−SLO記録開始ボタン709がクリックされると、WF−SLOの動画の記録が開始され、指示された時間分の動画が記録される。WF−SLO静止画はその動画の各フレームを重ね合せる事で作成され、各フレームに含まれるランダムノイズが相殺されて、ランダムノイズが低減される。この重ね合わされた画像が、WF−SLOによる静止画となり、画像700上のWF−SLO静止画表示画面705に表示される。
Here, recording of still images by WF-SLO will be described.
On the WF-SLO still image display screen 705, a WF-SLO still image created based on a WF-SLO moving image for a predetermined time is displayed. This predetermined time is specified by inputting a numerical value to the WF-SLO recording time instruction unit 707. When the WF-SLO recording start button 709 is clicked, recording of a WF-SLO moving image is started, and moving images for the instructed time are recorded. The WF-SLO still image is created by superimposing the frames of the moving image, and the random noise contained in each frame is canceled out to reduce the random noise. This superimposed image becomes a still image by WF-SLO and is displayed on the WF-SLO still image display screen 705 on the image 700.

AO−SLOリアルタイム表示画面704では、AO−SLOによって撮像された画像がリアルタイムに表示される。   On the AO-SLO real-time display screen 704, an image captured by AO-SLO is displayed in real time.

AO−SLOは、眼底上での撮像位置を調整するためのステアリングと呼ぶ機能を有している。該ステアリングは、スキャナー109−1、109−2による照明光105の走査位置にオフセット値を重畳させる事で、撮像位置を任意に調整する機能である。予め、撮像する複数の位置が決まっている場合に、ステアリングを用いれば、被検者に目を意図的に動かしてもらう必要が無くなる。具体的には、撮像予定位置の情報に基づいて、スキャナー109−1、109−2による照明光105の走査位置を変える事で、複数の位置の撮像を自動で行うことが可能となる。また、撮像者の意図と異なる位置が撮像されている時にも、このステアリングの機能を用いて、撮像位置の調整を行う事もできる。   AO-SLO has a function called steering for adjusting the imaging position on the fundus. The steering is a function of arbitrarily adjusting the imaging position by superimposing an offset value on the scanning position of the illumination light 105 by the scanners 109-1 and 109-2. If steering is used when a plurality of positions to be imaged are determined in advance, it is not necessary for the subject to intentionally move his eyes. Specifically, by changing the scanning position of the illumination light 105 by the scanners 109-1 and 109-2 based on the information on the scheduled imaging positions, it is possible to automatically perform imaging at a plurality of positions. Further, even when a position different from the photographer's intention is captured, the imaging position can be adjusted using the steering function.

本実施例では、ステアリング操作ボタン714を用いて、このステアリングの操作を実行する。撮像者は、このボタン(矢印部分)をクリックする事で、被検眼111の眼軸に直交した平面のXY等の二方向に撮像位置を変更する事が可能となっている。この撮像位置の変更は、WF−SLO静止画表示画面705の中の、AO−SLO撮像枠900(900−1、3)の位置に反映される。即ち、このステアリング操作で、AO−SLO撮像枠900は、例えば、枠900−1の位置から枠900−3の位置に変更される。   In this embodiment, this steering operation is executed using the steering operation button 714. The imager can change the imaging position in two directions such as XY on a plane orthogonal to the eye axis of the eye 111 by clicking this button (arrow part). This change in the imaging position is reflected in the position of the AO-SLO imaging frame 900 (900-1, 3) in the WF-SLO still image display screen 705. That is, by this steering operation, the AO-SLO imaging frame 900 is changed from the position of the frame 900-1 to the position of the frame 900-3, for example.

AO−SLOフォーカス調整ボタン712、713は、AO−SLOのフォーカスを調整するボタンであり、これをクリックすることによって、照明光105の眼底での合焦位置を変更する事が可能である。本実施例では、この操作に応じて、波面補正装置108のフォーカス成分にオフセットを付与する。これにより、眼底の視細胞の層や血管の層など、撮像者の意図する層の撮像が可能となっている。なお、本実施例では波面補正装置108を主にフォーカス調整を行う例を示しているが、これらボタンによって接眼レンズ110の位置調整を行い、これによってフォーカス調整を行うこととしてもよい。また、これら構成を組み合わせてもよい。   The AO-SLO focus adjustment buttons 712 and 713 are buttons for adjusting the focus of the AO-SLO. By clicking this button, the focus position of the illumination light 105 on the fundus can be changed. In this embodiment, an offset is given to the focus component of the wavefront correction device 108 in accordance with this operation. Thereby, it is possible to image a layer intended by the imager, such as a layer of photoreceptor cells in the fundus or a layer of blood vessels. In this embodiment, the wavefront correction device 108 is mainly used for focus adjustment. However, the position adjustment of the eyepiece 110 may be performed by these buttons, and focus adjustment may be performed by this. Moreover, you may combine these structures.

AO−SLO静止画表示画面706には、所定の時間分のAO−SLOの動画を基に作成されたAO−SLO静止画が表示される。この所定の時間は、AO−SLO記録時間指示部715に数値を入力することで指定される。AO−SLO記録開始ボタン716がクリックされると、この記録を開始し、指示された時間分の動画を記録する。AO−SLO静止画はその動画の各フレームを重ね合せる事で作成され、各フレームに含まれるランダムノイズが相殺されて、ランダムノイズが低減される。この重ね合わされた画像が、AO−SLOによる静止画となり、画像700上のAO−SLO静止画表示画面706に表示される。   On the AO-SLO still image display screen 706, an AO-SLO still image created based on the AO-SLO moving image for a predetermined time is displayed. This predetermined time is designated by inputting a numerical value to the AO-SLO recording time instruction unit 715. When the AO-SLO recording start button 716 is clicked, this recording is started and a moving image for the instructed time is recorded. The AO-SLO still image is created by superimposing the frames of the moving image, and the random noise contained in each frame is canceled out, thereby reducing the random noise. This superimposed image becomes a still image by AO-SLO and is displayed on the AO-SLO still image display screen 706 on the image 700.

次に、本実施例に係る眼底撮像装置における処理全体のフローチャートを示す図11を用いて、撮像者の操作、装置の処理、画面表示の流れについて説明する。なお、同図中の左の列が撮像者の操作、真ん中の列が装置の処理、右の列が画面表示を示している。   Next, the flow of the photographer's operation, apparatus processing, and screen display will be described with reference to FIG. 11 showing a flowchart of the entire processing in the fundus imaging apparatus according to the present embodiment. In the figure, the left column indicates the operation of the photographer, the middle column indicates the processing of the apparatus, and the right column indicates the screen display.

まず、ステップS1301にて、撮像者が装置の電源をONした後に、制御部117によって撮像プログラムが起動される。次に、ステップS1302にて、制御部117は、装置の立上げ処理、固視標の表示、WF−SLOの撮像の開始、およびAO−SLOの撮像の開始の各操作を行う。なお、立上げ処理には、上述した不図示の眼底カメラ等を用いた前眼部画像の撮像の開始の操作も含まれる。   First, in step S1301, the imaging program is activated by the control unit 117 after the photographer turns on the power of the apparatus. Next, in step S1302, the control unit 117 performs operations of starting up the apparatus, displaying a fixation target, starting WF-SLO imaging, and starting AO-SLO imaging. Note that the start-up process includes an operation of starting imaging of an anterior ocular segment image using a fundus camera (not shown) described above.

これらの処理の直後に、ステップS1303において、ディスプレイ118上の前眼部表示画面701、固視標位置画面702、WF−SLOリアルタイム表示画面703、およびAO−SLOリアルタイム表示画面704による各々の画像の表示が実行される。これら各画面においては、フローチャートにおける最終ステップであるステップS1320に至るまで、画像更新が継続される。   Immediately after these processes, in step S1303, each of the images on the anterior segment display screen 701, fixation target position screen 702, WF-SLO real time display screen 703, and AO-SLO real time display screen 704 on the display 118 is displayed. Display is executed. In each of these screens, the image update is continued until step S1320, which is the final step in the flowchart.

ステップS1303の後のステップS1304では、撮像者が、前眼部表示画面701に表示される前眼部像を参照しながら、不図示の位置調整機構によって可能となっている装置の接眼部と被検眼との位置調整を行う。位置調整機構としては、例えばジョイスティックが例示されるが、他の公知の手段を用いても構わない。続くステップS1305で、撮像者がオートフォーカス機能を起動する起動ボタン708をクリックすると、ステップS1306において、眼底撮像装置はWF−SLOのオートフォーカスを開始する。   In step S1304 after step S1303, the photographer can refer to the eyepiece unit of the apparatus enabled by a position adjustment mechanism (not shown) while referring to the anterior segment image displayed on the anterior segment display screen 701. Adjust the position with the eye to be examined. The position adjustment mechanism is exemplified by a joystick, for example, but other known means may be used. In subsequent step S1305, when the photographer clicks an activation button 708 that activates the autofocus function, in step S1306, the fundus imaging apparatus starts WF-SLO autofocus.

オートフォーカスが一旦終了した後、ステップS1307で撮像者がWF−SLO記録開始ボタン709をクリックする。この操作に応じて、ステップS1308では、眼底撮像装置が改めてWF−SLOのオートフォーカスを行い、当該操作終了後に、WF−SLO静止画が取得される。このWF−SLO静止画は、WF−SLO静止画表示画面705に表示される。   After autofocusing is completed, the photographer clicks the WF-SLO recording start button 709 in step S1307. In response to this operation, in step S1308, the fundus imaging apparatus again performs WF-SLO autofocus, and after the operation ends, a WF-SLO still image is acquired. This WF-SLO still image is displayed on the WF-SLO still image display screen 705.

これと同時に、後述する追尾操作(トラッキング)を開始する。ステップS1309では、WF−SLO静止画表示画面705にWF−SLO静止画が表示される。また、この表示の操作と共にトラッキングONボタン710が点灯し、操作者にトラッキングがONになっている事を通知する。   At the same time, a tracking operation (tracking) described later is started. In step S1309, the WF-SLO still image is displayed on the WF-SLO still image display screen 705. In addition, the tracking ON button 710 lights up along with this display operation to notify the operator that tracking is ON.

ステップS1310では、撮像者による固視標位置画面702での指標の移動およびクリック、もしくは、WF−SLO静止画表示画面705上で指標の移動およびクリックによって、AO−SLOにより撮像する眼底上の位置を指定する。ステップS1311では、眼底撮像装置が、この位置の指定に対応した固視標の提示位置の変更を行う。この際、フォーカスが所望の層に追従するように、WF−SLO201におけるオートフォーカスが再度行われ、フォーカス状態の追従も行われる。   In step S1310, the position on the fundus to be imaged by AO-SLO by moving and clicking the index on the fixation target position screen 702 by the photographer or by moving and clicking the index on the WF-SLO still image display screen 705. Is specified. In step S1311, the fundus imaging apparatus changes the fixation target presentation position corresponding to this position designation. At this time, the auto focus in the WF-SLO 201 is performed again so that the focus follows the desired layer, and the focus state is also tracked.

ステップS1312では、WF−SLO静止画表示画面705の表示画像、これに重畳表示されるAO−SLO撮像枠900、およびAO−SLOリアルタイム表示画面704の画像を見ながら、撮像者がステアリング操作ボタン714をクリックする。このクリックによって、AO−SLOの撮像位置を調整する。また、この操作に伴って、AO−SLOフォーカス調整ボタン712および713をクリックして、AO−SLOのフォーカス位置を調整する。更にこれら動作に対応して、ステップS1313では、眼底撮像装置が、AO−SLOの撮像位置とフォーカス状態とを変更、調整する。   In step S1312, the photographer operates the steering operation button 714 while viewing the display image on the WF-SLO still image display screen 705, the AO-SLO imaging frame 900 superimposed on the display image, and the AO-SLO real-time display screen 704. Click. By this click, the AO-SLO imaging position is adjusted. In accordance with this operation, the AO-SLO focus adjustment buttons 712 and 713 are clicked to adjust the focus position of the AO-SLO. Further, in response to these operations, in step S1313, the fundus imaging apparatus changes and adjusts the AO-SLO imaging position and focus state.

これらの調整の後に、ステップS1314で、撮像者がAO−SLO記録開始ボタン716をクリックすると、ステップS1315で、眼底撮像装置は高精細な画像を得るために画角を縮小すると共に画素ピッチを狭める。その後、ステップS1316からS1319の、AO−SLO撮像位置の変更、AO−SLO画像の取得、AO−SLO画像の位置合わせ、およびAO−SLO静止画の表示、の操作が繰り返される。以上により、ステアリング動作を用いた撮像位置の変更と、AO−SLOによる静止画記録、撮像した画像の位置合わせ、位置合わせ後の画像の結合、AO−SLOによる静止画の表示が繰り返される。これらの撮像操作の繰り返しが完了すると、ステップS1320にて一連の撮像が終了する。   After these adjustments, when the photographer clicks the AO-SLO recording start button 716 in step S1314, the fundus imaging apparatus reduces the angle of view and narrows the pixel pitch to obtain a high-definition image in step S1315. . Thereafter, the operations of changing the AO-SLO imaging position, acquiring the AO-SLO image, aligning the AO-SLO image, and displaying the AO-SLO still image in steps S1316 to S1319 are repeated. As described above, the change of the imaging position using the steering operation, the still image recording by AO-SLO, the alignment of the captured images, the combination of the images after alignment, and the display of the still image by AO-SLO are repeated. When the repetition of these imaging operations is completed, a series of imaging is completed in step S1320.

次に、眼の運動に伴って継時的に移動する眼底における撮像領域の位置変化を検知して、この位置変化を補正するように照明光の向きを変更して、撮像位置(照明光の走査位置)を補正する追尾機能について説明する。   Next, a change in the position of the imaging region in the fundus that moves continuously with the movement of the eye is detected, the direction of the illumination light is changed so as to correct this change in position, and the imaging position (the illumination light A tracking function for correcting (scanning position) will be described.

まず、従来の追尾機能を動作させた場合についての処理手順を、図3に示すフローチャートを用いて説明する。なお、ここで述べる処理は、追尾制御部202によって制御、実行される。   First, the processing procedure when the conventional tracking function is operated will be described with reference to the flowchart shown in FIG. The processing described here is controlled and executed by the tracking control unit 202.

ステップS100で、追尾機能を動作させる眼底追尾プログラムを開始する。続くステップS101で、WF−SLO201を用いて、図2に示すWF−SLO画像の全体を画像化した基準画像305を取得する。更に、ステップS102で、WF−SLO201を用いて、被検出画像306−1を取得する。本例において、被検出画像306−1は、WF−SLO画像(基準画像305)の一部の領域となっている。被検出画像306−1の取得後、ステップS103で、基準画像305と被検出画像306−1との相対的な位置ずれを検出する。検出アルゴリズムは、位相限定相関法を用いる。   In step S100, a fundus tracking program for operating the tracking function is started. In subsequent step S101, a reference image 305 obtained by imaging the entire WF-SLO image shown in FIG. 2 is acquired using the WF-SLO 201. In step S102, the detected image 306-1 is acquired using the WF-SLO 201. In this example, the detected image 306-1 is a partial region of the WF-SLO image (reference image 305). After obtaining the detected image 306-1, in step S103, a relative displacement between the reference image 305 and the detected image 306-1 is detected. The detection algorithm uses a phase only correlation method.

なお、本例では位相限定相関法を用いているが、検出アルゴリズムは他の如何なる方法でも構わない。相対的な位置ずれの検出結果は、図2中のX方向(眼底の水平方向)の検出値ΔXと、Y方向(眼底の鉛直方向)の検出値ΔYとして求められる。AO−SLOにおける追尾動作において、これら検出値は、WF−SLOにおける測定光の照射位置の補正ではなく、AO−SLOにおける測定光の照射位置の補正に用いられる。ステップS104では、検出したΔXをAO−SLOのスキャナー109-1が眼底に照明光105を照射する際の位置補正の補正値として指令し、ΔYをAO−SLOのスキャナー109−2の位置補正の補正値として指令する。これによって、AO−SLOの撮像位置は、眼の運動に対してX方向(眼底の水平方向)もY方向(眼底の鉛直方向)も補正され、撮像位置の追尾ができる。   In this example, the phase only correlation method is used, but any other detection algorithm may be used. The detection result of the relative displacement is obtained as a detection value ΔX in the X direction (horizontal direction of the fundus) and a detection value ΔY in the Y direction (vertical direction of the fundus) in FIG. In the tracking operation in the AO-SLO, these detection values are used not for correcting the measurement light irradiation position in the WF-SLO but for correcting the measurement light irradiation position in the AO-SLO. In step S104, the detected ΔX is commanded as a correction value for position correction when the AO-SLO scanner 109-1 irradiates the illumination light 105 to the fundus, and ΔY is used for position correction of the AO-SLO scanner 109-2. Command as a correction value. Thereby, the imaging position of the AO-SLO is corrected in both the X direction (horizontal direction of the fundus) and the Y direction (vertical direction of the fundus) with respect to the eye movement, and the imaging position can be tracked.

ステップS104での処理が終わると、フローはステップS102に移行して、この追尾する操作を繰り返す。この繰り返しの際には、被検出画像306−2、306−3、306−4、および306−5と示される順に、被検出画像を次々に変更していく。被検出画像306−5に対する処理が終了すると、被検出画像306−1に対応する画像を新たな被検出画像とするように画像の取得位置が基に戻る。その後、被検出画像306−2、3、4、および5に対応する位置での画像取得とその後の処理とが順次実行される。即ち、被検出画像306の位置を変更していく動作を、被検出画像306−1〜306−5各々に対して順次繰り返す。   When the process in step S104 ends, the flow moves to step S102, and this tracking operation is repeated. In this repetition, the detected images are successively changed in the order indicated by the detected images 306-2, 306-3, 306-4, and 306-5. When the processing on the detected image 306-5 is completed, the image acquisition position is returned to the base so that the image corresponding to the detected image 306-1 becomes a new detected image. Thereafter, image acquisition at positions corresponding to the detected images 306-2, 3, 4, and 5 and subsequent processing are sequentially executed. That is, the operation of changing the position of the detected image 306 is sequentially repeated for each of the detected images 306-1 to 306-5.

ここで述べた例では、WF−SLO画像のフレーム更新期間をTとすると、撮像位置のずれの検出およびAO−SLOにおける照明光105の照射位置に対する位置補正の指令が、更新期間Tの間に5回できる。被検出画像として基準画像305と同様の撮像範囲の画像を用いるのではなく、このように被検出画像306をWF−SLO画像の一部とする事で、位置ずれの検出および位置補正の指令の出力の単位時間当たりの頻度を増やすことが可能となる。これにより、眼の動きに対して追尾する際の時間遅れを短くする効果が得られ、眼の動きに対する追尾の残差を小さくする効果が得られる。   In the example described here, when the frame update period of the WF-SLO image is T, the detection of the shift of the imaging position and the position correction command for the irradiation position of the illumination light 105 in the AO-SLO are transmitted during the update period T. Can be done 5 times. Rather than using an image in the same imaging range as that of the reference image 305 as the detected image, the detected image 306 is made a part of the WF-SLO image in this way, so that a misalignment detection and position correction command can be issued. The frequency per unit time of output can be increased. As a result, the effect of shortening the time delay when tracking the eye movement is obtained, and the effect of reducing the tracking residual with respect to the eye movement is obtained.

ステップS102からS104の操作の繰り返しと並行して、AO−SLOを用いたAO−SLO画像の取得が行われる。以上で述べた追尾機能が通常通り動作し、眼の動きに対しスキャナー109−1、2による照明光105の照射位置が追従していれば、このΔXおよびΔYを用いたAO−SLO画像の取得においても適宜照射位置の補正が実行される。従って、良好なAO−SLOの画像が得られる。AO−SLO画像が取得されるまで上述した繰り返しは行われ、ステップS105にて、眼底追尾プログラムを終了する。   In parallel with the repetition of the operations from step S102 to S104, an AO-SLO image using AO-SLO is acquired. If the tracking function described above operates normally and the irradiation position of the illumination light 105 by the scanners 109-1 and 10-2 follows the movement of the eye, an AO-SLO image is acquired using ΔX and ΔY. The irradiation position is corrected as appropriate. Therefore, a good AO-SLO image can be obtained. The above-described repetition is performed until an AO-SLO image is acquired, and the fundus tracking program is terminated in step S105.

ここで、従来の追尾機能について、詳細に説明する。
図4は、眼の動き400、AO−SLO画像の撮像可能な範囲500、およびAO−SLO画像の撮像画角501の関係を模式的に表した図となっている。同図において、眼の動き400の軌跡は、矢印によって模式的に表されている。なお、実際には、被検眼眼底におけるAの位置にある点(撮像画角501Aの中心)がこの矢印に沿って観察画面上を移動している。これに対して、AO−SLOの撮影光学系等は被検眼に対して動いておらず、従って撮像可能な範囲500も位置移動を行わない。
Here, the conventional tracking function will be described in detail.
FIG. 4 is a diagram schematically illustrating the relationship between the eye movement 400, the AO-SLO image capturing range 500, and the AO-SLO image capturing angle of view 501. In the figure, the locus of the eye movement 400 is schematically represented by an arrow. Actually, the point at the position A in the fundus of the eye to be examined (the center of the imaging angle of view 501A) moves on the observation screen along this arrow. On the other hand, the AO-SLO imaging optical system or the like does not move with respect to the eye to be examined, and thus the imageable range 500 does not move.

ここで、眼の不随意的な動き400には、トレマ401、ドリフト402、フリック403、およびサッケード404といった種類がある。トレマ401は、被検眼の非常に小さな振幅の高周波の動きである。ドリフト402は、被検眼の小さな滑らかな動きである。フリック403は、被検眼の小さな跳ぶような動きである。サッケード404は跳躍運動とも呼ばれ、被検眼の大きな跳ぶような動きである。   Here, the involuntary eye movement 400 includes a trema 401, a drift 402, a flick 403, and a saccade 404. The trema 401 is a high-frequency movement of a very small amplitude of the eye to be examined. The drift 402 is a small smooth movement of the eye to be examined. The flick 403 is a small jumping movement of the eye to be examined. The saccade 404 is also referred to as a jumping movement, and is a large jumping movement of the eye to be examined.

AO−SLOによる撮像可能な範囲500は、同図において、眼底上でL×Lのサイズとなっている。光学系の構成によってこの範囲500外の画像を得ようとすると、眼底からの反射光の画像情報が部分的に無くなってしまう所謂ケラレの発生や、光学系の収差が大きい部分を経た光に基づいた画像化が生じる。その結果として、生成される画像では、著しい画質の劣化が起こり得る。なお、ここで示す例では、AO−SLOにおける撮像画角501は、眼底上でM×Mのサイズとなっている。   A range 500 that can be imaged by AO-SLO is L × L on the fundus in FIG. When an image outside this range 500 is obtained by the configuration of the optical system, the image information of the reflected light from the fundus is partially lost, so-called vignetting occurs, or based on light that has passed through a portion where the aberration of the optical system is large. Imaging occurs. As a result, significant image quality degradation can occur in the generated image. In the example shown here, the imaging field angle 501 in AO-SLO has a size of M × M on the fundus.

従来の追尾機能では、ステップS100の眼底追尾プログラムが開始されると、その直後のステップS101で取得されるWF−SLO画像が基準画像305になる。その際、不図示の固視標の提示によって被検眼の固視が促されており、基準画像305は眼底上の所望の範囲における略中心部の画像として得られる。そして、基準画像取得時においてAO−SLOによって画像を得ようとする撮像位置は、同様の固視標の提示によって撮像画角501A内の点、より理想的には撮像位置中心が点Aの位置に存在することを前提とし、以降の追尾のプログラムは、この基準画像305が取得され、且つAO−SLOの撮像位置が画角501Aとなっていることを前提として実行される。   In the conventional tracking function, when the fundus tracking program in step S100 is started, the WF-SLO image acquired in step S101 immediately after that becomes the reference image 305. At that time, fixation of the eye to be examined is prompted by the presentation of a fixation target (not shown), and the reference image 305 is obtained as an image of a substantially central portion in a desired range on the fundus. The imaging position where the image is to be obtained by AO-SLO at the time of acquiring the reference image is a point within the imaging angle of view 501A by presentation of the same fixation target, more ideally the position where the center of the imaging position is the point A. The following tracking program is executed on the assumption that the reference image 305 is acquired and the AO-SLO imaging position is the angle of view 501A.

しかし、実際には、基準画像取得時の瞬間の眼の動きが、眼の動き400の内のいずれの位置にあるかは不定である。即ち、基準画像305の取得時に、AO−SLOにおいて撮像すべき撮像画角が不随意運動により意図した画角501Aの位置からずれる可能性が有る。具体的には、撮像中心が、点Aの位置ではなく、図4に示される点Bの位置(画角501B)や、点Cの位置(画角501C)、或いは点Dの位置(画角501D)に存在している可能性がある。即ち、この点Bの位置や点Cの位置に画像を得るべき撮像画角501が存在する状態で得られたWF−SLO画像を、基準画像として追尾プログラムの目標位置に設定してしまうことが実際には起こり得る。   However, in reality, the position of the eye movement 400 at the moment of acquiring the reference image is indefinite. That is, when the reference image 305 is acquired, there is a possibility that the imaging angle of view to be imaged in the AO-SLO may deviate from the position of the intended angle of view 501A due to involuntary movement. Specifically, the imaging center is not the position of the point A, but the position of the point B (view angle 501B), the position of the point C (view angle 501C), or the position of the point D (view angle) shown in FIG. 501D). That is, the WF-SLO image obtained in the state where the imaging angle of view 501 from which an image is to be obtained exists at the position of point B or point C may be set as the target position of the tracking program as a reference image. It can actually happen.

この場合、WF−SLO201およびAO−SLOの装置側で定められた撮影用のフレームは動かないが、サッケード等によりフレーム内に存在する眼底の領域は動いてしまう。従って、サッケード発生時においてAO−SLOで撮像する撮像画角の中心は、サッケードが生じて本来意図してない眼底の領域に対して取得したWF−SLO画像を基準として定めた撮像可能な範囲500における点Aの位置となる。その結果、本来得ようとしていた画角501Aに対応する眼底の領域はAO−SLOで撮像可能な範囲500の外にはみ出してしまい、良好な追尾が行われない。また、はみ出した領域では得た画像情報に基づいて画像を生成するため、著しい画質の劣化がおこってしまう。ここで、追尾を精度よく行おうとした場合、より細かく位置補正を行うために撮像可能な範囲500の寸法であるLの値を撮像画角501の寸法のMに対して相対的に小さくすることも考えられる。しかし、撮像可能な範囲500の寸法のLに対して、撮像画角501の寸法のMが占める割合が大きいと、ここで述べた画角のはみ出しといった問題の発生頻度が大きくなる。   In this case, the photographing frame determined on the WF-SLO 201 and AO-SLO apparatus side does not move, but the fundus region existing in the frame moves due to saccade or the like. Therefore, when the saccade is generated, the center of the imaging field angle captured by the AO-SLO is an imageable range 500 that is determined based on the WF-SLO image acquired with respect to the region of the fundus that is not originally intended due to the occurrence of the saccade. The position of the point A at. As a result, the fundus region corresponding to the angle of view 501A originally intended to be obtained protrudes outside the range 500 that can be imaged by AO-SLO, and good tracking is not performed. In addition, since an image is generated based on the obtained image information in the protruding area, the image quality is significantly deteriorated. Here, when tracking is to be performed with high accuracy, the value of L, which is the size of the imageable range 500, is made relatively small with respect to M of the size of the imaging angle of view 501 in order to perform finer position correction. Is also possible. However, when the ratio of the dimension M of the imaging angle of view 501 to the dimension L of the imageable range 500 is large, the frequency of occurrence of the problem of the projection of the angle of view described here increases.

また、上述したように、AO−SLOには撮像箇所を調整するためのステアリングと呼ぶ機能を有している。上述したように、ステアリングでは、スキャナー109−1、2による照明光105の照射位置にオフセット値を重畳させる事で、撮像位置を任意に調整する機能である。予め、撮像する複数の位置の撮像位置が決まっている場合に、この撮像位置の情報を基にステアリングによってスキャナー109−1、2による照明光105の照射位置を変えることができる。よって、被検者に目を意図的に動かしてもらうことなく、スキャナー109−1、2各々の位置を変えて複数の撮像位置での撮像を自動で行う事が可能となる。また、撮像者の意図と異なる位置が撮像されている時にも、このステアリングの機能を用いて、撮像位置の調整を行う事もできる。   Further, as described above, the AO-SLO has a function called steering for adjusting the imaging location. As described above, the steering is a function of arbitrarily adjusting the imaging position by superimposing an offset value on the irradiation position of the illumination light 105 by the scanners 109-1 and 109-2. When the imaging positions of a plurality of positions to be imaged are determined in advance, the irradiation position of the illumination light 105 by the scanners 109-1 and 109-2 can be changed by steering based on the information on the imaging positions. Therefore, it is possible to automatically perform imaging at a plurality of imaging positions by changing the positions of the scanners 109-1 and 109-2 without intentionally moving the eyes of the subject. Further, even when a position different from the photographer's intention is captured, the imaging position can be adjusted using the steering function.

しかし、例えば、眼の動き400の中で点Dの位置の時にWF−SLO画像の基準画像305が設定されると、図中Y方向のステアリングと追尾とを合わせて行える照射位置調整の許容量は図中のHの量に制限されてしまう。ここで、点Dの位置での図中Y方向の位置をJとすると、H=(L−M)/2−Jの式が成立する。   However, for example, when the reference image 305 of the WF-SLO image is set at the position of the point D in the eye movement 400, an allowable amount of irradiation position adjustment that can be performed in combination with steering in the Y direction and tracking in the figure. Is limited to the amount of H in the figure. Here, assuming that the position in the Y direction in the figure at the position of the point D is J, the equation H = (LM) / 2−J is established.

例えば、撮像可能な範囲のY方向の寸法Lに対して、撮像画角のY方向の寸法Mが寸法Lの50%で、Y方向の寸法Jが寸法Lに対して20%だとする。この場合、ステアリングと追尾とを合わせた照明光照射位置の補正の許容量Hは、撮像可能な範囲におけるY方向の寸法Lの5%と小さくなってしまう。   For example, it is assumed that the dimension M in the Y direction of the imaging angle of view is 50% of the dimension L and the dimension J in the Y direction is 20% of the dimension L with respect to the dimension L in the Y direction of the imageable range. In this case, the allowable amount H of correction of the illumination light irradiation position combining the steering and tracking is as small as 5% of the dimension L in the Y direction in the imageable range.

以上を勘案した本実施例で用いる追尾機能について、次に説明する。図5は、本実施例に係る追尾機能の動作時の処理手順を示すフローチャートである。なお、同図に示す一連の処理は、追尾制御部202によって制御され、実行される。   The tracking function used in the present embodiment in consideration of the above will be described next. FIG. 5 is a flowchart illustrating a processing procedure during operation of the tracking function according to the present embodiment. The series of processes shown in the figure is controlled and executed by the tracking control unit 202.

ここで、本実施例の特徴部分はステップS202〜S206において実行される処理である。具体的には、本実施例の特徴は、眼の動きを検出してデータとして格納し、眼の動きの略中心位置を演算し、この中心位置を追尾機能の動作時における目標位置として設定することにある。   Here, the characteristic part of the present embodiment is the processing executed in steps S202 to S206. Specifically, the feature of this embodiment is that the eye movement is detected and stored as data, the approximate center position of the eye movement is calculated, and this center position is set as the target position during the operation of the tracking function. There is.

以下、フローチャートにおける各処理について説明する。ステップS200で、追尾機能を動作させる眼底追尾プログラムを開始する。続くステップS201で、WF−SLO201を用いて、図2に示すWF−SLO画像の全体を画像化した基準画像305を取得する。更に、ステップS202で、被検出画像306−1を取得する。本実施例において被検出画像306−1は、WF−SLO画像(基準画像)の一部の領域となっている。被検出画像306−1の取得後、ステップS203で、基準画像305と被検出画像306−1の相対的な位置ずれを検出する。検出アルゴリズムは、位相限定相関法を用いる。   Hereinafter, each process in the flowchart will be described. In step S200, a fundus tracking program for operating the tracking function is started. In subsequent step S201, a reference image 305 obtained by imaging the entire WF-SLO image shown in FIG. 2 is acquired using WF-SLO201. In step S202, the detected image 306-1 is acquired. In this embodiment, the detected image 306-1 is a partial region of the WF-SLO image (reference image). After obtaining the detected image 306-1, in step S203, a relative positional shift between the reference image 305 and the detected image 306-1 is detected. The detection algorithm uses a phase only correlation method.

即ち、ステップS201では、被検眼眼底における基準画像305に対応する所定の撮像範囲の画像を、該眼底の動きを測定する際の基準画像として取得する。この操作は、WF−SLO201および制御部117を含む取得手段と機能する諸構成により実行される。ステップS202では、所定の撮像範囲の内に含まれる領域として、異なる時間に各々取得される複数の被検出画像である306−1〜306−5を取得する。この操作も、WF−SLO201および制御部117を含む諸構成により実行される。なお、ここでは被検出画像は基準画像305をY方向に並ぶ複数の帯状に分割して得ているが、被検出画像の抽出様式はこれに限定されない。時分割的に所定の撮像範囲の領域より被検出画像を抽出、取得することとし、その際に連続して同じ領域の画像を得なければよい。ステップS203では、基準画像305とのこれら被検出画像各々との位置ずれを検出する。この操作は、制御部117におけるずれ検出手段として機能する構成により実行される。   That is, in step S201, an image in a predetermined imaging range corresponding to the reference image 305 on the fundus oculi to be examined is acquired as a reference image for measuring the movement of the fundus. This operation is executed by various configurations that function as acquisition means including the WF-SLO 201 and the control unit 117. In step S202, a plurality of detected images 306-1 to 306-5, which are acquired at different times, are acquired as regions included in a predetermined imaging range. This operation is also executed by various configurations including the WF-SLO 201 and the control unit 117. Here, the detected image is obtained by dividing the reference image 305 into a plurality of strips arranged in the Y direction, but the extraction pattern of the detected image is not limited to this. The detected image is extracted and acquired from the region of the predetermined imaging range in a time-sharing manner, and images in the same region may not be obtained continuously at that time. In step S203, a positional deviation between the reference image 305 and each of the detected images is detected. This operation is executed by a configuration that functions as a deviation detection unit in the control unit 117.

なお、本実施例では位相限定相関法を用いているが、検出アルゴリズムは他の如何なる方法でも構わない。相対的な位置ずれの検出結果は、図2中のX方向(眼底の水平方向)の検出値ΔXと、Y方向(眼底の鉛直方向)の検出値ΔYとして求められる。ステップS204では、検出値のΔXとΔYを追尾制御部202の所定のデータ格納領域に格納する。格納後、フローはS202に戻り、次の被検出画像306−2を取得する。以下、ステップS203およびS204において、被検出画像306−1の場合と同様の操作が実行される。即ち、ステップS202〜S204の各操作を被検出画像306の範囲を変更しながら繰り返し、眼の動きのデータをデータ格納領域に蓄積する。蓄積する期間や回数は、例えば1秒間であったり、例えば100サンプリングであったりと任意でよい。   In the present embodiment, the phase only correlation method is used, but any other detection algorithm may be used. The detection result of the relative displacement is obtained as a detection value ΔX in the X direction (horizontal direction of the fundus) and a detection value ΔY in the Y direction (vertical direction of the fundus) in FIG. In step S204, the detected values ΔX and ΔY are stored in a predetermined data storage area of the tracking control unit 202. After the storage, the flow returns to S202, and the next detected image 306-2 is acquired. Thereafter, in steps S203 and S204, the same operation as that of the detected image 306-1 is executed. That is, the operations of steps S202 to S204 are repeated while changing the range of the detected image 306, and eye movement data is accumulated in the data storage area. The accumulation period and number of times may be arbitrary, for example, 1 second or 100 sampling.

任意の数のデータを蓄積した後、ステップS205で、これら相対的な位置ずれのデータより、図4の中におけるX方向およびY方向での略中心位置を演算する。即ち、ステップS204において検出された位置ずれに対して以降に詳述する統計処理を施すことにより、基準画像305におけるずれの中心位置を演算する。この操作は、制御部117および追尾制御部202において演算手段として機能する構成において実行される。   After storing an arbitrary number of data, in step S205, the approximate center position in the X direction and the Y direction in FIG. 4 is calculated from the data of the relative displacement. That is, the center position of the shift in the reference image 305 is calculated by performing statistical processing, which will be described in detail later, on the position shift detected in step S204. This operation is executed in a configuration that functions as a calculation unit in the control unit 117 and the tracking control unit 202.

なお、本実施例においてこの略中心位置の座標を演算する際に用いた統計処理における演算アルゴリズムは、平均化処理である。しかし、本実施例では平均化処理を用いたが、略中心位置を求めるものであれば、如何なる演算アルゴリズムでも構わない。例えば、中央値を演算しても、最頻値を演算してもよいし、メジアンランクを採用してもよいし、二乗平均平方根でもよい。位置を滞在時間で積分して平均化処理をしてもよい。また、各々の演算の際に、如何なるフィルタを適用してもよい。空間的なフィルタ処理を入れても、時間的なフィルタ処理を入れても、検出値の絶対値に対してでも、周波数成分に対してカットオフフィルタ処理やバンドパスフィルタ処理や移動平均処理を入れてもよい。即ち、蓄積された相対位置或いは相対的な位置ずれの各データに対して統計処理に基づくこれらの演算を行うことで、図4中の眼の動きの略中心として、被検眼における点Aの位置を特定することができる。   Note that the calculation algorithm in the statistical processing used when calculating the coordinates of the substantially center position in the present embodiment is an averaging process. However, although the averaging process is used in the present embodiment, any arithmetic algorithm may be used as long as the approximate center position is obtained. For example, the median value may be calculated, the mode value may be calculated, the median rank may be adopted, and the root mean square may be used. The position may be integrated by the staying time and averaged. Further, any filter may be applied in each calculation. Insert spatial filter processing, temporal filter processing, absolute value of the detected value, cut-off filter processing, bandpass filter processing, and moving average processing for frequency components. May be. That is, by performing these calculations based on statistical processing on the accumulated relative position or relative positional deviation data, the position of the point A in the eye to be examined as the approximate center of the eye movement in FIG. Can be specified.

点Aの位置を特定後、ステップS206で、追尾の操作における目標位置を、X座標をX0に、Y座標をY0に設定する。即ち、以降の追尾操作における基準画像を、このX0、Y0を中心とするWF−SLOの全体画像に設定する。これにより、追尾機能の目標位置が、眼の動きの略中心に設定される。AO−SLO画像の眼底での撮像可能な範囲500は、この基準画像における座標中心(X0、Y0)に基づくXY座標系において指定される。その際、指定される座標は、撮影可能な範囲500の中心であり且つ撮像画角501Aの中心の点Aの位置として指定される。従って、AO−SLOにおいて画像を得る際に随時位置補正する場合における初期画像の取得位置が撮像画角501Aで得られる画像となる。   After specifying the position of the point A, in step S206, the target position in the tracking operation is set to X0 for the X coordinate and Y0 for the Y coordinate. That is, the reference image in the subsequent tracking operation is set to the entire WF-SLO image centered on X0 and Y0. Thereby, the target position of the tracking function is set to the approximate center of eye movement. A range 500 where the fundus of the AO-SLO image can be captured is specified in the XY coordinate system based on the coordinate center (X0, Y0) in the reference image. At that time, the designated coordinate is designated as the position of the point A that is the center of the imageable range 500 and the center of the imaging angle of view 501A. Therefore, the initial image acquisition position in the case of correcting the position as needed when an image is acquired in AO-SLO is an image obtained at the imaging angle of view 501A.

以降、ステップS207で被検出画像306を取得し、ステップS208で目標位置を中心として生成される基準画像305と被検出画像306の相対位置を演算する。この演算の方法は位相限定相関法を用いる。検出アルゴリズムは他の如何なる方法でも構わない。即ち、ステップS207以降、中心位置が演算による取得後は、その後に得られる被検出画像306とこの中心位置とに基づいて画像の取得位置(照明光の照射位置)の補正が行われる。この操作は、追尾制御部202において取得位置補正手段として機能する構成により実行される。相対位置の検出結果は、図2中のX方向(眼底の水平方向)の検出値ΔXと、Y方向(眼底の鉛直方向)の検出値ΔYである。   Thereafter, the detected image 306 is acquired in step S207, and the relative position between the reference image 305 and the detected image 306 generated around the target position is calculated in step S208. This calculation method uses a phase-only correlation method. The detection algorithm may be any other method. In other words, after step S207, after the center position is obtained by calculation, the image acquisition position (illumination light irradiation position) is corrected based on the detected image 306 obtained thereafter and the center position. This operation is executed by a configuration that functions as an acquisition position correction unit in the tracking control unit 202. The detection result of the relative position is a detection value ΔX in the X direction (horizontal direction of the fundus) in FIG. 2 and a detection value ΔY in the Y direction (vertical direction of the fundus).

ステップS209で、ΔX+X0を補正後のスキャナー109−1による照明光105の照射位置として指令し、ΔY+Y0をスキャナー109−2による照明光105の照射位置として指令する。これによって、AO−SLOの撮像位置は、眼の運動に対して、X方向(眼底の水平方向)についてもY方向(眼底の鉛直方向)についても追尾の操作が実行できる。ステップS209が終わると、フローはステップS207に戻り、ステップS207〜S209の操作が繰り返される。この際、被検出画像306の位置を、306−1〜306−5の中で変更して、各々の画像取得に応じて追尾の操作を繰り返す。   In step S209, ΔX + X0 is commanded as the irradiation position of the illumination light 105 by the corrected scanner 109-1, and ΔY + Y0 is commanded as the irradiation position of the illumination light 105 by the scanner 109-2. As a result, the tracking position of the AO-SLO imaging position can be executed in both the X direction (horizontal direction of the fundus) and the Y direction (vertical direction of the fundus) with respect to the eye movement. When step S209 ends, the flow returns to step S207, and the operations of steps S207 to S209 are repeated. At this time, the position of the detected image 306 is changed in 306-1 to 306-5, and the tracking operation is repeated according to each image acquisition.

この操作は従来の追尾機能と同様であり、本実施例では基準画像として用いる画像が従来と異なっている。このように被検出画像を基準画像内で細かく分割して得る操作によって得られる効果は、従来の追尾機能と同様である。即ち、眼の動きに対して追尾する際の時間遅れを短くし、眼の動きに対する追尾の残差を小さくするという効果が得られる。   This operation is the same as the conventional tracking function. In this embodiment, the image used as the reference image is different from the conventional one. Thus, the effect obtained by the operation obtained by finely dividing the detected image in the reference image is the same as the conventional tracking function. That is, the effect of shortening the time delay when tracking the eye movement and reducing the tracking residual with respect to the eye movement can be obtained.

ステップS207からS209の操作の繰り返しと並行して、AO−SLOを用いて、画像を取得する。本実施例によれば、良好な画質のAO−SLO画像が安定して得られる撮影可能な範囲500の略中心位置に撮像すべき撮像画角501を設定した上で追尾機能が働くことにより、眼の動きに対し追尾機能が効果的に働いて良好なAO−SLO画像が得られる。   In parallel with the repetition of the operations from step S207 to S209, an image is acquired using AO-SLO. According to the present embodiment, the tracking function works after setting the imaging angle of view 501 to be imaged at substantially the center position of the photographic range 500 in which an AO-SLO image with good image quality can be stably obtained. The tracking function works effectively on the movement of the eye, and a good AO-SLO image is obtained.

所望のAO−SLO画像の取得後、追尾を行う必要が無くなり、ステップS210にて眼底追尾プログラムを終了する。   After acquiring the desired AO-SLO image, it is not necessary to perform tracking, and the fundus tracking program is terminated in step S210.

ここで、本実施例で用いる追尾機能の効果について説明する。
上述したように、従来の追尾機能では、眼の動き400の中で点Dの位置の時に得られるWF−SLO画像を基準画像305と設定する場合が起こり得た。この場合、図4中のY方向のステアリングと追尾を合わせた位置補正の許容量は、図中のHの量に制限されてしまっていた。本実施例で用いた追尾機能では、AO−SLOにおいて眼の動きが撮影可能な範囲500の略中心の図4における点Aの位置にある時に、WF−SLOにおける目標位置を定める画像を得ることが可能となっている。
Here, the effect of the tracking function used in the present embodiment will be described.
As described above, in the conventional tracking function, the WF-SLO image obtained at the position of the point D in the eye movement 400 may be set as the reference image 305. In this case, the allowable amount of position correction combining the steering and tracking in the Y direction in FIG. 4 is limited to the amount of H in the figure. With the tracking function used in the present embodiment, an image for determining the target position in WF-SLO is obtained when the eye movement is at the position of point A in FIG. Is possible.

この場合、図4中におけるY方向のステアリングと追尾を合わせた照明光105の照射位置補正のための許容量は、図中のIの量に拡大する事ができている。即ち、I=(L−M)/2の数式が成立する。従来の追尾機能ではH=(L−M)/2−Jであったので、本実施例に係る追尾機能によればステアリングと追尾とを合わせた上述した許容量はJ(=I−H)だけ拡大できている。   In this case, the allowable amount for correcting the irradiation position of the illumination light 105 combining the steering and tracking in the Y direction in FIG. 4 can be expanded to the amount I in the drawing. That is, the formula of I = (LM) / 2 is established. In the conventional tracking function, H = (LM) / 2−J. Therefore, according to the tracking function according to the present embodiment, the above-described allowable amount including the steering and the tracking is J (= I−H). Just expanding.

例えば、撮像可能な範囲500のY方向の寸法Lに対して、撮像画角のY方向の寸法Mが50%で、Y方向の許容量となる寸法Jがその20%だとする。この場合、従来の追尾機能では、ステアリングと追尾を合わせた位置補正の許容量Hは、寸法Lの5%と小さくなってしまう。これに対して、本発明の追尾機能を適用すると、ステアリングと追尾とを合わせた位置補正の許容量Iは、寸法Lの25%を確保できる事になる。AO−SLOでは、演算されたWF−SLO基準画像の中心位置に上述したオフセット量を加えて、所定の範囲の基準画像内において取得しようとする画像の位置を設定する。この場合、本実施例によれば追尾およびオフセットの操作において十分な余地を保持してこれらを実行することが可能となる。   For example, it is assumed that the dimension M in the Y direction of the imaging field angle is 50% and the dimension J that is the allowable amount in the Y direction is 20% of the dimension L in the Y direction of the imageable range 500. In this case, with the conventional tracking function, the allowable amount H of position correction combined with steering and tracking is as small as 5% of the dimension L. On the other hand, when the tracking function of the present invention is applied, the position correction allowable amount I that combines the steering and the tracking can secure 25% of the dimension L. In AO-SLO, the above-described offset amount is added to the calculated center position of the WF-SLO reference image to set the position of the image to be acquired within the reference image in a predetermined range. In this case, according to the present embodiment, it is possible to execute the tracking and offset operations with sufficient room.

なお、以上に述べた効果では、図4中におけるY方向での効果についてのみの説明とした。しかし、本実施例では、X方向についても、追尾機能の目標位置を眼の動きの略中心に設定できる。従って、X方向についてもステアリングと追尾とを合わせた照明光の照射位置の位置補正の許容量の増加が可能であり、Y方向の場合と同様の効果が得られる。   In the above-described effects, only the effects in the Y direction in FIG. 4 are described. However, in this embodiment, the target position of the tracking function can be set to the approximate center of the eye movement in the X direction. Accordingly, it is possible to increase the allowable amount of position correction of the irradiation position of the illumination light combined with steering and tracking in the X direction, and the same effect as in the Y direction can be obtained.

ここで、装置の光学系の構成などによって、撮像可能な範囲は限られている。この範囲を超えた場合は、眼底からの反射光の画像情報が無くなってしまうケラレや、光学系の収差が大きい部分を経た光を基に画像化してしまうことにより、著しい画質の劣化が起こってしまう。本発明が課題とするように、眼が大きく動いたときの画像を基準画像とし、追尾の目標位置が該画像に対して設定された場合、この目標位置が撮像可能な範囲の外になってしまう。装置の撮像可能な範囲が限られる中で、このような目標位置の設定が行われた場合には、ケラレが想定より大きくなる、収差の大きい情報が極端に増加する等が生じ、当然良好な画像は得られない。   Here, the imaging range is limited depending on the configuration of the optical system of the apparatus. If this range is exceeded, the image information of the reflected light from the fundus will be lost, or the image will be imaged based on the light that has passed through the part where the aberration of the optical system is large. End up. As an object of the present invention, when an image when the eye moves greatly is set as a reference image, and a target position for tracking is set for the image, the target position is out of the imageable range. End up. When the target position is set in such a limited range that can be imaged by the apparatus, vignetting is larger than expected, information with large aberrations is extremely increased, and the like is naturally good. No image can be obtained.

これに対し、上述したように、本実施例では固視微動の略中心の位置の情報を得て、この略中心の位置を追尾の目標位置と設定し、これにより意図した撮像位置の画像を得る事が可能となっている。従って、撮像する範囲を、装置の撮像可能な範囲に確実におさめることが可能となり、その結果としてケラレや画質劣化といった問題も回避することが可能となる。即ち、本実施例に係る構成により、眼が大きく動いた場合の位置に基づいて追尾の目標位置が設定されることによって生じる可能性が有る画質低下を抑制できる。   On the other hand, as described above, in this embodiment, information on the position of the approximate center of fixation fixation is obtained, the position of the approximate center is set as the tracking target position, and an image of the intended imaging position is thereby obtained. It is possible to get. Therefore, the image capturing range can be surely kept within the image capturing range of the apparatus, and as a result, problems such as vignetting and image quality degradation can be avoided. That is, with the configuration according to the present embodiment, it is possible to suppress image quality degradation that may occur when the tracking target position is set based on the position when the eye moves greatly.

なお、上述した実施例では、眼底画像の取得、被検出画像との位置ずれ検出、および中心位置の演算をWF−SLO201により取得された画像に基づいて実行している。また、第二の画像取得手段としてのAO−SLOにおける画像取得位置の補正を、該中心位置と中心位置の演算後に得られる被検出画像とにより行っている。   In the embodiment described above, the acquisition of the fundus image, the detection of the positional deviation from the detected image, and the calculation of the center position are executed based on the image acquired by the WF-SLO 201. Further, the correction of the image acquisition position in the AO-SLO as the second image acquisition means is performed using the center position and the detected image obtained after the calculation of the center position.

[実施例2]
実施例2は、実施例1と同様で、眼の運動に伴って継時的に移動する眼底における撮像領域の位置変化を検知して、この位置変化を補正するように照明光の向きを変更して、眼底での撮像位置を補正する追尾機能を、眼底撮像方法および装置に配している。
[Example 2]
The second embodiment is the same as the first embodiment, and detects the position change of the imaging region in the fundus that moves continuously with the eye movement, and changes the direction of the illumination light so as to correct this position change. A tracking function for correcting the imaging position on the fundus is provided in the fundus imaging method and apparatus.

以下、本発明の実施例2について、主に実施例1と異なる点について、説明する。本実施例では、実施例1において当初得ていた基準画像に関して、座標(X0、Y0)を求める際に、目標位置を設定した後で相対位置を得る際に用いる基準画像の画質を同時に向上させておく点において異なっている。なお、本実施例2に係る眼底撮像装置における構成は実施例1の装置構成と同じであるため、ここでの説明は省略する。以下、本実施例について、追尾機能を動作させた場合の処理手順を示すフローチャートである図6を用いて説明する。   Hereinafter, the difference between the second embodiment of the present invention and the first embodiment will be mainly described. In this embodiment, when obtaining the coordinates (X0, Y0) for the reference image originally obtained in Embodiment 1, the image quality of the reference image used for obtaining the relative position after setting the target position is simultaneously improved. It is different in the point to keep. The configuration of the fundus imaging apparatus according to the second embodiment is the same as the apparatus configuration of the first embodiment, and a description thereof is omitted here. Hereinafter, the present embodiment will be described with reference to FIG. 6 which is a flowchart showing a processing procedure when the tracking function is operated.

ステップS300で、追尾機能を動作させる眼底追尾プログラムを開始する。続くステップS301で、WF−SLO201を用いて、図2に示すWF−SLO画像の全体を画像化した基準画像305と同等の基準元画像を取得する。なお、本実施例では、基準画像の元となる画像の取得を繰り返した後にこれら画像に基づいて実施例1の基準画像を決定することから、ステップS301にて取得する画像を以下では基準元画像と称する。   In step S300, a fundus tracking program for operating the tracking function is started. In subsequent step S301, a reference original image equivalent to the reference image 305 obtained by imaging the entire WF-SLO image shown in FIG. 2 is acquired using the WF-SLO 201. In the present embodiment, since the reference image of the first embodiment is determined based on these images after the acquisition of the original image as the reference image is repeated, the image acquired in step S301 is referred to as the reference original image below. Called.

ステップS302では、取得した基準元画像の画質が良好か否かを判定する。画質が不良であれば取得画像を基準元画像に適さないとしてフローはステップS301に戻り、基準元画像の再取得を行う。このステップS301およびS302の操作は、良好な基準元画像が得られるまで繰り返される。後述するステップS305では相対位置の演算を行うが、その際に基準元画像の画質が不良であると、相対位置の演算の精度不良が起こってしまう。本実施例では、この精度不良の発生を防ぐために、画質指標を用いて適当な画質を有する画像を選別し抽出することとしている。   In step S302, it is determined whether or not the image quality of the acquired reference original image is good. If the image quality is poor, the flow returns to step S301 because the acquired image is not suitable for the reference original image, and the reference original image is reacquired. The operations in steps S301 and S302 are repeated until a good reference original image is obtained. In step S305, which will be described later, the relative position is calculated. If the image quality of the reference original image is defective at that time, the accuracy of the relative position calculation is poor. In the present embodiment, in order to prevent the occurrence of this accuracy failure, an image having an appropriate image quality is selected and extracted using an image quality index.

なお、本実施例では、基準元画像の平均輝度が所定値以上になっているか否かによって画質の判定を行っている。しかし、画質の判定はこの方法によらず、この他に、コントラストやヒストグラムやノイズの量が良好かで判定してもよく、その他の画質指標を用いてもよい。   In this embodiment, the image quality is determined based on whether or not the average luminance of the reference original image is equal to or higher than a predetermined value. However, the determination of image quality is not based on this method, and in addition to this, it may be determined whether the amount of contrast, histogram or noise is good, or other image quality index may be used.

基準以上の画質を有する基準元画像が得られると、フローはステップS303に進みこの基準元画像が格納される。続くステップS304では、実施例1のステップS202と同様に、被検出画像306−1を取得する。ステップS305で基準元画像に対する被検出画像306−1の相対的な位置ずれの演算を行う。相対的な位置ずれは、図2中のX方向(眼底の水平方向)の検出値ΔXと、Y方向(眼底の鉛直方向)の検出値ΔYとして求められる。ステップS306では、演算された相対的な位置ずれ量であるΔXとΔYを追尾制御部202の所定のデータ格納領域に格納する。   When a reference original image having an image quality higher than the reference is obtained, the flow proceeds to step S303, and this reference original image is stored. In subsequent step S304, the detected image 306-1 is acquired in the same manner as in step S202 of the first embodiment. In step S305, the relative displacement of the detected image 306-1 with respect to the reference original image is calculated. The relative displacement is obtained as a detected value ΔX in the X direction (horizontal direction of the fundus) and a detected value ΔY in the Y direction (vertical direction of the fundus) in FIG. In step S <b> 306, ΔX and ΔY, which are the calculated relative displacement amounts, are stored in a predetermined data storage area of the tracking control unit 202.

ずれ量格納後、ステップS307で相対的な位置ずれの演算が十分に行われたか否かを判定する。本実施例では、演算回数が所定の量以上であるか否かを以て判定している。   After the deviation amount is stored, it is determined in step S307 whether or not the relative positional deviation has been sufficiently calculated. In this embodiment, the determination is made based on whether or not the number of calculations is equal to or greater than a predetermined amount.

なお、判定の基準は演算の回数に限定されず、他の基準であってもよい。例えば、所定の時間演算を行ったか否かで判定してもよいし、相対位置の時間周波数が所定の範囲の時間周波数を網羅するかで判定してもよい。或いは、眼の動きをよりよく捉えるための、他の判定基準を用いてもよい。   Note that the criterion for determination is not limited to the number of calculations, and may be another criterion. For example, it may be determined based on whether or not a predetermined time calculation has been performed, or may be determined based on whether the time frequency of the relative position covers a predetermined range of time frequencies. Alternatively, another criterion for better capturing eye movement may be used.

ステップS307において相対的な位置ずれの演算がまだ不十分であると判定されると、フローはステップS304に戻り、ステップS304〜S307の操作を繰り返す。この際、実施例1と同じく、被検出画像306−1を被検出画像306−2の位置の画像へと変更する。   If it is determined in step S307 that the relative displacement calculation is still insufficient, the flow returns to step S304, and the operations in steps S304 to S307 are repeated. At this time, as in the first embodiment, the detected image 306-1 is changed to an image at the position of the detected image 306-2.

ステップS307で相対的な位置ずれの演算が十分に行われたと判定されると、フローはステップS308に移行する。ステップS308で、基準元画像の格納数が十分か否かを判定する。後述するステップS310およびS311では、複数の基準元画像のお互いの相対位置を補正して、これら基準元画像の群の重ね合せ処理をする。この際に、用いる基準元画像は、十分にランダムノイズを低減する枚数とする必要がある。本実施例では、基準元画像の格納数が16枚以上の条件を満たせば、フローはステップS309に移行することとしている。また、条件を満たさない場合には、フローはステップS301に戻って、条件を満足するまで、ステップS301〜S308の操作を繰り返す。   If it is determined in step S307 that the relative displacement has been sufficiently calculated, the flow proceeds to step S308. In step S308, it is determined whether the number of reference original images stored is sufficient. In steps S310 and S311, which will be described later, the relative positions of the plurality of reference original images are corrected, and a group of these reference original images is superimposed. At this time, the reference original image to be used needs to have a number enough to reduce random noise. In this embodiment, when the number of reference original images stored satisfies the condition of 16 or more, the flow proceeds to step S309. If the condition is not satisfied, the flow returns to step S301, and the operations of steps S301 to S308 are repeated until the condition is satisfied.

ステップS309では、格納された基準元画像同士の相対的な位置ずれを演算する。ステップS310では、ステップS309の演算結果に基づいて、基準元画像同士の相対的な位置ずれを補正して、重ね合せ処理を行う。これにより、各々の基準元画像が有するランダムノイズが打ち消し合い、ノイズの低減が実現できる。ステップS311では、重ね合せ処理を行うことで得られた画像を基準画像に設定する。   In step S309, the relative positional deviation between the stored reference original images is calculated. In step S310, based on the calculation result in step S309, the relative positional deviation between the reference original images is corrected, and an overlay process is performed. Thereby, the random noise which each reference | standard original image has cancels, and noise reduction is realizable. In step S311, an image obtained by performing the overlay process is set as a reference image.

これによって、後述するステップS315で実施する基準画像と被検出画像との相対的な位置ずれの演算時に、ノイズが低減されて画質が向上した基準画像を用いる事ができる。従って、相対的な位置ずれの演算の精度が向上する。   As a result, it is possible to use a reference image in which noise is reduced and image quality is improved when calculating a relative positional shift between a reference image and a detected image performed in step S315 described later. Therefore, the accuracy of calculation of relative positional deviation is improved.

以降に実行されるステップS314からS317の操作は、実施例1におけるS207からS210で行われる操作と同様である。従って、ここでは、その説明を省略する。   Subsequent operations performed in steps S314 to S317 are the same as the operations performed in steps S207 to S210 in the first embodiment. Therefore, the description thereof is omitted here.

本実施例では、基準元画像を位置合わせした上で、重ね合せてランダムノイズの低減を実施し、その結果として基準画像を得ている。しかし、位置合わせを省いた場合であっても、重ね合せの処理を行えばランダムノイズの低減効果は減ってしまうものの、基準画像の画質向上といった効果は得られる。   In this embodiment, the reference original image is aligned and then superimposed to reduce random noise. As a result, a reference image is obtained. However, even if the alignment is omitted, the effect of improving the image quality of the reference image can be obtained although the effect of reducing random noise is reduced by performing the overlapping process.

[実施例3]
実施例3は、実施例1と同様で、眼の運動に伴って継時的に移動する眼底における撮像領域の位置変化を検知して、この位置変化を補正するように照明光の向きを変更して、眼底での撮像位置を補正する追尾機能を、眼底撮像方法および装置に配している。実施例3では、これら追尾機能を活用して、複数のAO−SLO画像を効率的に取得し、これにより合成画像を相対的に短い時間で得るものである。
[Example 3]
The third embodiment is the same as the first embodiment, and detects the position change of the imaging region in the fundus that moves continuously with the eye movement, and changes the direction of the illumination light so as to correct this position change. A tracking function for correcting the imaging position on the fundus is provided in the fundus imaging method and apparatus. In the third embodiment, these tracking functions are utilized to efficiently acquire a plurality of AO-SLO images, thereby obtaining a composite image in a relatively short time.

以下、本発明の実施例3について説明する。本実施例では、実施例1で述べたステアリングでの撮影手順と、それに関係した眼底追尾プログラムにおける基準画像の設定方法が特徴となっている。なお、本実施例3に係る眼底撮像装置における構成は実施例1の装置構成と同じであるためここでの説明は省略する。   Embodiment 3 of the present invention will be described below. The present embodiment is characterized by the imaging procedure at the steering described in the first embodiment and the reference image setting method in the fundus tracking program related thereto. The configuration of the fundus imaging apparatus according to the third embodiment is the same as the apparatus configuration of the first embodiment, and a description thereof is omitted here.

図7は、本実施例で得られるAO−SLOの画像の画角を模式的に表した物である。
AO−SLOの撮像1回の画角600に対して、ステアリングを用いて撮像部位を移して4か所の撮像(画角600−1〜600−4での撮像)を行っている。画角600−1〜600−4は、図中の領域602で重なり合っている。この領域602の画像を用いて、画角600−1から600−4の位置合わせを行い、画像を結合する事で、結合画像601を得ている。結合画像601は、ディスプレイ118に提示される。このような画像の結合より、より広い画角のAO−SLOの画像が得られる。本実施例では、各々の画角600を撮像する際に、実施例1で述べた追尾機能を動作させる眼底追尾プログラムを用いている。より詳細には、撮像位置を切り替える毎に、追尾操作で用いる基準画像と目標位置とを順次設定している。
FIG. 7 schematically shows the angle of view of the AO-SLO image obtained in this embodiment.
With respect to the angle of view 600 for one AO-SLO imaging, the imaging region is moved using the steering to perform imaging at four locations (imaging at angles of view 600-1 to 600-4). The angles of view 600-1 to 600-4 overlap in a region 602 in the drawing. The combined image 601 is obtained by aligning the angles of view 600-1 to 600-4 using the image in the region 602 and combining the images. The combined image 601 is presented on the display 118. By combining such images, an AO-SLO image having a wider angle of view can be obtained. In the present embodiment, a fundus tracking program that operates the tracking function described in the first embodiment is used when each field angle 600 is imaged. More specifically, every time the imaging position is switched, a reference image and a target position used in the tracking operation are sequentially set.

以下、本実施例について、追尾機能を動作させた場合の処理手順を示すフローチャートである図8を用いて説明する。なお、図5に示した実施例1における追尾処理の各ステップと同様のステップに関しては、同様の参照番号を付記することとしてここでの詳細な説明を省略する。   Hereinafter, the present embodiment will be described with reference to FIG. 8 which is a flowchart showing a processing procedure when the tracking function is operated. In addition, about the step similar to each step of the tracking process in Example 1 shown in FIG. 5, the same reference number is attached and detailed description here is abbreviate | omitted.

本実施例におけるステップS200〜S209で行われる操作は、実施例1の場合の操作と同じである。ステップS207〜S209の操作が繰り返される間は、図4における点Aの位置を基準として、スキャナー109−1、109−2によるAO−SLO画像の取得のための照明光105の照射位置の補正が行われている。   The operations performed in steps S200 to S209 in the present embodiment are the same as the operations in the first embodiment. While the operations in steps S207 to S209 are repeated, the irradiation position of the illumination light 105 for acquiring the AO-SLO image by the scanners 109-1 and 109-2 is corrected with the position of the point A in FIG. Has been done.

この状態で、ステップS211において撮影位置(画角600)が設定される。ステップS212では、例えば設定された撮影位置である画角600−1に対応するように、スキャナー109−1、109−2各々のオフセット量を演算し、各々に対する位置指令にその演算結果が反映される。この際の演算では、光学系の収差による撮影位置の変化も反映させることが好ましい。   In this state, the shooting position (view angle 600) is set in step S211. In step S212, for example, the offset amounts of the scanners 109-1 and 109-2 are calculated so as to correspond to the angle of view 600-1 that is the set photographing position, and the calculation result is reflected in the position command for each. The In the calculation at this time, it is preferable to reflect the change in the photographing position due to the aberration of the optical system.

位置指令に応じてスキャナー109−1、109−2が照明光105の照射位置を変更した後、ステップS213において、設定された撮像画角600−1での眼底画像の撮像を行う。ステップS214では、全ての撮像位置の撮像が完了したかを判定する。本実施例の場合には、図7に示す撮像位置の全て(撮像画角600−1〜600−4)での撮像が完了しているか否かが判定される。完了していなければ、ステップS211に戻り、撮像位置を次の位置に変更して、その後ステップS211〜ステップS213の操作を繰り返す。全ての撮像位置(画角600)が撮像されているとステップS214で判定されると、フローはステップS215に移行する。   After the scanners 109-1 and 109-2 change the irradiation position of the illumination light 105 according to the position command, the fundus image is captured at the set imaging angle of view 600-1 in step S213. In step S214, it is determined whether imaging at all imaging positions has been completed. In the case of the present embodiment, it is determined whether or not the imaging at all the imaging positions shown in FIG. 7 (imaging angle of view 600-1 to 600-4) has been completed. If not completed, the process returns to step S211, the imaging position is changed to the next position, and then the operations in steps S211 to S213 are repeated. If it is determined in step S214 that all the imaging positions (view angle 600) have been imaged, the flow proceeds to step S215.

ステップS215では、取得した画像(画角600−1〜4)の全てについて画像処理を行って結合し、結合画像601を生成する。結合画像601が生成された後、フローはステップS210に移行し、追尾プログラムを終了させる。   In step S215, all the acquired images (view angles 600-1 to 4) are subjected to image processing and combined to generate a combined image 601. After the combined image 601 is generated, the flow moves to step S210 and ends the tracking program.

本実施例によれば、4か所の撮像位置の画像を撮像する場合であって、基準画像の設定や追尾機能の目標位置の設定は1回となっている。従って、4か所の撮像ごとにこれらをする方法よりも、処理コストが少なく、トータルの撮像時間が少なくなっている。これにより、被検者の撮像に関わる拘束時間を小さくできる。   According to the present embodiment, images at four imaging positions are captured, and the setting of the reference image and the setting of the target position of the tracking function are performed once. Therefore, the processing cost is lower and the total imaging time is shorter than the method of performing these for every four locations. Thereby, the restraint time concerning imaging of a subject can be made small.

[実施例4]
実施例4も、実施例3と同様に追尾機能を活用して、複数のAO−SLO画像を効率的に取得し、これにより合成画像を相対的に短い時間で得るものである。本実施例は、実施例3とは、撮像位置(画角600)を変更するたびに、基準画像と追尾操作において決定される目標位置とを再設定している点で異なっている。
[Example 4]
As in the third embodiment, the fourth embodiment also utilizes the tracking function to efficiently acquire a plurality of AO-SLO images, thereby obtaining a composite image in a relatively short time. The present embodiment differs from the third embodiment in that the reference image and the target position determined in the tracking operation are reset every time the imaging position (view angle 600) is changed.

以下、本実施例について、追尾機能を動作させた場合の処理手順を示すフローチャートである図9を用いて説明する。なお、図8に示した実施例3における追尾処理の各ステップと同様のステップに関しては、同様の参照番号を付記することとしてここでの詳細な説明を省略する。   Hereinafter, the present embodiment will be described with reference to FIG. 9 which is a flowchart showing a processing procedure when the tracking function is operated. In addition, about the step similar to each step of the tracking process in Example 3 shown in FIG. 8, the same reference number is attached and detailed description here is abbreviate | omitted.

本実施例では、ステップS213で所定の位置(画角600−1に対応)でのAO−SLO画像の撮像がなされた後に、ステップS214で全ての撮像位置(画角600−1〜600−4)の撮像が完了したか否かを判定する。完了していなければ、フローはステップS211に戻り、撮像位置を次の画角に対応する位置に変更して、ステップS211以降の操作を繰り返す。この際、ステップS201〜206の操作によって、基準画像取得と追尾機能による目標位置の再設定とが実行される。   In this embodiment, after the AO-SLO image is captured at a predetermined position (corresponding to the view angle 600-1) in step S213, all the image capture positions (view angles 600-1 to 600-4) are captured in step S214. It is determined whether the imaging of () is completed. If not completed, the flow returns to step S211, changes the imaging position to a position corresponding to the next angle of view, and repeats the operations after step S211. At this time, the reference image is acquired and the target position is reset by the tracking function by the operations in steps S201 to S206.

基準画像を設定してから、時間が経過してしまうと、WF−SLO画像の画質が変化し、その影響により位置検出の精度が低下することが考えられる。本実施例では、実施例3との場合と比較し、AO−SLO画像を撮像するタイミングに時間的に最近の基準画像を用いることで、位置検出の精度を向上させる効果を得ている。また、同様に、眼の動きについても最近の情報を得る事が可能となり、追尾操作に要する時間の短縮化の効果も期待できる。   If the time elapses after setting the reference image, the image quality of the WF-SLO image changes, and the influence of the influence may decrease the position detection accuracy. In this embodiment, compared to the case of the third embodiment, an effect of improving the accuracy of position detection is obtained by using a temporally recent reference image at the timing of capturing an AO-SLO image. Similarly, it is possible to obtain recent information on eye movement, and the effect of shortening the time required for the tracking operation can be expected.

[その他の実施例]
上述した実施例では、追尾機能で作用させるスキャナーとして、主走査用と副走査用に2つのガルバノスキャナー109−1、2を用い、これらによる照明光105の照射位置を変更させた。
[Other Examples]
In the above-described embodiment, two galvano scanners 109-1 and 109-2 are used for the main scanning and the sub-scanning as scanners operated by the tracking function, and the irradiation position of the illumination light 105 by these is changed.

これとは異なり、主走査用のスキャナーとして、共振スキャナーを用いる例もある。該共振スキャナーは走査速度が高速である反面、所定の周期を有する往復運動しかできず、眼の動きの様々な周波数(DC成分を含む)に応じて動かす事ができない。このため、追尾機能のために、主走査の方向に動作するガルバノスキャナーを追加する例がある。この構成においても、上述した実施例の構成や方法を適用することで、同様の効果が得られる。   In contrast, there is an example in which a resonance scanner is used as a main scanning scanner. While the resonant scanner has a high scanning speed, it can only reciprocate with a predetermined period and cannot move according to various frequencies of eye movement (including DC components). For this reason, there is an example in which a galvano scanner operating in the main scanning direction is added for the tracking function. Also in this configuration, the same effect can be obtained by applying the configuration and method of the above-described embodiment.

また、追尾機能で除去できなかった眼の動きの成分の補正のために、画像を取得した後に、画像処理による位置合わせ(レジストレーションとも言う)を実施する例もある。これにより、画像同士の相対位置のずれを小さくでき、重ね合せた時の位置ずれによって画像がボケる等の現象の防止が行える。   In addition, there is an example in which alignment (also referred to as registration) is performed by image processing after acquiring an image in order to correct an eye movement component that could not be removed by the tracking function. As a result, the relative position shift between the images can be reduced, and a phenomenon such as blurring of the image due to the position shift when the images are superimposed can be prevented.

なお、上述した実施例では、眼底画像の取得、被検出画像との位置ずれ検出、および中心位置の演算をWF−SLO201により取得された画像に基づいて実行している。また、第二の画像取得手段としてのAO−SLOにおける画像取得位置の補正を、該中心位置と演算後に得られる被検出画像とにより行っている。しかし、基準画像等の取得はWF−SLOによらず種々の眼底画像を得る装置によって取得可能であり、第二の画像取得手段もAO−SLOに限定されない。また、照明(測定)光を走査する走査型レーザ検眼鏡のAO−SLOとして実施例を挙げたが、光干渉断層像を取得できるOCTに対しても本発明は適用可能である。即ち、OCTにWF−SLOを付加的に設けて、本発明の追尾機能を持たせることでも同様の効果を得る事ができる。   In the embodiment described above, the acquisition of the fundus image, the detection of the positional deviation from the detected image, and the calculation of the center position are executed based on the image acquired by the WF-SLO 201. Further, the correction of the image acquisition position in the AO-SLO as the second image acquisition means is performed using the center position and the detected image obtained after the calculation. However, acquisition of a reference image or the like can be performed by an apparatus that obtains various fundus images regardless of WF-SLO, and the second image acquisition unit is not limited to AO-SLO. In addition, although an example has been given as AO-SLO of a scanning laser ophthalmoscope that scans illumination (measurement) light, the present invention can also be applied to OCT that can acquire an optical coherence tomographic image. That is, the same effect can be obtained by additionally providing the OCT with a WF-SLO to provide the tracking function of the present invention.

また、本発明は上述した実施例に限定されるものではなく、本発明の趣旨を逸脱しない範囲内において、更に種々の変形、変更を行って実施することも可能である。例えば、上述した実施例では、被検査物が被検眼眼底の場合について述べているが、被検眼の眼底以外の部位であってもよい。また、被検眼眼以外の皮膚や臓器等の被検査物であっても、高精細狭画角の画像の取得と、その追尾に用いるために低精細広画角の画像を取得する構成であれば本発明を適用することが可能である。この場合、本発明は眼科装置以外の、例えば内視鏡等の医療機器としての態様を有する。従って、本発明は眼科装置に例示される検査装置として把握され、被検眼は被検査物の一態様として把握されることが望ましい。   The present invention is not limited to the above-described embodiments, and various modifications and changes can be made without departing from the spirit of the present invention. For example, in the above-described embodiment, the case where the object to be inspected is the fundus of the eye to be inspected is described. In addition, even for an inspected object such as skin or organ other than the eye to be examined, it may be configured to acquire a high-definition, narrow-angle image for acquisition and tracking. The present invention can be applied. In this case, the present invention has an aspect as a medical device such as an endoscope other than the ophthalmologic apparatus. Therefore, it is desirable that the present invention is grasped as an inspection apparatus exemplified by an ophthalmologic apparatus, and the eye to be examined is grasped as one aspect of the object to be examined.

また、本発明は、上述した実施例の機能(例えば、上述した各部の処理を各工程に対応させたフローチャートにより示される処理)を実現するソフトウェアのプログラムコード、或いはこれを記録した記憶媒体を、システム或いは装置に供給することによっても実現できる。この場合、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が、コンピュータが読み取り可能に記憶媒体に格納されたプログラムコードを読み出し実行することにより、上述した機能を実現することもできる。また、1以上の機能を実現する回路(例えば、ASIC)によって実現することもできる。   In addition, the present invention provides a program code of software that realizes the functions of the above-described embodiments (for example, processing shown by a flowchart in which the processing of each unit described above is associated with each process), or a storage medium that records the program code. This can also be realized by supplying the system or apparatus. In this case, the above-described functions can be realized by the computer (or CPU or MPU) of the system or apparatus reading and executing the program code stored in the storage medium so that the computer can read it. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101:光源
108:波面補正装置
109:走査光学系
111:被検眼
114:光強度センサー
115:波面測定装置
116:補償光学制御部
117:制御部
201:WF−SLO
202:追尾制御部
305:基準画像
306:被検出画像
101: light source 108: wavefront correction device 109: scanning optical system 111: eye to be examined 114: light intensity sensor 115: wavefront measuring device 116: adaptive optics control unit 117: control unit 201: WF-SLO
202: Tracking control unit 305: Reference image 306: Image to be detected

Claims (11)

被検査物の所定の撮像範囲の画像を、前記被検査物の動きを測定する際の基準画像として取得する工程と、
前記基準画像として取得する工程とは異なる時間において取得される複数の被検出画像と、前記基準画像との位置ずれを検出する工程と、
前記位置ずれを検出する工程によって検出された位置ずれに統計処理を施して前記位置ずれの中心位置を演算する工程と、
前記中心位置と、前記中心位置を演算する工程の後に得られる前記被検出画像とに基づいて前記被検査物の画像の取得位置を補正する工程と、を含むことを特徴とする撮像方法。
Obtaining an image of a predetermined imaging range of the inspection object as a reference image for measuring the movement of the inspection object;
Detecting a positional deviation between a plurality of detected images acquired at a time different from the step of acquiring the reference image and the reference image;
Calculating the center position of the positional deviation by performing statistical processing on the positional deviation detected by the step of detecting the positional deviation;
And a step of correcting an acquisition position of an image of the inspection object based on the center position and the detected image obtained after the step of calculating the center position.
前記被検査物の画像の群を重ね合せて前記基準画像を得る重ね合わせる工程を含むことを特徴とする請求項1に記載の撮像方法。   The imaging method according to claim 1, further comprising a step of superimposing a group of images of the inspection object to obtain the reference image. 前記画像の群における各々の相対位置のずれ量を演算して前記ずれ量を補正する工程を含み、前記重ね合せる工程は前記補正する工程の後に行われることを特徴とする請求項2に記載の撮像方法。   3. The method according to claim 2, further comprising: calculating a deviation amount of each relative position in the group of images to correct the deviation amount, wherein the superimposing step is performed after the correcting step. Imaging method. 前記画像の群は、複数の前記被検査物の画像より画質指標を用いて抽出された画像からなることを特徴とする請求項2又は3に記載の撮像方法。   The imaging method according to claim 2 or 3, wherein the group of images includes images extracted from a plurality of images of the inspection object using an image quality index. 前記中心位置にオフセット量を加えて、前記所定の撮像範囲の内において取得しようとする画像の位置を設定する工程を含むことを特徴とする請求項1乃至4のいずれか一項に記載の撮像方法。   The imaging according to claim 1, further comprising: adding an offset amount to the center position to set a position of an image to be acquired within the predetermined imaging range. Method. 前記被検査物の画像を得る工程は、照明光を前記被検査物の上で走査する工程と、前記被検査物からの前記照明光の反射光の強度を検出する工程と、前記強度を基に画像を生成する工程とを含むことを特徴とする請求項1乃至5のいずれか一項に記載の撮像方法。   The step of obtaining an image of the inspection object includes a step of scanning illumination light on the inspection object, a step of detecting the intensity of reflected light of the illumination light from the inspection object, and the intensity based on the intensity. 6. The imaging method according to claim 1, further comprising: generating an image. 前記反射光の波面分布を検出する工程と、前記波面分布を補正する工程と、を含むことを特徴とする請求項6に記載の撮像方法。   The imaging method according to claim 6, comprising: detecting a wavefront distribution of the reflected light; and correcting the wavefront distribution. 請求項1乃至7のいずれか一項に記載の撮像方法の各工程をコンピュータに実行させることを特徴とするプログラム。   A program for causing a computer to execute each step of the imaging method according to any one of claims 1 to 7. 被検査物の所定の撮像範囲の画像を、前記被検査物の動きを測定する際の基準画像として取得する画像取得手段と、
前記基準画像として取得する取得手段とは異なる時間において取得される複数の被検出画像と、前記基準画像との位置ずれを検出するずれ検出手段と、
前記ずれ検出手段によって検出された位置ずれに統計処理を施して前記位置ずれの中心位置を演算する演算手段と、
前記中心位置と、前記演算手段の後に得られる前記被検出画像とに基づいて前記被検査物の画像の取得位置を補正する取得位置補正手段と、を有することを特徴とする撮像装置。
Image acquisition means for acquiring an image of a predetermined imaging range of the inspection object as a reference image for measuring the movement of the inspection object;
A plurality of detected images acquired at a time different from the acquisition unit acquired as the reference image, and a shift detection unit that detects a positional shift between the reference image,
Arithmetic means for performing a statistical process on the positional deviation detected by the deviation detecting means to calculate the center position of the positional deviation;
An imaging apparatus comprising: an acquisition position correction unit that corrects an acquisition position of an image of the inspection object based on the center position and the detected image obtained after the calculation unit.
前記画像取得手段とは異なる第二の画像を取得する第二の画像取得手段を有し、
前記取得位置補正手段は、前記中心位置と、前記中心位置の演算後に得られる前記被検出画像とに基づいて前記第二の画像の取得位置を補正することを特徴とする請求項9に記載の撮像装置。
A second image acquisition means for acquiring a second image different from the image acquisition means;
The acquisition position correction unit corrects the acquisition position of the second image based on the center position and the detected image obtained after the calculation of the center position. Imaging device.
前記被検査物は眼の眼底であって、
前記画像取得手段は前記眼底において前記所定の撮像範囲の前記基準画像、および前記所定の撮像範囲を所定の数に分割して得られる領域の画像である被検出画像を取得し、
前記第二の画像取得手段は、照明光を前記眼底の上で走査して前記所定の撮像範囲より狭い画角で前記基準画像より高精細な画像を得ることを特徴とする請求項10に記載の撮像装置。
The object to be examined is the fundus of the eye,
The image acquisition means acquires the reference image of the predetermined imaging range on the fundus and a detected image that is an image of an area obtained by dividing the predetermined imaging range into a predetermined number;
11. The second image acquisition unit according to claim 10, wherein the second image acquisition unit scans illumination light on the fundus to obtain a higher-definition image than the reference image with an angle of view narrower than the predetermined imaging range. Imaging device.
JP2016010644A 2016-01-22 2016-01-22 Imaging method, imaging apparatus, and program for executing the imaging method Pending JP2017127578A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016010644A JP2017127578A (en) 2016-01-22 2016-01-22 Imaging method, imaging apparatus, and program for executing the imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016010644A JP2017127578A (en) 2016-01-22 2016-01-22 Imaging method, imaging apparatus, and program for executing the imaging method

Publications (1)

Publication Number Publication Date
JP2017127578A true JP2017127578A (en) 2017-07-27

Family

ID=59394177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016010644A Pending JP2017127578A (en) 2016-01-22 2016-01-22 Imaging method, imaging apparatus, and program for executing the imaging method

Country Status (1)

Country Link
JP (1) JP2017127578A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190036720A (en) * 2017-09-28 2019-04-05 한국광기술원 Composite optical imaging apparatus for Ophthalmology and control method thereof
WO2020111323A1 (en) * 2018-11-29 2020-06-04 한국광기술원 Ophthalmological composite optical imaging apparatus and control method therefor
CN112137621A (en) * 2019-06-26 2020-12-29 西门子医疗有限公司 Determination of patient motion during medical imaging measurements

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190036720A (en) * 2017-09-28 2019-04-05 한국광기술원 Composite optical imaging apparatus for Ophthalmology and control method thereof
KR102004613B1 (en) * 2017-09-28 2019-07-26 한국광기술원 Composite optical imaging apparatus for Ophthalmology and control method thereof
WO2020111323A1 (en) * 2018-11-29 2020-06-04 한국광기술원 Ophthalmological composite optical imaging apparatus and control method therefor
CN111542257A (en) * 2018-11-29 2020-08-14 韩国光技术院 Ophthalmic composite optical image capturing apparatus and control method thereof
CN112137621A (en) * 2019-06-26 2020-12-29 西门子医疗有限公司 Determination of patient motion during medical imaging measurements
US11980456B2 (en) 2019-06-26 2024-05-14 Siemens Healthineers Ag Determining a patient movement during a medical imaging measurement

Similar Documents

Publication Publication Date Title
JP5955020B2 (en) Fundus imaging apparatus and method
JP5845608B2 (en) Ophthalmic imaging equipment
US10849499B2 (en) Ophthalmologic apparatus and method of controlling the same
JP6978165B2 (en) Eyeball imaging device
WO2014054394A1 (en) Ophthalmologic observation device
JP2023009530A (en) Image processing method, image processing device, and program
JP6224908B2 (en) Imaging device
JP2014097191A (en) Imaging apparatus, imaging method and program
JP6776076B2 (en) OCT device
JP6442960B2 (en) Fundus imaging device with wavefront compensation
JP7195769B2 (en) Imaging device and its operating method
JP2022184979A (en) Ophthalmic device
JP2022027879A (en) Ophthalmologic imaging device, control method thereof, program, and recording medium
JP2019201951A (en) Imaging apparatus and control method thereof
JP2017127578A (en) Imaging method, imaging apparatus, and program for executing the imaging method
JP7091018B2 (en) Tomographic image acquisition device and method
JP6279682B2 (en) Ophthalmic observation device
JP6906898B2 (en) Ophthalmologic imaging equipment
US11311189B2 (en) Ophthalmic imaging apparatus, controlling method thereof, ophthalmic imaging method, and recording medium
JP2017127580A (en) Examination apparatus and examination method
JP2016158708A (en) Ophthalmologic apparatus
JP2018023818A (en) Ophthalmological observation device
JP7050488B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP2021153786A (en) Image processing device, image processing method and program
JP2020151094A (en) Ophthalmologic apparatus

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20171214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180126