JP2017127580A - Examination apparatus and examination method - Google Patents

Examination apparatus and examination method Download PDF

Info

Publication number
JP2017127580A
JP2017127580A JP2016010662A JP2016010662A JP2017127580A JP 2017127580 A JP2017127580 A JP 2017127580A JP 2016010662 A JP2016010662 A JP 2016010662A JP 2016010662 A JP2016010662 A JP 2016010662A JP 2017127580 A JP2017127580 A JP 2017127580A
Authority
JP
Japan
Prior art keywords
image
slo
tracking
illumination light
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016010662A
Other languages
Japanese (ja)
Inventor
賢 恩田
Masaru Onda
賢 恩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016010662A priority Critical patent/JP2017127580A/en
Publication of JP2017127580A publication Critical patent/JP2017127580A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce positional deviations of moving images captured with a tracking function enabled and distortions in frame surfaces of such moving images.SOLUTION: Provided is an examination apparatus, comprising: image acquisition means for acquiring an image, based on return light from an object to be examined scanned with illumination light; detection means for detecting a positional deviation of the object to be examined when acquiring one frame of image of the object to be examined; tracking means for tracking the scanning position of the illumination light to correct the detected positional deviation; image splitting means for splitting the one frame of image into plural split images according to the time the positional deviation was detected; and image generation means for aligning each of the plural split images to generate a new image.SELECTED DRAWING: Figure 5

Description

本発明は、被検査物の検査に用いるための画像を得る検査装置、検査方法及び該検査方法をコンピュータに実行させるプログラムに関する。   The present invention relates to an inspection apparatus for obtaining an image to be used for inspection of an inspection object, an inspection method, and a program for causing a computer to execute the inspection method.

近年、眼科用の撮像装置として、SLO(Scanning Laser Ophthalmoscope:走査レーザ検眼鏡)やOCT(Optical Coherence Tomography:光干渉断層装置)が用いられている。SLOは、眼底へ照射されたレーザ光を2次元的に走査し、その反射光を受光して画像化する装置である。OCTは、低コヒーレンス光の干渉を利用したイメージング装置であって、特に、眼底あるいはその近傍の断層像を得る目的で用いられている。   In recent years, SLO (Scanning Laser Ophthalmoscope) and OCT (Optical Coherence Tomography) have been used as an imaging apparatus for ophthalmology. The SLO is an apparatus that scans a laser beam irradiated to the fundus two-dimensionally and receives reflected light to form an image. OCT is an imaging device that uses interference of low-coherence light, and is used particularly for the purpose of obtaining a tomographic image of the fundus or its vicinity.

このような眼科用の撮像装置は、近年、照射レーザの高NA化等によって、高解像度化が進められている。ここで、眼底の画像を撮像する場合には、角膜や水晶体等の眼の光学組織を通して撮像をしなければならない。そのため、高解像度化が進むに連れて、これら光学組織の収差による撮像画像の画質への影響が顕著になってきた。   In recent years, such an ophthalmic imaging apparatus has been improved in resolution by increasing the NA of an irradiation laser. Here, when an image of the fundus is captured, the image must be captured through the optical tissue of the eye such as the cornea or the crystalline lens. For this reason, as the resolution increases, the influence on the image quality of the captured image due to the aberration of these optical tissues has become remarkable.

そこで、眼の収差を測定し、その収差を補正する補償光学(Adaptive Optics:AO)機能を光学系に組み込んだ、AO-SLOやAO-OCTの研究が進められている。例えば、非特許文献1に、AO-OCTの例が示されている。該AO-OCTでは、シャックハルトマン方式の波面センサーによって眼の収差が表現される波面を測定し、この波面を可変形状ミラー等の波面補正装置により補正している。このような補償光学系を通して眼底の撮像を行うことにより、AO-SLOやAO-OCTは、眼の収差の影響を低減した高分解能な画像の撮像を可能としている。   Therefore, research on AO-SLO and AO-OCT in which an adaptive optics (AO) function for measuring aberration of the eye and correcting the aberration is incorporated in the optical system is underway. For example, Non-Patent Document 1 shows an example of AO-OCT. In the AO-OCT, a wavefront that expresses eye aberration is measured by a Shack-Hartmann wavefront sensor, and the wavefront is corrected by a wavefront correction device such as a deformable mirror. By performing imaging of the fundus through such an adaptive optical system, AO-SLO and AO-OCT enable high-resolution imaging with reduced effects of eye aberrations.

また、これらの眼科用の撮像装置では、固視標と呼ばれる指標を被検者に提示し、該固視標を注視させることで撮像中の眼の動きを抑制し、所望の撮像位置の画像を得ようとしている。しかし、被検眼は、通常は視覚を維持するために不随意的に常に繰り返される固視微動と称呼される微小な眼球運動を行っている。また、固視標を注視し続けることは、被検者にとって集中力の維持や疲労等の問題で難しい。更に、被検者が眼に疾患をもっている場合、視力低下や視野狭窄などがあって、眼の動きが大きくなってしまう。   Further, in these ophthalmic imaging devices, an index called a fixation target is presented to the subject, and the eye movement during imaging is suppressed by gazing at the fixation target, and an image at a desired imaging position is obtained. Trying to get. However, the eye to be examined normally performs minute eye movements called fixation microtremors that are involuntarily repeated in order to maintain vision. Moreover, it is difficult for the subject to keep a close eye on the fixation target due to problems such as maintenance of concentration and fatigue. Furthermore, when the subject has a disease in the eye, there is a reduction in visual acuity, narrowing of the visual field, and the movement of the eye becomes large.

このような固視微動等への対処として、被検眼の動きを測定し、この動きに追尾(トラッキングとも言う)するように眼底でのレーザ光の照射位置をリアルタイムに変更する眼底追尾技術がある。例えば特許文献1に開示される追尾技術では、追尾の際の基準となる画像をリファレンスイメージとして設定している。そして、撮像により眼底から時々刻々得られるターゲットイメージと、該リファレンスイメージとの相対的な位置ずれを演算している。眼底でのレーザ光の走査位置はスキャナにより動かしているが、この演算された位置ずれを加味して走査位置を補正することで、被検眼の動きの影響を抑制した画像を得ている。   As a countermeasure for such fixation fixation, there is a fundus tracking technique that measures the movement of the eye to be examined and changes the irradiation position of the laser light on the fundus in real time so as to track the movement (also referred to as tracking). . For example, in the tracking technique disclosed in Patent Document 1, an image serving as a reference for tracking is set as a reference image. Then, a relative positional shift between the target image obtained from the fundus every moment by imaging and the reference image is calculated. The scanning position of the laser beam on the fundus is moved by a scanner. By correcting the scanning position in consideration of the calculated positional deviation, an image in which the influence of the movement of the eye to be examined is suppressed is obtained.

US2015/0077710A1US2015 / 0077710A1

Y.Zhang et al,Optics Express,Vol.14,No.10,15 May2006Y. Zhang et al, Optics Express, Vol. 14, no. 10, 15 May 2006

上述した相対的な位置ずれの演算とその結果に基づくレーザ光走査位置の補正とは、レーザ光の一走査線の実行毎に行われるわけではなく、複数の走査線からから成る二次元画像(平面画像)が得られた段階で行われる。このため、固視微動等によるレーザ光走査位置のずれは、複数の走査線を得ている間に積算されることとなる。従って、固視の悪い被検眼の場合、眼底追尾によるレーザ光の照射位置を補正して変更するタイミングにおける実際の眼の動きと、補正される位置ずれとの間に差が生じることが考えられる。このような差は、撮像される画像或いは動画像において、位置ずれやフレーム面内の歪みを生じさせる。   The above-described calculation of the relative positional deviation and the correction of the laser beam scanning position based on the result are not performed every time one scanning line of the laser beam is executed, but a two-dimensional image composed of a plurality of scanning lines ( This is performed at the stage when a flat image is obtained. For this reason, the shift of the laser beam scanning position due to fixation fine movement or the like is accumulated while obtaining a plurality of scanning lines. Therefore, in the case of the subject's eye with poor fixation, there may be a difference between the actual eye movement at the timing of correcting and changing the laser light irradiation position by tracking the fundus and the corrected positional deviation. . Such a difference causes a positional shift or distortion in the frame plane in the captured image or moving image.

本発明は、上述した状況に鑑みたものであって、追尾機能を動作させて撮像された画像の位置ずれやフレーム面内の歪みを低減することを目的としている。   The present invention has been made in view of the above-described situation, and an object thereof is to reduce a positional deviation or distortion in a frame plane of an image captured by operating a tracking function.

上述した課題を解決するために、本発明の一実施態様に係る検査装置は、
照明光により走査した被検査物からの戻り光に基づいて画像を取得する画像取得手段と、
前記被検査物の一枚の画像を取得する際に、前記被検査物の位置ずれを検出する検出手段と、
前記検出された位置ずれを補正するように前記照明光の走査位置を追尾させる追尾手段と、
前記追尾させた時刻に応じて前記一枚の画像を複数の分割画像に分割する画像分割手段と、
前記複数の分割画像各々について位置合わせして新たな画像を生成する画像生成手段と、を有することを特徴とする。
In order to solve the above-described problem, an inspection apparatus according to an embodiment of the present invention includes:
Image acquisition means for acquiring an image based on return light from the inspection object scanned with illumination light;
Detecting means for detecting a positional deviation of the inspection object when acquiring an image of the inspection object;
Tracking means for tracking the scanning position of the illumination light so as to correct the detected displacement;
Image dividing means for dividing the one image into a plurality of divided images according to the time of tracking;
Image generating means for aligning each of the plurality of divided images and generating a new image.

本発明によれば、追尾機能を動作させて撮像された動画像の位置ずれやフレーム面内の歪みを低減できる。   According to the present invention, it is possible to reduce the displacement of the moving image captured by operating the tracking function and the distortion in the frame plane.

本発明の第一の実施例に係る眼底撮像装置(SLO)の構成の概略を示す模式図である。It is a schematic diagram which shows the outline of a structure of the fundus imaging apparatus (SLO) according to the first embodiment of the present invention. 第一の実施例において追尾動作の実行に用いるWF-SLO画像を説明する図である。It is a figure explaining the WF-SLO image used for execution of tracking operation in the 1st example. 第一の実施例における追尾動作を説明するフローチャートである。It is a flowchart explaining the tracking operation | movement in a 1st Example. 第一の実施例における画像処理動作を説明するフローチャートである。It is a flowchart explaining the image processing operation in a 1st Example. AO-SLO画像をフレーム分割して位置合せする処理の説明図である。It is explanatory drawing of the process which divides | segments an AO-SLO image into a frame and aligns it. 本発明の第二の実施例における画像処理動作を説明するフローチャートである。It is a flowchart explaining the image processing operation | movement in the 2nd Example of this invention.

以下、本発明の実施例について、図面を参照しつつ説明する。なお、以下の実施例は特許請求の範囲に関わる本発明を限定するものではなく、また、以下の実施例で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。   Embodiments of the present invention will be described below with reference to the drawings. The following examples do not limit the present invention related to the scope of claims, and all combinations of features described in the following examples are essential to the solution means of the present invention. Not exclusively.

また、以下の実施例では、眼科撮像装置としてAO-SLOとWF-SLOとを有する構成について述べている。しかし、本発明の適用対象は当該構成に限ったものではなく、上述したOCT、AO-OCT、或いはAO-SLO単体からなる装置、或いはこれらを組み合わせてなる複合装置等、被検眼を照明光で走査する眼科撮像装置一般に適用できる。   In the following embodiments, a configuration having an AO-SLO and a WF-SLO as an ophthalmic imaging apparatus is described. However, the application target of the present invention is not limited to this configuration, and the eye to be examined is illuminated with illumination light, such as the above-described OCT, AO-OCT, AO-SLO single device, or a combination device combining these. Applicable to general ophthalmic imaging apparatus for scanning.

[第一の実施例]
以下、図面を参照し、本発明の第一の実施例に係るSLOについて説明する。図1は、本発明の第一の実施例に係る眼底撮像装置(SLO)の構成の概略を示す模式図である。
[First embodiment]
The SLO according to the first embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a schematic diagram showing an outline of the configuration of the fundus imaging apparatus (SLO) according to the first embodiment of the present invention.

図1に例示される本実施例に係る眼底撮像装置において、眼底画像を得るための撮像用の構成は二つある。一方は、高精細画像を得るための補償光学系を適用した走査型レーザ検眼鏡(AO-SLO:Adaptive Optics Scanning LASER Ophthalmoscope)である。他方は、補償光学を適用していない走査型レーザ検眼鏡(WF-SLO:Wide Field Scanning LASER Ophthalmoscope)である。WF-SLOは、AO-SLOよりも得られる画像において解像度で劣る反面、AO-SLOよりも撮像画角が広いという特徴を有している。これらは照明光により走査した被検眼からの戻り光に基づいて画像を取得する画像取得手段を構成し、AO-SLOは本実施例における第一の画像取得手段を、WF-SLOは第二の画像取得手段を構成する。   In the fundus imaging apparatus according to this embodiment illustrated in FIG. 1, there are two imaging configurations for obtaining a fundus image. One is a scanning laser ophthalmoscope (AO-SLO) to which an adaptive optical system for obtaining a high-definition image is applied. The other is a scanning laser ophthalmoscope (WF-SLO) that does not apply adaptive optics. WF-SLO is inferior in resolution in an image obtained than AO-SLO, but has a characteristic that the imaging angle of view is wider than that of AO-SLO. These constitute image acquisition means for acquiring an image based on return light from the eye to be scanned scanned with illumination light. AO-SLO is the first image acquisition means in this embodiment, and WF-SLO is the second image acquisition means. An image acquisition unit is configured.

ここで、本実施例で用いているAO-SLOについて図1を用いて説明する。
本AO-SLOでは、照明光を発する光源101として、波長840nmのSLD光源(Super Luminescent Diode)を用いている。光源101の波長は特に制限されるものではないが、眼底撮像用としては被検者の眩しさの軽減と分解能維持のために、800〜1500nm程度の波長の光が好適に用いられる。なお、本実施例においてはSLD光源を用いたが、その他の光源を用いる事も可能である。
Here, the AO-SLO used in this embodiment will be described with reference to FIG.
In this AO-SLO, an SLD light source (Super Luminescent Diode) having a wavelength of 840 nm is used as the light source 101 that emits illumination light. Although the wavelength of the light source 101 is not particularly limited, light having a wavelength of about 800 to 1500 nm is preferably used for fundus imaging in order to reduce the glare of the subject and maintain resolution. In this embodiment, the SLD light source is used, but other light sources can also be used.

光源101から照射された光は、単一モード光ファイバー102を通ってコリメータレンズ103に入射し、コリメータレンズ103によって平行光線(照明光105)として照明光路に照射される。照射された照明光105はビームスプリッターからなる光分割部104を透過し、補償光学系に導光される。   The light emitted from the light source 101 enters the collimator lens 103 through the single mode optical fiber 102, and is irradiated onto the illumination optical path as a parallel light beam (illumination light 105) by the collimator lens 103. The irradiated illumination light 105 is transmitted through the light splitting unit 104 formed of a beam splitter and guided to the compensation optical system.

補償光学系は、光分割部106、波面測定装置115、波面補正装置108及び、それらに照明光等を導光するための反射ミラー107−1〜4から構成される。ここで、反射ミラー107−1〜4は、少なくとも眼111の瞳と波面測定装置115、及び眼111の瞳と波面補正装置108が光学的に共役関係になるように配置されている。波面測定装置115は、本実施例において戻り光の波面を検出する波面検出手段を構成する。また、光分割部106として、本実施例ではビームスプリッターを用いている。光分割部106を透過した照明光105は、反射ミラー107−1と107−2で反射されて波面補正装置108に入射する。波面補正装置108で反射された照明光105は、反射ミラー107−3に出射される。   The compensation optical system includes a light dividing unit 106, a wavefront measuring device 115, a wavefront correcting device 108, and reflection mirrors 107-1 to 107-4 for guiding illumination light and the like to them. Here, the reflection mirrors 107-1 to 107-4 are arranged so that at least the pupil of the eye 111 and the wavefront measuring device 115 and the pupil of the eye 111 and the wavefront correcting device 108 are optically conjugate. The wavefront measuring device 115 constitutes wavefront detecting means for detecting the wavefront of the return light in this embodiment. Further, as the light splitting unit 106, a beam splitter is used in this embodiment. The illumination light 105 transmitted through the light splitting unit 106 is reflected by the reflection mirrors 107-1 and 107-2 and enters the wavefront correction device 108. The illumination light 105 reflected by the wavefront correction device 108 is emitted to the reflection mirror 107-3.

本実施例では、戻り光の波面を補正する波面補正手段を構成する波面補正装置108として、液晶素子を用いた反射型の空間位相変調器を用いた。しかし、波面補正手段としてはこれに限定されず、ミラーの形状が可変となっている可変形状ミラー(デフォーマブルミラーとも言う)でも良い。即ち、波面が補正できるものであれば、用いる構成はこれらに限定されない。   In this embodiment, a reflective spatial phase modulator using a liquid crystal element is used as the wavefront correction device 108 constituting wavefront correction means for correcting the wavefront of the return light. However, the wavefront correction means is not limited to this, and may be a deformable mirror (also referred to as a deformable mirror) whose mirror shape is variable. That is, as long as the wavefront can be corrected, the configuration to be used is not limited to these.

図1において、反射ミラー107−3、4で反射された照明光105は、走査光学系109−1、2によって、一次元もしくは二次元に走査される。本実施例では二次元眼底画像の撮像を目的とした照明光の主走査用(眼底の水平方向での走査用)として共振スキャナ109−1を、副走査用(眼底の鉛直方向での走査用)としてチップチルトミラー109−2を用いた。またチップチルトミラー109−2は、追尾を目的とした照明光の走査位置を変更して撮像位置を補正する手段(眼底の水平、鉛直の両方向)を兼ねている。チップチルトミラー109−2は、照明光105が入射する光軸に対して所定の角度で傾けられた待機角度に通常維持され、被検眼が眼底撮像装置とアライメントされた状態で、照明光105を反射する向きは該照明光105を走査する際の走査中心に向いている。照明光105による眼底の走査では、この待機角度から所定の角度範囲での往復動作をして照明光105の反射方向を変えている。実際の追尾では、この走査中心の向きを変えることにより、後述する検知された位置ずれを補正するように、照明光の走査方向を眼111の動きに合せて追尾させる。また、チップチルトミラー109−2は追尾制御部121と接続されており、この走査中心の向きを変える動作は該追尾制御部121からの指示に基づいて実行される。   In FIG. 1, the illumination light 105 reflected by the reflection mirrors 107-3 and 4 is scanned one-dimensionally or two-dimensionally by the scanning optical systems 109-1 and 109-2. In this embodiment, the resonance scanner 109-1 is used for main scanning of illumination light (for scanning in the horizontal direction of the fundus) for the purpose of capturing a two-dimensional fundus image, and sub-scanning (for scanning in the vertical direction of the fundus). ) Was used as a tip tilt mirror 109-2. The chip tilt mirror 109-2 also serves as means for correcting the imaging position by changing the scanning position of the illumination light for tracking (both horizontal and vertical directions of the fundus). The tip tilt mirror 109-2 is normally maintained at a standby angle inclined at a predetermined angle with respect to the optical axis on which the illumination light 105 is incident, and the illumination light 105 is emitted while the eye to be examined is aligned with the fundus imaging apparatus. The direction of reflection is directed to the scanning center when the illumination light 105 is scanned. In scanning the fundus with the illumination light 105, the reflection direction of the illumination light 105 is changed by reciprocating within a predetermined angle range from the standby angle. In actual tracking, by changing the direction of the scanning center, the scanning direction of the illumination light is tracked in accordance with the movement of the eye 111 so as to correct a detected positional deviation described later. The tip tilt mirror 109-2 is connected to the tracking control unit 121, and the operation of changing the direction of the scanning center is executed based on an instruction from the tracking control unit 121.

なお、本実施例では、走査手段として共振スキャナとチップチルトミラーの組み合わせを用いている。しかし走査手段の構成はこれに限定されず、ガルバノミラー等その他の走査光学用のミラーを組み合わせて用いてもよい。具体的な例としては、一個の共振スキャナと二個等複数のガルバノミラーによって、本実施例の走査手段と同様の機能を確保することが考えられる。更に走査光学系として用いたこれら構成において照明光を反射させ走査する各ミラーを眼底等と光学的な共役状態にするために、各スキャナの間にミラーやレンズといった光学素子を用いる構成とする場合も考えられる。   In this embodiment, a combination of a resonant scanner and a chip tilt mirror is used as the scanning means. However, the configuration of the scanning means is not limited to this, and other scanning optical mirrors such as a galvanometer mirror may be used in combination. As a specific example, it is conceivable to secure the same function as the scanning means of this embodiment by using one resonance scanner and two or more galvanometer mirrors. Furthermore, in these configurations used as scanning optical systems, in order to make each mirror that reflects and scans illumination light into an optically conjugate state with the fundus etc., an optical element such as a mirror or lens is used between each scanner. Is also possible.

走査光学系109−1、2で偏向された照明光105は、接眼レンズ110−1及び110−2を通して眼111に照射される。眼111に照射された照明光105は、眼底で反射若しくは散乱される。接眼レンズ110−1及び110−2の位置を調整することによって、眼111の視度にあわせて、眼底に対しての照明光の最適な照射を行うことができる。なお、本実施例では接眼部にレンズを用いたが、これらレンズに代えて接眼部を球面ミラー等で構成しても良い。   The illumination light 105 deflected by the scanning optical systems 109-1 and 109-2 is irradiated to the eye 111 through the eyepiece lenses 110-1 and 110-2. The illumination light 105 irradiated to the eye 111 is reflected or scattered by the fundus. By adjusting the positions of the eyepieces 110-1 and 110-2, it is possible to optimally irradiate the fundus with illumination light in accordance with the diopter of the eye 111. In this embodiment, a lens is used for the eyepiece, but the eyepiece may be constituted by a spherical mirror or the like instead of these lenses.

眼111の眼底の網膜から反射もしくは散乱された反射光は、入射した時の照明光105の経路を逆向きに進行する。該反射光は、更に光分割部106によって一部が波面測定装置115に反射される。波面測定装置115に導かれた一部の反射光からなる光線は、該光線の波面分布を測定するために用いられる。   The reflected light reflected or scattered from the retina of the fundus of the eye 111 travels in the reverse direction along the path of the illumination light 105 when it is incident. A part of the reflected light is further reflected by the light splitting unit 106 to the wavefront measuring device 115. The light beam composed of a part of the reflected light guided to the wavefront measuring device 115 is used to measure the wavefront distribution of the light beam.

なお、本実施例では、波面測定手段を構成する波面測定装置115としてシャックハルトマンセンサーを用いた。なお、本実施例では波面測定手段としてシャックハルトマンセンサーを用いたが、波面を測定する方法は該波面測定手段の使用に限定されるものではない。例えば、曲率センサーのような他の波面測定手段を用いて、結像させた点像から逆計算で波面を求めるような方法を用いる等しても良い。   In this embodiment, a Shack-Hartmann sensor is used as the wavefront measuring device 115 constituting the wavefront measuring means. In this embodiment, the Shack-Hartmann sensor is used as the wavefront measuring means, but the method for measuring the wavefront is not limited to the use of the wavefront measuring means. For example, a method of obtaining a wavefront by inverse calculation from an imaged point image using other wavefront measuring means such as a curvature sensor may be used.

図1において、光分割部106を透過した反射光は光分割部104によって一部が反射され、反射された光はコリメータ112及び光ファイバー113を通して光強度センサー114に導光される。照明光により走査した眼111からの戻り光である当該光は光強度センサー114で電気信号に変換され、制御部117によって光の強度を配列化した画像が構成される。本実施例では平面画像である該画像は更に制御部117によって不図示のメモリに保存され、後述の画像処理を行った後に、眼底画像として表示手段であるディスプレイ118に表示される。   In FIG. 1, a part of the reflected light transmitted through the light dividing unit 106 is reflected by the light dividing unit 104, and the reflected light is guided to the light intensity sensor 114 through the collimator 112 and the optical fiber 113. The light that is the return light from the eye 111 scanned with the illumination light is converted into an electrical signal by the light intensity sensor 114, and an image in which the light intensity is arranged is configured by the control unit 117. In this embodiment, the image, which is a planar image, is further stored in a memory (not shown) by the control unit 117 and is displayed as a fundus image on the display 118, which is a display unit, after performing image processing described later.

波面測定装置115は補償光学制御部116に接続され、該波面測定装置115にて測定した波面分布を補償光学制御部116に伝える。波面補正装置108も補償光学制御部116に接続されており、伝えられた波面分布を補償するように補償光学制御部116からの指示に応じて波面分布の空間的な位相変調を行う。より詳細には、補償光学制御部116は波面測定装置115で測定された波面分布を基に、収差のない波面分布へと補正するような補正量を計算し、波面補正装置108に対してその計算結果に対応した補正状態を作るよう指令する。   The wavefront measuring device 115 is connected to the adaptive optics control unit 116 and transmits the wavefront distribution measured by the wavefront measuring device 115 to the adaptive optics control unit 116. The wavefront correction device 108 is also connected to the adaptive optics controller 116, and performs spatial phase modulation of the wavefront distribution in accordance with an instruction from the adaptive optics controller 116 so as to compensate the transmitted wavefront distribution. More specifically, the adaptive optics control unit 116 calculates a correction amount for correcting to a wavefront distribution having no aberration based on the wavefront distribution measured by the wavefront measuring device 115, and the wavefront correcting device 108 receives the correction amount. Command to create a correction state corresponding to the calculation result.

上述したように、眼底撮像装置においては光学系の一部に被検眼が含まれていることで、光学系が不確定な状態となる。このため、一般的に1回の波面分布の測定及び補正では、小さな収差の波面分布に到達することは困難である。従って、波面分布の測定と補正とを繰り返し、撮像可能な収差まで波面分布を収束させながら補正を実行する。本実施例では、このような動作を行うことによって、照明光が眼底に至るまでの光路の収差を小さくでき、眼底に集光するスポットの大きさを小さくできる。その結果として、空間的な分解能が高い画像を得ている。   As described above, in the fundus imaging apparatus, since the eye to be examined is included in a part of the optical system, the optical system becomes indeterminate. For this reason, it is generally difficult to reach a wavefront distribution with small aberrations by measuring and correcting the wavefront distribution once. Therefore, the measurement and correction of the wavefront distribution are repeated, and correction is executed while converging the wavefront distribution to the aberration that can be imaged. In this embodiment, by performing such an operation, it is possible to reduce the aberration of the optical path until the illumination light reaches the fundus, and to reduce the size of the spot condensed on the fundus. As a result, an image with high spatial resolution is obtained.

ここで、本実施例において用いられているWF-SLO120について説明する。WF-SLOの構成は、基本的にはこれまで説明してきたAO-SLOの構成と同じである。WF-SLO120は、上述した波面測定装置、波面補正装置、及び補償光学制御部が無い構成であることにおいて上述したAO-SLOと相違している。前述したように、本実施例においてWF-SLO120で撮像する画像の画角は、AO-SLOの画角よりも広くなっている。また、WF-SLO120で撮像する画像の解像度は、AO-SLOの解像度よりも劣っている。つまり、本実施例においてWF-SLO120によれば低解像度で広画角な画像が、AO-SLOによれば高解像度で狭画角な画像が得られる。   Here, the WF-SLO 120 used in this embodiment will be described. The configuration of WF-SLO is basically the same as the configuration of AO-SLO described so far. The WF-SLO 120 is different from the above-described AO-SLO in that the wavefront measurement device, the wavefront correction device, and the adaptive optics control unit are not provided. As described above, in this embodiment, the angle of view of the image captured by the WF-SLO 120 is wider than that of the AO-SLO. Further, the resolution of the image captured by the WF-SLO 120 is inferior to the resolution of the AO-SLO. That is, in this embodiment, the WF-SLO 120 can obtain a low-resolution and wide-angle image, and the AO-SLO can obtain a high-resolution and narrow-angle image.

WF-SLO120に使用している照明光を発する光源の波長は、900nmとなっている。AO-SLOにおける照明光の光路中には、ダイクロイックミラー119が配置されている。WF-SLO120からの照明光は該ダイクロイックミラー119によって反射され、AO-SLOの照明光と合波される。合波された光は、接眼レンズ110−1、2を経て、眼111に照射される。眼111に照射された光は、眼のレンズである水晶体によって、眼底上に集光され、眼底で反射されて眼底撮像装置に戻ってくる。眼111より戻ってきた光は、波長帯域に応じて、ダイクロイックミラー119によってWF-SLO120に向かう光とAO-SLOの光路に向かう光とに分離され、各々の光学系に導光される。   The wavelength of the light source that emits the illumination light used in the WF-SLO 120 is 900 nm. A dichroic mirror 119 is disposed in the optical path of the illumination light in the AO-SLO. The illumination light from the WF-SLO 120 is reflected by the dichroic mirror 119 and combined with the illumination light of the AO-SLO. The combined light is applied to the eye 111 through the eyepieces 110-1 and 110-2. The light irradiated to the eye 111 is condensed on the fundus by a crystalline lens that is an eye lens, reflected by the fundus, and returned to the fundus imaging apparatus. The light returned from the eye 111 is separated into light directed to the WF-SLO 120 and light directed to the optical path of the AO-SLO by the dichroic mirror 119 according to the wavelength band, and is guided to each optical system.

WF-SLO120では、得られた反射光の強度を配列化し、眼底の画像を構成し、取得する。WF-SLO120により取得される画像(WF画像と呼ぶ)の例を、図2(a)に示す。同図に示すように、得られたWF画像では、視神経乳頭200、血管201、及び中心窩の存在する領域202が同時に画像化されている。また、該WF-SLO120は、追尾制御部121と接続されている。前述した固視微動等の眼の運動によって照明光105の走査位置は予定していた位置からずれ、眼底における所望の領域の画像ではなく眼の運動に応じて該領域よりずれた領域の画像が得られることとなる。追尾制御部121は、以下に述べるようにWF画像からこのずれの大きさや方向を得、所望の領域の画像が得られるように、走査手段に対して照明光の走査位置を変える指示を出す。ここでは、以上に述べた所望の領域の画像を得るための動作を、照明光の走査位置を追尾する動作と称する。   In WF-SLO120, the intensity | strength of the obtained reflected light is arranged, a fundus image is comprised and acquired. An example of an image (referred to as a WF image) acquired by the WF-SLO 120 is shown in FIG. As shown in the figure, in the obtained WF image, the optic disc 200, the blood vessel 201, and the region 202 where the fovea exists are simultaneously imaged. The WF-SLO 120 is connected to the tracking control unit 121. The scanning position of the illumination light 105 is deviated from the planned position due to the eye movement such as the above-mentioned fixation fine movement, and the image of the area deviated from the area according to the eye movement is not an image of a desired area on the fundus. Will be obtained. The tracking control unit 121 obtains the magnitude and direction of this shift from the WF image as described below, and instructs the scanning unit to change the scanning position of the illumination light so that an image of a desired region can be obtained. Here, the operation for obtaining the image of the desired region described above is referred to as an operation for tracking the scanning position of the illumination light.

なお、図示されていないが、眼底撮像装置においては、眼の動きを小さくするために被検者に注視させて固視を促す固視標が、被検者に対して提示される。該固視標を被検者に提示する手段は、例えば有機ELディスプレイを用いて構成される。この固視標の提示位置は変更できるようになっており、該提示位置を変える事で、眼の向きを変更する。このように眼の向きを変えることによって、WF-SLO120とAO-SLOの照明光が眼底上で集光する箇所を変更し、撮像する位置を変更できるようになっている。本実施例では、固視標の提示に有機ELディスプレイを用いているが、これに限定されず、液晶ディスプレイや蛍光表示管などを使用してもよい。   Although not shown in the drawing, in the fundus imaging apparatus, a fixation target that prompts the subject to fixate his eyes to reduce eye movement is presented to the subject. The means for presenting the fixation target to the subject is configured using, for example, an organic EL display. The presentation position of the fixation target can be changed, and the direction of the eyes is changed by changing the presentation position. By changing the direction of the eye in this way, the location where the illumination light of the WF-SLO 120 and the AO-SLO is condensed on the fundus can be changed, and the position to be imaged can be changed. In this embodiment, an organic EL display is used for presenting the fixation target, but the present invention is not limited to this, and a liquid crystal display, a fluorescent display tube, or the like may be used.

ここで、眼の運動による照明光の照射位置の変化を検知して、眼の運動の影響を補正するように照明光のスキャナによる走査位置を変更して、撮像位置を補正する追尾機能について説明する。本実施例における追尾機能について、これを実行する追尾動作を示す図3のフローチャートを用いて説明する。なお、この追尾機能についての処理フローは、上述したように図1に示す追尾制御部121によって制御される。該追尾制御部121及びチップチルトミラー109−2等は、本実施例において、検出した位置ずれを補正するように照明光の走査位置を追尾させる追尾手段を構成する。また、追尾制御部121は、追尾機能のリアルタイム性を実現するため、高速な処理演算が可能であるGPU(Graphic Processor Unit)やFPGA(Field Programmable Gate Array)などを用いることが好ましい。   Here, the tracking function for correcting the imaging position by detecting the change of the illumination light irradiation position due to the eye movement and changing the scanning position of the illumination light scanner so as to correct the influence of the eye movement is described. To do. The tracking function in the present embodiment will be described with reference to the flowchart of FIG. 3 showing the tracking operation for executing the tracking function. Note that the processing flow for this tracking function is controlled by the tracking control unit 121 shown in FIG. 1 as described above. In the present embodiment, the tracking control unit 121, the chip tilt mirror 109-2, and the like constitute tracking means for tracking the scanning position of the illumination light so as to correct the detected positional deviation. The tracking control unit 121 preferably uses a GPU (Graphic Processor Unit) or an FPGA (Field Programmable Gate Array) that can perform high-speed processing operations in order to realize the real-time performance of the tracking function.

追尾機能が開始されると、ステップS301で、追尾制御部121はWF-SLO120を用いて、図2(a)に示すWF画像の全体を画像化したWF-SLO基準画像203を取得する。ここで、図2(a)におけるX方向は眼底における照明光の主走査方向、Y方向は副走査方向に対応する。WF画像の取得に際しては、主走査方向において照明光105を走査して一スキャンラインの強度情報を得る毎に、副走査方向に照明光105の照射位置をずらす走査を行う。ステップS301では、副走査方向に照射位置をずらす走査を一スキャンして得られる画像を基準画像として表示したことになる。   When the tracking function is started, in step S301, the tracking control unit 121 uses the WF-SLO 120 to acquire the WF-SLO reference image 203 obtained by imaging the entire WF image shown in FIG. Here, the X direction in FIG. 2A corresponds to the main scanning direction of illumination light on the fundus, and the Y direction corresponds to the sub scanning direction. When acquiring the WF image, every time the illumination light 105 is scanned in the main scanning direction to obtain intensity information of one scan line, scanning is performed to shift the irradiation position of the illumination light 105 in the sub-scanning direction. In step S301, an image obtained by performing one scan of shifting the irradiation position in the sub-scanning direction is displayed as a reference image.

次にステップS302で、追尾制御部121は再びWF-SLO120を用いて、図2(b)に図示する被検出画像204−1を取得する。本実施例において、この被検出画像204−1は、WF画像の一部の領域となっており、この画像をストリップ画像と呼ぶ。なお、本実施例では、該ストリップ画像一枚のY方向の大きさ(長さ)は、WF-SLO基準画像203のY方向の大きさ(長さ)の1/5としている。なお、このストリップ画像のY方向の大きさは任意であって、走査速度、必要とする追尾制御の回数等に応じて適時変更されることが好ましい。   Next, in step S302, the tracking control unit 121 uses the WF-SLO 120 again to acquire the detected image 204-1 illustrated in FIG. In this embodiment, the detected image 204-1 is a partial area of the WF image, and this image is called a strip image. In this embodiment, the size (length) in the Y direction of one strip image is set to 1/5 of the size (length) in the Y direction of the WF-SLO reference image 203. Note that the size of the strip image in the Y direction is arbitrary, and it is preferable that the strip image is appropriately changed according to the scanning speed, the number of required tracking control, and the like.

ステップS303で、追尾制御部121はWF-SLO基準画像203と被検出画像204−1とを比較し、これら画像間での相対的な位置ずれの方向と量とを検出する。検出アルゴリズムは、一般的な画像マッチング手法を用いてよく、ここでは位相限定相関法を用いる。相対的な位置ずれは、図2(a)及び2(b)中のX方向(眼底の水平方向)の検出値ΔXと、Y方向(眼底の鉛直方向)の検出値ΔYとして検出される。   In step S303, the tracking control unit 121 compares the WF-SLO reference image 203 and the detected image 204-1 and detects the direction and amount of relative displacement between these images. As a detection algorithm, a general image matching method may be used, and here, a phase only correlation method is used. The relative positional deviation is detected as a detection value ΔX in the X direction (horizontal direction of the fundus) in FIGS. 2A and 2B and a detection value ΔY in the Y direction (vertical direction of the fundus).

検出値ΔX及びΔYは、被検出画像204−1を得たタイミングにおいて、WF-SLO基準画像203を得た際よりも被検眼がこれら検出値に対応する方向及び量だけ動いた状態であったことを示している。よって、追尾制御部121は、ステップS304で、検出したΔX、ΔYに対応する眼の動きをキャンセルしてAO-SLOによる画像を取得するための動作を行う。即ち、AO-SLOのチップチルトミラー109-2に対して、照明光の走査開始位置としてこれら検出値をキャンセルした位置を指令する。なお、当該指令は、チップチルトミラー109−2による照明光の走査位置の変更量(所定角度範囲のミラーの回転動作における回転中心角度の通常角からの振れ角量)として発せられる。   The detection values ΔX and ΔY were in a state in which the eye to be examined moved by the direction and amount corresponding to these detection values at the timing when the detection image 204-1 was obtained, compared to when the WF-SLO reference image 203 was obtained. It is shown that. Accordingly, the tracking control unit 121 performs an operation for canceling the eye movement corresponding to the detected ΔX and ΔY and acquiring an image by AO-SLO in step S304. That is, the position where these detection values are canceled is commanded to the AO-SLO chip tilt mirror 109-2 as the scanning start position of the illumination light. The command is issued as a change amount of the scanning position of the illumination light by the tip tilt mirror 109-2 (a shake angle amount from the normal angle of the rotation center angle in the rotation operation of the mirror in a predetermined angle range).

より具体的には、AO-SLOのチップチルトミラー109−2において副走査方向の駆動を指令している指令値(信号)について、検出したΔX、ΔY分の駆動信号を上乗せし、該ミラーに対して走査開始位置の変更を実行させる。この指令値の変更により、副走査を行う際のスキャナ走査位置を変更し(走査位置を眼の運動に追尾させ)、AO-SLO画像の取得位置を修正する。これによって、AO-SLOの撮像位置は、眼の運動に対して、X方向(眼底の水平方向)でもY方向(眼底の鉛直方向)でも追尾することとなる。   More specifically, for the command value (signal) commanding driving in the sub-scanning direction in the AO-SLO chip tilt mirror 109-2, the detected drive signals for ΔX and ΔY are added, and the mirror is added to the mirror. On the other hand, the scanning start position is changed. By changing the command value, the scanner scanning position for performing sub-scanning is changed (the scanning position is tracked by eye movement), and the acquisition position of the AO-SLO image is corrected. As a result, the imaging position of the AO-SLO is tracked in the X direction (horizontal direction of the fundus) and the Y direction (vertical direction of the fundus) with respect to the eye movement.

ステップS304が終わると、ステップS305においてAO-SLOにおける画像取得が終了したか否かの確認が行われる。AO-SLO画像の取得が継続される場合には、追尾制御部121はフローをステップS302に移行させて、ステップS302からステップS304の画像取得位置の追尾動作を繰り返す。また、この繰り返しの際に、WF-SLO120において、図2(b)に示される被検出画像204−2、204−3、204−4、204−5のように、被検出画像の眼底上での取得位置を次々に変更していく。なお、便宜上、図2(b)における各々の被検出画像はWF-SLO基準画像上の対応する位置の画像と同じに描かれている。しかし、実際には眼底においてこの画像を得ようとして照明光105の照射及び走査が行われているだけであって、眼の動きに応じて照射及び走査の位置は眼底上の所望位置からずれ、この画像が得られているわけではない。例えば被検出画像204−1について言えば、端の部分に関しては図示された画像中の絵が得られず、反対側の端の部分では図示されていない眼底の他の部分の絵が得られたストリップ画像等が得られることとなる。被検出画像204−5の取得後、次に取得する画像を被検出画像204−1とするように、追尾制御部121はWF-SLO120の不図示のスキャナに対して照明光を走査する指令を行う。本実施例では、ストリップ画像の取得位置を変更していく繰り返し動作を、被検出画像204−1〜204−5の順で得るように繰り返す。   When step S304 ends, it is confirmed in step S305 whether image acquisition in AO-SLO has ended. When the acquisition of the AO-SLO image is continued, the tracking control unit 121 moves the flow to step S302 and repeats the tracking operation of the image acquisition position from step S302 to step S304. Further, during this repetition, the WF-SLO 120 moves on the fundus of the detected image as shown in the detected images 204-2, 204-3, 204-4, and 204-5 shown in FIG. The acquisition position of is sequentially changed. For convenience, each detected image in FIG. 2B is drawn in the same manner as an image at a corresponding position on the WF-SLO reference image. However, in actuality, only irradiation and scanning of the illumination light 105 are performed in order to obtain this image on the fundus, and the irradiation and scanning positions deviate from the desired positions on the fundus according to the movement of the eyes. This image has not been obtained. For example, in the case of the detected image 204-1, a picture in the illustrated image was not obtained for the end part, and a picture of another part of the fundus not shown was obtained in the opposite end part. A strip image or the like is obtained. After acquiring the detected image 204-5, the tracking control unit 121 instructs the scanner (not shown) of the WF-SLO 120 to scan the illumination light so that the next acquired image is the detected image 204-1. Do. In this embodiment, the repeated operation of changing the acquisition position of the strip image is repeated so as to obtain the detected images 204-1 to 204-5 in this order.

WF画像(本実施例でWF-SLO基準画像203に対応するフレームの画像)のフレーム更新期間をTとすると、本実施例では位置検出及び指令値の変更を、被検出画像の取得回数に対応して、一更新期間Tの間に5回行うことができる。被検出画像204をWF画像の一部であるストリップ画像とする事で、位置検出の単位時間当たりの実行頻度及び変更された指令値の単位時間当たりの発信頻度を増やすことが可能となる。その結果、眼の動きを追尾する際の時間の遅れを短くでき、眼の動きに対する追尾の残差を小さくすることができる。またWF画像のフレーム間のインターバル及びこのインターバルの前後での被検出画像の取得時のインターバルを短縮するために、副走査方向の往路と復路の双方で画像を取得することも可能である。具体的には、被検出画像204−5の次に取得する画像を被検出画像204−1ではなく再度被検出画像204−5としてもよい。また、この場合、以降も、被検出画像204−4、204−3、204−2、204−1の順で次々に取得することが好ましい。このような取得順とすることにより、被検出画像204−5から次の被検出画像の取得のために照明光の照射位置を戻すスキャナの動きを省略することができる。従って、フレーム間のインターバルの短縮、すなわち眼の動きに対して追尾をする際の時間遅れを更に低減することが可能となる。   Assuming that the frame update period of the WF image (the image of the frame corresponding to the WF-SLO reference image 203 in this embodiment) is T, in this embodiment, the position detection and the change of the command value correspond to the number of times the detected image is acquired. Then, it can be performed five times during one update period T. By making the detected image 204 a strip image that is a part of the WF image, it is possible to increase the frequency of execution of position detection per unit time and the frequency of transmission of changed command values per unit time. As a result, the time delay when tracking the eye movement can be shortened, and the tracking residual with respect to the eye movement can be reduced. Further, in order to shorten the interval between frames of the WF image and the interval at the time of acquiring the detected image before and after this interval, it is also possible to acquire images in both the forward and backward passes in the sub-scanning direction. Specifically, the image acquired next to the detected image 204-5 may be the detected image 204-5 again instead of the detected image 204-1. In this case, it is also preferable to acquire the detected images 204-4, 204-3, 204-2, and 204-1 one after another in this order. By adopting such an acquisition order, it is possible to omit the movement of the scanner that returns the irradiation position of the illumination light in order to acquire the next detected image from the detected image 204-5. Therefore, the interval between frames can be shortened, that is, the time delay when tracking the eye movement can be further reduced.

追尾制御部121により行われるステップS302からステップS304のフローの繰り返しと並行して、AO-SLOによるAO-SLO画像の取得が行われる。その際、ステップS304において、眼の動きに対応して照明光の走査位置をずらす(変更する)追尾機能が動作する。即ち、AO-SLO画像を一枚取得する際に、照明光105により走査される眼底上の領域の位置ずれが複数回検出され、且つ検出された位置ずれ補正のための追尾動作が実行される。よって、眼の動きに追従してAO-SLO画像の取得位置が修正されるため、AO-SLO画像のフレーム全体として、位置ずれの少ない良好なAO-SLO画像が得られる。このように連続的に取得され且つ相互の位置ずれが少ない複数フレーム(一フレームが一AO-SLO画像に対応)の画像を連続的にディスプレイ118に表示することにより、AO-SLO動画像の提供が可能となる。該AO-SLO動画像によれば、眼底における血流等を知ることが可能となる。   In parallel with the repetition of the flow from step S302 to step S304 performed by the tracking control unit 121, acquisition of an AO-SLO image by AO-SLO is performed. At that time, in step S304, a tracking function for shifting (changing) the scanning position of the illumination light corresponding to the movement of the eye operates. That is, when acquiring one AO-SLO image, a positional deviation of the region on the fundus scanned by the illumination light 105 is detected a plurality of times, and a tracking operation for correcting the detected positional deviation is executed. . Therefore, since the acquisition position of the AO-SLO image is corrected following the movement of the eye, a good AO-SLO image with little positional deviation can be obtained as the entire frame of the AO-SLO image. Providing AO-SLO moving images by continuously displaying images of a plurality of frames (one frame corresponds to one AO-SLO image) continuously acquired and with little mutual positional deviation in this way. Is possible. According to the AO-SLO moving image, it is possible to know blood flow in the fundus.

ステップS305にて、AO-SLO画像の取得が終了し、追尾の動作を行う必要が無くなると、追尾制御部121はフローを進め、眼底追尾動作を終了する。なお、本実施例において、WF-SLO120及び追尾制御部121は、AO-SLO画像を一枚取得する際に、前記眼底の位置ずれを検出する検出手段を構成する。該検出手段は、上述したように、WF-SLO基準画像203と、該WF-SLO基準画像203とは異なる時間に取得される被検出画像204−1〜5との相対的な位置ずれを検出する。検出された位置ずれは、追尾の際に用いる位置ずれの情報として用いられる。なお、被検出画像204−1〜5は、WF-SLO基準画像203の眼底上(被検査物上)での取得予定の範囲に含まれる範囲を撮像予定範囲として取得されることが好ましい。   In step S305, when the acquisition of the AO-SLO image is completed and it is not necessary to perform the tracking operation, the tracking control unit 121 advances the flow and ends the fundus tracking operation. In the present embodiment, the WF-SLO 120 and the tracking control unit 121 constitute detection means for detecting the fundus position shift when acquiring one AO-SLO image. As described above, the detection means detects a relative displacement between the WF-SLO reference image 203 and the detected images 204-1 to 20-5 acquired at different times from the WF-SLO reference image 203. To do. The detected positional deviation is used as positional deviation information used for tracking. In addition, it is preferable that the to-be-detected images 204-1 to 20-5 are acquired as a scheduled imaging range in a range included in a planned acquisition range on the fundus (on the inspection object) of the WF-SLO reference image 203.

ここで、被検眼の固視の動きが比較的大きい場合に、追尾機能を動作させて撮像したAO-SLO画像に位置ずれやフレーム面内の歪みが生じることがある。上述した追尾プログラムでは、追尾制御部121が、ストリップ画像の取得毎に、眼の動きをキャンセルするようにチップチルトミラー109−2に眼の動きを補正するように変更された指令値を与えている。しかし、例えば固視の変化量が大きく、変化する方向もたびたび変わるように動き続けている被検眼も存在する。このような被検眼では、ストリップ画像を取得している間も常に被検眼が動き続け、ストリップ画像取得時に求められるΔX及びΔYのずれ量は、この動きが積算された結果より得られることとなる。即ち、ずれ量を求める直前の被検眼における画像取得領域は、この求められたずれ量を得た画像を取得した領域と厳密には対応できていない場合がある。また、被検眼の動きが大きい場合には、このずれ量を得た直前と直後においても被検眼の動きの影響は出てしまい、画像を取得しようとした位置に対して更なる位置ずれを有した画像を生成してしまう可能性が有る。   Here, when the fixation movement of the eye to be examined is relatively large, the AO-SLO image captured by operating the tracking function may be displaced or distorted in the frame plane. In the tracking program described above, the tracking control unit 121 gives a command value changed to correct the eye movement to the tip tilt mirror 109-2 so as to cancel the eye movement every time the strip image is acquired. Yes. However, for example, there is an eye to be examined that continues to move so that the amount of change in fixation is large and the direction of change often changes. With such an eye to be examined, the eye to be examined continues to move even during the acquisition of the strip image, and the amount of deviation between ΔX and ΔY obtained at the time of strip image acquisition is obtained from the result of integration of this movement. . In other words, the image acquisition area in the eye to be examined immediately before obtaining the deviation amount may not correspond exactly to the area from which the image obtained from the obtained deviation amount is obtained. In addition, when the eye movement is large, the influence of the eye movement immediately before and after the shift amount is obtained, and there is a further positional shift with respect to the position where the image is to be acquired. There is a possibility that the generated image will be generated.

即ち、このような被検眼の場合、チップチルトミラー109−2に指令値を発するタイミングには、直前のストリップ画像で追尾制御しようとした画像取得範囲とは異なる画像取得範囲となるように眼が動いてしまっているケースが生じる。その結果、撮像したAO-SLO画像において、チップチルトミラー109−2にずれ補正をするための指令値を発信するタイミングでのスキャン位置で、断層のように位置ずれが起きる、又は画像歪みが生じてしまう等という現象が生じる場合がある。   That is, in the case of such an eye to be examined, at the timing when the command value is issued to the tip tilt mirror 109-2, the eye has an image acquisition range that is different from the image acquisition range to be tracked with the immediately preceding strip image. There is a case of moving. As a result, in the captured AO-SLO image, misalignment occurs like a tomography or image distortion occurs at the scan position at the timing when a command value for correcting the misalignment is transmitted to the tip tilt mirror 109-2. May occur.

このような現象の発生を回避するために、ストリップ画像の副走査方向の画像幅を狭くして、位置検出の単位時間当たりの実行頻度及び変更された指令値の単位時間当たりの発信頻度を増やすことも可能である。しかし、画像幅を狭くしすぎると、例えば図3のステップS303で行う追尾のための検出する画像間での相対的な位置ずれの検出精度が低くなってしまう。このため、画像幅を狭くする対応方法には、限界がある。   In order to avoid the occurrence of such a phenomenon, the image width in the sub-scanning direction of the strip image is narrowed to increase the frequency of execution of position detection per unit time and the frequency of transmission of changed command values per unit time. It is also possible. However, if the image width is too narrow, for example, the detection accuracy of the relative displacement between the images to be detected for tracking performed in step S303 in FIG. 3 is lowered. For this reason, there is a limit to the correspondence method for narrowing the image width.

このため、本実施例では、追尾機能を動作させて撮像したAO-SLO画像に対して、画像処理を施すことでAO-SLO画像の位置ずれやフレーム面内の歪を補正することとしている。即ち、追尾制御部121がチップチルトミラー109−2に照明光の照射位置の修正するための指令値を発信するタイミングに対応するAO-SLO画像上の照射位置の情報を把握し、制御部117はその照射位置の情報を考慮した上でAO-SLO画像に対する画像処理を行うこととしている。その結果AO-SLO画像における不連続な部分が生じなくなり、当該画像を連続して表示したとしても、検者に違和感を与えないAO-SLO動画像を提供することができる。   For this reason, in this embodiment, the AO-SLO image captured by operating the tracking function is subjected to image processing to correct the positional deviation of the AO-SLO image and the distortion in the frame plane. That is, the tracking control unit 121 grasps the irradiation position information on the AO-SLO image corresponding to the timing at which the command value for correcting the irradiation position of the illumination light is transmitted to the tip tilt mirror 109-2, and the control unit 117. In consideration of the irradiation position information, image processing is performed on the AO-SLO image. As a result, a discontinuous portion in the AO-SLO image does not occur, and an AO-SLO moving image that does not give a sense of incongruity to the examiner even when the image is continuously displayed can be provided.

以下、本実施例における画像処理方法について説明する。図4は本実施例における画像処理機能を説明するフローチャートである。該処理機能は、制御部117によって制御、実行される。   Hereinafter, an image processing method in this embodiment will be described. FIG. 4 is a flowchart for explaining the image processing function in this embodiment. The processing function is controlled and executed by the control unit 117.

画像処理機能が開始されると、ステップS401で、制御部117は撮像したAO-SLO画像の位置合わせを行うためのAO-SLO基準画像を取得する。この基準画像は、位置合わせを行う際のベース画像として用いられる。なお、該基準画像の選択方法としては、連続的にディスプレイ118に表示されるフレーム中の任意のフレームを選ぶ、もしくはユーザーがフレームを指定してもよい。或いは、制御部117が自動でフレームを選択してもよい。自動で選択する場合は、例えば画像の各フレームの中で最も画質が良いものを選んでもよい。もしくは、画像の中で各画像間の共通領域(オーバーラップ)が一番大きくなるものを選んでもよい。更には、それらを組み合わせてフレームを選ぶこととしてもよい。また、画質で選ぶ場合は、任意の画質評価法を用いてよく、例えばコントラストやSN比などで評価してもよい。オーバーラップで選ぶ場合は、プレ処理として各フレーム間で位置合わせを行い、オーバーラップ領域を評価するなどしてもよい。制御部117の一部モジュールは、AO-SLOにより複数枚取得された、眼111における新たな画像を生成する際の元画像となる各フレームから、新たな画像の基準画像を選択する本実施例における選択手段を構成する。   When the image processing function is started, in step S401, the control unit 117 acquires an AO-SLO reference image for aligning the captured AO-SLO image. This reference image is used as a base image for alignment. As a method for selecting the reference image, an arbitrary frame among frames continuously displayed on the display 118 may be selected, or a user may designate a frame. Alternatively, the control unit 117 may automatically select a frame. When selecting automatically, for example, the frame having the best image quality may be selected from each frame of the image. Alternatively, an image having the largest common area (overlap) between the images may be selected. Furthermore, a frame may be selected by combining them. Further, when selecting by image quality, any image quality evaluation method may be used, for example, evaluation may be performed by contrast, SN ratio, or the like. When selecting by overlap, it is possible to perform alignment between frames as pre-processing and evaluate the overlap region. In this embodiment, a part of modules of the control unit 117 selects a reference image of a new image from each frame that is acquired by AO-SLO and becomes an original image when generating a new image in the eye 111. The selection means is configured.

ステップS402で、制御部117は、AO-SLO画像として連続して得られているフレームの全てについての各々の位置ずれ検出のための演算を行う。具体的にはステップS401で選択された基準画像に対して各フレームを画像マッチング処理により位置合わせを行う。ここで画像マッチング処理は、任意の手法を用いてよく、本実施例では位相相関限定法で行い、フレームの全てについて、各々のずれ量(オフセット量)を、ΔX、ΔYとして求める。 In step S <b> 402, the control unit 117 performs a calculation for detecting misregistration for all of the frames continuously obtained as an AO-SLO image. Specifically, each frame is aligned with the reference image selected in step S401 by image matching processing. Here, an arbitrary method may be used for the image matching processing. In this embodiment, the phase correlation limiting method is used, and the deviation amounts (offset amounts) of all frames are obtained as Δ A X and Δ A Y. .

ステップS403で、制御部117は、各フレームにおいてチップチルトミラー109−2に対して照射位置修正のために変更された指令値が発信されたタイミングに対応する、AO-SLO画像中のスキャン位置を取得する。具体的には、図3のステップS304で眼の動きをキャンセルするためにAO-SLOのチップチルトミラー109-2による走査位置中心として指令値を発信したタイミングを、追尾制御部121で記憶しておく。そして、その指令値の発信と同期したタイミングのAO-SLO画像のスキャン位置を制御部117が取得する。もしくは、撮像時にAO-SLO画像を制御部117が保存する際に、画像のタグ情報などに、スキャン位置情報を埋め込んだ状態で保存しておき、それを参照してもよい。   In step S403, the control unit 117 determines the scan position in the AO-SLO image corresponding to the timing at which the command value changed for correcting the irradiation position is transmitted to the tip tilt mirror 109-2 in each frame. get. Specifically, the tracking control unit 121 stores the timing at which the command value is transmitted as the center of the scanning position by the AO-SLO tip tilt mirror 109-2 in order to cancel the eye movement in step S304 in FIG. deep. Then, the control unit 117 acquires the scan position of the AO-SLO image at the timing synchronized with the transmission of the command value. Alternatively, when the control unit 117 stores the AO-SLO image at the time of imaging, it may be stored with the scan position information embedded in the tag information of the image and referred to.

以下、このスキャン位置情報について、図5を用いて説明する。図5は、AO-SLO画像においてフレーム分割して位置合せする処理の説明図である。同図においてフレーム500はAO-SLO画像の一フレームを示しており、同図におけるX方向は照明光の主走査方向であり、共振スキャナ109−1の駆動方向に対応する。フレーム500のY方向は照明光の副走査方向であり、チップチルトミラー109−2による照明光の駆動方向に対応する。また、AO-SLO画像を一フレーム取得する際には、追尾のためにチップチルトミラー109-2に対して変更された指令値が複数回発信されている。追尾制御部121がこの指令値を発信したタイミングは、それぞれ図5に示す画像において時刻t1、t2、t3、t4、t5として示されてスキャンラインを走査する直前に対応している。   Hereinafter, the scan position information will be described with reference to FIG. FIG. 5 is an explanatory diagram of a process for dividing and aligning frames in an AO-SLO image. In the figure, a frame 500 shows one frame of the AO-SLO image, and the X direction in FIG. The Y direction of the frame 500 is the sub-scanning direction of the illumination light, and corresponds to the driving direction of the illumination light by the chip tilt mirror 109-2. Further, when acquiring one frame of the AO-SLO image, the changed command value is transmitted to the tip tilt mirror 109-2 for tracking a plurality of times. The timing at which the tracking control unit 121 transmits this command value corresponds to the time immediately before scanning the scan line, which is indicated as times t1, t2, t3, t4, and t5 in the image shown in FIG.

ステップS404で、制御部117は、ステップS401で選択した基準画像に対して、連続的に取得したAO-SLO画像のフレーム毎に、画像マッチング処理により詳細な位置合わせ処理を行う。なお、位置ずれを検知した時刻に応じた一枚のAO-SLO画像の複数の画像への分割は、制御部117において画像分割手段として機能するモジュールによって実行される。位置合わせ処理は、ステップS403で取得したスキャン位置によりフレーム500を分割して得た分割画像の各々について行う。時刻t1、t2、t3、t4及びt5により分割して得た分割画像は、それぞれ図5に分割画像501−1、501−2、501−3、501−4、501−5として示している。   In step S404, the control unit 117 performs detailed alignment processing by image matching processing for each frame of the continuously acquired AO-SLO images with respect to the reference image selected in step S401. Note that the division of a single AO-SLO image into a plurality of images according to the time at which the misregistration is detected is executed by a module that functions as an image dividing unit in the control unit 117. The alignment process is performed for each of the divided images obtained by dividing the frame 500 based on the scan position acquired in step S403. The divided images obtained by dividing at times t1, t2, t3, t4, and t5 are shown as divided images 501-1, 501-2, 501-3, 501-4, and 501-5 in FIG.

具体的な、位置合わせ処理について、以下に述べる。まず、位置合わせ対象のフレーム500全体に対して、ステップS402でフレーム毎に演算して求められたオフセット量ΔX、ΔYを用いて対象フレームを並行移動させ、AO-SLO基準画像との位置合わせを行う。次に、AO-SLO基準画像に対して、並行移動後の各分割画像501−1〜5について、それぞれ位置合わせ処理を行う。位置合わせ処理は任意の画像位置合わせ処理を用いてよく、ここでは位相限定相関法を用いて分割画像毎の位置ずれの検出を行う。更に位置ずれ検出後に、それぞれの位置ずれのベクトル量について、バイキュービック補間法を用いて該ずれ量を画像の各ピクセルに分散させ、非剛体の位置合わせを行う。 Specific alignment processing will be described below. First, the frame 500 across the alignment target, the offset amount obtained by calculating for each frame delta A X, the target frame using the delta A Y is parallel moved in step S402, the AO-SLO reference image Perform position alignment. Next, alignment processing is performed on each of the divided images 501-1 to 50 after parallel movement on the AO-SLO reference image. Arbitrary image alignment processing may be used for the alignment processing, and here, a position shift is detected for each divided image using a phase only correlation method. Further, after detecting the positional deviation, the vector quantity of each positional deviation is distributed to each pixel of the image by using the bicubic interpolation method, and the non-rigid body is aligned.

なお、非剛体位置合わせのための、位置ずれ検出や画像補完処理は、それぞれ任意の手法を用いて行ってもよい。また位置ずれの検出を行った後に、分割画像毎に位置合わせを行うような剛体位置合わせ処理を行ってもよい。この場合、分割画像毎に位置合わせを行うのであれば、その方法は限定されない。なお、本実施例では、長方形の分割画像毎に位置合わせ処理を行ったが、より細かい分割画像で非剛体位置合わせを行うために、各分割画像501−1〜5を更に小さい画像に分割して処理してもよい。また、位置ずれ検出の段階でその検出精度が低いと判断される場合、その検出位置のベクトル量は用いないという処理を行ってもよい。この場合の検出精度の判断は、任意の手法を用いてよく、ここでは位相限定相関法により算出するピークがある閾値を下回った場合に精度が低いと判断する処理を行うことが好ましい。なお、上述したこれらの一連の位置合わせ処理は、撮像したAO-SLO画像のフレーム毎に行われる。   Note that misalignment detection and image complement processing for non-rigid body alignment may be performed using any method. Further, after detecting the displacement, rigid body alignment processing may be performed in which alignment is performed for each divided image. In this case, the method is not limited as long as alignment is performed for each divided image. In this embodiment, the alignment processing is performed for each rectangular divided image. However, in order to perform non-rigid registration with a finer divided image, each of the divided images 501-1 to 50-1 is divided into smaller images. May be processed. Further, when it is determined that the detection accuracy is low at the stage of detecting the displacement, a process may be performed in which the vector amount at the detected position is not used. In this case, the detection accuracy may be determined using an arbitrary method. Here, it is preferable to perform processing for determining that the accuracy is low when the peak calculated by the phase-only correlation method falls below a certain threshold value. Note that the above-described series of alignment processing is performed for each frame of the captured AO-SLO image.

以上のAO-SLO画像の各フレームに対する画像処理が終了すると、制御部117によりステップS404よりフローが進められ、画像処理プログラムは終了される。位置合わせ等の画像処理を施されたAO-SLO画像のそれぞれの画像(AO-SLO動画像)は、制御部117に保存され、必要に応じて眼底画像としてディスプレイ118に表示される。制御部117の一部モジュールは、以上の複数の分割画像各々について位置合わせをして新たな画像を生成する画像生成手段を構成する。また、該画像生成手段は、検出された位置ずれに基づいて取得された複数のフレーム間での位置合わせを行う第一の位置合わせ手段と、分割画像各々の画像に基づいて分割画像各々の間での位置合わせを行う第二の位置合わせ手段と、を有する。   When the image processing for each frame of the AO-SLO image is completed, the control unit 117 advances the flow from step S404, and the image processing program is terminated. Each image (AO-SLO moving image) of the AO-SLO image that has undergone image processing such as alignment is stored in the control unit 117 and displayed on the display 118 as a fundus image as necessary. A part of the module of the control unit 117 constitutes an image generation unit that aligns each of the plurality of divided images and generates a new image. Further, the image generation means includes a first alignment means for performing alignment between a plurality of frames acquired based on the detected positional deviation, and a space between each divided image based on each image of the divided images. And second alignment means for performing alignment at.

上述したように、本実施例に係る追尾プログラム及び画像処理プログラムを用いて画像を得ることにより、追尾により撮像された画像の位置ずれやフレーム面内の歪みを精度よく補正した動画像を取得することができる。   As described above, by obtaining an image using the tracking program and the image processing program according to the present embodiment, a moving image in which the positional deviation of the image captured by tracking and the distortion in the frame plane is accurately corrected is acquired. be able to.

[第二の実施例]
第二の実施例では、上述した第一の実施例における画像処理に加えて、撮像対象とする被検眼の固視微動による撮像位置のずれを検知した結果も参照し、撮像された画像の位置合わせを行う方法について説明する。即ち、本実施例では、複数枚(複数フレーム)取得されたAO-SLO画像から、第一の実施例と同様にWF-SLO画像より検出された位置ずれに基づいて、新たな画像の生成に用いるAO-SLO基準画像を選択することとしている。なお、本実施例における眼底撮像装置の構成は第一の実施例と同様であることからここでの説明は省略する。また、実行される追尾動作についても同様である。
[Second Example]
In the second embodiment, in addition to the image processing in the first embodiment described above, the result of detecting the shift in the imaging position due to the fixation eye movement of the eye to be imaged is also referred to, and the position of the captured image A method for performing the alignment will be described. That is, in this embodiment, a new image is generated based on the positional deviation detected from the WF-SLO image from the AO-SLO image acquired in a plurality of (multiple frames) as in the first embodiment. The AO-SLO reference image to be used is selected. In addition, since the structure of the fundus imaging apparatus in the present embodiment is the same as that in the first embodiment, description thereof is omitted here. The same applies to the tracking operation to be executed.

以下では、第二の実施例が第一の実施例と異なる画像処理動作の詳細について説明する。図6は、第二の実施例における画像処理動作を説明するフローチャートである。なお、第一の実施例と同様に、該処理動作は、制御部117によって制御、実行される。   In the following, the details of the image processing operation in which the second embodiment is different from the first embodiment will be described. FIG. 6 is a flowchart for explaining the image processing operation in the second embodiment. As in the first embodiment, the processing operation is controlled and executed by the control unit 117.

画像処理動作が開始されると、制御部117は、ステップS410で、追尾時の眼の動きに関する情報を取得する。具体的には、ステップS303で取得した各WF画像の被検出画像(ストリップ画像)204毎に検出した位置ずれに関する情報を、眼の動きとみなす。そして、例えば、AO-SLO画像の一フレームの撮像に要した時間に相当する間に検出した位置ずれ量を、各々(X1、Y1)、(X2、Y2)、・・・、(Xn、Yn)として追尾制御部121が保持する位置ずれ量より抽出する。   When the image processing operation is started, the control unit 117 acquires information regarding eye movement during tracking in step S410. Specifically, the information regarding the positional deviation detected for each detected image (strip image) 204 of each WF image acquired in step S303 is regarded as eye movement. For example, the displacement amounts detected during the time required to capture one frame of the AO-SLO image are respectively (X1, Y1), (X2, Y2), ..., (Xn, Yn). ) Is extracted from the positional deviation amount held by the tracking control unit 121.

次に、ステップS411で追尾時の情報を基に、制御部117はAO-SLO基準画像を選択する。ここでは第一の実施例におけるステップS401とは異なり、ステップS410で取得した、AO-SLO画像を一フレーム取得する間に検出した位置ずれに関する情報を評価して基準画像を選択する。ここで、画像位置合わせの精度を向上させるには、できるだけ画像の歪みや位置ずれの少ない画像を基準画像として選択することが有効である。本実施例では、ステップS410でフレーム毎に対して取得された眼の動きに対応し、WF-SLO120において検出した位置ずれを各々XY座標上に(X1、Y1)、(X2、Y2)、・・・、(Xn、Yn)としてその方向および大きさを展開し、各々を評価する。そして、全体の位置ずれより、眼の動きが比較的小さく、固視が安定している状態で取得されたと推定されたフレームを、AO-SLO基準画像として選択する。   Next, in step S411, based on the tracking information, the control unit 117 selects an AO-SLO reference image. Here, unlike step S401 in the first embodiment, the reference image is selected by evaluating the information about the positional deviation detected during the acquisition of one frame of the AO-SLO image acquired in step S410. Here, in order to improve the accuracy of image alignment, it is effective to select an image with as little image distortion and displacement as possible as a reference image. In the present embodiment, the position shift detected in the WF-SLO 120 corresponds to the eye movement acquired for each frame in step S410 on the XY coordinates (X1, Y1), (X2, Y2),. .., (Xn, Yn) are expanded in the direction and size, and each is evaluated. Then, a frame presumed to be acquired in a state where the eye movement is relatively small and the fixation is stable is selected as the AO-SLO reference image based on the overall position shift.

この眼の動きの評価方法には、任意の方法を用いることが可能である。本実施例では、隣り合う検出点の差を、各WF画像のストリップ画像を撮像中に動いた眼の移動距離として算出し、この値を用いて評価している。具体的には、(ΔX1、ΔY1)=(X1−X2、Y1−Y2)、・・・、(ΔXn−1、ΔYn−1)=(Xn−1−Xn、Yn−1−Yn)を算出する。これらは、WF-SLO120より得られた情報に基づくが、一フレームのAO-SLO画像の取得中における眼の移動距離の推移を示していると考える。このそれぞれの(ΔX、ΔY)もしくはΔX、ΔYの二乗平方根が小さい場合、急峻な眼の動きはなかったと考えられる。なお、移動距離の平均が小さくても、瞬間的に大きな移動が含まれている場合も考えられ、このような状態で得られたAO-SLO画像は基準画像としてふさわしくない。よって、本実施例では、一フレーム中において任意で設定した閾値よりも大きな移動距離がなく、かつ移動距離の平均値が最も小さいフレームを基準画像として設定している。なお、一フレームの評価方法はこれに限定されず、眼の動きの変化量が比較的小さいフレームが選ばれていればよい。またステップS410で説明した方法と上述したステップS401で説明した基準画像の選択方法とを組み合わせて用いてもよい。   Any method can be used as the eye movement evaluation method. In the present embodiment, the difference between adjacent detection points is calculated as the movement distance of the eye that moved while capturing the strip image of each WF image, and this value is used for evaluation. Specifically, (ΔX1, ΔY1) = (X1-X2, Y1-Y2),..., (ΔXn-1, ΔYn-1) = (Xn-1-Xn, Yn-1-Yn) are calculated. To do. These are based on information obtained from the WF-SLO 120, but are considered to indicate the transition of the movement distance of the eye during acquisition of one frame of the AO-SLO image. When the square root of each (ΔX, ΔY) or ΔX, ΔY is small, it is considered that there was no steep eye movement. Note that even if the average moving distance is small, there may be a case where a large movement is included instantaneously, and the AO-SLO image obtained in such a state is not suitable as a reference image. Therefore, in this embodiment, a frame that does not have a moving distance larger than a threshold value arbitrarily set in one frame and has the smallest moving distance is set as a reference image. Note that the evaluation method for one frame is not limited to this, and a frame with a relatively small amount of change in eye movement may be selected. Further, the method described in step S410 and the reference image selection method described in step S401 described above may be used in combination.

AO-SLO基準画像を選択した後に実行されるステップS402及びS403での処理については、第一の実施例の処理と同様であることから同じ参照番号を付記してここでの説明を割愛する。   Since the processing in steps S402 and S403 executed after the AO-SLO reference image is selected is the same as the processing in the first embodiment, the same reference numerals are added and description thereof is omitted here.

ステップS414で、制御部117は追尾情報を考慮したフレーム間位置合わせを行う。ここでの位置合わせの方法は、ステップS404で記載した方法と基本的に同様であるが、ステップS410で取得した位置ずれの値によっては異なる処理を行う。まずWF-SLO120からの情報により位置ずれ補正を行った時刻t1、t2、・・・、tnのタイミングに得た位置ずれの値を、ステップS410と同様にそれぞれ(X1、Y1)、(X2、Y2)、・・・、(Xn、Yn)として対応付ける。この動作は連続的に取得しているAO-SLO画像の各々に対して行われる。   In step S414, the control unit 117 performs inter-frame alignment in consideration of the tracking information. The alignment method here is basically the same as the method described in step S404, but different processing is performed depending on the displacement value acquired in step S410. First, the position shift values obtained at the timings t1, t2,..., Tn when the position shift correction is performed based on the information from the WF-SLO 120 are respectively (X1, Y1), (X2,. Y2), ..., (Xn, Yn) are associated. This operation is performed for each of the continuously acquired AO-SLO images.

そして、時刻tnにおいて検出した位置ずれの値を評価して、通常の位置合わせとは異なる処理を行う。例えば、検出した位置ずれ(Xn、Yn)がチップチルトミラー109−2の許容動作範囲より大きくなる場合は、追尾が失敗していると予想される。従って、該当の位置ずれ量を検出した際の画像データは位置合わせに使用しない、もしくはマスク処理を行いユーザーに見せないようにする処理を行う。また、検出した位置ずれ(Xn、Yn)が、このずれ量に基づいて画像の位置をずらした場合に同一フレーム内の既存の分割画像にすべて重なる値となる場合も考えられる。このような場合は、処理が重複するために位置合わせの処理を行わない、もしくはデータを破棄し、使用しないなどの処理を行う。   Then, the position shift value detected at time tn is evaluated, and processing different from normal alignment is performed. For example, when the detected positional deviation (Xn, Yn) is larger than the allowable operation range of the tip tilt mirror 109-2, it is predicted that the tracking has failed. Therefore, the image data when the corresponding amount of misregistration is detected is not used for alignment or a mask process is performed so as not to show to the user. In addition, the detected positional deviation (Xn, Yn) may be a value that overlaps all existing divided images in the same frame when the position of the image is shifted based on the amount of deviation. In such a case, since the process is duplicated, the alignment process is not performed, or the data is discarded and not used.

更に、ステップS411で算出したのと同様に、検出位置の隣り合う検出点の差から求められる眼の移動距離(ΔX、ΔY)、もしくはΔX、ΔYの二乗平方根がある閾値よりも大きい場合には、急峻な被検眼の動きがあったとみなす。この場合、急峻な被検眼の動きに対応する画像は、位置合わせに使用しない、もしくはマスク処理を行いユーザーに見せないように処理を行う。眼の動きにはサッケードと呼ばれる急峻な動きがあり、当該動きが生じると画像が流れ星のように歪んでしまい、画質劣化を引き起こす。先の処理は、このような目の動きが生じた場合に対応する。   Further, as calculated in step S411, when the eye movement distance (ΔX, ΔY) obtained from the difference between adjacent detection points of the detection position or the square root of ΔX, ΔY is greater than a certain threshold value. It is considered that there was a steep eye movement. In this case, the image corresponding to the sharp movement of the eye to be examined is not used for alignment, or is processed so as not to be shown to the user by performing mask processing. Eye movement has a steep movement called a saccade, and when this movement occurs, the image is distorted like a shooting star, causing image quality degradation. The previous processing corresponds to the case where such eye movement occurs.

検出した位置ずれ(Xn、Yn)より、上述したような条件を位置合わせ等に不適切な画像ではないと判定された場合は、第一の実施例でのステップS404と同様に位置合わせの処理を行う。ステップS411では、このように、追尾を行う際の検出位置の値によって、眼の動きを評価して異なる処理を行う。   If it is determined from the detected misregistration (Xn, Yn) that the above-described condition is not an inappropriate image for alignment or the like, alignment processing is performed as in step S404 in the first embodiment. I do. In step S411, as described above, the eye movement is evaluated according to the value of the detected position when tracking is performed, and different processing is performed.

以上のAO-SLO画像の各フレームに対する画像処理が終了すると、制御部117によりステップS414よりフローは進められ、画像処理動作は終了される。位置合わせ等の画像処理を施されたAO-SLO画像のそれぞれの画像(AO-SLO動画像)は、制御部117に保存され、必要に応じて眼底画像としてディスプレイ118に表示される。   When the image processing for each frame of the AO-SLO image is completed, the control unit 117 advances the flow from step S414, and the image processing operation is ended. Each image (AO-SLO moving image) of the AO-SLO image that has undergone image processing such as alignment is stored in the control unit 117 and displayed on the display 118 as a fundus image as necessary.

上述したように、本実施例として述べた追尾動作及び画像処理動作を用いて画像を得ることにより、追尾により撮像された画像の位置ずれやフレーム面内の歪みを精度よく補正した動画像を取得することが可能となる。   As described above, by obtaining an image using the tracking operation and the image processing operation described in the present embodiment, a moving image in which the positional deviation of the image captured by tracking and the distortion in the frame plane is accurately corrected is acquired. It becomes possible to do.

なお、本実施例では、第一の実施例における画像処理動作とは異なり、ステップS411における追尾情報を考慮した基準画像の選択とステップS414における追尾情報を考慮したフレーム間の位置合わせとを実施している。しかし、これら処理のどちらか片方のみを第一の実施例における対応するステップで行ったとしても、その効果は得られる。   In this embodiment, unlike the image processing operation in the first embodiment, the selection of the reference image in consideration of the tracking information in step S411 and the alignment between frames in consideration of the tracking information in step S414 are performed. ing. However, even if only one of these processes is performed in the corresponding step in the first embodiment, the effect can be obtained.

[その他の実施例]
第一の実施例及び第二の実施例では、追尾機能で作用させるスキャナとして、主走査用(眼底の水平方向)と副走査用(眼底の鉛直方向)との両方向に対処可能なチップチルトミラー109−2を用いている。しかし、副走査用にガルバノミラーを用いて、副走査方向のみに追尾機能を作用させたとしても、その他の構成をこれら実施例と同様にすることにより、追尾の効果は小さくなるが類似する効果を得ることができる。
[Other Examples]
In the first embodiment and the second embodiment, a chip tilt mirror capable of handling both main scanning (horizontal direction of the fundus) and sub-scanning (vertical direction of the fundus) as a scanner operated by the tracking function. 109-2 is used. However, even if a galvano mirror is used for sub-scanning and the tracking function is operated only in the sub-scanning direction, the effect of tracking is reduced by making the other configurations the same as those of these embodiments, but similar effects. Can be obtained.

また、WF-SLOとAO-SLOの各々のフレームにおける照明光の走査のタイミングを同期させてもよい。この場合、チップチルトミラー109-2に対して位置ずれ補正の指令をするタイミング、即ちAO-SLO画像を位置合わせ用の分割画像に分割する位置が、AO-SLO画像の各フレームにおいて固定される。その結果、フレーム間位置合わせに用いる分割画像の抽出位置を固定化することが可能となる。   In addition, the scanning timing of illumination light in each frame of WF-SLO and AO-SLO may be synchronized. In this case, the timing for instructing the displacement correction to the tip tilt mirror 109-2, that is, the position at which the AO-SLO image is divided into the divided images for alignment is fixed in each frame of the AO-SLO image. . As a result, it is possible to fix the extraction position of the divided image used for inter-frame alignment.

また第一の実施例及び第二の実施例では、追尾動作に用いる画像の取得にWF-SLO120を用いている。しかし、WF-SLOを用いずに、AO-SLO光学系単体を用いた追尾システムを構築することも可能である。この場合、追尾のための基準画像と被検出画像とを、共にAO-SLOによって取得することとなる。当該構成では、追尾動作及び画像処理動作について同じAO-SLO画像を用いて行うこととなる。その場合であっても、その他の構成をこれら実施例同様にすることで、上述した実施例と同様の効果を得ることができる。   In the first and second embodiments, the WF-SLO 120 is used to acquire an image used for the tracking operation. However, it is also possible to construct a tracking system using a single AO-SLO optical system without using WF-SLO. In this case, both the reference image for tracking and the detected image are acquired by AO-SLO. In this configuration, the tracking operation and the image processing operation are performed using the same AO-SLO image. Even in such a case, the same effects as those of the above-described embodiments can be obtained by making other configurations similar to those of these embodiments.

また、画像処理を施す画像を取得する装置としてAO-SLOを用いた場合を実施例として挙げた。しかし、照明光或いは測定光により被検眼を操作する態様の眼科装置、例えば光干渉断層像を取得できるOCTに対しても、WF-SLOを設けて本発明の追尾機能を持たせることで、上述した実施例と同様の効果を得ることができる。   Further, the case where AO-SLO is used as an apparatus for acquiring an image subjected to image processing has been described as an example. However, an ophthalmologic apparatus that operates the eye to be examined with illumination light or measurement light, for example, OCT that can acquire an optical coherence tomographic image, is provided with the tracking function of the present invention by providing a WF-SLO. The same effects as those of the embodiment described above can be obtained.

なお、本件は上述した実施例に限定されるものではなく、本発明の趣旨を逸脱しない範囲内において、種々の変形、変更を施して実施することができる。例えば、上述の実施例では、被検眼眼底を検査対象とする眼底撮像装置について述べているが、被検眼における眼底以外の部位、或いは被検眼以外の皮膚や臓器等の被検査物を検査対象とする検査装置に本発明を適用することも可能である。この場合、検査対象が収差を生じさせないため補償光学系は必要なくなるが、追尾及び画像処理は必要となり、本発明は眼底撮像装置以外の、例えば内視鏡等の医療機器としての態様を有する。従って、本発明は眼底撮像装置に例示される検査装置として把握され、被検眼は被検査物の一態様として把握されることが望ましい。   The present invention is not limited to the above-described embodiments, and various modifications and changes can be made without departing from the spirit of the present invention. For example, in the above-described embodiment, a fundus imaging apparatus that examines the fundus of the eye to be examined is described. It is also possible to apply the present invention to an inspection apparatus. In this case, the subject to be inspected does not cause aberrations, so that the compensation optical system is not necessary, but tracking and image processing are necessary, and the present invention has an aspect as a medical device other than the fundus imaging apparatus, for example, an endoscope. Therefore, it is desirable that the present invention is grasped as an inspection apparatus exemplified by the fundus imaging apparatus, and the eye to be examined is grasped as one aspect of the inspection object.

更に、本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理によっても実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   Furthermore, the present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus execute the program. It can also be realized by a process of reading and executing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101:光源
108:波面補正装置
109:走査光学系
111:眼
114:光強度センサー
115:波面測定装置
116:補償光学制御部
117:制御部
118:ディスプレイ
119:ダイクロイックミラー
120:WF-SLO
121:追尾制御部
101: light source 108: wavefront correction device 109: scanning optical system 111: eye 114: light intensity sensor 115: wavefront measuring device 116: adaptive optics control unit 117: control unit 118: display 119: dichroic mirror 120: WF-SLO
121: Tracking control unit

Claims (12)

照明光により走査した被検査物からの戻り光に基づいて画像を取得する画像取得手段と、
前記被検査物の一枚の画像を取得する際に、前記被検査物の位置ずれを検出する検出手段と、
前記検出された位置ずれを補正するように前記照明光の走査位置を追尾させる追尾手段と、
前記追尾させた時刻に応じて前記一枚の画像を複数の分割画像に分割する画像分割手段と、
前記複数の分割画像各々について位置合わせして新たな画像を生成する画像生成手段と、を有することを特徴とする検査装置。
Image acquisition means for acquiring an image based on return light from the inspection object scanned with illumination light;
Detecting means for detecting a positional deviation of the inspection object when acquiring an image of the inspection object;
Tracking means for tracking the scanning position of the illumination light so as to correct the detected displacement;
Image dividing means for dividing the one image into a plurality of divided images according to the time of tracking;
An inspection apparatus comprising: an image generation unit configured to generate a new image by aligning each of the plurality of divided images.
前記検出手段は、基準画像と、前記基準画像とは異なる時間に取得される前記基準画像に含まれる領域の被検出画像との相対的な位置ずれを前記位置ずれとして検出することを特徴とする請求項1に記載の検査装置。   The detection means detects, as the positional deviation, a relative positional deviation between a reference image and a detected image in a region included in the reference image acquired at a time different from the reference image. The inspection apparatus according to claim 1. 前記画像取得手段により複数枚取得された、前記被検査物の前記新たな画像を生成する際の元画像から、前記新たな画像の基準画像を選択する選択手段を有することを特徴とする請求項1又は2に記載の検査装置。   The apparatus according to claim 1, further comprising a selection unit configured to select a reference image of the new image from an original image acquired when the new image of the inspection object is acquired by the image acquisition unit. The inspection apparatus according to 1 or 2. 前記選択手段は、前記複数枚取得された前記被検査物の画像から、前記検出された位置ずれに基づいて前記新たな画像の基準画像を選択することを特徴とする請求項3に記載の検査装置。   The inspection according to claim 3, wherein the selection unit selects a reference image of the new image from the plurality of images of the inspection object acquired based on the detected displacement. apparatus. 前記画像生成手段は、
前記検出された位置ずれに基づいて前記画像取得手段が取得した複数の画像の位置合わせを行う第一の位置合わせ手段と、
前記分割画像各々の画像に基づいて前記分割画像各々の間での位置合わせを行う第二の位置合わせ手段と
を有することを特徴とする請求項1乃至4の何れか一項に記載の検査装置。
The image generating means includes
First alignment means for aligning a plurality of images acquired by the image acquisition means based on the detected displacement;
The inspection apparatus according to claim 1, further comprising: a second alignment unit that performs alignment between each of the divided images based on the images of the divided images. .
前記画像取得手段は、前記戻り光の波面を検出する波面検出手段と、前記波面を補正する波面補正手段とを有することを特徴とする請求項1乃至5の何れか一項に記載の検査装置。   The inspection apparatus according to claim 1, wherein the image acquisition unit includes a wavefront detection unit that detects a wavefront of the return light, and a wavefront correction unit that corrects the wavefront. . 前記画像取得手段は、
前記新たな画像を生成する際の元画像を取得する第一の画像取得手段と、
前記位置ずれを検出するための画像を取得する前記第一の画像取得手段とは異なる第二の画像取得手段とを有し、
前記検出手段は、前記第一の画像取得手段が前記一枚の画像を取得する際に、前記第二の画像取得手段が取得した前記被検査物の複数の画像に基づいて前記第一の画像取得手段における前記照明光を走査する領域の位置ずれを検出することを特徴とする請求項1乃至6の何れか一項に記載の検査装置。
The image acquisition means includes
First image acquisition means for acquiring an original image when generating the new image;
A second image acquisition means different from the first image acquisition means for acquiring an image for detecting the displacement;
When the first image acquisition unit acquires the one image, the detection unit detects the first image based on a plurality of images of the inspection object acquired by the second image acquisition unit. The inspection apparatus according to any one of claims 1 to 6, wherein a position shift of a region where the illumination light is scanned in the acquisition unit is detected.
前記第一の画像取得手段は、前記戻り光の強度に基づいて生成された前記被検査物の平面画像を取得することを特徴とする請求項7に記載の検査装置。   The inspection apparatus according to claim 7, wherein the first image acquisition unit acquires a planar image of the inspection object generated based on the intensity of the return light. 前記第二の画像取得手段は、前記戻り光の強度に基づいて生成された前記被検査物の平面画像を取得することを特徴とする請求項7又は8に記載の検査装置。   The inspection apparatus according to claim 7, wherein the second image acquisition unit acquires a planar image of the inspection object generated based on the intensity of the return light. 前記画像生成手段は、前記生成された画像に基づいて前記被検査物の動画像を生成することを特徴とする請求項1乃至9の何れか一項に記載の検査装置。   The inspection apparatus according to claim 1, wherein the image generation unit generates a moving image of the inspection object based on the generated image. 照明光により走査した被検査物からの戻り光に基づいて画像を取得する工程と、
前記被検査物の一枚の画像を取得する際に、前記被検査物の位置ずれを検出する工程と、
前記検出された位置ずれを補正するように前記照明光の走査位置を追尾させる工程と、
前記追尾された時刻に応じて前記一枚の画像を複数の分割画像に分割する工程と、
前記複数の分割画像各々について位置合わせして新たな画像を生成する工程と、を含むことを特徴とする検査方法。
Acquiring an image based on the return light from the object scanned with the illumination light; and
A step of detecting a position shift of the inspection object when acquiring one image of the inspection object;
Tracking the scanning position of the illumination light so as to correct the detected displacement;
Dividing the one image into a plurality of divided images according to the tracked time;
And a step of aligning each of the plurality of divided images to generate a new image.
請求項11に記載の検査方法の各工程をコンピュータに実行させることを特徴とするプログラム。   A program for causing a computer to execute each step of the inspection method according to claim 11.
JP2016010662A 2016-01-22 2016-01-22 Examination apparatus and examination method Pending JP2017127580A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016010662A JP2017127580A (en) 2016-01-22 2016-01-22 Examination apparatus and examination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016010662A JP2017127580A (en) 2016-01-22 2016-01-22 Examination apparatus and examination method

Publications (1)

Publication Number Publication Date
JP2017127580A true JP2017127580A (en) 2017-07-27

Family

ID=59395944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016010662A Pending JP2017127580A (en) 2016-01-22 2016-01-22 Examination apparatus and examination method

Country Status (1)

Country Link
JP (1) JP2017127580A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019034230A1 (en) * 2017-08-14 2019-02-21 Optos Plc Ophthalmic device
JP2019047841A (en) * 2017-09-07 2019-03-28 キヤノン株式会社 Image processing device, image processing method, and program
JP2021510588A (en) * 2018-01-19 2021-04-30 カール ツアイス メディテック アクチエンゲゼルシャフト A method of continuously controlling fixation of a patient's eye during detection of biometric data of the patient's eye

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019034230A1 (en) * 2017-08-14 2019-02-21 Optos Plc Ophthalmic device
CN111163683A (en) * 2017-08-14 2020-05-15 奥普托斯股份有限公司 Ophthalmologic apparatus
JP2020530367A (en) * 2017-08-14 2020-10-22 オプトス ピーエルシー Ophthalmic equipment
JP7160445B2 (en) 2017-08-14 2022-10-25 オプトス ピーエルシー ophthalmic equipment
US11669968B2 (en) 2017-08-14 2023-06-06 Optos Plc Ophthalmic device
CN111163683B (en) * 2017-08-14 2023-10-27 奥普托斯股份有限公司 Ophthalmic device
JP2019047841A (en) * 2017-09-07 2019-03-28 キヤノン株式会社 Image processing device, image processing method, and program
JP2021510588A (en) * 2018-01-19 2021-04-30 カール ツアイス メディテック アクチエンゲゼルシャフト A method of continuously controlling fixation of a patient's eye during detection of biometric data of the patient's eye
JP7308211B2 (en) 2018-01-19 2023-07-13 カール ツアイス メディテック アクチエンゲゼルシャフト Method for continuously controlling fixation of a patient's eye during detection of biometric data of the patient's eye

Similar Documents

Publication Publication Date Title
US9687148B2 (en) Photographing apparatus and photographing method
JP5955020B2 (en) Fundus imaging apparatus and method
US9875541B2 (en) Enhanced algorithm for the detection of eye motion from fundus images
US9320424B2 (en) Image display apparatus, image display method and imaging system
JP5656414B2 (en) Ophthalmic image capturing apparatus and ophthalmic image capturing method
JP6438216B2 (en) Image generating apparatus and image generating method
US10939817B2 (en) Fundus imaging apparatus and imaging method
JP6463048B2 (en) Image processing apparatus and method of operating image processing apparatus
JP2013183909A (en) Image processing apparatus and image processing method
JP2017221525A (en) Optical coherence tomography apparatus and optical coherence tomography control program
JP7195769B2 (en) Imaging device and its operating method
JP7368581B2 (en) Ophthalmology equipment and ophthalmology information processing equipment
JP2019201951A (en) Imaging apparatus and control method thereof
JP5948757B2 (en) Fundus photographing device
JP2017127580A (en) Examination apparatus and examination method
JP2017127578A (en) Imaging method, imaging apparatus, and program for executing the imaging method
JP7378557B2 (en) Ophthalmologic imaging device, its control method, program, and recording medium
US20210196116A1 (en) Ophthalmic imaging apparatus, controlling method of the same, and recording medium
US10674902B2 (en) Information processing apparatus, operation method thereof, and computer program
JP2021153786A (en) Image processing device, image processing method and program
JP6436293B2 (en) Fundus imaging device with wavefront compensation
JP7127666B2 (en) Optical coherence tomography device and optical coherence tomography computing program
JP7309404B2 (en) Imaging device and its control method
JP6942626B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP2023035425A (en) Ophthalmologic imaging apparatus

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20171214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180126