JP2017127580A - Examination apparatus and examination method - Google Patents
Examination apparatus and examination method Download PDFInfo
- Publication number
- JP2017127580A JP2017127580A JP2016010662A JP2016010662A JP2017127580A JP 2017127580 A JP2017127580 A JP 2017127580A JP 2016010662 A JP2016010662 A JP 2016010662A JP 2016010662 A JP2016010662 A JP 2016010662A JP 2017127580 A JP2017127580 A JP 2017127580A
- Authority
- JP
- Japan
- Prior art keywords
- image
- slo
- tracking
- illumination light
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、被検査物の検査に用いるための画像を得る検査装置、検査方法及び該検査方法をコンピュータに実行させるプログラムに関する。 The present invention relates to an inspection apparatus for obtaining an image to be used for inspection of an inspection object, an inspection method, and a program for causing a computer to execute the inspection method.
近年、眼科用の撮像装置として、SLO(Scanning Laser Ophthalmoscope:走査レーザ検眼鏡)やOCT(Optical Coherence Tomography:光干渉断層装置)が用いられている。SLOは、眼底へ照射されたレーザ光を2次元的に走査し、その反射光を受光して画像化する装置である。OCTは、低コヒーレンス光の干渉を利用したイメージング装置であって、特に、眼底あるいはその近傍の断層像を得る目的で用いられている。 In recent years, SLO (Scanning Laser Ophthalmoscope) and OCT (Optical Coherence Tomography) have been used as an imaging apparatus for ophthalmology. The SLO is an apparatus that scans a laser beam irradiated to the fundus two-dimensionally and receives reflected light to form an image. OCT is an imaging device that uses interference of low-coherence light, and is used particularly for the purpose of obtaining a tomographic image of the fundus or its vicinity.
このような眼科用の撮像装置は、近年、照射レーザの高NA化等によって、高解像度化が進められている。ここで、眼底の画像を撮像する場合には、角膜や水晶体等の眼の光学組織を通して撮像をしなければならない。そのため、高解像度化が進むに連れて、これら光学組織の収差による撮像画像の画質への影響が顕著になってきた。 In recent years, such an ophthalmic imaging apparatus has been improved in resolution by increasing the NA of an irradiation laser. Here, when an image of the fundus is captured, the image must be captured through the optical tissue of the eye such as the cornea or the crystalline lens. For this reason, as the resolution increases, the influence on the image quality of the captured image due to the aberration of these optical tissues has become remarkable.
そこで、眼の収差を測定し、その収差を補正する補償光学(Adaptive Optics:AO)機能を光学系に組み込んだ、AO-SLOやAO-OCTの研究が進められている。例えば、非特許文献1に、AO-OCTの例が示されている。該AO-OCTでは、シャックハルトマン方式の波面センサーによって眼の収差が表現される波面を測定し、この波面を可変形状ミラー等の波面補正装置により補正している。このような補償光学系を通して眼底の撮像を行うことにより、AO-SLOやAO-OCTは、眼の収差の影響を低減した高分解能な画像の撮像を可能としている。 Therefore, research on AO-SLO and AO-OCT in which an adaptive optics (AO) function for measuring aberration of the eye and correcting the aberration is incorporated in the optical system is underway. For example, Non-Patent Document 1 shows an example of AO-OCT. In the AO-OCT, a wavefront that expresses eye aberration is measured by a Shack-Hartmann wavefront sensor, and the wavefront is corrected by a wavefront correction device such as a deformable mirror. By performing imaging of the fundus through such an adaptive optical system, AO-SLO and AO-OCT enable high-resolution imaging with reduced effects of eye aberrations.
また、これらの眼科用の撮像装置では、固視標と呼ばれる指標を被検者に提示し、該固視標を注視させることで撮像中の眼の動きを抑制し、所望の撮像位置の画像を得ようとしている。しかし、被検眼は、通常は視覚を維持するために不随意的に常に繰り返される固視微動と称呼される微小な眼球運動を行っている。また、固視標を注視し続けることは、被検者にとって集中力の維持や疲労等の問題で難しい。更に、被検者が眼に疾患をもっている場合、視力低下や視野狭窄などがあって、眼の動きが大きくなってしまう。 Further, in these ophthalmic imaging devices, an index called a fixation target is presented to the subject, and the eye movement during imaging is suppressed by gazing at the fixation target, and an image at a desired imaging position is obtained. Trying to get. However, the eye to be examined normally performs minute eye movements called fixation microtremors that are involuntarily repeated in order to maintain vision. Moreover, it is difficult for the subject to keep a close eye on the fixation target due to problems such as maintenance of concentration and fatigue. Furthermore, when the subject has a disease in the eye, there is a reduction in visual acuity, narrowing of the visual field, and the movement of the eye becomes large.
このような固視微動等への対処として、被検眼の動きを測定し、この動きに追尾(トラッキングとも言う)するように眼底でのレーザ光の照射位置をリアルタイムに変更する眼底追尾技術がある。例えば特許文献1に開示される追尾技術では、追尾の際の基準となる画像をリファレンスイメージとして設定している。そして、撮像により眼底から時々刻々得られるターゲットイメージと、該リファレンスイメージとの相対的な位置ずれを演算している。眼底でのレーザ光の走査位置はスキャナにより動かしているが、この演算された位置ずれを加味して走査位置を補正することで、被検眼の動きの影響を抑制した画像を得ている。 As a countermeasure for such fixation fixation, there is a fundus tracking technique that measures the movement of the eye to be examined and changes the irradiation position of the laser light on the fundus in real time so as to track the movement (also referred to as tracking). . For example, in the tracking technique disclosed in Patent Document 1, an image serving as a reference for tracking is set as a reference image. Then, a relative positional shift between the target image obtained from the fundus every moment by imaging and the reference image is calculated. The scanning position of the laser beam on the fundus is moved by a scanner. By correcting the scanning position in consideration of the calculated positional deviation, an image in which the influence of the movement of the eye to be examined is suppressed is obtained.
上述した相対的な位置ずれの演算とその結果に基づくレーザ光走査位置の補正とは、レーザ光の一走査線の実行毎に行われるわけではなく、複数の走査線からから成る二次元画像(平面画像)が得られた段階で行われる。このため、固視微動等によるレーザ光走査位置のずれは、複数の走査線を得ている間に積算されることとなる。従って、固視の悪い被検眼の場合、眼底追尾によるレーザ光の照射位置を補正して変更するタイミングにおける実際の眼の動きと、補正される位置ずれとの間に差が生じることが考えられる。このような差は、撮像される画像或いは動画像において、位置ずれやフレーム面内の歪みを生じさせる。 The above-described calculation of the relative positional deviation and the correction of the laser beam scanning position based on the result are not performed every time one scanning line of the laser beam is executed, but a two-dimensional image composed of a plurality of scanning lines ( This is performed at the stage when a flat image is obtained. For this reason, the shift of the laser beam scanning position due to fixation fine movement or the like is accumulated while obtaining a plurality of scanning lines. Therefore, in the case of the subject's eye with poor fixation, there may be a difference between the actual eye movement at the timing of correcting and changing the laser light irradiation position by tracking the fundus and the corrected positional deviation. . Such a difference causes a positional shift or distortion in the frame plane in the captured image or moving image.
本発明は、上述した状況に鑑みたものであって、追尾機能を動作させて撮像された画像の位置ずれやフレーム面内の歪みを低減することを目的としている。 The present invention has been made in view of the above-described situation, and an object thereof is to reduce a positional deviation or distortion in a frame plane of an image captured by operating a tracking function.
上述した課題を解決するために、本発明の一実施態様に係る検査装置は、
照明光により走査した被検査物からの戻り光に基づいて画像を取得する画像取得手段と、
前記被検査物の一枚の画像を取得する際に、前記被検査物の位置ずれを検出する検出手段と、
前記検出された位置ずれを補正するように前記照明光の走査位置を追尾させる追尾手段と、
前記追尾させた時刻に応じて前記一枚の画像を複数の分割画像に分割する画像分割手段と、
前記複数の分割画像各々について位置合わせして新たな画像を生成する画像生成手段と、を有することを特徴とする。
In order to solve the above-described problem, an inspection apparatus according to an embodiment of the present invention includes:
Image acquisition means for acquiring an image based on return light from the inspection object scanned with illumination light;
Detecting means for detecting a positional deviation of the inspection object when acquiring an image of the inspection object;
Tracking means for tracking the scanning position of the illumination light so as to correct the detected displacement;
Image dividing means for dividing the one image into a plurality of divided images according to the time of tracking;
Image generating means for aligning each of the plurality of divided images and generating a new image.
本発明によれば、追尾機能を動作させて撮像された動画像の位置ずれやフレーム面内の歪みを低減できる。 According to the present invention, it is possible to reduce the displacement of the moving image captured by operating the tracking function and the distortion in the frame plane.
以下、本発明の実施例について、図面を参照しつつ説明する。なお、以下の実施例は特許請求の範囲に関わる本発明を限定するものではなく、また、以下の実施例で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。 Embodiments of the present invention will be described below with reference to the drawings. The following examples do not limit the present invention related to the scope of claims, and all combinations of features described in the following examples are essential to the solution means of the present invention. Not exclusively.
また、以下の実施例では、眼科撮像装置としてAO-SLOとWF-SLOとを有する構成について述べている。しかし、本発明の適用対象は当該構成に限ったものではなく、上述したOCT、AO-OCT、或いはAO-SLO単体からなる装置、或いはこれらを組み合わせてなる複合装置等、被検眼を照明光で走査する眼科撮像装置一般に適用できる。 In the following embodiments, a configuration having an AO-SLO and a WF-SLO as an ophthalmic imaging apparatus is described. However, the application target of the present invention is not limited to this configuration, and the eye to be examined is illuminated with illumination light, such as the above-described OCT, AO-OCT, AO-SLO single device, or a combination device combining these. Applicable to general ophthalmic imaging apparatus for scanning.
[第一の実施例]
以下、図面を参照し、本発明の第一の実施例に係るSLOについて説明する。図1は、本発明の第一の実施例に係る眼底撮像装置(SLO)の構成の概略を示す模式図である。
[First embodiment]
The SLO according to the first embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a schematic diagram showing an outline of the configuration of the fundus imaging apparatus (SLO) according to the first embodiment of the present invention.
図1に例示される本実施例に係る眼底撮像装置において、眼底画像を得るための撮像用の構成は二つある。一方は、高精細画像を得るための補償光学系を適用した走査型レーザ検眼鏡(AO-SLO:Adaptive Optics Scanning LASER Ophthalmoscope)である。他方は、補償光学を適用していない走査型レーザ検眼鏡(WF-SLO:Wide Field Scanning LASER Ophthalmoscope)である。WF-SLOは、AO-SLOよりも得られる画像において解像度で劣る反面、AO-SLOよりも撮像画角が広いという特徴を有している。これらは照明光により走査した被検眼からの戻り光に基づいて画像を取得する画像取得手段を構成し、AO-SLOは本実施例における第一の画像取得手段を、WF-SLOは第二の画像取得手段を構成する。 In the fundus imaging apparatus according to this embodiment illustrated in FIG. 1, there are two imaging configurations for obtaining a fundus image. One is a scanning laser ophthalmoscope (AO-SLO) to which an adaptive optical system for obtaining a high-definition image is applied. The other is a scanning laser ophthalmoscope (WF-SLO) that does not apply adaptive optics. WF-SLO is inferior in resolution in an image obtained than AO-SLO, but has a characteristic that the imaging angle of view is wider than that of AO-SLO. These constitute image acquisition means for acquiring an image based on return light from the eye to be scanned scanned with illumination light. AO-SLO is the first image acquisition means in this embodiment, and WF-SLO is the second image acquisition means. An image acquisition unit is configured.
ここで、本実施例で用いているAO-SLOについて図1を用いて説明する。
本AO-SLOでは、照明光を発する光源101として、波長840nmのSLD光源(Super Luminescent Diode)を用いている。光源101の波長は特に制限されるものではないが、眼底撮像用としては被検者の眩しさの軽減と分解能維持のために、800〜1500nm程度の波長の光が好適に用いられる。なお、本実施例においてはSLD光源を用いたが、その他の光源を用いる事も可能である。
Here, the AO-SLO used in this embodiment will be described with reference to FIG.
In this AO-SLO, an SLD light source (Super Luminescent Diode) having a wavelength of 840 nm is used as the
光源101から照射された光は、単一モード光ファイバー102を通ってコリメータレンズ103に入射し、コリメータレンズ103によって平行光線(照明光105)として照明光路に照射される。照射された照明光105はビームスプリッターからなる光分割部104を透過し、補償光学系に導光される。
The light emitted from the
補償光学系は、光分割部106、波面測定装置115、波面補正装置108及び、それらに照明光等を導光するための反射ミラー107−1〜4から構成される。ここで、反射ミラー107−1〜4は、少なくとも眼111の瞳と波面測定装置115、及び眼111の瞳と波面補正装置108が光学的に共役関係になるように配置されている。波面測定装置115は、本実施例において戻り光の波面を検出する波面検出手段を構成する。また、光分割部106として、本実施例ではビームスプリッターを用いている。光分割部106を透過した照明光105は、反射ミラー107−1と107−2で反射されて波面補正装置108に入射する。波面補正装置108で反射された照明光105は、反射ミラー107−3に出射される。
The compensation optical system includes a
本実施例では、戻り光の波面を補正する波面補正手段を構成する波面補正装置108として、液晶素子を用いた反射型の空間位相変調器を用いた。しかし、波面補正手段としてはこれに限定されず、ミラーの形状が可変となっている可変形状ミラー(デフォーマブルミラーとも言う)でも良い。即ち、波面が補正できるものであれば、用いる構成はこれらに限定されない。
In this embodiment, a reflective spatial phase modulator using a liquid crystal element is used as the
図1において、反射ミラー107−3、4で反射された照明光105は、走査光学系109−1、2によって、一次元もしくは二次元に走査される。本実施例では二次元眼底画像の撮像を目的とした照明光の主走査用(眼底の水平方向での走査用)として共振スキャナ109−1を、副走査用(眼底の鉛直方向での走査用)としてチップチルトミラー109−2を用いた。またチップチルトミラー109−2は、追尾を目的とした照明光の走査位置を変更して撮像位置を補正する手段(眼底の水平、鉛直の両方向)を兼ねている。チップチルトミラー109−2は、照明光105が入射する光軸に対して所定の角度で傾けられた待機角度に通常維持され、被検眼が眼底撮像装置とアライメントされた状態で、照明光105を反射する向きは該照明光105を走査する際の走査中心に向いている。照明光105による眼底の走査では、この待機角度から所定の角度範囲での往復動作をして照明光105の反射方向を変えている。実際の追尾では、この走査中心の向きを変えることにより、後述する検知された位置ずれを補正するように、照明光の走査方向を眼111の動きに合せて追尾させる。また、チップチルトミラー109−2は追尾制御部121と接続されており、この走査中心の向きを変える動作は該追尾制御部121からの指示に基づいて実行される。
In FIG. 1, the
なお、本実施例では、走査手段として共振スキャナとチップチルトミラーの組み合わせを用いている。しかし走査手段の構成はこれに限定されず、ガルバノミラー等その他の走査光学用のミラーを組み合わせて用いてもよい。具体的な例としては、一個の共振スキャナと二個等複数のガルバノミラーによって、本実施例の走査手段と同様の機能を確保することが考えられる。更に走査光学系として用いたこれら構成において照明光を反射させ走査する各ミラーを眼底等と光学的な共役状態にするために、各スキャナの間にミラーやレンズといった光学素子を用いる構成とする場合も考えられる。 In this embodiment, a combination of a resonant scanner and a chip tilt mirror is used as the scanning means. However, the configuration of the scanning means is not limited to this, and other scanning optical mirrors such as a galvanometer mirror may be used in combination. As a specific example, it is conceivable to secure the same function as the scanning means of this embodiment by using one resonance scanner and two or more galvanometer mirrors. Furthermore, in these configurations used as scanning optical systems, in order to make each mirror that reflects and scans illumination light into an optically conjugate state with the fundus etc., an optical element such as a mirror or lens is used between each scanner. Is also possible.
走査光学系109−1、2で偏向された照明光105は、接眼レンズ110−1及び110−2を通して眼111に照射される。眼111に照射された照明光105は、眼底で反射若しくは散乱される。接眼レンズ110−1及び110−2の位置を調整することによって、眼111の視度にあわせて、眼底に対しての照明光の最適な照射を行うことができる。なお、本実施例では接眼部にレンズを用いたが、これらレンズに代えて接眼部を球面ミラー等で構成しても良い。
The
眼111の眼底の網膜から反射もしくは散乱された反射光は、入射した時の照明光105の経路を逆向きに進行する。該反射光は、更に光分割部106によって一部が波面測定装置115に反射される。波面測定装置115に導かれた一部の反射光からなる光線は、該光線の波面分布を測定するために用いられる。
The reflected light reflected or scattered from the retina of the fundus of the
なお、本実施例では、波面測定手段を構成する波面測定装置115としてシャックハルトマンセンサーを用いた。なお、本実施例では波面測定手段としてシャックハルトマンセンサーを用いたが、波面を測定する方法は該波面測定手段の使用に限定されるものではない。例えば、曲率センサーのような他の波面測定手段を用いて、結像させた点像から逆計算で波面を求めるような方法を用いる等しても良い。
In this embodiment, a Shack-Hartmann sensor is used as the
図1において、光分割部106を透過した反射光は光分割部104によって一部が反射され、反射された光はコリメータ112及び光ファイバー113を通して光強度センサー114に導光される。照明光により走査した眼111からの戻り光である当該光は光強度センサー114で電気信号に変換され、制御部117によって光の強度を配列化した画像が構成される。本実施例では平面画像である該画像は更に制御部117によって不図示のメモリに保存され、後述の画像処理を行った後に、眼底画像として表示手段であるディスプレイ118に表示される。
In FIG. 1, a part of the reflected light transmitted through the
波面測定装置115は補償光学制御部116に接続され、該波面測定装置115にて測定した波面分布を補償光学制御部116に伝える。波面補正装置108も補償光学制御部116に接続されており、伝えられた波面分布を補償するように補償光学制御部116からの指示に応じて波面分布の空間的な位相変調を行う。より詳細には、補償光学制御部116は波面測定装置115で測定された波面分布を基に、収差のない波面分布へと補正するような補正量を計算し、波面補正装置108に対してその計算結果に対応した補正状態を作るよう指令する。
The
上述したように、眼底撮像装置においては光学系の一部に被検眼が含まれていることで、光学系が不確定な状態となる。このため、一般的に1回の波面分布の測定及び補正では、小さな収差の波面分布に到達することは困難である。従って、波面分布の測定と補正とを繰り返し、撮像可能な収差まで波面分布を収束させながら補正を実行する。本実施例では、このような動作を行うことによって、照明光が眼底に至るまでの光路の収差を小さくでき、眼底に集光するスポットの大きさを小さくできる。その結果として、空間的な分解能が高い画像を得ている。 As described above, in the fundus imaging apparatus, since the eye to be examined is included in a part of the optical system, the optical system becomes indeterminate. For this reason, it is generally difficult to reach a wavefront distribution with small aberrations by measuring and correcting the wavefront distribution once. Therefore, the measurement and correction of the wavefront distribution are repeated, and correction is executed while converging the wavefront distribution to the aberration that can be imaged. In this embodiment, by performing such an operation, it is possible to reduce the aberration of the optical path until the illumination light reaches the fundus, and to reduce the size of the spot condensed on the fundus. As a result, an image with high spatial resolution is obtained.
ここで、本実施例において用いられているWF-SLO120について説明する。WF-SLOの構成は、基本的にはこれまで説明してきたAO-SLOの構成と同じである。WF-SLO120は、上述した波面測定装置、波面補正装置、及び補償光学制御部が無い構成であることにおいて上述したAO-SLOと相違している。前述したように、本実施例においてWF-SLO120で撮像する画像の画角は、AO-SLOの画角よりも広くなっている。また、WF-SLO120で撮像する画像の解像度は、AO-SLOの解像度よりも劣っている。つまり、本実施例においてWF-SLO120によれば低解像度で広画角な画像が、AO-SLOによれば高解像度で狭画角な画像が得られる。
Here, the WF-
WF-SLO120に使用している照明光を発する光源の波長は、900nmとなっている。AO-SLOにおける照明光の光路中には、ダイクロイックミラー119が配置されている。WF-SLO120からの照明光は該ダイクロイックミラー119によって反射され、AO-SLOの照明光と合波される。合波された光は、接眼レンズ110−1、2を経て、眼111に照射される。眼111に照射された光は、眼のレンズである水晶体によって、眼底上に集光され、眼底で反射されて眼底撮像装置に戻ってくる。眼111より戻ってきた光は、波長帯域に応じて、ダイクロイックミラー119によってWF-SLO120に向かう光とAO-SLOの光路に向かう光とに分離され、各々の光学系に導光される。
The wavelength of the light source that emits the illumination light used in the WF-
WF-SLO120では、得られた反射光の強度を配列化し、眼底の画像を構成し、取得する。WF-SLO120により取得される画像(WF画像と呼ぶ)の例を、図2(a)に示す。同図に示すように、得られたWF画像では、視神経乳頭200、血管201、及び中心窩の存在する領域202が同時に画像化されている。また、該WF-SLO120は、追尾制御部121と接続されている。前述した固視微動等の眼の運動によって照明光105の走査位置は予定していた位置からずれ、眼底における所望の領域の画像ではなく眼の運動に応じて該領域よりずれた領域の画像が得られることとなる。追尾制御部121は、以下に述べるようにWF画像からこのずれの大きさや方向を得、所望の領域の画像が得られるように、走査手段に対して照明光の走査位置を変える指示を出す。ここでは、以上に述べた所望の領域の画像を得るための動作を、照明光の走査位置を追尾する動作と称する。
In WF-SLO120, the intensity | strength of the obtained reflected light is arranged, a fundus image is comprised and acquired. An example of an image (referred to as a WF image) acquired by the WF-
なお、図示されていないが、眼底撮像装置においては、眼の動きを小さくするために被検者に注視させて固視を促す固視標が、被検者に対して提示される。該固視標を被検者に提示する手段は、例えば有機ELディスプレイを用いて構成される。この固視標の提示位置は変更できるようになっており、該提示位置を変える事で、眼の向きを変更する。このように眼の向きを変えることによって、WF-SLO120とAO-SLOの照明光が眼底上で集光する箇所を変更し、撮像する位置を変更できるようになっている。本実施例では、固視標の提示に有機ELディスプレイを用いているが、これに限定されず、液晶ディスプレイや蛍光表示管などを使用してもよい。
Although not shown in the drawing, in the fundus imaging apparatus, a fixation target that prompts the subject to fixate his eyes to reduce eye movement is presented to the subject. The means for presenting the fixation target to the subject is configured using, for example, an organic EL display. The presentation position of the fixation target can be changed, and the direction of the eyes is changed by changing the presentation position. By changing the direction of the eye in this way, the location where the illumination light of the WF-
ここで、眼の運動による照明光の照射位置の変化を検知して、眼の運動の影響を補正するように照明光のスキャナによる走査位置を変更して、撮像位置を補正する追尾機能について説明する。本実施例における追尾機能について、これを実行する追尾動作を示す図3のフローチャートを用いて説明する。なお、この追尾機能についての処理フローは、上述したように図1に示す追尾制御部121によって制御される。該追尾制御部121及びチップチルトミラー109−2等は、本実施例において、検出した位置ずれを補正するように照明光の走査位置を追尾させる追尾手段を構成する。また、追尾制御部121は、追尾機能のリアルタイム性を実現するため、高速な処理演算が可能であるGPU(Graphic Processor Unit)やFPGA(Field Programmable Gate Array)などを用いることが好ましい。
Here, the tracking function for correcting the imaging position by detecting the change of the illumination light irradiation position due to the eye movement and changing the scanning position of the illumination light scanner so as to correct the influence of the eye movement is described. To do. The tracking function in the present embodiment will be described with reference to the flowchart of FIG. 3 showing the tracking operation for executing the tracking function. Note that the processing flow for this tracking function is controlled by the
追尾機能が開始されると、ステップS301で、追尾制御部121はWF-SLO120を用いて、図2(a)に示すWF画像の全体を画像化したWF-SLO基準画像203を取得する。ここで、図2(a)におけるX方向は眼底における照明光の主走査方向、Y方向は副走査方向に対応する。WF画像の取得に際しては、主走査方向において照明光105を走査して一スキャンラインの強度情報を得る毎に、副走査方向に照明光105の照射位置をずらす走査を行う。ステップS301では、副走査方向に照射位置をずらす走査を一スキャンして得られる画像を基準画像として表示したことになる。
When the tracking function is started, in step S301, the
次にステップS302で、追尾制御部121は再びWF-SLO120を用いて、図2(b)に図示する被検出画像204−1を取得する。本実施例において、この被検出画像204−1は、WF画像の一部の領域となっており、この画像をストリップ画像と呼ぶ。なお、本実施例では、該ストリップ画像一枚のY方向の大きさ(長さ)は、WF-SLO基準画像203のY方向の大きさ(長さ)の1/5としている。なお、このストリップ画像のY方向の大きさは任意であって、走査速度、必要とする追尾制御の回数等に応じて適時変更されることが好ましい。
Next, in step S302, the
ステップS303で、追尾制御部121はWF-SLO基準画像203と被検出画像204−1とを比較し、これら画像間での相対的な位置ずれの方向と量とを検出する。検出アルゴリズムは、一般的な画像マッチング手法を用いてよく、ここでは位相限定相関法を用いる。相対的な位置ずれは、図2(a)及び2(b)中のX方向(眼底の水平方向)の検出値ΔXと、Y方向(眼底の鉛直方向)の検出値ΔYとして検出される。
In step S303, the
検出値ΔX及びΔYは、被検出画像204−1を得たタイミングにおいて、WF-SLO基準画像203を得た際よりも被検眼がこれら検出値に対応する方向及び量だけ動いた状態であったことを示している。よって、追尾制御部121は、ステップS304で、検出したΔX、ΔYに対応する眼の動きをキャンセルしてAO-SLOによる画像を取得するための動作を行う。即ち、AO-SLOのチップチルトミラー109-2に対して、照明光の走査開始位置としてこれら検出値をキャンセルした位置を指令する。なお、当該指令は、チップチルトミラー109−2による照明光の走査位置の変更量(所定角度範囲のミラーの回転動作における回転中心角度の通常角からの振れ角量)として発せられる。
The detection values ΔX and ΔY were in a state in which the eye to be examined moved by the direction and amount corresponding to these detection values at the timing when the detection image 204-1 was obtained, compared to when the WF-
より具体的には、AO-SLOのチップチルトミラー109−2において副走査方向の駆動を指令している指令値(信号)について、検出したΔX、ΔY分の駆動信号を上乗せし、該ミラーに対して走査開始位置の変更を実行させる。この指令値の変更により、副走査を行う際のスキャナ走査位置を変更し(走査位置を眼の運動に追尾させ)、AO-SLO画像の取得位置を修正する。これによって、AO-SLOの撮像位置は、眼の運動に対して、X方向(眼底の水平方向)でもY方向(眼底の鉛直方向)でも追尾することとなる。 More specifically, for the command value (signal) commanding driving in the sub-scanning direction in the AO-SLO chip tilt mirror 109-2, the detected drive signals for ΔX and ΔY are added, and the mirror is added to the mirror. On the other hand, the scanning start position is changed. By changing the command value, the scanner scanning position for performing sub-scanning is changed (the scanning position is tracked by eye movement), and the acquisition position of the AO-SLO image is corrected. As a result, the imaging position of the AO-SLO is tracked in the X direction (horizontal direction of the fundus) and the Y direction (vertical direction of the fundus) with respect to the eye movement.
ステップS304が終わると、ステップS305においてAO-SLOにおける画像取得が終了したか否かの確認が行われる。AO-SLO画像の取得が継続される場合には、追尾制御部121はフローをステップS302に移行させて、ステップS302からステップS304の画像取得位置の追尾動作を繰り返す。また、この繰り返しの際に、WF-SLO120において、図2(b)に示される被検出画像204−2、204−3、204−4、204−5のように、被検出画像の眼底上での取得位置を次々に変更していく。なお、便宜上、図2(b)における各々の被検出画像はWF-SLO基準画像上の対応する位置の画像と同じに描かれている。しかし、実際には眼底においてこの画像を得ようとして照明光105の照射及び走査が行われているだけであって、眼の動きに応じて照射及び走査の位置は眼底上の所望位置からずれ、この画像が得られているわけではない。例えば被検出画像204−1について言えば、端の部分に関しては図示された画像中の絵が得られず、反対側の端の部分では図示されていない眼底の他の部分の絵が得られたストリップ画像等が得られることとなる。被検出画像204−5の取得後、次に取得する画像を被検出画像204−1とするように、追尾制御部121はWF-SLO120の不図示のスキャナに対して照明光を走査する指令を行う。本実施例では、ストリップ画像の取得位置を変更していく繰り返し動作を、被検出画像204−1〜204−5の順で得るように繰り返す。
When step S304 ends, it is confirmed in step S305 whether image acquisition in AO-SLO has ended. When the acquisition of the AO-SLO image is continued, the
WF画像(本実施例でWF-SLO基準画像203に対応するフレームの画像)のフレーム更新期間をTとすると、本実施例では位置検出及び指令値の変更を、被検出画像の取得回数に対応して、一更新期間Tの間に5回行うことができる。被検出画像204をWF画像の一部であるストリップ画像とする事で、位置検出の単位時間当たりの実行頻度及び変更された指令値の単位時間当たりの発信頻度を増やすことが可能となる。その結果、眼の動きを追尾する際の時間の遅れを短くでき、眼の動きに対する追尾の残差を小さくすることができる。またWF画像のフレーム間のインターバル及びこのインターバルの前後での被検出画像の取得時のインターバルを短縮するために、副走査方向の往路と復路の双方で画像を取得することも可能である。具体的には、被検出画像204−5の次に取得する画像を被検出画像204−1ではなく再度被検出画像204−5としてもよい。また、この場合、以降も、被検出画像204−4、204−3、204−2、204−1の順で次々に取得することが好ましい。このような取得順とすることにより、被検出画像204−5から次の被検出画像の取得のために照明光の照射位置を戻すスキャナの動きを省略することができる。従って、フレーム間のインターバルの短縮、すなわち眼の動きに対して追尾をする際の時間遅れを更に低減することが可能となる。
Assuming that the frame update period of the WF image (the image of the frame corresponding to the WF-
追尾制御部121により行われるステップS302からステップS304のフローの繰り返しと並行して、AO-SLOによるAO-SLO画像の取得が行われる。その際、ステップS304において、眼の動きに対応して照明光の走査位置をずらす(変更する)追尾機能が動作する。即ち、AO-SLO画像を一枚取得する際に、照明光105により走査される眼底上の領域の位置ずれが複数回検出され、且つ検出された位置ずれ補正のための追尾動作が実行される。よって、眼の動きに追従してAO-SLO画像の取得位置が修正されるため、AO-SLO画像のフレーム全体として、位置ずれの少ない良好なAO-SLO画像が得られる。このように連続的に取得され且つ相互の位置ずれが少ない複数フレーム(一フレームが一AO-SLO画像に対応)の画像を連続的にディスプレイ118に表示することにより、AO-SLO動画像の提供が可能となる。該AO-SLO動画像によれば、眼底における血流等を知ることが可能となる。
In parallel with the repetition of the flow from step S302 to step S304 performed by the
ステップS305にて、AO-SLO画像の取得が終了し、追尾の動作を行う必要が無くなると、追尾制御部121はフローを進め、眼底追尾動作を終了する。なお、本実施例において、WF-SLO120及び追尾制御部121は、AO-SLO画像を一枚取得する際に、前記眼底の位置ずれを検出する検出手段を構成する。該検出手段は、上述したように、WF-SLO基準画像203と、該WF-SLO基準画像203とは異なる時間に取得される被検出画像204−1〜5との相対的な位置ずれを検出する。検出された位置ずれは、追尾の際に用いる位置ずれの情報として用いられる。なお、被検出画像204−1〜5は、WF-SLO基準画像203の眼底上(被検査物上)での取得予定の範囲に含まれる範囲を撮像予定範囲として取得されることが好ましい。
In step S305, when the acquisition of the AO-SLO image is completed and it is not necessary to perform the tracking operation, the
ここで、被検眼の固視の動きが比較的大きい場合に、追尾機能を動作させて撮像したAO-SLO画像に位置ずれやフレーム面内の歪みが生じることがある。上述した追尾プログラムでは、追尾制御部121が、ストリップ画像の取得毎に、眼の動きをキャンセルするようにチップチルトミラー109−2に眼の動きを補正するように変更された指令値を与えている。しかし、例えば固視の変化量が大きく、変化する方向もたびたび変わるように動き続けている被検眼も存在する。このような被検眼では、ストリップ画像を取得している間も常に被検眼が動き続け、ストリップ画像取得時に求められるΔX及びΔYのずれ量は、この動きが積算された結果より得られることとなる。即ち、ずれ量を求める直前の被検眼における画像取得領域は、この求められたずれ量を得た画像を取得した領域と厳密には対応できていない場合がある。また、被検眼の動きが大きい場合には、このずれ量を得た直前と直後においても被検眼の動きの影響は出てしまい、画像を取得しようとした位置に対して更なる位置ずれを有した画像を生成してしまう可能性が有る。
Here, when the fixation movement of the eye to be examined is relatively large, the AO-SLO image captured by operating the tracking function may be displaced or distorted in the frame plane. In the tracking program described above, the
即ち、このような被検眼の場合、チップチルトミラー109−2に指令値を発するタイミングには、直前のストリップ画像で追尾制御しようとした画像取得範囲とは異なる画像取得範囲となるように眼が動いてしまっているケースが生じる。その結果、撮像したAO-SLO画像において、チップチルトミラー109−2にずれ補正をするための指令値を発信するタイミングでのスキャン位置で、断層のように位置ずれが起きる、又は画像歪みが生じてしまう等という現象が生じる場合がある。 That is, in the case of such an eye to be examined, at the timing when the command value is issued to the tip tilt mirror 109-2, the eye has an image acquisition range that is different from the image acquisition range to be tracked with the immediately preceding strip image. There is a case of moving. As a result, in the captured AO-SLO image, misalignment occurs like a tomography or image distortion occurs at the scan position at the timing when a command value for correcting the misalignment is transmitted to the tip tilt mirror 109-2. May occur.
このような現象の発生を回避するために、ストリップ画像の副走査方向の画像幅を狭くして、位置検出の単位時間当たりの実行頻度及び変更された指令値の単位時間当たりの発信頻度を増やすことも可能である。しかし、画像幅を狭くしすぎると、例えば図3のステップS303で行う追尾のための検出する画像間での相対的な位置ずれの検出精度が低くなってしまう。このため、画像幅を狭くする対応方法には、限界がある。 In order to avoid the occurrence of such a phenomenon, the image width in the sub-scanning direction of the strip image is narrowed to increase the frequency of execution of position detection per unit time and the frequency of transmission of changed command values per unit time. It is also possible. However, if the image width is too narrow, for example, the detection accuracy of the relative displacement between the images to be detected for tracking performed in step S303 in FIG. 3 is lowered. For this reason, there is a limit to the correspondence method for narrowing the image width.
このため、本実施例では、追尾機能を動作させて撮像したAO-SLO画像に対して、画像処理を施すことでAO-SLO画像の位置ずれやフレーム面内の歪を補正することとしている。即ち、追尾制御部121がチップチルトミラー109−2に照明光の照射位置の修正するための指令値を発信するタイミングに対応するAO-SLO画像上の照射位置の情報を把握し、制御部117はその照射位置の情報を考慮した上でAO-SLO画像に対する画像処理を行うこととしている。その結果AO-SLO画像における不連続な部分が生じなくなり、当該画像を連続して表示したとしても、検者に違和感を与えないAO-SLO動画像を提供することができる。
For this reason, in this embodiment, the AO-SLO image captured by operating the tracking function is subjected to image processing to correct the positional deviation of the AO-SLO image and the distortion in the frame plane. That is, the
以下、本実施例における画像処理方法について説明する。図4は本実施例における画像処理機能を説明するフローチャートである。該処理機能は、制御部117によって制御、実行される。
Hereinafter, an image processing method in this embodiment will be described. FIG. 4 is a flowchart for explaining the image processing function in this embodiment. The processing function is controlled and executed by the
画像処理機能が開始されると、ステップS401で、制御部117は撮像したAO-SLO画像の位置合わせを行うためのAO-SLO基準画像を取得する。この基準画像は、位置合わせを行う際のベース画像として用いられる。なお、該基準画像の選択方法としては、連続的にディスプレイ118に表示されるフレーム中の任意のフレームを選ぶ、もしくはユーザーがフレームを指定してもよい。或いは、制御部117が自動でフレームを選択してもよい。自動で選択する場合は、例えば画像の各フレームの中で最も画質が良いものを選んでもよい。もしくは、画像の中で各画像間の共通領域(オーバーラップ)が一番大きくなるものを選んでもよい。更には、それらを組み合わせてフレームを選ぶこととしてもよい。また、画質で選ぶ場合は、任意の画質評価法を用いてよく、例えばコントラストやSN比などで評価してもよい。オーバーラップで選ぶ場合は、プレ処理として各フレーム間で位置合わせを行い、オーバーラップ領域を評価するなどしてもよい。制御部117の一部モジュールは、AO-SLOにより複数枚取得された、眼111における新たな画像を生成する際の元画像となる各フレームから、新たな画像の基準画像を選択する本実施例における選択手段を構成する。
When the image processing function is started, in step S401, the
ステップS402で、制御部117は、AO-SLO画像として連続して得られているフレームの全てについての各々の位置ずれ検出のための演算を行う。具体的にはステップS401で選択された基準画像に対して各フレームを画像マッチング処理により位置合わせを行う。ここで画像マッチング処理は、任意の手法を用いてよく、本実施例では位相相関限定法で行い、フレームの全てについて、各々のずれ量(オフセット量)を、ΔAX、ΔAYとして求める。
In step S <b> 402, the
ステップS403で、制御部117は、各フレームにおいてチップチルトミラー109−2に対して照射位置修正のために変更された指令値が発信されたタイミングに対応する、AO-SLO画像中のスキャン位置を取得する。具体的には、図3のステップS304で眼の動きをキャンセルするためにAO-SLOのチップチルトミラー109-2による走査位置中心として指令値を発信したタイミングを、追尾制御部121で記憶しておく。そして、その指令値の発信と同期したタイミングのAO-SLO画像のスキャン位置を制御部117が取得する。もしくは、撮像時にAO-SLO画像を制御部117が保存する際に、画像のタグ情報などに、スキャン位置情報を埋め込んだ状態で保存しておき、それを参照してもよい。
In step S403, the
以下、このスキャン位置情報について、図5を用いて説明する。図5は、AO-SLO画像においてフレーム分割して位置合せする処理の説明図である。同図においてフレーム500はAO-SLO画像の一フレームを示しており、同図におけるX方向は照明光の主走査方向であり、共振スキャナ109−1の駆動方向に対応する。フレーム500のY方向は照明光の副走査方向であり、チップチルトミラー109−2による照明光の駆動方向に対応する。また、AO-SLO画像を一フレーム取得する際には、追尾のためにチップチルトミラー109-2に対して変更された指令値が複数回発信されている。追尾制御部121がこの指令値を発信したタイミングは、それぞれ図5に示す画像において時刻t1、t2、t3、t4、t5として示されてスキャンラインを走査する直前に対応している。
Hereinafter, the scan position information will be described with reference to FIG. FIG. 5 is an explanatory diagram of a process for dividing and aligning frames in an AO-SLO image. In the figure, a
ステップS404で、制御部117は、ステップS401で選択した基準画像に対して、連続的に取得したAO-SLO画像のフレーム毎に、画像マッチング処理により詳細な位置合わせ処理を行う。なお、位置ずれを検知した時刻に応じた一枚のAO-SLO画像の複数の画像への分割は、制御部117において画像分割手段として機能するモジュールによって実行される。位置合わせ処理は、ステップS403で取得したスキャン位置によりフレーム500を分割して得た分割画像の各々について行う。時刻t1、t2、t3、t4及びt5により分割して得た分割画像は、それぞれ図5に分割画像501−1、501−2、501−3、501−4、501−5として示している。
In step S404, the
具体的な、位置合わせ処理について、以下に述べる。まず、位置合わせ対象のフレーム500全体に対して、ステップS402でフレーム毎に演算して求められたオフセット量ΔAX、ΔAYを用いて対象フレームを並行移動させ、AO-SLO基準画像との位置合わせを行う。次に、AO-SLO基準画像に対して、並行移動後の各分割画像501−1〜5について、それぞれ位置合わせ処理を行う。位置合わせ処理は任意の画像位置合わせ処理を用いてよく、ここでは位相限定相関法を用いて分割画像毎の位置ずれの検出を行う。更に位置ずれ検出後に、それぞれの位置ずれのベクトル量について、バイキュービック補間法を用いて該ずれ量を画像の各ピクセルに分散させ、非剛体の位置合わせを行う。
Specific alignment processing will be described below. First, the
なお、非剛体位置合わせのための、位置ずれ検出や画像補完処理は、それぞれ任意の手法を用いて行ってもよい。また位置ずれの検出を行った後に、分割画像毎に位置合わせを行うような剛体位置合わせ処理を行ってもよい。この場合、分割画像毎に位置合わせを行うのであれば、その方法は限定されない。なお、本実施例では、長方形の分割画像毎に位置合わせ処理を行ったが、より細かい分割画像で非剛体位置合わせを行うために、各分割画像501−1〜5を更に小さい画像に分割して処理してもよい。また、位置ずれ検出の段階でその検出精度が低いと判断される場合、その検出位置のベクトル量は用いないという処理を行ってもよい。この場合の検出精度の判断は、任意の手法を用いてよく、ここでは位相限定相関法により算出するピークがある閾値を下回った場合に精度が低いと判断する処理を行うことが好ましい。なお、上述したこれらの一連の位置合わせ処理は、撮像したAO-SLO画像のフレーム毎に行われる。 Note that misalignment detection and image complement processing for non-rigid body alignment may be performed using any method. Further, after detecting the displacement, rigid body alignment processing may be performed in which alignment is performed for each divided image. In this case, the method is not limited as long as alignment is performed for each divided image. In this embodiment, the alignment processing is performed for each rectangular divided image. However, in order to perform non-rigid registration with a finer divided image, each of the divided images 501-1 to 50-1 is divided into smaller images. May be processed. Further, when it is determined that the detection accuracy is low at the stage of detecting the displacement, a process may be performed in which the vector amount at the detected position is not used. In this case, the detection accuracy may be determined using an arbitrary method. Here, it is preferable to perform processing for determining that the accuracy is low when the peak calculated by the phase-only correlation method falls below a certain threshold value. Note that the above-described series of alignment processing is performed for each frame of the captured AO-SLO image.
以上のAO-SLO画像の各フレームに対する画像処理が終了すると、制御部117によりステップS404よりフローが進められ、画像処理プログラムは終了される。位置合わせ等の画像処理を施されたAO-SLO画像のそれぞれの画像(AO-SLO動画像)は、制御部117に保存され、必要に応じて眼底画像としてディスプレイ118に表示される。制御部117の一部モジュールは、以上の複数の分割画像各々について位置合わせをして新たな画像を生成する画像生成手段を構成する。また、該画像生成手段は、検出された位置ずれに基づいて取得された複数のフレーム間での位置合わせを行う第一の位置合わせ手段と、分割画像各々の画像に基づいて分割画像各々の間での位置合わせを行う第二の位置合わせ手段と、を有する。
When the image processing for each frame of the AO-SLO image is completed, the
上述したように、本実施例に係る追尾プログラム及び画像処理プログラムを用いて画像を得ることにより、追尾により撮像された画像の位置ずれやフレーム面内の歪みを精度よく補正した動画像を取得することができる。 As described above, by obtaining an image using the tracking program and the image processing program according to the present embodiment, a moving image in which the positional deviation of the image captured by tracking and the distortion in the frame plane is accurately corrected is acquired. be able to.
[第二の実施例]
第二の実施例では、上述した第一の実施例における画像処理に加えて、撮像対象とする被検眼の固視微動による撮像位置のずれを検知した結果も参照し、撮像された画像の位置合わせを行う方法について説明する。即ち、本実施例では、複数枚(複数フレーム)取得されたAO-SLO画像から、第一の実施例と同様にWF-SLO画像より検出された位置ずれに基づいて、新たな画像の生成に用いるAO-SLO基準画像を選択することとしている。なお、本実施例における眼底撮像装置の構成は第一の実施例と同様であることからここでの説明は省略する。また、実行される追尾動作についても同様である。
[Second Example]
In the second embodiment, in addition to the image processing in the first embodiment described above, the result of detecting the shift in the imaging position due to the fixation eye movement of the eye to be imaged is also referred to, and the position of the captured image A method for performing the alignment will be described. That is, in this embodiment, a new image is generated based on the positional deviation detected from the WF-SLO image from the AO-SLO image acquired in a plurality of (multiple frames) as in the first embodiment. The AO-SLO reference image to be used is selected. In addition, since the structure of the fundus imaging apparatus in the present embodiment is the same as that in the first embodiment, description thereof is omitted here. The same applies to the tracking operation to be executed.
以下では、第二の実施例が第一の実施例と異なる画像処理動作の詳細について説明する。図6は、第二の実施例における画像処理動作を説明するフローチャートである。なお、第一の実施例と同様に、該処理動作は、制御部117によって制御、実行される。
In the following, the details of the image processing operation in which the second embodiment is different from the first embodiment will be described. FIG. 6 is a flowchart for explaining the image processing operation in the second embodiment. As in the first embodiment, the processing operation is controlled and executed by the
画像処理動作が開始されると、制御部117は、ステップS410で、追尾時の眼の動きに関する情報を取得する。具体的には、ステップS303で取得した各WF画像の被検出画像(ストリップ画像)204毎に検出した位置ずれに関する情報を、眼の動きとみなす。そして、例えば、AO-SLO画像の一フレームの撮像に要した時間に相当する間に検出した位置ずれ量を、各々(X1、Y1)、(X2、Y2)、・・・、(Xn、Yn)として追尾制御部121が保持する位置ずれ量より抽出する。
When the image processing operation is started, the
次に、ステップS411で追尾時の情報を基に、制御部117はAO-SLO基準画像を選択する。ここでは第一の実施例におけるステップS401とは異なり、ステップS410で取得した、AO-SLO画像を一フレーム取得する間に検出した位置ずれに関する情報を評価して基準画像を選択する。ここで、画像位置合わせの精度を向上させるには、できるだけ画像の歪みや位置ずれの少ない画像を基準画像として選択することが有効である。本実施例では、ステップS410でフレーム毎に対して取得された眼の動きに対応し、WF-SLO120において検出した位置ずれを各々XY座標上に(X1、Y1)、(X2、Y2)、・・・、(Xn、Yn)としてその方向および大きさを展開し、各々を評価する。そして、全体の位置ずれより、眼の動きが比較的小さく、固視が安定している状態で取得されたと推定されたフレームを、AO-SLO基準画像として選択する。
Next, in step S411, based on the tracking information, the
この眼の動きの評価方法には、任意の方法を用いることが可能である。本実施例では、隣り合う検出点の差を、各WF画像のストリップ画像を撮像中に動いた眼の移動距離として算出し、この値を用いて評価している。具体的には、(ΔX1、ΔY1)=(X1−X2、Y1−Y2)、・・・、(ΔXn−1、ΔYn−1)=(Xn−1−Xn、Yn−1−Yn)を算出する。これらは、WF-SLO120より得られた情報に基づくが、一フレームのAO-SLO画像の取得中における眼の移動距離の推移を示していると考える。このそれぞれの(ΔX、ΔY)もしくはΔX、ΔYの二乗平方根が小さい場合、急峻な眼の動きはなかったと考えられる。なお、移動距離の平均が小さくても、瞬間的に大きな移動が含まれている場合も考えられ、このような状態で得られたAO-SLO画像は基準画像としてふさわしくない。よって、本実施例では、一フレーム中において任意で設定した閾値よりも大きな移動距離がなく、かつ移動距離の平均値が最も小さいフレームを基準画像として設定している。なお、一フレームの評価方法はこれに限定されず、眼の動きの変化量が比較的小さいフレームが選ばれていればよい。またステップS410で説明した方法と上述したステップS401で説明した基準画像の選択方法とを組み合わせて用いてもよい。
Any method can be used as the eye movement evaluation method. In the present embodiment, the difference between adjacent detection points is calculated as the movement distance of the eye that moved while capturing the strip image of each WF image, and this value is used for evaluation. Specifically, (ΔX1, ΔY1) = (X1-X2, Y1-Y2),..., (ΔXn-1, ΔYn-1) = (Xn-1-Xn, Yn-1-Yn) are calculated. To do. These are based on information obtained from the WF-
AO-SLO基準画像を選択した後に実行されるステップS402及びS403での処理については、第一の実施例の処理と同様であることから同じ参照番号を付記してここでの説明を割愛する。 Since the processing in steps S402 and S403 executed after the AO-SLO reference image is selected is the same as the processing in the first embodiment, the same reference numerals are added and description thereof is omitted here.
ステップS414で、制御部117は追尾情報を考慮したフレーム間位置合わせを行う。ここでの位置合わせの方法は、ステップS404で記載した方法と基本的に同様であるが、ステップS410で取得した位置ずれの値によっては異なる処理を行う。まずWF-SLO120からの情報により位置ずれ補正を行った時刻t1、t2、・・・、tnのタイミングに得た位置ずれの値を、ステップS410と同様にそれぞれ(X1、Y1)、(X2、Y2)、・・・、(Xn、Yn)として対応付ける。この動作は連続的に取得しているAO-SLO画像の各々に対して行われる。
In step S414, the
そして、時刻tnにおいて検出した位置ずれの値を評価して、通常の位置合わせとは異なる処理を行う。例えば、検出した位置ずれ(Xn、Yn)がチップチルトミラー109−2の許容動作範囲より大きくなる場合は、追尾が失敗していると予想される。従って、該当の位置ずれ量を検出した際の画像データは位置合わせに使用しない、もしくはマスク処理を行いユーザーに見せないようにする処理を行う。また、検出した位置ずれ(Xn、Yn)が、このずれ量に基づいて画像の位置をずらした場合に同一フレーム内の既存の分割画像にすべて重なる値となる場合も考えられる。このような場合は、処理が重複するために位置合わせの処理を行わない、もしくはデータを破棄し、使用しないなどの処理を行う。 Then, the position shift value detected at time tn is evaluated, and processing different from normal alignment is performed. For example, when the detected positional deviation (Xn, Yn) is larger than the allowable operation range of the tip tilt mirror 109-2, it is predicted that the tracking has failed. Therefore, the image data when the corresponding amount of misregistration is detected is not used for alignment or a mask process is performed so as not to show to the user. In addition, the detected positional deviation (Xn, Yn) may be a value that overlaps all existing divided images in the same frame when the position of the image is shifted based on the amount of deviation. In such a case, since the process is duplicated, the alignment process is not performed, or the data is discarded and not used.
更に、ステップS411で算出したのと同様に、検出位置の隣り合う検出点の差から求められる眼の移動距離(ΔX、ΔY)、もしくはΔX、ΔYの二乗平方根がある閾値よりも大きい場合には、急峻な被検眼の動きがあったとみなす。この場合、急峻な被検眼の動きに対応する画像は、位置合わせに使用しない、もしくはマスク処理を行いユーザーに見せないように処理を行う。眼の動きにはサッケードと呼ばれる急峻な動きがあり、当該動きが生じると画像が流れ星のように歪んでしまい、画質劣化を引き起こす。先の処理は、このような目の動きが生じた場合に対応する。 Further, as calculated in step S411, when the eye movement distance (ΔX, ΔY) obtained from the difference between adjacent detection points of the detection position or the square root of ΔX, ΔY is greater than a certain threshold value. It is considered that there was a steep eye movement. In this case, the image corresponding to the sharp movement of the eye to be examined is not used for alignment, or is processed so as not to be shown to the user by performing mask processing. Eye movement has a steep movement called a saccade, and when this movement occurs, the image is distorted like a shooting star, causing image quality degradation. The previous processing corresponds to the case where such eye movement occurs.
検出した位置ずれ(Xn、Yn)より、上述したような条件を位置合わせ等に不適切な画像ではないと判定された場合は、第一の実施例でのステップS404と同様に位置合わせの処理を行う。ステップS411では、このように、追尾を行う際の検出位置の値によって、眼の動きを評価して異なる処理を行う。 If it is determined from the detected misregistration (Xn, Yn) that the above-described condition is not an inappropriate image for alignment or the like, alignment processing is performed as in step S404 in the first embodiment. I do. In step S411, as described above, the eye movement is evaluated according to the value of the detected position when tracking is performed, and different processing is performed.
以上のAO-SLO画像の各フレームに対する画像処理が終了すると、制御部117によりステップS414よりフローは進められ、画像処理動作は終了される。位置合わせ等の画像処理を施されたAO-SLO画像のそれぞれの画像(AO-SLO動画像)は、制御部117に保存され、必要に応じて眼底画像としてディスプレイ118に表示される。
When the image processing for each frame of the AO-SLO image is completed, the
上述したように、本実施例として述べた追尾動作及び画像処理動作を用いて画像を得ることにより、追尾により撮像された画像の位置ずれやフレーム面内の歪みを精度よく補正した動画像を取得することが可能となる。 As described above, by obtaining an image using the tracking operation and the image processing operation described in the present embodiment, a moving image in which the positional deviation of the image captured by tracking and the distortion in the frame plane is accurately corrected is acquired. It becomes possible to do.
なお、本実施例では、第一の実施例における画像処理動作とは異なり、ステップS411における追尾情報を考慮した基準画像の選択とステップS414における追尾情報を考慮したフレーム間の位置合わせとを実施している。しかし、これら処理のどちらか片方のみを第一の実施例における対応するステップで行ったとしても、その効果は得られる。 In this embodiment, unlike the image processing operation in the first embodiment, the selection of the reference image in consideration of the tracking information in step S411 and the alignment between frames in consideration of the tracking information in step S414 are performed. ing. However, even if only one of these processes is performed in the corresponding step in the first embodiment, the effect can be obtained.
[その他の実施例]
第一の実施例及び第二の実施例では、追尾機能で作用させるスキャナとして、主走査用(眼底の水平方向)と副走査用(眼底の鉛直方向)との両方向に対処可能なチップチルトミラー109−2を用いている。しかし、副走査用にガルバノミラーを用いて、副走査方向のみに追尾機能を作用させたとしても、その他の構成をこれら実施例と同様にすることにより、追尾の効果は小さくなるが類似する効果を得ることができる。
[Other Examples]
In the first embodiment and the second embodiment, a chip tilt mirror capable of handling both main scanning (horizontal direction of the fundus) and sub-scanning (vertical direction of the fundus) as a scanner operated by the tracking function. 109-2 is used. However, even if a galvano mirror is used for sub-scanning and the tracking function is operated only in the sub-scanning direction, the effect of tracking is reduced by making the other configurations the same as those of these embodiments, but similar effects. Can be obtained.
また、WF-SLOとAO-SLOの各々のフレームにおける照明光の走査のタイミングを同期させてもよい。この場合、チップチルトミラー109-2に対して位置ずれ補正の指令をするタイミング、即ちAO-SLO画像を位置合わせ用の分割画像に分割する位置が、AO-SLO画像の各フレームにおいて固定される。その結果、フレーム間位置合わせに用いる分割画像の抽出位置を固定化することが可能となる。 In addition, the scanning timing of illumination light in each frame of WF-SLO and AO-SLO may be synchronized. In this case, the timing for instructing the displacement correction to the tip tilt mirror 109-2, that is, the position at which the AO-SLO image is divided into the divided images for alignment is fixed in each frame of the AO-SLO image. . As a result, it is possible to fix the extraction position of the divided image used for inter-frame alignment.
また第一の実施例及び第二の実施例では、追尾動作に用いる画像の取得にWF-SLO120を用いている。しかし、WF-SLOを用いずに、AO-SLO光学系単体を用いた追尾システムを構築することも可能である。この場合、追尾のための基準画像と被検出画像とを、共にAO-SLOによって取得することとなる。当該構成では、追尾動作及び画像処理動作について同じAO-SLO画像を用いて行うこととなる。その場合であっても、その他の構成をこれら実施例同様にすることで、上述した実施例と同様の効果を得ることができる。
In the first and second embodiments, the WF-
また、画像処理を施す画像を取得する装置としてAO-SLOを用いた場合を実施例として挙げた。しかし、照明光或いは測定光により被検眼を操作する態様の眼科装置、例えば光干渉断層像を取得できるOCTに対しても、WF-SLOを設けて本発明の追尾機能を持たせることで、上述した実施例と同様の効果を得ることができる。 Further, the case where AO-SLO is used as an apparatus for acquiring an image subjected to image processing has been described as an example. However, an ophthalmologic apparatus that operates the eye to be examined with illumination light or measurement light, for example, OCT that can acquire an optical coherence tomographic image, is provided with the tracking function of the present invention by providing a WF-SLO. The same effects as those of the embodiment described above can be obtained.
なお、本件は上述した実施例に限定されるものではなく、本発明の趣旨を逸脱しない範囲内において、種々の変形、変更を施して実施することができる。例えば、上述の実施例では、被検眼眼底を検査対象とする眼底撮像装置について述べているが、被検眼における眼底以外の部位、或いは被検眼以外の皮膚や臓器等の被検査物を検査対象とする検査装置に本発明を適用することも可能である。この場合、検査対象が収差を生じさせないため補償光学系は必要なくなるが、追尾及び画像処理は必要となり、本発明は眼底撮像装置以外の、例えば内視鏡等の医療機器としての態様を有する。従って、本発明は眼底撮像装置に例示される検査装置として把握され、被検眼は被検査物の一態様として把握されることが望ましい。 The present invention is not limited to the above-described embodiments, and various modifications and changes can be made without departing from the spirit of the present invention. For example, in the above-described embodiment, a fundus imaging apparatus that examines the fundus of the eye to be examined is described. It is also possible to apply the present invention to an inspection apparatus. In this case, the subject to be inspected does not cause aberrations, so that the compensation optical system is not necessary, but tracking and image processing are necessary, and the present invention has an aspect as a medical device other than the fundus imaging apparatus, for example, an endoscope. Therefore, it is desirable that the present invention is grasped as an inspection apparatus exemplified by the fundus imaging apparatus, and the eye to be examined is grasped as one aspect of the inspection object.
更に、本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理によっても実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 Furthermore, the present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus execute the program. It can also be realized by a process of reading and executing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
101:光源
108:波面補正装置
109:走査光学系
111:眼
114:光強度センサー
115:波面測定装置
116:補償光学制御部
117:制御部
118:ディスプレイ
119:ダイクロイックミラー
120:WF-SLO
121:追尾制御部
101: light source 108: wavefront correction device 109: scanning optical system 111: eye 114: light intensity sensor 115: wavefront measuring device 116: adaptive optics control unit 117: control unit 118: display 119: dichroic mirror 120: WF-SLO
121: Tracking control unit
Claims (12)
前記被検査物の一枚の画像を取得する際に、前記被検査物の位置ずれを検出する検出手段と、
前記検出された位置ずれを補正するように前記照明光の走査位置を追尾させる追尾手段と、
前記追尾させた時刻に応じて前記一枚の画像を複数の分割画像に分割する画像分割手段と、
前記複数の分割画像各々について位置合わせして新たな画像を生成する画像生成手段と、を有することを特徴とする検査装置。 Image acquisition means for acquiring an image based on return light from the inspection object scanned with illumination light;
Detecting means for detecting a positional deviation of the inspection object when acquiring an image of the inspection object;
Tracking means for tracking the scanning position of the illumination light so as to correct the detected displacement;
Image dividing means for dividing the one image into a plurality of divided images according to the time of tracking;
An inspection apparatus comprising: an image generation unit configured to generate a new image by aligning each of the plurality of divided images.
前記検出された位置ずれに基づいて前記画像取得手段が取得した複数の画像の位置合わせを行う第一の位置合わせ手段と、
前記分割画像各々の画像に基づいて前記分割画像各々の間での位置合わせを行う第二の位置合わせ手段と
を有することを特徴とする請求項1乃至4の何れか一項に記載の検査装置。 The image generating means includes
First alignment means for aligning a plurality of images acquired by the image acquisition means based on the detected displacement;
The inspection apparatus according to claim 1, further comprising: a second alignment unit that performs alignment between each of the divided images based on the images of the divided images. .
前記新たな画像を生成する際の元画像を取得する第一の画像取得手段と、
前記位置ずれを検出するための画像を取得する前記第一の画像取得手段とは異なる第二の画像取得手段とを有し、
前記検出手段は、前記第一の画像取得手段が前記一枚の画像を取得する際に、前記第二の画像取得手段が取得した前記被検査物の複数の画像に基づいて前記第一の画像取得手段における前記照明光を走査する領域の位置ずれを検出することを特徴とする請求項1乃至6の何れか一項に記載の検査装置。 The image acquisition means includes
First image acquisition means for acquiring an original image when generating the new image;
A second image acquisition means different from the first image acquisition means for acquiring an image for detecting the displacement;
When the first image acquisition unit acquires the one image, the detection unit detects the first image based on a plurality of images of the inspection object acquired by the second image acquisition unit. The inspection apparatus according to any one of claims 1 to 6, wherein a position shift of a region where the illumination light is scanned in the acquisition unit is detected.
前記被検査物の一枚の画像を取得する際に、前記被検査物の位置ずれを検出する工程と、
前記検出された位置ずれを補正するように前記照明光の走査位置を追尾させる工程と、
前記追尾された時刻に応じて前記一枚の画像を複数の分割画像に分割する工程と、
前記複数の分割画像各々について位置合わせして新たな画像を生成する工程と、を含むことを特徴とする検査方法。 Acquiring an image based on the return light from the object scanned with the illumination light; and
A step of detecting a position shift of the inspection object when acquiring one image of the inspection object;
Tracking the scanning position of the illumination light so as to correct the detected displacement;
Dividing the one image into a plurality of divided images according to the tracked time;
And a step of aligning each of the plurality of divided images to generate a new image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016010662A JP2017127580A (en) | 2016-01-22 | 2016-01-22 | Examination apparatus and examination method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016010662A JP2017127580A (en) | 2016-01-22 | 2016-01-22 | Examination apparatus and examination method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017127580A true JP2017127580A (en) | 2017-07-27 |
Family
ID=59395944
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016010662A Pending JP2017127580A (en) | 2016-01-22 | 2016-01-22 | Examination apparatus and examination method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017127580A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019034230A1 (en) * | 2017-08-14 | 2019-02-21 | Optos Plc | Ophthalmic device |
JP2019047841A (en) * | 2017-09-07 | 2019-03-28 | キヤノン株式会社 | Image processing device, image processing method, and program |
JP2021510588A (en) * | 2018-01-19 | 2021-04-30 | カール ツアイス メディテック アクチエンゲゼルシャフト | A method of continuously controlling fixation of a patient's eye during detection of biometric data of the patient's eye |
-
2016
- 2016-01-22 JP JP2016010662A patent/JP2017127580A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019034230A1 (en) * | 2017-08-14 | 2019-02-21 | Optos Plc | Ophthalmic device |
CN111163683A (en) * | 2017-08-14 | 2020-05-15 | 奥普托斯股份有限公司 | Ophthalmologic apparatus |
JP2020530367A (en) * | 2017-08-14 | 2020-10-22 | オプトス ピーエルシー | Ophthalmic equipment |
JP7160445B2 (en) | 2017-08-14 | 2022-10-25 | オプトス ピーエルシー | ophthalmic equipment |
US11669968B2 (en) | 2017-08-14 | 2023-06-06 | Optos Plc | Ophthalmic device |
CN111163683B (en) * | 2017-08-14 | 2023-10-27 | 奥普托斯股份有限公司 | Ophthalmic device |
JP2019047841A (en) * | 2017-09-07 | 2019-03-28 | キヤノン株式会社 | Image processing device, image processing method, and program |
JP2021510588A (en) * | 2018-01-19 | 2021-04-30 | カール ツアイス メディテック アクチエンゲゼルシャフト | A method of continuously controlling fixation of a patient's eye during detection of biometric data of the patient's eye |
JP7308211B2 (en) | 2018-01-19 | 2023-07-13 | カール ツアイス メディテック アクチエンゲゼルシャフト | Method for continuously controlling fixation of a patient's eye during detection of biometric data of the patient's eye |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9687148B2 (en) | Photographing apparatus and photographing method | |
JP5955020B2 (en) | Fundus imaging apparatus and method | |
US9875541B2 (en) | Enhanced algorithm for the detection of eye motion from fundus images | |
US9320424B2 (en) | Image display apparatus, image display method and imaging system | |
JP5656414B2 (en) | Ophthalmic image capturing apparatus and ophthalmic image capturing method | |
JP6438216B2 (en) | Image generating apparatus and image generating method | |
US10939817B2 (en) | Fundus imaging apparatus and imaging method | |
JP6463048B2 (en) | Image processing apparatus and method of operating image processing apparatus | |
JP2013183909A (en) | Image processing apparatus and image processing method | |
JP2017221525A (en) | Optical coherence tomography apparatus and optical coherence tomography control program | |
JP7195769B2 (en) | Imaging device and its operating method | |
JP7368581B2 (en) | Ophthalmology equipment and ophthalmology information processing equipment | |
JP2019201951A (en) | Imaging apparatus and control method thereof | |
JP5948757B2 (en) | Fundus photographing device | |
JP2017127580A (en) | Examination apparatus and examination method | |
JP2017127578A (en) | Imaging method, imaging apparatus, and program for executing the imaging method | |
JP7378557B2 (en) | Ophthalmologic imaging device, its control method, program, and recording medium | |
US20210196116A1 (en) | Ophthalmic imaging apparatus, controlling method of the same, and recording medium | |
US10674902B2 (en) | Information processing apparatus, operation method thereof, and computer program | |
JP2021153786A (en) | Image processing device, image processing method and program | |
JP6436293B2 (en) | Fundus imaging device with wavefront compensation | |
JP7127666B2 (en) | Optical coherence tomography device and optical coherence tomography computing program | |
JP7309404B2 (en) | Imaging device and its control method | |
JP6942626B2 (en) | Ophthalmologic imaging equipment, its control method, programs, and recording media | |
JP2023035425A (en) | Ophthalmologic imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20171214 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20180126 |