JP2023040529A - Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method and program - Google Patents
Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method and program Download PDFInfo
- Publication number
- JP2023040529A JP2023040529A JP2021147568A JP2021147568A JP2023040529A JP 2023040529 A JP2023040529 A JP 2023040529A JP 2021147568 A JP2021147568 A JP 2021147568A JP 2021147568 A JP2021147568 A JP 2021147568A JP 2023040529 A JP2023040529 A JP 2023040529A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- eye
- unit
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
この発明は、眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラムに関する。 The present invention relates to an ophthalmic information processing apparatus, an ophthalmic apparatus, an ophthalmic information processing method, and a program.
眼底観察は、瞳孔を通して網膜、血管、視神経等を観察することで、眼底疾患の診断、及び全身(特に、脳血管)の硬化状態の推定に有用である。眼底観察には、例えば、眼底カメラ、走査型光検眼鏡(Scanning Light Ophthalmoscope:SLO)等の眼科装置(眼底撮影装置)により取得される眼底像が用いられる。 Fundus observation is useful for diagnosing fundus diseases and estimating the sclerotic state of the whole body (especially cerebral blood vessels) by observing the retina, blood vessels, optic nerves, etc. through the pupil. For fundus observation, for example, a fundus image acquired by an ophthalmologic apparatus (fundus photographing apparatus) such as a fundus camera or a scanning light ophthalmoscope (SLO) is used.
眼底観察において、広範な解析波長範囲にわたって複数の分光眼底画像を取得することで、一般的な眼底像では把握することが難しい眼底の様々な特徴を抽出できる可能性があることが知られている。例えば、特許文献1及び特許文献2には、分光眼底画像を取得する眼科装置について開示されている。例えば、非特許文献1及び非特許文献2には、分光眼底画像としてのハイパースペクトル画像を網膜に適用する手法が開示されている。
In fundus observation, it is known that by acquiring multiple spectral fundus images over a wide analysis wavelength range, it is possible to extract various features of the fundus that are difficult to grasp with general fundus images. . For example,
このような複数の分光眼底画像の取得には所定の時間を要するため、複数の分光眼底画像を取得する間に、固視ずれ及び被検眼と撮影部とのアライメントずれなどに起因して分光眼底画像間で同一部位の位置ずれが生ずる場合がある。例えば、特許文献3には、2つの画像のそれぞれにおける複数の特徴点が一致するように2つの画像のいずれかの位置と形状とを補正する手法が開示されている。
Acquisition of such a plurality of spectral fundus images requires a predetermined time. Positional deviation of the same part may occur between images. For example,
分光眼底画像や分光前眼部画像などの分光画像の高精細化が進むと、より簡便に、且つ、高精度に分光画像の位置合わせを行うための新たな技術が望まれる。 As the resolution of spectral images such as spectral fundus images and spectral anterior segment images progresses, a new technique for more easily and highly accurately aligning spectral images is desired.
本発明は、このような事情に鑑みてなされたものであり、その目的の1つは、より簡便に、且つ、高精度に分光画像の位置合わせを行うための新たな技術を提供することにある。 The present invention has been made in view of such circumstances, and one of its objects is to provide a new technique for more easily and highly accurately aligning spectral images. be.
実施形態に係る第1態様は、照明光で照明された被検眼からの互いに波長範囲が異なる戻り光を順次に受光して得られた前記被検眼の複数の画像を取得する取得部と、前記被検眼に対して光コヒーレンストモグラフィを実行することにより得られたOCTデータに基づいて、前記複数の画像の位置合わせを行う位置合わせ部と、を含む、眼科情報処理装置である。 A first aspect according to an embodiment includes an acquisition unit configured to acquire a plurality of images of the eye to be inspected obtained by sequentially receiving return light beams having different wavelength ranges from the eye to be inspected illuminated by the illumination light; an ophthalmologic information processing apparatus, comprising: an alignment unit that aligns the plurality of images based on OCT data obtained by performing optical coherence tomography on an eye to be inspected.
実施形態の第2態様では、第1態様において、前記OCTデータは、前記被検眼に対して光コヒーレンストモグラフィを実行することにより得られた干渉光の検出結果、Bスキャン画像、OCTA(OCT Angiography)画像又はen-face画像である。 In the second aspect of the embodiment, in the first aspect, the OCT data is a detection result of interference light obtained by performing optical coherence tomography on the eye to be examined, a B-scan image, an OCTA (OCT Angiography ) image or en-face image.
実施形態の第3態様では、第1態様において、前記位置合わせ部は、前記被検眼の画像と前記画像の波長範囲に対応した深さ位置におけるOCT正面画像との位置合わせを行う。 In a third aspect of the embodiment, in the first aspect, the alignment unit aligns the image of the subject's eye with an OCT front image at a depth position corresponding to the wavelength range of the image.
実施形態の第4態様は、第1態様~第3態様のいずれかにおいて、前記複数の画像のうち第1画像と第2画像とを解析することにより前記第1画像と前記第2画像との間の位置ずれ情報を取得する位置ずれ情報生成部を含む。 A fourth aspect of the embodiment is, in any one of the first to third aspects, analyzing the first image and the second image among the plurality of images to determine the difference between the first image and the second image. and a positional deviation information generation unit that acquires positional deviation information between.
実施形態の第5態様は、第4態様において、前記位置ずれ情報に基づいて前記第1画像と前記第2画像との間の位置ずれが大きいか否かを判定する第1判定部を含み、前記第1判定部により得られた判定結果に基づいて、前記取得部は、前記第1画像又は前記第2画像を再取得する。 A fifth aspect of the embodiment is the fourth aspect, including a first determination unit that determines whether or not the positional deviation between the first image and the second image is large based on the positional deviation information, Based on the determination result obtained by the first determination section, the acquisition section re-acquires the first image or the second image.
実施形態の第6態様は、第1態様~第5態様のいずれかにおいて、前記複数の画像の少なくとも1つの品質の評価値を算出する品質評価部を含む。 A sixth aspect of the embodiment, in any one of the first to fifth aspects, includes a quality evaluation unit that calculates an evaluation value of quality of at least one of the plurality of images.
実施形態の第7態様は、第6態様において、前記評価値に基づいて前記複数の画像の品質の良否を判定する第2判定部を含み、前記第2判定部により得られた判定結果に基づいて、前記取得部は、複数の画像の少なくとも1つ又は前記複数の画像の全部を再取得する。 A seventh aspect of the embodiment is, in the sixth aspect, further comprising a second determination unit that determines whether the quality of the plurality of images is good or bad based on the evaluation value, and based on the determination result obtained by the second determination unit Then, the acquisition unit reacquires at least one of the plurality of images or all of the plurality of images.
実施形態の第8態様は、前記被検眼を照明光で照明する照明光学系と、互いに波長範囲が異なる前記被検眼からの前記照明光の戻り光を順次に受光する受光光学系と、前記被検眼に対して光コヒーレンストモグラフィを実行するOCT光学系と、第1態様~第6態様のいずれかに記載の眼科情報処理装置と、を含み、前記取得部は、前記受光光学系により得られた受光結果に基づいて前記複数の画像を順次に取得する、眼科装置である。 An eighth aspect of the embodiment includes an illumination optical system that illuminates the eye to be inspected with illumination light, a light receiving optical system that sequentially receives return lights of the illumination light from the eye to be inspected that have different wavelength ranges from each other, and An OCT optical system that performs optical coherence tomography for eye examination, and the ophthalmologic information processing apparatus according to any one of the first to sixth aspects, wherein the acquisition unit is obtained by the light receiving optical system. The ophthalmologic apparatus sequentially acquires the plurality of images based on the received light reception result.
実施形態の第9態様は、照明光で照明された被検眼からの互いに波長範囲が異なる戻り光を順次に受光して得られた前記被検眼の複数の画像を取得する取得ステップと、前記被検眼に対して光コヒーレンストモグラフィを実行することにより得られたOCTデータに基づいて、前記複数の画像の位置合わせを行う位置合わせステップと、を含む、眼科情報処理方法である。 A ninth aspect of the embodiment is an acquisition step of acquiring a plurality of images of the eye to be inspected obtained by sequentially receiving return lights having different wavelength ranges from the eye to be inspected illuminated by the illumination light; and a registration step of registering the plurality of images based on OCT data obtained by performing optical coherence tomography on the eye examination.
実施形態の第10態様では、第9態様において、前記OCTデータは、前記被検眼に対して光コヒーレンストモグラフィを実行することにより得られた干渉光の検出結果、Bスキャン画像、OCTA(OCT Angiography)画像、又はen-face画像である。 In a tenth aspect of the embodiment, in the ninth aspect, the OCT data is a detection result of interference light obtained by performing optical coherence tomography on the eye to be examined, a B-scan image, an OCTA (OCT Angiography ) image, or an en-face image.
第11態様では、第9態様において、前記位置合わせステップは、前記被検眼の画像と前記画像の波長範囲に対応した深さ位置におけるOCT正面画像との位置合わせを行う。 In the eleventh aspect according to the ninth aspect, the alignment step aligns the image of the subject's eye with an OCT front image at a depth position corresponding to the wavelength range of the image.
実施形態の第12態様は、第9態様~第11態様のいずれかにおいて、前記複数の画像のうち第1画像と第2画像とを解析することにより前記第1画像と前記第2画像との間の位置ずれ情報を取得する位置ずれ情報生成ステップを含む。 A twelfth aspect of the embodiment is, in any one of the ninth aspect to the eleventh aspect, analyzing the first image and the second image among the plurality of images to determine the difference between the first image and the second image. and a positional deviation information generation step of acquiring positional deviation information between.
実施形態の第13態様は、第12態様において、前記位置ずれ情報に基づいて前記第1画像と前記第2画像との間の位置ずれが大きいか否かを判定する第1判定ステップを含み、前記第1判定ステップにおいて得られた判定結果に基づいて、前記取得ステップは、前記第1画像又は前記第2画像を再取得する。 A thirteenth aspect of the embodiment is the twelfth aspect, comprising a first determination step of determining whether or not the positional deviation between the first image and the second image is large based on the positional deviation information, Based on the determination result obtained in the first determination step, the acquisition step re-acquires the first image or the second image.
実施形態の第14態様は、第9態様~第13態様のいずれかにおいて、前記複数の画像の少なくとも1つの品質の評価値を算出する品質評価ステップを含む。 A fourteenth aspect of the embodiment, in any one of the ninth to thirteenth aspects, includes a quality evaluation step of calculating a quality evaluation value of at least one of the plurality of images.
実施形態の第15態様は、第14態様において、前記評価値に基づいて前記複数の画像の品質の良否を判定する第2判定ステップを含み、前記第2判定ステップにおいて得られた判定結果に基づいて、前記取得ステップは、前記複数の画像の少なくとも1つ又は前記複数の画像の全部を再取得する。 A fifteenth aspect of the embodiment is the fourteenth aspect, comprising a second determination step of determining whether the quality of the plurality of images is good or bad based on the evaluation value, and based on the determination result obtained in the second determination step Then, the acquiring step reacquires at least one of the plurality of images or all of the plurality of images.
実施形態の第16態様は、コンピュータに、第9態様~第15態様のいずれかに記載の眼科情報処理方法の各ステップを実行させるプログラムである。 A sixteenth aspect of the embodiments is a program that causes a computer to execute each step of the ophthalmologic information processing method according to any one of the ninth to fifteenth aspects.
なお、上記した複数の態様に係る構成を任意に組み合わせることが可能である。 Note that it is possible to arbitrarily combine the configurations according to the plurality of aspects described above.
本発明によれば、より簡便に、且つ、高精度に分光画像の位置合わせを行うための新たな技術を提供することができる。 According to the present invention, it is possible to provide a new technique for more easily and highly accurately aligning spectral images.
この発明に係る眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラムの実施形態の一例について、図面を参照しながら詳細に説明する。なお、実施形態において、この明細書において引用されている文献に記載された技術を任意に援用することが可能である。 Exemplary embodiments of an ophthalmologic information processing apparatus, an ophthalmologic apparatus, an ophthalmologic information processing method, and a program according to the present invention will be described in detail with reference to the drawings. In addition, in the embodiments, it is possible to arbitrarily incorporate the techniques described in the documents cited in this specification.
実施形態に係る眼科情報処理装置は、所定の解析波長範囲にわたって被検眼の複数の分光画像を取得し、被検眼に対して光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT)を実行することにより得られたOCTデータに基づいて、取得された複数の分光画像の位置合わせを行う。 An ophthalmologic information processing apparatus according to an embodiment obtains a plurality of spectral images of an eye to be examined over a predetermined analysis wavelength range, and performs optical coherence tomography (OCT) on the eye to be examined. Based on the obtained OCT data, a plurality of acquired spectral images are aligned.
複数の分光画像は、被検眼の眼底(後眼部)又は前眼部を照明光で照明し、所定の解析波長領域において互いに波長範囲が異なり被検眼からの照明光の戻り光を順次に受光することにより取得される。分光画像は、2次元の分光分布の一例である。順次に受光される戻り光のうち波長範囲が隣接する第1戻り光及び第2戻り光について、第1戻り光の波長範囲の一部は、第2戻り光の波長範囲に重複してよい。分光画像として、ハイパースペクトル画像、マルチスペクトル画像、RGBのカラー画像などがある。 A plurality of spectral images are obtained by illuminating the fundus (posterior segment) or the anterior segment of the eye to be inspected with illumination light, and sequentially receiving the return light of the illumination light from the eye to be inspected, which has different wavelength ranges in a predetermined analysis wavelength region. It is obtained by A spectral image is an example of a two-dimensional spectral distribution. Regarding the first returned light and the second returned light whose wavelength ranges are adjacent to each other among the sequentially received returned lights, part of the wavelength range of the first returned light may overlap with the wavelength range of the second returned light. Spectral images include hyperspectral images, multispectral images, and RGB color images.
いくつかの実施形態では、互いに波長範囲が異なる2以上の波長成分を有する照明光で被検眼を順次に照明し、被検眼からの戻り光から所定の波長範囲の波長成分を有する戻り光を順次に選択することにより複数の分光画像が取得される。 In some embodiments, the subject's eye is sequentially illuminated with illumination light having two or more wavelength components whose wavelength ranges are different from each other, and return light having wavelength components in a predetermined wavelength range is sequentially emitted from the return light from the subject's eye. A plurality of spectral images are acquired by selecting .
いくつかの実施形態では、互いに波長範囲が異なる2以上の波長成分を有する照明光から所定の波長範囲の波長成分を有する照明光を順次に選択し、選択された照明光で被検眼を順次に照明し、被検眼からの戻り光を順次に受光することにより複数の分光画像が取得される。 In some embodiments, illumination light having wavelength components in a predetermined wavelength range is sequentially selected from illumination light having two or more wavelength components whose wavelength ranges are different from each other, and the eye to be examined is sequentially illuminated with the selected illumination light. A plurality of spectroscopic images are acquired by illuminating and sequentially receiving the return light from the subject's eye.
いくつかの実施形態では、波長範囲を任意に変更可能な光源を用いて互いに波長範囲が異なる2以上の波長成分を有する照明光を順次に出射させ、出射された照明光で被検眼を順次に照明し、被検眼からの戻り光を順次に受光することにより複数の分光画像が取得される。 In some embodiments, illumination light having two or more wavelength components with mutually different wavelength ranges is sequentially emitted using a light source whose wavelength range can be arbitrarily changed, and the emitted illumination light sequentially illuminates the subject's eye. A plurality of spectroscopic images are acquired by illuminating and sequentially receiving the return light from the subject's eye.
いくつかの実施形態では、照明光で被検眼を照明し、受光デバイスの受光感度が高い波長範囲を順次に変更して被検眼からの戻り光を順次に選択することにより複数の分光画像が取得される。 In some embodiments, a plurality of spectroscopic images are obtained by illuminating the eye to be inspected with illumination light, sequentially changing the wavelength range in which the light receiving device has high light receiving sensitivity, and sequentially selecting the return light from the eye to be inspected. be done.
OCTデータは、被検眼に対してOCTを実行することにより得られた干渉光の検出結果、Bスキャン画像、又はen-face画像であってよい。干渉光は、OCT光源からの光を測定光と参照光とに分割し、被検眼に対して測定光を投射し、被検眼からの測定光の戻り光と参照光路を経由した参照光とを干渉させることにより生成される。いくつかの実施形態では、眼科情報処理装置は、外部に設けられたOCT装置により得られたOCTデータを取得するように構成される。いくつかの実施形態では、眼科情報処理装置の機能は、OCTデータを取得可能な眼科装置により実現される。 The OCT data may be a detection result of interference light, a B-scan image, or an en-face image obtained by performing OCT on the subject's eye. The interference light is obtained by dividing the light from the OCT light source into measurement light and reference light, projecting the measurement light onto the eye to be examined, and combining the return light of the measurement light from the eye to be examined and the reference light that has passed through the reference optical path. Generated by interfering. In some embodiments, the ophthalmic information processing device is configured to acquire OCT data obtained by an externally provided OCT device. In some embodiments, the functionality of the ophthalmic information processing device is implemented by an ophthalmic device capable of acquiring OCT data.
いくつかの実施形態に係る位置合わせは、複数の分光画像の相対位置を変更することにより実現される。いくつかの実施形態に係る位置合わせは、位置合わせ対象の分光画像に対して基準画像を基準にアフィン変換、又はヘルマート変換することにより実現される。基準画像の例として、OCTデータに基づいて形成されたOCT画像(例えば、Bスキャン画像、en-face画像)などがある。 Alignment according to some embodiments is accomplished by changing the relative positions of multiple spectral images. Alignment according to some embodiments is realized by performing affine transformation or Helmert transformation on spectral images to be aligned based on a reference image. Examples of reference images include OCT images (eg, B-scan images, en-face images) formed based on OCT data.
これにより、複数の分光画像を取得する間に、固視ずれ及び被検眼と撮影部とのアライメントずれなどが生じた場合でも、分光画像間で分光特性を容易に比較することができるようになる。特に、OCTデータに基づいて位置合わせを行うことで、眼の奥行方向(深さ方向)の情報に基づいて分光画像間を高精度に位置合わせすることが可能になり、被検眼の観察部位における分光解析の精度を向上させることが可能になる。 This makes it possible to easily compare spectral characteristics between spectral images even when fixation dislocation and misalignment between the subject's eye and the imaging unit occur while a plurality of spectral images are being acquired. . In particular, by aligning based on OCT data, it is possible to align spectroscopic images with high accuracy based on information in the depth direction of the eye (depth direction). It is possible to improve the accuracy of spectroscopic analysis.
実施形態に係る眼科情報処理方法は、上記の眼科情報処理装置により実行される1以上のステップを含む。実施形態に係るプログラムは、実施形態に係る眼科情報処理方法の各ステップをコンピュータ(プロセッサ)に実行させる。実施形態に係る記録媒体は、実施形態に係るプログラムが記録された非一時的な記録媒体(記憶媒体)である。 An ophthalmologic information processing method according to an embodiment includes one or more steps executed by the ophthalmologic information processing apparatus described above. A program according to an embodiment causes a computer (processor) to execute each step of an ophthalmologic information processing method according to an embodiment. A recording medium according to the embodiment is a non-temporary recording medium (storage medium) in which the program according to the embodiment is recorded.
本明細書において、プロセッサは、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等の回路を含む。プロセッサは、例えば、記憶回路又は記憶装置に格納されているプログラムを読み出し実行することで、実施形態に係る機能を実現する。記憶回路又は記憶装置がプロセッサに含まれていてよい。また、記憶回路又は記憶装置がプロセッサの外部に設けられていてよい。 In this specification, the processor includes, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), a programmable logic device (e.g., SPLD (Simple Programmable Logic Device), CPLD Logic Device), FPGA (Field Programmable Gate Array)) and other circuits. The processor implements the functions according to the embodiment by, for example, reading and executing a program stored in a memory circuit or memory device. A memory circuit or device may be included in the processor. Also, a memory circuit or memory device may be provided external to the processor.
以下、被検眼の眼底の分光画像(分光眼底画像)に対して位置合わせを行う場合について説明するが、実施形態に係る構成はこれに限定されるものではない。例えば、以下の実施形態は、眼底以外の前眼部の分光画像(分光前眼部画像)に対して位置合わせを行う場合にも適用可能である。 A case in which alignment is performed with respect to a spectral image of the fundus of the subject's eye (spectral fundus image) will be described below, but the configuration according to the embodiment is not limited to this. For example, the following embodiments can also be applied to a case where alignment is performed with respect to a spectral image of an anterior segment other than the fundus (spectral anterior segment image).
いくつかの実施形態では、眼科情報処理装置は、通信機能により外部で取得された被検眼の分光画像を取得するように構成される。いくつかの実施形態では、被検眼の分光画像を取得可能な眼科装置が、眼科情報処理装置の機能を有する。 In some embodiments, the ophthalmologic information processing apparatus is configured to acquire spectroscopic images of the eye to be examined that are acquired externally through a communication function. In some embodiments, an ophthalmologic apparatus capable of acquiring a spectroscopic image of an eye to be examined has the function of an ophthalmologic information processing apparatus.
以下の実施形態では、実施形態に係る眼科情報処理装置の機能を含む眼科装置を例に説明する。実施形態に係る眼科装置は、眼科撮影装置を含む。いくつかの実施形態の眼科装置に含まれる眼科撮影装置は、例えば、眼底カメラ、走査型光検眼鏡、スリットランプ検眼鏡、手術用顕微鏡等のうちのいずれか1つ以上である。いくつかの実施形態に係る眼科装置は、眼科撮影装置に加えて、眼科測定装置及び眼科治療装置のうちのいずれか1つ以上を含む。いくつかの実施形態の眼科装置に含まれる眼科測定装置は、例えば、眼屈折検査装置、眼圧計、スペキュラーマイクロスコープ、ウェーブフロントアナライザ、視野計、マイクロペリメータ等のうちのいずれか1つ以上である。いくつかの実施形態の眼科装置に含まれる眼科治療装置は、例えば、レーザー治療装置、手術装置、手術用顕微鏡等のうちのいずれか1つ以上である。 In the following embodiments, an ophthalmologic apparatus including the functions of the ophthalmologic information processing apparatus according to the embodiment will be described as an example. An ophthalmologic apparatus according to an embodiment includes an ophthalmologic imaging apparatus. The ophthalmic imaging device included in the ophthalmic device of some embodiments is, for example, any one or more of a fundus camera, a scanning optical ophthalmoscope, a slit lamp ophthalmoscope, a surgical microscope, or the like. An ophthalmic device according to some embodiments includes any one or more of an ophthalmic measurement device and an ophthalmic treatment device in addition to an ophthalmic imaging device. The ophthalmic measurement device included in the ophthalmic device of some embodiments is, for example, any one or more of an eye refractor, a tonometer, a specular microscope, a wavefront analyzer, a perimeter, a microperimeter, etc. . The ophthalmic treatment device included in the ophthalmic device of some embodiments is, for example, any one or more of a laser treatment device, a surgical device, a surgical microscope, and the like.
以下の実施形態では、眼科装置は、光干渉断層計と眼底カメラとを含む。この光干渉断層計にはスウェプトソースOCTが適用されているが、OCTのタイプはこれに限定されず、他のタイプのOCT(スペクトラルドメインOCT、タイムドメインOCT、アンファスOCT等)が適用されてもよい。 In the following embodiments, the ophthalmic device includes an optical coherence tomography and a fundus camera. Although swept source OCT is applied to this optical coherence tomography, the type of OCT is not limited to this, and other types of OCT (spectral domain OCT, time domain OCT, Amphas OCT, etc.) may be applied. good.
以下、x方向は、対物レンズの光軸方向に直交する方向(左右方向)であり、y方向は、対物レンズの光軸方向に直交する方向(上下方向)であるものとする。z方向は、対物レンズの光軸方向であるものとする。 Hereinafter, the x direction is the direction (horizontal direction) orthogonal to the optical axis direction of the objective lens, and the y direction is the direction (vertical direction) orthogonal to the optical axis direction of the objective lens. The z-direction is assumed to be the optical axis direction of the objective lens.
<構成>
〔光学系〕
図1に示すように、眼科装置1は、眼底カメラユニット2、OCTユニット100及び演算制御ユニット200を含む。眼底カメラユニット2には、被検眼Eの正面画像を取得するための光学系や機構が設けられている。OCTユニット100には、OCTを実行するための光学系や機構の一部が設けられている。OCTを実行するための光学系や機構の他の一部は、眼底カメラユニット2に設けられている。演算制御ユニット200は、各種の演算や制御を実行する1以上のプロセッサを含む。これらに加え、被検者の顔を支持するための部材(顎受け、額当て等)や、OCTの対象部位を切り替えるためのレンズユニット(例えば、前眼部OCT用アタッチメント)等の任意の要素やユニットが眼科装置1に設けられてもよい。更に、眼科装置1は、一対の前眼部カメラ5A及び5Bを備える。
<Configuration>
〔Optical system〕
As shown in FIG. 1 , the
[眼底カメラユニット2]
眼底カメラユニット2には、被検眼Eの眼底Efを撮影するための光学系が設けられている。取得される眼底Efの画像(眼底像、眼底写真等と呼ばれる)は、観察画像、撮影画像等の正面画像である。観察画像は、近赤外光を用いた動画撮影により得られる。撮影画像は、フラッシュ光を用いた静止画像、又は分光画像(分光眼底画像、分光前眼部画像)である。更に、眼底カメラユニット2は、被検眼Eの前眼部Eaを撮影して正面画像(前眼部像)を取得することができる。
[Fundus camera unit 2]
The
眼底カメラユニット2は、照明光学系10と撮影光学系30とを含む。照明光学系10は被検眼Eに照明光を照射する。撮影光学系30は、被検眼Eからの照明光の戻り光を検出する。OCTユニット100からの測定光は、眼底カメラユニット2内の光路を通じて被検眼Eに導かれ、その戻り光は、同じ光路を通じてOCTユニット100に導かれる。
The
照明光学系10の観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19及びリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて被検眼E(眼底Ef又は前眼部Ea)を照明する。被検眼Eからの観察照明光の戻り光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、撮影合焦レンズ31を経由し、ミラー32により反射される。更に、この戻り光は、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりイメージセンサ35の受光面に結像される。イメージセンサ35は、所定のフレームレートで戻り光を検出する。なお、撮影光学系30のフォーカスは、眼底Ef又は前眼部Eaに合致するように調整される。
Light (observation illumination light) output from an
撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。被検眼Eからの撮影照明光の戻り光は、観察照明光の戻り光と同じ経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、波長可変フィルタ80に導かれる。
The light (imaging illumination light) output from the
波長可変フィルタ80は、所定の解析波長領域において透過光の波長範囲を選択可能なフィルタである。波長可変フィルタ80を透過する光の波長範囲は、任意に選択可能である。
The wavelength
いくつかの実施形態では、波長可変フィルタ80は、例えば、特開2006-158546号公報に開示された液晶波長可変フィルタと同様である。この場合、波長可変フィルタ80は、液晶への印可電圧を変化させることにより透過光の波長選択範囲を任意に選択することができる。
In some embodiments, the
いくつかの実施形態では、波長可変フィルタ80は、互いに透過光の波長選択範囲が異なる2以上の波長選択フィルタを含み、2以上の波長選択フィルタを選択的に照明光の戻り光の光路に配置可能に構成されてよい。
In some embodiments, the wavelength
いくつかの実施形態では、波長可変フィルタ80は、所定の解析波長領域において反射光の波長範囲を選択可能なフィルタである。
In some embodiments, the
波長可変フィルタ80を透過したミラー36からの戻り光は、集光レンズ37によりイメージセンサ38の受光面に結像される。
Return light from the
いくつかの実施形態では、波長可変フィルタ80は、ダイクロイックミラー33と集光レンズ34との間に配置される。
In some embodiments,
いくつかの実施形態では、波長可変フィルタ80は、ダイクロイックミラー33又はミラー36と集光レンズ37との間の光路に対して挿脱可能に構成される。例えば、波長可変フィルタ80がダイクロイックミラー33と集光レンズ37との間の光路に配置されたとき、眼科装置1は、イメージセンサ38により得られた戻り光の受光結果を順次に取得することで複数の分光眼底画像を取得することができる。例えば、波長可変フィルタ80がダイクロイックミラー33と集光レンズ37との間の光路から退避されたとき、眼科装置1は、イメージセンサ38により得られた戻り光の受光結果を取得することで、通常の静止画像(眼底像、前眼部像)を取得することができる。
In some embodiments, the wavelength
表示装置3には、イメージセンサ35により検出された眼底反射光に基づく画像(観察画像)が表示される。なお、撮影光学系30のピントが前眼部に合わせられている場合、被検眼Eの前眼部の観察画像が表示される。また、表示装置3には、イメージセンサ38により検出された眼底反射光に基づく画像(撮影画像、分光眼底画像)が表示される。なお、観察画像を表示する表示装置3と撮影画像を表示する表示装置3は、同一のものであってもよいし、異なるものであってもよい。被検眼Eを赤外光で照明して同様の撮影を行う場合には、赤外の撮影画像が表示される。
An image (observation image) based on the fundus reflected light detected by the
LCD(Liquid Crystal Display)39は固視標や視力測定用視標を表示する。LCD39から出力された光束は、その一部がハーフミラー33Aにて反射され、ミラー32に反射され、撮影合焦レンズ31を経由し、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光束は、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。
An LCD (Liquid Crystal Display) 39 displays a fixation target and visual acuity measurement target. A part of the light flux output from the
LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。固視位置の例として、黄斑を中心とする画像を取得するための固視位置や、視神経乳頭を中心とする画像を取得するための固視位置や、黄斑と視神経乳頭との間の眼底中心を中心とする画像を取得するための固視位置や、黄斑から大きく離れた部位(眼底周辺部)の画像を取得するための固視位置などがある。いくつかの実施形態に係る眼科装置1は、このような固視位置の少なくとも1つを指定するためのGUI(Graphical User Interface)等を含む。いくつかの実施形態に係る眼科装置1は、固視位置(固視標の表示位置)をマニュアルで移動するためのGUI等を含む。
By changing the display position of the fixation target on the screen of the
移動可能な固視標を被検眼Eに提示するための構成はLCD等の表示装置には限定されない。例えば、光源アレイ(発光ダイオード(LED)アレイ等)における複数の光源を選択的に点灯させることにより、移動可能な固視標を生成することができる。また、移動可能な1以上の光源により、移動可能な固視標を生成することができる。 The configuration for presenting a movable fixation target to the subject's eye E is not limited to a display device such as an LCD. For example, a movable fixation target can be generated by selectively lighting multiple light sources in a light source array (such as a light emitting diode (LED) array). Also, one or more movable light sources can generate a movable fixation target.
フォーカス光学系60は、被検眼Eに対するフォーカス調整に用いられるスプリット指標を生成する。フォーカス光学系60は、撮影光学系30の光路(撮影光路)に沿った撮影合焦レンズ31の移動に連動して、照明光学系10の光路(照明光路)に沿って移動される。反射棒67は、照明光路に対して挿脱可能である。フォーカス調整を行う際には、反射棒67の反射面が照明光路に傾斜配置される。LED61から出力されたフォーカス光は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65により反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。フォーカス光の眼底反射光は、観察照明光の戻り光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(スプリット指標像)に基づいてマニュアルフォーカスやオートフォーカスを実行できる。
The focus
ダイクロイックミラー46は、眼底撮影用光路とOCT用光路とを合成する。ダイクロイックミラー46は、OCTに用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。OCT用光路(測定光の光路)には、OCTユニット100側からダイクロイックミラー46側に向かって順に、コリメータレンズユニット40、光路長変更部41、光スキャナ42、OCT合焦レンズ43、ミラー44、及びリレーレンズ45が設けられている。
The
光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT用光路の長さを変更する。この光路長の変更は、眼軸長に応じた光路長補正や、干渉状態の調整などに利用される。光路長変更部41は、コーナーキューブと、これを移動する機構とを含む。
The optical path
光スキャナ42は、被検眼Eの瞳孔と光学的に共役な位置に配置される。光スキャナ42は、OCT用光路を通過する測定光LSを偏向する。光スキャナ42は、例えば、2次元走査が可能なガルバノスキャナである。
The
OCT合焦レンズ43は、OCT用の光学系のフォーカス調整を行うために、測定光LSの光路に沿って移動される。撮影合焦レンズ31の移動、フォーカス光学系60の移動、及びOCT合焦レンズ43の移動を連係的に制御することができる。
The
[前眼部カメラ5A及び5B]
前眼部カメラ5A及び5Bは、特開2013-248376号公報に開示された発明と同様に、眼科装置1の光学系と被検眼Eとの間の相対位置を求めるために用いられる。前眼部カメラ5A及び5Bは、光学系が格納された筐体(眼底カメラユニット2等)の被検眼E側の面に設けられている。眼科装置1は、前眼部カメラ5A及び5Bにより異なる方向から実質的に同時に取得された2つの前眼部像を解析することにより、光学系と被検眼Eとの間の3次元的な相対位置を求める。2つの前眼部像の解析は、特開2013-248376号公報に開示された解析と同様であってよい。また、前眼部カメラの個数は2以上の任意の個数であってよい。
[
The
本例では、2以上の前眼部カメラを利用して被検眼Eの位置(つまり被検眼Eと光学系との相対位置)を求めているが、被検眼Eの位置を求めるための手法はこれに限定されない。例えば、被検眼Eの正面画像(例えば前眼部Eaの観察画像)を解析することにより、被検眼Eの位置を求めることができる。或いは、被検眼Eの角膜に指標を投影する手段を設け、この指標の投影位置(つまり、この指標の角膜反射光束の検出状態)に基づいて被検眼Eの位置を求めることができる。 In this example, the position of the eye to be examined E (that is, the relative position between the eye to be examined E and the optical system) is obtained using two or more anterior eye cameras. It is not limited to this. For example, the position of the eye E to be examined can be obtained by analyzing a front image of the eye E to be examined (for example, an observed image of the anterior segment Ea). Alternatively, means for projecting an index onto the cornea of the subject's eye E can be provided, and the position of the subject's eye E can be obtained based on the projection position of this index (that is, the detection state of the corneal reflected light flux of this index).
[OCTユニット100]
図2に例示するように、OCTユニット100には、スウェプトソースOCTを実行するための光学系が設けられている。この光学系は、干渉光学系を含む。この干渉光学系は、波長可変光源(波長掃引型光源)からの光を測定光と参照光とに分割する機能と、被検眼Eからの測定光の戻り光と参照光路を経由した参照光とを重ね合わせて干渉光を生成する機能と、この干渉光を検出する機能とを備える。干渉光学系により得られた干渉光の検出結果(検出信号)は、干渉光のスペクトルを示す信号であり、演算制御ユニット200に送られる。
[OCT unit 100]
As illustrated in FIG. 2, the
光源ユニット101は、例えば、出射光の波長を高速で変化させる近赤外波長可変レーザーを含む。光源ユニット101から出力された光L0は、光ファイバ102により偏波コントローラ103に導かれてその偏光状態が調整される。偏光状態が調整された光L0は、光ファイバ104によりファイバカプラ105に導かれて測定光LSと参照光LRとに分割される。
The
参照光LRは、光ファイバ110によりコリメータ111に導かれて平行光束に変換され、光路長補正部材112及び分散補償部材113を経由し、コーナーキューブ114に導かれる。光路長補正部材112は、参照光LRの光路長と測定光LSの光路長とを合わせるよう作用する。分散補償部材113は、参照光LRと測定光LSとの間の分散特性を合わせるよう作用する。コーナーキューブ114は、参照光LRの入射方向に移動可能であり、それにより参照光LRの光路長が変更される。
The reference light LR is guided to the
コーナーキューブ114を経由した参照光LRは、分散補償部材113及び光路長補正部材112を経由し、コリメータ116によって平行光束から集束光束に変換され、光ファイバ117に入射する。光ファイバ117に入射した参照光LRは、偏波コントローラ118に導かれてその偏光状態が調整され、光ファイバ119によりアッテネータ120に導かれて光量が調整され、光ファイバ121によりファイバカプラ122に導かれる。
The reference light LR that has passed through the
一方、ファイバカプラ105により生成された測定光LSは、光ファイバ127により導かれてコリメータレンズユニット40により平行光束に変換され、光路長変更部41、光スキャナ42、OCT合焦レンズ43、ミラー44及びリレーレンズ45を経由する。リレーレンズ45を経由した測定光LSは、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて被検眼Eに入射する。測定光LSは、被検眼Eの様々な深さ位置において散乱・反射される。被検眼Eからの測定光LSの戻り光は、往路と同じ経路を逆向きに進行してファイバカプラ105に導かれ、光ファイバ128を経由してファイバカプラ122に到達する。なお、測定光LSが入射する光ファイバ127の入射短は、被検眼Eの眼底Efと略共役な位置に配置される。
On the other hand, the measurement light LS generated by the
ファイバカプラ122は、光ファイバ128を介して入射された測定光LSと、光ファイバ121を介して入射された参照光LRとを合成して(干渉させて)干渉光を生成する。ファイバカプラ122は、所定の分岐比(例えば1:1)で干渉光を分岐することにより、一対の干渉光LCを生成する。一対の干渉光LCは、それぞれ光ファイバ123及び124を通じて検出器125に導かれる。
The
検出器125は、例えばバランスドフォトダイオードである。バランスドフォトダイオードは、一対の干渉光LCをそれぞれ検出する一対のフォトディテクタを含み、これらフォトディテクタにより得られた一対の検出結果の差分を出力する。検出器125は、この出力(検出信号)をDAQ(Data Acquisition System)130に送る。
DAQ130には、光源ユニット101からクロックKCが供給される。クロックKCは、光源ユニット101において、波長可変光源により所定の波長範囲内で掃引される各波長の出力タイミングに同期して生成される。光源ユニット101は、例えば、各出力波長の光L0を分岐することにより得られた2つの分岐光の一方を光学的に遅延させた後、これらの合成光を検出した結果に基づいてクロックKCを生成する。DAQ130は、検出器125から入力される検出信号をクロックKCに基づきサンプリングする。DAQ130は、検出器125からの検出信号のサンプリング結果を演算制御ユニット200に送る。
A clock KC is supplied from the
本例では、測定光LSの光路(測定光路、測定アーム)の長さを変更するための光路長変更部41と、参照光LRの光路(参照光路、参照アーム)の長さを変更するためのコーナーキューブ114の双方が設けられている。しかしながら、光路長変更部41とコーナーキューブ114のいずれか一方のみが設けられもよい。また、これら以外の光学部材を用いて、測定光路長と参照光路長との差を変更することも可能である。
In this example, an optical path
〔制御系〕
図3~図6に、眼科装置1の制御系の構成例を示す。図3~図6において、眼科装置1に含まれる構成要素の一部が省略されている。図3において、図1及び図2と同様の部分には同一符号を付し、適宜説明を省略する。制御部210、画像形成部220及びデータ処理部230は、例えば、演算制御ユニット200に設けられる。
[Control system]
3 to 6 show configuration examples of the control system of the
〈制御部210〉
制御部210は、各種の制御を実行する。制御部210は、主制御部211と記憶部212とを含む。
<
The
〈主制御部211〉
主制御部211は、プロセッサ(例えば、制御プロセッサ)を含み、眼科装置1の各部(図1~図6に示された各要素を含む)を制御する。例えば、主制御部211は、図1~図2に示す眼底カメラユニット2の光学系の各部、OCTユニット100の光学系の各部、前眼部カメラ5A、5B、上記の光学系を移動する移動機構150、画像形成部220、データ処理部230、及びユーザーインターフェイス(User Interface:UI)240を制御する。
<
The
眼底カメラユニット2に対する制御には、合焦駆動部31A、43Aに対する制御、波長可変フィルタ80に対する制御、イメージセンサ35、38に対する制御、光路長変更部41に対する制御、及び光スキャナ42に対する制御が含まれる。
The control over the
合焦駆動部31Aに対する制御には、撮影合焦レンズ31を光軸方向に移動する制御が含まれる。合焦駆動部43Aに対する制御には、OCT合焦レンズ43を光軸方向に移動する制御が含まれる。
The control for the
波長可変フィルタ80に対する制御には、透過光の波長範囲の選択制御(例えば、液晶に対する印可電圧の制御)などがある。
Control over the wavelength
イメージセンサ35、38に対する制御には、撮像素子に対する受光感度の制御、フレームレート(受光タイミング、露光時間)の制御、受光領域(位置、大きさ、サイズ)の制御、撮像素子に対する受光結果の読み出し制御などがある。いくつかの実施形態では、戻り光の波長範囲に応じて露光時間を変更することで、複数の分光眼底画像が取得される解析波長範囲の各波長範囲において受光強度が均一になるようにイメージセンサ35、38が制御される。いくつかの実施形態では、主制御部211は、複数の分光眼底画像が取得される解析波長範囲の各波長範囲において受光強度が均一になるように、照明光の各波長範囲の波長成分の光の強度を制御する。
The control of the
LCD39に対する制御には、固視位置の制御が含まれる。例えば、主制御部211は、手動又は自動で設定された固視位置に対応するLCD39の画面上の位置に固視標を表示する。また、主制御部211は、LCD39に表示されている固視標の表示位置を(連続的に又は段階的に)変更することができる。それにより、固視標を移動することができる(つまり、固視位置を変更することができる)。固視標の表示位置や移動態様は、マニュアルで又は自動的に設定される。マニュアルでの設定は、例えばGUIを用いて行われる。自動的な設定は、例えば、データ処理部230により行われる。
Control over the
光路長変更部41に対する制御には、測定光LSの光路長を変更する制御が含まれる。主制御部211は、光路長変更部41のコーナーキューブを駆動する駆動部を制御することで測定光LSの光路に沿って光路長変更部41を移動し、測定光LSの光路長を変更する。
Control over the optical path
光スキャナ42に対する制御には、スキャンモード、スキャン範囲(スキャン開始位置、スキャン終了位置)、スキャン速度などの制御がある。主制御部211は、光スキャナ42に対する制御を行うことで、計測部位(撮影部位)における所望の領域に対して測定光LSでOCTスキャンを実行することができる。
Control of the
また、主制御部211は、観察光源11、撮影光源15、フォーカス光学系60などを制御する。
The
OCTユニット100に対する制御には、光源ユニット101に対する制御、参照駆動部114Aに対する制御、検出器125に対する制御、DAQ130に対する制御が含まれる。
Control over the
光源ユニット101に対する制御には、光源のオン及びオフの制御、光源から出射される光の光量の制御、波長掃引範囲の制御、波長掃引速度、各波長成分の光の出射タイミングの制御などがある。
The control of the
参照駆動部114Aに対する制御には、参照光LRの光路長を変更する制御が含まれる。主制御部211は、参照駆動部114Aを制御することで参照光LRの光路に沿ってコーナーキューブ114を移動し、参照光LRの光路長を変更する。
Control over the
検出器125に対する制御には、検出素子に対する受光感度の制御、フレームレート(受光タイミング)の制御、受光領域(位置、大きさ、サイズ)の制御、検出素子に対する受光結果の読み出し制御などがある。
Control of the
DAQ130に対する制御には、検出器125により得られた干渉光の検出結果の取り込み制御(取り込みタイミング、サンプリングタイミング)、取り込まれた干渉光の検出結果に対応した干渉信号の読み出し制御などがある。
The control over the
前眼部カメラ5A、5Bに対する制御には、各カメラの受光感度の制御、フレームレート(受光タイミング)の制御、前眼部カメラ5A、5Bの同期制御などがある。
Control of the
移動機構150は、例えば、少なくとも眼底カメラユニット2(光学系)を3次元的に移動する。典型的な例において、移動機構150は、少なくとも眼底カメラユニット2をx方向(左右方向)に移動するための機構と、y方向(上下方向)に移動するための機構と、z方向(奥行き方向、前後方向)に移動するための機構とを含む。x方向に移動するための機構は、例えば、x方向に移動可能なxステージと、xステージを移動するx移動機構とを含む。y方向に移動するための機構は、例えば、例えば、y方向に移動可能なyステージと、yステージを移動するy移動機構とを含む。z方向に移動するための機構は、例えば、z方向に移動可能なzステージと、zステージを移動するz移動機構とを含む。各移動機構は、アクチュエータとしてのパルスモータを含み、主制御部211からの制御を受けて動作する。
The moving
移動機構150に対する制御は、アライメントやトラッキングにおいて用いられる。トラッキングとは、被検眼Eの眼球運動に合わせて装置光学系を移動させるものである。トラッキングを行う場合には、事前にアライメントとフォーカス調整が実行される。トラッキングは、装置光学系の位置を眼球運動に追従させることにより、アライメントとピントが合った好適な位置関係を維持する機能である。いくつかの実施形態では、参照光の光路長(よって、測定光の光路と参照光の光路との間の光路長差)を変更するために移動機構150の制御を行うように構成される。
Control over the moving
マニュアルアライメントの場合、光学系に対する被検眼Eの変位がキャンセルされるようにユーザーがユーザーインターフェイス240に対して操作することにより光学系と被検眼Eとを相対移動させる。例えば、主制御部211は、ユーザーインターフェイス240に対する操作内容に対応した制御信号を移動機構150に出力することにより移動機構150を制御して被検眼Eに対して光学系を相対移動させる。
In the case of manual alignment, the user relatively moves the optical system and the subject's eye E by operating the
オートアライメントの場合、光学系に対する被検眼Eの変位がキャンセルされるように主制御部211が移動機構150を制御することにより被検眼Eに対して光学系を相対移動させる。具体的には、特開2013-248376号公報に記載のように、一対の前眼部カメラ5A及び5Bと被検眼Eとの位置関係に基づく三角法を利用した演算処理を行い、主制御部211は、光学系に対する被検眼Eの位置関係が所定の位置関係になるように移動機構150を制御する。いくつかの実施形態では、主制御部211は、光学系の光軸が被検眼Eの軸に略一致し、かつ、被検眼Eに対する光学系の距離が所定の作動距離になるように制御信号を移動機構150に出力することにより移動機構150を制御して被検眼Eに対して光学系を相対移動させる。ここで、作動距離とは、対物レンズ22のワーキングディスタンスとも呼ばれる既定値であり、光学系を用いた測定時(撮影時)における被検眼Eと光学系との間の距離に相当する。
In the case of auto-alignment, the
主制御部211は、表示制御部として、各種情報を表示部240Aに表示させることが可能である。例えば、主制御部211は、複数の分光眼底画像を波長範囲に対応付けて表示部240Aに表示させる。例えば、主制御部211は、解析部232により得られた解析処理結果を表示部240Aに表示させる。
The
〈記憶部212〉
記憶部212は各種のデータを記憶する。記憶部212の機能は、メモリ又は記憶装置等の記憶デバイスにより実現される。記憶部212に記憶されるデータとしては、例えば、制御パラメータ、眼底像の画像データ、前眼部像の画像データ、OCTデータ(OCT画像を含む)、眼底像の分光画像データ、前眼部像の分光画像データ、被検眼情報などがある。制御パラメータとしては、ハイパースペクトル撮影制御データなどがある。ハイパースペクトル撮影制御データは、所定の解析波長範囲内で互いに異なる中心波長の戻り光に基づいて複数の眼底像を取得するための制御データである。ハイパースペクトル撮影制御データの例として、複数の分光眼底画像が取得される解析波長範囲、各分光眼底画像が取得される波長範囲、中心波長、中心波長ステップ、中心波長に対応した波長可変フィルタ80の制御データなどがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報、電子カルテ情報などの被検眼に関する情報を含む。記憶部212には、各種のプロセッサ(制御プロセッサ、画像形成プロセッサ、データ処理プロセッサ)を実行させるためのプログラムが記憶される。
<
The
〈画像形成部220〉
画像形成部220は、プロセッサ(例えば、画像形成プロセッサ)を含み、DAQ130からの出力(検出信号のサンプリング結果)に基づいて、被検眼EのOCT画像(画像データ)を形成する。例えば、画像形成部220は、従来のスウェプトソースOCTと同様に、Aライン毎のサンプリング結果に基づくスペクトル分布に信号処理を施してAライン毎の反射強度プロファイルを形成し、これらAラインプロファイルを画像化してスキャンラインに沿って配列する。上記信号処理には、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などが含まれる。他のタイプのOCTを実行する場合、画像形成部220は、そのタイプに応じた公知の処理を実行する。
<
The
〈データ処理部230〉
データ処理部230は、プロセッサ(例えば、データ処理プロセッサ)を含み、画像形成部220により形成された画像に対して画像処理や解析処理を施す。主制御部211に含まれるプロセッサ、データ処理部230に含まれるプロセッサ、及び画像形成部220に含まれるプロセッサの少なくとも2つは、単一のプロセッサにより構成されていてもよい。
<
The
データ処理部230は、断層像の間の画素を補間する補間処理などの公知の画像処理を実行して、眼底Ef又は前眼部Eaの3次元画像の画像データを形成する。なお、3次元画像の画像データとは、3次元座標系により画素の位置が定義された画像データを意味する。3次元画像の画像データとしては、3次元的に配列されたボクセルからなる画像データがある。この画像データは、ボリュームデータ或いはボクセルデータなどと呼ばれる。ボリュームデータに基づく画像を表示させる場合、データ処理部230は、このボリュームデータに対してレンダリング処理(ボリュームレンダリングやMIP(Maximum Intensity Projection:最大値投影)など)を施して、特定の視線方向から見たときの擬似的な3次元画像の画像データを形成する。表示部240A等の表示デバイスには、この擬似的な3次元画像が表示される。
The
また、3次元画像の画像データとして、複数の断層像のスタックデータを形成することも可能である。スタックデータは、複数のスキャンラインに沿って得られた複数の断層像を、スキャンラインの位置関係に基づいて3次元的に配列させることで得られる画像データである。すなわち、スタックデータは、元々個別の2次元座標系により定義されていた複数の断層像を、1つの3次元座標系により表現する(つまり1つの3次元空間に埋め込む)ことにより得られる画像データである。 Stack data of a plurality of tomographic images can also be formed as image data of a three-dimensional image. Stacked data is image data obtained by three-dimensionally arranging a plurality of tomographic images obtained along a plurality of scan lines based on the positional relationship of the scan lines. That is, stack data is image data obtained by expressing a plurality of tomographic images, which were originally defined by individual two-dimensional coordinate systems, by one three-dimensional coordinate system (that is, embedding them in one three-dimensional space). be.
いくつかの実施形態では、データ処理部230は、Aスキャン画像をBスキャン方向に配列することによりBスキャン画像を生成する。いくつかの実施形態では、データ処理部230は、取得された3次元データセット(ボリュームデータ、スタックデータ等)に各種のレンダリングを施すことで、任意断面におけるBモード画像(Bスキャン画像)(縦断面像、軸方向断面像)、任意断面におけるCモード画像(Cスキャン画像)(横断面像、水平断面像)、プロジェクション画像、シャドウグラムなどを形成することができる。Bスキャン画像やCスキャン画像のような任意断面の画像は、指定された断面上の画素(ピクセル、ボクセル)を3次元データセットから選択することにより形成される。プロジェクション画像は、3次元データセットを所定方向(z方向、深さ方向、軸方向)に投影することによって形成される。シャドウグラムは、3次元データセットの一部(たとえば特定層に相当する部分データ)を所定方向に投影することによって形成される。積分する層方向の深さ範囲を変更することで、互いに異なる2以上のシャドウグラムを形成することが可能である。Cスキャン画像、プロジェクション画像、シャドウグラムのような、被検眼の正面側を視点とする画像を正面画像(en-face画像)と呼ぶ。
In some embodiments,
データ処理部230は、OCTにより時系列に収集されたデータ(例えば、Bスキャン画像データ)に基づいて、網膜血管や脈絡膜血管が強調されたBスキャン画像や正面画像(血管強調画像、アンギオグラム)を構築することができる。例えば、被検眼Eの略同一部位を反復的にスキャンすることにより、時系列のOCTデータを収集することができる。
The
いくつかの実施形態では、データ処理部230は、略同一部位に対するBスキャンにより得られた時系列のBスキャン画像を比較し、信号強度の変化部分の画素値を変化分に対応した画素値に変換することにより当該変化部分が強調された強調画像を構築する。更に、データ処理部230は、構築された複数の強調画像から所望の部位における所定の厚さ分の情報を抽出してen-face画像として構築することでOCTA像を形成する。
In some embodiments, the
このようなデータ処理部230は、位置合わせ処理部231と、解析部232とを含む。
Such a
〈位置合わせ処理部231〉
位置合わせ処理部231は、被検眼EにOCTを実行することにより得られたOCTデータに基づいて、所定の解析波長範囲の複数の波長範囲に対応した被検眼Eの複数の分光眼底画像の位置合わせを実行する。
<
The
OCTデータは、被検眼に対してOCTを実行することにより得られた干渉光の検出結果、Bスキャン画像、又はen-face画像であってよい。 The OCT data may be a detection result of interference light, a B-scan image, or an en-face image obtained by performing OCT on the subject's eye.
撮影光学系30の光軸に対するOCTユニット100の光軸の相対位置は既知であるため、撮影光学系30により得られた画像中の位置から、OCTユニット100を用いたOCTスキャン位置(又はOCT画像中の位置)を特定することが可能である。
Since the relative position of the optical axis of the
また、眼底Efは、入射光の波長成分に対して異なる特性を有する複数の層領域から構成されている。すなわち、複数の層領域は、入射光の波長成分に応じて、反射する光の割合、吸収される光の割合、及び透過する光の割合が異なる。具体的には、解析波長範囲において、短波長になるほど表層部(神経線維層)での反射光の強度が強くなり、中間波長では網膜色素上皮層での反射光の強度が強くなり、長波長になるほど深層部(脈絡膜層)での反射光の強度が強くなることが知られている。従って、眼底Efに入射する光の波長範囲に対して、眼底Efの層領域をあらかじめ対応付けることができる。 In addition, the fundus oculi Ef is composed of a plurality of layer regions having different characteristics with respect to wavelength components of incident light. That is, the plurality of layer regions differ in the proportion of reflected light, the proportion of absorbed light, and the proportion of transmitted light according to the wavelength component of incident light. Specifically, in the analysis wavelength range, the shorter the wavelength, the stronger the intensity of the reflected light from the surface layer (nerve fiber layer). It is known that the intensity of reflected light in the deeper layer (choroid layer) increases as the depth increases. Therefore, the layer region of the fundus oculi Ef can be associated in advance with the wavelength range of light incident on the fundus oculi Ef.
そこで、位置合わせ処理部231は、分光眼底画像中の特徴部位(特徴領域、特徴点)に対応する位置をOCTスキャンすることにより得られた干渉光の検出結果を用いて、複数の分光眼底画像の位置合わせを行う。特徴部位は、例えば、後述の解析部232により特定される。例えば、位置合わせ処理部231は、干渉光の検出結果に基づいて干渉光の強度が大きい第1深さ位置(z位置)及び第2深さ位置から眼底Efの第1層領域及び第2層領域を特定する。位置合わせ処理部231は、特定された第1層領域に対応する第1分光眼底画像と特定された第2層領域に対応する第2分光眼底画像とのxy方向の位置合わせを行う。
Therefore, the
いくつかの実施形態では、位置合わせ処理部231は、分光眼底画像中の特徴部位に対応する位置を通過するBスキャン画像を用いて、複数の分光眼底画像の位置合わせを行う。例えば、位置合わせ処理部231は、Bスキャン画像に対して公知のセグメンテーション処理を行うことにより第1深さ位置及び第2深さ位置における眼底Efの第1層領域及び第2層領域を特定する。位置合わせ処理部231は、特定された第1層領域に対応する第1分光眼底画像と特定された第2層領域に対応する第2分光眼底画像とのxy方向の位置合わせを行う。
In some embodiments, the
いくつかの実施形態では、位置合わせ処理部231は、分光眼底画像中の1以上の特徴部位が描出されたen-face画像を用いて、複数の分光眼底画像の位置合わせを行う。例えば、位置合わせ処理部231は、en-face画像中の1以上の特徴部位の位置と、複数の分光眼底画像のそれぞれの特徴部位の位置との位置合わせを行う。例えば、位置合わせ処理部231は、en-face画像及び位置合わせ対象の分光眼底画像のそれぞれにおける1以上の特徴部位に対し、最小二乗法(Least Squares Matching:LSM)により両画像の濃淡の差の二乗和が最小になるように2つの画像の位置合わせを行う。いくつかの実施形態では、位置合わせ処理部231は、位置合わせ対象の分光眼底画像に対してアフィン変換又はヘルマート変換を行うことで、en-face画像に対して分光眼底画像の位置合わせを行う。
In some embodiments, the
いくつかの実施形態では、位置合わせ処理部231は、波長範囲ごとに(眼底における深さ位置ごとに)異なる基準画像を用いて、分光眼底画像の位置合わせを行う。波長範囲ごとに異なる基準画像は、例えば、波長範囲に応じて積算範囲が異なるシャドウグラム(深さ位置が異なるen-face画像、Cスキャン画像)であってよい。
In some embodiments, the
いくつかの実施形態では、位置合わせ処理部231は、分光眼底画像ごとに異なるOCT正面画像(en-face画像、Cスキャン画像)との位置合わせを行う。OCT正面画像は、位置合わせ対象の分光眼底画像と最も相関度が高い画像であってよい。
In some embodiments, the
ここで、分光眼底画像は、種々の深さ位置からの戻り光に基づいて形成される。それにより、複数の分光眼底画像のそれぞれは、波長範囲ごとに異なる深さ位置からの戻り光の強度に変化の特徴を有する。従って、分光眼底画像は、当該分光眼底画像に対応する深さ位置(層領域)のOCT正面画像との位置合わせが容易になる。例えば、600nmまでの波長範囲では網膜血管がより鮮明になり、620nm~690nmまでの波長範囲では視神経乳頭がより鮮明になり、660nm以上の波長範囲では脈絡膜血管がより鮮明になる。従って、位置合わせ処理部231は、分光眼底画像の波長範囲に応じた深さ位置におけるOCT正面画像を基準に当該分光眼底画像の位置合わせを行うことで、複数の分光眼底画像の高精度の位置合わせが可能になる。例えば、分光眼底画像では波長範囲によって描出される部位が異なるため波長範囲が近い分光眼底画像を用いて位置合わせを行う比較例の手法と比較すると、分光眼底画像より深さ方向の分解能が高いOCTデータに基づいて形成されたOCT正面画像を用いて位置合わせを行うようにしたので、分光眼底画像を高精度に位置合わせを行うことができるようになる。
Here, the spectroscopic fundus image is formed based on return light from various depth positions. As a result, each of the plurality of spectral fundus images has characteristics of changes in intensity of return light from different depth positions for each wavelength range. Therefore, the spectral fundus image can be easily aligned with the OCT front image of the depth position (layer area) corresponding to the spectral fundus image. For example, in the wavelength range up to 600 nm, the retinal vessels become sharper, in the wavelength range from 620 nm to 690 nm, the optic disc becomes sharper, and in the wavelength range above 660 nm, the choroidal vessels become sharper. Therefore, the
〈解析部232〉
図4に示すように、解析部232は、特徴部位特定部232Aと、3次元位置算出部232Bと、位置ずれ処理部232Cと、画質処理部232Dとを含む。位置ずれ処理部232Cと画質処理部232Dのいずれか一方が省略されていてもよい。
<
As shown in FIG. 4, the
解析部232は、被検眼Eの画像(分光眼底画像を含む)を解析して当該画像に描出された特徴部位を特定することが可能である。例えば、解析部232は、前眼部カメラ5A、5Bの位置と特定された特徴部位の位置とに基づいて被検眼Eの3次元位置を求める。主制御部211は、求められた3次元位置に基づいて被検眼Eに対して光学系を相対移動させることにより、被検眼Eに対する光学系の位置合わせを行う。
The
また、解析部232は、上記の位置合わせ処理部231により実行される位置合わせ処理に用いられる特徴部位を特定することが可能である。
Further, the
解析部232は、位置合わせ処理部231により位置合わせ処理が行われた複数の分光眼底画像に対して所定の解析処理を実行することが可能である。所定の解析処理の例として、複数の分光眼底画像のうち任意の2つの画像の比較処理、比較処理により特定された共通領域又は差分領域の抽出処理、複数の分光眼底画像の少なくとも1つに対する注目部位又は特徴部位の特定処理、分光眼底画像中での上記の共通領域、上記の差分領域、上記の注目部位、又は上記の特徴部位の識別表示処理、複数の分光眼底画像のうち少なくとも2つの画像の合成処理などがある。
The
〈特徴部位特定部232A〉
特徴部位特定部232Aは、前眼部カメラ5A及び5Bにより得られた各撮影画像を解析することで、前眼部Eaの特徴部位に相当する当該撮影画像中の位置(特徴位置と呼ぶ)を特定する。特徴部位としては、例えば被検眼Eの瞳孔領域、被検眼Eの瞳孔中心位置、瞳孔重心位置、角膜中心位置、角膜頂点位置、被検眼中心位置、又は虹彩が用いられる。以下、被検眼Eの瞳孔中心位置を特定する処理の具体例を説明する。
<Characteristic
The characteristic
まず、特徴部位特定部232Aは、撮影画像の画素値(輝度値など)の分布に基づいて、被検眼Eの瞳孔に相当する画像領域(瞳孔領域)を特定する。一般に瞳孔は他の部位よりも低い輝度で描画されるので、低輝度の画像領域を探索することによって瞳孔領域を特定することができる。このとき、瞳孔の形状を考慮して瞳孔領域を特定するようにしてもよい。つまり、略円形かつ低輝度の画像領域を探索することによって瞳孔領域を特定するように構成することができる。
First, the characteristic
次に、特徴部位特定部232Aは、特定された瞳孔領域の中心位置を特定する。上記のように瞳孔は略円形であるので、瞳孔領域の輪郭を特定し、この輪郭(の近似円または近似楕円)の中心位置を特定し、これを瞳孔中心位置とすることができる。また、瞳孔領域の重心を求め、この重心位置を瞳孔重心位置として特定してもよい。
Next, the characteristic
なお、他の特徴部位に対応する特徴位置を特定する場合であっても、上記と同様に撮影画像の画素値の分布に基づいて当該特徴位置を特定することが可能である。 It should be noted that even when specifying a characteristic position corresponding to another characteristic part, it is possible to specify the characteristic position based on the distribution of pixel values of the captured image in the same manner as described above.
特徴部位特定部232Aは、前眼部カメラ5A及び5Bにより逐次に得られた撮影画像に対し特徴部位に相当する特徴位置を逐次に特定することが可能である。また、特徴部位特定部232Aは、前眼部カメラ5A及び5Bにより逐次に得られた撮影画像に対し1以上の任意の数のフレームおきに特徴位置を特定してもよい。
The characteristic
また、特徴部位特定部232Aは、同様に、分光眼底画像に対して特徴部位を特定することができる。この場合、特徴部位として、血管領域、疾患部位、画素の輝度の変化が特徴的な部位などがある。分光眼底画像の特徴部位は、ユーザーインターフェイス240の操作部240Bを用いて指定されてもよい。
Also, the characteristic
〈3次元位置算出部232B〉
3次元位置算出部232Bは、前眼部カメラ5A及び5Bの位置と、特徴部位特定部232Aにより特定された特徴部位に相当する特徴位置とに基づいて特徴部位の3次元位置を被検眼Eの3次元位置として特定する。3次元位置算出部232Bは、特開2013-248376号公報に開示されているように、2つの前眼部カメラ5A及び5Bの位置(既知である)と、2つの撮影画像において特徴部位に相当する位置とに対して、公知の三角法を適用することにより被検眼Eの3次元位置を算出する。3次元位置算出部232Bにより求められた3次元位置は、主制御部211に送られる。主制御部211は、当該3次元位置に基づいて、光学系の光軸のx方向及びy方向の位置が3次元位置のx方向及びy方向の位置と一致し、かつ、z方向の距離が所定の作動距離になるように移動機構150を制御する。
<Three-
The three-dimensional
〈位置ずれ処理部232C〉
位置ずれ処理部232Cは、取得された複数の分光眼底画像の位置ずれの評価処理を行う。具体的には、位置ずれ処理部232Cは、取得された複数の分光眼底画像の位置ずれ情報を求める。位置ずれ情報は、基準位置に対する変位と、変位の方向とを含む。位置ずれ処理部232Cは、求められた位置ずれ情報に基づいて分光眼底画像(の一部又は全部)の位置ずれが大きいか否かを判定する。位置ずれが大きいと判定されたとき、制御部210は、複数の分光眼底画像の一部又は全部を再取得させる。
<
The positional
位置ずれ処理部232Cは、図5に示すように、位置ずれ情報生成部2321Cと、位置ずれ判定部2322Cとを含む。
As shown in FIG. 5, the positional
〈位置ずれ情報生成部2321C〉
位置ずれ情報生成部2321Cは、基準画像に対する分光眼底画像の位置ずれ情報を求める。基準画像は、複数の分光眼底画像のいずれか、又は上記のen-face画像であってよい。複数の分光眼底画像のいずれかが基準画像として採用される場合、基準画像の例として、位置ずれ情報の算出対象の分光眼底画像に対して波長範囲が隣接する分光眼底画像、複数の分光眼底画像のうち最も波長が短い波長範囲の分光眼底画像、複数の分光眼底画像のうち最も波長が長い波長範囲の分光眼底画像、複数の分光眼底画像のうち解析波長範囲の略中間付近の波長範囲の分光眼底画像、複数の分光眼底画像のうち所定の特徴部位が最も鮮明に(コントラストが高く)描出された分光眼底画像などがある。
<Positional
The positional
基準画像が位置ずれ情報の算出対象の分光眼底画像に対して波長範囲が隣接する分光眼底画像である場合、位置ずれ情報生成部2321Cは、取得された複数の分光眼底画像のうち第1分光眼底画像と第2分光眼底画像とを解析することにより第1分光眼底画像と第2分光眼底画像との間の位置ずれ情報を求める。例えば、位置ずれ情報生成部2321Cは、第1分光眼底画像と第2分光眼底画像とにおける特徴部位特定部232Aにより特定された特徴部位(血管、疾患部位、視神経乳頭、黄斑など)に相当する位置の変位(ずれ量、ずれの方向)を特定し、特定された変位に基づいて位置ずれ情報を生成する。位置ずれ情報生成部2321Cは、複数の分光眼底画像のすべてに対して位置ずれ情報を生成することができる。
When the reference image is a spectral fundus image whose wavelength range is adjacent to the spectral fundus image for which positional deviation information is to be calculated, the positional deviation
〈位置ずれ判定部2322C〉
位置ずれ判定部2322Cは、位置ずれ情報生成部2321Cにより求められた位置ずれ情報に基づいて、分光眼底画像の少なくとも1つについて位置ずれが大きいか否かを判定する。
<Positional
Based on the positional deviation information obtained by the positional deviation
例えば、位置ずれ判定部2322Cは、各分光眼底画像について位置ずれが大きいか否かを判定する。この場合、位置ずれ判定部2322Cは、あらかじめ決められた閾値より大きいとき、分光眼底画像の位置ずれが大きいと判定する。いくつかの実施形態では、閾値は、波長範囲に応じて決定される。例えば、波長範囲が短波長になるほど閾値が小さく(又は大きく)なり、波長範囲が長波長になるほど閾値が大きく(又は小さく)なってよい。例えば、所望の特徴部位が最も鮮明に描出される波長範囲が既知である場合、当該波長範囲に応じて決定される閾値が最も小さくなるように設定されてよい。
For example, the positional
例えば、各分光眼底画像について位置ずれが大きいか否かの判定結果が得られた場合において、複数の分光眼底画像のすべてにおいて位置ずれが大きいと判定されたとき、位置ずれ判定部2322Cは、複数の分光眼底画像(画像群)の位置ずれが大きいと判定する。一方、複数の分光眼底画像のいずれかにおいて位置ずれが大きくないと判定された場合、位置ずれ判定部2322Cは、複数の分光眼底画像(画像群)の位置ずれは大きくないと判定する。
For example, when it is determined that the positional deviation is large in all of the plurality of spectral fundus images, the positional
例えば、各分光眼底画像について位置ずれが大きいか否かの判定結果が得られた場合において、位置ずれ判定部2322Cは、複数の位置ずれの最小値(又は最大値)を閾値と比較する。最小位置ずれ(又は最大位置ずれ)が閾値以上である場合、位置ずれ判定部2322Cは、複数の分光眼底画像(画像群)の位置ずれは大きいと判定する。一方、最小位置ずれ(又は最大位置ずれ)が閾値未満である場合、位置ずれ判定部2322Cは、複数の分光眼底画像(画像群)の位置ずれは大きくないと判定する。
For example, when a determination result is obtained as to whether or not the positional deviation is large for each spectral fundus image, the positional
例えば、各分光眼底画像について位置ずれが大きいか否かの判定結果が得られた場合において、位置ずれ判定部2322Cは、複数の分光眼底画像について得られた位置ずれに所定の統計演算を適用して統計値を算出する。この統計値の種類は任意であってよく、例えば、平均値、最小値、最大値、最頻値、中間値などであってよい。なお、統計値が最小値又は最大値であるケースは、上記の例に相当する。位置ずれ判定部2322Cは、算出された統計値を所定の閾値と比較する。統計値が閾値以上である場合、位置ずれ判定部2322Cは、複数の分光眼底画像(画像群)の位置ずれは大きいと判定する。一方、統計値が閾値未満である場合、位置ずれ判定部2322Cは、複数の分光眼底画像(画像群)の位置ずれは大きくないと判定する。
For example, when a determination result is obtained as to whether or not the positional deviation is large for each spectral fundus image, the positional
例えば、各分光眼底画像について位置ずれが大きいか否かの判定結果が得られた場合において、位置ずれ判定部2322Cは、複数の分光眼底画像の代表画像について得られた1以上の位置ずれのそれぞれを所定の閾値と比較する。代表画像の例として、複数の分光眼底画像のうち最も波長が短い波長範囲の分光眼底画像、複数の分光眼底画像のうち最も波長が長い波長範囲の分光眼底画像、複数の分光眼底画像のうち解析波長範囲の略中間付近の波長範囲の分光眼底画像、複数の分光眼底画像のうち所定の特徴部位が最も鮮明に(コントラストが高く)描出された分光眼底画像などがある。1以上の位置ずれのすべてが閾値以上である場合、位置ずれ判定部2322Cは、複数の分光眼底画像(画像群)の位置ずれは大きいと判定する。一方、1以上の位置ずれのいずれかが閾値未満である場合、位置ずれ判定部2322Cは、複数の分光眼底画像(画像群)の位置ずれは大きくないと判定する。
For example, when a determination result is obtained as to whether or not the positional deviation is large for each spectral fundus image, the positional
いくつかの実施形態では、位置ずれ情報生成部2321Cは、複数の分光眼底画像から選択された一部の分光眼底画像について位置ずれ情報を生成する。この場合、位置ずれ判定部2322Cは、生成された位置ずれ情報に対して、上記の判定処理を行う。すなわち、位置ずれ情報が生成された複数の分光眼底画像を用いて、位置ずれが評価される。
In some embodiments, the positional displacement
実施形態に係る位置ずれの判定処理は、上記の例に限定されるものではない。また、位置ずれ処理部232Cが実行する処理は、位置ずれ情報生成部2321Cにより生成された位置ずれ情報に基づく処理に限定されない。
The positional deviation determination process according to the embodiment is not limited to the above example. Further, the processing executed by the positional
制御部210(主制御部211)は、位置ずれ判定部2322Cにより得られた判定結果に基づいて、複数の分光眼底画像の一部又は全部の再取得を実行させる。例えば、制御部210は、複数の分光眼底画像の位置ずれが大きいと判定されたとき複数の分光眼底画像のすべてを再取得させる。
The control unit 210 (main control unit 211) causes re-acquisition of part or all of the plurality of spectral fundus images based on the determination result obtained by the positional
また、各分光眼底画像について位置ずれが大きいか否かの判定結果が得られた場合において、例えば、制御部210は、位置ずれが大きいと判定された分光眼底画像だけを再取得させることができる。例えば、制御部210は、位置ずれが大きいと判定された分光眼底画像の第1波長範囲を含む第2波長範囲に対応した複数の分光眼底画像(隣接する分光眼底画像を含む)を再取得させることができる。
Further, when a determination result is obtained as to whether or not the positional deviation is large for each spectral fundus image, for example, the
いくつかの実施形態では、位置ずれが大きいと判定された分光眼底画像の数が所定の閾値以上のとき、制御部210は、複数の分光眼底画像の一部又は全部の再取得を実行させる。
In some embodiments, when the number of spectral fundus images determined to have a large positional shift is equal to or greater than a predetermined threshold, the
〈画質処理部232D〉
画質処理部232Dは、取得された複数の分光眼底画像の画質の評価処理を行う。具体的には、画質処理部232Dは、取得された複数の分光眼底画像の画質の評価値を算出する。画質処理部232Dは、算出された評価値に基づいて画質の良否(高画質であるか否か)を判定する。画質が良好ではないと判定されたとき、制御部210は、複数の分光眼底画像の一部又は全部を再取得させる。
<Image
The image
画質処理部232Dは、図6に示すように、画質評価値算出部2321Dと、画質判定部2322Dとを含む。
As shown in FIG. 6, the image
〈画質評価値算出部2321D〉
画質評価値算出部2321Dは、分光眼底画像の画質の評価値を算出する。いくつかの実施形態では、画質評価値算出部2321Dは、複数の分光眼底画像の画質を定量的に表す評価値を算出する。
<Image quality evaluation
The image quality evaluation
画質評価値算出部2321Dによる画質評価値算出処理は任意の処理であってよい。画質評価値算出処理の例として、信号対雑音比(SNR)、コントラスト対雑音比(CNR)、二乗平均平方根(RMS)粒状度、ウィーナースペクトル(Wiener Spectrum)、変調伝達関数(MTF)、品質指標(Quality Index;QI)など、任意の公知技術を利用した処理がある。
The image quality evaluation value calculation processing by the image quality evaluation
評価値は、画像の品質を定量的に表現する任意のパラメータであってよく、典型的には、画像の品質が高いほど評価値も大きくなる。 The evaluation value may be any parameter that quantitatively expresses the quality of the image, and typically the higher the quality of the image, the higher the evaluation value.
例えば、画質評価値算出部2321Dは、分光眼底画像に対して、評価値としてImage Quality値(IQ値)を算出する。この場合、画質評価値算出部2321Dは、評価対象の画像に設定された評価領域に対して所定の解析処理を適用することにより、所定の組織(部位)に相当する画像領域(組織画像領域)と、それ以外の画像領域(背景領域、非組織画像領域)とを検出する。次に、画質評価値算出部2321Dは、組織画像領域における輝度のヒストグラムを生成し、且つ、背景領域における輝度のヒストグラムを生成する。続いて、画質評価値算出部2321Dは、これら2つのヒストグラムの重なり具合から画質評価値(IQ値)を算出する。例えば、双方のヒストグラムが完全に重なっている場合にはIQ値=0となり、双方のヒストグラムが完全に分離している場合にはIQ値=100となるように、“0”~“100”の範囲においてIQ値が定義される。この画質評価演算は、例えば、2つのヒストグラムの正規化、確率分布関数の生成、所定の演算式を用いたIQ値の算出などを含んでいてよい。
For example, the image quality evaluation
このように、画質評価値算出部2321Dは、評価対象の画像において所定の組織に相当する組織画像領域と、背景領域とを特定する処理と、組織画像領域における輝度の度数分布を示す第1ヒストグラムを作成する処理と、背景領域における輝度の度数分布を示す第2ヒストグラムとを作成する処理と、第1ヒストグラム及び第2ヒストグラムに基づいて画質評価データとしての画質評価値(IQ値)を算出する処理とを実行するように構成される。
In this way, the image quality evaluation
実施形態に係る画質の評価値の算出処理は、上記の例に限定されるものではない。 The image quality evaluation value calculation process according to the embodiment is not limited to the above example.
〈画質判定部2322D〉
画質判定部2322Dは、画質評価値算出部2321Dにより算出された評価値に基づいて、複数の分光眼底画像の少なくとも1つの画質の良否を判定する。いくつかの実施形態では、画質判定部2322Dは、算出された評価値に基づいて、複数の分光眼底画像を画像群として当該画像群の良否を判定する。
<Image
The image
例えば、各分光眼底画像についてIQ値が得られた場合において、画質判定部2322Dは、複数の分光眼底画像について得られた複数のIQ値のそれぞれを所定の閾値と比較する。複数のIQ値のすべてが閾値以上である場合、画質判定部2322Dは、複数の分光眼底画像(画像群)の品質は良好であると判定する。一方、複数のIQ値のいずれかが閾値未満である場合、画質判定部2322Dは、複数の分光眼底画像(画像群)の品質は良好でないと判定する。
For example, when an IQ value is obtained for each spectral fundus image, the image
例えば、各分光眼底画像についてIQ値が得られた場合において、画質判定部2322Dは、複数の分光眼底画像について得られた複数のIQ値のうち最も低いIQ値を選択し、この最低IQ値を所定の閾値と比較する。最低IQ値が閾値以上である場合、画質判定部2322Dは、複数の分光眼底画像(画像群)の品質は良好であると判定する。一方、最低IQ値が閾値未満である場合、画質判定部2322Dは、複数の分光眼底画像(画像群)の品質は良好でないと判定する。
For example, when an IQ value is obtained for each spectral fundus image, the image
例えば、各分光眼底画像についてIQ値が得られた場合において、画質判定部2322Dは、複数の分光眼底画像について得られた複数のIQ値に所定の統計演算を適用して統計値を算出する。この統計値の種類は任意であってよく、例えば、平均値、最小値、最大値、最頻値、中間値などであってよい。なお、統計値が最小値であるケースは、上記の例に相当する。画質判定部2322Dは、算出された統計値を所定の閾値と比較する。統計値が閾値以上である場合、画質判定部2322Dは、複数の分光眼底画像(画像群)の品質は良好であると判定する。一方、統計値が閾値未満である場合、画質判定部2322Dは、複数の分光眼底画像(画像群)の品質は良好でないと判定する。
For example, when an IQ value is obtained for each spectral fundus image, the image
例えば、各分光眼底画像についてIQ値が得られた場合において、画質判定部2322Dは、複数の分光眼底画像の代表画像について得られた1以上のIQ値のそれぞれを所定の閾値と比較する。代表画像の例として、複数の分光眼底画像のうち最も波長が短い波長範囲の分光眼底画像、複数の分光眼底画像のうち最も波長が長い波長範囲の分光眼底画像、複数の分光眼底画像のうち解析波長範囲の略中間付近の波長範囲の分光眼底画像、複数の分光眼底画像のうち所定の特徴部位が最も鮮明に(コントラストが高く)描出された分光眼底画像などがある。1以上のIQ値のすべてが閾値以上である場合、画質判定部2322Dは、複数の分光眼底画像(画像群)の品質は良好であると判定する。一方、1以上のIQ値のいずれかが閾値未満である場合、画質判定部2322Dは、複数の分光眼底画像(画像群)の品質は良好でないと判定する。
For example, when an IQ value is obtained for each spectral fundus image, the image
例えば、各分光眼底画像についてIQ値が得られた場合において、画質判定部2322Dは、複数の分光眼底画像の代表画像について得られた2以上のIQ値に所定の統計演算を適用して統計値を算出する。この統計値の種類は任意であってよく、例えば、平均値、最小値、最大値、最頻値、中間値などであってよい。画質判定部2322Dは、算出された統計値を所定の閾値と比較する。統計値が閾値以上である場合、画質判定部2322Dは、複数の分光眼底画像(画像群)の品質は良好であると判定する。一方、統計値が閾値未満である場合、画質判定部2322Dは、複数の分光眼底画像(画像群)の品質は良好でないと判定する。
For example, when an IQ value is obtained for each spectral fundus image, the image
いくつかの実施形態では、画質評価値算出部2321Dは、複数の分光眼底画像から選択された一部の分光眼底画像について評価値を算出する。この場合、画質判定部2322Dは、算出された評価値に対して、上記の判定処理を行う。すなわち、評価値が算出された複数の分光眼底画像を用いて、画質が評価される。
In some embodiments, the image quality evaluation
実施形態に係る画質の判定処理は、上記の例に限定されるものではない。また、画質処理部232Dが実行する処理は、画質評価値算出部2321Dにより算出された評価値に基づく処理に限定されない。
The image quality determination process according to the embodiment is not limited to the above example. Further, the processing executed by the image
制御部210(主制御部211)は、画質判定部2322Dにより得られた判定結果に基づいて、複数の分光眼底画像の一部又は全部の再取得を実行させる。例えば、制御部210は、複数の分光眼底画像の品質が良好ではないと判定されたとき複数の分光眼底画像のすべてを再取得させる。
The control unit 210 (main control unit 211) causes re-acquisition of part or all of the plurality of spectral fundus images based on the determination result obtained by the image
また、各分光眼底画像についてIQ値が得られた場合、例えば、制御部210は、IQ値が閾値未満である分光眼底画像(IQ値に基づいて画質が良好ではないと判定された分光眼底画像)だけを再取得させることができる。例えば、制御部210は、IQ値が閾値未満である分光眼底画像の第1波長範囲を含む第2波長範囲に対応した複数の分光眼底画像(隣接する分光眼底画像を含む)を再取得させることができる。
Further, when the IQ value is obtained for each spectral fundus image, for example, the
いくつかの実施形態では、IQ値が閾値未満である分光眼底画像の数が所定の閾値以上のとき、制御部210は、複数の分光眼底画像の一部又は全部の再取得を実行させる。
In some embodiments, when the number of spectral fundus images whose IQ values are less than a threshold is equal to or greater than a predetermined threshold, the
〈ユーザーインターフェイス240〉
ユーザーインターフェイス240は表示部240Aと操作部240Bとを含む。表示部240Aは表示装置3を含む。操作部240Bは各種の操作デバイスや入力デバイスを含む。
<
ユーザーインターフェイス240は、例えばタッチパネルのような表示機能と操作機能とが一体となったデバイスを含んでいてもよい。他の実施形態において、ユーザーインターフェイスの少なくとも一部が眼科装置に含まれていなくてよい。例えば、表示デバイスは、眼科装置に接続された外部装置であってよい。
The
〈通信部250〉
通信部250は、図示しない外部装置と通信するための機能を有する。通信部250は、外部装置との接続形態に応じた通信インターフェイスを備える。外部装置の例として、サーバ装置、OCT装置、走査型レーザー検眼鏡、スリットランプ検眼鏡、眼科測定装置、眼科治療装置などがある。眼科測定装置の例として、眼屈折検査装置、眼圧計、スペキュラーマイクロスコープ、ウェーブフロントアナライザ、視野計、マイクロペリメータなどがある。眼科治療装置の例として、レーザー治療装置、手術装置、手術用顕微鏡などがある。また、外部装置は、記録媒体から情報を読み取る装置(リーダ)や、記録媒体に情報を書き込む装置(ライタ)などでもよい。更に、外部装置は、病院情報システム(HIS)サーバ、DICOM(Digital Imaging and COmmunication in Medicine)サーバ、医師端末、モバイル端末、個人端末、クラウドサーバなどでもよい。
<
The
演算制御ユニット200(制御部210、画像形成部220、及びデータ処理部230)は、実施形態に係る「眼科情報処理装置」の一例である。複数の分光眼底画像(分光画像)は、実施形態に係る「被検眼からの互いに波長範囲が異なる戻り光を順次に受光して得られた被検眼の複数の画像」の一例である。被検眼の複数の分光画像を図示しない通信機能により取得する構成、又は眼底カメラユニット2(照明光学系10、撮影光学系30)は、実施形態に係る「取得部」の一例である。位置合わせ処理部231は、実施形態に係る「位置合わせ部」の一例である。en-face画像又はCスキャン画像は、実施形態に係る「OCT正面画像」の一例である。位置ずれ判定部2322Cは、実施形態に係る「第1判定部」の一例である。画質評価値算出部2321Dは、実施形態に係る「品質評価部」の一例である。画質判定部2322Dは、実施形態に係る「第2判定部」の一例である。撮影光学系30は、実施形態に係る「受光光学系」の一例である。OCTユニット100から対物レンズ22までの光学系は、実施形態に係る「OCT光学系」の一例である。
The arithmetic control unit 200 (the
〈動作〉
眼科装置1の動作例について説明する。
<motion>
An operation example of the
図7~図9に、実施形態に係る眼科装置1の動作例を示す。図7は、眼科装置1の動作例のフロー図を表す。図8は、図7のステップS8の動作例のフロー図を表す。図9は、図7のステップS8の他の動作例のフロー図を表す。
7 to 9 show an operation example of the
記憶部212には、図7~図9に示す処理を実現するためのコンピュータプログラムが記憶されている。主制御部211は、このコンピュータプログラムに従って動作することにより、図7~図9に示す処理を実行する。
The
(S1:アライメント)
まず、主制御部211は、アライメントを実行する。
(S1: Alignment)
First, the
例えば、主制御部211は、前眼部カメラ5A及び5Bを制御して、実質的に同時に被検眼Eの前眼部Eaを撮影する。特徴部位特定部232Aは、主制御部211からの制御を受け、前眼部カメラ5A及び5Bにより実質的に同時に取得された一対の前眼部像を解析して特徴部位として被検眼Eの瞳孔中心位置を特定する。3次元位置算出部232Bは、被検眼Eの3次元位置を求める。この処理は、例えば、特開2013-248376号公報に記載のように、一対の前眼部カメラ5A及び5Bと被検眼Eとの位置関係に基づく三角法を利用した演算処理を含む。
For example, the
主制御部211は、光学系(例えば眼底カメラユニット2)と被検眼Eとが所定の位置関係となるように、3次元位置算出部232Bにより求められた被検眼Eの3次元位置に基づき移動機構150を制御する。ここで、所定の位置関係は、光学系を用いて被検眼Eの撮影や検査を実行可能な位置関係である。典型例として、3次元位置算出部232Bにより被検眼Eの3次元位置(x座標、y座標、z座標)が得られた場合、対物レンズ22の光軸のx座標及びy座標が被検眼Eのx座標及びy座標にそれぞれ一致し、且つ、対物レンズ22(前側レンズ面)のz座標と被検眼E(角膜表面)のz座標との差が所定距離(ワーキングディスタンス)に等しくなる位置が、光学系の移動先として設定される。
The
(S2:オートフォーカス)
続いて、主制御部211は、オートフォーカスを開始する。
(S2: Autofocus)
Subsequently, the
例えば、主制御部211は、フォーカス光学系60を制御して被検眼Eにスプリット指標を投影させる。解析部232は、主制御部211からの制御を受け、スプリット指標が投影されている眼底Efの観察画像を解析することにより、一対のスプリット指標像を抽出し、一対のスプリット指標の相対的なずれを算出する。主制御部211は、算出されたずれ(ずれ方向、ずれ量)に基づいて合焦駆動部31Aや合焦駆動部43Aを制御する。
For example, the
(S3:OCT計測)
次に、主制御部211は、OCT計測を実行する。
(S3: OCT measurement)
Next, the
例えば、主制御部211は、LCD39を制御して固視標を被検眼Eに提示させる。続いて、主制御部211は、OCT計測が開始されるように、光スキャナ42及びOCTユニット100を制御する。OCT計測が開始されると、OCTユニット100は、各スキャンで収集されたデータを画像形成部220に送る。画像形成部220は、各スキャンにて収集されたデータから複数のBスキャン像を形成し、制御部210に送る。制御部210は、各スキャンに対応する複数のBスキャン像をデータ処理部230に送る。例えば、データ処理部230は、各スキャンに対応する複数のBスキャン像から3次元画像を形成する。
For example, the
(S4:波長範囲を設定)
次に、主制御部211は、波長可変フィルタ80を制御して、透過光の波長選択範囲を所定の波長範囲に設定する。所定の波長範囲の例として、解析波長範囲を網羅するように波長範囲の選択を順次に繰り返すときの初期波長範囲がある。
(S4: Set wavelength range)
Next, the
(S5:画像データを取得)
次に、主制御部211は、分光眼底画像の画像データを取得させる。
(S5: Acquire image data)
Next, the
例えば、主制御部211は、照明光学系10を制御して照明光で被検眼Eを照明させ、イメージセンサ38により得られた照明光の反射光の受光結果を取り込み、分光眼底画像の画像データを取得させる。
For example, the
(S6:次?)
続いて、主制御部211は、次の波長範囲で分光眼底画像の取得を行うか否かを判定する。例えば、解析波長範囲内を所定の波長範囲ステップで波長選択を順次に変更する場合に、主制御部211は、波長範囲の変更回数に基づいて次の分光眼底画像の取得を行うか否かを判定することができる。例えば、主制御部211は、あらかじめ決められた複数の波長範囲のすべてが選択されたか否かを判別することで次の分光眼底画像の取得を行うか否かを判定することができる。
(S6: next?)
Subsequently, the
ステップS6において、次の分光眼底画像の取得を行うと判定されたとき(ステップS6:Y)、眼科装置1の動作はステップS7に移行する。ステップS6において、次の分光眼底画像の取得を行わないと判定されたとき(ステップS6:N)、眼科装置1の動作はステップS8に移行する。
When it is determined in step S6 that the next spectral fundus image is to be obtained (step S6: Y), the operation of the
(S7:波長範囲を変更)
ステップS6において次の分光眼底画像の取得を行うと判定されたとき(ステップS6:Y)、主制御部211は、波長可変フィルタ80を制御して、次に選択すべき透過光の選択範囲を変更する。続いて、眼科装置1の動作は、ステップS5に移行する。
(S7: Change wavelength range)
When it is determined in step S6 that the next spectral fundus image is to be acquired (step S6: Y), the
(S8:再撮影処理)
ステップS6において次の分光眼底画像の取得を行わないと判定されたとき(ステップS6:N)、主制御部211は、再撮影処理を実行し、必要に応じて、分光眼底画像の再取得を行う。ステップS8の詳細は、後述する。
(S8: re-shooting process)
When it is determined in step S6 that the next spectral fundus image will not be acquired (step S6: N), the
ステップS8に続いて、眼科装置1の動作は終了である(エンド)。
Following step S8, the operation of the
例えば、ステップS8では、複数の分光眼底画像の位置ずれを評価することで分光眼底画像の再取得を行うか否かを決定する処理(図8)、又は、複数の分光眼底画像の画質を評価することで分光眼底画像の再取得を行うか否かを決定する処理(図9)が実行される。 For example, in step S8, a process of determining whether or not to reacquire the spectral fundus images by evaluating the positional deviation of the plurality of spectral fundus images (FIG. 8), or evaluating the image quality of the plurality of spectral fundus images. By doing so, the process (FIG. 9) of determining whether or not to reacquire the spectral fundus image is executed.
まず、図8に示すように、複数の分光眼底画像の位置ずれを評価する場合について説明する。 First, as shown in FIG. 8, the case of evaluating the positional deviation of a plurality of spectral fundus images will be described.
(S11:位置合わせ)
図7に示すフローに従って、所定の解析波長範囲内の複数の分光眼底画像が取得されると、主制御部211は、位置合わせ処理部231を制御して、ステップS3において取得されたOCTデータに基づいて複数の分光眼底画像の位置合わせ処理を実行させる。
(S11: alignment)
When a plurality of spectral fundus images within a predetermined analysis wavelength range are acquired according to the flow shown in FIG. Alignment processing of a plurality of spectral fundus images is executed based on the above.
OCTデータは、ステップS3において取得された干渉光の検出結果、Bスキャン画像、又はen-face画像であってよい。 The OCT data may be the result of interference light detection acquired in step S3, a B-scan image, or an en-face image.
(S12:位置ずれ情報を生成)
続いて、主制御部211は、位置ずれ情報生成部2321Cを制御して、ステップS11において位置合わせ処理が行われた複数の分光眼底画像の位置ずれ情報を生成させる。
(S12: Generate misalignment information)
Subsequently, the
(S13:再取得?)
次に、主制御部211は、位置ずれ判定部2322Cを制御して、ステップS12において生成された位置ずれ情報に基づいて、複数の分光眼底画像の位置ずれが大きいか否かを判定させる。主制御部211は、位置ずれ判定部2322Cにより複数の分光眼底画像の位置ずれが大きいと判定されたとき、複数の分光眼底画像の一部又は全部を再取得させる。再取得される分光眼底画像は、位置ずれが大きいと判定された分光眼底画像、又は位置ずれが大きいと判定された分光眼底画像を含む2以上の分光眼底画像であってよい。
(S13: Reacquisition?)
Next, the
ステップS13において位置ずれが大きいと判定されたとき(ステップS13:Y)、ステップS8の処理はステップS14に移行する。ステップS13において位置ずれが大きくないと判定されたとき(ステップS13:N)、ステップS8の処理は終了である(エンド)。 When it is determined in step S13 that the positional deviation is large (step S13: Y), the process of step S8 proceeds to step S14. When it is determined in step S13 that the positional deviation is not large (step S13: N), the process of step S8 ends (end).
(S14:波長範囲を設定)
ステップS13において位置ずれが大きいと判定されたとき(ステップS13:Y)、主制御部211は、波長可変フィルタ80を制御して、透過光の波長選択範囲を、再取得する分光眼底画像に対応した波長範囲に設定する。
(S14: Set wavelength range)
When it is determined in step S13 that the positional deviation is large (step S13: Y), the
(S15:画像データを取得)
次に、主制御部211は、ステップS5と同様に、分光眼底画像の画像データを取得させる。
(S15: Acquire image data)
Next, the
(S16:次?)
続いて、主制御部211は、次の波長範囲で分光眼底画像の再取得を行うか否かを判定する。
(S16: next?)
Subsequently, the
ステップS16において、次の分光眼底画像の再取得を行うと判定されたとき(ステップS16:Y)、ステップS8の処理はステップS17に移行する。ステップS16において、次の分光眼底画像の再取得を行わないと判定されたとき(ステップS16:N)、ステップS8の処理は終了である(エンド)。 When it is determined in step S16 that the next spectral fundus image is to be reacquired (step S16: Y), the process of step S8 proceeds to step S17. When it is determined in step S16 that the next spectroscopic fundus image is not to be reacquired (step S16: N), the process of step S8 ends (end).
(S17:波長範囲を変更)
ステップS16において次の分光眼底画像の再取得を行うと判定されたとき(ステップS16:Y)、主制御部211は、波長可変フィルタ80を制御して、次に選択すべき透過光の選択範囲を変更する。続いて、ステップS8の処理は、ステップS15に移行する。
(S17: Change wavelength range)
When it is determined in step S16 that the next spectral fundus image is to be reacquired (step S16: Y), the
次に、図9に示すように、複数の分光眼底画像の画質ずれを評価する場合について説明する。 Next, as shown in FIG. 9, a case of evaluating image quality deviations of a plurality of spectral fundus images will be described.
(S21:位置合わせ)
図7に示すフローに従って、所定の解析波長範囲内の複数の分光眼底画像が取得されると、主制御部211は、ステップS11と同様に、位置合わせ処理部231を制御して、ステップS3において取得されたOCTデータに基づいて複数の分光眼底画像の位置合わせ処理を実行させる。
(S21: alignment)
When a plurality of spectral fundus images within a predetermined analysis wavelength range are acquired according to the flow shown in FIG. Alignment processing of a plurality of spectral fundus images is executed based on the acquired OCT data.
(S22:画質評価値を算出)
続いて、主制御部211は、画質評価値算出部2321Dを制御して、ステップS11において位置合わせ処理が行われた複数の分光眼底画像の画質の評価値を算出させる。
(S22: Calculate image quality evaluation value)
Subsequently, the
(S23:再取得?)
次に、主制御部211は、画質判定部2322Dを制御して、ステップS22において算出された評価値に基づいて、複数の分光眼底画像の画質の良否を判定させる。主制御部211は、画質判定部2322Dにより複数の分光眼底画像の画質が良好ではないと判定されたとき、複数の分光眼底画像の一部又は全部を再取得させる。再取得される分光眼底画像は、画質が良好ではないと判定された分光眼底画像、又は画質が良好ではないと判定された分光眼底画像を含む2以上の分光眼底画像であってよい。
(S23: Reacquisition?)
Next, the
ステップS23において画質が良好ではないと判定されたとき(ステップS23:Y)、ステップS8の処理はステップS24に移行する。ステップS23において画質が良好ではないと判定されたとき(ステップS23:N)、ステップS8の処理は終了である(エンド)。 When it is determined in step S23 that the image quality is not good (step S23: Y), the processing in step S8 proceeds to step S24. When it is determined in step S23 that the image quality is not good (step S23: N), the process of step S8 is terminated (END).
(S24:波長範囲を設定)
ステップS23において画質が良好ではないと判定されたとき(ステップS23:Y)、主制御部211は、波長可変フィルタ80を制御して、透過光の波長選択範囲を、再取得する分光眼底画像に対応した波長範囲に設定する。
(S24: Set wavelength range)
When it is determined in step S23 that the image quality is not good (step S23: Y), the
(S25:画像データを取得)
次に、主制御部211は、ステップS15と同様に、分光眼底画像の画像データを取得させる。
(S25: Acquire image data)
Next, the
(S26:次?)
続いて、主制御部211は、次の波長範囲で分光眼底画像の再取得を行うか否かを判定する。
(S26: next?)
Subsequently, the
ステップS26において、次の分光眼底画像の再取得を行うと判定されたとき(ステップS26:Y)、ステップS8の処理はステップS27に移行する。ステップS26において、次の分光眼底画像の再取得を行わないと判定されたとき(ステップS26:N)、ステップS8の処理は終了である(エンド)。 When it is determined in step S26 that the next spectral fundus image is to be reacquired (step S26: Y), the process of step S8 proceeds to step S27. When it is determined in step S26 that the next spectroscopic fundus image will not be reacquired (step S26: N), the process of step S8 ends (end).
(S27:波長範囲を変更)
ステップS26において次の分光眼底画像の再取得を行うと判定されたとき(ステップS26:Y)、主制御部211は、波長可変フィルタ80を制御して、次に選択すべき透過光の選択範囲を変更する。続いて、ステップS8の処理は、ステップS25に移行する。
(S27: Change wavelength range)
When it is determined in step S26 that the next spectral fundus image is to be reacquired (step S26: Y), the
〈作用〉
実施形態に係る眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラムについて説明する。
<Action>
An ophthalmologic information processing apparatus, an ophthalmologic apparatus, an ophthalmologic information processing method, and a program according to embodiments will be described.
いくつかの実施形態に係る眼科情報処理装置(制御部210、画像形成部220、及びデータ処理部230)は、取得部(被検眼の複数の分光画像を図示しない通信機能により取得する構成、又は眼底カメラユニット2(照明光学系10、撮影光学系30))と、位置合わせ部(位置合わせ処理部231)とを含む。取得部は、照明光で照明された被検眼(E)からの互いに波長範囲が異なる戻り光を順次に受光して得られた被検眼の複数の画像(分光画像、分光眼底画像、分光前眼部画像)を取得する。位置合わせ部は、被検眼に対して光コヒーレンストモグラフィを実行することにより得られたOCTデータに基づいて、複数の画像の位置合わせを行う。
The ophthalmologic information processing apparatus (the
このような構成によれば、複数の画像を取得する間に、固視ずれ及び被検眼と撮影部とのアライメントずれなどが生じた場合でも、画像間で分光特性を容易に比較することができるようになる。特に、OCTデータに基づいて位置合わせを行うことで、眼の奥行方向(深さ方向)の情報に基づいて画像間を高精度に位置合わせすることが可能になり、被検眼の観察部位における分光解析の精度を向上させることが可能になる。 According to such a configuration, spectral characteristics can be easily compared between images even when fixation dislocation and alignment misalignment between the subject's eye and the imaging unit occur while acquiring a plurality of images. become. In particular, by performing alignment based on OCT data, it becomes possible to perform highly accurate alignment between images based on information in the depth direction (depth direction) of the eye, and the spectroscopy at the observation site of the subject's eye becomes possible. It becomes possible to improve the accuracy of the analysis.
いくつかの実施形態では、OCTデータは、被検眼に対して光コヒーレンストモグラフィを実行することにより得られた干渉光の検出結果、Bスキャン画像、OCTA(OCT Angiography)画像、又はen-face画像である。 In some embodiments, the OCT data is the result of interference light detection, a B-scan image, an OCTA (OCT Angiography) image, or an en-face image obtained by performing optical coherence tomography on the eye to be examined. is.
このような構成によれば、既存の光学系で取得可能なOCTデータを用いて、簡便に、且つ、高精度に複数の画像の位置合わせを行うことができるようになる。 According to such a configuration, it is possible to easily and highly accurately align a plurality of images using OCT data that can be acquired with an existing optical system.
いくつかの実施形態では、位置合わせ部は、被検眼の画像とこの画像の波長範囲に対応した深さ位置におけるOCT正面画像との位置合わせを行う。 In some embodiments, the alignment unit aligns the image of the subject's eye with the OCT enface image at a depth position corresponding to the wavelength range of this image.
このような構成によれば、位置合わせ対象の画像の波長範囲に対応した深さ位置におけるOCT正面画像を基準に当該画像の位置合わせを行うようにしたので、高精度な位置合わせが可能になる。 According to such a configuration, since the images are aligned based on the OCT front image at the depth position corresponding to the wavelength range of the alignment target image, highly accurate alignment is possible. .
いくつかの実施形態は、複数の画像のうち第1画像と第2画像とを解析することにより第1画像と第2画像との間の位置ずれ情報を取得する位置ずれ情報生成部(2321C)を含む。 Some embodiments include a displacement information generator (2321C) that obtains displacement information between the first image and the second image by analyzing the first image and the second image among the plurality of images. including.
このような構成によれば、複数の画像を取得する間に、固視ずれ及び被検眼と撮影部とのアライメントずれなどが生じた場合に、複数の画像間の位置ずれを求めることで、取得された複数の画像の品質を定量的に評価することができるようになる。 According to such a configuration, when a fixation shift and misalignment between the subject's eye and the imaging unit occur while a plurality of images are being acquired, positional shift between the plurality of images can be obtained by obtaining the positional shift between the images. It becomes possible to quantitatively evaluate the quality of a plurality of captured images.
いくつかの実施形態は、位置ずれ情報に基づいて第1画像と第2画像との間の位置ずれが大きいか否かを判定する第1判定部(位置ずれ判定部2322C)を含み、第1判定部により得られた判定結果に基づいて、取得部は、第1画像又は第2画像を再取得する。
Some embodiments include a first determination unit (
このような構成によれば、位置ずれが小さい複数の画像を取得することが可能になり、被検眼の観察部位における分光解析の精度を向上させることが可能になる。 According to such a configuration, it is possible to acquire a plurality of images with small positional deviations, and it is possible to improve the accuracy of spectroscopic analysis of the observation site of the subject's eye.
いくつかの実施形態は、複数の画像の少なくとも1つの品質の評価値を算出する品質評価部(画質評価値算出部2321D)を含む。
Some embodiments include a quality evaluation unit (image quality evaluation
このような構成によれば、複数の画像を取得する間に、固視ずれ及び被検眼と撮影部とのアライメントずれなどが生じた場合に、複数の画像の少なくとも1つの品質の評価値を算出することで、取得された複数の画像の品質を定量的に評価することができるようになる。 According to such a configuration, an evaluation value of at least one quality of a plurality of images is calculated when fixation dislocation and alignment misalignment between the subject's eye and the imaging unit occur while acquiring a plurality of images. By doing so, it becomes possible to quantitatively evaluate the quality of a plurality of acquired images.
いくつかの実施形態は、評価値に基づいて複数の画像の品質の良否を判定する第2判定部(画質判定部2322D)を含み、第2判定部により得られた判定結果に基づいて、取得部は、複数の画像の少なくとも1つ又は複数の画像の全部を再取得する。
Some embodiments include a second determination unit (image
このような構成によれば、画質が良好な複数の画像を取得することが可能になり、被検眼の観察部位における分光解析の精度を向上させることが可能になる。 According to such a configuration, it is possible to acquire a plurality of images with good image quality, and it is possible to improve the accuracy of spectroscopic analysis of the observation site of the subject's eye.
いくつかの実施形態に係る眼科装置(1)は、照明光学系(10)と、受光光学系(撮影光学系30)と、OCT光学系(OCTユニット100から対物レンズ22までの光学系)と、上記のいずれかの眼科情報処理装置とを含む。照明光学系は、被検眼を照明光で照明する。受光光学系は、互いに波長範囲が異なる被検眼からの照明光の戻り光を順次に受光する。OCT光学系は、被検眼に対して光コヒーレンストモグラフィを実行する。取得部は、受光光学系により得られた受光結果に基づいて複数の画像を順次に取得する。
An ophthalmologic apparatus (1) according to some embodiments includes an illumination optical system (10), a light receiving optical system (imaging optical system 30), an OCT optical system (an optical system from an
このような構成によれば、複数の画像を取得する間に、固視ずれ及び被検眼と撮影部とのアライメントずれなどが生じた場合でも、眼の奥行方向(深さ方向)の情報に基づいて画像間を高精度に位置合わせすることが可能になり、被検眼の観察部位における分光解析の精度を向上させることが可能な眼科装置を提供することができるようになる。 According to such a configuration, even when a fixation shift or misalignment between the subject's eye and the imaging unit occurs while a plurality of images are being acquired, the image can be detected based on information in the depth direction (depth direction) of the eye. Therefore, it is possible to provide an ophthalmologic apparatus capable of improving the accuracy of spectroscopic analysis of the observation site of the subject's eye.
いくつかの実施形態に係る眼科情報処理方法は、取得ステップと、位置合わせステップとを含む。位置合わせステップは、照明光で照明された被検眼からの互いに波長範囲が異なる戻り光を順次に受光して得られた被検眼の複数の画像を取得する。位置合わせステップは、被検眼に対して光コヒーレンストモグラフィを実行することにより得られたOCTデータに基づいて、複数の画像の位置合わせを行う。 An ophthalmic information processing method according to some embodiments includes an acquisition step and an alignment step. The alignment step acquires a plurality of images of the eye to be inspected obtained by sequentially receiving return lights having different wavelength ranges from the eye to be inspected illuminated by the illumination light. The alignment step aligns a plurality of images based on OCT data obtained by performing optical coherence tomography on the subject's eye.
このような方法によれば、複数の画像を取得する間に、固視ずれ及び被検眼と撮影部とのアライメントずれなどが生じた場合でも、画像間で分光特性を容易に比較することができるようになる。特に、OCTデータに基づいて位置合わせを行うことで、眼の奥行方向(深さ方向)の情報に基づいて画像間を高精度に位置合わせすることが可能になり、被検眼の観察部位における分光解析の精度を向上させることが可能になる。 According to such a method, spectral characteristics can be easily compared between images even when fixation dislocation and alignment misalignment between the subject's eye and the imaging unit occur while acquiring a plurality of images. become. In particular, by performing alignment based on OCT data, it becomes possible to perform highly accurate alignment between images based on information in the depth direction (depth direction) of the eye, and the spectroscopy at the observation site of the subject's eye becomes possible. It becomes possible to improve the accuracy of the analysis.
いくつかの実施形態では、OCTデータは、被検眼に対して光コヒーレンストモグラフィを実行することにより得られた干渉光の検出結果、Bスキャン画像、OCTA(OCT Angiography)画像、又はen-face画像である。 In some embodiments, the OCT data is the result of interference light detection, a B-scan image, an OCTA (OCT Angiography) image, or an en-face image obtained by performing optical coherence tomography on the eye to be examined. is.
このような方法によれば、既存の光学系で取得可能なOCTデータを用いて、簡便に、且つ、高精度に複数の画像の位置合わせを行うことができるようになる。 According to such a method, it is possible to easily align a plurality of images with high accuracy using OCT data that can be acquired with an existing optical system.
いくつかの実施形態では、位置合わせステップは、被検眼の画像とこの画像の波長範囲に対応した深さ位置におけるOCT正面画像との位置合わせを行う。 In some embodiments, the aligning step aligns the image of the subject's eye with the OCT frontal image at a depth position corresponding to the wavelength range of the image.
このような方法によれば、位置合わせ対象の画像の波長範囲に対応した深さ位置におけるOCT正面画像を基準に当該画像の位置合わせを行うようにしたので、高精度な位置合わせが可能になる。 According to this method, since the images are aligned based on the OCT front image at the depth position corresponding to the wavelength range of the image to be aligned, highly accurate alignment is possible. .
いくつかの実施形態は、複数の画像のうち第1画像と第2画像とを解析することにより第1画像と第2画像との間の位置ずれ情報を取得する位置ずれ情報生成ステップを含む。 Some embodiments include generating misregistration information for obtaining misregistration information between the first and second images by analyzing the first and second images of the plurality of images.
このような方法によれば、複数の画像を取得する間に、固視ずれ及び被検眼と撮影部とのアライメントずれなどが生じた場合に、複数の画像間の位置ずれを求めることで、取得された複数の画像の品質を定量的に評価することができるようになる。 According to such a method, when a fixation shift and misalignment between the subject's eye and the imaging unit occur while a plurality of images are being acquired, positional shifts between the plurality of images are obtained to obtain the images. It becomes possible to quantitatively evaluate the quality of a plurality of captured images.
いくつかの実施形態は、位置ずれ情報に基づいて第1画像と第2画像との間の位置ずれが大きいか否かを判定する第1判定ステップを含み、第1判定ステップにおいて得られた判定結果に基づいて、取得ステップは、第1画像又は第2画像を再取得する。 Some embodiments include a first determining step of determining whether the displacement between the first image and the second image is large based on the misalignment information, and the determination obtained in the first determining step Based on the results, the acquiring step reacquires the first image or the second image.
このような方法によれば、位置ずれが小さい複数の画像を取得することが可能になり、被検眼の観察部位における分光解析の精度を向上させることが可能になる。 According to such a method, it is possible to acquire a plurality of images with small positional deviations, and it is possible to improve the accuracy of spectroscopic analysis of the observation site of the subject's eye.
いくつかの実施形態は、複数の画像の少なくとも1つの品質の評価値を算出する品質評価ステップを含む。 Some embodiments include a quality assessment step of calculating a quality assessment value for at least one of the plurality of images.
このような方法によれば、複数の画像を取得する間に、固視ずれ及び被検眼と撮影部とのアライメントずれなどが生じた場合に、複数の画像の少なくとも1つの品質の評価値を算出することで、取得された複数の画像の品質を定量的に評価することができるようになる。 According to this method, an evaluation value of at least one quality of a plurality of images is calculated when fixation dislocation and alignment misalignment between the subject's eye and the imaging unit occur while acquiring a plurality of images. By doing so, it becomes possible to quantitatively evaluate the quality of a plurality of acquired images.
いくつかの実施形態は、評価値に基づいて複数の画像の品質の良否を判定する第2判定ステップを含み、第2判定ステップにおいて得られた判定結果に基づいて、取得ステップは、複数の画像の少なくとも1つ又は複数の画像の全部を再取得する。 Some embodiments include a second determination step of determining whether the quality of the plurality of images is good or bad based on the evaluation value, and based on the determination result obtained in the second determination step, the obtaining step determines the quality of the plurality of images reacquire all of at least one or more images of .
このような方法によれば、画質が良好な複数の画像を取得することが可能になり、被検眼の観察部位における分光解析の精度を向上させることが可能になる。 According to such a method, it is possible to acquire a plurality of images with good image quality, and it is possible to improve the accuracy of spectroscopic analysis of the observation site of the subject's eye.
いくつかの実施形態に係るプログラムは、コンピュータに、上記のいずれかの眼科情報処理方法の各ステップを実行させる。 A program according to some embodiments causes a computer to execute each step of any one of the ophthalmologic information processing methods described above.
このようなプログラムによれば、複数の画像を取得する間に、固視ずれ及び被検眼と撮影部とのアライメントずれなどが生じた場合でも、眼の奥行方向(深さ方向)の情報に基づいて画像間を高精度に位置合わせすることが可能になり、被検眼の観察部位における分光解析の精度を向上させることが可能なコンピュータプログラムを提供することができるようになる。 According to such a program, even if a fixation shift or misalignment between the subject's eye and the imaging unit occurs while acquiring a plurality of images, the image can be detected based on the information in the depth direction (depth direction) of the eye. It becomes possible to align the images with high accuracy by using a computer program, and it is possible to provide a computer program capable of improving the accuracy of spectroscopic analysis of the observation site of the subject's eye.
以上に説明した実施形態はこの発明の一例に過ぎない。この発明を実施しようとする者は、この発明の要旨の範囲内における変形(省略、置換、付加等)を任意に施すことが可能である。 The embodiment described above is merely an example of the present invention. A person who intends to implement this invention can arbitrarily make modifications (omissions, substitutions, additions, etc.) within the scope of the gist of this invention.
いくつかの実施形態では、眼科装置の制御方法をコンピュータに実行させるプログラムが記憶部212に保存される。このようなプログラムを、コンピュータによって読み取り可能な任意の記録媒体に記憶させてもよい。記録媒体は、磁気、光、光磁気、半導体などを利用した電子媒体であってよい。典型的には、記録媒体は、磁気テープ、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ、ソリッドステートドライブなどである。
In some embodiments, the
1 眼科装置
2 眼底カメラユニット
10 照明光学系
22 対物レンズ
30 撮影光学系
80 波長可変フィルタ
100 OCTユニット
210 制御部
211 主制御部
220 画像形成部
230 データ処理部
231 位置合わせ処理部
232 解析部
232A 特徴部位特定部
232B 3次元位置算出部
232C 位置ずれ処理部
2321C 位置ずれ情報生成部
2322C 位置ずれ判定部
232D 画質処理部
2321D 画質評価値算出部
2322D 画質判定部
E 被検眼
Ef 眼底
LS 測定光
1
Claims (16)
前記被検眼に対して光コヒーレンストモグラフィを実行することにより得られたOCTデータに基づいて、前記複数の画像の位置合わせを行う位置合わせ部と、
を含む、眼科情報処理装置。 an acquisition unit that acquires a plurality of images of the eye to be inspected obtained by sequentially receiving return lights having different wavelength ranges from the eye to be inspected illuminated by the illumination light;
an alignment unit that aligns the plurality of images based on OCT data obtained by performing optical coherence tomography on the eye to be inspected;
An ophthalmic information processing device, comprising:
ことを特徴とする請求項1に記載の眼科情報処理装置。 The OCT data is a detection result of interference light obtained by performing optical coherence tomography on the eye to be examined, a B-scan image, an OCTA (OCT Angiography) image, or an en-face image. The ophthalmologic information processing apparatus according to claim 1.
ことを特徴とする請求項1に記載の眼科情報処理装置。 The ophthalmologic information processing apparatus according to claim 1, wherein the alignment unit performs alignment between the image of the subject's eye and an OCT front image at a depth position corresponding to a wavelength range of the image.
ことを特徴とする請求項1~請求項3のいずれか一項に記載の眼科情報処理装置。 and a positional deviation information generation unit that acquires positional deviation information between the first image and the second image by analyzing the first image and the second image among the plurality of images. The ophthalmologic information processing apparatus according to any one of claims 1 to 3.
前記第1判定部により得られた判定結果に基づいて、前記取得部は、前記第1画像又は前記第2画像を再取得する
ことを特徴とする請求項4に記載の眼科情報処理装置。 a first determination unit that determines whether the displacement between the first image and the second image is large based on the displacement information;
The ophthalmologic information processing apparatus according to claim 4, wherein the acquisition unit reacquires the first image or the second image based on the determination result obtained by the first determination unit.
ことを特徴とする請求項1~請求項5のいずれか一項に記載の眼科情報処理装置。 The ophthalmologic information processing apparatus according to any one of claims 1 to 5, further comprising a quality evaluation unit that calculates an evaluation value of quality of at least one of the plurality of images.
前記第2判定部により得られた判定結果に基づいて、前記取得部は、複数の画像の少なくとも1つ又は前記複数の画像の全部を再取得する
ことを特徴とする請求項6に記載の眼科情報処理装置。 a second determination unit that determines whether the quality of the plurality of images is good or bad based on the evaluation value;
7. The ophthalmology clinic according to claim 6, wherein the acquisition unit reacquires at least one of the plurality of images or all of the plurality of images based on the determination result obtained by the second determination unit. Information processing equipment.
互いに波長範囲が異なる前記被検眼からの前記照明光の戻り光を順次に受光する受光光学系と、
前記被検眼に対して光コヒーレンストモグラフィを実行するOCT光学系と、
請求項1~請求項7のいずれか一項に記載の眼科情報処理装置と、
を含み、
前記取得部は、前記受光光学系により得られた受光結果に基づいて前記複数の画像を順次に取得する、眼科装置。 an illumination optical system that illuminates the subject's eye with illumination light;
a light-receiving optical system that sequentially receives return light of the illumination light from the eye to be inspected, the wavelength ranges of which are different from each other;
an OCT optical system that performs optical coherence tomography on the eye to be examined;
an ophthalmologic information processing apparatus according to any one of claims 1 to 7;
including
The ophthalmologic apparatus, wherein the obtaining unit sequentially obtains the plurality of images based on light reception results obtained by the light receiving optical system.
前記被検眼に対して光コヒーレンストモグラフィを実行することにより得られたOCTデータに基づいて、前記複数の画像の位置合わせを行う位置合わせステップと、
を含む、眼科情報処理方法。 an acquisition step of acquiring a plurality of images of the eye to be inspected obtained by sequentially receiving return lights having different wavelength ranges from the eye to be inspected illuminated by the illumination light;
an alignment step of aligning the plurality of images based on OCT data obtained by performing optical coherence tomography on the eye to be inspected;
An ophthalmic information processing method, comprising:
ことを特徴とする請求項9に記載の眼科情報処理方法。 The OCT data is a detection result of interference light obtained by performing optical coherence tomography on the eye to be examined, a B-scan image, an OCTA (OCT Angiography) image, or an en-face image. The ophthalmologic information processing method according to claim 9.
ことを特徴とする請求項9に記載の眼科情報処理方法。 10. The ophthalmologic information processing method according to claim 9, wherein the alignment step performs alignment between the image of the subject's eye and an OCT front image at a depth position corresponding to a wavelength range of the image.
ことを特徴とする請求項9~請求項11のいずれか一項に記載の眼科情報処理方法。 and a positional deviation information generating step of acquiring positional deviation information between the first image and the second image by analyzing the first image and the second image among the plurality of images. The ophthalmologic information processing method according to any one of claims 9 to 11.
前記第1判定ステップにおいて得られた判定結果に基づいて、前記取得ステップは、前記第1画像又は前記第2画像を再取得する
ことを特徴とする請求項12に記載の眼科情報処理方法。 A first determination step of determining whether or not the positional deviation between the first image and the second image is large based on the positional deviation information;
13. The ophthalmologic information processing method according to claim 12, wherein said acquisition step re-acquires said first image or said second image based on the determination result obtained in said first determination step.
ことを特徴とする請求項9~請求項13のいずれか一項に記載の眼科情報処理方法。 The ophthalmologic information processing method according to any one of claims 9 to 13, further comprising a quality evaluation step of calculating an evaluation value of quality of at least one of said plurality of images.
前記第2判定ステップにおいて得られた判定結果に基づいて、前記取得ステップは、前記複数の画像の少なくとも1つ又は前記複数の画像の全部を再取得する
ことを特徴とする請求項14に記載の眼科情報処理方法。 a second determination step of determining whether the quality of the plurality of images is good or bad based on the evaluation value;
15. The method according to claim 14, wherein the acquisition step acquires again at least one of the plurality of images or all of the plurality of images based on the determination result obtained in the second determination step. Ophthalmic information processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021147568A JP2023040529A (en) | 2021-09-10 | 2021-09-10 | Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021147568A JP2023040529A (en) | 2021-09-10 | 2021-09-10 | Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023040529A true JP2023040529A (en) | 2023-03-23 |
Family
ID=85632541
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021147568A Pending JP2023040529A (en) | 2021-09-10 | 2021-09-10 | Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023040529A (en) |
-
2021
- 2021-09-10 JP JP2021147568A patent/JP2023040529A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6426974B2 (en) | Data processing method and OCT apparatus | |
JP6899632B2 (en) | Ophthalmologic imaging equipment | |
JP6923392B2 (en) | Ophthalmic equipment | |
JP2022176282A (en) | Ophthalmologic apparatus and control method thereof | |
JP2022075772A (en) | Ophthalmologic apparatus | |
WO2021153087A1 (en) | Ophthalmic device, control method thereof, and storage medium | |
JP2022027879A (en) | Ophthalmologic imaging device, control method thereof, program, and recording medium | |
JP2023080218A (en) | Ophthalmologic apparatus | |
JP2023038280A (en) | Blood flow measurement device | |
WO2021153086A1 (en) | Ophthalmic apparatus, control method thereof, and recording medium | |
CN111787843B (en) | Blood flow measuring device | |
JP7050488B2 (en) | Ophthalmologic imaging equipment, its control method, programs, and recording media | |
JP2023040529A (en) | Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method and program | |
WO2023042577A1 (en) | Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program | |
JP2021013491A (en) | Optical coherence tomography apparatus, control method thereof, optical measuring method, program, and recording medium | |
WO2023053648A1 (en) | Ophthalmic device, method for controlling ophthalmic device, and program | |
JP7288110B2 (en) | ophthalmic equipment | |
JP2019154987A (en) | Ophthalmologic apparatus, control method therefor, program, and storage medium | |
JP7412170B2 (en) | Ophthalmological equipment, its evaluation method, program, and recording medium | |
JP7359724B2 (en) | Ophthalmology information processing device, ophthalmology device, ophthalmology information processing method, and program | |
JP6942627B2 (en) | Ophthalmologic imaging equipment, its control method, programs, and recording media | |
JP6954831B2 (en) | Ophthalmologic imaging equipment, its control method, programs, and recording media | |
WO2024004455A1 (en) | Opthalmic information processing device, opthalmic device, opthalmic information processing method, and program | |
JP6959158B2 (en) | Ophthalmic equipment | |
JP7216514B2 (en) | Blood vessel analyzer |