JP2023040529A - Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method and program - Google Patents

Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method and program Download PDF

Info

Publication number
JP2023040529A
JP2023040529A JP2021147568A JP2021147568A JP2023040529A JP 2023040529 A JP2023040529 A JP 2023040529A JP 2021147568 A JP2021147568 A JP 2021147568A JP 2021147568 A JP2021147568 A JP 2021147568A JP 2023040529 A JP2023040529 A JP 2023040529A
Authority
JP
Japan
Prior art keywords
image
images
eye
unit
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021147568A
Other languages
Japanese (ja)
Inventor
達夫 山口
Tatsuo Yamaguchi
陽子 広原
Yoko Hirohara
正博 秋葉
Masahiro Akiba
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2021147568A priority Critical patent/JP2023040529A/en
Publication of JP2023040529A publication Critical patent/JP2023040529A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a novel technology for positioning a spectral image simpler and more accurately.SOLUTION: An ophthalmologic information processing apparatus includes an acquisition part and a positioning part. The acquisition part acquires a plurality of images of an eye to be examined which is acquired by sequentially receiving return light having wavelength ranges different from one another and returning from the eye to be examined which is irradiated with illumination light. The positioning part positions a plurality of images on the basis of OCT data acquired by executing optical coherence tomography with respect to an eye to be examined.SELECTED DRAWING: Figure 3

Description

この発明は、眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラムに関する。 The present invention relates to an ophthalmic information processing apparatus, an ophthalmic apparatus, an ophthalmic information processing method, and a program.

眼底観察は、瞳孔を通して網膜、血管、視神経等を観察することで、眼底疾患の診断、及び全身(特に、脳血管)の硬化状態の推定に有用である。眼底観察には、例えば、眼底カメラ、走査型光検眼鏡(Scanning Light Ophthalmoscope:SLO)等の眼科装置(眼底撮影装置)により取得される眼底像が用いられる。 Fundus observation is useful for diagnosing fundus diseases and estimating the sclerotic state of the whole body (especially cerebral blood vessels) by observing the retina, blood vessels, optic nerves, etc. through the pupil. For fundus observation, for example, a fundus image acquired by an ophthalmologic apparatus (fundus photographing apparatus) such as a fundus camera or a scanning light ophthalmoscope (SLO) is used.

眼底観察において、広範な解析波長範囲にわたって複数の分光眼底画像を取得することで、一般的な眼底像では把握することが難しい眼底の様々な特徴を抽出できる可能性があることが知られている。例えば、特許文献1及び特許文献2には、分光眼底画像を取得する眼科装置について開示されている。例えば、非特許文献1及び非特許文献2には、分光眼底画像としてのハイパースペクトル画像を網膜に適用する手法が開示されている。 In fundus observation, it is known that by acquiring multiple spectral fundus images over a wide analysis wavelength range, it is possible to extract various features of the fundus that are difficult to grasp with general fundus images. . For example, Patent Literature 1 and Patent Literature 2 disclose an ophthalmologic apparatus that acquires a spectral fundus image. For example, Non-Patent Document 1 and Non-Patent Document 2 disclose a method of applying a hyperspectral image as a spectral fundus image to the retina.

このような複数の分光眼底画像の取得には所定の時間を要するため、複数の分光眼底画像を取得する間に、固視ずれ及び被検眼と撮影部とのアライメントずれなどに起因して分光眼底画像間で同一部位の位置ずれが生ずる場合がある。例えば、特許文献3には、2つの画像のそれぞれにおける複数の特徴点が一致するように2つの画像のいずれかの位置と形状とを補正する手法が開示されている。 Acquisition of such a plurality of spectral fundus images requires a predetermined time. Positional deviation of the same part may occur between images. For example, Patent Literature 3 discloses a method of correcting the position and shape of any one of two images so that a plurality of feature points in each of the two images match.

特開2006-158546号公報JP-A-2006-158546 特開2010-200916号公報JP 2010-200916 A 特開2006-158547号公報JP 2006-158547 A

Sophie Lemments, et al., “Hyperspectral Imaging and the Retina: Worth the Wave?”, translational vision science & technology, 2020年8月5日, Vol. 9, No. 9, Ariticle 9Sophie Lemmments, et al. , "Hyperspectral Imaging and the Retina: Worth the Wave?", translational vision science & technology, August 5, 2020, Vol. 9, No. 9, Article 9 Edith R. Reshef, et el., “Hyperspectral Imaging of the Retina: A Review”, INTERNATIONAL OPHTHALMOLOGY CLINICS, 2020年8月21日, Vol. 60, No. 1, pp.85-96Edith R. Reshef, et al. , "Hyperspectral Imaging of the Retina: A Review", INTERNATIONAL OPHTHALMOLOGY CLINICS, August 21, 2020, Vol. 60, No. 1, pp. 85-96

分光眼底画像や分光前眼部画像などの分光画像の高精細化が進むと、より簡便に、且つ、高精度に分光画像の位置合わせを行うための新たな技術が望まれる。 As the resolution of spectral images such as spectral fundus images and spectral anterior segment images progresses, a new technique for more easily and highly accurately aligning spectral images is desired.

本発明は、このような事情に鑑みてなされたものであり、その目的の1つは、より簡便に、且つ、高精度に分光画像の位置合わせを行うための新たな技術を提供することにある。 The present invention has been made in view of such circumstances, and one of its objects is to provide a new technique for more easily and highly accurately aligning spectral images. be.

実施形態に係る第1態様は、照明光で照明された被検眼からの互いに波長範囲が異なる戻り光を順次に受光して得られた前記被検眼の複数の画像を取得する取得部と、前記被検眼に対して光コヒーレンストモグラフィを実行することにより得られたOCTデータに基づいて、前記複数の画像の位置合わせを行う位置合わせ部と、を含む、眼科情報処理装置である。 A first aspect according to an embodiment includes an acquisition unit configured to acquire a plurality of images of the eye to be inspected obtained by sequentially receiving return light beams having different wavelength ranges from the eye to be inspected illuminated by the illumination light; an ophthalmologic information processing apparatus, comprising: an alignment unit that aligns the plurality of images based on OCT data obtained by performing optical coherence tomography on an eye to be inspected.

実施形態の第2態様では、第1態様において、前記OCTデータは、前記被検眼に対して光コヒーレンストモグラフィを実行することにより得られた干渉光の検出結果、Bスキャン画像、OCTA(OCT Angiography)画像又はen-face画像である。 In the second aspect of the embodiment, in the first aspect, the OCT data is a detection result of interference light obtained by performing optical coherence tomography on the eye to be examined, a B-scan image, an OCTA (OCT Angiography ) image or en-face image.

実施形態の第3態様では、第1態様において、前記位置合わせ部は、前記被検眼の画像と前記画像の波長範囲に対応した深さ位置におけるOCT正面画像との位置合わせを行う。 In a third aspect of the embodiment, in the first aspect, the alignment unit aligns the image of the subject's eye with an OCT front image at a depth position corresponding to the wavelength range of the image.

実施形態の第4態様は、第1態様~第3態様のいずれかにおいて、前記複数の画像のうち第1画像と第2画像とを解析することにより前記第1画像と前記第2画像との間の位置ずれ情報を取得する位置ずれ情報生成部を含む。 A fourth aspect of the embodiment is, in any one of the first to third aspects, analyzing the first image and the second image among the plurality of images to determine the difference between the first image and the second image. and a positional deviation information generation unit that acquires positional deviation information between.

実施形態の第5態様は、第4態様において、前記位置ずれ情報に基づいて前記第1画像と前記第2画像との間の位置ずれが大きいか否かを判定する第1判定部を含み、前記第1判定部により得られた判定結果に基づいて、前記取得部は、前記第1画像又は前記第2画像を再取得する。 A fifth aspect of the embodiment is the fourth aspect, including a first determination unit that determines whether or not the positional deviation between the first image and the second image is large based on the positional deviation information, Based on the determination result obtained by the first determination section, the acquisition section re-acquires the first image or the second image.

実施形態の第6態様は、第1態様~第5態様のいずれかにおいて、前記複数の画像の少なくとも1つの品質の評価値を算出する品質評価部を含む。 A sixth aspect of the embodiment, in any one of the first to fifth aspects, includes a quality evaluation unit that calculates an evaluation value of quality of at least one of the plurality of images.

実施形態の第7態様は、第6態様において、前記評価値に基づいて前記複数の画像の品質の良否を判定する第2判定部を含み、前記第2判定部により得られた判定結果に基づいて、前記取得部は、複数の画像の少なくとも1つ又は前記複数の画像の全部を再取得する。 A seventh aspect of the embodiment is, in the sixth aspect, further comprising a second determination unit that determines whether the quality of the plurality of images is good or bad based on the evaluation value, and based on the determination result obtained by the second determination unit Then, the acquisition unit reacquires at least one of the plurality of images or all of the plurality of images.

実施形態の第8態様は、前記被検眼を照明光で照明する照明光学系と、互いに波長範囲が異なる前記被検眼からの前記照明光の戻り光を順次に受光する受光光学系と、前記被検眼に対して光コヒーレンストモグラフィを実行するOCT光学系と、第1態様~第6態様のいずれかに記載の眼科情報処理装置と、を含み、前記取得部は、前記受光光学系により得られた受光結果に基づいて前記複数の画像を順次に取得する、眼科装置である。 An eighth aspect of the embodiment includes an illumination optical system that illuminates the eye to be inspected with illumination light, a light receiving optical system that sequentially receives return lights of the illumination light from the eye to be inspected that have different wavelength ranges from each other, and An OCT optical system that performs optical coherence tomography for eye examination, and the ophthalmologic information processing apparatus according to any one of the first to sixth aspects, wherein the acquisition unit is obtained by the light receiving optical system. The ophthalmologic apparatus sequentially acquires the plurality of images based on the received light reception result.

実施形態の第9態様は、照明光で照明された被検眼からの互いに波長範囲が異なる戻り光を順次に受光して得られた前記被検眼の複数の画像を取得する取得ステップと、前記被検眼に対して光コヒーレンストモグラフィを実行することにより得られたOCTデータに基づいて、前記複数の画像の位置合わせを行う位置合わせステップと、を含む、眼科情報処理方法である。 A ninth aspect of the embodiment is an acquisition step of acquiring a plurality of images of the eye to be inspected obtained by sequentially receiving return lights having different wavelength ranges from the eye to be inspected illuminated by the illumination light; and a registration step of registering the plurality of images based on OCT data obtained by performing optical coherence tomography on the eye examination.

実施形態の第10態様では、第9態様において、前記OCTデータは、前記被検眼に対して光コヒーレンストモグラフィを実行することにより得られた干渉光の検出結果、Bスキャン画像、OCTA(OCT Angiography)画像、又はen-face画像である。 In a tenth aspect of the embodiment, in the ninth aspect, the OCT data is a detection result of interference light obtained by performing optical coherence tomography on the eye to be examined, a B-scan image, an OCTA (OCT Angiography ) image, or an en-face image.

第11態様では、第9態様において、前記位置合わせステップは、前記被検眼の画像と前記画像の波長範囲に対応した深さ位置におけるOCT正面画像との位置合わせを行う。 In the eleventh aspect according to the ninth aspect, the alignment step aligns the image of the subject's eye with an OCT front image at a depth position corresponding to the wavelength range of the image.

実施形態の第12態様は、第9態様~第11態様のいずれかにおいて、前記複数の画像のうち第1画像と第2画像とを解析することにより前記第1画像と前記第2画像との間の位置ずれ情報を取得する位置ずれ情報生成ステップを含む。 A twelfth aspect of the embodiment is, in any one of the ninth aspect to the eleventh aspect, analyzing the first image and the second image among the plurality of images to determine the difference between the first image and the second image. and a positional deviation information generation step of acquiring positional deviation information between.

実施形態の第13態様は、第12態様において、前記位置ずれ情報に基づいて前記第1画像と前記第2画像との間の位置ずれが大きいか否かを判定する第1判定ステップを含み、前記第1判定ステップにおいて得られた判定結果に基づいて、前記取得ステップは、前記第1画像又は前記第2画像を再取得する。 A thirteenth aspect of the embodiment is the twelfth aspect, comprising a first determination step of determining whether or not the positional deviation between the first image and the second image is large based on the positional deviation information, Based on the determination result obtained in the first determination step, the acquisition step re-acquires the first image or the second image.

実施形態の第14態様は、第9態様~第13態様のいずれかにおいて、前記複数の画像の少なくとも1つの品質の評価値を算出する品質評価ステップを含む。 A fourteenth aspect of the embodiment, in any one of the ninth to thirteenth aspects, includes a quality evaluation step of calculating a quality evaluation value of at least one of the plurality of images.

実施形態の第15態様は、第14態様において、前記評価値に基づいて前記複数の画像の品質の良否を判定する第2判定ステップを含み、前記第2判定ステップにおいて得られた判定結果に基づいて、前記取得ステップは、前記複数の画像の少なくとも1つ又は前記複数の画像の全部を再取得する。 A fifteenth aspect of the embodiment is the fourteenth aspect, comprising a second determination step of determining whether the quality of the plurality of images is good or bad based on the evaluation value, and based on the determination result obtained in the second determination step Then, the acquiring step reacquires at least one of the plurality of images or all of the plurality of images.

実施形態の第16態様は、コンピュータに、第9態様~第15態様のいずれかに記載の眼科情報処理方法の各ステップを実行させるプログラムである。 A sixteenth aspect of the embodiments is a program that causes a computer to execute each step of the ophthalmologic information processing method according to any one of the ninth to fifteenth aspects.

なお、上記した複数の態様に係る構成を任意に組み合わせることが可能である。 Note that it is possible to arbitrarily combine the configurations according to the plurality of aspects described above.

本発明によれば、より簡便に、且つ、高精度に分光画像の位置合わせを行うための新たな技術を提供することができる。 According to the present invention, it is possible to provide a new technique for more easily and highly accurately aligning spectral images.

実施形態に係る眼科装置の光学系の構成の一例を示す概略図である。It is a schematic diagram showing an example of the configuration of the optical system of the ophthalmologic apparatus according to the embodiment. 実施形態に係る眼科装置の光学系の構成の一例を示す概略図である。It is a schematic diagram showing an example of the configuration of the optical system of the ophthalmologic apparatus according to the embodiment. 実施形態に係る眼科装置の制御系の構成の一例を示す概略図である。1 is a schematic diagram showing an example of the configuration of a control system of an ophthalmologic apparatus according to an embodiment; FIG. 実施形態に係る眼科装置の制御系の構成の一例を示す概略図である。1 is a schematic diagram showing an example of the configuration of a control system of an ophthalmologic apparatus according to an embodiment; FIG. 実施形態に係る眼科装置の制御系の構成の一例を示す概略図である。1 is a schematic diagram showing an example of the configuration of a control system of an ophthalmologic apparatus according to an embodiment; FIG. 実施形態に係る眼科装置の制御系の構成の一例を示す概略図である。1 is a schematic diagram showing an example of the configuration of a control system of an ophthalmologic apparatus according to an embodiment; FIG. 実施形態に係る眼科装置の動作の一例を表すフローチャートである。4 is a flow chart showing an example of the operation of the ophthalmologic apparatus according to the embodiment; 実施形態に係る眼科装置の動作の一例を表すフローチャートである。4 is a flow chart showing an example of the operation of the ophthalmologic apparatus according to the embodiment; 実施形態に係る眼科装置の動作の一例を表すフローチャートである。4 is a flow chart showing an example of the operation of the ophthalmologic apparatus according to the embodiment;

この発明に係る眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラムの実施形態の一例について、図面を参照しながら詳細に説明する。なお、実施形態において、この明細書において引用されている文献に記載された技術を任意に援用することが可能である。 Exemplary embodiments of an ophthalmologic information processing apparatus, an ophthalmologic apparatus, an ophthalmologic information processing method, and a program according to the present invention will be described in detail with reference to the drawings. In addition, in the embodiments, it is possible to arbitrarily incorporate the techniques described in the documents cited in this specification.

実施形態に係る眼科情報処理装置は、所定の解析波長範囲にわたって被検眼の複数の分光画像を取得し、被検眼に対して光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT)を実行することにより得られたOCTデータに基づいて、取得された複数の分光画像の位置合わせを行う。 An ophthalmologic information processing apparatus according to an embodiment obtains a plurality of spectral images of an eye to be examined over a predetermined analysis wavelength range, and performs optical coherence tomography (OCT) on the eye to be examined. Based on the obtained OCT data, a plurality of acquired spectral images are aligned.

複数の分光画像は、被検眼の眼底(後眼部)又は前眼部を照明光で照明し、所定の解析波長領域において互いに波長範囲が異なり被検眼からの照明光の戻り光を順次に受光することにより取得される。分光画像は、2次元の分光分布の一例である。順次に受光される戻り光のうち波長範囲が隣接する第1戻り光及び第2戻り光について、第1戻り光の波長範囲の一部は、第2戻り光の波長範囲に重複してよい。分光画像として、ハイパースペクトル画像、マルチスペクトル画像、RGBのカラー画像などがある。 A plurality of spectral images are obtained by illuminating the fundus (posterior segment) or the anterior segment of the eye to be inspected with illumination light, and sequentially receiving the return light of the illumination light from the eye to be inspected, which has different wavelength ranges in a predetermined analysis wavelength region. It is obtained by A spectral image is an example of a two-dimensional spectral distribution. Regarding the first returned light and the second returned light whose wavelength ranges are adjacent to each other among the sequentially received returned lights, part of the wavelength range of the first returned light may overlap with the wavelength range of the second returned light. Spectral images include hyperspectral images, multispectral images, and RGB color images.

いくつかの実施形態では、互いに波長範囲が異なる2以上の波長成分を有する照明光で被検眼を順次に照明し、被検眼からの戻り光から所定の波長範囲の波長成分を有する戻り光を順次に選択することにより複数の分光画像が取得される。 In some embodiments, the subject's eye is sequentially illuminated with illumination light having two or more wavelength components whose wavelength ranges are different from each other, and return light having wavelength components in a predetermined wavelength range is sequentially emitted from the return light from the subject's eye. A plurality of spectral images are acquired by selecting .

いくつかの実施形態では、互いに波長範囲が異なる2以上の波長成分を有する照明光から所定の波長範囲の波長成分を有する照明光を順次に選択し、選択された照明光で被検眼を順次に照明し、被検眼からの戻り光を順次に受光することにより複数の分光画像が取得される。 In some embodiments, illumination light having wavelength components in a predetermined wavelength range is sequentially selected from illumination light having two or more wavelength components whose wavelength ranges are different from each other, and the eye to be examined is sequentially illuminated with the selected illumination light. A plurality of spectroscopic images are acquired by illuminating and sequentially receiving the return light from the subject's eye.

いくつかの実施形態では、波長範囲を任意に変更可能な光源を用いて互いに波長範囲が異なる2以上の波長成分を有する照明光を順次に出射させ、出射された照明光で被検眼を順次に照明し、被検眼からの戻り光を順次に受光することにより複数の分光画像が取得される。 In some embodiments, illumination light having two or more wavelength components with mutually different wavelength ranges is sequentially emitted using a light source whose wavelength range can be arbitrarily changed, and the emitted illumination light sequentially illuminates the subject's eye. A plurality of spectroscopic images are acquired by illuminating and sequentially receiving the return light from the subject's eye.

いくつかの実施形態では、照明光で被検眼を照明し、受光デバイスの受光感度が高い波長範囲を順次に変更して被検眼からの戻り光を順次に選択することにより複数の分光画像が取得される。 In some embodiments, a plurality of spectroscopic images are obtained by illuminating the eye to be inspected with illumination light, sequentially changing the wavelength range in which the light receiving device has high light receiving sensitivity, and sequentially selecting the return light from the eye to be inspected. be done.

OCTデータは、被検眼に対してOCTを実行することにより得られた干渉光の検出結果、Bスキャン画像、又はen-face画像であってよい。干渉光は、OCT光源からの光を測定光と参照光とに分割し、被検眼に対して測定光を投射し、被検眼からの測定光の戻り光と参照光路を経由した参照光とを干渉させることにより生成される。いくつかの実施形態では、眼科情報処理装置は、外部に設けられたOCT装置により得られたOCTデータを取得するように構成される。いくつかの実施形態では、眼科情報処理装置の機能は、OCTデータを取得可能な眼科装置により実現される。 The OCT data may be a detection result of interference light, a B-scan image, or an en-face image obtained by performing OCT on the subject's eye. The interference light is obtained by dividing the light from the OCT light source into measurement light and reference light, projecting the measurement light onto the eye to be examined, and combining the return light of the measurement light from the eye to be examined and the reference light that has passed through the reference optical path. Generated by interfering. In some embodiments, the ophthalmic information processing device is configured to acquire OCT data obtained by an externally provided OCT device. In some embodiments, the functionality of the ophthalmic information processing device is implemented by an ophthalmic device capable of acquiring OCT data.

いくつかの実施形態に係る位置合わせは、複数の分光画像の相対位置を変更することにより実現される。いくつかの実施形態に係る位置合わせは、位置合わせ対象の分光画像に対して基準画像を基準にアフィン変換、又はヘルマート変換することにより実現される。基準画像の例として、OCTデータに基づいて形成されたOCT画像(例えば、Bスキャン画像、en-face画像)などがある。 Alignment according to some embodiments is accomplished by changing the relative positions of multiple spectral images. Alignment according to some embodiments is realized by performing affine transformation or Helmert transformation on spectral images to be aligned based on a reference image. Examples of reference images include OCT images (eg, B-scan images, en-face images) formed based on OCT data.

これにより、複数の分光画像を取得する間に、固視ずれ及び被検眼と撮影部とのアライメントずれなどが生じた場合でも、分光画像間で分光特性を容易に比較することができるようになる。特に、OCTデータに基づいて位置合わせを行うことで、眼の奥行方向(深さ方向)の情報に基づいて分光画像間を高精度に位置合わせすることが可能になり、被検眼の観察部位における分光解析の精度を向上させることが可能になる。 This makes it possible to easily compare spectral characteristics between spectral images even when fixation dislocation and misalignment between the subject's eye and the imaging unit occur while a plurality of spectral images are being acquired. . In particular, by aligning based on OCT data, it is possible to align spectroscopic images with high accuracy based on information in the depth direction of the eye (depth direction). It is possible to improve the accuracy of spectroscopic analysis.

実施形態に係る眼科情報処理方法は、上記の眼科情報処理装置により実行される1以上のステップを含む。実施形態に係るプログラムは、実施形態に係る眼科情報処理方法の各ステップをコンピュータ(プロセッサ)に実行させる。実施形態に係る記録媒体は、実施形態に係るプログラムが記録された非一時的な記録媒体(記憶媒体)である。 An ophthalmologic information processing method according to an embodiment includes one or more steps executed by the ophthalmologic information processing apparatus described above. A program according to an embodiment causes a computer (processor) to execute each step of an ophthalmologic information processing method according to an embodiment. A recording medium according to the embodiment is a non-temporary recording medium (storage medium) in which the program according to the embodiment is recorded.

本明細書において、プロセッサは、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等の回路を含む。プロセッサは、例えば、記憶回路又は記憶装置に格納されているプログラムを読み出し実行することで、実施形態に係る機能を実現する。記憶回路又は記憶装置がプロセッサに含まれていてよい。また、記憶回路又は記憶装置がプロセッサの外部に設けられていてよい。 In this specification, the processor includes, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), a programmable logic device (e.g., SPLD (Simple Programmable Logic Device), CPLD Logic Device), FPGA (Field Programmable Gate Array)) and other circuits. The processor implements the functions according to the embodiment by, for example, reading and executing a program stored in a memory circuit or memory device. A memory circuit or device may be included in the processor. Also, a memory circuit or memory device may be provided external to the processor.

以下、被検眼の眼底の分光画像(分光眼底画像)に対して位置合わせを行う場合について説明するが、実施形態に係る構成はこれに限定されるものではない。例えば、以下の実施形態は、眼底以外の前眼部の分光画像(分光前眼部画像)に対して位置合わせを行う場合にも適用可能である。 A case in which alignment is performed with respect to a spectral image of the fundus of the subject's eye (spectral fundus image) will be described below, but the configuration according to the embodiment is not limited to this. For example, the following embodiments can also be applied to a case where alignment is performed with respect to a spectral image of an anterior segment other than the fundus (spectral anterior segment image).

いくつかの実施形態では、眼科情報処理装置は、通信機能により外部で取得された被検眼の分光画像を取得するように構成される。いくつかの実施形態では、被検眼の分光画像を取得可能な眼科装置が、眼科情報処理装置の機能を有する。 In some embodiments, the ophthalmologic information processing apparatus is configured to acquire spectroscopic images of the eye to be examined that are acquired externally through a communication function. In some embodiments, an ophthalmologic apparatus capable of acquiring a spectroscopic image of an eye to be examined has the function of an ophthalmologic information processing apparatus.

以下の実施形態では、実施形態に係る眼科情報処理装置の機能を含む眼科装置を例に説明する。実施形態に係る眼科装置は、眼科撮影装置を含む。いくつかの実施形態の眼科装置に含まれる眼科撮影装置は、例えば、眼底カメラ、走査型光検眼鏡、スリットランプ検眼鏡、手術用顕微鏡等のうちのいずれか1つ以上である。いくつかの実施形態に係る眼科装置は、眼科撮影装置に加えて、眼科測定装置及び眼科治療装置のうちのいずれか1つ以上を含む。いくつかの実施形態の眼科装置に含まれる眼科測定装置は、例えば、眼屈折検査装置、眼圧計、スペキュラーマイクロスコープ、ウェーブフロントアナライザ、視野計、マイクロペリメータ等のうちのいずれか1つ以上である。いくつかの実施形態の眼科装置に含まれる眼科治療装置は、例えば、レーザー治療装置、手術装置、手術用顕微鏡等のうちのいずれか1つ以上である。 In the following embodiments, an ophthalmologic apparatus including the functions of the ophthalmologic information processing apparatus according to the embodiment will be described as an example. An ophthalmologic apparatus according to an embodiment includes an ophthalmologic imaging apparatus. The ophthalmic imaging device included in the ophthalmic device of some embodiments is, for example, any one or more of a fundus camera, a scanning optical ophthalmoscope, a slit lamp ophthalmoscope, a surgical microscope, or the like. An ophthalmic device according to some embodiments includes any one or more of an ophthalmic measurement device and an ophthalmic treatment device in addition to an ophthalmic imaging device. The ophthalmic measurement device included in the ophthalmic device of some embodiments is, for example, any one or more of an eye refractor, a tonometer, a specular microscope, a wavefront analyzer, a perimeter, a microperimeter, etc. . The ophthalmic treatment device included in the ophthalmic device of some embodiments is, for example, any one or more of a laser treatment device, a surgical device, a surgical microscope, and the like.

以下の実施形態では、眼科装置は、光干渉断層計と眼底カメラとを含む。この光干渉断層計にはスウェプトソースOCTが適用されているが、OCTのタイプはこれに限定されず、他のタイプのOCT(スペクトラルドメインOCT、タイムドメインOCT、アンファスOCT等)が適用されてもよい。 In the following embodiments, the ophthalmic device includes an optical coherence tomography and a fundus camera. Although swept source OCT is applied to this optical coherence tomography, the type of OCT is not limited to this, and other types of OCT (spectral domain OCT, time domain OCT, Amphas OCT, etc.) may be applied. good.

以下、x方向は、対物レンズの光軸方向に直交する方向(左右方向)であり、y方向は、対物レンズの光軸方向に直交する方向(上下方向)であるものとする。z方向は、対物レンズの光軸方向であるものとする。 Hereinafter, the x direction is the direction (horizontal direction) orthogonal to the optical axis direction of the objective lens, and the y direction is the direction (vertical direction) orthogonal to the optical axis direction of the objective lens. The z-direction is assumed to be the optical axis direction of the objective lens.

<構成>
〔光学系〕
図1に示すように、眼科装置1は、眼底カメラユニット2、OCTユニット100及び演算制御ユニット200を含む。眼底カメラユニット2には、被検眼Eの正面画像を取得するための光学系や機構が設けられている。OCTユニット100には、OCTを実行するための光学系や機構の一部が設けられている。OCTを実行するための光学系や機構の他の一部は、眼底カメラユニット2に設けられている。演算制御ユニット200は、各種の演算や制御を実行する1以上のプロセッサを含む。これらに加え、被検者の顔を支持するための部材(顎受け、額当て等)や、OCTの対象部位を切り替えるためのレンズユニット(例えば、前眼部OCT用アタッチメント)等の任意の要素やユニットが眼科装置1に設けられてもよい。更に、眼科装置1は、一対の前眼部カメラ5A及び5Bを備える。
<Configuration>
〔Optical system〕
As shown in FIG. 1 , the ophthalmologic apparatus 1 includes a fundus camera unit 2 , an OCT unit 100 and an arithmetic control unit 200 . The retinal camera unit 2 is provided with an optical system and a mechanism for acquiring a front image of the eye E to be examined. The OCT unit 100 is provided with a part of an optical system and a mechanism for performing OCT. Another part of the optical system and mechanism for performing OCT is provided in the fundus camera unit 2 . The arithmetic control unit 200 includes one or more processors that perform various arithmetic operations and controls. In addition to these, arbitrary elements such as a member for supporting the subject's face (chin rest, forehead rest, etc.) and a lens unit for switching the target part of OCT (for example, attachment for anterior segment OCT) or unit may be provided in the ophthalmologic apparatus 1 . Furthermore, the ophthalmologic apparatus 1 includes a pair of anterior eye cameras 5A and 5B.

[眼底カメラユニット2]
眼底カメラユニット2には、被検眼Eの眼底Efを撮影するための光学系が設けられている。取得される眼底Efの画像(眼底像、眼底写真等と呼ばれる)は、観察画像、撮影画像等の正面画像である。観察画像は、近赤外光を用いた動画撮影により得られる。撮影画像は、フラッシュ光を用いた静止画像、又は分光画像(分光眼底画像、分光前眼部画像)である。更に、眼底カメラユニット2は、被検眼Eの前眼部Eaを撮影して正面画像(前眼部像)を取得することができる。
[Fundus camera unit 2]
The fundus camera unit 2 is provided with an optical system for photographing the fundus Ef of the eye E to be examined. The acquired image of the fundus oculi Ef (referred to as a fundus image, fundus photograph, etc.) is a front image such as an observed image or a photographed image. Observation images are obtained by moving image shooting using near-infrared light. The captured image is a still image using flash light or a spectral image (spectral fundus image, spectral anterior segment image). Furthermore, the fundus camera unit 2 can photograph the anterior segment Ea of the subject's eye E to acquire a front image (anterior segment image).

眼底カメラユニット2は、照明光学系10と撮影光学系30とを含む。照明光学系10は被検眼Eに照明光を照射する。撮影光学系30は、被検眼Eからの照明光の戻り光を検出する。OCTユニット100からの測定光は、眼底カメラユニット2内の光路を通じて被検眼Eに導かれ、その戻り光は、同じ光路を通じてOCTユニット100に導かれる。 The fundus camera unit 2 includes an illumination optical system 10 and an imaging optical system 30 . The illumination optical system 10 irradiates the eye E to be inspected with illumination light. The imaging optical system 30 detects return light of the illumination light from the eye E to be examined. The measurement light from the OCT unit 100 is guided to the subject's eye E through the optical path in the retinal camera unit 2, and its return light is guided to the OCT unit 100 through the same optical path.

照明光学系10の観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19及びリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて被検眼E(眼底Ef又は前眼部Ea)を照明する。被検眼Eからの観察照明光の戻り光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、撮影合焦レンズ31を経由し、ミラー32により反射される。更に、この戻り光は、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりイメージセンサ35の受光面に結像される。イメージセンサ35は、所定のフレームレートで戻り光を検出する。なお、撮影光学系30のフォーカスは、眼底Ef又は前眼部Eaに合致するように調整される。 Light (observation illumination light) output from an observation light source 11 of an illumination optical system 10 is reflected by a reflecting mirror 12 having a curved reflecting surface, passes through a condenser lens 13, and passes through a visible light cut filter 14. It becomes near-infrared light. Furthermore, the observation illumination light is once converged near the photographing light source 15 , reflected by the mirror 16 , and passed through the relay lenses 17 and 18 , the diaphragm 19 and the relay lens 20 . Then, the observation illumination light is reflected by the periphery of the perforated mirror 21 (area around the perforation), passes through the dichroic mirror 46, is refracted by the objective lens 22, Illuminate part Ea). The return light of the observation illumination light from the subject's eye E is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the central region of the aperture mirror 21, and passes through the photographing focusing lens 31. through and reflected by mirror 32 . Further, this return light passes through the half mirror 33A, is reflected by the dichroic mirror 33, and is imaged on the light receiving surface of the image sensor 35 by the condenser lens . The image sensor 35 detects returned light at a predetermined frame rate. The focus of the imaging optical system 30 is adjusted so as to match the fundus oculi Ef or the anterior segment Ea.

撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。被検眼Eからの撮影照明光の戻り光は、観察照明光の戻り光と同じ経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、波長可変フィルタ80に導かれる。 The light (imaging illumination light) output from the imaging light source 15 irradiates the fundus oculi Ef through the same path as the observation illumination light. The return light of the photographing illumination light from the subject's eye E is guided to the dichroic mirror 33 through the same path as the return light of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and enters the tunable filter 80. be guided.

波長可変フィルタ80は、所定の解析波長領域において透過光の波長範囲を選択可能なフィルタである。波長可変フィルタ80を透過する光の波長範囲は、任意に選択可能である。 The wavelength tunable filter 80 is a filter that can select the wavelength range of transmitted light in a predetermined analysis wavelength region. The wavelength range of light transmitted through the wavelength tunable filter 80 can be arbitrarily selected.

いくつかの実施形態では、波長可変フィルタ80は、例えば、特開2006-158546号公報に開示された液晶波長可変フィルタと同様である。この場合、波長可変フィルタ80は、液晶への印可電圧を変化させることにより透過光の波長選択範囲を任意に選択することができる。 In some embodiments, the tunable filter 80 is similar to, for example, the liquid crystal tunable filter disclosed in JP-A-2006-158546. In this case, the wavelength tunable filter 80 can arbitrarily select the wavelength selection range of transmitted light by changing the voltage applied to the liquid crystal.

いくつかの実施形態では、波長可変フィルタ80は、互いに透過光の波長選択範囲が異なる2以上の波長選択フィルタを含み、2以上の波長選択フィルタを選択的に照明光の戻り光の光路に配置可能に構成されてよい。 In some embodiments, the wavelength tunable filter 80 includes two or more wavelength selection filters having different wavelength selection ranges for transmitted light, and the two or more wavelength selection filters are selectively arranged in the optical path of return light of the illumination light. may be configured to be possible.

いくつかの実施形態では、波長可変フィルタ80は、所定の解析波長領域において反射光の波長範囲を選択可能なフィルタである。 In some embodiments, the tunable filter 80 is a filter that can select the wavelength range of reflected light in a given analysis wavelength region.

波長可変フィルタ80を透過したミラー36からの戻り光は、集光レンズ37によりイメージセンサ38の受光面に結像される。 Return light from the mirror 36 that has passed through the wavelength tunable filter 80 is imaged on the light receiving surface of the image sensor 38 by the condenser lens 37 .

いくつかの実施形態では、波長可変フィルタ80は、ダイクロイックミラー33と集光レンズ34との間に配置される。 In some embodiments, tunable filter 80 is positioned between dichroic mirror 33 and condenser lens 34 .

いくつかの実施形態では、波長可変フィルタ80は、ダイクロイックミラー33又はミラー36と集光レンズ37との間の光路に対して挿脱可能に構成される。例えば、波長可変フィルタ80がダイクロイックミラー33と集光レンズ37との間の光路に配置されたとき、眼科装置1は、イメージセンサ38により得られた戻り光の受光結果を順次に取得することで複数の分光眼底画像を取得することができる。例えば、波長可変フィルタ80がダイクロイックミラー33と集光レンズ37との間の光路から退避されたとき、眼科装置1は、イメージセンサ38により得られた戻り光の受光結果を取得することで、通常の静止画像(眼底像、前眼部像)を取得することができる。 In some embodiments, the wavelength tunable filter 80 is configured to be insertable and removable with respect to the optical path between the dichroic mirror 33 or mirror 36 and the condenser lens 37 . For example, when the wavelength tunable filter 80 is arranged in the optical path between the dichroic mirror 33 and the condenser lens 37, the ophthalmologic apparatus 1 can sequentially obtain the results of receiving the returned light obtained by the image sensor 38. Multiple spectral fundus images can be acquired. For example, when the wavelength tunable filter 80 is retracted from the optical path between the dichroic mirror 33 and the condenser lens 37, the ophthalmologic apparatus 1 obtains the result of receiving the return light obtained by the image sensor 38, and normally still images (fundus image, anterior segment image) can be acquired.

表示装置3には、イメージセンサ35により検出された眼底反射光に基づく画像(観察画像)が表示される。なお、撮影光学系30のピントが前眼部に合わせられている場合、被検眼Eの前眼部の観察画像が表示される。また、表示装置3には、イメージセンサ38により検出された眼底反射光に基づく画像(撮影画像、分光眼底画像)が表示される。なお、観察画像を表示する表示装置3と撮影画像を表示する表示装置3は、同一のものであってもよいし、異なるものであってもよい。被検眼Eを赤外光で照明して同様の撮影を行う場合には、赤外の撮影画像が表示される。 An image (observation image) based on the fundus reflected light detected by the image sensor 35 is displayed on the display device 3 . Note that when the imaging optical system 30 is focused on the anterior segment, an observation image of the anterior segment of the subject's eye E is displayed. The display device 3 also displays an image (captured image, spectral fundus image) based on the fundus reflected light detected by the image sensor 38 . The display device 3 that displays the observed image and the display device 3 that displays the captured image may be the same or different. When the subject's eye E is illuminated with infrared light and photographed in the same manner, an infrared photographed image is displayed.

LCD(Liquid Crystal Display)39は固視標や視力測定用視標を表示する。LCD39から出力された光束は、その一部がハーフミラー33Aにて反射され、ミラー32に反射され、撮影合焦レンズ31を経由し、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光束は、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。 An LCD (Liquid Crystal Display) 39 displays a fixation target and visual acuity measurement target. A part of the light flux output from the LCD 39 is reflected by the half mirror 33 A, reflected by the mirror 32 , passes through the photographing focusing lens 31 , and passes through the aperture of the apertured mirror 21 . The luminous flux that has passed through the aperture of the perforated mirror 21 is transmitted through the dichroic mirror 46, refracted by the objective lens 22, and projected onto the fundus oculi Ef.

LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。固視位置の例として、黄斑を中心とする画像を取得するための固視位置や、視神経乳頭を中心とする画像を取得するための固視位置や、黄斑と視神経乳頭との間の眼底中心を中心とする画像を取得するための固視位置や、黄斑から大きく離れた部位(眼底周辺部)の画像を取得するための固視位置などがある。いくつかの実施形態に係る眼科装置1は、このような固視位置の少なくとも1つを指定するためのGUI(Graphical User Interface)等を含む。いくつかの実施形態に係る眼科装置1は、固視位置(固視標の表示位置)をマニュアルで移動するためのGUI等を含む。 By changing the display position of the fixation target on the screen of the LCD 39, the fixation position of the subject's eye E can be changed. Examples of fixation positions include the fixation position for acquiring an image centered on the macula, the fixation position for acquiring an image centered on the optic disc, and the center of the fundus between the macula and the optic disc. and a fixation position for acquiring an image of a site far away from the macula (eye fundus periphery). The ophthalmologic apparatus 1 according to some embodiments includes a GUI (Graphical User Interface) or the like for designating at least one of such fixation positions. The ophthalmologic apparatus 1 according to some embodiments includes a GUI or the like for manually moving the fixation position (the display position of the fixation target).

移動可能な固視標を被検眼Eに提示するための構成はLCD等の表示装置には限定されない。例えば、光源アレイ(発光ダイオード(LED)アレイ等)における複数の光源を選択的に点灯させることにより、移動可能な固視標を生成することができる。また、移動可能な1以上の光源により、移動可能な固視標を生成することができる。 The configuration for presenting a movable fixation target to the subject's eye E is not limited to a display device such as an LCD. For example, a movable fixation target can be generated by selectively lighting multiple light sources in a light source array (such as a light emitting diode (LED) array). Also, one or more movable light sources can generate a movable fixation target.

フォーカス光学系60は、被検眼Eに対するフォーカス調整に用いられるスプリット指標を生成する。フォーカス光学系60は、撮影光学系30の光路(撮影光路)に沿った撮影合焦レンズ31の移動に連動して、照明光学系10の光路(照明光路)に沿って移動される。反射棒67は、照明光路に対して挿脱可能である。フォーカス調整を行う際には、反射棒67の反射面が照明光路に傾斜配置される。LED61から出力されたフォーカス光は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65により反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。フォーカス光の眼底反射光は、観察照明光の戻り光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(スプリット指標像)に基づいてマニュアルフォーカスやオートフォーカスを実行できる。 The focus optical system 60 generates a split index used for focus adjustment of the eye E to be examined. The focus optical system 60 is moved along the optical path (illumination optical path) of the illumination optical system 10 in conjunction with the movement of the imaging focusing lens 31 along the optical path (illumination optical path) of the imaging optical system 30 . The reflecting bar 67 can be inserted into and removed from the illumination optical path. When performing focus adjustment, the reflecting surface of the reflecting bar 67 is arranged at an angle in the illumination optical path. Focus light output from the LED 61 passes through a relay lens 62, is split into two light beams by a split index plate 63, passes through a two-hole diaphragm 64, is reflected by a mirror 65, and is reflected by a condenser lens 66 onto a reflecting rod 67. is once imaged on the reflective surface of , and then reflected. Further, the focused light passes through the relay lens 20, is reflected by the perforated mirror 21, passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef. The fundus reflected light of the focus light is guided to the image sensor 35 through the same path as the return light of the observation illumination light. Manual focus and autofocus can be performed based on the received light image (split index image).

ダイクロイックミラー46は、眼底撮影用光路とOCT用光路とを合成する。ダイクロイックミラー46は、OCTに用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。OCT用光路(測定光の光路)には、OCTユニット100側からダイクロイックミラー46側に向かって順に、コリメータレンズユニット40、光路長変更部41、光スキャナ42、OCT合焦レンズ43、ミラー44、及びリレーレンズ45が設けられている。 The dichroic mirror 46 synthesizes the fundus imaging optical path and the OCT optical path. The dichroic mirror 46 reflects light in the wavelength band used for OCT and transmits light for fundus imaging. The optical path for OCT (the optical path of the measurement light) includes, in order from the OCT unit 100 side toward the dichroic mirror 46 side, a collimator lens unit 40, an optical path length changing section 41, an optical scanner 42, an OCT focusing lens 43, a mirror 44, and a relay lens 45 are provided.

光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT用光路の長さを変更する。この光路長の変更は、眼軸長に応じた光路長補正や、干渉状態の調整などに利用される。光路長変更部41は、コーナーキューブと、これを移動する機構とを含む。 The optical path length changing unit 41 is movable in the direction of the arrow shown in FIG. 1, and changes the length of the optical path for OCT. This change in optical path length is used for optical path length correction according to the axial length of the eye, adjustment of the state of interference, and the like. The optical path length changing section 41 includes a corner cube and a mechanism for moving it.

光スキャナ42は、被検眼Eの瞳孔と光学的に共役な位置に配置される。光スキャナ42は、OCT用光路を通過する測定光LSを偏向する。光スキャナ42は、例えば、2次元走査が可能なガルバノスキャナである。 The optical scanner 42 is arranged at a position optically conjugate with the pupil of the eye E to be examined. The optical scanner 42 deflects the measurement light LS passing through the OCT optical path. The optical scanner 42 is, for example, a galvanometer scanner capable of two-dimensional scanning.

OCT合焦レンズ43は、OCT用の光学系のフォーカス調整を行うために、測定光LSの光路に沿って移動される。撮影合焦レンズ31の移動、フォーカス光学系60の移動、及びOCT合焦レンズ43の移動を連係的に制御することができる。 The OCT focusing lens 43 is moved along the optical path of the measurement light LS in order to focus the optical system for OCT. Movement of the imaging focusing lens 31, movement of the focusing optical system 60, and movement of the OCT focusing lens 43 can be controlled in a coordinated manner.

[前眼部カメラ5A及び5B]
前眼部カメラ5A及び5Bは、特開2013-248376号公報に開示された発明と同様に、眼科装置1の光学系と被検眼Eとの間の相対位置を求めるために用いられる。前眼部カメラ5A及び5Bは、光学系が格納された筐体(眼底カメラユニット2等)の被検眼E側の面に設けられている。眼科装置1は、前眼部カメラ5A及び5Bにより異なる方向から実質的に同時に取得された2つの前眼部像を解析することにより、光学系と被検眼Eとの間の3次元的な相対位置を求める。2つの前眼部像の解析は、特開2013-248376号公報に開示された解析と同様であってよい。また、前眼部カメラの個数は2以上の任意の個数であってよい。
[Anterior segment cameras 5A and 5B]
The anterior eye cameras 5A and 5B are used to determine the relative position between the optical system of the ophthalmologic apparatus 1 and the subject's eye E, similar to the invention disclosed in Japanese Patent Laid-Open No. 2013-248376. The anterior eye cameras 5A and 5B are provided on the face of the subject's eye E side of a housing (fundus camera unit 2, etc.) housing an optical system. The ophthalmologic apparatus 1 analyzes two anterior eye images obtained substantially simultaneously from different directions by the anterior eye cameras 5A and 5B, thereby determining the three-dimensional relative relationship between the optical system and the subject's eye E. find the position. The analysis of the two anterior segment images may be similar to the analysis disclosed in Japanese Patent Application Laid-Open No. 2013-248376. Also, the number of anterior segment cameras may be any number of two or more.

本例では、2以上の前眼部カメラを利用して被検眼Eの位置(つまり被検眼Eと光学系との相対位置)を求めているが、被検眼Eの位置を求めるための手法はこれに限定されない。例えば、被検眼Eの正面画像(例えば前眼部Eaの観察画像)を解析することにより、被検眼Eの位置を求めることができる。或いは、被検眼Eの角膜に指標を投影する手段を設け、この指標の投影位置(つまり、この指標の角膜反射光束の検出状態)に基づいて被検眼Eの位置を求めることができる。 In this example, the position of the eye to be examined E (that is, the relative position between the eye to be examined E and the optical system) is obtained using two or more anterior eye cameras. It is not limited to this. For example, the position of the eye E to be examined can be obtained by analyzing a front image of the eye E to be examined (for example, an observed image of the anterior segment Ea). Alternatively, means for projecting an index onto the cornea of the subject's eye E can be provided, and the position of the subject's eye E can be obtained based on the projection position of this index (that is, the detection state of the corneal reflected light flux of this index).

[OCTユニット100]
図2に例示するように、OCTユニット100には、スウェプトソースOCTを実行するための光学系が設けられている。この光学系は、干渉光学系を含む。この干渉光学系は、波長可変光源(波長掃引型光源)からの光を測定光と参照光とに分割する機能と、被検眼Eからの測定光の戻り光と参照光路を経由した参照光とを重ね合わせて干渉光を生成する機能と、この干渉光を検出する機能とを備える。干渉光学系により得られた干渉光の検出結果(検出信号)は、干渉光のスペクトルを示す信号であり、演算制御ユニット200に送られる。
[OCT unit 100]
As illustrated in FIG. 2, the OCT unit 100 is provided with an optical system for performing swept-source OCT. This optical system includes an interference optical system. This interference optical system has a function of dividing light from a wavelength tunable light source (wavelength swept light source) into measurement light and reference light, return light of the measurement light from the subject's eye E, and reference light passing through the reference light path. and a function of generating interference light and a function of detecting this interference light. A detection result (detection signal) of the interference light obtained by the interference optical system is a signal indicating the spectrum of the interference light, and is sent to the arithmetic control unit 200 .

光源ユニット101は、例えば、出射光の波長を高速で変化させる近赤外波長可変レーザーを含む。光源ユニット101から出力された光L0は、光ファイバ102により偏波コントローラ103に導かれてその偏光状態が調整される。偏光状態が調整された光L0は、光ファイバ104によりファイバカプラ105に導かれて測定光LSと参照光LRとに分割される。 The light source unit 101 includes, for example, a near-infrared tunable laser that changes the wavelength of emitted light at high speed. The light L0 output from the light source unit 101 is guided to the polarization controller 103 by the optical fiber 102, and the polarization state is adjusted. The light L0 whose polarization state has been adjusted is guided by the optical fiber 104 to the fiber coupler 105 and split into the measurement light LS and the reference light LR.

参照光LRは、光ファイバ110によりコリメータ111に導かれて平行光束に変換され、光路長補正部材112及び分散補償部材113を経由し、コーナーキューブ114に導かれる。光路長補正部材112は、参照光LRの光路長と測定光LSの光路長とを合わせるよう作用する。分散補償部材113は、参照光LRと測定光LSとの間の分散特性を合わせるよう作用する。コーナーキューブ114は、参照光LRの入射方向に移動可能であり、それにより参照光LRの光路長が変更される。 The reference light LR is guided to the collimator 111 by the optical fiber 110 and converted into a parallel beam, and guided to the corner cube 114 via the optical path length correction member 112 and the dispersion compensation member 113 . The optical path length correction member 112 acts to match the optical path length of the reference light LR and the optical path length of the measurement light LS. The dispersion compensation member 113 acts to match the dispersion characteristics between the reference light LR and the measurement light LS. The corner cube 114 is movable in the incident direction of the reference light LR, thereby changing the optical path length of the reference light LR.

コーナーキューブ114を経由した参照光LRは、分散補償部材113及び光路長補正部材112を経由し、コリメータ116によって平行光束から集束光束に変換され、光ファイバ117に入射する。光ファイバ117に入射した参照光LRは、偏波コントローラ118に導かれてその偏光状態が調整され、光ファイバ119によりアッテネータ120に導かれて光量が調整され、光ファイバ121によりファイバカプラ122に導かれる。 The reference light LR that has passed through the corner cube 114 passes through the dispersion compensating member 113 and the optical path length correcting member 112 , is converted by the collimator 116 from a parallel beam to a converged beam, and enters the optical fiber 117 . The reference light LR incident on the optical fiber 117 is guided to the polarization controller 118 to have its polarization state adjusted, guided to the attenuator 120 via the optical fiber 119 to have its light amount adjusted, and guided to the fiber coupler 122 via the optical fiber 121 . be killed.

一方、ファイバカプラ105により生成された測定光LSは、光ファイバ127により導かれてコリメータレンズユニット40により平行光束に変換され、光路長変更部41、光スキャナ42、OCT合焦レンズ43、ミラー44及びリレーレンズ45を経由する。リレーレンズ45を経由した測定光LSは、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて被検眼Eに入射する。測定光LSは、被検眼Eの様々な深さ位置において散乱・反射される。被検眼Eからの測定光LSの戻り光は、往路と同じ経路を逆向きに進行してファイバカプラ105に導かれ、光ファイバ128を経由してファイバカプラ122に到達する。なお、測定光LSが入射する光ファイバ127の入射短は、被検眼Eの眼底Efと略共役な位置に配置される。 On the other hand, the measurement light LS generated by the fiber coupler 105 is guided by the optical fiber 127 and converted into a parallel light beam by the collimator lens unit 40, and the optical path length changing unit 41, the optical scanner 42, the OCT focusing lens 43, and the mirror 44. and relay lens 45 . The measurement light LS that has passed through the relay lens 45 is reflected by the dichroic mirror 46, refracted by the objective lens 22, and enters the eye E to be examined. The measurement light LS is scattered and reflected at various depth positions of the eye E to be examined. The return light of the measurement light LS from the subject's eye E travels in the opposite direction along the same path as the forward path, is guided to the fiber coupler 105 , and reaches the fiber coupler 122 via the optical fiber 128 . It should be noted that the incident length of the optical fiber 127 into which the measurement light LS is incident is arranged at a position substantially conjugate with the fundus oculi Ef of the eye E to be examined.

ファイバカプラ122は、光ファイバ128を介して入射された測定光LSと、光ファイバ121を介して入射された参照光LRとを合成して(干渉させて)干渉光を生成する。ファイバカプラ122は、所定の分岐比(例えば1:1)で干渉光を分岐することにより、一対の干渉光LCを生成する。一対の干渉光LCは、それぞれ光ファイバ123及び124を通じて検出器125に導かれる。 The fiber coupler 122 combines (interferences) the measurement light LS that has entered via the optical fiber 128 and the reference light LR that has entered via the optical fiber 121 to generate interference light. The fiber coupler 122 generates a pair of interference lights LC by splitting the interference lights at a predetermined splitting ratio (for example, 1:1). A pair of interference lights LC are guided to detector 125 through optical fibers 123 and 124, respectively.

検出器125は、例えばバランスドフォトダイオードである。バランスドフォトダイオードは、一対の干渉光LCをそれぞれ検出する一対のフォトディテクタを含み、これらフォトディテクタにより得られた一対の検出結果の差分を出力する。検出器125は、この出力(検出信号)をDAQ(Data Acquisition System)130に送る。 Detector 125 is, for example, a balanced photodiode. A balanced photodiode includes a pair of photodetectors that respectively detect a pair of interference lights LC, and outputs a difference between a pair of detection results obtained by these photodetectors. The detector 125 sends this output (detection signal) to a DAQ (Data Acquisition System) 130 .

DAQ130には、光源ユニット101からクロックKCが供給される。クロックKCは、光源ユニット101において、波長可変光源により所定の波長範囲内で掃引される各波長の出力タイミングに同期して生成される。光源ユニット101は、例えば、各出力波長の光L0を分岐することにより得られた2つの分岐光の一方を光学的に遅延させた後、これらの合成光を検出した結果に基づいてクロックKCを生成する。DAQ130は、検出器125から入力される検出信号をクロックKCに基づきサンプリングする。DAQ130は、検出器125からの検出信号のサンプリング結果を演算制御ユニット200に送る。 A clock KC is supplied from the light source unit 101 to the DAQ 130 . The clock KC is generated in the light source unit 101 in synchronization with the output timing of each wavelength swept within a predetermined wavelength range by the wavelength tunable light source. The light source unit 101, for example, optically delays one of the two branched lights obtained by branching the light L0 of each output wavelength, and then outputs the clock KC based on the result of detecting these combined lights. Generate. The DAQ 130 samples the detection signal input from the detector 125 based on the clock KC. DAQ 130 sends the sampling result of the detection signal from detector 125 to arithmetic control unit 200 .

本例では、測定光LSの光路(測定光路、測定アーム)の長さを変更するための光路長変更部41と、参照光LRの光路(参照光路、参照アーム)の長さを変更するためのコーナーキューブ114の双方が設けられている。しかしながら、光路長変更部41とコーナーキューブ114のいずれか一方のみが設けられもよい。また、これら以外の光学部材を用いて、測定光路長と参照光路長との差を変更することも可能である。 In this example, an optical path length changing unit 41 for changing the length of the optical path (measurement optical path, measurement arm) of the measurement light LS and an optical path length changing unit 41 for changing the length of the optical path (reference optical path, reference arm) of the reference light LR corner cubes 114 are provided. However, only one of the optical path length changing portion 41 and the corner cube 114 may be provided. It is also possible to change the difference between the measurement optical path length and the reference optical path length by using optical members other than these.

〔制御系〕
図3~図6に、眼科装置1の制御系の構成例を示す。図3~図6において、眼科装置1に含まれる構成要素の一部が省略されている。図3において、図1及び図2と同様の部分には同一符号を付し、適宜説明を省略する。制御部210、画像形成部220及びデータ処理部230は、例えば、演算制御ユニット200に設けられる。
[Control system]
3 to 6 show configuration examples of the control system of the ophthalmologic apparatus 1. FIG. 3 to 6, some of the components included in the ophthalmologic apparatus 1 are omitted. In FIG. 3, the same parts as those in FIGS. 1 and 2 are denoted by the same reference numerals, and description thereof will be omitted as appropriate. The control section 210, the image forming section 220 and the data processing section 230 are provided in the arithmetic control unit 200, for example.

〈制御部210〉
制御部210は、各種の制御を実行する。制御部210は、主制御部211と記憶部212とを含む。
<Control unit 210>
The control unit 210 executes various controls. Control unit 210 includes main control unit 211 and storage unit 212 .

〈主制御部211〉
主制御部211は、プロセッサ(例えば、制御プロセッサ)を含み、眼科装置1の各部(図1~図6に示された各要素を含む)を制御する。例えば、主制御部211は、図1~図2に示す眼底カメラユニット2の光学系の各部、OCTユニット100の光学系の各部、前眼部カメラ5A、5B、上記の光学系を移動する移動機構150、画像形成部220、データ処理部230、及びユーザーインターフェイス(User Interface:UI)240を制御する。
<Main control unit 211>
The main controller 211 includes a processor (eg, control processor) and controls each part of the ophthalmologic apparatus 1 (including each element shown in FIGS. 1 to 6). For example, the main control unit 211 controls each part of the optical system of the retinal camera unit 2 shown in FIGS. It controls mechanism 150 , image forming section 220 , data processing section 230 and user interface (UI) 240 .

眼底カメラユニット2に対する制御には、合焦駆動部31A、43Aに対する制御、波長可変フィルタ80に対する制御、イメージセンサ35、38に対する制御、光路長変更部41に対する制御、及び光スキャナ42に対する制御が含まれる。 The control over the retinal camera unit 2 includes control over the focus driving units 31A and 43A, control over the wavelength tunable filter 80, control over the image sensors 35 and 38, control over the optical path length changing unit 41, and control over the optical scanner 42. be

合焦駆動部31Aに対する制御には、撮影合焦レンズ31を光軸方向に移動する制御が含まれる。合焦駆動部43Aに対する制御には、OCT合焦レンズ43を光軸方向に移動する制御が含まれる。 The control for the focus drive unit 31A includes control for moving the photographing focus lens 31 in the optical axis direction. The control for the focus drive unit 43A includes control for moving the OCT focus lens 43 in the optical axis direction.

波長可変フィルタ80に対する制御には、透過光の波長範囲の選択制御(例えば、液晶に対する印可電圧の制御)などがある。 Control over the wavelength tunable filter 80 includes selective control of the wavelength range of transmitted light (for example, control of voltage applied to liquid crystal).

イメージセンサ35、38に対する制御には、撮像素子に対する受光感度の制御、フレームレート(受光タイミング、露光時間)の制御、受光領域(位置、大きさ、サイズ)の制御、撮像素子に対する受光結果の読み出し制御などがある。いくつかの実施形態では、戻り光の波長範囲に応じて露光時間を変更することで、複数の分光眼底画像が取得される解析波長範囲の各波長範囲において受光強度が均一になるようにイメージセンサ35、38が制御される。いくつかの実施形態では、主制御部211は、複数の分光眼底画像が取得される解析波長範囲の各波長範囲において受光強度が均一になるように、照明光の各波長範囲の波長成分の光の強度を制御する。 The control of the image sensors 35 and 38 includes control of the light receiving sensitivity of the imaging element, control of the frame rate (light receiving timing, exposure time), control of the light receiving area (position, size, size), and readout of the light receiving result of the imaging element. control, etc. In some embodiments, by changing the exposure time according to the wavelength range of the return light, the image sensor is arranged so that the received light intensity is uniform in each wavelength range of the analysis wavelength range in which a plurality of spectral fundus images are acquired. 35, 38 are controlled. In some embodiments, the main controller 211 controls the wavelength components of the illumination light in each wavelength range so that the received light intensity is uniform in each wavelength range of the analysis wavelength range in which a plurality of spectral fundus images are acquired. to control the intensity of the

LCD39に対する制御には、固視位置の制御が含まれる。例えば、主制御部211は、手動又は自動で設定された固視位置に対応するLCD39の画面上の位置に固視標を表示する。また、主制御部211は、LCD39に表示されている固視標の表示位置を(連続的に又は段階的に)変更することができる。それにより、固視標を移動することができる(つまり、固視位置を変更することができる)。固視標の表示位置や移動態様は、マニュアルで又は自動的に設定される。マニュアルでの設定は、例えばGUIを用いて行われる。自動的な設定は、例えば、データ処理部230により行われる。 Control over the LCD 39 includes control of the fixation position. For example, the main control unit 211 displays the fixation target at a position on the screen of the LCD 39 corresponding to the fixation position set manually or automatically. Further, the main control unit 211 can change (continuously or stepwise) the display position of the fixation target displayed on the LCD 39 . Thereby, the fixation target can be moved (that is, the fixation position can be changed). The display position and movement mode of the fixation target are set manually or automatically. Manual setting is performed using, for example, a GUI. Automatic setting is performed by the data processing unit 230, for example.

光路長変更部41に対する制御には、測定光LSの光路長を変更する制御が含まれる。主制御部211は、光路長変更部41のコーナーキューブを駆動する駆動部を制御することで測定光LSの光路に沿って光路長変更部41を移動し、測定光LSの光路長を変更する。 Control over the optical path length changing unit 41 includes control for changing the optical path length of the measurement light LS. The main control unit 211 moves the optical path length changing unit 41 along the optical path of the measuring light LS by controlling the driving unit that drives the corner cubes of the optical path length changing unit 41 to change the optical path length of the measuring light LS. .

光スキャナ42に対する制御には、スキャンモード、スキャン範囲(スキャン開始位置、スキャン終了位置)、スキャン速度などの制御がある。主制御部211は、光スキャナ42に対する制御を行うことで、計測部位(撮影部位)における所望の領域に対して測定光LSでOCTスキャンを実行することができる。 Control of the optical scanner 42 includes control of scan mode, scan range (scan start position, scan end position), scan speed, and the like. By controlling the optical scanner 42, the main control unit 211 can perform an OCT scan with the measurement light LS on a desired region of the measurement site (imaging site).

また、主制御部211は、観察光源11、撮影光源15、フォーカス光学系60などを制御する。 The main control unit 211 also controls the observation light source 11, the photographing light source 15, the focus optical system 60, and the like.

OCTユニット100に対する制御には、光源ユニット101に対する制御、参照駆動部114Aに対する制御、検出器125に対する制御、DAQ130に対する制御が含まれる。 Control over the OCT unit 100 includes control over the light source unit 101, control over the reference driver 114A, control over the detector 125, and control over the DAQ .

光源ユニット101に対する制御には、光源のオン及びオフの制御、光源から出射される光の光量の制御、波長掃引範囲の制御、波長掃引速度、各波長成分の光の出射タイミングの制御などがある。 The control of the light source unit 101 includes control of turning on and off of the light source, control of the amount of light emitted from the light source, control of the wavelength sweep range, wavelength sweep speed, control of emission timing of light of each wavelength component, and the like. .

参照駆動部114Aに対する制御には、参照光LRの光路長を変更する制御が含まれる。主制御部211は、参照駆動部114Aを制御することで参照光LRの光路に沿ってコーナーキューブ114を移動し、参照光LRの光路長を変更する。 Control over the reference driver 114A includes control to change the optical path length of the reference light LR. The main control unit 211 moves the corner cube 114 along the optical path of the reference light LR by controlling the reference driving unit 114A to change the optical path length of the reference light LR.

検出器125に対する制御には、検出素子に対する受光感度の制御、フレームレート(受光タイミング)の制御、受光領域(位置、大きさ、サイズ)の制御、検出素子に対する受光結果の読み出し制御などがある。 Control of the detector 125 includes control of the light receiving sensitivity of the detection element, control of the frame rate (light receiving timing), control of the light receiving area (position, size, size), control of readout of the light receiving result of the detection element, and the like.

DAQ130に対する制御には、検出器125により得られた干渉光の検出結果の取り込み制御(取り込みタイミング、サンプリングタイミング)、取り込まれた干渉光の検出結果に対応した干渉信号の読み出し制御などがある。 The control over the DAQ 130 includes fetch control (fetch timing, sampling timing) of the detection result of the interference light obtained by the detector 125, readout control of the interference signal corresponding to the detection result of the fetched interference light, and the like.

前眼部カメラ5A、5Bに対する制御には、各カメラの受光感度の制御、フレームレート(受光タイミング)の制御、前眼部カメラ5A、5Bの同期制御などがある。 Control of the anterior eye cameras 5A and 5B includes control of the light receiving sensitivity of each camera, frame rate (light receiving timing) control, synchronization control of the anterior eye cameras 5A and 5B, and the like.

移動機構150は、例えば、少なくとも眼底カメラユニット2(光学系)を3次元的に移動する。典型的な例において、移動機構150は、少なくとも眼底カメラユニット2をx方向(左右方向)に移動するための機構と、y方向(上下方向)に移動するための機構と、z方向(奥行き方向、前後方向)に移動するための機構とを含む。x方向に移動するための機構は、例えば、x方向に移動可能なxステージと、xステージを移動するx移動機構とを含む。y方向に移動するための機構は、例えば、例えば、y方向に移動可能なyステージと、yステージを移動するy移動機構とを含む。z方向に移動するための機構は、例えば、z方向に移動可能なzステージと、zステージを移動するz移動機構とを含む。各移動機構は、アクチュエータとしてのパルスモータを含み、主制御部211からの制御を受けて動作する。 The moving mechanism 150, for example, three-dimensionally moves at least the retinal camera unit 2 (optical system). In a typical example, the movement mechanism 150 includes at least a mechanism for moving the retinal camera unit 2 in the x direction (horizontal direction), a mechanism for moving it in the y direction (vertical direction), and a mechanism for moving it in the z direction (depth direction). , back and forth). The mechanism for moving in the x-direction includes, for example, an x-stage movable in the x-direction and an x-moving mechanism for moving the x-stage. The mechanism for moving in the y-direction includes, for example, a y-stage movable in the y-direction and a y-moving mechanism for moving the y-stage. The mechanism for moving in the z-direction includes, for example, a z-stage movable in the z-direction and a z-moving mechanism for moving the z-stage. Each movement mechanism includes a pulse motor as an actuator and operates under control from the main control unit 211 .

移動機構150に対する制御は、アライメントやトラッキングにおいて用いられる。トラッキングとは、被検眼Eの眼球運動に合わせて装置光学系を移動させるものである。トラッキングを行う場合には、事前にアライメントとフォーカス調整が実行される。トラッキングは、装置光学系の位置を眼球運動に追従させることにより、アライメントとピントが合った好適な位置関係を維持する機能である。いくつかの実施形態では、参照光の光路長(よって、測定光の光路と参照光の光路との間の光路長差)を変更するために移動機構150の制御を行うように構成される。 Control over the moving mechanism 150 is used in alignment and tracking. Tracking is to move the apparatus optical system according to the eye movement of the eye E to be examined. Alignment and focus adjustment are performed in advance when tracking is performed. Tracking is a function of maintaining a suitable positional relationship in which alignment and focus are achieved by causing the position of the apparatus optical system to follow the movement of the eyeball. Some embodiments are configured to control movement mechanism 150 to change the optical path length of the reference beam (and thus the optical path length difference between the optical path of the measurement beam and the optical path of the reference beam).

マニュアルアライメントの場合、光学系に対する被検眼Eの変位がキャンセルされるようにユーザーがユーザーインターフェイス240に対して操作することにより光学系と被検眼Eとを相対移動させる。例えば、主制御部211は、ユーザーインターフェイス240に対する操作内容に対応した制御信号を移動機構150に出力することにより移動機構150を制御して被検眼Eに対して光学系を相対移動させる。 In the case of manual alignment, the user relatively moves the optical system and the subject's eye E by operating the user interface 240 so that the displacement of the subject's eye E with respect to the optical system is cancelled. For example, the main control unit 211 controls the moving mechanism 150 to move the optical system relative to the eye E by outputting a control signal corresponding to the operation content of the user interface 240 to the moving mechanism 150 .

オートアライメントの場合、光学系に対する被検眼Eの変位がキャンセルされるように主制御部211が移動機構150を制御することにより被検眼Eに対して光学系を相対移動させる。具体的には、特開2013-248376号公報に記載のように、一対の前眼部カメラ5A及び5Bと被検眼Eとの位置関係に基づく三角法を利用した演算処理を行い、主制御部211は、光学系に対する被検眼Eの位置関係が所定の位置関係になるように移動機構150を制御する。いくつかの実施形態では、主制御部211は、光学系の光軸が被検眼Eの軸に略一致し、かつ、被検眼Eに対する光学系の距離が所定の作動距離になるように制御信号を移動機構150に出力することにより移動機構150を制御して被検眼Eに対して光学系を相対移動させる。ここで、作動距離とは、対物レンズ22のワーキングディスタンスとも呼ばれる既定値であり、光学系を用いた測定時(撮影時)における被検眼Eと光学系との間の距離に相当する。 In the case of auto-alignment, the main control unit 211 controls the movement mechanism 150 so that the displacement of the eye E to be inspected with respect to the optical system is canceled so that the optical system is relatively moved with respect to the eye E to be inspected. Specifically, as described in JP-A-2013-248376, arithmetic processing using trigonometry based on the positional relationship between the pair of anterior eye cameras 5A and 5B and the subject's eye E is performed, and the main control unit A reference numeral 211 controls the moving mechanism 150 so that the eye to be examined E has a predetermined positional relationship with respect to the optical system. In some embodiments, the main controller 211 outputs a control signal such that the optical axis of the optical system substantially coincides with the axis of the eye E to be examined and the distance of the optical system from the eye E to be examined is a predetermined working distance. to the moving mechanism 150 to control the moving mechanism 150 to move the optical system relative to the eye E to be examined. Here, the working distance is a default value also called a working distance of the objective lens 22, and corresponds to the distance between the subject's eye E and the optical system at the time of measurement (at the time of photographing) using the optical system.

主制御部211は、表示制御部として、各種情報を表示部240Aに表示させることが可能である。例えば、主制御部211は、複数の分光眼底画像を波長範囲に対応付けて表示部240Aに表示させる。例えば、主制御部211は、解析部232により得られた解析処理結果を表示部240Aに表示させる。 The main control unit 211 can display various information on the display unit 240A as a display control unit. For example, the main control unit 211 causes the display unit 240A to display a plurality of spectral fundus images in association with wavelength ranges. For example, the main control section 211 causes the display section 240A to display the analysis processing result obtained by the analysis section 232 .

〈記憶部212〉
記憶部212は各種のデータを記憶する。記憶部212の機能は、メモリ又は記憶装置等の記憶デバイスにより実現される。記憶部212に記憶されるデータとしては、例えば、制御パラメータ、眼底像の画像データ、前眼部像の画像データ、OCTデータ(OCT画像を含む)、眼底像の分光画像データ、前眼部像の分光画像データ、被検眼情報などがある。制御パラメータとしては、ハイパースペクトル撮影制御データなどがある。ハイパースペクトル撮影制御データは、所定の解析波長範囲内で互いに異なる中心波長の戻り光に基づいて複数の眼底像を取得するための制御データである。ハイパースペクトル撮影制御データの例として、複数の分光眼底画像が取得される解析波長範囲、各分光眼底画像が取得される波長範囲、中心波長、中心波長ステップ、中心波長に対応した波長可変フィルタ80の制御データなどがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報、電子カルテ情報などの被検眼に関する情報を含む。記憶部212には、各種のプロセッサ(制御プロセッサ、画像形成プロセッサ、データ処理プロセッサ)を実行させるためのプログラムが記憶される。
<Storage unit 212>
The storage unit 212 stores various data. The function of the storage unit 212 is implemented by a storage device such as a memory or a storage device. Examples of data stored in the storage unit 212 include control parameters, fundus image data, anterior segment image data, OCT data (including OCT images), fundus spectral image data, and anterior segment image. spectroscopic image data, information on the eye to be examined, and the like. Control parameters include hyperspectral imaging control data and the like. The hyperspectral imaging control data is control data for acquiring a plurality of fundus images based on return light beams having different central wavelengths within a predetermined analysis wavelength range. Examples of hyperspectral imaging control data include an analysis wavelength range in which a plurality of spectral fundus images are acquired, a wavelength range in which each spectral fundus image is acquired, a center wavelength, a center wavelength step, and a wavelength tunable filter 80 corresponding to the center wavelength. control data, etc. The eye information to be examined includes information about the subject such as patient ID and name, information about the eye to be examined such as left/right eye identification information, and electronic medical record information. The storage unit 212 stores programs for executing various processors (control processor, image forming processor, data processing processor).

〈画像形成部220〉
画像形成部220は、プロセッサ(例えば、画像形成プロセッサ)を含み、DAQ130からの出力(検出信号のサンプリング結果)に基づいて、被検眼EのOCT画像(画像データ)を形成する。例えば、画像形成部220は、従来のスウェプトソースOCTと同様に、Aライン毎のサンプリング結果に基づくスペクトル分布に信号処理を施してAライン毎の反射強度プロファイルを形成し、これらAラインプロファイルを画像化してスキャンラインに沿って配列する。上記信号処理には、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などが含まれる。他のタイプのOCTを実行する場合、画像形成部220は、そのタイプに応じた公知の処理を実行する。
<Image forming unit 220>
The image forming unit 220 includes a processor (for example, an image forming processor), and forms an OCT image (image data) of the subject's eye E based on the output from the DAQ 130 (sampling result of the detection signal). For example, the image forming unit 220 performs signal processing on the spectral distribution based on the sampling result for each A line, forms a reflection intensity profile for each A line, and images these A line profiles as in the conventional swept source OCT. and arrange them along the scan lines. The signal processing includes noise removal (noise reduction), filtering, FFT (Fast Fourier Transform), and the like. When performing another type of OCT, the image forming section 220 performs known processing according to that type.

〈データ処理部230〉
データ処理部230は、プロセッサ(例えば、データ処理プロセッサ)を含み、画像形成部220により形成された画像に対して画像処理や解析処理を施す。主制御部211に含まれるプロセッサ、データ処理部230に含まれるプロセッサ、及び画像形成部220に含まれるプロセッサの少なくとも2つは、単一のプロセッサにより構成されていてもよい。
<Data processing unit 230>
The data processing unit 230 includes a processor (for example, a data processing processor) and performs image processing and analysis processing on the image formed by the image forming unit 220 . At least two of the processor included in the main control unit 211, the processor included in the data processing unit 230, and the processor included in the image forming unit 220 may be configured by a single processor.

データ処理部230は、断層像の間の画素を補間する補間処理などの公知の画像処理を実行して、眼底Ef又は前眼部Eaの3次元画像の画像データを形成する。なお、3次元画像の画像データとは、3次元座標系により画素の位置が定義された画像データを意味する。3次元画像の画像データとしては、3次元的に配列されたボクセルからなる画像データがある。この画像データは、ボリュームデータ或いはボクセルデータなどと呼ばれる。ボリュームデータに基づく画像を表示させる場合、データ処理部230は、このボリュームデータに対してレンダリング処理(ボリュームレンダリングやMIP(Maximum Intensity Projection:最大値投影)など)を施して、特定の視線方向から見たときの擬似的な3次元画像の画像データを形成する。表示部240A等の表示デバイスには、この擬似的な3次元画像が表示される。 The data processing unit 230 executes known image processing such as interpolation processing for interpolating pixels between tomographic images to form image data of a three-dimensional image of the fundus oculi Ef or the anterior segment Ea. Note that image data of a three-dimensional image means image data in which pixel positions are defined by a three-dimensional coordinate system. Image data of a three-dimensional image includes image data composed of voxels arranged three-dimensionally. This image data is called volume data or voxel data. When displaying an image based on volume data, the data processing unit 230 performs rendering processing (volume rendering, MIP (Maximum Intensity Projection: maximum intensity projection), etc.) on this volume data so that it can be viewed from a specific line-of-sight direction. Image data of a pseudo three-dimensional image is formed. This pseudo three-dimensional image is displayed on a display device such as the display unit 240A.

また、3次元画像の画像データとして、複数の断層像のスタックデータを形成することも可能である。スタックデータは、複数のスキャンラインに沿って得られた複数の断層像を、スキャンラインの位置関係に基づいて3次元的に配列させることで得られる画像データである。すなわち、スタックデータは、元々個別の2次元座標系により定義されていた複数の断層像を、1つの3次元座標系により表現する(つまり1つの3次元空間に埋め込む)ことにより得られる画像データである。 Stack data of a plurality of tomographic images can also be formed as image data of a three-dimensional image. Stacked data is image data obtained by three-dimensionally arranging a plurality of tomographic images obtained along a plurality of scan lines based on the positional relationship of the scan lines. That is, stack data is image data obtained by expressing a plurality of tomographic images, which were originally defined by individual two-dimensional coordinate systems, by one three-dimensional coordinate system (that is, embedding them in one three-dimensional space). be.

いくつかの実施形態では、データ処理部230は、Aスキャン画像をBスキャン方向に配列することによりBスキャン画像を生成する。いくつかの実施形態では、データ処理部230は、取得された3次元データセット(ボリュームデータ、スタックデータ等)に各種のレンダリングを施すことで、任意断面におけるBモード画像(Bスキャン画像)(縦断面像、軸方向断面像)、任意断面におけるCモード画像(Cスキャン画像)(横断面像、水平断面像)、プロジェクション画像、シャドウグラムなどを形成することができる。Bスキャン画像やCスキャン画像のような任意断面の画像は、指定された断面上の画素(ピクセル、ボクセル)を3次元データセットから選択することにより形成される。プロジェクション画像は、3次元データセットを所定方向(z方向、深さ方向、軸方向)に投影することによって形成される。シャドウグラムは、3次元データセットの一部(たとえば特定層に相当する部分データ)を所定方向に投影することによって形成される。積分する層方向の深さ範囲を変更することで、互いに異なる2以上のシャドウグラムを形成することが可能である。Cスキャン画像、プロジェクション画像、シャドウグラムのような、被検眼の正面側を視点とする画像を正面画像(en-face画像)と呼ぶ。 In some embodiments, data processor 230 generates a B-scan image by arranging the A-scan image in the B-scan direction. In some embodiments, the data processing unit 230 performs various renderings on the acquired three-dimensional data set (volume data, stack data, etc.) to obtain a B-mode image (B-scan image) (longitudinal section) in an arbitrary cross section. plane image, axial cross-sectional image), C-mode image (C-scan image) at an arbitrary cross-section (cross-sectional image, horizontal cross-sectional image), projection image, shadowgram, and the like. An arbitrary cross-sectional image, such as a B-scan image or a C-scan image, is formed by selecting pixels (pixels, voxels) on a specified cross-section from a three-dimensional data set. A projection image is formed by projecting a three-dimensional data set in a predetermined direction (z direction, depth direction, axial direction). A shadowgram is formed by projecting a portion of the three-dimensional data set (for example, partial data corresponding to a specific layer) in a predetermined direction. By changing the depth range in the layer direction to be integrated, it is possible to form two or more different shadowgrams. An image such as a C-scan image, a projection image, or a shadowgram whose viewpoint is the front side of the subject's eye is called an en-face image.

データ処理部230は、OCTにより時系列に収集されたデータ(例えば、Bスキャン画像データ)に基づいて、網膜血管や脈絡膜血管が強調されたBスキャン画像や正面画像(血管強調画像、アンギオグラム)を構築することができる。例えば、被検眼Eの略同一部位を反復的にスキャンすることにより、時系列のOCTデータを収集することができる。 The data processing unit 230 generates B-scan images and front images (blood vessel-enhanced images, angiograms) in which retinal vessels and choroidal vessels are emphasized based on data (for example, B-scan image data) collected in time series by OCT. can be constructed. For example, time-series OCT data can be collected by repeatedly scanning substantially the same portion of the eye E to be examined.

いくつかの実施形態では、データ処理部230は、略同一部位に対するBスキャンにより得られた時系列のBスキャン画像を比較し、信号強度の変化部分の画素値を変化分に対応した画素値に変換することにより当該変化部分が強調された強調画像を構築する。更に、データ処理部230は、構築された複数の強調画像から所望の部位における所定の厚さ分の情報を抽出してen-face画像として構築することでOCTA像を形成する。 In some embodiments, the data processing unit 230 compares time-series B-scan images obtained by B-scans of substantially the same site, and converts the pixel values of the portions where the signal intensity changes to the pixel values corresponding to the changes. An enhanced image in which the changed portion is emphasized is constructed by the conversion. Furthermore, the data processing unit 230 extracts information for a predetermined thickness in a desired region from the constructed multiple enhanced images and constructs an en-face image to form an OCTA image.

このようなデータ処理部230は、位置合わせ処理部231と、解析部232とを含む。 Such a data processing section 230 includes an alignment processing section 231 and an analysis section 232 .

〈位置合わせ処理部231〉
位置合わせ処理部231は、被検眼EにOCTを実行することにより得られたOCTデータに基づいて、所定の解析波長範囲の複数の波長範囲に対応した被検眼Eの複数の分光眼底画像の位置合わせを実行する。
<Alignment processing unit 231>
The alignment processing unit 231 calculates positions of a plurality of spectral fundus images of the subject eye E corresponding to a plurality of wavelength ranges within a predetermined analysis wavelength range based on OCT data obtained by performing OCT on the subject eye E. perform alignment.

OCTデータは、被検眼に対してOCTを実行することにより得られた干渉光の検出結果、Bスキャン画像、又はen-face画像であってよい。 The OCT data may be a detection result of interference light, a B-scan image, or an en-face image obtained by performing OCT on the subject's eye.

撮影光学系30の光軸に対するOCTユニット100の光軸の相対位置は既知であるため、撮影光学系30により得られた画像中の位置から、OCTユニット100を用いたOCTスキャン位置(又はOCT画像中の位置)を特定することが可能である。 Since the relative position of the optical axis of the OCT unit 100 with respect to the optical axis of the imaging optical system 30 is known, the OCT scanning position using the OCT unit 100 (or the OCT image inside) can be specified.

また、眼底Efは、入射光の波長成分に対して異なる特性を有する複数の層領域から構成されている。すなわち、複数の層領域は、入射光の波長成分に応じて、反射する光の割合、吸収される光の割合、及び透過する光の割合が異なる。具体的には、解析波長範囲において、短波長になるほど表層部(神経線維層)での反射光の強度が強くなり、中間波長では網膜色素上皮層での反射光の強度が強くなり、長波長になるほど深層部(脈絡膜層)での反射光の強度が強くなることが知られている。従って、眼底Efに入射する光の波長範囲に対して、眼底Efの層領域をあらかじめ対応付けることができる。 In addition, the fundus oculi Ef is composed of a plurality of layer regions having different characteristics with respect to wavelength components of incident light. That is, the plurality of layer regions differ in the proportion of reflected light, the proportion of absorbed light, and the proportion of transmitted light according to the wavelength component of incident light. Specifically, in the analysis wavelength range, the shorter the wavelength, the stronger the intensity of the reflected light from the surface layer (nerve fiber layer). It is known that the intensity of reflected light in the deeper layer (choroid layer) increases as the depth increases. Therefore, the layer region of the fundus oculi Ef can be associated in advance with the wavelength range of light incident on the fundus oculi Ef.

そこで、位置合わせ処理部231は、分光眼底画像中の特徴部位(特徴領域、特徴点)に対応する位置をOCTスキャンすることにより得られた干渉光の検出結果を用いて、複数の分光眼底画像の位置合わせを行う。特徴部位は、例えば、後述の解析部232により特定される。例えば、位置合わせ処理部231は、干渉光の検出結果に基づいて干渉光の強度が大きい第1深さ位置(z位置)及び第2深さ位置から眼底Efの第1層領域及び第2層領域を特定する。位置合わせ処理部231は、特定された第1層領域に対応する第1分光眼底画像と特定された第2層領域に対応する第2分光眼底画像とのxy方向の位置合わせを行う。 Therefore, the alignment processing unit 231 uses the detection result of the interference light obtained by OCT scanning the position corresponding to the characteristic part (characteristic region, characteristic point) in the spectral fundus image to obtain a plurality of spectral fundus images. are aligned. The characteristic site is specified by, for example, the analysis unit 232 described later. For example, the alignment processing unit 231 aligns the first layer region and the second layer of the fundus oculi Ef from the first depth position (z position) and the second depth position where the intensity of the interference light is high based on the detection result of the interference light. Identify areas. The alignment processing unit 231 aligns the first spectral fundus image corresponding to the specified first layer region and the second spectral fundus image corresponding to the specified second layer region in the xy direction.

いくつかの実施形態では、位置合わせ処理部231は、分光眼底画像中の特徴部位に対応する位置を通過するBスキャン画像を用いて、複数の分光眼底画像の位置合わせを行う。例えば、位置合わせ処理部231は、Bスキャン画像に対して公知のセグメンテーション処理を行うことにより第1深さ位置及び第2深さ位置における眼底Efの第1層領域及び第2層領域を特定する。位置合わせ処理部231は、特定された第1層領域に対応する第1分光眼底画像と特定された第2層領域に対応する第2分光眼底画像とのxy方向の位置合わせを行う。 In some embodiments, the alignment processing unit 231 aligns multiple spectral fundus images using B-scan images that pass through positions corresponding to characteristic regions in the spectral fundus images. For example, the registration processing unit 231 specifies the first layer region and the second layer region of the fundus oculi Ef at the first depth position and the second depth position by performing known segmentation processing on the B-scan image. . The alignment processing unit 231 aligns the first spectral fundus image corresponding to the specified first layer region and the second spectral fundus image corresponding to the specified second layer region in the xy direction.

いくつかの実施形態では、位置合わせ処理部231は、分光眼底画像中の1以上の特徴部位が描出されたen-face画像を用いて、複数の分光眼底画像の位置合わせを行う。例えば、位置合わせ処理部231は、en-face画像中の1以上の特徴部位の位置と、複数の分光眼底画像のそれぞれの特徴部位の位置との位置合わせを行う。例えば、位置合わせ処理部231は、en-face画像及び位置合わせ対象の分光眼底画像のそれぞれにおける1以上の特徴部位に対し、最小二乗法(Least Squares Matching:LSM)により両画像の濃淡の差の二乗和が最小になるように2つの画像の位置合わせを行う。いくつかの実施形態では、位置合わせ処理部231は、位置合わせ対象の分光眼底画像に対してアフィン変換又はヘルマート変換を行うことで、en-face画像に対して分光眼底画像の位置合わせを行う。 In some embodiments, the alignment processing unit 231 aligns a plurality of spectral fundus images using an en-face image that depicts one or more characteristic regions in the spectral fundus images. For example, the alignment processing unit 231 aligns the positions of one or more characteristic regions in the en-face image with the positions of the characteristic regions of the plurality of spectral fundus images. For example, the alignment processing unit 231 performs least squares matching (LSM) on one or more characteristic regions in each of the en-face image and the spectral fundus image to be aligned, and calculates the difference in gradation between the two images. Align the two images so that the sum of squares is minimized. In some embodiments, the alignment processing unit 231 aligns the spectral fundus image with the en-face image by performing affine transformation or Helmert transformation on the spectral fundus image to be aligned.

いくつかの実施形態では、位置合わせ処理部231は、波長範囲ごとに(眼底における深さ位置ごとに)異なる基準画像を用いて、分光眼底画像の位置合わせを行う。波長範囲ごとに異なる基準画像は、例えば、波長範囲に応じて積算範囲が異なるシャドウグラム(深さ位置が異なるen-face画像、Cスキャン画像)であってよい。 In some embodiments, the alignment processing unit 231 aligns the spectral fundus images using a different reference image for each wavelength range (for each depth position in the fundus). The different reference images for different wavelength ranges may be, for example, shadowgrams (en-face images with different depth positions, C-scan images) with different integration ranges depending on the wavelength ranges.

いくつかの実施形態では、位置合わせ処理部231は、分光眼底画像ごとに異なるOCT正面画像(en-face画像、Cスキャン画像)との位置合わせを行う。OCT正面画像は、位置合わせ対象の分光眼底画像と最も相関度が高い画像であってよい。 In some embodiments, the alignment processing unit 231 aligns each spectroscopic fundus image with a different OCT front image (en-face image, C-scan image). The OCT front image may be an image that has the highest degree of correlation with the spectral fundus image to be registered.

ここで、分光眼底画像は、種々の深さ位置からの戻り光に基づいて形成される。それにより、複数の分光眼底画像のそれぞれは、波長範囲ごとに異なる深さ位置からの戻り光の強度に変化の特徴を有する。従って、分光眼底画像は、当該分光眼底画像に対応する深さ位置(層領域)のOCT正面画像との位置合わせが容易になる。例えば、600nmまでの波長範囲では網膜血管がより鮮明になり、620nm~690nmまでの波長範囲では視神経乳頭がより鮮明になり、660nm以上の波長範囲では脈絡膜血管がより鮮明になる。従って、位置合わせ処理部231は、分光眼底画像の波長範囲に応じた深さ位置におけるOCT正面画像を基準に当該分光眼底画像の位置合わせを行うことで、複数の分光眼底画像の高精度の位置合わせが可能になる。例えば、分光眼底画像では波長範囲によって描出される部位が異なるため波長範囲が近い分光眼底画像を用いて位置合わせを行う比較例の手法と比較すると、分光眼底画像より深さ方向の分解能が高いOCTデータに基づいて形成されたOCT正面画像を用いて位置合わせを行うようにしたので、分光眼底画像を高精度に位置合わせを行うことができるようになる。 Here, the spectroscopic fundus image is formed based on return light from various depth positions. As a result, each of the plurality of spectral fundus images has characteristics of changes in intensity of return light from different depth positions for each wavelength range. Therefore, the spectral fundus image can be easily aligned with the OCT front image of the depth position (layer area) corresponding to the spectral fundus image. For example, in the wavelength range up to 600 nm, the retinal vessels become sharper, in the wavelength range from 620 nm to 690 nm, the optic disc becomes sharper, and in the wavelength range above 660 nm, the choroidal vessels become sharper. Therefore, the alignment processing unit 231 aligns the spectral fundus images with reference to the OCT front image at the depth position corresponding to the wavelength range of the spectral fundus images, thereby performing the alignment of the spectral fundus images with high accuracy. Alignment becomes possible. For example, compared to the method of the comparative example in which position alignment is performed using spectral fundus images with a similar wavelength range, since the regions depicted in the spectral fundus images differ depending on the wavelength range, OCT has higher resolution in the depth direction than the spectral fundus images. Since the alignment is performed using the OCT front image formed based on the data, the spectral fundus images can be aligned with high accuracy.

〈解析部232〉
図4に示すように、解析部232は、特徴部位特定部232Aと、3次元位置算出部232Bと、位置ずれ処理部232Cと、画質処理部232Dとを含む。位置ずれ処理部232Cと画質処理部232Dのいずれか一方が省略されていてもよい。
<analysis unit 232>
As shown in FIG. 4, the analysis section 232 includes a characteristic part identification section 232A, a three-dimensional position calculation section 232B, a positional deviation processing section 232C, and an image quality processing section 232D. Either one of the positional deviation processing section 232C and the image quality processing section 232D may be omitted.

解析部232は、被検眼Eの画像(分光眼底画像を含む)を解析して当該画像に描出された特徴部位を特定することが可能である。例えば、解析部232は、前眼部カメラ5A、5Bの位置と特定された特徴部位の位置とに基づいて被検眼Eの3次元位置を求める。主制御部211は、求められた3次元位置に基づいて被検眼Eに対して光学系を相対移動させることにより、被検眼Eに対する光学系の位置合わせを行う。 The analysis unit 232 can analyze an image (including a spectroscopic fundus image) of the subject's eye E to specify a characteristic region depicted in the image. For example, the analysis unit 232 obtains the three-dimensional position of the subject's eye E based on the positions of the anterior eye cameras 5A and 5B and the positions of the specified characteristic regions. The main control unit 211 aligns the optical system with respect to the eye to be examined E by relatively moving the optical system with respect to the eye to be examined E based on the determined three-dimensional position.

また、解析部232は、上記の位置合わせ処理部231により実行される位置合わせ処理に用いられる特徴部位を特定することが可能である。 Further, the analysis unit 232 can identify characteristic regions used for alignment processing executed by the alignment processing unit 231 described above.

解析部232は、位置合わせ処理部231により位置合わせ処理が行われた複数の分光眼底画像に対して所定の解析処理を実行することが可能である。所定の解析処理の例として、複数の分光眼底画像のうち任意の2つの画像の比較処理、比較処理により特定された共通領域又は差分領域の抽出処理、複数の分光眼底画像の少なくとも1つに対する注目部位又は特徴部位の特定処理、分光眼底画像中での上記の共通領域、上記の差分領域、上記の注目部位、又は上記の特徴部位の識別表示処理、複数の分光眼底画像のうち少なくとも2つの画像の合成処理などがある。 The analysis unit 232 can perform predetermined analysis processing on a plurality of spectral fundus images that have been aligned by the alignment processing unit 231 . Examples of predetermined analysis processing include comparison processing of arbitrary two images among a plurality of spectral fundus images, processing of extracting a common region or difference region specified by the comparison processing, and attention to at least one of the plurality of spectral fundus images. Part or characteristic part identification processing, identification display processing of the common region, the difference region, the target region, or the characteristic region in the spectral fundus image, at least two images out of the plurality of spectral fundus images , and the like.

〈特徴部位特定部232A〉
特徴部位特定部232Aは、前眼部カメラ5A及び5Bにより得られた各撮影画像を解析することで、前眼部Eaの特徴部位に相当する当該撮影画像中の位置(特徴位置と呼ぶ)を特定する。特徴部位としては、例えば被検眼Eの瞳孔領域、被検眼Eの瞳孔中心位置、瞳孔重心位置、角膜中心位置、角膜頂点位置、被検眼中心位置、又は虹彩が用いられる。以下、被検眼Eの瞳孔中心位置を特定する処理の具体例を説明する。
<Characteristic part identification unit 232A>
The characteristic site identification unit 232A analyzes each of the captured images obtained by the anterior segment cameras 5A and 5B to identify positions (referred to as characteristic positions) in the captured images corresponding to the characteristic sites of the anterior segment Ea. Identify. For example, the pupil region of the subject eye E, the pupil center position of the subject eye E, the pupil center position, the corneal center position, the corneal vertex position, the subject eye center position, or the iris are used as the characteristic site. A specific example of processing for specifying the pupil center position of the eye E to be examined will be described below.

まず、特徴部位特定部232Aは、撮影画像の画素値(輝度値など)の分布に基づいて、被検眼Eの瞳孔に相当する画像領域(瞳孔領域)を特定する。一般に瞳孔は他の部位よりも低い輝度で描画されるので、低輝度の画像領域を探索することによって瞳孔領域を特定することができる。このとき、瞳孔の形状を考慮して瞳孔領域を特定するようにしてもよい。つまり、略円形かつ低輝度の画像領域を探索することによって瞳孔領域を特定するように構成することができる。 First, the characteristic part identification unit 232A identifies an image region (pupil region) corresponding to the pupil of the subject's eye E based on the distribution of pixel values (such as luminance values) of the captured image. Since the pupil is generally drawn with lower luminance than other parts, the pupil region can be identified by searching for the low-luminance image region. At this time, the pupil region may be specified in consideration of the shape of the pupil. In other words, the pupil region can be identified by searching for a substantially circular low-brightness image region.

次に、特徴部位特定部232Aは、特定された瞳孔領域の中心位置を特定する。上記のように瞳孔は略円形であるので、瞳孔領域の輪郭を特定し、この輪郭(の近似円または近似楕円)の中心位置を特定し、これを瞳孔中心位置とすることができる。また、瞳孔領域の重心を求め、この重心位置を瞳孔重心位置として特定してもよい。 Next, the characteristic part identifying section 232A identifies the central position of the identified pupil region. Since the pupil is substantially circular as described above, it is possible to specify the outline of the pupil region, specify the center position of this outline (the approximate circle or approximate ellipse), and set this as the pupil center position. Alternatively, the center of gravity of the pupil region may be obtained and the position of the center of gravity may be specified as the position of the center of gravity of the pupil.

なお、他の特徴部位に対応する特徴位置を特定する場合であっても、上記と同様に撮影画像の画素値の分布に基づいて当該特徴位置を特定することが可能である。 It should be noted that even when specifying a characteristic position corresponding to another characteristic part, it is possible to specify the characteristic position based on the distribution of pixel values of the captured image in the same manner as described above.

特徴部位特定部232Aは、前眼部カメラ5A及び5Bにより逐次に得られた撮影画像に対し特徴部位に相当する特徴位置を逐次に特定することが可能である。また、特徴部位特定部232Aは、前眼部カメラ5A及び5Bにより逐次に得られた撮影画像に対し1以上の任意の数のフレームおきに特徴位置を特定してもよい。 The characteristic part identification unit 232A can sequentially identify characteristic positions corresponding to characteristic parts in the captured images sequentially obtained by the anterior eye cameras 5A and 5B. In addition, the characteristic site identifying section 232A may identify the characteristic position every one or more frames of the captured images sequentially obtained by the anterior eye cameras 5A and 5B.

また、特徴部位特定部232Aは、同様に、分光眼底画像に対して特徴部位を特定することができる。この場合、特徴部位として、血管領域、疾患部位、画素の輝度の変化が特徴的な部位などがある。分光眼底画像の特徴部位は、ユーザーインターフェイス240の操作部240Bを用いて指定されてもよい。 Also, the characteristic site identification unit 232A can similarly identify the characteristic site for the spectral fundus image. In this case, the characteristic regions include a blood vessel region, a diseased region, a region characterized by a change in pixel brightness, and the like. A characteristic portion of the spectral fundus image may be designated using the operation section 240B of the user interface 240 .

〈3次元位置算出部232B〉
3次元位置算出部232Bは、前眼部カメラ5A及び5Bの位置と、特徴部位特定部232Aにより特定された特徴部位に相当する特徴位置とに基づいて特徴部位の3次元位置を被検眼Eの3次元位置として特定する。3次元位置算出部232Bは、特開2013-248376号公報に開示されているように、2つの前眼部カメラ5A及び5Bの位置(既知である)と、2つの撮影画像において特徴部位に相当する位置とに対して、公知の三角法を適用することにより被検眼Eの3次元位置を算出する。3次元位置算出部232Bにより求められた3次元位置は、主制御部211に送られる。主制御部211は、当該3次元位置に基づいて、光学系の光軸のx方向及びy方向の位置が3次元位置のx方向及びy方向の位置と一致し、かつ、z方向の距離が所定の作動距離になるように移動機構150を制御する。
<Three-dimensional position calculator 232B>
The three-dimensional position calculation unit 232B calculates the three-dimensional position of the characteristic part of the subject's eye E based on the positions of the anterior eye cameras 5A and 5B and the characteristic position corresponding to the characteristic part specified by the characteristic part specifying unit 232A. Identify as a three-dimensional position. The three-dimensional position calculation unit 232B, as disclosed in Japanese Unexamined Patent Application Publication No. 2013-248376, calculates the positions (known) of the two anterior eye cameras 5A and 5B and the characteristic regions in the two captured images. The three-dimensional position of the subject's eye E is calculated by applying a known trigonometric method to the position where the eye E is to be examined. The three-dimensional position calculated by the three-dimensional position calculator 232B is sent to the main controller 211. FIG. Based on the three-dimensional position, the main control unit 211 determines that the x- and y-direction positions of the optical axis of the optical system match the x- and y-direction positions of the three-dimensional position, and that the z-direction distance is The moving mechanism 150 is controlled so as to achieve a predetermined working distance.

〈位置ずれ処理部232C〉
位置ずれ処理部232Cは、取得された複数の分光眼底画像の位置ずれの評価処理を行う。具体的には、位置ずれ処理部232Cは、取得された複数の分光眼底画像の位置ずれ情報を求める。位置ずれ情報は、基準位置に対する変位と、変位の方向とを含む。位置ずれ処理部232Cは、求められた位置ずれ情報に基づいて分光眼底画像(の一部又は全部)の位置ずれが大きいか否かを判定する。位置ずれが大きいと判定されたとき、制御部210は、複数の分光眼底画像の一部又は全部を再取得させる。
<Position deviation processor 232C>
The positional displacement processing unit 232C performs evaluation processing of positional displacements of the plurality of acquired spectral fundus images. Specifically, the positional displacement processing unit 232C obtains positional displacement information of the plurality of acquired spectral fundus images. The positional deviation information includes the displacement with respect to the reference position and the direction of the displacement. The positional displacement processing unit 232C determines whether the positional displacement of (a part of or the whole of) the spectral fundus image is large based on the obtained positional displacement information. When it is determined that the positional deviation is large, the control unit 210 causes re-acquisition of part or all of the plurality of spectral fundus images.

位置ずれ処理部232Cは、図5に示すように、位置ずれ情報生成部2321Cと、位置ずれ判定部2322Cとを含む。 As shown in FIG. 5, the positional deviation processing section 232C includes a positional deviation information generating section 2321C and a positional deviation determining section 2322C.

〈位置ずれ情報生成部2321C〉
位置ずれ情報生成部2321Cは、基準画像に対する分光眼底画像の位置ずれ情報を求める。基準画像は、複数の分光眼底画像のいずれか、又は上記のen-face画像であってよい。複数の分光眼底画像のいずれかが基準画像として採用される場合、基準画像の例として、位置ずれ情報の算出対象の分光眼底画像に対して波長範囲が隣接する分光眼底画像、複数の分光眼底画像のうち最も波長が短い波長範囲の分光眼底画像、複数の分光眼底画像のうち最も波長が長い波長範囲の分光眼底画像、複数の分光眼底画像のうち解析波長範囲の略中間付近の波長範囲の分光眼底画像、複数の分光眼底画像のうち所定の特徴部位が最も鮮明に(コントラストが高く)描出された分光眼底画像などがある。
<Positional deviation information generator 2321C>
The positional deviation information generator 2321C obtains positional deviation information of the spectral fundus image with respect to the reference image. The reference image may be any of a plurality of spectral fundus images, or the en-face image described above. When any one of the plurality of spectral fundus images is adopted as the reference image, examples of the reference image include a spectral fundus image whose wavelength range is adjacent to the spectral fundus image for which position shift information is to be calculated, and a plurality of spectral fundus images. Spectroscopic fundus image of the shortest wavelength range, Spectroscopic fundus image of the longest wavelength range among the multiple spectral fundus images, Spectrum of the wavelength range near the middle of the analysis wavelength range among the multiple spectral fundus images There is a fundus image, a spectral fundus image in which a predetermined characteristic part of a plurality of spectral fundus images is most clearly rendered (high contrast), and the like.

基準画像が位置ずれ情報の算出対象の分光眼底画像に対して波長範囲が隣接する分光眼底画像である場合、位置ずれ情報生成部2321Cは、取得された複数の分光眼底画像のうち第1分光眼底画像と第2分光眼底画像とを解析することにより第1分光眼底画像と第2分光眼底画像との間の位置ずれ情報を求める。例えば、位置ずれ情報生成部2321Cは、第1分光眼底画像と第2分光眼底画像とにおける特徴部位特定部232Aにより特定された特徴部位(血管、疾患部位、視神経乳頭、黄斑など)に相当する位置の変位(ずれ量、ずれの方向)を特定し、特定された変位に基づいて位置ずれ情報を生成する。位置ずれ情報生成部2321Cは、複数の分光眼底画像のすべてに対して位置ずれ情報を生成することができる。 When the reference image is a spectral fundus image whose wavelength range is adjacent to the spectral fundus image for which positional deviation information is to be calculated, the positional deviation information generation unit 2321C generates the first spectral fundus image among the plurality of acquired spectral fundus images. Position shift information between the first spectral fundus image and the second spectral fundus image is obtained by analyzing the image and the second spectral fundus image. For example, the position shift information generation unit 2321C generates a position corresponding to the characteristic region (blood vessel, diseased region, optic papilla, macula, etc.) identified by the characteristic region identification unit 232A in the first spectral fundus image and the second spectral fundus image. positional deviation information is generated based on the specified displacement. The positional deviation information generation unit 2321C can generate positional deviation information for all of the plurality of spectral fundus images.

〈位置ずれ判定部2322C〉
位置ずれ判定部2322Cは、位置ずれ情報生成部2321Cにより求められた位置ずれ情報に基づいて、分光眼底画像の少なくとも1つについて位置ずれが大きいか否かを判定する。
<Positional deviation determination unit 2322C>
Based on the positional deviation information obtained by the positional deviation information generating part 2321C, the positional deviation determination unit 2322C determines whether or not the positional deviation of at least one of the spectral fundus images is large.

例えば、位置ずれ判定部2322Cは、各分光眼底画像について位置ずれが大きいか否かを判定する。この場合、位置ずれ判定部2322Cは、あらかじめ決められた閾値より大きいとき、分光眼底画像の位置ずれが大きいと判定する。いくつかの実施形態では、閾値は、波長範囲に応じて決定される。例えば、波長範囲が短波長になるほど閾値が小さく(又は大きく)なり、波長範囲が長波長になるほど閾値が大きく(又は小さく)なってよい。例えば、所望の特徴部位が最も鮮明に描出される波長範囲が既知である場合、当該波長範囲に応じて決定される閾値が最も小さくなるように設定されてよい。 For example, the positional deviation determination unit 2322C determines whether or not the positional deviation of each spectral fundus image is large. In this case, the positional deviation determination unit 2322C determines that the positional deviation of the spectral fundus image is large when the difference is larger than a predetermined threshold. In some embodiments, the threshold is determined according to the wavelength range. For example, the shorter the wavelength range, the smaller (or larger) the threshold, and the longer the wavelength range, the larger (or smaller) the threshold. For example, if the wavelength range that renders the desired characteristic site most clearly is known, the threshold determined according to that wavelength range may be set to be the smallest.

例えば、各分光眼底画像について位置ずれが大きいか否かの判定結果が得られた場合において、複数の分光眼底画像のすべてにおいて位置ずれが大きいと判定されたとき、位置ずれ判定部2322Cは、複数の分光眼底画像(画像群)の位置ずれが大きいと判定する。一方、複数の分光眼底画像のいずれかにおいて位置ずれが大きくないと判定された場合、位置ずれ判定部2322Cは、複数の分光眼底画像(画像群)の位置ずれは大きくないと判定する。 For example, when it is determined that the positional deviation is large in all of the plurality of spectral fundus images, the positional deviation determination unit 2322C determines whether or not the positional deviation is large for each spectral fundus image. It is determined that the positional deviation of the spectral fundus images (image group) of is large. On the other hand, when it is determined that the positional deviation is not large in any of the plurality of spectral fundus images, the positional deviation determination unit 2322C determines that the positional deviation of the plurality of spectral fundus images (image group) is not large.

例えば、各分光眼底画像について位置ずれが大きいか否かの判定結果が得られた場合において、位置ずれ判定部2322Cは、複数の位置ずれの最小値(又は最大値)を閾値と比較する。最小位置ずれ(又は最大位置ずれ)が閾値以上である場合、位置ずれ判定部2322Cは、複数の分光眼底画像(画像群)の位置ずれは大きいと判定する。一方、最小位置ずれ(又は最大位置ずれ)が閾値未満である場合、位置ずれ判定部2322Cは、複数の分光眼底画像(画像群)の位置ずれは大きくないと判定する。 For example, when a determination result is obtained as to whether or not the positional deviation is large for each spectral fundus image, the positional deviation determination unit 2322C compares the minimum value (or maximum value) of a plurality of positional deviations with a threshold. When the minimum positional deviation (or maximum positional deviation) is equal to or greater than the threshold, the positional deviation determination unit 2322C determines that the positional deviation of the plurality of spectral fundus images (image group) is large. On the other hand, when the minimum positional deviation (or maximum positional deviation) is less than the threshold, the positional deviation determination unit 2322C determines that the positional deviation of the plurality of spectral fundus images (image group) is not large.

例えば、各分光眼底画像について位置ずれが大きいか否かの判定結果が得られた場合において、位置ずれ判定部2322Cは、複数の分光眼底画像について得られた位置ずれに所定の統計演算を適用して統計値を算出する。この統計値の種類は任意であってよく、例えば、平均値、最小値、最大値、最頻値、中間値などであってよい。なお、統計値が最小値又は最大値であるケースは、上記の例に相当する。位置ずれ判定部2322Cは、算出された統計値を所定の閾値と比較する。統計値が閾値以上である場合、位置ずれ判定部2322Cは、複数の分光眼底画像(画像群)の位置ずれは大きいと判定する。一方、統計値が閾値未満である場合、位置ずれ判定部2322Cは、複数の分光眼底画像(画像群)の位置ずれは大きくないと判定する。 For example, when a determination result is obtained as to whether or not the positional deviation is large for each spectral fundus image, the positional deviation determination unit 2322C applies a predetermined statistical operation to the positional deviations obtained for a plurality of spectral fundus images. to calculate statistics. The type of statistical value may be arbitrary, and may be, for example, average value, minimum value, maximum value, mode value, median value, and the like. Note that the case where the statistical value is the minimum value or the maximum value corresponds to the above example. The positional deviation determination unit 2322C compares the calculated statistical value with a predetermined threshold. When the statistical value is equal to or greater than the threshold, the positional deviation determination unit 2322C determines that the positional deviation of the plurality of spectral fundus images (image group) is large. On the other hand, when the statistical value is less than the threshold, the positional deviation determination unit 2322C determines that the positional deviation of the plurality of spectral fundus images (image group) is not large.

例えば、各分光眼底画像について位置ずれが大きいか否かの判定結果が得られた場合において、位置ずれ判定部2322Cは、複数の分光眼底画像の代表画像について得られた1以上の位置ずれのそれぞれを所定の閾値と比較する。代表画像の例として、複数の分光眼底画像のうち最も波長が短い波長範囲の分光眼底画像、複数の分光眼底画像のうち最も波長が長い波長範囲の分光眼底画像、複数の分光眼底画像のうち解析波長範囲の略中間付近の波長範囲の分光眼底画像、複数の分光眼底画像のうち所定の特徴部位が最も鮮明に(コントラストが高く)描出された分光眼底画像などがある。1以上の位置ずれのすべてが閾値以上である場合、位置ずれ判定部2322Cは、複数の分光眼底画像(画像群)の位置ずれは大きいと判定する。一方、1以上の位置ずれのいずれかが閾値未満である場合、位置ずれ判定部2322Cは、複数の分光眼底画像(画像群)の位置ずれは大きくないと判定する。 For example, when a determination result is obtained as to whether or not the positional deviation is large for each spectral fundus image, the positional deviation determination unit 2322C determines whether each of the one or more positional deviations obtained for the representative image of the plurality of spectral fundus images is is compared with a predetermined threshold. Examples of representative images include a spectral fundus image in the wavelength range with the shortest wavelength among the plurality of spectral fundus images, a spectral fundus image in the wavelength range with the longest wavelength among the plurality of spectral fundus images, and an analysis of the plurality of spectral fundus images. There are a spectral fundus image in a wavelength range near the middle of the wavelength range, a spectral fundus image in which a predetermined characteristic region is most clearly rendered (high contrast) among a plurality of spectral fundus images, and the like. When all of the one or more positional deviations are equal to or greater than the threshold, the positional deviation determination unit 2322C determines that the positional deviations of the plurality of spectral fundus images (image group) are large. On the other hand, if any of the one or more positional deviations is less than the threshold, the positional deviation determination unit 2322C determines that the positional deviations of the plurality of spectral fundus images (image group) are not large.

いくつかの実施形態では、位置ずれ情報生成部2321Cは、複数の分光眼底画像から選択された一部の分光眼底画像について位置ずれ情報を生成する。この場合、位置ずれ判定部2322Cは、生成された位置ずれ情報に対して、上記の判定処理を行う。すなわち、位置ずれ情報が生成された複数の分光眼底画像を用いて、位置ずれが評価される。 In some embodiments, the positional displacement information generating unit 2321C generates positional displacement information for some spectral fundus images selected from a plurality of spectral fundus images. In this case, the positional deviation determination unit 2322C performs the above determination process on the generated positional deviation information. That is, positional displacement is evaluated using a plurality of spectral fundus images for which positional displacement information is generated.

実施形態に係る位置ずれの判定処理は、上記の例に限定されるものではない。また、位置ずれ処理部232Cが実行する処理は、位置ずれ情報生成部2321Cにより生成された位置ずれ情報に基づく処理に限定されない。 The positional deviation determination process according to the embodiment is not limited to the above example. Further, the processing executed by the positional deviation processing section 232C is not limited to processing based on the positional deviation information generated by the positional deviation information generating section 2321C.

制御部210(主制御部211)は、位置ずれ判定部2322Cにより得られた判定結果に基づいて、複数の分光眼底画像の一部又は全部の再取得を実行させる。例えば、制御部210は、複数の分光眼底画像の位置ずれが大きいと判定されたとき複数の分光眼底画像のすべてを再取得させる。 The control unit 210 (main control unit 211) causes re-acquisition of part or all of the plurality of spectral fundus images based on the determination result obtained by the positional deviation determination unit 2322C. For example, the control unit 210 reacquires all of the spectral fundus images when it is determined that the positional deviation of the spectral fundus images is large.

また、各分光眼底画像について位置ずれが大きいか否かの判定結果が得られた場合において、例えば、制御部210は、位置ずれが大きいと判定された分光眼底画像だけを再取得させることができる。例えば、制御部210は、位置ずれが大きいと判定された分光眼底画像の第1波長範囲を含む第2波長範囲に対応した複数の分光眼底画像(隣接する分光眼底画像を含む)を再取得させることができる。 Further, when a determination result is obtained as to whether or not the positional deviation is large for each spectral fundus image, for example, the control unit 210 can reacquire only the spectral fundus image determined to have a large positional deviation. . For example, the control unit 210 reacquires a plurality of spectral fundus images (including adjacent spectral fundus images) corresponding to a second wavelength range including the first wavelength range of the spectral fundus image determined to have a large positional shift. be able to.

いくつかの実施形態では、位置ずれが大きいと判定された分光眼底画像の数が所定の閾値以上のとき、制御部210は、複数の分光眼底画像の一部又は全部の再取得を実行させる。 In some embodiments, when the number of spectral fundus images determined to have a large positional shift is equal to or greater than a predetermined threshold, the control unit 210 reacquires some or all of the plurality of spectral fundus images.

〈画質処理部232D〉
画質処理部232Dは、取得された複数の分光眼底画像の画質の評価処理を行う。具体的には、画質処理部232Dは、取得された複数の分光眼底画像の画質の評価値を算出する。画質処理部232Dは、算出された評価値に基づいて画質の良否(高画質であるか否か)を判定する。画質が良好ではないと判定されたとき、制御部210は、複数の分光眼底画像の一部又は全部を再取得させる。
<Image quality processing unit 232D>
The image quality processing unit 232D performs image quality evaluation processing of the plurality of acquired spectral fundus images. Specifically, the image quality processing unit 232D calculates evaluation values of the image quality of the plurality of acquired spectral fundus images. The image quality processing unit 232D determines quality of image quality (whether the image quality is high or not) based on the calculated evaluation value. When it is determined that the image quality is not good, the control unit 210 causes reacquisition of part or all of the plurality of spectral fundus images.

画質処理部232Dは、図6に示すように、画質評価値算出部2321Dと、画質判定部2322Dとを含む。 As shown in FIG. 6, the image quality processing section 232D includes an image quality evaluation value calculation section 2321D and an image quality determination section 2322D.

〈画質評価値算出部2321D〉
画質評価値算出部2321Dは、分光眼底画像の画質の評価値を算出する。いくつかの実施形態では、画質評価値算出部2321Dは、複数の分光眼底画像の画質を定量的に表す評価値を算出する。
<Image quality evaluation value calculation unit 2321D>
The image quality evaluation value calculation unit 2321D calculates the evaluation value of the image quality of the spectral fundus image. In some embodiments, the image quality evaluation value calculator 2321D calculates an evaluation value that quantitatively represents the image quality of a plurality of spectral fundus images.

画質評価値算出部2321Dによる画質評価値算出処理は任意の処理であってよい。画質評価値算出処理の例として、信号対雑音比(SNR)、コントラスト対雑音比(CNR)、二乗平均平方根(RMS)粒状度、ウィーナースペクトル(Wiener Spectrum)、変調伝達関数(MTF)、品質指標(Quality Index;QI)など、任意の公知技術を利用した処理がある。 The image quality evaluation value calculation processing by the image quality evaluation value calculation unit 2321D may be arbitrary processing. Examples of image quality evaluation value calculation processing include signal-to-noise ratio (SNR), contrast-to-noise ratio (CNR), root-mean-square (RMS) granularity, Wiener spectrum, modulation transfer function (MTF), and quality index. (Quality Index; QI) and other processing using any known technique.

評価値は、画像の品質を定量的に表現する任意のパラメータであってよく、典型的には、画像の品質が高いほど評価値も大きくなる。 The evaluation value may be any parameter that quantitatively expresses the quality of the image, and typically the higher the quality of the image, the higher the evaluation value.

例えば、画質評価値算出部2321Dは、分光眼底画像に対して、評価値としてImage Quality値(IQ値)を算出する。この場合、画質評価値算出部2321Dは、評価対象の画像に設定された評価領域に対して所定の解析処理を適用することにより、所定の組織(部位)に相当する画像領域(組織画像領域)と、それ以外の画像領域(背景領域、非組織画像領域)とを検出する。次に、画質評価値算出部2321Dは、組織画像領域における輝度のヒストグラムを生成し、且つ、背景領域における輝度のヒストグラムを生成する。続いて、画質評価値算出部2321Dは、これら2つのヒストグラムの重なり具合から画質評価値(IQ値)を算出する。例えば、双方のヒストグラムが完全に重なっている場合にはIQ値=0となり、双方のヒストグラムが完全に分離している場合にはIQ値=100となるように、“0”~“100”の範囲においてIQ値が定義される。この画質評価演算は、例えば、2つのヒストグラムの正規化、確率分布関数の生成、所定の演算式を用いたIQ値の算出などを含んでいてよい。 For example, the image quality evaluation value calculation unit 2321D calculates an image quality value (IQ value) as an evaluation value for the spectral fundus image. In this case, the image quality evaluation value calculation unit 2321D applies predetermined analysis processing to the evaluation region set in the image to be evaluated, thereby obtaining an image region (tissue image region) corresponding to a predetermined tissue (site). and other image areas (background area, non-tissue image area). Next, the image quality evaluation value calculator 2321D generates a luminance histogram in the tissue image region and a luminance histogram in the background region. Subsequently, the image quality evaluation value calculation unit 2321D calculates an image quality evaluation value (IQ value) from the degree of overlap of these two histograms. For example, the IQ value is 0 when both histograms are completely overlapped, and the IQ value is 100 when both histograms are completely separated. IQ values are defined in ranges. This image quality evaluation calculation may include, for example, normalization of two histograms, generation of a probability distribution function, calculation of an IQ value using a predetermined calculation formula, and the like.

このように、画質評価値算出部2321Dは、評価対象の画像において所定の組織に相当する組織画像領域と、背景領域とを特定する処理と、組織画像領域における輝度の度数分布を示す第1ヒストグラムを作成する処理と、背景領域における輝度の度数分布を示す第2ヒストグラムとを作成する処理と、第1ヒストグラム及び第2ヒストグラムに基づいて画質評価データとしての画質評価値(IQ値)を算出する処理とを実行するように構成される。 In this way, the image quality evaluation value calculation unit 2321D performs the process of identifying the tissue image region corresponding to the predetermined tissue and the background region in the image to be evaluated, and the first histogram showing the frequency distribution of the luminance in the tissue image region. , a process of creating a second histogram indicating the frequency distribution of luminance in the background area, and an image quality evaluation value (IQ value) as image quality evaluation data based on the first histogram and the second histogram. configured to perform a process;

実施形態に係る画質の評価値の算出処理は、上記の例に限定されるものではない。 The image quality evaluation value calculation process according to the embodiment is not limited to the above example.

〈画質判定部2322D〉
画質判定部2322Dは、画質評価値算出部2321Dにより算出された評価値に基づいて、複数の分光眼底画像の少なくとも1つの画質の良否を判定する。いくつかの実施形態では、画質判定部2322Dは、算出された評価値に基づいて、複数の分光眼底画像を画像群として当該画像群の良否を判定する。
<Image quality determination unit 2322D>
The image quality determination unit 2322D determines quality of at least one of the plurality of spectral fundus images based on the evaluation value calculated by the image quality evaluation value calculation unit 2321D. In some embodiments, the image quality determination unit 2322D determines the quality of a group of images, based on the calculated evaluation value, with a plurality of spectral fundus images as an image group.

例えば、各分光眼底画像についてIQ値が得られた場合において、画質判定部2322Dは、複数の分光眼底画像について得られた複数のIQ値のそれぞれを所定の閾値と比較する。複数のIQ値のすべてが閾値以上である場合、画質判定部2322Dは、複数の分光眼底画像(画像群)の品質は良好であると判定する。一方、複数のIQ値のいずれかが閾値未満である場合、画質判定部2322Dは、複数の分光眼底画像(画像群)の品質は良好でないと判定する。 For example, when an IQ value is obtained for each spectral fundus image, the image quality determination unit 2322D compares each of the plurality of IQ values obtained for the plurality of spectral fundus images with a predetermined threshold. When all of the multiple IQ values are equal to or greater than the threshold, the image quality determination unit 2322D determines that the quality of the multiple spectral fundus images (image group) is good. On the other hand, if any of the multiple IQ values is less than the threshold, the image quality determination unit 2322D determines that the quality of the multiple spectral fundus images (image group) is not good.

例えば、各分光眼底画像についてIQ値が得られた場合において、画質判定部2322Dは、複数の分光眼底画像について得られた複数のIQ値のうち最も低いIQ値を選択し、この最低IQ値を所定の閾値と比較する。最低IQ値が閾値以上である場合、画質判定部2322Dは、複数の分光眼底画像(画像群)の品質は良好であると判定する。一方、最低IQ値が閾値未満である場合、画質判定部2322Dは、複数の分光眼底画像(画像群)の品質は良好でないと判定する。 For example, when an IQ value is obtained for each spectral fundus image, the image quality determination unit 2322D selects the lowest IQ value among the plurality of IQ values obtained for the plurality of spectral fundus images, and determines the lowest IQ value. Compare with a predetermined threshold. When the minimum IQ value is equal to or greater than the threshold, the image quality determination unit 2322D determines that the quality of the plurality of spectral fundus images (image group) is good. On the other hand, when the lowest IQ value is less than the threshold, the image quality determination unit 2322D determines that the quality of the plurality of spectral fundus images (image group) is not good.

例えば、各分光眼底画像についてIQ値が得られた場合において、画質判定部2322Dは、複数の分光眼底画像について得られた複数のIQ値に所定の統計演算を適用して統計値を算出する。この統計値の種類は任意であってよく、例えば、平均値、最小値、最大値、最頻値、中間値などであってよい。なお、統計値が最小値であるケースは、上記の例に相当する。画質判定部2322Dは、算出された統計値を所定の閾値と比較する。統計値が閾値以上である場合、画質判定部2322Dは、複数の分光眼底画像(画像群)の品質は良好であると判定する。一方、統計値が閾値未満である場合、画質判定部2322Dは、複数の分光眼底画像(画像群)の品質は良好でないと判定する。 For example, when an IQ value is obtained for each spectral fundus image, the image quality determination unit 2322D calculates a statistical value by applying a predetermined statistical operation to the plurality of IQ values obtained for the plurality of spectral fundus images. The type of statistical value may be arbitrary, and may be, for example, average value, minimum value, maximum value, mode value, median value, and the like. Note that the case where the statistical value is the minimum value corresponds to the above example. The image quality determination unit 2322D compares the calculated statistical value with a predetermined threshold. When the statistical value is equal to or greater than the threshold, the image quality determination unit 2322D determines that the quality of the plurality of spectral fundus images (image group) is good. On the other hand, if the statistical value is less than the threshold, the image quality determination unit 2322D determines that the quality of the plurality of spectral fundus images (image group) is not good.

例えば、各分光眼底画像についてIQ値が得られた場合において、画質判定部2322Dは、複数の分光眼底画像の代表画像について得られた1以上のIQ値のそれぞれを所定の閾値と比較する。代表画像の例として、複数の分光眼底画像のうち最も波長が短い波長範囲の分光眼底画像、複数の分光眼底画像のうち最も波長が長い波長範囲の分光眼底画像、複数の分光眼底画像のうち解析波長範囲の略中間付近の波長範囲の分光眼底画像、複数の分光眼底画像のうち所定の特徴部位が最も鮮明に(コントラストが高く)描出された分光眼底画像などがある。1以上のIQ値のすべてが閾値以上である場合、画質判定部2322Dは、複数の分光眼底画像(画像群)の品質は良好であると判定する。一方、1以上のIQ値のいずれかが閾値未満である場合、画質判定部2322Dは、複数の分光眼底画像(画像群)の品質は良好でないと判定する。 For example, when an IQ value is obtained for each spectral fundus image, the image quality determination unit 2322D compares each of one or more IQ values obtained for a representative image of a plurality of spectral fundus images with a predetermined threshold. Examples of representative images include a spectral fundus image in the wavelength range with the shortest wavelength among the plurality of spectral fundus images, a spectral fundus image in the wavelength range with the longest wavelength among the plurality of spectral fundus images, and an analysis of the plurality of spectral fundus images. There are a spectral fundus image in a wavelength range near the middle of the wavelength range, a spectral fundus image in which a predetermined characteristic region is most clearly rendered (high contrast) among a plurality of spectral fundus images, and the like. When all of the IQ values of 1 or more are equal to or greater than the threshold, the image quality determination unit 2322D determines that the quality of the plurality of spectral fundus images (image group) is good. On the other hand, if any of the IQ values of 1 or more is less than the threshold, the image quality determination unit 2322D determines that the quality of the plurality of spectral fundus images (image group) is not good.

例えば、各分光眼底画像についてIQ値が得られた場合において、画質判定部2322Dは、複数の分光眼底画像の代表画像について得られた2以上のIQ値に所定の統計演算を適用して統計値を算出する。この統計値の種類は任意であってよく、例えば、平均値、最小値、最大値、最頻値、中間値などであってよい。画質判定部2322Dは、算出された統計値を所定の閾値と比較する。統計値が閾値以上である場合、画質判定部2322Dは、複数の分光眼底画像(画像群)の品質は良好であると判定する。一方、統計値が閾値未満である場合、画質判定部2322Dは、複数の分光眼底画像(画像群)の品質は良好でないと判定する。 For example, when an IQ value is obtained for each spectral fundus image, the image quality determination unit 2322D applies a predetermined statistical operation to two or more IQ values obtained for a representative image of a plurality of spectral fundus images to obtain a statistical value. Calculate The type of statistical value may be arbitrary, and may be, for example, average value, minimum value, maximum value, mode value, median value, and the like. The image quality determination unit 2322D compares the calculated statistical value with a predetermined threshold. When the statistical value is equal to or greater than the threshold, the image quality determination unit 2322D determines that the quality of the plurality of spectral fundus images (image group) is good. On the other hand, if the statistical value is less than the threshold, the image quality determination unit 2322D determines that the quality of the plurality of spectral fundus images (image group) is not good.

いくつかの実施形態では、画質評価値算出部2321Dは、複数の分光眼底画像から選択された一部の分光眼底画像について評価値を算出する。この場合、画質判定部2322Dは、算出された評価値に対して、上記の判定処理を行う。すなわち、評価値が算出された複数の分光眼底画像を用いて、画質が評価される。 In some embodiments, the image quality evaluation value calculation unit 2321D calculates evaluation values for some spectral fundus images selected from a plurality of spectral fundus images. In this case, the image quality determination section 2322D performs the above determination processing on the calculated evaluation value. That is, image quality is evaluated using a plurality of spectral fundus images for which evaluation values have been calculated.

実施形態に係る画質の判定処理は、上記の例に限定されるものではない。また、画質処理部232Dが実行する処理は、画質評価値算出部2321Dにより算出された評価値に基づく処理に限定されない。 The image quality determination process according to the embodiment is not limited to the above example. Further, the processing executed by the image quality processing section 232D is not limited to processing based on the evaluation value calculated by the image quality evaluation value calculation section 2321D.

制御部210(主制御部211)は、画質判定部2322Dにより得られた判定結果に基づいて、複数の分光眼底画像の一部又は全部の再取得を実行させる。例えば、制御部210は、複数の分光眼底画像の品質が良好ではないと判定されたとき複数の分光眼底画像のすべてを再取得させる。 The control unit 210 (main control unit 211) causes re-acquisition of part or all of the plurality of spectral fundus images based on the determination result obtained by the image quality determination unit 2322D. For example, the control unit 210 reacquires all of the spectral fundus images when it is determined that the quality of the spectral fundus images is not good.

また、各分光眼底画像についてIQ値が得られた場合、例えば、制御部210は、IQ値が閾値未満である分光眼底画像(IQ値に基づいて画質が良好ではないと判定された分光眼底画像)だけを再取得させることができる。例えば、制御部210は、IQ値が閾値未満である分光眼底画像の第1波長範囲を含む第2波長範囲に対応した複数の分光眼底画像(隣接する分光眼底画像を含む)を再取得させることができる。 Further, when the IQ value is obtained for each spectral fundus image, for example, the control unit 210 selects a spectral fundus image whose IQ value is less than a threshold value (a spectral fundus image determined to have poor image quality based on the IQ value). ) can be reacquired. For example, the control unit 210 reacquires a plurality of spectral fundus images (including adjacent spectral fundus images) corresponding to a second wavelength range including a first wavelength range of the spectral fundus images whose IQ values are less than the threshold. can be done.

いくつかの実施形態では、IQ値が閾値未満である分光眼底画像の数が所定の閾値以上のとき、制御部210は、複数の分光眼底画像の一部又は全部の再取得を実行させる。 In some embodiments, when the number of spectral fundus images whose IQ values are less than a threshold is equal to or greater than a predetermined threshold, the control unit 210 reacquire some or all of the plurality of spectral fundus images.

〈ユーザーインターフェイス240〉
ユーザーインターフェイス240は表示部240Aと操作部240Bとを含む。表示部240Aは表示装置3を含む。操作部240Bは各種の操作デバイスや入力デバイスを含む。
<User Interface 240>
User interface 240 includes a display section 240A and an operation section 240B. Display unit 240A includes display device 3 . The operation unit 240B includes various operation devices and input devices.

ユーザーインターフェイス240は、例えばタッチパネルのような表示機能と操作機能とが一体となったデバイスを含んでいてもよい。他の実施形態において、ユーザーインターフェイスの少なくとも一部が眼科装置に含まれていなくてよい。例えば、表示デバイスは、眼科装置に接続された外部装置であってよい。 The user interface 240 may include a device, such as a touch panel, that combines a display function and an operation function. In other embodiments, at least a portion of the user interface may not be included on the ophthalmic device. For example, the display device may be an external device connected to the ophthalmic equipment.

〈通信部250〉
通信部250は、図示しない外部装置と通信するための機能を有する。通信部250は、外部装置との接続形態に応じた通信インターフェイスを備える。外部装置の例として、サーバ装置、OCT装置、走査型レーザー検眼鏡、スリットランプ検眼鏡、眼科測定装置、眼科治療装置などがある。眼科測定装置の例として、眼屈折検査装置、眼圧計、スペキュラーマイクロスコープ、ウェーブフロントアナライザ、視野計、マイクロペリメータなどがある。眼科治療装置の例として、レーザー治療装置、手術装置、手術用顕微鏡などがある。また、外部装置は、記録媒体から情報を読み取る装置(リーダ)や、記録媒体に情報を書き込む装置(ライタ)などでもよい。更に、外部装置は、病院情報システム(HIS)サーバ、DICOM(Digital Imaging and COmmunication in Medicine)サーバ、医師端末、モバイル端末、個人端末、クラウドサーバなどでもよい。
<Communication unit 250>
The communication unit 250 has a function for communicating with an external device (not shown). The communication unit 250 has a communication interface according to a connection form with an external device. Examples of external devices include server devices, OCT devices, scanning laser ophthalmoscopes, slit lamp ophthalmoscopes, ophthalmic measurement devices, and ophthalmic treatment devices. Examples of ophthalmic measurement devices include eye refractometers, tonometers, specular microscopes, wavefront analyzers, perimeters, microperimeters, and the like. Examples of ophthalmic treatment devices include laser treatment devices, surgical devices, surgical microscopes, and the like. The external device may be a device (reader) that reads information from a recording medium, or a device (writer) that writes information to a recording medium. Furthermore, the external device may be a hospital information system (HIS) server, a DICOM (Digital Imaging and Communication in Medicine) server, a doctor terminal, a mobile terminal, a personal terminal, a cloud server, or the like.

演算制御ユニット200(制御部210、画像形成部220、及びデータ処理部230)は、実施形態に係る「眼科情報処理装置」の一例である。複数の分光眼底画像(分光画像)は、実施形態に係る「被検眼からの互いに波長範囲が異なる戻り光を順次に受光して得られた被検眼の複数の画像」の一例である。被検眼の複数の分光画像を図示しない通信機能により取得する構成、又は眼底カメラユニット2(照明光学系10、撮影光学系30)は、実施形態に係る「取得部」の一例である。位置合わせ処理部231は、実施形態に係る「位置合わせ部」の一例である。en-face画像又はCスキャン画像は、実施形態に係る「OCT正面画像」の一例である。位置ずれ判定部2322Cは、実施形態に係る「第1判定部」の一例である。画質評価値算出部2321Dは、実施形態に係る「品質評価部」の一例である。画質判定部2322Dは、実施形態に係る「第2判定部」の一例である。撮影光学系30は、実施形態に係る「受光光学系」の一例である。OCTユニット100から対物レンズ22までの光学系は、実施形態に係る「OCT光学系」の一例である。 The arithmetic control unit 200 (the control section 210, the image forming section 220, and the data processing section 230) is an example of the "ophthalmic information processing apparatus" according to the embodiment. A plurality of spectroscopic fundus images (spectral images) is an example of "a plurality of images of an eye to be examined obtained by sequentially receiving return light from the eye to be examined in different wavelength ranges" according to the embodiment. A configuration that acquires a plurality of spectral images of an eye to be inspected using a communication function (not shown) or the retinal camera unit 2 (illumination optical system 10, imaging optical system 30) is an example of the "acquisition unit" according to the embodiment. The alignment processing unit 231 is an example of the "alignment unit" according to the embodiment. An en-face image or a C-scan image is an example of an "OCT frontal image" according to embodiments. The positional deviation determination section 2322C is an example of the "first determination section" according to the embodiment. The image quality evaluation value calculation unit 2321D is an example of the "quality evaluation unit" according to the embodiment. The image quality determination unit 2322D is an example of the "second determination unit" according to the embodiment. The imaging optical system 30 is an example of a "light receiving optical system" according to the embodiment. The optical system from the OCT unit 100 to the objective lens 22 is an example of the "OCT optical system" according to the embodiment.

〈動作〉
眼科装置1の動作例について説明する。
<motion>
An operation example of the ophthalmologic apparatus 1 will be described.

図7~図9に、実施形態に係る眼科装置1の動作例を示す。図7は、眼科装置1の動作例のフロー図を表す。図8は、図7のステップS8の動作例のフロー図を表す。図9は、図7のステップS8の他の動作例のフロー図を表す。 7 to 9 show an operation example of the ophthalmologic apparatus 1 according to the embodiment. FIG. 7 represents a flow diagram of an operation example of the ophthalmologic apparatus 1 . FIG. 8 shows a flow diagram of an example of the operation of step S8 in FIG. FIG. 9 shows a flowchart of another operation example of step S8 in FIG.

記憶部212には、図7~図9に示す処理を実現するためのコンピュータプログラムが記憶されている。主制御部211は、このコンピュータプログラムに従って動作することにより、図7~図9に示す処理を実行する。 The storage unit 212 stores computer programs for realizing the processes shown in FIGS. The main control unit 211 executes the processes shown in FIGS. 7 to 9 by operating according to this computer program.

(S1:アライメント)
まず、主制御部211は、アライメントを実行する。
(S1: Alignment)
First, the main controller 211 executes alignment.

例えば、主制御部211は、前眼部カメラ5A及び5Bを制御して、実質的に同時に被検眼Eの前眼部Eaを撮影する。特徴部位特定部232Aは、主制御部211からの制御を受け、前眼部カメラ5A及び5Bにより実質的に同時に取得された一対の前眼部像を解析して特徴部位として被検眼Eの瞳孔中心位置を特定する。3次元位置算出部232Bは、被検眼Eの3次元位置を求める。この処理は、例えば、特開2013-248376号公報に記載のように、一対の前眼部カメラ5A及び5Bと被検眼Eとの位置関係に基づく三角法を利用した演算処理を含む。 For example, the main control unit 211 controls the anterior eye cameras 5A and 5B to photograph the anterior eye Ea of the subject's eye E substantially simultaneously. The characteristic site identification unit 232A receives control from the main control unit 211, analyzes the pair of anterior segment images obtained substantially simultaneously by the anterior segment cameras 5A and 5B, and identifies the pupil of the subject's eye E as a characteristic site. Identify the center position. The three-dimensional position calculator 232B obtains the three-dimensional position of the eye E to be examined. This processing includes arithmetic processing using trigonometry based on the positional relationship between the pair of anterior eye cameras 5A and 5B and the subject's eye E, as described in Japanese Patent Application Laid-Open No. 2013-248376, for example.

主制御部211は、光学系(例えば眼底カメラユニット2)と被検眼Eとが所定の位置関係となるように、3次元位置算出部232Bにより求められた被検眼Eの3次元位置に基づき移動機構150を制御する。ここで、所定の位置関係は、光学系を用いて被検眼Eの撮影や検査を実行可能な位置関係である。典型例として、3次元位置算出部232Bにより被検眼Eの3次元位置(x座標、y座標、z座標)が得られた場合、対物レンズ22の光軸のx座標及びy座標が被検眼Eのx座標及びy座標にそれぞれ一致し、且つ、対物レンズ22(前側レンズ面)のz座標と被検眼E(角膜表面)のz座標との差が所定距離(ワーキングディスタンス)に等しくなる位置が、光学系の移動先として設定される。 The main control unit 211 moves based on the three-dimensional position of the subject's eye E obtained by the three-dimensional position calculator 232B so that the optical system (for example, the fundus camera unit 2) and the subject's eye E have a predetermined positional relationship. Control mechanism 150 . Here, the predetermined positional relationship is a positional relationship that enables imaging and examination of the subject's eye E using an optical system. As a typical example, when the three-dimensional position (x-coordinate, y-coordinate, z-coordinate) of the eye E to be examined is obtained by the three-dimensional position calculator 232B, the x-coordinate and y-coordinate of the optical axis of the objective lens 22 are the eye E and the difference between the z-coordinate of the objective lens 22 (front lens surface) and the z-coordinate of the eye to be examined E (corneal surface) is equal to a predetermined distance (working distance) , is set as the destination of the optical system.

(S2:オートフォーカス)
続いて、主制御部211は、オートフォーカスを開始する。
(S2: Autofocus)
Subsequently, the main controller 211 starts autofocus.

例えば、主制御部211は、フォーカス光学系60を制御して被検眼Eにスプリット指標を投影させる。解析部232は、主制御部211からの制御を受け、スプリット指標が投影されている眼底Efの観察画像を解析することにより、一対のスプリット指標像を抽出し、一対のスプリット指標の相対的なずれを算出する。主制御部211は、算出されたずれ(ずれ方向、ずれ量)に基づいて合焦駆動部31Aや合焦駆動部43Aを制御する。 For example, the main controller 211 controls the focus optical system 60 to project the split index on the eye E to be examined. Under the control of the main control unit 211, the analysis unit 232 extracts a pair of split index images by analyzing the observed image of the fundus oculi Ef on which the split indices are projected, and calculates the relative relationship between the pair of split indices. Calculate the deviation. The main control unit 211 controls the focus driving unit 31A and the focus driving unit 43A based on the calculated deviation (direction of deviation, amount of deviation).

(S3:OCT計測)
次に、主制御部211は、OCT計測を実行する。
(S3: OCT measurement)
Next, the main controller 211 executes OCT measurement.

例えば、主制御部211は、LCD39を制御して固視標を被検眼Eに提示させる。続いて、主制御部211は、OCT計測が開始されるように、光スキャナ42及びOCTユニット100を制御する。OCT計測が開始されると、OCTユニット100は、各スキャンで収集されたデータを画像形成部220に送る。画像形成部220は、各スキャンにて収集されたデータから複数のBスキャン像を形成し、制御部210に送る。制御部210は、各スキャンに対応する複数のBスキャン像をデータ処理部230に送る。例えば、データ処理部230は、各スキャンに対応する複数のBスキャン像から3次元画像を形成する。 For example, the main control unit 211 controls the LCD 39 to present the eye E to be examined with the fixation target. Subsequently, the main controller 211 controls the optical scanner 42 and the OCT unit 100 so that OCT measurement is started. Once the OCT measurement is started, the OCT unit 100 sends the data collected in each scan to the imager 220 . The image forming section 220 forms a plurality of B-scan images from the data collected in each scan and sends them to the control section 210 . Control unit 210 sends a plurality of B-scan images corresponding to each scan to data processing unit 230 . For example, data processor 230 forms a three-dimensional image from a plurality of B-scan images corresponding to each scan.

(S4:波長範囲を設定)
次に、主制御部211は、波長可変フィルタ80を制御して、透過光の波長選択範囲を所定の波長範囲に設定する。所定の波長範囲の例として、解析波長範囲を網羅するように波長範囲の選択を順次に繰り返すときの初期波長範囲がある。
(S4: Set wavelength range)
Next, the main controller 211 controls the wavelength tunable filter 80 to set the wavelength selection range of transmitted light to a predetermined wavelength range. An example of a predetermined wavelength range is an initial wavelength range when sequentially repeating the selection of wavelength ranges to cover the analysis wavelength range.

(S5:画像データを取得)
次に、主制御部211は、分光眼底画像の画像データを取得させる。
(S5: Acquire image data)
Next, the main control unit 211 causes the image data of the spectral fundus image to be acquired.

例えば、主制御部211は、照明光学系10を制御して照明光で被検眼Eを照明させ、イメージセンサ38により得られた照明光の反射光の受光結果を取り込み、分光眼底画像の画像データを取得させる。 For example, the main control unit 211 controls the illumination optical system 10 to illuminate the subject's eye E with illumination light, captures the light reception result of the reflected light of the illumination light obtained by the image sensor 38, and obtains the image data of the spectral fundus image. get

(S6:次?)
続いて、主制御部211は、次の波長範囲で分光眼底画像の取得を行うか否かを判定する。例えば、解析波長範囲内を所定の波長範囲ステップで波長選択を順次に変更する場合に、主制御部211は、波長範囲の変更回数に基づいて次の分光眼底画像の取得を行うか否かを判定することができる。例えば、主制御部211は、あらかじめ決められた複数の波長範囲のすべてが選択されたか否かを判別することで次の分光眼底画像の取得を行うか否かを判定することができる。
(S6: next?)
Subsequently, the main control unit 211 determines whether or not to acquire a spectral fundus image in the next wavelength range. For example, when wavelength selection is sequentially changed in predetermined wavelength range steps within the analysis wavelength range, the main control unit 211 determines whether or not to acquire the next spectral fundus image based on the number of times the wavelength range has been changed. can judge. For example, the main control unit 211 can determine whether or not to acquire the next spectral fundus image by determining whether or not all of a plurality of predetermined wavelength ranges have been selected.

ステップS6において、次の分光眼底画像の取得を行うと判定されたとき(ステップS6:Y)、眼科装置1の動作はステップS7に移行する。ステップS6において、次の分光眼底画像の取得を行わないと判定されたとき(ステップS6:N)、眼科装置1の動作はステップS8に移行する。 When it is determined in step S6 that the next spectral fundus image is to be obtained (step S6: Y), the operation of the ophthalmologic apparatus 1 proceeds to step S7. In step S6, when it is determined not to acquire the next spectral fundus image (step S6: N), the operation of the ophthalmologic apparatus 1 proceeds to step S8.

(S7:波長範囲を変更)
ステップS6において次の分光眼底画像の取得を行うと判定されたとき(ステップS6:Y)、主制御部211は、波長可変フィルタ80を制御して、次に選択すべき透過光の選択範囲を変更する。続いて、眼科装置1の動作は、ステップS5に移行する。
(S7: Change wavelength range)
When it is determined in step S6 that the next spectral fundus image is to be acquired (step S6: Y), the main control unit 211 controls the wavelength tunable filter 80 to select the range of transmitted light to be selected next. change. Subsequently, the operation of the ophthalmologic apparatus 1 proceeds to step S5.

(S8:再撮影処理)
ステップS6において次の分光眼底画像の取得を行わないと判定されたとき(ステップS6:N)、主制御部211は、再撮影処理を実行し、必要に応じて、分光眼底画像の再取得を行う。ステップS8の詳細は、後述する。
(S8: re-shooting process)
When it is determined in step S6 that the next spectral fundus image will not be acquired (step S6: N), the main control unit 211 executes re-capturing processing, and if necessary, re-acquires the spectral fundus image. conduct. Details of step S8 will be described later.

ステップS8に続いて、眼科装置1の動作は終了である(エンド)。 Following step S8, the operation of the ophthalmologic apparatus 1 ends (end).

例えば、ステップS8では、複数の分光眼底画像の位置ずれを評価することで分光眼底画像の再取得を行うか否かを決定する処理(図8)、又は、複数の分光眼底画像の画質を評価することで分光眼底画像の再取得を行うか否かを決定する処理(図9)が実行される。 For example, in step S8, a process of determining whether or not to reacquire the spectral fundus images by evaluating the positional deviation of the plurality of spectral fundus images (FIG. 8), or evaluating the image quality of the plurality of spectral fundus images. By doing so, the process (FIG. 9) of determining whether or not to reacquire the spectral fundus image is executed.

まず、図8に示すように、複数の分光眼底画像の位置ずれを評価する場合について説明する。 First, as shown in FIG. 8, the case of evaluating the positional deviation of a plurality of spectral fundus images will be described.

(S11:位置合わせ)
図7に示すフローに従って、所定の解析波長範囲内の複数の分光眼底画像が取得されると、主制御部211は、位置合わせ処理部231を制御して、ステップS3において取得されたOCTデータに基づいて複数の分光眼底画像の位置合わせ処理を実行させる。
(S11: alignment)
When a plurality of spectral fundus images within a predetermined analysis wavelength range are acquired according to the flow shown in FIG. Alignment processing of a plurality of spectral fundus images is executed based on the above.

OCTデータは、ステップS3において取得された干渉光の検出結果、Bスキャン画像、又はen-face画像であってよい。 The OCT data may be the result of interference light detection acquired in step S3, a B-scan image, or an en-face image.

(S12:位置ずれ情報を生成)
続いて、主制御部211は、位置ずれ情報生成部2321Cを制御して、ステップS11において位置合わせ処理が行われた複数の分光眼底画像の位置ずれ情報を生成させる。
(S12: Generate misalignment information)
Subsequently, the main control unit 211 controls the positional displacement information generating unit 2321C to generate the positional displacement information of the plurality of spectral fundus images for which the alignment processing has been performed in step S11.

(S13:再取得?)
次に、主制御部211は、位置ずれ判定部2322Cを制御して、ステップS12において生成された位置ずれ情報に基づいて、複数の分光眼底画像の位置ずれが大きいか否かを判定させる。主制御部211は、位置ずれ判定部2322Cにより複数の分光眼底画像の位置ずれが大きいと判定されたとき、複数の分光眼底画像の一部又は全部を再取得させる。再取得される分光眼底画像は、位置ずれが大きいと判定された分光眼底画像、又は位置ずれが大きいと判定された分光眼底画像を含む2以上の分光眼底画像であってよい。
(S13: Reacquisition?)
Next, the main control unit 211 controls the positional displacement determination unit 2322C to determine whether or not the positional displacement of the plurality of spectral fundus images is large based on the positional displacement information generated in step S12. The main control unit 211 reacquires part or all of the plurality of spectral fundus images when the positional displacement determination unit 2322C determines that the positional displacement of the plurality of spectral fundus images is large. The reacquired spectral fundus image may be the spectral fundus image determined to have a large positional shift, or two or more spectral fundus images including the spectral fundus image determined to have a large positional shift.

ステップS13において位置ずれが大きいと判定されたとき(ステップS13:Y)、ステップS8の処理はステップS14に移行する。ステップS13において位置ずれが大きくないと判定されたとき(ステップS13:N)、ステップS8の処理は終了である(エンド)。 When it is determined in step S13 that the positional deviation is large (step S13: Y), the process of step S8 proceeds to step S14. When it is determined in step S13 that the positional deviation is not large (step S13: N), the process of step S8 ends (end).

(S14:波長範囲を設定)
ステップS13において位置ずれが大きいと判定されたとき(ステップS13:Y)、主制御部211は、波長可変フィルタ80を制御して、透過光の波長選択範囲を、再取得する分光眼底画像に対応した波長範囲に設定する。
(S14: Set wavelength range)
When it is determined in step S13 that the positional deviation is large (step S13: Y), the main control unit 211 controls the wavelength tunable filter 80 so that the wavelength selection range of the transmitted light corresponds to the spectral fundus image to be reacquired. set to the specified wavelength range.

(S15:画像データを取得)
次に、主制御部211は、ステップS5と同様に、分光眼底画像の画像データを取得させる。
(S15: Acquire image data)
Next, the main control unit 211 acquires the image data of the spectral fundus image as in step S5.

(S16:次?)
続いて、主制御部211は、次の波長範囲で分光眼底画像の再取得を行うか否かを判定する。
(S16: next?)
Subsequently, the main control unit 211 determines whether or not to reacquire the spectral fundus image in the next wavelength range.

ステップS16において、次の分光眼底画像の再取得を行うと判定されたとき(ステップS16:Y)、ステップS8の処理はステップS17に移行する。ステップS16において、次の分光眼底画像の再取得を行わないと判定されたとき(ステップS16:N)、ステップS8の処理は終了である(エンド)。 When it is determined in step S16 that the next spectral fundus image is to be reacquired (step S16: Y), the process of step S8 proceeds to step S17. When it is determined in step S16 that the next spectroscopic fundus image is not to be reacquired (step S16: N), the process of step S8 ends (end).

(S17:波長範囲を変更)
ステップS16において次の分光眼底画像の再取得を行うと判定されたとき(ステップS16:Y)、主制御部211は、波長可変フィルタ80を制御して、次に選択すべき透過光の選択範囲を変更する。続いて、ステップS8の処理は、ステップS15に移行する。
(S17: Change wavelength range)
When it is determined in step S16 that the next spectral fundus image is to be reacquired (step S16: Y), the main control unit 211 controls the wavelength tunable filter 80 to select the range of transmitted light to be selected next. to change Subsequently, the process of step S8 proceeds to step S15.

次に、図9に示すように、複数の分光眼底画像の画質ずれを評価する場合について説明する。 Next, as shown in FIG. 9, a case of evaluating image quality deviations of a plurality of spectral fundus images will be described.

(S21:位置合わせ)
図7に示すフローに従って、所定の解析波長範囲内の複数の分光眼底画像が取得されると、主制御部211は、ステップS11と同様に、位置合わせ処理部231を制御して、ステップS3において取得されたOCTデータに基づいて複数の分光眼底画像の位置合わせ処理を実行させる。
(S21: alignment)
When a plurality of spectral fundus images within a predetermined analysis wavelength range are acquired according to the flow shown in FIG. Alignment processing of a plurality of spectral fundus images is executed based on the acquired OCT data.

(S22:画質評価値を算出)
続いて、主制御部211は、画質評価値算出部2321Dを制御して、ステップS11において位置合わせ処理が行われた複数の分光眼底画像の画質の評価値を算出させる。
(S22: Calculate image quality evaluation value)
Subsequently, the main control unit 211 controls the image quality evaluation value calculation unit 2321D to calculate the image quality evaluation values of the plurality of spectral fundus images subjected to the alignment processing in step S11.

(S23:再取得?)
次に、主制御部211は、画質判定部2322Dを制御して、ステップS22において算出された評価値に基づいて、複数の分光眼底画像の画質の良否を判定させる。主制御部211は、画質判定部2322Dにより複数の分光眼底画像の画質が良好ではないと判定されたとき、複数の分光眼底画像の一部又は全部を再取得させる。再取得される分光眼底画像は、画質が良好ではないと判定された分光眼底画像、又は画質が良好ではないと判定された分光眼底画像を含む2以上の分光眼底画像であってよい。
(S23: Reacquisition?)
Next, the main control unit 211 controls the image quality determination unit 2322D to determine whether the image quality of the plurality of spectral fundus images is good or bad based on the evaluation value calculated in step S22. When the image quality determination unit 2322D determines that the image quality of the plurality of spectral fundus images is not good, the main control unit 211 reacquires some or all of the plurality of spectral fundus images. The reacquired spectral fundus image may be the spectral fundus image determined to have poor image quality, or two or more spectral fundus images including the spectral fundus image determined to have poor image quality.

ステップS23において画質が良好ではないと判定されたとき(ステップS23:Y)、ステップS8の処理はステップS24に移行する。ステップS23において画質が良好ではないと判定されたとき(ステップS23:N)、ステップS8の処理は終了である(エンド)。 When it is determined in step S23 that the image quality is not good (step S23: Y), the processing in step S8 proceeds to step S24. When it is determined in step S23 that the image quality is not good (step S23: N), the process of step S8 is terminated (END).

(S24:波長範囲を設定)
ステップS23において画質が良好ではないと判定されたとき(ステップS23:Y)、主制御部211は、波長可変フィルタ80を制御して、透過光の波長選択範囲を、再取得する分光眼底画像に対応した波長範囲に設定する。
(S24: Set wavelength range)
When it is determined in step S23 that the image quality is not good (step S23: Y), the main control unit 211 controls the wavelength tunable filter 80 to change the wavelength selection range of the transmitted light to the spectral fundus image to be reacquired. Set to the corresponding wavelength range.

(S25:画像データを取得)
次に、主制御部211は、ステップS15と同様に、分光眼底画像の画像データを取得させる。
(S25: Acquire image data)
Next, the main control unit 211 acquires the image data of the spectral fundus image as in step S15.

(S26:次?)
続いて、主制御部211は、次の波長範囲で分光眼底画像の再取得を行うか否かを判定する。
(S26: next?)
Subsequently, the main control unit 211 determines whether or not to reacquire the spectral fundus image in the next wavelength range.

ステップS26において、次の分光眼底画像の再取得を行うと判定されたとき(ステップS26:Y)、ステップS8の処理はステップS27に移行する。ステップS26において、次の分光眼底画像の再取得を行わないと判定されたとき(ステップS26:N)、ステップS8の処理は終了である(エンド)。 When it is determined in step S26 that the next spectral fundus image is to be reacquired (step S26: Y), the process of step S8 proceeds to step S27. When it is determined in step S26 that the next spectroscopic fundus image will not be reacquired (step S26: N), the process of step S8 ends (end).

(S27:波長範囲を変更)
ステップS26において次の分光眼底画像の再取得を行うと判定されたとき(ステップS26:Y)、主制御部211は、波長可変フィルタ80を制御して、次に選択すべき透過光の選択範囲を変更する。続いて、ステップS8の処理は、ステップS25に移行する。
(S27: Change wavelength range)
When it is determined in step S26 that the next spectral fundus image is to be reacquired (step S26: Y), the main control unit 211 controls the wavelength tunable filter 80 to select the range of transmitted light to be selected next. to change Subsequently, the process of step S8 proceeds to step S25.

〈作用〉
実施形態に係る眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラムについて説明する。
<Action>
An ophthalmologic information processing apparatus, an ophthalmologic apparatus, an ophthalmologic information processing method, and a program according to embodiments will be described.

いくつかの実施形態に係る眼科情報処理装置(制御部210、画像形成部220、及びデータ処理部230)は、取得部(被検眼の複数の分光画像を図示しない通信機能により取得する構成、又は眼底カメラユニット2(照明光学系10、撮影光学系30))と、位置合わせ部(位置合わせ処理部231)とを含む。取得部は、照明光で照明された被検眼(E)からの互いに波長範囲が異なる戻り光を順次に受光して得られた被検眼の複数の画像(分光画像、分光眼底画像、分光前眼部画像)を取得する。位置合わせ部は、被検眼に対して光コヒーレンストモグラフィを実行することにより得られたOCTデータに基づいて、複数の画像の位置合わせを行う。 The ophthalmologic information processing apparatus (the control unit 210, the image forming unit 220, and the data processing unit 230) according to some embodiments includes an acquisition unit (a configuration for acquiring a plurality of spectral images of the subject's eye using a communication function (not shown), or It includes a retinal camera unit 2 (illumination optical system 10, imaging optical system 30) and an alignment section (alignment processing section 231). The acquisition unit obtains a plurality of images of the eye (spectral image, spectral fundus image, spectral anterior eye image). The alignment unit aligns a plurality of images based on OCT data obtained by performing optical coherence tomography on the subject's eye.

このような構成によれば、複数の画像を取得する間に、固視ずれ及び被検眼と撮影部とのアライメントずれなどが生じた場合でも、画像間で分光特性を容易に比較することができるようになる。特に、OCTデータに基づいて位置合わせを行うことで、眼の奥行方向(深さ方向)の情報に基づいて画像間を高精度に位置合わせすることが可能になり、被検眼の観察部位における分光解析の精度を向上させることが可能になる。 According to such a configuration, spectral characteristics can be easily compared between images even when fixation dislocation and alignment misalignment between the subject's eye and the imaging unit occur while acquiring a plurality of images. become. In particular, by performing alignment based on OCT data, it becomes possible to perform highly accurate alignment between images based on information in the depth direction (depth direction) of the eye, and the spectroscopy at the observation site of the subject's eye becomes possible. It becomes possible to improve the accuracy of the analysis.

いくつかの実施形態では、OCTデータは、被検眼に対して光コヒーレンストモグラフィを実行することにより得られた干渉光の検出結果、Bスキャン画像、OCTA(OCT Angiography)画像、又はen-face画像である。 In some embodiments, the OCT data is the result of interference light detection, a B-scan image, an OCTA (OCT Angiography) image, or an en-face image obtained by performing optical coherence tomography on the eye to be examined. is.

このような構成によれば、既存の光学系で取得可能なOCTデータを用いて、簡便に、且つ、高精度に複数の画像の位置合わせを行うことができるようになる。 According to such a configuration, it is possible to easily and highly accurately align a plurality of images using OCT data that can be acquired with an existing optical system.

いくつかの実施形態では、位置合わせ部は、被検眼の画像とこの画像の波長範囲に対応した深さ位置におけるOCT正面画像との位置合わせを行う。 In some embodiments, the alignment unit aligns the image of the subject's eye with the OCT enface image at a depth position corresponding to the wavelength range of this image.

このような構成によれば、位置合わせ対象の画像の波長範囲に対応した深さ位置におけるOCT正面画像を基準に当該画像の位置合わせを行うようにしたので、高精度な位置合わせが可能になる。 According to such a configuration, since the images are aligned based on the OCT front image at the depth position corresponding to the wavelength range of the alignment target image, highly accurate alignment is possible. .

いくつかの実施形態は、複数の画像のうち第1画像と第2画像とを解析することにより第1画像と第2画像との間の位置ずれ情報を取得する位置ずれ情報生成部(2321C)を含む。 Some embodiments include a displacement information generator (2321C) that obtains displacement information between the first image and the second image by analyzing the first image and the second image among the plurality of images. including.

このような構成によれば、複数の画像を取得する間に、固視ずれ及び被検眼と撮影部とのアライメントずれなどが生じた場合に、複数の画像間の位置ずれを求めることで、取得された複数の画像の品質を定量的に評価することができるようになる。 According to such a configuration, when a fixation shift and misalignment between the subject's eye and the imaging unit occur while a plurality of images are being acquired, positional shift between the plurality of images can be obtained by obtaining the positional shift between the images. It becomes possible to quantitatively evaluate the quality of a plurality of captured images.

いくつかの実施形態は、位置ずれ情報に基づいて第1画像と第2画像との間の位置ずれが大きいか否かを判定する第1判定部(位置ずれ判定部2322C)を含み、第1判定部により得られた判定結果に基づいて、取得部は、第1画像又は第2画像を再取得する。 Some embodiments include a first determination unit (displacement determination unit 2322C) that determines whether the misalignment between the first image and the second image is large based on misalignment information. The acquisition unit reacquires the first image or the second image based on the determination result obtained by the determination unit.

このような構成によれば、位置ずれが小さい複数の画像を取得することが可能になり、被検眼の観察部位における分光解析の精度を向上させることが可能になる。 According to such a configuration, it is possible to acquire a plurality of images with small positional deviations, and it is possible to improve the accuracy of spectroscopic analysis of the observation site of the subject's eye.

いくつかの実施形態は、複数の画像の少なくとも1つの品質の評価値を算出する品質評価部(画質評価値算出部2321D)を含む。 Some embodiments include a quality evaluation unit (image quality evaluation value calculation unit 2321D) that calculates a quality evaluation value for at least one of a plurality of images.

このような構成によれば、複数の画像を取得する間に、固視ずれ及び被検眼と撮影部とのアライメントずれなどが生じた場合に、複数の画像の少なくとも1つの品質の評価値を算出することで、取得された複数の画像の品質を定量的に評価することができるようになる。 According to such a configuration, an evaluation value of at least one quality of a plurality of images is calculated when fixation dislocation and alignment misalignment between the subject's eye and the imaging unit occur while acquiring a plurality of images. By doing so, it becomes possible to quantitatively evaluate the quality of a plurality of acquired images.

いくつかの実施形態は、評価値に基づいて複数の画像の品質の良否を判定する第2判定部(画質判定部2322D)を含み、第2判定部により得られた判定結果に基づいて、取得部は、複数の画像の少なくとも1つ又は複数の画像の全部を再取得する。 Some embodiments include a second determination unit (image quality determination unit 2322D) that determines the quality of the plurality of images based on the evaluation value, and based on the determination result obtained by the second determination unit, the acquisition The unit reacquires at least one or all of the images of the plurality of images.

このような構成によれば、画質が良好な複数の画像を取得することが可能になり、被検眼の観察部位における分光解析の精度を向上させることが可能になる。 According to such a configuration, it is possible to acquire a plurality of images with good image quality, and it is possible to improve the accuracy of spectroscopic analysis of the observation site of the subject's eye.

いくつかの実施形態に係る眼科装置(1)は、照明光学系(10)と、受光光学系(撮影光学系30)と、OCT光学系(OCTユニット100から対物レンズ22までの光学系)と、上記のいずれかの眼科情報処理装置とを含む。照明光学系は、被検眼を照明光で照明する。受光光学系は、互いに波長範囲が異なる被検眼からの照明光の戻り光を順次に受光する。OCT光学系は、被検眼に対して光コヒーレンストモグラフィを実行する。取得部は、受光光学系により得られた受光結果に基づいて複数の画像を順次に取得する。 An ophthalmologic apparatus (1) according to some embodiments includes an illumination optical system (10), a light receiving optical system (imaging optical system 30), an OCT optical system (an optical system from an OCT unit 100 to an objective lens 22), and , and any one of the ophthalmological information processing devices described above. The illumination optical system illuminates the subject's eye with illumination light. The light-receiving optical system sequentially receives return light of illumination light from the subject's eye having different wavelength ranges. The OCT optical system performs optical coherence tomography on the subject's eye. The acquisition unit sequentially acquires a plurality of images based on the light reception result obtained by the light reception optical system.

このような構成によれば、複数の画像を取得する間に、固視ずれ及び被検眼と撮影部とのアライメントずれなどが生じた場合でも、眼の奥行方向(深さ方向)の情報に基づいて画像間を高精度に位置合わせすることが可能になり、被検眼の観察部位における分光解析の精度を向上させることが可能な眼科装置を提供することができるようになる。 According to such a configuration, even when a fixation shift or misalignment between the subject's eye and the imaging unit occurs while a plurality of images are being acquired, the image can be detected based on information in the depth direction (depth direction) of the eye. Therefore, it is possible to provide an ophthalmologic apparatus capable of improving the accuracy of spectroscopic analysis of the observation site of the subject's eye.

いくつかの実施形態に係る眼科情報処理方法は、取得ステップと、位置合わせステップとを含む。位置合わせステップは、照明光で照明された被検眼からの互いに波長範囲が異なる戻り光を順次に受光して得られた被検眼の複数の画像を取得する。位置合わせステップは、被検眼に対して光コヒーレンストモグラフィを実行することにより得られたOCTデータに基づいて、複数の画像の位置合わせを行う。 An ophthalmic information processing method according to some embodiments includes an acquisition step and an alignment step. The alignment step acquires a plurality of images of the eye to be inspected obtained by sequentially receiving return lights having different wavelength ranges from the eye to be inspected illuminated by the illumination light. The alignment step aligns a plurality of images based on OCT data obtained by performing optical coherence tomography on the subject's eye.

このような方法によれば、複数の画像を取得する間に、固視ずれ及び被検眼と撮影部とのアライメントずれなどが生じた場合でも、画像間で分光特性を容易に比較することができるようになる。特に、OCTデータに基づいて位置合わせを行うことで、眼の奥行方向(深さ方向)の情報に基づいて画像間を高精度に位置合わせすることが可能になり、被検眼の観察部位における分光解析の精度を向上させることが可能になる。 According to such a method, spectral characteristics can be easily compared between images even when fixation dislocation and alignment misalignment between the subject's eye and the imaging unit occur while acquiring a plurality of images. become. In particular, by performing alignment based on OCT data, it becomes possible to perform highly accurate alignment between images based on information in the depth direction (depth direction) of the eye, and the spectroscopy at the observation site of the subject's eye becomes possible. It becomes possible to improve the accuracy of the analysis.

いくつかの実施形態では、OCTデータは、被検眼に対して光コヒーレンストモグラフィを実行することにより得られた干渉光の検出結果、Bスキャン画像、OCTA(OCT Angiography)画像、又はen-face画像である。 In some embodiments, the OCT data is the result of interference light detection, a B-scan image, an OCTA (OCT Angiography) image, or an en-face image obtained by performing optical coherence tomography on the eye to be examined. is.

このような方法によれば、既存の光学系で取得可能なOCTデータを用いて、簡便に、且つ、高精度に複数の画像の位置合わせを行うことができるようになる。 According to such a method, it is possible to easily align a plurality of images with high accuracy using OCT data that can be acquired with an existing optical system.

いくつかの実施形態では、位置合わせステップは、被検眼の画像とこの画像の波長範囲に対応した深さ位置におけるOCT正面画像との位置合わせを行う。 In some embodiments, the aligning step aligns the image of the subject's eye with the OCT frontal image at a depth position corresponding to the wavelength range of the image.

このような方法によれば、位置合わせ対象の画像の波長範囲に対応した深さ位置におけるOCT正面画像を基準に当該画像の位置合わせを行うようにしたので、高精度な位置合わせが可能になる。 According to this method, since the images are aligned based on the OCT front image at the depth position corresponding to the wavelength range of the image to be aligned, highly accurate alignment is possible. .

いくつかの実施形態は、複数の画像のうち第1画像と第2画像とを解析することにより第1画像と第2画像との間の位置ずれ情報を取得する位置ずれ情報生成ステップを含む。 Some embodiments include generating misregistration information for obtaining misregistration information between the first and second images by analyzing the first and second images of the plurality of images.

このような方法によれば、複数の画像を取得する間に、固視ずれ及び被検眼と撮影部とのアライメントずれなどが生じた場合に、複数の画像間の位置ずれを求めることで、取得された複数の画像の品質を定量的に評価することができるようになる。 According to such a method, when a fixation shift and misalignment between the subject's eye and the imaging unit occur while a plurality of images are being acquired, positional shifts between the plurality of images are obtained to obtain the images. It becomes possible to quantitatively evaluate the quality of a plurality of captured images.

いくつかの実施形態は、位置ずれ情報に基づいて第1画像と第2画像との間の位置ずれが大きいか否かを判定する第1判定ステップを含み、第1判定ステップにおいて得られた判定結果に基づいて、取得ステップは、第1画像又は第2画像を再取得する。 Some embodiments include a first determining step of determining whether the displacement between the first image and the second image is large based on the misalignment information, and the determination obtained in the first determining step Based on the results, the acquiring step reacquires the first image or the second image.

このような方法によれば、位置ずれが小さい複数の画像を取得することが可能になり、被検眼の観察部位における分光解析の精度を向上させることが可能になる。 According to such a method, it is possible to acquire a plurality of images with small positional deviations, and it is possible to improve the accuracy of spectroscopic analysis of the observation site of the subject's eye.

いくつかの実施形態は、複数の画像の少なくとも1つの品質の評価値を算出する品質評価ステップを含む。 Some embodiments include a quality assessment step of calculating a quality assessment value for at least one of the plurality of images.

このような方法によれば、複数の画像を取得する間に、固視ずれ及び被検眼と撮影部とのアライメントずれなどが生じた場合に、複数の画像の少なくとも1つの品質の評価値を算出することで、取得された複数の画像の品質を定量的に評価することができるようになる。 According to this method, an evaluation value of at least one quality of a plurality of images is calculated when fixation dislocation and alignment misalignment between the subject's eye and the imaging unit occur while acquiring a plurality of images. By doing so, it becomes possible to quantitatively evaluate the quality of a plurality of acquired images.

いくつかの実施形態は、評価値に基づいて複数の画像の品質の良否を判定する第2判定ステップを含み、第2判定ステップにおいて得られた判定結果に基づいて、取得ステップは、複数の画像の少なくとも1つ又は複数の画像の全部を再取得する。 Some embodiments include a second determination step of determining whether the quality of the plurality of images is good or bad based on the evaluation value, and based on the determination result obtained in the second determination step, the obtaining step determines the quality of the plurality of images reacquire all of at least one or more images of .

このような方法によれば、画質が良好な複数の画像を取得することが可能になり、被検眼の観察部位における分光解析の精度を向上させることが可能になる。 According to such a method, it is possible to acquire a plurality of images with good image quality, and it is possible to improve the accuracy of spectroscopic analysis of the observation site of the subject's eye.

いくつかの実施形態に係るプログラムは、コンピュータに、上記のいずれかの眼科情報処理方法の各ステップを実行させる。 A program according to some embodiments causes a computer to execute each step of any one of the ophthalmologic information processing methods described above.

このようなプログラムによれば、複数の画像を取得する間に、固視ずれ及び被検眼と撮影部とのアライメントずれなどが生じた場合でも、眼の奥行方向(深さ方向)の情報に基づいて画像間を高精度に位置合わせすることが可能になり、被検眼の観察部位における分光解析の精度を向上させることが可能なコンピュータプログラムを提供することができるようになる。 According to such a program, even if a fixation shift or misalignment between the subject's eye and the imaging unit occurs while acquiring a plurality of images, the image can be detected based on the information in the depth direction (depth direction) of the eye. It becomes possible to align the images with high accuracy by using a computer program, and it is possible to provide a computer program capable of improving the accuracy of spectroscopic analysis of the observation site of the subject's eye.

以上に説明した実施形態はこの発明の一例に過ぎない。この発明を実施しようとする者は、この発明の要旨の範囲内における変形(省略、置換、付加等)を任意に施すことが可能である。 The embodiment described above is merely an example of the present invention. A person who intends to implement this invention can arbitrarily make modifications (omissions, substitutions, additions, etc.) within the scope of the gist of this invention.

いくつかの実施形態では、眼科装置の制御方法をコンピュータに実行させるプログラムが記憶部212に保存される。このようなプログラムを、コンピュータによって読み取り可能な任意の記録媒体に記憶させてもよい。記録媒体は、磁気、光、光磁気、半導体などを利用した電子媒体であってよい。典型的には、記録媒体は、磁気テープ、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ、ソリッドステートドライブなどである。 In some embodiments, the storage unit 212 stores a program that causes a computer to execute a method of controlling an ophthalmologic apparatus. Such a program may be stored in any computer-readable recording medium. The recording medium may be electronic media using magnetism, light, magneto-optics, semiconductors, and the like. Typically, recording media are magnetic tapes, magnetic disks, optical disks, magneto-optical disks, flash memories, solid state drives, and the like.

1 眼科装置
2 眼底カメラユニット
10 照明光学系
22 対物レンズ
30 撮影光学系
80 波長可変フィルタ
100 OCTユニット
210 制御部
211 主制御部
220 画像形成部
230 データ処理部
231 位置合わせ処理部
232 解析部
232A 特徴部位特定部
232B 3次元位置算出部
232C 位置ずれ処理部
2321C 位置ずれ情報生成部
2322C 位置ずれ判定部
232D 画質処理部
2321D 画質評価値算出部
2322D 画質判定部
E 被検眼
Ef 眼底
LS 測定光
1 ophthalmologic apparatus 2 retinal camera unit 10 illumination optical system 22 objective lens 30 imaging optical system 80 wavelength tunable filter 100 OCT unit 210 control unit 211 main control unit 220 image forming unit 230 data processing unit 231 alignment processing unit 232 analysis unit 232A Features Part identification unit 232B Three-dimensional position calculation unit 232C Position shift processing unit 2321C Position shift information generation unit 2322C Position shift determination unit 232D Image quality processing unit 2321D Image quality evaluation value calculation unit 2322D Image quality determination unit E Eye to be examined Ef Fundus LS Measurement light

Claims (16)

照明光で照明された被検眼からの互いに波長範囲が異なる戻り光を順次に受光して得られた前記被検眼の複数の画像を取得する取得部と、
前記被検眼に対して光コヒーレンストモグラフィを実行することにより得られたOCTデータに基づいて、前記複数の画像の位置合わせを行う位置合わせ部と、
を含む、眼科情報処理装置。
an acquisition unit that acquires a plurality of images of the eye to be inspected obtained by sequentially receiving return lights having different wavelength ranges from the eye to be inspected illuminated by the illumination light;
an alignment unit that aligns the plurality of images based on OCT data obtained by performing optical coherence tomography on the eye to be inspected;
An ophthalmic information processing device, comprising:
前記OCTデータは、前記被検眼に対して光コヒーレンストモグラフィを実行することにより得られた干渉光の検出結果、Bスキャン画像、OCTA(OCT Angiography)画像、又はen-face画像である
ことを特徴とする請求項1に記載の眼科情報処理装置。
The OCT data is a detection result of interference light obtained by performing optical coherence tomography on the eye to be examined, a B-scan image, an OCTA (OCT Angiography) image, or an en-face image. The ophthalmologic information processing apparatus according to claim 1.
前記位置合わせ部は、前記被検眼の画像と前記画像の波長範囲に対応した深さ位置におけるOCT正面画像との位置合わせを行う
ことを特徴とする請求項1に記載の眼科情報処理装置。
The ophthalmologic information processing apparatus according to claim 1, wherein the alignment unit performs alignment between the image of the subject's eye and an OCT front image at a depth position corresponding to a wavelength range of the image.
前記複数の画像のうち第1画像と第2画像とを解析することにより前記第1画像と前記第2画像との間の位置ずれ情報を取得する位置ずれ情報生成部を含む
ことを特徴とする請求項1~請求項3のいずれか一項に記載の眼科情報処理装置。
and a positional deviation information generation unit that acquires positional deviation information between the first image and the second image by analyzing the first image and the second image among the plurality of images. The ophthalmologic information processing apparatus according to any one of claims 1 to 3.
前記位置ずれ情報に基づいて前記第1画像と前記第2画像との間の位置ずれが大きいか否かを判定する第1判定部を含み、
前記第1判定部により得られた判定結果に基づいて、前記取得部は、前記第1画像又は前記第2画像を再取得する
ことを特徴とする請求項4に記載の眼科情報処理装置。
a first determination unit that determines whether the displacement between the first image and the second image is large based on the displacement information;
The ophthalmologic information processing apparatus according to claim 4, wherein the acquisition unit reacquires the first image or the second image based on the determination result obtained by the first determination unit.
前記複数の画像の少なくとも1つの品質の評価値を算出する品質評価部を含む
ことを特徴とする請求項1~請求項5のいずれか一項に記載の眼科情報処理装置。
The ophthalmologic information processing apparatus according to any one of claims 1 to 5, further comprising a quality evaluation unit that calculates an evaluation value of quality of at least one of the plurality of images.
前記評価値に基づいて前記複数の画像の品質の良否を判定する第2判定部を含み、
前記第2判定部により得られた判定結果に基づいて、前記取得部は、複数の画像の少なくとも1つ又は前記複数の画像の全部を再取得する
ことを特徴とする請求項6に記載の眼科情報処理装置。
a second determination unit that determines whether the quality of the plurality of images is good or bad based on the evaluation value;
7. The ophthalmology clinic according to claim 6, wherein the acquisition unit reacquires at least one of the plurality of images or all of the plurality of images based on the determination result obtained by the second determination unit. Information processing equipment.
前記被検眼を照明光で照明する照明光学系と、
互いに波長範囲が異なる前記被検眼からの前記照明光の戻り光を順次に受光する受光光学系と、
前記被検眼に対して光コヒーレンストモグラフィを実行するOCT光学系と、
請求項1~請求項7のいずれか一項に記載の眼科情報処理装置と、
を含み、
前記取得部は、前記受光光学系により得られた受光結果に基づいて前記複数の画像を順次に取得する、眼科装置。
an illumination optical system that illuminates the subject's eye with illumination light;
a light-receiving optical system that sequentially receives return light of the illumination light from the eye to be inspected, the wavelength ranges of which are different from each other;
an OCT optical system that performs optical coherence tomography on the eye to be examined;
an ophthalmologic information processing apparatus according to any one of claims 1 to 7;
including
The ophthalmologic apparatus, wherein the obtaining unit sequentially obtains the plurality of images based on light reception results obtained by the light receiving optical system.
照明光で照明された被検眼からの互いに波長範囲が異なる戻り光を順次に受光して得られた前記被検眼の複数の画像を取得する取得ステップと、
前記被検眼に対して光コヒーレンストモグラフィを実行することにより得られたOCTデータに基づいて、前記複数の画像の位置合わせを行う位置合わせステップと、
を含む、眼科情報処理方法。
an acquisition step of acquiring a plurality of images of the eye to be inspected obtained by sequentially receiving return lights having different wavelength ranges from the eye to be inspected illuminated by the illumination light;
an alignment step of aligning the plurality of images based on OCT data obtained by performing optical coherence tomography on the eye to be inspected;
An ophthalmic information processing method, comprising:
前記OCTデータは、前記被検眼に対して光コヒーレンストモグラフィを実行することにより得られた干渉光の検出結果、Bスキャン画像、OCTA(OCT Angiography)画像、又はen-face画像である
ことを特徴とする請求項9に記載の眼科情報処理方法。
The OCT data is a detection result of interference light obtained by performing optical coherence tomography on the eye to be examined, a B-scan image, an OCTA (OCT Angiography) image, or an en-face image. The ophthalmologic information processing method according to claim 9.
前記位置合わせステップは、前記被検眼の画像と前記画像の波長範囲に対応した深さ位置におけるOCT正面画像との位置合わせを行う
ことを特徴とする請求項9に記載の眼科情報処理方法。
10. The ophthalmologic information processing method according to claim 9, wherein the alignment step performs alignment between the image of the subject's eye and an OCT front image at a depth position corresponding to a wavelength range of the image.
前記複数の画像のうち第1画像と第2画像とを解析することにより前記第1画像と前記第2画像との間の位置ずれ情報を取得する位置ずれ情報生成ステップを含む
ことを特徴とする請求項9~請求項11のいずれか一項に記載の眼科情報処理方法。
and a positional deviation information generating step of acquiring positional deviation information between the first image and the second image by analyzing the first image and the second image among the plurality of images. The ophthalmologic information processing method according to any one of claims 9 to 11.
前記位置ずれ情報に基づいて前記第1画像と前記第2画像との間の位置ずれが大きいか否かを判定する第1判定ステップを含み、
前記第1判定ステップにおいて得られた判定結果に基づいて、前記取得ステップは、前記第1画像又は前記第2画像を再取得する
ことを特徴とする請求項12に記載の眼科情報処理方法。
A first determination step of determining whether or not the positional deviation between the first image and the second image is large based on the positional deviation information;
13. The ophthalmologic information processing method according to claim 12, wherein said acquisition step re-acquires said first image or said second image based on the determination result obtained in said first determination step.
前記複数の画像の少なくとも1つの品質の評価値を算出する品質評価ステップを含む
ことを特徴とする請求項9~請求項13のいずれか一項に記載の眼科情報処理方法。
The ophthalmologic information processing method according to any one of claims 9 to 13, further comprising a quality evaluation step of calculating an evaluation value of quality of at least one of said plurality of images.
前記評価値に基づいて前記複数の画像の品質の良否を判定する第2判定ステップを含み、
前記第2判定ステップにおいて得られた判定結果に基づいて、前記取得ステップは、前記複数の画像の少なくとも1つ又は前記複数の画像の全部を再取得する
ことを特徴とする請求項14に記載の眼科情報処理方法。
a second determination step of determining whether the quality of the plurality of images is good or bad based on the evaluation value;
15. The method according to claim 14, wherein the acquisition step acquires again at least one of the plurality of images or all of the plurality of images based on the determination result obtained in the second determination step. Ophthalmic information processing method.
コンピュータに、請求項9~請求項15のいずれか一項に記載の眼科情報処理方法の各ステップを実行させることを特徴とするプログラム。 A program for causing a computer to execute each step of the ophthalmologic information processing method according to any one of claims 9 to 15.
JP2021147568A 2021-09-10 2021-09-10 Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method and program Pending JP2023040529A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021147568A JP2023040529A (en) 2021-09-10 2021-09-10 Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021147568A JP2023040529A (en) 2021-09-10 2021-09-10 Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method and program

Publications (1)

Publication Number Publication Date
JP2023040529A true JP2023040529A (en) 2023-03-23

Family

ID=85632541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021147568A Pending JP2023040529A (en) 2021-09-10 2021-09-10 Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method and program

Country Status (1)

Country Link
JP (1) JP2023040529A (en)

Similar Documents

Publication Publication Date Title
JP6426974B2 (en) Data processing method and OCT apparatus
JP6899632B2 (en) Ophthalmologic imaging equipment
JP6923392B2 (en) Ophthalmic equipment
JP2022176282A (en) Ophthalmologic apparatus and control method thereof
JP2022075772A (en) Ophthalmologic apparatus
WO2021153087A1 (en) Ophthalmic device, control method thereof, and storage medium
JP2022027879A (en) Ophthalmologic imaging device, control method thereof, program, and recording medium
JP2023080218A (en) Ophthalmologic apparatus
JP2023038280A (en) Blood flow measurement device
WO2021153086A1 (en) Ophthalmic apparatus, control method thereof, and recording medium
CN111787843B (en) Blood flow measuring device
JP7050488B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP2023040529A (en) Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method and program
WO2023042577A1 (en) Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program
JP2021013491A (en) Optical coherence tomography apparatus, control method thereof, optical measuring method, program, and recording medium
WO2023053648A1 (en) Ophthalmic device, method for controlling ophthalmic device, and program
JP7288110B2 (en) ophthalmic equipment
JP2019154987A (en) Ophthalmologic apparatus, control method therefor, program, and storage medium
JP7412170B2 (en) Ophthalmological equipment, its evaluation method, program, and recording medium
JP7359724B2 (en) Ophthalmology information processing device, ophthalmology device, ophthalmology information processing method, and program
JP6942627B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP6954831B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
WO2024004455A1 (en) Opthalmic information processing device, opthalmic device, opthalmic information processing method, and program
JP6959158B2 (en) Ophthalmic equipment
JP7216514B2 (en) Blood vessel analyzer