JP2023066499A - Ophthalmologic information processing device, ophthalmologic device, ophthalmologic information processing method, and program - Google Patents

Ophthalmologic information processing device, ophthalmologic device, ophthalmologic information processing method, and program Download PDF

Info

Publication number
JP2023066499A
JP2023066499A JP2021177127A JP2021177127A JP2023066499A JP 2023066499 A JP2023066499 A JP 2023066499A JP 2021177127 A JP2021177127 A JP 2021177127A JP 2021177127 A JP2021177127 A JP 2021177127A JP 2023066499 A JP2023066499 A JP 2023066499A
Authority
JP
Japan
Prior art keywords
layer thickness
unit
eye
scan
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021177127A
Other languages
Japanese (ja)
Inventor
達夫 山口
Tatsuo Yamaguchi
賢一 田村
Kenichi Tamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2021177127A priority Critical patent/JP2023066499A/en
Publication of JP2023066499A publication Critical patent/JP2023066499A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a new technology to specify a change in a form of a tissue of an eye to be examined.SOLUTION: An ophthalmologic information processing device includes a layer thickness specification unit and a feature position specification unit. The layer thickness specification unit specifies the layer thickness in an A scan direction in a predetermined layer region in a measurement part on the basis of OCT data on the eye to be examined. The feature position specification unit specifies a feature position of an amount of change in the layer thickness in a direction intersecting with the A scan direction on the basis of the layer thickness specified by the layer thickness specification unit.SELECTED DRAWING: Figure 6

Description

本発明は、眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラムに関する。 The present invention relates to an ophthalmic information processing apparatus, an ophthalmic apparatus, an ophthalmic information processing method, and a program.

近年、レーザー光源等からの光ビームを用いて被測定物体の表面形態や内部形態を表す画像を形成するOCTが注目を集めている。OCTは、X線CT(Computed Tomography)のような人体に対する侵襲性を持たないことから、特に医療分野や生物学分野における応用の展開が期待されている。例えば眼科分野においては、眼底や角膜等の画像を形成する装置が実用化されている。このようなOCTの手法を用いた装置(OCT装置)は被検眼の様々な部位の観察に適用可能であり、また高精細な画像を取得できることから、様々な眼科疾患の診断に応用されている。 In recent years, attention has been focused on OCT, which uses a light beam from a laser light source or the like to form an image representing the surface morphology and internal morphology of an object to be measured. Since OCT is not invasive to the human body like X-ray CT (Computed Tomography), it is expected to be applied particularly in the medical and biological fields. For example, in the field of ophthalmology, apparatuses for forming images of the fundus, cornea, etc. have been put to practical use. A device using such an OCT technique (OCT device) can be applied to observe various parts of the subject's eye, and can acquire high-definition images, so it is applied to the diagnosis of various ophthalmic diseases. .

眼底の広範囲の観察や眼疾患のスクリーニングなどには、簡便に広い視野で被検眼の眼底などの撮影又は計測が可能な装置が求められている。例えば、特許文献1には、広角のOCTデータを取得するための眼科装置の構成が開示されている。 2. Description of the Related Art For wide-range observation of the fundus or screening of eye diseases, there is a demand for an apparatus capable of simply photographing or measuring the fundus of an eye to be examined in a wide field of view. For example, Patent Literature 1 discloses a configuration of an ophthalmologic apparatus for acquiring wide-angle OCT data.

特開2019-025255号公報JP 2019-025255 A

被検眼のOCTデータを広角で取得することが可能になると、被検眼の組織の形態の変化を広範囲にわたって詳細に観察することができるようになる。それにより、広角で被検眼のOCTデータを取得することが不可能な場合には特定が困難であった組織の形態の様々な変化を容易に特定することが可能になる。 If it becomes possible to obtain wide-angle OCT data of an eye to be inspected, it will be possible to observe changes in the morphology of the tissue of the eye to be inspected in detail over a wide range. As a result, it becomes possible to easily identify various changes in the morphology of tissue, which were difficult to identify when it was impossible to obtain OCT data of the subject's eye at a wide angle.

このような組織の形態の変化を特定する手法は、撮影画角(計測範囲)が広角であるか否かにかかわらず被検眼のOCTデータに適用可能である。 Such a method of identifying changes in tissue morphology can be applied to OCT data of an eye to be examined regardless of whether the imaging angle of view (measurement range) is wide.

本発明は、このような事情に鑑みてなされたものであり、その目的の1つは、被検眼の組織の形態の変化を特定するための新たな技術を提供することにある。 The present invention has been made in view of such circumstances, and one of its purposes is to provide a new technique for identifying changes in the morphology of tissue in an eye to be examined.

実施形態の1つの態様は、被検眼のOCTデータに基づいて測定部位における所定の層領域のAスキャン方向の層厚を特定する層厚特定部と、前記層厚特定部により特定された前記層厚に基づいて、前記Aスキャン方向の交差方向における前記層厚の変化量の特徴位置を特定する特徴位置特定部と、を含む、眼科情報処理装置である。
実施形態の別の態様は、光スキャナを含み、前記光スキャナにより偏向された測定光を前記被検眼に投射することにより前記OCTデータを取得するOCT光学系と、上記の眼科情報処理装置と、を含む、眼科装置である。
実施形態の更に別の態様は、被検眼のOCTデータに基づいて測定部位における所定の層領域のAスキャン方向の層厚を特定する層厚特定ステップと、前記層厚特定ステップにおいて特定された前記層厚に基づいて、前記Aスキャン方向の交差方向における前記層厚の変化量の特徴位置を特定する特徴位置特定ステップと、を含む、眼科情報処理方法である。
実施形態の更に別の態様は、コンピュータに、上記の眼科情報処理方法の各ステップを実行させる、プログラムである。
One aspect of the embodiment includes a layer thickness specifying unit that specifies a layer thickness in the A-scan direction of a predetermined layer region in a measurement site based on OCT data of an eye to be examined, and the layer specified by the layer thickness specifying unit. an ophthalmologic information processing apparatus, comprising: a feature position specifying unit that specifies a feature position of the amount of change in the layer thickness in a direction intersecting the A-scan direction based on the thickness.
Another aspect of the embodiment is an OCT optical system that includes an optical scanner and acquires the OCT data by projecting measurement light deflected by the optical scanner onto the eye to be examined, and the ophthalmologic information processing apparatus; An ophthalmic device comprising:
Still another aspect of the embodiment is a layer thickness specifying step of specifying a layer thickness in the A-scan direction of a predetermined layer region in a measurement site based on OCT data of an eye to be examined, and the layer thickness specified in the layer thickness specifying step and a characteristic position identifying step of identifying a characteristic position of the amount of change in the layer thickness in a direction intersecting the A-scan direction based on the layer thickness.
Yet another aspect of the embodiments is a program that causes a computer to execute each step of the ophthalmologic information processing method described above.

本発明によれば、被検眼の組織の形態の変化を特定するための新たな技術を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the new technique for identifying the morphological change of the structure|tissue of an eye to be examined can be provided.

実施形態に係る眼科装置の光学系の構成の一例を示す概略図である。It is a schematic diagram showing an example of the configuration of the optical system of the ophthalmologic apparatus according to the embodiment. 実施形態に係る眼科装置の光学系の構成の一例を示す概略図である。It is a schematic diagram showing an example of the configuration of the optical system of the ophthalmologic apparatus according to the embodiment. 実施形態に係る眼科装置の処理系の構成の一例を示す概略図である。1 is a schematic diagram showing an example of a configuration of a processing system of an ophthalmologic apparatus according to an embodiment; FIG. 実施形態に係る眼科装置の処理系の構成の一例を示す概略図である。1 is a schematic diagram showing an example of a configuration of a processing system of an ophthalmologic apparatus according to an embodiment; FIG. 実施形態に係る眼科装置の処理系の構成の一例を示す概略図である。1 is a schematic diagram showing an example of a configuration of a processing system of an ophthalmologic apparatus according to an embodiment; FIG. 実施形態に係る眼科装置の処理系の構成の一例を示す概略図である。1 is a schematic diagram showing an example of a configuration of a processing system of an ophthalmologic apparatus according to an embodiment; FIG. 実施形態に係る眼科装置の動作を説明するための概略図である。It is a schematic diagram for explaining the operation of the ophthalmologic apparatus according to the embodiment. 実施形態に係る眼科装置の動作を説明するための概略図である。It is a schematic diagram for explaining the operation of the ophthalmologic apparatus according to the embodiment. 実施形態に係る眼科装置の動作を説明するための概略図である。It is a schematic diagram for explaining the operation of the ophthalmologic apparatus according to the embodiment. 実施形態に係る眼科装置の動作を説明するための概略図である。It is a schematic diagram for explaining the operation of the ophthalmologic apparatus according to the embodiment. 実施形態に係る眼科装置の動作例のフロー図である。FIG. 4 is a flow diagram of an operation example of the ophthalmologic apparatus according to the embodiment; 実施形態に係る眼科装置の動作例のフロー図である。FIG. 4 is a flow diagram of an operation example of the ophthalmologic apparatus according to the embodiment; 実施形態に係る眼科装置の動作例のフロー図である。FIG. 4 is a flow diagram of an operation example of the ophthalmologic apparatus according to the embodiment; 実施形態に係る眼科装置の動作例のフロー図である。FIG. 4 is a flow diagram of an operation example of the ophthalmologic apparatus according to the embodiment; 実施形態の変形例に係る眼科装置の処理系の構成の一例を示す概略図である。It is a schematic diagram showing an example of a configuration of a processing system of an ophthalmologic apparatus according to a modification of the embodiment. 実施形態の比較例に係る眼科装置が実行する処理を説明するための概略図である。FIG. 7 is a schematic diagram for explaining processing executed by an ophthalmologic apparatus according to a comparative example of the embodiment; 実施形態の変形例に係る眼科装置の処理系の構成の一例を示す概略図である。It is a schematic diagram showing an example of a configuration of a processing system of an ophthalmologic apparatus according to a modification of the embodiment. 実施形態の変形例に係る眼科装置の動作を説明するための概略図である。It is a schematic diagram for explaining the operation of the ophthalmologic apparatus according to the modification of the embodiment. 実施形態の変形例に係る眼科装置の動作を説明するための概略図である。It is a schematic diagram for explaining the operation of the ophthalmologic apparatus according to the modification of the embodiment. 実施形態の変形例に係る眼科装置の動作例のフロー図である。FIG. 11 is a flow diagram of an operation example of an ophthalmologic apparatus according to a modification of the embodiment; 実施形態の変形例に係る眼科装置の動作を説明するための概略図である。It is a schematic diagram for explaining the operation of the ophthalmologic apparatus according to the modification of the embodiment. 実施形態の変形例に係る眼科装置の動作を説明するための概略図である。It is a schematic diagram for explaining the operation of the ophthalmologic apparatus according to the modification of the embodiment.

この発明に係る眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラムの実施形態の一例について、図面を参照しながら詳細に説明する。なお、実施形態において、この明細書において引用されている文献に記載された技術を任意に援用することが可能である。 Exemplary embodiments of an ophthalmologic information processing apparatus, an ophthalmologic apparatus, an ophthalmologic information processing method, and a program according to the present invention will be described in detail with reference to the drawings. In addition, in the embodiments, it is possible to arbitrarily incorporate the techniques described in the documents cited in this specification.

被検眼の組織の形態の変化は、疾患(眼疾患)の早期発見や診断に有用であると考えられる。例えば、所定の組織の形態の変化を高精度に特定又は検出することができれば、疾患に特有の形態の変化が生ずる前に疾患の早期発見や診断が可能になる可能性がある。 Changes in the morphology of tissue in the eye to be examined are considered useful for early detection and diagnosis of diseases (ocular diseases). For example, if morphological changes in a given tissue can be identified or detected with high accuracy, early detection and diagnosis of diseases may be possible before morphological changes specific to the disease occur.

実施形態に係る眼科情報処理装置は、被検眼の測定部位における所定の層領域の層厚の変化量に着目し、層厚の変化量の特徴位置を特定することが可能である。 The ophthalmologic information processing apparatus according to the embodiment can specify the feature position of the layer thickness change amount by focusing on the layer thickness change amount of a predetermined layer region in the measurement site of the subject's eye.

測定部位の例として、眼底、前眼部がある。層領域の例として、網膜を構成する層領域、硝子体、水晶体、前房、角膜を構成する層領域、前眼部を構成する組織の領域がある。網膜を構成する層領域の例として、内境界膜、神経繊維層、神経節細胞層、内網状層、内顆粒層、外網状層、外顆粒層、外境界膜、視細胞層、網膜色素上皮層、ブルッフ膜、脈絡膜、強膜がある。角膜を構成する層領域として、角膜上皮細胞、基底膜、ボーマン膜、実質層、デスメ膜、内皮細胞がある。前眼部を構成する組織の領域の例として、シュレム管、虹彩、毛様体、隅角がある。 Examples of measurement sites include the fundus and the anterior segment of the eye. Examples of layer regions include a layer region that constitutes the retina, a layer region that constitutes the vitreous body, the lens, the anterior chamber, the cornea, and a tissue region that constitutes the anterior segment of the eye. Examples of layers that make up the retina include the inner limiting membrane, nerve fiber layer, ganglion cell layer, inner reticular layer, inner nuclear layer, outer reticular layer, outer nuclear layer, outer limiting membrane, photoreceptor layer, and retinal pigment layer. It contains cortex, Bruch's membrane, choroid, and sclera. Corneal epithelial cells, basement membrane, Bowman's membrane, stromal layer, Descemet's membrane, and endothelial cells are examples of layer regions that constitute the cornea. Examples of regions of tissue that make up the anterior segment are Schlemm's canal, iris, ciliary body, and angle.

具体的には、実施形態に係る眼科情報処理装置は、被検眼のOCTデータに基づいて測定部位における所定の層領域のAスキャン方向の層厚を特定する。眼科情報処理装置は、特定された層厚に基づいて、Aスキャン方向の交差方向(例えば、Bスキャン方向)における層厚の変化量の特徴位置を特定する。 Specifically, the ophthalmologic information processing apparatus according to the embodiment specifies the layer thickness in the A-scan direction of a predetermined layer region in the measurement site based on the OCT data of the eye to be examined. The ophthalmologic information processing apparatus identifies the feature position of the amount of change in layer thickness in the direction intersecting the A-scan direction (for example, the B-scan direction) based on the identified layer thickness.

OCTデータは、例えば、OCT光源からの光を測定光と参照光とに分割し、被検眼に測定光を投射し、被検眼からの測定光の戻り光と参照光路を経由した参照光との干渉光を検出することにより取得される。OCTデータは、2次元OCTデータ又は3次元OCTデータであってよい。いくつかの実施形態では、眼科情報処理装置は、外部に設けられたOCT装置により得られたOCTデータを取得するように構成される。いくつかの実施形態では、眼科情報処理装置の機能は、OCTデータを取得可能な眼科装置により実現される。 The OCT data is obtained, for example, by dividing light from an OCT light source into measurement light and reference light, projecting the measurement light onto the eye to be inspected, returning light of the measurement light from the eye to be inspected, and reference light passing through the reference light path. It is obtained by detecting interfering light. The OCT data may be two-dimensional OCT data or three-dimensional OCT data. In some embodiments, the ophthalmic information processing device is configured to acquire OCT data obtained by an externally provided OCT device. In some embodiments, the functionality of the ophthalmic information processing device is implemented by an ophthalmic device capable of acquiring OCT data.

いくつかの実施形態では、眼科情報処理装置は、特定された特徴位置における層厚の変化量に基づいて、疾患のリスク判定を行い、リスク判定結果を生成する。疾患の例として、中心性漿液性脈絡網膜症(Central Serous Chorioretinopathy:以下、CSC)、強度近視、加齢黄斑変性(Age-related Macular Degeneration:AMD)、緑内障、その他の脈絡膜に関わる疾患がある。 In some embodiments, the ophthalmologic information processing apparatus performs disease risk determination and generates a risk determination result based on the amount of change in layer thickness at the specified feature position. Examples of diseases include Central Serous Chorioretinopathy (CSC), severe myopia, Age-related Macular Degeneration (AMD), glaucoma, and other choroidal diseases.

いくつかの実施形態では、眼科情報処理装置は、Aスキャンの交差方向(例えば、Bスキャン方向)に沿って層厚の変化量を表す層厚変化量プロファイルを生成し、生成された層厚変化量プロファイルを表示手段に表示させる。このとき、眼科情報処理装置は、層厚変化量プロファイルにおける特徴位置に相当する位置を示す情報を表示手段に表示させたり、層厚変化量プロファイルにおいて特徴位置における変化量を示す情報を表示手段に表示させたりすることが可能である。いくつかの実施形態では、眼科情報処理装置は、層厚変化量プロファイルとOCTデータに基づいて形成された被検眼の断層画像とを表示手段に表示させ、断層画像における特徴位置に相当する位置を示す情報を表示手段に表示させる。 In some embodiments, the ophthalmic information processing apparatus generates a layer thickness variation profile that represents a layer thickness variation along an A-scan cross direction (e.g., a B-scan direction), and compares the generated layer thickness variation The volume profile is displayed on the display means. At this time, the ophthalmologic information processing apparatus causes the display means to display information indicating the position corresponding to the characteristic position in the layer thickness variation profile, or displays information indicating the variation in the characteristic position in the layer thickness variation profile to the display means. It is possible to display In some embodiments, the ophthalmologic information processing apparatus causes the display means to display a layer thickness variation profile and a tomographic image of an eye to be examined formed based on OCT data, and displays a position corresponding to a characteristic position in the tomographic image. The information to be displayed is displayed on the display means.

これにより、被検眼の組織の形態の変化を高精度に特定(検出)することが可能になる。その結果、疾患に特有の形態の変化が顕著でない場合でも疾患のリスクを判定したり、今後注目すべき部位として形態の変化を継続的に詳細に観察したりすることができるようになり、疾患の早期発見や早期治療を可能にすることができる。 This makes it possible to identify (detect) changes in the morphology of the tissue of the subject's eye with high accuracy. As a result, it has become possible to determine the risk of a disease even when the morphological changes peculiar to the disease are not remarkable, and to continuously and in detail observe morphological changes as areas of interest in the future. can enable early detection and early treatment of

実施形態に係る眼科情報処理方法は、上記の眼科情報処理装置により実行される1以上のステップを含む。実施形態に係るプログラムは、実施形態に係る眼科情報処理方法の各ステップをコンピュータ(プロセッサ)に実行させる。実施形態に係る記録媒体は、実施形態に係るプログラムが記録された非一時的な記録媒体(記憶媒体)である。 An ophthalmologic information processing method according to an embodiment includes one or more steps executed by the ophthalmologic information processing apparatus described above. A program according to an embodiment causes a computer (processor) to execute each step of an ophthalmologic information processing method according to an embodiment. A recording medium according to the embodiment is a non-temporary recording medium (storage medium) in which the program according to the embodiment is recorded.

本明細書において、プロセッサは、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等の回路を含む。プロセッサは、例えば、記憶回路又は記憶装置に格納されているプログラムを読み出し実行することで、実施形態に係る機能を実現する。記憶回路又は記憶装置がプロセッサに含まれていてよい。また、記憶回路又は記憶装置がプロセッサの外部に設けられていてよい。 In this specification, the processor is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), a programmable logic device (for example, an SPLD (Simple Programmable Logic Device ), CPLD (Complex Programmable Logic Device), FPGA (Field Programmable Gate Array)) and other circuits. The processor implements the functions according to the embodiment by, for example, reading and executing a program stored in a memory circuit or memory device. A memory circuit or device may be included in the processor. Also, a memory circuit or memory device may be provided external to the processor.

以下、主に、脈絡膜の膜厚の変化量からCSCのリスクを判定したり脈絡膜の膜厚の変化量の特徴位置の識別を容易にしたりする場合について説明するが、実施形態に係る構成はこれに限定されるものではない。なお、CSCは、黄斑部に漿液性網膜剥離が生じることで視力低下や中心暗転などの症状が現れる疾患である。 Hereinafter, mainly, the case of determining the risk of CSC from the amount of change in the thickness of the choroid and facilitating the identification of the characteristic position of the amount of change in the thickness of the choroid will be described, but the configuration according to the embodiment is this. is not limited to CSC is a disease in which serous retinal detachment occurs in the macula, causing symptoms such as decreased visual acuity and central darkening.

また、以下の実施形態は、脈絡膜以外の層領域の厚さの変化量に対しても適用可能である。また、以下の実施形態は、CSC以外の眼疾患に対しても適用可能である。 Moreover, the following embodiments are also applicable to the amount of change in the thickness of layer regions other than the choroid. Moreover, the following embodiments are also applicable to eye diseases other than CSC.

以下の実施形態では、実施形態に係る眼科情報処理装置の機能を含む眼科装置を例に説明する。実施形態に係る眼科装置は、眼科撮影装置を含む。いくつかの実施形態の眼科装置に含まれる眼科撮影装置は、例えば、眼底カメラ、走査型光検眼鏡、スリットランプ検眼鏡、手術用顕微鏡等のうちのいずれか1つ以上である。いくつかの実施形態に係る眼科装置は、眼科撮影装置に加えて、眼科測定装置及び眼科治療装置のうちのいずれか1つ以上を含む。いくつかの実施形態の眼科装置に含まれる眼科測定装置は、例えば、眼屈折検査装置、眼圧計、スペキュラーマイクロスコープ、ウェーブフロントアナライザ、視野計、マイクロペリメータ等のうちのいずれか1つ以上である。いくつかの実施形態の眼科装置に含まれる眼科治療装置は、例えば、レーザー治療装置、手術装置、手術用顕微鏡等のうちのいずれか1つ以上である。 In the following embodiments, an ophthalmologic apparatus including the functions of the ophthalmologic information processing apparatus according to the embodiment will be described as an example. An ophthalmologic apparatus according to an embodiment includes an ophthalmologic imaging apparatus. The ophthalmic imaging device included in the ophthalmic device of some embodiments is, for example, any one or more of a fundus camera, a scanning optical ophthalmoscope, a slit lamp ophthalmoscope, a surgical microscope, or the like. An ophthalmic device according to some embodiments includes any one or more of an ophthalmic measurement device and an ophthalmic treatment device in addition to an ophthalmic imaging device. The ophthalmic measurement device included in the ophthalmic device of some embodiments is, for example, any one or more of an eye refractor, a tonometer, a specular microscope, a wavefront analyzer, a perimeter, a microperimeter, etc. . The ophthalmic treatment device included in the ophthalmic device of some embodiments is, for example, any one or more of a laser treatment device, a surgical device, a surgical microscope, and the like.

以下の実施形態では、眼科装置は、光干渉断層計と眼底カメラとを含む。この光干渉断層計にはスウェプトソースOCTが適用されているが、OCTのタイプはこれに限定されず、他のタイプのOCT(スペクトラルドメインOCT、タイムドメインOCT、アンファスOCT等)が適用されてもよい。 In the following embodiments, the ophthalmic device includes an optical coherence tomography and a fundus camera. Although swept source OCT is applied to this optical coherence tomography, the type of OCT is not limited to this, and other types of OCT (spectral domain OCT, time domain OCT, Amphas OCT, etc.) may be applied. good.

以下、x方向は、対物レンズの光軸方向に直交する方向(左右方向)であり、y方向は、対物レンズの光軸方向に直交する方向(上下方向)であるものとする。z方向は、対物レンズの光軸方向であるものとする。 Hereinafter, the x direction is the direction (horizontal direction) orthogonal to the optical axis direction of the objective lens, and the y direction is the direction (vertical direction) orthogonal to the optical axis direction of the objective lens. The z-direction is assumed to be the optical axis direction of the objective lens.

<構成>
〔光学系〕
図1に示すように、眼科装置1は、眼底カメラユニット2、OCTユニット100及び演算制御ユニット200を含む。眼底カメラユニット2には、被検眼Eの正面画像を取得するための光学系や機構が設けられている。OCTユニット100には、OCTを実行するための光学系や機構の一部が設けられている。OCTを実行するための光学系や機構の他の一部は、眼底カメラユニット2に設けられている。演算制御ユニット200は、各種の演算や制御を実行する1以上のプロセッサを含む。これらに加え、被検者の顔を支持するための部材(顎受け、額当て等)や、OCTの対象部位を切り替えるためのレンズユニット(例えば、前眼部OCT用アタッチメント)等の任意の要素やユニットが眼科装置1に設けられてもよい。更に、眼科装置1は、一対の前眼部カメラ5A及び5Bを備える。
<Configuration>
〔Optical system〕
As shown in FIG. 1 , the ophthalmologic apparatus 1 includes a fundus camera unit 2 , an OCT unit 100 and an arithmetic control unit 200 . The retinal camera unit 2 is provided with an optical system and a mechanism for acquiring a front image of the eye E to be examined. The OCT unit 100 is provided with a part of an optical system and a mechanism for performing OCT. Another part of the optical system and mechanism for performing OCT is provided in the fundus camera unit 2 . The arithmetic control unit 200 includes one or more processors that perform various arithmetic operations and controls. In addition to these, arbitrary elements such as a member for supporting the subject's face (chin rest, forehead rest, etc.) and a lens unit for switching the target part of OCT (for example, attachment for anterior segment OCT) or unit may be provided in the ophthalmologic apparatus 1 . Furthermore, the ophthalmologic apparatus 1 includes a pair of anterior eye cameras 5A and 5B.

いくつかの実施形態では、眼科装置1は、表示装置3を含む。表示装置3は、演算制御ユニット200による処理結果(例えば、OCT画像等)や、眼底カメラユニット2により得られた画像や、眼科装置1を操作するための操作ガイダンス情報などを表示する。 In some embodiments, ophthalmic device 1 includes display device 3 . The display device 3 displays processing results (for example, OCT images, etc.) by the arithmetic control unit 200, images obtained by the retinal camera unit 2, operation guidance information for operating the ophthalmologic apparatus 1, and the like.

[眼底カメラユニット2]
眼底カメラユニット2には、被検眼Eの眼底Efを撮影するための光学系が設けられている。取得される眼底Efの画像(眼底画像、眼底写真等と呼ばれる)は、観察画像、撮影画像等の正面画像である。観察画像は、近赤外光を用いた動画撮影により得られる。撮影画像は、フラッシュ光を用いた静止画像、又は分光画像(分光眼底画像、分光前眼部画像)である。更に、眼底カメラユニット2は、被検眼Eの前眼部Eaを撮影して正面画像(前眼部画像)を取得することができる。
[Fundus camera unit 2]
The fundus camera unit 2 is provided with an optical system for photographing the fundus Ef of the eye E to be examined. The acquired image of the fundus oculi Ef (referred to as a fundus image, fundus photograph, etc.) is a front image such as an observed image or a photographed image. Observation images are obtained by moving image shooting using near-infrared light. The captured image is a still image using flash light or a spectral image (spectral fundus image, spectral anterior segment image). Furthermore, the fundus camera unit 2 can photograph the anterior segment Ea of the subject's eye E to acquire a front image (anterior segment image).

眼底カメラユニット2は、照明光学系10と撮影光学系30とを含む。照明光学系10は被検眼Eに照明光を照射する。撮影光学系30は、被検眼Eからの照明光の戻り光を検出する。OCTユニット100からの測定光は、眼底カメラユニット2内の光路を通じて被検眼Eに導かれ、その戻り光は、同じ光路を通じてOCTユニット100に導かれる。 The fundus camera unit 2 includes an illumination optical system 10 and an imaging optical system 30 . The illumination optical system 10 irradiates the eye E to be inspected with illumination light. The imaging optical system 30 detects return light of illumination light from the eye E to be examined. The measurement light from the OCT unit 100 is guided to the subject's eye E through the optical path in the retinal camera unit 2, and its return light is guided to the OCT unit 100 through the same optical path.

照明光学系10の観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19及びリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて被検眼E(眼底Ef又は前眼部Ea)を照明する。被検眼Eからの観察照明光の戻り光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、撮影合焦レンズ31を経由し、ミラー32により反射される。更に、この戻り光は、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりイメージセンサ35の受光面に結像される。イメージセンサ35は、所定のフレームレートで戻り光を検出する。なお、撮影光学系30のフォーカスは、眼底Ef又は前眼部Eaに合致するように調整される。 Light (observation illumination light) output from an observation light source 11 of an illumination optical system 10 is reflected by a reflecting mirror 12 having a curved reflecting surface, passes through a condenser lens 13, and passes through a visible light cut filter 14. It becomes near-infrared light. Furthermore, the observation illumination light is once converged near the photographing light source 15 , reflected by the mirror 16 , and passed through the relay lenses 17 and 18 , the diaphragm 19 and the relay lens 20 . Then, the observation illumination light is reflected by the periphery of the perforated mirror 21 (area around the perforation), passes through the dichroic mirror 46, is refracted by the objective lens 22, Illuminate part Ea). The return light of the observation illumination light from the subject's eye E is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the central region of the aperture mirror 21, and passes through the photographing focusing lens 31. through and reflected by mirror 32 . Further, this return light passes through the half mirror 33A, is reflected by the dichroic mirror 33, and is imaged on the light receiving surface of the image sensor 35 by the condenser lens . The image sensor 35 detects returned light at a predetermined frame rate. The focus of the imaging optical system 30 is adjusted so as to match the fundus oculi Ef or the anterior segment Ea.

撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。被検眼Eからの撮影照明光の戻り光は、観察照明光の戻り光と同じ経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりイメージセンサ38の受光面に結像される。 The light (imaging illumination light) output from the imaging light source 15 irradiates the fundus oculi Ef through the same path as the observation illumination light. The return light of the imaging illumination light from the subject's eye E is guided to the dichroic mirror 33 through the same path as the return light of the observation illumination light, passes through the dichroic mirror 33 , is reflected by the mirror 36 , is reflected by the condenser lens 37 . An image is formed on the light receiving surface of the image sensor 38 .

表示装置3には、イメージセンサ35により検出された眼底反射光に基づく画像(観察画像)が表示される。なお、撮影光学系30のピントが前眼部に合わせられている場合、被検眼Eの前眼部の観察画像が表示される。また、表示装置3には、イメージセンサ38により検出された眼底反射光に基づく画像(撮影画像、分光眼底画像)が表示される。なお、観察画像を表示する表示装置3と撮影画像を表示する表示装置3は、同一のものであってもよいし、異なるものであってもよい。被検眼Eを赤外光で照明して同様の撮影を行う場合には、赤外の撮影画像が表示される。 An image (observation image) based on the fundus reflected light detected by the image sensor 35 is displayed on the display device 3 . Note that when the imaging optical system 30 is focused on the anterior segment, an observation image of the anterior segment of the subject's eye E is displayed. The display device 3 also displays an image (captured image, spectral fundus image) based on the fundus reflected light detected by the image sensor 38 . The display device 3 that displays the observed image and the display device 3 that displays the captured image may be the same or different. When the subject's eye E is illuminated with infrared light and photographed in the same manner, an infrared photographed image is displayed.

LCD(Liquid Crystal Display)39は固視標や視力測定用視標を表示する。LCD39から出力された光束は、その一部がハーフミラー33Aにて反射され、ミラー32に反射され、撮影合焦レンズ31を経由し、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光束は、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。 An LCD (Liquid Crystal Display) 39 displays a fixation target and a visual acuity measurement target. A part of the light flux output from the LCD 39 is reflected by the half mirror 33 A, reflected by the mirror 32 , passes through the photographing focusing lens 31 , and passes through the aperture of the apertured mirror 21 . The luminous flux that has passed through the aperture of the perforated mirror 21 is transmitted through the dichroic mirror 46, refracted by the objective lens 22, and projected onto the fundus oculi Ef.

LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。固視位置の例として、黄斑を中心とする画像を取得するための固視位置や、視神経乳頭を中心とする画像を取得するための固視位置や、黄斑と視神経乳頭との間の眼底中心を中心とする画像を取得するための固視位置や、黄斑から大きく離れた部位(眼底周辺部)の画像を取得するための固視位置などがある。いくつかの実施形態に係る眼科装置1は、このような固視位置の少なくとも1つを指定するためのGUI(Graphical User Interface)等を含む。いくつかの実施形態に係る眼科装置1は、固視位置(固視標の表示位置)をマニュアルで移動するためのGUI等を含む。 By changing the display position of the fixation target on the screen of the LCD 39, the fixation position of the subject's eye E can be changed. Examples of fixation positions include the fixation position for acquiring an image centered on the macula, the fixation position for acquiring an image centered on the optic disc, and the center of the fundus between the macula and the optic disc. and a fixation position for acquiring an image of a site far away from the macula (eye fundus periphery). The ophthalmologic apparatus 1 according to some embodiments includes a GUI (Graphical User Interface) or the like for designating at least one of such fixation positions. The ophthalmologic apparatus 1 according to some embodiments includes a GUI or the like for manually moving the fixation position (the display position of the fixation target).

移動可能な固視標を被検眼Eに提示するための構成はLCD等の表示装置には限定されない。例えば、光源アレイ(発光ダイオード(LED)アレイ等)における複数の光源を選択的に点灯させることにより、移動可能な固視標を生成することができる。また、移動可能な1以上の光源により、移動可能な固視標を生成することができる。 The configuration for presenting a movable fixation target to the subject's eye E is not limited to a display device such as an LCD. For example, a movable fixation target can be generated by selectively lighting multiple light sources in a light source array (such as a light emitting diode (LED) array). Also, one or more movable light sources can generate a movable fixation target.

フォーカス光学系60は、被検眼Eに対するフォーカス調整に用いられるスプリット指標を生成する。フォーカス光学系60は、撮影光学系30の光路(撮影光路)に沿った撮影合焦レンズ31の移動に連動して、照明光学系10の光路(照明光路)に沿って移動される。反射棒67は、照明光路に対して挿脱可能である。フォーカス調整を行う際には、反射棒67の反射面が照明光路に傾斜配置される。LED61から出力されたフォーカス光は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65により反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。フォーカス光の眼底反射光は、観察照明光の戻り光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(スプリット指標像)に基づいてマニュアルフォーカスやオートフォーカスを実行できる。 The focus optical system 60 generates a split index used for focus adjustment of the eye E to be examined. The focus optical system 60 is moved along the optical path (illumination optical path) of the illumination optical system 10 in conjunction with the movement of the imaging focusing lens 31 along the optical path (illumination optical path) of the imaging optical system 30 . The reflecting bar 67 can be inserted into and removed from the illumination optical path. When performing focus adjustment, the reflecting surface of the reflecting bar 67 is arranged at an angle in the illumination optical path. Focus light output from the LED 61 passes through a relay lens 62, is split into two light beams by a split index plate 63, passes through a two-hole diaphragm 64, is reflected by a mirror 65, and is reflected by a condenser lens 66 onto a reflecting rod 67. is once imaged on the reflective surface of , and then reflected. Further, the focused light passes through the relay lens 20, is reflected by the perforated mirror 21, passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef. The fundus reflected light of the focus light is guided to the image sensor 35 through the same path as the return light of the observation illumination light. Manual focus and autofocus can be performed based on the received light image (split index image).

ダイクロイックミラー46は、眼底撮影用光路とOCT用光路とを合成する。ダイクロイックミラー46は、OCTに用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。OCT用光路(測定光の光路)には、OCTユニット100側からダイクロイックミラー46側に向かって順に、コリメータレンズユニット40、光路長変更部41、光スキャナ42、OCT合焦レンズ43、ミラー44、及びリレーレンズ45が設けられている。 The dichroic mirror 46 synthesizes the fundus imaging optical path and the OCT optical path. The dichroic mirror 46 reflects light in the wavelength band used for OCT and transmits light for fundus imaging. The optical path for OCT (the optical path of the measurement light) includes, in order from the OCT unit 100 side toward the dichroic mirror 46 side, a collimator lens unit 40, an optical path length changing section 41, an optical scanner 42, an OCT focusing lens 43, a mirror 44, and a relay lens 45 are provided.

光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT用光路の長さを変更する。この光路長の変更は、眼軸長に応じた光路長補正や、干渉状態の調整などに利用される。光路長変更部41は、コーナーキューブと、これを移動する機構とを含む。 The optical path length changing unit 41 is movable in the direction of the arrow shown in FIG. 1, and changes the length of the optical path for OCT. This change in optical path length is used for optical path length correction according to the axial length of the eye, adjustment of the state of interference, and the like. The optical path length changing section 41 includes a corner cube and a mechanism for moving it.

光スキャナ42は、被検眼Eの瞳孔と光学的に共役な位置に配置される。光スキャナ42は、OCT用光路を通過する測定光LSを偏向する。光スキャナ42は、例えば、2次元走査が可能なガルバノスキャナである。 The optical scanner 42 is arranged at a position optically conjugate with the pupil of the eye E to be examined. The optical scanner 42 deflects the measurement light LS passing through the OCT optical path. The optical scanner 42 is, for example, a galvanometer scanner capable of two-dimensional scanning.

OCT合焦レンズ43は、OCT用の光学系のフォーカス調整を行うために、測定光LSの光路に沿って移動される。撮影合焦レンズ31の移動、フォーカス光学系60の移動、及びOCT合焦レンズ43の移動を連係的に制御することができる。 The OCT focusing lens 43 is moved along the optical path of the measurement light LS in order to focus the optical system for OCT. Movement of the imaging focusing lens 31, movement of the focusing optical system 60, and movement of the OCT focusing lens 43 can be controlled in a coordinated manner.

[前眼部カメラ5A及び5B]
前眼部カメラ5A及び5Bは、例えば特開2013-248376号公報に記載された手法と同様に、眼科装置1の光学系と被検眼Eとの間の相対位置を求めるために用いられる。前眼部カメラ5A及び5Bは、光学系が格納された筐体(眼底カメラユニット2等)の被検眼E側の面に設けられている。眼科装置1は、前眼部カメラ5A及び5Bにより異なる方向から実質的に同時に取得された2つの前眼部画像を解析することにより、光学系と被検眼Eとの間の3次元的な相対位置を求める。2つの前眼部画像の解析は、特開2013-248376号公報に開示された解析と同様であってよい。また、前眼部カメラの個数は2以上の任意の個数であってよい。
[Anterior segment cameras 5A and 5B]
The anterior eye cameras 5A and 5B are used to determine the relative position between the optical system of the ophthalmologic apparatus 1 and the subject's eye E, for example, in the same manner as the method described in Japanese Patent Application Laid-Open No. 2013-248376. The anterior eye cameras 5A and 5B are provided on the face of the subject's eye E side of a housing (fundus camera unit 2, etc.) housing an optical system. The ophthalmologic apparatus 1 analyzes two anterior segment images obtained substantially simultaneously from different directions by the anterior segment cameras 5A and 5B, thereby determining the three-dimensional relative relationship between the optical system and the subject's eye E. find the position. The analysis of the two anterior segment images may be similar to the analysis disclosed in Japanese Patent Application Laid-Open No. 2013-248376. Also, the number of anterior segment cameras may be any number of two or more.

本例では、2以上の前眼部カメラを利用して被検眼Eの位置(つまり被検眼Eと光学系との相対位置)を求めているが、被検眼Eの位置を求めるための手法はこれに限定されない。例えば、被検眼Eの正面画像(例えば前眼部Eaの観察画像)を解析することにより、被検眼Eの位置を求めることができる。或いは、被検眼Eの角膜に指標を投影する手段を設け、この指標の投影位置(つまり、この指標の角膜反射光束の検出状態)に基づいて被検眼Eの位置を求めることができる。 In this example, the position of the eye to be examined E (that is, the relative position between the eye to be examined E and the optical system) is obtained using two or more anterior eye cameras. It is not limited to this. For example, the position of the eye E to be examined can be obtained by analyzing a front image of the eye E to be examined (for example, an observed image of the anterior segment Ea). Alternatively, means for projecting an index onto the cornea of the subject's eye E can be provided, and the position of the subject's eye E can be obtained based on the projection position of this index (that is, the detection state of the corneal reflected light flux of this index).

[OCTユニット100]
図2に例示するように、OCTユニット100には、スウェプトソースOCTを実行するための光学系が設けられている。この光学系は、干渉光学系を含む。この干渉光学系は、波長可変光源(波長掃引型光源)からの光を測定光と参照光とに分割する機能と、被検眼Eからの測定光の戻り光と参照光路を経由した参照光とを重ね合わせて干渉光を生成する機能と、この干渉光を検出する機能とを備える。干渉光学系により得られた干渉光の検出結果(検出信号)は、干渉光のスペクトルを示す信号であり、演算制御ユニット200に送られる。
[OCT unit 100]
As illustrated in FIG. 2, the OCT unit 100 is provided with an optical system for performing swept-source OCT. This optical system includes an interference optical system. This interference optical system has a function of dividing light from a wavelength tunable light source (wavelength swept light source) into measurement light and reference light, return light of the measurement light from the subject's eye E, and reference light passing through the reference light path. and a function of generating interference light and a function of detecting this interference light. A detection result (detection signal) of the interference light obtained by the interference optical system is a signal indicating the spectrum of the interference light, and is sent to the arithmetic control unit 200 .

光源ユニット101は、例えば、出射光の波長を高速で変化させる近赤外波長可変レーザーを含む。光源ユニット101から出力された光L0は、光ファイバ102により偏波コントローラ103に導かれてその偏光状態が調整される。偏光状態が調整された光L0は、光ファイバ104によりファイバカプラ105に導かれて測定光LSと参照光LRとに分割される。 The light source unit 101 includes, for example, a near-infrared tunable laser that changes the wavelength of emitted light at high speed. The light L0 output from the light source unit 101 is guided to the polarization controller 103 by the optical fiber 102, and the polarization state is adjusted. The light L0 whose polarization state has been adjusted is guided by the optical fiber 104 to the fiber coupler 105 and split into the measurement light LS and the reference light LR.

参照光LRは、光ファイバ110によりコリメータ111に導かれて平行光束に変換され、光路長補正部材112及び分散補償部材113を経由し、コーナーキューブ114に導かれる。光路長補正部材112は、参照光LRの光路長と測定光LSの光路長とを合わせるよう作用する。分散補償部材113は、参照光LRと測定光LSとの間の分散特性を合わせるよう作用する。コーナーキューブ114は、参照光LRの入射方向に移動可能であり、それにより参照光LRの光路長が変更される。 The reference light LR is guided to the collimator 111 by the optical fiber 110 and converted into a parallel beam, and guided to the corner cube 114 via the optical path length correction member 112 and the dispersion compensation member 113 . The optical path length correction member 112 acts to match the optical path length of the reference light LR and the optical path length of the measurement light LS. The dispersion compensation member 113 acts to match the dispersion characteristics between the reference light LR and the measurement light LS. The corner cube 114 is movable in the incident direction of the reference light LR, thereby changing the optical path length of the reference light LR.

コーナーキューブ114を経由した参照光LRは、分散補償部材113及び光路長補正部材112を経由し、コリメータ116によって平行光束から集束光束に変換され、光ファイバ117に入射する。光ファイバ117に入射した参照光LRは、偏波コントローラ118に導かれてその偏光状態が調整され、光ファイバ119によりアッテネータ120に導かれて光量が調整され、光ファイバ121によりファイバカプラ122に導かれる。 The reference light LR that has passed through the corner cube 114 passes through the dispersion compensating member 113 and the optical path length correcting member 112 , is converted by the collimator 116 from a parallel beam to a converged beam, and enters the optical fiber 117 . The reference light LR incident on the optical fiber 117 is guided to the polarization controller 118 to have its polarization state adjusted, guided to the attenuator 120 via the optical fiber 119 to have its light amount adjusted, and guided to the fiber coupler 122 via the optical fiber 121 . be killed.

一方、ファイバカプラ105により生成された測定光LSは、光ファイバ127により導かれてコリメータレンズユニット40により平行光束に変換され、光路長変更部41、光スキャナ42、OCT合焦レンズ43、ミラー44及びリレーレンズ45を経由する。リレーレンズ45を経由した測定光LSは、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて被検眼Eに入射する。測定光LSは、被検眼Eの様々な深さ位置において散乱・反射される。被検眼Eからの測定光LSの戻り光は、往路と同じ経路を逆向きに進行してファイバカプラ105に導かれ、光ファイバ128を経由してファイバカプラ122に到達する。なお、測定光LSが入射する光ファイバ127の入射端は、被検眼Eの眼底Efと略共役な位置に配置される。 On the other hand, the measurement light LS generated by the fiber coupler 105 is guided by the optical fiber 127 and converted into a parallel light beam by the collimator lens unit 40, and the optical path length changing unit 41, the optical scanner 42, the OCT focusing lens 43, and the mirror 44. and relay lens 45 . The measurement light LS that has passed through the relay lens 45 is reflected by the dichroic mirror 46, refracted by the objective lens 22, and enters the eye E to be examined. The measurement light LS is scattered and reflected at various depth positions of the eye E to be examined. The return light of the measurement light LS from the subject's eye E travels in the opposite direction along the same path as the forward path, is guided to the fiber coupler 105 , and reaches the fiber coupler 122 via the optical fiber 128 . The incident end of the optical fiber 127 into which the measurement light LS is incident is arranged at a position substantially conjugate with the fundus Ef of the eye E to be inspected.

ファイバカプラ122は、光ファイバ128を介して入射された測定光LSと、光ファイバ121を介して入射された参照光LRとを合成して(干渉させて)干渉光を生成する。ファイバカプラ122は、所定の分岐比(例えば1:1)で干渉光を分岐することにより、一対の干渉光LCを生成する。一対の干渉光LCは、それぞれ光ファイバ123及び124を通じて検出器125に導かれる。 The fiber coupler 122 combines (interferences) the measurement light LS that has entered via the optical fiber 128 and the reference light LR that has entered via the optical fiber 121 to generate interference light. The fiber coupler 122 generates a pair of interference lights LC by splitting the interference lights at a predetermined splitting ratio (for example, 1:1). A pair of interference lights LC are guided to detector 125 through optical fibers 123 and 124, respectively.

検出器125は、例えばバランスドフォトダイオードである。バランスドフォトダイオードは、一対の干渉光LCをそれぞれ検出する一対のフォトディテクタを含み、これらフォトディテクタにより得られた一対の検出結果の差分を出力する。検出器125は、この出力(検出信号)をDAQ(Data Acquisition System)130に送る。 Detector 125 is, for example, a balanced photodiode. A balanced photodiode includes a pair of photodetectors that respectively detect a pair of interference lights LC, and outputs a difference between a pair of detection results obtained by these photodetectors. The detector 125 sends this output (detection signal) to a DAQ (Data Acquisition System) 130 .

DAQ130には、光源ユニット101からクロックKCが供給される。クロックKCは、光源ユニット101において、波長可変光源により所定の波長範囲内で掃引される各波長の出力タイミングに同期して生成される。光源ユニット101は、例えば、各出力波長の光L0を分岐することにより得られた2つの分岐光の一方を光学的に遅延させた後、これらの合成光を検出した結果に基づいてクロックKCを生成する。DAQ130は、検出器125から入力される検出信号をクロックKCに基づきサンプリングする。DAQ130は、検出器125からの検出信号のサンプリング結果を演算制御ユニット200に送る。 A clock KC is supplied from the light source unit 101 to the DAQ 130 . The clock KC is generated in the light source unit 101 in synchronization with the output timing of each wavelength swept within a predetermined wavelength range by the wavelength tunable light source. The light source unit 101, for example, optically delays one of the two branched lights obtained by branching the light L0 of each output wavelength, and then outputs the clock KC based on the result of detecting these combined lights. Generate. The DAQ 130 samples the detection signal input from the detector 125 based on the clock KC. DAQ 130 sends the sampling result of the detection signal from detector 125 to arithmetic control unit 200 .

本例では、測定光LSの光路(測定光路、測定アーム)の長さを変更するための光路長変更部41と、参照光LRの光路(参照光路、参照アーム)の長さを変更するためのコーナーキューブ114の双方が設けられている。しかしながら、光路長変更部41とコーナーキューブ114のいずれか一方のみが設けられもよい。また、これら以外の光学部材を用いて、測定光路長と参照光路長との差を変更することも可能である。 In this example, an optical path length changing unit 41 for changing the length of the optical path (measurement optical path, measurement arm) of the measurement light LS and an optical path length changing unit 41 for changing the length of the optical path (reference optical path, reference arm) of the reference light LR corner cubes 114 are provided. However, only one of the optical path length changing portion 41 and the corner cube 114 may be provided. It is also possible to change the difference between the measurement optical path length and the reference optical path length by using optical members other than these.

〔処理系〕
図3~図6に、眼科装置1の処理系の構成例を示す。図3~図6において、眼科装置1に含まれる構成要素の一部が省略されている。図3において、図1及び図2と同様の部分には同一符号を付し、適宜説明を省略する。制御部210、画像形成部220及びデータ処理部230は、例えば、演算制御ユニット200に設けられる。
[Processing system]
3 to 6 show configuration examples of the processing system of the ophthalmologic apparatus 1. FIG. 3 to 6, some of the components included in the ophthalmologic apparatus 1 are omitted. In FIG. 3, the same parts as those in FIGS. 1 and 2 are denoted by the same reference numerals, and description thereof will be omitted as appropriate. The control section 210, the image forming section 220 and the data processing section 230 are provided in the arithmetic control unit 200, for example.

〈制御部210〉
制御部210は、各種の制御を実行する。制御部210は、主制御部211と記憶部212とを含む。
<Control unit 210>
The control unit 210 executes various controls. Control unit 210 includes main control unit 211 and storage unit 212 .

〈主制御部211〉
主制御部211は、プロセッサ(例えば、制御プロセッサ)を含み、眼科装置1の各部(図1~図6に示された各要素を含む)を制御する。例えば、主制御部211は、図1~図2に示す眼底カメラユニット2の光学系の各部、OCTユニット100の光学系の各部、前眼部カメラ5A、5B、上記の光学系を移動する移動機構150、画像形成部220、データ処理部230、及びユーザーインターフェイス(User Interface:UI)240を制御する。
<Main control unit 211>
The main controller 211 includes a processor (eg, control processor) and controls each part of the ophthalmologic apparatus 1 (including each element shown in FIGS. 1 to 6). For example, the main control unit 211 controls each part of the optical system of the retinal camera unit 2 shown in FIGS. It controls mechanism 150 , image forming section 220 , data processing section 230 and user interface (UI) 240 .

眼底カメラユニット2に対する制御には、合焦駆動部31A、43Aに対する制御、イメージセンサ35、38に対する制御、LCD39に対する制御、光路長変更部41に対する制御、及び光スキャナ42に対する制御が含まれる。 The control over the retinal camera unit 2 includes control over the focus driving units 31A and 43A, control over the image sensors 35 and 38, control over the LCD 39, control over the optical path length changing unit 41, and control over the optical scanner 42.

合焦駆動部31Aに対する制御には、撮影合焦レンズ31を光軸方向に移動する制御が含まれる。合焦駆動部43Aに対する制御には、OCT合焦レンズ43を光軸方向に移動する制御が含まれる。 The control for the focus drive unit 31A includes control for moving the photographing focus lens 31 in the optical axis direction. The control for the focus drive unit 43A includes control for moving the OCT focus lens 43 in the optical axis direction.

イメージセンサ35、38に対する制御には、撮像素子に対する受光感度の制御、フレームレート(受光タイミング、露光時間)の制御、受光領域(位置、大きさ、サイズ)の制御、撮像素子に対する受光結果の読み出し制御などがある。 The control of the image sensors 35 and 38 includes control of the light receiving sensitivity of the imaging element, control of the frame rate (light receiving timing, exposure time), control of the light receiving area (position, size, size), and readout of the light receiving result of the imaging element. control, etc.

LCD39に対する制御には、固視位置の制御が含まれる。例えば、主制御部211は、手動又は自動で設定された固視位置に対応するLCD39の画面上の位置に固視標を表示する。また、主制御部211は、LCD39に表示されている固視標の表示位置を(連続的に又は段階的に)変更することができる。それにより、固視標を移動することができる(つまり、固視位置を変更することができる)。固視標の表示位置や移動態様は、マニュアルで又は自動的に設定される。マニュアルでの設定は、例えばGUIを用いて行われる。自動的な設定は、例えば、データ処理部230により行われる。 Control over the LCD 39 includes control of the fixation position. For example, the main control unit 211 displays the fixation target at a position on the screen of the LCD 39 corresponding to the fixation position set manually or automatically. Further, the main control unit 211 can change (continuously or stepwise) the display position of the fixation target displayed on the LCD 39 . Thereby, the fixation target can be moved (that is, the fixation position can be changed). The display position and movement mode of the fixation target are set manually or automatically. Manual setting is performed using, for example, a GUI. Automatic setting is performed by the data processing unit 230, for example.

光路長変更部41に対する制御には、測定光LSの光路長を変更する制御が含まれる。主制御部211は、光路長変更部41のコーナーキューブを駆動する駆動部を制御することで測定光LSの光路に沿って光路長変更部41を移動し、測定光LSの光路長を変更する。 Control over the optical path length changing unit 41 includes control for changing the optical path length of the measurement light LS. The main control unit 211 moves the optical path length changing unit 41 along the optical path of the measuring light LS by controlling the driving unit that drives the corner cubes of the optical path length changing unit 41 to change the optical path length of the measuring light LS. .

光スキャナ42に対する制御には、スキャンモード、スキャン範囲(スキャン開始位置、スキャン終了位置)、スキャン速度などの制御がある。主制御部211は、光スキャナ42に対する制御を行うことで、計測部位(撮影部位)における所望の領域に対して測定光LSでOCTスキャンを実行することができる。 Control of the optical scanner 42 includes control of scan mode, scan range (scan start position, scan end position), scan speed, and the like. By controlling the optical scanner 42, the main control unit 211 can perform an OCT scan with the measurement light LS on a desired region of the measurement site (imaging site).

また、主制御部211は、観察光源11、撮影光源15、フォーカス光学系60などを制御する。 The main control unit 211 also controls the observation light source 11, the photographing light source 15, the focus optical system 60, and the like.

OCTユニット100に対する制御には、光源ユニット101に対する制御、参照駆動部114Aに対する制御、検出器125に対する制御、DAQ130に対する制御が含まれる。 Control over the OCT unit 100 includes control over the light source unit 101, control over the reference driver 114A, control over the detector 125, and control over the DAQ .

光源ユニット101に対する制御には、光源のオン及びオフの制御、光源から出射される光の光量の制御、波長掃引範囲の制御、波長掃引速度、各波長成分の光の出射タイミングの制御などがある。 The control of the light source unit 101 includes control of turning on and off of the light source, control of the amount of light emitted from the light source, control of the wavelength sweep range, wavelength sweep speed, control of emission timing of light of each wavelength component, and the like. .

参照駆動部114Aに対する制御には、参照光LRの光路長を変更する制御が含まれる。主制御部211は、参照駆動部114Aを制御することで参照光LRの光路に沿ってコーナーキューブ114を移動し、参照光LRの光路長を変更する。 Control over the reference driver 114A includes control to change the optical path length of the reference light LR. The main control unit 211 moves the corner cube 114 along the optical path of the reference light LR by controlling the reference driving unit 114A to change the optical path length of the reference light LR.

検出器125に対する制御には、検出素子に対する受光感度の制御、フレームレート(受光タイミング)の制御、受光領域(位置、大きさ、サイズ)の制御、検出素子に対する受光結果の読み出し制御などがある。 Control of the detector 125 includes control of the light receiving sensitivity of the detection element, control of the frame rate (light receiving timing), control of the light receiving area (position, size, size), control of readout of the light receiving result of the detection element, and the like.

DAQ130に対する制御には、検出器125により得られた干渉光の検出結果の取り込み制御(取り込みタイミング、サンプリングタイミング)、取り込まれた干渉光の検出結果に対応した干渉信号の読み出し制御などがある。 The control over the DAQ 130 includes fetch control (fetch timing, sampling timing) of the detection result of the interference light obtained by the detector 125, readout control of the interference signal corresponding to the detection result of the fetched interference light, and the like.

前眼部カメラ5A、5Bに対する制御には、各カメラの受光感度の制御、フレームレート(受光タイミング)の制御、前眼部カメラ5A、5Bの同期制御などがある。 Control of the anterior eye cameras 5A and 5B includes control of the light receiving sensitivity of each camera, frame rate (light receiving timing) control, synchronization control of the anterior eye cameras 5A and 5B, and the like.

移動機構150は、例えば、少なくとも眼底カメラユニット2(光学系)を3次元的に移動する。典型的な例において、移動機構150は、少なくとも眼底カメラユニット2をx方向(左右方向)に移動するための機構と、y方向(上下方向)に移動するための機構と、z方向(奥行き方向、前後方向)に移動するための機構とを含む。x方向に移動するための機構は、例えば、x方向に移動可能なxステージと、xステージを移動するx移動機構とを含む。y方向に移動するための機構は、例えば、例えば、y方向に移動可能なyステージと、yステージを移動するy移動機構とを含む。z方向に移動するための機構は、例えば、z方向に移動可能なzステージと、zステージを移動するz移動機構とを含む。各移動機構は、アクチュエータとしてのパルスモータを含み、主制御部211からの制御を受けて動作する。 The moving mechanism 150, for example, three-dimensionally moves at least the retinal camera unit 2 (optical system). In a typical example, the movement mechanism 150 includes at least a mechanism for moving the retinal camera unit 2 in the x direction (horizontal direction), a mechanism for moving it in the y direction (vertical direction), and a mechanism for moving it in the z direction (depth direction). , back and forth). The mechanism for moving in the x-direction includes, for example, an x-stage movable in the x-direction and an x-moving mechanism for moving the x-stage. The mechanism for moving in the y-direction includes, for example, a y-stage movable in the y-direction and a y-moving mechanism for moving the y-stage. The mechanism for moving in the z-direction includes, for example, a z-stage movable in the z-direction and a z-moving mechanism for moving the z-stage. Each movement mechanism includes a pulse motor as an actuator and operates under control from the main control unit 211 .

移動機構150に対する制御は、アライメントやトラッキングにおいて用いられる。トラッキングとは、被検眼Eの眼球運動に合わせて装置光学系を移動させるものである。トラッキングを行う場合には、事前にアライメントとフォーカス調整が実行される。トラッキングは、装置光学系の位置を眼球運動に追従させることにより、アライメントとピントが合った好適な位置関係を維持する機能である。いくつかの実施形態では、参照光の光路長(よって、測定光の光路と参照光の光路との間の光路長差)を変更するために移動機構150の制御を行うように構成される。 Control over the moving mechanism 150 is used in alignment and tracking. Tracking is to move the apparatus optical system according to the eye movement of the eye E to be examined. Alignment and focus adjustment are performed in advance when tracking is performed. Tracking is a function of maintaining a suitable positional relationship in which alignment and focus are achieved by causing the position of the apparatus optical system to follow the movement of the eyeball. Some embodiments are configured to control movement mechanism 150 to change the optical path length of the reference beam (and thus the optical path length difference between the optical path of the measurement beam and the optical path of the reference beam).

マニュアルアライメントの場合、光学系に対する被検眼Eの変位がキャンセルされるようにユーザーがユーザーインターフェイス240に対して操作することにより光学系と被検眼Eとを相対移動させる。例えば、主制御部211は、ユーザーインターフェイス240に対する操作内容に対応した制御信号を移動機構150に出力することにより移動機構150を制御して被検眼Eに対して光学系を相対移動させる。 In the case of manual alignment, the user relatively moves the optical system and the subject's eye E by operating the user interface 240 so that the displacement of the subject's eye E with respect to the optical system is cancelled. For example, the main control unit 211 controls the moving mechanism 150 to move the optical system relative to the eye E by outputting a control signal corresponding to the operation content of the user interface 240 to the moving mechanism 150 .

オートアライメントの場合、光学系に対する被検眼Eの変位がキャンセルされるように主制御部211が移動機構150を制御することにより被検眼Eに対して光学系を相対移動させる。具体的には、特開2013-248376号公報に記載のように、一対の前眼部カメラ5A及び5Bと被検眼Eとの位置関係に基づく三角法を利用した演算処理を行い、主制御部211は、光学系に対する被検眼Eの位置関係が所定の位置関係になるように移動機構150を制御する。いくつかの実施形態では、主制御部211は、光学系の光軸が被検眼Eの軸に略一致し、かつ、被検眼Eに対する光学系の距離が所定の作動距離になるように制御信号を移動機構150に出力することにより移動機構150を制御して被検眼Eに対して光学系を相対移動させる。ここで、作動距離とは、対物レンズ22のワーキングディスタンスとも呼ばれる既定値であり、光学系を用いた測定時(撮影時)における被検眼Eと光学系との間の距離に相当する。 In the case of auto-alignment, the main control unit 211 controls the movement mechanism 150 so that the displacement of the eye E to be inspected with respect to the optical system is canceled so that the optical system is relatively moved with respect to the eye E to be inspected. Specifically, as described in JP-A-2013-248376, arithmetic processing using trigonometry based on the positional relationship between the pair of anterior eye cameras 5A and 5B and the subject's eye E is performed, and the main control unit A reference numeral 211 controls the moving mechanism 150 so that the eye to be examined E has a predetermined positional relationship with respect to the optical system. In some embodiments, the main controller 211 outputs a control signal such that the optical axis of the optical system substantially coincides with the axis of the eye E to be examined and the distance of the optical system from the eye E to be examined is a predetermined working distance. to the moving mechanism 150 to control the moving mechanism 150 to move the optical system relative to the eye E to be examined. Here, the working distance is a default value also called a working distance of the objective lens 22, and corresponds to the distance between the subject's eye E and the optical system at the time of measurement (at the time of photographing) using the optical system.

また、主制御部211は、表示制御部211Aを含む。表示制御部211Aは、各種情報を表示部240Aに表示させることが可能である。例えば、表示制御部211Aは、眼底カメラユニット2を用いて取得された眼底画像又は前眼部画像、OCTユニット100を用いて取得された断層画像や正面画像(OCT画像)、又は後述のデータ処理部230により得られたデータ処理結果(解析処理結果)を表示部240Aに表示させる。データ処理結果の例として、後述の脈絡膜の層厚の変化量を示す層厚変化量プロファイル、層厚変化量プロファイルにおける特徴位置を示す情報、層厚変化量プロファイルの特徴位置における層厚の変化量を示す情報がある。いくつかの実施形態では、表示制御部211Aは、眼底画像(又は前眼部画像)及びOCT画像の少なくとも一方に、データ処理結果を対応付けて表示部240Aに表示させる。 The main controller 211 also includes a display controller 211A. The display control unit 211A can display various information on the display unit 240A. For example, the display control unit 211A controls the fundus image or the anterior segment image acquired using the retinal camera unit 2, the tomographic image or front image (OCT image) acquired using the OCT unit 100, or the data processing described later. The data processing result (analysis processing result) obtained by the unit 230 is displayed on the display unit 240A. Examples of data processing results include a layer thickness change amount profile indicating the amount of change in the layer thickness of the choroid, information indicating characteristic positions in the layer thickness change amount profile, and a layer thickness change amount at the characteristic positions in the layer thickness change amount profile. There is information indicating In some embodiments, the display control unit 211A causes the display unit 240A to display the data processing result in association with at least one of the fundus image (or the anterior segment image) and the OCT image.

〈記憶部212〉
記憶部212は各種のデータを記憶する。記憶部212の機能は、メモリ又は記憶装置等の記憶デバイスにより実現される。記憶部212に記憶されるデータとしては、例えば、眼底画像の画像データ、前眼部画像の画像データ、OCTデータ(OCT画像を含む)、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報、電子カルテ情報などの被検眼に関する情報を含む。記憶部212には、各種のプロセッサ(制御プロセッサ、画像形成プロセッサ、データ処理プロセッサ)を実行させるためのプログラムが記憶される。
<Storage unit 212>
The storage unit 212 stores various data. The function of the storage unit 212 is implemented by a storage device such as a memory or a storage device. The data stored in the storage unit 212 includes, for example, image data of a fundus image, image data of an anterior segment image, OCT data (including an OCT image), eye information to be examined, and the like. The eye information to be examined includes information about the subject such as patient ID and name, information about the eye to be examined such as left/right eye identification information, and electronic medical record information. The storage unit 212 stores programs for executing various processors (control processor, image forming processor, data processing processor).

また、記憶部212は、リスク判定情報212Aを記憶する。リスク判定情報212Aは、CSC(疾患)のリスクを判定するための情報である。CSCのリスクの例として、CSC(疾患)であるか否か(疾患の有無)、CSCである確率(疾患の可能性)がある。リスク判定情報212Aの例として、複数の被検眼について、脈絡膜の層厚変化量プロファイルの特徴位置における変化量にCSCのリスク情報があらかじめ関連付けられた標準データ(基準データ、統計データ)(Normative Data)がある。 The storage unit 212 also stores risk determination information 212A. The risk determination information 212A is information for determining the risk of CSC (disease). Examples of CSC risk include whether or not to have CSC (disease) (presence or absence of disease) and the probability of having CSC (likelihood of disease). As an example of the risk determination information 212A, standard data (reference data, statistical data) in which CSC risk information is associated in advance with the amount of change in the feature position of the choroid layer thickness change amount profile for a plurality of eyes to be examined (Normative Data) There is

〈画像形成部220〉
画像形成部220は、プロセッサ(例えば、画像形成プロセッサ)を含み、DAQ130からの出力(検出信号のサンプリング結果)に基づいて、被検眼EのOCT画像(画像データ)を形成する。例えば、画像形成部220は、従来のスウェプトソースOCTと同様に、Aラインごとのサンプリング結果に基づくスペクトル分布に信号処理を施してAラインごとの反射強度プロファイルを形成し、これらAラインプロファイルを画像化してスキャンラインに沿って配列する。上記信号処理には、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などが含まれる。他のタイプのOCTを実行する場合、画像形成部220は、そのタイプに応じた公知の処理を実行する。
<Image forming unit 220>
The image forming unit 220 includes a processor (for example, an image forming processor), and forms an OCT image (image data) of the subject's eye E based on the output from the DAQ 130 (sampling result of the detection signal). For example, as in conventional swept-source OCT, the image forming unit 220 performs signal processing on the spectral distribution based on the sampling result for each A line to form a reflection intensity profile for each A line, and images these A line profiles. and arrange them along the scan lines. The signal processing includes noise removal (noise reduction), filtering, FFT (Fast Fourier Transform), and the like. When performing another type of OCT, the image forming section 220 performs known processing according to that type.

〈データ処理部230〉
データ処理部230は、プロセッサ(例えば、データ処理プロセッサ)を含み、画像形成部220により形成された画像に対して画像処理や解析処理を施す。主制御部211に含まれるプロセッサ、データ処理部230に含まれるプロセッサ、及び画像形成部220に含まれるプロセッサの少なくとも2つは、単一のプロセッサにより構成されていてもよい。
<Data processing unit 230>
The data processing unit 230 includes a processor (for example, a data processing processor) and performs image processing and analysis processing on the image formed by the image forming unit 220 . At least two of the processor included in the main control unit 211, the processor included in the data processing unit 230, and the processor included in the image forming unit 220 may be configured by a single processor.

データ処理部230は、断層画像の間の画素を補間する補間処理などの公知の画像処理を実行して、眼底Ef又は前眼部Eaの3次元画像の画像データを形成する。なお、3次元画像の画像データとは、3次元座標系により画素の位置が定義された画像データを意味する。3次元画像の画像データとしては、3次元的に配列されたボクセルからなる画像データがある。この画像データは、ボリュームデータ或いはボクセルデータなどと呼ばれる。ボリュームデータに基づく画像を表示させる場合、データ処理部230は、このボリュームデータに対してレンダリング処理(ボリュームレンダリングやMIP(Maximum Intensity Projection:最大値投影)など)を施して、特定の視線方向から見たときの擬似的な3次元画像の画像データを形成する。表示部240A等の表示デバイスには、この擬似的な3次元画像が表示される。 The data processing unit 230 executes known image processing such as interpolation processing for interpolating pixels between tomographic images to form image data of a three-dimensional image of the fundus oculi Ef or the anterior segment Ea. Note that image data of a three-dimensional image means image data in which pixel positions are defined by a three-dimensional coordinate system. Image data of a three-dimensional image includes image data composed of voxels arranged three-dimensionally. This image data is called volume data or voxel data. When displaying an image based on volume data, the data processing unit 230 performs rendering processing (volume rendering, MIP (Maximum Intensity Projection: maximum intensity projection), etc.) on this volume data so that it can be viewed from a specific line-of-sight direction. Image data of a pseudo three-dimensional image is formed. This pseudo three-dimensional image is displayed on a display device such as the display unit 240A.

また、3次元画像の画像データとして、複数の断層画像のスタックデータを形成することも可能である。スタックデータは、複数のスキャンラインに沿って得られた複数の断層画像を、スキャンラインの位置関係に基づいて3次元的に配列させることで得られる画像データである。すなわち、スタックデータは、元々個別の2次元座標系により定義されていた複数の断層画像を、1つの3次元座標系により表現する(つまり1つの3次元空間に埋め込む)ことにより得られる画像データである。 Stack data of a plurality of tomographic images can also be formed as image data of a three-dimensional image. Stacked data is image data obtained by three-dimensionally arranging a plurality of tomographic images obtained along a plurality of scan lines based on the positional relationship of the scan lines. That is, stack data is image data obtained by expressing a plurality of tomographic images, which were originally defined by individual two-dimensional coordinate systems, by one three-dimensional coordinate system (that is, embedding them in one three-dimensional space). be.

いくつかの実施形態では、データ処理部230は、Aスキャン画像をBスキャン方向に配列することによりBスキャン画像を生成する。いくつかの実施形態では、データ処理部230は、取得された3次元データセット(ボリュームデータ、スタックデータ等)に各種のレンダリングを施すことで、任意断面におけるBモード画像(Bスキャン画像)(縦断面像、軸方向断面像)、任意断面におけるCモード画像(Cスキャン画像)(横断面像、水平断面像)、プロジェクション画像、シャドウグラムなどを形成することができる。Bスキャン画像やCスキャン画像のような任意断面の画像は、指定された断面上の画素(ピクセル、ボクセル)を3次元データセットから選択することにより形成される。プロジェクション画像は、3次元データセットを所定方向(z方向、深さ方向、軸方向)に投影することによって形成される。シャドウグラムは、3次元データセットの一部(たとえば特定層に相当する部分データ)を所定方向に投影することによって形成される。積分する層方向の深さ範囲を変更することで、互いに異なる2以上のシャドウグラムを形成することが可能である。Cスキャン画像、プロジェクション画像、シャドウグラムのような、被検眼の正面側を視点とする画像を正面画像(en-face画像)と呼ぶ。 In some embodiments, data processor 230 generates a B-scan image by arranging the A-scan image in the B-scan direction. In some embodiments, the data processing unit 230 performs various renderings on the acquired three-dimensional data set (volume data, stack data, etc.) to obtain a B-mode image (B-scan image) (longitudinal section) in an arbitrary cross section. plane image, axial cross-sectional image), C-mode image (C-scan image) at an arbitrary cross-section (cross-sectional image, horizontal cross-sectional image), projection image, shadowgram, and the like. An arbitrary cross-sectional image, such as a B-scan image or a C-scan image, is formed by selecting pixels (pixels, voxels) on a specified cross-section from a three-dimensional data set. A projection image is formed by projecting a three-dimensional data set in a predetermined direction (z direction, depth direction, axial direction). A shadowgram is formed by projecting a portion of the three-dimensional data set (for example, partial data corresponding to a specific layer) in a predetermined direction. By changing the depth range in the layer direction to be integrated, it is possible to form two or more different shadowgrams. An image such as a C-scan image, a projection image, or a shadowgram whose viewpoint is the front side of the subject's eye is called an en-face image.

データ処理部230は、OCTにより時系列に収集されたデータ(例えば、Bスキャン画像データ)に基づいて、網膜血管や脈絡膜血管が強調されたBスキャン画像や正面画像(血管強調画像、アンギオグラム)を構築することができる。例えば、被検眼Eの略同一部位を反復的にスキャンすることにより、時系列のOCTデータを収集することができる。 The data processing unit 230 generates B-scan images and front images (blood vessel-enhanced images, angiograms) in which retinal vessels and choroidal vessels are emphasized based on data (for example, B-scan image data) collected in time series by OCT. can be constructed. For example, time-series OCT data can be collected by repeatedly scanning substantially the same portion of the eye E to be examined.

いくつかの実施形態では、データ処理部230は、略同一部位に対するBスキャンにより得られた時系列のBスキャン画像を比較し、信号強度の変化部分の画素値を変化分に対応した画素値に変換することにより当該変化部分が強調された強調画像を構築する。更に、データ処理部230は、構築された複数の強調画像から所望の部位における所定の厚さ分の情報を抽出してen-face画像として構築することでOCTA(アンギオグラフィ)像を形成する。 In some embodiments, the data processing unit 230 compares time-series B-scan images obtained by B-scans of substantially the same site, and converts the pixel values of the portions where the signal intensity changes to the pixel values corresponding to the changes. An enhanced image in which the changed portion is emphasized is constructed by the conversion. Furthermore, the data processing unit 230 extracts information for a predetermined thickness in a desired region from the constructed multiple enhanced images and constructs an en-face image to form an OCTA (angiography) image.

図4に示すように、データ処理部230は、アライメント処理部250と、リスク判定処理部260とを含む。アライメント処理部250は、被検眼Eに対する眼科装置1の光学系の位置合わせを行うための処理を実行する。リスク判定処理部260は、CSCのリスクを判定するための処理を実行する。 As shown in FIG. 4 , data processing section 230 includes alignment processing section 250 and risk determination processing section 260 . The alignment processing unit 250 performs processing for aligning the optical system of the ophthalmologic apparatus 1 with respect to the eye E to be examined. The risk determination processing unit 260 executes processing for determining the risk of CSC.

〈アライメント処理部250〉
図5に示すように、アライメント処理部250は、特徴部位特定部251と、3次元位置算出部252とを含む。アライメント処理部250は、前眼部カメラ5A、5Bの位置と特徴部位の位置とに基づいて被検眼Eの3次元位置を求める。主制御部211は、求められた3次元位置に基づいて移動機構150を制御することにより被検眼Eに対して光学系を相対移動させ、被検眼Eに対する光学系の位置合わせを行う。
<Alignment processing unit 250>
As shown in FIG. 5 , the alignment processing section 250 includes a characteristic part identifying section 251 and a three-dimensional position calculating section 252 . The alignment processing unit 250 obtains the three-dimensional position of the subject's eye E based on the positions of the anterior eye cameras 5A and 5B and the positions of the characteristic regions. The main control unit 211 moves the optical system relative to the eye E to be examined by controlling the moving mechanism 150 based on the obtained three-dimensional position, and aligns the optical system with the eye E to be examined.

〈特徴部位特定部251〉
特徴部位特定部251は、前眼部カメラ5A及び5Bにより得られた各撮影画像を解析することで、前眼部Eaの特徴部位に相当する当該撮影画像中の位置(特徴位置と呼ぶ)を特定する。特徴部位としては、例えば被検眼Eの瞳孔領域、被検眼Eの瞳孔中心位置、瞳孔重心位置、角膜中心位置、角膜頂点位置、被検眼中心位置、又は虹彩が用いられる。以下、被検眼Eの瞳孔中心位置を特定する処理の具体例を説明する。
<Characteristic part identification unit 251>
The characteristic site identification unit 251 analyzes each captured image obtained by the anterior segment cameras 5A and 5B to identify a position (referred to as a characteristic position) in the captured image corresponding to the characteristic site of the anterior segment Ea. Identify. For example, the pupil region of the subject eye E, the pupil center position of the subject eye E, the pupil center position, the corneal center position, the corneal vertex position, the subject eye center position, or the iris are used as the characteristic site. A specific example of processing for specifying the pupil center position of the eye E to be examined will be described below.

まず、特徴部位特定部251は、撮影画像の画素値(輝度値など)の分布に基づいて、被検眼Eの瞳孔に相当する画像領域(瞳孔領域)を特定する。一般に瞳孔は他の部位よりも低い輝度で描画されるので、低輝度の画像領域を探索することによって瞳孔領域を特定することができる。このとき、瞳孔の形状を考慮して瞳孔領域を特定するようにしてもよい。つまり、略円形かつ低輝度の画像領域を探索することによって瞳孔領域を特定するように構成することができる。 First, the characteristic site identification unit 251 identifies an image region (pupil region) corresponding to the pupil of the subject's eye E based on the distribution of pixel values (such as luminance values) of the captured image. Since the pupil is generally drawn with lower luminance than other parts, the pupil region can be identified by searching for the low-luminance image region. At this time, the pupil region may be specified in consideration of the shape of the pupil. In other words, the pupil region can be identified by searching for a substantially circular low-brightness image region.

次に、特徴部位特定部251は、特定された瞳孔領域の中心位置を特定する。上記のように瞳孔は略円形であるので、瞳孔領域の輪郭を特定し、この輪郭(の近似円または近似楕円)の中心位置を特定し、これを瞳孔中心位置とすることができる。また、瞳孔領域の重心を求め、この重心位置を瞳孔重心位置として特定してもよい。 Next, the characteristic part identifying section 251 identifies the central position of the identified pupil region. Since the pupil is substantially circular as described above, it is possible to specify the outline of the pupil region, specify the center position of this outline (the approximate circle or approximate ellipse), and set this as the pupil center position. Alternatively, the center of gravity of the pupil region may be obtained and the position of the center of gravity may be specified as the position of the center of gravity of the pupil.

なお、他の特徴部位に対応する特徴位置を特定する場合であっても、上記と同様に撮影画像の画素値の分布に基づいて当該特徴位置を特定することが可能である。 It should be noted that even when specifying a characteristic position corresponding to another characteristic part, it is possible to specify the characteristic position based on the distribution of pixel values of the captured image in the same manner as described above.

特徴部位特定部251は、前眼部カメラ5A及び5Bにより逐次に得られた撮影画像に対し特徴部位に相当する特徴位置を逐次に特定することが可能である。また、特徴部位特定部251は、前眼部カメラ5A及び5Bにより逐次に得られた撮影画像に対し1以上の任意の数のフレームおきに特徴位置を特定してもよい。 The characteristic part identifying unit 251 can sequentially identify characteristic positions corresponding to the characteristic parts in the captured images sequentially obtained by the anterior eye cameras 5A and 5B. Further, the characteristic part identification unit 251 may identify the characteristic position every one or more frames of the captured images sequentially obtained by the anterior eye cameras 5A and 5B.

〈3次元位置算出部252〉
3次元位置算出部252は、前眼部カメラ5A及び5Bの位置と、特徴部位特定部251により特定された特徴部位に相当する特徴位置とに基づいて特徴部位の3次元位置を被検眼Eの3次元位置として特定する。3次元位置算出部252は、特開2013-248376号公報に開示されているように、2つの前眼部カメラ5A及び5Bの位置(既知である)と、2つの撮影画像において特徴部位に相当する位置とに対して、公知の三角法を適用することにより被検眼Eの3次元位置を算出する。3次元位置算出部252により求められた3次元位置は、主制御部211に送られる。主制御部211は、当該3次元位置に基づいて、光学系の光軸のx方向及びy方向の位置が3次元位置のx方向及びy方向の位置と一致し、かつ、z方向の距離が所定の作動距離になるように移動機構150を制御する。
<Three-dimensional position calculator 252>
The three-dimensional position calculation unit 252 calculates the three-dimensional positions of the characteristic regions of the subject's eye E based on the positions of the anterior eye cameras 5A and 5B and the characteristic positions corresponding to the characteristic regions identified by the characteristic region identification unit 251. Identify as a three-dimensional position. The three-dimensional position calculation unit 252, as disclosed in Japanese Unexamined Patent Application Publication No. 2013-248376, calculates the positions of the two anterior eye cameras 5A and 5B (which are known) and the characteristic regions in the two captured images. The three-dimensional position of the subject's eye E is calculated by applying a known trigonometric method to the position where the eye E is to be examined. The three-dimensional position calculated by the three-dimensional position calculator 252 is sent to the main controller 211 . Based on the three-dimensional position, the main control unit 211 determines that the x- and y-direction positions of the optical axis of the optical system match the x- and y-direction positions of the three-dimensional position, and that the z-direction distance is The moving mechanism 150 is controlled so as to achieve a predetermined working distance.

〈リスク判定処理部260〉
図6に示すように、リスク判定処理部260は、層領域特定部261と、層厚特定部262と、特徴位置特定部263と、層厚変化量プロファイル生成部264と、リスク判定部265とを含む。特徴位置特定部263は、移動平均処理部2631と、最大値特定部2632とを含む。
<Risk determination processing unit 260>
As shown in FIG. 6, the risk determination processing unit 260 includes a layer area specifying unit 261, a layer thickness specifying unit 262, a characteristic position specifying unit 263, a layer thickness change amount profile generating unit 264, and a risk determining unit 265. including. The feature position specifying section 263 includes a moving average processing section 2631 and a maximum value specifying section 2632 .

〈層領域特定部261〉
層領域特定部261は、被検眼Eに対してOCTを実行することにより得られたOCTデータに基づいて、所定の層領域を特定する。層領域の例として、内境界膜、神経繊維層、神経節細胞層、内網状層、内顆粒層、外網状層、外顆粒層、外境界膜、視細胞層、網膜色素上皮層、ブルッフ膜、脈絡膜、強膜がある。
<Layer area specifying unit 261>
The layer region identifying unit 261 identifies a predetermined layer region based on OCT data obtained by performing OCT on the eye E to be examined. Examples of layer regions include the inner limiting membrane, nerve fiber layer, ganglion cell layer, inner plexiform layer, inner nuclear layer, outer plexiform layer, outer nuclear layer, outer limiting membrane, photoreceptor layer, retinal pigment epithelium layer, and Bruch's membrane. , choroid, and sclera.

いくつかの実施形態では、層領域特定部261は、干渉光を検出することにより得られた干渉信号の強度に基づいて所定の層領域を特定する。例えば、層領域特定部261は、干渉信号の強度の極値(極大値)を示す位置を層領域の境界位置に相当する位置として特定し、干渉信号の強度の最大値を示す位置を基準に上記の層領域を特定する。 In some embodiments, the layer area identifying section 261 identifies a predetermined layer area based on the intensity of the interference signal obtained by detecting the interference light. For example, the layer area identifying unit 261 identifies a position indicating an extreme value (maximum value) of the intensity of the interference signal as a position corresponding to the boundary position of the layer area, and uses the position indicating the maximum value of the intensity of the interference signal as a reference. Identify the above layer regions.

いくつかの実施形態では、層領域特定部261は、画像形成部220により形成された眼底Efの断層画像に基づいて所定の層領域を特定する。例えば、層領域特定部261は、断層画像において隣接する2以上のピクセルの強度差(輝度値の差、画素値の差)から眼底Efにおける層領域の境界候補位置を特定する。このとき、層領域特定部261は、強度差を第1閾値により二値化することにより得られた第1境界候補位置と、当該強度差を第1閾値より高い第2閾値により二値化することにより得られた第2境界候補位置とを特定する。第1境界候補位置は、ノイズ成分を多く含んだ状態で特定された境界候補位置である。第2境界候補位置は、層領域の境界位置として必要な部分が一部失われている可能性がある境界候補位置である。なお、層領域特定部261は、強度差から特定された層領域の複数の境界候補位置から強度勾配(輝度勾配)に基づいて境界と無関係な部分を取り除いた後、第1境界候補位置と第2境界候補位置とを特定することが可能である。層領域特定部261は、第1境界候補位置のうち第2境界候補位置に結合されるものを層領域の境界位置として特定する。層領域特定部261は、特定された2つの境界位置の間を層領域として特定する。 In some embodiments, the layer region identifying section 261 identifies a predetermined layer region based on the tomographic image of the fundus oculi Ef formed by the image forming section 220 . For example, the layer region identifying unit 261 identifies the boundary candidate position of the layer region in the fundus oculi Ef from the intensity difference (luminance value difference, pixel value difference) of two or more adjacent pixels in the tomographic image. At this time, the layer region specifying unit 261 binarizes the first boundary candidate position obtained by binarizing the intensity difference with the first threshold and the intensity difference with the second threshold higher than the first threshold. A second boundary candidate position obtained by the above is identified. The first boundary candidate position is a boundary candidate position identified in a state containing many noise components. The second boundary candidate position is a boundary candidate position where there is a possibility that part of the part required as the boundary position of the layer region is lost. Note that the layer region identifying unit 261 removes a portion unrelated to the boundary based on the intensity gradient (brightness gradient) from the plurality of boundary candidate positions of the layer region identified from the intensity difference, and then removes the first boundary candidate position and the first boundary candidate position. It is possible to identify two boundary candidate locations. The layer region identifying unit 261 identifies those of the first boundary candidate positions that are connected to the second boundary candidate positions as boundary positions of the layer region. The layer area identifying unit 261 identifies the area between the two identified boundary positions as a layer area.

この実施形態では、層領域特定部261は、ブルッフ膜に相当する境界位置と、脈絡膜/強膜の境界面(Chorio-Scleral Interface:CSI)に相当する境界位置とを特定し、特定された2つの境界位置から脈絡膜を特定する。 In this embodiment, the layer region identifying unit 261 identifies the boundary position corresponding to Bruch's membrane and the boundary position corresponding to the Chorio-Scleral Interface (CSI) interface, and the identified 2 Identify the choroid from one boundary location.

〈層厚特定部262〉
層厚特定部262は、層領域特定部261により特定された層領域のAスキャン方向の層厚を特定する。例えば、層厚特定部262は、特定された2つの境界位置の間のAスキャン方向の距離を当該2つの境界位置の間の層領域の層厚として特定する。
<Layer thickness specifying unit 262>
The layer thickness specifying unit 262 specifies the layer thickness in the A scan direction of the layer region specified by the layer region specifying unit 261 . For example, the layer thickness identifying unit 262 identifies the distance in the A-scan direction between the two identified boundary positions as the layer thickness of the layer region between the two boundary positions.

この実施形態では、層厚特定部262は、ブルッフ膜に相当する境界位置と、CSIに相当する境界位置との間のAスキャン方向の距離を脈絡膜の層厚(膜厚)として特定する。 In this embodiment, the layer thickness specifying unit 262 specifies the distance in the A-scan direction between the boundary position corresponding to Bruch's membrane and the boundary position corresponding to CSI as the layer thickness (film thickness) of the choroid.

層厚特定部262は、Bスキャン方向に配列されるAスキャンの測定位置(Aラインの位置)における脈絡膜の層厚を順次に特定することが可能である。Aスキャンの測定位置は、眼科装置1に固有の撮影画角を断層画像におけるBスキャン方向のピクセル数で除算することにより得られるAラインのスキャン角度(OCTスキャンのスキャン中心位置を中心とするAスキャンのスキャン角度)から特定される。層厚特定部262は、Aラインのスキャン角度ごとにBスキャン方向に隣接するAラインの層厚の差を順次に算出することが可能である。 The layer thickness specifying unit 262 can sequentially specify the layer thickness of the choroid at the A-scan measurement positions (A-line positions) arranged in the B-scan direction. The A-scan measurement position is the A-line scan angle (A It is identified from the scan angle of the scan). The layer thickness specifying unit 262 can sequentially calculate the difference in layer thickness of A lines adjacent in the B scanning direction for each scanning angle of the A lines.

〈特徴位置特定部263〉
特徴位置特定部263は、Aスキャン方向に交差するBスキャン方向における脈絡膜の層厚の変化量の特徴位置を特定する。
<Characteristic position specifying unit 263>
The feature position specifying unit 263 specifies the feature position of the amount of change in the layer thickness of the choroid in the B scan direction that intersects with the A scan direction.

上記のように、層厚特定部262は、Aラインのスキャン角度ごとに層厚を特定する。
従って、特徴位置特定部263は、Bスキャン方向に隣接するAラインの層厚の差分と、OCTスキャンのスキャン中心位置を中心とするAラインごとのスキャン角度とに基づいて、層厚の変化量の特徴位置を特定することが可能である。
As described above, the layer thickness specifying unit 262 specifies the layer thickness for each A-line scan angle.
Therefore, the characteristic position specifying unit 263 determines the amount of change in layer thickness based on the difference in the layer thickness of the A lines adjacent in the B scanning direction and the scan angle for each A line centered on the scan center position of the OCT scan. It is possible to identify the feature position of

特徴位置の例として、変化量の最大値を示す位置、変化量の最小値を示す位置、変化量の極大値を示す1以上の位置、変化量の極小値を示す1以上の位置、変化量又は変化量の極値が閾値以上である1以上の位置、変化量又は変化量の極値が閾値以下である1以上の位置などがある。変化量の極大値を示す1以上の位置は、極大値を高い順に並べたときの上位の複数の位置であってよい。変化量の極小値を示す1以上の位置は、極小値を低い順に並べたときの下位の複数の位置であってよい。 Examples of characteristic positions include the position indicating the maximum value of the amount of change, the position indicating the minimum value of the amount of change, one or more positions indicating the maximum value of the amount of change, one or more positions indicating the minimum value of the amount of change, and the amount of change. Alternatively, there are one or more positions where the extreme value of the amount of change is greater than or equal to the threshold, one or more positions where the amount of change or the extreme value of the amount of change is less than or equal to the threshold. The one or more positions indicating the maximum value of the amount of change may be a plurality of high-ranking positions when arranging the maximum values in descending order. The one or more positions indicating the minimum value of the amount of change may be a plurality of lower positions when the minimum values are arranged in descending order.

〈移動平均処理部2631〉
移動平均処理部2631は、Bスキャン方向(Aスキャン方向の交差方向)に隣接する複数のAラインの層厚(層厚データ)をBスキャン方向に平滑化する。これにより、ピクセル単位で階段状になっている層厚のプロファイルデータを均し、Bスキャン方向に平滑化された層厚のプロファイルデータから再現性よく後述の極値を算出することができる(すなわち、高い再現性で特徴位置を特定することができる)。
<Moving average processing unit 2631>
The moving average processing unit 2631 smoothes the layer thicknesses (layer thickness data) of a plurality of A lines adjacent in the B scanning direction (intersecting direction of the A scanning direction) in the B scanning direction. As a result, it is possible to smooth the layer thickness profile data that is stepped in pixel units, and to calculate the extreme value described later with good reproducibility from the layer thickness profile data smoothed in the B scan direction (i.e. , can identify feature locations with high reproducibility).

具体的には、移動平均処理部2631は、Bスキャン方向に隣接する所定のスキャン角度の範囲の複数のAラインの層厚の移動平均を順次に求めることにより、平滑化後の層厚プロファイルを生成する。例えば、移動平均処理部2631は、スキャン角度が0度~10度の範囲のBスキャン方向に隣接するN(Nは2以上の整数)個の層厚データの平均値を算出し、スキャン角度が1度~11度の範囲のBスキャン方向に隣接するN個の層厚データの平均値を算出し、・・・、(Sr+1)度~(Sr+10)度の範囲のBスキャン方向に隣接するN個の層厚データの平均値を算出することで、層厚プロファイルを生成する。 Specifically, the moving average processing unit 2631 sequentially obtains a moving average of layer thicknesses of a plurality of A lines within a predetermined scanning angle range adjacent to the B scanning direction, thereby obtaining a layer thickness profile after smoothing. Generate. For example, the moving average processing unit 2631 calculates the average value of N (N is an integer equal to or greater than 2) layer thickness data adjacent to the B scan direction in the scan angle range of 0 degrees to 10 degrees, and the scan angle is Calculate the average value of N pieces of layer thickness data adjacent to the B scan direction in the range of 1 degree to 11 degrees, . . . A layer thickness profile is generated by calculating the average value of individual layer thickness data.

実施形態に係る層厚データの平滑化は、移動平均処理に限定されるものではない。例えば、スプライン補間、又は多項式近似により層厚データをBスキャン方向に平滑化してもよい。 Smoothing of layer thickness data according to the embodiment is not limited to moving average processing. For example, the layer thickness data may be smoothed in the B-scan direction by spline interpolation or polynomial approximation.

〈最大値特定部2632〉
最大値特定部2632は、脈絡膜の層厚の変化量の最大値を示す位置を脈絡膜変化極大値を示す特徴位置として特定する。いくつかの実施形態では、最大値特定部2632は、Bスキャン方向における各Aラインの層厚の変化量を順次に解析することにより、層厚の変化量の最大値を示すAラインの位置を特徴位置として特定する。
<Maximum value specifying unit 2632>
The maximum value specifying unit 2632 specifies the position indicating the maximum value of the change amount of the choroidal layer thickness as the characteristic position indicating the maximum value of the choroidal change. In some embodiments, the maximum value specifying unit 2632 sequentially analyzes the layer thickness variation of each A line in the B scan direction to determine the position of the A line showing the maximum layer thickness variation. Identify as feature locations.

いくつかの実施形態では、最大値特定部2632は、Bスキャン方向に配列される複数のAラインの範囲のそれぞれについて変化量の極大値を特定し、特定された複数の極大値から変化量の最大値を示すAラインの位置を特徴位置として特定する。 In some embodiments, the maximum value specifying unit 2632 specifies the maximum value of the change amount for each of a plurality of A-line ranges arranged in the B scan direction, and determines the change amount from the specified maximum values. The position of the A line showing the maximum value is identified as the feature position.

いくつかの実施形態では、最大値特定部2632は、所定のAラインの範囲内でBスキャン方向における層厚の変化量の最大値を特定する。所定のAラインの範囲は、あらかじめ決められた範囲、データ処理部230により特定された範囲、又は後述の操作部240Bを用いて指定された範囲であってよい。データ処理部230により特定された範囲の例として、被検眼Eの特徴部位(例えば、黄斑部)を基準に決められた範囲(例えば、特徴部位を含む範囲、特徴部位から所定の距離だけ離れた範囲)がある。 In some embodiments, maximum value identifier 2632 identifies the maximum value of layer thickness variation in the B-scan direction within a given A-line. The predetermined A-line range may be a predetermined range, a range specified by the data processing unit 230, or a range specified using the operation unit 240B described later. Examples of the range specified by the data processing unit 230 include a range determined based on the characteristic site (eg, the macula) of the eye E to be examined (eg, a range including the characteristic site, a predetermined distance away from the characteristic site). range).

〈層厚変化量プロファイル生成部264〉
層厚変化量プロファイル生成部264は、層厚特定部262により特定された層厚に基づいて、Bスキャン方向(Aスキャン方向の交差方向)に沿って層厚の変化量を表す層厚変化量プロファイルを生成する。すなわち、層厚変化量プロファイル生成部264は、Aラインのスキャン角度ごとにBスキャン方向に隣接するAラインの層厚の差を順次に算出することにより層厚変化量プロファイルを生成する。
<Layer thickness change amount profile generator 264>
Based on the layer thickness specified by the layer thickness specifying unit 262, the layer thickness change amount profile generation unit 264 creates a layer thickness change amount representing the amount of change in the layer thickness along the B scan direction (intersecting direction of the A scan direction). Generate a profile. That is, the layer thickness change amount profile generation unit 264 generates the layer thickness change amount profile by sequentially calculating the difference in the layer thicknesses of the A lines adjacent in the B scanning direction for each scanning angle of the A line.

いくつかの実施形態では、層厚変化量プロファイル生成部264により生成された層厚変化量プロファイルに基づいて、層厚の変化量の特徴位置が特定される。 In some embodiments, the feature locations of the layer thickness variation are identified based on the layer thickness variation profile generated by the layer thickness variation profile generator 264 .

図7及び図8に、実施形態に係る層厚変化量プロファイルの一例を示す。図7は、正常眼における層厚変化量プロファイルを模式的に表す。図8は、CSC眼における層厚変化量プロファイルを模式的に表す。 7 and 8 show an example of the layer thickness variation profile according to the embodiment. FIG. 7 schematically represents a layer thickness change amount profile in a normal eye. FIG. 8 schematically represents a layer thickness variation profile in a CSC eye.

図7は、正常眼における断層画像IMG1に対応付けて層厚変化量プロファイルが表示部240Aに表示される例を模式的に表す。すなわち、断層画像IMG1におけるAラインの位置が層厚変化量プロファイルのAラインの位置と上下方向に一致するように表示されている。図7において、層厚変化量プロファイル等を示す特性グラフの横軸は、スキャン角度(撮影画角)に対応する断層画像のピクセル位置(Aラインの位置、Aスキャンの位置)を表し、左の縦軸は厚さを表し、右の縦軸は層厚変化量を表す。 FIG. 7 schematically shows an example in which the layer thickness change amount profile is displayed on the display unit 240A in association with the tomographic image IMG1 of the normal eye. That is, the position of the A line in the tomographic image IMG1 is displayed so as to coincide with the position of the A line in the layer thickness variation profile in the vertical direction. In FIG. 7, the horizontal axis of the characteristic graph showing the layer thickness change amount profile etc. represents the pixel position (A line position, A scan position) of the tomographic image corresponding to the scan angle (imaging angle of view). The vertical axis represents thickness, and the right vertical axis represents layer thickness variation.

正常眼である被検眼に対してOCTを実行してOCTデータが取得されると、層領域特定部261は、取得されたOCTデータを用いて上記のように脈絡膜を特定する。層厚特定部262は、上記のように、層領域特定部261により特定された脈絡膜のAスキャン方向の層厚を特定する。ピクセル位置ごとに層厚を特定することで、図7に示すような脈絡膜の層厚プロファイルT1が取得される。 When OCT is performed on the eye to be examined, which is a normal eye, and OCT data is acquired, the layer region specifying unit 261 specifies the choroid as described above using the acquired OCT data. The layer thickness specifying unit 262 specifies the layer thickness of the choroid in the A-scan direction specified by the layer area specifying unit 261 as described above. By specifying the layer thickness for each pixel position, a layer thickness profile T1 of the choroid as shown in FIG. 7 is obtained.

移動平均処理部2631は、層厚プロファイルT1に対して、Bスキャン方向に隣接する10度のスキャン角度の範囲の複数のAラインの層厚の移動平均を順次に求めることにより、移動平均処理後の層厚プロファイルT2を生成する。 The moving average processing unit 2631 sequentially obtains the moving average of the layer thickness of a plurality of A lines within a scanning angle range of 10 degrees adjacent to the B scanning direction for the layer thickness profile T1. to generate a layer thickness profile T2 of

最大値特定部2632は、ピクセル位置0からピクセル位置2047の全範囲にわたって層厚プロファイルT2を解析して層厚の変化量の最大値を特定する。特徴位置特定部263は、最大値特定部2632により特定された最大値を示す位置を脈絡膜変化極大値を示す特徴位置P1として特定する。 The maximum value identifying unit 2632 analyzes the layer thickness profile T2 over the entire range from pixel position 0 to pixel position 2047 to identify the maximum value of the amount of change in layer thickness. The characteristic position identifying section 263 identifies the position indicating the maximum value identified by the maximum value identifying section 2632 as the characteristic position P1 indicating the maximum choroidal change value.

層厚変化量プロファイル生成部264は、移動平均処理後の層厚プロファイルT2に対して、互いに隣接するAラインの層厚の差分を求めることにより層厚変化量プロファイルT3を生成する。 The layer thickness change amount profile generation unit 264 generates a layer thickness change amount profile T3 by obtaining a difference in layer thickness between adjacent A lines with respect to the layer thickness profile T2 after the moving average process.

表示制御部211Aは、図7に示すように、層厚変化量プロファイルT3における特徴位置P1に相当する位置を示す三角形のマーク(情報)を表示部240Aに表示させる。また、表示制御部211Aは、層厚変化量プロファイルT3において特徴位置P1における変化量を示す情報(例えば、実線上の線分、破線状の線分、範囲を示す情報)を表示部240Aに表示させる。いくつかの実施形態では、表示制御部211Aは、層厚変化量プロファイルT3において特徴位置P1における層厚を示す情報を表示部240Aに表示させる。 As shown in FIG. 7, the display control unit 211A causes the display unit 240A to display a triangular mark (information) indicating the position corresponding to the characteristic position P1 in the layer thickness change amount profile T3. Further, the display control unit 211A displays information indicating the amount of change at the characteristic position P1 in the layer thickness change amount profile T3 (for example, information indicating a solid line segment, a dashed line segment, and a range) on the display unit 240A. Let In some embodiments, the display control unit 211A causes the display unit 240A to display information indicating the layer thickness at the feature position P1 in the layer thickness change amount profile T3.

図8は、CSC眼(CSCを伴う眼)における断層画像IMG2に対応付けて層厚変化量プロファイルが表示部240Aに表示される例を模式的に表す。すなわち、断層画像IMG2におけるAラインの位置が層厚変化量プロファイルのAラインの位置と上下方向に一致するように表示されている。図8において、層厚変化量プロファイル等を示す特性グラフの横軸は、スキャン角度に対応する断層画像のピクセル位置を表し、左の縦軸は厚さを表し、右の縦軸は層厚変化量を表す。 FIG. 8 schematically shows an example in which the layer thickness change amount profile is displayed on the display unit 240A in association with the tomographic image IMG2 of the CSC eye (eye with CSC). That is, the position of the A line in the tomographic image IMG2 is displayed so as to coincide with the position of the A line in the layer thickness variation profile in the vertical direction. In FIG. 8, the horizontal axis of the characteristic graph showing the layer thickness change amount profile etc. represents the pixel position of the tomographic image corresponding to the scan angle, the left vertical axis represents the thickness, and the right vertical axis represents the layer thickness change. represent quantity.

CSC眼である被検眼に対してOCTを実行してOCTデータが取得されると、層領域特定部261は、取得されたOCTデータを用いて上記のように脈絡膜を特定する。層厚特定部262は、上記のように、層領域特定部261により特定された脈絡膜のAスキャン方向の層厚を特定する。ピクセル位置ごとに層厚を特定することで、図8に示すような脈絡膜の層厚プロファイルT11が取得される。 When OCT is performed on the subject's eye, which is a CSC eye, and OCT data is obtained, the layer region identification unit 261 identifies the choroid as described above using the obtained OCT data. The layer thickness specifying unit 262 specifies the layer thickness of the choroid in the A-scan direction specified by the layer area specifying unit 261 as described above. By specifying the layer thickness for each pixel position, a choroid layer thickness profile T11 as shown in FIG. 8 is acquired.

移動平均処理部2631は、層厚プロファイルT11に対して、Bスキャン方向に隣接する10度のスキャン角度の範囲の複数のAラインの層厚の移動平均を順次に求めることにより、移動平均処理後の層厚プロファイルT12を生成する。 The moving average processing unit 2631 sequentially obtains the moving average of the layer thickness of a plurality of A lines within a scanning angle range of 10 degrees adjacent to the B scanning direction for the layer thickness profile T11. to generate a layer thickness profile T12 of

最大値特定部2632は、ピクセル位置0からピクセル位置2047の全範囲にわたって層厚プロファイルT12を解析して層厚の変化量の最大値を特定する。特徴位置特定部263は、最大値特定部2632により特定された最大値を示す位置を脈絡膜変化極大値を示す特徴位置P2として特定する。 The maximum value identifying unit 2632 analyzes the layer thickness profile T12 over the entire range from pixel position 0 to pixel position 2047 to identify the maximum value of the amount of change in layer thickness. The characteristic position identifying section 263 identifies the position indicating the maximum value identified by the maximum value identifying section 2632 as the characteristic position P2 indicating the maximum choroidal change value.

層厚変化量プロファイル生成部264は、移動平均処理後の層厚プロファイルT12に対して、互いに隣接するAラインの層厚の差分を求めることにより層厚変化量プロファイルT13を生成する。 The layer thickness change amount profile generation unit 264 generates a layer thickness change amount profile T13 by obtaining a difference in layer thickness between adjacent A lines in the layer thickness profile T12 after the moving average process.

表示制御部211Aは、図8に示すように、層厚変化量プロファイルT13における特徴位置P2に相当する位置を示す三角形のマークを表示部240Aに表示させる。また、表示制御部211Aは、層厚変化量プロファイルT13において特徴位置P2における変化量を示す情報(例えば、実線上の線分、破線状の線分、範囲を示す情報)を表示部240Aに表示させる。いくつかの実施形態では、表示制御部211Aは、層厚変化量プロファイルT13において特徴位置P2における層厚を示す情報を表示部240Aに表示させる。 As shown in FIG. 8, the display control unit 211A causes the display unit 240A to display a triangular mark indicating the position corresponding to the characteristic position P2 in the layer thickness change amount profile T13. Further, the display control unit 211A displays information indicating the amount of change at the characteristic position P2 in the layer thickness change amount profile T13 (for example, information indicating a solid line segment, a broken line segment, and a range) on the display unit 240A. Let In some embodiments, the display control unit 211A causes the display unit 240A to display information indicating the layer thickness at the feature position P2 in the layer thickness change amount profile T13.

図7及び図8に示すように、正常眼とCSC眼とでは特徴位置が異なる。この特徴位置の差異は、CSC眼の特定に有意なパラメータ(情報)になり得る。従って、特徴位置に基づいて、継続的に注目すべき領域を特定したり、CSCのリスクを判定したりすることができる。 As shown in FIGS. 7 and 8, the feature positions are different between the normal eye and the CSC eye. This feature position difference can be a significant parameter (information) for identifying a CSC eye. Therefore, based on the feature positions, it is possible to identify areas of continuous interest and to determine the risk of CSC.

〈リスク判定部265〉
リスク判定部265は、層厚変化量プロファイルの特徴位置における層厚の変化量に基づいてCSC(疾患)のリスクを判定する。リスク判定部265は、リスク判定情報212Aを参照してCSCのリスクを判定することが可能である。
<Risk determination unit 265>
The risk determination unit 265 determines the risk of CSC (disease) based on the amount of change in layer thickness at characteristic positions of the layer thickness change amount profile. The risk determination unit 265 can refer to the risk determination information 212A to determine the risk of CSC.

図9に、実施形態に係るリスク判定情報212Aの構成の概要を示す。 FIG. 9 shows an overview of the configuration of risk determination information 212A according to the embodiment.

リスク判定情報212Aは、複数の被検眼について、層厚変化量プロファイルの特徴位置における層厚変化量にCSCのリスクを表すリスク情報があらかじめ関連付けられた標準データ(基準データ、統計データ)(Normative Data)である。具体的には、リスク判定情報212Aは、複数の層厚変化量LT1、LT2、・・・、LTn(nは2以上の整数)のそれぞれにリスク情報RK1、RK2、・・・、RKnがあらかじめ関連付けられたテーブル情報である。リスク情報RK1、RK2、・・・、RKnのそれぞれは、CSC(疾患)であるか否か(疾患の有無)、及びCSCである確率(疾患の可能性)の少なくとも1つを含む。 The risk determination information 212A is standard data (reference data, statistical data) in which risk information representing the risk of CSC is associated in advance with the layer thickness change amount at the characteristic position of the layer thickness change amount profile for a plurality of eyes to be examined. ). Specifically, in the risk determination information 212A, risk information RK1, RK2, . . . Associated table information. Each of the risk information RK1, RK2, . . . , RKn includes at least one of whether or not it is CSC (disease) (presence or absence of disease) and probability of being CSC (possibility of disease).

いくつかの実施形態では、リスク判定情報212Aは、複数の正常眼についての統計データである。いくつかの実施形態では、リスク判定情報212Aは、複数のCSC眼についての統計データである。 In some embodiments, risk determination information 212A is statistical data for multiple normal eyes. In some embodiments, risk determination information 212A is statistical data for multiple CSC eyes.

リスク判定部265は、特徴位置特定部263により特定された特徴位置における層厚変化量(最大値特定部2632により特定された層厚変化量の最大値)に基づいてリスク判定情報212Aを参照し、層厚変化量に対応したリスク情報を特定する。リスク判定部265は、特定されたリスク情報から被検眼がCSCであるか否か、及び被検眼がCSCである確率の少なくとも1つを含むリスク判定結果を生成することができる。 The risk determination unit 265 refers to the risk determination information 212A based on the layer thickness change amount (the maximum value of the layer thickness change amount specified by the maximum value specifying unit 2632) at the feature position specified by the feature position specifying unit 263. , to identify the risk information corresponding to the layer thickness variation. The risk determination unit 265 can generate a risk determination result including at least one of whether or not the subject's eye is CSC and the probability that the subject's eye is CSC from the specified risk information.

いくつかの実施形態では、リスク判定部265は、層厚変化量に基づいてリスク判定情報212Aを参照し、当該層厚変化量に近い2以上の層厚変化量に対応した2以上のリスク情報を特定し、特定された2以上のリスク情報から当該層厚変化量に対応した1つのリスク情報を生成する。 In some embodiments, the risk determination unit 265 refers to the risk determination information 212A based on the layer thickness change amount, and obtains two or more pieces of risk information corresponding to two or more layer thickness change amounts close to the layer thickness change amount. is specified, and one piece of risk information corresponding to the layer thickness change amount is generated from the specified two or more pieces of risk information.

いくつかの実施形態では、リスク判定部265は、被検眼Eの脈絡膜の層厚変化量の特徴位置における層厚変化量に基づいて、複数の正常眼についての統計データ及び複数のCSC眼についての統計データのそれぞれを参照して得られた2つのリスク情報に基づいて、被検眼EのCSCのリスクを判定する。 In some embodiments, the risk determination unit 265, based on the amount of change in layer thickness of the choroid of the subject eye E at the feature position of the amount of change in layer thickness of the choroid, the statistical data for the plurality of normal eyes and the statistical data for the plurality of CSC eyes Based on the two pieces of risk information obtained by referring to each statistical data, the risk of CSC in the subject's eye E is determined.

いくつかの実施形態では、リスク判定情報212Aは、眼底における特徴部位(例えば、黄斑部)を基準として特徴位置までの複数の距離のそれぞれに対応した複数のリスク判定情報を含む。この場合、リスク判定部265は、複数のリスク判定情報から特徴部位と特徴位置との間の距離に対応したリスク判定情報を特定し、特定されたリスク判定情報を用いて層厚変化量に対応したリスク情報を特定することが可能である。 In some embodiments, the risk determination information 212A includes a plurality of pieces of risk determination information corresponding to a plurality of distances to the feature location with reference to the feature site (eg, macula) in the fundus. In this case, the risk determination unit 265 identifies risk determination information corresponding to the distance between the characteristic site and the characteristic position from a plurality of pieces of risk determination information, and uses the identified risk determination information to correspond to the layer thickness change amount. It is possible to identify the risk information that

いくつかの実施形態では、リスク判定情報212Aは、複数の撮影画角のそれぞれに対応した複数のリスク判定情報を含む。この場合、リスク判定部265は、複数のリスク判定情報から撮影画角に対応したリスク判定情報を特定し、特定されたリスク判定情報を用いて層厚変化量に対応したリスク情報を特定することが可能である。 In some embodiments, the risk determination information 212A includes multiple pieces of risk determination information corresponding to multiple shooting angles of view. In this case, the risk determination unit 265 identifies risk determination information corresponding to the shooting angle of view from a plurality of pieces of risk determination information, and uses the identified risk determination information to identify risk information corresponding to the layer thickness change amount. is possible.

いくつかの実施形態では、表示制御部211Aは、上記のように、リスク判定部265により特定されたリスク情報に対応した情報を表示部240Aに表示させる。 In some embodiments, the display control unit 211A causes the display unit 240A to display information corresponding to the risk information identified by the risk determination unit 265 as described above.

図7及び図8では、層厚変化量の最大値を脈絡膜変化極大値として特徴位置を特定する場合について説明したが、実施形態はこれに限定されるものではない。特徴位置特定部263は、複数のピクセル位置範囲のそれぞれについて層厚変化量の極大値を脈絡膜変化極大値として特定し、特定された脈絡膜変化極大値を示す複数の特徴位置を特定してもよい。 7 and 8, a case has been described in which the maximum value of the layer thickness change amount is used as the maximum value of the choroidal change to specify the feature position, but the embodiment is not limited to this. The feature position specifying unit 263 may specify the maximum value of the layer thickness change amount as the choroidal change maximum value for each of the plurality of pixel position ranges, and specify a plurality of feature positions indicating the specified choroidal change maximum value. .

図10に、実施形態に係る層厚プロファイルの他の例を示す。 FIG. 10 shows another example of the layer thickness profile according to the embodiment.

図10は、図7及び図8と同様に、被検眼における断層画像IMG3に対応付けて層厚プロファイルが表示部240Aに表示される例を模式的に表す。すなわち、断層画像IMG3におけるAラインの位置が層厚プロファイルのAラインの位置と上下方向に一致するように表示されている。図10において、層厚プロファイル等を示す特性グラフの横軸は、スキャン角度に対応する断層画像のピクセル位置を表し、縦軸は厚さを表す。 Similar to FIGS. 7 and 8, FIG. 10 schematically illustrates an example in which the layer thickness profile is displayed on the display unit 240A in association with the tomographic image IMG3 of the subject's eye. That is, the position of the A line in the tomographic image IMG3 is displayed so as to coincide with the position of the A line in the layer thickness profile in the vertical direction. In FIG. 10, the horizontal axis of the characteristic graph showing the layer thickness profile etc. represents the pixel position of the tomographic image corresponding to the scan angle, and the vertical axis represents the thickness.

被検眼に対してOCTを実行してOCTデータが取得されると、層領域特定部261は、取得されたOCTデータを用いて上記のように脈絡膜を特定する。層厚特定部262は、上記のように、層領域特定部261により特定された脈絡膜のAスキャン方向の層厚を特定する。ピクセル位置ごとに層厚を特定することで、図10に示すような脈絡膜の層厚プロファイルT31が取得される。 When OCT is performed on the eye to be inspected and OCT data is acquired, the layer region specifying unit 261 specifies the choroid as described above using the acquired OCT data. The layer thickness specifying unit 262 specifies the layer thickness of the choroid in the A-scan direction specified by the layer area specifying unit 261 as described above. By specifying the layer thickness for each pixel position, a choroid layer thickness profile T31 as shown in FIG. 10 is acquired.

移動平均処理部2631は、層厚プロファイルT31に対して、Bスキャン方向に隣接する10度のスキャン角度の範囲の複数のAラインの層厚の移動平均を順次に求めることにより、移動平均処理後の層厚プロファイルT32を生成する。 The moving average processing unit 2631 sequentially obtains the moving average of the layer thickness of a plurality of A lines within a scanning angle range of 10 degrees adjacent to the B scanning direction for the layer thickness profile T31. to generate a layer thickness profile T32 of

特徴位置特定部263(最大値特定部2632)は、ピクセル位置0からピクセル位置2047の範囲のうちあらかじめ決められた3つの範囲のそれぞれについてBスキャン方向における層厚の変化量の極大値を特定する。特徴位置特定部263は、最大値特定部2632により特定された極大値を示す位置を脈絡膜変化極大値を示す特徴位置P21、P31、P41として特定する。 The feature position specifying unit 263 (maximum value specifying unit 2632) specifies the maximum value of the layer thickness variation in the B scan direction for each of three predetermined ranges from pixel position 0 to pixel position 2047. . The characteristic position identifying unit 263 identifies the positions indicating the maximum values identified by the maximum value identifying unit 2632 as characteristic positions P21, P31, and P41 indicating the maximum choroidal change values.

3つの範囲の少なくとも1つは、データ処理部230により断層画像IMG3を解析することによって特定されたり、操作部240Bを用いてユーザーにより指定されたりしてよい。 At least one of the three ranges may be specified by analyzing tomographic image IMG3 by data processing unit 230, or specified by the user using operation unit 240B.

層厚変化量プロファイル生成部264は、移動平均処理後の層厚プロファイルT32に対して、互いに隣接するAラインの層厚の差分を求めることにより層厚変化量プロファイル(図示せず)を生成することが可能である。 The layer thickness change amount profile generation unit 264 generates a layer thickness change amount profile (not shown) by obtaining the difference in layer thickness between adjacent A lines in the layer thickness profile T32 after the moving average process. Is possible.

表示制御部211Aは、層厚プロファイルT31、T32における特徴位置P21、P31、P41に相当する位置を示す情報を表示部240Aに表示させる。 The display control unit 211A causes the display unit 240A to display information indicating positions corresponding to the characteristic positions P21, P31, and P41 in the layer thickness profiles T31 and T32.

いくつかの実施形態では、表示制御部211Aは、層厚プロファイルT31、T32の特徴位置P21、P31、P41における層厚変化量を表す情報(指標)(例えば、特徴位置における垂直方向の線分)を表示部240Aに表示させる。この場合、表示制御部211Aは、層厚プロファイルT31、T32の特徴位置P21、P31、P41における層厚の変化量に対応した傾きを表す情報(層厚プロファイルの特徴位置における接線の傾き)Q21、Q31、Q41を表示部240Aに表示させる。いくつかの実施形態では、傾きを表す情報Q21、Q31、Q41は、傾きの大きさに応じた態様(色)で表示される。傾きが大きくなるほど層厚の変化量が大きくなる。例えば、傾きを表す情報Q21、Q31、Q41は、傾きが大きくなるほどユーザーに注意を促すような態様で表示される。例えば、正常眼からCSC眼の疑いの度合いを傾きの角度と傾きを表す情報の色で表すことができる。 In some embodiments, the display control unit 211A displays information (indices) representing layer thickness variation amounts at the characteristic positions P21, P31, and P41 of the layer thickness profiles T31 and T32 (for example, vertical line segments at the characteristic positions). is displayed on the display unit 240A. In this case, the display control unit 211A provides information (inclination of the tangent line at the characteristic position of the layer thickness profile) Q21 representing the gradient corresponding to the amount of change in the layer thickness at the characteristic positions P21, P31, and P41 of the layer thickness profiles T31 and T32, Q31 and Q41 are displayed on the display section 240A. In some embodiments, the information Q21, Q31, Q41 representing the tilt is displayed in a manner (color) according to the magnitude of the tilt. The greater the slope, the greater the amount of change in layer thickness. For example, the information Q21, Q31, and Q41 representing the tilt are displayed in such a manner that the greater the tilt, the more the user's attention is drawn to it. For example, the degree of suspicion of a CSC eye from a normal eye can be represented by the tilt angle and the color of the information representing the tilt.

上記の実施形態では、主として、脈絡膜の層厚の変化量の最大値を脈絡膜変化極大値として特定し、脈絡膜変化極大値を示す位置を特定する場合について説明したが、実施形態に係る構成はこれに限定されるものではない。例えば、脈絡膜変化極大値と脈絡膜の層厚の変化量が2番目に大きい位置とが、黄斑部を中心とする点対称の位置にあるか否かを判別することで、眼球形状を検出したり、眼球形状に起因した疾患の有無(又は疾患の確率)を推定したりすることが可能である。 In the above-described embodiment, the case where the maximum value of the choroidal layer thickness change amount is mainly specified as the choroidal change maximum value and the position indicating the choroidal change maximum value is specified has been described. is not limited to For example, the shape of the eyeball can be detected by determining whether the maximum choroidal change value and the position where the amount of change in the choroidal layer thickness is the second largest are located point-symmetrically with respect to the macula. , the presence or absence of a disease (or the probability of disease) caused by the shape of the eyeball can be estimated.

〈ユーザーインターフェイス240〉
図3に示すように、ユーザーインターフェイス240は表示部240Aと操作部240Bとを含む。表示部240Aは表示装置3を含む。操作部240Bは各種の操作デバイスや入力デバイスを含む。
<User Interface 240>
As shown in FIG. 3, the user interface 240 includes a display section 240A and an operation section 240B. Display unit 240A includes display device 3 . The operation unit 240B includes various operation devices and input devices.

ユーザーインターフェイス240は、例えばタッチパネルのような表示機能と操作機能とが一体となったデバイスを含んでいてもよい。他の実施形態において、ユーザーインターフェイスの少なくとも一部が眼科装置に含まれていなくてよい。例えば、表示デバイスは、眼科装置に接続された外部装置であってよい。 The user interface 240 may include a device, such as a touch panel, that combines a display function and an operation function. In other embodiments, at least a portion of the user interface may not be included on the ophthalmic device. For example, the display device may be an external device connected to the ophthalmic equipment.

〈通信部280〉
通信部280は、図示しない外部装置と通信するための機能を有する。通信部280は、外部装置との接続形態に応じた通信インターフェイスを備える。外部装置の例として、サーバ装置、OCT装置、走査型光検眼鏡、スリットランプ検眼鏡、眼科測定装置、眼科治療装置などがある。眼科測定装置の例として、眼屈折検査装置、眼圧計、スペキュラーマイクロスコープ、ウェーブフロントアナライザ、視野計、マイクロペリメータなどがある。眼科治療装置の例として、レーザー治療装置、手術装置、手術用顕微鏡などがある。また、外部装置は、記録媒体から情報を読み取る装置(リーダ)や、記録媒体に情報を書き込む装置(ライタ)などでもよい。更に、外部装置は、病院情報システム(HIS)サーバ、DICOM(Digital Imaging and COmmunication in Medicine)サーバ、医師端末、モバイル端末、個人端末、クラウドサーバなどでもよい。
<Communication unit 280>
The communication unit 280 has a function for communicating with an external device (not shown). The communication unit 280 has a communication interface according to a connection form with an external device. Examples of external devices include server devices, OCT devices, scanning optical ophthalmoscopes, slit lamp ophthalmoscopes, ophthalmic measurement devices, and ophthalmic treatment devices. Examples of ophthalmic measurement devices include eye refractometers, tonometers, specular microscopes, wavefront analyzers, perimeters, microperimeters, and the like. Examples of ophthalmic treatment devices include laser treatment devices, surgical devices, surgical microscopes, and the like. The external device may be a device (reader) that reads information from a recording medium, or a device (writer) that writes information to a recording medium. Furthermore, the external device may be a hospital information system (HIS) server, a DICOM (Digital Imaging and Communication in Medicine) server, a doctor terminal, a mobile terminal, a personal terminal, a cloud server, or the like.

演算制御ユニット200(制御部210、画像形成部220、及びデータ処理部230)は、実施形態に係る「眼科情報処理装置」の一例である。CSCは、実施形態に係る「疾患」の一例である。表示部240A(表示装置3)は、実施形態に係る「表示手段」の一例である。移動平均処理部2631は、実施形態に係る「平滑化部」の一例である。OCTユニット100から対物レンズ22までの光学系は、実施形態に係る「OCT光学系」の一例である。 The arithmetic control unit 200 (the control section 210, the image forming section 220, and the data processing section 230) is an example of the "ophthalmic information processing apparatus" according to the embodiment. CSC is an example of a "disease" according to embodiments. The display unit 240A (display device 3) is an example of the "display unit" according to the embodiment. The moving average processing unit 2631 is an example of the "smoothing unit" according to the embodiment. The optical system from the OCT unit 100 to the objective lens 22 is an example of the "OCT optical system" according to the embodiment.

〈動作〉
眼科装置1の動作例について説明する。
<motion>
An operation example of the ophthalmologic apparatus 1 will be described.

図11~図14に、実施形態に係る眼科装置1の動作例を示す。図11は、リスク判定を行う眼科装置1の動作例のフロー図を表す。図12は、図11のステップS4の処理を行う眼科装置1の動作例のフロー図を表す。図13は、図12のステップS14の処理を行う眼科装置1の動作例のフロー図を表す。図14は、図11のステップS4の処理を行う眼科装置1の別の動作例のフロー図を表す。 11 to 14 show operation examples of the ophthalmologic apparatus 1 according to the embodiment. FIG. 11 shows a flow diagram of an operation example of the ophthalmologic apparatus 1 that performs risk determination. FIG. 12 shows a flowchart of an operation example of the ophthalmologic apparatus 1 that performs the process of step S4 in FIG. FIG. 13 shows a flowchart of an operation example of the ophthalmologic apparatus 1 that performs the process of step S14 of FIG. FIG. 14 shows a flowchart of another operation example of the ophthalmologic apparatus 1 that performs the process of step S4 in FIG.

記憶部212には、図11~図14に示す処理を実現するためのコンピュータプログラムが記憶されている。主制御部211は、このコンピュータプログラムに従って動作することにより、図11~図14に示す処理を実行する。 The storage unit 212 stores computer programs for realizing the processes shown in FIGS. The main control unit 211 executes the processes shown in FIGS. 11 to 14 by operating according to this computer program.

まず、図11に示す動作例について説明する。 First, an operation example shown in FIG. 11 will be described.

(S1:アライメント)
まず、主制御部211は、アライメントを実行する。
(S1: Alignment)
First, the main controller 211 executes alignment.

例えば、主制御部211は、LCD39を制御して、被検眼Eにアライメント用の固視標を提示させる。主制御部211は、前眼部カメラ5A及び5Bを制御して、実質的に同時に被検眼Eの前眼部Eaを撮影する。特徴部位特定部251は、主制御部211からの制御を受け、前眼部カメラ5A及び5Bにより実質的に同時に取得された一対の前眼部画像を解析して特徴部位として被検眼Eの瞳孔中心位置を特定する。3次元位置算出部252は、被検眼Eの3次元位置を求める。この処理は、例えば、特開2013-248376号公報に記載のように、一対の前眼部カメラ5A及び5Bと被検眼Eとの位置関係に基づく三角法を利用した演算処理を含む。 For example, the main control unit 211 controls the LCD 39 to present the eye E to be examined with a fixation target for alignment. The main control unit 211 controls the anterior eye cameras 5A and 5B to photograph the anterior eye Ea of the subject's eye E substantially simultaneously. The characteristic site identification unit 251 receives control from the main control unit 211, analyzes a pair of anterior segment images obtained substantially simultaneously by the anterior segment cameras 5A and 5B, and determines the pupil of the subject's eye E as a characteristic site. Identify the center position. The three-dimensional position calculator 252 obtains the three-dimensional position of the eye E to be examined. This processing includes arithmetic processing using trigonometry based on the positional relationship between the pair of anterior eye cameras 5A and 5B and the subject's eye E, as described in Japanese Patent Application Laid-Open No. 2013-248376, for example.

主制御部211は、光学系(例えば眼底カメラユニット2)と被検眼Eとが所定の位置関係となるように、3次元位置算出部252により求められた被検眼Eの3次元位置に基づき移動機構150を制御する。ここで、所定の位置関係は、光学系を用いて被検眼Eの撮影や検査を実行可能な位置関係である。典型例として、3次元位置算出部252により被検眼Eの3次元位置(x座標、y座標、z座標)が得られた場合、対物レンズ22の光軸のx座標及びy座標が被検眼Eのx座標及びy座標にそれぞれ一致し、且つ、対物レンズ22(前側レンズ面)のz座標と被検眼E(角膜表面)のz座標との差が所定距離(ワーキングディスタンス)に等しくなる位置が、光学系の移動先として設定される。 The main control unit 211 moves based on the three-dimensional position of the subject's eye E obtained by the three-dimensional position calculator 252 so that the optical system (for example, the fundus camera unit 2) and the subject's eye E have a predetermined positional relationship. Control mechanism 150 . Here, the predetermined positional relationship is a positional relationship that enables imaging and examination of the subject's eye E using an optical system. As a typical example, when the three-dimensional position (x-coordinate, y-coordinate, z-coordinate) of the eye E to be examined is obtained by the three-dimensional position calculator 252, the x-coordinate and y-coordinate of the optical axis of the objective lens 22 are the eye E and the difference between the z-coordinate of the objective lens 22 (front lens surface) and the z-coordinate of the eye to be examined E (corneal surface) is equal to a predetermined distance (working distance) , is set as the destination of the optical system.

(S2:オートフォーカス)
続いて、主制御部211は、オートフォーカスを開始する。
(S2: Autofocus)
Subsequently, the main controller 211 starts autofocus.

例えば、主制御部211は、フォーカス光学系60を制御して被検眼Eにスプリット指標を投影させる。データ処理部230は、主制御部211からの制御を受け、スプリット指標が投影されている眼底Efの観察画像を解析することにより、一対のスプリット指標像を抽出し、一対のスプリット指標の相対的なずれを算出する。主制御部211は、算出されたずれ(ずれ方向、ずれ量)に基づいて合焦駆動部31Aや合焦駆動部43Aを制御する。 For example, the main controller 211 controls the focus optical system 60 to project the split index on the eye E to be examined. Under the control of the main control unit 211, the data processing unit 230 extracts a pair of split index images by analyzing the observed image of the fundus oculi Ef on which the split indices are projected, and extracts a pair of split index images. Calculate the deviation. The main control unit 211 controls the focus driving unit 31A and the focus driving unit 43A based on the calculated deviation (direction of deviation, amount of deviation).

(S3:OCT計測)
次に、主制御部211は、OCT計測を実行させる。
(S3: OCT measurement)
Next, the main controller 211 causes OCT measurement to be performed.

例えば、主制御部211は、LCD39の所定位置にOCT計測用の固視標を表示させる。主制御部211は、眼底Efにおける光学系の光軸の位置に対応するLCD39の表示位置に固視標を表示させることが可能である。 For example, the main control unit 211 causes the LCD 39 to display a fixation target for OCT measurement at a predetermined position. The main control unit 211 can display the fixation target at the display position of the LCD 39 corresponding to the position of the optical axis of the optical system on the fundus oculi Ef.

続いて、主制御部211は、OCTユニット100を制御してOCT仮計測を実行させ、深さ方向の計測範囲の基準位置を調整するための調整用断層画像を取得させる。具体的には、主制御部211は、光スキャナ42を制御することにより、光源ユニット101から出射された光L0に基づいて生成された測定光LSを偏向し、偏向された測定光LSで被検眼Eの所定部位(例えば眼底)をスキャンさせる。測定光LSのスキャンにより得られた干渉光の検出結果は、クロックKCに同期してサンプリングされた後、画像形成部220に送られる。画像形成部220は、得られた干渉信号から被検眼Eの断層画像(OCT画像)を形成する。 Subsequently, the main control unit 211 controls the OCT unit 100 to perform OCT provisional measurement and acquire an adjustment tomographic image for adjusting the reference position of the measurement range in the depth direction. Specifically, the main control unit 211 controls the optical scanner 42 to deflect the measuring light LS generated based on the light L0 emitted from the light source unit 101, and the deflected measuring light LS A predetermined site (for example, the fundus) of the eye E to be examined is scanned. A detection result of the interference light obtained by scanning the measurement light LS is sampled in synchronization with the clock KC and then sent to the image forming section 220 . The image forming unit 220 forms a tomographic image (OCT image) of the subject's eye E from the obtained interference signal.

続いて、主制御部211は、深さ方向(z方向)の計測範囲の基準位置を調整する。 Subsequently, the main control unit 211 adjusts the reference position of the measurement range in the depth direction (z direction).

例えば、主制御部211は、取得された断層画像における所定の部位(例えば、強膜)をデータ処理部230に特定させ、特定された所定の部位の位置に対して深さ方向に所定の距離だけ離れた位置を計測範囲の基準位置として設定する。主制御部211は、基準位置に対応して、光路長変更部41及び参照駆動部114Aの少なくとも一方を制御する。また、測定光LSと参照光LRの光路長が略一致するようにあらかじめ決められた所定の位置が計測範囲の基準位置として設定されてもよい。 For example, the main control unit 211 causes the data processing unit 230 to identify a predetermined site (for example, the sclera) in the acquired tomographic image, and a predetermined distance in the depth direction from the position of the identified predetermined site. A position that is separated by The main control section 211 controls at least one of the optical path length changing section 41 and the reference driving section 114A in accordance with the reference position. Also, a predetermined position determined in advance so that the optical path lengths of the measurement light LS and the reference light LR substantially match may be set as the reference position of the measurement range.

次に、主制御部211は、フォーカス調整制御及び偏波調整制御を実行する。 Next, the main controller 211 executes focus adjustment control and polarization adjustment control.

例えば、主制御部211は、合焦駆動部43Aを制御してOCT合焦レンズ43を所定の距離だけ移動させた後、OCTユニット100を制御してOCT計測を実行させる。主制御部211は、OCT計測により得られた干渉光の検出結果に基づいて測定光LSのフォーカス状態をデータ処理部230に判定させる。データ処理部230による判定結果に基づいて測定光LSのフォーカス状態が適正ではないと判断されたとき、主制御部211は、再び合焦駆動部43Aの制御を行い、フォーカス状態が適正であると判断されるまで繰り返す。 For example, the main control unit 211 controls the focus drive unit 43A to move the OCT focus lens 43 by a predetermined distance, and then controls the OCT unit 100 to perform OCT measurement. The main control unit 211 causes the data processing unit 230 to determine the focus state of the measurement light LS based on the detection result of the interference light obtained by the OCT measurement. When it is determined that the focus state of the measurement light LS is not appropriate based on the determination result by the data processing unit 230, the main control unit 211 controls the focus driving unit 43A again to determine that the focus state is appropriate. Repeat until determined.

また、例えば、主制御部211は、偏波コントローラ103、118の少なくとも一方を制御して光L0及び測定光LSの少なくとも一方の偏波状態を所定の量だけ変更した後、OCTユニット100を制御してOCT計測を実行させ、取得された干渉光の検出結果に基づくOCT画像を画像形成部220に形成させる。主制御部211は、OCT計測により得られたOCT画像の画質をデータ処理部230に判定させる。データ処理部230による判定結果に基づいて測定光LSの偏波状態が適正ではないと判断されたとき、主制御部211は、再び偏波コントローラ103、118の制御を行い、偏波状態が適正であると判断されるまで繰り返す。 Further, for example, the main control unit 211 controls at least one of the polarization controllers 103 and 118 to change the polarization state of at least one of the light L0 and the measurement light LS by a predetermined amount, and then controls the OCT unit 100. to perform OCT measurement, and the image forming unit 220 to form an OCT image based on the obtained detection result of the interference light. The main control unit 211 causes the data processing unit 230 to determine the image quality of the OCT image obtained by the OCT measurement. When it is determined that the polarization state of the measurement light LS is not appropriate based on the determination result by the data processing unit 230, the main control unit 211 controls the polarization controllers 103 and 118 again so that the polarization state is appropriate. Repeat until it is determined that

続いて、主制御部211は、OCTユニット100を制御してOCT計測を実行させる。当該OCT計測により取得された干渉光の検出結果は、DAQ130においてサンプリングされ、干渉信号として記憶部212等に保存される。 Subsequently, the main controller 211 controls the OCT unit 100 to perform OCT measurement. A detection result of interference light obtained by the OCT measurement is sampled by the DAQ 130 and stored as an interference signal in the storage unit 212 or the like.

例えば、主制御部211は、取得された干渉信号に基づいて被検眼EのAスキャン画像データのデータセット群を画像形成部220に形成させる。画像形成部220は、形成されたAスキャン画像をBスキャン方向に配列することにより、断層画像を形成する。 For example, the main control unit 211 causes the image forming unit 220 to form a data set group of A-scan image data of the subject's eye E based on the acquired interference signal. The image forming unit 220 forms a tomographic image by arranging the formed A-scan images in the B-scan direction.

(S4:リスク判定処理)
次に、主制御部211は、データ処理部230におけるリスク判定処理部260を制御して、ステップS3において取得されたOCTデータ又は断層画像に基づくCSCのリスク判定処理を実行させる。
(S4: risk determination processing)
Next, the main control unit 211 controls the risk determination processing unit 260 in the data processing unit 230 to execute CSC risk determination processing based on the OCT data or the tomographic image acquired in step S3.

ステップS4の詳細については後述する。 Details of step S4 will be described later.

以上で、眼科装置1の動作は終了である(エンド)。 With this, the operation of the ophthalmologic apparatus 1 is completed (end).

図11のステップS4の処理は、図12に示すように実行される。 The process of step S4 in FIG. 11 is executed as shown in FIG.

(S11:BM及びCSIを特定)
主制御部211は、層領域特定部261を制御して、上記のように、図11のステップS3において取得されたOCTデータに基づいてブルッフ膜(Bruch membrane:BM)及びCSIを特定させる。その結果、層領域特定部261は、脈絡膜を特定することができる。
(S11: Identify BM and CSI)
The main control unit 211 controls the layer region specifying unit 261 to specify the Bruch membrane (BM) and CSI based on the OCT data acquired in step S3 of FIG. 11 as described above. As a result, the layer region identifying unit 261 can identify the choroid.

(S12:BMとCSIとの間の層厚を特定)
次に、主制御部211は、層厚特定部262を制御して、上記のように、ステップS11において特定されたBMとCSIとの間の層厚をAラインごとに特定させる。その結果、層厚特定部262は、脈絡膜の層厚プロファイルを生成することができる。
(S12: Identify layer thickness between BM and CSI)
Next, the main control unit 211 controls the layer thickness specifying unit 262 to specify the layer thickness between the BM and the CSI specified in step S11 for each A line as described above. As a result, the layer thickness specifying unit 262 can generate a layer thickness profile of the choroid.

(S13:移動平均処理)
次に、主制御部211は、移動平均処理部2631を制御して、ステップS12で特定された脈絡膜の層厚データをスキャン角度が10度の範囲でBスキャン方向に移動平均を順次に算出させる。その結果、移動平均処理部2631は、移動平均処理後の脈絡膜の層厚データを生成することができる。
(S13: moving average processing)
Next, the main control unit 211 controls the moving average processing unit 2631 to sequentially calculate moving averages in the B scan direction within a scanning angle range of 10 degrees for the choroid layer thickness data specified in step S12. . As a result, the moving average processing unit 2631 can generate layer thickness data of the choroid after moving average processing.

(S14:層厚変化量の特徴位置を特定)
次に、主制御部211は、特徴位置特定部263を制御して、ステップS13において得られた移動平均処理後の脈絡膜の層厚データに対して、互いに隣接するAラインの層厚の差(層厚変化量)を算出させる。主制御部211は、特徴位置特定部263を制御して、算出された層厚の差から層厚変化量の特徴位置を特定させる。
(S14: Specify the characteristic position of the layer thickness change amount)
Next, the main control unit 211 controls the characteristic position specifying unit 263 to calculate the layer thickness difference of the adjacent A lines ( layer thickness variation) is calculated. The main control unit 211 controls the characteristic position specifying unit 263 to specify the characteristic position of the layer thickness change amount from the calculated difference in layer thickness.

例えば、層厚変化量プロファイル生成部264は、ステップS14において順次に特定された層厚変化量から層厚変化量プロファイルを生成する。いくつかの実施形態では、層厚変化量プロファイル生成部264により生成された層厚変化量プロファイルから層厚変化量の特徴位置が特定される。 For example, the layer thickness change amount profile generator 264 generates a layer thickness change amount profile from the layer thickness change amounts sequentially specified in step S14. In some embodiments, characteristic positions of the layer thickness variation are identified from the layer thickness variation profile generated by the layer thickness variation profile generator 264 .

ステップS14の詳細は後述する。 The details of step S14 will be described later.

(S15:リスク判定情報を参照)
続いて、主制御部211は、リスク判定部265を制御して、ステップS14において特定された特徴位置における層厚変化量に基づいてリスク判定情報212Aを参照させる。リスク判定部265は、リスク判定情報212AからステップS14において特定された層厚変化量に対応したリスク情報を特定する。
(See S15: risk determination information)
Subsequently, the main control section 211 controls the risk determination section 265 to refer to the risk determination information 212A based on the layer thickness change amount at the characteristic position specified in step S14. The risk determination unit 265 identifies risk information corresponding to the layer thickness change amount identified in step S14 from the risk determination information 212A.

(S16:リスク判定)
続いて、主制御部211は、リスク判定部265を制御して、ステップS15において特定されたリスク情報に基づいて被検眼Eに対してCSCのリスクを判定させる。リスク判定部265は、特定されたリスク情報から、被検眼EがCSCであるか否か、及び被検眼がCSCである確率の少なくとも1つを含むリスク判定結果を生成する。
(S16: risk determination)
Subsequently, the main control unit 211 controls the risk determination unit 265 to determine the risk of CSC with respect to the subject's eye E based on the risk information specified in step S15. The risk determination unit 265 generates a risk determination result including at least one of whether or not the subject eye E is CSC and the probability that the subject eye is CSC from the specified risk information.

(S17:表示)
続いて、表示制御部211Aは、ステップS14において特定された特徴位置、特徴位置における層厚変化量、及びステップS16において得られたリスク判定結果を表示部240Aに表示させる。
(S17: display)
Subsequently, the display control unit 211A causes the display unit 240A to display the feature position identified in step S14, the layer thickness change amount at the feature position, and the risk determination result obtained in step S16.

いくつかの実施形態では、表示制御部211Aは、図8に示すように、特徴位置における層厚の変化量に対応した傾きを表す情報を表示部240Aに表示させる。 In some embodiments, the display control unit 211A causes the display unit 240A to display information representing the slope corresponding to the amount of change in layer thickness at the characteristic position, as shown in FIG.

以上で、図11のステップS4の処理は終了である(エンド)。 With this, the process of step S4 in FIG. 11 is completed (end).

図12のステップS14の処理は、図13に示すように実行される。図13では、層厚変化量プロファイルの特徴位置として層厚変化量の最大値を示す位置を特定する場合の処理例を表す。図13の処理を実行する前に、層厚変化量の最大値が初期化(例えば、最大値が「0」又は負の値に初期化)されているものとする。 The process of step S14 in FIG. 12 is executed as shown in FIG. FIG. 13 shows a processing example in which a position indicating the maximum value of the layer thickness variation is specified as a feature position of the layer thickness variation profile. It is assumed that the maximum value of the layer thickness change amount is initialized (for example, the maximum value is initialized to “0” or a negative value) before executing the process of FIG. 13 .

(S21:1つのAライン分のスキャン角度を算出)
まず、特徴位置特定部263は、OCTスキャンのスキャン中心位置を中心とする1つのAライン分のスキャン角度を算出する。撮影画角は、眼科装置1の光学系などの配置により眼科装置1に固有の既知の設計値である。また、Bスキャン方向に配列されるAスキャンの測定位置(Aラインの位置)の範囲は、断層画像におけるBスキャン方向のピクセル数に対応する。断層画像におけるBスキャン方向のピクセル数もまた、あらかじめ決められている。そこで、特徴位置特定部263は、眼科装置1に固有の既知の撮影画角を断層画像におけるBスキャン方向の既知のピクセル数で除算することによりAラインごとのスキャン角度を求める。
(S21: Calculate scan angle for one A line)
First, the characteristic position specifying unit 263 calculates a scan angle for one A line centered on the scan center position of the OCT scan. The imaging angle of view is a known design value unique to the ophthalmologic apparatus 1 due to the arrangement of the optical system of the ophthalmologic apparatus 1 and the like. The range of A-scan measurement positions (A-line positions) arranged in the B-scan direction corresponds to the number of pixels in the tomographic image in the B-scan direction. The number of pixels in the B-scan direction in the tomographic image is also predetermined. Therefore, the feature position specifying unit 263 obtains the scan angle for each A line by dividing the known imaging angle of view unique to the ophthalmologic apparatus 1 by the known number of pixels in the B scan direction in the tomographic image.

(S22:隣接するAラインの層厚の差を求める)
次に、特徴位置特定部263における最大値特定部2632は、例えば、被検眼Eの断層画像においてステップS21において算出されたスキャン角度分だけ離れて互いに隣接するAラインの層厚の差を求める。
(S22: Find the difference in layer thickness between adjacent A lines)
Next, the maximum value specifying unit 2632 in the characteristic position specifying unit 263 obtains, for example, the difference in layer thickness between adjacent A lines separated by the scan angle calculated in step S21 in the tomographic image of the eye E to be examined.

(S23:層厚の傾きを特定)
次に、最大値特定部2632は、ステップS22において算出された層厚の差をステップS21で算出された1つのAライン分のスキャン角度で除算することで、層厚の変化量としての層厚の傾きを特定する。
(S23: Identify slope of layer thickness)
Next, the maximum value specifying unit 2632 divides the difference in layer thickness calculated in step S22 by the scan angle for one A line calculated in step S21 to obtain the layer thickness as the amount of change in layer thickness. identify the slope of

(S24:傾き>最大値?)
続いて、最大値特定部2632は、ステップS23において算出された層厚の傾きが最大値を超えているか否かを判別する。
(S24: slope > maximum value?)
Subsequently, the maximum value identifying unit 2632 determines whether or not the slope of the layer thickness calculated in step S23 exceeds the maximum value.

ステップS24において、算出された層厚の傾きが最大値を超えていると判別されたとき(ステップS24:Y)、図12のステップS14の処理はステップS25に移行する。ステップS24において、算出された層厚の傾きが最大値を超えていないと判別されたとき(S24:N)、図12のステップS14の処理はステップS26に移行する。 When it is determined in step S24 that the calculated slope of the layer thickness exceeds the maximum value (step S24: Y), the process of step S14 in FIG. 12 proceeds to step S25. When it is determined in step S24 that the calculated slope of the layer thickness does not exceed the maximum value (S24: N), the process of step S14 in FIG. 12 proceeds to step S26.

(S25:傾きの最大値を更新)
ステップS24において、算出された層厚の傾きが最大値を超えていると判別されたとき(ステップS24:Y)、最大値特定部2632は、ステップS23において算出された傾きを最大値として更新する。
(S25: update the maximum value of the slope)
When it is determined in step S24 that the slope of the calculated layer thickness exceeds the maximum value (step S24: Y), the maximum value specifying unit 2632 updates the slope calculated in step S23 as the maximum value. .

(S26:次のAライン?)
ステップS25に続いて、又はステップS24において、算出された層厚の傾きが最大値を超えていないと判別されたとき(S24:N)、最大値特定部2632は、次のAラインについて層厚の傾きの算出を継続するか否かを判別する。
(S26: Next A line?)
Following step S25 or when it is determined in step S24 that the slope of the calculated layer thickness does not exceed the maximum value (S24: N), the maximum value specifying unit 2632 determines the layer thickness for the next A line. It is determined whether or not to continue the calculation of the slope of .

最大値特定部2632は、あらかじめ決められたAライン数分だけステップS22~ステップS25を繰り返したか否かを判別することにより、次のAラインについて層厚の傾きの算出を継続するか否かを判別することができる。 The maximum value specifying unit 2632 determines whether or not steps S22 to S25 have been repeated for a predetermined number of A lines, thereby determining whether or not to continue calculating the layer thickness gradient for the next A line. can be discriminated.

ステップS26において、次のAラインについて層厚の傾きの算出を継続すると判別されたとき(ステップS26:Y)、図12のステップS14の処理はステップS22に移行する。ステップS26において、次のAラインについて層厚の傾きの算出を継続しないと判別されたとき(ステップS26:N)、図12のステップS14の処理はステップS27に移行する。 When it is determined in step S26 to continue the calculation of the layer thickness gradient for the next A line (step S26: Y), the process of step S14 in FIG. 12 proceeds to step S22. When it is determined in step S26 not to continue calculating the layer thickness gradient for the next A line (step S26: N), the process of step S14 in FIG. 12 proceeds to step S27.

(S27:層厚変化量プロファイルを生成)
ステップS26において、次のAラインについて層厚の傾きの算出を継続しないと判別されたとき(ステップS26:N)、主制御部211は、層厚変化量プロファイル生成部264を制御して、ステップS23を繰り返し実行することにより取得された層厚の傾きを層厚変化量として、Bスキャン方向に沿って層厚の変化量を示す層厚変化量プロファイルを生成させる。
(S27: Generate layer thickness variation profile)
In step S26, when it is determined not to continue calculating the slope of the layer thickness for the next A line (step S26: N), the main control unit 211 controls the layer thickness change amount profile generation unit 264 to perform step Using the layer thickness gradient obtained by repeatedly executing S23 as the layer thickness change amount, a layer thickness change amount profile indicating the layer thickness change amount along the B scan direction is generated.

以上で、図12のステップS14の処理は終了である(エンド)。 With this, the process of step S14 in FIG. 12 is completed (end).

また、図11のステップS4の処理は、図12に示す処理に限定されるものではない。例えば、図11のステップS4の処理は、図14に示すように実行されてもよい。 Also, the process of step S4 in FIG. 11 is not limited to the process shown in FIG. For example, the process of step S4 in FIG. 11 may be performed as shown in FIG.

(S31:BM及びCSIを特定)
主制御部211は、ステップS11と同様に、層領域特定部261を制御して、上記のように、図11のステップS3において取得されたOCTデータに基づいてブルッフ膜(BM)及びCSIを特定させる。その結果、層領域特定部261は、脈絡膜を特定することができる。
(S31: Identify BM and CSI)
As in step S11, the main control unit 211 controls the layer region specifying unit 261 to specify Bruch's membrane (BM) and CSI based on the OCT data acquired in step S3 of FIG. 11 as described above. Let As a result, the layer region identifying unit 261 can identify the choroid.

(S32:BMとCSIとの間の層厚を特定)
次に、主制御部211は、ステップS12と同様に、層厚特定部262を制御して、ステップS31において特定されたBMとCSIとの間の層厚をAラインごとに特定させる。その結果、層厚特定部262は、脈絡膜の層厚プロファイルを生成することができる。
(S32: Identify layer thickness between BM and CSI)
Next, the main control unit 211 controls the layer thickness specifying unit 262 to specify the layer thickness between the BM and CSI specified in step S31 for each A line, as in step S12. As a result, the layer thickness specifying unit 262 can generate a layer thickness profile of the choroid.

(S33:移動平均処理)
次に、主制御部211は、ステップS13と同様に、移動平均処理部2631を制御して、ステップS32で特定された脈絡膜の層厚データをスキャン角度が10度の範囲でBスキャン方向に移動平均を順次に算出させる。その結果、移動平均処理部2631は、移動平均処理後の脈絡膜の層厚データを生成することができる。
(S33: moving average processing)
Next, as in step S13, the main control unit 211 controls the moving average processing unit 2631 to move the choroid layer thickness data identified in step S32 in the B scan direction within a scan angle range of 10 degrees. Let the averages be calculated sequentially. As a result, the moving average processing unit 2631 can generate layer thickness data of the choroid after moving average processing.

(S34:層厚変化量の特徴位置を特定)
次に、主制御部211は、ステップS14と同様に、特徴位置特定部263を制御して、ステップS33において得られた移動平均処理後の脈絡膜の層厚データに対して、互いに隣接するAラインの層厚の差(層厚変化量)を算出させる。主制御部211は、特徴位置特定部263を制御して、算出された層厚の差から層厚変化量の特徴位置を特定させる。
(S34: Specify the characteristic position of the layer thickness change amount)
Next, the main control unit 211 controls the characteristic position specifying unit 263 in the same manner as in step S14 to obtain the choroidal layer thickness data after the moving average processing obtained in step S33. The difference in layer thickness (amount of change in layer thickness) is calculated. The main control unit 211 controls the characteristic position specifying unit 263 to specify the characteristic position of the layer thickness change amount from the calculated difference in layer thickness.

また、ステップS34において、主制御部211は、層厚変化量プロファイル生成部264を制御して、ステップS34において特定された層厚変化量に基づいて、Bスキャン方向に沿って層厚の変化量を表す層厚変化量プロファイルを生成させる。 Further, in step S34, the main control unit 211 controls the layer thickness variation profile generation unit 264 to determine the layer thickness variation along the B scan direction based on the layer thickness variation identified in step S34. to generate a layer thickness variation profile representing

(S35:リスク判定情報を参照)
続いて、主制御部211は、ステップS15と同様に、リスク判定部265を制御して、ステップS14において特定された特徴位置における層厚変化量に基づいてリスク判定情報212Aを参照させる。リスク判定部265は、リスク判定情報212AからステップS14において特定された層厚変化量に対応したリスク情報を特定する。
(See S35: risk determination information)
Subsequently, the main control section 211 controls the risk determination section 265 to refer to the risk determination information 212A based on the layer thickness change amount at the characteristic position identified in step S14, as in step S15. The risk determination unit 265 identifies risk information corresponding to the layer thickness change amount identified in step S14 from the risk determination information 212A.

(S36:リスク判定)
続いて、主制御部211は、ステップS16と同様に、リスク判定部265を制御して、ステップS15において特定されたリスク情報に基づいて被検眼Eに対してCSCのリスクを判定させる。リスク判定部265は、特定されたリスク情報から、被検眼EがCSCであるか否か、及び被検眼がCSCである確率の少なくとも1つを含むリスク判定結果を生成する。
(S36: risk determination)
Subsequently, the main control section 211 controls the risk determination section 265 to determine the risk of CSC with respect to the subject's eye E based on the risk information specified in step S15, as in step S16. The risk determination unit 265 generates a risk determination result including at least one of whether or not the subject eye E is CSC and the probability that the subject eye is CSC from the specified risk information.

(S37:断層画像と層厚変化量プロファイルとを表示)
次に、表示制御部211Aは、図11のステップS3において形成された断層画像と、ステップS34において生成された層厚変化量プロファイルとを表示部240Aに表示させる。例えば、表示制御部211Aは、断層画像及び層厚変化量プロファイルを図7又は図8に示すように表示部240Aに表示させる。
(S37: display tomographic image and layer thickness variation profile)
Next, the display control unit 211A causes the display unit 240A to display the tomographic image formed in step S3 of FIG. 11 and the layer thickness variation profile generated in step S34. For example, the display control unit 211A causes the display unit 240A to display the tomographic image and the layer thickness variation profile as shown in FIG. 7 or 8 .

ステップS37において、表示制御部211Aは、図7、図8、又は図10に示すように、断層画像及び層厚変化量プロファイルに加えて、層厚プロファイル又は移動平均処理後の層厚プロファイルを表示部240Aに表示させることが可能である。 In step S37, the display control unit 211A displays the layer thickness profile or the layer thickness profile after moving average processing in addition to the tomographic image and the layer thickness change amount profile, as shown in FIG. 7, FIG. 8, or FIG. It is possible to display it on the part 240A.

(S38:付帯情報を表示)
続いて、表示制御部211Aは、各種の付帯情報を断層画像及び層厚変化量プロファイルに重畳するように表示部240Aに表示させる。付帯情報の例として、層厚変化量プロファイルにおける特徴位置に相当する位置を示す三角形のマーク(情報)、層厚変化量プロファイルにおいて特徴位置における変化量を示す情報、層厚プロファイルにおいて特徴位置における層厚を示す情報、層厚プロファイルの特徴位置における傾きを示す情報がある。
(S38: Display additional information)
Subsequently, the display control unit 211A causes the display unit 240A to display various supplementary information so as to be superimposed on the tomographic image and layer thickness variation profile. Examples of additional information include triangular marks (information) indicating positions corresponding to characteristic positions in the layer thickness variation profile, information indicating the amount of variation at characteristic positions in the layer thickness variation profile, layer There is information indicating the thickness and information indicating the slope at the characteristic position of the layer thickness profile.

以上で、図11のステップS4の処理は終了である(エンド)。 With this, the process of step S4 in FIG. 11 is completed (end).

[変形例]
上記の実施形態において、表示制御部211Aは、実際の眼球の形状に合うように実形状補正が行われた断層画像を表示部240Aに表示させてもよい。この場合、データ処理部は、被検眼のOCTデータ又は断層画像に対して実形状補正を行う。表示制御部211Aは、実形状補正が行われたOCTデータに基づいて形成された補正断層画像、又は実形状補正が行われた断層画像を表示部240Aに表示させる。
[Modification]
In the above embodiment, the display control unit 211A may cause the display unit 240A to display a tomographic image that has undergone actual shape correction so as to match the actual shape of the eyeball. In this case, the data processing unit performs actual shape correction on the OCT data or tomographic image of the subject's eye. The display control unit 211A causes the display unit 240A to display a corrected tomographic image formed based on OCT data subjected to actual shape correction or a tomographic image subjected to actual shape correction.

以下、実施形態の変形例について、実施形態との相違点を中心に説明する。 Modifications of the embodiment will be described below, focusing on differences from the embodiment.

実施形態の変形例に係る眼科装置の光学系の構成は、実施形態に係る眼科装置1の光学系の構成と同様である。実施形態の変形例に係る眼科装置の処理系の構成が実施形態に係る眼科装置1の処理系の構成と異なる点は、データ処理部230に代えてデータ処理部230aが設けられている点である。 The configuration of the optical system of the ophthalmologic apparatus according to the modified example of the embodiment is the same as the configuration of the optical system of the ophthalmologic apparatus 1 according to the embodiment. The configuration of the processing system of the ophthalmologic apparatus according to the modification of the embodiment differs from the configuration of the processing system of the ophthalmologic apparatus 1 according to the embodiment in that a data processing section 230a is provided instead of the data processing section 230. be.

図15に、実施形態の変形例に係るデータ処理部230aの構成例のブロック図を示す。図15において、図4と同様の部分には同一符号を付し、適宜説明を省略する。 FIG. 15 shows a block diagram of a configuration example of the data processing unit 230a according to the modification of the embodiment. In FIG. 15, the same parts as those in FIG. 4 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

データ処理部230aの構成がデータ処理部230の構成と異なる点は、データ処理部230aに実形状補正部300が追加されている点である。 The configuration of the data processing section 230a differs from that of the data processing section 230 in that an actual shape correction section 300 is added to the data processing section 230a.

(実形状補正部300)
実形状補正部300は、被検眼EのOCTデータ、又は被検眼EのOCTデータに基づいて画像形成部220により形成されたOCT画像(断層画像)に対して実形状補正を行う。実形状補正部300は、被検眼Eにおける瞳孔(所定部位)と光学的に略共役に配置された光スキャナ42を用いて測定光LSで眼内をスキャンすることにより得られた2次元若しくは3次元のOCTデータ(スキャンデータ)、又は、OCT画像を補正する。OCT画像は、2次元画像又は3次元画像である。OCT画像として、眼底の断層画像、眼底の3次元画像などが挙げられる。
(Actual shape correction unit 300)
The actual shape correction unit 300 performs actual shape correction on the OCT data of the eye E to be examined or the OCT image (tomographic image) formed by the image forming unit 220 based on the OCT data of the eye E to be examined. The actual shape correction unit 300 scans the inside of the eye with the measurement light LS using the optical scanner 42 arranged substantially optically conjugate with the pupil (predetermined portion) of the eye E to be inspected. Correct the dimensional OCT data (scan data) or the OCT image. OCT images are two-dimensional or three-dimensional images. OCT images include a tomographic image of the fundus, a three-dimensional image of the fundus, and the like.

実形状補正部300は、OCT画像における画素位置、又は、2次元若しくは3次元のスキャンデータにおけるスキャン位置に対応し、Aスキャン方向(スキャン中心位置を通る測定光の進行方向)に沿った変換位置を特定する。実形状補正部300は、画素位置又はスキャン位置を、当該画素位置等に基づいて特定された変換位置に変換する。変換位置は、所定の座標系における位置である。所定の座標系は、少なくとも1つのAスキャンのスキャン方向と同一の軸方向の座標軸を含む2以上の座標軸によって規定される。 The real shape correction unit 300 corresponds to the pixel position in the OCT image or the scan position in the two-dimensional or three-dimensional scan data, and converts the converted position along the A scan direction (the traveling direction of the measurement light passing through the scan center position). identify. The actual shape correction unit 300 converts the pixel position or the scan position into the conversion position specified based on the pixel position or the like. A transformed position is a position in a predetermined coordinate system. The predetermined coordinate system is defined by two or more coordinate axes including at least one coordinate axis in the same axial direction as the scanning direction of the A-scan.

いくつかの実施形態では、実形状補正部300は、被検眼Eの光学特性を表すパラメータ(眼軸長等)に基づいて変換位置を特定する。いくつかの実施形態では、実形状補正部300は、Aスキャン方向のスキャン半径、スキャン角度、OCT計測が可能な深さ範囲、及び、画素位置又はスキャン位置に基づいて、所定の座標系における変換位置の第1軸方向の成分及び第1軸方向と交差する第2軸方向の成分の少なくとも1つを特定する。 In some embodiments, the actual shape correction unit 300 identifies the transformation position based on parameters representing the optical characteristics of the eye E to be inspected (eg, axial length). In some embodiments, the actual shape correction unit 300 performs conversion in a predetermined coordinate system based on the scan radius in the A-scan direction, the scan angle, the depth range where OCT measurement is possible, and the pixel position or scan position. At least one of a component of position along a first axis and a component of a second axis that intersects the first axis is identified.

図16に、実施形態の比較例の説明図を示す。図16は、被検眼Eに入射する測定光の経路を模式的に表したものである。 FIG. 16 shows an explanatory diagram of a comparative example of the embodiment. FIG. 16 schematically shows the path of measurement light incident on the eye E to be examined.

例えば光スキャナ42により偏向された測定光は、図16に示すようにスキャン中心位置としての被検眼Eの瞳孔に対して様々な入射角度で入射する。被検眼Eに入射した測定光は、例えば瞳孔中心に設定されたスキャン中心位置Csを中心に眼内の各部に向けて投射される。 For example, the measurement light deflected by the optical scanner 42 is incident on the pupil of the subject's eye E as the scan center position at various angles of incidence, as shown in FIG. The measurement light incident on the subject's eye E is projected toward each part in the eye around a scan center position Cs set, for example, at the center of the pupil.

図16の測定光LS1を用いて得られた干渉データからAスキャン画像が形成され、測定光LS2を用いて得られた干渉データからAスキャン画像が形成され、測定光LS3を用いて得られた干渉データからAスキャン画像が形成される。眼底Efの断層画像は、このように形成された複数のAスキャン画像を配列することにより形成される。 An A-scan image was formed from the interference data obtained using the measurement light LS1 in FIG. 16, an A-scan image was formed from the interference data obtained using the measurement light LS2, and an A-scan image was formed using the measurement light LS3. An A-scan image is formed from the interferometric data. A tomographic image of the fundus oculi Ef is formed by arranging a plurality of A-scan images thus formed.

このように、スキャン中心位置Csを中心としたスキャン角度範囲内でAスキャン方向が変化し、得られた複数のAスキャン画像を横方向に配列された断層画像において、部位の形状が変形する。これは、画角が広くなるほど、実際の形状との差異が大きくなる。 In this manner, the A-scan direction changes within the scan angle range centered on the scan center position Cs, and the shape of the site is deformed in a tomographic image in which a plurality of obtained A-scan images are arranged in the horizontal direction. This is because the wider the angle of view, the greater the difference from the actual shape.

被検眼Eの形態を表す形態情報は、断層画像中の任意の画素の位置により求めることができる。このような形態情報には、層領域の厚さ、部位間の距離、領域の面積、領域の体積、領域の周囲長、基準位置に対する部位の方向、基準方向に対する部位の角度、部位の曲率半径などが挙げられる。 Morphological information representing the morphology of the subject's eye E can be obtained from the position of an arbitrary pixel in the tomographic image. Such morphological information includes the thickness of a layer region, the distance between regions, the area of a region, the volume of a region, the perimeter of a region, the direction of a region with respect to a reference position, the angle of a region with respect to the reference direction, the radius of curvature of a region. etc.

例えば、形態情報としての層領域の厚さ(又は部位間の距離)は、断層画像中の任意の2点間の距離を計測することで求めることが可能である。この場合、2点間の距離は、断層画像中のピクセル数により特定され、特定されたピクセル数に装置固有のピクセルサイズを乗算することで計測される。このとき、断層画像中の全ピクセルについて、同一のピクセルサイズが採用される。しかしながら、上記のように、スキャン中心位置Csを中心としてスキャン方向が異なるため、スキャン方向の深さ位置に応じて断層画像の水平方向のピクセルサイズが異なる。例えば、深さ範囲が2.5[mm]の場合、断層画像中の全ピクセルについて同一のピクセルサイズを採用したとき、断層画像の上部と下部との間でBスキャンのスキャン長に約13%の差があり、深さ範囲が10[mm]の場合、約50%の差が生じる。 For example, the thickness of a layer region (or the distance between parts) as morphological information can be obtained by measuring the distance between any two points in the tomographic image. In this case, the distance between two points is specified by the number of pixels in the tomographic image, and is measured by multiplying the specified number of pixels by the device-specific pixel size. At this time, the same pixel size is adopted for all pixels in the tomographic image. However, as described above, since the scanning direction differs around the scanning center position Cs, the horizontal pixel size of the tomographic image differs depending on the depth position in the scanning direction. For example, when the depth range is 2.5 [mm], when the same pixel size is adopted for all pixels in the tomographic image, the scan length of the B scan between the top and bottom of the tomographic image is about 13%. When the depth range is 10 [mm], the difference is about 50%.

そこで、実形状補正部300は、取得されたOCT画像における画素位置又はスキャンデータにおけるスキャン位置の座標変換を行う。 Therefore, the actual shape correction unit 300 performs coordinate transformation of pixel positions in the acquired OCT image or scanning positions in the scan data.

以下、主に、実形状補正部300は、被検眼EのOCTデータに基づいて形成された断層画像に対して実形状補正を行う場合について説明する。実形状補正部300がOCTデータ(スキャンデータ)に対して実形状補正を行う場合、断層画像における「画素位置」をOCTデータにおける「スキャン位置」に読み替えればよい。 A case where the actual shape correction unit 300 performs actual shape correction on a tomographic image formed based on the OCT data of the eye E will be mainly described below. When the actual shape correction unit 300 performs actual shape correction on OCT data (scan data), the “pixel position” in the tomographic image should be read as the “scan position” in the OCT data.

図17に、図15の実形状補正部300の構成例のブロック図を示す。 FIG. 17 shows a block diagram of a configuration example of the actual shape correction unit 300 of FIG.

実形状補正部300は、位置特定部310と、位置変換部320と、補間部330とを含む。 Actual shape correction section 300 includes a position specifying section 310 , a position conversion section 320 and an interpolation section 330 .

(位置特定部310)
位置特定部310は、取得された断層画像における画素位置に対応し、スキャン中心位置Csを通る測定光の進行方向に沿った変換位置を特定する。いくつかの実施形態では、位置特定部310は、変換位置の特定処理に被検眼Eの眼球パラメータ(眼軸長等)又は模型眼の眼球パラメータを用いる。
(Position specifying unit 310)
The position specifying unit 310 specifies a conversion position along the traveling direction of the measurement light passing through the scan center position Cs, corresponding to the pixel position in the acquired tomographic image. In some embodiments, the position identifying unit 310 uses the eyeball parameters (such as axial length) of the subject's eye E or the eyeball parameters of the model eye for the conversion position identifying process.

図18に、実施形態の変形例に係る位置特定部310の動作説明図を示す。図18において、図16と同様の部分には同一符号を付し、適宜説明を省略する。 FIG. 18 shows an operation explanatory diagram of the position specifying unit 310 according to the modified example of the embodiment. In FIG. 18, the same parts as in FIG. 16 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

ここで、スキャン角度をφとし、スキャン半径をrとし、OCT計測が可能な深さ範囲をdとし、断層画像の深さ方向の長さをhとし、断層画像の横方向の長さをwとする。スキャン角度φは、スキャン中心位置Csを中心とする測定光LSの偏向角度に相当する。スキャン半径rは、スキャン中心位置Csから測定光路長と参照光路長とが略等しい光路長ゼロ位置までの距離に相当する。深さ範囲dは、装置の光学設計等により一意に決定される装置固有の値(既知)である。 Here, the scan angle is φ, the scan radius is r, the depth range in which OCT measurement is possible is d, the length of the tomographic image in the depth direction is h, and the length of the tomographic image in the horizontal direction is w. and The scan angle φ corresponds to the deflection angle of the measurement light LS around the scan center position Cs. The scan radius r corresponds to the distance from the scan center position Cs to the optical path length zero position where the measurement optical path length and the reference optical path length are substantially equal. The depth range d is a device-specific value (known) that is uniquely determined by the optical design of the device or the like.

位置特定部310は、第1座標系における画素位置(x,z)から第2座標系における変換位置(X,Z)を特定する。第1座標系は、断層画像(OCT画像、Bスキャン画像)における左上の座標位置を原点とし、Bスキャン方向をx方向とするx座標軸と、x座標軸に直交しAスキャン方向をz方向とするz座標軸とにより定義される。断層画像における画素位置(x,z)は、第1座標系において定義される。第2座標系は、眼底Efにおける所定部位(例えば中心窩)を通過する測定光軸に対するスキャン角度が0度である測定光LSの進行方向をZ方向とするZ座標軸(例えば、第2軸)と、当該所定部位においてZ座標軸に直交するBスキャン方向をX方向とするX座標軸(例えば、第1軸)とにより定義される。第2座標系では、所定部位(例えば中心窩)を通過する測定光軸においてスキャン半径rの位置が最深部となるように所定のZ位置をZ座標軸の原点とする。また、下記のように所定の深さ方向の長さdとなるように、所定部位(例えば中心窩)を通過する測定光軸における所定のX位置をX座標軸の原点とする。変換位置(X,Z)は、第2座標系において定義される。変換位置(X,Z)は、画素位置(x,z)に対応し、スキャン中心位置Csを通る測定光LSの進行方向(Aスキャン方向)に沿った位置である。 The position specifying unit 310 specifies the transformed position (X, Z) in the second coordinate system from the pixel position (x, z) in the first coordinate system. The first coordinate system has an origin at the upper left coordinate position in a tomographic image (OCT image, B scan image), an x coordinate axis with the B scan direction as the x direction, and an A scan direction orthogonal to the x coordinate axis with the z direction. and the z coordinate axis. A pixel position (x, z) in the tomographic image is defined in the first coordinate system. The second coordinate system is a Z coordinate axis (eg, second axis) whose Z direction is the traveling direction of the measurement light LS whose scan angle is 0 degrees with respect to the measurement optical axis that passes through a predetermined portion (eg, the fovea centralis) of the fundus oculi Ef. and an X-coordinate axis (for example, a first axis) whose X direction is the B-scanning direction orthogonal to the Z-coordinate axis at the predetermined site. In the second coordinate system, a predetermined Z position is set as the origin of the Z coordinate axis so that the position of the scan radius r is the deepest part in the measurement optical axis passing through a predetermined portion (for example, the fovea centralis). Also, a predetermined X position on the measurement optical axis passing through a predetermined portion (for example, the fovea) is set as the origin of the X coordinate axis so as to have a predetermined length d in the depth direction as described below. A transformed position (X, Z) is defined in a second coordinate system. The conversion position (X, Z) corresponds to the pixel position (x, z) and is a position along the traveling direction (A scan direction) of the measurement light LS passing through the scan center position Cs.

位置特定部310は、断層画像に対し、Aスキャン方向のスキャン半径r、スキャン角度φ、OCT計測が可能な深さ範囲d、及び画素位置(x,z)に基づいて、変換位置(X,Z)を特定する。位置特定部310は、変換位置のX成分(第1軸方向の成分)及びZ成分(第2軸方向の成分)の少なくとも1つを特定することが可能である。 The position specifying unit 310 calculates a transformed position (X, Z). The position specifying unit 310 can specify at least one of the X component (component in the first axis direction) and Z component (component in the second axis direction) of the transformed position.

Aスキャンライン数をN(Nは自然数)とするOCT画像(断層画像)について、n(nは自然数)番目のAスキャンラインにおける画素位置(x,z)に対応する変換位置(X,Z)は、式(1)及び式(2)に示すように特定される。 For an OCT image (tomographic image) having N (N is a natural number) A-scan lines, the transformation position (X, Z) corresponding to the pixel position (x, z) in the n-th (n is a natural number) A-scan line is specified as shown in equations (1) and (2).

Figure 2023066499000002
Figure 2023066499000002

Figure 2023066499000003
Figure 2023066499000003

ここで、OCT画像の深さ方向の長さh、横方向の長さw、及び画素位置のx成分は、式(3)~式(5)のように表される。 Here, the length h in the depth direction, the length w in the horizontal direction, and the x component of the pixel position of the OCT image are represented by equations (3) to (5).

Figure 2023066499000004
Figure 2023066499000004

Figure 2023066499000005
Figure 2023066499000005

Figure 2023066499000006
Figure 2023066499000006

式(1)、(2)において、画素位置のx座標は式(5)のように表される。従って、位置特定部310は、画素位置(x,z)から、スキャン半径r、スキャン角度φ、及び深さ範囲dに基づいて、変換位置(X,Z)を特定することが可能である。 In equations (1) and (2), the x-coordinate of the pixel position is represented by equation (5). Therefore, the position specifying unit 310 can specify the transformation position (X, Z) from the pixel position (x, z) based on the scan radius r, scan angle φ, and depth range d.

いくつかの実施形態では、位置特定部310は、スキャンデータに対して、上記と同様に、Aスキャン方向のスキャン半径r、スキャン角度φ、OCT計測が可能な深さ範囲d、及び、スキャン位置に基づいて、変換位置(X,Z)を特定することが可能である。 In some embodiments, the position specifying unit 310, in the same manner as described above, for the scan data, scan radius r in the A scan direction, scan angle φ, OCT measurable depth range d, and scan position , it is possible to identify the transformation position (X, Z).

いくつかの実施形態では、スキャン半径rは、OCTユニット100を用いて得られた干渉光LCの検出結果を解析することにより特定される。これにより、被検眼Eの眼球光学特性をより正確に反映した変換位置(X,Z)を特定することが可能である。 In some embodiments, the scan radius r is determined by analyzing the detection results of interfering light LC obtained using OCT unit 100 . Thereby, it is possible to specify the transformation position (X, Z) that more accurately reflects the eyeball optical characteristics of the eye E to be examined.

いくつかの実施形態では、位置特定部310は、被検眼Eの角膜形状情報に基づいて測定光LSに対して光線追跡処理を施すことによりスキャン角度φを特定する。角膜形状情報には、角膜曲率半径(角膜前面の曲率半径、角膜後面の曲率半径)、角膜厚などがある。これにより、被検眼Eの眼球光学特性をより正確に反映した変換位置(X,Z)を特定することが可能である。 In some embodiments, the position specifying unit 310 specifies the scan angle φ by performing ray tracing processing on the measurement light LS based on the corneal shape information of the eye E to be examined. The corneal shape information includes corneal curvature radius (corneal anterior curvature radius, corneal posterior curvature radius), corneal thickness, and the like. Thereby, it is possible to specify the transformation position (X, Z) that more accurately reflects the eyeball optical characteristics of the eye E to be examined.

(位置変換部320)
位置変換部320は、断層画像の画素位置(x,z)を位置特定部310により特定された変換位置(X,Z)に変換する。いくつかの実施形態では、断層画像の全画素位置のそれぞれについて、位置特定部310が変換位置を特定し、位置変換部320が画素位置を変換位置に変換する。
(Position converter 320)
The position conversion unit 320 converts the pixel position (x, z) of the tomographic image into the conversion position (X, Z) specified by the position specifying unit 310 . In some embodiments, for each pixel location of the tomographic image, the location identification unit 310 identifies a transformation location, and the location transformation unit 320 transforms the pixel location to the transformation location.

それにより、図19に示すように、Aスキャンにより取得されたAスキャン画像をAスキャン方向に配置することが可能になる。従って、画角が広い場合でも、所定部位の形状が実際の形状と同様の断層画像を取得することができる。 Thereby, as shown in FIG. 19, it is possible to arrange the A-scan images acquired by the A-scan in the A-scan direction. Therefore, even when the angle of view is wide, it is possible to acquire a tomographic image in which the shape of the predetermined portion is similar to the actual shape.

(補間部330)
補間部330は、変換位置の間の画素を補間する。例えば、上記のようにスキャン中心位置Csからの距離に応じて、画素位置が変換位置に変換され互いに隣接するAスキャン画像の間隔が変化する。補間部330は、Aスキャン画像の深さ位置に応じて、互いに隣接するAスキャン画像の画素を用いてAスキャン画像の間の画素を補間する。補間部330による画素の補間処理として、ニアレストネイバー法、バイリニア補間法、バイキュービック補間法などの公知の方法を採用することが可能である。いくつかの実施形態では、補間部330は、スキャン中心位置Csからの距離に応じて、互いに隣接するAスキャン画像の間の画素を補間する。例えば、補間部330は、スキャン中心位置Csからの距離に応じて補間処理方法を変更して、互いに隣接するAスキャン画像の間の画素を補間する。
(Interpolation unit 330)
The interpolator 330 interpolates pixels between the conversion positions. For example, as described above, according to the distance from the scan center position Cs, the pixel position is converted to the conversion position, and the interval between adjacent A-scan images changes. The interpolation unit 330 interpolates pixels between the A-scan images using the pixels of the A-scan images adjacent to each other according to the depth position of the A-scan images. For pixel interpolation processing by the interpolator 330, known methods such as the nearest neighbor method, bilinear interpolation method, and bicubic interpolation method can be employed. In some embodiments, the interpolator 330 interpolates pixels between adjacent A-scan images according to the distance from the scan center position Cs. For example, the interpolator 330 interpolates pixels between adjacent A-scan images by changing the interpolation processing method according to the distance from the scan center position Cs.

いくつかの実施形態では、スキャンデータにおけるスキャン位置に対して、上記と同様に、スキャンデータを補間する。 In some embodiments, scan data is interpolated in the same manner as above for scan positions in the scan data.

図20に、実施形態の変形例に係る実形状補正処理のフローの一例を示す。記憶部212には、図20に示す処理を実現するためのコンピュータプログラムが記憶されている。主制御部211は、このコンピュータプログラムに従って動作することにより、図20に示す処理を実行する。 FIG. 20 shows an example of the flow of actual shape correction processing according to the modification of the embodiment. The storage unit 212 stores a computer program for realizing the processing shown in FIG. The main control unit 211 executes the processing shown in FIG. 20 by operating according to this computer program.

(S41:変換位置を算出)
まず、主制御部211は、断層画像の画素位置に対応した変換位置を位置特定部310に特定させる。位置特定部310は、上記のように、断層画像の画素位置に対応する変換位置を特定する。
(S41: Calculate conversion position)
First, the main control unit 211 causes the position specifying unit 310 to specify the conversion positions corresponding to the pixel positions of the tomographic image. The position specifying unit 310 specifies the conversion positions corresponding to the pixel positions of the tomographic image as described above.

(S42:画素位置を変換)
続いて、主制御部211は、位置変換部320を制御することにより、断層画像の画素位置をステップS41において算出された変換位置に変換させる。
(S42: Convert pixel position)
Subsequently, the main control unit 211 controls the position conversion unit 320 to convert the pixel positions of the tomographic image to the conversion positions calculated in step S41.

(S43:終了?)
主制御部211は、画素位置の変換を終了するか否かを判定する。
(S43: End?)
The main control unit 211 determines whether or not to end the pixel position conversion.

次に変換すべき画素位置があると判定されたとき(S43:N)、本変形例に係る眼科装置の動作はステップS41に移行する。次に変換すべき画素位置がないと判定されたとき(S43:Y)、本変形例に係る眼科装置1の動作はステップS44に移行する。 When it is determined that there is a pixel position to be converted next (S43: N), the operation of the ophthalmologic apparatus according to this modification proceeds to step S41. When it is determined that there is no pixel position to be converted next (S43: Y), the operation of the ophthalmologic apparatus 1 according to this modification proceeds to step S44.

ステップS41~S43により、断層画像の画素位置毎に、変換位置の特定と、特定された変換位置への変換が行われる。 Through steps S41 to S43, a conversion position is specified and conversion to the specified conversion position is performed for each pixel position of the tomographic image.

(S44:補間)
ステップS43において、次に変換すべき画素位置がないと判定されたとき(S43:Y)、主制御部211は、ステップS42において変換位置に変換された互いに隣接するAスキャン画像の間の画素を補間部330に補間させる。
(S44: interpolation)
When it is determined in step S43 that there is no pixel position to be converted next (S43: Y), the main control unit 211 converts the pixels between the mutually adjacent A-scan images converted to the conversion positions in step S42 into The interpolator 330 interpolates.

以上で、本変形例に係る実形状補正処理は終了である(エンド)。 With the above, the actual shape correction processing according to the present modification is finished (end).

図7、図8、又は図10に示すように、表示制御部211Aは、実形状補正が行われた断層画像に対応付けて層厚プロファイルを表示部240Aに表示させることが可能である。 As shown in FIG. 7, FIG. 8, or FIG. 10, the display control unit 211A can display the layer thickness profile on the display unit 240A in association with the tomographic image on which the actual shape correction has been performed.

図21に、実施形態の変形例に係る実形状補正後の断層画像と層厚プロファイルとを対応付けて表示部240Aに表示される例を模式的に示す。図21において、層厚プロファイル等を示す特性グラフの横軸は、スキャン角度に対応する断層画像のピクセル位置を表し、縦軸は厚さを表す。 FIG. 21 schematically shows an example in which a tomographic image after actual shape correction and a layer thickness profile are associated with each other and displayed on the display unit 240A according to the modified example of the embodiment. In FIG. 21, the horizontal axis of the characteristic graph showing the layer thickness profile etc. represents the pixel position of the tomographic image corresponding to the scan angle, and the vertical axis represents the thickness.

被検眼に対してOCTを実行してOCTデータが取得されると、層領域特定部261は、取得されたOCTデータを用いて上記のように脈絡膜を特定する。層厚特定部262は、上記のように、層領域特定部261により特定された脈絡膜のAスキャン方向の層厚を特定する。ピクセル位置ごとに層厚を特定することで、図21に示すような脈絡膜の層厚プロファイルT41が取得される。 When OCT is performed on the eye to be inspected and OCT data is acquired, the layer region specifying unit 261 specifies the choroid as described above using the acquired OCT data. The layer thickness specifying unit 262 specifies the layer thickness of the choroid in the A-scan direction specified by the layer area specifying unit 261 as described above. By specifying the layer thickness for each pixel position, a choroid layer thickness profile T41 as shown in FIG. 21 is obtained.

移動平均処理部2631は、層厚プロファイルT41に対して、Bスキャン方向に隣接する10度のスキャン角度の範囲の複数のAラインの層厚の移動平均を順次に求めることにより、移動平均処理後の層厚プロファイルT42を生成する。 The moving average processing unit 2631 sequentially obtains the moving average of the layer thickness of a plurality of A lines within a scanning angle range of 10 degrees adjacent to the B scanning direction for the layer thickness profile T41. to generate a layer thickness profile T42 of

例えば、特徴位置特定部263(最大値特定部2632)は、層厚プロファイルT42から層厚の変化量の極大値を特定する。特徴位置特定部263は、最大値特定部2632により特定された極大値を示す位置を脈絡膜変化極大値を示す特徴位置P51として特定する。 For example, the characteristic position specifying unit 263 (maximum value specifying unit 2632) specifies the maximum value of the layer thickness variation from the layer thickness profile T42. The characteristic position identifying section 263 identifies the position indicating the maximum value identified by the maximum value identifying section 2632 as a characteristic position P51 indicating the maximum choroidal change value.

層厚変化量プロファイル生成部264は、移動平均処理後の層厚プロファイルT42に対して、互いに隣接するAラインの層厚の差分を求めることにより層厚変化量プロファイル(図示せず)を生成することが可能である。 The layer thickness change amount profile generation unit 264 generates a layer thickness change amount profile (not shown) by obtaining a difference in layer thickness between adjacent A lines in the layer thickness profile T42 after the moving average process. Is possible.

また、実形状補正部300は、上記のように、取得されたOCTデータに基づいて画像形成部220により形成された断層画像に対して実形状補正を行う。表示制御部211Aは、図21に示すように、層厚プロファイルT41、T42を実形状補正後の断層画像(補正断層画像)に対応付けて表示部240Aに表示させることが可能である。実形状補正後の断層画像は、スキャン中心位置を中心にスキャン角度に対応した方向に進行するAスキャンライン(Aライン)に沿ってAスキャン画像が配列される。これにより、例えば、医師が患者にCSCの疑いのある部位を特徴位置として視覚的に説明したり、医師が治療戦略又は手術戦略を検討しやすくしたりすることが可能になる。 Further, as described above, the actual shape correction unit 300 performs actual shape correction on the tomographic image formed by the image forming unit 220 based on the acquired OCT data. As shown in FIG. 21, the display control unit 211A can cause the display unit 240A to display the layer thickness profiles T41 and T42 in association with the tomographic image after actual shape correction (corrected tomographic image). In the tomographic image after real shape correction, A-scan images are arranged along A-scan lines (A-lines) that advance in a direction corresponding to the scan angle centering on the scan center position. This enables, for example, a physician to visually explain to a patient a site suspected of CSC as a characteristic location, or to facilitate the physician's consideration of a therapeutic strategy or surgical strategy.

また、表示制御部211Aは、層厚プロファイルT41、T42における特徴位置P51に相当する位置を示す情報を表示部240Aに表示させてもよい。いくつかの実施形態では、表示制御部211Aは、層厚変化量プロファイルを実形状補正後の断層画像に対応付けて表示部240Aに表示させる。 Further, the display control section 211A may cause the display section 240A to display information indicating the position corresponding to the characteristic position P51 in the layer thickness profiles T41 and T42. In some embodiments, the display control unit 211A causes the display unit 240A to display the layer thickness change amount profile in association with the tomographic image after the actual shape correction.

図21において、ピクセル位置(画角)はBスキャンラインの中心位置(例えば、ピクセル位置「1023」又は「1024」)を100%の位置とし、ピクセル位置「0」が0%の位置として表され、ピクセル位置「2047」の位置が0%の位置として表される。補正断層画像としての断層画像IMG4には、ピクセル位置に対応したAスキャンラインに相当する線分と、当該ピクセル位置を表すパーセントの数値情報とが描出される。図21では、特徴位置P51に相当するピクセル位置が、特徴位置P51に対応するAスキャンラインを表す線分とPc(0≦Pc≦100)%の数値を表す情報とにより表される。それにより、形状が湾曲する眼底における特徴位置に相当する位置を容易に特定することができるようになる。 In FIG. 21, the pixel position (angle of view) is represented as the 100% position at the center position of the B scan line (for example, pixel position “1023” or “1024”) and the 0% position at pixel position “0”. , the position of pixel position '2047' is represented as the 0% position. In the tomographic image IMG4 as a corrected tomographic image, a line segment corresponding to the A scan line corresponding to the pixel position and percentage numerical information representing the pixel position are depicted. In FIG. 21, the pixel position corresponding to the feature position P51 is represented by a line segment representing the A scan line corresponding to the feature position P51 and information representing a numerical value of Pc (0≤Pc≤100)%. This makes it possible to easily specify the positions corresponding to the characteristic positions in the fundus having a curved shape.

いくつかの実施形態では、表示制御部211Aは、図10に示すように、層厚プロファイルの特徴位置における層厚変化量を表す情報(指標)(例えば、特徴位置における垂直方向の線分)を表示部240Aに表示させる。この場合、表示制御部211Aは、層厚プロファイルT41、T42の特徴位置P51における層厚の変化量に対応した傾きを表す情報(層厚プロファイルの特徴位置における接線の傾き)を表示部240Aに表示させる。例えば、傾きを表す情報は、傾きが大きくなるほどユーザーに注意を促すような態様で表示される。例えば、正常眼からCSC眼の疑いの度合いを傾きの角度と傾きを表す情報の色で表すことができる。 In some embodiments, as shown in FIG. 10, the display control unit 211A displays information (index) representing the layer thickness change amount at the characteristic position of the layer thickness profile (for example, a vertical line segment at the characteristic position). Displayed on the display unit 240A. In this case, the display control unit 211A displays, on the display unit 240A, information representing the slope corresponding to the amount of change in layer thickness at the feature position P51 of the layer thickness profiles T41 and T42 (the slope of the tangent line at the feature position of the layer thickness profile). Let For example, the information representing the tilt is displayed in such a manner that the greater the tilt, the more the user's attention is drawn to it. For example, the degree of suspicion of a CSC eye from a normal eye can be represented by the tilt angle and the color of the information representing the tilt.

[別の変形例]
なお、本変形例では、2次元のOCT画像(又は2次元のスキャンデータ)を実形状補正する場合について説明したが、実施形態に係る構成はこれに限定されるものではない。実施形態に係る眼科装置は、上記の変形例と同様に、3次元のOCT画像(又は3次元のスキャンデータ)を補正することが可能である。
[Another modification]
In this modified example, the case of correcting the actual shape of a two-dimensional OCT image (or two-dimensional scan data) has been described, but the configuration according to the embodiment is not limited to this. The ophthalmologic apparatus according to the embodiment can correct a three-dimensional OCT image (or three-dimensional scan data), as in the above modification.

図22に、実施形態の別の変形例に係る位置特定部の動作説明図を示す。図22において、図18と同様の部分には同一符号を付し、適宜説明を省略する。 FIG. 22 shows an operation explanatory diagram of the position specifying unit according to another modification of the embodiment. In FIG. 22, the same parts as in FIG. 18 are given the same reference numerals, and the description thereof will be omitted as appropriate.

図22では、図18におけるX平面及びZ平面の他に、Y平面が定義される。図18に示すパラメータに加えて、Cスキャン方向の中心角をθとし、Cスキャン方向の長さをlcとする。 In FIG. 22, a Y plane is defined in addition to the X and Z planes in FIG. In addition to the parameters shown in FIG. 18, let θ be the central angle in the C-scan direction, and lc be the length in the C-scan direction.

位置特定部310は、第3座標系における画素位置(x,y,z)から第4座標系における変換位置(X,Y,Z)を特定する。第3座標系は、3次元のOCT画像における左上隅の座標位置を原点とし、Bスキャン方向をx方向とするx座標軸と、x座標軸と直交しCスキャン方向をy方向とするy座標軸と、x座標軸及びy座標軸の双方に直交しAスキャン方向をz方向とするz座標軸とにより定義される。OCT画像における画素位置(x,y,z)は、第3座標系において定義される。第4座標系は、眼底Efにおける所定部位(例えば中心窩)を通過する測定光軸に対するスキャン角度が0度である測定光LSの進行方向をZ方向とするZ座標軸と、当該所定部位においてZ座標軸に直交するBスキャン方向をX方向とするX座標軸と、当該所定部位においてZ座標軸に直交するCスキャン方向をY方向とするY座標軸とにより定義される。第4座標系では、所定部位(例えば中心窩)を通過する測定光軸においてスキャン半径rの位置が最深部となるように所定のZ位置をZ座標軸の原点とする。また、下記のように所定の深さ方向の長さdとなるように、所定部位(例えば中心窩)を通過する測定光軸における所定のX位置及びY位置をX座標軸及びY座標軸の原点とする。変換位置(X,Y,Z)は、第4座標系において定義される。変換位置(X,Y,Z)は、画素位置(x,y,z)に対応し、スキャン中心位置Csを通る測定光LSの進行方向(Aスキャン方向)に沿った位置である。 The position specifying unit 310 specifies the transformation position (X, Y, Z) in the fourth coordinate system from the pixel position (x, y, z) in the third coordinate system. The third coordinate system has the coordinate position of the upper left corner in the three-dimensional OCT image as the origin, the x coordinate axis with the B scan direction as the x direction, the y coordinate axis orthogonal to the x coordinate axis with the C scan direction as the y direction, It is defined by a z-coordinate axis that is orthogonal to both the x-coordinate axis and the y-coordinate axis and has the A-scan direction as the z-direction. A pixel position (x, y, z) in the OCT image is defined in a third coordinate system. The fourth coordinate system has a Z coordinate axis in which the Z direction is the traveling direction of the measurement light LS having a scan angle of 0 degrees with respect to the measurement optical axis passing through a predetermined portion (for example, the fovea) of the fundus oculi Ef, and a Z coordinate axis in the predetermined portion. It is defined by an X-coordinate axis whose X direction is the B-scanning direction perpendicular to the coordinate axis, and a Y-coordinate axis whose Y-direction is the C-scanning direction perpendicular to the Z-coordinate axis at the predetermined site. In the fourth coordinate system, a predetermined Z position is set as the origin of the Z coordinate axis so that the position of the scan radius r in the measurement optical axis passing through a predetermined portion (for example, the fovea) is the deepest part. Also, the predetermined X position and Y position on the measurement optical axis passing through a predetermined site (for example, the fovea) are set as the origin of the X coordinate axis and the Y coordinate axis so that the length d in the depth direction is predetermined as follows. do. A transform position (X, Y, Z) is defined in a fourth coordinate system. The conversion position (X, Y, Z) corresponds to the pixel position (x, y, z) and is a position along the travel direction (A scan direction) of the measurement light LS passing through the scan center position Cs.

位置特定部310は、変換位置のX成分、Y成分及びZ成分の少なくとも1つを特定することが可能である。 The position identifying unit 310 can identify at least one of the X, Y and Z components of the transformed position.

Aスキャンライン数をN(Nは自然数)とし、Bスキャンライン数をM(Mは自然数)とするOCT画像(断層画像)について、m(mは自然数)番目のBスキャンのn(nは自然数)番目のAスキャンラインにおける画素位置(x,y,z)に対応する変換位置(X,Y,Z)は、式(6)~式(8)に示すように特定される。 For an OCT image (tomographic image) where the number of A-scan lines is N (N is a natural number) and the number of B-scan lines is M (M is a natural number), the m-th (m is a natural number) B-scan n (n is a natural number) )th A scan line, the transform position (X, Y, Z) corresponding to the pixel position (x, y, z) is specified as shown in equations (6) to (8).

Figure 2023066499000007
Figure 2023066499000007

Figure 2023066499000008
Figure 2023066499000008

Figure 2023066499000009
Figure 2023066499000009

ここで、3次元のOCT画像の深さ方向の長さhとBスキャン方向の長さwとCスキャン方向の長さlcとから、画素位置のx成分及びy成分は、式(9)~式(13)のように表される。 Here, from the length h in the depth direction, the length w in the B scanning direction, and the length lc in the C scanning direction of the three-dimensional OCT image, the x component and the y component of the pixel position are expressed by equations (9) to It is expressed as in Equation (13).

Figure 2023066499000010
Figure 2023066499000010

Figure 2023066499000011
Figure 2023066499000011

Figure 2023066499000012
Figure 2023066499000012

Figure 2023066499000013
Figure 2023066499000013

Figure 2023066499000014
Figure 2023066499000014

式(6)~(8)において、画素位置のx座標及びy座標は式(12)及び式(13)のように表される。従って、位置特定部310は、画素位置(x,y,z)から、スキャン半径r、スキャン角度φ、及び深さ範囲dに基づいて、変換位置(X,Y,Z)を特定することが可能である。 In equations (6) to (8), x-coordinates and y-coordinates of pixel positions are expressed as in equations (12) and (13). Therefore, the position specifying unit 310 can specify the transformation position (X, Y, Z) from the pixel position (x, y, z) based on the scan radius r, the scan angle φ, and the depth range d. It is possible.

いくつかの実施形態では、位置特定部310は、3次元のスキャンデータ(OCTデータ)に対して、上記と同様に、変換位置(X,Y,Z)を特定することが可能である。 In some embodiments, the position specifying unit 310 can specify the transformation position (X, Y, Z) for three-dimensional scan data (OCT data) in the same manner as described above.

位置変換部320は、OCT画像の画素位置(x,y,z)を位置特定部310により特定された変換位置(X,Y,Z)に変換する。いくつかの実施形態では、OCT画像の全画素位置のそれぞれについて、位置特定部310が変換位置を特定し、位置変換部320が画素位置を変換位置に変換する。補間部330は、位置変換部320により変換された変換位置の間の画素を補間する。 The position transforming unit 320 transforms the pixel position (x, y, z) of the OCT image into the transforming position (X, Y, Z) specified by the position specifying unit 310 . In some embodiments, for each pixel location of the OCT image, the location identifier 310 identifies a transform location, and the location transform unit 320 transforms the pixel location to the transform location. The interpolation section 330 interpolates pixels between the conversion positions converted by the position conversion section 320 .

いくつかの実施形態では、表示制御部211Aは、図21における断層画像に代えて3次元OCT画像を層厚プロファイルに対応付けて表示部240Aに表示させる。この場合、表示制御部211Aは、3次元OCT画像中に層厚プロファイルにおける特徴位置に相当する位置を識別可能に表示させてもよい。 In some embodiments, the display control unit 211A causes the display unit 240A to display a three-dimensional OCT image in association with the layer thickness profile instead of the tomographic image in FIG. In this case, the display control unit 211A may identifiably display positions corresponding to characteristic positions in the layer thickness profile in the three-dimensional OCT image.

いくつかの実施形態では、表示制御部211Aは、3次元OCTデータ、3次元OCT画像、実形状補正後の3次元OCTデータ(スキャンデータ)、又は実形状補正後の3次元画像(3次元OCT実形状補正画像)から形成された正面画像(Cスキャン画像、プロジェクション画像、又はen-face画像)中に層厚プロファイルにおける特徴位置に相当する位置を識別可能に表示部240Aに表示させる。この場合、表示制御部211Aは、正面画像中にOCTスキャン領域と共に特徴位置に相当する位置を識別可能に表示部240Aに表示させてもよい。 In some embodiments, the display control unit 211A outputs three-dimensional OCT data, a three-dimensional OCT image, three-dimensional OCT data after real shape correction (scan data), or a three-dimensional image after real shape correction (three-dimensional OCT The position corresponding to the characteristic position in the layer thickness profile in the front image (C-scan image, projection image, or en-face image) formed from the actual shape corrected image) is identifiably displayed on the display unit 240A. In this case, the display control unit 211A may cause the display unit 240A to identifiably display the positions corresponding to the characteristic positions together with the OCT scan regions in the front image.

上記の実施形態の変形例、又は実施形態の別の変形例では、実形状補正前のOCTデータから特定された特徴位置を、実形状補正後のOCT画像(断層画像など)中に識別可能に表示させる場合について説明したが、実施形態に係る構成はこれに限定されるものではない。例えば、最初にOCTデータに対して上記のように実形状補正を行い、実形状補正が行われたOCTデータに基づいて所定の層領域のAスキャン方向の膜厚の変化量の特徴位置を特定するようにしてもよい。この場合、実形状補正部300は、被検眼EのOCTデータに対して実形状補正を行い、層厚特定部262は、実形状補正部300により実形状補正が行われたOCTデータに基づいて所定の層領域(例えば、脈絡膜)のAスキャン方向の層厚を特定する。 In a modification of the above embodiment or another modification of the embodiment, feature positions identified from OCT data before actual shape correction can be identified in an OCT image (such as a tomographic image) after actual shape correction. Although the case of displaying is described, the configuration according to the embodiment is not limited to this. For example, first, the OCT data is subjected to the actual shape correction as described above, and the characteristic position of the film thickness variation in the A-scan direction of the predetermined layer region is specified based on the OCT data subjected to the actual shape correction. You may make it In this case, the actual shape correction unit 300 performs actual shape correction on the OCT data of the eye E to be examined, and the layer thickness specifying unit 262 performs the actual shape correction based on the OCT data subjected to the actual shape correction by the actual shape correction unit 300. A layer thickness in the A-scan direction of a predetermined layer region (for example, choroid) is specified.

〈作用〉
実施形態に係る眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラムについて説明する。
<Action>
An ophthalmologic information processing apparatus, an ophthalmologic apparatus, an ophthalmologic information processing method, and a program according to embodiments will be described.

いくつかの実施形態の第1態様に係る眼科情報処理装置(演算制御ユニット200(制御部210、画像形成部220、及びデータ処理部230))は、層厚特定部(262)と、特徴位置特定部(263)とを含む。層厚特定部は、被検眼(E)のOCTデータに基づいて測定部位における所定の層領域のAスキャン方向の層厚を特定する。特徴位置特定部は、層厚特定部により特定された層厚に基づいて、Aスキャン方向の交差方向(Bスキャン方向)における層厚の変化量の特徴位置を特定する。 An ophthalmologic information processing apparatus (arithmetic control unit 200 (control unit 210, image forming unit 220, and data processing unit 230)) according to a first aspect of some embodiments includes a layer thickness specifying unit (262), a feature position and a specifying part (263). The layer thickness specifying unit specifies the layer thickness in the A-scan direction of a predetermined layer region in the measurement site based on the OCT data of the eye to be examined (E). The feature position specifying unit specifies the feature position of the amount of change in layer thickness in the direction intersecting the A scan direction (B scan direction) based on the layer thickness specified by the layer thickness specification unit.

このような態様によれば、被検眼の測定部位における層厚の変化量の特徴位置を特定するようにしたので、被検眼の組織の形態の変化を高精度に特定することが可能になる。また、撮影画角などの計測範囲にかかわらず、被検眼の組織の形態の変化を広範囲にわたって詳細に観察することができるようになる。 According to this aspect, since the characteristic position of the amount of change in layer thickness at the measurement site of the eye to be examined is specified, it is possible to specify the change in the morphology of the tissue of the eye to be inspected with high accuracy. In addition, regardless of the measurement range such as the imaging angle of view, changes in the morphology of the tissue of the subject's eye can be observed in detail over a wide range.

いくつかの実施形態の第2態様に係る眼科情報処理装置は、第1態様において、特徴位置における層厚の変化量に基づいて疾患のリスクを判定するリスク判定部(265)を含む。 An ophthalmologic information processing apparatus according to a second aspect of some embodiments, in the first aspect, includes a risk determination unit (265) that determines the risk of disease based on the amount of change in layer thickness at the characteristic position.

このような態様によれば、特定された特徴位置における層厚の変化量に基づいて疾患のリスクを判定するようにしたので、疾患に特有の形態の変化が顕著でない場合でも疾患のリスクを判定することが可能になる。それにより、疾患の早期発見や早期治療に寄与することができるようになる。 According to this aspect, since the risk of disease is determined based on the amount of change in layer thickness at the identified feature position, the risk of disease can be determined even when the change in morphology peculiar to the disease is not remarkable. it becomes possible to Thereby, it becomes possible to contribute to early detection and early treatment of diseases.

いくつかの実施形態の第3態様に係る眼科情報処理装置では、第2態様において、リスク判定部は、複数の変化量のそれぞれに疾患のリスクを表す情報があらかじめ関連付けられたリスク判定情報(212A)に基づいて、疾患のリスクを判定する。 In the second aspect of the ophthalmologic information processing apparatus according to the third aspect of some embodiments, the risk determination unit obtains risk determination information (212A ) to determine the risk of disease.

このような態様によれば、あらかじめ決められた変化量と疾患のリスクを表す情報との関係に従って疾患のリスクを判定することができるので、疾患に特有の形態の変化が顕著でない場合であっても疾患のリスクを高精度に判定することが可能になる。 According to this aspect, the risk of disease can be determined according to the relationship between the predetermined amount of change and the information representing the risk of the disease. It is also possible to determine the risk of disease with high accuracy.

いくつかの実施形態の第4態様に係る眼科情報処理装置では、第2態様又は第3態様において、疾患は、中心性漿液性脈絡網膜症(CSC)を含む。 In the ophthalmic information processing apparatus according to the fourth aspect of some embodiments, in the second aspect or the third aspect, the disease includes central serous chorioretinopathy (CSC).

このような態様によれば、CSCに特有の形態の変化が顕著でない場合でもCSCのリスクを判定することが可能になる。それにより、CSCの早期発見や早期治療に寄与することができるようになる。 According to such an aspect, it is possible to determine the risk of CSC even when the morphological change peculiar to CSC is not remarkable. Thereby, it becomes possible to contribute to early detection and early treatment of CSC.

いくつかの実施形態の第5態様に係る眼科情報処理装置は、第1態様~第4態様のいずれかにおいて、上記の交差方向に沿って層厚の変化量を表す層厚変化量プロファイルを表示手段(表示部240A)に表示させる表示制御部(211A)を含み、表示制御部は、層厚変化量プロファイルにおける特徴位置に相当する位置を示す情報を表示手段に表示させる。 An ophthalmologic information processing apparatus according to a fifth aspect of some embodiments, in any one of the first to fourth aspects, displays a layer thickness change amount profile representing the amount of change in layer thickness along the cross direction. A display control section (211A) for displaying on means (display section 240A) is included, and the display control section causes the display means to display information indicating positions corresponding to characteristic positions in the layer thickness change amount profile.

このような態様によれば、層厚変化量プロファイルにおける特徴位置に相当する位置を示す情報を表示手段に表示させるようにしたので、今後注目すべき部位として形態の変化を継続的に詳細に観察することができるようになる。 According to this aspect, since the information indicating the position corresponding to the characteristic position in the layer thickness change amount profile is displayed on the display means, the morphological change is continuously observed in detail as a part to be noted in the future. be able to

いくつかの実施形態の第6態様に係る眼科情報処理装置では、第5態様において、表示制御部は、層厚変化量プロファイルにおいて特徴位置における変化量を示す情報を表示手段に表示させる。 In the fifth aspect of the ophthalmologic information processing apparatus according to the sixth aspect of some embodiments, the display control unit causes the display means to display information indicating the amount of change at the characteristic position in the layer thickness variation profile.

このような態様によれば、層厚変化量プロファイルにおいて特徴位置における変化量を視認できるようにしたので、今後注目すべき部位として形態の変化を継続的に詳細に観察することができるようになる。 According to this aspect, since it is possible to visually recognize the amount of change in the characteristic position in the layer thickness change amount profile, it becomes possible to continuously observe in detail the change in the form as a part to be noted in the future. .

いくつかの実施形態の第7態様に係る眼科情報処理装置では、第5態様又は第6態様において、表示制御部は、特徴位置における層厚の変化量に対応した傾きを表す情報を表示手段に表示させる。 In the ophthalmologic information processing apparatus according to the seventh aspect of some embodiments, in the fifth aspect or the sixth aspect, the display control unit displays information representing the tilt corresponding to the amount of change in the layer thickness at the feature position on the display means. display.

このような態様によれば、層厚の変化量を容易に把握することができるようになる。 According to such an aspect, it becomes possible to easily grasp the amount of change in the layer thickness.

いくつかの実施形態の第8態様に係る眼科情報処理装置では、第5態様~第7態様のいずれかにおいて、表示制御部は、層厚変化量プロファイルとOCTデータに基づいて形成された断層画像とを表示手段に表示させ、断層画像における特徴位置に相当する位置を示す情報を表示手段に表示させる。 In the ophthalmologic information processing apparatus according to the eighth aspect of some embodiments, in any one of the fifth to seventh aspects, the display control unit displays a tomographic image formed based on the layer thickness variation profile and the OCT data. are displayed on the display means, and information indicating positions corresponding to the characteristic positions in the tomographic image is displayed on the display means.

このような態様によれば、今後注目すべき部位として形態の変化を継続的に詳細に観察することができるようになる。 According to such an aspect, it becomes possible to continuously and in detail observe changes in the shape of the part to be noted in the future.

いくつかの実施形態の第9態様に係る眼科情報処理装置は、第8態様において、OCTデータ又は断層画像に対して実形状補正を行う実形状補正部(300)を含む。表示制御部は、実形状補正部により実形状補正が行われたOCTデータに基づいて形成された補正断層画像(断層画像IMG4)、又は実形状補正部により実形状補正が行われた断層画像を表示手段に表示させる。 An ophthalmologic information processing apparatus according to a ninth aspect of some embodiments, in the eighth aspect, includes a real shape correction unit (300) that performs real shape correction on OCT data or a tomographic image. The display control unit displays a corrected tomographic image (tomographic image IMG4) formed based on OCT data subjected to actual shape correction by the actual shape correction unit, or a tomographic image subjected to actual shape correction by the actual shape correction unit. display on the display means.

このような態様によれば、例えば、医師が患者に疾患の疑いのある部位を特徴位置として視覚的に説明したり、医師が治療戦略又は手術戦略を検討しやすくしたりすることが可能になる。 According to this aspect, for example, a doctor can visually explain to a patient a site suspected of having a disease as a characteristic position, and the doctor can easily consider a treatment strategy or a surgical strategy. .

いくつかの実施形態の第10態様に係る眼科情報処理装置は、第1態様~第8態様のいずれかにおいて、OCTデータに対して実形状補正を行う実形状補正部(300)を含む。層厚特定部は、実形状補正部により実形状補正が行われたOCTデータに基づいて所定の層領域のAスキャン方向の層厚を特定する。 An ophthalmologic information processing apparatus according to a tenth aspect of some embodiments includes a real shape correction unit (300) that performs real shape correction on OCT data in any one of the first to eighth aspects. The layer thickness specifying unit specifies the layer thickness of the predetermined layer region in the A-scan direction based on the OCT data subjected to the actual shape correction by the actual shape correcting unit.

本態様において、OCTデータは、2次元OCTデータ又は3次元OCTデータであってよい。このような態様によれば、実形状補正が行われた層領域に対して層厚解析を行って特徴位置を特定することができる。それにより、被検眼の眼球の形状に合わせて正確に特徴位置を特定することができるようになる。 In this aspect, the OCT data may be two-dimensional OCT data or three-dimensional OCT data. According to such an aspect, it is possible to specify the feature position by performing the layer thickness analysis on the layer region on which the actual shape correction has been performed. As a result, it is possible to accurately identify the characteristic positions according to the shape of the eyeball of the subject's eye.

いくつかの実施形態の第11態様に係る眼科情報処理装置では、第1態様~第10態様のいずれかにおいて、特徴位置特定部は、上記の交差方向に隣接するAラインの層厚の差分と、被検眼におけるOCTスキャンのスキャン中心位置を中心とするAラインごとのスキャン角度とに基づいて、特徴位置を特定する。 In the ophthalmologic information processing apparatus according to the eleventh aspect of some embodiments, in any one of the first to tenth aspects, the characteristic position specifying unit determines the layer thickness difference between the A lines adjacent in the cross direction and , and the scan angle for each A line centered on the scan center position of the OCT scan of the eye to be inspected.

このような態様によれば、層厚の変化量の特徴位置を高精度に特定することが可能になる。 According to such an aspect, it is possible to specify the characteristic position of the amount of change in layer thickness with high accuracy.

いくつかの実施形態の第12態様に係る眼科情報処理装置では、第11態様において、特徴位置特定部は、上記の交差方向に隣接する複数のAラインの層厚を交差方向に平滑化する平滑化部(移動平均処理部2631)を含み、平滑化部により平滑化された複数のAラインの層厚に基づいて層厚の変化量の特徴位置を特定する。 In the ophthalmologic information processing apparatus according to the twelfth aspect of some embodiments, in the eleventh aspect, the feature position specifying unit performs smoothing for smoothing the layer thicknesses of the plurality of A-lines adjacent in the intersecting direction in the intersecting direction. A smoothing unit (moving average processing unit 2631) is included, and the characteristic position of the amount of change in layer thickness is specified based on the layer thicknesses of the multiple A lines smoothed by the smoothing unit.

このような態様によれば、階段状になっている層厚のプロファイルデータを均し、交差方向に平滑化された層厚のプロファイルデータから再現性よく特徴位置を特定することができるようになる。 According to this aspect, the stepped layer thickness profile data is smoothed, and the feature position can be specified with good reproducibility from the layer thickness profile data smoothed in the cross direction. .

いくつかの実施形態の第13態様に係る眼科情報処理装置では、第12態様において、平滑化部は、上記の交差方向に隣接する所定のスキャン角度の範囲の複数のAラインの層厚の移動平均を順次に求める。 In the ophthalmologic information processing apparatus according to the thirteenth aspect of some embodiments, in the twelfth aspect, the smoothing unit moves the layer thickness of a plurality of A-lines within a predetermined scan angle range adjacent to the cross direction. Calculate the averages sequentially.

このような態様によれば、簡素な移動平均処理により、階段状になっている層厚のプロファイルデータを均し、交差方向に平滑化された層厚のプロファイルデータから再現性よく特徴位置を特定することができるようになる。 According to this aspect, the stepwise layer thickness profile data is smoothed by a simple moving average process, and the feature position is specified with good reproducibility from the layer thickness profile data smoothed in the cross direction. be able to

いくつかの実施形態の第14態様に係る眼科情報処理装置では、第1態様~第13態様のいずれかにおいて、特徴位置は、層厚の変化量の最大値又は極大値を示す位置である。 In any one of the first to thirteenth aspects of the ophthalmologic information processing apparatus according to the fourteenth aspect of the embodiments, the characteristic position is a position showing the maximum value or the local maximum value of the layer thickness variation.

このような態様によれば、被検眼の測定部位における層厚の変化量の最大値又は極大値を示す位置と特徴位置として特定するようにしたので、被検眼の組織の形態の変化を高精度に特定することが可能になる。また、撮影画角などの計測範囲にかかわらず、被検眼の組織の形態の変化を広範囲にわたって詳細に観察することができるようになる。 According to this aspect, since the position and characteristic position showing the maximum value or maximum value of the layer thickness change amount in the measurement site of the eye to be examined are specified, the change in the morphology of the tissue of the eye to be examined can be detected with high accuracy. can be specified. In addition, regardless of the measurement range such as the imaging angle of view, changes in the morphology of the tissue of the subject's eye can be observed in detail over a wide range.

いくつかの実施形態の第15態様に係る眼科情報処理装置では、第1態様~第14態様のいずれかにおいて、所定の層領域は、脈絡膜である。 According to some embodiments of the ophthalmologic information processing apparatus according to the fifteenth aspect, in any one of the first to fourteenth aspects, the predetermined layer region is the choroid.

このような態様によれば、脈絡膜の層厚の変化量の特徴位置を特定するようにしたので、脈絡膜の形態の変化を高精度に特定することが可能になる。また、撮影画角などの計測範囲にかかわらず、脈絡膜の形態の変化を広範囲にわたって詳細に観察することができるようになる。 According to this aspect, since the characteristic position of the amount of change in the layer thickness of the choroid is specified, it is possible to specify the change in the morphology of the choroid with high accuracy. In addition, regardless of the measurement range such as the imaging angle of view, it becomes possible to observe changes in the morphology of the choroid in detail over a wide range.

いくつかの実施形態の第16態様に係る眼科装置は、光スキャナ(42)を含み、光スキャナにより偏向された測定光(LS)を被検眼に投射することによりOCTデータを取得するOCT光学系(OCTユニット100から対物レンズ22までの光学系)と、第1態様~第15態様のいずれかの眼科情報処理装置と、を含む。 An ophthalmologic apparatus according to a sixteenth aspect of some embodiments includes an optical scanner (42), an OCT optical system that obtains OCT data by projecting measurement light (LS) deflected by the optical scanner onto an eye to be examined. (an optical system from the OCT unit 100 to the objective lens 22) and the ophthalmologic information processing apparatus according to any one of the first to fifteenth aspects.

このような態様によれば、被検眼の組織の形態の変化を高精度に特定することが可能な眼科装置を提供することができるようになる。また、撮影画角などの計測範囲にかかわらず、被検眼の組織の形態の変化を広範囲にわたって詳細に観察することが可能な眼科装置を提供することができるようになる。 According to this aspect, it is possible to provide an ophthalmologic apparatus capable of identifying a change in the tissue morphology of an eye to be examined with high accuracy. In addition, it is possible to provide an ophthalmologic apparatus capable of observing changes in the morphology of the tissue of the subject's eye in detail over a wide range regardless of the measurement range such as the imaging angle of view.

いくつかの実施形態の第17態様に係る眼科情報処理方法は、層厚特定ステップと、特徴位置特定ステップとを含む。層厚特定ステップは、被検眼(E)のOCTデータに基づいて測定部位における所定の層領域のAスキャン方向の層厚を特定する。特徴位置特定ステップは、層厚特定ステップにおいて特定された層厚に基づいて、Aスキャン方向の交差方向(Bスキャン方向)における層厚の変化量の特徴位置を特定する。 An ophthalmologic information processing method according to a seventeenth aspect of some embodiments includes a layer thickness identifying step and a feature position identifying step. The layer thickness specifying step specifies the layer thickness in the A-scan direction of a predetermined layer region in the measurement site based on the OCT data of the eye (E) to be examined. The characteristic position identifying step identifies the characteristic position of the amount of change in layer thickness in a direction intersecting the A scanning direction (B scanning direction) based on the layer thickness identified in the layer thickness identifying step.

このような態様によれば、被検眼の測定部位における層厚の変化量の特徴位置を特定するようにしたので、被検眼の組織の形態の変化を高精度に特定することが可能になる。また、撮影画角などの計測範囲にかかわらず、被検眼の組織の形態の変化を広範囲にわたって詳細に観察することができるようになる。 According to this aspect, since the characteristic position of the amount of change in layer thickness at the measurement site of the eye to be examined is specified, it is possible to specify the change in the morphology of the tissue of the eye to be inspected with high accuracy. In addition, regardless of the measurement range such as the imaging angle of view, changes in the morphology of the tissue of the subject's eye can be observed in detail over a wide range.

いくつかの実施形態の第18態様に係るプログラムは、コンピュータに、第17態様の眼科情報処理方法の各ステップを実行させる。 A program according to the eighteenth aspect of some embodiments causes a computer to execute each step of the ophthalmologic information processing method of the seventeenth aspect.

このような態様によれば、被検眼の組織の形態の変化を高精度に特定することが可能なプログラムを提供することができるようになる。また、撮影画角などの計測範囲にかかわらず、被検眼の組織の形態の変化を広範囲にわたって詳細に観察することが可能なプログラムを提供することができるようになる。 According to this aspect, it is possible to provide a program capable of specifying a change in the morphology of the tissue of the eye to be examined with high accuracy. In addition, it is possible to provide a program that enables detailed observation of changes in the morphology of the tissue of the subject's eye over a wide range, regardless of the measurement range such as the imaging angle of view.

以上に説明した実施形態はこの発明の一例に過ぎない。この発明を実施しようとする者は、この発明の要旨の範囲内における変形(省略、置換、付加等)を任意に施すことが可能である。 The embodiment described above is merely an example of the present invention. A person who intends to implement this invention can arbitrarily make modifications (omissions, substitutions, additions, etc.) within the scope of the gist of this invention.

いくつかの実施形態では、眼科情報処理方法をコンピュータに実行させるプログラムが記憶部212に保存される。このようなプログラムを、コンピュータによって読み取り可能な任意の記録媒体に記憶させてもよい。記録媒体は、磁気、光、光磁気、半導体などを利用した電子媒体であってよい。典型的には、記録媒体は、磁気テープ、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ、ソリッドステートドライブなどである。 In some embodiments, the storage unit 212 stores a program that causes a computer to execute the ophthalmologic information processing method. Such a program may be stored in any computer-readable recording medium. The recording medium may be electronic media using magnetism, light, magneto-optics, semiconductors, and the like. Typically, recording media are magnetic tapes, magnetic disks, optical disks, magneto-optical disks, flash memories, solid state drives, and the like.

1 眼科装置
2 眼底カメラユニット
100 OCTユニット
210 制御部
211 主制御部
211A 表示制御部
212 記憶部
212A リスク判定情報
220 画像形成部
230、230a データ処理部
250 アライメント処理部
260 リスク判定処理部
261 層領域特定部
262 層厚特定部
263 特徴位置特定部
2631 移動平均処理部
2632 最大値特定部
264 層厚変化量プロファイル生成部
265 リスク判定部
300 実形状補正部
310 位置特定部
320 位置変換部
330 補間部
E 被検眼
Ef 眼底
LS 測定光
1 ophthalmologic apparatus 2 retinal camera unit 100 OCT unit 210 control unit 211 main control unit 211A display control unit 212 storage unit 212A risk determination information 220 image forming units 230 and 230a data processing unit 250 alignment processing unit 260 risk determination processing unit 261 layer region Identification unit 262 Layer thickness identification unit 263 Characteristic position identification unit 2631 Moving average processing unit 2632 Maximum value identification unit 264 Layer thickness change amount profile generation unit 265 Risk determination unit 300 Actual shape correction unit 310 Position identification unit 320 Position conversion unit 330 Interpolation unit E Eye to be examined Ef Fundus LS Measurement light

Claims (18)

被検眼のOCTデータに基づいて測定部位における所定の層領域のAスキャン方向の層厚を特定する層厚特定部と、
前記層厚特定部により特定された前記層厚に基づいて、前記Aスキャン方向の交差方向における前記層厚の変化量の特徴位置を特定する特徴位置特定部と、
を含む、眼科情報処理装置。
a layer thickness specifying unit that specifies the layer thickness in the A-scan direction of a predetermined layer region in the measurement site based on the OCT data of the eye to be examined;
a feature position specifying unit that specifies a feature position of the amount of change in the layer thickness in the direction intersecting the A-scan direction based on the layer thickness specified by the layer thickness specifying unit;
An ophthalmic information processing device, comprising:
前記特徴位置における前記変化量に基づいて疾患のリスクを判定するリスク判定部を含む
ことを特徴とする請求項1に記載の眼科情報処理装置。
The ophthalmologic information processing apparatus according to claim 1, further comprising a risk determination unit that determines a risk of disease based on the amount of change in the characteristic position.
前記リスク判定部は、複数の変化量のそれぞれに前記疾患のリスクを表す情報があらかじめ関連付けられたリスク判定情報に基づいて、前記疾患のリスクを判定する
ことを特徴とする請求項2に記載の眼科情報処理装置。
3. The risk determination unit according to claim 2, wherein the risk determination unit determines the risk of the disease based on risk determination information in which information representing the risk of the disease is pre-associated with each of a plurality of variations. Ophthalmic information processing device.
前記疾患は、中心性漿液性脈絡網膜症を含む
ことを特徴とする請求項2又は請求項3に記載の眼科情報処理装置。
4. The ophthalmologic information processing apparatus according to claim 2, wherein the disease includes central serous chorioretinopathy.
前記交差方向に沿って前記層厚の変化量を表す層厚変化量プロファイルを表示手段に表示させる表示制御部を含み、
前記表示制御部は、前記層厚変化量プロファイルにおける前記特徴位置に相当する位置を示す情報を前記表示手段に表示させる
ことを特徴とする請求項1~請求項4のいずれか一項に記載の眼科情報処理装置。
a display control unit that causes a display unit to display a layer thickness variation profile representing the variation of the layer thickness along the cross direction;
The display controller according to any one of claims 1 to 4, wherein the display control unit causes the display means to display information indicating a position corresponding to the characteristic position in the layer thickness variation profile. Ophthalmic information processing device.
前記表示制御部は、前記層厚変化量プロファイルにおいて前記特徴位置における前記変化量を示す情報を前記表示手段に表示させる
ことを特徴とする請求項5に記載の眼科情報処理装置。
6. The ophthalmologic information processing apparatus according to claim 5, wherein the display control unit causes the display unit to display information indicating the amount of change at the characteristic position in the layer thickness change amount profile.
前記表示制御部は、前記特徴位置における前記層厚の変化量に対応した傾きを表す情報を前記表示手段に表示させる
ことを特徴とする請求項5又は請求項6に記載の眼科情報処理装置。
7. The ophthalmologic information processing apparatus according to claim 5, wherein the display control unit causes the display unit to display information representing an inclination corresponding to the amount of change in the layer thickness at the feature position.
前記表示制御部は、前記層厚変化量プロファイルと前記OCTデータに基づいて形成された断層画像とを前記表示手段に表示させ、前記断層画像における前記特徴位置に相当する位置を示す情報を前記表示手段に表示させる
ことを特徴とする請求項5~請求項7のいずれか一項に記載の眼科情報処理装置。
The display control unit causes the display means to display the layer thickness variation profile and the tomographic image formed based on the OCT data, and displays information indicating a position corresponding to the characteristic position in the tomographic image. 8. The ophthalmologic information processing apparatus according to any one of claims 5 to 7, wherein the information is displayed on means.
前記OCTデータ又は前記断層画像に対して実形状補正を行う実形状補正部を含み、
前記表示制御部は、前記実形状補正部により実形状補正が行われた前記OCTデータに基づいて形成された補正断層画像、又は前記実形状補正部により実形状補正が行われた前記断層画像を前記表示手段に表示させる
ことを特徴とする請求項8に記載の眼科情報処理装置。
A real shape correction unit that performs real shape correction on the OCT data or the tomographic image,
The display control unit displays a corrected tomographic image formed based on the OCT data subjected to actual shape correction by the actual shape correction unit, or the tomographic image subjected to actual shape correction by the actual shape correction unit. The ophthalmologic information processing apparatus according to claim 8, wherein the information is displayed on the display means.
前記OCTデータに対して実形状補正を行う実形状補正部を含み、
前記層厚特定部は、前記実形状補正部により実形状補正が行われた前記OCTデータに基づいて前記所定の層領域のAスキャン方向の層厚を特定する
ことを特徴とする請求項1~請求項8のいずれか一項に記載の眼科情報処理装置。
An actual shape correction unit that performs actual shape correction on the OCT data,
The layer thickness specifying unit specifies the layer thickness of the predetermined layer region in the A-scan direction based on the OCT data subjected to the actual shape correction by the actual shape correcting unit. The ophthalmologic information processing apparatus according to claim 8 .
前記特徴位置特定部は、前記交差方向に隣接するAラインの前記層厚の差分と、前記被検眼におけるOCTスキャンのスキャン中心位置を中心とするAラインごとのスキャン角度とに基づいて、前記特徴位置を特定する
ことを特徴とする請求項1~請求項10のいずれか一項に記載の眼科情報処理装置。
The feature position specifying unit determines the feature based on the difference in the layer thickness of the A-lines adjacent in the cross direction and the scan angle for each A-line centered on the scan center position of the OCT scan of the eye to be examined. The ophthalmologic information processing apparatus according to any one of claims 1 to 10, characterized by specifying a position.
前記特徴位置特定部は、
前記交差方向に隣接する複数のAラインの前記層厚を前記交差方向に平滑化する平滑化部を含み、
前記平滑化部により平滑化された前記複数のAラインの層厚に基づいて前記層厚の変化量の特徴位置を特定する
ことを特徴とする請求項11に記載の眼科情報処理装置。
The feature location specifying unit includes:
A smoothing unit that smoothes the layer thickness of the plurality of A lines adjacent in the cross direction in the cross direction,
12. The ophthalmologic information processing apparatus according to claim 11, wherein a characteristic position of the amount of change in the layer thickness is specified based on the layer thicknesses of the plurality of A-lines smoothed by the smoothing unit.
前記平滑化部は、前記交差方向に隣接する所定のスキャン角度の範囲の複数のAラインの前記層厚の移動平均を順次に求める
ことを特徴とする請求項12に記載の眼科情報処理装置。
13. The ophthalmologic information processing apparatus according to claim 12, wherein the smoothing unit sequentially obtains a moving average of the layer thicknesses of a plurality of A-lines within a predetermined scan angle range adjacent in the cross direction.
前記特徴位置は、前記変化量の最大値又は極大値を示す位置である
ことを特徴とする請求項1~請求項13のいずれか一項に記載の眼科情報処理装置。
The ophthalmologic information processing apparatus according to any one of claims 1 to 13, wherein the characteristic position is a position indicating a maximum value or a local maximum value of the amount of change.
前記所定の層領域は、脈絡膜である
ことを特徴とする請求項1~請求項14のいずれか一項に記載の眼科情報処理装置。
The ophthalmologic information processing apparatus according to any one of claims 1 to 14, wherein the predetermined layer region is a choroid.
光スキャナを含み、前記光スキャナにより偏向された測定光を前記被検眼に投射することにより前記OCTデータを取得するOCT光学系と、
請求項1~請求項15のいずれか一項に記載の眼科情報処理装置と、
を含む、眼科装置。
an OCT optical system that includes an optical scanner and obtains the OCT data by projecting measurement light deflected by the optical scanner onto the eye to be examined;
The ophthalmologic information processing apparatus according to any one of claims 1 to 15,
An ophthalmic device, comprising:
被検眼のOCTデータに基づいて測定部位における所定の層領域のAスキャン方向の層厚を特定する層厚特定ステップと、
前記層厚特定ステップにおいて特定された前記層厚に基づいて、前記Aスキャン方向の交差方向における前記層厚の変化量の特徴位置を特定する特徴位置特定ステップと、
を含む、眼科情報処理方法。
a layer thickness specifying step of specifying the layer thickness in the A-scan direction of a predetermined layer region in the measurement site based on the OCT data of the eye to be examined;
a feature position specifying step of specifying a feature position of the amount of change in the layer thickness in the direction intersecting the A-scan direction based on the layer thickness specified in the layer thickness specifying step;
An ophthalmic information processing method, comprising:
コンピュータに、請求項17に記載の眼科情報処理方法の各ステップを実行させる、プログラム。 A program that causes a computer to execute each step of the ophthalmologic information processing method according to claim 17.
JP2021177127A 2021-10-29 2021-10-29 Ophthalmologic information processing device, ophthalmologic device, ophthalmologic information processing method, and program Pending JP2023066499A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021177127A JP2023066499A (en) 2021-10-29 2021-10-29 Ophthalmologic information processing device, ophthalmologic device, ophthalmologic information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021177127A JP2023066499A (en) 2021-10-29 2021-10-29 Ophthalmologic information processing device, ophthalmologic device, ophthalmologic information processing method, and program

Publications (1)

Publication Number Publication Date
JP2023066499A true JP2023066499A (en) 2023-05-16

Family

ID=86325988

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021177127A Pending JP2023066499A (en) 2021-10-29 2021-10-29 Ophthalmologic information processing device, ophthalmologic device, ophthalmologic information processing method, and program

Country Status (1)

Country Link
JP (1) JP2023066499A (en)

Similar Documents

Publication Publication Date Title
CN110934563B (en) Ophthalmologic information processing apparatus, ophthalmologic apparatus, and ophthalmologic information processing method
JP2022040372A (en) Ophthalmologic apparatus
JP2021023686A (en) Ophthalmologic apparatus, control method thereof, program, and recording medium
JP7134324B2 (en) OPHTHALMIC PHOTOGRAPHIC APPARATUS, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF
JP7096116B2 (en) Blood flow measuring device
JP7090438B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP6736734B2 (en) Ophthalmic photographing device and ophthalmic information processing device
JP7166182B2 (en) Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program
JP7378557B2 (en) Ophthalmologic imaging device, its control method, program, and recording medium
JP2023014190A (en) Ophthalmology imaging apparatus
WO2021149430A1 (en) Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program
JP7050488B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
WO2019150862A1 (en) Blood flow measurement device
JP2023066499A (en) Ophthalmologic information processing device, ophthalmologic device, ophthalmologic information processing method, and program
JP2020031873A (en) Ophthalmologic apparatus, control method thereof, program, and recording medium
JP7289394B2 (en) Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program
JP7335107B2 (en) Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program
WO2024004455A1 (en) Opthalmic information processing device, opthalmic device, opthalmic information processing method, and program
JP7201855B2 (en) Ophthalmic device and ophthalmic information processing program
JP7359724B2 (en) Ophthalmology information processing device, ophthalmology device, ophthalmology information processing method, and program
JP7116572B2 (en) Ophthalmic device and ophthalmic information processing program
JP6991075B2 (en) Blood flow measuring device
JP6942626B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP6942627B2 (en) Ophthalmologic imaging equipment, its control method, programs, and recording media
JP2023040529A (en) Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method and program