JP7180187B2 - Ophthalmic image processing device, OCT device, and ophthalmic image processing program - Google Patents

Ophthalmic image processing device, OCT device, and ophthalmic image processing program Download PDF

Info

Publication number
JP7180187B2
JP7180187B2 JP2018147139A JP2018147139A JP7180187B2 JP 7180187 B2 JP7180187 B2 JP 7180187B2 JP 2018147139 A JP2018147139 A JP 2018147139A JP 2018147139 A JP2018147139 A JP 2018147139A JP 7180187 B2 JP7180187 B2 JP 7180187B2
Authority
JP
Japan
Prior art keywords
image
dimensional
ophthalmologic
ophthalmic
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018147139A
Other languages
Japanese (ja)
Other versions
JP2020018793A (en
JP2020018793A5 (en
Inventor
涼介 柴
祐輔 坂下
佳紀 熊谷
直樹 竹野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2018147139A priority Critical patent/JP7180187B2/en
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to PCT/JP2019/016209 priority patent/WO2020026535A1/en
Priority to US17/265,367 priority patent/US11961229B2/en
Priority to CN201980051471.6A priority patent/CN112533526A/en
Priority to EP19843402.9A priority patent/EP3831275A4/en
Publication of JP2020018793A publication Critical patent/JP2020018793A/en
Publication of JP2020018793A5 publication Critical patent/JP2020018793A5/ja
Application granted granted Critical
Publication of JP7180187B2 publication Critical patent/JP7180187B2/en
Priority to US18/603,365 priority patent/US20240221160A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Description

本開示は、被検眼の眼科画像を処理する眼科画像処理装置、OCT装置、および、眼科画像処理装置において実行される眼科画像処理プログラムに関する。 The present disclosure relates to an ophthalmic image processing apparatus that processes an ophthalmic image of an eye to be examined, an OCT apparatus, and an ophthalmic image processing program executed in the ophthalmic image processing apparatus.

従来、眼科画像に写っている複数の組織(例えば、複数の層)の境界、および、眼科画像に写っている組織上の特定部位の少なくともいずれか(以下、単に「境界・特定部位」という場合もある)を検出するための種々の技術が提案されている。例えば、非特許文献1で開示されている技術では、まず、各画素がどの層に属するかが画素毎にマッピングされる。次いで、マッピングの結果に基づいて各層の厚さが出力されることで、各層の境界が検出される。 Conventionally, at least one of the boundary of multiple tissues (for example, multiple layers) captured in an ophthalmologic image and a specific site on the tissue captured in an ophthalmologic image (hereinafter simply referred to as "boundary/specific site") Various techniques have been proposed for detecting For example, in the technique disclosed in Non-Patent Document 1, first, to which layer each pixel belongs is mapped for each pixel. Then, the boundaries of each layer are detected by outputting the thickness of each layer based on the mapping result.

Yufan He, Aaron Carass, et al. “Topology guaranteed segmentation of the human retina from OCT using convolutional neural networks.”arXiv:1803.05120, 14 Mar 2018Yufan He, Aaron Carass, et al. "Topology guaranteed segmentation of the human retina from OCT using convolutional neural networks." arXiv: 1803.05120, 14 Mar 2018

非特許文献1の手法では、例えば、疾患の影響で組織の構造が崩れている場合等には、各画素がどの組織に属するかを精度良くマッピングすることが困難となる。その結果、組織の境界・特定部位の検出精度も低下する。 In the method of Non-Patent Document 1, for example, when the tissue structure is destroyed due to disease, it is difficult to accurately map which tissue each pixel belongs to. As a result, the detection accuracy of the tissue boundary/specific site also decreases.

本開示の典型的な目的は、眼科画像に写っている組織の境界および特定部位の少なくともいずれかを適切に検出することが可能な眼科画像処理装置、OCT装置、および眼科画像処理プログラムを提供することである。 A typical object of the present disclosure is to provide an ophthalmic image processing apparatus, an OCT apparatus, and an ophthalmic image processing program capable of appropriately detecting at least one of a tissue boundary and a specific site appearing in an ophthalmic image. That is.

本開示における典型的な実施形態が提供する眼科画像処理装置は、被検眼の組織の画像である眼科画像を処理する眼科画像処理装置であって、前記眼科画像処理装置の制御部は、眼科画像撮影装置によって撮影された眼科画像を取得し、機械学習アルゴリズムによって訓練された数学モデルに前記眼科画像を入力することで、前記眼科画像中の領域内において前記組織の特定の境界および特定部位の少なくともいずれかが存在する、一次元以上の座標を確率変数とする確率分布を取得し、取得した前記確率分布に基づいて、前記特定の境界および前記特定部位の少なくともいずれかを検出する。
An ophthalmic image processing apparatus provided by a typical embodiment of the present disclosure is an ophthalmic image processing apparatus that processes an ophthalmic image that is an image of a tissue of an eye to be examined, wherein a control unit of the ophthalmic image processing apparatus includes: Acquiring an ophthalmologic image captured by an imaging device and inputting the ophthalmologic image to a mathematical model trained by a machine learning algorithm to detect at least a specific boundary and a specific region of the tissue within a region in the ophthalmologic image. A probability distribution is obtained in which coordinates of one or more dimensions in which any of them exist are used as random variables, and at least one of the specific boundary and the specific part is detected based on the obtained probability distribution.

本開示における典型的な実施形態が提供するOCT装置は、参照光と、被検眼の組織に照射された測定光の反射光とによるOCT信号を処理することで、前記組織の眼科画像を撮影するOCT装置であって、前記OCT装置の制御部は、撮影した前記眼科画像を、機械学習アルゴリズムによって訓練された数学モデルに入力することで、前記眼科画像中の領域内において前記組織の特定の境界および特定部位の少なくともいずれかが存在する、一次元以上の座標を確率変数とする確率分布を取得し、取得した前記確率分布に基づいて、前記特定の境界および前記特定部位の少なくともいずれかを検出する。
An OCT apparatus provided by a typical embodiment of the present disclosure processes an OCT signal of reference light and reflected light of measurement light applied to a tissue of an eye to be examined, thereby capturing an ophthalmologic image of the tissue. An OCT apparatus, wherein a control unit of the OCT apparatus inputs the photographed ophthalmologic image to a mathematical model trained by a machine learning algorithm, thereby identifying a specific boundary of the tissue within a region in the ophthalmologic image. and at least one of the specific part , obtaining a probability distribution with coordinates of one or more dimensions as random variables , and detecting at least one of the specific boundary and the specific part based on the obtained probability distribution do.

本開示における典型的な実施形態が提供する眼科画像処理プログラムは、被検眼の組織の画像である眼科画像を処理する眼科画像処理装置によって実行される眼科画像処理プログラムであって、前記眼科画像処理プログラムが前記眼科画像処理装置の制御部によって実行されることで、眼科画像撮影装置によって撮影された眼科画像を取得する画像取得ステップと、機械学習アルゴリズムによって訓練された数学モデルに前記眼科画像を入力することで、前記眼科画像中の領域内において前記組織の特定の境界および特定部位の少なくともいずれかが存在する、一次元以上の座標を確率変数とする確率分布を取得する確率分布取得ステップと、取得した前記確率分布に基づいて、前記特定の境界および前記特定部位の少なくともいずれかを検出する検出ステップと、を前記眼科画像処理装置に実行させる。 An ophthalmic image processing program provided by a typical embodiment of the present disclosure is an ophthalmic image processing program executed by an ophthalmic image processing apparatus that processes an ophthalmic image that is an image of tissue of an eye to be examined, the ophthalmic image processing A program is executed by the control unit of the ophthalmic image processing device to obtain an image acquisition step of acquiring an ophthalmic image captured by an ophthalmic image capturing device, and inputting the ophthalmic image to a mathematical model trained by a machine learning algorithm. a probability distribution obtaining step of obtaining a probability distribution in which at least one of a specific boundary and a specific part of the tissue exists in the region in the ophthalmologic image , with coordinates of one or more dimensions as random variables; and a detection step of detecting at least one of the specific boundary and the specific part based on the acquired probability distribution.

本開示に係る眼科画像処理装置、OCT装置、および眼科画像処理プログラムによると、眼科画像に写っている組織の境界および特定部位の少なくともいずれかが適切に検出される。 According to the ophthalmic image processing apparatus, OCT apparatus, and ophthalmic image processing program according to the present disclosure, at least one of the tissue boundary and the specific site appearing in the ophthalmic image is appropriately detected.

数学モデル構築装置1、眼科画像処理装置21、および眼科画像撮影装置11A,11Bの概略構成を示すブロック図である。1 is a block diagram showing schematic configurations of a mathematical model construction device 1, an ophthalmologic image processing device 21, and ophthalmologic imaging devices 11A and 11B; FIG. 数学モデル構築装置1が実行する数学モデル構築処理のフローチャートである。4 is a flowchart of mathematical model building processing executed by the mathematical model building device 1; 訓練用眼科画像30の一例を示す図である。FIG. 3 is a diagram showing an example of a training ophthalmologic image 30; 訓練用データ31の一例を示す図である。4 is a diagram showing an example of training data 31. FIG. 眼科画像処理装置21が実行する境界検出処理のフローチャートである。4 is a flowchart of boundary detection processing executed by the ophthalmologic image processing apparatus 21. FIG. 数学モデルに入力される二次元断層画像40と、二次元断層画像40中の一次元領域A1~ANの関係を模式的に示す図である。4 is a diagram schematically showing the relationship between a two-dimensional tomographic image 40 input to a mathematical model and one-dimensional regions A1 to AN in the two-dimensional tomographic image 40; FIG. 一次元領域A1の一次元座標を確率変数として、境界Biが存在する座標の確率分布を示すグラフの一例である。It is an example of the graph which shows the probability distribution of the coordinate in which boundary Bi exists by making the one-dimensional coordinate of one-dimensional area|region A1 into a random variable. 内境界膜(ILM)である境界Biの確率マップの一例を示す図である。FIG. 3 shows an example of a probability map of the boundary Bi, which is the inner limiting membrane (ILM). 神経線維層(NFL)と神経節細胞層(GCL)の境界Bgの確率マップの一例を示す図である。FIG. 4 is a diagram showing an example of a probability map of the boundary Bg between the nerve fiber layer (NFL) and the ganglion cell layer (GCL); 眼科画像処理装置21が実行する特定部位検出処理のフローチャートである。4 is a flowchart of specific part detection processing executed by the ophthalmologic image processing apparatus 21. FIG. 数学モデルに入力される眼科画像50と、眼科画像50中の二次元座標の座標系Cの関係を模式的に示す図である。5 is a diagram schematically showing the relationship between an ophthalmologic image 50 input to a mathematical model and a coordinate system C of two-dimensional coordinates in the ophthalmologic image 50. FIG. 二次元座標を確率変数とした、特定部位が存在する座標の確率分布を示すグラフの一例である。It is an example of a graph showing a probability distribution of coordinates where a specific part exists, with two-dimensional coordinates as random variables.

<概要>
本開示で例示する眼科画像処理装置の制御部は、眼科画像撮影装置によって撮影された眼科画像を取得する。制御部は、機械学習アルゴリズムによって訓練された数学モデルに眼科画像を入力することで、眼科画像中領域内において組織の特定の境界および特定部位の少なくともいずれかが存在する座標を確率変数とする確率分布を取得する。制御部は、取得した確率分布に基づいて、特定の境界および特定部位の少なくともいずれかを検出する。
<Overview>
A control unit of an ophthalmic image processing apparatus exemplified in the present disclosure acquires an ophthalmic image captured by an ophthalmic image capturing apparatus. By inputting an ophthalmologic image to a mathematical model trained by a machine learning algorithm, the control unit obtains the probability that the coordinates of at least one of a specific boundary and a specific part of the tissue in the region in the ophthalmologic image are random variables. Get the distribution. The controller detects at least one of the specific boundary and the specific part based on the acquired probability distribution.

本開示で例示する眼科画像処理装置によると、例えば、疾患の影響で組織の構造が崩れている場合、または、眼科画像の少なくとも一部の画質が良好でない場合等であっても、座標を確率変数とする確率分布に基づいて、適切且つ直接的に境界・特定部位が検出される。 According to the ophthalmologic image processing apparatus exemplified in the present disclosure, for example, even when the tissue structure is destroyed due to the influence of a disease, or when the image quality of at least a part of the ophthalmologic image is not good, the coordinates are calculated with probability. The boundary/specific part is appropriately and directly detected based on the probability distribution used as a variable.

なお、前述した従来技術では、各画素がどの層に属するかがマッピングされた後に、マッピングの結果に基づいて層の厚さが出力され、最終的に層の境界が検出される。この場合、多段階の処理が必要となるので、処理量を削減させることが困難である。これに対し、本開示で例示する眼科画像処理装置では、座標を確率変数とする確率分布に基づいて境界・特定部位を検出する処理の処理量は僅かである。従って、処理量も容易に削減し得る。 In the conventional technology described above, after each pixel belongs to which layer is mapped, the layer thickness is output based on the mapping result, and finally the layer boundary is detected. In this case, it is difficult to reduce the amount of processing because multistage processing is required. On the other hand, in the ophthalmologic image processing apparatus exemplified in the present disclosure, the amount of processing for detecting a boundary/specific part based on a probability distribution with coordinates as random variables is small. Therefore, the amount of processing can also be easily reduced.

なお、前述した「領域」は、一次元の領域、二次元の領域、および三次元の領域のいずれであってもよい。「領域」が一次元の領域である場合、座標は一次元座標となる。同様に、「領域」が二次元の領域である場合、座標は二次元座標となり、「領域」が三次元の領域である場合、座標は三次元座標となる。 Note that the aforementioned "area" may be any one of a one-dimensional area, a two-dimensional area, and a three-dimensional area. If the "area" is a one-dimensional area, the coordinates are one-dimensional coordinates. Similarly, if the "area" is a two-dimensional area, the coordinates will be two-dimensional coordinates, and if the "area" is a three-dimensional area, the coordinates will be three-dimensional coordinates.

なお、確率分布を取得する対象となる「特定の境界」は、1つの境界であってもよいし、複数の境界であってもよい。複数の境界の確率分布を取得する場合、制御部は、複数の境界の各々について別々に確率分布を取得してもよい。同様に、確率分布を取得する対象となる「特定部位」の数も、1つであってもよいし複数であってもよい。 The "specific boundary" for which the probability distribution is to be acquired may be one boundary or a plurality of boundaries. When obtaining probability distributions for a plurality of boundaries, the control unit may separately obtain probability distributions for each of the plurality of boundaries. Similarly, the number of "specific parts" for which the probability distribution is to be acquired may be one or more.

確率分布に基づいて境界・特定部位を検出する処理には、確率分布を取得する処理と同様に数学モデルが利用されてもよい。また、制御部自身が、数学モデルを利用せずに、取得された確率分布に基づいて境界・特定部位を検出してもよい。 A mathematical model may be used in the process of detecting the boundary/specific part based on the probability distribution, as in the process of obtaining the probability distribution. Alternatively, the control unit itself may detect the boundary/specific part based on the obtained probability distribution without using the mathematical model.

数学モデルに入力される眼科画像には、種々の画像を用いることができる。例えば、眼科画像は、OCT装置によって撮影された被検眼の組織の二次元断層画像または三次元断層画像であってもよい。断層画像は、OCT装置以外の装置(例えばシャインプルーフカメラ等)によって撮影されてもよい。また、眼科画像は、眼底カメラによって撮影された二次元正面画像、レーザ走査型検眼装置(SLO)によって撮影された二次元正面画像等であってもよい。眼科画像は、OCT装置によって撮影された三次元断層画像のデータに基づいて生成される二次元正面画像(所謂「Enface画像」)であってもよい。また、眼科画像は、同一位置から異なる時間に取得された複数のOCTデータを処理することで得られるモーションコントラストデータから作成される二次元正面画像(所謂「モーションコントラスト画像」)であってもよい。二次元正面画像とは、撮影光の光軸の方向から組織を撮影した二次元の画像である。また、撮影対象となる組織も適宜選択できる。例えば、被検眼の眼底、前眼部、隅角等のいずれかを撮影した画像が眼科画像として用いられてもよい。 A variety of images can be used as the ophthalmological image input to the mathematical model. For example, the ophthalmic image may be a two-dimensional tomographic image or a three-dimensional tomographic image of the tissue of the subject's eye captured by an OCT apparatus. A tomographic image may be captured by a device other than an OCT device (for example, a Scheimpflug camera or the like). The ophthalmologic image may be a two-dimensional frontal image captured by a fundus camera, a two-dimensional frontal image captured by a laser scanning optometric device (SLO), or the like. The ophthalmologic image may be a two-dimensional front image (so-called "Enface image") generated based on data of a three-dimensional tomographic image captured by an OCT apparatus. Further, the ophthalmologic image may be a two-dimensional frontal image (so-called "motion contrast image") created from motion contrast data obtained by processing a plurality of OCT data acquired from the same position at different times. . A two-dimensional front image is a two-dimensional image of a tissue photographed from the direction of the optical axis of photographing light. Also, the tissue to be imaged can be selected as appropriate. For example, an image obtained by photographing any one of the fundus, anterior segment, angle, etc. of the subject's eye may be used as the ophthalmologic image.

数学モデルは、入力側を過去に撮影された被検眼の組織の眼科画像のデータデータとし、且つ、出力側を入力側の眼科画像における組織の特定の境界および特定部位の少なくともいずれかの位置を示すデータとする訓練データセットを用いて訓練されていてもよい。この場合、訓練された数学モデルは、眼科画像を入力することで、座標を確率変数とする特定の境界・特定部位の確率分布を適切に出力することができる。 The mathematical model has, on the input side, data data of an ophthalmologic image of the tissue of the subject's eye taken in the past, and on the output side, the position of at least one of a specific boundary and a specific portion of the tissue in the ophthalmologic image on the input side. It may have been trained using a training data set with the data shown. In this case, the trained mathematical model can appropriately output a probability distribution of a specific boundary/specific region with coordinates as random variables by inputting ophthalmologic images.

なお、数学モデルを構築する数学モデル構築装置によって実行される数学モデル構築方法は、以下のように表現することができる。機械学習アルゴリズムによって訓練されることで構築され、眼科画像が入力されることで、入力された眼科画像に応じたデータを出力する数学モデルを構築する数学モデル構築装置によって実行される数学モデル構築方法であって、被検眼の組織の眼科画像を訓練用眼科画像として取得する入力用訓練データ取得ステップと、前記入力用訓練データ取得ステップにおいて取得された前記訓練用眼科画像における前記組織の特定の境界および特定部位の少なくともいずれかの位置を示す訓練用データを取得する出力用訓練データ取得ステップと、前記訓練用眼科画像のデータを入力用訓練データとし、且つ、前記訓練用データを出力用訓練データとして前記数学モデルを訓練させることで、入力された眼科画像中の領域内において組織の特定の境界および特定部位の少なくともいずれかが存在する座標を確率変数とする確率分布を出力する数学モデルを構築する訓練ステップと、を含む数学モデル構築方法。 A mathematical model building method executed by a mathematical model building device for building a mathematical model can be expressed as follows. A mathematical model building method executed by a mathematical model building device that builds a mathematical model that is built by being trained by a machine learning algorithm and outputs data corresponding to the input ophthalmologic image when an ophthalmologic image is input. an input training data acquiring step of acquiring an ophthalmic image of a tissue of an eye to be inspected as a training ophthalmic image; and a specific boundary of the tissue in the training ophthalmic image acquired in the input training data acquiring step. and an output training data obtaining step of obtaining training data indicating at least one position of a specific part; using the training ophthalmologic image data as input training data, and using the training data as output training data; Build a mathematical model that outputs a probability distribution whose random variables are the coordinates of at least one of a specific boundary and a specific part of the tissue in the region in the input ophthalmologic image by training the mathematical model as a mathematical model building method comprising:

制御部は、数学モデルに眼科画像を入力することで、眼科画像中の組織の特定の境界に交差する方向に延びる一次元の領域において、特定の境界が存在する一次元座標を確率変数とする確率分布を取得してもよい。制御部は、取得した確率分布に基づいて特定の境界を検出してもよい。この場合、適切に偏った確率分布が得られ易いので、特定の境界の検出精度が向上しやすい。 By inputting an ophthalmologic image into the mathematical model, the control unit uses the one-dimensional coordinates of the specific boundary in the one-dimensional region extending in the direction intersecting the specific boundary of the tissue in the ophthalmologic image as random variables. A probability distribution may be obtained. The control unit may detect a specific boundary based on the obtained probability distribution. In this case, it is easy to obtain an appropriately biased probability distribution, so the accuracy of detecting a specific boundary is easy to improve.

なお、眼科画像は、OCT装置によって撮影された二次元断層画像または三次元断層画像であってもよい。この場合、OCT装置による測定光の光軸の方向(所謂「Aスキャン方向」)に延びる一次元の領域について、一次元座標を確率変数とする確率分布が取得されてもよい。組織の境界の方向は、Aスキャン方向に対して垂直に近くなり易い。従って、一次元の領域が延びる方向をAスキャン方向とすることで、確率分布が適切に偏り易くなる。また、一次元の領域と特定の境界の交点が2つ以上となる可能性も低下する。よって、特定の境界の検出精度が向上する。また、制御部は、特定の境界に対して垂直に延びる一次元の領域について、一次元座標を確率変数とする確率分布を取得してもよい。この場合、より確率分布が偏り易くなる。 Note that the ophthalmologic image may be a two-dimensional tomographic image or a three-dimensional tomographic image captured by an OCT apparatus. In this case, for a one-dimensional region extending in the direction of the optical axis of measurement light from the OCT apparatus (so-called “A-scan direction”), a probability distribution with one-dimensional coordinates as random variables may be obtained. The direction of the tissue boundary tends to be nearly perpendicular to the A-scan direction. Therefore, by setting the direction in which the one-dimensional region extends as the A-scan direction, the probability distribution tends to be appropriately biased. It also reduces the possibility that the one-dimensional region and a specific boundary will have more than one intersection point. Therefore, detection accuracy of a specific boundary is improved. Also, the control unit may acquire a probability distribution with one-dimensional coordinates as random variables for a one-dimensional region extending perpendicularly to a specific boundary. In this case, the probability distribution becomes more likely to be biased.

制御部は、互いに異なる複数の一次元の領域の各々について取得された、複数の確率分布に基づいて、二次元または三次元の境界を検出してもよい。この場合、二次元または三次元の境界が適切に把握される。 The control unit may detect a two-dimensional or three-dimensional boundary based on a plurality of probability distributions obtained for each of a plurality of one-dimensional regions different from each other. In this case, 2D or 3D boundaries are properly captured.

なお、複数の一次元の領域の各々に関する確率分布に対して後処理が行われたうえで、二次元または三次元の境界が検出されてもよい。例えば、N番目の一次元領域上の確率分布と、N番目の一次元領域の近傍に位置する一次元領域上の確率分布とに基づいて、N番目の一次元領域上の境界が検出されてもよい。この場合、例えば、公知のグラフカット等の手法を採用できる。また、重みが最小の経路を求める最短経路探索の理論が利用されることで、二次元または三次元の境界が検出されてもよい。 Note that the two-dimensional or three-dimensional boundary may be detected after post-processing is performed on the probability distribution for each of the plurality of one-dimensional regions. For example, the boundary on the N-th one-dimensional region is detected based on the probability distribution on the N-th one-dimensional region and the probability distribution on the one-dimensional regions located near the N-th one-dimensional region. good too. In this case, for example, a technique such as a known graph cut can be adopted. Two or three dimensional boundaries may also be detected by utilizing the shortest path search theory of finding the path with the lowest weight.

制御部は、複数の一次元の領域の各々について取得された複数の確率分布に基づいて生成される、特定の境界らしさを示す二次元または三次元のマップを取得してもよい。つまり、眼科画像処理装置は、特定の境界らしさを示す二次元または三次元のマップを取得するマップ取得ステップを実行してもよい。この場合、二次元または三次元の特定の境界の位置が、マップに基づいて適切に把握される。 The control unit may obtain a two-dimensional or three-dimensional map indicating a particular boundary likelihood generated based on the plurality of probability distributions obtained for each of the plurality of one-dimensional regions. That is, the ophthalmic image processing apparatus may perform a map acquisition step of acquiring a two-dimensional or three-dimensional map indicating a particular boundary-likeness. In this case, the location of a particular 2D or 3D boundary is well known based on the map.

なお、制御部は、取得したマップを表示装置に表示させてもよい。この場合、ユーザは、表示されたマップを見ることで、二次元または三次元の特定の境界の位置を適切に把握することができる。マップは、数学モデルから出力された複数の確率分布に基づいて、制御部によって生成されてもよい。また、数学モデルがマップを出力してもよい。 Note that the control unit may display the acquired map on the display device. In this case, the user can appropriately grasp the position of a specific two-dimensional or three-dimensional boundary by looking at the displayed map. The map may be generated by the controller based on multiple probability distributions output from the mathematical model. A mathematical model may also output a map.

眼科画像は、OCT装置によって撮影された三次元断層画像であってもよい。制御部は、三次元断層画像と、検出した三次元の境界とに基づいて、三次元断層画像に含まれる特定の層を測定光の光軸に沿う方向から見た場合の二次元正面画像(所謂「Enface画像」)を取得してもよい。つまり、眼科画像処理装置は、三次元断層画像と、検出した三次元の境界とに基づいてEnface画像を取得するEnface画像取得ステップを実行してもよい。この場合、適切に検出された境界に基づいて特定の層が特定されたうえで、特定の層のEnface画像が適切に取得される。Enface画像は、制御部によって生成されてもよい。また、数学モデルがEnface画像を出力してもよい。 The ophthalmologic image may be a three-dimensional tomographic image captured by an OCT apparatus. Based on the three-dimensional tomographic image and the detected three-dimensional boundary, the controller generates a two-dimensional front image ( A so-called "Enface image") may be acquired. That is, the ophthalmologic image processing apparatus may execute an enface image acquisition step of acquiring an enface image based on the three-dimensional tomographic image and the detected three-dimensional boundary. In this case, a specific layer is specified based on the appropriately detected boundary, and then the Enface image of the specific layer is appropriately acquired. The Enface image may be generated by the controller. A mathematical model may also output an Enface image.

また、制御部は、三次元断層画像と、検出した三次元の境界とに基づいて、三次元断層画像に含まれる特定の層の厚みの分布を二次元で示す厚みマップを取得してもよい。この場合、適切に検出された境界に基づいて特定の層が特定されたうえで、より正確な厚みマップが取得される。 In addition, the control unit may obtain a thickness map showing two-dimensional thickness distribution of a specific layer included in the three-dimensional tomographic image based on the three-dimensional tomographic image and the detected three-dimensional boundary. . In this case, specific layers are identified based on well-detected boundaries to obtain a more accurate thickness map.

制御部は、数学モデルに眼科画像を入力することで、眼科画像中の二次元以上の領域において特定部位が存在する確率の、二次元以上の座標を確率変数とする確率分布を取得してもよい。制御部は、取得した確率分布に基づいて特定部位を検出してもよい。この場合、二次元領域または三次元領域において、特定部位が適切に検出される。 By inputting an ophthalmologic image into the mathematical model, the control unit acquires a probability distribution of the probability that a specific part exists in a two-dimensional or more-dimensional area in the ophthalmologic image, with two-dimensional or more-dimensional coordinates as random variables. good. The control unit may detect the specific part based on the obtained probability distribution. In this case, the specific site is appropriately detected in the two-dimensional area or the three-dimensional area.

<実施形態>
(装置構成)
以下、本開示における典型的な実施形態の1つについて、図面を参照して説明する。図1に示すように、本実施形態では、数学モデル構築装置1、眼科画像処理装置21、および眼科画像撮影装置11A,11Bが用いられる。数学モデル構築装置1は、機械学習アルゴリズムによって数学モデルを訓練させることで、数学モデルを構築する。構築された数学モデルは、入力された眼科画像に基づいて、眼科画像中の領域内において特定の境界・特定部位が存在する座標を確率変数とする確率分布を出力する。眼科画像処理装置21は、数学モデルを用いて確率分布を取得し、確率分布に基づいて特定の境界・特定部位を検出する。眼科画像撮影装置11A,11Bは、被検眼の組織の画像である眼科画像を撮影する。
<Embodiment>
(Device configuration)
One typical embodiment of the present disclosure will be described below with reference to the drawings. As shown in FIG. 1, in this embodiment, a mathematical model construction device 1, an ophthalmologic image processing device 21, and ophthalmologic imaging devices 11A and 11B are used. The mathematical model building device 1 builds a mathematical model by training the mathematical model with a machine learning algorithm. Based on the input ophthalmologic image, the constructed mathematical model outputs a probability distribution whose random variables are the coordinates at which a specific boundary/specific part exists within a region in the ophthalmologic image. The ophthalmologic image processing apparatus 21 acquires a probability distribution using a mathematical model, and detects a specific boundary/specific part based on the probability distribution. The ophthalmologic image capturing devices 11A and 11B capture ophthalmologic images, which are images of tissues of the eye to be examined.

一例として、本実施形態の数学モデル構築装置1にはパーソナルコンピュータ(以下、「PC」という)が用いられる。詳細は後述するが、数学モデル構築装置1は、眼科画像撮影装置11Aから取得した眼科画像(以下、「訓練用眼科画像」という)と、訓練用眼科画像における組織の特定の境界・特定部位を示す訓練用データとを利用して数学モデルを訓練させることで、数学モデルを構築する。しかし、数学モデル構築装置1として機能できるデバイスは、PCに限定されない。例えば、眼科画像撮影装置11Aが数学モデル構築装置1として機能してもよい。また、複数のデバイスの制御部(例えば、PCのCPUと、眼科画像撮影装置11AのCPU13A)が、協働して数学モデルを構築してもよい。 As an example, a personal computer (hereinafter referred to as “PC”) is used for the mathematical model building device 1 of this embodiment. Although the details will be described later, the mathematical model construction device 1 generates an ophthalmologic image (hereinafter referred to as a “training ophthalmologic image”) obtained from the ophthalmologic image capturing device 11A, and a specific boundary/specific portion of a tissue in the training ophthalmologic image. A mathematical model is constructed by training the mathematical model using the training data shown. However, a device that can function as the mathematical model construction device 1 is not limited to a PC. For example, the ophthalmologic imaging device 11A may function as the mathematical model building device 1 . Also, the control units of a plurality of devices (for example, the CPU of the PC and the CPU 13A of the ophthalmologic imaging apparatus 11A) may work together to construct the mathematical model.

また、本実施形態の眼科画像処理装置21にはPCが用いられる。しかし、眼科画像処理装置21として機能できるデバイスも、PCに限定されない。例えば、眼科画像撮影装置11Bまたはサーバ等が、眼科画像処理装置21として機能してもよい。眼科画像撮影装置(本実施形態ではOCT装置)11Bが眼科画像処理装置21として機能する場合、眼科画像撮影装置11Bは、眼科画像を撮影しつつ、撮影した眼科画像の組織における特定の境界・特定部位を適切に検出することができる。また、タブレット端末またはスマートフォン等の携帯端末が、眼科画像処理装置21として機能してもよい。複数のデバイスの制御部(例えば、PCのCPUと、眼科画像撮影装置11BのCPU13B)が、協働して各種処理を行ってもよい。 A PC is used for the ophthalmologic image processing apparatus 21 of this embodiment. However, a device that can function as the ophthalmologic image processing apparatus 21 is not limited to a PC either. For example, the ophthalmologic imaging device 11B, a server, or the like may function as the ophthalmologic image processing device 21 . When the ophthalmic imaging device (an OCT device in this embodiment) 11B functions as the ophthalmic image processing device 21, the ophthalmic imaging device 11B captures an ophthalmic image while capturing a specific boundary/specification in the tissue of the captured ophthalmic image. Sites can be detected appropriately. Also, a portable terminal such as a tablet terminal or a smartphone may function as the ophthalmologic image processing apparatus 21 . The controllers of a plurality of devices (for example, the CPU of the PC and the CPU 13B of the ophthalmologic imaging apparatus 11B) may work together to perform various processes.

また、本実施形態では、各種処理を行うコントローラの一例としてCPUが用いられる場合について例示する。しかし、各種デバイスの少なくとも一部に、CPU以外のコントローラが用いられてもよいことは言うまでもない。例えば、コントローラとしてGPUを採用することで、処理の高速化を図ってもよい。 Also, in this embodiment, a case where a CPU is used as an example of a controller that performs various processes will be described. However, it goes without saying that a controller other than the CPU may be used for at least some of the various devices. For example, a GPU may be employed as a controller to speed up processing.

数学モデル構築装置1について説明する。数学モデル構築装置1は、例えば、眼科画像処理装置21または眼科画像処理プログラムをユーザに提供するメーカー等に配置される。数学モデル構築装置1は、各種制御処理を行う制御ユニット2と、通信I/F5を備える。制御ユニット2は、制御を司るコントローラであるCPU3と、プログラムおよびデータ等を記憶することが可能な記憶装置4を備える。記憶装置4には、後述する数学モデル構築処理(図2参照)を実行するための数学モデル構築プログラムが記憶されている。また、通信I/F5は、数学モデル構築装置1を他のデバイス(例えば、眼科画像撮影装置11Aおよび眼科画像処理装置21等)と接続する。 The mathematical model construction device 1 will be described. The mathematical model building device 1 is located, for example, in a manufacturer or the like that provides the ophthalmic image processing device 21 or an ophthalmic image processing program to users. The mathematical model construction device 1 includes a control unit 2 that performs various control processes, and a communication I/F 5 . The control unit 2 includes a CPU 3, which is a controller for control, and a storage device 4 capable of storing programs, data, and the like. The storage device 4 stores a mathematical model building program for executing a later-described mathematical model building process (see FIG. 2). Also, the communication I/F 5 connects the mathematical model construction device 1 with other devices (for example, the ophthalmologic imaging device 11A and the ophthalmologic image processing device 21, etc.).

数学モデル構築装置1は、操作部7および表示装置8に接続されている。操作部7は、ユーザが各種指示を数学モデル構築装置1に入力するために、ユーザによって操作される。操作部7には、例えば、キーボード、マウス、タッチパネル等の少なくともいずれかを使用できる。なお、操作部7と共に、または操作部7に代えて、各種指示を入力するためのマイク等が使用されてもよい。表示装置8は、各種画像を表示する。表示装置8には、画像を表示可能な種々のデバイス(例えば、モニタ、ディスプレイ、プロジェクタ等の少なくともいずれか)を使用できる。なお、本開示における「画像」には、静止画像も動画像も共に含まれる。 The mathematical model construction device 1 is connected to an operation section 7 and a display device 8 . The operation unit 7 is operated by the user to input various instructions to the mathematical model construction device 1 . For example, at least one of a keyboard, a mouse, a touch panel, and the like can be used as the operation unit 7 . A microphone or the like for inputting various instructions may be used together with the operation unit 7 or instead of the operation unit 7 . The display device 8 displays various images. Various devices capable of displaying images (for example, at least one of a monitor, a display, a projector, etc.) can be used as the display device 8 . It should be noted that the “image” in the present disclosure includes both still images and moving images.

数学モデル構築装置1は、眼科画像撮影装置11Aから眼科画像のデータ(以下、単に「眼科画像」という場合もある)を取得することができる。数学モデル構築装置1は、例えば、有線通信、無線通信、着脱可能な記憶媒体(例えばUSBメモリ)等の少なくともいずれかによって、眼科画像撮影装置11Aから眼科画像のデータを取得してもよい。 The mathematical model construction device 1 can acquire ophthalmologic image data (hereinafter sometimes simply referred to as “ophthalmologic image”) from the ophthalmologic imaging device 11A. The mathematical model construction device 1 may acquire ophthalmologic image data from the ophthalmologic imaging device 11A, for example, by at least one of wired communication, wireless communication, and a removable storage medium (eg, USB memory).

眼科画像処理装置21について説明する。眼科画像処理装置21は、例えば、被検者の診断または検査等を行う施設(例えば、病院または健康診断施設等)に配置される。眼科画像処理装置21は、各種制御処理を行う制御ユニット22と、通信I/F25を備える。制御ユニット22は、制御を司るコントローラであるCPU23と、プログラムおよびデータ等を記憶することが可能な記憶装置24を備える。記憶装置24には、後述する眼科画像処理(例えば、図5に例示する境界検出処理、および、図10に示す特定部位検出処理等)を実行するための眼科画像処理プログラムが記憶されている。眼科画像処理プログラムには、数学モデル構築装置1によって構築された数学モデルを実現させるプログラムが含まれる。通信I/F25は、眼科画像処理装置21を他のデバイス(例えば、眼科画像撮影装置11Bおよび数学モデル構築装置1等)と接続する。 The ophthalmologic image processing apparatus 21 will be described. The ophthalmologic image processing apparatus 21 is installed, for example, in a facility (for example, a hospital, a health checkup facility, or the like) for diagnosing or examining a subject. The ophthalmologic image processing apparatus 21 includes a control unit 22 that performs various control processes, and a communication I/F 25 . The control unit 22 includes a CPU 23 which is a controller for control, and a storage device 24 capable of storing programs, data, and the like. The storage device 24 stores an ophthalmologic image processing program for executing later-described ophthalmologic image processing (for example, boundary detection processing illustrated in FIG. 5, specific part detection processing illustrated in FIG. 10, etc.). The ophthalmologic image processing program includes a program for realizing the mathematical model constructed by the mathematical model construction device 1 . The communication I/F 25 connects the ophthalmologic image processing apparatus 21 with other devices (for example, the ophthalmic imaging apparatus 11B, the mathematical model construction apparatus 1, etc.).

眼科画像処理装置21は、操作部27および表示装置28に接続されている。操作部27および表示装置28には、前述した操作部7および表示装置8と同様に、種々のデバイスを使用することができる。 The ophthalmologic image processing apparatus 21 is connected to an operation section 27 and a display device 28 . Various devices can be used for the operation unit 27 and the display device 28, similarly to the operation unit 7 and the display device 8 described above.

眼科画像処理装置21は、眼科画像撮影装置11Bから眼科画像を取得することができる。眼科画像処理装置21は、例えば、有線通信、無線通信、着脱可能な記憶媒体(例えばUSBメモリ)等の少なくともいずれかによって、眼科画像撮影装置11Bから眼科画像を取得してもよい。また、眼科画像処理装置21は、数学モデル構築装置1によって構築された数学モデルを実現させるプログラム等を、通信等を介して取得してもよい。 The ophthalmic image processing device 21 can acquire an ophthalmic image from the ophthalmic image capturing device 11B. The ophthalmologic image processing apparatus 21 may acquire an ophthalmologic image from the ophthalmologic imaging apparatus 11B, for example, by at least one of wired communication, wireless communication, and a removable storage medium (eg, USB memory). Further, the ophthalmologic image processing apparatus 21 may acquire, via communication or the like, a program or the like for realizing the mathematical model constructed by the mathematical model construction apparatus 1 .

眼科画像撮影装置11A,11Bについて説明する。一例として、本実施形態では、数学モデル構築装置1に眼科画像を提供する眼科画像撮影装置11Aと、眼科画像処理装置21に眼科画像を提供する眼科画像撮影装置11Bが使用される場合について説明する。しかし、使用される眼科画像撮影装置の数は2つに限定されない。例えば、数学モデル構築装置1および眼科画像処理装置21は、複数の眼科画像撮影装置から眼科画像を取得してもよい。また、数学モデル構築装置1および眼科画像処理装置21は、共通する1つの眼科画像撮影装置から眼科画像を取得してもよい。なお、本実施形態で例示する2つの眼科画像撮影装置11A,11Bは、同一の構成を備える。従って、以下では、2つの眼科画像撮影装置11A,11Bについて纏めて説明を行う。 The ophthalmologic imaging devices 11A and 11B will be described. As an example, in this embodiment, an ophthalmic imaging device 11A that provides an ophthalmic image to the mathematical model building device 1 and an ophthalmic imaging device 11B that provides an ophthalmic image to the ophthalmic image processing device 21 are used. . However, the number of ophthalmic imaging devices used is not limited to two. For example, the mathematical model construction device 1 and the ophthalmologic image processing device 21 may acquire ophthalmologic images from a plurality of ophthalmologic imaging devices. Further, the mathematical model construction device 1 and the ophthalmologic image processing device 21 may acquire ophthalmologic images from one common ophthalmologic imaging device. Note that the two ophthalmologic imaging apparatuses 11A and 11B exemplified in this embodiment have the same configuration. Therefore, the two ophthalmologic imaging devices 11A and 11B will be collectively described below.

また、本実施形態では、眼科画像撮影装置11(11A,11B)として、OCT装置を例示する。ただし、OCT装置以外の眼科画像撮影装置(例えば、レーザ走査型検眼装置(SLO)、眼底カメラ、シャインプルーフカメラ、または角膜内皮細胞撮影装置(CEM)等)が用いられてもよい。 Further, in this embodiment, an OCT apparatus is exemplified as the ophthalmic imaging apparatus 11 (11A, 11B). However, an ophthalmologic imaging device other than the OCT device (for example, a laser scanning optometric device (SLO), a fundus camera, a Scheimpflug camera, or a corneal endothelial cell imaging device (CEM)) may be used.

眼科画像撮影装置11(11A,11B)は、各種制御処理を行う制御ユニット12(12A,12B)と、眼科画像撮影部16(16A,16B)を備える。制御ユニット12は、制御を司るコントローラであるCPU13(13A,13B)と、プログラムおよびデータ等を記憶することが可能な記憶装置14(14A,14B)を備える。 The ophthalmologic imaging apparatus 11 (11A, 11B) includes a control unit 12 (12A, 12B) that performs various control processes, and an ophthalmologic imaging section 16 (16A, 16B). The control unit 12 includes a CPU 13 (13A, 13B), which is a controller for control, and a storage device 14 (14A, 14B) capable of storing programs, data, and the like.

眼科画像撮影部16は、被検眼の眼科画像を撮影するために必要な各種構成を備える。本実施形態の眼科画像撮影部16には、OCT光源、OCT光源から出射されたOCT光を測定光と参照光に分岐する分岐光学素子、測定光を走査するための走査部、測定光を被検眼に照射するための光学系、被検眼の組織によって反射された光と参照光の合成光を受光する受光素子等が含まれる。 The ophthalmologic image capturing unit 16 has various configurations necessary for capturing an ophthalmologic image of the subject's eye. The ophthalmologic image capturing unit 16 of the present embodiment includes an OCT light source, a branching optical element that branches the OCT light emitted from the OCT light source into measurement light and reference light, a scanning unit for scanning the measurement light, and a scanning unit for scanning the measurement light. It includes an optical system for irradiating an eye to be examined, a light receiving element for receiving the combined light of the light reflected by the tissue of the eye to be examined and the reference light, and the like.

眼科画像撮影装置11は、被検眼の眼底の二次元断層画像および三次元断層画像を撮影することができる。詳細には、CPU13は、スキャンライン上にOCT光(測定光)を走査させることで、スキャンラインに交差する断面の二次元断層画像を撮影する。二次元断層画像は、同一部位の複数の断層画像に対して加算平均処理を行うことで生成された加算平均画像であってもよい。また、CPU13は、OCT光を二次元的に走査することによって、組織における三次元断層画像を撮影することができる。例えば、CPU13は、組織を正面から見た際の二次元の領域内において、位置が互いに異なる複数のスキャンライン上の各々に測定光を走査させることで、複数の二次元断層画像を取得する。次いで、CPU13は、撮影された複数の二次元断層画像を組み合わせることで、三次元断層画像を取得する。 The ophthalmologic image capturing apparatus 11 can capture two-dimensional tomographic images and three-dimensional tomographic images of the fundus of the subject's eye. Specifically, the CPU 13 captures a two-dimensional tomographic image of a cross section that intersects the scan lines by scanning OCT light (measurement light) along the scan lines. The two-dimensional tomographic image may be an averaging image generated by averaging a plurality of tomographic images of the same region. Moreover, the CPU 13 can capture a three-dimensional tomographic image of a tissue by two-dimensionally scanning the OCT light. For example, the CPU 13 acquires a plurality of two-dimensional tomographic images by causing measurement light to scan each of a plurality of scan lines at different positions in a two-dimensional region when the tissue is viewed from the front. Next, the CPU 13 acquires a three-dimensional tomographic image by combining a plurality of captured two-dimensional tomographic images.

(数学モデル構築処理)
図2~図4を参照して、数学モデル構築装置1が実行する数学モデル構築処理について説明する。数学モデル構築処理は、記憶装置4に記憶された数学モデル構築プログラムに従って、CPU3によって実行される。数学モデル構築処理では、訓練データセットによって数学モデルが訓練されることで、眼科画像中領域内において組織の特定の境界および特定部位の少なくともいずれかが存在する座標を確率変数とする確率分布を出力する数学モデルが構築される。訓練データセットには、入力側のデータ(入力用訓練データ)と出力側のデータ(出力用訓練データ)が含まれる。
(mathematical model construction processing)
The mathematical model building process executed by the mathematical model building device 1 will be described with reference to FIGS. 2 to 4. FIG. The mathematical model building process is executed by CPU 3 according to a mathematical model building program stored in storage device 4 . In the mathematical model construction process, the mathematical model is trained using the training data set, and outputs a probability distribution whose random variables are the coordinates of at least one of a specific boundary and a specific part of the tissue within the region in the ophthalmologic image. A mathematical model is constructed that The training data set includes data on the input side (training data for input) and data on the output side (training data for output).

図2に示すように、CPU3は、眼科画像撮影装置11Aによって撮影された眼科画像である訓練用眼科画像のデータを、入力用訓練データとして取得する(S1)。本実施形態では、訓練用眼科画像のデータは、眼科画像撮影装置11Aによって生成された後、数学モデル構築装置1によって取得される。しかし、CPU3は、訓練用眼科画像を生成する基となる信号(例えばOCT信号)を眼科画像撮影装置11Aから取得し、取得した信号に基づいて訓練用眼科画像を生成することで、訓練用眼科画像のデータを取得してもよい。 As shown in FIG. 2, the CPU 3 acquires training ophthalmologic image data, which is an ophthalmologic image captured by the ophthalmologic imaging device 11A, as input training data (S1). In this embodiment, the training ophthalmologic image data is acquired by the mathematical model construction device 1 after being generated by the ophthalmologic imaging device 11A. However, the CPU 3 acquires a signal (for example, an OCT signal) that is the basis for generating a training ophthalmic image from the ophthalmologic imaging device 11A, and generates a training ophthalmic image based on the acquired signal. Image data may be obtained.

なお、本実施形態では、後述する境界検出処理(図5参照)が眼科画像処理装置21によって実行される場合には、S1において、被検眼の組織(一例として眼底)の二次元断層画像が訓練用眼科画像として取得される。図3に、眼底の二次元断層画像である訓練用眼科画像30の一例を示す。図3に例示する訓練用眼科画像30には、眼底における複数の層が表れている。 In the present embodiment, when the later-described boundary detection process (see FIG. 5) is executed by the ophthalmologic image processing apparatus 21, in S1, a two-dimensional tomographic image of the tissue of the eye to be examined (the fundus as an example) is used for training. acquired as an ophthalmologic image. FIG. 3 shows an example of a training ophthalmologic image 30, which is a two-dimensional tomographic image of the fundus. A plurality of layers in the fundus appear in the training ophthalmic image 30 illustrated in FIG.

また、後述する特定部位検出処理(図10参照)が眼科画像処理装置21によって実行される場合には、S1では、被検眼の組織(一例として眼底)の二次元正面画像(例えば、OCT装置である眼科画像撮影装置11Aによって撮影されたEnface画像等)が訓練用眼科画像として取得される。 Further, when the later-described specific part detection processing (see FIG. 10) is executed by the ophthalmologic image processing apparatus 21, in S1, a two-dimensional front image (for example, an OCT apparatus An Enface image or the like captured by a certain ophthalmologic image capturing device 11A) is acquired as a training ophthalmologic image.

ただし、訓練用眼科画像として使用される眼科画像を変更することも可能である。例えば、訓練用眼科画像として二次元正面画像が使用される場合には、訓練用眼科画像は、OCT装置以外の装置(例えば、SLO装置または眼底カメラ等)によって撮影された二次元正面画像であってもよい。正面画像以外の二次元の画像(例えば、二次元断層画像)が、訓練用眼科画像として使用されてもよい。また、後述する特定部位検出処理(図10参照)において、三次元上で特定部位が検出される場合には、S1では、三次元断層画像が訓練用眼科画像として取得されてもよい。 However, it is also possible to change the ophthalmic image used as the training ophthalmic image. For example, when a two-dimensional frontal image is used as a training ophthalmic image, the training ophthalmic image is a two-dimensional frontal image captured by a device other than an OCT device (for example, an SLO device or a fundus camera). may Two-dimensional images other than frontal images (for example, two-dimensional tomographic images) may be used as training ophthalmologic images. Further, in the specific part detection processing (see FIG. 10) described later, when the specific part is detected in three dimensions, in S1, a three-dimensional tomographic image may be acquired as the training ophthalmologic image.

次いで、CPU3は、訓練用眼科画像における組織の特定の境界および特定部位の少なくともいずれかの位置を示す訓練用データを取得する(S2)。図4に、訓練用眼科画像30として眼底の二次元断層画像が使用される場合の、特定の境界の位置を示す訓練用データ31の一例を示す。図4に例示する訓練用データ31には、訓練用眼科画像30における6つの境界の各々の位置を示すラベル32A~32Fのデータが含まれている。本実施形態では、訓練用データ31におけるラベル32A~32Fのデータは、作業者が訓練用眼科画像30における境界を見ながら操作部7を操作することで生成される。ただし、ラベルのデータの生成方法を変更することも可能である。 Next, the CPU 3 acquires training data indicating the position of at least one of the specific boundary of the tissue and the specific site in the ophthalmologic training image (S2). FIG. 4 shows an example of training data 31 indicating the position of a specific boundary when a two-dimensional tomographic image of the fundus is used as the training ophthalmologic image 30 . The training data 31 illustrated in FIG. 4 includes data of labels 32A-32F indicating the positions of each of the six boundaries in the ophthalmic training image 30. FIG. In this embodiment, the data of the labels 32A to 32F in the training data 31 are generated by the operator operating the operation section 7 while looking at the boundaries in the ophthalmologic training image 30. FIG. However, it is also possible to change the method of generating label data.

なお、後述する特定部位検出処理(図10参照)が眼科画像処理装置21によって実行される場合には、訓練用眼科画像である二次元断層画像または三次元断層画像の組織における特定部位の位置を示すデータが、S2で取得される。例えば、後述する特定部位検出処理では中心窩の位置が検出される。この場合、S2では、二次元断層画像または三次元断層画像における中心窩の位置を示すデータが取得される。 It should be noted that when the later-described specific region detection process (see FIG. 10) is executed by the ophthalmologic image processing apparatus 21, the position of the specific region in the tissue of the two-dimensional tomographic image or the three-dimensional tomographic image, which is the training ophthalmologic image, is The data shown is obtained in S2. For example, the position of the fovea is detected in the specific part detection process to be described later. In this case, in S2, data indicating the position of the fovea in the two-dimensional tomographic image or the three-dimensional tomographic image is acquired.

次いで、CPU3は、機械学習アルゴリズムによって、訓練データセットを用いた数学モデルの訓練を実行する(S3)。機械学習アルゴリズムとしては、例えば、ニューラルネットワーク、ランダムフォレスト、ブースティング、サポートベクターマシン(SVM)等が一般的に知られている。 CPU 3 then performs training of the mathematical model using the training data set by a machine learning algorithm (S3). As machine learning algorithms, for example, neural networks, random forests, boosting, support vector machines (SVM), etc. are generally known.

ニューラルネットワークは、生物の神経細胞ネットワークの挙動を模倣する手法である。ニューラルネットワークには、例えば、フィードフォワード(順伝播型)ニューラルネットワーク、RBFネットワーク(放射基底関数)、スパイキングニューラルネットワーク、畳み込みニューラルネットワーク、再帰型ニューラルネットワーク(リカレントニューラルネット、フィードバックニューラルネット等)、確率的ニューラルネット(ボルツマンマシン、ベイシアンネットワーク等)等がある。 A neural network is a technique that imitates the behavior of a neural network of living organisms. Neural networks include, for example, feedforward neural networks, RBF networks (radial basis functions), spiking neural networks, convolutional neural networks, recurrent neural networks (recurrent neural networks, feedback neural networks, etc.), probability neural networks (Boltzmann machine, Baysian network, etc.), etc.

ランダムフォレストは、ランダムサンプリングされた訓練データに基づいて学習を行って、多数の決定木を生成する方法である。ランダムフォレストを用いる場合、予め識別器として学習しておいた複数の決定木の分岐を辿り、各決定木から得られる結果の平均(あるいは多数決)を取る。 Random forest is a method of learning based on randomly sampled training data to generate a large number of decision trees. When a random forest is used, branches of a plurality of decision trees learned in advance as discriminators are traced, and the average (or majority vote) of the results obtained from each decision tree is taken.

ブースティングは、複数の弱識別器を組み合わせることで強識別器を生成する手法である。単純で弱い識別器を逐次的に学習させることで、強識別器を構築する。 Boosting is a method of generating a strong classifier by combining a plurality of weak classifiers. A strong classifier is constructed by sequentially learning simple and weak classifiers.

SVMは、線形入力素子を利用して2クラスのパターン識別器を構成する手法である。SVMは、例えば、訓練データから、各データ点との距離が最大となるマージン最大化超平面を求めるという基準(超平面分離定理)で、線形入力素子のパラメータを学習する。 SVM is a method of constructing a two-class pattern discriminator using linear input elements. The SVM learns the parameters of the linear input element, for example, based on the criterion of finding the margin-maximizing hyperplane that maximizes the distance to each data point from the training data (hyperplane separation theorem).

数学モデルは、例えば、入力データと出力データの関係を予測するためのデータ構造を指す。数学モデルは、訓練データセットを用いて訓練されることで構築される。前述したように、訓練データセットは、入力用訓練データと出力用訓練データのセットである。例えば、訓練によって、各入力と出力の相関データ(例えば、重み)が更新される。 A mathematical model, for example, refers to a data structure for predicting the relationship between input data and output data. A mathematical model is built by being trained using a training data set. As described above, the training data set is a set of input training data and output training data. For example, training updates the correlation data (eg, weights) for each input and output.

本実施形態では、機械学習アルゴリズムとして多層型のニューラルネットワークが用いられている。ニューラルネットワークは、データを入力するための入力層と、予測したいデータを生成するための出力層と、入力層と出力層の間の1つ以上の隠れ層を含む。各層には、複数のノード(ユニットとも言われる)が配置される。詳細には、本実施形態では、多層型ニューラルネットワークの一種である畳み込みニューラルネットワーク(CNN)が用いられている。また、本実施形態で構築される数学モデルは、眼科画像中の領域(一次元領域、二次元領域、および三次元領域のいずれか)内において、組織の特定の境界および特定部位の少なくともいずれかが存在する座標(一次元座標、二次元座標、および三次元座標のいずれか)を確率変数とする確率分布を出力する。本実施形態では、数学モデルに確率分布を出力させるために、ソフトマックス関数が適用されている。 In this embodiment, a multilayer neural network is used as the machine learning algorithm. A neural network includes an input layer for inputting data, an output layer for generating data to be predicted, and one or more hidden layers between the input layer and the output layer. A plurality of nodes (also called units) are arranged in each layer. Specifically, in this embodiment, a convolutional neural network (CNN), which is a type of multilayer neural network, is used. In addition, the mathematical model constructed in this embodiment is at least one of a specific boundary and a specific part of tissue within a region (any one of a one-dimensional region, a two-dimensional region, and a three-dimensional region) in an ophthalmologic image. Outputs a probability distribution whose random variable is the coordinates (any one of one-dimensional, two-dimensional, and three-dimensional coordinates) where is present. In this embodiment, a softmax function is applied to force the mathematical model to output a probability distribution.

本実施形態では、後述する境界検出処理(図5参照)が眼科画像処理装置21によって実行される場合には、S3で構築される数学モデルは、二次元断層画像中の特定の境界に交差する方向(本実施形態では、OCTのAスキャン方向)に延びる線上の一次元領域における、特定の境界が存在する座標の確率分布を出力する。 In this embodiment, when the later-described boundary detection process (see FIG. 5) is executed by the ophthalmologic image processing apparatus 21, the mathematical model constructed in S3 intersects a specific boundary in the two-dimensional tomographic image. A probability distribution of coordinates at which a specific boundary exists in a one-dimensional area on a line extending in a direction (the A-scan direction of OCT in this embodiment) is output.

また、後述する特定部位検出処理(図10参照)が眼科画像処理装置21によって実行される場合には、S3で構築される数学モデルは、二次元の眼科画像中の二次元の領域において、特定部位(例えば、本実施形態では中心窩)が存在する二次元座標を確率変数とする確率分布を出力する。 Further, when the later-described specific region detection process (see FIG. 10) is executed by the ophthalmologic image processing device 21, the mathematical model constructed in S3 is a two-dimensional region in the two-dimensional ophthalmologic image. A probability distribution is output in which the two-dimensional coordinates at which the part (for example, the fovea in this embodiment) exists are random variables.

ただし、他の機械学習アルゴリズムが用いられてもよい。例えば、競合する2つのニューラルネットワークを利用する敵対的生成ネットワーク(Generative adversarial networks:GAN)が、機械学習アルゴリズムとして採用されてもよい。 However, other machine learning algorithms may be used. For example, Generative adversarial networks (GAN), which utilize two competing neural networks, may be employed as machine learning algorithms.

数学モデルの構築が完了するまで(S4:NO)、S1~S3の処理が繰り返される。数学モデルの構築が完了すると(S4:YES)、数学モデル構築処理は終了する。構築された数学モデルを実現させるプログラムおよびデータは、眼科画像処理装置21に組み込まれる。 The processes of S1 to S3 are repeated until the construction of the mathematical model is completed (S4: NO). When construction of the mathematical model is completed (S4: YES), the mathematical model construction process ends. Programs and data for realizing the constructed mathematical model are installed in the ophthalmologic image processing apparatus 21 .

(眼科画像処理)
図5から図12を参照して、眼科画像処理装置21が実行する眼科画像処理について説明する。眼科画像処理は、記憶装置21に記憶された眼科画像処理プログラムに従って、CPU23によって実行される。
(Ophthalmic image processing)
The ophthalmologic image processing executed by the ophthalmologic image processing apparatus 21 will be described with reference to FIGS. 5 to 12 . The ophthalmic image processing is executed by the CPU 23 according to the ophthalmic image processing program stored in the storage device 21 .

(境界検出処理)
図5から図9を参照して、眼科画像処理の一例である境界検出処理について説明する。境界検出処理では、複数の一次元領域の各々において、特定の境界が存在する一次元座標を確率変数とする確率分布に基づいて、特定の境界(本実施形態では、二次元の境界および三次元の境界)が検出される。さらに、検出された三次元の境界に基づいて、組織における特定の層のEnface画像が取得される。
(Boundary detection processing)
Boundary detection processing, which is an example of ophthalmologic image processing, will be described with reference to FIGS. In the boundary detection process, in each of a plurality of one-dimensional regions, a specific boundary (in this embodiment, a two-dimensional boundary and a three-dimensional ) are detected. Further, an Enface image of a specific layer in the tissue is acquired based on the detected three-dimensional boundaries.

まず、CPU23は、被検眼の組織(本実施形態では眼底)の三次元断層画像を取得する(S11)。三次元断層画像は、眼科画像撮影装置11Bによって撮影されて、眼科画像処理装置21によって取得される。前述したように、三次元断層画像は、互いに異なるスキャンライン上に測定光を走査させることで撮影された複数の二次元断層画像を組み合わせることで構成されている。なお、CPU23は、三次元断層画像を生成する基となる信号(例えばOCT信号)を眼科画像撮影装置11Bから取得し、取得した信号に基づいて三次元断層画像を生成してもよい。 First, the CPU 23 acquires a three-dimensional tomographic image of the tissue of the subject's eye (the fundus in this embodiment) (S11). The three-dimensional tomographic image is captured by the ophthalmologic imaging device 11B and acquired by the ophthalmologic image processing device 21 . As described above, a three-dimensional tomographic image is formed by combining a plurality of two-dimensional tomographic images captured by scanning different scan lines with measurement light. Note that the CPU 23 may acquire a signal (for example, an OCT signal) that serves as a basis for generating a three-dimensional tomographic image from the ophthalmic imaging apparatus 11B and generate a three-dimensional tomographic image based on the acquired signal.

CPU23は、取得した三次元断層画像を構成する複数の二次元断層画像のうち、T番目(Tの初期値は「1」)の二次元断層画像を抽出する(S12)。図6に、二次元断層画像40の一例を示す。二次元断層画像40には、被検眼の眼底における複数の境界が表れている。図6に示す例では、内境界膜(ILM)である境界Biと、神経線維層(NFL)と神経節細胞層(GCL)の境界Bgを含む複数の境界が表れている。また、二次元断層画像40中に、複数の一次元領域A1~ANが設定される。本実施形態では、二次元断層画像40中に設定される複数の一次元領域A1~ANは、特定の境界(本実施形態では、境界Biと境界Bgを含む複数の境界)に交差する軸に沿って延びる。詳細には、本実施形態の一次元領域A1~ANは、OCT装置によって撮影された二次元断層画像40を構成する複数(N本)のAスキャンの各々の領域に一致する。 The CPU 23 extracts the T-th (initial value of T is "1") two-dimensional tomographic image among the plurality of two-dimensional tomographic images forming the acquired three-dimensional tomographic image (S12). FIG. 6 shows an example of a two-dimensional tomographic image 40. As shown in FIG. A plurality of boundaries of the fundus of the subject's eye appear in the two-dimensional tomographic image 40 . In the example shown in FIG. 6, a plurality of boundaries including a boundary Bi that is the inner limiting membrane (ILM) and a boundary Bg between the nerve fiber layer (NFL) and the ganglion cell layer (GCL) appear. Also, a plurality of one-dimensional regions A1 to AN are set in the two-dimensional tomographic image 40. FIG. In the present embodiment, the plurality of one-dimensional regions A1 to AN set in the two-dimensional tomographic image 40 are arranged on axes that intersect a specific boundary (in this embodiment, a plurality of boundaries including the boundary Bi and the boundary Bg). extend along. Specifically, the one-dimensional areas A1 to AN of the present embodiment correspond to the areas of each of the multiple (N) A-scans forming the two-dimensional tomographic image 40 captured by the OCT apparatus.

なお、複数の一次元領域を設定する方法を変更することも可能である。例えば、CPU23は、各々の一次元領域の軸と特定の境界の角度が極力垂直に近づくように、複数の一次元領域を設定してもよい。この場合、各々の一次元領域の位置および角度は、例えば、一般的な被検眼の組織(本実施形態では眼底)の形状に基づいて、角度が垂直に近づくように設定されてもよい。 It is also possible to change the method of setting a plurality of one-dimensional regions. For example, the CPU 23 may set a plurality of one-dimensional areas such that the angle between the axis of each one-dimensional area and a specific boundary is as close to vertical as possible. In this case, the position and angle of each one-dimensional region may be set, for example, based on the general shape of the tissue of the subject's eye (in this embodiment, the fundus) so that the angle approaches the vertical.

CPU23は、数学モデルにT番目の二次元断層画像を入力することで、複数の一次元領域A1~ANの各々において、M番目(Mの初期値は「1」)の境界が存在する座標の確率分布を取得する(S14)。図7に、一次元領域A1から取得される、境界Biが存在する座標の確率分布を示すグラフの一例を示す。図7に示す例では、一次元領域A1の一次元座標を確率変数として、境界Biが存在する座標の確率分布が示されている。つまり、図7に示す例では、横軸は確率変数、縦軸は前記確率変数の確率であり、前記確率変数は一次元領域A1における境界Biの存在する座標である。S14では、複数の一次元領域A1~ANの各々における確率分布が取得される。 By inputting the T-th two-dimensional tomographic image to the mathematical model, the CPU 23 obtains the coordinates of the M-th boundary (the initial value of M is "1") in each of the plurality of one-dimensional regions A1 to AN. A probability distribution is acquired (S14). FIG. 7 shows an example of a graph showing the probability distribution of the coordinates at which the boundary Bi exists, acquired from the one-dimensional area A1. In the example shown in FIG. 7, the probability distribution of the coordinates at which the boundary Bi exists is shown using the one-dimensional coordinates of the one-dimensional area A1 as random variables. That is, in the example shown in FIG. 7, the horizontal axis is the random variable, the vertical axis is the probability of the random variable, and the random variable is the coordinates of the boundary Bi in the one-dimensional area A1. In S14, probability distributions are acquired for each of the plurality of one-dimensional areas A1 to AN.

図7に示すグラフによると、一次元領域A1上の各点の中で、境界Biが存在する可能性が最も高い点が、点Pであると判断できる。また、仮に、疾患の影響で組織の構造が崩れている場合、または、眼科画像の少なくとも一部の画質が良好でない場合等であっても、数学モデルによって出力される確率分布は、いずれかの位置にピークを形成する可能性が高い。よって、S14で出力される確率分布を用いることで、境界が適切且つ直接的に検出される。 According to the graph shown in FIG. 7, it can be determined that the point P is the point at which the boundary Bi is most likely to exist among the points on the one-dimensional area A1. In addition, even if the structure of the tissue is destroyed due to the influence of the disease, or if the image quality of at least a part of the ophthalmologic image is not good, the probability distribution output by the mathematical model is There is a high probability of forming a peak at the position. Therefore, by using the probability distribution output in S14, the boundary is properly and directly detected.

CPU23は、T番目の二次元断層画像におけるM番目の境界に関し、M番目の境界が存在する割合を二次元的に示す確率マップを取得する。CPU23は、取得した確率マップを表示装置28に表示させる(S15)。確率マップは、複数の一次元領域A1~ANの各々について取得された複数の確率分布を二次元に並べることで生成される。確率マップは、複数の確率分布に基づいてCPU23が生成してもよい。また、数学モデルによって確率マップが生成されてもよい。 The CPU 23 acquires a probability map two-dimensionally showing the ratio of the Mth boundary existing in the Tth two-dimensional tomographic image. The CPU 23 displays the obtained probability map on the display device 28 (S15). A probability map is generated by two-dimensionally arranging a plurality of probability distributions obtained for each of the plurality of one-dimensional regions A1 to AN. The probability map may be generated by the CPU 23 based on multiple probability distributions. A probability map may also be generated by the mathematical model.

図8は、内境界膜(ILM)である境界Biの確率マップ41の一例である。図9は、神経線維層(NFL)と神経節細胞層(GCL)の境界Bgの確率マップ42の一例である。図8および図9に例示する確率マップ41,42では、各座標に対する値を輝度で表現しており、特定の境界らしい位置ほど明るくなっている。従って、ユーザは、表示された確率マップ41,42を見ることで、境界Bi,Bgの位置を二次元的に適切に把握することができる。なお、確率マップの表現方法を適宜変更できることは言うまでもない。 FIG. 8 is an example of a probability map 41 of the boundary Bi, which is the inner limiting membrane (ILM). FIG. 9 is an example of a probability map 42 of the boundary Bg between the nerve fiber layer (NFL) and the ganglion cell layer (GCL). In the probability maps 41 and 42 illustrated in FIGS. 8 and 9, the value for each coordinate is represented by luminance, and the position that seems to be a specific boundary is brighter. Therefore, the user can appropriately grasp the positions of the boundaries Bi and Bg two-dimensionally by looking at the displayed probability maps 41 and 42 . Needless to say, the representation method of the probability map can be changed as appropriate.

次いで、CPU23は、複数の一次元領域A1~ANの各々について取得された、M番目の境界に関する確率分布に基づいて、二次元のM番目の境界を検出する(S16)。本実施形態では、CPU23は、複数の一次元領域A1~ANの各々について取得された複数の確率分布を結合させることで、二次元の境界を検出する。二次元の境界は、S14で取得された複数の確率分布に基づいて検出されてもよいし、S15で取得された確率マップに基づいて検出されてもよい。また、数学モデルが境界の検出結果を出力してもよいし、CPU23が境界の検出処理を行ってもよい。 Next, the CPU 23 detects the two-dimensional M-th boundary based on the probability distribution regarding the M-th boundary obtained for each of the plurality of one-dimensional areas A1 to AN (S16). In this embodiment, the CPU 23 detects a two-dimensional boundary by combining a plurality of probability distributions acquired for each of the plurality of one-dimensional areas A1 to AN. A two-dimensional boundary may be detected based on the plurality of probability distributions acquired in S14, or may be detected based on the probability map acquired in S15. Further, the mathematical model may output the boundary detection result, or the CPU 23 may perform the boundary detection processing.

なお、本実施形態では、複数の一次元領域A1~ANに関する確率分布に対して後処理が行われたうえで、確率マップの生成および境界の検出が実行される。一例として、n番目の一次元領域上の確率分布と、n番目の一次元領域の近傍に位置する一次元領域上の確率分布とに基づいて、n番目の一次元領域上の境界が検出されてもよい。この場合、例えば、公知のグラフカット等の手法が採用されてもよい。また、重みが最小の経路を求める最短経路探索の理論が利用されることで、境界が検出されてもよい。 Note that, in the present embodiment, the probability distributions regarding the plurality of one-dimensional areas A1 to AN are subjected to post-processing, and then the probability maps are generated and the boundaries are detected. As an example, the boundary on the n-th one-dimensional area is detected based on the probability distribution on the n-th one-dimensional area and the probability distribution on the one-dimensional area located near the n-th one-dimensional area. may In this case, for example, a method such as a known graph cut may be adopted. Boundaries may also be detected by utilizing shortest path search theory that finds the path with the lowest weight.

また、CPU23は、境界を検出する対象とされた二次元断層画像(つまり、生画像)上に、確率マップ41,42、または、検出された特定の境界を重畳表示させてもよい。この場合、実際に撮影された組織と、確率分布によって検出される境界の位置関係が、適切に把握される。また、CPU23は、確率マップ41,42または検出された境界を、生画像上に重畳表示させた状態で、組織における境界の位置を指定するためのユーザからの指示を入力してもよい。この場合、ユーザは、確率分布によって検出される境界と、実際に撮影された組織の画像を比較しながら、適切に境界の位置を指定することができる。 Further, the CPU 23 may superimpose the probability maps 41 and 42 or the detected specific boundaries on the two-dimensional tomographic image (that is, the raw image) whose boundaries are to be detected. In this case, the positional relationship between the actually photographed tissue and the boundary detected by the probability distribution is properly grasped. Further, the CPU 23 may input an instruction from the user for designating the position of the boundary in the tissue while the probability maps 41 and 42 or the detected boundary is superimposed on the raw image. In this case, the user can appropriately designate the position of the boundary while comparing the boundary detected by the probability distribution and the actually captured image of the tissue.

次いで、CPU23は、T番目の二次元断層画像において検出対象とする、全ての境界の検出が完了したか否かを判断する(S18)。一部の境界の検出が完了していなければ(S18:NO)、境界の順番Mに「1」が加算されて(S19)、処理はS14に戻り、次の境界の検出処理が実行される(S14~S16)。全ての境界の検出が完了すると(S18:YES)、CPU23は、三次元断層画像を構成する全ての二次元断層画像の境界の検出が完了したか否かを判断する(S21)。一部の二次元断層画像の境界の検出が完了していなければ(S21:NO)、二次元断層画像の順番Tに「1」が加算されて(S22)、処理はS12に戻り、次の二次元断層画像の境界が検出される(S12~S19)。 Next, the CPU 23 determines whether or not detection of all boundaries to be detected in the T-th two-dimensional tomographic image has been completed (S18). If the detection of some boundaries has not been completed (S18: NO), "1" is added to the boundary order M (S19), the process returns to S14, and the next boundary detection process is executed. (S14-S16). When detection of all boundaries is completed (S18: YES), the CPU 23 determines whether or not detection of boundaries of all two-dimensional tomographic images forming the three-dimensional tomographic image has been completed (S21). If the detection of the boundary of some of the two-dimensional tomographic images has not been completed (S21: NO), "1" is added to the order T of the two-dimensional tomographic images (S22), the process returns to S12, and the next A boundary of the two-dimensional tomographic image is detected (S12-S19).

全ての二次元断層画像の境界の検出が完了すると(S21:YES)、三次元の境界の検出が完了している。CPU23は、M個の境界の少なくともいずれかに関し、S16で検出された複数の二次元の境界を統合させることで、三次元の境界を取得する(S24)。なお、CPU23は、検出した三次元の境界の画像のデータを生成し、表示装置28に表示させることができる。従って、ユーザは、境界の三次元形状を適切に把握することができる。また、T枚の二次元断層画像に対する確率分布の取得結果に基づいて、三次元領域における確率分布を示す確率マップが生成されてもよい。 When the detection of the boundaries of all the two-dimensional tomographic images is completed (S21: YES), the detection of the three-dimensional boundaries is completed. The CPU 23 acquires a three-dimensional boundary by integrating a plurality of two-dimensional boundaries detected in S16 regarding at least one of the M boundaries (S24). The CPU 23 can generate image data of the detected three-dimensional boundary and display it on the display device 28 . Therefore, the user can appropriately grasp the three-dimensional shape of the boundary. Further, a probability map indicating the probability distribution in the three-dimensional area may be generated based on the acquisition result of the probability distribution for T two-dimensional tomographic images.

次いで、CPU23は、検出された三次元の境界と、S11で取得された三次元断層画像とに基づいて、三次元断層画像に含まれる特定の層(境界でもよい)のEnface画像を取得する(S25)。Enface画像とは、特定の層を、OCTの測定光の光軸に沿う方向から見た場合の二次元正面画像である。S25で取得されるEnface画像は、適切に検出された境界に基づいて生成されるので、品質が高い。なお、S25では、三次元画像に含まれる複数の層および境界のうち、特定の1つについてのEnface画像が取得されてもよい。また、三次元画像に含まれる複数の層および境界のうちの複数についてのEnface画像が取得されてもよい。 Next, the CPU 23 acquires an Enface image of a specific layer (or boundary) included in the three-dimensional tomographic image based on the detected three-dimensional boundary and the three-dimensional tomographic image acquired in S11 ( S25). An enface image is a two-dimensional front image of a specific layer viewed in a direction along the optical axis of OCT measurement light. The Enface image acquired at S25 is of high quality because it is generated based on well-detected boundaries. Note that in S25, an Enface image for a specific one of a plurality of layers and boundaries included in the three-dimensional image may be acquired. Enface images may also be obtained for more than one of the layers and boundaries included in the three-dimensional image.

また、CPU23は、S11で取得された三次元断層画像と、検出された三次元の境界とに基づいて、三次元断層画像に含まれる特定の層の厚みの分布を二次元で示す厚みマップを取得してもよい。この場合、適切に検出された境界に基づいて特定の層が特定されたうえで、より正確な厚みマップが取得される。 Further, the CPU 23 creates a thickness map two-dimensionally showing the thickness distribution of a specific layer included in the three-dimensional tomographic image based on the three-dimensional tomographic image acquired in S11 and the detected three-dimensional boundary. may be obtained. In this case, specific layers are identified based on well-detected boundaries to obtain a more accurate thickness map.

なお、図5に示す例では、S11において三次元断層画像が取得された後、特定の境界が二次元および三次元で検出される。さらに、検出された三次元の境界に基づいて、Enface画像が取得される。しかし、二次元の境界のみが検出されてもよい。この場合、S11では二次元の眼科画像が取得されてもよい。また、図5に示す例では、S14において、複数の一次元領域A1~ANの各々に関する複数の確率分布が取得される。その結果、二次元の境界が検出される。しかし、例えば、特定の境界上の1つの点のみを検出さればよい場合等には、S14では、1つの一次元領域における確率分布のみが取得されてもよい。 In the example shown in FIG. 5, after the three-dimensional tomographic image is acquired in S11, specific boundaries are detected two-dimensionally and three-dimensionally. Further, an Enface image is acquired based on the detected three-dimensional boundaries. However, only two-dimensional boundaries may be detected. In this case, a two-dimensional ophthalmologic image may be acquired in S11. Also, in the example shown in FIG. 5, in S14, a plurality of probability distributions are obtained for each of the plurality of one-dimensional areas A1 to AN. As a result, two-dimensional boundaries are detected. However, for example, when only one point on a specific boundary needs to be detected, in S14 only the probability distribution in one one-dimensional area may be obtained.

(特定部位検出処理)
図10から図12を参照して、眼科画像処理の一例である特定部位検出処理について説明する。特定部位検出処理では、特定部位が存在する座標の確率分布に基づいて、特定部位が検出される。以下では、二次元の眼科画像から特定部位を検出する場合について例示する。
(Specific part detection processing)
Specific part detection processing, which is an example of ophthalmologic image processing, will be described with reference to FIGS. 10 to 12 . In the specific part detection process, the specific part is detected based on the probability distribution of the coordinates at which the specific part exists. A case of detecting a specific part from a two-dimensional ophthalmologic image will be exemplified below.

まず、CPU23は、被検眼の組織(本実施形態では眼底)の眼科画像を取得する(S31)。一例として、本実施形態のS31では、OCT装置によって撮影された二次元正面画像(例えば、Enface画像またはモーションコントラスト画像)が取得される。しかし、S31で取得される眼科画像は適宜変更できる。例えば、SLO装置または眼底カメラ等によって撮影された二次元正面画像がS31で取得されてもよい。また、眼底以外の組織が撮影された眼科画像が、S31で取得されてもよい。 First, the CPU 23 acquires an ophthalmologic image of the tissue of the subject's eye (the fundus in this embodiment) (S31). As an example, in S31 of the present embodiment, a two-dimensional front image (for example, an Enface image or a motion contrast image) captured by an OCT device is acquired. However, the ophthalmologic image acquired in S31 can be changed as appropriate. For example, a two-dimensional front image captured by an SLO device, a fundus camera, or the like may be acquired in S31. Also, an ophthalmologic image in which tissues other than the fundus are photographed may be acquired in S31.

図11に、本実施形態のS31で取得される眼科画像50の一例を示す。図11で例示する二次元の眼科画像50では、眼底における視神経乳頭51、黄斑52、および眼底血管53が写っている。黄斑52の中心が中心窩Fとなる。また、二次元の眼科画像50中の二次元領域Cに、二次元の座標系(XY座標)が設定される。 FIG. 11 shows an example of an ophthalmologic image 50 acquired in S31 of this embodiment. A two-dimensional ophthalmologic image 50 illustrated in FIG. 11 shows an optic papilla 51, a macula 52, and a fundus blood vessel 53 in the fundus. The fovea F is the center of the macula 52 . Also, a two-dimensional coordinate system (XY coordinates) is set in the two-dimensional area C in the two-dimensional ophthalmologic image 50 .

CPU23は、数学モデルに眼科画像50を入力することで、眼科画像50中の二次元領域において特定部位が存在する、二次元座標を確率変数とする確率分布を取得する(S32)。一例として、本実施形態における特定部位は中心窩Fである。しかし、特定部位が中心窩Fに限定されないことは言うまでもない。例えば、特定部位は、視神経乳頭等であってもよい。また、特定部位は、1つの点であってもよいし、一定の領域または体積を有する部位であってもよい。CPU23は、S32で取得された確率分布に基づいて、二次元の眼科画像50における特定部位を検出する(S33)。 By inputting the ophthalmologic image 50 into the mathematical model, the CPU 23 acquires a probability distribution of the presence of a specific site in the two-dimensional region in the ophthalmologic image 50, with the two-dimensional coordinates as random variables (S32). As an example, the specific site in this embodiment is the fovea F. However, it goes without saying that the specific site is not limited to the fovea F. For example, the specific site may be the optic disc or the like. Also, the specific site may be one point, or may be a site having a certain area or volume. The CPU 23 detects specific regions in the two-dimensional ophthalmologic image 50 based on the probability distribution acquired in S32 (S33).

図12に、二次元の座標系から取得される、特定部位が存在する座標を確率変数とする確率分布を示すグラフの一例を示す。図12に示す例では、X軸・Y軸が確率変数、X軸とY軸に直交する軸が前記確率変数の確率であり、前記確率変数は、二次元領域Cにおける中心窩Fが存在する座標である。図12に示すグラフによると、二次元領域C内の各点の中で、中心窩Fが存在する可能性が最も高い点の座標が(X´,Y´)であると判断できる。また、仮に、疾患の影響で組織の構造が崩れている場合、または、眼科画像の少なくとも一部の画質が良好でない場合等であっても、数学モデルによって出力される確率分布は、いずれかの位置にピークを形成する可能性が高い。よって、特定部位が適切且つ直接的に検出される。 FIG. 12 shows an example of a graph showing a probability distribution obtained from a two-dimensional coordinate system and having coordinates at which a specific part exists as random variables. In the example shown in FIG. 12, the X-axis and Y-axis are random variables, the axis perpendicular to the X-axis and the Y-axis is the probability of the random variable, and the random variable is the fovea F in the two-dimensional area C. coordinates. According to the graph shown in FIG. 12, it can be determined that (X', Y') are the coordinates of the point in the two-dimensional region C where the fovea F is most likely to exist. In addition, even if the structure of the tissue is destroyed due to the influence of the disease, or if the image quality of at least a part of the ophthalmologic image is not good, the probability distribution output by the mathematical model is There is a high probability of forming a peak at the position. Therefore, the specific site is appropriately and directly detected.

なお、特定部位検出処理では、三次元の眼科画像から特定部位を検出することも可能である。この場合、S31では三次元の眼科画像(例えば、OCT装置によって撮影された三次元断層画像等)が取得される。S32では、三次元の眼科画像中の三次元の領域において、特定部位が存在する三次元座標を確率変数とする確率分布が取得される。S33では、S32で取得された確率分布に基づいて、三次元の眼科画像における特定部位が検出される。 In addition, in the specific part detection process, it is also possible to detect a specific part from a three-dimensional ophthalmologic image. In this case, in S31, a three-dimensional ophthalmologic image (for example, a three-dimensional tomographic image captured by an OCT apparatus, etc.) is acquired. In S32, in a three-dimensional area in the three-dimensional ophthalmologic image, a probability distribution is obtained with the three-dimensional coordinates of the specific site as random variables. In S33, a specific site in the three-dimensional ophthalmologic image is detected based on the probability distribution acquired in S32.

上記実施形態で開示された技術は一例に過ぎない。従って、上記実施形態で例示された技術を変更することも可能である。まず、上記実施形態で例示された複数の技術のうちの一部のみを実行することも可能である。例えば、眼科画像処理装置21は、境界検出処理(図5参照)、および、特定部位検出処理(図10参照)の一方のみを実行してもよい。 The technology disclosed in the above embodiment is merely an example. Therefore, it is also possible to modify the techniques exemplified in the above embodiments. First, it is also possible to implement only some of the techniques exemplified in the above embodiments. For example, the ophthalmologic image processing apparatus 21 may perform only one of the boundary detection process (see FIG. 5) and the specific part detection process (see FIG. 10).

なお、図2のS1で訓練用眼科画像を取得する処理は、「入力用訓練データ取得ステップ」の一例である。図2のS2で訓練用データを取得する処理は、「出力用訓練データ取得ステップ」の一例である。図2のS3で数学モデルを訓練する処理は、「訓練ステップ」の一例である。図5のS11および図10のS31で眼科画像を取得する処理は、「画像取得ステップ」の一例である。図5のS14および図10のS32で確率分布を取得する処理は、「確率分布取得ステップ」の一例である。図5のS16,S24、および図10のS33で境界または特定部位を検出する処理は、「検出ステップ」の一例である。図5のS15で確率マップを取得する処理は、「マップ取得ステップ」の一例である。図5のS25でEnface画像を取得する処理は、「Enface画像取得ステップ」の一例である。 Note that the process of acquiring the training ophthalmologic image in S1 of FIG. 2 is an example of the "input training data acquisition step". The process of acquiring the training data in S2 of FIG. 2 is an example of the "output training data acquisition step". The process of training the mathematical model in S3 of FIG. 2 is an example of a "training step." The process of acquiring an ophthalmologic image in S11 of FIG. 5 and S31 of FIG. 10 is an example of an "image acquisition step." The process of acquiring the probability distribution in S14 of FIG. 5 and S32 of FIG. 10 is an example of the "probability distribution acquisition step". The process of detecting a boundary or a specific part in S16, S24 of FIG. 5 and S33 of FIG. 10 is an example of a "detection step." The process of acquiring the probability map in S15 of FIG. 5 is an example of the "map acquisition step". The process of acquiring the Enface image in S25 of FIG. 5 is an example of the "enface image acquisition step".

1 数学モデル構築装置
3 CPU
11A,11B 眼科画像撮影装置
21 眼科画像処理装置
23 CPU
24 記憶装置
28 表示装置
30 二次元断層画像
41,42 確率マップ
50 眼科画像

1 mathematical model building device 3 CPU
11A, 11B ophthalmic imaging device 21 ophthalmic image processing device 23 CPU
24 storage device 28 display device 30 two-dimensional tomographic images 41 and 42 probability map 50 ophthalmic image

Claims (6)

被検眼の組織の画像である眼科画像を処理する眼科画像処理装置であって、
前記眼科画像処理装置の制御部は、
眼科画像撮影装置によって撮影された眼科画像を取得し、
機械学習アルゴリズムによって訓練された数学モデルに前記眼科画像を入力することで、前記眼科画像中の領域内において前記組織の特定の境界および特定部位の少なくともいずれかが存在する、一次元以上の座標を確率変数とする確率分布を取得し、
取得した前記確率分布に基づいて、前記特定の境界および前記特定部位の少なくともいずれかを検出することを特徴とする眼科画像処理装置。
An ophthalmic image processing apparatus for processing an ophthalmic image that is an image of tissue of an eye to be examined,
The control unit of the ophthalmologic image processing apparatus includes:
Acquiring an ophthalmic image captured by an ophthalmic imaging device,
By inputting the ophthalmic image into a mathematical model trained by a machine learning algorithm, one or more dimensional coordinates of at least one of a specific boundary and/or a specific portion of the tissue within a region in the ophthalmic image are obtained. Get the probability distribution as a random variable,
An ophthalmologic image processing apparatus, wherein at least one of the specific boundary and the specific part is detected based on the acquired probability distribution.
請求項1に記載の眼科画像処理装置であって、
前記制御部は、
前記数学モデルに前記眼科画像を入力することで、前記眼科画像中の前記組織の特定の境界に交差する方向に延びる一次元の前記領域において、前記特定の境界が存在する一次元座標を確率変数とする確率分布を取得し、
取得した前記確率分布に基づいて前記特定の境界を検出することを特徴とする眼科画像処理装置。
The ophthalmic image processing apparatus according to claim 1,
The control unit
By inputting the ophthalmological image into the mathematical model, the one-dimensional coordinates of the specific boundary in the one-dimensional region extending in the direction intersecting the specific boundary of the tissue in the ophthalmic image are determined as random variables. Obtain the probability distribution for
An ophthalmologic image processing apparatus, wherein the specific boundary is detected based on the acquired probability distribution.
請求項2に記載の眼科画像処理装置であって、
前記制御部は、
互いに異なる複数の前記一次元の領域の各々について取得された、複数の前記確率分布に基づいて、二次元または三次元の前記境界を検出することを特徴とする眼科画像処理装置。
The ophthalmic image processing apparatus according to claim 2,
The control unit
An ophthalmologic image processing apparatus that detects the two-dimensional or three-dimensional boundary based on a plurality of the probability distributions obtained for each of the plurality of one-dimensional regions that are different from each other.
請求項1に記載の眼科画像処理装置であって、
前記制御部は、
前記数学モデルに前記眼科画像を入力することで、前記眼科画像中の二次元以上の次元の領域において、前記特定部位が存在する二次元以上の座標を確率変数とする確率分布を取得し、
取得した前記確率分布に基づいて前記特定部位を検出することを特徴とする眼科画像処理装置。
The ophthalmic image processing apparatus according to claim 1,
The control unit
By inputting the ophthalmologic image into the mathematical model, obtaining a probability distribution with the coordinates of the two or more dimensions where the specific part exists as a random variable in a region of two or more dimensions in the ophthalmologic image,
An ophthalmologic image processing apparatus, wherein the specific part is detected based on the acquired probability distribution.
参照光と、被検眼の組織に照射された測定光の反射光とによるOCT信号を処理することで、前記組織の眼科画像を撮影するOCT装置であって、
前記OCT装置の制御部は、
撮影した前記眼科画像を、機械学習アルゴリズムによって訓練された数学モデルに入力することで、前記眼科画像中の領域内において前記組織の特定の境界および特定部位の少なくともいずれかが存在する、一次元以上の座標を確率変数とする確率分布を取得し、
取得した前記確率分布に基づいて、前記特定の境界および前記特定部位の少なくともいずれかを検出することを特徴とするOCT装置。
An OCT apparatus that captures an ophthalmologic image of a tissue of an eye to be inspected by processing an OCT signal from reference light and reflected light of measurement light applied to a tissue of an eye to be inspected,
The control unit of the OCT device
By inputting the captured ophthalmological image into a mathematical model trained by a machine learning algorithm, one or more dimensions in which at least one of a specific boundary and a specific part of the tissue exists within a region in the ophthalmic image. Obtain the probability distribution with the coordinates of as random variables,
An OCT apparatus that detects at least one of the specific boundary and the specific site based on the acquired probability distribution.
被検眼の組織の画像である眼科画像を処理する眼科画像処理装置によって実行される眼
科画像処理プログラムであって、
前記眼科画像処理プログラムが前記眼科画像処理装置の制御部によって実行されることで、
眼科画像撮影装置によって撮影された眼科画像を取得する画像取得ステップと、
機械学習アルゴリズムによって訓練された数学モデルに前記眼科画像を入力することで、前記眼科画像中の領域内において前記組織の特定の境界および特定部位の少なくともいずれかが存在する、一次元以上の座標を確率変数とする確率分布を取得する確率分布取得ステップと、
取得した前記確率分布に基づいて、前記特定の境界および前記特定部位の少なくともいずれかを検出する検出ステップと、
を前記眼科画像処理装置に実行させることを特徴とする眼科画像処理プログラム。
An ophthalmic image processing program executed by an ophthalmic image processing device that processes an ophthalmic image that is an image of tissue of an eye to be examined,
By executing the ophthalmic image processing program by the control unit of the ophthalmic image processing apparatus,
an image acquisition step of acquiring an ophthalmic image captured by an ophthalmic imaging device;
By inputting the ophthalmic image into a mathematical model trained by a machine learning algorithm, one or more dimensional coordinates of at least one of a specific boundary and/or a specific portion of the tissue within a region in the ophthalmic image are obtained. a probability distribution obtaining step for obtaining a probability distribution as a random variable;
a detection step of detecting at least one of the specific boundary and the specific part based on the acquired probability distribution;
is executed by the ophthalmologic image processing apparatus.
JP2018147139A 2018-08-03 2018-08-03 Ophthalmic image processing device, OCT device, and ophthalmic image processing program Active JP7180187B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2018147139A JP7180187B2 (en) 2018-08-03 2018-08-03 Ophthalmic image processing device, OCT device, and ophthalmic image processing program
US17/265,367 US11961229B2 (en) 2018-08-03 2019-04-15 Ophthalmic image processing device, OCT device, and non-transitory computer-readable storage medium
CN201980051471.6A CN112533526A (en) 2018-08-03 2019-04-15 Ophthalmologic image processing apparatus, OCT apparatus, and ophthalmologic image processing program
EP19843402.9A EP3831275A4 (en) 2018-08-03 2019-04-15 Ophthalmic image processing device, oct device, and ophthalmic image processing program
PCT/JP2019/016209 WO2020026535A1 (en) 2018-08-03 2019-04-15 Ophthalmic image processing device, oct device, and ophthalmic image processing program
US18/603,365 US20240221160A1 (en) 2018-08-03 2024-03-13 Ophthalmic image processing device, oct device, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018147139A JP7180187B2 (en) 2018-08-03 2018-08-03 Ophthalmic image processing device, OCT device, and ophthalmic image processing program

Publications (3)

Publication Number Publication Date
JP2020018793A JP2020018793A (en) 2020-02-06
JP2020018793A5 JP2020018793A5 (en) 2021-08-05
JP7180187B2 true JP7180187B2 (en) 2022-11-30

Family

ID=69588981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018147139A Active JP7180187B2 (en) 2018-08-03 2018-08-03 Ophthalmic image processing device, OCT device, and ophthalmic image processing program

Country Status (1)

Country Link
JP (1) JP7180187B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017070107A1 (en) 2015-10-19 2017-04-27 The Charles Stark Draper Laboratory Inc. System and method for the selection of optical coherence tomography slices

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017070107A1 (en) 2015-10-19 2017-04-27 The Charles Stark Draper Laboratory Inc. System and method for the selection of optical coherence tomography slices

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Leyuan Fang,Automatic segmentation of nine retinal layer boundaries in OCT images of non-exudative AMD patients using deep learning and graph search,Biomedical Optics Express,vol.8,No.5,米国,Biomedical Optics Express,2017年05月01日,2732-2744

Also Published As

Publication number Publication date
JP2020018793A (en) 2020-02-06

Similar Documents

Publication Publication Date Title
US11633096B2 (en) Ophthalmologic image processing device and non-transitory computer-readable storage medium storing computer-readable instructions
US20240221160A1 (en) Ophthalmic image processing device, oct device, and non-transitory computer-readable storage medium
JP7183590B2 (en) Ophthalmic image processing device, OCT device, and ophthalmic image processing program
JP2024040372A (en) Ophthalmologic image processing program and ophthalmologic image processing device
JP2024045441A (en) Ophthalmic image processing device and ophthalmic image processing program
US20240020839A1 (en) Medical image processing device, medical image processing program, and medical image processing method
WO2020116351A1 (en) Diagnostic assistance device and diagnostic assistance program
JP6703319B1 (en) Ophthalmic image processing device and OCT device
JP7180187B2 (en) Ophthalmic image processing device, OCT device, and ophthalmic image processing program
JP7147888B2 (en) Ophthalmic image processing device, OCT device, and ophthalmic image processing program
JP7328489B2 (en) Ophthalmic image processing device and ophthalmic photographing device
JP6747617B2 (en) Ophthalmic image processing device and OCT device
JP7210927B2 (en) Ophthalmic image processing device, OCT device, and ophthalmic image processing program
JP7302184B2 (en) Ophthalmic image processing device and ophthalmic image processing program
JP2021074095A (en) Ophthalmologic image processing device and ophthalmologic image processing program
WO2023281965A1 (en) Medical image processing device and medical image processing program
WO2020241794A1 (en) Ophthalmic image processing device, ophthalmic image processing program, and ophthalmic image processing system
WO2021045019A1 (en) Ophthalmic image processing program and ophthalmic image processing device
JP2023149095A (en) Ocular fundus image processing device and ocular fundus image processing program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210625

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221031

R150 Certificate of patent or registration of utility model

Ref document number: 7180187

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150