JP2023149095A - Ocular fundus image processing device and ocular fundus image processing program - Google Patents

Ocular fundus image processing device and ocular fundus image processing program Download PDF

Info

Publication number
JP2023149095A
JP2023149095A JP2022057480A JP2022057480A JP2023149095A JP 2023149095 A JP2023149095 A JP 2023149095A JP 2022057480 A JP2022057480 A JP 2022057480A JP 2022057480 A JP2022057480 A JP 2022057480A JP 2023149095 A JP2023149095 A JP 2023149095A
Authority
JP
Japan
Prior art keywords
fundus image
blood vessel
fundus
image processing
detection result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022057480A
Other languages
Japanese (ja)
Inventor
涼介 柴
Ryosuke Shiba
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2022057480A priority Critical patent/JP2023149095A/en
Publication of JP2023149095A publication Critical patent/JP2023149095A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

To provide an ocular fundus image processing device and an ocular fundus image processing program capable of appropriately acquiring information indicating a detailed running state of ocular fundus blood vessels.SOLUTION: A control part of an ocular fundus image processing device executes an ocular fundus image acquisition step and a detection result acquisition step. In the ocular fundus acquisition step, the control part acquires an ocular fundus image 30 including blood vessels of the ocular fundus of an eye to be examined captured by an ocular fundus image capturing device. In the detection result acquisition step, the control part acquires a detection result of the blood vessels present in the ocular fundus image 30, and a detection result of specific positions including a branch position and an end position of the blood vessels present in the ocular fundus image by inputting at least part of the ocular fundus image 30 to a mathematical model 20 that is trained by a machine learning algorithm.SELECTED DRAWING: Figure 2

Description

本開示は、被検眼の眼底画像を処理する眼底画像処理装置、および、眼底画像処理装置において実行される眼底画像処理プログラムに関する。 The present disclosure relates to a fundus image processing device that processes a fundus image of a subject's eye, and a fundus image processing program that is executed in the fundus image processing device.

近年、被検眼の眼底画像を処理することで、眼底における血管の情報を取得する試みが行われている。例えば、特許文献1に記載の眼底画像処理装置は、機械学習アルゴリズムによって訓練された数学モデルに眼底画像を入力することで、眼底画像に存在する動脈と静脈の検出結果(動脈と静脈が分類された血管画像)を取得する。 In recent years, attempts have been made to obtain information on blood vessels in the fundus of the eye by processing fundus images of the eye to be examined. For example, the fundus image processing device described in Patent Document 1 inputs the fundus image into a mathematical model trained by a machine learning algorithm, and detects arteries and veins present in the fundus image (arteries and veins are classified). Acquire blood vessel images).

特開2019-208851号公報Japanese Patent Application Publication No. 2019-208851

動脈と静脈の検出結果に加えて、複数の血管の各々の走行状態をより詳細に示す情報が得られれば、疾患の診断および研究等に非常に有用である。例えば、機械学習アルゴリズム等を利用して得られる血管画像(眼底画像から血管が抽出された画像)に基づいて、各々の血管の詳細な走行状態を解析することも考えられる。しかし、本願発明者が種々の試行・検討を重ねたところ、実際には繋がっている血管が血管画像では途切れてしまっている場合等もあり、血管画像のみに基づいて血管の詳細な走行状態を解析することは困難であった。 In addition to the detection results of arteries and veins, it would be extremely useful for disease diagnosis and research if information indicating the running state of each of a plurality of blood vessels in more detail could be obtained. For example, it is conceivable to analyze the detailed running state of each blood vessel based on a blood vessel image (an image in which blood vessels are extracted from a fundus image) obtained using a machine learning algorithm or the like. However, after various trials and studies by the inventor, we found that there are cases where blood vessels that are actually connected are disconnected in blood vessel images, and it is difficult to determine the detailed running state of blood vessels based only on blood vessel images. It was difficult to analyze.

本開示の典型的な目的は、眼底血管の詳細な走行状態を示す情報を適切に取得することが可能な眼底画像処理装置および眼底画像処理プログラムを提供することである。 A typical object of the present disclosure is to provide a fundus image processing device and a fundus image processing program that can appropriately acquire information indicating detailed running states of fundus blood vessels.

本開示における典型的な実施形態が提供する眼底画像処理装置は、被検眼の眼底画像を処理する眼底画像処理装置であって、前記眼底画像処理装置の制御部は、眼底画像撮影装置によって撮影された、被検眼の眼底の血管を含む前記眼底画像を取得する眼底画像取得ステップと、機械学習アルゴリズムによって訓練された数学モデルに前記眼底画像の少なくとも一部を入力することで、前記眼底画像に存在する血管の検出結果、および、前記眼底画像に存在する血管の分岐位置および端部位置を含む特定位置の検出結果を取得する検出結果取得ステップと、を実行する。 A fundus image processing device provided by a typical embodiment of the present disclosure is a fundus image processing device that processes a fundus image of an eye to be examined, and a control unit of the fundus image processing device is configured to control a fundus image processing device that processes a fundus image of an eye to be examined. In addition, a fundus image acquisition step of acquiring the fundus image including blood vessels in the fundus of the eye to be examined, and inputting at least a part of the fundus image to a mathematical model trained by a machine learning algorithm, and a detection result acquisition step of acquiring a detection result of a blood vessel and a detection result of a specific position including a branch position and an end position of the blood vessel existing in the fundus image.

本開示における典型的な実施形態が提供する眼底画像処理プログラムは、被検眼の眼底画像を処理する眼底画像処理装置によって実行される眼底画像処理プログラムであって、前記眼底画像処理プログラムが前記眼底画像処理装置の制御部によって実行されることで、眼底画像撮影装置によって撮影された、被検眼の眼底の血管を含む前記眼底画像を取得する眼底画像取得ステップと、機械学習アルゴリズムによって訓練された数学モデルに前記眼底画像の少なくとも一部を入力することで、前記眼底画像に存在する血管の検出結果、および、前記眼底画像に存在する血管の分岐位置および端部位置を含む特定位置の検出結果を取得する検出結果取得ステップと、を前記眼底画像処理装置に実行させる。 A fundus image processing program provided by a typical embodiment of the present disclosure is a fundus image processing program executed by a fundus image processing device that processes a fundus image of an eye to be examined, wherein the fundus image processing program a fundus image acquisition step executed by a control unit of the processing device to obtain a fundus image including blood vessels in the fundus of the eye to be examined, captured by a fundus image capturing device; and a mathematical model trained by a machine learning algorithm. By inputting at least a part of the fundus image into the fundus image, a detection result of blood vessels present in the fundus image and a detection result of a specific position including a branch position and an end position of the blood vessel present in the fundus image are obtained. The fundus oculi image processing device is caused to perform a detection result acquisition step.

本開示に係る眼底画像処理装置および眼底画像処理プログラムによると、眼底血管の詳細な走行状態を示す情報が適切に取得される。 According to the fundus image processing device and the fundus image processing program according to the present disclosure, information indicating detailed running states of fundus blood vessels is appropriately acquired.

数学モデル構築装置101、眼底画像処理装置1、および眼底画像撮影装置10A,10Bの概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a mathematical model construction device 101, a fundus image processing device 1, and fundus image photographing devices 10A and 10B. 第1実施形態で用いられる数学モデル20を説明するための説明図である。FIG. 2 is an explanatory diagram for explaining a mathematical model 20 used in the first embodiment. 数学モデル構築装置101が実行する数学モデル構築処理のフローチャートである。2 is a flowchart of mathematical model construction processing executed by the mathematical model construction device 101. 眼底画像処理装置1が実行する眼底画像処理のフローチャートである。2 is a flowchart of fundus image processing executed by the fundus image processing device 1. FIG. 完全グラフの例を模式的に示す図である。FIG. 2 is a diagram schematically showing an example of a complete graph. 部分グラフGの最小全域木の一例を模式的に示す図である。3 is a diagram schematically showing an example of a minimum spanning tree of a subgraph G. FIG. 静脈血管画像41Vにおける血管上の、分岐位置52Sと分岐位置52Tの辺の重みを割り出す方法を説明するための説明図である。FIG. 4 is an explanatory diagram for explaining a method for calculating the weights of sides of a branch position 52S and a branch position 52T on a blood vessel in a venous blood vessel image 41V. 血管トポロジー情報60の一例を示す図である。6 is a diagram showing an example of blood vessel topology information 60. FIG. 第2実施形態で用いられる数学モデル21,22,23を説明するための説明図である。FIG. 3 is an explanatory diagram for explaining mathematical models 21, 22, and 23 used in the second embodiment.

<概要>
本開示で例示する眼底画像処理装置の制御部は、眼底画像取得ステップと検出結果取得ステップを実行する。眼底画像取得ステップでは、制御部は、眼底画像撮影装置によって撮影された、被検眼の眼底の血管を含む眼底画像を取得する。検出結果取得ステップでは、制御部は、機械学習アルゴリズムによって訓練された数学モデルに眼底画像の少なくとも一部を入力することで、眼底画像に存在する血管の検出結果、および、眼底画像に存在する血管の分岐位置および端部位置を含む特定位置の検出結果を取得する。
<Summary>
The control unit of the fundus image processing device exemplified in this disclosure executes a fundus image acquisition step and a detection result acquisition step. In the fundus image acquisition step, the control unit obtains a fundus image including blood vessels in the fundus of the subject's eye, which is captured by the fundus image photographing device. In the detection result acquisition step, the control unit inputs at least a portion of the fundus image into a mathematical model trained by a machine learning algorithm, thereby obtaining detection results of blood vessels present in the fundus image and blood vessels present in the fundus image. Obtain detection results for specific positions including branch positions and end positions.

眼底の血管の検出結果の一例である血管画像(眼底血管が抽出された画像)は、眼底の状態を把握するために有用である。しかし、血管画像では、実際には繋がっている眼底血管の一部が検出されずに、血管が途切れてしまった状態で検出されてしまう場合等もある。従って、例えば、血管画像に写る血管の端(切れ目)が、実際の血管の端部であるか、検出された血管と検出されなかった血管の境界部分なのかを判別することが難しい場合も多い。よって、血管画像のみでは、血管の詳細な走行状態を解析することは難しい。これに対し、本開示に係る眼底画像処理装置によると、血管画像ではなく、撮影された眼底画像が数学モデルに入力されることで、血管の検出結果に加えて、血管の分岐位置および端部位置を含む特定位置の検出結果が取得される。血管の分岐位置および端部位置を含む特定位置の検出結果が得られることで、血管画像のみでは解析が難しい血管の詳細な走行状態が、より適切に把握され易くなる。つまり、本開示の技術によると、眼底血管の詳細な走行状態を示す情報が、適切に取得される。 A blood vessel image (an image in which fundus blood vessels are extracted), which is an example of a detection result of blood vessels in the fundus, is useful for understanding the condition of the fundus. However, in a blood vessel image, there are cases where a part of the fundus blood vessels that are actually connected is not detected, and the blood vessels are detected in a state where they are interrupted. Therefore, for example, it is often difficult to determine whether the edge (cut) of a blood vessel shown in a blood vessel image is the actual end of a blood vessel or the boundary between a detected blood vessel and an undetected blood vessel. . Therefore, it is difficult to analyze the detailed running state of blood vessels using only blood vessel images. In contrast, according to the fundus image processing device according to the present disclosure, the photographed fundus image, not the blood vessel image, is input into the mathematical model, so that in addition to the blood vessel detection results, the branch position and end of the blood vessel are A detection result of a specific position including the position is obtained. Obtaining detection results for specific positions including branch positions and end positions of blood vessels makes it easier to understand the detailed running state of blood vessels, which is difficult to analyze using only blood vessel images. That is, according to the technology of the present disclosure, information indicating the detailed running state of the fundus blood vessels is appropriately acquired.

なお、特定位置の検出結果を取得するために数学モデルに入力される眼底画像は、血管の一部が検出されていない可能性がある血管画像でなく、眼底画像撮影装置によって撮影された眼底画像である。例えば、血管画像が検出される前の眼底画像が数学モデルに入力されることで、特定位置の検出結果が取得されてもよい。また、血管の検出結果を取得するために数学モデルに入力される眼底画像と同一の眼底画像が、特定位置の検出結果を取得するために数学モデルに入力されてもよい。 Note that the fundus image input into the mathematical model to obtain detection results for a specific position is not a blood vessel image in which some blood vessels may not be detected, but a fundus image taken by a fundus image capturing device. It is. For example, a fundus image before a blood vessel image is detected may be input into a mathematical model to obtain a detection result at a specific position. Further, the same fundus image that is input to the mathematical model to obtain the blood vessel detection result may be input to the mathematical model to obtain the detection result of a specific position.

なお、数学モデルを利用して得られる血管の検出結果は、眼底画像に写る組織内の眼底血管が抽出された血管画像であってもよい。この場合、眼底血管の分布が血管画像によって適切に把握される。 Note that the blood vessel detection result obtained using the mathematical model may be a blood vessel image in which fundus blood vessels within the tissue reflected in the fundus image are extracted. In this case, the distribution of fundus blood vessels can be appropriately understood by the blood vessel image.

数学モデルに入力される眼底画像には、種々の眼底画像撮影装置によって撮影された画像を用いることができる。例えば、眼底カメラによって撮影された眼底画像、レーザ走査型検眼装置(SLO)によって撮影された眼底画像、OCT装置によって取得された眼底画像等の少なくともいずれかが、数学モデルに入力されてもよい。 As the fundus image input to the mathematical model, images captured by various fundus image capturing devices can be used. For example, at least one of a fundus image taken by a fundus camera, a fundus image taken by a laser scanning ophthalmoscope (SLO), a fundus image acquired by an OCT device, etc. may be input into the mathematical model.

検出結果取得ステップにおいて数学モデルによって取得される血管の検出結果は、眼底画像に存在する動脈および静脈の各々(以下、「動静脈」という場合もある)の検出結果であってもよい。動静脈の検出結果が得られる場合には、動静脈が分類されていない血管の検出結果が得られる場合に比べて、より適切に眼底血管の走行状態が把握される。つまり、動静脈が分類された結果が用いられることで、動脈と静脈の各々の走行状態が別々に把握される。 The blood vessel detection results acquired by the mathematical model in the detection result acquisition step may be the detection results of each of the arteries and veins (hereinafter sometimes referred to as "arteriovenous") present in the fundus image. When detection results of arteries and veins are obtained, the running state of fundus blood vessels can be grasped more appropriately than when detection results of blood vessels whose arteries and veins are not classified are obtained. In other words, by using the classification results of arteries and veins, the running states of arteries and veins can be grasped separately.

なお、数学モデルは、入力された眼底画像の各画素を、動脈、静脈、およびそれ以外の組織の3つのいずれかに分類するように訓練されていてもよい。この場合には、血管を検出した後で、検出した血管を動脈と静脈に分類する場合に比べて、簡易な処理で適切に動静脈が検出される。 Note that the mathematical model may be trained to classify each pixel of the input fundus image into one of three types: arteries, veins, and other tissues. In this case, compared to the case where the detected blood vessels are classified into arteries and veins after the blood vessels are detected, arteries and veins can be detected appropriately with simpler processing.

また、検出結果取得ステップにおいて数学モデルによって取得される血管の特定位置の検出結果は、動脈における特定位置と、静脈における特定位置が分類された結果であってもよい。この場合、前述したように、動脈と静脈の各々の走行状態が別々に把握されるので、血管の走行状態がより適切に把握される。 Further, the detection result of the specific position of the blood vessel acquired by the mathematical model in the detection result acquisition step may be a result of classifying the specific position in the artery and the specific position in the vein. In this case, as described above, since the running states of the arteries and veins are grasped separately, the running states of the blood vessels can be grasped more appropriately.

ただし、動脈における特定位置と、静脈における特定位置が分類されていない場合でも、制御部は、検出された特定位置を、動静脈の検出結果と比較することで、検出された特定位置が動静脈のいずれの特定位置であるかを判別することで、動脈と静脈の各々の走行状態を別々に把握することも可能である。 However, even if the specific position in the artery and the specific position in the vein are not classified, the control unit can compare the detected specific position with the arteriovenous detection result, so that the detected specific position is By determining which specific position is located, it is also possible to grasp the running state of each artery and vein separately.

検出結果取得ステップにおいて、制御部は、特定位置として、血管の分岐位置および端部位置と共に、眼底を正面から見た場合の血管の交差位置の検出結果を取得してもよい。この場合、複数の血管の各々の走行状態が、より正確に把握され易くなる。 In the detection result acquisition step, the control unit may acquire, as the specific position, the detection result of the intersection position of the blood vessel when the fundus of the eye is viewed from the front, as well as the branch position and end position of the blood vessel. In this case, the running state of each of the plurality of blood vessels can be more accurately understood.

数学モデルは、入力側のデータ(入力用訓練データ)と出力側のデータ(出力用訓練データ)を含む訓練データセットによって訓練されていてもよい。入力用訓練データは、過去に撮影された被検眼の眼底画像のデータであってもよい。出力用訓練データは、入力用訓練データの眼底画像における血管を示すデータ、および、入力用訓練データの眼底画像における特定位置を示すデータであってもよい。検出結果取得ステップでは、数学モデルに1つの眼底画像が入力されることで、血管の検出結果と特定位置の検出結果が共に取得されてもよい。 The mathematical model may be trained using a training data set that includes input data (input training data) and output data (output training data). The input training data may be data of a fundus image of the subject's eye taken in the past. The output training data may be data indicating a blood vessel in the fundus image of the input training data, and data indicating a specific position in the fundus image of the input training data. In the detection result acquisition step, one fundus image may be input to the mathematical model to obtain both blood vessel detection results and specific position detection results.

この場合、関連する複数のタスクを同時に数学モデルに学習させることになるので、複数のタスクに共通の要因が発生し、各々のタスクの精度が向上し易い。つまり、数学モデルは、血管の検出と特定位置の検出の両方に、共通の情報を利用することができるので、各々の検出精度が向上し易い。従って、血管の検出と特定位置の検出の各々に、異なる数学モデルが用いられる場合に比べて、検出精度が向上し易い。 In this case, since the mathematical model is made to learn a plurality of related tasks at the same time, common factors occur in the plurality of tasks, and the accuracy of each task is likely to be improved. In other words, since the mathematical model can use common information for both blood vessel detection and specific position detection, the accuracy of each detection is likely to be improved. Therefore, detection accuracy can be improved more easily than when different mathematical models are used for blood vessel detection and specific position detection.

数学モデルとして、血管検出モデルと特定位置検出モデルが別々に構築されていてもよい。血管検出モデルは、過去に撮影された被検眼の眼底画像を入力用訓練データとし、且つ、入力用訓練データの眼底画像における血管を示すデータを出力用訓練データとして訓練される。特定位置検出モデルは、過去に撮影された被検眼の眼底画像を入力用訓練データとし、且つ、入力用訓練データの眼底画像における特定位置を示すデータを出力用訓練データとして訓練される。検出結果取得ステップにおいて、制御部は、眼底画像を血管検出モデルに入力することで血管の検出結果を取得すると共に、眼底画像を特定位置検出モデルに入力することで特定位置の検出結果を取得してもよい。 As mathematical models, a blood vessel detection model and a specific position detection model may be constructed separately. The blood vessel detection model is trained by using a fundus image of the subject's eye photographed in the past as input training data, and using data indicating blood vessels in the fundus image of the input training data as output training data. The specific position detection model is trained using a fundus image of the subject's eye photographed in the past as input training data, and using data indicating a specific position in the fundus image of the input training data as output training data. In the detection result acquisition step, the control unit acquires blood vessel detection results by inputting the fundus image into the blood vessel detection model, and acquires detection results at a specific position by inputting the fundus image into the specific position detection model. It's okay.

この場合、2つの数学モデルの各々のパラメータの調整等が容易となる。また、血管検出モデルと特定位置検出モデルが別々に構築されるので、血管の検出結果と特定位置の検出結果を共に出力する数学モデルを構築する場合に比べて、数学モデルを訓練する際の工数の削減が容易である。つまり、数学モデルを訓練する際に、眼底画像における血管を示すデータと特定位置を示すデータの両方を入力用訓練データとして用意する場合とは異なり、血管を示すデータと特定位置を示すデータの一方が用意されれば、血管検出モデルまたは特定位置検出モデルが構築される。よって、種々の状況に応じて、血管検出モデルと特定位置検出モデルの一方を先に構築することも可能である。また、血管検出モデルまたは特定位置検出モデルの一方が既に構築されている場合には、他方の数学モデルを新たに構築するのみで良い。 In this case, it becomes easy to adjust the parameters of each of the two mathematical models. In addition, since the blood vessel detection model and the specific position detection model are constructed separately, the number of man-hours required to train the mathematical model is reduced compared to building a mathematical model that outputs both blood vessel detection results and specific position detection results. It is easy to reduce In other words, when training a mathematical model, unlike the case where both data indicating blood vessels in the fundus image and data indicating a specific position are prepared as input training data, one of the data indicating blood vessels and the data indicating a specific position is prepared. Once prepared, a blood vessel detection model or a specific position detection model is constructed. Therefore, depending on various situations, it is also possible to construct either the blood vessel detection model or the specific position detection model first. Further, if either the blood vessel detection model or the specific position detection model has already been constructed, it is only necessary to newly construct the other mathematical model.

検出結果取得ステップにおいて、制御部は、機械学習アルゴリズムによって訓練された数学モデルに眼底画像の少なくとも一部を入力することで、血管の検出結果および特定位置の検出結果と共に、眼底画像に存在する視神経乳頭(以下、単に「乳頭」という場合もある)の検出結果を取得してもよい。眼底血管と乳頭の間には種々の関連がある。例えば、複数の眼底血管の各々は、乳頭から周囲に広がるので、各々の眼底血管は乳頭を通過する。一方で、血管画像における乳頭の位置では血管の接続が不明瞭なため、血管が正確に抽出され難い傾向もある。従って、血管の検出結果および特定位置の検出結果と共に、乳頭の検出結果も取得されることで、眼底血管の詳細な走行状態が、より適切に把握され易くなる。 In the detection result acquisition step, the control unit inputs at least a portion of the fundus image into a mathematical model trained by a machine learning algorithm, thereby determining the optic nerves present in the fundus image together with blood vessel detection results and specific position detection results. A detection result of a nipple (hereinafter sometimes simply referred to as "nipple") may be obtained. There are various relationships between the fundus blood vessels and the papilla. For example, each of the plurality of fundus blood vessels spreads from the papilla to the periphery, so that each fundus blood vessel passes through the papilla. On the other hand, since the connections between blood vessels are unclear at the position of the papilla in the blood vessel image, it tends to be difficult to accurately extract the blood vessels. Therefore, by acquiring the papilla detection results together with the blood vessel detection results and the specific position detection results, it becomes easier to understand the detailed running state of the fundus blood vessels more appropriately.

なお、同一の数学モデルが、血管、特定位置、および乳頭の検出結果を出力するように訓練されていてもよい。この場合、数学モデルの訓練に用いられる出力用訓練データは、入力用訓練データの眼底画像における血管を示すデータ、特定位置を示すデータ、および、乳頭の位置を示すデータを含んでいてもよい。前述したように、同一の数学モデルが用いられる場合には、各々の検出精度が向上し易い。 Note that the same mathematical model may be trained to output blood vessel, specific location, and nipple detection results. In this case, the output training data used for training the mathematical model may include data indicating blood vessels, data indicating a specific position, and data indicating the position of the papilla in the fundus image of the input training data. As described above, when the same mathematical model is used, each detection accuracy tends to improve.

また、血管および特定位置の検出結果を出力する数学モデルとは別で、乳頭の検出結果を出力する数学モデル(乳頭検出モデル)が構築されていてもよい。乳頭検出モデルは、過去に撮影された被検眼の眼底画像を入力用訓練データとし、且つ、入力用訓練データの眼底画像における乳頭の位置を示すデータを出力用訓練データとして訓練されていてもよい。前述したように、異なる数学モデルが用いられる場合には、数学モデルを訓練する際の工数の削減が容易である。 Furthermore, a mathematical model (nipple detection model) that outputs the detection results of the nipple may be constructed separately from the mathematical model that outputs the detection results of blood vessels and specific positions. The papilla detection model may be trained using a fundus image of the subject's eye taken in the past as input training data, and using data indicating the position of the papilla in the fundus image of the input training data as output training data. . As mentioned above, when different mathematical models are used, it is easy to reduce the man-hours required to train the mathematical models.

また、乳頭の情報については、数学モデルによって出力される乳頭の検出結果を取得する方法の代わりに、他の方法(例えば、画像処理によって乳頭を検出する方法、または、乳頭の領域をユーザに指定される方法等)によって取得することも可能である。 In addition, for nipple information, instead of obtaining nipple detection results output by a mathematical model, other methods (for example, detecting the nipple by image processing, or specifying the nipple area by the user) It is also possible to obtain the information by a method such as

制御部は、検出結果取得ステップにおいて取得された血管の検出結果と特定位置の検出結果に基づいて、血管トポロジー情報を生成する血管トポロジー情報生成ステップをさらに実行してもよい。血管トポロジー情報生成とは、検出された各々の血管における、分岐位置を通じて端部位置へ至るまでの枝分かれ構造の情報である。血管トポロジー情報では、各々の血管が分岐位置を通じて端部位置へ至るまでの枝分かれ構造(接続形態:トポロジー)が示されるので、血管画像のみが用いられる場合に比べて、血管の詳細な走行状態がより適切に把握される。 The control unit may further execute a blood vessel topology information generation step of generating blood vessel topology information based on the blood vessel detection result and the specific position detection result obtained in the detection result acquisition step. Blood vessel topology information generation is information on the branching structure of each detected blood vessel from the branch position to the end position. Blood vessel topology information shows the branching structure (connection form: topology) of each blood vessel from its branching position to its end position, so the detailed running state of the blood vessel can be seen in more detail than when only blood vessel images are used. better understood.

制御部は、血管トポロジー情報生成ステップにおいて、血管と特定位置の検出結果に加えて乳頭の検出結果も参照することで、血管トポロジー情報を生成してもよい。前述したように、眼底血管と乳頭の間には種々の関連がある。従って、血管の検出結果および特定位置の検出結果と共に、乳頭の検出結果も参照されることで、血管トポロジー情報がより適切に生成される。 In the blood vessel topology information generation step, the control unit may generate the blood vessel topology information by also referring to the detection results of the papilla in addition to the detection results of the blood vessel and the specific position. As mentioned above, there are various relationships between the fundus blood vessels and the papilla. Therefore, the blood vessel topology information is generated more appropriately by referring to the papilla detection results along with the blood vessel detection results and the specific position detection results.

前述したように、複数の眼底血管の各々は、乳頭から周囲に広がる。従って、例えば、検出された乳頭の位置を始点として血管トポロジー情報が生成されることで、乳頭から周囲へ広がる血管の枝分かれ構造を示す血管トポロジー情報が適切に生成され易くなる。また、血管画像における乳頭の位置では、血管の接続が不明瞭なため、血管が正確に抽出され難い傾向がある。従って、例えば、検出された乳頭の領域内で動脈同士および静脈同士が繋がっているとの前提で処理が行われることで、より適切に血管トポロジー情報が生成され易くなる。 As mentioned above, each of the plurality of fundus blood vessels extends from the papilla to the periphery. Therefore, for example, by generating blood vessel topology information starting from the position of the detected papilla, it becomes easier to appropriately generate blood vessel topology information indicating the branching structure of blood vessels extending from the papilla to the surroundings. Furthermore, since the connections between blood vessels are unclear at the position of the papilla in the blood vessel image, it tends to be difficult to accurately extract the blood vessels. Therefore, for example, by performing processing on the premise that arteries and veins are connected within the region of the detected papilla, it becomes easier to generate blood vessel topology information more appropriately.

血管と特定位置の検出結果に基づいて血管トポロジー情報を生成するための具体的な方法は、適宜選択できる。例えば、制御部は、血管と特定位置の検出結果をグラフ理論に従って処理することで、血管トポロジー情報を生成してもよい。この場合、制御部は、まず、検出された動脈と静脈の一方を処理対象とし、処理対象の血管について検出された分岐位置および端部位置の全てを頂点とする完全グラフ(つまり、任意の2頂点間の全てに辺があるグラフ)を構築する。次いで、2頂点間の、血管を通じた最短経路長を辺の重みとして最小全域木を探索する。全域木とは、グラフ上の全ての頂点を含む、閉路(ループ)を持たない部分グラフである。最小全域木とは、全域木の中で、辺の重みの総和が最小のものである。ここで、制御部は、プリム法等に基づいて最小全域木を探索してもよい。この場合、制御部は、(1)始点に最も近い頂点を頂点集合に追加し、(2)追加した頂点集合に含まれる頂点から最も近い頂点を探索し、(3)探索した頂点を頂点集合に追加する。制御部は、全ての頂点が頂点集合に含まれるまで、(2)および(3)の処理を繰り返すことで、最小全域木を探索する。なお、制御部は、検出結果取得ステップにおいて取得された乳頭の位置を始点として上記の処理を行ってもよい。この場合、乳頭から周囲へ広がる血管の形状に応じて処理が進むので、探索された最小全域木がそのまま血管トポロジー情報となる。以上の処理が、動脈および静脈の各々について実行されることで、血管トポロジー情報が適切に生成される。 A specific method for generating blood vessel topology information based on the detection results of blood vessels and specific positions can be selected as appropriate. For example, the control unit may generate blood vessel topology information by processing the detection results of blood vessels and specific positions according to graph theory. In this case, the control unit first processes one of the detected arteries and veins, and creates a complete graph (that is, any two Construct a graph with edges between all vertices. Next, a minimum spanning tree is searched using the shortest path length through the blood vessel between the two vertices as edge weights. A spanning tree is a subgraph that includes all vertices on the graph and has no cycles (loops). A minimum spanning tree is a spanning tree with the smallest sum of edge weights. Here, the control unit may search for the minimum spanning tree based on Prim's method or the like. In this case, the control unit (1) adds the vertex closest to the starting point to the vertex set, (2) searches for the closest vertex from the vertex included in the added vertex set, and (3) adds the searched vertex to the vertex set. Add to. The control unit searches for the minimum spanning tree by repeating the processes (2) and (3) until all vertices are included in the vertex set. Note that the control unit may perform the above processing using the position of the nipple acquired in the detection result acquisition step as a starting point. In this case, the process proceeds according to the shape of the blood vessel extending from the papilla to the surrounding area, so the searched minimum spanning tree directly serves as blood vessel topology information. By performing the above processing for each artery and vein, blood vessel topology information is appropriately generated.

制御部は、血管トポロジー情報を利用して、血管の走行状態に関する更なる解析を行ってもよい。例えば、制御部は、血管トポロジー情報から得られる乳頭からの血管の分岐位置の数に基づいて、血管の領域を特定し、特定した領域の血管に対して種々の解析(例えば、血管密度の解析、および、血管の蛇行度の解析(例えば定量化)等の少なくともいずれか)を行ってもよい。一例として、制御部は、乳頭からの分岐位置の数がN個以上の領域を、毛細血管領域として特定し、特定した毛細血管領域についての血管の蛇行度の解析を行ってもよい。毛細血管領域における血管の蛇行度は、糖尿病性網膜症等の診断および研究等に有用である。また、制御部は、乳頭からの分岐位置の数がN個未満の領域を、大血管の領域として特定し、特定した大血管の領域についての血管の解析を行ってもよい。なお、制御部は、血管トポロジー情報に基づいて特定した血管の領域(例えば、毛細血管領域等)を、前述した血管画像でなく、実際に撮影された眼底画像(例えば、眼底血管が表れるOCTアンジオ画像等)に当てはめたうえで、実際に撮影された眼底画像における特定の血管の領域について種々の解析を行ってもよい。また、血管トポロジー情報を、網膜静脈分枝閉塞症(BRVO)の診断等に利用することも可能である。 The control unit may perform further analysis regarding the running state of the blood vessel using the blood vessel topology information. For example, the control unit identifies the region of the blood vessel based on the number of branch positions of the blood vessel from the papilla obtained from the blood vessel topology information, and performs various analyzes (for example, analysis of blood vessel density) on the blood vessel in the identified region. , analysis (for example, quantification) of the degree of tortuosity of the blood vessel, etc.). As an example, the control unit may specify a region where the number of branch positions from the papilla is N or more as a capillary region, and may analyze the degree of tortuosity of the blood vessel in the specified capillary region. The degree of tortuosity of blood vessels in the capillary region is useful for diagnosis and research of diabetic retinopathy and the like. Further, the control unit may specify a region where the number of branching positions from the papilla is less than N as a region of a large blood vessel, and perform blood vessel analysis on the specified region of the large blood vessel. Note that the control unit determines the blood vessel region (e.g., capillary region, etc.) identified based on the blood vessel topology information using an actually photographed fundus image (e.g., an OCT angiograph in which the fundus blood vessels appear) instead of using the aforementioned blood vessel image. image, etc.), and then various analyzes may be performed on a specific blood vessel region in an actually photographed fundus image. Further, the blood vessel topology information can also be used for diagnosis of branch retinal vein occlusion (BRVO), etc.

<実施形態>
(装置構成)
以下、本開示における典型的な実施形態の1つについて、図面を参照して説明する。図1に示すように、本実施形態では、数学モデル構築装置101、眼底画像処理装置1、および眼底画像撮影装置10A,10Bが用いられる。数学モデル構築装置101は、機械学習アルゴリズムによって数学モデルを訓練させることで、数学モデルを構築する。構築された数学モデルは、入力された眼底画像についての検出結果(本実施形態では、眼底画像に存在する血管の検出結果、血管の特定位置の検出結果、および、乳頭の検出結果)を出力する。眼底画像処理装置1は、数学モデルが出力した結果を利用して各種処理を実行する。眼底画像撮影装置10A,10Bは、被検眼の眼底画像(本実施形態では、眼底血管が写る二次元正面画像)を撮影する。
<Embodiment>
(Device configuration)
One typical embodiment of the present disclosure will be described below with reference to the drawings. As shown in FIG. 1, in this embodiment, a mathematical model construction device 101, a fundus image processing device 1, and fundus image photographing devices 10A and 10B are used. The mathematical model construction device 101 constructs a mathematical model by training the mathematical model using a machine learning algorithm. The constructed mathematical model outputs detection results for the input fundus image (in this embodiment, detection results of blood vessels present in the fundus image, detection results of specific positions of blood vessels, and detection results of papilla). . The fundus image processing device 1 executes various processes using the results output by the mathematical model. The fundus image capturing devices 10A and 10B capture a fundus image (in this embodiment, a two-dimensional front image showing fundus blood vessels) of the eye to be examined.

一例として、本実施形態の数学モデル構築装置101にはパーソナルコンピュータ(以下、「PC」という)が用いられる。詳細は後述するが、数学モデル構築装置101は、眼底画像撮影装置10Aから取得した被検眼の眼底画像(以下、「訓練用眼底画像」という)のデータと、訓練用眼底画像が撮影された被検眼の部位(本実施形態では、血管、血管における特定位置、および乳頭)を示すデータとを利用して、数学モデルを訓練させる。その結果、数学モデルが構築される。ただし、数学モデル構築装置101として機能できるデバイスは、PCに限定されない。例えば、眼底画像撮影装置10Aが数学モデル構築装置101として機能してもよい。また、複数のデバイスの制御部(例えば、PCのCPUと、眼底画像撮影装置10AのCPU)が、協働して数学モデルを構築してもよい。 As an example, a personal computer (hereinafter referred to as "PC") is used as the mathematical model construction device 101 of this embodiment. Although the details will be described later, the mathematical model construction device 101 uses data of a fundus image of the subject's eye (hereinafter referred to as a "training fundus image") obtained from the fundus image capturing device 10A and the subject on which the training fundus image was captured. A mathematical model is trained using data indicating the optometric site (in this embodiment, a blood vessel, a specific position in the blood vessel, and a papilla). As a result, a mathematical model is constructed. However, a device that can function as the mathematical model construction device 101 is not limited to a PC. For example, the fundus image capturing device 10A may function as the mathematical model construction device 101. Moreover, the control units of a plurality of devices (for example, the CPU of the PC and the CPU of the fundus image capturing apparatus 10A) may cooperate to construct the mathematical model.

また、本実施形態の眼底画像処理装置1にはPCが用いられる。しかし、眼底画像処理装置1として機能できるデバイスも、PCに限定されない。例えば、眼底画像撮影装置10Bまたはサーバ等が、眼底画像処理装置1として機能してもよい。眼底画像撮影装置10Bが眼底画像処理装置1として機能する場合、眼底画像撮影装置10Bは、眼底画像を撮影しつつ、撮影した眼底画像を処理することができる。また、タブレット端末またはスマートフォン等の携帯端末が、眼底画像処理装置1として機能してもよい。複数のデバイスの制御部(例えば、PCのCPUと、眼底画像撮影装置10BのCPU)が、協働して各種処理を行ってもよい。 Further, a PC is used as the fundus image processing device 1 of this embodiment. However, the device that can function as the fundus image processing device 1 is not limited to a PC either. For example, the fundus image capturing device 10B, a server, or the like may function as the fundus image processing device 1. When the fundus image capturing device 10B functions as the fundus image processing device 1, the fundus image capturing device 10B can process the captured fundus image while capturing the fundus image. Further, a mobile terminal such as a tablet terminal or a smartphone may function as the fundus image processing device 1. The control units of a plurality of devices (for example, the CPU of the PC and the CPU of the fundus image capturing apparatus 10B) may cooperate to perform various processes.

また、本実施形態では、各種処理を行うコントローラの一例としてCPUが用いられる場合について例示する。しかし、各種デバイスの少なくとも一部に、CPU以外のコントローラが用いられてもよいことは言うまでもない。例えば、コントローラとしてGPUを採用することで、処理の高速化を図ってもよい。 Further, in this embodiment, a case will be described in which a CPU is used as an example of a controller that performs various processes. However, it goes without saying that a controller other than the CPU may be used for at least some of the various devices. For example, a GPU may be used as the controller to speed up the processing.

数学モデル構築装置101について説明する。数学モデル構築装置101は、例えば、眼底画像処理装置1または眼底画像処理プログラムをユーザに提供するメーカー等に配置される。数学モデル構築装置101は、各種制御処理を行う制御ユニット102と、通信I/F105を備える。制御ユニット102は、制御を司るコントローラであるCPU103と、プログラムおよびデータ等を記憶することが可能な記憶装置104を備える。記憶装置104には、後述する数学モデル構築処理(図3参照)を実行するための数学モデル構築プログラムが記憶されている。また、通信I/F105は、数学モデル構築装置101を他のデバイス(例えば、眼底画像撮影装置10Aおよび眼底画像処理装置1等)と接続する。 The mathematical model construction device 101 will be explained. The mathematical model construction device 101 is placed, for example, at a manufacturer that provides the fundus image processing device 1 or the fundus image processing program to users. The mathematical model construction device 101 includes a control unit 102 that performs various control processes, and a communication I/F 105. The control unit 102 includes a CPU 103 which is a controller in charge of control, and a storage device 104 capable of storing programs, data, and the like. The storage device 104 stores a mathematical model building program for executing a mathematical model building process (see FIG. 3), which will be described later. Further, the communication I/F 105 connects the mathematical model construction device 101 to other devices (for example, the fundus image capturing device 10A and the fundus image processing device 1, etc.).

数学モデル構築装置101は、操作部107および表示装置108に接続されている。操作部107は、ユーザが各種指示を数学モデル構築装置101に入力するために、ユーザによって操作される。操作部107には、例えば、キーボード、マウス、タッチパネル等の少なくともいずれかを使用できる。なお、操作部107と共に、または操作部107に代えて、各種指示を入力するためのマイク等が使用されてもよい。表示装置108は、各種画像を表示する。表示装置108には、画像を表示可能な種々のデバイス(例えば、モニタ、ディスプレイ、プロジェクタ等の少なくともいずれか)を使用できる。なお、本開示における「画像」には、静止画像も動画像も共に含まれる。 The mathematical model construction device 101 is connected to an operation unit 107 and a display device 108. The operation unit 107 is operated by the user in order for the user to input various instructions to the mathematical model construction device 101. For the operation unit 107, for example, at least one of a keyboard, a mouse, a touch panel, etc. can be used. Note that a microphone or the like for inputting various instructions may be used together with or in place of the operation unit 107. The display device 108 displays various images. As the display device 108, various devices capable of displaying images (for example, at least one of a monitor, a display, a projector, etc.) can be used. Note that "image" in the present disclosure includes both still images and moving images.

数学モデル構築装置101は、眼底画像撮影装置10Aから眼底画像のデータ(以下、単に「眼底画像」という場合もある)を取得することができる。数学モデル構築装置101は、例えば、有線通信、無線通信、着脱可能な記憶媒体(例えばUSBメモリ)等の少なくともいずれかによって、眼底画像撮影装置10Aから眼底画像のデータを取得してもよい。 The mathematical model construction device 101 can acquire fundus image data (hereinafter sometimes simply referred to as “fundus image”) from the fundus image capturing device 10A. The mathematical model construction device 101 may acquire fundus image data from the fundus image capturing device 10A, for example, by wired communication, wireless communication, a removable storage medium (eg, USB memory), or the like.

眼底画像処理装置1について説明する。眼底画像処理装置1は、例えば、被検者の診断または検査等を行う施設(例えば、病院または健康診断施設等)に配置される。眼底画像処理装置1は、各種制御処理を行う制御ユニット2と、通信I/F5を備える。制御ユニット2は、制御を司るコントローラであるCPU3と、プログラムおよびデータ等を記憶することが可能な記憶装置4を備える。記憶装置4には、後述する眼底画像処理(図4参照)を実行するための眼底画像処理プログラムが記憶されている。眼底画像処理プログラムには、数学モデル構築装置101によって構築された数学モデルを実現させるプログラムが含まれる。通信I/F5は、眼底画像処理装置1を他のデバイス(例えば、眼底画像撮影装置10Bおよび数学モデル構築装置101等)と接続する。 The fundus image processing device 1 will be explained. The fundus image processing device 1 is placed, for example, in a facility (for example, a hospital or a medical examination facility) that performs diagnosis or examination of subjects. The fundus image processing device 1 includes a control unit 2 that performs various control processes, and a communication I/F 5. The control unit 2 includes a CPU 3, which is a controller that controls, and a storage device 4 that can store programs, data, and the like. The storage device 4 stores a fundus image processing program for executing fundus image processing (see FIG. 4), which will be described later. The fundus image processing program includes a program that realizes the mathematical model constructed by the mathematical model construction device 101. The communication I/F 5 connects the fundus image processing device 1 with other devices (for example, the fundus image photographing device 10B and the mathematical model construction device 101).

眼底画像処理装置1は、操作部7および表示装置(表示部)8に接続されている。操作部7および表示装置8には、前述した操作部107および表示装置108と同様に、種々のデバイスを使用することができる。 The fundus image processing device 1 is connected to an operation section 7 and a display device (display section) 8. Various devices can be used for the operation section 7 and the display device 8, similar to the operation section 107 and the display device 108 described above.

眼底画像処理装置1は、眼底画像撮影装置10Bから眼底画像を取得することができる。眼底画像処理装置1は、例えば、有線通信、無線通信、着脱可能な記憶媒体(例えばUSBメモリ)等の少なくともいずれかによって、眼底画像撮影装置10Bから眼底画像を取得してもよい。また、眼底画像処理装置1は、数学モデル構築装置101によって構築された数学モデルを実現させるプログラム等を、通信等を介して取得してもよい。 The fundus image processing device 1 can acquire a fundus image from the fundus image capturing device 10B. The fundus image processing device 1 may acquire the fundus image from the fundus image capturing device 10B, for example, by wired communication, wireless communication, a removable storage medium (eg, USB memory), or the like. Further, the fundus image processing device 1 may acquire a program or the like that realizes the mathematical model constructed by the mathematical model construction device 101 via communication or the like.

眼底画像撮影装置10(10A,10B)には、被検眼の眼底画像を撮影する種々の装置を用いることができる。一例として、本実施形態で使用される眼底画像撮影装置10は、可視光を用いて眼底のカラー画像(カラーの二次元正面画像)を撮影することが可能な眼底カメラである。従って、後述する動静脈の検出処理が、カラーの眼底画像に基づいて適切に行われる。しかし、眼底カメラ以外の眼底画像撮影装置(例えば、OCT装置、レーザ走査型検眼鏡(SLO)等の少なくともいずれか)が用いられてもよい。なお、詳細は後述するが、同一の被検眼について異なる撮影手法で(例えば、異なる装置によって)撮影された複数の眼科画像が、眼底画像処理装置1によって処理されてもよい。 As the fundus image photographing device 10 (10A, 10B), various devices that take a fundus image of the eye to be examined can be used. As an example, the fundus image photographing device 10 used in this embodiment is a fundus camera capable of photographing a color image (color two-dimensional front image) of the fundus using visible light. Therefore, arteriovenous detection processing, which will be described later, is appropriately performed based on the color fundus image. However, a fundus image capturing device other than a fundus camera (for example, at least one of an OCT device, a laser scanning ophthalmoscope (SLO), etc.) may be used. Although details will be described later, a plurality of ophthalmological images taken of the same subject's eye using different imaging methods (for example, by different devices) may be processed by the fundus image processing device 1.

本実施形態では、数学モデル構築装置101に眼底画像を提供する眼底画像撮影装置10Aと、眼底画像処理装置1に眼底画像を提供する眼底画像撮影装置10Bが使用される場合について説明する。しかし、使用される眼底画像撮影装置の数は2つに限定されない。例えば、数学モデル構築装置101および眼底画像処理装置1は、複数の眼底画像撮影装置から眼底画像を取得してもよい。また、数学モデル構築装置101および眼底画像処理装置1は、共通する1つの眼底画像撮影装置から眼底画像を取得してもよい。 In this embodiment, a case will be described in which a fundus image capturing device 10A that provides fundus images to the mathematical model construction device 101 and a fundus image capturing device 10B that provides fundus images to the fundus image processing device 1 are used. However, the number of fundus image capturing devices used is not limited to two. For example, the mathematical model construction device 101 and the fundus image processing device 1 may acquire fundus images from a plurality of fundus image capturing devices. Furthermore, the mathematical model construction device 101 and the fundus image processing device 1 may acquire fundus images from one common fundus image capturing device.

(数学モデル)
図2を参照して、第1実施形態で用いられる数学モデル20について説明する。第1実施形態の眼底画像処理装置1は、機械学習アルゴリズムによって訓練された1つの数学モデル20に、眼底画像撮影装置10Bによって実際に撮影された眼底画像30を入力することで、数学モデル20が出力する血管の検出結果、特定位置の検出結果、および、乳頭の検出結果を取得する。
(mathematical model)
The mathematical model 20 used in the first embodiment will be described with reference to FIG. 2. The fundus image processing device 1 of the first embodiment inputs a fundus image 30 actually photographed by the fundus image photographing device 10B into one mathematical model 20 trained by a machine learning algorithm, so that the mathematical model 20 is Obtain the blood vessel detection results, specific position detection results, and nipple detection results to be output.

血管の検出結果とは、数学モデル20に入力された眼底画像30に存在する(つまり、眼底画像30に写る眼底組織に存在する)血管の検出結果である。一例として、本実施形態の数学モデル20は、眼底画像30に写る眼底組織から眼底血管が抽出された血管画像41A,41B(詳細には、血管である確率の二次元分布を示す血管確率マップ)を、血管の検出結果として出力するように訓練されている。血管画像41A,41Bによると、眼底組織における血管の状態が適切に把握される。本実施形態の数学モデル20は、入力された眼底画像30に写る眼底組織の動脈および静脈の各々(以下、「動静脈」という場合もある)の検出結果を出力する。従って、動静脈が分類されていない血管の検出結果が得られる場合に比べて、眼底血管の走行状態の把握がさらに容易になる。詳細には、本実施形態の数学モデル20は、入力された眼底画像30に写る眼底組織の動脈の血管画像41Aと、静脈の血管画像41Vを別々に出力する。よって、動脈および静脈の各々の走行状態がさらに容易に把握される。なお、本実施形態の数学モデル20は、入力された眼底画像30の各画素を、動脈、静脈、およびそれ以外の組織の3つのいずれかに分類することで、動脈血管画像41Aと静脈血管画像41Vを出力する。従って、血管を検出した後で、検出した血管を動脈と静脈に分類する場合に比べて、簡易な処理で適切に動静脈が検出される。 The blood vessel detection result is the detection result of blood vessels present in the fundus image 30 input to the mathematical model 20 (that is, present in the fundus tissue reflected in the fundus image 30). As an example, the mathematical model 20 of the present embodiment includes blood vessel images 41A and 41B in which fundus blood vessels are extracted from the fundus tissue shown in the fundus image 30 (specifically, a blood vessel probability map showing a two-dimensional distribution of the probability of being a blood vessel). is trained to output as blood vessel detection results. According to the blood vessel images 41A and 41B, the state of blood vessels in the fundus tissue can be appropriately understood. The mathematical model 20 of this embodiment outputs detection results for each of the arteries and veins (hereinafter also referred to as "arteries and veins") of the fundus tissue shown in the input fundus image 30. Therefore, it becomes easier to grasp the running state of the fundus blood vessels compared to the case where detection results of blood vessels whose arteries and veins are not classified are obtained. Specifically, the mathematical model 20 of the present embodiment separately outputs an artery blood vessel image 41A of the fundus tissue and a vein blood vessel image 41V that appear in the input fundus image 30. Therefore, the running state of each artery and vein can be more easily grasped. Note that the mathematical model 20 of this embodiment classifies each pixel of the input fundus image 30 into one of three types: arteries, veins, and other tissues, thereby dividing the arterial blood vessel image 41A and the venous blood vessel image 41A. Outputs 41V. Therefore, compared to the case where the detected blood vessels are classified into arteries and veins after the blood vessels are detected, arteries and veins can be detected appropriately with simple processing.

特定位置の検出結果とは、数学モデル20に入力された眼底画像30に存在する(つまり、眼底画像30に写る眼底組織に存在する)血管の特定の位置の検出結果である。本実施形態では、特定位置には、血管の分岐位置と端部位置が含まれる。前述した血管画像41A,41Vでは、実際には繋がっている眼底血管の一部が検出されずに、血管が途切れてしまった状態で検出されてしまう場合等もある。従って、血管画像41A,41Vのみでは、血管の詳細な走行状態を解析することは難しい。これに対し、本実施形態の数学モデル20は、血管画像41A,41Vに加えて、血管の分岐位置と端部位置を含む特定位置の検出結果を出力する。従って、血管画像41A,41Vのみでは解析が難しい血管の詳細な走行状態が、より適切に把握され易くなる。 The specific position detection result is a detection result of a specific position of a blood vessel present in the fundus image 30 input to the mathematical model 20 (that is, present in the fundus tissue reflected in the fundus image 30). In this embodiment, the specific position includes a branch position and an end position of a blood vessel. In the blood vessel images 41A and 41V described above, there are cases where a part of the fundus blood vessels that are actually connected is not detected, and the blood vessels are detected in a state where they are interrupted. Therefore, it is difficult to analyze the detailed running state of blood vessels using only the blood vessel images 41A and 41V. In contrast, the mathematical model 20 of this embodiment outputs detection results of specific positions including the branch positions and end positions of blood vessels in addition to the blood vessel images 41A and 41V. Therefore, the detailed running state of the blood vessel, which is difficult to analyze using only the blood vessel images 41A and 41V, can be more appropriately understood.

また、本実施形態では、血管の分岐位置と端部位置に加えて、眼底を正面から見た場合の血管の交差位置も特定位置に含まれる。従って、血管の交差位置も考慮されることで、血管の走行状態がより正確に把握され易くなる。 Further, in this embodiment, in addition to the branching position and end position of the blood vessel, the specific position also includes the intersection position of the blood vessel when the fundus of the eye is viewed from the front. Therefore, by considering the crossing positions of the blood vessels, it becomes easier to understand the running state of the blood vessels more accurately.

なお、本実施形態の数学モデル20は、入力された眼底画像30に写る眼底組織の動脈の分岐位置・端部位置の二次元分布、静脈の分岐位置・端部位置の二次元分布、および、血管の交差位置の二次元分布の各々を分類して検出し、これらを纏めて特定位置情報42として出力する。従って、特定位置情報42によると、検出された各々の位置の属性が適切に把握される。なお、本実施形態では、特定位置として、血管の分岐点、端点、交差点が検出される。しかし、点の代わりに領域が特定位置として検出されてもよい。また、図2に示す例では、動脈の分岐位置・端部位置が丸の記号、静脈の分岐位置・端部位置が四角の記号、血管の交差位置が×の記号で示されている。 Note that the mathematical model 20 of the present embodiment is based on a two-dimensional distribution of branch positions and end positions of arteries in the fundus tissue reflected in the input fundus image 30, a two-dimensional distribution of branch positions and end positions of veins, and Each two-dimensional distribution of blood vessel intersection positions is classified and detected, and these are collectively output as specific position information 42. Therefore, according to the specific location information 42, the attributes of each detected location can be appropriately grasped. Note that in this embodiment, branch points, end points, and intersections of blood vessels are detected as specific positions. However, an area may be detected as a specific position instead of a point. Further, in the example shown in FIG. 2, the branching positions and end positions of arteries are shown as circles, the branching positions and end positions of veins are shown as square symbols, and the crossing positions of blood vessels are shown as x symbols.

乳頭の検出結果とは、数学モデル20に入力された眼底画像30に存在する(つまり、眼底画像30に写る眼底組織に存在する)乳頭の検出結果である。眼底血管と乳頭の間には種々の関連がある。例えば、複数の眼底血管の各々は、乳頭から周囲に広がるので、各々の眼底血管は乳頭を通過する。一方で、血管画像における乳頭の位置では血管が抽出され難い傾向もある。従って、血管の検出結果および特定位置の検出結果と共に、乳頭の検出結果も取得されることで、眼底血管の詳細な走行状態が、より適切に把握され易くなる。本実施形態の数学モデル20は、乳頭が存在する二次元の領域とその位置を示すマップ(乳頭マップ)である乳頭情報43を、乳頭の検出結果として出力するように訓練されている。 The papilla detection result is a detection result of a papilla present in the fundus image 30 input to the mathematical model 20 (that is, present in the fundus tissue reflected in the fundus image 30). There are various relationships between the fundus blood vessels and the papilla. For example, each of the plurality of fundus blood vessels spreads from the papilla to the periphery, so that each fundus blood vessel passes through the papilla. On the other hand, there is also a tendency for blood vessels to be difficult to extract at the position of the papilla in the blood vessel image. Therefore, by acquiring the papilla detection results together with the blood vessel detection results and the specific position detection results, it becomes easier to understand the detailed running state of the fundus blood vessels more appropriately. The mathematical model 20 of this embodiment is trained to output nipple information 43, which is a map (nipple map) indicating a two-dimensional region where a nipple exists and its position, as a nipple detection result.

第1実施形態の数学モデル20は、1つの眼底画像30が入力されることで、血管画像41A,41V、特定位置情報42、および乳頭情報43を出力するように訓練されている。この場合、関連する複数のタスクを同時に数学モデル20に学習させることになるので、複数のタスクに共通の要因が発生し、各々のタスクの精度が向上し易い。つまり、数学モデル20は、血管の検出、特定位置の検出、および乳頭の検出に、共通の情報を利用することができるので、各々の検出精度が向上し易い。 The mathematical model 20 of the first embodiment is trained to output blood vessel images 41A, 41V, specific position information 42, and nipple information 43 when one fundus image 30 is input. In this case, since the mathematical model 20 is made to learn a plurality of related tasks at the same time, common factors occur in the plurality of tasks, and the accuracy of each task is likely to be improved. In other words, since the mathematical model 20 can use common information for blood vessel detection, specific position detection, and nipple detection, the accuracy of each detection can be easily improved.

(数学モデル構築処理)
図3を参照して、数学モデル構築装置101が実行する数学モデル構築処理について説明する。数学モデル構築処理は、記憶装置104に記憶された数学モデル構築プログラムに従って、CPU103によって実行される。
(mathematical model construction process)
With reference to FIG. 3, the mathematical model construction process executed by the mathematical model construction device 101 will be described. The mathematical model construction process is executed by the CPU 103 according to the mathematical model construction program stored in the storage device 104.

数学モデル構築処理では、訓練用データセットによって数学モデルが訓練されることで、数学モデルが構築される。訓練用データセットには、入力側のデータ(入力用訓練データ)と出力側のデータ(出力用訓練データ)が含まれる。 In the mathematical model construction process, a mathematical model is constructed by training the mathematical model using a training data set. The training data set includes input side data (input training data) and output side data (output training data).

図3に示すように、CPU103は、眼底画像撮影装置10Aによって撮影された眼底画像(本実施形態では、図2に示す眼底画像30と同様の二次元正面画像)のデータを、入力用訓練データとして取得する(S1)。次いで、CPU103は、S1で取得された眼底画像に写る眼底組織の血管(本実施形態では、動脈と静脈の各々)を示すデータ、血管の特定位置(本実施形態では、動静脈の分岐位置・端点位置、および交差位置)を示すデータ、および、乳頭(本実施形態では、乳頭の領域および位置)を示すデータを、出力用訓練データとして取得する(S2)。例えば、作業者が入力用訓練データ(眼底画像)における血管、特定位置、および乳頭を見ながら操作部107を操作することで、数学モデル構築装置101に入力された操作指示に応じて出力用訓練データが生成されてもよい。 As shown in FIG. 3, the CPU 103 converts data of a fundus image (in this embodiment, a two-dimensional frontal image similar to the fundus image 30 shown in FIG. 2) captured by the fundus image photographing device 10A into input training data. (S1). Next, the CPU 103 generates data indicating the blood vessels of the fundus tissue (in this embodiment, arteries and veins) and specific positions of blood vessels (in this embodiment, arteriovenous branch positions and The data indicating the end point position and the intersection position) and the data indicating the nipple (in this embodiment, the area and position of the nipple) are acquired as training data for output (S2). For example, by operating the operation unit 107 while viewing blood vessels, specific positions, and papillae in the input training data (fundus image), an operator can perform output training according to operation instructions input to the mathematical model construction device 101. Data may be generated.

次いで、CPU103は、機械学習アルゴリズムによって、訓練データセットを用いた数学モデルの訓練を実行する(S3)。機械学習アルゴリズムとしては、例えば、ニューラルネットワーク、ランダムフォレスト、ブースティング、サポートベクターマシン(SVM)等が一般的に知られている。 Next, the CPU 103 executes training of a mathematical model using the training data set using a machine learning algorithm (S3). As machine learning algorithms, for example, neural networks, random forests, boosting, support vector machines (SVM), etc. are generally known.

ニューラルネットワークは、生物の神経細胞ネットワークの挙動を模倣する手法である。ニューラルネットワークには、例えば、フィードフォワード(順伝播型)ニューラルネットワーク、RBFネットワーク(放射基底関数)、スパイキングニューラルネットワーク、畳み込みニューラルネットワーク、再帰型ニューラルネットワーク(リカレントニューラルネット、フィードバックニューラルネット等)、確率的ニューラルネット(ボルツマンマシン、ベイシアンネットワーク等)等がある。 Neural networks are a method that imitates the behavior of biological nerve cell networks. Neural networks include, for example, feedforward neural networks, RBF networks (radial basis functions), spiking neural networks, convolutional neural networks, recurrent neural networks (recurrent neural networks, feedback neural networks, etc.), and stochastic neural networks. There are various types of neural networks (Boltzmann machines, Bassian networks, etc.).

ランダムフォレストは、ランダムサンプリングされた訓練データに基づいて学習を行って、多数の決定木を生成する方法である。ランダムフォレストを用いる場合、予め識別器として学習しておいた複数の決定木の分岐を辿り、各決定木から得られる結果の平均(あるいは多数決)を取る。 Random forest is a method of generating a large number of decision trees by performing learning based on randomly sampled training data. When using random forest, branches of multiple decision trees trained in advance as a classifier are followed, and the average (or majority vote) of the results obtained from each decision tree is taken.

ブースティングは、複数の弱識別器を組み合わせることで強識別器を生成する手法である。単純で弱い識別器を逐次的に学習させることで、強識別器を構築する。 Boosting is a method of generating a strong classifier by combining multiple weak classifiers. A strong classifier is constructed by sequentially training simple and weak classifiers.

SVMは、線形入力素子を利用して2クラスのパターン識別器を構成する手法である。SVMは、例えば、訓練データから、各データ点との距離が最大となるマージン最大化超平面を求めるという基準(超平面分離定理)で、線形入力素子のパラメータを学習する。 SVM is a method of constructing a two-class pattern discriminator using linear input elements. For example, the SVM learns the parameters of a linear input element based on the criterion (hyperplane separation theorem) of finding a margin-maximizing hyperplane that maximizes the distance to each data point from training data.

数学モデルは、例えば、入力データ(本実施形態では、入力用訓練データと同様の二次元断層画像のデータ)と、出力データ(本実施形態では、血管の検出結果のデータ、特定位置の検出結果のデータ、および乳頭の検出結果のデータ)の関係を予測するためのデータ構造を指す。数学モデルは、訓練データセットを用いて訓練されることで構築される。前述したように、訓練データセットは、入力用訓練データと出力用訓練データのセットである。例えば、訓練によって、各入力と出力の相関データ(例えば、重み)が更新される。 The mathematical model includes, for example, input data (in this embodiment, two-dimensional tomographic image data similar to the input training data) and output data (in this embodiment, data of blood vessel detection results, detection results of specific positions). refers to the data structure for predicting the relationship between A mathematical model is constructed by being trained using a training dataset. As described above, the training data set is a set of input training data and output training data. For example, training updates correlation data (eg, weights) between each input and output.

本実施形態では、機械学習アルゴリズムとして多層型のニューラルネットワークが用いられている。ニューラルネットワークは、データを入力するための入力層と、予測したい解析結果のデータを生成するための出力層と、入力層と出力層の間の1つ以上の隠れ層を含む。各層には、複数のノード(ユニットとも言われる)が配置される。詳細には、本実施形態では、多層型ニューラルネットワークの一種である畳み込みニューラルネットワーク(CNN)が用いられている。 In this embodiment, a multilayer neural network is used as a machine learning algorithm. A neural network includes an input layer for inputting data, an output layer for generating data of an analysis result desired to be predicted, and one or more hidden layers between the input layer and the output layer. A plurality of nodes (also called units) are arranged in each layer. Specifically, in this embodiment, a convolutional neural network (CNN), which is a type of multilayer neural network, is used.

なお、他の機械学習アルゴリズムが用いられてもよい。例えば、競合する2つのニューラルネットワークを利用する敵対的生成ネットワーク(Generative adversarial networks:GAN)が、機械学習アルゴリズムとして採用されてもよい。 Note that other machine learning algorithms may be used. For example, generative adversarial networks (GAN), which utilize two competing neural networks, may be employed as the machine learning algorithm.

数学モデルの構築が完了するまで(S4:NO)、S1~S3の処理が繰り返される。数学モデルの構築が完了すると(S4:YES)、数学モデル構築処理は終了する。本実施形態では、構築された数学モデルを実現させるプログラムおよびデータは、眼底画像処理装置1に組み込まれる。 The processes of S1 to S3 are repeated until construction of the mathematical model is completed (S4: NO). When construction of the mathematical model is completed (S4: YES), the mathematical model construction process ends. In this embodiment, a program and data for realizing the constructed mathematical model are incorporated into the fundus image processing device 1.

(眼底画像処理)
図4から図8を参照して、本実施形態の眼底画像処理装置1が実行する眼底画像処理について説明する。眼底画像処理は、記憶装置4に記憶された眼底画像処理プログラムに従って、眼底画像処理装置1のCPU3によって実行される。
(fundus image processing)
Referring to FIGS. 4 to 8, fundus image processing performed by the fundus image processing apparatus 1 of this embodiment will be described. Fundus image processing is executed by the CPU 3 of the fundus image processing device 1 according to a fundus image processing program stored in the storage device 4.

まず、CPU3は、眼底画像撮影装置10Bによって撮影された、被検眼の眼底の血管を含む眼底画像30(本実施形態では、カラーの二次元正面画像)を取得する(S1)。図2に示すように、S11で取得される眼底画像30には、被検眼の眼底組織に含まれる血管(動脈および静脈)と、乳頭が写り込んでいる。 First, the CPU 3 acquires a fundus image 30 (in this embodiment, a color two-dimensional front image) including blood vessels in the fundus of the eye to be examined, which is captured by the fundus image capturing device 10B (S1). As shown in FIG. 2, the fundus image 30 acquired in S11 includes blood vessels (arteries and veins) included in the fundus tissue of the subject's eye and a papilla.

次いで、CPU3は、機械学習アルゴリズムによって訓練された数学モデル20に、S1で取得された眼底画像30の少なくとも一部(本実施形態では眼底画像30の全体)を入力することで、数学モデル20によって出力される血管の検出結果、特定位置の検出結果、および乳頭の検出結果を取得する(S12)。図2に示すように、本実施形態では、血管の検出結果として動脈血管画像41Aおよび静脈血管画像41Vが、特定位置の検出結果として特定位置情報42が、乳頭の検出結果として乳頭情報43が、1つの数学モデル20から出力される。 Next, the CPU 3 inputs at least a portion of the fundus image 30 acquired in S1 (in this embodiment, the entire fundus image 30) to the mathematical model 20 trained by the machine learning algorithm. The output blood vessel detection results, specific position detection results, and nipple detection results are obtained (S12). As shown in FIG. 2, in this embodiment, an arterial blood vessel image 41A and a venous blood vessel image 41V are used as blood vessel detection results, specific position information 42 is used as a specific position detection result, and nipple information 43 is used as a nipple detection result. Output from one mathematical model 20.

次いで、CPU3は、S12で取得された血管の検出結果(動脈血管画像41Aおよび静脈血管画像41V)、および特定位置の検出結果(特定位置情報42)に基づいて、検出された血管における、分岐位置を通じて端部位置へ至るまでに枝分かれ構造の情報である血管トポロジー情報60(図8参照)を生成する(S13)。図8に示すように、血管トポロジー情報60では、各々の血管が分岐位置を通じて端部位置へ至るまでの枝分かれ構造(接続形態:トポロジー)が示される。従って、血管画像41A,41Vのみが用いられる場合に比べて、血管の詳細な走行状態がより適切に把握される。 Next, the CPU 3 determines the branch position of the detected blood vessel based on the blood vessel detection results (arterial blood vessel image 41A and venous blood vessel image 41V) acquired in S12 and the specific position detection result (specific position information 42). Blood vessel topology information 60 (see FIG. 8), which is information on the branching structure, is generated until reaching the end position through the blood vessel (S13). As shown in FIG. 8, the blood vessel topology information 60 shows a branching structure (connection form: topology) in which each blood vessel passes through a branch position and reaches an end position. Therefore, compared to the case where only the blood vessel images 41A and 41V are used, the detailed running state of the blood vessel can be grasped more appropriately.

なお、本実施形態のS13では、血管の検出結果と特定位置の検出結果に加えて乳頭の検出結果(乳頭情報43)も参照されることで、血管トポロジー情報60が生成される。前述したように、眼底血管と乳頭の間には種々の関連がある。従って、血管の検出結果および特定位置の検出結果と共に、乳頭の検出結果も参照されることで、血管トポロジー情報60がより適切に生成される。 Note that in S13 of the present embodiment, the blood vessel topology information 60 is generated by referring to the nipple detection result (nipple information 43) in addition to the blood vessel detection result and the specific position detection result. As mentioned above, there are various relationships between the fundus blood vessels and the papilla. Therefore, the blood vessel topology information 60 is generated more appropriately by referring to the papilla detection results along with the blood vessel detection results and the specific position detection results.

ここで、血管トポロジー情報60を生成する方法の一例について説明する。本実施形態では、CPU3は、血管画像41A,41V、特定位置情報42、および乳頭情報43を、グラフ理論に従って処理することで、血管トポロジー情報60を生成する。グラフ理論とは、ノード(節点・頂点・点)の集合と、エッジ(枝・辺・線)の集合によって構成されるグラフに関する数学の理論である。 Here, an example of a method for generating blood vessel topology information 60 will be described. In this embodiment, the CPU 3 generates blood vessel topology information 60 by processing blood vessel images 41A and 41V, specific position information 42, and nipple information 43 according to graph theory. Graph theory is a mathematical theory regarding graphs that are composed of a set of nodes (nodes, vertices, points) and a set of edges (branches, sides, lines).

まず、CPU3は、検出された動脈と静脈の一方を処理対象とし、処理対象の血管についての特定位置情報42のうち、分岐位置および端部位置の全てを頂点とする完全グラフを構築する。図5に、頂点が12個の完全グラフの例を模式的に示す。図5に示すように、完全グラフとは、任意の2頂点間の全てに辺があるグラフである。前述のように、本実施形態では、処理対象の血管の分岐位置および端部位置の全てが頂点52とされる。 First, the CPU 3 sets one of the detected arteries and veins as a processing target, and constructs a complete graph having all the branch positions and end positions as vertices in the specific position information 42 about the blood vessel to be processed. FIG. 5 schematically shows an example of a complete graph with 12 vertices. As shown in FIG. 5, a complete graph is a graph that has edges between any two vertices. As described above, in this embodiment, all the branch positions and end positions of the blood vessel to be processed are set as the vertices 52.

次いで、CPU3は、完全グラフにおける2頂点間の、処理対象血管を通じた最短経路長を辺の重みとして、最小全域木を探索する。ここで、全域木とは、グラフ上の全ての頂点を含む、閉路(ループ)を持たない部分グラフである。最小全域木とは、全域木の中で、辺の重みの総和が最小のものである。図6に、グラフGと、グラフGの最小全域木の一例を模式的に示す。辺に付された数値は、2頂点間の辺の重みの一例である。 Next, the CPU 3 searches for a minimum spanning tree using the shortest path length between two vertices in the complete graph through the blood vessel to be processed as edge weights. Here, the spanning tree is a subgraph that includes all vertices on the graph and has no cycles (loops). A minimum spanning tree is a spanning tree with the smallest sum of edge weights. FIG. 6 schematically shows an example of a graph G and a minimum spanning tree of the graph G. The numerical value attached to the edge is an example of the weight of the edge between two vertices.

図7は、静脈血管画像41Vにおける血管上の、分岐位置52Sと分岐位置52Tの辺の重みを割り出す方法を説明するための説明図である。図7に示すように、分岐位置52Sと分岐位置52Tを直線で結んだ最短距離ではなく、分岐位置52Sと分岐位置52Tの間に延びる血管(静脈)52V上の最短経路長が、完全グラフにおける分岐位置52Sの頂点と分岐位置52Tの頂点の間の辺の重みとされる。詳細には、血管画像(図7では静脈血管画像41V)において、各画素を頂点とし、上下左右の4つの頂点(斜めも含む8つの頂点でもよい)と辺を接続したグリッドグラフを考える。グリッドグラフにおいて、接続する頂点aと頂点bの間の辺abの重みw_abを、「w_ab=2-(p(a)+p(b))+eps」とする。p(x)は、画素xが処理対象血管(図4では静脈血管)である確率、epsは、重みが0にならないようにするための小さな値(例えば、0.00001など)である。これにより、血管画素同士を接続する辺の重みが小さくなる。構築されたグリッドグラフにおいて、指定した2点間の距離をダイクストラ法により求める。 FIG. 7 is an explanatory diagram for explaining a method for calculating the weights of the sides of the branch position 52S and the branch position 52T on the blood vessel in the venous blood vessel image 41V. As shown in FIG. 7, the shortest path length on the blood vessel (vein) 52V extending between the branch position 52S and the branch position 52T, rather than the shortest distance connecting the branch position 52S and the branch position 52T with a straight line, is the shortest path length in the complete graph. This is the weight of the edge between the vertex at the branch position 52S and the vertex at the branch position 52T. Specifically, in a blood vessel image (venous blood vessel image 41V in FIG. 7), consider a grid graph in which each pixel is a vertex, and four vertices (top, bottom, left, and right) (eight vertices including diagonal ones may also be used) and sides are connected. In the grid graph, the weight w_ab of the edge ab between the connected vertex a and vertex b is set to "w_ab=2-(p(a)+p(b))+eps". p(x) is the probability that the pixel x is a blood vessel to be processed (venous blood vessel in FIG. 4), and eps is a small value (for example, 0.00001) to prevent the weight from becoming 0. This reduces the weight of the edges connecting blood vessel pixels. In the constructed grid graph, the distance between two designated points is determined using Dijkstra's method.

ここで、乳頭領域内では血管の接続が不明瞭となり易いので、乳頭情報43によって示される乳頭領域53では処理対象血管が繋がっていると仮定して処理が行われる。例えば、前述した最短経路探索におけるグリッドグラフ構築において、乳頭領域内の辺の重みを0にする。これにより、乳頭領域内を0コストで通過できるようになり、乳頭領域内では処理対象血管が繋がっているものとして取り扱われる。従って、乳頭情報43が参照されることで、乳頭における血管の検出結果が表れにくい血管画像41A,41Vのみを参照する場合に比べて適切に処理が行われ易くなる。 Here, since connections between blood vessels tend to be unclear within the nipple area, processing is performed on the assumption that the blood vessels to be processed are connected in the nipple area 53 indicated by the nipple information 43. For example, in constructing a grid graph in the shortest path search described above, the weight of the edge within the nipple area is set to 0. This makes it possible to pass through the nipple area at zero cost, and the blood vessels to be processed are treated as connected within the nipple area. Therefore, by referring to the nipple information 43, it becomes easier to perform appropriate processing than when only the blood vessel images 41A and 41V, in which detection results of blood vessels in the nipple are difficult to appear, are referred to.

本実施形態では、一例として、最小全域木を探索するアルゴリズムの1つであるプリム法が用いられる。CPU3は、(1)始点に最も近い頂点を頂点集合に追加し、(2)追加した頂点集合に含まれる頂点から最も近い頂点を探索し、(3)探索した頂点を頂点集合に追加する。CPU3は、全ての頂点が頂点集合に含まれるまで、(2)および(3)の処理を繰り返すことで、最小全域木を探索する。 In this embodiment, the Prim method, which is one of the algorithms for searching a minimum spanning tree, is used as an example. The CPU 3 (1) adds the vertex closest to the starting point to the vertex set, (2) searches for the vertex closest to the vertex included in the added vertex set, and (3) adds the searched vertex to the vertex set. The CPU 3 searches for the minimum spanning tree by repeating the processes (2) and (3) until all vertices are included in the vertex set.

ここで、本実施形態では、CPU3は、乳頭情報43によって示される乳頭領域53の位置を始点として、最小全域木を探索するための上記の処理を行う。その結果、乳頭から周囲へ広がる血管の形状に応じて処理が進むので、探索された最小全域木がそのまま処理対象血管の血管トポロジー情報となる。以上の処理が、動脈および静脈の各々について実行されることで、血管トポロジー情報60(図8参照)が適切に生成される。 Here, in this embodiment, the CPU 3 performs the above-described process for searching the minimum spanning tree, starting from the position of the nipple area 53 indicated by the nipple information 43. As a result, the process proceeds according to the shape of the blood vessel extending from the papilla to the surrounding area, so the searched minimum spanning tree directly serves as the blood vessel topology information of the blood vessel to be processed. By performing the above processing for each artery and vein, blood vessel topology information 60 (see FIG. 8) is appropriately generated.

次いで、CPU3は、生成された血管トポロジー情報60に基づいて、血管の走行状態に関するさらなる解析を実行する(S14)。血管トポロジー情報60を利用することで、種々の有用な解析結果が得られる。 Next, the CPU 3 performs further analysis regarding the running state of the blood vessel based on the generated blood vessel topology information 60 (S14). By using the blood vessel topology information 60, various useful analysis results can be obtained.

例えば、CPU3は、血管トポロジー情報60から得られる乳頭からの血管の分岐位置の数(順番)に基づいて、血管の領域を特定し、特定した領域の血管に対して種々の解析(例えば、血管密度の解析、および、血管の蛇行度の解析(例えば定量化)等の少なくともいずれか)を行ってもよい。一例として、CPU3は、乳頭からの分岐位置の数がN個以上の領域を、毛細血管領域として特定し、特定した毛細血管領域についての血管の蛇行度の解析を行ってもよい。毛細血管領域における血管の蛇行度は、糖尿病性網膜症等の診断および研究等に有用である。また、CPU3は、乳頭からの分岐位置の数がN個未満の領域を、大血管の領域として特定し、特定した大血管の領域についての血管の解析を行ってもよい。なお、CPU3は、血管トポロジー情報60に基づいて特定した血管の領域(例えば、毛細血管領域等)を、前述した血管画像41A,41Vでなく、実際に撮影された眼底画像(例えば、眼底血管が表れるOCTアンジオ画像等)に当てはめたうえで、実際に撮影された眼底画像における特定の血管の領域について種々の解析を行ってもよい。この場合、解析対象とされる眼底画像は、数学モデル20に入力された眼底画像30(図2参照)であってもよい。また、数学モデル20に入力された眼底画像30とは異なる眼科画像(例えば、眼底画像30とは異なる手法(モダリティ)で撮影された眼底画像)であってもよい。例えば、CPU3は、血管トポロジー情報60に基づいて特定した血管の領域を、眼底血管が表れやすいOCTアンジオ画像に当てはめたうえで解析を行うことで、1つの眼科画像の解析では得られ難い有用な情報を適切に取得することも可能である。 For example, the CPU 3 specifies a blood vessel region based on the number (order) of branch positions of blood vessels from the papilla obtained from the blood vessel topology information 60, and performs various analyzes (for example, blood vessel At least one of density analysis and blood vessel tortuosity analysis (for example, quantification) may be performed. As an example, the CPU 3 may specify a region where the number of branching positions from the papilla is N or more as a capillary region, and may analyze the degree of tortuosity of the blood vessel in the specified capillary region. The degree of tortuosity of blood vessels in the capillary region is useful for diagnosis and research of diabetic retinopathy and the like. Further, the CPU 3 may specify a region where the number of branching positions from the papilla is less than N as a region of a large blood vessel, and perform blood vessel analysis on the specified region of the large blood vessel. Note that the CPU 3 uses an actually photographed fundus image (for example, where the fundus blood vessels are In addition, various analyzes may be performed on a specific blood vessel region in an actually captured fundus image. In this case, the fundus image to be analyzed may be the fundus image 30 (see FIG. 2) input to the mathematical model 20. Further, it may be an ophthalmologic image different from the fundus image 30 inputted to the mathematical model 20 (for example, a fundus image photographed using a different modality than the fundus image 30). For example, the CPU 3 performs analysis by applying the blood vessel region specified based on the blood vessel topology information 60 to an OCT angio image in which fundus blood vessels are likely to appear, thereby providing useful information that is difficult to obtain by analyzing a single ophthalmological image. It is also possible to obtain information appropriately.

図9を参照して、第2実施形態について説明する。第2実施形態と、前述した第1実施形態では、血管の検出結果および特定位置の検出結果を取得するために用いられる数学モデルの構成と、検出結果を取得する際の処理が異なる。他の構成および処理は、第1実施形態と第2実施形態で同一であってもよい。従って、以下では、第1実施形態と異なる構成および処理についての説明のみを行い、他の説明は省略する。図9に示すように、第2実施形態では、数学モデルとして、血管検出モデル21、特定位置検出モデル22、および乳頭検出モデル23が別々に構築されている。 A second embodiment will be described with reference to FIG. 9. The second embodiment and the first embodiment described above are different in the configuration of the mathematical model used to obtain blood vessel detection results and specific position detection results, and in the processing when obtaining the detection results. Other configurations and processing may be the same in the first embodiment and the second embodiment. Therefore, in the following, only the configuration and processing that are different from the first embodiment will be explained, and other explanations will be omitted. As shown in FIG. 9, in the second embodiment, a blood vessel detection model 21, a specific position detection model 22, and a nipple detection model 23 are separately constructed as mathematical models.

血管検出モデル21は、過去に撮影された被検眼の眼底画像を入力用訓練データとし、且つ、入力用訓練データの眼底画像における血管(本実施形態では動脈と静脈)を示すデータを出力用訓練データとして訓練されている。第2実施形態の血管検出モデル21は、入力された眼底画像30に写る眼底組織の動脈および静脈の各々の検出結果(動脈血管画像41Aおよび静脈血管画像41V)を出力する。 The blood vessel detection model 21 uses a fundus image of the subject's eye photographed in the past as input training data, and outputs data indicating blood vessels (arteries and veins in this embodiment) in the fundus image of the input training data. trained as data. The blood vessel detection model 21 of the second embodiment outputs detection results (arterial blood vessel image 41A and venous blood vessel image 41V) of arteries and veins of the fundus tissue shown in the input fundus image 30.

特定位置検出モデル22は、過去に撮影された被検眼の眼底画像を入力用訓練データとし、且つ、入力用訓練データの眼底画像における特定位置(本実施形態では、血管の分岐位置、端部位置、および交差位置)を示すデータを出力用訓練データとして訓練されている。第2実施形態の特定位置検出モデル22は、入力された眼底画像30に写る眼底組織の動脈の分岐位置・端部位置の二次元分布、静脈の分岐位置・端部位置の二次元分布、および、血管の交差位置の二次元分布の各々を分類して検出し、これらを纏めて特定位置情報42として出力する。 The specific position detection model 22 uses a fundus image of the subject's eye photographed in the past as input training data, and uses a specific position in the fundus image of the input training data (in this embodiment, a branch position and an end position of a blood vessel). , and intersection position) as output training data. The specific position detection model 22 of the second embodiment includes a two-dimensional distribution of branch positions and end positions of arteries in the fundus tissue reflected in the input fundus image 30, a two-dimensional distribution of branch positions and end positions of veins, and , the two-dimensional distribution of blood vessel intersection positions are classified and detected, and these are collectively output as specific position information 42.

乳頭検出モデル23は、過去に撮影された被検眼の眼底画像を入力用訓練データとし、且つ、入力用訓練データの眼底画像における乳頭の領域および位置を示すデータを出力用訓練データとして訓練されている。第2実施形態の乳頭検出モデル23は、入力された眼底画像30に写る眼底組織のうち、乳頭が存在する二次元の領域とその位置を示す乳頭情報43を、乳頭の検出結果として出力する。 The papilla detection model 23 is trained using a fundus image of the subject's eye taken in the past as input training data, and using data indicating the region and position of the papilla in the fundus image of the input training data as output training data. There is. The papilla detection model 23 of the second embodiment outputs, as a papilla detection result, papilla information 43 indicating a two-dimensional region where a papilla exists and its position in the fundus tissue shown in the input fundus image 30.

第2実施形態では、眼底画像処理装置1のCPU3は、図4のS12において、血管検出モデル21、特定位置検出モデル22、および乳頭検出モデル23の各々に、同一の眼底画像30を入力することで、各々のモデルから出力される血管画像41A,41V、特定位置情報42、および乳頭情報43を取得する。 In the second embodiment, the CPU 3 of the fundus image processing device 1 inputs the same fundus image 30 to each of the blood vessel detection model 21, the specific position detection model 22, and the papilla detection model 23 in S12 of FIG. Then, blood vessel images 41A, 41V, specific position information 42, and nipple information 43 output from each model are acquired.

第2実施形態では、複数の数学モデル21~23の各々のパラメータの調整等が容易となる。また、複数の数学モデル21~23が別々に構築されるので、第1実施形態の数学モデル20(図2参照)を構築する場合に比べて、数学モデルを訓練する際の工数の削減が容易である。例えば、数学モデルを訓練する際に、眼底画像における血管を示すデータと特定位置を示すデータの両方を入力用訓練データとして用意する場合とは異なり、血管を示すデータと特定位置を示すデータの一方が用意されれば、血管検出モデル21または特定位置検出モデル22が構築される。よって、種々の状況に応じて、複数の数学モデルのいずれかを先に構築することも可能である。また、複数の数学モデルのいずれかが既に構築されている場合には、他方の数学モデルを新たに構築するのみで良い。 In the second embodiment, it becomes easy to adjust the parameters of each of the plurality of mathematical models 21 to 23. Furthermore, since the plurality of mathematical models 21 to 23 are constructed separately, the number of man-hours required for training the mathematical models can be easily reduced compared to the case of constructing the mathematical model 20 of the first embodiment (see FIG. 2). It is. For example, when training a mathematical model, unlike the case where both data indicating blood vessels and data indicating a specific position in a fundus image are prepared as input training data, one of data indicating blood vessels and data indicating a specific position is prepared. Once prepared, a blood vessel detection model 21 or a specific position detection model 22 is constructed. Therefore, it is also possible to construct any one of a plurality of mathematical models first depending on various situations. Further, if any one of the plurality of mathematical models has already been constructed, it is sufficient to newly construct the other mathematical model.

上記実施形態で開示された技術は一例に過ぎない。従って、上記実施形態で例示された技術を変更することも可能である。例えば、上記実施形態で例示された複数の技術のうちの一部のみを実行することも可能である。なお、図4のS11で眼底画像を取得する処理は、「眼底画像取得ステップ」の一例である。図4のS12で検出結果を取得する処理は、「検出結果取得ステップ」の一例である。図4のS13で血管トポロジー情報60を生成する処理は、「血管トポロジー情報生成ステップ」の一例である。 The techniques disclosed in the above embodiments are merely examples. Therefore, it is also possible to modify the techniques exemplified in the above embodiments. For example, it is also possible to execute only some of the techniques exemplified in the above embodiments. Note that the process of acquiring a fundus image in S11 in FIG. 4 is an example of a "fundus image acquisition step." The process of acquiring the detection result in S12 of FIG. 4 is an example of a "detection result acquisition step." The process of generating the blood vessel topology information 60 in S13 of FIG. 4 is an example of a "blood vessel topology information generation step."

1 眼底画像処理装置
3 CPU
4 記憶装置
20 数学モデル
21 血管検出モデル
22 特定位置検出モデル
23 乳頭検出モデル
30 眼底画像
41A,41V 血管画像
42 特定位置情報
43 乳頭情報
60 血管トポロジー情報
10(10A,10B) 眼底画像撮影装置
101 数学モデル構築装置
1 Fundus image processing device 3 CPU
4 Storage device 20 Mathematical model 21 Blood vessel detection model 22 Specific position detection model 23 Papilla detection model 30 Fundus images 41A, 41V Blood vessel image 42 Specific position information 43 Papilla information 60 Blood vessel topology information 10 (10A, 10B) Fundus image capturing device 101 Mathematics model building equipment

Claims (9)

被検眼の眼底画像を処理する眼底画像処理装置であって、
前記眼底画像処理装置の制御部は、
眼底画像撮影装置によって撮影された、被検眼の眼底の血管を含む前記眼底画像を取得する眼底画像取得ステップと、
機械学習アルゴリズムによって訓練された数学モデルに前記眼底画像の少なくとも一部を入力することで、前記眼底画像に存在する血管の検出結果、および、前記眼底画像に存在する血管の分岐位置および端部位置を含む特定位置の検出結果を取得する検出結果取得ステップと、
を実行することを特徴とする眼底画像処理装置。
A fundus image processing device that processes a fundus image of an eye to be examined,
The control unit of the fundus image processing device includes:
a fundus image acquisition step of acquiring the fundus image including blood vessels in the fundus of the eye to be examined, which is photographed by a fundus image photographing device;
By inputting at least a portion of the fundus image into a mathematical model trained by a machine learning algorithm, detection results of blood vessels present in the fundus image, and branch positions and end positions of blood vessels present in the fundus image are obtained. a detection result acquisition step of acquiring detection results of a specific position including;
A fundus image processing device that performs the following.
請求項1に記載の眼底画像処理装置であって、
前記検出結果取得ステップにおいて前記数学モデルによって取得される前記血管の検出結果は、前記眼底画像に存在する動脈および静脈の各々の検出結果であることを特徴とする眼底画像処理装置。
The fundus image processing device according to claim 1,
The fundus oculi image processing device, wherein the blood vessel detection results acquired by the mathematical model in the detection result acquisition step are detection results for each of an artery and a vein present in the fundus image.
請求項1または2に記載の眼底画像処理装置であって、
前記検出結果取得ステップにおいて、前記制御部は、前記特定位置として、血管の分岐位置および端部位置と共に、前記眼底を正面から見た場合の血管の交差位置の検出結果を取得することを特徴とする眼底画像処理装置。
The fundus image processing device according to claim 1 or 2,
In the detection result acquisition step, the control unit acquires, as the specific position, a detection result of a blood vessel intersection position when the fundus is viewed from the front, as well as a branch position and an end position of the blood vessel. Fundus image processing device.
請求項1から3のいずれかに記載の眼底画像処理装置であって、
前記数学モデルは、過去に撮影された被検眼の眼底画像を入力用訓練データとし、且つ、前記入力用訓練データの前記眼底画像における血管を示すデータ、および、前記入力用訓練データの前記眼底画像における前記特定位置を示すデータを出力用訓練データとして訓練されており、
前記検出結果取得ステップでは、前記数学モデルに1つの前記眼底画像が入力されることで、前記血管の検出結果と前記特定位置の検出結果が共に取得されることを特徴とする眼底画像処理装置。
The fundus image processing device according to any one of claims 1 to 3,
The mathematical model uses, as input training data, a fundus image of the subject's eye photographed in the past, and data indicating blood vessels in the fundus image of the input training data, and the fundus image of the input training data. is trained using data indicating the specific position in as output training data,
In the fundus oculi image processing device, in the detection result acquisition step, one of the fundus images is input to the mathematical model, so that both the blood vessel detection result and the specific position detection result are obtained.
請求項1から3のいずれかに記載の眼底画像処理装置であって、
前記数学モデルとして、
過去に撮影された被検眼の眼底画像を入力用訓練データとし、且つ、前記入力用訓練データの前記眼底画像における血管を示すデータを出力用訓練データとして訓練された血管検出モデルと、
過去に撮影された被検眼の眼底画像を入力用訓練データとし、且つ、前記入力用訓練データの前記眼底画像における特定位置を示すデータを出力用訓練データとして訓練された特定位置検出モデルと、
が構築されており、
前記検出結果取得ステップにおいて、前記制御部は、前記眼底画像を前記血管検出モデルに入力することで前記血管の検出結果を取得すると共に、前記眼底画像を前記特定位置検出モデルに入力することで前記特定位置の検出結果を取得することを特徴とする眼底画像処理装置。
The fundus image processing device according to any one of claims 1 to 3,
As the mathematical model,
A blood vessel detection model trained using a fundus image of a subject's eye photographed in the past as input training data, and using data indicating blood vessels in the fundus image of the input training data as output training data;
A specific position detection model trained using a fundus image of the subject's eye taken in the past as input training data, and using data indicating a specific position in the fundus image of the input training data as output training data;
has been constructed,
In the detection result acquisition step, the control unit inputs the fundus image into the blood vessel detection model to obtain the blood vessel detection result, and inputs the fundus image into the specific position detection model to obtain the blood vessel detection result. A fundus image processing device characterized by acquiring a detection result of a specific position.
請求項1から5のいずれかに記載の眼底画像処理装置であって、
前記検出結果取得ステップにおいて、前記制御部は、機械学習アルゴリズムによって訓練された数学モデルに前記眼底画像の少なくとも一部を入力することで、前記血管の検出結果および前記特定位置の検出結果と共に、前記眼底画像に存在する視神経乳頭の検出結果を取得することを特徴とする眼底画像処理装置。
The fundus image processing device according to any one of claims 1 to 5,
In the detection result acquisition step, the control unit inputs at least a part of the fundus image into a mathematical model trained by a machine learning algorithm, thereby obtaining the blood vessel detection result and the specific position detection result together with the blood vessel detection result and the specific position detection result. A fundus image processing device characterized by acquiring a detection result of an optic disc present in a fundus image.
請求項1から6のいずれかに記載の眼底画像処理装置であって、
前記制御部は、
前記検出結果取得ステップにおいて取得された前記血管の検出結果と前記特定位置の検出結果に基づいて、検出された各々の前記血管における、前記分岐位置を通じて前記端部位置へ至るまでの枝分かれ構造の情報である血管トポロジー情報を生成する血管トポロジー情報生成ステップをさらに実行することを特徴とする眼底画像処理装置。
The fundus image processing device according to any one of claims 1 to 6,
The control unit includes:
Information on the branching structure of each detected blood vessel from the branch position to the end position, based on the detection result of the blood vessel and the detection result of the specific position acquired in the detection result acquisition step. A fundus oculi image processing device further comprising a step of generating blood vessel topology information.
請求項6に記載の眼底画像処理装置であって、
前記制御部は、
前記検出結果取得ステップにおいて取得された前記血管の検出結果、前記特定位置の検出結果、および前記乳頭の検出結果に基づいて、検出された各々の前記血管における、前記分岐位置を通じて前記端部位置へ至るまでの枝分かれ構造の情報である血管トポロジー情報を生成する血管トポロジー情報生成ステップをさらに実行することを特徴とする眼底画像処理装置。
The fundus image processing device according to claim 6,
The control unit includes:
Based on the detection result of the blood vessel, the detection result of the specific position, and the detection result of the papilla acquired in the detection result acquisition step, in each of the detected blood vessels, go to the end position through the branch position. A fundus oculi image processing device characterized by further executing a blood vessel topology information generation step of generating blood vessel topology information that is information on a branched structure up to the point.
被検眼の眼底画像を処理する眼底画像処理装置によって実行される眼底画像処理プログラムであって、
前記眼底画像処理プログラムが前記眼底画像処理装置の制御部によって実行されることで、
眼底画像撮影装置によって撮影された、被検眼の眼底の血管を含む前記眼底画像を取得する眼底画像取得ステップと、
機械学習アルゴリズムによって訓練された数学モデルに前記眼底画像の少なくとも一部を入力することで、前記眼底画像に存在する血管の検出結果、および、前記眼底画像に存在する血管の分岐位置および端部位置を含む特定位置の検出結果を取得する検出結果取得ステップと、
を前記眼底画像処理装置に実行させることを特徴とする眼底画像処理プログラム。
A fundus image processing program executed by a fundus image processing device that processes a fundus image of an eye to be examined,
The fundus image processing program is executed by the control unit of the fundus image processing device,
a fundus image acquisition step of acquiring the fundus image including blood vessels in the fundus of the eye to be examined, which is photographed by a fundus image photographing device;
By inputting at least a portion of the fundus image into a mathematical model trained by a machine learning algorithm, detection results of blood vessels present in the fundus image, and branch positions and end positions of blood vessels present in the fundus image are obtained. a detection result acquisition step of acquiring detection results of a specific position including;
A fundus image processing program that causes the fundus image processing device to execute.
JP2022057480A 2022-03-30 2022-03-30 Ocular fundus image processing device and ocular fundus image processing program Pending JP2023149095A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022057480A JP2023149095A (en) 2022-03-30 2022-03-30 Ocular fundus image processing device and ocular fundus image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022057480A JP2023149095A (en) 2022-03-30 2022-03-30 Ocular fundus image processing device and ocular fundus image processing program

Publications (1)

Publication Number Publication Date
JP2023149095A true JP2023149095A (en) 2023-10-13

Family

ID=88289209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022057480A Pending JP2023149095A (en) 2022-03-30 2022-03-30 Ocular fundus image processing device and ocular fundus image processing program

Country Status (1)

Country Link
JP (1) JP2023149095A (en)

Similar Documents

Publication Publication Date Title
US12096981B2 (en) Ophthalmologic image processing device and non-transitory computer-readable storage medium storing computer-readable instructions
JP6907563B2 (en) Image processing device and image processing program
JP6878923B2 (en) Image processing equipment, image processing system, and image processing program
US20220284577A1 (en) Fundus image processing device and non-transitory computer-readable storage medium storing computer-readable instructions
JP7196908B2 (en) Ophthalmic image processing device and ophthalmic image processing program
WO2020026535A1 (en) Ophthalmic image processing device, oct device, and ophthalmic image processing program
JP2019208851A (en) Fundus image processing device and fundus image processing program
JP2024045441A (en) Ophthalmologic image processing device and ophthalmologic image processing program
WO2020116351A1 (en) Diagnostic assistance device and diagnostic assistance program
JP7439990B2 (en) Medical image processing device, medical image processing program, and medical image processing method
JP6703319B1 (en) Ophthalmic image processing device and OCT device
JP7563384B2 (en) Medical image processing device and medical image processing program
JP2023149095A (en) Ocular fundus image processing device and ocular fundus image processing program
JP7328489B2 (en) Ophthalmic image processing device and ophthalmic photographing device
JP2022138552A (en) Ophthalmologic image processing device, ophthalmologic image processing program, and ophthalmologic imaging device
JP6747617B2 (en) Ophthalmic image processing device and OCT device
JP2020195782A (en) Ophthalmologic image processing program and oct device
JP2021074095A (en) Ophthalmologic image processing device and ophthalmologic image processing program
JP7302184B2 (en) Ophthalmic image processing device and ophthalmic image processing program
JP7180187B2 (en) Ophthalmic image processing device, OCT device, and ophthalmic image processing program
JP7468163B2 (en) Ophthalmic image processing program and ophthalmic image processing device
WO2020241794A1 (en) Ophthalmic image processing device, ophthalmic image processing program, and ophthalmic image processing system
JP7521575B2 (en) Ophthalmic image processing device, OCT device, and ophthalmic image processing program
JP2023149742A (en) Ocular fundus image processing device and ocular fundus image processing program