JP2023149742A - Ocular fundus image processing device and ocular fundus image processing program - Google Patents

Ocular fundus image processing device and ocular fundus image processing program Download PDF

Info

Publication number
JP2023149742A
JP2023149742A JP2022058488A JP2022058488A JP2023149742A JP 2023149742 A JP2023149742 A JP 2023149742A JP 2022058488 A JP2022058488 A JP 2022058488A JP 2022058488 A JP2022058488 A JP 2022058488A JP 2023149742 A JP2023149742 A JP 2023149742A
Authority
JP
Japan
Prior art keywords
fundus
deviation
image processing
dimensional
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022058488A
Other languages
Japanese (ja)
Inventor
涼介 柴
Ryosuke Shiba
徹哉 加納
Tetsuya Kano
倫全 佐竹
Norimasa Satake
佳紀 熊谷
Yoshinori Kumagai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2022058488A priority Critical patent/JP2023149742A/en
Publication of JP2023149742A publication Critical patent/JP2023149742A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

To provide on ocular fundus image processing device and an ocular fundus image processing program capable of more appropriately presenting, to a user, a degree of deviation when a site captured in an ocular fundus image is identified by a mathematical model.SOLUTION: In an image acquisition step, a control part acquires a three-dimensional image of the ocular fundus captured by an ocular fundus image capturing device. In a deviation degree acquisition step, the control part acquires a plurality of probability distributions for identifying each of a plurality of sites in an ocular fundus tissue captured in the three-dimensional image by inputting the three-dimensional image to a mathematical model trained by a machine learning algorithm, and acquires a deviation degree of the acquired probability distribution for the probability distribution when each of the plurality of sites is accurately identified. In a selection display step, the control part causes a display part to selectively display a map indicating a two-dimensional distribution of part of the plurality of acquired deviation degrees.SELECTED DRAWING: Figure 11

Description

本開示は、被検眼の眼底画像の処理に使用される眼底画像処理装置、および眼底画像処理プログラムに関する。 The present disclosure relates to a fundus image processing device and a fundus image processing program used to process a fundus image of an eye to be examined.

近年、機械学習アルゴリズムによって訓練された数学モデルを利用して、被検眼の眼底画像から医療情報を取得する技術が提案されている。例えば、特許文献1に記載の画像処理装置は、機械学習アルゴリズムによって訓練された数学モデルに眼科画像を入力することで、眼科画像中の組織を識別するための確率分布を取得する。画像処理装置は、組織が正確に識別される場合の確率分布に対する、取得された確率分布の乖離度を、組織の構造の異常度を示す構造情報として取得する。 In recent years, a technique has been proposed that uses a mathematical model trained by a machine learning algorithm to obtain medical information from a fundus image of an eye to be examined. For example, the image processing device described in Patent Document 1 obtains a probability distribution for identifying tissue in an ophthalmological image by inputting the ophthalmological image into a mathematical model trained by a machine learning algorithm. The image processing device obtains the degree of deviation of the obtained probability distribution from the probability distribution when the tissue is accurately identified as structural information indicating the degree of abnormality of the structure of the tissue.

特開2020-18794号公報Japanese Patent Application Publication No. 2020-18794

ユーザ(例えば医師等)が、さらに有効に乖離度を診断等に利用するためには、種々の状況に応じて適切な方法で乖離度をユーザに提示できることが望ましい。 In order for a user (for example, a doctor, etc.) to use the degree of deviation more effectively for diagnosis, etc., it is desirable to be able to present the degree of deviation to the user in an appropriate manner according to various situations.

本開示の典型的な目的は、眼底画像に写る部位が数学モデルによって識別される際の乖離度を、より適切にユーザに提示することが可能な眼底画像処理装置および眼底画像処理プログラムを提供することである。 A typical object of the present disclosure is to provide a fundus image processing device and a fundus image processing program that can more appropriately present to a user the degree of deviation when a region shown in a fundus image is identified by a mathematical model. That's true.

本開示における典型的な実施形態が提供する眼底画像処理装置は、被検眼の眼底画像を処理する眼底画像処理装置であって、前記眼底画像処理装置の制御部は、眼底画像撮影装置によって撮影された眼底の三次元画像を取得する画像取得ステップと、機械学習アルゴリズムによって訓練された数学モデルに前記三次元画像を入力することで、前記三次元画像に写る眼底組織における複数の部位の各々を識別するための複数の確率分布を取得し、前記複数の部位の各々が正確に識別される場合の確率分布に対する、取得された確率分布の乖離度を取得する乖離度取得ステップと、取得された複数の前記乖離度のうち、一部の乖離度の二次元分布を示すマップを、選択的に表示部に表示させる選択表示ステップと、を実行する。 A fundus image processing device provided by a typical embodiment of the present disclosure is a fundus image processing device that processes a fundus image of an eye to be examined, and a control unit of the fundus image processing device is configured to control a fundus image processing device that processes a fundus image of an eye to be examined. an image acquisition step of acquiring a three-dimensional image of the fundus; and inputting the three-dimensional image to a mathematical model trained by a machine learning algorithm to identify each of a plurality of parts of the fundus tissue shown in the three-dimensional image. a step of obtaining a degree of deviation of the obtained probability distributions with respect to the probability distribution when each of the plurality of parts is accurately identified; a selective display step of selectively displaying a map showing a two-dimensional distribution of some of the deviation degrees on the display unit;

本開示における典型的な実施形態が提供する眼底画像処理プログラムは、被検眼の眼底画像を処理する眼底画像処理装置によって実行される眼底画像処理プログラムであって、前記眼底画像処理プログラムが前記眼底画像処理装置の制御部によって実行されることで、眼底画像撮影装置によって撮影された眼底の三次元画像を取得する画像取得ステップと、機械学習アルゴリズムによって訓練された数学モデルに前記三次元画像を入力することで、前記三次元画像に写る眼底組織における複数の部位の各々を識別するための複数の確率分布を取得し、前記複数の部位の各々が正確に識別される場合の確率分布に対する、取得された確率分布の乖離度を取得する乖離度取得ステップと、取得された複数の前記乖離度のうち、一部の乖離度の二次元分布を示すマップを、選択的に表示部に表示させる選択表示ステップと、を前記眼底画像処理装置に実行させる。 A fundus image processing program provided by a typical embodiment of the present disclosure is a fundus image processing program executed by a fundus image processing device that processes a fundus image of an eye to be examined, wherein the fundus image processing program an image acquisition step executed by a control unit of the processing device to acquire a three-dimensional image of the fundus taken by the fundus image capturing device; and inputting the three-dimensional image to a mathematical model trained by a machine learning algorithm. By doing this, a plurality of probability distributions for identifying each of a plurality of parts in the fundus tissue shown in the three-dimensional image are obtained, and the obtained probability distribution for each of the plurality of parts is accurately identified. a deviation degree obtaining step of obtaining a deviation degree of a probability distribution obtained by the above-described deviation; and a selective display for selectively displaying a map showing a two-dimensional distribution of some of the deviation degrees among the obtained plurality of deviation degrees on a display unit. and causing the fundus image processing device to execute the steps.

本開示に係る眼底画像処理装置および眼底画像処理プログラムによると、眼底画像に写る部位が数学モデルによって識別される際の乖離度が、より適切にユーザに提示される。 According to the fundus image processing device and the fundus image processing program according to the present disclosure, the degree of deviation when a region appearing in a fundus image is identified by a mathematical model is more appropriately presented to the user.

数学モデル構築装置101、眼底画像処理装置1、およびOCT装置10A,10Bの概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a mathematical model construction device 101, a fundus image processing device 1, and OCT devices 10A and 10B. 三次元断層画像の撮影方法の一例を説明するための説明図である。FIG. 2 is an explanatory diagram for explaining an example of a method of photographing a three-dimensional tomographic image. 二次元断層画像42の一例を示す図である。4 is a diagram showing an example of a two-dimensional tomographic image 42. FIG. 三次元断層画像43の一例を示す図である。4 is a diagram showing an example of a three-dimensional tomographic image 43. FIG. 眼底における層・境界の構造を模式的に示す図である。FIG. 2 is a diagram schematically showing the structure of layers and boundaries in the fundus of the eye. 数学モデル構築装置101が実行する数学モデル構築処理のフローチャートである。2 is a flowchart of mathematical model construction processing executed by the mathematical model construction device 101. 眼底画像処理装置1が実行する眼底画像処理のフローチャートである。2 is a flowchart of fundus image processing executed by the fundus image processing device 1. FIG. 眼底画像処理中で実行される乖離度取得処理のフローチャートである。It is a flowchart of the deviation degree acquisition process performed during fundus oculi image processing. 数学モデルに入力される二次元断層画像42と、二次元断層画像42中の一次元領域A1~ANの関係を模式的に示す図である。4 is a diagram schematically showing the relationship between a two-dimensional tomographic image 42 input to a mathematical model and one-dimensional areas A1 to AN in the two-dimensional tomographic image 42. FIG. 複数の乖離度マップの一例を示す図である。It is a figure which shows an example of several deviation degree maps. 二次元断層画像と乖離度マップの表示例を示す図である。FIG. 3 is a diagram illustrating a display example of a two-dimensional tomographic image and a discrepancy map. 厚みマップと乖離度マップの表示例を示す図である。It is a figure which shows the example of a display of a thickness map and a deviation degree map.

<概要>
本開示で例示する眼底画像処理装置の制御部は、画像取得ステップ、乖離度取得ステップ、および選択表示ステップを実行する。画像取得ステップでは、制御部は、眼底画像撮影装置によって撮影された眼底の三次元画像を取得する。乖離度取得ステップでは、制御部は、機械学習アルゴリズムによって訓練された数学モデルに三次元画像を入力することで、三次元画像に写る眼底組織における複数の部位の各々を識別するための複数の確率分布を取得し、複数の部位の各々が正確に識別される場合の確率分布に対する、取得された確率分布の乖離度を取得する。選択表示ステップでは、制御部は、取得された複数の乖離度のうち、一部の乖離度の二次元分布を示すマップ(以下、「乖離度マップ」という)を、選択的に表示部に表示させる。
<Summary>
The control unit of the fundus image processing device exemplified in this disclosure executes an image acquisition step, a deviation degree acquisition step, and a selection display step. In the image acquisition step, the control unit acquires a three-dimensional image of the fundus taken by the fundus image photographing device. In the discrepancy degree acquisition step, the control unit inputs the three-dimensional image into a mathematical model trained by a machine learning algorithm, thereby obtaining a plurality of probabilities for identifying each of the plurality of parts of the fundus tissue shown in the three-dimensional image. A distribution is obtained, and the degree of deviation of the obtained probability distribution from the probability distribution when each of the plurality of parts is accurately identified is obtained. In the selective display step, the control unit selectively displays, on the display unit, a map showing a two-dimensional distribution of some of the acquired deviation degrees (hereinafter referred to as “deviation degree map”). let

本開示で例示する眼底画像処理装置によると、三次元画像に写る眼底組織における複数の部位の各々の識別についての乖離度(以下、「複数部位の識別の乖離度」という)のうち、一部の乖離度の二次元分布が、選択的に表示部に表示される。従って、部位の識別の乖離度が、より適切にユーザに提示される。 According to the fundus image processing device exemplified in the present disclosure, a portion of the degree of deviation in the identification of each of a plurality of parts in the fundus tissue shown in the three-dimensional image (hereinafter referred to as "the degree of deviation in identification of multiple parts") is A two-dimensional distribution of the degree of deviation of is selectively displayed on the display unit. Therefore, the degree of deviation in region identification is presented to the user more appropriately.

乖離度について説明する。例えば、組織の構造に異常が無い場合には、数学モデルによって部位が正確に識別され易いので、取得される確率分布が偏り易い。一方で、組織の構造に異常がある場合は、取得される確率分布が偏り難くなる。従って、部位が正確に識別される場合の確率分布と、実際に取得された確率分布の乖離度は、構造の異常度に応じて増減する場合が多い。よって、ユーザは、表示された乖離度マップによって、診断に有用な情報を得ることができる。例えば、ユーザは、構造の異常度が高いと推定される眼底組織上の位置を、表示された乖離度マップに基づいて把握し、把握した位置の画像(例えば二次元断層画像等)を詳細に確認することで、診断の効率を向上させることも可能である。 The degree of deviation will be explained. For example, if there is no abnormality in the structure of the tissue, it is easy for the mathematical model to accurately identify the site, so the obtained probability distribution is likely to be biased. On the other hand, if there is an abnormality in the structure of the tissue, the obtained probability distribution will be less likely to be biased. Therefore, the degree of deviation between the probability distribution when a part is accurately identified and the actually obtained probability distribution often increases or decreases depending on the degree of abnormality of the structure. Therefore, the user can obtain information useful for diagnosis from the displayed deviation map. For example, the user can grasp the position on the fundus tissue where the degree of structural abnormality is estimated to be high based on the displayed discrepancy map, and create a detailed image (for example, a two-dimensional tomographic image) of the grasped position. By checking, it is also possible to improve the efficiency of diagnosis.

乖離度は、数学モデルによって出力されてもよい。また、制御部が、数学モデルによって出力された確率分布に基づいて乖離度を算出してもよい。 The degree of deviation may be output by a mathematical model. Alternatively, the control unit may calculate the degree of deviation based on a probability distribution output by a mathematical model.

乖離度には、取得された確率分布のエントロピー(平均情報量)が含まれていてもよい。エントロピーは、不確実性、乱雑さ、無秩序の度合いを表す。本開示では、部位が正確に識別される場合に出力される確率分布のエントロピーは0となる。また、部位の識別が困難になる程、エントロピーは増大する。従って、乖離度として確率分布のエントロピーを用いることで、組織の構造の異常度がより適切に定量化される。ただし、エントロピー以外の値が乖離度として採用されてもよい。例えば、取得された確率分布の散布度を示す標準偏差、変動係数、分散等の少なくともいずれかが乖離度として使用されてもよい。確率分布同士の差異を図る尺度であるKLダイバージェンス等が乖離度として使用されてもよい。また、取得された確率分布の最大値が乖離度として使用されてもよい。 The degree of deviation may include the entropy (average information amount) of the acquired probability distribution. Entropy represents the degree of uncertainty, randomness, and disorder. In the present disclosure, the entropy of the output probability distribution is 0 when the site is correctly identified. Furthermore, the more difficult it is to identify a region, the more entropy increases. Therefore, by using the entropy of the probability distribution as the degree of deviation, the degree of abnormality of the tissue structure can be more appropriately quantified. However, a value other than entropy may be employed as the degree of deviation. For example, at least one of the standard deviation, coefficient of variation, variance, etc. indicating the degree of dispersion of the obtained probability distribution may be used as the degree of deviation. KL divergence, which is a measure of the difference between probability distributions, may be used as the degree of deviation. Furthermore, the maximum value of the obtained probability distribution may be used as the degree of deviation.

なお、本開示では、三次元画像は、複数の二次元画像が並べられることで構成されている。乖離度は、三次元画像を構成する複数の二次元画像の各々について、または、画像を構成する各画素、各列、または各行について取得される。その結果、三次元画像に写る眼底組織の全体について、数学モデルによって特定の部位が識別される際の乖離度が取得される。一例として、本開示の乖離度マップでは、眼底組織を正面(つまり、三次元画像を撮影するための光の光軸に沿う方向)から見た場合の、乖離度の二次元分布が示される。ただし、乖離度マップにおいて乖離度の二次元分布が示される方向は、適宜変更できる。 Note that in the present disclosure, a three-dimensional image is configured by arranging a plurality of two-dimensional images. The degree of deviation is acquired for each of the plurality of two-dimensional images that make up the three-dimensional image, or for each pixel, each column, or each row that makes up the image. As a result, the degree of deviation when a specific region is identified by the mathematical model is obtained for the entire fundus tissue shown in the three-dimensional image. As an example, the discrepancy map of the present disclosure shows a two-dimensional distribution of discrepancies when the fundus tissue is viewed from the front (that is, a direction along the optical axis of light for capturing a three-dimensional image). However, the direction in which the two-dimensional distribution of the deviation degree is shown in the deviation degree map can be changed as appropriate.

また、眼底組織には複数の層が存在する。本開示において取得される乖離度は、眼底組織における複数の層、および、互いに隣接する層の間の境界(以下、単に「層・境界」という場合もある)のうち、複数の特定の層・境界の各々が数学モデルによって識別される際の乖離度である。ただし、眼底組織のうち、層・境界以外の部位(例えば、視神経乳頭、黄斑、中心窩、眼底血管、および疾患部位等のうちの2つ以上の部位)が識別される際の乖離度が取得されてもよい。また、特定の層の乖離度マップを表示させる場合、制御部は、特定の層に含まれる少なくとも2つの境界の乖離度の平均値等の二次元分布を、特定の層の乖離度マップとして表示してもよい。 Furthermore, there are multiple layers in the fundus tissue. The degree of deviation obtained in the present disclosure refers to a plurality of specific layers and boundaries among a plurality of layers in the fundus tissue and boundaries between mutually adjacent layers (hereinafter sometimes simply referred to as "layers/boundaries"). This is the degree of deviation when each boundary is identified by the mathematical model. However, the degree of deviation is obtained when parts of the fundus tissue other than layers/boundaries (for example, two or more parts of the optic disc, macula, fovea, fundus blood vessels, and diseased parts) are identified. may be done. Further, when displaying a deviation degree map of a specific layer, the control unit displays a two-dimensional distribution such as an average value of deviation degrees of at least two boundaries included in the specific layer as a deviation degree map of the specific layer. You may.

選択表示ステップでは、制御部は、取得された複数の乖離度のうち、乖離度の順位が高い所定数の乖離度のマップを、選択的に表示部に表示させてもよい。この場合、乖離度の順位が高い所定数の乖離度マップが、自動的に表示される。従って、ユーザは、複数の部位のうち、数学モデルによる識別の乖離度が高くなった部位の乖離度マップを容易に確認することができる。よって、診断の効率が向上する。 In the selective display step, the control unit may selectively display maps of a predetermined number of deviation degrees that are ranked high among the plurality of obtained deviation degrees on the display unit. In this case, a predetermined number of discrepancy maps with high ranks of discrepancies are automatically displayed. Therefore, the user can easily check the deviation degree map of the part whose identification by the mathematical model has a high degree of deviation among the plurality of parts. Therefore, the efficiency of diagnosis is improved.

なお、乖離度の順位が高い所定数の乖離度マップを表示させる際の具体的な方法は、適宜選択できる。例えば、制御部は、乖離度の平均値が高い順に、所定数の乖離度マップを表示させてもよい。また、制御部は、二次元のマップ内における乖離度の極大値が高い順に、所定数の乖離度マップを表示させてもよい。また、制御部は、乖離度の順位が最も高い1つの乖離度マップを表示させてもよいし、乖離度の順位が高い順に複数の乖離度マップを表示させてもよい。また、制御部は、乖離度の順位が高い複数の乖離度マップを位置合わせして合成した合成マップを表示させてもよい。 Note that a specific method for displaying a predetermined number of deviation degree maps having a high ranking of deviation degrees can be selected as appropriate. For example, the control unit may display a predetermined number of deviation degree maps in descending order of the average value of deviation degrees. Further, the control unit may display a predetermined number of deviation degree maps in descending order of the local maximum value of the deviation degree within the two-dimensional map. Further, the control unit may display one degree of deviation map having the highest rank of degree of divergence, or may display a plurality of degree of divergence maps in descending order of rank of degree of divergence. Further, the control unit may display a composite map obtained by aligning and synthesizing a plurality of discrepancy maps having high ranks of discrepancies.

制御部は、二次元断層画像表示ステップと部位指定受付ステップをさらに実行してもよい。二次元断層画像表示ステップでは、制御部は、三次元画像(つまり、数学モデルに入力される三次元画像)から、一部の二次元断層画像を抽出して表示部に表示させる。二次元断層画像は、眼底組織の深さ方向に広がる二次元の画像である。部位指定受付ステップでは、制御部は、表示されている二次元断層画像に写る部位の少なくともいずれかを指定するためのユーザからの指示入力を受け付ける。選択表示ステップでは、制御部は、部位を指定するための指示入力が受け付けられた場合に、複数の部位のうち、指定された部位の乖離度のマップを、選択的に表示部に表示させてもよい。 The control unit may further execute a two-dimensional tomographic image display step and a region designation receiving step. In the two-dimensional tomographic image display step, the control unit extracts a part of the two-dimensional tomographic image from the three-dimensional image (that is, the three-dimensional image input to the mathematical model) and causes the display unit to display the extracted two-dimensional tomographic image. A two-dimensional tomographic image is a two-dimensional image that extends in the depth direction of the fundus tissue. In the region designation receiving step, the control unit receives an instruction input from the user for designating at least one of the regions shown in the displayed two-dimensional tomographic image. In the selective display step, when the instruction input for specifying a region is received, the control section selectively displays a map of the degree of deviation of the specified region among the plurality of regions on the display section. Good too.

この場合、ユーザは、二次元断層画像に写る眼底組織の内部を確認したうえで、注目する部位を指定することで、指定した部位の乖離度マップを表示させることができる。従って、ユーザは、二次元断層画像に写る眼底組織の内部の状態に基づいて、複数の部位の乖離度マップのうち、適切な部位の乖離度マップを容易に確認することができる。例えば、ユーザは、二次元断層画像において異常が認められる部位を指定し、指定した部位についての乖離度マップを確認することで、二次元上の異常部位の拡散具合および位置等を把握し易くなる。なお、ユーザが指定可能な部位(つまり、乖離度マップを表示する部位)の数は、1つでもよいし、複数でもよい。 In this case, the user can display the deviation degree map of the designated region by confirming the inside of the fundus tissue shown in the two-dimensional tomographic image and then specifying the region of interest. Therefore, the user can easily check the deviation degree map of an appropriate part from among the deviation degree maps of a plurality of parts based on the internal state of the fundus tissue shown in the two-dimensional tomographic image. For example, by specifying a region where an abnormality is observed in a two-dimensional tomographic image and checking the deviation degree map for the specified region, the user can easily understand the degree of diffusion and location of the abnormal region on the two-dimensional plane. . Note that the number of regions that can be specified by the user (that is, the regions on which the deviation degree map is displayed) may be one or more.

制御部は、乖離度のマップを表示させている部位(以下、「対応部位」という場合もある)を二次元断層画像上で表示する対応部位表示ステップをさらに実行してもよい。この場合、ユーザは、乖離度マップが表示されている部位を、深さ方向に広がる二次元断層画像上で容易且つ適切に把握することができる。よって、診断の効率がさらに向上する。 The control unit may further execute a corresponding region display step of displaying, on the two-dimensional tomographic image, the region for which the map of the degree of deviation is displayed (hereinafter also referred to as "corresponding region"). In this case, the user can easily and appropriately grasp the region on which the discrepancy map is displayed on the two-dimensional tomographic image that extends in the depth direction. Therefore, the efficiency of diagnosis is further improved.

なお、二次元断層画像上で対応部位を表示させる方法は、適宜選択できる。例えば、制御部は、二次元断層画像上における対応部位の色を、他の部位の色に対して変化させることで、対応部位を示してもよい。制御部は、二次元断層画像上に、対応部位を取り囲む枠部を表示させることで、対応部位を示してもよい。制御部は、対応部位を指し示すカーソル等を表示させることで、対応部位を示してもよい。 Note that the method for displaying the corresponding region on the two-dimensional tomographic image can be selected as appropriate. For example, the control unit may indicate the corresponding region by changing the color of the corresponding region on the two-dimensional tomographic image relative to the color of other regions. The control unit may indicate the corresponding region by displaying a frame surrounding the corresponding region on the two-dimensional tomographic image. The control unit may indicate the corresponding region by displaying a cursor or the like pointing to the corresponding region.

制御部は、表示部に表示させている二次元断層画像が抽出された位置を、乖離度のマップ上で表示する抽出位置表示ステップをさらに実行してもよい。この場合、ユーザは、表示されている二次元断層画像の抽出位置を乖離度マップ上で確認しながら、被検眼の眼底組織の診断を行うことができる。よって、より適切に診断が行われ易くなる。 The control unit may further execute an extraction position display step of displaying a position from which the two-dimensional tomographic image displayed on the display unit is extracted on a map of the degree of deviation. In this case, the user can diagnose the fundus tissue of the eye to be examined while checking the extraction position of the displayed two-dimensional tomographic image on the discrepancy map. Therefore, it becomes easier to perform a diagnosis more appropriately.

なお、乖離度マップ上で二次元断層画像の抽出位置を表示する方法は、適宜選択できる。例えば、制御部は、眼底組織を正面方向から見た場合の二次元の乖離度マップ上で、二次元断層画像の抽出位置を示すラインを表示させてもよい。 Note that the method for displaying the extraction position of the two-dimensional tomographic image on the discrepancy map can be selected as appropriate. For example, the control unit may display a line indicating the extraction position of the two-dimensional tomographic image on a two-dimensional discrepancy map when the fundus tissue is viewed from the front.

制御部は、抽出位置指定受付ステップと指定断層画像表示ステップをさらに実行してもよい。抽出位置指定受付ステップでは、制御部は、表示されている乖離度のマップ上で、二次元断層画像の抽出位置を指定するためのユーザからの指示入力を受け付ける。指定断層画像表示ステップでは、制御部は、抽出位置を指定するための指示入力が受け付けられた場合に、指定された抽出位置から眼底組織の深さ方向に広がる二次元断層画像を抽出して表示部に表示させる。この場合、ユーザは、特定の部位に関する識別の乖離度の二次元分布を乖離度マップによって確認したうえで、表示させたい二次元断層画像の位置を、乖離度マップ上で直接指定することができる。よって、より適切に診断が行われ易くなる。 The control unit may further execute an extraction position designation receiving step and a designated tomographic image display step. In the extraction position designation reception step, the control unit receives an instruction input from the user for designating the extraction position of the two-dimensional tomographic image on the displayed map of the degree of deviation. In the specified tomographic image display step, when an instruction input for specifying an extraction position is received, the control unit extracts and displays a two-dimensional tomographic image extending in the depth direction of the fundus tissue from the specified extraction position. section. In this case, the user can check the two-dimensional distribution of identification discrepancies regarding a specific region using the discrepancy map, and then directly specify the position of the two-dimensional tomographic image to be displayed on the discrepancy map. . Therefore, it becomes easier to perform a diagnosis more appropriately.

なお、二次元断層画像の抽出位置を乖離度マップ上でユーザに指定させる方法も、適宜選択できる。例えば、制御部は、二次元の乖離度マップ上で、二次元断層画像の抽出位置(つまり、抽出される二次元断層画像と乖離度マップが交差する位置)を示すラインをユーザに指定させてもよい。この場合、ラインの形状は直線であってもよいし、直線以外の形状(例えば、曲線状または環状等)であってもよい。ラインの大きさ、およびラインの角度も、ユーザによって入力された指示に応じて変更されてもよい。 Note that a method of having the user specify the extraction position of the two-dimensional tomographic image on the discrepancy map can also be selected as appropriate. For example, the control unit allows the user to specify a line on the two-dimensional discrepancy map that indicates the extraction position of the two-dimensional tomographic image (that is, the position where the extracted two-dimensional tomographic image and the discrepancy map intersect). Good too. In this case, the shape of the line may be a straight line or a shape other than a straight line (for example, curved or annular). The size of the line and the angle of the line may also be changed according to instructions input by the user.

被検者に生じ得る複数の疾患の各々に対し、関連する眼底組織内の部位が対応付けられていてもよい。選択表示ステップでは、制御部は、取得された複数の乖離度のうち、ユーザによって指定された疾患に対応付けられている部位についての乖離度のマップを、選択的に表示部に表示させてもよい。この場合、ユーザは、疾患に応じて効率よく乖離度マップを診断に利用することができる。例えば、ユーザは、予想される被検者の疾患に関連する部位についての乖離度マップを、予想される疾患を指定するだけで容易に確認できる。また、ユーザは、指定する疾患を切り替えながら、各々の疾患に対応付けられている部位の乖離度マップを確認することで、被検者の疾患を予想することも可能である。 A related site within the fundus tissue may be associated with each of a plurality of diseases that may occur in the subject. In the selective display step, the control unit may cause the display unit to selectively display a map of deviation degrees for a region associated with the disease specified by the user among the plurality of obtained deviation degrees. good. In this case, the user can efficiently utilize the disparity map for diagnosis depending on the disease. For example, a user can easily check a degree of deviation map for a region related to a predicted disease of a subject simply by specifying the predicted disease. Furthermore, the user can also predict the disease of the subject by checking the disparity map of the parts associated with each disease while switching the specified disease.

なお、複数の疾患の中の少なくともいずれかをユーザに指定させるための方法も、適宜選択できる。例えば、制御部は、予め用意された複数の疾患名の少なくともいずれかをユーザに指定させてもよいし、疾患名をユーザに入力させてもよい。また、疾患に関連する解析を眼底画像に対して実行するための複数の解析モードの各々に、関連する眼底組織内の部位が対応付けられていてもよい。制御部は、複数の解析モードのうち、実行する解析モードに対応付けられている部位についての乖離度マップを、選択的に表示させてもよい。この場合、解析モードに関連する部位(例えば、解析対象の部位等)の乖離度マップが適切に表示される。また、制御部は、複数の部位の少なくともいずれかについての乖離度マップ(全ての乖離度マップでもよい)を表示部に表示させた状態で、ユーザに疾患を指定させてもよい。また、複数の乖離度マップを位置合わせして合成した合成マップを表示部に表示させた状態で、ユーザに疾患を指定させてもよい。この場合、疾患の種類に関係なく、乖離度が高い部位を効率的に特定できる。 Note that a method for having the user specify at least one of a plurality of diseases can also be selected as appropriate. For example, the control unit may cause the user to specify at least one of a plurality of disease names prepared in advance, or may cause the user to input the disease name. Further, each of a plurality of analysis modes for performing disease-related analysis on a fundus image may be associated with a relevant site within the fundus tissue. The control unit may selectively display a deviation degree map for a region associated with the analysis mode to be executed among the plurality of analysis modes. In this case, a deviation map of a region related to the analysis mode (for example, a region to be analyzed) is appropriately displayed. Further, the control unit may cause the user to specify a disease while displaying the deviation degree map (or all the deviation maps) for at least one of the plurality of parts on the display unit. Alternatively, the user may be allowed to specify a disease while displaying a composite map obtained by aligning and synthesizing a plurality of discrepancy maps on the display unit. In this case, regardless of the type of disease, regions with a high degree of discrepancy can be efficiently identified.

制御部は、三次元画像に写る眼底組織に含まれる複数の層のうち、特定の層の厚みの二次元分布を示す厚みマップを表示部に表示させる厚みマップ表示ステップをさらに実行してもよい。選択表示ステップでは、制御部は、眼底組織に含まれる複数の層、および、互いに隣接する層の間の境界のうち、厚みマップによって厚みが示されている層の範囲内の層および境界の少なくともいずれかについての乖離度のマップを、選択的に表示部に表示させてもよい。この場合、ユーザは、厚みマップと、厚みマップによって厚みが示されている範囲内の層・境界についての乖離度マップを、共に容易に確認することができる。よって、より適切に診断が行われ易くなる。 The control unit may further execute a thickness map display step of causing the display unit to display a thickness map indicating a two-dimensional distribution of the thickness of a specific layer among the plurality of layers included in the fundus tissue shown in the three-dimensional image. . In the selection display step, the control unit selects at least the layers and boundaries within the range of the layer whose thickness is indicated by the thickness map among the plurality of layers included in the fundus tissue and the boundaries between mutually adjacent layers. A map of the degree of deviation for either one may be selectively displayed on the display unit. In this case, the user can easily confirm both the thickness map and the deviation degree map for layers/boundaries within the range whose thickness is indicated by the thickness map. Therefore, it becomes easier to perform a diagnosis more appropriately.

なお、厚みマップによって厚みが示される特定の層は、1つの層であってもよいし、複数の層であってもよい。特定の複数の層の厚みが厚みマップによって示される場合、厚みが示される複数の層は、連続して積層されていてもよい。この場合、連続して積層された複数の層の全体の厚みが、厚みマップによって示されてもよい。 Note that the specific layer whose thickness is shown by the thickness map may be one layer or a plurality of layers. When the thickness of a specific plurality of layers is indicated by a thickness map, the plurality of layers whose thicknesses are indicated may be successively stacked. In this case, the total thickness of the plurality of successively stacked layers may be indicated by the thickness map.

また、厚みが示されている範囲内の層・境界についての乖離度マップを選択的に表示させる際の具体的な方法も、適宜選択できる。例えば、厚みマップによって厚みが示されている1つの特定の層が識別される際の乖離度マップが表示されてもよい。また、1つの特定の層における網膜表層側の境界が識別される際の乖離度マップ、および、網膜深層側の境界が識別される際の乖離度マップの少なくともいずれかが表示されてもよい。特定の層における網膜表層側の境界についての乖離度マップと、網膜深層側の境界についての乖離度マップが並べて表示されてもよいし、2つの乖離度マップが合成された合成マップが表示されてもよい。また、厚みが示されている範囲内の全ての層・境界についての乖離度マップが表示されてもよい。この場合も、複数の乖離度マップが別々に表示されてもよいし、合成マップが表示されてもよい。 Further, a specific method for selectively displaying the deviation map for layers/boundaries within the range where the thickness is indicated can be selected as appropriate. For example, a deviation map may be displayed when one specific layer whose thickness is indicated by the thickness map is identified. Further, at least one of a deviation degree map when the boundary on the surface layer side of the retina is identified in one specific layer and a degree of deviation map when the boundary on the deep retina side is identified may be displayed. A discrepancy map for the boundary on the superficial retina side and a discrepancy map for the boundary on the deep retina side in a specific layer may be displayed side by side, or a composite map in which the two discrepancy maps are combined may be displayed. Good too. Further, deviation degree maps for all layers/boundaries within the range whose thickness is indicated may be displayed. In this case as well, a plurality of deviation degree maps may be displayed separately, or a composite map may be displayed.

<実施形態>
(装置構成)
以下、本開示における典型的な実施形態の1つについて、図面を参照して説明する。図1に示すように、本実施形態では、数学モデル構築装置101、眼底画像処理装置1、およびOCT装置(眼底画像撮影装置)10A,10Bが用いられる。数学モデル構築装置101は、機械学習アルゴリズムによって数学モデルを訓練させることで、数学モデルを構築する。構築された数学モデルは、入力された眼底画像に基づいて、眼底画像に写る特定の部位(本実施形態では、眼底組織における複数の層・境界)の識別(検出)を行う。眼底画像処理装置1は、数学モデルが出力した結果を利用して、各種処理を実行する。OCT装置10A,10Bは、被検眼の眼底画像(本実施形態では、眼底の断層画像)を撮影する眼底画像撮影装置として機能する。
<Embodiment>
(Device configuration)
One typical embodiment of the present disclosure will be described below with reference to the drawings. As shown in FIG. 1, in this embodiment, a mathematical model construction device 101, a fundus image processing device 1, and OCT devices (fundus image capturing devices) 10A and 10B are used. The mathematical model construction device 101 constructs a mathematical model by training the mathematical model using a machine learning algorithm. Based on the input fundus image, the constructed mathematical model identifies (detects) a specific region (in this embodiment, multiple layers/boundaries in the fundus tissue) appearing in the fundus image. The fundus image processing device 1 executes various processes using the results output by the mathematical model. The OCT apparatuses 10A and 10B function as fundus image capturing apparatuses that capture fundus images of the eye to be examined (in this embodiment, tomographic images of the fundus).

一例として、本実施形態の数学モデル構築装置101にはパーソナルコンピュータ(以下、「PC」という)が用いられる。詳細は後述するが、数学モデル構築装置101は、OCT装置10Aから取得した被検眼の眼底画像(以下、「訓練用眼底画像」という)のデータと、訓練用眼底画像が撮影された被検眼の複数の部位(本実施形態では、複数の層・境界)を示すデータとを利用して、数学モデルを訓練させる。その結果、数学モデルが構築される。ただし、数学モデル構築装置101として機能できるデバイスは、PCに限定されない。例えば、OCT装置10Aが数学モデル構築装置101として機能してもよい。また、複数のデバイスの制御部(例えば、PCのCPUと、OCT装置10AのCPU13A)が、協働して数学モデルを構築してもよい。 As an example, a personal computer (hereinafter referred to as "PC") is used as the mathematical model construction device 101 of this embodiment. Although the details will be described later, the mathematical model construction device 101 uses the data of the fundus image of the subject's eye obtained from the OCT device 10A (hereinafter referred to as the "training fundus image") and the data of the subject's eye from which the training fundus image was taken. A mathematical model is trained using data indicating a plurality of parts (in this embodiment, a plurality of layers/boundaries). As a result, a mathematical model is constructed. However, a device that can function as the mathematical model construction device 101 is not limited to a PC. For example, the OCT device 10A may function as the mathematical model construction device 101. Moreover, the control units of a plurality of devices (for example, the CPU of the PC and the CPU 13A of the OCT apparatus 10A) may cooperate to construct the mathematical model.

また、本実施形態の眼底画像処理装置1にはPCが用いられる。しかし、眼底画像処理装置1として機能できるデバイスも、PCに限定されない。例えば、OCT装置10Bまたはサーバ等が、眼底画像処理装置1として機能してもよい。OCT装置10Bが眼底画像処理装置1として機能する場合、OCT装置10Bは、眼底画像を撮影しつつ、撮影した眼底画像を処理することができる。また、タブレット端末またはスマートフォン等の携帯端末が、眼底画像処理装置1として機能してもよい。複数のデバイスの制御部(例えば、PCのCPUと、OCT装置10BのCPU13B)が、協働して各種処理を行ってもよい。 Further, a PC is used as the fundus image processing apparatus 1 of this embodiment. However, the device that can function as the fundus image processing device 1 is not limited to a PC either. For example, the OCT device 10B, a server, or the like may function as the fundus image processing device 1. When the OCT device 10B functions as the fundus image processing device 1, the OCT device 10B can process the captured fundus image while capturing the fundus image. Further, a mobile terminal such as a tablet terminal or a smartphone may function as the fundus image processing device 1. The control units of multiple devices (for example, the CPU of the PC and the CPU 13B of the OCT apparatus 10B) may cooperate to perform various processes.

また、本実施形態では、各種処理を行うコントローラの一例としてCPUが用いられる場合について例示する。しかし、各種デバイスの少なくとも一部に、CPU以外のコントローラが用いられてもよいことは言うまでもない。例えば、コントローラとしてGPUを採用することで、処理の高速化を図ってもよい。 Further, in this embodiment, a case will be described in which a CPU is used as an example of a controller that performs various processes. However, it goes without saying that a controller other than the CPU may be used for at least some of the various devices. For example, a GPU may be used as the controller to speed up the processing.

数学モデル構築装置101について説明する。数学モデル構築装置101は、例えば、眼底画像処理装置1または眼底画像処理プログラムをユーザに提供するメーカー等に配置される。数学モデル構築装置101は、各種制御処理を行う制御ユニット102と、通信I/F105を備える。制御ユニット102は、制御を司るコントローラであるCPU103と、プログラムおよびデータ等を記憶することが可能な記憶装置104を備える。記憶装置104には、後述する数学モデル構築処理(図6参照)を実行するための数学モデル構築プログラムが記憶されている。また、通信I/F105は、数学モデル構築装置101を他のデバイス(例えば、OCT装置10Aおよび眼底画像処理装置1等)と接続する。 The mathematical model construction device 101 will be explained. The mathematical model construction device 101 is placed, for example, at a manufacturer that provides the fundus image processing device 1 or the fundus image processing program to users. The mathematical model construction device 101 includes a control unit 102 that performs various control processes, and a communication I/F 105. The control unit 102 includes a CPU 103 which is a controller in charge of control, and a storage device 104 capable of storing programs, data, and the like. The storage device 104 stores a mathematical model building program for executing a mathematical model building process (see FIG. 6), which will be described later. Further, the communication I/F 105 connects the mathematical model construction device 101 to other devices (for example, the OCT device 10A, the fundus image processing device 1, etc.).

数学モデル構築装置101は、操作部107および表示装置108に接続されている。操作部107は、ユーザが各種指示を数学モデル構築装置101に入力するために、ユーザによって操作される。操作部107には、例えば、キーボード、マウス、タッチパネル等の少なくともいずれかを使用できる。なお、操作部107と共に、または操作部107に代えて、各種指示を入力するためのマイク等が使用されてもよい。表示装置108は、各種画像を表示する。表示装置108には、画像を表示可能な種々のデバイス(例えば、モニタ、ディスプレイ、プロジェクタ等の少なくともいずれか)を使用できる。なお、本開示における「画像」には、静止画像も動画像も共に含まれる。 The mathematical model construction device 101 is connected to an operation unit 107 and a display device 108. The operation unit 107 is operated by the user in order for the user to input various instructions to the mathematical model construction device 101. For the operation unit 107, for example, at least one of a keyboard, a mouse, a touch panel, etc. can be used. Note that a microphone or the like for inputting various instructions may be used together with or in place of the operation unit 107. The display device 108 displays various images. As the display device 108, various devices capable of displaying images (for example, at least one of a monitor, a display, a projector, etc.) can be used. Note that "image" in the present disclosure includes both still images and moving images.

数学モデル構築装置101は、OCT装置10Aから眼底画像のデータ(以下、単に「眼底画像」という場合もある)を取得することができる。数学モデル構築装置101は、例えば、有線通信、無線通信、着脱可能な記憶媒体(例えばUSBメモリ)等の少なくともいずれかによって、OCT装置10Aから眼底画像のデータを取得してもよい。 The mathematical model construction device 101 can acquire fundus image data (hereinafter sometimes simply referred to as “fundus image”) from the OCT device 10A. The mathematical model construction device 101 may acquire fundus image data from the OCT device 10A through at least one of wired communication, wireless communication, a removable storage medium (for example, a USB memory), and the like.

眼底画像処理装置1について説明する。眼底画像処理装置1は、例えば、被検者の診断または検査等を行う施設(例えば、病院または健康診断施設等)に配置される。眼底画像処理装置1は、各種制御処理を行う制御ユニット2と、通信I/F5を備える。制御ユニット2は、制御を司るコントローラであるCPU3と、プログラムおよびデータ等を記憶することが可能な記憶装置4を備える。記憶装置4には、後述する眼底画像処理(図7参照)を実行するための眼底画像処理プログラムが記憶されている。眼底画像処理プログラムには、数学モデル構築装置101によって構築された数学モデルを実現させるプログラムが含まれる。通信I/F5は、眼底画像処理装置1を他のデバイス(例えば、OCT装置10Bおよび数学モデル構築装置101等)と接続する。 The fundus image processing device 1 will be explained. The fundus image processing device 1 is placed, for example, in a facility (for example, a hospital or a medical examination facility) that performs diagnosis or examination of subjects. The fundus image processing device 1 includes a control unit 2 that performs various control processes, and a communication I/F 5. The control unit 2 includes a CPU 3, which is a controller that controls, and a storage device 4 that can store programs, data, and the like. The storage device 4 stores a fundus image processing program for executing fundus image processing (see FIG. 7), which will be described later. The fundus image processing program includes a program that realizes the mathematical model constructed by the mathematical model construction device 101. The communication I/F 5 connects the fundus image processing device 1 with other devices (for example, the OCT device 10B, the mathematical model construction device 101, etc.).

眼底画像処理装置1は、操作部7および表示装置(表示部)8に接続されている。操作部7および表示装置8には、前述した操作部107および表示装置108と同様に、種々のデバイスを使用することができる。 The fundus image processing device 1 is connected to an operation section 7 and a display device (display section) 8. Various devices can be used for the operation section 7 and the display device 8, similar to the operation section 107 and the display device 108 described above.

眼底画像処理装置1は、OCT装置10Bから眼底画像(本実施形態では、眼底組織の三次元断層画像)を取得することができる。眼底画像処理装置1は、例えば、有線通信、無線通信、着脱可能な記憶媒体(例えばUSBメモリ)等の少なくともいずれかによって、OCT装置10Bから眼底画像を取得してもよい。また、眼底画像処理装置1は、数学モデル構築装置101によって構築された数学モデルを実現させるプログラム等を、通信等を介して取得してもよい。 The fundus image processing device 1 can acquire a fundus image (in this embodiment, a three-dimensional tomographic image of fundus tissue) from the OCT device 10B. The fundus image processing device 1 may acquire a fundus image from the OCT device 10B, for example, by wired communication, wireless communication, a removable storage medium (eg, USB memory), or the like. Further, the fundus image processing device 1 may acquire a program or the like that realizes the mathematical model constructed by the mathematical model construction device 101 via communication or the like.

OCT装置10(10A,10B)について説明する。OCT装置10は、眼底の断層画像を撮影する眼底画像撮影装置の一例である。本実施形態では、数学モデル構築装置101に眼底画像を提供するOCT装置10Aと、眼底画像処理装置1に眼底画像を提供するOCT装置10Bが使用される場合について説明する。しかし、使用されるOCT装置の数は2つに限定されない。例えば、数学モデル構築装置101および眼底画像処理装置1は、複数のOCT装置から眼底画像を取得してもよい。また、数学モデル構築装置101および眼底画像処理装置1は、共通する1つのOCT装置から眼底画像を取得してもよい。 The OCT apparatus 10 (10A, 10B) will be explained. The OCT device 10 is an example of a fundus image capturing device that captures tomographic images of the fundus. In this embodiment, a case will be described in which an OCT device 10A that provides a fundus image to the mathematical model construction device 101 and an OCT device 10B that provides a fundus image to the fundus image processing device 1 are used. However, the number of OCT devices used is not limited to two. For example, the mathematical model construction device 101 and the fundus image processing device 1 may acquire fundus images from a plurality of OCT devices. Furthermore, the mathematical model construction device 101 and the fundus image processing device 1 may acquire fundus images from one common OCT device.

OCT装置10は、被検眼の眼底の二次元断層画像および三次元断層画像を撮影することができる。撮影方法の一例について説明する。図2に示すように、本実施形態のOCT装置10は、OCT測定光の光軸に交差する方向に広がる二次元の測定領域40内に、スポットを走査させる直線状の走査ライン(スキャンライン)41を、等間隔で複数設定する。OCT装置10は、それぞれの走査ライン41上に測定光のスポットを走査させることで、それぞれの走査ライン41に交差する断面の二次元断層画像42(図3参照)を撮影することができる。二次元断層画像42は、同一部位の複数の二次元断層画像に対して加算平均処理を行うことで生成された加算平均画像であってもよい。また、OCT装置10は、複数の走査ライン41について撮影した複数の二次元断層画像42を、画像領域に対して垂直に交差する方向に並べることで、三次元画像(三次元断層画像)43(図4参照)を取得(撮影)することができる。 The OCT apparatus 10 is capable of capturing two-dimensional tomographic images and three-dimensional tomographic images of the fundus of the eye to be examined. An example of a photographing method will be explained. As shown in FIG. 2, the OCT apparatus 10 of this embodiment uses a linear scanning line (scan line) that scans a spot within a two-dimensional measurement area 40 that extends in a direction intersecting the optical axis of OCT measurement light. A plurality of 41 are set at equal intervals. The OCT apparatus 10 can capture a two-dimensional tomographic image 42 (see FIG. 3) of a cross section intersecting each scanning line 41 by scanning a spot of measurement light on each scanning line 41. The two-dimensional tomographic image 42 may be an average image generated by performing averaging processing on a plurality of two-dimensional tomographic images of the same region. In addition, the OCT apparatus 10 arranges a plurality of two-dimensional tomographic images 42 taken for a plurality of scanning lines 41 in a direction perpendicular to the image area, so that a three-dimensional image (three-dimensional tomographic image) 43 ( (see FIG. 4) can be acquired (photographed).

図1の説明に戻る。数学モデル構築装置101に接続されるOCT装置10Aは、少なくとも、被検眼の眼底の二次元断層画像42(図3参照)を撮影することができる。また、眼底画像処理装置1に接続されるOCT装置10Bは、前述した二次元断層画像42に加えて、被検眼の眼底の三次元画像43(図4参照)を撮影することができる。 Returning to the explanation of FIG. The OCT device 10A connected to the mathematical model construction device 101 is capable of capturing at least a two-dimensional tomographic image 42 (see FIG. 3) of the fundus of the eye to be examined. Further, the OCT device 10B connected to the fundus image processing device 1 can capture a three-dimensional image 43 (see FIG. 4) of the fundus of the eye to be examined in addition to the two-dimensional tomographic image 42 described above.

(眼底の層・境界の構造)
図5を参照して、被検眼の眼底における層、および、互いに隣接する層の間の境界の構造について説明する。図5では、眼底における層・境界の構造を模式的に示している。図5の上側が、眼底の網膜の表面側(表層側)である。つまり、図5の下側へ向かう程、層・境界の深さは大きくなる。また、図5では、隣接する層の間の境界の名称には括弧を付している。
(Structure of layers and boundaries of the fundus)
With reference to FIG. 5, the structure of the layers in the fundus of the eye to be examined and the boundaries between mutually adjacent layers will be described. FIG. 5 schematically shows the structure of layers and boundaries in the fundus. The upper side of FIG. 5 is the surface side (superficial layer side) of the retina of the fundus. In other words, the depth of the layer/boundary becomes larger toward the bottom of FIG. 5 . Further, in FIG. 5, the names of boundaries between adjacent layers are shown in parentheses.

眼底の層について説明する。眼底では、表面側(図5の上側)から順に、ILM(内境界膜:intermal limiting membrane)、NFL(神経線維層:nerve fiber layer)、GCL(神経節細胞層:ganglion cell layer)、IPL(内網状層:inner plexiform layer)、INL(内顆粒層:inner nuclear layer)、OPL(外網状層:outer plexiform layer)、ONL(外顆粒層:outer nuclear layer)、ELM(外境界膜:external limiting membrane)、IS/OS(視細胞内節外節接合部:junction between photoreceptor inner and outer segment)、RPE(網膜色素上皮:retinal pigment epithelium)、BM(ブルッフ膜:Bruch's membrane)、Choroid(脈絡膜)が存在する。 The layers of the fundus will be explained. In the fundus, from the surface side (upper side of Figure 5), the ILM (internal limiting membrane), NFL (nerve fiber layer), GCL (ganglion cell layer), IPL ( inner plexiform layer, INL (inner nuclear layer), OPL (outer plexiform layer), ONL (outer nuclear layer), E LM (external limiting membrane) membrane), IS/OS (junction between photoreceptor inner and outer segment), RPE (retinal pigment epithelium), BM (Bruch's membrane), Choroid ) exists.

また、断層画像に表れやすい境界として、例えば、NFL/GCL(NFLとGCLの間の境界)、IPL/INL(IPLとINLの間の境界)、OPL/ONL(OPLとONLの間の境界)、RPE/BM(RPEとBMの間の境界)、BM/Choroid(BMとChoroidの間の境界)などが存在する。 In addition, boundaries that tend to appear on tomographic images include, for example, NFL/GCL (boundary between NFL and GCL), IPL/INL (boundary between IPL and INL), and OPL/ONL (boundary between OPL and ONL). , RPE/BM (boundary between RPE and BM), BM/Choroid (boundary between BM and Choroid), etc.

(数学モデル構築処理)
図6を参照して、数学モデル構築装置101が実行する数学モデル構築処理について説明する。数学モデル構築処理は、記憶装置104に記憶された数学モデル構築プログラムに従って、CPU103によって実行される。
(mathematical model construction process)
With reference to FIG. 6, the mathematical model construction process executed by the mathematical model construction device 101 will be described. The mathematical model construction process is executed by the CPU 103 according to the mathematical model construction program stored in the storage device 104.

以下では、一例として、入力された二次元断層画像を解析することで、眼底画像に写る複数の層・境界のうち、複数の特定の層・境界の識別結果を出力する数学モデルを構築する場合を例示する。本実施形態では、複数の特定の層・境界として、ILM、NFL/GCL、IPL/INL、OPL/ONL、IS/OS、RPE/BM、およびBMの各々が、数学モデルによって識別される。ただし、数学モデル構築処理では、層・境界の識別結果とは異なる結果を出力する数学モデルを構築することも可能である。例えば、入力された眼底画像に写る、視神経乳頭、黄斑、中心窩、眼底血管、および疾患部位等のうちの2つ以上の部位の識別結果を出力する数学モデルが、数学モデル構築処理によって構築されてもよい。 Below, as an example, we will construct a mathematical model that outputs the identification results of multiple specific layers/boundaries among multiple layers/boundaries shown in a fundus image by analyzing an input two-dimensional tomographic image. exemplify. In this embodiment, each of ILM, NFL/GCL, IPL/INL, OPL/ONL, IS/OS, RPE/BM, and BM is identified by the mathematical model as a plurality of specific layers/boundaries. However, in the mathematical model construction process, it is also possible to construct a mathematical model that outputs a result different from the layer/boundary identification result. For example, a mathematical model that outputs the identification results of two or more parts of the optic disc, macula, fovea, fundus blood vessels, diseased parts, etc. that appear in the input fundus image is constructed by a mathematical model construction process. It's okay.

また、本実施形態で例示する数学モデルは、入力された眼底画像に写る特定の部位(本実施形態では特定の層・境界)の各々を識別するための確率分布を出力する。 Further, the mathematical model exemplified in this embodiment outputs a probability distribution for identifying each specific region (specific layer/boundary in this embodiment) appearing in the input fundus image.

数学モデル構築処理では、訓練用データセットによって数学モデルが訓練されることで、数学モデルが構築される。訓練用データセットには、入力側のデータ(入力用訓練データ)と出力側のデータ(出力用訓練データ)が含まれる。 In the mathematical model construction process, a mathematical model is constructed by training the mathematical model using a training data set. The training data set includes input side data (input training data) and output side data (output training data).

図6に示すように、CPU103は、OCT装置10Aによって撮影された眼底画像(本実施形態では二次元断層画像)のデータを、入力用訓練データとして取得する(S1)。次いで、CPU103は、S1で取得された眼底画像が撮影された被検眼の、特定の複数の部位の各々を示すデータを、出力用訓練データとして取得する(S2)。本実施形態における出力用訓練データには、眼底画像に写る特定の複数の層・境界の位置を示すラベルのデータが含まれている。ラベルのデータは、例えば、作業者が眼底画像における層・境界を見ながら操作部107を操作することで生成されてもよい。 As shown in FIG. 6, the CPU 103 acquires data of a fundus image (a two-dimensional tomographic image in this embodiment) captured by the OCT apparatus 10A as input training data (S1). Next, the CPU 103 acquires, as output training data, data indicating each of a plurality of specific parts of the eye to be examined in which the fundus image acquired in S1 was photographed (S2). The output training data in this embodiment includes label data indicating the positions of a plurality of specific layers/boundaries shown in the fundus image. The label data may be generated, for example, by the operator operating the operating unit 107 while looking at the layers/boundaries in the fundus image.

次いで、CPU103は、機械学習アルゴリズムによって、訓練データセットを用いた数学モデルの訓練を実行する(S3)。機械学習アルゴリズムとしては、例えば、ニューラルネットワーク、ランダムフォレスト、ブースティング、サポートベクターマシン(SVM)等が一般的に知られている。 Next, the CPU 103 executes training of a mathematical model using the training data set using a machine learning algorithm (S3). As machine learning algorithms, for example, neural networks, random forests, boosting, support vector machines (SVM), etc. are generally known.

ニューラルネットワークは、生物の神経細胞ネットワークの挙動を模倣する手法である。ニューラルネットワークには、例えば、フィードフォワード(順伝播型)ニューラルネットワーク、RBFネットワーク(放射基底関数)、スパイキングニューラルネットワーク、畳み込みニューラルネットワーク、再帰型ニューラルネットワーク(リカレントニューラルネット、フィードバックニューラルネット等)、確率的ニューラルネット(ボルツマンマシン、ベイシアンネットワーク等)等がある。 Neural networks are a method that imitates the behavior of biological nerve cell networks. Neural networks include, for example, feedforward neural networks, RBF networks (radial basis functions), spiking neural networks, convolutional neural networks, recurrent neural networks (recurrent neural networks, feedback neural networks, etc.), and stochastic neural networks. There are various types of neural networks (Boltzmann machines, Bassian networks, etc.).

ランダムフォレストは、ランダムサンプリングされた訓練データに基づいて学習を行って、多数の決定木を生成する方法である。ランダムフォレストを用いる場合、予め識別器として学習しておいた複数の決定木の分岐を辿り、各決定木から得られる結果の平均(あるいは多数決)を取る。 Random forest is a method of generating a large number of decision trees by performing learning based on randomly sampled training data. When using random forest, branches of multiple decision trees trained in advance as a classifier are followed, and the average (or majority vote) of the results obtained from each decision tree is taken.

ブースティングは、複数の弱識別器を組み合わせることで強識別器を生成する手法である。単純で弱い識別器を逐次的に学習させることで、強識別器を構築する。 Boosting is a method of generating a strong classifier by combining multiple weak classifiers. A strong classifier is constructed by sequentially training simple and weak classifiers.

SVMは、線形入力素子を利用して2クラスのパターン識別器を構成する手法である。SVMは、例えば、訓練データから、各データ点との距離が最大となるマージン最大化超平面を求めるという基準(超平面分離定理)で、線形入力素子のパラメータを学習する。 SVM is a method of constructing a two-class pattern discriminator using linear input elements. For example, the SVM learns the parameters of a linear input element based on the criterion (hyperplane separation theorem) of finding a margin-maximizing hyperplane that maximizes the distance to each data point from training data.

数学モデルは、例えば、入力データ(本実施形態では、入力用訓練データと同様の二次元断層画像のデータ)と、出力データ(本実施形態では、特定の複数の部位の識別結果のデータ)の関係を予測するためのデータ構造を指す。数学モデルは、訓練データセットを用いて訓練されることで構築される。前述したように、訓練データセットは、入力用訓練データと出力用訓練データのセットである。例えば、訓練によって、各入力と出力の相関データ(例えば、重み)が更新される。 The mathematical model is, for example, input data (in this embodiment, two-dimensional tomographic image data similar to input training data) and output data (in this embodiment, data of identification results of a plurality of specific parts). Refers to a data structure for predicting relationships. A mathematical model is constructed by being trained using a training dataset. As described above, the training data set is a set of input training data and output training data. For example, training updates correlation data (eg, weights) between each input and output.

本実施形態では、機械学習アルゴリズムとして多層型のニューラルネットワークが用いられている。ニューラルネットワークは、データを入力するための入力層と、予測したい解析結果のデータを生成するための出力層と、入力層と出力層の間の1つ以上の隠れ層を含む。各層には、複数のノード(ユニットとも言われる)が配置される。詳細には、本実施形態では、多層型ニューラルネットワークの一種である畳み込みニューラルネットワーク(CNN)が用いられている。 In this embodiment, a multilayer neural network is used as a machine learning algorithm. A neural network includes an input layer for inputting data, an output layer for generating data of an analysis result desired to be predicted, and one or more hidden layers between the input layer and the output layer. A plurality of nodes (also called units) are arranged in each layer. Specifically, in this embodiment, a convolutional neural network (CNN), which is a type of multilayer neural network, is used.

一例として、本実施形態で構築される数学モデルは、眼底画像中の領域(一次元領域、二次元領域、三次元領域、および、時間軸を含む四次元領域のいずれか)内において、特定の複数の部位(本実施形態では、特定の複数の層・境界)の各々が存在する座標(一次元座標、二次元座標、三次元座標、および四次元座標のいずれか)を確率変数とする確率分布を、各々の部位を識別するための確率分布として出力する。本実施形態では、数学モデルに確率分布を出力させるために、ソフトマックス関数が適用されている。詳細には、S3で構築される数学モデルは、二次元断層画像中の特定の層・境界に交差する方向(本実施形態では、OCTの測定光の光軸に沿う方向である深さ方向であり、図3では上下方向)に延びる一次元領域における、特定の層・境界が存在する座標を確率変数とする確率分布を出力する。 As an example, the mathematical model constructed in this embodiment is based on a specific area within a fundus image (one-dimensional area, two-dimensional area, three-dimensional area, or four-dimensional area including the time axis) Probability using the coordinates (one-dimensional coordinates, two-dimensional coordinates, three-dimensional coordinates, or four-dimensional coordinates) where each of a plurality of parts (in this embodiment, a plurality of specific layers/boundaries) exists as a random variable The distribution is output as a probability distribution for identifying each part. In this embodiment, a softmax function is applied to cause the mathematical model to output a probability distribution. In detail, the mathematical model constructed in S3 is constructed in the direction intersecting a specific layer/boundary in the two-dimensional tomographic image (in this embodiment, the depth direction is the direction along the optical axis of the OCT measurement light). A probability distribution is output in which the coordinates of a specific layer/boundary exist as random variables in a one-dimensional region extending in the vertical direction (in FIG. 3, vertical direction).

ただし、数学モデルが特定の部位を識別するための確率分布を出力する具体的方法は、適宜変更できる。例えば、数学モデルは、二次元領域または三次元領域において、特定の部位(例えば特徴部位等)が存在する二次元座標または三次元座標を確率変数とする確率分布を、部位を識別するための確率分布として出力してもよい。また、数学モデルは、被検眼における複数の部位(例えば、複数の層および境界)の種類を確率変数とする確率分布を、入力された眼科画像の各領域毎(例えば画素毎)に出力してもよい。また、数学モデルに入力される眼科画像が動画像であってもよい。 However, the specific method by which the mathematical model outputs a probability distribution for identifying a specific region can be changed as appropriate. For example, in a two-dimensional or three-dimensional region, a mathematical model is based on a probability distribution using two-dimensional coordinates or three-dimensional coordinates where a specific region (for example, a characteristic region, etc.) exists as a random variable, and a probability distribution for identifying the region. It may also be output as a distribution. In addition, the mathematical model outputs a probability distribution for each region (for example, for each pixel) of the input ophthalmological image, with the types of multiple parts (for example, multiple layers and boundaries) in the eye to be examined as random variables. Good too. Further, the ophthalmological image input to the mathematical model may be a moving image.

なお、他の機械学習アルゴリズムが用いられてもよい。例えば、競合する2つのニューラルネットワークを利用する敵対的生成ネットワーク(Generative adversarial networks:GAN)が、機械学習アルゴリズムとして採用されてもよい。 Note that other machine learning algorithms may be used. For example, generative adversarial networks (GAN), which utilize two competing neural networks, may be employed as the machine learning algorithm.

数学モデルの構築が完了するまで(S4:NO)、S1~S3の処理が繰り返される。数学モデルの構築が完了すると(S4:YES)、数学モデル構築処理は終了する。本実施形態では、構築された数学モデルを実現させるプログラムおよびデータは、眼底画像処理装置1に組み込まれる。 The processes of S1 to S3 are repeated until construction of the mathematical model is completed (S4: NO). When construction of the mathematical model is completed (S4: YES), the mathematical model construction process ends. In this embodiment, a program and data for realizing the constructed mathematical model are incorporated into the fundus image processing device 1.

(眼底画像処理)
図7から図12を参照して、眼底画像処理装置1が実行する眼底画像処理について説明する。眼底画像処理は、記憶装置4に記憶された眼底画像処理プログラムに従って、眼底画像処理装置1のCPU3によって実行される。
(fundus image processing)
Referring to FIGS. 7 to 12, fundus image processing performed by the fundus image processing device 1 will be described. Fundus image processing is executed by the CPU 3 of the fundus image processing device 1 according to a fundus image processing program stored in the storage device 4.

まず、CPU3は、被検眼の眼底の三次元画像(三次元断層画像)を取得する(S11)。三次元画像は、OCT装置10Bによって撮影されて、眼底画像処理装置1によって取得される。前述したように、三次元画像は、互いに異なるスキャンライン上に測定光を走査させることで撮影された複数の二次元画像(二次元断層画像)を組み合わせることで構成されている。なお、CPU3は、三次元画像を生成する基となる信号(例えばOCT信号)をOCT装置10Bから取得し、取得した信号に基づいて三次元画像を生成してもよい。 First, the CPU 3 acquires a three-dimensional image (three-dimensional tomographic image) of the fundus of the eye to be examined (S11). The three-dimensional image is photographed by the OCT device 10B and acquired by the fundus image processing device 1. As described above, a three-dimensional image is constructed by combining a plurality of two-dimensional images (two-dimensional tomographic images) taken by scanning measurement light on different scan lines. Note that the CPU 3 may acquire a signal (for example, an OCT signal) that is a basis for generating a three-dimensional image from the OCT device 10B, and generate a three-dimensional image based on the acquired signal.

CPU3は、乖離度取得処理を実行する(S12)。乖離度取得処理では、S11で取得された三次元画像についての乖離度が取得される。乖離度とは、三次元画像に写る眼底組織の複数の部位の各々を数学モデルが識別するための確率分布と、複数の部位の各々が数学モデルによって正確に識別される場合の確率分布の乖離度である。乖離度は、構造の異常度等に応じて増減する場合が多い。従って、ユーザが乖離度を把握することで、診断の効率が向上し易くなる。 The CPU 3 executes a deviation degree acquisition process (S12). In the deviation degree acquisition process, the deviation degree of the three-dimensional image acquired in S11 is acquired. Discrepancy is the difference between the probability distribution for a mathematical model to identify each of multiple parts of the fundus tissue in a three-dimensional image, and the probability distribution when each of the multiple parts is accurately identified by the mathematical model. degree. The degree of deviation often increases or decreases depending on the degree of abnormality of the structure. Therefore, when the user understands the degree of deviation, it becomes easier to improve the efficiency of diagnosis.

図8に示すように、CPU3は、S11で取得した三次元画像を構成する複数の二次元断層画像のうち、T番目(Tの初期値は「1」)の二次元断層画像を抽出する(S36)。図9に、抽出された二次元断層画像42の一例を示す。二次元断層画像42には、被検眼の眼底における複数の層・境界が表れている。また、二次元断層画像42中に、複数の一次元領域A1~ANが設定される。本実施形態では、二次元断層画像42中に設定される一次元領域A1~ANは、特定の層・境界に交差する軸に沿って延びる。詳細には、本実施形態の一次元領域A1~ANは、OCT装置10によって撮影された二次元断層画像42を構成する複数(N本)のAスキャンの各々の領域に一致する。 As shown in FIG. 8, the CPU 3 extracts the T-th (initial value of T is "1") two-dimensional tomographic image from among the plurality of two-dimensional tomographic images forming the three-dimensional image acquired in S11 ( S36). FIG. 9 shows an example of the extracted two-dimensional tomographic image 42. The two-dimensional tomographic image 42 shows a plurality of layers and boundaries in the fundus of the subject's eye. Furthermore, a plurality of one-dimensional areas A1 to AN are set in the two-dimensional tomographic image 42. In this embodiment, the one-dimensional regions A1 to AN set in the two-dimensional tomographic image 42 extend along an axis that intersects a specific layer/boundary. Specifically, the one-dimensional regions A1 to AN of the present embodiment correspond to regions of each of a plurality of (N) A-scans that constitute the two-dimensional tomographic image 42 captured by the OCT apparatus 10.

CPU3は、数学モデルにT番目の二次元断層画像を入力することで、複数の一次元領域A1~ANの各々において、M番目(Mの初期値は「1」)の部位(本実施形態ではM番目の層・境界)が存在する座標の確率分布を、M番目の部位を識別するための確率分布として取得する(S37)。CPU3は、M番目の部位に関する、確率分布の乖離度を取得する(S38)。S38で取得される乖離度は、M番目の部位が正確に識別される場合の確率分布に対する、S37で取得された確率分布の差である。 By inputting the T-th two-dimensional tomographic image into the mathematical model, the CPU 3 calculates the M-th (initial value of M is "1") region (in this embodiment, the initial value of M is "1") in each of the plurality of one-dimensional regions A1 to AN. The probability distribution of the coordinates where the Mth layer/boundary exists is acquired as the probability distribution for identifying the Mth region (S37). The CPU 3 obtains the degree of deviation of the probability distribution regarding the Mth part (S38). The degree of deviation obtained in S38 is the difference between the probability distribution obtained in S37 and the probability distribution when the Mth region is correctly identified.

本実施形態では、乖離度として、確率分布Pのエントロピーが算出される。エントロピーは、以下の(数1)で与えられる。エントロピーH(P)は、0≦H(P)≦log(事象の数)の値を取り、確率分布Pが偏っている程小さな値になる。つまり、エントロピーH(P)が小さい程、M番目の部位の識別精度が高い傾向となる。
H(P)=-Σplog(p)・・・(数1)
In this embodiment, the entropy of the probability distribution P is calculated as the degree of deviation. Entropy is given by the following (Equation 1). Entropy H(P) takes a value of 0≦H(P)≦log (number of events), and the value becomes smaller as the probability distribution P is biased. In other words, the smaller the entropy H(P), the higher the identification accuracy of the M-th region tends to be.
H(P)=-Σplog(p)...(Math. 1)

次いで、CPU3は、T番目の二次元断層画像において識別対象とする、全ての部位(層・境界)の乖離度が取得されたか否かを判断する(S40)。一部の部位についての乖離度が未だ取得されていなければ(S40:NO)、識別対象とする部位の順番Mに「1」が加算されて(S41)、処理はS37に戻り、次の部位の乖離度が取得される(S37,S38)。全ての部位の乖離度が取得されると(S40:YES)、CPU3は、T番目の二次元断層画像に写る複数の部位の各々について取得された複数の乖離度を、記憶装置4に記憶させる(S42)。 Next, the CPU 3 determines whether the degree of deviation of all parts (layers/boundaries) to be identified in the T-th two-dimensional tomographic image has been acquired (S40). If the degree of deviation for some parts has not yet been obtained (S40: NO), "1" is added to the order M of parts to be identified (S41), and the process returns to S37 to obtain the next part. The degree of deviation is acquired (S37, S38). When the degrees of deviation of all parts are acquired (S40: YES), the CPU 3 causes the storage device 4 to store the plurality of degrees of deviation acquired for each of the plurality of parts reflected in the T-th two-dimensional tomographic image. (S42).

次いで、CPU3は、三次元断層画像を構成する全ての二次元断層画像の乖離度が取得されたか否かを判断する(S44)。一部の二次元断層画像の乖離度が未だ取得されていなければ(S44:NO)、二次元断層画像の順番Tに「1」が加算されて(S45)、処理はS36に戻り、次の二次元断層画像の乖離度が取得される(S36~S42)。 Next, the CPU 3 determines whether the degrees of deviation of all the two-dimensional tomographic images constituting the three-dimensional tomographic image have been acquired (S44). If the degree of deviation of some two-dimensional tomographic images has not yet been acquired (S44: NO), "1" is added to the order T of the two-dimensional tomographic images (S45), and the process returns to S36 to obtain the next The degree of deviation of the two-dimensional tomographic images is acquired (S36 to S42).

全ての二次元断層画像の乖離度が取得されると(S44:YES)、CPU3は、識別対象とした複数の部位の各々についての乖離度マップを取得する(S47)。その後、処理は眼底画像処理(図7参照)へ戻る。乖離度マップは、眼底を正面(つまり、OCT測定光の光軸に沿う方向)から見た場合の乖離度の大きさの二次元分布を示す。前述したように、本実施形態では、ILM、NFL/GCL、IPL/INL、OPL/ONL、IS/OS、RPE/BM、およびBMの各々についての乖離度マップが取得される。 When the degree of deviation of all two-dimensional tomographic images is acquired (S44: YES), the CPU 3 acquires a degree of deviation map for each of the plurality of parts to be identified (S47). Thereafter, the process returns to fundus image processing (see FIG. 7). The discrepancy map shows a two-dimensional distribution of the discrepancy when the fundus is viewed from the front (that is, the direction along the optical axis of the OCT measurement light). As described above, in this embodiment, a deviation degree map is obtained for each of ILM, NFL/GCL, IPL/INL, OPL/ONL, IS/OS, RPE/BM, and BM.

図10に、一部の部位についての乖離度マップの一例を示す。図10に示す乖離度マップでは、乖離度が大きい部位が明るい色で表現されている。図10に示す乖離度マップは、視神経乳頭(以下、単に「乳頭」という)の近傍の三次元画像から取得されている。乳頭が存在する位置では、ILMおよびNFLが存在する一方で、NFLよりも深い位置の層および境界は欠落する。従って、乳頭が存在する位置では、NFLよりも深い位置の層および境界の識別に関する乖離度は、乳頭が存在しない位置に比べて大きくなる。図10に示す例では、ILMの乖離度マップでは、全体的に乖離度が小さくなっている。従って、二次元の領域全体でILMが高い確率で識別されていることが分かる。一方で、IPL/INLおよびBMの乖離度マップでは、二次元の領域のうち、乳頭が存在する中央部近傍の乖離度が大きくなっている。 FIG. 10 shows an example of a deviation degree map for some parts. In the deviation degree map shown in FIG. 10, parts with large deviation degrees are expressed in bright colors. The deviation degree map shown in FIG. 10 is obtained from a three-dimensional image near the optic disc (hereinafter simply referred to as "papilla"). Where the papilla is present, the ILM and NFL are present, while layers and boundaries deeper than the NFL are absent. Therefore, at a position where a papilla is present, the degree of deviation regarding the identification of layers and boundaries deeper than the NFL is greater than at a position where a papilla is not present. In the example shown in FIG. 10, in the ILM deviation map, the deviation is small overall. Therefore, it can be seen that ILMs are identified with high probability in the entire two-dimensional region. On the other hand, in the IPL/INL and BM deviation maps, the deviation is large in the two-dimensional region near the center where the nipple is present.

図7の説明に戻る。CPU3は、識別対象とされた複数の部位の各々についての複数の乖離度のうち、乖離度の順位(つまり、乖離度の大きさの順位)が高い所定数の乖離度マップを、選択的にデフォルトとして表示装置8に表示させる(S13)。従って、ユーザは、識別対象とされた複数の部位のうち、数学モデルによる識別の乖離度が高くなった部位の乖離度マップを容易に確認することができる。なお、本実施形態では、CPU3は、二次元の乖離度マップ内における乖離度の平均値が高い順に、所定数の乖離度マップを表示させる。しかし、乖離度の順位の決定方法は、平均値を用いる方法に限定されない。例えば、CPU3は、二次元の乖離度マップ内における乖離度の極大値が高い順に、所定数の乖離度マップを表示させてもよい。また、CPU3は、乖離度の順位が最も高い1つの乖離度マップを表示させてもよいし、乖離度の順位が高い順に複数の乖離度マップを表示させてもよい。また、CPU3は、乖離度の順位が高い複数の乖離度マップを位置合わせして合成した合成マップを表示させてもよい。 Returning to the explanation of FIG. 7. The CPU 3 selectively selects a predetermined number of deviation degree maps having a high deviation degree rank (that is, a deviation degree size ranking) among a plurality of deviation degree maps for each of the plurality of parts to be identified. It is displayed on the display device 8 as a default (S13). Therefore, the user can easily check the deviation degree map of the part whose identification based on the mathematical model has a high degree of deviation among the plurality of parts to be identified. In addition, in this embodiment, the CPU 3 displays a predetermined number of deviation degree maps in descending order of the average value of the deviation degrees in the two-dimensional deviation degree maps. However, the method for determining the rank of deviation degree is not limited to the method using the average value. For example, the CPU 3 may display a predetermined number of deviation degree maps in descending order of the local maximum value of the deviation degree within the two-dimensional deviation degree map. Further, the CPU 3 may display one deviation degree map with the highest deviation degree ranking, or may display a plurality of deviation degree maps in descending order of deviation degree ranking. Further, the CPU 3 may display a composite map obtained by aligning and synthesizing a plurality of discrepancy maps having high ranks of discrepancies.

CPU3は、S11で取得された三次元画像のデフォルト位置から、眼底の深さ方向に広がる一部の二次元断層画像を抽出し、表示装置8に表示させる(S14)。図11は、選択された乖離度マップと共に、三次元画像から抽出された二次元断層画像が表示装置8に表示されている例を示す。なお、本実施形態では、図11に示すように、S11で取得された三次元画像の撮影範囲を正面(つまり、OCT測定光の光軸に沿う方向)から見た場合の二次元の眼底正面画像も、乖離度マップおよび二次元断層画像と共に表示される。この場合、眼底正面画像は、三次元画像に基づいて生成される画像(所謂Enface画像)であってもよいし、三次元画像を撮影したデバイスとは異なるデバイス(例えば、SLO装置または眼底カメラ等)によって撮影された画像であってもよい。 The CPU 3 extracts a part of the two-dimensional tomographic image extending in the depth direction of the fundus from the default position of the three-dimensional image acquired in S11, and displays it on the display device 8 (S14). FIG. 11 shows an example in which a two-dimensional tomographic image extracted from a three-dimensional image is displayed on the display device 8 together with the selected degree of deviation map. In this embodiment, as shown in FIG. 11, the imaging range of the three-dimensional image acquired in S11 is a two-dimensional fundus front view when viewed from the front (that is, a direction along the optical axis of the OCT measurement light). The image is also displayed together with the discrepancy map and the two-dimensional tomographic image. In this case, the fundus front image may be an image generated based on a three-dimensional image (so-called Enface image), or may be an image generated based on a three-dimensional image (a so-called Enface image), or a device different from the device that captured the three-dimensional image (for example, an SLO device or a fundus camera, etc.). ) may be an image taken by

なお、三次元画像から二次元断層画像を抽出するデフォルト位置は、適宜設定できる。例えば、三次元画像を正面から見た二次元正面画像上で、中心位置を左右に横切るライン状の位置を、S14で二次元断層画像を抽出するデフォルト位置としてもよい。また、眼底における特徴部位(例えば、乳頭または黄斑等)を、画像処理等を用いて特定し、特定した部位を通過するライン状の位置を、S14で二次元断層画像を抽出するデフォルト位置としてもよい。なお、ラインは直線に限定されない。 Note that the default position for extracting a two-dimensional tomographic image from a three-dimensional image can be set as appropriate. For example, on a two-dimensional frontal image of a three-dimensional image viewed from the front, a line-shaped position crossing the center position left and right may be the default position from which the two-dimensional tomographic image is extracted in S14. In addition, characteristic parts (for example, papilla or macula) in the fundus of the eye are identified using image processing, etc., and the line-shaped position passing through the identified part is set as the default position for extracting the two-dimensional tomographic image in S14. good. Note that the line is not limited to a straight line.

CPU3は、数学モデルによる識別対象とされた複数の部位のうち、乖離度マップを表示させている部位(「対応部位」という場合もある)を、二次元断層画像上で表示する(S15)。従って、ユーザは、乖離度マップが表示されている部位(図11では「部位A」を、深さ方向に広がる二次元断層画像上で容易且つ適切に把握することができる。なお、本実施形態では、図11に示すように、二次元断層画像に写る複数の層・境界のうち、乖離度マップが表示されている部位A(層・境界)の色を変化させることで、部位Aが示されている。 The CPU 3 displays, on the two-dimensional tomographic image, the part for which the deviation degree map is displayed (sometimes referred to as "corresponding part") among the plurality of parts targeted for identification by the mathematical model (S15). Therefore, the user can easily and appropriately grasp the region on which the discrepancy map is displayed ("region A" in FIG. 11) on the two-dimensional tomographic image that spreads in the depth direction. Now, as shown in Fig. 11, by changing the color of region A (layer/boundary) where the discrepancy map is displayed among the multiple layers/boundaries shown in the two-dimensional tomographic image, region A is displayed. has been done.

CPU3は、表示装置8に表示させている二次元断層画像が抽出された位置を、乖離度マップ上で表示する(S16)。従って、ユーザは、表示されている二次元断層画像の抽出位置を乖離度マップ上で確認しながら、眼底組織の診断等を行うことができる。なお、本実施形態では、図11に示すように、眼底組織を正面方向から見た場合の二次元の乖離度マップ上で、二次元断層画像の抽出位置を示すラインPが表示される。また、本実施形態では、二次元の眼底正面画像上でも同様に、二次元断層画像の抽出位置を示すラインPが表示される。 The CPU 3 displays the position from which the two-dimensional tomographic image displayed on the display device 8 is extracted on the deviation degree map (S16). Therefore, the user can diagnose the fundus tissue while checking the extraction position of the displayed two-dimensional tomographic image on the discrepancy map. In this embodiment, as shown in FIG. 11, a line P indicating the extraction position of the two-dimensional tomographic image is displayed on the two-dimensional degree of deviation map when the fundus tissue is viewed from the front. Furthermore, in the present embodiment, a line P indicating the extraction position of the two-dimensional tomographic image is similarly displayed on the two-dimensional fundus frontal image.

次いで、CPU3は、表示装置8に表示されている二次元断層画像に写る部位のうち、乖離度マップを表示させる少なくともいずれかの部位を指定するための指示が、ユーザによって入力されたか否かを判断する(S17)。一例として、本実施形態では、ユーザは、操作部7の操作(例えば、カーソルの移動とクリック、またはタッチパネルによる位置指定等)によって、乖離度マップを表示させる部位を、表示装置8に表示されている二次元画像上で指定する。ユーザによって指定される部位の数は、1つでもよいし複数でもよい。部位Aが指定されていなければ(S17:NO)、処理はそのままS21へ移行する。 Next, the CPU 3 determines whether or not the user has input an instruction to specify at least one of the regions shown in the two-dimensional tomographic image displayed on the display device 8 for displaying the discrepancy map. A judgment is made (S17). As an example, in the present embodiment, the user selects the region on which the discrepancy map is to be displayed by operating the operation unit 7 (for example, moving and clicking a cursor, specifying a position using a touch panel, etc.). specified on the two-dimensional image. The number of parts designated by the user may be one or more. If part A is not specified (S17: NO), the process directly advances to S21.

乖離度マップを表示させる部位が指定されると(S17:YES)、CPU3は、数学モデルによる識別対象とされた複数の部位のうち、乖離度マップを表示させるために指定された部位A(対応部位)を、二次元断層画像上で表示する(S18)。従って、ユーザは、乖離度マップが表示される部位Aを、深さ方向に広がる二次元断層画像上で容易且つ適切に把握することができる。図11に示す例では、乖離度マップを表示させる部位Aとして、IPL/INLが二次元画像上で指定されている。本実施形態では、CPU3は、二次元画像上における指定部位(対応部位)であるIPL/INLの色を、他の部位の色に対して変化させることで、指定部位を示している。 When the region on which the deviation degree map is to be displayed is specified (S17: YES), the CPU 3 selects the region A (corresponding part) on a two-dimensional tomographic image (S18). Therefore, the user can easily and appropriately grasp the region A where the discrepancy map is displayed on the two-dimensional tomographic image that extends in the depth direction. In the example shown in FIG. 11, IPL/INL is specified on the two-dimensional image as the region A on which the deviation degree map is displayed. In the present embodiment, the CPU 3 indicates the designated region by changing the color of IPL/INL, which is the designated region (corresponding region), on the two-dimensional image with respect to the color of other regions.

さらに、CPU3は、数学モデルによる識別対象とされた複数の部位のうち、ユーザによって指定された部位(対応部位)の乖離度マップを、選択的に表示装置8に表示させる(S19)。従って、ユーザは、二次元断層画像に写る眼底組織の内部の状態に基づいて、複数の部位の乖離度マップのうち、適切な部位の乖離度マップを容易に確認することができる。その後、処理はS21へ移行する。図11に示す例では、CPU3は、ユーザによって指定されたIPL/INLの乖離度マップを表示装置8に表示させている。なお、CPU3は、表示装置8に表示させたIPL/INLの乖離度マップ上で、二次元断層画像が抽出された位置を表示させる。 Further, the CPU 3 selectively causes the display device 8 to display a discrepancy map of a region (corresponding region) specified by the user among the plurality of regions to be identified by the mathematical model (S19). Therefore, the user can easily check the deviation degree map of an appropriate part from among the deviation degree maps of a plurality of parts based on the internal state of the fundus tissue shown in the two-dimensional tomographic image. After that, the process moves to S21. In the example shown in FIG. 11, the CPU 3 causes the display device 8 to display the IPL/INL deviation degree map specified by the user. Note that the CPU 3 causes the position where the two-dimensional tomographic image is extracted to be displayed on the IPL/INL deviation degree map displayed on the display device 8.

次いで、CPU3は、表示装置8に表示されている乖離度マップ上で、二次元断層画像を抽出する位置Pを指定するための指示が、ユーザによって入力されたか否かを判断する(S21)。位置Pが指定されていなければ(S21:NO)、処理はそのままS25へ移行する。一例として、本実施形態では、ユーザは、操作部7の操作(例えば、カーソルの移動とクリック、またはタッチパネルによる位置指定等)によって、二次元断層画像を抽出する位置Pを、表示装置8に表示されている乖離度マップ上で指定する。なお、本実施形態では、CPU3は、表示装置8に表示されている二次元の眼底正面画像上でも同様に、二次元断層画像を抽出する位置Pを指定するための指示を受け付けることも可能である。また、図11に示す例では、直線状のラインの位置が指定されることで、二次元断層画像を抽出する位置Pが指定される。しかし、抽出位置Pを指定するための方法を変更することも可能である。例えば、位置Pを指定するために用いられるラインは直線状に限定されず、環状または曲線状等であってもよい。 Next, the CPU 3 determines whether the user has input an instruction to specify a position P from which a two-dimensional tomographic image is to be extracted on the discrepancy map displayed on the display device 8 (S21). If the position P has not been designated (S21: NO), the process moves directly to S25. As an example, in the present embodiment, the user displays on the display device 8 a position P from which a two-dimensional tomographic image is to be extracted by operating the operation unit 7 (for example, moving and clicking a cursor, specifying a position using a touch panel, etc.). specified on the deviation map. In addition, in this embodiment, the CPU 3 can also similarly receive an instruction for specifying the position P from which a two-dimensional tomographic image is extracted on the two-dimensional fundus front image displayed on the display device 8. be. Furthermore, in the example shown in FIG. 11, the position P from which the two-dimensional tomographic image is extracted is specified by specifying the position of the straight line. However, it is also possible to change the method for specifying the extraction position P. For example, the line used to designate the position P is not limited to a straight line, but may be annular, curved, or the like.

二次元断層画像を抽出する位置Pが乖離度マップ上で指定されると(S21:YES)、CPU3は、指定された位置Pを、乖離度マップ上で表示する(S22)。従って、ユーザは、表示されている二次元断層画像の抽出位置Pを乖離度マップ上で確認しながら、被検眼の眼底組織の診断を行うことができる。前述したように、図11に示す例では、眼底組織を正面方向から見た場合の二次元の乖離度マップ上で、二次元断層画像の抽出位置を示すラインPが表示される。また、本実施形態では、二次元の眼底正面画像上でも同様に、二次元断層画像の抽出位置を示すラインPが表示される。なお、眼底正面画像上で二次元断層画像の抽出位置Pが指定された場合も同様に、乖離度マップ上および眼底正面画像上に、二次元断層画像の抽出位置を示すラインPが表示される。 When the position P from which a two-dimensional tomographic image is extracted is designated on the discrepancy map (S21: YES), the CPU 3 displays the designated position P on the discrepancy map (S22). Therefore, the user can diagnose the fundus tissue of the eye to be examined while checking the extraction position P of the displayed two-dimensional tomographic image on the discrepancy map. As described above, in the example shown in FIG. 11, a line P indicating the extraction position of the two-dimensional tomographic image is displayed on the two-dimensional discrepancy map when the fundus tissue is viewed from the front. Furthermore, in the present embodiment, a line P indicating the extraction position of the two-dimensional tomographic image is similarly displayed on the two-dimensional fundus frontal image. Note that even when the extraction position P of the two-dimensional tomographic image is specified on the fundus frontal image, a line P indicating the extraction position of the two-dimensional tomographic image is similarly displayed on the discrepancy map and the fundus frontal image. .

さらに、CPU3は、指定された位置Pから眼底組織の深さ方向に広がる二次元断層画像(つまり、指定された位置Pを通過し、且つ深さ方向に広がる二次元断層画像)を三次元画像から抽出し、表示装置8に表示させる(S23)。従って、ユーザは、特定の部位(本実施形態では、特定の層・境界)に関する識別の乖離度の二次元分布を乖離度マップによって確認したうえで、表示させたい二次元断層画像の位置を、乖離度マップ上で直接指定することができる。その後、処理はS25へ移行する。 Furthermore, the CPU 3 converts a two-dimensional tomographic image that spreads in the depth direction of the fundus tissue from the specified position P (that is, a two-dimensional tomographic image that passes through the specified position P and spreads in the depth direction) into a three-dimensional image. , and display it on the display device 8 (S23). Therefore, the user confirms the two-dimensional distribution of the identification discrepancy regarding a specific region (in this embodiment, a specific layer/boundary) using the discrepancy map, and then determines the position of the two-dimensional tomographic image that he/she wishes to display. It can be specified directly on the deviation map. After that, the process moves to S25.

次いで、CPU3は、複数の疾患のいずれかを指定する指示がユーザによって入力されたか否かを判断する(S25)。疾患が指定されていなければ(S25:NO)、処理はそのままS28へ移行する。本実施形態では、ユーザは、いずれかの疾患を指定することで、指定した疾患に対応付けられている部位についての乖離度マップを表示させることができる。詳細には、被検者に生じ得る複数の疾患の各々に対し、関連する眼底組織内の部位の少なくともいずれかが対応付けられている。例えば、本実施形態では、ERM(網膜前膜)には網膜表層の部位、糖尿病網膜症には網膜内層の部位、AMD(加齢黄斑変性)およびCNV(脈絡膜新生血管)には網膜外層の部位が対応付けられている。ユーザによって疾患が指定されると(S25:YES)、CPU3は、数学モデルによる識別対象とされた複数の部位のうち、指定された疾患に対応付けられている部位についての乖離度マップを、選択的に表示装置8に表示させる(S26)。従って、ユーザは、予想される被検者の疾患に関連する部位についての乖離度マップを、予想される疾患を指定するだけで容易に確認できる。また、ユーザは、指定する疾患を切り替えながら、各々の疾患に対応付けられている部位の乖離度マップを確認することで、被検者の疾患を予想することも可能である。なお、S26においても、乖離度マップを表示させた部位を二次元断層画像上で表示させてもよい。 Next, the CPU 3 determines whether the user has input an instruction specifying any one of the plurality of diseases (S25). If no disease has been designated (S25: NO), the process moves directly to S28. In this embodiment, by specifying any disease, the user can display a disparity map for the region associated with the specified disease. Specifically, each of the plurality of diseases that may occur in the subject is associated with at least one of the related sites in the fundus tissue. For example, in this embodiment, ERM (preretinal membrane) is a site on the surface layer of the retina, diabetic retinopathy is a site on the inner retinal layer, and AMD (age-related macular degeneration) and CNV (choroidal neovascularization) is a site on the outer retinal layer. are associated. When a disease is specified by the user (S25: YES), the CPU 3 selects a deviation degree map for a region associated with the specified disease from among the plurality of regions targeted for identification by the mathematical model. displayed on the display device 8 (S26). Therefore, the user can easily check the degree of deviation map for the region related to the predicted disease of the subject simply by specifying the predicted disease. Furthermore, the user can also predict the disease of the subject by checking the disparity map of the parts associated with each disease while switching the specified disease. Note that in S26 as well, the region on which the deviation degree map is displayed may be displayed on the two-dimensional tomographic image.

次いで、CPU3は、厚みマップを表示させる指示が入力されたか否かを判断する(S28)。厚みマップは、眼底組織に含まれる複数の層のうち、特定の層の厚みの二次元分布を示す。図12に例示されている厚みマップは、眼底組織に含まれる複数の層のうち、ILMからNFL/GCLまでの層の厚みマップである。しかし、他の層の厚みマップを表示させることも可能である。厚みマップを表示させる層を、ユーザに指定させることも可能である。 Next, the CPU 3 determines whether an instruction to display the thickness map has been input (S28). The thickness map shows a two-dimensional distribution of the thickness of a specific layer among multiple layers included in the fundus tissue. The thickness map illustrated in FIG. 12 is a thickness map of the layers from ILM to NFL/GCL among the multiple layers included in the fundus tissue. However, it is also possible to display thickness maps of other layers. It is also possible to have the user specify the layer for which the thickness map is to be displayed.

厚みマップを表示させる指示が入力されると(S28:YES)、CPU3は、特定の層の厚みマップを表示装置8に表示させる(S29)。さらに、CPU3は、S11で取得された三次元画像に写る層・境界のうち、厚みマップが示されている範囲内の層・境界についての乖離度マップを、表示装置8に表示させる(S30)。従って、ユーザは、厚みマップと、厚みマップによって厚みが示されている範囲内の層・境界についての乖離度マップを、共に容易に確認することができる。図12に示す例では、ILMからNFL/GCLまでの層の厚みマップが表示されている。また、ILMからNFL/GCLまでの範囲内に存在する、ILMおよびNFL/GCLの乖離度マップが表示されている。なお、S230においても、乖離度マップを表示させた部位を二次元断層画像上で表示させてもよい。 When an instruction to display the thickness map is input (S28: YES), the CPU 3 causes the display device 8 to display the thickness map of the specific layer (S29). Furthermore, the CPU 3 causes the display device 8 to display a deviation degree map for the layers and boundaries within the range where the thickness map is shown among the layers and boundaries captured in the three-dimensional image acquired in S11 (S30). . Therefore, the user can easily confirm both the thickness map and the deviation degree map for layers/boundaries within the range whose thickness is indicated by the thickness map. In the example shown in FIG. 12, a thickness map of layers from ILM to NFL/GCL is displayed. Also displayed is a deviation degree map between ILM and NFL/GCL that exists within the range from ILM to NFL/GCL. Note that in S230 as well, the region on which the deviation degree map is displayed may be displayed on the two-dimensional tomographic image.

CPU3は、終了指示が入力されたか否かを判断する(S32)。入力されていなければ(S32:NO)、処理はS17へ戻り、S17~S32の処理が繰り返される。終了指示が入力されると(S32:YES)、眼底画像処理は終了する。 The CPU 3 determines whether a termination instruction has been input (S32). If it has not been input (S32: NO), the process returns to S17, and the processes from S17 to S32 are repeated. When the end instruction is input (S32: YES), the fundus image processing ends.

上記実施形態で開示された技術は一例に過ぎない。従って、上記実施形態で例示された技術を変更することも可能である。まず、上記実施形態で例示された複数の技術のうちの一部のみを実行することも可能である。例えば、S17,S21,S25,S28の処理のうち、一部の処理を省略することも可能である。 The techniques disclosed in the above embodiments are merely examples. Therefore, it is also possible to modify the techniques exemplified in the above embodiments. First, it is also possible to execute only some of the techniques exemplified in the above embodiments. For example, it is also possible to omit some of the processes of S17, S21, S25, and S28.

なお、図7のS11で三次元画像を取得する処理は、「画像取得ステップ」の一例である。図7のS12(図8)で乖離度を取得する処理は、「乖離度取得ステップ」の一例である。図7のS13、S19、S26、S30で一部の乖離度マップを選択的に表示させる処理は、「選択表示ステップ」の一例である。図7のS14、S23で二次元断層画像を抽出して表示させる処理は、「二次元断層画像表示ステップ」の一例である。図7のS17で部位Aの指定指示の入力を受け付ける処理は、「部位指定受付ステップ」の一例である。図7のS15、S18で対応部位を二次元断層画像上で表示させる処理は、「対応部位表示ステップ」の一例である。図7のS16、S22で二次元断層画像の抽出位置を乖離度マップ上で表示させる処理は、「抽出位置表示ステップ」の一例である。図7のS21で二次元断層画像の抽出位置の指示入力を受け付ける処理は、「抽出位置指定受付ステップ」の一例である。図7のS23で二次元断層画像を抽出して表示させる処理は、「指定断層画像表示ステップ」の一例である。図7のS29で厚みマップを表示させる処理は、「厚みマップ表示ステップ」の一例である。 Note that the process of acquiring a three-dimensional image in S11 of FIG. 7 is an example of an "image acquisition step." The process of acquiring the degree of deviation in S12 of FIG. 7 (FIG. 8) is an example of a "degree of deviation acquisition step." The process of selectively displaying some of the deviation degree maps in S13, S19, S26, and S30 in FIG. 7 is an example of a "selective display step." The process of extracting and displaying a two-dimensional tomographic image in S14 and S23 of FIG. 7 is an example of a "two-dimensional tomographic image display step." The process of accepting the input of the region A designation instruction in S17 of FIG. 7 is an example of the "region designation reception step." The process of displaying the corresponding region on the two-dimensional tomographic image in S15 and S18 in FIG. 7 is an example of the "corresponding region display step." The process of displaying the extraction position of the two-dimensional tomographic image on the discrepancy map in S16 and S22 of FIG. 7 is an example of the "extraction position display step." The process of receiving an instruction input for the extraction position of a two-dimensional tomographic image in S21 of FIG. 7 is an example of the "extraction position designation reception step." The process of extracting and displaying a two-dimensional tomographic image in S23 of FIG. 7 is an example of a "designated tomographic image display step." The process of displaying the thickness map in S29 of FIG. 7 is an example of a "thickness map display step."

1 眼底画像処理装置
3 CPU
4 記憶装置
8 表示装置
10A,10B OCT装置
42 二次元断層画像
43 三次元画像
1 Fundus image processing device 3 CPU
4 Storage device 8 Display devices 10A, 10B OCT device 42 Two-dimensional tomographic image 43 Three-dimensional image

Claims (9)

被検眼の眼底画像を処理する眼底画像処理装置であって、
前記眼底画像処理装置の制御部は、
眼底画像撮影装置によって撮影された眼底の三次元画像を取得する画像取得ステップと、
機械学習アルゴリズムによって訓練された数学モデルに前記三次元画像を入力することで、前記三次元画像に写る眼底組織における複数の部位の各々を識別するための複数の確率分布を取得し、前記複数の部位の各々が正確に識別される場合の確率分布に対する、取得された確率分布の乖離度を取得する乖離度取得ステップと、
取得された複数の前記乖離度のうち、一部の乖離度の二次元分布を示すマップを、選択的に表示部に表示させる選択表示ステップと、
を実行することを特徴とする眼底画像処理装置。
A fundus image processing device that processes a fundus image of an eye to be examined,
The control unit of the fundus image processing device includes:
an image acquisition step of acquiring a three-dimensional image of the fundus taken by a fundus image capturing device;
By inputting the three-dimensional image into a mathematical model trained by a machine learning algorithm, a plurality of probability distributions for identifying each of the plurality of parts of the fundus tissue shown in the three-dimensional image are obtained, and a deviation degree obtaining step of obtaining a deviation degree of the obtained probability distribution with respect to a probability distribution when each part is accurately identified;
a selective display step of selectively displaying a map showing a two-dimensional distribution of some of the obtained deviation degrees on a display unit;
A fundus image processing device that performs the following.
請求項1に記載の眼底画像処理装置であって、
前記選択表示ステップでは、取得された複数の前記乖離度のうち、前記乖離度の順位が高い所定数の前記乖離度のマップを、選択的に表示部に表示させることを特徴とする眼底画像処理装置。
The fundus image processing device according to claim 1,
The fundus image processing is characterized in that, in the selective display step, a predetermined number of maps of the deviation degrees that are ranked high among the plurality of acquired deviation degrees are selectively displayed on the display unit. Device.
請求項1または2に記載の眼底画像処理装置であって、
前記三次元画像から、眼底組織の深さ方向に広がる一部の二次元断層画像を抽出して表示部に表示させる二次元断層画像表示ステップと、
表示されている前記二次元断層画像に写る部位の少なくともいずれかを指定するためのユーザからの指示入力を受け付ける部位指定受付ステップと、
をさらに実行し、
前記選択表示ステップでは、部位を指定するための指示入力が受け付けられた場合に、前記複数の部位のうち、指定された部位の前記乖離度のマップを、選択的に表示部に表示させることを特徴とする眼底画像処理装置。
The fundus image processing device according to claim 1 or 2,
a two-dimensional tomographic image display step of extracting a part of the two-dimensional tomographic image extending in the depth direction of the fundus tissue from the three-dimensional image and displaying it on a display unit;
a region designation receiving step of receiving an instruction input from a user to designate at least one of the regions shown in the displayed two-dimensional tomographic image;
further run
In the selective display step, when an instruction input for specifying a region is received, the map of the degree of deviation of the specified region among the plurality of regions is selectively displayed on the display unit. Characteristic fundus image processing device.
請求項3に記載の眼底画像処理装置であって、
前記複数の部位のうち、前記乖離度のマップを表示させている部位を、前記二次元断層画像上で表示する対応部位表示ステップをさらに実行することを特徴とする眼底画像処理装置。
The fundus image processing device according to claim 3,
The fundus oculi image processing device further comprises: displaying, on the two-dimensional tomographic image, a corresponding region displaying a region on which the map of the degree of deviation is displayed among the plurality of regions.
請求項3または4に記載の眼底画像処理装置であって、
前記表示部に表示させている前記二次元断層画像が抽出された位置を、前記乖離度のマップ上で表示する抽出位置表示ステップをさらに実行することを特徴とする眼底画像処理装置。
The fundus image processing device according to claim 3 or 4,
A fundus oculi image processing apparatus, further comprising: displaying an extraction position display step of displaying a position from which the two-dimensional tomographic image displayed on the display unit is extracted on a map of the degree of deviation.
請求項1から5のいずれかに記載の眼底画像処理装置であって、
表示されている前記乖離度のマップ上で、二次元断層画像の抽出位置を指定するためのユーザからの指示入力を受け付ける抽出位置指定受付ステップと、
抽出位置を指定するための指示入力が受け付けられた場合に、指定された前記抽出位置から前記眼底組織の深さ方向に広がる二次元断層画像を抽出して表示部に表示させる指定断層画像表示ステップと、
をさらに実行することを特徴とする眼底画像処理装置。
The fundus image processing device according to any one of claims 1 to 5,
an extraction position designation reception step of accepting an instruction input from a user to designate an extraction position of the two-dimensional tomographic image on the displayed map of the degree of deviation;
When an instruction input for designating an extraction position is accepted, a designated tomographic image display step of extracting a two-dimensional tomographic image extending in the depth direction of the fundus tissue from the designated extraction position and displaying it on a display unit. and,
A fundus image processing device further comprising:
請求項1から6のいずれかに記載の眼底画像処理装置であって、
被検者に生じ得る複数の疾患の各々に対し、関連する眼底組織内の部位が対応付けられており、
前記選択表示ステップでは、取得された複数の前記乖離度のうち、ユーザによって指定された疾患に対応付けられている部位についての前記乖離度のマップを、選択的に表示部に表示させることを特徴とする眼底画像処理装置。
The fundus image processing device according to any one of claims 1 to 6,
For each of the multiple diseases that may occur in the subject, a relevant site within the fundus tissue is associated.
The selective display step is characterized by selectively displaying on the display unit a map of the deviation degrees for a region associated with the disease specified by the user among the plurality of obtained deviation degrees. Fundus image processing device.
請求項1から7のいずれかに記載の眼底画像処理装置であって、
前記三次元画像に写る前記眼底組織に含まれる複数の層のうち、特定の層の厚みの二次元分布を示す厚みマップを表示部に表示させる厚みマップ表示ステップをさらに実行し、
前記選択表示ステップでは、前記眼底組織に含まれる複数の層、および、互いに隣接する層の間の境界のうち、前記厚みマップによって厚みが示されている範囲内の層および境界の少なくともいずれかについての前記乖離度のマップを、選択的に表示部に表示させることを特徴とする眼底画像処理装置。
The fundus image processing device according to any one of claims 1 to 7,
further performing a thickness map display step of displaying on a display unit a thickness map showing a two-dimensional distribution of thickness of a specific layer among a plurality of layers included in the fundus tissue shown in the three-dimensional image;
In the selection display step, at least one of a plurality of layers included in the fundus tissue and boundaries between mutually adjacent layers is within a range whose thickness is indicated by the thickness map. A fundus image processing device characterized in that the map of the degree of deviation of is selectively displayed on a display unit.
被検眼の眼底画像を処理する眼底画像処理装置によって実行される眼底画像処理プログラムであって、
前記眼底画像処理プログラムが前記眼底画像処理装置の制御部によって実行されることで、
眼底画像撮影装置によって撮影された眼底の三次元画像を取得する画像取得ステップと、
機械学習アルゴリズムによって訓練された数学モデルに前記三次元画像を入力することで、前記三次元画像に写る眼底組織における複数の部位の各々を識別するための複数の確率分布を取得し、前記複数の部位の各々が正確に識別される場合の確率分布に対する、取得された確率分布の乖離度を取得する乖離度取得ステップと、
取得された複数の前記乖離度のうち、一部の乖離度の二次元分布を示すマップを、選択的に表示部に表示させる選択表示ステップと、
を前記眼底画像処理装置に実行させることを特徴とする眼底画像処理プログラム。
A fundus image processing program executed by a fundus image processing device that processes a fundus image of an eye to be examined,
The fundus image processing program is executed by the control unit of the fundus image processing device,
an image acquisition step of acquiring a three-dimensional image of the fundus taken by a fundus image capturing device;
By inputting the three-dimensional image into a mathematical model trained by a machine learning algorithm, a plurality of probability distributions for identifying each of the plurality of parts of the fundus tissue shown in the three-dimensional image are obtained, and a deviation degree obtaining step of obtaining a deviation degree of the obtained probability distribution with respect to a probability distribution when each part is accurately identified;
a selective display step of selectively displaying a map showing a two-dimensional distribution of some of the obtained deviation degrees on a display unit;
A fundus image processing program that causes the fundus image processing device to execute.
JP2022058488A 2022-03-31 2022-03-31 Ocular fundus image processing device and ocular fundus image processing program Pending JP2023149742A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022058488A JP2023149742A (en) 2022-03-31 2022-03-31 Ocular fundus image processing device and ocular fundus image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022058488A JP2023149742A (en) 2022-03-31 2022-03-31 Ocular fundus image processing device and ocular fundus image processing program

Publications (1)

Publication Number Publication Date
JP2023149742A true JP2023149742A (en) 2023-10-13

Family

ID=88288750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022058488A Pending JP2023149742A (en) 2022-03-31 2022-03-31 Ocular fundus image processing device and ocular fundus image processing program

Country Status (1)

Country Link
JP (1) JP2023149742A (en)

Similar Documents

Publication Publication Date Title
US11633096B2 (en) Ophthalmologic image processing device and non-transitory computer-readable storage medium storing computer-readable instructions
JP6907563B2 (en) Image processing device and image processing program
WO2018143180A1 (en) Image processing device and image processing program
US10719932B2 (en) Identifying suspicious areas in ophthalmic data
JP6878923B2 (en) Image processing equipment, image processing system, and image processing program
JP2023016933A (en) Ophthalmologic apparatus, control method of ophthalmologic apparatus, and program
JP7196908B2 (en) Ophthalmic image processing device and ophthalmic image processing program
WO2020026535A1 (en) Ophthalmic image processing device, oct device, and ophthalmic image processing program
US20190365314A1 (en) Ocular fundus image processing device and non-transitory computer-readable medium storing computer-readable instructions
JP2024045441A (en) Ophthalmic image processing device and ophthalmic image processing program
JP2021101965A (en) Control device, optical interference tomography apparatus, control method of optical interference tomography apparatus, and program
US20240020839A1 (en) Medical image processing device, medical image processing program, and medical image processing method
JP7194136B2 (en) OPHTHALMOLOGICAL APPARATUS, OPHTHALMOLOGICAL APPARATUS CONTROL METHOD, AND PROGRAM
WO2020116351A1 (en) Diagnostic assistance device and diagnostic assistance program
JP2021037177A (en) Ophthalmologic image processing program and ophthalmologic image processing device
JP2023149742A (en) Ocular fundus image processing device and ocular fundus image processing program
WO2021020419A1 (en) Medical image processing device and medical image processing program
Saini et al. Early detection of glaucoma integrated with deep learning models over medical devices
JP2024052024A (en) Fundus image processing device and fundus image processing program
JP2020036837A (en) Ophthalmologic image processing apparatus and ophthalmologic imaging apparatus
JP7180187B2 (en) Ophthalmic image processing device, OCT device, and ophthalmic image processing program
JP7210927B2 (en) Ophthalmic image processing device, OCT device, and ophthalmic image processing program
JP7435067B2 (en) Ophthalmology image processing device and ophthalmology image processing program
JP7468163B2 (en) Ophthalmic image processing program and ophthalmic image processing device
JP2022138552A (en) Ophthalmologic image processing device, ophthalmologic image processing program, and ophthalmologic imaging device