JP7302184B2 - Ophthalmic image processing device and ophthalmic image processing program - Google Patents

Ophthalmic image processing device and ophthalmic image processing program Download PDF

Info

Publication number
JP7302184B2
JP7302184B2 JP2019016063A JP2019016063A JP7302184B2 JP 7302184 B2 JP7302184 B2 JP 7302184B2 JP 2019016063 A JP2019016063 A JP 2019016063A JP 2019016063 A JP2019016063 A JP 2019016063A JP 7302184 B2 JP7302184 B2 JP 7302184B2
Authority
JP
Japan
Prior art keywords
image
ophthalmologic
image processing
map
mathematical model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019016063A
Other languages
Japanese (ja)
Other versions
JP2020121038A (en
Inventor
直樹 竹野
涼介 柴
壮平 宮崎
祐輔 坂下
佳紀 熊谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2019016063A priority Critical patent/JP7302184B2/en
Priority to EP20154533.2A priority patent/EP3690888A1/en
Priority to US16/778,257 priority patent/US11633096B2/en
Publication of JP2020121038A publication Critical patent/JP2020121038A/en
Priority to US18/120,175 priority patent/US20230210359A1/en
Application granted granted Critical
Publication of JP7302184B2 publication Critical patent/JP7302184B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Description

本開示は、被検眼の眼科画像を処理する眼科画像処理装置、および、眼科画像処理装置において実行される眼科画像処理プログラムに関する。 The present disclosure relates to an ophthalmic image processing apparatus that processes an ophthalmic image of an eye to be examined, and an ophthalmic image processing program executed in the ophthalmic image processing apparatus.

近年、機械学習アルゴリズムによって訓練された数学モデルを用いて、種々の医療情報を取得する技術が提案されている。例えば、特許文献1に記載の眼科装置では、機械学習アルゴリズムによって訓練された数学モデルに眼形状パラメータが入力されることで、被検眼のIOL関連情報(例えば、予想術後前房深度)が取得される。取得されたIOL関連情報に基づいて、IOL度数が算出される。 In recent years, techniques have been proposed for obtaining various medical information using mathematical models trained by machine learning algorithms. For example, in the ophthalmologic apparatus described in Patent Document 1, eye shape parameters are input to a mathematical model trained by a machine learning algorithm to acquire IOL-related information (e.g., expected postoperative anterior chamber depth) of the eye to be examined. be done. The IOL power is calculated based on the acquired IOL-related information.

特開2018-51223号公報JP 2018-51223 A

機械学習アルゴリズムによって訓練された数学モデルに眼科画像を入力することで、被検眼における疾患および構造の少なくともいずれかに対する解析結果を取得することも考えられる。ここで、1つの眼科画像から、複数の疾患または構造の各々に対する解析結果を取得することも可能である。この場合、複数の解析結果を適切にユーザに提示しなければ、ユーザは、複数の解析結果を効率よく把握することは困難である。 It is also conceivable to obtain analytical results for diseases and/or structures in the subject's eye by inputting the ophthalmic images into a mathematical model trained by a machine learning algorithm. Here, it is also possible to obtain analysis results for each of a plurality of diseases or structures from one ophthalmologic image. In this case, it is difficult for the user to efficiently grasp the plurality of analysis results unless the plurality of analysis results are appropriately presented to the user.

本開示の典型的な目的は、被検眼に対する解析結果を適切にユーザに提示することが可能な眼科画像処理装置および眼科画像処理プログラムを提供することである。 A typical object of the present disclosure is to provide an ophthalmologic image processing apparatus and an ophthalmologic image processing program capable of appropriately presenting analysis results for an eye to be examined to a user.

本開示における典型的な実施形態が提供する眼科画像処理装置は、被検眼の組織の画像である眼科画像を処理する眼科画像処理装置であって、前記眼科画像処理装置の制御部は、眼科画像撮影装置によって撮影された眼科画像を取得し、機械学習アルゴリズムによって訓練された数学モデルに前記眼科画像を入力することで、前記被検眼の構造に対する解析結果を複数取得し、前記数学モデルに入力された前記眼科画像の画像領域を変数とする、前記数学モデルによる前記解析に関する重みの分布を示すマップであり、前記数学モデルによる構造の前記解析の確信度の分布を示すマップである補足マップを、複数の前記解析結果の各々について取得し、複数の前記補足マップを同一の領域内で統合させた統合マップを生成し、表示部に表示させる。
An ophthalmic image processing apparatus provided by a typical embodiment of the present disclosure is an ophthalmic image processing apparatus that processes an ophthalmic image that is an image of a tissue of an eye to be examined, wherein a control unit of the ophthalmic image processing apparatus includes: Obtaining an ophthalmologic image captured by an imaging device and inputting the ophthalmologic image into a mathematical model trained by a machine learning algorithm to obtain a plurality of analysis results for the structure of the subject eye and inputting them into the mathematical model. a supplementary map, which is a map showing the distribution of weights relating to the analysis by the mathematical model, with the image region of the obtained ophthalmologic image as a variable, and is a map showing the distribution of the confidence of the analysis of the structure by the mathematical model; , obtaining each of the plurality of analysis results, generating an integrated map in which the plurality of supplementary maps are integrated within the same region, and causing the display unit to display the integrated map.

本開示における典型的な実施形態が提供する眼科画像処理プログラムは、被検眼の組織の画像である眼科画像を処理する眼科画像処理装置によって実行される眼科画像処理プログラムであって、前記眼科画像処理プログラムが前記眼科画像処理装置の制御部によって実行されることで、眼科画像撮影装置によって撮影された眼科画像を取得する画像取得ステップと、機械学習アルゴリズムによって訓練された数学モデルに前記眼科画像を入力することで、前記被検眼の構造に対する解析結果を複数取得する解析結果取得ステップと、前記数学モデルに入力された前記眼科画像の画像領域を変数とする、前記数学モデルによる前記解析に関する重みの分布を示すマップであり、前記数学モデルによる構造の前記解析の確信度の分布を示すマップである補足マップを、複数の前記解析結果の各々について取得する補足マップ取得ステップと、複数の前記補足マップを同一の領域内で統合させた統合マップを生成し、表示部に表示させる統合マップ表示ステップと、を前記眼科画像処理装置に実行させる。
An ophthalmic image processing program provided by a typical embodiment of the present disclosure is an ophthalmic image processing program executed by an ophthalmic image processing apparatus that processes an ophthalmic image that is an image of tissue of an eye to be examined, the ophthalmic image processing A program is executed by the control unit of the ophthalmic image processing device to obtain an image acquisition step of acquiring an ophthalmic image captured by an ophthalmic image capturing device, and inputting the ophthalmic image to a mathematical model trained by a machine learning algorithm. By doing so, an analysis result acquisition step of acquiring a plurality of analysis results for the structure of the eye to be inspected, and weighting related to the analysis by the mathematical model using the image region of the ophthalmologic image input to the mathematical model as a variable. a supplementary map acquiring step of acquiring, for each of the plurality of analysis results, a supplementary map which is a map showing the distribution and which is a map showing the distribution of the confidence of the analysis of the structure by the mathematical model; and a plurality of the supplementary maps. and an integrated map display step of generating an integrated map by integrating within the same region and displaying the integrated map on the display unit.

本開示に係る眼科画像処理装置および眼科画像処理プログラムによると、被検眼に対する解析結果が適切にユーザに提示される。 According to the ophthalmic image processing apparatus and the ophthalmic image processing program according to the present disclosure, the analysis results for the subject's eye are appropriately presented to the user.

数学モデル構築装置1、眼科画像処理装置21、および眼科画像撮影装置11A,11Bの概略構成を示すブロック図である。1 is a block diagram showing schematic configurations of a mathematical model construction device 1, an ophthalmologic image processing device 21, and ophthalmologic imaging devices 11A and 11B; FIG. 加齢黄斑変性の疾患を有する眼底の正面画像の一例を示す図である。FIG. 1 shows an example of a frontal image of a fundus with age-related macular degeneration disease. 糖尿病網膜症の疾患を有する眼底の正面画像の一例を示す図である。FIG. 1 shows an example of a frontal image of a fundus with diabetic retinopathy disease. 図2に示す眼科画像30Aに対して自動解析が行われた場合の、補足マップ40Aの一例を示す図である。3 is a diagram showing an example of a supplementary map 40A when automatic analysis is performed on the ophthalmologic image 30A shown in FIG. 2; FIG. 図3に示す眼科画像30Bに対して自動解析が行われた場合の、補足マップ40Bの一例を示す図である。4 is a diagram showing an example of a supplementary map 40B when automatic analysis is performed on the ophthalmologic image 30B shown in FIG. 3; FIG. 数学モデル構築装置1が実行する数学モデル構築処理のフローチャートである。4 is a flowchart of mathematical model building processing executed by the mathematical model building device 1; 眼科画像処理装置21が実行する確認用画像表示処理のフローチャートである。4 is a flowchart of confirmation image display processing executed by the ophthalmologic image processing apparatus 21. FIG. 補足マップ40Bに基づいて領域46A,46B,48を設定する方法の一例を説明するための説明図である。FIG. 11 is an explanatory diagram for explaining an example of a method of setting areas 46A, 46B, and 48 based on a supplemental map 40B; 眼科画像30B、補足マップ40B、および確認用画像50を表示している状態の、表示装置28の表示画面の一例を示す図である。FIG. 10 is a diagram showing an example of a display screen of a display device 28 displaying an ophthalmologic image 30B, a supplemental map 40B, and a confirmation image 50; 眼科画像処理装置21が実行する統合マップ表示処理のフローチャートである。4 is a flowchart of integrated map display processing executed by the ophthalmologic image processing apparatus 21. FIG. 2つの補足マップ40A,40Bを統合して統合マップ60を生成する方法の一例を説明するための説明図である。FIG. 4 is an explanatory diagram for explaining an example of a method of integrating two supplementary maps 40A and 40B to generate an integrated map 60; 眼科画像30上に統合マップ60が重畳された状態の一例を示す図である。6 is a diagram showing an example of a state in which an integrated map 60 is superimposed on an ophthalmologic image 30. FIG.

<概要>
本開示で例示する眼科画像処理装置の制御部は、眼科画像撮影装置によって撮影された眼科画像を取得する。制御部は、機械学習アルゴリズムによって訓練された数学モデルに眼科画像を入力することで、被検眼の疾患または構造に対する解析結果を複数取得する。制御部は、数学モデルに入力された眼科画像の画像領域(つまり、領域における座標)を変数とする、数学モデルによる解析に関する重みの分布を示す補足マップを、複数の解析結果の各々について取得する。制御部は、複数の補足マップを同一の領域内で統合させた統合マップを生成し、表示部に表示させる。
<Overview>
A control unit of an ophthalmic image processing apparatus exemplified in the present disclosure acquires an ophthalmic image captured by an ophthalmic image capturing apparatus. The control unit inputs ophthalmological images into a mathematical model trained by a machine learning algorithm to acquire multiple analysis results for the disease or structure of the subject's eye. The control unit obtains, for each of the plurality of analysis results, a supplementary map showing the distribution of weights related to the analysis by the mathematical model, with the image area (that is, coordinates in the area) of the ophthalmologic image input to the mathematical model as variables. . The control unit generates an integrated map by integrating a plurality of supplementary maps within the same area, and causes the display unit to display the integrated map.

この場合、ユーザは、複数の自動的な解析の各々に関する重みの分布を、1つの統合マップによって容易に把握することができる。従って、各々の疾患または構造に関する状態が、より適切に把握される。 In this case, the user can easily grasp the distribution of weights for each of the multiple automatic analyses, using one integrated map. Therefore, the status of each disease or structure is better understood.

なお、数学モデルに入力される眼科画像は、1つであってもよいし、複数であってもよい。複数の眼科画像が数学モデルに入力される場合、複数の眼科画像は、同一の装置によって撮影された画像であってもよいし、異なる装置によって撮影された画像であってもよい。また、数学モデルに入力される眼科画像の次元は特に限定されない。眼科画像は、静止画であってもよいし、動画であってもよい。 Note that the number of ophthalmological images input to the mathematical model may be one, or may be plural. When multiple ophthalmic images are input to the mathematical model, the multiple ophthalmic images may be images captured by the same device or may be images captured by different devices. Also, the dimension of the ophthalmologic image input to the mathematical model is not particularly limited. The ophthalmologic image may be a still image or a moving image.

補足マップは、数学モデルが解析結果を出力する際に影響した影響度(注目度)の分布を示すマップ(「アテンションマップ」と言われる場合もある)であってもよい。この場合、数学モデルによる複数の自動解析の各々に影響した影響度が、統合マップによって適切に把握される。 The supplemental map may be a map (sometimes referred to as an "attention map") showing the distribution of the degree of influence (degree of attention) that the mathematical model exerts when outputting the analysis result. In this case, the degree of influence on each of the multiple automatic analyses by the mathematical model can be properly grasped by the integrated map.

また、補足マップは、数学モデルによる自動解析の確信度の分布を示すマップ(以下、「確信度マップ」という場合もある)であってもよい。この場合、数学モデルによる複数の自動解析の各々における確信度の分布が、適切に統合マップに表れる。 Also, the supplementary map may be a map (hereinafter sometimes referred to as a "confidence map") showing the distribution of the confidence of the automatic analysis by the mathematical model. In this case, the distribution of confidence in each of the multiple automatic analyses, using the mathematical model, appears appropriately on the integrated map.

なお、「確信度」とは、解析の確実性の高さであってもよいし、確実性の低さ(不確信度)の逆数であってもよい。また、例えば不確信度がx%で表される場合、確信度は、(100-x)%で表される値であってもよい。また、「確信度」は、数学モデルが解析を行う際の自信の度合いを示す。確信度と解析結果の正確性は、比例するとは限らない。 The “certainty degree” may be the high degree of certainty of the analysis, or may be the reciprocal of the low degree of certainty (uncertainty degree). Further, for example, when the uncertainty is expressed by x%, the certainty may be a value expressed by (100-x)%. "Confidence" indicates the degree of confidence in the mathematical model's analysis. Confidence and accuracy of analysis results are not always proportional.

確信度マップの具体的な内容は適宜選択できる。例えば、確信度には、数学モデルによる自動的な解析における確率分布のエントロピー(平均情報量)が含まれていてもよい。エントロピーは、不確実性、乱雑さ、無秩序の度合いを表す。自動的な解析における確信度が最大値となる場合、確率分布のエントロピーは0となる。また、確信度が低下する程、エントロピーは増大する。従って、確信度として確率分布のエントロピーが用いられることで、確信度マップが適切に生成される。また、エントロピー以外の値が確信度として採用されてもよい。例えば、自動的な解析における確率分布の散布度を示す標準偏差、変動係数、分散等の少なくともいずれかが確信度として用いられてもよい。確率分布同士の差異を図る尺度であるKLダイバージェンス等が、確信度として用いられてもよい。確率分布の最大値が確信度として用いられてもよい。また、自動的な解析によって複数の疾患等の順位付けを行う場合には、1位の確率、または、1位の確率とそれ以外の順位の確率(例えば、2位、または2位以下の複数の確率の合計等)の差等が、確信度として使用されてもよい。 The specific contents of the confidence map can be selected as appropriate. For example, the confidence factor may include the entropy (average amount of information) of the probability distribution in the automatic analysis by the mathematical model. Entropy represents the degree of uncertainty, clutter, and disorder. The entropy of the probability distribution is 0 when the confidence in the automatic analysis is the maximum value. Also, the lower the confidence, the higher the entropy. Therefore, by using the entropy of the probability distribution as the confidence, the confidence map is appropriately generated. Also, a value other than entropy may be adopted as the certainty factor. For example, at least one of the standard deviation, the coefficient of variation, the variance, etc., which indicates the degree of dispersion of the probability distribution in the automatic analysis, may be used as the degree of certainty. KL divergence or the like, which is a measure of the difference between probability distributions, may be used as the degree of certainty. The maximum value of the probability distribution may be used as the certainty. In addition, when ranking multiple diseases by automatic analysis, the probability of first place, or the probability of first place and the probability of other ranks (for example, second place, or multiple ) may be used as the confidence factor.

制御部は、補足マップ毎に表示態様を変えて複数の補足マップを統合させることで、統合マップを生成してもよい。この場合、ユーザは、表示態様の違いによって、統合マップに統合された各々の補足マップを適切に把握することができる。 The control unit may generate an integrated map by changing the display mode for each supplemental map and integrating a plurality of supplemental maps. In this case, the user can appropriately grasp each supplementary map integrated into the integrated map through the difference in display mode.

なお、補足マップ毎に変える表示態様は、例えば、重み(影響度または確信度等)を示す色、等高線の種類、等高線の太さ等の少なくともいずれかであってもよい。 The display mode that is changed for each supplementary map may be, for example, at least one of the color indicating the weight (influence or confidence), the type of contour line, the thickness of the contour line, and the like.

重み(例えば、影響度または確信度等)を色によって示す場合、制御部は、色の濃さによって重みの大きさを示してもよい。この場合、ユーザは、各領域の色の濃さによって、重みの大きさを領域毎に適切に把握することができる。 When the weight (for example, the degree of influence or the degree of confidence) is indicated by color, the control unit may indicate the magnitude of the weight by the depth of color. In this case, the user can appropriately grasp the magnitude of the weight for each region based on the color depth of each region.

制御部は、被検眼の眼科画像に統合マップを重畳させて表示させてもよい。この場合、ユーザは、複数種類の重みの分布を、被検眼の組織の分布と容易に対比させることができる。よって、ユーザは、より適切に診断等の業務を行うことができる。 The control unit may superimpose the integrated map on the ophthalmologic image of the subject's eye for display. In this case, the user can easily compare the distribution of multiple types of weights with the tissue distribution of the subject's eye. Therefore, the user can perform tasks such as diagnosis more appropriately.

ただし、統合マップの表示方法を変更することも可能である。例えば、制御部は、被検眼の眼科画像と統合マップを並べて表示部に表示させてもよい。この場合、制御部は、眼科画像の画像範囲と統合マップの画像範囲を一致させて表示させてもよい。画像範囲を一致させる場合には、重みの分布と、組織の分布の対比がより容易になる。また、制御部は、統合マップのみを表示部に表示させてもよい。 However, it is also possible to change the display method of the integrated map. For example, the control unit may cause the display unit to display the ophthalmologic image of the subject's eye and the integrated map side by side. In this case, the control unit may match the image range of the ophthalmologic image and the image range of the integrated map for display. Contrasting weight distributions with tissue distributions is easier when image coverage is matched. Also, the control unit may cause the display unit to display only the integrated map.

制御部は、ユーザによって入力された指示に応じて、被検眼の眼科画像に対する統合マップの重畳表示と重畳の非表示の切り替え、および、眼科画像に重畳表示させる統合マップの透過度の変更の少なくともいずれかを実行してもよい。この場合、ユーザは、複数種類の重みの分布と、被検眼の組織の分布の比較をより適切に実行することができる。また、ユーザは、統合マップの重畳表示を消去させることで、被検眼の組織のみを確認することも可能である。 The control unit switches between superimposed display and non-display of the integrated map on the ophthalmologic image of the subject's eye and changes the transparency of the integrated map superimposed on the ophthalmologic image in accordance with instructions input by the user. You can do either. In this case, the user can more appropriately compare the distribution of multiple types of weights and the distribution of tissues of the subject's eye. The user can also confirm only the tissue of the subject's eye by deleting the superimposed display of the integrated map.

なお、制御部は、機械学習アルゴリズムによって訓練された数学モデルを利用せずに、眼科画像に基づいて解析結果を取得する場合でも、解析結果に付随する補足分布情報を取得することが可能である。この場合、眼科画像処理装置は以下のように表現することも可能である。被検眼の組織の画像である眼科画像を処理する眼科画像処理装置であって、前記眼科画像処理装置の制御部は、眼科画像撮影装置によって撮影された眼科画像を取得し、前記眼科画像に基づいて、前記被検眼の疾患または構造に対する解析結果を複数取得し、前記眼科画像の画像領域を変数とする、前記解析に関する重みの分布を示す補足マップを、複数の前記解析結果の各々について取得し、複数の前記補足マップを同一の領域内で統合させた統合マップを生成し、表示部に表示させる。 Even if the control unit acquires the analysis result based on the ophthalmologic image without using the mathematical model trained by the machine learning algorithm, it is possible to acquire the supplemental distribution information accompanying the analysis result. . In this case, the ophthalmologic image processing apparatus can also be expressed as follows. An ophthalmic image processing device for processing an ophthalmic image that is an image of tissue of an eye to be examined, wherein a control unit of the ophthalmic image processing device obtains an ophthalmic image captured by an ophthalmic imaging device, and based on the ophthalmic image obtaining a plurality of analysis results for the disease or structure of the eye to be examined, and obtaining a supplemental map showing the distribution of weights related to the analysis, with the image region of the ophthalmologic image as a variable, for each of the plurality of analysis results. , generating an integrated map in which the plurality of supplementary maps are integrated within the same area, and displaying it on the display unit;

<実施形態>
(装置構成)
以下、本開示における典型的な実施形態の1つについて、図面を参照して説明する。図1に示すように、本実施形態では、数学モデル構築装置1、眼科画像処理装置21、および眼科画像撮影装置11A,11Bが用いられる。数学モデル構築装置1は、機械学習アルゴリズムによって数学モデルを訓練させることで、数学モデルを構築する。構築された数学モデルは、入力された眼科画像に基づいて、被検眼における特定の疾患および特定の構造の少なくともいずれかに対する解析結果を出力する。眼科画像処理装置21は、数学モデルを用いて解析結果を取得すると共に、自動解析における特定の確認項目に対する、入力画像の領域(座標)を変数とする重みの分布(例えば、自動解析に影響した影響度の分布、および自動解析の確信度の分布の少なくともいずれか)を示す補足分布情報(詳細は後述する)を取得する。眼科画像処理装置21は、補足分布情報に基づいて、ユーザ(例えば医師等)の業務を補助するための各種情報を生成し、ユーザに提示する。眼科画像撮影装置11A,11Bは、被検眼の組織の画像である眼科画像を撮影する。
<Embodiment>
(Device configuration)
One typical embodiment of the present disclosure will be described below with reference to the drawings. As shown in FIG. 1, in this embodiment, a mathematical model construction device 1, an ophthalmologic image processing device 21, and ophthalmologic imaging devices 11A and 11B are used. The mathematical model building device 1 builds a mathematical model by training the mathematical model with a machine learning algorithm. The constructed mathematical model outputs analysis results for at least one of a specific disease and/or a specific structure in the subject's eye based on the input ophthalmologic image. The ophthalmologic image processing apparatus 21 acquires analysis results using a mathematical model, and also calculates a weight distribution (for example, a Supplementary distribution information (details will be described later) indicating the distribution of influence and/or the distribution of confidence of automatic analysis is acquired. Based on the supplemental distribution information, the ophthalmologic image processing apparatus 21 generates various types of information for assisting the work of a user (for example, a doctor) and presents it to the user. The ophthalmologic image capturing devices 11A and 11B capture ophthalmologic images, which are images of tissues of the eye to be examined.

一例として、本実施形態の数学モデル構築装置1にはパーソナルコンピュータ(以下、「PC」という)が用いられる。詳細は後述するが、数学モデル構築装置1は、眼科画像撮影装置11Aから取得した被検眼の眼科画像(以下、「訓練用眼科画像」という)のデータと、訓練用眼科画像が撮影された被検眼の疾患および構造の少なくともいずれかを示すデータとを利用して、数学モデルを訓練させる。その結果、数学モデルが構築される。ただし、数学モデル構築装置1として機能できるデバイスは、PCに限定されない。例えば、眼科画像撮影装置11Aが数学モデル構築装置1として機能してもよい。また、複数のデバイスの制御部(例えば、PCのCPUと、眼科画像撮影装置11AのCPU13A)が、協働して数学モデルを構築してもよい。 As an example, a personal computer (hereinafter referred to as “PC”) is used for the mathematical model building device 1 of this embodiment. Although the details will be described later, the mathematical model construction device 1 includes data of an ophthalmologic image of the subject's eye (hereinafter referred to as a "training ophthalmologic image") acquired from the ophthalmologic imaging device 11A, and Data indicative of the disease and/or structure of the optometry are used to train the mathematical model. As a result, a mathematical model is built. However, a device that can function as the mathematical model construction device 1 is not limited to a PC. For example, the ophthalmologic imaging device 11A may function as the mathematical model building device 1 . Also, the controllers of a plurality of devices (for example, the CPU of the PC and the CPU 13A of the ophthalmologic imaging apparatus 11A) may work together to construct the mathematical model.

また、本実施形態の眼科画像処理装置21にはPCが用いられる。しかし、眼科画像処理装置21として機能できるデバイスも、PCに限定されない。例えば、眼科画像撮影装置11Bまたはサーバ等が、眼科画像処理装置21として機能してもよい。眼科画像撮影装置11Bが眼科画像処理装置21として機能する場合、眼科画像撮影装置11Bは、眼科画像を撮影しつつ、撮影した眼科画像から解析結果および補足分布情報を取得することができる。また、眼科画像撮影装置11Bは,取得した補足分布情報に基づいて、被検眼における適切な部位を撮影することもできる。また、タブレット端末またはスマートフォン等の携帯端末が、眼科画像処理装置21として機能してもよい。複数のデバイスの制御部(例えば、PCのCPUと、眼科画像撮影装置11BのCPU13B)が、協働して各種処理を行ってもよい。 A PC is used for the ophthalmologic image processing apparatus 21 of this embodiment. However, a device that can function as the ophthalmologic image processing apparatus 21 is not limited to a PC either. For example, the ophthalmologic image capturing device 11B, a server, or the like may function as the ophthalmologic image processing device 21 . When the ophthalmic image capturing device 11B functions as the ophthalmic image processing device 21, the ophthalmic image capturing device 11B can acquire analysis results and supplemental distribution information from the captured ophthalmic image while capturing the ophthalmic image. Further, the ophthalmologic image capturing device 11B can also capture an appropriate part of the subject's eye based on the acquired supplementary distribution information. Also, a portable terminal such as a tablet terminal or a smartphone may function as the ophthalmologic image processing apparatus 21 . The controllers of a plurality of devices (for example, the CPU of the PC and the CPU 13B of the ophthalmologic imaging apparatus 11B) may work together to perform various processes.

また、本実施形態では、各種処理を行うコントローラの一例としてCPUが用いられる場合について例示する。しかし、各種デバイスの少なくとも一部に、CPU以外のコントローラが用いられてもよいことは言うまでもない。例えば、コントローラとしてGPUを採用することで、処理の高速化を図ってもよい。 Also, in this embodiment, a case where a CPU is used as an example of a controller that performs various processes will be described. However, it goes without saying that a controller other than the CPU may be used for at least some of the various devices. For example, a GPU may be employed as a controller to speed up processing.

数学モデル構築装置1について説明する。数学モデル構築装置1は、例えば、眼科画像処理装置21または眼科画像処理プログラムをユーザに提供するメーカー等に配置される。数学モデル構築装置1は、各種制御処理を行う制御ユニット2と、通信I/F5を備える。制御ユニット2は、制御を司るコントローラであるCPU3と、プログラムおよびデータ等を記憶することが可能な記憶装置4を備える。記憶装置4には、後述する数学モデル構築処理(図2参照)を実行するための数学モデル構築プログラムが記憶されている。また、通信I/F5は、数学モデル構築装置1を他のデバイス(例えば、眼科画像撮影装置11Aおよび眼科画像処理装置21等)と接続する。 The mathematical model construction device 1 will be described. The mathematical model building device 1 is located, for example, in a manufacturer or the like that provides the ophthalmic image processing device 21 or an ophthalmic image processing program to users. The mathematical model construction device 1 includes a control unit 2 that performs various control processes, and a communication I/F 5 . The control unit 2 includes a CPU 3, which is a controller for control, and a storage device 4 capable of storing programs, data, and the like. The storage device 4 stores a mathematical model building program for executing a later-described mathematical model building process (see FIG. 2). Also, the communication I/F 5 connects the mathematical model construction device 1 with other devices (for example, the ophthalmologic imaging device 11A and the ophthalmologic image processing device 21, etc.).

数学モデル構築装置1は、操作部7および表示装置8に接続されている。操作部7は、ユーザが各種指示を数学モデル構築装置1に入力するために、ユーザによって操作される。操作部7には、例えば、キーボード、マウス、タッチパネル等の少なくともいずれかを使用できる。なお、操作部7と共に、または操作部7に代えて、各種指示を入力するためのマイク等が使用されてもよい。表示装置8は、各種画像を表示する。表示装置8には、画像を表示可能な種々のデバイス(例えば、モニタ、ディスプレイ、プロジェクタ等の少なくともいずれか)を使用できる。なお、本開示における「画像」には、静止画像も動画像も共に含まれる。 The mathematical model construction device 1 is connected to an operation section 7 and a display device 8 . The operation unit 7 is operated by the user to input various instructions to the mathematical model construction device 1 . For example, at least one of a keyboard, a mouse, a touch panel, and the like can be used as the operation unit 7 . A microphone or the like for inputting various instructions may be used together with the operation unit 7 or instead of the operation unit 7 . The display device 8 displays various images. Various devices capable of displaying images (for example, at least one of a monitor, a display, a projector, etc.) can be used as the display device 8 . It should be noted that the “image” in the present disclosure includes both still images and moving images.

数学モデル構築装置1は、眼科画像撮影装置11Aから眼科画像のデータ(以下、単に「眼科画像」という場合もある)を取得することができる。数学モデル構築装置1は、例えば、有線通信、無線通信、着脱可能な記憶媒体(例えばUSBメモリ)等の少なくともいずれかによって、眼科画像撮影装置11Aから眼科画像のデータを取得してもよい。 The mathematical model construction device 1 can acquire ophthalmologic image data (hereinafter sometimes simply referred to as “ophthalmologic image”) from the ophthalmologic imaging device 11A. The mathematical model construction device 1 may acquire ophthalmologic image data from the ophthalmologic imaging device 11A, for example, by at least one of wired communication, wireless communication, and a removable storage medium (eg, USB memory).

眼科画像処理装置21について説明する。眼科画像処理装置21は、例えば、被検者の診断または検査等を行う施設(例えば、病院または健康診断施設等)に配置される。眼科画像処理装置21は、各種制御処理を行う制御ユニット22と、通信I/F25を備える。制御ユニット22は、制御を司るコントローラであるCPU23と、プログラムおよびデータ等を記憶することが可能な記憶装置24を備える。記憶装置24には、後述する眼科画像処理(図7に示す確認用画像表示処理、および、図10に示す統合マップ表示処理)を実行するための眼科画像処理プログラムが記憶されている。眼科画像処理プログラムには、数学モデル構築装置1によって構築された数学モデルを実現させるプログラムが含まれる。通信I/F25は、眼科画像処理装置21を他のデバイス(例えば、眼科画像撮影装置11Bおよび数学モデル構築装置1等)と接続する。 The ophthalmologic image processing apparatus 21 will be described. The ophthalmologic image processing apparatus 21 is installed, for example, in a facility (for example, a hospital, a health checkup facility, or the like) for diagnosing or examining a subject. The ophthalmologic image processing apparatus 21 includes a control unit 22 that performs various control processes, and a communication I/F 25 . The control unit 22 includes a CPU 23 which is a controller for control, and a storage device 24 capable of storing programs, data, and the like. The storage device 24 stores an ophthalmologic image processing program for executing later-described ophthalmologic image processing (confirmation image display processing shown in FIG. 7 and integrated map display processing shown in FIG. 10). The ophthalmologic image processing program includes a program for realizing the mathematical model constructed by the mathematical model construction device 1 . The communication I/F 25 connects the ophthalmologic image processing apparatus 21 with other devices (for example, the ophthalmic imaging apparatus 11B, the mathematical model construction apparatus 1, etc.).

眼科画像処理装置21は、操作部27および表示装置28に接続されている。操作部27および表示装置28には、前述した操作部7および表示装置8と同様に、種々のデバイスを使用することができる。 The ophthalmologic image processing apparatus 21 is connected to an operation section 27 and a display device 28 . Various devices can be used for the operation unit 27 and the display device 28, similarly to the operation unit 7 and the display device 8 described above.

眼科画像処理装置21は、眼科画像撮影装置11Bから眼科画像を取得することができる。眼科画像処理装置21は、例えば、有線通信、無線通信、着脱可能な記憶媒体(例えばUSBメモリ)等の少なくともいずれかによって、眼科画像撮影装置11Bから眼科画像を取得してもよい。また、眼科画像処理装置21は、数学モデル構築装置1によって構築された数学モデルを実現させるプログラム等を、通信等を介して取得してもよい。 The ophthalmic image processing device 21 can acquire an ophthalmic image from the ophthalmic image capturing device 11B. The ophthalmologic image processing apparatus 21 may acquire an ophthalmologic image from the ophthalmologic imaging apparatus 11B, for example, by at least one of wired communication, wireless communication, and a removable storage medium (eg, USB memory). Further, the ophthalmologic image processing apparatus 21 may acquire, via communication or the like, a program or the like for realizing the mathematical model constructed by the mathematical model construction apparatus 1 .

眼科画像撮影装置11A,11Bについて説明する。一例として、本実施形態では、数学モデル構築装置1に眼科画像を提供する眼科画像撮影装置11Aと、眼科画像処理装置21に眼科画像を提供する眼科画像撮影装置11Bが使用される場合について説明する。しかし、使用される眼科画像撮影装置の数は2つに限定されない。例えば、数学モデル構築装置1および眼科画像処理装置21は、複数の眼科画像撮影装置から眼科画像を取得してもよい。また、数学モデル構築装置1および眼科画像処理装置21は、共通する1つの眼科画像撮影装置から眼科画像を取得してもよい。 The ophthalmologic imaging devices 11A and 11B will be described. As an example, in this embodiment, an ophthalmic imaging device 11A that provides an ophthalmic image to the mathematical model building device 1 and an ophthalmic imaging device 11B that provides an ophthalmic image to the ophthalmic image processing device 21 are used. . However, the number of ophthalmic imaging devices used is not limited to two. For example, the mathematical model construction device 1 and the ophthalmologic image processing device 21 may acquire ophthalmologic images from a plurality of ophthalmologic imaging devices. Further, the mathematical model construction device 1 and the ophthalmologic image processing device 21 may acquire ophthalmologic images from one common ophthalmologic imaging device.

また、本実施形態では、眼科画像撮影装置11(11A,11B)として、OCT装置を例示する。ただし、OCT装置以外の眼科画像撮影装置(例えば、レーザ走査型検眼装置(SLO)、眼底カメラ、シャインプルーフカメラ、または角膜内皮細胞撮影装置(CEM)等)が用いられてもよい。 Further, in this embodiment, an OCT apparatus is exemplified as the ophthalmic imaging apparatus 11 (11A, 11B). However, an ophthalmologic imaging device other than the OCT device (for example, a laser scanning optometric device (SLO), a fundus camera, a Scheimpflug camera, or a corneal endothelial cell imaging device (CEM)) may be used.

眼科画像撮影装置11(11A,11B)は、各種制御処理を行う制御ユニット12(12A,12B)と、眼科画像撮影部16(16A,16B)を備える。制御ユニット12は、制御を司るコントローラであるCPU13(13A,13B)と、プログラムおよびデータ等を記憶することが可能な記憶装置14(14A,14B)を備える。 The ophthalmologic imaging apparatus 11 (11A, 11B) includes a control unit 12 (12A, 12B) that performs various control processes, and an ophthalmologic imaging section 16 (16A, 16B). The control unit 12 includes a CPU 13 (13A, 13B), which is a controller for control, and a storage device 14 (14A, 14B) capable of storing programs, data, and the like.

眼科画像撮影部16は、被検眼の眼科画像を撮影するために必要な各種構成を備える。本実施形態の眼科画像撮影部16には、OCT光源、OCT光源から出射されたOCT光を測定光と参照光に分岐する分岐光学素子、測定光を走査するための走査部、測定光を被検眼に照射するための光学系、被検眼の組織によって反射された光と参照光の合成光を受光する受光素子等が含まれる。 The ophthalmologic image capturing unit 16 has various configurations necessary for capturing an ophthalmologic image of the subject's eye. The ophthalmologic image capturing unit 16 of the present embodiment includes an OCT light source, a branching optical element that branches the OCT light emitted from the OCT light source into measurement light and reference light, a scanning unit for scanning the measurement light, and a scanning unit for scanning the measurement light. It includes an optical system for irradiating an eye to be examined, a light receiving element for receiving the combined light of the light reflected by the tissue of the eye to be examined and the reference light, and the like.

眼科画像撮影装置11は、被検眼の眼底の二次元断層画像および三次元断層画像を撮影することができる。詳細には、CPU13は、スキャンライン上にOCT光(測定光)を走査させることで、スキャンラインに交差する断面の二次元断層画像を撮影する。二次元断層画像は、同一部位の複数の断層画像に対して加算平均処理を行うことで生成された加算平均画像であってもよい。また、CPU13は、OCT光を二次元的に走査することによって、組織における三次元断層画像を撮影することができる。例えば、CPU13は、組織を正面から見た際の二次元の領域内において、位置が互いに異なる複数のスキャンライン上の各々に測定光を走査させることで、複数の二次元断層画像を取得する。次いで、CPU13は、撮影された複数の二次元断層画像を組み合わせることで、三次元断層画像を取得する。さらに、本実施形態の眼科画像撮影装置11は、被検眼の眼底を正面(測定光の光軸に沿うZ方向)から見た場合の二次元正面画像を撮影することもできる。二次元正面画像のデータは、例えば、Z方向に交差するXY方向の各位置で深さ方向に輝度値が積算された積算画像データ、XY方向の各位置でのスペクトルデータの積算値、ある一定の深さにおけるXY方向の各位置での輝度データ、網膜のいずれかの層(例えば、網膜表層)におけるXY方向の各位置での輝度データ等であってもよい。 The ophthalmologic image capturing apparatus 11 can capture two-dimensional tomographic images and three-dimensional tomographic images of the fundus of the subject's eye. Specifically, the CPU 13 captures a two-dimensional tomographic image of a cross section that intersects the scan lines by scanning OCT light (measurement light) along the scan lines. The two-dimensional tomographic image may be an averaging image generated by averaging a plurality of tomographic images of the same region. Further, the CPU 13 can capture a three-dimensional tomographic image of the tissue by two-dimensionally scanning the OCT light. For example, the CPU 13 acquires a plurality of two-dimensional tomographic images by causing measurement light to scan each of a plurality of scan lines at different positions in a two-dimensional region when the tissue is viewed from the front. Next, the CPU 13 acquires a three-dimensional tomographic image by combining a plurality of captured two-dimensional tomographic images. Furthermore, the ophthalmologic image capturing apparatus 11 of the present embodiment can also capture a two-dimensional front image when the fundus of the subject's eye is viewed from the front (in the Z direction along the optical axis of the measurement light). The data of the two-dimensional frontal image includes, for example, integrated image data in which luminance values are integrated in the depth direction at each position in the XY directions intersecting the Z direction, integrated values of spectral data at each position in the XY directions, , brightness data at each position in the XY directions in any layer of the retina (for example, the surface layer of the retina), or the like.

(自動解析)
図2および図3を参照して、眼科画像処理装置21が実行する自動解析の一例について説明する。前述したように、眼科画像処理装置21は、被検眼の疾患および構造の少なくともいずれかに対する自動解析を、数学モデルを用いて実行する。一例として、本実施形態では、被検眼の疾患の自動解析(つまり、自動診断)を実行する場合について説明する。自動解析の対象とする疾患の種類は適宜選択できる。本実施形態の眼科画像処理装置21は、数学モデルに眼科画像を入力することで、加齢黄斑変性および糖尿病網膜症を含む複数の疾患の各々の有無を自動的に解析することができる。
(automatic analysis)
An example of automatic analysis performed by the ophthalmologic image processing apparatus 21 will be described with reference to FIGS. 2 and 3. FIG. As described above, the ophthalmic image processor 21 performs automatic analysis of the disease and/or structure of the subject's eye using a mathematical model. As an example, in the present embodiment, a case of executing automatic analysis (that is, automatic diagnosis) of a disease of an eye to be examined will be described. The type of disease targeted for automatic analysis can be selected as appropriate. The ophthalmologic image processing apparatus 21 of this embodiment can automatically analyze the presence or absence of each of a plurality of diseases including age-related macular degeneration and diabetic retinopathy by inputting an ophthalmologic image into a mathematical model.

図2は、加齢黄斑変性の疾患を有する眼底の正面画像の一例を示す。図2に例示する眼科画像30Aでは、眼底における視神経乳頭31、黄斑32、および眼底血管33に加えて、加齢黄斑変性による病変部35が黄斑32の近傍に表れている。数学モデルは、図2に例示する眼科画像30Aのデータ(入力用訓練データ)と、眼科画像30Aが撮影された被検眼の疾患が加齢黄斑変性である旨のデータ(出力用訓練データ)によって、予め訓練されている。従って、図2に近似する眼科画像が数学モデルに入力されると、被検眼が加齢黄斑変性の疾患を有する可能性が高いことを示す自動解析結果が出力される。 FIG. 2 shows an example of an en face image of a fundus with age-related macular degeneration disease. In the ophthalmologic image 30A illustrated in FIG. 2, a lesion 35 due to age-related macular degeneration appears in the vicinity of the macula 32 in addition to the optic papilla 31, the macula 32, and the fundus blood vessel 33 in the fundus. The mathematical model is based on the data (input training data) of the ophthalmologic image 30A illustrated in FIG. , is pre-trained. Therefore, when an ophthalmologic image similar to that of FIG. 2 is input to the mathematical model, an automatic analysis result indicating that the subject's eye is likely to have age-related macular degeneration is output.

図3は、糖尿病網膜症の疾患を有する眼底の正面画像の一例を示す。図3に例示する眼科画像30Bでは、眼底における視神経乳頭31、黄斑32、および眼底血管33に加えて、糖尿病網膜症による病変部36が眼底血管33の近傍に表れている。数学モデルは、図3に例示する眼科画像30Bのデータ(入力用訓練データ)と、眼科画像30Bが撮影された被検眼の疾患が糖尿病網膜症である旨のデータ(出力用訓練データ)によって、予め訓練されている。従って、図3に近似する眼科画像が数学モデルに入力されると、被検眼が糖尿病網膜症の疾患を有する可能性が高いことを示す自動解析結果が出力される。 FIG. 3 shows an example of an en face image of a fundus with diabetic retinopathy disease. In the ophthalmologic image 30B illustrated in FIG. 3, in addition to the optic papilla 31, the macula 32, and the fundus blood vessel 33 in the fundus, a lesion 36 due to diabetic retinopathy appears in the vicinity of the fundus blood vessel 33. The mathematical model is based on the data (input training data) of the ophthalmologic image 30B illustrated in FIG. pre-trained. Therefore, when an ophthalmologic image similar to that of FIG. 3 is input to the mathematical model, an automatic analysis result indicating that the subject's eye is likely to have diabetic retinopathy is output.

なお、本実施形態の数学モデルによると、1つの眼科画像に対して複数の疾患の自動解析が実行される。従って、発症している可能性が高い疾患として、複数の疾患(例えば、加齢黄斑変性と糖尿病網膜症)が自動的に解析される場合もある。 Note that, according to the mathematical model of this embodiment, automatic analysis of a plurality of diseases is performed on one ophthalmologic image. Therefore, in some cases, multiple diseases (for example, age-related macular degeneration and diabetic retinopathy) are automatically analyzed as diseases with a high possibility of developing.

なお、眼科画像処理装置21は、疾患の自動解析の代わりに、または疾患の自動解析と共に、被検眼の構造(例えば、眼底の層、黄斑、視神経乳頭、および眼底血管等の少なくともいずれか)の自動解析を行ってもよい。詳細には、眼科画像処理装置21は、眼底の断層画像(二次元断層画像および三次元断層画像の少なくともいずれか)を数学モデルに入力することで、被検眼の眼底における特定の層、または特定の層の境界を自動的に解析してもよい。また、眼科画像処理装置21は、眼底の正面画像または断層画像を数学モデルに入力することで、被検眼の組織(例えば、黄斑および視神経乳頭等の少なくともいずれか)の構造を自動的に解析してもよい。また、眼科画像処理装置21は、眼底の正面画像または断層画像を数学モデルに入力することで、被検眼の眼底血管を自動的に解析してもよい。この場合、眼科画像処理装置21は、被検眼の眼底における動脈と静脈を自動的に解析してもよい。 Note that the ophthalmologic image processing apparatus 21, instead of or in conjunction with the automatic analysis of the disease, analyzes the structure of the eye to be examined (for example, at least one of the fundus layer, the macula, the optic papilla, and the fundus blood vessel). Automatic analysis may be performed. Specifically, the ophthalmologic image processing apparatus 21 inputs a tomographic image of the fundus (at least one of a two-dimensional tomographic image and a three-dimensional tomographic image) to a mathematical model, thereby identifying a specific layer or a specific layer in the fundus of the subject's eye. layer boundaries may be automatically analyzed. Further, the ophthalmologic image processing apparatus 21 automatically analyzes the structure of the tissue of the subject's eye (for example, at least one of the macula and the optic papilla) by inputting a front image or a tomographic image of the fundus into the mathematical model. may Further, the ophthalmologic image processing apparatus 21 may automatically analyze the fundus blood vessels of the subject's eye by inputting a front image or a tomographic image of the fundus into a mathematical model. In this case, the ophthalmologic image processing apparatus 21 may automatically analyze arteries and veins in the fundus of the subject's eye.

(補足分布情報)
図4および図5を参照して、補足分布情報の一例について説明する。本実施形態では、数学モデルに入力される眼科画像は二次元の画像である。従って、補足分布情報も、二次元の情報(マップ)となる。しかし、例えば三次元の眼科画像が数学モデルに入力されてもよい。この場合、補足分布情報は三次元の情報となる。
(Supplemental distribution information)
An example of supplemental distribution information will be described with reference to FIGS. 4 and 5. FIG. In this embodiment, the ophthalmologic image input to the mathematical model is a two-dimensional image. Therefore, the supplementary distribution information also becomes two-dimensional information (map). However, for example, a three-dimensional ophthalmic image may also be input to the mathematical model. In this case, the complementary distribution information is three-dimensional information.

本実施形態では、補足分布情報(補足マップ)として、アテンションマップおよび確信度マップの少なくともいずれかが用いられる。 In this embodiment, at least one of an attention map and a confidence map is used as supplemental distribution information (supplemental map).

アテンションマップでは、数学モデルが自動解析結果を出力する際に影響した各位置に対する影響度(注目度)の、画像領域内における分布である。影響度が高い領域は、影響度の低い領域に比べて、自動解析結果に強く影響する。アテンションマップの一例は、例えば以下の論文等に記載されている。「Ramprasaath R. Selvaraju, et al. “Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization” Proceedings of the IEEE International Conference on Computer Vision, 2017-Oct, pp. 618-626」 The attention map is the distribution in the image area of the degree of influence (degree of attention) for each position that the mathematical model has influenced when outputting the automatic analysis result. Regions with a high degree of influence have a stronger influence on the automatic analysis results than regions with a low degree of influence. An example of the attention map is described in, for example, the following papers. “Ramprasaath R. Selvaraju, et al. “Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization” Proceedings of the IEEE International Conf. erence on Computer Vision, 2017-Oct, pp. 618-626"

確信度マップでは、数学モデルが自動解析を実行する際の、各画素における自動解析の確信度の、画像領域内における分布である。確信度は、自動解析の確実性の高さであってもよいし、確実性の低さ(不確信度)の逆数等であってもよい。また、例えば不確信度がx%で表される場合、確信度は(100-x)%で表される値であってもよい。一例として、本実施形態では、自動解析における確率分布のエントロピー(平均情報量)が確信度として用いられる。自動解析における確信度が最大値となる場合、確率分布のエントロピーは0となる。また、確信度が低下する程、エントロピーは増大する。従って、例えば、確率分布のエントロピーの逆数等が確信度として用いられることで、確信度マップが適切に生成される。ただし、確率分布のエントロピー以外の情報(例えば、確率分布の標準偏差、変動係数、分散等)が、確信度マップの生成に利用されてもよい。自動解析における確率分布が確信度として利用される場合、確率分布は、画素毎の自動解析の確率分布であってもよいし、一次元以上の座標を確率変数とする確率分布であってもよい。また、自動解析によって何らかの順位付けを行う場合には、1位の確率、または、1位の確率とそれ以外の順位の確率(例えば、2位、または2位以下の複数の確率の合計等)の差等が、確信度として利用されてもよい。 A confidence map is the distribution, in an image region, of the autoanalysis confidence at each pixel when the mathematical model performs the autoanalysis. The degree of certainty may be the high certainty of the automatic analysis, or the reciprocal of the low certainty (uncertainty). Also, for example, when the uncertainty is expressed by x%, the certainty may be a value expressed by (100-x)%. As an example, in this embodiment, the entropy (average amount of information) of the probability distribution in the automatic analysis is used as the certainty factor. The entropy of the probability distribution is 0 when the confidence factor in the automatic analysis is the maximum value. Also, the lower the confidence, the higher the entropy. Therefore, for example, by using the reciprocal of the entropy of the probability distribution or the like as the confidence, the confidence map is appropriately generated. However, information other than the entropy of the probability distribution (eg, standard deviation, coefficient of variation, variance, etc. of the probability distribution) may be used to generate the confidence map. When the probability distribution in the automatic analysis is used as the degree of certainty, the probability distribution may be the probability distribution of the automatic analysis for each pixel, or the probability distribution with one or more dimensional coordinates as random variables. . In addition, when performing some ranking by automatic analysis, the probability of 1st place, or the probability of 1st place and the probability of other rankings (for example, 2nd place, or the sum of multiple probabilities of 2nd place and below, etc.) , etc. may be used as the degree of certainty.

図4は、図2に示す眼科画像30Aに対して数学モデルに基づく自動解析が行われた場合の、補足マップ40Aの一例を示す図である。図4では、眼科画像30A(図2参照)の画像領域と補足マップ40Aの領域の対比を容易にするために、眼科画像30Aにおける眼底血管33等の組織が点線で模式的に示されている。図4に示す補足マップ40Aでは、加齢黄斑変性の可能性が高いことを示す自動解析結果に関する、各位置における重み(本実施形態では、影響度または確信度)の大きさが、色の濃さによって表されている。つまり、色が濃い部分は、色が薄い部分に比べて、自動解析結果に関する影響度または確信度が大きい部分となる。(図4および図5では、便宜上、色の濃さを図形の線の太さで表現している。)図4に示す例では、病変部35(図2参照)における影響度または確信度が大きくなっている。また、病変部35内の中心の影響度または確信度は、病変部35内の周辺部の影響度または確信度よりも大きくなっている。 FIG. 4 is a diagram showing an example of a supplementary map 40A when automatic analysis based on a mathematical model is performed on the ophthalmologic image 30A shown in FIG. In FIG. 4, in order to facilitate comparison between the image area of the ophthalmologic image 30A (see FIG. 2) and the area of the supplemental map 40A, tissues such as the fundus blood vessel 33 in the ophthalmologic image 30A are schematically indicated by dotted lines. . In the supplemental map 40A shown in FIG. 4, the magnitude of the weight (in this embodiment, the degree of influence or the degree of certainty) at each position regarding the automatic analysis result indicating that age-related macular degeneration is highly likely is determined by the color density. is represented by In other words, dark-colored portions have a greater degree of influence or degree of certainty on the automatic analysis results than light-colored portions. (In FIGS. 4 and 5, the depth of color is expressed by the thickness of the line of the figure for convenience.) In the example shown in FIG. It's getting bigger. In addition, the influence or confidence of the center within the lesion 35 is greater than the influence or confidence of the periphery within the lesion 35 .

図5は、図3に示す眼科画像30Bに対して数学モデルに基づく自動解析が行われた場合の、補足マップ40Bの一例を示す図である。図5でも図4と同様に、眼科画像30B(図3参照)における眼底血管等の組織が点線で模式的に示されている。図5に示す補足マップ40Bでは、糖尿病網膜症の可能性が高いことを示す自動解析結果に関する、各位置における影響度または確信度の大きさが、色の濃さによって表されている。色が濃い部分は、自動解析結果に対する影響度または確信度が大きい。図5に示す例でも、病変部36(図3参照)における影響度または確信度が大きくなっている。 FIG. 5 is a diagram showing an example of a supplementary map 40B when automatic analysis based on a mathematical model is performed on the ophthalmologic image 30B shown in FIG. In FIG. 5, as in FIG. 4, tissues such as fundus blood vessels in the ophthalmologic image 30B (see FIG. 3) are schematically shown by dotted lines. In the supplemental map 40B shown in FIG. 5, the degree of influence or degree of confidence at each location regarding the automatic analysis result indicating the high possibility of diabetic retinopathy is represented by the intensity of color. Areas with darker colors have a greater degree of influence or degree of certainty on the automatic analysis results. In the example shown in FIG. 5 as well, the degree of influence or degree of certainty is high in the lesion 36 (see FIG. 3).

本実施形態の補足マップ40A,40Bでは、自動解析の対象とする疾患または構造に応じて、影響度または確信度の表示態様が変えられる。本実施形態では、影響度または確信度を示す色が、自動解析の対象とする疾患または構造に応じて変えられる。ただし、補足マップの具体的な態様を変更することも可能である。例えば、影響度または確信度の大きさが等しい位置を線で結ぶことで等高線を生成することで、影響度または確信度の大きさを示してもよい。この場合、自動解析の対象とする疾患または構造に応じて、等高線を構成する線の色、線種、線の太さ等の少なくともいずれかを変えてもよい。 In the supplementary maps 40A and 40B of the present embodiment, the display mode of the degree of influence or degree of certainty is changed according to the disease or structure targeted for automatic analysis. In this embodiment, the color indicating the degree of impact or degree of confidence is changed according to the disease or structure targeted for automatic analysis. However, it is also possible to change the specific aspect of the supplemental map. For example, the magnitude of influence or confidence may be indicated by generating contour lines by connecting locations with equal magnitudes of influence or confidence. In this case, at least one of the color, line type, line thickness, etc. of the contour lines may be changed according to the disease or structure to be automatically analyzed.

また、本実施形態では、眼科画像が数学モデルに入力されると、数学モデルは、眼科画像に対する自動解析結果と、自動解析に付随する補足分布情報(本実施形態では補足マップ)を共に出力する。しかし、補足分布情報を生成する方法を変更することも可能である。例えば、眼科画像処理装置21のCPU23が、数学モデルによって出力された自動解析結果に基づいて補足分布情報を生成してもよい。 In addition, in this embodiment, when an ophthalmologic image is input to the mathematical model, the mathematical model outputs both the automatic analysis result for the ophthalmologic image and supplemental distribution information (supplementary map in this embodiment) that accompanies the automatic analysis. . However, it is also possible to vary the manner in which the supplemental distribution information is generated. For example, the CPU 23 of the ophthalmologic image processing apparatus 21 may generate supplemental distribution information based on the automatic analysis results output by the mathematical model.

また、本実施形態では、被検眼の疾患の自動解析を実行する場合について例示している。しかし、被検眼の構造の自動解析を実行する場合にも、前述した補足分布情報と同様の補足分布情報を生成することが可能である。例えば、被検眼の眼底における動脈と静脈を自動的に解析する場合には、動脈である旨の自動解析結果に対する補足分布情報と、静脈である旨の自動解析結果に対する補足分布情報が生成されてもよい。この場合、眼底血管のうち、動脈および静脈の自動解析の確信度が小さい部位については、確信度が小さい血管であることを示す表示態様で補足分布情報が生成されてもよい。 Moreover, in this embodiment, the case of automatically analyzing the disease of the eye to be examined is illustrated. However, it is also possible to generate supplemental distribution information similar to the above-described supplemental distribution information when automatically analyzing the structure of the subject's eye. For example, when automatically analyzing the arteries and veins in the fundus of the subject's eye, supplementary distribution information for the automatic analysis results indicating arteries and supplementary distribution information for the automatic analysis results indicating veins are generated. good too. In this case, supplemental distribution information may be generated in a display form indicating that the blood vessels with a low degree of certainty in the automatic analysis of arteries and veins among the fundus blood vessels.

(数学モデル構築処理)
図6を参照して、数学モデル構築装置1が実行する数学モデル構築処理について説明する。数学モデル構築処理は、記憶装置4に記憶された数学モデル構築プログラムに従って、CPU3によって実行される。数学モデル構築処理では、訓練データセットによって数学モデルが訓練されることで、被検眼の疾患または構造に対する自動解析を行うための数学モデルが構築される。訓練データセットには、入力側のデータ(入力用訓練データ)と出力側のデータ(出力用訓練データ)が含まれる。
(mathematical model construction processing)
A mathematical model building process executed by the mathematical model building device 1 will be described with reference to FIG. The mathematical model building process is executed by CPU 3 according to a mathematical model building program stored in storage device 4 . In the mathematical model building process, the mathematical model is trained with the training data set to build the mathematical model for automatic analysis of the disease or structure of the eye to be examined. The training data set includes data on the input side (training data for input) and data on the output side (training data for output).

図6に示すように、CPU3は、眼科画像撮影装置11Aによって撮影された眼科画像である訓練用眼科画像のデータを、入力用訓練データとして取得する(S1)。本実施形態では、訓練用眼科画像のデータは、眼科画像撮影装置11Aによって生成された後、数学モデル構築装置1によって取得される。しかし、CPU3は、訓練用眼科画像を生成する基となる信号(例えばOCT信号)を眼科画像撮影装置11Aから取得し、取得した信号に基づいて訓練用眼科画像を生成することで、訓練用眼科画像のデータを取得してもよい。 As shown in FIG. 6, the CPU 3 acquires training ophthalmologic image data, which is an ophthalmologic image captured by the ophthalmologic imaging device 11A, as input training data (S1). In this embodiment, the training ophthalmologic image data is acquired by the mathematical model construction device 1 after being generated by the ophthalmologic imaging device 11A. However, the CPU 3 acquires a signal (for example, an OCT signal) that is the basis for generating a training ophthalmic image from the ophthalmologic imaging device 11A, and generates a training ophthalmic image based on the acquired signal. Image data may be obtained.

なお、本実施形態のS1では、OCT装置である眼科画像撮影装置11Aによって撮影された眼底の二次元正面画像(所謂Enface画像)が、訓練用眼科画像として取得される。しかし、訓練用眼科画像は、OCT装置以外の装置(例えば、SLO装置、眼底カメラ、赤外カメラ、角膜内皮細胞撮影装置等の少なくともいずれか)によって撮影されてもよい。また、訓練用眼科画像は、眼底の二次元正面画像に限定されない。例えば、二次元断層画像または三次元断層画像等が、訓練用眼科画像として取得されてもよい。訓練用眼科画像として動画像が取得されてもよい。 In S1 of the present embodiment, a two-dimensional front image of the fundus (so-called Enface image) captured by the ophthalmologic imaging apparatus 11A, which is an OCT apparatus, is acquired as a training ophthalmologic image. However, the training ophthalmologic images may be captured by devices other than the OCT device (for example, at least one of an SLO device, a fundus camera, an infrared camera, and a corneal endothelial cell imaging device). Also, the training ophthalmologic image is not limited to the two-dimensional frontal image of the fundus. For example, a two-dimensional tomographic image, a three-dimensional tomographic image, or the like may be acquired as a training ophthalmologic image. A moving image may be acquired as the training ophthalmologic image.

次いで、CPU3は、訓練用眼科画像が撮影された被検眼の、疾患および構造の少なくともいずれか(本実施形態では疾患)を示すデータを、出力用訓練データとして取得する(S2)。一例として、本実施形態では、作業者(例えば医師等)が訓練用眼科画像を確認して疾患の診断を行い、疾患が存在する場合に疾患の種類を操作部7の操作によって数学モデル構築装置1に入力することで、出力用訓練データが生成される。出力用訓練データでは、疾患の有無、および疾患の種類のデータに加えて、病変部の位置を示すデータが含まれていてもよい。 Next, the CPU 3 acquires, as output training data, data indicating at least one of the disease and structure (diseases in this embodiment) of the subject's eye for which the ophthalmologic training image was captured (S2). As an example, in the present embodiment, an operator (for example, a doctor) checks training ophthalmological images to diagnose a disease. By inputting 1, training data for output is generated. The training data for output may include data indicating the position of the lesion in addition to data regarding the presence or absence of disease and the type of disease.

なお、出力用訓練データを変更することも可能である。例えば、数学モデルによって被検眼の構造の自動解析を実行する場合には、訓練用眼科画像のうち、特定の構造の位置(例えば、層の位置、境界の位置、特定の組織の位置等の少なくともいずれか)を示すデータが、出力用訓練データとして使用されてもよい。 It is also possible to change the output training data. For example, when performing automatic analysis of the structure of the subject's eye using a mathematical model, at least the position of a specific structure (for example, the position of a layer, the position of a boundary, the position of a specific tissue, etc.) in training ophthalmologic images Either) may be used as output training data.

次いで、CPU3は、機械学習アルゴリズムによって、訓練データセットを用いた数学モデルの訓練を実行する(S3)。機械学習アルゴリズムとしては、例えば、ニューラルネットワーク、ランダムフォレスト、ブースティング、サポートベクターマシン(SVM)等が一般的に知られている。 CPU 3 then performs training of the mathematical model using the training data set by a machine learning algorithm (S3). As machine learning algorithms, for example, neural networks, random forests, boosting, support vector machines (SVM), etc. are generally known.

ニューラルネットワークは、生物の神経細胞ネットワークの挙動を模倣する手法である。ニューラルネットワークには、例えば、フィードフォワード(順伝播型)ニューラルネットワーク、RBFネットワーク(放射基底関数)、スパイキングニューラルネットワーク、畳み込みニューラルネットワーク、再帰型ニューラルネットワーク(リカレントニューラルネット、フィードバックニューラルネット等)、確率的ニューラルネット(ボルツマンマシン、ベイシアンネットワーク等)等がある。 A neural network is a technique that imitates the behavior of a neural network of living organisms. Neural networks include, for example, feedforward neural networks, RBF networks (radial basis functions), spiking neural networks, convolutional neural networks, recurrent neural networks (recurrent neural networks, feedback neural networks, etc.), probability neural networks (Boltzmann machine, Baysian network, etc.), etc.

ランダムフォレストは、ランダムサンプリングされた訓練データに基づいて学習を行って、多数の決定木を生成する方法である。ランダムフォレストを用いる場合、予め識別器として学習しておいた複数の決定木の分岐を辿り、各決定木から得られる結果の平均(あるいは多数決)を取る。 Random forest is a method of learning based on randomly sampled training data to generate a large number of decision trees. When a random forest is used, branches of a plurality of decision trees learned in advance as discriminators are traced, and the average (or majority vote) of the results obtained from each decision tree is taken.

ブースティングは、複数の弱識別器を組み合わせることで強識別器を生成する手法である。単純で弱い識別器を逐次的に学習させることで、強識別器を構築する。 Boosting is a method of generating a strong classifier by combining a plurality of weak classifiers. A strong classifier is constructed by sequentially learning simple and weak classifiers.

SVMは、線形入力素子を利用して2クラスのパターン識別器を構成する手法である。SVMは、例えば、訓練データから、各データ点との距離が最大となるマージン最大化超平面を求めるという基準(超平面分離定理)で、線形入力素子のパラメータを学習する。 SVM is a method of constructing a two-class pattern discriminator using linear input elements. The SVM learns the parameters of the linear input element, for example, based on the criterion of finding the margin-maximizing hyperplane that maximizes the distance to each data point from the training data (hyperplane separation theorem).

数学モデルは、例えば、入力データ(本実施形態では、訓練用眼科画像と同様の二次元正面画像のデータ)と、出力データ(本実施形態では、疾患に関する自動解析結果のデータ)の関係を予測するためのデータ構造を指す。数学モデルは、訓練データセットを用いて訓練されることで構築される。前述したように、訓練データセットは、入力用訓練データと出力用訓練データのセットである。例えば、訓練によって、各入力と出力の相関データ(例えば、重み)が更新される。また、本実施形態の数学モデルは、自動解析結果と共に、自動解析に付随する補足分布情報(本実施形態では補足マップ)を出力するように訓練される。 The mathematical model, for example, predicts the relationship between input data (in this embodiment, data of two-dimensional frontal images similar to training ophthalmological images) and output data (in this embodiment, data of automatic analysis results regarding diseases). A data structure for A mathematical model is built by being trained using a training data set. As described above, the training data set is a set of input training data and output training data. For example, training updates the correlation data (eg, weights) for each input and output. The mathematical model of the present embodiment is also trained to output supplemental distribution information (in the present embodiment, supplemental maps) that accompanies the automatic analysis along with the results of the automatic analysis.

本実施形態では、機械学習アルゴリズムとして多層型のニューラルネットワークが用いられている。ニューラルネットワークは、データを入力するための入力層と、予測したい自動解析結果のデータを生成するための出力層と、入力層と出力層の間の1つ以上の隠れ層を含む。各層には、複数のノード(ユニットとも言われる)が配置される。詳細には、本実施形態では、多層型ニューラルネットワークの一種である畳み込みニューラルネットワーク(CNN)が用いられている。 In this embodiment, a multilayer neural network is used as the machine learning algorithm. A neural network includes an input layer for inputting data, an output layer for generating data of automatic analysis results to be predicted, and one or more hidden layers between the input layer and the output layer. A plurality of nodes (also called units) are arranged in each layer. Specifically, in this embodiment, a convolutional neural network (CNN), which is a type of multilayer neural network, is used.

なお、他の機械学習アルゴリズムが用いられてもよい。例えば、競合する2つのニューラルネットワークを利用する敵対的生成ネットワーク(Generative adversarial networks:GAN)が、機械学習アルゴリズムとして採用されてもよい。 Note that other machine learning algorithms may be used. For example, Generative adversarial networks (GAN), which utilize two competing neural networks, may be employed as machine learning algorithms.

数学モデルの構築が完了するまで(S4:NO)、S1~S3の処理が繰り返される。つまり、疾患を有する被検眼の訓練データセット(例えば、図2および図3参照)と、疾患を有さない被検眼の訓練データセットを含む多数の訓練データセットによって、数学モデルは繰り返し訓練される。数学モデルの構築が完了すると(S4:YES)、数学モデル構築処理は終了する。構築された数学モデルを実現させるプログラムおよびデータは、眼科画像処理装置21に組み込まれる。 The processes of S1 to S3 are repeated until the construction of the mathematical model is completed (S4: NO). That is, the mathematical model is iteratively trained with multiple training data sets, including a training data set of diseased eyes (see, for example, FIGS. 2 and 3) and a training data set of non-diseased eyes. . When construction of the mathematical model is completed (S4: YES), the mathematical model construction process ends. Programs and data for realizing the constructed mathematical model are installed in the ophthalmologic image processing apparatus 21 .

(確認用画像表示処理)
図7から図9を参照して、眼科画像処理装置21が実行する確認用画像表示処理について説明する。確認用画像とは、ユーザが直接確認することが有効な可能性が高い画像である。本実施形態では、確認用画像は補足分布情報に基づいて自動的に取得される。確認用画像表示処理は、記憶装置21に記憶された眼科画像処理プログラムに従って、CPU23によって実行される。
(Confirmation image display processing)
Confirmation image display processing executed by the ophthalmologic image processing apparatus 21 will be described with reference to FIGS. 7 to 9 . The confirmation image is an image that is highly likely to be effective for direct confirmation by the user. In this embodiment, the confirmation image is automatically acquired based on the supplemental distribution information. The confirmation image display process is executed by the CPU 23 according to the ophthalmologic image processing program stored in the storage device 21 .

まず、CPU23は、被検眼の眼科画像を取得する(S11)。S11で取得される眼科画像の種類は、前述した数学モデル構築処理(図6参照)において入力用訓練データとして使用される眼科画像と同様の眼科画像であることが望ましい。一例として、本実施形態のS11では、被検眼の眼底の二次元正面画像が取得される。なお、CPU23は、眼科画像を生成する基となる信号(例えばOCT信号)を眼科画像撮影装置11Bから取得し、取得した信号に基づいて眼科画像を生成してもよい。 First, the CPU 23 acquires an ophthalmologic image of the subject's eye (S11). The type of ophthalmologic image acquired in S11 is desirably the same as the ophthalmologic image used as input training data in the above-described mathematical model building process (see FIG. 6). As an example, in S11 of the present embodiment, a two-dimensional front image of the fundus of the subject's eye is obtained. Note that the CPU 23 may acquire a signal (for example, an OCT signal) from which an ophthalmologic image is generated from the ophthalmologic imaging apparatus 11B and generate an ophthalmologic image based on the acquired signal.

CPU23は、取得した眼科画像を数学モデルに入力することで、数学モデルによって出力される自動解析結果を取得する(S12)。前述したように、本実施形態では、特定の複数の疾患の各々についての自動解析結果が、数学モデルによって出力される。 The CPU 23 inputs the obtained ophthalmologic image to the mathematical model to obtain the automatic analysis result output by the mathematical model (S12). As described above, in this embodiment, automatic analysis results for each of a plurality of specific diseases are output by the mathematical model.

CPU23は、S12における自動解析に付随する補足分布情報を取得する(S13)。前述したように、本実施形態では、アテンションマップおよび確信度マップの少なくともいずれかが、補足分布情報(補足マップ)として取得される。また、本実施形態では、数学モデルが自動解析結果と補足分布情報を共に出力する。しかし、CPU23が、自動解析結果に基づいて補足分布情報を生成してもよい。 The CPU 23 acquires supplemental distribution information accompanying the automatic analysis in S12 (S13). As described above, in this embodiment, at least one of the attention map and the confidence map is acquired as supplemental distribution information (supplemental map). Also, in this embodiment, the mathematical model outputs both automatic analysis results and supplemental distribution information. However, the CPU 23 may generate supplemental distribution information based on the automatic analysis results.

次いで、CPU23は、補足分布情報に基づいて、S11において取得された眼科画像の画像領域内の一部に注目領域を設定する(S16)。詳細には、本実施形態の眼科画像処理装置21は、補足分布情報として確信度マップが取得されている場合に、確信度が小さい部位(つまり、本実施形態では、特定の疾患である旨の自動解析の確実性が低いと思われる部位)の画像を、表示装置28に表示させることができる。この場合、ユーザは、特定の自動解析の確信度が小さい部位の状態を、表示される確認用画像によって自ら確認することができる。また、本実施形態の眼科画像処理装置21は、補足分布情報が示す重み(影響度および確信度の少なくともいずれか)が大きい部位の画像を、表示装置28に表示させることができる。この場合、ユーザは、重みが大きい重要な部位の状態(つまり、本実施形態では、特定の疾患である可能性が高いと判定された部位の状態)を、確認用画像によって適切に確認することができる。ユーザは、操作部27を操作することで、確信度が小さい部位の表示指示と、影響度または確信度が大きい部位の表示指示のいずれかを、眼科画像処理装置21に入力することができる。 Next, the CPU 23 sets a region of interest in a part of the image region of the ophthalmologic image acquired in S11 based on the supplemental distribution information (S16). More specifically, the ophthalmologic image processing apparatus 21 of the present embodiment, when a certainty map is acquired as supplemental distribution information, detects a region with a low certainty (that is, a specific disease in the present embodiment). It is possible to display the image of the part where the certainty of the automatic analysis is considered to be low on the display device 28 . In this case, the user can personally check the state of the part where the certainty of the specific automatic analysis is low by the displayed confirmation image. Further, the ophthalmologic image processing apparatus 21 of the present embodiment can cause the display device 28 to display an image of a region having a large weight (at least one of the degree of influence and the degree of certainty) indicated by the supplemental distribution information. In this case, the user can appropriately check the state of the important part with a large weight (that is, the state of the part determined to be highly likely to have a specific disease in this embodiment) using the confirmation image. can be done. By operating the operation unit 27 , the user can input to the ophthalmologic image processing apparatus 21 either an instruction to display a region with a low degree of confidence or an instruction to display a region with a high degree of influence or confidence.

確信度が小さい部位の表示指示が入力されている場合、CPU23は、補足分布情報(詳細には確信度マップ)が示す確信度が閾値以下の領域に、注目領域を設定する(S16)。つまり、CPU23は、特定の疾患または構造(本実施形態では特定の疾患)である旨の自動解析の確信度が閾値以下の領域に、注目領域を設定する。 When an instruction to display a part with a low confidence factor is input, the CPU 23 sets an attention area to an area where the confidence factor indicated by the supplemental distribution information (specifically, the confidence map) is equal to or less than the threshold (S16). In other words, the CPU 23 sets the region of interest to a region in which the degree of certainty of automatic analysis indicating a specific disease or structure (a specific disease in this embodiment) is equal to or less than a threshold.

注目領域を設定するための具体的な処理内容は適宜選択できる。一例として、本実施形態のCPU23は、図8に示すように、特定の疾患または構造である旨の自動解析の確信度が第1閾値以上である連続した領域を、別個に抽出する。図8に示す例では、確信度が第1閾値以上である2つの領域46A,46Bが抽出される。次いで、CPU23は、抽出した領域内における確信度の最大値が第2閾値以下(第2閾値>第1閾値)である領域に、注目領域を設定する。図8に示す例では、領域46Aでは、確信度の最大値が第2閾値よりも大きいので、特定の疾患である旨の自動解析の確実性が高いと考えられる。一方で、領域46Bでは、確信度の最大値が第2閾値以下であり、特定の疾患である旨の自動解析の確実性が低いと考えられる。従って、図8に示す例では、2つの領域46A,46Bのうち、確信度の最大値が第2閾値以下である領域46Bに、注目領域48が設定される。この場合、特定の疾患の可能性があると自動的に解析された領域46A,46Bのうち、自動解析の確実性が低い領域のみが、注目領域に設定される。 Specific processing contents for setting the attention area can be selected as appropriate. As an example, as shown in FIG. 8, the CPU 23 of the present embodiment separately extracts continuous regions in which the certainty of automatic analysis indicating a specific disease or structure is greater than or equal to a first threshold. In the example shown in FIG. 8, two regions 46A and 46B whose certainty is greater than or equal to the first threshold are extracted. Next, the CPU 23 sets a region of interest to a region in which the maximum value of certainty in the extracted region is equal to or less than the second threshold (second threshold>first threshold). In the example shown in FIG. 8, in the region 46A, since the maximum value of the degree of certainty is larger than the second threshold, it is considered that the certainty of the automatic analysis of the specific disease is high. On the other hand, in the area 46B, the maximum value of the degree of certainty is equal to or less than the second threshold, and the certainty of the automatic analysis of the specific disease is considered to be low. Therefore, in the example shown in FIG. 8, of the two areas 46A and 46B, the area of interest 48 is set to the area 46B in which the maximum value of the degree of certainty is equal to or less than the second threshold. In this case, of the regions 46A and 46B that have been automatically analyzed as having the possibility of a specific disease, only those regions with low automatic analysis certainty are set as regions of interest.

なお、注目領域を設定するための処理内容を変更することも可能である。例えば、CPU23は、確信度が前述した第1閾値以上であり、且つ第2閾値以下である領域の全てを、注目領域として設定してもよい。第1閾値は、0よりも大きい値であれば、各種条件に応じて適宜設定することが可能である。 Note that it is also possible to change the processing content for setting the attention area. For example, the CPU 23 may set all the regions whose degrees of certainty are equal to or more than the first threshold value and equal to or less than the second threshold value as regions of interest. As long as the first threshold is a value greater than 0, it can be appropriately set according to various conditions.

また、重み(本実施形態では影響度または確信度)が大きい部位の表示指示が入力されている場合、CPU23は、補足分布情報(詳細には、アテンションマップおよび確信度マップの少なくともいずれか)が示す重みが最も大きい位置を含む領域に、注目領域を設定する(S16)。例えば、図8に示す例では、影響度または確信度が最も大きい位置は、領域46A内に存在する。従って、CPU23は、領域46Aを注目領域に設定する。なお、重みが大きい部位の表示指示が入力されている場合にも、S16における処理内容を変更することは可能である。例えば、CPU23は、重み(影響度または確信度)が閾値以上である領域に注目領域を設定してもよい。また、CPU23は、重みが他の領域よりも相対的に大きい領域に、注目領域を設定してもよい。また、領域内の重みの累積値が最も高くなるように、特定の大きさの注目領域が設定されてもよい。2つ以上の注目領域が設定されてもよい。 Further, when an instruction to display a part with a large weight (influence or confidence in this embodiment) is input, the CPU 23 determines that the supplemental distribution information (more specifically, at least one of the attention map and the confidence map) is A region of interest is set to a region including the position with the largest weight indicated (S16). For example, in the example shown in FIG. 8, the position with the highest degree of influence or degree of certainty is within region 46A. Therefore, the CPU 23 sets the area 46A as the attention area. It should be noted that it is possible to change the processing content in S16 even when an instruction to display a part with a large weight is input. For example, the CPU 23 may set a region of interest to a region whose weight (degree of influence or degree of certainty) is equal to or greater than a threshold. Also, the CPU 23 may set the attention area to an area whose weight is relatively larger than other areas. Also, a region of interest having a specific size may be set so that the cumulative value of the weight within the region is the highest. Two or more attention areas may be set.

次いで、CPU23は、被検眼の組織のうち、注目領域を含む組織の画像を、確認用画像として取得する(S18)。一例として、本実施形態のCPU23は、被検眼の組織のうち、注目領域を通過する部位の断層画像を、確認用画像として取得する。 Next, the CPU 23 acquires an image of the tissue including the region of interest among the tissues of the subject's eye as a confirmation image (S18). As an example, the CPU 23 of the present embodiment acquires, as a confirmation image, a tomographic image of a portion of the tissue of the eye to be examined that passes through the region of interest.

図9は、眼科画像30B、補足マップ40B、および確認用画像50を表示している状態の、表示装置28の表示画面の一例を示す図である。図9に示す例では、数学モデルに入力された眼科画像30Bに対して、補足マップ40Bが、領域を合致させた状態で重畳表示されている。従って、ユーザは、自動解析に付随する重みの分布を、眼科画像30B上で適切に確認することができる。 FIG. 9 is a diagram showing an example of the display screen of the display device 28 displaying the ophthalmologic image 30B, the supplemental map 40B, and the confirmation image 50. As shown in FIG. In the example shown in FIG. 9, a supplementary map 40B is displayed superimposed on the ophthalmologic image 30B input to the mathematical model in a state where the areas are matched. Therefore, the user can appropriately confirm the distribution of weights associated with the automatic analysis on the ophthalmologic image 30B.

また、図9に示す例では、CPU23は、二次元の注目領域48上に、断層画像の取得位置を示すライン49を設定し、表示装置28に表示させる。図9に示す例では、直線状の1本のライン49が、注目領域48を横切るように設定されている。しかし、ラインは直線状でなくてもよい。また、複数のラインが設定されてもよい。また、ラインの代わりに、断層画像の取得位置を示す二次元の領域が設定されてもよい。CPU23は、設定したラインを組織の深さ方向に横断する断面の二次元断層画像50を取得し、表示装置28に表示させる。また、断層画像の取得位置を示す二次元の領域が設定されている場合、CPU23は、設定された二次元の領域から組織の深さ方向に延びる三次元断層画像を取得し、表示装置28に表示させる。なお、CPU23は、眼科画像撮影装置11Bによって予め撮影された二次元断層画像または三次元断層画像から、設定したラインまたは領域に対応する断層画像を取得してもよい。また、CPU23は、設定したラインまたは領域に対応する断層画像を撮影させる指示を、眼科画像撮影装置11Bに出力してもよい。 In the example shown in FIG. 9, the CPU 23 sets a line 49 indicating the acquisition position of the tomographic image on the two-dimensional attention area 48 and causes the display device 28 to display it. In the example shown in FIG. 9 , one straight line 49 is set across the attention area 48 . However, the line need not be straight. Also, multiple lines may be set. Also, instead of the line, a two-dimensional area indicating the acquisition position of the tomographic image may be set. The CPU 23 acquires a two-dimensional tomographic image 50 of a cross section crossing the set line in the depth direction of the tissue, and causes the display device 28 to display it. Further, when a two-dimensional region indicating the acquisition position of the tomographic image is set, the CPU 23 acquires a three-dimensional tomographic image extending in the depth direction of the tissue from the set two-dimensional region, and displays it on the display device 28. display. Note that the CPU 23 may acquire a tomographic image corresponding to the set line or region from a two-dimensional tomographic image or a three-dimensional tomographic image captured in advance by the ophthalmologic imaging apparatus 11B. Further, the CPU 23 may output to the ophthalmologic image capturing apparatus 11B an instruction to capture a tomographic image corresponding to the set line or area.

なお、本実施形態のS16では、補足分布情報に基づいて、注目領域が自動的に設定される。しかし、ユーザによって入力された指示に基づいて注目領域が設定されてもよい。例えば、CPU23は、図9に示すように、補足マップ40Bを表示装置28に表示させた状態で、補足マップ40B上で注目領域をユーザに指定させてもよい。CPU23は、眼科画像30Bの画像領域のうち、補足マップ40B上でユーザによって指定された領域に対応する領域に、注目領域を設定してもよい。 Note that in S16 of the present embodiment, the attention area is automatically set based on the supplementary distribution information. However, the attention area may be set based on an instruction input by the user. For example, as shown in FIG. 9, the CPU 23 may cause the user to specify the attention area on the supplemental map 40B while displaying the supplemental map 40B on the display device 28 . The CPU 23 may set the region of interest to the region corresponding to the region designated by the user on the supplemental map 40B, among the image regions of the ophthalmologic image 30B.

また、本実施形態のCPU23は、断層画像以外の画像を確認用画像として表示させることも可能である。例えば、CPU23は、被検眼の組織を撮影した眼科画像から、注目領域を含む画像領域を、確認用画像として抽出することができる。この場合、確認用画像が抽出される基の眼科画像は、数学モデルに入力される眼科画像30A,30Bと同一の画像であってもよいし、異なる画像であってもよい。確認用画像が抽出される基の眼科画像は、二次元の画像であってもよいし、三次元の画像であってもよい。 In addition, the CPU 23 of this embodiment can display an image other than a tomographic image as a confirmation image. For example, the CPU 23 can extract an image region including the region of interest from an ophthalmologic image of the tissue of the subject's eye as a confirmation image. In this case, the ophthalmologic image from which the confirmation image is extracted may be the same image as the ophthalmologic images 30A and 30B input to the mathematical model, or may be a different image. The ophthalmologic image from which the confirmation image is extracted may be a two-dimensional image or a three-dimensional image.

また、CPU23は、被検眼の組織を撮影した眼科画像に対し、注目領域を含む画像領域の画質を、他の領域の画質よりも高くして、表示装置28に表示させることもできる。また、CPU23は、被検眼の組織を撮影した眼科画像のうち、注目領域を含む画像領域を拡大させて、表示装置28に表示させることもできる。また、CPU23は、注目領域以外の領域をマスクした状態で、眼科画像を表示装置28に表示させてもよい。 In addition, the CPU 23 can also cause the display device 28 to display an ophthalmologic image obtained by photographing the tissue of the eye to be inspected by setting the image quality of the image area including the attention area higher than the image quality of other areas. Further, the CPU 23 can enlarge the image area including the attention area in the ophthalmologic image of the tissue of the subject's eye and display it on the display device 28 . Further, the CPU 23 may cause the display device 28 to display the ophthalmologic image with areas other than the attention area masked.

次いで、CPU23は、確認用画像の表示指示がユーザによって入力されているか否かを判断する(S20)。本実施形態では、ユーザは、表示装置28における確認用画像の表示または非表示を選択する指示を、操作部27を介して入力することができる。表示指示が入力されている場合(S20:YES)、CPU23は、確認用画像を表示装置28に表示させる。一方で、非表示の指示が入力されている場合(S20:NO)、CPU23は、確認用画像を非表示とする(S22)。処理を終了させる指示が入力されるまで(S23:NO)、S20~S23の処理が繰り返される。終了指示が入力されると(S23:YES)、確認用画像表示処理は終了する。 Next, the CPU 23 determines whether or not the user has input an instruction to display a confirmation image (S20). In this embodiment, the user can input an instruction through the operation unit 27 to select display or non-display of the confirmation image on the display device 28 . If a display instruction has been input (S20: YES), the CPU 23 causes the display device 28 to display the confirmation image. On the other hand, when a non-display instruction is input (S20: NO), the CPU 23 hides the confirmation image (S22). The processes of S20 to S23 are repeated until an instruction to end the process is input (S23: NO). When the end instruction is input (S23: YES), the confirmation image display process ends.

なお、図8および図9では、複数の疾患および構造のうちの1つである糖尿病網膜症の自動解析結果のみが出力された場合について例示した。しかし、前述したように、本実施形態の数学モデルによると、1つの眼科画像に対して複数の疾患の自動解析が実行される。複数の疾患または構造に対する自動解析結果が出力された場合、確認用画像を表示させる処理は、1つの自動解析結果に対して実行されてもよいし、複数の自動解析結果の各々に対して実行されてもよい。また、複数の自動解析結果のうち、ユーザによって選択された自動解析結果に対して、確認用画像を表示させる処理が実行されてもよい。 8 and 9 illustrate the case where only the automatic analysis result of diabetic retinopathy, which is one of a plurality of diseases and structures, is output. However, as described above, according to the mathematical model of the present embodiment, automatic analysis of multiple diseases is performed on one ophthalmic image. When automatic analysis results for a plurality of diseases or structures are output, the process of displaying confirmation images may be executed for one automatic analysis result or for each of a plurality of automatic analysis results. may be Further, a process of displaying a confirmation image may be executed for an automatic analysis result selected by the user from among a plurality of automatic analysis results.

(統合マップ表示処理)
図10から図12を参照して、眼科画像処理装置21が実行する統合マップ表示処理について説明する。統合マップとは、複数の自動解析結果の各々に付随する複数の補足マップを統合することで生成されるマップである。統合マップによると、複数の自動解析結果の各々に関する重み(本実施形態では影響度または確信度)の分布が、容易に把握される。統合マップ表示処理は、記憶装置21に記憶された眼科画像処理プログラムに従って、CPU23によって実行される。
(Integrated map display processing)
Integrated map display processing executed by the ophthalmologic image processing apparatus 21 will be described with reference to FIGS. 10 to 12 . An integrated map is a map generated by integrating a plurality of supplementary maps attached to each of a plurality of automatic analysis results. According to the integrated map, the distribution of weights (impact or confidence in this embodiment) for each of the multiple automatic analysis results can be easily grasped. The integrated map display process is executed by the CPU 23 according to the ophthalmologic image processing program stored in the storage device 21 .

まず、CPU23は、被検眼の眼科画像を取得する(S31)。S31の処理には、前述したS11の処理(図7参照)と同様の処理を採用できる。次いで、CPU23は、取得した眼科画像を数学モデルに入力することで、複数の疾患および構造の各々に対する複数の自動解析結果を取得する(S32)。前述したように、本実施形態では、特定の複数の疾患の各々についての自動解析結果が、数学モデルによって出力される。 First, the CPU 23 acquires an ophthalmologic image of the subject's eye (S31). For the process of S31, the same process as the process of S11 described above (see FIG. 7) can be adopted. Next, the CPU 23 obtains a plurality of automatic analysis results for each of a plurality of diseases and structures by inputting the obtained ophthalmologic images into the mathematical model (S32). As described above, in this embodiment, automatic analysis results for each of a plurality of specific diseases are output by the mathematical model.

CPU23は、S32における複数の自動解析の各々に付随する複数の補足マップを取得する(S33)。前述したように、本実施形態では、アテンションマップおよび確信度マップの少なくともいずれかが、補足マップとして取得される。 The CPU 23 acquires a plurality of supplementary maps accompanying each of the plurality of automatic analyzes in S32 (S33). As described above, in this embodiment, at least one of the attention map and the confidence map is acquired as a supplemental map.

CPU23は、S33で取得された複数の補足マップを同一の領域内で統合させることで、統合マップを生成する(S34)。図11は、2つの補足マップ40A,40B(図4および図5参照)を統合して統合マップ60を生成する方法の一例を説明する説明図である。CPU23は、複数の補足マップ(図11に示す例では、2つの補足マップ40A,40B)を同一の領域内で統合させることで、1つの統合マップ60を生成する。詳細には、本実施形態のCPU23は、補足マップ40A,40B毎に表示態様を変えて、複数の補足マップ40A,40Bを統合させる。図11に示す例では、CPU23は、影響度または確信度を示す色を、補足マップ40A,40B毎に変えている。しかし、CPU23は、色以外の表示態様を補足マップ毎に変えてもよい。 The CPU 23 generates an integrated map by integrating the plurality of supplementary maps acquired in S33 within the same area (S34). FIG. 11 is an explanatory diagram illustrating an example of a method of generating an integrated map 60 by integrating two supplementary maps 40A and 40B (see FIGS. 4 and 5). The CPU 23 generates one integrated map 60 by integrating a plurality of supplementary maps (two supplementary maps 40A and 40B in the example shown in FIG. 11) within the same area. Specifically, the CPU 23 of this embodiment changes the display mode for each of the supplementary maps 40A and 40B and integrates the plurality of supplementary maps 40A and 40B. In the example shown in FIG. 11, the CPU 23 changes the color indicating the degree of influence or the degree of certainty for each of the supplementary maps 40A and 40B. However, the CPU 23 may change the display mode other than the color for each supplementary map.

次いで、CPU23は、統合マップ60を眼科画像30上に重畳表示させる指示が入力されているか否かを判断する(S36)。本実施形態では、ユーザは、眼科画像30上に統合マップ60を重畳させるか否かを選択する指示を、操作部27を介して入力することができる。重畳表示させる指示が入力されていなければ(S36:NO)、CPU23は、眼科画像30上への統合マップ60の重畳表示を非表示とする(S37)。重畳表示させる指示が入力されている場合(S36:YES)、CPU23は、図12に示すように、統合マップ60を被検眼の眼科画像30上に重畳させて表示させる(S38)。従って、ユーザは、複数種類の影響度または確信度の分布を、被検眼の組織の分布と容易に対比させることができる。 Next, the CPU 23 determines whether or not an instruction to superimpose the integrated map 60 on the ophthalmologic image 30 has been input (S36). In this embodiment, the user can input an instruction via the operation unit 27 to select whether or not to superimpose the integrated map 60 on the ophthalmologic image 30 . If no superimposed display instruction has been input (S36: NO), the CPU 23 hides the superimposed display of the integrated map 60 on the ophthalmologic image 30 (S37). If the superimposed display instruction has been input (S36: YES), the CPU 23 superimposes and displays the integrated map 60 on the ophthalmologic image 30 of the subject's eye as shown in FIG. 12 (S38). Therefore, the user can easily compare the distribution of multiple types of influence or confidence with the tissue distribution of the subject's eye.

次いで、CPU23は、眼科画像30に重畳表示させる統合マップ60の透過度の変更指示が入力されたか否かを判断する(S39)。本実施形態では、ユーザは、操作部27を操作することで、統合マップ60の透過度を指定することができる。透過度の変更指示が入力されている場合(S39:YES)、CPU23は、眼科画像30上に重畳表示されている統合マップ60の透過度を、指示された透過度に変更する(S40)。従って、ユーザは、複数種類の重み(影響度または確信度)の分布と、被検眼の組織の分布の比較をより適切に実行することができる。処理を終了させる指示が入力されるまで(S42:NO)、S36~S42の処理が繰り返される。終了指示が入力されると(S42:YES)、統合マップ表示処理は終了する。 Next, the CPU 23 determines whether or not an instruction to change the transparency of the integrated map 60 superimposed on the ophthalmologic image 30 has been input (S39). In this embodiment, the user can specify the transparency of the integrated map 60 by operating the operation unit 27 . If an instruction to change the transparency has been input (S39: YES), the CPU 23 changes the transparency of the integrated map 60 superimposed and displayed on the ophthalmologic image 30 to the instructed transparency (S40). Therefore, the user can more appropriately compare the distribution of multiple types of weights (degrees of influence or degrees of confidence) with the distribution of tissues of the subject's eye. The processes of S36 to S42 are repeated until an instruction to end the process is input (S42: NO). When an end instruction is input (S42: YES), the integrated map display process ends.

上記実施形態で開示された技術は一例に過ぎない。従って、上記実施形態で例示された技術を変更することも可能である。例えば、上記実施形態では、複数の疾患の各々に対する自動解析を実行する場合について例示している。しかし、被検眼における複数の構造の各々に対する自動解析を実行する場合にも、前述した処理と同様の処理を実行することが可能である。例えば、被検眼の眼底における動脈と静脈を自動的に解析する場合には、動脈である旨の自動解析結果に関する補足マップと、静脈である旨の自動解析結果に関する補足マップを統合させて、統合マップを生成してもよい。この場合、動脈および静脈の解析の確実性が高い部分と低い部分が、統合マップによって容易に把握される。 The technology disclosed in the above embodiment is merely an example. Therefore, it is also possible to modify the techniques exemplified in the above embodiments. For example, in the above embodiment, the case of executing automatic analysis for each of a plurality of diseases is illustrated. However, even when performing automatic analysis for each of a plurality of structures in the subject's eye, it is possible to perform processing similar to the processing described above. For example, when automatically analyzing the arteries and veins in the fundus of the subject's eye, a supplementary map relating to the automatic analysis results indicating arteries and a supplementary map relating to the automatic analysis results indicating veins are integrated. You can generate a map. In this case, the high-certainty and low-certainty portions of the artery and vein analysis are easily grasped by the integrated map.

また、上記実施形態では、2次元の補足マップおよび統合マップが表示装置28に表示される。しかし、CPU23は、三次元の補足マップを取得して表示装置28に表示させてもよい。また、CPU23は、複数の三次元の補足マップを統合させて、三次元の統合マップを生成し、表示装置28に表示させてもよい。 Also, in the above embodiment, the two-dimensional supplemental map and integrated map are displayed on the display device 28 . However, the CPU 23 may acquire a three-dimensional supplemental map and cause the display device 28 to display it. Further, the CPU 23 may integrate a plurality of three-dimensional supplementary maps to generate a three-dimensional integrated map and display it on the display device 28 .

また、上記実施形態では、特定の疾患および特定の構造の少なくともいずれかに対する解析結果を取得するために、機械学習アルゴリズムによって訓練された数学モデルが利用される。しかし、CPU23は、機械学習アルゴリズムによって訓練された数学モデルを利用せずに、眼科画像に基づいて解析結果を自動的に取得する場合でも、自動解析に付随する補足分布情報を取得することは可能である。この場合でも、CPU23は、上記実施形態と同様に、補足分布情報に基づいて注目領域を設定し、注目領域を含む組織の画像を表示装置28に表示させてもよい。また、CPU23は、機械学習アルゴリズムを利用せずに複数の自動解析結果を取得する際に、複数の自動解析の各々に付随する複数の補足マップを取得し、複数の補足マップを統合させた統合マップを生成してもよい。 Also, in the above embodiments, mathematical models trained by machine learning algorithms are utilized to obtain analytical results for specific diseases and/or specific structures. However, even if the CPU 23 automatically acquires analysis results based on ophthalmologic images without using a mathematical model trained by a machine learning algorithm, it is possible to acquire supplementary distribution information accompanying automatic analysis. is. Also in this case, the CPU 23 may set a region of interest based on the supplemental distribution information and cause the display device 28 to display an image of the tissue including the region of interest, as in the above embodiment. Further, when acquiring a plurality of automatic analysis results without using a machine learning algorithm, the CPU 23 acquires a plurality of supplementary maps accompanying each of the plurality of automatic analyses, and integrates the plurality of supplementary maps. You can generate a map.

なお、図7のS11および図10のS31で眼科画像を取得する処理は、「画像取得ステップ」の一例である。図7のS12および図10のS32で自動解析結果を取得する処理は、「解析結果取得ステップ」の一例である。図7のS13および図10のS33で補足分布情報(補足マップ)を取得する処理は、補足分布情報取得ステップおよび補足マップ取得ステップの一例である。図7のS16で注目領域を設定する処理は、「注目領域設定ステップ」の一例である。図7のS21で確認用画像を表示させる処理は、「表示ステップ」の一例である。図10のS34およびS38で統合マップを生成して表示させる処理は、「統合マップ表示ステップ」の一例である。 It should be noted that the process of acquiring an ophthalmologic image in S11 of FIG. 7 and S31 of FIG. 10 is an example of the "image acquisition step". The process of acquiring the automatic analysis result in S12 of FIG. 7 and S32 of FIG. 10 is an example of the "analysis result acquisition step". The process of acquiring the supplementary distribution information (supplementary map) in S13 of FIG. 7 and S33 of FIG. 10 is an example of the supplementary distribution information acquisition step and the supplementary map acquisition step. The process of setting the attention area in S16 of FIG. 7 is an example of the "attention area setting step". The process of displaying the confirmation image in S21 of FIG. 7 is an example of the "display step". The process of generating and displaying the integrated map in S34 and S38 of FIG. 10 is an example of the "integrated map display step."

1 数学モデル構築装置
11 眼科画像撮影装置
21 眼科画像処理装置
23 CPU
24 記憶装置
28 表示装置
30A,30B 眼科画像
40A,40B 補足マップ
48 注目領域

1 mathematical model building device 11 ophthalmic imaging device 21 ophthalmic image processing device 23 CPU
24 storage device 28 display device 30A, 30B ophthalmic image 40A, 40B supplemental map 48 region of interest

Claims (6)

被検眼の組織の画像である眼科画像を処理する眼科画像処理装置であって、
前記眼科画像処理装置の制御部は、
眼科画像撮影装置によって撮影された眼科画像を取得し、
機械学習アルゴリズムによって訓練された数学モデルに前記眼科画像を入力することで、前記被検眼の構造に対する解析結果を複数取得し、
前記数学モデルに入力された前記眼科画像の画像領域を変数とする、前記数学モデルによる前記解析に関する重みの分布を示すマップであり、前記数学モデルによる構造の前記解析の確信度の分布を示すマップである補足マップを、複数の前記解析結果の各々について取得し、
複数の前記補足マップを同一の領域内で統合させた統合マップを生成し、表示部に表示させることを特徴とする眼科画像処理装置。
An ophthalmic image processing apparatus for processing an ophthalmic image that is an image of tissue of an eye to be examined,
The control unit of the ophthalmologic image processing apparatus includes:
Acquiring an ophthalmic image captured by an ophthalmic imaging device,
Obtaining a plurality of analysis results for the structure of the subject eye by inputting the ophthalmologic image into a mathematical model trained by a machine learning algorithm,
A map showing the distribution of weights relating to the analysis by the mathematical model with the image region of the ophthalmologic image input to the mathematical model as a variable, the map showing the distribution of the confidence of the analysis of the structure by the mathematical model. Obtaining a supplemental map for each of the plurality of analysis results,
An ophthalmologic image processing apparatus that generates an integrated map by integrating a plurality of supplementary maps within the same region and displays the integrated map on a display unit.
請求項1に記載の眼科画像処理装置であって、 The ophthalmic image processing apparatus according to claim 1,
前記制御部は、眼底の断層画像である前記眼科画像を前記数学モデルに入力することで、前記被検眼の眼底における特定の層、または特定の層の境界に対する解析結果を取得することを特徴とする眼科画像処理装置。 The control unit inputs the ophthalmologic image, which is a tomographic image of the fundus, into the mathematical model, thereby obtaining an analysis result of a specific layer or a boundary of a specific layer in the fundus of the subject's eye. ophthalmic image processing device.
請求項1または2に記載の眼科画像処理装置であって、
前記制御部は、前記補足マップ毎に表示態様を変えて、前記複数の補足マップを統合させることで、前記統合マップを生成することを特徴とする眼科画像処理装置。
The ophthalmic image processing apparatus according to claim 1 or 2 ,
The ophthalmologic image processing apparatus, wherein the control unit changes a display mode for each of the supplementary maps and integrates the plurality of supplementary maps to generate the integrated map.
請求項1からのいずれかに記載の眼科画像処理装置であって、
前記制御部は、前記被検眼の眼科画像に前記統合マップを重畳させて表示させることを特徴とする眼科画像処理装置。
The ophthalmologic image processing apparatus according to any one of claims 1 to 3 ,
The ophthalmologic image processing apparatus, wherein the control unit superimposes and displays the integrated map on the ophthalmologic image of the eye to be examined.
請求項に記載の眼科画像処理装置であって、
前記制御部は、ユーザによって入力された指示に応じて、前記被検眼の眼科画像に対する前記統合マップの重畳表示と重畳の非表示の切り替え、および、前記眼科画像に重畳表示させる前記統合マップの透過度の変更の少なくともいずれかを実行することを特徴とする眼科画像処理装置。
The ophthalmic image processing apparatus according to claim 4 ,
The control unit switches between superimposed display and non-superimposed display of the integrated map on the ophthalmologic image of the eye to be inspected, and transmits the integrated map superimposed on the ophthalmologic image in accordance with an instruction input by a user. An ophthalmic image processing apparatus characterized by executing at least one of changing the power.
被検眼の組織の画像である眼科画像を処理する眼科画像処理装置によって実行される眼科画像処理プログラムであって、
前記眼科画像処理プログラムが前記眼科画像処理装置の制御部によって実行されることで、
眼科画像撮影装置によって撮影された眼科画像を取得する画像取得ステップと、
機械学習アルゴリズムによって訓練された数学モデルに前記眼科画像を入力することで、前記被検眼の構造に対する解析結果を複数取得する解析結果取得ステップと、
前記数学モデルに入力された前記眼科画像の画像領域を変数とする、前記数学モデルによる前記解析に関する重みの分布を示すマップであり、前記数学モデルによる構造の前記解析の確信度の分布を示すマップである補足マップを、複数の前記解析結果の各々について取得する補足マップ取得ステップと、
複数の前記補足マップを同一の領域内で統合させた統合マップを生成し、表示部に表示させる統合マップ表示ステップと、
を前記眼科画像処理装置に実行させることを特徴とする眼科画像処理プログラム。
An ophthalmic image processing program executed by an ophthalmic image processing device that processes an ophthalmic image that is an image of tissue of an eye to be examined,
By executing the ophthalmic image processing program by the control unit of the ophthalmic image processing apparatus,
an image acquisition step of acquiring an ophthalmic image captured by an ophthalmic imaging device;
an analysis result obtaining step of obtaining a plurality of analysis results for the structure of the subject eye by inputting the ophthalmologic image into a mathematical model trained by a machine learning algorithm;
A map showing the distribution of weights relating to the analysis by the mathematical model with the image region of the ophthalmologic image input to the mathematical model as a variable, the map showing the distribution of the confidence of the analysis of the structure by the mathematical model. a supplementary map acquisition step of acquiring a supplementary map for each of the plurality of analysis results;
an integrated map display step of generating an integrated map by integrating the plurality of supplementary maps within the same area and displaying the integrated map on a display unit;
is executed by the ophthalmologic image processing apparatus.
JP2019016063A 2019-01-31 2019-01-31 Ophthalmic image processing device and ophthalmic image processing program Active JP7302184B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019016063A JP7302184B2 (en) 2019-01-31 2019-01-31 Ophthalmic image processing device and ophthalmic image processing program
EP20154533.2A EP3690888A1 (en) 2019-01-31 2020-01-30 Ophthalmologic image processing device and ophthalmologic image processing program
US16/778,257 US11633096B2 (en) 2019-01-31 2020-01-31 Ophthalmologic image processing device and non-transitory computer-readable storage medium storing computer-readable instructions
US18/120,175 US20230210359A1 (en) 2019-01-31 2023-03-10 Ophthalmologic image processing device and non-transitory computer-readable storage medium storing computer-readable instructions

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019016063A JP7302184B2 (en) 2019-01-31 2019-01-31 Ophthalmic image processing device and ophthalmic image processing program

Publications (2)

Publication Number Publication Date
JP2020121038A JP2020121038A (en) 2020-08-13
JP7302184B2 true JP7302184B2 (en) 2023-07-04

Family

ID=71991714

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019016063A Active JP7302184B2 (en) 2019-01-31 2019-01-31 Ophthalmic image processing device and ophthalmic image processing program

Country Status (1)

Country Link
JP (1) JP7302184B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018035473A2 (en) 2016-08-18 2018-02-22 Google Llc Processing fundus images using machine learning models
JP2018046958A (en) 2016-09-21 2018-03-29 株式会社トプコン Ophthalmologic photographing apparatus and ophthalmologic image processing apparatus
JP2018121885A (en) 2017-01-31 2018-08-09 株式会社ニデック Image processing device, image processing system, and image processing program
JP2019118814A (en) 2017-12-28 2019-07-22 株式会社トプコン Imaging system with machine learning guide

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018035473A2 (en) 2016-08-18 2018-02-22 Google Llc Processing fundus images using machine learning models
JP2018046958A (en) 2016-09-21 2018-03-29 株式会社トプコン Ophthalmologic photographing apparatus and ophthalmologic image processing apparatus
JP2018121885A (en) 2017-01-31 2018-08-09 株式会社ニデック Image processing device, image processing system, and image processing program
JP2019118814A (en) 2017-12-28 2019-07-22 株式会社トプコン Imaging system with machine learning guide

Also Published As

Publication number Publication date
JP2020121038A (en) 2020-08-13

Similar Documents

Publication Publication Date Title
EP3690888A1 (en) Ophthalmologic image processing device and ophthalmologic image processing program
JP6907563B2 (en) Image processing device and image processing program
JP6878923B2 (en) Image processing equipment, image processing system, and image processing program
JP2024045441A (en) Ophthalmic image processing device and ophthalmic image processing program
JP2024040372A (en) Ophthalmologic image processing program and ophthalmologic image processing device
WO2020026535A1 (en) Ophthalmic image processing device, oct device, and ophthalmic image processing program
JP7196908B2 (en) Ophthalmic image processing device and ophthalmic image processing program
WO2020116351A1 (en) Diagnostic assistance device and diagnostic assistance program
JP2019208851A (en) Fundus image processing device and fundus image processing program
JP6789700B2 (en) Image processing device, operation method of image processing device, and program
JP2019208852A (en) Ophthalmologic image processing apparatus and ophthalmologic image processing program
JP7302184B2 (en) Ophthalmic image processing device and ophthalmic image processing program
WO2022209574A1 (en) Medical image processing device, medical image processing program, and medical image processing method
JP2020058615A (en) Image processing device, learned model, image processing method, and program
WO2021020419A1 (en) Medical image processing device and medical image processing program
JP6866954B2 (en) Ophthalmic image processing program and OCT device
JP6747617B2 (en) Ophthalmic image processing device and OCT device
JP2021074095A (en) Ophthalmologic image processing device and ophthalmologic image processing program
JP7180187B2 (en) Ophthalmic image processing device, OCT device, and ophthalmic image processing program
JP7210927B2 (en) Ophthalmic image processing device, OCT device, and ophthalmic image processing program
JP2020036837A (en) Ophthalmologic image processing apparatus and ophthalmologic imaging apparatus
WO2020241794A1 (en) Ophthalmic image processing device, ophthalmic image processing program, and ophthalmic image processing system
JP2022138552A (en) Ophthalmologic image processing device, ophthalmologic image processing program, and ophthalmologic imaging device
JP2023149095A (en) Ocular fundus image processing device and ocular fundus image processing program
JP2024052024A (en) Fundus image processing device and fundus image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230605

R150 Certificate of patent or registration of utility model

Ref document number: 7302184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150