JP6747617B2 - Ophthalmic image processing device and OCT device - Google Patents

Ophthalmic image processing device and OCT device Download PDF

Info

Publication number
JP6747617B2
JP6747617B2 JP2020080985A JP2020080985A JP6747617B2 JP 6747617 B2 JP6747617 B2 JP 6747617B2 JP 2020080985 A JP2020080985 A JP 2020080985A JP 2020080985 A JP2020080985 A JP 2020080985A JP 6747617 B2 JP6747617 B2 JP 6747617B2
Authority
JP
Japan
Prior art keywords
image
ophthalmic
oct
images
tissue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020080985A
Other languages
Japanese (ja)
Other versions
JP2020127767A (en
Inventor
祐輔 坂下
祐輔 坂下
佳紀 熊谷
佳紀 熊谷
涼介 柴
涼介 柴
直樹 竹野
直樹 竹野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2020080985A priority Critical patent/JP6747617B2/en
Application granted granted Critical
Publication of JP6747617B2 publication Critical patent/JP6747617B2/en
Publication of JP2020127767A publication Critical patent/JP2020127767A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本開示は、被検眼の眼科画像を処理する眼科画像処理装置、OCT装置、眼科画像処理装置において実行される眼科画像処理プログラム、および、眼科画像処理装置によって用いられる数学モデルを構築する数学モデル構築方法に関する。 The present disclosure discloses an ophthalmic image processing device that processes an ophthalmic image of an eye to be inspected, an OCT device, an ophthalmic image processing program executed in the ophthalmic image processing device, and a mathematical model construction that constructs a mathematical model used by the ophthalmic image processing device. Regarding the method.

従来、高画質の画像を取得するための種々の技術が提案されている。例えば、特許文献1に記載の眼科撮影装置は、複数の断層画像を加算平均処理し、スペックルノイズを抑制することで、高画質の断層画像を取得する。 Conventionally, various techniques have been proposed for acquiring a high quality image. For example, the ophthalmologic imaging apparatus described in Patent Document 1 obtains a high-quality tomographic image by performing arithmetic processing on a plurality of tomographic images and suppressing speckle noise.

特開2015−9108号公報JP, 2015-9108, A

複数の画像を加算平均処理する技術では、ノイズの影響を抑制する精度を高めようとする程、同一部位が多数繰り返し撮影される必要がある。よって、加算する画像の枚数に比例して撮影時間が増加するという問題があった。 In the technique of adding and averaging a plurality of images, it is necessary to take a large number of images of the same region repeatedly so as to increase the accuracy of suppressing the influence of noise. Therefore, there is a problem that the shooting time increases in proportion to the number of images to be added.

本開示の典型的な目的は、高画質の眼科画像を適切に取得するための眼科画像処理装置、OCT装置、眼科画像処理プログラム、および、数学モデル構築方法を提供することである。 A typical object of the present disclosure is to provide an ophthalmic image processing device, an OCT device, an ophthalmic image processing program, and a mathematical model building method for appropriately acquiring a high-quality ophthalmic image.

本開示における典型的な実施形態が提供する眼科画像処理装置の第1態様は、被検眼の組織の画像である眼科画像を処理する眼科画像処理装置であって、前記眼科画像は、OCT装置によって同一位置に関して異なる時間に取得された少なくとも2つのOCT信号が演算処理されることで取得されるモーションコントラスト画像であるOCTアンジオ画像であり、前記眼科画像処理装置の制御部は、前記OCT装置によって撮影されたOCTアンジオ画像、または、前記OCT装置によって組織の同一部位を撮影した複数のOCTアンジオ画像を加算平均した加算平均画像を、基画像として取得し、機械学習アルゴリズムによって訓練された数学モデルに前記基画像を入力することで、前記基画像よりも高画質のOCTアンジオ画像である目的画像を取得し、前記目的画像を表示させることが可能なタイミングが到来した際に、前記タイミングに応じて予め設定されている、表示装置に表示させる画像の種類に応じて、前記目的画像および前記基画像の少なくとも一方を前記表示装置に表示させ、前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、L枚(L≧1)の前記訓練用眼科画像に基づくデータを入力用訓練データとし、且つ、H枚(H>L)前記訓練用眼科画像を加算平均した加算平均画像のデータを出力用訓練データとして訓練されている。
本開示における典型的な実施形態が提供する眼科画像処理装置の第2態様は、被検眼の組織の画像である眼科画像を処理する眼科画像処理装置であって、前記眼科画像は、OCT装置によって同一位置に関して異なる時間に取得された少なくとも2つのOCT信号が演算処理されることで取得されるモーションコントラスト画像であるOCTアンジオ画像であり、前記眼科画像処理装置の制御部は、前記OCT装置によって撮影されたOCTアンジオ画像、または、前記OCT装置によって組織の同一部位を撮影した複数のOCTアンジオ画像を加算平均した加算平均画像を、基画像として取得し、機械学習アルゴリズムによって訓練された数学モデルに前記基画像を入力することで、前記基画像よりも高画質のOCTアンジオ画像である目的画像を取得し、前記目的画像の撮影範囲に含まれる組織中の、ユーザによって指定された位置の二次元断層画像を抽出して表示装置に表示させ、前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、L枚(L≧1)の前記訓練用眼科画像に基づくデータを入力用訓練データとし、且つ、H枚(H>L)前記訓練用眼科画像を加算平均した加算平均画像のデータを出力用訓練データとして訓練されている。
A first aspect of an ophthalmic image processing apparatus provided by an exemplary embodiment of the present disclosure is an ophthalmic image processing apparatus that processes an ophthalmic image that is an image of a tissue of an eye to be inspected, and the ophthalmic image is obtained by an OCT apparatus. An OCT angio image that is a motion contrast image obtained by performing an arithmetic process on at least two OCT signals obtained at different times with respect to the same position, and the control unit of the ophthalmic image processing apparatus is imaged by the OCT apparatus. The obtained OCT angio image or an arithmetic mean image obtained by arithmetically averaging a plurality of OCT angio images obtained by photographing the same part of the tissue by the OCT apparatus is acquired as a base image, and the mathematical model trained by a machine learning algorithm is subjected to the mathematical model described above. By inputting the base image, a target image that is an OCT angio image having a higher image quality than the base image is acquired, and when the timing at which the target image can be displayed has arrived , the target image is previously set according to the timing. At least one of the target image and the basic image is displayed on the display device according to the type of image to be displayed on the display device, and the mathematical model is a plurality of training images of the same site of tissue. Among the ophthalmic images for use, L-based (L≧1) data based on the training ophthalmic images are used as input training data, and H (H>L) the training ophthalmic images are arithmetically averaged. Are trained as output training data.
A second aspect of the ophthalmic image processing apparatus provided by the exemplary embodiment of the present disclosure is an ophthalmic image processing apparatus that processes an ophthalmic image that is an image of a tissue of an eye to be inspected, and the ophthalmic image is obtained by an OCT apparatus. An OCT angio image that is a motion contrast image obtained by performing an arithmetic process on at least two OCT signals obtained at different times with respect to the same position, and the control unit of the ophthalmic image processing apparatus is imaged by the OCT apparatus. The obtained OCT angio image or an arithmetic mean image obtained by arithmetically averaging a plurality of OCT angio images obtained by photographing the same part of the tissue by the OCT apparatus is acquired as a base image, and the mathematical model trained by a machine learning algorithm is subjected to the mathematical model described above. By inputting the base image, a target image that is an OCT angio image having a higher image quality than the base image is acquired, and a two-dimensional tomographic image at a position designated by the user in the tissue included in the imaging range of the target image is acquired. An image is extracted and displayed on a display device, and the mathematical model inputs data based on L (L≧1) of the training ophthalmic images of a plurality of training ophthalmic images of the same region of tissue. The training data is used as training data, and the data of the arithmetic mean image obtained by averaging the H (H>L) training ophthalmic images is used as the training data for output.

本開示における典型的な実施形態が提供するOCT装置の第1態様は、参照光と、被検眼の組織に照射された測定光の反射光とによるOCT信号を処理することで、前記組織の眼科画像を撮影するOCT装置であって、前記眼科画像は、同一位置に関して異なる時間に取得された少なくとも2つのOCT信号が演算処理されることで取得されるモーションコントラスト画像であるOCTアンジオ画像であり、前記OCT装置の制御部は、撮影した前記組織のOCTアンジオ画像、または、前記組織の同一部位を撮影した複数のOCTアンジオ画像を加算平均した加算平均画像を、基画像として取得し、機械学習アルゴリズムによって訓練された数学モデルに前記基画像を入力することで、前記基画像よりも高画質のOCTアンジオ画像である目的画像を取得し、前記目的画像を表示させることが可能なタイミングが到来した際に、前記タイミングに応じて予め設定されている、表示装置に表示させる画像の種類に応じて、前記目的画像および前記基画像の少なくとも一方を前記表示装置に表示させ、前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、L枚(L≧1)の前記訓練用眼科画像に基づくデータを入力用訓練データとし、且つ、H枚(H>L)前記訓練用眼科画像を加算平均した加算平均画像のデータを出力用訓練データとして訓練されている。
本開示における典型的な実施形態が提供するOCT装置の第2態様は、参照光と、被検眼の組織に照射された測定光の反射光とによるOCT信号を処理することで、前記組織の眼科画像を撮影するOCT装置であって、前記眼科画像は、同一位置に関して異なる時間に取得された少なくとも2つのOCT信号が演算処理されることで取得されるモーションコントラスト画像であるOCTアンジオ画像であり、前記OCT装置の制御部は、撮影した前記組織のOCTアンジオ画像、または、前記組織の同一部位を撮影した複数のOCTアンジオ画像を加算平均した加算平均画像を、基画像として取得し、機械学習アルゴリズムによって訓練された数学モデルに前記基画像を入力することで、前記基画像よりも高画質のOCTアンジオ画像である目的画像を取得し、前記目的画像の撮影範囲に含まれる組織中の、ユーザによって指定された位置の二次元断層画像を抽出して表示装置に表示させ、前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、L枚(L≧1)の前記訓練用眼科画像に基づくデータを入力用訓練データとし、且つ、H枚(H>L)前記訓練用眼科画像を加算平均した加算平均画像のデータを出力用訓練データとして訓練されている。
The first aspect of the OCT apparatus provided by the exemplary embodiment of the present disclosure is to process the OCT signal by the reference light and the reflected light of the measurement light with which the tissue of the subject's eye is irradiated, thereby treating the tissue ophthalmology. An OCT apparatus for capturing an image, wherein the ophthalmologic image is an OCT angio image which is a motion contrast image obtained by arithmetic processing of at least two OCT signals obtained at different times with respect to the same position, The control unit of the OCT apparatus acquires a captured OCT angio image of the tissue or an arithmetic average image of a plurality of OCT angio images captured of the same site of the tissue as an average, and a machine learning algorithm. By inputting the base image to the mathematical model trained by, the target image which is an OCT angio image having a higher image quality than the base image is acquired, and when it is possible to display the target image In advance, according to the type of image to be displayed on the display device, which is preset according to the timing, at least one of the target image and the basic image is displayed on the display device, and the mathematical model is a tissue. Out of a plurality of training ophthalmic images of the same region, data based on L (L≧1) of the training ophthalmic images is used as input training data, and H (H>L) of the training ophthalmic images. The data of the arithmetic mean image obtained by arithmetic mean of the images is trained as output training data.
A second aspect of the OCT apparatus provided by the exemplary embodiment of the present disclosure is to process the OCT signal by the reference light and the reflected light of the measurement light with which the tissue of the subject's eye is irradiated, thereby treating the tissue ophthalmology. An OCT apparatus for capturing an image, wherein the ophthalmologic image is an OCT angio image which is a motion contrast image obtained by arithmetic processing of at least two OCT signals obtained at different times with respect to the same position, The control unit of the OCT apparatus acquires a captured OCT angio image of the tissue or an arithmetic average image of a plurality of OCT angio images captured of the same part of the tissue as an average, and uses the machine learning algorithm. By inputting the basic image into the mathematical model trained by, a target image that is an OCT angio image having a higher image quality than the basic image is acquired, and the target image is acquired by the user in the tissue included in the imaging range of the target image. The two-dimensional tomographic image at the designated position is extracted and displayed on the display device, and the mathematical model is L (L≧1) of the training images out of a plurality of training ophthalmic images of the same region of the tissue. The data based on the ophthalmic image for training is used as the training data for input, and the data of the arithmetic mean image obtained by arithmetically averaging the H (H>L) training ophthalmic images is used as the training data for output.

本開示に係る眼科画像処理装置、およびOCT装置によると、高画質の眼科画像が適切に取得される。 Ophthalmologic image processing apparatus according to the present disclosure, and according to the OCT equipment, high quality ophthalmic images are appropriately acquired.

本開示で例示する眼科画像処理装置の制御部は、眼科画像撮影装置によって撮影された眼科画像、または、眼科画像撮影装置によって組織の同一部位を撮影した複数の眼科画像を加算平均した加算平均画像を、基画像として取得する。制御部は、機械学習アルゴリズムによって訓練された数学モデルに基画像を入力することで、基画像よりも高品質の目的画像を取得する。数学モデルは、入力用訓練データと出力用訓練データのセットである訓練データセットによって訓練されている。組織の同一部位を撮影した複数の訓練用眼科画像のうち、L枚(L≧1)の訓練用眼科画像に基づくデータが、入力用訓練データとされる。また、複数の訓練用眼科画像のうち、H枚(H>L)の訓練用眼科画像を加算平均した加算平均画像のデータが、出力用訓練データ(正解データと言われる場合もある)とされる。換言すると、Hは、入力用訓練データに使用される訓練用眼科画像の枚数よりも大きい数である。 The control unit of the ophthalmic image processing device illustrated in the present disclosure is an ophthalmic image captured by the ophthalmic image capturing device, or an arithmetic mean image obtained by arithmetic mean of a plurality of ophthalmic images obtained by capturing the same region of the tissue by the ophthalmic image capturing device. Is acquired as a base image. The control unit inputs the base image to the mathematical model trained by the machine learning algorithm to acquire a target image of higher quality than the base image. The mathematical model is trained by a training data set, which is a set of input training data and output training data. Data based on L (L≧1) training ophthalmic images among a plurality of training ophthalmic images obtained by photographing the same part of the tissue is used as input training data. In addition, data of an arithmetic mean image obtained by arithmetic mean of H (H>L) training ophthalmic images among a plurality of training ophthalmic images is regarded as output training data (sometimes referred to as correct answer data). It In other words, H is a number larger than the number of training ophthalmic images used for the input training data.

つまり、数学モデルを構築する数学モデル構築装置は、画像セット取得ステップと訓練ステップを実行する。画像セット取得ステップでは、被検眼の組織の同一部位を撮影した複数の訓練用眼科画像が取得される。訓練ステップでは、複数の訓練用眼科画像のうち、L枚(L≧1)の訓練用眼科画像に基づくデータが入力用訓練データとされ、且つ、H枚(H>L)の訓練用眼科画像の加算平均画像のデータが出力用訓練データとされて数学モデルが訓練されることで、数学モデルが構築される。 That is, the mathematical model building device that builds a mathematical model executes the image set acquisition step and the training step. In the image set acquisition step, a plurality of training ophthalmologic images of the same region of the tissue of the eye to be examined are acquired. In the training step, among a plurality of training ophthalmic images, data based on L (L≧1) training ophthalmic images is used as input training data, and H (H>L) training ophthalmic images are used. The mathematical model is constructed by training the mathematical model by using the data of the arithmetic mean image of the above as the training data for output.

この場合、構築された数学モデルは、少ない枚数の眼科画像、または、少ない枚数の眼科画像の加算平均画像が基画像として入力された場合でも、多数の眼科画像を加算平均した画像と同程度にノイズの影響が抑制された目的画像を出力することができる。従って、基画像を撮影する際の撮影時間を短縮することが容易である。また、従来の画像処理でも、加算平均処理を行わずにノイズの影響を抑制することは可能ではあった。しかし、従来の画像処理では、微弱な信号とノイズを区別することができずに、本来ならば必要である微弱な信号が消去されてしまう場合があった。これに対し、本開示で例示する数学モデルは、ノイズ以外の影響で画像の信号が微弱となった部分が消去されていない目的画像を、基画像に基づいて出力することができる。よって、高品質の眼科画像が適切に取得される。 In this case, the constructed mathematical model is similar to the image obtained by adding and averaging a large number of ophthalmic images, even when a small number of ophthalmic images or an adding and averaging image of a small number of ophthalmic images is input as the base image. A target image in which the influence of noise is suppressed can be output. Therefore, it is easy to shorten the photographing time when photographing the basic image. Further, even in the conventional image processing, it was possible to suppress the influence of noise without performing the averaging processing. However, in the conventional image processing, a weak signal and noise cannot be distinguished, and a weak signal that is originally necessary may be erased. On the other hand, the mathematical model illustrated in the present disclosure can output a target image in which a portion in which an image signal is weak due to an influence other than noise is not erased, based on a base image. Therefore, a high quality ophthalmic image is appropriately acquired.

なお、訓練データセットの入力用訓練データとして用いるデータ(つまり、「L枚の訓練用眼科画像に基づくデータ」)は、撮影された眼科画像そのもの(つまり、加算平均されていない原画像)のデータあってもよいし、複数の眼科画像を加算平均した加算平均画像のデータであってもよい。原画像のデータと加算平均画像のデータが共に入力用訓練データとして用いられてもよい。入力用訓練データが原画像のデータである場合には、数学モデルに入力される基画像も、加算平均されていない原画像であることが望ましい。また、入力用訓練データが加算平均画像のデータである場合には、基画像も加算平均画像であることが望ましい。また、入力用訓練データに使用される画像(原画像および加算平均画像の少なくともいずれか)の数は、1枚であってもよいし、複数枚(例えば、2枚〜5枚程度)であってもよい。また、出力用訓練データとして用いる加算平均画像を生成する際に使用する訓練用眼科画像の枚数Hは、少なくとも、入力用訓練データに使用される訓練用眼科画像の枚数よりも多い。例えば、入力用訓練データとしてL枚の原画像が使用される場合には、H>Lとなる。また、入力用訓練データとして、L´枚の画像を加算平均した画像が使用される場合には、H>L´となる。なお、基画像に使用する眼科画像の枚数は、H枚よりも少ない枚数となる。 The data used as the training data for input of the training data set (that is, “data based on L training ophthalmic images”) is the data of the captured ophthalmic image itself (that is, the original image that is not averaged). It may be present, or may be data of an arithmetic mean image obtained by arithmetic mean of a plurality of ophthalmic images. Both the original image data and the arithmetic mean image data may be used as the input training data. When the input training data is the original image data, the base image input to the mathematical model is also preferably the original image that is not averaged. Further, when the input training data is data of an arithmetic mean image, it is desirable that the base image is also an arithmetic mean image. Further, the number of images (at least one of the original image and the arithmetic mean image) used for the input training data may be one, or a plurality (for example, about 2 to 5). May be. Further, the number H of training ophthalmic images used when generating the arithmetic mean image used as the output training data is at least larger than the number of training ophthalmic images used for the input training data. For example, when L original images are used as the input training data, H>L. When an image obtained by averaging L′ images is used as the input training data, H>L′. The number of ophthalmic images used for the base image is smaller than the number of H images.

眼科画像は、OCT装置によって撮影された被検眼の組織の二次元断層画像であってもよい。眼科画像処理装置の制御部は、被検眼の組織のうち、互いに異なる複数の位置の各々を撮影した複数の基画像を取得してもよい。制御部は、複数の基画像の各々を数学モデルに入力することで、複数の位置の各々の目的画像を取得してもよい。制御部は、複数の目的画像に基づいて、組織の三次元断層画像、および、組織を正面(つまり、被検眼の視線方向)から見た場合の二次元正面画像の少なくともいずれかを生成してもよい。つまり、眼科画像撮影装置は、複数の目的画像に基づいて組織の三次元断層画像を生成する三次元断層画像生成ステップ、および、複数の目的画像に基づいて組織の二次元正面画像を生成する正面画像生成ステップの少なくともいずれかを実行してもよい。この場合、多数の二次元断層画像が撮影されることなく、ノイズの影響が抑制された組織の三次元断層画像または二次元正面画像が適切に生成される。 The ophthalmic image may be a two-dimensional tomographic image of the tissue of the eye to be inspected, which is captured by the OCT apparatus. The control unit of the ophthalmic image processing apparatus may acquire a plurality of basic images obtained by photographing a plurality of mutually different positions in the tissue of the eye to be inspected. The control unit may acquire each target image at each of the plurality of positions by inputting each of the plurality of base images into the mathematical model. The control unit generates, based on the plurality of target images, at least one of a three-dimensional tomographic image of the tissue and a two-dimensional front image when the tissue is viewed from the front (that is, the line-of-sight direction of the eye to be inspected). Good. That is, the ophthalmologic image capturing apparatus includes a three-dimensional tomographic image generating step of generating a three-dimensional tomographic image of the tissue based on the plurality of target images, and a front surface generating a two-dimensional front image of the tissue based on the plurality of target images. At least one of the image generation steps may be executed. In this case, the three-dimensional tomographic image or the two-dimensional front image of the tissue in which the influence of noise is suppressed is appropriately generated without capturing a large number of two-dimensional tomographic images.

二次元正面画像は、所謂「Enface画像」であってもよい。Enface画像のデータは、例えば、XY方向の各位置で深さ方向(Z方向)に輝度値が積算された積算画像データ、XY方向の各位置でのスペクトルデータの積算値、ある一定の深さ方向におけるXY方向の各位置での輝度データ、網膜のいずれかの層(例えば、網膜表層)におけるXY方向の各位置での輝度データ等であってもよい。 The two-dimensional front image may be a so-called “Enface image”. The data of the Enface image is, for example, integrated image data in which luminance values are integrated in the depth direction (Z direction) at each position in the XY direction, integrated value of spectrum data at each position in the XY direction, and a certain depth. Data may be brightness data at each position in the XY directions in the directions, brightness data at each position in the XY directions in any layer of the retina (for example, the retina surface layer), and the like.

眼科画像は、OCT装置によって撮影された被検眼の眼底の二次元断層画像であってもよい。眼科画像処理装置の制御部は、二次元断層画像である目的画像に対して解析処理を行うことで、眼底に含まれる複数の層の少なくともいずれかを識別してもよい。つまり、眼科画像処理装置は、取得した目的画像から眼底の層を識別するセグメンテーションステップを実行してもよい。この場合、多数の二次元断層画像が撮影されることなく、ノイズの影響が抑制されたセグメンテーション結果が適切に取得される。 The ophthalmic image may be a two-dimensional tomographic image of the fundus of the eye to be inspected, which is captured by the OCT apparatus. The control unit of the ophthalmologic image processing device may identify at least one of the plurality of layers included in the fundus by performing an analysis process on the target image that is a two-dimensional tomographic image. That is, the ophthalmologic image processing device may perform a segmentation step of identifying the layer of the fundus from the acquired target image. In this case, a segmentation result in which the influence of noise is suppressed is appropriately acquired without capturing a large number of two-dimensional tomographic images.

なお、眼科画像として、二次元断層画像以外の画像を用いることも可能である。例えば、眼科画像は、二次元断層画像でなく、組織(例えば眼底)を正面(つまり、被検眼の視線方向)から撮影した二次元正面画像であってもよい。この場合、二次元正面画像は、OCTアンジオ画像であってもよい。OCTアンジオ画像は、例えば、同一位置に関して異なる時間に取得された少なくとも2つのOCT信号が処理されることで取得されるモーションコントラスト画像であってもよい。また、レーザ走査型検眼装置(SLO)によって、被検眼の眼底の自発蛍光(FAF)を撮影した画像(以下、「FAF画像」という)が、眼科画像として用いられてもよい。OCTアンジオ画像およびFAF画像も、OCT二次元断層画像と同様に、複数の画像の加算平均処理を行うことによってノイズの影響が適切に抑制される。また、眼科画像の撮影部位は、例えば、被検眼の眼底であってもよいし、前眼部であってもよい。以上のように、本開示における眼科画像には、複数の画像の加算平均処理によってノイズの影響を抑制可能な種々の画像を用いることができる。 An image other than the two-dimensional tomographic image can be used as the ophthalmic image. For example, the ophthalmologic image may not be a two-dimensional tomographic image, but may be a two-dimensional front image of a tissue (for example, the fundus) taken from the front (that is, the line-of-sight direction of the eye to be examined). In this case, the two-dimensional front image may be an OCT angio image. The OCT angio image may be, for example, a motion contrast image acquired by processing at least two OCT signals acquired at different times with respect to the same position. Further, an image (hereinafter, referred to as “FAF image”) obtained by photographing the autofluorescence (FAF) of the fundus of the eye to be inspected by the laser scanning optometry apparatus (SLO) may be used as the ophthalmologic image. Similarly to the OCT two-dimensional tomographic image, the OCT angio image and the FAF image are also subjected to arithmetic averaging of a plurality of images, so that the influence of noise is appropriately suppressed. Moreover, the imaging part of the ophthalmic image may be, for example, the fundus of the eye to be inspected or the anterior segment. As described above, various images that can suppress the influence of noise by adding and averaging a plurality of images can be used as the ophthalmic image in the present disclosure.

また、眼科画像処理装置の制御部は、層を識別するセグメンテーション処理とは異なる解析処理を目的画像に対して実行してもよい。例えば、制御部は、血管が写っている眼底の正面画像(例えば、前述したOCTアンジオ画像等)を目的画像として取得し、取得した目的画像に対して、眼底の血管密度を解析する処理を実行してもよい。また、制御部は、複数の目的画像に基づいて生成した画像(例えば、前述した三次元断層画像またはEnface画像等)に対して解析処理を行ってもよい。 Further, the control unit of the ophthalmologic image processing device may execute an analysis process different from the segmentation process for identifying layers on the target image. For example, the control unit acquires, as a target image, a front image of the fundus showing the blood vessel (for example, the above-described OCT angio image), and performs a process of analyzing the blood vessel density of the fundus on the acquired target image. You may. Further, the control unit may perform an analysis process on an image generated based on a plurality of target images (for example, the above-described three-dimensional tomographic image or Enface image).

眼科画像処理装置の制御部は、同時表示処理および切替表示処理の少なくとも一方を実行してもよい。同時表示処理では、制御部は、基画像と目的画像を表示装置に同時に表示させる。切替表示処理では、制御部は、ユーザによって入力された指示に応じて、基画像と目的画像を切り替えて表示装置に表示させる。この場合、ユーザは、ノイズの影響が抑制された目的画像と、目的画像の基となった基画像(原画像、または、原画像の加算平均画像)の両方を容易に確認することができる。よって、ユーザは、診断等をより適切に行うことができる。なお、基画像と目的画像は、同一の表示装置に表示されてもよいし、別々の表示装置に表示されてもよい。 The control unit of the ophthalmic image processing device may execute at least one of the simultaneous display process and the switching display process. In the simultaneous display process, the control unit causes the display device to simultaneously display the base image and the target image. In the switching display process, the control unit switches between the base image and the target image and displays them on the display device according to an instruction input by the user. In this case, the user can easily confirm both the target image in which the influence of noise is suppressed and the base image (original image or the arithmetic mean image of the original images) that is the basis of the target image. Therefore, the user can perform the diagnosis and the like more appropriately. The base image and the target image may be displayed on the same display device or may be displayed on different display devices.

制御部は、眼科画像撮影装置によって連続して撮影される複数の基画像を取得してもよい。制御部は、取得した複数の基画像を数学モデルに順次入力することで、複数の目的画像を取得してもよい。制御部は、取得した複数の目的画像に基づいて、前記組織の動画データを生成してもよい。つまり、眼科画像処理装置は、複数の目的画像に基づいて組織の動画データを生成する動画生成ステップを実行してもよい。この場合、ユーザは、ノイズの影響が抑制された状態で表示される組織の動画を確認することができる。つまり、従来の技術でも、複数の眼科画像を加算平均することでノイズの影響を抑制することは可能である。しかし、従来の技術では、複数の眼科画像から1つの加算平均画像が作成されるので、加算平均画像を用いて組織の動画を表示させる場合には、フレームレートが著しく低下し易い。特に、撮影位置が時間の経過に伴って変化する場合等には、加算平均画像を用いて良好な動画を生成することは困難である。これに対し、本開示の眼科画像処理装置は、フレームレートが低下することを抑制しつつ、ノイズの影響が抑制された組織の動画を生成することが可能である。よって、ユーザは、診断等をより適切に行うことができる。 The control unit may acquire a plurality of basic images continuously captured by the ophthalmologic image capturing device. The control unit may acquire a plurality of target images by sequentially inputting the acquired plurality of base images into a mathematical model. The control unit may generate moving image data of the tissue based on the acquired plurality of target images. That is, the ophthalmologic image processing device may execute a moving image generating step of generating moving image data of the tissue based on the plurality of target images. In this case, the user can check the moving image of the tissue displayed with the influence of noise suppressed. That is, even with the conventional technique, it is possible to suppress the influence of noise by averaging a plurality of ophthalmic images. However, according to the conventional technique, one arithmetic mean image is created from a plurality of ophthalmologic images, so that when displaying a moving image of a tissue using the arithmetic mean image, the frame rate is likely to be remarkably reduced. In particular, when the shooting position changes over time, it is difficult to generate a good moving image using the arithmetic mean image. On the other hand, the ophthalmic image processing device of the present disclosure can generate a moving image of a tissue in which the influence of noise is suppressed while suppressing a decrease in the frame rate. Therefore, the user can perform the diagnosis and the like more appropriately.

なお、制御部は、基画像の動画と目的画像の動画を表示装置に同時に表示させてもよい。また、制御部は、ユーザによって入力された指示に応じて、基画像の動画と目的画像の動画を切り替えて表示装置に表示させてもよい。この場合、ユーザは、目的画像の動画と基画像の動画の両方を容易に確認することができる。 The control unit may cause the display device to simultaneously display the moving image of the base image and the moving image of the target image. Further, the control unit may switch the moving image of the base image and the moving image of the target image to display them on the display device according to an instruction input by the user. In this case, the user can easily confirm both the moving image of the target image and the moving image of the base image.

数学モデル構築装置1、眼科画像処理装置21、および眼科画像撮影装置11A,11Bの概略構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of a mathematical model building device 1, an ophthalmic image processing device 21, and ophthalmic image photographing devices 11A and 11B. 数学モデル構築装置1が実行する数学モデル構築処理のフローチャートである。7 is a flowchart of a mathematical model building process executed by the mathematical model building device 1. 入力用訓練データと出力用訓練データの第1取得パターンを説明するための説明図である。It is an explanatory view for explaining the 1st acquisition pattern of input training data and output training data. 入力用訓練データと出力用訓練データの第2取得パターンを説明するための説明図である。It is an explanatory view for explaining the 2nd acquisition pattern of training data for input and training data for output. 入力用訓練データと出力用訓練データの第3取得パターンを説明するための説明図である。It is an explanatory view for explaining the 3rd acquisition pattern of training data for input and training data for output. 入力用訓練データと出力用訓練データの第4取得パターンを説明するための説明図である。It is an explanatory view for explaining the 4th acquisition pattern of training data for input and training data for output. 眼科画像処理装置21が実行する高画質動画生成処理のフローチャートである。7 is a flowchart of a high-quality moving image generation process executed by the ophthalmologic image processing device 21. 眼科画像処理装置21が実行する高画質三次元画像生成処理のフローチャートである。9 is a flowchart of a high-quality three-dimensional image generation process executed by the ophthalmologic image processing device 21. 高画質三次元画像40の一例を示す図である。It is a figure which shows an example of the high quality three-dimensional image 40.

(装置構成)
以下、本開示における典型的な実施形態の1つについて、図面を参照して説明する。図1に示すように、本実施形態では、数学モデル構築装置1、眼科画像処理装置21、および眼科画像撮影装置11A,11Bが用いられる。数学モデル構築装置1は、機械学習アルゴリズムによって数学モデルを訓練させることで、数学モデルを構築する。構築された数学モデルは、入力された基画像に基づいて、基画像よりも高画質の(本実施形態では、ノイズの影響が適切に抑制された)目的画像を出力する。眼科画像処理装置21は、数学モデルを用いて、基画像から目的画像を取得する。眼科画像撮影装置11A,11Bは、被検眼の組織の画像である眼科画像を撮影する。
(Device configuration)
Hereinafter, one of typical embodiments in the present disclosure will be described with reference to the drawings. As shown in FIG. 1, in the present embodiment, a mathematical model building device 1, an ophthalmic image processing device 21, and ophthalmic image photographing devices 11A and 11B are used. The mathematical model building device 1 builds a mathematical model by training a mathematical model with a machine learning algorithm. The constructed mathematical model outputs a target image of higher image quality (in the present embodiment, the influence of noise is appropriately suppressed) higher than that of the base image, based on the input base image. The ophthalmologic image processing device 21 acquires a target image from the base image using a mathematical model. The ophthalmic image capturing apparatuses 11A and 11B capture an ophthalmic image that is an image of the tissue of the subject's eye.

一例として、本実施形態の数学モデル構築装置1にはパーソナルコンピュータ(以下、「PC」という)が用いられる。詳細は後述するが、数学モデル構築装置1は、眼科画像撮影装置11Aから取得した眼科画像を利用して数学モデルを訓練させることで、数学モデルを構築する。しかし、数学モデル構築装置1として機能できるデバイスは、PCに限定されない。例えば、眼科画像撮影装置11Aが数学モデル構築装置1として機能してもよい。また、複数のデバイスの制御部(例えば、PCのCPUと、眼科画像撮影装置11AのCPU13A)が、協働して数学モデルを構築してもよい。 As an example, a personal computer (hereinafter referred to as “PC”) is used for the mathematical model building device 1 of this embodiment. As will be described later in detail, the mathematical model construction device 1 constructs a mathematical model by training the mathematical model using the ophthalmic image acquired from the ophthalmic image capturing device 11A. However, the device that can function as the mathematical model building device 1 is not limited to the PC. For example, the ophthalmic image capturing apparatus 11A may function as the mathematical model building apparatus 1. In addition, the control units of a plurality of devices (for example, the CPU of the PC and the CPU 13A of the ophthalmic image capturing apparatus 11A) may cooperate to build a mathematical model.

また、本実施形態の眼科画像処理装置21にはPCが用いられる。しかし、眼科画像処理装置21として機能できるデバイスも、PCに限定されない。例えば、眼科画像撮影装置11Bまたはサーバ等が、眼科画像処理装置21として機能してもよい。眼科画像撮影装置(本実施形態ではOCT装置)11Bが眼科画像処理装置21として機能する場合、眼科画像撮影装置11Bは、眼科画像を撮影しつつ、撮影した眼科画像よりも高画質の眼科画像を適切に取得することができる。また、タブレット端末またはスマートフォン等の携帯端末が、眼科画像処理装置21として機能してもよい。複数のデバイスの制御部(例えば、PCのCPUと、眼科画像撮影装置11BのCPU13B)が、協働して各種処理を行ってもよい。 A PC is used as the ophthalmologic image processing device 21 of this embodiment. However, the device that can function as the ophthalmic image processing device 21 is not limited to the PC. For example, the ophthalmic image photographing device 11B or the server may function as the ophthalmic image processing device 21. When the ophthalmic image capturing device (OCT device in this embodiment) 11B functions as the ophthalmic image processing device 21, the ophthalmic image capturing device 11B captures an ophthalmic image and produces an ophthalmic image having a higher image quality than the captured ophthalmic image. You can get it properly. Further, a mobile terminal such as a tablet terminal or a smartphone may function as the ophthalmologic image processing device 21. The control units of the plurality of devices (for example, the CPU of the PC and the CPU 13B of the ophthalmic image capturing apparatus 11B) may cooperate to perform various processes.

また、本実施形態では、各種処理を行うコントローラの一例としてCPUが用いられる場合について例示する。しかし、各種デバイスの少なくとも一部に、CPU以外のコントローラが用いられてもよいことは言うまでもない。例えば、コントローラとしてGPUを採用することで、処理の高速化を図ってもよい。 Further, in the present embodiment, a case where a CPU is used as an example of a controller that performs various processes will be described. However, it goes without saying that a controller other than the CPU may be used for at least a part of various devices. For example, a GPU may be used as the controller to speed up the process.

数学モデル構築装置1について説明する。数学モデル構築装置1は、例えば、眼科画像処理装置21または眼科画像処理プログラムをユーザに提供するメーカー等に配置される。数学モデル構築装置1は、各種制御処理を行う制御ユニット2と、通信I/F5を備える。制御ユニット2は、制御を司るコントローラであるCPU3と、プログラムおよびデータ等を記憶することが可能な記憶装置4を備える。記憶装置4には、後述する数学モデル構築処理(図2参照)を実行するための数学モデル構築プログラムが記憶されている。また、通信I/F5は、数学モデル構築装置1を他のデバイス(例えば、眼科画像撮影装置11Aおよび眼科画像処理装置21等)と接続する。 The mathematical model building device 1 will be described. The mathematical model building device 1 is arranged, for example, in the ophthalmic image processing device 21 or a manufacturer or the like that provides the ophthalmic image processing program to the user. The mathematical model building device 1 includes a control unit 2 that performs various control processes and a communication I/F 5. The control unit 2 includes a CPU 3 that is a controller that controls the control, and a storage device 4 that can store programs and data. The storage device 4 stores a mathematical model building program for executing a mathematical model building process (see FIG. 2) described later. Further, the communication I/F 5 connects the mathematical model building device 1 to other devices (for example, the ophthalmic image photographing device 11A and the ophthalmic image processing device 21).

数学モデル構築装置1は、操作部7および表示装置8に接続されている。操作部7は、ユーザが各種指示を数学モデル構築装置1に入力するために、ユーザによって操作される。操作部7には、例えば、キーボード、マウス、タッチパネル等の少なくともいずれかを使用できる。なお、操作部7と共に、または操作部7に代えて、各種指示を入力するためのマイク等が使用されてもよい。表示装置8は、各種画像を表示する。表示装置8には、画像を表示可能な種々のデバイス(例えば、モニタ、ディスプレイ、プロジェクタ等の少なくともいずれか)を使用できる。なお、本開示における「画像」には、静止画像も動画像も共に含まれる。 The mathematical model building device 1 is connected to the operation unit 7 and the display device 8. The operation unit 7 is operated by the user so that the user inputs various instructions to the mathematical model building apparatus 1. As the operation unit 7, for example, at least one of a keyboard, a mouse, a touch panel, etc. can be used. A microphone or the like for inputting various instructions may be used together with the operation unit 7 or in place of the operation unit 7. The display device 8 displays various images. As the display device 8, various devices capable of displaying an image (for example, at least one of a monitor, a display, a projector, etc.) can be used. It should be noted that the “image” in the present disclosure includes both a still image and a moving image.

数学モデル構築装置1は、眼科画像撮影装置11Aから眼科画像のデータ(以下、単に「眼科画像」という場合もある)を取得することができる。数学モデル構築装置1は、例えば、有線通信、無線通信、着脱可能な記憶媒体(例えばUSBメモリ)等の少なくともいずれかによって、眼科画像撮影装置11Aから眼科画像のデータを取得してもよい。 The mathematical model building apparatus 1 can acquire ophthalmic image data (hereinafter, also simply referred to as “ophthalmic image”) from the ophthalmic image capturing apparatus 11A. The mathematical model building apparatus 1 may acquire the ophthalmic image data from the ophthalmic image photographing apparatus 11A by, for example, at least one of wired communication, wireless communication, and a removable storage medium (for example, a USB memory).

眼科画像処理装置21について説明する。眼科画像処理装置21は、例えば、被検者の診断または検査等を行う施設(例えば、病院または健康診断施設等)に配置される。眼科画像処理装置21は、各種制御処理を行う制御ユニット22と、通信I/F25を備える。制御ユニット22は、制御を司るコントローラであるCPU23と、プログラムおよびデータ等を記憶することが可能な記憶装置24を備える。記憶装置24には、後述する眼科画像処理(例えば、図7に例示する高画質動画生成処理、および、図8に示す高画質三次元画像生成処理等)を実行するための眼科画像処理プログラムが記憶されている。眼科画像処理プログラムには、数学モデル構築装置1によって構築された数学モデルを実現させるプログラムが含まれる。通信I/F25は、眼科画像処理装置21を他のデバイス(例えば、眼科画像撮影装置11Bおよび数学モデル構築装置1等)と接続する。 The ophthalmic image processing device 21 will be described. The ophthalmologic image processing device 21 is arranged, for example, in a facility (for example, a hospital or a health examination facility) that diagnoses or inspects a subject. The ophthalmic image processing device 21 includes a control unit 22 that performs various control processes and a communication I/F 25. The control unit 22 includes a CPU 23 that is a controller that controls the control, and a storage device 24 that can store programs and data. The storage device 24 has an ophthalmic image processing program for executing ophthalmic image processing (for example, high-quality moving image generation processing illustrated in FIG. 7 and high-quality three-dimensional image generation processing illustrated in FIG. 8) described below. Remembered The ophthalmologic image processing program includes a program that realizes the mathematical model constructed by the mathematical model constructing apparatus 1. The communication I/F 25 connects the ophthalmic image processing device 21 to another device (for example, the ophthalmic image photographing device 11B and the mathematical model building device 1).

眼科画像処理装置21は、操作部27および表示装置28に接続されている。操作部27および表示装置28には、前述した操作部7および表示装置8と同様に、種々のデバイスを使用することができる。 The ophthalmologic image processing device 21 is connected to the operation unit 27 and the display device 28. As the operation unit 27 and the display device 28, various devices can be used as in the operation unit 7 and the display device 8 described above.

眼科画像処理装置21は、眼科画像撮影装置11Bから眼科画像を取得することができる。眼科画像処理装置21は、例えば、有線通信、無線通信、着脱可能な記憶媒体(例えばUSBメモリ)等の少なくともいずれかによって、眼科画像撮影装置11Bから眼科画像を取得してもよい。また、眼科画像処理装置21は、数学モデル構築装置1によって構築された数学モデルを実現させるプログラム等を、通信等を介して取得してもよい。 The ophthalmic image processing device 21 can acquire an ophthalmic image from the ophthalmic image capturing device 11B. The ophthalmic image processing apparatus 21 may acquire the ophthalmic image from the ophthalmic image capturing apparatus 11B by, for example, at least one of wired communication, wireless communication, and a removable storage medium (for example, USB memory). Further, the ophthalmologic image processing device 21 may acquire a program or the like for realizing the mathematical model constructed by the mathematical model constructing device 1 via communication or the like.

眼科画像撮影装置11A,11Bについて説明する。一例として、本実施形態では、数学モデル構築装置1に眼科画像を提供する眼科画像撮影装置11Aと、眼科画像処理装置21に眼科画像を提供する眼科画像撮影装置11Bが使用される場合について説明する。しかし、使用される眼科画像撮影装置の数は2つに限定されない。例えば、数学モデル構築装置1および眼科画像処理装置21は、複数の眼科画像撮影装置から眼科画像を取得してもよい。また、数学モデル構築装置1および眼科画像処理装置21は、共通する1つの眼科画像撮影装置から眼科画像を取得してもよい。なお、本実施形態で例示する2つの眼科画像撮影装置11A,11Bは、同一の構成を備える。従って、以下では、2つの眼科画像撮影装置11A,11Bについて纏めて説明を行う。 The ophthalmic image capturing apparatuses 11A and 11B will be described. As an example, in the present embodiment, a case will be described in which an ophthalmic image capturing device 11A that provides an ophthalmic image to the mathematical model building device 1 and an ophthalmic image capturing device 11B that provides an ophthalmic image to the ophthalmic image processing device 21 are used. .. However, the number of ophthalmic image capturing devices used is not limited to two. For example, the mathematical model building device 1 and the ophthalmic image processing device 21 may acquire ophthalmic images from a plurality of ophthalmic image capturing devices. Further, the mathematical model building device 1 and the ophthalmic image processing device 21 may acquire the ophthalmic image from one common ophthalmic image photographing device. The two ophthalmic image capturing apparatuses 11A and 11B illustrated in the present embodiment have the same configuration. Therefore, in the following, the two ophthalmic image capturing apparatuses 11A and 11B will be collectively described.

また、本実施形態では、眼科画像撮影装置11(11A,11B)として、OCT装置を例示する。ただし、OCT装置以外の眼科画像撮影装置(例えば、レーザ走査型検眼装置(SLO)、眼底カメラ、または角膜内皮細胞撮影装置(CEM)等)が用いられてもよい。 Further, in the present embodiment, an OCT apparatus is exemplified as the ophthalmic image capturing apparatus 11 (11A, 11B). However, an ophthalmic image capturing device other than the OCT device (for example, a laser scanning optometry device (SLO), a fundus camera, a corneal endothelial cell imaging device (CEM), or the like) may be used.

眼科画像撮影装置11(11A,11B)は、各種制御処理を行う制御ユニット12(12A,12B)と、眼科画像撮影部16(16A,16B)を備える。制御ユニット12は、制御を司るコントローラであるCPU13(13A,13B)と、プログラムおよびデータ等を記憶することが可能な記憶装置14(14A,14B)を備える。 The ophthalmic image capturing device 11 (11A, 11B) includes a control unit 12 (12A, 12B) that performs various control processes, and an ophthalmic image capturing unit 16 (16A, 16B). The control unit 12 includes a CPU 13 (13A, 13B), which is a controller that controls the control, and a storage device 14 (14A, 14B) capable of storing programs, data, and the like.

眼科画像撮影部16は、被検眼の眼科画像を撮影するために必要な各種構成を備える。本実施形態の眼科画像撮影部16には、OCT光源、OCT光源から出射されたOCT光を測定光と参照光に分岐する分岐光学素子、測定光を走査するための走査部、測定光を被検眼に照射するための光学系、被検眼の組織によって反射された光と参照光の合成光を受光する受光素子等が含まれる。 The ophthalmologic image capturing unit 16 has various configurations necessary for capturing an ophthalmic image of the subject's eye. The ophthalmic image capturing unit 16 of the present embodiment includes an OCT light source, a branching optical element that branches the OCT light emitted from the OCT light source into measurement light and reference light, a scanning unit that scans the measurement light, and a measurement light. An optical system for irradiating the eye to be examined, a light receiving element for receiving the combined light of the light reflected by the tissue of the eye to be examined and the reference light, and the like are included.

眼科画像撮影装置11は、被検眼の眼底の二次元断層画像および三次元断層画像を撮影することができる。詳細には、CPU13は、スキャンライン上にOCT光(測定光)を走査させることで、スキャンラインに交差する断面の二次元断層画像を撮影する。また、CPU13は、OCT光を二次元的に走査することによって、組織における三次元断層画像を撮影することができる。例えば、CPU13は、組織を正面から見た際の二次元の領域内において、位置が互いに異なる複数のスキャンライン上の各々に測定光を走査させることで、複数の二次元断層画像を取得する。次いで、CPU13は、撮影された複数の二次元断層画像を組み合わせることで、三次元断層画像を取得する。 The ophthalmologic image capturing apparatus 11 can capture a two-dimensional tomographic image and a three-dimensional tomographic image of the fundus of the eye to be inspected. Specifically, the CPU 13 scans the scan line with OCT light (measurement light) to capture a two-dimensional tomographic image of a cross section intersecting the scan line. Further, the CPU 13 can take a three-dimensional tomographic image of the tissue by two-dimensionally scanning the OCT light. For example, the CPU 13 acquires a plurality of two-dimensional tomographic images by scanning the measurement light on each of a plurality of scan lines whose positions are different from each other in a two-dimensional region when the tissue is viewed from the front. Next, the CPU 13 acquires a three-dimensional tomographic image by combining a plurality of captured two-dimensional tomographic images.

さらに、CPU13は、組織上の同一部位(本実施形態では、同一のスキャンライン上)に測定光を複数回走査させることで、同一部位の眼科画像を複数撮影する。CPU13は、同一部位の複数の眼科画像に対して加算平均処理を行うことで、スペックルノイズの影響が抑制された加算平均画像を取得することができる。加算平均処理は、例えば、複数の眼科画像のうち、同一の位置の画素の画素値を平均化することで行われてもよい。加算平均処理を行う画像の数が多い程、スペックルノイズの影響は抑制され易いが、撮影時間は長くなる。なお、眼科画像撮影装置11は、同一部位の眼科画像を複数撮影する間に、被検眼の動きにOCT光の走査位置を追従させるトラッキング処理を実行する。 Further, the CPU 13 scans the same site on the tissue (on the same scan line in the present embodiment) with the measurement light a plurality of times to capture a plurality of ophthalmic images of the same site. The CPU 13 can obtain an arithmetic mean image in which the influence of speckle noise is suppressed by performing arithmetic mean processing on a plurality of ophthalmic images of the same part. The averaging process may be performed, for example, by averaging pixel values of pixels at the same position among a plurality of ophthalmic images. The larger the number of images to be subjected to the averaging process, the more easily the effect of speckle noise is suppressed, but the longer the shooting time. The ophthalmic image capturing apparatus 11 executes a tracking process that causes the scanning position of the OCT light to follow the movement of the subject's eye while capturing a plurality of ophthalmic images of the same region.

(数学モデル構築処理)
図2〜図6を参照して、数学モデル構築装置1が実行する数学モデル構築処理について説明する。数学モデル構築処理は、記憶装置4に記憶された数学モデル構築プログラムに従って、CPU3によって実行される。
(Mathematical model construction process)
The mathematical model building process executed by the mathematical model building apparatus 1 will be described with reference to FIGS. The mathematical model building process is executed by the CPU 3 according to the mathematical model building program stored in the storage device 4.

数学モデル構築処理では、訓練データセットによって数学モデルが訓練されることで、基画像から高画質の目的画像を出力するための数学モデルが構築される。詳細は後述するが、訓練データセットには、入力用訓練データと出力用訓練データが含まれる。本実施形態では、入力用訓練データとして、1枚〜複数枚の眼科画像(本実施形態では眼底の二次元断層画像)に基づくデータが使用される。また、出力用訓練データとして、入力用訓練データに使用される眼科画像の枚数(L枚)よりも多い枚数(H枚)の眼科画像に基づく加算平均画像のデータが使用される。入力用訓練データと出力用訓練データは、組織の同一部位を撮影対象としている。 In the mathematical model building process, the mathematical model is trained by the training data set, and thus the mathematical model for outputting a high-quality target image from the base image is built. As will be described in detail later, the training data set includes input training data and output training data. In the present embodiment, data based on one to a plurality of ophthalmic images (two-dimensional tomographic image of the fundus in this embodiment) is used as the input training data. Further, as the output training data, the data of the arithmetic mean image based on the number (H) of ophthalmic images that is larger than the number (L) of the ophthalmic images used for the input training data is used. The input training data and the output training data target the same region of the tissue.

図2に示すように、CPU3は、組織の同一部位を撮影した複数の訓練用眼科画像300A〜300X(Xは2以上の任意の整数)のセット30(図3〜図6参照)を取得する(S1)。詳細には、本実施形態では、眼底上の同一のスキャンライン上にOCT光を複数回走査させることで撮影された、複数の二次元断層画像のセットが、訓練用眼科画像のセットとして、眼科画像撮影装置11Aから取得される。ただし、CPU3は、二次元断層画像を生成する基となる信号(例えばOCT信号)を眼科画像撮影装置11Aから取得し、取得した信号に基づいて二次元断層画像を生成することで、二次元断層画像を取得してもよい。 As shown in FIG. 2, the CPU 3 acquires a set 30 (see FIGS. 3 to 6) of a plurality of training ophthalmic images 300A to 300X (X is an arbitrary integer of 2 or more) obtained by imaging the same region of tissue. (S1). Specifically, in the present embodiment, a set of a plurality of two-dimensional tomographic images captured by scanning OCT light on the same scan line on the fundus a plurality of times is used as a set of ophthalmic images for training. It is acquired from the image capturing device 11A. However, the CPU 3 acquires a signal (for example, an OCT signal) that is a basis for generating a two-dimensional tomographic image from the ophthalmologic image capturing apparatus 11A, and generates a two-dimensional tomographic image based on the acquired signal, thereby generating a two-dimensional tomographic image. Images may be acquired.

次いで、CPU3は、セット30内の複数の訓練用眼科画像300A〜300Xの一部から、入力用訓練データを取得する(S2)。入力用訓練データの具体的な取得方法は適宜選択できるが、この詳細については、図3〜図6を参照して後述する。 Next, the CPU 3 acquires input training data from some of the plurality of training ophthalmic images 300A to 300X in the set 30 (S2). A specific acquisition method of the input training data can be selected as appropriate, and details thereof will be described later with reference to FIGS. 3 to 6.

次いで、CPU3は、セット30内の複数の訓練用眼科画像300A〜300Xの加算平均画像31(図3〜図6参照)を、出力用訓練データとして取得する(S3)。前述したように、出力用訓練データである加算平均画像31に使用される訓練用眼科画像の枚数Hは、入力用訓練データに使用される訓練用眼科画像の枚数Lよりも多い。一例として、本実施形態では、図3〜図6に示すように、セット30内の複数の訓練用眼科画像300A〜300Xの全て(例えば120枚)が、加算平均画像31に使用される。なお、加算平均画像31は、数学モデル構築装置1が生成してもよい。また、数学モデル構築装置1は、眼科画像撮影装置11Aによって生成された加算平均画像31を取得してもよい。 Next, the CPU 3 acquires, as output training data, the arithmetic mean image 31 (see FIGS. 3 to 6) of the plurality of training ophthalmic images 300A to 300X in the set 30 (S3). As described above, the number H of training ophthalmic images used for the arithmetic mean image 31 which is the training data for output is larger than the number L of training ophthalmic images used for the training data for input. As an example, in the present embodiment, as shown in FIGS. 3 to 6, all (for example, 120) of the plurality of training ophthalmic images 300A to 300X in the set 30 are used for the arithmetic mean image 31. The arithmetic mean image 31 may be generated by the mathematical model construction device 1. The mathematical model construction device 1 may also acquire the arithmetic mean image 31 generated by the ophthalmic image photographing device 11A.

図3を参照して、入力用訓練データの第1取得パターンについて説明する。第1取得パターンでは、CPU3は、セット30内に含まれる複数の訓練用眼科画像300A〜300Xのうち、1枚の訓練用眼科画像300Aのそのもの(つまり、加算平均処理されていない原画像)のデータを、入力用訓練データとして取得する。この場合、眼科画像処理装置21は、構築された数学モデルに基画像を入力して目的画像を取得する際に、1枚の原画像を基画像として数学モデルに入力することが好ましい。眼科画像処理装置21は、1枚の基画像に基づいて目的画像を取得することができるので、基画像の撮影時間が短縮され易い。また、目的画像の動画を生成する際に、動画のフレームレートを大きくし易い。 The first acquisition pattern of the input training data will be described with reference to FIG. In the first acquisition pattern, the CPU 3 selects one of the training ophthalmic images 300A to 300X included in the set 30 (that is, the original image that has not been averaged). Data is acquired as training data for input. In this case, the ophthalmologic image processing device 21 preferably inputs one original image to the mathematical model as a basic image when inputting the basic image to the constructed mathematical model to acquire the target image. Since the ophthalmologic image processing device 21 can acquire the target image based on one basic image, it is easy to shorten the photographing time of the basic image. In addition, when generating a moving image of a target image, it is easy to increase the frame rate of the moving image.

図4を参照して、入力用訓練データの第2取得パターンについて説明する。第2取得パターンでは、CPU3は、セット30内に含まれる複数の訓練用眼科画像300A〜300Xのうち、複数枚の訓練用眼科画像の原画像のデータを、入力用訓練データとして取得する。図4に示す例では、2枚の訓練用眼科画像300A,300Bのデータが、入力用訓練データとして取得されている。しかし、入力用訓練データとして取得する訓練用眼科画像の枚数は、加算平均画像31に使用される訓練用眼科画像の枚数よりも少ない範囲内で変更することができる。第2取得パターンが採用される場合、眼科画像処理装置21は、構築された数学モデルに基画像を入力する際に、入力用訓練データとして使用された訓練用眼科画像の枚数に極力近い枚数の原画像を、基画像として数学モデルに入力することが好ましい。この場合には、1枚の原画像が基画像がとして数学モデルに入力される場合に比べて、取得される目的画像の品質が向上し易い。ただし、第2取得パターンが採用された場合でも、1枚の原画像が基画像として数学モデルに入力されてもよい。以上のように、入力用訓練データとして原画像が使用される場合、使用される原画像の枚数Lは、1以上、且つ、加算平均画像31に使用される枚数よりも小さい数となる。 The second acquisition pattern of the input training data will be described with reference to FIG. In the second acquisition pattern, the CPU 3 acquires, as input training data, data of original images of a plurality of training ophthalmic images among the plurality of training ophthalmic images 300A to 300X included in the set 30. In the example shown in FIG. 4, the data of two training ophthalmic images 300A and 300B are acquired as the training data for input. However, the number of training ophthalmic images acquired as the input training data can be changed within a range smaller than the number of training ophthalmic images used for the arithmetic mean image 31. When the second acquisition pattern is adopted, the ophthalmologic image processing device 21 inputs the basic image to the constructed mathematical model, and the number of training ophthalmic images used as the input training data is as close as possible. It is preferable to input the original image into the mathematical model as a base image. In this case, the quality of the acquired target image is likely to be improved as compared with the case where one original image is input as a base image into the mathematical model. However, even if the second acquisition pattern is adopted, one original image may be input to the mathematical model as a base image. As described above, when the original image is used as the input training data, the number L of the original images used is 1 or more, and is smaller than the number used for the arithmetic mean image 31.

図5を参照して、入力用訓練データの第3取得パターンについて説明する。第3取得パターンでは、CPU3は、セット30内に含まれる複数の訓練用眼科画像300A〜300Xのうち、L枚(L≧2)の訓練用眼科画像を加算平均した加算平均画像32のデータを、入力用訓練データとして取得する。図5に示す例では、2枚の訓練用眼科画像300A,300Bの加算平均画像32のデータが、入力用訓練データとして取得されている。しかし、加算平均画像32に使用される訓練用眼科画像の枚数は、加算平均画像31に使用される訓練用眼科画像の枚数よりも少ない範囲内で変更することができる。第3取得パターンが採用される場合、眼科画像処理装置21は、構築された数学モデルに基画像を入力する際に、加算平均画像を基画像として入力することが好ましい。基画像の加算平均に使用する眼科画像の枚数は、加算平均画像32に使用される訓練用眼科画像の枚数に極力近いことが好ましい。この場合には、1枚の原画像が基画像として数学モデルに入力される場合に比べて、取得される目的画像の品質が向上し易い。ただし、第3取得パターンが採用された場合でも、1枚の原画像が基画像として数学モデルに入力されてもよい。 The third acquisition pattern of the input training data will be described with reference to FIG. In the third acquisition pattern, the CPU 3 obtains the data of the arithmetic mean image 32 obtained by arithmetically averaging L (L≧2) training ophthalmic images out of the plurality of training ophthalmic images 300A to 300X included in the set 30. , As training data for input. In the example shown in FIG. 5, the data of the arithmetic mean image 32 of the two training ophthalmic images 300A and 300B is acquired as the training data for input. However, the number of training ophthalmic images used for the arithmetic mean image 32 can be changed within a range smaller than the number of training ophthalmic images used for the arithmetic mean image 31. When the third acquisition pattern is adopted, the ophthalmologic image processing device 21 preferably inputs the arithmetic mean image as the base image when inputting the base image into the constructed mathematical model. The number of ophthalmic images used for the arithmetic mean of the base images is preferably as close as possible to the number of training ophthalmic images used for the arithmetic mean image 32. In this case, compared with the case where one original image is input to the mathematical model as a base image, the quality of the acquired target image is likely to be improved. However, even when the third acquisition pattern is adopted, one original image may be input to the mathematical model as a base image.

図6を参照して、入力用訓練データの第4取得パターンについて説明する。第4取得パターンでは、CPU3は、L枚(L≧2)の訓練用眼科画像を加算平均した加算平均画像32を複数枚取得し、取得した複数枚の加算平均画像32のデータを入力用訓練データとして使用する。図6に示す例では、2枚の加算平均画像32A,32Bのデータが、入力用訓練データとして取得されている。しかし、加算平均画像32の枚数を変更することも可能である。第4取得パターンが採用される場合、眼科画像処理装置21は、構築された数学モデルに基画像を入力する際に、複数枚の加算平均画像を基画像として入力することが好ましい。この場合には、1枚の原画像が基画像として入力される場合に比べて、取得される目的画像の品質が向上し易い。ただし、第4取得パターンが採用された場合でも、1枚の原画像が基画像として数学モデルに入力されてもよい。 The fourth acquisition pattern of the input training data will be described with reference to FIG. In the fourth acquisition pattern, the CPU 3 acquires a plurality of arithmetic average images 32 obtained by arithmetic mean of L (L≧2) training ophthalmic images, and uses the acquired data of the arithmetic average images 32 for input training. Use as data. In the example shown in FIG. 6, the data of the two arithmetic mean images 32A and 32B are acquired as the input training data. However, it is also possible to change the number of arithmetic mean images 32. When the fourth acquisition pattern is adopted, the ophthalmologic image processing device 21 preferably inputs a plurality of arithmetic mean images as the base image when inputting the base image to the constructed mathematical model. In this case, the quality of the acquired target image is likely to be improved as compared with the case where one original image is input as the base image. However, even when the fourth acquisition pattern is adopted, one original image may be input to the mathematical model as a base image.

以上説明した4つのパターンは一例であり、上記のパターンを変更することも可能である。例えば、CPU3は、P枚の訓練用眼科画像の原画像のデータと、P´枚の訓練用眼科画像の加算平均画像32のデータを、共に入力用訓練データとして使用してもよい。この場合、出力用訓練データである加算平均画像31に使用される訓練用眼科画像の枚数は、入力用訓練データに使用される訓練用眼科画像の枚数(例えば、PとP´の和)よりも多い。 The four patterns described above are examples, and the above patterns can be changed. For example, the CPU 3 may use the data of the original images of the P training ophthalmic images and the data of the arithmetic mean image 32 of the P′ training ophthalmic images together as the input training data. In this case, the number of training ophthalmic images used for the arithmetic mean image 31, which is the training data for output, is greater than the number of training ophthalmic images used for the training data for input (for example, the sum of P and P′). There are also many.

また、1組の訓練用眼科画像300A〜300Xのセット30から、複数組の訓練データセットを取得することも可能である。例えば、図3に示す例では、訓練用眼科画像300Aのデータを入力用訓練データとし、加算平均画像31のデータを出力用訓練データとする1組の訓練データセットが取得されている。ここで、CPU3は、同一のセット30から、訓練用眼科画像300Bのデータを入力用訓練データとし、加算平均画像31のデータを出力用訓練データとする訓練データセットを取得することも可能である。 It is also possible to acquire a plurality of training data sets from one set 30 of the training ophthalmic images 300A to 300X. For example, in the example shown in FIG. 3, a set of training data sets in which the data of the training ophthalmic image 300A is used as the input training data and the data of the arithmetic mean image 31 is used as the output training data is acquired. Here, the CPU 3 can also acquire a training data set in which the data of the training ophthalmic image 300B is the input training data and the data of the arithmetic mean image 31 is the output training data from the same set 30. ..

図2の説明に戻る。CPU3は、機械学習アルゴリズムによって、訓練データセットを用いた数学モデルの訓練を実行する(S4)。機械学習アルゴリズムとしては、例えば、ニューラルネットワーク、ランダムフォレスト、ブースティング、サポートベクターマシン(SVM)等が一般的に知られている。 Returning to the description of FIG. The CPU 3 executes the training of the mathematical model using the training data set by the machine learning algorithm (S4). As machine learning algorithms, for example, neural networks, random forests, boosting, support vector machines (SVM), etc. are generally known.

ニューラルネットワークは、生物の神経細胞ネットワークの挙動を模倣する手法である。ニューラルネットワークには、例えば、フィードフォワード(順伝播型)ニューラルネットワーク、RBFネットワーク(放射基底関数)、スパイキングニューラルネットワーク、畳み込みニューラルネットワーク、再帰型ニューラルネットワーク(リカレントニューラルネット、フィードバックニューラルネット等)、確率的ニューラルネット(ボルツマンマシン、ベイシアンネットワーク等)等がある。 The neural network is a method of imitating the behavior of the nerve cell network of an organism. Examples of the neural network include feedforward (forward propagation type) neural network, RBF network (radial basis function), spiking neural network, convolutional neural network, recurrent neural network (recurrent neural network, feedback neural network, etc.), probability. Neural networks (Boltzmann machine, Basian network, etc.).

ランダムフォレストは、ランダムサンプリングされた訓練データに基づいて学習を行って、多数の決定木を生成する方法である。ランダムフォレストを用いる場合、予め識別器として学習しておいた複数の決定木の分岐を辿り、各決定木から得られる結果の平均(あるいは多数決)を取る。 Random forest is a method of generating a large number of decision trees by performing learning based on training data that is randomly sampled. When using a random forest, the branches of a plurality of decision trees learned in advance as a classifier are traced, and the average (or majority) of the results obtained from each decision tree is taken.

ブースティングは、複数の弱識別器を組み合わせることで強識別器を生成する手法である。単純で弱い識別器を逐次的に学習させることで、強識別器を構築する。 Boosting is a method of generating a strong classifier by combining a plurality of weak classifiers. A strong classifier is constructed by sequentially learning simple and weak classifiers.

SVMは、線形入力素子を利用して2クラスのパターン識別器を構成する手法である。SVMは、例えば、訓練データから、各データ点との距離が最大となるマージン最大化超平面を求めるという基準(超平面分離定理)で、線形入力素子のパラメータを学習する。 SVM is a method of configuring a two-class pattern classifier using a linear input element. The SVM learns the parameters of the linear input element based on, for example, a criterion (hyperplane separation theorem) of finding a margin-maximized hyperplane that maximizes the distance from each data point from the training data.

数学モデルは、例えば、入力データと出力データの関係を予測するためのデータ構造を指す。数学モデルは、訓練データセットを用いて訓練されることで構築される。訓練データセットは、入力用訓練データと出力用訓練データのセットである。数学モデルは、ある入力用訓練データが入力された時に、それに対応する出力用訓練データが出力されるように訓練される。例えば、訓練によって、各入力と出力の相関データ(例えば、重み)が更新される。 The mathematical model refers to, for example, a data structure for predicting the relationship between input data and output data. The mathematical model is constructed by being trained with the training data set. The training data set is a set of input training data and output training data. The mathematical model is trained such that when certain input training data is input, the corresponding output training data is output. For example, training updates correlation data (eg, weights) for each input and output.

本実施形態では、機械学習アルゴリズムとして多層型のニューラルネットワークが用いられている。ニューラルネットワークは、データを入力するための入力層と、予測したいデータを生成するための出力層と、入力層と出力層の間の1つ以上の隠れ層を含む。各層には、複数のノード(ユニットとも言われる)が配置される。詳細には、本実施形態では、多層型ニューラルネットワークの一種である畳み込みニューラルネットワーク(CNN)が用いられている。ただし、他の機械学習アルゴリズムが用いられてもよい。例えば、競合する2つのニューラルネットワークを利用する敵対的生成ネットワーク(Generative adversarial networks:GAN)が、機械学習アルゴリズムとして採用されてもよい。 In this embodiment, a multilayer neural network is used as the machine learning algorithm. The neural network includes an input layer for inputting data, an output layer for generating data to be predicted, and one or more hidden layers between the input layer and the output layer. A plurality of nodes (also called units) are arranged in each layer. Specifically, in the present embodiment, a convolutional neural network (CNN), which is a type of multilayer neural network, is used. However, other machine learning algorithms may be used. For example, a hostile generation network (GAN) using two competing neural networks may be adopted as a machine learning algorithm.

数学モデルの構築が完了するまで(S5:NO)、S1〜S4の処理が繰り返される。数学モデルの構築が完了すると(S5:YES)、数学モデル構築処理は終了する。構築された数学モデルを実現させるプログラムおよびデータは、眼科画像処理装置21に組み込まれる。 The processes of S1 to S4 are repeated until the construction of the mathematical model is completed (S5: NO). When the construction of the mathematical model is completed (S5: YES), the mathematical model construction process ends. The program and data for realizing the constructed mathematical model are incorporated in the ophthalmologic image processing device 21.

(眼科画像処理)
図7〜図9を参照して、眼科画像処理装置21が実行する眼科画像処理について説明する。眼科画像処理は、記憶装置24に記憶された眼科画像処理プログラムに従って、CPU23によって実行される。
(Ophthalmic image processing)
The ophthalmic image processing executed by the ophthalmic image processing device 21 will be described with reference to FIGS. 7 to 9. The ophthalmic image processing is executed by the CPU 23 according to the ophthalmic image processing program stored in the storage device 24.

図7を参照して、眼科画像処理の一例である高画質動画生成処理について説明する。高画質動画生成処理では、数学モデルを用いて高画質の目的画像の静止画が取得されると共に、組織の高画質の動画が生成される。 A high-quality moving image generation process, which is an example of ophthalmic image processing, will be described with reference to FIG. In the high-quality moving image generation processing, a still image of a high-quality target image is acquired using a mathematical model, and a high-quality moving image of the tissue is generated.

まず、CPU23は、眼科画像(静止画像)である基画像を取得する(S11)。本実施形態の基画像は、前述した訓練用眼科画像300A〜300Xと同様に、眼底の二次元断層画像である。CPU23は、前述した数学モデルに基画像を入力することで、基画像よりも高画質の目的画像を取得する(S12)。 First, the CPU 23 acquires a basic image that is an ophthalmologic image (still image) (S11). The base image of the present embodiment is a two-dimensional tomographic image of the fundus, like the above-described training ophthalmic images 300A to 300X. The CPU 23 inputs the base image to the mathematical model described above to acquire a target image having higher image quality than the base image (S12).

図7に示す例では、眼科画像撮影装置11Bは、眼底の二次元断層画像を連続して撮影することで、動画を撮影する。CPU23は、S11において、眼科画像撮影装置11Bによって撮影された動画を構成する各々の静止画像を、順次取得する。CPU23は、取得した静止画像の原画像、および、複数の原画像を加算平均した加算平均画像の少なくともいずれかを、数学モデルに入力する基画像として取得する。CPU23は、連続して取得される基画像を数学モデルに順次入力することで、目的画像を連続して取得する。 In the example illustrated in FIG. 7, the ophthalmologic image capturing apparatus 11B captures a moving image by continuously capturing two-dimensional tomographic images of the fundus. In S11, the CPU 23 sequentially acquires each of the still images that form the moving image captured by the ophthalmic image capturing apparatus 11B. The CPU 23 acquires at least one of the acquired original image of the still image and the arithmetic mean image obtained by arithmetically averaging a plurality of original images as a base image to be input to the mathematical model. The CPU 23 sequentially obtains the target image by sequentially inputting the continuously obtained base images to the mathematical model.

S11において取得する基画像の種類(原画像および加算平均画像の少なくともいずれか)、および、数学モデルに入力する基画像に使用する原画像の枚数は、前述した入力用訓練データの取得パターン等に応じて適宜設定されればよい。数学モデルに入力する基画像として加算平均画像が用いられる場合、CPU23は、同一の撮影部位を撮影した複数の眼科画像を加算平均することで、加算平均画像を取得してもよい。また、CPU23は、眼科画像撮影装置11Bによって生成された加算平均画像を取得してもよい。 The type of the base image acquired in S11 (at least one of the original image and the arithmetic mean image) and the number of original images used for the base image input to the mathematical model are determined by the acquisition pattern of the input training data described above. It may be appropriately set depending on the situation. When the arithmetic mean image is used as the base image input to the mathematical model, the CPU 23 may acquire the arithmetic mean image by arithmetically averaging a plurality of ophthalmic images of the same imaged region. The CPU 23 may also acquire the arithmetic mean image generated by the ophthalmic image capturing apparatus 11B.

なお、図7に例示する高画質動画生成処理では、組織の動画が生成される。ここで、良好な動画を生成するためには、フレームレート(単位時間あたりの静止画像の数)を極力大きくすることが望ましい。つまり、目的画像の動画のフレームレートを大きくするためには、単位時間あたりに取得する目的画像(静止画像)の数を極力大きくする必要がある。従って、図7のS11では、極力少ない原画像が、数学モデルに入力する基画像として取得されることが好ましい。例えば、CPU23は、眼科画像撮影装置11Bから1枚の原画像を取得する毎に、取得した1枚の原画像を数学モデルに入力して目的画像を生成することで、眼科画像撮影装置11Bが撮影する動画と同じフレームレートの動画を、高画質の目的画像を用いて生成することができる。 In the high-quality moving image generation process illustrated in FIG. 7, a moving image of the organization is generated. Here, in order to generate a good moving image, it is desirable to maximize the frame rate (the number of still images per unit time). That is, in order to increase the frame rate of the moving image of the target image, it is necessary to maximize the number of target images (still images) acquired per unit time. Therefore, in S11 of FIG. 7, it is preferable that the original image with the smallest possible number is acquired as the base image to be input to the mathematical model. For example, the CPU 23 inputs the acquired one original image into the mathematical model to generate the target image every time one original image is acquired from the ophthalmic image photographing device 11B, so that the ophthalmic image photographing device 11B operates. It is possible to generate a moving image having the same frame rate as the moving image to be captured by using a high quality target image.

次いで、CPU23は、表示装置28に目的画像を表示させる指示が入力されているか否かを判断する(S14)。本実施形態では、ユーザは、目的画像、基画像、および、目的画像と基画像の両方のいずれを表示装置28に表示させるかの指示を、操作部27を操作することで眼科画像処理装置21に入力することができる。目的画像を表示させる指示が入力されていなければ(S14:NO)、処理はそのままS17へ移行する。目的画像を表示させる指示が入力されている場合(S14:YES)、CPU23は、目的画像を表示装置28に表示させる(S15)。詳細には、本実施形態のS15では、S12で連続して取得される複数の目的画像が表示装置28に順次表示されることで、組織の動画が表示される。つまり、眼科画像撮影装置11Bによってその時点で撮影されている原画像の動画に基づいて、撮影中の組織の高画質の動画がリアルタイムに表示装置28に表示される。なお、CPU23は、S12で連続して取得される複数の目的画像に基づいて、目的画像の動画のデータを生成し、記憶装置に記憶させてもよい。 Next, the CPU 23 determines whether or not an instruction to display the target image on the display device 28 has been input (S14). In the present embodiment, the user operates the operation unit 27 to instruct which of the target image, the base image, and both the target image and the base image is to be displayed on the display device 28. Can be entered. If the instruction to display the target image is not input (S14: NO), the process proceeds directly to S17. When the instruction to display the target image is input (S14: YES), the CPU 23 causes the display device 28 to display the target image (S15). Specifically, in S15 of the present embodiment, a moving image of the tissue is displayed by sequentially displaying the plurality of target images sequentially acquired in S12 on the display device 28. That is, based on the moving image of the original image captured by the ophthalmologic image capturing apparatus 11B at that time, a high-quality moving image of the tissue being captured is displayed on the display device 28 in real time. Note that the CPU 23 may generate moving image data of the target image based on the plurality of target images continuously acquired in S12 and store the data in the storage device.

なお、眼科画像処理装置21は、目的画像、基画像、および、目的画像と基画像の両方のいずれを表示装置28に表示させるかの指示を、種々の方法で入力することができる。例えば、CPU23は、目的画像の表示指示を入力するアイコン、基画像の表示指示を入力するアイコン、および、両方の画像の表示指示を入力するアイコンを、表示装置28に表示させてもよい。ユーザは、希望するアイコンを選択することで、表示指示を眼科画像処理装置21に入力してもよい。 Note that the ophthalmologic image processing device 21 can input the target image, the base image, and an instruction to display either the target image or the base image on the display device 28 by various methods. For example, the CPU 23 may cause the display device 28 to display an icon for inputting a display instruction of a target image, an icon for inputting a display instruction of a basic image, and an icon for inputting a display instruction of both images. The user may input a display instruction to the ophthalmic image processing apparatus 21 by selecting a desired icon.

次いで、CPU23は、表示装置28に基画像を表示させる指示が入力されているか否かを判断する(S17)。入力されていなければ(S17:NO)、処理はそのままS20へ移行する。基画像を表示させる指示が入力されている場合(S17:YES)、CPU23は、基画像を表示装置28に表示させる(S18)。詳細には、本実施形態のS18では、S11で連続して取得される複数の基画像が表示装置28に順次表示されることで、組織の動画が表示される。以上のように、CPU23は、ユーザによって入力された指示に応じて、目的画像と基画像を切り替えて表示装置28に表示させることができる。よって、ユーザは、目的画像と基画像の両方を容易に確認することができる。 Next, the CPU 23 determines whether or not an instruction to display the basic image on the display device 28 has been input (S17). If not input (S17: NO), the process proceeds directly to S20. When the instruction to display the basic image is input (S17: YES), the CPU 23 causes the display device 28 to display the basic image (S18). Specifically, in S18 of the present embodiment, a plurality of basic images sequentially acquired in S11 are sequentially displayed on the display device 28, thereby displaying a moving image of the tissue. As described above, the CPU 23 can switch between the target image and the base image and display them on the display device 28 according to the instruction input by the user. Therefore, the user can easily confirm both the target image and the base image.

次いで、CPU23は、目的画像と基画像を同時に表示装置28に表示させる指示が入力されているか否かを判断する(S20)。入力されていなければ(S20:NO)、処理はそのままS23へ移行する。同時表示指示が入力されていれる場合(S20:YES)、CPU23は、目的画像と基画像を同時に表示装置28に表示させる。詳細には、本実施形態のS20では、目的画像の動画と基画像の動画が共に表示装置28に表示される。 Next, the CPU 23 determines whether or not an instruction to display the target image and the base image on the display device 28 at the same time is input (S20). If not input (S20: NO), the process proceeds directly to S23. When the simultaneous display instruction is input (S20: YES), the CPU 23 causes the display device 28 to simultaneously display the target image and the base image. Specifically, in S20 of the present embodiment, both the moving image of the target image and the moving image of the base image are displayed on the display device 28.

なお、S15,S18,S21では、動画でなく静止画が表示されてもよい。CPU23は、ユーザによって入力される指示に応じて、動画の表示と静止画の表示を切り替えてもよい。また、CPU23は、動画および静止画を表示装置28に表示させずに、動画および静止画の少なくとも一方のデータを記憶装置24に保存させてもよい。 In addition, in S15, S18, and S21, a still image may be displayed instead of a moving image. The CPU 23 may switch the display of the moving image and the display of the still image according to an instruction input by the user. Further, the CPU 23 may store the data of at least one of the moving image and the still image in the storage device 24 without displaying the moving image and the still image on the display device 28.

また、CPU23は、目的画像の動画または静止画を表示装置28に表示させる際に、何枚の眼科画像の加算平均画像に相当する目的画像であるかを、表示装置28に表示させることができる。例えば、数学モデルを構築する際に、出力用訓練データとして使用された加算平均画像32が、H枚の眼科画像に基づく加算平均画像である場合には、S12で取得される目的画像も、H枚の眼科画像の加算平均画像に相当する画像となる。従って、CPU23は、表示中の目的画像が、H枚の眼科画像の加算平均画像に相当する旨を、表示装置28に表示させる。よって、ユーザは、目的画像の品質を適切に把握することができる。 Further, when displaying the moving image or the still image of the target image on the display device 28, the CPU 23 can cause the display device 28 to display how many ophthalmic images the target image corresponds to. .. For example, when the arithmetic mean image 32 used as the training data for output when constructing the mathematical model is an arithmetic mean image based on H ophthalmic images, the target image acquired in S12 is also H The image corresponds to the arithmetic mean image of the ophthalmic images. Therefore, the CPU 23 causes the display device 28 to display that the target image being displayed corresponds to the arithmetic mean image of the H ophthalmic images. Therefore, the user can appropriately understand the quality of the target image.

また、目的画像を表示させるタイミングには、例えば、眼科画像撮影装置11Bによる撮影中にリアルタイムで表示させるタイミング、撮影された画像が良好であるか否かをユーザに確認させるタイミング、撮影後に解析結果またはレポートと共に表示させるタイミング等、複数のタイミングがある。CPU23は、目的画像を表示させることが可能な複数のタイミングのそれぞれに対し、目的画像、基画像、および、目的画像と基画像の両方のいずれを表示装置28に表示させるかの指示を、別々に入力することができる。つまり、ユーザは、目的画像を表示させることが可能なタイミングに応じて、目的画像、基画像、および、目的画像と基画像の両方のいずれを表示装置28に表示させるかを、予め設定しておくことができる。その結果、ユーザの利便性がさらに向上する。 In addition, as the timing of displaying the target image, for example, the timing of displaying in real time during photographing by the ophthalmologic image photographing apparatus 11B, the timing of confirming whether or not the photographed image is good, the analysis result after photographing. Alternatively, there are a plurality of timings such as the timing of displaying the report. The CPU 23 separately gives, for each of a plurality of timings at which the target image can be displayed, a target image, a base image, and which of the target image and the base image is to be displayed on the display device 28. Can be entered. That is, the user presets which of the target image, the base image, or both the target image and the base image is to be displayed on the display device 28 in accordance with the timing at which the target image can be displayed. Can be set. As a result, user convenience is further improved.

次いで、CPU23は、表示を終了させる指示が入力されたか否かを判断する(S23)。入力されていなければ(S23:NO)、処理はS11へ戻り、S11〜S23の処理が繰り返される。表示を終了させる指示が入力されると(S23:YES)、CPU23は、目的画像(本実施形態では、連続して取得される複数の目的画像の少なくともいずれか)に対するセグメンテーション処理を実行する(S24)。セグメンテーション処理とは、画像に写っている組織の複数の層の少なくともいずれかを識別する処理である。層の識別は、例えば、目的画像に対する画像処理によって行われてもよいし、機械学習アルゴリズムによって訓練された数学モデルが利用されてもよい。目的画像に対するセグメンテーション処理が行われることで、ノイズの影響が抑制されたセグメンテーション結果が適切に取得される。なお、ユーザが操作部27を操作して手動でセグメンテーション処理を行う場合もある。この場合にも、CPU23は、セグメンテーション処理が行われる対象となる画像として、目的画像を表示装置28に表示させてもよい。 Next, the CPU 23 determines whether or not an instruction to end the display has been input (S23). If not input (S23: NO), the process returns to S11 and the processes of S11 to S23 are repeated. When the instruction to end the display is input (S23: YES), the CPU 23 executes the segmentation process on the target image (in the present embodiment, at least one of the plurality of target images continuously acquired) (S24). ). The segmentation process is a process of identifying at least one of a plurality of layers of the tissue shown in the image. The layer identification may be performed, for example, by image processing on the target image, or a mathematical model trained by a machine learning algorithm may be used. By performing the segmentation process on the target image, the segmentation result in which the influence of noise is suppressed is appropriately acquired. The user may operate the operation unit 27 to manually perform the segmentation process. Also in this case, the CPU 23 may display the target image on the display device 28 as an image to be subjected to the segmentation process.

図8および図9を参照して、眼科画像処理の一例である高画質三次元断層画像生成処理について説明する。高画質三次元断層画像生成処理では、数学モデルを用いて高画質の二次元断層画像および三次元断層画像が取得される。高画質三次元断層画像生成処理が実行される場合には、眼科画像撮影装置11Bでは、OCT光(測定光)が二次元的に走査されることで、組織における三次元断層画像が撮影される。詳細には、眼科画像撮影装置11Bは、組織を正面から見た際の二次元の領域内において、位置が互いに異なる複数のスキャンライン上の各々に測定光を走査させることで、複数(1番目〜Z番目)の二次元断層画像を取得する。複数の二次元断層画像が組み合わされることで、三次元断層画像が取得される。 A high-quality three-dimensional tomographic image generation process, which is an example of ophthalmic image processing, will be described with reference to FIGS. 8 and 9. In the high-quality three-dimensional tomographic image generation processing, high-quality two-dimensional tomographic images and three-dimensional tomographic images are acquired using a mathematical model. When the high-quality three-dimensional tomographic image generation process is executed, the OCT image capturing apparatus 11B two-dimensionally scans the OCT light (measurement light) to capture a three-dimensional tomographic image of the tissue. .. Specifically, the ophthalmologic image capturing apparatus 11B scans a plurality of scan lines on a plurality of scan lines whose positions are different from each other in a two-dimensional region when the tissue is viewed from the front, and thereby a plurality of (first ~Zth) two-dimensional tomographic image is acquired. A three-dimensional tomographic image is acquired by combining a plurality of two-dimensional tomographic images.

CPU23は、眼科画像撮影装置1Bによって撮影された複数(1番目〜Z番目)の二次元断層画像のうち、N番目(Nの初期値は「1」)の二次元断層画像を、基画像として取得する(S31)。CPU23は、取得した基画像を数学モデルに入力することで、N番目の目的画像を取得する(S32)。次いで、CPU23は、複数(1番目〜Z番目)の基画像の全てに対する処理が完了したか否かを判断する(S33)。完了していなければ(S33:NO)、Nの値に「1」が加算されて(S34)、処理はS31へ戻る。全ての基画像に対する処理が完了するまで、S31〜S33の処理が繰り返される。 The CPU 23 uses, as a base image, an N-th (two-dimensional tomographic) two-dimensional tomographic image captured by the ophthalmologic image-capturing apparatus 1B, which is the N-th (two-dimensional tomographic) two-dimensional tomographic image. It is acquired (S31). The CPU 23 acquires the Nth target image by inputting the acquired base image into the mathematical model (S32). Next, the CPU 23 determines whether or not the processing for all of the plurality of (first to Zth) basic images has been completed (S33). If not completed (S33: NO), "1" is added to the value of N (S34), and the process returns to S31. The processes of S31 to S33 are repeated until the processes for all the base images are completed.

全ての基画像に対する処理が完了すると(S33:YES)、取得された複数の目的画像が組み合わされることで、組織の三次元断層画像40(図9参照)が生成される(S35)。図8に例示した高画質三次元断層画像生成処理によると、三次元断層画像を構成する各々の二次元断層画像として加算平均画像を使用しなくても、加算平均画像と同等にノイズの影響が抑制された目的画像によって、三次元断層画像が生成される。 When the processing for all the base images is completed (S33: YES), the acquired plurality of target images are combined to generate the three-dimensional tomographic image 40 (see FIG. 9) of the tissue (S35). According to the high-quality three-dimensional tomographic image generation process illustrated in FIG. 8, even if the arithmetic mean image is not used as each of the two-dimensional tomographic images forming the three-dimensional tomographic image, the influence of noise is equal to that of the arithmetic mean image. A three-dimensional tomographic image is generated by the suppressed target image.

なお、CPU23は、複数の目的画像に基づいて、三次元断層画像以外の画像を生成することも可能である。例えば、CPU23は、S32で取得された複数の目的画像に基づいて、組織を正面から見た場合の二次元正面画像(所謂「Enface画像」を生成してもよい。 Note that the CPU 23 can also generate an image other than the three-dimensional tomographic image based on the plurality of target images. For example, the CPU 23 may generate a two-dimensional front image (so-called “Enface image”) when the tissue is viewed from the front, based on the plurality of target images acquired in S32.

また、CPU23は、複数の目的画像に基づいて生成した三次元断層画像40に対して解析処理を行うことも可能である。例えば、CPU23は、三次元断層画像40に対して、眼底に含まれる複数の層の少なくともいずれかを抽出するセグメンテーション処理を行ってもよい。CPU23は、セグメンテーション処理の結果に基づいて、少なくともいずれかの層の厚み分布を二次元的に示す厚みマップを生成してもよい。この場合、ノイズの影響が抑制された三次元断層画像40に基づいて、厚みマップが適切に生成される。 Further, the CPU 23 can also perform an analysis process on the three-dimensional tomographic image 40 generated based on the plurality of target images. For example, the CPU 23 may perform a segmentation process on the three-dimensional tomographic image 40 to extract at least one of the plurality of layers included in the fundus. The CPU 23 may generate a thickness map that two-dimensionally shows the thickness distribution of at least one of the layers based on the result of the segmentation processing. In this case, the thickness map is appropriately generated based on the three-dimensional tomographic image 40 in which the influence of noise is suppressed.

また、CPU23は、複数の目的画像に基づいて生成した三次元断層画像40に基づいて、三次元断層画像40の撮影範囲に含まれる組織中の任意の位置の二次元断層画像を生成してもよい。CPU23は、生成した二次元断層画像を表示装置28に表示させてもよい。一例として、本実施形態のCPU23は、断層画像を生成する位置を指定するためのユーザからの指示を入力する。例えば、ユーザは、操作部27を操作することで、表示装置28に表示された二次元正面画像上または三次元断層画像40上で、断層画像の生成位置を指定してもよい。断層画像の生成位置は、例えば、各種形状のライン(直線上のライン、円形状のライン等)で指定されてもよい。CPU23は、三次元断層画像40から、ユーザによって指定された位置の二次元断層画像を生成(抽出)してもよい。この場合、ユーザが希望する任意の位置の断層画像が、ノイズの影響が抑制された三次元断層画像40に基づいて適切に生成される。 Further, the CPU 23 may generate a two-dimensional tomographic image at an arbitrary position in the tissue included in the imaging range of the three-dimensional tomographic image 40 based on the three-dimensional tomographic image 40 generated based on the plurality of target images. Good. The CPU 23 may display the generated two-dimensional tomographic image on the display device 28. As an example, the CPU 23 of the present embodiment inputs an instruction from the user for designating the position where the tomographic image is generated. For example, the user may operate the operation unit 27 to specify the generation position of the tomographic image on the two-dimensional front image or the three-dimensional tomographic image 40 displayed on the display device 28. The generation position of the tomographic image may be specified by lines of various shapes (straight lines, circular lines, etc.), for example. The CPU 23 may generate (extract) a two-dimensional tomographic image at a position designated by the user from the three-dimensional tomographic image 40. In this case, a tomographic image at an arbitrary position desired by the user is appropriately generated based on the three-dimensional tomographic image 40 in which the influence of noise is suppressed.

また、CPU23は、眼科画像撮影装置11Bによって撮影された眼科画像が良好であるか否かを、眼科画像が1枚または複数枚撮影される毎に判定してもよい。CPU23は、撮影された眼科画像が良好であると判定した場合に、良好な眼科画像を基画像として数学モデルに入力してもよい。また、CPU23は、撮影された眼科画像が良好でないと判定した場合に、同じ位置の眼科画像を再撮影させる指示を眼科画像撮影装置11Bに出力してもよい。この場合、良好な基画像に基づいて目的画像が取得される。なお、撮影された眼科画像が良好であるか否かを判定するための具体的な方法は、適宜選択できる。例えば、CPU23は、撮影された眼科画像の信号の強さ、または、信号の良好さを示す指標(例えば、SSI(Signal Strength Index)またはQI(Quality Index)等)を用いて、眼科画像が良好であるか否かを判定してもよい。また、CPU23は、撮影された眼科画像をテンプレートと比較することで、眼科画像が良好であるか否かを判定してもよい。 Further, the CPU 23 may determine whether or not the ophthalmic image captured by the ophthalmic image capturing apparatus 11B is good every time one or more ophthalmic images are captured. When determining that the captured ophthalmic image is good, the CPU 23 may input the good ophthalmic image as a base image into the mathematical model. Further, when the CPU 23 determines that the captured ophthalmic image is not good, the CPU 23 may output an instruction to re-capture the ophthalmic image at the same position to the ophthalmic image capturing device 11B. In this case, the target image is acquired based on a good base image. Note that a specific method for determining whether or not the captured ophthalmic image is good can be appropriately selected. For example, the CPU 23 uses a signal strength of the photographed ophthalmic image or an index indicating goodness of the signal (for example, SSI (Signal Strength Index) or QI (Quality Index)) to obtain a good ophthalmic image. May be determined. Further, the CPU 23 may determine whether or not the ophthalmic image is good by comparing the captured ophthalmic image with the template.

また、CPU23は、複数の目的画像のいずれかに対して解析処理(例えばセグメンテーション処理等)を行う場合、複数の目的画像、または、複数の目的画像の基となった複数の基画像から、良好な画像を抽出してもよい。CPU23は、抽出した良好な目的画像、または、良好な基画像に基づく目的画像に対して解析処理を行ってもよい。この場合、解析処理の精度が向上する。なお、良好な画像を抽出する手法には、例えば、前述したSSI等を利用する手法等、種々の手法を採用することができる。 Further, when performing analysis processing (for example, segmentation processing or the like) on any of the plurality of target images, the CPU 23 determines whether the plurality of target images or the plurality of base images that are the basis of the plurality of target images are good. Images may be extracted. The CPU 23 may perform an analysis process on the extracted good target image or the target image based on the good basic image. In this case, the accuracy of the analysis process is improved. As a method of extracting a good image, various methods such as the above-described method using SSI or the like can be adopted.

また、CPU23は、モーションコントラスト画像を生成する際に、本開示で例示した数学モデルを用いて目的画像を取得し、取得した目的画像に基づいてモーションコントラスト画像を生成してもよい。前述したように、モーションコントラスト画像を生成する際には、同一位置に関して異なる時間に複数のOCT信号が取得され、複数のOCT信号に対して演算処理が行われる。CPU23は、複数のOCT信号(二次元断層画像)の各々に基づいて目的画像を取得し、取得した複数の目的画像に対して演算処理を行うことで、モーションコントラスト画像を取得してもよい。この場合、ノイズの影響が抑制されたモーションコントラスト画像が適切に生成される。 Further, when generating the motion contrast image, the CPU 23 may acquire the target image using the mathematical model exemplified in the present disclosure, and may generate the motion contrast image based on the acquired target image. As described above, when a motion contrast image is generated, a plurality of OCT signals are acquired at different times with respect to the same position, and arithmetic processing is performed on the plurality of OCT signals. The CPU 23 may acquire a target image based on each of a plurality of OCT signals (two-dimensional tomographic images) and perform a calculation process on the acquired plurality of target images to acquire a motion contrast image. In this case, the motion contrast image in which the influence of noise is suppressed is appropriately generated.

上記実施形態で開示された技術は一例に過ぎない。従って、上記実施形態で例示された技術を変更することも可能である。まず、上記実施形態で例示された複数の技術のうちの一部のみを実行することも可能である。例えば、眼科画像処理装置21は、高画質動画生成処理(図7参照)、および、高画質三次元断層画像生成処理(図8参照)の一方のみを実行してもよい。 The technology disclosed in the above embodiments is merely an example. Therefore, it is possible to change the technique exemplified in the above embodiment. First, it is possible to execute only a part of the plurality of techniques exemplified in the above embodiment. For example, the ophthalmologic image processing device 21 may execute only one of the high-quality moving image generation processing (see FIG. 7) and the high-quality three-dimensional tomographic image generation processing (see FIG. 8).

なお、図7のS11および図8のS31で基画像を取得する処理は、「基画像取得ステップ」の一例である。図7のS12および図8のS32で目的画像を取得する処理は、「目的画像取得ステップ」の一例である。図8のS35で三次元断層画像を生成する処理は、「三次元断層画像生成ステップ」の一例である。図7のS24に示すセグメンテーション処理は、「セグメンテーションステップ」の一例である。図7のS14〜S18で目的画像と基画像を切り替えて表示させる処理は、「切替表示処理」および「切替表示ステップ」の一例である。図7のS21で目的画像と基画像を同時に表示させる処理は、「同時表示処理」および「同時表示ステップ」の一例である。図7のS15で目的画像の動画データを生成する処理は、「動画生成ステップ」の一例である。図2のS1で訓練用眼科画像のセット30を取得する処理は、「画像セット取得ステップ」の一例である。図2のS2〜S4で数学モデルを構築する処理は、「訓練ステップ」の一例である。 The process of acquiring the base image in S11 of FIG. 7 and S31 of FIG. 8 is an example of the “base image acquisition step”. The process of acquiring the target image in S12 of FIG. 7 and S32 of FIG. 8 is an example of the “target image acquisition step”. The process of generating the three-dimensional tomographic image in S35 of FIG. 8 is an example of the “three-dimensional tomographic image generating step”. The segmentation process shown in S24 of FIG. 7 is an example of a “segmentation step”. The process of switching between the target image and the base image for display in S14 to S18 of FIG. 7 is an example of the “switching display process” and the “switching display step”. The process of simultaneously displaying the target image and the base image in S21 of FIG. 7 is an example of “simultaneous display process” and “simultaneous display step”. The process of generating the moving image data of the target image in S15 of FIG. 7 is an example of a “moving image generating step”. The process of acquiring the training ophthalmic image set 30 in S1 of FIG. 2 is an example of an “image set acquisition step”. The process of constructing the mathematical model in S2 to S4 of FIG. 2 is an example of “training step”.

1 数学モデル構築装置
3 CPU
4 記憶装置
11 眼科画像撮影装置
21 眼科画像処理装置
23 CPU
24 記憶装置
28 表示装置
30 セット
31 加算平均画像
32 加算平均画像
300 訓練用眼科画像

1 Mathematical model building device 3 CPU
4 Storage device 11 Ophthalmic image photographing device 21 Ophthalmic image processing device 23 CPU
24 storage device 28 display device 30 set 31 arithmetic mean image 32 arithmetic mean image 300 training ophthalmic image

Claims (4)

被検眼の組織の画像である眼科画像を処理する眼科画像処理装置であって、
前記眼科画像は、OCT装置によって同一位置に関して異なる時間に取得された少なくとも2つのOCT信号が演算処理されることで取得されるモーションコントラスト画像であるOCTアンジオ画像であり、
前記眼科画像処理装置の制御部は、
前記OCT装置によって撮影されたOCTアンジオ画像、または、前記OCT装置によって組織の同一部位を撮影した複数のOCTアンジオ画像を加算平均した加算平均画像を、基画像として取得し、
機械学習アルゴリズムによって訓練された数学モデルに前記基画像を入力することで、前記基画像よりも高画質のOCTアンジオ画像である目的画像を取得し、
前記目的画像を表示させることが可能なタイミングが到来した際に、前記タイミングに応じて予め設定されている、表示装置に表示させる画像の種類に応じて、前記目的画像および前記基画像の少なくとも一方を前記表示装置に表示させ、
前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、L枚(L≧1)の前記訓練用眼科画像に基づくデータを入力用訓練データとし、且つ、H枚(H>L)前記訓練用眼科画像を加算平均した加算平均画像のデータを出力用訓練データとして訓練されていることを特徴とする眼科画像処理装置。
An ophthalmic image processing apparatus for processing an ophthalmic image that is an image of the tissue of an eye to be inspected,
The ophthalmic image is an OCT angio image that is a motion contrast image obtained by performing an arithmetic process on at least two OCT signals obtained at different times for the same position by the OCT apparatus,
The control unit of the ophthalmic image processing device,
An OCT angio image photographed by the OCT device, or an arithmetic mean image obtained by arithmetic mean of a plurality of OCT angio images obtained by photographing the same part of the tissue by the OCT device is acquired as a base image,
By inputting the base image to a mathematical model trained by a machine learning algorithm, a target image that is an OCT angio image having a higher image quality than the base image is acquired,
When the timing at which the target image can be displayed has arrived, at least one of the target image and the base image is preset according to the timing, depending on the type of image displayed on the display device. Is displayed on the display device,
In the mathematical model, data based on L (L≧1) of the training ophthalmic images of the plurality of training ophthalmic images of the same region of the tissue is used as input training data, and H (H) >L) The ophthalmic image processing device is trained as output training data using data of an arithmetic mean image obtained by arithmetic mean of the training ophthalmic images.
被検眼の組織の画像である眼科画像を処理する眼科画像処理装置であって、
前記眼科画像は、OCT装置によって同一位置に関して異なる時間に取得された少なくとも2つのOCT信号が演算処理されることで取得されるモーションコントラスト画像であるOCTアンジオ画像であり、
前記眼科画像処理装置の制御部は、
前記OCT装置によって撮影されたOCTアンジオ画像、または、前記OCT装置によって組織の同一部位を撮影した複数のOCTアンジオ画像を加算平均した加算平均画像を、基画像として取得し、
機械学習アルゴリズムによって訓練された数学モデルに前記基画像を入力することで、前記基画像よりも高画質のOCTアンジオ画像である目的画像を取得し、
前記目的画像の撮影範囲に含まれる組織中の、ユーザによって指定された位置の二次元断層画像を抽出して表示装置に表示させ、
前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、L枚(L≧1)の前記訓練用眼科画像に基づくデータを入力用訓練データとし、且つ、H枚(H>L)前記訓練用眼科画像を加算平均した加算平均画像のデータを出力用訓練データとして訓練されていることを特徴とする眼科画像処理装置。
An ophthalmic image processing apparatus for processing an ophthalmic image that is an image of the tissue of an eye to be inspected,
The ophthalmic image is an OCT angio image that is a motion contrast image obtained by performing an arithmetic process on at least two OCT signals obtained at different times for the same position by the OCT apparatus,
The control unit of the ophthalmic image processing device,
An OCT angio image photographed by the OCT device, or an arithmetic mean image obtained by arithmetic mean of a plurality of OCT angio images obtained by photographing the same part of the tissue by the OCT device is acquired as a base image,
By inputting the base image to a mathematical model trained by a machine learning algorithm, a target image that is an OCT angio image having a higher image quality than the base image is acquired,
In the tissue included in the imaging range of the target image, the two-dimensional tomographic image at the position designated by the user is extracted and displayed on the display device,
In the mathematical model, data based on L (L≧1) of the training ophthalmic images of the plurality of training ophthalmic images of the same region of the tissue is used as input training data, and H (H) >L) The ophthalmic image processing device is trained as output training data using data of an arithmetic mean image obtained by arithmetic mean of the training ophthalmic images.
参照光と、被検眼の組織に照射された測定光の反射光とによるOCT信号を処理することで、前記組織の眼科画像を撮影するOCT装置であって、
前記眼科画像は、同一位置に関して異なる時間に取得された少なくとも2つのOCT信号が演算処理されることで取得されるモーションコントラスト画像であるOCTアンジオ画像であり、
前記OCT装置の制御部は、
撮影した前記組織のOCTアンジオ画像、または、前記組織の同一部位を撮影した複数のOCTアンジオ画像を加算平均した加算平均画像を、基画像として取得し、
機械学習アルゴリズムによって訓練された数学モデルに前記基画像を入力することで、前記基画像よりも高画質のOCTアンジオ画像である目的画像を取得し、
前記目的画像を表示させることが可能なタイミングが到来した際に、前記タイミングに応じて予め設定されている、表示装置に表示させる画像の種類に応じて、前記目的画像および前記基画像の少なくとも一方を前記表示装置に表示させ、
前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、L枚(L≧1)の前記訓練用眼科画像に基づくデータを入力用訓練データとし、且つ、H枚(H>L)前記訓練用眼科画像を加算平均した加算平均画像のデータを出力用訓練データとして訓練されていることを特徴とするOCT装置。
An OCT apparatus for capturing an ophthalmic image of the tissue by processing an OCT signal by the reference light and the reflected light of the measurement light with which the tissue of the subject's eye is irradiated,
The ophthalmic image is an OCT angio image that is a motion contrast image acquired by performing an arithmetic process on at least two OCT signals acquired at different times for the same position,
The control unit of the OCT device is
An OCT angio image of the imaged tissue, or an arithmetic mean image obtained by arithmetically averaging a plurality of OCT angio images of the same site of the tissue is acquired as a base image,
By inputting the base image to a mathematical model trained by a machine learning algorithm, a target image that is an OCT angio image having a higher image quality than the base image is acquired,
When the timing at which the target image can be displayed has arrived, at least one of the target image and the base image is preset according to the timing, depending on the type of image displayed on the display device. Is displayed on the display device,
In the mathematical model, data based on L (L≧1) of the training ophthalmic images of the plurality of training ophthalmic images of the same region of the tissue is used as input training data, and H (H) >L) The OCT apparatus is trained as output training data using data of an arithmetic mean image obtained by arithmetic mean of the training ophthalmic images.
参照光と、被検眼の組織に照射された測定光の反射光とによるOCT信号を処理することで、前記組織の眼科画像を撮影するOCT装置であって、
前記眼科画像は、同一位置に関して異なる時間に取得された少なくとも2つのOCT信号が演算処理されることで取得されるモーションコントラスト画像であるOCTアンジオ画像であり、
前記OCT装置の制御部は、
撮影した前記組織のOCTアンジオ画像、または、前記組織の同一部位を撮影した複数のOCTアンジオ画像を加算平均した加算平均画像を、基画像として取得し、
機械学習アルゴリズムによって訓練された数学モデルに前記基画像を入力することで、前記基画像よりも高画質のOCTアンジオ画像である目的画像を取得し、
前記目的画像の撮影範囲に含まれる組織中の、ユーザによって指定された位置の二次元断層画像を抽出して表示装置に表示させ、
前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、L枚(L≧1)の前記訓練用眼科画像に基づくデータを入力用訓練データとし、且つ、H枚(H>L)前記訓練用眼科画像を加算平均した加算平均画像のデータを出力用訓練データとして訓練されていることを特徴とするOCT装置。

An OCT apparatus for capturing an ophthalmic image of the tissue by processing an OCT signal by the reference light and the reflected light of the measurement light with which the tissue of the subject's eye is irradiated,
The ophthalmic image is an OCT angio image that is a motion contrast image acquired by performing an arithmetic process on at least two OCT signals acquired at different times for the same position,
The control unit of the OCT device is
An OCT angio image of the imaged tissue, or an arithmetic mean image obtained by arithmetically averaging a plurality of OCT angio images of the same site of the tissue is acquired as a base image,
By inputting the base image to a mathematical model trained by a machine learning algorithm, a target image that is an OCT angio image having a higher image quality than the base image is acquired,
In the tissue included in the imaging range of the target image, the two-dimensional tomographic image at the position designated by the user is extracted and displayed on the display device,
In the mathematical model, data based on L (L≧1) of the training ophthalmic images of the plurality of training ophthalmic images of the same region of the tissue is used as input training data, and H (H) >L) The OCT apparatus is trained as output training data using data of an arithmetic mean image obtained by arithmetic mean of the training ophthalmic images.

JP2020080985A 2020-05-01 2020-05-01 Ophthalmic image processing device and OCT device Active JP6747617B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020080985A JP6747617B2 (en) 2020-05-01 2020-05-01 Ophthalmic image processing device and OCT device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020080985A JP6747617B2 (en) 2020-05-01 2020-05-01 Ophthalmic image processing device and OCT device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019553134A Division JP6703319B1 (en) 2018-06-29 2018-06-29 Ophthalmic image processing device and OCT device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020133247A Division JP6866954B2 (en) 2020-08-05 2020-08-05 Ophthalmic image processing program and OCT device

Publications (2)

Publication Number Publication Date
JP6747617B2 true JP6747617B2 (en) 2020-08-26
JP2020127767A JP2020127767A (en) 2020-08-27

Family

ID=72146306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020080985A Active JP6747617B2 (en) 2020-05-01 2020-05-01 Ophthalmic image processing device and OCT device

Country Status (1)

Country Link
JP (1) JP6747617B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102545714B1 (en) * 2020-10-07 2023-06-21 주식회사 오큐라이트 Apparatus and method of predicting visualization parameter of medical image based on artificial neural network

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1131214A (en) * 1997-07-10 1999-02-02 Hitachi Medical Corp Picture processor
JP5238893B1 (en) * 2012-02-22 2013-07-17 株式会社東芝 X-ray CT apparatus, image display apparatus, and image display method
JP6217185B2 (en) * 2013-07-02 2017-10-25 株式会社ニデック Ophthalmic photographing apparatus and ophthalmic image processing program
JP6987495B2 (en) * 2016-11-18 2022-01-05 キヤノン株式会社 Image processing device, its operation method, and program

Also Published As

Publication number Publication date
JP2020127767A (en) 2020-08-27

Similar Documents

Publication Publication Date Title
US11633096B2 (en) Ophthalmologic image processing device and non-transitory computer-readable storage medium storing computer-readable instructions
JP7388525B2 (en) Ophthalmology image processing device and ophthalmology image processing program
JP2024040372A (en) Ophthalmology image processing program and ophthalmology image processing device
JP6703319B1 (en) Ophthalmic image processing device and OCT device
WO2020026535A1 (en) Ophthalmic image processing device, oct device, and ophthalmic image processing program
US20220164949A1 (en) Ophthalmic image processing device and ophthalmic image processing method
JP6747617B2 (en) Ophthalmic image processing device and OCT device
JP6866954B2 (en) Ophthalmic image processing program and OCT device
JP7435885B2 (en) Ophthalmology image processing device and ophthalmology image processing program
JP7439990B2 (en) Medical image processing device, medical image processing program, and medical image processing method
WO2021020419A1 (en) Medical image processing device and medical image processing program
JP2019208851A (en) Fundus image processing device and fundus image processing program
JP7328489B2 (en) Ophthalmic image processing device and ophthalmic photographing device
JP7435067B2 (en) Ophthalmology image processing device and ophthalmology image processing program
WO2020241794A1 (en) Ophthalmic image processing device, ophthalmic image processing program, and ophthalmic image processing system
JP2021074095A (en) Ophthalmologic image processing device and ophthalmologic image processing program
WO2021045019A1 (en) Ophthalmic image processing program and ophthalmic image processing device
JP7180187B2 (en) Ophthalmic image processing device, OCT device, and ophthalmic image processing program
JP7210927B2 (en) Ophthalmic image processing device, OCT device, and ophthalmic image processing program
WO2023281965A1 (en) Medical image processing device and medical image processing program
JP2020121038A (en) Ophthalmologic image processing device and ophthalmologic image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200501

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200501

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200720

R150 Certificate of patent or registration of utility model

Ref document number: 6747617

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250