JP2019208852A - Ophthalmologic image processing apparatus and ophthalmologic image processing program - Google Patents
Ophthalmologic image processing apparatus and ophthalmologic image processing program Download PDFInfo
- Publication number
- JP2019208852A JP2019208852A JP2018107293A JP2018107293A JP2019208852A JP 2019208852 A JP2019208852 A JP 2019208852A JP 2018107293 A JP2018107293 A JP 2018107293A JP 2018107293 A JP2018107293 A JP 2018107293A JP 2019208852 A JP2019208852 A JP 2019208852A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- eye
- predicted
- ophthalmic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
Abstract
Description
被検眼の眼科画像を処理するための眼科画像処理装置、および眼科画像処理プログラムに関する。 The present invention relates to an ophthalmic image processing apparatus and an ophthalmic image processing program for processing an ophthalmic image of an eye to be examined.
近年、画像認識分野においてニューラルネットワークが注目されており(特許文献1参照)、医療画像への応用が期待されている。 In recent years, neural networks have attracted attention in the field of image recognition (see Patent Document 1) and are expected to be applied to medical images.
ニューラルネットワークを基礎とするディープラーニング(Deep Learning)は、主に画像認識、セグメンテーションで使われている一方、近年では画像生成も盛んに行われている。 Deep learning based on neural networks is mainly used for image recognition and segmentation, and in recent years, image generation is also actively performed.
ところで、眼科分野において、患者に眼の状態を説明する際、臨床的な画像を見せて説明している。しかしながら、代表的な眼の疾患画像を見せているに過ぎないため、患者自身が疾患の状態について理解するには情報が不足している場合があった。 By the way, in the ophthalmology field, when explaining the state of the eye to a patient, a clinical image is shown for explanation. However, since only a typical eye disease image is shown, there is a case where information is insufficient for the patient himself to understand the disease state.
本開示は、従来の問題点に鑑み、有用な情報を提示できる眼科画像処理装置および眼科画像処理プログラムを提供することを技術課題とする。 In view of the conventional problems, it is an object of the present disclosure to provide an ophthalmic image processing apparatus and an ophthalmic image processing program capable of presenting useful information.
上記課題を解決するために、本開示は以下のような構成を備えることを特徴とする。 In order to solve the above problems, the present disclosure is characterized by having the following configuration.
(1) 眼科画像を処理する眼科画像処理装置であって、撮影手段によって撮影された被検眼の眼科画像を取得する画像取得手段と、機械学習アルゴリズムによって訓練された数学モデルに前記被検眼の眼科画像を入力することによって、前記被検眼の変化を予測した予測画像を出力させる画像処理手段と、を備えることを特徴とする。
(2) 眼科画像を処理する眼科画像処理装置において実行される眼科画像処理プログラムであって、前記眼科画像処理装置のプロセッサによって実行されることで、撮影手段によって撮影された被検眼の眼科画像を取得する画像取得ステップと、機械学習アルゴリズムによって訓練された数学モデルに前記被検眼の眼科画像を入力することによって、前記被検眼の変化を予測した予測画像を出力させる画像処理ステップと、を前記眼科画像処理装置に実行させることを特徴とする。
(1) An ophthalmologic image processing apparatus for processing an ophthalmologic image, wherein an ophthalmologic image of the eye to be examined is acquired by an image acquisition means for acquiring an ophthalmologic image of the eye to be examined photographed by the photographing means and a mathematical model trained by a machine learning algorithm Image processing means for outputting a predicted image obtained by predicting a change in the eye to be examined by inputting an image.
(2) An ophthalmic image processing program that is executed in an ophthalmic image processing apparatus that processes an ophthalmic image, and is executed by a processor of the ophthalmic image processing apparatus so that an ophthalmic image of an eye to be inspected captured by an imaging unit is obtained. An image acquisition step for acquiring an image processing step for outputting a predicted image in which a change in the eye to be examined is predicted by inputting the ophthalmic image of the eye to be examined into a mathematical model trained by a machine learning algorithm. The image processing apparatus is executed.
<実施形態>
本開示に係る実施形態について説明する。実施形態の眼科画像処理装置(例えば、眼科画像処理装置100)は、眼科画像を処理する。眼科画像処理装置は、例えば、画像取得部(例えば、画像取得部171)と、画像処理部(例えば、画像処理部172)を主に備える。画像取得部は、例えば、撮影部(例えば、眼科撮影装置1)によって撮影された眼科画像を取得する。画像処理部は、例えば、機械学習アルゴリズムによって訓練された数学モデル(ネットワーク)に被検眼の眼科画像を入力することによって、被検眼の変化を予測した予測画像を出力させる。被検眼の変化は、例えば、被検眼の組織変化、形状変化等である。
<Embodiment>
An embodiment according to the present disclosure will be described. The ophthalmic image processing apparatus (for example, ophthalmic image processing apparatus 100) of the embodiment processes an ophthalmic image. The ophthalmic image processing apparatus mainly includes, for example, an image acquisition unit (for example, image acquisition unit 171) and an image processing unit (for example, image processing unit 172). The image acquisition unit acquires, for example, an ophthalmic image captured by an imaging unit (for example, the ophthalmologic imaging apparatus 1). For example, the image processing unit inputs an ophthalmic image of the eye to be examined into a mathematical model (network) trained by a machine learning algorithm, and outputs a predicted image in which a change in the eye to be examined is predicted. The change of the eye to be examined is, for example, a tissue change or a shape change of the eye to be examined.
眼科画像処理装置は、被検者自身の画像に基づいて予測画像を生成するため、検者は被検眼の将来的な変化について容易にイメージすることができる。また、眼の変化について各被検者に応じた説明を行うことができるため、被検者にとって理解し易い。さらに、研修医に眼の変化を学ばせるための研修用ツールとして用いることができる。 Since the ophthalmologic image processing apparatus generates a predicted image based on the subject's own image, the examiner can easily image future changes in the subject's eye. Moreover, since it is possible to explain changes in eyes according to each subject, it is easy for the subject to understand. Furthermore, it can be used as a training tool for letting the trainee learn eye changes.
なお、予測画像は、被検眼が疾患になったときの変化を予測した画像であってもよい。これによって、検者は、被検眼が疾患になったときの変化について容易にイメージすることができる。また、疾患による眼の変化について、被検者自身の予測画像を用いて各被検者に応じた説明を行うことができるため、被検者にとって理解し易い。 Note that the predicted image may be an image in which a change when the eye to be examined becomes a disease is predicted. Thereby, the examiner can easily imagine the change when the eye to be examined becomes a disease. Moreover, since it is possible to explain the eye change due to a disease according to each subject using the predicted image of the subject himself, it is easy for the subject to understand.
なお、予測画像は、被検眼の疾患を治療したときの変化を予測した画像であってもよい。これによって、検者は、被検眼を治療したときの変化について容易にイメージすることができる。また、治療による眼の変化について、被検者自身の予測画像を用いて各被検者に応じた説明を行うことができるため、被検者にとって理解し易い。 Note that the predicted image may be an image in which a change when a disease of the eye to be examined is treated is predicted. Thereby, the examiner can easily imagine the change when the eye to be examined is treated. Moreover, since the change of the eye by treatment can be explained according to each subject using the predicted image of the subject himself, it is easy for the subject to understand.
なお、付加情報を取得する情報取得部(情報取得部177)をさらに備えてもよい。この場合、画像処理部は、眼科画像とともに付加情報を数学モデルに入力することによって、予測画像を出力させてもよい。これによって、検者は、付加情報に応じた予測画像を生成させることができる。例えば、検者は、付加情報を指定することによって、所望の予測画像を生成させることができる。 In addition, you may further provide the information acquisition part (information acquisition part 177) which acquires additional information. In this case, the image processing unit may output the predicted image by inputting additional information together with the ophthalmic image into the mathematical model. Thus, the examiner can generate a predicted image corresponding to the additional information. For example, the examiner can generate a desired predicted image by designating additional information.
付加情報は、例えば、疾患名であってもよい。疾患名は、例えば、加齢黄斑変性(AMD)、糖尿病網膜症、緑内障などの種々の疾患である。眼科画像とともに疾患名を数学モデルに入力することによって、所望の疾患になったときの予測画像を生成させることができる。 The additional information may be a disease name, for example. The disease name is various diseases such as age-related macular degeneration (AMD), diabetic retinopathy, glaucoma and the like. By inputting a disease name together with an ophthalmic image into a mathematical model, a prediction image when a desired disease is obtained can be generated.
付加情報は、例えば、治療方法であってもよい。治療方法は、例えば、種々の手術または投薬などである。眼科画像とともに治療方法を数学モデルに入力することによって、所望の治療を施したときの予測画像を生成させることができる。 The additional information may be a treatment method, for example. The treatment method is, for example, various operations or medications. By inputting the treatment method together with the ophthalmic image into the mathematical model, a predicted image when the desired treatment is performed can be generated.
なお、付加情報は、疾患または治療等の進行度を含んでもよい。この場合、画像処理部は、進行度に基づいて予測画像を生成してもよい。これによって、被検眼の変化を段階的に示す予測画像を生成することができる。なお、進行度は、例えば、初期、中期、末期等の複数の段階に分かれたレベルであってもよい。 Note that the additional information may include the degree of progression of a disease or treatment. In this case, the image processing unit may generate a predicted image based on the degree of progress. As a result, a predicted image that shows changes in the eye to be examined in stages can be generated. Note that the degree of progress may be, for example, a level divided into a plurality of stages such as an initial stage, a middle period, and an end stage.
また、付加情報は、疾患または治療の位置情報を含んでいてもよい。この場合、画像処理部は、位置情報に基づいて予測画像を生成してもよい。例えば、情報取得部は、検者によって指定された位置を付加情報として取得してもよい。これによって、検者は、被検眼の眼科画像の所望の位置が変化した予測画像を作成させることができる。 Further, the additional information may include position information of a disease or treatment. In this case, the image processing unit may generate a predicted image based on the position information. For example, the information acquisition unit may acquire a position designated by the examiner as additional information. Thus, the examiner can create a predicted image in which a desired position of the ophthalmic image of the eye to be examined has changed.
なお、画像処理部は、複数の予測画像を生成することによって、被検眼の変化を予測した動画像を生成してもよい。例えば、画像処理部は、進行度別に生成した予測画像を繋ぎ合わせることで動画像を生成してもよい。これによって、検者は、被検眼の変化を視認し易くなる。 Note that the image processing unit may generate a moving image in which a change in the eye to be examined is predicted by generating a plurality of predicted images. For example, the image processing unit may generate a moving image by connecting predicted images generated for each degree of progress. This makes it easier for the examiner to visually recognize changes in the eye to be examined.
眼科画像を撮影する撮影部は、例えば、眼底カメラ、OCT、SLO、シャインプルークカメラ等のいずれかの光学系を備えてもよいし、複合機であってもよい。画像取得部は、これらの光学系によって撮影された画像を取得してもよい。なお、画像処理部は、数学モデルに複数の眼科画像を入力してもよい。複数の眼科画像は、同一のモダリティによって撮影された画像であってもよいし、複数のモダリティにおいて撮影された画像であってもよい。複数のモダリティにおいて撮影された眼科画像を数学モデルに入力する場合、各モダリティに対応する予測画像を複数出力させてもよいし、複数のモダリティを代表するモダリティに対応する予測画像を出力させてもよい。この場合、代表のモダリティ以外の眼科画像は付加情報として数学モデルに入力される。 The imaging unit that captures an ophthalmologic image may include, for example, any one of an optical system such as a fundus camera, OCT, SLO, or Shine-Pluke camera, or may be a multifunction device. The image acquisition unit may acquire an image captured by these optical systems. Note that the image processing unit may input a plurality of ophthalmic images into the mathematical model. The plurality of ophthalmic images may be images taken with the same modality, or may be images taken with a plurality of modalities. When inputting ophthalmic images taken in a plurality of modalities into a mathematical model, a plurality of predicted images corresponding to each modality may be output, or a predicted image corresponding to a modality representing a plurality of modalities may be output. Good. In this case, ophthalmic images other than the representative modalities are input to the mathematical model as additional information.
なお、画像処理部は、眼科画像に対して血管を抽出する処理を行い、抽出された血管画像を数学モデルに入力してもよい。このとき、血管の動静脈の識別結果を付与してもよい。
例えば、画像処理部は、正常眼の血管抽出画像を数学モデルに入力することによって、その正常眼が疾患になったときの予測眼底画像を出力させてもよい。この場合、疾患眼から血管を抽出した画像を作成し、その血管抽出画像を入力、疾患を伴う眼底画像を出力の正解値として数学モデルに学習させてもよい。これによって、正常な眼底画像とそれに対応した疾患画像が入手できない場合であっても数学モデルを学習させることができる。また、画像処理部は、血管抽出画像と眼底画像の両方を数学モデルに入力してもよい。この場合、眼底画像から色情報を獲得できるため、違った色合いの眼底画像が生成されることを低減できる。
Note that the image processing unit may perform a process of extracting blood vessels on the ophthalmologic image, and input the extracted blood vessel image into the mathematical model. At this time, a blood vessel arteriovenous identification result may be given.
For example, the image processing unit may output a predicted fundus image when the normal eye becomes a disease by inputting a blood vessel extraction image of the normal eye into the mathematical model. In this case, an image obtained by extracting blood vessels from a diseased eye may be created, the blood vessel extraction image may be input, and a fundus image with a disease may be learned as a correct answer value by the mathematical model. Thereby, even when a normal fundus image and a disease image corresponding to the normal fundus image are not available, the mathematical model can be learned. The image processing unit may input both the blood vessel extraction image and the fundus image into the mathematical model. In this case, since color information can be acquired from the fundus image, generation of a fundus image having a different hue can be reduced.
なお、眼画像処理装置のプロセッサは、記憶部等に記憶された眼科画像処理プログラムを実行してもよい。眼科画像処理プログラムは、例えば、画像取得ステップと、画像処理ステップとを含む。画像取得ステップは、例えば、撮影部によって撮影された眼科画像を取得する画像取得ステップである。画像処理ステップは、機械学習アルゴリズムによって訓練された数学モデルに被検眼の眼科画像を入力することによって、被検眼の組織変化を予測した予測画像を生成するステップである。 Note that the processor of the eye image processing apparatus may execute an ophthalmic image processing program stored in a storage unit or the like. The ophthalmic image processing program includes, for example, an image acquisition step and an image processing step. The image acquisition step is, for example, an image acquisition step for acquiring an ophthalmic image captured by the imaging unit. The image processing step is a step of generating a predicted image in which a tissue change of the eye to be examined is predicted by inputting an ophthalmic image of the eye to be examined into a mathematical model trained by a machine learning algorithm.
なお、画像処理部は、網膜層の厚さを示す厚みマップを予測画像として出力してもよい。厚みマップは、例えば、OCTによって取得されたデータに基づいて作成される。厚みマップが予測画像として出力されることよって、検者は、網膜の厚さが変化する疾患を予測画像から見つけ出すことが容易となる。また、画像処理部は、眼科画像から血管を抽出した血管画像を予測画像として出力してもよい。これによって、検者は、血管形状または血管数が変化する疾患を予測画像から見つけ出すことが容易となる。また、画像処理部は、厚みマップと血管画像を予測画像として出力させてもよいし、厚みマップと血管画像を組み合わせた画像を予測画像として出力してもよい。これによって、検者は、網膜の厚みと血管の状態との変化の関係性を確認できる。このように、予測画像は、特定の画像に限らず、種々の画像であってもよい。画像処理部は、入力した眼科画像とは異なる種類の予測画像を出力させてもよい。画像処理部は、入力した画像よりも多くの予測画像を出力させてもよいし、入力した画像よりも少ない予測画像を出力させてもよい。 Note that the image processing unit may output a thickness map indicating the thickness of the retinal layer as a predicted image. The thickness map is created based on data acquired by OCT, for example. By outputting the thickness map as a predicted image, the examiner can easily find a disease in which the thickness of the retina changes from the predicted image. The image processing unit may output a blood vessel image obtained by extracting blood vessels from the ophthalmic image as a predicted image. This makes it easier for the examiner to find a disease whose blood vessel shape or blood vessel number changes from the predicted image. Further, the image processing unit may output the thickness map and the blood vessel image as a predicted image, or may output an image obtained by combining the thickness map and the blood vessel image as a predicted image. Thus, the examiner can confirm the relationship between changes in the thickness of the retina and the state of the blood vessels. Thus, the predicted image is not limited to a specific image and may be various images. The image processing unit may output a predicted image of a type different from the input ophthalmic image. The image processing unit may output more predicted images than the input images, or may output fewer predicted images than the input images.
なお、画像処理部は、予測画像において変化させた位置を示してもよい。この場合、画像処理部は、数学モデルに入力した眼科画像と出力された予測画像を比較して、変化した位置を検出してもよい。また、画像処理部は、予測画像に対して疾患検出処理などを行い、変化した位置を検出してもよい。画像処理部は、予測画像において変化した位置を強調表示してもよい。例えば、画像処理部は、画像に特定の色を付けたり、マークを付与したりしてもよい。予測画像において変化した位置を示すことによって、検者が予測画像の変化を見逃す可能性を低下させることができる。 Note that the image processing unit may indicate a changed position in the predicted image. In this case, the image processing unit may detect the changed position by comparing the ophthalmic image input to the mathematical model with the output predicted image. Further, the image processing unit may detect a changed position by performing a disease detection process on the predicted image. The image processing unit may highlight the changed position in the predicted image. For example, the image processing unit may add a specific color or a mark to the image. By indicating the changed position in the predicted image, the possibility that the examiner misses the change in the predicted image can be reduced.
なお、画像処理部は、機械学習アルゴリズムによって訓練されたネットワークを用いて眼科画像の解析を行ってもよい。機械学習アルゴリズムは、例えば、ニューラルネットワークが一般的に知られている。 The image processing unit may analyze the ophthalmic image using a network trained by a machine learning algorithm. As a machine learning algorithm, for example, a neural network is generally known.
ニューラルネットワークは、入力された信号に何等かの処理を行った結果を出力するユニットを複数接続したネットワークである。ニューラルネットワークの一種である畳み込みネットワークは画像認識問題に有効な手法である。画像認識問題の代表としては、物体識別、物体検出、セグメンテーションがあり、それぞれの問題に対して様々なモデルが提案されている。 A neural network is a network in which a plurality of units that output the result of performing some processing on an input signal are connected. A convolutional network, which is a kind of neural network, is an effective technique for image recognition problems. Typical image recognition problems include object identification, object detection, and segmentation, and various models have been proposed for each problem.
物体識別は、画像に何が写っているのかを識別する問題で、AlexNet, GoogLeNet等のモデルが提案されている。物体検出は、物体の位置や姿勢を矩形などとして識別する問題で、YOLO等のモデルが提案されている。セマンティックセグメンテーション(semantic segmentation)は、物体がどこにあるのか画素レベルで識別する問題で、U-Net等のモデルが提案されている。また、この他にも、画像の解像度を高める超解像や、モノクロ画像に色を付けるカラリゼーションといった画像を対象とした様々な問題に対して畳み込みネットワークのモデルが提案されている。 Object identification is a problem of identifying what is shown in an image, and models such as AlexNet and GoogLeNet have been proposed. Object detection is a problem that identifies the position and orientation of an object as a rectangle, and models such as YOLO have been proposed. Semantic segmentation is a problem of identifying where an object is located at the pixel level, and a model such as U-Net has been proposed. In addition to this, a convolution network model has been proposed for various problems targeting images such as super-resolution that increases the resolution of an image and colorization that adds color to a monochrome image.
畳み込みネットワーク以外のニューラルネットワークモデルの例としては再帰型ニューラルネットワークがある。再帰型ニューラルネットワークは時系列データを扱えるモデルであり、自然言語処理に有効な手法である。 An example of a neural network model other than a convolutional network is a recursive neural network. A recursive neural network is a model that can handle time-series data, and is an effective technique for natural language processing.
ネットワークは、例えば、入力データと出力データとの関係を表現する構造を指す。ネットワークは、訓練データセットに基づいて最適化される。訓練データセットは、入力訓練データと出力訓練データのセットである。入力訓練データは、ネットワークに入力されるサンプルデータである。例えば、入力訓練データには、過去に撮影された被検眼の画像が用いられる。出力訓練データは、ネットワークが入力訓練データに対して予測するべき値のサンプルデータである。例えば、出力訓練データには、被検眼が疾患になったときの画像、画像のセグメンテーション結果、画像に疾患が存在する領域を示すマップ、または画像に疾患が存在するかを示すラベルなどが用いられる。ネットワークは、ある入力訓練データが入力されたときの出力が、それに対応する出力訓練データに近づくように最適化される。例えばニューラルネットワークでは、ユニットの出力を接続される次のユニットに入力する際に掛けられる重みが更新される。 The network refers to a structure that expresses a relationship between input data and output data, for example. The network is optimized based on the training data set. The training data set is a set of input training data and output training data. The input training data is sample data input to the network. For example, for the input training data, an image of the eye to be examined that was taken in the past is used. The output training data is sample data of values that the network should predict for the input training data. For example, for the output training data, an image when the eye to be examined becomes a disease, a segmentation result of the image, a map indicating a region where the disease exists in the image, or a label indicating whether the disease exists in the image is used. . The network is optimized so that the output when certain input training data is input approaches the corresponding output training data. For example, in a neural network, the weight applied when inputting the output of a unit to the next connected unit is updated.
ニューラルネットワークを用いた物体識別やセグメンテーション等がある一方で、ニューラルネットによる画像を生成する技術も知られている。ネットワークの構造は任意であるが、画像生成はGeneratorと呼ばれる画像を生成するネットワークと、Discriminatorと呼ばれる画像がGeneratorから生成された偽画像か、本物の画像かを見分けるネットワークから構成される。Generatorは自身が生成した画像をDiscriminatorが本物と間違えるように、DiscriminatorはGeneratorが生成した画像は偽物、本物の画像は本物と識別できるように、両者が互いに競い合って成長していく。このように学習を繰り返していくことで、Generatorは現実的な画像を生成できるようになっていく。 While there are object identification and segmentation using a neural network, a technique for generating an image using a neural network is also known. Although the network structure is arbitrary, image generation is composed of a network that generates an image called a generator and a network that distinguishes whether an image called a discriminator is a fake image generated from the generator or a real image. The generator grows by competing with each other so that the image generated by the generator can be mistaken for the real discriminator, and the discriminator can discriminate the image generated by the generator from the fake and the real image. By repeating learning in this way, the Generator can generate realistic images.
<実施例>
以下、本開示に係る実施例を図面に基づいて説明する。本実施例の眼科画像処理装置は、数学モデルを用いて眼科画像を処理することによって、被検眼の変化を予測した予測画像を生成する。
<Example>
Hereinafter, embodiments according to the present disclosure will be described with reference to the drawings. The ophthalmologic image processing apparatus according to the present embodiment generates a predicted image in which a change in the eye to be examined is predicted by processing the ophthalmic image using a mathematical model.
図1に示すように、眼科画像処理装置100は、例えば、画像取得部171、画像処理部172、記憶部173、表示制御部174、表示部175、操作部176、情報取得部177などを備える。画像取得部171は、被検眼の画像を取得する。画像取得部171は、眼科撮影装置1と有線または無線等の通信手段を介して接続されている。例えば、画像取得部171は、通信手段を介して眼科撮影装置1から眼科画像を受信し、記憶部73等に記憶させる。なお、画像取得部171は、通信手段を介して接続されたHDD、USBメモリ等の外部記憶装置などから眼科画像を取得してもよい。
As shown in FIG. 1, the ophthalmic
画像処理部172は、機械学習アルゴリズムによって訓練された数学モデルを用いて画像処理を行う。例えば、画像処理部172は、被検眼が撮影された眼科画像を数学モデルに入力することによって、被検眼の変化を予測した予測画像を出力させる。画像処理部172による処理結果は、表示部175または記憶部173等に送られる。
The
記憶部173は、眼科画像処理装置100の制御に関わる各種プログラム、各種画像データ、および処理結果などを記憶する。表示制御部174は、表示部175の表示を制御する。表示部175は、画像取得部171によって取得された画像、および画像処理部172による処理結果などを表示する。表示部175は、タッチパネル式のディスプレイであってもよい。この場合、表示部175は、操作部176として兼用される。
The
情報取得部177は、付加情報を取得する。付加情報は、例えば、疾患名、治療方法、疾患または治療の進行度、位置情報などである。情報取得部177は、例えば、操作部176が検者に操作されることによって出力された操作信号に基づいて、付加情報を取得してもよい。また、情報取得部177は、通信手段等によって眼科画像処置装置100と接続された眼科撮影装置、または外部の記憶部等から自動で付加情報を取得してもよい。
The
なお、画像取得部171、画像処理部172、記憶部173、表示制御部174、情報取得部177は、例えば、眼科画像処理装置100として用いられるコンピュータのプロセッサ(例えば、制御部170など)が、各種プログラムを実行することによって実現されてもよいし、それぞれ独立した制御基板として設けられてもよい。
The
眼科画像処理装置100は、例えば、パーソナルコンピュータであってもよい。例えば、眼科画像処理装置100として、デスクトップPC、ノート型PC、またはタブレット型PCが用いられてもよい。もちろん、サーバであってもよい。また、眼科画像処理装置100は、眼科撮影装置1の内部に格納されたコンピュータであってもよい。
The ophthalmic
<眼科撮影装置>
続いて、眼科撮影装置1について説明する。眼科撮影装置1は、被検眼の画像を撮影する。画像取得部171は、眼科撮影装置1と通信手段を介して接続されており、眼科撮影装置1によって撮影された眼科画像を取得する。本実施例では、眼科撮影装置1として眼底カメラを用いた場合を説明する。もちろん、眼底カメラに限らず、OCT(Optical Coherence Tomography)、SLO(Scanning Laser Ophthalmoscope)、シャインプルークカメラ、前眼部撮影装置、角膜内皮細胞撮影装置等によって撮影された眼科画像であってもよい。
<Ophthalmologic imaging device>
Next, the ophthalmologic photographing apparatus 1 will be described. The ophthalmologic photographing apparatus 1 photographs an image of an eye to be examined. The
以下、図2に眼科撮影装置1の概略を説明する。例えば、眼科撮影装置1は、被検眼Eに測定光を照射し、その反射光を受光することによって、被検眼の眼底画像を取得する。眼科撮影装置1は、例えば、照明光学系10、撮影光学系(正面撮影光学系)30、を主に備える。撮影光学系30は、眼底を撮影(例えば、無散瞳状態)することによって赤外眼底画像、カラー眼底画像等を得るための眼底カメラ光学系として用いられる。また、眼科撮影装置1は、フォーカス指標投影光学系40、アライメント指標投影光学系50、前眼部観察光学系60を備えてもよい。
Hereinafter, an outline of the ophthalmologic photographing apparatus 1 will be described with reference to FIG. For example, the ophthalmologic photographing apparatus 1 acquires the fundus image of the eye to be examined by irradiating the eye E with measurement light and receiving the reflected light. The ophthalmologic photographing apparatus 1 mainly includes, for example, an illumination
<照明光学系>
照明光学系10は、例えば、観察照明光学系と撮影照明光学系を有する。撮影照明光学系は、光源14、コンデンサレンズ15、リングスリット17、リレーレンズ18、ミラー19、黒点板20、リレーレンズ21、孔あきミラー22、対物レンズ25を主に備える。撮影光源14は、フラッシュランプ等であってもよい。黒点板20は、中心部に黒点を有する。
<Illumination optics>
The illumination
また、観察照明光学系は、光源11、赤外フィルタ12、コンデンサレンズ13、ダイクロイックミラー16、リングスリット17から対物レンズ25までの光学系を主に備える。光源11は、例えば、ハロゲンランプ等であってもよい。赤外フィルタ12は、例えば、波長750nm以上の近赤外光を透過する。ダイクロックミラー16は、例えば、コンデンサレンズ13とリングスリット17との間に配置される。また、ダイクロイックミラー16は、例えば、光源11からの光を反射し撮影光源14からの光を透過する特性を持つ。
The observation illumination optical system mainly includes an optical system from the
<撮影光学系>
撮影光学系30は、例えば、対物レンズ25、撮影絞り31、フォーカシングレンズ32、結像レンズ33、撮像素子35が主に配置されている。撮影絞り31は、孔あきミラー22の開口近傍に位置する。フォーカシングレンズ32は、光軸方向に移動可能である。撮像素子35は、例えば、可視域に感度を有する撮影に利用可能である。撮影絞り31は、例えば、対物レンズ25に関して被検眼Eの瞳孔と略共役な位置に配置されている。フォーカシングレンズ32は、例えば、モータを備える移動機構49により光軸方向に移動される。
<Photographing optical system>
In the photographic
また、結像レンズ33と撮像素子35の間には、赤外光及び可視光の一部を反射し、可視光の大部分を透過する特性を有するダイクロイックミラー37が配置される。ダイクロイックミラー37の反射方向には、赤外域に感度を有する観察用撮像素子38が配置されている。なお、ダイクロイックミラー37の代わりに、跳ね上げミラーが用いられても良い。跳ね上げミラーは、例えば、眼底観察時に光路に挿入され、眼底撮影時に光路から退避される。
A
なお、対物レンズ25と孔あきミラー22の間には、例えば、光路分岐部材としての挿脱可能なダイクロイックミラー(波長選択性ミラー)24が斜設されている。ダイクロイックミラー24は、例えば、OCT測定光の波長光、及びアライメント指標投影光学系50及び前眼部照明光源58の波長光(中心波長940nm)を反射する。
In addition, between the
また、ダイクロイックミラー24は、例えば、眼底観察用照明の波長光の光源波長(中心波長880nm)を含む波長900nm以下を透過する特性を有する。撮影光学系30によって撮影を行うときには、ダイクロイックミラー24は挿脱機構66により連動して跳ね上げられ、光路外に退避する。挿脱機構66は、ソレノイドとカム等により構成することができる。
The
また、ダイクロイックミラー24の撮像素子35側には、挿脱機構66の駆動により光路補正ガラス28が跳ね上げ可能に配置されている。光路挿入時には、光路補正ガラス28は、ダイクロイックミラー24によってシフトされた光軸L1の位置を補正する役割を持つ。
In addition, the optical
観察用の光源11を発した光束は、赤外フィルタ12により赤外光束とされ、コンデンサレンズ13、ダイクロイックミラー16により反射されてリングスリット17を照明する。そして、リングスリット17を透過した光は、リレーレンズ18、ミラー19、黒点板20、リレーレンズ21を経て孔あきミラー22に達する。孔あきミラー22で反射された光は、補正ガラス28、ダイクロイックミラー24を透過し、対物レンズ25により被検眼Eの瞳孔付近で一旦収束した後、拡散して被検眼眼底部を照明する。
The light beam emitted from the observation
眼底からの反射光は、対物レンズ25、ダイクロイックミラー24、補正ガラス28、孔あきミラー22の開口部、撮影絞り31、フォーカシングレンズ32、結像レンズ33、ダイクロイックミラー37、を介して撮像素子38に結像する。なお、撮像素子38の出力は制御部70に入力され、制御部70は、撮像素子38によって撮像される被検眼の眼底観察画像を表示部75に表示する。
Reflected light from the fundus is obtained through an
また、撮影光源14から発した光束は、コンデンサレンズ15を介して、ダイクロイックミラー16を透過する。その後、眼底観察用の照明光と同様の光路を経て、眼底は可視光により照明される。そして、眼底からの反射光は対物レンズ25、孔あきミラー22の開口部、撮影絞り31、フォーカシングレンズ32、結像レンズ33を経て、撮像素子35に結像する。
Further, the light beam emitted from the photographing
<フォーカス指標投影光学系>
フォーカス指標投影光学系40は、赤外光源41、スリット指標板42、2つの偏角プリズム43、投影レンズ47、照明光学系10の光路に斜設されたスポットミラー44を主に備える。2つの偏角プリズム43は、スリット指標板42に取り付けられる。スポットミラー44は、照明光学系10の光路に斜設される。また、スポットミラー44はレバー45の先端に固着されている。スポットミラー44は、通常は光軸に斜設されるが、撮影前の所定のタイミングで、ロータリソレノイド46の軸の回転により、光路外に退避させられる。
<Focus index projection optical system>
The focus index projection
なお、スポットミラー44は被検眼Eの眼底と共役な位置に配置される。光源41、スリット指標板42、偏角プリズム43、投影レンズ47、スポットミラー44及びレバー45は、フォーカシングレンズ32と連動して移動機構49により光軸方向に移動される。また、フォーカス指標投影光学系40のスリット指標板42の光束は、偏角プリズム43及び投影レンズ47を介してスポットミラー44により反射された後、リレーレンズ21、孔あきミラー22、ダイクロイックミラー24、対物レンズ25を経て被検眼Eの眼底に投影される。眼底へのフォーカスが合っていないとき、2つの指標像は、ずれ方向及びずれ量に応じて分離された状態で眼底上に投影される。一方、フォーカスが合っているときには、2つの指標像は、合致した状態で眼底上に投影される。そして、2つの指標像は、撮像素子38によって眼底像と共に撮像される。
The
<アライメント指標投影光学系>
アライメント指標投影光学系50は、被検眼Eに対して、アライメント用指標光束を投影する。アライメント指標投影光学系50には、図2における左下の点線内の図に示すように、撮影光軸L1を中心として同心円上に45度間隔で赤外光源が複数個配置されている。本実施例における眼科撮影装置は、第1指標投影光学系(0度、及び180)と、第2指標投影光学系と、を主に備える。
<Alignment index projection optical system>
The alignment index projection
第1指標投影光学系は、赤外光源51とコリメーティングレンズ52を持つ。第2指標投影光学系は、第1指標投影光学系とは異なる位置に配置され、6つの赤外光源53を持つ。赤外光源51は、撮影光軸L1を通る垂直平面を挟んで左右対称に配置される。
The first index projection optical system has an infrared
この場合、第1指標投影光学系は被検眼Eの角膜に無限遠の指標を左右方向から投影する。第2指標投影光学系は被検眼Eの角膜に有限遠の指標を上下方向もしくは斜め方向から投影する構成となっている。なお、図2の本図には、便宜上、第1指標投影光学系(0度、及び180度)と、第2指標投影光学系の一部のみ(45度、135度)が図示されている。 In this case, the first index projection optical system projects an index at infinity on the cornea of the eye E from the left-right direction. The second index projection optical system is configured to project a finite index on the cornea of the eye E from the vertical direction or the oblique direction. In FIG. 2, for convenience, the first index projection optical system (0 degrees and 180 degrees) and only a part of the second index projection optical system (45 degrees and 135 degrees) are shown. .
<前眼部観察光学系>
被検眼Eの前眼部を撮像する前眼部観察(撮影)光学系60は、ダイクロイックミラー24の反射側に、絞り63、リレーレンズ64、二次元撮像素子(以下、撮像素子65と省略する場合あり)65を主に備える。撮像素子65は、赤外域の感度を持つ。また、撮像素子65はアライメント指標検出用の撮像手段を兼ね、赤外光を発する前眼部照明光源58により照明された前眼部とアライメント指標が撮像される。前眼部照明光源58により照明された前眼部は、対物レンズ25、ダイクロイックミラー24からリレーレンズ64の光学系を介して撮像素子65により受光される。また、アライメント指標投影光学系50が持つ光源から発せられたアライメント光束は被検眼角膜に投影される。その角膜反射像は対物レンズ25〜リレーレンズ64を介して撮像素子65に受光(投影)される。
<Anterior segment observation optical system>
An anterior ocular segment observation (imaging)
二次元撮像素子65の出力は制御部70に入力され、表示部75には、二次元撮像素子65によって撮像された前眼部像が表示される。なお、前眼部観察光学系60は、被検眼に対する装置本体のアライメント状態を検出するための検出光学系を兼用する。
The output of the two-
なお、孔あきミラー22の穴周辺には、被検者眼の角膜上に光学アライメント指標(ワーキングドット)を形成するための赤外光源(本実施例では、2つだが、これに限定されない)55が配置されている。なお、光源55には、孔あきミラー22の近傍位置に端面が配置される光ファイバに、赤外光を導く構成でも良い。なお、光源55による角膜反射光は、被検者眼Eと撮影部3(装置本体)との作動距離が適切となったときに、撮像素子38の撮像面上に結像される。これにより、検者は表示部75に眼底像が表示された状態で、光源55により形成されるワーキングドットを用いてアライメントの微調整を行えるようになる。
An infrared light source for forming an optical alignment index (working dot) on the cornea of the subject's eye around the hole of the perforated mirror 22 (two in this embodiment, but not limited to this) 55 is arranged. The
<数学モデル>
本実施例では、画像処理部172によって眼科画像を処理する際に、機械学習アルゴリズムによって訓練された数学モデルが用いられる。本実施例の数学モデルは、眼科画像の入力に対して、被検眼の変化を予測した予測画像を生成して出力する。画像処理部71は、数学モデルに眼科画像を入力し、予測画像を出力させる。
<Mathematical model>
In this embodiment, when an ophthalmologic image is processed by the
数学モデルは、例えば、複数の畳み込み層で構成される。数学モデルの構造としては、U-netと呼ばれるネットワークが用いられてもよいし、眼科画像に最適化したネットワーク等が用いられてもよい。本実施例の数学モデルは、任意のネットワーク構造が用いられてもよい。 The mathematical model is composed of a plurality of convolution layers, for example. As the structure of the mathematical model, a network called U-net may be used, or a network optimized for ophthalmic images may be used. An arbitrary network structure may be used for the mathematical model of the present embodiment.
図3は本実施例において用いられる数学モデル200の入出力の関係を示す図である。図3の例では、数学モデル200に対して眼底画像P1が入力されている。数学モデル200は、画像処理部172によって入力された眼底画像P1に対して、被検眼が疾患になった場合の眼底の状態を予測した予測画像Q1を出力する。
FIG. 3 is a diagram showing the input / output relationship of the
図3の数学モデル200を学習させる場合、例えば、正常眼の眼科画像と、その正常眼が疾患になったときの画像(疾患画像)を学習させる。例えば、入力した正常眼の眼科画像に対して数学モデル200から出力された予測画像と、正解値(疾患画像)との誤差を計算し、数学モデル200の重みを更新する。これを誤差が小さくなるまで繰り返すことによって、予測画像の出力に対して適した重みとなるようにする。
When learning the
なお、画像処理部172は、眼科画像だけでなく、情報取得部177によって取得された付加情報210を数学モデル200に入力してもよい。例えば、付加情報210として疾患名211を入力してもよい。例えば、画像処理部172は、糖尿病網膜症、加齢黄斑変性、緑内障等の疾患名211のラベルを眼底画像P1とともに数学モデル200に入力する。これによって、被検眼が疾患名211に該当する疾患になったときの予測画像Q1が数学モデル200から出力される。例えば、眼底画像P1と「糖尿病網膜症」のラベルが入力されると、被検眼が糖尿病網膜症になったときの予測画像Q1が出力される。同様に、眼底画像P1とともに「加齢黄斑変性」のラベルが入力されると、被検眼が加齢黄斑変性になったときの予測画像Q1が出力され、眼底画像P1とともに「緑内障」のラベルが入力されると、被検眼が緑内障になったときの予測画像Q1が出力される。
Note that the
なお、画像処理部172は、付加情報210として疾患の進行度を入力してもよい。例えば、画像処理部172は、複数の段階に分かれた進行度を数学モデル200に入力してもよい。図4は、数学モデル200に対して眼底画像P1と進行度212を入力したときの例である。図4の例では、初期、中期、末期の3段階の進行度212が入力される。例えば、図4(a)では、眼底画像P1とともに、疾患名211として「糖尿病網膜症」が入力され、進行度212として「初期」が入力される。この場合、糖尿病網膜症の初期の予測画像Q2が数学モデル200から出力される。同様に、図4(b)の例では、疾患名211として「糖尿病網膜症」が入力され、進行度212として「中期」が入力されており、数学モデル200からは糖尿病網膜症の中期の予測画像Q3が出力される。また、図4(c)の例では、疾患名211として「糖尿病網膜症」が入力され、進行度212として「末期」が入力されており、数学モデル200からは糖尿病網膜症の末期の予測画像Q4が出力される。このように、数学モデル200は、入力された進行度212に応じた予測画像を出力する。これによって、検者は、疾患の進行を段階的に確認することができる。
Note that the
なお、疾患名211または進行度212などの付加情報210が入力される場合も、上記と同様に数学モデルを学習させる。例えば、正常眼の眼科画像、疾患名、進行度、その正常眼が疾患になったときの画像(疾患画像)を学習させる。例えば、正常眼の眼科画像、疾患名のラベル、進行度のラベルの入力に対して数学モデル200から出力された予測画像と、正解値(ラベルで指定された疾患、進行度の疾患画像)との誤差を計算し、数学モデル200の重みを更新する。これを誤差が小さくなるまで繰り返すことによって、予測画像の出力に対して適した重みとなるようにする。
Note that when
<制御動作>
本実施例の眼科画像処理装置1の制御動作を図5に基づいて説明する。なお、以下の説明では、眼科撮影装置1によって撮影された眼底画像を処理する場合を示す。
<Control action>
The control operation of the ophthalmic image processing apparatus 1 according to this embodiment will be described with reference to FIG. In the following description, a case where a fundus image photographed by the ophthalmologic photographing apparatus 1 is processed is shown.
(ステップS1:眼科画像取得)
まず、眼科撮影装置1によって被検眼の眼底画像が撮影されると、画像取得部171は、その眼底画像を取得する。画像取得部171は、例えば、無線または有線などの通信手段を介し、眼底画像を取得する。例えば、画像取得部171は、眼科撮影装置1の撮像素子35から直接眼底画像を取得してもよいし、眼科撮影装置1の記憶部74等に記憶された眼底画像を取得してもよい。なお、画像取得部171は、眼科撮影装置1から眼底画像を取得してもよいし、USBメモリ等の外部記憶装置に記憶された眼底画像を取得してもよい。
(Step S1: Ophthalmic image acquisition)
First, when a fundus image of the eye to be examined is photographed by the ophthalmologic photographing apparatus 1, the
(ステップS2:付加情報取得)
続いて、情報取得部177は、数学モデル200に入力する付加情報210を取得する。例えば、情報取得部177は、検者の操作に応じて操作部76から出力された操作信号に基づいて付加情報210を取得する。情報取得部177は、例えば、疾患名、疾患の進行度等を取得する。
(Step S2: Acquisition of additional information)
Subsequently, the
(ステップS3:数学モデルへの入力)
画像処理部172は、数学モデル200を用いて眼底画像の処理を行う。例えば、画像処理部172は、画像取得部171によって取得された眼底画像P1と、情報取得部177によって取得された付加情報210のラベルを数学モデル200に入力する。
(Step S3: Input to mathematical model)
The
(ステップS4:予測画像の出力)
眼底画像P1、および付加情報210等が入力されると、数学モデル200によって計算が行われ、付加情報210に応じた予測画像Q1が出力される。例えば、数学モデル200に対して、正常眼の眼底画像P1と、疾患名および疾患の進行度等の疾患状態が入力されることによって、数学モデル200から被検眼が疾患になったときの予測画像Q1が出力される。
(Step S4: Output of predicted image)
When the fundus oculi image P1, the
以上のように、本実施例の眼科画像処理装置100は、被検者自身の眼の画像に基づいて疾患になった場合の予測画像を生成するため、検者は各被検者に合った疾患の説明を行うことができる。また、被検者自身の画像で予測画像が生成されるため、検者は、各被検者の将来的な診断に有用な情報を得ることができる。
As described above, the ophthalmologic
また、上記のように、眼科画像とともに付加情報を数学モデルに入力できるため、様々な状況に応じた予測画像を作成することができる。また、正常眼の眼科画像に基づいて、疾患になったときの予測画像を作成することによって、研修医等の研修にも利用できる。 Further, as described above, additional information can be input to the mathematical model together with the ophthalmic image, so that predicted images corresponding to various situations can be created. In addition, by creating a predicted image when a disease occurs based on an ophthalmologic image of normal eyes, it can also be used for training for residents.
なお、付加情報210として、数学モデル200に疾患の位置情報を入力してもよい。疾患の位置を入力することによって、特定の位置に疾患が発生したときの予測画像を出力することができる。この場合、検者は、被検者の眼底画像において、疾患が発生しそうな位置を操作部176によって入力する。情報取得部177は操作部176からの操作信号に基づいて疾患の位置情報を取得する。画像処理部172は、眼底画像とともに疾患の位置情報を数学モデル200に入力する。数学モデル200は、その位置に疾患が発生したときの予測画像を出力する。
As
なお、眼科画像処理装置100は、疾患状態から治療をすることによって症状がよくなった場合の治療効果を予測して予測画像を生成してもよい。例えば、疾患のある眼底画像と、治療方法のラベルを数学モデル200に入力し、治療後の予測画像を出力させてもよい。例えば、図6に示すように、疾患がある眼底画像P2と、治療方法213のラベルを数学モデル200に入力することによって、疾患が治療されたときの予測画像Q5を出力させる。これによって、検者は、各患者に適した治療の説明を容易に行うことができる。なお、このとき、治療の進行度を数学モデル200に入力してもよい。例えば、初期、中期、終期等の複数の段階で治療の進行度を入力することで、治療の進行度に応じた予測画像が出力されるようにしてもよい。これによって、検者は、治療効果を段階的に確認することができる。
The ophthalmologic
なお、数学モデル200から出力させる予測画像は、通常のカラー画像だけでなく、図7に示すような網膜層の厚みマップQ6、または図8に示すような眼底の血管を抽出した血管画像Q7であってもよい。
The predicted image output from the
なお、画像処理部172は、予測画像として静止画像を生成するだけでなく、動画像を生成してもよい。例えば、複数の予測画像を生成することによって、被検眼の組織変化を予測した動画像を生成してもよい。例えば、疾患の進行が徐々に進行していく動画像を生成してもよい。このように、予測動画像を生成することによって、被検眼の組織変化が分かり易くなる。
Note that the
なお、数学モデル200に入力する眼底画像は、画像取得部171によって取得されたままの画像でもよいし、ノイズを付加した画像でもよい。ノイズを付加することによって、数学モデルを効率的に学習させることができる。また、眼底画像から一旦血管画像を抽出し、血管画像を入力画像としてもよい。
Note that the fundus image input to the
なお、数学モデル200に入力する眼科画像は、眼底カメラによって撮影された眼底正面画像だけでなく、OCTによって撮影された眼底断層画像でもよいし、En-face画像であってもよい。また、前眼部画像であってもよい。
Note that the ophthalmologic image input to the
1 眼科撮影装置
70 制御部
74 記憶部
100 眼科画像処理装置
170 制御部
171 画像取得部
172 画像処理部
173 記憶部
174 表示制御部
175 表示部
177 情報取得部
DESCRIPTION OF SYMBOLS 1
Claims (5)
撮影手段によって撮影された被検眼の眼科画像を取得する画像取得手段と、
機械学習アルゴリズムによって訓練された数学モデルに前記被検眼の眼科画像を入力することによって、前記被検眼の変化を予測した予測画像を出力させる画像処理手段と、を備えることを特徴とする眼科画像処理装置。 An ophthalmic image processing apparatus for processing an ophthalmic image,
Image obtaining means for obtaining an ophthalmic image of the eye to be examined photographed by the photographing means;
An ophthalmic image processing comprising: an image processing unit that outputs a predicted image in which a change in the subject eye is predicted by inputting the ophthalmic image of the subject eye into a mathematical model trained by a machine learning algorithm apparatus.
前記画像処理手段は、前記眼科画像とともに前記付加情報を前記数学モデルに入力することによって、前記予測画像を出力させることを特徴とする請求項1〜3のいずれかの眼科画像処理装置。 It further comprises information acquisition means for acquiring additional information,
The ophthalmic image processing apparatus according to claim 1, wherein the image processing unit outputs the predicted image by inputting the additional information together with the ophthalmic image into the mathematical model.
撮影手段によって撮影された被検眼の眼科画像を取得する画像取得ステップと、
機械学習アルゴリズムによって訓練された数学モデルに前記被検眼の眼科画像を入力することによって、前記被検眼の変化を予測した予測画像を出力させる画像処理ステップと、を前記眼科画像処理装置に実行させることを特徴とする眼科画像処理プログラム。 An ophthalmic image processing program that is executed in an ophthalmic image processing apparatus that processes an ophthalmic image, and is executed by a processor of the ophthalmic image processing apparatus,
An image acquisition step of acquiring an ophthalmologic image of the eye to be examined imaged by the imaging means;
Causing the ophthalmic image processing apparatus to execute an image processing step of outputting a predicted image in which a change in the subject eye is predicted by inputting an ophthalmic image of the subject eye into a mathematical model trained by a machine learning algorithm An ophthalmologic image processing program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018107293A JP2019208852A (en) | 2018-06-04 | 2018-06-04 | Ophthalmologic image processing apparatus and ophthalmologic image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018107293A JP2019208852A (en) | 2018-06-04 | 2018-06-04 | Ophthalmologic image processing apparatus and ophthalmologic image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019208852A true JP2019208852A (en) | 2019-12-12 |
Family
ID=68843801
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018107293A Pending JP2019208852A (en) | 2018-06-04 | 2018-06-04 | Ophthalmologic image processing apparatus and ophthalmologic image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019208852A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021020419A1 (en) * | 2019-07-29 | 2021-02-04 | 株式会社ニデック | Medical image processing device and medical image processing program |
JP2021186466A (en) * | 2020-06-03 | 2021-12-13 | 株式会社ニデック | Ophthalmologic image processing program and ophthalmologic image processing device |
CN116403717A (en) * | 2023-06-08 | 2023-07-07 | 广州视景医疗软件有限公司 | Myopia prediction method and device based on deep learning, terminal equipment and medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006149654A (en) * | 2004-11-29 | 2006-06-15 | Hitachi Omron Terminal Solutions Corp | Support of diagnosis about lesion of eye fundus |
JP2014233611A (en) * | 2013-06-05 | 2014-12-15 | 株式会社東芝 | Treatment planning support apparatus and treatment planning support system |
WO2018035473A2 (en) * | 2016-08-18 | 2018-02-22 | Google Llc | Processing fundus images using machine learning models |
-
2018
- 2018-06-04 JP JP2018107293A patent/JP2019208852A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006149654A (en) * | 2004-11-29 | 2006-06-15 | Hitachi Omron Terminal Solutions Corp | Support of diagnosis about lesion of eye fundus |
JP2014233611A (en) * | 2013-06-05 | 2014-12-15 | 株式会社東芝 | Treatment planning support apparatus and treatment planning support system |
WO2018035473A2 (en) * | 2016-08-18 | 2018-02-22 | Google Llc | Processing fundus images using machine learning models |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021020419A1 (en) * | 2019-07-29 | 2021-02-04 | 株式会社ニデック | Medical image processing device and medical image processing program |
JP2021186466A (en) * | 2020-06-03 | 2021-12-13 | 株式会社ニデック | Ophthalmologic image processing program and ophthalmologic image processing device |
JP7468163B2 (en) | 2020-06-03 | 2024-04-16 | 株式会社ニデック | Ophthalmic image processing program and ophthalmic image processing device |
CN116403717A (en) * | 2023-06-08 | 2023-07-07 | 广州视景医疗软件有限公司 | Myopia prediction method and device based on deep learning, terminal equipment and medium |
CN116403717B (en) * | 2023-06-08 | 2023-09-05 | 广州视景医疗软件有限公司 | Myopia prediction method and device based on deep learning, terminal equipment and medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220175325A1 (en) | Information processing apparatus, information processing method, information processing system, and program | |
JP6098061B2 (en) | Fundus photographing device | |
US20220151483A1 (en) | Ophthalmic apparatus, method for controlling ophthalmic apparatus, and computer-readable medium | |
JP6940349B2 (en) | Ophthalmic equipment | |
JP2019208852A (en) | Ophthalmologic image processing apparatus and ophthalmologic image processing program | |
JP7196908B2 (en) | Ophthalmic image processing device and ophthalmic image processing program | |
JP7194136B2 (en) | OPHTHALMOLOGICAL APPARATUS, OPHTHALMOLOGICAL APPARATUS CONTROL METHOD, AND PROGRAM | |
JP7332463B2 (en) | Control device, optical coherence tomography device, control method for optical coherence tomography device, and program | |
WO2023090023A1 (en) | Ophthalmic device, method for controlling ophthalmic device, and program | |
JP2024045441A (en) | Ophthalmologic image processing device and ophthalmologic image processing program | |
JP6892540B2 (en) | Ophthalmic equipment | |
WO2020116351A1 (en) | Diagnostic assistance device and diagnostic assistance program | |
JP7345610B2 (en) | slit lamp microscope | |
JP2020058615A (en) | Image processing device, learned model, image processing method, and program | |
JP2022104239A (en) | Ophthalmologic information processing device, ophthalmologic apparatus, ophthalmologic information processing method and program | |
US11219363B2 (en) | Ophthalmic apparatus and ophthalmic optical coherence tomography method | |
JP2022037486A (en) | Ophthalmologic image processing apparatus, ophthalmologic apparatus, image quality evaluation method, program, and ophthalmologic image processing system | |
WO2019150862A1 (en) | Blood flow measurement device | |
WO2023203992A1 (en) | Information processing device, method for controlling information processing device, and program | |
JP2022087936A (en) | Ophthalmologic apparatus, actuation method thereof and program | |
JP7252295B2 (en) | Ophthalmic device and ophthalmic measurement method | |
US20230108005A1 (en) | Fundus image processing apparatus and non-transitory computer-readable storage medium | |
JP7302184B2 (en) | Ophthalmic image processing device and ophthalmic image processing program | |
JP2023158821A (en) | Information processing unit, control method of information processing unit, and program | |
JP2021119973A (en) | Photographing device, photographing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210428 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220315 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220921 |