JP2019208852A - Ophthalmologic image processing apparatus and ophthalmologic image processing program - Google Patents

Ophthalmologic image processing apparatus and ophthalmologic image processing program Download PDF

Info

Publication number
JP2019208852A
JP2019208852A JP2018107293A JP2018107293A JP2019208852A JP 2019208852 A JP2019208852 A JP 2019208852A JP 2018107293 A JP2018107293 A JP 2018107293A JP 2018107293 A JP2018107293 A JP 2018107293A JP 2019208852 A JP2019208852 A JP 2019208852A
Authority
JP
Japan
Prior art keywords
image
image processing
eye
predicted
ophthalmic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018107293A
Other languages
Japanese (ja)
Inventor
祐輔 坂下
Yusuke Sakashita
祐輔 坂下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2018107293A priority Critical patent/JP2019208852A/en
Publication of JP2019208852A publication Critical patent/JP2019208852A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

To provide an ophthalmologic image processing apparatus capable of presenting useful information, and an ophthalmologic image processing program.SOLUTION: An ophthalmologic image processing apparatus for processing an ophthalmologic image includes: image acquisition means for acquiring the ophthalmologic image of a subject's eye, which is taken by photographing means; and image processing means for outputting a prediction image predicting the change of the subject's eye, by inputting the ophthalmologic image of the subject's eye into a mathematical model trained on the basis of a machine learning algorithm.SELECTED DRAWING: Figure 3

Description

被検眼の眼科画像を処理するための眼科画像処理装置、および眼科画像処理プログラムに関する。   The present invention relates to an ophthalmic image processing apparatus and an ophthalmic image processing program for processing an ophthalmic image of an eye to be examined.

近年、画像認識分野においてニューラルネットワークが注目されており(特許文献1参照)、医療画像への応用が期待されている。   In recent years, neural networks have attracted attention in the field of image recognition (see Patent Document 1) and are expected to be applied to medical images.

ニューラルネットワークを基礎とするディープラーニング(Deep Learning)は、主に画像認識、セグメンテーションで使われている一方、近年では画像生成も盛んに行われている。   Deep learning based on neural networks is mainly used for image recognition and segmentation, and in recent years, image generation is also actively performed.

特開2017−219960号公報JP 2017-219960 A

ところで、眼科分野において、患者に眼の状態を説明する際、臨床的な画像を見せて説明している。しかしながら、代表的な眼の疾患画像を見せているに過ぎないため、患者自身が疾患の状態について理解するには情報が不足している場合があった。   By the way, in the ophthalmology field, when explaining the state of the eye to a patient, a clinical image is shown for explanation. However, since only a typical eye disease image is shown, there is a case where information is insufficient for the patient himself to understand the disease state.

本開示は、従来の問題点に鑑み、有用な情報を提示できる眼科画像処理装置および眼科画像処理プログラムを提供することを技術課題とする。   In view of the conventional problems, it is an object of the present disclosure to provide an ophthalmic image processing apparatus and an ophthalmic image processing program capable of presenting useful information.

上記課題を解決するために、本開示は以下のような構成を備えることを特徴とする。   In order to solve the above problems, the present disclosure is characterized by having the following configuration.

(1) 眼科画像を処理する眼科画像処理装置であって、撮影手段によって撮影された被検眼の眼科画像を取得する画像取得手段と、機械学習アルゴリズムによって訓練された数学モデルに前記被検眼の眼科画像を入力することによって、前記被検眼の変化を予測した予測画像を出力させる画像処理手段と、を備えることを特徴とする。
(2) 眼科画像を処理する眼科画像処理装置において実行される眼科画像処理プログラムであって、前記眼科画像処理装置のプロセッサによって実行されることで、撮影手段によって撮影された被検眼の眼科画像を取得する画像取得ステップと、機械学習アルゴリズムによって訓練された数学モデルに前記被検眼の眼科画像を入力することによって、前記被検眼の変化を予測した予測画像を出力させる画像処理ステップと、を前記眼科画像処理装置に実行させることを特徴とする。
(1) An ophthalmologic image processing apparatus for processing an ophthalmologic image, wherein an ophthalmologic image of the eye to be examined is acquired by an image acquisition means for acquiring an ophthalmologic image of the eye to be examined photographed by the photographing means and a mathematical model trained by a machine learning algorithm Image processing means for outputting a predicted image obtained by predicting a change in the eye to be examined by inputting an image.
(2) An ophthalmic image processing program that is executed in an ophthalmic image processing apparatus that processes an ophthalmic image, and is executed by a processor of the ophthalmic image processing apparatus so that an ophthalmic image of an eye to be inspected captured by an imaging unit is obtained. An image acquisition step for acquiring an image processing step for outputting a predicted image in which a change in the eye to be examined is predicted by inputting the ophthalmic image of the eye to be examined into a mathematical model trained by a machine learning algorithm. The image processing apparatus is executed.

眼科画像処理装置の概略構成を示す図である。It is a figure which shows schematic structure of an ophthalmic image processing apparatus. 撮影装置の光学系を示す図である。It is a figure which shows the optical system of an imaging device. 数学モデルと、入力と出力の関係について示す図である。It is a figure which shows about a mathematical model and the relationship between an input and an output. 数学モデルに疾患の進行度を入力したときの様子を示す図である。It is a figure which shows a mode when the progress degree of a disease is input into the mathematical model. 制御動作を説明するためのフローチャートである。It is a flowchart for demonstrating control operation. 数学モデルから厚さマップの予測画像を出力させた場合の図である。It is a figure at the time of outputting the prediction image of a thickness map from a mathematical model. 数学モデルから血管画像の予測画像を出力させた場合の図である。It is a figure at the time of outputting the prediction image of a blood vessel image from a mathematical model. 数学モデルから治療後の予測画像を出力させた場合の図である。It is a figure at the time of outputting the prediction image after a treatment from a mathematical model.

<実施形態>
本開示に係る実施形態について説明する。実施形態の眼科画像処理装置(例えば、眼科画像処理装置100)は、眼科画像を処理する。眼科画像処理装置は、例えば、画像取得部(例えば、画像取得部171)と、画像処理部(例えば、画像処理部172)を主に備える。画像取得部は、例えば、撮影部(例えば、眼科撮影装置1)によって撮影された眼科画像を取得する。画像処理部は、例えば、機械学習アルゴリズムによって訓練された数学モデル(ネットワーク)に被検眼の眼科画像を入力することによって、被検眼の変化を予測した予測画像を出力させる。被検眼の変化は、例えば、被検眼の組織変化、形状変化等である。
<Embodiment>
An embodiment according to the present disclosure will be described. The ophthalmic image processing apparatus (for example, ophthalmic image processing apparatus 100) of the embodiment processes an ophthalmic image. The ophthalmic image processing apparatus mainly includes, for example, an image acquisition unit (for example, image acquisition unit 171) and an image processing unit (for example, image processing unit 172). The image acquisition unit acquires, for example, an ophthalmic image captured by an imaging unit (for example, the ophthalmologic imaging apparatus 1). For example, the image processing unit inputs an ophthalmic image of the eye to be examined into a mathematical model (network) trained by a machine learning algorithm, and outputs a predicted image in which a change in the eye to be examined is predicted. The change of the eye to be examined is, for example, a tissue change or a shape change of the eye to be examined.

眼科画像処理装置は、被検者自身の画像に基づいて予測画像を生成するため、検者は被検眼の将来的な変化について容易にイメージすることができる。また、眼の変化について各被検者に応じた説明を行うことができるため、被検者にとって理解し易い。さらに、研修医に眼の変化を学ばせるための研修用ツールとして用いることができる。   Since the ophthalmologic image processing apparatus generates a predicted image based on the subject's own image, the examiner can easily image future changes in the subject's eye. Moreover, since it is possible to explain changes in eyes according to each subject, it is easy for the subject to understand. Furthermore, it can be used as a training tool for letting the trainee learn eye changes.

なお、予測画像は、被検眼が疾患になったときの変化を予測した画像であってもよい。これによって、検者は、被検眼が疾患になったときの変化について容易にイメージすることができる。また、疾患による眼の変化について、被検者自身の予測画像を用いて各被検者に応じた説明を行うことができるため、被検者にとって理解し易い。   Note that the predicted image may be an image in which a change when the eye to be examined becomes a disease is predicted. Thereby, the examiner can easily imagine the change when the eye to be examined becomes a disease. Moreover, since it is possible to explain the eye change due to a disease according to each subject using the predicted image of the subject himself, it is easy for the subject to understand.

なお、予測画像は、被検眼の疾患を治療したときの変化を予測した画像であってもよい。これによって、検者は、被検眼を治療したときの変化について容易にイメージすることができる。また、治療による眼の変化について、被検者自身の予測画像を用いて各被検者に応じた説明を行うことができるため、被検者にとって理解し易い。   Note that the predicted image may be an image in which a change when a disease of the eye to be examined is treated is predicted. Thereby, the examiner can easily imagine the change when the eye to be examined is treated. Moreover, since the change of the eye by treatment can be explained according to each subject using the predicted image of the subject himself, it is easy for the subject to understand.

なお、付加情報を取得する情報取得部(情報取得部177)をさらに備えてもよい。この場合、画像処理部は、眼科画像とともに付加情報を数学モデルに入力することによって、予測画像を出力させてもよい。これによって、検者は、付加情報に応じた予測画像を生成させることができる。例えば、検者は、付加情報を指定することによって、所望の予測画像を生成させることができる。   In addition, you may further provide the information acquisition part (information acquisition part 177) which acquires additional information. In this case, the image processing unit may output the predicted image by inputting additional information together with the ophthalmic image into the mathematical model. Thus, the examiner can generate a predicted image corresponding to the additional information. For example, the examiner can generate a desired predicted image by designating additional information.

付加情報は、例えば、疾患名であってもよい。疾患名は、例えば、加齢黄斑変性(AMD)、糖尿病網膜症、緑内障などの種々の疾患である。眼科画像とともに疾患名を数学モデルに入力することによって、所望の疾患になったときの予測画像を生成させることができる。   The additional information may be a disease name, for example. The disease name is various diseases such as age-related macular degeneration (AMD), diabetic retinopathy, glaucoma and the like. By inputting a disease name together with an ophthalmic image into a mathematical model, a prediction image when a desired disease is obtained can be generated.

付加情報は、例えば、治療方法であってもよい。治療方法は、例えば、種々の手術または投薬などである。眼科画像とともに治療方法を数学モデルに入力することによって、所望の治療を施したときの予測画像を生成させることができる。   The additional information may be a treatment method, for example. The treatment method is, for example, various operations or medications. By inputting the treatment method together with the ophthalmic image into the mathematical model, a predicted image when the desired treatment is performed can be generated.

なお、付加情報は、疾患または治療等の進行度を含んでもよい。この場合、画像処理部は、進行度に基づいて予測画像を生成してもよい。これによって、被検眼の変化を段階的に示す予測画像を生成することができる。なお、進行度は、例えば、初期、中期、末期等の複数の段階に分かれたレベルであってもよい。   Note that the additional information may include the degree of progression of a disease or treatment. In this case, the image processing unit may generate a predicted image based on the degree of progress. As a result, a predicted image that shows changes in the eye to be examined in stages can be generated. Note that the degree of progress may be, for example, a level divided into a plurality of stages such as an initial stage, a middle period, and an end stage.

また、付加情報は、疾患または治療の位置情報を含んでいてもよい。この場合、画像処理部は、位置情報に基づいて予測画像を生成してもよい。例えば、情報取得部は、検者によって指定された位置を付加情報として取得してもよい。これによって、検者は、被検眼の眼科画像の所望の位置が変化した予測画像を作成させることができる。   Further, the additional information may include position information of a disease or treatment. In this case, the image processing unit may generate a predicted image based on the position information. For example, the information acquisition unit may acquire a position designated by the examiner as additional information. Thus, the examiner can create a predicted image in which a desired position of the ophthalmic image of the eye to be examined has changed.

なお、画像処理部は、複数の予測画像を生成することによって、被検眼の変化を予測した動画像を生成してもよい。例えば、画像処理部は、進行度別に生成した予測画像を繋ぎ合わせることで動画像を生成してもよい。これによって、検者は、被検眼の変化を視認し易くなる。   Note that the image processing unit may generate a moving image in which a change in the eye to be examined is predicted by generating a plurality of predicted images. For example, the image processing unit may generate a moving image by connecting predicted images generated for each degree of progress. This makes it easier for the examiner to visually recognize changes in the eye to be examined.

眼科画像を撮影する撮影部は、例えば、眼底カメラ、OCT、SLO、シャインプルークカメラ等のいずれかの光学系を備えてもよいし、複合機であってもよい。画像取得部は、これらの光学系によって撮影された画像を取得してもよい。なお、画像処理部は、数学モデルに複数の眼科画像を入力してもよい。複数の眼科画像は、同一のモダリティによって撮影された画像であってもよいし、複数のモダリティにおいて撮影された画像であってもよい。複数のモダリティにおいて撮影された眼科画像を数学モデルに入力する場合、各モダリティに対応する予測画像を複数出力させてもよいし、複数のモダリティを代表するモダリティに対応する予測画像を出力させてもよい。この場合、代表のモダリティ以外の眼科画像は付加情報として数学モデルに入力される。   The imaging unit that captures an ophthalmologic image may include, for example, any one of an optical system such as a fundus camera, OCT, SLO, or Shine-Pluke camera, or may be a multifunction device. The image acquisition unit may acquire an image captured by these optical systems. Note that the image processing unit may input a plurality of ophthalmic images into the mathematical model. The plurality of ophthalmic images may be images taken with the same modality, or may be images taken with a plurality of modalities. When inputting ophthalmic images taken in a plurality of modalities into a mathematical model, a plurality of predicted images corresponding to each modality may be output, or a predicted image corresponding to a modality representing a plurality of modalities may be output. Good. In this case, ophthalmic images other than the representative modalities are input to the mathematical model as additional information.

なお、画像処理部は、眼科画像に対して血管を抽出する処理を行い、抽出された血管画像を数学モデルに入力してもよい。このとき、血管の動静脈の識別結果を付与してもよい。
例えば、画像処理部は、正常眼の血管抽出画像を数学モデルに入力することによって、その正常眼が疾患になったときの予測眼底画像を出力させてもよい。この場合、疾患眼から血管を抽出した画像を作成し、その血管抽出画像を入力、疾患を伴う眼底画像を出力の正解値として数学モデルに学習させてもよい。これによって、正常な眼底画像とそれに対応した疾患画像が入手できない場合であっても数学モデルを学習させることができる。また、画像処理部は、血管抽出画像と眼底画像の両方を数学モデルに入力してもよい。この場合、眼底画像から色情報を獲得できるため、違った色合いの眼底画像が生成されることを低減できる。
Note that the image processing unit may perform a process of extracting blood vessels on the ophthalmologic image, and input the extracted blood vessel image into the mathematical model. At this time, a blood vessel arteriovenous identification result may be given.
For example, the image processing unit may output a predicted fundus image when the normal eye becomes a disease by inputting a blood vessel extraction image of the normal eye into the mathematical model. In this case, an image obtained by extracting blood vessels from a diseased eye may be created, the blood vessel extraction image may be input, and a fundus image with a disease may be learned as a correct answer value by the mathematical model. Thereby, even when a normal fundus image and a disease image corresponding to the normal fundus image are not available, the mathematical model can be learned. The image processing unit may input both the blood vessel extraction image and the fundus image into the mathematical model. In this case, since color information can be acquired from the fundus image, generation of a fundus image having a different hue can be reduced.

なお、眼画像処理装置のプロセッサは、記憶部等に記憶された眼科画像処理プログラムを実行してもよい。眼科画像処理プログラムは、例えば、画像取得ステップと、画像処理ステップとを含む。画像取得ステップは、例えば、撮影部によって撮影された眼科画像を取得する画像取得ステップである。画像処理ステップは、機械学習アルゴリズムによって訓練された数学モデルに被検眼の眼科画像を入力することによって、被検眼の組織変化を予測した予測画像を生成するステップである。   Note that the processor of the eye image processing apparatus may execute an ophthalmic image processing program stored in a storage unit or the like. The ophthalmic image processing program includes, for example, an image acquisition step and an image processing step. The image acquisition step is, for example, an image acquisition step for acquiring an ophthalmic image captured by the imaging unit. The image processing step is a step of generating a predicted image in which a tissue change of the eye to be examined is predicted by inputting an ophthalmic image of the eye to be examined into a mathematical model trained by a machine learning algorithm.

なお、画像処理部は、網膜層の厚さを示す厚みマップを予測画像として出力してもよい。厚みマップは、例えば、OCTによって取得されたデータに基づいて作成される。厚みマップが予測画像として出力されることよって、検者は、網膜の厚さが変化する疾患を予測画像から見つけ出すことが容易となる。また、画像処理部は、眼科画像から血管を抽出した血管画像を予測画像として出力してもよい。これによって、検者は、血管形状または血管数が変化する疾患を予測画像から見つけ出すことが容易となる。また、画像処理部は、厚みマップと血管画像を予測画像として出力させてもよいし、厚みマップと血管画像を組み合わせた画像を予測画像として出力してもよい。これによって、検者は、網膜の厚みと血管の状態との変化の関係性を確認できる。このように、予測画像は、特定の画像に限らず、種々の画像であってもよい。画像処理部は、入力した眼科画像とは異なる種類の予測画像を出力させてもよい。画像処理部は、入力した画像よりも多くの予測画像を出力させてもよいし、入力した画像よりも少ない予測画像を出力させてもよい。   Note that the image processing unit may output a thickness map indicating the thickness of the retinal layer as a predicted image. The thickness map is created based on data acquired by OCT, for example. By outputting the thickness map as a predicted image, the examiner can easily find a disease in which the thickness of the retina changes from the predicted image. The image processing unit may output a blood vessel image obtained by extracting blood vessels from the ophthalmic image as a predicted image. This makes it easier for the examiner to find a disease whose blood vessel shape or blood vessel number changes from the predicted image. Further, the image processing unit may output the thickness map and the blood vessel image as a predicted image, or may output an image obtained by combining the thickness map and the blood vessel image as a predicted image. Thus, the examiner can confirm the relationship between changes in the thickness of the retina and the state of the blood vessels. Thus, the predicted image is not limited to a specific image and may be various images. The image processing unit may output a predicted image of a type different from the input ophthalmic image. The image processing unit may output more predicted images than the input images, or may output fewer predicted images than the input images.

なお、画像処理部は、予測画像において変化させた位置を示してもよい。この場合、画像処理部は、数学モデルに入力した眼科画像と出力された予測画像を比較して、変化した位置を検出してもよい。また、画像処理部は、予測画像に対して疾患検出処理などを行い、変化した位置を検出してもよい。画像処理部は、予測画像において変化した位置を強調表示してもよい。例えば、画像処理部は、画像に特定の色を付けたり、マークを付与したりしてもよい。予測画像において変化した位置を示すことによって、検者が予測画像の変化を見逃す可能性を低下させることができる。   Note that the image processing unit may indicate a changed position in the predicted image. In this case, the image processing unit may detect the changed position by comparing the ophthalmic image input to the mathematical model with the output predicted image. Further, the image processing unit may detect a changed position by performing a disease detection process on the predicted image. The image processing unit may highlight the changed position in the predicted image. For example, the image processing unit may add a specific color or a mark to the image. By indicating the changed position in the predicted image, the possibility that the examiner misses the change in the predicted image can be reduced.

なお、画像処理部は、機械学習アルゴリズムによって訓練されたネットワークを用いて眼科画像の解析を行ってもよい。機械学習アルゴリズムは、例えば、ニューラルネットワークが一般的に知られている。   The image processing unit may analyze the ophthalmic image using a network trained by a machine learning algorithm. As a machine learning algorithm, for example, a neural network is generally known.

ニューラルネットワークは、入力された信号に何等かの処理を行った結果を出力するユニットを複数接続したネットワークである。ニューラルネットワークの一種である畳み込みネットワークは画像認識問題に有効な手法である。画像認識問題の代表としては、物体識別、物体検出、セグメンテーションがあり、それぞれの問題に対して様々なモデルが提案されている。   A neural network is a network in which a plurality of units that output the result of performing some processing on an input signal are connected. A convolutional network, which is a kind of neural network, is an effective technique for image recognition problems. Typical image recognition problems include object identification, object detection, and segmentation, and various models have been proposed for each problem.

物体識別は、画像に何が写っているのかを識別する問題で、AlexNet, GoogLeNet等のモデルが提案されている。物体検出は、物体の位置や姿勢を矩形などとして識別する問題で、YOLO等のモデルが提案されている。セマンティックセグメンテーション(semantic segmentation)は、物体がどこにあるのか画素レベルで識別する問題で、U-Net等のモデルが提案されている。また、この他にも、画像の解像度を高める超解像や、モノクロ画像に色を付けるカラリゼーションといった画像を対象とした様々な問題に対して畳み込みネットワークのモデルが提案されている。   Object identification is a problem of identifying what is shown in an image, and models such as AlexNet and GoogLeNet have been proposed. Object detection is a problem that identifies the position and orientation of an object as a rectangle, and models such as YOLO have been proposed. Semantic segmentation is a problem of identifying where an object is located at the pixel level, and a model such as U-Net has been proposed. In addition to this, a convolution network model has been proposed for various problems targeting images such as super-resolution that increases the resolution of an image and colorization that adds color to a monochrome image.

畳み込みネットワーク以外のニューラルネットワークモデルの例としては再帰型ニューラルネットワークがある。再帰型ニューラルネットワークは時系列データを扱えるモデルであり、自然言語処理に有効な手法である。   An example of a neural network model other than a convolutional network is a recursive neural network. A recursive neural network is a model that can handle time-series data, and is an effective technique for natural language processing.

ネットワークは、例えば、入力データと出力データとの関係を表現する構造を指す。ネットワークは、訓練データセットに基づいて最適化される。訓練データセットは、入力訓練データと出力訓練データのセットである。入力訓練データは、ネットワークに入力されるサンプルデータである。例えば、入力訓練データには、過去に撮影された被検眼の画像が用いられる。出力訓練データは、ネットワークが入力訓練データに対して予測するべき値のサンプルデータである。例えば、出力訓練データには、被検眼が疾患になったときの画像、画像のセグメンテーション結果、画像に疾患が存在する領域を示すマップ、または画像に疾患が存在するかを示すラベルなどが用いられる。ネットワークは、ある入力訓練データが入力されたときの出力が、それに対応する出力訓練データに近づくように最適化される。例えばニューラルネットワークでは、ユニットの出力を接続される次のユニットに入力する際に掛けられる重みが更新される。   The network refers to a structure that expresses a relationship between input data and output data, for example. The network is optimized based on the training data set. The training data set is a set of input training data and output training data. The input training data is sample data input to the network. For example, for the input training data, an image of the eye to be examined that was taken in the past is used. The output training data is sample data of values that the network should predict for the input training data. For example, for the output training data, an image when the eye to be examined becomes a disease, a segmentation result of the image, a map indicating a region where the disease exists in the image, or a label indicating whether the disease exists in the image is used. . The network is optimized so that the output when certain input training data is input approaches the corresponding output training data. For example, in a neural network, the weight applied when inputting the output of a unit to the next connected unit is updated.

ニューラルネットワークを用いた物体識別やセグメンテーション等がある一方で、ニューラルネットによる画像を生成する技術も知られている。ネットワークの構造は任意であるが、画像生成はGeneratorと呼ばれる画像を生成するネットワークと、Discriminatorと呼ばれる画像がGeneratorから生成された偽画像か、本物の画像かを見分けるネットワークから構成される。Generatorは自身が生成した画像をDiscriminatorが本物と間違えるように、DiscriminatorはGeneratorが生成した画像は偽物、本物の画像は本物と識別できるように、両者が互いに競い合って成長していく。このように学習を繰り返していくことで、Generatorは現実的な画像を生成できるようになっていく。   While there are object identification and segmentation using a neural network, a technique for generating an image using a neural network is also known. Although the network structure is arbitrary, image generation is composed of a network that generates an image called a generator and a network that distinguishes whether an image called a discriminator is a fake image generated from the generator or a real image. The generator grows by competing with each other so that the image generated by the generator can be mistaken for the real discriminator, and the discriminator can discriminate the image generated by the generator from the fake and the real image. By repeating learning in this way, the Generator can generate realistic images.

<実施例>
以下、本開示に係る実施例を図面に基づいて説明する。本実施例の眼科画像処理装置は、数学モデルを用いて眼科画像を処理することによって、被検眼の変化を予測した予測画像を生成する。
<Example>
Hereinafter, embodiments according to the present disclosure will be described with reference to the drawings. The ophthalmologic image processing apparatus according to the present embodiment generates a predicted image in which a change in the eye to be examined is predicted by processing the ophthalmic image using a mathematical model.

図1に示すように、眼科画像処理装置100は、例えば、画像取得部171、画像処理部172、記憶部173、表示制御部174、表示部175、操作部176、情報取得部177などを備える。画像取得部171は、被検眼の画像を取得する。画像取得部171は、眼科撮影装置1と有線または無線等の通信手段を介して接続されている。例えば、画像取得部171は、通信手段を介して眼科撮影装置1から眼科画像を受信し、記憶部73等に記憶させる。なお、画像取得部171は、通信手段を介して接続されたHDD、USBメモリ等の外部記憶装置などから眼科画像を取得してもよい。   As shown in FIG. 1, the ophthalmic image processing apparatus 100 includes, for example, an image acquisition unit 171, an image processing unit 172, a storage unit 173, a display control unit 174, a display unit 175, an operation unit 176, an information acquisition unit 177, and the like. . The image acquisition unit 171 acquires an image of the eye to be examined. The image acquisition unit 171 is connected to the ophthalmologic photographing apparatus 1 via a wired or wireless communication means. For example, the image acquisition unit 171 receives an ophthalmic image from the ophthalmologic photographing apparatus 1 via the communication unit, and stores it in the storage unit 73 or the like. Note that the image acquisition unit 171 may acquire an ophthalmic image from an external storage device such as an HDD or a USB memory connected via a communication unit.

画像処理部172は、機械学習アルゴリズムによって訓練された数学モデルを用いて画像処理を行う。例えば、画像処理部172は、被検眼が撮影された眼科画像を数学モデルに入力することによって、被検眼の変化を予測した予測画像を出力させる。画像処理部172による処理結果は、表示部175または記憶部173等に送られる。   The image processing unit 172 performs image processing using a mathematical model trained by a machine learning algorithm. For example, the image processing unit 172 outputs a predicted image in which a change in the eye to be examined is predicted by inputting an ophthalmic image obtained by photographing the eye to be examined into a mathematical model. The processing result by the image processing unit 172 is sent to the display unit 175, the storage unit 173, or the like.

記憶部173は、眼科画像処理装置100の制御に関わる各種プログラム、各種画像データ、および処理結果などを記憶する。表示制御部174は、表示部175の表示を制御する。表示部175は、画像取得部171によって取得された画像、および画像処理部172による処理結果などを表示する。表示部175は、タッチパネル式のディスプレイであってもよい。この場合、表示部175は、操作部176として兼用される。   The storage unit 173 stores various programs related to control of the ophthalmic image processing apparatus 100, various image data, processing results, and the like. The display control unit 174 controls display on the display unit 175. The display unit 175 displays the image acquired by the image acquisition unit 171 and the processing result by the image processing unit 172. The display unit 175 may be a touch panel display. In this case, the display unit 175 is also used as the operation unit 176.

情報取得部177は、付加情報を取得する。付加情報は、例えば、疾患名、治療方法、疾患または治療の進行度、位置情報などである。情報取得部177は、例えば、操作部176が検者に操作されることによって出力された操作信号に基づいて、付加情報を取得してもよい。また、情報取得部177は、通信手段等によって眼科画像処置装置100と接続された眼科撮影装置、または外部の記憶部等から自動で付加情報を取得してもよい。   The information acquisition unit 177 acquires additional information. The additional information includes, for example, a disease name, a treatment method, a disease or progress of treatment, location information, and the like. For example, the information acquisition unit 177 may acquire additional information based on an operation signal output by the operation unit 176 being operated by the examiner. Further, the information acquisition unit 177 may automatically acquire additional information from an ophthalmologic imaging apparatus connected to the ophthalmologic image treatment apparatus 100 by a communication unit or the like, or an external storage unit.

なお、画像取得部171、画像処理部172、記憶部173、表示制御部174、情報取得部177は、例えば、眼科画像処理装置100として用いられるコンピュータのプロセッサ(例えば、制御部170など)が、各種プログラムを実行することによって実現されてもよいし、それぞれ独立した制御基板として設けられてもよい。   The image acquisition unit 171, the image processing unit 172, the storage unit 173, the display control unit 174, and the information acquisition unit 177 are, for example, a computer processor (for example, the control unit 170) used as the ophthalmic image processing apparatus 100. It may be realized by executing various programs, or may be provided as independent control boards.

眼科画像処理装置100は、例えば、パーソナルコンピュータであってもよい。例えば、眼科画像処理装置100として、デスクトップPC、ノート型PC、またはタブレット型PCが用いられてもよい。もちろん、サーバであってもよい。また、眼科画像処理装置100は、眼科撮影装置1の内部に格納されたコンピュータであってもよい。   The ophthalmic image processing apparatus 100 may be a personal computer, for example. For example, a desktop PC, a notebook PC, or a tablet PC may be used as the ophthalmic image processing apparatus 100. Of course, it may be a server. The ophthalmic image processing apparatus 100 may be a computer stored inside the ophthalmic imaging apparatus 1.

<眼科撮影装置>
続いて、眼科撮影装置1について説明する。眼科撮影装置1は、被検眼の画像を撮影する。画像取得部171は、眼科撮影装置1と通信手段を介して接続されており、眼科撮影装置1によって撮影された眼科画像を取得する。本実施例では、眼科撮影装置1として眼底カメラを用いた場合を説明する。もちろん、眼底カメラに限らず、OCT(Optical Coherence Tomography)、SLO(Scanning Laser Ophthalmoscope)、シャインプルークカメラ、前眼部撮影装置、角膜内皮細胞撮影装置等によって撮影された眼科画像であってもよい。
<Ophthalmologic imaging device>
Next, the ophthalmologic photographing apparatus 1 will be described. The ophthalmologic photographing apparatus 1 photographs an image of an eye to be examined. The image acquisition unit 171 is connected to the ophthalmologic photographing apparatus 1 through a communication unit, and acquires an ophthalmic image photographed by the ophthalmic photographing apparatus 1. In this embodiment, a case where a fundus camera is used as the ophthalmologic photographing apparatus 1 will be described. Of course, it is not limited to the fundus camera, and may be an ophthalmologic image photographed by an OCT (Optical Coherence Tomography), SLO (Scanning Laser Ophthalmoscope), a Shine-Pluke camera, an anterior eye photographing device, a corneal endothelial cell photographing device, or the like.

以下、図2に眼科撮影装置1の概略を説明する。例えば、眼科撮影装置1は、被検眼Eに測定光を照射し、その反射光を受光することによって、被検眼の眼底画像を取得する。眼科撮影装置1は、例えば、照明光学系10、撮影光学系(正面撮影光学系)30、を主に備える。撮影光学系30は、眼底を撮影(例えば、無散瞳状態)することによって赤外眼底画像、カラー眼底画像等を得るための眼底カメラ光学系として用いられる。また、眼科撮影装置1は、フォーカス指標投影光学系40、アライメント指標投影光学系50、前眼部観察光学系60を備えてもよい。   Hereinafter, an outline of the ophthalmologic photographing apparatus 1 will be described with reference to FIG. For example, the ophthalmologic photographing apparatus 1 acquires the fundus image of the eye to be examined by irradiating the eye E with measurement light and receiving the reflected light. The ophthalmologic photographing apparatus 1 mainly includes, for example, an illumination optical system 10 and a photographing optical system (front photographing optical system) 30. The photographing optical system 30 is used as a fundus camera optical system for obtaining an infrared fundus image, a color fundus image, and the like by photographing the fundus (for example, a non-mydriatic state). The ophthalmologic photographing apparatus 1 may include a focus index projection optical system 40, an alignment index projection optical system 50, and an anterior ocular segment observation optical system 60.

<照明光学系>
照明光学系10は、例えば、観察照明光学系と撮影照明光学系を有する。撮影照明光学系は、光源14、コンデンサレンズ15、リングスリット17、リレーレンズ18、ミラー19、黒点板20、リレーレンズ21、孔あきミラー22、対物レンズ25を主に備える。撮影光源14は、フラッシュランプ等であってもよい。黒点板20は、中心部に黒点を有する。
<Illumination optics>
The illumination optical system 10 includes, for example, an observation illumination optical system and a photographing illumination optical system. The photographing illumination optical system mainly includes a light source 14, a condenser lens 15, a ring slit 17, a relay lens 18, a mirror 19, a black spot plate 20, a relay lens 21, a perforated mirror 22, and an objective lens 25. The photographing light source 14 may be a flash lamp or the like. The black spot plate 20 has a black spot at the center.

また、観察照明光学系は、光源11、赤外フィルタ12、コンデンサレンズ13、ダイクロイックミラー16、リングスリット17から対物レンズ25までの光学系を主に備える。光源11は、例えば、ハロゲンランプ等であってもよい。赤外フィルタ12は、例えば、波長750nm以上の近赤外光を透過する。ダイクロックミラー16は、例えば、コンデンサレンズ13とリングスリット17との間に配置される。また、ダイクロイックミラー16は、例えば、光源11からの光を反射し撮影光源14からの光を透過する特性を持つ。   The observation illumination optical system mainly includes an optical system from the light source 11, the infrared filter 12, the condenser lens 13, the dichroic mirror 16, and the ring slit 17 to the objective lens 25. The light source 11 may be, for example, a halogen lamp. For example, the infrared filter 12 transmits near infrared light having a wavelength of 750 nm or more. The dichroic mirror 16 is disposed, for example, between the condenser lens 13 and the ring slit 17. Further, the dichroic mirror 16 has a characteristic of reflecting light from the light source 11 and transmitting light from the photographing light source 14, for example.

<撮影光学系>
撮影光学系30は、例えば、対物レンズ25、撮影絞り31、フォーカシングレンズ32、結像レンズ33、撮像素子35が主に配置されている。撮影絞り31は、孔あきミラー22の開口近傍に位置する。フォーカシングレンズ32は、光軸方向に移動可能である。撮像素子35は、例えば、可視域に感度を有する撮影に利用可能である。撮影絞り31は、例えば、対物レンズ25に関して被検眼Eの瞳孔と略共役な位置に配置されている。フォーカシングレンズ32は、例えば、モータを備える移動機構49により光軸方向に移動される。
<Photographing optical system>
In the photographic optical system 30, for example, an objective lens 25, a photographing aperture 31, a focusing lens 32, an imaging lens 33, and an image sensor 35 are mainly disposed. The photographing aperture 31 is located in the vicinity of the aperture of the perforated mirror 22. The focusing lens 32 is movable in the optical axis direction. The image sensor 35 can be used for imaging having sensitivity in the visible range, for example. For example, the photographing aperture 31 is disposed at a position substantially conjugate with the pupil of the eye E with respect to the objective lens 25. The focusing lens 32 is moved in the optical axis direction by a moving mechanism 49 including a motor, for example.

また、結像レンズ33と撮像素子35の間には、赤外光及び可視光の一部を反射し、可視光の大部分を透過する特性を有するダイクロイックミラー37が配置される。ダイクロイックミラー37の反射方向には、赤外域に感度を有する観察用撮像素子38が配置されている。なお、ダイクロイックミラー37の代わりに、跳ね上げミラーが用いられても良い。跳ね上げミラーは、例えば、眼底観察時に光路に挿入され、眼底撮影時に光路から退避される。   A dichroic mirror 37 having a characteristic of reflecting part of infrared light and visible light and transmitting most of visible light is disposed between the imaging lens 33 and the image sensor 35. In the reflection direction of the dichroic mirror 37, an imaging device for observation 38 having sensitivity in the infrared region is disposed. Instead of the dichroic mirror 37, a flip-up mirror may be used. For example, the flip-up mirror is inserted into the optical path during fundus observation, and is retracted from the optical path during fundus imaging.

なお、対物レンズ25と孔あきミラー22の間には、例えば、光路分岐部材としての挿脱可能なダイクロイックミラー(波長選択性ミラー)24が斜設されている。ダイクロイックミラー24は、例えば、OCT測定光の波長光、及びアライメント指標投影光学系50及び前眼部照明光源58の波長光(中心波長940nm)を反射する。   In addition, between the objective lens 25 and the perforated mirror 22, for example, an insertable / detachable dichroic mirror (wavelength selective mirror) 24 as an optical path branching member is provided obliquely. The dichroic mirror 24 reflects, for example, the wavelength light of the OCT measurement light and the wavelength light (center wavelength 940 nm) of the alignment index projection optical system 50 and the anterior ocular segment illumination light source 58.

また、ダイクロイックミラー24は、例えば、眼底観察用照明の波長光の光源波長(中心波長880nm)を含む波長900nm以下を透過する特性を有する。撮影光学系30によって撮影を行うときには、ダイクロイックミラー24は挿脱機構66により連動して跳ね上げられ、光路外に退避する。挿脱機構66は、ソレノイドとカム等により構成することができる。   The dichroic mirror 24 has a characteristic of transmitting a wavelength of 900 nm or less including the light source wavelength (center wavelength 880 nm) of the wavelength light of the fundus observation illumination, for example. When photographing is performed by the photographing optical system 30, the dichroic mirror 24 is flipped up by the insertion / removal mechanism 66 and retracted out of the optical path. The insertion / removal mechanism 66 can be composed of a solenoid and a cam.

また、ダイクロイックミラー24の撮像素子35側には、挿脱機構66の駆動により光路補正ガラス28が跳ね上げ可能に配置されている。光路挿入時には、光路補正ガラス28は、ダイクロイックミラー24によってシフトされた光軸L1の位置を補正する役割を持つ。   In addition, the optical path correction glass 28 is disposed on the image pickup device 35 side of the dichroic mirror 24 so that it can be flipped up by driving the insertion / removal mechanism 66. When the optical path is inserted, the optical path correction glass 28 has a role of correcting the position of the optical axis L1 shifted by the dichroic mirror 24.

観察用の光源11を発した光束は、赤外フィルタ12により赤外光束とされ、コンデンサレンズ13、ダイクロイックミラー16により反射されてリングスリット17を照明する。そして、リングスリット17を透過した光は、リレーレンズ18、ミラー19、黒点板20、リレーレンズ21を経て孔あきミラー22に達する。孔あきミラー22で反射された光は、補正ガラス28、ダイクロイックミラー24を透過し、対物レンズ25により被検眼Eの瞳孔付近で一旦収束した後、拡散して被検眼眼底部を照明する。   The light beam emitted from the observation light source 11 is converted into an infrared light beam by the infrared filter 12 and reflected by the condenser lens 13 and the dichroic mirror 16 to illuminate the ring slit 17. The light transmitted through the ring slit 17 reaches the perforated mirror 22 through the relay lens 18, the mirror 19, the black spot plate 20, and the relay lens 21. The light reflected by the perforated mirror 22 passes through the correction glass 28 and the dichroic mirror 24, and once converges near the pupil of the eye E to be examined by the objective lens 25, and then diffuses to illuminate the fundus of the eye to be examined.

眼底からの反射光は、対物レンズ25、ダイクロイックミラー24、補正ガラス28、孔あきミラー22の開口部、撮影絞り31、フォーカシングレンズ32、結像レンズ33、ダイクロイックミラー37、を介して撮像素子38に結像する。なお、撮像素子38の出力は制御部70に入力され、制御部70は、撮像素子38によって撮像される被検眼の眼底観察画像を表示部75に表示する。   Reflected light from the fundus is obtained through an imaging element 38 via an objective lens 25, a dichroic mirror 24, a correction glass 28, an aperture of a perforated mirror 22, an imaging aperture 31, a focusing lens 32, an imaging lens 33, and a dichroic mirror 37. To form an image. The output of the image sensor 38 is input to the control unit 70, and the control unit 70 displays a fundus observation image of the eye to be inspected captured by the image sensor 38 on the display unit 75.

また、撮影光源14から発した光束は、コンデンサレンズ15を介して、ダイクロイックミラー16を透過する。その後、眼底観察用の照明光と同様の光路を経て、眼底は可視光により照明される。そして、眼底からの反射光は対物レンズ25、孔あきミラー22の開口部、撮影絞り31、フォーカシングレンズ32、結像レンズ33を経て、撮像素子35に結像する。   Further, the light beam emitted from the photographing light source 14 passes through the dichroic mirror 16 via the condenser lens 15. Thereafter, the fundus is illuminated with visible light through the same optical path as the illumination light for fundus observation. Then, the reflected light from the fundus is imaged on the image sensor 35 through the objective lens 25, the opening of the perforated mirror 22, the imaging aperture 31, the focusing lens 32, and the imaging lens 33.

<フォーカス指標投影光学系>
フォーカス指標投影光学系40は、赤外光源41、スリット指標板42、2つの偏角プリズム43、投影レンズ47、照明光学系10の光路に斜設されたスポットミラー44を主に備える。2つの偏角プリズム43は、スリット指標板42に取り付けられる。スポットミラー44は、照明光学系10の光路に斜設される。また、スポットミラー44はレバー45の先端に固着されている。スポットミラー44は、通常は光軸に斜設されるが、撮影前の所定のタイミングで、ロータリソレノイド46の軸の回転により、光路外に退避させられる。
<Focus index projection optical system>
The focus index projection optical system 40 mainly includes an infrared light source 41, a slit index plate 42, two declination prisms 43, a projection lens 47, and a spot mirror 44 obliquely provided in the optical path of the illumination optical system 10. The two declination prisms 43 are attached to the slit indicator plate 42. The spot mirror 44 is provided obliquely in the optical path of the illumination optical system 10. The spot mirror 44 is fixed to the tip of the lever 45. The spot mirror 44 is normally inclined to the optical axis, but is retracted out of the optical path by rotation of the rotary solenoid 46 at a predetermined timing before photographing.

なお、スポットミラー44は被検眼Eの眼底と共役な位置に配置される。光源41、スリット指標板42、偏角プリズム43、投影レンズ47、スポットミラー44及びレバー45は、フォーカシングレンズ32と連動して移動機構49により光軸方向に移動される。また、フォーカス指標投影光学系40のスリット指標板42の光束は、偏角プリズム43及び投影レンズ47を介してスポットミラー44により反射された後、リレーレンズ21、孔あきミラー22、ダイクロイックミラー24、対物レンズ25を経て被検眼Eの眼底に投影される。眼底へのフォーカスが合っていないとき、2つの指標像は、ずれ方向及びずれ量に応じて分離された状態で眼底上に投影される。一方、フォーカスが合っているときには、2つの指標像は、合致した状態で眼底上に投影される。そして、2つの指標像は、撮像素子38によって眼底像と共に撮像される。   The spot mirror 44 is arranged at a position conjugate with the fundus of the eye E. The light source 41, the slit indicator plate 42, the deflection prism 43, the projection lens 47, the spot mirror 44 and the lever 45 are moved in the optical axis direction by the moving mechanism 49 in conjunction with the focusing lens 32. Further, the light flux of the slit index plate 42 of the focus index projection optical system 40 is reflected by the spot mirror 44 via the deflection prism 43 and the projection lens 47, and then the relay lens 21, the perforated mirror 22, the dichroic mirror 24, The light is projected onto the fundus of the eye E through the objective lens 25. When the fundus is out of focus, the two index images are projected onto the fundus in a state of being separated according to the shift direction and the shift amount. On the other hand, when the focus is achieved, the two index images are projected onto the fundus in a matched state. Then, the two index images are captured together with the fundus image by the image sensor 38.

<アライメント指標投影光学系>
アライメント指標投影光学系50は、被検眼Eに対して、アライメント用指標光束を投影する。アライメント指標投影光学系50には、図2における左下の点線内の図に示すように、撮影光軸L1を中心として同心円上に45度間隔で赤外光源が複数個配置されている。本実施例における眼科撮影装置は、第1指標投影光学系(0度、及び180)と、第2指標投影光学系と、を主に備える。
<Alignment index projection optical system>
The alignment index projection optical system 50 projects an alignment index beam onto the eye E. In the alignment index projection optical system 50, as shown in the diagram in the lower left dotted line in FIG. 2, a plurality of infrared light sources are arranged at 45 degree intervals on a concentric circle with the photographing optical axis L1 as the center. The ophthalmologic photographing apparatus in the present embodiment mainly includes a first index projection optical system (0 degrees and 180) and a second index projection optical system.

第1指標投影光学系は、赤外光源51とコリメーティングレンズ52を持つ。第2指標投影光学系は、第1指標投影光学系とは異なる位置に配置され、6つの赤外光源53を持つ。赤外光源51は、撮影光軸L1を通る垂直平面を挟んで左右対称に配置される。   The first index projection optical system has an infrared light source 51 and a collimating lens 52. The second index projection optical system is arranged at a different position from the first index projection optical system and has six infrared light sources 53. The infrared light sources 51 are arranged symmetrically with respect to a vertical plane passing through the photographing optical axis L1.

この場合、第1指標投影光学系は被検眼Eの角膜に無限遠の指標を左右方向から投影する。第2指標投影光学系は被検眼Eの角膜に有限遠の指標を上下方向もしくは斜め方向から投影する構成となっている。なお、図2の本図には、便宜上、第1指標投影光学系(0度、及び180度)と、第2指標投影光学系の一部のみ(45度、135度)が図示されている。   In this case, the first index projection optical system projects an index at infinity on the cornea of the eye E from the left-right direction. The second index projection optical system is configured to project a finite index on the cornea of the eye E from the vertical direction or the oblique direction. In FIG. 2, for convenience, the first index projection optical system (0 degrees and 180 degrees) and only a part of the second index projection optical system (45 degrees and 135 degrees) are shown. .

<前眼部観察光学系>
被検眼Eの前眼部を撮像する前眼部観察(撮影)光学系60は、ダイクロイックミラー24の反射側に、絞り63、リレーレンズ64、二次元撮像素子(以下、撮像素子65と省略する場合あり)65を主に備える。撮像素子65は、赤外域の感度を持つ。また、撮像素子65はアライメント指標検出用の撮像手段を兼ね、赤外光を発する前眼部照明光源58により照明された前眼部とアライメント指標が撮像される。前眼部照明光源58により照明された前眼部は、対物レンズ25、ダイクロイックミラー24からリレーレンズ64の光学系を介して撮像素子65により受光される。また、アライメント指標投影光学系50が持つ光源から発せられたアライメント光束は被検眼角膜に投影される。その角膜反射像は対物レンズ25〜リレーレンズ64を介して撮像素子65に受光(投影)される。
<Anterior segment observation optical system>
An anterior ocular segment observation (imaging) optical system 60 that images the anterior ocular segment of the eye E to be examined is provided on the reflection side of the dichroic mirror 24 with a diaphragm 63, a relay lens 64, a two-dimensional image sensor (hereinafter abbreviated as an image sensor 65). Mainly provided with 65). The image sensor 65 has infrared sensitivity. The imaging element 65 also serves as an imaging means for detecting the alignment index, and the anterior segment illuminated by the anterior segment illumination light source 58 that emits infrared light and the alignment index are imaged. The anterior segment illuminated by the anterior segment illumination light source 58 is received by the imaging element 65 from the objective lens 25 and the dichroic mirror 24 via the optical system of the relay lens 64. Further, the alignment light beam emitted from the light source of the alignment index projection optical system 50 is projected onto the eye cornea to be examined. The cornea reflection image is received (projected) on the image sensor 65 through the objective lens 25 to the relay lens 64.

二次元撮像素子65の出力は制御部70に入力され、表示部75には、二次元撮像素子65によって撮像された前眼部像が表示される。なお、前眼部観察光学系60は、被検眼に対する装置本体のアライメント状態を検出するための検出光学系を兼用する。   The output of the two-dimensional image sensor 65 is input to the control unit 70, and the anterior segment image captured by the two-dimensional image sensor 65 is displayed on the display unit 75. The anterior ocular segment observation optical system 60 also serves as a detection optical system for detecting the alignment state of the apparatus main body with respect to the eye to be examined.

なお、孔あきミラー22の穴周辺には、被検者眼の角膜上に光学アライメント指標(ワーキングドット)を形成するための赤外光源(本実施例では、2つだが、これに限定されない)55が配置されている。なお、光源55には、孔あきミラー22の近傍位置に端面が配置される光ファイバに、赤外光を導く構成でも良い。なお、光源55による角膜反射光は、被検者眼Eと撮影部3(装置本体)との作動距離が適切となったときに、撮像素子38の撮像面上に結像される。これにより、検者は表示部75に眼底像が表示された状態で、光源55により形成されるワーキングドットを用いてアライメントの微調整を行えるようになる。   An infrared light source for forming an optical alignment index (working dot) on the cornea of the subject's eye around the hole of the perforated mirror 22 (two in this embodiment, but not limited to this) 55 is arranged. The light source 55 may have a configuration in which infrared light is guided to an optical fiber having an end face disposed in the vicinity of the perforated mirror 22. The corneal reflected light from the light source 55 is imaged on the imaging surface of the imaging element 38 when the working distance between the subject eye E and the imaging unit 3 (apparatus body) is appropriate. Thus, the examiner can finely adjust the alignment using the working dots formed by the light source 55 in a state where the fundus image is displayed on the display unit 75.

<数学モデル>
本実施例では、画像処理部172によって眼科画像を処理する際に、機械学習アルゴリズムによって訓練された数学モデルが用いられる。本実施例の数学モデルは、眼科画像の入力に対して、被検眼の変化を予測した予測画像を生成して出力する。画像処理部71は、数学モデルに眼科画像を入力し、予測画像を出力させる。
<Mathematical model>
In this embodiment, when an ophthalmologic image is processed by the image processing unit 172, a mathematical model trained by a machine learning algorithm is used. The mathematical model of the present embodiment generates and outputs a predicted image in which a change in the eye to be examined is predicted in response to an ophthalmic image input. The image processing unit 71 inputs an ophthalmic image to the mathematical model and outputs a predicted image.

数学モデルは、例えば、複数の畳み込み層で構成される。数学モデルの構造としては、U-netと呼ばれるネットワークが用いられてもよいし、眼科画像に最適化したネットワーク等が用いられてもよい。本実施例の数学モデルは、任意のネットワーク構造が用いられてもよい。   The mathematical model is composed of a plurality of convolution layers, for example. As the structure of the mathematical model, a network called U-net may be used, or a network optimized for ophthalmic images may be used. An arbitrary network structure may be used for the mathematical model of the present embodiment.

図3は本実施例において用いられる数学モデル200の入出力の関係を示す図である。図3の例では、数学モデル200に対して眼底画像P1が入力されている。数学モデル200は、画像処理部172によって入力された眼底画像P1に対して、被検眼が疾患になった場合の眼底の状態を予測した予測画像Q1を出力する。   FIG. 3 is a diagram showing the input / output relationship of the mathematical model 200 used in this embodiment. In the example of FIG. 3, the fundus image P <b> 1 is input to the mathematical model 200. The mathematical model 200 outputs, with respect to the fundus image P1 input by the image processing unit 172, a predicted image Q1 that predicts the state of the fundus when the eye to be examined becomes a disease.

図3の数学モデル200を学習させる場合、例えば、正常眼の眼科画像と、その正常眼が疾患になったときの画像(疾患画像)を学習させる。例えば、入力した正常眼の眼科画像に対して数学モデル200から出力された予測画像と、正解値(疾患画像)との誤差を計算し、数学モデル200の重みを更新する。これを誤差が小さくなるまで繰り返すことによって、予測画像の出力に対して適した重みとなるようにする。   When learning the mathematical model 200 of FIG. 3, for example, an ophthalmic image of a normal eye and an image (disease image) when the normal eye has a disease are learned. For example, the error between the predicted image output from the mathematical model 200 and the correct answer value (disease image) with respect to the input ophthalmic image of normal eyes is calculated, and the weight of the mathematical model 200 is updated. By repeating this until the error becomes small, a weight suitable for the output of the predicted image is obtained.

なお、画像処理部172は、眼科画像だけでなく、情報取得部177によって取得された付加情報210を数学モデル200に入力してもよい。例えば、付加情報210として疾患名211を入力してもよい。例えば、画像処理部172は、糖尿病網膜症、加齢黄斑変性、緑内障等の疾患名211のラベルを眼底画像P1とともに数学モデル200に入力する。これによって、被検眼が疾患名211に該当する疾患になったときの予測画像Q1が数学モデル200から出力される。例えば、眼底画像P1と「糖尿病網膜症」のラベルが入力されると、被検眼が糖尿病網膜症になったときの予測画像Q1が出力される。同様に、眼底画像P1とともに「加齢黄斑変性」のラベルが入力されると、被検眼が加齢黄斑変性になったときの予測画像Q1が出力され、眼底画像P1とともに「緑内障」のラベルが入力されると、被検眼が緑内障になったときの予測画像Q1が出力される。   Note that the image processing unit 172 may input not only the ophthalmic image but also the additional information 210 acquired by the information acquisition unit 177 to the mathematical model 200. For example, the disease name 211 may be input as the additional information 210. For example, the image processing unit 172 inputs a label of a disease name 211 such as diabetic retinopathy, age-related macular degeneration, glaucoma and the like together with the fundus image P1 to the mathematical model 200. Thus, a predicted image Q1 when the eye to be examined becomes a disease corresponding to the disease name 211 is output from the mathematical model 200. For example, when a fundus image P1 and a label “diabetic retinopathy” are input, a predicted image Q1 when the subject's eye becomes diabetic retinopathy is output. Similarly, when the label “aged macular degeneration” is input together with the fundus oculi image P1, a predicted image Q1 when the eye to be examined becomes age-related macular degeneration is output, and the label “glaucoma” is output together with the fundus oculi image P1. When input, a predicted image Q1 when the eye to be examined has glaucoma is output.

なお、画像処理部172は、付加情報210として疾患の進行度を入力してもよい。例えば、画像処理部172は、複数の段階に分かれた進行度を数学モデル200に入力してもよい。図4は、数学モデル200に対して眼底画像P1と進行度212を入力したときの例である。図4の例では、初期、中期、末期の3段階の進行度212が入力される。例えば、図4(a)では、眼底画像P1とともに、疾患名211として「糖尿病網膜症」が入力され、進行度212として「初期」が入力される。この場合、糖尿病網膜症の初期の予測画像Q2が数学モデル200から出力される。同様に、図4(b)の例では、疾患名211として「糖尿病網膜症」が入力され、進行度212として「中期」が入力されており、数学モデル200からは糖尿病網膜症の中期の予測画像Q3が出力される。また、図4(c)の例では、疾患名211として「糖尿病網膜症」が入力され、進行度212として「末期」が入力されており、数学モデル200からは糖尿病網膜症の末期の予測画像Q4が出力される。このように、数学モデル200は、入力された進行度212に応じた予測画像を出力する。これによって、検者は、疾患の進行を段階的に確認することができる。   Note that the image processing unit 172 may input the degree of disease progression as the additional information 210. For example, the image processing unit 172 may input the degree of progress divided into a plurality of stages into the mathematical model 200. FIG. 4 is an example when the fundus image P1 and the degree of progression 212 are input to the mathematical model 200. In the example of FIG. 4, three stages of progress 212 of the initial stage, the middle period, and the final stage are input. For example, in FIG. 4A, together with the fundus oculi image P1, “diabetic retinopathy” is input as the disease name 211, and “initial” is input as the progression degree 212. In this case, an initial predicted image Q2 of diabetic retinopathy is output from the mathematical model 200. Similarly, in the example of FIG. 4B, “diabetic retinopathy” is input as the disease name 211, and “medium term” is input as the progression degree 212, and the mathematical model 200 predicts the middle stage of diabetic retinopathy. An image Q3 is output. In the example of FIG. 4C, “diabetic retinopathy” is input as the disease name 211, and “end stage” is input as the degree of progression 212, and the predicted image of the end stage of diabetic retinopathy is calculated from the mathematical model 200. Q4 is output. As described above, the mathematical model 200 outputs a predicted image corresponding to the input degree 212 of progress. As a result, the examiner can confirm the progression of the disease step by step.

なお、疾患名211または進行度212などの付加情報210が入力される場合も、上記と同様に数学モデルを学習させる。例えば、正常眼の眼科画像、疾患名、進行度、その正常眼が疾患になったときの画像(疾患画像)を学習させる。例えば、正常眼の眼科画像、疾患名のラベル、進行度のラベルの入力に対して数学モデル200から出力された予測画像と、正解値(ラベルで指定された疾患、進行度の疾患画像)との誤差を計算し、数学モデル200の重みを更新する。これを誤差が小さくなるまで繰り返すことによって、予測画像の出力に対して適した重みとなるようにする。   Note that when additional information 210 such as a disease name 211 or a degree of progression 212 is input, the mathematical model is learned in the same manner as described above. For example, an ophthalmological image of normal eyes, a disease name, a degree of progression, and an image (disease image) when the normal eye becomes a disease are learned. For example, an ophthalmic image of a normal eye, a label of a disease name, a prediction image output from the mathematical model 200 in response to an input of a progress label, and a correct value (disease specified by the label, disease image of the progress) And the weight of the mathematical model 200 is updated. By repeating this until the error becomes small, a weight suitable for the output of the predicted image is obtained.

<制御動作>
本実施例の眼科画像処理装置1の制御動作を図5に基づいて説明する。なお、以下の説明では、眼科撮影装置1によって撮影された眼底画像を処理する場合を示す。
<Control action>
The control operation of the ophthalmic image processing apparatus 1 according to this embodiment will be described with reference to FIG. In the following description, a case where a fundus image photographed by the ophthalmologic photographing apparatus 1 is processed is shown.

(ステップS1:眼科画像取得)
まず、眼科撮影装置1によって被検眼の眼底画像が撮影されると、画像取得部171は、その眼底画像を取得する。画像取得部171は、例えば、無線または有線などの通信手段を介し、眼底画像を取得する。例えば、画像取得部171は、眼科撮影装置1の撮像素子35から直接眼底画像を取得してもよいし、眼科撮影装置1の記憶部74等に記憶された眼底画像を取得してもよい。なお、画像取得部171は、眼科撮影装置1から眼底画像を取得してもよいし、USBメモリ等の外部記憶装置に記憶された眼底画像を取得してもよい。
(Step S1: Ophthalmic image acquisition)
First, when a fundus image of the eye to be examined is photographed by the ophthalmologic photographing apparatus 1, the image acquisition unit 171 acquires the fundus image. The image acquisition unit 171 acquires a fundus image via, for example, a wireless or wired communication unit. For example, the image acquisition unit 171 may acquire a fundus image directly from the imaging device 35 of the ophthalmic imaging apparatus 1 or may acquire a fundus image stored in the storage unit 74 or the like of the ophthalmic imaging apparatus 1. The image acquisition unit 171 may acquire a fundus image from the ophthalmologic photographing apparatus 1 or may acquire a fundus image stored in an external storage device such as a USB memory.

(ステップS2:付加情報取得)
続いて、情報取得部177は、数学モデル200に入力する付加情報210を取得する。例えば、情報取得部177は、検者の操作に応じて操作部76から出力された操作信号に基づいて付加情報210を取得する。情報取得部177は、例えば、疾患名、疾患の進行度等を取得する。
(Step S2: Acquisition of additional information)
Subsequently, the information acquisition unit 177 acquires additional information 210 to be input to the mathematical model 200. For example, the information acquisition unit 177 acquires the additional information 210 based on the operation signal output from the operation unit 76 in accordance with the examiner's operation. The information acquisition unit 177 acquires, for example, a disease name, a disease progress level, and the like.

(ステップS3:数学モデルへの入力)
画像処理部172は、数学モデル200を用いて眼底画像の処理を行う。例えば、画像処理部172は、画像取得部171によって取得された眼底画像P1と、情報取得部177によって取得された付加情報210のラベルを数学モデル200に入力する。
(Step S3: Input to mathematical model)
The image processing unit 172 processes the fundus image using the mathematical model 200. For example, the image processing unit 172 inputs the fundus image P1 acquired by the image acquisition unit 171 and the label of the additional information 210 acquired by the information acquisition unit 177 to the mathematical model 200.

(ステップS4:予測画像の出力)
眼底画像P1、および付加情報210等が入力されると、数学モデル200によって計算が行われ、付加情報210に応じた予測画像Q1が出力される。例えば、数学モデル200に対して、正常眼の眼底画像P1と、疾患名および疾患の進行度等の疾患状態が入力されることによって、数学モデル200から被検眼が疾患になったときの予測画像Q1が出力される。
(Step S4: Output of predicted image)
When the fundus oculi image P1, the additional information 210, and the like are input, calculation is performed by the mathematical model 200, and a predicted image Q1 corresponding to the additional information 210 is output. For example, a predicted image when the eye to be examined becomes a disease from the mathematical model 200 by inputting a fundus image P1 of a normal eye and a disease state such as a disease name and a degree of progression of disease to the mathematical model 200. Q1 is output.

以上のように、本実施例の眼科画像処理装置100は、被検者自身の眼の画像に基づいて疾患になった場合の予測画像を生成するため、検者は各被検者に合った疾患の説明を行うことができる。また、被検者自身の画像で予測画像が生成されるため、検者は、各被検者の将来的な診断に有用な情報を得ることができる。   As described above, the ophthalmologic image processing apparatus 100 according to the present embodiment generates a predicted image when a disease occurs based on the subject's own eye image, and therefore, the examiner is suitable for each subject. An explanation of the disease can be made. In addition, since a predicted image is generated from the subject's own image, the examiner can obtain information useful for future diagnosis of each subject.

また、上記のように、眼科画像とともに付加情報を数学モデルに入力できるため、様々な状況に応じた予測画像を作成することができる。また、正常眼の眼科画像に基づいて、疾患になったときの予測画像を作成することによって、研修医等の研修にも利用できる。   Further, as described above, additional information can be input to the mathematical model together with the ophthalmic image, so that predicted images corresponding to various situations can be created. In addition, by creating a predicted image when a disease occurs based on an ophthalmologic image of normal eyes, it can also be used for training for residents.

なお、付加情報210として、数学モデル200に疾患の位置情報を入力してもよい。疾患の位置を入力することによって、特定の位置に疾患が発生したときの予測画像を出力することができる。この場合、検者は、被検者の眼底画像において、疾患が発生しそうな位置を操作部176によって入力する。情報取得部177は操作部176からの操作信号に基づいて疾患の位置情報を取得する。画像処理部172は、眼底画像とともに疾患の位置情報を数学モデル200に入力する。数学モデル200は、その位置に疾患が発生したときの予測画像を出力する。   As additional information 210, disease position information may be input to the mathematical model 200. By inputting the position of a disease, it is possible to output a prediction image when a disease occurs at a specific position. In this case, the examiner inputs a position where a disease is likely to occur in the fundus image of the subject using the operation unit 176. The information acquisition unit 177 acquires disease position information based on an operation signal from the operation unit 176. The image processing unit 172 inputs disease position information together with the fundus image into the mathematical model 200. The mathematical model 200 outputs a predicted image when a disease occurs at that position.

なお、眼科画像処理装置100は、疾患状態から治療をすることによって症状がよくなった場合の治療効果を予測して予測画像を生成してもよい。例えば、疾患のある眼底画像と、治療方法のラベルを数学モデル200に入力し、治療後の予測画像を出力させてもよい。例えば、図6に示すように、疾患がある眼底画像P2と、治療方法213のラベルを数学モデル200に入力することによって、疾患が治療されたときの予測画像Q5を出力させる。これによって、検者は、各患者に適した治療の説明を容易に行うことができる。なお、このとき、治療の進行度を数学モデル200に入力してもよい。例えば、初期、中期、終期等の複数の段階で治療の進行度を入力することで、治療の進行度に応じた予測画像が出力されるようにしてもよい。これによって、検者は、治療効果を段階的に確認することができる。   The ophthalmologic image processing apparatus 100 may generate a predicted image by predicting a therapeutic effect when symptoms are improved by treating from a disease state. For example, a diseased fundus image and a treatment method label may be input to the mathematical model 200 and a predicted image after treatment may be output. For example, as shown in FIG. 6, a fundus image P2 with a disease and a label of a treatment method 213 are input to the mathematical model 200 to output a predicted image Q5 when the disease is treated. Thus, the examiner can easily explain the treatment suitable for each patient. At this time, the progress of treatment may be input to the mathematical model 200. For example, a prediction image corresponding to the progress of the treatment may be output by inputting the progress of the treatment at a plurality of stages such as the initial stage, the middle stage, and the final stage. Thereby, the examiner can confirm the therapeutic effect in stages.

なお、数学モデル200から出力させる予測画像は、通常のカラー画像だけでなく、図7に示すような網膜層の厚みマップQ6、または図8に示すような眼底の血管を抽出した血管画像Q7であってもよい。   The predicted image output from the mathematical model 200 is not only a normal color image but also a retinal layer thickness map Q6 as shown in FIG. 7 or a blood vessel image Q7 obtained by extracting blood vessels in the fundus as shown in FIG. There may be.

なお、画像処理部172は、予測画像として静止画像を生成するだけでなく、動画像を生成してもよい。例えば、複数の予測画像を生成することによって、被検眼の組織変化を予測した動画像を生成してもよい。例えば、疾患の進行が徐々に進行していく動画像を生成してもよい。このように、予測動画像を生成することによって、被検眼の組織変化が分かり易くなる。   Note that the image processing unit 172 may generate not only a still image as a predicted image but also a moving image. For example, a moving image in which a tissue change of the eye to be examined is predicted may be generated by generating a plurality of predicted images. For example, a moving image in which the progression of the disease gradually progresses may be generated. Thus, by generating the predicted moving image, it becomes easy to understand the tissue change of the eye to be examined.

なお、数学モデル200に入力する眼底画像は、画像取得部171によって取得されたままの画像でもよいし、ノイズを付加した画像でもよい。ノイズを付加することによって、数学モデルを効率的に学習させることができる。また、眼底画像から一旦血管画像を抽出し、血管画像を入力画像としてもよい。   Note that the fundus image input to the mathematical model 200 may be an image as acquired by the image acquisition unit 171 or an image with noise added. By adding noise, the mathematical model can be learned efficiently. Alternatively, a blood vessel image may be once extracted from the fundus image and the blood vessel image may be used as the input image.

なお、数学モデル200に入力する眼科画像は、眼底カメラによって撮影された眼底正面画像だけでなく、OCTによって撮影された眼底断層画像でもよいし、En-face画像であってもよい。また、前眼部画像であってもよい。   Note that the ophthalmologic image input to the mathematical model 200 may be not only a fundus front image captured by a fundus camera, but also a fundus tomographic image captured by OCT or an En-face image. Further, it may be an anterior segment image.

1 眼科撮影装置
70 制御部
74 記憶部
100 眼科画像処理装置
170 制御部
171 画像取得部
172 画像処理部
173 記憶部
174 表示制御部
175 表示部
177 情報取得部
DESCRIPTION OF SYMBOLS 1 Ophthalmic imaging device 70 Control part 74 Storage part 100 Ophthalmology image processing apparatus 170 Control part 171 Image acquisition part 172 Image processing part 173 Storage part 174 Display control part 175 Display part 177 Information acquisition part

Claims (5)

眼科画像を処理する眼科画像処理装置であって、
撮影手段によって撮影された被検眼の眼科画像を取得する画像取得手段と、
機械学習アルゴリズムによって訓練された数学モデルに前記被検眼の眼科画像を入力することによって、前記被検眼の変化を予測した予測画像を出力させる画像処理手段と、を備えることを特徴とする眼科画像処理装置。
An ophthalmic image processing apparatus for processing an ophthalmic image,
Image obtaining means for obtaining an ophthalmic image of the eye to be examined photographed by the photographing means;
An ophthalmic image processing comprising: an image processing unit that outputs a predicted image in which a change in the subject eye is predicted by inputting the ophthalmic image of the subject eye into a mathematical model trained by a machine learning algorithm apparatus.
前記予測画像は、前記被検眼が疾患になったときの変化を予測した画像であることを特徴とする請求項1の眼科画像処理装置。   The ophthalmic image processing apparatus according to claim 1, wherein the predicted image is an image in which a change when the eye to be examined becomes a disease is predicted. 前記予測画像は、前記被検眼の疾患を治療したときの変化を予測した画像であることを特徴とする請求項1の眼科画像処理装置。   The ophthalmic image processing apparatus according to claim 1, wherein the predicted image is an image in which a change when the disease of the eye to be examined is treated is predicted. 付加情報を取得する情報取得手段をさらに備え、
前記画像処理手段は、前記眼科画像とともに前記付加情報を前記数学モデルに入力することによって、前記予測画像を出力させることを特徴とする請求項1〜3のいずれかの眼科画像処理装置。
It further comprises information acquisition means for acquiring additional information,
The ophthalmic image processing apparatus according to claim 1, wherein the image processing unit outputs the predicted image by inputting the additional information together with the ophthalmic image into the mathematical model.
眼科画像を処理する眼科画像処理装置において実行される眼科画像処理プログラムであって、前記眼科画像処理装置のプロセッサによって実行されることで、
撮影手段によって撮影された被検眼の眼科画像を取得する画像取得ステップと、
機械学習アルゴリズムによって訓練された数学モデルに前記被検眼の眼科画像を入力することによって、前記被検眼の変化を予測した予測画像を出力させる画像処理ステップと、を前記眼科画像処理装置に実行させることを特徴とする眼科画像処理プログラム。
An ophthalmic image processing program that is executed in an ophthalmic image processing apparatus that processes an ophthalmic image, and is executed by a processor of the ophthalmic image processing apparatus,
An image acquisition step of acquiring an ophthalmologic image of the eye to be examined imaged by the imaging means;
Causing the ophthalmic image processing apparatus to execute an image processing step of outputting a predicted image in which a change in the subject eye is predicted by inputting an ophthalmic image of the subject eye into a mathematical model trained by a machine learning algorithm An ophthalmologic image processing program.
JP2018107293A 2018-06-04 2018-06-04 Ophthalmologic image processing apparatus and ophthalmologic image processing program Pending JP2019208852A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018107293A JP2019208852A (en) 2018-06-04 2018-06-04 Ophthalmologic image processing apparatus and ophthalmologic image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018107293A JP2019208852A (en) 2018-06-04 2018-06-04 Ophthalmologic image processing apparatus and ophthalmologic image processing program

Publications (1)

Publication Number Publication Date
JP2019208852A true JP2019208852A (en) 2019-12-12

Family

ID=68843801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018107293A Pending JP2019208852A (en) 2018-06-04 2018-06-04 Ophthalmologic image processing apparatus and ophthalmologic image processing program

Country Status (1)

Country Link
JP (1) JP2019208852A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021020419A1 (en) * 2019-07-29 2021-02-04 株式会社ニデック Medical image processing device and medical image processing program
JP2021186466A (en) * 2020-06-03 2021-12-13 株式会社ニデック Ophthalmologic image processing program and ophthalmologic image processing device
CN116403717A (en) * 2023-06-08 2023-07-07 广州视景医疗软件有限公司 Myopia prediction method and device based on deep learning, terminal equipment and medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006149654A (en) * 2004-11-29 2006-06-15 Hitachi Omron Terminal Solutions Corp Support of diagnosis about lesion of eye fundus
JP2014233611A (en) * 2013-06-05 2014-12-15 株式会社東芝 Treatment planning support apparatus and treatment planning support system
WO2018035473A2 (en) * 2016-08-18 2018-02-22 Google Llc Processing fundus images using machine learning models

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006149654A (en) * 2004-11-29 2006-06-15 Hitachi Omron Terminal Solutions Corp Support of diagnosis about lesion of eye fundus
JP2014233611A (en) * 2013-06-05 2014-12-15 株式会社東芝 Treatment planning support apparatus and treatment planning support system
WO2018035473A2 (en) * 2016-08-18 2018-02-22 Google Llc Processing fundus images using machine learning models

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021020419A1 (en) * 2019-07-29 2021-02-04 株式会社ニデック Medical image processing device and medical image processing program
JP2021186466A (en) * 2020-06-03 2021-12-13 株式会社ニデック Ophthalmologic image processing program and ophthalmologic image processing device
JP7468163B2 (en) 2020-06-03 2024-04-16 株式会社ニデック Ophthalmic image processing program and ophthalmic image processing device
CN116403717A (en) * 2023-06-08 2023-07-07 广州视景医疗软件有限公司 Myopia prediction method and device based on deep learning, terminal equipment and medium
CN116403717B (en) * 2023-06-08 2023-09-05 广州视景医疗软件有限公司 Myopia prediction method and device based on deep learning, terminal equipment and medium

Similar Documents

Publication Publication Date Title
US20220175325A1 (en) Information processing apparatus, information processing method, information processing system, and program
JP6098061B2 (en) Fundus photographing device
US20220151483A1 (en) Ophthalmic apparatus, method for controlling ophthalmic apparatus, and computer-readable medium
JP6940349B2 (en) Ophthalmic equipment
JP2019208852A (en) Ophthalmologic image processing apparatus and ophthalmologic image processing program
JP7196908B2 (en) Ophthalmic image processing device and ophthalmic image processing program
JP7194136B2 (en) OPHTHALMOLOGICAL APPARATUS, OPHTHALMOLOGICAL APPARATUS CONTROL METHOD, AND PROGRAM
JP7332463B2 (en) Control device, optical coherence tomography device, control method for optical coherence tomography device, and program
WO2023090023A1 (en) Ophthalmic device, method for controlling ophthalmic device, and program
JP2024045441A (en) Ophthalmologic image processing device and ophthalmologic image processing program
JP6892540B2 (en) Ophthalmic equipment
WO2020116351A1 (en) Diagnostic assistance device and diagnostic assistance program
JP7345610B2 (en) slit lamp microscope
JP2020058615A (en) Image processing device, learned model, image processing method, and program
JP2022104239A (en) Ophthalmologic information processing device, ophthalmologic apparatus, ophthalmologic information processing method and program
US11219363B2 (en) Ophthalmic apparatus and ophthalmic optical coherence tomography method
JP2022037486A (en) Ophthalmologic image processing apparatus, ophthalmologic apparatus, image quality evaluation method, program, and ophthalmologic image processing system
WO2019150862A1 (en) Blood flow measurement device
WO2023203992A1 (en) Information processing device, method for controlling information processing device, and program
JP2022087936A (en) Ophthalmologic apparatus, actuation method thereof and program
JP7252295B2 (en) Ophthalmic device and ophthalmic measurement method
US20230108005A1 (en) Fundus image processing apparatus and non-transitory computer-readable storage medium
JP7302184B2 (en) Ophthalmic image processing device and ophthalmic image processing program
JP2023158821A (en) Information processing unit, control method of information processing unit, and program
JP2021119973A (en) Photographing device, photographing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220921