JP7328489B2 - Ophthalmic image processing device and ophthalmic photographing device - Google Patents
Ophthalmic image processing device and ophthalmic photographing device Download PDFInfo
- Publication number
- JP7328489B2 JP7328489B2 JP2018166449A JP2018166449A JP7328489B2 JP 7328489 B2 JP7328489 B2 JP 7328489B2 JP 2018166449 A JP2018166449 A JP 2018166449A JP 2018166449 A JP2018166449 A JP 2018166449A JP 7328489 B2 JP7328489 B2 JP 7328489B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- ophthalmologic
- processing model
- ophthalmic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
眼科画像の処理を行う眼科画像処理装置、および眼科画像を撮影する眼科撮影装置に関する。 The present invention relates to an ophthalmic image processing apparatus for processing an ophthalmic image and an ophthalmic photographing apparatus for capturing an ophthalmic image.
近年、深層学習による画像処理が成果を上げており、医療画像への応用が期待されている。 In recent years, image processing by deep learning has achieved results, and its application to medical imaging is expected.
ところで、深層学習を用いた画像処理モデルを作成するためには、画像と、それに対応する正解データの組を大量に作成して画像処理モデルに学習させる必要がある。しかしながら、大量の画像に対して正解を付与するアノテーション作業はユーザへの負担が大きかった。また、眼科画像は組織の形状等が複雑であり、アノテーションの難易度が高く、ユーザへの負担が大きかった。 By the way, in order to create an image processing model using deep learning, it is necessary to create a large number of sets of images and correct data corresponding to them, and have the image processing model learn them. However, the annotation work of giving correct answers to a large number of images has been a heavy burden on the user. In addition, ophthalmologic images have complex tissue shapes and the like, which makes annotation difficult and imposes a heavy burden on the user.
本開示は、従来の問題点に鑑み、眼科画像に対するアノテーションを効率化できる眼科画像処理装置、および眼科撮影装置を提供することを技術課題とする。 In view of the conventional problems, the technical problem of the present disclosure is to provide an ophthalmologic image processing apparatus and an ophthalmologic imaging apparatus capable of efficiently annotating ophthalmologic images.
上記課題を解決するために、本開示は以下のような構成を備えることを特徴とする。 In order to solve the above problems, the present disclosure is characterized by having the following configuration.
(1) 被検眼の眼科画像を処理する眼科画像処理装置であって、前記眼科画像を取得する画像取得手段と、前記眼科画像を処理する制御手段と、を備え、前記制御手段は、前記画像取得手段によって取得された前記眼科画像の中から、前記眼科画像における網膜層のセグメンテーションを行う画像処理モデルに学習させる学習用画像を、前記眼科画像を前記画像処理モデルに入力したときの、各画素がどの網膜層であるかを示す確率分布のエントロピーまたは各画素がどの網膜層であるかを示す確率分布の散布度によって選択することを特徴とする。
(2) 被検眼の眼科画像を撮影する眼科撮影装置であって、前記眼科画像を撮影する撮影手段と、前記眼科撮影装置を制御する制御手段と、を備え、前記制御手段は、前記撮影手段によって撮影された前記眼科画像の中から、前記眼科画像における網膜層のセグメンテーションを行う画像処理モデルに学習させる学習用画像を、前記眼科画像を前記画像処理モデルに入力したときの、各画素がどの網膜層であるかを示す確率分布のエントロピーまたは各画素がどの網膜層であるかを示す確率分布の散布度によって選択することを特徴とする。
(1) An ophthalmologic image processing apparatus for processing an ophthalmologic image of an eye to be examined, comprising: image acquisition means for acquiring the ophthalmologic image; and control means for processing the ophthalmologic image, wherein the control means processes the image Each pixel obtained when the ophthalmologic image is input to the image processing model, from among the ophthalmologic images obtained by the obtaining means, to be learned by an image processing model that performs segmentation of the retinal layer in the ophthalmologic image. is selected according to the entropy of the probability distribution indicating which retinal layer each pixel belongs to or the degree of dispersion of the probability distribution indicating which retinal layer each pixel belongs to .
(2) An ophthalmic photographing apparatus for photographing an ophthalmologic image of an eye to be examined, comprising photographing means for photographing the ophthalmic image, and control means for controlling the ophthalmic photographing apparatus, wherein the control means is the photographing means. From among the ophthalmologic images photographed by the above, a training image to be learned by an image processing model that performs segmentation of the retinal layer in the ophthalmologic image is input to the image processing model. The selection is made according to the entropy of the probability distribution indicating whether it is a retinal layer or the degree of scatter of the probability distribution indicating which retinal layer each pixel belongs to .
<実施形態>
以下、本開示に係る実施形態について説明する。本開示の眼科画像処理装置は、被検眼の眼科画像を処理する。眼科画像処理装置は、例えば、画像取得部(例えば、制御部21など)と、制御部(例えば、制御部21など)を備える。画像取得部は、例えば、眼科画像を取得する。制御部は眼科画像を処理する。また、制御部は、画像取得部によって取得された眼科画像の中から、画像処理モデル(例えば、画像処理モデル15)に学習させる学習用画像を選択する。
<Embodiment>
Embodiments according to the present disclosure will be described below. An ophthalmologic image processing apparatus of the present disclosure processes an ophthalmologic image of an eye to be examined. The ophthalmologic image processing apparatus includes, for example, an image acquisition unit (eg,
なお、制御部は、眼科画像を画像処理モデルに入力したときの出力に基づく評価値(例えば、迷い度)によって学習用画像を選択してもよい。評価値は、例えば、画像処理モデルの出力に関するエントロピーであってもよいし、標準偏差、変動係数、分散等であってもよい。 Note that the control unit may select a learning image based on an evaluation value (for example, the degree of confusion) based on an output when the ophthalmologic image is input to the image processing model. The evaluation value may be, for example, entropy relating to the output of the image processing model, standard deviation, coefficient of variation, variance, or the like.
なお、制御部は、学習用画像に対するユーザのアノテーションによって付与されたアノテーション情報(例えば、ラベルなど)を取得してもよい。つまり、制御部は、学習用画像に対してユーザがアノテーションすることによって付与されたアノテーション情報を取得してもよい。なお、アノテーションは、例えば、学習用画像の各画素に対してラベルを付与することである。 Note that the control unit may acquire annotation information (such as a label, for example) attached by the user's annotation to the learning image. That is, the control unit may acquire annotation information added by the user annotating the learning image. Annotation is, for example, assigning a label to each pixel of the learning image.
なお、制御部は、学習用画像に対するアノテーション情報の候補(例えば、候補ラベル)を提示してもよい。例えば、制御部は、アノテーション情報の候補を表示部(例えば、表示部28)などに表示させてもよい。アノテーション情報の候補は、学習用画像を画像処理モデルに入力したときの出力に基づいて作成されたものであってもよい。 Note that the control unit may present annotation information candidates (for example, candidate labels) for the learning images. For example, the control unit may cause the display unit (for example, the display unit 28) to display candidates for annotation information. The annotation information candidates may be created based on the output when the learning image is input to the image processing model.
なお、本開示は、眼科撮影装置に適用してもよい。例えば、被検眼の眼科画像を撮影する眼科撮影装置(例えば、眼科撮影装置30)に適用してもよい。この場合、眼科撮影装置は、撮影部(例えば、眼科画像撮影部34)と、制御部(例えば、制御部31)を備えてもよい。撮影部は、眼科画像を撮影する。制御部は、眼科撮影装置を制御する。また、制御部は、撮影部によって撮影された眼科画像の中から、画像処理モデルに学習させる学習用画像を選択してもよい。この場合、制御部は、撮影部によって眼科画像が撮影される度に、画像処理モデルに学習させるための学習用画像を選択してもよい。 Note that the present disclosure may be applied to an ophthalmic imaging apparatus. For example, it may be applied to an ophthalmologic imaging apparatus (for example, ophthalmologic imaging apparatus 30) that captures an ophthalmologic image of an eye to be examined. In this case, the ophthalmologic imaging apparatus may include an imaging section (eg, ophthalmologic image imaging section 34) and a control section (eg, control section 31). The imaging unit captures an ophthalmologic image. The control unit controls the ophthalmic imaging apparatus. Further, the control unit may select a learning image to be learned by the image processing model from among the ophthalmologic images captured by the imaging unit. In this case, the control unit may select a learning image for learning by the image processing model each time an ophthalmologic image is captured by the imaging unit.
なお、眼科画像処理装置または眼科撮影装置は、学習用画像に対するアノテーションのためのインターフェイス(例えば、操作部27、表示部28、操作部37、表示部38など)を備えてもよい。この場合、制御部(例えば、制御部21または制御部31など)は、インターフェイスへの入力に基づいてアノテーション情報を取得してもよい。なお、制御部(例えば、制御部21または制御部31など)は、学習用画像に基づいて画像処理モデルを構築または更新してもよい。
Note that the ophthalmologic image processing apparatus or ophthalmologic imaging apparatus may include an interface for annotating the learning image (for example, the
<実施例>
以下、本開示における典型的な実施例の1つについて説明する。図1に示すように、本実施例の画像処理モデル構築システム1は、画像処理モデル構築装置10、眼科画像処理装置20、眼科撮影装置30、および画像データベース(以下、画像DBと略す)40などを備える。画像処理モデル構築装置10は、機械学習アルゴリズムによって画像処理モデル15を訓練させることで、画像処理モデル15を構築する。画像処理モデル15は、例えば、被検眼における各々の組織の種類を確率変数とする確率分布を、入力された眼科画像の各領域毎(例えば画素毎)に出力する。この場合、画像処理モデル15によって出力される確率分布に基づいて、眼科画像中の組織が識別される。また、画像処理モデル15は、組織の識別結果を示すマッピング画像を出力してもよい。例えば、図2に示す画像処理モデル15の例では、眼底断層画像が入力されることによって、網膜層ごとに色分けされたマッピング画像が出力される。いわゆる、網膜層のセグメンテーションである。眼科撮影装置30は、被検眼の組織の画像である眼科画像を撮影する。画像DB40は、眼科撮影装置30によって撮影された眼科画像が記憶される。画像DB40は、例えば、サーバなどである。
<Example>
One exemplary embodiment of the present disclosure will now be described. As shown in FIG. 1, the image processing
本実施例の画像処理モデル構築装置10には、例えば、パーソナルコンピュータ(以下、「PC」という)が用いられる。画像処理モデル構築装置10は、例えば、眼科撮影装置30が撮影した眼科画像と、眼科画像における少なくともいずれかの組織の種類を示すラベルとを利用して画像処理モデル15を訓練させることで、画像処理モデル15を構築する。なお、画像処理モデル構築装置10として機能できるデバイスは、PCに限定されない。例えば、眼科画像処理装置20または眼科撮影装置30が画像処理モデル構築装置10として機能してもよい。また、複数のデバイスが、協働して画像処理モデルを構築してもよい。
For example, a personal computer (hereinafter referred to as “PC”) is used for the image processing
また、本実施例の眼科画像処理装置20にはPCが用いられる。しかし、眼科画像処理装置20として機能できるデバイスも、PCに限定されない。例えば、眼科撮影装置30またはサーバ等が、眼科画像処理装置20として機能してもよい。また、タブレット端末またはスマートフォン等の携帯端末が、眼科画像処理装置20として機能してもよい。複数のデバイスの制御部(例えば、PCのCPUと、眼科撮影装置30のCPU32)が、協働して各種処理を行ってもよい。
A PC is used for the ophthalmologic
また、本実施例では、各種処理を行うコントローラの一例としてCPUが用いられる場合について例示する。しかし、各種デバイスの少なくとも一部に、CPU以外のコントローラが用いられてもよいことは言うまでもない。例えば、コントローラとしてGPUを採用することで、処理の高速化を図ってもよい。 Also, in this embodiment, a case in which a CPU is used as an example of a controller that performs various processes will be described. However, it goes without saying that a controller other than the CPU may be used for at least some of the various devices. For example, a GPU may be employed as a controller to speed up processing.
<画像処理モデル構築装置>
画像処理モデル構築装置10について説明する。画像処理モデル構築装置10は、例えば、眼科画像処理装置20または眼科画像処理プログラムをユーザに提供するメーカー等に配置される。画像処理モデル構築装置10は、各種制御処理を行う制御部11を備える。制御部11は、制御を司るコントローラであるCPU12と、プログラムおよびデータ等を記憶することが可能な記憶装置13を備える。記憶装置13には、画像処理モデル構築処理を実行するための画像処理モデル構築プログラムが記憶されている。また、記憶装置13には、ラベル付き画像が記憶されるラベル付き画像データベース(以下、ラベル付き画像DBと略す)14と、画像処理モデル15が記憶される。なお、画像処理モデル構築装置10は、図示なき通信手段によって他のデバイス(例えば、眼科画像処理装置20および眼科撮影装置30等)と接続される。
<Image processing model building device>
The image processing
画像処理モデル構築装置10は、操作部17および表示部18に接続されている。操作部17は、ユーザUが各種指示を画像処理モデル構築装置10に入力するために、ユーザUによって操作される。操作部17には、例えば、キーボード、マウス、タッチパネル等の少なくともいずれかを使用できる。なお、操作部17と共に、または操作部17に代えて、各種指示を入力するためのマイク等が使用されてもよい。表示部18は、各種画像を表示する。表示部18には、画像を表示可能な種々のデバイス(例えば、モニタ、ディスプレイ、プロジェクタ等の少なくともいずれか)を使用できる。なお、本開示における「画像」には、静止画像も動画像も共に含まれる。
The image processing
画像処理モデル構築処理では、訓練データセットによって画像処理モデル15が訓練されることで、眼科画像中の組織を識別するための確率分布を出力する画像処理モデル15が構築される。訓練データセットには、入力側のデータ(入力用訓練データ)と出力側のデータ(出力用訓練データ)が含まれる。
In the image processing model building process, the
画像処理モデル15は、機械学習アルゴリズムに基づいて訓練データセットを学習する。機械学習アルゴリズムとしては、例えば、ニューラルネットワーク、ランダムフォレスト、ブースティング、サポートベクターマシン(SVM)等が一般的に知られている。
The
ニューラルネットワークは、生物の神経細胞ネットワークの挙動を模倣する手法である。ニューラルネットワークには、例えば、フィードフォワード(順伝播型)ニューラルネットワーク、RBFネットワーク(放射基底関数)、スパイキングニューラルネットワーク、畳み込みニューラルネットワーク、再帰型ニューラルネットワーク(リカレントニューラルネット、フィードバックニューラルネット等)、確率的ニューラルネット(ボルツマンマシン、ベイシアンネットワーク等)等がある。 A neural network is a technique that imitates the behavior of a neural network of living organisms. Neural networks include, for example, feedforward neural networks, RBF networks (radial basis functions), spiking neural networks, convolutional neural networks, recurrent neural networks (recurrent neural networks, feedback neural networks, etc.), probability neural networks (Boltzmann machine, Baysian network, etc.), etc.
ランダムフォレストは、ランダムサンプリングされた訓練データに基づいて学習を行って、多数の決定木を生成する方法である。ランダムフォレストを用いる場合、予め識別器として学習しておいた複数の決定木の分岐を辿り、各決定木から得られる結果の平均(あるいは多数決)を取る。 Random forest is a method of learning based on randomly sampled training data to generate a large number of decision trees. When a random forest is used, branches of a plurality of decision trees learned in advance as discriminators are traced, and the average (or majority vote) of the results obtained from each decision tree is taken.
ブースティングは、複数の弱識別器を組み合わせることで強識別器を生成する手法である。単純で弱い識別器を逐次的に学習させることで、強識別器を構築する。 Boosting is a method of generating a strong classifier by combining a plurality of weak classifiers. A strong classifier is constructed by sequentially learning simple and weak classifiers.
SVMは、線形入力素子を利用して2クラスのパターン識別器を構成する手法である。SVMは、例えば、訓練データから、各データ点との距離が最大となるマージン最大化超平面を求めるという基準(超平面分離定理)で、線形入力素子のパラメータを学習する。 SVM is a method of constructing a two-class pattern discriminator using linear input elements. The SVM learns the parameters of the linear input element, for example, based on the criterion of finding the margin-maximizing hyperplane that maximizes the distance to each data point from the training data (hyperplane separation theorem).
画像処理モデルは、例えば、入力データと出力データの関係を予測するためのデータ構造を指す。画像処理モデルは、訓練データセットを用いて訓練されることで構築される。前述したように、訓練データセットは、入力用訓練データと出力用訓練データのセットである。例えば、訓練によって、各入力と出力の相関データ(例えば、重み)が更新される。 An image processing model, for example, refers to a data structure for predicting the relationship between input data and output data. An image processing model is constructed by being trained using a training dataset. As described above, the training data set is a set of input training data and output training data. For example, training updates the correlation data (eg, weights) for each input and output.
本実施例では、機械学習アルゴリズムとして多層型のニューラルネットワークが用いられている。ニューラルネットワークは、データを入力するための入力層と、予測したいデータを生成するための出力層と、入力層と出力層の間の1つ以上の隠れ層を含む。各層には、複数のノード(ユニットとも言われる)が配置される。詳細には、本実施例では、多層型ニューラルネットワークの一種である畳み込みニューラルネットワーク(CNN)が用いられている。 In this embodiment, a multilayer neural network is used as the machine learning algorithm. A neural network includes an input layer for inputting data, an output layer for generating data to be predicted, and one or more hidden layers between the input layer and the output layer. A plurality of nodes (also called units) are arranged in each layer. Specifically, in this embodiment, a convolutional neural network (CNN), which is a type of multilayer neural network, is used.
一例として、本実施例で構築される画像処理モデル15は、眼科画像中の領域(一次元領域、二次元領域、三次元領域、および、時間軸を含む四次元領域のいずれか)内において、特定の組織(例えば、特定の境界、特定の層、または特定の部位等)が存在する座標(一次元座標、二次元座標、三次元座標、および四次元座標のいずれか)を確率変数とする確率分布を、組織を識別するための確率分布として出力する。本実施例では、画像処理モデルに確率分布を出力させるために、ソフトマックス関数が適用されている。
As an example, the
また、他の機械学習アルゴリズムが用いられてもよい。例えば、競合する2つのニューラルネットワークを利用する敵対的生成ネットワーク(Generative adversarial networks:GAN)が、機械学習アルゴリズムとして採用されてもよい。 Other machine learning algorithms may also be used. For example, Generative adversarial networks (GAN), which utilize two competing neural networks, may be employed as machine learning algorithms.
<眼科画像処理装置>
眼科画像処理装置20について説明する。眼科画像処理装置20は、例えば、被検者の診断または検査等を行う施設(例えば、病院または健康診断施設等)に配置される。眼科画像処理装置20は、各種制御処理を行う制御部21を備える。制御部21は、制御を司るコントローラであるCPU22と、プログラムおよびデータ等を記憶することが可能な記憶装置23を備える。記憶装置23には、眼科画像処理を実行するための眼科画像処理プログラムが記憶されている。眼科画像処理プログラムには、画像処理モデル構築装置10によって構築された画像処理モデルを実現させるプログラムが含まれる。眼科画像処理装置20は、図示なき通信手段によって、眼科画像処理モデル構築装置10、眼科撮影装置30、画像DB40などに接続されている。
<Ophthalmic image processing device>
The ophthalmologic
眼科画像処理装置20は、操作部27および表示部28に接続されている。操作部27および表示部28には、前述した操作部7および表示部8と同様に、種々のデバイスを使用することができる。
The ophthalmologic
眼科画像処理装置20は、眼科撮影装置30、または画像DB40から眼科画像を取得することができる。眼科画像処理装置20は、例えば、有線通信、無線通信、着脱可能な記憶媒体(例えばUSBメモリ)等の少なくともいずれかによって、眼科撮影装置30、または画像DB40から眼科画像を取得してもよい。この場合、制御部21は、眼科画像を取得する画像取得手段として機能してもよい。また、眼科画像処理装置20は、画像処理モデル構築装置10によって構築された画像処理モデル15を実現させるプログラム等を、通信手段等を介して取得してもよい。
The ophthalmologic
<眼科撮影装置>
眼科撮影装置30について説明する。本実施例では、眼科撮影装置30として、OCT装置を例示する。ただし、OCT装置以外の眼科撮影装置(例えば、レーザ走査型検眼装置(SLO)、眼底カメラ、シャインプルーフカメラ、または角膜内皮細胞撮影装置(CEM)等)が用いられてもよい。
<Ophthalmic imaging equipment>
The
眼科撮影装置30は、各種制御処理を行う制御部31と、眼科画像撮影部34を備える。制御部31は、制御を司るコントローラであるCPU32と、プログラムおよびデータ等を記憶することが可能な記憶装置33を備える。
The
眼科画像撮影部34は、被検眼の眼科画像を撮影するために必要な各種構成を備える。本実施例の眼科画像撮影部34には、OCT光源、OCT光源から出射されたOCT光を測定光と参照光に分岐する分岐光学素子、測定光を走査するための走査部、測定光を被検眼に照射するための光学系、被検眼の組織によって反射された光と参照光の合成光を受光する受光素子等が含まれる。
The ophthalmologic
眼科撮影装置30は、被検眼の眼底の二次元断層画像および三次元断層画像を撮影することができる。詳細には、CPU32は、スキャンライン上にOCT光(測定光)を走査させることで、スキャンラインに交差する断面の二次元断層画像を撮影する。二次元断層画像は、同一部位の複数の断層画像に対して加算平均処理を行うことで生成された加算平均画像であってもよい。また、CPU32は、OCT光を二次元的に走査することによって、組織における三次元断層画像を撮影することができる。例えば、CPU32は、組織を正面から見た際の二次元の領域内において、位置が互いに異なる複数のスキャンライン上の各々に測定光を走査させることで、複数の二次元断層画像を取得する。次いで、CPU32は、撮影された複数の二次元断層画像を組み合わせることで、三次元断層画像を取得する。
The
<画像処理モデル構築処理>
画像処理モデル構築システム1は、図3のフローチャートに示すように、ステップS1~ステップS8の流れで画像処理モデルを作成する。以下、各ステップについて説明する。
<Image processing model construction processing>
The image processing
(S1:ラベル無し画像の入力)
ステップS1では、ラベルの付いていない眼科画像であるラベル無し画像が、眼科撮影装置30から画像DB40に大量に入力される。例えば、眼科撮影装置30によって撮影されたラベル無し画像が通信手段を介して自動的に送信される。または、ユーザUによって選択されたラベル無し画像が眼科撮影装置30に入力されてもよい。眼科撮影装置30としてOCT装置が用いられる場合、例えば、網膜層のセグメンテーションの行われていない断層画像がラベル無し画像として画像DB40に入力される。
(S1: Input of unlabeled image)
In step S<b>1 , a large amount of unlabeled images, which are unlabeled ophthalmologic images, are input from the
(S2:ランダムに画像選択)
ステップS2において、眼科画像処理装置20の制御部21は、画像DB40に記憶された大量のラベル無し画像のうち一部をランダムに選択し、画像処理モデル15に学習させるための学習用画像としてユーザUに提供する。例えば、制御部21は、選択したラベル無し画像を表示部28に表示してもよい。
(S2: random image selection)
In step S2, the
(S3:ラベル付け)
ステップS3では、眼科画像処理装置20の制御部21によって提供された学習用画像に対して、ユーザUがラベル付け(アノテーション)を行う。ラベル(アノテーション情報)は、組織の識別情報などである。ユーザUは、例えば、ラベル無し画像の各画素に対してラベル付けを行う。ユーザUは、例えば、ペイントツールなどによって網膜層ごとの領域に断層画像を塗り分ける作業を行う。ユーザUは、眼科画像処理装置20の操作部27および表示部28などを用いてラベル付けを行ってもよいし、画像処理モデル構築装置10の操作部17および表示部18などを用いてラベル付けを行ってもよい。また、眼科撮影装置30が操作部37および表示部38を備えている場合、ユーザUは、それらを用いてラベル付けを行ってもよい。
(S3: Labeling)
In step S<b>3 , the user U labels (annotates) the learning images provided by the
(S4:ラベル付き画像の入力)
ステップS4では、ユーザUによってラベル付けされたラベル付き画像が、ラベル付き画像DB14に入力される。例えば、眼科画像処理装置20は、ユーザUによってラベル付けされたラベル付き画像を画像処理モデル構築装置10に送信する。画像処理モデル構築装置10のCPU12は、眼科画像処理装置20から受信したラベル付き画像をラベル付き画像DB14に記憶する。
(S4: Input labeled image)
In step S4, the labeled image labeled by the user U is input to the labeled image DB14. For example, the ophthalmologic
(S5:ラベル付き画像の学習)
ステップS5において、画像処理モデル構築装置10は、ラベル付き画像DB14に記憶されたラベル付き画像を画像処理モデル15に学習させる。例えば、ラベル付き画像の画像のみを入力し、その結果がラベルの情報と近づくように画像処理モデル15の内部パラメータ(重み)が調整される。
(S5: Learning labeled images)
In step S<b>5 , the image processing
(S6:モデルの評価)
ステップS6では、画像処理モデル構築装置10は、画像処理モデル15の精度を評価する。例えば、予め正解の用意された眼科画像を画像処理モデル15に入力し、そのときの出力と、正解との比較によって評価する。また、画像処理モデル15に眼科画像を入力し、そのときの出力が適正かどうか、ユーザUが確認することで評価してもよい。画像処理モデル構築装置10は、画像処理モデル15の評価が良ければ画像処理モデルの構築処理を終了し、評価が悪ければステップS7の処理に移る。
(S6: model evaluation)
In step S<b>6 , the image processing
(S7:迷い度の算出)
ステップS7において、眼科画像処理装置20は、学習途中の画像処理モデル15に画像DB40のラベル無し画像を入力し、この画像に対する画像処理モデル15の迷い度を算出させる。
(S7: Calculation of hesitation degree)
In step S7, the ophthalmologic
本実施例では、迷い度として、各画素がどの網膜層であるかを示す確率分布Pのエントロピー(平均情報量)が算出される。エントロピーは、不確実性、乱雑さ、無秩序の度合いを表す。エントロピーは、以下の式(1)で与えられる。エントロピーH(P)は、0≦H(P)≦log(事象の数)の値を取り、確率分布Pが偏っている程小さな値になる。つまり、エントロピーH(P)が小さい程、画像処理モデル15は迷わずに組織を識別できていることになる。組織が正確に識別される場合の確率分布のエントロピーは、0となる。また、組織の識別が困難になる程、エントロピーH(P)は増大する。従って、迷い度として確率分布PのエントロピーH(P)を用いることで、画像処理モデル15が識別困難な画像(つまり、学習させるべき画像)を判定することができる。
ただし、エントロピー以外の値が迷い度として採用されてもよい。例えば、取得された確率分布Pの散布度を示す標準偏差、変動係数、分散等の少なくともいずれかが迷い度として使用されてもよい。確率分布P同士の差異を図る尺度であるKLダイバージェンス等が迷い度として使用されてもよい。また、取得された確率分布Pの最大値が迷い度として使用されてもよい。また、取得された確率分布Pの最大値と、2番目に大きい値の差が迷い度として使用されてもよい。 However, a value other than entropy may be adopted as the degree of hesitation. For example, at least one of the standard deviation, coefficient of variation, variance, etc. that indicates the degree of dispersion of the obtained probability distribution P may be used as the degree of hesitation. KL divergence or the like, which is a measure of the difference between the probability distributions P, may be used as the degree of hesitation. Also, the maximum value of the acquired probability distribution P may be used as the degree of hesitation. Also, the difference between the maximum value of the acquired probability distribution P and the second largest value may be used as the degree of hesitation.
(S8:迷い度で画像選択)
ステップS8において、眼科画像処理装置20は、ステップS7において算出した迷い度に基づいて画像を画像処理モデル15に学習させるための学習用画像を選択する。例えば、迷い度の高い画像の上位数枚を選択し、ユーザUに提供する。画像処理モデル構築システム1は、画像処理モデル15の精度が改善するまでステップS3~ステップS8を繰り返す。
(S8: Image selection based on hesitation)
In step S8, the ophthalmologic
なお、本実施例の画像処理モデル構築システム1は、ユーザUのラベル付けを簡略化するためにステップS3のラベル付けを以下に説明する流れ(S301~S303)で行ってもよい(図4参照)。
Note that the image processing
(S301:候補ラベル作成)
ステップS301において、眼科画像処理装置20は、迷い度に基づいて選択した学習用画像を画像処理モデル15に入力して候補ラベルを作成する。つまり、学習途中である画像処理モデル15に学習用画像(ラベル無し画像)を入力したときの出力をその学習用画像のラベルとする。
(S301: Candidate label creation)
In step S301, the ophthalmologic
(S302:候補ラベル付加)
ステップS302において、眼科画像処理装置20は、ステップS301で作成した候補ラベルを学習用画像に付加する。
(S302: add candidate label)
In step S302, the ophthalmologic
(S303:候補ラベル確認・修正)
ステップS303において、ユーザUは画像処理モデル構築システム1によって提供された学習用画像と、その候補ラベルを比較し、候補ラベルが学習用画像に対して適切か否かを確認する。候補ラベルが適切であれば、それを学習用画像のラベルとする。候補ラベルが適切でなければ、候補ラベルを修正するか、新たにラベルを作成する。
(S303: Candidate label confirmation/correction)
In step S303, the user U compares the learning image provided by the image processing
以上のように、画像処理モデル構築システム1は、大量のラベル無し画像から選択された一部の画像のみを学習することによって、アノテーションの量を減らしつつ、効率的に精度の高い画像処理モデル15の構築を行うことができる。また、画像処理モデル構築システム1は、学習用画像にラベル候補を付加することによって、アノテーションを簡略化し、ユーザの負担を減らすことができる。特に、セグメンテーションの対象となる領域が小さく、形状が複雑で境界の区別がつきにくい眼科画像において、アノテーションの量が減り、作業が簡略化されることで、アノテーションの漏れや間違いが生じる可能性を低減できる。
As described above, the image processing
画像処理モデル15の作成が容易になることで、病院または医師などの小規模単位での画像処理モデル15の作成が可能となり、各ユーザに適した画像処理モデル15を作成することができる。また、研究目的での画像処理モデル15の利用も促進される。
By facilitating the creation of the
なお、以上の説明では、網膜層のセグメンテーションモデルの作成を例としたが、それ以外の画像識別や回帰モデル(例えば、数値を出力するモデル)に適用することも可能である。 In the above description, creation of a retinal layer segmentation model was taken as an example, but application to other image identification and regression models (for example, models that output numerical values) is also possible.
なお、学習用画像を選択する場合、画像DB40に記憶されたラベル無し画像の一部を切り出して学習用画像としてもよい。例えば、画像から検出された特徴部(病変部など)を切り出してもよいし、画像の迷い度が大きい部分を切り出してもよい。
Note that when selecting a learning image, a part of the unlabeled image stored in the
なお、学習用画像を選択するときの選択基準として、眼科画像に付加されている付加情報であってもよい。付加情報としては、例えば、撮影されている被検眼の病名、眼科撮影装置30で撮影したときの撮影条件などである。例えば、眼科画像処理装置20は、できるだけ異なる病名または撮影条件の眼科画像が画像処理モデル15に学習されるように学習用画像を選択する。例えば、眼科画像処理装置20は、画像DB40に記憶された画像の中で、他に比べて数が少ない病名または撮影条件の眼科画像を優先して学習用画像として選択してもよい。
Additional information added to the ophthalmologic image may be used as a selection criterion for selecting a learning image. The additional information includes, for example, the disease name of the subject's eye being photographed, the photographing conditions when photographing with the ophthalmologic photographing
また、学習用画像を選択するときの選択基準として、眼科画像の信号の強さ、または信号の良好さを示す指標(例えば、SSI(Signal Strength Index)またはQI(Quality Index)等)が用いられてもよい。この場合、例えば、CPU22は、取得した指標が閾値以下である場合、適正な画像ではないと判定し、学習用画像の選択肢から排除してもよい。
In addition, as a selection criterion for selecting learning images, the strength of the signal of the ophthalmologic image or an index indicating the quality of the signal (for example, SSI (Signal Strength Index) or QI (Quality Index), etc.) is used. may In this case, for example, when the acquired index is equal to or less than the threshold, the
なお、画像処理モデル15に入力される眼科画像には、種々の画像を用いることができる。例えば、眼科画像は、OCT装置によって撮影された被検眼の組織の二次元断層画像または三次元断層画像であってもよい。断層画像は、OCT装置以外の装置(例えばシャインプルーフカメラ等)によって撮影されてもよい。また、眼科画像は、眼底カメラによって撮影された二次元正面画像、レーザ走査型検眼装置(SLO)によって撮影された二次元正面画像等であってもよい。眼科画像は、OCT装置によって撮影された三次元断層画像のデータに基づいて生成される二次元正面画像(所謂「Enface画像」)であってもよい。また、眼科画像は、同一位置から異なる時間に取得された複数のOCTデータを処理することで得られるモーションコントラストデータから作成される二次元正面画像(所謂「モーションコントラスト画像」)であってもよい。二次元正面画像とは、撮影光の光軸の方向から組織を撮影した二次元の画像である。また、撮影対象となる組織も適宜選択できる。例えば、被検眼の眼底、前眼部、隅角等のいずれかを撮影した画像が眼科画像として用いられてもよい。
Various images can be used as the ophthalmologic image input to the
1 画像処理モデル構築システム
10 画像処理モデル構築装置
20 眼科画像処理装置
30 眼科撮影装置
1 image processing
Claims (2)
前記眼科画像を取得する画像取得手段と、
前記眼科画像を処理する制御手段と、を備え、
前記制御手段は、前記画像取得手段によって取得された前記眼科画像の中から、前記眼科画像における網膜層のセグメンテーションを行う画像処理モデルに学習させる学習用画像を、前記眼科画像を前記画像処理モデルに入力したときの、各画素がどの網膜層であるかを示す確率分布のエントロピーまたは各画素がどの網膜層であるかを示す確率分布の散布度によって選択することを特徴とする眼科画像処理装置。 An ophthalmic image processing device for processing an ophthalmic image of an eye to be examined,
an image acquisition means for acquiring the ophthalmologic image;
a control means for processing the ophthalmic image;
The control means is configured to transfer, from the ophthalmologic images acquired by the image acquisition means, learning images to be learned by an image processing model that performs segmentation of a retinal layer in the ophthalmologic images to the image processing model. An ophthalmologic image processing apparatus, characterized in that selection is made according to the entropy of a probability distribution indicating which retinal layer each pixel belongs to when inputting, or the degree of dispersion of a probability distribution indicating which retinal layer each pixel belongs to .
前記眼科画像を撮影する撮影手段と、
前記眼科撮影装置を制御する制御手段と、を備え、
前記制御手段は、前記撮影手段によって撮影された前記眼科画像の中から、前記眼科画像における網膜層のセグメンテーションを行う画像処理モデルに学習させる学習用画像を、前記眼科画像を前記画像処理モデルに入力したときの、各画素がどの網膜層であるかを示す確率分布のエントロピーまたは各画素がどの網膜層であるかを示す確率分布の散布度によって選択することを特徴とする眼科撮影装置。 An ophthalmic imaging apparatus for capturing an ophthalmic image of an eye to be examined,
a photographing means for photographing the ophthalmologic image;
and a control means for controlling the ophthalmic imaging apparatus,
The control means is configured to transfer the ophthalmologic image to the image processing model from among the ophthalmologic images photographed by the photographing means as learning images to be learned by an image processing model that performs segmentation of a retinal layer in the ophthalmologic image. An ophthalmologic imaging apparatus, characterized in that selection is made according to the entropy of a probability distribution indicating which retinal layer each pixel belongs to when an input is made or the degree of dispersion of a probability distribution indicating which retinal layer each pixel belongs to .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018166449A JP7328489B2 (en) | 2018-09-05 | 2018-09-05 | Ophthalmic image processing device and ophthalmic photographing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018166449A JP7328489B2 (en) | 2018-09-05 | 2018-09-05 | Ophthalmic image processing device and ophthalmic photographing device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020036837A JP2020036837A (en) | 2020-03-12 |
JP2020036837A5 JP2020036837A5 (en) | 2021-09-16 |
JP7328489B2 true JP7328489B2 (en) | 2023-08-17 |
Family
ID=69737141
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018166449A Active JP7328489B2 (en) | 2018-09-05 | 2018-09-05 | Ophthalmic image processing device and ophthalmic photographing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7328489B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022209836A1 (en) * | 2021-04-01 | 2022-10-06 | 富士フイルム株式会社 | Training data generation device, training data generation method and program, and training device |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030088165A1 (en) | 2001-08-14 | 2003-05-08 | University Of Alabama In Huntsville | Multispectral image processing method, apparatus and computer program product for determining the blood oxygen saturation in a vessel |
CN106097335A (en) | 2016-06-08 | 2016-11-09 | 安翰光电技术(武汉)有限公司 | Digestive tract focus image identification system and recognition methods |
JP2016220832A (en) | 2015-05-28 | 2016-12-28 | 国立大学法人 東京大学 | Visual field testing apparatus |
JP2017162438A (en) | 2016-03-11 | 2017-09-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Danger prediction method |
JP2017224184A (en) | 2016-06-16 | 2017-12-21 | 株式会社日立製作所 | Machine learning device |
WO2018035473A2 (en) | 2016-08-18 | 2018-02-22 | Google Llc | Processing fundus images using machine learning models |
US20180144214A1 (en) | 2016-11-23 | 2018-05-24 | General Electric Company | Deep learning medical systems and methods for image reconstruction and quality evaluation |
US20180192870A1 (en) | 2017-01-11 | 2018-07-12 | Canon Kabushiki Kaisha | Image processing apparatus, optical coherence tomography apparatus, image processing method, and computer-readable storage medium |
-
2018
- 2018-09-05 JP JP2018166449A patent/JP7328489B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030088165A1 (en) | 2001-08-14 | 2003-05-08 | University Of Alabama In Huntsville | Multispectral image processing method, apparatus and computer program product for determining the blood oxygen saturation in a vessel |
JP2016220832A (en) | 2015-05-28 | 2016-12-28 | 国立大学法人 東京大学 | Visual field testing apparatus |
JP2017162438A (en) | 2016-03-11 | 2017-09-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Danger prediction method |
CN106097335A (en) | 2016-06-08 | 2016-11-09 | 安翰光电技术(武汉)有限公司 | Digestive tract focus image identification system and recognition methods |
JP2017224184A (en) | 2016-06-16 | 2017-12-21 | 株式会社日立製作所 | Machine learning device |
WO2018035473A2 (en) | 2016-08-18 | 2018-02-22 | Google Llc | Processing fundus images using machine learning models |
US20180144214A1 (en) | 2016-11-23 | 2018-05-24 | General Electric Company | Deep learning medical systems and methods for image reconstruction and quality evaluation |
US20180192870A1 (en) | 2017-01-11 | 2018-07-12 | Canon Kabushiki Kaisha | Image processing apparatus, optical coherence tomography apparatus, image processing method, and computer-readable storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP2020036837A (en) | 2020-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11633096B2 (en) | Ophthalmologic image processing device and non-transitory computer-readable storage medium storing computer-readable instructions | |
JP6907563B2 (en) | Image processing device and image processing program | |
US11357398B2 (en) | Image processing device and non-transitory computer-readable recording medium | |
JP6878923B2 (en) | Image processing equipment, image processing system, and image processing program | |
US11961229B2 (en) | Ophthalmic image processing device, OCT device, and non-transitory computer-readable storage medium | |
US20220164949A1 (en) | Ophthalmic image processing device and ophthalmic image processing method | |
US20240020839A1 (en) | Medical image processing device, medical image processing program, and medical image processing method | |
JPWO2019207800A1 (en) | Ophthalmic image processing equipment and ophthalmic image processing program | |
JP7328489B2 (en) | Ophthalmic image processing device and ophthalmic photographing device | |
JP2019208851A (en) | Fundus image processing device and fundus image processing program | |
WO2020116351A1 (en) | Diagnostic assistance device and diagnostic assistance program | |
JP2023115058A (en) | Ophthalmologic image processing device and ophthalmologic image processing program | |
JP6866954B2 (en) | Ophthalmic image processing program and OCT device | |
WO2021020419A1 (en) | Medical image processing device and medical image processing program | |
JPWO2020003524A1 (en) | Ophthalmic image processing device and OCT device | |
JP6747617B2 (en) | Ophthalmic image processing device and OCT device | |
JP2021074095A (en) | Ophthalmologic image processing device and ophthalmologic image processing program | |
JP7210927B2 (en) | Ophthalmic image processing device, OCT device, and ophthalmic image processing program | |
JP7180187B2 (en) | Ophthalmic image processing device, OCT device, and ophthalmic image processing program | |
WO2020241794A1 (en) | Ophthalmic image processing device, ophthalmic image processing program, and ophthalmic image processing system | |
WO2021045019A1 (en) | Ophthalmic image processing program and ophthalmic image processing device | |
JP2023149095A (en) | Ocular fundus image processing device and ocular fundus image processing program | |
JP2023149742A (en) | Ocular fundus image processing device and ocular fundus image processing program | |
JP2021186466A (en) | Ophthalmologic image processing program and ophthalmologic image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210804 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210804 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220623 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220705 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221101 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230410 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230704 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230717 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7328489 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |