JP7328489B2 - Ophthalmic image processing device and ophthalmic photographing device - Google Patents

Ophthalmic image processing device and ophthalmic photographing device Download PDF

Info

Publication number
JP7328489B2
JP7328489B2 JP2018166449A JP2018166449A JP7328489B2 JP 7328489 B2 JP7328489 B2 JP 7328489B2 JP 2018166449 A JP2018166449 A JP 2018166449A JP 2018166449 A JP2018166449 A JP 2018166449A JP 7328489 B2 JP7328489 B2 JP 7328489B2
Authority
JP
Japan
Prior art keywords
image
image processing
ophthalmologic
processing model
ophthalmic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018166449A
Other languages
Japanese (ja)
Other versions
JP2020036837A5 (en
JP2020036837A (en
Inventor
佳紀 熊谷
涼介 柴
祐輔 坂下
直樹 竹野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2018166449A priority Critical patent/JP7328489B2/en
Publication of JP2020036837A publication Critical patent/JP2020036837A/en
Publication of JP2020036837A5 publication Critical patent/JP2020036837A5/ja
Application granted granted Critical
Publication of JP7328489B2 publication Critical patent/JP7328489B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

眼科画像の処理を行う眼科画像処理装置、および眼科画像を撮影する眼科撮影装置に関する。 The present invention relates to an ophthalmic image processing apparatus for processing an ophthalmic image and an ophthalmic photographing apparatus for capturing an ophthalmic image.

近年、深層学習による画像処理が成果を上げており、医療画像への応用が期待されている。 In recent years, image processing by deep learning has achieved results, and its application to medical imaging is expected.

特開2017-162438号公報JP 2017-162438 A

ところで、深層学習を用いた画像処理モデルを作成するためには、画像と、それに対応する正解データの組を大量に作成して画像処理モデルに学習させる必要がある。しかしながら、大量の画像に対して正解を付与するアノテーション作業はユーザへの負担が大きかった。また、眼科画像は組織の形状等が複雑であり、アノテーションの難易度が高く、ユーザへの負担が大きかった。 By the way, in order to create an image processing model using deep learning, it is necessary to create a large number of sets of images and correct data corresponding to them, and have the image processing model learn them. However, the annotation work of giving correct answers to a large number of images has been a heavy burden on the user. In addition, ophthalmologic images have complex tissue shapes and the like, which makes annotation difficult and imposes a heavy burden on the user.

本開示は、従来の問題点に鑑み、眼科画像に対するアノテーションを効率化できる眼科画像処理装置、および眼科撮影装置を提供することを技術課題とする。 In view of the conventional problems, the technical problem of the present disclosure is to provide an ophthalmologic image processing apparatus and an ophthalmologic imaging apparatus capable of efficiently annotating ophthalmologic images.

上記課題を解決するために、本開示は以下のような構成を備えることを特徴とする。 In order to solve the above problems, the present disclosure is characterized by having the following configuration.

(1) 被検眼の眼科画像を処理する眼科画像処理装置であって、前記眼科画像を取得する画像取得手段と、前記眼科画像を処理する制御手段と、を備え、前記制御手段は、前記画像取得手段によって取得された前記眼科画像の中から、前記眼科画像における網膜層のセグメンテーションを行う画像処理モデルに学習させる学習用画像を、前記眼科画像を前記画像処理モデルに入力したときの、各画素がどの網膜層であるかを示す確率分布のエントロピーまたは各画素がどの網膜層であるかを示す確率分布の散布度によって選択することを特徴とする。
(2) 被検眼の眼科画像を撮影する眼科撮影装置であって、前記眼科画像を撮影する撮影手段と、前記眼科撮影装置を制御する制御手段と、を備え、前記制御手段は、前記撮影手段によって撮影された前記眼科画像の中から、前記眼科画像における網膜層のセグメンテーションを行う画像処理モデルに学習させる学習用画像を、前記眼科画像を前記画像処理モデルに入力したときの、各画素がどの網膜層であるかを示す確率分布のエントロピーまたは各画素がどの網膜層であるかを示す確率分布の散布度によって選択することを特徴とする。
(1) An ophthalmologic image processing apparatus for processing an ophthalmologic image of an eye to be examined, comprising: image acquisition means for acquiring the ophthalmologic image; and control means for processing the ophthalmologic image, wherein the control means processes the image Each pixel obtained when the ophthalmologic image is input to the image processing model, from among the ophthalmologic images obtained by the obtaining means, to be learned by an image processing model that performs segmentation of the retinal layer in the ophthalmologic image. is selected according to the entropy of the probability distribution indicating which retinal layer each pixel belongs to or the degree of dispersion of the probability distribution indicating which retinal layer each pixel belongs to .
(2) An ophthalmic photographing apparatus for photographing an ophthalmologic image of an eye to be examined, comprising photographing means for photographing the ophthalmic image, and control means for controlling the ophthalmic photographing apparatus, wherein the control means is the photographing means. From among the ophthalmologic images photographed by the above, a training image to be learned by an image processing model that performs segmentation of the retinal layer in the ophthalmologic image is input to the image processing model. The selection is made according to the entropy of the probability distribution indicating whether it is a retinal layer or the degree of scatter of the probability distribution indicating which retinal layer each pixel belongs to .

画像処理モデル構築装置、眼科画像処理装置、および眼科撮影装置の概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of an image processing model construction device, an ophthalmologic image processing device, and an ophthalmologic photographing device; FIG. 画像処理モデルの入力と出力の例を示す図である。FIG. 4 is a diagram showing an example of input and output of an image processing model; 画像処理モデル構築処理の一例を示すフローチャートである。6 is a flowchart showing an example of image processing model construction processing; 画像処理モデル構築処理の一例を示すフローチャートである。6 is a flowchart showing an example of image processing model construction processing;

<実施形態>
以下、本開示に係る実施形態について説明する。本開示の眼科画像処理装置は、被検眼の眼科画像を処理する。眼科画像処理装置は、例えば、画像取得部(例えば、制御部21など)と、制御部(例えば、制御部21など)を備える。画像取得部は、例えば、眼科画像を取得する。制御部は眼科画像を処理する。また、制御部は、画像取得部によって取得された眼科画像の中から、画像処理モデル(例えば、画像処理モデル15)に学習させる学習用画像を選択する。
<Embodiment>
Embodiments according to the present disclosure will be described below. An ophthalmologic image processing apparatus of the present disclosure processes an ophthalmologic image of an eye to be examined. The ophthalmologic image processing apparatus includes, for example, an image acquisition unit (eg, control unit 21, etc.) and a control unit (eg, control unit 21, etc.). The image acquisition unit acquires, for example, an ophthalmologic image. The control unit processes ophthalmic images. In addition, the control unit selects learning images to be learned by the image processing model (for example, the image processing model 15) from among the ophthalmologic images acquired by the image acquisition unit.

なお、制御部は、眼科画像を画像処理モデルに入力したときの出力に基づく評価値(例えば、迷い度)によって学習用画像を選択してもよい。評価値は、例えば、画像処理モデルの出力に関するエントロピーであってもよいし、標準偏差、変動係数、分散等であってもよい。 Note that the control unit may select a learning image based on an evaluation value (for example, the degree of confusion) based on an output when the ophthalmologic image is input to the image processing model. The evaluation value may be, for example, entropy relating to the output of the image processing model, standard deviation, coefficient of variation, variance, or the like.

なお、制御部は、学習用画像に対するユーザのアノテーションによって付与されたアノテーション情報(例えば、ラベルなど)を取得してもよい。つまり、制御部は、学習用画像に対してユーザがアノテーションすることによって付与されたアノテーション情報を取得してもよい。なお、アノテーションは、例えば、学習用画像の各画素に対してラベルを付与することである。 Note that the control unit may acquire annotation information (such as a label, for example) attached by the user's annotation to the learning image. That is, the control unit may acquire annotation information added by the user annotating the learning image. Annotation is, for example, assigning a label to each pixel of the learning image.

なお、制御部は、学習用画像に対するアノテーション情報の候補(例えば、候補ラベル)を提示してもよい。例えば、制御部は、アノテーション情報の候補を表示部(例えば、表示部28)などに表示させてもよい。アノテーション情報の候補は、学習用画像を画像処理モデルに入力したときの出力に基づいて作成されたものであってもよい。 Note that the control unit may present annotation information candidates (for example, candidate labels) for the learning images. For example, the control unit may cause the display unit (for example, the display unit 28) to display candidates for annotation information. The annotation information candidates may be created based on the output when the learning image is input to the image processing model.

なお、本開示は、眼科撮影装置に適用してもよい。例えば、被検眼の眼科画像を撮影する眼科撮影装置(例えば、眼科撮影装置30)に適用してもよい。この場合、眼科撮影装置は、撮影部(例えば、眼科画像撮影部34)と、制御部(例えば、制御部31)を備えてもよい。撮影部は、眼科画像を撮影する。制御部は、眼科撮影装置を制御する。また、制御部は、撮影部によって撮影された眼科画像の中から、画像処理モデルに学習させる学習用画像を選択してもよい。この場合、制御部は、撮影部によって眼科画像が撮影される度に、画像処理モデルに学習させるための学習用画像を選択してもよい。 Note that the present disclosure may be applied to an ophthalmic imaging apparatus. For example, it may be applied to an ophthalmologic imaging apparatus (for example, ophthalmologic imaging apparatus 30) that captures an ophthalmologic image of an eye to be examined. In this case, the ophthalmologic imaging apparatus may include an imaging section (eg, ophthalmologic image imaging section 34) and a control section (eg, control section 31). The imaging unit captures an ophthalmologic image. The control unit controls the ophthalmic imaging apparatus. Further, the control unit may select a learning image to be learned by the image processing model from among the ophthalmologic images captured by the imaging unit. In this case, the control unit may select a learning image for learning by the image processing model each time an ophthalmologic image is captured by the imaging unit.

なお、眼科画像処理装置または眼科撮影装置は、学習用画像に対するアノテーションのためのインターフェイス(例えば、操作部27、表示部28、操作部37、表示部38など)を備えてもよい。この場合、制御部(例えば、制御部21または制御部31など)は、インターフェイスへの入力に基づいてアノテーション情報を取得してもよい。なお、制御部(例えば、制御部21または制御部31など)は、学習用画像に基づいて画像処理モデルを構築または更新してもよい。 Note that the ophthalmologic image processing apparatus or ophthalmologic imaging apparatus may include an interface for annotating the learning image (for example, the operation unit 27, the display unit 28, the operation unit 37, the display unit 38, etc.). In this case, the control unit (for example, control unit 21 or control unit 31) may acquire annotation information based on an input to the interface. Note that the control unit (for example, the control unit 21 or the control unit 31) may construct or update the image processing model based on the learning image.

<実施例>
以下、本開示における典型的な実施例の1つについて説明する。図1に示すように、本実施例の画像処理モデル構築システム1は、画像処理モデル構築装置10、眼科画像処理装置20、眼科撮影装置30、および画像データベース(以下、画像DBと略す)40などを備える。画像処理モデル構築装置10は、機械学習アルゴリズムによって画像処理モデル15を訓練させることで、画像処理モデル15を構築する。画像処理モデル15は、例えば、被検眼における各々の組織の種類を確率変数とする確率分布を、入力された眼科画像の各領域毎(例えば画素毎)に出力する。この場合、画像処理モデル15によって出力される確率分布に基づいて、眼科画像中の組織が識別される。また、画像処理モデル15は、組織の識別結果を示すマッピング画像を出力してもよい。例えば、図2に示す画像処理モデル15の例では、眼底断層画像が入力されることによって、網膜層ごとに色分けされたマッピング画像が出力される。いわゆる、網膜層のセグメンテーションである。眼科撮影装置30は、被検眼の組織の画像である眼科画像を撮影する。画像DB40は、眼科撮影装置30によって撮影された眼科画像が記憶される。画像DB40は、例えば、サーバなどである。
<Example>
One exemplary embodiment of the present disclosure will now be described. As shown in FIG. 1, the image processing model building system 1 of this embodiment includes an image processing model building device 10, an ophthalmologic image processing device 20, an ophthalmologic photographing device 30, an image database (hereinafter abbreviated as image DB) 40, and the like. Prepare. The image processing model building device 10 builds the image processing model 15 by training the image processing model 15 with a machine learning algorithm. The image processing model 15 outputs, for each region (for example, each pixel) of the input ophthalmologic image, a probability distribution with the type of each tissue in the eye to be inspected as a random variable. In this case, the tissue in the ophthalmic image is identified based on the probability distributions output by the image processing model 15 . Also, the image processing model 15 may output a mapping image showing the tissue identification result. For example, in the example of the image processing model 15 shown in FIG. 2, when a fundus tomographic image is input, a mapping image color-coded for each retinal layer is output. This is so-called retinal layer segmentation. The ophthalmologic photographing apparatus 30 photographs an ophthalmologic image, which is an image of tissue of an eye to be examined. The image DB 40 stores ophthalmologic images captured by the ophthalmic imaging device 30 . The image DB 40 is, for example, a server.

本実施例の画像処理モデル構築装置10には、例えば、パーソナルコンピュータ(以下、「PC」という)が用いられる。画像処理モデル構築装置10は、例えば、眼科撮影装置30が撮影した眼科画像と、眼科画像における少なくともいずれかの組織の種類を示すラベルとを利用して画像処理モデル15を訓練させることで、画像処理モデル15を構築する。なお、画像処理モデル構築装置10として機能できるデバイスは、PCに限定されない。例えば、眼科画像処理装置20または眼科撮影装置30が画像処理モデル構築装置10として機能してもよい。また、複数のデバイスが、協働して画像処理モデルを構築してもよい。 For example, a personal computer (hereinafter referred to as “PC”) is used for the image processing model construction device 10 of this embodiment. The image processing model construction device 10 trains the image processing model 15 using, for example, an ophthalmologic image captured by the ophthalmologic imaging device 30 and a label indicating at least one type of tissue in the ophthalmologic image. A processing model 15 is constructed. A device that can function as the image processing model construction device 10 is not limited to a PC. For example, the ophthalmologic image processing device 20 or the ophthalmologic imaging device 30 may function as the image processing model building device 10 . Also, multiple devices may work together to build an image processing model.

また、本実施例の眼科画像処理装置20にはPCが用いられる。しかし、眼科画像処理装置20として機能できるデバイスも、PCに限定されない。例えば、眼科撮影装置30またはサーバ等が、眼科画像処理装置20として機能してもよい。また、タブレット端末またはスマートフォン等の携帯端末が、眼科画像処理装置20として機能してもよい。複数のデバイスの制御部(例えば、PCのCPUと、眼科撮影装置30のCPU32)が、協働して各種処理を行ってもよい。 A PC is used for the ophthalmologic image processing apparatus 20 of this embodiment. However, a device that can function as the ophthalmologic image processing apparatus 20 is not limited to a PC either. For example, the ophthalmic photographing device 30 or a server may function as the ophthalmic image processing device 20 . Moreover, a portable terminal such as a tablet terminal or a smartphone may function as the ophthalmologic image processing apparatus 20 . The controllers of a plurality of devices (for example, the CPU of the PC and the CPU 32 of the ophthalmologic photographing apparatus 30) may work together to perform various processes.

また、本実施例では、各種処理を行うコントローラの一例としてCPUが用いられる場合について例示する。しかし、各種デバイスの少なくとも一部に、CPU以外のコントローラが用いられてもよいことは言うまでもない。例えば、コントローラとしてGPUを採用することで、処理の高速化を図ってもよい。 Also, in this embodiment, a case in which a CPU is used as an example of a controller that performs various processes will be described. However, it goes without saying that a controller other than the CPU may be used for at least some of the various devices. For example, a GPU may be employed as a controller to speed up processing.

<画像処理モデル構築装置>
画像処理モデル構築装置10について説明する。画像処理モデル構築装置10は、例えば、眼科画像処理装置20または眼科画像処理プログラムをユーザに提供するメーカー等に配置される。画像処理モデル構築装置10は、各種制御処理を行う制御部11を備える。制御部11は、制御を司るコントローラであるCPU12と、プログラムおよびデータ等を記憶することが可能な記憶装置13を備える。記憶装置13には、画像処理モデル構築処理を実行するための画像処理モデル構築プログラムが記憶されている。また、記憶装置13には、ラベル付き画像が記憶されるラベル付き画像データベース(以下、ラベル付き画像DBと略す)14と、画像処理モデル15が記憶される。なお、画像処理モデル構築装置10は、図示なき通信手段によって他のデバイス(例えば、眼科画像処理装置20および眼科撮影装置30等)と接続される。
<Image processing model building device>
The image processing model construction device 10 will be described. The image processing model construction device 10 is installed, for example, in a manufacturer or the like that provides the ophthalmic image processing device 20 or an ophthalmic image processing program to users. The image processing model construction device 10 includes a control unit 11 that performs various control processes. The control unit 11 includes a CPU 12, which is a controller for control, and a storage device 13 capable of storing programs, data, and the like. The storage device 13 stores an image processing model construction program for executing image processing model construction processing. The storage device 13 also stores a labeled image database (hereinafter abbreviated as a labeled image DB) 14 in which labeled images are stored, and an image processing model 15 . Note that the image processing model construction device 10 is connected to other devices (for example, the ophthalmic image processing device 20 and the ophthalmic photographing device 30, etc.) by communication means (not shown).

画像処理モデル構築装置10は、操作部17および表示部18に接続されている。操作部17は、ユーザUが各種指示を画像処理モデル構築装置10に入力するために、ユーザUによって操作される。操作部17には、例えば、キーボード、マウス、タッチパネル等の少なくともいずれかを使用できる。なお、操作部17と共に、または操作部17に代えて、各種指示を入力するためのマイク等が使用されてもよい。表示部18は、各種画像を表示する。表示部18には、画像を表示可能な種々のデバイス(例えば、モニタ、ディスプレイ、プロジェクタ等の少なくともいずれか)を使用できる。なお、本開示における「画像」には、静止画像も動画像も共に含まれる。 The image processing model construction device 10 is connected to the operation section 17 and the display section 18 . The operation unit 17 is operated by the user U to input various instructions to the image processing model construction device 10 . For example, at least one of a keyboard, a mouse, a touch panel, and the like can be used as the operation unit 17 . A microphone or the like for inputting various instructions may be used together with the operation unit 17 or instead of the operation unit 17 . The display unit 18 displays various images. Various devices capable of displaying images (for example, at least one of a monitor, a display, a projector, etc.) can be used for the display unit 18 . It should be noted that the “image” in the present disclosure includes both still images and moving images.

画像処理モデル構築処理では、訓練データセットによって画像処理モデル15が訓練されることで、眼科画像中の組織を識別するための確率分布を出力する画像処理モデル15が構築される。訓練データセットには、入力側のデータ(入力用訓練データ)と出力側のデータ(出力用訓練データ)が含まれる。 In the image processing model building process, the image processing model 15 is trained using the training data set to build the image processing model 15 that outputs a probability distribution for identifying tissue in the ophthalmologic image. The training data set includes data on the input side (training data for input) and data on the output side (training data for output).

画像処理モデル15は、機械学習アルゴリズムに基づいて訓練データセットを学習する。機械学習アルゴリズムとしては、例えば、ニューラルネットワーク、ランダムフォレスト、ブースティング、サポートベクターマシン(SVM)等が一般的に知られている。 The image processing model 15 learns the training data set based on machine learning algorithms. As machine learning algorithms, for example, neural networks, random forests, boosting, support vector machines (SVM), etc. are generally known.

ニューラルネットワークは、生物の神経細胞ネットワークの挙動を模倣する手法である。ニューラルネットワークには、例えば、フィードフォワード(順伝播型)ニューラルネットワーク、RBFネットワーク(放射基底関数)、スパイキングニューラルネットワーク、畳み込みニューラルネットワーク、再帰型ニューラルネットワーク(リカレントニューラルネット、フィードバックニューラルネット等)、確率的ニューラルネット(ボルツマンマシン、ベイシアンネットワーク等)等がある。 A neural network is a technique that imitates the behavior of a neural network of living organisms. Neural networks include, for example, feedforward neural networks, RBF networks (radial basis functions), spiking neural networks, convolutional neural networks, recurrent neural networks (recurrent neural networks, feedback neural networks, etc.), probability neural networks (Boltzmann machine, Baysian network, etc.), etc.

ランダムフォレストは、ランダムサンプリングされた訓練データに基づいて学習を行って、多数の決定木を生成する方法である。ランダムフォレストを用いる場合、予め識別器として学習しておいた複数の決定木の分岐を辿り、各決定木から得られる結果の平均(あるいは多数決)を取る。 Random forest is a method of learning based on randomly sampled training data to generate a large number of decision trees. When a random forest is used, branches of a plurality of decision trees learned in advance as discriminators are traced, and the average (or majority vote) of the results obtained from each decision tree is taken.

ブースティングは、複数の弱識別器を組み合わせることで強識別器を生成する手法である。単純で弱い識別器を逐次的に学習させることで、強識別器を構築する。 Boosting is a method of generating a strong classifier by combining a plurality of weak classifiers. A strong classifier is constructed by sequentially learning simple and weak classifiers.

SVMは、線形入力素子を利用して2クラスのパターン識別器を構成する手法である。SVMは、例えば、訓練データから、各データ点との距離が最大となるマージン最大化超平面を求めるという基準(超平面分離定理)で、線形入力素子のパラメータを学習する。 SVM is a method of constructing a two-class pattern discriminator using linear input elements. The SVM learns the parameters of the linear input element, for example, based on the criterion of finding the margin-maximizing hyperplane that maximizes the distance to each data point from the training data (hyperplane separation theorem).

画像処理モデルは、例えば、入力データと出力データの関係を予測するためのデータ構造を指す。画像処理モデルは、訓練データセットを用いて訓練されることで構築される。前述したように、訓練データセットは、入力用訓練データと出力用訓練データのセットである。例えば、訓練によって、各入力と出力の相関データ(例えば、重み)が更新される。 An image processing model, for example, refers to a data structure for predicting the relationship between input data and output data. An image processing model is constructed by being trained using a training dataset. As described above, the training data set is a set of input training data and output training data. For example, training updates the correlation data (eg, weights) for each input and output.

本実施例では、機械学習アルゴリズムとして多層型のニューラルネットワークが用いられている。ニューラルネットワークは、データを入力するための入力層と、予測したいデータを生成するための出力層と、入力層と出力層の間の1つ以上の隠れ層を含む。各層には、複数のノード(ユニットとも言われる)が配置される。詳細には、本実施例では、多層型ニューラルネットワークの一種である畳み込みニューラルネットワーク(CNN)が用いられている。 In this embodiment, a multilayer neural network is used as the machine learning algorithm. A neural network includes an input layer for inputting data, an output layer for generating data to be predicted, and one or more hidden layers between the input layer and the output layer. A plurality of nodes (also called units) are arranged in each layer. Specifically, in this embodiment, a convolutional neural network (CNN), which is a type of multilayer neural network, is used.

一例として、本実施例で構築される画像処理モデル15は、眼科画像中の領域(一次元領域、二次元領域、三次元領域、および、時間軸を含む四次元領域のいずれか)内において、特定の組織(例えば、特定の境界、特定の層、または特定の部位等)が存在する座標(一次元座標、二次元座標、三次元座標、および四次元座標のいずれか)を確率変数とする確率分布を、組織を識別するための確率分布として出力する。本実施例では、画像処理モデルに確率分布を出力させるために、ソフトマックス関数が適用されている。 As an example, the image processing model 15 constructed in this embodiment has a region in an ophthalmologic image (any one of a one-dimensional region, a two-dimensional region, a three-dimensional region, and a four-dimensional region including a time axis), Coordinates (any one of one-dimensional, two-dimensional, three-dimensional, and four-dimensional coordinates) at which a specific tissue (for example, a specific boundary, a specific layer, or a specific part) exists is a random variable Output the probability distribution as a probability distribution for identifying tissue. In this embodiment, a softmax function is applied to force the image processing model to output a probability distribution.

また、他の機械学習アルゴリズムが用いられてもよい。例えば、競合する2つのニューラルネットワークを利用する敵対的生成ネットワーク(Generative adversarial networks:GAN)が、機械学習アルゴリズムとして採用されてもよい。 Other machine learning algorithms may also be used. For example, Generative adversarial networks (GAN), which utilize two competing neural networks, may be employed as machine learning algorithms.

<眼科画像処理装置>
眼科画像処理装置20について説明する。眼科画像処理装置20は、例えば、被検者の診断または検査等を行う施設(例えば、病院または健康診断施設等)に配置される。眼科画像処理装置20は、各種制御処理を行う制御部21を備える。制御部21は、制御を司るコントローラであるCPU22と、プログラムおよびデータ等を記憶することが可能な記憶装置23を備える。記憶装置23には、眼科画像処理を実行するための眼科画像処理プログラムが記憶されている。眼科画像処理プログラムには、画像処理モデル構築装置10によって構築された画像処理モデルを実現させるプログラムが含まれる。眼科画像処理装置20は、図示なき通信手段によって、眼科画像処理モデル構築装置10、眼科撮影装置30、画像DB40などに接続されている。
<Ophthalmic image processing device>
The ophthalmologic image processing apparatus 20 will be described. The ophthalmologic image processing apparatus 20 is installed, for example, in a facility (for example, a hospital, a health checkup facility, or the like) for diagnosing or examining a subject. The ophthalmologic image processing apparatus 20 includes a control unit 21 that performs various control processes. The control unit 21 includes a CPU 22, which is a controller for control, and a storage device 23 capable of storing programs, data, and the like. The storage device 23 stores an ophthalmic image processing program for executing ophthalmic image processing. The ophthalmologic image processing program includes a program for realizing the image processing model constructed by the image processing model construction device 10 . The ophthalmologic image processing apparatus 20 is connected to the ophthalmologic image processing model building apparatus 10, the ophthalmologic photographing apparatus 30, the image DB 40, and the like by communication means (not shown).

眼科画像処理装置20は、操作部27および表示部28に接続されている。操作部27および表示部28には、前述した操作部7および表示部8と同様に、種々のデバイスを使用することができる。 The ophthalmologic image processing apparatus 20 is connected to an operation section 27 and a display section 28 . Various devices can be used for the operation unit 27 and the display unit 28, similarly to the operation unit 7 and the display unit 8 described above.

眼科画像処理装置20は、眼科撮影装置30、または画像DB40から眼科画像を取得することができる。眼科画像処理装置20は、例えば、有線通信、無線通信、着脱可能な記憶媒体(例えばUSBメモリ)等の少なくともいずれかによって、眼科撮影装置30、または画像DB40から眼科画像を取得してもよい。この場合、制御部21は、眼科画像を取得する画像取得手段として機能してもよい。また、眼科画像処理装置20は、画像処理モデル構築装置10によって構築された画像処理モデル15を実現させるプログラム等を、通信手段等を介して取得してもよい。 The ophthalmologic image processing apparatus 20 can acquire an ophthalmologic image from the ophthalmic photographing apparatus 30 or the image DB 40 . The ophthalmologic image processing apparatus 20 may acquire ophthalmologic images from the ophthalmologic photographing apparatus 30 or the image DB 40 by, for example, at least one of wired communication, wireless communication, and a removable storage medium (eg, USB memory). In this case, the control unit 21 may function as an image acquisition unit that acquires an ophthalmologic image. Further, the ophthalmologic image processing apparatus 20 may acquire a program or the like for realizing the image processing model 15 constructed by the image processing model construction apparatus 10 via communication means or the like.

<眼科撮影装置>
眼科撮影装置30について説明する。本実施例では、眼科撮影装置30として、OCT装置を例示する。ただし、OCT装置以外の眼科撮影装置(例えば、レーザ走査型検眼装置(SLO)、眼底カメラ、シャインプルーフカメラ、または角膜内皮細胞撮影装置(CEM)等)が用いられてもよい。
<Ophthalmic imaging equipment>
The ophthalmologic imaging apparatus 30 will be described. In this embodiment, an OCT apparatus is exemplified as the ophthalmologic imaging apparatus 30 . However, an ophthalmologic imaging device other than the OCT device (for example, a laser scanning optometric device (SLO), a fundus camera, a Scheimpflug camera, or a corneal endothelial cell imaging device (CEM)) may be used.

眼科撮影装置30は、各種制御処理を行う制御部31と、眼科画像撮影部34を備える。制御部31は、制御を司るコントローラであるCPU32と、プログラムおよびデータ等を記憶することが可能な記憶装置33を備える。 The ophthalmologic imaging apparatus 30 includes a control unit 31 that performs various control processes, and an ophthalmologic imaging unit 34 . The control unit 31 includes a CPU 32, which is a controller for control, and a storage device 33 capable of storing programs, data, and the like.

眼科画像撮影部34は、被検眼の眼科画像を撮影するために必要な各種構成を備える。本実施例の眼科画像撮影部34には、OCT光源、OCT光源から出射されたOCT光を測定光と参照光に分岐する分岐光学素子、測定光を走査するための走査部、測定光を被検眼に照射するための光学系、被検眼の組織によって反射された光と参照光の合成光を受光する受光素子等が含まれる。 The ophthalmologic image capturing unit 34 has various configurations necessary for capturing an ophthalmologic image of the subject's eye. The ophthalmologic image capturing unit 34 of the present embodiment includes an OCT light source, a branching optical element for branching the OCT light emitted from the OCT light source into measurement light and reference light, a scanning unit for scanning the measurement light, and a scanning unit for scanning the measurement light. It includes an optical system for irradiating an eye to be examined, a light receiving element for receiving the combined light of the light reflected by the tissue of the eye to be examined and the reference light, and the like.

眼科撮影装置30は、被検眼の眼底の二次元断層画像および三次元断層画像を撮影することができる。詳細には、CPU32は、スキャンライン上にOCT光(測定光)を走査させることで、スキャンラインに交差する断面の二次元断層画像を撮影する。二次元断層画像は、同一部位の複数の断層画像に対して加算平均処理を行うことで生成された加算平均画像であってもよい。また、CPU32は、OCT光を二次元的に走査することによって、組織における三次元断層画像を撮影することができる。例えば、CPU32は、組織を正面から見た際の二次元の領域内において、位置が互いに異なる複数のスキャンライン上の各々に測定光を走査させることで、複数の二次元断層画像を取得する。次いで、CPU32は、撮影された複数の二次元断層画像を組み合わせることで、三次元断層画像を取得する。 The ophthalmologic imaging apparatus 30 can capture a two-dimensional tomographic image and a three-dimensional tomographic image of the fundus of the subject's eye. Specifically, the CPU 32 captures a two-dimensional tomographic image of a cross section that intersects the scan lines by scanning OCT light (measurement light) along the scan lines. The two-dimensional tomographic image may be an averaging image generated by averaging a plurality of tomographic images of the same region. Moreover, the CPU 32 can capture a three-dimensional tomographic image of a tissue by two-dimensionally scanning the OCT light. For example, the CPU 32 acquires a plurality of two-dimensional tomographic images by scanning measurement light on each of a plurality of scan lines at different positions in a two-dimensional region when the tissue is viewed from the front. Next, the CPU 32 acquires a three-dimensional tomographic image by combining a plurality of captured two-dimensional tomographic images.

<画像処理モデル構築処理>
画像処理モデル構築システム1は、図3のフローチャートに示すように、ステップS1~ステップS8の流れで画像処理モデルを作成する。以下、各ステップについて説明する。
<Image processing model construction processing>
The image processing model building system 1 creates an image processing model in the flow of steps S1 to S8, as shown in the flowchart of FIG. Each step will be described below.

(S1:ラベル無し画像の入力)
ステップS1では、ラベルの付いていない眼科画像であるラベル無し画像が、眼科撮影装置30から画像DB40に大量に入力される。例えば、眼科撮影装置30によって撮影されたラベル無し画像が通信手段を介して自動的に送信される。または、ユーザUによって選択されたラベル無し画像が眼科撮影装置30に入力されてもよい。眼科撮影装置30としてOCT装置が用いられる場合、例えば、網膜層のセグメンテーションの行われていない断層画像がラベル無し画像として画像DB40に入力される。
(S1: Input of unlabeled image)
In step S<b>1 , a large amount of unlabeled images, which are unlabeled ophthalmologic images, are input from the ophthalmologic imaging apparatus 30 to the image DB 40 . For example, an unlabeled image captured by the ophthalmic imaging device 30 is automatically transmitted via the communication means. Alternatively, an unlabeled image selected by the user U may be input to the ophthalmic imaging device 30 . When an OCT apparatus is used as the ophthalmologic imaging apparatus 30, for example, a tomographic image in which retinal layer segmentation has not been performed is input to the image DB 40 as an unlabeled image.

(S2:ランダムに画像選択)
ステップS2において、眼科画像処理装置20の制御部21は、画像DB40に記憶された大量のラベル無し画像のうち一部をランダムに選択し、画像処理モデル15に学習させるための学習用画像としてユーザUに提供する。例えば、制御部21は、選択したラベル無し画像を表示部28に表示してもよい。
(S2: random image selection)
In step S2, the control unit 21 of the ophthalmologic image processing apparatus 20 randomly selects some of the large number of unlabeled images stored in the image DB 40, and uses them as learning images for the image processing model 15 to learn. provide to U. For example, the control unit 21 may display the selected unlabeled image on the display unit 28 .

(S3:ラベル付け)
ステップS3では、眼科画像処理装置20の制御部21によって提供された学習用画像に対して、ユーザUがラベル付け(アノテーション)を行う。ラベル(アノテーション情報)は、組織の識別情報などである。ユーザUは、例えば、ラベル無し画像の各画素に対してラベル付けを行う。ユーザUは、例えば、ペイントツールなどによって網膜層ごとの領域に断層画像を塗り分ける作業を行う。ユーザUは、眼科画像処理装置20の操作部27および表示部28などを用いてラベル付けを行ってもよいし、画像処理モデル構築装置10の操作部17および表示部18などを用いてラベル付けを行ってもよい。また、眼科撮影装置30が操作部37および表示部38を備えている場合、ユーザUは、それらを用いてラベル付けを行ってもよい。
(S3: Labeling)
In step S<b>3 , the user U labels (annotates) the learning images provided by the control unit 21 of the ophthalmologic image processing apparatus 20 . A label (annotation information) is identification information of an organization or the like. The user U labels each pixel of the unlabeled image, for example. The user U, for example, uses a paint tool or the like to paint the tomographic image in each region of each retinal layer. The user U may perform labeling using the operation unit 27 and the display unit 28 of the ophthalmologic image processing apparatus 20, or may perform labeling using the operation unit 17 and the display unit 18 of the image processing model construction apparatus 10. may be performed. Moreover, if the ophthalmologic photographing apparatus 30 includes the operation unit 37 and the display unit 38, the user U may use them for labeling.

(S4:ラベル付き画像の入力)
ステップS4では、ユーザUによってラベル付けされたラベル付き画像が、ラベル付き画像DB14に入力される。例えば、眼科画像処理装置20は、ユーザUによってラベル付けされたラベル付き画像を画像処理モデル構築装置10に送信する。画像処理モデル構築装置10のCPU12は、眼科画像処理装置20から受信したラベル付き画像をラベル付き画像DB14に記憶する。
(S4: Input labeled image)
In step S4, the labeled image labeled by the user U is input to the labeled image DB14. For example, the ophthalmologic image processing apparatus 20 transmits labeled images labeled by the user U to the image processing model construction apparatus 10 . The CPU 12 of the image processing model construction device 10 stores the labeled image received from the ophthalmologic image processing device 20 in the labeled image DB 14 .

(S5:ラベル付き画像の学習)
ステップS5において、画像処理モデル構築装置10は、ラベル付き画像DB14に記憶されたラベル付き画像を画像処理モデル15に学習させる。例えば、ラベル付き画像の画像のみを入力し、その結果がラベルの情報と近づくように画像処理モデル15の内部パラメータ(重み)が調整される。
(S5: Learning labeled images)
In step S<b>5 , the image processing model construction device 10 causes the image processing model 15 to learn the labeled images stored in the labeled image DB 14 . For example, only labeled images are input, and the internal parameters (weights) of the image processing model 15 are adjusted so that the result approaches the label information.

(S6:モデルの評価)
ステップS6では、画像処理モデル構築装置10は、画像処理モデル15の精度を評価する。例えば、予め正解の用意された眼科画像を画像処理モデル15に入力し、そのときの出力と、正解との比較によって評価する。また、画像処理モデル15に眼科画像を入力し、そのときの出力が適正かどうか、ユーザUが確認することで評価してもよい。画像処理モデル構築装置10は、画像処理モデル15の評価が良ければ画像処理モデルの構築処理を終了し、評価が悪ければステップS7の処理に移る。
(S6: model evaluation)
In step S<b>6 , the image processing model construction device 10 evaluates the accuracy of the image processing model 15 . For example, an ophthalmologic image prepared in advance with a correct answer is input to the image processing model 15, and the output at that time is compared with the correct answer for evaluation. Alternatively, an ophthalmologic image may be input to the image processing model 15, and the user U may check whether the output at that time is appropriate. If the evaluation of the image processing model 15 is good, the image processing model construction device 10 ends the image processing model construction processing, and if the evaluation is bad, the process proceeds to step S7.

(S7:迷い度の算出)
ステップS7において、眼科画像処理装置20は、学習途中の画像処理モデル15に画像DB40のラベル無し画像を入力し、この画像に対する画像処理モデル15の迷い度を算出させる。
(S7: Calculation of hesitation degree)
In step S7, the ophthalmologic image processing apparatus 20 inputs the unlabeled image of the image DB 40 to the image processing model 15 that is in the process of learning, and causes the image processing model 15 to calculate the degree of hesitation with respect to this image.

本実施例では、迷い度として、各画素がどの網膜層であるかを示す確率分布Pのエントロピー(平均情報量)が算出される。エントロピーは、不確実性、乱雑さ、無秩序の度合いを表す。エントロピーは、以下の式(1)で与えられる。エントロピーH(P)は、0≦H(P)≦log(事象の数)の値を取り、確率分布Pが偏っている程小さな値になる。つまり、エントロピーH(P)が小さい程、画像処理モデル15は迷わずに組織を識別できていることになる。組織が正確に識別される場合の確率分布のエントロピーは、0となる。また、組織の識別が困難になる程、エントロピーH(P)は増大する。従って、迷い度として確率分布PのエントロピーH(P)を用いることで、画像処理モデル15が識別困難な画像(つまり、学習させるべき画像)を判定することができる。

Figure 0007328489000001
In this embodiment, the entropy (average amount of information) of the probability distribution P indicating which retinal layer each pixel belongs to is calculated as the degree of confusion. Entropy represents the degree of uncertainty, clutter, and disorder. Entropy is given by the following equation (1). The entropy H(P) takes a value of 0≦H(P)≦log (number of events), and becomes a smaller value as the probability distribution P is biased. That is, the smaller the entropy H(P), the more the image processing model 15 can identify the tissue without hesitation. The entropy of the probability distribution is zero when the tissue is correctly identified. Also, the more difficult it is to identify tissue, the greater the entropy H(P). Therefore, by using the entropy H(P) of the probability distribution P as the degree of hesitation, an image that is difficult for the image processing model 15 to identify (that is, an image to be learned) can be determined.
Figure 0007328489000001

ただし、エントロピー以外の値が迷い度として採用されてもよい。例えば、取得された確率分布Pの散布度を示す標準偏差、変動係数、分散等の少なくともいずれかが迷い度として使用されてもよい。確率分布P同士の差異を図る尺度であるKLダイバージェンス等が迷い度として使用されてもよい。また、取得された確率分布Pの最大値が迷い度として使用されてもよい。また、取得された確率分布Pの最大値と、2番目に大きい値の差が迷い度として使用されてもよい。 However, a value other than entropy may be adopted as the degree of hesitation. For example, at least one of the standard deviation, coefficient of variation, variance, etc. that indicates the degree of dispersion of the obtained probability distribution P may be used as the degree of hesitation. KL divergence or the like, which is a measure of the difference between the probability distributions P, may be used as the degree of hesitation. Also, the maximum value of the acquired probability distribution P may be used as the degree of hesitation. Also, the difference between the maximum value of the acquired probability distribution P and the second largest value may be used as the degree of hesitation.

(S8:迷い度で画像選択)
ステップS8において、眼科画像処理装置20は、ステップS7において算出した迷い度に基づいて画像を画像処理モデル15に学習させるための学習用画像を選択する。例えば、迷い度の高い画像の上位数枚を選択し、ユーザUに提供する。画像処理モデル構築システム1は、画像処理モデル15の精度が改善するまでステップS3~ステップS8を繰り返す。
(S8: Image selection based on hesitation)
In step S8, the ophthalmologic image processing apparatus 20 selects learning images for causing the image processing model 15 to learn images based on the degree of hesitation calculated in step S7. For example, the top few images with a high degree of confusion are selected and provided to the user U. The image processing model construction system 1 repeats steps S3 to S8 until the accuracy of the image processing model 15 is improved.

なお、本実施例の画像処理モデル構築システム1は、ユーザUのラベル付けを簡略化するためにステップS3のラベル付けを以下に説明する流れ(S301~S303)で行ってもよい(図4参照)。 Note that the image processing model construction system 1 of the present embodiment may perform the labeling in step S3 in the following flow (S301 to S303) to simplify the labeling of the user U (see FIG. 4). ).

(S301:候補ラベル作成)
ステップS301において、眼科画像処理装置20は、迷い度に基づいて選択した学習用画像を画像処理モデル15に入力して候補ラベルを作成する。つまり、学習途中である画像処理モデル15に学習用画像(ラベル無し画像)を入力したときの出力をその学習用画像のラベルとする。
(S301: Candidate label creation)
In step S301, the ophthalmologic image processing apparatus 20 inputs learning images selected based on the degree of hesitation into the image processing model 15 to create candidate labels. That is, the output when a learning image (unlabeled image) is input to the image processing model 15 that is in the process of learning is used as the label of the learning image.

(S302:候補ラベル付加)
ステップS302において、眼科画像処理装置20は、ステップS301で作成した候補ラベルを学習用画像に付加する。
(S302: add candidate label)
In step S302, the ophthalmologic image processing apparatus 20 adds the candidate label created in step S301 to the learning image.

(S303:候補ラベル確認・修正)
ステップS303において、ユーザUは画像処理モデル構築システム1によって提供された学習用画像と、その候補ラベルを比較し、候補ラベルが学習用画像に対して適切か否かを確認する。候補ラベルが適切であれば、それを学習用画像のラベルとする。候補ラベルが適切でなければ、候補ラベルを修正するか、新たにラベルを作成する。
(S303: Candidate label confirmation/correction)
In step S303, the user U compares the learning image provided by the image processing model construction system 1 with its candidate label, and confirms whether the candidate label is appropriate for the learning image. If the candidate label is suitable, it is used as the label of the training image. If the candidate label is not suitable, modify the candidate label or create a new label.

以上のように、画像処理モデル構築システム1は、大量のラベル無し画像から選択された一部の画像のみを学習することによって、アノテーションの量を減らしつつ、効率的に精度の高い画像処理モデル15の構築を行うことができる。また、画像処理モデル構築システム1は、学習用画像にラベル候補を付加することによって、アノテーションを簡略化し、ユーザの負担を減らすことができる。特に、セグメンテーションの対象となる領域が小さく、形状が複雑で境界の区別がつきにくい眼科画像において、アノテーションの量が減り、作業が簡略化されることで、アノテーションの漏れや間違いが生じる可能性を低減できる。 As described above, the image processing model construction system 1 reduces the amount of annotations by learning only some images selected from a large number of unlabeled images, while efficiently creating an image processing model 15 with high accuracy. can be constructed. In addition, the image processing model building system 1 can simplify annotations by adding label candidates to learning images, thereby reducing the burden on the user. In particular, for ophthalmologic images where segmentation target areas are small, shapes are complex, and boundaries are difficult to distinguish, reducing the amount of annotations and simplifying the work reduces the possibility of omissions and mistakes in annotations. can be reduced.

画像処理モデル15の作成が容易になることで、病院または医師などの小規模単位での画像処理モデル15の作成が可能となり、各ユーザに適した画像処理モデル15を作成することができる。また、研究目的での画像処理モデル15の利用も促進される。 By facilitating the creation of the image processing model 15, it becomes possible to create the image processing model 15 in small units such as hospitals and doctors, and the image processing model 15 suitable for each user can be created. It also facilitates the use of the image processing model 15 for research purposes.

なお、以上の説明では、網膜層のセグメンテーションモデルの作成を例としたが、それ以外の画像識別や回帰モデル(例えば、数値を出力するモデル)に適用することも可能である。 In the above description, creation of a retinal layer segmentation model was taken as an example, but application to other image identification and regression models (for example, models that output numerical values) is also possible.

なお、学習用画像を選択する場合、画像DB40に記憶されたラベル無し画像の一部を切り出して学習用画像としてもよい。例えば、画像から検出された特徴部(病変部など)を切り出してもよいし、画像の迷い度が大きい部分を切り出してもよい。 Note that when selecting a learning image, a part of the unlabeled image stored in the image DB 40 may be cut out and used as the learning image. For example, a characteristic portion (such as a lesion) detected from the image may be cut out, or a portion of the image with a large degree of confusion may be cut out.

なお、学習用画像を選択するときの選択基準として、眼科画像に付加されている付加情報であってもよい。付加情報としては、例えば、撮影されている被検眼の病名、眼科撮影装置30で撮影したときの撮影条件などである。例えば、眼科画像処理装置20は、できるだけ異なる病名または撮影条件の眼科画像が画像処理モデル15に学習されるように学習用画像を選択する。例えば、眼科画像処理装置20は、画像DB40に記憶された画像の中で、他に比べて数が少ない病名または撮影条件の眼科画像を優先して学習用画像として選択してもよい。 Additional information added to the ophthalmologic image may be used as a selection criterion for selecting a learning image. The additional information includes, for example, the disease name of the subject's eye being photographed, the photographing conditions when photographing with the ophthalmologic photographing apparatus 30, and the like. For example, the ophthalmic image processing apparatus 20 selects learning images so that the image processing model 15 learns ophthalmologic images with different disease names or imaging conditions as much as possible. For example, the ophthalmologic image processing apparatus 20 may preferentially select, as learning images, ophthalmologic images with disease names or imaging conditions that are fewer in number among the images stored in the image DB 40 .

また、学習用画像を選択するときの選択基準として、眼科画像の信号の強さ、または信号の良好さを示す指標(例えば、SSI(Signal Strength Index)またはQI(Quality Index)等)が用いられてもよい。この場合、例えば、CPU22は、取得した指標が閾値以下である場合、適正な画像ではないと判定し、学習用画像の選択肢から排除してもよい。 In addition, as a selection criterion for selecting learning images, the strength of the signal of the ophthalmologic image or an index indicating the quality of the signal (for example, SSI (Signal Strength Index) or QI (Quality Index), etc.) is used. may In this case, for example, when the acquired index is equal to or less than the threshold, the CPU 22 may determine that the image is not a proper image and exclude it from the learning image options.

なお、画像処理モデル15に入力される眼科画像には、種々の画像を用いることができる。例えば、眼科画像は、OCT装置によって撮影された被検眼の組織の二次元断層画像または三次元断層画像であってもよい。断層画像は、OCT装置以外の装置(例えばシャインプルーフカメラ等)によって撮影されてもよい。また、眼科画像は、眼底カメラによって撮影された二次元正面画像、レーザ走査型検眼装置(SLO)によって撮影された二次元正面画像等であってもよい。眼科画像は、OCT装置によって撮影された三次元断層画像のデータに基づいて生成される二次元正面画像(所謂「Enface画像」)であってもよい。また、眼科画像は、同一位置から異なる時間に取得された複数のOCTデータを処理することで得られるモーションコントラストデータから作成される二次元正面画像(所謂「モーションコントラスト画像」)であってもよい。二次元正面画像とは、撮影光の光軸の方向から組織を撮影した二次元の画像である。また、撮影対象となる組織も適宜選択できる。例えば、被検眼の眼底、前眼部、隅角等のいずれかを撮影した画像が眼科画像として用いられてもよい。 Various images can be used as the ophthalmologic image input to the image processing model 15 . For example, the ophthalmic image may be a two-dimensional tomographic image or a three-dimensional tomographic image of the tissue of the subject's eye captured by an OCT apparatus. A tomographic image may be captured by a device other than an OCT device (for example, a Scheimpflug camera or the like). The ophthalmologic image may be a two-dimensional frontal image captured by a fundus camera, a two-dimensional frontal image captured by a laser scanning optometric device (SLO), or the like. The ophthalmologic image may be a two-dimensional front image (so-called "Enface image") generated based on data of a three-dimensional tomographic image captured by an OCT apparatus. Further, the ophthalmologic image may be a two-dimensional frontal image (so-called "motion contrast image") created from motion contrast data obtained by processing a plurality of OCT data acquired from the same position at different times. . A two-dimensional front image is a two-dimensional image of a tissue photographed from the direction of the optical axis of photographing light. Also, the tissue to be imaged can be selected as appropriate. For example, an image obtained by photographing any one of the fundus, anterior segment, angle, etc. of the subject's eye may be used as the ophthalmologic image.

1 画像処理モデル構築システム
10 画像処理モデル構築装置
20 眼科画像処理装置
30 眼科撮影装置
1 image processing model building system 10 image processing model building device 20 ophthalmic image processing device 30 ophthalmic photographing device

Claims (2)

被検眼の眼科画像を処理する眼科画像処理装置であって、
前記眼科画像を取得する画像取得手段と、
前記眼科画像を処理する制御手段と、を備え、
前記制御手段は、前記画像取得手段によって取得された前記眼科画像の中から、前記眼科画像における網膜層のセグメンテーションを行う画像処理モデルに学習させる学習用画像を、前記眼科画像を前記画像処理モデルに入力したときの、各画素がどの網膜層であるかを示す確率分布のエントロピーまたは各画素がどの網膜層であるかを示す確率分布の散布度によって選択することを特徴とする眼科画像処理装置。
An ophthalmic image processing device for processing an ophthalmic image of an eye to be examined,
an image acquisition means for acquiring the ophthalmologic image;
a control means for processing the ophthalmic image;
The control means is configured to transfer, from the ophthalmologic images acquired by the image acquisition means, learning images to be learned by an image processing model that performs segmentation of a retinal layer in the ophthalmologic images to the image processing model. An ophthalmologic image processing apparatus, characterized in that selection is made according to the entropy of a probability distribution indicating which retinal layer each pixel belongs to when inputting, or the degree of dispersion of a probability distribution indicating which retinal layer each pixel belongs to .
被検眼の眼科画像を撮影する眼科撮影装置であって、
前記眼科画像を撮影する撮影手段と、
前記眼科撮影装置を制御する制御手段と、を備え、
前記制御手段は、前記撮影手段によって撮影された前記眼科画像の中から、前記眼科画像における網膜層のセグメンテーションを行う画像処理モデルに学習させる学習用画像を、前記眼科画像を前記画像処理モデルに入力したときの、各画素がどの網膜層であるかを示す確率分布のエントロピーまたは各画素がどの網膜層であるかを示す確率分布の散布度によって選択することを特徴とする眼科撮影装置。
An ophthalmic imaging apparatus for capturing an ophthalmic image of an eye to be examined,
a photographing means for photographing the ophthalmologic image;
and a control means for controlling the ophthalmic imaging apparatus,
The control means is configured to transfer the ophthalmologic image to the image processing model from among the ophthalmologic images photographed by the photographing means as learning images to be learned by an image processing model that performs segmentation of a retinal layer in the ophthalmologic image. An ophthalmologic imaging apparatus, characterized in that selection is made according to the entropy of a probability distribution indicating which retinal layer each pixel belongs to when an input is made or the degree of dispersion of a probability distribution indicating which retinal layer each pixel belongs to .
JP2018166449A 2018-09-05 2018-09-05 Ophthalmic image processing device and ophthalmic photographing device Active JP7328489B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018166449A JP7328489B2 (en) 2018-09-05 2018-09-05 Ophthalmic image processing device and ophthalmic photographing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018166449A JP7328489B2 (en) 2018-09-05 2018-09-05 Ophthalmic image processing device and ophthalmic photographing device

Publications (3)

Publication Number Publication Date
JP2020036837A JP2020036837A (en) 2020-03-12
JP2020036837A5 JP2020036837A5 (en) 2021-09-16
JP7328489B2 true JP7328489B2 (en) 2023-08-17

Family

ID=69737141

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018166449A Active JP7328489B2 (en) 2018-09-05 2018-09-05 Ophthalmic image processing device and ophthalmic photographing device

Country Status (1)

Country Link
JP (1) JP7328489B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022209836A1 (en) * 2021-04-01 2022-10-06 富士フイルム株式会社 Training data generation device, training data generation method and program, and training device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030088165A1 (en) 2001-08-14 2003-05-08 University Of Alabama In Huntsville Multispectral image processing method, apparatus and computer program product for determining the blood oxygen saturation in a vessel
CN106097335A (en) 2016-06-08 2016-11-09 安翰光电技术(武汉)有限公司 Digestive tract focus image identification system and recognition methods
JP2016220832A (en) 2015-05-28 2016-12-28 国立大学法人 東京大学 Visual field testing apparatus
JP2017162438A (en) 2016-03-11 2017-09-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Danger prediction method
JP2017224184A (en) 2016-06-16 2017-12-21 株式会社日立製作所 Machine learning device
WO2018035473A2 (en) 2016-08-18 2018-02-22 Google Llc Processing fundus images using machine learning models
US20180144214A1 (en) 2016-11-23 2018-05-24 General Electric Company Deep learning medical systems and methods for image reconstruction and quality evaluation
US20180192870A1 (en) 2017-01-11 2018-07-12 Canon Kabushiki Kaisha Image processing apparatus, optical coherence tomography apparatus, image processing method, and computer-readable storage medium

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030088165A1 (en) 2001-08-14 2003-05-08 University Of Alabama In Huntsville Multispectral image processing method, apparatus and computer program product for determining the blood oxygen saturation in a vessel
JP2016220832A (en) 2015-05-28 2016-12-28 国立大学法人 東京大学 Visual field testing apparatus
JP2017162438A (en) 2016-03-11 2017-09-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Danger prediction method
CN106097335A (en) 2016-06-08 2016-11-09 安翰光电技术(武汉)有限公司 Digestive tract focus image identification system and recognition methods
JP2017224184A (en) 2016-06-16 2017-12-21 株式会社日立製作所 Machine learning device
WO2018035473A2 (en) 2016-08-18 2018-02-22 Google Llc Processing fundus images using machine learning models
US20180144214A1 (en) 2016-11-23 2018-05-24 General Electric Company Deep learning medical systems and methods for image reconstruction and quality evaluation
US20180192870A1 (en) 2017-01-11 2018-07-12 Canon Kabushiki Kaisha Image processing apparatus, optical coherence tomography apparatus, image processing method, and computer-readable storage medium

Also Published As

Publication number Publication date
JP2020036837A (en) 2020-03-12

Similar Documents

Publication Publication Date Title
US11633096B2 (en) Ophthalmologic image processing device and non-transitory computer-readable storage medium storing computer-readable instructions
JP6907563B2 (en) Image processing device and image processing program
US11357398B2 (en) Image processing device and non-transitory computer-readable recording medium
JP6878923B2 (en) Image processing equipment, image processing system, and image processing program
US11961229B2 (en) Ophthalmic image processing device, OCT device, and non-transitory computer-readable storage medium
US20220164949A1 (en) Ophthalmic image processing device and ophthalmic image processing method
US20240020839A1 (en) Medical image processing device, medical image processing program, and medical image processing method
JPWO2019207800A1 (en) Ophthalmic image processing equipment and ophthalmic image processing program
JP7328489B2 (en) Ophthalmic image processing device and ophthalmic photographing device
JP2019208851A (en) Fundus image processing device and fundus image processing program
WO2020116351A1 (en) Diagnostic assistance device and diagnostic assistance program
JP2023115058A (en) Ophthalmologic image processing device and ophthalmologic image processing program
JP6866954B2 (en) Ophthalmic image processing program and OCT device
WO2021020419A1 (en) Medical image processing device and medical image processing program
JPWO2020003524A1 (en) Ophthalmic image processing device and OCT device
JP6747617B2 (en) Ophthalmic image processing device and OCT device
JP2021074095A (en) Ophthalmologic image processing device and ophthalmologic image processing program
JP7210927B2 (en) Ophthalmic image processing device, OCT device, and ophthalmic image processing program
JP7180187B2 (en) Ophthalmic image processing device, OCT device, and ophthalmic image processing program
WO2020241794A1 (en) Ophthalmic image processing device, ophthalmic image processing program, and ophthalmic image processing system
WO2021045019A1 (en) Ophthalmic image processing program and ophthalmic image processing device
JP2023149095A (en) Ocular fundus image processing device and ocular fundus image processing program
JP2023149742A (en) Ocular fundus image processing device and ocular fundus image processing program
JP2021186466A (en) Ophthalmologic image processing program and ophthalmologic image processing device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210804

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230717

R150 Certificate of patent or registration of utility model

Ref document number: 7328489

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150