JP2021099559A - Information processing device, inference model generating method, information processing method, and program - Google Patents

Information processing device, inference model generating method, information processing method, and program Download PDF

Info

Publication number
JP2021099559A
JP2021099559A JP2019229892A JP2019229892A JP2021099559A JP 2021099559 A JP2021099559 A JP 2021099559A JP 2019229892 A JP2019229892 A JP 2019229892A JP 2019229892 A JP2019229892 A JP 2019229892A JP 2021099559 A JP2021099559 A JP 2021099559A
Authority
JP
Japan
Prior art keywords
data
encoder
image
information processing
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019229892A
Other languages
Japanese (ja)
Other versions
JP7457315B2 (en
Inventor
拓麻 宇田川
Takuma Udagawa
拓麻 宇田川
光州 安
Guang Zhou An
光州 安
秋葉 正博
Masahiro Akiba
正博 秋葉
横田 秀夫
Hideo Yokota
秀夫 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
RIKEN Institute of Physical and Chemical Research
Original Assignee
Topcon Corp
RIKEN Institute of Physical and Chemical Research
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp, RIKEN Institute of Physical and Chemical Research filed Critical Topcon Corp
Priority to JP2019229892A priority Critical patent/JP7457315B2/en
Publication of JP2021099559A publication Critical patent/JP2021099559A/en
Application granted granted Critical
Publication of JP7457315B2 publication Critical patent/JP7457315B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

To provide a new technology to acquire higher accuracy output by machine learning using a small amount of teacher data.SOLUTION: An information processing device includes a first learning part, a second learning part, and an inference model generating part. The first learning part performs unsupervised machine learning by using training data so that the output data of a decoder match the input data of an encoder for an autoencoder including the encoder and the decoder to which the output data of the encoder are input. The second learning part performs a machine learn by using the output data corresponding to the labeled data input to the encoder and the label attached to the labeled data as the teacher data. The inference model generating part generates an inference model to infer the label corresponding to the input data to the encoder by using the encoder obtained by the unsupervised machine learning and the sorter obtained by the machine learning with a teacher.SELECTED DRAWING: Figure 10

Description

本発明は、情報処理装置、推論モデル生成方法、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing device, an inference model generation method, an information processing method, and a program.

近年、深層学習を代表とする機械学習の手法の急速な進歩により、様々な分野で人工知能技術の実用化が進んでいる。例えば、深層学習により物体や歩行者等の検知精度を向上させることによって、自動運転の安全性を向上させることができる。また、例えば、深層学習により診断画像における疾患部位又は組織の態様等の検出精度の向上によって、正確且つ高精度な医療診断を迅速に行うことができる。 In recent years, due to the rapid progress of machine learning methods represented by deep learning, artificial intelligence technology has been put into practical use in various fields. For example, the safety of automatic driving can be improved by improving the detection accuracy of objects, pedestrians, etc. by deep learning. Further, for example, by improving the detection accuracy of the diseased part or tissue aspect in the diagnostic image by deep learning, accurate and highly accurate medical diagnosis can be performed quickly.

このような深層学習には、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)が広く使われている(特許文献1、特許文献2、特許文献3)。 A convolutional neural network (CNN) is widely used for such deep learning (Patent Document 1, Patent Document 2, Patent Document 3).

特開2019−172010号公報Japanese Unexamined Patent Publication No. 2019-172010 特開2018−121886号公報Japanese Unexamined Patent Publication No. 2018-121886 特開2019−152977号公報JP-A-2019-152977

しかしながら、深層学習に広く使われている畳み込みニューラルネットワークでは、高精度な出力(例えば、分類結果又は確信度)を得るために大量の教師データが必要になる。従って、教師データの作成に多大なコストと労力がかかる。 However, a convolutional neural network widely used for deep learning requires a large amount of teacher data in order to obtain a highly accurate output (for example, classification result or certainty). Therefore, it takes a lot of cost and labor to create teacher data.

本発明は、このような事情を鑑みてなされたものであり、その目的は、少量の教師データを用いた機械学習により高精度な出力を得るための新たな技術を提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a new technique for obtaining highly accurate output by machine learning using a small amount of teacher data.

いくつかの実施形態の第1態様は、エンコーダと前記エンコーダの出力データが入力されるデコーダとを含む自己符号化器に対し、前記デコーダの出力データが前記エンコーダの入力データに一致するように訓練データを用いた教師なし機械学習を実行する第1学習部と、前記エンコーダに入力されたラベル付きデータに対応した出力データと前記ラベル付きデータに付されたラベルとを教師データとして用いて分類器に対して教師あり機械学習を実行する第2学習部と、前記教師なし機械学習により得られた前記エンコーダと前記教師あり機械学習により得られた前記分類器とを用いて、前記エンコーダの入力データに対応するラベルを推論するための推論モデルを生成する推論モデル生成部と、を含む、情報処理装置である。 A first aspect of some embodiments trains a self-encoder that includes an encoder and a decoder into which the output data of the encoder is input so that the output data of the decoder matches the input data of the encoder. A classifier using the first learning unit that executes unsupervised machine learning using data, the output data corresponding to the labeled data input to the encoder, and the label attached to the labeled data as teacher data. Using the second learning unit that executes supervised machine learning, the encoder obtained by the unsupervised machine learning, and the classifier obtained by the supervised machine learning, the input data of the encoder is used. It is an information processing apparatus including an inference model generation unit for generating an inference model for inferring a label corresponding to.

いくつかの実施形態の第2態様では、第1態様において、前記訓練データは、脈絡膜における血管が描出された眼底の正面画像を表す画像データであり、前記分類器は、前記正面画像に描出された前記血管の走行パターンが対称であるか否かを推論する。 In a second aspect of some embodiments, in the first aspect, the training data is image data representing a frontal image of the fundus in which blood vessels in the choroid are depicted, and the classifier is rendered in the frontal image. It is inferred whether or not the traveling pattern of the blood vessel is symmetric.

いくつかの実施形態の第3態様は、訓練データを用いた教師なし機械学習により学習された自己符号化器を構成するエンコーダを含み、前記エンコーダの入力データに対応した出力データを前記入力データの特徴量として出力する特徴量抽出器と、前記エンコーダに入力されたラベル付きデータに対応した出力データと前記ラベル付きデータに付されたラベルとを教師データとして用いた教師あり機械学習により学習され、前記特徴量抽出器により出力された前記特徴量に基づいて前記入力データに対応するラベルを推論する分類器と、を含む、情報処理装置である。 A third aspect of some embodiments comprises an encoder that constitutes a self-encoder learned by unsupervised machine learning using training data, and outputs data corresponding to the input data of the encoder of the input data. It is learned by supervised machine learning using a feature amount extractor that outputs as a feature amount, output data corresponding to the labeled data input to the encoder, and a label attached to the labeled data as teacher data. It is an information processing apparatus including a classifier that infers a label corresponding to the input data based on the feature amount output by the feature amount extractor.

いくつかの実施形態の第4態様では、第3態様において、前記訓練データは、脈絡膜における血管が描出された眼底の正面画像を表す画像データであり、前記ラベル付きデータは、前記血管の走行パターンが対称であるか否かを示すラベルが付された前記正面画像を表す画像データである。 In a fourth aspect of some embodiments, in the third aspect, the training data is image data representing a frontal image of the fundus in which blood vessels in the choroid are depicted, and the labeled data is a running pattern of the blood vessels. Is image data representing the front image with a label indicating whether or not is symmetric.

いくつかの実施形態の第5態様では、第2態様又は第4態様において、前記正面画像は、前記脈絡膜におけるHaller層の正面画像である。 In a fifth aspect of some embodiments, in the second or fourth aspect, the frontal image is a frontal image of the Haller layer in the choroid.

いくつかの実施形態の第6態様では、第1態様〜第5態様のいずれかにおいて、前記ラベル付きデータは、前記訓練データの一部にラベルを付したデータを含む。 In a sixth aspect of some embodiments, in any of the first to fifth aspects, the labeled data includes data with a portion of the training data labeled.

いくつかの実施形態の第7態様では、第1態様〜第6態様のいずれかにおいて、前記訓練データは、眼底における所定の深さ範囲内の複数の位置における複数の正面画像の画像データを含む。 In the seventh aspect of some embodiments, in any one of the first to sixth aspects, the training data includes image data of a plurality of front images at a plurality of positions within a predetermined depth range on the fundus. ..

いくつかの実施形態の第8態様では、第7態様において、前記教師データは、前記所定の深さ範囲内の所定の深さ位置における前記眼底の正面画像の画像データを含む。 In an eighth aspect of some embodiments, in the seventh aspect, the teacher data includes image data of a frontal image of the fundus at a predetermined depth position within the predetermined depth range.

いくつかの実施形態の第9態様は、エンコーダと前記エンコーダの出力データが入力されるデコーダとを含む自己符号化器に対し、前記デコーダの出力データが前記エンコーダの入力データに一致するように訓練データを用いた教師なし機械学習を実行する第1学習ステップと、前記エンコーダに入力されたラベル付きデータに対応した出力データと前記ラベル付きデータに付されたラベルとを教師データとして用いて分類器に対して教師あり機械学習を実行する第2学習ステップと、前記教師なし機械学習により得られた前記エンコーダと前記教師あり機械学習により得られた前記分類器とを用いて、前記エンコーダの入力データに対応するラベルを推論するための推論モデルを生成する推論モデル生成ステップと、を含む、推論モデル生成方法である。 A ninth aspect of some embodiments trains a self-encoder that includes an encoder and a decoder into which the output data of the encoder is input so that the output data of the decoder matches the input data of the encoder. A classifier using the first learning step of executing unsupervised machine learning using data, the output data corresponding to the labeled data input to the encoder, and the label attached to the labeled data as teacher data. Using the second learning step of executing supervised machine learning, the encoder obtained by the unsupervised machine learning, and the classifier obtained by the supervised machine learning, the input data of the encoder is used. A method for generating an inference model, which includes an inference model generation step for generating an inference model for inferring a label corresponding to.

いくつかの実施形態の第10態様では、第9態様において、前記ラベル付きデータは、前記訓練データの一部にラベルを付したデータを含む。 In a tenth aspect of some embodiments, in the ninth aspect, the labeled data includes data in which a portion of the training data is labeled.

いくつかの実施形態の第11態様では、第9態様又は第10態様において、前記訓練データは、脈絡膜における血管が描出された眼底の正面画像を表す画像データであり、前記分類器は、前記正面画像に描出された前記血管の走行パターンが対称であるか否かを推論する。 In the eleventh aspect of some embodiments, in the ninth or tenth aspect, the training data is image data representing a frontal image of the fundus in which blood vessels in the choroid are depicted, and the classifier is the frontal. It is inferred whether or not the traveling pattern of the blood vessel depicted in the image is symmetric.

いくつかの実施形態の第12態様では、第11態様において、前記正面画像は、前記脈絡膜におけるHaller層の正面画像である。 In the twelfth aspect of some embodiments, in the eleventh aspect, the frontal image is a frontal image of the Haller layer in the choroid.

いくつかの実施形態の第13態様では、第9態様〜第12態様のいずれかにおいて、前記訓練データは、眼底における所定の深さ範囲内の複数の位置における複数の正面画像の画像データを含む。 In the thirteenth aspect of some embodiments, in any of the ninth to twelfth aspects, the training data includes image data of a plurality of front images at a plurality of positions within a predetermined depth range on the fundus. ..

いくつかの実施形態の第14態様では、第13態様において、前記教師データは、前記所定の深さ範囲内の所定の深さ位置における前記眼底の正面画像の画像データを含む。 In the 14th aspect of some embodiments, in the 13th aspect, the teacher data includes image data of a frontal image of the fundus at a predetermined depth position within the predetermined depth range.

いくつかの実施形態の第15態様は、訓練データを用いた教師なし機械学習により学習された自己符号化器を構成するエンコーダを用いて、前記エンコーダの入力データに対応した出力データを前記入力データの特徴量として出力する特徴量抽出ステップと、前記エンコーダに入力されたラベル付きデータに対応した出力データと前記ラベル付きデータに付されたラベルとを教師データとして用いた教師あり機械学習により学習された分類器を用いて、前記特徴量抽出ステップにおいて出力された前記特徴量に基づいて前記入力データに対応するラベルを推論する推論ステップと、を含む、情報処理方法である。 In the fifteenth aspect of some embodiments, the input data corresponds to the input data of the encoder by using the encoder constituting the self-encoder learned by unsupervised machine learning using the training data. It is learned by supervised machine learning using the feature amount extraction step to be output as the feature amount of the above, the output data corresponding to the labeled data input to the encoder, and the label attached to the labeled data as teacher data. This is an information processing method including an inference step of inferring a label corresponding to the input data based on the feature amount output in the feature amount extraction step using the classifier.

いくつかの実施形態の第16態様では、第15態様において、前記ラベル付きデータは、前記訓練データの一部にラベルを付したデータを含む。 In the 16th aspect of some embodiments, in the 15th aspect, the labeled data includes data in which a part of the training data is labeled.

いくつかの実施形態の第17態様では、第15態様又は第16態様において、前記訓練データは、脈絡膜における血管が描出された眼底の正面画像を表す画像データであり、前記ラベル付きデータは、前記血管の走行パターンが対称であるか否かを示すラベルが付された前記正面画像を表す画像データである。 In the 17th aspect of some embodiments, in the 15th or 16th aspect, the training data is image data representing a frontal image of the fundus in which blood vessels in the choroid are depicted, and the labeled data is said. It is image data which represents the front image with the label which shows whether or not the running pattern of a blood vessel is symmetric.

いくつかの実施形態の第18態様では、第17態様において、前記正面画像は、前記脈絡膜におけるHaller層の正面画像である。 In the eighteenth aspect of some embodiments, in the seventeenth aspect, the frontal image is a frontal image of the Haller layer in the choroid.

いくつかの実施形態の第19態様では、第15態様〜第18態様のいずれかにおいて、前記訓練データは、眼底における所定の深さ範囲内の複数の位置における複数の正面画像の画像データを含む。 In the 19th aspect of some embodiments, in any of the 15th to 18th aspects, the training data includes image data of a plurality of front images at a plurality of positions within a predetermined depth range on the fundus. ..

いくつかの実施形態の第20態様では、第19態様において、前記教師データは、前記所定の深さ範囲内の所定の深さ位置における前記眼底の正面画像の画像データを含む。 In a twentieth aspect of some embodiments, in the nineteenth aspect, the teacher data includes image data of a frontal image of the fundus at a predetermined depth position within the predetermined depth range.

いくつかの実施形態の第21態様は、コンピュータに、第9態様〜第14態様のいずれかに記載の推論モデル生成方法の各ステップを実行させるプログラムである。 A twenty-first aspect of some embodiments is a program that causes a computer to perform each step of the inference model generation method according to any of the ninth to fourteenth aspects.

いくつかの実施形態の第22態様は、コンピュータに、第15態様〜第20態様のいずれかに記載の情報処理方法の各ステップを実行させるプログラムである。 A 22nd aspect of some embodiments is a program that causes a computer to perform each step of the information processing method according to any of the 15th to 20th aspects.

なお、上記した複数の態様に係る構成を任意に組み合わせることが可能である。 In addition, it is possible to arbitrarily combine the configurations according to the above-mentioned plurality of aspects.

本発明に係るいくつかの実施形態によれば、少量の教師データを用いた機械学習により高精度な出力を得るための新たな技術を提供することができる。 According to some embodiments of the present invention, it is possible to provide a new technique for obtaining highly accurate output by machine learning using a small amount of teacher data.

実施形態に係る眼科システムの構成の一例を表す概略図である。It is the schematic which shows an example of the structure of the ophthalmic system which concerns on embodiment. 実施形態に係る眼科装置の構成の一例を表す概略図である。It is the schematic which shows an example of the structure of the ophthalmic apparatus which concerns on embodiment. 実施形態に係る眼科情報処理装置の構成の一例を表す概略図である。It is the schematic which shows an example of the structure of the ophthalmic information processing apparatus which concerns on embodiment. 実施形態に係る眼科情報処理装置の構成の一例を表す概略図である。It is the schematic which shows an example of the structure of the ophthalmic information processing apparatus which concerns on embodiment. 実施形態に係る眼科情報処理装置の構成の一例を表す概略図である。It is the schematic which shows an example of the structure of the ophthalmic information processing apparatus which concerns on embodiment. 実施形態に係る眼科情報処理装置の構成の一例を表す概略図である。It is the schematic which shows an example of the structure of the ophthalmic information processing apparatus which concerns on embodiment. 実施形態に係る眼科情報処理装置の構成の一例を表す概略図である。It is the schematic which shows an example of the structure of the ophthalmic information processing apparatus which concerns on embodiment. 実施形態に係る眼科情報処理装置の構成の一例を表す概略図である。It is the schematic which shows an example of the structure of the ophthalmic information processing apparatus which concerns on embodiment. 実施形態に係る眼科情報処理装置の動作フローの一例を表す概略図である。It is the schematic which shows an example of the operation flow of the ophthalmic information processing apparatus which concerns on embodiment. 実施形態に係る眼科情報処理装置の動作を説明するための概略図である。It is the schematic for demonstrating the operation of the ophthalmic information processing apparatus which concerns on embodiment. 実施形態に係る眼科情報処理装置の動作を説明するための概略図である。It is the schematic for demonstrating the operation of the ophthalmic information processing apparatus which concerns on embodiment. 実施形態に係る眼科情報処理装置の動作を説明するための概略図である。It is the schematic for demonstrating the operation of the ophthalmic information processing apparatus which concerns on embodiment. 実施形態の変形例に係る眼科装置の構成の一例を表す概略図である。It is the schematic which shows an example of the structure of the ophthalmic apparatus which concerns on the modification of embodiment.

この発明のいくつかの実施形態に係る情報処理装置、推論モデル生成方法、情報処理方法、及びプログラムの例について、図面を参照しながら詳細に説明する。なお、この明細書で引用する文献に記載された事項や任意の公知技術を実施形態に援用することができる。 An example of an information processing apparatus, an inference model generation method, an information processing method, and a program according to some embodiments of the present invention will be described in detail with reference to the drawings. In addition, the matters described in the document cited in this specification and any known technique can be incorporated into the embodiment.

以下、実施形態に係る情報処理装置、推論モデル生成方法、情報処理方法、及びプログラムが眼科分野に適用される場合について説明する。しかしながら、実施形態に係る情報処理装置、推論モデル生成方法、情報処理方法、及びプログラムの適用分野は眼科分野に限定されるものではない。 Hereinafter, a case where the information processing apparatus, the inference model generation method, the information processing method, and the program according to the embodiment are applied to the field of ophthalmology will be described. However, the information processing apparatus, the inference model generation method, the information processing method, and the application fields of the program according to the embodiment are not limited to the ophthalmic field.

実施形態に係る情報処理装置が眼科分野に適用される場合、実施形態に係る情報処理装置の機能は眼科情報処理装置によって実現される。同様に、実施形態に係る情報処理方法が眼科分野に適用される場合、実施形態に係る情報処理方法の機能は眼科情報処理方法によって実現される。 When the information processing device according to the embodiment is applied to the field of ophthalmology, the function of the information processing device according to the embodiment is realized by the ophthalmic information processing device. Similarly, when the information processing method according to the embodiment is applied to the field of ophthalmology, the function of the information processing method according to the embodiment is realized by the ophthalmic information processing method.

実施形態に係る眼科情報処理装置は、眼科装置により光学的に取得された被検眼の眼底のデータに対して所定の解析処理や所定の表示処理を施すことが可能である。いくつかの実施形態に係る眼科装置は、被検眼の眼底の正面画像を取得する機能を備える。被検眼の眼底の正面画像を取得する機能を備えた眼科装置には、光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT)装置、眼底カメラ、走査型レーザー検眼鏡、スリットランプ顕微鏡、手術用顕微鏡などがある。いくつかの実施形態に係る眼科装置は、被検眼の光学的な特性を測定する機能を備える。被検眼の光学的な特性を測定する機能を備えた眼科装置には、レフラクトメーター、ケラトメーター、眼圧計、ウェーブフロントアナライザー、スペキュラーマイクロスコープ、視野計などがある。いくつかの実施形態に係る眼科装置は、レーザー治療に用いられるレーザー治療装置の機能を備える。 The ophthalmic information processing device according to the embodiment can perform a predetermined analysis process and a predetermined display process on the data of the fundus of the eye to be inspected optically acquired by the ophthalmic device. The ophthalmic apparatus according to some embodiments has a function of acquiring a frontal image of the fundus of the eye to be inspected. Ophthalmic devices equipped with a function to acquire a frontal image of the fundus of the eye to be inspected include an optical coherence tomography (OCT) device, a fundus camera, a scanning laser ophthalmoscope, a slit lamp microscope, and a surgical microscope. is there. The ophthalmic apparatus according to some embodiments has a function of measuring the optical characteristics of the eye to be inspected. Ophthalmic devices having the function of measuring the optical characteristics of the eye to be inspected include a reflex meter, a keratometer, a tonometer, a wavefront analyzer, a specular microscope, and a perimeter. The ophthalmic apparatus according to some embodiments comprises the function of a laser treatment apparatus used for laser treatment.

以下の実施形態では、眼科装置が被検眼に対してOCTを実行することによりOCTデータを取得する場合について説明する。眼科装置又は眼科情報処理装置は、取得されたOCTデータを用いて眼底の正面画像を形成することが可能である。 In the following embodiment, a case where the ophthalmic apparatus acquires OCT data by performing OCT on the eye to be inspected will be described. The ophthalmic apparatus or the ophthalmic information processing apparatus can form a frontal image of the fundus using the acquired OCT data.

また、以下の実施形態では、眼科情報処理装置が、被検眼の眼底の脈絡膜における血管の走行パターンが対称性を有するか否かを推論する場合について説明する。脈絡膜における血管の走行パターンの対称性は、中心窩と視神経乳頭とを結ぶ線を対称軸として判断される。脈絡膜における血管の走行パターンが非対称であると判断される症例では、所定の疾患を発症しやすいと考えられている(例えば、T.Hiroe, et al., “Dilatation of Asymmetric Vortex Vein in Cetnral Serous Chorioretinopathy”, American Academy of Ophthalmology, 2017年, ISSN 2468−6530/17、又は、M.C.SAVASTANO, et al., “CLASSIFICATION OF HALLER VESSEL ARRANGEMENTS IN ACUTE AND CHRONIC CENTRAL SEROUS CHORIORETINOPATHY IMAGED WITH EN FACE OPTICAL COHERENCE TOMOGRAPHY”, 2017年, Ophthalmic Communications Society)。 Further, in the following embodiment, a case where the ophthalmologic information processing apparatus infers whether or not the running pattern of blood vessels in the choroid of the fundus of the eye to be inspected has symmetry will be described. The symmetry of the blood vessel running pattern in the choroid is judged with the line connecting the fovea centralis and the optic nerve head as the axis of symmetry. Cases in which the running pattern of blood vessels in the choroid is determined to be asymmetric are considered to be prone to develop certain diseases (eg, T. Hiroe, et al., "Dilation of Acute Vortex Vein in Central Serous Chorioretinopathy". ", American Academy of Ophthalmology, 2017 years, ISSN 2468-6530 / 17, or, M.C.SAVASTANO, et al.," CLASSIFICATION OF HALLER VESSEL ARRANGEMENTS IN ACUTE aND CHRONIC CENTRAL SEROUS CHORIORETINOPATHY IMAGED WITH EN FACE OPTICAL COHERENCE TOMOGRAPHY " , 2017, Ophthalmic Communications Society).

例えば、脈絡膜における血管の走行パターンが非対称であると判断される症例の場合、加齢黄斑変性の病態にPachychoroidが関連している可能性が指摘されている。従って、上記の走行パターンの対称性を推論することにより、Pachychoroidに対する治療方針の決定を補助することができる。 For example, in the case where the running pattern of blood vessels in the choroid is determined to be asymmetric, it has been pointed out that Pachychoroid may be associated with the pathological condition of age-related macular degeneration. Therefore, by inferring the symmetry of the above-mentioned running pattern, it is possible to assist in determining the treatment policy for Pachychoroid.

例えば、“Intravitreal aflibercept and ranibizumab for pachychoroid neovasculopathy”(B.J.Yung, et al., 2019年, 9:2055, SCIENTIFIC REPORTS)には、Pachychoroidに有効と考えられている治療薬が存在すると指摘されている。従って、上記の走行パターンの対称性の推論結果から加齢黄斑変性の治療薬を選択することができる。 For example, "Intravitreal aflibercept and ranibizumab for pachychoroid neovasculopathy" (BJ Yung, et al., 2019, 9: 2055, considered to be effective in SCIENTIFIC REPORTS) ing. Therefore, a therapeutic agent for age-related macular degeneration can be selected from the inference result of the symmetry of the traveling pattern described above.

例えば、“Efficacy of Photodynamic Therapy for Polypoidal Chroidal Vasculopathy Associated with and without Pachychoroid Phenotypes”(M.Hata, et al., 2018年, Ophthalmology Retina)には、ポリープ状脈絡膜血管症(Polypoidal Choroidal Vasculopathy:PCV)に光線力学的療法(photodynamic therapy:PDT)が有効であると指摘されている。従って、上記の走行パターンの対称性の推論結果から加齢黄斑変性の治療法を選択することができる。 For example, "Efficacy of Photodynamic Therapy for Polypoidal Chroidal Vasculopathy Associated with and without Pachychoroid Phenotypes" (M.Hata, et al, 2018 years, Ophthalmology Retina.) The, polypoid choroidal angiopathy (Polypoidal Choroidal Vasculopathy: PCV) to rays It has been pointed out that photodynamic therapy (PDT) is effective. Therefore, a treatment method for age-related macular degeneration can be selected from the inference result of the symmetry of the running pattern described above.

実施形態に係る眼科情報処理装置は、機械学習によって得られた推論モデルを用いて、被検眼の眼底の正面画像(特に、OCTを用いて取得されたOCT画像)に描出された脈絡膜における血管の走行パターンが対称性を有するか否かを推論することが可能である。実施形態に係る推論モデル生成方法は、上記の走行パターンが対称性を有するか否かを推論するための推論モデルを生成する方法である。 The ophthalmologic information processing apparatus according to the embodiment uses an inference model obtained by machine learning to depict a blood vessel in the choroid on a frontal image of the fundus of the eye to be inspected (particularly, an OCT image obtained by using OCT). It is possible to infer whether or not the traveling pattern has symmetry. The inference model generation method according to the embodiment is a method of generating an inference model for inferring whether or not the above-mentioned traveling pattern has symmetry.

実施形態に係る眼科システムは、眼科情報処理装置を含む。実施形態に係る眼科情報処理方法又は推論モデル生成方法は、眼科情報処理装置により実行される。実施形態に係るプログラムは、眼科情報処理方法又は推論モデル生成方法の各ステップをコンピュータに実行させる。 The ophthalmic system according to the embodiment includes an ophthalmic information processing device. The ophthalmic information processing method or the inference model generation method according to the embodiment is executed by the ophthalmic information processing apparatus. The program according to the embodiment causes a computer to execute each step of the ophthalmic information processing method or the inference model generation method.

[眼科システム]
図1に、実施形態に係る眼科システムの構成例のブロック図を示す。実施形態に係る眼科システム1は、眼科装置10と、眼科情報処理装置(眼科画像処理装置、眼科解析装置)100と、操作装置180と、表示装置190とを含む。
[Ophthalmology system]
FIG. 1 shows a block diagram of a configuration example of an ophthalmic system according to an embodiment. The ophthalmology system 1 according to the embodiment includes an ophthalmology device 10, an ophthalmology information processing device (ophthalmology image processing device, ophthalmology analysis device) 100, an operation device 180, and a display device 190.

眼科装置10は、被検眼のデータを光学的に収集する。眼科装置10は、被検眼の眼底をスキャンすることにより被検眼の眼底のデータを光学的に収集する。この実施形態では、眼科装置10は、OCTを用いて被検眼の眼底のOCTデータを取得する。眼科装置10は、取得された被検眼のデータから被検眼の眼底の画像を取得することが可能である。眼底の画像には、眼底の断層像及び正面画像が含まれる。眼底の断層像には、Bスキャン画像などがある。眼底の正面画像には、Cスキャン画像、en−face画像、シャドウグラム、又はプロジェクション画像などがある。眼科装置10は、取得された被検眼のデータ又は取得された画像のデータを眼科情報処理装置100に送信する。 The ophthalmic apparatus 10 optically collects data of the eye to be inspected. The ophthalmologic apparatus 10 optically collects data on the fundus of the eye to be inspected by scanning the fundus of the eye to be inspected. In this embodiment, the ophthalmologic apparatus 10 uses OCT to acquire OCT data of the fundus of the eye to be inspected. The ophthalmic apparatus 10 can acquire an image of the fundus of the eye to be inspected from the acquired data of the eye to be inspected. Images of the fundus include tomographic images and frontal images of the fundus. The tomographic image of the fundus includes a B-scan image and the like. The frontal image of the fundus includes a C-scan image, an en-face image, a shadow gram, a projection image, and the like. The ophthalmic apparatus 10 transmits the acquired data of the eye to be inspected or the acquired image data to the ophthalmic information processing apparatus 100.

いくつかの実施形態では、眼科装置10と眼科情報処理装置100とは、データ通信ネットワークを介して接続される。いくつかの実施形態に係る眼科情報処理装置100は、データ通信ネットワークを介して選択的に接続された複数の眼科装置10の1つから上記のデータを受信する。 In some embodiments, the ophthalmic apparatus 10 and the ophthalmic information processing apparatus 100 are connected via a data communication network. The ophthalmic information processing device 100 according to some embodiments receives the above data from one of a plurality of ophthalmic devices 10 selectively connected via a data communication network.

眼科情報処理装置100は、機械学習によって得られた推論モデル(学習モデル)を用いて、被検眼の眼底の正面画像に描出された脈絡膜血管の走行パターン(分布)に対称性があるか否かを推論する。いくつかの実施形態では、眼科情報処理装置100は、眼底の正面画像に描出された中心窩(具体的には、中心窩に相当する領域の中心位置)と視神経乳頭(具体的には、視神経乳頭に相当する領域の中心位置)とを結ぶ線を対称軸として、脈絡膜血管の走行パターンに対称性があるか否かを推論する。 The ophthalmic information processing apparatus 100 uses the inference model (learning model) obtained by machine learning to determine whether or not the running pattern (distribution) of the choroidal blood vessels drawn on the frontal image of the fundus of the eye to be inspected has symmetry. Infer. In some embodiments, the ophthalmologic information processing apparatus 100 comprises a fovea (specifically, the central position of the region corresponding to the fovea) and an optic nerve head (specifically, the optic nerve) visualized in a frontal image of the fundus. With the line connecting the center position of the region corresponding to the optic disc as the axis of symmetry, it is inferred whether or not the running pattern of the choroidal blood vessels is symmetric.

いくつかの実施形態では、眼科情報処理装置100は、外部で構築された推論モデルを用いて脈絡膜血管の走行パターンに対称性があるか否かを推論する。いくつかの実施形態では、眼科情報処理装置100は、上記の推論モデルを構築し、構築された推論モデルを用いて脈絡膜血管の走行パターンに対称性があるか否かを推論する。いくつかの実施形態では、眼科情報処理装置100は、上記の推論モデルを構築し、構築された推論モデルを外部の装置に出力する。 In some embodiments, the ophthalmic information processing apparatus 100 uses an externally constructed inference model to infer whether or not the running pattern of the choroidal blood vessels is symmetric. In some embodiments, the ophthalmic information processing apparatus 100 constructs the above inference model and infers whether or not the running pattern of the choroidal blood vessels is symmetric using the constructed inference model. In some embodiments, the ophthalmic information processing apparatus 100 builds the above inference model and outputs the constructed inference model to an external device.

以下、眼科情報処理装置100は、眼底のen−face画像に対して上記の推論を行うものとする。脈絡膜は、Choriocapillaris(脈絡毛細管板)層、Sattler(中血管)層、及びHaller(大血管)層を含む。脈絡膜のHaller層(大血管層)における血管を解析対象とすることで、脈絡膜血管の走行パターンの対称性を判断しやすくなる(例えば、H.Shiihara, et al., “Automated segmentation for en face choroidal images obtained by optical coherent tomography by machine learning”, 2018年3月29日, Japanese Journal of Ophthalmology)。実施形態に係る眼科情報処理装置100は、脈絡膜のHaller層のen−face画像に対して、上記の推論を行うことができる。 Hereinafter, the ophthalmic information processing apparatus 100 shall perform the above inference with respect to the en-face image of the fundus. The choroid includes the Choriocapillaris layer, the Sattler layer, and the Haller layer. By analyzing the blood vessels in the Haller layer (macrovascular layer) of the choroid, it becomes easier to determine the symmetry of the running pattern of the choroidal blood vessels (for example, H. Shiihara, et al., "Automated segmentation for en face choroidal". images obtined by optical coherent tomography by machine learning ”, March 29, 2018, Japanese Journal of Ophthalmology). The ophthalmologic information processing apparatus 100 according to the embodiment can make the above inference with respect to the en-face image of the Haller layer of the choroid.

眼科情報処理装置100は、推論結果として、脈絡膜血管の走行パターンに対称性があるか否かの分類結果(対称である、非対称である)を出力することができる。いくつかの実施形態では、眼科情報処理装置100は、推論結果として、脈絡膜血管の走行性パターンが対称(又は非対称)であると判断する指標(度合い)を表す確信度を表す情報(数値、画像など)を出力する。 The ophthalmologic information processing apparatus 100 can output as an inference result a classification result (symmetrical or asymmetrical) as to whether or not the running pattern of the choroidal blood vessel has symmetry. In some embodiments, the ophthalmologic information processing apparatus 100 indicates, as an inference result, information (numerical value, image) indicating the degree of certainty indicating an index (degree) for determining that the running pattern of the choroidal blood vessel is symmetric (or asymmetric). Etc.) is output.

操作装置180及び表示装置190は、ユーザインターフェイス部として情報の表示、情報の入力、操作指示の入力など、眼科情報処理装置100とそのユーザとの間で情報をやりとりするための機能を提供する。操作装置180は、レバー、ボタン、キー、ポインティングデバイス等の操作デバイスを含む。いくつかの実施形態に係る操作装置180は、音で情報を入力するためのマイクロフォンを含む。表示装置190は、フラットパネルディスプレイ等の表示デバイスを含む。いくつかの実施形態では、操作装置180及び表示装置190の機能は、タッチパネルディスプレイのような入力機能を有するデバイスと表示機能を有するデバイスとが一体化されたデバイスにより実現される。いくつかの実施形態では、操作装置180及び表示装置190は、情報の入出力を行うためのグラフィカルユーザインターフェイス(GUI)を含む。 The operation device 180 and the display device 190 provide functions as a user interface unit for exchanging information between the ophthalmic information processing device 100 and its user, such as information display, information input, and operation instruction input. The operating device 180 includes operating devices such as levers, buttons, keys, and pointing devices. The operating device 180 according to some embodiments includes a microphone for inputting information by sound. The display device 190 includes a display device such as a flat panel display. In some embodiments, the functions of the operating device 180 and the display device 190 are realized by a device such as a touch panel display in which a device having an input function and a device having a display function are integrated. In some embodiments, the operating device 180 and the display device 190 include a graphical user interface (GUI) for inputting and outputting information.

[眼科装置]
図2に、実施形態に係る眼科装置10の構成例のブロック図を示す。
[Ophthalmic equipment]
FIG. 2 shows a block diagram of a configuration example of the ophthalmic apparatus 10 according to the embodiment.

眼科装置10には、被検眼のOCTデータを取得するための光学系が設けられている。眼科装置10は、スウェプトソースOCTを実行する機能を備えているが、実施形態はこれに限定されない。例えば、OCTの種別はスウェプトソースOCTには限定されず、スペクトラルドメインOCT等であってもよい。スウェプトソースOCTは、波長掃引型(波長走査型)光源からの光を測定光と参照光とに分割し、被測定物体を経由した測定光の戻り光を参照光と干渉させて干渉光を生成し、この干渉光をバランスドフォトダイオード等で検出し、波長の掃引及び測定光のスキャンに応じて収集された検出データにフーリエ変換等を施して画像を形成する手法である。スペクトラルドメインOCTは、低コヒーレンス光源からの光を測定光と参照光とに分割し、被測定物体を経由した測定光の戻り光を参照光と干渉させて干渉光を生成し、この干渉光のスペクトル分布を分光器で検出し、検出されたスペクトル分布にフーリエ変換等を施して画像を形成する手法である。 The ophthalmic apparatus 10 is provided with an optical system for acquiring OCT data of the eye to be inspected. The ophthalmic apparatus 10 has a function of performing a swept source OCT, but the embodiment is not limited to this. For example, the type of OCT is not limited to swept source OCT, and may be spectral domain OCT or the like. The swept source OCT divides the light from the wavelength sweep type (wavelength scanning type) light source into the measurement light and the reference light, and causes the return light of the measurement light passing through the object to be measured to interfere with the reference light to generate interference light. Then, this interference light is detected by a balanced photodiode or the like, and the detection data collected in response to the sweeping of the wavelength and the scanning of the measurement light is subjected to Fourier transform or the like to form an image. Spectral domain OCT divides the light from the low coherence light source into measurement light and reference light, and causes the return light of the measurement light that has passed through the object to be measured to interfere with the reference light to generate interference light. This is a method in which the spectral distribution is detected by a spectroscope and the detected spectral distribution is subjected to Fourier transform or the like to form an image.

眼科装置10は、制御部11と、データ収集部12と、画像形成部13と、通信部14とを含む。 The ophthalmic apparatus 10 includes a control unit 11, a data acquisition unit 12, an image forming unit 13, and a communication unit 14.

制御部11は、眼科装置10の各部を制御する。特に、制御部11は、データ収集部12、画像形成部13、及び通信部14を制御する。 The control unit 11 controls each unit of the ophthalmic apparatus 10. In particular, the control unit 11 controls the data acquisition unit 12, the image forming unit 13, and the communication unit 14.

データ収集部12は、OCTを用いて被検眼をスキャンすることにより被検眼のデータ(例えば、3次元のOCTデータ)を収集する。データ収集部12は、干渉光学系12Aと、スキャン光学系12Bとを含む。 The data collection unit 12 collects data of the eye to be inspected (for example, three-dimensional OCT data) by scanning the eye to be inspected using OCT. The data acquisition unit 12 includes an interference optical system 12A and a scanning optical system 12B.

干渉光学系12Aは、光源(波長掃引型光源)からの光を測定光と参照光とに分割し、被検眼を経由した測定光の戻り光を参照光路を経由した参照光と干渉させて干渉光を生成し、生成された干渉光を検出する。干渉光学系12Aは、ファイバーカプラと、バランスドフォトダイオード等の受光器とを少なくとも含む。ファイバーカプラは、光源からの光を測定光と参照光とに分割し、被検眼を経由した測定光の戻り光と参照光路を経由した参照光と干渉させて干渉光を生成する。受光器は、ファイバーカプラにより生成された干渉光を検出する。干渉光学系12Aは、光源を含んでよい。 The interference optical system 12A divides the light from the light source (wavelength sweep type light source) into the measurement light and the reference light, and interferes with the return light of the measurement light passing through the eye to be inspected by interfering with the reference light passing through the reference optical path. Generates light and detects the generated interference light. The interference optical system 12A includes at least a fiber coupler and a receiver such as a balanced photodiode. The fiber coupler divides the light from the light source into measurement light and reference light, and causes interference light to be generated by interfering with the return light of the measurement light passing through the eye to be inspected and the reference light passing through the reference optical path. The receiver detects the interference light generated by the fiber coupler. The interference optical system 12A may include a light source.

スキャン光学系12Bは、制御部11からの制御を受け、干渉光学系12Aにより生成された測定光を偏向することにより被検眼の眼底における測定光の入射位置を変更する。スキャン光学系12Bは、例えば、被検眼の瞳孔と光学的に略共役な位置に配置された光スキャナを含む。光スキャナは、例えば、測定光を水平方向に偏向する第1ガルバノミラーと、測定光を垂直方向に偏向する第2ガルバノミラーと、これらを独立に駆動する機構とを含んで構成される。例えば、第2ガルバノミラーは、第1ガルバノミラーにより偏向された測定光を更に偏向するように構成される。それにより、測定光を眼底平面上の任意の方向にスキャンすることができる。 The scan optical system 12B is controlled by the control unit 11 and changes the incident position of the measurement light on the fundus of the eye to be inspected by deflecting the measurement light generated by the interference optical system 12A. The scanning optical system 12B includes, for example, an optical scanner arranged at a position substantially conjugate with the pupil of the eye to be inspected. The optical scanner includes, for example, a first galvano mirror that deflects the measurement light in the horizontal direction, a second galvano mirror that deflects the measurement light in the vertical direction, and a mechanism that independently drives them. For example, the second galvanometer mirror is configured to further deflect the measurement light deflected by the first galvanometer mirror. Thereby, the measurement light can be scanned in any direction on the fundus plane.

干渉光学系12Aによる干渉光の検出結果(検出信号)は、干渉光のスペクトルを示す干渉信号である。 The detection result (detection signal) of the interference light by the interference optical system 12A is an interference signal showing the spectrum of the interference light.

画像形成部13は、制御部11からの制御を受け、データ収集部12により収集された被検眼のデータに基づいて被検眼の眼底の断層像の画像データを形成する。この処理には、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などの処理が含まれている。このようにして取得される画像データは、複数のAライン(被検眼内における各測定光の経路)における反射強度プロファイルを画像化することにより形成された一群の画像データを含むデータセットである。画質を向上させるために、同じパターンでのスキャンを複数回繰り返して収集された複数のデータセットを重ね合わせる(加算平均する)ことができる。 The image forming unit 13 receives control from the control unit 11 and forms image data of a tomographic image of the fundus of the eye to be inspected based on the data of the eye to be inspected collected by the data collecting unit 12. This process includes processing such as noise removal (noise reduction), filter processing, and FFT (Fast Fourier Transform). The image data acquired in this way is a data set including a group of image data formed by imaging reflection intensity profiles in a plurality of A lines (paths of each measurement light in the eye to be inspected). In order to improve the image quality, it is possible to superimpose (add and average) a plurality of data sets collected by repeating scanning with the same pattern a plurality of times.

画像形成部13は、3次元のOCTデータに各種のレンダリングを施すことで、Bスキャン画像、Cスキャン画像、en−face画像、プロジェクション画像、シャドウグラムなどを形成することができる。Bスキャン画像やCスキャン画像のような任意断面の画像は、指定された断面上の画素(ピクセル、ボクセル)を3次元のOCTデータ(画像データ)から選択することにより形成される。en−face画像は、3次元のOCTデータ(画像データ)の一部を平坦化(フラットニング)することにより形成される。いくつかの実施形態では、en−face画像は、Aスキャン方向(Z方向、深さ方向)の所定の位置のOCT画像として形成される。プロジェクション画像は、3次元のOCTデータを所定方向(Z方向、深さ方向、Aスキャン方向)に投影することによって形成される。シャドウグラムは、3次元のOCTデータの一部(例えば特定層に相当する部分データ)を所定方向に投影することによって形成される。 The image forming unit 13 can form a B-scan image, a C-scan image, an en-face image, a projection image, a shadow gram, or the like by performing various renderings on the three-dimensional OCT data. An image of an arbitrary cross section such as a B scan image or a C scan image is formed by selecting pixels (pixels, voxels) on a designated cross section from three-dimensional OCT data (image data). The en-face image is formed by flattening a part of three-dimensional OCT data (image data). In some embodiments, the en-face image is formed as an OCT image at a predetermined position in the A scan direction (Z direction, depth direction). The projection image is formed by projecting three-dimensional OCT data in a predetermined direction (Z direction, depth direction, A scan direction). The shadow gram is formed by projecting a part of three-dimensional OCT data (for example, partial data corresponding to a specific layer) in a predetermined direction.

いくつかの実施形態に係る眼科装置10には、画像形成部13により形成された画像に対して各種のデータ処理(画像処理)や解析処理を施すデータ処理部が設けられる。例えば、データ処理部は、画像の輝度補正や分散補正等の補正処理を実行する。データ処理部は、断層像の間の画素を補間する補間処理などの公知の画像処理を実行することにより、被検眼のボリュームデータ(ボクセルデータ)を形成することができる。ボリュームデータに基づく画像を表示させる場合、データ処理部は、このボリュームデータに対してレンダリング処理を施して、特定の視線方向から見たときの擬似的な3次元画像を形成する。 The ophthalmic apparatus 10 according to some embodiments is provided with a data processing unit that performs various data processing (image processing) and analysis processing on the image formed by the image forming unit 13. For example, the data processing unit executes correction processing such as image brightness correction and dispersion correction. The data processing unit can form volume data (voxel data) of the eye to be inspected by executing known image processing such as interpolation processing for interpolating pixels between tomographic images. When displaying an image based on volume data, the data processing unit performs rendering processing on the volume data to form a pseudo three-dimensional image when viewed from a specific line-of-sight direction.

制御部11及び画像形成部13のそれぞれは、プロセッサを含む。プロセッサは、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等の回路を含む。画像形成部13の機能は、画像形成プロセッサにより実現される。いくつかの実施形態では、制御部11及び画像形成部13の双方の機能が1つのプロセッサにより実現される。いくつかの実施形態では、眼科装置10にデータ処理部が設けられている場合、データ処理部の機能もまたプロセッサにより実現される。 Each of the control unit 11 and the image forming unit 13 includes a processor. The processor is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), a programmable logic device (for example, a SPLD (Simple Programmable Computer)) (Field Programmable Gate Array)) and the like. The function of the image forming unit 13 is realized by the image forming processor. In some embodiments, the functions of both the control unit 11 and the image forming unit 13 are realized by one processor. In some embodiments, if the ophthalmic apparatus 10 is provided with a data processing unit, the function of the data processing unit is also realized by the processor.

プロセッサは、例えば、記憶回路や記憶装置に格納されているプログラムを読み出し実行することで、実施形態に係る機能を実現する。記憶回路や記憶装置の少なくとも一部がプロセッサに含まれていてよい。また、記憶回路や記憶装置の少なくとも一部がプロセッサの外部に設けられていてよい。 The processor realizes the function according to the embodiment by reading and executing a program stored in a storage circuit or a storage device, for example. At least part of the storage circuit or storage device may be included in the processor. Further, at least a part of the storage circuit and the storage device may be provided outside the processor.

記憶装置等は、各種のデータを記憶する。記憶装置等に記憶されるデータとしては、データ収集部12により取得されたデータ(測定データ、撮影データ等)や、被検者及び被検眼に関する情報などがある。記憶装置等には、眼科装置10の各部を動作させるための各種のコンピュータプログラムやデータが記憶されていてよい。 A storage device or the like stores various types of data. The data stored in the storage device or the like includes data (measurement data, imaging data, etc.) acquired by the data collection unit 12, information on the subject and the eye to be inspected, and the like. Various computer programs and data for operating each part of the ophthalmic apparatus 10 may be stored in the storage device or the like.

通信部14は、制御部11からの制御を受け、眼科情報処理装置100との間で情報の送信又は受信を行うための通信インターフェース処理を実行する。 The communication unit 14 receives control from the control unit 11 and executes a communication interface process for transmitting or receiving information with the ophthalmic information processing device 100.

いくつかの実施形態に係る眼科装置10は、画像形成部13により形成された被検眼の画像データを眼科情報処理装置100に送信する。 The ophthalmic apparatus 10 according to some embodiments transmits the image data of the eye to be inspected formed by the image forming unit 13 to the ophthalmic information processing apparatus 100.

いくつかの実施形態に係る眼科装置10には、被検眼の眼底の画像を取得するための眼底カメラ、走査型レーザー検眼鏡、スリットランプ顕微鏡が設けられる。いくつかの実施形態では、眼底カメラにより取得される眼底画像は、フルオレセイン蛍光眼底造影画像又は眼底自発蛍光検査画像である。 The ophthalmologic apparatus 10 according to some embodiments is provided with a fundus camera, a scanning laser ophthalmoscope, and a slit lamp microscope for acquiring an image of the fundus of the eye to be inspected. In some embodiments, the fundus image acquired by the fundus camera is a fluorescein fluorescence fundus angiography image or a fundus autofluorescence test image.

[眼科情報処理装置]
図3〜図5に、実施形態に係る眼科情報処理装置100の構成例のブロック図を示す。図3は、眼科情報処理装置100の機能ブロック図を表す。図4は、図3の解析部200の機能ブロック図を表す。図5は、図3の推論モデル構築部210の機能ブロック図を表す。
[Ophthalmology information processing device]
3 to 5 show a block diagram of a configuration example of the ophthalmic information processing apparatus 100 according to the embodiment. FIG. 3 shows a functional block diagram of the ophthalmic information processing apparatus 100. FIG. 4 shows a functional block diagram of the analysis unit 200 of FIG. FIG. 5 shows a functional block diagram of the inference model construction unit 210 of FIG.

眼科情報処理装置100は、制御部110と、画像形成部120と、データ処理部130と、通信部140とを含む。 The ophthalmic information processing device 100 includes a control unit 110, an image forming unit 120, a data processing unit 130, and a communication unit 140.

画像形成部120は、制御部110からの制御を受け、眼科装置10により取得された3次元のOCTデータからOCT画像を形成する。画像形成部120は、画像形成部13と同様に上記の画像を形成することが可能である。 The image forming unit 120 receives control from the control unit 110 and forms an OCT image from the three-dimensional OCT data acquired by the ophthalmic apparatus 10. The image forming unit 120 can form the above-mentioned image in the same manner as the image forming unit 13.

データ処理部130は、画像形成部120により形成された画像に対して各種のデータ処理(画像処理)や解析処理を施す。例えば、データ処理部130は、画像の輝度補正や分散補正等の補正処理を実行する。データ処理部130は、断層像の間の画素を補間する補間処理などの公知の画像処理を実行することにより、被検眼のボリュームデータ(ボクセルデータ)を形成することができる。ボリュームデータに基づく画像を表示させる場合、データ処理部130は、このボリュームデータに対してレンダリング処理を施して、特定の視線方向から見たときの擬似的な3次元画像を形成する。 The data processing unit 130 performs various data processing (image processing) and analysis processing on the image formed by the image forming unit 120. For example, the data processing unit 130 executes correction processing such as image brightness correction and dispersion correction. The data processing unit 130 can form volume data (voxel data) of the eye to be inspected by executing known image processing such as interpolation processing for interpolating pixels between tomographic images. When displaying an image based on volume data, the data processing unit 130 performs rendering processing on the volume data to form a pseudo three-dimensional image when viewed from a specific line-of-sight direction.

また、データ処理部130(又は画像形成部120)は、3次元のOCTデータに基づいて形成されたOCT画像からBスキャン画像、Cスキャン画像、en−face画像、プロジェクション画像、シャドウグラムなどを形成することが可能である。 Further, the data processing unit 130 (or the image forming unit 120) forms a B scan image, a C scan image, an en-face image, a projection image, a shadow gram, etc. from the OCT image formed based on the three-dimensional OCT data. It is possible to do.

データ処理部130は、形成された被検眼の画像に対して所定のデータ処理を施す。データ処理部130は、解析部200と、推論モデル構築部210と、推論部220とを含む。 The data processing unit 130 performs predetermined data processing on the formed image of the eye to be inspected. The data processing unit 130 includes an analysis unit 200, an inference model construction unit 210, and an inference unit 220.

解析部200は、画像形成部120により形成された被検眼の眼底の画像データ(又は眼科装置10により取得された被検眼の眼底の画像データ)に対して所定の解析処理を施す。いくつかの実施形態に係る解析処理には、眼底の所定の層領域(層組織)の特定処理、眼底の所定の層領域(層組織)の画像の生成処理などが含まれる。 The analysis unit 200 performs a predetermined analysis process on the image data of the fundus of the eye to be inspected formed by the image forming unit 120 (or the image data of the fundus of the eye to be inspected acquired by the ophthalmologic apparatus 10). The analysis process according to some embodiments includes a process of specifying a predetermined layer region (layer tissue) of the fundus, an image generation process of a predetermined layer region (layer tissue) of the fundus, and the like.

解析部200は、図4に示すように、セグメンテーション処理部201と、正面画像生成部202とを含む。 As shown in FIG. 4, the analysis unit 200 includes a segmentation processing unit 201 and a front image generation unit 202.

セグメンテーション処理部201は、眼科装置10により取得された被検眼のデータに基づいてAスキャン方向の複数の層領域を特定する。いくつかの実施形態に係るセグメンテーション処理部201は、3次元のOCTデータを解析することにより、被検眼の複数の組織に相当する複数の部分データセットを特定する。セグメンテーション処理は、特定の組織や組織境界を特定するための画像処理である。例えば、セグメンテーション処理部201は、OCTデータに含まれる各Aスキャン画像における画素値(輝度値)の勾配を求め、勾配が大きい位置を組織境界として特定する。なお、Aスキャン画像は、眼底の深さ方向にのびる1次元画像データである。なお、眼底の深さ方向は、例えば、Z方向、OCT測定光の入射方向、軸方向、干渉光学系の光軸方向などとして定義される。 The segmentation processing unit 201 identifies a plurality of layer regions in the A scan direction based on the data of the eye to be inspected acquired by the ophthalmic apparatus 10. The segmentation processing unit 201 according to some embodiments analyzes a three-dimensional OCT data to identify a plurality of partial data sets corresponding to a plurality of tissues of the eye to be inspected. The segmentation process is an image process for identifying a specific tissue or tissue boundary. For example, the segmentation processing unit 201 obtains the gradient of the pixel value (luminance value) in each A scan image included in the OCT data, and specifies the position where the gradient is large as the tissue boundary. The A-scan image is one-dimensional image data extending in the depth direction of the fundus. The depth direction of the fundus is defined as, for example, the Z direction, the incident direction of the OCT measurement light, the axial direction, the optical axis direction of the interference optical system, and the like.

典型的な例において、セグメンテーション処理部201は、眼底(網膜、脈絡膜等)及び硝子体を表す3次元のOCTデータを解析することにより、眼底の複数の層組織に相当する複数の部分データセットを特定する。各部分データセットは、層組織の境界によって画成される。部分データセットとして特定される層組織の例として、網膜を構成する層組織がある。網膜を構成する層組織には、内境界膜、神経繊維層、神経節細胞層、内網状層、内顆粒層、外網状層、外顆粒層、外境界膜、視細胞層、RPEがある。更に、セグメンテーション処理部201は、ブルッフ膜、脈絡膜、強膜、硝子体等に相当する部分データセットを特定することができる。セグメンテーション処理部201は、脈絡膜におけるChoriocapillaris層、Sattler層、及びHaller層に相当する部分データセットを特定すること可能である。特に、セグメンテーション処理部201は、例えば、上記の“Automated segmentation for en face choroidal images obtained by optical coherent tomography by machine learning”に記載された手法を用いて脈絡膜におけるHaller層に相当する部分データセットを特定することが可能である。いくつかの実施形態に係るセグメンテーション処理部201は、病変部に相当する部分データセットを特定する。病変部の例として、剥離部、浮腫、出血、腫瘍、ドルーゼンなどがある。 In a typical example, the segmentation processing unit 201 analyzes three-dimensional OCT data representing the fundus (retina, chorioretinal membrane, etc.) and the vitreous body to obtain a plurality of partial data sets corresponding to a plurality of layer tissues of the fundus. Identify. Each sub-dataset is defined by the boundaries of the stratified structure. An example of a layered tissue identified as a partial data set is the layered tissue that constitutes the retina. The layered tissues constituting the retina include the inner limiting membrane, the nerve fiber layer, the ganglion cell layer, the inner plexiform layer, the inner nuclear layer, the outer plexiform layer, the outer nuclear layer, the outer limiting membrane, the photoreceptor layer, and the RPE. Further, the segmentation processing unit 201 can identify a partial data set corresponding to a Bruch membrane, a choroid, a sclera, a vitreous body, and the like. The segmentation processing unit 201 can identify partial data sets corresponding to the Choriocapillaris layer, the Sattler layer, and the Haller layer in the choroid. In particular, the segmentation processing unit 201 is described in, for example, in the above-mentioned method of specifying the data in the above-mentioned "Automated segmentation for en face horoidal images obtined by optical coherent tomography tomography by machine learning". It is possible. The segmentation processing unit 201 according to some embodiments identifies a partial data set corresponding to a lesion. Examples of lesions include exfoliation, edema, bleeding, tumors, and drusen.

いくつかの実施形態に係るセグメンテーション処理部201は、RPEに対して強膜側の所定のピクセル数分の層組織をブルッフ膜として特定し、当該層組織に相当する部分データセットをブルッフ膜の部分データセットとして取得する。 The segmentation processing unit 201 according to some embodiments specifies a layer structure corresponding to a predetermined number of pixels on the sclera side as a bruff film with respect to the RPE, and sets a partial data set corresponding to the layer structure as a portion of the bruff film. Get as a dataset.

正面画像生成部202は、正面画像として上記のen−face画像を生成する。具体的には、正面画像生成部202は、セグメンテーション処理部201により特定された脈絡膜のHaller層に相当する層領域の任意の深さ位置におけるen−face画像を生成する。例えば、正面画像生成部202は、Haller層の浅層側の境界位置を基準に深層方向に複数の深さ位置における複数のen−face画像を生成する。Haller層の浅層側の境界位置を0%の深さ位置とし、深層側の境界位置を100%の深さ位置と表記すると、正面画像生成部202は、例えば、10%の深さ位置から50%の深さ位置の範囲で複数のen−face画像を生成することが可能である。 The front image generation unit 202 generates the above-mentioned en-face image as the front image. Specifically, the front image generation unit 202 generates an en-face image at an arbitrary depth position in the layer region corresponding to the Haller layer of the choroid specified by the segmentation processing unit 201. For example, the front image generation unit 202 generates a plurality of en-face images at a plurality of depth positions in the deep layer direction with reference to the boundary position on the shallow layer side of the Haller layer. Assuming that the boundary position on the shallow side of the Haller layer is 0% depth position and the boundary position on the deep layer side is 100% depth position, the front image generation unit 202 starts from, for example, 10% depth position. It is possible to generate multiple en-face images in the range of 50% depth position.

推論モデル構築部210は、図5に示すように、第1学習部211と、第2学習部212と、推論モデル生成部213とを含む。 As shown in FIG. 5, the inference model construction unit 210 includes a first learning unit 211, a second learning unit 212, and an inference model generation unit 213.

図6〜図8に、図5の推論モデル構築部210の動作説明図を示す。図6は、図5の第1学習部211の動作説明図を模式的に表す。図7は、図5の第2学習部212の動作説明図を模式的に表す。図8は、図5の推論モデル生成部213の動作説明図を模式的に表す。 6 to 8 show an explanatory diagram of the operation of the inference model construction unit 210 of FIG. FIG. 6 schematically shows an operation explanatory diagram of the first learning unit 211 of FIG. FIG. 7 schematically shows an operation explanatory diagram of the second learning unit 212 of FIG. FIG. 8 schematically shows an operation explanatory diagram of the inference model generation unit 213 of FIG.

第1学習部211は、自己符号化器(autoencoder)に対して訓練データを用いた教師なし機械学習(unsupervised machine learning)を実行する。この実施形態では、自己符号化器は、変分自己符号化器(Variational autoencoder:VAE)である場合について説明するが、実施形態に係る自己符号化器は、変分自己符号化器以外の自己符号化器であってよい。 The first learning unit 211 executes unsupervised machine learning using training data on an autoencoder. In this embodiment, the case where the self-encoder is a variational autoencoder (VAE) will be described, but the self-encoder according to the embodiment is a self other than the variational autoencoder. It may be an encoder.

図6に示すように、実施形態に係る自己符号化器211Bは、エンコーダENと、デコーダDEとを含む。デコーダDEの入力(入力層のユニット)には、エンコーダENの出力データが入力されるように構成されている。エンコーダENの入力の次元数は、エンコーダENの出力の次元数より大きい。エンコーダENは、入力データIn1を所定の確率分布に従った潜在空間に圧縮することで入力データIn1の次元圧縮を行い、入力データIn1を特徴量としての潜在変数Vaに変換する。デコーダDEの入力の次元数は、デコーダDEの出力の次元数より小さい。デコーダDEは、エンコーダENの変換と逆の変換を行い、潜在変数Vaに対応した出力データOut1を出力する。 As shown in FIG. 6, the self-encoder 211B according to the embodiment includes an encoder EN and a decoder DE. The output data of the encoder EN is configured to be input to the input (input layer unit) of the decoder DE. The number of dimensions of the input of the encoder EN is larger than the number of dimensions of the output of the encoder EN. The encoder EN performs dimensional compression of the input data In1 by compressing the input data In1 into a latent space according to a predetermined probability distribution, and converts the input data In1 into a latent variable Va as a feature amount. The number of dimensions of the input of the decoder DE is smaller than the number of dimensions of the output of the decoder DE. The decoder DE performs a conversion opposite to that of the encoder EN, and outputs the output data Out1 corresponding to the latent variable Va.

このようなエンコーダEN及びデコーダDEのそれぞれは、ニューラルネットワークにより構成される。例えば、自己符号化器211Bが、入力層と中間層と出力層とを含む。この場合、エンコーダENは、入力層における第1〜第L(Lは2以上の整数)の入力層ユニットと中間層における第1〜第M(MはLより小さい整数)の中間層ユニットとの間のニューラルネットワークにより構成される。同様に、デコーダDEは、中間層における第1〜第Mの中間層ユニットと出力層における第1〜第N(NはMより大きい整数)の出力層ユニットとの間のニューラルネットワークにより構成される。 Each of such an encoder EN and a decoder DE is configured by a neural network. For example, the self-encoder 211B includes an input layer, an intermediate layer, and an output layer. In this case, the encoder EN is composed of the first to first L (L is an integer of 2 or more) input layer unit in the input layer and the first to Mth (M is an integer smaller than L) intermediate layer unit in the intermediate layer. It is composed of a neural network between them. Similarly, the decoder DE is composed of a neural network between the first to Mth intermediate layer units in the intermediate layer and the first to Nth (N is an integer larger than M) output layer unit in the output layer. ..

第1〜第Lの入力層ユニットのそれぞれは、第1〜第Mの中間層ユニットのいずれかと結合され、入力層ユニットと中間層ユニットとの間には結合係数が割り当てられている。各中間層ユニットには、結合された1以上の入力層ユニットの情報と各結合間の結合係数とから得られた情報を所定の活性化関数で演算した情報が入力される。例えば、第1〜第Lの入力層ユニットの情報が入力データに対応し、第1〜第Mの中間層ユニットの情報が潜在変数Vaに対応する。 Each of the first to first L input layer units is coupled to any of the first to Mth intermediate layer units, and a coupling coefficient is assigned between the input layer unit and the intermediate layer unit. In each intermediate layer unit, information obtained by calculating the information obtained from the information of one or more combined input layer units and the coupling coefficient between each bond by a predetermined activation function is input. For example, the information of the first to first L input layer units corresponds to the input data, and the information of the first to M first intermediate layer units corresponds to the latent variable Va.

同様に、第1〜第Mの中間層ユニットのそれぞれは、第1〜第Nの出力層ユニットのいずれかと結合され、中間層ユニットと出力層ユニットとの間には結合係数が割り当てられている。各出力層ユニットには、結合された1以上の中間層ユニットの情報と各結合間の結合係数とから得られた情報を所定の活性化関数で演算した情報が入力される。例えば、第1〜第Nの出力層ユニットの情報が、出力データに対応する。 Similarly, each of the first to Mth intermediate layer units is coupled to any of the first to Nth output layer units, and a coupling coefficient is assigned between the intermediate layer unit and the output layer unit. .. In each output layer unit, information obtained by calculating the information obtained from the information of one or more bonded intermediate layer units and the coupling coefficient between the couplings by a predetermined activation function is input. For example, the information of the first to Nth output layer units corresponds to the output data.

第1学習部211は、第1学習処理部211Aを含む。第1学習処理部211Aは、デコーダDEの出力データがエンコーダENの入力データに一致するように訓練データを用いた教師なし機械学習を実行する。これにより、デコーダDEの出力データがエンコーダENの入力データに一致するように、入力層ユニットと中間層ユニットとの間の結合係数と、中間層ユニットと出力層ユニットとの間の結合係数とが更新される。 The first learning unit 211 includes the first learning processing unit 211A. The first learning processing unit 211A executes unsupervised machine learning using the training data so that the output data of the decoder DE matches the input data of the encoder EN. As a result, the coupling coefficient between the input layer unit and the intermediate layer unit and the coupling coefficient between the intermediate layer unit and the output layer unit are changed so that the output data of the decoder DE matches the input data of the encoder EN. Will be updated.

この実施形態では、第1学習部211は、正面画像生成部202により生成された複数のen−face画像を訓練データとして教師なし機械学習を実行する。複数のen−face画像は、Haller層の浅層側の境界位置を基準に10%の深さ位置から50%の深さ位置の範囲の画像である。 In this embodiment, the first learning unit 211 executes unsupervised machine learning using a plurality of en-face images generated by the front image generation unit 202 as training data. The plurality of en-face images are images in the range of 10% depth position to 50% depth position with respect to the boundary position on the shallow layer side of the Haller layer.

第2学習部212は、分類器に対して教師データを用いた教師あり機械学習(supervised machine learning)を実行する。この実施形態では、分類器は、サポートベクタマシン(Support Vector Machine:SVM)である場合について説明するが、実施形態に係る分類器は、ランダムフォレストなどのサポートベクタマシン以外の分類器であってよい。 The second learning unit 212 executes supervised machine learning using supervised data for the classifier. In this embodiment, the case where the classifier is a support vector machine (SVM) will be described, but the classifier according to the embodiment may be a classifier other than the support vector machine such as a random forest. ..

図7に示すように、分類器CLには、第1学習部211により学習されたエンコーダENの出力データ(特徴量)が入力される。すなわち、分類器CLは、エンコーダENの入力データIn2の特徴量に対応した推論結果(分類結果、確信度)を出力データOut2として出力するように構成されている。分類器CLは、例えば、入力データに対する(仮想的な)識別境界線を変更することにより推論結果を変更することが可能である。識別境界線は、教師あり機械学習によって更新される。 As shown in FIG. 7, the output data (feature amount) of the encoder EN learned by the first learning unit 211 is input to the classifier CL. That is, the classifier CL is configured to output the inference result (classification result, certainty) corresponding to the feature amount of the input data In2 of the encoder EN as the output data Out2. The classifier CL can change the inference result, for example, by changing the (virtual) identification boundary line for the input data. Discrimination boundaries are updated by supervised machine learning.

第2学習部212は、第2学習処理部212Aを含む。第2学習処理部212Aは、教師データを用いて分類器CLに対して教師あり機械学習を実行する。ここで、教師データは、エンコーダENに入力されたラベル付きデータに対応してエンコーダENから出力された出力データと、上記ラベル付きデータに付されたラベルとを含む。このような教師データを用いた公知の機械学習を実行することにより、識別境界線を変更することができる。 The second learning unit 212 includes the second learning processing unit 212A. The second learning processing unit 212A executes supervised machine learning on the classifier CL using the teacher data. Here, the teacher data includes the output data output from the encoder EN corresponding to the labeled data input to the encoder EN, and the label attached to the labeled data. By executing known machine learning using such teacher data, the identification boundary line can be changed.

この実施形態では、第2学習部212は、正面画像生成部202により生成された複数のen−face画像の一部を教師データとして教師あり機械学習を実行する。教師データは、Haller層の浅層側の境界位置を基準に25%の深さ位置の画像に対して、事前に医師等が脈絡膜血管の走行パターンに対称性があるか否かの判断結果をラベルとして付したデータである。すなわち、第2学習部212が用いる教師データは、第1学習部211が用いる複数の訓練データの一部に対してラベルを付したデータを含む。 In this embodiment, the second learning unit 212 executes supervised machine learning using a part of a plurality of en-face images generated by the front image generation unit 202 as teacher data. The teacher data is based on the result of a doctor's judgment in advance whether or not the running pattern of the choroidal blood vessels is symmetric with respect to the image at a depth of 25% based on the boundary position on the shallow layer side of the Label layer. This is the data attached as a label. That is, the teacher data used by the second learning unit 212 includes data labeled with a part of the plurality of training data used by the first learning unit 211.

推論モデル生成部213は、入力データに対応するラベル(例えば、分類結果、確信度。広義には、情報)を推論するための推論モデルを生成する。図8に示すように、推論モデル生成部213は、第1学習部211により実行された教師なし機械学習により得られたエンコーダENと第2学習部212により実行された教師あり機械学習により得られた分類器CLとを用いて、上記の推論モデルを生成する。ここで、推論モデルは、入力データを受け付けるエンコーダENと、エンコーダENの出力にその入力が結合された分類器CLとを含み、分類器CLの出力データが入力データに対する推論結果として出力される。 The inference model generation unit 213 generates an inference model for inferring a label (for example, classification result, certainty, in a broad sense, information) corresponding to the input data. As shown in FIG. 8, the inference model generation unit 213 is obtained by the encoder EN obtained by unsupervised machine learning executed by the first learning unit 211 and the supervised machine learning executed by the second learning unit 212. The above inference model is generated by using the classifier CL. Here, the inference model includes an encoder EN that accepts input data and a classifier CL in which the input is combined with the output of the encoder EN, and the output data of the classifier CL is output as an inference result for the input data.

推論部220は、推論モデル生成部213により生成された推論モデルを用いて、推論モデルの入力データInに対応する出力データOutを推論結果として出力する。 The inference unit 220 uses the inference model generated by the inference model generation unit 213 to output the output data Out corresponding to the input data In of the inference model as the inference result.

図3において、通信部140は、制御部110からの制御を受け、眼科情報処理装置100の通信部14との間で情報の送信又は受信を行うための通信インターフェース処理を実行する。 In FIG. 3, the communication unit 140 receives control from the control unit 110 and executes a communication interface process for transmitting or receiving information with the communication unit 14 of the ophthalmic information processing apparatus 100.

制御部110は、眼科情報処理装置100の各部を制御する。特に、制御部110は、画像形成部120と、データ処理部130と、通信部140とを制御する。制御部110は、主制御部111と、記憶部112とを含む。 The control unit 110 controls each unit of the ophthalmic information processing apparatus 100. In particular, the control unit 110 controls the image forming unit 120, the data processing unit 130, and the communication unit 140. The control unit 110 includes a main control unit 111 and a storage unit 112.

制御部110は、操作装置180に対するユーザの操作内容に対応した操作指示信号に基づいて、眼科システム1の各部を制御する。 The control unit 110 controls each unit of the ophthalmic system 1 based on an operation instruction signal corresponding to the operation content of the user with respect to the operation device 180.

制御部110、画像形成部120、及びデータ処理部130のそれぞれは、プロセッサを含む。画像形成部120の機能は、画像形成プロセッサにより実現される。データ処理部130の機能は、データ処理プロセッサにより実現される。いくつかの実施形態では、制御部110、画像形成部120、及びデータ処理部130のうち少なくとも2つの機能が1つのプロセッサにより実現される。 Each of the control unit 110, the image forming unit 120, and the data processing unit 130 includes a processor. The function of the image forming unit 120 is realized by the image forming processor. The function of the data processing unit 130 is realized by the data processing processor. In some embodiments, at least two functions of the control unit 110, the image forming unit 120, and the data processing unit 130 are realized by one processor.

記憶部112は、各種のデータを記憶する。記憶部112に記憶されるデータとしては、眼科装置10により取得されたデータ(測定データ、撮影データ等)、画像形成部120により形成された画像データ、データ処理部130によるデータ処理結果、被検者及び被検眼に関する情報などがある。記憶部112には、眼科情報処理装置100の各部を動作させるための各種のコンピュータプログラムやデータが記憶されていてよい。 The storage unit 112 stores various types of data. The data stored in the storage unit 112 includes data (measurement data, imaging data, etc.) acquired by the ophthalmic apparatus 10, image data formed by the image forming unit 120, data processing results by the data processing unit 130, and a test. There is information about the person and the eye to be examined. The storage unit 112 may store various computer programs and data for operating each unit of the ophthalmic information processing apparatus 100.

眼科情報処理装置100は、実施形態に係る「情報処理装置」の一例である。エンコーダENは、実施形態に係る「特徴量抽出器」の一例である。 The ophthalmic information processing device 100 is an example of the "information processing device" according to the embodiment. The encoder EN is an example of the "feature amount extractor" according to the embodiment.

[動作例]
いくつかの実施形態に係る眼科情報処理装置100の動作例について説明する。
[Operation example]
An operation example of the ophthalmic information processing apparatus 100 according to some embodiments will be described.

図9及び図10に、実施形態に係る眼科情報処理装置100の動作説明図を示す。図9は、眼科情報処理装置100の動作例のフロー図を表す。記憶部112には、図9に示す処理を実現するためのコンピュータプログラムが記憶されている。制御部110(主制御部111)は、このコンピュータプログラムに従って動作することにより、図9に示す処理を実行することが可能である。図10は、図9の動作例のフロー図に対応した動作説明図である。図10において、図6〜図8と同様の部分には同一符号を付し、適宜説明を省略する。 9 and 10 show an operation explanatory diagram of the ophthalmic information processing apparatus 100 according to the embodiment. FIG. 9 shows a flow chart of an operation example of the ophthalmic information processing apparatus 100. A computer program for realizing the process shown in FIG. 9 is stored in the storage unit 112. The control unit 110 (main control unit 111) can execute the process shown in FIG. 9 by operating according to this computer program. FIG. 10 is an operation explanatory diagram corresponding to the flow diagram of the operation example of FIG. In FIG. 10, the same parts as those in FIGS. 6 to 8 are designated by the same reference numerals, and the description thereof will be omitted as appropriate.

図9では、事前に眼科装置10を用いて複数の被検眼に対してOCTを実行し、得られたOCTデータから脈絡膜のHaller層の浅層側の境界位置を基準に10%の深さ位置から50%の深さ位置までの範囲の複数のen−face画像(例えば、14760枚)が形成されているものとする。1つの被検眼のOCTデータから、深さ位置が異なる複数のen−face画像を事前に形成することが可能である。また、得られた複数のen−face画像のうち25%の深さ位置の複数のen−face画像について、事前に脈絡膜血管の走行パターンの対称性の判断結果に対応したラベルが付されているものとする(例えば、対称であると判断された216枚、非対称であると判断された236枚)。 In FIG. 9, OCT is performed on a plurality of eyes to be inspected in advance using the ophthalmic apparatus 10, and the depth position of 10% is based on the boundary position on the shallow layer side of the Haller layer of the choroid from the obtained OCT data. It is assumed that a plurality of en-face images (for example, 14760 images) in the range from to 50% depth position are formed. It is possible to preliminarily form a plurality of en-face images having different depth positions from the OCT data of one eye to be inspected. In addition, among the obtained plurality of en-face images, the plurality of en-face images at a depth of 25% are labeled in advance according to the determination result of the symmetry of the running pattern of the choroidal blood vessels. (For example, 216 sheets determined to be symmetrical, 236 sheets determined to be asymmetrical).

(S1:VAEに対して教師なし機械学習を実行)
まず、制御部110は、第1学習部211を制御することにより、自己符号化器211Bに対して、デコーダDEの出力データがエンコーダENの入力データに一致するように訓練データを用いた教師なし機械学習を実行する。
(S1: Unsupervised machine learning for VAE)
First, the control unit 110 controls the first learning unit 211 so that the output data of the decoder DE matches the input data of the encoder EN for the self-encoder 211B without a teacher using training data. Perform machine learning.

ステップS1では脈絡膜のHaller層の浅層側の境界位置を基準に10%の深さ位置から50%の深さ位置までの範囲の複数のen−face画像(例えば、14760枚)を訓練データとして、各en−face画像を用いて教師なし機械学習が実行される。 In step S1, a plurality of en-face images (for example, 14760 images) in the range from a depth position of 10% to a depth position of 50% are used as training data based on the boundary position on the shallow layer side of the Haller layer of the choroid. , Unsupervised machine learning is performed using each en-face image.

これにより、ステップS1では、図10に示すように、大量の訓練データを用いた教師なし機械学習により学習されたエンコーダENが得られる。 As a result, in step S1, as shown in FIG. 10, the encoder EN learned by unsupervised machine learning using a large amount of training data is obtained.

(S2:SVMに対して教師あり機械学習を実行)
続いて、制御部110は、第2学習部212を制御することにより、分類器(SVM)CLに対して、エンコーダENに入力されたラベル付きデータに対応した出力データとラベル付きデータに付されたラベルとを教師データとして用いて教師あり機械学習を実行する。
(S2: Perform supervised machine learning for SVM)
Subsequently, the control unit 110 controls the second learning unit 212 to attach the output data and the labeled data corresponding to the labeled data input to the encoder EN to the classifier (SVM) CL. Perform supervised machine learning using the above labels as supervised data.

ステップS2では、脈絡膜のHaller層の浅層側の境界位置を基準に25%の深さ位置の複数のen−face画像(例えば、452(=216+236)枚)を教師データとして、各en−face画像を用いて教師あり機械学習が実行される。具体的には、ステップS1において教師なし機械学習により学習されたエンコーダENに各en−face画像を入力し、得られたエンコーダENの出力データ(特徴量)を分類器CLに入力し、分類器CLの出力データが教師データのラベルと一致するように、分類器CLを学習させる。 In step S2, a plurality of en-face images (for example, 452 (= 216 + 236) images) at a depth of 25% based on the boundary position on the shallow layer side of the Haller layer of the choroid are used as supervised data for each en-face. Supervised machine learning is performed using images. Specifically, each en-face image is input to the encoder EN learned by unsupervised machine learning in step S1, the output data (feature amount) of the obtained encoder EN is input to the classifier CL, and the classifier Train the classifier CL so that the output data of CL matches the label of the teacher data.

これにより、ステップS2では、図10に示すように、少量の教師データを用いた教師あり機械学習により学習された分類器CLが得られる。 As a result, in step S2, as shown in FIG. 10, a classifier CL learned by supervised machine learning using a small amount of teacher data is obtained.

(S3:推論モデルを生成)
その後、制御部110は、推論モデル生成部213を制御することにより、推論部220において用いられる推論モデルを生成させる。具体的には、推論モデル生成部213は、ステップS1において得られたエンコーダENと、ステップS2において得られた分類器CLとを用いた推論モデルを生成する。
(S3: Generate an inference model)
After that, the control unit 110 controls the inference model generation unit 213 to generate the inference model used in the inference unit 220. Specifically, the inference model generation unit 213 generates an inference model using the encoder EN obtained in step S1 and the classifier CL obtained in step S2.

これにより、ステップS3では、図10に示すように、少量の教師データを用いた機械学習により高精度な出力を得ることが可能な推論モデルが得られる。 As a result, in step S3, as shown in FIG. 10, an inference model capable of obtaining a highly accurate output by machine learning using a small amount of teacher data can be obtained.

ステップS3において生成された推論モデルを用いて、ステップS1において得られたエンコーダENの入力データに対応した出力データを入力データの特徴量として出力し、ステップS2において得られた分類器CLにより上記の特徴量に基づいて入力データに対応するラベルを推論することが可能である。 Using the inference model generated in step S3, the output data corresponding to the input data of the encoder EN obtained in step S1 is output as the feature amount of the input data, and the above-mentioned classifier CL obtained in step S2 outputs the output data. It is possible to infer the label corresponding to the input data based on the features.

すなわち、推論モデルを構成するエンコーダENは、訓練データを用いた教師なし機械学習により学習された自己符号化器を構成するエンコーダを含み、エンコーダENの入力データに対応した出力データを入力データの特徴量として出力する。また、推論モデルを構成する分類器CLは、エンコーダENに入力されたラベル付きデータに対応した出力データとラベル付きデータに付されたラベルとを教師データとして用いた教師あり機械学習により学習され、エンコーダENにより出力された特徴量に基づいて入力データに対応するラベルを推論する。 That is, the encoder EN constituting the inference model includes an encoder constituting a self-encoder learned by unsupervised machine learning using training data, and the output data corresponding to the input data of the encoder EN is a feature of the input data. Output as a quantity. Further, the classifier CL constituting the inference model is learned by supervised machine learning using the output data corresponding to the labeled data input to the encoder EN and the label attached to the labeled data as supervised data. The label corresponding to the input data is inferred based on the feature amount output by the encoder EN.

以上で、眼科情報処理装置100の動作は終了である(エンド)。 This completes the operation of the ophthalmic information processing device 100 (end).

以上のように、実施形態によれば、少量の教師データを用いた機械学習により高精度な出力を得ることが可能になる。 As described above, according to the embodiment, it is possible to obtain a highly accurate output by machine learning using a small amount of teacher data.

ここで、学習データ(ここでは、教師データ)が少量の場合、畳み込みニューラルネットワークと実施形態に係る推論モデルとについて受信者動作特性曲線下面積(Area Under Receiver Operating Characteritic curve:AUROC)を評価する。 Here, when the training data (here, the teacher data) is small, the area under the receiver operating characteristic curve (AREA Under Receiver Operating Character Curve: AUROC) is evaluated for the convolutional neural network and the inference model according to the embodiment.

図11A及び図11Bに、畳み込みニューラルネットワーク及び実施形態に係る推論モデルのAUROCの評価結果の一例を示す。図11Aは、畳み込みニューラルネットワークのAUROCの評価結果の一例を表す。図11Bは、実施形態に係る推論モデルのAUROCの評価結果の一例を表す。 11A and 11B show an example of the evaluation result of AUROC of the convolutional neural network and the inference model according to the embodiment. FIG. 11A shows an example of the evaluation result of AUROC of the convolutional neural network. FIG. 11B shows an example of the evaluation result of AUROC of the inference model according to the embodiment.

図11A及び図11Bでは、実施形態において教師あり機械学習で用いた452例の教師データの一部である45例を訓練データとし、残りの407例を検証データとし(すなわち、学習データが少ない)、10分割の交差検証の評価結果がAUROCとして表されている。 In FIGS. 11A and 11B, 45 cases, which are a part of the teacher data of 452 cases used in supervised machine learning in the embodiment, are used as training data, and the remaining 407 cases are used as validation data (that is, the learning data is small). The evaluation result of cross-validation of 10 divisions is expressed as AUROC.

図11Aに示す畳み込みニューラルネットワークの評価結果では、AUROC=0.747±0.064である。図11Bに示す実施形態に係る推論モデルの評価結果では、AUROC=0.841±0.021である。有意水準のp値が「0.05」であるウィルコクンソンの符号付順位和検定(Wilcoxon signed−rank sum test)では、図11Aと図11Bの評価結果はp値が0.00503であり有意差があると考えられる。学習データが少ない場合、データ依存性が高くなり、畳み込みニューラルネットワークではAUROCの分散が大きくなる。すなわち、実施形態によれば、学習データが少ない場合、データ依存性が低く、畳み込みニューラルネットワークより高い精度で入力データに対応するラベルを推論することができることを意味する。 In the evaluation result of the convolutional neural network shown in FIG. 11A, AUROC = 0.747 ± 0.064. In the evaluation result of the inference model according to the embodiment shown in FIG. 11B, AUROC = 0.841 ± 0.021. In Wilcoxon signed-rank sum test, where the p-value of the significance level is "0.05", the evaluation results of FIGS. 11A and 11B are significant because the p-value is 0.00503. It is considered that there is a difference. When the amount of training data is small, the data dependency becomes high, and the variance of AUROC becomes large in the convolutional neural network. That is, according to the embodiment, when the training data is small, the data dependency is low, and the label corresponding to the input data can be inferred with higher accuracy than the convolutional neural network.

<変形例>
いくつかの実施形態に係る構成は、上記の構成に限定されるものではない。
<Modification example>
The configurations according to some embodiments are not limited to the above configurations.

いくつかの実施形態に係る眼科装置は、眼科装置10の機能に加えて、眼科情報処理装置100の機能、操作装置180の機能、及び表示装置190の機能の少なくとも1つを備える。 The ophthalmic apparatus according to some embodiments includes at least one of the functions of the ophthalmic information processing apparatus 100, the operation device 180, and the display device 190, in addition to the functions of the ophthalmic apparatus 10.

以下、いくつかの実施形態の変形例に係る眼科装置について、上記の実施形態に係る眼科装置との相違点を中心に説明する。 Hereinafter, the ophthalmic apparatus according to the modified examples of some embodiments will be described focusing on the differences from the ophthalmic apparatus according to the above-described embodiment.

図12に、実施形態の変形例に係る眼科装置10aの構成例のブロック図を示す。図12において、図2と同様の部分には同一符号を付し、適宜説明を省略する。 FIG. 12 shows a block diagram of a configuration example of the ophthalmic apparatus 10a according to the modified example of the embodiment. In FIG. 12, the same parts as those in FIG. 2 are designated by the same reference numerals, and the description thereof will be omitted as appropriate.

本変形例に係る眼科装置10aの構成が上記の実施形態に係る眼科装置10の構成と異なる点は、眼科装置10aが、眼科情報処理装置100の機能と、操作装置180の機能と、表示装置190の機能とを備えている点である。眼科装置10aは、制御部11aと、データ収集部12と、画像形成部13と、眼科情報処理部15aと、操作部16aと、表示部17aとを含む。 The configuration of the ophthalmic apparatus 10a according to the present modification is different from the configuration of the ophthalmic apparatus 10 according to the above embodiment in that the ophthalmic apparatus 10a has the functions of the ophthalmic information processing apparatus 100, the functions of the operating apparatus 180, and the display apparatus. The point is that it has 190 functions. The ophthalmic apparatus 10a includes a control unit 11a, a data acquisition unit 12, an image forming unit 13, an ophthalmic information processing unit 15a, an operation unit 16a, and a display unit 17a.

制御部11aは、眼科装置10aの各部を制御する。特に、制御部11aは、データ収集部12と、画像形成部13と、眼科情報処理部15aと、操作部16aと、表示部17aとを制御する。 The control unit 11a controls each unit of the ophthalmic apparatus 10a. In particular, the control unit 11a controls the data acquisition unit 12, the image forming unit 13, the ophthalmic information processing unit 15a, the operation unit 16a, and the display unit 17a.

眼科情報処理部15aは、眼科情報処理装置100と同様の構成を有し、眼科情報処理装置100と同様の機能を備えている。操作部16aは、操作装置180と同様の構成を有し、操作装置180と同様の機能を備えている。表示部17aは、表示装置190と同様の構成を有し、表示装置190と同様の機能を備えている。 The ophthalmic information processing unit 15a has the same configuration as the ophthalmic information processing device 100, and has the same functions as the ophthalmic information processing device 100. The operation unit 16a has the same configuration as the operation device 180, and has the same functions as the operation device 180. The display unit 17a has the same configuration as the display device 190, and has the same functions as the display device 190.

本変形例によれば、コンパクトな構成で、少量の教師データを用いた機械学習により高精度な出力を得ることが可能な眼科装置を提供することができる。 According to this modification, it is possible to provide an ophthalmic apparatus capable of obtaining a highly accurate output by machine learning using a small amount of teacher data with a compact configuration.

<その他の変形例>
上記の実施形態又はその変形例では、脈絡膜におけるHaller層の訓練データ及び教師データを用いて学習された推論モデルを用いて、脈絡血管の走行パターンが対称であるか否かを推論する場合について説明した。しかしながら、実施形態に係る構成はこれに限定されるものではない。例えば、脈絡膜におけるHaller層の訓練データ及び教師データを用いて実施形態と同様に学習された推論モデルを用いて、脈絡血管の走行パターンを予め決められた複数のパターン種別に分類することが可能である。また、例えば、
脈絡膜におけるHaller層の訓練データ及び教師データを用いて実施形態と同様に学習された推論モデルを用いて、pachychoroidスペクトラム疾患群(pachychoroid spectrum disease)に含まれる複数の疾患の種別に分類することが可能である。
<Other variants>
In the above embodiment or a modification thereof, a case where it is inferred whether or not the running pattern of the choroidal blood vessel is symmetric is described by using an inference model learned by using the training data and the teacher data of the Haller layer in the choroid. did. However, the configuration according to the embodiment is not limited to this. For example, it is possible to classify the running patterns of choroidal blood vessels into a plurality of predetermined pattern types by using an inference model learned in the same manner as in the embodiment using the training data and the teacher data of the Haller layer in the choroid. is there. Also, for example
It is possible to classify into multiple disease types included in the pachychoroid spectrum disease group (pachychoroid spectrum disease group) using an inference model learned in the same manner as in the embodiment using the training data and teacher data of the Haller layer in the choroid. Is.

また、上記の実施形態又はその変形例において、眼底カメラ等を用いて取得された眼底写真(例えば、カラー眼底写真)の訓練データ及び教師データを用いて実施形態と同様に学習された推論モデルを用いて、正常眼であるか緑内障眼でるかを分類することが可能である。また、例えば、眼底カメラ等を用いて取得された眼底写真(例えば、カラー眼底写真)の訓練データ及び教師データを用いて実施形態と同様に学習された推論モデルを用いて、所定の部位(例えば視神経乳頭)が出血しているか否かを分類することが可能である。また、眼底カメラ等を用いて取得された眼底写真(例えば、カラー眼底写真)の訓練データ及び教師データを用いて実施形態と同様に学習された推論モデルを用いて、網膜芽細胞腫や脈絡膜悪性黒色腫などの眼腫瘍の有無を分類することが可能である。 Further, in the above embodiment or a modified example thereof, an inference model learned in the same manner as in the embodiment using training data and teacher data of a fundus photograph (for example, a color fundus photograph) acquired by using a fundus camera or the like is used. It can be used to classify whether the eye is normal or glaucoma. Further, for example, using the inference model learned in the same manner as in the embodiment using the training data and the teacher data of the fundus photograph (for example, the color fundus photograph) acquired by using the fundus camera or the like, a predetermined part (for example). It is possible to classify whether or not the optic disc) is bleeding. In addition, retinoblastoma and choroidal malignancy are also used by using an inference model learned in the same manner as in the embodiment using training data and teacher data of fundus photographs (for example, color fundus photographs) acquired using a fundus camera or the like. It is possible to classify the presence or absence of eye tumors such as melanoma.

<効果>
以下、いくつかの実施形態に係る情報処理装置、推論モデル生成方法、情報処理方法、及びプログラムについて説明する。
<Effect>
Hereinafter, the information processing apparatus, the inference model generation method, the information processing method, and the program according to some embodiments will be described.

いくつかの実施形態に係る情報処理装置(眼科情報処理装置100、眼科情報処理部15a)は、第1学習部(211)と、第2学習部(212)と、推論モデル生成部(213)とを含む。第1学習部は、エンコーダ(EN)とエンコーダの出力データが入力されるデコーダ(DE)とを含む自己符号化器(211B)に対し、デコーダの出力データがエンコーダの入力データに一致するように訓練データを用いた教師なし機械学習を実行する。第2学習部は、エンコーダに入力されたラベル付きデータに対応した出力データとラベル付きデータに付されたラベルとを教師データとして用いて分類器(CL)に対して教師あり機械学習を実行する。推論モデル生成部は、教師なし機械学習により得られたエンコーダと教師あり機械学習により得られた分類器とを用いて、エンコーダの入力データに対応するラベルを推論するための推論モデルを生成する。 The information processing devices (ophthalmology information processing device 100, ophthalmology information processing unit 15a) according to some embodiments include a first learning unit (211), a second learning unit (212), and an inference model generation unit (213). And include. The first learning unit makes the output data of the decoder match the input data of the encoder with respect to the self-encoder (211B) including the encoder (EN) and the decoder (DE) into which the output data of the encoder is input. Perform unsupervised machine learning using training data. The second learning unit executes supervised machine learning on the classifier (CL) using the output data corresponding to the labeled data input to the encoder and the label attached to the labeled data as teacher data. .. The inference model generator generates an inference model for inferring the label corresponding to the input data of the encoder by using the encoder obtained by unsupervised machine learning and the classifier obtained by supervised machine learning.

このような構成によれば、畳み込みニューラルネットワークと比較して、少量の教師データでも、データ依存性が低く、入力データに対応するラベルを高精度に推論することができる推論モデルを生成することが可能になる。 With such a configuration, it is possible to generate an inference model that has low data dependency and can infer the label corresponding to the input data with high accuracy even with a small amount of teacher data as compared with the convolutional neural network. It will be possible.

いくつかの実施形態では、訓練データは、脈絡膜における血管が描出された眼底の正面画像(en−face画像)を表す画像データであり、分類器は、正面画像に描出された血管の走行パターンが対称であるか否かを推論する。 In some embodiments, the training data is image data representing a frontal image (en-face image) of the fundus in which the blood vessels in the choroid are depicted, and the classifier is the running pattern of the blood vessels depicted in the frontal image. Infer whether it is symmetric or not.

このような構成によれば、少量の教師データを用いて、脈絡膜における血管の走行パターンが対称であるか否かを高精度に推論することが可能な推論モデルを生成することができるようになる。 With such a configuration, it becomes possible to generate an inference model capable of inferring with high accuracy whether or not the running pattern of blood vessels in the choroid is symmetric by using a small amount of teacher data. ..

いくつかの実施形態に係る情報処理装置(眼科情報処理装置100、眼科情報処理部15a)は、特徴量抽出器(エンコーダEN)と、分類器(CL)とを含む。特徴量抽出器は、訓練データを用いた教師なし機械学習により学習された自己符号化器(212b)を構成するエンコーダを含み、エンコーダの入力データに対応した出力データを入力データの特徴量として出力する。分類器は、エンコーダに入力されたラベル付きデータに対応した出力データとラベル付きデータに付されたラベルとを教師データとして用いた教師あり機械学習により学習され、特徴量抽出器により出力された特徴量に基づいて入力データに対応するラベルを推論する。 The information processing apparatus (ophthalmology information processing apparatus 100, ophthalmology information processing unit 15a) according to some embodiments includes a feature amount extractor (encoder EN) and a classifier (CL). The feature extractor includes an encoder that constitutes a self-encoder (212b) learned by unsupervised machine learning using training data, and outputs output data corresponding to the input data of the encoder as the feature amount of the input data. To do. The classifier is learned by supervised machine learning using the output data corresponding to the labeled data input to the encoder and the label attached to the labeled data as supervised data, and the features output by the feature extractor. Infer the label corresponding to the input data based on the quantity.

このような構成によれば、畳み込みニューラルネットワークと比較して、少量の教師データでも、データ依存性が低く、入力データに対応するラベルを高精度に推論することが可能になる。 According to such a configuration, even with a small amount of teacher data, the data dependency is low as compared with the convolutional neural network, and the label corresponding to the input data can be inferred with high accuracy.

いくつかの実施形態では、訓練データは、脈絡膜における血管が描出された眼底の正面画像(en−face画像)を表す画像データであり、ラベル付きデータは、血管の走行パターンが対称であるか否かを示すラベルが付された正面画像を表す画像データである。 In some embodiments, the training data is image data representing a frontal image (en-face image) of the fundus in which the blood vessels in the choroid are depicted, and the labeled data is whether or not the running pattern of the blood vessels is symmetric. This is image data representing a front image with a label indicating the above.

このような構成によれば、少量の教師データを用いて、脈絡膜における血管の走行パターンが対称であるか否かを高精度に推論することが可能になる。 With such a configuration, it is possible to infer with high accuracy whether or not the running pattern of blood vessels in the choroid is symmetric by using a small amount of teacher data.

いくつかの実施形態では、正面画像は、脈絡膜におけるHaller層の正面画像である。 In some embodiments, the frontal image is a frontal image of the Haller layer in the choroid.

このような構成によれば、脈絡膜血管の状態を把握しやすいと考えられているHaller層の正面画像を用いることで、脈絡膜における血管の走行パターンが対称であるか否かをより高精度に推論することが可能になる。 According to such a configuration, by using the front image of the Haller layer, which is considered to be easy to grasp the state of the choroidal blood vessels, it can be inferred with higher accuracy whether or not the running patterns of the blood vessels in the choroid are symmetrical. It becomes possible to do.

いくつかの実施形態では、ラベル付きデータは、訓練データの一部にラベルを付したデータを含む。 In some embodiments, the labeled data includes data with a portion of the training data labeled.

このような構成によれば、少量のラベル付きデータを用意するだけで、入力データに対応するラベルをより高精度に推論することが可能になる。 According to such a configuration, it is possible to infer the label corresponding to the input data with higher accuracy by preparing a small amount of labeled data.

いくつかの実施形態では、訓練データは、眼底における所定の深さ範囲内の複数の位置における複数の正面画像の画像データを含む。 In some embodiments, the training data includes image data of a plurality of frontal images at multiple positions within a predetermined depth range on the fundus.

このような構成によれば、1つの被検眼について取得された計測データ(例えば、OCTデータ)から複数の訓練データを作成することができるようになる。それにより、学習の精度をより向上させ、入力データに対応するラベルをより一層高精度に推論することが可能になる。 With such a configuration, it becomes possible to create a plurality of training data from the measurement data (for example, OCT data) acquired for one eye to be inspected. As a result, the accuracy of learning can be further improved, and the label corresponding to the input data can be inferred with even higher accuracy.

いくつかの実施形態では、教師データは、所定の深さ範囲内の所定の深さ位置における眼底の正面画像の画像データを含む。 In some embodiments, the teacher data includes image data of a frontal image of the fundus at a predetermined depth position within a predetermined depth range.

このような構成によれば、所定の深さ範囲内の複数の正面画像から所定の深さ位置における正面画像を教師あり機械学習に用いることができる。それにより、訓練データ及び教師データを効率的に収集することができ、学習の精度をより向上させ、入力データに対応するラベルをより一層高精度に推論することが可能になる。 According to such a configuration, it is possible to use a front image at a predetermined depth position from a plurality of front images within a predetermined depth range for supervised machine learning. As a result, training data and teacher data can be efficiently collected, learning accuracy can be further improved, and labels corresponding to input data can be inferred with even higher accuracy.

いくつかの実施形態に係る推論モデル生成方法は、第1学習ステップと、第2学習ステップと、推論モデル生成ステップとを含む。第1学習ステップでは、エンコーダ(EN)とエンコーダの出力データが入力されるデコーダ(DE)とを含む自己符号化器(212b)に対し、デコーダの出力データがエンコーダの入力データに一致するように訓練データを用いた教師なし機械学習が実行される。第2学習ステップでは、エンコーダに入力されたラベル付きデータに対応した出力データと前記ラベル付きデータに付されたラベルとを教師データとして用いて分類器(CL)に対して教師あり機械学習が実行される。推論モデル生成ステップでは、教師なし機械学習により得られたエンコーダと教師あり機械学習により得られた分類器とを用いて、エンコーダの入力データに対応するラベルを推論するための推論モデルが生成される。 The inference model generation method according to some embodiments includes a first learning step, a second learning step, and an inference model generation step. In the first learning step, the output data of the decoder matches the input data of the encoder with respect to the self-encoder (212b) including the encoder (EN) and the decoder (DE) to which the output data of the encoder is input. Unsupervised machine learning using training data is performed. In the second learning step, supervised machine learning is executed on the classifier (CL) using the output data corresponding to the labeled data input to the encoder and the label attached to the labeled data as teacher data. Will be done. In the inference model generation step, an inference model for inferring the label corresponding to the input data of the encoder is generated using the encoder obtained by unsupervised machine learning and the classifier obtained by supervised machine learning. ..

このような方法によれば、畳み込みニューラルネットワークと比較して、少量の教師データでも、データ依存性が低く、入力データに対応するラベルを高精度に推論することができる推論モデルを生成することが可能になる。 According to such a method, it is possible to generate an inference model that has low data dependency even with a small amount of teacher data and can infer the label corresponding to the input data with high accuracy as compared with the convolutional neural network. It will be possible.

いくつかの実施形態では、ラベル付きデータは、訓練データの一部にラベルを付したデータを含む。 In some embodiments, the labeled data includes data with a portion of the training data labeled.

このような方法によれば、少量のラベル付きデータを用意するだけで、入力データに対応するラベルをより高精度に推論することが可能になる。 According to such a method, it is possible to infer the label corresponding to the input data with higher accuracy by preparing a small amount of labeled data.

いくつかの実施形態では、訓練データは、脈絡膜における血管が描出された眼底の正面画像(en−face画像)を表す画像データであり、分類器は、正面画像に描出された血管の走行パターンが対称であるか否かを推論する。 In some embodiments, the training data is image data representing a frontal image (en-face image) of the fundus in which the blood vessels in the choroid are depicted, and the classifier is the running pattern of the blood vessels depicted in the frontal image. Infer whether it is symmetric or not.

このような方法によれば、少量の教師データを用いて、脈絡膜における血管の走行パターンが対称であるか否かを高精度に推論することが可能になる。 According to such a method, it is possible to infer with high accuracy whether or not the running pattern of blood vessels in the choroid is symmetric by using a small amount of teacher data.

いくつかの実施形態では、正面画像は、脈絡膜におけるHaller層の正面画像である。 In some embodiments, the frontal image is a frontal image of the Haller layer in the choroid.

このような方法によれば、脈絡膜血管の状態を把握しやすいと考えられているHaller層の正面画像を用いることで、脈絡膜における血管の走行パターンが対称であるか否かをより高精度に推論することが可能になる。 According to such a method, by using a frontal image of the Haller layer, which is considered to be easy to grasp the state of choroidal blood vessels, it is more accurately inferred whether or not the running pattern of blood vessels in the choroid is symmetrical. It becomes possible to do.

いくつかの実施形態では、訓練データは、眼底における所定の深さ範囲内の複数の位置における複数の正面画像の画像データを含む。 In some embodiments, the training data includes image data of a plurality of frontal images at multiple positions within a predetermined depth range on the fundus.

このような方法によれば、1つの被検眼について取得された計測データ(例えば、OCTデータ)から複数の訓練データを作成することができるようになる。それにより、学習の精度をより向上させ、入力データに対応するラベルをより一層高精度に推論することが可能になる。 According to such a method, a plurality of training data can be created from the measurement data (for example, OCT data) acquired for one eye to be inspected. As a result, the accuracy of learning can be further improved, and the label corresponding to the input data can be inferred with even higher accuracy.

いくつかの実施形態では、教師データは、所定の深さ範囲内の所定の深さ位置における眼底の正面画像の画像データを含む。 In some embodiments, the teacher data includes image data of a frontal image of the fundus at a predetermined depth position within a predetermined depth range.

このような方法によれば、所定の深さ範囲内の複数の正面画像から所定の深さ位置における正面画像を教師あり機械学習に用いることができる。それにより、訓練データ及び教師データを効率的に収集することができ、学習の精度をより向上させ、入力データに対応するラベルをより一層高精度に推論することが可能になる。 According to such a method, it is possible to use a front image at a predetermined depth position from a plurality of front images within a predetermined depth range for supervised machine learning. As a result, training data and teacher data can be efficiently collected, learning accuracy can be further improved, and labels corresponding to input data can be inferred with even higher accuracy.

いくつかの実施形態に係る情報処理方法は、特徴量抽出ステップと、推論ステップとを含む。特徴量抽出ステップでは、訓練データを用いた教師なし機械学習により学習された自己符号化器(212b)を構成するエンコーダ(EN)を用いて、エンコーダの入力データに対応した出力データが入力データの特徴量として出力される。推論ステップでは、エンコーダに入力されたラベル付きデータに対応した出力データとラベル付きデータに付されたラベルとを教師データとして用いた教師あり機械学習により学習された分類器(CL)を用いて、特徴量抽出ステップにおいて出力された特徴量に基づいて入力データに対応するラベルが推論される。 The information processing method according to some embodiments includes a feature amount extraction step and an inference step. In the feature extraction step, the output data corresponding to the input data of the encoder is used as the input data by using the encoder (EN) constituting the self-encoder (212b) learned by unsupervised machine learning using the training data. It is output as a feature amount. In the inference step, a classifier (CL) learned by supervised machine learning using the output data corresponding to the labeled data input to the encoder and the label attached to the labeled data as supervised data is used. The label corresponding to the input data is inferred based on the feature amount output in the feature amount extraction step.

このような方法によれば、畳み込みニューラルネットワークと比較して、少量の教師データでも、データ依存性が低く、入力データに対応するラベルを高精度に推論することが可能になる。 According to such a method, even with a small amount of teacher data, the data dependency is low as compared with the convolutional neural network, and the label corresponding to the input data can be inferred with high accuracy.

いくつかの実施形態では、ラベル付きデータは、訓練データの一部にラベルを付したデータを含む。 In some embodiments, the labeled data includes data with a portion of the training data labeled.

このような方法によれば、少量のラベル付きデータを用意するだけで、入力データに対応するラベルをより高精度に推論することが可能になる。 According to such a method, it is possible to infer the label corresponding to the input data with higher accuracy by preparing a small amount of labeled data.

いくつかの実施形態では、訓練データは、脈絡膜における血管が描出された眼底の正面画像(en−face画像)を表す画像データであり、ラベル付きデータは、血管の走行パターンが対称であるか否かを示すラベルが付された正面画像を表す画像データである。 In some embodiments, the training data is image data representing a frontal image (en-face image) of the fundus in which the blood vessels in the choroid are depicted, and the labeled data is whether or not the running pattern of the blood vessels is symmetric. This is image data representing a front image with a label indicating the above.

このような方法によれば、少量の教師データを用いて、脈絡膜における血管の走行パターンが対称であるか否かを高精度に推論することが可能になる。 According to such a method, it is possible to infer with high accuracy whether or not the running pattern of blood vessels in the choroid is symmetric by using a small amount of teacher data.

いくつかの実施形態では、正面画像は、脈絡膜におけるHaller層の正面画像である。 In some embodiments, the frontal image is a frontal image of the Haller layer in the choroid.

このような方法によれば、脈絡膜血管の状態を把握しやすいと考えられているHaller層の正面画像を用いることで、脈絡膜における血管の走行パターンが対称であるか否かをより高精度に推論することが可能になる。 According to such a method, by using a frontal image of the Haller layer, which is considered to be easy to grasp the state of choroidal blood vessels, it is more accurately inferred whether or not the running pattern of blood vessels in the choroid is symmetrical. It becomes possible to do.

いくつかの実施形態では、訓練データは、眼底における所定の深さ範囲内の複数の位置における複数の正面画像の画像データを含む。 In some embodiments, the training data includes image data of a plurality of frontal images at multiple positions within a predetermined depth range on the fundus.

このような方法によれば、1つの被検眼について取得された計測データ(例えば、OCTデータ)から複数の訓練データを作成することができるようになる。それにより、学習の精度をより向上させ、入力データに対応するラベルをより一層高精度に推論することが可能になる。 According to such a method, a plurality of training data can be created from the measurement data (for example, OCT data) acquired for one eye to be inspected. As a result, the accuracy of learning can be further improved, and the label corresponding to the input data can be inferred with even higher accuracy.

いくつかの実施形態では、教師データは、所定の深さ範囲内の所定の深さ位置における眼底の正面画像の画像データを含む。 In some embodiments, the teacher data includes image data of a frontal image of the fundus at a predetermined depth position within a predetermined depth range.

このような方法によれば、所定の深さ範囲内の複数の正面画像から所定の深さ位置における正面画像を教師あり機械学習に用いることができる。それにより、訓練データ及び教師データを効率的に収集することができ、学習の精度をより向上させ、入力データに対応するラベルをより一層高精度に推論することが可能になる。 According to such a method, it is possible to use a front image at a predetermined depth position from a plurality of front images within a predetermined depth range for supervised machine learning. As a result, training data and teacher data can be efficiently collected, learning accuracy can be further improved, and labels corresponding to input data can be inferred with even higher accuracy.

いくつかの実施形態に係るプログラムは、コンピュータに、上記のいずれかに記載の推論モデル生成方法の各ステップを実行させる。 The program according to some embodiments causes a computer to perform each step of the inference model generation method described in any of the above.

このようなプログラムによれば、畳み込みニューラルネットワークと比較して、少量の教師データでも、データ依存性が低く、入力データに対応するラベルを高精度に推論することができる推論モデルを生成することが可能なプログラムを提供することができるようになる。 According to such a program, it is possible to generate an inference model that has low data dependency and can infer the label corresponding to the input data with high accuracy even with a small amount of teacher data as compared with the convolutional neural network. It will be possible to provide possible programs.

いくつかの実施形態に係るプログラムは、コンピュータに、上記のいずれかに記載の情報処理方法の各ステップを実行させる。 The program according to some embodiments causes a computer to perform each step of the information processing method described in any of the above.

このようなプログラムによれば、畳み込みニューラルネットワークと比較して、少量の教師データでも、データ依存性が低く、入力データに対応するラベルを高精度に推論することが可能なプログラムを提供することができるようになる。 According to such a program, it is possible to provide a program that has low data dependency even with a small amount of teacher data and can infer the label corresponding to the input data with high accuracy as compared with the convolutional neural network. become able to.

いくつかの実施形態に係る推論モデル生成方法又は情報処理方法を実現するためのプログラムを、コンピュータによって読み取り可能な非一時的な(non−transitory)任意の記録媒体に記憶させることができる。記録媒体は、磁気、光、光磁気、半導体などを利用した電子媒体であってよい。典型的には、記録媒体は、磁気テープ、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ、ソリッドステートドライブなどである。 A program for realizing an inference model generation method or an information processing method according to some embodiments can be stored in any computer-readable non-transitory recording medium. The recording medium may be an electronic medium using magnetism, light, magneto-optical, semiconductor, or the like. Typically, the recording medium is a magnetic tape, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, a solid state drive, or the like.

また、インターネットやLAN等のネットワークを通じてコンピュータプログラムを送受信することも可能である。 It is also possible to send and receive computer programs through networks such as the Internet and LAN.

以上に説明した態様は、この発明を実施するための例に過ぎない。この発明を実施しようとする者は、この発明の要旨の範囲内における任意の変形(省略、置換、付加等)を施すことが可能である。 The embodiments described above are merely examples for carrying out the present invention. A person who intends to carry out the present invention can make arbitrary modifications (omission, substitution, addition, etc.) within the scope of the gist of the present invention.

1 眼科システム
10、10a 眼科装置
11、11a、110 制御部
12 データ収集部
12A 干渉光学系
12B スキャン光学系
13、120 画像形成部
14、140 通信部
15a 眼科情報処理部
16a 操作部
17a 表示部
100 眼科情報処理装置
111 主制御部
112 記憶部
130 データ処理部
180 操作装置
190 表示装置
200 解析部
201 セグメンテーション処理部
202 正面画像生成部
210 推論モデル構築部
211 第1学習部
211A 第1学習処理部
211B 自己符号化器
212 第2学習部
212A 第2学習処理部
213 推論モデル生成部
220 推論部
EN エンコーダ
DE デコーダ
1 Ophthalmology system 10, 10a Ophthalmology device 11, 11a, 110 Control unit 12 Data collection unit 12A Interference optical system 12B Scan optical system 13, 120 Image formation unit 14, 140 Communication unit 15a Ophthalmology information processing unit 16a Operation unit 17a Display unit 100 Ophthalmic information processing device 111 Main control unit 112 Storage unit 130 Data processing unit 180 Operation device 190 Display device 200 Analysis unit 201 Segmentation processing unit 202 Front image generation unit 210 Inference model construction unit 211 First learning unit 211A First learning processing unit 211B Self-encoder 212 2nd learning unit 212A 2nd learning processing unit 213 Inference model generation unit 220 Inference unit EN encoder DE decoder

Claims (22)

エンコーダと前記エンコーダの出力データが入力されるデコーダとを含む自己符号化器に対し、前記デコーダの出力データが前記エンコーダの入力データに一致するように訓練データを用いた教師なし機械学習を実行する第1学習部と、
前記エンコーダに入力されたラベル付きデータに対応した出力データと前記ラベル付きデータに付されたラベルとを教師データとして用いて分類器に対して教師あり機械学習を実行する第2学習部と、
前記教師なし機械学習により得られた前記エンコーダと前記教師あり機械学習により得られた前記分類器とを用いて、前記エンコーダの入力データに対応するラベルを推論するための推論モデルを生成する推論モデル生成部と、
を含む、情報処理装置。
For a self-encoder including an encoder and a decoder to which the output data of the encoder is input, unsupervised machine learning using training data is performed so that the output data of the decoder matches the input data of the encoder. 1st learning department and
A second learning unit that performs supervised machine learning on a classifier using the output data corresponding to the labeled data input to the encoder and the label attached to the labeled data as teacher data.
An inference model that generates an inference model for inferring a label corresponding to the input data of the encoder by using the encoder obtained by the unsupervised machine learning and the classifier obtained by the supervised machine learning. Generator and
Information processing equipment, including.
前記訓練データは、脈絡膜における血管が描出された眼底の正面画像を表す画像データであり、
前記分類器は、前記正面画像に描出された前記血管の走行パターンが対称であるか否かを推論する
ことを特徴とする請求項1に記載の情報処理装置。
The training data is image data representing a frontal image of the fundus in which blood vessels in the choroid are depicted.
The information processing apparatus according to claim 1, wherein the classifier infers whether or not the traveling pattern of the blood vessel depicted in the front image is symmetrical.
訓練データを用いた教師なし機械学習により学習された自己符号化器を構成するエンコーダを含み、前記エンコーダの入力データに対応した出力データを前記入力データの特徴量として出力する特徴量抽出器と、
前記エンコーダに入力されたラベル付きデータに対応した出力データと前記ラベル付きデータに付されたラベルとを教師データとして用いた教師あり機械学習により学習され、前記特徴量抽出器により出力された前記特徴量に基づいて前記入力データに対応するラベルを推論する分類器と、
を含む、情報処理装置。
A feature amount extractor that includes an encoder that constitutes a self-encoder learned by unsupervised machine learning using training data and outputs output data corresponding to the input data of the encoder as a feature amount of the input data.
The feature that was learned by supervised machine learning using the output data corresponding to the labeled data input to the encoder and the label attached to the labeled data as supervised data and output by the feature extractor. A classifier that infers the label corresponding to the input data based on the quantity, and
Information processing equipment, including.
前記訓練データは、脈絡膜における血管が描出された眼底の正面画像を表す画像データであり、
前記ラベル付きデータは、前記血管の走行パターンが対称であるか否かを示すラベルが付された前記正面画像を表す画像データである
ことを特徴とする請求項3に記載の情報処理装置。
The training data is image data representing a frontal image of the fundus in which blood vessels in the choroid are depicted.
The information processing apparatus according to claim 3, wherein the labeled data is image data representing the front image with a label indicating whether or not the traveling pattern of the blood vessel is symmetrical.
前記正面画像は、前記脈絡膜におけるHaller層の正面画像である
ことを特徴とする請求項2又は請求項4に記載の情報処理装置。
The information processing apparatus according to claim 2 or 4, wherein the front image is a front image of the Haller layer in the choroid.
前記ラベル付きデータは、前記訓練データの一部にラベルを付したデータを含む
ことを特徴とする請求項1〜請求項5のいずれか一項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 5, wherein the labeled data includes data in which a part of the training data is labeled.
前記訓練データは、眼底における所定の深さ範囲内の複数の位置における複数の正面画像の画像データを含む
ことを特徴とする請求項1〜請求項6のいずれか一項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 6, wherein the training data includes image data of a plurality of front images at a plurality of positions within a predetermined depth range on the fundus. ..
前記教師データは、前記所定の深さ範囲内の所定の深さ位置における前記眼底の正面画像の画像データを含む
ことを特徴とする請求項7に記載の情報処理装置。
The information processing apparatus according to claim 7, wherein the teacher data includes image data of a front image of the fundus at a predetermined depth position within the predetermined depth range.
エンコーダと前記エンコーダの出力データが入力されるデコーダとを含む自己符号化器に対し、前記デコーダの出力データが前記エンコーダの入力データに一致するように訓練データを用いた教師なし機械学習を実行する第1学習ステップと、
前記エンコーダに入力されたラベル付きデータに対応した出力データと前記ラベル付きデータに付されたラベルとを教師データとして用いて分類器に対して教師あり機械学習を実行する第2学習ステップと、
前記教師なし機械学習により得られた前記エンコーダと前記教師あり機械学習により得られた前記分類器とを用いて、前記エンコーダの入力データに対応するラベルを推論するための推論モデルを生成する推論モデル生成ステップと、
を含む、推論モデル生成方法。
For a self-encoder including an encoder and a decoder to which the output data of the encoder is input, unsupervised machine learning using training data is performed so that the output data of the decoder matches the input data of the encoder. The first learning step and
A second learning step of performing supervised machine learning on a classifier using the output data corresponding to the labeled data input to the encoder and the label attached to the labeled data as teacher data, and
An inference model that generates an inference model for inferring a label corresponding to the input data of the encoder by using the encoder obtained by the unsupervised machine learning and the classifier obtained by the supervised machine learning. Generation steps and
Inference model generation methods, including.
前記ラベル付きデータは、前記訓練データの一部にラベルを付したデータを含む
ことを特徴とする請求項9に記載の推論モデル生成方法。
The inference model generation method according to claim 9, wherein the labeled data includes data in which a part of the training data is labeled.
前記訓練データは、脈絡膜における血管が描出された眼底の正面画像を表す画像データであり、
前記分類器は、前記正面画像に描出された前記血管の走行パターンが対称であるか否かを推論する
ことを特徴とする請求項9又は請求項10に記載の推論モデル生成方法。
The training data is image data representing a frontal image of the fundus in which blood vessels in the choroid are depicted.
The inference model generation method according to claim 9, wherein the classifier infers whether or not the traveling pattern of the blood vessel depicted in the front image is symmetrical.
前記正面画像は、前記脈絡膜におけるHaller層の正面画像である
ことを特徴とする請求項11に記載の推論モデル生成方法。
The inference model generation method according to claim 11, wherein the front image is a front image of the Haller layer in the choroid.
前記訓練データは、眼底における所定の深さ範囲内の複数の位置における複数の正面画像の画像データを含む
ことを特徴とする請求項9〜請求項12のいずれか一項に記載の推論モデル生成方法。
The inference model generation according to any one of claims 9 to 12, wherein the training data includes image data of a plurality of front images at a plurality of positions within a predetermined depth range on the fundus. Method.
前記教師データは、前記所定の深さ範囲内の所定の深さ位置における前記眼底の正面画像の画像データを含む
ことを特徴とする請求項13に記載の推論モデル生成方法。
The inference model generation method according to claim 13, wherein the teacher data includes image data of a front image of the fundus at a predetermined depth position within the predetermined depth range.
訓練データを用いた教師なし機械学習により学習された自己符号化器を構成するエンコーダを用いて、前記エンコーダの入力データに対応した出力データを前記入力データの特徴量として出力する特徴量抽出ステップと、
前記エンコーダに入力されたラベル付きデータに対応した出力データと前記ラベル付きデータに付されたラベルとを教師データとして用いた教師あり機械学習により学習された分類器を用いて、前記特徴量抽出ステップにおいて出力された前記特徴量に基づいて前記入力データに対応するラベルを推論する推論ステップと、
を含む、情報処理方法。
A feature amount extraction step that outputs output data corresponding to the input data of the encoder as a feature amount of the input data by using an encoder that constitutes a self-encoder learned by unsupervised machine learning using training data. ,
The feature amount extraction step using a classifier learned by supervised machine learning using the output data corresponding to the labeled data input to the encoder and the label attached to the labeled data as supervised data. The inference step of inferring the label corresponding to the input data based on the feature amount output in
Information processing methods, including.
前記ラベル付きデータは、前記訓練データの一部にラベルを付したデータを含む
ことを特徴とする請求項15に記載の情報処理方法。
The information processing method according to claim 15, wherein the labeled data includes data in which a part of the training data is labeled.
前記訓練データは、脈絡膜における血管が描出された眼底の正面画像を表す画像データであり、
前記ラベル付きデータは、前記血管の走行パターンが対称であるか否かを示すラベルが付された前記正面画像を表す画像データである
ことを特徴とする請求項15又は請求項16に記載の情報処理方法。
The training data is image data representing a frontal image of the fundus in which blood vessels in the choroid are depicted.
The information according to claim 15 or 16, wherein the labeled data is image data representing the front image with a label indicating whether or not the traveling pattern of the blood vessel is symmetric. Processing method.
前記正面画像は、前記脈絡膜におけるHaller層の正面画像である
ことを特徴とする請求項17に記載の情報処理方法。
The information processing method according to claim 17, wherein the front image is a front image of the Haller layer in the choroid.
前記訓練データは、眼底における所定の深さ範囲内の複数の位置における複数の正面画像の画像データを含む
ことを特徴とする請求項15〜請求項18のいずれか一項に記載の情報処理方法。
The information processing method according to any one of claims 15 to 18, wherein the training data includes image data of a plurality of front images at a plurality of positions within a predetermined depth range on the fundus. ..
前記教師データは、前記所定の深さ範囲内の所定の深さ位置における前記眼底の正面画像の画像データを含む
ことを特徴とする請求項19に記載の情報処理方法。
The information processing method according to claim 19, wherein the teacher data includes image data of a front image of the fundus at a predetermined depth position within the predetermined depth range.
コンピュータに、請求項9〜請求項14のいずれか一項に記載の推論モデル生成方法の各ステップを実行させることを特徴とするプログラム。 A program comprising causing a computer to execute each step of the inference model generation method according to any one of claims 9 to 14. コンピュータに、請求項15〜請求項20のいずれか一項に記載の情報処理方法の各ステップを実行させることを特徴とするプログラム。 A program comprising causing a computer to execute each step of the information processing method according to any one of claims 15 to 20.
JP2019229892A 2019-12-20 2019-12-20 Information processing device, inference model generation method, information processing method, and program Active JP7457315B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019229892A JP7457315B2 (en) 2019-12-20 2019-12-20 Information processing device, inference model generation method, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019229892A JP7457315B2 (en) 2019-12-20 2019-12-20 Information processing device, inference model generation method, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2021099559A true JP2021099559A (en) 2021-07-01
JP7457315B2 JP7457315B2 (en) 2024-03-28

Family

ID=76541217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019229892A Active JP7457315B2 (en) 2019-12-20 2019-12-20 Information processing device, inference model generation method, information processing method, and program

Country Status (1)

Country Link
JP (1) JP7457315B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220272124A1 (en) * 2021-02-19 2022-08-25 Intuit Inc. Using machine learning for detecting solicitation of personally identifiable information (pii)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4288124B2 (en) 2003-09-04 2009-07-01 株式会社北川鉄工所 Finger chuck
GB201615051D0 (en) 2016-09-05 2016-10-19 Kheiron Medical Tech Ltd Multi-modal medical image procesing
JP7074460B2 (en) 2017-11-10 2022-05-24 アズビル株式会社 Image inspection equipment and methods

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220272124A1 (en) * 2021-02-19 2022-08-25 Intuit Inc. Using machine learning for detecting solicitation of personally identifiable information (pii)

Also Published As

Publication number Publication date
JP7457315B2 (en) 2024-03-28

Similar Documents

Publication Publication Date Title
US11935241B2 (en) Image processing apparatus, image processing method and computer-readable medium for improving image quality
US20210304363A1 (en) Image processing apparatus, image processing method and computer-readable medium
JP7193343B2 (en) Method and apparatus for reducing artifacts in OCT angiography using machine learning techniques
CN112601487A (en) Medical image processing apparatus, medical image processing method, and program
KR20220051369A (en) Information processing apparatus, information processing method, information processing system and program
JP2022103221A (en) Medical image processing device, medical image processing system, medical image processing method, and program
CN106943124A (en) Local circulation is quantified with optical coherence tomography angiogram
WO2020183791A1 (en) Image processing device and image processing method
JP7478216B2 (en) Ophthalmic device, method for controlling ophthalmic device, and program
JP2019054992A (en) Ophthalmologic device and program
JP7220509B2 (en) OPHTHALMIC DEVICE AND OPHTHALMIC IMAGE PROCESSING METHOD
JP2022155690A (en) Image processing device, image processing method, and program
JP7332463B2 (en) Control device, optical coherence tomography device, control method for optical coherence tomography device, and program
JP7362403B2 (en) Image processing device and image processing method
US20230140881A1 (en) Oct en face pathology segmentation using channel-coded slabs
US20230267610A1 (en) Ophthalmic information processing apparatus, ophthalmic apparatus, ophthalmic information processing method, and recording medium
JP2020039430A (en) Image processing device, image processing method and program
JP7457315B2 (en) Information processing device, inference model generation method, information processing method, and program
JP7254682B2 (en) Image processing device, image processing method, and program
WO2022145129A1 (en) Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program
JP2021145805A (en) Ophthalmologic information processing device, ophthalmologic device, ophthalmologic information processing method, and program
JP7344847B2 (en) Image processing device, image processing method, and program
JP6910935B2 (en) Ophthalmology information processing equipment, ophthalmology system, ophthalmology information processing method, and program
JP6976147B2 (en) Ophthalmology information processing equipment, ophthalmology system, ophthalmology information processing method, and program
JP2019092920A (en) Ophthalmic information processing apparatus, ophthalmic system, ophthalmic information processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200114

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200114

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240307

R150 Certificate of patent or registration of utility model

Ref document number: 7457315

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150