JP2019152977A - Information processing apparatus, method for producing machine learning data, and program - Google Patents

Information processing apparatus, method for producing machine learning data, and program Download PDF

Info

Publication number
JP2019152977A
JP2019152977A JP2018036595A JP2018036595A JP2019152977A JP 2019152977 A JP2019152977 A JP 2019152977A JP 2018036595 A JP2018036595 A JP 2018036595A JP 2018036595 A JP2018036595 A JP 2018036595A JP 2019152977 A JP2019152977 A JP 2019152977A
Authority
JP
Japan
Prior art keywords
information
eye
machine learning
output
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018036595A
Other languages
Japanese (ja)
Other versions
JP7082395B2 (en
Inventor
山西 健司
Kenji Yamanishi
健司 山西
太一 木脇
Taichi KIWAKI
太一 木脇
宏樹 杉浦
Hiroki Sugiura
宏樹 杉浦
亮 朝岡
Ryo Asaoka
亮 朝岡
博史 村田
Hiroshi Murata
博史 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC filed Critical University of Tokyo NUC
Priority to JP2018036595A priority Critical patent/JP7082395B2/en
Priority to PCT/JP2019/007950 priority patent/WO2019168129A1/en
Publication of JP2019152977A publication Critical patent/JP2019152977A/en
Application granted granted Critical
Publication of JP7082395B2 publication Critical patent/JP7082395B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Ophthalmology & Optometry (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

To provide an information processing apparatus, a method for producing machine learning data, and a program which allow machine learning to be improved in efficiency and be useful for processing such as diagnosis by performing machine learning processing while effectively utilizing even information not paired with diagnostic information relating to an eye.SOLUTION: Information representing a pattern of information about a symptom of an eye is acquired, and an output of a neural network resulting from input of diagnostic information concerning the eye, information about difference from information relating to the symptom of the eye corresponding to the input diagnostic information, and information concerning the acquired pattern of the information about the symptom of the eye are used to control a parameter of the neural network, thereby generating machine learning data.SELECTED DRAWING: Figure 1

Description

本発明は、眼科医療用の情報等を処理する情報処理装置、機械学習データの製造方法、及びプログラムに関する。   The present invention relates to an information processing apparatus that processes ophthalmic medical information, a method for manufacturing machine learning data, and a program.

近年では種々の情報処理に機械学習が用いられるようになっており、医療用の情報についても、機械学習の結果を用いた情報処理を行うものが提案されている(例えば特許文献1)。   In recent years, machine learning has been used for various information processing, and for medical information, information processing using the results of machine learning has been proposed (for example, Patent Document 1).

一方、緑内障など、非可逆的な視機能の喪失を伴う疾病については、早期の発見が求められる。しかしながら、緑内障では、その確定診断のための検査が一般に時間のかかるものであり、負担の大きいものであるため、予めスクリーニングによって緑内障の可能性の有無を簡便に検出する方法が求められている。   On the other hand, early detection is required for diseases associated with irreversible loss of visual function such as glaucoma. However, since glaucoma is generally time-consuming and requires a large amount of time for a definitive diagnosis, there is a need for a method for simply detecting the possibility of glaucoma by screening in advance.

特開2015−116319号公報JP, 2015-116319, A

上記従来の機械学習を用いる装置等においては、入力されるデータと出力するデータとが組となっているデータを用いていわゆる教師あり学習処理を行っているが、医療用の情報等では、入力するデータと関わりなく、出力されるデータが検査結果の情報として蓄積されている例が多く、必ずしも入力するデータと出力されるデータとが組となっていない場合がある。   In the above-described apparatus using conventional machine learning, so-called supervised learning processing is performed using data in which input data and output data are paired. Regardless of the data to be output, there are many examples in which the output data is stored as information of the inspection result, and the input data and the output data are not necessarily in pairs.

例えば、緑内障の診断において、視野検査の結果については過去から数多くの蓄積があるが、網膜構造などの情報は、必ずしも視野検査の結果と組となって保持されているものではない。   For example, in the diagnosis of glaucoma, there have been many accumulations of visual field examination results from the past, but information such as the retinal structure is not necessarily held in pairs with the results of visual field examinations.

本発明は上記実情に鑑みて為されたもので、組となっていない情報も有効に活用しつつ、機械学習処理を行い、当該機械学習の効率を向上しつつ、診断等の処理に役立てることのできる、情報処理装置、機械学習データの製造方法、及びプログラムを提供することを、その目的の一つとする。   The present invention has been made in view of the above circumstances, and performs machine learning processing while effectively utilizing unpaired information, and improves the efficiency of the machine learning, and is useful for processing such as diagnosis. It is an object of the present invention to provide an information processing apparatus, a machine learning data manufacturing method, and a program that can be used.

上記従来例の問題点を解決する本発明は、情報処理装置であって、目の症状などの患者の症状に関する情報等、出力情報のパターンを表す情報を取得する取得手段と、目の診断情報など、患者の診断情報等、入力情報と、対応する出力情報とを関連付ける機械学習データを生成する手段であって、入力情報を入力としたときの学習器の出力と、当該入力情報に対応する出力情報との相違に関する情報と、前記受け入れた入力情報のパターンに係る情報とを用いて前記学習器のパラメータを制御して機械学習データを生成する学習処理手段と、を含み、前記学習処理手段により生成された機械学習データを、処理の対象となる診断情報等の入力情報に対応する、症状に関する情報等の出力情報を推定する処理に供することとしたものである。   The present invention for solving the problems of the conventional example is an information processing apparatus, an acquisition unit for acquiring information representing a pattern of output information, such as information on a patient's symptom such as an eye symptom, and eye diagnosis information A means for generating machine learning data for associating input information such as patient diagnosis information with corresponding output information, and corresponding to the input of the learning device when the input information is input Learning processing means for generating machine learning data by controlling parameters of the learning device using information relating to the difference from the output information and information relating to the pattern of the received input information, the learning processing means The machine learning data generated by the above is used for processing for estimating output information such as information related to symptoms corresponding to input information such as diagnostic information to be processed.

本発明によると、入力される情報と出力する情報とが組となっていない情報も有効に活用しつつ、機械学習処理を行い、当該機械学習の効率を向上でき、また、当該機械学習の結果を診断等の処理に利用できる情報処理装置が提供される。   According to the present invention, it is possible to perform machine learning processing while effectively using information in which input information and output information are not paired, and to improve the efficiency of the machine learning. An information processing apparatus that can be used for processing such as diagnosis is provided.

本発明の実施の形態に係る情報処理装置の構成ブロック図である。1 is a configuration block diagram of an information processing apparatus according to an embodiment of the present invention. 本発明の実施の形態に係る情報処理装置の一例に係る機能ブロック図である。It is a functional block diagram concerning an example of an information processor concerning an embodiment of the invention. 本発明の実施の形態に係る情報処理装置の動作例を表すフローチャート図である。It is a flowchart figure showing the operation example of the information processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る情報処理装置の出力する情報の例を表す説明図である。It is explanatory drawing showing the example of the information which the information processing apparatus which concerns on embodiment of this invention outputs.

本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る情報処理装置1は、図1に例示するように、制御部11と、記憶部12と、操作部13と、表示部14と、入出力部15とを含んで構成される。   Embodiments of the present invention will be described with reference to the drawings. As illustrated in FIG. 1, the information processing apparatus 1 according to the embodiment of the present invention includes a control unit 11, a storage unit 12, an operation unit 13, a display unit 14, and an input / output unit 15. Composed.

ここで制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。本実施の形態の例では、この制御部11は、出力情報のパターンを表す情報を取得し、入力情報と、対応する出力情報とを関連付ける機械学習データを生成する際に、入力情報を入力したときに学習器が出力する情報と、当該入力情報に対応する出力情報との相違に関する情報と、取得した、出力情報のパターンに係る情報とを用いて学習器のパラメータを制御して機械学習データを生成する。そして制御部11は、当該生成された機械学習データを、処理の対象となる入力情報に対応する、出力情報を推定する処理に供する。   Here, the control unit 11 is a program control device such as a CPU, and operates according to a program stored in the storage unit 12. In the example of the present embodiment, the control unit 11 acquires information representing a pattern of output information, and inputs the input information when generating machine learning data that associates the input information with the corresponding output information. Machine learning data by controlling parameters of the learning device using information on the difference between the information output by the learning device and the output information corresponding to the input information, and the acquired information on the pattern of the output information Is generated. Then, the control unit 11 provides the generated machine learning data to a process for estimating output information corresponding to the input information to be processed.

具体的に、本実施の形態の一例では、制御部11は、出力情報としての、目の症状に関する情報のパターンを表す情報を取得する。またこのときには、制御部11は、入力情報としての、目に係る診断情報と、対応する目の症状に関する情報とを関連付ける機械学習データを生成する。具体的に制御部11は、目に係る診断情報を入力情報として入力したときのニューラルネットワーク等、非線形関数を用いる学習器の出力(出力情報)と、当該入力した入力情報である診断情報に対応する出力情報である、目の症状に関する情報との相違に関する情報と、取得した、目の症状に関する情報のパターンに係る情報とを用いて学習器のパラメータを制御して機械学習データを生成する。   Specifically, in an example of the present embodiment, the control unit 11 acquires information representing an information pattern related to eye symptoms as output information. Further, at this time, the control unit 11 generates machine learning data associating the diagnostic information about the eyes as the input information with the information about the corresponding eye symptoms. Specifically, the control unit 11 corresponds to an output (output information) of a learning device that uses a nonlinear function, such as a neural network when diagnostic information relating to the eyes is input as input information, and diagnostic information that is the input information that has been input. The machine learning data is generated by controlling the parameters of the learning device using the information relating to the difference between the information relating to the eye symptom and the information relating to the information pattern relating to the eye symptom acquired.

そしてこの制御部11は、学習処理により生成された機械学習データを、処理の対象となる目に係る診断情報に対応する、目の症状に関する情報を推定する処理を行ってもよい。この制御部11の詳しい動作の内容については後に説明する。   And this control part 11 may perform the process which estimates the information regarding the symptom of eyes corresponding to the diagnostic information which concerns on the machine learning data produced | generated by the learning process which is the object of a process. Details of the operation of the control unit 11 will be described later.

なお、本実施の形態の以下の説明では、入力情報と出力情報とは上記の例のものとして説明するが、これは一例であり、他の種類の入力情報や出力情報であっても同様の処理を適用できる。例えば入力情報は、目以外の部位に関する患者の診断情報等であってもよい。また出力情報は、目以外の部位に関する症状に関する情報等であってもよい。このとき、入力情報が関係する患者の部位と、出力情報が関係する患者の部位とが互いに異なっていてもよい。さらに、本実施の形態の入力情報と出力情報との例は、人体に関係する情報に限られず、非線形関数を用いる学習器が適用される種々の分野、例えば言語解析、経営情報解析、気象情報の解析、等であっても、出力情報についてパターンの情報を抽出できるものであれば、いかなる情報であっても構わない。またここで出力情報は多次元の情報であってよい。   In the following description of the present embodiment, the input information and the output information are described as those in the above example, but this is an example, and the same applies to other types of input information and output information. Processing can be applied. For example, the input information may be patient diagnosis information related to a part other than the eyes. Further, the output information may be information regarding symptoms related to parts other than the eyes. At this time, the part of the patient related to the input information may be different from the part of the patient related to the output information. Furthermore, examples of input information and output information according to the present embodiment are not limited to information related to the human body, but various fields to which a learning device using a nonlinear function is applied, such as language analysis, management information analysis, and weather information. However, any information can be used as long as it can extract pattern information about output information. Here, the output information may be multidimensional information.

記憶部12は、ディスクデバイスやメモリデバイス等であり、制御部11によって実行されるプログラムを保持する。このプログラムは、コンピュータ可読かつ非一時的な記録媒体に格納されて提供され、この記憶部12に格納されたものであってもよい。   The storage unit 12 is a disk device, a memory device, or the like, and holds a program executed by the control unit 11. The program may be provided by being stored in a computer-readable non-transitory recording medium and stored in the storage unit 12.

操作部13は、キーボードやマウス等であり、利用者の指示を受け入れて、制御部11に出力する。表示部14は、ディスプレイ等であり、制御部11から入力される指示に従い、情報を表示出力する。   The operation unit 13 is a keyboard, a mouse, or the like, and accepts a user instruction and outputs it to the control unit 11. The display unit 14 is a display or the like, and displays and outputs information in accordance with an instruction input from the control unit 11.

入出力部15は、例えばUSB(Universal Serial Bus)等の入出力インタフェースであり、本実施の形態の一例では、処理の対象となる種々の情報を外部の装置(例えば種々の検査装置やカードリーダー等)から受け入れて制御部11に出力する。   The input / output unit 15 is an input / output interface such as a USB (Universal Serial Bus), for example, and in the example of the present embodiment, various types of information to be processed are transferred to external devices (for example, various inspection devices and card readers). Etc.) and output to the control unit 11.

次に制御部11の動作について説明する。本実施の形態では、この制御部11は、図2に例示するように、学習処理部20と、推定処理部30とを含む。また学習処理部20は、パターン取得部21と、学習データ生成部22とを含んで構成される。   Next, the operation of the control unit 11 will be described. In the present embodiment, the control unit 11 includes a learning processing unit 20 and an estimation processing unit 30 as illustrated in FIG. The learning processing unit 20 includes a pattern acquisition unit 21 and a learning data generation unit 22.

本実施の形態の一例において、このパターン取得部21は、目の症状に関する情報を複数受け入れて、当該複数の目の症状に関する情報に基づく教師なし学習により得られる目の症状に関する情報のパターンを表す情報を生成して取得する。   In an example of the present embodiment, the pattern acquisition unit 21 accepts a plurality of pieces of information related to eye symptoms and represents a pattern of information related to eye symptoms obtained by unsupervised learning based on information related to the plurality of eye symptoms. Generate and obtain information.

具体的にこのパターン取得部21は、目の症状に関する情報として、視野に関する情報を複数受け入れる。ここで視野に関する情報は、視野検査の結果の情報、すなわち視野中心から所定の角度(例えば10度または30度)以内に予め設定された、複数の測定点P1,P2…における視野感度の情報でよい。なお、以下の例において各測定点は固有の識別情報(連番など)によって識別可能とされているものとする。   Specifically, the pattern acquisition unit 21 accepts a plurality of pieces of information related to the visual field as information related to eye symptoms. Here, the information on the visual field is information on the result of visual field inspection, that is, information on visual field sensitivity at a plurality of measurement points P1, P2,... Preset within a predetermined angle (for example, 10 degrees or 30 degrees) from the visual field center. Good. In the following example, it is assumed that each measurement point can be identified by unique identification information (serial number or the like).

パターン取得部21は、受け入れた視野に関する情報に基づいて、教師なし学習により症状の進行のパターンを抽出する。例えば緑内障であれば、視野欠損が上側から進行する症例や、下側から進行する症例等、症例がいくつかのパターンに分類できることが知られている。また、いずれの症例においても、比較的近い位置にある視野の測定点間では比較的似た視野感度の情報が得られること(共起性を有すること)が知られている。   The pattern acquisition unit 21 extracts a symptom progression pattern by unsupervised learning based on information about the accepted visual field. For example, in the case of glaucoma, it is known that cases can be classified into several patterns, such as cases in which visual field defects progress from the upper side and cases from the lower side. In any case, it is known that relatively similar visual field sensitivity information can be obtained between visual field measurement points located relatively close to each other (having co-occurrence).

そこでこのパターン取得部21では、教師なし学習として、例えば非負値行列因子分解(NMF)や、主成分分析(PCA)、オートエンコーダ、混合分布を用いる方法等の方法を用いて、受け入れた視野に関する情報から症状の進行のパターンを抽出する。一例として非負値行列因子分解を用いる場合、視野に関する情報のそれぞれに含まれる各測定点での視野感度の情報を、予め定めた順序としておく。つまりパターン取得部21は、複数(以下ではN個(Nは2以上の整数)とする)の視野に関する情報に含まれる視野感度の情報を、対応する測定点Pi(i=1,2,…)の順で配列した、ベクトル情報Yj(j=1,2,…,N)としておく。   In view of this, the pattern acquisition unit 21 uses, for example, non-negative matrix factorization (NMF), principal component analysis (PCA), an auto encoder, a method using a mixture distribution, and the like as unsupervised learning. Extract patterns of symptom progression from information. As an example, when non-negative matrix factorization is used, information on visual field sensitivity at each measurement point included in each piece of information on visual field is set in a predetermined order. That is, the pattern acquisition unit 21 converts the field sensitivity information included in the information about a plurality of fields (hereinafter, N (N is an integer of 2 or more)) to the corresponding measurement points Pi (i = 1, 2,...). ) In the order of vector information Yj (j = 1, 2,..., N).

パターン取得部21は、このベクトル情報Yj(j=1,2,…,N)の列ベクトルを連接して配列した行列
を求め、この行列Yを、一対の非負値の行列WYとΘYとの積に分解する。すなわち、
とする。ここで、ΘYは、K個の列ベクトルθYを連接して配列した行列を転置した基底行列
である。この基底行列ΘYに含まれる各行(転置前の各列θYi(i=1,2,…K))が進行パターンを表す。
The pattern acquisition unit 21 is a matrix in which column vectors of the vector information Yj (j = 1, 2,..., N) are connected and arranged.
This matrix Y is decomposed into a product of a pair of non-negative matrix WY and ΘY. That is,
And Here, ΘY is a base matrix obtained by transposing a matrix in which K column vectors θY are connected and arranged.
It is. Each row (each column θYi (i = 1, 2,... K) before transposition) included in the basis matrix ΘY represents a progress pattern.

この非負値行列因子分解の具体的方法については、D. D. Lee and H. S. Seung, Algorithms for Non-negative Matrix Factorization, In NIPS, Vol. 13, pp. 556-562, 2000等に記載されているので、ここでの詳しい説明を省略する。   A specific method of this non-negative matrix factorization is described in DD Lee and HS Seung, Algorithms for Non-negative Matrix Factorization, In NIPS, Vol. 13, pp. 556-562, 2000, etc. Detailed explanation in is omitted.

本実施の形態のこの例に係るパターン取得部21は、ここで得た基底行列ΘYを、目の症状に関する情報のパターンを表す情報として出力する。   The pattern acquisition unit 21 according to this example of the present embodiment outputs the base matrix ΘY obtained here as information representing a pattern of information regarding eye symptoms.

学習データ生成部22は、学習器としての所定のニューラルネットワークの学習を行う。ここでのニューラルネットワークは例えば、CNN(畳み込みニューラルネットワーク)であり、目に係る診断情報と、それに対応する目の症状に関する情報とを関連付ける機械学習データである。本実施の形態のここでの例では、目の症状に関する情報は、上述の通り、視野検査の結果をベクトルの形に表現したものでよい。   The learning data generation unit 22 learns a predetermined neural network as a learning device. The neural network here is, for example, a CNN (convolutional neural network), which is machine learning data that associates diagnostic information relating to the eyes with information relating to eye symptoms corresponding thereto. In this example of the present embodiment, the information related to the eye symptom may be a result of visual field examination expressed in the form of a vector as described above.

また目に係る診断情報は、例えば、光干渉断層計(OCT)による、眼底計測結果(網膜の構造に関する情報)または、眼底写真の画像データ等のいずれかであり、以下の例では光干渉断層計(OCT)による、眼底計測結果であるものとする。また以下の説明では、ニューラルネットワークとしてCNNを用いた場合を例として説明するが、本実施の形態のニューラルネットワークはCNNに限られず、残差(Residual)ネットワーク(ResNet:Kaiming He, et.al., Deep Residual Learning for Image Recognition, https://arxiv.org/pdf/1512.03385v1.pdf)など、他の構造を有するニューラルネットワークであってもよい。ただし、ニューラルネットワークの出力は、視野検査の結果を表すベクトルの次元と同じ次元のベクトル量であるようにしておく。   The diagnostic information on the eye is, for example, any of fundus measurement results (information on the structure of the retina) or image data of fundus photographs by an optical coherence tomography (OCT). It is assumed that it is a fundus measurement result by a total meter (OCT). In the following description, a case where CNN is used as a neural network will be described as an example. However, the neural network according to the present embodiment is not limited to CNN, and a residual network (ResNet: Kaiming He, et.al. , Deep Residual Learning for Image Recognition, https://arxiv.org/pdf/1512.03385v1.pdf), etc. However, the output of the neural network is set to be a vector quantity having the same dimension as the dimension of the vector representing the visual field inspection result.

学習データ生成部22は、目に係る診断情報と当該診断情報が得られたときの目の症状に関する情報との組の入力を受け入れる。この情報の組は、OCTによる検査と、視野検査とを実質的に同時に(例えば数日の期間内に)行った特定の対象者から得られたものを用いる。このような情報の組の数は、パターン取得部21が用いる、目の症状に関する情報(診断情報と組となっていないもの)の総数よりもその数は少ないものの、学習データの生成に十分な数だけあるものとする。   The learning data generation unit 22 accepts an input of a set of diagnostic information relating to the eye and information relating to an eye symptom when the diagnostic information is obtained. This set of information is obtained from a specific subject who has performed an examination by OCT and a visual field examination substantially simultaneously (for example, within a period of several days). Although the number of such information sets is smaller than the total number of information related to eye symptoms (what is not paired with diagnostic information) used by the pattern acquisition unit 21, it is sufficient for generating learning data. There are as many as there are.

学習データ生成部22は、受け入れた目に係る診断情報と当該診断情報が得られたときの、正解情報である目の症状に関する情報との組を順次選択し、選択した組に含まれる診断情報を、ニューラルネットワークの入力としたとき、当該ニューラルネットワークが出力する情報(目の症状に関する情報との差が演算可能な情報)ypredと、選択した組に含まれる目の症状に関する情報(正解情報)ytrueとの二乗残差平均(L2罰則項)l2(ypred,ytrue)を求める。 The learning data generation unit 22 sequentially selects a set of diagnostic information related to the accepted eye and information related to the eye symptom that is correct information when the diagnostic information is obtained, and diagnostic information included in the selected set Is the input to the neural network, the information output by the neural network (information that can be calculated from the information about the eye symptom) ypred and the information about the eye symptom included in the selected set (correct information) Find the squared residual average (L2 penalty term) l 2 (ypred, ytrue) with ytrue.

またこの学習データ生成部22は、パターン正則化項R(ypred)を次のように求める。すなわち、このパターン正則化項を
と定義する。ここでypredNMFは、
で規定される。ただし、
とする。
The learning data generation unit 22 calculates the pattern regularization term R (ypred) as follows. In other words, this pattern regularization term
It is defined as Where ypredNMF is
It is prescribed by. However,
And

これは、ニューラルネットの予測結果であるypredを、症状の進行のパターン(基底)がつくる部分空間に正射影したものに相当し、パターン正則化項全体としては、この正射影の結果と、ニューラルネットの予測結果であるypredとのユークリッド距離の二乗とする。   This corresponds to the projection of ypred, which is the prediction result of the neural network, orthographically projected onto the subspace created by the symptom progression pattern (base), and the pattern regularization term as a whole is the result of this orthographic projection and the neural network. The square of the Euclidean distance from ypred, which is the net prediction result.

これにより、予測結果が症状の進行のパターンから外れるほど、当該予測結果の部分空間への正射影と、予測結果自体とのユークリッド距離は大きくなり、より大きい正則化が行われることとなる。   As a result, as the prediction result deviates from the symptom progression pattern, the Euclidean distance between the orthographic projection of the prediction result to the partial space and the prediction result itself becomes larger, and larger regularization is performed.

学習データ生成部22は、診断情報と目の症状に関する情報との組に基づくL2罰則項l2(ypred,ytrue)とパターン正則化項R(ypred)との和(重みつきの和l2(ypred,ytrue)+λ・R(ypred)、でよい(ここでλは実数であり、重みの一例である))を小さくする方向に、ニューラルネットワークのパラメータを制御して設定し直す。 The learning data generation unit 22 sums the L2 penalty term l 2 (ypred, ytrue) and the pattern regularization term R (ypred) based on the set of the diagnostic information and the information about the eye symptoms (weighted sum l 2 ( ypred, ytrue) + λ · R (ypred) (where λ is a real number, which is an example of a weight)), the parameters of the neural network are controlled and reset.

このような設定方法は、一般的なニューラルネットワークにおける勾配降下法として種々の知られた方法を適宜選択して採用できるので、ここでの詳しい説明を省略する。   As such a setting method, various known methods can be appropriately selected and adopted as a gradient descent method in a general neural network, and detailed description thereof is omitted here.

学習データ生成部22は、受け入れた目に係る診断情報と当該診断情報が得られたときの、正解情報である目の症状に関する情報との組のそれぞれについて、上述の処理を繰り返して行い、ニューラルネットワークのパラメータを制御して、機械学習データを生成する。   The learning data generation unit 22 repeats the above-described processing for each set of the diagnostic information related to the accepted eye and the information related to the eye symptom that is correct information when the diagnostic information is obtained, Machine learning data is generated by controlling network parameters.

また、制御部11の推定処理部30は、学習処理部20が生成した機械学習データを用い、学習処理部20と同じニューラルネットワークを用いて、目の症状に関する情報を推定する。具体的にこの例では、目に係る診断情報として光干渉断層計(OCT)による、眼底計測結果(網膜の構造に関する情報)を用いて、機械学習データを得ているので、この推定処理部30も、診断の対象となる対象者の光干渉断層計(OCT)による、眼底計測結果を、機械学習データによりパラメータを設定したニューラルネットワークに入力する。そして当該ニューラルネットワークが出力する情報(ここではそれぞれの要素が視野内の各測定点における視野感度を表すベクトルの情報)を、視野内の各測定点における視野感度の推定結果(つまり目の症状に関する情報の推定結果)として出力する。   In addition, the estimation processing unit 30 of the control unit 11 uses the machine learning data generated by the learning processing unit 20 and estimates information related to eye symptoms using the same neural network as the learning processing unit 20. Specifically, in this example, machine learning data is obtained by using fundus measurement results (information on the structure of the retina) obtained by an optical coherence tomography (OCT) as diagnostic information about the eyes. Also, the fundus measurement result obtained by the optical coherence tomography (OCT) of the subject to be diagnosed is input to a neural network in which parameters are set by machine learning data. The information output by the neural network (here, each element is information on a vector representing the visual field sensitivity at each measurement point in the field of view) is used to estimate the visual field sensitivity at each measurement point in the field of view (that is, regarding eye symptoms). Information estimation result).

なお、本実施の形態の例では、制御部11が学習処理部20と推定処理部30との双方を備えることとしたが、本実施の形態の制御部11は、学習処理部20のみを備えて、機械学習データを出力するものであってもよい。   In the example of the present embodiment, the control unit 11 includes both the learning processing unit 20 and the estimation processing unit 30, but the control unit 11 of the present embodiment includes only the learning processing unit 20. Thus, machine learning data may be output.

この場合、他のコンピュータ装置において、当該学習処理部20が出力する機械学習データを用いた推定処理部30としての処理を実行させる。   In this case, the process as the estimation processing unit 30 using the machine learning data output from the learning processing unit 20 is executed in another computer device.

またここで推定処理部30と学習処理部20とが用いるニューラルネットワークは同じものであるとしたが、この例に限られず、例えば学習処理部20がCNN、推定処理部30が2層の全結合ネットワークを用いてもよい。この場合、学習処理部20が出力する機械学習データと、学習処理部20とが用いるニューラルネットワークとを用いた推定処理の結果を用いて、当該推定処理部30が用いるニューラルネットワークを学習させる、いわゆる蒸留を行って、推定処理部30が用いるニューラルネットワークのパラメータである機械学習データ(学習処理部20が出力する機械学習データとの区別のため蒸留データと呼ぶ)を得ておく。そして推定処理部30は、この蒸留データと、蒸留時に用いたニューラルネットワークとを用い、診断の対象となる対象者の光干渉断層計(OCT)による、眼底計測結果をこのニューラルネットワークに入力して、視野内の各測定点における視野感度の推定結果(つまり目の症状に関する情報の推定結果)を得て出力する。   Here, the neural network used by the estimation processing unit 30 and the learning processing unit 20 is the same, but is not limited to this example. For example, the learning processing unit 20 is a CNN, and the estimation processing unit 30 is a two-layer full connection. A network may be used. In this case, the neural network used by the estimation processing unit 30 is learned using the result of estimation processing using the machine learning data output from the learning processing unit 20 and the neural network used by the learning processing unit 20. Distillation is performed to obtain machine learning data which is a parameter of the neural network used by the estimation processing unit 30 (referred to as distillation data for distinction from the machine learning data output by the learning processing unit 20). Then, the estimation processing unit 30 uses the distillation data and the neural network used during the distillation, and inputs the fundus measurement result obtained by the optical coherence tomography (OCT) of the subject to be diagnosed to the neural network. Obtain and output visual field sensitivity estimation results (that is, estimation results of information on eye symptoms) at each measurement point in the visual field.

[動作]
本実施の形態は以上の構成を備えており、次のように動作する。本発明の実施の形態に係る情報処理装置1は、学習処理を行うよう指示を受けると、図3に例示するように、光干渉断層計(OCT)による検査と、視野検査とを実質的に同時に(例えば数日の期間内に)行った特定の対象者から得られた、光干渉断層計(OCT)による、眼底計測結果(網膜の構造に関する情報)と、視野検査の結果との組(以下の説明ではペアデータと呼ぶ)と、光干渉断層計(OCT)による検査の結果と組となっていない視野検査の結果の情報(以下、ノンペアデータと呼ぶ)との入力をそれぞれ複数受け入れる(S1)。
[Operation]
This embodiment has the above-described configuration and operates as follows. When the information processing apparatus 1 according to the embodiment of the present invention receives an instruction to perform learning processing, the information processing apparatus 1 substantially performs inspection by an optical coherence tomography (OCT) and visual field inspection as illustrated in FIG. A set of fundus measurement results (information on the structure of the retina) and results of visual field examination by optical coherence tomography (OCT) obtained from a specific subject performed at the same time (for example within a period of several days) ( In the following description, a plurality of inputs of a pair of data (hereinafter referred to as “pair data”) and information on the results of visual field inspection (hereinafter referred to as “non-pair data”) that are not paired with the results of inspection by optical coherence tomography (OCT) are accepted. (S1).

そして情報処理装置1は、処理S1で受け入れたノンペアデータに基づいて非負値行列因子分解(NMF)等の教師なし学習処理を行い、目の症状に関する情報のパターンを表す情報を生成して取得する(S2)。一例としてこの処理S2では、非負値行列因子分解(NMF)により、目の症状に関する情報である視野検査の結果の情報のパターンを表す情報として、いくつかの互いに異なる代表的なパターンを基底として得る。   Then, the information processing apparatus 1 performs unsupervised learning processing such as non-negative matrix factorization (NMF) based on the non-pair data received in step S1, and generates and obtains information representing a pattern of information regarding eye symptoms. (S2). As an example, in this process S2, by using non-negative matrix factorization (NMF), several different representative patterns are obtained as a basis as information representing the pattern of information on the result of visual field examination, which is information on eye symptoms. .

情報処理装置1は、次に、CNNのニューラルネットワークを設定する(S3)。この設定では、過去に学習して得た機械学習データがあれば、CNNのニューラルネットワークに当該機械学習データのパラメータを設定する(学習済みモデルをロードする)こととし、過去に学習して得た機械学習データがなければ、CNNのニューラルネットワークを初期化する。初期化の方法は、広く知られた方法を採用してよい。   Next, the information processing apparatus 1 sets a CNN neural network (S3). In this setting, if there is machine learning data obtained by learning in the past, the parameter of the machine learning data is set in the neural network of the CNN (the learned model is loaded) and obtained by learning in the past. If there is no machine learning data, the CNN neural network is initialized. A widely known method may be adopted as the initialization method.

そして情報処理装置1は、処理S1で受け入れた複数組のペアデータを一つずつ選択して次のループを繰り返し実行する(S4)。すなわち情報処理装置1は、選択したペアデータに含まれる眼底計測結果(網膜の構造に関する情報)をCNNのニューラルネットワークに入力したときの出力を得る(S5)。   Then, the information processing apparatus 1 selects a plurality of sets of pair data received in step S1 one by one and repeatedly executes the next loop (S4). That is, the information processing apparatus 1 obtains an output when the fundus measurement result (information on the structure of the retina) included in the selected pair data is input to the CNN neural network (S5).

情報処理装置1は、当該処理S5で得た出力と、選択したペアデータに含まれる正解情報である視野検査の結果の情報との二乗残差平均(l2(ypred,ytrue))を求め、また、処理S2で得たパターンを表す情報と処理S5で得た出力で得た情報との適合性を評価する値(R(ypred))を求める。この値は例えばニューラルネットの出力を、処理S2で得たパターンを表す情報(基底)がつくる部分空間に正射影し、この正射影の結果と、ニューラルネットの出力とのユークリッド距離の二乗等、ニューラルネットの出力が、処理S2で得た情報が表すパターンから外れるほど、大きい値となるような値を用いる。 The information processing apparatus 1 obtains a square residual average (l 2 (ypred, ytrue)) between the output obtained in the processing S5 and information on the result of visual field inspection that is correct information included in the selected pair data, Further, a value (R (ypred)) for evaluating the compatibility between the information representing the pattern obtained in the process S2 and the information obtained from the output obtained in the process S5 is obtained. For example, this value is obtained by orthogonally projecting the output of the neural network into a partial space created by the information (base) representing the pattern obtained in the process S2, and the square of the Euclidean distance between the result of the orthogonal projection and the output of the neural network, etc. A value that increases as the output of the neural network deviates from the pattern represented by the information obtained in step S2 is used.

情報処理装置1は、ここで求めた二乗残差平均l2(ypred,ytrue)と、パターンへの適合性を表す値R(ypred)とを用いた損失関数を演算し、当該損失関数の演算結果に基づいてニューラルネットワークのパラメータ(機械学習データ)を更新する(S6)。ここで損失関数は、上記二乗残差平均とパターンへの適合性を表す値との重みづけ和でよい。なお、損失関数に基づく更新の処理自体は、一般的なニューラルネットワークにおける勾配降下法として種々の知られた方法を適宜選択して採用できる。 The information processing apparatus 1 calculates a loss function using the squared residual average l 2 (ypred, ytrue) obtained here and a value R (ypred) indicating suitability to the pattern, and calculates the loss function. Based on the result, the parameters (machine learning data) of the neural network are updated (S6). Here, the loss function may be a weighted sum of the above-mentioned square residual average and a value representing suitability to the pattern. The update process itself based on the loss function can be selected by appropriately selecting various known methods as a gradient descent method in a general neural network.

情報処理装置1は、処理S5,S6を、処理S1で受け入れた複数組のペアデータの一つ一つについて繰り返し実行し、選択していないペアデータがなくなると、その時点での機械学習データ(学習済みモデル)を記憶部12に格納して処理を終了する。   The information processing apparatus 1 repeatedly executes the processes S5 and S6 for each of a plurality of pairs of data received in the process S1, and when there is no unselected pair data, the machine learning data ( The learned model) is stored in the storage unit 12, and the process is terminated.

この機械学習データは、外部のコンピュータに出力されて処理の対象となる目に係る診断情報に対応する、目の症状に関する情報を推定する処理に用いられてもよいし、この情報処理装置1自身が利用して、処理の対象となる目に係る診断情報に対応する、目の症状に関する情報を推定する処理(推定処理)を行ってもよい。   This machine learning data may be used for processing for estimating information related to eye symptoms corresponding to diagnostic information relating to eyes to be processed by being output to an external computer, or the information processing apparatus 1 itself. May be used to perform processing (estimation processing) for estimating information regarding eye symptoms corresponding to diagnostic information relating to the eye to be processed.

情報処理装置1は、推定処理を行うよう指示を受けると、記憶部12に格納されている機械学習データ(学習済みモデル)を読み出して、学習処理において用いたものと同じCNNのニューラルネットワークに当該機械学習データのパラメータを設定する(学習済みモデルをロードする)。   When receiving the instruction to perform the estimation process, the information processing apparatus 1 reads the machine learning data (learned model) stored in the storage unit 12 and applies the same CNN neural network as that used in the learning process. Set the machine learning data parameters (load the trained model).

そして情報処理装置1は、光干渉断層計(OCT)による検査の結果の情報の入力を受けて、当該光干渉断層計(OCT)による検査の結果の情報を設定したニューラルネットワークに入力する。そして情報処理装置1は、当該入力に対するニューラルネットワークの出力する情報(推定された視野検査の結果に相当する情報)を得て、当該情報を表示部14に表示するなどして出力する。   The information processing apparatus 1 receives information on the result of the inspection by the optical coherence tomography (OCT) and inputs the information on the result of the inspection by the optical coherence tomography (OCT) to the set neural network. The information processing apparatus 1 obtains information (information corresponding to the estimated visual field inspection result) output from the neural network with respect to the input, and outputs the information by displaying the information on the display unit 14.

このように本実施の形態によると、過去に蓄積されているノンペアデータを有効に活用して症状の推定に資するニューラルネットワークを学習処理することが可能となり、機械学習の効率を向上でき、また、当該機械学習の結果を診断等の処理に利用できる。   As described above, according to the present embodiment, it becomes possible to perform learning processing of a neural network that contributes to symptom estimation by effectively using non-pair data accumulated in the past, and can improve the efficiency of machine learning. The result of the machine learning can be used for processing such as diagnosis.

[パターン抽出の他の例]
また、教師なし学習により症状の進行のパターンを抽出する方法は、非負値行列因子分解(NMF)の方法に限られない。
[Other examples of pattern extraction]
Further, the method of extracting the symptom progression pattern by unsupervised learning is not limited to the non-negative matrix factorization (NMF) method.

情報処理装置1の制御部11が用いる教師なし学習の方法は、主成分分析(PCA)やオートエンコーダであってもよい。   The unsupervised learning method used by the control unit 11 of the information processing apparatus 1 may be principal component analysis (PCA) or an auto encoder.

具体的に主成分分析を用いる場合、情報処理装置1の制御部11は、主成分ベクトルΘYを、視野検査の結果から学習することとなる。そして制御部11は、この主成分ベクトルを用い、ニューラルネットワークが出力する推定結果ypredと、主成分分析により得られたパターンとの一致度を表す値R(ypred)を、
ただし、
として規定する。なお、
は、視野検査結果から得た視野検査の情報の要素ごとの平均(各測定点での視野感度の情報の平均を配列したベクトル)である。
Specifically, when the principal component analysis is used, the control unit 11 of the information processing apparatus 1 learns the principal component vector ΘY from the result of the visual field inspection. Then, the control unit 11 uses this principal component vector to calculate a value R (ypred) representing the degree of coincidence between the estimation result ypred output from the neural network and the pattern obtained by the principal component analysis.
However,
It prescribes as In addition,
Is an average for each element of visual field inspection information obtained from the visual field inspection result (a vector in which averages of information on visual field sensitivity at each measurement point are arranged).

またオートエンコーダを用いる場合、情報処理装置1の制御部11は、ニューラルネットワークが出力する推定結果ypredと、オートエンコーダにより得られたパターンとの一致度を表す値R(ypred)を、
として規定する。
When the auto encoder is used, the control unit 11 of the information processing apparatus 1 uses a value R (ypred) representing the degree of coincidence between the estimation result ypred output from the neural network and the pattern obtained by the auto encoder.
It prescribes as

ここで関数fY(X)は、視野検査の結果に相当するベクトルをXとして、学習したオートエンコーダに入力したときの、オートエンコーダの出力を表す。ここでのオートエンコーダで用いるニューラルネットワークは例えば隠れ層が1層のみで、入力層よりも次元の低い層となっている全結合層とし、入力層での活性化関数を、例えばシグモイド関数とし、隠れ層での活性化関数をtanh関数としておく。オートエンコーダであるため、出力層は入力層と同じ次元とする。   Here, the function fY (X) represents the output of the auto encoder when the vector corresponding to the result of the visual field inspection is input to the learned auto encoder. The neural network used in the auto-encoder here is, for example, a hidden layer having only one layer, a fully connected layer having a lower dimension than the input layer, and an activation function in the input layer, for example, a sigmoid function, The activation function in the hidden layer is set as the tanh function. Since it is an auto encoder, the output layer has the same dimensions as the input layer.

この例のオートエンコーダにより得られたパターンとの一致度を表す値R(ypred)はつまり、ペアデータを学習しようとするニューラルネットワークの出力を、ノンペアデータで学習したオートエンコーダのニューラルネットワークに入力し、当該入力した情報と、オートエンコーダのニューラルネットワークの出力(パターンに一致させたもの、つまりオートエンコーダが視野検査結果から学習した部分空間に、ペアデータを学習しようとするニューラルネットワークの出力を射影したものに相当する)した情報との差が大きいほど、パターンに一致していないことを表すものとするものである。   The value R (ypred) representing the degree of coincidence with the pattern obtained by the auto encoder in this example is that the output of the neural network that is to learn the pair data is input to the neural network of the auto encoder that has been learned with the non-pair data. Then, the input information and the output of the neural network of the auto encoder (projected to match the pattern, that is, the output of the neural network trying to learn the pair data into the subspace learned from the visual field inspection result by the auto encoder) The greater the difference from the information (corresponding to the information), the more the pattern does not match the pattern.

さらに、本実施の形態のある例では、教師なし学習の方法としてガウスモデル(GM)を用いてもよい。この例では、情報処理装置1の制御部11は、ノンペアデータに含まれる複数の視野検査結果のベクトル情報から、当該ベクトルの要素ごとの平均ベクトルμYを求め、分散共分散行列ΣYを推定する。この分散共分散行列の推定方法は広く知られた方法を採用できるので、ここでの詳しい説明は省略する。   Furthermore, in an example of the present embodiment, a Gaussian model (GM) may be used as a method for unsupervised learning. In this example, the control unit 11 of the information processing apparatus 1 obtains an average vector μY for each element of the vector from vector information of a plurality of visual field inspection results included in the non-pair data, and estimates a variance covariance matrix ΣY. . A widely known method can be adopted as the method for estimating the variance-covariance matrix, and a detailed description thereof will be omitted here.

制御部11は、視野検査結果がガウス分布に従って発生していると仮定して、ペアデータを学習しようとするニューラルネットワークの出力の、上記平均ベクトルμYと、分散共分散行列ΣYとで特徴づけられるガウスモデルに対する一致度を表す値R(ypred)を、マハラノビス距離を用いて、
として規定する。
The control unit 11 is characterized by the average vector μY and the variance-covariance matrix ΣY of the output of the neural network trying to learn the pair data assuming that the visual field inspection result is generated according to the Gaussian distribution. Using the Mahalanobis distance, the value R (ypred) representing the degree of coincidence with the Gaussian model is
It prescribes as

このように、非負値行列因子分解(NMF),主成分分析(PCA),オートエンコーダ、あるいはガウスモデル(GM)のいずれを用いる方法でも、制御部11は、いずれかの方法で得られたパターンと、ペアデータを学習しようとするニューラルネットワークの出力との一致度を表す値であるパターン正則化項の値R(ypred)を求め、診断情報と目の症状に関する情報との組に基づくL2罰則項l2(ypred,ytrue)とこのパターン正則化項R(ypred)との和(重みつきの和l2(ypred,ytrue)+λ・R(ypred)、でよい)を小さくする方向に、ニューラルネットワークのパラメータを制御して設定し直すことで、ニューラルネットワークの学習処理を行う。 As described above, the control unit 11 uses the pattern obtained by any one of the methods using any of non-negative matrix factorization (NMF), principal component analysis (PCA), auto encoder, or Gaussian model (GM). And the value R (ypred) of the pattern regularization term, which is a value representing the degree of coincidence between the data and the output of the neural network trying to learn the pair data, and the L2 penalty based on the set of diagnostic information and information on eye symptoms In order to reduce the sum of the term l 2 (ypred, ytrue) and this pattern regularization term R (ypred) (the weighted sum l 2 (ypred, ytrue) + λ · R (ypred) may be sufficient) The neural network learning process is performed by controlling and resetting the network parameters.

[パターンを表す情報を予め指定しておく例]
また、ここまでの説明では、ノンペアデータに基づいてノンペアデータが表すニューラルネットワークの出力に関するパターンを推定し、当該パターンとニューラルネットワークの出力とが一致するように、ニューラルネットワークの学習処理を行うようにしていたが、本実施の形態はこれに限られない。
[Example of specifying information representing the pattern in advance]
In the description so far, the pattern related to the output of the neural network represented by the non-pair data is estimated based on the non-pair data, and the neural network learning process is performed so that the pattern matches the output of the neural network. However, the present embodiment is not limited to this.

すなわちパターンを表す情報(パターン正規化項R(ypred))は、ノンペアデータではなく、事前の知識によってユーザが任意に設定してもよい。   That is, the information representing the pattern (pattern normalization term R (ypred)) may be arbitrarily set by the user based on prior knowledge instead of non-pair data.

一例として、視野検査結果において、互いに隣接する測定点同士での測定結果は相関する傾向にあることを考慮し、隣接する測定点の値の差を小さくする方向にニューラルネットワークのパラメータを制御して設定し直すことで、ニューラルネットワークの学習処理を行うこととしてもよい。この例では、例えば各測定点について、当該測定点の値の推定結果(ニューラルネットワークの出力)と、隣接する測定点の値の推定結果との差を求め、各測定点で求めた差の二乗和をR(ypred)とすればよい。   As an example, in the visual field inspection result, taking into account that the measurement results at adjacent measurement points tend to correlate, control the parameters of the neural network in a direction to reduce the difference between the values of adjacent measurement points. It is good also as performing the learning process of a neural network by resetting. In this example, for each measurement point, for example, the difference between the estimation result of the value of the measurement point (output of the neural network) and the estimation result of the value of the adjacent measurement point is obtained, and the square of the difference obtained at each measurement point is obtained. The sum may be R (ypred).

[可視化処理]
上述の機械学習の結果を用いると、診断処理のほか、次のように、患者の状態に係る入力情報(上述の例であれば、光干渉断層計(OCT)による、眼底計測結果(網膜の構造に関する情報)や眼底写真の画像データなどの目に係る診断情報)と、患者の状態に係る出力情報(上述の例であれば視野検査の結果に相当する情報)との関係を可視化する処理を行うこともできる。
[Visualization processing]
Using the machine learning results described above, in addition to diagnostic processing, input information relating to the patient's condition (in the above example, fundus measurement results (retinal retina) using optical coherence tomography (OCT) in the above example) Processing for visualizing the relationship between information relating to the structure) (diagnostic information relating to the eye such as image data of fundus photographs) and output information relating to the patient's state (in the above example, information corresponding to the result of visual field examination) Can also be done.

すなわち、本実施の形態の情報処理装置1は、上述の方法で機械学習したニューラルネットワーク等の非線形の学習器による入出力関係の微分を用い、患者の状態に係る入力情報についての教師なし学習で得た複数のパターン(入力情報のパターン)Pini(i=1,2…)と、患者の状態に係る出力情報についての教師なし学習で得た複数のパターン(出力情報のパターン)Poutj(j=1,2,…)との間の重みDij(Piniと、Poutjとの間の重み)を求める。   That is, the information processing apparatus 1 according to the present embodiment uses undifferentiated input / output relationship differentiation by a non-linear learning device such as a neural network machine-learned by the above-described method, and performs unsupervised learning on input information related to a patient's state. A plurality of patterns (input information patterns) Pini (i = 1, 2,...) And a plurality of patterns (output information patterns) Poutj (j = j =) obtained by unsupervised learning on the output information related to the patient's condition. , 1, 2,...) Is determined as a weight Dij (a weight between Pini and Poutj).

そして情報処理装置1は、入力情報におけるどのようなパターンが、出力情報におけるどのパターンにより大きく寄与するのかを示す情報として、この重みの情報を提示することとしてもよい。   The information processing apparatus 1 may present this weight information as information indicating what pattern in the input information contributes more greatly to which pattern in the output information.

具体的に、本実施の形態の一例では、上述の方法で機械学習したニューラルネットワーク等の非線形の学習器を用いる。以下の例では、この学習器にxを入力したときの当該学習器による推定結果θの出力をypred(x;θ)とする。   Specifically, in an example of the present embodiment, a non-linear learning device such as a neural network machine-learned by the method described above is used. In the following example, it is assumed that the output of the estimation result θ by the learning device when x is input to the learning device is ypred (x; θ).

また以下では、入力される情報xの変化量Δxと、この変化量Δxに対する、出力情報ypredの変化量Δypredとが、Δypred=AΔxという線形の関係にあると仮定する。   In the following, it is assumed that the change amount Δx of the input information x and the change amount Δypred of the output information ypred with respect to the change amount Δx have a linear relationship Δypred = AΔx.

このとき、Aは、(Δx,Δyがベクトルであるので)複数のベクトルa1からaMを行方向に配列して転置したヤコビ行列(そのm行l列目の成分をamlとする)であり、
で与えられる。情報処理装置1は、上述の方法で機械学習した学習器を用い、このヤコビ行列Aを求めておく。なお、ypred_mは、推定結果θの出力のうち、m番目の成分を表す。また∂ypred_m/∂xlは、xlを変化させたときのypred_mの変化量(勾配)を表す。
At this time, A is a Jacobian matrix in which a plurality of vectors a1 to aM are arranged in the row direction (because Δx and Δy are vectors) (the component of the mth row and lth column is aml ). ,
Given in. The information processing apparatus 1 obtains the Jacobian matrix A using the learning device that has been machine-learned by the above-described method. Ypred_m represents the m-th component in the output of the estimation result θ. Further, ∂ypred_m / ∂xl represents a change amount (gradient) of ypred_m when xl is changed.

また、情報処理装置1は、光干渉断層計(OCT)による検査の結果と組となっていない、複数のノンペアの視野検査の結果の情報XVFと、視野検査の結果の情報と組となっていない、複数のノンペアの光干渉断層計(OCT)による検査の結果の情報XRTとを得て、次の処理を行う。   In addition, the information processing apparatus 1 is paired with information XVF on the results of a plurality of non-pair visual field inspections and information on the results of visual field inspections that are not paired with the results of the optical coherence tomography (OCT) inspection. A plurality of non-pair optical coherence tomography (OCT) inspection result information XRT is obtained, and the following processing is performed.

すなわち、情報処理装置1は、複数のノンペアの視野検査の結果の情報XVFと、複数のノンペアの光干渉断層計(OCT)による検査の結果の情報XRTとのそれぞれについて、非負値行列因子分解(NMF)等の教師なし学習の方法を用いて、それぞれの基底行列BVF=ΘXVFと、BRT=ΘXRTとを得る。   That is, the information processing apparatus 1 performs non-negative matrix factorization on each of the information XVF of the plurality of non-pair visual field inspection results and the information XRT of the plurality of non-pair optical coherence tomography (OCT) inspection results. Using an unsupervised learning method such as NMF), the respective base matrices BVF = ΘXVF and BRT = ΘXRT are obtained.

このとき、視野検査の結果の情報XVFの微小変化ΔXVFは、
と記述でき、また、光干渉断層計(OCT)による検査の結果の情報XRTの微小変化ΔXRTもまた、
と記述できる。
At this time, the minute change ΔXVF of the information XVF of the visual field inspection result is
In addition, the minute change ΔXRT of the information XRT of the result of the inspection by the optical coherence tomography (OCT) is also
Can be described.

この関係を、上記に仮定したΔypred=AΔxの関係に当てはめて、ΔXVF=AΔXRTと記述できるとし、zVFとzRTとの関係を、一般化逆行列を考慮して求めると、
となる。ただし、
である。
By applying this relationship to the relationship of Δypred = AΔx assumed above, it can be described as ΔXVF = AΔXRT, and when the relationship between zVF and zRT is determined in consideration of the generalized inverse matrix,
It becomes. However,
It is.

情報処理装置1は、先に求めた基底行列BVF,BRTを用いて、(16)式によりDを求める。   The information processing apparatus 1 obtains D using equation (16) using the basis matrices BVF and BRT obtained previously.

なお、情報処理装置1は、基底行列の演算に非負値行列因子分解を用いる場合など、Dのどの成分も負になるはずがない場合には、(16)式で求めたDの成分のうち、負のものについては無視する(使用しない)ものとする。   In the case where none of the components of D should be negative, such as when non-negative matrix factorization is used for the calculation of the base matrix, the information processing device 1 is the component of D calculated by equation (16). , Negative ones are ignored (not used).

ここで各基底行列BVF,BRTに含まれる各行(転置前の各列)のベクトルは、それぞれ視野検査の結果のパターンPVF1,PVF2,…PVFi(i=1,2,…)と、光干渉断層計(OCT)による検査の結果のパターンPRT1,PRT2,…PRTj(j=1,2,…)とを表す(対応する視野の位置でのそれぞれの検査結果の値に対応する)ので、ここで求めたDの各成分Dijは、各パターンPVFiとPRTjとの間の関係の重みを表すものとなる。   Here, the vector of each row (each column before transposition) included in each base matrix BVF, BRT is the pattern PVF1, PVF2,..., PVFi (i = 1, 2,. Represents the patterns PRT1, PRT2,... PRTj (j = 1, 2,...) (Corresponding to the values of the respective inspection results at the corresponding visual field positions). Each obtained component Dij of D represents the weight of the relationship between each pattern PVFi and PRTj.

そこで情報処理装置1は、図4に例示するように、各基底行列BVF,BRTに含まれる各行が表すパターンの画像(P)を表示し、その間の関係重み(無視されたものを除く)とを、二部グラフのように表示する。このとき、グラフのリンクに相当する線分を、Dの大きさが大きいほど太い線として表示する。   Therefore, as illustrated in FIG. 4, the information processing apparatus 1 displays an image (P) of a pattern represented by each row included in each base matrix BVF, BRT, and the relationship weight (except for neglected ones) between them. Is displayed as a bipartite graph. At this time, the line segment corresponding to the link of the graph is displayed as a thicker line as the size of D is larger.

この可視化処理によると、患者の状態に係る入力情報の代表的なパターンと、患者の状態に係る出力情報の代表的なパターンとの間でのどのような寄与の関係があるかを、学習器の微分情報を用いて構成し、視覚的に示すことができ、症状の進行等の理解に供することができる。   According to this visualization processing, a learning device determines what kind of contribution relationship exists between a representative pattern of input information related to a patient's condition and a representative pattern of output information related to a patient's condition. It can be constructed using the differential information, and can be shown visually, and can be used for understanding the progression of symptoms.

1 情報処理装置、11 制御部、12 記憶部、13 操作部、14 表示部、15 入出力部、20 学習処理部、21 パターン取得部、22 学習データ生成部、30 推定処理部。   DESCRIPTION OF SYMBOLS 1 Information processing apparatus, 11 Control part, 12 Storage part, 13 Operation part, 14 Display part, 15 Input / output part, 20 Learning processing part, 21 Pattern acquisition part, 22 Learning data generation part, 30 Estimation processing part

Claims (7)

出力情報のパターンを表す情報を取得する取得手段と、
入力情報と、対応する出力情報とを関連付ける機械学習データを生成する手段であって、前記入力情報を入力したときに学習器が出力する情報と、当該入力情報に対応する前記出力情報との相違に関する情報と、前記取得した前記出力情報のパターンに係る情報とを用いて前記学習器のパラメータを制御して機械学習データを生成する学習処理手段と、
を含み、
前記学習処理手段により生成された機械学習データを、処理の対象となる前記入力情報に対応する、前記出力情報を推定する処理に供する情報処理装置。
Acquisition means for acquiring information representing a pattern of output information;
A means for generating machine learning data for associating input information with corresponding output information, the difference between the information output by the learning device when the input information is input and the output information corresponding to the input information Learning processing means for generating machine learning data by controlling the parameters of the learning device using information on the acquired information on the pattern of the output information, and
Including
An information processing apparatus for subjecting machine learning data generated by the learning processing means to processing for estimating the output information corresponding to the input information to be processed.
目の症状に関する情報のパターンを表す情報を取得する取得手段と、
目に係る診断情報と、対応する目の症状に関する情報とを関連付ける機械学習データを生成する手段であって、目に係る診断情報を入力としたときの学習器の出力と、当該入力した診断情報に対応する目の症状に関する情報との相違に関する情報と、前記受け入れた目の症状に関する情報のパターンに係る情報とを用いて前記学習器のパラメータを制御して機械学習データを生成する学習処理手段と、
を含み、
前記学習処理手段により生成された機械学習データを、処理の対象となる目に係る診断情報に対応する、目の症状に関する情報を推定する処理に供する情報処理装置。
An acquisition means for acquiring information representing a pattern of information on eye symptoms;
A means for generating machine learning data for associating diagnostic information relating to the eye with information relating to a corresponding eye symptom, the output of the learning device when the diagnostic information relating to the eye is input, and the inputted diagnostic information Learning processing means for generating machine learning data by controlling parameters of the learning device using information regarding a difference from information regarding eye symptoms corresponding to the information and information regarding information patterns regarding the accepted eye symptoms When,
Including
An information processing apparatus for subjecting machine learning data generated by the learning processing means to processing for estimating information relating to eye symptoms corresponding to diagnostic information relating to eyes to be processed.
請求項2に記載の情報処理装置であって、
前記取得手段は、目の症状に関する情報を複数受け入れて、当該複数の目の症状に関する情報に基づく教師なし学習により得られる目の症状に関する情報のパターンを表す情報を生成して取得する情報処理装置。
An information processing apparatus according to claim 2,
The acquisition unit receives a plurality of pieces of information relating to eye symptoms, and generates and acquires information representing a pattern of information relating to eye symptoms obtained by unsupervised learning based on the information relating to the plurality of eye symptoms. .
請求項2または3に記載の情報処理装置であって、
前記目に係る診断情報は、網膜構造を表す情報であり、前記目の症状に関する情報は、視野に関する情報である情報処理装置。
The information processing apparatus according to claim 2 or 3,
The information processing apparatus, wherein the eye diagnostic information is information representing a retinal structure, and the information about the eye symptom is information about a visual field.
請求項3に記載の情報処理装置であって、
前記取得手段が受け入れる目の症状に関する情報は少なくとも視野を表す情報を含む情報である情報処理装置。
The information processing apparatus according to claim 3,
The information processing apparatus, wherein the information regarding the eye symptom accepted by the acquisition means is information including at least information indicating a visual field.
目の症状に関する情報を複数受け入れて、当該複数の目の症状に関する情報に基づく教師なし学習により得られる診断情報のパターンを表す情報を取得する工程と、
目に係る診断情報と、対応する目の症状に関する情報とを関連付ける機械学習データを生成する工程であって、目に係る診断情報を入力としたときの学習器の出力と、当該入力した診断情報に対応する目の症状に関する情報との相違に関する情報と、前記受け入れた目の症状に関する情報のパターンに係る情報とを用いて前記学習器のパラメータを制御する工程と、
を含む、
機械学習データの製造方法。
Receiving a plurality of information related to eye symptoms and obtaining information representing a pattern of diagnostic information obtained by unsupervised learning based on information related to the plurality of eye symptoms;
A step of generating machine learning data for associating eye diagnostic information with corresponding eye symptom information, the output of the learning device when the eye diagnostic information is input, and the input diagnostic information Controlling the parameters of the learner using information relating to the difference between the information relating to the eye symptom corresponding to and information relating to the pattern of information relating to the accepted eye symptom;
including,
Machine learning data manufacturing method.
コンピュータを、
目の症状に関する情報のパターンを表す情報を取得する取得手段と、
目に係る診断情報と、対応する目の症状に関する情報とを関連付ける機械学習データを生成する手段であって、目に係る診断情報を入力としたときの学習器の出力と、当該入力した診断情報に対応する目の症状に関する情報との相違に関する情報と、前記受け入れた目の症状に関する情報のパターンに係る情報とを用いて前記学習器のパラメータを制御して機械学習データを生成する学習処理手段と、
として機能させ、
前記学習処理手段により生成された機械学習データが、処理の対象となる目に係る診断情報に対応する、目の症状に関する情報を推定する処理に供されるプログラム。

Computer
An acquisition means for acquiring information representing a pattern of information on eye symptoms;
A means for generating machine learning data for associating diagnostic information relating to the eye with information relating to a corresponding eye symptom, the output of the learning device when the diagnostic information relating to the eye is input, and the inputted diagnostic information Learning processing means for generating machine learning data by controlling parameters of the learning device using information regarding a difference from information regarding eye symptoms corresponding to the information and information regarding information patterns regarding the accepted eye symptoms When,
Function as
A program used for processing for estimating information relating to eye symptoms corresponding to diagnostic information relating to eyes to be processed, wherein the machine learning data generated by the learning processing means.

JP2018036595A 2018-03-01 2018-03-01 Information processing equipment, machine learning data manufacturing methods, and programs Active JP7082395B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018036595A JP7082395B2 (en) 2018-03-01 2018-03-01 Information processing equipment, machine learning data manufacturing methods, and programs
PCT/JP2019/007950 WO2019168129A1 (en) 2018-03-01 2019-02-28 Information processing device, and production method for machine learning data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018036595A JP7082395B2 (en) 2018-03-01 2018-03-01 Information processing equipment, machine learning data manufacturing methods, and programs

Publications (2)

Publication Number Publication Date
JP2019152977A true JP2019152977A (en) 2019-09-12
JP7082395B2 JP7082395B2 (en) 2022-06-08

Family

ID=67805367

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018036595A Active JP7082395B2 (en) 2018-03-01 2018-03-01 Information processing equipment, machine learning data manufacturing methods, and programs

Country Status (2)

Country Link
JP (1) JP7082395B2 (en)
WO (1) WO2019168129A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05189397A (en) * 1992-01-13 1993-07-30 Hitachi Ltd Learning method and information processing system for neural network
WO2014136316A1 (en) * 2013-03-04 2014-09-12 日本電気株式会社 Information processing device, information processing method, and program
JP2018014059A (en) * 2016-07-22 2018-01-25 株式会社トプコン Medical information processing system and medical information processing method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015116319A (en) * 2013-12-18 2015-06-25 パナソニックIpマネジメント株式会社 Diagnosis support device, diagnosis support method, and diagnosis support program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05189397A (en) * 1992-01-13 1993-07-30 Hitachi Ltd Learning method and information processing system for neural network
WO2014136316A1 (en) * 2013-03-04 2014-09-12 日本電気株式会社 Information processing device, information processing method, and program
JP2018014059A (en) * 2016-07-22 2018-01-25 株式会社トプコン Medical information processing system and medical information processing method

Also Published As

Publication number Publication date
WO2019168129A1 (en) 2019-09-06
JP7082395B2 (en) 2022-06-08

Similar Documents

Publication Publication Date Title
US10610109B2 (en) Emotion representative image to derive health rating
WO2015047981A1 (en) Systems and methods for diagnosing inherited retinal diseases
US20240054638A1 (en) Automatic annotation of condition features in medical images
Leite et al. Etiology-based classification of brain white matter hyperintensity on magnetic resonance imaging
Pachón-Suescún et al. Abnormal gait detection by means of lstm.
Yugha et al. An automated glaucoma detection from fundus images based on deep learning network
Zhang et al. A human-in-the-loop deep learning paradigm for synergic visual evaluation in children
Zia et al. A multilevel deep feature selection framework for diabetic retinopathy image classification
CN111340794A (en) Method and device for quantifying coronary artery stenosis
Sauty et al. Riemannian metric learning for progression modeling of longitudinal datasets
WO2018083853A1 (en) Visual field sensitivity estimation device, method for controlling visual field sensitivity estimation device, and program
WO2019168129A1 (en) Information processing device, and production method for machine learning data
US11250723B1 (en) Visuospatial disorders detection in dementia using a computer-generated environment based on voting approach of machine learning algorithms
Akram et al. Microaneurysm detection for early diagnosis of diabetic retinopathy
Kumari et al. Automated process for retinal image segmentation and classification via deep learning based cnn model
Girard et al. Statistical atlas-based descriptor for an early detection of optic disc abnormalities
CN112908466B (en) Alzheimer's disease intelligent decision support method and system based on transfer learning
Seshadri et al. Early prediction of Alzheimer’s disease with a multimodal multitask deep learning model
US20230154595A1 (en) Predicting geographic atrophy growth rate from fundus autofluorescence images using deep neural networks
Shanthakumari et al. Glaucoma Detection using Fundus Images using Deep Learning
Bringas et al. Automatic apraxia detection using Deep Convolutional Neural Networks and similarity methods
EP4220546A1 (en) Machine learning program, machine learning method, and inference device
Hassan et al. Direct Cup-to-Disc Ratio Estimation for Glaucoma Screening via Semi-supervised Learning
JP7427328B2 (en) Feature evaluation device and evaluation device method
US20240087120A1 (en) Geographic atrophy progression prediction and differential gradient activation maps

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220520

R150 Certificate of patent or registration of utility model

Ref document number: 7082395

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150