JP7082395B2 - 情報処理装置、機械学習データの製造方法、及びプログラム - Google Patents

情報処理装置、機械学習データの製造方法、及びプログラム Download PDF

Info

Publication number
JP7082395B2
JP7082395B2 JP2018036595A JP2018036595A JP7082395B2 JP 7082395 B2 JP7082395 B2 JP 7082395B2 JP 2018036595 A JP2018036595 A JP 2018036595A JP 2018036595 A JP2018036595 A JP 2018036595A JP 7082395 B2 JP7082395 B2 JP 7082395B2
Authority
JP
Japan
Prior art keywords
information
eye
machine learning
output
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018036595A
Other languages
English (en)
Other versions
JP2019152977A (ja
Inventor
健司 山西
太一 木脇
宏樹 杉浦
亮 朝岡
博史 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC filed Critical University of Tokyo NUC
Priority to JP2018036595A priority Critical patent/JP7082395B2/ja
Priority to PCT/JP2019/007950 priority patent/WO2019168129A1/ja
Publication of JP2019152977A publication Critical patent/JP2019152977A/ja
Application granted granted Critical
Publication of JP7082395B2 publication Critical patent/JP7082395B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Description

本発明は、眼科医療用の情報等を処理する情報処理装置、機械学習データの製造方法、及びプログラムに関する。
近年では種々の情報処理に機械学習が用いられるようになっており、医療用の情報についても、機械学習の結果を用いた情報処理を行うものが提案されている(例えば特許文献1)。
一方、緑内障など、非可逆的な視機能の喪失を伴う疾病については、早期の発見が求められる。しかしながら、緑内障では、その確定診断のための検査が一般に時間のかかるものであり、負担の大きいものであるため、予めスクリーニングによって緑内障の可能性の有無を簡便に検出する方法が求められている。
特開2015-116319号公報
上記従来の機械学習を用いる装置等においては、入力されるデータと出力するデータとが組となっているデータを用いていわゆる教師あり学習処理を行っているが、医療用の情報等では、入力するデータと関わりなく、出力されるデータが検査結果の情報として蓄積されている例が多く、必ずしも入力するデータと出力されるデータとが組となっていない場合がある。
例えば、緑内障の診断において、視野検査の結果については過去から数多くの蓄積があるが、網膜構造などの情報は、必ずしも視野検査の結果と組となって保持されているものではない。
本発明は上記実情に鑑みて為されたもので、組となっていない情報も有効に活用しつつ、機械学習処理を行い、当該機械学習の効率を向上しつつ、診断等の処理に役立てることのできる、情報処理装置、機械学習データの製造方法、及びプログラムを提供することを、その目的の一つとする。
上記従来例の問題点を解決する本発明は、情報処理装置であって、目の症状などの患者の症状に関する情報等、出力情報のパターンを表す情報を取得する取得手段と、目の診断情報など、患者の診断情報等、入力情報と、対応する出力情報とを関連付ける機械学習データを生成する手段であって、入力情報を入力としたときの学習器の出力と、当該入力情報に対応する出力情報との相違に関する情報と、前記受け入れた入力情報のパターンに係る情報とを用いて前記学習器のパラメータを制御して機械学習データを生成する学習処理手段と、を含み、前記学習処理手段により生成された機械学習データを、処理の対象となる診断情報等の入力情報に対応する、症状に関する情報等の出力情報を推定する処理に供することとしたものである。
本発明によると、入力される情報と出力する情報とが組となっていない情報も有効に活用しつつ、機械学習処理を行い、当該機械学習の効率を向上でき、また、当該機械学習の結果を診断等の処理に利用できる情報処理装置が提供される。
本発明の実施の形態に係る情報処理装置の構成ブロック図である。 本発明の実施の形態に係る情報処理装置の一例に係る機能ブロック図である。 本発明の実施の形態に係る情報処理装置の動作例を表すフローチャート図である。 本発明の実施の形態に係る情報処理装置の出力する情報の例を表す説明図である。
本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る情報処理装置1は、図1に例示するように、制御部11と、記憶部12と、操作部13と、表示部14と、入出力部15とを含んで構成される。
ここで制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。本実施の形態の例では、この制御部11は、出力情報のパターンを表す情報を取得し、入力情報と、対応する出力情報とを関連付ける機械学習データを生成する際に、入力情報を入力したときに学習器が出力する情報と、当該入力情報に対応する出力情報との相違に関する情報と、取得した、出力情報のパターンに係る情報とを用いて学習器のパラメータを制御して機械学習データを生成する。そして制御部11は、当該生成された機械学習データを、処理の対象となる入力情報に対応する、出力情報を推定する処理に供する。
具体的に、本実施の形態の一例では、制御部11は、出力情報としての、目の症状に関する情報のパターンを表す情報を取得する。またこのときには、制御部11は、入力情報としての、目に係る診断情報と、対応する目の症状に関する情報とを関連付ける機械学習データを生成する。具体的に制御部11は、目に係る診断情報を入力情報として入力したときのニューラルネットワーク等、非線形関数を用いる学習器の出力(出力情報)と、当該入力した入力情報である診断情報に対応する出力情報である、目の症状に関する情報との相違に関する情報と、取得した、目の症状に関する情報のパターンに係る情報とを用いて学習器のパラメータを制御して機械学習データを生成する。
そしてこの制御部11は、学習処理により生成された機械学習データを、処理の対象となる目に係る診断情報に対応する、目の症状に関する情報を推定する処理を行ってもよい。この制御部11の詳しい動作の内容については後に説明する。
なお、本実施の形態の以下の説明では、入力情報と出力情報とは上記の例のものとして説明するが、これは一例であり、他の種類の入力情報や出力情報であっても同様の処理を適用できる。例えば入力情報は、目以外の部位に関する患者の診断情報等であってもよい。また出力情報は、目以外の部位に関する症状に関する情報等であってもよい。このとき、入力情報が関係する患者の部位と、出力情報が関係する患者の部位とが互いに異なっていてもよい。さらに、本実施の形態の入力情報と出力情報との例は、人体に関係する情報に限られず、非線形関数を用いる学習器が適用される種々の分野、例えば言語解析、経営情報解析、気象情報の解析、等であっても、出力情報についてパターンの情報を抽出できるものであれば、いかなる情報であっても構わない。またここで出力情報は多次元の情報であってよい。
記憶部12は、ディスクデバイスやメモリデバイス等であり、制御部11によって実行されるプログラムを保持する。このプログラムは、コンピュータ可読かつ非一時的な記録媒体に格納されて提供され、この記憶部12に格納されたものであってもよい。
操作部13は、キーボードやマウス等であり、利用者の指示を受け入れて、制御部11に出力する。表示部14は、ディスプレイ等であり、制御部11から入力される指示に従い、情報を表示出力する。
入出力部15は、例えばUSB(Universal Serial Bus)等の入出力インタフェースであり、本実施の形態の一例では、処理の対象となる種々の情報を外部の装置(例えば種々の検査装置やカードリーダー等)から受け入れて制御部11に出力する。
次に制御部11の動作について説明する。本実施の形態では、この制御部11は、図2に例示するように、学習処理部20と、推定処理部30とを含む。また学習処理部20は、パターン取得部21と、学習データ生成部22とを含んで構成される。
本実施の形態の一例において、このパターン取得部21は、目の症状に関する情報を複数受け入れて、当該複数の目の症状に関する情報に基づく教師なし学習により得られる目の症状に関する情報のパターンを表す情報を生成して取得する。
具体的にこのパターン取得部21は、目の症状に関する情報として、視野に関する情報を複数受け入れる。ここで視野に関する情報は、視野検査の結果の情報、すなわち視野中心から所定の角度(例えば10度または30度)以内に予め設定された、複数の測定点P1,P2…における視野感度の情報でよい。なお、以下の例において各測定点は固有の識別情報(連番など)によって識別可能とされているものとする。
パターン取得部21は、受け入れた視野に関する情報に基づいて、教師なし学習により症状の進行のパターンを抽出する。例えば緑内障であれば、視野欠損が上側から進行する症例や、下側から進行する症例等、症例がいくつかのパターンに分類できることが知られている。また、いずれの症例においても、比較的近い位置にある視野の測定点間では比較的似た視野感度の情報が得られること(共起性を有すること)が知られている。
そこでこのパターン取得部21では、教師なし学習として、例えば非負値行列因子分解(NMF)や、主成分分析(PCA)、オートエンコーダ、混合分布を用いる方法等の方法を用いて、受け入れた視野に関する情報から症状の進行のパターンを抽出する。一例として非負値行列因子分解を用いる場合、視野に関する情報のそれぞれに含まれる各測定点での視野感度の情報を、予め定めた順序としておく。つまりパターン取得部21は、複数(以下ではN個(Nは2以上の整数)とする)の視野に関する情報に含まれる視野感度の情報を、対応する測定点Pi(i=1,2,…)の順で配列した、ベクトル情報Yj(j=1,2,…,N)としておく。
パターン取得部21は、このベクトル情報Yj(j=1,2,…,N)の列ベクトルを連接して配列した行列
Figure 0007082395000001
を求め、この行列Yを、一対の非負値の行列WYとΘYとの積に分解する。すなわち、
Figure 0007082395000002
とする。ここで、ΘYは、K個の列ベクトルθYを連接して配列した行列を転置した基底行列
Figure 0007082395000003
である。この基底行列ΘYに含まれる各行(転置前の各列θYi(i=1,2,…K))が進行パターンを表す。
この非負値行列因子分解の具体的方法については、D. D. Lee and H. S. Seung, Algorithms for Non-negative Matrix Factorization, In NIPS, Vol. 13, pp. 556-562, 2000等に記載されているので、ここでの詳しい説明を省略する。
本実施の形態のこの例に係るパターン取得部21は、ここで得た基底行列ΘYを、目の症状に関する情報のパターンを表す情報として出力する。
学習データ生成部22は、学習器としての所定のニューラルネットワークの学習を行う。ここでのニューラルネットワークは例えば、CNN(畳み込みニューラルネットワーク)であり、目に係る診断情報と、それに対応する目の症状に関する情報とを関連付ける機械学習データである。本実施の形態のここでの例では、目の症状に関する情報は、上述の通り、視野検査の結果をベクトルの形に表現したものでよい。
また目に係る診断情報は、例えば、光干渉断層計(OCT)による、眼底計測結果(網膜の構造に関する情報)または、眼底写真の画像データ等のいずれかであり、以下の例では光干渉断層計(OCT)による、眼底計測結果であるものとする。また以下の説明では、ニューラルネットワークとしてCNNを用いた場合を例として説明するが、本実施の形態のニューラルネットワークはCNNに限られず、残差(Residual)ネットワーク(ResNet:Kaiming He, et.al., Deep Residual Learning for Image Recognition, https://arxiv.org/pdf/1512.03385v1.pdf)など、他の構造を有するニューラルネットワークであってもよい。ただし、ニューラルネットワークの出力は、視野検査の結果を表すベクトルの次元と同じ次元のベクトル量であるようにしておく。
学習データ生成部22は、目に係る診断情報と当該診断情報が得られたときの目の症状に関する情報との組の入力を受け入れる。この情報の組は、OCTによる検査と、視野検査とを実質的に同時に(例えば数日の期間内に)行った特定の対象者から得られたものを用いる。このような情報の組の数は、パターン取得部21が用いる、目の症状に関する情報(診断情報と組となっていないもの)の総数よりもその数は少ないものの、学習データの生成に十分な数だけあるものとする。
学習データ生成部22は、受け入れた目に係る診断情報と当該診断情報が得られたときの、正解情報である目の症状に関する情報との組を順次選択し、選択した組に含まれる診断情報を、ニューラルネットワークの入力としたとき、当該ニューラルネットワークが出力する情報(目の症状に関する情報との差が演算可能な情報)ypredと、選択した組に含まれる目の症状に関する情報(正解情報)ytrueとの二乗残差平均(L2罰則項)l2(ypred,ytrue)を求める。
またこの学習データ生成部22は、パターン正則化項R(ypred)を次のように求める。すなわち、このパターン正則化項を
Figure 0007082395000004
と定義する。ここでypredNMFは、
Figure 0007082395000005
で規定される。ただし、
Figure 0007082395000006
とする。
これは、ニューラルネットの予測結果であるypredを、症状の進行のパターン(基底)がつくる部分空間に正射影したものに相当し、パターン正則化項全体としては、この正射影の結果と、ニューラルネットの予測結果であるypredとのユークリッド距離の二乗とする。
これにより、予測結果が症状の進行のパターンから外れるほど、当該予測結果の部分空間への正射影と、予測結果自体とのユークリッド距離は大きくなり、より大きい正則化が行われることとなる。
学習データ生成部22は、診断情報と目の症状に関する情報との組に基づくL2罰則項l2(ypred,ytrue)とパターン正則化項R(ypred)との和(重みつきの和l2(ypred,ytrue)+λ・R(ypred)、でよい(ここでλは実数であり、重みの一例である))を小さくする方向に、ニューラルネットワークのパラメータを制御して設定し直す。
このような設定方法は、一般的なニューラルネットワークにおける勾配降下法として種々の知られた方法を適宜選択して採用できるので、ここでの詳しい説明を省略する。
学習データ生成部22は、受け入れた目に係る診断情報と当該診断情報が得られたときの、正解情報である目の症状に関する情報との組のそれぞれについて、上述の処理を繰り返して行い、ニューラルネットワークのパラメータを制御して、機械学習データを生成する。
また、制御部11の推定処理部30は、学習処理部20が生成した機械学習データを用い、学習処理部20と同じニューラルネットワークを用いて、目の症状に関する情報を推定する。具体的にこの例では、目に係る診断情報として光干渉断層計(OCT)による、眼底計測結果(網膜の構造に関する情報)を用いて、機械学習データを得ているので、この推定処理部30も、診断の対象となる対象者の光干渉断層計(OCT)による、眼底計測結果を、機械学習データによりパラメータを設定したニューラルネットワークに入力する。そして当該ニューラルネットワークが出力する情報(ここではそれぞれの要素が視野内の各測定点における視野感度を表すベクトルの情報)を、視野内の各測定点における視野感度の推定結果(つまり目の症状に関する情報の推定結果)として出力する。
なお、本実施の形態の例では、制御部11が学習処理部20と推定処理部30との双方を備えることとしたが、本実施の形態の制御部11は、学習処理部20のみを備えて、機械学習データを出力するものであってもよい。
この場合、他のコンピュータ装置において、当該学習処理部20が出力する機械学習データを用いた推定処理部30としての処理を実行させる。
またここで推定処理部30と学習処理部20とが用いるニューラルネットワークは同じものであるとしたが、この例に限られず、例えば学習処理部20がCNN、推定処理部30が2層の全結合ネットワークを用いてもよい。この場合、学習処理部20が出力する機械学習データと、学習処理部20とが用いるニューラルネットワークとを用いた推定処理の結果を用いて、当該推定処理部30が用いるニューラルネットワークを学習させる、いわゆる蒸留を行って、推定処理部30が用いるニューラルネットワークのパラメータである機械学習データ(学習処理部20が出力する機械学習データとの区別のため蒸留データと呼ぶ)を得ておく。そして推定処理部30は、この蒸留データと、蒸留時に用いたニューラルネットワークとを用い、診断の対象となる対象者の光干渉断層計(OCT)による、眼底計測結果をこのニューラルネットワークに入力して、視野内の各測定点における視野感度の推定結果(つまり目の症状に関する情報の推定結果)を得て出力する。
[動作]
本実施の形態は以上の構成を備えており、次のように動作する。本発明の実施の形態に係る情報処理装置1は、学習処理を行うよう指示を受けると、図3に例示するように、光干渉断層計(OCT)による検査と、視野検査とを実質的に同時に(例えば数日の期間内に)行った特定の対象者から得られた、光干渉断層計(OCT)による、眼底計測結果(網膜の構造に関する情報)と、視野検査の結果との組(以下の説明ではペアデータと呼ぶ)と、光干渉断層計(OCT)による検査の結果と組となっていない視野検査の結果の情報(以下、ノンペアデータと呼ぶ)との入力をそれぞれ複数受け入れる(S1)。
そして情報処理装置1は、処理S1で受け入れたノンペアデータに基づいて非負値行列因子分解(NMF)等の教師なし学習処理を行い、目の症状に関する情報のパターンを表す情報を生成して取得する(S2)。一例としてこの処理S2では、非負値行列因子分解(NMF)により、目の症状に関する情報である視野検査の結果の情報のパターンを表す情報として、いくつかの互いに異なる代表的なパターンを基底として得る。
情報処理装置1は、次に、CNNのニューラルネットワークを設定する(S3)。この設定では、過去に学習して得た機械学習データがあれば、CNNのニューラルネットワークに当該機械学習データのパラメータを設定する(学習済みモデルをロードする)こととし、過去に学習して得た機械学習データがなければ、CNNのニューラルネットワークを初期化する。初期化の方法は、広く知られた方法を採用してよい。
そして情報処理装置1は、処理S1で受け入れた複数組のペアデータを一つずつ選択して次のループを繰り返し実行する(S4)。すなわち情報処理装置1は、選択したペアデータに含まれる眼底計測結果(網膜の構造に関する情報)をCNNのニューラルネットワークに入力したときの出力を得る(S5)。
情報処理装置1は、当該処理S5で得た出力と、選択したペアデータに含まれる正解情報である視野検査の結果の情報との二乗残差平均(l2(ypred,ytrue))を求め、また、処理S2で得たパターンを表す情報と処理S5で得た出力で得た情報との適合性を評価する値(R(ypred))を求める。この値は例えばニューラルネットの出力を、処理S2で得たパターンを表す情報(基底)がつくる部分空間に正射影し、この正射影の結果と、ニューラルネットの出力とのユークリッド距離の二乗等、ニューラルネットの出力が、処理S2で得た情報が表すパターンから外れるほど、大きい値となるような値を用いる。
情報処理装置1は、ここで求めた二乗残差平均l2(ypred,ytrue)と、パターンへの適合性を表す値R(ypred)とを用いた損失関数を演算し、当該損失関数の演算結果に基づいてニューラルネットワークのパラメータ(機械学習データ)を更新する(S6)。ここで損失関数は、上記二乗残差平均とパターンへの適合性を表す値との重みづけ和でよい。なお、損失関数に基づく更新の処理自体は、一般的なニューラルネットワークにおける勾配降下法として種々の知られた方法を適宜選択して採用できる。
情報処理装置1は、処理S5,S6を、処理S1で受け入れた複数組のペアデータの一つ一つについて繰り返し実行し、選択していないペアデータがなくなると、その時点での機械学習データ(学習済みモデル)を記憶部12に格納して処理を終了する。
この機械学習データは、外部のコンピュータに出力されて処理の対象となる目に係る診断情報に対応する、目の症状に関する情報を推定する処理に用いられてもよいし、この情報処理装置1自身が利用して、処理の対象となる目に係る診断情報に対応する、目の症状に関する情報を推定する処理(推定処理)を行ってもよい。
情報処理装置1は、推定処理を行うよう指示を受けると、記憶部12に格納されている機械学習データ(学習済みモデル)を読み出して、学習処理において用いたものと同じCNNのニューラルネットワークに当該機械学習データのパラメータを設定する(学習済みモデルをロードする)。
そして情報処理装置1は、光干渉断層計(OCT)による検査の結果の情報の入力を受けて、当該光干渉断層計(OCT)による検査の結果の情報を設定したニューラルネットワークに入力する。そして情報処理装置1は、当該入力に対するニューラルネットワークの出力する情報(推定された視野検査の結果に相当する情報)を得て、当該情報を表示部14に表示するなどして出力する。
このように本実施の形態によると、過去に蓄積されているノンペアデータを有効に活用して症状の推定に資するニューラルネットワークを学習処理することが可能となり、機械学習の効率を向上でき、また、当該機械学習の結果を診断等の処理に利用できる。
[パターン抽出の他の例]
また、教師なし学習により症状の進行のパターンを抽出する方法は、非負値行列因子分解(NMF)の方法に限られない。
情報処理装置1の制御部11が用いる教師なし学習の方法は、主成分分析(PCA)やオートエンコーダであってもよい。
具体的に主成分分析を用いる場合、情報処理装置1の制御部11は、主成分ベクトルΘYを、視野検査の結果から学習することとなる。そして制御部11は、この主成分ベクトルを用い、ニューラルネットワークが出力する推定結果ypredと、主成分分析により得られたパターンとの一致度を表す値R(ypred)を、
Figure 0007082395000007
ただし、
Figure 0007082395000008
として規定する。なお、
Figure 0007082395000009
は、視野検査結果から得た視野検査の情報の要素ごとの平均(各測定点での視野感度の情報の平均を配列したベクトル)である。
またオートエンコーダを用いる場合、情報処理装置1の制御部11は、ニューラルネットワークが出力する推定結果ypredと、オートエンコーダにより得られたパターンとの一致度を表す値R(ypred)を、
Figure 0007082395000010
として規定する。
ここで関数fY(X)は、視野検査の結果に相当するベクトルをXとして、学習したオートエンコーダに入力したときの、オートエンコーダの出力を表す。ここでのオートエンコーダで用いるニューラルネットワークは例えば隠れ層が1層のみで、入力層よりも次元の低い層となっている全結合層とし、入力層での活性化関数を、例えばシグモイド関数とし、隠れ層での活性化関数をtanh関数としておく。オートエンコーダであるため、出力層は入力層と同じ次元とする。
この例のオートエンコーダにより得られたパターンとの一致度を表す値R(ypred)はつまり、ペアデータを学習しようとするニューラルネットワークの出力を、ノンペアデータで学習したオートエンコーダのニューラルネットワークに入力し、当該入力した情報と、オートエンコーダのニューラルネットワークの出力(パターンに一致させたもの、つまりオートエンコーダが視野検査結果から学習した部分空間に、ペアデータを学習しようとするニューラルネットワークの出力を射影したものに相当する)した情報との差が大きいほど、パターンに一致していないことを表すものとするものである。
さらに、本実施の形態のある例では、教師なし学習の方法としてガウスモデル(GM)を用いてもよい。この例では、情報処理装置1の制御部11は、ノンペアデータに含まれる複数の視野検査結果のベクトル情報から、当該ベクトルの要素ごとの平均ベクトルμYを求め、分散共分散行列ΣYを推定する。この分散共分散行列の推定方法は広く知られた方法を採用できるので、ここでの詳しい説明は省略する。
制御部11は、視野検査結果がガウス分布に従って発生していると仮定して、ペアデータを学習しようとするニューラルネットワークの出力の、上記平均ベクトルμYと、分散共分散行列ΣYとで特徴づけられるガウスモデルに対する一致度を表す値R(ypred)を、マハラノビス距離を用いて、
Figure 0007082395000011
として規定する。
このように、非負値行列因子分解(NMF),主成分分析(PCA),オートエンコーダ、あるいはガウスモデル(GM)のいずれを用いる方法でも、制御部11は、いずれかの方法で得られたパターンと、ペアデータを学習しようとするニューラルネットワークの出力との一致度を表す値であるパターン正則化項の値R(ypred)を求め、診断情報と目の症状に関する情報との組に基づくL2罰則項l2(ypred,ytrue)とこのパターン正則化項R(ypred)との和(重みつきの和l2(ypred,ytrue)+λ・R(ypred)、でよい)を小さくする方向に、ニューラルネットワークのパラメータを制御して設定し直すことで、ニューラルネットワークの学習処理を行う。
[パターンを表す情報を予め指定しておく例]
また、ここまでの説明では、ノンペアデータに基づいてノンペアデータが表すニューラルネットワークの出力に関するパターンを推定し、当該パターンとニューラルネットワークの出力とが一致するように、ニューラルネットワークの学習処理を行うようにしていたが、本実施の形態はこれに限られない。
すなわちパターンを表す情報(パターン正規化項R(ypred))は、ノンペアデータではなく、事前の知識によってユーザが任意に設定してもよい。
一例として、視野検査結果において、互いに隣接する測定点同士での測定結果は相関する傾向にあることを考慮し、隣接する測定点の値の差を小さくする方向にニューラルネットワークのパラメータを制御して設定し直すことで、ニューラルネットワークの学習処理を行うこととしてもよい。この例では、例えば各測定点について、当該測定点の値の推定結果(ニューラルネットワークの出力)と、隣接する測定点の値の推定結果との差を求め、各測定点で求めた差の二乗和をR(ypred)とすればよい。
[可視化処理]
上述の機械学習の結果を用いると、診断処理のほか、次のように、患者の状態に係る入力情報(上述の例であれば、光干渉断層計(OCT)による、眼底計測結果(網膜の構造に関する情報)や眼底写真の画像データなどの目に係る診断情報)と、患者の状態に係る出力情報(上述の例であれば視野検査の結果に相当する情報)との関係を可視化する処理を行うこともできる。
すなわち、本実施の形態の情報処理装置1は、上述の方法で機械学習したニューラルネットワーク等の非線形の学習器による入出力関係の微分を用い、患者の状態に係る入力情報についての教師なし学習で得た複数のパターン(入力情報のパターン)Pini(i=1,2…)と、患者の状態に係る出力情報についての教師なし学習で得た複数のパターン(出力情報のパターン)Poutj(j=1,2,…)との間の重みDij(Piniと、Poutjとの間の重み)を求める。
そして情報処理装置1は、入力情報におけるどのようなパターンが、出力情報におけるどのパターンにより大きく寄与するのかを示す情報として、この重みの情報を提示することとしてもよい。
具体的に、本実施の形態の一例では、上述の方法で機械学習したニューラルネットワーク等の非線形の学習器を用いる。以下の例では、この学習器にxを入力したときの当該学習器による推定結果θの出力をypred(x;θ)とする。
また以下では、入力される情報xの変化量Δxと、この変化量Δxに対する、出力情報ypredの変化量Δypredとが、Δypred=AΔxという線形の関係にあると仮定する。
このとき、Aは、(Δx,Δyがベクトルであるので)複数のベクトルa1からaMを行方向に配列して転置したヤコビ行列(そのm行l列目の成分をamlとする)であり、
Figure 0007082395000012
で与えられる。情報処理装置1は、上述の方法で機械学習した学習器を用い、このヤコビ行列Aを求めておく。なお、ypred_mは、推定結果θの出力のうち、m番目の成分を表す。また∂ypred_m/∂xlは、xlを変化させたときのypred_mの変化量(勾配)を表す。
また、情報処理装置1は、光干渉断層計(OCT)による検査の結果と組となっていない、複数のノンペアの視野検査の結果の情報XVFと、視野検査の結果の情報と組となっていない、複数のノンペアの光干渉断層計(OCT)による検査の結果の情報XRTとを得て、次の処理を行う。
すなわち、情報処理装置1は、複数のノンペアの視野検査の結果の情報XVFと、複数のノンペアの光干渉断層計(OCT)による検査の結果の情報XRTとのそれぞれについて、非負値行列因子分解(NMF)等の教師なし学習の方法を用いて、それぞれの基底行列BVF=ΘXVFと、BRT=ΘXRTとを得る。
このとき、視野検査の結果の情報XVFの微小変化ΔXVFは、
Figure 0007082395000013
と記述でき、また、光干渉断層計(OCT)による検査の結果の情報XRTの微小変化ΔXRTもまた、
Figure 0007082395000014
と記述できる。
この関係を、上記に仮定したΔypred=AΔxの関係に当てはめて、ΔXVF=AΔXRTと記述できるとし、zVFとzRTとの関係を、一般化逆行列を考慮して求めると、
Figure 0007082395000015
となる。ただし、
Figure 0007082395000016
である。
情報処理装置1は、先に求めた基底行列BVF,BRTを用いて、(16)式によりDを求める。
なお、情報処理装置1は、基底行列の演算に非負値行列因子分解を用いる場合など、Dのどの成分も負になるはずがない場合には、(16)式で求めたDの成分のうち、負のものについては無視する(使用しない)ものとする。
ここで各基底行列BVF,BRTに含まれる各行(転置前の各列)のベクトルは、それぞれ視野検査の結果のパターンPVF1,PVF2,…PVFi(i=1,2,…)と、光干渉断層計(OCT)による検査の結果のパターンPRT1,PRT2,…PRTj(j=1,2,…)とを表す(対応する視野の位置でのそれぞれの検査結果の値に対応する)ので、ここで求めたDの各成分Dijは、各パターンPVFiとPRTjとの間の関係の重みを表すものとなる。
そこで情報処理装置1は、図4に例示するように、各基底行列BVF,BRTに含まれる各行が表すパターンの画像(P)を表示し、その間の関係重み(無視されたものを除く)とを、二部グラフのように表示する。このとき、グラフのリンクに相当する線分を、Dの大きさが大きいほど太い線として表示する。
この可視化処理によると、患者の状態に係る入力情報の代表的なパターンと、患者の状態に係る出力情報の代表的なパターンとの間でのどのような寄与の関係があるかを、学習器の微分情報を用いて構成し、視覚的に示すことができ、症状の進行等の理解に供することができる。
1 情報処理装置、11 制御部、12 記憶部、13 操作部、14 表示部、15 入出力部、20 学習処理部、21 パターン取得部、22 学習データ生成部、30 推定処理部。

Claims (7)

  1. 出力情報のパターンを表す情報を取得する取得手段と、
    入力情報と、対応する出力情報とを関連付ける機械学習データを生成する手段であって、前記入力情報を入力したときに学習器が出力する情報と、当該入力情報に対応する前記出力情報との相違に関する情報と、前記取得した前記出力情報のパターンに係る情報とを用いて前記学習器のパラメータを制御して機械学習データを生成する学習処理手段と、
    を含み、
    前記学習処理手段により生成された機械学習データを、処理の対象となる前記入力情報に対応する、前記出力情報を推定する処理に供する情報処理装置。
  2. 目の症状に関する情報のパターンを表す情報を取得する取得手段と、
    目に係る診断情報と、対応する目の症状に関する情報とを関連付ける機械学習データを生成する手段であって、目に係る診断情報を入力としたときの学習器の出力と、当該入力した診断情報に対応する目の症状に関する情報との相違に関する情報と、前記受け入れた目の症状に関する情報のパターンに係る情報とを用いて前記学習器のパラメータを制御して機械学習データを生成する学習処理手段と、
    を含み、
    前記学習処理手段により生成された機械学習データを、処理の対象となる目に係る診断情報に対応する、目の症状に関する情報を推定する処理に供する情報処理装置。
  3. 請求項2に記載の情報処理装置であって、
    前記取得手段は、目の症状に関する情報を複数受け入れて、当該複数の目の症状に関する情報に基づく教師なし学習により得られる目の症状に関する情報のパターンを表す情報を生成して取得する情報処理装置。
  4. 請求項2または3に記載の情報処理装置であって、
    前記目に係る診断情報は、網膜構造を表す情報であり、前記目の症状に関する情報は、視野に関する情報である情報処理装置。
  5. 請求項3に記載の情報処理装置であって、
    前記取得手段が受け入れる目の症状に関する情報は少なくとも視野を表す情報を含む情報である情報処理装置。
  6. 目の症状に関する情報を複数受け入れて、当該複数の目の症状に関する情報に基づく教師なし学習により得られる目の症状に関する情報のパターンを表す情報を取得する工程と、
    目に係る診断情報と、対応する目の症状に関する情報とを関連付ける機械学習データを生成する工程であって、目に係る診断情報を入力としたときの学習器の出力と、当該入力した診断情報に対応する目の症状に関する情報との相違に関する情報と、前記受け入れた目の症状に関する情報のパターンに係る情報とを用いて前記学習器のパラメータを制御する工程と、
    を含む、
    機械学習データの製造方法。
  7. コンピュータを、
    目の症状に関する情報のパターンを表す情報を取得する取得手段と、
    目に係る診断情報と、対応する目の症状に関する情報とを関連付ける機械学習データを生成する手段であって、目に係る診断情報を入力としたときの学習器の出力と、当該入力した診断情報に対応する目の症状に関する情報との相違に関する情報と、前記受け入れた目の症状に関する情報のパターンに係る情報とを用いて前記学習器のパラメータを制御して機械学習データを生成する学習処理手段と、
    として機能させ、
    前記学習処理手段により生成された機械学習データが、処理の対象となる目に係る診断情報に対応する、目の症状に関する情報を推定する処理に供されるプログラム。
JP2018036595A 2018-03-01 2018-03-01 情報処理装置、機械学習データの製造方法、及びプログラム Active JP7082395B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018036595A JP7082395B2 (ja) 2018-03-01 2018-03-01 情報処理装置、機械学習データの製造方法、及びプログラム
PCT/JP2019/007950 WO2019168129A1 (ja) 2018-03-01 2019-02-28 情報処理装置、及び機械学習データの製造方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018036595A JP7082395B2 (ja) 2018-03-01 2018-03-01 情報処理装置、機械学習データの製造方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2019152977A JP2019152977A (ja) 2019-09-12
JP7082395B2 true JP7082395B2 (ja) 2022-06-08

Family

ID=67805367

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018036595A Active JP7082395B2 (ja) 2018-03-01 2018-03-01 情報処理装置、機械学習データの製造方法、及びプログラム

Country Status (2)

Country Link
JP (1) JP7082395B2 (ja)
WO (1) WO2019168129A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7497863B2 (ja) 2020-07-17 2024-06-11 国立大学法人千葉大学 診断装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014136316A1 (ja) 2013-03-04 2014-09-12 日本電気株式会社 情報処理装置、情報処理方法、及びプログラム
JP2018014059A (ja) 2016-07-22 2018-01-25 株式会社トプコン 医療情報処理システム及び医療情報処理方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05189397A (ja) * 1992-01-13 1993-07-30 Hitachi Ltd ニューラル・ネットワークの学習方法および情報処理システム
JP2015116319A (ja) * 2013-12-18 2015-06-25 パナソニックIpマネジメント株式会社 診断支援装置、診断支援方法、および診断支援プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014136316A1 (ja) 2013-03-04 2014-09-12 日本電気株式会社 情報処理装置、情報処理方法、及びプログラム
JP2018014059A (ja) 2016-07-22 2018-01-25 株式会社トプコン 医療情報処理システム及び医療情報処理方法

Also Published As

Publication number Publication date
WO2019168129A1 (ja) 2019-09-06
JP2019152977A (ja) 2019-09-12

Similar Documents

Publication Publication Date Title
Stoehr et al. Detecting changes in the covariance structure of functional time series with application to fMRI data
JP7070255B2 (ja) 異常判別プログラム、異常判別方法および異常判別装置
JP7057589B2 (ja) 医療情報処理システム、歩行状態定量化方法およびプログラム
Wang et al. Weakly supervised lesion detection from fundus images
US10610109B2 (en) Emotion representative image to derive health rating
US11663845B2 (en) Method and apparatus for privacy protected assessment of movement disorder video recordings
WO2010088763A1 (en) Methods and apparatuses for quantitatively determining the likelihood of a disease
CN113728394A (zh) 身体活动执行和训练的评分度量
CN111862020B (zh) 一种眼前节生理年龄预测方法、装置、服务器及存储介质
CN110516762B (zh) 一种肌肉状态量化评定方法、装置、存储介质及智能终端
Rivail et al. Modeling disease progression in retinal OCTs with longitudinal self-supervised learning
WO2021217906A1 (zh) 基于步态特征的体态检测方法、装置、设备及存储介质
Zia et al. A multilevel deep feature selection framework for diabetic retinopathy image classification
TW201941220A (zh) 診斷支援裝置、程式製品、記錄有學習完成模型的記錄媒體及學習裝置
Hung et al. A deep learning approach to identify blepharoptosis by convolutional neural networks
Zhang et al. A human-in-the-loop deep learning paradigm for synergic visual evaluation in children
JP7082395B2 (ja) 情報処理装置、機械学習データの製造方法、及びプログラム
CN110603550A (zh) 利用导航任务识别生物标志物和利用导航任务进行治疗的平台
WO2018083853A1 (ja) 視野感度推定装置、視野感度推定装置の制御方法、及びプログラム
US11250723B1 (en) Visuospatial disorders detection in dementia using a computer-generated environment based on voting approach of machine learning algorithms
Meshram et al. Development And Analysis Of Deep Learning Model Based On Multiclass Classification Of Retinal Image For Early Detection Of Diabetic Retinopathy
CN112446418A (zh) 一种眼底分类模型集成系统、方法、电子设备及介质
Kumari et al. Automated process for retinal image segmentation and classification via deep learning based cnn model
EP3474290A1 (en) Systems and methods for optimizing a joint cost function and detecting neuro muscular profiles thereof
Wang et al. Uncertainty-guided domain alignment for layer segmentation in oct images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220520

R150 Certificate of patent or registration of utility model

Ref document number: 7082395

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150