JP7424373B2 - 分析装置、分析方法及び分析プログラム - Google Patents

分析装置、分析方法及び分析プログラム Download PDF

Info

Publication number
JP7424373B2
JP7424373B2 JP2021518292A JP2021518292A JP7424373B2 JP 7424373 B2 JP7424373 B2 JP 7424373B2 JP 2021518292 A JP2021518292 A JP 2021518292A JP 2021518292 A JP2021518292 A JP 2021518292A JP 7424373 B2 JP7424373 B2 JP 7424373B2
Authority
JP
Japan
Prior art keywords
data
prediction
label
search
pipeline
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021518292A
Other languages
English (en)
Other versions
JPWO2020225923A1 (ja
Inventor
哲哉 塩田
美樹 境
方邦 石井
一樹 及川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2020225923A1 publication Critical patent/JPWO2020225923A1/ja
Application granted granted Critical
Publication of JP7424373B2 publication Critical patent/JP7424373B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、分析装置、分析方法及び分析プログラムに関する。
近年、機械学習を用いたデータ分析の適用事例が増加している。一方、データ分析に不可欠な統計や機械学習の知識の習得には、中長期的な教育が必要となる。そこで、非専門家が統計や機械学習の知識の習得を行うことなく、容易にデータ分析に従事できるよう、データ分析を支援する技術が開示されている。
例えば、逐次的最適化手法(SMBO:Sequential model-based optimization)を用いてパイプラインごとに精度の評価を行い、最適なパイプラインを探索する手法が知られている(例えば、非特許文献1及び2を参照)。なお、ここでは、パイプラインとは、予測モデルを構築する一連の処理であり、入力されたデータに対する前処理、ハイパーパラメータに基づくデータの学習等が含まれる。また、あらかじめ専門家が設計した多数のパイプラインの中から、分析対象のデータに適合した少数のパイプラインをユーザに提示する技術が知られている。
Matthias Feurer,Aaron Klein,Katharina Eggensperger,Jost Tobias Springenberg,Manuel Blum,Frank Hutter,"Efficient and Robust Automated Machine Learning",NIPS'15 Proceedings of the 28th International Conference on Neural Information Processing Systems,2015年12月,PP.2755-2763 Lisha Li,Kevin Jamieson,Giulia DeSalvo,Afshin Rostamizadeh,Ameet Talwalkar,"Hyperband:A Novel Bandit-Based Approach to Hyperparameter Optimization",arXiv:1603.06560v3,cs.LG,2016年11月
しかしながら、従来のデータ分析を自動化する技術には、予測モデルの精度向上に、正解なしのデータを有効活用することが困難な場合があるという問題があった。ここで、正解ありのデータに比べて収集が容易な正解なしのデータを活用して予測モデルの精度を高める半教師あり学習が知られている。一方で、従来の技術は、正解ありのデータのみを使って予測モデルを構築することを前提とするものであり、半教師あり学習を考慮したものではなかった。
本発明の分析装置は、データからラベルを予測する複数の予測モデルであって、互いに異なる複数の構築手順により構築された予測モデルのそれぞれを用いて、ラベルが付与された第1のデータを基に、ラベルが未付与の第2のデータに対しラベルを付与することで疑似正解ありデータを生成する生成部と、前記第1のデータと、前記疑似正解ありデータとを用いて、前記予測モデルのそれぞれの予測精度を計算する計算部と、前記計算部によって計算された予測精度が所定の基準を満たす予測モデルを決定する決定部と、を有することを特徴とする。
本発明によれば、予測モデルの精度向上に、正解なしのデータを有効活用することができる。
図1は、パイプラインの候補を決定する処理の概要を説明するための図である。 図2は、第1の実施形態に係る分析装置の構成の一例を示す図である。 図3は、設定情報のデータ構成の一例を示す図である。 図4は、予測器情報のデータ構成の一例を示す図である。 図5は、交差検証について説明するための図である。 図6は、パイプラインの候補の一例を示す図である。 図7は、半教師あり学習を行う場合のパイプラインの決定について説明するための図である。 図8は、評価値ごとにパイプラインを決定する場合について説明するための図である。 図9は、予測モデルの検証について説明するための図である。 図10は、第1の実施形態に係る分析装置の処理の流れを示すフローチャートである。 図11は、パイプラインの候補を決定する処理の流れを示すフローチャートである。 図12は、パイプラインを決定する処理の流れを示すフローチャートである。 図13は、ラベル拡散の流れを示すフローチャートである。 図14は、自己訓練の流れを示すフローチャートである。 図15は、分析プログラムを実行するコンピュータの一例を示す図である。
以下、図面を参照して、本発明の実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
[第1の実施形態の概要]
第1の実施形態に係る分析装置は、機械学習によるデータ分析を支援するための装置である。ここで、機械学習によるデータ分析を行う場合、予測モデルを構築する一連の処理であるパイプラインが決定される。
まず、分析装置は、予測モデルに関する複数の設定項目ごとの設定内容の候補を選択肢として用意しておき、選択肢の中から設定内容を順次決定することで、パイプラインの候補を決定する。次に、分析装置は、候補の中から、半教師あり学習に適したパイプラインを決定する。なお、分析装置が最終的に決定するパイプラインは、1つであってもよいし複数であってもよい。
ここで、例えば、パイプラインは予測モデルの構築手順である。また、正解ありのデータは、例えば、ラベルが付与されたデータである。また、正解なしのデータは、例えば、ラベルが未付与のデータである。
[パイプラインの候補を決定する処理]
まず、パイプラインの候補を決定する処理について説明する。図1は、パイプラインの候補を決定する処理の概要を説明するための図である。図1に示すように、分析装置10は、予測モデルを構築する際に実行される複数の処理に対応するステップを順次実行することで、各設定項目の設定内容の決定を行う。例えば、分析装置10は、各ステップにおいて、前処理で用いられる手法、予測器のアルゴリズム及びハイパーパラメータ等を決定する。
例えば、分析装置10は、ステップ1では、前処理の1つである欠損値補完で用いられる手法を、平均値、中央値、最頻値、削除の中から決定する。このとき、分析装置10は、学習用データ20の欠損値補完に平均値、中央値、最頻値、削除の各手法を用いた場合のそれぞれについて、構築される予測モデルの予測精度を計算し、予測モデルの予測精度が最も高くなる手法を欠損値補完の手法に決定する。図1の例では、平均値を用いた場合の予測精度が60%、中央値を用いた場合の予測精度が65%、最頻値を用いた場合の予測精度が70%、削除を用いた場合の予測精度が62%であり、最頻値を用いた場合に最も予測精度が高くなるため、分析装置10は、欠損値補完の手法を最頻値に決定する。
同様に、分析装置10は、ステップ2では、前処理の1つである正規化で用いられる手法を、最大最小、標準化、Zスコア、無処理の中から決定する。なお、無処理とは、当該前処理を行わないことである。また、分析装置10は、ステップ3では、前処理の1つである特徴選択で用いられる手法を、決定木、L1正則化、分散分析、無処理の中から決定する。
また、分析装置10は、ステップ4では、予測器A、予測器B及び予測器Cのうち、構築される予測モデルの予測精度が最も高くなる予測器Bを、予測モデルで用いる予測器に決定する。なお、予測器A、予測器B及び予測器Cのアルゴリズムは、それぞれ異なるものとする。また、分析装置10は、ステップ4で、さらに予測器ごとのハイパーパラメータを決定する。
この結果、分析装置10によって決定されるパイプラインは、前処理として、最頻値を用いた欠損値補完、標準化を用いた正規化、分散分析を用いた特徴選択を行い、予測器として予測器Bを用いるものとなる。また、分析装置10は、各ステップにおいて、データの一部を用いて学習し、残りのデータで予測モデルの予測精度を検証する交差検証を行いながら予測精度を計算してもよい。
次に、図2を用いて、分析装置10の構成について説明する。図2は、第1の実施形態に係る分析装置の構成の一例を示す図である。図2に示すように、分析装置10は、ワークステーションやパソコン等の汎用コンピュータで実現され、入力部11と、出力部12と、通信制御部13と、記憶部14と、制御部15とを備える。
入力部11は、キーボードやマウス等の入力デバイスを用いて実現され、操作者による入力操作に対応して、制御部15に対して各種指示情報を入力する。出力部12は、液晶ディスプレイ等の表示装置、プリンター等の印刷装置、情報通信装置等によって実現され、データ分析の結果等を操作者に対して出力する。
通信制御部13は、NIC(Network Interface Card)等で実現され、LAN(Local Area Network)やインターネット等の電気通信回線を介した管理サーバ等の外部の装置と制御部15との通信を制御する。
記憶部14は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部14には、分析装置10を動作させる処理プログラムや、処理プログラムの実行中に使用されるデータ等があらかじめ記憶され、あるいは処理の都度一時的に記憶される。記憶部14は、通信制御部13を介して制御部15と通信する構成でもよい。また、記憶部14は、設定情報141及び予測器情報142を記憶する。
ここで、図3を用いて、設定情報141について説明する。図3は、設定情報のデータ構成の一例を示す図である。図3に示すように、設定情報141は、ステップごとの実行順序、設定内容候補、及びパラメータ候補を含む。設定内容候補は、各ステップに対応する設定項目の設定内容の候補である。また、パラメータ候補は、選択された設定内容に設定可能なパラメータの候補である。
図3の例では、設定情報141は、ステップとして「欠損値補完手法探索」、「正規化手法探索」、「特徴選択手法探索」及び「ハイパーパラメータ探索」があることを示している。なお、これらのステップは、図1のステップ1~4に対応している。
図3の例では、設定情報141は、ステップ「特徴選択手法探索」が3番目に実行されるステップであることを示している。また、設定情報141は、ステップ「特徴選択手法探索」に対応する設定項目の設定内容の候補として、「決定木」、「L1正則化」、「分散分析」及び「無処理」があることを示している。なお、図3の例では、ステップ「特徴選択手法探索」に対応する設定項目は、特徴選択で用いられる手法である。また、設定情報141は、設定内容候補「決定木」のパラメータである木の数Nの候補として、100及び300があることを示している。また、パラメータ候補には優先度が設定されている。
次に、図4を用いて、予測器情報142について説明する。図4は、予測器情報のデータ構成の一例を示す図である。図4に示すように、予測器情報142は、予測器ごとのアルゴリズム及びデフォルトパラメータを含む。アルゴリズムは、各予測器で用いられるアルゴリズムであり、図4に示すように、「Random Forest」、「Logistic Regression」、「K Nearest Neighbors」等がある。また、デフォルトパラメータは、各アルゴリズムのパラメータのデフォルト値である。また、デフォルトパラメータは予測器のハイパーパラメータのデフォルト値を含む。例えば、予測器情報142は、予測器Aのアルゴリズム「Random Forest」のパラメータNのデフォルト値が100であることを示している。
制御部15は、CPU(Central Processing Unit)等の演算処理装置がメモリに記憶された処理プログラムを実行することにより、図2に例示するように、選択部151、計算部152、決定部153、生成部154及び検証部155として機能する。なお、これらの機能部は、それぞれ、あるいは一部が異なるハードウェアに実装されてもよい。
選択部151は、予測モデルを構築する際に実行される複数の処理、すなわちパイプラインのそれぞれに対応し、対応する処理の設定内容を順次決定するステップにおいて、設定内容が決定されるたびに、次に実行されるステップを選択する。決定部153は、各ステップの設定内容を、設定情報141に含まれる設定内容候補の中から決定する。このとき、選択部151は、設定情報141に示される実行順序に従って、設定内容が決定された次のステップを選択する。なお、いずれのステップも未実行である場合、選択部151は実行順序が最も前であるステップを選択する。
例えば、図3に示すように、ステップ「正規化手法探索」の次のステップは「特徴選択手法探索」なので、ステップ「正規化手法探索」の設定内容が決定された場合、選択部151は、次のステップとして「特徴選択手法探索」を選択する。
また、図3のステップ「欠損値補完手法探索」、「正規化手法探索」及び「特徴選択手法探索」は、それぞれ、学習用及び分析用のデータの前処理である欠損値補完、正規化及び特徴選択の設定内容を決定する前処理決定ステップである。また、ステップ「欠損値補完手法探索」、「正規化手法探索」及び「特徴選択手法探索」の設定内容候補は、それぞれ、欠損値補完、正規化及び特徴選択で用いられる手法である。また、ステップ「ハイパーパラメータ探索」は、前処理決定ステップより後に実行され、予測器のアルゴリズム及びハイパーパラメータを設定内容として決定する予測器決定ステップである。
計算部152は、複数の処理のうち、設定内容が決定済みの処理を当該決定済みの設定内容を適用して行うとともに、選択部151によって選択されたステップに対応する処理を設定内容の候補のそれぞれを適用して行った場合に構築される予測モデルのそれぞれについて予測精度を計算する。
例えば、選択部151によってステップ「特徴選択手法探索」が選択された場合、ステップ「特徴選択手法探索」よりも実行順序が前であるステップ「欠損値補完手法探索」及び「正規化手法探索」の設定内容は決定済みであるため、ステップ「欠損値補完手法探索」及び「正規化手法探索」で決定された設定内容と、ステップ「特徴選択手法探索」の設定内容の候補のそれぞれを適用した予測モデルの構築が可能である。このとき、ステップ「特徴選択手法探索」の設定内容の候補は4つであるため、ステップ「欠損値補完手法探索」及び「正規化手法探索」の設定内容が1つに決定されている場合、少なくとも4通りの予測モデルが構築可能である。
そして、計算部152は、構築可能な予測モデルそれぞれについて予測精度を計算する。なお、このとき、ステップ「欠損値補完手法探索」及び「正規化手法探索」の設定内容は複数通り決定されていてもよい。例えば、ステップ「欠損値補完手法探索」及び「正規化手法探索」の設定内容が2通り決定されている場合、構築可能な予測モデルの数は少なくとも8通りである。
また、例えば、選択部151によってステップ「ハイパーパラメータ探索」が選択された場合、ステップ「ハイパーパラメータ探索」よりも実行順序が前であるステップ「欠損値補完手法探索」、「正規化手法探索」及び「特徴選択手法探索」の設定内容は決定済みであるため、ステップ「欠損値補完手法探索」、「正規化手法探索」及び「特徴選択手法探索」で決定された設定内容と、ステップ「ハイパーパラメータ探索」の設定内容の候補のそれぞれを適用した予測モデルの構築が可能である。そして、計算部152は、構築可能な予測モデルそれぞれについて予測精度を計算する。
また、計算部152は、所定数に分割した学習用のデータを用いた交差検証を行うことで予測精度を計算することができる。ここで、図5を用いて交差検証について説明する。図5は、交差検証について説明するための図である。
図5に示すように、まず、計算部152は、学習用データ20を学習用データ20a、20b、20c及び20dの4つに分割する。そして、計算部152は、1回目の処理として、予測モデルを用いて、学習用データ20b、20c及び20dを予測器に学習させ、学習用データ20aを用いて学習済みの予測器の精度を測定する。
同様に、計算部152は、2回目の処理では、学習用データ20a、20c及び20dを予測器に学習させ、学習用データ20bを用いて学習済みの予測器の精度を測定する。また、計算部152は、3回目の処理では、学習用データ20a、20b及び20dを予測器に学習させ、学習用データ20cを用いて学習済みの予測器の精度を測定する。また、計算部152は、4回目の処理では、学習用データ20a、20b及び20cを予測器に学習させ、学習用データ20dを用いて学習済みの予測器の精度を測定する。そして、計算部152は、4回の処理で測定した精度の平均値である交差検証精度を予測精度とする。なお、交差検証における分割数は4に限定されず、任意の数とすることができる。
また、計算部152は、複数の予測器の候補のそれぞれを用いて予測精度を計算することができる。例えば、図3に示すように、ステップ「ハイパーパラメータ探索」より前のステップでは、予測モデルで用いられる予測器は決定されないため、ステップ「欠損値補完手法探索」、「正規化手法探索」及び「特徴選択手法探索」では、計算部152は、予測器A、予測器B及び予測器Cのそれぞれを用いた場合の予測精度を計算する。例えば、選択部151によってステップ「特徴選択手法探索」が選択され、かつ、ステップ「欠損値補完手法探索」及び「正規化手法探索」の設定内容が1つに決定されている場合、ステップ「特徴選択手法探索」の設定内容の候補が4つであり、予測器の候補が3つであるため、計算部152は、少なくとも12通りの予測モデルの予測精度を計算する。
決定部153は、計算部152によって計算された各予測精度を比較し、設定内容の候補のうち予測精度が最も高くなる設定内容の候補を、選択部151によって選択されたステップに対応する処理の設定内容に決定する。
例えば、図1に示すように、ステップ「正規化手法探索」では、計算部152は、設定内容「最大最小」に対応する予測モデルの予測精度を72%と計算し、設定内容「標準化」に対応する予測モデルの予測精度を78%と計算し、設定内容「Zスコア」に対応する予測モデルの予測精度を72%と計算し、設定内容「無処理」に対応する予測モデルの予測精度を70%と計算した。このとき、ステップ「正規化手法探索」において最も予測精度が高い予測モデルは設定内容「標準化」に対応する予測モデルであるため、決定部153は、ステップ「正規化手法探索」に対応する設定項目の設定内容を「標準化」に決定する。つまり、決定部153は、データの前処理である正規化で用いられる手法を標準化に決定する。
そして、前述の通り、選択部151は、決定部153によって設定内容が決定されたステップの次に実行されるステップを選択する。例えば、決定部153によってステップ「正規化手法探索」における設定内容が決定された場合、選択部151は、ステップ「特徴選択手法探索」を選択する。
最終的に、選択部151がステップ「ハイパーパラメータ探索」を選択し、計算部152が当該ステップにおける設定内容ごとの予測精度を計算し、決定部153が最も予測精度が高い設定内容を決定すると、ステップ1~ステップ4までの予測モデルの構築手順であるパイプラインが決定される。
ここで、分析装置10は、同様の方法で複数のパイプラインを候補として決定する。例えば、分析装置10は、最終ステップ(例えばステップ4)における予測精度が高い順に所定数のパイプラインを候補として決定してもよいし、最終ステップにおける予測精度が閾値以上であるパイプラインを全て候補として決定してもよい。また、これまで説明してきたパイプラインの候補の決定方法は一例であり、分析装置10は上記以外の方法でパイプラインを決定してもよい。
[パイプラインを決定する処理]
パイプラインの候補の中から最終的にパイプラインを決定する処理について説明する。この時点で、図6に示すようにパイプラインの候補が決定されているものとする。図6は、パイプラインの候補の一例を示す図である。
例えば、パイプラインPL1は、最頻値による欠損値補完、標準化による正規化、分散分析による特徴選択、予測器Bによるラベルの予測という一連の処理である。また、例えば、パイプラインPL2は、中央値による欠損値補完、標準化による正規化、L1正則化による特徴選択、予測器Aによるラベルの予測という一連の処理である。また、例えば、パイプラインPL3は、中央値による欠損値補完、最大最小による正規化、決定木による特徴選択、予測器Cによるラベルの予測という一連の処理である。
また、予測器Aのアルゴリズムは、Logistic Regressionである。また、予測器Bのアルゴリズムは、Random Forestである。また、予測器Cのアルゴリズムは、K Nearest Neighborsである。これらのアルゴリズムのうち、K Nearest Neighborsは近傍探索のアルゴリズムである。
図8は、半教師あり学習を行う場合のパイプラインの決定について説明するための図である。ここで、学習用データ20とは別に、正解なしデータが与えられているものとする。なお、学習用データ20は、正解ありデータである。正解ありデータと正解なしデータを合わせたデータをTDとする。また、パイプラインの候補をPLとする。
ここで、生成部154は、データからラベルを予測する複数の予測モデルであって、互いに異なる複数の構築手順により構築された予測モデルのそれぞれを用いて、ラベルが付与された正解ありデータを基に、ラベルが未付与の正解なしデータに対しラベルを付与することで疑似正解ありデータを生成する。
具体的には、生成部154は、パイプラインの候補PLに含まれるパイプラインのそれぞれについて、自己訓練又はラベル拡散(Label Spreading)を行い、正解なしデータにラベルを付与する。予測器のアルゴリズムが近傍探索である場合、生成部154はラベル拡散を行う。一方、予測器のアルゴリズムが近傍探索でない場合、生成部154は自己訓練を行う。
生成部154は、自己訓練を行う場合、パイプラインのそれぞれに対して擬似正解ありデータを生成する。疑似正解ありデータは、予測モデルによって予測されたラベルを正解なしデータに付与したデータである。例えば、図7の例では、生成部154は、パイプラインPL1に対して疑似正解ありデータTD1を生成する。また、生成部154は、パイプラインPL2に対して疑似正解ありデータTD2を生成する。
自己訓練において、生成部154は、正解ありデータを含む構築用データを使って予測モデルを構築する第1の処理と、正解なしデータのうち、第1の処理で構築した予測モデルを使って予測したラベルの確信度が閾値以上であるデータにラベルを付与した上で構築用データに追加する第2の処理と、を繰り返す。第2の処理において構築用データに追加されるデータが疑似正解ありデータである。
生成部154は、予測モデルが近傍探索を行うものである場合、複数のパラメータ候補のそれぞれが設定された近傍探索により、正解ありデータを基にした正解なしデータに対するラベル拡散を行う。生成部154は、ラベル拡散を行う場合、パイプラインに近傍探索のパラメータ候補を追加する。近傍探索のパラメータ候補は、例えば、K Nearest Neighborsにおけるkの値である。
例えば、図7の例では、生成部154は、パイプラインPL3に対してパラメータ候補PR1、パラメータ候補PR2及びパラメータ候補PR3をそれぞれ追加する。パラメータ候補が追加されたパイプラインは、以降の処理では異なるパイプラインとして扱われる。
計算部152は、正解ありデータと、疑似正解ありデータとを用いて、予測モデルのそれぞれの予測精度を計算する。ラベル拡散が行われた場合、計算部152は、正解ありデータと、ラベル拡散が行われた正解なしデータとを用いて、パラメータ候補のそれぞれについて予測モデルの予測精度を計算する。
そして、図7に示すように、決定部153は、計算部152によって計算された予測精度が所定の基準を満たす予測モデルを決定する決定処理を行う。図8の例では、決定部153は、パイプラインPL1、パイプラインPL2、パイプラインPL3+PR1、パイプラインPL3+PR2、及びパイプラインPL3+PR3のいずれかを、最適なパイプラインPLAに決定する。また、決定処理は交差検証法によって行われてもよい。
また、図9に示すように、計算部152は、計算した予測精度を複数の指標で表すことができる。図9の例では、予測精度は、正解率及びF値で表されている。このとき、決定部153は、構築手順のうち複数の指標のいずれかが最も良くなる予測モデルを決定する。例えば、決定部153は、正解率が最も良いパイプラインPL2、及びF値が最も良いパイプラインPL3+PR1を決定する。
検証部155は、決定部153によって決定された予測モデル及び対応するパイプラインの検証を行う。図9は、予測モデルの検証について説明するための図である。図9に示すように、決定部153によって予測モデルが決定されると、検証部155は、パイプラインに基づいて予測器に学習用データ20を学習させる。そして、検証部155は、学習用データ20とは別のテスト用データ30を用いて、構築した予測モデルの予測精度をテスト精度として測定する。例えば、分析装置10は、ここで測定されたテスト精度を最終的な出力としてもよい。また、学習用データ20と異なるテスト用データ30を用いた検証を行うことで、過学習状態及び未学習状態の確認が可能となる。また、学習データには、正解ありデータだけでなく、擬似正解ありデータが含まれる。
[第1の実施形態の処理]
図10を用いて、第1の実施形態に係る分析装置10の処理の流れについて説明する。図10は、第1の実施形態に係る分析装置の処理の流れを示すフローチャートである。図10に示すように、まず、分析装置10は、学習用データ20を読み込む(ステップS101)。次に、分析装置10は、読み込んだ学習用データ20を用いて、パイプラインの候補を決定する(ステップS102)。そして、分析装置10は、半教師あり学習に適したパイプラインを決定する(ステップS103)。ここで、分析装置10の検証部155は、決定されたパイプラインに基づいて予測モデルを構築し(ステップS104)、構築した予測モデルをテスト用データ30を用いて検証する(ステップS105)。
次に、図11を用いて、分析装置10がパイプラインの候補を決定する処理(図10のステップS102)について詳細に説明する。図11に示すように、選択部151は、未選択のステップがある場合(ステップS201、Yes)、設定情報141を参照し、次のステップを選択する(ステップS202)。なお、次のステップとは、未選択のステップのうち、最も実行順序が早いステップである。一方、未選択のステップがない場合(ステップS201、No)、分析装置10はパイプラインを決定する処理を終了する。
選択部151によって選択されたステップの設定内容候補のうち、未選択の設定内容がある場合(ステップS203、Yes)、計算部152は、次の設定内容を選択する(ステップS204)。一方、未選択の設定内容がない場合(ステップS203、No)、決定部153は、計算部152によって計算された予測精度が最も高い設定内容を選択部151によって選択されたステップの設定内容に決定する(ステップS206)。
計算部152は、設定内容を選択すると、当該選択した設定内容を適用したパイプラインに基づいて構築される予測モデルの予測精度を計算する(ステップS205)。このとき、計算部152は、所定数に分割した学習用データ20を用いた交差検証によって予測精度の計算を行うことができる。そして、計算部152は、未選択の設定内容がなくなるまで、ステップS203~S205の処理を繰り返す。
図12を用いて、分析装置10が半教師あり学習に適したパイプラインを決定する処理について説明する。図12は、パイプラインを決定する処理の流れを示すフローチャートである。
図12に示すように、まず、生成部154は、未選択のパイプラインを選択し(ステップS401)、選択したパイプラインに従い各データに前処理を実行する(ステップS402)。そして、パイプラインに対応する予測モデルのアルゴリズムが近傍探索である場合(ステップS403、Yes)、生成部154はラベル拡散を実施する(ステップS404)。一方、パイプラインに対応する予測モデルのアルゴリズムが近傍探索でない場合(ステップS403、No)、生成部154は自己訓練を実施する(ステップS405)。
未選択のパイプラインがある場合(ステップS406、Yes)、生成部154は、ステップS401へ戻り処理を繰り返す。一方、未選択のパイプラインがない場合(ステップS406、No)、決定部153は、評価指標ごとに最適なパイプラインを決定する(ステップS407)。そして、検証部155は、決定したパイプラインを使って予測モデルを構築する(ステップS408)。
図13を用いて、ラベル拡散の流れを説明する。図13は、ラベル拡散の流れを示すフローチャートである。図13に示すように、まず、生成部154は、近傍探索のパラメータ候補を設定する(ステップS411)。
次に、生成部154は、パラメータ候補ごとにラベル拡散を実行する(ステップS412)。つまり、生成部154は、パラメータ候補ごとに近傍探索を行い、正解ありデータを基に正解なしデータに対してラベルを付与する。生成部154は、評価指標ごとに最適なパラメータ候補をパイプラインに追加する(ステップS413)。
図14を用いて、自己訓練の流れを説明する。図14は、自己訓練の流れを示すフローチャートである。図14に示すように、生成部154は、正解ありデータ及び疑似正解ありデータを用いて予測モデルを構築する(ステップS421)。ただし、処理開始時は疑似正解ありデータは生成されていない場合がある。
次に、生成部154は、予測モデルを使って正解なしデータのラベルを予測する(ステップS422)。ここで、予測したラベルの確信度が閾値を超えているデータがある場合(ステップS423、Yes)、閾値を超えた正解なしデータにラベルを付与し疑似正解ありデータに追加する(ステップS424)。
ここで、S421からS424までのステップの実施回数が既定回数を超えていない場合(ステップS425、No)、生成部154はステップS421へ戻り処理を繰り返す。一方、S421からS424までのステップの実施回数が既定回数を超えた場合(ステップS425、Yes)、生成部154はラベル拡散処理を終了する。また、ステップS423において、予測したラベルの確信度が閾値を超えているデータがない場合(ステップS423、No)、生成部154はその時点でラベル拡散を終了する。
[第1の実施形態の効果]
生成部154は、データからラベルを予測する複数の予測モデルであって、互いに異なる複数の構築手順により構築された予測モデルのそれぞれを用いて、ラベルが付与された正解ありデータを基に、ラベルが未付与の正解なしデータに対しラベルを付与することで疑似正解ありデータを生成する。また、計算部152は、正解ありデータと、疑似正解ありデータとを用いて、予測モデルのそれぞれの予測精度を計算する。また、決定部153は、計算部152によって計算された予測精度が所定の基準を満たす予測モデルを決定する。このように、第1の実施形態では、複数のパイプライン(構築手順)のそれぞれについての、半教師あり学習を行ったとした場合の予測精度を基にパイプラインが最終的に決定される。このため、半教師あり学習は正解ありデータと正解なしデータの両方を用いるものであるため、第1の実施形態によれば、予測モデルの精度向上に、正解なしのデータを有効活用することができる。
生成部154は、予測モデルが近傍探索を行うものである場合、複数のパラメータ候補のそれぞれが設定された近傍探索により、正解ありデータを基にした正解なしデータに対するラベル拡散を行う。また、計算部152は、正解ありデータと、ラベル拡散が行われた正解なしデータとを用いて、パラメータ候補のそれぞれについて予測モデルの予測精度を計算する。このように、第1の実施形態によれば、ラベル拡散のための最適なパラメータを決定することができる。
生成部154は、正解ありデータを含む構築用データを使って予測モデルを構築する第1の処理と、正解なしデータのうち、第1の処理で構築した予測モデルを使って予測したラベルの確信度が閾値以上であるデータにラベルを付与した上で構築用データに追加する第2の処理と、を繰り返す。このように、第1の実施形態では、正解なしデータのうち、ラベルの確信度がある程度高いものを選び出し、予測モデルの精度を向上させることができる。
計算部152は、計算した予測精度を複数の指標で表す。また、決定部153は、構築手順のうち複数の指標のいずれかが最も良くなる予測モデルを決定する。どのような指標を用いて予測モデルの予測精度を表すかは、データの分析結果の利用場面等に応じて異なる場合がある。このため、第1の実施形態では、各指標に対応した複数のパイプラインを得ることができ、様々な利用場面に対応することができる。
[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
また、本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[プログラム]
一実施形態として、分析装置10は、パッケージソフトウェアやオンラインソフトウェアとして上記の分析を実行する分析プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の分析プログラムを情報処理装置に実行させることにより、情報処理装置を分析装置10として機能させることができる。ここで言う情報処理装置には、デスクトップ型又はノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等のスレート端末等がその範疇に含まれる。
また、分析装置10は、ユーザが使用する端末装置をクライアントとし、当該クライアントに上記の分析に関するサービスを提供する分析サーバ装置として実装することもできる。例えば、分析サーバ装置は、学習用データを入力とし、パイプライン又は予測モデルを出力とする分析サービスを提供するサーバ装置として実装される。この場合、分析サーバ装置は、Webサーバとして実装することとしてもよいし、アウトソーシングによって上記の分析に関するサービスを提供するクラウドとして実装することとしてもかまわない。
図15は、分析プログラムを実行するコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。
ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、分析装置10の各処理を規定するプログラムは、コンピュータにより実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、分析装置10における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSDにより代替されてもよい。
また、上述した実施形態の処理で用いられる設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して実行する。
なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093及びプログラムデータ1094は、ネットワーク(LAN、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093及びプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
10 分析装置
11 入力部
12 出力部
13 通信制御部
14 記憶部
15 制御部
141 設定情報
142 予測器情報
151 選択部
152 計算部
153 決定部
154 生成部
155 検証部

Claims (4)

  1. データからラベルを予測する複数の予測モデルであって、互いに欠損値補完手法、正規化手法、特徴選択手法、予測器のアルゴリズム、及びハイパーパラメータの組み合わせが異なる複数の構築手順により構築された複数の予測モデルであって、近傍探索を行う予測モデルと近傍探索を行わない予測モデルとの両方を含む複数の予測モデルのそれぞれを用いて、ラベルが付与された第1のデータを基に、ラベルが未付与の第2のデータに対しラベルを付与することで疑似正解ありデータを生成する生成部と、
    前記第1のデータと、前記疑似正解ありデータとを用いて、前記予測モデルのそれぞれの予測精度を計算する計算部と、
    前記計算部によって計算された予測精度が所定の基準を満たす予測モデルを決定する決定部と、
    を有し、
    前記生成部は、予測モデルが近傍探索を行うものである場合、複数のパラメータ候補のそれぞれが設定された近傍探索により、前記第1のデータを基にした前記第2のデータに対するラベル拡散を行い、予測モデルが近傍探索を行うものでない場合、前記第1のデータを含む構築用データを使って予測モデルを構築する第1の処理と、前記第2のデータのうち、前記第1の処理で構築した予測モデルを使って予測したラベルの確信度が閾値以上であるデータにラベルを付与した上で前記構築用データに追加する第2の処理と、を繰り返す
    ことを特徴とする分析装置。
  2. 前記計算部は、計算した前記予測精度を複数の指標で表し、
    前記決定部は、前記複数の予測モデルのうち前記複数の指標のいずれかが最も良くなる予測モデルを決定することを特徴とする請求項1に記載の分析装置。
  3. 分析装置で実行される分析方法であって、
    データからラベルを予測する複数の予測モデルであって、互いに欠損値補完手法、正規化手法、特徴選択手法、予測器のアルゴリズム、及びハイパーパラメータの組み合わせが異なる複数の構築手順により構築された複数の予測モデルであって、近傍探索を行う予測モデルと近傍探索を行わない予測モデルとの両方を含む複数の予測モデルのそれぞれを用いて、ラベルが付与された第1のデータを基に、ラベルが未付与の第2のデータに対しラベルを付与することで疑似正解ありデータを生成する生成工程と、
    前記第1のデータと、前記疑似正解ありデータとを用いて、前記予測モデルのそれぞれの予測精度を計算する計算工程と、
    前記計算工程によって計算された予測精度が所定の基準を満たす予測モデルを決定する決定工程と、
    を有し、
    前記生成工程は、予測モデルが近傍探索を行うものである場合、複数のパラメータ候補のそれぞれが設定された近傍探索により、前記第1のデータを基にした前記第2のデータに対するラベル拡散を行い、予測モデルが近傍探索を行うものでない場合、前記第1のデータを含む構築用データを使って予測モデルを構築する第1の処理と、前記第2のデータのうち、前記第1の処理で構築した予測モデルを使って予測したラベルの確信度が閾値以上であるデータにラベルを付与した上で前記構築用データに追加する第2の処理と、を繰り返す
    ことを特徴とする分析方法。
  4. コンピュータを、請求項1又は2に記載の分析装置として機能させるための分析プログラム。
JP2021518292A 2019-05-09 2019-05-09 分析装置、分析方法及び分析プログラム Active JP7424373B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/018637 WO2020225923A1 (ja) 2019-05-09 2019-05-09 分析装置、分析方法及び分析プログラム

Publications (2)

Publication Number Publication Date
JPWO2020225923A1 JPWO2020225923A1 (ja) 2020-11-12
JP7424373B2 true JP7424373B2 (ja) 2024-01-30

Family

ID=73051357

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021518292A Active JP7424373B2 (ja) 2019-05-09 2019-05-09 分析装置、分析方法及び分析プログラム

Country Status (3)

Country Link
US (1) US20220222544A1 (ja)
JP (1) JP7424373B2 (ja)
WO (1) WO2020225923A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022185531A1 (ja) * 2021-03-05 2022-09-09 日本電気株式会社 情報処理装置、情報処理方法、検知モデルの製造方法、およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016519807A (ja) 2013-03-15 2016-07-07 ザ クリーブランド クリニック ファウンデーションThe Cleveland ClinicFoundation 自己進化型予測モデル
US20160364608A1 (en) 2015-06-10 2016-12-15 Accenture Global Services Limited System and method for automating information abstraction process for documents
JP2017059205A (ja) 2015-09-17 2017-03-23 パナソニックIpマネジメント株式会社 主題推定システム、主題推定方法およびプログラム
JP2017102865A (ja) 2015-12-04 2017-06-08 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016519807A (ja) 2013-03-15 2016-07-07 ザ クリーブランド クリニック ファウンデーションThe Cleveland ClinicFoundation 自己進化型予測モデル
US20160364608A1 (en) 2015-06-10 2016-12-15 Accenture Global Services Limited System and method for automating information abstraction process for documents
JP2017059205A (ja) 2015-09-17 2017-03-23 パナソニックIpマネジメント株式会社 主題推定システム、主題推定方法およびプログラム
JP2017102865A (ja) 2015-12-04 2017-06-08 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
柳澤 渓甫 他,半教師付き学習を用いた薬物クリアランス経路予測,電子情報通信学会技術研究報告,一般社団法人電子情報通信学会,2014年06月18日,第114巻 第105号,第55頁-第60頁,ISSN:0913-5685
藤野 昭典 他,複数の構成要素データを扱う多クラス分類器の半教師あり学習法,情報処理学会論文誌,社団法人情報処理学会,2007年10月15日,第48巻 第SIG15号(TOM18),第163頁-第175頁,ISSN:0387-5806
長倉三郎 他 編,岩波理化学辞典第5版,株式会社岩波書店,1998年,第40頁,第1126頁,第1289-1290頁

Also Published As

Publication number Publication date
WO2020225923A1 (ja) 2020-11-12
JPWO2020225923A1 (ja) 2020-11-12
US20220222544A1 (en) 2022-07-14

Similar Documents

Publication Publication Date Title
US10671933B2 (en) Method and apparatus for evaluating predictive model
US20210103858A1 (en) Method and system for model auto-selection using an ensemble of machine learning models
US10409699B1 (en) Live data center test framework
CN111950810B (zh) 一种基于自演化预训练的多变量时间序列预测方法和设备
US11681914B2 (en) Determining multivariate time series data dependencies
US9396160B1 (en) Automated test generation service
JP6585654B2 (ja) 判定装置、分析システム、判定方法および判定プログラム
US20210304073A1 (en) Method and system for developing a machine learning model
KR102142943B1 (ko) 클라우드 기반의 인공지능 연산 서비스 방법 및 이를 수행하는 장치
Dube et al. AI gauge: Runtime estimation for deep learning in the cloud
JP7424373B2 (ja) 分析装置、分析方法及び分析プログラム
US20220269835A1 (en) Resource prediction system for executing machine learning models
US20230267007A1 (en) System and method to simulate demand and optimize control parameters for a technology platform
JP6659618B2 (ja) 分析装置、分析方法及び分析プログラム
KR20210143464A (ko) 데이터 분석 장치 및 그것의 데이터 분석 방법
JP2018190129A (ja) 判定装置、分析システム、判定方法および判定プログラム
JP6577515B2 (ja) 分析装置、分析方法及び分析プログラム
JPWO2020121378A1 (ja) 学習装置および学習方法
US20230267379A1 (en) Method and system for generating an ai model using constrained decision tree ensembles
JP6611268B2 (ja) 特定装置、分析システム、特定方法及び特定プログラム
JP6588494B2 (ja) 抽出装置、分析システム、抽出方法及び抽出プログラム
JP6805313B2 (ja) 特定装置、特定方法及び特定プログラム
Huang et al. Elastic dnn inference with unpredictable exit in edge computing
US11928562B2 (en) Framework for providing improved predictive model
CN110796234B (zh) 一种用于预测计算机状态的方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230104

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230315

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230914

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240101

R150 Certificate of patent or registration of utility model

Ref document number: 7424373

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150