JP7207540B2 - 学習支援装置、学習支援方法、及びプログラム - Google Patents

学習支援装置、学習支援方法、及びプログラム Download PDF

Info

Publication number
JP7207540B2
JP7207540B2 JP2021528632A JP2021528632A JP7207540B2 JP 7207540 B2 JP7207540 B2 JP 7207540B2 JP 2021528632 A JP2021528632 A JP 2021528632A JP 2021528632 A JP2021528632 A JP 2021528632A JP 7207540 B2 JP7207540 B2 JP 7207540B2
Authority
JP
Japan
Prior art keywords
error
pattern
learning
cause
countermeasure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021528632A
Other languages
English (en)
Other versions
JPWO2020255414A1 (ja
JPWO2020255414A5 (ja
Inventor
優太 芦田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2020255414A1 publication Critical patent/JPWO2020255414A1/ja
Publication of JPWO2020255414A5 publication Critical patent/JPWO2020255414A5/ja
Application granted granted Critical
Publication of JP7207540B2 publication Critical patent/JP7207540B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N5/025Extracting rules from data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、予測モデルの学習を支援する学習支援装置、学習支援方法に関し、更には、これらを実現するためのプログラムに関する。
予測モデルの評価には一般に、RMSE(Root Mean Squared Error)、MAE(Mean Absolute Error)など、すべての学習サンプル(以降サンプルと呼ぶ)の残差(予測値と実績値の差)を平均化した精度指標が用いられる。これらの精度指標を算出することで、他の分析結果との相対的な良・不良を評価することができる。
ところが、学習された予測モデルが所望の精度を満たさなかった場合、算出した精度指標には、予測モデルが精度を満たさない原因を推察するために用いる情報が含まれていない。したがって、予測分析従事者は、予測モデルにどのような学習をさせれば予測精度が改善されるのかを考察することが困難である。
関連する技術として非特許文献1には、学習された予測モデルの精度を改善するため、予測精度が良好なサンプル群とそうでないサンプル群とに差別化する特徴量を提示する技術が開示されている。
非特許文献1に開示されている技術によれば、まず、サンプルごとの残差に基づいてサンプルを分類し、残差の大きいサンプルクラスタと残差の小さいサンプルクラスタとに分類する。そして、各サンプルクラスタで、予測で用いた特徴量の分布を推定する。
また、非特許文献1に開示されている技術によれば、二つのサンプルクラスタ間で推定された各特徴量の分布のカルバック・ライブラーダイバージェンスを算出し、カルバック・ライブラーダイバージェンスの大きい順に特徴量の分布を可視化する。そうすることで、例えば、残差の大きいサンプル群と残差の小さいサンプル群とを差別化する特徴量を、予測分析従事者が把握できるようにしている。
このように、非特許文献1が開示されている技術によれば、予測が困難なサンプル群と予測が容易なサンプル群とを差別化する特徴量を、予測分析従事者に提示できる。
Zhang, Jiawei, et al. "Manifold: A Model-Agnostic Framework for Interpretation and Diagnosis of Machine Learning Models." IEEE transactions on visualization and computer graphics 25.1 (2019): 364-373.
しかしながら、非特許文献1に開示の技術は、予測が困難なサンプル群と予測が容易なサンプル群とを差別化する単一の特徴量を、予測分析従事者に提示できるだけである。そのため、非特許文献1に開示の技術では、単一の特徴量だけに基づいて、予測が困難なサンプル群と予測が容易なサンプル群との差別化が可能な場合には対応できるが、複数の特徴量の組み合わせに基づいて、差別化が可能な場合には対応できない。
また、非特許文献1に開示の技術は、差別化をする特徴量の把握が可能ではあるが、その特徴量が、真に予測誤差に寄与しているかどうかを表す情報は提示されない。
さらに、非特許文献1に開示の技術は、精度改善をするための対応策を表す情報が提示されないため、分析従事者が対策を検討しなければならない。
本発明の目的の一例は、予測モデルの予測精度を向上させるために用いる情報を生成する、学習支援装置、学習支援方法、及びプログラムを提供することにある。
上記目的を達成するため、本発明の一側面における学習支援装置は、
残差に基づいて分類されたサンプルと、予測モデルの学習に用いた特徴量とを用いて、前記分類されたサンプルを差別化する特徴量のパターンを抽出する、特徴パターン抽出手段と、
抽出した前記特徴量のパターンと前記残差とを用いて、前記特徴量のパターンの予測誤差に対する誤差寄与度を算出する、誤差寄与度算出手段と、
を有することを特徴とする。
また、上記目的を達成するため、本発明の一側面における学習支援方法は、
(a)残差に基づいて分類されたサンプルと、予測モデルの学習に用いた特徴量とを用いて、前記分類されたサンプルを差別化する特徴量のパターンを抽出し、
(b)抽出した前記特徴量のパターンと前記残差とを用いて、前記特徴量のパターンの予測誤差に対する誤差寄与度を算出する
ことを特徴とする。
更に、上記目的を達成するため、本発明の一側面におけるプログラムは
コンピュータに、
(a)残差に基づいて分類されたサンプルと、予測モデルの学習に用いた特徴量とを用いて、前記分類されたサンプルを差別化する特徴量のパターンを抽出する、ステップと、
(b)抽出した前記特徴量のパターンと前記残差とを用いて、前記特徴量のパターンの予測誤差に対する誤差寄与度を算出する、ステップと、
を実行させることを特徴とする。
以上のように本発明によれば、予測モデルの予測精度を向上させるために用いる情報を生成できる。
図1は、学習支援装置の一例を示す図である。 図2は、学習支援装置を有するシステムの一例を示す図である。 図3は、誤差の大きいサンプルと小さいサンプルを判別する決定木モデルの一例を示す図である。 図4は、第一の実施の形態における学習支援装置の動作の一例を示す図である。 図5は、第二の実施の形態における学習支援装置を有するシステムの一例を示す図である。 図6は、第二の実施の形態における学習支援装置の動作の一例を示す図である。 図7は、第三の実施の形態における学習支援装置を有するシステムの一例を示す図である。 図8は、第三の実施の形態における学習支援装置の動作の一例を示す図である。 図9は、第一、第二、第三の実施の形態における学習支援装置を実現するコンピュータの一例を示す図である。
(第一の実施の形態)
以下、本発明の第一の実施の形態について、図1から図3を参照しながら説明する。
[装置構成]
最初に、図1を用いて、第一の実施の形態における学習支援装置1の構成について説明する。図1は、学習支援装置の一例を示す図である。
図1に示す学習支援装置1は、予測モデルの予測精度を向上させために用いる情報を生成する装置である。また、図1に示すように、学習支援装置1は、特徴パターン抽出部2と、誤差寄与度算出部3とを有する。
このうち、特徴パターン抽出部2は、残差に基づいて分類されたサンプルと、予測モデルの学習に用いた特徴量とを用いて、分類されたサンプルを差別化する特徴量のパターンを抽出する。誤差寄与度算出部3は、抽出した特徴量のパターンと残差とを用いて、特徴量のパターンの予測誤差に対する誤差寄与度を算出する。
このように、本実施の形態においては、特徴量のパターン、特徴量のパターンの誤差寄与度などを表す情報を生成できるので、出力装置を通じて、予測モデルの予測精度を向上させるために用いる情報を、管理者、開発者、分析従事者などの利用者に提供できる。したがって、利用者は、予測モデルの予測精度が改善される作業を容易に行うことができる。
[システム構成]
続いて、図2を用いて、第一の実施の形態における学習支援装置1Aを有するシステムの構成を説明する。図2は、第一の実施の形態における学習支援装置を有するシステムの一例を示す図である。
システムについて説明する。
図2に示すように、第一の実施の形態におけるシステムは、予測モデル管理システム10Aと、入力装置20と、出力装置30と、分析データ記憶部40とを有する。
予測モデル管理システム10Aは、学習フェーズにおいて、複数のサンプルを入力し、予測モデルを生成する。予測モデル管理システム10Aは、運用フェーズにおいて、予測分析に用いる設定、特徴量又は目的変数などを予測モデルに入力し、予測分析をする。
また、予測モデル管理システム10Aは、予測モデルの学習後に、予測モデルの予測精度を評価する。また、予測モデル管理システム10Aは、予測モデルの学習後に、サンプルごとに残差を算出する。
さらに、予測モデル管理システム10Aは、予測モデルの学習後に、予測モデルの予測精度を向上させるために用いる利用者の作業を支援するための支援情報を生成する。
なお、予測モデル管理システム10Aは、例えば、サーバコンピュータなどの情報処理装置である。また、予測モデル管理システム10Aの詳細については後述する。
入力装置20は、予測モデル管理システム10Aに対して、予測分析設定を入力する。予測分析設定とは、例えば、予測分析に用いるパラメータ、モデルを設定するために用いる情報である。
また、入力装置20は、学習支援装置1Aに対して、サンプル分類設定を入力する。サンプル分類設定は、例えば、サンプルを分類するために用いるパラメータ、分類方法などを設定するための情報である。なお、入力装置20は、例えば、パーソナルコンピュータなどの情報処理装置である。
出力装置30は、出力情報生成部12により、出力可能な形式に変換された、出力情報を取得し、取得した出力情報に基づいて、生成した画像及び音声などを出力する。出力情報生成部12については後述する。
出力装置30は、例えば、液晶、有機EL(Electro Luminescence)、CRT(Cathode Ray Tube)を用いた画像表示装置などである。更に、画像表示装置は、スピーカなどの音声出力装置などを備えていてもよい。なお、出力装置30は、プリンタなどの印刷装置でもよい。
分析データ記憶部40は、予測モデル管理装置11及び学習支援装置1Aで用いる分析データ(サンプルごとの特徴量(説明変数)と予測対象データ(目的変数))を記憶する。分析データ記憶部40は、例えば、データベースなどの記憶装置である。なお、図2の例では、分析データ記憶部40は、予測モデル管理システム10Aの外部に設けられているが、予測モデル管理システム10Aの内部に設けてもよい。
予測モデル管理システムについて説明する。
予測モデル管理システム10Aは、予測モデル管理装置11と、出力情報生成部12と、残差記憶部13と、学習支援装置1Aとを有する。
予測モデル管理装置11は、運用フェーズにおいて、入力装置20から、予測分析設定情報を取得する。また、予測モデル管理装置11は、運用フェーズにおいて、分析データ記憶部40から、予測分析に用いる目的変数、特徴量などの情報を取得する。その後、予測モデル管理装置11は、取得した情報を用いて予測分析を実行し、予測分析結果を不図示の記憶部に記憶する。
なお、予測モデル管理装置11が実行する予測モデルの学習、評価、残差の処理については後述する。
出力情報生成部12は、出力装置30に出力するための情報、すなわち利用者に提示するための情報を変換して、出力装置30に出力可能な出力情報を生成する。利用者に提示するための情報は、例えば、モデル学習部101が学習した予測モデルの評価結果、サンプル分類部4が算出した分類結果、特徴パターン抽出部2が抽出した特徴量のパターン、誤差寄与度算出部3が算出した誤差寄与度などの情報である。
残差記憶部13は、残差算出部103が算出した予測モデルの残差を記憶する。残差記憶部13は、例えば、データベースなどの記憶装置である。なお、図2において、残差記憶部13は、予測モデル管理装置11の外部に設けられているが、予測モデル管理装置11の内部に設けてもよい。
学習支援装置1Aは、予測モデルの予測精度を向上させために利用者が用いる情報を生成する。学習支援装置1Aは、予測モデル管理システム10Aに設けてもよいし、予測モデル管理システム10Aの外部に設けてもよい。学習支援装置1Aについては後述する。
予測モデル管理装置について説明をする。
予測モデル管理装置11は、モデル学習部101と、モデル評価部102と、残差算出部103とを有する。
モデル学習部101は、学習フェーズにおいて、入力装置20から、予測モデルに学習を実行させる学習実行指示、予測モデルの学習に用いる学習設定、分析データ記憶部40から学習に用いるサンプルなどの情報とを取得する。学習設定は、例えば、ベースモデル、学習アルゴリズムの指定、学習プロセスのハイパーパラメータなどの情報である。
続いて、モデル学習部101は、取得したそれらの情報を用いて、予測モデルの学習を実行し、予測モデルを生成する。なお、モデル学習部101は、生成した予測モデルを、予測モデル管理装置11の内部に設けられた記憶部、又は予測モデル管理装置11の外部に設けられた不図示の記憶部に記憶する。
モデル評価部102は、モデル学習部101が学習した予測モデルの誤差などの性能評価をする。具体的には、モデル評価部102は、予測モデルの学習後に、予測モデルの評価値、すなわちRMSEなどの誤差評価、学習アルゴリズムの学習終了判定に用いられる値(例えば、尤度など)を算出する。
残差算出部103は、モデル学習部101が学習した予測モデルのサンプルごとの残差を算出する。具体的には、残差算出部103は、予測モデルの学習後において、学習した予測モデルを用いて、予測を実行した際の残差、すなわちサンプルごとの予測値と実績値の差(=実績値-予測値)を算出する。
なお、上述した予測モデルの評価と残差の算出とは、訓練事例集合とテスト事例集合ごとに行う。また、予測モデルの学習に用いる学習アルゴリズム、ベースモデルは、例えば、ランダムフォレスト、GBDT(Gradient Boosting Decision Tree)、Deep Neural Networkなどを用いてもよい。
学習支援装置について説明をする。
学習支援装置1Aは、特徴パターン抽出部2、誤差寄与度算出部3に加えて、サンプル分類部4を有する。
サンプル分類部4は、サンプル分類設定と残差を表す情報とを用いて、サンプルを残差に基づいて分類する。具体的には、サンプル分類部4は、まず、入力装置20からサンプル分類設定と、残差記憶部13に記憶されているサンプルごとの残差とを取得する。
続いて、サンプル分類部4は、サンプル分類設定が有するパラメータを用いて、サンプルを分割する。パラメータは、例えば、予測が成功しているサンプル群と予測が失敗しているサンプル群を分類するために用いる閾値である。閾値は、例えば、実験、シミュレーションなどを用いて求める。
また、サンプル分類部4は、Kmeans法などのクラスタリング手法を用いて分類してもよい。その場合、パラメータはクラスタ数とする。
特徴パターン抽出部2は、サンプル群を差別化するための特徴量のパターンを抽出する。具体的には、特徴パターン抽出部2は、まず、サンプル分類部4が分類した分類結果と、分析データ記憶部40が記憶する予測モデルの学習に用いた特徴量とを取得する。
続いて、特徴パターン抽出部2は、分類結果である残差の大きいサンプル群と、予測モデルの学習に用いた特徴量とを用いて、サンプル群を差別化する特徴量のパターンを抽出する。
決定木を適用した特徴量のパターン抽出方法について説明する。
例えば、予測誤差が大きいサンプルを正例とし、予測誤差が小さいサンプルを負例とし、予測モデルの学習に用いた特徴量を説明変数とし、正例と負例を判別する決定木を学習する。
図3は、誤差の大きいサンプルと小さいサンプルを判別する決定木モデルの一例を示す図である。図3の例では、学習された決定木は、葉ノード(図3の正例、負例)を除く各ノードに、正例と負例を判別するために用いる特徴量の条件が関連付けられている。
図3には、根ノードにおいて降水量が10[mm/h]以下の場合(Yes)には右の子ノードに、それ以外の場合(No)には左の子ノードに移行するような判別ルールが示されている。すなわち、根ノードには判別ルールにより分類されたサンプルが正例か負例であるかが関連付けられる。
また、図3の決定木を葉ノードから根ノードに向かって逆にたどることによって、どのようなルールで正例と負例が判別可能かが抽出できる。図3において最も右にある葉ノードから得られるルールは、「予測対象が祝日であり、降水量が10[mm/h]以下」となる。このように、上述したルールを、各クラスタを説明するために用いる特徴量のパターンとして抽出する。
なお、図3の例では、誤差の大きいサンプルと小さいサンプルの二つのクラスタを判別する例を示したが、二つ以上のクラスタであってもよい。また、クラスタは誤差の大きさに基づいて作成されていてもよい。さらに、訓練事例、テスト事例それぞれから得られたクラスタを同時に判別してもよい。
次に、頻出アイテムセット集合を用いた特徴量のパターン抽出方法について説明する。
例えば、aprioriアルゴリズムなどを用いてもよい。この方法では、第一ステップとして、誤差の大きいサンプルのクラスタと誤差の小さいサンプルのクラスタそれぞれにおける頻出アイテムセットをaprioriアルゴリズムを用いて抽出する。
第一ステップでは、まず、予測分析に用いた特徴量のうち、連続値をとるものをビニング処理によって離散化する。ビニング処理は、連続変数の離散化に用いられる処理である。例えば、ある特徴量が0~99の値をとるとき、値域を10分割し、0~9、10~19、・・・90~99の幅に分割する。
続いて、あるサンプルについてその特徴量が5の値を持っていた場合、その特徴量は「0~9」というラベルに変換される。なお、このラベルは、「0~9」をそのまま用いてもよいし、分割された値域の順序に0、1、2・・・又はA、B、C・・・など各値域であることが一意に識別可能な任意のラベルを用いてよい。この処理によって連続値を持つ特徴量はすべて離散値を持つ特徴量に変換される。
次に、第二ステップとして、aprioriアルゴリズムを用いて誤差の大きいサンプルのクラスタ、誤差の小さいサンプルのクラスタのそれぞれから、頻出アイテムセットを抽出する。頻出アイテムセットとは、各サンプルが持つトランザクションで、離散化された特徴量の中で多数のサンプルが持つアイテムである。ここでは、アイテムとは、特徴量が持つ値を指し、アイテムセットとは、特徴量が持つ値の組み合わせを指す。
誤差の大きいサンプルのクラスタから抽出された頻出アイテムセットは、誤差の大きいサンプル群の大部分が共通して持つ特徴量の値の組み合わせであり、誤差の大きいサンプル群の特徴量のパターンとして用いることができる。誤差の小さいサンプルのクラスタから抽出された頻出アイテムセットも同様に、誤差の小さいサンプル群の特徴量のパターンとして用いることができる。
第二ステップでは、まず、aprioriアルゴリズムは、長さが1であるアイテムを探索する。すなわち、クラスタ内の全サンプルの中で、頻度α以上の出現頻度を持つ特徴量の値を抽出し、長さ1の頻出集合F_1とする。
続いて、F_1に一つアイテムを加えた、長さが2、すなわち二つの特徴量の組み合わせで得られるすべてのアイテムを列挙する。この長さ2の各アイテムについて、いずれかの要素を一つ取り除いたアイテムがF_1に含まれるかどうかを判定し、含まれていなければ棄却する。
続いて、残った長さ2のアイテムについて、頻度がα以上であるものを残し、これをF_2とする。同様の操作を長さがkになるまで続ける。このようにすることで、k個の特徴量の組み合わせによる、頻出する特徴量のパターンが抽出できる。また、特徴パターン抽出部2は、各クラスタごとに抽出した特徴量のパターン集合を比較し、各クラスタに固有の特徴量のパターンを抽出する。
誤差寄与度算出部3は、特徴パターン抽出部2が抽出した特徴量のパターンの誤差寄与度(関連性)を算出する。具体的には、誤差寄与度算出部3は、まず、特徴パターン抽出部2が抽出した特徴量のパターンと、残差算出部103が算出した残差とを取得する。続いて、誤差寄与度算出部3は、取得した特徴量のパターンと残差とを用いて、特徴量のパターンの誤差寄与度を算出する。すなわち、各特徴量のパターンの存在が全体の予測誤差にもたらす影響を算出する。
関連性の算出は、例えば、相関係数などである。各サンプルについて、ある特徴量のパターンPが存在しているかどうかを関連付ける。例えば、1であれば発生、0であれば非発生のような関連付けをする。
この特徴量のパターンの発生の有無と、サンプルごとの残差に基づいて、ケンドールの順位相関係数や、スピアマンの順位相関係数を算出することで、特徴量のパターンの発生の有無による、誤差の変化具合を算出する。
また、関連性の算出には、任意の予測モデルの学習アルゴリズムを用いてもよい。サンプルごとの各特徴量のパターンの有無を特徴量とし、サンプルごとの残差を目的変数として予測モデルを学習する。
この予測モデルに基づき、残差の予測をした場合において特徴量のパターンの寄与度を抽出することによって、誤差寄与度が算出できる。例えば、線形回帰を用いて残差を予測した場合、回帰係数を誤差寄与度と見做すことが可能である。
[装置動作]
次に、第一の実施の形態における学習支援装置の動作について図4を用いて説明する。図4は、第一の実施の形態における学習支援装置の動作の一例を示す図である。以下の説明においては、適宜図2から図3を参照する。また、第一の実施の形態では、学習支援装置を動作させることによって、学習支援方法が実施される。よって、第一実施の形態における学習支援方法の説明は、以下の学習支援装置の動作説明に代える。
図3に示すように、最初に、サンプル分類部4は、サンプル分類設定と残差を表す情報とを用いて、サンプルを残差に基づいて分類する(ステップA1)。具体的には、ステップA1において、サンプル分類部4は、まず、入力装置20からサンプル分類設定と、残差記憶部13に記憶されているサンプルごとの残差とを取得する。
続いて、ステップA1において、サンプル分類部4は、サンプル分類設定が有するパラメータを用いて、サンプルを分割する。パラメータは、例えば、予測が成功しているサンプル群と予測が失敗しているサンプル群を分類するために用いる閾値である。閾値は、例えば、実験、シミュレーションなどを用いて求める。
また、サンプル分類部4は、Kmeans法などのクラスタリング手法を用いて分類してもよい。その場合、パラメータはクラスタ数とする。
次に、特徴パターン抽出部2は、サンプル群を差別化するための特徴量のパターンを抽出する(ステップA2)。具体的には、ステップA2において、特徴パターン抽出部2は、まず、サンプル分類部4が分類した分類結果と、分析データ記憶部40が記憶する予測モデルの学習に用いた特徴量とを取得する。
続いて、ステップA2において、特徴パターン抽出部2は、分類結果である残差の大きいサンプル群と、予測モデルの学習に用いた特徴量とを用いて、サンプル群を差別化する特徴量のパターンを抽出する。
次に、誤差寄与度算出部3は、特徴パターン抽出部2が抽出した特徴量のパターンの誤差寄与度(関連性)を算出する(ステップA3)。具体的には、ステップA3において、誤差寄与度算出部3は、まず、特徴パターン抽出部2が抽出した特徴量のパターンと、残差算出部103が算出した残差とを取得する。
続いて、ステップA3において、誤差寄与度算出部3は、取得した特徴量のパターンと残差とを用いて、特徴量のパターンの誤差寄与度を算出する。すなわち、各特徴量のパターンの存在が全体の予測誤差にもたらす影響を算出する。
次に、出力情報生成部12は、出力装置30に出力するための情報、すなわち利用者に提示するための情報を変換して、出力装置30に出力可能な出力情報を生成する(ステップA4)。次に、出力情報生成部12は、生成した出力情報を出力装置30に出力する(ステップA5)。
利用者に提示するための情報は、例えば、モデル学習部101が学習した予測モデルの評価結果、サンプル分類部4が算出した分類結果、特徴パターン抽出部2が抽出した特徴量のパターン、誤差寄与度算出部3が算出した誤差寄与度などの情報である。
[第一の実施の形態の効果]
以上のように第一の実施の形態によれば、特徴量のパターン、特徴量のパターンの誤差寄与度などの情報を生成できるので、出力装置30を通じて、予測モデルの予測精度を向上させるために用いる情報を、利用者に提供できる。したがって、利用者は、予測モデルの予測精度が改善される作業を容易に行うことができる。
[プログラム]
第一の実施の形態におけるプログラムは、コンピュータに、図4に示すステップA1からA5を実行させるプログラムであればよい。このプログラムをコンピュータにインストールし、実行することによって、第一の形態における学習支援装置と学習支援方法とを実現することができる。この場合、コンピュータのプロセッサは、サンプル分類部4、特徴パターン抽出部2、誤差寄与度算出部3、出力情報生成部12として機能し、処理を行なう。
また、第一の実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されてもよい。この場合は、例えば、各コンピュータが、それぞれ、サンプル分類部4、特徴パターン抽出部2、誤差寄与度算出部3、出力情報生成部12のいずれかとして機能してもよい。
(第二の実施の形態)
以下、本発明の第二の実施の形態について、図5から図6を参照しながら説明する。
第二の実施の形態では、特徴量のパターンと、特徴量のパターンの誤差寄与度だけでなく、誤差の原因と、その原因を解決するための対策を推定する。
[システム構成]
続いて、図5を用いて、第二の実施の形態における学習支援装置1Bを有するシステムの構成を説明する。図5は、第二の実施の形態における学習支援装置を有するシステムの一例を示す図である。
システムについて説明する。
図5に示すように、第二の実施の形態におけるシステムは、予測モデル管理システム10B、入力装置20、出力装置30、分析データ記憶部40を有する。予測モデル管理システム10Bは、予測モデル管理装置11、出力情報生成部12、残差記憶部13、学習支援装置1Bを有する。予測モデル管理装置11は、モデル学習部101、モデル評価部102、残差算出部103を有する。
なお、上述した入力装置20、出力装置30、分析データ記憶部40、予測モデル管理装置11、出力情報生成部12、残差記憶部13については、第一の実施の形態において説明をしたので説明を省略する。
学習支援装置について説明をする。
学習支援装置1Bは、特徴パターン抽出部2、誤差寄与度算出部3、サンプル分類部4に加え、原因推定部51と、原因推定ルール記憶部52と、対策推定部53と、対策推定ルール記憶部54とを有する。
なお、上述した特徴パターン抽出部2、誤差寄与度算出部3、サンプル分類部4については、第一の実施の形態において説明をしたので説明を省略する。
原因推定部51は、原因推定ルールと特徴量のパターンとを用いて、誤差原因を推定する。具体的には、原因推定部51は、まず、原因推定ルール記憶部52に記憶されている原因推定ルールと、特徴パターン抽出部2が算出した特徴量のパターンを取得する。
続いて、原因推定部51は、特徴量のパターンを、原因推定ルールに適用して、誤差原因を推定する。原因推定ルールは、特徴量のパターンを用いて誤差原因を推定するルールである。誤差原因は、例えば、共変量シフト、クラスバランス変化、インバランスラベルなどである。
共変量シフトは、一つ以上の特徴量について、学習に用いるデータと、テストデータ及び運用中の新規データの集合とで、特徴量の確率分布が異なるケースをいう。共変量シフトが発生している場合、二つのデータセットで特徴量の平均値、取り得る範囲が変化する。これにより、学習に用いるデータを用いて学習した予測モデルでは未知の領域に入力データが変化するため、予測精度が低下する。
クラスバランス変化は、共変量シフトとは異なり、目的変数の分布が変化することを示す。クラスバランス変化においても、学習済み予測モデルでは対応できない領域に環境が変化するため、予測精度が低下する。
インバランスラベルは、学習データ、テストデータに共通して目的変数がとる領域のサンプル数が著しく異なることをいう。例えば、二値判別のタスクの場合、正例が全サンプルの1[%]であり、負例が99[%]であるような状況である。実例としては、画像を用いて疾病認識、クレジットカードの不正利用の検出などがあげられる。このような場合、多数を占めるフレイの予測精度が学習過程で支配的となり、正例の予測精度が軽視され、全体の予測精度を下げてしまう。
原因推定ルール記憶部52は、誤差原因を推定するために用いる原因推定ルールを記憶する。原因推定ルール記憶部52は、例えば、データベースなどの記憶装置である。なお、図5において、原因推定ルール記憶部52は、学習支援装置1Bの内部に設けられているが、学習支援装置1Bの外部に設けてもよい。
具体的には、原因推定ルール記憶部52には、原因推定ルールを、あらかじめ利用者が記憶してもよいし、運用中に利用者が記憶してもよい。
原因推定ルールは、訓練集合とテスト集合での特徴量のパターンの比較などが考えられる。例えば、サンプル分類部4と特徴パターン抽出部2とが、訓練集合の誤差が大きいクラスタ、訓練集合の誤差が小さいクラスタ、テスト集合の誤差が大きいクラスタ、テスト集合の誤差が小さいクラスタを対象とした場合、特徴パターン抽出部2は、クラスタごとに固有の特徴量のパターンを抽出する。
テスト集合の誤差が大きいクラスタの固有の特徴量のパターンは、誤差が大きいクラスタのサンプルだけが有する特徴量の値を示し、訓練データはこの特徴量の値を有するサンプルを含まないと判定できる。このようにすることで、共変量シフトに基づく誤差が特定できる。なお、原因推定ルールは、分析タスクにおいて蓄積された様々な知見を用いてもよい。
対策推定部53は、対策推定ルールと特徴量のパターンとを用いて、対策を推定する。具体的には、対策推定部53は、まず、対策推定ルール記憶部54に記憶されている対策推定ルールと、特徴パターン抽出部2が算出した特徴量のパターンとを取得する。
続いて、対策推定部53は、特徴量のパターンを、対策推定ルールに適用して、対策を推定する。対策としては、例えば、上述した共変量シフトから生まれる誤差の場合、訓練集合とテスト集合のサンプルを適切に入れ替えて予測モデルを学習しなおすことなどが挙げられる。
対策推定ルール記憶部54は、予測誤差の削減に必要な対策を推定するルールを記憶する。対策推定ルール記憶部54は、例えば、データベースなどの記憶装置である。なお、図5において、対策推定ルール記憶部54は、学習支援装置1Bの内部に設けられているが、学習支援装置1Bの外部に設けてもよい。
具体的には、対策推定ルール記憶部54には、対策推定ルールを、あらかじめ利用者が記憶してもよいし、運用中に利用者が記憶してもよい。
対策推定ルールは、例えば、原因推定ルールと同様に、訓練データとテストデータで誤差の大小で固有の特徴量のパターンを比較することにより、サンプルを入れ替えるという対応策ルールが考えられる。なお、対策推定ルールは、利用者のその他の知見を用いることができる。
出力情報生成部12は、出力装置30に出力するための情報、すなわち利用者に提示するための情報を変換して、出力装置30に出力可能な出力情報を生成する。利用者に提示するための情報は、例えば、モデル学習部101が学習した予測モデルの評価結果、サンプル分類部4が算出した分類結果、特徴パターン抽出部2が抽出した特徴量のパターン、誤差寄与度算出部3が算出した誤差寄与度に加え、誤差原因、対策などの情報である。
[装置動作]
次に、第二の実施の形態における学習支援装置の動作について図6を用いて説明する。図6は、第二の実施の形態における学習支援装置の動作の一例を示す図である。以下の説明においては、適宜図5を参照する。また、第二の実施の形態では、学習支援装置を動作させることによって、学習支援方法が実施される。よって、第二の実施の形態における学習支援方法の説明は、以下の学習支援装置の動作説明に代える。
図6に示すように、最初に、ステップA1からA3の処理を実行する。ステップA1からA3の処理については、第一の実施の形態において説明したので、ステップA1からA3の処理について説明を省略する。
次に、原因推定部51は、原因推定ルールと特徴量のパターンとを用いて、誤差原因を推定する(ステップB1)。具体的には、ステップB1において、原因推定部51は、まず、原因推定ルール記憶部52に記憶されている原因推定ルールと、特徴パターン抽出部2が算出した特徴量のパターンを取得する。
続いて、ステップB1において、原因推定部51は、特徴量のパターンを、原因推定ルールに適用して、誤差原因を推定する。原因推定ルールは、特徴量のパターンを用いて誤差原因を推定するルールである。誤差原因は、例えば、共変量シフト、クラスバランス変化、インバランスラベルなどである。
次に、対策推定部53は、対策推定ルールと特徴量のパターンとを用いて、対策を推定する(ステップB2)。具体的には、ステップB2において、対策推定部53は、まず、対策推定ルール記憶部54に記憶されている対策推定ルールと、特徴パターン抽出部2が算出した特徴量のパターンとを取得する。
続いて、ステップB2において、対策推定部53は、特徴量のパターンを、対策推定ルールに適用して、対策を推定する。対策としては、例えば、上述した共変量シフトから生まれる誤差の場合、訓練集合とテスト集合のサンプルを適切に入れ替えて予測モデルを学習しなおすことなどが挙げられる。なお、ステップB1とB2の順番は逆でもよい。
次に、出力情報生成部12は、出力装置30に出力するための情報、すなわち利用者に提示するための情報を変換して、出力装置30に出力可能な出力情報を生成する(ステップB3)。次に、出力情報生成部12は、生成した出力情報を出力装置30に出力する(ステップB4)。
利用者に提示するための情報は、例えば、モデル学習部101が学習した予測モデルの評価結果、サンプル分類部4が算出した分類結果、特徴パターン抽出部2が抽出した特徴量のパターン、誤差寄与度算出部3が算出した誤差寄与度、誤差原因、対策などの情報である。
[第二の実施の形態の効果]
以上のように第二の実施の形態によれば、特徴量のパターン、特徴量のパターンの誤差寄与度などの情報を生成できるので、出力装置30を通じて、予測モデルの予測精度を向上させるために用いる情報を利用者に提供できる。したがって、利用者は、予測モデルの予測精度が改善される作業を容易に行うことができる。
さらに、第二の実施の形態によれば、誤差原因と、その誤差原因を解決するための対策を推定できるので、特徴量のパターンと、特徴量のパターンの誤差寄与度だけでなく、誤差原因、対策などの情報を生成できる。そのため、更に、出力装置30を通じて、予測モデルの予測精度を向上させるために用いる情報を、利用者に提供できる。したがって、利用者は、予測モデルの予測精度が改善される作業を、更に、容易に行うことができる。
[プログラム]
第二の実施の形態におけるプログラムは、コンピュータに、図6に示すステップA1からA5、ステップB1からB4を実行させるプログラムであればよい。このプログラムをコンピュータにインストールし、実行することによって、第二の形態における学習支援装置と学習支援方法とを実現することができる。この場合、コンピュータのプロセッサは、サンプル分類部4、特徴パターン抽出部2、誤差寄与度算出部3、原因推定部51、対策推定部53、出力情報生成部12として機能し、処理を行なう。
また、第二の実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されてもよい。この場合は、例えば、各コンピュータが、それぞれ、サンプル分類部4、特徴パターン抽出部2、誤差寄与度算出部3、原因推定部51、対策推定部53、出力情報生成部12のいずれかとして機能してもよい。
(第三の実施の形態)
以下、本発明の第三の実施の形態について、図7から図8を参照しながら説明する。
第三の実施の形態では、誤差原因と、有効と考えられる対策と、特徴量のパターンとを蓄積し、蓄積した誤差原因と対策と特徴量のパターンとを用いて、誤差原因推定ルールと対策推定ルールとを生成する。
[システム構成]
続いて、図7を用いて、第三の実施の形態における学習支援装置1Cを有するシステムの構成を説明する。図7は、第三の実施の形態における学習支援装置を有するシステムの一例を示す図である。
システムについて説明する。
図7に示すように、第三の実施の形態におけるシステムは、予測モデル管理システム10C、入力装置20、出力装置30、分析データ記憶部40を有する。予測モデル管理システム10Cは、予測モデル管理装置11、出力情報生成部12、残差記憶部13、学習支援装置1Cを有する。予測モデル管理装置11は、モデル学習部101、モデル評価部102、残差算出部103を有する。
なお、上述した入力装置20、出力装置30、分析データ記憶部40、予測モデル管理装置11、出力情報生成部12、残差記憶部13については、第一の実施の形態において説明をしたので説明を省略する。
学習支援装置について説明をする。
学習支援装置1Cは、特徴パターン抽出部2、誤差寄与度算出部3、サンプル分類部4、原因推定部51、原因推定ルール記憶部52、対策推定部53、対策推定ルール記憶部54に加え、フィードバック部70と、原因記憶部71と、対策記憶部72と、原因推定ルール学習部73と、対策推定ルール学習部74と、を有する。
なお、上述した特徴パターン抽出部2、誤差寄与度算出部3、サンプル分類部4については、第一の実施の形態において説明をしたので説明を省略する。また、原因推定部51、原因推定ルール記憶部52、対策推定部53、対策推定ルール記憶部54については、第二の実施の形態において説明をしたので説明を省略する。
フィードバック部70は、学習支援装置1Cにより推定された誤差原因、対策、特徴量パターンなどを、記憶部に記憶する。具体的には、フィードバック部70は、原因推定部51が推定した誤差原因の取得と、対策推定部53が推定した対策の取得と、特徴パターン抽出部2が抽出した特徴量のパターンを取得する。
続いて、フィードバック部70は、原因記憶部71に対して、誤差原因と、それに対応する特徴量のパターンとを関連付けて記憶する。また、フィードバック部70は、対策記憶部72に対して、誤差の改善のための対策と、それに対応する特徴量のパターンとを関連付けて記憶する。
なお、フィードバック部70は、入力装置20から、誤差原因、対策、特徴量パターンを取得し、記憶部に記憶してもよい。
原因記憶部71は、フィードバックとして、例えば、誤差原因と、それに対応する特徴量のパターンとを関連付けて記憶する。
また、原因記憶部71は、例えば、データベースなどの記憶装置である。なお、図7において、原因記憶部71は、学習支援装置1Cの内部に設けられているが、学習支援装置1Cの外部に設けてもよい。
対策記憶部72は、フィードバックとして、例えば、誤差の改善のための対策と、それに対応する特徴量のパターンとを関連付けて記憶する。なお、対策記憶部72には、更に、対策の有効度(予測の改善度)を、対策とその特徴量のパターンとに関連付けて記憶してもよい。
有効度は、モデル評価部102が算出した予測モデルの評価値、残差算出部103が算出したサンプルごとの残差、特徴パターン抽出部2が抽出した特徴量のパターンなどを用いて、採用した対策の有効度を算出する。有効度は、例えば、対策を行う前と後で、予測モデルの評価値を比較し、その差分を有効度として用いる。
対策記憶部72は、例えば、データベースなどの記憶装置である。なお、図7において、対策記憶部72は、学習支援装置1Cの内部に設けられているが、学習支援装置1Cの外部に設けてもよい。
原因推定ルール学習部73は、学習フェーズにおいて、誤差原因と、誤差原因に対応する特徴量のパターンとを用いて、誤差原因推定ルール(モデル)を学習する。具体的には、原因推定ルール学習部73は、まず、原因記憶部71から、誤差原因と、誤差原因に対応する特徴量のパターンとを取得する。
続いて、原因推定ルール学習部73は、取得した誤差原因と、特徴量のパターンとを用いて、誤差原因推定ルールを生成し、生成した誤差原因推定ルールを原因推定ルール記憶部52に記憶する。
誤差原因推定ルールの学習は、記憶済みの特徴量のパターンと、誤差原因とを用いて、特徴量のパターンを説明変数とし、誤差原因を目的変数とする予測モデルを学習することによって可能である。特徴量のパターンは、例えば、特徴量の値の組み合わせとして記憶される。
この場合、特徴量のパターンは、すべての可能な特徴量の値を列、各特徴量のパターンを行とし、それぞれの特徴量パターンが含む特徴量値を1、含まない特徴量値を0とする行列として表現できる。この行列を説明変数、各特徴量パターンに関連付けられる誤差原因を要素に持つ列ベクトルを目的変数とする。
そして、これらのデータから予測モデルを、例えば、多変量回帰やGBDTによる回帰などの学習手法で学習することによって、誤差原因推定ルールの学習が可能である。
また、誤差原因推定ルールの学習方法に、ベイズ的回帰などの確率分布推定手法を用いることで、ある特徴量パターンが与えられた場合、各誤差原因の確信度を得ることができる。
対策推定ルール学習部74は、学習フェーズにおいて、対策と、対策の特徴量に対応するパターンと、誤差原因に対応する有効度とを用いて、対策推定ルール(モデル)を学習する。具体的には、対策推定ルール学習部74は、まず、対策記憶部72から、対策と、対策に対応する特徴量のパターンと、対策に対応する有効度とを取得する。
続いて、対策推定ルール学習部74は、取得した対策と、特徴量のパターンと、有効度とを用いて、対策推定ルールを生成し、生成した対策推定ルールを対策推定ルール記憶部54に記憶する。
対策推定ルールの学習は、特徴量のパターンを説明変数とし、対策を目的変数とする予測モデルを学習することによって得られる。特徴量のパターンは、誤差原因推定ルールの学習時と同様の行列として表現可能である。対策の表現方法としては、例えば、可能な対策に一意な識別子を割り当てたカテゴリ変数として表現できる。
この目的変数の場合、複数カテゴリの予測タスクとなるため、例えば決定木判別やGBDTによる判別などの方法で対策推定ルールの学習が可能である。
なお、対策推定ルールの学習においては、有効度を学習時のサンプルの重みとして用いてもよい。予測モデルの学習では一般に、サンプルごとに、過去の実績値と、学習途中のモデルによる予測値との差異を評価し、その和を損失関数として定義する。
実績値と予測値の差異は、例えば、二乗誤差や対数尤度関数が用いられる。この損失関数を最小化することで最適なモデルパラメータが決定され、予測モデルが得られるが、損失関数をサンプルごとの差異の和から、有効度を重みとする重み付き和とすることで有効度が高い対策を採用した事例を重視した学習が可能となり、有効度が高い対策を予測するモデルが得られる。
これにより、新たな特徴量のパターン、残差の傾向などに応じて、誤差原因推定ルールと対策推定ルールとを学習・更新することができる。なお、誤差原因推定ルールと対策推定ルールは、同時に一つの予測モデルとして学習してもよい。
[装置動作]
第三の実施の形態における学習支援装置の動作について図8を用いて説明する。図8は、第三の実施の形態における学習支援装置の動作の一例を示す図である。以下の説明においては、適宜図7を参照する。また、第三の実施の形態では、学習支援装置を動作させることによって、学習支援方法が実施される。よって、第三の実施の形態における学習支援方法の説明は、以下の学習支援装置の動作説明に代える。
図8に示すように、最初に、利用者は、入力装置20を介して、予測モデル管理装置11と学習支援装置1Cとに、再学習の指示をする(ステップC1)。
次に、フィードバック部70は、原因記憶部71に、誤差原因に関連するフィードバックを記憶する(ステップC2)。具体的には、ステップC2において、原因記憶部71には、フィードバックとして、例えば、誤差原因と、それに対応する特徴量のパターンと、誤差原因の有効度とを関連付けて記憶される。
また、フィードバック部70は、対策記憶部72に、対策に関連するフィードバックを記憶する(ステップC3)。具体的には、ステップC3において、対策記憶部72には、フィードバックとして、例えば、誤差の改善のための対策と、それに対応する特徴量のパターンと、対策の有効度とを関連付けて記憶する。
なお、ステップC2、C3を処理する順番は逆でもよい。又は、ステップC2、C3の処理を並行して実行してもよい。
次に、原因推定ルール学習部73は、学習フェーズにおいて、誤差原因と、誤差原因に対応する特徴量のパターンと、誤差原因に対応する有効度とを用いて、誤差原因推定ルール(モデル)を学習する(ステップC4)。具体的には、ステップC4において、原因推定ルール学習部73は、まず、原因記憶部71から、誤差原因と、誤差原因に対応する特徴量のパターンと、誤差原因に対応する有効度とを取得する。
続いて、ステップC4において、原因推定ルール学習部73は、取得した誤差原因と、特徴量のパターンと、有効度とを用いて、誤差原因推定ルールを生成し、生成した誤差原因推定ルールを原因推定ルール記憶部52に記憶する。
また、対策推定ルール学習部74は、学習フェーズにおいて、対策と、対策の特徴量に対応するパターンと、誤差原因に対応する有効度とを用いて、対策推定ルール(モデル)を学習する(ステップC5)。具体的には、ステップC5において、対策推定ルール学習部74は、まず、対策記憶部72から、対策と、対策に対応する特徴量のパターンと、対策に対応する有効度とを取得する。
続いて、ステップC5において、対策推定ルール学習部74は、取得した対策と、特徴量のパターンと、有効度とを用いて、対策推定ルールを生成し、生成した対策推定ルールを対策推定ルール記憶部54に記憶する。
なお、ステップC4、C5を処理する順番は逆でもよい。又は、ステップC4、C5の処理を並行して実行してもよい。
その後、第三の実施の形態において生成した誤差原因推定ルールと対策推定ルールとを用いて、図6に示したステップA1からA3、ステップB1からB4の処理を実行する。
[第三の実施の形態の効果]
以上のように第三の実施の形態によれば、特徴量のパターン、特徴量のパターンの誤差寄与度などの情報を生成できるので、出力装置30を通じて、予測モデルの予測精度を向上させるために用いる情報を利用者に提供できる。したがって、利用者は、予測モデルの予測精度が改善される作業を容易に行うことができる。
また、第三の実施の形態によれば、誤差原因と、その誤差原因を解決するための対策を推定できるので、特徴量のパターンと、特徴量のパターンの誤差寄与度だけでなく、誤差原因、対策などの情報を生成できる。そのため、更に、出力装置30を通じて、予測モデルの予測精度を向上させるために用いる情報を、利用者に提供できる。したがって、利用者は、予測モデルの予測精度が改善される作業を、更に、容易に行うことができる。
さらに、第三の実施の形態によれば、誤差原因推定ルール又は対策推定ルール又はそれら両方を自動で生成できるので、利用者は、予測モデルの予測精度が改善される作業を、更に、容易に行うことができる。
[プログラム]
第三の実施の形態におけるプログラムは、コンピュータに、図8に示すステップC1からC5を実行させるプログラムであればよい。このプログラムをコンピュータにインストールし、実行することによって、第三の実施の形態における学習支援装置と学習支援方法とを実現することができる。この場合、コンピュータのプロセッサは、サンプル分類部4、特徴パターン抽出部2、誤差寄与度算出部3、原因推定部51、対策推定部53、出力情報生成部12、フィードバック部70、原因記憶部71、対策記憶部72、原因推定ルール学習部73、対策推定ルール学習部74として機能し、処理を行なう。
また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されてもよい。この場合は、例えば、各コンピュータが、それぞれ、サンプル分類部4、特徴パターン抽出部2、誤差寄与度算出部3、原因推定部51、対策推定部53、出力情報生成部12、フィードバック部70、原因記憶部71、対策記憶部72、原因推定ルール学習部73、対策推定ルール学習部74のいずれかとして機能してもよい。
[物理構成]
ここで、第一、第二、第三の実施の形態におけるプログラムを実行することによって、学習支援装置を実現するコンピュータについて図9を用いて説明する。図9は、第一、第二、第三の実施の形態における学習支援装置を実現するコンピュータの一例を示すブロック図である。
図9に示すように、コンピュータ110は、CPU(Central Processing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。なお、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていてもよい。
CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)などの揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであってもよい。
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリなどの半導体記憶装置があげられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)などの汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD-ROM(Compact Disk Read Only Memory)などの光学記録媒体があげられる。
なお、本実施の形態における学習支援装置は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、学習支援装置は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
[付記]
以上の実施の形態に関し、更に以下の付記を開示する。上述した実施の形態の一部又は全部は、以下に記載する(付記1)から(付記18)により表現することができるが、以下の記載に限定されるものではない。
(付記1)
残差に基づいて分類されたサンプルと、予測モデルの学習に用いた特徴量とを用いて、前記分類されたサンプルを差別化する特徴量のパターンを抽出する、特徴パターン抽出部と、
抽出した前記特徴量のパターンと前記残差とを用いて、前記特徴量のパターンの予測誤差に対する誤差寄与度を算出する、誤差寄与度算出部と、
を有することを特徴とする学習支援装置。
(付記2)
付記1に記載の学習支援装置であって、
前記特徴量のパターンから、誤差原因を推定する誤差原因推定ルールを用いて、前記誤差原因を推定する、原因推定部
を有することを特徴とする学習支援装置。
(付記3)
付記2に記載の学習支援装置であって、
前記誤差原因と前記特徴量のパターンとを用いて学習をし、前記誤差原因推定ルールを生成する、原因推定ルール学習部
を有することを特徴とする学習支援装置。
(付記4)
付記1又は2に記載の学習支援装置であって、
前記特徴量のパターンから、誤差原因を解消するための対策を推定する対策推定ルールを用いて、前記対策を推定する、対策推定部
を有することを特徴とする学習支援装置。
(付記5)
付記4に記載の学習支援装置であって、
前記対策と前記特徴量のパターンとを用いて学習をし、前記対策推定ルールを生成する、対策推定ルール学習部
を有することを特徴とする学習支援装置。
(付記6)
付記1に記載の学習支援装置であって、
前記特徴量のパターンと前記誤差寄与度とを用いて、出力装置に出力するための出力情報を生成し、前記出力装置に出力する
ことを特徴とする学習支援装置。
(付記7)
(a)残差に基づいて分類されたサンプルと、予測モデルの学習に用いた特徴量とを用いて、前記分類されたサンプルを差別化する特徴量のパターンを抽出する、ステップと
(b)抽出した前記特徴量のパターンと前記残差とを用いて、前記特徴量のパターンの予測誤差に対する誤差寄与度を算出する、ステップと、
を有することを特徴とする学習支援方法。
(付記8)
付記7に記載の学習支援方法であって、
(c)前記特徴量のパターンから、誤差原因を推定する原因推定ルールを用いて、前記誤差原因を推定する、ステップ
を有することを特徴とする学習支援方法。
(付記9)
付記8に記載の学習支援方法であって、
(d)前記誤差原因と前記特徴量のパターンとを用いて学習をし、前記誤差原因推定ルールを生成する、ステップ
を有することを特徴とする学習支援方法。
(付記10)
付記7又は8に記載の学習支援方法であって、
(e)前記特徴量のパターンから、誤差原因を解消するための対策を推定する対策推定ルールを用いて、前記対策を推定する、ステップ
を有することを特徴とする学習支援方法。
(付記11)
付記10に記載の学習支援方法であって、
(f)前記対策と前記特徴量のパターンとを用いて学習をし、前記対策推定ルールを生成する、ステップ
を有することを特徴とする学習支援方法。
(付記12)
付記7に記載の学習支援方法であって、
前記特徴量のパターンと前記誤差寄与度とを用いて、出力装置に出力するための出力情報を生成し、前記出力装置に出力する、ステップ
を有することを特徴とする学習支援方法。
(付記13)
コンピュータに、
(a)残差に基づいて分類されたサンプルと、予測モデルの学習に用いた特徴量とを用いて、前記分類されたサンプルを差別化する特徴量のパターンを抽出する、ステップと、
(b)抽出した前記特徴量のパターンと前記残差とを用いて、前記特徴量のパターンの予測誤差に対する誤差寄与度を算出する、ステップと、
を実行させるプログラム。
(付記14)
付記13に記載のプログラムであって、
前記プログラムが、前記コンピュータに、
(c)前記特徴量のパターンから、誤差原因を推定する誤差原因推定ルールを用いて、前記誤差原因を推定する、ステップ
を実行させるプログラム。
(付記15)
付記14に記載のプログラムであって、
前記プログラムが、前記コンピュータに、
(d)前記誤差原因と前記特徴量のパターンとを用いて学習をし、前記誤差原因推定ルールを生成する、ステップ
を実行させるプログラム。
(付記16)
付記13又は14に記載のプログラムであって、
前記プログラムが、前記コンピュータに、
(e)前記特徴量のパターンから、誤差原因を解消するための対策を推定する対策推定ルールを用いて、前記対策を推定する、ステップ
を実行させるプログラム。
(付記17)
付記16に記載のプログラムであって、
前記プログラムが、前記コンピュータに、
(f)前記対策と前記特徴量のパターンとを用いて学習をし、前記対策推定ルールを生成する、ステップ
を実行させるプログラム。
(付記18)
付記13に記載のプログラムであって、
前記プログラムが、前記コンピュータに、
前記特徴量のパターンと前記誤差寄与度とを用いて、出力装置に出力するための出力情報を生成し、前記出力装置に出力する、ステップ
を実行させるプログラム。
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
以上のように本発明によれば、予測モデルの予測精度を向上させるために用いる情報を生成し、生成した情報を利用者に提示することができる。本発明は、予測モデルの予測精度の向上が必要な分野において有用である。
1、1A、1B、1C 学習支援装置
2 特徴パターン抽出部
3 誤差寄与度算出部
4 サンプル分類部

10A、10B、10C 予測モデル管理システム
20 入力装置
30 出力装置
40 分析データ記憶部

11 予測モデル管理装置
101 モデル学習部
102 モデル評価部
103 残差算出部
12 出力情報生成部
13 残差記憶部

51 原因推定部
52 原因推定ルール記憶部
53 対策推定部
54 対策推定ルール記憶部

70 フィードバック部
71 原因記憶部
72 対策記憶部
73 原因推定ルール学習部
74 対策推定ルール学習部

110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス

Claims (10)

  1. 残差に基づいて分類されたサンプルと、予測モデルの学習に用いた特徴量とを用いて、前記分類されたサンプルを差別化する特徴量のパターンを抽出する、特徴パターン抽出手段と、
    抽出した前記特徴量のパターンと前記残差とを用いて、前記特徴量のパターンの予測誤差に対する誤差寄与度を算出する、誤差寄与度算出手段と、
    を有することを特徴とする学習支援装置。
  2. 請求項1に記載の学習支援装置であって、
    前記特徴量のパターンから、誤差原因を推定する誤差原因推定ルールを用いて、前記誤差原因を推定する、原因推定手段
    を有することを特徴とする学習支援装置。
  3. 請求項2に記載の学習支援装置であって、
    前記誤差原因と前記特徴量のパターンとを用いて学習をし、前記誤差原因推定ルールを生成する、原因推定ルール学習手段
    を有することを特徴とする学習支援装置。
  4. 請求項1又は2に記載の学習支援装置であって、
    前記特徴量のパターンから、誤差原因を解消するための対策を推定する対策推定ルールを用いて、前記対策を推定する、対策推定手段
    を有することを特徴とする学習支援装置。
  5. 請求項4に記載の学習支援装置であって、
    前記対策と前記特徴量のパターンとを用いて学習をし、前記対策推定ルールを生成する、対策推定ルール学習手段
    を有することを特徴とする学習支援装置。
  6. 請求項1に記載の学習支援装置であって、
    前記特徴量のパターンと前記誤差寄与度とを用いて、出力装置に出力するための出力情報を生成し、前記出力装置に出力する
    ことを特徴とする学習支援装置。
  7. コンピュータが、
    (a)残差に基づいて分類されたサンプルと、予測モデルの学習に用いた特徴量とを用いて、前記分類されたサンプルを差別化する特徴量のパターンを抽出するステップと、
    (b)抽出した前記特徴量のパターンと前記残差とを用いて、前記特徴量のパターンの予測誤差に対する誤差寄与度を算出するステップと、
    を実行することを特徴とする学習支援方法。
  8. 請求項7に記載の学習支援方法であって、
    前記コンピュータが、
    (c)前記特徴量のパターンから、誤差原因を推定する誤差原因推定ルールを用いて、前記誤差原因を推定するステップ
    を実行する学習支援方法。
  9. コンピュータに、
    (a)残差に基づいて分類されたサンプルと、予測モデルの学習に用いた特徴量とを用いて、前記分類されたサンプルを差別化する特徴量のパターンを抽出する、ステップと、
    (b)抽出した前記特徴量のパターンと前記残差とを用いて、前記特徴量のパターンの予測誤差に対する誤差寄与度を算出する、ステップと、
    を実行させるプログラム。
  10. 請求項9に記載のプログラムであって、
    前記プログラムが、前記コンピュータに、
    (c)前記特徴量のパターンから、誤差原因を推定する誤差原因推定ルールを用いて、前記誤差原因を推定する、ステップ
    を実行させるプログラム。
JP2021528632A 2019-06-21 2019-06-21 学習支援装置、学習支援方法、及びプログラム Active JP7207540B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/024832 WO2020255414A1 (ja) 2019-06-21 2019-06-21 学習支援装置、学習支援方法、及びコンピュータ読み取り可能な記録媒体

Publications (3)

Publication Number Publication Date
JPWO2020255414A1 JPWO2020255414A1 (ja) 2020-12-24
JPWO2020255414A5 JPWO2020255414A5 (ja) 2022-02-15
JP7207540B2 true JP7207540B2 (ja) 2023-01-18

Family

ID=74037617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021528632A Active JP7207540B2 (ja) 2019-06-21 2019-06-21 学習支援装置、学習支援方法、及びプログラム

Country Status (3)

Country Link
US (1) US20220327394A1 (ja)
JP (1) JP7207540B2 (ja)
WO (1) WO2020255414A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022180749A1 (ja) * 2021-02-25 2022-09-01 日本電気株式会社 分析装置、分析方法、及びプログラムが格納された非一時的なコンピュータ可読媒体
JPWO2022201320A1 (ja) * 2021-03-23 2022-09-29
WO2023181230A1 (ja) * 2022-03-24 2023-09-28 日本電気株式会社 モデル分析装置、モデル分析方法、及び、記録媒体

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170172493A1 (en) 2015-12-17 2017-06-22 Microsoft Technology Licensing, Llc Wearable system for predicting about-to-eat moments

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170172493A1 (en) 2015-12-17 2017-06-22 Microsoft Technology Licensing, Llc Wearable system for predicting about-to-eat moments

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHANG, Jiawei et al.,Manifold: A Model-Agnostic Framework for Interpretation and Diagnosis of Machine Learning Models,2018年08月01日,pp.1-10,https://arxiv.org/abs/1808.00196

Also Published As

Publication number Publication date
JPWO2020255414A1 (ja) 2020-12-24
WO2020255414A1 (ja) 2020-12-24
US20220327394A1 (en) 2022-10-13

Similar Documents

Publication Publication Date Title
US10311368B2 (en) Analytic system for graphical interpretability of and improvement of machine learning models
Nolle et al. Analyzing business process anomalies using autoencoders
US20200401939A1 (en) Systems and methods for preparing data for use by machine learning algorithms
Lee et al. A data-driven approach to selection of critical process steps in the semiconductor manufacturing process considering missing and imbalanced data
Boucher et al. Software metrics thresholds calculation techniques to predict fault-proneness: An empirical comparison
Li et al. Pyodds: An end-to-end outlier detection system with automated machine learning
JP7207540B2 (ja) 学習支援装置、学習支援方法、及びプログラム
US11562262B2 (en) Model variable candidate generation device and method
KR20050007306A (ko) 혼합형 수치 및/또는 비수치 데이터의 처리
Nair et al. Covariate shift: A review and analysis on classifiers
US20190311258A1 (en) Data dependent model initialization
US11748448B2 (en) Systems and techniques to monitor text data quality
US20220076157A1 (en) Data analysis system using artificial intelligence
CN112016097A (zh) 一种预测网络安全漏洞被利用时间的方法
Neutatz et al. Data Cleaning and AutoML: Would an optimizer choose to clean?
Suleman et al. Google play store app ranking prediction using machine learning algorithm
Liefooghe et al. Dominance, indicator and decomposition based search for multi-objective QAP: landscape analysis and automated algorithm selection
JP2023145767A (ja) 語彙抽出支援システムおよび語彙抽出支援方法
US20230206134A1 (en) Rank Distillation for Training Supervised Machine Learning Models
Lu et al. Multi-class malware classification using deep residual network with Non-SoftMax classifier
Johnpaul et al. Representational primitives using trend based global features for time series classification
Silva et al. Systematic analysis of the impact of label noise correction on ML Fairness
Ingle et al. Software Quality Analysis with Clustering Method
Grbovic et al. A boosting method for process fault detection with detection delay reduction and label denoising
US20210182881A1 (en) Automated confounded audience resolution system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221219

R151 Written notification of patent or utility model registration

Ref document number: 7207540

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151