JP7495008B2 - 情報提示プログラム、情報提示方法および情報提示装置 - Google Patents

情報提示プログラム、情報提示方法および情報提示装置 Download PDF

Info

Publication number
JP7495008B2
JP7495008B2 JP2023510027A JP2023510027A JP7495008B2 JP 7495008 B2 JP7495008 B2 JP 7495008B2 JP 2023510027 A JP2023510027 A JP 2023510027A JP 2023510027 A JP2023510027 A JP 2023510027A JP 7495008 B2 JP7495008 B2 JP 7495008B2
Authority
JP
Japan
Prior art keywords
hypothesis
hypotheses
learning
common
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023510027A
Other languages
English (en)
Other versions
JPWO2022208734A1 (ja
JPWO2022208734A5 (ja
Inventor
佑介 小▲柳▼
健人 上村
耕太郎 大堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2022208734A1 publication Critical patent/JPWO2022208734A1/ja
Publication of JPWO2022208734A5 publication Critical patent/JPWO2022208734A5/ja
Application granted granted Critical
Publication of JP7495008B2 publication Critical patent/JP7495008B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/045Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、情報提示プログラム等に関する。
機械学習によって、データから有用な知見を発見することが求められている。従来技術では、完璧な機械学習を行うことが難しいため、複数の学習モデルを生成して、ユーザに提示している。
図20は、従来技術を説明するための図である。従来技術では、データを基にして機械学習(Wide Learning)を実行する場合に、パラメータ、乱数シード、前処理を調整することで、複数の学習モデルを生成し、ユーザに提示する。ユーザは、提示された複数の学習モデルの仮説セットを基にして、学習モデル全体の共通点や差異を把握し、有用な知見を発見するための学習モデルを選択することになる。
図21は、学習モデルの仮説セットの一例を示す図である。学習モデルの仮説セットは、学習モデルの出力結果を説明するための情報であり、たとえば、仮説および重みを有する。仮説は、複数の属性の組で示される。重みは、該当する仮説が、どの程度、学習モデルの出力結果に影響を与えるのかを示す。重みが正の値の場合には、重みが大きいほど、該当する仮説が「Ture」と判定される場合に、より影響を与えた仮説であることを示す。重みが負の値の場合には、重みが小さいほど、該当する仮説が「FALSE」と判定される場合に、より影響を与えた仮説であることを示す。
図21において、仮説セット1-1を、比較対象の一方の学習モデル(第1学習モデル)の仮説セットとし、仮説セット1-2を、他方の学習モデル(第2学習モデル)の仮説セットとする。図21に示す例では、仮説セット1-1の各仮説と、仮説セット8-2の各仮説のうち、仮説「属性D1-2∧属性F1-1∧属性F1-2」等の一部の仮説について、共通しているものの、大部分の仮説について共通していない。
図22は、各仮説セットの仮説と重さとの関係を示す図である。図22の縦軸は、第1学習モデルの仮説の重さを示す軸である。横軸は、第2学習モデルの仮説の重さを示す軸である。たとえば、図22のグラフにおいて、プロットされた複数のポイントのうち、ポイントP1は、仮説セット8-1の仮説「属性A1-1∧属性B1-1∧属性C1-1」に対応する。ポイントP2は、仮説セット8-2の仮説「属性G1-1」に対応する。ポイントP3は、仮説セット8-1,8-2で共通する仮説「属性D1-2∧属性F1-1∧属性F1-2」に対応する。その他のポイントに関する説明を省略する。
図21、図22に示すように、複数の学習モデルの仮説セットを比較しても、大部分の仮説が一致しないため、ユーザ自身が、複数の学習モデルの仮説セットを参照しても、学習モデル間の関係を判断することは難しい。
このため、従来技術では、全ての学習モデルの集合から、目的関数の降順に上位K個の学習モデルを列挙する対応を行っている。
Satoshi Hara, Takanori Maehara "Enumerate Lasso Solutions for Feature Selection" AAAI-17 Satoshi Hara, Masakazu Ishihata "Approximate and Exact Enumeration of Rule Models" AAAI-18
しかしながら、上位K個の学習モデルに含まれる知見に偏りが存在する場合、従来技術のように、上位K個の学習モデルを列挙すると、知見の網羅性が低くなる。
図23は、従来技術の問題点を説明するための図である。図23に示す空間7では、学習モデルが類似しているほど近くに配置されるものとする。たとえば、複数の学習モデル6-1~6-13のうち、上位K個の学習モデルを、学習モデル6-1,6-2,6-3,6-5,6-7とする。そうすると、従来技術では、学習モデル6-1,6-2,6-3,6-5,6-7が列挙され、他の学習モデル6-4,6-6,6-8~6-13が列挙されず、領域7aの知見を得ることができなくなる。
図23で説明したように、目的関数の降順に上位K個の学習モデルを列挙すると、類似した学習モデルを列挙する恐れがあり、有用な知見を発見するための学習モデルを選択することが困難となる。
また、図21及び図22で説明したように、ユーザ自身が、学習モデルの仮説セットを比較して、類似する学習モデルの共通点や差異を把握することも難しく、上位K個の学習モデルの仮説セットであっても、大部分の仮説が一致しない場合が多い。
すなわち、複雑化した学習モデル同士の比較を容易に行うことが求められている。
1つの側面では、本発明は、複雑化した学習モデル同士の比較を容易に行うことができる情報提示プログラム、情報提示方法および情報提示装置を提供することを目的とする。
第1の案では、コンピュータに次の処理を実行させる。コンピュータは、学習データを用いた機械学習を実行することで、複数の学習モデルを生成する。コンピュータは、複数の学習モデルそれぞれから抽出された、それぞれが1以上の説明変数の組み合わせで規定される複数の仮説について、共通する仮説と、差分となる仮説との関係を階層構造で表す階層情報を生成する。
複雑化した学習モデル同士の比較を容易にすることができる。
図1は、本実施例に係る情報提示装置の処理を説明するための図である。 図2は、本実施例に係る情報提示装置が実行する類似度判定の処理を説明するための図(1)である。 図3は、本実施例に係る情報提示装置が実行する類似度判定の処理を説明するための図(2)である。 図4は、本実施例に係る情報提示装置が実行する類似度判定の処理を説明するための図(3)である。 図5は、本実施例に係る情報提示装置が実行する類似度判定の処理を説明するための図(4)である。 図6は、本実施例に係る情報提示装置の構成を示す機能ブロック図である。 図7は、学習データのデータ構造の一例を示す図である。 図8は、仮説データベースのデータ構造の一例を示す図である。 図9は、共通仮説セットテーブルのデータ構造の一例を示す図である。 図10は、共通する仮説セットを特定する処理手順を示すフローチャートである。 図11は、仮説セット間で矛盾する仮説を除外する処理を説明するための図である。 図12は、仮説セット間で共通する仮説を生成する処理を説明するための図である。 図13は、共通する仮説セットに対する学習モデルの関係を示す図である。 図14は、仮説の重みを考慮した結論部を更新する処理を説明するための図である。 図15は、本実施例に係る情報提示装置の処理手順を示すフローチャートである。 図16は、類似度算出処理の処理手順を示すフローチャート(1)である。 図17は、学習モデル間の重みの累積値の散布図の一例を示す図である。 図18は、類似度算出処理の処理手順を示すフローチャート(2)である。 図19は、実施例の情報提示装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。 図20は、従来技術を説明するための図である。 図21は、学習モデルの仮説セットの一例を示す図である。 図22は、各仮説セットの仮説と重さとの関係を示す図である。 図23は、従来技術の問題点を説明するための図である。
以下に、本願の開示する情報提示プログラム、情報提示方法および情報提示装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
本実施例に係る情報提示装置の処理の一例について説明する。図1は、本実施例に係る情報提示装置の処理を説明するための図である。情報提示装置は、学習データを用いた機械学習を実行することで、複数の学習モデルM1,M2,M3,M4,・・・Mnを生成する。以下の説明では適宜、複数の学習モデルM1~Mnをまとめて、「学習モデルM」と表記する。
情報提示装置は、学習モデルMから仮説セットを取得する。学習モデルMの仮説セットは、学習モデルMの出力結果を説明する情報となる。図1に示す例では、学習モデルM1の仮説セットH1には、仮説hy1,hy2,hy3,hy4,hy5が含まれる。学習モデルM2の仮説セットH2には、仮説hy1,hy2,hy3,hy4,hy6が含まれる。学習モデルM3の仮説セットH3には、仮説hy1,hy2,hy3,hy4,hy7が含まれる。
学習モデルM4の仮説セットH4には、仮説hy1,hy2,hy8,hy9が含まれる。学習モデルMnの仮説セットHnには、仮説hy1,hy2,hy8,hy10,hy12が含まれる。他の学習モデルMの仮説セットの説明を省略する。
情報提示装置は、学習モデルMの仮説セットを基にして類似度判定を実行し、学習モデルMを類似する学習モデルM同士に分類する。図1に示す例では、情報提示装置は、学習モデルM1,M2,M3を、第1グループに分類する。情報提示装置は、学習モデルM4、Mn等を、第2グループに分類する。他の学習モデルおよび他のグループに関する説明を省略する。
情報提示装置は、第1グループに属する学習モデルM1~M3の仮説セットH1~H3を比較し、共通する仮説hy1,hy2,hy3,hy4を特定する。情報提示装置は、第2グループに属する学習モデルM4、Mn等の仮説セットH4、Hn等を比較し、共通する仮説hy1,hy2,hy8を特定する。
情報提示装置は、第1グループで共通する「仮説1,hy2,hy3,hy4」と、第2グループで共通する「仮説hy1,hy2,hy8」とを比較して、第1,2グループで共通する「仮説hy1,hy2」を特定する。
情報提示装置は、上記の実行結果を基にして、共通仮説セットHc1,Hc2-1,Hc2-2と、固有仮説セットHc3-1,Hc3-2,Hc3-3,Hc3-nとを接続した階層情報を生成する。
共通仮説セットHc1は、全ての学習モデルMで共通する「仮説hy1,hy2」が含まれる。共通仮説セットHc2-1は、第1グループに属する学習モデルM1~M3で共通する仮説セットであって、共通仮説セットHc1の仮説を除いた「仮説hy3,hy4」が含まれる。共通仮説セットHc2-2は、第2グループに属する学習モデルM4、Mn等で共通する仮説セットであって、共通仮説セットHc1の仮説を除いた「仮説hy8」が含まれる。
固有仮説セットHc3-1は、学習モデルM1に含まれる仮説セットH1のうち、共通仮説セットHc1,Hc2-1の仮説を除いた学習モデルM1固有の「仮説hy5」が含まれる。固有仮説セットHc3-2は、学習モデルM2に含まれる仮説セットH2のうち、共通仮説セットHc1,Hc2-1の仮説を除いた学習モデルM2固有の「仮説hy6」が含まれる。固有仮説セットHc3-3は、学習モデルM3に含まれる仮説セットH3のうち、共通仮説セットHc1,Hc2-1の仮説を除いた学習モデルM3固有の「仮説hy7」が含まれる。
固有仮説セットHc3-4は、学習モデルM4に含まれる仮説セットH4のうち、共通仮説セットHc1,Hc2-2の仮説を除いた学習モデルM4固有の「仮説hy9」が含まれる。固有仮説セットHc3-nは、学習モデルMnに含まれる仮説セットHnのうち、共通仮説セットHc1,Hc2-2の仮説を除いた学習モデルMn固有の「仮説hy10,hy11,hy12」が含まれる。
図1で説明したように、情報提示装置は、学習モデルMそれぞれから抽出された、1以上の属性(説明変数)の組み合わせで規定される複数の仮説について、共通する仮説と、差分となる仮説との関係を階層構造で表す階層情報を生成する。ユーザが、階層情報を参照することによって、複雑化した学習モデル同士の比較を容易にすることができる。
続いて、本実施例に係る情報提示装置が、学習モデルMの仮説セットを基にして類似度判定する処理について説明する。図2は、本実施例に係る情報提示装置が実行する類似度判定の処理を説明するための図(1)である。情報提示装置は、比較が困難な学習モデル同士でも、仮説の粒度を揃えて、重さの累積値を算出することで、類似度を算出することが可能になる。
図2では、学習モデルM1の仮説セットH1-1と、学習モデルM2の仮説セットH2-1とを用いて説明する。仮説セットH1-1には、仮説hy1-1,hy1-2,hy1-3が含まれているものとする。仮説セットH2-1には、仮説hy2-1,hy2-1,hy3-1が含まれているものとする。
仮説hy1-1は、属性「当選1回」、「親族に政治家あり」、「主張_ABC法案」、「順位率_0.8未満」の組み合わせからなる仮説であり、重みが「-0.95」となる。仮説hy1-2は、属性「¬新人(新人の否定)」、「親族に政治家あり」、「主張_ABC法案」、「順位率_0.8未満」の組み合わせからなる仮説であり、重みが「-0.96」となる。仮説hy1-3は、属性「現職」、「親族に政治家あり」、「主張_ABC法案」、「順位率_0.8未満」の組み合わせからなる仮説であり、重みが「-0.85」となる。属性は、説明変数の一例である。
仮説hy1-3の各属性と、仮説hy1-1の各属性とを比較すると、仮説hy1-3の属性「現職」は、仮説hy1-1の属性「当選1回」を包含する。その他の属性は、仮説hy1-1,hy1-3とで一致するため、仮説hy1-3は、仮説hy1-1を包含する仮説となる。
仮説hy1-3の各属性と、仮説hy1-2の各属性とを比較すると、仮説hy1-3の属性「現職」は、仮説hy1-2の属性「¬新人」を包含する。その他の属性は、仮説hy1-2,hy1-3とで一致するため、仮説hy1-3は、仮説hy1-2を包含する仮説となる。
仮説hy2-1は、属性「¬新人」からなる仮説であり、重みが「0.69」となる。仮説hy2-2は、属性「主張_ABC法案」からなる仮説であり、重みが「0.81」となる。仮説hy2-3は、属性「当選1回」からなる仮説であり、重みが「0.82」となる。仮説hy2-4は、属性「順位率_0.8未満」からなる仮説であり、重みが「-0.94」となる。
図2に示す仮説セットH1-1と、仮説セットH2-1とは、仮説の粒度が揃っておらず、比較することができない。情報提示装置は、図3、図4に示すように、仮説セットH1-1と仮説セットH2-1との仮説の粒度を揃える処理を実行する。
図3は、本実施例に係る情報提示装置が実行する類似度判定の処理を説明するための図(2)である。図3では、情報提示装置は、仮説セットH1-1に、仮説セットH2-1の仮説hy2-1~hy2-4に対応する仮説hy2-1´,hy2-2´,hy2-3´,hy2-4´を追加する。情報提示装置は、仮説hy2-1´,hy2-2´,hy2-3´,hy2-4´に対応する仮説が、仮説セットH1-1に存在しないため、仮説hy2-1´,hy2-2´,hy2-3´,hy2-4´の重み(初期値)を0に設定する。
仮説hy2-1´,hy2-2´,hy2-3´,hy2-4´は、仮説hy1-1に包含される。また、仮説hy2-1´,hy2-2´,hy2-3´,hy2-4´は、仮説hy1-1に包含される。また、仮説hy1-1と、仮説hy1-2とは相互に包含関係があるものとする。
情報提示装置は、仮説hy2-1´,hy2-2´,hy2-3´,hy2-4´の重み(重みは0)を、包含先の仮説hy1-1の重みに加算する。また、情報提示装置は、仮説hy1-1と、仮説hy1-2とは相互に包含関係があるため、仮説hy1-1の重みに、仮説hy1-2の重みを加算することで、仮説hy1-1の重みを「-1.93」に更新する。
情報提示装置は、仮説hy2-1´,hy2-2´,hy2-3´,hy2-4´の重み(重みは0)を、包含先の仮説hy1-2の重みに加算する。また、情報提示装置は、仮説hy1-1と、仮説hy1-2とは相互に包含関係があるため、仮説hy1-2の重みに、仮説hy1-1の重みを加算することで、仮説hy1-2の重みを「-1.93」に更新する。
情報提示装置は、仮説hy1-1と、仮説hy1-2とが相互に包含関係にあるため、仮説hy1-1の重み、あるいは、仮説hy1-2の重みを、包含先の仮説hy1-3の重みに加算することで、仮説hy1-3の重みを「-2.78」に更新する。
情報提示装置は、図3の処理を実行して、仮説セットH1-1のベクトルV1-1を算出する。仮説セットH1-1のベクトルV1-1は、各仮説hy2-1´~hy2-4´、hy1-1~hy1-3をそれぞれ次元とし、各次元の値を、各仮説の重みとするベクトルとなる。たとえば、ベクトルV1-1=[0、0、0、0、-1.93、-1.93、-2.78]となる。
図4は、本実施例に係る情報提示装置が実行する類似度判定の処理を説明するための図(3)である。図4では、情報提示装置は、仮説セットH2-1に、仮説セット1-1の仮説hy1-1~hy1-3に対応する仮説hy1-1´,hy1-2´,hy1-3´を追加する。情報提示装置は、仮説hy1-1´,hy1-2´,hy1-3´に対応する仮説が、仮説セットH2-1に存在しないため、仮説hy1-1´,hy1-2´,hy1-3´の重み(初期値)を0に設定する。
仮説hy2-1,hy2-2,hy2-3,hy2-4は、仮説hy1-1に包含される。また、仮説hy2-1,hy2-2,hy2-3,hy2-4は、仮説hy1-1に包含される。また、仮説hy1-1と、仮説hy1-2とは相互に包含関係がある。
情報提示装置は、仮説hy1-1´と、仮説hy1-2´とは相互に包含関係があるため、仮説hy1-1´に仮説hy1-2´の重み(初期値0)を加算する。また、情報提示装置は、仮説hy2-1,hy2-2,hy2-3,hy2-4の重み(初期値)を、包含先の仮説hy1-1´の重みに加算することで、仮説hy1-1´の重みを「1.39」に更新する。
情報提示装置は、仮説hy1-1´と、仮説hy1-2´とは相互に包含関係があるため、仮説hy1-2´に仮説hy1-1´の重み(初期値0)を加算する。また、情報提示装置は、仮説hy2-1,hy2-2,hy2-3,hy2-4の重み(初期値)を、包含先の仮説hy1-2´の重みに加算することで、仮説hy1-2´の重みを「1.39」に更新する。
情報提示装置は、仮説hy1-1´と、仮説hy1-2´とが相互に包含関係にあるため、仮説hy1-1´の重み、あるいは、仮説hy1-2´の重みを、包含先の仮説hy1-3´の重みに加算することで、仮説hy1-3´の重みを「1.39」に更新する。
情報提示装置は、図4の処理を実行して、仮説セットH2-1のベクトルV2-1を算出する。仮説セットH2-1のベクトルV2-1は、各仮説hy2-1~hy2-4、hy1-1´~hy1-3´をそれぞれ次元とし、各次元の値を、各仮説の重みとするベクトルとなる。たとえば、ベクトルV2-1=[0.69、0.81、0.82、-0.94、1.39、1.39、1.39]となる。
図5は、本実施例に係る情報提示装置が実行する類似度判定の処理を説明するための図(4)である。情報提示装置は、仮説セットH1-1のベクトルV1-1と、仮説セットH2-1のベクトルV2-1とを比較して、仮説セットH1-1と、仮説セットH1-2との類似度を算出する。図2~図5で説明したように、情報提示装置は、仮説の粒度を揃えて、重さの累積値を算出し、ベクトルの各次元の値として用いることで、類似度を算出することが可能となる。情報提示装置は、学習モデルMの全ての組み合わせについて、類似度を算出する処理を実行することで、学習モデルMの類似度を算出する。情報提示装置は、類似度が閾値以上となる学習モデルを同一のグループに分類し、図1で説明した処理を実行する。
次に、本実施例に係る情報提示装置の構成の一例について説明する。図6は、本実施例に係る情報提示装置の構成を示す機能ブロック図である。図6に示すように、この情報提示装置100は、通信部110と、入力部120と、表示部130と、記憶部140と、制御部150とを有する。
通信部110は、有線又は無線で外部装置等に接続され、外部装置等との間で情報の送受信を行う。たとえば、通信部110は、NIC(Network Interface Card)等によって実現される。通信部110は、図示しないネットワークに接続されていてもよい。
入力部120は、各種の情報を、情報提示装置100に入力する入力装置である。入力部120は、キーボードやマウス、タッチパネル等に対応する。
表示部130は、制御部150から出力される情報を表示する表示装置である。表示部130は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、タッチパネル等に対応する。
記憶部140は、学習データ141と、学習モデルテーブル142と、仮説データベース143と、共通仮説セットテーブル144と、階層情報145とを有する。記憶部140は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。
学習データ141は、仮説と、この仮説に対応するラベルとを対応付けたデータである。図7は、学習データのデータ構造の一例を示す図である。図7に示すように、この学習データ141は、項番と、仮説と、ラベルとを対応付ける。項番は、各仮説を識別する番号である。仮説は、複数の属性の組み合わせを示すものであり、例えば、各属性は、AND条件等によって関連付けられる。属性は、説明変数に対応する。ラベルは、仮説に対応する正解ラベルであり、「Ture」または「False」が設定される。
学習モデルテーブル142は、複数の学習モデルMを保持するテーブルである。学習モデルは、学習部151によって生成される。学習モデルテーブル142のデータ構造の説明は省略する。
仮説データベース143は、学習モデルMから抽出される仮説セットを保持するテーブルである。図8は、仮説データベースのデータ構造の一例を示す図である。図8に示すように、この仮説データベース143は、識別情報と、仮説セットと、重みとを対応付ける。識別情報は、学習モデルMを識別する情報である。仮説セットは、学習モデルを説明するための情報であり、学習モデルから抽出される。仮説セットには、複数の仮説が含まれる。仮説は、1つ以上の属性(説明変数)によって表現される。重みは、各仮説に設定される重みである。
共通仮説セットテーブル144は、各学習モデルの仮説セットのうち、共通する仮説セットを保持するテーブルである。図9は、共通仮説セットテーブルのデータ構造の一例を示す図である。図9に示すように、共通仮説セットテーブル144は、比較識別情報と、共通仮説セットとを有する。比較識別情報は、比較対象とする学習モデルMの組を識別する情報である。共通仮説セットは、比較した各学習モデルMの仮説セットにおいて、共通する仮説セット(1以上の仮説)を示す。
階層情報145は、学習モデルMの仮説セットにおいて、共通する仮説を示す共通仮説セットと、差分となる仮説を示す固有仮説セットとを階層的に接続した情報を示す。たとえば、階層情報145は、図1で説明した共通仮説セットHc1,Hc2-1,Hc2-2、固有仮説セットHc3-1~Hc3-nに対応する。なお、以下の説明では、適宜、共通仮説セットを、仮説セットHcommonと表記する。
制御部150は、学習部151と、分類部152と、生成部153を有する。制御部150は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などによって実現できる。また、制御部150は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによっても実現できる。
学習部151は、学習データ141を基にして、機械学習を実行することで、学習モデルMを生成する。学習部151は、機械学習を実行する場合に、学習モデルMのパラメータ、乱数シード、前処理等を変更することによって、複数の学習モデルMを生成する。学習部151は、生成した複数の学習モデルMを、学習モデルテーブル142に登録する。
たとえば、学習部151は、特許文献(特開2020-46888)等に記載された技術を基にして、機械学習を実行してもよいし、他の従来技術を用いて、機械学習を実行してもよい。機械学習によって生成された学習モデルMには、かかる学習モデルMの出力結果を説明するための仮説セットが含まれており、各仮説にはそれぞれ重みが設定される。なお、学習部151は、図示しない複数の学習データを更に用いて、異なる学習モデルMを生成してもよい。
分類部152は、複数の学習モデルMを類似度に応じて複数のグループに分類する。同一のグループに属する学習モデルは、相互に類似しているものとする。分類部152は、学習モデルMの分類結果を、生成部153に出力する。以下において、分類部152の処理の一例について説明する。たとえば、分類部152は、仮説データベースを生成する処理、学習モデルの類似度を特定する処理、学習モデルを分類する処理を実行する。
分類部152が仮説データベース143を生成する処理について説明する。分類部152は、学習モデルテーブル142に登録された学習モデルMから、学習モデルMの仮説セットと、この仮説セットに含まれる重みとを抽出し、仮説データベース143に登録する。分類部152は、仮説セットと、重みとを仮説データベース143に登録する場合に、学習モデルMの識別情報と対応付ける。分類部152は、各学習モデルMについて上記処理を繰り返し実行する。
分類部152が学習モデルの類似度を特定する処理について説明する。分類部152が、類似度を特定する処理は、上述した図2~図5で説明した処理に対応する。分類部152は、類似度の比較を行う学習モデルを選択する。たとえば、分類部152は、識別情報「M1」の学習モデルM1と、識別情報「M2」の学習モデルM2とを選択した場合について説明する。
分類部152は、仮説データベース143を基にして、学習モデルM1の仮説セットと、学習モデルM1の仮説セットとを比較する。便宜的に、学習モデルM1の仮説セットを第1仮説セットと表記し、学習モデルM2の仮説セットを第2仮説セットと表記する。
分類部152は、第2仮説セットに存在する仮説であって、第1仮説セットに存在しない仮説を、第1仮説セットに追加する。分類部152は、第1仮説セットに存在する仮説であって、第2仮説セットに存在しない仮説を、第2仮説セットに追加する。分類部152が、かかる処理を実行することで、第1仮説セットの仮説の粒度と、第2仮説セットの仮説の粒度とを揃える。
分類部152は、第1仮説セットおよび第2仮説セットについて、仮説の粒度を揃えた後に、仮説の包含関係を判定する。分類部152は、どのように包含関係を判定してもよいが、たとえば、各属性に関する包含関係を定義したテーブルを基にして、各仮説の包含関係を判定する。かかるテーブルでは、「当選1回」、「¬新人」が、「現職」に包含される等の情報が定義される。
分類部152は、第1仮説セットおよび第2仮説セットについて、仮説の包含関係を基にして、仮説に設定された重みの累積値を算出することで、各仮説に重みを割り当てる。分類部152が、累積値を算出して、重みを算出し、各仮説の重みを割り当てる処理は、図4、図5で説明した処理に対応する。
分類部152は、第1仮説セットの各仮説をそれぞれ次元とし、各次元の値を各仮説の累積値とする第1ベクトルを特定する。分類部152は、第2仮説セットの各仮説をそれぞれ次元とし、各次元の値を各仮説の累積値とする第2ベクトルを特定する。分類部152は、第1ベクトルと第2ベクトルとの距離を類似度として特定する。
分類部152は、全ての学習モデルMの組み合わせについて上記処理を繰り返し実行することで、各学習モデル同士の類似度を特定する。
分類部152が学習モデルを分類する処理について説明する。学習部151は、上記の処理を実行することで、学習モデル同士の類似度を特定し、類似度が閾値以上となる学習モデル同士を同一のグループに分類する。たとえば、分類部152は、学習モデルM1と、学習モデルM2との類似度が閾値以上となり、学習モデルM2と、学習モデルM3との類似度が閾値以上となる場合には、学習モデルM1,M2,M3を同一のグループに分類する。分類部152は、上記の処理を実行することで、複数の学習モデルを、複数のグループに分類し、分類結果を、生成部153に出力する。
ここで、分類部152が仮説の粒度を揃えるために、各仮説セットに追加した仮説は、分類部152がベクトルを生成する場合にのみ利用されるものであり、以下で説明する生成部153では用いられないものとする。
生成部153は、図1で説明した処理を実行することで、共通仮説セット(たとえば、共通仮説セットHc1,Hc2-1,Hc2-2、固有仮説セット(たとえば、固有仮説セットHc3-1~Hc3-n)を階層的に接続した階層情報145を生成する。生成部153は、階層情報145を、表示部130に出力して表示させてもよいし、ネットワークに接続された外部装置に階層情報145を送信してもよい。
生成部153は、図1で説明したように、同一のグループに分類された学習モデルMの仮説セットの比較を行って、同一のグループにおける共通仮説セットを特定する。また、生成部153は、各グループの共通仮説セットの比較を行って、異なるグループ間の共通仮説セットを特定するものとする。
ここで、生成部153が、共通する仮説セットを特定する処理手順の一例について説明する。図10は、共通する仮説セットを特定する処理手順を示すフローチャートである。図10では一例として、学習モデルMnの仮説セットHと、他の学習モデルMの仮説セットとで共通する共通仮説セットを特定する場合について説明する。
情報提示装置100の生成部153は、仮説データベース143から、学習モデルMnの仮説セットHを取得する(ステップS10)。生成部153は、仮説データベース143から、学習モデルMの一覧を取得する(ステップS11)。
生成部153は、学習モデルMの一覧のうち、未判定の学習モデルMの仮説セットHを取得する(ステップS12)。生成部153は、仮説セットHと仮説セットHとの間で矛盾する仮説を除外する(ステップS13)。ここでは、矛盾する仮説を除外した仮説セットHと仮説セットHをそれぞれ、仮説セットH´と仮説セットH´と表記する。
生成部153は、仮説セットH´と仮説セットH´とで共通する仮説セットHcommonを生成する(ステップS14)。生成部153は、仮説セットHcommonをもつ学習モデルの情報を共通仮説セットテーブル144に登録し、仮説セットHcommonに対応する学習モデルの関係を記録する(ステップS15)。
生成部153は、一覧に含まれる全ての学習モデルMに対して処理を実行していない場合には(ステップS16,No)、ステップS12に移行する。生成部153は、一覧に含まれる全ての学習モデルMに対して処理を実行した場合には(ステップS16,Yes)、処理を終了する。
ここで、図10のステップS13で説明した仮説セット間で矛盾する仮説を除外する処理の一例について説明する。図11は、仮説セット間で矛盾する仮説を除外する処理を説明するための図である。たとえば、生成部153は、「矛盾判定」を次のように実行する。生成部153は、二つの仮説「H1:C1→R1」、「H2:C2→R2」に対し、条件部が包含関係「C1⊃C2∨C1⊂C2」にあり、かつ、結論部が排他関係「R1∨R2→φ」にある場合、H1とH2とが矛盾している(True)と判定する。
図11では、学習モデルMnの仮説セットHと、学習モデルM1の仮説セットHとを用いて説明を行う。
学習モデルMnの仮説セットHには、仮説{Hn,1,Hn,2,Hn,3,Hn,4,Hn,5}が含まれるものとする。各仮説は、以下に示すものとする。各仮説のA、B、C、D、E、Fは、属性(説明変数)の一例である。
n,1:A→Ture
n,2:B∧F→Ture
n,3:C→Ture
n,4:D→False
n,5:E→Ture
学習モデルM1の仮説セットHには、仮説{H1,1,H1,2,H1,3,H1,4,H1,5}が含まれるものとする。各仮説は、以下に示すものとする。各仮説のA、B、C、D、E、Fは、属性(説明変数)の一例である。
1,1:A→Ture
1,2:B→Ture
1,3:C∧D→Ture
1,4:E→False
生成部153は、上記の矛盾判定を実行すると、仮説セットHのHn,4と、仮説セットHのH1,3とが矛盾していると判定する。また、生成部153は、仮説セットHのHn,5と、仮説セットHのH1,4とが矛盾していると判定する。
生成部153は、矛盾判定の結果を基にして、仮説セットHから、矛盾するHn,4,Hn,5を除外することで、仮説セットH´を生成する。生成部153は、矛盾判定の結果を基にして、仮説セットHから、矛盾するH1,4,H1,5を除外することで、仮説セットH´を生成する。
続いて、図10のステップS14で説明した仮説セット間で共通する仮説を生成する処理の一例について説明する。図12は、仮説セット間で共通する仮説を生成する処理を説明するための図である。たとえば、生成部153は、「共通仮説生成」を次のように実行する。生成部153は、二つの仮説「H1:C1→R1」、「H2:C2→R2」に対し、条件部が包含関係「C1⊃C2∨C1⊂C2」にあるか否かを判定する。生成部153は、条件部が包含関係にある場合、条件部の共通部分を「Cc=C1∧C2」とし、結論部の共通部分を「Rc=R1∧R2」として、「Cc→Rc」を共通の仮説とする。
図12では、学習モデルMnの仮説セットH´(矛盾する仮説を取り除いた仮説セットH)と、学習モデルM1の仮説セットH´(矛盾する仮説を取り除いた仮説セットH)とを用いて説明を行う。
学習モデルMnの仮説セットH´には、仮説{Hn,1,Hn,2,Hn,3}が含まれるものとする。学習モデルM1の仮説セットH´には、仮説{H1,1,H1,2,H1,3}が含まれるものとする。
生成部153は、仮説セットH´の仮説Hn,1と、仮説セットH´のH1,1とが一致するため、共通仮説「Hc,1:A→True」を生成する。
生成部153は、仮説セットH´の仮説Hn,2と、仮説セットH´の仮説H1,2とに対する共通仮説生成について説明する。生成部153は、仮説Hn,2の条件部「B∧F」と、仮説H1,2の条件部「B」とが包含関係「B∧F⊃B∨B∧F⊂B」にある。このため、生成部153は、条件部の共通部「Cc=(B)∧(B∧F)」=「Cc=B∧B∧F」=「Cc=B∧F」を生成する。生成部153は、結論部の共通部「True」を生成する。上記の処理により、生成部153は、仮説Hn,2と、仮説H1,2と共通仮説「B∧F→True」を生成する。
生成部153が、上記の処理を実行することで、学習モデルMnの仮説セットH´と、学習モデルM1の仮説セットH´とで共通する仮説セットHcommonを生成する。たとえば、共通する仮説セットHcommonには、仮説{Hc,1,Hc,2}が含まれる。各仮説は、次に示すものとする。
c,1:A→True
c,2:B∧F→True
生成部153は、図12で行った処理の結果を基にして、共通する仮説セットHcommonに対応する学習モデルの関係を記録する。
図13は、共通する仮説セットに対する学習モデルの関係を示す図である。図13で示す例では、学習モデルM1に対応する仮説セットHと、学習モデルMnに対応する仮説セットHとで共通する仮説セットHcommonを示している。生成部153は、図13で示した、共通する仮説セットに対する学習モデルの関係を、記憶部140の共通仮説セットテーブル144に登録する。たとえば、生成部153は、比較した学習モデルMの識別情報の組と、共通する仮説セットHcommonとを対応付けて、共通仮説セットテーブル144に登録する。
ところで、生成部153は、仮説セットに含まれる仮説に重みが設定されている場合には、包含関係にある仮説の重みを考慮して、仮説の結論部を更新する。図14は、仮説の重みを考慮した結論部を更新する処理を説明するための図である。図14に示す例では、学習モデルMnの仮説セットHを用いて説明する。仮説{Hn,1,Hn,2,Hn,3,Hn,4,Hn,5}が含まれるものとする。各仮説は、以下に示すものとする。Hn,1,Hn,2,Hn,3,Hn,4,Hn,5の重みをそれぞれ、0.2,0.3,0.4,-0.3,0.2とする。
n,1:A→Ture(重み:0.2)
n,2:B∧F→Ture(重み:0.3)
n,3:C→Ture(重み:0.4)
n,4:D→False(重み:-0.3)
n,5:E→Ture(重み:0.2)
ここで、仮説Hn,3は、仮説Hn,4および仮説Hn,5に包含されるものとする。この場合には、生成部153は、仮説Hn,3の重み「0.4」を、包含先の仮説Hn,4の重み「-0.3」に加算することで、仮説Hn,4の重みを「0.1」に更新する。また、仮説Hn,4の重みが負の値から正の値に変化したため、仮説Hn,4の結論部を「Ture」に更新する。
生成部153は、仮説Hn,3の重み「0.4」を、包含先の仮説Hn,5の重み「0.2」に加算することで、仮説Hn,5の重みを「0.6」に更新する。また、仮説Hn,5の重みが正の値から変化しないため、仮説Hn,5の結論部を「Ture」のままにする。
生成部153が、上記処理を実行することで、同一のグループに属する各学習モデルの仮説セットで共通する仮説セットを特定する処理を繰り返し実行する。同様にして、生成部153は、各グループの仮説セットを基にして、各グループの仮説セットで共通する仮説セットを特定する。生成部153が、かかる処理を実行することで、たとえば、図1で説明した共通仮説セットHc1,Hc2-1,Hc2-2と、固有仮説セットHc3-1,Hc3-2,Hc3-3,Hc3-nを特定する。また、生成部153は、共通仮説セットHc1,Hc2-1,Hc2-2と、固有仮説セットHc3-1,Hc3-2,Hc3-3,Hc3-nを階層的に接続した階層情報145を生成する。
次に、本実施例に係る情報提示装置100の処理手順について説明する。図15は、本実施例に係る情報提示装置の処理手順を示すフローチャートである。図15に示すように、情報提示装置100の学習部151は、学習データ141を基にして、複数の学習モデルMを生成し、学習モデルテーブル142に登録する(ステップS101)。
情報提示装置100の分類部152は、学習モデルテーブル142の学習モデルMから仮説セットおよび仮説の重みを抽出し、仮説データベース143に登録する(ステップS102)。分類部152は、類似度処理を実行する(ステップS103)。
分類部152は、各学習モデルMの類似度を基にして、学習モデルを複数のグループに分類する(ステップS104)。情報提示装置100の生成部153は、共通仮説特定処理を実行する(ステップS105)。
生成部153は、共通仮説特定処理の結果を基にして、階層情報145を生成する(ステップS106)。生成部153は、階層情報145を、表示部130に出力する(ステップS107)。
次に、図15のステップS103に示した類似度算出処理の処理手順の一例について説明する。図16は、類似度算出処理の処理手順を示すフローチャート(1)である。
図16に示すように、情報提示装置100の分類部152は、比較対象の学習モデルMの仮説セットの粒度を揃える(ステップS201)。分類部152は、比較対象の学習モデルMの仮説セットに含まれる仮説の条件部を全て列挙する(ステップS202)。
分類部152は、列挙された仮説の条件部の間の包含関係を判定する(ステップS203)。分類部152は、学習モデルM毎に、各仮説の重みの累積値を算出し、ベクトルを特定する(ステップS204)。
分類部152は、各学習モデルMのベクトルを基にして、類似度を算出する(ステップS205)。
なお、図15のステップS105に示した共通仮説特定処理の処理手順は、図10で説明した処理手順に対応する。
次に、図16等で分類部が算出した重みの累積値に関する散布図の一例について説明する。図17は、学習モデル間の重みの累積値の散布図の一例を示す図である。図17において、学習モデルMnと、学習モデルMnとの散布図を、散布図(n,m)とする。散布図(n,m)の縦軸は、学習モデルMnの仮説の累積値を示す軸である。散布図(n,m)の横軸は、学習モデルMmの仮説の累積値を示す軸である。
図17において、類似度が閾値以上となるような学習モデルMの組の散布図は、散布図(1,2)に示すような散布図となる。すなわち、学習モデルM1と、学習モデルM2とは類似する学習モデルとなる。なお、散布図(1、3),(2、3),(4,3),(5,3)に示すように、累積値の正負が、各学習モデルで異なる場合もあり得る。
次に、本実施例に係る情報提示装置100の効果について説明する。情報提示装置100は、学習データ141を用いた機械学習を実行することで、複数の学習モデルMを生成する。情報提示装置100は、複数の学習モデルそれぞれから抽出された、それぞれが1以上の説明変数の組み合わせで規定される複数の仮説について、共通する仮説と、差分となる仮説との関係を階層構造で表す階層情報145を生成する。ユーザが、かかる階層情報145を参照することで、複数の学習モデルMから、複数の学習モデルMの仮説の共通性、差異を見ることが可能となり、複雑化した学習モデル同士の比較を容易にすることができる。
情報提示装置100は、比較対象の一方の学習モデルの仮説セット及び他方の学習モデルの仮説セットで共通する共通仮説と、差分となる差分仮説とを特定し、差分仮説の上層に、共通仮説を配置することで階層情報145を生成する。共通仮説は、図1の共通仮説セットに対応し、差分仮説は、図1の固有仮説セットに対応する。情報提示装置100が上記の処理を実行することで、ユーザは、学習モデルM間で共通する仮説と、学習モデルM固有の仮説とを容易に把握することができる。
情報提示装置100は、学習モデルMから抽出される仮説セットを基にして、学習モデルの類似度を特定し、特定した類似度を基にして、複数の学習モデルを複数のグループに分類する。情報提示装置100は、分類結果を基にして、共通仮説および差分仮説を特定する。これによって、類似した学習モデルの仮説セットに基づく、共通仮説、差分仮説を特定することができる。
情報提示装置100は、比較対象の各学習モデルMの仮説セットの仮説の粒度を揃え、仮説セットの累積値を基にして、比較対象の各学習モデルMの類似度を特定する。これによって、比較対象の学習モデルの仮説が完全に対応いていなくても、各学習モデルMの類似度を特定することができる。
なお、分類部152が実行する類似度算出処理の処理手順は、図16の処理手順に限定されるものではなく、たとえば、図18に示す類似度算出処理を実行してもよい。
図18は、類似度算出処理の処理手順を示すフローチャート(2)である。情報提示装置100の分類部152は、図18に示すように、情報提示装置100の分類部152は、比較対象の学習モデルMの仮説セットの粒度を揃える(ステップS301)。分類部152は、比較対象の学習モデルMの仮説セットに含まれる仮説の条件部を全て列挙する(ステップS302)。
分類部152は、列挙された仮説の間の重複割合を算出する(ステップS303)。ステップS303の処理において、分類部152は、粒度を合わせるための追加した仮説を除いて、重複割合を算出してもよい。
分類部152は、列挙された仮説の条件部の間の包含関係を判定する(ステップS304)。分類部152は、学習モデルM毎に、各仮説の重みの累積値を算出し、累積値に重複割合を乗算することで、累積値を補正する(ステップS305)。
分類部152は、補正した累積値によって、各学習モデルのベクトルを特定する(ステップS306)。分類部152は、各学習モデルMのベクトルを基にして、類似度を算出する(ステップS307)。
図18で説明したように、情報提示装置100の分類部152は、比較対象となる学習モデルMの重複割合を基にして、累積値を補正し、ベクトルを算出する。これによって、比較対象となる学習モデルMのベクトルが、学習モデルMの仮説セットの重複割合によって調整されるため、各学習モデルMの類似度をより正確に算出することができる。
また、上述した情報提示装置100の分類部152は、比較対象の学習モデルMの仮説セットの粒度を揃えて、学習モデルのベクトルを算出していたが、これに限定されるものではない。たとえば、分類部152は、比較対象の学習モデルMの仮説セットを比較して、共起する仮説を特定し、特定した仮説のみを用いて、ベクトルを算出し、学習モデルMの類似度を特定してもよい。これによって、仮説の粒度を揃える処理がスキップされるため、処理を簡略化しつつ、類似する学習モデルMを特定することができる。
次に、上記実施例に示した情報提示装置100と同様の機能を実現するコンピュータのハードウェア構成の一例について説明する。図19は、実施例の情報提示装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
図19に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ディスプレイ203とを有する。また、コンピュータ200は、有線または無線ネットワークを介して、外部装置等との間でデータの授受を行う通信装置204と、インタフェース装置205とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM206と、ハードディスク装置207とを有する。そして、各装置201~207は、バス208に接続される。
ハードディスク装置207は、学習プログラム207a、分類プログラム207b、生成プログラム207cを有する。また、CPU201は、各プログラム207a~207cを読み出してRAM206に展開する。
学習プログラム207aは、学習プロセス206aとして機能する。分類プログラム207bは、分類プロセス206bとして機能する。生成プログラム207cは、生成プロセス206cとして機能する。
学習プロセス206aの処理は、学習部151の処理に対応する。分類プロセス206bの処理は、分類部152の処理に対応する。生成プロセス206cの処理は、生成部153の処理に対応する。
なお、各プログラム207a~207cについては、必ずしも最初からハードディスク装置207に記憶させておかなくても良い。たとえば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD-ROM、DVD、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ200が各プログラム207a~207cを読み出して実行するようにしてもよい。
100 情報提示装置
110 通信部
120 入力部
130 表示部
140 記憶部
141 学習データ
142 学習モデルテーブル
143 仮説データベース
144 共通仮説セットテーブル
145 階層情報
150 制御部
151 学習部
152 分類部
153 生成部

Claims (7)

  1. コンピュータに、
    学習データを用いた機械学習を実行することで、複数の学習モデルを生成し、
    前記複数の学習モデルそれぞれから抽出された、それぞれが1以上の説明変数の組み合わせで規定される複数の仮説について、共通する仮説と、差分となる仮説との関係を階層構造で表す階層情報を生成する
    処理を実行させることを特徴とする情報提示プログラム。
  2. 前記生成する処理は、第1の学習モデルから抽出された複数の第1の仮説及び第2の学習モデルから抽出された複数の第2の仮説で共通する仮説を示す共通仮説と、前記複数の第1の仮説及び前記複数の第2の仮説で異なる仮説を示す差分仮説とを特定し、前記差分仮説の上層に、前記共通仮説を配置することで前記階層情報を生成することを特徴とする請求項1に記載の情報提示プログラム。
  3. 前記複数の学習モデルから抽出される複数の仮説を基にして、各学習モデルの類似度を特定し、特定した類似度を基にして、前記複数の学習モデルを複数のグループに分類する処理を更に実行し、前記生成する処理は、前記分類する処理の分類結果を基にして、前記共通仮説および前記差分仮説を特定することを特徴とする請求項2に記載の情報提示プログラム。
  4. 前記分類する処理は、前記複数の第1の仮説と、前記複数の第2の仮説とを揃え、前記複数の第1の仮説の重みの累積値と、前記複数の第2の仮説の重みの累積値とを基にして、前記第1の学習モデルと、前記第2の学習モデルとの類似度を特定することを特徴とする請求項3に記載の情報提示プログラム。
  5. 前記分類する処理は、前記複数の第1の仮説と、前記複数の第2の仮説と重複割合を基にして、前記累積値を補正する処理を更に実行することを特徴とする請求項4に記載の情報提示プログラム。
  6. コンピュータが実行する情報提示方法であって、
    学習データを用いた機械学習を実行することで、複数の学習モデルを生成し、
    前記複数の学習モデルそれぞれから抽出された、それぞれが1以上の説明変数の組み合わせで規定される複数の仮説について、共通する仮説と、差分となる仮説との関係を階層構造で表す階層情報を生成する
    処理を実行させることを特徴とする情報提示方法。
  7. 学習データを用いた機械学習を実行することで、複数の学習モデルを生成する学習部と、
    前記複数の学習モデルそれぞれから抽出された、それぞれが1以上の説明変数の組み合わせで規定される複数の仮説について、共通する仮説と、差分となる仮説との関係を階層構造で表す階層情報を生成する生成部と
    を有することを特徴とする情報提示装置。
JP2023510027A 2021-03-31 2021-03-31 情報提示プログラム、情報提示方法および情報提示装置 Active JP7495008B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/013860 WO2022208734A1 (ja) 2021-03-31 2021-03-31 情報提示プログラム、情報提示方法および情報提示装置

Publications (3)

Publication Number Publication Date
JPWO2022208734A1 JPWO2022208734A1 (ja) 2022-10-06
JPWO2022208734A5 JPWO2022208734A5 (ja) 2023-09-05
JP7495008B2 true JP7495008B2 (ja) 2024-06-04

Family

ID=83458172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023510027A Active JP7495008B2 (ja) 2021-03-31 2021-03-31 情報提示プログラム、情報提示方法および情報提示装置

Country Status (5)

Country Link
US (1) US20240005214A1 (ja)
EP (1) EP4318333A4 (ja)
JP (1) JP7495008B2 (ja)
CN (1) CN117083620A (ja)
WO (1) WO2022208734A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018077547A (ja) 2015-03-16 2018-05-17 国立大学法人東京農工大学 並列処理装置、並列処理方法、および、並列化処理用プログラム
JP2020140572A (ja) 2019-02-28 2020-09-03 富士通株式会社 配分方法、抽出方法、配分プログラム、抽出プログラム、配分装置及び抽出装置
JP2021012531A (ja) 2019-07-05 2021-02-04 富士通株式会社 予測プログラム、予測方法および予測装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7172332B2 (ja) 2018-09-18 2022-11-16 富士通株式会社 学習プログラム、予測プログラム、学習方法、予測方法、学習装置および予測装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018077547A (ja) 2015-03-16 2018-05-17 国立大学法人東京農工大学 並列処理装置、並列処理方法、および、並列化処理用プログラム
JP2020140572A (ja) 2019-02-28 2020-09-03 富士通株式会社 配分方法、抽出方法、配分プログラム、抽出プログラム、配分装置及び抽出装置
JP2021012531A (ja) 2019-07-05 2021-02-04 富士通株式会社 予測プログラム、予測方法および予測装置

Also Published As

Publication number Publication date
EP4318333A1 (en) 2024-02-07
WO2022208734A1 (ja) 2022-10-06
JPWO2022208734A1 (ja) 2022-10-06
US20240005214A1 (en) 2024-01-04
CN117083620A (zh) 2023-11-17
EP4318333A4 (en) 2024-05-22

Similar Documents

Publication Publication Date Title
Choudhury et al. Machine learning for pattern discovery in management research
US11354590B2 (en) Rule determination for black-box machine-learning models
Dal Pozzolo et al. Credit card fraud detection: a realistic modeling and a novel learning strategy
Wang et al. Resampling-based ensemble methods for online class imbalance learning
US20110289025A1 (en) Learning user intent from rule-based training data
US11675928B2 (en) Electronic device for obfuscating and decoding data and method for controlling same
CN109509056A (zh) 基于对抗网络的商品推荐方法、电子装置及存储介质
WO2017159403A1 (ja) 予測システム、方法およびプログラム
JP6311851B2 (ja) 共クラスタリングシステム、方法およびプログラム
EP3425521A1 (en) Document classification device, document classification method, and document classification program
CN111459898A (zh) 机器学习方法、计算机可读记录介质以及机器学习设备
Shamsabadi et al. Confidential-PROFITT: confidential PROof of fair training of trees
WO2021079440A1 (ja) 作成方法、作成プログラム及び情報処理装置
US11144938B2 (en) Method and system for predictive modeling of consumer profiles
Park et al. Prediction of highly imbalanced semiconductor chip-level defects using uncertainty-based adaptive margin learning
CN112328881B (zh) 文章推荐方法、装置、终端设备及存储介质
JP7495008B2 (ja) 情報提示プログラム、情報提示方法および情報提示装置
US20190065987A1 (en) Capturing knowledge coverage of machine learning models
US20210349713A1 (en) Systems and methods for determining developed code scores of an application
Skowron et al. Rough set based reasoning about changes
Hosseini et al. Pool and accuracy based stream classification: a new ensemble algorithm on data stream classification using recurring concepts detection
WO2021079436A1 (ja) 検出方法、検出プログラム及び情報処理装置
Hananto et al. An ensemble and filtering-based system for predicting educational data mining
Siswanto et al. Salary Classification & Prediction based on Job Field and Location using Ensemble Methods
Tsoukas et al. A comparative assessment of machine learning algorithms for events detection

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230615

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240506

R150 Certificate of patent or registration of utility model

Ref document number: 7495008

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150