JP7225874B2 - モデル出力プログラム、モデル出力方法及びモデル出力装置 - Google Patents

モデル出力プログラム、モデル出力方法及びモデル出力装置 Download PDF

Info

Publication number
JP7225874B2
JP7225874B2 JP2019020981A JP2019020981A JP7225874B2 JP 7225874 B2 JP7225874 B2 JP 7225874B2 JP 2019020981 A JP2019020981 A JP 2019020981A JP 2019020981 A JP2019020981 A JP 2019020981A JP 7225874 B2 JP7225874 B2 JP 7225874B2
Authority
JP
Japan
Prior art keywords
model
models
similarity
interpretable
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019020981A
Other languages
English (en)
Other versions
JP2020129222A (ja
Inventor
顕一郎 成田
達 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019020981A priority Critical patent/JP7225874B2/ja
Priority to US16/782,193 priority patent/US11410065B2/en
Publication of JP2020129222A publication Critical patent/JP2020129222A/ja
Application granted granted Critical
Publication of JP7225874B2 publication Critical patent/JP7225874B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/045Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、モデル出力プログラム、モデル出力方法及びモデル出力装置に関する。
機械学習の進展に伴って高性能の分類器が得られる一方で、分類結果が得られた理由を人間が検証することが困難であるという一面がある。
このような一面は、一例として、結果に対する説明責任が問われるミッションクリティカルな分野にディープラーニング等のニューラルネットを適用するのに妨げになる場合がある。
このことから、分類結果が得られる理由や根拠を説明する技術の一例として、LIME(Local Interpretable Model-agnostic Explainations)と呼ばれるアルゴリズムが提案されている。
このLIMEのアルゴリズムでは、複雑なモデルの解析が困難であるという一面がある。このため、複雑なモデルを解析する側面から、LIMEを利用して、分類器の出力を最大限近似できる少数の典型例が抽出される。
例えば、データuの近傍において説明対象とする分類器fの出力との間で出力が局所的に近似するモデルgが分類器fの解釈可能なモデルとして生成される。その上で、解釈可能モデルg及び分類器fの解析に用いる参照データの類似度と、分類器f及び解釈可能モデルg間の出力の誤差との組合せ最適化問題を解くことにより、分類器fの出力との間で誤差が小さく、かつ少数の解釈可能モデルが典型例として抽出される。このような典型例を用いて分類に大きく寄与する要素が解析される。
Marco Tulio Ribeiro, Sameer Singh, Carlos Guestrin 「"Why Should I Trust You?"Explaining the Predictions of Any Classifier」
しかしながら、上記の技術では、典型例の抽出の計算コストが膨大になるという一面がある。
すなわち、上記の組合せ最適化問題は、解釈可能モデルの数をnとしたとき、n^3+n^2+n個の連立方程式に定式化される。このため、解釈可能モデルの数が多いほど計算コストが増大する。あくまで一例として、分類器fがディープラーニングである場合、解釈可能モデルNは1000個や2000個などの規模となる。このため、たとえGPU(Graphics Processing Unit)等の並列計算機を用いたとしても、組合せ最適化問題の解が算出されるまでの期間が数日間といったオーダで長期化する。
1つの側面では、本発明は、典型例の抽出の計算コストを削減できるモデル出力プログラム、モデル出力方法及びモデル出力装置を提供することを目的とする。
一態様のモデル出力プログラムでは、コンピュータに、分類器の解析に用いるテストデータそれぞれについて、前記分類器に近似された複数の近似モデルそれぞれとの類似度および誤差を算出し、前記複数の近似モデルそれぞれについて、類似度が最も高いテストデータを特定し、前記複数の近似モデルそれぞれについて、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルを前記複数の近似モデルの中から特定し、前記複数の近似モデルそれぞれについての、前記最も類似の高いテストデータと2番目に類似度の高い近似モデルとの誤差に基づいて選択される、前記誤差が最も小さい近似モデルである除外対象モデルが除外された前記複数の近似モデルを出力する、処理を実行させる。
典型例の抽出の計算コストを削減できる。
図1は、実施例1に係るモデル出力装置の機能的構成の一例を示すブロック図である。 図2Aは、元データの一例を示す図である。 図2Bは、グラフデータの一例を示す図である。 図2Cは、テンソルデータの一例を示す図である。 図3は、ディープテンソルの学習例を示す図である。 図4は、解釈可能モデルの生成方法の一例を示す図である。 図5Aは、分類器fの分離境界面の一例を示す図である。 図5Bは、典型例のモデルセットの一例を示す図である。 図5Cは、解釈可能モデルのセットの一例を示す図である。 図6Aは、類似度行列Sの一例を示す図である。 図6Bは、類似度行列Sの一例を示す図である。 図6Cは、誤差行列Eの一例を示す図である。 図7Aは、類似度行列Sの一例を示す図である。 図7Bは、誤差行列Eの一例を示す図である。 図7Cは、誤差順位の集計値の一例を示す図である。 図7Dは、類似度行列Sの一例を示す図である。 図7Eは、誤差行列Eの一例を示す図である。 図7Fは、誤差順位の集計値の一例を示す図である。 図8Aは、最適解の取りこぼし事例を示す図である。 図8Bは、最適解の取りこぼし事例を示す図である。 図9Aは、類似度行列Sの一例を示す図である。 図9Bは、誤差量行列Fの一例を示す図である。 図10Aは、類似度行列Sの一例を示す図である。 図10Bは、誤差量行列Fの一例を示す図である。 図10Cは、誤差量行列Fの一例を示す図である。 図10Dは、類似度行列Sの一例を示す図である。 図11Aは、誤差量行列Fの一例を示す図である。 図11Bは、類似度行列Sの一例を示す図である。 図12Aは、誤差量行列Fの一例を示す図である。 図12Bは、類似度行列Sの一例を示す図である。 図13は、効果の一側面を説明する図である。 図14は、実施例1に係る学習モデル生成処理の手順を示すフローチャートである。 図15は、実施例1に係るモデル出力処理の手順を示すフローチャートである。 図16は、実施例1及び実施例2に係るモデル出力プログラムを実行するコンピュータのハードウェア構成例を示す図である。
以下に添付図面を参照して本願に係るモデル出力プログラム、モデル出力方法及びモデル出力装置について説明する。なお、この実施例は開示の技術を限定するものではない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
図1は、実施例1に係るモデル出力装置の機能的構成の一例を示すブロック図である。図1に示すモデル出力装置10は、分類器fで分類結果が得られる理由や根拠を説明する説明機能の一環として、分類器fの出力との間で誤差が小さく、かつ小数の解釈可能モデルgを典型例として出力するものである。
[分類器の一例]
以下、説明対象とする分類器fのあくまで一例として、ディープテンソルにより学習された学習済みモデルを例に挙げる。ここで言う「ディープテンソル」とは、グラフデータがテンソル化されたテンソルデータを入力とするディープラーニングを指す。
図2A~図2Cを用いて、テンソル化の一例を挙げる。図2Aは、元データの一例を示す図である。図2Bは、グラフデータの一例を示す図である。図2Cは、テンソルデータの一例を示す図である。
図2Aには、元データのあくまで一例として、金融機関における取引データが示されている。図2Aに示すように、取引データには、企業ID(IDentification)、取引先ID、取引時期および取引額などの項目が含まれる。
あくまで一例として、図2Aに示す取引データを入力とし、取引先の企業の成長性、例えば今後の見込みの有無を分類結果として出力するモデルがディープテンソルにより学習される場合を例に挙げる。
この場合、図2Aに示す取引データは、図2Bに示すように、値、すなわち取引先ID、取引時期および取引額を表すノードと、つながり(企業ID)を表すノードとの間の接続を示すグラフデータとして扱われる。さらに、図2Bに示すグラフデータは、図2Cに示すように、テンソルと呼ばれる数学上の概念を用いて、取引先ID、取引時期および取引額の値の組合せに対してつながり(企業ID)が存在するか否かを表現するテンソルデータへ変換される。
ここで、ディープテンソルでは、入力されるグラフデータのうち、分類に寄与する部分グラフ構造がコアテンソルとして自動的に抽出される。この抽出処理は、ニューラルネットワークの学習とともに、テンソルデータのテンソル分解のパラメータを学習することによって実現される。ここで言う「テンソル分解」とは、入力されたn階テンソルをn階以下のテンソルの積で近似する演算である。例えば、入力されたn階テンソルを1つのn階テンソル(コアテンソルと呼ばれる。)、および、より低階のn個のテンソル(n>2の場合、通常は2階のテンソル、つまり行列が用いられる。)の積で近似する。この分解は一意ではなく、入力されるテンソルデータが表すグラフ構造中の任意の部分グラフ構造をコアテンソルに含める事ができる。
図3は、ディープテンソルの学習例を示す図である。図3に示すように、ディープテンソルでは、取引先の企業に今後の見込みが有るか否かの正解ラベルが付与されたグラフデータ21がモデルfに入力される。このようなグラフデータ21が入力されたモデルfは、ターゲットコアテンソルf1を用いた構造制約テンソル分解によりグラフデータ21をコアテンソル23と要素行列に分解した上で、コアテンソル21をニューラルネットf2へ入力する。なお、構造制約テンソル分解では、分類に寄与する特徴量が表現されたターゲットコアテンソルf1に類似するように、コアテンソル23が算出される。
さらに、ディープテンソルでは、ニューラルネットf2が出力する分類結果と、正解ラベルとの間の分類誤差に基づいて、ニューラルネットf2に加えてターゲットコアテンソルf1の学習が行われる。すなわち、誤差逆伝搬法を拡張した拡張誤差伝搬法にしたがって、ニューラルネットf2が有する入力層、中間層、出力層に対して、分類誤差を下層に伝搬させる形で、分類誤差を小さくするようにニューラルネットf2の各種パラメータが更新される。さらに、ターゲットコアテンソルf1まで分類誤差を伝搬させ、分類に寄与するグラフの部分構造に近づくように、ターゲットコアテンソルf1のパラメータが更新される。この結果、ニューラルネットf2、ひいてはターゲットコアテンソルf1が最適化される。
[従来の典型例抽出]
背景技術の欄で説明した通り、上記の従来技術では、LIMEを利用して、分類器の出力を最大限近似できる少数の典型例が抽出される。解釈可能モデルは、近似モデルの一例に対応する。
例えば、データuの近傍において説明対象とする分類器fの出力との間で出力が局所的に近似するモデルgを分類器fの解釈可能なモデルとして生成する。図4は、解釈可能モデルの生成方法の一例を示す図である。図4には、あくまで一例として、クラスA及びクラスBの2値のクラス分類を行う分類器fの分離境界面が2次元の入力空間に模式化されている。これらクラスA及びクラスBのうち、分類器fがクラスAに分類するデータの領域が白の塗り潰しで示されると共に、分類器fがクラスBに分類するデータの領域がハッチングで示されている。図4に示すように、入力空間上でデータuとの距離dが閾値σ未満である範囲、すなわち図示の円の領域から近傍集合Vの要素vがサンプリングされる。そして、近傍集合Vの各要素vとvの分類結果f(v)を学習データとし、データu近傍で分類器fに近似する解釈可能モデルgが学習される。
ここで、説明対象とする分類器fが複雑であるほど多数のデータuについて解釈可能モデルgが生成される。図5Aは、分類器fの分離境界面の一例を示す図である。図5Bは、典型例のモデルセットの一例を示す図である。図5Cは、解釈可能モデルのセットの一例を示す図である。これら図5B及び図5Cには、説明の対象とするデータuがテンソル又は丸のマークで示されると共に、典型例または解釈可能モデルが破線で示されている。図5Aに示すように、分類器fは、複雑な分類境界面を有する。この場合、図5Bに示す典型例のモデルセットを抽出する側面から、図5Cに示すように、大量の解釈可能モデルgが生成される。
このように生成された大量の解釈可能モデルgから、分類器fの出力との間で誤差が小さく、かつ少数の解釈可能モデルを典型例として抽出するために、上記の組合せ最適化問題が定式化される。すなわち、解釈可能モデルg及び分類器fの解析に用いる参照データの類似度と、分類器f及び解釈可能モデルg間の出力の誤差との組合せ最適化問題を解くことにより、典型例のモデルセットが抽出される。なお、参照データは、説明機能に用いるテストデータの一例である。
[組合せ最適化問題に用いる行列]
このような組合せ最適化問題の計算には、類似度行列Sと、誤差行列Eまたは誤差量行列Fとが用いられる。これら類似度行列S、誤差行列E及び誤差量行列Fの「行」は、いずれも説明対象とする分類器fの解析に用いる参照データを指し、また、「列」は、解釈可能モデルgを指す。当然のことながら、類似度行列S、誤差行列E及び誤差量行列Fの間で参照データ及び解釈可能モデルgの順序は統一される。
類似度行列Sとは、参照データ及び解釈可能モデルの間の類似度を要素に持つ行列を指す。例えば、参照データごとに当該参照データに類似する解釈可能モデルほど高い順位を付与することにより、類似度行列Sが生成される。あくまで一例として、分類器fがディープテンソルにより学習された学習済みモデルである場合、参照データのコアテンソルと、解釈可能モデルgのターゲットコアテンソルとの間で類似度が算出される。この場合、類似度の値が小さいほど参照データ及び解釈可能モデルの両者が類似することを意味する。なお、類似度がゼロである場合、参照データ及び解釈可能モデルが同一のデータであることを示す。
誤差量行列Fは、参照データが解釈可能モデルにより分類された分類結果と、参照データが説明対象とする分類器fにより分類された分類結果との分類誤差の量を要素に持つ行列である。例えば、分類器fがディープテンソルにより学習された学習済みモデルである場合、分類器fにより分類された分類結果と、解釈可能モデルにより分類された分類結果との分類誤差が誤差量として算出される。この誤差量行列Fでは、誤差量の値が小さいほど分類器fに近似された解釈可能モデルgの誤差が小さいことを意味する。
誤差行列Eは、参照データが解釈可能モデルにより分類された分類結果と、参照データが説明対象とする分類器fにより分類された分類結果との分類誤差の量に基づいて付与された順位を要素に持つ行列である。例えば、分類器fがディープテンソルにより学習された学習済みモデルである場合、分類器fにより分類された分類結果に対する分類誤差が大きい解釈可能モデルgほど高い順位が付与される。この誤差行列Eでは、順位が高い解釈可能モデルgほど誤差が大きく、また、順位が低い解釈可能モデルgほど誤差が小さいことを意味する。
[従来技術の課題の一側面]
しかしながら、上記の従来技術では、典型例の抽出の計算コストが膨大になるという課題がある。
すなわち、上記の組合せ最適化問題は、解釈可能モデルの数をnとしたとき、n^3+n^2+n個の連立方程式に定式化される。このため、解釈可能モデルの数が多いほど計算コストが増大する。あくまで一例として、分類器fがディープラーニングである場合、解釈可能モデルNは1000個や2000個などの規模となる。このため、たとえGPU等の並列計算機を用いたとしても、組合せ最適化問題の解が算出されるまでの期間が数日間といったオーダで長期化する。
[参考技術1]
そこで、参考技術1では、近似アルゴリズムの一例として、上記の類似度行列Sまたは上記の誤差行列EにGreedy法を適用する。例えば、参考技術1では、「よりよいものを残す」というGreedy法の基本に従って類似度の順位が上位、例えば順位「0」又は「1」である参照データの数が多い解釈可能モデルを優先して抽出する。そして、参照技術1では、全ての参照データについて類似度の順位が「0」又は「1」である解釈可能モデルを抽出するという終了条件1、あるいは所定数、例えば2つの典型例のモデルを抽出するという終了条件2を満たすまで典型例の抽出を継続する。このような参考技術1によれば、組合せ最適化問題ではn^3+n^2+n個の連立方程式であった計算コストをn×参照データ数の行列操作まで削減できる。
[参考技術1の課題の一側面]
しかしながら、上記の参考技術1では、1つの観点で高評価である解釈可能モデルしか典型例として抽出することができないので、複数の観点で高評価である解釈可能モデルを典型例として抽出することができない場合がある。例えば、上記の類似度行列SにGreedy法を適用する場合、抽出された典型例には誤差の観点が考慮されず、また、上記の誤差行列EにGreedy法を適用する場合、抽出された典型例には類似度の観点が考慮されない。
図6A~図6Cを用いて、上記の類似度行列SにGreedy法が適用される場合の課題について説明する。なお、図6A~図6Cには、あくまで一例として、5行5列の行列を例に挙げるが、参照データおよび解釈可能モデルは任意の数であってかまわない。
図6A及び図6Bは、類似度行列Sの一例を示す図である。図6A及び図6Bには、類似度行列Sの要素のうち順位が「0」または「1」である要素が点模様のハッチングで示されている。図6Aに示すように、類似度の順位が「0」又は「1」である参照データの個数は、1列目の解釈可能モデルから順に、1個、3個、2個、2個、2個である。この場合、類似度の順位が「0」又は「1」である参照データの個数が最多の3個である2列目の解釈可能モデル★が典型例として抽出される。この段階では、典型例が1つしか抽出されていないので、典型例の抽出が継続される。
このように2列目の解釈可能モデル★が抽出された場合、2列目の解釈可能モデル★で類似度の順位が「0」又は「1」でない参照データを対象に、類似度の順位が「0」又は「1」である参照データの個数が参照される。
図6Bでは、典型例として抽出された2列目の解釈可能モデル★において類似度の順位が「0」又は「1」であった参照データの行、すなわち類似度行列Sの1行目、2行目及び5行目が塗りつぶされている。このように塗りつぶされた参照データ、すなわち1行目、2行目及び5行目の参照データを除外して、3行目及び4行目の参照データを対象に、類似度の順位が「0」又は「1」である参照データの個数が参照される。
図6Bに示すように、類似度の順位が「0」又は「1」である参照データの個数は、次の通りとなる。すなわち、1列目の解釈可能モデルは0個、3列目の解釈可能モデルは1個、4列目の解釈可能モデルは2個、5列目の解釈可能モデルは1個となる。この場合、類似度の順位が「0」又は「1」である参照データの個数が最多の2個である4列目の解釈可能モデル☆が典型例として抽出される。このように、2列目の解釈可能モデル★及び4列目の解釈可能モデル☆が抽出された段階で所定数の一例である2個に達するので、この段階で典型例の抽出が終了する。
このように抽出された2列目の解釈可能モデル★及び4列目の解釈可能モデル☆は、参照データ及び解釈可能モデルの類似度という一面では高評価であったとしても、必ずしも誤差という側面から高評価であるとは限らない。
図6Cは、誤差行列Eの一例を示す図である。図6Cに示す誤差行列Eの要素のうち、図6Aに示す類似度行列Sで類似度の順位が「0」または「1」である要素に対応する要素が点模様のハッチングで示されている。
図6Cに示すように、2列目の解釈可能モデルでは、1行目、2行目及び5行目の参照データとの類似度の順位が「0」または「1」であるが、1行目、2行目及び5行目の参照データにおける誤差順位の総和が「8」である。また、4列目の解釈可能モデルでは、3行目及び4行目の参照データとの類似度の順位が「0」または「1」であるが、3行目及び4行目の参照データにおける誤差順位の総和が「8」である。
これら2列目の解釈可能モデル及び4列目の解釈可能モデルに比べて、3列目の解釈可能モデルでは、類似度の順位が「0」または「1」である2行目及び4行目の参照データにおける誤差順位の総和が「9」である。また、5列目の解釈可能モデルでは、類似度の順位が「0」または「1」である4行目及び5行目の参照データにおける誤差順位の総和が「9」である。
このように、誤差という側面で言えば、2列目及び4列目の解釈可能モデルは、3列目及び5列目の解釈可能モデルよりも低評価である。このため、類似度および誤差の両方の観点から言えば、図6Bに☆および★のマークで示す2列目及び4列目の解釈可能モデルを抽出するよりも、図6Cに☆および★のマークで示す3列目及び5列目の解釈可能モデルを典型例として抽出する方が良いことがわかる。
[参考技術2]
そこで、参考技術2では、類似度行列S又は誤差行列EにGreedy法を適用することにより他方の誤差行列E又は類似度行列Sで誤差順位又は類似度を参照する要素を絞り込んで誤差順位又は類似度の集計値が高評価の解釈可能モデルを典型例として抽出する。例えば、参考技術2では、類似度が「0」又は「1」の上位となる参照データの誤差順位の総和が最大である解釈可能モデルを優先して抽出する。そして、参照技術2でも、全ての参照データについて類似度の順位が「0」又は「1」である解釈可能モデルを抽出するという終了条件1、あるいは所定数、例えば2つの典型例のモデルを抽出するという終了条件2を満たすまで典型例の抽出を継続する。このような参考技術2によれば、参考技術1と同様、計算コストをn×参照データ数の行列操作まで削減できると共に、参考技術1よりも典型例の抽出精度を高めることができる。
図7A~図7Fを用いて、参考技術2による典型例の抽出方法の一例を説明する。図7A及び図7Dは、類似度行列Sの一例を示す図である。図7B及び図7Eは、誤差行列Eの一例を示す図である。図7C及び図7Fは、誤差順位の集計値の一例を示す図である。これら図7A~図7Fのうち、図7A~図7Cを用いて1つ目の解釈可能モデルが抽出される過程を説明し、図7D~図7Fを用いて2つ目の解釈可能モデルが抽出される過程を説明する。なお、図7A及び図7Dに示す類似度行列Sは、図6A及び図6Bに示す類似度行列Sと同一であると共に、図7B及び図7Eに示す誤差行列Eは、図6Cに示す誤差行列Eと同一である。
まず、図7Aに示すように、類似度行列Sの要素のうち類似度の順位が「0」又は「1」である要素、すなわち点模様のハッチングで示す要素を識別する。続いて、図7Bに示すように、誤差行列Eの要素のうち、類似度行列Sで類似度の順位が「0」又は「1」であると識別された要素に対応する要素、すなわち斜線のハッチングで示す要素と、それ以外の要素とを区別して誤差順位を解釈可能モデルごとに集計する。
これによって、図7Cに示すように、解釈可能モデルごとに、当該解釈可能モデルとの類似度の順位が「0」又は「1」の上位である参照データの誤差順位の集計値が1列目から順に「5」、「8」、「9」、「8」、「9」として得られる。例えば、1列目の解釈可能モデルの例で言えば、図7Bの誤差行列の1列目のうち斜線のハッチングで示された1行目の要素の誤差順位「5」がそのまま誤差順位の集計値となる。また、2列目の解釈可能モデルの例で言えば、図7Bの誤差行列の2列目のうち斜線のハッチングで示された1行目、2行目及び5行目の要素の誤差順位「1」、「5」及び「2」が集計されることにより誤差順位の集計値は「8」となる。以降の3列目~5列目の解釈可能モデルにおいても、同様の計算によって類似度の順位が上位である参照データの誤差順位の集計値が得られる。
さらに、図7Cに示すように、解釈可能モデルごとに、当該解釈可能モデルとの類似度の順位が「2」以下の下位である参照データの誤差順位の集計値が1列目から順に「14」、「3」、「5」、「7」、「7」として得られる。例えば、1列目の解釈可能モデルの例で言えば、図7Bの誤差行列の1列目のうち斜線のハッチングがない2行目~5行目の要素の誤差順位「3」、「4」、「3」及び「4」が集計されることにより、誤差順位の集計値は「14」となる。また、2列目の解釈可能モデルの例で言えば、図7Bの誤差行列の2列目のうち斜線のハッチングがない3行目及び4行目の要素の誤差順位「2」及び「1」が集計されることにより誤差順位の集計値は「3」となる。以降の3列目~5列目の解釈可能モデルにおいても、同様の計算によって類似度の順位が下位である参照データの誤差順位の集計値が得られる。
その上で、類似度の順位が上位である参照データの誤差順位の集計値のうち、最大値を有する解釈可能モデルが抽出される。例えば、図7Cの例で言えば、最大値「9」が観測される3行目及び5行目の2つの解釈可能モデルが抽出される。このように複数の解釈可能モデルで最大値が観測される場合、類似度の順位が下位である参照データの誤差順位の集計値がさらに最大値である解釈可能モデルが抽出される。例えば、図7Cの例で言えば、5列目の解釈可能モデルでは、類似度の順位が下位である参照データの誤差順位の集計値が「7」である一方で、3列目の解釈可能モデルでは、類似度の順位が下位である参照データの誤差順位の集計値が「5」である。このため、3列目及び5列目の2つの解釈可能モデルのうち、最大値「7」が観測される5列目の解釈可能モデル★が典型例として抽出される。
この段階では、4行目及び5行目の参照データでしか類似度の順位が「0」又は「1」の上位である解釈可能モデルが抽出されておらず、かつ典型例が所定数「2」になっていないので、典型例の抽出が継続される。
このように5列目の解釈可能モデルが抽出された場合、5列目の解釈可能モデルで類似度の順位が「0」又は「1」の上位でない参照データを対象に、類似度の順位が「0」又は「1」の上位である参照データの個数が参照される。
図7Dでは、典型例として抽出された5列目の解釈可能モデルにおいて類似度の順位が「0」又は「1」の上位であった参照データの行、すなわち類似度行列Sの4行目及び5行目が塗りつぶされている。さらに、図7Dでは、典型例として抽出済みである解釈可能モデルの行、すなわち類似度行列Sの5列目が塗りつぶされている。このように塗りつぶされた要素が除外された類似度行列Sの残りの要素を対象に、類似度の順位が「0」又は「1」の上位である要素、すなわち点模様のハッチングで示す要素を識別する。
続いて、図7Eに示すように、塗りつぶされた要素が除外されて残った誤差行列Eの要素のうち、図7Dに示す類似度行列Sで類似度の順位が「0」又は「1」の上位であると識別された要素に対応する要素、すなわち斜線のハッチングで示す要素と、それ以外の要素とを区別して誤差順位を解釈可能モデルごとに集計する。
これによって、図7Fに示すように、解釈可能モデルごとに、当該解釈可能モデルとの類似度の順位が「0」又は「1」の上位である参照データの誤差順位の集計値が1列目から順に「5」、「6」、「9」、「3」として得られる。例えば、1列目の解釈可能モデルの例で言えば、図7Eの誤差行列の1列目のうち斜線のハッチングで示された1行目の要素の誤差順位「5」がそのまま誤差順位の集計値となる。また、2列目の解釈可能モデルの例で言えば、図7Eの誤差行列の2列目のうち斜線のハッチングで示された1行目及び2行目の要素の誤差順位「1」及び「5」が集計されることにより誤差順位の集計値は「6」となる。以降の3列目~4列目の解釈可能モデルにおいても、同様の計算によって類似度の順位が上位である参照データの誤差順位の集計値が得られる。
さらに、図7Fに示すように、解釈可能モデルごとに、当該解釈可能モデルとの類似度の順位が「2」以下の下位である参照データの誤差順位の集計値が1列目から順に「7」、「2」、「2」、「4」として得られる。例えば、1列目の解釈可能モデルの例で言えば、図7Eの誤差行列の1列目のうち斜線のハッチングがない2行目及び3行目の要素の誤差順位「3」及び「4」が集計されることにより、誤差順位の集計値は「7」となる。また、2列目の解釈可能モデルの例で言えば、図7Eの誤差行列の2列目のうち斜線のハッチングがない3行目の要素の誤差順位「2」がそのまま誤差順位の集計値となる。以降の3列目~4列目の解釈可能モデルにおいても、同様の計算によって類似度の順位が下位である参照データの誤差順位の集計値が得られる。
その上で、類似度の順位が上位である参照データの誤差順位の集計値のうち、最大値を有する解釈可能モデルが抽出される。例えば、図7Fの例で言えば、最大値「9」が観測される3行目の解釈可能モデル☆が典型例として抽出される。
このように、参考技術2では、類似度および誤差の両方の観点で解釈可能モデルを抽出するので、参考技術1で抽出できなかった3列目及び5列目の解釈可能モデルを典型例として抽出することができる。したがって、参考技術2によれば、参考技術1に比べて典型例の抽出精度を高めることができる。
[参考技術2の課題の一側面]
しかしながら、上記の参考技術2では、類似度行列S又は誤差行列Eの一方にGreedy法が適用された時点で他方の誤差行列E又は類似度行列Sの最適解が取りこぼされる事例が発生するので、典型例の抽出精度が低下する場合がある。
図8A及び図8Bを用いて、類似度行列SにGreedy法が適用された時点で他方の誤差行列Eの最適解が切り捨てられる事例を説明する。図8A及び図8Bは、最適解の取りこぼし事例を示す図である。このうち、図8Aには、参考技術2により類似度行列SにGreedy法が適用される事例が示される一方で、図8Bには、参考技術2で取りこぼされる最適解の一例が示されている。
図8Aに示すように、参考技術2では、類似度行列Sの要素のうち類似度の順位が「0」又は「1」である要素、すなわち点模様のハッチングで示す要素が識別される。続いて、参考技術2では、誤差行列Eの要素のうち、類似度行列Sで類似度の順位が「0」又は「1」であると識別された要素に対応する要素、すなわち斜線のハッチングで示す要素と、それ以外の要素とを区別して誤差順位が解釈可能モデルの列ごとに集計される。この結果、参考技術2では、類似度の順位が上位である参照データの誤差順位の集計値のうち、最大値「12」を有する1列目の解釈可能モデル□が典型例として抽出される。
ところが、参考技術2では、類似度行列Sで類似度の順位が「0」又は「1」の上位であると識別された要素以外の要素がGreedy法により切り捨てられる。このため、類似度行列Sで切り捨てられた要素の中に誤差行列Eで誤差順位が低い、言い換えれば誤差順位の値が大きい要素が存在する場合、誤差行列Eで最適解の取りこぼしが発生する。
図8Bには、類似度行列SにGreedy法が適用されることにより切り捨てられる要素のうち誤差行列Eで最適解に寄与する要素を縦線のハッチングで示す。さらに、図8Bには、1列目の解釈可能モデルが典型例として抽出されないという仮定の下で、縦線のハッチングで示された要素の誤差順位が斜線のハッチングで示された要素の誤差順位と共に集計される例が示されている。この場合、誤差順位の集計値のうち、斜線および縦線のハッチングで示された要素の誤差順位が集計された集計値は、1列目の解釈可能モデルから順に、「12」、「16」、「16」、「*」となる。
このように、誤差行列Eに縦線のハッチングで示された要素が誤差順位の集計対象とされることにより、最大値が観測される解釈可能モデルが1列目から2列目及び3列目へ変化する。他方、1列目の解釈可能モデルが抽出される場合と、2列目及び3列目の解釈可能モデルが抽出される場合との間で類似度には差が殆どない。例えば、縦線のハッチングで示された要素が属する3行目から6行目までの参照データに関し、前者と後者で類似度行列Sにおける類似度の順位を比較しても、3行目から6行目までの各行で1つしか類似度の順位は変わらない。したがって、類似度行列SにGreedy法が適用された時点で誤差行列Eに縦線のハッチングで示された要素の誤差順位が集計対象から切り捨てられることにより、最適解である2列目及び3列目の解釈可能モデルが取りこぼされることを意味する。
[従来技術及び参考技術1~2における課題の解決アプローチの一側面]
そこで、本実施例では、「よりよいものを残す」というGreedy法の考えに、「より不要なものを優先的に削除する」という消去法の観点を追加した消去法的Greedy法を用いる。
すなわち、消去法的Greedy法では、説明対象の分類器に局所近似された複数の解釈可能モデルごとに当該解釈可能モデルと最も類似するテストデータとの間で次に類似する次点の解釈可能モデルを特定し、次点の解釈可能モデルの分類誤差との差が最小である解釈可能モデルを除外して残る解釈可能モデルを典型例として出力する。なお、消去法的Greedy法のアルゴリズムの詳細については図9~図15を用いて後述する。
このように、次点の解釈可能モデルの分類誤差との差が最小である解釈可能モデルを除外することで、除外の影響が大きい解釈可能モデルを最終まで残すことができる可能性を高める。この結果、一般のGreedy法を適用する場合のように、類似度行列S又は誤差行列Eの一方にGreedy法が適用された時点で他方の誤差行列E又は類似度行列Sの最適解が取りこぼされる事例が発生するのを抑制する。
したがって、消去法的Greedy法によれば、参考技術1及び参考技術2と同様、計算コストをn×参照データ数の行列操作まで削減できると共に、従来技術、参考技術1及び参考技術2よりも典型例の抽出精度を高めることができる。
[モデル出力装置10の構成]
図1に示すように、モデル出力装置10は、学習部11と、生成部13と、第1算出部15と、第2算出部16と、特定部17と、除外部18と、出力部19とを有する。なお、モデル出力装置10は、図1に示す機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の入力デバイスや音声出力デバイスの他、外部装置との間で通信を行うインタフェイスに対応する機能部を有することとしてもかまわない。
図1に示す学習部11、生成部13、第1算出部15、第2算出部16、特定部17、除外部18及び出力部19などの機能部は、あくまで例示として、下記のハードウェアプロセッサにより仮想的に実現される。このようなプロセッサの例として、GPGPUやGPUクラスタの他、CPU(Central Processing Unit)、MPU(Micro Processing Unit)などが挙げられる。すなわち、プロセッサがRAM(Random Access Memory)等のメモリ上に参考技術1、参考技術2または消去法的Greedy法を実現するモデル出力プログラムをプロセスとして展開することにより、上記の機能部が仮想的に実現される。ここでは、プロセッサの一例として、GPGPUやGPUクラスタ、CPU、MPUを例示したが、汎用型および特化型を問わず、任意のプロセッサにより上記の機能部が実現されることとしてもかまわない。この他、上記の機能部は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによって実現されることを妨げない。
また、図1に示す学習データ11A、参照データ11B、学習モデル12及び解釈可能モデル14などの各データは、あくまで一例として、HDD(Hard Disk Drive)、光ディスクやSSD(Solid State Drive)などのストレージに保存される。なお、上記の各データは、必ずしもストレージに保存されずともよく、各種の半導体メモリ素子、例えばRAM、EPPROMやフラッシュメモリなどに保存させることもできる。
学習部11は、学習データ11Aを用いて分類器を学習する処理部である。
一実施形態として、学習部11は、図示しないストレージから学習データ11Aを読み出す。例えば、学習データ11Aには、図2Aに例示された元データ又は図2Bに例示されたグラフデータごとに正解のラベルが付与された学習サンプルのデータセットなどが対応する。そして、学習部11は、学習データ11Aに含まれる学習サンプルごとに、グラフデータのテンソル化、ターゲットコアテンソルf1を用いた構造制約テンソル分解、ニューラルネットf2へのコアテンソルの入力、拡張誤差伝搬法によるターゲットコアテンソルf1及びニューラルネットf2のパラメータの更新を実行する。これによって、ニューラルネットf2及びターゲットコアテンソルf1が最適化された学習済みモデルが得られる。このようにして得られた学習済みモデルが学習モデル12としてストレージに保存される。
生成部13は、上記の解釈可能モデル14を生成する処理部である。ここでは、あくまで一例として、説明対象とする分類器fとして学習モデル12が用いられる例を挙げて説明する。
一実施形態として、生成部13は、学習部11により学習モデル12が生成された時点以降の任意の時点で解釈可能モデルを生成できる。例えば、生成部13は、LIMEのアルゴリズムに従ってデータuの近傍において学習モデル12の出力との間で出力が局所的に近似するモデルgを解釈可能モデルとして生成する。この解釈可能モデルは、あくまで一例として、図5Bに示す典型例の候補とする側面から図5Cに例示された要領で生成できる。このようにして得られた複数の解釈可能モデルが解釈可能モデル14としてストレージに保存される。
第1算出部15は、参照データ及び解釈可能モデルの間の類似度を算出する処理部である。
一実施形態として、第1算出部15は、生成部13により解釈可能モデル14が生成された時点以降の任意の時点で上記の類似度を算出できる。例えば、第1算出部15は、図示しないストレージから参照データ11Bおよび解釈可能モデル14を読み出す。このうち、参照データ11Bには、一例として、図2Aに例示された元データ又は図2Bに例示されたグラフデータなどの参照データのデータセットが対応する。ここで言う「参照データ」には、学習データ11Aに含まれる学習サンプルとは異なるデータが用いられることとする。あくまで一例として、学習モデル12の機械学習サービスに加入する加入者から提供されるデータセットのうち一部を学習データ11Aとして用いると共に残りを参照データ11Bとして用いることができる。
ここで、第1算出部15は、参照データ11Bに含まれる参照データ及び解釈可能モデル14に含まれる解釈可能モデルの全ての組合せに関し、上記の類似度を算出する。例えば、第1算出部15は、参照データのコアテンソルと、解釈可能モデルのターゲットコアテンソルとの間で内積やコサイン類似度などの類似度を算出する。その上で、第1算出部15は、参照データごとに当該参照データに類似する解釈可能モデルほど低い順位を付与する。これによって、類似度行列Sが生成される。
第2算出部16は、学習モデル及び解釈可能モデルの間における参照データの分類誤差を算出する処理部である。
一実施形態として、第2算出部16は、生成部13により解釈可能モデル14が生成された時点以降の任意の時点で上記の分類誤差を算出できる。すなわち、第2算出部16は、参照データ11Bに含まれる参照データ及び解釈可能モデル14に含まれる解釈可能モデルの全ての組合せに関し、上記の分類誤差を算出する。例えば、第2算出部16は、学習モデル12が参照データの分類結果として出力するラベルの確信度と、解釈可能モデルが参照データの分類結果として出力するラベルの確信度との差を誤差量として算出する。これによって、誤差量行列Fや誤差行列Eが生成される。
特定部17は、解釈可能モデルごとに当該解釈可能モデルの除外時に残りの解釈可能モデルが影響を受ける分類誤差の度合いを影響度として算出する。なお、特定部17は、第1特定部および第2特定部の一例に対応する。
一実施形態として、特定部17は、第1算出部15により類似度が算出され、かつ第2算出部16により分類誤差が算出された時点以降の任意の時点で上記の影響度を算出できる。例えば、特定部17は、解釈可能モデル14に含まれる複数の解釈可能モデルのうち未選択の解釈可能モデルを1つ選択する。続いて、特定部17は、上記の類似度行列Sを参照して、選択中の解釈可能モデルとの類似度が最大である参照データを特定する。そして、特定部17は、先に特定された参照データとの類似度が選択中の解釈可能モデルの次に高い次点の解釈可能モデルを特定する。その上で、特定部17は、選択中の解釈可能モデルの誤差量と、次点の解釈可能モデルの誤差量とに基づいて選択中の解釈可能モデルの影響度を算出する。
除外部18は、複数の解釈可能モデルのうち影響度が最小である解釈可能モデルを除外する処理部である。
一実施形態として、除外部18は、特定部17により全ての解釈可能モデルごとに影響度が算出された場合、複数の解釈可能モデルのうち影響度が最小である解釈可能モデルを除外する。その後、除外部18は、除外により残った解釈可能モデルが所定数になるまで、残った解釈可能モデルごとに影響度を算出する処理を特定部17に実行させた上で影響度が最小である解釈可能モデルを除外する処理を繰り返す。
出力部19は、解釈可能モデルを典型例として出力する処理部である。
一実施形態として、出力部19は、除外部18による除外の結果、残りの解釈可能モデルが所定数になった場合、残りの解釈可能モデルを所定の出力先へ出力する。例えば、出力先の一例として、解釈可能モデルのうち分類に大きく寄与する要素、例えばニューラルネットf2のうち重みやバイアスが閾値を超えるニューロン、あるいは参照データとして入力されるグラフデータのうち密度が閾値を超える部分構造を解析するモジュールが挙げられる。このようなモジュールの出力を表示することにより、分類結果が得られる理由や根拠を説明するレポートの作成を支援することができる。
[消去法的Greedy法の動作例]
次に、図9~図12を用いて、消去法的Greedy法の動作例について説明する。図9Aは、類似度行列Sの一例を示す図である。図9Bは、誤差量行列Fの一例を示す図である。
ここでは、図9A及び図9Bに示すように、5行5列の類似度行列S及び誤差量行列Fを用いる場合の動作例を説明する。図9Aに示す類似度行列S及び図9Bに示す誤差量行列Fの「行」は、いずれも説明対象とする分類器fの解析に用いる参照データを指し、また、「列」は、解釈可能モデルgを指す。さらに、図9Aに示す類似度行列S及び図9Bに示す誤差量行列Fでは、1行目から5行目までの参照データの各々をデータ1~データ5と識別し、1列目から5列目までの解釈可能モデルの各々をモデルa~モデルeと識別する。
図10A、図10D、図11B及び図12Bは、類似度行列Sの一例を示す図である。図10B、図10C、図11A及び図12Aは、誤差量行列Fの一例を示す図である。これら図10~図12の各図のうち、図10A~図10Dを用いて1つ目の解釈可能モデルが除外される過程を説明し、図11A及び図11Bを用いて2つ目の解釈可能モデルが除外される過程を説明し、その後、図12A及び図12Bを用いて3つ目の解釈可能モデルが除外される過程を説明する。
まず、図9Aに示す類似度行列Sに含まれる解釈可能モデルのうちいずれか1つを選択することにより、除外を検討する解釈可能モデル、言い換えれば影響度の算出対象とする解釈可能モデルが選択される。図10Aには、一例として、図9Aに示すモデルa~モデルeのうちモデルaが選択された例が示されており、選択中のモデルaに対応する1列目の列が塗りつぶしで示されている。
このように選択中の解釈可能モデルがモデルaである場合、図10Aに示す類似度行列Sのうち1列目の各要素が有する類似度を参照して、モデルaとの類似度が最大であるデータ1が特定される。そして、先に特定したデータ1との類似度が選択中のモデルaの類似度「0」の次に高い類似度「1」を持つ次点のモデルbが特定される。
その上で、誤差量行列Fを参照して、選択中のモデルaの誤差量と、次点のモデルbの誤差量とに基づいてモデルa除外時の影響度が算出される。図10Bには、選択中のモデルaの要素のうちデータ1に対応する誤差量行列Fの1行1列目の要素と、次点のモデルbの要素のうちデータ1に対応する誤差量行列Fの1行2列目の要素とが楕円で囲んで示されている。これら誤差量行列Fの1行1列目の要素及び誤差量行列Fの1行2列目の要素の間で誤差量の差を計算することにより、モデルa除外時の影響度が「10(=10-0)」と算出される。
以後、類似度行列Sに含まれる全ての解釈可能モデルが選択されるまで、影響度の算出が繰り返される。
例えば、モデルbが除外を検討する解釈可能モデルとして選択された場合、図10Aに示す類似度行列Sのうち2列目の各要素が有する類似度を参照して、モデルbとの類似度が最大であるデータ2が特定される。そして、先に特定したデータ2との類似度が選択中のモデルbの類似度「0」の次に高い類似度「1」を持つ次点のモデルcが特定される。その上で、図10Cに示すように、選択中のモデルbの要素のうちデータ2に対応する誤差量行列Fの2行2列目の要素と、次点のモデルcの要素のうちデータ2に対応する誤差量行列Fの2行3列目の要素との間で誤差量の差を計算することにより、モデルb除外時の影響度が「1(=1-0)」と算出される。
次に、モデルcが除外を検討する解釈可能モデルとして選択された場合、図10Aに示す類似度行列Sのうち3列目の各要素が有する類似度を参照して、モデルcとの類似度が最大であるデータ3が特定される。そして、先に特定したデータ3との類似度が選択中のモデルcの類似度「0」の次に高い類似度「1」を持つ次点のモデルdが特定される。その上で、図10Cに示すように、選択中のモデルcの要素のうちデータ3に対応する誤差量行列Fの3行3列目の要素と、次点のモデルdの要素のうちデータ3に対応する誤差量行列Fの3行4列目の要素との間で誤差量の差を計算することにより、モデルc除外時の影響度が「6(=6-0)」と算出される。
次に、モデルdが除外を検討する解釈可能モデルとして選択された場合、図10Aに示す類似度行列Sのうち4列目の各要素が有する類似度を参照して、モデルdとの類似度が最大であるデータ4が特定される。そして、先に特定したデータ4との類似度が選択中のモデルdの類似度「0」の次に高い類似度「1」を持つ次点のモデルeが特定される。その上で、図10Cに示すように、選択中のモデルdの要素のうちデータ4に対応する誤差量行列Fの4行4列目の要素と、次点のモデルeの要素のうちデータ4に対応する誤差量行列Fの4行5列目の要素との間で誤差量の差を計算することにより、モデルd除外時の影響度が「5(=5-0)」と算出される。
次に、モデルeが除外を検討する解釈可能モデルとして選択された場合、図10Aに示す類似度行列Sのうち5列目の各要素が有する類似度を参照して、モデルeとの類似度が最大であるデータ5が特定される。そして、先に特定したデータ5との類似度が選択中のモデルeの類似度「0」の次に高い類似度「1」を持つ次点のモデルaが特定される。その上で、図10Cに示すように、選択中のモデルeの要素のうちデータ5に対応する誤差量行列Fの5行5列目の要素と、次点のモデルaの要素のうちデータ5に対応する誤差量行列Fの5行1列目の要素との間で誤差量の差を計算することにより、モデルd除外時の影響度が「3(=3-0)」と算出される。
このようにモデルa~モデルeの全てのモデルの影響度が算出された場合、図10Dに示すように、モデルa~モデルeのうち最も小さい影響度が算出されたモデルb、すなわち塗りつぶしが行われた2列目の除外が確定される。このモデルbの除外に伴って、除外済みのモデルbとの間で最も類似度が高いデータ2の分類をモデルbの次にデータ2との類似度が高いモデルcに代替させる側面から、データ2をモデルcとの間で類似度が最も高いデータとして擬製する。
この段階では、モデルbの除外によりモデルa、モデルc~モデルeの4つのモデルが残っており、所定数の「2」まで解釈可能モデルが減じられていないので、2つ目の解釈可能モデルの除外が開始される。
この場合、モデルa、モデルc~モデルeの4つのモデルのうちモデルaが除外を検討する解釈可能モデルとして選択された場合、図10Dに示された類似度行列Sのうち1列目の各要素が有する類似度を参照して、モデルaとの類似度が最大であるデータ1が特定される。そして、先に特定したデータ1との類似度が選択中のモデルaの類似度「0」の次に高い類似度「2」を持つ次点のモデルcが特定される。このとき、除外済みであるモデルcは無視されることは言うまでもない。その上で、図11Aに示すように、選択中のモデルaの要素のうちデータ1に対応する誤差量行列Fの1行1列目の要素と、次点のモデルcの要素のうちデータ1に対応する誤差量行列Fの1行3列目の要素との間で誤差量の差を計算することにより、モデルa除外時の影響度が「8(=8-0)」と算出される。
次に、モデルa、モデルc~モデルeの4つのモデルのうちモデルcが除外を検討する解釈可能モデルとして選択された場合、図10Dに示された類似度行列Sのうち3列目の各要素が有する類似度を参照して、モデルcとの類似度が最大であるデータ3が特定される。そして、先に特定したデータ3との類似度が選択中のモデルcの類似度「0」の次に高い類似度「1」を持つ次点のモデルdが特定される。その上で、図11Aに示すように、選択中のモデルcの要素のうちデータ3に対応する誤差量行列Fの3行3列目の要素と、次点のモデルdの要素のうちデータ3に対応する誤差量行列Fの3行4列目の要素との間で誤差量の差「6(=6-0)」が算出される。
さらに、モデルcは、データ2に関するモデルbの代替モデルであるので、モデルcとの間で類似度が最も高いデータとして擬製されたデータ2がさらに特定される。そして、先に特定したデータ2との類似度が選択中のモデルcの類似度「1」の次に高い類似度「2」を持つ次点のモデルdが特定される。その上で、図11Aに示すように、選択中のモデルcの要素のうちデータ2に対応する誤差量行列Fの2行3列目の要素と、次点のモデルdの要素のうちデータ2に対応する誤差量行列Fの2行4列目の要素との間で誤差量の差「3(=4-1)」が算出される。
これら誤差量の差が合計されることにより、モデルc除外時の影響度が「9(=6+3)」と算出される。
次に、モデルa、モデルc~モデルeの4つのモデルのうちモデルdが除外を検討する解釈可能モデルとして選択された場合、図10Dに示された類似度行列Sのうち4列目の各要素が有する類似度を参照して、モデルdとの類似度が最大であるデータ4が特定される。そして、先に特定したデータ4との類似度が選択中のモデルdの類似度「0」の次に高い類似度「1」を持つ次点のモデルeが特定される。その上で、図11Aに示すように、選択中のモデルdの要素のうちデータ4に対応する誤差量行列Fの4行4列目の要素と、次点のモデルeの要素のうちデータ4に対応する誤差量行列Fの4行5列目の要素との間で誤差量の差を計算することにより、モデルd除外時の影響度が「5(=5-0)」と算出される。
次に、モデルa、モデルc~モデルeの4つのモデルのうちモデルeが除外を検討する解釈可能モデルとして選択された場合、図10Dに示された類似度行列Sのうち5列目の各要素が有する類似度を参照して、モデルeとの類似度が最大であるデータ5が特定される。そして、先に特定したデータ5との類似度が選択中のモデルeの類似度「0」の次に高い類似度「1」を持つ次点のモデルaが特定される。その上で、図11Aに示すように、選択中のモデルeの要素のうちデータ5に対応する誤差量行列Fの5行5列目の要素と、次点のモデルaの要素のうちデータ5に対応する誤差量行列Fの1行5列目の要素との間で誤差量の差を計算することにより、モデルd除外時の影響度が「3(=3-0)」と算出される。
このようにモデルa、モデルc~モデルeの4つのモデルの影響度が算出された場合、図11Bに示すように、モデルa、モデルc~モデルeの4つのモデルのうち最も小さい影響度が算出されたモデルe、すなわち塗りつぶしが行われた5列目の除外が確定される。
この段階では、モデルeの除外によりモデルa、モデルc及びモデルdの3つのモデルが残っており、所定数の「2」まで解釈可能モデルが減じられていないので、3つ目の解釈可能モデルの除外が開始される。このモデルeの除外に伴って、除外済みのモデルeとの間で最も類似度が高いデータ5の分類をモデルdの次にデータ5との類似度が高いモデルaに代替させる側面から、データ5をモデルaとの間で類似度が最も高いデータとして擬製する。
この場合、モデルa、モデルc及びモデルdの3つのモデルのうちモデルaが除外を検討する解釈可能モデルとして選択された場合、図11Bに示された類似度行列Sのうち1列目の各要素が有する類似度を参照して、モデルaとの類似度が最大であるデータ1が特定される。そして、先に特定したデータ1との類似度が選択中のモデルaの類似度「0」の次に高い類似度「2」を持つ次点のモデルcが特定される。このとき、除外済みであるモデルcは無視されることは言うまでもない。その上で、図12Aに示すように、選択中のモデルaの要素のうちデータ1に対応する誤差量行列Fの1行1列目の要素と、次点のモデルcの要素のうちデータ1に対応する誤差量行列Fの1行3列目の要素との間で誤差量の差「8(=8-0)」が計算される。
さらに、モデルaは、データ5に関するモデルeの代替モデルであるので、モデルaとの間で類似度が最も高いデータとして擬製されたデータ5がさらに特定される。そして、先に特定したデータ5との類似度が選択中のモデルaの類似度「1」の次に高い類似度「3」を持つ次点のモデルcが特定される。その上で、図12Aに示すように、選択中のモデルaの要素のうちデータ5に対応する誤差量行列Fの5行1列目の要素と、次点のモデルcの要素のうちデータ5に対応する誤差量行列Fの5行3列目の要素との間で誤差量の差「3(=6-3)」が算出される。
これら誤差量の差が合計されることにより、モデルa除外時の影響度が「11(=8+3)」と算出される。
次に、モデルa、モデルc及びモデルdの3つのモデルのうちモデルcが除外を検討する解釈可能モデルとして選択された場合、図11Bに示された類似度行列Sのうち3列目の各要素が有する類似度を参照して、モデルcとの類似度が最大であるデータ3が特定される。そして、先に特定したデータ3との類似度が選択中のモデルcの類似度「0」の次に高い類似度「1」を持つ次点のモデルdが特定される。その上で、図12Aに示すように、選択中のモデルcの要素のうちデータ3に対応する誤差量行列Fの3行3列目の要素と、次点のモデルdの要素のうちデータ3に対応する誤差量行列Fの3行4列目の要素との間で誤差量の差「6(=6-0)」が算出される。
さらに、モデルcは、データ2に関するモデルbの代替モデルであるので、モデルcとの間で類似度が最も高いデータとして擬製されたデータ2がさらに特定される。そして、先に特定したデータ2との類似度が選択中のモデルcの類似度「1」の次に高い類似度「2」を持つ次点のモデルdが特定される。その上で、図12Aに示すように、選択中のモデルcの要素のうちデータ2に対応する誤差量行列Fの2行3列目の要素と、次点のモデルdの要素のうちデータ2に対応する誤差量行列Fの2行4列目の要素との間で誤差量の差「3(=4-1)」が算出される。
これら誤差量の差が合計されることにより、モデルc除外時の影響度が「9(=6+3)」と算出される。
次に、モデルa、モデルc~モデルeの4つのモデルのうちモデルdが除外を検討する解釈可能モデルとして選択された場合、図11Bに示された類似度行列Sのうち4列目の各要素が有する類似度を参照して、モデルdとの類似度が最大であるデータ4が特定される。そして、先に特定したデータ4との類似度が選択中のモデルdの類似度「0」の次に高い類似度「2」を持つ次点のモデルaが特定される。このとき、除外済みのモデルeは、当然のことながら無視される。その上で、図12Aに示すように、選択中のモデルdの要素のうちデータ4に対応する誤差量行列Fの4行4列目の要素と、次点のモデルaの要素のうちデータ4に対応する誤差量行列Fの1行4列目の要素との間で誤差量の差を計算することにより、モデルd除外時の影響度が「6(=6-0)」と算出される。
このようにモデルa、モデルc及びモデルdの3つのモデルの影響度が算出された場合、図11Bに示すように、モデルa、モデルc及びモデルdの3つのモデルのうち最も小さい影響度が算出されたモデルd、すなわち塗りつぶしが行われた4列目の除外が確定される。
ここに至って、モデルdの除外により残りの解釈可能モデルがモデルa及びモデルcの2つとなり、所定数の「2」まで解釈可能モデルが減じられたので、4つ目の解釈可能モデルの除外は実行せず、これまでに除外されずに残ったモデルa及びモデルcが典型例として抽出される。
このように、次点の解釈可能モデルの分類誤差との差が最小である解釈可能モデルを除外することで、除外の影響が大きい解釈可能モデルを最終まで残すことができる可能性を高める。この結果、一般のGreedy法を適用する場合のように、類似度行列S又は誤差行列Eの一方にGreedy法が適用された時点で他方の誤差行列E又は類似度行列Sの最適解が取りこぼされる事例が発生するのを抑制する。
図13は、効果の一側面を説明する図である。図13には、従来技術、参考技術1及び本実施例ごとに複雑な計算の有無、計算コスト、誤差観点の典型例抽出の可否および計算時間などが示されている。これらのうち、計算時間には、あくまで一例として、従来技術、参考技術1及び本実施例の間でハードウェアが同一のスペックであると仮定し、解釈可能モデルの数Nを1000個とし、参照データの数を100とする場合の値が示されている。
図13に示すように、従来技術では、組合せ最適化問題が実行されるので、複雑な計算が行われる。さらに、従来技術では、組合せ最適化問題を解くために、n^3+n^2+n個の連立方程式が計算される。さらに、従来技術では、組合せ最適化問題を解くので、誤差観点の典型例抽出が可能である。さらに、従来技術では、計算に3日以上の期間が必要となる。
一方、参考技術1では、組合せ最適化問題でなく、近似アルゴリズムであるGreedy法が適用されるので、複雑な計算が不要である。さらに、参考技術1では、Greedy法の適用により、計算コストをn×参照データ数の行列操作まで削減できる。さらに、参考技術1では、1つの観点、例えば類似度観点でしか典型例抽出を行うことができないので、誤差観点の典型例抽出は困難である。さらに、参考技術1では、30分程度で計算が済む。
また、本実施例では、組合せ最適化問題でなく、近似アルゴリズムである消去法的Greedy法が適用されるので、複雑な計算が不要である。さらに、本実施例では、消去法的Greedy法の適用により、計算コストをn×参照データ数の行列操作まで削減できる。さらに、本実施例では、2つの観点、例えば類似度および誤差の両方の観点から解釈可能モデルを除外して除外の影響が大きい解釈可能モデルを最終まで残すことができので、誤差観点の典型例抽出も可能である。さらに、本実施例では、30分程度で計算が済む。
[処理の流れ]
次に、本実施例に係るモデル出力装置10の処理の流れについて説明する。ここでは、モデル出力装置10により実行される(1)学習モデル生成処理を説明した後に、(2)モデル出力処理を説明することとする。
(1)学習モデル生成処理
図14は、実施例1に係る学習モデル生成処理の手順を示すフローチャートである。この処理は、一例として、学習モデルの生成リクエストを受け付けた場合に開始することができる。これに限らず、学習データ11Aが取得されていれば任意のタイミングで処理を開始できる。
図14に示すように、学習部11は、学習データ11Aを用いて分類器fのパラメータを学習することにより、学習モデル12を生成する(ステップS101)。続いて、生成部13は、LIMEのアルゴリズムに従ってデータuの近傍において学習モデル12の出力との間で出力が局所的に近似するモデルgを解釈可能モデル14として生成する(ステップS102)。
そして、第1算出部15は、参照データ11Bに含まれる参照データ及び解釈可能モデル14に含まれる解釈可能モデルの全ての組合せに関し、参照データ及び解釈可能モデルの間の類似度を算出する(ステップS103)。
その後、第2算出部16は、参照データ11Bに含まれる参照データ及び解釈可能モデル14に含まれる解釈可能モデルの全ての組合せに関し、学習モデル12及び解釈可能モデルの間における参照データの分類誤差を算出する(ステップS104)。このステップS104の実行後に処理は終了される。
(2)モデル出力処理
図15は、実施例1に係るモデル出力処理の手順を示すフローチャートである。この処理は、第1算出部15により類似度が算出され、かつ第2算出部16により分類誤差が算出された時点以降の任意の時点で開始できる。
図15に示すように、特定部17は、解釈可能モデル14に含まれる複数の解釈可能モデルのうち未選択の解釈可能モデルを1つ選択する(ステップS301)。続いて、特定部17は、上記の類似度行列Sを参照して、選択中の解釈可能モデルとの類似度が最大である参照データを特定する(ステップS302)。
そして、特定部17は、ステップS302で特定された参照データとの類似度が選択中の解釈可能モデルの次に高い次点の解釈可能モデルを特定する(ステップS303)。その上で、特定部17は、選択中の解釈可能モデルの誤差量と、次点の解釈可能モデルの誤差量とに基づいて選択中の解釈可能モデルの影響度を算出する(ステップS304)。
その後、全ての解釈可能モデルが選択されるまで(ステップS305No)、上記のステップS301からステップS304までの処理が実行される。また、全ての解釈可能モデルが選択された場合(ステップS305Yes)、除外部18は、複数の解釈可能モデルのうち影響度が最小である解釈可能モデルを除外する(ステップS306)。
そして、除外により残った解釈可能モデルが所定数になるまで(ステップS307No)、上記のステップS301から上記のステップS306までの処理を繰り返す。その後、残りの解釈可能モデルが所定数になると(ステップS307Yes)、出力部19は、除外により絞り込まれた残りの解釈可能モデルを典型例として出力する(ステップS308)。このステップS308の実行後に処理は終了される。
[効果の一側面]
上述してきたように、本実施例に係るモデル出力装置10では、「よりよいものを残す」というGreedy法の考えに、「より不要なものを優先的に削除する」という消去法の観点を追加した消去法的Greedy法を適用する。すなわち、本実施例に係るモデル出力装置10は、説明対象の分類器が局所近似された複数の解釈可能モデルごとに当該解釈可能モデルと最も類似するテストデータとの間で次に類似する次点の解釈可能モデルを特定し、次点の解釈可能モデルの分類誤差との差が最小である解釈可能モデルを除外して残る解釈可能モデルを典型例として出力する。
このように、次点の解釈可能モデルの分類誤差との差が最小である解釈可能モデルを除外することで、除外の影響が大きい解釈可能モデルを最終まで残すことができる可能性を高める。この結果、一般のGreedy法を適用する場合のように、類似度行列S又は誤差行列Eの一方にGreedy法が適用された時点で他方の誤差行列E又は類似度行列Sの最適解が取りこぼされる事例が発生するのを抑制する。
したがって、本実施例に係るモデル出力装置10によれば、参考技術1及び参考技術2と同様、計算コストをn×参照データ数の行列操作まで削減できると共に、従来技術、参考技術1及び参考技術2よりも典型例の抽出精度を高めることができる。
さて、これまで開示の装置に関する実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。
[学習モデルの応用例]
上記の実施例1では、説明対象とする分類器がディープテンソルにより学習された学習済みモデルである場合を例示したが、これに限定されず、類似度の算出手法は任意であってかまわない。例えば、説明対象とする分類器は、ディープテンソル以外の機械学習により学習された分類器、例えば識別関数等であってもかまわない。この場合、参照データからモデルを算出し、参照データから算出されたモデルと、分類器から生成された解釈可能モデルとを比較することにより類似度を算出し、類似度行列Sを生成することができる。この他、解釈可能モデルの生成時に利用した学習データも併せて記録し、記録したデータと、参照データとを比較することにより類似度を算出し、類似度行列Sを生成することができる。
[分散および統合]
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されておらずともよい。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、学習部11、生成部13、第1算出部15、第2算出部16、特定部17、除外部18または出力部19をモデル出力装置10の外部装置としてネットワーク経由で接続するようにしてもよい。また、学習部11、生成部13、第1算出部15、第2算出部16、特定部17、除外部18または出力部19を別の装置がそれぞれ有し、ネットワーク接続されて協働することで、上記のモデル出力装置10の機能を実現するようにしてもよい。
[モデル出力プログラム]
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図16を用いて、上記の実施例と同様の機能を有するモデル出力プログラムを実行するコンピュータの一例について説明する。
図16は、実施例1及び実施例2に係るモデル出力プログラムを実行するコンピュータのハードウェア構成例を示す図である。図16に示すように、コンピュータ100は、操作部110aと、スピーカ110bと、カメラ110cと、ディスプレイ120と、通信部130とを有する。さらに、このコンピュータ100は、CPU150と、ROM160と、HDD170と、RAM180とを有する。これら110~180の各部はバス140を介して接続される。
HDD170には、図16に示すように、上記の実施例1で示した学習部11、生成部13、第1算出部15、第2算出部16、特定部17、除外部18及び出力部19と同様の機能を発揮するモデル出力プログラム170aが記憶される。このモデル出力プログラム170aは、図1に示した学習部11、生成部13、第1算出部15、第2算出部16、特定部17、除外部18及び出力部19の各構成要素と同様、統合又は分離してもかまわない。すなわち、HDD170には、必ずしも上記の実施例1で示した全てのデータが格納されずともよく、処理に用いるデータがHDD170に格納されればよい。
このような環境の下、CPU150は、HDD170からモデル出力プログラム170aを読み出した上でRAM180へ展開する。この結果、モデル出力プログラム170aは、図16に示すように、モデル出力プロセス180aとして機能する。このモデル出力プロセス180aは、RAM180が有する記憶領域のうちモデル出力プロセス180aに割り当てられた領域にHDD170から読み出した各種データを展開し、この展開した各種データを用いて各種の処理を実行する。例えば、モデル出力プロセス180aが実行する処理の一例として、図14~図15に示す処理などが含まれる。なお、CPU150では、必ずしも上記の実施例1で示した全ての処理部が動作せずともよく、実行対象とする処理に対応する処理部が仮想的に実現されればよい。
なお、上記のモデル出力プログラム170aは、必ずしも最初からHDD170やROM160に記憶されておらずともかまわない。例えば、コンピュータ100に挿入されるフレキシブルディスク、いわゆるFD、CD-ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」にモデル出力プログラム170aを記憶させる。そして、コンピュータ100がこれらの可搬用の物理媒体からモデル出力プログラム170aを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WANなどを介してコンピュータ100に接続される他のコンピュータまたはサーバ装置などにモデル出力プログラム170aを記憶させておき、コンピュータ100がこれらからモデル出力プログラム170aを取得して実行するようにしてもよい。
以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)コンピュータに、
分類器の解析に用いるテストデータそれぞれについて、前記分類器に近似された複数の近似モデルそれぞれとの類似度および誤差を算出し、
前記複数の近似モデルそれぞれについて、類似度が最も高いテストデータを特定し、
前記複数の近似モデルそれぞれについて、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルを前記複数の近似モデルの中から特定し、
前記複数の近似モデルそれぞれについての、前記最も類似の高いテストデータと2番目に類似度の高い近似モデルとの誤差に基づいて選択される、前記誤差が最も小さい近似モデルである除外対象モデルが除外された前記複数の近似モデルを出力する、
処理を実行させるモデル出力プログラム。
(付記2)前記テストデータを特定する処理は、前記除外対象モデルが除外された前記複数の近似モデルそれぞれについて、類似度が最も高いテストデータを特定し、
前記近似モデルを特定する処理は、前記除外対象モデルが除外された前記複数の近似モデルそれぞれについて、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルを、前記除外対象モデルが除外された前記複数の近似モデルの中から特定し、
前記出力する処理は、前記除外対象モデルが除外された前記複数の近似モデルが所定の条件を満たすまで、前記複数の近似モデルから前記除外対象モデルを除外する処理を繰り返すことを特徴とする付記1に記載のモデル出力プログラム。
(付記3)前記複数の近似モデルは、LIME(Local Interpretable Model-agnostic Explainations)のアルゴリズムにしたがって前記分類器へ局所的に近似することにより生成されることを特徴とする付記1に記載のモデル出力プログラム。
(付記4)コンピュータが、
分類器の解析に用いるテストデータそれぞれについて、前記分類器に近似された複数の近似モデルそれぞれとの類似度および誤差を算出し、
前記複数の近似モデルそれぞれについて、類似度が最も高いテストデータを特定し、
前記複数の近似モデルそれぞれについて、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルを前記複数の近似モデルの中から特定し、
前記複数の近似モデルそれぞれについての、前記最も類似の高いテストデータと2番目に類似度の高い近似モデルとの誤差に基づいて選択される、前記誤差が最も小さい近似モデルである除外対象モデルが除外された前記複数の近似モデルを出力する、
処理を実行するモデル出力方法。
(付記5)前記テストデータを特定する処理は、前記除外対象モデルが除外された前記複数の近似モデルそれぞれについて、類似度が最も高いテストデータを特定し、
前記近似モデルを特定する処理は、前記除外対象モデルが除外された前記複数の近似モデルそれぞれについて、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルを、前記除外対象モデルが除外された前記複数の近似モデルの中から特定し、
前記出力する処理は、前記除外対象モデルが除外された前記複数の近似モデルが所定の条件を満たすまで、前記複数の近似モデルから前記除外対象モデルを除外する処理を繰り返すことを特徴とする付記4に記載のモデル出力方法。
(付記6)前記複数の近似モデルは、LIME(Local Interpretable Model-agnostic Explainations)のアルゴリズムにしたがって前記分類器へ局所的に近似することにより生成されることを特徴とする付記4に記載のモデル出力方法。
(付記7)分類器の解析に用いるテストデータそれぞれについて、前記分類器に近似された複数の近似モデルそれぞれとの類似度および誤差を算出する算出部と、
前記複数の近似モデルそれぞれについて、類似度が最も高いテストデータを特定する第1特定部と、
前記複数の近似モデルそれぞれについて、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルを前記複数の近似モデルの中から特定する第2特定部と、
前記複数の近似モデルそれぞれについての、前記最も類似の高いテストデータと2番目に類似度の高い近似モデルとの誤差に基づいて選択される、前記誤差が最も小さい近似モデルである除外対象モデルが除外された前記複数の近似モデルを出力する出力部と、
処理を実行するモデル出力装置。
(付記8)前記第1特定部は、前記除外対象モデルが除外された前記複数の近似モデルそれぞれについて、類似度が最も高いテストデータを特定し、
前記第2特定部は、前記除外対象モデルが除外された前記複数の近似モデルそれぞれについて、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルを、前記除外対象モデルが除外された前記複数の近似モデルの中から特定し、
前記出力部は、前記除外対象モデルが除外された前記複数の近似モデルが所定の条件を満たすまで、前記複数の近似モデルから前記除外対象モデルを除外する処理を繰り返すことを特徴とする付記7に記載のモデル出力装置。
(付記9)前記複数の近似モデルは、LIME(Local Interpretable Model-agnostic Explainations)のアルゴリズムにしたがって前記分類器へ局所的に近似することにより生成されることを特徴とする付記7に記載のモデル出力装置。
10 モデル出力装置
11 学習部
11A 学習データ
11B 参照データ
12 学習モデル
13 生成部
14 解釈可能モデル
15 第1算出部
16 第2算出部
17 特定部
18 除外部
19 出力部

Claims (5)

  1. コンピュータに、
    分類器の解析に用いる複数のテストデータに含まれるテストデータごとに、前記テストデータと前記分類器に近似された複数の近似モデルそれぞれとの類似度を算出すると共に、前記分類器と前記複数の近似モデルそれぞれとの誤差を算出し、
    前記複数の近似モデルそれぞれについて、類似度が最も高いテストデータを特定し、
    前記複数の近似モデルそれぞれについて、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルを前記複数の近似モデルの中から特定し、
    前記複数の近似モデルそれぞれについての、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルとの誤差の差に基づいて選択される、前記誤差の差が最も小さい近似モデルである除外対象モデルが除外された前記複数の近似モデルを出力する、
    処理を実行させるモデル出力プログラム。
  2. 前記テストデータを特定する処理は、前記除外対象モデルが除外された前記複数の近似モデルそれぞれについて、類似度が最も高いテストデータを特定し、
    前記近似モデルを特定する処理は、前記除外対象モデルが除外された前記複数の近似モデルそれぞれについて、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルを前記複数の近似モデルの中から特定し、
    前記出力する処理は、前記除外対象モデルが除外された前記複数の近似モデルが所定の条件を満たすまで、前記複数の近似モデルから前記除外対象モデルを除外する処理を繰り返すことを特徴とする請求項1に記載のモデル出力プログラム。
  3. 前記複数の近似モデルは、LIME(Local Interpretable Model-agnostic Explainations)のアルゴリズムにしたがって前記分類器へ局所的に近似することにより生成されることを特徴とする請求項1に記載のモデル出力プログラム。
  4. コンピュータが、
    分類器の解析に用いる複数のテストデータに含まれるテストデータごとに、前記テストデータと前記分類器に近似された複数の近似モデルそれぞれとの類似度を算出すると共に、前記分類器と前記複数の近似モデルそれぞれとの誤差を算出し、
    前記複数の近似モデルそれぞれについて、類似度が最も高いテストデータを特定し、
    前記複数の近似モデルそれぞれについて、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルを前記複数の近似モデルの中から特定し、
    前記複数の近似モデルそれぞれについての、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルとの誤差の差に基づいて選択される、前記誤差の差が最も小さい近似モデルである除外対象モデルが除外された前記複数の近似モデルを出力する、
    処理を実行するモデル出力方法。
  5. 分類器の解析に用いる複数のテストデータに含まれるテストデータごとに、前記テストデータと前記分類器に近似された複数の近似モデルそれぞれとの類似度を算出すると共に、前記分類器と前記複数の近似モデルそれぞれとの誤差を算出する算出部と、
    前記複数の近似モデルそれぞれについて、類似度が最も高いテストデータを特定する第1特定部と、
    前記複数の近似モデルそれぞれについて、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルを前記複数の近似モデルの中から特定する第2特定部と、
    前記複数の近似モデルそれぞれについての、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルとの誤差の差に基づいて選択される、前記誤差の差が最も小さい近似モデルである除外対象モデルが除外された前記複数の近似モデルを出力する出力部と、
    を有するモデル出力装置。
JP2019020981A 2019-02-07 2019-02-07 モデル出力プログラム、モデル出力方法及びモデル出力装置 Active JP7225874B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019020981A JP7225874B2 (ja) 2019-02-07 2019-02-07 モデル出力プログラム、モデル出力方法及びモデル出力装置
US16/782,193 US11410065B2 (en) 2019-02-07 2020-02-05 Storage medium, model output method, and model output device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019020981A JP7225874B2 (ja) 2019-02-07 2019-02-07 モデル出力プログラム、モデル出力方法及びモデル出力装置

Publications (2)

Publication Number Publication Date
JP2020129222A JP2020129222A (ja) 2020-08-27
JP7225874B2 true JP7225874B2 (ja) 2023-02-21

Family

ID=71945305

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019020981A Active JP7225874B2 (ja) 2019-02-07 2019-02-07 モデル出力プログラム、モデル出力方法及びモデル出力装置

Country Status (2)

Country Link
US (1) US11410065B2 (ja)
JP (1) JP7225874B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11580390B2 (en) * 2020-01-22 2023-02-14 Canon Medical Systems Corporation Data processing apparatus and method
US11461651B2 (en) * 2020-04-09 2022-10-04 Micron Technology, Inc. System on a chip with deep learning accelerator and random access memory
EP4207006A4 (en) * 2020-08-31 2023-09-27 Fujitsu Limited MODEL GENERATION PROGRAM, MODEL GENERATION METHOD AND MODEL GENERATION APPARATUS
JP7524778B2 (ja) 2021-01-27 2024-07-30 富士通株式会社 機械学習プログラム、機械学習方法及び機械学習装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016067548A1 (ja) 2014-10-28 2016-05-06 日本電気株式会社 領域線形モデル最適化システム、方法およびプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10268961B2 (en) * 2015-11-24 2019-04-23 Sap Se Generating predictive models to reconfigure electronic devices
US20180189669A1 (en) * 2016-12-29 2018-07-05 Uber Technologies, Inc. Identification of event schedules

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016067548A1 (ja) 2014-10-28 2016-05-06 日本電気株式会社 領域線形モデル最適化システム、方法およびプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
RIBEIRO Marco Tulio et al.,"Why Should I Trust You?" Explaining the Predictions of Any Classifier,arXiv [online],2016年08月09日,[2022年9月29日検索],インターネット<URL: https://arxiv.org/abs/1602.04938v3>
原 聡 ほか,機械学習モデルの列挙,第105回 人工知能基本問題研究会資料 (SIG-FPAI-B508),一般社団法人人工知能学会,2018年01月22日,p.1-5

Also Published As

Publication number Publication date
US20200257999A1 (en) 2020-08-13
US11410065B2 (en) 2022-08-09
JP2020129222A (ja) 2020-08-27

Similar Documents

Publication Publication Date Title
JP7225874B2 (ja) モデル出力プログラム、モデル出力方法及びモデル出力装置
JP6928371B2 (ja) 分類器、分類器の学習方法、分類器における分類方法
US10068186B2 (en) Model vector generation for machine learning algorithms
CN113011895B (zh) 关联账户样本筛选方法、装置和设备及计算机存储介质
US11531734B2 (en) Determining optimal machine learning models
JP7115207B2 (ja) 学習プログラム、学習方法および学習装置
JP2018194974A (ja) 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法
US20230005572A1 (en) Molecular structure acquisition method and apparatus, electronic device and storage medium
CN109787958A (zh) 网络流量实时检测方法及检测终端、计算机可读存储介质
CN112348321A (zh) 风险用户的识别方法、装置及电子设备
CN111459898A (zh) 机器学习方法、计算机可读记录介质以及机器学习设备
CN115699041A (zh) 利用专家模型的可扩展迁移学习
US11568263B2 (en) Techniques to perform global attribution mappings to provide insights in neural networks
US20210319303A1 (en) Multi-source transfer learning from pre-trained networks
Han et al. SlimML: Removing non-critical input data in large-scale iterative machine learning
Liu et al. A modified support vector machine model for credit scoring
US20220044136A1 (en) Automated data table discovery for automated machine learning
US20230334342A1 (en) Non-transitory computer-readable recording medium storing rule update program, rule update method, and rule update device
WO2024045319A1 (zh) 人脸图像聚类方法、装置、电子设备及存储介质
CN114742645B (zh) 基于多阶段时序多任务的用户安全等级识别方法及装置
CN116703466A (zh) 基于改进灰狼算法的系统访问量预测方法及其相关设备
JP6300572B2 (ja) データ分析プログラム、及びデータ分析装置
CN111753992A (zh) 筛选方法和筛选系统
JP7563495B2 (ja) 学習装置、学習方法、及び、プログラム
JP7306432B2 (ja) 情報処理方法、情報処理装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230123

R150 Certificate of patent or registration of utility model

Ref document number: 7225874

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150