JP2023546021A - 機械学習モデルにおける反実仮想説明のためのシステム及び方法 - Google Patents

機械学習モデルにおける反実仮想説明のためのシステム及び方法 Download PDF

Info

Publication number
JP2023546021A
JP2023546021A JP2023521466A JP2023521466A JP2023546021A JP 2023546021 A JP2023546021 A JP 2023546021A JP 2023521466 A JP2023521466 A JP 2023521466A JP 2023521466 A JP2023521466 A JP 2023521466A JP 2023546021 A JP2023546021 A JP 2023546021A
Authority
JP
Japan
Prior art keywords
feature
counterfactual
machine learning
hypothetical
query
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023521466A
Other languages
English (en)
Inventor
ヤン,ウェンヂュオ
リー,ジア
ホイ,チュー,ホン
ション,カイミング
Original Assignee
セールスフォース インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by セールスフォース インコーポレイテッド filed Critical セールスフォース インコーポレイテッド
Publication of JP2023546021A publication Critical patent/JP2023546021A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/045Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

本明細書で説明される実施形態は、反実仮想特徴選択と反実仮想特徴最適化を介して反実仮想説明を生成するための二段階モデル非依存アプローチを提供する。クエリインスタンスが与えられると、反実仮想特徴選択は、予測を潜在的に変化させる可能性がある特徴列と値のサブセットを選択し、その後、反実仮想特徴最適化は、選択された特徴に対する最良の特徴値を反実仮想例として決定する。

Description

相互参照
本開示は、2021年1月29日に出願された米国特許出願第17/162931号及び2021年1月29日に出願された米国特許出願第17/162967号に対する優先権を主張するが、これらは2020年10月8日に出願された米国仮出願第63/089,473号の非仮出願であり、35 U.S.C.119の下でこれに対する優先権を主張するものであり、これらのすべては、参照によってその全体が本明細書に明示的に組み込まれる。
技術分野
本開示は、一般的に機械学習モデル及びニューラルネットワークに関連し、より具体的には、機械学習モデルのための候補反実仮想特徴(counterfactual feature)の選択と最適化を介した反実仮想説明(counterfactual explanation)システムに関する。
機械学習モデルは様々な用途で広く応用されており、特にコンピュータビジョン、自然言語処理及び推奨システムにおいて有望な結果をもたらしている。これらのモデルの採用が急速に拡大するにつれて、医療、教育及び金融におけるこれらのアルゴリズムによる決定は、一般の人々に大きな社会的影響を持つ可能性がある。しかしながら、多くの機械学習モデル、特にディープラーニングモデルは、一般的にブラックボックスモデルとして機能し、特定の決定が行われる理由についての可視性と知識をほとんど提供しない。説明可能性の欠如は、多くの用途で依然として重要な懸念事項のままであり、したがって、完全な信頼性と信用のある機械学習/人工知能(AI)システムの更なる実装を妨げる。
本明細書で説明される実施形態による、機械学習モデルの反実仮想説明を生成する概要を示す簡略図である。
本明細書で説明される実施形態による、図1に示される反実仮想例生成モジュールの概要を提供する図である。
いくつかの実施形態による、反実仮想説明を生成するためのコンピューティングデバイスの簡略図である。
本明細書で説明される実施形態による、反実仮想例生成の方法を示す例示的な論理フロー図を提供する図である。
本明細書で説明される実施形態による、反実仮想特徴を生成するための最近傍探索(nearest neighbor search)アプローチのアルゴリズムを示す例示の擬似コードセグメントを提供する図である。
本明細書で説明される実施形態による、反実仮想特徴を生成するための推奨モデルを構築するアルゴリズムを示す例示の擬似コードセグメントを提供する図である。
本明細書で説明される実施形態による、推奨モデルに基づいて反実仮想特徴選択を生成するアルゴリズムを示す例示の擬似コードセグメントを提供する図である。
本明細書で説明される実施形態による、特徴選択のための推奨モデルのニューラルネットワークモデル構造を示す簡略図である。
本明細書で説明される実施形態による、選択された反実仮想特徴を所与として反実仮想例を生成するための強化学習ベースの反実仮想特徴最適化のアルゴリズムを示す例示の擬似コードセグメントを提供する図である。
本明細書で説明される実施形態による、選択された反実仮想特徴を所与として反実仮想例を生成するための勾配なし降下(gradientless descent)ベースの反実仮想特徴最適化のアルゴリズムを示す代替の例示の擬似コードセグメントを提供する図である。 本明細書で説明される実施形態による、選択された反実仮想特徴を所与として反実仮想例を生成するための勾配なし降下ベースの反実仮想特徴最適化のアルゴリズムを示す代替の例示的な擬似コードセグメントを提供する図である。
本明細書で説明される実施形態による、多様な反実仮想例を生成するアルゴリズムを示す例示の擬似コードセグメントを提供する図である。
一実施形態による、反実仮想例生成のデータ実験結果を示す例示のデータテーブルを提供する図である。 一実施形態による、反実仮想例生成のデータ実験結果を示す例示のデータテーブルを提供する図である。 一実施形態による、反実仮想例生成のデータ実験結果を示す例示のデータテーブルを提供する図である。 一実施形態による、反実仮想例生成のデータ実験結果を示す例示のデータテーブルを提供する図である。 一実施形態による、反実仮想例生成のデータ実験結果を示す例示のデータテーブルを提供する図である。 一実施形態による、反実仮想例生成のデータ実験結果を示す例示のデータテーブルを提供する図である。 一実施形態による、反実仮想例生成のデータ実験結果を示す例示のデータテーブルを提供する図である。 一実施形態による、反実仮想例生成のデータ実験結を示す例示のデータテーブルを提供する図である。 一実施形態による、反実仮想例生成のデータ実験結果を示す例示のデータテーブルを提供する図である。 一実施形態による、反実仮想例生成のデータ実験結果を示す例示のデータテーブルを提供する図である。 一実施形態による、反実仮想例生成のデータ実験結果を示す例示のデータテーブルを提供する図である。 一実施形態による、反実仮想例生成のデータ実験結果を示す例示のデータテーブルを提供する図である。 一実施形態による、反実仮想例生成のデータ実験結果を示す例示のデータテーブルを提供する図である。 一実施形態による、反実仮想例生成のデータ実験結果を示す例示のデータテーブルを提供する図である。 一実施形態による、反実仮想例生成のデータ実験結果を示す例示のデータテーブルを提供する図である。 一実施形態による、反実仮想例生成のデータ実験結果を示す例示のデータテーブルを提供する図である。
図及び付録では、同じ名称を有する要素は同じ又は類似の機能を有する。
説明可能なAI(Explainable AI、XAI)は、AIシステムのこれらのブラックボックス決定がどのように行われるかについての説明を提供する。このような説明は、AIシステムの透明性、説得力及び信頼性を向上させ、AI開発者がモデルの性能をデバッグ及び改善するのに役立つことができる。反実仮想説明は、AIシステムの様々な説明のうちの1つであり、所定の出力を持つために元のインスタンスの特徴に最小限の変更を行うことによって取得される、生成された例として定義される。具体的には、因果的状況は「モデルにYを予測させたのは入力Xであるか」又は「Xが発生していなければYは発生しなかったであろう」という形式で記述される。
例えばクレジットカードの申請を提出した人が、金融会社のAIシステムによって拒否されたことを考える。申請者は、その決定について会社に説明を求めることがある。反実仮想は、申請が却下された理由の説明を提供するだけでなく、例えば「収入が年間5000ドル以上であれば、申請は承認されていたでしょう」等、申請者がこの決定を変えるために何ができたかを理解することにも役立つ。一部の既存のシステムによって採用されている機能の重要性に基づく説明とは異なり、反実仮想説明は、ユーザが「what-if」シナリオを探索して、基礎となるAIモデルについてより深い理解を取得することを可能にする。
反実仮想説明のための既存のアプローチは、一般に最適化ベースであり、たいていは、基礎となるAIモデルが微分可能かつ静的であること、すなわち、モデルが固定されており、入力に対する勾配を計算するのが容易であると仮定している。この仮定は、ニューラルネットワークベースのモデルには有効な可能性があるが、広く適用されているモデルXGBoostのようなツリーブーストモデルにはほとんど無効である。加えて、これらの方法では、多くの異なる値(例えば数値以外の値)を有するカテゴリ特徴をうまく処理できない。例えば既存の方法は、カテゴリ特徴をワンホット(one-hot)符号化表現に変換し、次いで、これらを連続特徴(continuous features)として扱う。この緩和により、多くの新しい変数が導入され、これは、元の最適化問題が複雑にし、生成された反実仮想例のスパース性を低下させる。反実仮想例の現実世界の実現可能性を確保するために、特に連続特徴について、特徴に追加の制約を課す必要があり、元の最適化問題の複雑さが大幅に高まる。
したがって、既存の反実仮想説明システムの問題を考慮して、本明細書で説明される実施形態は、反実仮想特徴選択と反実仮想特徴最適化を介して反実仮想説明を生成するための二段階モデル非依存アプローチ(two-stage model-agnostic approach)を提供する。具体的には、反実仮想特徴選択は、クエリインスタンス内の特徴列と値を大まかに見つけるために採用されるので、それらを修正することにより、その予測ラベルを変更することができる可能性が高い。特徴は、データ例の各特徴の特徴空間における最近傍(nearest-neighbor、NN)探索を介して識別され得る。あるいは、特徴推奨モデルが反実仮想特徴選択のために開発され、反実仮想例を見つけるための探索空間を縮小し、次のステップ、すなわち反実仮想特徴最適化のための計算時間を短縮することができる。
次いで、反実仮想特徴最適化が、事反実仮想特徴選択から抽出された候補反実仮想特徴を所与としてファインチューニング手順として採用される。反実仮想特徴最適化は、最良の反実仮想特徴を見つけるための強化学習(reinforcement learning、RL)問題として扱われることがある。あるいは、連続的な反実仮想特徴を更にファインチューニングするために、勾配なし降下法(gradientless descent、GLD)を採用することもできる。
したがって、このようにして、取得された最適な反実仮想特徴を、機械学習の決定の背後にある理由をユーザが説明するためのより詳細な情報を提供する説明として使用することができる。加えて、RLベースの方法で取得された最適なポリシーは、ユーザが「what-if」シナリオを探索し、データセットにバイアスが存在するかどうかを発見するためのより詳細な情報を提供することができる。
本明細書で使用されるとき、「ネットワーク」という用語は、任意の人工知能ネットワーク又はシステム、ニューラルネットワーク又はシステム、及び/又はそれらの上に又はそれらとともに実装される任意のトレーニング又は学習モデルを含む、任意のハードウェア又はソフトウェアベースのフレームワークを含むことがある。
本明細書で使用されるとき、「モジュール」という用語は、1つ以上の機能を実行するハードウェア又はソフトウェアベースのフレームワークを含むことがある。いくつかの実施形態では、モジュールは、1つ以上のニューラルネットワークにおいて実装されることがある。
概要
図1は、本明細書で説明される実施形態による、機械学習モデルの反実仮想説明を生成する概要を示す簡略図100を示している。図100は、トレーニングされた機械学習モデル110f( )、例えばXGBoost又はディープラーニングモデルとともに実装され得るフレームワークを示す。
によって表されるクエリ101に応答して、トレーニングされた機械学習モデル110は、予測ラベル106yを生成し得る。目的(objective)は、機械学習モデルf( )110からの予測ラベルy’が予測ラベル106yと異なるように、反実仮想例112
を生成することである。
例えば機械学習モデル110は、ある人の収入が年間5万ドルを超えるかどうかを、年齢、学歴(education)、労働時間等のような、彼女の属性に基づいて予測する、バイナリクラス分類問題であり得る。分類子は、国勢調査の収入データでトレーニングされる。基本的な統計分析から、彼女の年齢が30歳超であるか、彼女の学歴が学士号より高いか又は彼女がより長い労働時間を有する場合、彼女はおそらく年間5万ドルを超える収入がある。説明するために「年齢=20歳、学歴=高校、労働時間=30、予測収入<年間5万ドル」を有するクエリインスタンス102が与えられると、反実仮想例生成120は、異なる予測ラベル「収入>年間5万ドル」を有する「年齢=30、学歴=修士、労働時間=30、予測収入>年間5万ドル」の反実仮想例112を生成することができる。したがって、クエリインスタンス102と反実仮想例112との間の属性を比較することによって、属性「年齢=20」及び「学歴=高校」が、予測「収入<年間5万ドル」を引き起こす属性を決定している可能性があるという説明が提供され得る。
図2は、本明細書で説明される実施形態による、図1に示される反実仮想例生成モジュール120の概要を提供する。従来、反実仮想例生成は、f(x')≠yの対象となるxとx′との間の距離を最小化することによって最適化問題として定式化されてきた。この最適化問題は通常、機械学習モデルf(・)の複雑さ、x内のカテゴリ特徴及びx′に対する現実世界の実現可能性の制約に起因して、解くことが困難である。反実仮想例生成モジュール120は、以下で更に説明されるように、反実仮想特徴選択131と反実仮想特徴最適化132を含む、二段階アプローチを採用する。
クエリインスタンス102が与えられると、反実仮想特徴選択モジュール131は、潜在的に予測を変える可能性がある特徴列と値のサブセットを選択する。年齢、学歴及び労働時間を所与として、ある人の収入が年間5万ドルを超えるかどうかを予測するバイナリ分類子の例では、反実仮想例を生成するときに、年齢、学歴、労働時間のドメイン全体を考慮する代わりに、反実仮想特徴選択モジュール131は、ドメインを「年齢≧30、学歴∈[学士、修士、博士]、労働時間≧40」に絞り込む。探索空間が縮小され、絞り込まれたドメインは、可能な反実仮想例の現実世界の実現可能性を既に考慮しているので、絞り込まれたドメインを使用して、最適化手順を簡略化し、より信頼性の高い説明に導くことができる。
ドメインを絞り込むことに加えて、反実仮想例x′の連続特徴についての大まかな推定値は、反実仮想例で示されることが多い、例えばx′における「労働時間=範囲[45,50]は許容可能であるので、「労働時間=48.5」のような属性に対する正確な値を計算する必要がない。したがって、従来の最適化アプローチによってカテゴリ特徴を連続特徴に変換する代わりに、連続特徴は、反実仮想特徴選択の前にこれらをk個のビン(bin)に離散化することによってカテゴリ特徴に変換される。
したがって、図2に示されるように、反実仮想特徴選択モジュール131は、列「年齢」と値「30」、「35」、「40」、列「学歴」と値「学士」、「修士」、「PhD」等のような特徴列と離散値のサブセット204を選ぶ。反実仮想特徴選択モジュール131によって実行される特徴選択のアルゴリズムの更なる詳細は、図5~図7に関連して以下に説明される。例えば反実仮想特徴選択は、図5のアルゴリズム1で説明されるような最近傍探索を採用し得る。
次に、クエリインスタンス102とその予測ラベルy(収入<年間5万ドル)及び選択された反実仮想特徴204が与えられると、反実仮想特徴最適化モジュール132は、修正されたインスタンスx′の予測ラベルがyと異なるように、204のうちのどの特徴を操作し、どの値を設定するかを決定する。
反実仮想特徴最適化は、次いで、選択された特徴列ごとに最良の特徴値を決定する、例えば「年齢=30歳、教育=修士、労働時間=45」等。その後、最適化された特徴値に基づいて、反実仮想例206のバッチを構築することができる。反実仮想特徴最適化モジュール131によって実行される特徴最適化のアルゴリズムの更なる詳細は、図9~図10に関連して以下に説明される。例えば反実仮想特徴最適化モジュール132は図9のアルゴリズム9を採用し得る。
反実仮想特徴最適化132から生成された反実仮想例206のセットが与えられると、反実仮想例選択133は、各反実仮想例の近接性が可能な限り高くなる(又は各反実仮想例と元のクエリとの間の距離が可能な限り小さくなる)ように、多様な反実仮想例のセットを選ぶように構成される。多様な反実仮想例を生成することは、機械学習予測のより良い理解を得るのに役立つことができる。反実仮想例選択133は、図11のアルゴリズム6によって実装されてよく、このアルゴリズムは、近接性と多様性に基づいて上位k個の反実仮想例を生成する貪欲アルゴリズムを含む。
より実行可能な説明を生成するために、連続近接性(continuous proximity)を更に最適化したい場合、連続特徴ファインチューニングモジュール134が適用される。具体的には、連続特徴を離散化することに関する1つの懸念は、生成された反実仮想例が、順序符号化を介して離散化される代わりに、直接最適化される場合、それらの連続特徴に対してより良好な又はより実行可能な値を有する可能性があることである。したがって、連続特徴ファインチューニングモジュール134は、近接性を改善するために、連続反実仮想特徴を更に最適化することがある。一実装では、連続特徴ファインチューニングモジュール134は、図10Bのアルゴリズム5、例えば連続反実仮想特徴を洗練するための勾配なし降下(gradient-less descent、GLD)方法を実装し得る。
したがって、連続特徴ファインチューニングの後、最終的な反実仮想例208、例えば「年齢=25、ワーククラス(work class)=プライベート、学歴=学士、労働時間=42.5」等を生成することができる。
コンピュータ環境
図3は、いくつかの実施形態による、反実仮想説明を生成するためのコンピューティングデバイスの簡略図である。図3に示されるように、コンピューティングデバイス300は、メモリ320に結合されたプロセッサ310を含む。コンピューティングデバイス300の動作はプロセッサ310によって制御される。また、コンピューティングデバイス300は、1つのプロセッサ310のみを有するように示されているが、プロセッサ310は、コンピューティングデバイス300における1つ以上の中央演算処理ユニット、マルチコアプロセッサ、マイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、グラフィクス処理ユニット(GPU)等を表してもよいことが理解される。コンピューティングデバイス300は、スタンドアロンサブシステムとして、コンピューティングデバイスに追加されるボードとして及び/又は仮想マシンとして実装されてもよい。
メモリ320は、コンピューティングデバイス300によって実行されるソフトウェア及び/又はコンピューティングデバイス300の動作中に使用される1つ以上のデータ構造を記憶するために使用されてもよい。メモリ320は、1つ以上のタイプの機械読取可能媒体を含んでもよい。いくつかの一般的な形式の機械読取可能媒体は、フロッピーディスク、フレキシブルディスク、ハードディスク、磁気テープ、任意の他の磁気媒体、CD-ROM、任意の他の光媒体、パンチカード、紙テープ、穴のパターンを有する任意の他の物理媒体、RAM、PROM、EPROM、FLASH-EPROM、任意の他のメモリチップ又はカートリッジ、及び/又はプロセッサ又はコンピュータが読み取りに適応される任意の他の媒体を含んでよい。
プロセッサ310及び/又はメモリ320は、任意の適切な物理的配置で配置されてよい。いくつかの実施形態では、プロセッサ310及び/又はメモリ320は、同じボード上に、同じパッケージ内に(例えばシステムインパッケージ)、同じチップ上に(例えばシステムオンチップ)実装されてよい。いくつかの実施形態では、プロセッサ310及び/又はメモリ320は、分散コンピューティングリソース、仮想化コンピューティングリソース及び/又はコンテナ化コンピューティングリソースを含んでよい。このような実施形態と一貫して、プロセッサ310及び/又はメモリ320は、1つ以上のデータセンタ及び/又はクラウドコンピューティング施設に配置されてもよい。
いくつかの例では、メモリ320は、1つ以上のプロセッサ(例えばプロセッサ310)によって実行されると、該1つ以上のプロセッサに、本明細書で更に詳細に説明される方法を実行させ得る実行可能コードを含む、非一時的な有形の機械読取可能媒体を含んでよい。例えば示されるように、メモリ320は、システム及びモデルを実装及び/又はエミュレートし、かつ/又は本明細書で更に説明される方法のいずれかを実装するために使用され得る、反実仮想説明モジュール330のための命令を含む。いくつかの例では、反実仮想説明モジュール330は、データインタフェース315を介して、例えばクエリインスタンスのような入力340を受け取ることができる。データインタフェース315は、ユーザクエリを受信するユーザインタフェース又は以前に記憶されたクエリサンプルをデータベースから受け取る又は取り出すことができる通信インタフェースのいずれかであってよい。反実仮想説明モジュール330は、反実仮想例のような出力350を生成することができる。
いくつかの実施形態では、反実仮想説明モジュール330は、反実仮想特徴選択モジュール131、反実仮想特徴最適化モジュール132、反実仮想例選択モジュール133及び連続特徴ファインチューニングモジュール134を更に含んでよく、これらは、図2に関連して説明されるものと同様の動作を実行する。いくつかの例では、反実仮想説明モジュール330及びサブモジュール131~134は、ハードウェア、ソフトウェア及び/又はハードウェアとソフトウェアの組合せを使用して実装されてよい。例えば反実仮想特徴選択モジュール131は、図8の800に示されている構造を含み、図6~図7に関連して説明されるアルゴリズム及び/又はプロセスを実装することができる。反実仮想特徴最適化モジュール132は、図9~図10に関連して説明されるアルゴリズム及び/又はプロセスを実装することができる。反実仮想例選択モジュール133は、図11に関連して説明されるアルゴリズム及び/又はプロセスを実装することができる。連続特徴ファインチューニングモジュール134は、図10Bに関連して説明されるアルゴリズム及び/又はプロセスを実装することができる。
反実仮想例生成の例示的な実施形態
図4は、本明細書で説明される実施形態による、反実仮想例生成の方法を示す例示的論理フロー図を提供する。方法400のプロセス402~414のうちの1つ以上は、少なくとも部分的に、1つ以上のプロセッサによって実行されると、該1つ以上のプロセッサにプロセス402~414のうちの1つ以上を実行させる、非一時的な有形の機械読取可能媒体に記憶された実行可能コードの形式で実装されてよい。いくつかの実施形態では、方法400は、モジュール330によって使用される方法に対応してよい。
プロセス402において、クエリインスタンス(例えば図2の102)が、例えば図3のデータインタフェース315を介して受信され得る。クエリインスタンスは、複数の特徴列(例えば「年齢」、「労働時間」、「学歴」等)と、対応する特徴値(例えば年齢=「20」、労働時間=「30」等)を含み得る。
プロセス404において、機械学習モデル(例えば図1の110)は、クエリインスタンスに応答して予測ラベルを生成することができる。例えば入力クエリインスタンスの予測収入レベルの予測バイナリラベル「年間5万ドル超でない(not>$50K/yr)」。
プロセス406において、特徴列と特徴値のサブセットが潜在的に異なる予測ラベルをもたらす可能性があるように、各特徴列が特徴値のそれぞれのサブセットに関連付けられる、特徴列のサブセットを識別する。例えばプロセス406は、K-最近傍探索(図5に関連して更に説明される)又は推奨モデル(図6~図8に関連して更に説明される)に基づいて、反実仮想特徴選択モジュール131によって実装されてよい。
プロセス408において、プロセス406から、選択された特徴列と特徴値が与えられると、クエリインスタンス内の操作すべき最適特徴を決定し、特徴列と値の識別されたサブセットからこれらの特徴に対して値が設定される。このように、プロセス410において、決定された最適特徴と値に基づいて、反実仮想例が構築される。プロセス408~410は、図9で更に説明されるような強化学習法を使用するか、あるいは図10Aで更に説明されるような勾配なし降下法を使用して、反実仮想特徴最適化モジュール132によって実行され得る。反実仮想例は、機械学習モデルの勾配なしで生成されてよく、したがって、すべての種類の分類モデルに適用され得る。
プロセス412において、最適化された反実仮想例が与えられると、近接性及び多様性を提供するために、反実仮想例のサブセットが選択され得る。例えば選択は図11のアルゴリズム6を介して実行されてよい。選択された多様な反実仮想例は、次いで、連続特徴についてファインチューニングされてよく、これは、図10BのGLDアルゴリズムを介して実行され得る。
プロセス414において、特定のクエリインスタンスに応答して、生成された反実仮想例を、予測ラベルとともに、予測ラベルが生成される理由の説明として出力することができる。
図5は、本明細書で説明される実施形態による、反実仮想特徴を生成するための最近傍探索アプローチのアルゴリズムを示す例示の擬似コードセグメントを提供する。機械学習モデル110をトレーニングするためのデータ、例えばバイナリ分類子は、ラベルに従って2つのクラスに分割される。アルゴリズム1のステップ(1)において、各クラスラベルlについて、ラベルlに関連付けられる分割されたデータセット、例えば{xi|yi=l、ただし、(xi, yi)∈D}を用いて、探索インデックスtreelが高速な最近傍探索のために構築される。例えばトレーニングデータセットDは、機械学習モデル110をトレーニングするための例のサブセット又は例の全体のいずれかである可能性がある。
アルゴリズム1のステップ(2)において、反実仮想特徴選択モジュール131は、探索インデックスツリーtreey’を使用して、異なるクラスラベルy’=1-yにおけるxのK個の最近傍を見つける。具体的には、本明細書で適用される距離メトリックはユークリッド距離である。クエリインスタンスxの連続特徴は、ビンに離散化されていることに留意されたい。ワンホット符号化がカテゴリ特徴に適用され、一方、順序符号化を連続特徴に適用し、それにより、近さの情報、例えば20~25歳は45~50歳より25~30歳に近い等を保存することができる。
アルゴリズム1のステップ(3)~(6)において、元のクエリインスタンスxと比較した、変化された特徴列の頻度(frequency)と、k個の最近傍の変化した特徴値の頻度が計算される。
アルゴリズム1のステップ(7)において、反実仮想特徴選択モジュール131は、変化した特徴列の計算された頻度に関して、特徴列を降順にソートする。モジュール131は、次いで、上位s個の特徴列を選択する。
アルゴリズム1のステップ(8)において、モジュール131は、変化した特徴値の計算された頻度に関して、変化した値の要素を降順にソートする。モジュール131は、次いで、各特徴列の上位m個の値を選択する。
アルゴリズム1のステップ(9)において、Cで示される、選択された上位s個の特徴列と、V(C)で示される、選択された上位m個の特徴値が、モジュール131によって選択された反実仮想特徴として出力される。
アルゴリズム1は、最大でs×mの候補特徴を生成するように効率的に実装されることができる。アルゴリズム1はまた、ユーザが、実行可能な機能列又は最も関心のある列を指定することも可能にする。このように、探索インデックスを構築する前に、x内のすべての特徴を考慮する代わりに、モジュール131は、ユーザを指定した特徴のサブセットのみを考慮し、このサブセットに基づいて探索インデックスを構築し、これは計算コストを大幅に削減する。
図6は、本明細書で説明される実施形態による、反実仮想特徴を生成するための推奨モデルを構築するアルゴリズムを示す例示の擬似コードセグメントを提供する。図6に示されるアルゴリズム2は、推奨モデルに基づいて反実仮想特徴を生成する代替的なアプローチを示す。具体的には、モジュール131の目的は、予測ラベルを潜在的に変えるいくつかの特徴を選択することであるので、この問題は推奨問題と言い換えることができる、すなわち、d個の異なる特徴と予測ラベルyを有する入力xが与えられると、推奨モデルは、以下を推奨するようにトレーニングされる:(1)これらの特徴の値を変化させることが、潜在的に、予測ラベルをyからy′=1-yに変える可能性があるような、k個の特徴列と;(2)これらの値に設定することが、潜在的に、予測ラベルを反転させる可能性があるような、前のステップで選択された各特徴についてのm個の候補値。
したがって、機械学習モデル110、例えば分類子f(・)と、トレーニングデータDが与えられると、別の機械学習モデルg(・)が、この推奨タスクを実行するようにトレーニングされ得る。アルゴリズム2は、高い推奨精度で機械学習モデルg()を設計するために、反実仮想特徴推奨タスクのためのトレーニングデータセットを構築する例示的な方法を示す。
アルゴリズム2のステップ(1)において、各クエリインスタンスxi∈Dについて、予測ラベルf(xi)が生成され、結果として、集合(set)X={(xi, f(xi))、ただしi=1,…,n}が得られる。反実仮想説明は、トレーニングされた分類子f(・)に基づいているので、トレーニングデータセットを構築するために使用されるデータは、分類子の予測結果Xである。
アルゴリズム2のステップ(2)において、各クラスラベルlについて、探索インデックスtreelが、ラベルlに関連付けられる分割されたデータセット、例えば{xi|yi=l、ただし(xi,yi)∈X}を用いて、高速な最近傍探索のために構築される。
アルゴリズム2のステップ(3)~(4)において、X内の各インスタンス(xi, yi)について、ラベルl-yiを有するクラス内のxiの集合Zとして示されるK個の最近傍を、例えば探索インデックスtreel-yiを介して見つける。
アルゴリズム2のステップ(5)において、Zから、xiのものとは異なる特徴列cと特徴値vを、推奨モデルのためのトレーニングデータセットであるデータセットRに入れる。
したがって、(x, y, c, v)∈Rについて、推奨モデルの目的は、インスタンスxとその予測ラベルyが与えられると、特徴列cと特徴値vを予測することである。Rにはいくつかの重複インスタンスが存在する可能性があること留意されたい。すなわち、同じ(x, y, c, v)∈Rが複数回現れる可能性がある。インスタンス(x, y, c, v)が繰り返し現れる場合、(c, v)はxの候補特徴である可能性が高く、これは、推奨モデルをトレーニングする間にこのインスタンスにより多くの重みを課すことと同等であるので、重複するインスタンスを除去する必要はない。
図7は、本明細書で説明される実施形態による、推奨モデルに基づいて反実仮想特徴選択を生成するアルゴリズムを示す例示の擬似コードセグメントを提供する。図6のアルゴリズム2によって生成されたトレーニングデータセットRが与えられると、R内にr個のインスタンスがある、
と仮定する。
アルゴリズム3のステップ(1)において、推奨モデルは、(xi, yi)を入力として取り、以下を生成する:1)特徴列選択の確率
例えばより高い確率を有する特徴列は、その値を変更することが、予測ラベルを反転させる可能性がより高いことを意味する。2)各特徴列についての特徴値選択の確率
ここで、ncは、特徴列cについての候補値の数であり、例えば特徴列cについて、Q(c)によって示されるより高い確率を有する特徴値vは、値cをvに設定することが、予測ラベルを反転させる可能性がより高いことを意味する。
アルゴリズム3のステップ(2)において、確率Pを降順にソートし、最も高い確率を有する上位のs個の特徴列を選択して、集合Cによって表す。
アルゴリズム3のステップ(3)において、各列c∈Cについて、確率Q(c)を降順にソートして、上位m個の特徴値を選択して、V(c)によって表す。
アルゴリズム3のステップ(4)において、特徴列Cの集合と特徴値V(C)の対応する集合が、選択された反実仮想特徴として返される。
図5のアルゴリズム1と比較すると、アルゴリズム3は、最悪の場合、d×mではなく、s×mの候補特徴しか生成しない。sがdよりはるかに小さいとき、アルゴリズム3は、反実仮想例を見つけるための探索空間を大幅に削減する可能性がある。
図8は、本明細書で説明される実施形態による、特徴選択のための推奨モデルのニューラルネットワークモデル構造を示す簡略図800を示す。図800は、クエリインスタンスx内の任意の連続特徴が、ネットワークに供給される前に、x1,…,xdに離散化されることを示す。例えば各特徴と予測ラベル802a~nは、低次元で密な実数値埋め込みベクトル(dense real-valued embedding vectors)804a~nに変換される。次いで、2つの埋め込み804a~nを加算し、それぞれレイヤ正規化806a~nに続く。異なる特徴間の相関をモデル化するために、トランスフォーマレイヤは、Self-Attention(自己注意)サブレイヤ808、Feed-Forward(フィードフォワード)サブレイヤ810及び正規化レイヤ812を含む。
トランスフォーマレイヤの出力の隠れ状態(hidden states)が次いで、モジュール814において連結され、次に、2つのマルチレイヤ・パーセプトロン(multi-layer perceptrons、MLP)815a~bに供給される。すなわち、一方は特徴列選択用であり、他方は特徴値選択用である。各MLP815a又は815bはその後、そのそれぞれのsoftmaxモジュールに出力し、図7のアルゴリズム3で説明されるような、それぞれの確率P又はQ(c)を生成する。
一実施形態では、図800で示されるモデルは、隠れ特徴表現をモデリングするための複数のトランスフォーマレイヤを有してよい。
図9は、本明細書で説明される実施形態による、選択された反実仮想特徴を所与として、反実仮想例を生成するためのRLベースの反実仮想特徴最適化のアルゴリズムを示す例示の擬似コードセグメントを提供する。反実仮想特徴最適化問題を、強化学習問題として定式化することができる。具体的には、C={c1,…,cs}及びV(ci)={v1,…,vm}、ただしi=1,…,sであると仮定する。強化学習環境は、分類子f(・)、インスタンス(x, y)、候補特徴C及びV(C)によって定義される。アクションは、反実仮想例x′を構築するために修正される特徴列と値によって定義される。状態は、xに対してアクションを取ることによってx′になる。報酬関数(reward function)は、ラベルy’=1-yの予測スコアである。ラウンドtごとに、アクションatをとってx’tを構築し、次いで環境は、フィードバック報酬(feedback reward)rt=f1-y(x’t)を送信する。πθ(・)を、θによってパラメータ化されるアクションを選択するための確率的ポリシー(stochastic policy)とする。その後、目的は、累積報酬を最大化する最適ポリシーを見つけることである:
ここで、wは、修正すべき選択された特徴列の数が定数wより大きくならないように、ポリシーπθに対するスパース性制約(sparsity constraint)を示す。
ポリシーπθは次のように定式化され得る。μ=(μ1,…,μs)∈{0,1}sを、i番目の特徴列が選択されているか否かをi番目の要素が示すランダムベクトルとする、例えばμi=1は、それが選択されることを意味し、Pをμの確率分布とする。各c∈Cについて、vc∈{1,…,m}を、c番目の特徴に対してどの特徴値が選択されるかを示すランダム変数とし、vをランダムベクトル(v1,…,vc)とし、Qcを、vcの確率分布とする。μ,v1,…,vcに対する条件は、相互に独立である。ここで、反実仮想例x′を構成することは、2つのステップを伴う、すなわち、修正すべき特徴を選択する一方のステップと、選択された特徴のために値を選ぶ他方のステップを伴う。したがって、特徴cの値を選択するステップは、他の特徴に依存することなく、cのみに依存する。
アクションは、μとνによって表すことができる。例えばa={(μ1=1, v1=2),(μ2=0, v2=None),(μ3=1, v3=1)}であり、これは1番目の特徴と3番目の特徴がそれぞれ値2と1に設定されることを意味する。その後、ポリシーπθを次のように定義することができる:
ここで、1[ ]は、条件が満たされる場合は1に等しく、そうでない場合は0に等しいインジケータ関数である。Pは、pcによってパラメータ化されたs個の独立ベルヌーイ分布によって構築され、Qcは、
によってパラメータ化されたsoftmax関数によって定義される、すなわち:
であり、ここで、qc,iはqcのi番目の要素であり、θ=(p1,.,ps q1,…qs)である。この仮定の下では、スパース性制約wは、||p||0≦wに等しく、ここで、p=(p1,…,ps))であり、|| ||0は、非ゼロの要素の数である。したがって、最適化問題(1)は、以下のように再定式化することができる:
ここで、ポリシーπθは(2)によって定義される。
l0ノルム制約がある最適化問題は、計算が難しいことがあるので、緩和された形式の最適化問題を得ることがある:
ここで、λとλは定数である。第1の正則化項(regularization term)||p||1は、スパース解(sparse solutions)を促進するために使用され、第2の正則化項は、ポリシー勾配を介して最小化の間に探索を行うことを促進する確率エントロピーである。
図9のアルゴリズム4のステップ(1)において、REINFORCEアルゴリズムを介して最適ポリシーπθ *、例えばθ*=(p* 1,…,p* s, q* 1,…,q* s)を見つけることによって、式(5)に示される緩和された問題を解く。REINFORCEアルゴリズムの更なる詳細を、[33, 36]において見つけることができ、これは、参照によってその全体が本明細書に明示的に組み込まれる。
アルゴリズム4のステップ(2)において、取得された(p* 1,…,p* s)は、降順でソートされる。最も高いp*を有する上記w個の特徴が選択されてよく、ここで、wは、スパース性の上限である。選択された特徴の集合は、C*によって示される。
アルゴリズム4のステップ(3)において、C*内の選択された特徴cごとに、最も高いqcの値を有する上位特徴値vc *が選択される。
アルゴリズム4のステップ(4)において、選択された特徴と選択された特徴値の集合
が、対応するpc *に従って降順にソートされる。
アルゴリズム4のステップ(5)において、反実仮想例を構築するために貪欲法が適用される。例えばソートされた集合F*内のすべての(c,v)に対して、x’[c]=vをセットし、f1-y(x’)>0.5の場合、反実仮想例x’と、最適特徴F*が返される。
アルゴリズム4のステップ(6)~(7)において、最適ポリシーπθ *に基づいてアクションがサンプリングされ、反実仮想例のバッチが生成される。したがって、生成された反実仮想例が提供される。
このように、生成された反実仮想例x'に加えて、選択された特徴(及び値)集合F*を利用して、C*の特徴ごとに反実仮想特徴値を提供する説明を提供することもできる。
加えて、式(3)におけるPとQcの定義は、以下のように一般化される:
説明するためのインスタンス(x, y)と、反実仮想特徴選択から生成されたCとV(C)によって定義されたドメインが与えられると、式(2)及び式(6)によって定義されるπθを用いる式(4)からの最適ポリシーによって構築される反実仮想例x*は、以下の最適化問題の最適な解でもある:
したがって、式(6)によって定義されるPとQcで式(4)を最適化することは、NP困難(NP hard)である可能性があるが、式(6)をその「ソフトな」定式化の式(3)で置き換えることによる緩和(relaxation)を実行することができる。これは、式(5)を解くアルゴリズム4が、実質的に式(7)を近似的に解くことを意味する。
図10Aは、本明細書で説明される実施形態による、選択された反実仮想特徴を所与として、反実仮想例を生成するためのGLDベースの反実仮想特徴最適化のアルゴリズムを示す例示の擬似コードセグメントを提供する。制約を目的関数に移すことによる最適化問題(7)の緩和は、次のように与えられる。
ここで、xはクエリインスタンスであり、yは、その対応するラベルであり、dは特徴の数であり、λ>0は正規化重みである。したがって、反実仮想特徴最適化モジュール132は、式(8)を最小化する反実仮想例x′を見つけるように構成される。
したがって、前のステップから選択されたC={c1,…,cs}及びV(ci)={v1,…vm}、ただしi=1,…,sが与えられると、x′=g(x,μ,v1,…vs)となるように、
を定義し、ここでgは、以下を満たす。
言い換えると、x′は{μ,v1,…vs}の値によって構築される、すなわち、各インデックスi=1,…,sについて、対応する特徴列ci∈C、μ[i]≦0.5は、「この特徴を修正せず」を意味する、すなわち、x′[ci]がx[ci]に設定され、一方、μ[i]>0.5は、「この特徴を修正する」を意味する、すなわち、x′[ci]がvj∈V(ci)に設定され、そのインデックスjは、vi内の値の間で最も高い値を有する。次いで、問題(8)を、以下のように再定式化することができる。
図10のアルゴリズム5は、最適化問題(9)を解く。具体的には、アルゴリズム5のステップ(1)において、内部ループ限界Kは、K=log(R/r)となるように設定され、ここで、Rは最大探索半径を示し、rは最小探索半径を示す。
アルゴリズム5のステップ(4)~(8)において、ループ1001は、k=1,…,Kについて、f1-y(x’k)>0.5の場合、計算された(x’k, μk, v1,k, …, vs,k)を加算することによって集合Ttを計算する。現在の時間ステップtにおいて、結果として得られるx’, μ, v1,…,vsがTtにおける式(9)の最良の解として記憶される。
アルゴリズム5のステップ(3)~(10)において、ループ1002はすべての時間ステップt=1,…,Tについてループ1001を繰り返す。よりスパースな解が取得される、すなわち、μ[i]がオンに切り替わる場合(μ[i]>0.5)、μ[i]は0.5より少し大きい数、例えば0.55にリセットされ、次のループでオフに切り替わる(μ[i]≦0.5)可能性が高くなる。
アルゴリズム5のステップ(2)~(11)において、ループ1003は、すべてのトレーニングエポックに対してループ1002を繰り返す。次に、反実仮想例x’が、式(8)を最小化するものとして選択される。
多変量時系列分類を説明するために、RLベース法(図9のアルゴリズム4)及びGLD法(図10のアルゴリズム5)も適用され得る。具体的には、クエリインスタンス
(長さtのd時系列)、分類子f(・)及び所望のラベルy'が与えられると、その目的は、トレーニングデータセットxから選択されたディストラクタサンプル(distractor sample)
(以下、「x~」と表記することがある。)から時系列全体の置換によって構築された反実仮想例x′を見つけ、置換の数を最小化することである、すなわち、minC-λfy’(x’)+|C|/dであり、ここでi∈Cの場合、x′[i, :]はx~[i, :]に等しく、そうでない場合、x[i, :]である。ディストラクタサンプルx~を、図5のアルゴリズム1において議論される最近傍探索法によって見つけることができ、ここで、最近傍の数はK=1であり、選択された値の数はm=1である。次いでどの時系列を置換するかを決定するために、RLベース法又はGLD法は、特徴列選択のみを考慮することによって、すなわち、μを最適化することによって適用され得る。なぜなら、各特徴について1つの候補値しかないからである、
代替的に、図10Bは、本明細書で説明される実施形態による、モジュール133における連続特徴ファインチューニングのためのGLD方法を示す例示の擬似コードセグメントを提供する。
前の段階によって生成された反実仮想例x′が与えられると、Cを、各i∈Cに対してx′[i]≠x[i]となるような連続特徴の集合とする、すなわち、x′を構築するように修正される連続特徴の集合とする。一般性を失うことなく、各連続特徴の値が[0,1]にあると仮定する。目的は、新しい反実仮想例
(以下、「x^」と表記することがある。)がf1-y(x^)>0.5dを満たし、連続特徴におけるx^とxとの間の差、すなわち
が可能な限り小さくなるように、i∈Cについて値x′[i]を最適化することである。したがって、式(8)の別の形式を以下のように表すことができる:
式(8)のこの代替的な形式は、連続特徴ファインチューニングのための図10Aの適応形式である、図10Bのアルゴリズム5を介して近似的に解くことができる。
図11は、本明細書で説明される実施形態による、反実仮想例選択のための多様な反実仮想例を生成するアルゴリズムを示す例示の擬似コードセグメントを提供する。多様な反実仮想例は、機械学習予測のより良い理解を得るのに役立ち得る。一実装では、図11に示されるアルゴリズム6は、RLベース(図9のアルゴリズム4)法とGLD(図10のアルゴリズム5)法で多様な反実仮想例を生成するための簡略化されたアルゴリズムを提供する。
別の実装では、アルゴリズム6は、モジュール133によって反実仮想例を選択するために適用され得る。
アルゴリズム6のステップ(1a)又は(1b)において、反実仮想例の集合εを構築する。例えば図9のアルゴリズム4に示されているRLベース法では、集合εは、最適ポリシーによって、すなわち、最適ポリシーを介してアクションをサンプリングし、対応する反実仮想例x′を構築し、f1-y(x′)>0.5の場合x′をεに追加することによって、構築され得る。図10のアルゴリズム5に示されるGLD法では、集合εは、各ステップtで構築されたTtの和集合である。
アルゴリズム6のステップ(2)において、集合ε内の例を、値-λf1-y(x’)+||x’-x||0/d、すなわち式(8)の目的関数に基づいて昇順にソートする。この関数は、所望のラベル1-yのスパース性と予測スコアとの間のトレードオフを行う。
別の例では、集合ε内の例は、カテゴリ近接性と連続近接性の和に基づいて降順にソートされる。例えば
近接性=-||x’cat-xcat||0-||(x’con-xcon)/mcon||1
ここで、xcat及びxconは、それぞれ、カテゴリ特徴と連続特徴であり、mconは、トレーニングデータに対するxconの中央値(media)である。
アルゴリズム6のステップ(3)~(5)において、ソートされた集合から「重複する」例を貪欲的に除去して、選択された例の反実仮想特徴列(これらの特徴値はxと異なる)が互いに重ならないようにする。具体的には、ステップ(4)において、ソートされた集合内の各例x′について、D(x′)を、xと異なるx′の特徴の集合とする。ステップ(5)において、D(x′)にK個超の集合D(z)にも属する特徴が存在する場合、zが、ソートされた集合内でx′よりも上位にランク付けされている場合、次いで、例x′はスキップされる。そうではなく、K個より多い集合D(z)が存在しない場合、zが、ソートされた集合内でx′よりも上位にランク付けされている場合、x′は多様な集合に加算される。
したがって、アルゴリズム6のステップ(6)において、ソートされた集合内の各x′が反復された後、多様な集合が返される。
例示的性能
図12~図27は、一実施形態による、反実仮想例生成のデータ実験結果を示す例示のデータ表を提供する。5つの表形式データセットと1つの時系列分類データセットが、本明細書で説明される反実仮想例生成モジュールを評価するためのデータ実験を行うために使用される。
データセットAdult Income(成人収入)は、国勢調査の収入データに基づいて収入が年間5万ドルを超えるかどうかを予測するために使用され、UCI機械学習リポジトリにおいて利用可能である。8つの特徴、すなわち、年齢、労働時間、労働クラス、学歴、婚姻状況、職業、人種及び性別が抽出される。データクリーニング後、データセットは32561のインスタンスを有する。
Breast Cancer(乳がん)データセットは、Mangasarian等著のBreast Cancer Diagnosis and Prognosis Via Linear Programming. Operations Research 43, 4 (1995), pp. 570-577, 1995に記載されている「Breast Cancer Wisconsin (Original)Dataset」である。699のインスタンスがあり、各インスタンスは9つの特徴、例えば塊の厚さ(clump thickness)、細胞サイズの均一性、細胞形状の均一性を有する。タスクは、インスタンスが悪性であるか良性であるかを分類することである。
COMPASデータセットは6172のインスタンスを含む。6つの特徴、すなわち、前科の数(number of priors)、スコアファクタ、軽罪、性別、年齢及び人種が抽出される。タスクは、保釈申請者のうち誰が今後2年間に再犯するかを予測することである。
Australian Credit(オーストラリアのクレジット)データセットは、クレジットカード申請に関するものであり、690のインスタンスがあり、インスタンスは各々、14の特徴(6つの連続特徴と8つのカテゴリ特徴)と、承認決定を定量化する1つのクラスラベルで構成される。タスクは、クレジット申請が特定の顧客に対して承認されたか拒否されたかを予測することである。
Titanic(タイタニック)のデータセットは、タイタニック号の沈没事故で生存した乗客を予測するために使用される。データクリーニング後に891のインスタンスがある。7つの特徴、すなわち、年齢、料金、チケットクラス、性別、sibsp(兄弟/配偶者の乗船人数)、parch(親/子の乗船人数)及び乗船(embarked)が抽出される。
Taxonomist(分類学者)データセットは、様々な入力セットと構成を持つ11の異なるアプリケーション(applications)の実行を含む。目的は様々なアプリケーションを分類することである。4728のサンプルがあり、各サンプルは563の時系列を有する。
各データセットは、機械学習分類子を評価するために、80%のトレーニングデータと20%のテストデータに分割される。3つの一般的に使用される分類子、表形式分類のためのXGBoostモデル及びMLPモデルと、時系列分類のためのランダムフォレストモデルがある。カテゴリ特徴はワンホット符号化に変換され、連続特徴は0と1の間でスケールされる。MLPの隠れ層サイズと活性化関数は、それぞれReLUである。XGBoostの最大深度は8である。ランダムフォレストの推定器の数は20である。
アルゴリズム1において、最近傍の数Kを30に設定し、選択された特徴列の数sを8に設定し、各特徴mに対して選択された値の数を3に設定する。反実仮想特徴最適化は、REINFORCEアルゴリズムを介して実行される。ADAM(Kingma等著、A Adam: A Method for Stochastic Optimization, arXiv:cs.LG/1412.6980, 2017)が、学習率0.1、バッチサイズ40及び15エポックでオプティマイザとして使用される。REINFORCEアルゴリズムを安定させるために、ここで使用される報酬関数はr=f1-y(x′)-bであり、ここで、bは、分散削減のために、r=f1-y(x′)ではなく、1回のバッチにおけるf1-y(・)の中央値である。正規化重みλ1及びλ2は2に設定される。RL法の場合、スパース性パラメータwは6に設定される。GLD法の場合、E=3、T=20、R=0.25、r=0.0005及びλ=0.1であり、すべての実験でうまく機能する。
以下のアプローチが、実験で反実仮想例を生成するためのベースラインとして使用される。
Greedyは、Ates等著、Counter-factual Explanations for Machine Learning on Multivariate Time Series Data, arXiv:cs.LG/2008.10781で提案された逐次貪欲法(sequential greedy method)を示す。最近傍探索(アルゴリズム1)から選択された候補反実仮想特徴が与えられると、貪欲法は、予測ラベルが反転するまでxの特徴を逐次的に修正する。
SHAP値ベース(SHAP-value based)法は、Rathi, Generating Counterfactual and Contrastive Explanations using SHAP. arXiv:cs.LG/1906.09293で提案されている。最初にx内のすべての特徴のSHAP値を計算し、次に、所望のクラスy’=1-yのSHAP値が負である特徴を変更することによって、反実仮想例を構築する。
DiCE法は、Mothilal等著のExplaining Machine Learning Classifiers through Diverse Counterfactual Explanations. In Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency, Association for Computing Machinery, pp.607-617, and Rathi 2019で提案されている。
CERTIFAIは、Sharma等著、CERTIFAI: A Common Framework to Provide Explanations and Analyse the Fairness and Robustness of Black-Box Models, in Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society, pp. 166-172, 2020.によって提案された反実仮想を生成するためのカスタム遺伝的アルゴリズムである。これは、モデル非依存方法(model-agnostic method)であり、ブラックボックス分類モデルに適用することができる。
Foil Treesは、Waa等著、Contrastive Explanations with Local Foil Trees, arXiv:stat.ML/1806.07470, 2018によって提案され、ローカルにトレーニングされた一対すべての決定木を使用して、ツリーに、データポイントをファクト(fact)としてではなくフォイル(foil)として分類させる、互いに素なルールのセット(disjoint set of rules)を識別する。
図9~図10で説明したRL法及びGLD法が適用される。候補反実仮想特徴は、アルゴリズム1によって生成される。
反実仮想例を生成する方法、有効性、スパース性及び多様性メトリック、並びに所望のクラスの予測スコアを評価する。有効性は、有効な反実仮想である、方法によって返される例の割合であり、例えばf1-y(x′)>0.5である。スパース性は、元の入力xと生成された反実仮想例x'との間の変更の数を示す。多様性は、任意の2つのペアの反実仮想例(例えばクエリインスタンスごとにK個の反実仮想を生成する)の間で異なる特徴の割合を測定する。スパース性の場合、低いほど良好である。有効性、多様性及び予測スコアの場合、高いほど良好である。
図12の表1と図13の表2は、XGBoost分類子による、Greedy、SHAP-based、CERTIFAI、Foil Trees、RL及びGLDについての有効性とスパース性を示している。DiCEはここには含まれていない。なぜなら、XGBoost分類子を扱うのが難しいからである。RL及びGLD法が最も高い有効性を有する。RLは、他のアプローチと比べて、「Adult」以外のすべてのデータセットに対して最も低いスパース性が得られ、GLDは「Adult」に対して最も低いスパース性を有する。Foil Treesの有効性は他の方法と比べて非常に低く、「Breast」と「Credit」で失敗することに留意されたい。図14の表3は、RL法が所望のラベルの最も高い予測スコアを達成することを示しており、これは、RL法によって生成される反実仮想が所望のクラスにより近いことを意味する。
図15の表4と図16の表5は、MLP分類子による、Greedy、SHAP-based、CERTIFAI、DiCE、Foil Trees、RL及びGLDの有効性とスパース性を示している。DiCE、RL及びGLDは、すべてのテストインスタンスに対して、有効な反実仮想例を見つけることができ、他のアプローチより優れている。しかし、スパース性の点に関しては、DiCEは、提案されている方法よりもはるかに大きなスパース性を持ち、例えば「Adult」の場合は2.93、「COMPAS」の場合は2.10であるが、RL/GLDは「Adult」の場合は1.47/1.50、「COMPAS」の場合は1.43/1.49を達成する。「Credit」と「Titanic」の場合、Greedy、SHAP-based及びRL/GLDは、MLP分類子では、同様の性能を有しており、XGBoost分類子によるものとは異なる。これらすべての方法についてのクエリごとの実行時間が図18の表7に示されている。Foil Trees法が最も早いが、最も悪い性能を得る。DiCEは最も遅い方法であり、クエリごとに約3秒かかるため、実際の適用では実用的ではない。RL/GLD法は、有効性、スパース性及び予測スコアの観点でより良好な性能を得ながら、Greedy及びSHAP-basedと同等の速度を実現する。
図19の表8及び図20の表9は、本明細書で説明される反実仮想例生成アプローチによって生成された、いくつかの反実仮想例を与える。Adultデータセットの場合、反実仮想例は、高度な学位を取得するために勉強すること又は仕事により多くの時間を費やすことが、より高い収入につながる可能性があることを示している。また、より高い収入を得るために結婚することのような、あまり明白ではない反実仮想例も示している。この種類の反実仮想例は、既婚の人々の収入が高いというデータセットの相関関係により生成される。Titanicのデータセットでは、結果は、女性であるかチケットクラスが高い人は、惨事から生き残る可能性がより高いことを示している。
反実仮想例の他に、提案されたアプローチは、他のアプローチでは容易に達成できない「what-if」シナリオを調査するための説明として、RL法によって学習されたポリシーから抽出された反実仮想特徴も取ることができる。表8及び表9では、各例について、上位4つの選択された特徴列と上位1つの特徴値が列挙されている。表8の最初の例では、これらの反実仮想特徴「学歴→博士号、労働時間→37.5時間、ワーククラス→個人、職業→専門職」が取得され、これは、学位が高く、労働時間が長く、専門的な職業に就いている場合、収入がより高くなることを意味する。表9の最初の例では、「性別→女性、チケットクラス→1、乗船→C、SibSp→0」が取得され、これは、性別が女性であるか、より高いクラスであるか、兄弟/配偶者がいないことが、より高い生存機会につながることを意味する。これらの反実仮想説明は、特定のシナリオ下での我々の社会のバイアスを反映する可能性がある、データセットにおけるバイアスを検出するのに役立つ。例えば社会の価値観は女性と子供を最初に救うべきだと定めているため、女性は生き残る可能性がより高かった。また、裕福な乗客は、より簡単にボートに行く特権を得るために、船のより高いクラスに部屋があったので、生き残る可能性が高かった。
追加の実験では、反実仮想例x′を構築するために各特徴の変化の平均数を計算し、元の入力xの特徴の重要性と比較する。特徴の重要性は、テストデータセット内のサンプルのSHAP値の平均を取ることによって計算される。図21は、特徴0から7がそれぞれ「年齢」、「学歴」、「性別」、「労働時間」、「婚姻」、「職業」、「人種」及び「ワーククラス」であるAdultデータセットにおけるこの比較を示している。明らかに、平均的な特徴の変化は特徴の重要性と一致しており、例えば「年齢」、「学歴」、「婚姻」はより重要であり、「性別」、「人種」及び「ワーククラス」はそれほど重要ではない。
この実験では、クエリインスタンスごとに多様な反実仮想例を生成するために、CERTIFAI、DiCE、RL及びGLDを比較する。アルゴリズム6がRLとGLDに適用される。Greedy、SHAP-based及びFoil treesは多様な反実仮想を生成することができないので、これらはここでは比較されない。図24の表12と図25の表13は、スパース性と多様性のメトリックを示している。RL及びGLD法が最も低いスパース性を取得するが、DiCEが最も高い多様性を実現する。図26の表14は、これらの方法の実行時間を与える。DiCEは、CERTIFAI及び提案される方法よりもはるかに遅い。提案される方法は、クエリごとのはるかに短い実行時間で、スパース性と多様性の間の良好なトレードオフをもたらす。実用的な適用では、RL又はGLD、あるいはその両方をアンサンブルとして適用することができる。図22の表10と図23の表11は、RL法によって生成される様々な反実仮想例を与え、クエリインスタンスに対する多様な説明を生成する。
追加の実験は、本明細書で提案される方法を時系列分類問題にも適用することができることを示している。この実験は、Taxonomistデータセットに対して実施され、ここでは、クエリラベルは「ft」であり、他のラベルを所望のラベルとして取り、すべての所望のラベルについて反実仮想例を生成する。反実仮想例は、いくつかの時系列(特徴)によって構築され、他の方法では時系列データを直接処理することができないので、これはGreedyと比較される。図27の表15は、これらの方法のスパース性と実行時間を示しており、これは、提案される方法がGreedyよりも10倍以上速いが、異なる設定に対して同様のスパース性メトリックを達成することを示している。この結果は、提案される方法が高次元データを効率的に処理することができることも示す。
コンピューティングデバイス100のようなコンピューティングデバイスのいくつかの例は、1つ以上のプロセッサ(例えばプロセッサ110)によって実行されると、該1つ以上のプロセッサに方法400のプロセスを実行させることができる実行可能コードを含む、非一時的な有形の機械読取可能媒体を含んでよい。方法400のプロセスを含むことがある機械読取可能媒体のいくつかの一般的な形式は、例えばフロッピーディスク、フレキシブルディスク、ハードディスク、磁気テープ、任意の他の磁気媒体、CD-ROM、任意の他の光媒体、パンチカード、紙テープ、穴のパターンを有する任意の他の物理媒体、RAM、PROM、EPROM、FLASH-EPROM、任意の他のメモリチップ又はカートリッジ、及び/又はプロセッサ又はコンピュータが読み取るように適合される他の媒体である。
この説明及び発明的態様、実施形態、実装又は適用を図示する添付の図面は、制限として見なされるべきではない。この説明及び特許請求の範囲の精神及び範囲から逸脱することなく、様々な機械的、構成的、構造的、電気的及び動作的変更が行われてよい。場合によっては、本開示の実施形態を不明瞭にしないために、周知の回路、構造又は技術が詳細に示されていないか又は説明されていない。2つ以上の図における同様の数字は、同じ又は類似の要素を表す。
この説明では、本開示と一貫性のあるいくつかの実施形態を説明する具体的詳細が示されている。様々な具体的詳細は、実施形態の完全な理解を提供するために説明されている。しかしながら、いくつかの実施形態は、これらの具体的詳細の一部又は全部を伴わずに実施されてよいことが当業者には明らかであろう。本明細書に開示される具体的な実施形態は、例示的であるように意図され、限定的ではない。当業者は、本明細書において具体的に記載されていないが、本開示の範囲及び精神内にある他の要素を実現することができる。加えて、不必要な繰り返しを避けるために、一実施形態に関連して示され説明された1つ以上の特徴は、特に説明されていない限り、あるいは1つ以上の特徴が実施形態を機能しないようにする場合を除いて、他の実施形態に組み込まれてよい。
例示的な実施形態が示され説明されているが、前述の開示では、広範囲の修正、変更及び置換が考慮されており、場合によっては、実施形態のいくつかの特徴が、他の特徴の対応する使用なしに採用されることがある。当業者は、多くの変形、代替及び変更を認識するであろう。したがって、本発明の範囲は、以下の特許請求の範囲によってのみ限定されるべきであり、特許請求の範囲は、本明細書に開示される実施形態の範囲と一貫性があるように、広く解釈されることが適切である。

Claims (40)

  1. 機械学習モデルにおける反実仮想説明のための反実仮想例を生成する方法であって、
    複数の特徴列と、対応する特徴値とを含むクエリインスタンスを受信するステップと、
    前記クエリインスタンスに応答して、機械学習モデルによって、予測ラベルを生成するステップと、
    トレーニングデータセットから構築された最近傍探索ツリーを介して、前記クエリインスタンスに対する最近傍クエリインスタンスの数を識別するステップであって、前記最近傍クエリインスタンスの数の各々は、前記予測ラベルとは異なるラベルに対応する、ステップと、
    前記クエリインスタンスと最近傍クエリインスタンスとの間の特徴列と、対応する特徴値を比較するステップと、
    前記比較からの特徴列変化の頻度に基づいて、前記複数の特徴列から特徴列のサブセットを選択するステップと、
    前記機械学習モデルによって、前記予測ラベルに付随する反実仮想説明を出力するステップであって、前記反実仮想説明は前記特徴列のサブセットに基づいて生成される、ステップと、
    を含む、方法。
  2. 前記最近傍クエリインスタンスの数は、
    前記異なるラベルで注釈が付けられたトレーニングクエリインスタンスに基づいて、前記異なるラベルの探索インデックスを構築するステップと、
    前記探索インデックスを介して、前記最近傍クエリインスタンスの数を見つけるステップと、
    によって識別される、請求項1に記載の方法。
  3. 前記比較に基づいて、特徴列変化の第1頻度と特徴値変化の第2頻度を計算するステップと、
    最も高い変化の頻度を有する前記特徴列のサブセットを選択するステップと、
    前記特徴列のサブセット内の選択された特徴列ごとに、前記特徴値変化の第2頻度に基づいて特徴値のそれぞれのサブセットを選択するステップと、
    を更に含む、請求項1に記載の方法。
  4. 前記反実仮想説明は、前記特徴列のサブセットに基づいて、反実仮想特徴最適化を通じて反実仮想例を構築することによって生成される、
    請求項1に記載の方法。
  5. 前記反実仮想特徴最適化は、修正されたクエリインスタンスによって引き起こされる予測フィードバック報酬を含む目的を最大化する最適ポリシーを決定することを含む、
    請求項4に記載の方法。
  6. 機械学習モデルにおける反実仮想説明のための反実仮想例を生成する方法であって、
    複数の特徴列と、対応する特徴値とを含むクエリインスタンスを受信するステップと、
    前記クエリインスタンスに応答して、機械学習モデルによって、予測ラベルを生成するステップと、
    前記クエリインスタンスの入力と前記予測ラベルに応答する推奨モデルに基づいて、予測結果を変更する可能性のある代替特徴値に関連付けられる特徴列を有する特徴列のサブセットを識別するステップと、
    前記クエリインスタンスと最近傍クエリインスタンスとの間の特徴列と、対応する特徴値を比較するステップと、
    前記比較からの特徴列変化の頻度に基づいて、前記複数の特徴列から特徴列のサブセットを選択するステップと、
    前記機械学習モデルによって、前記予測ラベルに付随する反実仮想説明を出力するステップであって、前記反実仮想説明は前記特徴列のサブセットに基づいて生成される、ステップと、
    を含む、方法。
  7. 前記推奨モデルは、前記機械学習モデルに基づいて構築されたデータセットと、クエリインスタンスとそれぞれのラベルのトレーニングデータセットによってトレーニングされる、
    請求項6に記載の方法。
  8. 前記データセットは、前記トレーニングデータセット内のトレーニングクエリインスタンスの最近傍の数を微細化することによって構築される、
    請求項7に記載の方法。
  9. 特徴のサブセットは、前記推奨モデルから生成された最も高い確率を有する特徴列を選択することによって識別される、
    請求項6に記載の方法。
  10. 前記反実仮想説明は、前記特徴列のサブセットに基づいて反実仮想特徴最適化を通じて反実仮想例を構築することによって生成される、
    請求項6に記載の方法。
  11. 機械学習モデルにおける反実仮想説明のための反実仮想例を生成するシステムであって、
    前記機械学習モデルを記憶するメモリと、
    複数の特徴列と対応する特徴値とを含むクエリインスタンスを受け取るデータインタフェースと、
    前記メモリから命令を読み出して、
    前記クエリインスタンスに応答して、機械学習モデルによって、予測ラベルを生成するステップと、
    トレーニングデータセットから構築された最近傍探索ツリーを介して、前記クエリインスタンスに対する最近傍クエリインスタンスの数を識別するステップであって、前記最近傍クエリインスタンスの数の各々は、前記予測ラベルとは異なるラベルに対応する、ステップと、
    前記クエリインスタンスと最近傍クエリインスタンスとの間の特徴列と、対応する特徴値を比較するステップと、
    前記比較からの特徴列変化の頻度に基づいて、前記複数の特徴列から特徴列のサブセットを選択するステップと、
    前記機械学習モデルによって、前記予測ラベルに付随する反実仮想説明を出力するステップであって、前記反実仮想説明は前記特徴列のサブセットに基づいて生成される、ステップと、
    を実行する、プロセッサと、
    を備える、システム。
  12. 前記最近傍クエリインスタンスの数は、
    前記異なるラベルで注釈が付けられたトレーニングクエリインスタンスに基づいて、前記異なるラベルの探索インデックスを構築するステップと、
    前記探索インデックスを介して、前記最近傍クエリインスタンスの数を見つけるステップと、
    によって識別される、請求項11に記載のシステム。
  13. 前記プロセッサは更に、前記メモリから命令を読み出して、
    前記比較に基づいて、特徴列変化の第1頻度と特徴値変化の第2頻度を計算するステップと、
    最も高い変化の頻度を有する前記特徴列のサブセットを選択するステップと、
    前記特徴列のサブセット内の選択された特徴列ごとに、前記特徴値変化の第2頻度に基づいて特徴値のそれぞれのサブセットを選択するステップと、
    を更に含む、請求項11に記載のシステム。
  14. 前記反実仮想説明は、前記特徴列のサブセットに基づいて、反実仮想特徴最適化を通じて反実仮想例を構築することによって生成される、
    請求項11に記載のシステム。
  15. 前記反実仮想特徴最適化は、修正されたクエリインスタンスによって引き起こされる予測フィードバック報酬を含む目的を最大化する最適ポリシーを決定することを含む、
    請求項14に記載のシステム。
  16. 機械学習モデルにおける反実仮想説明のための反実仮想例を生成するシステムであって、
    機械学習モデルを記憶するメモリと、
    複数の特徴列と対応する特徴値とを含むクエリインスタンスを受け取るデータインタフェースと、
    前記メモリから命令を読み出して、
    前記クエリインスタンスに応答して、前記機械学習モデルによって、予測ラベルを生成するステップと、
    前記クエリインスタンスの入力と前記予測ラベルに応答する推奨モデルに基づいて、予測結果を変化させる可能性のある代替特徴値に関連付けられる特徴列を有する特徴列のサブセットを識別するステップと、
    前記クエリインスタンスと最近傍クエリインスタンスとの間の特徴列と、対応する特徴値を比較するステップと、
    前記比較からの特徴列変化の頻度に基づいて、前記複数の特徴列から特徴列のサブセットを選択するステップと、
    前記機械学習モデルによって、前記予測ラベルに付随する反実仮想説明を出力するステップであって、前記反実仮想説明は前記特徴列のサブセットに基づいて生成される、ステップと、
    を実行するプロセッサと、
    を備える、システム。
  17. 前記推奨モデルは、前記機械学習モデルに基づいて構築されたデータセットと、クエリインスタンスとそれぞれのラベルのトレーニングデータセットによってトレーニングされる、
    請求項16に記載のシステム。
  18. 前記データセットは、前記トレーニングデータセット内のトレーニングクエリインスタンスの最近傍の数を微細化することによって構築される、
    請求項17に記載のシステム。
  19. 特徴のサブセットは、前記推奨モデルから生成された最も高い確率を有する特徴列を選択することによって識別される、
    請求項16に記載のシステム。
  20. 前記反実仮想説明は、前記特徴列のサブセットに基づいて反実仮想特徴最適化を通じて反実仮想例を構築することによって生成される、
    請求項16に記載のシステム。
  21. 機械学習モデルにおける反実仮想説明のための反実仮想例を生成する方法であって、
    複数の特徴列と、対応する特徴値とを含むクエリインスタンスを受信するステップと、
    前記クエリインスタンスに応答して、機械学習モデルによって予測結果を生成するステップと、
    前記複数の特徴列から、前記予測結果を変化させる可能性のある代替特徴値に関連付けられる特徴列を有する特徴列のサブセットを識別するステップと、
    修正されたクエリインスタンスによって引き起こされる予測フィードバック報酬を含む目的を最大化する最適ポリシーを決定するステップと、
    前記決定された最適ポリシーに従って、最も高い特徴値に対応する特徴列の数と、関連付けられる特徴値の数を選択するステップと、
    前記選択された特徴列の数と、前記関連付けられる特徴値の数とを使用して、反実仮想例を構築するステップと、
    前記機械学習モデルによって、前記反実仮想例を、前記クエリインスタンスに応答する前記予測結果の反実仮想説明として出力するステップと、
    を含む、方法。
  22. 前記目的は、強化学習(RL)によって決定され、この場合、
    修正される特徴列と値が、前記RLにおけるアクションとして扱われ、
    前記クエリインスタンスに対して前記アクションを取る反実仮想例候補が、前記RLにおける状態として扱われ、
    前記RLの報酬関数が、前記予測結果以外の異なるラベルの予測スコアである、
    請求項21に記載の方法。
  23. 前記目的は、前記アクションを選択するための確率的ポリシーに課されるスパース性制約を受ける、
    請求項22に記載の方法。
  24. 前記確率的ポリシーは、前記機械学習モデルのパラメータによってパラメータ化された確率分布によって計算される、
    請求項23に記載の方法。
  25. 前記目的は、前記予測結果以外の異なるラベルに対応する前記機械学習モデルの出力に基づく第一項と、特定の特徴列が修正されるかどうかを示す変数とを含む、
    請求項21に記載の方法。
  26. 前記目的は、スパース解を促進する勾配なし降下法によって最適化される、
    請求項25に記載の方法。
  27. 前記最適ポリシーから多様な反実仮想例を生成するステップ、
    を更に含む、請求項21に記載の方法。
  28. 前記多様な反実仮想例は、
    前記最適ポリシーから反実仮想例の集合を構築するステップと、
    それぞれの目的関数値に基づいて前記反実仮想例の集合をソートするステップと、
    重複する反実仮想例を前記反実仮想例の集合から除去するステップと、
    によって生成される、請求項27に記載の方法。
  29. 前記機械学習モデルは、入力シーケンスの時系列のクエリインスタンスを受け取る多変量時系列分類子である、
    請求項21に記載の方法。
  30. 代替特徴値に関連付けられる特徴列を有する前記特徴列のサブセットは、トレーニングデータセットから構築された最近傍探索ツリーを介して、前記クエリインスタンスに対する最近傍クエリインスタンスの数から識別される、
    請求項21に記載の方法。
  31. 機械学習モデルにおける反実仮想説明のための反実仮想例を生成するシステムであって、
    前記機械学習モデルを記憶するメモリと、
    複数の特徴列と、対応する特徴値とを含むクエリインスタンスを受信するデータインタフェースと、
    前記メモリから命令を読み出して、
    前記クエリインスタンスに応答して、前記機械学習モデルによって、予測結果を生成するステップと、
    前記複数の特徴列から、前記予測結果を変化させる可能性のある代替特徴値に関連付けられる特徴列を有する特徴列のサブセットを識別するステップと、
    修正されたクエリインスタンスによって引き起こされる予測フィードバック報酬を含む目的を最大化する最適ポリシーを決定するステップと、
    前記決定された最適ポリシーに従って、最も高い特徴値に対応する特徴列の数と、関連付けられる特徴値の数を選択するステップと、
    前記選択された特徴列の数と、前記関連付けられる特徴値の数とを使用して、反実仮想例を構築するステップと、
    前記機械学習モデルによって、前記反実仮想例を、前記クエリインスタンスに応答する前記予測結果の反実仮想説明として出力するステップと、
    を実行する、プロセッサと、
    を備える、システム。
  32. 前記目的は、強化学習(RL)によって決定され、この場合、
    修正される特徴列と値が、前記RLにおけるアクションとして扱われ、
    前記クエリインスタンスに対して前記アクションを取る反実仮想例候補が、前記RLにおける状態として扱われ、
    前記RLの報酬関数が、前記予測結果以外の異なるラベルの予測スコアである、
    請求項31に記載のシステム。
  33. 前記目的は、前記アクションを選択するための確率的ポリシーに課されるスパース性制約を受ける、
    請求項32に記載のシステム。
  34. 前記確率的ポリシーは、前記機械学習モデルのパラメータによってパラメータ化された確率分布によって計算される、
    請求項33に記載のシステム。
  35. 前記目的は、前記予測結果以外の異なるラベルに対応する前記機械学習モデルの出力に基づく第一項と、特定の特徴列が修正されるかどうかを示す変数とを含む、
    請求項31に記載のシステム。
  36. 前記目的は、スパース解を促進する勾配なし降下法によって最適化される、
    請求項35に記載のシステム。
  37. 前記プロセッサは更に、前記メモリから命令を読み出して、
    前記最適ポリシーから多様な反実仮想例を生成するステップ、
    を実行する、請求項31に記載のシステム。
  38. 前記多様な反実仮想例は、
    前記最適ポリシーから反実仮想例の集合を構築するステップと、
    それぞれの目的関数値に基づいて前記反実仮想例の集合をソートするステップと、
    重複する反実仮想例を前記反実仮想例の集合から除去するステップと、
    によって生成される、請求項37に記載のシステム。
  39. 前記機械学習モデルは、入力シーケンスの時系列のクエリインスタンスを受け取る多変量時系列分類子である、
    請求項31に記載のシステム。
  40. 機械学習モデルにおける反実仮想説明のための反実仮想例を生成するプロセッサ読取可能な命令を記憶するプロセッサ読取可能な非一時的記憶媒体であって、前記命令は、プロセッサによって実行されて、
    複数の特徴列と、対応する特徴値とを含むクエリインスタンスを受信するステップと、
    前記クエリインスタンスに応答して、機械学習モデルによって予測結果を生成するステップと、
    前記複数の特徴列から、前記予測結果を変化させる可能性のある代替特徴値に関連付けられる特徴列を有する特徴列のサブセットを識別するステップと、
    修正されたクエリインスタンスによって引き起こされる予測フィードバック報酬を含む目的を最大化する最適ポリシーを決定するステップと、
    前記決定された最適ポリシーに従って、最も高い特徴値に対応する特徴列の数と、関連付けられる特徴値の数を選択するステップと、
    前記選択された特徴列の数と、前記関連付けられる特徴値の数とを使用して、反実仮想例を構築するステップと、
    前記機械学習モデルによって、前記反実仮想例を、前記クエリインスタンスに応答する前記予測結果の反実仮想説明として出力するステップと、
    を実行する、プロセッサ読取可能な非一時的記憶媒体。


JP2023521466A 2020-10-08 2021-10-07 機械学習モデルにおける反実仮想説明のためのシステム及び方法 Pending JP2023546021A (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US202063089473P 2020-10-08 2020-10-08
US63/089,473 2020-10-08
US17/162,931 US20220114481A1 (en) 2020-10-08 2021-01-29 Systems and methods for counterfactual explanation in machine learning models
US17/162,967 US20220114464A1 (en) 2020-10-08 2021-01-29 Systems and methods for counterfactual explanation in machine learning models
US17/162,931 2021-01-29
US17/162,967 2021-01-29
PCT/US2021/053955 WO2022076676A1 (en) 2020-10-08 2021-10-07 Systems and methods for counterfactual explanation in machine learning models

Publications (1)

Publication Number Publication Date
JP2023546021A true JP2023546021A (ja) 2023-11-01

Family

ID=81079072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023521466A Pending JP2023546021A (ja) 2020-10-08 2021-10-07 機械学習モデルにおける反実仮想説明のためのシステム及び方法

Country Status (5)

Country Link
US (2) US20220114481A1 (ja)
EP (1) EP4226283A1 (ja)
JP (1) JP2023546021A (ja)
CN (1) CN116348894A (ja)
WO (1) WO2022076676A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11928719B2 (en) * 2021-12-06 2024-03-12 International Business Machines Corporation Facilitating user selection using trend-based joint embeddings
US12001779B2 (en) * 2022-01-14 2024-06-04 Huawei Cloud Computing Technologies Co., Ltd. Method and system for automatically formulating an optimization problem using machine learning
US20240144038A1 (en) * 2022-10-31 2024-05-02 Intuit Inc. Finding short counterfactuals
CN116994687B (zh) * 2023-09-28 2024-02-06 之江实验室 基于反事实对比的临床决策支持模型解释系统
CN117237096B (zh) * 2023-09-28 2024-02-23 大连理工大学 可解释的机器学习驱动的信贷风控系统

Also Published As

Publication number Publication date
CN116348894A (zh) 2023-06-27
US20220114481A1 (en) 2022-04-14
EP4226283A1 (en) 2023-08-16
US20220114464A1 (en) 2022-04-14
WO2022076676A1 (en) 2022-04-14

Similar Documents

Publication Publication Date Title
Krishnaiah et al. Survey of classification techniques in data mining
JP2023546021A (ja) 機械学習モデルにおける反実仮想説明のためのシステム及び方法
Craven et al. Using neural networks for data mining
US20060047616A1 (en) System and method for biological data analysis using a bayesian network combined with a support vector machine
JP2021182398A (ja) 事象予測装置および事象予測用プログラム
Kumar et al. A benchmark to select data mining based classification algorithms for business intelligence and decision support systems
Czarnowski et al. An approach to data reduction for learning from big datasets: Integrating stacking, rotation, and agent population learning techniques
Garreta et al. Scikit-learn: machine learning simplified: implement scikit-learn into every step of the data science pipeline
Padh et al. Addressing fairness in classification with a model-agnostic multi-objective algorithm
Colaco et al. A review on feature selection algorithms
Satyanarayana et al. Survey of classification techniques in data mining
Sriwanna et al. Graph clustering-based discretization of splitting and merging methods (graphs and graphm)
Singh et al. Feature selection based classifier combination approach for handwritten Devanagari numeral recognition
Kluska et al. Extremely simple classifier based on fuzzy logic and gene expression programming
Liu et al. The design of error-correcting output codes algorithm for the open-set recognition
Tallón-Ballesteros et al. Merging subsets of attributes to improve a hybrid consistency-based filter: a case of study in product unit neural networks
Jang et al. Kaggle competitions: Author identification & statoil/C-CORE iceberg classifier challenge
Nikoloski et al. Data-driven structuring of the output space improves the performance of multi-target regressors
Hijazi et al. A constrained feature selection approach based on feature clustering and hypothesis margin maximization
Lalbakhsh et al. TACD: a transportable ant colony discrimination model for corporate bankruptcy prediction
Rosander et al. Email Classification with Machine Learning and Word Embeddings for Improved Customer Support
Papič et al. Conditional generative positive and unlabeled learning
Husin Designing multiple classifier combinations a survey
Tiembukong Counterfactual Explanations vs Adversarial Examples: An Investigation on their Differences
Qi Learning From Hierarchical and Noisy Labels

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230607

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240604