JP7276757B2 - モデル公平性のためのシステムおよび方法 - Google Patents

モデル公平性のためのシステムおよび方法 Download PDF

Info

Publication number
JP7276757B2
JP7276757B2 JP2022504034A JP2022504034A JP7276757B2 JP 7276757 B2 JP7276757 B2 JP 7276757B2 JP 2022504034 A JP2022504034 A JP 2022504034A JP 2022504034 A JP2022504034 A JP 2022504034A JP 7276757 B2 JP7276757 B2 JP 7276757B2
Authority
JP
Japan
Prior art keywords
model
training
variations
adversarial
models
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022504034A
Other languages
English (en)
Other versions
JP2022525702A (ja
Inventor
カンカー,シーン,ジャバド
ヴィーン,マイケル,イーガン ヴァン
リ,フェン
エバーシュタイン,マーク,フレデリック
バレンティン,ジョセ,エフライン
ブジック,ジェローム,ルイ
ラム メリル,ジョン,ウィッケンズ
Original Assignee
ゼストファイナンス,インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ゼストファイナンス,インコーポレーテッド filed Critical ゼストファイナンス,インコーポレーテッド
Publication of JP2022525702A publication Critical patent/JP2022525702A/ja
Application granted granted Critical
Publication of JP7276757B2 publication Critical patent/JP7276757B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/067Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/03Credit; Loans; Processing thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Strategic Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Economics (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Development Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Evolutionary Biology (AREA)
  • Technology Law (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Algebra (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)

Description

[関連出願の相互参照]
本出願は、この参照によってその全体が本明細書に組み込まれている、2019年3月18日に出願された米国特許仮出願第62/820,147号明細書の優先権を主張するものである。
本発明は一般にモデリングシステム(modeling system)の分野に関し、より詳細には、モデリングシステム分野の有用な新規のモデルトレーニングシステムに関する。
モデリングシステムの分野では、予測モデル(predictive model)の公平性(fairness)を向上させることが求められている。消費者に貸付金を与えるべきかどうかを判断するために機械学習モデルが使用される信用リスク(credit risk)モデリングの分野では、人種および民族、性別、年齢ならびに他の保護された属性(protected attribute)(以後、保護属性)に関して貸出しの判断が公平であること、異なる影響の源が識別され、中立化または正当化されることが特に重要である。1974年10月28日に制定されたアメリカ合衆国法である信用機会均等法(Equal Credit Opportunity Act)(ECOA)(合衆国法律集タイトル15の第1691条以降の条文(15 U.S.C. § 1691 et seq.)に成文化されている)は、公平な信用判断を保証する手続きを規定しており、この法律は参照によって本明細書に組み込まれている。
実施形態による、システムの概略図である。 実施形態による、システムの概略図である。 実施形態による、システムの概略図である。 実施形態による、方法の概略図である。 実施形態による、方法の概略図である。 実施形態による、モデルを示す図である。 実施形態による、モデルを示す図である。 実施形態による、モデルを示す図である。 実施形態による、モデルを示す図である。 実施形態による、モデルを示す図である。
本明細書に開示された実施形態は一般に、有用な新規の方法がより公平なモデルを生成することを可能にし、詳細には、新規の有用な方法が、ECOAなどの法律および規制に従う信用リスクモデルを生成することを可能にする。
好ましい実施形態の以下の説明が本開示をこれらの好ましい実施形態に限定することは意図されておらず、むしろ、好ましい実施形態の以下の説明が、そのような実施形態を当業者が実施および使用することを可能にすることが意図されている。
1.概要
人々の生命に影響を与える実世界のシナリオでモデル(例えば予測モデル)を展開する(deploy)かどうかを判定する際に、そのようなモデルが人々の生命に影響を与える程度の公平性は、モデルを展開するかどうかまたはモデル開発を続けるかどうかを判定する際の考慮事項となりうる。例えば、1つのモデルが、あるクラス(class)(例えば人種、民族、年齢、性別、出身国、性的指向、人口統計(demographics)、軍隊での地位などに基づくクラス)の人々を他のクラスの人々よりも有利に扱うかどうかは、そのモデルを展開するかどうか判定する際の考慮事項となることがある。
公平性は、人々の生命に直接に影響を与えないモデルを展開するかどうか、または人々の生命にまったく影響を及ぼさないモデルを展開するかどうかを判断する際にも関心事となりうる。例えば、さまざまな薬物の効能に関係した値を予測する予測モデルに関して、特定の製造業者によって生産された薬物を有利に扱わないようにそのモデルをトレーニングすることが望まれることがありうる。あるクラスのデータセットに関して公平であるようにモデルをトレーニングすることが有用である例はこの他にもいくつかある。
同様に、多くの場合に、1つまたは複数の選択された特徴(例えばセンシティブ属性(sensitive attribute))の変化に対して(少なくともある程度)不変であるように、モデルをトレーニングすることが望ましい。
本明細書の実施形態は、モデルをトレーニングする有用な新規のシステムおよび方法を提供することによって上記のことに対処する。
いくつかの変形形態では、このシステム(例えば100)が、モデルトレーニングシステム(例えば110)、モデル(例えば111)および敵対的分類器(adversarial classifier)(例えば112)のうちの少なくとも1つを含む。
いくつかの変形形態では、この方法(例えば200)が、モデルを生成すること(例えばS210)、モデルを事前トレーニングすること(例えばS220)、疑わしい特徴(suspect feature)を選択すること(例えばS230)、敵対的分類器を事前トレーニングすること(例えばS240)、敵対的分類器を使用することによってモデルを評価すること(例えば250)、敵対的分類器を使用することによって新たなモデルを生成すること(例えばS260)、新たなモデルを既存のモデル(pre-existing model)と比較すること(例えばS270)、およびユーザインタフェースを提供すること(例えばS280)のうちの少なくとも1つを含む。いくつかの変形形態では、S250でモデルを評価することが、出力(例えばスコア、予測など)を生成するためにモデル111(または111a~d)によって使用される入力データセットに関連した1つまたは複数のセンシティブ属性の値を、モデルによって生成された出力を使用することによって予測することを含む。
いくつかの例では、センシティブ属性の値を予測するように敵対的分類器をトレーニングすることができ、敵対的分類器112によって決定されるセンシティブ属性値予測の正解率(accuracy)を最小化するように、モデルをトレーニングすることができる。
いくつかの変形形態では、この方法を使用して、適当な任意のタイプのモデルをトレーニングすることができる。いくつかの変形形態では、この方法を使用して、元のモデルと結合されてアンサンブル(ensemble)を形成したより公平なモデルを、より公平な結果を生み出すようにトレーニングすることができる。
いくつかの変形形態では、この方法を使用して、ビジネス制約(business constraint)(例えば信用判断ビジネス制約、賃貸借ビジネス制約など)を満たすモデルをトレーニングすることができる。
本明細書の実施形態は、さまざまなタイプの予測モデルに対する敵対的トレーニング;モデルの中および/または値の中に存在することが敵対的トレーニング中に変更されるべきではない1つまたは複数の特徴を指定するモデル制約パラメータに従った、予測モデルの敵対的トレーニング;正解率および公平性メトリック(metric)をより十分に満たす敵対的トレーニングを受けたモデルの選択;生産において使用する、敵対的トレーニングを受けたモデルの選択を正当化するレポートの自動生成;ならびに敵対的トレーニングを受けたモデルに対する公平性メトリック、正解率メトリックおよび経済的見通し(economic projection)を表示し、敵対的トレーニング中に使用されるパラメータに対するユーザ入力を受け取るオペレータ装置ユーザインタフェース、を実行するための実用的なシステムおよび方法を含む敵対的トレーニング技法の実用的適用を提供する。いくつかの変形形態では、このシステム(例えば110)が、オペレータによって提供されたモデル上で敵対的トレーニングをオペレータが実行することを可能にし、指定された公平性および正解率制約を満たす敵対的トレーニングを受けたモデルをオペレータに提供するサービスとしてのソフトウェア(Software As A Service)(SAAS)を(例えばアプリケーションサーバ114を介して)提供する。いくつかの変形形態では、システム(例えば110)が、元のモデル、敵対的トレーニングプロセス、結果として得られたモデル、ならびにモデル解析および比較を記載したレポートを生成する。このモデル解析および比較は例えば、元のモデルとより公平な代替モデルとの間の公平性および正解率の差、元のモデルおよびより公平なモデルのそれぞれの入力変数の重要性、ならびに元のモデルおよび公平な代替モデルに関する他の比較および解析を示す。
本明細書に記載された敵対的トレーニング技法を、予測に使用されるモデルであって、公平性が、そのモデルを生産において使用するのを許すかどうかを判断するための因子であるモデルに適用することができる。本明細書の実施形態を、信用貸出し、住居の賃貸、保険申込み、賃貸借、雇用、詐欺の検知、入会(例えば入学)、奨学金、広告、住宅販売、薬物試験、科学研究、医療結果の解析などに関する判断において使用する予測モデルに適用することができる。
2.利益
この技術の変形形態は、いくつかの利益および/または利点を提供しうる。
第1に、さまざまなタイプのモデルに対して敵対的トレーニングを実行することによって、さまざまなタイプの予測モデルの公平性を向上させることができる。
第2に、モデルの敵対的トレーニング用の(本明細書に記載された)ユーザインタフェースを提供することによって、より公平なモデルを生成する際のユーザビリティ(usability)を向上させることができる。
第3に、(本明細書に記載された)公平性および正解率メトリックならびに経済的見通しを含むモデル選択レポートの自動生成によって、モデルを展開して生産に供する判断をより簡単に正当化することができる。
第4に、(本明細書に記載された)ロジスティック回帰モデルの敵対的トレーニングを実行することによって、ニューラルネットワークモデルに移動する必要なしに、既存のロジスティック回帰モデルを、公平性向上のために再トレーニングすることができる。
第5に、(本明細書に記載された)ツリーモデルの敵対的トレーニングを実行することによって、ニューラルネットワークモデルに移動する必要なしに、既存のツリーモデルを、公平性向上のために再トレーニングすることができる。
第6に、指定されたモデル制約に従って敵対的トレーニングを実行することによって、敵対的トレーニングの計算複雑さおよび性能を向上させることができる。さらに、モデルを展開して生産環境に供するための制約を満たすモデルのトレーニングに、敵対的トレーニングを拘束することができる。
3.システム
本明細書にはさまざまなシステムが開示されている。いくつかの変形形態では、このシステムを、人工知能(AI)、機械学習、予測モデルなどのうちの1つまたは複数を使用する適当な任意のタイプのシステムとすることができる。例示的なシステムは、信用システム、薬物評価システム、大学入学システム、人的資源システム、申込者スクリーニングシステム、サーベイランスシステム、法執行システム、軍事システム、軍事ターゲティングシステム、広告システム、顧客サポートシステム、コールセンターシステム、支払いシステム、調達システムなどを含む。いくつかの変形形態では、このシステムが、1つまたは複数のモデルをトレーニングするように機能する。いくつかの変形形態では、このシステムが、1つまたは複数のモデルを使用して、判断を下す、レポートを作成する、動作を始動させるなどのために使用することができる出力を生成するように機能する。
このシステムは、ローカル(例えばオンプレミス(on-premises))システム、クラウドベースのシステム、またはローカルシステムとクラウドベースのシステムの任意の組合せとすることができる。このシステムは、シングルテナントシステム(single-tenant system)、マルチ(multi-)テナントシステム、またはシングルテナント構成要素とマルチテナント構成要素の組合せとすることができる。
いくつかの変形形態では、このシステム(例えば100)(またはシステムの構成要素、例えばモデルトレーニングシステム110)を、オンプレミスモデリングシステム、クラウドベースのモデリングシステム、またはオンプレミス構成要素とクラウドベースの構成要素の任意の組合せとすることができる。いくつかの実施形態では、モデリングシステムが、モデル開発システムおよびモデル実行システムを含む。いくつかの実施形態では、モデル開発システムが、RまたはPythonなどのプログラミング環境およびツールにオペレータが(例えば120を介して)アクセスすることを可能にするグラフィカルユーザインタフェース(例えば115)を提供し、モデル開発システムが、オペレータが機械学習モデルを用意、構築、説明、確認、発表およびモニタリングすることを可能にするライブラリおよびツールを含む。いくつかの実施形態では、モデル開発システムが、予測モデルを生成および解析するプロセスに関してビジネスユーザを案内するモデル開発ワークフローにオペレータが(例えば120を介して)アクセスすることを可能にするグラフィカルユーザインタフェース(例えば115)を提供する。いくつかの実施形態では、モデル実行システムが、機械学習モデルを発表、確認、実行およびモニタリングすることを可能にするツールおよびサービスを提供する。いくつかの実施形態では、モデリングシステムが、変数、特徴、モデルおよびモデリングプロセスに関するデータを記憶し、それらのデータを提供する意味層(semantic layer)を利用するツールを含む。いくつかの実施形態では、この意味層が、リポジトリに記憶されたナレッジグラフ(knowledge graph)である。いくつかの実施形態では、このリポジトリが記憶システムである。いくつかの実施形態では、このリポジトリが記憶媒体に含まれている。いくつかの実施形態では、記憶システムがデータベースまたはファイルシステムであり、記憶媒体がハードドライブである。
いくつかの変形形態では、このシステムがモデルトレーニングシステムである。
他の変形形態では、このシステムがモデルトレーニングシステムを含む。
いくつかの変形形態では、このシステムが、モデルによって生成される出力値に対する識別された1つまたは複数のモデル属性(入力)の影響を低減させるようモデルをトレーニングするように(および任意選択でトレーニングされたモデルを使用するように)機能する。いくつかの変形形態では、このシステムが、敵対的分類器を使用することによって計算された情報(例えば敵対的分類器予測損失(prediction loss)情報)に基づいてモデルを再トレーニングすることができる。
いくつかの変形形態では、このシステム(例えば100)が、モデルトレーニングシステム(例えば110)、モデル(例えば111)、敵対的分類器(例えば112)、データ記憶装置(例えば113)、アプリケーションサーバ(例えば114)、ユーザインタフェース(例えば115)およびオペレータ装置(例えば120)のうちの1つまたは複数を含む。いくつかの変形形態では、適当な任意のやり方でこのシステムの構成要素を配置することができる。
いくつかの変形形態では、システムが敵対的ネットワークを含む。いくつかの変形形態では、モデル(例えば111)と敵対的分類器(例えば、112)とが、入力データセットに含まれる特徴に基づいてモデル111が予測を生成する敵対的ネットワークを形成し、この予測に基づいて、敵対的分類器112が、(入力データセットに関連した)センシティブ属性に対する値を予測する。いくつかの実施態様では、センシティブ属性がモデル111に対して使用可能ではない。いくつかの実施態様では、代替モデルが生成され、その代替モデルのトレーニング目的が、敵対的分類器の誤り率を増大させることである。いくつかの実施態様では、敵対的トレーニングデータ(例えば1つまたは複数のセンシティブ属性に対する履歴モデル予測および対応する値を識別するデータセット)が、(例えばS240において)敵対的分類器に対する初期トレーニングデータの役目を果たし、敵対的分類器をトレーニングすることが、受入れ可能な正解率を敵対的分類器が達成するまで、敵対的分類器に、敵対的トレーニングデータからのサンプルを提示することを含む。いくつかの変形形態では、(例えばS220で)(例えば262で)モデル(例えば111)が、初期トレーニングデータセットを用いて事前トレーニングされる。事前トレーニングの後に、(例えばそれぞれS262およびS261で)モデルと敵対的分類器の両方を敵対的にトレーニングすることができる。いくつかの変形形態では、(例えばそれぞれS262およびS261で、)目的関数の勾配(gradient)を反復的に計算し、(例えば勾配降下法(gradient descent process)または他の任意の適当な方法を実行することにより)モデルの少なくとも1つのパラメータの値を、計算された勾配に比例する量だけ低減させることによって、モデルと敵対的分類器のうちの1つまたは複数をトレーニングすることができる。いくつかの変形形態では、(例えばS261、S262での)敵対的トレーニング中に計算された勾配(例えば勾配降下法に対する勾配)が、米国特許出願第16/688,789号明細書に開示されているプロセス(例えば、いくつかの実施形態ではラドン-ニコディム微分(Radon-Nikodym derivative)およびルベーグ測度(Lebesgue)を使用した汎用インテグレーテッドグラジエンツ法)を実行することによって計算される。しかしながら、適当な任意のトレーニングプロセスを実行することができる。
図1A~Cは、変形形態による例示的なシステム100を示している。
モデルトレーニングシステム110は、モデル(例えば111)をトレーニング(例えば事前トレーニング、敵対的トレーニングなど)するように機能する。いくつかの変形形態では、モデルトレーニングシステム110が、敵対的分類器モデル(例えば112)を使用することによってモデル(例えば111)をトレーニングするように機能する。モデルトレーニングシステムは、敵対的分類器112からのデータ(例えば敵対的分類器の予測損失を識別するデータ)を使用してモデルをトレーニングする適当な任意のタイプのモデルトレーニングシステムとすることができる。例示的なモデルトレーニングシステムは、Pythonモデリングシステム、Rモデリングシステムなどを含むことができる。いくつかの変形形態では、モデルトレーニングシステムが、敵対的分類器112から受け取ったデータに基づいてトレーニングデータを選択するトレーニングセット選択器(training set selector)を含む。いくつかの実施態様では、トレーニングセット選択器が、敵対的分類器から受け取った情報(例えば除去された属性に対する敵対的分類器の予測正解率を識別する情報)に基づいてトレーニングセットから属性を除去する。いくつかの実施態様では、トレーニングセット選択器が、敵対的分類器から受け取った情報に基づいてトレーニングデータセットから属性を除去するためにトレーニング選択器が使用する1つまたは複数のルールを含む。例えば、敵対的分類器が、モデルによって生成された出力からセンシティブ属性の値を正確に予測することができる場合、モデルトレーニングシステムは、モデル(例えば111)をトレーニングするために使用されるトレーニングデータからセンシティブ属性を除去することができる。
いくつかの変形形態では、出力(例えばスコア、予測など)を生成するためにモデル111(または111a~d)が使用する入力データセットに関連した1つまたは複数のセンシティブ属性の値を、モデルによって生成された出力を使用することによって予測するように、敵対的分類器112が機能する。例えば、モデル111によって出力された信用予測が1人の女性信用申込者に関係しているかどうかを判定するように敵対的分類器をトレーニングすることができる(この例では、センシティブ属性が「性別」であり、値が「男性」または「女性」の一方である)。
いくつかの変形形態では、敵対的分類器への入力がモデル出力およびセンシティブ属性である。いくつかの変形形態では、センシティブ属性が、既存のモデル(M)に対するトレーニングデータのそれぞれの行に関連した特徴であるが、既存のモデル(M)に対するトレーニングデータには含まれていない。
いくつかの変形形態では、敵対的分類器が機械学習モデルである。しかしながら、敵対的分類器は、センシティブ属性値を予測することができる適当な任意のタイプのシステムとすることができる。
いくつかの変形形態では、敵対的分類器112が、評価中のモデル(例えば111、111a~d)のモデルスコアに基づいてセンシティブ属性を予測するモデルである。
センシティブ属性は、個人のクラス(例えば人種、民族、年齢、性別、出身国、性的指向、人口統計、軍隊での地位などに基づくクラス)、製品の製造業者、またはモデルによって生成される出力(例えば予測)に影響を及ぼすべきでない任意のタイプの情報を識別する特徴とすることができる。いくつかの変形形態では、(例えば求められているとき、例えば申込者の保護されたクラス会員身分をモデル入力変数として含めることが禁じられている公平な貸出し申込みにおいて求められているときには、)センシティブ属性がモデルへの入力特徴である必要がない。いくつかの変形形態では、本明細書に開示された方法が、ECOAおよび他の公平貸出し規制が求める条件下でモデルをより公平にする手法を提供する。
いくつかの実施形態では、敵対的分類器と同時に公平な代替モデルがトレーニングされる。いくつかの実施形態では、この公平な代替モデルがトレーニング行のサブセットでトレーニングされ、次いで、この公平な代替モデルが、それぞれの行に対するスコアを生成するために呼び出される。それぞれのスコアは、保護属性または属性の組合せを公平な代替モデルスコアに基づいて予測するようにそれぞれが設計された1つまたは多くの敵対的分類器によって評価される。いくつかの実施形態では、敵対的分類器が、このモデルスコアに基づいて、保護属性を予測する。いくつかの実施形態では、敵対的分類器が、公平な代替モデルと同時にトレーニングされ、敵対的分類器が、公平な代替モデルスコアおよび既知の保護属性に基づいてトレーニングされ、これらはそれぞれ、公平な代替モデルからスコアを生成するために使用される同じ行に対応する。いくつかの実施形態では、初期トレーニングエポック(epoch)の後、公平な代替モデルを(バックプロパゲーションまたは他の手段によって)更新する前に、公平な代替モデルの目的関数に敵対的分類器の誤り率が結合され、このプロセスが、トレーニングデータが尽きるまで、トレーニングデータの後続のサンプルを選択し、公平な代替モデルをトレーニングし、敵対的分類器を記載されたとおりにトレーニングすることにより継続する。いくつかの実施形態では、公平な代替モデルの中の目的関数が、モデルの元の目的関数の出力と敵対的分類器の誤り率との線形結合である。いくつかの実施形態では、保護属性ごとに敵対的分類器が存在する。他の実施形態では、全ての保護属性を表すバイナリフラグを予測する1つの敵対的分類器が存在する。いくつかの変形形態では、敵対的分類器がニューラルネットワークである。いくつかの変形形態では、より公平な代替モデルがニューラルネットワークである。いくつかの変形形態では、公平な代替モデルの損失関数と敵対的モデルの正解率の線形結合を調整することによって、より公平な一連の代替モデルが生成される。いくつかの実施形態では、ユーザがグラフィカルユーザインタフェースを操作することによって、公平な代替モデルおよび線形結合パラメータの数が選択される。いくつかの実施形態では、それぞれのモデルが経時的に安定した結果を生み出すかどうか、所望のビジネス成績を上げるかどうか、およびその他の形で生産に使用するのに適しているかどうかをユーザが判定するのを補助するために、それぞれの公平な代替モデルが解析され、レポートが作成される。いくつかの実施形態では、モデルおよびビジネス問題の属性に基づく予め定められた選択基準(selection criterion)を使用して、最良の代替モデルが選択される。
いくつかの変形形態では、システムの1つまたは複数の構成要素が、プロセッサ(例えばCPU(中央処理ユニット)、GPU(グラフィック処理ユニット)、NPU(ニューラル処理ユニット)など)、表示装置、メモリ、記憶装置、可聴出力装置、入力装置、出力装置および通信インタフェースのうちの1つまたは複数を含むハードウェア装置として実装される。いくつかの変形形態では、ハードウェア装置に含まれる1つまたは複数の構成要素が、バスを介して通信可能に結合されている。いくつかの変形形態では、ハードウェアシステムに含まれる1つまたは複数の構成要素が、通信インタフェースを介して外部システム(例えばオペレータ装置120)に通信可能に結合されている。
通信インタフェースは、ネットワーク(例えば私設ネットワーク、公衆ネットワーク、インターネットなど)を介してこのハードウェアシステムと別の装置(例えばオペレータ装置120、モデル実行システムなど)との間でデータを伝達するように機能する。
いくつかの変形形態では、記憶装置が、モデル111、敵対的分類器112、ユーザインタフェース115、アプリケーションサーバ114、および本明細書に記載された方法200の少なくとも一部分を実行するように機能するトレーニングモジュールのうちの1つまたは複数のものの機械実行可能命令を含む。
いくつかの変形形態では、記憶装置がデータ113を含む。いくつかの変形形態では、データ113が、トレーニングデータ、モデル111の出力、敵対的分類器112の出力、(本明細書に記載されている)正解率メトリック、(本明細書に記載されている)公平性メトリック、(本明細書に記載されている)経済的見通しなどのうちの1つまたは複数を含む。
入力装置は、ユーザ入力を受け取るように機能する。いくつかの変形形態では、入力装置が、ボタンとタッチスクリーン入力装置(例えば容量性タッチ入力装置)とのうちの少なくとも一方を含む。
4.方法
いくつかの変形形態では、この方法が、少なくとも1つのモデル(例えば111)をトレーニングするように機能する。いくつかの変形形態では、この方法が、1つまたは複数の選択された特徴(例えば属性)の変化に対して(少なくともある程度)不変であるよう少なくとも1つのモデルをトレーニングするように機能する。
いくつかの変形形態では、この方法(例えば200)が、モデルを生成すること(例えばS210)、モデルを事前トレーニングすること(例えばS220)、疑わしい特徴を選択すること(例えばS230)、敵対的分類器を事前トレーニングすること(例えばS240)、敵対的分類器を使用することによってモデルを評価すること(例えば250)、敵対的分類器を使用することによって新たなモデルを生成すること(例えばS260)、新たなモデルを既存のモデルと比較すること(例えば270)、およびユーザインタフェースを提供すること(例えばS280)のうちの少なくとも1つを含む。いくつかの変形形態では、S260が、敵対的分類器を再トレーニングする(例えば敵対的トレーニングする)こと(例えばS261)、(例えばS210で生成された)モデルを修正する(例えば敵対的トレーニングする)こと(例えばS262)、修正されたモデルを評価すること(例えばS263)、修正されたモデルが制約を満たしているかどうかを判定すること(例えばS264)、および新たなモデルを提供すること(例えばS265)のうちの少なくとも1つを含む。いくつかの変形形態では、S264で制約が満たされていない場合、処理はS261に戻り、別のトレーニング反復が実行される。いくつかの変形形態では、S264で制約が満たされている場合、処理はS265に進む。いくつかの変形形態では、S263でモデルを評価することが、出力(例えばスコア、予測など)を生成するためにモデル111(または111a~d)が使用する入力データセットに関連した1つまたは複数のセンシティブ属性の値を、モデルによって生成された出力を使用することによって予測することを含む。
いくつかの変形形態では、このシステム(例えば100)の少なくとも1つの構成要素が、方法(例えば200)の少なくとも一部分を実行する。
図2A~Bは、変形形態による方法200を示す図である。
いくつかの変形形態では、S210が、初期モデル(例えば図1Bに示された111a)を生成するように機能し、この初期モデルは、S250で、敵対的分類器(例えば112)を使用することによって評価される。いくつかの変形形態では、S210で生成された初期モデルが、(例えばS250での評価に基づいて)S260で修正される(例えば、1つまたは複数の新たなモデル111b~dを生成するようにモデルパラメータが修正される)。いくつかの実施態様では、初期モデルを生成することが、(例えばPython、R、モデル開発システム、テキストエディタ、ワークフローツール、ウェブアプリケーションなどを使用することによって)そのモデルを定義することを含む。
S210で生成される初期モデル(例えば111a)は、適当な任意のタイプのモデル(例えば図3~7に示されているようなモデルまたは他の任意の適当なタイプのモデル)とすることができる。この初期モデルは、モデルパラメータの初期セット(例えば重み、サポートベクター、係数など)を有し、この初期セットは、S260で(例えば敵対的トレーニング中に)調整されうる。
いくつかの変形形態では、初期モデル111aが、ツリーモデル、ロジスティック回帰モデル、パーセプトロン、順伝播型ニューラルネットワーク、オートエンコーダ、確率論ネットワーク、畳込みニューラルネットワーク、放射基底関数ネットワーク、多層パーセプトロン、ディープニューラルネットワーク、もしくは回帰型ニューラルネットワークのうちの1つもしくは複数のモデル、または適当な任意のタイプの微分可能もしくは非微分可能モデルを含むことができ、回帰型ニューラルネットワークは、ボルツマンマシン、エコーステートネットワーク、長・短期記憶(long short-term memory)(LSTM)、階層的ニューラルネットワーク、確率的ニューラルネットワークおよび他のタイプの微分可能ニューラルネットワークを含む。いくつかの変形形態では、初期モデルが教師あり学習モデルである。いくつかの変形形態では、初期モデルが識別モデル(discriminative model)である。いくつかの変形形態では、初期モデルが予測モデルである。いくつかの変形形態では、初期モデルが、入力変数の例が与えられた場合にラベル(label)を予測するように機能するモデルである。
いくつかの変形形態では、初期モデル111aが単一のモデルである。
いくつかの変形形態では、初期モデル111aが、線形結合、ニューラルネットワーク、バギング、ブースティングおよびスタッキングのうちのいずれか1つによってアンサンブリング(ensembling)を実行する(例えば異種、同種)アンサンブルモデル(アンサンブル学習モデル)である。いくつかの変形形態では、初期モデル111aが、微分可能モデルおよび非微分可能モデルを含むアンサンブルである。しかしながら、初期モデルは、適当な任意のタイプのアンサンブルとすることができる。
初期モデル111aを信用モデルとすることができる。しかしながら、いくつかの変形形態では、初期モデル111aを、信用貸出し、住居の賃貸、保険申込み、賃貸借、雇用、詐欺の検知、入会(例えば入学)、奨学金、広告、住宅販売、薬物試験、科学研究、医療結果の解析などの適当な任意の目的に使用することができる。
いくつかの変形形態では、初期モデル111aが、既存のモデル(M)(例えば、信用スコアを生成するために生産環境において現在使用されている信用モデル)である。
いくつかの変形形態では、初期モデル111aが、既存のモデル(M)の代替物である代替モデル(F)(例えば公平な代替物)(例えば現在使用されている信用モデルの代替モデルなど)であり、Fが、入力変数(x)に基づいてトレーニングされる。
代替モデル(F)は、適当な任意のタイプのモデルとすることができる。いくつかの変形形態では、代替モデル(F)が、線形モデル、ニューラルネットワークまたは他の任意の微分可能モデルのうちの1つまたは複数のモデルを含む。いくつかの変形形態では、MおよびFがともに微分可能モデルである。他の変形形態では、MおよびFが区分的に一定(piecewise constant)である。他の変形形態では、MおよびFが区分的に微分可能である。他の変形形態では、MおよびFが、微分可能モデルと非微分可能モデルのアンサンブルである。
いくつかの変形形態では、初期モデル111aが、入力変数(x)に基づいてトレーニングされたアンサンブル(E)である。アンサンブル(E)は適当な任意のタイプのアンサンブルとすることができる。いくつかの変形形態では、アンサンブル(E)が、ツリーモデルと線形モデルのうちの1つまたは複数のモデルを含む。いくつかの変形形態では、アンサンブル(E)が、ツリーモデル、線形モデルおよびニューラルネットワークモデルのうちの1つまたは複数のモデルを(単独でまたは適当な任意の組合せで)含む。
一例では、勾配演算子を持たない既存のモデル(M)の場合、または敵対的トレーニングを直接に適用できないモデルの場合に、既存のモデル(M)から、敵対的分類器112を使用することによってトレーニング可能であるような代替モデル(F)が生成される。第1の例では、ロジスティック回帰モデルからニューラルネットワークモデルが生成され、このニューラルネットワークが、ロジスティック回帰モデル入力xで、ロジスティック回帰モデルのスコアを予測するようにトレーニングされる。第2の例では、ツリーベースのモデルからニューラルネットワークモデルが生成され、このニューラルネットワークが、ツリーベースのモデル入力xで、ツリーベースのモデルのスコアを予測するようにトレーニングされる。これらの代理(proxy)モデルは微分可能であるため、勾配(例えば目的関数の勾配など)を計算することが可能であり、この勾配を(例えばS260での)敵対的トレーニング中に使用して、代理モデルのパラメータを調整することができる。
いくつかの変形形態では、初期モデルが区分的に微分可能である。そのような場合には、(初期モデルのパラメータを調整するために)(例えばS260での)敵対的トレーニング中に使用される勾配が、(本明細書に開示された)汎用インテグレーテッドグラジエンツプロセスを使用して計算され、この勾配は、ラドン-ニコディム微分およびルベーグ測度に基づく。いくつかの変形形態では、初期モデルが、連続モデルと区分的に一定のモデルのアンサンブルである。いくつかの変形形態では、初期モデルが、連続モデルと不連続モデルのアンサンブルである。いくつかの変形形態では、アンサンブル関数が、ニューラルネットワークなどの連続関数である。
S210は、既存のモデル(M)にアクセスすること、既存のモデル(M)を使用して、トレーニングデータセットの少なくとも1つのセットに対するモデル出力値を生成すること、および既存のモデル(M)によって生成されるモデル出力値を、既存のモデル(M)をトレーニングするために使用されたデータセット(および特徴)に基づいて予測するように、代替モデル(F)(例えば111a)をトレーニングすることを含むことができる。このようにすると、既存のモデル(M)によって生成されたであろうモデル出力を予測するような代替モデル(F)が生成される。
S210は、代替モデル(F)のモデルタイプを選択することを含むことができ、代替モデル(F)をトレーニングすることは、選択されたモデルタイプのモデルとして代替モデル(F)をトレーニングすることを含む。いくつかの変形形態では、代替モデル(F)のモデルタイプが既存のモデル(M)のモデルタイプと同じである。いくつかの変形形態では、モデルタイプが自動的に選択される。いくつかの実施態様では、モデルタイプが、候補モデルタイプのリストならびに一組の最適化基準および選択基準に基づいて自動的に選択され、いくつかの変形形態では、候補モデルタイプのリストならびに一組の最適化基準および選択基準がオペレータによって提供される。いくつかの変形形態では、最適化基準が、公平性メトリックおよび正解率メトリック(または公平性および経済的メトリック)を含み、選択基準が、元のモデルに適用された最適化基準に基づいて設定されたしきい値を含み、または公平性メトリック向上と収益性低下の比などの最適化基準、経済的基準、人口統計的基準などに関する任意の計算可能関数を含む。いくつかの変形形態では、経済的基準が、貸付けからの予想純利益、リスク計算における値、予め定められた経済シナリオなどのうちの1つまたは複数を含む。いくつかの変形形態では、人口統計的基準が、人種、民族、性別、年齢、軍隊での地位、身体障害の状態、婚姻状態、性的指向、地理的基準、グループの会員資格、宗教、政党、および他の任意の適当な基準のうちの1つまたは複数を含む。いくつかの変形形態では、モデルタイプが、(例えばオペレータ装置120、ユーザインタフェース115などを介して)受け取ったユーザ入力に基づいて選択される。いくつかの変形形態では、代替モデル(F)がニューラルネットワークである。いくつかの変形形態では、代替モデル(F)がアンサンブルモデルである。いくつかの変形形態では、代替モデル(F)がXGBoostモデルである。いくつかの変形形態では、代替モデル(F)が後にS250で評価される。
S210は、初期モデルのモデルタイプを記録することを含むことができる。
いくつかの変形形態では、この方法が任意選択でS220を含み、S220は、初期モデル(例えばS210で生成された初期モデル、記憶装置から呼び出された初期モデルなど)を、そのモデルに対するトレーニングデータセット(例えば完全なトレーニングデータセット)で、敵対的分類器をトレーニングする(例えばS240で事前トレーニングする)ために使用する履歴モデル出力値を生成するように、非敵対的事前トレーニングするように機能する。
S220は、システム100の記憶装置(例えば113)から初期モデル(例えば111a)を呼び出すことを含むことができる。あるいは、S220は、システム100の外部のシステムから初期モデル(例えば111)を呼び出すことを含むことができる。
いくつかの変形形態では、この方法が任意選択でS230を含み、S230は、疑わしい特徴を選択するように機能する。いくつかの変形形態では、S230が、敵対的分類器112をトレーニングするために、センシティブ属性であることが知られている(またはセンシティブ属性であることが疑われる)特徴を選択するように機能する。いくつかの変形形態では、センシティブ属性が予め決定されている。いくつかの変形形態では、センシティブ属性がトレーニング中に動的に選択される。いくつかの変形形態では、センシティブ属性を識別する情報が、ユーザ入力装置(例えばオペレータ装置120のユーザ入力装置)を介して受け取られる。いくつかの変形形態では、センシティブ属性を識別する情報が、モデル(例えば機械学習モデルなど)を使用することによって生成される。いくつかの変形形態では、このモデル(例えば初期モデル)が、米消費者金融保護局(Consumer Finance Protection Bureau)刊行の「Using publicly available information to proxy for unidentified race and ethnicity」に記載されたBISG法を実施する。いくつかの変形形態では、センシティブ属性が、人種、民族、性別、年齢、軍隊での地位および人口統計属性のうちの少なくとも1つの属性を含む。
S240は、初期モデル(例えば111a)を評価するために使用される敵対的分類器(例えば112)に対して非敵対的事前トレーニングを実行するように機能する。いくつかの変形形態では、S240が、(センシティブ属性の)センシティブ属性値を、事前トレーニングされたモデル(例えばS220でトレーニングされたモデルまたは他のやり方で事前トレーニングされたモデル)(例えば初期モデル)によって生成されたモデル出力から予測する敵対的分類器を事前トレーニングすることを含む。いくつかの変形形態では、S240が、S230で選択された疑わしいそれぞれの特徴の値を、事前トレーニングされたモデル(例えばS220でトレーニングされたモデルまたは他のやり方で事前トレーニングされたモデル)(例えば初期モデル)によって生成されたモデル出力から予測する敵対的分類器を事前トレーニングすることを含む。
いくつかの変形形態では、初期モデルによって生成された履歴モデル出力値および(それぞれの履歴モデル出力値に対する)対応する履歴センシティブ属性値を使用することによって、敵対的分類器112がトレーニングされる。いくつかの変形形態では、履歴モデル出力値および対応するセンシティブ属性値が記憶される(例えば記憶装置113に記憶される)。
いくつかの変形形態では、敵対的分類器112をトレーニングするために使用されるセンシティブ属性値が、初期モデルを事前トレーニングするために使用されたトレーニングデータセットに含まれている(または初期モデルを事前トレーニングするために使用されたトレーニングデータセットに関連づけられている)。いくつかの変形形態では、(例えばS240で)敵対的分類器112をトレーニングするために使用されるセンシティブ属性値が、初期モデルを事前トレーニングするために使用されたトレーニングデータセットに含まれていない。いくつかの変形形態では、敵対的分類器112をトレーニングするために使用されるセンシティブ属性値が、初期モデルを事前トレーニングするために使用されたトレーニングデータセットに基づく。いくつかの変形形態では、敵対的分類器112をトレーニングするために使用されるセンシティブ属性値が、機械学習モデルおよび初期モデルを事前トレーニングするために使用されたトレーニングデータセットに基づいて生成される。
いくつかの変形形態では、履歴モデル出力値に対応するセンシティブ属性値が、米消費者金融保護局(Consumer Finance Protection Bureau)刊行の「Using publicly available information to proxy for unidentified race and ethnicity」に記載されたBISG法を実行することによって決定される。いくつかの変形形態では、センシティブ属性値が、申込者またはユーザの直接の報告によって提供される。いくつかの変形形態では、センシティブ属性値が予測モデルを使用して計算される。いくつかの変形形態では、センシティブ属性値が、データベースまたはウェブサービスから検索される。いくつかの変形形態では、これらの全ての選択肢の徹底的な発展を提供するために、これらのモデルおよび解析が、それぞれの保護属性識別方法に基づいて、および保護属性識別方法の出力のさまざまな信頼度しきい値に基づいて、それぞれのデータセットを考慮して、組合せで、実行される。
いくつかの変形形態では、S250が、S240でトレーニングされた敵対的分類器を使用することによって初期モデルを評価するように機能する。いくつかの変形形態では、S250が、初期モデルが1つまたは複数の制約を満たしているかどうかを判定することを含む。いくつかの変形形態では、この制約が公平性制約を含む。いくつかの実施態様では、公平性制約が、初期モデルからの出力に基づいて敵対的分類器がその属性の値を予測する1つまたは複数のセンシティブ属性に対する予測正解率しきい値を含み、初期モデルに対する敵対的分類器112の予測正解率が、これらのしきい値のうちの1つまたは複数のしきい値よりも低い場合に、初期モデルは公平性制約を満たしている。しかしながら、初期モデルは、敵対的分類器112を使用することによって他のやり方で評価することもできる。
いくつかの変形形態では、初期モデルが制約を満たしているとS250で判定されたことに応答して、初期モデルが、生産環境(例えばオペレータ装置とモデル実行システムのうちの1つまたは複数に提供された生産環境)で使用される。
いくつかの変形形態では、初期モデルが1つまたは複数の制約を満たしていないとS250で判定されたことに応答して、(例えばS260で)新たなモデルが生成される。
いくつかの変形形態では、S260が、敵対的分類器112を使用することによって少なくとも1つの新たなモデル(例えば111b~d)を生成するように機能する。いくつかの実施態様では、モデルトレーニングシステム110が少なくとも1つの新たなモデルを生成する。この新たなモデルは、新たなモデルパラメータを有する初期モデルの一バージョン(version)、初期モデルを1つもしくは複数の追加のモデルと結合してアンサンブルとすることによって構築された新たなモデル、初期モデルの出力に1つもしくは複数の変換(transformation)を追加することによって構築された新たなモデル、初期モデルとは異なるモデルタイプを有する新たなモデル、または新たな構造(construction)および/もしくはモデルパラメータを有する他の任意の適当な新たなモデル(図3~7に示された例)とすることができる。
第1の変形形態では、S260で、モデルトレーニングシステム110が、(例えばS262で)敵対的トレーニングプロセスを実行することにより初期モデル(例えば111a)を再トレーニングすることによって新たなモデルを生成する。いくつかの実施態様では、初期モデルを再トレーニングすることが、新たなモデルに対する新たな一組のモデルパラメータを選択することを含む。
第2の変形形態では、S260で、モデルトレーニングシステム110が、初期モデルに基づいて新たなモデル(例えば図3~7に示されたモデル)を生成し、最初に、トレーニングデータを使用することによって(例えばS220で初期モデルを事前トレーニングするために使用されたトレーニングデータセット、別のトレーニングデータセットなどを使用することによって)新たなモデル(または新たなモデルの1つもしくは複数のサブモデル)をトレーニングする。いくつかの変形形態では、最初に(初期モデルに基づく)新たなモデルをトレーニングした後に、(例えば262で)(例えば新たなモデルに対する新たなモデルパラメータを選択することにより)敵対的トレーニングプロセスを実行することによって、新たなモデルが再トレーニングされる。図3~7は、初期モデルに基づいて生成することができるモデルの例を示している。
第1の例では、新たなモデル(例えば図4に示されたモデル)が、初期モデルの出力値の分布を変換する変換(例えば、平滑化近似経験的累積分布関数(smoothed approximate empirical cumulative distribution function)(ECDF))を含む。
第2の例では、新たなモデル(例えば図5に示されたモデル)が、初期モデルおよび1つまたは複数のサブモデルの出力が(例えば単純な線形スタッキング関数を使用して)一緒にアンサンブルされる複合モデルである。
第3の例では、新たなモデル(例えば図6に示されたモデル)が、初期モデルおよび1つまたは複数のサブモデルの出力が(例えば単純な線形スタッキング関数を使用して)一緒にアンサンブルされ、アンサンブルの出力値の分布が(例えば平滑化近似経験的累積分布関数(ECDF)によって)変換される複合モデルである。
第4の例では、新たなモデル(例えば図7に示されたモデル)が、初期モデルおよび1つまたは複数のサブモデルの出力(および任意選択で入力データ(ベースシグナル(base signal)))が(例えばニューラルネットワークスタッキング関数を使用して)一緒にアンサンブルされ、アンサンブルの出力値の分布が(例えば平滑化近似経験的累積分布関数(ECDF)によって)変換される複合モデルである。
第5の例では、新たなモデル(例えば111e)が、初期モデル(例えば111a)の修正されたバージョン(例えば111b~d)(例えば異なるパラメータを有する初期モデルの一バージョン)である。
第6の例では、新たなモデル(例えば111e)が、既存のモデル(M)と初期モデル(例えば111a)の修正されたバージョン(F)(例えば111b~d)とのアンサンブルである。いくつかの変形形態では、MおよびFがともに微分可能モデルである。いくつかの変形形態では、MおよびFが区分的に一定である。いくつかの変形形態では、MおよびFが区分的に微分可能である。いくつかの変形形態では、このアンサンブルが、少なくとも1つの微分可能モデルおよび少なくとも1つの非微分可能モデルを含む。このアンサンブルの第1の例では、このアンサンブルが、Fモデル出力とMモデル出力の線形結合である。このアンサンブルの第2の例では、このアンサンブルが、FとMの合成(composition)(例えばF(M(x),x))である。しかしながら、FとMの適当な任意のアンサンブルを新たなモデル(例えば111e)として生成することができる。
第7の例では、初期モデル(例えば111a)がアンサンブル(E)であり、新たなモデル(例えば111e)を生成することが、EのAUC(area under the curve(曲線下面積))を最大化し、その一方で敵対的分類器112の正解率を最小化する新たなモデルF(E(x),x)を学習することを含む。いくつかの実施態様では、新たなモデルを学習することが、1)入力データx、および2)このアンサンブルによって入力データxから生成された出力(例えばE(x))に基づいて出力を生成するモデルを構築することを含み、この新たなモデルF(E(x),x)(またはF(E(x),x)の1つまたは複数のサブモデル)が、トレーニングデータを使用することによって(例えばS220で初期モデルを事前トレーニングするために使用されたトレーニングデータセット、別のトレーニングデータセットなどを使用することによって)トレーニングされる。いくつかの変形形態では、最初に新たなモデルF(E(x),x)をトレーニングした後に、(例えば262で)EのAUCを最大化し、その一方で敵対的分類器112の正解率を最小化する新たなモデルF(E(x),x)(およびE(x))に対する新たなモデルパラメータを選択することにより敵対的トレーニングプロセスを実行することによって、新たなモデルF(E(x),x)が再トレーニングされる。
第7の例では、初期モデル(例えば111a)がアンサンブル(E)であり、新たなモデル(例えば111e)を生成することが、サブモデルとしてEを含む新たなモデルF(x)を学習すること、およびFとEをアンサンブル(FE)内で結合してモデルスコアを生成することを含む。
いくつかの実施態様では、新たなモデルF(x)を学習することが、最初に、トレーニングデータを使用することによって(例えばS220で初期モデルを事前トレーニングするために使用されたトレーニングデータセット、別のトレーニングデータセットなどを使用することによって)F(x)をトレーニングすることを含み、最初に新たなモデルF(x)をトレーニングした後に、EのAUCを最大化し、その一方で敵対的分類器112の正解率を最小化する新たなモデルF(x)(およびE(x))に対する新たなモデルパラメータを選択することによって、新たなモデルF(x)が再トレーニングされる。
いくつかの変形形態では、アンサンブルFEが線形結合(例えばw×F(x)+(1-w)×E(x))である。いくつかの変形形態では、線形結合FEの係数が、機械学習モデル(例えばリッジ回帰(ridge regression)など)に基づいて決定される。いくつかの変形形態では、アンサンブルFEが、ニューラルネットワークに基づいてアンサンブルされ、このニューラルネットワークは、限定はされないが、パーセプトロン、多層パーセプトロンまたはディープニューラルネットワークなどを含む。
いくつかの変形形態では、新たなモデル(例えば111e)が、既存のモデル(M)のモデルタイプとは異なるモデルタイプを有する。
いくつかの変形形態では、新たなモデル(例えば111e)が、既存のモデル(M)のモデルタイプと同じモデルタイプを有する。いくつかの変形形態では、初期モデルが、既存のモデル(M)のモデルタイプとは異なるモデルタイプを有し、新たなモデルを生成することが、(敵対的分類器112を使用することによってトレーニングされた)敵対的トレーニングを受けたモデル(例えば111b~d)に対応し、既存のモデル(M)と同じモデルタイプを有する新たなモデルを生成することを含む。既存のモデル(M)と同じモデルタイプを有する新たなモデルを生成することによって、既存のモデル(M)のモデルタイプを有するモデルに依存する既存のシステムおよびプロセスは、少なくとも1つの態様において既存のモデル(M)に比べて公平性が向上した新たなモデルを用いて動作することができる。
いくつかの変形形態では、S260が、敵対的分類器112およびモデル(例えば111a~d)を反復的にトレーニングすることによって敵対的トレーニングを実行することを含む。いくつかの変形形態では、敵対的分類器およびモデルを反復的にトレーニングすることが、複数のそれぞれの反復中に、最初に、(例えばS261で)モデル(例えば111a)を固定したまま、単一のエポックに関して、敵対的分類器112を、(例えば敵対的分類器に対する損失関数を最小化するように敵対的分類器のモデルパラメータを調整することによって)トレーニングすること、および、次いで、(例えばS262で)敵対的分類器を固定したまま、(例えばモデルに対する損失関数を最小化するようにモデルのモデルパラメータを調整することによって)モデル(例えば111b)を、(例えばモデル(例えば111a)を事前トレーニングするために使用された)トレーニングデータセットの1つまたは複数のサンプルでトレーニングすることを含む。
いくつかの変形形態では、敵対的トレーニング(例えばS261、S262)が、敵対的分類器のパラメータおよびモデルのパラメータを反復的に調整することを含む。第1の変形形態では、モデル(例えばモデル111)および敵対的分類器(例えば112)の敵対的トレーニングが、1つまたは複数のモデルパラメータの値を大きくすることを含む。第2の変形形態では、敵対的トレーニングが、1つまたは複数のモデルパラメータの値を小さくすることを含む。第3の変形形態では、敵対的トレーニングが、1つまたは複数のモデルパラメータの値を小さくし、1つまたは複数のモデルパラメータの値を大きくすることを含む。
いくつかの変形形態では、少なくとも1つのモデルパラメータが、目的関数(例えば費用関数、損失関数)に基づいて調整される。いくつかの変形形態では、少なくとも1つのモデルパラメータが、(例えば目的関数の値の倍数に基づいてパラメータを小さくすることによって)目的関数の値を小さくするように調整される。
いくつかの変形形態では、少なくとも1つのモデルパラメータを調整することが、目的関数の勾配と微分のうちの少なくとも一方を決定することを含む。いくつかの変形形態では、少なくとも1つのモデルパラメータが、(例えば目的関数の勾配の値の倍数に基づいてパラメータを小さくすることによって)目的関数の勾配を小さくするように調整される。いくつかの変形形態では、少なくとも1つのモデルパラメータが、(例えば目的関数の微分の値の倍数に基づいてパラメータを低減させることによって)目的関数の微分を小さくするように調整される。
いくつかの変形形態では、モデル(例えば111)に関して、目的関数が、モデルに対する現在のモデルパラメータ(例えばW)および敵対的分類器に対する現在のパラメータ(例えばW)に基づいて計算される。
いくつかの変形形態では、モデル(例えば111)に関して、目的関数が、モデル(例えば111)に対するモデル予測損失メトリックと敵対的分類器112に対する敵対的分類器予測損失メトリックとの差(例えばLoss-Loss)である。いくつかの変形形態では、モデル(例えば111)に関して、目的関数が、モデル(例えば111)に対するモデル予測損失メトリックと敵対的分類器112に対する敵対的分類器予測損失メトリックの倍数(例えばL)との差(例えばLoss-L×Loss)である。いくつかの実施態様では、Lの値が大きいほどモデルの予測は公平になり、その一方で予測正解率は犠牲になるため、Lが、公平性と正解率の間のトレードオフを指定するパラメータである。いくつかの変形形態では、モデルに対する予測損失メトリックが、実際のターゲット値と、トレーニングデータのサンプルおよびモデルに対する現在のモデルパラメータ(例えばW)を使用してモデルによって予測されたターゲット値との差である。いくつかの変形形態では、敵対的分類器に対する予測損失メトリックが、実際のセンシティブ属性値と、モデル(例えば111)の出力および敵対的分類器に対する現在のモデルパラメータ(例えばW)を使用して敵対的分類器によって予測されたセンシティブ属性値との差である。
いくつかの変形形態では、敵対的分類器(例えば112)に関して、目的関数が、敵対的分類器112に対する敵対的分類器の予測損失メトリック(例えばLoss)である。いくつかの変形形態では、敵対的分類器に対する予測損失メトリックが、敵対的分類器に対する現在のモデルパラメータ(例えばW)に基づいて計算される。いくつかの変形形態では、敵対的分類器に対する予測損失メトリックが、実際のセンシティブ属性値と、モデル(例えば111)の出力および敵対的分類器に対する現在のモデルパラメータ(例えばW)を使用して敵対的分類器によって予測されたセンシティブ属性値との差である。
いくつかの変形形態では、少なくとも1つのモデルパラメータを調整することが、モデルと敵対的分類器のうちの1つまたは複数のものの勾配と微分のうちの少なくとも一方を決定することを含む。
いくつかの変形形態では、モデルまたは敵対的分類器のモデルパラメータW(例えばW、W)を調整することが、目的関数J(W)の勾配Gを計算すること、パラメータWを、勾配Gに比例した量だけ更新すること(例えばW=W-nG、nは学習率(learning rate)である)、および停止条件が満たされる(例えば目的関数J(W)の値の低減が止まる)まで繰り返すことを含む。
いくつかの変形形態では、目的関数J(W)の勾配Gが、モデルの勾配演算子と敵対的分類器の勾配演算子のうちの1つまたは複数の勾配演算子を使用することによって計算される。いくつかの変形形態では、目的関数J(W)の勾配Gが、米国特許出願第16/688,789号明細書に開示されているプロセス(例えば、いくつかの実施形態ではラドン-ニコディム微分およびルベーグ測度を使用した汎用インテグレーテッドグラジエンツ法)を実行することによって計算される。いくつかの変形形態では、目的関数J(W)の勾配Gが、基準入力データセットを識別し;基準入力データセットと評価入力データセット(例えばトレーニングデータセットの現在のサンプル、モデル111の現在の出力など)との間の経路(path)を識別し;この経路に沿った目的関数J(W)の境界点(boundary point)(例えば目的関数の不連続点が生じる点)(例えば目的関数の不連続点)を、モデルと敵対的分類器のうちの少なくとも一方に関して取得されたモデルアクセス情報を使用することによって識別し;識別されたそれぞれの境界点で経路をセグメント化することによって複数の経路セグメントを識別し;セグメントごとに、そのセグメントに沿った目的関数に対する勾配の積分を決定することによって、サンプルのそれぞれの特徴に対するセグメント寄与値を決定し;境界点ごとに、その境界点に対する境界点寄与値を決定し、その境界点寄与値を、入力空間の少なくとも1つの特徴に割り当て;基準入力データセットとサンプルとの間の経路の終点ごとに、その終点におけるそれぞれの特徴の寄与を割り当て;徴ごとに、その特徴のセグメント寄与値、ならびにその特徴に割り当てられた任意の境界点寄与値および終点寄与値を結合して、少なくとも2つのデータ点に関するその特徴に対する特徴寄与値を生成することによって計算され、目的関数J(W)の勾配Gが、これらの特徴寄与値のセットである。いくつかの実施態様では、それぞれのセグメントに沿った目的関数に対する勾配の積分を決定するために、ラドン-ニコディム微分およびルベーグ測度が使用される。いくつかの変形形態では、この勾配が、ニューラルネットワークモデルの勾配である。
いくつかの変形形態では、トレーニングデータセットのそれぞれのサンプルについて(モデル111に対する)勾配を計算するときに、最初のサンプルに対してはゼロベクトルが基準入力データセットとして選択され、後続のそれぞれサンプルに対しては以前のサンプルが基準入力データセットとして使用される。いくつかの変形形態では、基準データセットが以前に使用されたサンプルである。いくつかの変形形態では、基準データセットが、トレーニングデータセットのランダムに選択されたサンプルである。いくつかの変形形態では、基準データセットが、ランダムに生成された1つまたは複数の値を含むデータセットである。しかしながら、モデル111に対する基準入力データセットは、適当な任意のプロセスを使用することによって識別することができる。
いくつかの変形形態では、それぞれのモデル出力について(敵対的分類器112に対する)勾配を計算するときに、最初のモデル出力に対してはゼロベクトルが基準入力データセットとして選択され、後続のそれぞれのモデル出力に対しては以前のモデル出力が基準入力データセットとして使用される。いくつかの変形形態では、基準データセットが、モデル出力のランダムに選択されたサンプルである。いくつかの変形形態では、基準データセットが、ランダムに生成された1つまたは複数の値を含むデータセットである。しかしながら、敵対的分類器に対する基準入力データセットは、適当な任意のプロセスを使用することによって識別することができる。
いくつかの変形形態では、適当な任意のタイプのプロセスを使用して、目的関数に対する勾配の積分を決定することができる。
いくつかの変形形態では、選択されたセンシティブ属性(例えばS230で選択されたセンシティブ属性)ごとに、敵対的分類器およびモデルが反復的にトレーニングされる。いくつかの変形形態では、(例えば保護された一組のクラス会員身分の論理和を計算するなどによって、)センシティブ属性が、任意のサブセット特徴を特徴づける単一の特徴に結合される。
いくつかの変形形態では、(例えばS260で、)敵対的分類器およびモデルが、モデル制約パラメータに従って反復的にトレーニングされる。
いくつかの変形形態では、このモデル制約パラメータが、(例えばS260での)敵対的トレーニングプロセス中にモデルパラメータが変更されない特徴を指定する。例えば、パラメータが変更されない特徴を指定することによって、新たなモデルの探索に制約を加えることができる。いくつかの変形形態では、モデル制約パラメータが、(例えばS220、S262での)トレーニングプロセス中にパラメータが変更されない特徴を指定する。いくつかの変形形態では、モデル制約パラメータが、トレーニングプロセスの間、モデル内に留まる特徴(例えば、ゼロよりも大きなパラメータ値をパラメータが有していなければならない特徴)を指定する。いくつかの変形形態では、モデル制約パラメータが、トレーニングプロセス中にモデルに追加されない特徴(例えばパラメータ値がゼロのままである特徴)を指定する。このようにすると、新たなモデルを探索する探索空間を小さくすることができ、それによって計算複雑さを低減させることおよび所望のビジネス結果を達成することができる。いくつかの変形形態では、制約パラメータが、特徴値に関してモデルスコアが単調に移動しなければならない特徴を指定する。単調制約は、中核的な信用属性が改善したときにモデルスコアが低下することを防ぐなどの特定のビジネス結果をモデルが達成することを可能にする。このようにすると、トレーニングの結果、指定されたモデル制約から新たなモデルが逸脱することがないようなモデル制約を設定することができる。生産環境に適していないモデルが敵対的トレーニング中にトレーニングされることがないように、モデル制約は、生産環境で使用されるモデルに対するモデル制約を満たすトレーニングされたモデルを生成するように、敵対的トレーニングを制限することができる。
いくつかの変形形態では、モデルトレーニングプロセス(例えば262)がサンプルパラメータ(例えば重み、サポートベクター、係数など)を適用する。いくつかの実施形態では、サンプル重みが時間属性に基づく。他の変形形態では、サンプル重みが、それぞれのトレーニングデータ列と1対1で対応し、ファイルに入れて提供される。いくつかの変形形態では、サンプル重みが、ユーザインタフェースに提供されている。いくつかの変形形態では、ユーザインタフェースが、ユーザが選択する構成可能な人口統計的基準、モデル正解率または経済的基準、サンプル重み、データファイル、ならびに解析および報告テンプレートに基づいて結果を解析することを可能にする対話型ツールからなる。しかしながら、結果の解析は他のやり方で実行することもできる。
いくつかの変形形態では、S263が、モデル111に対するパラメータを修正するために(例えばS262で)使用される目的関数を計算することを含む。いくつかの変形形態では、S263が、敵対的分類器112に対するパラメータを修正するために(例えばS261で)使用される目的関数を計算することを含む。
いくつかの変形形態では、S263が、トレーニング反復ごとに、(例えばモデル111と敵対的分類器112のうちの1つまたは複数に対するパラメータを修正するために使用される目的関数によって使用される)少なくとも1つの正解率メトリックを計算することを含む。正解率メトリックは、曲線下面積(AUC)メトリック、gini、KS、F1スコア、ならびにトレーニングされたモデル(例えば111)および/または敵対的分類器112によって生成されたモデル出力の予測的正解率に関する他の正解率値および統計値のうちの1つまたは複数を含むことができる。いくつかの変形形態では、S263が、新たなそれぞれのトレーニング反復中にそれぞれの正解率メトリックを更新することを含む。いくつかの変形形態では、正解率メトリックが、解析者に解析能力を提供するユーザインタフェースからオペレータによって選択される。いくつかの変形形態では、正解率メトリックが、信用ポリシーに基づく承認された貸付けの収益性の経済的見通しを含むオペレータによって提供される関数、または他の計算可能関数である。
いくつかの変形形態では、S263が、トレーニング反復ごとに、少なくとも1つの公平性メトリックを計算することを含む。この公平性メトリックは、敵対的分類器(例えば112)によって生成されたセンシティブ属性予測に関する少なくとも1つのセンシティブ属性に対する正確な予測百分率を含むことができる。いくつかの変形形態では、S263が、新たなそれぞれのトレーニング反復中にそれぞれの公平性メトリックを更新することを含む。いくつかの変形形態では、この公平性メトリックが、保護されたクラスに対する承認の百分率を保護されていないクラスに対する承認の百分率で除することによって与えられるEEOC公平性比である。いくつかの変形形態では、この公平性メトリックが、「The U.S. Equal Employment Opportunity Commission, FEDERAL REGISTER, / VOL. 44, NO. 43 / FRIDAY, MARCH 2, 1979 [6570-06-M]」に記載された公平性メトリックである。この文献の内容は参照によって本明細書に組み込まれている。
S263は、敵対的トレーニングを受けたモデル(例えば111)(例えばS265で提供されるモデル)に対する最終的な正解率および公平性メトリックを記録することを含むことができる。
S263は、敵対的トレーニングを受けたモデル(例えば111)(例えばステップS210、S220、S230、S240、S250、S261からS265のうちの1つまたは複数のステップで生成されたモデル)に対するモデルメタデータを記録することを含むことができる。敵対的トレーニングを受けたモデルに対するモデルメタデータは、モデルによって使用された特徴、モデルをトレーニングするために使用されたトレーニングデータを識別する情報、モデルのトレーニング中に使用さたるモデル制約パラメータ、モデルパラメータ、サンプル重み、選択されたメトリック、ならびに解析および報告テンプレートなどを含むことができる。
いくつかの変形形態では、S260が、少なくとも1つのセンシティブ属性に対する(例えばモデル111に対するパラメータを修正するために目的関数の中で使用される)複数の公平性対正解率パラメータ(fairness-versus-accuracy parameter)(L)値に対して実行され、S260の反復ごとに最終的な正解率および公平性メトリックが記録され、(例えばS263で決定された)最終的な正解率および公平性メトリックが、敵対的トレーニングを受けたモデルの対応するそれぞれのバージョンに関連づけて記憶される。いくつかの変形形態では、この複数の解析が計算クラスタに関して実行される。いくつかの変形形態では、この複数の解析が、クラウドコンピューティング環境内に分散している。いくつかの変形形態では、可能な限り高速であること/無制限の予算および予算計上などのポリシーに基づいて、クラウドコンピューティングリソースが展開される。本明細書に記載されているとおり、S260は、敵対的トレーニングを受けたそれぞれのモデル(例えば111)に対するモデルメタデータを記録することを含むことができる。このようにすると、敵対的トレーニングを受けたいくつかのモデルが生成され、それぞれのモデルは、異なる公平性対正解率パラメータ(L)値を有するように生成される。
いくつかの変形形態では、Lの効率的な選択が、勾配および一般的な探索アルゴリズムに基づいて決定される。
S265は、敵対的トレーニングを受けた複数のモデルに関連づけて記憶された最終的な正解率および公平性メトリックに基づいて、敵対的トレーニングを受けた複数のモデルのうちの1つのモデルを選択することを含むことができる。いくつかの変形形態では、受け取ったユーザ入力(例えばオペレータ装置120、ユーザインタフェース115などを介して受け取ったユーザ入力)に基づいて、単一のモデルが自動的に選択される。いくつかの変形形態では、所定のモデル選択基準ならびに記録された正解率および公平性メトリックに基づいて、単一のモデルが自動的に選択される。いくつかの変形形態では、選択基準が、少なくとも1つのセンシティブ属性に対する正解率しきい値および公平性しきい値のうちの少なくとも一方のしきい値を含む。
いくつかの変形形態では、自動選択が、選択されたモデルに対する記録された正解率および公平性メトリックを少なくとも含む選択レポートの自動生成を含む。いくつかの変形形態では、自動選択が、敵対的トレーニングを受けたそれぞれの選択されたモデルに対する記録された正解率および公平性メトリックを含む選択レポートの自動生成を含む。いくつかの変形形態では、システム100(例えば110を使用しているシステム100)が、選択レポートをオペレータ装置に提供する。このようにすると、選択されたモデル、選択されたモデルに対する公平性および正解率メトリック、ならびに選択されなかったモデルに対する公平性および正解率メトリックが、オペレータに報告される。いくつかの変形形態では、このレポートが、複数のモデル変形形態に関して集められた貸付損失および利子などの収益性メトリックの比較を含む経済的解析を含む。この情報を提供することによって、選択されたモデルの選択を正当化する情報をオペレータに報告することができる。いくつかの変形形態では、選択レポートがさらに、モデルごとの公平性対正解率パラメータ(L)値を含む。いくつかの変形形態では、選択レポートが、モデルの判断に対するモデル入力変数の全体的な影響および保護されたクラスごとの影響を定量化した、この解析における任意のモデルに対するモデル入力寄与を含む。いくつかの変形形態では、選択レポートが、この解析における任意のモデルに対する、入力変数のツーウェイ(two-way)またはnウェイ結合の寄与を含む。いくつかの変形形態では、選択レポートが、それぞれの代替モデルに対する、敵対動作理由コード(adverse action reason code)またはモデル説明のヒストグラムを含む。いくつかの変形形態では、選択レポートが、それぞれのモデル入力変数の影響を、1つの値範囲にわたって、それぞれのモデルに関して、および保護属性によって構成要素に分解されて示す、部分従属プロット(partial dependence plot)、ICEプロットおよび他のチャートを含む。
いくつかの変形形態では、S265が、敵対的トレーニングを受けたモデル(例えば111a~d)にアクセスすること、敵対的トレーニングを受けたモデルを使用して、トレーニングデータセットに対するモデル出力値を生成すること、および敵対的トレーニングを受けたモデルによって生成されたモデル出力値を、敵対的トレーニングを受けたモデルをトレーニングするために使用されたデータセット(および特徴)に基づいて予測するように、新たなモデルをトレーニングすることを含む。このようすると、敵対的トレーニングを受けたモデルによって生成されたであろうモデル出力を予測する新たなモデルが生成される。いくつかの変形形態では、新たなモデルのモデルタイプが、(例えばS210で)初期モデル(例えば111a)に対して記録されたモデルタイプである。S265は、新たなモデルのモデルタイプを選択することを含むことができ、新たなモデルをトレーニングすることは、選択されたモデルタイプのモデルとして新たなモデルをトレーニングすることを含む。いくつかの変形形態では、モデルタイプが自動的に選択される。いくつかの変形形態では、モデルタイプが、受け取ったユーザ入力に基づいて選択される。いくつかの変形形態では、新たなモデルがロジスティック回帰モデルである。いくつかの変形形態では、新たなモデルがニューラルネットワークモデルである。いくつかの変形形態では、新たなモデルがツリーモデルである。いくつかの変形形態では、新たなモデルが非微分可能モデルである。
S270は、(例えばS260で生成された)新たなモデルを既存のモデル(M)と比較するように機能する。いくつかの実施形態では、システム100が、(例えばモデルトレーニングシステム110を使用することによって、)S260で生成された新たなモデルを、モデル分解(model decomposition)に基づいて既存のモデル(M)と比較する。モデル分解は、2019年3月8日に出願された米国特許出願第16/297,099号明細書(「SYSTEMS AND METHODS FOR PROVIDING MACHINE LEARNING MODEL EVALUATION BY USING DECOMPOSITION」)、2019年6月7日に出願された米国特許出願第16/434,731号明細書(「SYSTEMS AND METHODS FOR DECOMPOSITION OF NON-DIFFERENTIABLE AND DIFFERENTIABLE MODELS」)、および2019年11月19日に出願された米国特許出願第16/688,789号明細書(「SYSTEMS AND METHODS FOR DECOMPOSITION OF DIFFERENTIABLE AND NON-DIFFERENTIABLE MODELS」)に記載されている。これらのそれぞれの文献の内容は参照によって本明細書に組み込まれている。しかしながら、適当な任意のタイプのモデル分解を使用することができる。公平な代替モデルを生成するための敵対的トレーニング法をモデル分解と組み合わせることによって、開示された実施形態は、敵対的トレーニングプロセス中に生成された新たなモデルがなぜ既存のモデルよりも公平であるのかを説明する有用な新規のレポートを提供する。いくつかの変形形態では、説明したこのモデルレポートが、公平なモデルと元のモデルとの比較を含む。いくつかの変形形態では、この比較が、ベースライン母集団(baseline population)に関するモデルスコアに対するモデル入力変数の寄与を含む。いくつかの変形形態では、このベースライン母集団が、承認された一組の貸付けである。いくつかの変形形態では、このベースライン母集団がランダムサンプルである。いくつかの変形形態では、このベースライン母集団が、人口統計的基準に基づいて選択される。いくつかの変形形態では、このベースライン母集団が、人口統計的基準および経済的基準に基づいて選択される。いくつかの変形形態では、このベースライン母集団が、オペレータによってユーザインタフェースに提供される属性に基づいて選択される。いくつかの変形形態では、特徴寄与が、それぞれのモデル全体に対して報告され、他の変形形態では、特徴寄与が、それぞれのセンシティブ属性に対して報告される。
いくつかの変形形態では、この比較が経済的比較を含む。いくつかの実施形態では、この経済的比較が、承認率比較、債務不履行率比較、および年次損失見通しを含む。いくつかの変形形態では、この比較が、人口統計学的属性またはセンシティブ属性に基づいて構成要素に分解される。いくつかの変形形態では、この比較が、ユーザインタフェースにおける属性のユーザ選択に基づいて構成要素に分解される。
S280は、ユーザインタフェース(例えば115)を提供するように機能する。いくつかの変形形態では、このユーザインタフェースが選択レポートを含む。いくつかの変形形態では、このユーザインタフェースがグラフィカルユーザインタフェースである。いくつかの変形形態では、このユーザインタフェースが、アプリケーションサーバ(例えば図1Cに示された114)によって提供される。いくつかの変形形態では、このユーザインタフェースが、システム110によってトレーニングされた敵対的トレーニングを受けたそれぞれのモデルに関する情報を表示する。いくつかの変形形態では、敵対的トレーニングを受けたモデルに関する情報が、(本明細書に記載された)モデルメタデータ、正解率メトリック、公平性メトリックなどを含む。いくつかの変形形態では、このユーザインタフェースが、ユーザ選択を受け取るためのユーザ入力要素を含み、このユーザ選択が、システム110によってトレーニングされた敵対的トレーニングを受けたモデル、公平性対正解率パラメータ(L)、センシティブ属性、敵対的分類器によってトレーニングされたモデル、出力モデルのモデルタイプ、システム110によってトレーニングされるモデルのモデルタイプ、モデル選択基準、敵対的トレーニング中に変更されない1つまたは複数の特徴を識別する情報、モデル制約パラメータ、および他の任意の適当な情報のうちの少なくとも1つである。
表示されたユーザインタフェースによって、オペレータ装置(例えば120)のオペレータは、敵対的トレーニングを受けたモデルが、公平性および正解率要件、ならびに他のモデル制約および/またはビジネス要件を満たしているかどうかを判定することができる。
いくつかの変形形態では、このユーザインタフェースが、元のモデルに関する情報(例えばモデルメタデータ、モデルタイプ、使用された特徴など)を表示する。このようにすると、新たにトレーニングされたモデルを元のモデルと比較することができる。いくつかの変形形態では、このユーザインタフェースが、元のモデルによって使用された特徴、および敵対的トレーニングを受けたそれぞれのモデルによって使用された特徴を表示する。
いくつかの変形形態では、このシステムが、ECOAの遵守を可能にするため、この解析およびモデル選択プロセスを文書化したレポートを作成する。いくつかの実施形態では、その他の規制の遵守を可能にするため、このシステムが、この解析およびモデル選択プロセスを文書化したレポートを作成する。このその他の規制は、限定はされないが、GDPR、GLBR、FCRA、および市、郡、州、地方、国または国際レベルが要求または勧告している他の規制を含む。いくつかの変形形態では、このシステムが、企業リスク管理者、自治体、監査人、規制者、裁判官および陪審員が、モデルリスク、モデルの採用に起因する不公平な結果のリスクを評価すること、およびアルゴリズム的バイアスを評価および軽減するようにこのプロセスビジネスの使用を監査することを可能にするレポートを作成する。
第1の例では、この方法が、既存のモデル(M)の公平な代替モデルである初期モデルFを(例えばS210で)用意すること、および入力変数xおよび敵対物(adversary)A(例えば敵対的分類器112)に基づいてFをトレーニングすること(例えばS262)を含み、Aは、モデルFのスコアに基づいてセンシティブ属性を予測するモデルであり、代替モデルFは、線形モデル、ニューラルネットワークまたは他の任意の微分可能モデルのうちの1つまたは複数のモデルを含み、モデルFは、既存のモデル(M)に代わるモデルである。
第2の例では、この方法が、既存のモデル(M)の公平な代替モデルである初期モデルFを(例えばS210で)用意すること、変数xおよび敵対物Aに基づいてFをトレーニングすること(例えばS262)を含み、Aは、モデルFのスコアに基づいてセンシティブ属性を予測するモデルであり、代替モデルFは、線形モデル、ニューラルネットワークまたは他の任意の微分可能モデルのうちの1つまたは複数のモデルを含み、S260によって生成される新たなモデルは、FモデルスコアとMモデルスコアの線形結合などのFとMのアンサンブルである。
第3の例では、この方法が、既存のモデル(M)の公平な代替モデルである初期モデルFを(例えばS210で)用意すること、変数xおよび敵対物Aに基づいてFをトレーニングすること(例えばS262)を含み、Aは、モデルFのスコアに基づいてセンシティブ属性を予測するモデルであり、代替モデルFは、線形モデル、ニューラルネットワークまたは他の任意の微分可能モデルのうちの1つまたは複数のモデルを含み、S260によって生成される新たなモデルは、FとMの合成、例えばF(M(x),x)などのFとMのアンサンブルである。いくつかの変形形態では、MおよびFがともに微分可能モデルである。他の変形形態では、MおよびFが区分的に一定である。他の変形形態では、MおよびFが区分的に微分可能である。他の変形形態では、MおよびFが、微分可能モデルと非微分可能モデルのアンサンブルである。いくつかの変形形態では、敵対的トレーニングにおいて使用される勾配が、2019年11月19日に出願された米国特許出願第16/688,789号明細書(「SYSTEMS AND METHODS FOR DECOMPOSITION OF DIFFERENTIABLE AND NON-DIFFERENTIABLE MODELS」)に記載されている汎用インテグレーテッドグラジエンツ分解法に基づいて計算される。この文献の内容は参照によって本明細書に組み込まれている。いくつかの変形形態では、敵対的トレーニングにおいて使用される勾配が、(例えばニューラルネットワーク内の勾配を呼び出すことによって)モデルから直接に呼び出される。
第4の例では、この方法が、(例えばS210で)アンサンブルモデル(E)を用意すること、および(例えばS220、S262で)入力変数xに基づいてEをトレーニングすることを含み、アンサンブルモデルEは、ツリーモデルと線形モデルのうちの少なくとも一方のモデルであり、この方法はさらに、Eによって生成されたスコアに基づいてセンシティブ属性を予測するように(例えばS240で)トレーニングされる敵対的モデル(A)を用意すること、および本明細書に記載された敵対的トレーニング法(例えば方法200)に基づいて、EのAUC(曲線下面積)を最大化し、その一方でAの正解率を最小化するモデルF(E(x),x)を(例えばS260で)学習することを含み、xは、入力特徴である。
第5の例では、この方法が、(例えばS210で)アンサンブルモデル(E)を用意すること、および(例えばS220、S262で)入力変数xに基づいてEをトレーニングすることを含み、アンサンブルモデルEは、ツリーモデルと線形モデルのうちの少なくとも一方のモデルであり、この方法はさらに、Eによって生成されたスコアに基づいてセンシティブ属性を予測するように(例えばS240で)トレーニングされる敵対的モデル(A)を用意することを含み、S260は、(1)第3のモデルF(x)を学習することを含み、Fは、Aの正解率を最小化し、EのAUCを最大化し、(2)FとEをアンサンブル(FE)内で結合して、既存のモデル(M)よりも公平なモデルスコアを生成することを含む。いくつかの変形形態では、アンサンブルFEが線形結合(例えばw×F(x)+(1-w)×E(x))である。いくつかの変形形態では、線形結合FEの係数が、機械学習モデルに基づいて決定される。いくつかの変形形態では、アンサンブルFEが、ニューラルネットワークに基づいてアンサンブルされ、このニューラルネットワークは、限定はされないが、パーセプトロン、多層パーセプトロンまたはディープニューラルネットワークを含む。いくつかの実施形態では、敵対的トレーニングに必要な勾配が、汎用インテグレーテッドグラジエンツを使用して計算される。いくつかの実施形態では、この勾配が、モデルから検索され、またはモデルパラメータに基づいて計算される。
第6の例では、この方法が、(例えばS210で)アンサンブルモデル(E)を用意すること、および(例えばS220、S262で)入力変数xに基づいてEをトレーニングすることを含み、アンサンブルモデルEは、ツリーモデル、ニューラルネットワークモデル、線形モデルおよびこれらの組合せのうちの少なくとも1つのモデルであり、この方法はさらに、Eによって生成されたスコアに基づいてセンシティブ属性を予測するように(例えばS240で)トレーニングされるモデルである敵対的モデル(A)を用意することを含み、S260は、(1)第3のモデルF(x)を学習することを含み、Fは、Aの正解率を最小化し、EのAUCを最大化し、(2)FとEをアンサンブル(FE)内で結合して、既存のモデル(M)よりも公平なモデルスコアを生成することを含む。いくつかの変形形態では、アンサンブルFEが線形結合(例えばw×F(x)+(1-w)×E(x))である。いくつかの変形形態では、線形結合FEの係数が、機械学習モデルに基づいて決定され、この機械学習モデルは例えばリッジ回帰を含む。いくつかの変形形態では、アンサンブルFEが、ニューラルネットワークに基づいてアンサンブルされ、このニューラルネットワークは、限定はされないが、パーセプトロン、多層パーセプトロンまたはディープニューラルネットワークを含む。
いくつかの変形形態では、初期モデル(例えばS210で生成され、S220で事前トレーニングされるなどした初期モデル)、またはS260で生成される任意の新たなモデルを、2つの部分、すなわち不連続サブモデルd(x)と、この不連続モデルを通して直接におよび間接的に入力空間の両方の要素(element)を含む形式f(x,d(x))の連続モデルとに分離することができる任意のアンサンブルモデルとすることができる。いくつかの変形形態では、たとえf()自体が連続関数であり、ことによると行儀が良い(well-behaved)場合であっても、d()自体が連続でない場合には、f()とd()との合成が連続でない可能性がある。このようないくつかのモデルの概略図が図3~7に示されている。いくつかの実施形態では、特徴重要性(feature importance)を含むモデルの解析が、米国特許出願第16/688,789号明細書に開示されているプロセス(汎用インテグレーテッドグラジエンツ法)を実行することによって計算される。
図3は、ベース特徴または「シグナル」の集合が勾配ブーステッドツリーフォレスト(gradient boosted tree forest)(GBM)に通され、その操作の結果がスコアとして表現されるパススルーモデル(pass-through model)を示している。いくつかの変形形態では、図3に示されたモデルf()を、f(x,y)と表現することができ、この式で、f(x,y)はyの恒等関数であり、yはd(x)として表現され、d(x)は勾配ブーステッドツリーモデルである。いくつかの変形形態において、少なくとも機械学習モデルとみなしたとき、f(x,y)自体は、1つの変数に関する恒等式であるため行儀が良いが、結果として生じるアンサンブルモデルは不連続で、行儀が悪い(ill-behaved)。
図4は、GBMの出力が続いて、「平滑化近似ECDF」によって変換されるパススルーモデルを示している。経験的累積分布関数(ECDF)は、とりわけ、項目のうちECDFのあるレベルよりも低い値を有するある割合の部分が正確にそのあるレベルになるように1つの関数の出力値の分布を変換する関数である。すなわち、Eが、モデル関数fに関連したECDFである場合には、例えば、全ての入力のうち正確に10%が、E(f(x))<0.1となるような入力であり、20%が、E(f(x))<0.2となるような入力である。平滑化近似ECDFであるSは、実際のECDFに非常に近いが、連続しており、ほぼどこでも微分可能な連続関数である。すなわち、例えば、全ての入力のほぼ正確に10%がS(f(x))<0.1となるような入力、20%が、S(f(x))<0.2となるような入力である。いくつかの実施態様では、ECDFは連続関数ではなく、微分可能性がはるかに低いが、任意の適当な技法を用いてECDFを近似する標準的な手段によって元のECDFを任意の近さで近似する平滑近似ECDFを構築することができる。いくつかの変形形態では、この技法が、区分的線形近似、多項式補間、単調3次スプライン、一般的な付加モデルの出力などのうちの少なくとも1つである。
GBMの出力を、平滑化ECDFであるSによって構成することによって、f(x、d(x))=S(d(x))の形式のモデルを得る。このモデルは、本明細書に記載された汎用インテグレーテッドグラジエンツ分解法に対する機能要件を満たす。しかしながら、貸手または他の引受人は普通、固定された割合の貸付けだけを承認することを望み、平滑化ECDFによるこのような変換はそれを可能にするため、この修正された形式は有用である。しかしながら、本明細書に記載された方法は、このタイプのアンサンブルモデルに対する説明情報を正しく提供する最初の方法である。
図5は、3つのサブモデル、すなわちGBM、ニューラルネットワーク(NN)およびエクストリームリーランダムフォレスト(Extremely Random Forest)(ETF)の出力が単純な線形スタッキング関数を使用して一緒にアンサンブルされる複合モデルを示している。このようなアンサンブルは、非常に強力な機械学習モデルを提供し、機械学習モデルで頻繁に使用されている。このようなモデルは、f(n(x),g(x),e(x))の形式で示すことができ、この式で、fは、最終的な線形アンサンブリング関数(linear ensembling function)を示し、nは、ニューラルネットワークサブモデルの連続出力を示し、gは、GBMの不連続出力を示し、eは、ETFの不連続出力を示す。形式の明白な違いにもかかわらず、このようなモデルは、汎用インテグレーテッドグラジエンツ分解法(この方法は、その内容が参照によって本明細書に組み込まれている、2019年11月19日に出願された「SYSTEMS AND METHODS FOR DECOMPOSITION OF DIFFERENTIABLE AND NON-DIFFERENTIABLE MODELS」という名称の米国特許出願第16/688,789号明細書に記載されている)に適合する形式のモデルとみなすことができる。
図6は、図4および5に示されたモデルの諸態様を組み合わせたモデルの概略図を示している。このモデルは、図5に示された3つのサブモデル、すなわちニューラルネットワーク(NN)、GBMおよびETFならびに線形アンサンブリング層を含むが、このモデルは続いて、線形アンサンブリング層の出力を平滑化ECDFによって再処理する。この種のモデルは、図5に示されたモデルの高い判別力(discriminative power)を達成するだけでなく、図4に示されたモデルと同様に、より平滑なECDFによって出力を生み出すモデルの非常に望ましい均一な出力特性も提供するため、有用である。
図7は、図6に示されたモデルと同様のモデルの概略図を示しているが、図6に示されたモデルの線形スタッキング層の代わりにニューラルネットワークモデルが使用されている。この形式を有するネットワークは、図6に示されたモデルの表現力(representational power)および望ましい出力構造を維持することができるが、その最終的なステップにおいてより大きな柔軟性を追加することができる。このより大きな柔軟性は、特定の公平性基準を満たすモデル、または局所信頼度推定値を提供するモデル、またはこれらの組合せを、他の望ましい特性とともに示すモデルの構築を可能にする。いくつかの変形形態では、図6に示されたディープスタッキングニューラルネットワークモデルの代わりに、例えば放射基底関数層、混合ガウス、回帰型ニューラルネットワーク、LSTM、オートエンコーダなどの任意の適当なタイプの連続機械学習モデルを使用することもできる。
これらのモデルへの入力の数またはタイプに制限はないこと、およびR2のサブセットのドメインを含む例示的な関数の以前の使用は単に明瞭さのために示しただけであることは当業者には明白であろう。単一のアンサンブリング層に出力が供給される別個の機械学習モデルの単一の層を示したのも、純粋に教育上の明瞭さのためであることも当業者には明白であろう。実際、これらのシステムのいくつかの変形形態では、アンサンブラ(ensembler)の複雑で込み入ったネットワークを組み立てることができる。このタイプの機械学習モデルが、機械学習競争において高い性能を発揮することはごく普通に見られることであり、このタイプの機械学習モデルは、Facebookでも、顔認証および識別システムを構築および改良する目的に使用されている。公平性結果およびモデルドライバが十分に理解および精査されていなければならない用途において、本明細書に記載された方法を検討および使用することができるように、いくつかの変形形態では、本明細書に記載された方法が、より公平なモデルの生成およびモデルに対する入力特徴寄与の解析を教示する。
システムおよび/または方法の実施形態は、さまざまなシステム構成要素およびさまざまな方法プロセスのあらゆる組合せおよび置換を含むことができ、本明細書に記載された方法および/またはプロセスの1つまたは複数の事例は、本明細書に記載されたシステム、要素および/もしくは実体の1つもしくは複数の事例によって、ならびに/またはそのような1つもしくは複数の事例を使用して、非同期で(例えば逐次的に)、同時に(例えば並行して)、または他の任意の適当な順序で実行することができる。
当業者なら、以上の詳細な説明ならびに図および特許請求項から理解することだが、下記の特許請求項に定義された本開示の範囲を逸脱することなく、開示された実施形態に修正および変更を加えることができる。
100 システム
110 モデルトレーニングシステム
111 モデル
111a モデル
111b モデル
111c モデル
111d モデル
111e 新たなモデル
112 敵対的分類器
112a 敵対的分類器
112b 敵対的分類器
112c 敵対的分類器
112d 敵対的分類器
113 データ、データ記憶装置
114 アプリケーションサーバ
115 グラフィカルユーザインタフェース
120 オペレータ装置

Claims (20)

  1. モデルトレーニングシステムを含むモデリングシステムと、少なくとも1つのライブラリを含むモデル開発システムとを用いる方法であって、
    前記モデル開発システムが、
    予測モデルを生成することと、
    トレーニングデータセットで前記予測モデルを事前トレーニングすることとを含み、
    前記モデリングシステムに含まれるアプリケーションサーバが、グラフィカルユーザインタフェースを提供することと、
    前記グラフィカルユーザインタフェースが、1つまたは複数のセンシティブ属性を識別する情報を、オペレータ装置から受けることと、
    前記モデルトレーニングシステムが、敵対的分類器のための敵対的トレーニングデータを生成することであって、敵対的トレーニングデータのセットのそれぞれが、識別されたセンシティブ属性のそれぞれのための、前記予測モデルによって生成された出力、および対応する実際の値を含む、敵対的トレーニングデータを生成することと、
    前記敵対的トレーニングデータの少なくとも一部分が、敵対的分類器を事前トレーニングすることであって、前記敵対的分類器が、前記予測モデルによって生成された出力に基づいて、それぞれのセンシティブ属性に対する値を予測するように構築されている、事前トレーニングすることと、
    前記モデルトレーニングシステムが、サブネットワークとして、前記敵対的分類器および前記予測モデルを含む合成ネットワークを生成することであって、前記敵対的分類器および前記予測モデルをそれぞれ反復的にトレーニングするように前記モデルトレーニングシステムを用いることとを含み、
    前記モデルトレーニングシステムを用いる前記敵対的分類器を、反復的にトレーニングすることが、前記敵対的分類器に対する目的関数の値を大きくするように、前記敵対的分類器のパラメータを調整することを含み、前記敵対的分類器に対する前記目的関数は、前記敵対的分類器に対するモデル予測損失メトリックであり、
    前記モデルトレーニングシステムを用いる前記予測モデルを、反復的にトレーニングすることが、前記敵対的分類器に対する目的関数の値を小さくするように、前記敵対的分類器のパラメータを調整することを含み、前記敵対的分類器に対する前記目的関数は、前記予測モデルに対するモデル予測損失メトリックと、前記敵対的分類器に対する予測損失メトリックとの差であり、
    前記オペレータ装置とモデル実行システムのうちの少なくとも一方に、前記反復的にトレーニングされた予測モデルを提供することと、
    前記グラフィカルユーザインタフェースが、少なくとも1つのレポートを前記オペレータ装置に提供することであって、前記少なくとも1つのレポートは、前記予測モデルと前記反復的にトレーニングされた予測モデルとの間で、1回または複数回の比較の結果を識別する情報を含み、提供された少なくとも1つのレポートが、前記予測モデルおよび前記反復的にトレーニングされた予測モデルのそれぞれの予測変数の寄与を含む、少なくとも1つのレポートを提供することと、
    を含む方法。
  2. 少なくとも1つのレポートを作成することが、
    前記予測モデルおよび前記反復的にトレーニングされた予測モデルに対して汎用インテグレーテッドグラジエンツ解析を実行し、前記解析の結果を前記少なくとも1つのレポートに含めることを含み、前記予測モデルと前記反復的にトレーニングされた予測モデルのそれぞれに対して汎用インテグレーテッドグラジエンツ解析を実行することが、
    前記トレーニングデータセットの基準入力データセットとサンプルとの間の経路を識別することと、
    それぞれの不連続点で前記経路をセグメント化することによって複数の経路セグメントを識別することと、
    セグメントごとに、そのセグメントに沿った前記モデルの勾配の積分を決定することによって、前記サンプルのそれぞれの特徴に対するセグメント寄与値を決定することと、
    不連続点ごとに、その不連続点に対する境界点寄与値を決定し、前記境界点寄与値を、前記モデルの入力空間の少なくとも1つの特徴に割り当てることと、
    前記基準入力データセットと前記サンプルとの間の前記経路の終点ごとに、その終点におけるそれぞれの特徴の寄与を割り当てることと、
    特徴ごとに、その特徴のセグメント寄与値、ならびにその特徴に割り当てられた任意の境界点寄与値および終点寄与値を結合して、その特徴に対する特徴寄与値を生成することと、
    を含み、前記モデルに対する前記汎用インテグレーテッドグラジエンツ解析の結果が、前記特徴寄与値を含むセットである、
    請求項1に記載の方法。
  3. それぞれのセグメントに沿った前記勾配の前記積分を決定するために、ラドン-ニコディム微分およびルベーグ測度が使用される、請求項2に記載の方法。
  4. 前記予測モデルが信用モデルである、請求項3に記載の方法。
  5. 前記識別された1つまたは複数のセンシティブ属性が、人種、民族、年齢、性別、出身国、性的指向、人口統計、および軍隊での地位のうちの1つまたは複数を含む、請求項4に記載の方法。
  6. 前記反復的にトレーニングされた予測モデルが、少なくとも1つの非微分可能モデルを含む、請求項5に記載の方法。
  7. 前記反復的にトレーニングされた予測モデルが、少なくとも1つの線形モデルを含む、請求項5に記載の方法。
  8. 前記反復的にトレーニングされた予測モデルが、少なくとも1つのツリーモデルを含む、請求項5に記載の方法。
  9. 前記反復的にトレーニングされた予測モデルが、少なくとも1つのロジスティック回帰モデルを含む、請求項5に記載の方法。
  10. 前記反復的にトレーニングされた予測モデルが、ベースシグナルに結合された勾配ブーステッドツリーフォレスト(GBM)、および前記GBMの出力に結合された平滑化近似経験的累積分布関数(ECDF)を少なくとも含み、前記GBMの出力値が、前記ECDFを使用することによって変換され、信用スコアとして表現される、請求項5に記載の方法。
  11. 前記反復的にトレーニングされた予測モデルが、GBM、ニューラルネットワークおよびエクストリームリーランダムフォレスト(ETF)を少なくとも含むサブモデルを含み、前記サブモデルの出力が、スタッキング関数と結合関数のうちの一方の関数を使用して一緒にアンサンブルされ、アンサンブルされた出力が信用スコアとして表現される、請求項5に記載の方法。
  12. 前記反復的にトレーニングされた予測モデルが、ニューラルネットワーク(NN)、GBMおよびETFを少なくとも含むサブモデルを含み、前記サブモデルの出力が、線形アンサンブリングモジュールによってアンサンブルされ、前記線形アンサンブリングモジュールの出力が微分可能関数によって処理され、前記微分可能関数の出力が信用スコアとして表現される、請求項5に記載の方法。
  13. 前記反復的にトレーニングされた予測モデルが、ニューラルネットワーク(NN)、GBMおよびニューラルネットワークアンサンブリングモジュールを少なくとも含み、前記ニューラルネットワークアンサンブリングモジュールの出力が、微分可能関数によって処理される、請求項5に記載の方法。
  14. 前記予測モデルが、ロジスティック回帰モデルによって生成される出力値を予測するニューラルネットワークモデルである、
    請求項5に記載の方法。
  15. 前記モデルトレーニングシステムが、修正されたロジスティック回帰モデルを、前記反復的にトレーニングされた予測モデルによって生成される出力値を予測するようにトレーニングすることと、
    前記修正されたロジスティック回帰モデルを、前記オペレータ装置と前記モデル実行システムのうちの少なくとも一方に提供することと
    をさらに含む、請求項14に記載の方法。
  16. 前記予測モデルが、ツリーモデルによって生成される出力値を予測する、請求項5に記載の方法。
  17. 前記モデルトレーニングシステムが、修正されたツリーモデルを、前記反復的にトレーニングされた予測モデルによって生成される出力値を予測するようにトレーニングすることと、
    前記修正されたツリーモデルを、前記オペレータ装置と前記モデル実行システムのうちの少なくとも一方に提供することと、
    をさらに含む、請求項16に記載の方法。
  18. 前記アプリケーションサーバが、前記反復的にトレーニングされた予測モデルのスコアと既存の信用モデルのスコアとを結合して、信用申込みを承認するために使用される信用スコアを生成すること
    をさらに含む、請求項5に記載の方法。
  19. 前記グラフィカルユーザインタフェースが、前記オペレータ装置からモデル制約パラメータを受け取ることであって、前記モデル制約パラメータが、前記予測モデルの反復トレーニング中に変更されないモデルパラメータを識別する、モデル制約パラメータを受け取ることと、
    前記グラフィカルユーザインタフェースが、前記反復的にトレーニングされた予測モデルに対して、少なくとも1つの公平性メトリック、及び少なくとも1つの正解率メトリックを前記オペレータ装置に提供することと、
    前記予測実行システムが、前記反復的にトレーニングされた予測モデルを受け取り、信用申込みのための信用スコアを生成するために、前記反復的にトレーニングされた予測モデルを実行することと、
    を含む、請求項5に記載の方法。
  20. 前記予測モデルは、微分可能なニューラルネットワークを含む、請求項1に記載の方法。
JP2022504034A 2019-03-18 2020-03-18 モデル公平性のためのシステムおよび方法 Active JP7276757B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962820147P 2019-03-18 2019-03-18
US62/820,147 2019-03-18
PCT/US2020/023370 WO2020191057A1 (en) 2019-03-18 2020-03-18 Systems and methods for model fairness

Publications (2)

Publication Number Publication Date
JP2022525702A JP2022525702A (ja) 2022-05-18
JP7276757B2 true JP7276757B2 (ja) 2023-05-18

Family

ID=72514589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022504034A Active JP7276757B2 (ja) 2019-03-18 2020-03-18 モデル公平性のためのシステムおよび方法

Country Status (6)

Country Link
US (3) US10977729B2 (ja)
EP (1) EP3942384A4 (ja)
JP (1) JP7276757B2 (ja)
BR (1) BR112021018532A2 (ja)
CA (1) CA3134043A1 (ja)
WO (1) WO2020191057A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11521115B2 (en) * 2019-05-28 2022-12-06 Microsoft Technology Licensing, Llc Method and system of detecting data imbalance in a dataset used in machine-learning
US11537941B2 (en) * 2019-05-28 2022-12-27 Microsoft Technology Licensing, Llc Remote validation of machine-learning models for data imbalance
US11526701B2 (en) 2019-05-28 2022-12-13 Microsoft Technology Licensing, Llc Method and system of performing data imbalance detection and correction in training a machine-learning model
US11128737B1 (en) * 2019-08-28 2021-09-21 Massachusetts Mutual Life Insurance Company Data model monitoring system
IL270116A (en) * 2019-10-23 2021-04-29 De Identification Ltd A system and method for identifying and protecting against cyber attacks against classification systems
US11636386B2 (en) * 2019-11-21 2023-04-25 International Business Machines Corporation Determining data representative of bias within a model
US11727284B2 (en) * 2019-12-12 2023-08-15 Business Objects Software Ltd Interpretation of machine learning results using feature analysis
US12002258B2 (en) * 2020-06-03 2024-06-04 Discover Financial Services System and method for mitigating bias in classification scores generated by machine learning models
US11861513B2 (en) * 2020-07-13 2024-01-02 International Business Machines Corporation Methods for detecting and monitoring bias in a software application using artificial intelligence and devices thereof
US20220147852A1 (en) * 2020-11-10 2022-05-12 International Business Machines Corporation Mitigating partiality in regression models
US11928182B1 (en) * 2020-11-30 2024-03-12 Amazon Technologies, Inc. Artificial intelligence system supporting semi-supervised learning with iterative stacking
US11829468B2 (en) * 2020-12-18 2023-11-28 Telefonaktiebolaget Lm Ericsson (Publ) Neural network confidentiality
US20220343179A1 (en) * 2021-04-26 2022-10-27 International Business Machines Corporation Localization-based test generation for individual fairness testing of artificial intelligence models
US11176471B1 (en) 2021-05-19 2021-11-16 ClosedLoop.ai Inc. Explainable machine learning models
US20220391683A1 (en) * 2021-06-07 2022-12-08 International Business Machines Corporation Bias reduction during artifical intelligence module training
US20230087204A1 (en) * 2021-09-23 2023-03-23 Tibco Software Inc. Systems and methods to screen a predictive model for risks of the predictive model
CN114243695B (zh) * 2021-12-17 2023-09-15 中国矿业大学(北京) 一种基于双向长短时记忆神经网络的电力负荷预测方法
US20230281281A1 (en) * 2022-03-03 2023-09-07 Oracle International Corporation Cloud based machine learning model attack guard
EP4283537A1 (en) 2022-05-03 2023-11-29 Zestfinance, Inc. Automated systems for machine learning model development, analysis, and refinement
US20230409832A1 (en) * 2022-06-16 2023-12-21 International Business Machines Corporation System and method for generating contrastive explanations for text guided by attributes
WO2024031006A1 (en) 2022-08-05 2024-02-08 Zestfinance, Inc. Machine learning model correction
CN116994309B (zh) * 2023-05-06 2024-04-09 浙江大学 一种公平性感知的人脸识别模型剪枝方法
US11928730B1 (en) 2023-05-30 2024-03-12 Social Finance, Inc. Training machine learning models with fairness improvement
CN117315379B (zh) * 2023-11-29 2024-03-12 中电科大数据研究院有限公司 面向深度学习的医学影像分类模型公平性评估方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092305A (ja) 2000-09-13 2002-03-29 Hitachi Ltd スコア算出方法及びスコア提供方法
JP2018045649A (ja) 2016-09-16 2018-03-22 ヤフー株式会社 判定装置、判定方法および判定プログラム
US20180232805A1 (en) 2016-06-12 2018-08-16 Tencent Technology (Shenzhen) Company Limited User credit rating method and apparatus, and storage medium
JP2018167900A (ja) 2017-03-30 2018-11-01 三井化学東セロ株式会社 青果物の鮮度保持に適した包装体、及び青果物の鮮度保持方法
JP2019020996A (ja) 2017-07-14 2019-02-07 株式会社Nttドコモ 情報処理装置および信用度算出方法

Family Cites Families (190)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US525413A (en) 1894-09-04 Albert justin gates
US5745654A (en) 1996-02-13 1998-04-28 Hnc Software, Inc. Fast explanations of scored observations
US6034314A (en) 1996-08-29 2000-03-07 Yamaha Corporation Automatic performance data conversion system
US5999938A (en) 1997-01-31 1999-12-07 Microsoft Corporation System and method for creating a new data structure in memory populated with data from an existing data structure
US20020038277A1 (en) 2000-02-22 2002-03-28 Yuan Frank S. Innovative financing method and system therefor
US6901384B2 (en) 2000-06-03 2005-05-31 American Home Credit, Inc. System and method for automated process of deal structuring
US6988082B1 (en) 2000-06-13 2006-01-17 Fannie Mae Computerized systems and methods for facilitating the flow of capital through the housing finance industry
US20040199456A1 (en) 2000-08-01 2004-10-07 Andrew Flint Method and apparatus for explaining credit scores
US7280980B1 (en) 2000-08-01 2007-10-09 Fair Isaac Corporation Algorithm for explaining credit scores
CA2417863A1 (en) 2000-08-03 2002-02-14 Unicru, Inc. Electronic employee selection systems and methods
US6877656B1 (en) 2000-10-24 2005-04-12 Capital One Financial Corporation Systems, methods, and apparatus for instant issuance of a credit card
US20020091650A1 (en) 2001-01-09 2002-07-11 Ellis Charles V. Methods of anonymizing private information
WO2002057926A1 (en) 2001-01-19 2002-07-25 Orderware Solutions Limited Data transfer and/or transformation system and method
US7035811B2 (en) 2001-01-23 2006-04-25 Intimate Brands, Inc. System and method for composite customer segmentation
US8078524B2 (en) 2001-02-22 2011-12-13 Fair Isaac Corporation Method and apparatus for explaining credit scores
US7711635B2 (en) 2001-02-22 2010-05-04 Fair Isaac Corporation System and method for helping consumers understand and interpret credit scores
US20020138414A1 (en) 2001-03-26 2002-09-26 Baker Charles Pitman Method and system and article of manufacture for a rules based automated loan approval system
US6640204B2 (en) 2001-04-06 2003-10-28 Barry E. Feldman Method and system for using cooperative game theory to resolve statistical joint effects
US20020178113A1 (en) 2001-04-20 2002-11-28 Clifford Jeremy P. System and method for offering customized credit card products
US7542993B2 (en) 2001-05-10 2009-06-02 Equifax, Inc. Systems and methods for notifying a consumer of changes made to a credit report
US20030033587A1 (en) 2001-09-05 2003-02-13 Bruce Ferguson System and method for on-line training of a non-linear model for use in electronic commerce
US8200511B2 (en) 2001-11-28 2012-06-12 Deloitte Development Llc Method and system for determining the importance of individual variables in a statistical model
US7039239B2 (en) 2002-02-07 2006-05-02 Eastman Kodak Company Method for image region classification using unsupervised and supervised learning
US7451065B2 (en) 2002-03-11 2008-11-11 International Business Machines Corporation Method for constructing segmentation-based predictive models
US7921359B2 (en) 2002-04-19 2011-04-05 Sas Institute Inc. Computer-implemented system and method for tagged and rectangular data processing
US7610229B1 (en) 2002-05-30 2009-10-27 Experian Information Solutions, Inc. System and method for interactively simulating a credit-worthiness score
JP2004078435A (ja) 2002-08-13 2004-03-11 Ibm Japan Ltd リスク管理装置、リスク管理システム、リスク管理方法、将来期待利益算出方法、およびプログラム
FR2848006A1 (fr) 2002-11-29 2004-06-04 Thales Sa Procede permettant d'expliquer une decision prise par un modele d'agregation multicritere compensatoire
US7130763B2 (en) 2003-01-07 2006-10-31 Ramot At Tel Aviv University Ltd. Identification of effective elements in complex systems
US7813945B2 (en) 2003-04-30 2010-10-12 Genworth Financial, Inc. System and process for multivariate adaptive regression splines classification for insurance underwriting suitable for use by an automated system
US20050055296A1 (en) 2003-09-08 2005-03-10 Michael Hattersley Method and system for underwriting and servicing financial accounts
DE10359352A1 (de) 2003-12-16 2005-07-21 Merck Patent Gmbh DNA-Sequenz und rekombinante Herstellung des Graspollen-Allergens Lol p 4
TW200532523A (en) * 2004-02-27 2005-10-01 Aureon Biosciences Corp Methods and systems for predicting occurrence of an event
US8165853B2 (en) 2004-04-16 2012-04-24 Knowledgebase Marketing, Inc. Dimension reduction in predictive model development
US20050234761A1 (en) 2004-04-16 2005-10-20 Pinto Stephen K Predictive model development
US8010458B2 (en) 2004-05-26 2011-08-30 Facebook, Inc. System and method for managing information flow between members of an online social network
US20050278246A1 (en) 2004-06-14 2005-12-15 Mark Friedman Software solution management of problem loans
US7467116B2 (en) 2004-09-17 2008-12-16 Proximex Corporation Incremental data fusion and decision making system and associated method
US8620816B2 (en) 2004-10-14 2013-12-31 Google Inc. Information vault, data format conversion services system and method
US8041545B2 (en) 2005-04-28 2011-10-18 Vladimir Sevastyanov Gradient based methods for multi-objective optimization
GB2427733A (en) 2005-06-29 2007-01-03 Symbian Software Ltd Remote control
US20070016542A1 (en) 2005-07-01 2007-01-18 Matt Rosauer Risk modeling system
US7849049B2 (en) 2005-07-05 2010-12-07 Clarabridge, Inc. Schema and ETL tools for structured and unstructured data
US7809635B2 (en) 2005-08-05 2010-10-05 Corelogic Information Solutions, Inc. Method and system for updating a loan portfolio with information on secondary liens
US7805345B2 (en) 2005-08-26 2010-09-28 Sas Institute Inc. Computer-implemented lending analysis systems and methods
US20070055619A1 (en) 2005-08-26 2007-03-08 Sas Institute Inc. Systems and methods for analyzing disparate treatment in financial transactions
US7499919B2 (en) 2005-09-21 2009-03-03 Microsoft Corporation Ranking functions using document usage statistics
US7873535B2 (en) 2005-11-04 2011-01-18 Accenture Global Services Ltd. Method and system for modeling marketing data
CA2527538A1 (en) 2005-11-12 2007-05-14 Matt Celano Method and apparatus for a consumer interactive credit report analysis and score reconciliation adaptive education and counseling system
US20070124236A1 (en) 2005-11-30 2007-05-31 Caterpillar Inc. Credit risk profiling method and system
US8280805B1 (en) 2006-01-10 2012-10-02 Sas Institute Inc. Computer-implemented risk evaluation systems and methods
US7610257B1 (en) 2006-01-10 2009-10-27 Sas Institute Inc. Computer-implemented risk evaluation systems and methods
US8086523B1 (en) 2006-08-07 2011-12-27 Allstate Insurance Company Credit risk evaluation with responsibility factors
US20080133402A1 (en) 2006-09-05 2008-06-05 Kerry Ivan Kurian Sociofinancial systems and methods
US8468244B2 (en) * 2007-01-05 2013-06-18 Digital Doors, Inc. Digital information infrastructure and method for security designated data and with granular data stores
US20080208820A1 (en) 2007-02-28 2008-08-28 Psydex Corporation Systems and methods for performing semantic analysis of information over time and space
US8073790B2 (en) 2007-03-10 2011-12-06 Hendra Soetjahja Adaptive multivariate model construction
KR100857862B1 (ko) 2007-06-05 2008-09-10 한국전자통신연구원 파일 영역 정보와 변이 규칙을 이용한 파일 변이 방법 및그 시스템
US7996392B2 (en) 2007-06-27 2011-08-09 Oracle International Corporation Changing ranking algorithms based on customer settings
US8166000B2 (en) 2007-06-27 2012-04-24 International Business Machines Corporation Using a data mining algorithm to generate format rules used to validate data sets
EP2179391A4 (en) 2007-07-04 2012-05-30 Global Analytics Inc SYSTEMS AND METHODS FOR MAKING STRUCTURED REFERENCE CREDIT DECISIONS
US7941425B2 (en) 2007-07-25 2011-05-10 Teradata Us, Inc. Techniques for scoring and comparing query execution plans
US7970676B2 (en) 2007-08-01 2011-06-28 Fair Isaac Corporation Method and system for modeling future action impact in credit scoring
US8600966B2 (en) 2007-09-20 2013-12-03 Hal Kravcik Internet data mining method and system
US7987177B2 (en) 2008-01-30 2011-07-26 International Business Machines Corporation Method for estimating the number of distinct values in a partitioned dataset
GB0809443D0 (en) 2008-05-23 2008-07-02 Wivenhoe Technology Ltd A Type-2 fuzzy based system for handling group decisions
US8515862B2 (en) 2008-05-29 2013-08-20 Sas Institute Inc. Computer-implemented systems and methods for integrated model validation for compliance and credit risk
US8744946B2 (en) 2008-06-09 2014-06-03 Quest Growth Partners, Llc Systems and methods for credit worthiness scoring and loan facilitation
US8645417B2 (en) 2008-06-18 2014-02-04 Microsoft Corporation Name search using a ranking function
US8626645B1 (en) 2008-07-01 2014-01-07 Mortagage Grader, Inc. System and method for assessing mortgage broker and lender compliance
US20100005018A1 (en) 2008-07-01 2010-01-07 Tidwell Leslie A peer-to-peer lending system for the promotion of social goals
US20100082476A1 (en) 2008-10-01 2010-04-01 Bowman Eric A Comprehensive method for increasing credit scores
US8799150B2 (en) 2009-09-30 2014-08-05 Scorelogix Llc System and method for predicting consumer credit risk using income risk based credit score
CA2685758A1 (en) 2009-11-10 2011-05-10 Neobanx Technologies Inc. System and method for assessing credit risk in an on-line lending environment
US8775338B2 (en) 2009-12-24 2014-07-08 Sas Institute Inc. Computer-implemented systems and methods for constructing a reduced input space utilizing the rejected variable space
US8489499B2 (en) 2010-01-13 2013-07-16 Corelogic Solutions, Llc System and method of detecting and assessing multiple types of risks related to mortgage lending
US8694390B2 (en) 2010-01-15 2014-04-08 Apollo Enterprise Solutions, Inc. System and method for resolving transactions with lump sum payment capabilities
US9268850B2 (en) 2010-01-26 2016-02-23 Rami El-Charif Methods and systems for selecting an optimized scoring function for use in ranking item listings presented in search results
US8554756B2 (en) 2010-06-25 2013-10-08 Microsoft Corporation Integrating social network data with search results
US8626778B2 (en) 2010-07-23 2014-01-07 Oracle International Corporation System and method for conversion of JMS message data into database transactions for application to multiple heterogeneous databases
US20120053951A1 (en) 2010-08-26 2012-03-01 Twenty-Ten, Inc. System and method for identifying a targeted prospect
US9405835B2 (en) 2010-09-02 2016-08-02 Paypal, Inc. Generating a search result ranking function
US8515842B2 (en) 2010-09-14 2013-08-20 Evolution Finance, Inc. Systems and methods for monitoring and optimizing credit scores
US20120072029A1 (en) 2010-09-20 2012-03-22 Heatvu Inc. Intelligent system and method for detecting and diagnosing faults in heating, ventilating and air conditioning (hvac) equipment
JP5099202B2 (ja) 2010-09-30 2012-12-19 ブラザー工業株式会社 現像装置、プロセスユニットおよび画像形成装置
US8694401B2 (en) 2011-01-13 2014-04-08 Lenddo, Limited Systems and methods for using online social footprint for affecting lending performance and credit scoring
MX2013008279A (es) 2011-01-27 2013-10-03 Ind Haceb S A Calentador de paso que atenua el efecto altitud.
US8990149B2 (en) 2011-03-15 2015-03-24 International Business Machines Corporation Generating a predictive model from multiple data sources
WO2012129191A2 (en) 2011-03-18 2012-09-27 Fusion-Io, Inc. Logical interfaces for contextual storage
US20170109657A1 (en) 2011-05-08 2017-04-20 Panaya Ltd. Machine Learning-Based Model for Identifying Executions of a Business Process
US8660943B1 (en) 2011-08-31 2014-02-25 Btpatent Llc Methods and systems for financial transactions
US20130091050A1 (en) 2011-10-10 2013-04-11 Douglas Merrill System and method for providing credit to underserved borrowers
US20140081832A1 (en) 2012-09-18 2014-03-20 Douglas Merrill System and method for building and validating a credit scoring function
US20130103569A1 (en) 2011-10-20 2013-04-25 Krisha Gopinathan Systems and methods for predictive modeling in making structured reference credit decisions
US20130138553A1 (en) 2011-11-28 2013-05-30 Rawllin International Inc. Credit scoring based on information aggregation
US8442886B1 (en) 2012-02-23 2013-05-14 American Express Travel Related Services Company, Inc. Systems and methods for identifying financial relationships
US9501749B1 (en) 2012-03-14 2016-11-22 The Mathworks, Inc. Classification and non-parametric regression framework with reduction of trained models
US8751429B2 (en) 2012-07-09 2014-06-10 Wine Ring, Inc. Personal taste assessment method and system
JP6009257B2 (ja) 2012-07-20 2016-10-19 矢崎総業株式会社 スライドドア用給電構造
US9917865B2 (en) 2012-10-16 2018-03-13 Citrix Systems, Inc. Systems and methods for bridging between public and private clouds through multilevel API integration
US20140122355A1 (en) 2012-10-26 2014-05-01 Bright Media Corporation Identifying candidates for job openings using a scoring function based on features in resumes and job descriptions
US20140149177A1 (en) 2012-11-23 2014-05-29 Ari M. Frank Responding to uncertainty of a user regarding an experience by presenting a prior experience
US9407557B2 (en) 2012-12-22 2016-08-02 Edgewater Networks, Inc. Methods and systems to split equipment control between local and remote processing units
US20140180793A1 (en) 2012-12-22 2014-06-26 Coupons.Com Incorporated Systems and methods for recommendation of electronic offers
WO2014121019A1 (en) 2013-01-31 2014-08-07 Zestfinance, Inc. Methods and systems for automatically generating high quality adverse action notifications
US20140310681A1 (en) 2013-04-12 2014-10-16 Microsoft Corporation Assisted creation of control event
US9626100B2 (en) 2013-04-15 2017-04-18 Microsoft Technology Licensing, Llc Dynamic management of edge inputs by users on a touch device
FR3005769A1 (fr) 2013-05-17 2014-11-21 Thales Sa Systeme d'aide a la decision multicritere avec generation automatique d'explications et procede correspondant
CA2917717A1 (en) 2013-07-09 2015-01-15 Blueprint Software Systems Inc. Computing device and method for converting unstructured data to structured data
US9069736B2 (en) 2013-07-09 2015-06-30 Xerox Corporation Error prediction with partial feedback
US9672469B2 (en) 2013-09-18 2017-06-06 Acxiom Corporation Apparatus and method to increase accuracy in individual attributes derived from anonymous aggregate data
EP3057409B1 (en) 2013-10-18 2021-03-10 Snpshot Trustee Limited A biopsy collector with identifier
US20150161200A1 (en) 2013-11-27 2015-06-11 Placester, Inc. System and method for entity-based search, search profiling, and dynamic search updating
GB201321821D0 (en) 2013-12-10 2014-01-22 Ibm Opague message parsing
US10217058B2 (en) 2014-01-30 2019-02-26 Microsoft Technology Licensing, Llc Predicting interesting things and concepts in content
US9489377B1 (en) * 2014-02-21 2016-11-08 Yummly, Inc. Inferring recipe difficulty
US20150317337A1 (en) 2014-05-05 2015-11-05 General Electric Company Systems and Methods for Identifying and Driving Actionable Insights from Data
US10366346B2 (en) 2014-05-23 2019-07-30 DataRobot, Inc. Systems and techniques for determining the predictive value of a feature
CN105446966B (zh) 2014-05-30 2019-01-18 国际商业机器公司 生成关系数据转换为rdf格式数据的映射规则的方法和装置
US9672474B2 (en) 2014-06-30 2017-06-06 Amazon Technologies, Inc. Concurrent binning of machine learning data
WO2016025396A1 (en) 2014-08-11 2016-02-18 Coldlight Solutions, Llc An automated methodology for inductive bias selection and adaptive ensemble choice to optimize predictive power
TW201519720A (zh) 2014-09-19 2015-05-16 Kuang Ying Comp Equipment Co 高頻印刷電路板堆疊結構
US10127240B2 (en) 2014-10-17 2018-11-13 Zestfinance, Inc. API for implementing scoring functions
US20160132787A1 (en) 2014-11-11 2016-05-12 Massachusetts Institute Of Technology Distributed, multi-model, self-learning platform for machine learning
US11232466B2 (en) * 2015-01-29 2022-01-25 Affectomatics Ltd. Recommendation for experiences based on measurements of affective response that are backed by assurances
EP3274930A4 (en) 2015-03-24 2018-11-21 Hrl Laboratories, Llc Sparse inference modules for deep learning
CA3209845A1 (en) 2015-03-27 2016-10-06 Equifax, Inc. Optimizing neural networks for risk assessment
US10332028B2 (en) 2015-08-25 2019-06-25 Qualcomm Incorporated Method for improving performance of a trained machine learning model
US20170124464A1 (en) 2015-10-28 2017-05-04 Fractal Industries, Inc. Rapid predictive analysis of very large data sets using the distributed computational graph
US10410330B2 (en) 2015-11-12 2019-09-10 University Of Virginia Patent Foundation System and method for comparison-based image quality assessment
US20170222960A1 (en) 2016-02-01 2017-08-03 Linkedin Corporation Spam processing with continuous model training
US10997190B2 (en) 2016-02-01 2021-05-04 Splunk Inc. Context-adaptive selection options in a modular visualization framework
US10824959B1 (en) 2016-02-16 2020-11-03 Amazon Technologies, Inc. Explainers for machine learning classifiers
US9721296B1 (en) 2016-03-24 2017-08-01 Www.Trustscience.Com Inc. Learning an entity's trust model and risk tolerance to calculate a risk score
US10783535B2 (en) * 2016-05-16 2020-09-22 Cerebri AI Inc. Business artificial intelligence management engine
US20180018578A1 (en) 2016-07-14 2018-01-18 International Business Machines Corporation Apparatus assisting with design of objective functions
CN106548210B (zh) * 2016-10-31 2021-02-05 腾讯科技(深圳)有限公司 基于机器学习模型训练的信贷用户分类方法及装置
US10762563B2 (en) * 2017-03-10 2020-09-01 Cerebri AI Inc. Monitoring and controlling continuous stochastic processes based on events in time series data
JP6922284B2 (ja) 2017-03-15 2021-08-18 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
WO2018167900A1 (ja) * 2017-03-16 2018-09-20 日本電気株式会社 ニューラルネットワーク学習装置、方法、およびプログラム
US10586310B2 (en) * 2017-04-06 2020-03-10 Pixar Denoising Monte Carlo renderings using generative adversarial neural networks
US20180322406A1 (en) 2017-05-04 2018-11-08 Zestfinance, Inc. Systems and methods for providing machine learning model explainability information
US10581887B1 (en) 2017-05-31 2020-03-03 Ca, Inc. Employing a relatively simple machine learning classifier to explain evidence that led to a security action decision by a relatively complex machine learning classifier
US10878494B2 (en) * 2017-06-05 2020-12-29 Mo Tecnologias, Llc System and method for issuing a loan to a consumer determined to be creditworthy and with bad debt forecast
US11941650B2 (en) 2017-08-02 2024-03-26 Zestfinance, Inc. Explainable machine learning financial credit approval model for protected classes of borrowers
US11227188B2 (en) * 2017-08-04 2022-01-18 Fair Ip, Llc Computer system for building, training and productionizing machine learning models
WO2019071384A1 (en) 2017-10-09 2019-04-18 Bl Technologies, Inc. INTELLIGENT SYSTEMS AND METHODS FOR THE TREATMENT AND EVALUATION OF SANITATION DIAGNOSIS, DETECTION AND CONTROL OF ANOMALY IN WASTEWATER TREATMENT FACILITIES OR IN DRINKING WATER FACILITIES
US20190114704A1 (en) 2017-10-13 2019-04-18 QCash Financial, LLC Statistical model for making lending decisions
JP7157154B2 (ja) * 2017-11-30 2022-10-19 グーグル エルエルシー 性能予測ニューラルネットワークを使用したニューラルアーキテクチャ探索
US11249982B2 (en) * 2018-01-19 2022-02-15 Acronis International Gmbh Blockchain-based verification of machine learning
US10733668B2 (en) 2018-01-30 2020-08-04 PointPredictive Inc. Multi-layer machine learning classifier
GB201801627D0 (en) 2018-02-01 2018-03-21 Siemens Healthcare Ltd Image autoencoding for quantum machine learning
US11615331B2 (en) 2018-02-05 2023-03-28 Accenture Global Solutions Limited Explainable artificial intelligence
US11960981B2 (en) 2018-03-09 2024-04-16 Zestfinance, Inc. Systems and methods for providing machine learning model evaluation by using decomposition
US11694093B2 (en) 2018-03-14 2023-07-04 Adobe Inc. Generation of training data to train a classifier to identify distinct physical user devices in a cross-device context
US10825227B2 (en) 2018-04-03 2020-11-03 Sri International Artificial intelligence for generating structured descriptions of scenes
US11373115B2 (en) * 2018-04-09 2022-06-28 Here Global B.V. Asynchronous parameter aggregation for machine learning
US11682074B2 (en) 2018-04-13 2023-06-20 Gds Link Llc Decision-making system and method based on supervised learning
CN108734338A (zh) * 2018-04-24 2018-11-02 阿里巴巴集团控股有限公司 基于lstm模型的信用风险预测方法及装置
WO2019212857A1 (en) 2018-05-04 2019-11-07 Zestfinance, Inc. Systems and methods for enriching modeling tools and infrastructure with semantics
EP3794551A4 (en) * 2018-05-14 2022-02-09 Tempus Labs, Inc. FRAMEWORK FOR GENERALIZABLE AND INTERPRETABLE DEEP LEARNING FOR PREDICTING MSI FROM HISTOPATHOLOGICAL SLIDE IMAGES
JP7002404B2 (ja) * 2018-05-15 2022-01-20 株式会社日立製作所 データから潜在因子を発見するニューラルネットワーク
US11151450B2 (en) 2018-05-21 2021-10-19 Fair Isaac Corporation System and method for generating explainable latent features of machine learning models
WO2019236997A1 (en) * 2018-06-08 2019-12-12 Zestfinance, Inc. Systems and methods for decomposition of non-differentiable and differentiable models
US11481616B2 (en) 2018-06-29 2022-10-25 Microsoft Technology Licensing, Llc Framework for providing recommendations for migration of a database to a cloud computing system
US10635939B2 (en) * 2018-07-06 2020-04-28 Capital One Services, Llc System, method, and computer-accessible medium for evaluating multi-dimensional synthetic data using integrated variants analysis
US11263550B2 (en) 2018-09-09 2022-03-01 International Business Machines Corporation Audit machine learning models against bias
US10719301B1 (en) * 2018-10-26 2020-07-21 Amazon Technologies, Inc. Development environment for machine learning media models
CA3061717A1 (en) 2018-11-16 2020-05-16 Royal Bank Of Canada System and method for a convolutional neural network for multi-label classification with partial annotations
CA3122686C (en) * 2018-12-11 2023-10-24 Exxonmobil Upstream Research Company Automated reservoir modeling using deep generative networks
US10684598B1 (en) * 2019-01-04 2020-06-16 Johnson Controls Technology Company Building management system with efficient model generation for system identification
US11989633B2 (en) 2019-01-25 2024-05-21 Stripe, Inc. Shared learning across separate entities with private data features
JP7257169B2 (ja) 2019-02-13 2023-04-13 株式会社キーエンス データ分析装置
GB201904161D0 (en) 2019-03-26 2019-05-08 Benevolentai Tech Limited Entity type identification for named entity recognition systems
US11568215B2 (en) 2019-07-15 2023-01-31 The Nielsen Company (Us), Llc Probabilistic modeling for anonymized data integration and bayesian survey measurement of sparse and weakly-labeled datasets
US20210133631A1 (en) 2019-10-30 2021-05-06 Alectio, Inc. Computer method and system for auto-tuning and optimization of an active learning process
US11521171B2 (en) 2019-11-21 2022-12-06 Rockspoon, Inc. System and method for a restaurant as a service platform
US11922280B2 (en) * 2019-12-10 2024-03-05 Arthur AI, Inc. Machine learning monitoring systems and methods
US20210209688A1 (en) 2020-01-02 2021-07-08 Cognitive Scale, Inc. Facilitation of Transparency of Claim-Settlement Processing by a Third-Party Buyer
US11586849B2 (en) 2020-01-17 2023-02-21 International Business Machines Corporation Mitigating statistical bias in artificial intelligence models
US20210256392A1 (en) 2020-02-10 2021-08-19 Nec Laboratories America, Inc. Automating the design of neural networks for anomaly detection
US11438240B2 (en) 2020-03-04 2022-09-06 Cisco Technology, Inc. Compressed transmission of network data for networking machine learning systems
US11475331B2 (en) * 2020-06-25 2022-10-18 International Business Machines Corporation Bias source identification and de-biasing of a dataset
US20220019741A1 (en) 2020-07-16 2022-01-20 Optum Technology, Inc. An unsupervised approach to assignment of pre-defined labels to text documents
US20220122171A1 (en) 2020-10-15 2022-04-21 Happy Money, Inc. Client server system for financial scoring with cash transactions
US11720962B2 (en) * 2020-11-24 2023-08-08 Zestfinance, Inc. Systems and methods for generating gradient-boosted models with improved fairness
US11816183B2 (en) 2020-12-11 2023-11-14 Huawei Cloud Computing Technologies Co., Ltd. Methods and systems for mining minority-class data samples for training a neural network
US11451670B2 (en) 2020-12-16 2022-09-20 Oracle International Corporation Anomaly detection in SS7 control network using reconstructive neural networks
US11296971B1 (en) * 2021-02-03 2022-04-05 Vignet Incorporated Managing and adapting monitoring programs
US20230085575A1 (en) * 2021-09-13 2023-03-16 Fair Isaac Corporation Latent feature based model bias mitigation in artificial intelligence systems

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092305A (ja) 2000-09-13 2002-03-29 Hitachi Ltd スコア算出方法及びスコア提供方法
US20180232805A1 (en) 2016-06-12 2018-08-16 Tencent Technology (Shenzhen) Company Limited User credit rating method and apparatus, and storage medium
JP2018045649A (ja) 2016-09-16 2018-03-22 ヤフー株式会社 判定装置、判定方法および判定プログラム
JP2018167900A (ja) 2017-03-30 2018-11-01 三井化学東セロ株式会社 青果物の鮮度保持に適した包装体、及び青果物の鮮度保持方法
JP2019020996A (ja) 2017-07-14 2019-02-07 株式会社Nttドコモ 情報処理装置および信用度算出方法

Also Published As

Publication number Publication date
JP2022525702A (ja) 2022-05-18
US10977729B2 (en) 2021-04-13
EP3942384A1 (en) 2022-01-26
BR112021018532A2 (pt) 2021-12-14
CA3134043A1 (en) 2020-09-24
US20210133870A1 (en) 2021-05-06
US20200302524A1 (en) 2020-09-24
WO2020191057A1 (en) 2020-09-24
US11893466B2 (en) 2024-02-06
US20240127125A1 (en) 2024-04-18
EP3942384A4 (en) 2022-05-04

Similar Documents

Publication Publication Date Title
JP7276757B2 (ja) モデル公平性のためのシステムおよび方法
Mehdiyev et al. A novel business process prediction model using a deep learning method
US11501161B2 (en) Method to explain factors influencing AI predictions with deep neural networks
Maldonado et al. Advanced conjoint analysis using feature selection via support vector machines
US9798788B1 (en) Holistic methodology for big data analytics
US20230105547A1 (en) Machine learning model fairness and explainability
US20230360071A1 (en) Actionable kpi-driven segmentation
CN112528110A (zh) 确定实体业务属性的方法及装置
Bilal et al. An ensemble based approach using a combination of clustering and classification algorithms to enhance customer churn prediction in telecom industry
Marović et al. Automatic movie ratings prediction using machine learning
Faritha Banu et al. Artificial intelligence based customer churn prediction model for business markets
Seret et al. A new knowledge-based constrained clustering approach: Theory and application in direct marketing
Śmietanka et al. Algorithms in future insurance markets
US11797870B2 (en) Optimized score transformation for fair classification
Qazi et al. Designing and deploying insurance recommender systems using machine learning
US11501214B2 (en) Systems and methods for managing, distributing and deploying a recursive decisioning system based on continuously updating machine learning models
Hota et al. Prediction of customer churn in telecom industry: a machine learning perspective
US20190050479A1 (en) System and method for dynamic synthesis and transient clustering of semantic attributions for feedback and adjudication
JP2023099932A (ja) 反事実的推論管理装置、反事実的推論管理方法、及び反事実的推論管理コンピュータプログラム製品
US12039424B2 (en) Systems and methods for managing, distributing and deploying a recursive decisioning system based on continuously updating machine learning models
Cheng Machine Learning Application in Car Insurance Direct Marketing
US20230334362A1 (en) Self-adaptive multi-model approach in representation feature space for propensity to action
Raghunath et al. Applications of Data Mining in Predicting Stock Values
Bahrpeyma et al. A Meta-learner approach to multistep-ahead time series prediction
Alasadi Fairness in Multimedia Processing

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211202

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230424

R150 Certificate of patent or registration of utility model

Ref document number: 7276757

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150