JP2022549316A - 強化学習ベースの局所解釈可能モデル - Google Patents

強化学習ベースの局所解釈可能モデル Download PDF

Info

Publication number
JP2022549316A
JP2022549316A JP2022518774A JP2022518774A JP2022549316A JP 2022549316 A JP2022549316 A JP 2022549316A JP 2022518774 A JP2022518774 A JP 2022518774A JP 2022518774 A JP2022518774 A JP 2022518774A JP 2022549316 A JP2022549316 A JP 2022549316A
Authority
JP
Japan
Prior art keywords
training
model
training samples
samples
auxiliary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022518774A
Other languages
English (en)
Other versions
JP7304488B2 (ja
Inventor
アリク,セルジャン・オメール
ユン,ジンソン
フィスター,トマス・ジョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2022549316A publication Critical patent/JP2022549316A/ja
Application granted granted Critical
Publication of JP7304488B2 publication Critical patent/JP7304488B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/045Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2115Selection of the most significant subset of features by evaluating different subsets according to an optimisation criterion, e.g. class separability, forward selection or backward elimination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2193Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19147Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Medical Informatics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Cable Transmission Systems, Equalization Of Radio And Reduction Of Echo (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

局所解釈可能モデル(190)をトレーニングするための方法(300)は、トレーニングサンプル(130)のセットを取得するステップと、トレーニングサンプルのセットを用いてブラックボックスモデル(120)をトレーニングするステップとを含む。当該方法はまた、トレーニングされたブラックボックスモデルおよびトレーニングサンプルのセットを用いて、補助トレーニングサンプル(140)のセットを生成するステップと、補助トレーニングサンプルのセットを用いてベースライン解釈可能モデル(150)をトレーニングするステップとを含む。当該方法はまた、補助トレーニングサンプルのセットおよびベースライン解釈可能モデルを用いて、インスタンスごとの重み推定器モデル(160)をトレーニングするステップ含む。当該方法はまた、各補助トレーニングサンプルごとに、トレーニングされたインスタンスごとの重み推定器モデルを用いて、補助トレーニングサンプルについての選択確率(170)を決定するステップを含む。当該方法はまた、選択確率に基づいて、補助トレーニングサンプル(140S)のサブセットを選択するステップと、補助トレーニングサンプルのサブセットを用いて局所解釈可能モデルをトレーニングするステップとを含む。

Description

本開示は、強化学習ベースの局所解釈可能モデルに関する。
背景
人工知能は急速なペースで進歩しており、特に、ディープニューラルネットワークおよびアンサンブル法が近年進歩している。この発展は、多くのパラメータ間の複雑で非線形の相互作用によって意思決定を制御している「ブラックボックス」機械学習モデルによって促進されてきた。この複雑な相互作用により、ユーザが理解および解釈するべき機械学習モデルの使用が困難になる。多くの現実世界で適用される場合、機械学習モデルは、十分に機能することが期待されているだけでなく、解釈可能であることも求められている。機械学習モデルの性能と解釈可能性とは両立し難しいことが多く、解釈可能性のレベルが高い機械学習モデルは性能の低下に見舞われている。
概要
本開示の一局面は、強化学習ベースの局所解釈可能モデルのための方法を提供する。当該方法は、データ処理ハードウェアにおいて、トレーニングサンプルのセットを取得するステップと、当該データ処理ハードウェアによって、当該トレーニングサンプルのセットを用いて、ブラックボックスモデルをトレーニングするステップとを含む。当該方法はまた、当該データ処理ハードウェアによって、当該トレーニングされたブラックボックスモデルおよび当該トレーニングサンプルのセットを用いて、補助トレーニングサンプルのセットを生成するステップを含む。当該方法はまた、当該データ処理ハードウェアによって、当該補助トレーニングサンプルのセットを用いて、ベースライン解釈可能モデルをトレーニングするステップと、当該データ処理ハードウェアによって、当該補助トレーニングサンプルのセットおよび当該ベースライン解釈可能モデルを用いて、インスタンスごとの重み推定器モデルをトレーニングするステップとを含む。当該方法はまた、当該補助トレーニングサンプルのセット内の各補助トレーニングサンプルごとに、当該データ処理ハードウェアによって、当該トレーニングされたインスタンスごとの重み推定器モデルを用いて、当該補助トレーニングサンプルについての選択確率を決定するステップを含む。当該方法はまた、当該データ処理ハードウェアによって、当該選択確率に基づいて、当該補助トレーニングサンプルのセットから補助トレーニングサンプルのサブセットを選択するステップと、当該データ処理ハードウェアによって、当該補助トレーニングサンプルのサブセットを用いて、当該局所解釈可能モデルをトレーニングするステップとを含む。
本開示の実現例は、以下のオプションの特徴のうち1つ以上を含み得る。いくつかの実現例では、当該インスタンスごとの重み推定器モデルをトレーニングするステップは、強化信号を決定するステップと、当該強化信号に基づいて当該インスタンスごとの重み推定器モデルを更新するステップとを含む。当該強化信号を決定するステップは、損失関数に基づいて当該局所解釈可能モデルについての第1の損失データを決定するステップと、損失関数に基づいて当該局所解釈可能モデルについての第2の損失データを決定するステップと、当該局所解釈可能モデルについての当該第1の損失データおよび当該ベースライン解釈可能モデルについての当該第2の損失データに基づいて当該強化信号を決定するステップとを含む。
当該補助トレーニングサンプルのセットから当該補助トレーニングサンプルのサブセットを選択するステップは、当該補助トレーニングサンプルのセット内の各補助トレーニングサンプルごとに、当該選択確率に基づいて、選択または選択なしを示す対応する選択値を決定するステップを含む。当該対応する選択値が選択を示す場合、当該補助トレーニングサンプルを当該補助トレーニングサンプルのサブセットに追加する。いくつかの例では、各補助トレーニングサンプルごとに、当該補助トレーニングサンプルについての当該選択確率を決定するステップは、当該インスタンスごとの重み推定器モデルにおいて、検証サンプルを受取るステップと、当該インスタンスごとの重み推定器モデルによって、当該検証サンプルに基づいて当該選択確率を決定するステップとを含む。
いくつかの実現例では、当該方法はさらに、当該インスタンスごとの重み推定器モデルをトレーニングした後、当該インスタンスごとの重み推定器モデルにおいて、検証サンプルを受取るステップと、当該インスタンスごとの重み推定器モデルによって、当該補助トレーニングサンプルのセット内の各補助トレーニングサンプルごとに当該選択確率を生成するステップとを含む。これらの実現例では、当該方法はまた、当該検証サンプルと、当該補助トレーニングサンプルのセット内の各補助トレーニングサンプルの当該選択確率とに基づいて、当該局所解釈可能モデルをトレーニングするステップを含む。任意には、当該ブラックボックスモデルをトレーニングするステップは、平均二乗誤差損失関数または交差エントロピー損失関数を最小化するステップを含み得る。
当該トレーニングサンプルのセット内の各トレーニングサンプルは、トレーニングデータおよび所与のラベルを含み得る。いくつかの例では、当該補助トレーニングサンプルのセットを生成するステップは、当該トレーニングサンプルのセット内の各トレーニングサンプルごとに、当該トレーニングサンプルの当該トレーニングデータを用いて、当該トレーニングされたブラックボックスモデルから、当該トレーニングデータについての予測ラベルを取得するステップと、当該トレーニングデータと当該予測ラベルとを組合わせて補助トレーニングサンプルにするステップと、当該補助トレーニングサンプルを当該補助トレーニングサンプルのセットに追加するステップとを含む。
いくつかの実現例では、当該インスタンスごとの重み推定器モデルをトレーニングするステップは、プローブトレーニングサンプルのセットを取得するステップと、当該プローブトレーニングサンプルのセット内の各プローブトレーニングサンプルごとに選択確率を決定するステップとを含む。これらの実現例では、各プローブトレーニングサンプルの当該選択確率に基づいて、インスタンスごとの選択ベクトルを決定するステップと、当該インスタンスごとの選択ベクトルに基づいて当該局所解釈可能モデルを最適化するステップと、当該最適化された局所解釈可能モデルからの損失データに基づいて、当該インスタンスごとの重み推定器モデルを更新するステップとを含む。
本開示の別の局面は、強化学習ベースの局所解釈可能モデルのためのシステムを提供する。当該システムは、データ処理ハードウェアと、当該データ処理ハードウェアと通信するメモリハードウェアとをむ。当該メモリハードウェアは、当該データ処理ハードウェア上で実行されると、当該データ処理ハードウェアに以下の動作を実行させる命令を格納している。当該以下の動作は、トレーニングサンプルのセットを取得する動作と、当該トレーニングサンプルのセットを用いて、ブラックボックスモデルをトレーニングする動作とを含む。当該以下の動作はまた、当該トレーニングされたブラックボックスモデルおよび当該トレーニングサンプルのセットを用いて、補助トレーニングサンプルのセットを生成する動作を含む。当該以下の動作はまた、当該補助トレーニングサンプルのセットを用いて、ベースライン解釈可能モデルをトレーニングする動作と、当該補助トレーニングサンプルのセットおよび当該ベースライン解釈可能モデルを用いて、インスタンスごとの重み推定器モデルをトレーニングする動作とを含む。当該以下の動作は、当該補助トレーニングサンプルのセット内の各補助トレーニングサンプルごとに、当該トレーニングされたインスタンスごとの重み推定器モデルを用いて、当該補助トレーニングサンプルについての選択確率を決定する動作を含む。当該以下の動作はまた、当該選択確率に基づいて、当該補助トレーニングサンプルのセットから補助トレーニングサンプルのサブセットを選択する動作と、当該補助トレーニングサンプルのサブセットを用いて、局所解釈可能モデルをトレーニングする動作とを含む。
この局面は、以下のオプションの特徴のうちの1つ以上を含み得る。いくつかの実現例では、当該インスタンスごとの重み推定器モデルをトレーニングする動作は、強化信号を決定する動作と、当該強化信号に基づいて当該インスタンスごとの重み推定器モデルを更新する動作とを含む。当該強化信号を決定する動作は、損失関数に基づいて当該局所解釈可能モデルについての第1の損失データを決定する動作と、当該損失関数に基づいて当該局所解釈可能モデルについての第2の損失データを決定する動作と、当該局所解釈可能モデルについての当該第1の損失データおよび当該ベースライン解釈可能モデルについての当該第2の損失データに基づいて当該強化信号を決定する動作とを含む。
当該補助トレーニングサンプルのセットから当該補助トレーニングサンプルのサブセットを選択する動作は、当該補助トレーニングサンプルのセット内の各補助トレーニングサンプルごとに、当該選択確率に基づいて、選択または選択なしを示す対応する選択値を決定する動作を含む。当該対応する選択値が選択を示す場合、当該補助トレーニングサンプルを当該補助トレーニングサンプルのサブセットに追加する。いくつかの例では、各補助トレーニングサンプルごとに、当該補助トレーニングサンプルについての当該選択確率を決定する動作は、当該インスタンスごとの重み推定器モデルにおいて、検証サンプルを受取る動作と、当該インスタンスごとの重み推定器モデルによって、当該検証サンプルに基づいて当該選択確率を決定する動作とを含む。
いくつかの実現例では、当該以下の動作はさらに、当該インスタンスごとの重み推定器モデルをトレーニングした後、当該インスタンスごとの重み推定器モデルにおいて、検証サンプルを受取る動作と、当該インスタンスごとの重み推定器モデルによって、当該補助トレーニングサンプルのセット内の各補助トレーニングサンプルごとに当該選択確率を生成する動作とを含む。これらの実現例では、当該以下の動作はまた、当該検証サンプルと当該補助トレーニングサンプルのセット内の各補助トレーニングサンプルの当該選択確率とに基づいて、当該局所解釈可能モデルをトレーニングする動作を含む。任意には、当該ブラックボックスモデルをトレーニングする動作は、平均二乗誤差損失関数または交差エントロピー損失関数を最小化する動作を含み得る。
当該トレーニングサンプルのセット内の各トレーニングサンプルは、トレーニングデータおよび所与のラベルを含み得る。いくつかの例では、当該補助トレーニングサンプルのセットを生成する動作は、当該トレーニングサンプルのセット内の各トレーニングサンプルごとに、当該トレーニングサンプルの当該トレーニングデータを用いて、当該トレーニングされたブラックボックスモデルから、当該トレーニングデータについての予測ラベルを取得する動作と、当該トレーニングデータと当該予測ラベルとを組合わせて補助トレーニングサンプルにする動作と、当該補助トレーニングサンプルを当該補助トレーニングサンプルのセットに追加する動作とを含む。
いくつかの実現例では、当該インスタンスごとの重み推定器モデルをトレーニングする動作は、プローブトレーニングサンプルのセットを取得する動作と、当該プローブトレーニングサンプルのセット内の各プローブトレーニングサンプルごとに、選択確率を決定する動作とを含む。これらの実現例では、各プローブトレーニングサンプルの当該選択確率に基づいて、インスタンスごとの選択ベクトルを決定する動作と、当該インスタンスごとの選択ベクトルに基づいて当該局所解釈可能モデルを最適化する動作と、当該最適化された局所解釈可能モデルからの損失データに基づいて、当該インスタンスごとの重み推定器モデルを更新する動作とを含む。
本開示の1つ以上の実現例の詳細を添付の図面および以下の説明に記載する。他の局面、特徴、および利点は、以下の説明および添付の図面、ならびに添付の特許請求の範囲から明らかになるだろう。
局所解釈可能モデルをトレーニングするための例示的なシステムを示す概略図である。 局所解釈可能モデルをトレーニングするための図1のシステムの例示的な構成要素を示す概略図である。 局所解釈可能モデルをトレーニングするための図1のシステムの例示的な構成要素を示す概略図である。 局所解釈可能モデルをトレーニングするための図1のシステムの例示的な構成要素を示す概略図である。 局所解釈可能モデルをトレーニングするための図1のシステムの例示的な構成要素を示す概略図である。 局所解釈可能モデルをトレーニングするための図1のシステムの例示的な構成要素を示す概略図である。 局所解釈可能モデルをトレーニングする方法についての動作の例示的な構成を示すフローチャートである。 本明細書に記載のシステムおよび方法を実現するために用いられ得る例示的なコンピューティングデバイスを示す概略図である。
さまざまな図面における同様の参照符号は同様の要素を示す。
詳細な説明
多くの現実世界で適用される場合、人工知能(artificial intelligence:AI)システムは、十分に機能するだけではなく解釈可能であることも期待されている。たとえば、医師らは特定の治療が推奨される理由を理解する必要があり、金融機関は融資が拒否された理由を理解する必要がある。多くの場合、AIシステムでは、システムの性能と解釈可能性とが両立し難しい。特に、全体解釈可能なモデルは、モデル挙動全体を説明しようと試みるものであるが、典型的には、性能がブラックボックスモデルよりも大幅に劣ったものとなる。しかしながら、全体解釈可能なモデルについての有利な代替案は局所解釈可能モデルを含み得る。
局所解釈可能モデルはモデル内の1つの予測を説明するものである一方で、全体解釈可能なモデルはモデル全体を説明しようと試みるものである。全体解釈可能なモデルは、固有に解釈可能な1つのモデルをトレーニングセット全体にフィットさせる一方で、局所解釈可能モデルは、高性能なブラックボックスモデルから知識を抽出することによって、固有に解釈可能なモデルを局所的にフィットさせることを目的としている。局所解釈可能モデルは、簡潔で人が行なうような説明をユーザに提供するのに有用であり得る。性能を最適化するために、局所解釈可能モデルは、(i)全体的な予測性能および(ii)忠実度という2つの目的を最大化する必要がある。全体的な予測性能は、局所解釈可能モデルがグラウンドトゥルースラベルと比べてどれだけ十分に結果を予測するかを表わしている。忠実度は、局所解釈可能モデルがどれだけ十分にブラックボックスモデル予測に近似しているかを表わす。局所解釈可能モデルの1つの基本的な課題は抽出を適用している間の表現能力の差である。すなわち、ブラックボックス機械学習モデルは局所解釈可能モデルよりもはるかに高い表現能力を有する。局所解釈可能モデルの表現能力がより低い場合、結果として、従来の抽出技術ではアンダーフィットとなり、準最適な性能を招く可能性がある。
本明細書の実現例は、局所解釈可能モデル(locally interpretable model:RL-LIM)をフィットさせるための強化学習ベースの方法を提供するモデルトレーナに向けられている。RL-LIMは、局所解釈可能モデルをフィットさせるのに貢献する最高値を提供する少数のサンプルでトレーニングすることによって、局所解釈可能モデルの低い表現能力を効率的に利用する。これらの最高値のサンプルまたはインスタンスを選択するために、モデルトレーナは、忠実度メトリックを定量化する強化信号を用いて、インスタンスごとの重み推定器をトレーニングする。高値のインスタンスを選択することにより、ブラックボックスモデル予測に厳密に類似した予測が報酬として得られる。高値のトレーニングインスタンスのみを選択することによって局所解釈可能モデルをトレーニングすることは、ブラックボックスモデルの性能にほぼ適合し、全体的な予測性能および忠実度メトリックの点では代替技術よりも大いに優れている。
ここで図1を参照すると、いくつかの実現例では、例示的なシステム100は処理システム10を含む。処理システム10は、単一のコンピュータであってもよく、複数のコンピュータであってもよく、または、固定式もしくはスケーラブルな/融通性のあるコンピューティングリソース12(たとえば、データ処理ハードウェア)および/もしくはストレージリソース14(たとえば、メモリハードウェア)を有する分散システム(たとえば、クラウド環境)であってもよい。処理システム10は局所解釈可能モデルトレーナ110を実行する。モデルトレーナ110はブラックボックスモデル120および局所解釈可能モデル190をトレーニングする。ブラックボックスモデル120は、以下に説明される任意の機械学習モデルを含み得る。たとえば、ブラックボックスモデル120は、ディープニューラルネットワークまたは決定木ベースのアンサンブル法であってもよい。局所解釈可能モデル190はブラックボックスモデル120の1つの予測を説明する。特に、局所解釈可能モデル190は、高性能ブラックボックスモデル120から知識を抽出して、ブラックボックスモデル120からの1つ以上の予測をユーザに対して説明する。
モデルトレーナ110は、トレーニングサンプル130、130a~130nのセットを取得し、当該セット内のトレーニングサンプル130のいくつかまたはすべてを用いてブラックボックスモデル120をトレーニングする。いくつかの例では、各トレーニングサンプル130は、トレーニングデータ202と、当該トレーニングデータ202についての所与のラベル204との両方を含む(図2A)。所与のラベル204は、ブラックボックスモデル120が関連するトレーニングデータ202を用いて予測の精度を判断するための注釈または他の指示を含む。すなわち、ブラックボックスモデル120は、トレーニングサンプル130のトレーニングデータ202を用いて予測を行ない、当該予測を関連する所与のラベル204と比較して、予測の精度を判断する。いくつかの実現例では、トレーニングサンプル130は、対応する所与のラベル204なしでトレーニングデータ202だけ(すなわち、ラベルなしトレーニングサンプル)を含む。
モデルトレーナ110は、トレーニングされたブラックボックスモデル120とトレーニングサンプル130のセットとを用いて補助トレーニングサンプル140、140a~140nのセットを生成する。いくつかの例では、モデルトレーナは、補助トレーニングサンプル140を用いてブラックボックスモデル120の性能を評価して、メタ学習をガイドする。以下でより詳細に説明するように、補助トレーニングサンプル140は、ブラックボックスモデル120の予測に基づいた補助トレーニングデータおよび補助ラベルを含み得る。モデルトレーナ110は、補助トレーニングサンプル140のセットを用いて、ベースライン解釈可能モデル150をトレーニングする。ベースライン解釈可能モデル150は、ブラックボックスモデル120の予測を複製するように最適化された全体解釈可能なモデル(たとえば、線形モデルまたは浅い決定木)を含み得る。ベースライン解釈可能モデル150は、局所解釈可能モデル190をトレーニングする間ベンチマークとして機能し得る。
モデルトレーナ110は、補助トレーニングサンプル140のセットとベースライン解釈可能モデル150とを用いて、インスタンスごとの重み推定器モデル160(本明細書では単にインスタンスごとの重み推定器とも称される)をトレーニングする。インスタンスごとの重み推定器モデル160は、各補助トレーニングサンプル140ごとの価値を示す重み(すなわち、選択確率170)を決定する。重みが大きければ大きいほど、局所解釈可能モデル190をトレーニングするためにそれぞれの補助トレーニングサンプル140が有する価値がより大きくなる。いくつかの実現例では、補助トレーニングサンプル140のセット内の各補助トレーニングサンプル140ごとに、トレーニングされたインスタンスごとの重み推定器モデル160は、各補助トレーニングサンプル140についての選択確率170を決定する。選択確率170は、補助トレーニングサンプル140が局所解釈可能モデル190にとって有益なトレーニングサンプルであるかまたは問題のあるトレーニングサンプルであるか(すなわち、サンプル140がトレーニングを改善させる可能性があるかまたはトレーニングを悪化させる可能性があるか)を示す重みに対応する。
モデルトレーナ110はサンプラ180を含む。当該サンプラ180は、各補助トレーニングサンプル140の選択確率170を受取り、各補助トレーニングサンプル140に割当てられた選択確率170に基づいて補助トレーニングサンプル140S、140Sa~Snのセットのサブセットを選択する。補助トレーニングサンプル140Sのサブセットは、補助トレーニングサンプル140よりも少ない量のトレーニングサンプルを含み得る。いくつかの実現例では、サンプラ180は、各補助トレーニングサンプル140の選択確率170が閾値を満たすかどうかを判断する。選択確率170が閾値を満たす場合、サンプラ180は、対応する補助トレーニングサンプル140を補助トレーニングサンプル140Sのサブセットに追加し得る。他の実現例では、サンプラ180は、予め定められた数の補助トレーニングサンプル140を選択する(たとえば、選択確率170が最も高い予め定められた数の補助トレーニングサンプル140を選択する)。
モデルトレーナ110は、補助トレーニングサンプル140Sのサブセットを用いて局所解釈可能モデル190をトレーニングする。局所解釈可能モデル190は、補助トレーニングサンプル140Sのサブセットに対するトレーニングの後、ブラックボックスモデル120の予測性能を厳密に複製する出力(すなわち、予測)を生成する。いくつかの例では、局所解釈可能モデル190は、トレーニングサンプル130のセットまたは補助トレーニングサンプル140のセット全体に関してトレーニングするのではなく、補助トレーニングサンプル140Sのサブセットのみに関してトレーニングする。すなわち、サンプラ180は、補助トレーニングサンプル140のセット全体から補助トレーニングサンプル140Sのサブセットを選択して、局所解釈可能モデル190をトレーニングする。補助トレーニングサンプル140Sのサブセットに関して局所解釈可能モデル190をトレーニングすることにより、局所解釈可能モデルは、補助トレーニングサンプル140のサブセットのみに関してトレーニングしている間、ブラックボックスモデル120の性能にほぼ適合する。
ここで図2A~図2Eを参照すると、いくつかの実現例では、トレーニングサンプル130のセット内の各トレーニングサンプル130はトレーニングデータ202および所与のラベル204を含む。概略図200a(図2A)に示されるように、ブラックボックスモデル120のトレーニングは、トレーニングデータ202および所与のラベル204を含み得る。モデルトレーナ110はブラックボックスモデル120にトレーニングデータ202を提供し、ブラックボックスモデル120は当該トレーニングデータ202に基づいて予測208(本明細書では予測ラベル208とも称される)を生成する。モデルトレーナ110は、予測208を所与のラベル204と比較して、予測208の精度を判断する。
いくつかの例では、モデルトレーナ110は、損失関数206(たとえば、平均二乗誤差損失関数または交差エントロピー損失関数)を最小化することによってブラックボックスモデル120をトレーニングする。損失関数206は、トレーニングサンプル130からの所与のラベル204に対する、ブラックボックスモデル120によって決定された予測ラベル208の精度を示す。たとえば、損失関数206は平均絶対誤差の算出を含み、この場合、誤差が低いほど、最適な損失関数206を示す。損失関数206を最小化することによって、ブラックボックスモデル120は、所与のラベル204に厳密に適合するように予測ラベル208を正確に生成するためにトレーニングを受ける。いくつかの例では、ブラックボックスモデル120は、所与のラベル204なしでトレーニングを受ける(すなわち、教師なし学習)。ここで、ブラックボックスモデル120は、所与のラベル204と比較することなく予測ラベル208を生成する。損失関数206は予測ラベル208の忠実度を定量化する。損失関数206からの結果(すなわち、損失)は、ブラックボックスモデル120を最適化するためにブラックボックスモデル120に対するフィードバックとしての役割を果たす。
ブラックボックスモデル120は任意のタイプの学習モデルを含み得る。いくつかの例では、ブラックボックスモデル120は、予めトレーニングされるとともにメモリハードウェア14に格納される。このシナリオでは、モデルトレーナ110は、ブラックボックスモデル120(図2A)のトレーニングを迂回し得るとともに、代わりに、トレーニングされたブラックボックスモデル120をメモリハードウェア14から取出し得る。
図2Aを引続き参照すると、いくつかの実現例では、トレーニングデータ202および所与のラベル204は画像(たとえば、自転車などの物体の画像)を表わす。ブラックボックスモデル120は、トレーニングデータ202(たとえば、自転車の画像)を分析して予測ラベル208を生成する。モデルトレーナ110は、予測ラベル208を所与のラベル204と比較して損失関数206を算出する。いくつかの例では、ブラックボックスモデル120は予測ラベル208を正確に生成し(たとえば、所与のラベル204によって画像が自転車を含むことも示される場合に、ブラックボックスモデル120によって画像が自転車を含むと予測される)、損失関数206は低い平均絶対誤差を示す。いくつかの実現例では、ブラックボックスモデル120が予測ラベル208を不正確に生成する(たとえば、所与のラベル204によって入力画像が自転車を含んでいたことが示される場合に、予測ラベル208によって入力画像が車を含んでいたことが示される)場合、損失関数206は高い平均絶対誤差を示す。損失関数206からの結果(すなわち、算出された損失)は、ブラックボックスモデル120を最適化するように当該ブラックボックスモデル120にフィードバックされる。ブラックボックスモデル120のためのトレーニングデータ202に基づいて損失関数206を算出する反復プロセスは、損失が最適な閾値に達するまで繰返されてもよい。
概略図200b(図2B)に示されるように、トレーニングされたブラックボックスモデル120は補助トレーニングサンプル140を作成する。いくつかの実現例では、モデルトレーナ110は、それぞれのトレーニングサンプル130のトレーニングデータ202を用いて、トレーニングされたブラックボックスモデル120からそれぞれのトレーニングサンプル130についての関連する予測ラベル208を取得することによって、補助トレーニングサンプル140のセットを生成する。モデルトレーナ110は、それぞれのトレーニングサンプル130のトレーニングデータ202を予測ラベル208と組合わせて補助トレーニングサンプル140を形成する。モデルトレーナ110は、補助トレーニングサンプル140を補助トレーニングサンプル140のセットに追加する。モデルトレーナ110は、補助トレーニングサンプル140のセットを用いて、インスタンスごとの重み推定モデル160をトレーニングし、および/または、局所解釈可能モデル190をトレーニングする。補助トレーニングサンプル140は補助トレーニングデータおよび補助ラベルを含み得る。いくつかの実現例では、補助トレーニングサンプル140はプローブトレーニングサンプル222、222a~222nを含む。プローブトレーニングサンプル222は、ブラックボックスモデル120をトレーニングするのに用いられないトレーニングサンプル130のサブセットであり得る。他の例では、プローブトレーニングサンプル222は、トレーニングサンプル130のセットから独立したトレーニングサンプルの第2のセットであってもよい。言い換えれば、プローブトレーニングサンプル222は、インスタンスごとの重み推定器モデルまたはベースライン解釈可能モデル150をトレーニングする際に利用されないトレーニングデータを含み得る。
ここで図2Cを参照すると、概略図200cはベースライン解釈可能モデル150を含む。モデルトレーナ110は、補助トレーニングサンプル140のセット(すなわち、トレーニングデータ202および予測ラベル208)を用いてベースライン解釈可能モデル150をトレーニングする。ベースライン解釈可能モデル150は、インスタンスごとの重み推定器モデル160をトレーニングする際の安定性を改善させる。モデルトレーナ110は、ブラックボックスモデル120の予測を複製するためにベースライン解釈可能モデル150を最適化する。ベースライン解釈可能モデル150は局所解釈可能モデル190についての性能のベンチマークとしての役割を果たす。
概略図200d(図2D)に示されるように、いくつかの実現例では、モデルトレーナ110は、インスタンスごとの重み推定器モデル160をトレーニングする際に、以下でより詳細に説明するように、強化信号226を決定し、当該強化信号226に基づいてインスタンスごとの重み推定器モデル160を更新する。インスタンスごとの重み推定器モデル160は、局所解釈可能モデル190をフィットさせるようにインスタンスごとの重み(すなわち、選択確率170)を出力する。いくつかの例では、インスタンスごとの重み推定器160は、複雑な機械学習モデル(たとえば、ディープニューラルネットワーク)を含む。インスタンスごとの重み推定器モデル160は、局所解釈可能モデル190をトレーニングするトレーニングインスタンスの選択確率170を推定する。
いくつかの実現例では、インスタンスごとの重み推定器モデル160をトレーニングするために、モデルトレーナ110はプローブトレーニングサンプル222のセットを取得する。プローブトレーニングサンプル222のセット内の各プローブトレーニングサンプル222ごとに、インスタンスごとの重み推定器モデル160は、関連する選択確率170を推定する。すなわち、インスタンスごとの重み推定器は、各プローブトレーニングサンプル入力222に基づいて予測(すなわち、選択確率170)を決定する。各選択確率170は、局所解釈可能モデル190をトレーニングするためのプローブトレーニングサンプル222の値を示す。たとえば、局所解釈可能モデル190をトレーニングするのに有益であるプローブトレーニングサンプル222は高い選択確率170を有する。他の例では、局所解釈可能モデル190をトレーニングするには品質が低いかまたは問題があるトレーニングサンプル130は低い選択確率170を有する。
いくつかの例では、モデルトレーナ110は、各プローブトレーニングサンプル222の選択確率170に基づいてインスタンスごとの選択ベクトル224を決定することによって、インスタンスごとの重み推定器モデル160をトレーニングする。特に、サンプラ180は、選択確率170から選択して選択ベクトル224を生成する。選択ベクトル224は、補助トレーニングサンプル140のセット内の各補助トレーニングサンプル140ごとの選択確率170を示す。いくつかの例では、サンプラ180は、選択ベクトル224内の選択された選択確率170に対応する補助トレーニングサンプル140を補助トレーニングサンプル140Sのサブセットに追加する。選択ベクトル224は、各対応する選択確率170ごとの選択値244を含み得る。モデルトレーナ110は、補助トレーニングサンプル140Sのサブセットを用いて局所解釈可能モデル190をトレーニングする。モデルトレーナ110は、インスタンスごとの選択ベクトル224に基づいて局所解釈可能モデル190を最適化し、最適化された局所解釈可能モデル190からの損失データ228に基づいてインスタンスごとの重み推定器モデル160を更新する。
いくつかの例では、モデルトレーナ110は、損失関数206に基づいて局所解釈可能モデル190についての第1の損失データ228aを決定するとともに別の損失関数206に基づいてベースライン解釈可能モデル150についての第2の損失データ228bを決定することによって、強化信号226を決定する。モデルトレーナは、いくつかの実現例では、局所解釈可能モデル190についての第1の損失データ228aおよびベースライン解釈可能モデル150についての第2の損失データ228bに基づいて強化信号226を決定する。局所解釈可能モデル190およびベースライン解釈可能モデル150の両方が、1つ以上の損失関数206に基づいて損失228a、220bを算出する。いくつかの実現例では、モデルトレーナ110は、局所解釈可能モデル190の第1の損失228aをベースライン解釈可能モデル150の第2の損失228bと比較する。ベースライン解釈可能モデル150の出力はブラックボックスモデル120の出力を厳密に表わしているので、ローカル解釈可能モデル190の第1の損失228aをベースライン解釈可能モデル150の損失228bと比較することにより、ブラックボックスモデル120に対するローカル解釈可能モデル190の忠実度が確立される。強化信号226は、第1の損失データ228aおよび第2の損失データ228bに基づいて、局所解釈可能モデル190とベースライン解釈可能モデル150との間で同様の予測を与える。
いくつかの例では、インスタンスごとの重み推定器モデル160をトレーニングするための選択確率170は式(1)によって決定される。
Figure 2022549316000002
式(1)において、
Figure 2022549316000003
は、hΦを前提として、
Figure 2022549316000004
についての確率質量関数を示す。ここで、hΦ(x,x,f(x))は、プローブデータxについての各トレーニングペア(x,f(x))についてのインスタンスごとの重みを表わす。バイナリベクトル
Figure 2022549316000005
は、
Figure 2022549316000006
についての局所解釈可能モデル190をトレーニングするために、
Figure 2022549316000007
が選択されるような選択動作を表わす。
いくつかの実現例では、サンプラ180は、微分不可能な目標をもたらし、従来の勾配降下ベースの最適化を用いてもインスタンスごとの重み推定器160をトレーニングすることができない。代わりに、モデルトレーナ110は強化アルゴリズムを利用することで、その影響の成果によってサンプラ180の選択が与えられるようにする。いくつかの例では、損失関数206は、最適化された局所解釈可能モデル190からの損失データに基づいて、インスタンスごとの重み推定器モデル160を更新する。インスタンスごとの重み推定器160についての損失関数は以下のように表わされ得る。
Figure 2022549316000008
強化アルゴリズムを適用するために、モデルトレーナ110は、インスタンスごとの重み推定器について損失関数の勾配を(たとえば、式(2)を用いて)計算する。損失関数の勾配を用いて、以下のステップは、インスタンスごとの重み推定器160のパラメータを更新するステップを反復的に採用する。ステップ1は、ミニバッチ内の各トレーニングおよびプローブインスタンスに関して、インスタンスごとの重み
Figure 2022549316000009
およびインスタンスごとの選択ベクトル224
Figure 2022549316000010
を推定するステップを含む。ステップ2は、各プローブインスタンス
Figure 2022549316000011
ごとに選択ベクトル224で局所解釈可能モデル190を最適化するステップを含む。ステップ3は、インスタンスごとの重み推定モデル160のパラメータΦを更新するステップを含む。
Figure 2022549316000012
式(4)において、αは学習率であり、
Figure 2022549316000013
は性能改善についてのベンチマークに対するベースライン損失である。上述のステップは損失228a、損失228bが収束するまで繰返される。
インスタンスごとの重み推定器モデル160をトレーニングする場合、モデルトレーナ110は、強化信号226を決定し得るとともに、当該強化信号226に基づいてインスタンスごとの重み推定器モデル160を更新し得る。強化信号226は、局所解釈可能モデル190の予測がブラックボックスモデル120の予測にどれだけ正確に合致するかを表わす忠実度メトリックを定量化する。たとえば、第1の損失228aおよび第2の損失228bが類似している場合、強化信号226は、類似の結果を与えてインスタンスごとの重み推定器160を更新する。
いくつかの実現例では、サンプラ180は、補助トレーニングサンプル140のセット内の各補助トレーニングサンプル140ごとに、選択確率170に基づいて、選択または選択なしのいずれかを示す対応する選択値244を決定することによって、補助トレーニングサンプル140のセットから補助トレーニングサンプル140Sのサブセットを選択する。対応する選択値244が選択を示す場合、サンプラ180は、補助トレーニングサンプル140を補助トレーニングサンプル140Sのサブセットに追加し得る。特に、サンプラ180は、選択確率170の閾値を満たす選択確率170を選択する。これら選択確率170は各々が補助トレーニングサンプル140に対応している。いくつかの実現例では、閾値を満たす選択確率170は選択を示す選択値244を受取り、サンプラ180は、選択された補助トレーニングサンプル140を補助トレーニングサンプル140Sのサブセットに追加する。対照的に、閾値を満たさない選択確率170は、選択なしを示す選択値244を受取り、サンプラ180は、補助トレーニングサンプル140Sのサブセット内に補助トレーニングサンプル140Sを含まない。
概略図200(e)(図2E)に示されるように、いくつかの実現例では、インスタンスごとの重み推定器モデル160をトレーニングした後、インスタンスごとの重み推定器モデル160は検証サンプル242を受取る。検証サンプル242はトレーニングデータ202および所与のラベル204を含み得る。インスタンスごとの重み推定器モデル160は、補助トレーニングサンプル140のセット内の各補助トレーニングサンプル140ごとに選択確率170を生成する。モデルトレーナ110は、選択確率170の重み付けされた最適化を局所解釈可能モデル190に送信する。モデルトレーナ110は、検証サンプル242と補助トレーニングサンプル140Sのセット内の各補助トレーニングサンプル140Sの選択確率170とに基づいて、局所解釈可能モデル190をトレーニングする。トレーニングされた解釈可能モデル190の出力は、インスタンスごとの予測および対応する説明である。たとえば、対応する説明は、フィッティングされた線形モデルの係数によって与えられる、検証サンプル242におけるブラックボックスモデル予測の局所力学を含み得る。
図3は、局所解釈可能モデルをトレーニングするための方法300についての動作の例示的な構成を示すフローチャートである。動作302において、方法300は、データ処理ハードウェア12においてトレーニングサンプル130のセットを取得するステップを含む。各トレーニングサンプル130はトレーニングデータ202および所与のラベル204を含み得る。動作304において、方法300は、データ処理ハードウェア12によって、トレーニングサンプル130のセットを用いてブラックボックスモデル120をトレーニングするステップを含む。方法300は、動作306において、データ処理ハードウェア12によって、トレーニングされたブラックボックスモデル120およびトレーニングサンプル130のセットを用いて、補助トレーニングサンプル140のセットを生成するステップを含む。
方法300は、動作308において、データ処理ハードウェア12によって、補助トレーニングサンプル140のセットを用いて、ベースライン解釈可能モデル150をトレーニングするステップを含む。動作310において、方法300は、データ処理ハードウェア12によって、補助トレーニングサンプル140のセットおよびベースライン解釈可能モデル150を用いて、インスタンスごとの重み推定器モデル160をトレーニングするステップを含む。動作312において、方法300は、補助トレーニングサンプル140のセット内の各補助トレーニングサンプル140ごとに、データ処理ハードウェア12によって、トレーニングされたインスタンスごとの重み推定器モデル160を用いて、補助トレーニングサンプル140についての選択確率170を決定するステップを含む。動作314において、方法300は、データ処理ハードウェア12によって、選択確率170に基づいて、補助トレーニングサンプル140のセットから補助トレーニングサンプル140Sのサブセットを選択するステップを含む。動作316において、方法300は、補助トレーニングサンプル140Sのサブセットを用いて、局所解釈可能モデル190をトレーニングするステップを含む。
ソフトウェアアプリケーション(すなわち、ソフトウェアリソース)とは、コンピューティングデバイスにタスクを実行させるコンピュータソフトウェアを指し得る。いくつかの例では、ソフトウェアアプリケーションは「アプリケーション」、「アプリ」、または「プログラム」とも称され得る。例示的なアプリケーションは、システム診断アプリケーション、システム管理アプリケーション、システム保守アプリケーション、文書処理アプリケーション、表計算アプリケーション、メッセージングアプリケーション、メディアストリーミングアプリケーション、ソーシャルネットワーキングアプリケーション、およびゲーミングアプリケーションを含むが、それらに限定されない。
図4は、本明細書で説明するシステムおよび方法を実現するために使用され得る例示的なコンピューティングデバイス400の概略図である。コンピューティングデバイス400は、ラップトップ、デスクトップ、ワークステーション、携帯情報端末、サーバ、ブレードサーバ、メインフレーム、および他の適切なコンピュータなどの、さまざまな形態のデジタルコンピュータを表わすよう意図されている。ここに示すコンポーネント、それらの接続および関係、ならびにそれらの機能は単なる例示を意図したものであって、この文書で説明および/または主張される本発明の実現例を限定するよう意図したものではない。
コンピューティングデバイス400は、プロセッサ410と、メモリ420と、ストレージデバイス430と、メモリ420および高速拡張ポート450に接続している高速インターフェイス/コントローラ440と、低速バス470およびストレージデバイス430に接続している低速インターフェイス/コントローラ460とを含む。コンポーネント410、420、430、440、450、および460の各々は、さまざまなバスを使用して相互接続されており、共通のマザーボード上にまたは他の態様で適宜搭載されてもよい。プロセッサ410は、コンピューティングデバイス400内で実行される命令を処理可能であり、これらの命令は、グラフィカルユーザインターフェイス(graphical user interface:GUI)のためのグラフィック情報を、高速インターフェイス440に結合されたディスプレイ480などの外部入出力デバイス上に表示するために、メモリ420内またはストレージデバイス430に格納された命令を含む。他の実現例では、複数のプロセッサおよび/または複数のバスが、複数のメモリおよび複数のタイプのメモリとともに適宜使用されてもよい。また、複数のコンピューティングデバイス400が接続されてもよく、各デバイスは(たとえば、サーババンク、ブレードサーバのグループ、またはマルチプロセッサシステムとして)必要な動作の部分を提供する。
メモリ420は、情報をコンピューティングデバイス400内に非一時的に格納する。メモリ420は、コンピュータ可読媒体、揮発性メモリユニット、または不揮発性メモリユニットであってもよい。非一時的メモリ420は、プログラム(たとえば命令のシーケンス)またはデータ(たとえばプログラム状態情報)を、コンピューティングデバイス400による使用のために一時的または永続的に格納するために使用される物理デバイスであってもよい。不揮発性メモリの例は、フラッシュメモリおよび読出専用メモリ(ROM)/プログラマブル読出専用メモリ(PROM)/消去可能プログラマブル読出専用メモリ(EPROM)/電子的消去可能プログラマブル読出専用メモリ(EEPROM)(たとえば、典型的にはブートプログラムなどのファームウェアのために使用される)を含むが、それらに限定されない。揮発性メモリの例は、ランダムアクセスメモリ(RAM)、ダイナミックランダムアクセスメモリ(DRAM)、スタティックランダムアクセスメモリ(SRAM)、相変化メモリ(PCM)、およびディスクまたはテープを含むが、それらに限定されない。
ストレージデバイス430は、コンピューティングデバイス400のための大容量ストレージを備えることができる。いくつかの実現例では、ストレージデバイス430はコンピュータ可読媒体である。さまざまな異なる実現例では、ストレージデバイス430は、フロッピー(登録商標)ディスクデバイス、ハードディスクデバイス、光ディスクデバイス、またはテープデバイス、フラッシュメモリもしくは他の同様のソリッドステートメモリデバイス、または、ストレージエリアネットワークもしくは他の構成におけるデバイスを含むデバイスのアレイであってもよい。追加の実現例では、コンピュータプログラム製品が情報担体において有形に具現化され得る。コンピュータプログラム製品は、実行されると上述のような1つ以上の方法を実行する命令を含む。情報担体は、メモリ420、ストレージデバイス430、またはプロセッサ410上のメモリなどのコンピュータ可読媒体または機械可読媒体である。
高速コントローラ440はコンピューティングデバイス400のための帯域幅集中型の動作を管理し、一方、低速コントローラ460はより低帯域幅集中型の動作を管理する。このような役務機能の割当ては例示に過ぎない。いくつかの実現例では、高速コントローラ440は、メモリ420、ディスプレイ480に(たとえば、グラフィックスプロセッサまたはアクセラレータを介して)結合されるとともに、さまざまな拡張カード(図示せず)を受付け得る高速拡張ポート450に結合される。いくつかの実現例では、低速コントローラ460は、ストレージデバイス430および低速拡張ポート490に結合される。さまざまな通信ポート(たとえば、USB、ブルートゥース(登録商標)、イーサネット(登録商標)、無線イーサネット)を含み得る低速拡張ポート490は、キーボード、ポインティングデバイス、スキャナなどの1つ以上の入出力デバイスに、または、スイッチもしくはルータなどのネットワーキングデバイスに、たとえばネットワークアダプタを介して結合されてもよい。
コンピューティングデバイス400は、図に示すように多くの異なる形態で実現されてもよい。たとえばそれは、標準サーバ400aとして、またはそのようなサーバ400aのグループにおいて複数回実現されてもよく、ラップトップコンピュータ400bとして、またはラックサーバシステム400cの一部として実現されてもよい。
ここに説明されるシステムおよび技術のさまざまな実現例は、デジタル電子および/または光学回路、集積回路、特別に設計された特定用途向け集積回路(application specific integrated circuit:ASIC)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組合せにおいて実現され得る。これらのさまざまな実現例は、データおよび命令をストレージシステムとの間で送受信するように結合された、専用または汎用であり得る少なくとも1つのプログラマブルプロセッサと、少なくとも1つの入力デバイスと、少なくとも1つの出力デバイスとを含むプログラマブルシステム上で実行可能および/または解釈可能である1つ以上のコンピュータプログラムにおける実現例を含み得る。
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、またはコードとしても公知である)は、プログラマブルプロセッサのための機械命令を含むとともに、高レベルの手続き型および/またはオブジェクト指向型プログラミング言語で、および/またはアセンブリ/機械語で実現され得る。本明細書中で使用される場合、「機械可読媒体」および「コンピュータ可読媒体」という語は、機械命令および/またはデータをプログラマブルプロセッサに提供するために使用される任意のコンピュータプログラム製品、非一時的コンピュータ可読媒体、機器および/またはデバイス(たとえば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(Programmable Logic Device:PLD))を指し、機械命令を機械可読信号として受信する機械可読媒体を含む。「機械可読信号」という語は、機械命令および/またはデータをプログラマブルプロセッサに提供するために使用される任意の信号を指す。
この明細書で説明されるプロセスおよび論理フローは、データ処理ハードウェアとも称される1つ以上のプログラマブルプロセッサが、入力データに基づいて動作することおよび出力を生成することによって機能を実行するために1つ以上のコンピュータプログラムを実行することによって実行可能である。プロセスおよび論理フローはまた、たとえばフィールドプログラマブルゲートアレイ(field programmable gate array:FPGA)またはASIC(特定用途向け集積回路)といった専用論理回路によっても実行可能である。コンピュータプログラムの実行に適したプロセッサは、一例として、汎用および専用のマイクロプロセッサと、任意の種類のデジタルコンピュータの任意の1つ以上のプロセッサとを含む。一般に、プロセッサは、命令およびデータを、読出専用メモリまたはランダムアクセスメモリまたはそれら双方から受信するであろう。コンピュータの本質的要素は、命令を実行するためのプロセッサと、命令およびデータを格納するための1つ以上のメモリデバイスとである。一般に、コンピュータはまた、たとえば磁気ディスク、光磁気ディスクまたは光ディスクなどの、データを格納するための1つ以上の大容量ストレージデバイスを含むこととなるか、または、当該大容量ストレージデバイスからデータを受信するかまたは当該大容量ストレージデバイスにデータを転送するかまたはそれら双方を行なうように動作可能に結合されることとなるだろう。しかしながら、コンピュータは、そのようなデバイスを有する必要はない。コンピュータプログラム命令およびデータを格納するのに適したコンピュータ可読媒体は、あらゆる形態の不揮発性メモリ、媒体、およびメモリデバイスを含み、一例として、半導体メモリデバイス、たとえばEPROM、EEPROM、およびフラッシュメモリデバイス;磁気ディスク、たとえば内部ハードディスクまたはリムーバブルディスク;光磁気ディスク;ならびに、CD ROMおよびDVD-ROMディスクを含む。プロセッサおよびメモリは、専用論理回路によって補完されてもよく、または専用論理回路に組込まれてもよい。
ユーザとの対話を提供するために、この開示の1つ以上の局面は、情報をユーザに表示するためのディスプレイデバイス、たとえば陰極線管(cathode ray tube:CRT)、液晶ディスプレイ(liquid crystal display:LCD)モニタ、またはタッチスクリーンと、任意には、ユーザによるコンピュータへの入力を可能にするキーボードおよびポインティングデバイス、たとえばマウスまたはトラックボールとを有するコンピュータ上で実現され得る。他の種類のデバイスも同様に、ユーザとの対話を提供するために使用され得る。たとえば、ユーザに提供されるフィードバックは、任意の形態の感覚フィードバック、たとえば視覚フィードバック、聴覚フィードバックまたは触覚フィードバックであり得る。また、ユーザからの入力は、音響入力、音声入力または触覚入力を含む任意の形態で受信され得る。加えて、コンピュータは、ユーザによって使用されるデバイスに文書を送信し、当該デバイスから文書を受信することによって、たとえば、ユーザのクライアントデバイス上のウェブブラウザから受信された要求に応答してウェブページを当該ウェブブラウザに送信することによって、ユーザと対話することができる。
いくつかの実現例を説明してきた。にもかかわらず、本開示の精神および範囲から逸脱することなく、さまざまな変更を行なわれ得ることが理解されるだろう。したがって、他の実現例は添付の特許請求の範囲内にある。

Claims (20)

  1. 局所解釈可能モデル(190)をトレーニングするための方法(300)であって、前記方法(300)は、
    データ処理ハードウェア(12)において、トレーニングサンプル(130)のセットを取得するステップと、
    前記データ処理ハードウェア(12)によって、前記トレーニングサンプル(130)のセットを用いて、ブラックボックスモデル(120)をトレーニングするステップと、
    前記データ処理ハードウェア(12)によって、前記トレーニングされたブラックボックスモデル(120)および前記トレーニングサンプル(130)のセットを用いて、補助トレーニングサンプル(140)のセットを生成するステップと、
    前記データ処理ハードウェア(12)によって、前記補助トレーニングサンプル(140)のセットを用いて、ベースライン解釈可能モデル(150)をトレーニングするステップと、
    前記データ処理ハードウェア(12)によって、前記補助トレーニングサンプル(140)のセットおよび前記ベースライン解釈可能モデル(150)を用いて、インスタンスごとの重み推定器モデル(160)をトレーニングするステップと、
    前記補助トレーニングサンプル(140)のセット内の各補助トレーニングサンプル(140)ごとに、前記データ処理ハードウェア(12)によって、前記トレーニングされたインスタンスごとの重み推定器モデル(160)を用いて、前記補助トレーニングサンプル(140)についての選択確率(170)を決定するステップと、
    前記データ処理ハードウェア(12)によって、前記選択確率(170)に基づいて、前記補助トレーニングサンプル(140)のセットから補助トレーニングサンプル(140S)のサブセットを選択するステップと、
    前記データ処理ハードウェア(12)によって、前記補助トレーニングサンプル(140S)のサブセットを用いて、前記局所解釈可能モデル(190)をトレーニングするステップとを含む、方法(300)。
  2. 前記インスタンスごとの重み推定器モデル(160)をトレーニングするステップは、
    強化信号(226)を決定するステップと、
    前記強化信号(226)に基づいて前記インスタンスごとの重み推定器モデル(160)を更新するステップとを含む、請求項1に記載の方法(300)。
  3. 前記強化信号(226)を決定するステップは、
    損失関数(206)に基づいて前記局所解釈可能モデル(190)についての第1の損失データ(228a)を決定するステップと、
    前記損失関数(206)に基づいて前記ベースライン解釈可能モデル(150)についての第2の損失データ(228b)を決定するステップと、
    前記局所解釈可能モデル(190)についての前記第1の損失データ(228a)および前記ベースライン解釈可能モデル(150)についての前記第2の損失データ(228b)に基づいて前記強化信号(226)を決定するステップとを含む、請求項1または2に記載の方法(300)。
  4. 前記補助トレーニングサンプル(140)のセットから前記補助トレーニングサンプル(140S)のサブセットを選択するステップは、前記補助トレーニングサンプル(140)のセット内の各補助トレーニングサンプル(140)ごとに、
    前記選択確率(170)に基づいて、選択または選択なしを示す対応する選択値(244)を決定するステップと、
    前記対応する選択値(244)が選択を示す場合、前記補助トレーニングサンプル(140)を前記補助トレーニングサンプル(140S)のサブセットに追加するステップとを含む、請求項1から3のいずれか1項に記載の方法(300)。
  5. 各補助トレーニングサンプル(140)ごとに、前記補助トレーニングサンプル(140)についての前記選択確率(170)を決定するステップは、
    前記インスタンスごとの重み推定器モデル(160)において、検証サンプル(242)を受取るステップと、
    前記インスタンスごとの重み推定器モデル(160)によって、前記検証サンプル(242)に基づいて前記選択確率(170)を決定するステップとを含む、請求項4に記載の方法(300)。
  6. 前記インスタンスごとの重み推定器モデル(160)をトレーニングした後、
    前記インスタンスごとの重み推定器モデル(160)において、検証サンプル(242)を受取るステップと、
    前記インスタンスごとの重み推定器モデル(160)によって、前記補助トレーニングサンプル(140)のセット内の各補助トレーニングサンプル(140)ごとに前記選択確率(170)を生成するステップと、
    前記検証サンプル(242)と、前記補助トレーニングサンプル(140)のセット内の各補助トレーニングサンプル(140)の前記選択確率(170)とに基づいて、前記局所解釈可能モデル(190)をトレーニングするステップとをさらに含む、請求項1から5のいずれか1項に記載の方法(300)。
  7. 前記ブラックボックスモデル(120)をトレーニングするステップは、平均二乗誤差損失関数(206)または交差エントロピー損失関数(206)を最小化するステップを含む、請求項1から6のいずれか1項に記載の方法(300)。
  8. 前記トレーニングサンプル(130)のセット内の各トレーニングサンプル(130)は、トレーニングデータ(202)および所与のラベル(204)を含む、請求項1から7のいずれか1項に記載の方法(300)。
  9. 前記補助トレーニングサンプル(140)のセットを生成するステップは、前記トレーニングサンプル(130)のセット内の各トレーニングサンプル(130)ごとに、
    前記トレーニングサンプル(130)の前記トレーニングデータ(202)を用いて、前記トレーニングされたブラックボックスモデル(120)から、前記トレーニングデータ(202)についての予測ラベル(208)を取得するステップと、
    前記トレーニングデータ(202)と前記予測ラベル(208)とを組合わせて補助トレーニングサンプル(140)にするステップと、
    前記補助トレーニングサンプル(140)を前記補助トレーニングサンプル(140)のセットに追加するステップとを含む、請求項8に記載の方法(300)。
  10. 前記インスタンスごとの重み推定器モデル(160)をトレーニングするステップは、
    プローブトレーニングサンプル(222)のセットを取得するステップと、
    前記プローブトレーニングサンプル(222)のセット内の各プローブトレーニングサンプル(222)ごとに、選択確率(170)を決定するステップと、
    各プローブトレーニングサンプル(222)の前記選択確率(170)に基づいて、インスタンスごとの選択ベクトル(224)を決定するステップと、
    前記インスタンスごとの選択ベクトル(224)に基づいて前記局所解釈可能モデル(190)を最適化するステップと、
    前記最適化された局所解釈可能モデル(190)からの損失データ(228a)に基づいて、前記インスタンスごとの重み推定器モデル(160)を更新するステップとを含む、請求項1から9のいずれか1項に記載の方法(300)。
  11. システム(100)であって、
    データ処理ハードウェア(12)と、
    前記データ処理ハードウェア(12)と通信するメモリハードウェア(14)とを含み、前記メモリハードウェア(14)は、前記データ処理ハードウェア(12)上で実行されると、前記データ処理ハードウェア(12)に、以下の動作を実行させる命令を格納しており、前記以下の動作は、
    トレーニングサンプル(130)のセットを取得する動作と、
    前記トレーニングサンプル(130)のセットを用いて、ブラックボックスモデル(120)をトレーニングする動作と、
    前記トレーニングされたブラックボックスモデル(120)および前記トレーニングサンプル(130)のセットを用いて、補助トレーニングサンプル(140)のセットを生成する動作と、
    前記補助トレーニングサンプル(140)のセットを用いて、ベースライン解釈可能モデル(150)をトレーニングする動作と、
    前記補助トレーニングサンプル(140)のセットおよび前記ベースライン解釈可能モデル(150)を用いて、インスタンスごとの重み推定器モデル(160)をトレーニングする動作と、
    前記補助トレーニングサンプル(140)のセット内の各補助トレーニングサンプル(140)ごとに、前記トレーニングされたインスタンスごとの重み推定器モデル(160)を用いて、前記補助トレーニングサンプル(140)についての選択確率(170)を決定する動作と、
    前記選択確率(170)に基づいて、前記補助トレーニングサンプル(140)のセットから補助トレーニングサンプル(140S)のサブセットを選択する動作と、
    前記補助トレーニングサンプル(140S)のサブセットを用いて、局所解釈可能モデル(190)をトレーニングする動作とを含む、システム(100)。
  12. 前記インスタンスごとの重み推定器モデル(160)をトレーニングする動作は、
    強化信号(226)を決定する動作と、
    前記強化信号(226)に基づいて前記インスタンスごとの重み推定器モデル(160)を更新する動作とを含む、請求項11に記載のシステム(100)。
  13. 前記強化信号(226)を決定する動作は、
    損失関数(206)に基づいて前記局所解釈可能モデル(190)についての第1の損失データ(228a)を決定する動作と、
    前記損失関数(206)に基づいて前記ベースライン解釈可能モデル(150)についての第2の損失データ(228b)を決定する動作と、
    前記局所解釈可能モデル(190)についての前記第1の損失データ(228a)および前記ベースライン解釈可能モデル(150)についての前記第2の損失データ(228b)に基づいて前記強化信号(226)を決定する動作とを含む、請求項11または12に記載のシステム(100)。
  14. 前記補助トレーニングサンプル(140)のセットから前記補助トレーニングサンプル(140S)のサブセットを選択する動作は、前記補助トレーニングサンプル(140)のセット内の各補助トレーニングサンプル(140)ごとに、
    前記選択確率(170)に基づいて、選択または選択なしを示す対応する選択値(244)を決定する動作と、
    前記対応する選択値(244)が選択を示す場合、前記補助トレーニングサンプル(140)を前記補助トレーニングサンプル(146)のサブセットに追加する動作とを含む、請求項11から13のいずれか1項に記載のシステム(100)。
  15. 各補助トレーニングサンプル(140)ごとに、前記補助トレーニングサンプル(140)についての前記選択確率(170)を決定する動作は、
    前記インスタンスごとの重み推定器モデル(160)において、検証サンプル(242)を受取る動作と、
    前記インスタンスごとの重み推定器モデル(160)によって、前記検証サンプル(242)に基づいて前記選択確率(170)を決定する動作とを含む、請求項14に記載のシステム(100)。
  16. 前記以下の動作はさらに、前記インスタンスごとの重み推定器モデル(160)をトレーニングした後、
    前記インスタンスごとの重み推定器モデル(160)において、検証サンプル(242)を受取る動作と、
    前記インスタンスごとの重み推定器モデル(160)によって、前記補助トレーニングサンプル(140)のセット内の各補助トレーニングサンプル(140)ごとに前記選択確率(170)を生成する動作と、
    前記検証サンプル(242)と前記補助トレーニングサンプル(140)のセット内の各補助トレーニングサンプル(140)の前記選択確率(170)とに基づいて、前記局所解釈可能モデル(190)をトレーニングする動作とをさらに含む、請求項11から15のいずれか1項に記載のシステム(100)。
  17. 前記ブラックボックスモデル(120)をトレーニングする動作は、平均二乗誤差損失関数(206)または交差エントロピー損失関数(206)を最小化する動作を含む、請求項11から16のいずれか1項に記載のシステム(100)。
  18. 前記トレーニングサンプル(130)のセット内の各トレーニングサンプル(130)は、トレーニングデータ(202)および所与のラベル(204)を含む、請求項11から17のいずれか1項に記載のシステム(100)。
  19. 前記補助トレーニングサンプル(140)のセットを生成する動作は、前記トレーニングサンプル(130)のセット内の各トレーニングサンプル(130)ごとに、
    前記トレーニングサンプル(130)の前記トレーニングデータ(202)を用いて、前記トレーニングされたブラックボックスモデル(120)から、前記トレーニングデータ(202)についての予測ラベル(208)を取得する動作と、
    前記トレーニングデータ(202)と前記予測ラベル(208)とを組合わせて補助トレーニングサンプル(140)にする動作と、
    前記補助トレーニングサンプル(140)を前記補助トレーニングサンプル(140)のセットに追加する動作とを含む、請求項18に記載のシステム(100)。
  20. 前記インスタンスごとの重み推定器モデル(160)をトレーニングする動作は、
    プローブトレーニングサンプル(222)のセットを取得する動作と、
    前記プローブトレーニングサンプル(222)のセット内の各プローブトレーニングサンプル(222)ごとに、選択確率(170)を決定する動作と、
    各プローブトレーニングサンプル(222)の前記選択確率(170)に基づいて、インスタンスごとの選択ベクトル(224)を決定する動作と、
    前記インスタンスごとの選択ベクトル(224)に基づいて前記局所解釈可能モデル(190)を最適化する動作と、
    前記最適化された局所解釈可能モデル(190)からの損失データ(228a)に基づいて、前記インスタンスごとの重み推定器モデル(160)を更新する動作とを含む、請求項11から19のいずれか1項に記載のシステム(100)。
JP2022518774A 2019-09-24 2020-09-23 強化学習ベースの局所解釈可能モデル Active JP7304488B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962904977P 2019-09-24 2019-09-24
US62/904,977 2019-09-24
PCT/US2020/052326 WO2021061861A2 (en) 2019-09-24 2020-09-23 Reinforcement learning based locally interpretable models

Publications (2)

Publication Number Publication Date
JP2022549316A true JP2022549316A (ja) 2022-11-24
JP7304488B2 JP7304488B2 (ja) 2023-07-06

Family

ID=73139392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022518774A Active JP7304488B2 (ja) 2019-09-24 2020-09-23 強化学習ベースの局所解釈可能モデル

Country Status (6)

Country Link
US (2) US11403490B2 (ja)
EP (1) EP4035092A2 (ja)
JP (1) JP7304488B2 (ja)
KR (1) KR20220054410A (ja)
CN (1) CN114467095A (ja)
WO (1) WO2021061861A2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11651276B2 (en) * 2019-10-31 2023-05-16 International Business Machines Corporation Artificial intelligence transparency
US11487650B2 (en) * 2020-05-22 2022-11-01 International Business Machines Corporation Diagnosing anomalies detected by black-box machine learning models
CN113989574B (zh) * 2021-11-04 2024-04-02 中国科学技术大学 图像解释方法、图像解释装置、电子设备和存储介质
US11880648B2 (en) * 2021-11-22 2024-01-23 Adobe Inc. Automatic semantic labeling of form fields with limited annotations
KR20240043355A (ko) 2022-09-27 2024-04-03 한국전자기술연구원 강화학습기반 다중충실도 모델링 방법 및 장치
KR20240045603A (ko) 2022-09-30 2024-04-08 한국전자기술연구원 고충실도 물리모델 실시간 사용을 위한 지능형 데이터 생성 방법 및 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180158552A1 (en) * 2016-12-01 2018-06-07 University Of Southern California Interpretable deep learning framework for mining and predictive modeling of health care data
JP2019079302A (ja) * 2017-10-25 2019-05-23 日本電気株式会社 営業活動支援システム、営業活動支援方法および営業活動支援プログラム
JP2019125240A (ja) * 2018-01-18 2019-07-25 株式会社日立製作所 分析装置および分析方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5805730A (en) * 1995-08-08 1998-09-08 Apple Computer, Inc. Method for training an adaptive statistical classifier with improved learning of difficult samples
US9508347B2 (en) * 2013-07-10 2016-11-29 Tencent Technology (Shenzhen) Company Limited Method and device for parallel processing in model training
US9767410B1 (en) 2014-10-03 2017-09-19 Google Inc. Rank-constrained neural networks
CN108280462A (zh) * 2017-12-11 2018-07-13 北京三快在线科技有限公司 一种模型训练方法及装置,电子设备
US11321612B2 (en) * 2018-01-30 2022-05-03 D5Ai Llc Self-organizing partially ordered networks and soft-tying learned parameters, such as connection weights
US10698766B2 (en) * 2018-04-18 2020-06-30 EMC IP Holding Company LLC Optimization of checkpoint operations for deep learning computing
US11704567B2 (en) * 2018-07-13 2023-07-18 Intel Corporation Systems and methods for an accelerated tuning of hyperparameters of a model using a machine learning-based tuning service

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180158552A1 (en) * 2016-12-01 2018-06-07 University Of Southern California Interpretable deep learning framework for mining and predictive modeling of health care data
JP2019079302A (ja) * 2017-10-25 2019-05-23 日本電気株式会社 営業活動支援システム、営業活動支援方法および営業活動支援プログラム
JP2019125240A (ja) * 2018-01-18 2019-07-25 株式会社日立製作所 分析装置および分析方法

Also Published As

Publication number Publication date
WO2021061861A2 (en) 2021-04-01
WO2021061861A3 (en) 2021-05-20
US20220327328A1 (en) 2022-10-13
US11403490B2 (en) 2022-08-02
US20210089828A1 (en) 2021-03-25
JP7304488B2 (ja) 2023-07-06
KR20220054410A (ko) 2022-05-02
CN114467095A (zh) 2022-05-10
EP4035092A2 (en) 2022-08-03

Similar Documents

Publication Publication Date Title
JP7304488B2 (ja) 強化学習ベースの局所解釈可能モデル
JP7303377B2 (ja) ラベルノイズが存在する状態でのロバストな訓練
US11694109B2 (en) Data processing apparatus for accessing shared memory in processing structured data for modifying a parameter vector data structure
US10803377B2 (en) Content presentation based on a multi-task neural network
JP7342242B2 (ja) 学習を転移させるための学習のためのフレームワーク
US11823480B2 (en) Method for training image classification model and apparatus for executing the same
US11823058B2 (en) Data valuation using reinforcement learning
CN113785314A (zh) 使用标签猜测对机器学习模型进行半监督训练
CN111008689B (zh) 使用softmax近似来减少神经网络推理时间
US11948387B2 (en) Optimized policy-based active learning for content detection
WO2023061107A1 (zh) 基于层预测的语言翻译的方法、设备、装置和介质
US11995403B2 (en) Teaching a machine classifier to recognize a new class
US20230136609A1 (en) Method and apparatus for unsupervised domain adaptation
US20240169707A1 (en) Forecasting Uncertainty in Machine Learning Models
US20220108219A1 (en) Approximate Bayesian Logistic Regression For Sparse Online Learning
WO2024112887A1 (en) Forward-forward training for machine learning
CN115335831A (zh) 用于训练稀疏神经网络同时保持稀疏性的系统和方法
CN111932287A (zh) 数据合作处理方法、装置、电子设备及计算机存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220620

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230626

R150 Certificate of patent or registration of utility model

Ref document number: 7304488

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150