JP2022549316A - 強化学習ベースの局所解釈可能モデル - Google Patents
強化学習ベースの局所解釈可能モデル Download PDFInfo
- Publication number
- JP2022549316A JP2022549316A JP2022518774A JP2022518774A JP2022549316A JP 2022549316 A JP2022549316 A JP 2022549316A JP 2022518774 A JP2022518774 A JP 2022518774A JP 2022518774 A JP2022518774 A JP 2022518774A JP 2022549316 A JP2022549316 A JP 2022549316A
- Authority
- JP
- Japan
- Prior art keywords
- training
- model
- training samples
- samples
- auxiliary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000002787 reinforcement Effects 0.000 title claims description 19
- 238000012549 training Methods 0.000 claims abstract description 370
- 238000000034 method Methods 0.000 claims abstract description 42
- 239000000523 sample Substances 0.000 claims description 111
- 230000006870 function Effects 0.000 claims description 40
- 238000012545 processing Methods 0.000 claims description 36
- 230000015654 memory Effects 0.000 claims description 33
- 230000000153 supplemental effect Effects 0.000 claims description 23
- 238000010200 validation analysis Methods 0.000 claims description 20
- 239000013598 vector Substances 0.000 claims description 17
- 238000004891 communication Methods 0.000 claims description 3
- 235000000332 black box Nutrition 0.000 description 38
- 238000010586 diagram Methods 0.000 description 12
- 238000004590 computer program Methods 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 8
- 230000003993 interaction Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000003066 decision tree Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000003090 exacerbative effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/045—Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2115—Selection of the most significant subset of features by evaluating different subsets according to an optimisation criterion, e.g. class separability, forward selection or backward elimination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2193—Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19147—Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Medical Informatics (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Cable Transmission Systems, Equalization Of Radio And Reduction Of Echo (AREA)
- Medical Treatment And Welfare Office Work (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
人工知能は急速なペースで進歩しており、特に、ディープニューラルネットワークおよびアンサンブル法が近年進歩している。この発展は、多くのパラメータ間の複雑で非線形の相互作用によって意思決定を制御している「ブラックボックス」機械学習モデルによって促進されてきた。この複雑な相互作用により、ユーザが理解および解釈するべき機械学習モデルの使用が困難になる。多くの現実世界で適用される場合、機械学習モデルは、十分に機能することが期待されているだけでなく、解釈可能であることも求められている。機械学習モデルの性能と解釈可能性とは両立し難しいことが多く、解釈可能性のレベルが高い機械学習モデルは性能の低下に見舞われている。
本開示の一局面は、強化学習ベースの局所解釈可能モデルのための方法を提供する。当該方法は、データ処理ハードウェアにおいて、トレーニングサンプルのセットを取得するステップと、当該データ処理ハードウェアによって、当該トレーニングサンプルのセットを用いて、ブラックボックスモデルをトレーニングするステップとを含む。当該方法はまた、当該データ処理ハードウェアによって、当該トレーニングされたブラックボックスモデルおよび当該トレーニングサンプルのセットを用いて、補助トレーニングサンプルのセットを生成するステップを含む。当該方法はまた、当該データ処理ハードウェアによって、当該補助トレーニングサンプルのセットを用いて、ベースライン解釈可能モデルをトレーニングするステップと、当該データ処理ハードウェアによって、当該補助トレーニングサンプルのセットおよび当該ベースライン解釈可能モデルを用いて、インスタンスごとの重み推定器モデルをトレーニングするステップとを含む。当該方法はまた、当該補助トレーニングサンプルのセット内の各補助トレーニングサンプルごとに、当該データ処理ハードウェアによって、当該トレーニングされたインスタンスごとの重み推定器モデルを用いて、当該補助トレーニングサンプルについての選択確率を決定するステップを含む。当該方法はまた、当該データ処理ハードウェアによって、当該選択確率に基づいて、当該補助トレーニングサンプルのセットから補助トレーニングサンプルのサブセットを選択するステップと、当該データ処理ハードウェアによって、当該補助トレーニングサンプルのサブセットを用いて、当該局所解釈可能モデルをトレーニングするステップとを含む。
詳細な説明
多くの現実世界で適用される場合、人工知能(artificial intelligence:AI)システムは、十分に機能するだけではなく解釈可能であることも期待されている。たとえば、医師らは特定の治療が推奨される理由を理解する必要があり、金融機関は融資が拒否された理由を理解する必要がある。多くの場合、AIシステムでは、システムの性能と解釈可能性とが両立し難しい。特に、全体解釈可能なモデルは、モデル挙動全体を説明しようと試みるものであるが、典型的には、性能がブラックボックスモデルよりも大幅に劣ったものとなる。しかしながら、全体解釈可能なモデルについての有利な代替案は局所解釈可能モデルを含み得る。
いくつかの実現例では、サンプラ180は、微分不可能な目標をもたらし、従来の勾配降下ベースの最適化を用いてもインスタンスごとの重み推定器160をトレーニングすることができない。代わりに、モデルトレーナ110は強化アルゴリズムを利用することで、その影響の成果によってサンプラ180の選択が与えられるようにする。いくつかの例では、損失関数206は、最適化された局所解釈可能モデル190からの損失データに基づいて、インスタンスごとの重み推定器モデル160を更新する。インスタンスごとの重み推定器160についての損失関数は以下のように表わされ得る。
Claims (20)
- 局所解釈可能モデル(190)をトレーニングするための方法(300)であって、前記方法(300)は、
データ処理ハードウェア(12)において、トレーニングサンプル(130)のセットを取得するステップと、
前記データ処理ハードウェア(12)によって、前記トレーニングサンプル(130)のセットを用いて、ブラックボックスモデル(120)をトレーニングするステップと、
前記データ処理ハードウェア(12)によって、前記トレーニングされたブラックボックスモデル(120)および前記トレーニングサンプル(130)のセットを用いて、補助トレーニングサンプル(140)のセットを生成するステップと、
前記データ処理ハードウェア(12)によって、前記補助トレーニングサンプル(140)のセットを用いて、ベースライン解釈可能モデル(150)をトレーニングするステップと、
前記データ処理ハードウェア(12)によって、前記補助トレーニングサンプル(140)のセットおよび前記ベースライン解釈可能モデル(150)を用いて、インスタンスごとの重み推定器モデル(160)をトレーニングするステップと、
前記補助トレーニングサンプル(140)のセット内の各補助トレーニングサンプル(140)ごとに、前記データ処理ハードウェア(12)によって、前記トレーニングされたインスタンスごとの重み推定器モデル(160)を用いて、前記補助トレーニングサンプル(140)についての選択確率(170)を決定するステップと、
前記データ処理ハードウェア(12)によって、前記選択確率(170)に基づいて、前記補助トレーニングサンプル(140)のセットから補助トレーニングサンプル(140S)のサブセットを選択するステップと、
前記データ処理ハードウェア(12)によって、前記補助トレーニングサンプル(140S)のサブセットを用いて、前記局所解釈可能モデル(190)をトレーニングするステップとを含む、方法(300)。 - 前記インスタンスごとの重み推定器モデル(160)をトレーニングするステップは、
強化信号(226)を決定するステップと、
前記強化信号(226)に基づいて前記インスタンスごとの重み推定器モデル(160)を更新するステップとを含む、請求項1に記載の方法(300)。 - 前記強化信号(226)を決定するステップは、
損失関数(206)に基づいて前記局所解釈可能モデル(190)についての第1の損失データ(228a)を決定するステップと、
前記損失関数(206)に基づいて前記ベースライン解釈可能モデル(150)についての第2の損失データ(228b)を決定するステップと、
前記局所解釈可能モデル(190)についての前記第1の損失データ(228a)および前記ベースライン解釈可能モデル(150)についての前記第2の損失データ(228b)に基づいて前記強化信号(226)を決定するステップとを含む、請求項1または2に記載の方法(300)。 - 前記補助トレーニングサンプル(140)のセットから前記補助トレーニングサンプル(140S)のサブセットを選択するステップは、前記補助トレーニングサンプル(140)のセット内の各補助トレーニングサンプル(140)ごとに、
前記選択確率(170)に基づいて、選択または選択なしを示す対応する選択値(244)を決定するステップと、
前記対応する選択値(244)が選択を示す場合、前記補助トレーニングサンプル(140)を前記補助トレーニングサンプル(140S)のサブセットに追加するステップとを含む、請求項1から3のいずれか1項に記載の方法(300)。 - 各補助トレーニングサンプル(140)ごとに、前記補助トレーニングサンプル(140)についての前記選択確率(170)を決定するステップは、
前記インスタンスごとの重み推定器モデル(160)において、検証サンプル(242)を受取るステップと、
前記インスタンスごとの重み推定器モデル(160)によって、前記検証サンプル(242)に基づいて前記選択確率(170)を決定するステップとを含む、請求項4に記載の方法(300)。 - 前記インスタンスごとの重み推定器モデル(160)をトレーニングした後、
前記インスタンスごとの重み推定器モデル(160)において、検証サンプル(242)を受取るステップと、
前記インスタンスごとの重み推定器モデル(160)によって、前記補助トレーニングサンプル(140)のセット内の各補助トレーニングサンプル(140)ごとに前記選択確率(170)を生成するステップと、
前記検証サンプル(242)と、前記補助トレーニングサンプル(140)のセット内の各補助トレーニングサンプル(140)の前記選択確率(170)とに基づいて、前記局所解釈可能モデル(190)をトレーニングするステップとをさらに含む、請求項1から5のいずれか1項に記載の方法(300)。 - 前記ブラックボックスモデル(120)をトレーニングするステップは、平均二乗誤差損失関数(206)または交差エントロピー損失関数(206)を最小化するステップを含む、請求項1から6のいずれか1項に記載の方法(300)。
- 前記トレーニングサンプル(130)のセット内の各トレーニングサンプル(130)は、トレーニングデータ(202)および所与のラベル(204)を含む、請求項1から7のいずれか1項に記載の方法(300)。
- 前記補助トレーニングサンプル(140)のセットを生成するステップは、前記トレーニングサンプル(130)のセット内の各トレーニングサンプル(130)ごとに、
前記トレーニングサンプル(130)の前記トレーニングデータ(202)を用いて、前記トレーニングされたブラックボックスモデル(120)から、前記トレーニングデータ(202)についての予測ラベル(208)を取得するステップと、
前記トレーニングデータ(202)と前記予測ラベル(208)とを組合わせて補助トレーニングサンプル(140)にするステップと、
前記補助トレーニングサンプル(140)を前記補助トレーニングサンプル(140)のセットに追加するステップとを含む、請求項8に記載の方法(300)。 - 前記インスタンスごとの重み推定器モデル(160)をトレーニングするステップは、
プローブトレーニングサンプル(222)のセットを取得するステップと、
前記プローブトレーニングサンプル(222)のセット内の各プローブトレーニングサンプル(222)ごとに、選択確率(170)を決定するステップと、
各プローブトレーニングサンプル(222)の前記選択確率(170)に基づいて、インスタンスごとの選択ベクトル(224)を決定するステップと、
前記インスタンスごとの選択ベクトル(224)に基づいて前記局所解釈可能モデル(190)を最適化するステップと、
前記最適化された局所解釈可能モデル(190)からの損失データ(228a)に基づいて、前記インスタンスごとの重み推定器モデル(160)を更新するステップとを含む、請求項1から9のいずれか1項に記載の方法(300)。 - システム(100)であって、
データ処理ハードウェア(12)と、
前記データ処理ハードウェア(12)と通信するメモリハードウェア(14)とを含み、前記メモリハードウェア(14)は、前記データ処理ハードウェア(12)上で実行されると、前記データ処理ハードウェア(12)に、以下の動作を実行させる命令を格納しており、前記以下の動作は、
トレーニングサンプル(130)のセットを取得する動作と、
前記トレーニングサンプル(130)のセットを用いて、ブラックボックスモデル(120)をトレーニングする動作と、
前記トレーニングされたブラックボックスモデル(120)および前記トレーニングサンプル(130)のセットを用いて、補助トレーニングサンプル(140)のセットを生成する動作と、
前記補助トレーニングサンプル(140)のセットを用いて、ベースライン解釈可能モデル(150)をトレーニングする動作と、
前記補助トレーニングサンプル(140)のセットおよび前記ベースライン解釈可能モデル(150)を用いて、インスタンスごとの重み推定器モデル(160)をトレーニングする動作と、
前記補助トレーニングサンプル(140)のセット内の各補助トレーニングサンプル(140)ごとに、前記トレーニングされたインスタンスごとの重み推定器モデル(160)を用いて、前記補助トレーニングサンプル(140)についての選択確率(170)を決定する動作と、
前記選択確率(170)に基づいて、前記補助トレーニングサンプル(140)のセットから補助トレーニングサンプル(140S)のサブセットを選択する動作と、
前記補助トレーニングサンプル(140S)のサブセットを用いて、局所解釈可能モデル(190)をトレーニングする動作とを含む、システム(100)。 - 前記インスタンスごとの重み推定器モデル(160)をトレーニングする動作は、
強化信号(226)を決定する動作と、
前記強化信号(226)に基づいて前記インスタンスごとの重み推定器モデル(160)を更新する動作とを含む、請求項11に記載のシステム(100)。 - 前記強化信号(226)を決定する動作は、
損失関数(206)に基づいて前記局所解釈可能モデル(190)についての第1の損失データ(228a)を決定する動作と、
前記損失関数(206)に基づいて前記ベースライン解釈可能モデル(150)についての第2の損失データ(228b)を決定する動作と、
前記局所解釈可能モデル(190)についての前記第1の損失データ(228a)および前記ベースライン解釈可能モデル(150)についての前記第2の損失データ(228b)に基づいて前記強化信号(226)を決定する動作とを含む、請求項11または12に記載のシステム(100)。 - 前記補助トレーニングサンプル(140)のセットから前記補助トレーニングサンプル(140S)のサブセットを選択する動作は、前記補助トレーニングサンプル(140)のセット内の各補助トレーニングサンプル(140)ごとに、
前記選択確率(170)に基づいて、選択または選択なしを示す対応する選択値(244)を決定する動作と、
前記対応する選択値(244)が選択を示す場合、前記補助トレーニングサンプル(140)を前記補助トレーニングサンプル(146)のサブセットに追加する動作とを含む、請求項11から13のいずれか1項に記載のシステム(100)。 - 各補助トレーニングサンプル(140)ごとに、前記補助トレーニングサンプル(140)についての前記選択確率(170)を決定する動作は、
前記インスタンスごとの重み推定器モデル(160)において、検証サンプル(242)を受取る動作と、
前記インスタンスごとの重み推定器モデル(160)によって、前記検証サンプル(242)に基づいて前記選択確率(170)を決定する動作とを含む、請求項14に記載のシステム(100)。 - 前記以下の動作はさらに、前記インスタンスごとの重み推定器モデル(160)をトレーニングした後、
前記インスタンスごとの重み推定器モデル(160)において、検証サンプル(242)を受取る動作と、
前記インスタンスごとの重み推定器モデル(160)によって、前記補助トレーニングサンプル(140)のセット内の各補助トレーニングサンプル(140)ごとに前記選択確率(170)を生成する動作と、
前記検証サンプル(242)と前記補助トレーニングサンプル(140)のセット内の各補助トレーニングサンプル(140)の前記選択確率(170)とに基づいて、前記局所解釈可能モデル(190)をトレーニングする動作とをさらに含む、請求項11から15のいずれか1項に記載のシステム(100)。 - 前記ブラックボックスモデル(120)をトレーニングする動作は、平均二乗誤差損失関数(206)または交差エントロピー損失関数(206)を最小化する動作を含む、請求項11から16のいずれか1項に記載のシステム(100)。
- 前記トレーニングサンプル(130)のセット内の各トレーニングサンプル(130)は、トレーニングデータ(202)および所与のラベル(204)を含む、請求項11から17のいずれか1項に記載のシステム(100)。
- 前記補助トレーニングサンプル(140)のセットを生成する動作は、前記トレーニングサンプル(130)のセット内の各トレーニングサンプル(130)ごとに、
前記トレーニングサンプル(130)の前記トレーニングデータ(202)を用いて、前記トレーニングされたブラックボックスモデル(120)から、前記トレーニングデータ(202)についての予測ラベル(208)を取得する動作と、
前記トレーニングデータ(202)と前記予測ラベル(208)とを組合わせて補助トレーニングサンプル(140)にする動作と、
前記補助トレーニングサンプル(140)を前記補助トレーニングサンプル(140)のセットに追加する動作とを含む、請求項18に記載のシステム(100)。 - 前記インスタンスごとの重み推定器モデル(160)をトレーニングする動作は、
プローブトレーニングサンプル(222)のセットを取得する動作と、
前記プローブトレーニングサンプル(222)のセット内の各プローブトレーニングサンプル(222)ごとに、選択確率(170)を決定する動作と、
各プローブトレーニングサンプル(222)の前記選択確率(170)に基づいて、インスタンスごとの選択ベクトル(224)を決定する動作と、
前記インスタンスごとの選択ベクトル(224)に基づいて前記局所解釈可能モデル(190)を最適化する動作と、
前記最適化された局所解釈可能モデル(190)からの損失データ(228a)に基づいて、前記インスタンスごとの重み推定器モデル(160)を更新する動作とを含む、請求項11から19のいずれか1項に記載のシステム(100)。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962904977P | 2019-09-24 | 2019-09-24 | |
US62/904,977 | 2019-09-24 | ||
PCT/US2020/052326 WO2021061861A2 (en) | 2019-09-24 | 2020-09-23 | Reinforcement learning based locally interpretable models |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022549316A true JP2022549316A (ja) | 2022-11-24 |
JP7304488B2 JP7304488B2 (ja) | 2023-07-06 |
Family
ID=73139392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022518774A Active JP7304488B2 (ja) | 2019-09-24 | 2020-09-23 | 強化学習ベースの局所解釈可能モデル |
Country Status (6)
Country | Link |
---|---|
US (2) | US11403490B2 (ja) |
EP (1) | EP4035092A2 (ja) |
JP (1) | JP7304488B2 (ja) |
KR (1) | KR20220054410A (ja) |
CN (1) | CN114467095A (ja) |
WO (1) | WO2021061861A2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11651276B2 (en) * | 2019-10-31 | 2023-05-16 | International Business Machines Corporation | Artificial intelligence transparency |
US11487650B2 (en) * | 2020-05-22 | 2022-11-01 | International Business Machines Corporation | Diagnosing anomalies detected by black-box machine learning models |
CN113989574B (zh) * | 2021-11-04 | 2024-04-02 | 中国科学技术大学 | 图像解释方法、图像解释装置、电子设备和存储介质 |
US11880648B2 (en) * | 2021-11-22 | 2024-01-23 | Adobe Inc. | Automatic semantic labeling of form fields with limited annotations |
KR20240043355A (ko) | 2022-09-27 | 2024-04-03 | 한국전자기술연구원 | 강화학습기반 다중충실도 모델링 방법 및 장치 |
KR20240045603A (ko) | 2022-09-30 | 2024-04-08 | 한국전자기술연구원 | 고충실도 물리모델 실시간 사용을 위한 지능형 데이터 생성 방법 및 장치 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180158552A1 (en) * | 2016-12-01 | 2018-06-07 | University Of Southern California | Interpretable deep learning framework for mining and predictive modeling of health care data |
JP2019079302A (ja) * | 2017-10-25 | 2019-05-23 | 日本電気株式会社 | 営業活動支援システム、営業活動支援方法および営業活動支援プログラム |
JP2019125240A (ja) * | 2018-01-18 | 2019-07-25 | 株式会社日立製作所 | 分析装置および分析方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5805730A (en) * | 1995-08-08 | 1998-09-08 | Apple Computer, Inc. | Method for training an adaptive statistical classifier with improved learning of difficult samples |
US9508347B2 (en) * | 2013-07-10 | 2016-11-29 | Tencent Technology (Shenzhen) Company Limited | Method and device for parallel processing in model training |
US9767410B1 (en) | 2014-10-03 | 2017-09-19 | Google Inc. | Rank-constrained neural networks |
CN108280462A (zh) * | 2017-12-11 | 2018-07-13 | 北京三快在线科技有限公司 | 一种模型训练方法及装置,电子设备 |
US11321612B2 (en) * | 2018-01-30 | 2022-05-03 | D5Ai Llc | Self-organizing partially ordered networks and soft-tying learned parameters, such as connection weights |
US10698766B2 (en) * | 2018-04-18 | 2020-06-30 | EMC IP Holding Company LLC | Optimization of checkpoint operations for deep learning computing |
US11704567B2 (en) * | 2018-07-13 | 2023-07-18 | Intel Corporation | Systems and methods for an accelerated tuning of hyperparameters of a model using a machine learning-based tuning service |
-
2020
- 2020-09-23 EP EP20803323.3A patent/EP4035092A2/en active Pending
- 2020-09-23 CN CN202080066799.8A patent/CN114467095A/zh active Pending
- 2020-09-23 US US17/030,316 patent/US11403490B2/en active Active
- 2020-09-23 WO PCT/US2020/052326 patent/WO2021061861A2/en unknown
- 2020-09-23 JP JP2022518774A patent/JP7304488B2/ja active Active
- 2020-09-23 KR KR1020227010816A patent/KR20220054410A/ko unknown
-
2022
- 2022-06-29 US US17/809,798 patent/US20220327328A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180158552A1 (en) * | 2016-12-01 | 2018-06-07 | University Of Southern California | Interpretable deep learning framework for mining and predictive modeling of health care data |
JP2019079302A (ja) * | 2017-10-25 | 2019-05-23 | 日本電気株式会社 | 営業活動支援システム、営業活動支援方法および営業活動支援プログラム |
JP2019125240A (ja) * | 2018-01-18 | 2019-07-25 | 株式会社日立製作所 | 分析装置および分析方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2021061861A2 (en) | 2021-04-01 |
WO2021061861A3 (en) | 2021-05-20 |
US20220327328A1 (en) | 2022-10-13 |
US11403490B2 (en) | 2022-08-02 |
US20210089828A1 (en) | 2021-03-25 |
JP7304488B2 (ja) | 2023-07-06 |
KR20220054410A (ko) | 2022-05-02 |
CN114467095A (zh) | 2022-05-10 |
EP4035092A2 (en) | 2022-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7304488B2 (ja) | 強化学習ベースの局所解釈可能モデル | |
JP7303377B2 (ja) | ラベルノイズが存在する状態でのロバストな訓練 | |
US11694109B2 (en) | Data processing apparatus for accessing shared memory in processing structured data for modifying a parameter vector data structure | |
US10803377B2 (en) | Content presentation based on a multi-task neural network | |
JP7342242B2 (ja) | 学習を転移させるための学習のためのフレームワーク | |
US11823480B2 (en) | Method for training image classification model and apparatus for executing the same | |
US11823058B2 (en) | Data valuation using reinforcement learning | |
CN113785314A (zh) | 使用标签猜测对机器学习模型进行半监督训练 | |
CN111008689B (zh) | 使用softmax近似来减少神经网络推理时间 | |
US11948387B2 (en) | Optimized policy-based active learning for content detection | |
WO2023061107A1 (zh) | 基于层预测的语言翻译的方法、设备、装置和介质 | |
US11995403B2 (en) | Teaching a machine classifier to recognize a new class | |
US20230136609A1 (en) | Method and apparatus for unsupervised domain adaptation | |
US20240169707A1 (en) | Forecasting Uncertainty in Machine Learning Models | |
US20220108219A1 (en) | Approximate Bayesian Logistic Regression For Sparse Online Learning | |
WO2024112887A1 (en) | Forward-forward training for machine learning | |
CN115335831A (zh) | 用于训练稀疏神经网络同时保持稀疏性的系统和方法 | |
CN111932287A (zh) | 数据合作处理方法、装置、电子设备及计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220620 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220620 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230530 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230531 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230626 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7304488 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |