JP7459406B2 - 学習済みモデル検証システム - Google Patents
学習済みモデル検証システム Download PDFInfo
- Publication number
- JP7459406B2 JP7459406B2 JP2023577548A JP2023577548A JP7459406B2 JP 7459406 B2 JP7459406 B2 JP 7459406B2 JP 2023577548 A JP2023577548 A JP 2023577548A JP 2023577548 A JP2023577548 A JP 2023577548A JP 7459406 B2 JP7459406 B2 JP 7459406B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- verification
- trained model
- data set
- rule
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010200 validation analysis Methods 0.000 title claims description 10
- 238000012795 verification Methods 0.000 claims description 141
- 238000004364 calculation method Methods 0.000 claims description 32
- 238000011156 evaluation Methods 0.000 claims description 27
- 238000010586 diagram Methods 0.000 claims description 26
- 238000006243 chemical reaction Methods 0.000 claims description 15
- 238000013461 design Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 description 57
- 238000012545 processing Methods 0.000 description 38
- 238000005516 engineering process Methods 0.000 description 30
- 238000003066 decision tree Methods 0.000 description 24
- 238000000034 method Methods 0.000 description 16
- 238000012549 training Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 239000008186 active pharmaceutical agent Substances 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 9
- 238000013178 mathematical model Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000012360 testing method Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 4
- 101001139126 Homo sapiens Krueppel-like factor 6 Proteins 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000013067 intermediate product Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/30—Monitoring
- G06F11/34—Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Description
しかし、決定木から構成されるアルゴリズム以外のアルゴリズムに基づいたプログラム又は数理モデルに対しても、決定木のフレームワークで検証を行いたい、というニーズがある。
本明細書において用いられる「ルールモデル」の用語は、If-Thenルールで表現された数理モデルを意味する。ルールモデルには、例えば、単一の決定木、及び決定リストが含まれる。
本明細書では、検証条件TCを満たさない入力値と出力値との組に対して、「この組は、検証条件TCに違反する」という表現が用いられる。入力値と出力値とに関する或るルールが検証条件TCを満たさない場合も、「このルールは、検証条件TCに違反する」という表現が用いられる。
図2は、検証条件TCの例を示した説明図である。図2において、x0は入力値である。また図2において、yは出力値である。図2に示されるとおり検証条件TCは、入力値と出力値との組が満たすべき条件を示している。
図1は、実施の形態1に係る学習済みモデル検証システム1000の機能構成を示したブロック図である。図1に示されるとおり実施の形態1に係る学習済みモデル検証システム1000は、記憶装置200と、前処理装置300と、出力装置400と、検証装置100と、を備える。
図1に示されるとおり実施の形態1に係る学習済みモデル検証システム1000の前処理装置300は、前処理用データセット生成部310と、ルールモデル変換部320と、を含む。
図1に示されるとおり実施の形態1に係る学習済みモデル検証システム1000の検証装置100は、検証用データセット生成部110と、検証部120と、違反度合算出部130と、検証結果出力部140と、を含む。
実施の形態1に係る学習済みモデル検証システム1000は、各機能ブロックが図1に示されるとおり接続されている。
検証装置100は、ルールモデルに変換された学習済みモデルAI(以降、「学習済みのルールモデル」と称する。)を検証するための構成要素である。検証装置100は、学習済みのルールモデルを検証するために必要な計算を行う。検証装置100で検証された結果は、出力装置400を介して出力される。
記憶装置200は、検証対象である学習済みモデルAI、学習用データサンプルDS、及び検証条件TCを格納するための構成要素である。
記憶装置200は、通信ネットワーク上に配置された単数又は複数のネットワークストレージ装置であってもよい。この場合、学習済みモデル検証システム1000は、ネットワークを介して記憶装置200へアクセスする。
前処理装置300は、検証対象である学習済みモデルAIについて前処理を行うための構成要素である。具体的に前処理装置300は、学習済みモデルAIをルールモデルに変換する。すなわちここで用いられる「前処理」との用語は、具体的には、ルールモデルへの変換を意味する。
学習済みモデルAIが既にルールモデルであるときは、前処理装置300の処理が省略される。
出力装置400は、検証装置100の出力結果を、外部へ出力するための構成要素である。
図1に示されるとおり、記憶装置200に格納されている学習済みモデルAIは、前処理装置300の前処理用データセット生成部310へ送られる。
前処理用データセット生成部310は、学習済みモデルAIをルールモデルに変換するにあたり、前処理用データセットD1を生成するための構成要素である。前処理用データセットD1は、前処理用のデータセットである。データセットは、入力データと、入力データのそれぞれに対応する出力からなる出力データと、からなるセットである。
前処理用データセットD1のうちの入力データは、学習済みモデルAIの分岐条件の境界値を考慮に入れて作成される。
前処理用データセット生成部310で生成された前処理用データセットD1は、ルールモデル変換部320へ送られる。
図3における2つの黒色の四角いプロットは、それぞれ学習済みモデルAIの学習用データサンプルDSを表している。
図4に示されたようにハッチングがなされた領域が、或るカテゴリを示す領域として学習されたということは、学習用データセットの中に、ハッチングがなされた領域中の境界付近のプロットに対応するものがあったはずだ、と予想できる。
しかし、特徴量空間において或るカテゴリを示す領域の境界形状が、本来は複雑であるにもかかわらず、線形のサポートベクターマシン等で作られ単純化されることがある。
図4は、カテゴリを示す領域の境界付近に対応する入力に対し、学習済みモデルAIが正しい推論をするか検証をすることが重要であることを示している。
特徴量空間を用いて次に行うべきことは、或るカテゴリを示す領域の境界付近に学習用データサンプルDSのプロットがなかった場合、逆算して、領域の境界付近に特徴量がプロットされるデータセットを作成する、というものである。学習済みモデルAIがニューラルネットワークである場合、この逆算は、バックプロパゲーションを応用して行うとよい。
逆算して生成された学習用データセットは、学習用データセットとして意味があるものなのか、最終的にはヒトが見て判断するとよい。例えば、学習済みモデルAIが画像認識を行うCNNである場合、逆算して生成した画像と正解ラベルとが意味をなすか、最終的にはヒトが見て判断する。
図4では、既存の学習用データサンプルDSのプロット(白色の四角いプロット)を基点として、領域の境界付近のプロットを作成したが、本開示技術はこれに限定されない。図5に示されるように本開示技術は、既存の学習用データサンプルDSのプロット(白色の四角いプロット)に依らず、領域の境界付近のプロットを作成してもよい。
領域の境界付近に対応する学習データの生成は、学習済みモデルAIが分類問題を解く場合、すべてのカテゴリについて実施するとよい。
前処理用データセット生成部310において生成され、ヒトが見て意味のあると判断された学習用データセットは、本明細書では前処理用データセットD1と称することとする。前処理用データセットD1は、説明変数xと目的変数yensembleとから構成されているとする。前処理用データセットD1は、ルールモデル変換部320へ送られる。
ルールモデル変換部320は、学習済みモデルAIをルールモデルの形で再現するルールモデルD2を生成する。
前述のとおり学習済みモデルAIが既にルールモデルであるときは、前処理装置300の処理が省略される。前処理装置300で生成されたルールモデルD2は、検証装置100の検証用データセット生成部110へと送られる。
検証用データセット生成部110は、ルールモデルD2の検証用データセットを生成するための構成要素である。
カテゴリを示す領域の境界付近に検証用データのプロットがなかった場合、逆算して、領域の境界付近に特徴量がプロットされるデータセットを作成するとよい。逆算による検証用データセットの生成は、逆算による学習用データセットの生成と同様の方法で行うとよい。
検証用データセット生成部110において生成され、ヒトが見て意味のあると判断された学習用データセットは、本明細書では検証用データセットD3と称することとする。検証用データセットD3は、説明変数xtestと目的変数ytestとから構成されているとする。検証用データセットD3は、検証部120へ送られる。
検証部120で実施される検証では、もともと準備していた検証用データセットと、検証用データセット生成部110で生成された検証用データセットD3と、が用いられる。
また検証部120で実施される検証では、学習済みモデルAIが学習により得た各カテゴリの領域の予測範囲を数式で表現した検証条件TCを参照して行ってもよい。
検証部120は、検証結果をD4として、違反度合算出部130へ出力する。
また違反度合算出部130は、学習済みモデルAIの評価指標として、違反度合を算出してもよい。ここで違反度合は、或るカテゴリに正解ラベルが属する検証用データセットD3の数を分母として、その検証用データセットD3のうち、学習済みモデルAIが誤った分類を行った数を分子とした値であってよい。また違反度合は、学習済みモデル検証システムの利用者が、適宜、定めたものでもよい。
違反度合算出部130で求めた違反度合は、違反度合いD5と称する。違反度合いD5は、検証結果出力部140へ送られる。
違反度合算出部130が求める評価指標を違反度合いD5としたが、本開示技術はこれに限定されない。違反度合算出部130は、評価指標として、正解率(Accuracy)、適合率(Precision)、再現率(Recall)、特異率(Specificity)、及びF値(F-measure)のうちいずれを選んでもよい。
検証結果出力部140は、図7に示すように、違反度合に応じて、ツリーの枝にあたるパスの太さを変更し、ツリーの葉にあたるノードの色を変更してもよい。図7に示す例では、「Leaf2」と表示された葉において最も評価指標が悪く、パスが太く表示され、ノードの色が濃く表示されている。
ステップST1からステップST6までは、前処理装置300にて実施される処理工程である。
ステップST7からステップST12までは、検証装置100にて実施される処理工程である。
学習済みモデルAIがルールモデルか否かの判断は、学習済みモデルAIのソースコードを解析することで可能となる。本開示技術は、ソースコードの形の学習済みモデルAIを記憶装置200に格納する。
学習済みモデルAIについて全パスの分岐条件を抽出する処理は、学習済みモデルAIのソースコードを解析することで可能となる。
また、前処理用データセットD1を用いて学習済みモデルAIに追加学習をさせた後、ステップST1からステップST6までの処理は、複数回、繰り返して行われてもよい。
検証条件TCを参照した結果、違反がある場合(YESの場合)、処理工程はステップST10へ進む。違反がない場合(NOの場合)、処理工程は終了する。
図10に示されるとおり、本開示技術に係る学習済みモデル検証システム1000の各機能、特に前処理装置300及び検証装置100の各機能は、処理回路により実現される。すなわち学習済みモデル検証システム1000は、図9に示される処理ステップを実施するための処理回路を備える。処理回路は、専用のハードウエアであっても、メモリに格納されるプログラムを実行するCPU(Central Processing Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSPともいう)であってよい。
このように処理回路は、ハードウエア、ソフトウエア、ファームウエア、又はこれらの組合せによって、学習済みモデル検証システム1000の各機能を実現する。
また本開示技術に係る学習済みモデル検証システムは、学習済みモデルAIに対して、特徴量空間における領域の境界値を網羅するよう追加学習をさせることができ、学習済みモデルAIの正答率を向上できる、という効果を奏する。
実施の形態2で示す内容は、実施の形態1に係る学習済みモデル検証システムの変形例である。実施の形態2では、特に明記する場合を除き、実施の形態1で用いた符号と同じものが用いられる。実施の形態2では、実施の形態1と重複する説明が、適宜、省略される。
例えば、実施の形態2に係る学習済みモデル検証システムは、ルールモデル変換部320の処理において、ルールモデルD2におけるルール数の上限値を設けてもよい。ルールモデルD2におけるルール数の上限値は、設計パラメータとして、どの程度厳密に学習済みモデルAIと近似したルールモデルD2を作成するか、ということを調節できる。
実施の形態3で示す内容は、本開示技術に係る学習済みモデル検証システムの変形例である。実施の形態3では、特に明記する場合を除き、既出の実施の形態で用いた符号と同じものが用いられる。実施の形態3では、既出の実施の形態と重複する説明が、適宜、省略される。
学習済みモデルAIが解く問題を回帰問題だとした場合、違反度合算出部130が算出する評価指標は、回帰問題に適した評価指標であってよい。回帰問題における評価指標は、RMSE(Root Mean Squared Error)、RMSLE(Root Mean Squared Logarithmic Error)、MAE(Mean Absolute Error)、及び決定係数、等が考えられる。
また違反度合算出部130が算出する評価指標は、学習済みモデル検証システムの利用者が、適宜、定めたもの(例えば「乖離度」を定義してそれを用いる)でもよい。
なお、本開示技術に係る学習済みモデル検証システムは、各実施の形態に例示した態様に限定されず、各実施の形態を組み合わせし、実施の形態のそれぞれの任意の構成要素を変形し、又は実施の形態のそれぞれにおいて任意の構成要素を省略することができる。
Claims (4)
- 検証対象である学習済みモデルを、前記学習済みモデルと等価の入出力関係を有するルールモデルに変換するルールモデル変換部と、
前記ルールモデルの検証用データセットを生成する検証用データセット生成部と、
前記検証用データセットを用いて、前記ルールモデル又は前記学習済みモデルを検証する検証部と、を備える、
学習済みモデル検証システム。 - 前記検証用データセットを用いて、前記ルールモデル又は前記学習済みモデルの評価指標を算出する違反度合算出部と、
前記評価指標を、図、表、又はグラフとして表示できるフォーマットに変換して出力する検証結果出力部と、をさらに備える、
請求項1に記載の学習済みモデル検証システム。 - 前記フォーマットには、ツリーの態様が含まれる、
請求項2に記載の学習済みモデル検証システム。 - 前記ルールモデル変換部は、設計パラメータとしてルール数の上限値が設定可能である、
請求項1に記載の学習済みモデル検証システム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2022/007063 WO2023161972A1 (ja) | 2022-02-22 | 2022-02-22 | 学習済みモデル検証システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2023161972A1 JPWO2023161972A1 (ja) | 2023-08-31 |
JP7459406B2 true JP7459406B2 (ja) | 2024-04-01 |
Family
ID=87765108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023577548A Active JP7459406B2 (ja) | 2022-02-22 | 2022-02-22 | 学習済みモデル検証システム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7459406B2 (ja) |
WO (1) | WO2023161972A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020135171A (ja) | 2019-02-15 | 2020-08-31 | 株式会社日立製作所 | 機械学習プログラム検証装置および機械学習プログラム検証方法 |
CN111898692A (zh) | 2020-08-05 | 2020-11-06 | 清华大学 | 神经网络到决策树的转换方法、存储介质及电子设备 |
-
2022
- 2022-02-22 JP JP2023577548A patent/JP7459406B2/ja active Active
- 2022-02-22 WO PCT/JP2022/007063 patent/WO2023161972A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020135171A (ja) | 2019-02-15 | 2020-08-31 | 株式会社日立製作所 | 機械学習プログラム検証装置および機械学習プログラム検証方法 |
CN111898692A (zh) | 2020-08-05 | 2020-11-06 | 清华大学 | 神经网络到决策树的转换方法、存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2023161972A1 (ja) | 2023-08-31 |
JPWO2023161972A1 (ja) | 2023-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220215264A1 (en) | Heterogenous Neural Network | |
Liu et al. | Compositional visual generation with composable diffusion models | |
US11861307B2 (en) | Request paraphrasing system, request paraphrasing model and request determining model training method, and dialogue system | |
CA3037346C (en) | Transforming attributes for training automated modeling systems | |
US11468241B2 (en) | Techniques to add smart device information to machine learning for increased context | |
WO2020208444A1 (en) | Fairness improvement through reinforcement learning | |
US20180285969A1 (en) | Predictive model training and selection for consumer evaluation | |
US20220130499A1 (en) | Medical visual question answering | |
US20210303970A1 (en) | Processing data using multiple neural networks | |
US20190286978A1 (en) | Using natural language processing and deep learning for mapping any schema data to a hierarchical standard data model (xdm) | |
CN113723070B (zh) | 文本相似度模型训练方法、文本相似度检测方法及装置 | |
US20220351004A1 (en) | Industry specific machine learning applications | |
WO2021001517A1 (en) | Question answering systems | |
CN116010586A (zh) | 一种健康建议的生成方法、装置、设备及存储介质 | |
Somogyi | The Application of Artificial Intelligence | |
Sun et al. | BRBcast: A new approach to belief rule-based system parameter learning via extended causal strength logic | |
KR102582744B1 (ko) | Qa 모델을 이용하여 지식 그래프를 구축하는 방법, 장치 및 컴퓨터 프로그램 | |
Sonabend | A theoretical and methodological framework for machine learning in survival analysis: Enabling transparent and accessible predictive modelling on right-censored time-to-event data | |
JP7459406B2 (ja) | 学習済みモデル検証システム | |
Saleh | The The Deep Learning with PyTorch Workshop: Build deep neural networks and artificial intelligence applications with PyTorch | |
US11514311B2 (en) | Automated data slicing based on an artificial neural network | |
JP2019133563A (ja) | 情報処理装置および情報処理システム | |
KR20230017578A (ko) | 딥러닝 기반 개체명 인식 기법을 활용한 건설공사 계약사항 키워드 추출 기술 | |
JP7063397B2 (ja) | 回答統合装置、回答統合方法および回答統合プログラム | |
Romiti et al. | RealPatch: A Statistical Matching Framework for Model Patching with Real Samples |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231215 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20231215 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240319 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7459406 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |