JP7459406B2 - 学習済みモデル検証システム - Google Patents

学習済みモデル検証システム Download PDF

Info

Publication number
JP7459406B2
JP7459406B2 JP2023577548A JP2023577548A JP7459406B2 JP 7459406 B2 JP7459406 B2 JP 7459406B2 JP 2023577548 A JP2023577548 A JP 2023577548A JP 2023577548 A JP2023577548 A JP 2023577548A JP 7459406 B2 JP7459406 B2 JP 7459406B2
Authority
JP
Japan
Prior art keywords
model
verification
trained model
data set
rule
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023577548A
Other languages
English (en)
Other versions
JPWO2023161972A1 (ja
Inventor
沙織 松永
玄太 吉村
由浩 三塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2023161972A1 publication Critical patent/JPWO2023161972A1/ja
Application granted granted Critical
Publication of JP7459406B2 publication Critical patent/JP7459406B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Description

本開示技術は学習済みモデル検証システムに関する。
機械学習の分野において、学習済みモデルの妥当性を網羅的に評価する技術が知られている。
例えば、特許文献1には、学習済みモデルが決定木である場合に、その決定木における決定木パスを示すパス論理式を論理積結合して決定木論理式を得て、決定木論理式に対し、検証性質論理式と目的変数計算論理式とを論理積結合し結合論理式を作成し、この結合論理式を充足可能性判定器に入力して充足可能性判定を行い、この判定結果から充足性を示す場合、該当充足解から検証性質に違反する説明変数の値である違反入力値と目的変数の値である違反出力値を取得する演算装置を含む構成が示されている。
特開2020-135171号公報
特許文献1に開示された検証技術は、検証対象を、決定木から構成されるアルゴリズムに従って動作する機械学習プログラムとしている。
しかし、決定木から構成されるアルゴリズム以外のアルゴリズムに基づいたプログラム又は数理モデルに対しても、決定木のフレームワークで検証を行いたい、というニーズがある。
本開示技術は、上記課題を解決し、決定木から構成されるアルゴリズム以外のアルゴリズムに基づいた数理モデルに対しても、決定木のフレームワークで検証を可能にした学習済みモデル検証システムを提供することを目的とする。
本開示技術に係る学習済みモデル検証システムは、検証対象である学習済みモデルを、学習済みモデルと等価の入出力関係を有するルールモデルに変換するルールモデル変換部と、ルールモデルの検証用データセットを生成する検証用データセット生成部と、検証用データセットを用いて、ルールモデル又は学習済みモデルを検証する検証部と、を備える。
本開示技術に係る学習済みモデル検証システムは上記構成を備えるため、決定木から構成されるアルゴリズム以外のアルゴリズムに基づいた数理モデルに対しても、決定木のフレームワークで検証を可能にする。
図1は、実施の形態1に係る学習済みモデル検証システムの機能構成を示したブロック図である。 図2は、本開示技術に係る検証条件TCの例を示した説明図である。 図3は、本開示技術に係る特徴量空間を示した説明図その1である。 図4は、本開示技術に係る特徴量空間を示した説明図その2である。 図5は、本開示技術に係る特徴量空間を示した説明図その3である。 図6は、本開示技術に係る評価指標を表として表した図である。 図7は、本開示技術に係る評価指標をツリーの態様で表した図である。 図8は、本開示技術に係る評価指標をグラフのように表した図である。 図9は、実施の形態1に係る学習済みモデル検証システムの処理ステップを示したフローチャートである。 図10は、本開示技術に係る学習済みモデル検証システムのハードウエア構成を示した図である。図10Aは、学習済みモデル検証システムの各機能がハードウエアで実行される場合の図である。図10Bは、学習済みモデル検証システムの各機能がソフトウエアで実行される場合の図である。
本開示技術に係る学習済みモデル検証システムは、学習済みの人工知能、すなわち学習済みの数理モデルを検証する。本明細書では、本開示技術に係る学習済みモデル検証システムが検証を行う対象である数理モデルを、学習済みモデルAIと称することにする。学習済みモデルAIにおいて行われる学習は、教師あり学習を前提とする。また学習済みモデルAIが解く学習問題は、回帰、分類、又は認識であるとする。認識には、画像認識、音声認識、等が含まれる。
本開示技術は、学習済みモデルAIを決定木の数理モデルに変換し、より具体的にはルールモデルに変換し、決定木のフレームワークで検証を行う。
本明細書において用いられる「ルールモデル」の用語は、If-Thenルールで表現された数理モデルを意味する。ルールモデルには、例えば、単一の決定木、及び決定リストが含まれる。
学習済みモデルAIが、例えば、画像認識を行うCNN(Convolutional neural network)であっても、ソースコードがわかれば決定木のフレームワークでの検証は可能である。学習済みモデルAIがCNNであれば、最終的な全結合層において出力される出力値と画像認識の結果との関係はIf-Thenルールで記述することができる。また学習済みモデルAIがCNNであれば、中間生成物として特徴量マップがあり、特徴量マップにおける位置と画像認識の結果との関係もIf-Thenルールで記述することができる。
本明細書において、普通名詞として使用する名称には符号をつけず、特定のものを指す固有名詞とし使用する名称には符号をつけ、両者は区別される。例えば学習済みモデルについて、普通名詞として使う場合は、単に「学習済みモデル」が用いられ、固有名詞として使う場合は「学習済みモデルAI」が用いられる。学習用データサンプルについては、普通名詞として使う場合は、単に「学習用データサンプル」が用いられ、固有名詞として使う場合は「学習用データサンプルDS」が用いられる。検証条件についても、普通名詞として使う場合は、単に「検証条件」が用いられ、固有名詞として使う場合は「検証条件TC」が用いられる。以降、他の用語についても同様のルールが適用される。
学習済みモデルAIは、前述のとおり、本開示技術における検証装置100の検証対象となる学習済みモデルである。符号のAIは、Artificial Intelligenceの頭文字に由来する。学習済みモデルAIは、単一のモデルであっても、アンサンブル学習を前提とした複数のモデルを融合したものであっても、どちらでもよい。学習済みモデルAIは、単一のモデルであれば、例えばルールモデルでもよい。学習済みモデルAIは、アンサンブル学習を前提としたものであれば、例えば、ランダムフォレスト、又は勾配ブースティングに代表されるブースティング、等の学習アルゴリズムが用いられたものでよい。
学習用データサンプルDSは、学習済みモデルAIの学習フェーズにおいて用いられたデータセットのサンプルである。符号のDSは、Data Sampleの頭文字に由来する。
検証条件TCは、モデルごとに定められた条件であり、モデルの入力値と出力値との組が満たすべき条件である。符号のTCは、Test Conditionの頭文字に由来する。モデルは、モデルへの入力値に対してどのような出力値を出力するか、というルールの集合である、と言える。
本明細書では、検証条件TCを満たさない入力値と出力値との組に対して、「この組は、検証条件TCに違反する」という表現が用いられる。入力値と出力値とに関する或るルールが検証条件TCを満たさない場合も、「このルールは、検証条件TCに違反する」という表現が用いられる。
図2は、検証条件TCの例を示した説明図である。図2において、xは入力値である。また図2において、yは出力値である。図2に示されるとおり検証条件TCは、入力値と出力値との組が満たすべき条件を示している。
実施の形態1.
図1は、実施の形態1に係る学習済みモデル検証システム1000の機能構成を示したブロック図である。図1に示されるとおり実施の形態1に係る学習済みモデル検証システム1000は、記憶装置200と、前処理装置300と、出力装置400と、検証装置100と、を備える。
図1に示されるとおり実施の形態1に係る学習済みモデル検証システム1000の前処理装置300は、前処理用データセット生成部310と、ルールモデル変換部320と、を含む。
図1に示されるとおり実施の形態1に係る学習済みモデル検証システム1000の検証装置100は、検証用データセット生成部110と、検証部120と、違反度合算出部130と、検証結果出力部140と、を含む。
実施の形態1に係る学習済みモデル検証システム1000は、各機能ブロックが図1に示されるとおり接続されている。
《検証装置100》
検証装置100は、ルールモデルに変換された学習済みモデルAI(以降、「学習済みのルールモデル」と称する。)を検証するための構成要素である。検証装置100は、学習済みのルールモデルを検証するために必要な計算を行う。検証装置100で検証された結果は、出力装置400を介して出力される。
《記憶装置200》
記憶装置200は、検証対象である学習済みモデルAI、学習用データサンプルDS、及び検証条件TCを格納するための構成要素である。
記憶装置200は、通信ネットワーク上に配置された単数又は複数のネットワークストレージ装置であってもよい。この場合、学習済みモデル検証システム1000は、ネットワークを介して記憶装置200へアクセスする。
《前処理装置300》
前処理装置300は、検証対象である学習済みモデルAIについて前処理を行うための構成要素である。具体的に前処理装置300は、学習済みモデルAIをルールモデルに変換する。すなわちここで用いられる「前処理」との用語は、具体的には、ルールモデルへの変換を意味する。
学習済みモデルAIが既にルールモデルであるときは、前処理装置300の処理が省略される。
《出力装置400》
出力装置400は、検証装置100の出力結果を、外部へ出力するための構成要素である。
《実施の形態1に係る学習済みモデル検証システム1000の動作について》
図1に示されるとおり、記憶装置200に格納されている学習済みモデルAIは、前処理装置300の前処理用データセット生成部310へ送られる。
前処理用データセット生成部310は、学習済みモデルAIをルールモデルに変換するにあたり、前処理用データセットD1を生成するための構成要素である。前処理用データセットD1は、前処理用のデータセットである。データセットは、入力データと、入力データのそれぞれに対応する出力からなる出力データと、からなるセットである。
前処理用データセットD1のうちの入力データは、学習済みモデルAIの分岐条件の境界値を考慮に入れて作成される。
前処理用データセット生成部310で生成された前処理用データセットD1は、ルールモデル変換部320へ送られる。
図3は、本開示技術に係る特徴量空間を示した説明図その1である。図3に示された特徴量空間の横軸は第1の入力xを示しており、縦軸は第2の入力xを示している。すなわち簡単のため図3は、入力と特徴量とが等しいとしている。ここで図3は、学習済みモデルAIが分類を行うとき、すなわちカテゴリを予測するときの特徴量空間を表しているとする。図3に示される特徴量空間において、ハッチングがなされた領域(0≦x≦3、かつ、0≦x≦5)は、入力データが属する或るカテゴリ(カテゴリはクラスとも称される。)を示したものだとする。決定木のフレームワークで考えれば、図3のハッチングがなされた領域は、決定木における或る葉を表している、と表現できる。なお、特徴量空間における領域は、「特徴量空間における部分空間」と称されることもある。
図3における2つの黒色の四角いプロットは、それぞれ学習済みモデルAIの学習用データサンプルDSを表している。
図4は、本開示技術に係る特徴量空間を示した説明図その2である。図4に示される特徴量空間においても、図3と同様、ハッチングがなされた領域(0≦x≦3、かつ、0≦x≦5)は、学習の結果、或るカテゴリを示す領域だと判断された箇所を示す。
図4に示されたようにハッチングがなされた領域が、或るカテゴリを示す領域として学習されたということは、学習用データセットの中に、ハッチングがなされた領域中の境界付近のプロットに対応するものがあったはずだ、と予想できる。
しかし、特徴量空間において或るカテゴリを示す領域の境界形状が、本来は複雑であるにもかかわらず、線形のサポートベクターマシン等で作られ単純化されることがある。
図4は、カテゴリを示す領域の境界付近に対応する入力に対し、学習済みモデルAIが正しい推論をするか検証をすることが重要であることを示している。
特徴量空間を用いて確認すべきことの1つは、或るカテゴリを示す領域の境界形状と、そのカテゴリに属する学習用データサンプルDSのプロット位置と、の対応である。
特徴量空間を用いて次に行うべきことは、或るカテゴリを示す領域の境界付近に学習用データサンプルDSのプロットがなかった場合、逆算して、領域の境界付近に特徴量がプロットされるデータセットを作成する、というものである。学習済みモデルAIがニューラルネットワークである場合、この逆算は、バックプロパゲーションを応用して行うとよい。
図4における白色の四角いプロットは、図3における黒色の四角いプロットと同義である。図4における黒色の四角いプロットは、既存の学習用データサンプルDSのプロット(白色の四角いプロット)を基点として、領域の境界付近のプロットを作成していることを表している。例えば、学習済みモデルAIが画像認識を行うCNNである場合、逆算して、領域の境界付近に特徴量がプロットされる画像と正解ラベルとを生成する。
逆算して生成された学習用データセットは、学習用データセットとして意味があるものなのか、最終的にはヒトが見て判断するとよい。例えば、学習済みモデルAIが画像認識を行うCNNである場合、逆算して生成した画像と正解ラベルとが意味をなすか、最終的にはヒトが見て判断する。
図5は、本開示技術に係る特徴量空間を示した説明図その3である。
図4では、既存の学習用データサンプルDSのプロット(白色の四角いプロット)を基点として、領域の境界付近のプロットを作成したが、本開示技術はこれに限定されない。図5に示されるように本開示技術は、既存の学習用データサンプルDSのプロット(白色の四角いプロット)に依らず、領域の境界付近のプロットを作成してもよい。
図3から図5は、見易さを考慮し、特徴量空間を2次元空間として表したが、一般的に特徴量空間は多次元(n次元)である。
領域の境界付近に対応する学習データの生成は、学習済みモデルAIが分類問題を解く場合、すべてのカテゴリについて実施するとよい。
前処理用データセット生成部310において生成され、ヒトが見て意味のあると判断された学習用データセットは、本明細書では前処理用データセットD1と称することとする。前処理用データセットD1は、説明変数xと目的変数yensembleとから構成されているとする。前処理用データセットD1は、ルールモデル変換部320へ送られる。
ルールモデル変換部320は、学習済みモデルAIがルールモデルでなかったとき(例えば決定木のアンサンブルモデルであったとき)に、前処理用データセットD1の情報も勘案し、ルールモデルD2を生成するための構成要素である。
ルールモデル変換部320は、学習済みモデルAIをルールモデルの形で再現するルールモデルD2を生成する。
前述のとおり学習済みモデルAIが既にルールモデルであるときは、前処理装置300の処理が省略される。前処理装置300で生成されたルールモデルD2は、検証装置100の検証用データセット生成部110へと送られる。
一般に、人工知能の学習フェーズの最終段階において、学習用データセットとは別の検証用データセットを用意し、意図どおりに学習が行われたかを検証する作業が行われる。
検証用データセット生成部110は、ルールモデルD2の検証用データセットを生成するための構成要素である。
学習用データセットと同様に、検証用データセットも、特徴量空間において何処にプロットされるかを確認することが重要である。検証用データセットも、各カテゴリの境界付近にプロットされるものが存在する、ということが重要である。
カテゴリを示す領域の境界付近に検証用データのプロットがなかった場合、逆算して、領域の境界付近に特徴量がプロットされるデータセットを作成するとよい。逆算による検証用データセットの生成は、逆算による学習用データセットの生成と同様の方法で行うとよい。
逆算して生成された検証用データセットは、検証用データセットとして意味があるものなのか、最終的にはヒトが見て判断するとよい。
検証用データセット生成部110において生成され、ヒトが見て意味のあると判断された学習用データセットは、本明細書では検証用データセットD3と称することとする。検証用データセットD3は、説明変数xtestと目的変数ytestとから構成されているとする。検証用データセットD3は、検証部120へ送られる。
前処理用データセット生成部310及び検証用データセット生成部110は、入力データの値域を網羅しながら検証に最低限必要なサンプル数を生成するようにしてもよい。また前処理用データセット生成部310及び検証用データセット生成部110は、ルールモデルの各分岐の境界値条件を抽出してデータセットを生成するようにしてよい。
検証部120は、検証用データセットD3を用いて、ルールモデルD2又は学習済みモデルAIを検証する構成要素である。よりわかりやすく言えば検証部120は、学習済みモデルAIが意図どおりに学習されたかを検証するための構成要素である。
検証部120で実施される検証では、もともと準備していた検証用データセットと、検証用データセット生成部110で生成された検証用データセットD3と、が用いられる。
また検証部120で実施される検証では、学習済みモデルAIが学習により得た各カテゴリの領域の予測範囲を数式で表現した検証条件TCを参照して行ってもよい。
検証部120は、検証結果をD4として、違反度合算出部130へ出力する。
違反度合算出部130は、学習済みモデルAIの正答率等の評価指標を算出するための構成要素である、といってもよい。具体的に違反度合算出部130は、学習済みモデルAIに対して、正解率(Accuracy)、適合率(Precision)、再現率(Recall)、特異率(Specificity)、及びF値(F-measure)、の評価指標を、カテゴリごとに算出してよい。
また違反度合算出部130は、学習済みモデルAIの評価指標として、違反度合を算出してもよい。ここで違反度合は、或るカテゴリに正解ラベルが属する検証用データセットD3の数を分母として、その検証用データセットD3のうち、学習済みモデルAIが誤った分類を行った数を分子とした値であってよい。また違反度合は、学習済みモデル検証システムの利用者が、適宜、定めたものでもよい。
違反度合算出部130で求めた違反度合は、違反度合いD5と称する。違反度合いD5は、検証結果出力部140へ送られる。
違反度合算出部130が求める評価指標を違反度合いD5としたが、本開示技術はこれに限定されない。違反度合算出部130は、評価指標として、正解率(Accuracy)、適合率(Precision)、再現率(Recall)、特異率(Specificity)、及びF値(F-measure)のうちいずれを選んでもよい。
検証結果出力部140は、違反度合算出部130で求めた評価指標を出力するための構成要素である。検証結果出力部140は、違反度合算出部130で求めた評価指標を、図、表、又はグラフとして表示できるフォーマットに変換して、検証結果D6を出力してもよい。
図6は、評価指標を表として表した図である。図6に示す表の「ルール番号」は、学習済みモデルAIが分類問題を解くときの、カテゴリに付されたインデックスだと考えてよい。図6に示す表の「ルール」は、学習済みモデルAIが学習により得たカテゴリの領域を数式で表したものと考えてよい。図6に示す表の「違反度ランク」は、違反度合いD5を順位付け又はランク付けしたものだと考えてよい。すなわち図6は、ルール番号すなわちカテゴリ番号が3について、学習済みモデルAIによる分類の正答率が最も悪かった、ということを例示している。
図7は、本開示技術に係る評価指標をツリーの態様で表した図である。本開示技術は学習済みモデルAIを決定木のルールモデルD2へ変換するため、評価指標をツリーの態様で容易に表示することができる。このように評価指標をツリーの態様で表示する本開示技術は、決定木の扱いに慣れている技術者にとって、親和性がある。
検証結果出力部140は、図7に示すように、違反度合に応じて、ツリーの枝にあたるパスの太さを変更し、ツリーの葉にあたるノードの色を変更してもよい。図7に示す例では、「Leaf2」と表示された葉において最も評価指標が悪く、パスが太く表示され、ノードの色が濃く表示されている。
図8は、本開示技術に係る評価指標をグラフのように表した図である。図8の例では、横軸に特徴量(x、x)と出力(y)とをとり、それぞれの範囲が縦棒グラフのように表示されている。図8に例示された縦棒グラフにおいて、検証条件TCがドットで示されているが、検証条件TCの範囲を超えたサンプルデータの有無が一目でわかる。
図9は、実施の形態1に係る学習済みモデル検証システムの処理ステップを示したフローチャートである。図9に示されるとおり、実施の形態1に係る学習済みモデル検証システムの処理ステップは、ステップST1からステップST12までに分けることができる。
ステップST1からステップST6までは、前処理装置300にて実施される処理工程である。
ステップST7からステップST12までは、検証装置100にて実施される処理工程である。
図9に示されるステップST1は、前処理装置300の前処理用データセット生成部310が行う処理ステップである。ステップST1において前処理用データセット生成部310は、記憶装置200に格納されている学習済みモデルAIを取得する。
図9に示されるステップST2は、前処理装置300の前処理用データセット生成部310が行う処理ステップである。ステップST2において前処理用データセット生成部310は、学習済みモデルAIについてルールモデルへの変換が必要か否かを判断する。ここでルールモデルへの変換が必要と判断された場合(YESの場合)、処理工程はステップST3へ進む。ルールモデルへの変換が必要ではないと判断された場合(NOの場合)処理工程はステップST7へ進む。
学習済みモデルAIがルールモデルか否かの判断は、学習済みモデルAIのソースコードを解析することで可能となる。本開示技術は、ソースコードの形の学習済みモデルAIを記憶装置200に格納する。
図9に示されるステップST3は、前処理装置300の前処理用データセット生成部310が行う処理ステップである。ステップST3において前処理用データセット生成部310は、学習済みモデルAIの全パスの分岐条件を抽出する。
学習済みモデルAIについて全パスの分岐条件を抽出する処理は、学習済みモデルAIのソースコードを解析することで可能となる。
図9に示されるステップST4は、前処理装置300の前処理用データセット生成部310が行う処理ステップである。ステップST4において前処理用データセット生成部310は、全パスの分岐条件を、すなわち領域の境界値を網羅するよう、学習済みモデルAIへの入力データの集合(以降、「入力データ集合(X)」と称する。)を生成する。
図9に示されるステップST5は、前処理装置300の前処理用データセット生成部310が行う処理ステップである。ステップST5において前処理用データセット生成部310は、ステップST4で生成した入力データ集合(X)に基づいて、前処理用データセットD1を生成する。前処理用データセットD1は、説明変数xからなる入力データ集合(X)と、それぞれの説明変数xに対応する目的変数yensembleからなる集合と、から構成される。
図9に示されるステップST6は、前処理装置300のルールモデル変換部320が行う処理ステップである。ステップST6においてルールモデル変換部320は、ステップST5で生成された前処理用データセットD1を用いて、ルールモデルD2を学習済みモデルAIと等価となるように学習させる。例えば、学習済みモデルAIが決定木のアンサンブルモデルであったとしても、ステップST6により学習済みモデルAIは、ルールモデルで表されたルールモデルD2へ変換できる。
なお、前処理用データセットD1を用いてルールモデルD2を学習済みモデルAIと等価になるように学習させることに代えて、前処理用データセットD1を用いて学習済みモデルAIに追加学習をさせることも考えられる。本開示技術に係る前処理用データセットD1は、領域の境界値を網羅するよう入力データ集合(X)が生成されているため、この追加学習により学習済みモデルAIの正答率を向上させることが期待できる。
また、前処理用データセットD1を用いて学習済みモデルAIに追加学習をさせた後、ステップST1からステップST6までの処理は、複数回、繰り返して行われてもよい。
図9に示されるステップST7は、検証装置100の検証用データセット生成部110が行う処理ステップである。ステップST7において検証用データセット生成部110は、説明変数xからなる集合(Xtest)を生成する。なお説明変数xからなる集合(Xtest)は、検証用データセットD3の一部を構成するものである。
図9に示されるステップST8は、検証装置100の検証部120が行う処理ステップである。ステップST8において検証部120は、ステップST7で生成された説明変数xのそれぞれに対して、対応した目的変数ytestを取得する。対応した目的変数ytestを取得する処理は、ルールモデルD2を用いて実施してよい。
図9に示されるステップST9は、検証装置100の検証部120が行う処理ステップである。ステップST9において検証部120は、学習済みモデルAI(ルールモデルD2)の学習成果を検証する。前述のとおり検証部120で実施される検証では、各カテゴリの領域の予測範囲を数式で表現した検証条件TCが参照されてもよい。
検証条件TCを参照した結果、違反がある場合(YESの場合)、処理工程はステップST10へ進む。違反がない場合(NOの場合)、処理工程は終了する。
図9に示されるステップST10は、検証装置100の違反度合算出部130が行う処理ステップである。ステップST10において違反度合算出部130は、学習済みモデルAI(ルールモデルD2)の評価指標を算出するための集計を行う。
図9に示されるステップST11は、検証装置100の違反度合算出部130が行う処理ステップである。ステップST11において違反度合算出部130は、ステップST10で行った集計に基づいて、学習済みモデルAI(ルールモデルD2)の評価指標を算出する。
図9に示されるステップST12は、検証装置100の違反度合算出部130が行う処理ステップである。ステップST12において違反度合算出部130は、ステップST11で算出した評価指標を、図、表、又はグラフとして表示できるフォーマットに変換して出力する。ここで評価指標を図として表示するフォーマットには、ツリーの態様(図7参照)が含まれる。
図10は、本開示技術に係る学習済みモデル検証システム1000のハードウエア構成を示した図である。図10Aは、学習済みモデル検証システム1000の各機能がハードウエアで実行される場合の図である。図10Bは、学習済みモデル検証システム1000の各機能がソフトウエアで実行される場合の図である。
図10に示されるとおり、本開示技術に係る学習済みモデル検証システム1000の各機能、特に前処理装置300及び検証装置100の各機能は、処理回路により実現される。すなわち学習済みモデル検証システム1000は、図9に示される処理ステップを実施するための処理回路を備える。処理回路は、専用のハードウエアであっても、メモリに格納されるプログラムを実行するCPU(Central Processing Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSPともいう)であってよい。
図10Aに示されるように、処理回路が専用のハードウエアである場合(以降、処理回路を「処理回路520」と表示する)、処理回路520は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、又はこれらを組み合わせたものが該当する。前処理装置300及び検証装置100の各機能は、それぞれを個別の処理回路520で実現されてもよいし、まとめて1つの処理回路520で実現されてもよい。
図10Bに示されるように、処理回路がCPUの場合(以降、CPUを「プロセッサ522」と表示する)、前処理装置300及び検証装置100の各機能は、ソフトウエア、ファームウエア、又はソフトウエアとファームウエアとの組合せにより実現される。ソフトウエア及びファームウエアはプログラムとして記述され、メモリ524に格納される。処理回路は、メモリ524に記憶されたプログラムを読み出して実行することにより、各構成要素の機能を実現する。すなわち学習済みモデル検証システム1000は、処理回路により実行されるときに、図9に示される処理ステップが結果的に実行されることになるプログラムを格納するためのメモリ524を備える。また、これらのプログラムは、前処理装置300及び検証装置100の手順及び方法をコンピュータ(図10B全体が該当)に実行させるものである、とも言える。ここでメモリ524は、例えば、RAM、ROM、フラッシュメモリ、EPROM、EEPROM等の不揮発性又は揮発性の半導体メモリであってもよい。またメモリ524は、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD等のディスクを有するものであってもよい。さらにメモリ524は、HDD又はSSDの態様であってもよい。
なお、前処理装置300及び検証装置100の各機能について、一部が専用のハードウエアで実現され、残りの部分がソフトウエア又はファームウエアで実現されてもよい。
このように処理回路は、ハードウエア、ソフトウエア、ファームウエア、又はこれらの組合せによって、学習済みモデル検証システム1000の各機能を実現する。
以上のとおり本開示技術に係る学習済みモデル検証システムは上記構成を備えるため、決定木から構成されるアルゴリズム以外のアルゴリズムに基づいた数理モデルに対しても、決定木のフレームワークで検証を可能にする。
また本開示技術に係る学習済みモデル検証システムは、学習済みモデルAIに対して、特徴量空間における領域の境界値を網羅するよう追加学習をさせることができ、学習済みモデルAIの正答率を向上できる、という効果を奏する。
実施の形態2.
実施の形態2で示す内容は、実施の形態1に係る学習済みモデル検証システムの変形例である。実施の形態2では、特に明記する場合を除き、実施の形態1で用いた符号と同じものが用いられる。実施の形態2では、実施の形態1と重複する説明が、適宜、省略される。
実施の形態1で示されたとおり本開示技術は、学習済みモデルAIを分析する目的で、学習済みモデルAIを、学習済みモデルAIと同じ入出力関係を有するルールモデルD2に変換した。ここで、どの程度厳密に学習済みモデルAIと近似したルールモデルD2を作成するか、ということを、設計事項として考えることができる。
例えば、実施の形態2に係る学習済みモデル検証システムは、ルールモデル変換部320の処理において、ルールモデルD2におけるルール数の上限値を設けてもよい。ルールモデルD2におけるルール数の上限値は、設計パラメータとして、どの程度厳密に学習済みモデルAIと近似したルールモデルD2を作成するか、ということを調節できる。
実施の形態2に係る学習済みモデル検証システムは上記構成を備えるため、実施の形態1に記載した効果に加え、どの程度厳密に学習済みモデルAIと近似したルールモデルD2を作成するか、ということも調節できる。
実施の形態3.
実施の形態3で示す内容は、本開示技術に係る学習済みモデル検証システムの変形例である。実施の形態3では、特に明記する場合を除き、既出の実施の形態で用いた符号と同じものが用いられる。実施の形態3では、既出の実施の形態と重複する説明が、適宜、省略される。
実施の形態1において、違反度合算出部130が算出する評価指標は、学習済みモデルAIが解く問題を分類問題だとして、正解率(Accuracy)、適合率(Precision)、再現率(Recall)、特異率(Specificity)、及びF値(F-measure)であるとした。また違反度合算出部130が算出する評価指標は、違反度合でもよいとした。
学習済みモデルAIが解く問題を回帰問題だとした場合、違反度合算出部130が算出する評価指標は、回帰問題に適した評価指標であってよい。回帰問題における評価指標は、RMSE(Root Mean Squared Error)、RMSLE(Root Mean Squared Logarithmic Error)、MAE(Mean Absolute Error)、及び決定係数、等が考えられる。
また違反度合算出部130が算出する評価指標は、学習済みモデル検証システムの利用者が、適宜、定めたもの(例えば「乖離度」を定義してそれを用いる)でもよい。
実施の形態3に係る学習済みモデル検証システムは上記構成を備えるため、学習済みモデルAIが解く問題を回帰問題だとしても、既出の実施の形態に記載された効果を奏する。
なお、本開示技術に係る学習済みモデル検証システムは、各実施の形態に例示した態様に限定されず、各実施の形態を組み合わせし、実施の形態のそれぞれの任意の構成要素を変形し、又は実施の形態のそれぞれにおいて任意の構成要素を省略することができる。
本開示技術は、分類、回帰、又は認識を行う人工知能の検証及び追加学習に利用できるため、産業上の利用可能性を有する。
100 検証装置、110 検証用データセット生成部、120 検証部、130 違反度合算出部、140 検証結果出力部、200 記憶装置、300 前処理装置、310 前処理用データセット生成部、320 ルールモデル変換部、400 出力装置、510 入力インターフェース、520 処理回路、522 プロセッサ、524 メモリ、530 ディスプレイ、540 出力インターフェース、1000 学習済みモデル検証システム。

Claims (4)

  1. 検証対象である学習済みモデルを、前記学習済みモデルと等価の入出力関係を有するルールモデルに変換するルールモデル変換部と、
    前記ルールモデルの検証用データセットを生成する検証用データセット生成部と、
    前記検証用データセットを用いて、前記ルールモデル又は前記学習済みモデルを検証する検証部と、を備える、
    学習済みモデル検証システム。
  2. 前記検証用データセットを用いて、前記ルールモデル又は前記学習済みモデルの評価指標を算出する違反度合算出部と、
    前記評価指標を、図、表、又はグラフとして表示できるフォーマットに変換して出力する検証結果出力部と、をさらに備える、
    請求項1に記載の学習済みモデル検証システム。
  3. 前記フォーマットには、ツリーの態様が含まれる、
    請求項2に記載の学習済みモデル検証システム。
  4. 前記ルールモデル変換部は、設計パラメータとしてルール数の上限値が設定可能である、
    請求項1に記載の学習済みモデル検証システム。
JP2023577548A 2022-02-22 2022-02-22 学習済みモデル検証システム Active JP7459406B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/007063 WO2023161972A1 (ja) 2022-02-22 2022-02-22 学習済みモデル検証システム

Publications (2)

Publication Number Publication Date
JPWO2023161972A1 JPWO2023161972A1 (ja) 2023-08-31
JP7459406B2 true JP7459406B2 (ja) 2024-04-01

Family

ID=87765108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023577548A Active JP7459406B2 (ja) 2022-02-22 2022-02-22 学習済みモデル検証システム

Country Status (2)

Country Link
JP (1) JP7459406B2 (ja)
WO (1) WO2023161972A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020135171A (ja) 2019-02-15 2020-08-31 株式会社日立製作所 機械学習プログラム検証装置および機械学習プログラム検証方法
CN111898692A (zh) 2020-08-05 2020-11-06 清华大学 神经网络到决策树的转换方法、存储介质及电子设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020135171A (ja) 2019-02-15 2020-08-31 株式会社日立製作所 機械学習プログラム検証装置および機械学習プログラム検証方法
CN111898692A (zh) 2020-08-05 2020-11-06 清华大学 神经网络到决策树的转换方法、存储介质及电子设备

Also Published As

Publication number Publication date
WO2023161972A1 (ja) 2023-08-31
JPWO2023161972A1 (ja) 2023-08-31

Similar Documents

Publication Publication Date Title
US20220215264A1 (en) Heterogenous Neural Network
Liu et al. Compositional visual generation with composable diffusion models
US11861307B2 (en) Request paraphrasing system, request paraphrasing model and request determining model training method, and dialogue system
CA3037346C (en) Transforming attributes for training automated modeling systems
US11468241B2 (en) Techniques to add smart device information to machine learning for increased context
WO2020208444A1 (en) Fairness improvement through reinforcement learning
US20180285969A1 (en) Predictive model training and selection for consumer evaluation
US20220130499A1 (en) Medical visual question answering
US20210303970A1 (en) Processing data using multiple neural networks
US20190286978A1 (en) Using natural language processing and deep learning for mapping any schema data to a hierarchical standard data model (xdm)
CN113723070B (zh) 文本相似度模型训练方法、文本相似度检测方法及装置
US20220351004A1 (en) Industry specific machine learning applications
WO2021001517A1 (en) Question answering systems
CN116010586A (zh) 一种健康建议的生成方法、装置、设备及存储介质
Somogyi The Application of Artificial Intelligence
Sun et al. BRBcast: A new approach to belief rule-based system parameter learning via extended causal strength logic
KR102582744B1 (ko) Qa 모델을 이용하여 지식 그래프를 구축하는 방법, 장치 및 컴퓨터 프로그램
Sonabend A theoretical and methodological framework for machine learning in survival analysis: Enabling transparent and accessible predictive modelling on right-censored time-to-event data
JP7459406B2 (ja) 学習済みモデル検証システム
Saleh The The Deep Learning with PyTorch Workshop: Build deep neural networks and artificial intelligence applications with PyTorch
US11514311B2 (en) Automated data slicing based on an artificial neural network
JP2019133563A (ja) 情報処理装置および情報処理システム
KR20230017578A (ko) 딥러닝 기반 개체명 인식 기법을 활용한 건설공사 계약사항 키워드 추출 기술
JP7063397B2 (ja) 回答統合装置、回答統合方法および回答統合プログラム
Romiti et al. RealPatch: A Statistical Matching Framework for Model Patching with Real Samples

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231215

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240319

R150 Certificate of patent or registration of utility model

Ref document number: 7459406

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150