JP2022083884A - 修正対象エッジ決定方法および修正対象エッジ決定プログラム - Google Patents

修正対象エッジ決定方法および修正対象エッジ決定プログラム Download PDF

Info

Publication number
JP2022083884A
JP2022083884A JP2020195478A JP2020195478A JP2022083884A JP 2022083884 A JP2022083884 A JP 2022083884A JP 2020195478 A JP2020195478 A JP 2020195478A JP 2020195478 A JP2020195478 A JP 2020195478A JP 2022083884 A JP2022083884 A JP 2022083884A
Authority
JP
Japan
Prior art keywords
edge
weight
generation
test data
regression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020195478A
Other languages
English (en)
Inventor
晋 徳本
Susumu Tokumoto
慎司 菊池
Shinji Kikuchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2020195478A priority Critical patent/JP2022083884A/ja
Publication of JP2022083884A publication Critical patent/JP2022083884A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】改善につながったエッジ群の重みはそのまま活かしつつ、退行につながったエッジ群の重みのみを修正対象とする。【解決手段】第二の世代の訓練済み機械学習モデルに含まれる各エッジのうち、第二の世代より前の第一の世代の訓練済み機械学習モデル含まれる各エッジと重みが異なるエッジを変更エッジ群として抽出する処理と、変更エッジ群について、退行が発生したテストデータである退行テストデータの出力に影響を与えた第一のエッジ分類と、改善が発生したテストデータである改善テストデータの出力に影響を与えた第二のエッジ分類とに分類する処理と、第一のエッジ分類に含まれる第一エッジ群から、第二のエッジ分類に含まれる第二エッジ群を差し引いた第三エッジ群を修正対象と特定する処理とを備える。【選択図】図1

Description

本発明は、修正対象エッジ決定方法および修正対象エッジ決定プログラムに関する。
ディープニューラルネットワーク(Deep Neural Network:DNN)等の機械学習モデルを用いたシステムにおいて、ユーザに好ましくない出力が発生した場合に、機械学習モデルの修正を行なう場合がある。以下、DNNの機械学習モデルをDNNモデルという場合がある。
例えば、カメラを用いた自動運転システムにおいて、一時停止の道路標識を速度制限として認識した場合には、事故を起こす可能性があるので正しく認識されるようにDNNモデルを修正する必要がある。
DNNモデルは、仕様に従って作るのではなく、入力された訓練データに従って作られる。そのため、その修正も訓練データを入力することで行なう。
特開平9-128358号公報
しかしながら、このような従来の訓練データを用いたDNNモデルの修正手法においては、修正に必要なデータを収集する必要があるが、収集したデータにより必ずしも誤りを修正できるとは限らない。
すなわち、再訓練を行なうことで、再訓練前は正しく推論していたデータに対して、再訓練後に誤った推論を行なう可能性があり、デグレード(degrade)が生じるおそれがある。デグレードは、CACE (Changing Anything Changes Everything) の原理により生じる。
1つの側面では、本発明は、改善につながったエッジ群の重みはそのまま活かしつつ、退行につながったエッジ群の重みのみを修正対象とすることを目的とする。
このため、この修正対象エッジ決定方法は、情報処理装置がニューラルネットワークモデルに含まれるエッジのうち、修正対象とするエッジを決定するに際して、第二の世代の訓練済み機械学習モデルに含まれる各エッジのうち、前記第二の世代より前の第一の世代の訓練済み機械学習モデルに含まれる前記各エッジと重みが異なるエッジを変更エッジ群として抽出する処理と、前記変更エッジ群について、退行が発生したテストデータである退行テストデータの出力に影響を与えた第一のエッジ分類と、改善が発生したテストデータである改善テストデータの出力に影響を与えた第二のエッジ分類とに分類する処理と、前記第一のエッジ分類に含まれる第一エッジ群から、前記第二のエッジ分類に含まれる第二エッジ群を差し引いた第三エッジ群を修正対象と特定する処理とを備える。
一実施形態によれば、改善につながったエッジ群の重みはそのまま活かしつつ、退行につながったエッジ群の重みのみを修正対象とすることができる。
実施形態の一例としての情報処理装置の構成を模式的に示す図である。 実施形態の一例としての情報処理装置におけるモデル訓練部の処理を説明するための図である。 実施形態の一例としての情報処理装置における改善テストデータおよび退行テストデータを説明するための図である。 実施形態の一例としての情報処理装置における重み差分測定部による処理を説明するための図である。 実施形態の一例としての情報処理装置における重み影響測定部による処理を説明するための図である。 実施形態の一例としての情報処理装置における重み影響測定部による処理を説明するための図である。 実施形態の一例としての情報処理装置における選択重み個数決定部による処理を説明するための図である。 実施形態の一例としての情報処理装置における修正対象重み特定部の処理を説明するための図である。 実施形態の一例としての情報処理装置における修正対象重み特定部の処理を説明するための図である。 実施形態の一例としての情報処理装置における修正対象重み特定部による修正対象重みの選択方法を例示する図である。 実施形態の一例としての情報処理装置における処理を説明するためのフローチャートである。 実施形態の一例としての情報処理装置における処理を説明するためのフローチャートである。 実施形態の一例としての情報処理装置におけるシミュレーション結果を例示する図である。 実施形態の一例としての情報処理装置のハードウェア構成を例示する図である。
以下、図面を参照して本修正対象エッジ決定方法および修正対象エッジ決定プログラムにかかる実施の形態を説明する。ただし、以下に示す実施形態はあくまでも例示に過ぎず、実施形態で明示しない種々の変形例や技術の適用を排除する意図はない。すなわち、本実施形態を、その趣旨を逸脱しない範囲で種々変形して実施することができる。また、各図は、図中に示す構成要素のみを備えるという趣旨ではなく、他の機能等を含むことができる。
(A)構成
図1は実施形態の一例としての情報処理装置1の構成を模式的に示す図である。
情報処理装置1は、訓練済みのDNNモデル(機械学習モデル)の修正を行なうモデル修正機能を実現する。訓練済みのDNNモデルは訓練済み機械学習モデルである。情報処理装置1は、図1に示すように、モデル訓練部101,テストデータ分類部102,重み差分測定部103,重み影響測定部104,選択重み個数決定部105および修正対象重み特定部106としての機能を備える。
モデル訓練部101は、訓練対象であるDNNモデルに対して訓練データを入力することで訓練(再訓練)を行なう。
図2は実施形態の一例としての情報処理装置1におけるモデル訓練部101の処理を説明するための図である。
モデル訓練部101には、訓練データと訓練前のDNNモデルとが入力される。訓練データは、例えば、入力データと訓練ラベル(正解データ)とを備える。
DNNは、例えば、画像や音声などの入力データを入力層に入力し、畳み込み層やプーリング層などで構成される隠れ層にて所定の計算を順次実行することで、演算により得られる情報を入力側から出力側に順次伝えるフォーワッド方向の処理(順伝播処理)を実行する。各層においては、ノードがエッジで結合されている。また、エッジは重みを有する。
モデル訓練部101は、フォーワッド方向の処理の実行後、出力層から出力される出力データと正解データとから得られる誤差関数の値を小さくするために、フォーワッド方向の処理で使用するパラメータを決定するバックワード方向の処理(逆伝播処理)を実行する。そして、逆伝播処理の結果に基づいて重み(変数)を更新する更新処理が実行される。例えば、逆伝播処理の計算に使用される重みの更新幅を決定するアルゴリズムとして、勾配降下法を用いてもよい。以下、DNNモデルを単にモデルという場合がある。
モデル訓練部101は、訓練前のDNNモデル(訓練前モデル)と、訓練後のDNNモデル(訓練後モデル)との各情報を記憶装置13(図14参照)等の記憶領域に記憶させる。モデル訓練部101が、同一のDNNモデルに対して複数回(n回)の訓練を行なうことで、n世代分のDNNモデルの情報が記憶装置13等に記憶される。記憶されるDNNモデルの情報には重みも含まれる。従って、モデル訓練部101は、記憶装置13等に、訓練時のk世代前のモデルの重みを保存させる。
以下、複数世代のDNNモデルのうち最新世代のDNNモデルを現世代モデルという場合がある。また、現世代モデルよりも前の世代(旧世代)のDNNモデルを前世代モデルという場合がある。現世代モデルをn世代目モデルという場合があり、符号Mnで表す場合がある。また、n世代目モデルよりもk世代前の前世代モデルをn-k世代目モデルという場合があり、符号Mn-kで表す場合がある。なお、nは2以上の自然数であり、kは1以上の自然数である。また、k<nである。
最新世代(現世代,n世代)が第二の世代に相当し、n世代目DNNモデルが第二の世代の訓練済み機械学習モデルに相当する。また、旧世代(n-k世代)が第一の世代に相当し、n-k世代目DNNモデルが第一の世代の訓練済み機械学習モデルに相当する。
そして、本情報処理装置1においては、DNN(ニューラルネットワークモデル)に含まれるエッジのうち、修正対象とするエッジを決定する、修正対象エッジ決定機能を実現する。
テストデータ分類部102は、改善テストデータおよび退行テストデータの収集を行なう。
図3は実施形態の一例としての情報処理装置1における改善テストデータおよび退行テストデータを説明するための図である。
この図3においては、n-k世代目のDNNモデルとn世代目のDNNモデルとのそれぞれに対して、ラベル“ネコ”および“イヌ”を入力データとして入力した例を示す。
図3に示す例において、ラベル“イヌ”は、n-k世代目のDNNモデルに入力することで間違った推定結果“ネコ”が得られたが(推定失敗)、n世代目のDNNモデルに入力した場合には正しい推定結果“イヌ”が得られた(推定成功)。すなわち、DNNモデルの修正が正しく行なわれたことを示す(符号P1参照)。このようなDNNモデルの修正により正しく推定がされるようになったテストデータを改善テストデータという場合がある。テストデータ“イヌ”は、改善テストデータである。
テストデータ分類部102は、DNNモデルMnでテストデータを評価し、成功するテストデータの集合Xpos,nを集める
テストデータ分類部102は、前世代(ここではn-k世代とする)のDNNモデルMn-kで失敗しているテストデータの集合Xneg,n-kと上述したXpos,nとの共通集合Xneg,n-k∩Xpos,nを生成する。以下、この共通集合Xneg,n-k∩Xpos,nを改善テストデータXimpと表す場合がある。
一方、図3に示す例において、ラベル”ネコ”は、n-k世代目のDNNモデルに入力することで正しい推定結果“ネコ”が得られたが(推定成功)、n世代目のDNNモデルに入力した場合には間違った推定結果“トラ”が得られた(推定失敗)。すなわち、DNNモデルの修正によりデグレード(性能低下)が発生したと見なされる(符号P2参照)。なお、デグレードをデグレという場合がある。このようなDNNモデルの修正によりデグレが発生したテストデータを退行テストデータという場合がある。テストデータ“ネコ”は退行テストデータである。
テストデータ分類部102は、n世代目のDNNモデルMnでテストデータを評価し、失敗するテストデータの集合Xneg,nを集める。
テストデータ分類部102は、前世代(ここではn-k世代とする)のDNNモデルMn-kで成功しているテストデータの集合Xpos,n-kと上述したXneg,nとの共通集合Xpos,n-k∩Xneg,nを生成する。以下、この共通集合Xpos,n-k∩Xneg,nを退行テストデータXdegと表す場合がある。
本情報処理装置1においては、前世代のDNNモデルでの推論が成功していたデータは修正しやすいという第1の仮説と、修正前後における重みの差分がデグレおよび修正に影響を与えるという第2の仮説とを前提とするDNNモデル修正を行なう。
テストデータ分類部102は、同一のテストデータをn-k世代目モデルとn世代目モデルとのそれぞれに入力する。そして、n-k世代目モデルにおいて推定が成功し、n世代目モデルにおいて推定が失敗した場合には、当該テストデータを退行テストデータと決定(分類)する。
一方、テストデータ分類部102は、n-k世代目モデルにおいて推定が失敗し、n世代目モデルにおいて推定が成功した場合には、当該テストデータを改善テストデータと決定(分類)する。
テストデータ分類部102は、分類した改善テストデータおよび退行テストデータを記憶装置13等の所定の記憶領域に記憶させる。
重み差分測定部103は、現世代モデルの重みと前世代モデルの重みとの重み差分を算出する。重み差分は、現世代モデルの重みから前世代モデルの重みを減算した値の絶対値をとった値である。
重み差分測定部103は、レイヤlにおける、n世代目のDNNモデルにおける重みの集合とn-k世代目のDNNモデルにおける重みの集合との差分の絶対値をとり、当該絶対値の大きい順に重みを並べたリストを生成する。
図4は実施形態の一例としての情報処理装置1における重み差分測定部103による処理を説明するための図である。
図4において、符号Aは前世代(n-k世代目)のDNNモデルの情報を、符号Bは現世代(n世代目)のDNNモデルの情報を、それぞれ示す。図4に示す例においては、DNNモデルの情報はレイヤ,種類,重みおよび重みの数を備える
レイヤはレイヤを特定する識別情報であり、図4に示す例においては自然数が用いられている。種類はレイヤの種類であり、図4に示す例においては、Conv2DやDenseが用いられている。重みは、各レイヤにおいて用いられる重みの値であり、図4に示す例においては、1次元に平坦化している。重みの数は各レイヤに備えられる重みの数である。
また、各レイヤにおいて、各重みにはインデックスが設定されており、例えば、0,1,2,3,・・・のように自然数の連番がインデックスとして設定されている。図4に示す例において、例えば、レイヤ1の重み[0.053, 0.124,・・・,0.122]には、インデックス[0, 1, ・・・, 895]が設定されている。
すなわち、符号Aで示すn-k世代目のDNNモデルのレイヤ毎の各重み、および、符号Bで示すn世代目のDNNモデルのレイヤ毎の各重みは、インデックス順に並べられている。
また、図4において、符号Cは重み差分情報を示す。この符号Cで示す重み差分情報は、レイヤ,重み差分および重みの数を備える。なお、図中、既述の項目と同じ項目は同様の内容を示しているので、その説明は省略する。また、以下、重み差分情報に符号201を付して重み差分情報201と表す場合がある。
重み差分は、符号Bで示したn世代目のDNNモデルの各レイヤの各重みから、符号Aで示したn-k世代目のDNNモデルにおける同一レイヤの対応する各インデックスの重みを減算することで求められる。
例えば、n世代目のDNNモデルのレイヤ1のインデックス1の重み“0.054”から、n-k世代目のDNNモデルのレイヤ1のインデックス1の重み“0.053”を減算することで、レイヤ1のインデックス1の重み差分“0.001”が求められる。
重み差分情報201は、n世代目DNNモデルに含まれる各エッジのうち、n-k世代目DNNモデルに含まれる各エッジと重みが異なる複数のエッジ(変更エッジ群)を表す。従って、重み差分測定部103は、n世代目DNNモデルに含まれる各エッジのうち、n-k世代目DNNモデルに含まれる各エッジと重みが異なるエッジを変更エッジ群として抽出する処理を実行する。
また、図4において、符号Dは、符号Cで示した重み差分情報における重み差分を、その値が大きいものから順にソートしたインデックスリストを示す。以下、この重み差分情報における重み差分を、その値が大きいものから順にソートしたインデックスリストを重み差分順インデックスリスト210という場合がある。
重み差分順インデックスリスト210は、レイヤ,重み差分順ソート済みインデックス(index)および重みの数を備える。
重み差分順ソート済みインデックスは、符号Cで示した重み差分情報の重み差分を、値が大きいものから順に並べ変えるとともに、重み差分の値に代えて対応する重みのインデックスで表している。
これにより、重み差分順インデックスリスト210を参照することで、レイヤ毎に、DNNモデルの修正により生じた重みの変化量(重み差分)が大きい重みを容易に知ることができる。
Figure 2022083884000002
重み影響測定部104は、DNNモデルによる退行テストデータおよび改善テストデータのそれぞれの出力を重みで微分することで、重みが出力に与える影響を測定する。
図5は実施形態の一例としての情報処理装置1における重み影響測定部104による処理を説明するための図である。
図5に示す例において、n世代目のDNNモデルに退行テストデータが入力され、出力(推定結果)が得られる。
図5において、符号Aはn世代目のDNNモデルのレイヤ毎の重みを例示し、符号Bはその出力を例示する。
重み影響測定部104は、DNNモデルの出力を重みを用いて自動微分することで、各重みの値が出力に与える影響(影響度)を算出する。以下、退行テストデータに基づいて算出される重みの影響度を退行影響度という場合がある。重み影響測定部104は、退行影響度を、退行テストデータXdegをn世代モデルに入力したときの出力Ydegを、重みWnで自動微分することで算出する。レイヤlにおける退行影響度は、以下の式で表される。
Figure 2022083884000003
図5において符号Cは退行影響度情報を示す。図5に例示する退行影響度情報は、レイヤ,出力に対する重みの影響度および重みの数を備える。
出力に対する重みの影響度は、DNNモデルにおけるレイヤ毎に算出され、同一のレイヤの重みの各値に対してそれぞれ算出される。図5に示す例においては、例えば、レイヤ1の重み[0.053, 0.124,・・・,0.122]に対して、出力に対する重みの影響度として[0.001, 0.002, ・・・, -0.004]がそれぞれ算出されている。また、以下、退行影響度情報に符号202を付して退行影響度情報202と表す場合がある。
また、重み影響測定部104は、レイヤ毎に、出力に対する影響度が大きいものから順に重みを並び替えたインデックスリストを生成する。
図5において、符号Dは、退行影響度順にインデックスをソートしたインデックスリストを示す。
以下、重みの退行影響度を、その値が大きいものから順にソートしたインデックスリストを退行影響度順インデックスリスト220という場合がある。
退行影響度順インデックスリスト220は、符号Cで示した退行影響度情報における出力に対する重みの影響度の値が大きいものから順にソートしたインデックスリストを示す。この退行影響度順インデックスリスト220は、レイヤ,退行影響度順ソート済みインデックス(index)および重みの数を備える。
そして、退行影響度順ソート済みインデックスは、符号Cで示した退行影響度情報202の出力に対する重みの影響度を、値が大きいものから順に並べ変えるとともに、影響度の値に代えて対応する重みのインデックスで表している。
これにより、退行影響度順インデックスリスト220を参照することで、レイヤ毎に、DNNモデルにおける出力に対する影響度が高い重みを容易に知ることができる。
Figure 2022083884000004
図6は実施形態の一例としての情報処理装置1における重み影響測定部104による処理を説明するための図である。
図6に示す例において、n世代目のDNNモデルに改善テストデータが入力され、出力(推定結果)が得られる。
図6において、符号Aはn世代目のDNNモデルのレイヤ毎の重みを例示し、符号Bはその出力を例示する。
重み影響測定部104は、DNNモデルの出力を重みを用いて自動微分することで、各重みの値が出力に与える影響(影響度)を算出する。以下、改善テストデータに基づいて算出される重みの影響度を改善影響度という場合がある。レイヤlにおける改善影響度は、以下の式で表される。
Figure 2022083884000005
図6において符号Cは改善影響度情報を示す。図6に例示する改善影響度情報は、レイヤ,出力に対する重みの影響度および重みの数を備える。
出力に対する重みの影響度は、DNNモデルにおけるレイヤ毎に算出され、同一のレイヤの重みの各値に対してそれぞれ算出される。図6に示す例においては、例えば、レイヤ1の重み[0.053, 0.124,・・・,0.122]に対して、出力に対する重みの影響度として[0.001, 0.002, ・・・, -0.004]がそれぞれ算出されている。また、以下、改善影響度情報に符号203を付して改善影響度情報203と表す場合がある。
また、重み影響測定部104は、レイヤ毎に、出力に対する影響度が大きいものから順に重みを並び替えたインデックスリストを生成する。
図6において、符号Dは、影響度順にインデックスをソートしたインデックスリストを示す。
以下、重みの改善影響度を、その値が大きいものから順にソートしたインデックスリストを改善影響度順インデックスリスト230という場合がある。
改善影響度順インデックスリスト230は、符号Cで示した改善影響度情報における出力に対する重みの影響度の値が大きいものから順にソートしたインデックスリストを示す。この改善影響度順インデックスリスト230は、レイヤ,改善影響度順ソート済みインデックス(index)および重みの数を備える。
そして、改善影響度順ソート済みインデックスは、符号Cで示した改善影響度情報の出力に対する重みの影響度を、値が大きいものから順に並べ変えるとともに、影響度の値に代えて対応する重みのインデックスで表している。
これにより、改善影響度順インデックスリスト230を参照することで、レイヤ毎に、DNNモデルにおける出力に対する影響度が高い重みを容易に知ることができる。
Figure 2022083884000006
選択重み個数決定部105は、重み差分情報201,退行影響度情報202および改善影響度情報203に基づいてレイヤ毎に選択重み個数を決定する。
図7は実施形態の一例としての情報処理装置1における選択重み個数決定部105による処理を説明するための図である。
図7において、符号Aは重み差分情報201を示す。選択重み個数決定部105は、重み差分情報201に基づき、レイヤ毎に重み差分の平均値を算出する。レイヤ毎の重み差分の平均は、以下のように表わされる。
Figure 2022083884000007
さらに、選択重み個数決定部105は、算出したレイヤ毎の重み差分の平均値を全レイヤの合計が1となるように正規化する。正規化した重み差分の平均は以下のように表すことができる。
Figure 2022083884000008
図7においては、正規化した各レイヤの重み差分の平均の例を符号Bに示す。
選択重み個数決定部105は、算出したレイヤ毎の正規化した重み差分の平均を記憶装置13等の所定の記憶領域に記憶させる。
また、図7において、符号Cは退行影響度情報202を示す。選択重み個数決定部105は、退行影響度情報202に基づき、レイヤ毎に退行影響度(出力に対する重みの影響度)の平均値を算出する。レイヤ毎の退行影響度の平均は、以下のように表わされる。
Figure 2022083884000009
さらに、選択重み個数決定部105は、算出したレイヤ毎の退行影響度の平均値を正規化する。正規化した退行影響度の平均は以下のように表すことができる。
Figure 2022083884000010
図7においては、正規化した各レイヤの退行影響度の平均の例を符号Dに示す。
選択重み個数決定部105は、算出したレイヤ毎の正規化した退行影響度の平均を記憶装置13等の所定の記憶領域に記憶させる。
また、図7において、符号Eは改善影響度情報203を示す。選択重み個数決定部105は、改善影響度情報203に基づき、レイヤ毎に改善影響度(出力に対する重みの影響度)の平均値を算出する。レイヤ毎の改善影響度の平均は、以下のように表される。
Figure 2022083884000011
さらに、選択重み個数決定部105は、算出した各レイヤの平均値を正規化する。正規化した改善影響度の平均は以下のように表すことができる。
Figure 2022083884000012
図7においては、正規化した各レイヤの改善影響度の平均の例を符号Fに示す。
選択重み個数決定部105は、算出したレイヤ毎の正規化した改善影響度の平均を記憶装置13等の所定の記憶領域に記憶させる。
選択重み個数決定部105は、これらの、正規化した、重み差分の平均,退行影響度の平均および改善影響度の平均に基づき、以下の式(1)を用いて、レイヤ毎の疑惑値suspを算出する。
Figure 2022083884000013
図7においては、正規化した各レイヤの疑惑値の例を符号Gに示す。
選択重み個数決定部105は、算出したレイヤ毎の疑惑値suspを記憶装置13等の所定の記憶領域に記憶させる。
選択重み個数決定部105は、疑惑値suspに基づいて各レイヤにおいて修正対象として選択する重みの個数を決定する。選択重み個数決定部105は、以下の式(2)を用いて、レイヤ毎の選択重み個数を決定する。
Figure 2022083884000014
図7においては、算出した各レイヤの選択重み個数の例を符号Hに示す。
修正対象重み特定部106は、レイヤ毎に修正対象とする重みを決定(特定)する。
図8は実施形態の一例としての情報処理装置1における修正対象重み特定部106の処理を説明するための図である。
修正対象重み特定部106は、重み差分順インデックスリスト210に基づき、各レイヤについて、重み差分ソート済みインデックスの上位から選択重み個数分のインデックスを選択する。以下、重み差分ソート済みインデックスから選択された、選択重み個数分の上位のインデックスを重み差分上位インデックスという場合がある。重み差分上位インデックスは、前世代(n-k世代目)のDNNモデルとの重みの差分が大きい重みの集合である。図8の符号Aに、重み差分上位インデックスの例を示す。
Figure 2022083884000015
修正対象重み特定部106は、選択した重み差分上位インデックスを記憶装置13等の所定の記憶領域に記憶させる。
また、修正対象重み特定部106は、退行影響度順インデックスリスト220に基づき、各レイヤについて、退行影響度順ソート済みインデックスの上位から選択重み個数分のインデックスを選択する。以下、退行影響度順ソート済みインデックスから選択された、選択重み個数分の上位のインデックスを退行影響度上位インデックスという場合がある。退行影響度上位インデックスは、退行テストデータの影響が大きい重みの集合である。図8の符号Bに、退行影響度上位インデックスの例を示す。
Figure 2022083884000016
退行影響度上位インデックスは、退行テストデータの出力に影響を与えた第一のエッジ分類に相当する。従って、修正対象重み特定部106は、各レイヤにおけるエッジ(重み)を、退行テストデータの出力に影響を与えた第一のエッジ分類に分類する処理を実行する。
そして、修正対象重み特定部106は、退行影響度が大きいエッジを優先して第一のエッジ分類とする。
修正対象重み特定部106は、選択した退行影響度上位インデックスを記憶装置13等の所定の記憶領域に記憶させる。
さらに、修正対象重み特定部106は、改善影響度順インデックスリスト230に基づき、各レイヤについて、改善影響度順ソート済みインデックスの上位から選択重み個数分のインデックスを選択する。以下、改善影響度順ソート済みインデックスから選択された、選択重み個数分の上位のインデックスを改善影響度上位インデックスという場合がある。改善影響度上位インデックスは、改善テストデータの影響が大きい重みの集合である。図8の符号Cに、改善影響度上位インデックスの例を示す。
Figure 2022083884000017
改善影響度上位インデックスは、改善テストデータの出力に影響を与えた第二のエッジ分類に相当する。従って、修正対象重み特定部106は、各レイヤにおけるエッジ(重み)を、改善テストデータの出力に影響を与えた第二のエッジ分類に分類する処理を実行する。
そして、修正対象重み特定部106は、改善影響度が大きいエッジを優先して第二のエッジ分類とする。
修正対象重み特定部106は、選択した改善影響度上位インデックスを記憶装置13等の所定の記憶領域に記憶させる。
そして、修正対象重み特定部106は、Fault Localizationにおいて、前世代のDNNモデルとの重みの差分が大きい重みのうち、退行テストデータの影響が大きく、かつ、改善テストデータの影響が小さいものを修正対象重みとして選択する。
すなわち、修正対象重み特定部106は、「前世代と重みの差分が大きい重みの集合」と「退行テストデータの影響の大きい重みの集合」との積集合(∩)に対して、「改善テストデータの影響の大きい重みの集合」の差集合(\)をとることで、修正対象重みを特定する。
図9は実施形態の一例としての情報処理装置1における修正対象重み特定部106の処理を説明するための図である。
図9において、符号Aは「前世代(n-k)と重みの差分が大きい重みの集合」を示し、符号Bは「退行テストデータの影響の大きい重みの集合」を示す。また、符号Cは「改善テストデータの影響の大きい重みの集合」を示す。
例えば、あるレイヤに関して、「前世代と重みの差分が大きい重みの集合」の重み要素が{w1, w2, w3, w4, w5}であり、「退行テストデータの影響の大きい重みの集合」の重み要素が{w1, w2, w3}であり、「改善テストデータの影響の大きい重みの集合」の重み要素が{w2, w4}であるとする。このような場合には、重み要素{w1, w3}が修正対象の重みとして選択される。
なお、重みの差分が大きい重みや、退行テストデータの影響の大きい重み,改善テストデータの影響の大きい重みとは、重み差分や影響度の値でソートを行なった場合の上位の所定個数(選択重み個数)の重みである。
Figure 2022083884000018
図10は実施形態の一例としての情報処理装置1における修正対象重み特定部106による修正対象重みの選択方法を例示する図である。
この図10においては、レイヤ1における修正対象重みを修正対象重み特定部106が特定(選択)する例を示す。
図10において、符号Aは重み差分順インデックスリスト210から抽出された重み差分上位インデックスを示し、符号Bは退行影響度順インデックスリスト220から抽出された退行影響度上位インデックスを示す。また、符号Cは改善影響度順インデックスリスト230から抽出された改善影響度上位インデックスを示す。
修正対象重み特定部106は、重み差分上位インデックスと退行影響度上位インデックスとの積集合をとる。すなわち、修正対象重み特定部106は、重み差分上位インデックスと退行影響度上位インデックスとの両方にあるインデックス“77”,“572”を抽出する(符号P1参照)。
次に、修正対象重み特定部106は、重み差分上位インデックスと退行影響度上位インデックスとの積集合に対して、改善影響度上位インデックスの差集合をとる。すなわち、修正対象重み特定部106は、重み差分上位と退行影響度上位であっても改善影響度上位にあればそのインデックス“287”は修正対象としない(符号P2参照)。
これにより、修正対象重み特定部106は、レイヤ1の修正対象重みとしてインデックス“77”,“572”の重みを選択する(符号D参照)。
このように、修正対象重み特定部106は、退行影響度上位インデックス(第一のエッジ分類)に含まれる第一エッジ群から、改善影響度上位インデックス(第二のエッジ分類)に含まれる第二エッジ群を差し引いた第三エッジ群を修正対象と特定する処理を実行する。
また、図10に示すレイヤ毎の修正対象重みは、第一のエッジ分類に含まれるエッジ群(第一エッジ群)から、第二のエッジ分類に含まれるエッジ群(第二エッジ群)を差し引いたエッジ群(第三エッジ群,修正対象)に相当する。
Figure 2022083884000019
このようにして出力されるWlocalizeに対して、例えば、PSO(Particle swarm optimization )を用いて重み修正が行なわれる。なお、適応度(fitness)は以下の式を用いて求めてもよい。
Figure 2022083884000020
なお、Npatchedは修正された失敗テストデータ数を示し、Nintactは成功のまま変わらない成功テストデータ数である。なお、PSOは既知の手法であり、その詳細な説明は省略する。
(B)動作
上述の如く構成された実施形態の一例としての情報処理装置1における処理を、図11および図12に示すフローチャート(ステップS1~S34)に従って説明する。
なお、図11はステップS1~S14の処理を示し、図12はステップS15~S34の処理を示す。
図11のステップS1において、モデル訓練部101は、DNNモデルに対して訓練データを入力することで訓練を行なう。モデル訓練部101は、n世代目のDNNモデルとn-k世代目のDNNモデルとの情報を記憶装置13等に記録させる。
図11のステップS2では、全てのテストデータに対して、図11のステップS7までの制御を繰り返し実施するループ処理を開始する。なお、xはテストデータを識別する変数である。
図11のステップS3において、テストデータ分類部102は、テストデータxをn-k世代目のDNNモデルとn世代目のDNNモデルとに入力する。
図11のステップS4において、テストデータ分類部102は、テストデータxが、n-k世代目のDNNモデルで推定が成功し、且つ、n世代目のDNNモデルで推定が失敗したものであるかを確認する。この確認の結果、テストデータxが、n-k世代目のDNNモデルで推定が成功し、且つ、n世代目のDNNモデルで推定が失敗したものでない場合には(NOルート参照)、図11のステップS6に移行する。
また、ステップS4における確認の結果、テストデータxが、n-k世代目のDNNモデルで推定が成功し、且つ、n世代目のDNNモデルで推定が失敗したものである場合には(ステップS4のYESルート参照)、図11のステップS5に移行する。ステップS5において、テストデータ分類部102は、テストデータxを退行テストデータに追加する。その後、ステップS6に移行する。
ステップS6において、テストデータ分類部102は、テストデータxが、n-k世代目のDNNモデルで推定が失敗し、且つ、n世代目のDNNモデルで推定が成功したものであるかを確認する。この確認の結果、テストデータxが、n-k世代目のDNNモデルで推定が失敗し、且つ、n世代目のDNNモデルで推定が成功したものでない場合(ステップS6のNOルート参照)、ステップS8に移行する。
また、ステップS6における確認の結果、テストデータxが、n-k世代目のDNNモデルで推定が失敗し、且つ、n世代目のDNNモデルで推定が成功したものである場合には(ステップS6のYESルート参照)、図11のステップS7に移行する。ステップS7において、テストデータ分類部102は、テストデータxを改善テストデータに追加する。その後、処理はステップS8に移行する。
ステップS8では、ステップS2に対応するループ端処理が実施される。ここで、全テストデータについての処理が完了すると、制御が図11のステップS9に進む。
ステップS9においては、重み差分測定部103が、n世代目のDNNモデルにおける重みの集合とn-k世代目のDNNモデルにおける重みの集合との差分の絶対値をとることで算出した重み差分を記憶装置13等に記録する。
図11のステップS10において、重み差分測定部103は、重み差分の大きさ順に重みのインデックスをソートした重み差分順ソート済みインデクスリストを記憶装置13等に記録する。
図11のステップS11において、重み影響測定部104が、退行テストデータXdegをn世代目モデルに入力したときの出力Ydegを重みWnで自動微分することで退行影響度∂Ydeg/∂Wnを算出し、この算出した退行影響度を記憶装置13等に記録する。
図11のステップS12において、重み影響測定部104は、退行影響度の大きさ順に重みのインデックスをソートした退行影響度順ソート済みインデックスリストを記憶装置13等に記録する。
図11のステップS13において、重み影響測定部104が、改善テストデータXimpをn世代目モデルに入力したときの出力Yimpを重みWnで自動微分することで改善影響度∂Yimp/∂Wnを算出し、この算出した改善影響度を記憶装置13等に記録する。
図11のステップS14において、重み影響測定部104は、改善影響度の大きさ順に重みのインデックスをソートした改善影響度順ソート済みインデックスリストを記憶装置13等に記録する。
図12のステップS15では、DNNモデルにおける全てのレイヤlに対して、ステップS18までの制御を繰り返し実施するループ処理を開始する。
図12のステップS16において、選択重み個数決定部105は、レイヤlの重み差分の平均を算出し、記憶装置13等に記録する。
図12のステップS17において、選択重み個数決定部105は、レイヤlの退行影響度の平均を算出し、記憶装置13等に記録する。
図12のステップS18において、選択重み個数決定部105は、レイヤlの改善影響度の平均を算出し、記憶装置13等に記録する。
図12のステップS19では、ステップS15に対応するループ端処理が実施される。ここで、全レイヤについての処理が完了すると、制御が図12のステップS20に進む。
ステップS20では、DNNモデルにおける全てのレイヤlに対して、ステップS25までの制御を繰り返し実施するループ処理を開始する。
図12のステップS21において、選択重み個数決定部105は、レイヤlの正規化した重み差分平均を算出し、記憶装置13等に記録する。
図12のステップS22において、選択重み個数決定部105は、レイヤlの正規化した退行影響度平均を算出し、記憶装置13等に記録する。
図12のステップS23において、選択重み個数決定部105は、レイヤlの正規化した改善影響度平均を算出し、記憶装置13等に記録する。
図12のステップS24において、選択重み個数決定部105は、上記式(1)に基づき、レイヤlの疑惑値を算出する。
図12のステップS25において、選択重み個数決定部105は、疑惑値に基づいてレイヤlにおいて修正対象として選択する重みの個数を決定し、記憶装置13等に記録する。
図12のステップS26では、ステップS20に対応するループ端処理が実施される。ここで、全レイヤについての処理が完了すると、制御が図12のステップS27に進む。
ステップS27では、DNNモデルにおける全てのレイヤlに対して、ステップS32までの制御を繰り返し実施するループ処理を開始する。
図12のステップS28において、修正対象重み特定部106は、レイヤlに対して、重み差分順ソート済みインデックスの上位から選択重み個数の重みを選択した集合である重み差分上位インデックスを生成し、記憶装置13等に記録する。
図12のステップS29において、修正対象重み特定部106は、レイヤlに対して、退行影響度順ソート済みインデックスの上位から選択重み個数分の重みを選択した集合である退行影響度上位インデックスを生成し、記憶装置13等に記録する。
図12のステップS30において、修正対象重み特定部106は、レイヤlに対して、改善影響度順ソート済みインデックスの上位から選択重み個数分の重みを選択した集合である改善影響度上位インデックスを生成し、記憶装置13等に記録する。
図12のステップS31において、修正対象重み特定部106は、レイヤlに対して、重み差分上位インデックス∩退行影響度上位インデックス\改善影響度上位インデックスとなるインデックス集合を修正対象重みのインデックスとして生成し、記憶装置13等に記録する。
図12のステップS32において、レイヤlに対して、修正対象重み特定部106は、修正対象重みのインデックスにより特定される重みを修正対象重みとして記録する。
図12のステップS33では、ステップS27に対応するループ端処理が実施される。ここで、全レイヤlに対して処理が完了すると、制御がステップS34に進む。
図12のステップS34において、修正対象重み特定部106は、全レイヤlにおいて記録された修正対象重みWlocalizeを出力し、その後、処理を終了する。
そして、このように生成された修正対象重みWlocalizeを対象として、例えば、PSOを用いて重み修正が行なわれる。
(C)効果
このように、実施形態の一例としての情報処理装置1によれば、修正対象重み特定部106が、各レイヤにおいて、退行影響度の上位且つ重み差分の上位に含まれ、且つ、改善影響度の上位に含まれない重みを修正対象重みとして選択する。これにより、退行が起こりにくい重みの修正を実現することができる。
すなわち、改善影響度が大きい重みが修正対象重みから除外されることで、改善につながったエッジ群の重みはそのまま活かされることとなる。その一方で、退行影響度が大きい重みが修正対象重みに含まれることで、退行につながったエッジ群の重みが修正対象に含まれる。従って、改善につながったエッジ群の重みはそのまま活かしつつ、退行につながったエッジ群の重みのみを修正対象とすることができる。
図13は実施形態の一例としての情報処理装置1におけるシミュレーション結果を例示する図である。
この図13においては、GTSRB(The German Traffic Sign Recognition Benchmark)の交通標識の画像を対象データとして、本情報処理装置1による修正対象エッジ決定手法を従来手法(Arachne)と比較して表す。
この図13に示すように、本情報処理装置1による修正対象エッジ決定手法によれば、十分なRepairRateの上でBreakRateを抑えることに成功していることがわかる。
(D)その他
図14は実施形態の一例としての情報処理装置1のハードウェア構成を例示する図である。
情報処理装置1は、コンピュータであって、例えば、プロセッサ11,メモリ12,記憶装置13,グラフィック処理装置14,入力インタフェース15,光学ドライブ装置16,機器接続インタフェース17およびネットワークインタフェース18を構成要素として有する。これらの構成要素11~18は、バス19を介して相互に通信可能に構成される。
プロセッサ(制御部)11は、情報処理装置1全体を制御する。プロセッサ11は、マルチプロセッサであってもよい。プロセッサ11は、例えばCPU,MPU(Micro Processing Unit),DSP(Digital Signal Processor),ASIC(Application Specific Integrated Circuit),PLD(Programmable Logic Device),FPGA(Field Programmable Gate Array)のいずれか一つであってもよい。また、プロセッサ11は、CPU,MPU,DSP,ASIC,PLD,FPGAのうちの2種類以上の要素の組み合わせであってもよい。
そして、プロセッサ11が情報処理装置1用の制御プログラム(修正対象エッジ決定プログラム:図示省略)を実行することにより、図1に例示した、モデル訓練部101,テストデータ分類部102,重み差分測定部103,重み影響測定部104,選択重み個数決定部105および修正対象重み特定部106としての機能が実現される。
なお、情報処理装置1は、例えばコンピュータ読み取り可能な非一時的な記録媒体に記録されたプログラム(修正対象エッジ決定プログラム,OSプログラム)を実行することにより、モデル訓練部101,テストデータ分類部102,重み差分測定部103,重み影響測定部104,選択重み個数決定部105および修正対象重み特定部106としての機能を実現する。
情報処理装置1に実行させる処理内容を記述したプログラムは、様々な記録媒体に記録しておくことができる。例えば、情報処理装置1に実行させるプログラムを記憶装置13に格納しておくことができる。プロセッサ11は、記憶装置13内のプログラムの少なくとも一部をメモリ12にロードし、ロードしたプログラムを実行する。
また、情報処理装置1(プロセッサ11)に実行させるプログラムを、光ディスク16a,メモリ装置17a,メモリカード17c等の非一時的な可搬型記録媒体に記録しておくこともできる。可搬型記録媒体に格納されたプログラムは、例えばプロセッサ11からの制御により、記憶装置13にインストールされた後、実行可能になる。また、プロセッサ11が、可搬型記録媒体から直接プログラムを読み出して実行することもできる。
メモリ12は、ROM(Read Only Memory)およびRAM(Random Access Memory)を含む記憶メモリである。メモリ12のRAMは情報処理装置1の主記憶装置として使用される。RAMには、プロセッサ11に実行させるプログラムの少なくとも一部が一時的に格納される。また、メモリ12には、プロセッサ11による処理に必要な各種データが格納される。
記憶装置13は、ハードディスクドライブ(Hard Disk Drive:HDD)、SSD(Solid State Drive)、ストレージクラスメモリ(Storage Class Memory:SCM)等の記憶装置であって、種々のデータを格納するものである。記憶装置13は、情報処理装置1の補助記憶装置として使用される。
記憶装置13には、OSプログラム,制御プログラムおよび各種データが格納される。制御プログラムには修正対象エッジ決定プログラムが含まれる。
なお、補助記憶装置としては、SCMやフラッシュメモリ等の半導体記憶装置を使用することもできる。また、複数の記憶装置13を用いてRAID(Redundant Arrays of Inexpensive Disks)を構成してもよい。
記憶装置13には、前世代モデルや現世代モデルの情報を格納してもよく、また、退行テストデータや改善テストデータを格納してもよい。さらに、記憶装置13には、重み差分情報201,退行影響度情報202,改善影響度情報203,重み差分順インデックスリスト210,退行影響度順インデックスリスト220および改善影響度順インデックスリスト230の少なくとも一部を格納してもよい。また、記憶装置13には、選択重み個数決定部105が決定したレイヤ毎の選択重み個数を格納してもよい。さらに、記憶装置13には、重み差分上位インデックス,退行影響度上位インデックス,改善影響度上位インデックス,重み差分順ソート済みインデックスリスト,退行影響度順ソート済みインデックスリストおよび改善影響度順ソート済みインデックスリストのうちの少なくとも一部を記録させてもよい。
グラフィック処理装置14には、モニタ14aが接続されている。グラフィック処理装置14は、プロセッサ11からの命令に従って、画像をモニタ14aの画面に表示させる。モニタ14aとしては、CRT(Cathode Ray Tube)を用いた表示装置や液晶表示装置等が挙げられる。
入力インタフェース15には、キーボード15aおよびマウス15bが接続されている。入力インタフェース15は、キーボード15aやマウス15bから送られてくる信号をプロセッサ11に送信する。なお、マウス15bは、ポインティングデバイスの一例であり、他のポインティングデバイスを使用することもできる。他のポインティングデバイスとしては、タッチパネル,タブレット,タッチパッド,トラックボール等が挙げられる。
光学ドライブ装置16は、レーザ光等を利用して、光ディスク16aに記録されたデータの読み取りを行なう。光ディスク16aは、光の反射によって読み取り可能にデータを記録された可搬型の非一時的な記録媒体である。光ディスク16aには、DVD(Digital Versatile Disc),DVD-RAM,CD-ROM(Compact Disc Read Only Memory),CD-R(Recordable)/RW(ReWritable)等が挙げられる。
機器接続インタフェース17は、情報処理装置1に周辺機器を接続するための通信インタフェースである。例えば、機器接続インタフェース17には、メモリ装置17aやメモリリーダライタ17bを接続することができる。メモリ装置17aは、機器接続インタフェース17との通信機能を搭載した非一時的な記録媒体、例えばUSB(Universal Serial Bus)メモリである。メモリリーダライタ17bは、メモリカード17cへのデータの書き込み、またはメモリカード17cからのデータの読み出しを行なう。メモリカード17cは、カード型の非一時的な記録媒体である。
ネットワークインタフェース18は、ネットワークに接続される。ネットワークインタフェース18は、ネットワークを介してデータの送受信を行なう。ネットワークには他の情報処理装置や通信機器等が接続されてもよい。
なお、上述した実施形態に関わらず、本実施形態の趣旨を逸脱しない範囲で種々変形して実施することができる。
例えば、上述した実施形態においては、DNNに適用した例を示しているが、これに限定されるものではなく、NNに適用してもよい。
また、上述した開示により本実施形態を当業者によって実施・製造することが可能である。
(E)付記
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)
情報処理装置がニューラルネットワークモデルに含まれるエッジのうち、修正対象とするエッジを決定するに際して、
第二の世代の訓練済み機械学習モデルに含まれる各エッジのうち、前記第二の世代より前の第一の世代の訓練済み機械学習モデルに含まれる前記各エッジと重みが異なるエッジを変更エッジ群として抽出する処理と、
前記変更エッジ群について、退行が発生したテストデータである退行テストデータの出力に影響を与えた第一のエッジ分類と、改善が発生したテストデータである改善テストデータの出力に影響を与えた第二のエッジ分類とに分類する処理と、
前記第一のエッジ分類に含まれる第一エッジ群から、前記第二のエッジ分類に含まれる第二エッジ群を差し引いた第三エッジ群を修正対象と特定する処理と
を備えることを特徴とする、修正対象エッジ決定方法。
(付記2)
前記ニューラルネットワークのレイヤ毎に、前記抽出する処理と、前記分類する処理と前記特定する処理とを行なう
ことを特徴とする、付記1記載の修正対象エッジ決定方法。
(付記3)
前記抽出する処理において、
前記第二の世代の訓練済み機械学習モデルに含まれる各エッジのうち、前記第一の世代の訓練済み機械学習モデルに含まれる前記各エッジと重みが異なるエッジのうち、前記第二の世代の訓練済み機械学習モデルの重みと前記第一の世代の訓練済み機械学習モデルの重みとの差分が大きいエッジを優先して抽出する
ことを特徴とする、付記1または2に記載の修正対象エッジ決定方法。
(付記4)
前記分類する処理において、類前記退行テストデータを前記第二の世代の訓練済み機械学習モデルに入力して得られる出力を重みで微分して求める退行影響度が大きいエッジを優先して前記第一のエッジ分類とする
ことを特徴とする、付記1~3のいずれか1項に記載の修正対象エッジ決定方法。
(付記5)
前記分類する処理において、前記改善テストデータを前記第二の世代の訓練済み機械学習モデルに入力して得られる出力を重みで微分して求める改善影響度が大きいエッジを優先して前記第二のエッジ分類とする
ことを特徴とする、付記1~4のいずれか1項に記載の修正対象エッジ決定方法。
(付記6)
ニューラルネットワークモデルに含まれるエッジのうち、修正対象とするエッジを決定する情報処理装置のプロセッサに、
第二の世代の訓練済み機械学習モデルに含まれる各エッジのうち、前記第二の世代より前の第一の世代の訓練済み機械学習モデルに含まれる前記各エッジと重みが異なるエッジを変更エッジ群として抽出する処理と、
前記変更エッジ群について、退行が発生したテストデータである退行テストデータの出力に影響を与えた第一のエッジ分類と、改善が発生したテストデータである改善テストデータの出力に影響を与えた第二のエッジ分類とに分類する処理と、
前記第一のエッジ分類に含まれる第一エッジ群から、前記第二のエッジ分類に含まれる第二エッジ群を差し引いた第三エッジ群を修正対象と特定する処理と
を実行させることを特徴とする、修正対象エッジ決定プログラム。
(付記7)
前記プロセッサに、
前記ニューラルネットワークのレイヤ毎に、前記抽出する処理と、前記分類する処理と前記特定する処理と
を実行させることを特徴とする、付記6記載の修正対象エッジ決定プログラム。
(付記8)
前記プロセッサに、
前記第二の世代の訓練済み機械学習モデルに含まれる各エッジのうち、前記第一の世代の訓練済み機械学習モデルに含まれる前記各エッジと重みが異なるエッジのうち、前記第二の世代の訓練済み機械学習モデルの重みと前記第一の世代の訓練済み機械学習モデルの重みとの差分が大きいエッジを優先して抽出する
処理を実行させることを特徴とする、付記6または7に記載の修正対象エッジ決定プログラム。
(付記9)
前記プロセッサに、
前記退行テストデータを前記第二の世代の訓練済み機械学習モデルに入力して得られる出力を重みで微分して求める退行影響度が大きいエッジを優先して前記第一のエッジ分類とする
処理を実行させることを特徴とする、付記6~8のいずれか1項に記載の修正対象エッジ決定プログラム。
(付記10)
前記プロセッサに、
前記改善テストデータを前記第二の世代の訓練済み機械学習モデルに入力して得られる出力を重みで微分して求める改善影響度が大きいエッジを優先して前記第二のエッジ分類とする
処理を実行させることを特徴とする、付記6~9のいずれか1項に記載の修正対象エッジ決定プログラム。
1 情報処理装置
11 プロセッサ(処理部)
12 メモリ
13 記憶装置
14 グラフィック処理装置
14a モニタ
15 入力インタフェース
15a キーボード
15b マウス
16 光学ドライブ装置
16a 光ディスク
17 機器接続インタフェース
17a メモリ装置
17b メモリリーダライタ
17c メモリカード
18 ネットワークインタフェース
18a ネットワーク
19 バス
101 モデル訓練部
102 テストデータ分類部
103 重み差分測定部
104 重み影響測定部
105 選択重み個数決定部
106 修正対象重み特定部
201 重み差分情報
202 退行影響度情報
203 改善影響度情報
210 重み差分順インデックスリスト
220 退行影響度順インデックスリスト
230 改善影響度順インデックスリスト

Claims (6)

  1. 情報処理装置がニューラルネットワークの機械学習モデルに含まれるエッジのうち、修正対象とするエッジを決定するに際して、
    第二の世代の訓練済み機械学習モデルに含まれる各エッジのうち、前記第二の世代より前の第一の世代の訓練済み機械学習モデルに含まれる前記各エッジと重みが異なるエッジを変更エッジ群として抽出する処理と、
    前記変更エッジ群について、退行が発生したテストデータである退行テストデータの出力に影響を与えた第一のエッジ分類と、改善が発生したテストデータである改善テストデータの出力に影響を与えた第二のエッジ分類とに分類する処理と、
    前記第一のエッジ分類に含まれる第一エッジ群から、前記第二のエッジ分類に含まれる第二エッジ群を差し引いた第三エッジ群を修正対象と特定する処理と
    を備えることを特徴とする、修正対象エッジ決定方法。
  2. 前記ニューラルネットワークのレイヤ毎に、前記抽出する処理と、前記分類する処理と前記特定する処理とを行なう
    ことを特徴とする、請求項1記載の修正対象エッジ決定方法。
  3. 前記抽出する処理において、
    前記第二の世代の訓練済み機械学習モデルに含まれる各エッジのうち、前記第一の世代の訓練済み機械学習モデルに含まれる前記各エッジと重みが異なるエッジのうち、前記第二の世代の訓練済み機械学習モデルの重みと前記第一の世代の訓練済み機械学習モデルの重みとの差分が大きいエッジを優先して抽出する
    ことを特徴とする、請求項1または2に記載の修正対象エッジ決定方法。
  4. 前記分類する処理において、類前記退行テストデータを前記第二の世代の訓練済み機械学習モデルに入力して得られる出力を重みで微分して求める退行影響度が大きいエッジを優先して前記第一のエッジ分類とする
    ことを特徴とする、請求項1~3のいずれか1項に記載の修正対象エッジ決定方法。
  5. 前記分類する処理において、前記改善テストデータを前記第二の世代の訓練済み機械学習モデルに入力して得られる出力を重みで微分して求める改善影響度が大きいエッジを優先して前記第二のエッジ分類とする
    ことを特徴とする、請求項1~4のいずれか1項に記載の修正対象エッジ決定方法。
  6. ニューラルネットワークモデルに含まれるエッジのうち、修正対象とするエッジを決定する情報処理装置のプロセッサに、
    第二の世代の訓練済み機械学習モデルに含まれる各エッジのうち、前記第二の世代より前の第一の世代の訓練済み機械学習モデルに含まれる前記各エッジと重みが異なるエッジを変更エッジ群として抽出する処理と、
    前記変更エッジ群について、退行が発生したテストデータである退行テストデータの出力に影響を与えた第一のエッジ分類と、改善が発生したテストデータである改善テストデータの出力に影響を与えた第二のエッジ分類とに分類する処理と、
    前記第一のエッジ分類に含まれる第一エッジ群から、前記第二のエッジ分類に含まれる第二エッジ群を差し引いた第三エッジ群を修正対象と特定する処理と
    を実行させることを特徴とする、修正対象エッジ決定プログラム。
JP2020195478A 2020-11-25 2020-11-25 修正対象エッジ決定方法および修正対象エッジ決定プログラム Pending JP2022083884A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020195478A JP2022083884A (ja) 2020-11-25 2020-11-25 修正対象エッジ決定方法および修正対象エッジ決定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020195478A JP2022083884A (ja) 2020-11-25 2020-11-25 修正対象エッジ決定方法および修正対象エッジ決定プログラム

Publications (1)

Publication Number Publication Date
JP2022083884A true JP2022083884A (ja) 2022-06-06

Family

ID=81855338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020195478A Pending JP2022083884A (ja) 2020-11-25 2020-11-25 修正対象エッジ決定方法および修正対象エッジ決定プログラム

Country Status (1)

Country Link
JP (1) JP2022083884A (ja)

Similar Documents

Publication Publication Date Title
JP6875021B2 (ja) 有用な学習データを取捨選別するためのcnn基盤の学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置
US8923608B2 (en) Pre-screening training data for classifiers
JP6646234B2 (ja) プログラム生成装置、プログラム生成方法および生成プログラム
RU2373575C2 (ru) Система и способ для обнаружения рукописных объектов в рукописном вводе чернилами
JP7117934B2 (ja) 画像分類装置及びプログラム
JP2011150541A (ja) 学習装置、学習方法、及びプログラム
JP7353198B2 (ja) 計算機、識別器の学習方法、および分析システム
KR102103511B1 (ko) 코드 생성 장치 및 방법
JP2023503100A (ja) データ・ラベル検証
JPWO2017090194A1 (ja) リスク評価方法、リスク評価プログラム及び情報処理装置
CN115699024A (zh) 疾病严重程度判断用神经网络学习方法及系统
JP6643905B2 (ja) 機械学習方法および機械学習装置
KR102187701B1 (ko) 백내장 진단을 위한 토너먼트 기반의 랭킹 컨볼루셔널 뉴럴 네트워크
JP2022083884A (ja) 修正対象エッジ決定方法および修正対象エッジ決定プログラム
JP2023502804A (ja) 目標志向的強化学習方法及びこれを遂行するための装置
US11892507B2 (en) Early detection of quality control test failures for manufacturing end-to-end testing optimization
CN115543762A (zh) 一种磁盘smart数据扩充方法、系统及电子设备
KR102480518B1 (ko) 신용평가 모델 업데이트 또는 교체 방법 및 장치
JP2023087266A (ja) 機械学習プログラム,機械学習方法および機械学習装置
US20200005182A1 (en) Selection method, selection apparatus, and recording medium
Polpinij et al. Bug reports identification using multiclassification method
JP2023168157A (ja) 機械学習プログラム,機械学習方法,および情報処理装置
JP2023183079A (ja) 訓練データ生成プログラム,訓練データ生成方法および情報処理装置
JP7448026B2 (ja) 検知プログラム、モデル生成プログラム、検知方法、モデル生成方法、検知装置及びモデル生成装置
WO2024013939A1 (ja) 機械学習プログラム、機械学習方法、および情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230804