JP7331937B2 - ロバスト学習装置、ロバスト学習方法、プログラム及び記憶装置 - Google Patents

ロバスト学習装置、ロバスト学習方法、プログラム及び記憶装置 Download PDF

Info

Publication number
JP7331937B2
JP7331937B2 JP2021550806A JP2021550806A JP7331937B2 JP 7331937 B2 JP7331937 B2 JP 7331937B2 JP 2021550806 A JP2021550806 A JP 2021550806A JP 2021550806 A JP2021550806 A JP 2021550806A JP 7331937 B2 JP7331937 B2 JP 7331937B2
Authority
JP
Japan
Prior art keywords
objective function
neural networks
neural network
parameters
training data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021550806A
Other languages
English (en)
Other versions
JPWO2021064856A1 (ja
Inventor
拓磨 天田
和也 柿崎
俊則 荒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021064856A1 publication Critical patent/JPWO2021064856A1/ja
Application granted granted Critical
Publication of JP7331937B2 publication Critical patent/JP7331937B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

本発明は、複数機械学習モデルの構築を行うロバスト学習装置、ロバスト学習方法、プログラム及び記憶装置に関する。
機械学習、特に深層学習は、コンピュータ性能の向上やアルゴリズムの進歩によって人手によるルール記述、特徴量設計が不要かつ高精度なパターン認識を実現する。自動運転は、注目されているアプリケーションの一つである。また、画像人意識、音声認識を応用した高精度な生体認証技術も代表的なアプリケーションである。
一方で、機械学習によって構築された学習済みモデルには脆弱性が存在する。学習済みモデルを欺くように巧みに作られた人為的なサンプルである、敵対的サンプルを用いれば、訓練時に想定されていない誤動作が誘発されるという問題が知られている。敵対的サンプルを生成する一方式では、敵対的サンプルによる攻撃対象の人工知能、分類器が入力に対してどう反応するかを解析することで対象の分類器が誤りを生じやすい領域を特定し、当該領域に誘導するようなサンプルを人工的に生成することができる。こういったサンプルは分類器を判断ロジックとして利用するシステムやAIモデルに誤動作や暴走といったインシデントを誘発させることが可能となる。
例えば、交通標識を認識するタスクを学習した分類器に対する敵対的サンプルの一例として、特定の交通標識に誤分類するように巧みに作られたシールを既存の標識に張ったもの、ある標識の特定箇所を削ったもの、人間には認識できないほどのノイズを付加したもの等があげられる。敵対的サンプルの生成には、攻撃者が学習済みモデルのパラメータにアクセスできる状況で、学習済みモデルの出力と正解との誤差が大きくなるようにサンプルにノイズを載せる方法(white box攻撃)や、攻撃者はモデルのパラメータにアクセスせず、入力と出力の関係から、別の学習モデルを構築し、そのモデルへのwhite box攻撃により所望の敵対的サンプルを生成する方法がよく知られている。
これら敵対的サンプルによる問題への対策として、学習モデルをロバストに構築する方法が提案されている(非特許文献1)。ここで、「ロバスト」とは、あるサンプルとはわずかに異なる敵対的サンプルが入力されたとき、正常サンプルに対する正解クラス以外のクラスへの誤分類が生じづらい状態をいう。所定のロバスト性を達成しながら学習モデルを学習することをロバスト学習と呼ぶ。敵対的サンプルへのロバスト学習手法のうち、非特許文献1に記載の方法は、モデルを複数用意して、入力に対する勾配ベクトルの向きがモデル間で開くように学習する。敵対的サンプルを生成するために用いられたノイズによる影響がモデル間で異なりやすく、全てのモデルが同様に騙されることを防ぐ技術である。
機械学習のモデルの生成過程では、モデルの出力と学習データの正解ラベルとの誤差によって定められ、誤差が小さいほど学習データとネットワークの予測結果が近くなるように定められた予測損失関数と呼ばれる関数が用いられる。この予測損失関数を微分することで、予測損失関数の値が小さくなるようにパラメータを更新することでモデルの生成処理は進む。このような更新処理を複数回実行することで学習を進めていき、十分にモデルの出力が学習データの正解ラベルに近づくか、予定していただけの更新処理を行うことでモデルを生成する。
非特許文献1に記載の方法では、予測損失関数に加えて、各モデルのパラメータの更新方向が異なっているときに小さくなる関数を用いる。具体的には、予測損失関数が増加する入力データの変化の方向を示す勾配ベクトルの類似度をすべてのモデルについて和をとった関数を用いている。この関数を勾配損失関数と呼ぶ。勾配損失関数には例えば、2ベクトル間のcosine類似度の計算を行う。勾配ベクトルの方向がモデル毎に異なっているほど、勾配ベクトルのcosine類似度の和は小さくなる。
非特許文献1に記載の方法では、予測損失関数と勾配損失関数の和を微分し、和が小さくなるようにパラメータを更新することでモデルの生成処理を行う。この条件でパラメータの更新を繰り返すと、両方の条件を満たすパラメータに近づいていく。予測損失関数は予測精度の向上の役割を担い、勾配損失関数は各モデルの勾配ベクトルが異なる方向に更新する役割を担う。各モデルの勾配ベクトルが異なる方向に更新されると敵対的サンプルへの堅牢性が向上する。
非特許文献1に記載の方法では、学習の目的関数に予測損失関数と勾配損失関数を含み、勾配損失関数は学習対象のすべてのモデルの勾配ベクトルが含まれるため、生成された計算グラフを逆伝搬したときに、全てのモデルのネットワークパラメータの微分係数を求めるため、微分処理が重い。なお、全ての訓練データの予測結果を反映させてニューラルネットワークのパラメータを更新することを学習1エポックとし、学習済みモデルの生成には決められたエポック数だけ学習するか、推論において十分な精度を達成するまで学習する。
"Improving Adversarial Robustness of Ensembles with Diversity Training"、「online」、「令和1年8月26日検索」、インターネット<URL : https://arxiv.org/abs/1901.9981 >
非特許文献1に記載の、異なる特徴を持つ複数のモデルの生成方法は、計算量が大きい。例えば、非特許文献1に記載の方法では、モデルを学習する際の目的関数に、モデルの予測の正確性を表す予測損失と、他のモデルとの更新方向が異なるときに小さくなる勾配損失を用いている。勾配損失の計算には、全てのモデルの入力に対する勾配ベクトルを算出し、各ベクトルの類似度を計算する。生成するモデル数をnとし、モデルi(=1、2、…、n)についてパラメータの更新を行うとき、勾配損失算出でn個のベクトルを生成する。モデルiの勾配ベクトルとその他のモデルの勾配ベクトルとの類似度を計算し、予測損失とを足し合わせて目的関数とする。このとき、モデルiの目的関数には他モデルの勾配ベクトルが含まれており、勾配法でモデルパラメータの更新を行うと、モデルiは識別の正確性が高まりかつ他のモデルとは異なるように更新され、モデルi以外のモデルはモデルiとの類似度が低下するように更新される。モデルiの更新でモデルn個分のパラメータを更新するため、並列に学習するモデル数が増加するとき、学習時間がO(n)のオーダーで増加する。並列に学習するモデル数が増加するほど、学習時間が非効率である。
本発明は、上述の課題を解決することのできるロバスト学習装置、ロバスト学習方法、プログラム、及び記憶装置を提供する。
本発明の一つの態様によれば、ロバスト学習装置は、n個のニューラルネットワークのパラメータと、訓練データと、正解ラベルを入力として、更新された前記パラメータを出力するロバスト学習装置であって、n個の前記ニューラルネットワークの中からn未満、且つ、2以上の前記ニューラルネットワークを選択するモデル選択部と、前記訓練データに対する前記ニューラルネットワークの出力が前記正解ラベルと近くなり、且つ、前記ニューラルネットワーク間の類似度が小さくなるほどその値が小さくなる処理を含む目的関数の算出過程において、前記モデル選択部が選択した前記ニューラルネットワークに関連する前記処理のみを含む限定目的関数を算出する限定目的関数算出部と、前記限定目的関数の値が小さくなるように、前記パラメータの更新を行う更新部と、を備える。
本発明の一つの態様によれば、ロバスト学習方法は、n個のニューラルネットワークのパラメータと、訓練データと、正解ラベルを入力として、更新された前記パラメータを出力するロバスト学習方法であって、n個の前記ニューラルネットワークの中からn未満、且つ、2以上の前記ニューラルネットワークを選択し、前記訓練データに対する前記ニューラルネットワークの出力が前記正解ラベルと近くなり、且つ、前記ニューラルネットワーク間の類似度が小さくなるほどその値が小さくなる処理を含む目的関数の算出過程において、前記選択された前記ニューラルネットワークに関連する前記処理のみを含む限定目的関数を算出し、前記限定目的関数の値が小さくなるように、前記パラメータの更新を行う。
本発明の一つの態様によれば、プログラムは、n個のニューラルネットワークのパラメータと、訓練データと、正解ラベルを入力として、更新された前記パラメータを出力するコンピュータに、n個の前記ニューラルネットワークの中からn未満、且つ、2以上の前記ニューラルネットワークを選択する処理、前記訓練データに対する前記ニューラルネットワークの出力が前記正解ラベルと近くなり、且つ、前記ニューラルネットワーク間の類似度が小さくなるほどその値が小さくなる処理を含む目的関数の算出過程において、前記選択された前記ニューラルネットワークに関連する前記処理のみを含む限定目的関数を算出する処理、前記限定目的関数の値が小さくなるように、前記パラメータの更新を行う処理、を行わせる。
本発明の一つの態様によれば、記憶装置は、n個のニューラルネットワークのパラメータ、訓練データ、正解ラベルを入力として、更新された前記パラメータを出力するコンピュータに、n個の前記ニューラルネットワークの中からn未満、且つ、2以上の前記ニューラルネットワークを選択する処理、前記訓練データに対する前記ニューラルネットワークの出力が前記正解ラベルと近くなり、且つ、前記ニューラルネットワーク間の類似度が小さくなるほどその値が小さくなる処理を含む目的関数の算出過程において、前記選択された前記ニューラルネットワークに関連する前記処理のみを含む限定目的関数を算出する処理、前記限定目的関数の値が小さくなるように、前記パラメータの更新を行う処理、を行わせるプログラムを記憶する。
上記したロバスト学習装置、ロバスト学習方法、プログラム、及び記憶装置によれば、敵対的サンプルが入力されても、想定外の動作を回避できるような学習モデルであって、その学習モデルが、並列に依存させて学習するモデルを複数含む場合に、並列に依存させて学習するモデルの数が増加しても、効率的に少ない学習時間で学習モデルを構築することができる。
本発明の第一実施形態に係るロバスト学習装置の一例を示すブロック図である。 本発明の第一実施形態に係る限定目的関数算出装置の一例を示すブロック図である。 本発明の第一実施形態に係るロバスト学習装置の動作例を示すフローチャートである。 本発明の第二実施形態に係る限定目的関数算出装置の一例を示すブロック図である。 本発明の第三実施形態に係るロバスト学習装置の一例を示すブロック図である。 本発明の一実施形態に係るロバスト学習装置の最小構成を示す図である。 本発明の一実施形態におけるロバスト学習装置のハードウェア構成の一例を示す図である。
以下、本発明の各実施形態について図面を参照して詳細に説明する。以下の実施形態は請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。以下の説明に用いる図面において、本発明に関係ない部分の構成については、記載を省略し、図示しない場合がある。
<第一実施形態>
(構成の説明)
図1は、本発明の第一実施形態に係るロバスト学習装置の一例を示すブロック図である。
図1に示すようにロバスト学習装置10は、モデル選択部11と、限定目的関数算出装置100と、更新部12と、を含む。
ロバスト学習装置10は、自然数nに対して、互いに依存させながら学習させるn個のニューラルネットワークf_1、f_2、・・・、f_n、n個のパラメータθ_1、θ_2、・・・、θ_n、複数の訓練データX、訓練データXに対応する正解ラベルY、ハイパーパラメータCを入力として受け付け、更新済みのニューラルネットワークのパラメータθ’_1、…、θ’_nを出力する。なお、パラメータθ_1は、ニューラルネットワークf_1のパラメータであり、他のパラメータθ_2等についても同様である。
ニューラルネットワークf_1~f_nは、ある目的で構築される1つの学習モデルを構成する。以下で説明するように、ニューラルネットワークf_1~f_nのそれぞれは、同じ訓練データXを入力すると、それぞれが正解ラベルYに近い値を出力するように学習され、その一方で、ニューラルネットワークf_1~f_nの類似度が小さくなるように学習される。1つの学習モデルに、このようなニューラルネットワークf_1~f_nを並列に設けておくことで、敵対的なパラメータが入力されても、全てのニューラルネットワークが騙される可能性を下げることができ、学習モデル全体としては安全になる。例えば、学習モデルは、ニューラルネットワークf_1~f_nを統括する機能を有しており、この機能が、ニューラルネットワークf_1~f_nの出力の相違を見て、例えば、他と大きく異なる値を出力したニューラルネットワークについては騙された可能性があるとみなして、その出力を無視したり、騙されていないと考えられるニューラルネットワークについては、例えば、それらの出力の平均値を算出して、その平均値を学習モデルの最終的な出力として採用したりする。本発明は、学習モデルが備えるニューラルネットワークf_1~f_nを、少ない学習時間および計算量で学習させる技術に関する。
モデル選択部11は、ニューラルネットワークf_1~f_nの中から、複数のニューラルネットワークを選択する。モデル選択部11は、選択したモデルのインデックスt_j(jは、1~nのうちモデル選択部11が選択したニューラルネットワークのインデックス)を出力する。なお、以下では、ニューラルネットワークf_1~f_nの個々をモデルと記載する場合がある。
限定目的関数算出装置100は、訓練データX、ニューラルネットワークf_1~f_nと各ニューラルネットワークのパラメータθ_1~θ_n、正解ラベルYから、モデル選択部11が選択したニューラルネットワークに関連する処理のみに関して、目的関数を算出し出力する。
更新部12は、ハイパーパラメータCと限定目的関数算出装置100で算出した目的関数から、Cの比率でニューラルネットワークの出力と正解ラベルYとの差が小さくなるよう、且つモデル間の勾配ベクトルの類似度が小さくなるように、ニューラルネットワークf_i等のパラメータθ_i等を更新する(iは1~nの任意の自然数)。
図2は、本発明の第一実施形態に係る限定目的関数算出装置の一例を示すブロック図である。
限定目的関数算出装置100は、予測部101と、予測損失算出部102と、
勾配ベクトル算出部103と、勾配損失算出部104と、目的関数生成部105とを有する。
限定目的関数算出装置100は、ニューラルネットワークf_1~f_nと、各ニューラルネットワークのパラメータθ_1~θ_nと、訓練データX、正解ラベルY、ハイパーパラメータC、モデル選択部11で選択したニューラルネットワークのインデックスt_jを入力として受け付ける。
予測部101は、訓練データXと複数のニューラルネットワークf_1~f_nによる予測を行う。予測部101は、訓練データXをニューラルネットワークf_1~f_nに入力して、ニューラルネットワークf_1~f_nが出力する値を出力する。本実施形態では、ここで入力とするf_1~f_n、θ_1~θ_n、X、Yは、任意のものでよい。
予測損失算出部102は、訓練データXと正解ラベルYが対応するように各ニューラルネットワークf_1~f_nの出力と正解ラベルYとの誤差に基づいて、予測損失関数を計算する。例えば、f_iの予測損失関数l_i()には、交差エントロピーを用いることができる。
勾配ベクトル算出部103は、訓練データXと予測損失算出部102の出力である誤差l_1~l_nから、以下のようなXに対する誤差の勾配ベクトル∇_iを算出する。
Figure 0007331937000001
式(1)に示すように勾配ベクトルは、訓練データXの摂動に対する予測損失関数の変化を示す。
勾配損失算出部104は、勾配ベクトル∇_1~∇_nを入力として、各f_iの勾配ベクトルに対応する∇_iとそれ以外のn-1個の勾配ベクトルについて類似度の算出を行い、その和を勾配損失関数として出力する。類似度の算出は、例えば、2つの勾配ベクトルのcosine類似度を算出することにより評価することができる。
目的関数生成部105は予測損失算出部102と勾配損失算出部104から受け取る予測損失関数l_i()と勾配損失関数を、ハイパーパラメータCに従って比率を調整し、モデル選択部11で選択したニューラルネットワークに関連する値を目的関数として出力する。ここで、ニューラルネットワークf_iの出力と正解ラベルYとの差を示す予測損失関数l_i()、ニューラルネットワーク間の類似度の和を示す勾配損失関数D()を用いると、目標関数loss_iは、例えば、loss_i=l_i()+C×D()で表すことができる。
(動作の説明)
次にロバスト学習装置10の動作について説明する。
図3は、本発明の第一実施形態に係るロバスト学習装置の動作例を示すフローチャートである。
まず、ロバスト学習装置10には、n個のニューラルネットワークf_1~f_nと、パラメータθ_1~θ_nと、訓練データXと、正解ラベルYと、ハイパーパラメータCが入力される。
次に、モデル選択部11は、更新するニューラルネットワークを複数選択する(S1)。選択するニューラルネットワークの数は任意である。モデル選択部11は、選択したニューラルネットワークのインデックスt_jを限定目的関数算出装置100へ出力する。
次に、限定目的関数算出装置100は、選択されたニューラルネットワークに関連する処理を含む目的関数を算出する(S2)。
例えば、モデル選択部11が、ニューラルネットワークf_1~f_nのうち、ニューラルネットワークf_1~f_3を選択した場合(t_jが、t_1~t_3の場合)、限定目的関数算出装置100は、例えば、以下の処理を行って、loss_1~loss_nを算出する。
予測部101は、訓練データXをニューラルネットワークf_1~f_nに入力して、n個のニューラルネットワークによる予測を出力する。
予測損失算出部102は、ニューラルネットワークf_1~f_nに関して、例えば、予測損失関数l_1()~l_n()を算出する。
勾配ベクトル算出部103は、勾配ベクトル∇_1~∇_nを算出する。
勾配損失算出部104は、勾配ベクトル∇_1~∇_nのうち,選択されたニューラルネットワークに対応する勾配ベクトルの2つの全ての組合せについて、類似度を算出し、その和を算出する。例えば、本例の場合、ニューラルネットワークf_iについては、∇_iと∇_1の類似度、∇_iと∇_2の類似度、∇_iと∇_3の類似度の和を算出する。
目的関数生成部105は、ニューラルネットワークf_1~f_nについての目的関数loss_1~loss_nを出力する。
次に、更新部12は、限定目的関数算出装置100が出力した目的関数のニューラルネットワークのパラメータにおける微分係数からパラメータを更新する(S3)。例えば、更新部12は、ニューラルネットワークf_1のパラメータθ_1を、目的関数loss_1における予測損失関数の値(予測値と正解ラベルYの誤差)が小さく、且つ、勾配損失関数の値が(各ニューラルネットワーク間の類似度)が小さくなるように調整する。パラメータθ_2~θ_nについても同様である。
N個のモデルによって構成される学習モデルの構築において、学習の目的関数に、予測精度の向上の役割を担う予測損失関数と、敵対的パラメータへの堅牢性を高めるための勾配損失関数を含み、勾配損失関数が2つのモデル間の勾配ベクトルの類似度によって計算される場合に、一般的な方法では、あるモデルiについて、モデルiは識別の正確性が高まり、かつ、他のモデルとは勾配ベクトルが異なるように更新され、モデルi以外のn-1個のモデルはモデルiと勾配ベクトルが異なるように更新される。その為、O(n)のオーダーで学習時間が必要となる。これに対し、本実施形態によれば、モデル数nのうち、モデル選択部11がp個のモデルを選択するとき、勾配ベクトルについてはp個分のニューラルネットワークに限定して更新するため、O(n×p)のオーダーに実行時間を削減することができる。
これにより、本実施形態によれば、敵対的サンプルに対して、すべてのモデルが誤識別する可能性を下げ、かつ正常なサンプルに対する各モデルの識別精度を高めることができるという特徴を持ったモデル群を、例えば、非特許文献1に記載の方法よりも少ない計算量で、高速に構築することができる。また、本実施形態により構築された学習モデルを利用することで、敵対的サンプルが入力される可能性あるAIシステム・学習モデルを安全に利用できるようになる。
<第二実施形態>
(構成の説明)
以下、本発明の第二実施形態によるロバスト学習装置を、図4を参照して説明する。
図4は、本発明の第二実施形態に係る限定目的関数算出装置の一例を示すブロック図である。
第二実施形態に係るロバスト学習装置10は、限定目的関数算出装置100に代えて、限定目的関数算出装置200を有している。
限定目的関数算出装置200は、限定予測部201を含み、予測部101を含まない。その他の構成については、第一実施形態と同様である。第一実施形態と同様の構成要素については図1、図2と同一の符号を付し、詳細な説明を省略する。
限定予測部201は、モデル選択部11が選択したニューラルネットワークf_jに対してのみ予測を行い、モデル選択部11で選択されたニューラルネットワークのみから訓練データXに関する予測を出力する。
(動作の説明)
第一実施形態の説明に用いた図3を参考にして、第二実施形態の処理を説明する。
まず、ロバスト学習装置10には、第一実施形態と同様の各値が入力される。
次に、モデル選択部11は、更新するニューラルネットワークを複数選択する(S1)。モデル選択部11は、選択したニューラルネットワークのインデックスを限定目的関数算出装置200へ出力する。
次に、限定目的関数算出装置100は、選択されたニューラルネットワークに関連する処理を含む目的関数を算出する(S2)。
例えば、モデル選択部11が、ニューラルネットワークf_1~f_nのうち、ニューラルネットワークf_1~f_3を選択した場合、限定目的関数算出装置200は以下の処理を行う。
限定予測部201は、訓練データXをニューラルネットワークf_1~f_3に入力して、3個のニューラルネットワークによる予測を出力する。
予測損失算出部102は、例えば、予測損失関数l_1()~l_3()を算出する。
勾配ベクトル算出部103は、勾配ベクトル∇_1~∇_3を算出する。
勾配損失算出部104は、勾配ベクトル∇_1と∇_2、∇_1と∇_3、∇_2と∇_3の類似度を算出し、その和を算出する。
目的関数生成部105は、目的関数loss_1~loss_3を出力する。
次に、更新部12は、ニューラルネットワークのパラメータを更新する(S3)。例えば、更新部12は、ニューラルネットワークf_1~f_3のパラメータθ_1~θ_3を、予測損失関数の値が小さく、且つ、勾配損失関数の値が小さくなるように調整する。
本実施形態によれば、モデル数nのうち、モデル選択部11がp個のモデルを選択するとき、あるモデルiの更新で勾配損失関数に関してモデルp個分のパラメータを更新し、p個分のニューラルネットワークについて予測損失関数に関してパラメータの算出を行うため、O(p×p)のオーダーに実行時間を削減することができる。
<第三実施形態>
以下、本発明の第三実施形態によるロバスト学習装置を、図5を参照して説明する。
図5は、本発明の第三実施形態に係るロバスト学習装置の一例を示すブロック図である。
第三実施形態に係るロバスト学習装置10は、第一実施形態の構成と比較すると、モデル選択部11に代えてモデル選択部11´を有し、限定目的関数算出装置100に代えて限定目的関数算出装置200を有している。
モデル選択部11´は、限定予測部201と、勾配損失算出部104に対して異なる数のニューラルネットワークを選択する。その他の構成については、第二実施形態と同様である。第一実施形態、第二実施形態と同様の構成要素については図1、図2と同一の符号を付し、詳細な説明を省略する。
第三実施形態は、第二実施形態において限定予測部201へ出力するために選択したニューラルネットワークの個数をp個、勾配損失算出部104へ出力するために選択したニューラルネットワークの個数をk個とする実施形態である。例えば、モデル選択部11´は、ニューラルネットワークf_1~f_5を選択して限定予測部201へ出力し、ニューラルネットワークf_1~f_3を選択して勾配損失算出部104へ出力する。なお、勾配ベクトルの算出には予測損失関数が必要であることから、勾配損失算出部104へ出力するために選択するニューラルネットワークは、限定予測部201へ出力するために選択するニューラルネットワークの一部となる。この例の場合、限定目的関数算出装置200は、図3のS2にて以下の処理を行う。
限定予測部201は、訓練データXをニューラルネットワークf_1~f_5に入力して、5個のニューラルネットワークによる予測を出力する。
予測損失算出部102は、予測損失関数l_1()~l_5()を算出する。
勾配ベクトル算出部103は、勾配ベクトル∇_1~∇_5を算出する。
勾配損失算出部104は、勾配ベクトル∇_j(j=1~5)と∇_1~∇_3の類似度を算出し、その和を算出する。例えば、j=1の場合、勾配損失算出部104は、∇_1と∇_2の類似度と、∇_1と∇_3の類似度の和を算出する。例えば、j=5の場合、勾配損失算出部104は、∇_5と∇_1の類似度と、∇_5と∇_2の類似度と、∇_5と∇_3の類似度の和を算出する。
目的関数生成部105は、目的関数loss_1~loss_5を出力する。
また、限定予測部201に対して選択するニューラルネットワークの個数をp個、勾配損失算出部104に対して選択するニューラルネットワークの個数をk個とすると、モデル選択部11´は、勾配損失算出部104に対して選択するニューラルネットワークの個数を、k=n/pとしてもよい。このとき、実行時間のオーダーはO(n)となる。
本実施形態によれば、さらにパラメータ更新の時間を短縮することができる。
図6は、本発明の一実施形態に係るロバスト学習装置の最小構成を示す図である。
学習装置30は、少なくともモデル選択部31と、限定目的関数算出部32と、更新部33とを備える。
学習装置30は、複数のニューラルネットワークのパラメータ、訓練データ、正解ラベルを入力する。モデル選択部31は、複数のニューラルネットワークの中から2以上のニューラルネットワークを選択する。限定目的関数算出部32は、パラメータの学習に用いる目的関数の算出過程において、モデル選択部31が選択したニューラルネットワークに関連する処理のみを含む限定目的関数を算出する。訓練データに対するニューラルネットワークの出力が正解ラベルと近くなり、且つ、ニューラルネットワーク間の勾配ベクトルの類似度が小さくなると、限定目的関数の値は小さくなる。更新部33は、限定目的関数の値が小さくなるようにパラメータの更新を行う。
非特許文献1において、実行時間において支配的であるのは、モデルn個分のパラメータをn回更新する点である。これに対し、本実施形態によれば、一部のモデルに限定してパラメータを更新することで、学習するモデル同士が異なる特徴を持つという性質を保ち、且つ学習における計算量を節約することができる。
図7は、本発明の一実施形態におけるロバスト学習装置のハードウェア構成の一例を示す図である。
上述した実施形態において、ロバスト学習装置10が有する各構成要素は、機能単位のブロックを示している。ロバスト学習装置10が有する各構成要素の一部又は全部は、例えば図7で示すような情報処理装置400とプログラムの任意の組み合わせにより実現することができる。情報処理装置400は、一例として、以下のような構成を含むことができる。つまり、情報処理装置400は、CPU(Central Processing Unit)401、ROM(Read Only Memory)402、RAM(Random Access Memory)403、RAM403にロードされるプログラム群404、プログラム群404を格納する記憶装置405、情報処理装置400外部の記録媒体410の読み書きを行うドライブ装置406、情報処理装置400外部のネットワーク411と接続する通信インタフェース407、データの入出力を行う入出力インタフェース408、各構成要素を接続するパス409、を含む。
上述した実施形態におけるロバスト学習装置10が有する各構成要素は、これらの機能を実現するプログラム群404をCPU401が取得して、RAM403に展開し、実行することで実現することができる。ロバスト学習装置10が有する各構成要素の機能を実現するプログラム群404は、例えば、予め記憶装置405やROM402に格納されており、必要に応じてCPU401がRAM403にロードして実行する。なお、プログラム群404はネットワーク411を介してCPU401に供給されてもよいし、予め、記録媒体410に格納されており、ドライブ装置406が該プログラムを読みだしてCPU401に供給してもよい。また、当該プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、当該プログラムは、前述した機能を記憶装置405やROM402に既に記憶されている他のプログラムとの組み合わせで実現するもの、いわゆる差分ファイル(差分プログラム)であっても良い。
なお、図7は情報処理装置400の構成の一例を示しており、情報処理装置400の構成は上述した場合に例示されない。例えば、情報処理装置400は、ドライブ装置406を有さないなど、上述した構成の一部から構成されても構わない。
その他、本発明の趣旨を逸脱しない範囲で、上記した実施の形態における構成要素を周知の構成要素に置き換えることは適宜可能である。この発明の技術範囲は上記の実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲において種々の変更を加えることが可能である。
上記した学習装置、学習方法、プログラム、及び記憶装置によれば、敵対的サンプルが入力されても、想定外の動作を回避できるような学習モデルであって、その学習モデルが、並列に依存させて学習するモデルを複数含む場合に、並列に依存させて学習するモデルの数が増加しても、効率的に少ない学習時間で学習モデルを構築することができる。
10・・・ロバスト学習装置
11・・・モデル選択部
12・・・更新部
100、200、300・・・限定目的関数算出装置
101・・・予測部
102・・・予測損失算出部
103・・・勾配ベクトル算出部
104・・・勾配損失算出部
105・・・目的関数生成部
201・・・限定予測部
301・・・限定勾配損失算出部
400・・・情報処理装置
401・・・CPU(Central Processing Unit)
402・・・ROM(Read Only Memory)
403・・・RAM(Random Access Memory)
404・・・プログラム群
405・・・記憶装置
406・・・ドライブ装置
407・・・通信インタフェース
408・・・入出力インタフェース
409・・・パス
410・・・外部の記録媒体
411・・・ネットワーク

Claims (6)

  1. n個のニューラルネットワークのパラメータと、訓練データと、正解ラベルを入力として、更新された前記パラメータを出力するロバスト学習装置であって、
    n個の前記ニューラルネットワークの中からn未満、且つ、2以上の前記ニューラルネットワークを選択するモデル選択部と、
    前記訓練データに対する前記ニューラルネットワークの出力が前記正解ラベルと近くなり、且つ、前記ニューラルネットワーク間の類似度が小さくなるほどその値が小さくなる処理を含む目的関数の算出過程において、前記モデル選択部が選択した前記ニューラルネットワークに関連する前記処理のみを含む限定目的関数を算出する限定目的関数算出部と、
    前記限定目的関数の値が小さくなるように、前記パラメータの更新を行う更新部と、
    を備えるロバスト学習装置。
  2. 前記限定目的関数算出部が、n個の前記ニューラルネットワークのそれぞれと、前記モデル選択部よって選択された前記ニューラルネットワークとの間の類似度のみを算出して、n個の前記ニューラルネットワークの出力が前記正解ラベルと近くなり、且つ、算出した前記類似度が小さくなるほどその値が小さくなる処理を含む前記限定目的関数を算出する、
    請求項1に記載の学習装置。
  3. 前記限定目的関数算出部が、n個の前記ニューラルネットワークのうち、前記モデル選択部よって選択された前記ニューラルネットワークのみを対象として、選択された前記ニューラルネットワークの出力が前記正解ラベルと近くなり、且つ、選択された前記ニューラルネットワークの少なくとも一部の間での類似度が小さくなるほどその値が小さくなる処理を含む前記限定目的関数を算出する、
    請求項1に記載のロバスト学習装置。
  4. n個のニューラルネットワークのパラメータと、訓練データと、正解ラベルを入力として、更新された前記パラメータを出力するロバスト学習方法であって、
    n個の前記ニューラルネットワークの中からn未満、且つ、2以上の前記ニューラルネットワークを選択し、
    前記訓練データに対する前記ニューラルネットワークの出力が前記正解ラベルと近くなり、且つ、前記ニューラルネットワーク間の類似度が小さくなるほどその値が小さくなる処理を含む目的関数の算出過程において、前記選択された前記ニューラルネットワークに関連する前記処理のみを含む限定目的関数を算出し
    前記限定目的関数の値が小さくなるように、前記パラメータの更新を行う、
    ロバスト学習方法。
  5. n個のニューラルネットワークのパラメータと、訓練データと、正解ラベルを入力として、更新された前記パラメータを出力するコンピュータに、
    n個の前記ニューラルネットワークの中からn未満、且つ、2以上の前記ニューラルネットワークを選択する処理、
    前記訓練データに対する前記ニューラルネットワークの出力が前記正解ラベルと近くなり、且つ、前記ニューラルネットワーク間の類似度が小さくなるほどその値が小さくなる処理を含む目的関数の算出過程において、前記選択された前記ニューラルネットワークに関連する前記処理のみを含む限定目的関数を算出する処理、
    前記限定目的関数の値が小さくなるように、前記パラメータの更新を行う処理、
    を行わせるプログラム。
  6. n個のニューラルネットワークのパラメータ、訓練データ、正解ラベルを入力として、更新された前記パラメータを出力するコンピュータに、
    n個の前記ニューラルネットワークの中からn未満、且つ、2以上の前記ニューラルネットワークを選択する処理、
    前記訓練データに対する前記ニューラルネットワークの出力が前記正解ラベルと近くなり、且つ、前記ニューラルネットワーク間の類似度が小さくなるほどその値が小さくなる処理を含む目的関数の算出過程において、前記選択された前記ニューラルネットワークに関連する前記処理のみを含む限定目的関数を算出する処理、
    前記限定目的関数の値が小さくなるように、前記パラメータの更新を行う処理、
    を行わせるプログラムを記憶する記憶装置。
JP2021550806A 2019-10-01 2019-10-01 ロバスト学習装置、ロバスト学習方法、プログラム及び記憶装置 Active JP7331937B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/038732 WO2021064856A1 (ja) 2019-10-01 2019-10-01 ロバスト学習装置、ロバスト学習方法、プログラム及び記憶装置

Publications (2)

Publication Number Publication Date
JPWO2021064856A1 JPWO2021064856A1 (ja) 2021-04-08
JP7331937B2 true JP7331937B2 (ja) 2023-08-23

Family

ID=75337822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021550806A Active JP7331937B2 (ja) 2019-10-01 2019-10-01 ロバスト学習装置、ロバスト学習方法、プログラム及び記憶装置

Country Status (3)

Country Link
US (1) US20220335298A1 (ja)
JP (1) JP7331937B2 (ja)
WO (1) WO2021064856A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7484318B2 (ja) * 2020-03-27 2024-05-16 富士フイルムビジネスイノベーション株式会社 学習装置及び学習プログラム
CN113283578A (zh) * 2021-04-14 2021-08-20 南京大学 一种基于标记风险控制的数据去噪方法
WO2023175664A1 (ja) * 2022-03-14 2023-09-21 日本電気株式会社 学習装置、学習方法、人物照合装置、人物照合方法及び記録媒体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018026020A (ja) 2016-08-10 2018-02-15 日本電信電話株式会社 予測器学習方法、装置、及びプログラム
JP2018026122A (ja) 2016-08-03 2018-02-15 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2018087814A1 (ja) 2016-11-08 2018-05-17 日本電気株式会社 マルチタスク関係学習システム、方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018026122A (ja) 2016-08-03 2018-02-15 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2018026020A (ja) 2016-08-10 2018-02-15 日本電信電話株式会社 予測器学習方法、装置、及びプログラム
WO2018087814A1 (ja) 2016-11-08 2018-05-17 日本電気株式会社 マルチタスク関係学習システム、方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Sanjay Kariyappa et al.,Improving Adversarial Robustness of Ensembles with Diversity Training,arXiv [online],2019年01月28日,https://arxiv.org/abs/1901.09981, [2023年7月5日検索]

Also Published As

Publication number Publication date
US20220335298A1 (en) 2022-10-20
JPWO2021064856A1 (ja) 2021-04-08
WO2021064856A1 (ja) 2021-04-08

Similar Documents

Publication Publication Date Title
Ruehle Data science applications to string theory
Lu et al. Multiobjective evolutionary design of deep convolutional neural networks for image classification
Wistuba et al. Learning hyperparameter optimization initializations
Jadon et al. An overview of deep learning architectures in few-shot learning domain
JP7331937B2 (ja) ロバスト学習装置、ロバスト学習方法、プログラム及び記憶装置
US11741356B2 (en) Data processing apparatus by learning of neural network, data processing method by learning of neural network, and recording medium recording the data processing method
CN112633311A (zh) 利用输入数据结构的高效黑盒对抗性攻击
Schilling The effect of batch normalization on deep convolutional neural networks
CN113837205B (zh) 用于图像特征表示生成的方法、设备、装置和介质
JP7095599B2 (ja) 辞書学習装置、辞書学習方法、データ認識方法およびコンピュータプログラム
Behzadan et al. Mitigation of policy manipulation attacks on deep q-networks with parameter-space noise
CN113837370A (zh) 用于训练基于对比学习的模型的方法和装置
Utkin et al. An explanation method for siamese neural networks
Qu et al. Dat: Training deep networks robust to label-noise by matching the feature distributions
US20230106141A1 (en) Dimensionality reduction model and method for training same
Milutinovic et al. End-to-end training of differentiable pipelines across machine learning frameworks
Guidotti et al. Verification and repair of neural networks: a progress report on convolutional models
CN114819050A (zh) 训练用于图像识别的神经网络的方法和设备
Li et al. Improving task adaptation for cross-domain few-shot learning
Burkhardt et al. Rule extraction from binary neural networks with convolutional rules for model validation
Lee et al. Residual neural processes
WO2020012975A1 (ja) 変換装置、学習装置、変換方法、学習方法及びプログラム
Guo et al. An interpretable neural network model through piecewise linear approximation
Sendera et al. The general framework for few-shot learning by kernel HyperNetworks
JP7438544B2 (ja) ニューラルネットワーク処理装置、コンピュータプログラム、ニューラルネットワーク製造方法、ニューラルネットワークデータの製造方法、ニューラルネットワーク利用装置、及びニューラルネットワーク小規模化方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230724

R151 Written notification of patent or utility model registration

Ref document number: 7331937

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151