JP7010371B2 - 学習済みモデル更新装置、学習済みモデル更新方法、プログラム - Google Patents

学習済みモデル更新装置、学習済みモデル更新方法、プログラム Download PDF

Info

Publication number
JP7010371B2
JP7010371B2 JP2020515435A JP2020515435A JP7010371B2 JP 7010371 B2 JP7010371 B2 JP 7010371B2 JP 2020515435 A JP2020515435 A JP 2020515435A JP 2020515435 A JP2020515435 A JP 2020515435A JP 7010371 B2 JP7010371 B2 JP 7010371B2
Authority
JP
Japan
Prior art keywords
model
sample
update
hostile
trained model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020515435A
Other languages
English (en)
Other versions
JPWO2019207770A1 (ja
Inventor
翼 高橋
和也 柿崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2019207770A1 publication Critical patent/JPWO2019207770A1/ja
Application granted granted Critical
Publication of JP7010371B2 publication Critical patent/JP7010371B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Description

本発明は、学習済みモデル更新装置、学習済みモデル更新方法、プログラムに関する。
膨大な学習データを学習してモデルを構築する機械学習という技術が知られている。このような機械学習によって構築された学習済みモデルでは、脆弱性が問題となることがある。例えば、上記のような学習済みモデルでは、敵対的サンプル(Adversarial Example:AX)を用いることで、訓練時に設計者が想定していない誤作動が誘引されることがある。
敵対的サンプルによる問題の対策としては、正規サンプルと正解ラベルの組に加えて敵対的サンプルと補正ラベルの組を含めたデータを訓練データとして用いた分類器の教師あり学習を行う敵対的訓練(Adversarial Training)がある。しかしながら、敵対的訓練を用いた方法には、分類器を構築する際に敵対的サンプルが未知である等の理由で利用できないおそれがあるという問題や、分類器を構築する際に得られた敵対的サンプルだけでは将来発生する攻撃に対して耐性を有さないおそれがあるという問題があった。また、例えば、クリーンな正規サンプルに対する性能を評価したい場合などにおいて、初めから敵対的サンプルを混入させる敵対的訓練を実行した場合、正規サンプルを用いた分類器の構築がどの程度の分類精度を有するのか把握することが出来なくなるおそれがあった。
以上のように、敵対的訓練を用いた方法の場合、複数の問題が生じていた。そこで、敵対的訓練のように分類器を構築する際に敵対的サンプルに対する耐性を持たせる措置を講じるのではなく、対処すべき攻撃が登場した後に学習済みモデルのパラメータに対してインクリメンタル(追加的)にその攻撃への耐性を有するように追加の学習(更新処理)を行うことが必要であると考えられている。このような技術の一つとして、例えば、非特許文献がある。例えば、非特許文献1では、正規サンプルと敵対的サンプルの両方を学習時に用意して、まず、クリーンな正規サンプルだけを用いた分類タスクの学習を行い、その後、正規サンプルと敵対的サンプルの両方を用いた敵対的サンプルへの耐性を持った分類タスクの学習を行う、delaying adversarial trainingについて言及している。このdelaying adversarial trainingは、前述の追加学習と同様の概念である。
また、関連する技術として、例えば、特許文献1がある。特許文献1には、機械学習のモデルとしてAAE(Adversarial AutoEncoder:敵対的自己符号化器)を利用する場合について記載されている。特許文献1によると、AAEを利用する場合、エンコーダ及びデコーダの学習に加えて、識別器の学習を行う。また、識別器の学習は、正常データである訓練データを用いて行われる。
国際公開第2017/094267号
Alexey Kurakin, Ian J. Goodfellow, Samy Bengio. "Adversarial Machine Learning at Scale", Proceedings of 5th International Conference on Learning Representations (ICLR2017), 2017. Sang-Woo Lee, Jin-Hwa Kim , Jaehyun Jun, Jung-Woo Ha, and Byoung-Tak Zhang. "Overcoming Catastrophic Forgetting by Incremental Moment Matching", Proceedings of 31st Conference on Neural Information Processing Systems (NIPS2017), 2017.
敵対的サンプルを用いた追加学習を行う際に訓練データとして敵対的サンプルのみを用いると、元の訓練データで用いた正規サンプルによる学習効果が薄れる、棄損するといった忘却が生じる可能性がある。忘却を回避するためには、敵対的サンプルだけでなく、非特許文献1や特許文献1に記載されているように、敵対的訓練と同様に正規サンプル(正常データ)を訓練データに含めることが望ましい。
しかしながら、正規サンプルのサイズは大きいものでは数TBを超える場合もあり、将来の更新を見据えて保管しておくと、保管に必要なディスク容量、サーバー稼働等のコストを要することになる。また、データサイズが大きいために、学習済みモデルを運用している場所に伝送することが困難であるという課題もある。このように、忘却を回避するためには敵対的サンプルだけでなく正規サンプルを用いることが望ましいが、正規サンプルはサイズが大きいため保管に要するコストが大きく、その結果、学習済みモデルの更新を行うことが困難になるおそれがある、という課題が生じていた。
そこで、本発明の目的は、忘却を抑制した学習済みモデルの更新が難しくなるおそれがある、という課題を解決する学習済みモデル更新装置、学習済みモデル更新方法、プログラムを提供することにある。
かかる目的を達成するため本発明の一形態である学習済みモデル更新装置は、
学習済みモデルを生成する際に用いた訓練データを代表する生成モデルに基づいて、代替サンプルと、前記代替サンプルに対応する正解ラベルと、を生成する代替サンプル生成部と、
攻撃モデルと、前記代替サンプル生成部が生成した前記代替サンプルと前記正解ラベルと、に基づいて、前記学習済みモデルに誤分類を誘発させる敵対的サンプルと、前記敵対的サンプルに対応する補正ラベルと、を生成する敵対的サンプル生成部と、
前記代替サンプル生成部による生成の結果と、前記敵対的サンプル生成部による生成の結果と、に基づく追加の学習を行って、更新モデルを生成するモデル更新部と、
を有する
という構成をとる。
また、本発明の他の形態である学習済みモデル更新方法は、
学習済みモデル更新装置が、
学習済みモデルを生成する際に用いた訓練データを代表する生成モデルに基づいて、代替サンプルと、前記代替サンプルに対応する正解ラベルと、を生成し、
攻撃モデルと、生成した前記代替サンプルと前記正解ラベルと、に基づいて、前記学習済みモデルに誤分類を誘発させる敵対的サンプルと、前記敵対的サンプルに対応する補正ラベルと、を生成し、
前記代替サンプルと前記正解ラベルと、前記敵対的サンプルと前記補正ラベルと、に基づく追加の学習を行って、更新モデルを生成する
という構成をとる。
また、本発明の他の形態であるプログラムは、
学習済みモデル更新装置に、
学習済みモデルを生成する際に用いた訓練データを代表する生成モデルに基づいて、代替サンプルと、前記代替サンプルに対応する正解ラベルと、を生成する代替サンプル生成部と、
攻撃モデルと、前記代替サンプル生成部が生成した前記代替サンプルと前記正解ラベルと、に基づいて、前記学習済みモデルに誤分類を誘発させる敵対的サンプルと、前記敵対的サンプルに対応する補正ラベルと、を生成する敵対的サンプル生成部と、
前記代替サンプル生成部による生成の結果と、前記敵対的サンプル生成部による生成の結果と、に基づく追加の学習を行って、更新モデルを生成するモデル更新部と、
を実現させるためのプログラムである。
本発明は、以上のように構成されることにより、忘却を抑制した学習済みモデルの更新が難しくなるおそれがある、という課題を解決する学習済みモデル更新装置、学習済みモデル更新方法、プログラムを提供することが可能となる。
本発明の第1の実施形態における更新装置の構成の一例を示すブロック図である。 敵対的サンプルの生成例を示す図である。 モデル更新部の処理の一例を示す図である。 更新装置の処理の一例を示すフローチャートである。 更新装置の他の構成の一例を示すブロック図である。 更新装置の他の構成の一例を示すブロック図である。 本発明の第2の実施形態における更新装置の構成の一例を示すブロック図である。 本発明の第1の実施形態、第2の実施形態を実現可能なコンピュータ(情報処理装置)のハードウェア構成を例示的に説明する図である。 本発明の第3の実施形態における学習済みモデル更新装置の構成の一例を示すブロック図である。
[第1の実施形態]
本発明の第1の実施形態を図1から図6までを参照して説明する。図1は、更新装置100の構成の一例を示すブロック図である。図2は、敵対的サンプル生成部104における敵対的サンプルの生成例を示す図である。図3は、モデル更新部106の処理の一例を示す図である。図4は、更新装置100の処理の一例を示すフローチャートである。図5は、更新装置110の構成の一例を示すブロック図である。図6は、更新装置120の構成の一例を示すブロック図である。
本発明の第1の実施形態では、学習済みモデルCの更新を行う更新装置100(学習済みモデル更新装置)について説明する。後述するように、更新装置100は、サンプル生成モデルGに基づいて、代替サンプルXGと正解ラベルYGを生成する。また、更新装置100は、攻撃モデルAに基づいて、敵対的サンプルXAと補正ラベルYAを生成する。そして、更新装置100は、代替サンプルと正解ラベルの組(XG、YG)と敵対的サンプル(Adversarial Example:AX)と補正ラベルの組(XA、YA)とを訓練データとして、学習済みモデルCのニューラルネットワークπ、パラメータθに対して追加の訓練を行って新たなパラメータθ*を得る。これにより、更新装置100は、(π、θ*)を持つ更新モデルC*を生成する。
更新装置100は、学習済みモデルCに対する追加の学習を行って更新モデルC*を生成する。例えば、更新装置100には、学習済みモデルCと、サンプル生成モデルGと、攻撃モデルAと、が入力される。
学習済みモデルCは、正規サンプルXLと正解ラベルYLの組を訓練データとして機械学習することで予め生成したモデルである。学習済みモデルCは、敵対的訓練(Adversarial Training)されたものなど、敵対的サンプルと補正ラベルの組を訓練データに含めたものを機械学習することで生成したものであっても構わない。例えば、学習済みモデルCは、ニューラルネットワークの構造πとパラメータθからなる。学習済みモデルCは、ニューラルネットワークの構造を含めてパラメータθと表現してもよい。
サンプル生成モデルGは、例えば、Conditional Generative Adversarial Networks (CGAN)、Auxiliary Classifier GAN (ACGAN)などのCGANの後継や発展形、Conditional Variational Auto Encoder (CVAE)、などの訓練ラベルに該当する訓練データの生成モデルを少数のパラメータで表すように学習する方法を利用して、予め生成したモデルである。換言すると、サンプル生成モデルGは、正規サンプルXLと正解ラベルYLの組に基づいて予め生成された、学習済みモデルCを生成する際に用いた訓練データを代表するモデルである。例えば後述するように、サンプル生成モデルGは、乱数rを用いるサンプル生成モデルG上のデータ点を特定することで、代替サンプルxGと正解ラベルyGの組を生成することができる。
攻撃モデルAは、例えば、Fast Gradient Sign Method(FGSM)、Carlini-Wagner L2 Attack(CW Attack)やDeepfool、Iterative Gradient Sign Methodなどの敵対的サンプルを生成可能なモデルである。例えば後述するように、攻撃モデルAは、所定の計算を行うことで、代替サンプルXGから摂動(ずれ)を与えた敵対的サンプルXAを生成することができる。
例えば、更新装置100には、上述したような、学習済みモデルCと、サンプル生成モデルGと、攻撃モデルAと、が入力される。なお、更新装置100は、例えば図示しないハードディスクやメモリなどの記憶装置を有しており、当該記憶装置に上述した各種モデルのうちの一つ以上を予め記憶していても構わない。
図1は、更新装置100の構成の一例を示している。図1を参照すると、更新装置100は、代替サンプル生成部102と、敵対的サンプル生成部104と、モデル更新部106と、を含む。
例えば、更新装置100は、図示しない記憶装置と演算装置とを有している。更新装置100は、図示しない記憶装置に格納されたプログラムを演算装置が実行することで、上述した各処理部を実現する。
なお、本実施形態においては、正規サンプルxL∈正規サンプルXL、代替サンプルxG∈代替サンプルXG、敵対的サンプルxA∈敵対的サンプルXAとする。また、各サンプルの次元は同一であるものとする。
代替サンプル生成部102は、入力されたサンプル生成モデルGに基づいて、代替サンプルXGと、代替サンプルXGに対する正解ラベルYGとを生成する。
例えば、サンプル生成モデルGが上述したCGANによって構成されているとする。この場合、代替サンプル生成部102は、ある正解ラベルyGに対して代替サンプルxGを生成する。具体的には、例えば、代替サンプル生成部102は、乱数rを生成する。そして、代替サンプル生成部102は、乱数rを用いてサンプル生成モデルG上のデータ点を出力する。つまり、代替サンプル生成部102は、G(r, yG)= xGとする。そして、代替サンプル生成部102は、生成した代替サンプルと正解ラベルを(xG, yG)のように対応付ける。
なお、代替サンプル生成部102は、乱数として、一様乱数や正規分布に従う乱数である正規乱数などを利用することができる。
代替サンプル生成部102は、上述した代替サンプルxGの生成処理を所定の数(N回)繰り返す。つまり、代替サンプル生成部102は、上述した代替サンプルxGの生成処理を所定の数N件の代替サンプルxGと正解ラベルyGの組が得られるまで繰り返す。このとき、代替サンプル生成部102は、正解ラベルyGごとに所定の数(同数)の代替サンプルxGを生成してもよいし、正解ラベルyGごとに異なる数の代替サンプルxGを生成してもよい。例えば、代替サンプル生成部102は、正解ラベルの合計数をLとしたとき、各正解ラベルyに対してN/L件の代替サンプルxGを生成してもよい。このように代替サンプルxGと正解ラベルyGの組を生成することで、代替サンプル生成部102は、代替サンプルの集合XG=(xG1, …, xGN)と、正解ラベルの集合YG=(yG1, …, yGL)を得る。
ここで、i (1<=i<=N)回目に生成した代替サンプルxGと正解ラベルyGは、iをインデックスとしてXGとYGからXG[i]、YG[i]のようにそれぞれ取得できるものとする。なお、所定の数Nは、更新装置100固有の定数としてもよい。また、所定の数Nを更新装置100の入力として受け付けてもよい。
敵対的サンプル生成部104は、入力された攻撃モデルAに基づいて、学習済みモデルCに誤分類を誘発するような敵対的サンプルXAと、敵対的サンプルの補正ラベルYAとを生成する。
例えば、敵対的サンプル生成部104は、学習済みモデルCと、代替サンプル生成部102が生成した代替サンプルと正解ラベルの組(XG,YG)と、攻撃モデルAと、に基づいて、敵対的サンプルXAと、敵対的サンプルの補正ラベルYAとを生成する。具体的には、敵対的サンプル生成部104は、入力された攻撃モデルAに固有の方法によって、代替サンプルと正解ラベルの組(XG,YG)からM個のデータ点を持つXA,YAをそれぞれ生成する。ここで、j (1<=j<=M)個目の敵対的サンプルxAと補正ラベルyAは、jをインデックスとして敵対的サンプルXAと補正ラベルYAからXA[j]、YA[j]のようにそれぞれ取得できるものとする。
なお、敵対的サンプル生成部104は、代替サンプル生成部102が生成した代替サンプルと正解ラベルの組(XG,YG)を用いる代わりに、サンプル生成モデルGを入力として受け付けても構わない。この場合、敵対的サンプル生成部104は、代替サンプル生成部102と同様に、サンプル生成モデルGからK個の代替サンプルを生成するよう構成しても構わない。
ここで、一例として、敵対的サンプル生成部104に攻撃モデルAとしてFast Gradient Sign Method(FGSM)を入力した場合の動作例を示す。FGSMでは、以下の数1で示す計算によって摂動を与えた敵対的サンプルxAを代替サンプルxGから生成する。
Figure 0007010371000001
ここで、J(θ,x_ ,y_ )はパラメータθを持つニューラルネットワークを用いてデータポイントxをラベルyへと分類する際の損失関数であり、∇x J(θ,x ,y )は損失関数のxに関する勾配である。また、関数sign()は符号関数であり、入力が正のとき+1、負のとき-1、0のとき0を返す。εは0以上の値を持つ変数であり、与える摂動の大きさを調整する変数である。例えばεには1.0等の値を利用することができる(例示した値以外であっても構わない)。よって、上述の数1で示す式は、代替サンプルxGに対して第二項で記述された摂動を与えたxAを出力する。
図2にFGSMによる代替サンプルxGと対応する敵対的サンプルxAの一例を示す。図2で示すように、敵対的サンプル生成部104は、入力された代替サンプルxGに摂動を与えて敵対的サンプルxAを出力する。例えば、図2で示す場合、代替サンプルxGである車両進入禁止の道路標識に摂動を与えることで、市松模様を有する敵対的サンプルxAを生成している。また、敵対的サンプル生成部104は、入力した代替サンプルxGに対応する正解ラベルyGを補正ラベルyAとする。
なお、補正ラベルyAは、正解ラベルyGと同じものを与える以外の方法で決定してもよい。例えば、敵対的サンプル生成部104は、敵対的サンプルxAのk-近傍(k-nearest neighbor)である代替サンプルを取得し、それらk件の代替サンプルに付与されている正解ラベルのうち最も頻度の高いものを補正ラベルyAとしてもよい。同様に、敵対的サンプルxAから距離δにある代替サンプルを取得し、それらの代替サンプルに付与されている正解ラベルのうち最も頻度の高いものを補正ラベルyAとしてもよい。
なお、上述した敵対的サンプル生成部104の処理はあくまで一例である。敵対的サンプル生成部104は、FGSMの代わりに、攻撃モデルAとしてCarlini-Wagner L2 Attack(CW Attack)やDeepfool、Iterative Gradient Sign MethodなどのAXを生成する手法を入力として受け付けても構わない。つまり、敵対的サンプル生成部104は、FGSM以外の攻撃モデルAを動作させて敵対的サンプルを生成して、敵対的サンプルに対して正規の分類結果へと補正する補正ラベルを付与する、といった動作をしてもよい。
また、敵対的サンプル生成部104は、上記例示したうちの複数の攻撃モデルAそれぞれに対して敵対的サンプルと補正ラベルの組を生成するよう構成しても構わない。この場合、後述するモデル更新部106は、複数の攻撃モデルAそれぞれに対応するすべての敵対的サンプルと補正ラベルとを入力として、追加学習を行うことになる。
モデル更新部106は、敵対的サンプルが入力された際に補正ラベルを応答するように、学習済みモデルCを修正する。
例えば、モデル更新部106は、代替サンプルと正解ラベルの組(XG,YG)と、敵対的サンプルと補正ラベルの組(XA,YA)とを訓練データX*={XG,XA}、Y*={YG,YA}として、学習済みモデルCのニューラルネットワークπ、パラメータθに対して追加の訓練をする。これにより、モデル更新部106は、学習済みモデルCよりも敵対的サンプルXAを入力された際に補正ラベルYAを出力する確率が高い新たなパラメータθ*を得る。この結果、モデル更新部106は、(π, θ*)を持つ更新モデルC*を生成することになる。
図3は、モデル更新部106の追加学習について示した図である。図3で示すように、モデル更新部106は、学習済みモデルCのニューラルネットワークπ、パラメータθに対して追加の訓練をすることで、新たなパラメータである更新パラメータθ*を得る。
なお、上述したように、敵対的サンプル生成部104が複数の攻撃モデルAそれぞれに対して敵対的サンプルXAと補正ラベルYAの組を生成している場合がある。このような場合、モデル更新部106は、一度にすべての敵対的サンプルXAと補正ラベルYAの組を含む追加の学習を行っても構わないし、攻撃モデルごとの学習を行って更新モデルC*の生成・更新を行っても構わない。例えば、敵対的サンプル生成部104が第1の攻撃モデルに対して敵対的サンプルXAと補正ラベルYAの組を生成するとともに、第2の攻撃モデルに対して敵対的サンプルXAと補正ラベルYAの組を生成したとする。この場合、モデル更新部106は、第1の攻撃モデルに対応する敵対的サンプルXAと補正ラベルYAに基づく追加の学習を行って更新モデルC*を生成した後、第2の攻撃モデルに対応する敵対的サンプルXAと補正ラベルYAに基づく追加の学習を行って、生成した更新モデルC*を更新することができる。モデル更新部106は、一度に、第1の攻撃モデルに対応する敵対的サンプルXAと補正ラベルYAと、第2の攻撃モデルに対応する敵対的サンプルXAと補正ラベルYAと、に基づく追加の学習を行って更新モデルC*を生成しても構わない。
なお、モデル更新部106で第1の攻撃モデルに対応する敵対的サンプルXAと補正ラベルYAに基づく追加の学習を行って更新モデルC*を生成した後、第2の攻撃モデルに対応する敵対的サンプルXAと補正ラベルYAに基づく追加の学習を行って、生成した更新モデルC*を更新する際に、既に実施ずみの第1の攻撃モデルに対応する敵対的サンプルXAと補正ラベルYAに基づく追加の学習の効果が忘却によって失われてしまう場合がある。この忘却を抑止するために、非特許文献2に記載のIncremental Moment Matching法等の最適化による学習をモデル更新部106で第1の攻撃モデルに対応する敵対的サンプルXAと補正ラベルYAに基づく追加の学習を行って更新モデルC*を生成した後、第2の攻撃モデルに対応する敵対的サンプルXAと補正ラベルYAに基づく追加の学習を行って、生成した更新モデルC*を更新する際に用いてもよい。これを第1から第K-1の攻撃モデルに対応する追加の学習を行って更新モデルを生成した後、Incremental Moment Matching法等の忘却を抑止する最適化によって、第Kの攻撃モデルに対応する敵対的サンプルXAと補正ラベルYAに基づく追加の学習を行って、モデルC*を更新してもよい。このように、モデル更新部106は、追加の学習を繰り返す場合などにおいて、忘却を抑止するための最適化を行うよう構成しても構わない。
以上が、更新装置100の構成の一例である。続いて、図4を参照して、更新装置100の動作の一例について説明する。
図4を参照すると、更新装置100の代替サンプル生成部102は、サンプル生成モデルGに基づいて、代替サンプルXGと、代替サンプルXGに対する正解ラベルYGとを生成する(ステップS101)。
敵対的サンプル生成部104は、学習済みモデルCと、代替サンプル生成部102が生成した代替サンプルと正解ラベルの組(XG,YG)と、攻撃モデルAと、に基づいて、敵対的サンプルXAと、敵対的サンプルの補正ラベルYAとを生成する(ステップS102)。
モデル更新部106は、代替サンプル生成部102が生成した代替サンプルと正解ラベルの組(XG,YG)と敵対的サンプル生成部104が生成した敵対的サンプルと補正ラベルの組(XA,YA)とを訓練データX*={XG,XA}、Y*={YG,YA}として、学習済みモデルCのニューラルネットワークπ、パラメータθに対して追加の訓練をする。これにより、モデル更新部106は、学習済みモデルCよりも敵対的サンプルXAを入力された際に補正ラベルYAを出力する確率が高い新たなパラメータθ*を得る。この結果、モデル更新部106は、(π, θ*)を持つ更新モデルC*を生成することになる(ステップS103)。
このように、本実施形態における更新装置100は、代替サンプル生成部102と、敵対的サンプル生成部104と、モデル更新部106と、を有している。このような構成により、代替サンプル生成部102は、サンプル生成モデルGに基づいて、代替サンプルXGと正解ラベルYGの組を生成することができる。また、敵対的サンプル生成部104は、攻撃モデルAに基づいて、敵対的サンプルXAと補正ラベルYAの組を生成することができる。そして、モデル更新部106は、代替サンプル生成部102と敵対的サンプル生成部104による生成結果とに基づいて、追加の学習を行って更新モデルC*を生成することができる。その結果、上記構成によると、学習済みモデルCを生成する際に用いた正規サンプルを用いることなく、忘却を抑制した学習済みモデルの更新を行うことが可能となる。
つまり、本発明によれば、学習済みモデルCの構築時に訓練データとして用いた正規サンプルを用いる代わりに、正規サンプルを代表するサンプル生成モデルGを用いて、学習済みモデルが既に獲得している分類タスクの忘却を防ぎながら、敵対的サンプルに対して補正ラベルで示したクラスを応答するように学習済みモデルのパラメータを更新することができる。これによって、更新処理に必要なデータサイズを小さくしたり、伝送時間を短くしたりすることができる。なお、サンプル生成モデルGのデータサイズはパラメータ数に依存する。そのため、パラメータ数が多く、生成サンプル数が非常に少ない場合には、サンプル生成モデルGの方が冗長になる場合があり、必ずしも正規サンプルのサイズより小さいわけではない。しかしながら、多くの場合において、多数の画像や音声、トランザクションからなる正規サンプルよりも、サンプル生成モデルGを用いたほうが、データサイズが小さくなる。
なお、更新装置100の構成は、上述した場合に限定されない。例えば、更新装置100は、所定の条件を満たすまで更新モデルの更新を繰り返すよう構成することができる。
例えば、図5は、上記のような構成を有する更新装置110の構成の一例について示している。図5を参照すると、更新装置110は、更新モデルC*を再び学習済みモデルとして入力する。そのため、敵対的サンプル生成部104は、新たに入力された更新モデルC*を用いて新たに敵対的サンプルXAと補正ラベルYAとを生成する。そして、モデル更新部106は、代替サンプルと正解ラベルの組(XG,YG)と、新たに生成した敵対的サンプルと補正ラベルの組(XA,YA)とを訓練データX*={XG,XA}、Y*={YG,YA}として、更新モデルC*に対する追加の訓練をする。このように、更新装置110は、更新モデルC*の更新ごとに敵対的サンプル生成部104により新たに生成された敵対的サンプルXAと補正ラベルYAとを用いて、更新モデルC*の更新を行うよう構成されている。換言すると、更新装置110は、予め定められた所定の条件を満たすまで再帰的に更新を繰り返すことができる。
なお、更新装置110が更新モデルC*の更新を止める条件は、さまざまなものを採用することができる。例えば、更新装置110は、予め定められた所定回数(回数は任意に設定して構わない)更新モデルC*の更新を繰り返すよう構成することができる。また、更新装置110は、敵対的サンプルを入力された際に補正ラベルを分類結果とする分類精度が所定の閾値(任意の値で構わない)を超えるまで、更新モデルC*の更新を繰り返すよう構成することができる。なお、更新装置110を上記のように構成する場合、分類精度を測定する測定部を更新装置110が有しても構わない。更新装置110が更新モデルC*の更新を止める条件は、上記例示したもの以外であっても構わない。
また、図6で示すように、モデル更新部106は、更新後の学習済みモデルC*を再びモデル更新部106の学習済みモデルとして入力し、所定の分類精度が達成される、所定の回数繰り返す、等の条件を満たすまで再帰的に更新を繰り返すよう構成しても構わない。つまり、更新装置100や110の代わりに、上述したような処理を行うモデル更新部106を有する更新装置120により本発明を実現しても構わない。図6で示す更新装置120の場合、更新装置110の場合と異なり、更新ごとに敵対的サンプルXAと補正ラベルYAとの生成を行わない。つまり、更新装置120のモデル更新部106は、同一の敵対的サンプルXAと補正ラベルYAとを用いて、所定の条件を満たすまで更新モデルC*の更新を繰り返す。
[第2の実施形態]
次に、本発明の第2の実施形態について、図7を参照して説明する。図7は、更新装置200の構成の一例を示すブロック図である。
本発明の第2の実施形態では、更新装置100の変形例である更新装置200について説明する。なお、後述する更新装置200が有する構成は、更新装置110や更新装置120など第1の実施形態で説明した様々な変形例に適用しても構わない。
図7は、更新装置200の構成の一例を示している。図7を参照すると、更新装置200は、更新装置100が有する構成に加えて、生成モデル構築部208と、記憶装置210と、を有している。
例えば、更新装置200は、図示しない記憶装置と演算装置とを有している。更新装置200は、図示しない記憶装置に格納されたプログラムを演算装置が実行することで、上述した各処理部を実現する。
生成モデル構築部208は、学習済みモデルCを生成する際に用いた訓練データに基づいて、サンプル生成モデルGを生成する。
生成モデル構築部208がサンプル生成モデルGを生成する際のアルゴリズムとしては、Conditional Generative Adversarial Networks (CGAN)、Auxiliary Classifier GAN (ACGAN)などのCGANの後継や発展形、Conditional Variational Auto Encoder (CVAE)、などの訓練ラベルに該当する訓練データの生成モデルを少数のパラメータで表すように学習する方法を利用することができる。さらに、訓練ラベルに該当する訓練データの分布に関する情報が既知の場合は、その分布を表す確率密度関数などを用いてもよい。また、特定の計算式によって訓練ラベルに該当する訓練データが生成されることが既知の場合は、その計算式に基づいた生成モデルを構築してもよい。
記憶装置210は、ハードディスクやメモリなどの記憶装置である。記憶装置210には、生成モデル構築部208が生成したサンプル生成モデルGが格納される。本実施形態の場合、代替サンプル生成部102は、記憶装置210に格納されたサンプル生成モデルGに基づいて、代替サンプルXGと、代替サンプルXGに対する正解ラベルYGとを生成する。
このように、更新装置200は、生成モデル構築部208と、記憶装置210と、を有している。このような構成であっても、第1の実施形態で説明した更新装置100などと同様に、正規サンプルを保持し続けることなく、学習済みモデルが既に獲得している分類タスクの忘却を防ぎながら、敵対的サンプルに対して補正ラベルで示したクラスを応答するように学習済みモデルのパラメータを更新することができる。
なお、本実施形態においては、更新装置200が生成モデル構築部208や記憶装置210を有するとした。しかしながら、生成モデル構築部208や記憶装置210は、必ずしも更新装置200が有さなくても構わない。例えば、生成モデル構築部208としての機能を有する圧縮装置と、更新装置100(更新装置110や更新装置120でも構わない)と、のように2つ以上の複数の情報処理装置を用いて本発明を実現しても構わない。
<ハードウェア構成について>
上述した第1、第2の実施形態において、更新装置100、更新装置110、更新装置120、更新装置200が有する各構成要素は、機能単位のブロックを示している。更新装置100、更新装置110、更新装置120、更新装置200が有する各構成要素の一部又は全部は、例えば図8に示すような情報処理装置300とプログラムとの任意の組み合わせにより実現することが出来る。図8は、更新装置100、更新装置110、更新装置120、更新装置200の各構成要素を実現する情報処理装置300のハードウェア構成の一例を示すブロック図である。情報処理装置300は、一例として、以下のような構成を含むことが出来る。
・CPU(Central Processing Unit)301
・ROM(Read Only Memory)302
・RAM(Random Access Memory)303
・RAM303にロードされるプログラム群304
・プログラム群304を格納する記憶装置305
・情報処理装置300外部の記録媒体310の読み書きを行うドライブ装置306
・情報処理装置300外部の通信ネットワーク311と接続する通信インタフェース307
・データの入出力を行う入出力インタフェース308
・各構成要素を接続するバス309
上述した各実施形態における更新装置100、更新装置110、更新装置120、更新装置200が有する各構成要素は、これらの機能を実現するプログラム群304をCPU301が取得して実行することで実現することが出来る。更新装置100、更新装置110、更新装置120、更新装置200が有する各構成要素の機能を実現するプログラム群304は、例えば、予め記憶装置305やROM302に格納されており、必要に応じてCPU301がRAM303にロードして実行する。なお、プログラム群304は、通信ネットワーク311を介してCPU301に供給されてもよいし、予め記録媒体310に格納されており、ドライブ装置306が該プログラムを読み出してCPU301に供給してもよい。
なお、図12は、情報処理装置300の構成の一例を示しており、情報処理装置300の構成は上述した場合に例示されない。例えば、情報処理装置300は、ドライブ装置306を有さないなど、上述した構成の一部から構成されても構わない。
[第3の実施形態]
次に、図9を参照して、本発明の第3の実施形態について説明する。第3の実施形態では、学習済みモデル更新装置400の構成の概要について説明する。
図9は、学習済みモデル更新装置400の構成の一例を示している。図9を参照すると、学習済みモデル更新装置400は、代替サンプル生成部401と、敵対的サンプル生成部402と、モデル更新部403と、を有している。
代替サンプル生成部401は、学習済みモデルを生成する際に用いた訓練データを代表する生成モデルに基づいて、代替サンプルと、代替サンプルに対応する正解ラベルと、を生成する。
敵対的サンプル生成部402は、攻撃モデルと、代替サンプル生成部401が生成した代替サンプルと正解ラベルと、に基づいて、学習済みモデルに誤分類を誘発させる敵対的サンプルと、敵対的サンプルに対応する補正ラベルと、を生成する。
モデル更新部403は、代替サンプル生成部401による生成の結果と、敵対的サンプル生成部402による生成の結果と、に基づく追加の学習を行って、更新モデルを生成する。
このように、本実施形態における学習済みモデル更新装置400は、代替サンプル生成部401と、敵対的サンプル生成部402と、モデル更新部403と、を有している。このような構成により、代替サンプル生成部401は、生成モデルに基づいて、代替サンプルと正解ラベルの組を生成することができる。また、敵対的サンプル生成部402は、攻撃モデルに基づいて、敵対的サンプルと補正ラベルの組を生成することができる。そして、モデル更新部403は、代替サンプル生成部401と敵対的サンプル生成部402による生成結果とに基づいて、追加の学習を行って更新モデルを生成することができる。その結果、上記構成によると、学習済みモデルを生成する際に用いた正規サンプルを用いることなく、忘却を抑制した学習済みモデルの更新を行うことが可能となる。
また、上述した学習済みモデル更新装置400は、当該学習済みモデル更新装置400に所定のプログラムが組み込まれることで実現できる。具体的に、本発明の他の形態であるプログラムは、学習済みモデル更新装置に、学習済みモデルを生成する際に用いた訓練データを代表する生成モデルに基づいて、代替サンプルと、代替サンプルに対応する正解ラベルと、を生成する代替サンプル生成部と、攻撃モデルと、代替サンプル生成部が生成した代替サンプルと正解ラベルと、に基づいて、学習済みモデルに誤分類を誘発させる敵対的サンプルと、敵対的サンプルに対応する補正ラベルと、を生成する敵対的サンプル生成部と、代替サンプル生成部による生成の結果と、敵対的サンプル生成部による生成の結果と、に基づく追加の学習を行って、更新モデルを生成するモデル更新部と、を実現させるためのプログラムである。
また、上述した学習済みモデル更新装置400により実行される学習済みモデル更新方法は、学習済みモデル更新装置が、学習済みモデルを生成する際に用いた訓練データを代表する生成モデルに基づいて、代替サンプルと、代替サンプルに対応する正解ラベルと、を生成し、攻撃モデルと、生成した代替サンプルと正解ラベルと、に基づいて、学習済みモデルに誤分類を誘発させる敵対的サンプルと、敵対的サンプルに対応する補正ラベルと、を生成し、代替サンプルと正解ラベルと、敵対的サンプルと補正ラベルと、に基づく追加の学習を行って、更新モデルを生成する、という方法である。
上述した構成を有する、プログラム、又は、学習済みモデル更新方法、の発明であっても、上記学習済みモデル更新装置400と同様の作用を有するために、上述した本発明の目的を達成することが出来る。
<付記>
上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における学習済みモデル更新装置などの概略を説明する。但し、本発明は、以下の構成に限定されない。
(付記1)
学習済みモデルを生成する際に用いた訓練データを代表する生成モデルに基づいて、代替サンプルと、前記代替サンプルに対応する正解ラベルと、を生成する代替サンプル生成部と、
攻撃モデルと、前記代替サンプル生成部が生成した前記代替サンプルと前記正解ラベルと、に基づいて、前記学習済みモデルに誤分類を誘発させる敵対的サンプルと、前記敵対的サンプルに対応する補正ラベルと、を生成する敵対的サンプル生成部と、
前記代替サンプル生成部による生成の結果と、前記敵対的サンプル生成部による生成の結果と、に基づく追加の学習を行って、更新モデルを生成するモデル更新部と、
を有する
学習済みモデル更新装置。
(付記2)
付記1に記載の学習済みモデル更新装置であって、
前記学習済みモデルを学習する際に用いた前記訓練データに基づいて前記生成モデルを生成する生成モデル構築部と、
前記生成モデル構築部が構築した前記生成モデルを記憶する記憶部と、を有し、
前記代替サンプル生成部は、前記記憶部が記憶する前記生成モデルに基づいて、前記代替サンプルと、前記代替サンプルに対応する前記正解ラベルと、を生成する
学習済みモデル更新装置。
(付記3)
付記2に記載の学習済みモデル更新装置であって、
前記生成モデル構築部は、前記訓練データに対する前記生成モデルを生成する際に、Conditional Generative Adversarial Networksを利用する
学習済みモデル更新装置。
(付記4)
付記2に記載の学習済みモデル更新装置であって、
前記生成モデル構築部は、前記訓練データに対する前記生成モデルを生成する際に、Conditional Variational Auto Encoderを利用する
学習済みモデル更新装置。
(付記5)
付記1から付記4までのいずれか1項に記載の学習済みモデル更新装置であって、
前記モデル更新部は、所定の条件を満たすまで、当該モデル更新部が生成した前記更新モデルの更新を繰り返すよう構成されている
学習済みモデル更新装置。
(付記6)
付記5に記載の学習済みモデル更新装置であって、
前記モデル更新部は、前記更新モデルの更新ごとに前記敵対的サンプル生成部により新たに生成された前記敵対的サンプルと前記補正ラベルとを用いて、前記更新モデルの更新を行う
学習済みモデル更新装置。
(付記7)
付記5に記載の学習済みモデル更新装置であって、
前記モデル更新部は、同一の前記敵対的サンプルと前記補正ラベルとを用いて、所定の条件を満たすまで、前記更新モデルの更新を繰り返す
学習済みモデル更新装置。
(付記8)
付記5から付記7までのいずれか1項に記載の学習済みモデル更新装置であって、
前記モデル更新部は、予め定められた所定回数、当該モデル更新部が生成した前記更新モデルの更新を繰り返すよう構成されている
学習済みモデル更新装置。
(付記9)
付記5から付記8までのいずれか1項に記載の学習済みモデル更新装置であって、
前記モデル更新部は、前記敵対的サンプルに対して前記補正ラベルを分類結果とする分類精度が所定の閾値を超えるまで、前記更新モデルの更新を繰り返すよう構成されている
学習済みモデル更新装置。
(付記10)
付記1から付記9までのいずれか1項に記載の学習済みモデル更新装置であって、
前記敵対的サンプル生成部は、複数の前記攻撃モデルそれぞれに対応する前記敵対的サンプルと前記補正ラベルを生成する
学習済みモデル更新装置。
(付記11)
付記9に記載の学習済みモデル更新装置であって、
前記前記モデル更新部は、第1の攻撃モデルに対応する前記敵対的サンプルと前記補正ラベルに基づく追加の学習を行って前記更新モデルを生成した後、第2の攻撃モデルに対応する前記敵対的サンプルと前記補正ラベルに基づく追加の学習を行って、生成した前記更新モデルを更新する
学習済みモデル更新装置。
(付記12)
学習済みモデル更新装置が、
学習済みモデルを生成する際に用いた訓練データを代表する生成モデルに基づいて、代替サンプルと、前記代替サンプルに対応する正解ラベルと、を生成し、
攻撃モデルと、生成した前記代替サンプルと前記正解ラベルと、に基づいて、前記学習済みモデルに誤分類を誘発させる敵対的サンプルと、前記敵対的サンプルに対応する補正ラベルと、を生成し、
前記代替サンプルと前記正解ラベルと、前記敵対的サンプルと前記補正ラベルと、に基づく追加の学習を行って、更新モデルを生成する
学習済みモデル更新方法。
(付記13)
学習済みモデル更新装置に、
学習済みモデルを生成する際に用いた訓練データを代表する生成モデルに基づいて、代替サンプルと、前記代替サンプルに対応する正解ラベルと、を生成する代替サンプル生成部と、
攻撃モデルと、前記代替サンプル生成部が生成した前記代替サンプルと前記正解ラベルと、に基づいて、前記学習済みモデルに誤分類を誘発させる敵対的サンプルと、前記敵対的サンプルに対応する補正ラベルと、を生成する敵対的サンプル生成部と、
前記代替サンプル生成部による生成の結果と、前記敵対的サンプル生成部による生成の結果と、に基づく追加の学習を行って、更新モデルを生成するモデル更新部と、
を実現させるためのプログラム。
なお、上記各実施形態及び付記において記載したプログラムは、記憶装置に記憶されていたり、コンピュータが読み取り可能な記録媒体に記録されていたりする。例えば、記録媒体は、フレキシブルディスク、光ディスク、光磁気ディスク、及び、半導体メモリ等の可搬性を有する媒体である。
以上、上記各実施形態を参照して本願発明を説明したが、本願発明は、上述した実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解しうる様々な変更をすることが出来る。
100 更新装置
102 代替サンプル生成部
104 敵対的サンプル生成部
106 モデル更新部
110 更新装置
120 更新装置
200 更新装置
208 生成モデル構築部
210 記憶装置
300 情報処理装置
301 CPU
302 ROM
303 RAM
304 プログラム群
305 記憶装置
306 ドライブ装置
307 通信インタフェース
308 入出力インタフェース
309 バス
310 記録媒体
311 通信ネットワーク

Claims (10)

  1. 学習済みモデルを生成する際に用いた訓練データを代表する生成モデルに基づいて、代替サンプルと、前記代替サンプルに対応する正解ラベルと、を生成する代替サンプル生成部と、
    攻撃モデルと、前記代替サンプル生成部が生成した前記代替サンプルと前記正解ラベルと、に基づいて、前記学習済みモデルに誤分類を誘発させる敵対的サンプルと、前記敵対的サンプルに対応する補正ラベルと、を生成する敵対的サンプル生成部と、
    前記代替サンプル生成部による生成の結果と、前記敵対的サンプル生成部による生成の結果と、に基づく追加の学習を行って、更新モデルを生成するモデル更新部と、
    を有する
    学習済みモデル更新装置。
  2. 請求項1に記載の学習済みモデル更新装置であって、
    前記学習済みモデルを学習する際に用いた前記訓練データに基づいて前記生成モデルを生成する生成モデル構築部と、
    前記生成モデル構築部が構築した前記生成モデルを記憶する記憶部と、を有し、
    前記代替サンプル生成部は、前記記憶部が記憶する前記生成モデルに基づいて、前記代替サンプルと、前記代替サンプルに対応する前記正解ラベルと、を生成する
    学習済みモデル更新装置。
  3. 請求項2に記載の学習済みモデル更新装置であって、
    前記生成モデル構築部は、前記訓練データに対する前記生成モデルを生成する際に、Conditional Generative Adversarial Networksを利用する
    学習済みモデル更新装置。
  4. 請求項2に記載の学習済みモデル更新装置であって、
    前記生成モデル構築部は、前記訓練データに対する前記生成モデルを生成する際に、Conditional Variational Auto Encoderを利用する
    学習済みモデル更新装置。
  5. 請求項1から請求項4までのいずれか1項に記載の学習済みモデル更新装置であって、
    前記モデル更新部は、所定の条件を満たすまで、当該モデル更新部が生成した前記更新モデルの更新を繰り返すよう構成されている
    学習済みモデル更新装置。
  6. 請求項5に記載の学習済みモデル更新装置であって、
    前記モデル更新部は、前記更新モデルの更新ごとに前記敵対的サンプル生成部により新たに生成された前記敵対的サンプルと前記補正ラベルとを用いて、前記更新モデルの更新を行う
    学習済みモデル更新装置。
  7. 請求項5に記載の学習済みモデル更新装置であって、
    前記モデル更新部は、同一の前記敵対的サンプルと前記補正ラベルとを用いて、所定の条件を満たすまで、前記更新モデルの更新を繰り返す
    学習済みモデル更新装置。
  8. 請求項5から請求項7までのいずれか1項に記載の学習済みモデル更新装置であって、
    前記モデル更新部は、予め定められた所定回数、当該モデル更新部が生成した前記更新モデルの更新を繰り返すよう構成されている
    学習済みモデル更新装置。
  9. 学習済みモデル更新装置が、
    学習済みモデルを生成する際に用いた訓練データを代表する生成モデルに基づいて、代替サンプルと、前記代替サンプルに対応する正解ラベルと、を生成し、
    攻撃モデルと、生成した前記代替サンプルと前記正解ラベルと、に基づいて、前記学習済みモデルに誤分類を誘発させる敵対的サンプルと、前記敵対的サンプルに対応する補正ラベルと、を生成し、
    前記代替サンプルと前記正解ラベルと、前記敵対的サンプルと前記補正ラベルと、に基づく追加の学習を行って、更新モデルを生成する
    学習済みモデル更新方法。
  10. 学習済みモデル更新装置に、
    学習済みモデルを生成する際に用いた訓練データを代表する生成モデルに基づいて、代替サンプルと、前記代替サンプルに対応する正解ラベルと、を生成する代替サンプル生成部と、
    攻撃モデルと、前記代替サンプル生成部が生成した前記代替サンプルと前記正解ラベルと、に基づいて、前記学習済みモデルに誤分類を誘発させる敵対的サンプルと、前記敵対的サンプルに対応する補正ラベルと、を生成する敵対的サンプル生成部と、
    前記代替サンプル生成部による生成の結果と、前記敵対的サンプル生成部による生成の結果と、に基づく追加の学習を行って、更新モデルを生成するモデル更新部と、
    を実現させるためのプログラム。
JP2020515435A 2018-04-27 2018-04-27 学習済みモデル更新装置、学習済みモデル更新方法、プログラム Active JP7010371B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/017220 WO2019207770A1 (ja) 2018-04-27 2018-04-27 学習済みモデル更新装置、学習済みモデル更新方法、プログラム

Publications (2)

Publication Number Publication Date
JPWO2019207770A1 JPWO2019207770A1 (ja) 2021-04-22
JP7010371B2 true JP7010371B2 (ja) 2022-01-26

Family

ID=68293983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020515435A Active JP7010371B2 (ja) 2018-04-27 2018-04-27 学習済みモデル更新装置、学習済みモデル更新方法、プログラム

Country Status (3)

Country Link
US (1) US20210241119A1 (ja)
JP (1) JP7010371B2 (ja)
WO (1) WO2019207770A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11928208B2 (en) * 2018-10-02 2024-03-12 Nippon Telegraph And Telephone Corporation Calculation device, calculation method, and calculation program
US11715016B2 (en) * 2019-03-15 2023-08-01 International Business Machines Corporation Adversarial input generation using variational autoencoder
WO2020239203A1 (en) * 2019-05-28 2020-12-03 Telefonaktiebolaget Lm Ericsson (Publ) Technique for generating synthetic data for radio access network configuration recommendation
US11544532B2 (en) * 2019-09-26 2023-01-03 Sap Se Generative adversarial network with dynamic capacity expansion for continual learning
US20230004647A1 (en) * 2020-01-14 2023-01-05 Nippon Telegraph And Telephone Corporation Risk evaluation apparatus, risk evaluation method, and non-transitory computer-readable recording medium
CN111401407B (zh) 2020-02-25 2021-05-14 浙江工业大学 一种基于特征重映射的对抗样本防御方法和应用
WO2021210042A1 (ja) * 2020-04-13 2021-10-21 日本電信電話株式会社 学習装置、分類装置、学習方法、分類方法、および、プログラム
EP3944159A1 (en) * 2020-07-17 2022-01-26 Tata Consultancy Services Limited Method and system for defending universal adversarial attacks on time-series data
WO2022074796A1 (ja) * 2020-10-08 2022-04-14 富士通株式会社 評価方法、評価装置、および評価プログラム
JP2022065870A (ja) 2020-10-16 2022-04-28 富士通株式会社 情報処理プログラム、情報処理方法、および情報処理装置
CN112216273B (zh) * 2020-10-30 2024-04-16 东南数字经济发展研究院 一种针对语音关键词分类网络的对抗样本攻击方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130185070A1 (en) * 2012-01-12 2013-07-18 Microsoft Corporation Normalization based discriminative training for continuous speech recognition
US11087234B2 (en) * 2016-01-29 2021-08-10 Verizon Media Inc. Method and system for distributed deep machine learning
US10706534B2 (en) * 2017-07-26 2020-07-07 Scott Anderson Middlebrooks Method and apparatus for classifying a data point in imaging data
US11645546B2 (en) * 2018-01-21 2023-05-09 Stats Llc System and method for predicting fine-grained adversarial multi-agent motion

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KURAKIN, Alexey et al.,Adversarial Machine Learning at Scale [online],2017年02月11日,pp.1-17,https://arxiv.org/pdf/1611.01236.pdf
SAMANGOUEI, Pouya et al.,Defence-GAN: Protecting Classifiers against Adversarial Attacks Using Generative Models [online],2018年02月23日,pp.1-17,https://openreview.net/references/pdf_id=SJVACmpwG

Also Published As

Publication number Publication date
WO2019207770A1 (ja) 2019-10-31
JPWO2019207770A1 (ja) 2021-04-22
US20210241119A1 (en) 2021-08-05

Similar Documents

Publication Publication Date Title
JP7010371B2 (ja) 学習済みモデル更新装置、学習済みモデル更新方法、プログラム
JP7470476B2 (ja) 蒸留を用いたそれぞれのターゲット・クラスを有するモデルの統合
US9971965B2 (en) Implementing a neural network algorithm on a neurosynaptic substrate based on metadata associated with the neural network algorithm
US10204301B2 (en) Implementing a neural network algorithm on a neurosynaptic substrate based on criteria related to the neurosynaptic substrate
US8904149B2 (en) Parallelization of online learning algorithms
CN110689139A (zh) 用于机器学习的方法和计算机系统
JP2018535491A (ja) 画像のセマンティックセグメンテーションのためのシステム及びコンピューター実施方法、並びに非一時的コンピューター可読媒体
JP2017220222A (ja) データグラフを比較する方法、プログラム、及び装置
JP2017016414A (ja) 学習方法、プログラム及び学習装置
US11651232B2 (en) Monte Carlo Markov chain based quantum program optimization
JP2016071697A (ja) 学習装置、処理装置、予測システム、学習方法、処理方法、およびプログラム
JP7172612B2 (ja) データ拡張プログラム、データ拡張方法およびデータ拡張装置
CN115699041A (zh) 利用专家模型的可扩展迁移学习
JP7331937B2 (ja) ロバスト学習装置、ロバスト学習方法、プログラム及び記憶装置
KR102305981B1 (ko) 신경망 압축 훈련 방법 및 압축된 신경망을 이용하는 방법
US20230222385A1 (en) Evaluation method, evaluation apparatus, and non-transitory computer-readable recording medium storing evaluation program
CN113490955A (zh) 用于产生金字塔层的架构的系统和方法
JP7420244B2 (ja) 学習装置、学習方法、推定装置、推定方法及びプログラム
KR20190118766A (ko) 추론을 위한 제한된 볼츠만 머신 구축 방법 및 추론을 위한 제한된 볼츠만 머신을 탑재한 컴퓨터 장치
JP7374829B2 (ja) ニューラルネット解析装置、ニューラルネット解析方法及びプログラム
WO2019208248A1 (ja) 学習装置、学習方法及び学習プログラム
WO2019208523A1 (ja) 学習装置、学習方法及び学習プログラム
US20240220809A1 (en) Continual learning method and apparatus
WO2022249327A1 (ja) 学習装置、学習方法及び学習プログラム
US20230342193A1 (en) Task processing method, task processing device, and computer program product

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201019

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211227