JP7416255B2 - 学習装置、学習方法および学習プログラム - Google Patents

学習装置、学習方法および学習プログラム Download PDF

Info

Publication number
JP7416255B2
JP7416255B2 JP2022536099A JP2022536099A JP7416255B2 JP 7416255 B2 JP7416255 B2 JP 7416255B2 JP 2022536099 A JP2022536099 A JP 2022536099A JP 2022536099 A JP2022536099 A JP 2022536099A JP 7416255 B2 JP7416255 B2 JP 7416255B2
Authority
JP
Japan
Prior art keywords
learning
data
model
unit
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022536099A
Other languages
English (en)
Other versions
JPWO2022014047A1 (ja
Inventor
真徳 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2022014047A1 publication Critical patent/JPWO2022014047A1/ja
Application granted granted Critical
Publication of JP7416255B2 publication Critical patent/JP7416255B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]

Description

本発明は、学習装置、学習方法および学習プログラムに関する。
近年、機械学習は、大きな成功を収めている。特に深層学習の登場により、画像や自然言語の分野では、機械学習が主流の方法となっている。
一方、深層学習は、悪意のあるノイズが乗せられたAdversarial Exampleによる攻撃に対して脆弱であることが知られている。このようなAdversarial Exampleに対する有力な対策として、代理損失を利用するTRADES(TRadeoff-inspired Adversarial DEfense via Surrogate-loss minimization)とい呼ばれる手法が提案されている(非特許文献1、2参照)。
A.Madry et al., "Towards Deep Learning Models Resistant to Adversarial Attacks", [online], arXiv:1706.06083v4 [stat.ML], 2019年9月, [2020年6月25日検索]、インターネット<URL: https://arxiv.org/pdf/1706.06083.pdf> H.Zhang et al., "Theoretically Principled Trade-off between Robustness and Accuracy", [online], arXiv:1901.08573v3 [cs.LG] ,2019年6月, [2020年6月25日検索]、インターネット<URL: https://arxiv.org/pdf/1901.08573.pdf>
しかしながら、従来のTRADESでは、Adversarial Exampleに対する汎化性能を向上させることが困難な場合がある。つまり、代理損失で近似して最適なモデルを探索する際に、従来、微分を実行できない点を回避するように、初期値に乱数を用いているため、汎化性能を向上させることが困難な場合がある。
本発明は、上記に鑑みてなされたものであって、Adversarial Exampleに対して頑健なモデルを学習することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る学習装置は、ラベルを予測するデータを取得する取得部と、取得された前記データのラベルの確率分布を表すモデルにおいて、前記データに対するフィッシャー情報行列の最大固有値に対応する固有ベクトルを用いて、該モデルを学習する学習部と、を有することを特徴とする。
本発明によれば、Adversarial Exampleに対して頑健なモデルを学習することが可能となる。
図1は、学習装置の概略構成を例示する模式図である。 図2は、学習処理手順を示すフローチャートである。 図3は、検知処理手順を示すフローチャートである。 図4は、実施例を説明するための図である。 図5は、実施例を説明するための図である。 図6は、学習プログラムを実行するコンピュータを例示する図である。
以下、図面を参照して、本発明の一実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
[学習装置の構成]
図1は、学習装置の概略構成を例示する模式図である。図1に例示するように、学習装置10は、パソコン等の汎用コンピュータで実現され、入力部11、出力部12、通信制御部13、記憶部14、および制御部15を備える。
入力部11は、キーボードやマウス等の入力デバイスを用いて実現され、操作者による入力操作に対応して、制御部15に対して処理開始などの各種指示情報を入力する。出力部12は、液晶ディスプレイなどの表示装置、プリンター等の印刷装置等によって実現される。
通信制御部13は、NIC(Network Interface Card)等で実現され、ネットワークを介したサーバ等の外部の装置と制御部15との通信を制御する。例えば、通信制御部13は、学習対象のデータを管理する管理装置等と制御部15との通信を制御する。
記憶部14は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、後述する学習処理により学習されたモデルのパラメータ等が記憶される。なお、記憶部14は、通信制御部13を介して制御部15と通信する構成でもよい。
制御部15は、CPU(Central Processing Unit)等を用いて実現され、メモリに記憶された処理プログラムを実行する。これにより、制御部15は、図1に例示するように、取得部15a、学習部15bおよび検知部15cとして機能する。なお、これらの機能部は、それぞれあるいは一部が異なるハードウェアに実装されてもよい。例えば、学習部15bと検知部15cとは、別々の装置として実装されてもよい。あるいは、取得部15aは、学習部15bおよび検知部15cとは別の装置に実装されてもよい。また、制御部15は、その他の機能部を備えてもよい。
取得部15aは、ラベルを予測するデータを取得する。例えば、取得部15aは、後述する学習処理および検知処理に用いるデータを、入力部11あるいは通信制御部13を介して取得する。また、取得部15aは、取得したデータを記憶部14に記憶させてもよい。なお、取得部15aは、これらの情報を記憶部14に記憶させずに、学習部15bまたは検知部15cに転送してもよい。
学習部15bは、取得されたデータのラベルの確率分布を表すモデルにおいて、データに対するフィッシャー情報行列の最大固有値に対応する固有ベクトルを用いて、該モデルを学習する。具体的には、学習部15bは、損失関数においてデータに対して乗せるノイズの初期値として、データに対するフィッシャー情報行列の最大固有値に対応する固有ベクトルを用いて、損失関数を最小化するモデルを探索することにより、モデルを学習する。
ここで、データxのラベルyの確率分布を表すモデルは、パラメータθを用いて次式(1)で表される。fは、モデルが出力するラベルを表すベクトルである。
Figure 0007416255000001
学習部15bは、次式(2)で表される損失関数が小さくなるように、モデルのパラメータθを決定することにより、モデルの学習を行う。ここで、p(y|x)は、真の確率を表す。
Figure 0007416255000002
また、学習部15bは、データxにノイズηが乗せられた、次式(3)に示すAdversarial Exampleに対して正しくラベルを予測できるように、モデルの学習を行う。
Figure 0007416255000003
学習部15bは、次式(4)に示す損失関数を最小化するθを探索して決定することにより、Adversarial Exzmpleに頑強なモデルを学習する。ここで、βは定数である。
Figure 0007416255000004
上記式(4)の損失関数を最小化するためには、次式(5)に示すように、上記式(4)の第2項を微分して探索を行う。
Figure 0007416255000005
ここで、式(4)の第2項においてノイズηを変えながらその最大値を探索する際に、ηの初期値ηを0とすると、x’=xとなるため、式(4)の第2項の微分を実行することができない。
そこで、従来のTRADESでは、ノイズηの初期値ηを乱数ηrandとしている。そうすると、Adversarial Exampleに対する汎化性能を十分に向上させることが困難な場合がある。
ここで、上記式(4)の損失関数は、フィッシャー情報行列Gとその固有値λとを用いて、次式(6)のように変形することができる。
Figure 0007416255000006
そこで、本実施形態の学習部15bは、データxに対するフィッシャー情報行列Gの最大固有値に対応する固有ベクトルを用いて、該モデルを学習する。具体的には、学習部15bは、上記式(5)において、次式(7)に示すように、データxに対して乗せるノイズηの初期値ηとして、データxに対するフィッシャー情報行列Gの最大固有値に対応する固有ベクトルηeigを用いる。そして、上記式(4)に示した損失関数を最小化するθを探索することにより、モデルを学習する。
Figure 0007416255000007
これにより、学習部15bは、損失関数を最小化するパラメータθの探索を精度高く行うことが可能となる。したがって、学習部15bは、Adversarial Exampleに対して頑健なモデルの学習が可能となる。
検知部15cは、学習されたモデルを用いて、取得されたデータのラベルを予測する。この場合に、検知部15cは、学習されたパラメータθを上記式(1)に適用することより、新たに取得されたデータの各ラベルの確率を算出し、最も確率が高いラベルを出力する。これにより、例えば、データがAdversarial Exampleであった場合にも、正しいラベルを出力することができる。このように、検知部15cは、blind spot attackに耐えて、Adversarial Exampleに正しいラベルを予測することが可能となる。
[学習処理]
次に、図2を参照して、本実施形態に係る学習装置10による学習処理について説明する。図2は、学習処理手順を示すフローチャートである。図2のフローチャートは、例えば、学習処理の開始を指示する操作入力があったタイミングで開始される。
まず、取得部15aが、ラベルを予測するデータを取得する(ステップS1)。
次に、学習部15bが、取得されたデータのラベルの確率分布を表すモデルを学習する(ステップS1)。その際に、学習部15bは、モデルにおいて、データに対するフィッシャー情報行列の最大固有値に対応する固有ベクトルを用いて、該モデルを学習する。具体的には、学習部15bは、損失関数においてデータに対して乗せるノイズの初期値として、データに対するフィッシャー情報行列の最大固有値に対応する固有ベクトルを用いて、損失関数を最小化するモデルを探索することにより、モデルを学習する。これにより、一連の学習処理が終了する。
[検知処理]
次に、図3を参照して、本実施形態に係る学習装置10による検知処理について説明する。図3は、検知処理手順を示すフローチャートである。図3のフローチャートは、例えば、検知処理の開始を指示する操作入力があったタイミングで開始される。
まず、取得部15aが、上記した図2のステップS1の処理と同様に、ラベルを予測する新たなデータを取得する(ステップS11)。
次に、検知部15cが、学習されたモデルを用いて、取得されたデータのラベルを予測する(ステップS12)。この場合に、検知部15cは、学習されたパラメータθを上記式(1)に適用することより、新たに取得されたデータx’のp(x’)を算出し、最も確率が高いラベルを出力する。例えば、データx’がAdversarial Exampleであった場合にも、正しいラベルを出力することができる。これにより、一連の検知処理が終了する。
以上、説明したように、取得部15aが、ラベルを予測するデータを取得する。学習部15bが、取得されたデータのラベルの確率分布を表すモデルにおいて、データに対するフィッシャー情報行列の最大固有値に対応する固有ベクトルを用いて、該モデルを学習する。具体的には、学習部15bは、損失関数においてデータに対して乗せるノイズの初期値として、データに対するフィッシャー情報行列の最大固有値に対応する固有ベクトルを用いて、損失関数を最小化するモデルを探索する。
これにより、学習装置10は、Adversarial Exampleに対して頑健なモデルの学習が可能となる。
また、検知部15cが、学習されたモデルを用いて、取得されたデータのラベルを予測する。これにより、検知部15cは、blind spot attackに耐えて、Adversarial Exampleに対しても正しいラベルを予測することが可能となる。
[実施例]
図4および図5は、本発明の実施例について説明するための図である。本実施例では、画像のデータセット:Cifar10、深層学習モデル:Resnet18を用いて、上記実施形態のモデルの正確性の評価を行った。具体的には、テストデータと、PGDと呼ばれる手法でテストデータから生成したAdversarial Exampleとを用いて、上記式(4)に示した損失関数のβを変えて学習した、上記実施形態のモデルと従来手法のモデルとの評価を行った。
PGDのパラメータとして、esp=8/255、train_iter=7、eval_iter=20、eps_iter=0.01、rand_init=True、clip_min=0.0、clip_max=1.0を用いた。
そして、テストデータに対するtop1の正解率(以下、natural accと記す)と、テストデータから生成したAdversarial Exampleに対するtop1の正解率(以下、robust accと記す)とを算出した。
図4には、robust accとβとの関係が例示されている。また、図5には、natural accとβとの関係が例示されている。図4に示すように、本発明(実施形態)のモデル、従来手法のモデルとも、Adversarial Exampleに対する予測精度は、βに依存しないことがわかる。これに対し、図5に示すように、βが大きくなるほど、本発明のモデル、従来手法のモデルとも、通常のデータに対する予測精度が低下する。これは、上記式(4)の第1項が通常のデータに対する損失関数を表す部分であり、第2項がAdversarial Exampleに対する損失関数を表す部分であることに起因して、βが大きいほど、第2項の影響が大きくなるためである。
そこで、robust accが高い場合のβを採用して、各モデルの正確性を比較する。その結果、従来手法のモデルでは、β=20 Robust Acc=56.87、Natural Acc=95.75であった。また、本発明のモデルでは、β=10、Robust Acc=61.62、Natural Acc=95.84であった。このように、βによらず、本発明のモデルが従来手法のモデルより高いことがわかる。このように、実施形態のモデルは、上記式(4)の第2項に対応して、Adversarial Exampleに対して頑強なモデルを学習できることが確認された。
[プログラム]
上記実施形態に係る学習装置10が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。一実施形態として、学習装置10は、パッケージソフトウェアやオンラインソフトウェアとして上記の学習処理を実行する学習プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の学習プログラムを情報処理装置に実行させることにより、情報処理装置を学習装置10として機能させることができる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等のスレート端末等がその範疇に含まれる。また、学習装置10の機能を、クラウドサーバに実装してもよい。
図6は、学習プログラムを実行するコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011およびRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1031に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1041に接続される。ディスクドライブ1041には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1051およびキーボード1052が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1061が接続される。
ここで、ハードディスクドライブ1031は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。上記実施形態で説明した各情報は、例えばハードディスクドライブ1031やメモリ1010に記憶される。
また、学習プログラムは、例えば、コンピュータ1000によって実行される指令が記述されたプログラムモジュール1093として、ハードディスクドライブ1031に記憶される。具体的には、上記実施形態で説明した学習装置10が実行する各処理が記述されたプログラムモジュール1093が、ハードディスクドライブ1031に記憶される。
また、学習プログラムによる情報処理に用いられるデータは、プログラムデータ1094として、例えば、ハードディスクドライブ1031に記憶される。そして、CPU1020が、ハードディスクドライブ1031に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
なお、学習プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1031に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1041等を介してCPU1020によって読み出されてもよい。あるいは、学習プログラムに係るプログラムモジュール1093やプログラムデータ1094は、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
以上、本発明者によってなされた発明を適用した実施形態について説明したが、本実施形態による本発明の開示の一部をなす記述および図面により本発明は限定されることはない。すなわち、本実施形態に基づいて当業者等によりなされる他の実施形態、実施例および運用技術等は全て本発明の範疇に含まれる。
10 学習装置
11 入力部
12 出力部
13 通信制御部
14 記憶部
15 制御部
15a 取得部
15b 学習部
15c 検知部

Claims (4)

  1. ラベルを予測するデータを取得する取得部と、
    取得された前記データのラベルの確率分布を表すモデルにおいて、前記データに対するフィッシャー情報行列の最大固有値に対応する固有ベクトルを用いて、該モデルを学習する学習部と、
    を有し、
    前記学習部は、損失関数において前記データに対して乗せるノイズの初期値として、前記固有ベクトルを用いることを特徴とする学習装置。
  2. 学習された前記モデルを用いて、取得された前記データのラベルを予測する検知部を、さらに備えることを特徴とする請求項1に記載の学習装置。
  3. 学習装置で実行される学習方法であって、
    ラベルを予測するデータを取得する取得工程と、
    取得された前記データのラベルの確率分布を表すモデルにおいて、前記データに対するフィッシャー情報行列の最大固有値に対応する固有ベクトルを用いて、該モデルを学習する学習工程と、
    を含み、
    前記学習工程は、損失関数において前記データに対して乗せるノイズの初期値として、前記固有ベクトルを用いることを特徴とする学習方法。
  4. ラベルを予測するデータを取得する取得ステップと、
    取得された前記データのラベルの確率分布を表すモデルにおいて、前記データに対するフィッシャー情報行列の最大固有値に対応する固有ベクトルを用いて、該モデルを学習する学習ステップと、
    をコンピュータに実行させ
    前記学習ステップは、損失関数において前記データに対して乗せるノイズの初期値として、前記固有ベクトルを用いることを特徴とする学習プログラム。
JP2022536099A 2020-07-17 2020-07-17 学習装置、学習方法および学習プログラム Active JP7416255B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/027875 WO2022014047A1 (ja) 2020-07-17 2020-07-17 学習装置、学習方法および学習プログラム

Publications (2)

Publication Number Publication Date
JPWO2022014047A1 JPWO2022014047A1 (ja) 2022-01-20
JP7416255B2 true JP7416255B2 (ja) 2024-01-17

Family

ID=79554603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022536099A Active JP7416255B2 (ja) 2020-07-17 2020-07-17 学習装置、学習方法および学習プログラム

Country Status (3)

Country Link
US (1) US20230259819A1 (ja)
JP (1) JP7416255B2 (ja)
WO (1) WO2022014047A1 (ja)

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SHEN, Chaomin, et al.,"DEFENDING AGAINST ADVERSARIAL ATTACKS BY SUPPRESSING THE LARGEST EIGENVALUE OF FISHER INFORMATION MATRIX",arXiv:1909.06137v1,version v1,[online], arXiv (Cornell University),2019年09月13日,Pages 1-11,[retrieved on 2020.08.28], Retrieved from the Internet: <URL: https://arxiv.org/abs/1909.06137v1> and <URL: https://arxiv.org/pdf/1909.06137v1.pdf>.

Also Published As

Publication number Publication date
US20230259819A1 (en) 2023-08-17
WO2022014047A1 (ja) 2022-01-20
JPWO2022014047A1 (ja) 2022-01-20

Similar Documents

Publication Publication Date Title
US20200160212A1 (en) Method and system for transfer learning to random target dataset and model structure based on meta learning
US11003438B2 (en) Method and device for incremental upgrade
US8635171B1 (en) Systems and methods for reducing false positives produced by heuristics
US10671720B2 (en) System and method of detecting unwanted software
US8561056B2 (en) Automated installation of operating systems on virtual machines using checksums of screenshots
WO2023019456A1 (en) Method and apparatus for evaluation of adversarial robustness
JP7359229B2 (ja) 検知装置、検知方法および検知プログラム
KR20210157128A (ko) 온라인 베이지안 퓨샷 학습 방법 및 장치
US11625517B2 (en) Information processing method, and information processing apparatus
CN110618854B (zh) 基于深度学习与内存镜像分析的虚机行为分析系统
JP7416255B2 (ja) 学習装置、学習方法および学習プログラム
KR20160128869A (ko) 사전 정보를 이용한 영상 물체 탐색 방법 및 이를 수행하는 장치
CN114463798A (zh) 人脸识别模型的训练方法、装置、设备及存储介质
WO2021100184A1 (ja) 学習装置、推定装置、学習方法および学習プログラム
JP7409487B2 (ja) 学習装置、学習方法および学習プログラム
WO2022117014A1 (en) System, method and apparatus for training a machine learning model
WO2022059077A1 (ja) 学習装置、学習方法および学習プログラム
JP7173308B2 (ja) 検知装置、検知方法および検知プログラム
US20210271966A1 (en) Transfer learning across automated machine learning systems
JP2017097459A (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
WO2024079805A1 (ja) 算出装置、算出方法および算出プログラム
US20220277195A1 (en) Automated data augmentation in deep learning
WO2022264387A1 (ja) 学習装置、学習方法、および、学習プログラム
WO2023195120A1 (ja) 学習装置、学習方法、および、学習プログラム
US11960574B2 (en) Image generation using adversarial attacks for imbalanced datasets

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231218

R150 Certificate of patent or registration of utility model

Ref document number: 7416255

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150