JP7419178B2 - 学習装置、方法およびプログラム - Google Patents

学習装置、方法およびプログラム Download PDF

Info

Publication number
JP7419178B2
JP7419178B2 JP2020114307A JP2020114307A JP7419178B2 JP 7419178 B2 JP7419178 B2 JP 7419178B2 JP 2020114307 A JP2020114307 A JP 2020114307A JP 2020114307 A JP2020114307 A JP 2020114307A JP 7419178 B2 JP7419178 B2 JP 7419178B2
Authority
JP
Japan
Prior art keywords
data
network
latent variable
latent
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020114307A
Other languages
English (en)
Other versions
JP2022012465A (ja
Inventor
テグー ブデアント
友弘 中居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2020114307A priority Critical patent/JP7419178B2/ja
Priority to US17/186,624 priority patent/US20220004882A1/en
Publication of JP2022012465A publication Critical patent/JP2022012465A/ja
Application granted granted Critical
Publication of JP7419178B2 publication Critical patent/JP7419178B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、学習装置、方法、プログラムおよび推論装置に関する。
異常検知技術は一般に、異常な振る舞いをするデータを正常なデータ分布から分離する目的で適用される。異常検知の現実的な応用を想定する場合には、複雑で高次元のデータを区別することが特に要求される。近年、機械学習を用いた異常検知手法としては、GAN(Generative Adversarial Networks)が広く採用されている。しかしながら、一般にGANベースの異常検知は、正常データが異なる正常データに再構成される問題(bad cycle consistencyとも呼ばれる)がある。その場合、正常データと異常データのいずれにおいても、その再構成データとの距離が大きくなるため、異常度の測定が困難になる。よって、正常データと異常データとを分離できないため、異常検知性能は、bad cycle consistencyによって著しく低下する。
米国特許出願公開第2018/0293734号
Zenati et al., "Efficient GAN-based anomaly detection." arXiv preprint arXiv:1802.06222, 2018.
本開示は、上述の課題を解決するためになされたものであり、異常データの検知能力を向上させることができる学習装置、方法、プログラムおよび推論装置を提供することを目的とする。
本実施形態に係る学習装置は、第1圧縮部と、生成部と、第2圧縮部と、算出部と、識別部と、更新部とを含む。第1圧縮部は、第1ネットワークを用いて、データから、潜在空間内の前記データの特徴を表す第1潜在変数を生成する。生成部は、第2ネットワークを用いて、前記第1潜在変数から再構成データを生成する。第2圧縮部は、第3ネットワークを用いて、前記再構成データから第2潜在変数を生成する。算出部は、前記第1潜在変数と前記第2潜在変数との間の前記潜在空間における距離を算出する。識別部は、第4ネットワークを用いて、前記データと前記再構成データとの識別に関する識別スコアを出力する。更新部は、最適化が達成されるまで、前記識別スコアに基づいて前記第1ネットワークから前記第4ネットワークまでを学習し、前記距離に基づいて前記第3ネットワークを学習する。
第1実施形態に係る学習装置のブロック図。 第1実施形態に係る学習装置により学習されたネットワークモデルのブロック図。 第1実施形態に係る学習装置の動作を示すフローチャート。 第1実施形態に係る学習装置により学習されたネットワークモデルのブロック図。 第1実施形態の変形例に係る学習装置が学習したネットワークモデルのブロック図。 第2実施形態に係る推論装置のブロック図。 第2実施形態に係る推論装置が用いるネットワークモデルのブロック図。 第2実施形態に係る推論装置の動作を示すフローチャート。 推論装置による対象データの推論結果の一例を示す図。 推論装置による対象データの評価結果の一例を示す図。 学習装置および推論装置のハードウェア構成を示すブロック図。
以下の実施形態では、学習装置が異常検知システム用のGAN(Generative Adversarial Networks)ベースのネットワークモデルを生成し、推論装置が異常検知を行うものとする。本実施形態に係る異常は、特定の挙動の基準を満たさないパターンである。データマイニングおよび統計に関して、異常は、正常領域からの多数データの外れ値として存在する。異常検知のためのアプローチは、医療、ビデオ監視、および画像分析等の多くの異なる分野で適用されうる。
以下、図面を参照しながら本実施形態に係る学習装置、方法、プログラムおよび推論装置ついて詳細に説明する。なお、以下の実施形態では、同一の参照符号を付した部分は同様の動作を行なうものとして、重複する説明を適宜省略する。
(第1実施形態)
第1実施形態に係る学習装置10について説明する。
第1実施形態に係る学習装置10は、学習データ格納部20から学習データを取得し、学習データを用いてネットワークモデルを学習する。
学習データ格納部20は、複数の学習データを格納する。第1実施形態では、異常検知用の学習済みモデルを生成することを目的とするため、学習データとして、正常値のデータ(以下、実データという)を格納する。実データは、複数の要素を持つ多次元ベクトルを想定する。例えば、実データが画像データであれば、画素値を1つの要素としたベクトルデータである。実データは、ノイズを有してもよいし、ノイズがなくともよい。学習データ格納部20は、学習装置10に接続される外部サーバを想定するが、学習装置10内に含まれてもよい。
第1実施形態に係る学習装置10は、第1圧縮部101、生成部102、第2圧縮部103、識別部104、算出部105および更新部106を含む。
第1圧縮部101は、第1ネットワークを用いて実データから第1潜在変数を生成する。第1潜在変数は、データ空間に存在する実データを潜在空間にマッピングした場合の潜在空間上の点に対応する値である。第1潜在変数は、例えば複数の要素を持つ多次元ベクトルである。
生成部102は、第2ネットワークを用いて潜在空間におけるランダムな変数(以下、ランダム変数と呼ぶ)または第1圧縮部101により生成された第1潜在変数から、再構成データを生成する。再構成データは、潜在空間に存在する潜在変数をデータ空間にマッピングしたデータである。
第2圧縮部103は、第3ネットワークを用いて生成部102により生成された再構成データから、第2潜在変数を生成する。第2潜在変数は、第1潜在変数と同様であり、データ空間に存在する再構成データを潜在空間にマッピングした場合の潜在空間上の点に対応し、複数の要素を持つ多次元ベクトルである。
識別部104は、第4ネットワークを用いて、実データと再構成データとを識別し、特徴量の差分に基づいて識別スコアを生成する。
算出部105は、第1潜在変数と第2潜在変数との差分を計算する。ここでは、第1潜在変数と第2潜在変数との間のコスト距離を計算する。なお、差分を算出する手法としては、距離に限らず、第1潜在変数と第2潜在変数との差分が定量的に算出できる手法であればよい。
更新部106は、識別部104で生成された識別スコアに基づいて、第1ネットワーク、第2ネットワーク、第3ネットワークおよび第4ネットワークを繰り返し更新し、各ネットワークを最適化する。その後、更新部106は、算出部105で生成されたコスト距離に基づいて、第3ネットワークを繰り返し更新する。その後、所定の最適化条件が満たされた場合に各ネットワークの学習を終了する。結果として学習済みモデルが生成される。
次に、第1実施形態に係る学習装置10を用いた学習用ネットワークモデルについて図2を参照して説明する。
図2に示すネットワークモデルは、敵対的生成ネットワーク(Generative Adversarial Network:GAN)に基づくモデルである。
第1圧縮部101は、第1ネットワークとしてエンコーダネットワークを用いる。生成部102は、第2ネットワークとしてデコーダネットワークを用いる。第2圧縮部103は、第3ネットワークとして第1ネットワークとは異なる別のエンコーダネットワークを用いる。識別部104は、第4ネットワークとして識別ネットワークを用いる。
エンコーダネットワークは、データ空間に存在するデータの特徴を潜在空間にマッピングできるようなネットワーク構造であればよい。例えば、データが画像であれば、画像の特徴を表現する潜在空間上の点を生成できるネットワーク構造であればよい。また、デコーダネットワークは、潜在空間上の点からデータ空間に存在するデータを生成できればよい。例えば潜在空間上の点から画像を生成できるネットワーク構造であればよい。識別ネットワークは、入力されるデータが実データ(本物)であるか、生成部102が生成した再構成データ(偽物)であるかを識別できるネットワーク構造であればよい。
上述のネットワークは、一般的なGANまたはDeep Convolutional GAN(DCGAN)で用いられる多層ニューラルネットワークであればよい。具体的には、深層畳み込みニューラルネットワーク(Deep Convolutional Neural Network:DCNN)、Recurrent Neural Network、Recursive Neural Network、Branching Neural Network、Mereging Neural Networkなど、どのような構造を有してもよい。またはこれらの組み合わせでもよく、DCNNにおいて、リカレントニューラルネットワークの層を含むなど、どのような層間構造を有してもよい。また、各層は、連続構造、回帰構造、再帰構造、分岐構造、結合構造など、どのような構造でもよい。
本実施形態では、生成部102と識別部104とを有する一般的なGANを拡張し、第1圧縮部101および第2圧縮部103でそれぞれ学習される、2つのエンコーダネットワークを含むネットワークモデルを用いる。
第1圧縮部101は、例えば学習データ格納部20から学習データとして実データ201を取得する。第1圧縮部101では、取得した実データ201がエンコーダネットワークに入力されることで、実データ201がエンコードされ、第1潜在変数202が出力される。すなわち、実データが潜在空間にマッピングされた第1潜在変数202は、当該実データ201の特徴を表すような潜在変数の点として得られる。言い換えれば、第1潜在変数202は、実データ201の特徴を表す多次元ベクトルで表現される。
生成部102は、第1圧縮部101から第1潜在変数202と生成部102に提供される雑音(z)であるランダム変数203とをそれぞれ受け取る。生成部102では、潜在空間の第1潜在変数202およびランダム変数203がデコーダネットワークに入力されることで、潜在変数がデコードされ、再構成データが出力される。ここでは、第1潜在変数202に対応する再構成データ204と、ランダム変数203に対応する再構成データ205とがそれぞれ出力される。
第2圧縮部103は、生成部102から再構成データ204および再構成データ205を受け取る。第2圧縮部103では、再構成データ204および再構成データ205がエンコーダネットワークに入力されることで、再構成データ204がエンコードされて第2潜在変数206が出力され、再構成データ205がエンコードされて第2潜在変数207が出力される。これにより、再構成データが潜在空間にマッピングされた第2潜在変数は、当該再構成データの特徴を表すような潜在変数の点として得られる。すなわち、第2潜在変数206および第2潜在変数207はそれぞれ、再構成データの特徴を表す多次元ベクトルで表現される。
算出部105は、第1圧縮部101から第1潜在変数202を、第2圧縮部103から第2潜在変数206をそれぞれ受け取る。算出部105は、第1潜在変数202と第2潜在変数206とのコスト距離を計算する。コスト距離としては、例えば潜在空間上でのマンハッタン距離を計算する。
識別部104は、例えば学習データ格納部20から第1圧縮部101に入力された実データ201と、生成部102から再構成データ204および再構成データ205とをそれぞれ受け取る。識別部104では、実データ201と再構成データ204と再構成データ205とが識別ネットワークに入力されることで、入力されたデータが本物のデータであるか偽物のデータであるかが識別される。結果として、識別部104は識別スコア208を出力する。また、識別部104では、実データ201とランダム変数203によって生成されたと再構成データ205とが識別ネットワークに入力されることで、入力されたデータが実データであるか偽データであるかが識別されてもよい。
次に、本実施形態に係る学習装置10の学習処理について図3のフローチャートを参照して説明する。
ステップS301では、第1圧縮部101が、学習データである実データを取得し、実データをエンコードして第1潜在変数を生成する。
ステップS302では、生成部102が、ランダム変数および第1潜在変数をそれぞれデコードし、再構成データをそれぞれ生成する。
ステップS303では、第2圧縮部103が、再構成データをエンコードして、第2潜在変数を生成する。
ステップS304では、算出部105が、第1潜在変数と第2潜在変数との間のコスト距離を計算する。ここでは、第2潜在変数は、第1潜在変数から生成された再構成データから生成される。
ステップS305では、識別部104が、実データと再構成データとを識別し、識別スコアを生成する。
なお、ステップS303およびステップS304の処理と、ステップS305の処理とは順序が入れ替わってもよいし、並列して実行されてもよい。
ステップS306では、更新部106が、識別スコアが最小となるように、第1ネットワーク、第2ネットワーク、第3ネットワークおよび第4ネットワークの各パラメータを更新し、各ネットワークを最適化する。更新部106はまた、第1潜在変数と第2潜在変数とのコスト距離が最小となるように、第3ネットワークを最適化する。パラメータとしては、重み係数、バイアスなどが挙げられる。
例えば、第1圧縮部101のエンコーダネットワーク、生成部102のデコーダネットワークおよび第2圧縮部102のエンコーダネットワークは、実データと区別がつかない程度の再構成データを生成する、つまり本物と区別が付かない偽物のデータを生成することを目指す。よって、潜在空間における第1潜在変数と第2潜在変数との間のコスト距離と、データ空間における実データと再構成データとの再構成誤差に基づいて、目的関数を最小化するように各パラメータが更新されればよい。
一方で、識別部104の識別ネットワークは、実データと再構成データとを確実に識別することを目指す。よって、識別ネットワークから出力される識別スコアに基づいて、目的関数を最大化するように、識別ネットワークのパラメータが更新される。
つまり、第1圧縮部101のエンコーダネットワーク、生成部102のデコーダネットワークおよび第2圧縮部102のエンコーダネットワークに関する目的関数の最小化と、識別部104の識別ネットワークに関する目的関数の最大化との双方を最適化する学習が行われればよい。
また、潜在空間における第1潜在変数と第2潜在変数との間のマンハッタン距離が近いほど、実データと再構成データとの間の特徴が類似していると考えられるため、第2潜在変数の生成元である再構成データも、データ空間上で実データと類似すると考えられる。
ステップS307では、更新部106が、各ネットワークの学習が完了したか否かを判定する。例えば、学習において所定のエポック数の学習が完了したか、学習レベルが安定しているかで判定すればよい。各ネットワークの学習が完了すれば学習処理を終了し、ネットワークの学習が完了していなければ、ステップS301に戻り、同様の学習を繰り返す。ネットワークの学習では、上述した4つのネットワークを結合して(続けて)学習して各ネットワークのパラメータを更新してもよいし、同時にトレーニングしてパラメータを更新してもよい。
なお、上述の例では、学習データが全て正常なデータであるとして学習させているため、学習データの中では、各データの区別を明示的に学習していない。一方、学習データについてラベルを付与することで、指定した条件で学習することもできる。
学習データにラベルを付与して学習を行う例について、図4のネットワークモデルを参照して説明する。
図4に示すネットワークモデルは、図2に示すネットワークモデルと同様であるが、第1潜在変数202、ランダム変数203およびラベル401が生成部102に入力され、ラベル401とともに実データ201および再構成データ204が識別部104に入力される点が異なる。
ラベル401は、例えば、付与したい条件に関するワンホットベクトルであればよい。具体的には、学習データが手書き入力による0から9までの手書き数字の画像データセットであるMNISTを用い、「3」の手書き数字の画像が実データ201として第1圧縮部101に入力される場合を想定する。このとき、0から9までの数値を10個の要素に対応させたワンホットベクトルを用いればよい。より詳細には、ベクトルのうち4番目を1とし、その他の値をゼロとしたワンホットベクトル(0,0,0,1,0,0,0,0,0,0)を用いればよい。
生成器102のデコーダネットワークへの入力は、第1潜在変数202およびランダム変数203のベクトルデータの最後に同じラベル401を有するワンホットベクトルデータを結合するデータの入力とすることができる。また、実データ201が画像データである場合には、識別部104への入力は、ラベル401のワンホットベクトルが2次元配列されて入力されればよい。具体的には、上述のワンホットベクトルの各要素は、1つの画像データ(画素)を示し、2次元ベクトル(128×128)で配置される。2次元ベクトルにおいて、第4の2次元ベクトル値が全て「1」であり、第4以外の他のベクトル値が全て「0」であるデータが識別部104に入力される。なお、学習方法は、図3と同様のステップで学習すればよいため、ここでの説明を省略する。
このようにラベル401により学習させることで、実データ、つまり正常範囲の条件についても学習させることができ、より詳細な分類を実行することができる。
以上に示した第1実施形態によれば、潜在空間における第1潜在変数と第2潜在変数との間の距離を計算し、当該距離をネットワークの学習に用いることで、潜在空間とデータ空間との両方で誤差を最適化する。このように、GANにおいてデュアルエンコーダを使用することによって、潜在空間およびデータ空間におけるデータの距離を最小化するGANを可能にする。つまり、実データからより多くの情報を保持し、GANを用いた異常検知で問題となるBad cycle-consistencyを軽減するようにネットワークを学習できる。結果として、異常データの検知能力を向上させることができる。
(第1実施形態の変形例)
次に、第1実施形態の変形例に係るネットワークモデルについて図5を参照して説明する。
図5に示すネットワークモデルは、図2に示すネットワークモデルと比較して、算出部105を含まず、第2潜在変数501が生成部102に入力される点が異なる。
より具体的には、第1回目の学習フェーズにおいて、生成器102では、第1潜在変数202およびランダム変数203がデコーダネットワークに入力され、第1潜在変数202およびランダム変数203をデコードして、再構成データ204および再構成データ205をそれぞれ出力する。
次に、生成器102では、第2潜在変数501がデコーダネットワークに入力され、第2潜在変数501をデコードして、再構成データ204および再構成データ205の出力に加えて再構成データ502を出力する。この場合、入力される第2潜在変数501は、第2圧縮部103における直前の処理によって生成された第2潜在変数501である。第2圧縮部は、再構成データ204、再構成データ205および再構成データ502を受信する。再構成データ204、再構成データ205および再構成データ502がエンコーダネットワークに入力されることによって、再構成データ204および再構成データ502がエンコードされ、第2潜在変数501が出力される。また、再構成データ205がエンコードされ、第2潜在変数207が出力される。再構成データ502は、それ自身でエンコードされ、別の第2潜在変数が出力されてもよい。学習方法については、算出部105が算出したコスト距離を用いない以外は、第1実施形態と同様の方法で各ネットワークの学習を行えばよい。
第1実施形態に係る変形例によれば、第1実施形態と同様に、潜在空間とデータ空間との両方で誤差が最小となるようにネットワークを最適化することで、Bad cycle-consistencyを軽減できる。
(第2実施形態)
第2実施形態では、第1実施形態に係る学習装置10により学習した学習済みモデルを用いて推論を実施する推論装置について説明する。
第2実施形態に係る推論装置について図6に示す。推論装置60は、第1圧縮部101、生成部102、識別部104および判定部601を含む。
第1圧縮部101は、学習済みのエンコーダネットワークを用いて、検査対象のデータ(以下、対象データともいう)から潜在変数を生成する。
生成部102は、学習済みのデコーダネットワークを用いて、潜在変数から再構成データを生成する。
識別部104は、学習済みの識別ネットワークを用いて、対象データと再構成データとの間の特徴の差分に関する識別スコアを生成する。第2実施形態における識別スコアは、対象データの特徴量と再構成データの特徴量との間の差分の絶対値を用いる。また、識別部104は、識別スコアと、対象データから再構成画像への再構成処理における再構成誤差の絶対値との合計を異常スコアとして算出する。なお、識別スコアと再構成誤差とは重み付け加算されてもよい。
判定部601は、異常スコアに基づいて対象データが正常か異常かを判定する。
次に、第2実施形態に係る推論装置60で用いる学習済みのネットワークモデルについて図7に示す。
図7に示すネットワークモデルは、第1圧縮部101のエンコーダネットワーク、生成部102のデコーダネットワークおよび識別部104の識別ネットワークを含む。
第1圧縮部101では、対象データ701がエンコーダネットワークに入力され、潜在変数702が生成される。
生成部102では、潜在変数702がデコーダネットワークに入力され、再構成データ703が生成される。生成部102のデコーダネットワークは、学習により潜在変数から実データ、すなわち正常データの特徴が学習済みであるため、対象データが正常値であるとして、潜在変数から再構成データへの生成処理を行なう。つまり、対象データ701が異常値であれば、対象データ701と再構成データとの間に差分が生じることとなる。
識別部104では、対象データ701と再構成データ703とが識別ネットワークに入力され、識別スコアが算出され、その後異常スコア704が算出される。
次に、第2実施形態に係る推論装置60の動作について図8のフローチャートを参照して説明する。
ステップS801では、第1圧縮部101が、対象データを取得する。
ステップS802では、第1圧縮部101が、学習済みのエンコーダネットワークを用いて対象データから潜在変数を生成する。
ステップS803では、生成部102が、学習済みのデコーダネットワークを用いて潜在変数から再構成データを生成する。
ステップS804では、識別部104が、学習済みの識別ネットワークを用いて対象データと再構成データとを識別し、識別スコアを生成する。
ステップS805では、識別部104が、識別スコアと再構成誤差との合計を異常スコアとして出力する。
ステップS806では、判定部601が、異常スコアが閾値以上であるか否かを判定する。異常スコアが閾値以上であれば、ステップS807に進み、異常スコアが閾値未満であれば、ステップS808に進む。
ステップS807では、判定部601が、対象データが「異常」であると判定する。
ステップS808では、判定部601が、対象データが「正常」であると判定する。
次に、推論装置60による対象データの推論結果の一例について図9を参照して説明する。
図9の左図は、検査対象となるMNISTのデータセット91である。なお、推論装置60における学習済みモデルは、対象データのうち手書き数字「0」の画像を異常データのクラスとし、「0」以外の手書き数字「1~9」の画像を正常データのクラスとして学習されている場合を想定する。ここで、ネットワークモデルにおいて手書き番号「1~9」の画像が学習され、教師データに存在しない手書き数字「0」の画像が異常データとして検知されたとする。
図9の中央図は、比較検証のため、MNISTのデータセット91に対する一般的なBiGANによる推論結果92である。図9では、再構成データを、データセット91の手書き数字の位置と対応付けて配置する。
推論結果92では、異常データはボックス94の位置に対応する。つまり手書き数字「0」が入力された場合は、異常データとして検知できているが、入力されたデータに対して半数以上、同一の数字として再構成されておらず、Bad cycle-consistencyの影響が大きい。
一方、図9の右図は、第2実施形態に係る推論装置60によるMNISTのデータセット91に対する推論結果93である。推論結果93では、異常データを全て検知できており、さらに推論結果92と比較して、入力されたデータに対して同一の数字を再構成できている割合が高い。つまり、推論結果92と推論結果93とを比較すると、第2実施形態に係る推論装置60の推論結果93のほうがBad cycle-consistencyの影響を低減できていることが一見して分かる。
次に、MNISTのデータセットのそれぞれについてのAUROC(Area Under the Receiver Operating Characteristics)メトリックの評価例について図10を参照して説明する。
図10は、0~9までの各数字を異常データとしたときの、第2実施形態に係る推論装置60の性能を示すグラフ1004と、他の3つの手法の性能を示すグラフ1001、1002および1003である。
縦軸は全体性能の平均値、すなわちAUROCの値を示し、横軸は0~9の各番号を示す。AUROCは、分類の性能を評価するための1つの指標である。AUROCの値が高いほど、異常の検知精度が良いことを示す。
図10に示すように、他の手法のグラフ1001、1002および1003と比較して、推論装置60のグラフ1004がどの数値に対しても高い。よって、推論装置60の異常検知性能が他の手法よりも高いことが分かる。
以上に示した第2実施形態によれば、第1実施形態に係る学習装置で学習した学習済みモデルを用いることにより、学習済みモデルは、正常データ(実データ)と同様の再構成データを生成することができる。したがって、対象データに対して推論を行うことにより、高い異常検知性能を実現することができ、Bad cycle consistencyを大幅に改善することができる。つまり、第2実施形態による推論装置によれば、異常データが高い異常スコアを有することになるため、異常データが正常データに内在する場合に、当該異常データを分離する能力を高めることができる。
ここで、第1実施形態に係る学習装置10および第2実施形態に係る推論装置60のハードウェア構成について図11を参照して説明する。
第1実施形態に係る学習装置10および第2実施形態に係る推論装置60は、CPU(Central Processing Unit)1101、ROM(Read Only memory)1102、RAM(Random Access Memory)1103、通信インタフェース1104と、格納部1105を含む。また、各部はバス1106で接続される。
本実施形態に係る学習装置10および推論装置60で実行されるプログラムは、インターネットなどのネットワークに接続されたコンピュータにダウンロードされ、コンピュータを上述した学習装置10および推論装置60の各部として機能させることができる。ダウンロードされたプログラムは、ROM1102または格納部1105に格納され、学習装置10および推論装置60の各部として機能させる際に格納されたプログラムが読み出されてもよい。コンピュータは、CPU1101がコンピュータ読み取り可能な記憶媒体からプログラムを主記憶装置上に読み出して実行できる。コンピュータ読み取り可能な記憶媒体としては、例えば、CD-ROM、DVD、Blu-ray(登録商標)Discである。
上述の実施形態の中で示した処理手順に示された指示は、ソフトウェアであるプログラムに基づいて実行されることが可能である。汎用の計算機システムが、このプログラムを予め記憶しておき、このプログラムを読み込むことにより、上述した学習装置および推論装置の制御動作による効果と同様な効果を得ることも可能である。上述の実施形態で記述された指示は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク、ハードディスクなど)、光ディスク(CD-ROM、CD-R、CD-RW、DVD-ROM、DVD±R、DVD±RW、Blu-ray(登録商標)Discなど)、半導体メモリ、又はこれに類する記録媒体に記録される。コンピュータまたは組み込みシステムが読み取り可能な記録媒体であれば、その記憶形式は何れの形態であってもよい。コンピュータは、この記録媒体からプログラムを読み込み、このプログラムに基づいてプログラムに記述されている指示をCPUで実行させれば、上述した実施形態の学習装置および推論装置の制御と同様な動作を実現することができる。もちろん、コンピュータがプログラムを取得する場合又は読み込む場合はネットワークを通じて取得又は読み込んでもよい。
また、記録媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワーク等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部を実行してもよい。
さらに、本実施形態における記録媒体は、コンピュータあるいは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶または一時記憶した記録媒体も含まれる。
また、記録媒体は1つに限られず、複数の媒体から本実施形態における処理が実行される場合も、本実施形態における記録媒体に含まれ、媒体の構成は何れの構成であってもよい。
なお、本実施形態におけるコンピュータまたは組み込みシステムは、記録媒体に記憶されたプログラムに基づき、本実施形態における各処理を実行するためのものであって、パソコン、マイコン等の1つからなる装置、複数の装置がネットワーク接続されたシステム等の何れの構成であってもよい。
また、本実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本実施形態における機能を実現することが可能な機器、装置を総称している。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行なうことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10・・・学習装置、20・・・学習データ格納部、101・・・第1圧縮部、102・・・生成部、103・・・第2圧縮部、104・・・識別部、105・・・算出部、106・・・更新部、201・・・実データ、202・・・第1潜在変数、203・・・ランダム変数、204、205、502、703・・・再構成データ、206、207、501・・・第2潜在変数、208・・・識別スコア、704・・・異常スコア、401・・・ラベル、601・・・判定部、701・・・対象データ、702・・・潜在変数、91・・・MNISTデータセット、92,93・・・推論結果、1101・・・CPU、1102・・・ROM、1103・・・RAM、1104・・・通信インタフェース、1105・・・格納部、1106・・・バス。

Claims (9)

  1. 第1ネットワークを用いて、データから、潜在空間内の前記データの特徴を表す第1潜在変数を生成する第1圧縮部と、
    第2ネットワークを用いて、前記第1潜在変数から再構成データを生成する生成部と、
    第3ネットワークを用いて、前記再構成データから第2潜在変数を生成する第2圧縮部と、
    前記第1潜在変数と前記第2潜在変数との間の前記潜在空間における距離を算出する算出部と、
    第4ネットワークを用いて、前記データと前記再構成データとの識別に関する識別スコアを出力する識別部と、
    最適化が達成されるまで、前記識別スコアに基づいて前記第1ネットワークから前記第4ネットワークまでを学習し、前記距離に基づいて前記第3ネットワークを学習する更新部と、
    を具備する学習装置。
  2. 第1ネットワークを用いて、データから、潜在空間内の前記データの特徴を表す第1潜在変数を生成する第1圧縮部と、
    第2ネットワークを用いて、前記第1潜在変数および第2潜在変数から再構成データを生成する生成部と、
    第3ネットワークを用いて、再構成データの直前の生成において取得された再構成データから前記第2潜在変数を生成する第2圧縮部と、
    第4ネットワークを用いて前記データと前記再構成データとの識別に関する識別スコアを出力する識別部と、
    最適化が達成されるまで、前記識別スコアに基づいて前記第1ネットワークから前記第4ネットワークまでを学習する更新部と、
    を具備する学習装置。
  3. 前記更新部は、前記データの情報を示すラベルが付与された前記データに基づいて、前記第1ネットワークから前記第4ネットワークまでを学習する、請求項1または請求項2に記載の学習装置。
  4. 請求項1から請求項3のいずれか1項に記載の学習装置により学習された、学習済みの第1ネットワークと、学習済みの第2ネットワークと、学習済みの第4ネットワークとを用いて推論処理を行う推論装置であって、
    前記学習済みの第1ネットワークを用いて、対象データから潜在変数を生成する圧縮部と、
    前記学習済みの第2ネットワークを用いて、前記潜在変数から再構成データを生成する生成部と、
    前記学習済みの第4ネットワークを用いて、前記対象データと前記再構成データとの識別に関する異常スコアを出力する識別部と、
    前記異常スコアが閾値以上である場合に、前記対象データが異常であると判定する判定部と、
    を具備する推論装置。
  5. 前記対象データおよび前記再構成データは、再構成誤差の計算に用いられる、請求項4に記載の推論装置。
  6. 前記識別部は、
    前記再構成誤差の絶対値を残差スコアとして算出し、
    前記対象データと前記再構成データとの特徴量の差分の絶対値を識別スコアとして算出し、
    前記残差スコアと前記識別スコアとを加算することにより、前記異常スコアを算出する、請求項5に記載の推論装置。
  7. 前記再構成誤差は、異常検知システムの前記異常スコアを測定するために用いられる、請求項5または請求項6に記載の推論装置。
  8. 第1ネットワークを用いて、データから、潜在空間内の前記データの特徴を表す第1潜在変数を生成し、
    第2ネットワークを用いて、前記第1潜在変数から再構成データを生成し、
    第3ネットワークを用いて、前記再構成データから第2潜在変数を生成し、
    前記第1潜在変数と前記第2潜在変数との間の前記潜在空間における距離を算出し、
    第4ネットワークを用いて、前記データと前記再構成データとの識別に関する識別スコアを出力し、
    最適化が達成されるまで、前記識別スコアに基づいて前記第1ネットワークから前記第4ネットワークまでを学習し、前記距離に基づいて前記第3ネットワークを学習する、学習方法。
  9. コンピュータを、
    第1ネットワークを用いて、データから、潜在空間内の前記データの特徴を表す第1潜在変数を生成する第1圧縮手段と、
    第2ネットワークを用いて、前記第1潜在変数から再構成データを生成する生成手段と、
    第3ネットワークを用いて、前記再構成データから第2潜在変数を生成する第2圧縮手段と、
    前記第1潜在変数と前記第2潜在変数との間の前記潜在空間における距離を算出する算出手段と、
    第4ネットワークを用いて、前記データと前記再構成データとの識別に関する識別スコアを出力する識別手段と、
    最適化が達成されるまで、前記識別スコアに基づいて前記第1ネットワークから前記第4ネットワークまでを学習し、前記距離に基づいて前記第3ネットワークを学習する更新手段として機能させるための学習プログラム。
JP2020114307A 2020-07-01 2020-07-01 学習装置、方法およびプログラム Active JP7419178B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020114307A JP7419178B2 (ja) 2020-07-01 2020-07-01 学習装置、方法およびプログラム
US17/186,624 US20220004882A1 (en) 2020-07-01 2021-02-26 Learning apparatus, method, program and inference apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020114307A JP7419178B2 (ja) 2020-07-01 2020-07-01 学習装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2022012465A JP2022012465A (ja) 2022-01-17
JP7419178B2 true JP7419178B2 (ja) 2024-01-22

Family

ID=79167542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020114307A Active JP7419178B2 (ja) 2020-07-01 2020-07-01 学習装置、方法およびプログラム

Country Status (2)

Country Link
US (1) US20220004882A1 (ja)
JP (1) JP7419178B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111401138B (zh) * 2020-02-24 2023-11-07 上海理工大学 生成对抗神经网络训练过程的对抗优化方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019193900A1 (ja) 2018-04-05 2019-10-10 コニカミノルタ株式会社 印刷物検査装置、印刷物検査方法、および印刷物検査プログラム
JP2020060879A (ja) 2018-10-05 2020-04-16 オムロン株式会社 学習装置、画像生成装置、学習方法、及び学習プログラム
CN111260620A (zh) 2020-01-14 2020-06-09 三峡大学 图像异常检测方法、装置和电子设备

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190279075A1 (en) * 2018-03-09 2019-09-12 Nvidia Corporation Multi-modal image translation using neural networks
US20200302176A1 (en) * 2019-03-18 2020-09-24 Nvidia Corporation Image identification using neural networks
US10832450B2 (en) * 2019-03-27 2020-11-10 GM Global Technology Operations LLC Semantic preserved style transfer
KR102034248B1 (ko) * 2019-04-19 2019-10-18 주식회사 루닛 GAN(Generative Adversarial Networks)을 이용하는 이상 검출 방법, 장치 및 그 시스템
US11297084B2 (en) * 2019-09-30 2022-04-05 Mcafee, Llc Methods and apparatus to perform malware detection using a generative adversarial network

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019193900A1 (ja) 2018-04-05 2019-10-10 コニカミノルタ株式会社 印刷物検査装置、印刷物検査方法、および印刷物検査プログラム
JP2020060879A (ja) 2018-10-05 2020-04-16 オムロン株式会社 学習装置、画像生成装置、学習方法、及び学習プログラム
CN111260620A (zh) 2020-01-14 2020-06-09 三峡大学 图像异常检测方法、装置和电子设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Jakub Langr、Vladimir Bok 著, 大和田茂 訳,「実践GAN 敵対的生成ネットワークによる深層学習」,初版,株式会社マイナビ出版,2020年02月26日,pp.163-166,ISBN: 978-4-8399-6771-0
Samet Akcay et al.,"GANomaly: Semi-Supervised Anomaly Detection via Adversarial Training",arXiv.org [online],arXiv:1805.06725v3,Cornell University,2018年,pp.1-16,[検索日 2023.08.14], インターネット:<https://arxiv.org/abs/1805.06725v3>
Thomas Schlegl et al.,"f-AnoGAN: Fast unsupervised anomaly detection with generative adversarial networks",ResearchGate [online],2019年,pp.1-24,[検索日 2023.08.14], インターネット:<https://www.researchgate.net/publication/330796048>

Also Published As

Publication number Publication date
JP2022012465A (ja) 2022-01-17
US20220004882A1 (en) 2022-01-06

Similar Documents

Publication Publication Date Title
Li et al. MAD-GAN: Multivariate anomaly detection for time series data with generative adversarial networks
KR102034248B1 (ko) GAN(Generative Adversarial Networks)을 이용하는 이상 검출 방법, 장치 및 그 시스템
US11593682B2 (en) Visualization of high-dimensional data
JPWO2008114863A1 (ja) 診断装置
US11507670B2 (en) Method for testing an artificial intelligence model using a substitute model
CN114970715A (zh) 小样本及不平衡数据约束下的变工况故障诊断方法及系统
Kumar et al. The Importance of Feature Processing in Deep‐Learning‐Based Condition Monitoring of Motors
US20240220808A1 (en) Anomaly detection method and device therefor
CN109615080B (zh) 无监督模型评估方法、装置、服务器及可读存储介质
CN112883990A (zh) 数据分类方法及装置、计算机存储介质、电子设备
JP7419178B2 (ja) 学習装置、方法およびプログラム
KR20220079726A (ko) 의료 영상 기반의 질환 예측 방법
Gao et al. Semi-supervised small sample fault diagnosis under a wide range of speed variation conditions based on uncertainty analysis
CN116595857A (zh) 基于深度迁移学习的滚动轴承多级退化剩余寿命预测方法
US11210775B1 (en) Gradient-embedded video anomaly detection
CN117668244A (zh) 威胁情报数据的处理方法和计算机可读存储介质
US11224359B2 (en) Repetitive human activities abnormal motion detection
WO2022259446A1 (ja) 異常原因推定装置、異常原因推定方法、及びコンピュータ読み取り可能な記録媒体
Huang et al. Two-stage cost-sensitive local models for heterogeneous cross-project defect prediction
CN114925808A (zh) 一种基于云网端资源中不完整时间序列的异常检测方法
JP2023529843A (ja) 画像およびデータの分析モデルの適合性を調整する方法
Dao et al. Demystifying deep neural networks through interpretation: A survey
US20240185064A1 (en) Learning apparatus, method, non-transitory computer readable medium and inference apparatus
Pinto Preditive Maintenance-Searching for Data Series Anomalies
Theis et al. Improving Predictive Process Monitoring Through Reachability Graph-Based Masking of Neural Networks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220826

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240110

R150 Certificate of patent or registration of utility model

Ref document number: 7419178

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150