JP7419178B2 - 学習装置、方法およびプログラム - Google Patents
学習装置、方法およびプログラム Download PDFInfo
- Publication number
- JP7419178B2 JP7419178B2 JP2020114307A JP2020114307A JP7419178B2 JP 7419178 B2 JP7419178 B2 JP 7419178B2 JP 2020114307 A JP2020114307 A JP 2020114307A JP 2020114307 A JP2020114307 A JP 2020114307A JP 7419178 B2 JP7419178 B2 JP 7419178B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- network
- latent variable
- latent
- identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 21
- 230000006835 compression Effects 0.000 claims description 45
- 238000007906 compression Methods 0.000 claims description 45
- 230000005856 abnormality Effects 0.000 claims description 17
- 230000002159 abnormal effect Effects 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 8
- 238000005457 optimization Methods 0.000 claims description 6
- 239000013598 vector Substances 0.000 description 18
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000013500 data storage Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 239000010410 layer Substances 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000002547 anomalous effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Description
第1実施形態に係る学習装置10について説明する。
第1実施形態に係る学習装置10は、学習データ格納部20から学習データを取得し、学習データを用いてネットワークモデルを学習する。
図2に示すネットワークモデルは、敵対的生成ネットワーク(Generative Adversarial Network:GAN)に基づくモデルである。
ステップS301では、第1圧縮部101が、学習データである実データを取得し、実データをエンコードして第1潜在変数を生成する。
ステップS303では、第2圧縮部103が、再構成データをエンコードして、第2潜在変数を生成する。
ステップS305では、識別部104が、実データと再構成データとを識別し、識別スコアを生成する。
なお、ステップS303およびステップS304の処理と、ステップS305の処理とは順序が入れ替わってもよいし、並列して実行されてもよい。
つまり、第1圧縮部101のエンコーダネットワーク、生成部102のデコーダネットワークおよび第2圧縮部102のエンコーダネットワークに関する目的関数の最小化と、識別部104の識別ネットワークに関する目的関数の最大化との双方を最適化する学習が行われればよい。
図4に示すネットワークモデルは、図2に示すネットワークモデルと同様であるが、第1潜在変数202、ランダム変数203およびラベル401が生成部102に入力され、ラベル401とともに実データ201および再構成データ204が識別部104に入力される点が異なる。
このようにラベル401により学習させることで、実データ、つまり正常範囲の条件についても学習させることができ、より詳細な分類を実行することができる。
次に、第1実施形態の変形例に係るネットワークモデルについて図5を参照して説明する。
図5に示すネットワークモデルは、図2に示すネットワークモデルと比較して、算出部105を含まず、第2潜在変数501が生成部102に入力される点が異なる。
第2実施形態では、第1実施形態に係る学習装置10により学習した学習済みモデルを用いて推論を実施する推論装置について説明する。
第1圧縮部101は、学習済みのエンコーダネットワークを用いて、検査対象のデータ(以下、対象データともいう)から潜在変数を生成する。
生成部102は、学習済みのデコーダネットワークを用いて、潜在変数から再構成データを生成する。
判定部601は、異常スコアに基づいて対象データが正常か異常かを判定する。
図7に示すネットワークモデルは、第1圧縮部101のエンコーダネットワーク、生成部102のデコーダネットワークおよび識別部104の識別ネットワークを含む。
生成部102では、潜在変数702がデコーダネットワークに入力され、再構成データ703が生成される。生成部102のデコーダネットワークは、学習により潜在変数から実データ、すなわち正常データの特徴が学習済みであるため、対象データが正常値であるとして、潜在変数から再構成データへの生成処理を行なう。つまり、対象データ701が異常値であれば、対象データ701と再構成データとの間に差分が生じることとなる。
識別部104では、対象データ701と再構成データ703とが識別ネットワークに入力され、識別スコアが算出され、その後異常スコア704が算出される。
ステップS801では、第1圧縮部101が、対象データを取得する。
ステップS802では、第1圧縮部101が、学習済みのエンコーダネットワークを用いて対象データから潜在変数を生成する。
ステップS804では、識別部104が、学習済みの識別ネットワークを用いて対象データと再構成データとを識別し、識別スコアを生成する。
ステップS806では、判定部601が、異常スコアが閾値以上であるか否かを判定する。異常スコアが閾値以上であれば、ステップS807に進み、異常スコアが閾値未満であれば、ステップS808に進む。
ステップS808では、判定部601が、対象データが「正常」であると判定する。
図9の左図は、検査対象となるMNISTのデータセット91である。なお、推論装置60における学習済みモデルは、対象データのうち手書き数字「0」の画像を異常データのクラスとし、「0」以外の手書き数字「1~9」の画像を正常データのクラスとして学習されている場合を想定する。ここで、ネットワークモデルにおいて手書き番号「1~9」の画像が学習され、教師データに存在しない手書き数字「0」の画像が異常データとして検知されたとする。
推論結果92では、異常データはボックス94の位置に対応する。つまり手書き数字「0」が入力された場合は、異常データとして検知できているが、入力されたデータに対して半数以上、同一の数字として再構成されておらず、Bad cycle-consistencyの影響が大きい。
図10は、0~9までの各数字を異常データとしたときの、第2実施形態に係る推論装置60の性能を示すグラフ1004と、他の3つの手法の性能を示すグラフ1001、1002および1003である。
図10に示すように、他の手法のグラフ1001、1002および1003と比較して、推論装置60のグラフ1004がどの数値に対しても高い。よって、推論装置60の異常検知性能が他の手法よりも高いことが分かる。
第1実施形態に係る学習装置10および第2実施形態に係る推論装置60は、CPU(Central Processing Unit)1101、ROM(Read Only memory)1102、RAM(Random Access Memory)1103、通信インタフェース1104と、格納部1105を含む。また、各部はバス1106で接続される。
また、記録媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワーク等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部を実行してもよい。
さらに、本実施形態における記録媒体は、コンピュータあるいは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶または一時記憶した記録媒体も含まれる。
また、記録媒体は1つに限られず、複数の媒体から本実施形態における処理が実行される場合も、本実施形態における記録媒体に含まれ、媒体の構成は何れの構成であってもよい。
また、本実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本実施形態における機能を実現することが可能な機器、装置を総称している。
Claims (9)
- 第1ネットワークを用いて、データから、潜在空間内の前記データの特徴を表す第1潜在変数を生成する第1圧縮部と、
第2ネットワークを用いて、前記第1潜在変数から再構成データを生成する生成部と、
第3ネットワークを用いて、前記再構成データから第2潜在変数を生成する第2圧縮部と、
前記第1潜在変数と前記第2潜在変数との間の前記潜在空間における距離を算出する算出部と、
第4ネットワークを用いて、前記データと前記再構成データとの識別に関する識別スコアを出力する識別部と、
最適化が達成されるまで、前記識別スコアに基づいて前記第1ネットワークから前記第4ネットワークまでを学習し、前記距離に基づいて前記第3ネットワークを学習する更新部と、
を具備する学習装置。 - 第1ネットワークを用いて、データから、潜在空間内の前記データの特徴を表す第1潜在変数を生成する第1圧縮部と、
第2ネットワークを用いて、前記第1潜在変数および第2潜在変数から再構成データを生成する生成部と、
第3ネットワークを用いて、再構成データの直前の生成において取得された再構成データから前記第2潜在変数を生成する第2圧縮部と、
第4ネットワークを用いて前記データと前記再構成データとの識別に関する識別スコアを出力する識別部と、
最適化が達成されるまで、前記識別スコアに基づいて前記第1ネットワークから前記第4ネットワークまでを学習する更新部と、
を具備する学習装置。 - 前記更新部は、前記データの情報を示すラベルが付与された前記データに基づいて、前記第1ネットワークから前記第4ネットワークまでを学習する、請求項1または請求項2に記載の学習装置。
- 請求項1から請求項3のいずれか1項に記載の学習装置により学習された、学習済みの第1ネットワークと、学習済みの第2ネットワークと、学習済みの第4ネットワークとを用いて推論処理を行う推論装置であって、
前記学習済みの第1ネットワークを用いて、対象データから潜在変数を生成する圧縮部と、
前記学習済みの第2ネットワークを用いて、前記潜在変数から再構成データを生成する生成部と、
前記学習済みの第4ネットワークを用いて、前記対象データと前記再構成データとの識別に関する異常スコアを出力する識別部と、
前記異常スコアが閾値以上である場合に、前記対象データが異常であると判定する判定部と、
を具備する推論装置。 - 前記対象データおよび前記再構成データは、再構成誤差の計算に用いられる、請求項4に記載の推論装置。
- 前記識別部は、
前記再構成誤差の絶対値を残差スコアとして算出し、
前記対象データと前記再構成データとの特徴量の差分の絶対値を識別スコアとして算出し、
前記残差スコアと前記識別スコアとを加算することにより、前記異常スコアを算出する、請求項5に記載の推論装置。 - 前記再構成誤差は、異常検知システムの前記異常スコアを測定するために用いられる、請求項5または請求項6に記載の推論装置。
- 第1ネットワークを用いて、データから、潜在空間内の前記データの特徴を表す第1潜在変数を生成し、
第2ネットワークを用いて、前記第1潜在変数から再構成データを生成し、
第3ネットワークを用いて、前記再構成データから第2潜在変数を生成し、
前記第1潜在変数と前記第2潜在変数との間の前記潜在空間における距離を算出し、
第4ネットワークを用いて、前記データと前記再構成データとの識別に関する識別スコアを出力し、
最適化が達成されるまで、前記識別スコアに基づいて前記第1ネットワークから前記第4ネットワークまでを学習し、前記距離に基づいて前記第3ネットワークを学習する、学習方法。 - コンピュータを、
第1ネットワークを用いて、データから、潜在空間内の前記データの特徴を表す第1潜在変数を生成する第1圧縮手段と、
第2ネットワークを用いて、前記第1潜在変数から再構成データを生成する生成手段と、
第3ネットワークを用いて、前記再構成データから第2潜在変数を生成する第2圧縮手段と、
前記第1潜在変数と前記第2潜在変数との間の前記潜在空間における距離を算出する算出手段と、
第4ネットワークを用いて、前記データと前記再構成データとの識別に関する識別スコアを出力する識別手段と、
最適化が達成されるまで、前記識別スコアに基づいて前記第1ネットワークから前記第4ネットワークまでを学習し、前記距離に基づいて前記第3ネットワークを学習する更新手段として機能させるための学習プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020114307A JP7419178B2 (ja) | 2020-07-01 | 2020-07-01 | 学習装置、方法およびプログラム |
US17/186,624 US20220004882A1 (en) | 2020-07-01 | 2021-02-26 | Learning apparatus, method, program and inference apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020114307A JP7419178B2 (ja) | 2020-07-01 | 2020-07-01 | 学習装置、方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022012465A JP2022012465A (ja) | 2022-01-17 |
JP7419178B2 true JP7419178B2 (ja) | 2024-01-22 |
Family
ID=79167542
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020114307A Active JP7419178B2 (ja) | 2020-07-01 | 2020-07-01 | 学習装置、方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20220004882A1 (ja) |
JP (1) | JP7419178B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111401138B (zh) * | 2020-02-24 | 2023-11-07 | 上海理工大学 | 生成对抗神经网络训练过程的对抗优化方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019193900A1 (ja) | 2018-04-05 | 2019-10-10 | コニカミノルタ株式会社 | 印刷物検査装置、印刷物検査方法、および印刷物検査プログラム |
JP2020060879A (ja) | 2018-10-05 | 2020-04-16 | オムロン株式会社 | 学習装置、画像生成装置、学習方法、及び学習プログラム |
CN111260620A (zh) | 2020-01-14 | 2020-06-09 | 三峡大学 | 图像异常检测方法、装置和电子设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190279075A1 (en) * | 2018-03-09 | 2019-09-12 | Nvidia Corporation | Multi-modal image translation using neural networks |
US20200302176A1 (en) * | 2019-03-18 | 2020-09-24 | Nvidia Corporation | Image identification using neural networks |
US10832450B2 (en) * | 2019-03-27 | 2020-11-10 | GM Global Technology Operations LLC | Semantic preserved style transfer |
KR102034248B1 (ko) * | 2019-04-19 | 2019-10-18 | 주식회사 루닛 | GAN(Generative Adversarial Networks)을 이용하는 이상 검출 방법, 장치 및 그 시스템 |
US11297084B2 (en) * | 2019-09-30 | 2022-04-05 | Mcafee, Llc | Methods and apparatus to perform malware detection using a generative adversarial network |
-
2020
- 2020-07-01 JP JP2020114307A patent/JP7419178B2/ja active Active
-
2021
- 2021-02-26 US US17/186,624 patent/US20220004882A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019193900A1 (ja) | 2018-04-05 | 2019-10-10 | コニカミノルタ株式会社 | 印刷物検査装置、印刷物検査方法、および印刷物検査プログラム |
JP2020060879A (ja) | 2018-10-05 | 2020-04-16 | オムロン株式会社 | 学習装置、画像生成装置、学習方法、及び学習プログラム |
CN111260620A (zh) | 2020-01-14 | 2020-06-09 | 三峡大学 | 图像异常检测方法、装置和电子设备 |
Non-Patent Citations (3)
Title |
---|
Jakub Langr、Vladimir Bok 著, 大和田茂 訳,「実践GAN 敵対的生成ネットワークによる深層学習」,初版,株式会社マイナビ出版,2020年02月26日,pp.163-166,ISBN: 978-4-8399-6771-0 |
Samet Akcay et al.,"GANomaly: Semi-Supervised Anomaly Detection via Adversarial Training",arXiv.org [online],arXiv:1805.06725v3,Cornell University,2018年,pp.1-16,[検索日 2023.08.14], インターネット:<https://arxiv.org/abs/1805.06725v3> |
Thomas Schlegl et al.,"f-AnoGAN: Fast unsupervised anomaly detection with generative adversarial networks",ResearchGate [online],2019年,pp.1-24,[検索日 2023.08.14], インターネット:<https://www.researchgate.net/publication/330796048> |
Also Published As
Publication number | Publication date |
---|---|
JP2022012465A (ja) | 2022-01-17 |
US20220004882A1 (en) | 2022-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | MAD-GAN: Multivariate anomaly detection for time series data with generative adversarial networks | |
KR102034248B1 (ko) | GAN(Generative Adversarial Networks)을 이용하는 이상 검출 방법, 장치 및 그 시스템 | |
US11593682B2 (en) | Visualization of high-dimensional data | |
JPWO2008114863A1 (ja) | 診断装置 | |
US11507670B2 (en) | Method for testing an artificial intelligence model using a substitute model | |
CN114970715A (zh) | 小样本及不平衡数据约束下的变工况故障诊断方法及系统 | |
Kumar et al. | The Importance of Feature Processing in Deep‐Learning‐Based Condition Monitoring of Motors | |
US20240220808A1 (en) | Anomaly detection method and device therefor | |
CN109615080B (zh) | 无监督模型评估方法、装置、服务器及可读存储介质 | |
CN112883990A (zh) | 数据分类方法及装置、计算机存储介质、电子设备 | |
JP7419178B2 (ja) | 学習装置、方法およびプログラム | |
KR20220079726A (ko) | 의료 영상 기반의 질환 예측 방법 | |
Gao et al. | Semi-supervised small sample fault diagnosis under a wide range of speed variation conditions based on uncertainty analysis | |
CN116595857A (zh) | 基于深度迁移学习的滚动轴承多级退化剩余寿命预测方法 | |
US11210775B1 (en) | Gradient-embedded video anomaly detection | |
CN117668244A (zh) | 威胁情报数据的处理方法和计算机可读存储介质 | |
US11224359B2 (en) | Repetitive human activities abnormal motion detection | |
WO2022259446A1 (ja) | 異常原因推定装置、異常原因推定方法、及びコンピュータ読み取り可能な記録媒体 | |
Huang et al. | Two-stage cost-sensitive local models for heterogeneous cross-project defect prediction | |
CN114925808A (zh) | 一种基于云网端资源中不完整时间序列的异常检测方法 | |
JP2023529843A (ja) | 画像およびデータの分析モデルの適合性を調整する方法 | |
Dao et al. | Demystifying deep neural networks through interpretation: A survey | |
US20240185064A1 (en) | Learning apparatus, method, non-transitory computer readable medium and inference apparatus | |
Pinto | Preditive Maintenance-Searching for Data Series Anomalies | |
Theis et al. | Improving Predictive Process Monitoring Through Reachability Graph-Based Masking of Neural Networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220826 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20230105 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230726 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231023 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240110 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7419178 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |