JP7044117B2 - モデル学習装置、モデル学習方法、及びプログラム - Google Patents
モデル学習装置、モデル学習方法、及びプログラム Download PDFInfo
- Publication number
- JP7044117B2 JP7044117B2 JP2019564307A JP2019564307A JP7044117B2 JP 7044117 B2 JP7044117 B2 JP 7044117B2 JP 2019564307 A JP2019564307 A JP 2019564307A JP 2019564307 A JP2019564307 A JP 2019564307A JP 7044117 B2 JP7044117 B2 JP 7044117B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- data
- model
- test
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Quality & Reliability (AREA)
- Testing And Monitoring For Control Systems (AREA)
- Debugging And Monitoring (AREA)
Description
前記モデルを用いて、テストデータの異常の有無を判断し、判断結果及び当該テストデータを前記記憶部に格納する検知部と、
前記判断結果、前記テストデータ、及び前記学習データを用いて、前記モデルの再学習を行う再学習部と、を備え、
前記再学習部は、前記パラメータの前記学習データに対する重要度を用い、重要度の大きさに応じて、再学習におけるパラメータの変化量を制限し、
前記再学習部は、異常であると過検知された正常なテストデータについて、当該テストデータと前記学習データとの距離が閾値以上である場合に、当該テストデータを前記再学習に使用しないと判定する
ことを特徴とするモデル学習装置が提供される。
図1に、本実施の形態におけるモデル学習装置100の構成例を示す。図1に示すように、本実施の形態におけるモデル学習装置100は、入力部101、記憶部102、検知部103、正解ラベル生成部104、再学習部105、パラメータ採否判定部106を有する。なお、最初にモデルの学習を実行する機能(ここでは学習部と呼ぶ)は、モデル学習装置100が備えてもよいし、モデル学習装置100の外部に備えられてもよいが、本実施の形態では、モデル学習装置100の外部に備えられていることを想定している。
上述したモデル学習装置100は、例えば、コンピュータに、本実施の形態で説明する処理内容を記述したプログラムを実行させることにより実現可能である。
次に、モデル学習装置100の動作例を実施例1~11として以下に説明する。以下、実施例1~2は動作の概要を示しており、その動作の詳細例については、実施例3以降で説明している。
実施例1では、モデル学習装置100は、教師なし異常検知アルゴリズムを用いる。当該教師なし異常検知アルゴリズムに基づき、モデル学習装置100の検知部103は、テスト期間において、正常時のデータX_train={x_train_1, x_train_2,…,x_train_T}を用いて学習されたモデルを用い、当該モデルに対してテストデータx_testを入力し、データの異常度を出力する。また、モデル学習装置100は、過去のテストデータを記憶部102に蓄積し、再学習部105において、蓄積したテストデータや学習データを用いてモデルの再学習を行うことで、データの持つ時間的なトレンドへの追従や、誤った検知を繰り返さないようなモデルの更新を行う。具体的な処理例については実施例4、5、6において説明する。
実施例2では、モデル学習装置100は、教師あり異常検知アルゴリズムを用いる。当該教師あり異常検知アルゴリズムに基づき、モデル学習装置100の検知部103は、学習データとして、X_train={x_train_1, x_train_2,…,x_train_T}に加えて、それぞれが属するクラスのラベルであるラベルデータY_train={y_train_1, y_train_2,…,y_train_T}を用いて学習されたモデルをテスト期間において使用することで、テストデータのクラスを分類し、分類結果から異常の有無を判断する。その際に、モデル学習装置100は、過去のテストデータを記憶部102に蓄積し、再学習部105において、蓄積したテストデータや学習データを用いてモデルの再学習を行うことで、データの持つ時間的なトレンドへの追従や、誤った検知を繰り返さないようなモデルの更新を行う。具体的な処理例については実施例7、8において説明する。
実施例3では、実施例1において再学習部105が再学習を行う場合に、過去に学習したパラメータの重要度を考慮した学習を行うことで、過去に学習したデータの傾向を保持しつつ、新たなデータの傾向についての再学習を行う。
min_θ E(x, θ) = L(x) +(λ/2) * Σ_i=1^I F_i (θ_i -θ*_i )^2
のように与えられる。ここで、xは再学習で用いる学習データ、Iは全パラメータ数、λはペナルティ項に対する係数であり、λが大きいほどペナルティ項が強く効いて、再学習によるパラメータの変化が小さくなる。また、再学習で用いる学習データとしては、過去の学習データと過去に監視したテストデータの双方を用いてもよいが、過去の学習データを用いた学習に関する情報は、各パラメータの重要度としてFに集約されているため、再学習には過去に監視したテストデータのみを用いてもよい。再学習により新たなパラメータθ_newが得られたら、再学習部105は新たなパラメータについてのフィッシャー情報量を、再学習で用いた学習データxによって計算し、記憶部102に保持する。
実施例4では、実施例1又は実施例3において、再学習部105が再学習を行う際に、過去に正常と判断されたテストデータを用いて再学習を行うことで、正常なデータの時間的なトレンドに追従した異常検知を実施する。ここでは、異常検知アルゴリズムとして、正常なデータのみを用いて学習を行うオートエンコーダ(非特許文献2)を用いた場合の例を示す。
実施例5では、実施例1又は実施例3において、正常なデータx_testを異常として誤って判断した過検知が発生した際に、x_testが正常であるということを再学習させる。
実施例6では、実施例1又は実施例3において、異常なデータx_testを正常として誤って判断した非検知が発生した際に、x_testが異常であるということを再学習させる。実施例6のフローチャートを図5に示す。
実施例7では、実施例2又は実施例3において、過去に分類を行ったテストデータについてその結果が正しいとみなせる場合に、分類結果をラベルとみなした過去のテストデータを新たな学習データとしてモデルの再学習を行うことで、データの時間的なトレンドに追従した異常検知を実施する。クラスの分類を行うモデルとしては、例えば、出力層がクラスの数だけノードを持つ多層ニューラルネットワークなどがあるが、これに限られるわけではない。
実施例8では、実施例2又は実施例3において、検知部103が行ったクラス分類が誤っていると判断された場合に、x_testを正しくクラス分類するような新しいパラメータθ_newの再学習を行う。実施例8の基本的な処理の流れは実施例7(図6)と同様であるが、下記に説明するように、正解ラベルと判断結果との比較に基づく再学習実行判断を行う点が実施例7と異なる。
実施例9では、実施例1~8の再学習について、再学習した結果得られたパラメータを採用するか否かについてを、別途用意したバリデーションデータに対する検知精度に基づいて判断する。実施例9は、実施例1~8のいずれにも適用できるが、一例として、実施例4の再学習で得られたパラメータについて、採否を判定するフローチャートを図7に示す。なお、バリデーションデータは既に記憶部102に格納されているものとする。
実施例10では、実施例1~8において再学習部105が再学習を行う場合に用いるテストデータx_testについて、過去の学習データX_trainの部分集合と近すぎるデータや遠すぎるデータを再学習対象から取り除く事で、過学習や不適切な学習を防ぐ。例えば、実施例4で正常と判断されたテストデータを用いた再学習を行う場合、過去の学習データX_train={x_train_1, x_train_2,…,x_train_T}に近いテストデータは、過去の学習データとの違いが小さく、再学習に用いた場合に、過去の学習データにフィットしすぎたモデルとなる過学習を引き起こす可能性がある。
実施例11では、実施例1~10の学習に用いるモデルとして、ニューラルネットワークを用いる。実施例1及びそれのバリエーションとなる実施例において、教師なし学習として異常検知を行うニューラルネットワークとしては、例えば、オートエンコーダ(非特許文献2)がある。実施例2及びそれのバリエーションとなる実施例において、教師あり学習として異常検知を行うニューラルネットワークとしては、例えばManikopoulos, Constantine, and Symeon Papavassiliou. "Network intrusion and fault detection: a statistical anomaly approach." IEEE Communications Magazine 40.10 (2002): 76-82.に記載されたニューラルネットワークがある。
実施例を用いて説明した本発明に係る技術により、入力データの正常/異常の判断についてモデルの学習に基づいて行う異常検知アルゴリズムにおいて、データのトレンドにモデルを追従させたり、誤った判断を繰り返さないようにさせたりするためのモデルの再学習が可能となる。
以上、説明したように、実施例1においては、数値ベクトルで表される監視データxの異常度をモデルf(x, θ)により計算するような異常検知について、予め正常であると分かっている学習データx_trainを用いてモデルf(x, θ)のパラメータθの学習が予めなされる。モデル学習装置100は、監視するテストデータx_testについてf(x_test, θ)の出力に基づいて異常の有無を判断するとともに、学習データや、過去に監視したテストデータ及びモデルによる異常有無の判断結果を記憶部102に蓄積しておく。再学習部105は、各データの異常の有無の判断結果や、別途外部から与えられるそのデータが異常であったか否かを示す正解ラベルに基づいて、モデルf(x, θ)の再学習を行って、新しいパラメータθ_newを得る。
101 入力部
102 記憶部
103 検知部
104 正解ラベル生成部
105 再学習部
106 パラメータ採否判定部
150 ドライブ装置
151 記録媒体
152 補助記憶装置
153 メモリ装置
154 CPU
155 インターフェース装置
156 表示装置
157 入力装置
Claims (6)
- 学習データを用いて学習されたモデルのパラメータと、当該学習データとを格納する記憶部と、
前記モデルを用いて、テストデータの異常の有無を判断し、判断結果及び当該テストデータを前記記憶部に格納する検知部と、
前記判断結果、前記テストデータ、及び前記学習データを用いて、前記モデルの再学習を行う再学習部と、を備え、
前記再学習部は、前記パラメータの前記学習データに対する重要度を用い、重要度の大きさに応じて、再学習におけるパラメータの変化量を制限し、
前記再学習部は、異常であると過検知された正常なテストデータについて、当該テストデータと前記学習データとの距離が閾値以上である場合に、当該テストデータを前記再学習に使用しないと判定する
ことを特徴とするモデル学習装置。 - 前記検知部は、前記モデルを用いて、前記テストデータのクラスを判別し、判別されたクラスに基づき当該テストデータの異常の有無を判断する
ことを特徴とする請求項1に記載のモデル学習装置。 - 前記再学習部は、前記テストデータの異常の有無に関する正解を用いることにより、誤った判断がなされたテストデータに対して正しい判断がなされるように、前記モデルの再学習を行う
ことを特徴とする請求項1又は2に記載のモデル学習装置。 - 前記再学習部により、前記モデルの新たなパラメータが得られた後に、当該新たなパラメータを用いたバリデーションデータに対する異常検知の精度に基づいて、当該新たなパラメータを、前記検知部で用いる新たなパラメータとして採用するか否かを判定するパラメータ採否判定部
を更に備えることを特徴とする請求項1ないし3のうちいずれか1項に記載のモデル学習装置。 - 学習データを用いて学習されたモデルのパラメータと、当該学習データとを格納する記憶部を備えるモデル学習装置が実行するモデル学習方法であって、
前記モデルを用いて、テストデータの異常の有無を判断し、判断結果及び当該テストデータを前記記憶部に格納する検知ステップと、
前記判断結果、前記テストデータ、及び前記学習データを用いて、前記モデルの再学習を行う再学習ステップと、を備え、
前記再学習ステップにおいて、前記パラメータの前記学習データに対する重要度を用い、重要度の大きさに応じて、再学習におけるパラメータの変化量を制限するモデル学習方法であり、
前記再学習ステップにおいて、異常であると過検知された正常なテストデータについて、当該テストデータと前記学習データとの距離が閾値以上である場合に、当該テストデータを前記再学習に使用しないと判定する
ことを特徴とするモデル学習方法。 - コンピュータを、請求項1ないし4のうちいずれか1項に記載のモデル学習装置における各部として機能させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018001485 | 2018-01-09 | ||
JP2018001485 | 2018-01-09 | ||
PCT/JP2018/039953 WO2019138655A1 (ja) | 2018-01-09 | 2018-10-26 | モデル学習装置、モデル学習方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019138655A1 JPWO2019138655A1 (ja) | 2021-01-14 |
JP7044117B2 true JP7044117B2 (ja) | 2022-03-30 |
Family
ID=67218962
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019564307A Active JP7044117B2 (ja) | 2018-01-09 | 2018-10-26 | モデル学習装置、モデル学習方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20200334578A1 (ja) |
JP (1) | JP7044117B2 (ja) |
WO (1) | WO2019138655A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7234071B2 (ja) * | 2019-08-02 | 2023-03-07 | 東北電力株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2021075288A1 (ja) * | 2019-10-15 | 2021-04-22 | ソニー株式会社 | 情報処理装置、情報処理方法 |
DE112021003974T5 (de) * | 2020-07-27 | 2023-05-25 | Fanuc Corporation | Prüfgerät |
KR20220019203A (ko) * | 2020-08-07 | 2022-02-16 | 삼성디스플레이 주식회사 | 자동 판정 장치 및 자동 판정 방법 |
EP3955076A1 (en) * | 2020-08-10 | 2022-02-16 | Siemens Aktiengesellschaft | System, device and method of detecting abnormal datapoints |
AU2020468530B2 (en) | 2020-09-18 | 2024-02-01 | Nippon Telegraph And Telephone Corporation | Assessment device, assessment method, and assessment program |
CN111931175B (zh) * | 2020-09-23 | 2020-12-25 | 四川大学 | 一种基于小样本学习的工业控制系统入侵检测方法 |
JP2022140951A (ja) * | 2021-03-15 | 2022-09-29 | オムロン株式会社 | 品質評価装置及び検査管理システム |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001236337A (ja) | 2000-02-22 | 2001-08-31 | Fuji Electric Co Ltd | ニューラルネットワークによる予測装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140114442A1 (en) * | 2012-10-22 | 2014-04-24 | The Boeing Company | Real time control system management |
-
2018
- 2018-10-26 US US16/960,448 patent/US20200334578A1/en active Pending
- 2018-10-26 JP JP2019564307A patent/JP7044117B2/ja active Active
- 2018-10-26 WO PCT/JP2018/039953 patent/WO2019138655A1/ja active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001236337A (ja) | 2000-02-22 | 2001-08-31 | Fuji Electric Co Ltd | ニューラルネットワークによる予測装置 |
Non-Patent Citations (4)
Title |
---|
@yu4u,ニューラルネットワークが持つ欠陥「破滅的忘却」を回避するアルゴリズムをDeepMindが開発した論文を読んだ,2017年04月24日,p.1-7,https://qiita.com/yu4u/items/8b1e41fc04460b89cac2 |
中野雄介,池田泰弘,渡辺敬志郎,石橋圭介,川原亮一,オートエンコーダによるネットワーク異常検知,電子情報通信学会2017年総合大会講演論文集 通信2,日本,一般社団法人電子情報通信学会,2017年03月07日,p.126,ISSN1349-1369 |
佐藤佳州,高橋大介,対局に基づいた教師データの重要度の学習,情報処理学会 論文誌(ジャーナル),日本,情報処理学会,2014年11月15日, Vol.55,No.11,pp.2399-2409,ISSN1882-7764 |
植田良一,角井健太郎,爲岡啓,松下誠,井上克郎,Webサービスシステムの応答性能劣化診断のための学習データ自動選定方法,電子情報通信学会論文誌D,日本,電子情報通信学会,2016年01月01日,VolumeJ99-D,No.1,pp.100-108,ISSN1881-0225 |
Also Published As
Publication number | Publication date |
---|---|
US20200334578A1 (en) | 2020-10-22 |
JPWO2019138655A1 (ja) | 2021-01-14 |
WO2019138655A1 (ja) | 2019-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7044117B2 (ja) | モデル学習装置、モデル学習方法、及びプログラム | |
Chen et al. | Unsupervised anomaly detection for intricate kpis via adversarial training of vae | |
CN110691100B (zh) | 基于深度学习的分层网络攻击识别与未知攻击检测方法 | |
JP7223839B2 (ja) | 異常検出および/または予知保全のためのコンピュータ実装方法、コンピュータプログラム製品およびシステム | |
CN108023876B (zh) | 基于可持续性集成学习的入侵检测方法及入侵检测系统 | |
Yu et al. | Policy-based reinforcement learning for time series anomaly detection | |
WO2020159706A1 (en) | Methods and systems for fault detection and identification | |
Kuang et al. | An anomaly intrusion detection method using the CSI-KNN algorithm | |
Gopali et al. | A comparison of tcn and lstm models in detecting anomalies in time series data | |
JP2004309998A (ja) | 確率分布推定装置および異常行動検出装置,ならびにその確率分布推定方法および異常行動検出方法 | |
JPWO2009090939A1 (ja) | ネットワーク異常検出装置及び方法 | |
WO2018211721A1 (ja) | 異常情報推定装置、異常情報推定方法及びプログラム | |
Ippoliti et al. | An adaptive growing hierarchical self organizing map for network intrusion detection | |
Turchin et al. | Tuning complex event processing rules using the prediction-correction paradigm | |
Al-mamory et al. | Evaluation of different data mining algorithms with kdd cup 99 data set | |
Gupta et al. | A supervised deep learning framework for proactive anomaly detection in cloud workloads | |
Nguyen et al. | Nested one-class support vector machines for network intrusion detection | |
Bebeshko et al. | Use of Neural Networks for Predicting Cyberattacks. | |
Gao et al. | Consensus extraction from heterogeneous detectors to improve performance over network traffic anomaly detection | |
Gopali et al. | A comparative study of detecting anomalies in time series data using LSTM and TCN models | |
Basterrech et al. | Tracking changes using Kullback-Leibler divergence for the continual learning | |
Lust et al. | A survey on assessing the generalization envelope of deep neural networks: predictive uncertainty, out-of-distribution and adversarial samples | |
CN110770753B (zh) | 高维数据实时分析的装置和方法 | |
CN115330362A (zh) | 一种工程进度数据处理方法及系统 | |
Ghosh et al. | Real time failure prediction of load balancers and firewalls |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210810 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7044117 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |