JP7151604B2 - モデル学習装置、データ分析装置、モデル学習方法、及びプログラム - Google Patents
モデル学習装置、データ分析装置、モデル学習方法、及びプログラム Download PDFInfo
- Publication number
- JP7151604B2 JP7151604B2 JP2019077274A JP2019077274A JP7151604B2 JP 7151604 B2 JP7151604 B2 JP 7151604B2 JP 2019077274 A JP2019077274 A JP 2019077274A JP 2019077274 A JP2019077274 A JP 2019077274A JP 7151604 B2 JP7151604 B2 JP 7151604B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- learning
- data
- correlation
- dimensions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Testing And Monitoring For Control Systems (AREA)
- Image Analysis (AREA)
Description
前記深層学習モデルにおける入力次元間の相関関係を算出する算出手段と、
相関関係が存在する次元の組毎に、前記訓練用データを用いて分析用モデルの学習を行う分割モデル学習手段と
を備えるモデル学習装置が提供される。
データの次元変更が生じた場合でも、タスク実行不能時間をなくし継続的な分析を行うために、本実施の形態では、一つの深層学習モデルで入力データ全体を取り扱うのではなく、入力データの次元間の相関関係に基づき深層学習モデルを分割し、複数のモデルで入力データを取り扱う。この場合、入力次元が変更したとしても変化した次元が関与するモデルのみ再訓練を行い、その他無関係のモデルでは分析を継続することで、分析の継続性を確保する。
まず、実施例1を説明する。
実施例1における異常検知装置100の機能ブロックを図1に示す。
異常検知装置100は、例えば、コンピュータに、本実施の形態で説明する処理内容を記述したプログラムを実行させることにより実現可能である。例えば、モデルでデータを分析することは、データをコンピュータに入力し、モデルに相当するプログラムをコンピュータに実行させることで実現できる。
データ収集部110は、本実施例で対象としているICTシステムのネットワークログデータ(数値、テキスト)やIoTシステムのセンサデータを収集する。これらのデータはデータ前処理部120に送られて深層学習に用いることが可能な形状に整形される。
モデル分割の対象とする分析手法は表現力の高い深層学習モデルであるので、モデル分割に用いる相関関係取得も深層学習モデルによって行う。そこで、全体訓練部130では整形されたデータを用いてデータ次元間の相関関係を調べるための深層学習モデルを構築する。相関関係を取得するための深層学習モデルとしては教師無のデータ特徴抽出モデルであるAutoEncoder(AE)(非特許文献3)、Convolutional AutoEncoder(非特許文献4)、Denoising AutoEncoder(非特許文献5)、Variational AutoEncoder(VAE)(非特許文献6)などを用いることができる。
本実施例では、寄与度計算部141及び相関関係算出部142により、教師無の深層学習モデルに対し、出力側から入力側への逆伝播による深層学習モデルの解釈手法を活用し入力データの次元間の相関関係を算出する。より詳細には下記のとおりである。
相関関係算出部142及び分割モデル再学習部143により、入力データの次元間の相関関係に基づき、入力データの次元をクラスタリングし、クラスタ毎に分析用の深層学習モデルを構築する。より具体的には下記のとおりである。
すべての次元のペアに関して上の計算を行い、相関関係のあるグループ毎に次元をクラスタリングする。
L_1、L_2距離を含むミンコフスキー距離:
分割モデル再学習部143では、相関関係算出部142で得られた相関関係及び全体訓練部130で相関関係取得モデルを訓練するために用いた訓練用データを用いて相関関係が存在する次元毎に分析用モデルを用いて訓練を行う。この処理の具体例を図5に示す。
最後にデータ分析部150は、テスト(分析)に用いるデータを、分割モデル再学習部143で作成した複数のモデルに該当する次元毎に分けて入力し、分析結果を出力する。
次に実施例2を説明する。実施例2では、入力データの次元を恣意的に分割し、それぞれの中に存在する次元間の相関関係を実施例1で説明した手法で取得し、実施例1で説明した手法で相関に応じて分割された次元の組毎に特徴抽出のための教師無深層学習モデルを構築し、抽出された特徴量を利用して、全体的な相関関係を取得するという、深層学習モデルの段階的な使用により入力データの次元全体の相関関係を取得する。以下、より詳しく説明する。
実施例2における異常検知装置200の機能ブロックを図2に示す。
データ収集部210、データ前処理部220の処理内容は基本的には実施例1のデータ収集部110、データ前処理部120の処理内容と同じである。
部分寄与度計算部141、部分相関関係算出部242の処理内容は、実施例1で説明した寄与度計算部241、相関関係算出部142の処理内容と同じである。ただし、実施例2では、部分訓練部230により得られたそれぞれのモデルに対して、恣意的に分割された次元の中での相関関係を調べる。
分割モデル特徴抽出部243の処理内容は基本的には分割モデル再学習部143と同様である。分割モデル特徴抽出部243では、恣意的に分割された各グループの中の相関関係に基づいてモデルをさらに分割して、訓練用データを用いてAEあるいはVAEのような特徴を抽出するモデルを訓練させる。
全体訓練部250では、分割モデル特徴抽出部243で訓練されたモデルに訓練データを入力した際に得られる次元が削減された中間層から出力されるデータを、全グループの全モデル分並べたものを相関取得モデルに対する入力とする。ここでも、実施例1の全体訓練部130と同様、全体訓練部250で用いる相関取得モデルとしてAE(VAE)及びその派生形を用いることができる。
全体訓練部250で学習された深層学習モデルについても寄与度計算及び入力された中間層のデータに関する相関関係の算出をそれぞれ全体寄与度計算部261及び全体相関関係算出部262で行う。全体寄与度計算部261及び全体相関関係算出部262の処理内容自体は、実施例1の寄与度計算部241及び相関関係算出部242と同じである。
図9~図11のフローチャートを参照して、実施例1、実施例2の全体の処理の流れを説明する。以下の説明の例では、最初に実施例1の異常検知装置100を使用し、データの規模に応じて、実施例1の異常検知装置100を継続使用、又は、実施例2の異常検知装置200を使用することとしている。なお、個々の機能部の処理内容については既に説明しているので、簡潔に説明している。
実施例1、2を用いて説明した本実施の形態に係る技術により、データの相関関係という特性に基づいてモデルを分割することで、分析の精度を落とすことなくデータ構造変化が発生した場合の分析タスクの継続不能性という問題に対応することが可能となる。
本実施の形態により、少なくとも下記の各項に記載されたモデル学習装置、データ分析装置、モデル学習方法、及びプログラムが提供される。
(第1項)
訓練用データを用いて教師無の深層学習モデルの学習を行う学習手段と、
前記深層学習モデルにおける入力次元間の相関関係を算出する算出手段と、
相関関係が存在する次元の組毎に、前記訓練用データを用いて分析用モデルの学習を行う分割モデル学習手段と
を備えるモデル学習装置。
(第2項)
前記算出手段は、前記深層学習モデルにおける入力データの各次元の最終出力値に対する寄与度を算出し、当該寄与度に基づいて入力次元間の相関関係を算出する
第1項に記載のモデル学習装置。
(第3項)
第1項又は第2項に記載の前記分割モデル学習手段により学習された分析用モデルを用いてデータ分析を行うデータ分析手段を備えるデータ分析装置。
(第4項)
訓練用データの次元を複数のグループに分割し、グループ毎に、分割された訓練用データを用いて教師無の深層学習モデルの学習を行う部分学習手段と、
グループ毎に、前記深層学習モデルにおける入力次元間の相関関係を算出する算出手段と、
グループ毎に、相関関係が存在する次元の組毎に前記訓練用データを用いて分割モデルの学習を行う特徴量抽出手段と、
グループ毎の各分割モデルから得られる特徴量を用いて深層学習モデルを学習し、当該深層学習モデルにおける入力次元間の相関関係が存在する次元の組毎に、前記訓練用データを用いて分析用モデルの学習を行う学習手段と
を備えるモデル学習装置。
(第5項)
第4項に記載の前記学習手段により学習された分析用モデルを用いてデータ分析を行うデータ分析手段を備えるデータ分析装置。
(第6項)
モデル学習装置が実行するモデル学習方法であって、
訓練用データを用いて教師無の深層学習モデルの学習を行う学習ステップと、
前記深層学習モデルにおける入力次元間の相関関係を算出する算出ステップと、
相関関係が存在する次元の組毎に、前記訓練用データを用いて分析用モデルの学習を行う分割モデル学習ステップと
を備えるモデル学習方法。
(第7項)
モデル学習装置が実行するモデル学習方法であって、
訓練用データの次元を複数のグループに分割し、グループ毎に、分割された訓練用データを用いて教師無の深層学習モデルの学習を行う部分学習ステップと、
グループ毎に、前記深層学習モデルにおける入力次元間の相関関係を算出する算出ステップと、
グループ毎に、相関関係が存在する次元の組毎に前記訓練用データを用いて分割モデルの学習を行うステップと、
グループ毎の各分割モデルから得られる特徴量を用いて深層学習モデルを学習し、当該深層学習モデルにおける入力次元間の相関関係が存在する次元の組毎に、前記訓練用データを用いて分析用モデルの学習を行うステップと
を備えるモデル学習方法。
(第8項)
コンピュータを、第1項、第2項又は第4項に記載のモデル学習装置における各手段として機能させるためのプログラム。
110 データ収集部
120 データ前処理部
130 全体訓練部
140 深層学習モデル分割部
141 寄与度計算部
142 相関関係算出部
143 分割モデル再学習部
150 データ分析部
200 異常検知装置
210 データ収集部
220 データ前処理部
230 部分訓練部
240 部分深層学習モデル分割部
241 部分寄与度計算部
242 部分相関関係算出部
243 分割モデル特徴抽出部
250 全体訓練部
260 全体深層学習モデル分割部
261 全体寄与度計算部
262 全体相関関係算出部
263 分割モデル再学習部
270 データ分析部
1000 ドライブ装置
1002 補助記憶装置
1003 メモリ装置
1004 CPU
1005 インタフェース装置
1006 表示装置
1007 入力装置
Claims (8)
- 訓練用データを用いて教師無の深層学習モデルの学習を行う学習手段と、
前記深層学習モデルにおける入力次元間の相関関係を算出する算出手段と、
相関関係が存在する次元の組毎に、前記訓練用データを用いて分析用モデルの学習を行う分割モデル学習手段と
を備えるモデル学習装置。 - 前記算出手段は、前記深層学習モデルにおける入力データの各次元の最終出力値に対する寄与度を算出し、当該寄与度に基づいて入力次元間の相関関係を算出する
請求項1に記載のモデル学習装置。 - 請求項1又は2に記載の前記分割モデル学習手段により学習された分析用モデルを用いてデータ分析を行うデータ分析手段を備えるデータ分析装置。
- 訓練用データの次元を複数のグループに分割し、グループ毎に、分割された訓練用データを用いて教師無の深層学習モデルの学習を行う部分学習手段と、
グループ毎に、前記深層学習モデルにおける入力次元間の相関関係を算出する算出手段と、
グループ毎に、相関関係が存在する次元の組毎に前記訓練用データを用いて分割モデルの学習を行う特徴量抽出手段と、
グループ毎の各分割モデルから得られる特徴量を用いて深層学習モデルを学習し、当該深層学習モデルにおける入力次元間の相関関係が存在する次元の組毎に、前記訓練用データを用いて分析用モデルの学習を行う学習手段と
を備えるモデル学習装置。 - 請求項4に記載の前記学習手段により学習された分析用モデルを用いてデータ分析を行うデータ分析手段を備えるデータ分析装置。
- モデル学習装置が実行するモデル学習方法であって、
訓練用データを用いて教師無の深層学習モデルの学習を行う学習ステップと、
前記深層学習モデルにおける入力次元間の相関関係を算出する算出ステップと、
相関関係が存在する次元の組毎に、前記訓練用データを用いて分析用モデルの学習を行う分割モデル学習ステップと
を備えるモデル学習方法。 - モデル学習装置が実行するモデル学習方法であって、
訓練用データの次元を複数のグループに分割し、グループ毎に、分割された訓練用データを用いて教師無の深層学習モデルの学習を行う部分学習ステップと、
グループ毎に、前記深層学習モデルにおける入力次元間の相関関係を算出する算出ステップと、
グループ毎に、相関関係が存在する次元の組毎に前記訓練用データを用いて分割モデルの学習を行うステップと、
グループ毎の各分割モデルから得られる特徴量を用いて深層学習モデルを学習し、当該深層学習モデルにおける入力次元間の相関関係が存在する次元の組毎に、前記訓練用データを用いて分析用モデルの学習を行うステップと
を備えるモデル学習方法。 - コンピュータを、請求項1、2又は4に記載のモデル学習装置における各手段として機能させるためのプログラム。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019077274A JP7151604B2 (ja) | 2019-04-15 | 2019-04-15 | モデル学習装置、データ分析装置、モデル学習方法、及びプログラム |
| PCT/JP2020/016274 WO2020213560A1 (ja) | 2019-04-15 | 2020-04-13 | モデル学習装置、データ分析装置、モデル学習方法、及びプログラム |
| US17/603,207 US20220188647A1 (en) | 2019-04-15 | 2020-04-13 | Model learning apparatus, data analysis apparatus, model learning method and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019077274A JP7151604B2 (ja) | 2019-04-15 | 2019-04-15 | モデル学習装置、データ分析装置、モデル学習方法、及びプログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2020177290A JP2020177290A (ja) | 2020-10-29 |
| JP7151604B2 true JP7151604B2 (ja) | 2022-10-12 |
Family
ID=72837908
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019077274A Active JP7151604B2 (ja) | 2019-04-15 | 2019-04-15 | モデル学習装置、データ分析装置、モデル学習方法、及びプログラム |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US20220188647A1 (ja) |
| JP (1) | JP7151604B2 (ja) |
| WO (1) | WO2020213560A1 (ja) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7325015B2 (ja) * | 2021-03-24 | 2023-08-14 | パナソニックIpマネジメント株式会社 | 量子化方法、量子化装置、及び、プログラム |
| CN115130621B (zh) * | 2022-08-31 | 2022-12-27 | 支付宝(杭州)信息技术有限公司 | 一种模型训练方法、装置、存储介质及电子设备 |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017123088A (ja) | 2016-01-08 | 2017-07-13 | 安川情報システム株式会社 | 決定木学習アルゴリズムを用いた予測プログラム、装置及び方法 |
| JP2018169999A (ja) | 2017-03-29 | 2018-11-01 | 株式会社東芝 | モデル構築システムおよびモデル構築方法 |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11816539B1 (en) * | 2016-06-14 | 2023-11-14 | SurgeonCheck LLC | Selection system for machine learning module for determining target metrics for evaluation of health care procedures and providers |
| JP6729455B2 (ja) * | 2017-03-15 | 2020-07-22 | 株式会社島津製作所 | 分析データ解析装置及び分析データ解析方法 |
| CN107330522B (zh) * | 2017-07-04 | 2021-06-08 | 北京百度网讯科技有限公司 | 用于更新深度学习模型的方法、装置及系统 |
-
2019
- 2019-04-15 JP JP2019077274A patent/JP7151604B2/ja active Active
-
2020
- 2020-04-13 US US17/603,207 patent/US20220188647A1/en not_active Abandoned
- 2020-04-13 WO PCT/JP2020/016274 patent/WO2020213560A1/ja not_active Ceased
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017123088A (ja) | 2016-01-08 | 2017-07-13 | 安川情報システム株式会社 | 決定木学習アルゴリズムを用いた予測プログラム、装置及び方法 |
| JP2018169999A (ja) | 2017-03-29 | 2018-11-01 | 株式会社東芝 | モデル構築システムおよびモデル構築方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2020177290A (ja) | 2020-10-29 |
| WO2020213560A1 (ja) | 2020-10-22 |
| US20220188647A1 (en) | 2022-06-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Lu et al. | Detecting anomaly in big data system logs using convolutional neural network | |
| Kim et al. | A few-shot learning approach for database-free vision-based monitoring on construction sites | |
| US10552119B2 (en) | Dynamic management of numerical representation in a distributed matrix processor architecture | |
| CN113139600A (zh) | 基于联邦学习的智能电网设备异常检测方法和系统 | |
| Chattopadhyay et al. | Application of visual clustering properties of self organizing map in machine–part cell formation | |
| Patra et al. | Anomaly detection in rotating machinery using autoencoders based on bidirectional LSTM and GRU neural networks | |
| Maskooki | Improving the efficiency of a mixed integer linear programming based approach for multi-class classification problem | |
| JP7151604B2 (ja) | モデル学習装置、データ分析装置、モデル学習方法、及びプログラム | |
| Han et al. | Multirelational fusion graph convolution network with multiscale residual network for fault diagnosis of complex industrial processes | |
| CN119169787A (zh) | 顺层岩质边坡变形破坏预警方法、系统、设备及存储介质 | |
| Memiş et al. | A classification method based on Hamming pseudo-similarity of intuitionistic fuzzy parameterized intuitionistic fuzzy soft matrices | |
| Chang et al. | Underground abnormal sensor condition detection based on gas monitoring data and deep learning image feature engineering | |
| Kumar et al. | Revolutionising anomaly detection: a hybrid framework for anomaly detection integrating isolation forest, autoencoder, and Conv. LSTM | |
| Farokhi et al. | Advancing tabular data classification with graph neural networks: A random forest proximity method | |
| Li et al. | Causal-aware generative imputation for automated underwriting | |
| Yu et al. | A hybrid learning-based model for on-line monitoring and diagnosis of out-of-control signals in multivariate manufacturing processes | |
| Rajendran et al. | Data mining when each data point is a network | |
| VV et al. | Analyzing GNN models for community detection using graph embeddings: A comparative study | |
| Karn et al. | Criteria for learning without forgetting in artificial neural networks | |
| Pasha et al. | Smart Diagnosis of Human Cardiovascular Disease Using Machine Learning and Parametric Optimization Techniques | |
| Carpitella et al. | Artificial intelligence enriching contributions from multiple perspectives in ancient text analysis | |
| Maslyaev et al. | Comparison of single-and multi-objective optimization quality for evolutionary equation discovery | |
| Kumar et al. | Automated evidence identification techniques transforming digital forensic investigations | |
| Shankar et al. | Software defect prediction using ann algorithm | |
| Kim et al. | Near-real-time identification of seismic damage by graph neural network based on structural modes |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210726 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220830 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220912 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7151604 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |










