JP6892848B2 - Information processing equipment, information processing methods and information processing programs - Google Patents
Information processing equipment, information processing methods and information processing programs Download PDFInfo
- Publication number
- JP6892848B2 JP6892848B2 JP2018150905A JP2018150905A JP6892848B2 JP 6892848 B2 JP6892848 B2 JP 6892848B2 JP 2018150905 A JP2018150905 A JP 2018150905A JP 2018150905 A JP2018150905 A JP 2018150905A JP 6892848 B2 JP6892848 B2 JP 6892848B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- information processing
- unit
- fully connected
- connected layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 70
- 238000003672 processing method Methods 0.000 title claims description 8
- 238000012545 processing Methods 0.000 claims description 46
- 238000000034 method Methods 0.000 claims description 39
- 238000004364 calculation method Methods 0.000 claims description 27
- 239000011159 matrix material Substances 0.000 claims description 25
- 238000013528 artificial neural network Methods 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 22
- 230000008878 coupling Effects 0.000 claims description 8
- 238000010168 coupling process Methods 0.000 claims description 8
- 238000005859 coupling reaction Methods 0.000 claims description 8
- 238000005304 joining Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 16
- 238000004458 analytical method Methods 0.000 description 11
- 238000013500 data storage Methods 0.000 description 10
- 230000015654 memory Effects 0.000 description 9
- 238000003860 storage Methods 0.000 description 7
- 230000005856 abnormality Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 238000007796 conventional method Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000012731 temporal analysis Methods 0.000 description 2
- 238000000700 time series analysis Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000556 factor analysis Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Description
本発明は、情報処理装置、情報処理方法および情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.
近年、工場や自動運転等のさまざまな分野において多量のIoT(Internet of Things)センサデータを活用して、予測や異常検知、自動制御等を行うことが注目されている。このようなセンサデータの特徴として、時々刻々と値が変化する時系列性を持つ点と、それぞれのセンサが互いに相互作用しあう点とが挙げられる。これらの特徴をもつセンサデータの解析手法として、ニューラルネットワーク(Deep Learning)は有効な手法である。 In recent years, attention has been focused on performing prediction, abnormality detection, automatic control, and the like by utilizing a large amount of IoT (Internet of Things) sensor data in various fields such as factories and automatic driving. The characteristics of such sensor data are that it has a time series in which the value changes from moment to moment and that the sensors interact with each other. A neural network (Deep Learning) is an effective method as a method for analyzing sensor data having these characteristics.
一般的に時系列データの分析の際に用いられるニューラルネットワークの構造として代表的なものとして、MLP(Multi-Layer Perceptron)やCNN(Convolutional Neural Network)、RNN(Recurrent Neural Networks)がある。以下に、これらについて説明する。 Typical neural network structures generally used in the analysis of time-series data include MLP (Multi-Layer Perceptron), CNN (Convolutional Neural Network), and RNN (Recurrent Neural Networks). These will be described below.
ニューラルネットワークの構造として、基本的なネットワーク構造である多層パーセプトロン(MLP)を用いたものがある。この手法では、図9に例示するように、まず、M次元分の時間軸でセンサのデータを抽出した後、一次元ベクトルに変換する。1次元ベクトルに変換する操作は、全結合型ニューラルネットワークに入力するために必要な操作である。これを1つのデータセットとする。この操作を1タイムステップ分進め、同様に行う。この操作を繰り返し、入力データセットを作成した後、一般的な全結合型ニューラルネットワークに入力し、結果を出力する。 As a structure of a neural network, there is a structure using a multi-layer perceptron (MLP), which is a basic network structure. In this method, as illustrated in FIG. 9, first, sensor data is extracted on the time axis of M dimensions, and then converted into a one-dimensional vector. The operation of converting to a one-dimensional vector is an operation necessary for inputting to a fully connected neural network. Let this be one data set. This operation is advanced by one time step and is performed in the same manner. After repeating this operation to create an input data set, it is input to a general fully connected neural network and the result is output.
また、画像認識の分野において広く用いられているCNNを時系列データ解析に活用すること考えられる。このニューラルネットワークでは、図10に例示するように、M×N次元のフィルタ(いわゆる畳み込み層と呼ばれる)を用いて、各局所領域に対して行列演算を行い、データの特徴量を落とし込んでいく。時系列データを例として上げれば、時系列(列)方向とセンサデータ(行)方向に畳み込み演算を繰り返して行うことで、複数のセンサの時系列を考慮した結果を出力することができる。この手法は、GPGPU(General-Purpose computing on Graphics Processing Units)並列演算に向く(高速化が比較的容易)。畳み込み層の演算により時系列性を考慮することができ、要因分析が比較的しやすいという利点がある。 It is also conceivable to utilize CNN, which is widely used in the field of image recognition, for time series data analysis. In this neural network, as illustrated in FIG. 10, a matrix operation is performed on each local region using an M × N-dimensional filter (so-called convolution layer), and the feature amount of the data is reduced. Taking time-series data as an example, by repeating the convolution operation in the time-series (column) direction and the sensor data (row) direction, it is possible to output the result considering the time-series of a plurality of sensors. This method is suitable for GPGPU (General-Purpose computing on Graphics Processing Units) parallel computing (relatively easy to speed up). Time series can be considered by the calculation of the convolution layer, and there is an advantage that factor analysis is relatively easy.
また、RNNは、自然言語処理や時系列解析においてよく用いられるニューラルネットワークである。RNNでは、図11に例示するように、ある時刻のデータを入力して得られた結果を次の時刻の入力にも再度使用する構造をしている。過去のデータの入出力関係をRNN cell(例えば、GRU(Gated Recurrent Unit)、LSTM(Long Short Term Memory)など)に保持することによって、長時間の時系列状態を考慮した出力を得ることができる。 RNN is a neural network often used in natural language processing and time series analysis. As illustrated in FIG. 11, the RNN has a structure in which the result obtained by inputting data at a certain time is used again for inputting the next time. By holding the input / output relationship of past data in an RNN cell (for example, GRU (Gated Recurrent Unit), RSTM (Long Short Term Memory), etc.), it is possible to obtain an output considering a long time series state. ..
しかしながら、従来の手法では、時系列データを簡易かつ効率よく解析することが出来ない場合があるという課題があった。例えば、従来のMLPを用いた手法では、単純で実装が容易であるが、M×N次元のデータを切り出し、一次元に変換する操作を繰り返すため、効率が悪い。また、次元数が大きくなると必要なメモリも膨大となり、さらに、1次元変換を行ってしまうため、時系列性が陽に扱いにくくなるという課題がある。 However, the conventional method has a problem that time series data may not be analyzed easily and efficiently. For example, the conventional method using MLP is simple and easy to implement, but it is inefficient because the operation of cutting out M × N-dimensional data and converting it into one dimension is repeated. Further, as the number of dimensions increases, the required memory becomes enormous, and further, one-dimensional conversion is performed, so that there is a problem that the time series is explicitly difficult to handle.
また、従来のCNNを用いた手法では、行方向(センサ方向)にも畳み込み演算を行うためデータ(センサ)の並び順に対する依存性が強く、例えば、センサの順番を並び替えると結果が異なるという課題がある。また、列方向(時系列)にのみ畳み込む方法も考えられるが、この場合センサデータ間の依存関係を陽に考慮することが難しい。 In addition, in the conventional method using CNN, since the convolution operation is also performed in the row direction (sensor direction), there is a strong dependence on the order of the data (sensors). For example, if the order of the sensors is rearranged, the result will be different. There are challenges. Further, a method of convolving only in the column direction (time series) can be considered, but in this case, it is difficult to explicitly consider the dependency between the sensor data.
また、従来のRNNを用いた手法では、GPGPU並列演算に向かず、高速化が困難であるという課題がある。また、RNN cellの内部状態が複雑であるため、ニューラルネットワークの出力値に対する入力値の要因分析が困難であった。 Further, the conventional method using RNN is not suitable for GPGPU parallel computing, and there is a problem that it is difficult to increase the speed. Further, since the internal state of the RNN cell is complicated, it is difficult to analyze the factors of the input value with respect to the output value of the neural network.
上述した課題を解決し、目的を達成するために、本発明の情報処理装置は、対象設備に設置された各センサによって取得されたデータをそれぞれ収集する収集部と、前記収集部によって収集されたデータを、データの時刻ごとに、各データ間の順番に関する依存関係を打ち消すように学習された全結合層に入力し、出力データを得る処理を行う処理部と、前記処理部によって得られた出力データを時刻方向に結合して行列を得る結合部と、前記結合部によって得られた行列に対して、畳み込み演算を行う演算部と、前記演算部によって演算された結果を出力する出力部とを有することを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the information processing apparatus of the present invention has a collecting unit that collects data acquired by each sensor installed in the target facility, and a collecting unit that collects the data. A processing unit that inputs data to a fully connected layer trained to cancel the dependency on the order between the data at each time of the data and performs a process of obtaining output data, and an output obtained by the processing unit. A coupling unit that combines data in the time direction to obtain a matrix, a calculation unit that performs a convolution operation on the matrix obtained by the coupling unit, and an output unit that outputs the result calculated by the calculation unit. It is characterized by having.
また、本発明の情報処理方法は、情報処理装置によって実行される情報処理方法であって、対象設備に設置された各センサによって取得されたデータをそれぞれ収集する収集工程と、前記収集工程によって収集されたデータを、データの時刻ごとに、各データ間の順番に関する依存関係を打ち消すように学習された全結合層に入力し、出力データを得る処理を行う処理工程と、前記処理工程によって得られた出力データを時刻方向に結合して行列を得る結合工程と、前記結合工程によって得られた行列に対して、畳み込み演算を行う演算工程と、前記演算工程によって演算された結果を出力する出力工程とを含んだことを特徴とする。 Further, the information processing method of the present invention is an information processing method executed by an information processing apparatus, and is a collection step of collecting data acquired by each sensor installed in the target facility and a collection step of collecting the data. A processing step of inputting the generated data into a fully connected layer trained to cancel the dependency on the order between the data at each time of the data and obtaining output data, and a processing step obtained by the processing step. A joining step of combining the output data in the time direction to obtain a matrix, a calculation step of performing a convolution operation on the matrix obtained by the joining step, and an output step of outputting the result calculated by the calculation step. It is characterized by including and.
また、本発明の情報処理プログラムは、対象設備に設置された各センサによって取得されたデータをそれぞれ収集する収集ステップと、前記収集ステップによって収集されたデータを、データの時刻ごとに、各データ間の順番に関する依存関係を打ち消すように学習された全結合層に入力し、出力データを得る処理を行う処理ステップと、前記処理ステップによって得られた出力データを時刻方向に結合して行列を得る結合ステップと、前記結合ステップによって得られた行列に対して、畳み込み演算を行う演算ステップと、前記演算ステップによって演算された結果を出力する出力ステップとをコンピュータに実行させることを特徴とする。 In addition, the information processing program of the present invention collects the data acquired by each sensor installed in the target facility, and collects the data collected by the collection step between the data at each data time. A processing step of inputting to a fully connected layer learned to cancel the dependency on the order of the above and performing a process of obtaining output data, and a combination of combining the output data obtained by the processing step in the time direction to obtain a matrix. It is characterized in that a computer is made to execute a step, a calculation step for performing a convolution operation on the matrix obtained by the combination step, and an output step for outputting the result calculated by the calculation step.
本発明によれば、時系列データを簡易かつ効率よく解析することができるという効果を奏する。 According to the present invention, there is an effect that time series data can be analyzed easily and efficiently.
以下に、本願に係る情報処理装置、情報処理方法および情報処理プログラムの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態により本願に係る情報処理装置、情報処理方法および情報処理プログラムが限定されるものではない。 Hereinafter, the information processing apparatus, the information processing method, and the embodiment of the information processing program according to the present application will be described in detail with reference to the drawings. The information processing apparatus, information processing method, and information processing program according to the present application are not limited by this embodiment.
[第1の実施形態]
以下の実施の形態では、第1の実施形態に係る解析システム100の構成、情報処理装置10の構成、情報処理装置10の処理の流れを順に説明し、最後に第1の実施形態による効果を説明する。
[First Embodiment]
In the following embodiment, the configuration of the
[解析システムの構成]
図1は、第1の実施形態に係る解析システムの構成例を示すブロック図である。第1の実施形態に係る解析システム100は、情報処理装置10と複数の対象設備20A〜20Cとを有し、情報処理装置10と対象設備20A〜20Cはネットワーク30を介して互いに接続されている。なお、図1に示す構成は一例にすぎず、具体的な構成や各装置の数は特に限定されない。また、対象設備20A〜20Cについて、特に区別なく説明する場合には、適宜対象設備20と記載する。
[Analysis system configuration]
FIG. 1 is a block diagram showing a configuration example of the analysis system according to the first embodiment. The
情報処理装置10は、対象設備20A〜20Cに設置されたセンサ21によって取得されたデータ(以下、適宜センサデータと記載)を収集する。そして、情報処理装置10は、収集したセンサデータを入力として、学習済みモデルを用いて解析を行うことで、センサデータを基に製品品質の予測、異常の検知、自動制御等に活用するデータを得ることができる。
The
対象設備20A〜20Cは、それぞれ複数のセンサ21が設置されている。対象設備は、例えば、プラント内装置や反応炉、建物空調、データセンタ内ラック、自動車等の様々なものに適用可能であり、特に限定されるものではない。
A plurality of
[情報処理装置の構成]
次に、図2を用いて、情報処理装置10の構成を説明する。図2は、第1の実施形態に係る情報処理装置の構成例を示すブロック図である。図3に示すように、この情報処理装置10は、通信処理部11、制御部12および記憶部13を有する。以下に情報処理装置10が有する各部の処理を説明する。
[Configuration of information processing device]
Next, the configuration of the
通信処理部11は、各種情報に関する通信を制御する。例えば、通信処理部11は、対象設備20との間でセンサのデータの送受信を行う。 The communication processing unit 11 controls communication related to various types of information. For example, the communication processing unit 11 transmits / receives sensor data to / from the target equipment 20.
記憶部13は、制御部12による各種処理に必要なデータおよびプログラムを格納するが、特に本発明に密接に関連するものとしては、センサデータ記憶部13aを有する。例えば、記憶部13は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置などである。
The
センサデータ記憶部13aは、後述する収集部12aによって各対象設備20の各センサ21から収集された同一時刻のセンサ21のデータを記憶する。例えば、センサデータ記憶部13aは、図3に例示するように、各時刻におけるN個のセンサ1〜センサNによって取得されたデータをそれぞれ記憶する。また、図3の例では、センサデータ記憶部13aは、時刻「00:01」、「00:02」、「00:03」・・・というように、1秒毎のN個のセンサ1〜センサNのデータを記憶する。図3は、センサデータ記憶部に記憶されるデータの一例を示す図である。
The sensor data storage unit 13a stores the data of the
制御部12は、各種の処理手順などを規定したプログラムおよび所要データを格納するための内部メモリを有し、これらによって種々の処理を実行するが、特に本発明に密接に関連するものとしては、収集部12a、処理部12b、結合部12c、演算部12dおよび出力部12eを有する。ここで、制御部12は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などの電子回路やASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路である。
The
収集部12aは、対象設備20に設置された各センサ21によって取得されたデータをそれぞれ収集する。具体的には、収集部12aは、複数の対象設備20にそれぞれ設置された各センサ21のデータをそれぞれ収集し、センサデータ記憶部13aに同時刻のデータを格納する。
The collection unit 12a collects the data acquired by each
例えば、収集部12aは、工場やプラントなどの対象設備20に設置されるセンサ21からデータを定期的(例えば、1秒ごと)に受信し、センサデータ記憶部13aに格納する。ここでセンサ21が取得するデータとは、例えば、工場、プラント内の装置や反応炉についての温度や圧力、音、振動等の各種データであり、限定されるものではない。
For example, the collecting unit 12a receives data periodically (for example, every second) from the
処理部12bは、収集部12aによって収集されたセンサデータを、センサデータの時刻ごとに、各データ間の順番に関する依存関係を打ち消すように学習された全結合層に入力し、出力データを得る処理を行う。
The
ここで、図4および図5を用いて、全結合層へデータを入力する処理について説明する。図4および図5は、第1の実施形態に係る情報処理装置における全結合層へのデータ入力処理を説明する図である。図4に示すように、処理部12bは、センサデータを時刻ごとに全結合層にそれぞれ入力する。つまり、処理部12bは、例えば、時刻「00:01」におけるセンサ1〜センサNのN個のセンサデータを全結合層へ入力し、次に、時刻「00:02」におけるセンサ1〜センサNのN個のセンサデータを全結合層へ入力し、次に、時刻「00:03」におけるセンサ1〜センサNのN個のセンサデータを全結合層へ入力するという処理を繰り返す。
Here, the process of inputting data to the fully connected layer will be described with reference to FIGS. 4 and 5. 4 and 5 are diagrams for explaining the data input process to the fully connected layer in the information processing apparatus according to the first embodiment. As shown in FIG. 4, the
図5に例示するように、全結合層は、入力と出力に対応するノードがすべて互いに結合している層である。つまり、処理部12bは、ある時刻tにおけるN個のセンサデータをそれぞれ入力すると、ある時刻tにおけるN個の出力を得る。また、それぞれのノードは信号の伝えやすさを意味する「重み」を持つ。この全結合層のおかげで、各センサデータ間の順番に関する依存関係を打ち消したり抽出したりすることができる。なお、全結合層のノード数は2以上であればよく、任意の値を取ることができる。たとえば、データ列(データ間の順番)にセンサ自体の物理的な位置(距離)関係を持ったものがあれば、その依存関係(相関関係)が考慮されるように学習されたニューラルネットワークを適用してもよい。つまり、このような場合には、全結合層は、考慮する必要が無い各データ間の順番に関する依存関係は打ち消すが、各センサの物理的な位置(距離)の依存関係(相関関係)は打ち消さずに、データを出力するものとする。
As illustrated in FIG. 5, the fully connected layer is a layer in which all the nodes corresponding to the inputs and outputs are connected to each other. That is, when the
結合部12cは、処理部12bによって得られた出力データを時刻方向に結合して行列を得る。例えば、結合部12cは、時刻ごとに全結合層から出力された値の行を、時刻方向(行方向)に結合する。例えば、結合部12cは、時刻「00:01」のセンサデータを全結合層に入力し、該全結合層から出力された値の行と、時刻「00:02」のセンサデータを全結合層に入力し、該全結合層から出力された値の行とを結合する。なお、結合部12cは、2つの行ずつを結合する場合に限定されず、3つ以上の行ずつを結合するようにしてよい。このように、結合部12cは、時刻ごとに全結合層から出力された値の行を結合することで、センサデータの順番の依存関係が打ち消された新たな行列を得ることが可能である。
The connecting
演算部12dは、結合部12cによって得られた行列に対して、畳み込み演算を行う。具体的には、演算部12dは、結合部12cによって得られた行列を畳み込み層に入力することで、畳み込み演算を行う。また、演算部12dは、GPGPUを用いて畳み込み演算を行う。このように、演算部12dは、結合部12cによって得られた行列に対して、畳み込み演算を行うことで、時系列性を考慮することが可能であり、さらに、畳み込み演算を用いるため、GPGPUを用いた高速演算が可能となる。なお、畳み込み層のサイズと層の数は任意である。
The
出力部12eは、演算部によって演算された結果を出力する。具体的には、出力部12eは、出力層から出力値を得る。その後、出力部12eは、情報処理装置10または外部の装置にて、出力結果を表示してもよいし、さらなる処理のために情報処理装置10内の他の機能部または外部の装置に出力するようにしてもよい。なお、この出力値は、どのようなデータであってもよく、例えば、対象設備20の異常を検知するための異常度であってもよいし、対象設備20における製品品質を予測するための予測値であってもよい。
The output unit 12e outputs the result calculated by the calculation unit. Specifically, the output unit 12e obtains an output value from the output layer. After that, the output unit 12e may display the output result on the
ここで、図6を用いて、第1の実施形態に係る情報処理装置10における処理全体の概要について説明する。図6は、第1の実施形態に係る情報処理装置における処理全体の概要について説明する図である。図6に例示するように、情報処理装置10は、まず、センサデータを時刻ごとに全結合層に入力する(図6の(A)参照)。続いて、情報処理装置10は、全結合層からの出力を時刻方向に結合する(図6の(B)参照)。
Here, with reference to FIG. 6, an outline of the entire process in the
そして、情報処理装置10は、結合することによって得られた行列に対して畳み込み演算を行う(図6の(C)参照)。最後に、情報処理装置10は、出力層から全体としての出力値を得る(図6の(D)参照)。
Then, the
このように、情報処理装置10では、時系列解析のニューラルネットワークにおいて、最前段にデータ方向に対して全結合層の演算を行うことにより、自動的にデータ間の依存関係を扱うことができる。さらに、情報処理装置10では、全結合層から出力された値の行を時刻方向に結合した行列に対して、畳み込み演算を行うことで、時系列性を考慮した演算を高速に行うことが可能である。
As described above, in the
なお、上記の例では、最前段の層が全結合層と非常に単純である。この層は、AutoEncorderやVariational Autoencorderによってセンサデータを特徴空間に落とし込んだ層に置き換えることも容易である。 In the above example, the frontmost layer is very simple as the fully connected layer. This layer can be easily replaced with a layer in which the sensor data is dropped into the feature space by the AutoEncorder or the Variational Autoencorder.
また、全結合層および畳み込み演算を行う畳み込み層を含むニューラルネットワークは、誤差逆伝播法等により学習される。例えば、ニューラルネットワークの重みの学習(最適化)過程においては、既存の誤差逆伝播法に基づき学習を行う。学習の最適化後においては、全結合層の重みや、畳み込み層のフィルタの重みが自動的に最適化され、センサ間の依存関係と時系列性をうまく扱うことができるものとする。なお、ニューラルネットワークの学習のタイミングは、上述の図6で説明した一連の解析処理が行われる前に事前に行われてもよいし、解析処理が行われるのと同時にリアルタイムに行われていてもよい。 Further, the neural network including the fully connected layer and the convolution layer that performs the convolution operation is learned by the error backpropagation method or the like. For example, in the process of learning (optimizing) the weight of a neural network, learning is performed based on the existing backpropagation method. After the learning is optimized, the weight of the fully connected layer and the weight of the filter of the convolution layer are automatically optimized, and the dependency between the sensors and the time series can be handled well. The timing of learning the neural network may be performed in advance before the series of analysis processes described in FIG. 6 described above are performed, or may be performed in real time at the same time as the analysis processes are performed. Good.
[情報処理装置の処理手順]
次に、図7を用いて、第1の実施形態に係る情報処理装置10による処理手順の例を説明する。図7は、第1の実施形態に係る情報処理装置における処理の流れの一例を示すフローチャートである。なお、図7の例では、センサデータを収集するたびに、一連の解析処理を行う場合を例に説明するが、これに限定されるものではない。
[Processing procedure of information processing device]
Next, an example of the processing procedure by the
図7に例示するように、収集部12aは、対象設備20におけるセンサ21のデータを収集すると(ステップS101肯定)、収集したデータをセンサデータ記憶部13aに格納する(ステップS102)。
As illustrated in FIG. 7, when the collecting unit 12a collects the data of the
そして、処理部12bは、収集部12aによって収集された同時刻のセンサデータを、各データ間の順番に関する依存関係を打ち消すように学習された全結合層に入力する(ステップS103)。続いて、結合部12cは、処理部12bによって得られた出力データを時刻方向に結合する(ステップS104)。例えば、結合部12cは、時刻ごとに全結合層から出力された値の行を、時刻方向(行方向)に結合して行列を得る。
Then, the
続いて、演算部12dは、結合部12cによって得られた行列に対して、畳み込み演算を行う(ステップS105)。具体的には、演算部12dは、結合部12cによって得られた行列を畳み込み層に入力することで、畳み込み演算を行う。そして、出力部12eは、出力層から出力値を得る。
Subsequently, the
(第1の実施形態の効果)
第1の実施形態に係る情報処理装置10は、対象設備20に設置された各センサ21によって取得されたセンサデータをそれぞれ収集し、収集したセンサデータを、データの時刻ごとに、各データ間の順番に関する依存関係を打ち消すように学習された全結合層に入力し、出力データを得る処理を行う。そして、情報処理装置10は、得られた出力データを時刻方向に結合して行列を得て、該行列に対して畳み込み演算を行い、演算結果を出力する。このため、情報処理装置10では、時系列データを簡易かつ効率よく解析することが可能である。つまり、情報処理装置10では、多量のIoTセンサデータを活用した予測、異常検知または予測等を行うために、簡便なニューラルネットワークを用いて、簡易に時系列データを解析することが可能である。
(Effect of the first embodiment)
The
すなわち、第1の実施形態に係る情報処理装置10が用いるニューラルネットワークは、単純で実装が容易であり、GPGPUを用いた高速並列演算が可能であり、センサデータの並び順の依存性をなくして、時系列データの解析を効率よく行うことが可能である。
That is, the neural network used by the
特に、このような時系列データの解析は、IoTセンサデータの分野で有用である。このことは、製造業において機械やプラントなどから出力される様々なセンサデータから製品品質の予測、異常の検知、高度な自動制御において活用することができる。また、本発明の活用場所は多岐にわたり、電力、水道、ガス、交通、通信など社会インフラの時系列データにも適応することが可能である。 In particular, such analysis of time series data is useful in the field of IoT sensor data. This can be utilized in product quality prediction, abnormality detection, and advanced automatic control from various sensor data output from machines, plants, etc. in the manufacturing industry. In addition, the present invention can be used in a wide variety of places, and can be applied to time-series data of social infrastructure such as electric power, water, gas, transportation, and communication.
(システム構成等)
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
(System configuration, etc.)
Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically distributed / physically in arbitrary units according to various loads and usage conditions. Can be integrated and configured. Further, each processing function performed by each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.
また、本実施の形態において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。 Further, among the processes described in the present embodiment, all or part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed. It is also possible to automatically perform all or part of the above by a known method. In addition, the processing procedure, control procedure, specific name, and information including various data and parameters shown in the above document and drawings can be arbitrarily changed unless otherwise specified.
(プログラム)
また、上記実施形態において説明した情報処理装置が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。例えば、実施形態に係る情報処理装置10が実行する処理をコンピュータが実行可能な言語で記述した情報処理プログラムを作成することもできる。この場合、コンピュータが情報処理プログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかる情報処理プログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録された情報処理プログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。
(program)
It is also possible to create a program in which the processing executed by the information processing apparatus described in the above embodiment is described in a language that can be executed by a computer. For example, it is possible to create an information processing program in which the processing executed by the
図8は、情報処理プログラムを実行するコンピュータを示す図である。図8に例示するように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有し、これらの各部はバス1080によって接続される。
FIG. 8 is a diagram showing a computer that executes an information processing program. As illustrated in FIG. 8, the
メモリ1010は、図8に例示するように、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、図8に例示するように、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、図8に例示するように、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、図8に例示するように、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、図8に例示するように、例えばディスプレイ1130に接続される。
The
ここで、図8に例示するように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、上記の、情報処理プログラムは、コンピュータ1000によって実行される指令が記述されたプログラムモジュールとして、例えばハードディスクドライブ1090に記憶される。
Here, as illustrated in FIG. 8, the hard disk drive 1090 stores, for example, the
また、上記実施形態で説明した各種データは、プログラムデータとして、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出し、各種処理手順を実行する。
Further, the various data described in the above embodiment are stored as program data in, for example, a
なお、情報処理プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ等を介してCPU1020によって読み出されてもよい。あるいは、情報処理プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
The
上記の実施形態やその変形は、本願が開示する技術に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 The above-described embodiments and modifications thereof are included in the inventions described in the claims and the equivalent scope thereof, as are included in the technology disclosed in the present application.
10 情報処理装置
11 通信処理部
12 制御部
12a 収集部
12b 処理部
12c 結合部
12d 演算部
12e 出力部
13 記憶部
13a センサデータ記憶部
20A〜20C 対象設備
21 センサ
100 解析システム
10 Information processing device 11
Claims (4)
前記収集部によって収集されたデータを、データの時刻ごとに、各データ間の順番に関する依存関係を打ち消すように重みが学習された全結合層であって、ニューラルネットワークの最前段の全結合層に入力し、出力データを得る処理を行う処理部と、
前記処理部によって得られた出力データを時刻方向に結合して行列を得る結合部と、
前記結合部によって得られた行列に対して、畳み込み演算を行う演算部と、
前記演算部によって演算された結果を出力する出力部と
を有し、
前記全結合層および前記畳み込み演算を行う畳み込み層を含む前記ニューラルネットワークは、誤差逆伝播法により学習されたことを特徴とする情報処理装置。 A collection unit that collects the data acquired by each sensor installed in the target equipment, and
The data collected by the collecting unit is a fully connected layer whose weight is learned so as to cancel the dependency on the order between the data at each time of the data, and is used as the fully connected layer at the front stage of the neural network. A processing unit that performs processing to input and obtain output data,
A coupling unit that combines the output data obtained by the processing unit in the time direction to obtain a matrix, and
A calculation unit that performs a convolution operation on the matrix obtained by the connection unit, and
Possess an output section for outputting the result calculated by the arithmetic unit,
The neural network including the fully connected layer and the convolution layer that performs the convolution operation is an information processing apparatus that has been learned by an error backpropagation method.
対象設備に設置された各センサによって取得されたデータをそれぞれ収集する収集工程と、
前記収集工程によって収集されたデータを、データの時刻ごとに、各データ間の順番に関する依存関係を打ち消すように重みが学習された全結合層であって、ニューラルネットワークの最前段の全結合層に入力し、出力データを得る処理を行う処理工程と、
前記処理工程によって得られた出力データを時刻方向に結合して行列を得る結合工程と、
前記結合工程によって得られた行列に対して、畳み込み演算を行う演算工程と、
前記演算工程によって演算された結果を出力する出力工程と
を含み、
前記全結合層および前記畳み込み演算を行う畳み込み層を含む前記ニューラルネットワークは、誤差逆伝播法により学習されたことを特徴とする情報処理方法。 An information processing method executed by an information processing device.
The collection process that collects the data acquired by each sensor installed in the target equipment, and
The data collected by the collection process is a fully connected layer whose weight is learned so as to cancel the dependency on the order between the data at each time of the data, and is used as the fully connected layer at the front stage of the neural network. The processing process of inputting and obtaining output data, and
A joining step of joining the output data obtained by the processing step in the time direction to obtain a matrix, and
A calculation step of performing a convolution operation on the matrix obtained by the combination step, and
Look including an output step of outputting the result calculated by the calculating step,
An information processing method characterized in that the neural network including the fully connected layer and the convolution layer that performs the convolution operation has been learned by an error backpropagation method.
前記収集ステップによって収集されたデータを、データの時刻ごとに、各データ間の順番に関する依存関係を打ち消すように重みが学習された全結合層であって、ニューラルネットワークの最前段の全結合層に入力し、出力データを得る処理を行う処理ステップと、
前記処理ステップによって得られた出力データを時刻方向に結合して行列を得る結合ステップと、
前記結合ステップによって得られた行列に対して、畳み込み演算を行う演算ステップと、
前記演算ステップによって演算された結果を出力する出力ステップと
をコンピュータに実行させ、
前記全結合層および前記畳み込み演算を行う畳み込み層を含む前記ニューラルネットワークは、誤差逆伝播法により学習されたことを特徴とする情報処理プログラム。 A collection step that collects the data acquired by each sensor installed in the target equipment, and
The data collected by the collection step is a fully connected layer whose weight is learned so as to cancel the dependency on the order between the data at each time of the data, and is the fully connected layer at the front stage of the neural network. Processing steps to input and obtain output data,
A combination step of combining the output data obtained by the processing step in the time direction to obtain a matrix, and a combination step.
An operation step that performs a convolution operation on the matrix obtained by the join step, and
Have the computer execute an output step that outputs the result calculated by the calculation step .
An information processing program characterized in that the neural network including the fully connected layer and the convolution layer that performs the convolution operation has been learned by an error backpropagation method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018150905A JP6892848B2 (en) | 2018-08-09 | 2018-08-09 | Information processing equipment, information processing methods and information processing programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018150905A JP6892848B2 (en) | 2018-08-09 | 2018-08-09 | Information processing equipment, information processing methods and information processing programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020027375A JP2020027375A (en) | 2020-02-20 |
JP6892848B2 true JP6892848B2 (en) | 2021-06-23 |
Family
ID=69620073
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018150905A Active JP6892848B2 (en) | 2018-08-09 | 2018-08-09 | Information processing equipment, information processing methods and information processing programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6892848B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112149736B (en) * | 2020-09-22 | 2024-02-09 | 腾讯科技(深圳)有限公司 | Data processing method, device, server and medium |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3570220B1 (en) * | 2017-01-13 | 2023-10-11 | KDDI Corporation | Information processing method, information processing device, and computer-readable storage medium |
-
2018
- 2018-08-09 JP JP2018150905A patent/JP6892848B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020027375A (en) | 2020-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11092952B2 (en) | Plant abnormality detection method and system | |
JP2022500745A (en) | Computer implementation methods, computer program products and systems for anomaly detection and / or predictive maintenance | |
Xie et al. | Time series prediction based on NARX neural networks: An advanced approach | |
KR102113218B1 (en) | A Unified Deep Learning Model for Time Series Data Prediction | |
Barakat et al. | Parameter selection algorithm with self adaptive growing neural network classifier for diagnosis issues | |
CN115427968A (en) | Robust artificial intelligence reasoning in edge computing devices | |
CN115618269A (en) | Big data analysis method and system based on industrial sensor production | |
CN113743011A (en) | Device life prediction method and system based on PSO-BP neural network | |
JP6892848B2 (en) | Information processing equipment, information processing methods and information processing programs | |
Larocque-Villiers et al. | Automating predictive maintenance using state-based transfer learning and ensemble methods | |
dos Santos et al. | Thermographic image-based diagnosis of failures in electrical motors using deep transfer learning | |
Li et al. | Structural health monitoring data anomaly detection by transformer enhanced densely connected neural networks | |
Upadhyay et al. | Big Data Framework with Machine Learning for D and D Applications-19108 | |
CN115712874A (en) | Thermal energy power system fault diagnosis method and device based on time series characteristics | |
CN115409262A (en) | Railway data center key performance index trend prediction method and abnormity identification method | |
Yang et al. | Fault diagnosis of motor bearing based on improved convolution neural network based on VMD | |
Aksan et al. | Review of the application of deep learning for fault detection in wind turbine | |
CN117493980B (en) | Bearing fault diagnosis method integrating feature extraction and sequencing causal discovery | |
Yu et al. | Fault diagnosis of wearable temperature sensors based on multi-scale feature extraction | |
Ying et al. | Stacked supervised auto-encoder with deep learning framework for nonlinear process monitoring and fault detection | |
JP7046252B2 (en) | Learning equipment, learning methods and learning programs | |
CN115329906B (en) | Fault diagnosis method and device based on graph regularization network | |
KR102525249B1 (en) | Method, device and system for monitoring and analyzing anomalies in photovoltaic power plants through artificial intelligence-based image processing | |
JP6910997B2 (en) | Information processing equipment, calculation method and calculation program | |
WO2020251037A1 (en) | Learning device, extraction device, learning method, extraction method, learning program, and extraction program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200218 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210309 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210510 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210518 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210528 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6892848 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |