JP6892848B2 - Information processing equipment, information processing methods and information processing programs - Google Patents

Information processing equipment, information processing methods and information processing programs Download PDF

Info

Publication number
JP6892848B2
JP6892848B2 JP2018150905A JP2018150905A JP6892848B2 JP 6892848 B2 JP6892848 B2 JP 6892848B2 JP 2018150905 A JP2018150905 A JP 2018150905A JP 2018150905 A JP2018150905 A JP 2018150905A JP 6892848 B2 JP6892848 B2 JP 6892848B2
Authority
JP
Japan
Prior art keywords
data
information processing
unit
fully connected
connected layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018150905A
Other languages
Japanese (ja)
Other versions
JP2020027375A (en
Inventor
大地 木村
大地 木村
健一郎 島田
健一郎 島田
知範 泉谷
知範 泉谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Communications Corp
Original Assignee
NTT Communications Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Communications Corp filed Critical NTT Communications Corp
Priority to JP2018150905A priority Critical patent/JP6892848B2/en
Publication of JP2020027375A publication Critical patent/JP2020027375A/en
Application granted granted Critical
Publication of JP6892848B2 publication Critical patent/JP6892848B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理装置、情報処理方法および情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.

近年、工場や自動運転等のさまざまな分野において多量のIoT(Internet of Things)センサデータを活用して、予測や異常検知、自動制御等を行うことが注目されている。このようなセンサデータの特徴として、時々刻々と値が変化する時系列性を持つ点と、それぞれのセンサが互いに相互作用しあう点とが挙げられる。これらの特徴をもつセンサデータの解析手法として、ニューラルネットワーク(Deep Learning)は有効な手法である。 In recent years, attention has been focused on performing prediction, abnormality detection, automatic control, and the like by utilizing a large amount of IoT (Internet of Things) sensor data in various fields such as factories and automatic driving. The characteristics of such sensor data are that it has a time series in which the value changes from moment to moment and that the sensors interact with each other. A neural network (Deep Learning) is an effective method as a method for analyzing sensor data having these characteristics.

一般的に時系列データの分析の際に用いられるニューラルネットワークの構造として代表的なものとして、MLP(Multi-Layer Perceptron)やCNN(Convolutional Neural Network)、RNN(Recurrent Neural Networks)がある。以下に、これらについて説明する。 Typical neural network structures generally used in the analysis of time-series data include MLP (Multi-Layer Perceptron), CNN (Convolutional Neural Network), and RNN (Recurrent Neural Networks). These will be described below.

ニューラルネットワークの構造として、基本的なネットワーク構造である多層パーセプトロン(MLP)を用いたものがある。この手法では、図9に例示するように、まず、M次元分の時間軸でセンサのデータを抽出した後、一次元ベクトルに変換する。1次元ベクトルに変換する操作は、全結合型ニューラルネットワークに入力するために必要な操作である。これを1つのデータセットとする。この操作を1タイムステップ分進め、同様に行う。この操作を繰り返し、入力データセットを作成した後、一般的な全結合型ニューラルネットワークに入力し、結果を出力する。 As a structure of a neural network, there is a structure using a multi-layer perceptron (MLP), which is a basic network structure. In this method, as illustrated in FIG. 9, first, sensor data is extracted on the time axis of M dimensions, and then converted into a one-dimensional vector. The operation of converting to a one-dimensional vector is an operation necessary for inputting to a fully connected neural network. Let this be one data set. This operation is advanced by one time step and is performed in the same manner. After repeating this operation to create an input data set, it is input to a general fully connected neural network and the result is output.

また、画像認識の分野において広く用いられているCNNを時系列データ解析に活用すること考えられる。このニューラルネットワークでは、図10に例示するように、M×N次元のフィルタ(いわゆる畳み込み層と呼ばれる)を用いて、各局所領域に対して行列演算を行い、データの特徴量を落とし込んでいく。時系列データを例として上げれば、時系列(列)方向とセンサデータ(行)方向に畳み込み演算を繰り返して行うことで、複数のセンサの時系列を考慮した結果を出力することができる。この手法は、GPGPU(General-Purpose computing on Graphics Processing Units)並列演算に向く(高速化が比較的容易)。畳み込み層の演算により時系列性を考慮することができ、要因分析が比較的しやすいという利点がある。 It is also conceivable to utilize CNN, which is widely used in the field of image recognition, for time series data analysis. In this neural network, as illustrated in FIG. 10, a matrix operation is performed on each local region using an M × N-dimensional filter (so-called convolution layer), and the feature amount of the data is reduced. Taking time-series data as an example, by repeating the convolution operation in the time-series (column) direction and the sensor data (row) direction, it is possible to output the result considering the time-series of a plurality of sensors. This method is suitable for GPGPU (General-Purpose computing on Graphics Processing Units) parallel computing (relatively easy to speed up). Time series can be considered by the calculation of the convolution layer, and there is an advantage that factor analysis is relatively easy.

また、RNNは、自然言語処理や時系列解析においてよく用いられるニューラルネットワークである。RNNでは、図11に例示するように、ある時刻のデータを入力して得られた結果を次の時刻の入力にも再度使用する構造をしている。過去のデータの入出力関係をRNN cell(例えば、GRU(Gated Recurrent Unit)、LSTM(Long Short Term Memory)など)に保持することによって、長時間の時系列状態を考慮した出力を得ることができる。 RNN is a neural network often used in natural language processing and time series analysis. As illustrated in FIG. 11, the RNN has a structure in which the result obtained by inputting data at a certain time is used again for inputting the next time. By holding the input / output relationship of past data in an RNN cell (for example, GRU (Gated Recurrent Unit), RSTM (Long Short Term Memory), etc.), it is possible to obtain an output considering a long time series state. ..

特開2017−142654号公報JP-A-2017-142654

しかしながら、従来の手法では、時系列データを簡易かつ効率よく解析することが出来ない場合があるという課題があった。例えば、従来のMLPを用いた手法では、単純で実装が容易であるが、M×N次元のデータを切り出し、一次元に変換する操作を繰り返すため、効率が悪い。また、次元数が大きくなると必要なメモリも膨大となり、さらに、1次元変換を行ってしまうため、時系列性が陽に扱いにくくなるという課題がある。 However, the conventional method has a problem that time series data may not be analyzed easily and efficiently. For example, the conventional method using MLP is simple and easy to implement, but it is inefficient because the operation of cutting out M × N-dimensional data and converting it into one dimension is repeated. Further, as the number of dimensions increases, the required memory becomes enormous, and further, one-dimensional conversion is performed, so that there is a problem that the time series is explicitly difficult to handle.

また、従来のCNNを用いた手法では、行方向(センサ方向)にも畳み込み演算を行うためデータ(センサ)の並び順に対する依存性が強く、例えば、センサの順番を並び替えると結果が異なるという課題がある。また、列方向(時系列)にのみ畳み込む方法も考えられるが、この場合センサデータ間の依存関係を陽に考慮することが難しい。 In addition, in the conventional method using CNN, since the convolution operation is also performed in the row direction (sensor direction), there is a strong dependence on the order of the data (sensors). For example, if the order of the sensors is rearranged, the result will be different. There are challenges. Further, a method of convolving only in the column direction (time series) can be considered, but in this case, it is difficult to explicitly consider the dependency between the sensor data.

また、従来のRNNを用いた手法では、GPGPU並列演算に向かず、高速化が困難であるという課題がある。また、RNN cellの内部状態が複雑であるため、ニューラルネットワークの出力値に対する入力値の要因分析が困難であった。 Further, the conventional method using RNN is not suitable for GPGPU parallel computing, and there is a problem that it is difficult to increase the speed. Further, since the internal state of the RNN cell is complicated, it is difficult to analyze the factors of the input value with respect to the output value of the neural network.

上述した課題を解決し、目的を達成するために、本発明の情報処理装置は、対象設備に設置された各センサによって取得されたデータをそれぞれ収集する収集部と、前記収集部によって収集されたデータを、データの時刻ごとに、各データ間の順番に関する依存関係を打ち消すように学習された全結合層に入力し、出力データを得る処理を行う処理部と、前記処理部によって得られた出力データを時刻方向に結合して行列を得る結合部と、前記結合部によって得られた行列に対して、畳み込み演算を行う演算部と、前記演算部によって演算された結果を出力する出力部とを有することを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the information processing apparatus of the present invention has a collecting unit that collects data acquired by each sensor installed in the target facility, and a collecting unit that collects the data. A processing unit that inputs data to a fully connected layer trained to cancel the dependency on the order between the data at each time of the data and performs a process of obtaining output data, and an output obtained by the processing unit. A coupling unit that combines data in the time direction to obtain a matrix, a calculation unit that performs a convolution operation on the matrix obtained by the coupling unit, and an output unit that outputs the result calculated by the calculation unit. It is characterized by having.

また、本発明の情報処理方法は、情報処理装置によって実行される情報処理方法であって、対象設備に設置された各センサによって取得されたデータをそれぞれ収集する収集工程と、前記収集工程によって収集されたデータを、データの時刻ごとに、各データ間の順番に関する依存関係を打ち消すように学習された全結合層に入力し、出力データを得る処理を行う処理工程と、前記処理工程によって得られた出力データを時刻方向に結合して行列を得る結合工程と、前記結合工程によって得られた行列に対して、畳み込み演算を行う演算工程と、前記演算工程によって演算された結果を出力する出力工程とを含んだことを特徴とする。 Further, the information processing method of the present invention is an information processing method executed by an information processing apparatus, and is a collection step of collecting data acquired by each sensor installed in the target facility and a collection step of collecting the data. A processing step of inputting the generated data into a fully connected layer trained to cancel the dependency on the order between the data at each time of the data and obtaining output data, and a processing step obtained by the processing step. A joining step of combining the output data in the time direction to obtain a matrix, a calculation step of performing a convolution operation on the matrix obtained by the joining step, and an output step of outputting the result calculated by the calculation step. It is characterized by including and.

また、本発明の情報処理プログラムは、対象設備に設置された各センサによって取得されたデータをそれぞれ収集する収集ステップと、前記収集ステップによって収集されたデータを、データの時刻ごとに、各データ間の順番に関する依存関係を打ち消すように学習された全結合層に入力し、出力データを得る処理を行う処理ステップと、前記処理ステップによって得られた出力データを時刻方向に結合して行列を得る結合ステップと、前記結合ステップによって得られた行列に対して、畳み込み演算を行う演算ステップと、前記演算ステップによって演算された結果を出力する出力ステップとをコンピュータに実行させることを特徴とする。 In addition, the information processing program of the present invention collects the data acquired by each sensor installed in the target facility, and collects the data collected by the collection step between the data at each data time. A processing step of inputting to a fully connected layer learned to cancel the dependency on the order of the above and performing a process of obtaining output data, and a combination of combining the output data obtained by the processing step in the time direction to obtain a matrix. It is characterized in that a computer is made to execute a step, a calculation step for performing a convolution operation on the matrix obtained by the combination step, and an output step for outputting the result calculated by the calculation step.

本発明によれば、時系列データを簡易かつ効率よく解析することができるという効果を奏する。 According to the present invention, there is an effect that time series data can be analyzed easily and efficiently.

図1は、第1の実施形態に係る解析システムの構成例を示すブロック図である。FIG. 1 is a block diagram showing a configuration example of the analysis system according to the first embodiment. 図2は、第1の実施形態に係る情報処理装置の構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of the information processing apparatus according to the first embodiment. 図3は、センサデータ記憶部に記憶されるデータの一例を示す図である。FIG. 3 is a diagram showing an example of data stored in the sensor data storage unit. 図4は、第1の実施形態に係る情報処理装置における全結合層へのデータ入力処理を説明する図である。FIG. 4 is a diagram illustrating a data input process to the fully connected layer in the information processing apparatus according to the first embodiment. 図5は、第1の実施形態に係る情報処理装置における全結合層へのデータ入力処理を説明する図である。FIG. 5 is a diagram illustrating a data input process to the fully connected layer in the information processing apparatus according to the first embodiment. 図6は、第1の実施形態に係る情報処理装置における処理全体の概要について説明する図である。FIG. 6 is a diagram illustrating an outline of the entire process in the information processing apparatus according to the first embodiment. 図7は、第1の実施形態に係る情報処理装置における処理の流れの一例を示すフローチャートである。FIG. 7 is a flowchart showing an example of a processing flow in the information processing apparatus according to the first embodiment. 図8は、情報処理プログラムを実行するコンピュータを示す図である。FIG. 8 is a diagram showing a computer that executes an information processing program. 図9は、従来技術を説明するための図である。FIG. 9 is a diagram for explaining the prior art. 図10は、従来技術を説明するための図である。FIG. 10 is a diagram for explaining the prior art. 図11は、従来技術を説明するための図である。FIG. 11 is a diagram for explaining the prior art.

以下に、本願に係る情報処理装置、情報処理方法および情報処理プログラムの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態により本願に係る情報処理装置、情報処理方法および情報処理プログラムが限定されるものではない。 Hereinafter, the information processing apparatus, the information processing method, and the embodiment of the information processing program according to the present application will be described in detail with reference to the drawings. The information processing apparatus, information processing method, and information processing program according to the present application are not limited by this embodiment.

[第1の実施形態]
以下の実施の形態では、第1の実施形態に係る解析システム100の構成、情報処理装置10の構成、情報処理装置10の処理の流れを順に説明し、最後に第1の実施形態による効果を説明する。
[First Embodiment]
In the following embodiment, the configuration of the analysis system 100, the configuration of the information processing device 10, and the processing flow of the information processing device 10 according to the first embodiment will be described in order, and finally, the effect of the first embodiment will be described. explain.

[解析システムの構成]
図1は、第1の実施形態に係る解析システムの構成例を示すブロック図である。第1の実施形態に係る解析システム100は、情報処理装置10と複数の対象設備20A〜20Cとを有し、情報処理装置10と対象設備20A〜20Cはネットワーク30を介して互いに接続されている。なお、図1に示す構成は一例にすぎず、具体的な構成や各装置の数は特に限定されない。また、対象設備20A〜20Cについて、特に区別なく説明する場合には、適宜対象設備20と記載する。
[Analysis system configuration]
FIG. 1 is a block diagram showing a configuration example of the analysis system according to the first embodiment. The analysis system 100 according to the first embodiment has an information processing device 10 and a plurality of target equipments 20A to 20C, and the information processing device 10 and the target equipments 20A to 20C are connected to each other via a network 30. .. The configuration shown in FIG. 1 is only an example, and the specific configuration and the number of each device are not particularly limited. Further, when the target equipments 20A to 20C are described without particular distinction, the target equipments 20 are appropriately described.

情報処理装置10は、対象設備20A〜20Cに設置されたセンサ21によって取得されたデータ(以下、適宜センサデータと記載)を収集する。そして、情報処理装置10は、収集したセンサデータを入力として、学習済みモデルを用いて解析を行うことで、センサデータを基に製品品質の予測、異常の検知、自動制御等に活用するデータを得ることができる。 The information processing device 10 collects data (hereinafter, appropriately referred to as sensor data) acquired by sensors 21 installed in the target equipments 20A to 20C. Then, the information processing device 10 takes the collected sensor data as an input and analyzes it using the trained model, and based on the sensor data, obtains data to be used for product quality prediction, abnormality detection, automatic control, and the like. Obtainable.

対象設備20A〜20Cは、それぞれ複数のセンサ21が設置されている。対象設備は、例えば、プラント内装置や反応炉、建物空調、データセンタ内ラック、自動車等の様々なものに適用可能であり、特に限定されるものではない。 A plurality of sensors 21 are installed in each of the target equipments 20A to 20C. The target equipment can be applied to various equipment such as in-plant equipment, reactors, building air conditioners, data center racks, automobiles, and the like, and is not particularly limited.

[情報処理装置の構成]
次に、図2を用いて、情報処理装置10の構成を説明する。図2は、第1の実施形態に係る情報処理装置の構成例を示すブロック図である。図3に示すように、この情報処理装置10は、通信処理部11、制御部12および記憶部13を有する。以下に情報処理装置10が有する各部の処理を説明する。
[Configuration of information processing device]
Next, the configuration of the information processing apparatus 10 will be described with reference to FIG. FIG. 2 is a block diagram showing a configuration example of the information processing apparatus according to the first embodiment. As shown in FIG. 3, the information processing device 10 includes a communication processing unit 11, a control unit 12, and a storage unit 13. The processing of each part of the information processing apparatus 10 will be described below.

通信処理部11は、各種情報に関する通信を制御する。例えば、通信処理部11は、対象設備20との間でセンサのデータの送受信を行う。 The communication processing unit 11 controls communication related to various types of information. For example, the communication processing unit 11 transmits / receives sensor data to / from the target equipment 20.

記憶部13は、制御部12による各種処理に必要なデータおよびプログラムを格納するが、特に本発明に密接に関連するものとしては、センサデータ記憶部13aを有する。例えば、記憶部13は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置などである。 The storage unit 13 stores data and programs necessary for various processes by the control unit 12, and particularly closely related to the present invention is the sensor data storage unit 13a. For example, the storage unit 13 is a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk.

センサデータ記憶部13aは、後述する収集部12aによって各対象設備20の各センサ21から収集された同一時刻のセンサ21のデータを記憶する。例えば、センサデータ記憶部13aは、図3に例示するように、各時刻におけるN個のセンサ1〜センサNによって取得されたデータをそれぞれ記憶する。また、図3の例では、センサデータ記憶部13aは、時刻「00:01」、「00:02」、「00:03」・・・というように、1秒毎のN個のセンサ1〜センサNのデータを記憶する。図3は、センサデータ記憶部に記憶されるデータの一例を示す図である。 The sensor data storage unit 13a stores the data of the sensor 21 at the same time collected from each sensor 21 of each target equipment 20 by the collection unit 12a described later. For example, the sensor data storage unit 13a stores data acquired by N sensors 1 to sensors N at each time, as illustrated in FIG. Further, in the example of FIG. 3, the sensor data storage unit 13a has N sensors 1 to every second, such as time “00:01”, “00:02”, “00:03”, and so on. The data of the sensor N is stored. FIG. 3 is a diagram showing an example of data stored in the sensor data storage unit.

制御部12は、各種の処理手順などを規定したプログラムおよび所要データを格納するための内部メモリを有し、これらによって種々の処理を実行するが、特に本発明に密接に関連するものとしては、収集部12a、処理部12b、結合部12c、演算部12dおよび出力部12eを有する。ここで、制御部12は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などの電子回路やASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路である。 The control unit 12 has an internal memory for storing a program that defines various processing procedures and required data, and executes various processing by these. It has a collecting unit 12a, a processing unit 12b, a coupling unit 12c, a calculation unit 12d, and an output unit 12e. Here, the control unit 12 is an electronic circuit such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit), or an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

収集部12aは、対象設備20に設置された各センサ21によって取得されたデータをそれぞれ収集する。具体的には、収集部12aは、複数の対象設備20にそれぞれ設置された各センサ21のデータをそれぞれ収集し、センサデータ記憶部13aに同時刻のデータを格納する。 The collection unit 12a collects the data acquired by each sensor 21 installed in the target equipment 20. Specifically, the collecting unit 12a collects the data of each sensor 21 installed in each of the plurality of target equipments 20, and stores the data at the same time in the sensor data storage unit 13a.

例えば、収集部12aは、工場やプラントなどの対象設備20に設置されるセンサ21からデータを定期的(例えば、1秒ごと)に受信し、センサデータ記憶部13aに格納する。ここでセンサ21が取得するデータとは、例えば、工場、プラント内の装置や反応炉についての温度や圧力、音、振動等の各種データであり、限定されるものではない。 For example, the collecting unit 12a receives data periodically (for example, every second) from the sensor 21 installed in the target equipment 20 such as a factory or a plant, and stores the data in the sensor data storage unit 13a. Here, the data acquired by the sensor 21 is, for example, various data such as temperature, pressure, sound, and vibration of the equipment and the reactor in the factory and the plant, and is not limited.

処理部12bは、収集部12aによって収集されたセンサデータを、センサデータの時刻ごとに、各データ間の順番に関する依存関係を打ち消すように学習された全結合層に入力し、出力データを得る処理を行う。 The processing unit 12b inputs the sensor data collected by the collecting unit 12a to the fully connected layer trained to cancel the dependency on the order between the sensor data at each time of the sensor data, and obtains output data. I do.

ここで、図4および図5を用いて、全結合層へデータを入力する処理について説明する。図4および図5は、第1の実施形態に係る情報処理装置における全結合層へのデータ入力処理を説明する図である。図4に示すように、処理部12bは、センサデータを時刻ごとに全結合層にそれぞれ入力する。つまり、処理部12bは、例えば、時刻「00:01」におけるセンサ1〜センサNのN個のセンサデータを全結合層へ入力し、次に、時刻「00:02」におけるセンサ1〜センサNのN個のセンサデータを全結合層へ入力し、次に、時刻「00:03」におけるセンサ1〜センサNのN個のセンサデータを全結合層へ入力するという処理を繰り返す。 Here, the process of inputting data to the fully connected layer will be described with reference to FIGS. 4 and 5. 4 and 5 are diagrams for explaining the data input process to the fully connected layer in the information processing apparatus according to the first embodiment. As shown in FIG. 4, the processing unit 12b inputs the sensor data to the fully connected layer at each time. That is, for example, the processing unit 12b inputs N sensor data of the sensors 1 to the sensor N at the time "00:01" into the fully connected layer, and then the sensor 1 to the sensor N at the time "00:02". The process of inputting the N sensor data of the sensors 1 to the fully connected layer and then inputting the N sensor data of the sensors 1 to N at the time "00:03" to the fully connected layer is repeated.

図5に例示するように、全結合層は、入力と出力に対応するノードがすべて互いに結合している層である。つまり、処理部12bは、ある時刻tにおけるN個のセンサデータをそれぞれ入力すると、ある時刻tにおけるN個の出力を得る。また、それぞれのノードは信号の伝えやすさを意味する「重み」を持つ。この全結合層のおかげで、各センサデータ間の順番に関する依存関係を打ち消したり抽出したりすることができる。なお、全結合層のノード数は2以上であればよく、任意の値を取ることができる。たとえば、データ列(データ間の順番)にセンサ自体の物理的な位置(距離)関係を持ったものがあれば、その依存関係(相関関係)が考慮されるように学習されたニューラルネットワークを適用してもよい。つまり、このような場合には、全結合層は、考慮する必要が無い各データ間の順番に関する依存関係は打ち消すが、各センサの物理的な位置(距離)の依存関係(相関関係)は打ち消さずに、データを出力するものとする。 As illustrated in FIG. 5, the fully connected layer is a layer in which all the nodes corresponding to the inputs and outputs are connected to each other. That is, when the processing unit 12b inputs each of the N sensor data at a certain time t, the processing unit 12b obtains N outputs at a certain time t. In addition, each node has a "weight" which means the ease of transmitting a signal. Thanks to this fully connected layer, it is possible to cancel or extract the order dependency between each sensor data. The number of nodes in the fully connected layer may be 2 or more, and any value can be taken. For example, if there is a data string (order between data) that has a physical position (distance) relationship of the sensor itself, apply a neural network trained so that the dependency (correlation) is taken into consideration. You may. That is, in such a case, the fully connected layer cancels the dependency on the order between each data that does not need to be considered, but cancels the dependency (correlation) of the physical position (distance) of each sensor. Instead, the data shall be output.

結合部12cは、処理部12bによって得られた出力データを時刻方向に結合して行列を得る。例えば、結合部12cは、時刻ごとに全結合層から出力された値の行を、時刻方向(行方向)に結合する。例えば、結合部12cは、時刻「00:01」のセンサデータを全結合層に入力し、該全結合層から出力された値の行と、時刻「00:02」のセンサデータを全結合層に入力し、該全結合層から出力された値の行とを結合する。なお、結合部12cは、2つの行ずつを結合する場合に限定されず、3つ以上の行ずつを結合するようにしてよい。このように、結合部12cは、時刻ごとに全結合層から出力された値の行を結合することで、センサデータの順番の依存関係が打ち消された新たな行列を得ることが可能である。 The connecting unit 12c combines the output data obtained by the processing unit 12b in the time direction to obtain a matrix. For example, the connecting unit 12c joins the rows of values output from the fully connected layer for each time in the time direction (row direction). For example, the coupling unit 12c inputs the sensor data at the time "00:01" to the fully coupled layer, and inputs the row of values output from the fully coupled layer and the sensor data at the time "00:02" to the fully coupled layer. Is input to and the row of values output from the fully connected layer is combined. The joining portion 12c is not limited to the case of joining two rows at a time, and may be made to join three or more rows at a time. In this way, the coupling unit 12c can obtain a new matrix in which the dependency of the order of the sensor data is canceled by combining the rows of the values output from the fully coupled layer for each time.

演算部12dは、結合部12cによって得られた行列に対して、畳み込み演算を行う。具体的には、演算部12dは、結合部12cによって得られた行列を畳み込み層に入力することで、畳み込み演算を行う。また、演算部12dは、GPGPUを用いて畳み込み演算を行う。このように、演算部12dは、結合部12cによって得られた行列に対して、畳み込み演算を行うことで、時系列性を考慮することが可能であり、さらに、畳み込み演算を用いるため、GPGPUを用いた高速演算が可能となる。なお、畳み込み層のサイズと層の数は任意である。 The calculation unit 12d performs a convolution operation on the matrix obtained by the connection unit 12c. Specifically, the calculation unit 12d performs a convolution operation by inputting the matrix obtained by the connection unit 12c into the convolution layer. Further, the calculation unit 12d performs a convolution calculation using GPGPU. In this way, the calculation unit 12d can consider the time series by performing the convolution operation on the matrix obtained by the connection unit 12c, and further, since the convolution operation is used, the GPGPU can be used. High-speed calculation using is possible. The size of the convolution layer and the number of layers are arbitrary.

出力部12eは、演算部によって演算された結果を出力する。具体的には、出力部12eは、出力層から出力値を得る。その後、出力部12eは、情報処理装置10または外部の装置にて、出力結果を表示してもよいし、さらなる処理のために情報処理装置10内の他の機能部または外部の装置に出力するようにしてもよい。なお、この出力値は、どのようなデータであってもよく、例えば、対象設備20の異常を検知するための異常度であってもよいし、対象設備20における製品品質を予測するための予測値であってもよい。 The output unit 12e outputs the result calculated by the calculation unit. Specifically, the output unit 12e obtains an output value from the output layer. After that, the output unit 12e may display the output result on the information processing device 10 or an external device, or output the output result to another functional unit or an external device in the information processing device 10 for further processing. You may do so. The output value may be any data, for example, the degree of abnormality for detecting an abnormality in the target equipment 20, or a prediction for predicting the product quality in the target equipment 20. It may be a value.

ここで、図6を用いて、第1の実施形態に係る情報処理装置10における処理全体の概要について説明する。図6は、第1の実施形態に係る情報処理装置における処理全体の概要について説明する図である。図6に例示するように、情報処理装置10は、まず、センサデータを時刻ごとに全結合層に入力する(図6の(A)参照)。続いて、情報処理装置10は、全結合層からの出力を時刻方向に結合する(図6の(B)参照)。 Here, with reference to FIG. 6, an outline of the entire process in the information processing apparatus 10 according to the first embodiment will be described. FIG. 6 is a diagram illustrating an outline of the entire process in the information processing apparatus according to the first embodiment. As illustrated in FIG. 6, the information processing apparatus 10 first inputs sensor data to the fully connected layer at each time (see (A) in FIG. 6). Subsequently, the information processing apparatus 10 combines the outputs from the fully connected layer in the time direction (see (B) in FIG. 6).

そして、情報処理装置10は、結合することによって得られた行列に対して畳み込み演算を行う(図6の(C)参照)。最後に、情報処理装置10は、出力層から全体としての出力値を得る(図6の(D)参照)。 Then, the information processing apparatus 10 performs a convolution operation on the matrix obtained by combining (see (C) of FIG. 6). Finally, the information processing apparatus 10 obtains the output value as a whole from the output layer (see (D) of FIG. 6).

このように、情報処理装置10では、時系列解析のニューラルネットワークにおいて、最前段にデータ方向に対して全結合層の演算を行うことにより、自動的にデータ間の依存関係を扱うことができる。さらに、情報処理装置10では、全結合層から出力された値の行を時刻方向に結合した行列に対して、畳み込み演算を行うことで、時系列性を考慮した演算を高速に行うことが可能である。 As described above, in the information processing apparatus 10, the dependency relationship between data can be automatically handled by performing the calculation of the fully connected layer with respect to the data direction in the foremost stage in the neural network for time series analysis. Further, in the information processing apparatus 10, it is possible to perform an operation considering time series at high speed by performing a convolution operation on a matrix in which rows of values output from a fully connected layer are combined in the time direction. Is.

なお、上記の例では、最前段の層が全結合層と非常に単純である。この層は、AutoEncorderやVariational Autoencorderによってセンサデータを特徴空間に落とし込んだ層に置き換えることも容易である。 In the above example, the frontmost layer is very simple as the fully connected layer. This layer can be easily replaced with a layer in which the sensor data is dropped into the feature space by the AutoEncorder or the Variational Autoencorder.

また、全結合層および畳み込み演算を行う畳み込み層を含むニューラルネットワークは、誤差逆伝播法等により学習される。例えば、ニューラルネットワークの重みの学習(最適化)過程においては、既存の誤差逆伝播法に基づき学習を行う。学習の最適化後においては、全結合層の重みや、畳み込み層のフィルタの重みが自動的に最適化され、センサ間の依存関係と時系列性をうまく扱うことができるものとする。なお、ニューラルネットワークの学習のタイミングは、上述の図6で説明した一連の解析処理が行われる前に事前に行われてもよいし、解析処理が行われるのと同時にリアルタイムに行われていてもよい。 Further, the neural network including the fully connected layer and the convolution layer that performs the convolution operation is learned by the error backpropagation method or the like. For example, in the process of learning (optimizing) the weight of a neural network, learning is performed based on the existing backpropagation method. After the learning is optimized, the weight of the fully connected layer and the weight of the filter of the convolution layer are automatically optimized, and the dependency between the sensors and the time series can be handled well. The timing of learning the neural network may be performed in advance before the series of analysis processes described in FIG. 6 described above are performed, or may be performed in real time at the same time as the analysis processes are performed. Good.

[情報処理装置の処理手順]
次に、図7を用いて、第1の実施形態に係る情報処理装置10による処理手順の例を説明する。図7は、第1の実施形態に係る情報処理装置における処理の流れの一例を示すフローチャートである。なお、図7の例では、センサデータを収集するたびに、一連の解析処理を行う場合を例に説明するが、これに限定されるものではない。
[Processing procedure of information processing device]
Next, an example of the processing procedure by the information processing apparatus 10 according to the first embodiment will be described with reference to FIG. 7. FIG. 7 is a flowchart showing an example of a processing flow in the information processing apparatus according to the first embodiment. In the example of FIG. 7, a case where a series of analysis processes are performed each time sensor data is collected will be described as an example, but the present invention is not limited to this.

図7に例示するように、収集部12aは、対象設備20におけるセンサ21のデータを収集すると(ステップS101肯定)、収集したデータをセンサデータ記憶部13aに格納する(ステップS102)。 As illustrated in FIG. 7, when the collecting unit 12a collects the data of the sensor 21 in the target equipment 20 (affirmation in step S101), the collecting unit 12a stores the collected data in the sensor data storage unit 13a (step S102).

そして、処理部12bは、収集部12aによって収集された同時刻のセンサデータを、各データ間の順番に関する依存関係を打ち消すように学習された全結合層に入力する(ステップS103)。続いて、結合部12cは、処理部12bによって得られた出力データを時刻方向に結合する(ステップS104)。例えば、結合部12cは、時刻ごとに全結合層から出力された値の行を、時刻方向(行方向)に結合して行列を得る。 Then, the processing unit 12b inputs the sensor data of the same time collected by the collecting unit 12a into the fully connected layer learned so as to cancel the dependency relationship regarding the order between the data (step S103). Subsequently, the coupling unit 12c combines the output data obtained by the processing unit 12b in the time direction (step S104). For example, the connecting unit 12c joins the rows of values output from the fully connected layer for each time in the time direction (row direction) to obtain a matrix.

続いて、演算部12dは、結合部12cによって得られた行列に対して、畳み込み演算を行う(ステップS105)。具体的には、演算部12dは、結合部12cによって得られた行列を畳み込み層に入力することで、畳み込み演算を行う。そして、出力部12eは、出力層から出力値を得る。 Subsequently, the calculation unit 12d performs a convolution calculation on the matrix obtained by the connection unit 12c (step S105). Specifically, the calculation unit 12d performs a convolution operation by inputting the matrix obtained by the connection unit 12c into the convolution layer. Then, the output unit 12e obtains an output value from the output layer.

(第1の実施形態の効果)
第1の実施形態に係る情報処理装置10は、対象設備20に設置された各センサ21によって取得されたセンサデータをそれぞれ収集し、収集したセンサデータを、データの時刻ごとに、各データ間の順番に関する依存関係を打ち消すように学習された全結合層に入力し、出力データを得る処理を行う。そして、情報処理装置10は、得られた出力データを時刻方向に結合して行列を得て、該行列に対して畳み込み演算を行い、演算結果を出力する。このため、情報処理装置10では、時系列データを簡易かつ効率よく解析することが可能である。つまり、情報処理装置10では、多量のIoTセンサデータを活用した予測、異常検知または予測等を行うために、簡便なニューラルネットワークを用いて、簡易に時系列データを解析することが可能である。
(Effect of the first embodiment)
The information processing device 10 according to the first embodiment collects sensor data acquired by each sensor 21 installed in the target facility 20, and collects the collected sensor data between the data at each data time. Input to the fully connected layer learned so as to cancel the dependency on the order, and perform the process of obtaining the output data. Then, the information processing apparatus 10 combines the obtained output data in the time direction to obtain a matrix, performs a convolution operation on the matrix, and outputs the calculation result. Therefore, the information processing apparatus 10 can easily and efficiently analyze the time series data. That is, in the information processing apparatus 10, it is possible to easily analyze the time series data by using a simple neural network in order to perform prediction, abnormality detection, prediction, etc. using a large amount of IoT sensor data.

すなわち、第1の実施形態に係る情報処理装置10が用いるニューラルネットワークは、単純で実装が容易であり、GPGPUを用いた高速並列演算が可能であり、センサデータの並び順の依存性をなくして、時系列データの解析を効率よく行うことが可能である。 That is, the neural network used by the information processing apparatus 10 according to the first embodiment is simple and easy to implement, can perform high-speed parallel calculation using GPGPU, and eliminates the dependence on the order of sensor data. , It is possible to efficiently analyze time series data.

特に、このような時系列データの解析は、IoTセンサデータの分野で有用である。このことは、製造業において機械やプラントなどから出力される様々なセンサデータから製品品質の予測、異常の検知、高度な自動制御において活用することができる。また、本発明の活用場所は多岐にわたり、電力、水道、ガス、交通、通信など社会インフラの時系列データにも適応することが可能である。 In particular, such analysis of time series data is useful in the field of IoT sensor data. This can be utilized in product quality prediction, abnormality detection, and advanced automatic control from various sensor data output from machines, plants, etc. in the manufacturing industry. In addition, the present invention can be used in a wide variety of places, and can be applied to time-series data of social infrastructure such as electric power, water, gas, transportation, and communication.

(システム構成等)
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
(System configuration, etc.)
Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically distributed / physically in arbitrary units according to various loads and usage conditions. Can be integrated and configured. Further, each processing function performed by each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.

また、本実施の形態において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。 Further, among the processes described in the present embodiment, all or part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed. It is also possible to automatically perform all or part of the above by a known method. In addition, the processing procedure, control procedure, specific name, and information including various data and parameters shown in the above document and drawings can be arbitrarily changed unless otherwise specified.

(プログラム)
また、上記実施形態において説明した情報処理装置が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。例えば、実施形態に係る情報処理装置10が実行する処理をコンピュータが実行可能な言語で記述した情報処理プログラムを作成することもできる。この場合、コンピュータが情報処理プログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかる情報処理プログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録された情報処理プログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。
(program)
It is also possible to create a program in which the processing executed by the information processing apparatus described in the above embodiment is described in a language that can be executed by a computer. For example, it is possible to create an information processing program in which the processing executed by the information processing apparatus 10 according to the embodiment is described in a language that can be executed by a computer. In this case, when the computer executes the information processing program, the same effect as that of the above embodiment can be obtained. Further, even if the information processing program is recorded on a computer-readable recording medium and the information processing program recorded on the recording medium is read and executed by the computer, the same processing as that of the above embodiment can be realized. Good.

図8は、情報処理プログラムを実行するコンピュータを示す図である。図8に例示するように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有し、これらの各部はバス1080によって接続される。 FIG. 8 is a diagram showing a computer that executes an information processing program. As illustrated in FIG. 8, the computer 1000 has, for example, a memory 1010, a CPU 1020, a hard disk drive interface 1030, a disk drive interface 1040, a serial port interface 1050, a video adapter 1060, and a network interface 1070. However, each of these parts is connected by a bus 1080.

メモリ1010は、図8に例示するように、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、図8に例示するように、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、図8に例示するように、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、図8に例示するように、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、図8に例示するように、例えばディスプレイ1130に接続される。 The memory 1010 includes a ROM (Read Only Memory) 1011 and a RAM 1012, as illustrated in FIG. The ROM 1011 stores, for example, a boot program such as a BIOS (Basic Input Output System). The hard disk drive interface 1030 is connected to the hard disk drive 1090, as illustrated in FIG. The disk drive interface 1040 is connected to the disk drive 1100 as illustrated in FIG. For example, a removable storage medium such as a magnetic disk or an optical disk is inserted into the disk drive 1100. The serial port interface 1050 is connected to, for example, a mouse 1110 and a keyboard 1120, as illustrated in FIG. The video adapter 1060 is connected, for example, to the display 1130, as illustrated in FIG.

ここで、図8に例示するように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、上記の、情報処理プログラムは、コンピュータ1000によって実行される指令が記述されたプログラムモジュールとして、例えばハードディスクドライブ1090に記憶される。 Here, as illustrated in FIG. 8, the hard disk drive 1090 stores, for example, the OS 1091, the application program 1092, the program module 1093, and the program data 1094. That is, the above-mentioned information processing program is stored in, for example, the hard disk drive 1090 as a program module in which instructions executed by the computer 1000 are described.

また、上記実施形態で説明した各種データは、プログラムデータとして、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出し、各種処理手順を実行する。 Further, the various data described in the above embodiment are stored as program data in, for example, a memory 1010 or a hard disk drive 1090. Then, the CPU 1020 reads the program module 1093 and the program data 1094 stored in the memory 1010 and the hard disk drive 1090 into the RAM 1012 as needed, and executes various processing procedures.

なお、情報処理プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ等を介してCPU1020によって読み出されてもよい。あるいは、情報処理プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。 The program module 1093 and program data 1094 related to the information processing program are not limited to the case where they are stored in the hard disk drive 1090, for example, are stored in a removable storage medium, and are read out by the CPU 1020 via a disk drive or the like. May be good. Alternatively, the program module 1093 and the program data 1094 related to the information processing program are stored in another computer connected via a network (LAN (Local Area Network), WAN (Wide Area Network), etc.), and the network interface 1070 is used. It may be read by the CPU 1020 via.

上記の実施形態やその変形は、本願が開示する技術に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 The above-described embodiments and modifications thereof are included in the inventions described in the claims and the equivalent scope thereof, as are included in the technology disclosed in the present application.

10 情報処理装置
11 通信処理部
12 制御部
12a 収集部
12b 処理部
12c 結合部
12d 演算部
12e 出力部
13 記憶部
13a センサデータ記憶部
20A〜20C 対象設備
21 センサ
100 解析システム
10 Information processing device 11 Communication processing unit 12 Control unit 12a Collection unit 12b Processing unit 12c Coupling unit 12d Calculation unit 12e Output unit 13 Storage unit 13a Sensor data storage unit 20A to 20C Target equipment 21 Sensor 100 Analysis system

Claims (4)

対象設備に設置された各センサによって取得されたデータをそれぞれ収集する収集部と、
前記収集部によって収集されたデータを、データの時刻ごとに、各データ間の順番に関する依存関係を打ち消すように重みが学習された全結合層であって、ニューラルネットワークの最前段の全結合層に入力し、出力データを得る処理を行う処理部と、
前記処理部によって得られた出力データを時刻方向に結合して行列を得る結合部と、
前記結合部によって得られた行列に対して、畳み込み演算を行う演算部と、
前記演算部によって演算された結果を出力する出力部と
を有し、
前記全結合層および前記畳み込み演算を行う畳み込み層を含む前記ニューラルネットワークは、誤差逆伝播法により学習されたことを特徴とする情報処理装置。
A collection unit that collects the data acquired by each sensor installed in the target equipment, and
The data collected by the collecting unit is a fully connected layer whose weight is learned so as to cancel the dependency on the order between the data at each time of the data, and is used as the fully connected layer at the front stage of the neural network. A processing unit that performs processing to input and obtain output data,
A coupling unit that combines the output data obtained by the processing unit in the time direction to obtain a matrix, and
A calculation unit that performs a convolution operation on the matrix obtained by the connection unit, and
Possess an output section for outputting the result calculated by the arithmetic unit,
The neural network including the fully connected layer and the convolution layer that performs the convolution operation is an information processing apparatus that has been learned by an error backpropagation method.
前記演算部は、GPGPUを用いて畳み込み演算を行うことを特徴とする請求項1に記載の情報処理装置。 The information processing device according to claim 1, wherein the calculation unit performs a convolution calculation using GPGPU. 情報処理装置によって実行される情報処理方法であって、
対象設備に設置された各センサによって取得されたデータをそれぞれ収集する収集工程と、
前記収集工程によって収集されたデータを、データの時刻ごとに、各データ間の順番に関する依存関係を打ち消すように重みが学習された全結合層であって、ニューラルネットワークの最前段の全結合層に入力し、出力データを得る処理を行う処理工程と、
前記処理工程によって得られた出力データを時刻方向に結合して行列を得る結合工程と、
前記結合工程によって得られた行列に対して、畳み込み演算を行う演算工程と、
前記演算工程によって演算された結果を出力する出力工程と
を含み、
前記全結合層および前記畳み込み演算を行う畳み込み層を含む前記ニューラルネットワークは、誤差逆伝播法により学習されたことを特徴とする情報処理方法。
An information processing method executed by an information processing device.
The collection process that collects the data acquired by each sensor installed in the target equipment, and
The data collected by the collection process is a fully connected layer whose weight is learned so as to cancel the dependency on the order between the data at each time of the data, and is used as the fully connected layer at the front stage of the neural network. The processing process of inputting and obtaining output data, and
A joining step of joining the output data obtained by the processing step in the time direction to obtain a matrix, and
A calculation step of performing a convolution operation on the matrix obtained by the combination step, and
Look including an output step of outputting the result calculated by the calculating step,
An information processing method characterized in that the neural network including the fully connected layer and the convolution layer that performs the convolution operation has been learned by an error backpropagation method.
対象設備に設置された各センサによって取得されたデータをそれぞれ収集する収集ステップと、
前記収集ステップによって収集されたデータを、データの時刻ごとに、各データ間の順番に関する依存関係を打ち消すように重みが学習された全結合層であって、ニューラルネットワークの最前段の全結合層に入力し、出力データを得る処理を行う処理ステップと、
前記処理ステップによって得られた出力データを時刻方向に結合して行列を得る結合ステップと、
前記結合ステップによって得られた行列に対して、畳み込み演算を行う演算ステップと、
前記演算ステップによって演算された結果を出力する出力ステップと
をコンピュータに実行させ、
前記全結合層および前記畳み込み演算を行う畳み込み層を含む前記ニューラルネットワークは、誤差逆伝播法により学習されたことを特徴とする情報処理プログラム。
A collection step that collects the data acquired by each sensor installed in the target equipment, and
The data collected by the collection step is a fully connected layer whose weight is learned so as to cancel the dependency on the order between the data at each time of the data, and is the fully connected layer at the front stage of the neural network. Processing steps to input and obtain output data,
A combination step of combining the output data obtained by the processing step in the time direction to obtain a matrix, and a combination step.
An operation step that performs a convolution operation on the matrix obtained by the join step, and
Have the computer execute an output step that outputs the result calculated by the calculation step .
An information processing program characterized in that the neural network including the fully connected layer and the convolution layer that performs the convolution operation has been learned by an error backpropagation method.
JP2018150905A 2018-08-09 2018-08-09 Information processing equipment, information processing methods and information processing programs Active JP6892848B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018150905A JP6892848B2 (en) 2018-08-09 2018-08-09 Information processing equipment, information processing methods and information processing programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018150905A JP6892848B2 (en) 2018-08-09 2018-08-09 Information processing equipment, information processing methods and information processing programs

Publications (2)

Publication Number Publication Date
JP2020027375A JP2020027375A (en) 2020-02-20
JP6892848B2 true JP6892848B2 (en) 2021-06-23

Family

ID=69620073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018150905A Active JP6892848B2 (en) 2018-08-09 2018-08-09 Information processing equipment, information processing methods and information processing programs

Country Status (1)

Country Link
JP (1) JP6892848B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112149736B (en) * 2020-09-22 2024-02-09 腾讯科技(深圳)有限公司 Data processing method, device, server and medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3570220B1 (en) * 2017-01-13 2023-10-11 KDDI Corporation Information processing method, information processing device, and computer-readable storage medium

Also Published As

Publication number Publication date
JP2020027375A (en) 2020-02-20

Similar Documents

Publication Publication Date Title
US11092952B2 (en) Plant abnormality detection method and system
JP2022500745A (en) Computer implementation methods, computer program products and systems for anomaly detection and / or predictive maintenance
Xie et al. Time series prediction based on NARX neural networks: An advanced approach
KR102113218B1 (en) A Unified Deep Learning Model for Time Series Data Prediction
Barakat et al. Parameter selection algorithm with self adaptive growing neural network classifier for diagnosis issues
CN115427968A (en) Robust artificial intelligence reasoning in edge computing devices
CN115618269A (en) Big data analysis method and system based on industrial sensor production
CN113743011A (en) Device life prediction method and system based on PSO-BP neural network
JP6892848B2 (en) Information processing equipment, information processing methods and information processing programs
Larocque-Villiers et al. Automating predictive maintenance using state-based transfer learning and ensemble methods
dos Santos et al. Thermographic image-based diagnosis of failures in electrical motors using deep transfer learning
Li et al. Structural health monitoring data anomaly detection by transformer enhanced densely connected neural networks
Upadhyay et al. Big Data Framework with Machine Learning for D and D Applications-19108
CN115712874A (en) Thermal energy power system fault diagnosis method and device based on time series characteristics
CN115409262A (en) Railway data center key performance index trend prediction method and abnormity identification method
Yang et al. Fault diagnosis of motor bearing based on improved convolution neural network based on VMD
Aksan et al. Review of the application of deep learning for fault detection in wind turbine
CN117493980B (en) Bearing fault diagnosis method integrating feature extraction and sequencing causal discovery
Yu et al. Fault diagnosis of wearable temperature sensors based on multi-scale feature extraction
Ying et al. Stacked supervised auto-encoder with deep learning framework for nonlinear process monitoring and fault detection
JP7046252B2 (en) Learning equipment, learning methods and learning programs
CN115329906B (en) Fault diagnosis method and device based on graph regularization network
KR102525249B1 (en) Method, device and system for monitoring and analyzing anomalies in photovoltaic power plants through artificial intelligence-based image processing
JP6910997B2 (en) Information processing equipment, calculation method and calculation program
WO2020251037A1 (en) Learning device, extraction device, learning method, extraction method, learning program, and extraction program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210518

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210528

R150 Certificate of patent or registration of utility model

Ref document number: 6892848

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250