JP2020027375A - 情報処理装置、情報処理方法および情報処理プログラム - Google Patents

情報処理装置、情報処理方法および情報処理プログラム Download PDF

Info

Publication number
JP2020027375A
JP2020027375A JP2018150905A JP2018150905A JP2020027375A JP 2020027375 A JP2020027375 A JP 2020027375A JP 2018150905 A JP2018150905 A JP 2018150905A JP 2018150905 A JP2018150905 A JP 2018150905A JP 2020027375 A JP2020027375 A JP 2020027375A
Authority
JP
Japan
Prior art keywords
data
information processing
unit
output
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018150905A
Other languages
English (en)
Other versions
JP6892848B2 (ja
Inventor
大地 木村
Daichi Kimura
大地 木村
健一郎 島田
Kenichiro Shimada
健一郎 島田
知範 泉谷
Tomonori Izumitani
知範 泉谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Communications Corp
Original Assignee
NTT Communications Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Communications Corp filed Critical NTT Communications Corp
Priority to JP2018150905A priority Critical patent/JP6892848B2/ja
Publication of JP2020027375A publication Critical patent/JP2020027375A/ja
Application granted granted Critical
Publication of JP6892848B2 publication Critical patent/JP6892848B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing And Monitoring For Control Systems (AREA)

Abstract

【課題】時系列データを簡易かつ効率よく解析することができる情報処理装置、情報処理方法および情報処理プログラムを提供する。【解決手段】解析システム100において、情報処理装置10は、対象設備20A〜20Cに設置された各センサ21によって取得されたセンサデータをそれぞれ収集し、収集したセンサデータを、データの時刻ごとに、各データ間の順番に関する依存関係を打ち消すように学習された全結合層に入力し、出力データを得る処理を行う。そして、情報処理装置10は、得られた出力データを時刻方向に結合して行列を得て、該行列に対して畳み込み演算を行い、演算結果を出力する。【選択図】図1

Description

本発明は、情報処理装置、情報処理方法および情報処理プログラムに関する。
近年、工場や自動運転等のさまざまな分野において多量のIoT(Internet of Things)センサデータを活用して、予測や異常検知、自動制御等を行うことが注目されている。このようなセンサデータの特徴として、時々刻々と値が変化する時系列性を持つ点と、それぞれのセンサが互いに相互作用しあう点とが挙げられる。これらの特徴をもつセンサデータの解析手法として、ニューラルネットワーク(Deep Learning)は有効な手法である。
一般的に時系列データの分析の際に用いられるニューラルネットワークの構造として代表的なものとして、MLP(Multi-Layer Perceptron)やCNN(Convolutional Neural Network)、RNN(Recurrent Neural Networks)がある。以下に、これらについて説明する。
ニューラルネットワークの構造として、基本的なネットワーク構造である多層パーセプトロン(MLP)を用いたものがある。この手法では、図9に例示するように、まず、M次元分の時間軸でセンサのデータを抽出した後、一次元ベクトルに変換する。1次元ベクトルに変換する操作は、全結合型ニューラルネットワークに入力するために必要な操作である。これを1つのデータセットとする。この操作を1タイムステップ分進め、同様に行う。この操作を繰り返し、入力データセットを作成した後、一般的な全結合型ニューラルネットワークに入力し、結果を出力する。
また、画像認識の分野において広く用いられているCNNを時系列データ解析に活用すること考えられる。このニューラルネットワークでは、図10に例示するように、M×N次元のフィルタ(いわゆる畳み込み層と呼ばれる)を用いて、各局所領域に対して行列演算を行い、データの特徴量を落とし込んでいく。時系列データを例として上げれば、時系列(列)方向とセンサデータ(行)方向に畳み込み演算を繰り返して行うことで、複数のセンサの時系列を考慮した結果を出力することができる。この手法は、GPGPU(General-Purpose computing on Graphics Processing Units)並列演算に向く(高速化が比較的容易)。畳み込み層の演算により時系列性を考慮することができ、要因分析が比較的しやすいという利点がある。
また、RNNは、自然言語処理や時系列解析においてよく用いられるニューラルネットワークである。RNNでは、図11に例示するように、ある時刻のデータを入力して得られた結果を次の時刻の入力にも再度使用する構造をしている。過去のデータの入出力関係をRNN cell(例えば、GRU(Gated Recurrent Unit)、LSTM(Long Short Term Memory)など)に保持することによって、長時間の時系列状態を考慮した出力を得ることができる。
特開2017−142654号公報
しかしながら、従来の手法では、時系列データを簡易かつ効率よく解析することが出来ない場合があるという課題があった。例えば、従来のMLPを用いた手法では、単純で実装が容易であるが、M×N次元のデータを切り出し、一次元に変換する操作を繰り返すため、効率が悪い。また、次元数が大きくなると必要なメモリも膨大となり、さらに、1次元変換を行ってしまうため、時系列性が陽に扱いにくくなるという課題がある。
また、従来のCNNを用いた手法では、行方向(センサ方向)にも畳み込み演算を行うためデータ(センサ)の並び順に対する依存性が強く、例えば、センサの順番を並び替えると結果が異なるという課題がある。また、列方向(時系列)にのみ畳み込む方法も考えられるが、この場合センサデータ間の依存関係を陽に考慮することが難しい。
また、従来のRNNを用いた手法では、GPGPU並列演算に向かず、高速化が困難であるという課題がある。また、RNN cellの内部状態が複雑であるため、ニューラルネットワークの出力値に対する入力値の要因分析が困難であった。
上述した課題を解決し、目的を達成するために、本発明の情報処理装置は、対象設備に設置された各センサによって取得されたデータをそれぞれ収集する収集部と、前記収集部によって収集されたデータを、データの時刻ごとに、各データ間の順番に関する依存関係を打ち消すように学習された全結合層に入力し、出力データを得る処理を行う処理部と、前記処理部によって得られた出力データを時刻方向に結合して行列を得る結合部と、前記結合部によって得られた行列に対して、畳み込み演算を行う演算部と、前記演算部によって演算された結果を出力する出力部とを有することを特徴とする。
また、本発明の情報処理方法は、情報処理装置によって実行される情報処理方法であって、対象設備に設置された各センサによって取得されたデータをそれぞれ収集する収集工程と、前記収集工程によって収集されたデータを、データの時刻ごとに、各データ間の順番に関する依存関係を打ち消すように学習された全結合層に入力し、出力データを得る処理を行う処理工程と、前記処理工程によって得られた出力データを時刻方向に結合して行列を得る結合工程と、前記結合工程によって得られた行列に対して、畳み込み演算を行う演算工程と、前記演算工程によって演算された結果を出力する出力工程とを含んだことを特徴とする。
また、本発明の情報処理プログラムは、対象設備に設置された各センサによって取得されたデータをそれぞれ収集する収集ステップと、前記収集ステップによって収集されたデータを、データの時刻ごとに、各データ間の順番に関する依存関係を打ち消すように学習された全結合層に入力し、出力データを得る処理を行う処理ステップと、前記処理ステップによって得られた出力データを時刻方向に結合して行列を得る結合ステップと、前記結合ステップによって得られた行列に対して、畳み込み演算を行う演算ステップと、前記演算ステップによって演算された結果を出力する出力ステップとをコンピュータに実行させることを特徴とする。
本発明によれば、時系列データを簡易かつ効率よく解析することができるという効果を奏する。
図1は、第1の実施形態に係る解析システムの構成例を示すブロック図である。 図2は、第1の実施形態に係る情報処理装置の構成例を示すブロック図である。 図3は、センサデータ記憶部に記憶されるデータの一例を示す図である。 図4は、第1の実施形態に係る情報処理装置における全結合層へのデータ入力処理を説明する図である。 図5は、第1の実施形態に係る情報処理装置における全結合層へのデータ入力処理を説明する図である。 図6は、第1の実施形態に係る情報処理装置における処理全体の概要について説明する図である。 図7は、第1の実施形態に係る情報処理装置における処理の流れの一例を示すフローチャートである。 図8は、情報処理プログラムを実行するコンピュータを示す図である。 図9は、従来技術を説明するための図である。 図10は、従来技術を説明するための図である。 図11は、従来技術を説明するための図である。
以下に、本願に係る情報処理装置、情報処理方法および情報処理プログラムの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態により本願に係る情報処理装置、情報処理方法および情報処理プログラムが限定されるものではない。
[第1の実施形態]
以下の実施の形態では、第1の実施形態に係る解析システム100の構成、情報処理装置10の構成、情報処理装置10の処理の流れを順に説明し、最後に第1の実施形態による効果を説明する。
[解析システムの構成]
図1は、第1の実施形態に係る解析システムの構成例を示すブロック図である。第1の実施形態に係る解析システム100は、情報処理装置10と複数の対象設備20A〜20Cとを有し、情報処理装置10と対象設備20A〜20Cはネットワーク30を介して互いに接続されている。なお、図1に示す構成は一例にすぎず、具体的な構成や各装置の数は特に限定されない。また、対象設備20A〜20Cについて、特に区別なく説明する場合には、適宜対象設備20と記載する。
情報処理装置10は、対象設備20A〜20Cに設置されたセンサ21によって取得されたデータ(以下、適宜センサデータと記載)を収集する。そして、情報処理装置10は、収集したセンサデータを入力として、学習済みモデルを用いて解析を行うことで、センサデータを基に製品品質の予測、異常の検知、自動制御等に活用するデータを得ることができる。
対象設備20A〜20Cは、それぞれ複数のセンサ21が設置されている。対象設備は、例えば、プラント内装置や反応炉、建物空調、データセンタ内ラック、自動車等の様々なものに適用可能であり、特に限定されるものではない。
[情報処理装置の構成]
次に、図2を用いて、情報処理装置10の構成を説明する。図2は、第1の実施形態に係る情報処理装置の構成例を示すブロック図である。図3に示すように、この情報処理装置10は、通信処理部11、制御部12および記憶部13を有する。以下に情報処理装置10が有する各部の処理を説明する。
通信処理部11は、各種情報に関する通信を制御する。例えば、通信処理部11は、対象設備20との間でセンサのデータの送受信を行う。
記憶部13は、制御部12による各種処理に必要なデータおよびプログラムを格納するが、特に本発明に密接に関連するものとしては、センサデータ記憶部13aを有する。例えば、記憶部13は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置などである。
センサデータ記憶部13aは、後述する収集部12aによって各対象設備20の各センサ21から収集された同一時刻のセンサ21のデータを記憶する。例えば、センサデータ記憶部13aは、図3に例示するように、各時刻におけるN個のセンサ1〜センサNによって取得されたデータをそれぞれ記憶する。また、図3の例では、センサデータ記憶部13aは、時刻「00:01」、「00:02」、「00:03」・・・というように、1秒毎のN個のセンサ1〜センサNのデータを記憶する。図3は、センサデータ記憶部に記憶されるデータの一例を示す図である。
制御部12は、各種の処理手順などを規定したプログラムおよび所要データを格納するための内部メモリを有し、これらによって種々の処理を実行するが、特に本発明に密接に関連するものとしては、収集部12a、処理部12b、結合部12c、演算部12dおよび出力部12eを有する。ここで、制御部12は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などの電子回路やASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路である。
収集部12aは、対象設備20に設置された各センサ21によって取得されたデータをそれぞれ収集する。具体的には、収集部12aは、複数の対象設備20にそれぞれ設置された各センサ21のデータをそれぞれ収集し、センサデータ記憶部13aに同時刻のデータを格納する。
例えば、収集部12aは、工場やプラントなどの対象設備20に設置されるセンサ21からデータを定期的(例えば、1秒ごと)に受信し、センサデータ記憶部13aに格納する。ここでセンサ21が取得するデータとは、例えば、工場、プラント内の装置や反応炉についての温度や圧力、音、振動等の各種データであり、限定されるものではない。
処理部12bは、収集部12aによって収集されたセンサデータを、センサデータの時刻ごとに、各データ間の順番に関する依存関係を打ち消すように学習された全結合層に入力し、出力データを得る処理を行う。
ここで、図4および図5を用いて、全結合層へデータを入力する処理について説明する。図4および図5は、第1の実施形態に係る情報処理装置における全結合層へのデータ入力処理を説明する図である。図4に示すように、処理部12bは、センサデータを時刻ごとに全結合層にそれぞれ入力する。つまり、処理部12bは、例えば、時刻「00:01」におけるセンサ1〜センサNのN個のセンサデータを全結合層へ入力し、次に、時刻「00:02」におけるセンサ1〜センサNのN個のセンサデータを全結合層へ入力し、次に、時刻「00:03」におけるセンサ1〜センサNのN個のセンサデータを全結合層へ入力するという処理を繰り返す。
図5に例示するように、全結合層は、入力と出力に対応するノードがすべて互いに結合している層である。つまり、処理部12bは、ある時刻tにおけるN個のセンサデータをそれぞれ入力すると、ある時刻tにおけるN個の出力を得る。また、それぞれのノードは信号の伝えやすさを意味する「重み」を持つ。この全結合層のおかげで、各センサデータ間の順番に関する依存関係を打ち消したり抽出したりすることができる。なお、全結合層のノード数は2以上であればよく、任意の値を取ることができる。たとえば、データ列(データ間の順番)にセンサ自体の物理的な位置(距離)関係を持ったものがあれば、その依存関係(相関関係)が考慮されるように学習されたニューラルネットワークを適用してもよい。つまり、このような場合には、全結合層は、考慮する必要が無い各データ間の順番に関する依存関係は打ち消すが、各センサの物理的な位置(距離)の依存関係(相関関係)は打ち消さずに、データを出力するものとする。
結合部12cは、処理部12bによって得られた出力データを時刻方向に結合して行列を得る。例えば、結合部12cは、時刻ごとに全結合層から出力された値の行を、時刻方向(行方向)に結合する。例えば、結合部12cは、時刻「00:01」のセンサデータを全結合層に入力し、該全結合層から出力された値の行と、時刻「00:02」のセンサデータを全結合層に入力し、該全結合層から出力された値の行とを結合する。なお、結合部12cは、2つの行ずつを結合する場合に限定されず、3つ以上の行ずつを結合するようにしてよい。このように、結合部12cは、時刻ごとに全結合層から出力された値の行を結合することで、センサデータの順番の依存関係が打ち消された新たな行列を得ることが可能である。
演算部12dは、結合部12cによって得られた行列に対して、畳み込み演算を行う。具体的には、演算部12dは、結合部12cによって得られた行列を畳み込み層に入力することで、畳み込み演算を行う。また、演算部12dは、GPGPUを用いて畳み込み演算を行う。このように、演算部12dは、結合部12cによって得られた行列に対して、畳み込み演算を行うことで、時系列性を考慮することが可能であり、さらに、畳み込み演算を用いるため、GPGPUを用いた高速演算が可能となる。なお、畳み込み層のサイズと層の数は任意である。
出力部12eは、演算部によって演算された結果を出力する。具体的には、出力部12eは、出力層から出力値を得る。その後、出力部12eは、情報処理装置10または外部の装置にて、出力結果を表示してもよいし、さらなる処理のために情報処理装置10内の他の機能部または外部の装置に出力するようにしてもよい。なお、この出力値は、どのようなデータであってもよく、例えば、対象設備20の異常を検知するための異常度であってもよいし、対象設備20における製品品質を予測するための予測値であってもよい。
ここで、図6を用いて、第1の実施形態に係る情報処理装置10における処理全体の概要について説明する。図6は、第1の実施形態に係る情報処理装置における処理全体の概要について説明する図である。図6に例示するように、情報処理装置10は、まず、センサデータを時刻ごとに全結合層に入力する(図6の(A)参照)。続いて、情報処理装置10は、全結合層からの出力を時刻方向に結合する(図6の(B)参照)。
そして、情報処理装置10は、結合することによって得られた行列に対して畳み込み演算を行う(図6の(C)参照)。最後に、情報処理装置10は、出力層から全体としての出力値を得る(図6の(D)参照)。
このように、情報処理装置10では、時系列解析のニューラルネットワークにおいて、最前段にデータ方向に対して全結合層の演算を行うことにより、自動的にデータ間の依存関係を扱うことができる。さらに、情報処理装置10では、全結合層から出力された値の行を時刻方向に結合した行列に対して、畳み込み演算を行うことで、時系列性を考慮した演算を高速に行うことが可能である。
なお、上記の例では、最前段の層が全結合層と非常に単純である。この層は、AutoEncorderやVariational Autoencorderによってセンサデータを特徴空間に落とし込んだ層に置き換えることも容易である。
また、全結合層および畳み込み演算を行う畳み込み層を含むニューラルネットワークは、誤差逆伝播法等により学習される。例えば、ニューラルネットワークの重みの学習(最適化)過程においては、既存の誤差逆伝播法に基づき学習を行う。学習の最適化後においては、全結合層の重みや、畳み込み層のフィルタの重みが自動的に最適化され、センサ間の依存関係と時系列性をうまく扱うことができるものとする。なお、ニューラルネットワークの学習のタイミングは、上述の図6で説明した一連の解析処理が行われる前に事前に行われてもよいし、解析処理が行われるのと同時にリアルタイムに行われていてもよい。
[情報処理装置の処理手順]
次に、図7を用いて、第1の実施形態に係る情報処理装置10による処理手順の例を説明する。図7は、第1の実施形態に係る情報処理装置における処理の流れの一例を示すフローチャートである。なお、図7の例では、センサデータを収集するたびに、一連の解析処理を行う場合を例に説明するが、これに限定されるものではない。
図7に例示するように、収集部12aは、対象設備20におけるセンサ21のデータを収集すると(ステップS101肯定)、収集したデータをセンサデータ記憶部13aに格納する(ステップS102)。
そして、処理部12bは、収集部12aによって収集された同時刻のセンサデータを、各データ間の順番に関する依存関係を打ち消すように学習された全結合層に入力する(ステップS103)。続いて、結合部12cは、処理部12bによって得られた出力データを時刻方向に結合する(ステップS104)。例えば、結合部12cは、時刻ごとに全結合層から出力された値の行を、時刻方向(行方向)に結合して行列を得る。
続いて、演算部12dは、結合部12cによって得られた行列に対して、畳み込み演算を行う(ステップS105)。具体的には、演算部12dは、結合部12cによって得られた行列を畳み込み層に入力することで、畳み込み演算を行う。そして、出力部12eは、出力層から出力値を得る。
(第1の実施形態の効果)
第1の実施形態に係る情報処理装置10は、対象設備20に設置された各センサ21によって取得されたセンサデータをそれぞれ収集し、収集したセンサデータを、データの時刻ごとに、各データ間の順番に関する依存関係を打ち消すように学習された全結合層に入力し、出力データを得る処理を行う。そして、情報処理装置10は、得られた出力データを時刻方向に結合して行列を得て、該行列に対して畳み込み演算を行い、演算結果を出力する。このため、情報処理装置10では、時系列データを簡易かつ効率よく解析することが可能である。つまり、情報処理装置10では、多量のIoTセンサデータを活用した予測、異常検知または予測等を行うために、簡便なニューラルネットワークを用いて、簡易に時系列データを解析することが可能である。
すなわち、第1の実施形態に係る情報処理装置10が用いるニューラルネットワークは、単純で実装が容易であり、GPGPUを用いた高速並列演算が可能であり、センサデータの並び順の依存性をなくして、時系列データの解析を効率よく行うことが可能である。
特に、このような時系列データの解析は、IoTセンサデータの分野で有用である。このことは、製造業において機械やプラントなどから出力される様々なセンサデータから製品品質の予測、異常の検知、高度な自動制御において活用することができる。また、本発明の活用場所は多岐にわたり、電力、水道、ガス、交通、通信など社会インフラの時系列データにも適応することが可能である。
(システム構成等)
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
また、本実施の形態において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
(プログラム)
また、上記実施形態において説明した情報処理装置が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。例えば、実施形態に係る情報処理装置10が実行する処理をコンピュータが実行可能な言語で記述した情報処理プログラムを作成することもできる。この場合、コンピュータが情報処理プログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかる情報処理プログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録された情報処理プログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。
図8は、情報処理プログラムを実行するコンピュータを示す図である。図8に例示するように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有し、これらの各部はバス1080によって接続される。
メモリ1010は、図8に例示するように、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、図8に例示するように、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、図8に例示するように、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、図8に例示するように、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、図8に例示するように、例えばディスプレイ1130に接続される。
ここで、図8に例示するように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、上記の、情報処理プログラムは、コンピュータ1000によって実行される指令が記述されたプログラムモジュールとして、例えばハードディスクドライブ1090に記憶される。
また、上記実施形態で説明した各種データは、プログラムデータとして、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出し、各種処理手順を実行する。
なお、情報処理プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ等を介してCPU1020によって読み出されてもよい。あるいは、情報処理プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
上記の実施形態やその変形は、本願が開示する技術に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
10 情報処理装置
11 通信処理部
12 制御部
12a 収集部
12b 処理部
12c 結合部
12d 演算部
12e 出力部
13 記憶部
13a センサデータ記憶部
20A〜20C 対象設備
21 センサ
100 解析システム

Claims (5)

  1. 対象設備に設置された各センサによって取得されたデータをそれぞれ収集する収集部と、
    前記収集部によって収集されたデータを、データの時刻ごとに、各データ間の順番に関する依存関係を打ち消すように学習された全結合層に入力し、出力データを得る処理を行う処理部と、
    前記処理部によって得られた出力データを時刻方向に結合して行列を得る結合部と、
    前記結合部によって得られた行列に対して、畳み込み演算を行う演算部と、
    前記演算部によって演算された結果を出力する出力部と
    を有することを特徴とする情報処理装置。
  2. 前記演算部は、GPGPUを用いて畳み込み演算を行うことを特徴とする請求項1に記載の情報処理装置。
  3. 前記全結合層および前記畳み込み演算を行う畳み込み層を含むニューラルネットワークは、誤差逆伝播法により学習されることを特徴とする請求項1に記載の情報処理装置。
  4. 情報処理装置によって実行される情報処理方法であって、
    対象設備に設置された各センサによって取得されたデータをそれぞれ収集する収集工程と、
    前記収集工程によって収集されたデータを、データの時刻ごとに、各データ間の順番に関する依存関係を打ち消すように学習された全結合層に入力し、出力データを得る処理を行う処理工程と、
    前記処理工程によって得られた出力データを時刻方向に結合して行列を得る結合工程と、
    前記結合工程によって得られた行列に対して、畳み込み演算を行う演算工程と、
    前記演算工程によって演算された結果を出力する出力工程と
    を含んだことを特徴とする情報処理方法。
  5. 対象設備に設置された各センサによって取得されたデータをそれぞれ収集する収集ステップと、
    前記収集ステップによって収集されたデータを、データの時刻ごとに、各データ間の順番に関する依存関係を打ち消すように学習された全結合層に入力し、出力データを得る処理を行う処理ステップと、
    前記処理ステップによって得られた出力データを時刻方向に結合して行列を得る結合ステップと、
    前記結合ステップによって得られた行列に対して、畳み込み演算を行う演算ステップと、
    前記演算ステップによって演算された結果を出力する出力ステップと
    をコンピュータに実行させることを特徴とする情報処理プログラム。
JP2018150905A 2018-08-09 2018-08-09 情報処理装置、情報処理方法および情報処理プログラム Active JP6892848B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018150905A JP6892848B2 (ja) 2018-08-09 2018-08-09 情報処理装置、情報処理方法および情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018150905A JP6892848B2 (ja) 2018-08-09 2018-08-09 情報処理装置、情報処理方法および情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2020027375A true JP2020027375A (ja) 2020-02-20
JP6892848B2 JP6892848B2 (ja) 2021-06-23

Family

ID=69620073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018150905A Active JP6892848B2 (ja) 2018-08-09 2018-08-09 情報処理装置、情報処理方法および情報処理プログラム

Country Status (1)

Country Link
JP (1) JP6892848B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112149736A (zh) * 2020-09-22 2020-12-29 腾讯科技(深圳)有限公司 一种数据处理方法、装置、服务器及介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018131409A1 (ja) * 2017-01-13 2018-07-19 Kddi株式会社 情報処理方法、情報処理装置及びコンピュータ可読記憶媒体

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018131409A1 (ja) * 2017-01-13 2018-07-19 Kddi株式会社 情報処理方法、情報処理装置及びコンピュータ可読記憶媒体

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
BAO, W., ET AL.: "A deep learning framework for financial time series using stacked autoencoders and long-short term m", PROS ONE, JPN6021007617, 14 July 2017 (2017-07-14), ISSN: 0004458678 *
HYVARINEN, A.: "Fast and robust fixed-point algorithms for independent component analysis.", IEEE TRANSACTIONS ON NEURAL NETWORKS, vol. 10, no. 3, JPN6021007622, 1999, XP011039310, ISSN: 0004458682 *
YANG, J., ET AL.: "Deep convolutional neural networks on multichannel time series for human activity recognition.", IN PROC. IJCAI 2015, vol. 15, JPN6021007618, July 2015 (2015-07-01), pages 3995 - 4001, ISSN: 0004458679 *
安藤 洸太, ほか: "深層畳込みニューラルネットワークに向けたデータ流再構成型演算器アレイアーキテクチャ", 電子情報通信学会技術研究報告, vol. 第116巻 第53号, JPN6021007620, 10 June 2016 (2016-06-10), JP, ISSN: 0004458680 *
尾原 和也, ほか: "Wi−Fiチャネル状態情報を用いた屋内日常物の状態推定", 情報処理学会 研究報告 ユビキタスコンピューティングシステム(UBI), vol. 第2017-UBI-56巻 第18号, JPN6021007621, 25 October 2017 (2017-10-25), JP, ISSN: 0004458681 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112149736A (zh) * 2020-09-22 2020-12-29 腾讯科技(深圳)有限公司 一种数据处理方法、装置、服务器及介质
CN112149736B (zh) * 2020-09-22 2024-02-09 腾讯科技(深圳)有限公司 一种数据处理方法、装置、服务器及介质

Also Published As

Publication number Publication date
JP6892848B2 (ja) 2021-06-23

Similar Documents

Publication Publication Date Title
Ge Review on data-driven modeling and monitoring for plant-wide industrial processes
Xia et al. Data-driven prognosis method using hybrid deep recurrent neural network
Torres et al. A scalable approach based on deep learning for big data time series forecasting
EP2797034B1 (en) Event analyzer and computer-readable storage medium
Costa et al. Failure detection in robotic arms using statistical modeling, machine learning and hybrid gradient boosting
Benyounes et al. Gas turbine modeling based on fuzzy clustering algorithm using experimental data
Nguyen et al. A new method for forecasting energy output of a large-scale solar power plant based on long short-term memory networks a case study in Vietnam
Wang et al. Spatio-temporal graph convolutional neural network for remaining useful life estimation of aircraft engines
Yamashiro et al. Estimation of processing time using machine learning and real factory data for optimization of parallel machine scheduling problem
Wu et al. Msstn: Multi-scale spatial temporal network for air pollution prediction
Kara Multi-scale deep neural network approach with attention mechanism for remaining useful life estimation
Patel et al. MAG-D: A multivariate attention network based approach for cloud workload forecasting
Huang et al. Grassnet: Graph soft sensing neural networks
Du et al. An integrated system for on-line intelligent monitoring and identifying process variability and its application
Zhang et al. Data anomaly detection for bridge SHM based on CNN combined with statistic features
He et al. Statistical process monitoring for IoT-Enabled cybermanufacturing: opportunities and challenges
Chu et al. Developing Deep Survival Model for Remaining Useful Life Estimation Based on Convolutional and Long Short‐Term Memory Neural Networks
CN113361194B (zh) 一种基于深度学习的传感器漂移校准方法、电子设备及存储介质
JP6892848B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
Da Silva et al. Hardware architecture proposal for TEDA algorithm to data streaming anomaly detection
Naoui et al. Integrating iot devices and deep learning for renewable energy in big data system
Upadhyay et al. Big Data Framework with Machine Learning for D and D Applications-19108
Shahshahani et al. Resource and performance estimation for CNN models using machine learning
Yu et al. A hybrid learning-based model for on-line monitoring and diagnosis of out-of-control signals in multivariate manufacturing processes
CN114818460A (zh) 基于自动机器学习的实验室设备剩余使用寿命预测方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210518

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210528

R150 Certificate of patent or registration of utility model

Ref document number: 6892848

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250