JP7419787B2 - Time series data analysis device - Google Patents

Time series data analysis device Download PDF

Info

Publication number
JP7419787B2
JP7419787B2 JP2019226048A JP2019226048A JP7419787B2 JP 7419787 B2 JP7419787 B2 JP 7419787B2 JP 2019226048 A JP2019226048 A JP 2019226048A JP 2019226048 A JP2019226048 A JP 2019226048A JP 7419787 B2 JP7419787 B2 JP 7419787B2
Authority
JP
Japan
Prior art keywords
series data
data
time series
image
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019226048A
Other languages
Japanese (ja)
Other versions
JP2021096541A (en
Inventor
圭亨 中村
賢 柏原
直己 高橋
萌子 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyo Seikan Group Holdings Ltd
Original Assignee
Toyo Seikan Group Holdings Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyo Seikan Group Holdings Ltd filed Critical Toyo Seikan Group Holdings Ltd
Priority to JP2019226048A priority Critical patent/JP7419787B2/en
Publication of JP2021096541A publication Critical patent/JP2021096541A/en
Application granted granted Critical
Publication of JP7419787B2 publication Critical patent/JP7419787B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、例えばPETボトル容器や缶容器の生産システムや生産設備、製品などの観測対象から取得される複数の時系列データを、機械学習・深層学習に適用可能な画像データに変換するための時系列データ解析装置に関する。 The present invention is a method for converting multiple time-series data obtained from observation targets such as production systems, production equipment, and products for PET bottle containers and can containers into image data that can be applied to machine learning and deep learning. The present invention relates to a time series data analysis device.

近年、画像認識で培われた深層学習(Deep Learning)の技術を他用途へ展開する取組がある。
画像は、抽象化すると3次元配列(テンソル)として捉えることができるため、非画像データについても、テンソルへの変換ができれば、画像に対する深層学習を適用することが可能となる。
In recent years, there have been efforts to develop deep learning technology cultivated in image recognition for other applications.
When abstracted, an image can be understood as a three-dimensional array (tensor), so if non-image data can be converted into a tensor, it becomes possible to apply deep learning to images.

非画像データを画像に変換して機械学習(Machine Learning)を行わせることについては、例えば特許文献1に提案されている技術がある。
特許文献1に開示されているのは、音声データ(非画像データ)を多次元データ(画像データ)に変換し、ニューラルネットワークを用いて音響特徴量を生成することにより、滑らかで自然な音声を合成することができるというものである。
Regarding converting non-image data into images and performing machine learning, there is a technique proposed in Patent Document 1, for example.
What is disclosed in Patent Document 1 is to convert audio data (non-image data) into multidimensional data (image data) and generate acoustic features using a neural network, thereby producing smooth and natural speech. This means that it can be synthesized.

特許第6552146号公報Patent No. 6552146

しかしながら、特許文献1に開示されている方法を含めて、非画像データを画像に変換して機械学習にかける技術は、いずれも、同一時刻のデータ間について画像化するのみであったため、例えば、生産システム等の観測対象から時々刻々と生成・出力される時系列データについて対応することができなかった。
時系列データは、単に固定された同一時刻のデータを画像化するだけでは対応できず、複数の時系列データ間において適切な時刻合わせが必要であり、また、各時系列データにおける応答の遅れ等を考慮して可視化を行うことも重要であった。
このような課題に対して、従来技術では有効な対応を行うことができなかった。
However, all of the techniques for converting non-image data into images and subjecting them to machine learning, including the method disclosed in Patent Document 1, only image data at the same time. It was not possible to deal with time-series data that is constantly generated and output from observation targets such as production systems.
Time-series data cannot be handled simply by imaging data at the same fixed time; appropriate time alignment is required between multiple pieces of time-series data, and delays in response for each time-series data are required. It was also important to carry out visualization with this in mind.
Conventional techniques have not been able to effectively deal with such problems.

本発明は、以上のような課題を解決するために提案されたものであり、複数の時系列データからなる観測データについて、時間方向に区分されたデータ間の相関性を数値化することにより、周期性を持つ複数の入力からなる時系列データについて、それらの時空間的な関係性を考慮した特徴量の抽出及び可視化を可能とし、非画像データである複数の時系列データを、機械学習・深層学習に適用可能なデータに変換することができる時系列データ解析装置を提供することを目的とする。 The present invention was proposed to solve the above problems, and by quantifying the correlation between data divided in the time direction with respect to observation data consisting of a plurality of time series data, For time-series data consisting of multiple inputs with periodicity, it is possible to extract and visualize features that take into account their spatio-temporal relationships. The purpose of the present invention is to provide a time-series data analysis device that can convert data into data applicable to deep learning.

上記目的を達成するため、本発明に係る時系列データ解析装置は、観測対象が生成する時系列データからなる2種類以上の複数の観測データを格納する観測データ格納手段と、前記観測データのうち、選択された1種類の観測データを所定の期間ごとに分割し、前記選択された1種類の観測データ以外の全ての前記観測データを前記所定の期間によって分割し、部分時系列データの集合として格納する部分時系列データ格納手段と、第1軸を前記時系列データの種類とし、第2軸を前記部分時系列データの観測時刻とした2次元配列の各配列要素として、前記部分時系列データの各要素のうち、前記選択された1種類の観測データの観測時刻が最も新しい基準要素と、前記配列要素の前記第1軸及び前記第2軸から同定される前記部分時系列データのいずれか一の要素との、2つの要素の組合せに基づいて、所定の計算方法により特徴量を計算して特徴量配列として格納する特徴量配列格納手段と、前記特徴量配列を出力する特徴量配列出力手段と、を備える構成としてある。 In order to achieve the above object, the time series data analysis device according to the present invention includes an observation data storage means for storing a plurality of observation data of two or more types consisting of time series data generated by an observation target; , divide one type of selected observation data into predetermined periods, divide all the observation data other than the selected one type of observation data into the predetermined periods, and create a set of partial time series data. A partial time series data storage means for storing the partial time series data, and each array element of a two-dimensional array having the type of the time series data as the first axis and the observation time of the partial time series data as the second axis. out of each element, either the reference element with the latest observation time of the selected one type of observation data, or the partial time series data identified from the first axis and the second axis of the array element. a feature array storage means that calculates a feature amount using a predetermined calculation method based on a combination of two elements with one element and stores it as a feature array; and a feature array output that outputs the feature array. The configuration includes means.

また、本発明は、上記のような本発明に係る時系列データ解析装置で実行されるプログラムとして構成することができる。
さらに、本発明は、上記のような本発明に係る時系列データ解析装置及びプログラムによって実施可能な方法として実施することもできる。
Further, the present invention can be configured as a program executed by the time-series data analysis device according to the present invention as described above.
Furthermore, the present invention can also be implemented as a method that can be implemented by the time-series data analysis device and program according to the present invention as described above.

本発明によれば、複数の時系列データからなるデータについて、時間方向に区分されたデータ間の相関性を数値化することができる。
これによって、周期性を持つ複数の入力からなる時系列データについて、それらの時空間的な関係性を考慮した特徴量の抽出及び可視化が可能となり、例えば複数の非画像データを1枚の画像データに圧縮・生成することができ、非画像データである複数の時系列データを、機械学習・深層学習に適用可能なデータに変換することができるようになる。
According to the present invention, it is possible to quantify the correlation between data divided in the time direction for data consisting of a plurality of time series data.
This makes it possible to extract and visualize features of time-series data consisting of multiple inputs with periodicity, taking into account their spatiotemporal relationships. For example, multiple non-image data can be combined into one image data. It becomes possible to compress and generate multiple time-series data, which is non-image data, into data that can be applied to machine learning and deep learning.

本発明の一実施形態に係る時系列データ解析装置の構成を示す機能ブロック図である。FIG. 1 is a functional block diagram showing the configuration of a time-series data analysis device according to an embodiment of the present invention. 時系列データ解析装置の処理対象となるデータを模式的に示す説明図であり、(a)は観測対象から取得される観測データを、(b)は観測データを分割して得られる部分時系列データ集合を示している。FIG. 2 is an explanatory diagram schematically showing data to be processed by a time-series data analysis device, in which (a) shows observation data obtained from an observation target, and (b) shows a partial time series obtained by dividing the observation data. Shows a data set. 時系列データ解析装置の処理対象となるデータを模式的に示す説明図であり、(a)は部分時系列データ集合を、(b)は部分時系列データに基づく相関性のデータを、(c)は部分時系列データに基づく相関性を2次元配列にマッピングしたデータを示している。FIG. 3 is an explanatory diagram schematically showing data to be processed by a time series data analysis device, in which (a) shows a partial time series data set, (b) shows correlation data based on the partial time series data, and (c ) indicates data in which correlations based on partial time series data are mapped into a two-dimensional array. 時系列データ解析装置の処理対象となるデータを模式的に示す説明図であり、(a)は部分時系列データに基づく相関性を2次元配列にマッピングしたデータを、(b)は(a)に示すマッピングの配列の値を輝度に変換(画像化)したデータを示している。FIG. 2 is an explanatory diagram schematically showing data to be processed by a time-series data analysis device, in which (a) shows data in which correlations based on partial time-series data are mapped into a two-dimensional array; This shows the data obtained by converting the values of the mapping array shown in (image) into luminance (image formation). 時系列データ解析装置の処理対象となるデータを模式的に示す説明図であり、(a)は複数の入力に対応した輝度変換画像を、(b)は複数の輝度変化観測画像を重ね合わせたものを示している。FIG. 2 is an explanatory diagram schematically showing data to be processed by a time-series data analysis device, in which (a) shows a brightness-converted image corresponding to multiple inputs, and (b) shows a plurality of brightness change observed images superimposed. showing something. 時系列データ解析装置における、処理動作を示すフローチャートであり、(a)は画像出力を行わない場合、(b)は画像出力を行う場合を示している。2 is a flowchart showing processing operations in the time-series data analysis device, in which (a) shows a case where image output is not performed, and (b) shows a case where image output is performed. 時系列データ解析装置のハードウェア構成を示すブロック図である。FIG. 2 is a block diagram showing the hardware configuration of a time-series data analysis device.

以下、本発明に係る時系列データ解析装置及びプログラムの実施形態について、図面を参照しつつ説明する。
ここで、以下に示す本発明の時系列データ解析装置は、プログラム(ソフトウェア)の命令によりコンピュータで実行される処理,手段,機能によって実現される。プログラムは、コンピュータの各構成要素に指令を送り、以下に示す本発明に係る所定の処理や機能等を行わせることができる。すなわち、本発明における各処理や手段,機能は、プログラムとコンピュータとが協働した具体的手段によって実現される。
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments of a time-series data analysis device and a program according to the present invention will be described with reference to the drawings.
Here, the time series data analysis apparatus of the present invention described below is realized by processes, means, and functions executed by a computer according to instructions of a program (software). The program can send commands to each component of the computer to cause it to perform predetermined processing, functions, etc. related to the present invention as described below. That is, each process, means, and function in the present invention is realized by specific means in which a program and a computer cooperate.

なお、プログラムの全部又は一部は、例えば、磁気ディスク,光ディスク,半導体メモリ,その他任意のコンピュータで読取り可能な記録媒体により提供され、記録媒体から読み出されたプログラムがコンピュータにインストールされて実行される。また、プログラムは、記録媒体を介さず、通信回線を通じて直接にコンピュータにロードし実行することもできる。
また、本システムは、単一の情報処理装置(例えば一台のパーソナルコンピュータ等)で構成することもでき、複数の情報処理装置(例えば複数台のサーバコンピュータ群等)で構成することもできる。
Note that all or part of the program is provided by, for example, a magnetic disk, optical disk, semiconductor memory, or any other computer-readable recording medium, and the program read from the recording medium is installed on the computer and executed. Ru. Further, the program can also be directly loaded and executed on a computer through a communication line without using a recording medium.
Furthermore, this system can be configured with a single information processing device (for example, one personal computer, etc.) or can be configured with a plurality of information processing devices (for example, a group of multiple server computers, etc.).

[全体構成]
図1に示すように、本発明の一実施形態に係る時系列データ解析装置10は、観測対象100で生成される、複数のセンサ1~nで取得・出力可能な複数の時系列データを受信して、所定のデータ解析処理を実行し、その解析処理結果を任意の機械学習装置200に対して入力できる装置・手段となっている。
時系列データ解析装置10・観測対象(センサ1~n)・機械学習装置200は、例えば有線・無線を介してデータ送受信できるようにオンラインで接続されるようにすることができる。また、時系列データ解析装置10・観測対象(センサ1~n)・機械学習装置200は、それぞれオフラインとされ、必要なデータを例えば記録媒体等を介して互いに送受信できるようにすることもできる。
[overall structure]
As shown in FIG. 1, a time series data analysis device 10 according to an embodiment of the present invention receives a plurality of time series data generated by an observation target 100 that can be acquired and output by a plurality of sensors 1 to n. It is a device/means that can perform predetermined data analysis processing and input the analysis processing results to any machine learning device 200.
The time-series data analysis device 10, the observation targets (sensors 1 to n), and the machine learning device 200 can be connected online so that they can transmit and receive data via wires or wirelessly, for example. Furthermore, the time-series data analysis device 10, the observation targets (sensors 1 to n), and the machine learning device 200 can each be set offline so that they can send and receive necessary data to and from each other via, for example, a recording medium.

[観測対象]
観測対象100は、時系列データ解析装置10によるデータ解析・可視化(画像化)処理の対象となる時系列データを生成させる対象となるものであり、例えばPETボトル容器や缶容器の生産システム・生産設備・製品などである。
具体的には、本発明における「観測対象」とは、何らかの課題を解決するために人間が定めた「監視対象物」あるいは「現象」であり、2種類以上の時系列データを生成するものであれば、本発明が適用可能な「観測対象」となり得るものである。
[observation target]
The observation target 100 is a target for generating time series data that is subject to data analysis and visualization (imaging) processing by the time series data analysis device 10, and is, for example, a production system and production of PET bottle containers and can containers. Equipment, products, etc.
Specifically, the "observation target" in the present invention is a "object to be monitored" or a "phenomenon" determined by humans to solve some problem, and is one that generates two or more types of time-series data. If so, it can be an "observation target" to which the present invention can be applied.

例えば、本発明が想定する適用先としては、生産技術分野の異常検知・異常原因推定の対象となるものであり、したがって、主な「観測対象」としては、(1)生産システム(ライン),(2)生産設備,(3)製品、及び(4)それらのモデル、などがある。ここで「モデル」とは、コンピュータ上で計算されるシミュレーションモデルや統計モデル,機械学習モデルなどを指す。
図1では、説明の便宜上、観測対象100として、PETボトル容器の製造ラインを模式的に表した平面図を示している。但し、特にこれに限定されるものではないことは勿論である。
For example, the present invention is expected to be applied to abnormality detection and abnormality cause estimation in the production technology field, and therefore, the main "observation targets" include (1) production systems (lines); These include (2) production equipment, (3) products, and (4) their models. Here, the term "model" refers to a simulation model, statistical model, machine learning model, etc. calculated on a computer.
In FIG. 1, for convenience of explanation, a plan view schematically showing a manufacturing line for PET bottle containers is shown as an observation target 100. However, it goes without saying that it is not particularly limited to this.

また、本発明において「観測対象が生成する・・・」の「生成する」という表現は、「観測対象から取得される・・・」という表現と等価であり、観測対象から得られる任意の観測データ(時系列データ)が、本発明の解析処理対象となることを意味している。
また、本発明における「時系列データ」とは、上記のような所与の観測対象から生成・取得される値(データ)を、測定可能な時間分解能の下で、(1)連続的あるいは一定時間ごとに取得した観測値の集合、もしくは(2)不定時間間隔で取得し、連続あるいは一定時間ごとの値に補間・推定した観測値の集合である。
Furthermore, in the present invention, the expression "generates" in "observation target generates..." is equivalent to the expression "obtained from observation target...", and any observation obtained from observation target This means that the data (time series data) is subject to analysis processing of the present invention.
In addition, "time series data" in the present invention refers to values (data) generated and obtained from a given observation target as described above, which are (1) continuously or constantly It is a set of observed values obtained at each time, or (2) a set of observed values obtained at irregular time intervals and interpolated and estimated into continuous or fixed time values.

したがって、「観測対象が生成する観測データ/時系列データ」とは、例えば、対象物が発する温度や湿度,圧力,振動など、一定時間/不定時間で取得・検知可能な任意の値であり、例えば温度センサや圧力センサ等で計測される値や、監視員・作業員等の人間が目視や人手によって取得できる値であっても良い。
そして、以上のように観測対象100によって生成・出力される2種類以上(1~n個)の時系列データが、センサ1~n等の手段を介してデータ・信号として取得され、そのデータが、時系列データ解析装置10に入力されるようになっている。
Therefore, "observation data/time-series data generated by an observation object" is any value that can be acquired and detected in a fixed/indeterminate period of time, such as temperature, humidity, pressure, vibration, etc. emitted by the object. For example, it may be a value measured by a temperature sensor, a pressure sensor, etc., or a value that can be obtained visually or manually by a person such as a supervisor or worker.
Then, two or more types of time series data (1 to n pieces) generated and output by the observation target 100 as described above are acquired as data/signals via means such as sensors 1 to n, and the data is , are input to the time series data analysis device 10.

図1では、観測対象100となるPETボトル容器の製造ラインを監視する複数のセンサ1~nによって、一定時間/不定時間に亘って温度や圧力等の複数の時系列データが取得されることを示しており、その一例として、図2(a)には、3つのセンサ1~3によって取得された3つの入力データ(入力1~3)を示している。但し、特にこれらに限定されるものではないことは勿論である。
なお、説明の便宜上、図1では、観測対象100とそれを監視する複数のセンサ1~nを、一つ(一組)のみ表しており、また、図2(a)では、3つの観測データ(入力1~3)を示しているが、特にこれに限定されるものではなく、複数の観測対象を同時並行的に時系列データ解析装置10の対象とすることができることは勿論である。
In FIG. 1, a plurality of time-series data such as temperature and pressure are acquired over a fixed/indeterminate period of time by a plurality of sensors 1 to n that monitor a production line for PET bottle containers, which is an observation target 100. As an example, FIG. 2A shows three input data (inputs 1 to 3) acquired by three sensors 1 to 3. However, it goes without saying that it is not particularly limited to these.
For convenience of explanation, FIG. 1 shows only one (one set) of the observation target 100 and the plurality of sensors 1 to n that monitor it, and FIG. 2(a) shows three pieces of observation data. (Inputs 1 to 3) are shown, but the invention is not particularly limited to this, and it goes without saying that a plurality of observation targets can be simultaneously targeted by the time-series data analysis device 10.

[時系列データ解析装置]
時系列データ解析装置10は、例えば、1又は2以上のサーバコンピュータやパーソナルコンピュータ、クラウドコンピューティングサービス上に構築された1又は2以上の仮想サーバからなるサーバシステム等、所定のプログラム(ソフトウェア)が実装された情報処理装置によって構成することができ、本発明の時系列データ解析装置を構成している。
そして、本実施形態に係る時系列データ解析装置10は、図1に示すように、観測データ格納手段11,部分時系列データ格納手段12,特徴量配列格納手段13,特徴量配列出力手段14,画像生成手段15,画像出力手段16,多チャンネル画像出力手段17の各手段として機能・動作するように構成される。
[Time series data analysis device]
The time series data analysis device 10 is configured to run a predetermined program (software), such as a server system consisting of one or more server computers, personal computers, or one or more virtual servers built on a cloud computing service. The time-series data analysis device of the present invention can be configured by a mounted information processing device.
As shown in FIG. 1, the time series data analysis device 10 according to the present embodiment includes an observation data storage means 11, a partial time series data storage means 12, a feature array storage means 13, a feature array output means 14, It is configured to function and operate as each of image generation means 15, image output means 16, and multi-channel image output means 17.

観測データ格納手段11は、上述した観測対象100が生成する時系列データからなる2種類以上の観測データを、例えば時系列データ解析装置10が備える所定の記憶手段などに格納する。
観測データ格納手段11によって格納・記憶される時系列データは、上述したように、一定時間/不定時間に亘って温度や圧力等のデータであり、例えば温度等の検出値と検出時刻を示す複数の情報が、時系列に沿って観測対象100毎に格納・記憶される(図2(a)参照)。
The observation data storage means 11 stores two or more types of observation data made up of time series data generated by the observation target 100 described above in, for example, a predetermined storage means provided in the time series data analysis device 10.
As described above, the time series data stored and memorized by the observation data storage means 11 is data such as temperature and pressure over a fixed/indeterminate period of time, and for example, a plurality of data indicating detected values such as temperature and detection times. The information is stored for each observation target 100 in chronological order (see FIG. 2(a)).

部分時系列データ格納手段12は、観測データ格納手段11によって格納・保持された複数の観測データに基づいて、所定の部分時系列データを生成・格納する。
具体的には、部分時系列データ格納手段12は、時系列データ解析装置10に格納・保持された複数の観測データのうち、選択された1種類の観測データを所定の期間ごとに分割するとともに、選択された1種類の観測データ以外の全ての観測データを所定の期間によって分割し、部分時系列データを生成する。そして、それらを部分時系列データの集合として、例えば時系列データ解析装置10が備える所定の記憶手段などに格納・記憶させる。
The partial time series data storage means 12 generates and stores predetermined partial time series data based on the plurality of observation data stored and held by the observation data storage means 11.
Specifically, the partial time series data storage means 12 divides one type of observation data selected from among the plurality of observation data stored and held in the time series data analysis device 10 for each predetermined period. , all observation data other than the selected one type of observation data are divided into predetermined periods to generate partial time series data. Then, they are stored as a set of partial time-series data in, for example, a predetermined storage means provided in the time-series data analysis device 10.

部分時系列データ格納手段12で生成される部分時系列データの集合の一例を図2(b)に示す。
同図に示すように、部分時系列データ格納手段12では、まず、複数の観測データのうち1つの観測データに着目して、所定の期間(区間幅)で時間軸方向に観測データを区分して、部分時系列データの集合を作成する。
次に、部分時系列データ格納手段12では、上述した所定の区間幅を用いて他の観測データについても、同様に各観測データ毎の部分時系列データの集合を作成する。
An example of a set of partial time series data generated by the partial time series data storage means 12 is shown in FIG. 2(b).
As shown in the figure, the partial time series data storage means 12 first focuses on one piece of observation data out of a plurality of pieces of observation data, and segments the observation data in the time axis direction by a predetermined period (section width). Create a set of partial time series data.
Next, the partial time series data storage means 12 similarly creates a set of partial time series data for each observation data for other observation data using the above-mentioned predetermined interval width.

ここで、部分時系列データを生成するための所定の期間(区間幅)としては、例えば1秒間隔,数秒間隔など、対象となる観測データの出力特性や周期などに応じて適切な時間を設定することができる。
特に、この所定の期間としては、対象となる観測データ内の全ての時系列データにおける最低周期以上の長さを設定することが望ましい。
所定の期間を観測データの周期以下の長さに設定した場合、分割した各期間内において、観測データが示す値の上限値・下限値が含まれない平坦な波形によって部分時系列データが生成されてしまい、後述する所定計算による求められる特徴量として、変化の少ない同じようなデータが生成されてしまう可能性がある。そこで、部分時系列データ格納手段12では、時系列データを分割する所定の期間については、対象となる全ての時系列データにおける最低周期以上の長さに設定することが好ましい(図2(b)参照)。
Here, as the predetermined period (interval width) for generating partial time series data, set an appropriate time, such as one second interval or several seconds interval, depending on the output characteristics and period of the target observation data. can do.
In particular, it is desirable to set this predetermined period to a length that is equal to or longer than the lowest cycle of all time series data in the target observation data.
If the predetermined period is set to a length shorter than the period of observation data, partial time series data will be generated within each divided period using a flat waveform that does not include the upper and lower limits of the values indicated by the observation data. Therefore, there is a possibility that similar data with little variation may be generated as the feature quantity obtained by the predetermined calculation described later. Therefore, in the partial time-series data storage means 12, it is preferable to set the predetermined period for dividing the time-series data to a length equal to or longer than the minimum period in all the target time-series data (see FIG. 2(b)). reference).

特徴量配列格納手段13は、以上のようにして部分時系列データ格納手段12で生成された部分時系列データの集合に基づいて、複数の各部分時系列データ毎に特徴量の注出・変換処理を実行し、変換データを生成・格納する。
図3に、部分時系列データに基づく特徴量配列への注出・変換処理の一例を示す。
同図に示すように、特徴量配列格納手段13は、部分時系列データ(図3(a)参照)を、所定の2次元配列データ(図3(c)参照)に変換・生成する。
The feature array storage means 13 extracts and transforms the feature values for each of the plurality of partial time series data based on the set of partial time series data generated by the partial time series data storage means 12 as described above. Executes processing and generates and stores converted data.
FIG. 3 shows an example of extraction/conversion processing into a feature array based on partial time series data.
As shown in the figure, the feature array storage means 13 converts and generates partial time series data (see FIG. 3(a)) into predetermined two-dimensional array data (see FIG. 3(c)).

具体的には、特徴量配列格納手段13は、図3(c)に示すように、第1軸(例えば横軸)を時系列データの種類とし、第2軸(例えば縦軸)を部分時系列データの観測時刻とした2次元配列データを生成する。
そのために、特徴量配列格納手段13は、2次元配列の各配列要素として、基準要素とそれに対比される対比要素とを抽出・選択する。
まず、基準要素は、部分時系列データの各要素(図3(a)参照)のうち、選択された1種類の観測データの観測時刻が最も新しい(遅い)要素が基準要素として抽出・決定される。
基準要素に対比される対比要素は、基準要素以外の全要素のうち、配列要素の第1軸及び第2軸から同定される部分時系列データのいずれか一の要素が、一つずつ順番に抽出・選択される。
Specifically, as shown in FIG. 3(c), the feature array storage means 13 sets the first axis (for example, the horizontal axis) as the type of time series data, and the second axis (for example, the vertical axis) as the type of time series data. Generate two-dimensional array data with observation times of series data.
To this end, the feature array storage means 13 extracts and selects a reference element and a comparison element to be compared with it as each array element of the two-dimensional array.
First, among the elements of the partial time series data (see Figure 3(a)), the element with the latest (latest) observation time of one type of selected observation data is extracted and determined as the reference element. Ru.
The contrast elements to be compared with the reference element are the elements of the partial time series data identified from the first axis and the second axis of the array element, one by one, among all the elements other than the reference element. Extracted and selected.

なお、部分時系列データの基準要素/対比要素の抽出・決定は、上記の場合だけでなく、他の方法(条件)によって行うこともできる。
例えば、基準要素の決定方法としては、上述した観測時刻が最も新しい(遅い)部分時系列データを基準要素とする場合だけでなく、観測時刻が最も古い(早い)部分時系列データを基準要素とすることもできる。
また、部分時系列データ集合の全要素の中の任意の一の要素を指定して、基準要素として抽出・決定することもできる。
そして、以上のようにして抽出された基準要素/対比要素の2つの要素の組合せに基づいて、所定の計算方法により特徴量が計算され(図3(b)参照)、全ての要素について算出された特徴量が、図3(c)に示すような特徴量の2次元配列として格納・生成される。
Note that the extraction and determination of reference elements/comparison elements of partial time series data can be performed not only in the above case but also in other methods (conditions).
For example, the reference element can be determined not only by using the partial time series data with the latest (latest) observation time as described above, but also by using the partial time series data with the oldest (early) observation time as the reference element. You can also.
Furthermore, any one element among all the elements of the partial time series data set can be specified and extracted and determined as the reference element.
Then, based on the combination of the two elements, the reference element/contrast element, extracted as described above, feature quantities are calculated using a predetermined calculation method (see Figure 3(b)), and the features are calculated for all elements. The feature amounts are stored and generated as a two-dimensional array of feature amounts as shown in FIG. 3(c).

図3に示す例では、部分時系列データの要素のうち、[入力1]の観測時刻が最も新しい[入力1:-0τ]の要素を基準要素とし、それ以外の他の要素のいずれか一つ、例えば[入力2:-0τ]の要素を対比要素として(図3(a)参照)、両者の相関性を算出し、基準要素を基準(1)とした対比要素の値(0.1223・・・)を算出する。
具体的には、図3(b)に示すように、一軸(例えば横軸)を「入力1」、他の一軸(例えば縦軸)を「入力2」として、各部分時系列データの値をプロットすることにより、両要素(入力1・入力2)間の相関性(特徴量)を求めることができる。
In the example shown in Figure 3, among the elements of the partial time series data, the element whose observation time of [Input 1] is the latest [Input 1: -0τ] is used as the reference element, and any other element is used as the reference element. For example, using the element [input 2: -0τ] as a contrast element (see Figure 3(a)), calculate the correlation between the two, and calculate the value of the contrast element with the reference element as the reference (1) (0.1223 ...) is calculated.
Specifically, as shown in Figure 3(b), one axis (for example, the horizontal axis) is set as "input 1" and the other axis (for example, the vertical axis) is set as "input 2", and the values of each partial time series data are By plotting, the correlation (feature amount) between both elements (input 1 and input 2) can be determined.

そして、このようにして求められた部分時系列データの各要素の特徴量を示す値を、図3(c)に示すように、第1軸(横軸)を時系列データの種類とし、第2軸(縦軸)を部分時系列データの観測時刻とした2次元配列データとして配列することにより、各要素の相関性を示す2次元配列マッピングが生成されることになる。
このような2次元配列マッピングで示される特徴量配列は、図4に示すように、画像データと等価の情報となり、画像認識に基づく機械学習・深層学習にかけることが可能となり、その結果、非画像データであった時系列データを、機械学習・深層学習に適用可能なデータに変換できたことになる。
Then, as shown in FIG. 3(c), the values indicating the feature amount of each element of the partial time series data obtained in this way are set as the type of time series data on the first axis (horizontal axis), and By arranging the partial time series data as two-dimensional array data with two axes (vertical axis) as observation times of the partial time series data, a two-dimensional array mapping showing the correlation of each element is generated.
The feature array represented by such two-dimensional array mapping becomes information equivalent to image data, as shown in Figure 4, and can be applied to machine learning and deep learning based on image recognition. This means that time series data, which was image data, could be converted into data that can be applied to machine learning and deep learning.

さらに、以上のような2次元配列マッピングは、[入力1]だけでなく、[入力2],[入力3]についても、それぞれ同様に観測時刻が最も新しい[-0τ]の要素を基準要素として、他の各要素との相関性を算出し、2次元配列マッピングを生成することができる(図5参照)。
このように、種類の異なる複数の時系列データ(入力1~3)について、それぞれ2次元配列マッピングを変換・生成することで、図5に示すように、それら複数のマッピングデータを重ねることで、画像データと同様にテンソル化することができ、例えば、各時系列データ(入力1~3)で異なる検出タイミングや時刻のずれ、応答の遅れ等があっても、それら時空間的な関係性を考慮した特徴量抽出と、それに基づく可視化(画像化)が可能となる。
Furthermore, in the above two-dimensional array mapping, not only [Input 1] but also [Input 2] and [Input 3], the element with the latest observation time [-0τ] is used as the reference element. , the correlation with each other element can be calculated, and a two-dimensional array mapping can be generated (see FIG. 5).
In this way, by converting and generating two-dimensional array mappings for multiple time series data of different types (inputs 1 to 3), as shown in Figure 5, by overlapping these multiple mapping data, It can be converted into a tensor in the same way as image data, and for example, even if each time series data (inputs 1 to 3) has different detection timing, time lag, response delay, etc., their spatiotemporal relationships can be understood. It becomes possible to take into account feature extraction and visualization (imaging) based on it.

なお、基準要素・対比要素の相関性を求める所定の計算方法としては、公知の計算方法を用いることができ、例えば、共分散,相関係数,HSIC,MICのうち、少なくともいずれかを用いることが好ましい。
これら公知の計算方法は、データ特性に応じて選択的に使い分けることができ、例えば、時系列データで得られた値の分布が直線上に乗っている(全体的傾向がある)場合には共分散や相関係数が適しており、データ値が直線上に乗っていない場合(曲線上に分布する場合)にはHSICやMICが適している。
したがって、観測対象100の種類や時系列データの特性などを考慮して、データに応じて計算方法を選択的に使い分けることができ、あるいは、実行可能な計算方法を全て用いることで、最も好ましい算出結果を採用することも可能であり、上述した公知の計算方法の少なくともいずれか一つを用いることが望ましい。
Note that a known calculation method can be used as the predetermined calculation method for determining the correlation between the reference element and the contrast element. For example, at least one of covariance, correlation coefficient, HSIC, and MIC may be used. is preferred.
These known calculation methods can be used selectively depending on the data characteristics. For example, when the distribution of values obtained from time series data is on a straight line (there is an overall trend), they can be used selectively. Dispersion and correlation coefficients are suitable, and HSIC and MIC are suitable when the data values are not on a straight line (distributed on a curve).
Therefore, it is possible to selectively use calculation methods depending on the data, taking into account the type of observation target 100 and the characteristics of time-series data, or to calculate the most preferable calculation method by using all possible calculation methods. It is also possible to use the results, and it is desirable to use at least one of the above-mentioned known calculation methods.

以上のようにして、特徴量配列格納手段13は、複数の時系列データから得られた部分時系列データ集合に対し、集合の2要素に対応する1つの特徴量を計算し、その計算値を2次元配列上に割り付けることで、画像と等価の2次元配列マッピングを変換・生成することができる。
得られた2次元配列マッピングデータ(特徴量配列)は、特徴量配列出力手段14により出力され、任意の機械学習装置200に入力されることで、機械学習・深層学習の対象とすることができる。
さらに、特徴量配列出力手段14により出力される特徴量配列は、画像生成手段15に入力されることで、人間が視覚により認識可能な画像データに画像化・可視化することができる。
As described above, the feature array storage means 13 calculates one feature corresponding to two elements of the set for a partial time series data set obtained from a plurality of time series data, and calculates the calculated value. By allocating it on a two-dimensional array, it is possible to convert and generate a two-dimensional array mapping equivalent to the image.
The obtained two-dimensional array mapping data (feature array) is output by the feature array output means 14 and inputted to any machine learning device 200, so that it can be used as a target for machine learning/deep learning. .
Further, the feature array outputted by the feature array output means 14 can be inputted into the image generation means 15 to be imaged and visualized into image data that can be visually recognized by humans.

画像生成手段15は、特徴量配列格納手段13で生成・変換された特徴量配列について、各特徴量配列の対応する要素の値を、それぞれ所定の変換方法により輝度に変換して、画像の各画素として格納することにより、所定の画像を生成する。
具体的には、画像生成手段15は、特徴量配列データで示される各要素の値を、所定の変換方法により輝度の値(例えば「0-255」の値)に変換し、数値の配列であった特徴量配列を実際の画像データに変換する。
The image generation means 15 converts the value of the corresponding element of each feature array generated and converted by the feature array storage means 13 into luminance by a predetermined conversion method, and converts each value of the image into luminance. By storing it as pixels, a predetermined image is generated.
Specifically, the image generation means 15 converts the value of each element indicated by the feature array data into a luminance value (for example, a value of "0-255") using a predetermined conversion method, and converts the value of each element indicated by the feature array data into a luminance value (for example, a value of "0-255"), and Convert the existing feature array to actual image data.

図4に示す例では、例えば基準要素(基準値)「1」を上界(最大)値として輝度「255」を割り当て、基準値に対する最小値「-0.495」を下界(最小)値として輝度「0」を割り当て、各要素の値をそれぞれ対応する輝度の値に変換することができる。
そして、変換された輝度に対応する画像を描画させることで、図4(a)に示す特徴量配列を、図4(b)に示す画像データに変換することができる。
In the example shown in FIG. 4, for example, brightness "255" is assigned to the reference element (reference value) "1" as the upper bound (maximum) value, and the minimum value "-0.495" with respect to the reference value is assigned as the lower bound (minimum) value. It is possible to assign a brightness of "0" and convert the value of each element into a corresponding brightness value.
Then, by drawing an image corresponding to the converted luminance, the feature amount array shown in FIG. 4(a) can be converted into the image data shown in FIG. 4(b).

変換・生成された画像データは、画像出力手段16によって出力され、例えば液晶ディスプレイ等の表示手段において画像表示され、また、プリンタ等の印刷手段により印刷されるようになる。
さらに、生成された画像データは、多チャンネル画像出力手段17によって、複数の観測データに対して、それぞれ画像を出力して出力画像集合とされ、当該出力画像集合をチャンネル方向に結合した、多チャンネルの2次元画像として出力することができる。
これによって、図5に示すように、種類の異なる複数の時系列データ(入力1~3)について、それぞれ特徴量配列が画像データに変換され、それらが多チャンネルの2次元画像としても生成・出力されるようになる。
The converted and generated image data is outputted by the image output means 16, displayed as an image on a display means such as a liquid crystal display, and printed by a printing means such as a printer.
Further, the generated image data is outputted by the multi-channel image output means 17 for each of the plural observation data to form an output image set, and the output image set is combined in the channel direction to form a multi-channel can be output as a two-dimensional image.
As a result, as shown in Figure 5, feature arrays are converted into image data for multiple time series data of different types (inputs 1 to 3), and these are also generated and output as multi-channel two-dimensional images. will be done.

このように特徴量配列データを画像データに変換して出力可能とすることで、画像認識可能な機械学習データに変換された画像と等価の特徴量配列を、さらに、人間が視覚により認識可能な実際の画像データとして出力・表示等させることができる。
これによって、観測対象100で生成される時系列データを画像として認識・把握することができ、観測対象100の管理者・作業者等が、画像データを視認することで、例えば生産システムの正常/異常を判断することができる。
また、複数の画像を重ねてテンソル化した多チャンネル画像データによって、例えば特定の入力センサに対していずれの要素の関係性が強い/弱い(画像が「白/黒」になる)といったことも識別可能となり、入力データの特性等に応じた判定・判断等を可能とすることできる。
By converting feature array data into image data and outputting it in this way, it is possible to convert the feature array data into image data that is equivalent to the image that has been converted into image-recognizable machine learning data, and to create a feature array that can be visually recognized by humans. It can be output and displayed as actual image data.
As a result, time-series data generated by the observation target 100 can be recognized and grasped as an image, and by visually checking the image data, managers and workers of the observation target 100 can, for example, determine whether the production system is normal or not. Abnormalities can be determined.
In addition, by using multi-channel image data obtained by overlapping multiple images and converting them into tensors, it is possible to identify, for example, whether any element has a strong or weak relationship with a particular input sensor (the image becomes "white/black"). This makes it possible to make judgments and determinations based on the characteristics of input data.

ここで、特徴量配列を画像に変換する所定の変換方法としては、上述した特徴量の計算手法(共分散,相関係数,HSIC,MIC)によって取り得る値の上界及び下界(又は最大値及び最初値)を数値範囲とする、特徴量配列を構成する画像のbit深度に応じた定義域において、輝度のスケーリングを行うことが好ましい。
特徴量配列を画像に変換するにあたり、実際に得られた特徴量の値の上界及び下界(又は最大値及び最初値)に合わせて輝度のスケーリングを行うこともできるが、その場合、実際に得られた特徴量の値の範囲が狭い場合、どの値もほぼ同様の輝度に変換されることになり、生成される画像は全体的にほぼ同色(グレー)の「ぼんやり」とした画像となってしまい、人間の視覚によって見た場合、特定の判定・判断等のつかないものとなってしまう可能性がある。
Here, as a predetermined conversion method for converting the feature array into an image, the upper and lower bounds (or maximum value It is preferable to perform brightness scaling in a domain corresponding to the bit depth of the image constituting the feature amount array, with a numerical range of (initial value and initial value).
When converting a feature array into an image, it is possible to scale the brightness according to the upper and lower bounds (or maximum and initial values) of the actually obtained feature values, but in that case, the actual If the range of values of the obtained feature quantity is narrow, all values will be converted to almost the same brightness, and the generated image will be a "vague" image with almost the same color (gray) as a whole. Therefore, when viewed with human vision, it may not be possible to make specific judgments or judgments.

そこで、画像生成手段15による画像生成・変換においては、特徴量の計算手法によって取り得る値の上界及び下界(又は最大値及び最初値)を数値範囲に対応して、画像のbit深度に応じた輝度のスケーリングを行うことが望ましい。
なお、観測対象100の種類や時系列データの特性などによっては、実際に得られる特徴量の範囲が比較的広範であったり、得られる特徴量の数が非常に多数であるような場合には、特徴量の計算手法によって取り得る値の上界及び下界(又は最大値及び最初値)よりも、狭い範囲や限定された範囲を基準として、輝度のスケーリングを行うことも勿論可能である。
Therefore, in image generation/conversion by the image generation means 15, the upper and lower bounds (or maximum value and initial value) of possible values are set according to the numerical range and according to the bit depth of the image. It is desirable to scale the brightness accordingly.
Note that depending on the type of observation target 100 and the characteristics of time-series data, the range of features that can actually be obtained may be relatively wide, or the number of features that can be obtained may be extremely large. Of course, it is also possible to perform brightness scaling based on a range narrower or more limited than the upper and lower bounds (or the maximum value and initial value) of values that can be taken by the feature amount calculation method.

また、以上のような画像生成手段15・画像出力手段16・多チャンネル画像出力手段17による画像生成・出力については、特徴量配列データに基づいて行われる機械学習装置200での機械学習・深層学習には必ずしも必要なものではない。すなわち、機械学習・深層学習にかけられるデータは、人間が視覚により認識・把握できる画像自体である必要はなく、画像データと等価の特徴量が2次元に配列された2次元配列マッピングデータであれば、機械学習・深層学習の処理データとして用いることができる。
したがって、例えば観測対象100の管理者・作業者等の人間が目で見て確認・判断等を行う必要がない場合には、画像生成手段15・画像出力手段16・多チャンネル画像出力手段17による画像生成・出力は必要なく(図6(a)参照)、その場合には、時系列データ解析装置10における画像生成手段15・画像出力手段16・多チャンネル画像出力手段17の構成自体を省略することができる。
In addition, regarding image generation and output by the image generation means 15, image output means 16, and multi-channel image output means 17 as described above, machine learning/deep learning is performed by the machine learning device 200 based on feature array data. is not necessarily necessary. In other words, the data to be subjected to machine learning/deep learning does not need to be the image itself that humans can visually recognize and grasp, but can be two-dimensional array mapping data in which features equivalent to image data are arranged in two dimensions. , can be used as processing data for machine learning/deep learning.
Therefore, for example, when there is no need for a human such as a manager or worker of the observation target 100 to visually confirm or judge, the image generation means 15, image output means 16, and multi-channel image output means 17 can be used. Image generation/output is not necessary (see FIG. 6(a)), and in that case, the configurations of the image generation means 15, image output means 16, and multichannel image output means 17 in the time series data analysis device 10 are omitted. be able to.

[機械学習装置]
機械学習装置200は、公知の機械学習プログラム・アルゴリズムが実装された任意の情報処理装置によって構成される。
上述した時系列データ解析装置10の解析処理によって、複数の波形(時系列データ)が、特徴量抽出・テンソル化(画像化)されたデータとして出力される。
そのデータが機械学習装置200に入力され学習処理されることにより、画像認識で培われた深層学習を、非画像データとして取得される時系列データについても適用することができるようになる。
なお、図1では、説明の便宜上、機械学習装置200を、一つのみ表しているが、特にこれに限定されるものではなく、複数の機械学習装置200に対して同時並行的に時系列データ解析装置10で得られたデータを提供・入力することができることは勿論である。
[Machine learning device]
The machine learning device 200 is configured by any information processing device in which a known machine learning program/algorithm is implemented.
Through the analysis process of the time-series data analysis device 10 described above, a plurality of waveforms (time-series data) are outputted as feature-value extracted and tensorized (imaged) data.
By inputting the data to the machine learning device 200 and performing learning processing, it becomes possible to apply deep learning cultivated in image recognition to time series data acquired as non-image data.
Note that in FIG. 1, for convenience of explanation, only one machine learning device 200 is shown, but the invention is not limited to this. Of course, data obtained by the analysis device 10 can be provided and input.

[動作]
次に、以上のような時系列データ解析装置10における具体的な処理・動作(時系列データ解析方法)について、図6を参照して説明する。
時系列データ解析装置10では、図6に示す一連の処理動作を自動実行することにより、観測対象100から取得された複数の時系列データの解析・画像化処理を実行することができる。
具体的には、図6に示すように、時系列データ解析装置10は、時系列データ入力(S01)→部分時系列集合の生成(S02)→基準部分時系列(S03)→部分時系列の選択(S04)→特徴量の計算(S05)→特徴量配列へ格納(S06)→特徴量配列出力(S07)→特徴量配列の輝度変換(S08)→輝度の画素への格納(S09)→画像出力(S10)の各処理を実行する。
以下、各処理の詳細を順次説明する。
[motion]
Next, specific processing and operation (time series data analysis method) in the time series data analysis device 10 as described above will be explained with reference to FIG. 6.
The time-series data analysis device 10 can analyze and image a plurality of time-series data acquired from the observation target 100 by automatically executing a series of processing operations shown in FIG.
Specifically, as shown in FIG. 6, the time series data analysis device 10 inputs time series data (S01) → generates a partial time series set (S02) → reference partial time series (S03) → generates a partial time series. Selection (S04) → Calculation of feature values (S05) → Store in feature array (S06) → Output of feature array (S07) → Brightness conversion of feature array (S08) → Storing brightness in pixels (S09) → Each process of image output (S10) is executed.
The details of each process will be explained below.

まず、図6(a)に沿って、特徴量配列についての画像データへの変換・出力を行わない場合について説明する。
観測対象100においては、時々刻々と時系列データが生成され、複数のセンサ1~nによって、2種類以上の時系列データが取得・出力され、図2(a)に示すような複数の時系列データが、時系列データ解析装置10に入力され(ステップ01)、観測データ格納手段11に格納・保持される(図2(a)参照)。
時系列データ解析装置10に入力・格納された複数の時系列データは、図2(b)に示すように、所定の期間(区間幅)で区分・分割された部分時系列データの集合として生成・格納される(ステップ02)。
First, with reference to FIG. 6A, a case will be described in which the feature array is not converted and outputted into image data.
In the observation target 100, time series data is generated every moment, and two or more types of time series data are acquired and output by the plurality of sensors 1 to n, and a plurality of time series data as shown in FIG. 2(a) are generated. Data is input to the time series data analysis device 10 (step 01), and is stored and held in the observation data storage means 11 (see FIG. 2(a)).
A plurality of time series data input and stored in the time series data analysis device 10 are generated as a set of partial time series data divided and divided into predetermined periods (section widths), as shown in FIG. 2(b). - Stored (step 02).

生成された部分時系列データ集合は、特徴量配列データに変換・生成される(ステップ03~06)。
まず、部分時系列データ集合を構成する全要素の中から、基準要素となる基準部分時系列が選択される(ステップ03)。基準要素となる部分時系列は、対象となる観測データの部分時系列データ集合の全要素のうち、観測時刻が最も新しい要素が基準要素として抽出・決定される。
次に、基準要素と対比される対比要素となる部分時系列が選択される(ステップ04)。対比要素となる部分時系列は、基準要素以外の部分時系列データ集合の各要素が、一つずつ順番に抽出・選択される。
The generated partial time series data set is converted and generated into feature array data (steps 03 to 06).
First, a reference partial time series serving as a reference element is selected from among all elements constituting the partial time series data set (step 03). For the partial time series to be the reference element, the element with the latest observation time is extracted and determined as the reference element among all the elements of the partial time series data set of the target observation data.
Next, a partial time series is selected as a comparison element to be compared with the reference element (step 04). For the partial time series to be contrasted elements, each element of the partial time series data set other than the reference element is sequentially extracted and selected one by one.

そして、選択された基準/対比の2つの部分時系列データについて、所定の計算方法により特徴量の計算が行われ(ステップ05)、算出された特徴量は、2次元の特徴量配列として生成・格納される(ステップ06)。
特徴量配列は、部分時系列データの各要素の特徴量を示す値が、第1軸(横軸)を時系列データの種類、第2軸(縦軸)を部分時系列データの観測時刻とした2次元配列からなり(図3(c)参照)、各要素の相関性を示す画像データと等価の情報であり(図4)、非画像データであった観測データ/時系列データが、機械学習・深層学習に適用可能なデータに変換されたことになる。
その後、時系列データ解析装置10で生成・格納された特徴量配列データは、任意の機械学習装置200に出力され(ステップ07)、機械学習・深層学習にかけることができる。
Then, features are calculated using a predetermined calculation method for the two selected reference/contrast partial time series data (step 05), and the calculated features are generated as a two-dimensional feature array. It is stored (step 06).
In the feature array, the values indicating the feature values of each element of the partial time series data are arranged such that the first axis (horizontal axis) is the type of time series data, and the second axis (vertical axis) is the observation time of the partial time series data. It consists of a two-dimensional array (see Figure 3 (c)), which is equivalent to image data that shows the correlation of each element (Figure 4), and observation data/time series data that was non-image data can be This means that the data has been converted to data that can be applied to training and deep learning.
Thereafter, the feature array data generated and stored by the time series data analysis device 10 is output to any machine learning device 200 (step 07), and can be subjected to machine learning/deep learning.

次に、図6(b)に沿って、特徴量配列についての画像データへの変換・出力が行われる場合について説明する。
なお、特徴量配列データを画像データに変換・出力する場合も、時系列データの入力から特徴量配列データの生成・格納までの処理動作については、図6(a)に示した画像出力を行わない場合と同様である(ステップ01~06)。
Next, along FIG. 6(b), a case will be described in which the feature array is converted and output into image data.
Note that when converting and outputting feature array data to image data, the image output shown in Figure 6(a) is performed for the processing operations from inputting time series data to generating and storing feature array data. It is the same as when there is no such information (steps 01 to 06).

ステップ06で生成・格納された特徴量配列の各要素の値が、所定の変換方法により輝度変換され(ステップ08)、変換された輝度が特徴量配列に対応する画素に格納され(ステップ09)、画像データが生成される。
画像データは、特徴量配列データで示される各要素の値を、所定の変換方法により輝度の値(例えば0-255)に置換され、数値の配列であった特徴量配列が画像に変換されたものである。
生成された画像データは、例えばディスプレイやプリンタを介して画像出力され(ステップ10)、観測対象100の管理者・作業者等が画像を視認・参照できるようになる。
The value of each element of the feature array generated and stored in step 06 is subjected to luminance conversion using a predetermined conversion method (step 08), and the converted luminance is stored in the pixel corresponding to the feature array (step 09). , image data is generated.
In the image data, the value of each element shown in the feature array data is replaced with a brightness value (for example, 0-255) using a predetermined conversion method, and the feature array, which was an array of numerical values, is converted into an image. It is something.
The generated image data is output as an image via, for example, a display or a printer (step 10), so that the administrator, operator, etc. of the observation target 100 can view and refer to the image.

なお、上述したように、特徴量配列データに基づいて行われる機械学習装置200での機械学習・深層学習には、人間が視覚により認識・把握できる画像データは必要ではない。
したがって、人間の視覚による画像の確認等が必要ない場合には、画像生成・出力に係るステップ08~10については省略することができる。
Note that, as described above, the machine learning/deep learning performed by the machine learning device 200 based on the feature array data does not require image data that can be visually recognized and grasped by humans.
Therefore, if human visual confirmation of the image is not required, steps 08 to 10 related to image generation and output can be omitted.

以上説明したように、時系列データ解析装置10によれば、観測対象100で生成・取得される複数の時系列データについて、時間方向に区分された部分時系列データに対するデータ間の相関性を数値化することが可能となる。
これによって、これまでの単なる同一時刻のデータ間について可視化(画像化)するのみであった従来技術とは異なり、生産システム(ライン)等の観測対象から時々刻々と生成・出力される複数の時系列データについて、データ間の適切な時刻合わせを行いつつ、各時系列データにおける応答の遅れ等の時空間的な関係性を考慮した特徴量の抽出及び可視化が可能となる。
As explained above, according to the time series data analysis device 10, for a plurality of time series data generated and acquired by the observation target 100, the correlation between data for partial time series data divided in the time direction is numerically calculated. It becomes possible to convert into
As a result, unlike conventional technology that only visualizes (images) data at the same time, this technology enables multiple time points that are generated and output from observation targets such as production systems (lines) from time to time. With regard to series data, it is possible to extract and visualize feature amounts while taking into account spatiotemporal relationships such as response delays in each time series data while performing appropriate time alignment between data.

したがって、例えばPETボトル容器や缶容器の生産システム・生産設備・製品などの観測対象から取得される複数の時系列データ(非画像データ)を、1枚の画像データとして生成・圧縮することが可能となり、時系列データ解析装置10で生成・出力された特徴量データ・画像データを任意の機械学習装置200にかけることにより、画像認識で培われた深層学習技術を、非画像データである時系列データに対しても適用することができるようになる。 Therefore, it is possible to generate and compress multiple time-series data (non-image data) obtained from observation targets such as production systems, production equipment, and products for PET bottle containers and can containers into one image data. By applying the feature data and image data generated and output by the time series data analysis device 10 to any machine learning device 200, deep learning technology cultivated in image recognition can be applied to time series data that is non-image data. It can also be applied to data.

なお、以上のような本実施形態に係る時系列データ解析装置10のハードウェア構成の一例は図7に示すとおりであり、CPU501,RAM502,ROM503,HDD504,入力装置505及び表示装置506を含む情報処理装置によって構成される。これらの構成要素はシステムバスで接続され、システムバスを介してデータのやり取りが行われる。CPU(Central Processing Unit)501は、中央処理装置ともいい、コンピュータの中心的な処理を行う部位であり、各装置の制御やデータの計算/加工を行う。RAM(Random Access Memory)502は、メモリ装置の一種で、データの消去・書き換えが可能なものであり、ROM(Read Only Memory)503は、半導体などを用いたメモリ装置の一種で、データ書き込みは製造時1回のみで、利用時には記録されたデータの読み出しのみできるものである。HDD(Hard Disk Drive)504は、磁性体の性質を利用し、情報を記録し読み出す補助記憶装置である。入力装置505は、使用者がコンピュータに対して操作指示を行うため、あるいは、文字等を入力するために使用され、具体的には、キーボード,マウス等で構成される。表示装置506は、例えば液晶ディスプレイ等で構成され、タッチパネル機能を有するものであってもよい。この他、図示しない通信機能も有し、この通信機能により他の端末との通信が可能となる。 An example of the hardware configuration of the time series data analysis device 10 according to the present embodiment as described above is as shown in FIG. It is composed of a processing device. These components are connected by a system bus, and data is exchanged via the system bus. A CPU (Central Processing Unit) 501, also called a central processing unit, is a part that performs central processing of a computer, and controls each device and calculates/processes data. A RAM (Random Access Memory) 502 is a type of memory device in which data can be erased and rewritten, and a ROM (Read Only Memory) 503 is a type of memory device using a semiconductor or the like, and data cannot be written. It can only be used once at the time of manufacture, and only the recorded data can be read out at the time of use. A HDD (Hard Disk Drive) 504 is an auxiliary storage device that records and reads information using the properties of a magnetic material. The input device 505 is used by the user to issue operating instructions to the computer or to input characters, etc., and specifically includes a keyboard, a mouse, and the like. The display device 506 may be configured with, for example, a liquid crystal display, and may have a touch panel function. In addition, it also has a communication function (not shown), and this communication function enables communication with other terminals.

以上、本発明について好ましい実施形態を示して説明したが、本発明は、上述した実施形態に限定されるものではなく、本発明の範囲で種々の変更実施が可能であることは言うまでもない。
例えば、上述した実施形態では、本発明が対象とする観測対象として、PETボトル容器の製造ラインを例にとって説明したが、本発明を適用可能な観測対象としては、2以上の時系列データが生成・出力可能な対象であれば、特に限定されるものではない。
Although the present invention has been described above with reference to preferred embodiments, it goes without saying that the present invention is not limited to the above-described embodiments, and that various modifications can be made within the scope of the present invention.
For example, in the above-mentioned embodiment, a PET bottle container manufacturing line was explained as an example of an observation target to which the present invention is applied, but an observation target to which the present invention can be applied is one in which two or more time series data are generated. - There are no particular limitations as long as the target can be output.

本発明は、例えば缶容器やPETボトル容器の製造ラインのような複数の時系列データを生成・出力する観測対象についてのデータ解析に好適な装置・方法として利用可能である。 INDUSTRIAL APPLICABILITY The present invention can be used as an apparatus and method suitable for data analysis on an observation target that generates and outputs a plurality of time-series data, such as a manufacturing line for can containers and PET bottle containers.

10 時系列データ解析装置
11 観測データ格納手段
12 部分時系列データ格納手段
13 特徴量配列格納手段
14 特徴量配列出力手段
15 画像生成手段
16 画像出力手段
17 多チャンネル画像出力手段
100 観測対象
200 機械学習装置
10 Time series data analysis device 11 Observation data storage means 12 Partial time series data storage means 13 Feature value array storage means 14 Feature value array output means 15 Image generation means 16 Image output means 17 Multi-channel image output means 100 Observation target 200 Machine learning Device

Claims (6)

観測対象が生成する時系列データからなる2種類以上の複数の観測データを格納する観測データ格納手段と、
前記観測データのうち、選択された1種類の観測データを所定の期間ごとに分割し、前記選択された1種類の観測データ以外の全ての前記観測データを前記所定の期間によって分割し、部分時系列データの集合として格納する部分時系列データ格納手段と、
第1軸を前記時系列データの種類とし、第2軸を前記部分時系列データの観測時刻とした2次元配列の各配列要素として、前記部分時系列データの各要素のうち、前記選択された1種類の観測データの観測時刻が最も新しい基準要素と、前記配列要素の前記第1軸及び前記第2軸から同定される前記部分時系列データのいずれか一の要素との、2つの要素の組合せに基づいて、所定の計算方法により特徴量を計算して特徴量配列として格納する特徴量配列格納手段と、
前記特徴量配列を出力する特徴量配列出力手段と、
を備えることを特徴とする時系列データ解析装置。
observation data storage means for storing a plurality of observation data of two or more types consisting of time series data generated by an observation target;
Among the observation data, one type of observation data selected is divided into predetermined periods, and all of the observation data other than the selected one type of observation data is divided into parts according to the predetermined period. Partial time series data storage means for storing as a set of series data;
As each array element of a two-dimensional array in which the first axis is the type of the time series data and the second axis is the observation time of the partial time series data, the selected Two elements: a reference element with the latest observation time of one type of observation data, and any one element of the partial time series data identified from the first axis and the second axis of the array element. a feature amount array storage means for calculating a feature amount using a predetermined calculation method based on the combination and storing it as a feature amount array;
Feature array output means for outputting the feature array;
A time series data analysis device comprising:
前記特徴量配列の対応する要素の値を、それぞれ所定の変換方法により輝度に変換して、画像の各画素として格納することにより、所定の画像を生成する画像生成手段と、
前記画像を出力する画像出力手段と、
を備えることを特徴とする請求項1に記載の時系列データ解析装置。
image generating means for generating a predetermined image by converting the values of corresponding elements of the feature array into luminances using a predetermined conversion method and storing the converted values as each pixel of the image;
image output means for outputting the image;
The time-series data analysis device according to claim 1, comprising:
前記複数の観測データに対して、それぞれ前記画像を出力して出力画像集合とするとともに、当該出力画像集合をチャンネル方向に結合して、多チャンネルの2次元画像として出力する多チャンネル画像出力手段、
を備えることを特徴とする請求項2に記載の時系列データ解析装置。
multi-channel image output means for outputting the images for each of the plurality of observation data to form an output image set, and combining the output image sets in the channel direction to output them as a multi-channel two-dimensional image;
The time-series data analysis device according to claim 2, comprising: a time-series data analysis device;
前記所定の期間として、
前記観測データ内の全ての時系列データにおける最低周期以上の長さを設定する
ことを特徴とする請求項1~3のいずれか一項に記載の時系列データ解析装置。
As the predetermined period,
The time series data analysis device according to any one of claims 1 to 3, characterized in that the length is set to be longer than the lowest period in all the time series data in the observation data.
前記所定の計算方法として、
共分散,相関係数,HSIC,MICのうち、少なくともいずれかを用いる
ことを特徴とする請求項1~4のいずれか一項に記載の時系列データ解析装置。
As the predetermined calculation method,
The time series data analysis device according to any one of claims 1 to 4, characterized in that at least one of covariance, correlation coefficient, HSIC, and MIC is used.
前記所定の変換方法として、
前記所定の計算手法によって取り得る値の上界及び下界を数値範囲とする、前記特徴量配列を構成する前記画像のbit深度に応じた定義域において、前記輝度のスケーリングを行う
ことを特徴とする請求項2に記載の時系列データ解析装置。
As the predetermined conversion method,
The brightness is scaled in a domain corresponding to the bit depth of the image constituting the feature array, in which the upper and lower bounds of values that can be obtained by the predetermined calculation method are numerical ranges. The time series data analysis device according to claim 2.
JP2019226048A 2019-12-16 2019-12-16 Time series data analysis device Active JP7419787B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019226048A JP7419787B2 (en) 2019-12-16 2019-12-16 Time series data analysis device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019226048A JP7419787B2 (en) 2019-12-16 2019-12-16 Time series data analysis device

Publications (2)

Publication Number Publication Date
JP2021096541A JP2021096541A (en) 2021-06-24
JP7419787B2 true JP7419787B2 (en) 2024-01-23

Family

ID=76431354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019226048A Active JP7419787B2 (en) 2019-12-16 2019-12-16 Time series data analysis device

Country Status (1)

Country Link
JP (1) JP7419787B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011008786A (en) 2009-06-25 2011-01-13 St Microelectronics (Rousset) Sas Authentication of terminal-transponder couple by the terminal
JP2011118785A (en) 2009-12-04 2011-06-16 Sony Corp Information processing apparatus, information processing method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011008786A (en) 2009-06-25 2011-01-13 St Microelectronics (Rousset) Sas Authentication of terminal-transponder couple by the terminal
JP2011118785A (en) 2009-12-04 2011-06-16 Sony Corp Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP2021096541A (en) 2021-06-24

Similar Documents

Publication Publication Date Title
US11551111B2 (en) Detection and use of anomalies in an industrial environment
KR102265525B1 (en) Method and system for diagnosing skin based on an artificial intelligence
JP6870346B2 (en) Data analysis systems, data analysis methods and programs
JP2007124880A (en) Method of forming input vector of nerve network for automatic inference of partial discharge causes
JP7040851B2 (en) Anomaly detection device, anomaly detection method and anomaly detection program
US20200184373A1 (en) Recurrent Gaussian Mixture Model For Sensor State Estimation In Condition Monitoring
JP2011248664A (en) Operation analysis device and operation analysis method
JP5746480B2 (en) Analysis result display device and analysis result display method
JP7419787B2 (en) Time series data analysis device
JP6015881B2 (en) Device that displays trends related to process variables
JP2022082277A (en) Detection program, detection device, and detection method
JP6888793B2 (en) Abnormality monitoring method and abnormality monitoring device
JP2015215709A (en) Apparatus data processor and apparatus data processing method
JP2018196427A (en) Skin condition evaluation method and skin condition evaluation device
JP7433648B2 (en) Anomaly detection method
JP6715397B1 (en) Data processing device, data processing method and program
JP7079465B2 (en) Evaluation method and evaluation system for estimating intimacy with an object
CN108874657A (en) The method, apparatus and computer storage medium that recognition of face host is tested
Hui et al. A comprehensive informative metric for analyzing HPC system status using the LogSCAN platform
Upham et al. Limits on the application of statistical correlations to continuous response data
JP2020144619A (en) Abnormality detecting device and abnormality detecting method
TWI829908B (en) Support system, method and computer program for improving production efficiency
CN114036648B (en) Ship body structure overall stress state acquisition method based on local stress correlation method
JP7099296B2 (en) Evaluation method, system construction method, and evaluation system
JP6932467B2 (en) State change detection device, state change detection system and state change detection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231225

R150 Certificate of patent or registration of utility model

Ref document number: 7419787

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150