JP6871352B1 - Learning equipment, learning methods and learning programs - Google Patents
Learning equipment, learning methods and learning programs Download PDFInfo
- Publication number
- JP6871352B1 JP6871352B1 JP2019230922A JP2019230922A JP6871352B1 JP 6871352 B1 JP6871352 B1 JP 6871352B1 JP 2019230922 A JP2019230922 A JP 2019230922A JP 2019230922 A JP2019230922 A JP 2019230922A JP 6871352 B1 JP6871352 B1 JP 6871352B1
- Authority
- JP
- Japan
- Prior art keywords
- model
- data
- loss
- unit
- update
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000013016 learning Effects 0.000 title claims abstract description 153
- 238000000034 method Methods 0.000 title claims abstract description 96
- 230000008569 process Effects 0.000 claims abstract description 66
- 238000004364 calculation method Methods 0.000 claims description 69
- 238000000605 extraction Methods 0.000 claims description 20
- 238000010586 diagram Methods 0.000 abstract description 13
- 238000012545 processing Methods 0.000 description 29
- 230000005856 abnormality Effects 0.000 description 14
- 238000012800 visualization Methods 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 9
- 238000013500 data storage Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 238000003066 decision tree Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 235000008733 Citrus aurantifolia Nutrition 0.000 description 1
- 235000011941 Tilia x europaea Nutrition 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004571 lime Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Testing And Monitoring For Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】モデルの精度を保ちつつ、モデルの解釈性に寄与する値を観測しやすい値で得ること。【解決手段】学習装置10は、複数のデータを取得し、取得した複数のデータを入力データとしてモデルに入力し、該モデルから出力される出力データを得た場合に、出力データと正解データに基づいて、モデルのロスを計算する。そして、学習装置10は、ロスが計算されるたびに、該ロスに応じてモデルの重みを更新する更新処理を繰り返し行う。また、学習装置10は、モデルの解釈性に寄与する値を計算し、ロスとモデルの解釈性に寄与する値とが所定の条件を満たした場合には、更新処理を終了させる。【選択図】図1PROBLEM TO BE SOLVED: To obtain a value which contributes to the interpretability of a model with an easily observable value while maintaining the accuracy of the model. SOLUTION: When a learning device 10 acquires a plurality of data, inputs the acquired plurality of data to a model as input data, and obtains output data output from the model, it becomes output data and correct answer data. Based on this, calculate the loss of the model. Then, each time the loss is calculated, the learning device 10 repeats the update process of updating the weight of the model according to the loss. Further, the learning device 10 calculates a value that contributes to the interpretability of the model, and ends the update process when the loss and the value that contributes to the interpretability of the model satisfy a predetermined condition. [Selection diagram] Fig. 1
Description
本発明は、学習装置、学習方法および学習プログラムに関する。 The present invention relates to learning devices, learning methods and learning programs.
従来、モデルの解釈性に寄与する値を抽出する手法が知られている。例えば、ニューラルネットワークの場合は、ニューラルネットワークの入出力の関係性を抽出する手法として、Saliency mapを始め複数提案されており、画像認識、時系列回帰を始め、様々な問題でモデルの判断根拠を示す目的で利用され、実システムでも利用されている。この手法で得られる入出力の関係性の数値は、ニューラルネットの学習済みモデルに対して入力サンプルごとに逆伝播を利用したアルゴリズムで計算される。 Conventionally, a method of extracting a value that contributes to the interpretability of a model has been known. For example, in the case of neural networks, multiple proposals have been made, including the Saliency map, as a method for extracting the input / output relationships of neural networks. It is used for the purpose of showing, and is also used in the actual system. The numerical value of the input / output relationship obtained by this method is calculated by an algorithm using back propagation for each input sample with respect to the trained model of the neural network.
また、ニューラルネットワーク以外の場合においても、任意のモデルに利用可能なLIMEやSHAPで得られる寄与度や、Gradient Boosting Treeを初めとする決定木を用いた手法で得られる入力の重要度を示すImportance Scoreもモデルの解釈として利用される。これらモデルの解釈性に寄与する値を以下アトリビューションと呼ぶ。 In addition, even in cases other than neural networks, Importance indicates the contribution obtained by LIMITE and SHAP that can be used for any model, and the importance of input obtained by a method using a decision tree such as Gradient Boosting Tree. Score is also used as an interpretation of the model. The values that contribute to the interpretability of these models are hereinafter referred to as attribution.
しかしながら、機械学習モデルのうち学習回数の条件を規定し逐次的な学習を行うモデルに対して、従来の学習方法では、モデルの解釈性に寄与する値を観測しやすい値で得ることが難しい場合があった。例えば、アトリビューションとして得られる値はモデルの学習経過に依存するため、ある一定回数の学習を行ってモデルから得られるアトリビューションは入出力の関係性を解釈可能な形で示せている(以下、アトリビューションが収束すると呼ぶ)ものもあれば、ノイズが入り理解が難しい場合も存在し、安定化させることは難しかった。 However, for a machine learning model in which the condition of the number of learnings is specified and sequential learning is performed, it is difficult to obtain a value that contributes to the interpretability of the model with an easily observable value by the conventional learning method. was there. For example, since the value obtained as an attribution depends on the learning process of the model, the attribution obtained from the model after a certain number of learnings shows the relationship between input and output in an interpretable form (). (Hereafter, it is called that attribution converges), and there are cases where noise is included and it is difficult to understand, so it was difficult to stabilize.
これはモデルの学習に対する終了基準は学習回数の決め打ちであるか、Early Stoppingに代表される精度が改善するか否かをもとに学習を打ち切る、またはハイパーパラメータ探索のように精度が一定値を超えることを利用するものが多く、アトリビューションがノイズなく得られることを保証するものではないためである。 This is because the end criterion for model learning is fixed number of trainings, training is stopped based on whether the accuracy represented by Early Stopping improves, or the accuracy is constant like hyperparameter search. This is because many of them utilize exceeding the above, and do not guarantee that attribution can be obtained without noise.
上述した課題を解決し、目的を達成するために、本発明の学習装置は、複数のデータを取得する取得部と、前記取得部によって取得された複数のデータを入力データとしてモデルに入力し、該モデルから出力される出力データを得た場合に、前記出力データと正解データに基づいて、前記モデルのロスを計算する第一の計算部と、前記第一の計算部によってロスが計算されるたびに、該ロスに応じて前記モデルの重みを更新する更新処理を繰り返し行う更新部と、前記モデルの解釈性に寄与する値を計算する第二の計算部と、前記第一の計算部によって計算されたロスと前記第二の計算部によって計算された値とが所定の条件を満たした場合には、前記更新処理を終了させる更新終了部と、を有することを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the learning device of the present invention inputs an acquisition unit for acquiring a plurality of data and a plurality of data acquired by the acquisition unit into a model as input data. When the output data output from the model is obtained, the loss is calculated by the first calculation unit that calculates the loss of the model and the first calculation unit based on the output data and the correct answer data. Each time, an update unit that repeatedly updates the weight of the model according to the loss, a second calculation unit that calculates a value that contributes to the interpretability of the model, and the first calculation unit It is characterized by having an update end unit that terminates the update process when the calculated loss and the value calculated by the second calculation unit satisfy a predetermined condition.
また、本発明の学習方法は、学習装置によって実行される学習方法であって、複数のデータを取得する取得工程と、前記取得工程によって取得された複数のデータを入力データとしてモデルに入力し、該モデルから出力される出力データを得た場合に、前記出力データと正解データに基づいて、前記モデルのロスを計算する第一の計算工程と、前記第一の計算工程によってロスが計算されるたびに、該ロスに応じて前記モデルの重みを更新する更新処理を繰り返し行う更新工程と、前記モデルの解釈性に寄与する値を計算する第二の計算工程と、前記第一の計算工程によって計算されたロスと前記第二の計算工程によって計算された値とが所定の条件を満たした場合には、前記更新処理を終了させる更新終了工程と、を含むことを特徴とする。 Further, the learning method of the present invention is a learning method executed by a learning device, in which an acquisition step of acquiring a plurality of data and a plurality of data acquired by the acquisition step are input to a model as input data. When the output data output from the model is obtained, the loss is calculated by the first calculation step of calculating the loss of the model and the first calculation step based on the output data and the correct answer data. By the update process of repeating the update process of updating the weight of the model according to the loss, the second calculation process of calculating the value contributing to the interpretability of the model, and the first calculation process of each time. When the calculated loss and the value calculated by the second calculation step satisfy a predetermined condition, the update end step of ending the update process is included.
また、本発明の学習プログラムは、複数のデータを取得する取得ステップと、前記取得ステップによって取得された複数のデータを入力データとしてモデルに入力し、該モデルから出力される出力データを得た場合に、前記出力データと正解データに基づいて、前記モデルのロスを計算する第一の計算ステップと、前記第一の計算ステップによってロスが計算されるたびに、該ロスに応じて前記モデルの重みを更新する更新処理を繰り返し行う更新ステップと、前記モデルの解釈性に寄与する値を計算する第二の計算ステップと、前記第一の計算ステップによって計算されたロスと前記第二の計算ステップによって計算された値とが所定の条件を満たした場合には、前記更新処理を終了させる更新終了ステップと、をコンピュータに実行させることを特徴とする。 Further, in the learning program of the present invention, when a acquisition step for acquiring a plurality of data and a plurality of data acquired by the acquisition step are input to a model as input data and output data output from the model is obtained. In addition, the first calculation step for calculating the loss of the model based on the output data and the correct answer data, and each time the loss is calculated by the first calculation step, the weight of the model is weighted according to the loss. By the update step of repeating the update process, the second calculation step of calculating the value contributing to the interpretability of the model, the loss calculated by the first calculation step, and the second calculation step. When the calculated value satisfies a predetermined condition, the computer is made to execute the update end step for ending the update process.
本発明によれば、モデルの精度を保ちつつ、モデルの解釈性に寄与する値を観測しやすい値で得ることができるという効果を奏する。 According to the present invention, it is possible to obtain a value that contributes to the interpretability of the model with an easily observable value while maintaining the accuracy of the model.
以下に、本願に係る学習装置、学習方法および学習プログラムの実施形態を図面に基づいて詳細に説明する。なお、この実施形態により本願に係る学習装置、学習方法および学習プログラムが限定されるものではない。 Hereinafter, the learning device, the learning method, and the embodiment of the learning program according to the present application will be described in detail with reference to the drawings. The learning device, learning method, and learning program according to the present application are not limited by this embodiment.
[第1の実施形態]
以下の実施形態では、第1の実施形態に係る学習装置10の構成、学習装置10の処理の流れを順に説明し、最後に第1の実施形態による効果を説明する。
[First Embodiment]
In the following embodiments, the configuration of the
[学習装置の構成]
まず、図1を用いて、学習装置10の構成を説明する。図1は、第1の実施形態に係る学習装置の構成例を示すブロック図である。学習装置10は、予め用意された学習データを用いて、モデルの重みを更新する処理を繰り返す学習処理を行う。学習装置10では、学習処理においてアトリビューションのノイズが減少することを保証するために、学習の終了条件にモデルの精度だけではなく、アトリビューションの値を考慮する。例えば、学習装置10は、アトリビューションのスパース性を測る尺度(例えば、アトリビューションスコアのL1ノルムやアトリビューションスコアのGINI係数)を学習の終了条件に適用し、精度が一定値以下になりかつスパース度も一定値以上になれば学習を終了とすることができる。
[Configuration of learning device]
First, the configuration of the
図1に示すように、この学習装置10は、通信処理部11、制御部12および記憶部13を有する。以下に学習装置10が有する各部の処理を説明する。
As shown in FIG. 1, the
通信処理部11は、接続される装置との間でやり取りする各種情報に関する通信を制御する。また、記憶部13は、制御部12による各種処理に必要なデータおよびプログラムを格納し、データ記憶部13aおよび学習済みモデル記憶部13bを有する。例えば、記憶部13は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子等の記憶装置である。
The communication processing unit 11 controls communication regarding various information exchanged with the connected device. Further, the
データ記憶部13aは、後述する取得部12aによって取得されるデータを記憶する。例えば、データ記憶部13aは、予め正解ラベルが付与された学習用のデータセットを記憶する。なお、データの種別は、複数の実数値からなるデータであればどのようなデータを記憶してもよく、例えば、工場、プラント、ビル、データセンタ等の対象機器に設けられたセンサのデータ(例えば、温度や圧力、音、振動等のデータ)であってもよいし、画像データのデータであってもよい。
The
学習済みモデル記憶部13bは、後述する学習処理によって学習された学習済みモデルを記憶する。例えば、学習済みモデル記憶部13bは、学習済みモデルとして、監視対象設備の異常を予測するためのニューラルネットワークの予測モデルを記憶する。 The learned model storage unit 13b stores the learned model learned by the learning process described later. For example, the trained model storage unit 13b stores the prediction model of the neural network for predicting the abnormality of the monitored equipment as the trained model.
制御部12は、各種の処理手順などを規定したプログラムおよび所要データを格納するための内部メモリを有し、これらによって種々の処理を実行する。例えば、制御部12は、取得部12a、第一の計算部12b、更新部12c、第二の計算部12dおよび更新終了部12eを有する。ここで、制御部12は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)、GPU(Graphical Processing Unit)などの電子回路やASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路である。
The
取得部12aは、複数のデータを取得する。例えば、取得部12aは、データ記憶部13aに記憶されたデータセットを読み出して取得する。ここでセンサが取得するデータとは、例えば、監視対象設備である工場、プラント内の装置や反応炉についての温度や圧力、音、振動等の各種データである。また、取得部12aが取得するデータはセンサが取得したデータに限定されるものではなく、例えば、画像データ、人的に入力された数値データ等でもよい。なお、取得部12aは、リアルタイムにデータを取得してもよい。例えば、取得部12aは、工場やプラントなどの監視対象設備に設置されるセンサから多変量時系列の数値データを定期的(例えば、1分ごと)に取得するようにしてもよい。
The
第一の計算部12bは、取得部12aによって取得された複数のデータを入力データとしてモデルに入力し、該モデルから出力される出力データを得た場合に、出力データと正解データに基づいて、モデルのロスを計算する。例えば、第一の計算部12bは、所定のロス関数を用いて、モデルのロスを計算する。なお、ロスの計算方法については、限定されるものではなく、どのような方法を用いてもよい。
The first calculation unit 12b inputs a plurality of data acquired by the
更新部12cは、第一の計算部12bによってロスが計算されるたびに、該ロスに応じてモデルの重みを更新する更新処理を繰り返し行う。更新部12cは、ロスの大きさに応じて重み(パラメータ)を更新する。なお、更新の手法については、限定されるものではなく、どのような手法であってもよい。 Each time the loss is calculated by the first calculation unit 12b, the update unit 12c repeats the update process of updating the weight of the model according to the loss. The update unit 12c updates the weight (parameter) according to the magnitude of the loss. The update method is not limited, and any method may be used.
第二の計算部12dは、モデルの解釈性に寄与する値を計算する。例えば、第二の計算部12dは、入力データおよび出力データに基づいて、入力データの各要素の出力データに対する寄与度であるアトリビューションを計算する。 The second calculation unit 12d calculates a value that contributes to the interpretability of the model. For example, the second calculation unit 12d calculates the attribution, which is the contribution of each element of the input data to the output data, based on the input data and the output data.
ここで、アトリビューションを計算する具体例について説明する。例えば、第二の計算部12dは、入力値から出力値を算出する学習済モデルにおいて、出力値の各入力値に関する偏微分値またはその概算値を用いて、各時刻におけるセンサごとに、アトリビューションを算出する。一例としては、第二の計算部12dは、Saliency Mapを用いて、各時刻におけるセンサごとに、アトリビューションを算出する。Saliency Mapは、ニューラルネットの画像分類において利用される技術であり、ニューラルネットの出力の各入力に関する偏微分値を出力に寄与するアトリビューションとして抽出する技術である。なお、Saliency Map以外の手法でアトリビューションを計算してもよい。 Here, a specific example of calculating attribution will be described. For example, the second calculation unit 12d uses the partial differential value or its approximate value for each input value of the output value in the trained model that calculates the output value from the input value, and attributs each sensor at each time. Calculate the input. As an example, the second calculation unit 12d uses the Saliency Map to calculate the attribution for each sensor at each time. Saliency Map is a technique used in the image classification of a neural network, and is a technique for extracting a partial differential value for each input of the output of the neural network as an attribution that contributes to the output. Attribution may be calculated by a method other than Saliency Map.
また、第二の計算部12dが計算するモデルの解釈性に寄与する値は、アトリビューションに限定されるものではなく、例えば、モデルの重みのスパース性を表す値であってもよい。 Further, the value that contributes to the interpretability of the model calculated by the second calculation unit 12d is not limited to attribution, and may be, for example, a value that represents the sparsity of the weight of the model.
更新終了部12eは、第一の計算部12bによって計算されたロスと第二の計算部12dによって計算された値とが所定の条件を満たした場合には、更新処理を終了させる。例えば、更新終了部12eは、第一の計算部12bによって計算されたロスが予め設定された閾値以下であって、且つ、第二の計算部12dによって計算された値が予め設定された閾値以下である場合には、更新処理を終了させるようにしてもよい。より具体的には、更新終了部12eは、ロスが所定の閾値以下であって、かつ、アトリビューションのL1ノルムが予め設定された閾値以下である場合には、更新処理を終了させる。
The
また、更新終了部12eは、更新終了部は、第一の計算部12bによって計算されたロスが前回計算されたロスよりも大きくなることが所定回数連続で続き、且つ、第二の計算部12dによって計算された値が前回計算された値よりも大きくなることが所定回数連続で続いた場合には、更新処理を終了させるようにしてもよい。より具体的には、更新終了部12eは、ロスが前回計算されたロスよりも大きくなることが5回連続で続き、且つ、アトリビューションのL1ノルムが前回計算されたアトリビューションのL1ノルムよりも大きくなることが5回連続で続いた場合には、更新処理を終了させるようにしてもよい。
Further, in the
ここで、図2を用いて、学習装置10によって実行される学習処理の概要を説明する。図2は、学習装置によって実行される学習処理の概要を説明する図である。図2に例示するように、学習装置10は、重みを更新するPhase1と、アトリビューションを計算するPhase2とを繰り返し行うことでモデルを学習している。また、学習装置10は、計算されたロスとアトリビューションの値をもとに学習を終了するか判定している。
Here, the outline of the learning process executed by the
Phase1においては、学習装置10は、学習データをモデルに入力してモデルから出力される出力データを取得し、該出力データと正解ラベルとに基づいてロスを計算し、ロスの大きさに応じて重みを更新する。
In Phase 1, the
続いて、Phase2においては、学習装置10は、検証データをモデルに入力してモデルから出力される出力データを取得し、入力データと出力データとに基づいてアトリビューションの計算を行う。また、学習装置10は、出力データと正解ラベルとに基づいてロスを計算する。なお、ここで検証データとは、Phase1においてモデルに入力した学習データと同じデータであってもよいし、異なるデータであってもよい。
Subsequently, in Phase 2, the
そして、学習装置10は、計算されたロスとアトリビューションの値をもとに学習を終了するか否かを判定する。例えば、学習装置10は、ロスが所定の閾値以下であって、かつ、アトリビューションのL1ノルムが予め設定された閾値以下である場合には、更新処理を終了させる。
Then, the
学習装置10は、モデルの解釈性に寄与する値として、アトリビューションを用いる場合には、例えば、下記(1)式によりアトリビューションのL1ノルムを計算する。下記の計算式において、「xij」は、入力データのサンプルi、特徴jの値である。また、下記の計算式において、「A」は、特徴とモデルからアトリビューションを計算する関数であり、「M」は、モデルである。
When attribution is used as a value that contributes to the interpretability of the model, the
また、学習装置10は、ロスが所定の閾値以下であって、かつ、モデルの重みのL1ノルムが予め設定された閾値以下である場合には、更新処理を終了させるようにしてもよい。例えば、学習装置10は、モデルの解釈性に寄与する値として、アトリビューション以外の値として、モデルの重みのL1ノルムを用いる場合には、例えば、下記(2)式によりモデルの重みのL1ノルムを計算する。下記の計算式において、「xijk」は、モデルのi層のノードjからノードkへの重みを意味する。
Further, the
この結果、学習装置10は、学習を終了すると判定した場合には、学習済みモデルを出力したり、学習済みモデル記憶部13bに学習済みモデルを格納したりする。また、学習装置10は、学習を終了すると判定した場合には、Phase1に戻って重みを更新する処理を行う。つまり、学習装置10は、学習を終了すると判定するまで、重みを更新するPhase1と、アトリビューションを計算するPhase2とを繰り返し行うことでモデルを学習する。
As a result, when the
このように、学習装置10では、学習においてアトリビューションのノイズが減少することを保証するために、学習の終了条件にモデルの精度だけではなく、アトリビューションンの値も導入する。例えば、学習装置10では、アトリビューションンのスパース性を測る尺度を学習の終了条件に適用し、精度が一定値以下になり、かつ、スパース度も一定値以上になれば学習を終了とすることができる。
As described above, in the
また、学習装置10では、学習の終了条件に直接アトリビューションの値が入っているため、今までの精度のみを終了条件とする学習で保証していなかったアトリビューションの収束を考慮でき、得られるアトリビューションのスコアの安定性を高めることができる。
Further, in the
また、学習曲線はデータによってロスの停滞と降下を繰り返すという特性を持つため、精度を見るだけの従来のEarly Stoppingでは実際にロスが収束する前に学習を注視してしまうという問題があった。一方で、学習の終了とアトリビューションの収束には密接な関係があることが知られており、学習装置10では、アトリビューションの収束を終了条件に入れることで、上記の学習曲線の停滞時においてもアトリビューションが収束していなければ学習を止めない判断を得ることができる。
In addition, since the learning curve has the characteristic of repeating the stagnation and descent of the loss depending on the data, there is a problem that the conventional Early Stopping, which only looks at the accuracy, pays attention to the learning before the loss actually converges. On the other hand, it is known that there is a close relationship between the end of learning and the convergence of attribution, and in the
なお、本実施形態のモデルは、ニューラルネットワーク以外のモデルであってもよい。例えば、ニューラルネットワーク以外にも、Gradient Boostingのように勾配降下法等を用いて逐次的に学習を行うモデルがいくつか存在し、それらのモデルにも本実施形態は利用可能である。学習装置10では、どんなモデルに対しても汎用的に入出力の関係性を取り出せる手法としてLIMEやSHAPが存在する。学習の時にこの値を計算することによって、アトリビューション(の式)と同様にスパースになったら学習をストップする機構を実現可能である。また、Gradient Boosting Decision Treeのような手法は各特徴量のimportance scoreを算出することができる。このスコアを重みと同様に用いることで、重み(の式)と同様にスパースになったら学習をストップする機構が実現できる。
The model of this embodiment may be a model other than the neural network. For example, in addition to the neural network, there are some models such as Gradient Boosting that sequentially perform learning by using the gradient descent method or the like, and this embodiment can also be used for these models. In the
[学習装置の処理手順]
次に、図3を用いて、第1の実施形態に係る学習装置10による処理手順の例を説明する。図3は、第1の実施形態に係る学習装置における学習処理の流れの一例を示すフローチャートである。なお、図3の例では、モデルの解釈性に寄与する値として、アトリビューションを用いる場合を例に説明する。
[Processing procedure of learning device]
Next, an example of the processing procedure by the
図3に例示するように、学習装置10の取得部12aは、データを取得する。例えば、取得部12aは、データ記憶部13aに記憶されたデータセットを読み出して取得する(ステップS101)。そして、第一の計算部12bは、取得部12aによって取得されたデータをモデルに入力し(ステップS102)、出力データと正解データとに基づいて、モデルのロスを計算する(ステップS103)。
As illustrated in FIG. 3, the
そして、更新部12cは、第一の計算部12bによってロスロスに応じて、モデルの重みを更新する(ステップS104)。続いて、第二の計算部12dは、入力データと出力データとを用いて、アトリビューションを計算する(ステップS105)。例えば、第二の計算部12dは、は、複数のセンサデータを入力データとして監視対象設備の状態を予測するための予測モデルに入力し、該予測モデルから出力される出力データを得た場合に、入力データおよび出力データに基づいて、センサごとのアトリビューションを計算する。 Then, the update unit 12c updates the weight of the model according to the loss loss by the first calculation unit 12b (step S104). Subsequently, the second calculation unit 12d calculates the attribution using the input data and the output data (step S105). For example, when the second calculation unit 12d inputs a plurality of sensor data as input data into a prediction model for predicting the state of the monitored equipment and obtains output data output from the prediction model. , Calculate attribution per sensor based on input and output data.
そして、更新終了部12eは、第一の計算部12bによって計算されたロスと第二の計算部12dによって計算されたアトリビューションとが所定の条件を満たすか否かを判定する(ステップS106)。例えば、更新終了部12eは、更新終了部12eは、ロスが所定の閾値以下であって、かつ、アトリビューションのL1ノルムが予め設定された閾値以下であるか否かを判定する。
Then, the
この結果、学習装置10は、更新終了部12eがロスとアトリビューションとが所定の条件を満たさないと判定した場合には(ステップS106否定)、ステップS101の処理に戻り、ロスとアトリビューションとが所定の条件を満たすまで、ステップS101〜ステップS106の処理を繰り返す。
As a result, when the
また、更新終了部12eがロスとアトリビューションとが所定の条件を満たすと判定した場合には(ステップS106肯定)、学習済みモデルを学習済みモデル記憶部13bに格納する(ステップS107)。
When the
[第1の実施形態の効果]
第1の実施形態に係る学習装置10は、複数のデータを取得し、取得した複数のデータを入力データとしてモデルに入力し、該モデルから出力される出力データを得た場合に、出力データと正解データに基づいて、モデルのロスを計算する。そして、学習装置10は、ロスが計算されるたびに、該ロスに応じてモデルの重みを更新する更新処理を繰り返し行う。また、学習装置10は、モデルの解釈性に寄与する値を計算し、ロスとモデルの解釈性に寄与する値とが所定の条件を満たした場合には、更新処理を終了させる。このため、学習装置10では、モデルの精度を保ちつつ、モデルの解釈性に寄与する値を観測しやすい値で得ることが可能である。
[Effect of the first embodiment]
The
つまり、第1の実施形態に係る学習装置10では、従来用いられていた学習終了条件とは異なり、アトリビューションの値を学習終了条件に追加することで、例えば、学習済みモデルのアトリビューションのノイズを減少させることが可能である。アトリビューションのノイズが減少している状態とは、観測者が観測しやすいスパースでスムースな状態である。また、第1の実施形態に係る学習装置10では、従来用いられていた学習終了条件に比べてアトリビューションの値を学習終了条件に追加することで、例えばEarly Stoppingのような精度を基に学習を打ち切る手法において、学習の停滞時にも学習を止めない方策をとることが可能である。
That is, in the
[第2の実施形態]
上記した第1の実施形態では、モデルを学習する学習装置について説明したが、第2の実施形態では、学習処理によって得られた学習済みモデルを用いて、アトリビューションを抽出する学習装置について説明する。以下の第2の実施形態では、第2の実施形態に係る学習装置10Aの構成、学習装置10Aの処理の流れを順に説明し、最後に第1の実施形態による効果を説明する。なお、第1の実施形態と同様の構成および処理については説明を省略する。
[Second Embodiment]
In the first embodiment described above, the learning device for learning the model has been described, but in the second embodiment, the learning device for extracting attributions using the learned model obtained by the learning process will be described. To do. In the second embodiment below, the configuration of the
[学習装置の構成]
まず、図4を用いて、学習装置10Aの構成を説明する。図4は、第2の実施形態に係る学習装置の構成例を示すブロック図である。学習装置10Aは、例えば、工場やプラントなどの監視対象設備に設置されるセンサによって取得された複数のデータを収集し、収集された複数のデータを入力として、監視対象設備の異常を予測するための学習済モデルを用いて、監視対象設備の特定センサの推定値を出力する。また、学習装置10Aは、このように出力された推定値から異常度を算出してもよい。
[Configuration of learning device]
First, the configuration of the
例えば、異常度は、特定のセンサの値を目的変数とした回帰モデルを学習した場合、モデルが出力する当該センサの推定値と事前に指定するなどした特定の値との誤差などとして定義することが可能である。あるいは、異常発生の有無を分類問題として扱いモデルを学習した場合には、指定時間内の異常に分類された時間帯の割合などを利用することができる。また、学習装置10Aは、学習済モデルに入力された各センサのデータと、学習済モデルから出力された出力データとを用いて、センサごとの出力値に対する寄与度であるアトリビューションを算出する。ここでアトリビューションとは、各入力が出力に対してどれだけ寄与したかを示すものであり、アトリビューションの絶対値が大きいほど、その入力は出力に対する影響度が高かったことを意味する。
For example, the degree of anomaly should be defined as the error between the estimated value of the sensor output by the model and the specific value specified in advance when a regression model with the value of a specific sensor as the objective variable is learned. Is possible. Alternatively, when the model is learned by treating the presence or absence of an abnormality as a classification problem, the ratio of the time zones classified as abnormal within the specified time can be used. Further, the
学習装置10Aは、通信処理部11、制御部12および記憶部13を有する。制御部12は、取得部12a、第一の計算部12b、更新部12c、第二の計算部12d、更新終了部12e、抽出部12f、予測部12gおよび可視化部12hを有する。ここで、学習装置10Aは、抽出部12f、予測部12gおよび可視化部12hをさらに有する点が、学習装置10と異なる。なお、取得部12a、第一の計算部12b、更新部12c、第二の計算部12d、更新終了部12eについては、第1の実施形態で説明した学習装置10の取得部12a、第一の計算部12b、更新部12c、第二の計算部12d、更新終了部12eと同様の処理を行うので、説明を省略する。
The
抽出部12fは、更新終了部12eによって更新処理が終了されるまで更新部12cによって更新処理が繰り返し行われた学習済みモデルに入力データを入力し、該学習済みモデルから出力される出力データを得た場合に、モデルの解釈性に寄与する値を抽出する。例えば、抽出部12fは、学習済みモデルを学習済みモデル記憶部13bから読み出し、処理対象データを学習済みモデルに入力し、データごとのアトリビューションを抽出する。
The
例えば、抽出部12fは、入力値から出力値を算出する学習済モデルにおいて、出力値の各入力値に関する偏微分値またはその概算値を用いて、各時刻におけるセンサごとに、アトリビューションを算出する。一例としては、抽出部12fは、Saliency Mapを用いて、各時刻におけるセンサごとに、アトリビューションを算出する。
For example, in the trained model that calculates the output value from the input value, the
予測部12gは、複数のデータを入力として、例えば、監視対象設備の状態を予測するための学習済モデルを用いて、所定の出力値を出力する。例えば、予測部12gは、プロセスデータおよび学習済みモデル(識別関数または回帰関数)を用いて、監視対象設備の異常度を算出し、予め設定された一定時間後に異常が発生するか否かを予測する。 The prediction unit 12g inputs a plurality of data and outputs a predetermined output value by using, for example, a trained model for predicting the state of the monitored equipment. For example, the prediction unit 12g calculates the degree of abnormality of the monitored equipment using the process data and the trained model (discrimination function or regression function), and predicts whether or not the abnormality will occur after a predetermined fixed time. To do.
可視化部12hは、抽出部12fによって抽出されたアトリビューションや予測部12gによって算出された異常度を可視化する。例えば、可視化部12hは、各センサデータのアトリビューションの推移を示すグラフを表示したり、算出された異常度をチャート画面として表示したりする。
The
ここで、図5を用いて、学習装置10Aによって実行される異常予測処理およびアトリビューション抽出処理の概要を説明する。図5は、学習装置によって実行される異常予測処理およびアトリビューション抽出処理の概要を説明する図である。
Here, the outline of the abnormality prediction process and the attribution extraction process executed by the
図5では、プラント内の反応炉や装置などにセンサや運転用の信号などを収集するデバイスが取り付けられ、一定時間毎にデータを収集していることを図示している。そして、図6では、各センサA〜センサEから収集したプロセスデータの推移を示したものを図示しており、第1の実施形態で説明したように、モデルを学習することで学習済みモデルを生成する。そして、予測部12gが、学習済みモデルを用いて、一定時間後の異常を予測する。そして、可視化部12hは、算出された異常度の時系列データをチャート画面として出力する。
FIG. 5 shows that a sensor, a device for collecting operating signals, and the like are attached to a reactor, an apparatus, or the like in a plant, and data is collected at regular intervals. Then, FIG. 6 illustrates the transition of the process data collected from each of the sensors A to E, and as described in the first embodiment, the trained model is obtained by learning the model. Generate. Then, the prediction unit 12g predicts the abnormality after a certain period of time using the trained model. Then, the
また、抽出部12fは、学習済みモデルに入力されたプロセスデータと、学習済みモデルからの出力値を用いて、各時刻におけるセンサごとの所定の出力値に対するアトリビューションを抽出する。そして、可視化部12hは、予測に対する各センサのプロセスデータの重要度の推移を示すグラフを表示する。
Further, the
また、学習装置10Aは、異常予測処理のみに適用されるものではなく、例えば、画像データを収集して画像分類処理に適用するようにしてもよい。ここで、図6を用いて、学習装置10Aによって実行される画像分類処理およびアトリビューション抽出処理の概要を説明する。図6は、学習装置によって実行される画像分類処理およびアトリビューション抽出処理の概要を説明する図である。
Further, the
図6では、画像データを収集し、収集した画像データを入力データとして用いて、第1の実施形態で説明したように、モデルを学習することで学習済みモデルを生成する。そして、予測部12gが、学習済みモデルを用いて、画像データに含まれる画像を分類する。例えば、図6の例では、予測部12gは、画像データに含まれる画像が車の画像であるか飛行機の画像であるかを判定し、判定結果を出力する。 In FIG. 6, image data is collected, and the collected image data is used as input data to generate a trained model by training the model as described in the first embodiment. Then, the prediction unit 12g classifies the images included in the image data using the trained model. For example, in the example of FIG. 6, the prediction unit 12g determines whether the image included in the image data is a car image or an airplane image, and outputs the determination result.
また、抽出部12fは、学習済みモデルに入力された画像データと、学習済みモデルから出力された分類結果とを用いて、各画像における画素ごとのアトリビューションを抽出する。そして、可視化部12hは、各画像における画素ごとのアトリビューションを示す画像を表示する。この画像では、アトリビューションを濃淡で表現しており、アトリビューションが大きい画素ほど所定の色が濃く、アトリビューションが小さい画素ほど所定の色が薄く表示される。
Further, the
[学習装置の処理手順]
次に、図7を用いて、第2の実施形態に係る学習装置10Aによる処理手順の例を説明する。図7は、第2の実施形態に係る学習装置におけるアトリビューション抽出処理の流れの一例を示すフローチャートである。
[Processing procedure of learning device]
Next, an example of the processing procedure by the
図7に例示するように、学習装置10の抽出部12fは、データを取得すると(ステップS201肯定)、学習済みモデルに入力データを入力し(ステップS202)、該学習済みモデルから出力される出力データを得た場合に、入力データと出力データとを用いて、アトリビューションを計算する(ステップS203)。
As illustrated in FIG. 7, when the
そして、可視化部12hは、アトリビューションを可視化したグラフを表示する(ステップS204)。例えば、可視化部12hは、各センサデータのアトリビューションの推移を示すグラフを表示する。
Then, the
このように、第2の実施形態に係る学習装置10Aは、第一の実施形態で説明した学習処理によって学習された学習済みモデルに入力データを入力し、該学習済みモデルから出力される出力データを得た場合に、該入力データおよび該出力データに基づいて、入力データの各要素の出力データに対するアトリビューションを抽出する。このため、学習装置10Aは、アトリビューションをノイズが少ない状態で抽出することが可能である。
As described above, the
[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUやGPUおよび当該CPUやGPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[System configuration, etc.]
Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of them may be functionally or physically distributed / physically in arbitrary units according to various loads and usage conditions. Can be integrated and configured. Further, each processing function performed by each device is realized by a CPU or GPU and a program that is analyzed and executed by the CPU or GPU, or as hardware by wired logic. It can be realized.
また、本実施形態において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。 Further, among the processes described in the present embodiment, all or part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed can be performed. All or part of it can be done automatically by a known method. In addition, the processing procedure, control procedure, specific name, and information including various data and parameters shown in the above document and drawings can be arbitrarily changed unless otherwise specified.
[プログラム]
また、上記実施形態において説明した情報処理装置が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。例えば、実施形態に係る学習装置10、10Aが実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。この場合、コンピュータがプログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかるプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。
[program]
It is also possible to create a program in which the processing executed by the information processing apparatus described in the above embodiment is described in a language that can be executed by a computer. For example, it is possible to create a program in which the processes executed by the
図8は、プログラムを実行するコンピュータを示す図である。図8に例示するように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有し、これらの各部はバス1080によって接続される。
FIG. 8 is a diagram showing a computer that executes a program. As illustrated in FIG. 8, the
メモリ1010は、図8に例示するように、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、図8に例示するように、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、図8に例示するように、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、図8に例示するように、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、図8に例示するように、例えばディスプレイ1130に接続される。
The
ここで、図8に例示するように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、上記の、プログラムは、コンピュータ1000によって実行される指令が記述されたプログラムモジュールとして、例えばハードディスクドライブ1090に記憶される。
Here, as illustrated in FIG. 8, the hard disk drive 1090 stores, for example, the
また、上記実施形態で説明した各種データは、プログラムデータとして、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出し、各種処理手順を実行する。
Further, the various data described in the above embodiment are stored as program data in, for example, a
なお、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ等を介してCPU1020によって読み出されてもよい。あるいは、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
The
上記の実施形態やその変形は、本願が開示する技術に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 The above-described embodiments and modifications thereof are included in the inventions described in the claims and the equivalent scope thereof, as are included in the technology disclosed in the present application.
10、10A 学習装置
11 通信処理部
12 制御部
12a 取得部
12b 第一の計算部
12c 更新部
12d 第二の計算部
12e 更新終了部
12f 抽出部
12g 予測部
12h 可視化部
13 記憶部
13a データ記憶部
13b 学習済みモデル記憶部
10, 10A Learning device 11
Claims (7)
前記取得部によって取得された複数のデータを入力データとしてモデルに入力し、該モデルから出力される出力データを得た場合に、前記出力データと正解データに基づいて、前記モデルのロスを計算する第一の計算部と、
前記第一の計算部によってロスが計算されるたびに、該ロスに応じて前記モデルの重みを更新する更新処理を繰り返し行う更新部と、
前記モデルの解釈性に寄与する値を計算する第二の計算部と、
前記第一の計算部によって計算されたロスと前記第二の計算部によって計算された値とが所定の条件を満たした場合には、前記更新処理を終了させる更新終了部と、
を有することを特徴とする学習装置。 An acquisition unit that acquires multiple data, and
When a plurality of data acquired by the acquisition unit are input to the model as input data and output data output from the model is obtained, the loss of the model is calculated based on the output data and the correct answer data. The first calculation unit and
Each time a loss is calculated by the first calculation unit, an update unit that repeatedly performs an update process for updating the weight of the model according to the loss, and an update unit.
A second calculation unit that calculates values that contribute to the interpretability of the model,
When the loss calculated by the first calculation unit and the value calculated by the second calculation unit satisfy a predetermined condition, the update end unit that terminates the update process and the update end unit.
A learning device characterized by having.
複数のデータを取得する取得工程と、
前記取得工程によって取得された複数のデータを入力データとしてモデルに入力し、該モデルから出力される出力データを得た場合に、前記出力データと正解データに基づいて、前記モデルのロスを計算する第一の計算工程と、
前記第一の計算工程によってロスが計算されるたびに、該ロスに応じて前記モデルの重みを更新する更新処理を繰り返し行う更新工程と、
前記モデルの解釈性に寄与する値を計算する第二の計算工程と、
前記第一の計算工程によって計算されたロスと前記第二の計算工程によって計算された値とが所定の条件を満たした場合には、前記更新処理を終了させる更新終了工程と、
を含むことを特徴とする学習方法。 A learning method performed by a learning device,
The acquisition process to acquire multiple data and
When a plurality of data acquired in the acquisition process are input to the model as input data and output data output from the model is obtained, the loss of the model is calculated based on the output data and the correct answer data. The first calculation process and
Each time a loss is calculated by the first calculation step, an update process of repeatedly updating the weight of the model according to the loss, and an update step of repeating the update process.
A second calculation step for calculating values that contribute to the interpretability of the model,
When the loss calculated by the first calculation step and the value calculated by the second calculation step satisfy a predetermined condition, the update end step of ending the update process and the update end step of ending the update process.
A learning method characterized by including.
前記取得ステップによって取得された複数のデータを入力データとしてモデルに入力し、該モデルから出力される出力データを得た場合に、前記出力データと正解データに基づいて、前記モデルのロスを計算する第一の計算ステップと、
前記第一の計算ステップによってロスが計算されるたびに、該ロスに応じて前記モデルの重みを更新する更新処理を繰り返し行う更新ステップと、
前記モデルの解釈性に寄与する値を計算する第二の計算ステップと、
前記第一の計算ステップによって計算されたロスと前記第二の計算ステップによって計算された値とが所定の条件を満たした場合には、前記更新処理を終了させる更新終了ステップと、
をコンピュータに実行させることを特徴とする学習プログラム。 The acquisition step to acquire multiple data and
When a plurality of data acquired by the acquisition step is input to the model as input data and output data output from the model is obtained, the loss of the model is calculated based on the output data and the correct answer data. The first calculation step and
Each time a loss is calculated by the first calculation step, an update step of repeating an update process for updating the weight of the model according to the loss, and an update step.
A second calculation step to calculate the values that contribute to the interpretability of the model,
When the loss calculated by the first calculation step and the value calculated by the second calculation step satisfy a predetermined condition, the update end step for ending the update process and the update end step
A learning program characterized by having a computer execute.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019230922A JP6871352B1 (en) | 2019-12-20 | 2019-12-20 | Learning equipment, learning methods and learning programs |
PCT/JP2020/047396 WO2021125318A1 (en) | 2019-12-20 | 2020-12-18 | Learning device, learning method, and learning program |
CN202080087380.0A CN115023711A (en) | 2019-12-20 | 2020-12-18 | Learning device, learning method, and learning program |
EP20902706.9A EP4080420A4 (en) | 2019-12-20 | 2020-12-18 | Learning device, learning method, and learning program |
JP2021069219A JP7046252B2 (en) | 2019-12-20 | 2021-04-15 | Learning equipment, learning methods and learning programs |
US17/842,974 US20220318630A1 (en) | 2019-12-20 | 2022-06-17 | Learning device, learning method, and learning program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019230922A JP6871352B1 (en) | 2019-12-20 | 2019-12-20 | Learning equipment, learning methods and learning programs |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021069219A Division JP7046252B2 (en) | 2019-12-20 | 2021-04-15 | Learning equipment, learning methods and learning programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6871352B1 true JP6871352B1 (en) | 2021-05-12 |
JP2021099645A JP2021099645A (en) | 2021-07-01 |
Family
ID=75801959
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019230922A Active JP6871352B1 (en) | 2019-12-20 | 2019-12-20 | Learning equipment, learning methods and learning programs |
JP2021069219A Active JP7046252B2 (en) | 2019-12-20 | 2021-04-15 | Learning equipment, learning methods and learning programs |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021069219A Active JP7046252B2 (en) | 2019-12-20 | 2021-04-15 | Learning equipment, learning methods and learning programs |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220318630A1 (en) |
EP (1) | EP4080420A4 (en) |
JP (2) | JP6871352B1 (en) |
CN (1) | CN115023711A (en) |
WO (1) | WO2021125318A1 (en) |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0764945A (en) * | 1993-08-30 | 1995-03-10 | Fujitsu Ltd | Neural network |
-
2019
- 2019-12-20 JP JP2019230922A patent/JP6871352B1/en active Active
-
2020
- 2020-12-18 EP EP20902706.9A patent/EP4080420A4/en active Pending
- 2020-12-18 WO PCT/JP2020/047396 patent/WO2021125318A1/en unknown
- 2020-12-18 CN CN202080087380.0A patent/CN115023711A/en active Pending
-
2021
- 2021-04-15 JP JP2021069219A patent/JP7046252B2/en active Active
-
2022
- 2022-06-17 US US17/842,974 patent/US20220318630A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4080420A1 (en) | 2022-10-26 |
EP4080420A4 (en) | 2024-01-24 |
US20220318630A1 (en) | 2022-10-06 |
JP2021099645A (en) | 2021-07-01 |
CN115023711A (en) | 2022-09-06 |
WO2021125318A1 (en) | 2021-06-24 |
JP7046252B2 (en) | 2022-04-01 |
JP2021103596A (en) | 2021-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11921566B2 (en) | Abnormality detection system, abnormality detection method, abnormality detection program, and method for generating learned model | |
JP6755849B2 (en) | Pruning based on the class of artificial neural networks | |
US11216741B2 (en) | Analysis apparatus, analysis method, and non-transitory computer readable medium | |
WO2020049087A1 (en) | Computer-implemented method, computer program product and system for anomaly detection and/or predictive maintenance | |
EP4000234A1 (en) | Method and device for detecting anomalies, corresponding computer program product and non-transitory computer-readable carrier medium | |
CN107977748B (en) | Multivariable distorted time sequence prediction method | |
US20220222402A1 (en) | Information processing device, information processing method, and information processing program | |
US20210326661A1 (en) | Determining an explanation of a classification | |
CN115640933B (en) | Automatic defect management method, device and equipment for production line and storage medium | |
JP2018528511A (en) | Optimizing output efficiency in production systems | |
JP2020149601A (en) | Data processing device, data processing method and data processing program | |
KR102493719B1 (en) | Integrated air quality prediction system | |
WO2021066194A1 (en) | Learning device, learning method, and learning program | |
JP6871352B1 (en) | Learning equipment, learning methods and learning programs | |
CN113361194A (en) | Sensor drift calibration method based on deep learning, electronic equipment and storage medium | |
JP6910997B2 (en) | Information processing equipment, calculation method and calculation program | |
JP6889207B2 (en) | Learning device, extraction device, learning method, extraction method, learning program and extraction program | |
Chumachenko et al. | Application of statistical simulation for measles epidemic process forecasting | |
CN113139332A (en) | Automatic model construction method, device and equipment | |
JP2020166442A (en) | Information processing apparatus, calculation method, and calculation program | |
JP2021149590A (en) | Leaning device, learning method, and learning program | |
TW202230060A (en) | Information processing device, information processing method, and information processing program | |
CN116643930A (en) | Server abnormality detection method and abnormality detection model based on attention mechanism | |
CN116451786A (en) | Method for generating knowledge points based on univariate time sequence data | |
CN117787496A (en) | Electric power material demand prediction method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200218 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210316 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210415 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6871352 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |