JP6899475B1 - Machine learning model accuracy analysis system, machine learning model accuracy analysis method and program - Google Patents

Machine learning model accuracy analysis system, machine learning model accuracy analysis method and program Download PDF

Info

Publication number
JP6899475B1
JP6899475B1 JP2020152054A JP2020152054A JP6899475B1 JP 6899475 B1 JP6899475 B1 JP 6899475B1 JP 2020152054 A JP2020152054 A JP 2020152054A JP 2020152054 A JP2020152054 A JP 2020152054A JP 6899475 B1 JP6899475 B1 JP 6899475B1
Authority
JP
Japan
Prior art keywords
accuracy
machine learning
model
predicted value
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020152054A
Other languages
Japanese (ja)
Other versions
JP2022046145A (en
Inventor
吉田 順一
順一 吉田
北村 慎吾
慎吾 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2020152054A priority Critical patent/JP6899475B1/en
Application granted granted Critical
Publication of JP6899475B1 publication Critical patent/JP6899475B1/en
Publication of JP2022046145A publication Critical patent/JP2022046145A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】ブラックボックス化された機械学習モデルが出力する予測値の予測精度が悪化した要因を特定することが可能な機械学習モデル精度分析システムを提供する。【解決手段】分析システム2が備えるホワイトボックスモデル作成部23は、ブラックボックスモデル15の作成に合わせて、ブラックボックスモデル15の作成に用いられた入力データを説明変数とし、ブラックボックスモデル15が出力する予測値を目的変数としてホワイトボックスモデル24を作成する。精度悪化要因特定部25は、ブラックボックスモデル15の予測値の精度が判定される判定期間に、ブラックボックスモデル15から出力される予測値の精度が変化したことが判定されると、判定期間に蓄積された入力データをホワイトボックスモデル24に入力して、予測値の精度が変化した要因を特定する。【選択図】図1PROBLEM TO BE SOLVED: To provide a machine learning model accuracy analysis system capable of identifying a factor in which the prediction accuracy of a predicted value output by a black-boxed machine learning model deteriorates. A white box model creation unit 23 included in an analysis system 2 uses input data used for creating a black box model 15 as an explanatory variable in accordance with the creation of the black box model 15, and outputs the black box model 15. The white box model 24 is created with the predicted value to be used as the objective variable. When it is determined that the accuracy of the predicted value output from the black box model 15 has changed during the determination period in which the accuracy of the predicted value of the black box model 15 is determined, the accuracy deterioration factor identification unit 25 sets the determination period. The accumulated input data is input to the white box model 24 to identify the cause of the change in the accuracy of the predicted value. [Selection diagram] Fig. 1

Description

本発明は、機械学習モデル精度分析システム、機械学習モデル精度分析方法及びプログラムに関する。 The present invention relates to a machine learning model accuracy analysis system, a machine learning model accuracy analysis method and a program.

近年、人工知能技術(以下、AI(Artificial Intelligence)と記載)の発展が目覚ましい。AIのプログラム自身が機械学習を行うことで、所定の学習期間に取得する入力データの特徴を見つけて、予測値を出力する機械学習モデルを作成することが可能となる。 In recent years, the development of artificial intelligence technology (hereinafter referred to as AI (Artificial Intelligence)) has been remarkable. By performing machine learning by the AI program itself, it is possible to find the characteristics of the input data acquired during a predetermined learning period and create a machine learning model that outputs the predicted value.

機械学習モデルが出力する予測値が、実際に運用される制御システムで実測される実測値を精度よく表したものであれば、機械学習モデルの予測値に基づいて制御システムの動作を予測することが可能となる。しかし、長期間にわたって運用される制御システムは、様々な要因により学習時の状態から変化する。このため、機械学習モデルが出力する予測値が徐々に実測値から乖離し、予測精度が変化することがあった。 If the predicted value output by the machine learning model accurately represents the measured value actually measured by the control system that is actually operated, predict the operation of the control system based on the predicted value of the machine learning model. Is possible. However, the control system operated for a long period of time changes from the state at the time of learning due to various factors. For this reason, the predicted value output by the machine learning model may gradually deviate from the measured value, and the prediction accuracy may change.

一般的に機械学習モデルの構成はブラックボックス化されており、外部から機械学習モデルの処理内容を把握することは難しい。このため、機械学習モデルの予測精度が変化したことを説明することが困難であった。なお、以下の説明では、ブラックボックス化された機械学習モデルを「ブラックボックスモデル」と呼ぶ。 Generally, the structure of a machine learning model is black-boxed, and it is difficult to grasp the processing contents of the machine learning model from the outside. Therefore, it was difficult to explain that the prediction accuracy of the machine learning model changed. In the following description, the black boxed machine learning model is referred to as a "black box model".

このような課題に対して、AI(例えば、機械学習モデル)が予測値を予測した根拠を説明可能なXAI(Explainable AI)と呼ばれる技術が開発されつつある。従来のXAIとして、機械学習モデルの構築時に使用された学習データを用いて、機械学習モデルから出力される出力データが算出された要因を特定する技術が提供されていた。 For such problems, a technique called XAI (Explainable AI) is being developed that can explain the basis for predicting the predicted value by AI (for example, a machine learning model). As a conventional XAI, a technique for identifying a factor for which the output data output from the machine learning model is calculated by using the learning data used when constructing the machine learning model has been provided.

例えば、従来のXAIを表す技術として、特許文献1及び2に開示された技術が知られている。特許文献1には、「データベースに格納されているデータに基づいてディープラーニングモデルを用いて予測処理を実行するディープラーニング予測手段と、ディープラーニング予測手段による予測結果を目的変数とし、データベースに格納されているデータを説明変数として重回帰分析を行い、重回帰分析の結果に基づいて、ディープラーニングモデルの予測結果を説明するための変数を決定する」と記載されている。 For example, as a conventional technique for expressing XAI, the techniques disclosed in Patent Documents 1 and 2 are known. In Patent Document 1, "a deep learning prediction means that executes prediction processing using a deep learning model based on data stored in a database and a prediction result by the deep learning prediction means are set as objective variables and are stored in the database. Multiple regression analysis is performed using the above data as explanatory variables, and variables for explaining the prediction results of the deep learning model are determined based on the results of the multiple regression analysis. "

また、特許文献2には、「分析者がモデル実行装置のモデル(説明変数データ)を決定し、適宜モデルを機械学習により再構築(リモデル)することを、有益な情報の画面表示により支援する」と記載されている。 Further, Patent Document 2 states, "It supports an analyst to determine a model (explanatory variable data) of a model execution device and appropriately reconstruct (remodel) the model by machine learning by displaying useful information on a screen. ".

国際公開第2018/142753号International Publication No. 2018/1427353 特許第6625183号Patent No. 6625183

ところで、特許文献1に開示された技術では、ディープラーニングモデルの予測結果を説明するための変数が、ディープラーニングモデルでどのように使われているかを外部から知ることができなかった。 By the way, in the technique disclosed in Patent Document 1, it is not possible to know from the outside how the variables for explaining the prediction result of the deep learning model are used in the deep learning model.

また、特許文献2に開示された技術においても単に演算モデルの再構築が促されるに過ぎず、演算モデルの精度が悪化した要因を把握できなかった。このように従来の技術では、ブラックボックス化された機械学習モデルの予測精度が変化した要因を説明するには不十分であった。 Further, even in the technique disclosed in Patent Document 2, the reconstruction of the calculation model is merely promoted, and the cause of the deterioration of the accuracy of the calculation model cannot be grasped. As described above, the conventional technique is insufficient to explain the factors that change the prediction accuracy of the black-boxed machine learning model.

本発明はこのような状況に鑑みて成されたものであり、ブラックボックス化された機械学習モデルが出力する予測値の予測精度が変化した要因を特定することを目的とする。 The present invention has been made in view of such a situation, and an object of the present invention is to identify a factor in which the prediction accuracy of the predicted value output by the black-boxed machine learning model has changed.

本発明に係る機械学習モデル精度分析システムは、制御システムで使用される制御対象機器に対して制御装置が行った処理の結果を含む入力データが蓄積された入力データベースより、予め設定された学習期間で読み出した入力データに基づいて学習されるブラックボックス化された機械学習モデルであって、入力データから処理の結果を予測値として出力可能なブラックボックス化された機械学習モデルの作成に合わせて、ブラックボックス化された機械学習モデルの作成に用いられた入力データを説明変数とし、ブラックボックス化された機械学習モデルが出力する予測値を目的変数としてホワイトボックスモデルを作成するホワイトボックスモデル作成部と、ブラックボックス化された機械学習モデルの予測値の精度が判定される判定期間に、ブラックボックス化された機械学習モデルから出力される予測値の精度が変化したことが判定されると、判定期間に蓄積された入力データをホワイトボックスモデルに入力して、予測値の精度が変化した要因を特定する要因特定部と、を備える。 The machine learning model accuracy analysis system according to the present invention has a learning period set in advance from an input database in which input data including the results of processing performed by the control device on the controlled device used in the control system is accumulated. It is a black boxed machine learning model that is trained based on the input data read in, and is matched with the creation of a black boxed machine learning model that can output the processing result as a predicted value from the input data. With the white box model creation unit that creates a white box model using the input data used to create the black boxed machine learning model as an explanatory variable and the predicted value output by the black boxed machine learning model as the objective variable. , If it is determined that the accuracy of the predicted value output from the blackboxed machine learning model has changed during the judgment period in which the accuracy of the predicted value of the blackboxed machine learning model is determined, the judgment period It is provided with a factor identification unit for inputting the input data accumulated in the white box model and identifying the factor for which the accuracy of the predicted value has changed.

本発明によれば、判定期間に蓄積された入力データをホワイトボックスモデルに入力して、ブラックボックス化された機械学習モデルから出力される予測値の精度が変化した要因を特定することが可能となる。
上記した以外の課題、構成及び効果は、以下の実施の形態の説明により明らかにされる。
According to the present invention, it is possible to input the input data accumulated during the determination period into the white box model and identify the cause of the change in the accuracy of the predicted value output from the black boxed machine learning model. Become.
Issues, configurations and effects other than those described above will be clarified by the following description of the embodiments.

本発明の第1の実施の形態に係る制御システム及び分析システムの全体構成例を示すブロック図である。It is a block diagram which shows the whole structure example of the control system and the analysis system which concerns on 1st Embodiment of this invention. 本発明の第1の実施の形態に係る制御システム及び分析システムで用いられる様々なデータの流れの例を示す図である。It is a figure which shows the example of the flow of various data used in the control system and the analysis system which concerns on 1st Embodiment of this invention. 本発明の第1の実施の形態に係る決定木モデルの構成例を示す図である。It is a figure which shows the structural example of the decision tree model which concerns on 1st Embodiment of this invention. 本発明の第1の実施の形態に係るクラスタリングモデルの構成例を示す図である。It is a figure which shows the structural example of the clustering model which concerns on 1st Embodiment of this invention. 本発明の第1の実施の形態に係る計算機のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware configuration example of the computer which concerns on 1st Embodiment of this invention. 本発明の第1の実施の形態に係る分析システム全体の処理の例を示すフローチャートである。It is a flowchart which shows the example of the processing of the whole analysis system which concerns on 1st Embodiment of this invention. 本発明の第1の実施の形態に係るホワイトボックスモデル作成部が、ホワイトボックスモデルを作成する処理の例を示すフローチャートである。It is a flowchart which shows the example of the process which the white box model creation part which concerns on 1st Embodiment of this invention creates a white box model. 本発明の第1の実施の形態に係る精度悪化要因特定部が、ブラックボックスモデルの予測値の精度悪化要因を特定する処理の例を示すフローチャートである。FIG. 5 is a flowchart showing an example of a process in which the accuracy deterioration factor specifying unit according to the first embodiment of the present invention identifies the accuracy deterioration factor of the predicted value of the black box model. 本発明の第1の実施の形態に係る再モデリング方法提案部が、ブラックボックスモデルの再モデリング方法を提案する処理の例を示すフローチャートである。It is a flowchart which shows the example of the process which the remodeling method proposal part which concerns on 1st Embodiment of this invention proposes the remodeling method of a black box model. 本発明の第1の実施の形態に係る再モデリング方法の提案画面の例を示す図である。It is a figure which shows the example of the proposal screen of the remodeling method which concerns on 1st Embodiment of this invention. 本発明の第2の実施の形態に係る再モデリング方法提案部が、ブラックボックスモデルの再モデリング方法を提案する処理の例を示すフローチャートである。It is a flowchart which shows the example of the process which the remodeling method proposal part which concerns on 2nd Embodiment of this invention proposes the remodeling method of a black box model. 本発明の第2の実施の形態に係る再モデリング方法の提案画面の例を示す図である。It is a figure which shows the example of the proposal screen of the remodeling method which concerns on the 2nd Embodiment of this invention.

以下、本発明を実施するための形態について、添付図面を参照して説明する。本明細書及び図面において、実質的に同一の機能又は構成を有する構成要素については、同一の符号を付することにより重複する説明を省略する。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same function or configuration are designated by the same reference numerals, and redundant description will be omitted.

[第1の実施の形態]
<分析システムの構成例>
始めに、本発明の第1の実施の形態に係るブラックボックス化された機械学習モデルの精度を分析する機械学習モデル精度分析システムについて説明する。
図1は、制御システム1及び分析システム2の構成例を示すブロック図である。
[First Embodiment]
<Analysis system configuration example>
First, a machine learning model accuracy analysis system that analyzes the accuracy of a black-boxed machine learning model according to the first embodiment of the present invention will be described.
FIG. 1 is a block diagram showing a configuration example of the control system 1 and the analysis system 2.

図1には、顧客で使用される制御システム1と、顧客に所定のサービスを提供するサービス提供者が制御システム1の動作を分析するために使用する分析システム2(機械学習モデル精度分析システムの一例)とが示されている。制御システム1は、例えば、計測装置11、機器12、入力データベース13、ブラックボックスモデル作成装置14、ブラックボックスモデル15及び精度データ蓄積データベース16を備える。 FIG. 1 shows a control system 1 used by a customer and an analysis system 2 (machine learning model accuracy analysis system) used by a service provider who provides a predetermined service to a customer to analyze the operation of the control system 1. An example) is shown. The control system 1 includes, for example, a measuring device 11, a device 12, an input database 13, a black box model creating device 14, a black box model 15, and an accuracy data storage database 16.

(制御システム)
始めに、制御システム1の内部構成例について説明する。
計測装置11(制御装置の一例)は、顧客で使用される機器12(制御対象機器の一例)の温度等を計測する。計測装置11が機器12を計測して得たデジタル又はアナログの実測値は、入力データとして入力データベース13(図では、「入力DB」と記載)に格納される。
(Control system)
First, an example of the internal configuration of the control system 1 will be described.
The measuring device 11 (an example of a control device) measures the temperature of a device 12 (an example of a controlled device) used by a customer. The digital or analog measured value obtained by measuring the device 12 by the measuring device 11 is stored as input data in the input database 13 (described as “input DB” in the figure).

入力データベース13は、例えば、HDD(Hard Disk Drive)等の大容量の不揮発性ストレージ67(後述する図5を参照)で構成されており、大量の入力データを格納する。入力データベース13には、制御システム1で使用される機器12に対して計測装置11が行った処理の結果が入力データとして蓄積される。この入力データは、計測装置11が実際に機器12を計測して得た実測値を含む。なお、計測装置11が機器12に行った処理は、機器12が加工した加工物を計測する処理を含むものとする。 The input database 13 is composed of, for example, a large-capacity non-volatile storage 67 (see FIG. 5 described later) such as an HDD (Hard Disk Drive), and stores a large amount of input data. In the input database 13, the result of the processing performed by the measuring device 11 on the device 12 used in the control system 1 is stored as input data. This input data includes an actually measured value obtained by the measuring device 11 actually measuring the device 12. The process performed by the measuring device 11 on the device 12 includes a process of measuring the workpiece processed by the device 12.

入力データベース13に保存される入力データは、ブラックボックスモデル作成装置14がブラックボックスモデル15を構築する学習時に用いられる。学習時に用いられる入力データを「学習データ」とも呼ぶ。また、入力データベース13に保存される入力データは、制御システム1の運用開始後に、検証部22がブラックボックスモデル15の予測値を評価する時にも用いられる。 The input data stored in the input database 13 is used when the black box model creation device 14 learns to build the black box model 15. The input data used during learning is also called "learning data". The input data stored in the input database 13 is also used when the verification unit 22 evaluates the predicted value of the black box model 15 after the operation of the control system 1 is started.

ブラックボックスモデル作成装置14は、学習時に入力データベース13から学習期間の入力データを読み出す。上述したようにブラックボックスモデル作成装置14に入力される入力データは、いずれも実測値である。そして、ブラックボックスモデル作成装置14は、予め設定された学習期間で読み出した入力データに基づいて入力データの特徴を学習し、ブラックボックスモデル15を作成する。図中の左側には、学習時に構築されたブラックボックスモデル15の例が示される。このブラックボックスモデル15は、入力データベース13から入力された実測値の入力データを説明変数及び目的変数として構築される、ブラックボックス化された機械学習モデルの一例であり、顧客以外に内部構成が公開されていない。 The black box model creation device 14 reads the input data of the learning period from the input database 13 at the time of learning. As described above, the input data input to the black box model creation device 14 are all actually measured values. Then, the black box model creating device 14 learns the characteristics of the input data based on the input data read in the preset learning period, and creates the black box model 15. An example of the black box model 15 constructed during training is shown on the left side of the figure. This black box model 15 is an example of a black boxed machine learning model constructed by using the input data of the measured values input from the input database 13 as explanatory variables and objective variables, and the internal configuration is open to the public other than the customer. It has not been.

制御システム1が運用開始されると、ブラックボックスモデル15が稼働する。計測装置11及び機器12を管理する顧客は、ブラックボックスモデル15が出力する予測値に基づいて、機器12の状態を監視し、機器12の動作を予測する。制御システム1の運用時に稼働するブラックボックスモデル15は、図中の右側に配置されており、このブラックボックスモデル15を用いて予測処理が行われることが示される。 When the control system 1 is put into operation, the black box model 15 is put into operation. The customer who manages the measuring device 11 and the device 12 monitors the state of the device 12 and predicts the operation of the device 12 based on the predicted value output by the black box model 15. The black box model 15 that operates during the operation of the control system 1 is arranged on the right side in the drawing, and it is shown that the prediction process is performed using the black box model 15.

ブラックボックスモデル15には、入力データベース13から読み出された、実測値である入力データが説明変数として入力される。そして、ブラックボックスモデル15は、実測値に対する予測値を目的変数として出力し、精度データ蓄積データベース16(図では、「精度データ蓄積DB」と記載)に精度データとして蓄積する。 Input data, which is an actually measured value, read from the input database 13 is input to the black box model 15 as an explanatory variable. Then, the black box model 15 outputs the predicted value with respect to the actually measured value as an objective variable, and stores it as accuracy data in the accuracy data storage database 16 (described as “precision data storage DB” in the figure).

精度データ蓄積データベース16には、入力データベース13から読み出された実測値の入力データが目的変数として蓄積される。また、精度データ蓄積データベース16には、上述したブラックボックスモデル15から出力された予測値が目的変数として蓄積される。つまり、精度データ蓄積データベース16に蓄積される精度データには、計測装置11が機器12を計測して取得する実測値と、ブラックボックスモデル15が予測した予測値とが含まれる。 The accuracy data storage database 16 stores the input data of the measured values read from the input database 13 as the objective variable. Further, in the accuracy data storage database 16, the predicted value output from the black box model 15 described above is stored as an objective variable. That is, the accuracy data accumulated in the accuracy data storage database 16 includes an actually measured value acquired by measuring the device 12 by the measuring device 11 and a predicted value predicted by the black box model 15.

(分析システム)
次に、分析システム2の内部構成例について説明する。
分析システム2は、ブラックボックスモデル15の予測値の予測精度を分析する。ブラックボックスモデル15は、ブラックボックス化された機械学習モデルの一例である。ブラックボックスモデル15の内部処理は、サービス提供者が把握できない。この分析システム2は、ブラックボックスモデル15の予測精度が悪化した要因(以下、「精度悪化要因」と呼ぶ)を特定するサービスの提供者によって使用される。この分析システム2は、既存の制御システム1に後付けすることが可能である。この分析システム2は、精度判定部21、検証部22及び提案学習データ抽出部27を備える。
(Analysis system)
Next, an example of the internal configuration of the analysis system 2 will be described.
The analysis system 2 analyzes the prediction accuracy of the predicted value of the black box model 15. The black box model 15 is an example of a black boxed machine learning model. The internal processing of the black box model 15 cannot be grasped by the service provider. This analysis system 2 is used by a service provider that identifies a factor that deteriorates the prediction accuracy of the black box model 15 (hereinafter, referred to as “accuracy deterioration factor”). The analysis system 2 can be retrofitted to the existing control system 1. The analysis system 2 includes an accuracy determination unit 21, a verification unit 22, and a proposal learning data extraction unit 27.

精度判定部21は、ブラックボックスモデル15の予測値の精度が判定される精度判定期間(「計測時」とも呼ぶ)にブラックボックスモデル15から出力される予測値の精度が、サービス提供者により予め設定された閾値(精度閾値)よりも変化した場合に、予測値の精度が悪化したと判定する。ここで、「予測値の精度」とは、実測値に対してブラックボックスモデル15から出力される予測値が合致している割合のことをいう。そして、学習時に判定される予測値の精度に対して、計測時に判定される予測値の精度が閾値よりも低くなることを、「予測値の精度が悪化した」と言う。例えば、閾値を70%と設定した場合に、計測時における実測値に対する予測値の精度が65%であると、予測値が閾値よりも低くなるので、精度判定部21は、予測値の精度が悪化したと判定する。70%と設定された閾値は、学習時における実測値に対する予測値の精度を基に決定される。 The accuracy determination unit 21 determines the accuracy of the predicted value output from the black box model 15 in advance by the service provider during the accuracy determination period (also referred to as “at the time of measurement”) in which the accuracy of the predicted value of the black box model 15 is determined. When the value changes from the set threshold value (accuracy threshold value), it is determined that the accuracy of the predicted value has deteriorated. Here, the "accuracy of the predicted value" means the ratio of the predicted value output from the black box model 15 to the actually measured value. Then, when the accuracy of the predicted value determined at the time of measurement is lower than the threshold value with respect to the accuracy of the predicted value determined at the time of learning, it is said that the accuracy of the predicted value has deteriorated. For example, when the threshold value is set to 70% and the accuracy of the predicted value with respect to the measured value at the time of measurement is 65%, the predicted value becomes lower than the threshold value, so that the accuracy determination unit 21 determines the accuracy of the predicted value. Judge that it has deteriorated. The threshold value set to 70% is determined based on the accuracy of the predicted value with respect to the measured value at the time of learning.

そこで、精度判定部21は、ブラックボックスモデル15が作成されたタイミングで精度データ蓄積データベース16から読み出した精度データを入力として、実測値に対する予測値の予測精度の良否を判定する。例えば、判定期間における予測値の精度が、学習期間における予測値の精度と同等であれば、ブラックボックスモデル15の動作に問題はない。一方、判定期間における予測値の精度が、学習期間における予測値の精度から乖離してくれば、制御システム1は、ブラックボックスモデル15が出力したデータを予測値として用いることができない。そこで、精度判定部21は、予測精度の判定結果を検証部22に出力する。 Therefore, the accuracy determination unit 21 receives the accuracy data read from the accuracy data storage database 16 at the timing when the black box model 15 is created as an input, and determines whether or not the prediction accuracy of the predicted value with respect to the actually measured value is good or bad. For example, if the accuracy of the predicted value in the determination period is equal to the accuracy of the predicted value in the learning period, there is no problem in the operation of the black box model 15. On the other hand, if the accuracy of the predicted value in the determination period deviates from the accuracy of the predicted value in the learning period, the control system 1 cannot use the data output by the black box model 15 as the predicted value. Therefore, the accuracy determination unit 21 outputs the determination result of the prediction accuracy to the verification unit 22.

(精度悪化要因の特定)
ここで、検証部22の内部構成例及び動作例について説明する。
検証部22は、ブラックボックスモデル15が出力した予測値を検証し、精度悪化要因を特定すると、顧客にブラックボックスモデル15の再モデリング方法を提案する。この検証部22は、顧客が作成した既存のブラックボックスモデル15の性能を評価し、精度悪化要因を特定するために用いられる。そこで、分析システム2と同様に、検証部22だけを既存の制御システム1に後付けすることも可能である。この検証部22は、ホワイトボックスモデル作成部23、ホワイトボックスモデル24、精度悪化要因特定部25、及び再モデリング方法提案部26を備える。
(Identification of factors that deteriorate accuracy)
Here, an example of internal configuration and an example of operation of the verification unit 22 will be described.
When the verification unit 22 verifies the predicted value output by the black box model 15 and identifies the cause of deterioration in accuracy, the verification unit 22 proposes to the customer a remodeling method of the black box model 15. The verification unit 22 is used to evaluate the performance of the existing black box model 15 created by the customer and identify the cause of deterioration in accuracy. Therefore, similarly to the analysis system 2, it is possible to retrofit only the verification unit 22 to the existing control system 1. The verification unit 22 includes a white box model creation unit 23, a white box model 24, an accuracy deterioration factor identification unit 25, and a remodeling method proposal unit 26.

ホワイトボックスモデル作成部23は、入力データベース13から読み出した入力データから、計測装置11による処理の結果を予測値として出力可能なブラックボックスモデル15の作成に合わせて、サービス提供者が内部処理を把握可能なホワイトボックスモデル24を作成する。ホワイトボックスモデル24の作成処理では、まず、図中の左側に配置されたブラックボックスモデル15が予測した予測値と、入力データベース13から読み出した実測値とを含む入力データがホワイトボックスモデル作成部23に入力される。そして、ホワイトボックスモデル作成部23は、ブラックボックスモデル15の作成に用いられた入力データを説明変数とし、ブラックボックスモデル15が出力する予測値を目的変数としてホワイトボックスモデル24を作成することができる。後述するようにブラックボックスモデル15の再モデリング(再学習)の際にもホワイトボックスモデル作成部23が稼働する。 In the white box model creation unit 23, the service provider grasps the internal processing in accordance with the creation of the black box model 15 which can output the result of the processing by the measuring device 11 as a predicted value from the input data read from the input database 13. Create a possible white box model 24. In the white box model 24 creation process, first, the input data including the predicted value predicted by the black box model 15 arranged on the left side in the figure and the actually measured value read from the input database 13 is the white box model creating unit 23. Is entered in. Then, the white box model creation unit 23 can create the white box model 24 using the input data used for creating the black box model 15 as an explanatory variable and the predicted value output by the black box model 15 as an objective variable. .. As will be described later, the white box model creation unit 23 also operates during remodeling (re-learning) of the black box model 15.

このホワイトボックスモデル24は、ブラックボックスモデル15の処理を模したものである。サービス提供者は、ホワイトボックスモデル24を通じて、処理の分岐、判断の内容等を確認することができ、ホワイトボックスモデル24の内部構造を把握することが可能である。図中の左側には、ブラックボックスモデル15と共に作成されたホワイトボックスモデル24の例が示される。ホワイトボックスモデル24は、例えば、検証部22が備える不揮発性ストレージ67(後述する図5を参照)に保存されるとよい。 The white box model 24 imitates the processing of the black box model 15. The service provider can confirm the branching of the process, the content of the judgment, and the like through the white box model 24, and can grasp the internal structure of the white box model 24. On the left side of the figure, an example of the white box model 24 created together with the black box model 15 is shown. The white box model 24 may be stored, for example, in the non-volatile storage 67 (see FIG. 5 described later) included in the verification unit 22.

そして、検証部22が、予測値の精度悪化要因を特定する際には、図中の右側に配置されたホワイトボックスモデル24が稼働する。このホワイトボックスモデル24には、入力データベース13から読み出された実測値の入力データが、説明変数及び目的変数として入力される。ホワイトボックスモデル24に実測値の説明変数及び目的変数が入力されるのは、精度悪化要因特定部25が、ホワイトボックスモデル24内の分岐で、正しい分岐、及び間違っている分岐を判別するためである。精度悪化要因特定部25は、分岐の正誤を判別することで、ブラックボックスモデル15の間違っているところを把握する、すなわち精度悪化要因の特定を行うことが可能となる。 Then, when the verification unit 22 identifies the cause of deterioration in the accuracy of the predicted value, the white box model 24 arranged on the right side in the drawing operates. The input data of the actually measured values read from the input database 13 is input to the white box model 24 as an explanatory variable and an objective variable. The reason why the explanatory variables and the objective variables of the measured values are input to the white box model 24 is that the accuracy deterioration factor identification unit 25 determines the correct branch and the incorrect branch in the branch in the white box model 24. is there. By determining the correctness of the branch, the accuracy deterioration factor specifying unit 25 can grasp the wrong part of the black box model 15, that is, identify the accuracy deterioration factor.

そこで、精度悪化要因特定部25(要因特定部の一例)は、精度判定部21から入力された精度判定結果が、予測値の精度が悪化したことを示す結果である場合に、予測値の精度が悪化した要因を特定するために、図1の右側に配置されるホワイトボックスモデル24を稼働させる。この際、精度悪化要因特定部25は、ブラックボックスモデル15の予測値の精度が判定される判定期間に、ブラックボックスモデル15から出力される予測値の精度が変化したことが判定されると、判定期間に入力データベース13へ蓄積された入力データをホワイトボックスモデル24に入力して、予測値の精度が変化した要因を特定する。 Therefore, the accuracy deterioration factor identification unit 25 (an example of the factor identification unit) determines the accuracy of the predicted value when the accuracy determination result input from the accuracy determination unit 21 is a result indicating that the accuracy of the predicted value has deteriorated. In order to identify the cause of the deterioration, the white box model 24 arranged on the right side of FIG. 1 is operated. At this time, when the accuracy deterioration factor identification unit 25 determines that the accuracy of the predicted value output from the black box model 15 has changed during the determination period in which the accuracy of the predicted value of the black box model 15 is determined, The input data accumulated in the input database 13 during the determination period is input to the white box model 24 to identify the cause of the change in the accuracy of the predicted value.

この際、精度悪化要因特定部25は、ホワイトボックスモデル24から出力される予測値と、ホワイトボックスモデル24自体の内部構造に基づいて、精度悪化要因を特定する処理を行う。そして、精度悪化要因特定部25は、特定した精度悪化要因を再モデリング方法提案部26に出力する。 At this time, the accuracy deterioration factor identification unit 25 performs a process of identifying the accuracy deterioration factor based on the predicted value output from the white box model 24 and the internal structure of the white box model 24 itself. Then, the accuracy deterioration factor identification unit 25 outputs the specified accuracy deterioration factor to the remodeling method proposal unit 26.

再モデリング方法提案部26(提案部の一例)は、精度悪化要因特定部25により予測値の精度が変化した要因が特定されると、ブラックボックスモデル15の再モデリング(「再学習」とも呼ぶ)の方法を提案する。提案される再モデリング方法には、例えば、ブラックボックスモデル15の予測値の精度が悪化した期間以降の入力データ(後述する図10に示す2020年02月以降のデータ)を用いて、ブラックボックスモデル15の再学習を提案する等の具体的な方法が含まれる。 The remodeling method proposal unit 26 (an example of the proposal unit) remodels the black box model 15 (also referred to as “re-learning”) when the factor whose accuracy of the predicted value has changed is identified by the accuracy deterioration factor identification unit 25. Propose the method of. In the proposed remodeling method, for example, the black box model is used by using the input data after the period when the accuracy of the predicted value of the black box model 15 deteriorates (data after February 2020 shown in FIG. 10 to be described later). Specific methods such as proposing 15 re-learning are included.

再モデリング方法提案部26は、サービス提供者に再モデリング方法を提案する。このため再モデリング方法提案部26は、ホワイトボックスモデル24から精度悪化要因として特定された処理の一部、又はどのような再モデリング方法でブラックボックスモデル15を再モデリングすれば予測値の精度を高められるかといった情報を表示装置65(後述する図5を参照)に出力する。 The remodeling method proposal unit 26 proposes a remodeling method to the service provider. Therefore, the remodeling method proposing unit 26 can improve the accuracy of the predicted value by remodeling the black box model 15 with a part of the processing specified as the accuracy deterioration factor from the white box model 24 or by any remodeling method. Information such as whether or not it is possible is output to the display device 65 (see FIG. 5 described later).

再モデリング方法提案部26により提案された再モデリング方法は、サービス提供者のみならず顧客にも提供される。そして、分析システム2では、再モデリング方法提案部26が、提案学習データ抽出部27に対して、ブラックボックスモデル15の再モデリング方法に基づくデータ抽出の指示を出力する。このため、顧客の了承の下、分析システム2がブラックボックスモデル15の再モデリングに必要なデータを改めて入力データベース13から抽出し、制御システム1に抽出したデータを提供する。制御システム1は、提供されたデータを用いてブラックボックスモデル15の再モデリングを行う。 The remodeling method proposed by the remodeling method proposal unit 26 is provided not only to the service provider but also to the customer. Then, in the analysis system 2, the remodeling method proposal unit 26 outputs a data extraction instruction based on the remodeling method of the black box model 15 to the proposal learning data extraction unit 27. Therefore, with the consent of the customer, the analysis system 2 extracts the data necessary for remodeling the black box model 15 from the input database 13 again, and provides the extracted data to the control system 1. The control system 1 remodels the black box model 15 using the provided data.

(再モデリング)
次に、ブラックボックスモデル15の再モデリングの処理について説明する。
図1の左上にある提案学習データ抽出部27(抽出部の一例)は、再モデリング方法提案部26から出力された指示に基づいて、入力データベース13から入力データを抽出する処理を開始する。再モデリング方法提案部26から出力された指示は、例えば、再モデリング方法提案部26がサービス提供者に提案し、了承を得た再モデリング方法の実行指示である。再モデリング方法提案部26は、例えば、複数の再モデリング方法を提案すると、サービス提供者により、一つの再モデリング方法が選択される。そして、サービス提供者が選択した再モデリング方法の実行指示が行われることで、提案学習データ抽出部27が始動する。そして、提案学習データ抽出部27は、再モデリング方法提案部26により指示された再モデリング方法に基づいて入力データベース13から抽出した入力データを、ブラックボックスモデル15を作成するブラックボックスモデル作成装置14に出力する。
(Remodeling)
Next, the process of remodeling the black box model 15 will be described.
The proposal learning data extraction unit 27 (an example of the extraction unit) at the upper left of FIG. 1 starts a process of extracting input data from the input database 13 based on the instruction output from the remodeling method proposal unit 26. The instruction output from the remodeling method proposal unit 26 is, for example, an execution instruction of the remodeling method proposed by the remodeling method proposal unit 26 to the service provider and obtained approval. When the remodeling method proposal unit 26 proposes, for example, a plurality of remodeling methods, the service provider selects one remodeling method. Then, the proposed learning data extraction unit 27 is started by the execution instruction of the remodeling method selected by the service provider. Then, the proposal learning data extraction unit 27 uses the input data extracted from the input database 13 based on the remodeling method instructed by the remodeling method proposal unit 26 into the black box model creation device 14 for creating the black box model 15. Output.

提案学習データ抽出部27が入力データベース13から抽出する入力データは、ブラックボックスモデル15の再モデリングに必要となる提案学習データとして用いられる。例えば、入力データベース13からは、精度判定部21によりブラックボックスモデル15の予測値の精度が悪化したと判定された時点以降に蓄積された入力データが提案学習データとして抽出される。提案学習データ抽出部27が抽出した提案学習データは、ブラックボックスモデル作成装置14に出力される。 The input data extracted from the input database 13 by the proposed learning data extraction unit 27 is used as the proposed learning data required for remodeling the black box model 15. For example, from the input database 13, the input data accumulated after the time when the accuracy determination unit 21 determines that the accuracy of the predicted value of the black box model 15 has deteriorated is extracted as the proposed learning data. The proposed learning data extracted by the proposed learning data extraction unit 27 is output to the black box model creating device 14.

なお、提案学習データ抽出部27は、再モデリング方法提案部26が提案した再モデリング方法に対して修正があった場合(例えば、入力データの抽出期間の変更)、この修正した方法に従って再モデリング方法提案部26から再モデリング方法に基づくデータ抽出の指示が出力される。この場合においても、提案学習データ抽出部27は、データ抽出の指示に従って、入力データベース13から入力データ(提案学習データ)を抽出することができる。 When the remodeling method proposed by the remodeling method proposal unit 26 is modified (for example, the input data extraction period is changed), the proposed learning data extraction unit 27 remodeling method according to the modified method. The proposal unit 26 outputs an instruction for data extraction based on the remodeling method. Even in this case, the proposal learning data extraction unit 27 can extract the input data (proposal learning data) from the input database 13 according to the instruction of data extraction.

ブラックボックスモデル作成装置14は、提案学習データ抽出部27から入力される提案学習データを再学習用データとして用いて、ブラックボックスモデル15を再作成する。ブラックボックスモデル15の再作成は、提案学習データ抽出部27から再学習用データとして入力される実測値の提案学習データを説明変数及び目的変数として用いて、ブラックボックスモデル15を再作成する処理である。この処理の後、制御システム1では、再作成されたブラックボックスモデル15を用いて、実測値に対する予測値を出力する処理が行われる。 The black box model creating device 14 recreates the black box model 15 by using the proposed learning data input from the proposed learning data extraction unit 27 as the relearning data. The re-creation of the black box model 15 is a process of re-creating the black box model 15 by using the proposed learning data of the actually measured values input as the re-learning data from the proposed learning data extraction unit 27 as the explanatory variables and the objective variables. is there. After this process, the control system 1 performs a process of outputting a predicted value with respect to the actually measured value by using the recreated black box model 15.

また、ブラックボックスモデル15が再作成されると、ホワイトボックスモデル作成部23は、ホワイトボックスモデル24を再作成する。この際、ホワイトボックスモデル作成部23には、ブラックボックスモデル15の再作成時にブラックボックスモデル作成装置14に入力された提案学習データが、再学習用データとして入力される。そして、ホワイトボックスモデル作成部23は、提案学習データ抽出部27から入力される実測値の再学習用データを説明変数及び目的変数として用いて、ホワイトボックスモデル24を再作成する。このようなブラックボックスモデル15の予測値の精度判定、精度悪化要因の特定、ブラックボックスモデル15及びホワイトボックスモデル24の再作成が繰り返し行われる。 When the black box model 15 is recreated, the white box model creation unit 23 recreates the white box model 24. At this time, the proposed learning data input to the black box model creation device 14 at the time of recreating the black box model 15 is input to the white box model creation unit 23 as relearning data. Then, the white box model creation unit 23 recreates the white box model 24 by using the re-learning data of the measured values input from the proposed learning data extraction unit 27 as the explanatory variables and the objective variables. Such accuracy determination of the predicted value of the black box model 15, identification of the cause of deterioration of accuracy, and re-creation of the black box model 15 and the white box model 24 are repeatedly performed.

<データの流れ>
次に、各システムで用いられるデータの流れについて説明する。
図2は、制御システム1及び分析システム2で用いられる様々なデータの流れの例を示す図である。図2では、データの流れに注目するため、ブラックボックスモデル作成装置14、精度判定部21及びホワイトボックスモデル作成部23の記載を省略する。
<Data flow>
Next, the flow of data used in each system will be described.
FIG. 2 is a diagram showing an example of various data flows used in the control system 1 and the analysis system 2. In FIG. 2, in order to pay attention to the data flow, the description of the black box model creation device 14, the accuracy determination unit 21, and the white box model creation unit 23 is omitted.

図1に示した入力データベース13には、多数の入力データが格納される。上述したようにブラックボックスモデル作成装置14は、入力データを入力としてブラックボックスモデル15を作成する。ホワイトボックスモデル作成部23は、入力データと、ブラックボックスモデル15が出力するデータとを用いてホワイトボックスモデル24を作成する。 A large amount of input data is stored in the input database 13 shown in FIG. As described above, the black box model creation device 14 creates the black box model 15 by using the input data as an input. The white box model creation unit 23 creates the white box model 24 using the input data and the data output by the black box model 15.

制御システム1の運用開始後に、ブラックボックスモデル15は、運用開始後の実測値である入力データを入力として、予測値を出力する。しかし、制御システム1の運用期間が長くなると、ブラックボックスモデル15が作成された時点よりも予測値の予測精度が変化する。そこで、図1に示した精度判定部21が算出した予測精度が、予め定めた閾値より悪化すると、ブラックボックスモデル15の予測精度が悪化した要因を特定する処理が行われる。例えば、精度判定部21が算出した予測精度が、80%から70%未満(閾値10%以上の変化)に変化すると、予測精度が悪化したと判定される。 After the start of operation of the control system 1, the black box model 15 takes input data, which is an actually measured value after the start of operation, as an input and outputs a predicted value. However, when the operation period of the control system 1 becomes long, the prediction accuracy of the predicted value changes from the time when the black box model 15 is created. Therefore, when the prediction accuracy calculated by the accuracy determination unit 21 shown in FIG. 1 deteriorates from a predetermined threshold value, a process for identifying the cause of the deterioration in the prediction accuracy of the black box model 15 is performed. For example, when the prediction accuracy calculated by the accuracy determination unit 21 changes from 80% to less than 70% (change of threshold value 10% or more), it is determined that the prediction accuracy has deteriorated.

ただし、サービス提供者は、ブラックボックスモデル15の外部から、その処理の内容を知ることができない。そこで、ホワイトボックスモデル作成部23は、ブラックボックスモデル15の処理を可視化したホワイトボックスモデル24を作成しておく。この際、ホワイトボックスモデル作成部23は、入力データベース13から読み出した入力データ(実測値)を説明変数とし、ブラックボックスモデル15の出力データ(予測値)を目的変数としてホワイトボックスモデル24を作成する。図中には、ホワイトボックスモデル24として、例えば、決定木モデル24a及びクラスタリングモデル24bが作成されたことが示される。 However, the service provider cannot know the content of the process from the outside of the black box model 15. Therefore, the white box model creation unit 23 creates a white box model 24 that visualizes the processing of the black box model 15. At this time, the white box model creation unit 23 creates the white box model 24 using the input data (measured value) read from the input database 13 as an explanatory variable and the output data (predicted value) of the black box model 15 as an objective variable. .. In the figure, it is shown that, for example, the decision tree model 24a and the clustering model 24b were created as the white box model 24.

<ホワイトボックスモデルの例>
ここで、ホワイトボックスモデル24の一例として用いられる、決定木モデル24a及びクラスタリングモデル24bの構成例について、図3と図4を参照して説明する。
<Example of white box model>
Here, a configuration example of the decision tree model 24a and the clustering model 24b used as an example of the white box model 24 will be described with reference to FIGS. 3 and 4.

(決定木モデル)
図3は、決定木モデル24aの構成例を示す図である。決定木モデルは、最上位にあるルートと、ルートに接続されたノード、子がないノードであるリーフによって構成される木構造を用いて、事象を分類する手法である。ここでは、ホワイトボックスモデル24が、決定木モデル24aで表されたとする。決定木モデル24aは、所定の発生率で機器12に出現する事象を所定の条件で分岐する決定木で構成され、この決定木により事象が特定される。決定木モデル24aは、ルート31、ノード33、リーフ32,34,35によって構成される。
(Decision tree model)
FIG. 3 is a diagram showing a configuration example of the decision tree model 24a. The decision tree model is a method of classifying events using a tree structure consisting of a root at the top, a node connected to the root, and a leaf that is a node without children. Here, it is assumed that the white box model 24 is represented by the decision tree model 24a. The decision tree model 24a is composed of a decision tree that branches an event that appears in the device 12 at a predetermined occurrence rate under a predetermined condition, and the event is specified by the decision tree. The decision tree model 24a is composed of a route 31, a node 33, and leaves 32, 34, 35.

(学習時)
始めに、ブラックボックスモデル作成装置14がブラックボックスモデル15を作成した学習時に、決定木モデル24aがどのような構成であったかを説明する。決定木モデル24aでは、ルート31にて、発生率が15%の事象(例えば、計測対象である機器12の水分値、機器12の不良等)が分類対象とされる。ここで、学習時には、1000個以上の事象がブラックボックスモデル15及びホワイトボックスモデル24の作成に用いられたとする。そして、学習時には、後述する図10の決定木モデル表示部W1aに示すように、板厚が20以上である分岐条件に対して、決定木モデル24aのノード33で表される事象の発生率が30%であり、加熱温度が200℃未満であるリーフ34で表される事象の発生率が50%であったとする。ここで、学習時に算出された事象の発生率をノード33、リーフ34,35の近傍に括弧書きで併記する。
(At the time of learning)
First, the configuration of the decision tree model 24a at the time of learning when the black box model creation device 14 created the black box model 15 will be described. In the decision tree model 24a, an event having an occurrence rate of 15% (for example, a moisture value of the device 12 to be measured, a defect of the device 12, etc.) is classified in the route 31. Here, it is assumed that 1000 or more events were used to create the black box model 15 and the white box model 24 at the time of learning. Then, at the time of learning, as shown in the decision tree model display unit W1a of FIG. 10, which will be described later, the occurrence rate of the event represented by the node 33 of the decision tree model 24a is set against the branching condition in which the plate thickness is 20 or more. It is assumed that the occurrence rate of the event represented by the leaf 34, which is 30% and the heating temperature is less than 200 ° C., is 50%. Here, the occurrence rate of the event calculated at the time of learning is written in parentheses in the vicinity of the node 33 and the leaves 34 and 35.

(計測時)
次に、制御システム1の運用開始後、すなわち計測装置11による機器12の計測時において、ブラックボックスモデル15の予測精度が変化(悪化)した時点で、決定木モデル24aがどのような構成に変化するかを説明する。決定木モデル24aが、ルート31にて、発生率が15%の事象を分類対象とすることは、学習時と同様である。そして、計測時には、500個の事象がホワイトボックスモデル24の作成に用いられたとする。
(At the time of measurement)
Next, when the prediction accuracy of the black box model 15 changes (deteriorates) after the start of operation of the control system 1, that is, at the time of measurement of the device 12 by the measuring device 11, what kind of configuration the decision tree model 24a changes to. Explain what to do. It is the same as at the time of learning that the decision tree model 24a classifies the events having an occurrence rate of 15% on the route 31. Then, it is assumed that 500 events were used to create the white box model 24 at the time of measurement.

しかし、計測時には、ノード33で表される事象の発生率が30%から25%に低下し、さらに、リーフ34で表される事象の発生率が50%から30%に低下したとする。つまり、リーフ34で表される事象の発生率は、学習時に50%であったのが、計測時に20%低下して30%になったことから、分岐36における精度が著しく悪化している。このように精度悪化要因特定部25は、判定期間に蓄積された入力データを決定木モデル24aに入力し、決定木の分岐ごとに事象の発生率を算出する。 However, at the time of measurement, it is assumed that the occurrence rate of the event represented by the node 33 is reduced from 30% to 25%, and the occurrence rate of the event represented by the leaf 34 is further reduced from 50% to 30%. That is, the occurrence rate of the event represented by the leaf 34 was 50% at the time of learning, but decreased by 20% at the time of measurement to 30%, so that the accuracy at the branch 36 is remarkably deteriorated. In this way, the accuracy deterioration factor identification unit 25 inputs the input data accumulated in the determination period into the decision tree model 24a, and calculates the event occurrence rate for each branch of the decision tree.

そして、精度悪化要因特定部25は、学習期間に算出される事象の発生率と、判定期間に算出される事象の発生率との変化量が、閾値よりも大きくなった場合に、決定木の分岐条件を予測値の精度が変化した要因として特定する。特定された精度悪化要因は、再モデリング方法提案部26により表示装置65に表示される。このように、ホワイトボックスモデル24として決定木モデル24aが用いられると、サービス提供者は、ブラックボックスモデル15の予測値の精度悪化要因を把握しやすくなる。 Then, the accuracy deterioration factor identification unit 25 determines when the amount of change between the event occurrence rate calculated during the learning period and the event occurrence rate calculated during the determination period becomes larger than the threshold value. Identify the branching condition as a factor that changes the accuracy of the predicted value. The identified accuracy deterioration factor is displayed on the display device 65 by the remodeling method proposing unit 26. As described above, when the decision tree model 24a is used as the white box model 24, the service provider can easily grasp the factors that deteriorate the accuracy of the predicted value of the black box model 15.

(クラスタリングモデル)
図4は、クラスタリングモデル24bの構成例を示す図である。ホワイトボックスモデル24は、クラスタリング手法を用いて説明変数(実測値)について同種の特徴を持つ部分集合に分割したクラスタリングモデル24bを生成する。通常、説明変数(実測値)は複数用いられるが、ここでは分かり易く説明するために2つの説明変数を用いて説明する。例えば、「板厚」と「加熱温度」の説明変数から成る同種の特徴を持つ部分集合として、クラスタ41、42、43という3つのクラスタで構成される。このため、ホワイトボックスモデル24は、機器12に出現する事象を、同じ特徴を持つ部分集合に分割したクラスタ41,42,43ごとに分類するクラスタリングモデル24bで表される。
(Clustering model)
FIG. 4 is a diagram showing a configuration example of the clustering model 24b. The white box model 24 uses a clustering method to generate a clustering model 24b divided into subsets having the same characteristics for explanatory variables (measured values). Normally, a plurality of explanatory variables (measured values) are used, but here, two explanatory variables will be used for easy explanation. For example, it is composed of three clusters, clusters 41, 42, and 43, as a subset having the same characteristics consisting of explanatory variables of "plate thickness" and "heating temperature". Therefore, the white box model 24 is represented by a clustering model 24b that classifies the events appearing in the device 12 into clusters 41, 42, and 43 having the same characteristics.

(学習時)
始めに、ブラックボックスモデル作成装置14がブラックボックスモデル15を作成した学習時に、クラスタリングモデル24bがどのような構成であったかを説明する。クラスタリングモデル24bでは、板厚が20以上、かつ加熱温度が200℃未満であるクラスタ43で表される事象の発生率が50%であったとする。ここで、学習時に算出された事象の発生率をクラスタ41、42、43の近傍に括弧書きで併記する。
(At the time of learning)
First, the configuration of the clustering model 24b at the time of learning when the black box model creation device 14 created the black box model 15 will be described. In the clustering model 24b, it is assumed that the occurrence rate of the event represented by the cluster 43 having a plate thickness of 20 or more and a heating temperature of less than 200 ° C. is 50%. Here, the occurrence rate of the event calculated at the time of learning is also written in parentheses in the vicinity of the clusters 41, 42, and 43.

(計測時)
次に、制御システム1の運用開始後、すなわち計測装置11による機器12の計測時において、ブラックボックスモデル15の予測精度が変化(悪化)した時点で、クラスタリングモデル24bがどのような構成に変化するかを説明する。
(At the time of measurement)
Next, when the prediction accuracy of the black box model 15 changes (deteriorates) after the start of operation of the control system 1, that is, at the time of measurement of the device 12 by the measuring device 11, what kind of configuration the clustering model 24b changes to. Explain.

計測時には、クラスタ43で表される事象の発生率が50%から30%に低下したとする。つまり、クラスタ43で表される事象の発生率は、学習時に50%であったのが、計測時に20%低下して30%になったことから、クラスタ43における精度が著しく悪化している。このように精度悪化要因特定部25は、判定期間に蓄積された入力データをクラスタリングモデル24bに入力し、クラスタごとに事象の発生率を算出する。 At the time of measurement, it is assumed that the occurrence rate of the event represented by the cluster 43 has decreased from 50% to 30%. That is, the occurrence rate of the event represented by the cluster 43 was 50% at the time of learning, but decreased by 20% at the time of measurement to 30%, so that the accuracy in the cluster 43 is remarkably deteriorated. In this way, the accuracy deterioration factor identification unit 25 inputs the input data accumulated during the determination period to the clustering model 24b, and calculates the event occurrence rate for each cluster.

そして、精度悪化要因特定部25は、学習期間に算出される事象の発生率と、判定期間に算出される事象の発生率との変化量が、閾値よりも大きくなった場合に、変化量が大きくなったクラスタの特徴を予測値の精度が変化した要因として特定する。精度悪化要因特定部25により特定された精度悪化要因は、再モデリング方法提案部26により表示装置65に表示される。このように、ホワイトボックスモデル24としてクラスタリングモデル24bが用いられると、サービス提供者は、ブラックボックスモデル15の予測値の精度悪化要因を把握しやすくなる。 The accuracy deterioration factor specifying section 25, the incidence of an event that is calculated in the learning period, the amount of change in the incidence of an event that is calculated in the decision period, when it becomes greater than the threshold value, the amount of change is Identify the characteristics of the enlarged cluster as a factor that changed the accuracy of the predicted value. The accuracy deterioration factor identified by the accuracy deterioration factor identification unit 25 is displayed on the display device 65 by the remodeling method proposal unit 26. As described above, when the clustering model 24b is used as the white box model 24, the service provider can easily grasp the cause of deterioration in the accuracy of the predicted value of the black box model 15.

ここで、精度悪化要因特定部25は、変化量が大きくなったクラスタ43について、クラスタ43からの距離が最も近いクラスタ41と、クラスタ43との中心間の距離44を算出する。これは、最も近いクラスタに対して、どの説明変数の値が大きく異なるクラスタなのかを知ることで、そのクラスタの特徴を抽出するためである。距離44は、ユークリッド距離を前提とするが、その他の任意の距離(マハラノビス距離、チェビシェフ距離、ミンコフスキー距離等)であってもよい。さらに、距離44に対する説明変数毎の距離成分を抽出する。距離44の距離成分については、例えば、板厚で「10」、加熱温度で「5」のように抽出される。このとき、「板厚」の距離成分が「加熱温度」の距離成分より大きいため、「板厚」が予測値の精度を変化させた要因であると特定する。 Here, the accuracy deterioration factor identification unit 25 calculates the distance 44 between the cluster 41, which is the closest to the cluster 43, and the center of the cluster 43, for which the amount of change has increased. This is to extract the characteristics of the cluster by knowing which explanatory variable values are significantly different from the closest cluster. The distance 44 is premised on the Euclidean distance, but may be any other distance (Mahalanobis distance, Chebyshev distance, Minkowski distance, etc.). Further, the distance component for each explanatory variable for the distance 44 is extracted. The distance component of the distance 44 is extracted, for example, "10" for the plate thickness and "5" for the heating temperature. At this time, since the distance component of the "plate thickness" is larger than the distance component of the "heating temperature", it is specified that the "plate thickness" is a factor that changes the accuracy of the predicted value.

(分析システムの処理)
以上の説明により、計測時にブラックボックスモデル15から出力される予測値の精度が悪化したのは、図3に示した分岐条件、又は図4に示したクラスタ間の距離における距離成分が最も大きい説明変数が要因であることが示された。このため、精度悪化要因特定部25は、ホワイトボックスモデル24を用いて精度悪化の要因を特定することが可能となる。
(Processing of analysis system)
According to the above explanation, the accuracy of the predicted value output from the black box model 15 at the time of measurement deteriorated because the branching condition shown in FIG. 3 or the distance component in the distance between clusters shown in FIG. 4 was the largest. It was shown that the variable was the factor. Therefore, the accuracy deterioration factor identification unit 25 can identify the accuracy deterioration factor by using the white box model 24.

<計算機のハードウェア構成例>
次に、制御システム1及び分析システム2のそれぞれのシステムで構成される計算機60のハードウェア構成を説明する。
図5は、計算機60のハードウェア構成例を示すブロック図である。計算機60は、制御システム1及び分析システム2の各機能を実現するコンピューターとして用いられるハードウェアの一例である。
<Computer hardware configuration example>
Next, the hardware configuration of the computer 60 composed of the respective systems of the control system 1 and the analysis system 2 will be described.
FIG. 5 is a block diagram showing a hardware configuration example of the computer 60. The computer 60 is an example of hardware used as a computer that realizes each function of the control system 1 and the analysis system 2.

計算機60は、バス64にそれぞれ接続されたCPU(Central Processing Unit)61、ROM(Read Only Memory)62、及びRAM(Random Access Memory)63、表示装置65、入力装置66、不揮発性ストレージ67及びネットワークインターフェイス68を備える。 The computer 60 includes a CPU (Central Processing Unit) 61, a ROM (Read Only Memory) 62, a RAM (Random Access Memory) 63, a display device 65, an input device 66, a non-volatile storage 67, and a network connected to the bus 64, respectively. It has an interface 68.

CPU61は、本実施の形態に係る各機能を実現するソフトウェアのプログラムコードをROM62から読み出してRAM63にロードし、実行する。RAM63には、CPU61の演算処理の途中で発生した変数やパラメーター等が一時的に書き込まれ、これらの変数やパラメーター等がCPU61によって適宜読み出される。ただし、CPU61に代えてMPU(Micro Processing Unit)を用いてもよい。 The CPU 61 reads the program code of the software that realizes each function according to the present embodiment from the ROM 62, loads it into the RAM 63, and executes the program code. Variables and parameters generated during the arithmetic processing of the CPU 61 are temporarily written in the RAM 63, and these variables and parameters are appropriately read by the CPU 61. However, an MPU (Micro Processing Unit) may be used instead of the CPU 61.

表示装置65は、例えば、液晶ディスプレイモニターであり、計算機60で行われる処理の結果等を、各システムを使用するユーザーに表示する。入力装置66には、例えば、キーボード、マウス等が用いられ、ユーザーが所定の操作入力、指示を行うことが可能である。 The display device 65 is, for example, a liquid crystal display monitor, and displays the result of processing performed by the computer 60 or the like to a user who uses each system. For example, a keyboard, a mouse, or the like is used as the input device 66, and the user can perform predetermined operation inputs and instructions.

不揮発性ストレージ67としては、例えば、HDD、SSD(Solid State Drive)、フレキシブルディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ又は不揮発性のメモリ等が用いられる。この不揮発性ストレージ67には、OS(Operating System)、各種のパラメーターの他に、計算機60を機能させるためのプログラムが記録されている。ROM62及び不揮発性ストレージ67は、CPU61が動作するために必要なプログラムやデータ等を記録しており、計算機60によって実行されるプログラムを格納したコンピューター読取可能な非一過性の記憶媒体の一例として用いられる。 As the non-volatile storage 67, for example, an HDD, SSD (Solid State Drive), flexible disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, non-volatile memory, or the like is used. In this non-volatile storage 67, in addition to the OS (Operating System) and various parameters, a program for operating the computer 60 is recorded. The ROM 62 and the non-volatile storage 67 record programs, data, and the like necessary for the CPU 61 to operate, and as an example of a computer-readable non-transient storage medium that stores a program executed by the computer 60. Used.

ネットワークインターフェイス68には、例えば、NIC(Network Interface Card)等が用いられ、NICの端子に接続されたLAN(Local Area Network)、専用線等を介して各種のデータを装置間で送受信することが可能である。例えば、ネットワークインターフェイス68を介して、制御システム1と分析システム2がデータを送受信することができる。 For the network interface 68, for example, a NIC (Network Interface Card) or the like is used, and various data can be transmitted and received between the devices via a LAN (Local Area Network) connected to the terminal of the NIC, a dedicated line, or the like. It is possible. For example, the control system 1 and the analysis system 2 can send and receive data via the network interface 68.

<制御システム及び分析システムの処理>
次に、制御システム1及び分析システム2全体の処理について、図6〜図9を参照して説明する。
図6は、制御システム1及び分析システム2全体の処理の例を示すフローチャートである。なお、図6に破線で示す処理は、制御システム1で行われる処理を表し、図6に実線で示す処理は、分析システム2で行われる処理(機械学習モデル精度分析方法の一例)を表す。
<Processing of control system and analysis system>
Next, the processing of the control system 1 and the analysis system 2 as a whole will be described with reference to FIGS. 6 to 9.
FIG. 6 is a flowchart showing an example of processing of the entire control system 1 and analysis system 2. The process shown by the broken line in FIG. 6 represents the process performed by the control system 1, and the process shown by the solid line in FIG. 6 represents the process performed by the analysis system 2 (an example of the machine learning model accuracy analysis method).

始めに、ブラックボックスモデル作成装置14は、入力データベース13から読み出した学習データを用いて、ブラックボックスモデル15を作成する(S1)。 First, the black box model creation device 14 creates the black box model 15 using the learning data read from the input database 13 (S1).

次に、ホワイトボックスモデル作成部23は、入力データベース13から読み出した学習データを用いて、ホワイトボックスモデル24を作成する(S2)。ここで、図7を参照して、ステップS2のホワイトボックスモデル24の作成処理について説明する。 Next, the white box model creation unit 23 creates the white box model 24 using the learning data read from the input database 13 (S2). Here, the process of creating the white box model 24 in step S2 will be described with reference to FIG. 7.

<ホワイトボックスモデル作成処理>
図7は、ホワイトボックスモデル24の作成処理の例を示すフローチャートである。
始めに、ホワイトボックスモデル作成部23は、学習データが入力されたブラックボックスモデル15から出力される予測値を用意する(S11)。
<White box model creation process>
FIG. 7 is a flowchart showing an example of the creation process of the white box model 24.
First, the white box model creation unit 23 prepares a predicted value output from the black box model 15 into which the training data is input (S11).

次に、ホワイトボックスモデル作成部23は、ブラックボックスモデル15から出力された予測値を目的変数とし、ブラックボックスモデル15に入力されたものと同じ学習データを説明変数として、決定木モデル24a(ホワイトボックスモデル24)を作成する(S12)。以下の説明では、このホワイトボックスモデル24が、図3に示した決定木モデル24aで表されるものとする。 Next, the white box model creation unit 23 uses the predicted value output from the black box model 15 as the objective variable and the same training data as the one input to the black box model 15 as the explanatory variable, and sets the decision tree model 24a (white). The box model 24) is created (S12). In the following description, it is assumed that the white box model 24 is represented by the decision tree model 24a shown in FIG.

次に、ホワイトボックスモデル作成部23は、決定木モデル24a(ホワイトボックスモデル24)の分岐ごとの精度を計算しておく(S13)。そして、ホワイトボックスモデル作成部23は、図6に処理を戻す。 Next, the white box model creation unit 23 calculates the accuracy of each branch of the decision tree model 24a (white box model 24) (S13). Then, the white box model creation unit 23 returns the process to FIG.

再び図6の説明を続ける。
図6のステップS2でホワイトボックスモデル24が作成された後、制御システム1の運用が開始される。入力データベース13には、制御システム1で用いられた実測値の入力データが蓄積され、精度データ蓄積データベース16には、入力データベース13から読み出された、制御システム1の運用開始後の入力データが蓄積される。
The explanation of FIG. 6 will be continued again.
After the white box model 24 is created in step S2 of FIG. 6, the operation of the control system 1 is started. The input database 13 stores the input data of the measured values used in the control system 1, and the accuracy data storage database 16 stores the input data read from the input database 13 after the start of operation of the control system 1. Accumulate.

次に、精度判定部21は、入力データが入力されたブラックボックスモデル15から出力される予測値の精度をモニタリングする(S3)。この際、精度判定部21は、精度データ蓄積データベース16に蓄積された実測値と、ブラックボックスモデル15から出力される予測値とを比較して、予測値の精度を算出する。 Next, the accuracy determination unit 21 monitors the accuracy of the predicted value output from the black box model 15 into which the input data is input (S3). At this time, the accuracy determination unit 21 calculates the accuracy of the predicted value by comparing the actually measured value stored in the accuracy data storage database 16 with the predicted value output from the black box model 15.

次に、精度判定部21は、ブラックボックスモデル15の予測値の精度、すなわちブラックボックスモデル15から出力される予測値の精度が悪いか否かを判定する(S4)。精度判定部21は、ブラックボックスモデル15の予測値の精度が悪くないと判定した場合(S4のNO)、再びステップS3に戻って、モニタリングを続ける。 Next, the accuracy determination unit 21 determines whether or not the accuracy of the predicted value of the black box model 15, that is, the accuracy of the predicted value output from the black box model 15 is poor (S4). When the accuracy determination unit 21 determines that the accuracy of the predicted value of the black box model 15 is not bad (NO in S4), the accuracy determination unit 21 returns to step S3 again and continues monitoring.

一方、精度判定部21が、ブラックボックスモデル15の予測値の精度が悪いと判定した場合(S4のYES)、精度悪化要因特定部25は、精度悪化要因を特定する処理を行う(S5)。ここで、図8を参照して、精度悪化要因特定部25により行われる、ステップS5に示した精度悪化要因を特定する処理について説明する。 On the other hand, when the accuracy determination unit 21 determines that the accuracy of the predicted value of the black box model 15 is poor (YES in S4), the accuracy deterioration factor identification unit 25 performs a process of identifying the accuracy deterioration factor (S5). Here, with reference to FIG. 8, a process for identifying the accuracy deterioration factor shown in step S5, which is performed by the accuracy deterioration factor identification unit 25, will be described.

<精度悪化要因の特定処理>
図8は、分析システム2が、ブラックボックスモデル15の予測値の精度悪化要因を特定する処理の例を示すフローチャートである。
<Identification of factors that deteriorate accuracy>
FIG. 8 is a flowchart showing an example of a process in which the analysis system 2 identifies a factor that deteriorates the accuracy of the predicted value of the black box model 15.

始めに、精度悪化要因特定部25は、精度判定部21により、新しい入力データに対して適用されるブラックボックスモデル15の精度が悪くなったと判定された場合、ブラックボックスモデル15に入力されたものと同じ入力データを入力データベース13から読み出し、この入力データを決定木モデル24a(ホワイトボックスモデル24)に適用する(S21)。 First, when the accuracy determination unit 21 determines that the accuracy of the black box model 15 applied to the new input data has deteriorated, the accuracy deterioration factor identification unit 25 is input to the black box model 15. The same input data as is read from the input database 13, and this input data is applied to the determination tree model 24a (white box model 24) (S21).

次に、精度悪化要因特定部25は、ステップS21で適用された今回の入力データに対して、決定木モデル24aの分岐ごとの精度を算出する(S22)。 Next, the accuracy deterioration factor identification unit 25 calculates the accuracy of each branch of the decision tree model 24a with respect to the current input data applied in step S21 (S22).

次に、精度悪化要因特定部25は、決定木モデル24aの分岐ごとの精度を、ホワイトボックスモデル24に学習データを入力した時(図では「学習データ時」と記載)と、今回の入力データを入力した時(図では「入力データ時」と記載)とで比較する。そして、精度悪化要因特定部25は、精度の差が大きい箇所(例えば、図3の分岐36)を、精度悪化要因の分岐と特定する(S23)。ステップS23の後、精度悪化要因特定部25は、図6に処理を戻す。 Next, the accuracy deterioration factor identification unit 25 determines the accuracy of each branch of the decision tree model 24a when the training data is input to the white box model 24 (described as “training data” in the figure) and the input data this time. Is compared with the time when is input (indicated as "input data time" in the figure). Then, the accuracy deterioration factor specifying unit 25 identifies a portion having a large difference in accuracy (for example, the branch 36 in FIG. 3) as a branch of the accuracy deterioration factor (S23). After step S23, the accuracy deterioration factor identification unit 25 returns the process to FIG.

ステップS5の後、再モデリング方法提案部26は、ブラックボックスモデル15の再モデリング方法を提案する(S6)。ここで、図9を参照して、ステップS6に示したブラックボックスモデル15の再モデリング方法を提案する処理について説明する。 After step S5, the remodeling method proposal unit 26 proposes a remodeling method for the black box model 15 (S6). Here, with reference to FIG. 9, a process of proposing a remodeling method of the black box model 15 shown in step S6 will be described.

<再モデリング方法の提案処理>
図9は、再モデリング方法提案部26が、ブラックボックスモデル15の再モデリング方法を提案する処理の例を示すフローチャートである。
<Proposal processing of remodeling method>
FIG. 9 is a flowchart showing an example of a process in which the remodeling method proposal unit 26 proposes a remodeling method for the black box model 15.

始めに、再モデリング方法提案部26は、精度悪化要因特定部25が精度の悪化要因を特定するために用いた、新しい入力データに関して、悪化要因が特定された分岐に注目し、この分岐の期間ごとの精度を計算する。この入力データは、精度悪化要因特定部25により入力データベース13から判定期間で読み出されたものである。そして、再モデリング方法提案部26は、悪化要因が特定された分岐の精度が変化した時点を表す精度の変化点を抽出する(S31)。 First, the remodeling method proposal unit 26 pays attention to the branch in which the deterioration factor is identified with respect to the new input data used by the accuracy deterioration factor identification unit 25 to identify the accuracy deterioration factor, and the period of this branch. Calculate the accuracy of each. This input data is read from the input database 13 by the accuracy deterioration factor identification unit 25 during the determination period. Then, the remodeling method proposal unit 26 extracts the change point of the accuracy indicating the time when the accuracy of the branch in which the deterioration factor is specified changes (S31).

次に、再モデリング方法提案部26は、抽出した精度の変化点以降で取得可能な入力データを新しい学習データとしてブラックボックスモデル15を再モデリングする提案を行う(S32)。この提案として、例えば、後述する図10に示す再モデリング方法の提案画面を表示する処理が行われる。 Next, the remodeling method proposal unit 26 proposes to remodel the black box model 15 using the input data that can be acquired after the extracted accuracy change point as new learning data (S32). As this proposal, for example, a process of displaying a proposal screen of the remodeling method shown in FIG. 10 to be described later is performed.

再モデリング方法の提案処理においては、後述する図10に示すような、サービス提供者が確認可能な提案画面W1が表示される。この提案画面W1は、サービス提供者が、機械学習で既に作成されているホワイトボックスモデル24に対して、判定期間の入力データを入力した際に現れる決定木モデルの分岐の発生率がどのように変化するかを確認するために用いられる。また、この提案画面W1には、サービス提供者及び顧客への再モデリング方法が提案される。ステップS32の後、図6に処理が戻り、顧客が再モデリング方法の提案を了承すると、図6のステップS1に戻ってブラックボックスモデル15の再作成が行われる。 In the proposal processing of the remodeling method, the proposal screen W1 that can be confirmed by the service provider is displayed as shown in FIG. 10 described later. In this proposal screen W1, how is the occurrence rate of branching of the decision tree model that appears when the service provider inputs the input data of the judgment period to the white box model 24 already created by machine learning? It is used to see if it changes. Further, on the proposal screen W1, a remodeling method for the service provider and the customer is proposed. After step S32, the process returns to FIG. 6, and when the customer approves the proposal of the remodeling method, the process returns to step S1 of FIG. 6 and the black box model 15 is recreated.

ブラックボックスモデル15の再作成の処理では、図6のステップS1で、提案学習データ抽出部27が入力データベース13から抽出した、精度悪化要因特定部25により悪化要因が特定された分岐精度の変化点以降の入力データが再学習用データとして用いられる。そして、ブラックボックスモデル作成装置14がブラックボックスモデル15を再作成する。その後、計測時には、再作成されたブラックボックスモデル15が用いられる。 In the process of recreating the black box model 15, the change point of the branching accuracy in which the deterioration factor is specified by the accuracy deterioration factor identification unit 25 extracted from the input database 13 by the proposal learning data extraction unit 27 in step S1 of FIG. Subsequent input data is used as re-learning data. Then, the black box model creation device 14 recreates the black box model 15. After that, at the time of measurement, the recreated black box model 15 is used.

<再モデリング方法の提案画面>
図10は、再モデリング方法の提案画面W1の表示例を示す図である。この提案画面W1は、例えば、図5に示した表示装置65に表示される。
<Proposal screen for remodeling method>
FIG. 10 is a diagram showing a display example of the proposal screen W1 of the remodeling method. The proposal screen W1 is displayed, for example, on the display device 65 shown in FIG.

提案画面W1は、決定木モデル表示部W1a,W1b、グラフ表示部W1cを備える。再モデリング方法提案部26は、ブラックボックスモデル15の学習時に用いられた入力データが入力されたホワイトボックスモデル24の出力結果と、ブラックボックスモデル15の予測値の精度が変化した時点を含む判定期間の入力データが入力されたホワイトボックスモデル24の出力結果とを提案画面W1に示す。 The proposal screen W1 includes decision tree model display units W1a and W1b, and a graph display unit W1c. The remodeling method proposal unit 26 includes a determination period including the output result of the white box model 24 into which the input data used during the training of the black box model 15 is input and the time when the accuracy of the predicted value of the black box model 15 changes. The output result of the white box model 24 into which the input data of the above is input is shown on the proposal screen W1.

例えば、決定木モデル表示部W1aには、ブラックボックスモデル15が作成された学習時に、ホワイトボックスモデル作成部23が作成したホワイトボックスモデル24が、決定木モデル24aとして表示される。決定木モデル表示部W1aに示される決定木モデル24aには、例えば、2019年8月〜12月の学習期間で入力データベース13から取得した1000件の入力データを用いて決定木モデル24aの分岐ごとに算出された事象ごとの件数及び発生率が表示される。 For example, on the decision tree model display unit W1a, the white box model 24 created by the white box model creation unit 23 is displayed as the decision tree model 24a at the time of learning when the black box model 15 is created. For the decision tree model 24a shown in the decision tree model display unit W1a, for example, for each branch of the decision tree model 24a using 1000 input data acquired from the input database 13 during the learning period from August to December 2019. The number of cases and the occurrence rate for each event calculated in are displayed.

また、決定木モデル表示部W1bには、ブラックボックスモデル15の予測値の精度が悪化したことで、精度悪化要因特定部25がホワイトボックスモデル24を通じて精度悪化要因を特定した時点におけるホワイトボックスモデル24が、決定木モデル24aとして表示される。決定木モデル表示部W1bに示される決定木モデル24aには、例えば、2020年1月〜3月の評価期間で入力データベース13から取得した500件の入力データを用いて決定木モデル24aの分岐ごとに算出された事象ごとの件数及び発生率が表示される。そして、決定木モデル表示部W1bには、決定木モデル24aの分岐36にて、リーフ34の発生率が20%低下したことがコメント71と共に表示されている。なお、リーフ35についても、発生率が学習時の10%から計測時の20%に上昇しており、何らかの異常がある。 Further, in the decision tree model display unit W1b, the accuracy of the predicted value of the black box model 15 deteriorates, so that the white box model 24 at the time when the accuracy deterioration factor identification unit 25 identifies the accuracy deterioration factor through the white box model 24. Is displayed as the decision tree model 24a. The decision tree model 24a shown in the decision tree model display unit W1b uses, for example, 500 input data acquired from the input database 13 during the evaluation period from January to March 2020 for each branch of the decision tree model 24a. The number of cases and the occurrence rate for each event calculated in are displayed. Then, on the decision tree model display unit W1b, it is displayed together with the comment 71 that the occurrence rate of the leaf 34 has decreased by 20% at the branch 36 of the decision tree model 24a. As for the leaf 35, the incidence rate has increased from 10% at the time of learning to 20% at the time of measurement, and there is some abnormality.

このように決定木モデル24aで示される事象で発生率の予測精度が変わった場合、この事象に至る経路の分岐(例えば、分岐36)では何らかの状態変化が発生していることが推測される。 When the prediction accuracy of the occurrence rate changes in the event shown by the decision tree model 24a in this way, it is presumed that some state change occurs in the branch of the route leading to this event (for example, branch 36).

グラフ表示部W1cには、発生率が低下した分岐36における発生率の推移を表すグラフが表示される。図中のグラフの横軸は日にち、縦軸は発生率を表す。そして、図1に示したブラックボックスモデル作成装置14がブラックボックスモデル15を作成するために入力データベース13から入力データを読み出した学習期間は、グラフ表示部W1cの左側の2019年08月〜12月の間である。一方、制御システム1が本番運用され、ブラックボックスモデル15の予測値の精度が判定される判定期間は、2020年01月〜03月の間である。 In the graph display unit W1c, a graph showing the transition of the occurrence rate in the branch 36 in which the occurrence rate has decreased is displayed. The horizontal axis of the graph in the figure represents the date, and the vertical axis represents the incidence. The learning period in which the black box model creation device 14 shown in FIG. 1 reads the input data from the input database 13 in order to create the black box model 15 is from August to December 2019 on the left side of the graph display unit W1c. Between. On the other hand, the determination period in which the control system 1 is put into production and the accuracy of the predicted value of the black box model 15 is determined is between January and March 2020.

ここで、学習時におけるリーフ34の発生率の平均が50%であるのに対して、計測時におけるリーフ34の発生率の平均が30%であることが表示される。特に、計測時の2020年2月からリーフ34の発生率が低下しており、ブラックボックスモデル15の予測値が変化している。 Here, it is displayed that the average occurrence rate of the leaf 34 at the time of learning is 50%, whereas the average occurrence rate of the leaf 34 at the time of measurement is 30%. In particular, the incidence of leaf 34 has decreased since February 2020 at the time of measurement, and the predicted value of the black box model 15 has changed.

そこで、グラフ表示部W1cの下部には、ホワイトボックスモデル24が合わなくなっている個所(例えば、2020年2月)以降のデータで再学習することを提案するコメント72が表示される。このように再モデリング方法提案部26は、精度悪化要因特定部25により特定された予測値の精度が変化した要因を示し、再モデリングで用いられる入力データの条件の変更を提案する。この際、再モデリング方法提案部26は、分岐36の発生率が低下した時点をブラックボックスモデル15の予測値の精度が低下した時点として示し、再モデリングで用いられる入力データの条件として、再モデリングで用いられる入力データを取得する期間を提案することができる。なお、ブラックボックスモデル15の再作成に必要な再学習用データのデータ数が少ない場合には、再学習用データを閾値まで蓄積することを促す提案がされてもよい。 Therefore, at the lower part of the graph display unit W1c, a comment 72 proposing to relearn with the data after the part where the white box model 24 does not fit (for example, February 2020) is displayed. In this way, the remodeling method proposing unit 26 indicates the factors that change the accuracy of the predicted value specified by the accuracy deterioration factor specifying unit 25, and proposes a change in the conditions of the input data used in the remodeling. In this case, re-modeling method proposed unit 26, shown as the time accuracy is lowered in the predicted value of the black box model 15 when the incidence of the branch 36 is lowered, as the condition of the input data used in remodeling, remodeling It is possible to propose a period for acquiring the input data used in. If the number of re-learning data required for recreating the black box model 15 is small, a proposal may be made to encourage the re-learning data to be accumulated up to the threshold value.

以上説明した第1の実施の形態に係る分析システム2では、制御システム1で使用されるブラックボックスモデル15を模して作成されたホワイトボックスモデル24を用いて、正常状態のブラックボックスモデル15から出力される予測値との差異を抽出する。そして、分析システム2は、精度悪化要因の特定、及び、予測値の精度を改善するためのブラックボックスモデル15の再モデリング方法をサービス提供者に提供することができる。このため、サービス提供者は、精度悪化要因、及び再モデリング方法を顧客に通知することで、顧客にブラックボックスモデル15の再作成を促すことができる。 In the analysis system 2 according to the first embodiment described above, the white box model 24 created by imitating the black box model 15 used in the control system 1 is used from the black box model 15 in the normal state. Extract the difference from the output predicted value. Then, the analysis system 2 can provide the service provider with a method for identifying the cause of deterioration in accuracy and remodeling the black box model 15 for improving the accuracy of the predicted value. Therefore, the service provider can urge the customer to recreate the black box model 15 by notifying the customer of the cause of deterioration in accuracy and the remodeling method.

ここで、ホワイトボックスモデル24として、例えば、制御システム1の実行環境で使用される入力データが入力され、分岐ごとの発生率が算出される決定木モデル24a、入力データで表される事象がクラスタリングされたクラスタリングモデル24bなどが用いられる。このようにホワイトボックスモデル24により、ブラックボックスモデル15の処理が可視化される。このため、ブラックボックスモデル15の予測値の精度が変化した箇所や、計測時に入力された入力データがどのように学習時と異なるかをサービス提供者が把握することができる。 Here, as the white box model 24, for example, the decision tree model 24a in which the input data used in the execution environment of the control system 1 is input and the occurrence rate for each branch is calculated, and the events represented by the input data are clustered. The clustering model 24b or the like is used. In this way, the processing of the black box model 15 is visualized by the white box model 24. Therefore, the service provider can grasp the location where the accuracy of the predicted value of the black box model 15 has changed and how the input data input at the time of measurement is different from that at the time of learning.

また、図10に示したように、どの時点からの入力データを使って再モデリングすればよいかをサービス提供者が把握することができる。このため、サービス提供者は、顧客がブラックボックスモデル15を再作成するために必要な情報を提供することができる。そして、顧客は、通知された再モデリング方法を用いて、予測値の精度が改善したブラックボックスモデル15を再び作成し、再作成したブラックボックスモデル15を制御システム1で使用することができる。 Further, as shown in FIG. 10, the service provider can grasp from which point in time the input data should be used for remodeling. Therefore, the service provider can provide the information necessary for the customer to recreate the black box model 15. Then, the customer can recreate the black box model 15 in which the accuracy of the predicted value is improved by using the notified remodeling method, and the recreated black box model 15 can be used in the control system 1.

[第2の実施の形態]
次に、本発明の第2の実施の形態に係るブラックボックス化された機械学習モデルの機械学習モデル精度分析システムについて説明する。本実施の形態に係る機械学習モデル精度分析システムでは、学習データの取得時と、計測時の入力データの取得時とで、特定の事象の発生率が大きく変化した場合に、発生率の変化が大きい分岐条件を削除してブラックボックスモデルの再学習(再モデリング方法)を提案するものである。第2の実施の形態に係る機械学習モデル精度分析システムの一例として、上述した第1の実施の形態に係る分析システム2が用いられる。ここでは、ブラックボックスモデル15の再モデリング方法を提案する処理、及び再モデリング方法の提案画面について説明する。
[Second Embodiment]
Next, the machine learning model accuracy analysis system of the black-boxed machine learning model according to the second embodiment of the present invention will be described. In the machine learning model accuracy analysis system according to the present embodiment, when the occurrence rate of a specific event changes significantly between the acquisition of learning data and the acquisition of input data at the time of measurement, the change in the occurrence rate changes. It proposes re-learning (remodeling method) of the black box model by deleting the large branching condition. As an example of the machine learning model accuracy analysis system according to the second embodiment, the analysis system 2 according to the first embodiment described above is used. Here, a process for proposing a remodeling method for the black box model 15 and a screen for proposing a remodeling method will be described.

図11は、第2の実施の形態に係る再モデリング方法提案部26が、ブラックボックスモデル15の再モデリング方法を提案する処理の例を示すフローチャートである。図11に示す処理は、図6を参照して既に説明した、精度悪化要因特定処理(S5)の後に行われる。 FIG. 11 is a flowchart showing an example of a process in which the remodeling method proposing unit 26 according to the second embodiment proposes a remodeling method for the black box model 15. The process shown in FIG. 11 is performed after the accuracy deterioration factor identification process (S5) already described with reference to FIG.

始めに、再モデリング方法提案部26は、精度悪化要因特定部25が精度の悪化要因を特定するために用いた新しい入力データに関して、悪化要因が特定された分岐に注目し、この分岐の期間ごとの精度を計算する。この入力データは、精度悪化要因特定部25により入力データベース13から判定期間で読み出されたものである。そして、再モデリング方法提案部26は、決定木モデルの分岐ごとの精度を学習時と今回の入力データの入力時とで比較し、精度の差の平均が大きい項目(本実施形態では分岐条件)を抽出する(S41)。 First, the remodeling method proposal unit 26 pays attention to the branch in which the deterioration factor is identified with respect to the new input data used by the accuracy deterioration factor identification unit 25 to identify the accuracy deterioration factor, and every period of this branch. Calculate the accuracy of. This input data is read from the input database 13 by the accuracy deterioration factor identification unit 25 during the determination period. Then, the remodeling method proposal unit 26 compares the accuracy of each branch of the decision tree model between the time of learning and the time of inputting the input data this time, and the item having a large average difference in accuracy (branch condition in this embodiment). Is extracted (S41).

次に、再モデリング方法提案部26は、抽出した項目を除外したデータを新しい学習データとして、ブラックボックスモデル15を再モデリングする提案を行う(S42)。この提案として、例えば、後述する図12に示す再モデリング方法の提案画面を表示する処理が行われる。その後、図6に処理が戻り、顧客が再モデリング方法の提案を了承すると、図6のステップS1に戻ってブラックボックスモデル15の再作成が行われる。 Next, the remodeling method proposal unit 26 proposes to remodel the black box model 15 using the data excluding the extracted items as new learning data (S42). As this proposal, for example, a process of displaying a proposal screen of the remodeling method shown in FIG. 12, which will be described later, is performed. After that, the process returns to FIG. 6, and when the customer approves the proposal of the remodeling method, the process returns to step S1 of FIG. 6 and the black box model 15 is recreated.

<再モデリング方法の提案画面>
図12は、再モデリング方法の提案画面W2の表示例を示す図である。この提案画面W2は、例えば、図5に示した表示装置65に表示される。
<Proposal screen for remodeling method>
FIG. 12 is a diagram showing a display example of the proposal screen W2 of the remodeling method. The proposal screen W2 is displayed, for example, on the display device 65 shown in FIG.

提案画面W2は、図10に示した提案画面W1と同様に決定木モデル表示部W1a,W1bを備える。再モデリング方法提案部26は、ブラックボックスモデル15の学習時に用いられた入力データが入力されたホワイトボックスモデル24の出力結果と、ブラックボックスモデル15の予測値の精度が大きく変化した時点を含む判定期間の入力データが入力されたホワイトボックスモデル24の出力結果とを提案画面W2に示す。 The proposal screen W2 includes decision tree model display units W1a and W1b in the same manner as the proposal screen W1 shown in FIG. The remodeling method proposal unit 26 determines that the output result of the white box model 24 into which the input data used during the training of the black box model 15 is input and the time when the accuracy of the predicted value of the black box model 15 changes significantly are included. The output result of the white box model 24 into which the input data of the period is input is shown on the proposal screen W2.

例えば、決定木モデル表示部W1aには、ブラックボックスモデル15が作成された学習時に、ホワイトボックスモデル作成部23が作成したホワイトボックスモデル24が、決定木モデル24aとして表示される。学習時に作成された決定木モデル24aのノード81で表される事象の発生率が50%であり、回転数が20回未満であるリーフ82で表される事象の発生率が65%であり、回転数が20回以上であるリーフ83で表される事象の発生率が35%であったとする。同様に、決定木モデル24aのノード84で表される事象の発生率が20%であり、回転数が10回未満であるリーフ85で表される事象の発生率が40%であり、回転数が10回以上であるリーフ86で表される事象の発生率が7%であったとする。 For example, on the decision tree model display unit W1a, the white box model 24 created by the white box model creation unit 23 is displayed as the decision tree model 24a at the time of learning when the black box model 15 is created. The occurrence rate of the event represented by the node 81 of the decision tree model 24a created at the time of learning is 50%, and the occurrence rate of the event represented by the leaf 82 having a rotation speed of less than 20 times is 65%. It is assumed that the occurrence rate of the event represented by the leaf 83 having 20 or more rotations is 35%. Similarly, the occurrence rate of the event represented by the node 84 of the decision tree model 24a is 20%, the occurrence rate of the event represented by the leaf 85 in which the rotation speed is less than 10 times is 40%, and the rotation speed is 40%. It is assumed that the occurrence rate of the event represented by the leaf 86 in which is 10 times or more is 7%.

決定木モデル表示部W1bには、ブラックボックスモデル15の予測値の精度が悪化したことで、精度悪化要因特定部25がホワイトボックスモデル24を通じて精度悪化要因を特定した時点におけるホワイトボックスモデル24が、決定木モデル24aとして表示される。決定木モデル24aで示される事象で発生率の予測精度が変わった場合、この事象に至る経路の分岐(例えば、分岐87,88)では何らかの状態変化が発生していることが推測される。分岐87では、項目「回転数」の発生率が、分岐87の左側で35%低下し、分岐87の右側で15%上昇したことが、コメント91に示されている。そして、分岐87では、項目「回転数」の発生率の変化の平均は、25%(=(35%+15%)/2)と計算される。 In the decision tree model display unit W1b, the white box model 24 at the time when the accuracy deterioration factor identification unit 25 identifies the accuracy deterioration factor through the white box model 24 due to the deterioration of the accuracy of the predicted value of the black box model 15 is displayed. It is displayed as a decision tree model 24a. When the prediction accuracy of the occurrence rate changes in the event shown by the decision tree model 24a, it is presumed that some state change occurs in the branch of the route leading to this event (for example, branches 87 and 88). In branch 87, comment 91 shows that the rate of occurrence of the item "rotation speed" decreased by 35% on the left side of branch 87 and increased by 15% on the right side of branch 87. Then, in branch 87, the average change in the occurrence rate of the item "rotation speed" is calculated as 25% (= (35% + 15%) / 2).

同様に、分岐88では、項目「回転数」の発生率が、分岐88の左側で25%低下し、分岐88の右側で23%上昇したことが、コメント92に示されている。そして、分岐88では、項目「回転数」の発生率の変化の平均は、24%(=(25%+23%)/2)と計算される。このため、分岐87,88の項目「回転数」の発生率の変化の全体平均は、24.5%(=(25%+24%)/2)と計算される。このように項目「回転数」の発生率の変化の全体平均が、閾値(例えば、15%)以上であれば、項目「回転数」は、決定木モデル24aの構成とするにはふさわしくない。そこで、提案画面W2の下部には、「発生率の変化の平均が24.5%である項目「回転数」は除外して、再学習をおすすめします。」というコメント93が表示される。このように再モデリング方法提案部26は、精度悪化要因特定部25により特定された要因により、発生率の変化が閾値より大きくなった分岐条件の削除を提案する。そして、サービス提供者は、顧客に対して、項目「回転数」を除外して、ブラックボックスモデル15の再学習を勧めることができる。 Similarly, in branch 88, comment 92 shows that the rate of occurrence of the item "rotation speed" decreased by 25% on the left side of branch 88 and increased by 23% on the right side of branch 88. Then, in the branch 88, the average change in the occurrence rate of the item "rotation speed" is calculated as 24% (= (25% + 23%) / 2). Therefore, the overall average of the change in the occurrence rate of the item "rotation speed" of the branches 87 and 88 is calculated as 24.5% (= (25% + 24%) / 2). As described above, if the overall average of the change in the occurrence rate of the item "rotation speed" is equal to or more than the threshold value (for example, 15%), the item "rotation speed" is not suitable for the configuration of the decision tree model 24a. Therefore, at the bottom of the proposal screen W2, we recommend re-learning by excluding the item "rotation speed" in which the average change in the incidence rate is 24.5%. The comment 93 is displayed. Thus re-modeling method proposed unit 26, the factors identified by the accuracy deterioration factor specifying unit 25 proposes to delete the branch condition change in incidence is greater than the threshold value. Then, the service provider can recommend the customer to relearn the black box model 15 by excluding the item "rotation speed".

ここで、再モデリング方法提案部26により提案される項目「回転数」の除外とは、20回で区切った分岐87、10回で区切った分岐88のいずれをも除外して、決定木モデルを再構成することである。ただし、既に構築されている決定木の構成は特段意識されず、単に項目「回転数」を説明変数に加えずに決定木を作り直す処理が、ブラックボックスモデル作成装置14及びホワイトボックスモデル作成部23によって行われることとなる。 Here, the exclusion of the item "rotation speed" proposed by the remodeling method proposal unit 26 is to exclude any of the branch 87 divided by 20 times and the branch 88 divided by 10 times to form a decision tree model. It is to reconstruct. However, the composition of the decision tree that has already been constructed is not particularly conscious, and the process of recreating the decision tree without simply adding the item "rotation speed" to the explanatory variable is the process of recreating the decision tree in the black box model creation device 14 and the white box model creation unit 23. Will be done by.

ブラックボックスモデル15の再作成の処理では、図6のステップS1で、提案学習データ抽出部27が入力データベース13から抽出した、精度悪化要因特定部25により悪化要因が特定された分岐精度の変化点以降の入力データが再学習用データとして用いられる。そして、ブラックボックスモデル作成装置14は、事象の発生率の変化が大きい分岐条件を削除、つまり項目「回転数」を除外して、ブラックボックスモデル15を再作成する。また、ホワイトボックスモデル作成部23についても、事象の発生率の変化が大きい分岐条件を削除して、ホワイトボックスモデル24を再作成する。その後の計測時には、制御システム1において、再作成されたブラックボックスモデル15が用いられる。 In the process of recreating the black box model 15, the change point of the branching accuracy in which the deterioration factor is specified by the accuracy deterioration factor identification unit 25 extracted from the input database 13 by the proposal learning data extraction unit 27 in step S1 of FIG. Subsequent input data is used as re-learning data. Then, the black box model creating device 14 deletes the branching condition in which the change in the event occurrence rate is large, that is, excludes the item "rotation speed", and recreates the black box model 15. Further, the white box model creating unit 23 also recreates the white box model 24 by deleting the branching condition in which the change in the event occurrence rate is large. At the time of subsequent measurement, the recreated black box model 15 is used in the control system 1.

以上説明した第2の実施の形態に係る分析システム2では、学習時に比べて計測時における分岐の項目の発生率が大きく変化したことにより、ブラックボックスモデル15の予測値の精度が悪化したことが判明した場合、この分岐条件を削除して、ブラックボックスモデル15を再学習(再モデリング方法)することが提案される。このため、顧客は、サービス提供者から通知された再モデリング方法を用いて、予測値の精度が改善したブラックボックスモデル15を再び作成し、再作成したブラックボックスモデル15を制御システム1で使用することができる。また、サービス提供者においても、ブラックボックスモデル15の予測値の精度が悪化したことに起因する分岐条件を削除して、ホワイトボックスモデル24を再作成し、制御システム1の処理を可視化することができる。 In the analysis system 2 according to the second embodiment described above, the accuracy of the predicted value of the black box model 15 deteriorated due to a large change in the occurrence rate of branch items at the time of measurement as compared with the time of learning. If found, it is proposed to remove this branching condition and relearn (remodel) the black box model 15. Therefore, the customer recreates the black box model 15 with improved accuracy of the predicted value by using the remodeling method notified by the service provider, and uses the recreated black box model 15 in the control system 1. be able to. Further, the service provider can also delete the branching condition caused by the deterioration of the accuracy of the predicted value of the black box model 15 and recreate the white box model 24 to visualize the processing of the control system 1. it can.

また、再モデリング方法提案部26は、図10の決定木モデル表示部W1aに示したグラフ表示部W1cを、図12の決定木モデル表示部W1bに付して表示してもよい。グラフ表示部W1cが表示されることで、サービス提供者は、どの時点からの入力データを使って再モデリングすればよいかを把握しやすくなる。 Further, the remodeling method proposal unit 26 may attach the graph display unit W1c shown in the decision tree model display unit W1a of FIG. 10 to the decision tree model display unit W1b of FIG. 12 for display. By displaying the graph display unit W1c, the service provider can easily grasp from what point in time the input data should be used for remodeling.

[変形例]
なお、上述した実施の形態では、分析システム2が精度判定部21及び提案学習データ抽出部27を含む構成としたが、制御システム1が精度判定部21及び提案学習データ抽出部27のうち、少なくとも一つを含む構成としてもよい。このような構成とした場合、分析システム2は、制御システム1で稼働する精度判定部21が不良の精度判定結果を出力したタイミングで、精度悪化要因特定部25及び再モデリング方法提案部26の処理を行ってもよい。
[Modification example]
In the above-described embodiment, the analysis system 2 includes the accuracy determination unit 21 and the proposed learning data extraction unit 27, but the control system 1 has at least one of the accuracy determination unit 21 and the proposal learning data extraction unit 27. The configuration may include one. In such a configuration, the analysis system 2 processes the accuracy deterioration factor identification unit 25 and the remodeling method proposal unit 26 at the timing when the accuracy determination unit 21 operating in the control system 1 outputs the defect accuracy determination result. May be done.

また、分析システム2がブラックボックスモデル作成装置14を備える構成として、分析システム2内でブラックボックスモデル15を有してもよい。そして、サービス提供者は、顧客にブラックボックスモデル15を提供するサービスを提供してもよい。 Further, the analysis system 2 may have the black box model 15 in the analysis system 2 as a configuration including the black box model creation device 14. Then, the service provider may provide a service that provides the customer with the black box model 15.

また、上述した実施の形態では、ブラックボックスモデル15及びホワイトボックスモデル24の作成に際して用いられる入力データが学習期間で読み出され、その後、ブラックボックスモデル15から出力される予測値の精度が変化したことは判定期間で読み出された入力データが用いられることとした。しかし、学習期間と判定期間とは重なっていてもよい。 Further, in the above-described embodiment, the input data used for creating the black box model 15 and the white box model 24 is read out during the learning period, and then the accuracy of the predicted value output from the black box model 15 changes. It was decided that the input data read during the judgment period would be used. However, the learning period and the determination period may overlap.

なお、本発明は上述した実施の形態に限られるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限りその他種々の応用例、変形例を取り得ることは勿論である。
例えば、上述した実施の形態は本発明を分かりやすく説明するためにシステムの構成を詳細かつ具体的に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されない。また、本実施の形態の構成の一部について、他の構成の追加、削除、置換をすることも可能である。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
It should be noted that the present invention is not limited to the above-described embodiment, and it goes without saying that various other application examples and modifications can be taken as long as the gist of the present invention described in the claims is not deviated.
For example, the above-described embodiment describes the configuration of the system in detail and concretely in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the described configurations. Further, it is also possible to add, delete, or replace a part of the configuration of the present embodiment with another configuration.
In addition, the control lines and information lines indicate those that are considered necessary for explanation, and do not necessarily indicate all the control lines and information lines in the product. In practice, it can be considered that almost all configurations are interconnected.

1…制御システム、2…分析システム、13…入力データベース、14…ブラックボックスモデル作成装置、15…ブラックボックスモデル、16…精度データ蓄積データベース、21…精度判定部、22…検証部、23…ホワイトボックスモデル作成部、24…ホワイトボックスモデル、25…精度悪化要因特定部、26…再モデリング方法提案部、27…提案学習データ抽出部 1 ... Control system, 2 ... Analysis system, 13 ... Input database, 14 ... Black box model creation device, 15 ... Black box model, 16 ... Accuracy data storage database, 21 ... Accuracy judgment unit, 22 ... Verification unit, 23 ... White Box model creation department, 24 ... White box model, 25 ... Accuracy deterioration factor identification department, 26 ... Remodeling method proposal department, 27 ... Proposal learning data extraction department

Claims (13)

制御システムで使用される制御対象機器に対して制御装置が行った処理の結果を含む入力データが蓄積された入力データベースより、予め設定された学習期間で読み出した前記入力データに基づいて学習されるブラックボックス化された機械学習モデルであって、前記入力データから前記処理の結果を予測値として出力可能な前記ブラックボックス化された機械学習モデルの作成に合わせて、前記ブラックボックス化された機械学習モデルの作成に用いられた前記入力データを説明変数とし、前記ブラックボックス化された機械学習モデルが出力する予測値を目的変数としてホワイトボックスモデルを作成するホワイトボックスモデル作成部と、
前記ブラックボックス化された機械学習モデルの予測値の精度が判定される判定期間に、前記ブラックボックス化された機械学習モデルから出力される前記予測値の精度が変化したことが判定されると、前記判定期間に蓄積された前記入力データを前記ホワイトボックスモデルに入力して、前記予測値の精度が変化した要因を特定する要因特定部と、を備える
機械学習モデル精度分析システム。
It is learned based on the input data read in a preset learning period from the input database in which the input data including the result of the processing performed by the control device for the controlled device used in the control system is accumulated. The black-boxed machine learning model is created in accordance with the creation of the black-boxed machine learning model that can output the result of the processing as a predicted value from the input data. A white box model creation unit that creates a white box model using the input data used to create the model as an explanatory variable and the predicted value output by the black boxed machine learning model as an objective variable.
When it is determined that the accuracy of the predicted value output from the black-boxed machine learning model has changed during the determination period in which the accuracy of the predicted value of the black-boxed machine learning model is determined, A machine learning model accuracy analysis system including a factor identification unit that inputs the input data accumulated in the determination period into the white box model and identifies a factor that changes the accuracy of the predicted value.
前記判定期間に、前記ブラックボックス化された機械学習モデルから出力される前記予測値の精度が閾値よりも変化した場合に、前記予測値の精度が悪化したと判定する精度判定部を備え、
前記要因特定部は、前記精度判定部により前記予測値の精度が悪化したと判定された場合に、前記予測値の精度が変化した要因を特定する
請求項1に記載の機械学習モデル精度分析システム。
A precision determination unit for determining that the accuracy of the predicted value has deteriorated when the accuracy of the predicted value output from the black-boxed machine learning model changes from the threshold value during the determination period is provided.
The machine learning model accuracy analysis system according to claim 1, wherein the factor identification unit identifies a factor that changes the accuracy of the predicted value when the accuracy determination unit determines that the accuracy of the predicted value has deteriorated. ..
前記要因特定部により前記予測値の精度が変化した要因が特定されると、前記ブラックボックス化された機械学習モデルの再モデリング方法を提案する提案部を備える
請求項2に記載の機械学習モデル精度分析システム。
The machine learning model accuracy according to claim 2, further comprising a proposal unit that proposes a method for remodeling the black-boxed machine learning model when a factor whose accuracy of the predicted value has changed is identified by the factor identification unit. Analysis system.
前記提案部は、前記要因特定部により特定された前記予測値の精度が変化した要因を示し、前記ブラックボックス化された機械学習モデルに入力され、再モデリングで用いられる前記入力データの条件の変更を提案する
請求項3に記載の機械学習モデル精度分析システム。
The proposal unit indicates a factor whose accuracy of the predicted value specified by the factor identification unit has changed, is input to the black-boxed machine learning model, and changes the conditions of the input data used in remodeling. The machine learning model accuracy analysis system according to claim 3.
前記提案部は、前記ブラックボックス化された機械学習モデルの学習時に用いられた前記入力データが入力された前記ホワイトボックスモデルの出力結果と、前記ブラックボックス化された機械学習モデルの前記予測値の精度が変化した時点を含む前記判定期間の前記入力データが作成された前記ホワイトボックスモデルの出力結果とを示す
請求項4に記載の機械学習モデル精度分析システム。
The proposal unit describes the output result of the white box model to which the input data used at the time of learning the black boxed machine learning model is input and the predicted value of the black boxed machine learning model. The machine learning model accuracy analysis system according to claim 4, which indicates the output result of the white box model in which the input data of the determination period including the time when the accuracy changes is created.
前記提案部により指示された、前記ブラックボックス化された機械学習モデルの再モデリング方法に基づいて前記入力データベースから抽出した前記入力データを、前記ブラックボックス化された機械学習モデルを作成するブラックボックス化された機械学習モデルの作成装置に出力する抽出部を備える
請求項3に記載の機械学習モデル精度分析システム。
The input data extracted from the input database based on the remodeling method of the black-boxed machine learning model instructed by the proposal unit is black-boxed to create the black-boxed machine learning model. The machine learning model accuracy analysis system according to claim 3, further comprising an extraction unit that outputs to the machine learning model creation device.
前記ホワイトボックスモデルは、所定の発生率で前記制御対象機器に出現する事象を所定の条件で分岐する決定木により前記事象を特定する決定木モデルで表され、
前記要因特定部は、前記判定期間に蓄積された前記入力データを前記決定木モデルに入力して、前記決定木の分岐ごとに前記事象の発生率を算出し、
前記学習期間に算出される前記事象の発生率と、前記判定期間に算出される前記事象の発生率との変化量が、閾値よりも大きくなった場合に、前記決定木の分岐条件を前記予測値の精度が変化した要因として特定する
請求項1〜6のいずれか一項に記載の機械学習モデル精度分析システム。
The white box model is represented by a decision tree model that identifies the event by a decision tree that branches an event that appears in the controlled device at a predetermined occurrence rate under a predetermined condition.
The factor identification unit inputs the input data accumulated during the determination period into the decision tree model, calculates the occurrence rate of the event for each branch of the decision tree, and calculates the occurrence rate of the event.
When the amount of change between the event occurrence rate calculated during the learning period and the event occurrence rate calculated during the determination period becomes larger than the threshold value, the branching condition of the decision tree is set. The machine learning model accuracy analysis system according to any one of claims 1 to 6, which is specified as a factor that changes the accuracy of the predicted value.
前記提案部は、前記ブラックボックス化された機械学習モデルの前記予測値の精度が変化した時点を示し、再モデリングで用いられる前記入力データの条件として、前記再モデリングで用いられる前記入力データを取得する期間を提案する
請求項7に記載の機械学習モデル精度分析システム。
The proposed unit indicates a time when the accuracy of the predicted value of the black boxed machine learning model is changed, as a condition of the input data used in remodeling, the input data used in the previous SL remodeling The machine learning model accuracy analysis system according to claim 7, which proposes an acquisition period.
前記提案部は、前記要因特定部により特定された前記要因により、前記発生率の変化が前記閾値より大きくなった分岐条件の削除を提案する
請求項7に記載の機械学習モデル精度分析システム。
The proposed unit, by the factor specified by the previous SL factor specifying unit, machine learning model accuracy analysis system according to claim 7 in which the change in the incidence propose the deletion of branch condition is greater than the threshold value.
前記ホワイトボックスモデルは、前記制御対象機器に出現する事象を、同じ特徴を持つ部分集合に分割したクラスタごとに分類するクラスタリングモデルで表され、
前記要因特定部は、前記判定期間に蓄積された前記入力データを前記クラスタリングモデルに入力して、前記クラスタごとに前記事象の発生率を算出し、
前記学習期間に算出される前記事象の発生率と、前記判定期間に算出される前記事象の発生率との変化量が、閾値よりも大きくなった場合に、前記変化量が大きくなった前記クラスタについて、距離が最も近いクラスタとの中心間の距離を算出し、
前記距離における距離成分が最も大きい説明変数を前記予測値の精度が変化した要因として特定する
請求項1〜6のいずれか一項に記載の機械学習モデル精度分析システム。
The white box model is represented by a clustering model in which events appearing in the controlled device are classified into clusters divided into subsets having the same characteristics.
The factor identification unit inputs the input data accumulated during the determination period into the clustering model, calculates the occurrence rate of the event for each cluster, and calculates the occurrence rate of the event.
When the amount of change between the event occurrence rate calculated during the learning period and the event occurrence rate calculated during the determination period becomes larger than the threshold value, the change amount becomes large. For the cluster, the distance between the centers with the closest cluster is calculated.
The machine learning model accuracy analysis system according to any one of claims 1 to 6, wherein the explanatory variable having the largest distance component at the distance is specified as a factor that changes the accuracy of the predicted value.
前記制御装置が前記制御対象機器に行った処理は、前記制御対象機器が加工した加工物を計測する処理を含む
請求項1に記載の機械学習モデル精度分析システム。
The machine learning model accuracy analysis system according to claim 1, wherein the process performed by the control device on the controlled device includes a process of measuring a workpiece processed by the controlled device.
制御システムで使用される制御対象機器に対して制御装置が行った処理の結果が蓄積された入力データベースより、予め設定された学習期間で読み出した入力データに基づいて学習されるブラックボックス化された機械学習モデルであって、前記入力データから前記処理の結果を予測値として出力可能な前記ブラックボックス化された機械学習モデルの作成に合わせて、前記ブラックボックス化された機械学習モデルの作成に用いられた前記入力データを説明変数とし、前記ブラックボックス化された機械学習モデルが出力する予測値を目的変数としたホワイトボックスモデルを作成するステップと、
前記ブラックボックス化された機械学習モデルの予測値の精度が判定される判定期間に、前記ブラックボックス化された機械学習モデルから出力される前記予測値の精度が変化したことが判定されると、前記判定期間に蓄積された前記入力データを前記ホワイトボックスモデルに入力して、前記予測値の精度が変化した要因を特定するステップと、を含む
機械学習モデル精度分析方法。
A black box is created in which learning is performed based on the input data read in a preset learning period from the input database that stores the results of the processing performed by the control device for the controlled device used in the control system. It is a machine learning model and is used for creating the black boxed machine learning model in accordance with the creation of the black boxed machine learning model that can output the result of the processing as a predicted value from the input data. A step of creating a white box model using the input data as an explanatory variable and a predicted value output by the black boxed machine learning model as an objective variable.
When it is determined that the accuracy of the predicted value output from the black-boxed machine learning model has changed during the determination period in which the accuracy of the predicted value of the black-boxed machine learning model is determined, A machine learning model accuracy analysis method including a step of inputting the input data accumulated in the determination period into the white box model and identifying a factor that changes the accuracy of the predicted value.
制御システムで使用される制御対象機器に対して制御装置が行った処理の結果が蓄積された入力データベースより、予め設定された学習期間で読み出した入力データに基づいて学習されるブラックボックス化された機械学習モデルであって、前記入力データから前記処理の結果を予測値として出力可能な前記ブラックボックス化された機械学習モデルの作成に合わせて、前記ブラックボックス化された機械学習モデルの作成に用いられた前記入力データを説明変数とし、前記ブラックボックス化された機械学習モデルが出力する予測値を目的変数としたホワイトボックスモデルを作成する手順と、
前記ブラックボックス化された機械学習モデルの予測値の精度が判定される判定期間に、前記ブラックボックス化された機械学習モデルから出力される前記予測値の精度が変化したことが判定されると、前記判定期間に蓄積された前記入力データを前記ホワイトボックスモデルに入力して、前記予測値の精度が変化した要因を特定する手順と、を
コンピューターに実行させるためのプログラム。
A black box is created in which learning is performed based on the input data read in a preset learning period from the input database that stores the results of the processing performed by the control device for the controlled device used in the control system. It is a machine learning model and is used for creating the black boxed machine learning model in accordance with the creation of the black boxed machine learning model that can output the result of the processing as a predicted value from the input data. A procedure for creating a white box model using the input data as an explanatory variable and a predicted value output by the black boxed machine learning model as an objective variable.
When it is determined that the accuracy of the predicted value output from the black-boxed machine learning model has changed during the determination period in which the accuracy of the predicted value of the black-boxed machine learning model is determined, A program for inputting the input data accumulated in the determination period into the white box model and causing a computer to execute a procedure for identifying a factor that changes the accuracy of the predicted value.
JP2020152054A 2020-09-10 2020-09-10 Machine learning model accuracy analysis system, machine learning model accuracy analysis method and program Active JP6899475B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020152054A JP6899475B1 (en) 2020-09-10 2020-09-10 Machine learning model accuracy analysis system, machine learning model accuracy analysis method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020152054A JP6899475B1 (en) 2020-09-10 2020-09-10 Machine learning model accuracy analysis system, machine learning model accuracy analysis method and program

Publications (2)

Publication Number Publication Date
JP6899475B1 true JP6899475B1 (en) 2021-07-07
JP2022046145A JP2022046145A (en) 2022-03-23

Family

ID=76650139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020152054A Active JP6899475B1 (en) 2020-09-10 2020-09-10 Machine learning model accuracy analysis system, machine learning model accuracy analysis method and program

Country Status (1)

Country Link
JP (1) JP6899475B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018142753A1 (en) * 2017-02-02 2018-08-09 日本電気株式会社 Information processing device, method, and program that use deep learning
WO2020026643A1 (en) * 2018-08-03 2020-02-06 ソニー株式会社 Information processing device, information processing method and information processing program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018142753A1 (en) * 2017-02-02 2018-08-09 日本電気株式会社 Information processing device, method, and program that use deep learning
WO2020026643A1 (en) * 2018-08-03 2020-02-06 ソニー株式会社 Information processing device, information processing method and information processing program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"説明できるAI Solution XAIの活用で、継続的なAI運用と改善を支援する「AI導入・運用支", はいたっく, vol. 通巻629号, JPN6021000675, 20 March 2020 (2020-03-20), pages 13 - 14, ISSN: 0004425934 *
GUIDOTTI, RICCARDO ET AL., A SURVEY OF METHODS FOR EXPLAINING BLACK BOX MODELS [ONLINE], JPN7021000084, August 2018 (2018-08-01), ISSN: 0004425935 *

Also Published As

Publication number Publication date
JP2022046145A (en) 2022-03-23

Similar Documents

Publication Publication Date Title
CN113010389B (en) Training method, fault prediction method, related device and equipment
JP5151556B2 (en) Process analysis apparatus, process analysis method, and process analysis program
CN111459700A (en) Method and apparatus for diagnosing device failure, diagnostic device, and storage medium
JP2019185422A (en) Failure prediction method, failure prediction device, and failure prediction program
CN104778622A (en) Method and system for predicting TPS transaction event threshold value
CN107992410A (en) Software quality monitoring method, device, computer equipment and storage medium
WO2019225342A1 (en) Maintenance operation assistance system
CN112183990A (en) Self-adaptive inspection monitoring management platform and method based on big data machine learning
WO2024078339A1 (en) Fault prediction method based on vehicle historical data, system and storage medium
Patel et al. Doctor for machines: a failure pattern analysis solution for industry 4.0
Lorig et al. Hypothesis-Driven Simulation Studies
JP6899475B1 (en) Machine learning model accuracy analysis system, machine learning model accuracy analysis method and program
CN117114454B (en) DC sleeve state evaluation method and system based on Apriori algorithm
Rosli et al. The design of a software fault prone application using evolutionary algorithm
JP6257986B2 (en) Interactive facility failure prediction method and interactive facility failure prediction system
CN116257220B (en) Cloud edge collaboration-based software development data management method and system
JP7005255B2 (en) Evaluation system, evaluation method and program
Zhao et al. Comprehensive subspace decomposition and isolation of principal reconstruction directions for online fault diagnosis
JP7062505B2 (en) Equipment management support system
Engström et al. Decision support for test management and scope selection in a software product line context
Friederich et al. A Framework for Validating Data-Driven Discrete-Event Simulation Models of Cyber-Physical Production Systems
JP7154468B2 (en) Information processing device, information processing method and information processing program
CN111488284A (en) Simulation operation active detection method for OpenStack cloud platform
Laukkanen Quality 4.0 enabling cost of poor quality measurement
Ferronato et al. PM2Sim: The Automated Creation of a Simulation Model from Process Mining

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200910

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200910

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210614

R150 Certificate of patent or registration of utility model

Ref document number: 6899475

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150