JP7557571B2 - Learning device, learning method, and learning program - Google Patents

Learning device, learning method, and learning program Download PDF

Info

Publication number
JP7557571B2
JP7557571B2 JP2023076237A JP2023076237A JP7557571B2 JP 7557571 B2 JP7557571 B2 JP 7557571B2 JP 2023076237 A JP2023076237 A JP 2023076237A JP 2023076237 A JP2023076237 A JP 2023076237A JP 7557571 B2 JP7557571 B2 JP 7557571B2
Authority
JP
Japan
Prior art keywords
data
variable
learning
model
explanatory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023076237A
Other languages
Japanese (ja)
Other versions
JP2023100830A (en
Inventor
浩二 伊藤
健一郎 島田
知範 泉谷
大地 木村
和輝 小山
大悟 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Communications Corp
Original Assignee
NTT Communications Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Communications Corp filed Critical NTT Communications Corp
Priority to JP2023076237A priority Critical patent/JP7557571B2/en
Publication of JP2023100830A publication Critical patent/JP2023100830A/en
Application granted granted Critical
Publication of JP7557571B2 publication Critical patent/JP7557571B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • General Factory Administration (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Description

本発明は、学習装置、学習方法及び学習プログラムに関する。 The present invention relates to a learning device, a learning method, and a learning program.

従来、人間の行動を機械学習モデルに学習させ、当該モデルを用いて人間又はロボット等に動作を教示する模倣学習という技術が知られている。 A technique known as imitation learning is known in which a machine learning model learns human behavior and then uses the model to teach actions to humans or robots, etc.

また、観測されたデータを大量に蓄積しておき、蓄積されたデータの中から要求点の近傍のデータを抽出し、当該抽出したデータを用いてモデルの逐次学習を行うJust-In-Time(JIT)法という技術が知られている(例えば、非特許文献1を参照)。 There is also a known technique known as the Just-In-Time (JIT) method, which accumulates a large amount of observed data, extracts data near the desired point from the accumulated data, and sequentially trains a model using the extracted data (see, for example, Non-Patent Document 1).

ここで、例えば化学プラントにおいては、時間の経過に応じて、機器の経年劣化、触媒の劣化、生産ロード計画の変更等の環境の変化が生じる。 Here, for example, in a chemical plant, environmental changes occur over time, such as deterioration of equipment with age, deterioration of catalysts, and changes to production load plans.

これに対し、化学プラントにおけるオペレータによる機器の操作を学習する模倣学習にJIT法を適用して、モデルを環境の変化に適応させることが考えられる。 In response to this, it is possible to apply the JIT method to imitation learning, which learns how operators operate equipment in chemical plants, and adapt the model to changes in the environment.

特開2019-185194号公報JP 2019-185194 A

山本 茂、「Just-In-Time予測制御:蓄積データに基づく予測制御」、計測と制御 第 52 巻 第 10 号 2013 年 10 月号(https://www.jstage.jst.go.jp/article/sicejl/52/10/52_878/_pdf/-char/ja)Shigeru Yamamoto, "Just-In-Time Predictive Control: Predictive Control Based on Accumulated Data," Instrumentation and Control, Vol. 52, No. 10, October 2013 (https://www.jstage.jst.go.jp/article/sicejl/52/10/52_878/_pdf/-char/ja)

しかしながら、模倣学習にJIT法を適用した場合、逐次学習を繰り返すうちに、初期の段階でモデルに反映されたオペレータのスキルが失われていき、モデルの出力の妥当性が低下するという問題がある。 However, when the JIT method is applied to imitation learning, the problem is that as sequential learning is repeated, the operator skills reflected in the model at the initial stage are lost, reducing the validity of the model output.

例えば、初期の段階でオペレータの操作を学習したモデルの出力に従って機器を操作すれば、未熟なオペレータによる操作であったとしても、機器及び機器が稼働するプラントの運転品質が向上することが期待される。そのため、当該モデルの出力の妥当性は高いということができる。 For example, if equipment is operated according to the output of a model that has learned the operations of an operator at an early stage, it is expected that the operating quality of the equipment and the plant in which it operates will improve, even if the operation is performed by an inexperienced operator. Therefore, the validity of the model's output can be said to be high.

一方で、時間の経過に従って、オペレータを模倣し実施した履歴が訓練用のデータとして蓄積されていくとともにモデルの学習が逐次行われるため、初期段階で学習したデータの影響は薄くなり、モデルの出力の妥当性が低下することが考えられる。 On the other hand, as time passes, the history of actions taken by imitating operators is accumulated as training data and the model is trained sequentially, so the influence of the data learned in the early stages becomes weaker and the validity of the model output may decrease.

そして、そのような妥当性が低下した出力に従って機器の操作を行った場合、機器及びプラントの運転品質の低下、及びコストの増加といった問題が生じ得る。 If equipment is operated according to such outputs with reduced validity, problems such as a deterioration in the operating quality of the equipment and plant and increased costs may occur.

上述した課題を解決し、目的を達成するために、学習装置は、説明変数と目的変数との組み合わせである第1のデータのそれぞれに、指標の分散が小さくなるほど大きくなる重みを付与する付与部と、前記第1のデータの中から、前記説明変数と指定された説明変数との距離が大きいほど大きくなり、かつ前記重みが大きいほど小さくなる値が小さいデータを優先して第2のデータとして抽出する抽出部と、前記第2のデータを用いて、前記説明変数から前記目的変数を出力するモデルを更新する更新部と、を有することを特徴とする。 To solve the above-mentioned problems and achieve the objective, the learning device is characterized by having an assignment unit that assigns a weight to each of first data, which is a combination of explanatory variables and objective variables, which increases as the variance of the index decreases; an extraction unit that preferentially extracts, from the first data, data with small values that increase as the distance between the explanatory variable and a specified explanatory variable increases and that decrease as the weight increases, as second data; and an update unit that uses the second data to update a model that outputs the objective variable from the explanatory variables.

本発明によれば、模倣学習においてJIT法による逐次学習を繰り返した場合の、モデルの出力の妥当性の低下を抑止することができる。 According to the present invention, it is possible to prevent a decrease in the validity of the model output when sequential learning using the JIT method is repeated in imitation learning.

図1は、プラント運用システムについて説明する図である。FIG. 1 is a diagram illustrating a plant operation system. 図2は、第1の実施形態に係るサーバの構成例を示す図である。FIG. 2 is a diagram illustrating an example of the configuration of a server according to the first embodiment. 図3は、履歴DBの例を示す図である。FIG. 3 is a diagram illustrating an example of the history DB. 図4は、予測対象と訓練データの関係を説明する図である。FIG. 4 is a diagram illustrating the relationship between the prediction target and training data. 図5は、第1の実施形態に係る学習処理の流れを示すフローチャートである。FIG. 5 is a flowchart showing the flow of the learning process according to the first embodiment. 図6は、分類方法を説明する図である。FIG. 6 is a diagram for explaining the classification method. 図7は、第2の実施形態に係る学習処理の流れを示すフローチャートである。FIG. 7 is a flowchart showing the flow of the learning process according to the second embodiment. 図8は、学習プログラムを実行するコンピュータの一例を示す図である。FIG. 8 is a diagram illustrating an example of a computer that executes a learning program.

以下に、本願に係る学習装置、学習方法及び学習プログラムの実施形態を図面に基づいて詳細に説明する。なお、本発明は、以下に説明する実施形態により限定されるものではない。 Below, embodiments of the learning device, learning method, and learning program according to the present application will be described in detail with reference to the drawings. Note that the present invention is not limited to the embodiments described below.

[第1の実施形態]
[第1の実施形態の構成]
まず、図1を用いて、プラント運用システムについて説明する。プラント運用システム1は、プラントにおける製品の生産工程の管理及び制御を行うためのシステムである。プラントには、化学製品を生産するための化学プラントが含まれる。
[First embodiment]
[Configuration of the first embodiment]
First, a plant operation system will be described with reference to Fig. 1. The plant operation system 1 is a system for managing and controlling a production process of a product in a plant. The plant includes a chemical plant for producing chemical products.

図1に示すように、サーバ10、端末装置20、端末装置30及びプラントシステム40を有する。 As shown in FIG. 1, the system has a server 10, a terminal device 20, a terminal device 30, and a plant system 40.

サーバ10は、模倣学習を行うためのモデルに関する処理を行う。サーバ10は学習装置として機能することができる。 The server 10 performs processing related to models for imitation learning. The server 10 can function as a learning device.

また、サーバ10、端末装置20、端末装置30及びプラントシステム40は、ネットワークNを介して互いにデータ通信ができるように接続されている。例えば、ネットワークNはインターネット及びイントラネットである。 The server 10, the terminal device 20, the terminal device 30, and the plant system 40 are connected to each other so as to be able to communicate data with each other via a network N. For example, the network N is the Internet and an intranet.

端末装置20及び端末装置30は、パーソナルコンピュータ、タブレット型端末及びスマートフォン等の情報処理装置である。また、端末装置30は、プラントの機器を操作するための専用の端末であってもよい。 The terminal device 20 and the terminal device 30 are information processing devices such as personal computers, tablet terminals, and smartphones. The terminal device 30 may also be a dedicated terminal for operating equipment in the plant.

プラントシステム40は、生産工程で使用される機器及び分散制御システム(DCS:Distributed Control System)を含むものであってもよい。例えば、機器は、反応器、冷却器、気液分離器等である。 The plant system 40 may include equipment used in the production process and a distributed control system (DCS). For example, the equipment may be a reactor, a cooler, a gas-liquid separator, etc.

オペレータは、端末装置30を介してプラントシステム40に含まれる機器を操作するユーザである。また、スタッフは、端末装置20を介して、サーバ10において使用されるモデルを管理するユーザである。 The operator is a user who operates the equipment included in the plant system 40 via the terminal device 30. The staff is a user who manages the models used in the server 10 via the terminal device 20.

図1に基づき、プラント運用システム1の各装置の処理を説明する。 The processing of each device in the plant operation system 1 will be explained based on Figure 1.

まず、端末装置20は、スタッフの操作に応じてモデルの管理を行う(ステップS1)。例えば、端末装置20は、サーバ10に対して、モデルの変更や学習処理及び推論処理の実行を指示することができる。また、端末装置20は、サーバ10から取得した情報を出力し、スタッフに提示することができる。 First, the terminal device 20 manages the model in response to operations by the staff member (step S1). For example, the terminal device 20 can instruct the server 10 to change the model and to execute learning and inference processes. The terminal device 20 can also output information acquired from the server 10 and present it to the staff member.

端末装置30は、オペレータの操作に応じて、プラントシステム40の機器を操作する(ステップS2)。例えば、端末装置30は、操作により、機器内の温度、機器内の圧力、生産工程における生産量の目標値、機器に投入する原料の量等を設定する。 The terminal device 30 operates the equipment of the plant system 40 in response to the operation of the operator (step S2). For example, the terminal device 30 sets the temperature within the equipment, the pressure within the equipment, the target production volume in the production process, the amount of raw materials to be input into the equipment, etc., through the operation.

プラントシステム40は、端末装置30からの操作に従い稼働する(ステップS3)。そして、プラントシステム40は、稼働の履歴をサーバ10に提供する(ステップS4)。 The plant system 40 operates according to the operation from the terminal device 30 (step S3). Then, the plant system 40 provides the operation history to the server 10 (step S4).

例えば、履歴には、プラントシステム40の各所に設置されたセンサのセンサ値、端末装置30からの操作によって設定された設定値が含まれる。また、履歴は、各レコードに時刻(タイムスタンプ)が付された時系列データであってもよい。 For example, the history includes sensor values from sensors installed at various locations in the plant system 40 and setting values set by operations from the terminal device 30. The history may also be time-series data in which each record is assigned a time (time stamp).

サーバ10は、モデルの学習、モデルを使った推論及びデータ抽出のための重みの付与を行う(ステップS5)。サーバ10の各処理の詳細については後述する。 The server 10 performs model learning, inference using the model, and weighting for data extraction (step S5). Each process of the server 10 will be described in detail later.

さらに、サーバ10は、推論結果をオペレータに提供する(ステップS6)。例えば、推論結果は、状況から予測される操作内容である。オペレータは、提供された操作内容に従いプラントシステム40を操作する。 Furthermore, the server 10 provides the inference result to the operator (step S6). For example, the inference result is the operation content predicted from the situation. The operator operates the plant system 40 according to the operation content provided.

モデルは、オペレータの操作内容を模倣学習により学習する。そのため、モデルによる推論結果として得られる操作内容に従うことで、他のオペレータが操作を模倣することができる。 The model learns the operations of the operator through imitation learning. Therefore, other operators can imitate the operations by following the operations obtained as a result of inference by the model.

図2を用いて、サーバ10について詳細に説明する。図2は、第1の実施形態に係るサーバの構成例を示す図である。 The server 10 will be described in detail with reference to FIG. 2. FIG. 2 is a diagram showing an example of the configuration of a server according to the first embodiment.

図2に示すように、サーバ10は、通信部11、記憶部12及び制御部13を有する。 As shown in FIG. 2, the server 10 has a communication unit 11, a memory unit 12, and a control unit 13.

通信部11は、ネットワークを介して、他の装置との間でデータ通信を行う。例えば、通信部11はNIC(Network Interface Card)である。 The communication unit 11 communicates data with other devices via a network. For example, the communication unit 11 is a network interface card (NIC).

記憶部12は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置である。なお、記憶部12は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等のデータを書き換え可能な半導体メモリであってもよい。 The storage unit 12 is a storage device such as a hard disk drive (HDD), a solid state drive (SSD), or an optical disk. The storage unit 12 may also be a semiconductor memory in which data can be rewritten, such as a random access memory (RAM), a flash memory, or a non-volatile static random access memory (NVSRAM).

記憶部12は、サーバ10で実行されるOS(Operating System)や各種プログラムを記憶する。記憶部12は、モデル情報121及び履歴DB122を記憶する。 The storage unit 12 stores the OS (Operating System) and various programs executed by the server 10. The storage unit 12 stores model information 121 and a history DB 122.

モデル情報121は、モデルを構築するためのパラメータ等の情報である。例えば、モデルがニューラルネットワークである場合、モデル情報121は、各層の重み及びバイアスである。さらに、モデル情報121は、前処理の順番、移動平均処理における窓幅(ウィンドウサイズ)等のパラメータを含む。 Model information 121 is information such as parameters for constructing a model. For example, if the model is a neural network, model information 121 is the weights and biases of each layer. Furthermore, model information 121 includes parameters such as the order of preprocessing and the window width (window size) in moving average processing.

履歴DB122は、プラントシステム40から提供された履歴を含む情報である。図3は、履歴DBの例を示す図である。図3に示すように、履歴DB122は、時刻、第1温度、第2温度、第1圧力、第2圧力、流量、設定値、CO2濃度等の説明変数リスト、目的変数である設定値、及び重みを含む。 History DB122 is information including history provided by plant system 40. FIG. 3 is a diagram showing an example of a history DB. As shown in FIG. 3, history DB122 includes a list of explanatory variables such as time, first temperature, second temperature, first pressure, second pressure, flow rate, set value, CO2 concentration, etc., a set value which is a target variable, and a weight.

第1温度、第2温度、第1圧力、第2圧力及び流量は、それぞれプラントシステム40の各所に設置されたセンサのセンサ値である。 The first temperature, second temperature, first pressure, second pressure, and flow rate are sensor values of sensors installed at various locations in the plant system 40.

第1温度、第2温度、第1圧力、第2圧力及び流量は、モデルの説明変数であって、製品の生産工程における状況を表す説明変数の一例である。 The first temperature, the second temperature, the first pressure, the second pressure, and the flow rate are explanatory variables of the model and are examples of explanatory variables that represent the situation in the product production process.

また、設定値は、端末装置30からの操作によって設定される値である。設定値は、実際に設定された値を正規化した値であってもよい。また、設定値は、モデルの目的変数に相当する。 The set value is a value that is set by an operation from the terminal device 30. The set value may be a normalized value of an actually set value. The set value corresponds to the objective variable of the model.

設定値は、モデルの目的変数であって、生産工程における機器の操作を表す目的変数の一例である。 The set value is the objective variable of the model and is an example of an objective variable that represents the operation of equipment in the production process.

CO2濃度は、生産工程で発生するCO2の濃度であり、後述する重みを付与する処理において指標として用いられる。 The CO2 concentration is the concentration of CO2 generated during the production process, and is used as an index in the weighting process described below.

重みは、履歴DBの各レコードに付与される値である。重みを付与する処理及び重みを使ってデータを抽出する処理については後述する。 A weight is a value that is assigned to each record in the history DB. The process of assigning weights and the process of extracting data using weights will be described later.

なお、時刻は、第1温度、第2温度、第1圧力、第2圧力、流量及びCO2濃度が取得された日時を示すタイムスタンプである。 The time is a timestamp indicating the date and time when the first temperature, second temperature, first pressure, second pressure, flow rate, and CO2 concentration were acquired.

例えば、図3には、時刻「2021/11/5 13:30:01」における第1温度が「40℃」であり、第2温度が「241℃」であり、第1圧力が「501hPa」であり、第2圧力が「119hPa」であり、流量が「12m3/s」であり、設定値が「0.2」であり、CO2濃度が「700ppm」であることが示されている。 For example, Figure 3 shows that at the time "2021/11/5 13:30:01", the first temperature is "40°C", the second temperature is "241°C", the first pressure is "501 hPa", the second pressure is "119 hPa", the flow rate is "12 m3/s", the set value is "0.2", and the CO2 concentration is "700 ppm".

さらに、図3には、時刻「2021/11/5 13:30:01」のレコードには、重み「1.11」が付与されたことが示されている。 Furthermore, Figure 3 shows that the record with the time "2021/11/5 13:30:01" was assigned a weight of "1.11".

制御部13は、サーバ10全体を制御する。制御部13は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路である。 The control unit 13 controls the entire server 10. The control unit 13 is, for example, an electronic circuit such as a CPU (Central Processing Unit), MPU (Micro Processing Unit), or GPU (Graphics Processing Unit), or an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array).

また、制御部13は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、内部メモリを用いて各処理を実行する。また、制御部13は、各種のプログラムが動作することにより各種の処理部として機能する。例えば、制御部13は、抽出部131、計算部132、更新部133、付与部134及び表示制御部135を有する。 The control unit 13 also has an internal memory for storing programs and control data that define various processing procedures, and executes each process using the internal memory. The control unit 13 also functions as various processing units by the operation of various programs. For example, the control unit 13 has an extraction unit 131, a calculation unit 132, an update unit 133, an assignment unit 134, and a display control unit 135.

抽出部131は、履歴DB122に含まれるデータの中から、説明変数と指定された説明変数との距離、及び重みに基づいてデータを抽出する。履歴DB122に含まれるデータは、第1のデータの一例である。また、抽出部131によって抽出されるデータは、第2のデータの一例である。 The extraction unit 131 extracts data from the data included in the history DB 122 based on the distance between the explanatory variable and the specified explanatory variable and the weight. The data included in the history DB 122 is an example of first data. The data extracted by the extraction unit 131 is an example of second data.

指定された説明変数を要求点と呼ぶ。例えば、要求点は、所定の時刻における説明変数(履歴DB122の各センサ値に相当)である。また、要求点における目的変数(設定値)は未知であってもよい。 The specified explanatory variables are called request points. For example, a request point is an explanatory variable (corresponding to each sensor value in history DB122) at a specific time. In addition, the objective variable (set value) at the request point may be unknown.

ここで、JIT法では、多次元ベクトルである訓練用のデータ(本実施形態の履歴DB122に相当)と多次元ベクトルである要求点とのユークリッド距離を基にデータが抽出される。なお、訓練用のデータと要求点との距離は、ユークリッド距離に限られず、例えばマハラノビス距離及びコサイン類似度等であってもよい。 Here, in the JIT method, data is extracted based on the Euclidean distance between the training data (corresponding to the history DB 122 in this embodiment), which is a multidimensional vector, and the request point, which is also a multidimensional vector. Note that the distance between the training data and the request point is not limited to the Euclidean distance, and may be, for example, the Mahalanobis distance, the cosine similarity, etc.

一方で、本実施形態のサーバ10(学習装置)は、訓練用のデータと要求点との距離だけでなく、重みを使ってデータの抽出を行う。 On the other hand, the server 10 (learning device) of this embodiment extracts data using weights in addition to the distance between the training data and the request point.

まず、抽出部131は、要求点と履歴DB122の各レコードとの間のユークリッド距離を計算する。なお、要求点及び履歴DB122の各レコードはベクトルで表されるため、抽出部131は、非特許文献2に記載の方法によりユークリッドノルムを計算してもよい。 First, the extraction unit 131 calculates the Euclidean distance between the request point and each record in the history DB 122. Note that since the request point and each record in the history DB 122 are represented as vectors, the extraction unit 131 may calculate the Euclidean norm by the method described in Non-Patent Document 2.

従来のJIT法では、計算されたユークリッド距離が小さいk(kは整数)個のレコードであるk最近傍(k-NN:k Nearest Neighbors)が抽出される。 In conventional JIT methods, k-Nearest Neighbors (k-NN) are extracted, which are the k records (k is an integer) with the smallest calculated Euclidean distance.

一方、抽出部131は、計算したユークリッド距離だけでなく、履歴DB122の重みを参照してレコードを抽出する。 On the other hand, the extraction unit 131 extracts records not only based on the calculated Euclidean distance but also by referring to the weights in the history DB 122.

ここでは、重みが大きいほど抽出対象として望ましいデータであるものとする。このとき、抽出部131は、履歴DB122の中から、距離が大きいほど大きくなり、かつ重みが大きいほど小さくなる値が小さいデータを優先して抽出する。 Here, the larger the weight, the more desirable the data is to be extracted. At this time, the extraction unit 131 preferentially extracts data from the history DB 122 that has a small value that increases as the distance increases and decreases as the weight increases.

例えば、抽出部131は、ユークリッド距離に重みの逆数を掛けた値が小さい順にk(例えば1,000)個のレコードを履歴DB122から抽出する。 For example, the extraction unit 131 extracts k (e.g., 1,000) records from the history DB 122 in ascending order of the value obtained by multiplying the Euclidean distance by the inverse of the weight.

また、例えば、抽出部131は、重みが閾値以上である履歴DB122のレコードを、ユークリッド距離が小さい順にk個だけ抽出してもよい。 For example, the extraction unit 131 may extract only k records from the history DB 122 whose weights are equal to or greater than a threshold value, in order of smallest Euclidean distance.

また、例えば、抽出部131は、ユークリッド距離が閾値以下である履歴DB122のレコードを、重みが大きい順にk個だけ抽出してもよい。 For example, the extraction unit 131 may extract only k records from the history DB 122 whose Euclidean distance is less than or equal to a threshold, in descending order of weight.

計算部132は、モデル情報121から構築したモデルに、説明変数を入力することにより目的変数を計算する。すなわち、計算部132は推論処理を行う。 The calculation unit 132 calculates the objective variables by inputting the explanatory variables into the model constructed from the model information 121. In other words, the calculation unit 132 performs inference processing.

更新部133は、抽出部131によって抽出されたデータを用いて、説明変数から目的変数を出力するモデルを更新する。 The update unit 133 uses the data extracted by the extraction unit 131 to update the model that outputs the objective variable from the explanatory variables.

例えば、更新部133は、計算部132によって計算された目的変数と、抽出部131によって抽出されたデータに含まれる目的変数との差分を表す目的関数を計算し、当該目的関数が小さくなるように、学習の終了条件を満たすまでモデルのパラメータ、すなわちモデル情報121を繰り返し更新する。 For example, the update unit 133 calculates an objective function that represents the difference between the objective variable calculated by the calculation unit 132 and the objective variable included in the data extracted by the extraction unit 131, and repeatedly updates the model parameters, i.e., the model information 121, so that the objective function becomes smaller until the learning termination condition is satisfied.

図4は、予測対象と訓練データの関係を説明する図である。時刻t-1までのデータである訓練データは、履歴DB122の設定値が登録済みのレコードである。一方、時刻tの予測対象のデータは、要求点に相当する。例えば時刻0から時刻t-1までの期間が訓練データを検索する対象期間である。そのため、時間の経過(tの増加)に従い、訓練データを検索する対象期間が増加していく。 Figure 4 is a diagram explaining the relationship between the prediction target and training data. Training data, which is data up to time t-1, is a record in which setting values have been registered in history DB 122. On the other hand, data of the prediction target at time t corresponds to the request point. For example, the period from time 0 to time t-1 is the target period for searching training data. Therefore, as time passes (as t increases), the target period for searching training data increases.

付与部134は、説明変数と目的変数との組み合わせである履歴DB122に含まれるデータのそれぞれに重みを付与する。 The assignment unit 134 assigns a weight to each piece of data contained in the history DB 122, which is a combination of an explanatory variable and a target variable.

例えば、付与部134は、履歴DB122に含まれるデータのそれぞれに、指標を目標値に近付けることへの寄与度が大きいほど大きくなる重みを付与する。なお、本実施形態では、重みが大きいほど抽出対象として望ましいデータであるものとする。 For example, the weighting unit 134 assigns a weight to each piece of data included in the history DB 122 that increases with the degree of contribution of the data to bringing the index closer to the target value. Note that in this embodiment, the larger the weight, the more desirable the data is to be extracted.

このような重みに基づいて抽出したデータに基づいて学習が行われたモデルの出力に従って機器の操作を行うことで、より指標が改善されやすくなると考えられる。 It is believed that by operating the equipment according to the output of a model that has been trained on data extracted based on such weights, it is easier to improve indicators.

例えば、付与部134は、製品の生産工程における状況を表す説明変数と、生産工程における機器の操作を表す目的変数との組み合わせである履歴DB122に含まれるデータのそれぞれに、生産工程において排出される所定の物質の濃度が大きいほど小さくなる重みを付与する。 For example, the assignment unit 134 assigns a weight to each piece of data included in the history DB 122, which is a combination of explanatory variables representing the situation in the product production process and objective variables representing the operation of equipment in the production process, such that the weight decreases as the concentration of a specified substance discharged in the production process increases.

また、付与部134は、第1の時刻に観測された事象に基づく指標の目標値との近さから得られる重みを、履歴DB122に含まれるデータのうち、第1の時刻よりあらかじめ定められた時間だけ過去の第2の時刻に対応付けられたデータに付与する。 The assigning unit 134 also assigns a weight obtained from the proximity of an index based on an event observed at a first time to a target value to data included in the history DB 122 that is associated with a second time that is a predetermined time in the past from the first time.

さらに、付与部134は、指標が正の値であって、小さい方が望ましいとされる値である場合(例えば、目標値が0)、指標の逆数を重みとして付与する。 Furthermore, if the index is a positive value and a smaller value is desirable (for example, the target value is 0), the assignment unit 134 assigns the inverse of the index as a weight.

生産工程において排出される所定の物質は、例えばCO2である。ここでは、温室効果ガス削減の観点から、排出されるCO2の濃度は小さい方が望ましいこととする。 The specified substance emitted in the production process is, for example, CO2. Here, from the perspective of greenhouse gas reduction, it is desirable for the concentration of CO2 emitted to be small.

また、本実施形態のプラントシステム40においては、設定値を設定する操作(設定値)の影響がCO2の濃度に反映されるまでに要する時間が、約20分であることが知られているものとする。 In addition, in the plant system 40 of this embodiment, it is known that it takes approximately 20 minutes for the effect of the operation of setting the set value (set value) to be reflected in the CO2 concentration.

例えば、付与部134は、第1の時刻のレコードにおけるCO2の濃度の逆数を正規化した値である重みを、履歴DB122の第1の時刻より20分前の時刻のレコードに付与する。CO2の濃度は常に0以上であるため、CO2の濃度が目標値である0に近いほどCO2の濃度の逆数は大きくなる。 For example, the weighting unit 134 assigns a weight that is a normalized value of the inverse of the CO2 concentration in the record for the first time to a record for a time 20 minutes before the first time in the history DB 122. Since the CO2 concentration is always equal to or greater than 0, the closer the CO2 concentration is to the target value of 0, the larger the inverse of the CO2 concentration becomes.

図3の例では、付与部134は、時刻「2021/11/5 14:00:02」のCO2濃度の逆数1/900を正規化した値を、時刻「2021/11/5 13:40:02」の重みに付与(加算)する。 In the example of FIG. 3, the assignment unit 134 assigns (adds) the normalized value of the inverse of the CO2 concentration at the time "2021/11/5 14:00:02", 1/900, to the weight of the time "2021/11/5 13:40:02".

さらに、ここでは、30分前から設定値のCO2濃度への影響が生じ始めると考え、付与部134は、時刻「2021/11/5 14:00:02」のCO2濃度から得られた重みを、時刻「2021/11/5 13:30:02」から「2021/11/5 13:40:02」までの重みに付与(加算)する。 Furthermore, in this case, it is considered that the effect on the set value of the CO2 concentration begins to occur 30 minutes before, and the assignment unit 134 assigns (adds) the weight obtained from the CO2 concentration at the time "2021/11/5 14:00:02" to the weight from the time "2021/11/5 13:30:02" to "2021/11/5 13:40:02".

なお、指標は、CO2濃度に限られず、生産量、歩留まり、稼働時間、消費エネルギー等であってもよい。 Note that the indicators are not limited to CO2 concentration, but may also be production volume, yield, operating time, energy consumption, etc.

また、状態が安定することが望ましいとされる場合、重みは、指標の分散が小さくなるほど大きくなる値であってもよい。 Also, if it is desired that the state is stable, the weight may be a value that increases as the variance of the index decreases.

[第1の実施形態の処理]
図5を用いて第1の実施形態の学習処理の流れを説明する。図5は、第1の実施形態に係る学習処理の流れを示すフローチャートである。
[Processing of the First Embodiment]
The flow of the learning process according to the first embodiment will be described with reference to Fig. 5. Fig. 5 is a flowchart showing the flow of the learning process according to the first embodiment.

図5に示すように、まず、サーバ10は、評価用変数を基に履歴のレコードに重みを付与する(ステップS101)。評価用変数は、CO2濃度のような指標である。評価用変数は、説明変数又は目的変数に含まれているものであってもよい。 As shown in FIG. 5, first, the server 10 assigns weights to the history records based on the evaluation variables (step S101). The evaluation variables are indices such as CO2 concentration. The evaluation variables may be included in the explanatory variables or the objective variables.

次に、サーバ10は、所定のレコードからの距離及び重みを基に、履歴からレコードを抽出する(ステップS102)。例えば、サーバ10は、要求点であるレコードからのユークリッド距離に重みの逆数を掛けた値が小さい順に所定の数のレコードを抽出する。 Next, the server 10 extracts records from the history based on the distance from the specified record and the weight (step S102). For example, the server 10 extracts a specified number of records in ascending order of the value obtained by multiplying the Euclidean distance from the record that is the requested point by the inverse of the weight.

ここで、サーバ10は、抽出したレコードを基にモデルを更新する(ステップS103)。例えば、サーバ10は、抽出したレコードの各センサ値をモデルに入力して得られる設定値の誤差が最小化されるようにモデルを更新する。 The server 10 then updates the model based on the extracted records (step S103). For example, the server 10 updates the model so that the error in the setting value obtained by inputting each sensor value of the extracted records into the model is minimized.

サーバ10は、Ridge及びLasso等の線形手法、又は深層学習等の非線形手法によりモデルを更新することができる。 The server 10 can update the model using linear methods such as Ridge and Lasso, or non-linear methods such as deep learning.

[第1の実施形態の効果]
これまで説明してきたように、付与部134は、説明変数と目的変数との組み合わせである第1のデータのそれぞれに重みを付与する。抽出部131は、第1のデータの中から、説明変数と指定された説明変数との距離、及び重みに基づいて第2のデータを抽出する。更新部133は、第2のデータを用いて、説明変数から目的変数を出力するモデルを更新する。
[Effects of the First Embodiment]
As described above, the assigning unit 134 assigns a weight to each of the first data, which is a combination of an explanatory variable and a target variable. The extracting unit 131 extracts the second data from the first data based on the distance between the explanatory variable and a specified explanatory variable and the weight. The updating unit 133 uses the second data to update the model that outputs the target variable from the explanatory variable.

このように、サーバ10は、単に要求点との距離だけでなく、付与された重みを考慮して学習のためのデータを抽出することができる。その結果、本実施形態によれば、模倣学習においてJIT法による逐次学習を繰り返した場合の、モデルの出力の妥当性の低下を抑止することができる。 In this way, the server 10 can extract data for learning by considering not only the distance from the request point but also the weighting that has been assigned. As a result, according to this embodiment, it is possible to prevent a decrease in the validity of the model output when sequential learning using the JIT method is repeated in imitation learning.

付与部134は、第1のデータのそれぞれに、指標を目標値に近付けることへの寄与度が大きいほど大きくなる重みを付与する。抽出部131は、第1のデータの中から、距離が大きいほど大きくなり、かつ重みが大きいほど小さくなる値が小さいデータを優先して抽出する。 The assigning unit 134 assigns a weight to each piece of first data that increases with the degree of contribution to bringing the index closer to the target value. The extracting unit 131 preferentially extracts data from the first data that has a small value that increases with the distance and decreases with the weight.

これにより、要求点との距離と重みの両方を考慮したデータを容易に抽出することができる。 This makes it easy to extract data that takes into account both the distance from the desired point and the weight.

付与部134は、第1の時刻に観測された事象に基づく指標の目標値との近さから得られる重みを、第1のデータのうち、第1の時刻よりあらかじめ定められた時間だけ過去の第2の時刻に対応付けられたデータに付与する。 The weighting unit 134 assigns a weight obtained from the proximity of an index based on an event observed at a first time to a target value to data of the first data that is associated with a second time that is a predetermined time in the past from the first time.

これにより、データが指標に反映されるまでに遅れ(タイムラグ)がある場合であっても、指標を改善するようなデータを精度良く抽出することができる。 This makes it possible to accurately extract data that will improve the index, even if there is a time lag before the data is reflected in the index.

付与部134は、指標が正の値であって、小さい方が望ましいとされる値である場合、指標の逆数を重みとして付与する。これにより、指標の大小関係を逆転させ、容易に重みとして利用することができる。 When the index is a positive value and a smaller value is more desirable, the assignment unit 134 assigns the inverse of the index as a weight. This reverses the magnitude relationship of the index, making it easy to use it as a weight.

付与部134は、製品の生産工程における状況を表す説明変数と、生産工程における機器の操作を表す目的変数との組み合わせである第1のデータのそれぞれに、生産工程において排出される所定の物質の濃度が大きいほど小さくなる重みを付与する。 The assignment unit 134 assigns a weight to each of the first data, which is a combination of an explanatory variable representing the situation in the product production process and a target variable representing the operation of equipment in the production process, such that the weight decreases as the concentration of a specified substance discharged in the production process increases.

これにより、濃度が小さい方が望ましい物質の排出を抑えることが可能の操作をモデルに学習させることができる。 This allows the model to learn operations that can reduce the emission of substances that are desirable in small concentrations.

表示制御部135は、モデルの学習処理の実行を指示するための画面、又は履歴DBの内容を閲覧するための画面等を、端末装置20に表示させる。 The display control unit 135 causes the terminal device 20 to display a screen for instructing the execution of a model learning process, a screen for viewing the contents of the history DB, etc.

[第2の実施形態]
第2の実施形態では、サーバ10が、データの特性に応じて複数のモデルを使い分ける場合の例を説明する。また、第2の実施形態は、第1の実施形態と同様の構成のサーバ10により実施される。
Second Embodiment
In the second embodiment, an example will be described in which the server 10 selectively uses a plurality of models depending on the characteristics of the data. The second embodiment is implemented by a server 10 having the same configuration as the first embodiment.

第2の実施形態において、抽出部131は、説明変数と目的変数とを組み合わせたである履歴DB122を分類した複数のクラスタのうちいずれかに属するデータの中から、要求点と説明変数との距離に基づいてデータを抽出する。 In the second embodiment, the extraction unit 131 extracts data based on the distance between the request point and the explanatory variable from among data belonging to one of multiple clusters into which the history DB 122, which is a combination of explanatory variables and objective variables, is classified.

抽出部131は、JIT法により各クラスタ内の過去のレコードを抽出する。なお、抽出部131は、データを抽出する際に、第1の実施形態において付与される重みを考慮してもよいし、考慮しなくてもよい。 The extraction unit 131 extracts past records in each cluster using the JIT method. When extracting data, the extraction unit 131 may or may not take into account the weights assigned in the first embodiment.

また、更新部133は、抽出部131によって抽出されたデータを用いて、複数のクラスタのそれぞれに対応するモデルのうち、抽出部131によってデータが抽出されたクラスタに対応するモデルを更新する。 In addition, the update unit 133 uses the data extracted by the extraction unit 131 to update, among the models corresponding to each of the multiple clusters, the model corresponding to the cluster from which the data was extracted by the extraction unit 131.

抽出部131は、履歴DB122の各レコードを図6の方法により複数のクラスタに分類するものとする。図6は、分類方法を説明する図である。 The extraction unit 131 classifies each record in the history DB 122 into multiple clusters using the method shown in FIG. 6. FIG. 6 is a diagram explaining the classification method.

抽出部131は、統計的なクラスタリング手法により分類を行ってもよいし、ルールベースでの分類を行っても良い。 The extraction unit 131 may perform classification using a statistical clustering method or may perform rule-based classification.

図6に示すように、抽出部131は、履歴DB122のレコードのうち、時刻が所定の期間に含まれるレコード群について、2つの変数間の各ラグ数における相互相関を計算する。 As shown in FIG. 6, the extraction unit 131 calculates the cross-correlation between two variables at each lag number for a group of records in the history DB 122 whose time falls within a specified period.

例えば、抽出部131は、第1温度と第2温度の相互相関を計算する。また、ラグ数が0の場合の相互相関は、同じ時刻すなわち同一のレコードの第1温度と第2温度の相互相関である。 For example, the extraction unit 131 calculates the cross-correlation between the first temperature and the second temperature. Furthermore, when the number of lags is 0, the cross-correlation is the cross-correlation between the first temperature and the second temperature at the same time, i.e., in the same record.

また、例えば、ラグ数が10の場合の相互相関は、ある時刻の第1温度と当該時刻の10秒後の第2温度との相互相関である。 For example, when the number of lags is 10, the cross-correlation is the cross-correlation between the first temperature at a certain time and the second temperature 10 seconds after that time.

また、ラグ数が-10の場合の相互相関は、ある時刻の第1温度と当該時刻の10秒前の第2温度との相互相関である。 When the lag number is -10, the cross-correlation is the cross-correlation between the first temperature at a certain time and the second temperature 10 seconds prior to that time.

そして、抽出部131は、相互相関がピークを取るラグ数に応じて、レコード群をクラスタA、クラスタB、クラスタCのいずれかに分類する。 Then, the extraction unit 131 classifies the record group into either cluster A, cluster B, or cluster C depending on the number of lags at which the cross-correlation peaks.

例えば、抽出部131は、相互相関がピークを取るラグ数が-10以上0未満である場合、レコード群をクラスタAに分類する。 For example, if the lag number at which the cross-correlation peaks is greater than or equal to -10 and less than 0, the extraction unit 131 classifies the record group into cluster A.

例えば、抽出部131は、相互相関がピークを取るラグ数が-20以上-10未満である場合、レコード群をクラスタBに分類する。 For example, if the lag number at which the cross-correlation peaks is greater than or equal to -20 and less than -10, the extraction unit 131 classifies the record group into cluster B.

例えば、抽出部131は、相互相関がピークを取るラグ数が-30以上-20未満である場合、レコード群をクラスタCに分類する。 For example, if the lag number at which the cross-correlation peaks is greater than or equal to -30 and less than -20, the extraction unit 131 classifies the record group into cluster C.

ここで、各クラスタに対応するモデルは、それぞれ学習の方法が異なる。例えば、モデルごとに、使用される説明変数及びハイパーパラメータが異なる。ハイパーパラメータは、例えば、丸め幅、時間幅(ウィンドウサイズ)、予測先、ステップ数、DNNの層数、ノード数、活性化関数等である。 Here, the models corresponding to each cluster have different learning methods. For example, the explanatory variables and hyperparameters used differ for each model. Hyperparameters include, for example, the rounding width, time width (window size), prediction destination, number of steps, number of layers of DNN, number of nodes, activation function, etc.

ウィンドウサイズは、時系列データの学習を行う際の、スライディングウィンドウのサイズである。 The window size is the size of the sliding window when learning time series data.

クラスタAに対応するモデルの学習におけるウィンドウサイズは10分である。また、クラスタBに対応するモデルの学習におけるウィンドウサイズは20分である。また、クラスタCに対応するモデルの学習におけるウィンドウサイズは30分である。 The window size for training the model corresponding to cluster A is 10 minutes. The window size for training the model corresponding to cluster B is 20 minutes. The window size for training the model corresponding to cluster C is 30 minutes.

[第2の実施形態の処理]
図7を用いて第2の実施形態の学習処理の流れを説明する。図7は、第2の実施形態に係る学習処理の流れを示すフローチャートである。
[Processing of the second embodiment]
The flow of the learning process according to the second embodiment will be described with reference to Fig. 7. Fig. 7 is a flowchart showing the flow of the learning process according to the second embodiment.

図7に示すように、まず、サーバ10は、あらかじめ指定された2つの変数間の、各ラグ数における相互相関を計算する(ステップS201)。 As shown in FIG. 7, first, the server 10 calculates the cross-correlation between two pre-specified variables at each lag number (step S201).

次に、サーバ10は、相互相関を基にレコードをクラスタリングする(ステップS202)。例えば、サーバ10は、相互相関がピークを取るラグ数を基にクラスタリングを行う。 Next, the server 10 clusters the records based on the cross-correlation (step S202). For example, the server 10 performs clustering based on the number of lags at which the cross-correlation peaks.

サーバ10は、クラスタごとに定められた方法によりモデルの学習を実行する(ステップS203)。モデルの学習は、計算部132及び更新部133によって行われる。 The server 10 performs model learning using a method defined for each cluster (step S203). The model learning is performed by the calculation unit 132 and the update unit 133.

[第2の実施形態の効果]
これまで説明してきたように、抽出部131は、説明変数と目的変数とを組み合わせたである履歴DB122を分類した複数のクラスタのうちいずれかに属するデータの中から、要求点と説明変数との距離に基づいてデータを抽出する。また、更新部133は、抽出部131によって抽出されたデータを用いて、複数のクラスタのそれぞれに対応するモデルのうち、抽出部131によってデータが抽出されたクラスタに対応するモデルを更新する。
[Effects of the second embodiment]
As described above, the extraction unit 131 extracts data from among data belonging to any of a plurality of clusters into which the history DB 122, which is a combination of explanatory variables and objective variables, is classified, based on the distance between the request point and the explanatory variable. Furthermore, the update unit 133 uses the data extracted by the extraction unit 131 to update, among the models corresponding to each of the plurality of clusters, a model corresponding to the cluster from which the extraction unit 131 extracted data.

このように、学習方法の異なる複数のモデルをあらかじめ用意しておき、JIT法と組み合わせることで、モデルの変更を要する大幅な環境(運用条件等)の変化にも対応することができる。 In this way, by preparing multiple models with different learning methods in advance and combining them with the JIT method, it is possible to respond to major changes in the environment (operating conditions, etc.) that require changes to the model.

[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、各装置の分散及び統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散又は統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU(Central Processing Unit)及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。なお、プログラムは、CPUだけでなく、GPU等の他のプロセッサによって実行されてもよい。
[System configuration, etc.]
In addition, each component of each device shown in the figure is functionally conceptual, and does not necessarily have to be physically configured as shown in the figure. In other words, the specific form of distribution and integration of each device is not limited to that shown in the figure, and all or a part of it can be functionally or physically distributed or integrated in any unit depending on various loads, usage conditions, etc. Furthermore, each processing function performed by each device can be realized in whole or in part by a CPU (Central Processing Unit) and a program analyzed and executed by the CPU, or can be realized as hardware by wired logic. Note that the program may be executed not only by the CPU but also by other processors such as a GPU.

また、本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。 Furthermore, among the processes described in this embodiment, all or part of the processes described as being performed automatically can be performed manually, or all or part of the processes described as being performed manually can be performed automatically using known methods. In addition, the information including the processing procedures, control procedures, specific names, various data, and parameters shown in the above documents and drawings can be changed as desired unless otherwise specified.

[プログラム]
一実施形態として、サーバ10は、パッケージソフトウェアやオンラインソフトウェアとして上記の学習処理を実行する学習プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の学習プログラムを情報処理装置に実行させることにより、情報処理装置をサーバ10として機能させることができる。ここで言う情報処理装置には、デスクトップ型又はノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置には、タブレット型端末、スマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等のスレート端末等がその範疇に含まれる。
[program]
In one embodiment, the server 10 can be implemented by installing a learning program that executes the above learning process as package software or online software on a desired computer. For example, the above learning program can be executed by an information processing device, causing the information processing device to function as the server 10. The information processing device here includes desktop or notebook personal computers. In addition, the information processing device also includes tablet terminals, smartphones, mobile communication terminals such as mobile phones and PHS (Personal Handyphone System), and slate terminals such as PDA (Personal Digital Assistant).

また、サーバ10は、ユーザが使用する端末装置をクライアントとし、当該クライアントに上記の学習処理に関するサービスを提供するサーバとして実装することもできる。例えば、サーバは、要求点の指定を入力とし、学習済みのモデルを出力とする学習サービスを提供するサーバ装置として実装される。この場合、サーバは、Webサーバとして実装することとしてもよいし、アウトソーシングによって上記の学習処理に関するサービスを提供するクラウドとして実装することとしてもかまわない。 The server 10 can also be implemented as a server that provides a service related to the above-mentioned learning process to a client, the client being a terminal device used by the user. For example, the server is implemented as a server device that provides a learning service in which the specification of a request point is used as input and a trained model is used as output. In this case, the server may be implemented as a web server, or may be implemented as a cloud that provides a service related to the above-mentioned learning process by outsourcing.

図8は、学習プログラムを実行するコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。 Figure 8 is a diagram showing an example of a computer that executes a learning program. The computer 1000 has, for example, a memory 1010 and a CPU 1020. The computer 1000 also has a hard disk drive interface 1030, a disk drive interface 1040, a serial port interface 1050, a video adapter 1060, and a network interface 1070. Each of these components is connected by a bus 1080.

メモリ1010は、ROM(Read Only Memory)1011及びRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。 The memory 1010 includes a read only memory (ROM) 1011 and a random access memory (RAM) 1012. The ROM 1011 stores a boot program such as a basic input output system (BIOS). The hard disk drive interface 1030 is connected to a hard disk drive 1090. The disk drive interface 1040 is connected to a disk drive 1100. A removable storage medium such as a magnetic disk or optical disk is inserted into the disk drive 1100. The serial port interface 1050 is connected to a mouse 1110 and a keyboard 1120, for example. The video adapter 1060 is connected to a display 1130, for example.

ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、サーバ10の各処理を規定するプログラムは、コンピュータにより実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、サーバ10における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSD(Solid State Drive)により代替されてもよい。 The hard disk drive 1090 stores, for example, an OS 1091, an application program 1092, a program module 1093, and program data 1094. That is, the programs that define each process of the server 10 are implemented as program modules 1093 in which computer-executable code is written. The program modules 1093 are stored, for example, in the hard disk drive 1090. For example, a program module 1093 for executing processes similar to the functional configuration of the server 10 is stored in the hard disk drive 1090. The hard disk drive 1090 may be replaced by an SSD (Solid State Drive).

また、上述した実施形態の処理で用いられる設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020は、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した実施形態の処理を実行する。 The setting data used in the processing of the above-described embodiment is stored as program data 1094, for example, in memory 1010 or hard disk drive 1090. Then, the CPU 1020 reads the program module 1093 or program data 1094 stored in memory 1010 or hard disk drive 1090 into RAM 1012 as necessary, and executes the processing of the above-described embodiment.

なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093及びプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093及びプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。 The program module 1093 and the program data 1094 are not limited to being stored in the hard disk drive 1090, but may be stored in, for example, a removable storage medium and read by the CPU 1020 via the disk drive 1100 or the like. Alternatively, the program module 1093 and the program data 1094 may be stored in another computer connected via a network (such as a local area network (LAN) or wide area network (WAN)). The program module 1093 and the program data 1094 may then be read by the CPU 1020 from the other computer via the network interface 1070.

1 プラント運用システム
10 サーバ
20、30 端末装置
40 プラントシステム
11 通信部
12 記憶部
13 制御部
121 モデル情報
122 履歴DB
131 抽出部
132 計算部
133 更新部
134 付与部
135 表示制御部
REFERENCE SIGNS LIST 1 Plant operation system 10 Server 20, 30 Terminal device 40 Plant system 11 Communication unit 12 Storage unit 13 Control unit 121 Model information 122 History DB
131 Extraction unit 132 Calculation unit 133 Update unit 134 Assignment unit 135 Display control unit

Claims (3)

説明変数と目的変数と評価用変数との組み合わせである第1のデータのそれぞれに、前記評価用変数の分散が小さくなるほど大きくなる重みを付与する付与部と、
前記第1のデータの中から、前記説明変数と指定された説明変数との距離が大きいほど大きくなり、かつ前記重みが大きいほど小さくなる値が小さいデータを優先して第2のデータとして抽出する抽出部と、
前記第2のデータを用いて、前記説明変数から前記目的変数を出力するモデルを更新する更新部と、
を有することを特徴とする学習装置。
an assignment unit that assigns a weight to each of first data, which is a combination of an explanatory variable, a target variable, and an evaluation variable , the weight being larger as the variance of the evaluation variable becomes smaller;
an extraction unit that preferentially extracts, from the first data, data having a small value that increases as the distance between the explanatory variable and a designated explanatory variable increases and decreases as the weight increases, as second data;
an update unit that updates a model that outputs the objective variable from the explanatory variables by using the second data;
A learning device comprising:
学習装置によって実行される学習方法であって、
説明変数と目的変数と評価用変数との組み合わせである第1のデータのそれぞれに、前記評価用変数の分散が小さくなるほど大きくなる重みを付与する付与工程と、
前記第1のデータの中から、前記説明変数と指定された説明変数との距離が大きいほど大きくなり、かつ前記重みが大きいほど小さくなる値が小さいデータを優先して第2のデータとして抽出する抽出工程と、
前記第2のデータを用いて、前記説明変数から前記目的変数を出力するモデルを更新する更新工程と、
を含むことを特徴とする学習方法。
A learning method performed by a learning device, comprising:
a weighting step of weighting each of first data, which is a combination of an explanatory variable, a response variable, and an evaluation variable , the weighting being increased as the variance of the evaluation variable decreases;
an extraction step of preferentially extracting, from the first data, data having a small value that increases as the distance between the explanatory variable and a designated explanatory variable increases and decreases as the weight increases, as the second data;
an updating step of updating a model that outputs the objective variable from the explanatory variables by using the second data;
A learning method comprising:
説明変数と目的変数と評価用変数との組み合わせである第1のデータのそれぞれに、前記評価用変数の分散が小さくなるほど大きくなる重みを付与する付与ステップと、
前記第1のデータの中から、前記説明変数と指定された説明変数との距離が大きいほど大きくなり、かつ前記重みが大きいほど小さくなる値が小さいデータを優先して第2のデータとして抽出する抽出ステップと、
前記第2のデータを用いて、前記説明変数から前記目的変数を出力するモデルを更新する更新ステップと、
をコンピュータに実行させることを特徴とする学習プログラム。
a weighting step of weighting each of first data, which is a combination of an explanatory variable, a response variable, and an evaluation variable , the weighting increasing as the variance of the evaluation variable decreases;
an extraction step of preferentially extracting, from the first data, data having a small value that increases as the distance between the explanatory variable and a designated explanatory variable increases and decreases as the weight increases, as the second data;
an updating step of updating a model that outputs the objective variable from the explanatory variables by using the second data;
A learning program characterized by causing a computer to execute the above.
JP2023076237A 2021-11-18 2023-05-02 Learning device, learning method, and learning program Active JP7557571B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023076237A JP7557571B2 (en) 2021-11-18 2023-05-02 Learning device, learning method, and learning program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021188226A JP7275233B1 (en) 2021-11-18 2021-11-18 LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM
JP2023076237A JP7557571B2 (en) 2021-11-18 2023-05-02 Learning device, learning method, and learning program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021188226A Division JP7275233B1 (en) 2021-11-18 2021-11-18 LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM

Publications (2)

Publication Number Publication Date
JP2023100830A JP2023100830A (en) 2023-07-19
JP7557571B2 true JP7557571B2 (en) 2024-09-27

Family

ID=86332431

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2021188226A Active JP7275233B1 (en) 2021-11-18 2021-11-18 LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM
JP2023076237A Active JP7557571B2 (en) 2021-11-18 2023-05-02 Learning device, learning method, and learning program
JP2023076236A Active JP7513798B2 (en) 2021-11-18 2023-05-02 Learning device, learning method, and learning program
JP2024104276A Pending JP2024114893A (en) 2021-11-18 2024-06-27 Learning device, learning method, and learning program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021188226A Active JP7275233B1 (en) 2021-11-18 2021-11-18 LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2023076236A Active JP7513798B2 (en) 2021-11-18 2023-05-02 Learning device, learning method, and learning program
JP2024104276A Pending JP2024114893A (en) 2021-11-18 2024-06-27 Learning device, learning method, and learning program

Country Status (1)

Country Link
JP (4) JP7275233B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008102720A (en) 2006-10-18 2008-05-01 Omron Corp Controller, and apparatus, method and program for adjusting control parameter
JP2016099734A (en) 2014-11-19 2016-05-30 キヤノン株式会社 Image processor, information processing method and program
WO2017037768A1 (en) 2015-08-28 2017-03-09 株式会社日立製作所 Evaluation system, evaluation method, and data analysis system
JP2021128388A (en) 2020-02-10 2021-09-02 株式会社イシダ Data generation device, learned model generation device, weighing machine and data generation method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6059375B1 (en) 2016-02-09 2017-01-11 ファナック株式会社 Production control system and integrated production control system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008102720A (en) 2006-10-18 2008-05-01 Omron Corp Controller, and apparatus, method and program for adjusting control parameter
JP2016099734A (en) 2014-11-19 2016-05-30 キヤノン株式会社 Image processor, information processing method and program
WO2017037768A1 (en) 2015-08-28 2017-03-09 株式会社日立製作所 Evaluation system, evaluation method, and data analysis system
JP2021128388A (en) 2020-02-10 2021-09-02 株式会社イシダ Data generation device, learned model generation device, weighing machine and data generation method

Also Published As

Publication number Publication date
JP2023103311A (en) 2023-07-26
JP2023074986A (en) 2023-05-30
JP7275233B1 (en) 2023-05-17
JP2023100830A (en) 2023-07-19
JP7513798B2 (en) 2024-07-09
JP2024114893A (en) 2024-08-23

Similar Documents

Publication Publication Date Title
US10360517B2 (en) Distributed hyperparameter tuning system for machine learning
Dasgupta et al. Nonlinear dynamic Boltzmann machines for time-series prediction
Angelov et al. A new type of simplified fuzzy rule-based system
Alexandridis et al. A two-stage evolutionary algorithm for variable selection in the development of RBF neural network models
US12033521B2 (en) Machine learning in avionics
Haghighatlari et al. A physics-infused deep learning model for the prediction of refractive indices and its use for the large-scale screening of organic compound space
Chen et al. Inn: An interpretable neural network for ai incubation in manufacturing
Fiosina et al. Polymer reaction engineering meets explainable machine learning
JP7557571B2 (en) Learning device, learning method, and learning program
Navarro-Acosta et al. Fault detection based on squirrel search algorithm and support vector data description for industrial processes
JP7483827B1 (en) Learning device, learning method, and learning program
Wang et al. A new paralleled semi-supervised deep learning method for remaining useful life prediction
JP7443609B1 (en) Learning devices, learning methods and learning programs
Kordon Future trends in soft computing industrial applications
Fedorenko et al. The Neural Network for Online Learning Task Without Manual Feature Extraction
JP2024074005A (en) Learning apparatus, learning method, and learning program
JP7506208B1 (en) Information processing device, information processing method, and information processing program
CN114912362B (en) Modeling method and device for gold ore feeding process, storage medium and computer equipment
JP7462206B2 (en) Learning device, learning method, and learning program
Karlos et al. Investigating the benefits of exploiting incremental learners under active learning scheme
CN116307742B (en) Risk identification method, device and equipment for subdivision guest group and storage medium
Mustapha et al. Introduction to machine learning and artificial intelligence
Martinez-de-Pison et al. GAparsimony: An R Package for Searching Parsimonious Models by Combining Hyperparameter Optimization and Feature Selection
JP2023173391A (en) Analysis device, analysis method, and analysis program
US20230144359A1 (en) Method and system for predicting real plant dynamics performance in green energy generation utilizing physics and artificial neural network models

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240913

R150 Certificate of patent or registration of utility model

Ref document number: 7557571

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150