JP7557571B2 - Learning device, learning method, and learning program - Google Patents
Learning device, learning method, and learning program Download PDFInfo
- Publication number
- JP7557571B2 JP7557571B2 JP2023076237A JP2023076237A JP7557571B2 JP 7557571 B2 JP7557571 B2 JP 7557571B2 JP 2023076237 A JP2023076237 A JP 2023076237A JP 2023076237 A JP2023076237 A JP 2023076237A JP 7557571 B2 JP7557571 B2 JP 7557571B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- variable
- learning
- model
- explanatory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 51
- 238000000605 extraction Methods 0.000 claims description 33
- 239000000284 extract Substances 0.000 claims description 19
- 230000007423 decrease Effects 0.000 claims description 15
- 238000011156 evaluation Methods 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 description 21
- 238000004519 manufacturing process Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 16
- 238000012549 training Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000003860 storage Methods 0.000 description 8
- 239000000126 substance Substances 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000010365 information processing Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000006866 deterioration Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000001174 ascending effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000003054 catalyst Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000005431 greenhouse gas Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012946 outsourcing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- General Factory Administration (AREA)
- Testing And Monitoring For Control Systems (AREA)
Description
本発明は、学習装置、学習方法及び学習プログラムに関する。 The present invention relates to a learning device, a learning method, and a learning program.
従来、人間の行動を機械学習モデルに学習させ、当該モデルを用いて人間又はロボット等に動作を教示する模倣学習という技術が知られている。 A technique known as imitation learning is known in which a machine learning model learns human behavior and then uses the model to teach actions to humans or robots, etc.
また、観測されたデータを大量に蓄積しておき、蓄積されたデータの中から要求点の近傍のデータを抽出し、当該抽出したデータを用いてモデルの逐次学習を行うJust-In-Time(JIT)法という技術が知られている(例えば、非特許文献1を参照)。 There is also a known technique known as the Just-In-Time (JIT) method, which accumulates a large amount of observed data, extracts data near the desired point from the accumulated data, and sequentially trains a model using the extracted data (see, for example, Non-Patent Document 1).
ここで、例えば化学プラントにおいては、時間の経過に応じて、機器の経年劣化、触媒の劣化、生産ロード計画の変更等の環境の変化が生じる。 Here, for example, in a chemical plant, environmental changes occur over time, such as deterioration of equipment with age, deterioration of catalysts, and changes to production load plans.
これに対し、化学プラントにおけるオペレータによる機器の操作を学習する模倣学習にJIT法を適用して、モデルを環境の変化に適応させることが考えられる。 In response to this, it is possible to apply the JIT method to imitation learning, which learns how operators operate equipment in chemical plants, and adapt the model to changes in the environment.
しかしながら、模倣学習にJIT法を適用した場合、逐次学習を繰り返すうちに、初期の段階でモデルに反映されたオペレータのスキルが失われていき、モデルの出力の妥当性が低下するという問題がある。 However, when the JIT method is applied to imitation learning, the problem is that as sequential learning is repeated, the operator skills reflected in the model at the initial stage are lost, reducing the validity of the model output.
例えば、初期の段階でオペレータの操作を学習したモデルの出力に従って機器を操作すれば、未熟なオペレータによる操作であったとしても、機器及び機器が稼働するプラントの運転品質が向上することが期待される。そのため、当該モデルの出力の妥当性は高いということができる。 For example, if equipment is operated according to the output of a model that has learned the operations of an operator at an early stage, it is expected that the operating quality of the equipment and the plant in which it operates will improve, even if the operation is performed by an inexperienced operator. Therefore, the validity of the model's output can be said to be high.
一方で、時間の経過に従って、オペレータを模倣し実施した履歴が訓練用のデータとして蓄積されていくとともにモデルの学習が逐次行われるため、初期段階で学習したデータの影響は薄くなり、モデルの出力の妥当性が低下することが考えられる。 On the other hand, as time passes, the history of actions taken by imitating operators is accumulated as training data and the model is trained sequentially, so the influence of the data learned in the early stages becomes weaker and the validity of the model output may decrease.
そして、そのような妥当性が低下した出力に従って機器の操作を行った場合、機器及びプラントの運転品質の低下、及びコストの増加といった問題が生じ得る。 If equipment is operated according to such outputs with reduced validity, problems such as a deterioration in the operating quality of the equipment and plant and increased costs may occur.
上述した課題を解決し、目的を達成するために、学習装置は、説明変数と目的変数との組み合わせである第1のデータのそれぞれに、指標の分散が小さくなるほど大きくなる重みを付与する付与部と、前記第1のデータの中から、前記説明変数と指定された説明変数との距離が大きいほど大きくなり、かつ前記重みが大きいほど小さくなる値が小さいデータを優先して第2のデータとして抽出する抽出部と、前記第2のデータを用いて、前記説明変数から前記目的変数を出力するモデルを更新する更新部と、を有することを特徴とする。 To solve the above-mentioned problems and achieve the objective, the learning device is characterized by having an assignment unit that assigns a weight to each of first data, which is a combination of explanatory variables and objective variables, which increases as the variance of the index decreases; an extraction unit that preferentially extracts, from the first data, data with small values that increase as the distance between the explanatory variable and a specified explanatory variable increases and that decrease as the weight increases, as second data; and an update unit that uses the second data to update a model that outputs the objective variable from the explanatory variables.
本発明によれば、模倣学習においてJIT法による逐次学習を繰り返した場合の、モデルの出力の妥当性の低下を抑止することができる。 According to the present invention, it is possible to prevent a decrease in the validity of the model output when sequential learning using the JIT method is repeated in imitation learning.
以下に、本願に係る学習装置、学習方法及び学習プログラムの実施形態を図面に基づいて詳細に説明する。なお、本発明は、以下に説明する実施形態により限定されるものではない。 Below, embodiments of the learning device, learning method, and learning program according to the present application will be described in detail with reference to the drawings. Note that the present invention is not limited to the embodiments described below.
[第1の実施形態]
[第1の実施形態の構成]
まず、図1を用いて、プラント運用システムについて説明する。プラント運用システム1は、プラントにおける製品の生産工程の管理及び制御を行うためのシステムである。プラントには、化学製品を生産するための化学プラントが含まれる。
[First embodiment]
[Configuration of the first embodiment]
First, a plant operation system will be described with reference to Fig. 1. The
図1に示すように、サーバ10、端末装置20、端末装置30及びプラントシステム40を有する。
As shown in FIG. 1, the system has a
サーバ10は、模倣学習を行うためのモデルに関する処理を行う。サーバ10は学習装置として機能することができる。
The
また、サーバ10、端末装置20、端末装置30及びプラントシステム40は、ネットワークNを介して互いにデータ通信ができるように接続されている。例えば、ネットワークNはインターネット及びイントラネットである。
The
端末装置20及び端末装置30は、パーソナルコンピュータ、タブレット型端末及びスマートフォン等の情報処理装置である。また、端末装置30は、プラントの機器を操作するための専用の端末であってもよい。
The
プラントシステム40は、生産工程で使用される機器及び分散制御システム(DCS:Distributed Control System)を含むものであってもよい。例えば、機器は、反応器、冷却器、気液分離器等である。
The
オペレータは、端末装置30を介してプラントシステム40に含まれる機器を操作するユーザである。また、スタッフは、端末装置20を介して、サーバ10において使用されるモデルを管理するユーザである。
The operator is a user who operates the equipment included in the
図1に基づき、プラント運用システム1の各装置の処理を説明する。
The processing of each device in the
まず、端末装置20は、スタッフの操作に応じてモデルの管理を行う(ステップS1)。例えば、端末装置20は、サーバ10に対して、モデルの変更や学習処理及び推論処理の実行を指示することができる。また、端末装置20は、サーバ10から取得した情報を出力し、スタッフに提示することができる。
First, the
端末装置30は、オペレータの操作に応じて、プラントシステム40の機器を操作する(ステップS2)。例えば、端末装置30は、操作により、機器内の温度、機器内の圧力、生産工程における生産量の目標値、機器に投入する原料の量等を設定する。
The
プラントシステム40は、端末装置30からの操作に従い稼働する(ステップS3)。そして、プラントシステム40は、稼働の履歴をサーバ10に提供する(ステップS4)。
The
例えば、履歴には、プラントシステム40の各所に設置されたセンサのセンサ値、端末装置30からの操作によって設定された設定値が含まれる。また、履歴は、各レコードに時刻(タイムスタンプ)が付された時系列データであってもよい。
For example, the history includes sensor values from sensors installed at various locations in the
サーバ10は、モデルの学習、モデルを使った推論及びデータ抽出のための重みの付与を行う(ステップS5)。サーバ10の各処理の詳細については後述する。
The
さらに、サーバ10は、推論結果をオペレータに提供する(ステップS6)。例えば、推論結果は、状況から予測される操作内容である。オペレータは、提供された操作内容に従いプラントシステム40を操作する。
Furthermore, the
モデルは、オペレータの操作内容を模倣学習により学習する。そのため、モデルによる推論結果として得られる操作内容に従うことで、他のオペレータが操作を模倣することができる。 The model learns the operations of the operator through imitation learning. Therefore, other operators can imitate the operations by following the operations obtained as a result of inference by the model.
図2を用いて、サーバ10について詳細に説明する。図2は、第1の実施形態に係るサーバの構成例を示す図である。
The
図2に示すように、サーバ10は、通信部11、記憶部12及び制御部13を有する。
As shown in FIG. 2, the
通信部11は、ネットワークを介して、他の装置との間でデータ通信を行う。例えば、通信部11はNIC(Network Interface Card)である。
The
記憶部12は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置である。なお、記憶部12は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等のデータを書き換え可能な半導体メモリであってもよい。
The
記憶部12は、サーバ10で実行されるOS(Operating System)や各種プログラムを記憶する。記憶部12は、モデル情報121及び履歴DB122を記憶する。
The
モデル情報121は、モデルを構築するためのパラメータ等の情報である。例えば、モデルがニューラルネットワークである場合、モデル情報121は、各層の重み及びバイアスである。さらに、モデル情報121は、前処理の順番、移動平均処理における窓幅(ウィンドウサイズ)等のパラメータを含む。
履歴DB122は、プラントシステム40から提供された履歴を含む情報である。図3は、履歴DBの例を示す図である。図3に示すように、履歴DB122は、時刻、第1温度、第2温度、第1圧力、第2圧力、流量、設定値、CO2濃度等の説明変数リスト、目的変数である設定値、及び重みを含む。
History DB122 is information including history provided by
第1温度、第2温度、第1圧力、第2圧力及び流量は、それぞれプラントシステム40の各所に設置されたセンサのセンサ値である。
The first temperature, second temperature, first pressure, second pressure, and flow rate are sensor values of sensors installed at various locations in the
第1温度、第2温度、第1圧力、第2圧力及び流量は、モデルの説明変数であって、製品の生産工程における状況を表す説明変数の一例である。 The first temperature, the second temperature, the first pressure, the second pressure, and the flow rate are explanatory variables of the model and are examples of explanatory variables that represent the situation in the product production process.
また、設定値は、端末装置30からの操作によって設定される値である。設定値は、実際に設定された値を正規化した値であってもよい。また、設定値は、モデルの目的変数に相当する。
The set value is a value that is set by an operation from the
設定値は、モデルの目的変数であって、生産工程における機器の操作を表す目的変数の一例である。 The set value is the objective variable of the model and is an example of an objective variable that represents the operation of equipment in the production process.
CO2濃度は、生産工程で発生するCO2の濃度であり、後述する重みを付与する処理において指標として用いられる。 The CO2 concentration is the concentration of CO2 generated during the production process, and is used as an index in the weighting process described below.
重みは、履歴DBの各レコードに付与される値である。重みを付与する処理及び重みを使ってデータを抽出する処理については後述する。 A weight is a value that is assigned to each record in the history DB. The process of assigning weights and the process of extracting data using weights will be described later.
なお、時刻は、第1温度、第2温度、第1圧力、第2圧力、流量及びCO2濃度が取得された日時を示すタイムスタンプである。 The time is a timestamp indicating the date and time when the first temperature, second temperature, first pressure, second pressure, flow rate, and CO2 concentration were acquired.
例えば、図3には、時刻「2021/11/5 13:30:01」における第1温度が「40℃」であり、第2温度が「241℃」であり、第1圧力が「501hPa」であり、第2圧力が「119hPa」であり、流量が「12m3/s」であり、設定値が「0.2」であり、CO2濃度が「700ppm」であることが示されている。 For example, Figure 3 shows that at the time "2021/11/5 13:30:01", the first temperature is "40°C", the second temperature is "241°C", the first pressure is "501 hPa", the second pressure is "119 hPa", the flow rate is "12 m3/s", the set value is "0.2", and the CO2 concentration is "700 ppm".
さらに、図3には、時刻「2021/11/5 13:30:01」のレコードには、重み「1.11」が付与されたことが示されている。 Furthermore, Figure 3 shows that the record with the time "2021/11/5 13:30:01" was assigned a weight of "1.11".
制御部13は、サーバ10全体を制御する。制御部13は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路である。
The control unit 13 controls the
また、制御部13は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、内部メモリを用いて各処理を実行する。また、制御部13は、各種のプログラムが動作することにより各種の処理部として機能する。例えば、制御部13は、抽出部131、計算部132、更新部133、付与部134及び表示制御部135を有する。 The control unit 13 also has an internal memory for storing programs and control data that define various processing procedures, and executes each process using the internal memory. The control unit 13 also functions as various processing units by the operation of various programs. For example, the control unit 13 has an extraction unit 131, a calculation unit 132, an update unit 133, an assignment unit 134, and a display control unit 135.
抽出部131は、履歴DB122に含まれるデータの中から、説明変数と指定された説明変数との距離、及び重みに基づいてデータを抽出する。履歴DB122に含まれるデータは、第1のデータの一例である。また、抽出部131によって抽出されるデータは、第2のデータの一例である。
The extraction unit 131 extracts data from the data included in the
指定された説明変数を要求点と呼ぶ。例えば、要求点は、所定の時刻における説明変数(履歴DB122の各センサ値に相当)である。また、要求点における目的変数(設定値)は未知であってもよい。 The specified explanatory variables are called request points. For example, a request point is an explanatory variable (corresponding to each sensor value in history DB122) at a specific time. In addition, the objective variable (set value) at the request point may be unknown.
ここで、JIT法では、多次元ベクトルである訓練用のデータ(本実施形態の履歴DB122に相当)と多次元ベクトルである要求点とのユークリッド距離を基にデータが抽出される。なお、訓練用のデータと要求点との距離は、ユークリッド距離に限られず、例えばマハラノビス距離及びコサイン類似度等であってもよい。
Here, in the JIT method, data is extracted based on the Euclidean distance between the training data (corresponding to the
一方で、本実施形態のサーバ10(学習装置)は、訓練用のデータと要求点との距離だけでなく、重みを使ってデータの抽出を行う。 On the other hand, the server 10 (learning device) of this embodiment extracts data using weights in addition to the distance between the training data and the request point.
まず、抽出部131は、要求点と履歴DB122の各レコードとの間のユークリッド距離を計算する。なお、要求点及び履歴DB122の各レコードはベクトルで表されるため、抽出部131は、非特許文献2に記載の方法によりユークリッドノルムを計算してもよい。
First, the extraction unit 131 calculates the Euclidean distance between the request point and each record in the
従来のJIT法では、計算されたユークリッド距離が小さいk(kは整数)個のレコードであるk最近傍(k-NN:k Nearest Neighbors)が抽出される。 In conventional JIT methods, k-Nearest Neighbors (k-NN) are extracted, which are the k records (k is an integer) with the smallest calculated Euclidean distance.
一方、抽出部131は、計算したユークリッド距離だけでなく、履歴DB122の重みを参照してレコードを抽出する。
On the other hand, the extraction unit 131 extracts records not only based on the calculated Euclidean distance but also by referring to the weights in the
ここでは、重みが大きいほど抽出対象として望ましいデータであるものとする。このとき、抽出部131は、履歴DB122の中から、距離が大きいほど大きくなり、かつ重みが大きいほど小さくなる値が小さいデータを優先して抽出する。
Here, the larger the weight, the more desirable the data is to be extracted. At this time, the extraction unit 131 preferentially extracts data from the
例えば、抽出部131は、ユークリッド距離に重みの逆数を掛けた値が小さい順にk(例えば1,000)個のレコードを履歴DB122から抽出する。
For example, the extraction unit 131 extracts k (e.g., 1,000) records from the
また、例えば、抽出部131は、重みが閾値以上である履歴DB122のレコードを、ユークリッド距離が小さい順にk個だけ抽出してもよい。
For example, the extraction unit 131 may extract only k records from the
また、例えば、抽出部131は、ユークリッド距離が閾値以下である履歴DB122のレコードを、重みが大きい順にk個だけ抽出してもよい。
For example, the extraction unit 131 may extract only k records from the
計算部132は、モデル情報121から構築したモデルに、説明変数を入力することにより目的変数を計算する。すなわち、計算部132は推論処理を行う。
The calculation unit 132 calculates the objective variables by inputting the explanatory variables into the model constructed from the
更新部133は、抽出部131によって抽出されたデータを用いて、説明変数から目的変数を出力するモデルを更新する。 The update unit 133 uses the data extracted by the extraction unit 131 to update the model that outputs the objective variable from the explanatory variables.
例えば、更新部133は、計算部132によって計算された目的変数と、抽出部131によって抽出されたデータに含まれる目的変数との差分を表す目的関数を計算し、当該目的関数が小さくなるように、学習の終了条件を満たすまでモデルのパラメータ、すなわちモデル情報121を繰り返し更新する。
For example, the update unit 133 calculates an objective function that represents the difference between the objective variable calculated by the calculation unit 132 and the objective variable included in the data extracted by the extraction unit 131, and repeatedly updates the model parameters, i.e., the
図4は、予測対象と訓練データの関係を説明する図である。時刻t-1までのデータである訓練データは、履歴DB122の設定値が登録済みのレコードである。一方、時刻tの予測対象のデータは、要求点に相当する。例えば時刻0から時刻t-1までの期間が訓練データを検索する対象期間である。そのため、時間の経過(tの増加)に従い、訓練データを検索する対象期間が増加していく。
Figure 4 is a diagram explaining the relationship between the prediction target and training data. Training data, which is data up to time t-1, is a record in which setting values have been registered in
付与部134は、説明変数と目的変数との組み合わせである履歴DB122に含まれるデータのそれぞれに重みを付与する。
The assignment unit 134 assigns a weight to each piece of data contained in the
例えば、付与部134は、履歴DB122に含まれるデータのそれぞれに、指標を目標値に近付けることへの寄与度が大きいほど大きくなる重みを付与する。なお、本実施形態では、重みが大きいほど抽出対象として望ましいデータであるものとする。
For example, the weighting unit 134 assigns a weight to each piece of data included in the
このような重みに基づいて抽出したデータに基づいて学習が行われたモデルの出力に従って機器の操作を行うことで、より指標が改善されやすくなると考えられる。 It is believed that by operating the equipment according to the output of a model that has been trained on data extracted based on such weights, it is easier to improve indicators.
例えば、付与部134は、製品の生産工程における状況を表す説明変数と、生産工程における機器の操作を表す目的変数との組み合わせである履歴DB122に含まれるデータのそれぞれに、生産工程において排出される所定の物質の濃度が大きいほど小さくなる重みを付与する。
For example, the assignment unit 134 assigns a weight to each piece of data included in the
また、付与部134は、第1の時刻に観測された事象に基づく指標の目標値との近さから得られる重みを、履歴DB122に含まれるデータのうち、第1の時刻よりあらかじめ定められた時間だけ過去の第2の時刻に対応付けられたデータに付与する。
The assigning unit 134 also assigns a weight obtained from the proximity of an index based on an event observed at a first time to a target value to data included in the
さらに、付与部134は、指標が正の値であって、小さい方が望ましいとされる値である場合(例えば、目標値が0)、指標の逆数を重みとして付与する。 Furthermore, if the index is a positive value and a smaller value is desirable (for example, the target value is 0), the assignment unit 134 assigns the inverse of the index as a weight.
生産工程において排出される所定の物質は、例えばCO2である。ここでは、温室効果ガス削減の観点から、排出されるCO2の濃度は小さい方が望ましいこととする。 The specified substance emitted in the production process is, for example, CO2. Here, from the perspective of greenhouse gas reduction, it is desirable for the concentration of CO2 emitted to be small.
また、本実施形態のプラントシステム40においては、設定値を設定する操作(設定値)の影響がCO2の濃度に反映されるまでに要する時間が、約20分であることが知られているものとする。
In addition, in the
例えば、付与部134は、第1の時刻のレコードにおけるCO2の濃度の逆数を正規化した値である重みを、履歴DB122の第1の時刻より20分前の時刻のレコードに付与する。CO2の濃度は常に0以上であるため、CO2の濃度が目標値である0に近いほどCO2の濃度の逆数は大きくなる。
For example, the weighting unit 134 assigns a weight that is a normalized value of the inverse of the CO2 concentration in the record for the first time to a record for a
図3の例では、付与部134は、時刻「2021/11/5 14:00:02」のCO2濃度の逆数1/900を正規化した値を、時刻「2021/11/5 13:40:02」の重みに付与(加算)する。 In the example of FIG. 3, the assignment unit 134 assigns (adds) the normalized value of the inverse of the CO2 concentration at the time "2021/11/5 14:00:02", 1/900, to the weight of the time "2021/11/5 13:40:02".
さらに、ここでは、30分前から設定値のCO2濃度への影響が生じ始めると考え、付与部134は、時刻「2021/11/5 14:00:02」のCO2濃度から得られた重みを、時刻「2021/11/5 13:30:02」から「2021/11/5 13:40:02」までの重みに付与(加算)する。 Furthermore, in this case, it is considered that the effect on the set value of the CO2 concentration begins to occur 30 minutes before, and the assignment unit 134 assigns (adds) the weight obtained from the CO2 concentration at the time "2021/11/5 14:00:02" to the weight from the time "2021/11/5 13:30:02" to "2021/11/5 13:40:02".
なお、指標は、CO2濃度に限られず、生産量、歩留まり、稼働時間、消費エネルギー等であってもよい。 Note that the indicators are not limited to CO2 concentration, but may also be production volume, yield, operating time, energy consumption, etc.
また、状態が安定することが望ましいとされる場合、重みは、指標の分散が小さくなるほど大きくなる値であってもよい。 Also, if it is desired that the state is stable, the weight may be a value that increases as the variance of the index decreases.
[第1の実施形態の処理]
図5を用いて第1の実施形態の学習処理の流れを説明する。図5は、第1の実施形態に係る学習処理の流れを示すフローチャートである。
[Processing of the First Embodiment]
The flow of the learning process according to the first embodiment will be described with reference to Fig. 5. Fig. 5 is a flowchart showing the flow of the learning process according to the first embodiment.
図5に示すように、まず、サーバ10は、評価用変数を基に履歴のレコードに重みを付与する(ステップS101)。評価用変数は、CO2濃度のような指標である。評価用変数は、説明変数又は目的変数に含まれているものであってもよい。
As shown in FIG. 5, first, the
次に、サーバ10は、所定のレコードからの距離及び重みを基に、履歴からレコードを抽出する(ステップS102)。例えば、サーバ10は、要求点であるレコードからのユークリッド距離に重みの逆数を掛けた値が小さい順に所定の数のレコードを抽出する。
Next, the
ここで、サーバ10は、抽出したレコードを基にモデルを更新する(ステップS103)。例えば、サーバ10は、抽出したレコードの各センサ値をモデルに入力して得られる設定値の誤差が最小化されるようにモデルを更新する。
The
サーバ10は、Ridge及びLasso等の線形手法、又は深層学習等の非線形手法によりモデルを更新することができる。
The
[第1の実施形態の効果]
これまで説明してきたように、付与部134は、説明変数と目的変数との組み合わせである第1のデータのそれぞれに重みを付与する。抽出部131は、第1のデータの中から、説明変数と指定された説明変数との距離、及び重みに基づいて第2のデータを抽出する。更新部133は、第2のデータを用いて、説明変数から目的変数を出力するモデルを更新する。
[Effects of the First Embodiment]
As described above, the assigning unit 134 assigns a weight to each of the first data, which is a combination of an explanatory variable and a target variable. The extracting unit 131 extracts the second data from the first data based on the distance between the explanatory variable and a specified explanatory variable and the weight. The updating unit 133 uses the second data to update the model that outputs the target variable from the explanatory variable.
このように、サーバ10は、単に要求点との距離だけでなく、付与された重みを考慮して学習のためのデータを抽出することができる。その結果、本実施形態によれば、模倣学習においてJIT法による逐次学習を繰り返した場合の、モデルの出力の妥当性の低下を抑止することができる。
In this way, the
付与部134は、第1のデータのそれぞれに、指標を目標値に近付けることへの寄与度が大きいほど大きくなる重みを付与する。抽出部131は、第1のデータの中から、距離が大きいほど大きくなり、かつ重みが大きいほど小さくなる値が小さいデータを優先して抽出する。 The assigning unit 134 assigns a weight to each piece of first data that increases with the degree of contribution to bringing the index closer to the target value. The extracting unit 131 preferentially extracts data from the first data that has a small value that increases with the distance and decreases with the weight.
これにより、要求点との距離と重みの両方を考慮したデータを容易に抽出することができる。 This makes it easy to extract data that takes into account both the distance from the desired point and the weight.
付与部134は、第1の時刻に観測された事象に基づく指標の目標値との近さから得られる重みを、第1のデータのうち、第1の時刻よりあらかじめ定められた時間だけ過去の第2の時刻に対応付けられたデータに付与する。 The weighting unit 134 assigns a weight obtained from the proximity of an index based on an event observed at a first time to a target value to data of the first data that is associated with a second time that is a predetermined time in the past from the first time.
これにより、データが指標に反映されるまでに遅れ(タイムラグ)がある場合であっても、指標を改善するようなデータを精度良く抽出することができる。 This makes it possible to accurately extract data that will improve the index, even if there is a time lag before the data is reflected in the index.
付与部134は、指標が正の値であって、小さい方が望ましいとされる値である場合、指標の逆数を重みとして付与する。これにより、指標の大小関係を逆転させ、容易に重みとして利用することができる。 When the index is a positive value and a smaller value is more desirable, the assignment unit 134 assigns the inverse of the index as a weight. This reverses the magnitude relationship of the index, making it easy to use it as a weight.
付与部134は、製品の生産工程における状況を表す説明変数と、生産工程における機器の操作を表す目的変数との組み合わせである第1のデータのそれぞれに、生産工程において排出される所定の物質の濃度が大きいほど小さくなる重みを付与する。 The assignment unit 134 assigns a weight to each of the first data, which is a combination of an explanatory variable representing the situation in the product production process and a target variable representing the operation of equipment in the production process, such that the weight decreases as the concentration of a specified substance discharged in the production process increases.
これにより、濃度が小さい方が望ましい物質の排出を抑えることが可能の操作をモデルに学習させることができる。 This allows the model to learn operations that can reduce the emission of substances that are desirable in small concentrations.
表示制御部135は、モデルの学習処理の実行を指示するための画面、又は履歴DBの内容を閲覧するための画面等を、端末装置20に表示させる。
The display control unit 135 causes the
[第2の実施形態]
第2の実施形態では、サーバ10が、データの特性に応じて複数のモデルを使い分ける場合の例を説明する。また、第2の実施形態は、第1の実施形態と同様の構成のサーバ10により実施される。
Second Embodiment
In the second embodiment, an example will be described in which the
第2の実施形態において、抽出部131は、説明変数と目的変数とを組み合わせたである履歴DB122を分類した複数のクラスタのうちいずれかに属するデータの中から、要求点と説明変数との距離に基づいてデータを抽出する。
In the second embodiment, the extraction unit 131 extracts data based on the distance between the request point and the explanatory variable from among data belonging to one of multiple clusters into which the
抽出部131は、JIT法により各クラスタ内の過去のレコードを抽出する。なお、抽出部131は、データを抽出する際に、第1の実施形態において付与される重みを考慮してもよいし、考慮しなくてもよい。 The extraction unit 131 extracts past records in each cluster using the JIT method. When extracting data, the extraction unit 131 may or may not take into account the weights assigned in the first embodiment.
また、更新部133は、抽出部131によって抽出されたデータを用いて、複数のクラスタのそれぞれに対応するモデルのうち、抽出部131によってデータが抽出されたクラスタに対応するモデルを更新する。 In addition, the update unit 133 uses the data extracted by the extraction unit 131 to update, among the models corresponding to each of the multiple clusters, the model corresponding to the cluster from which the data was extracted by the extraction unit 131.
抽出部131は、履歴DB122の各レコードを図6の方法により複数のクラスタに分類するものとする。図6は、分類方法を説明する図である。
The extraction unit 131 classifies each record in the
抽出部131は、統計的なクラスタリング手法により分類を行ってもよいし、ルールベースでの分類を行っても良い。 The extraction unit 131 may perform classification using a statistical clustering method or may perform rule-based classification.
図6に示すように、抽出部131は、履歴DB122のレコードのうち、時刻が所定の期間に含まれるレコード群について、2つの変数間の各ラグ数における相互相関を計算する。
As shown in FIG. 6, the extraction unit 131 calculates the cross-correlation between two variables at each lag number for a group of records in the
例えば、抽出部131は、第1温度と第2温度の相互相関を計算する。また、ラグ数が0の場合の相互相関は、同じ時刻すなわち同一のレコードの第1温度と第2温度の相互相関である。 For example, the extraction unit 131 calculates the cross-correlation between the first temperature and the second temperature. Furthermore, when the number of lags is 0, the cross-correlation is the cross-correlation between the first temperature and the second temperature at the same time, i.e., in the same record.
また、例えば、ラグ数が10の場合の相互相関は、ある時刻の第1温度と当該時刻の10秒後の第2温度との相互相関である。
For example, when the number of lags is 10, the cross-correlation is the cross-correlation between the first temperature at a certain time and the
また、ラグ数が-10の場合の相互相関は、ある時刻の第1温度と当該時刻の10秒前の第2温度との相互相関である。
When the lag number is -10, the cross-correlation is the cross-correlation between the first temperature at a certain time and the
そして、抽出部131は、相互相関がピークを取るラグ数に応じて、レコード群をクラスタA、クラスタB、クラスタCのいずれかに分類する。 Then, the extraction unit 131 classifies the record group into either cluster A, cluster B, or cluster C depending on the number of lags at which the cross-correlation peaks.
例えば、抽出部131は、相互相関がピークを取るラグ数が-10以上0未満である場合、レコード群をクラスタAに分類する。 For example, if the lag number at which the cross-correlation peaks is greater than or equal to -10 and less than 0, the extraction unit 131 classifies the record group into cluster A.
例えば、抽出部131は、相互相関がピークを取るラグ数が-20以上-10未満である場合、レコード群をクラスタBに分類する。 For example, if the lag number at which the cross-correlation peaks is greater than or equal to -20 and less than -10, the extraction unit 131 classifies the record group into cluster B.
例えば、抽出部131は、相互相関がピークを取るラグ数が-30以上-20未満である場合、レコード群をクラスタCに分類する。 For example, if the lag number at which the cross-correlation peaks is greater than or equal to -30 and less than -20, the extraction unit 131 classifies the record group into cluster C.
ここで、各クラスタに対応するモデルは、それぞれ学習の方法が異なる。例えば、モデルごとに、使用される説明変数及びハイパーパラメータが異なる。ハイパーパラメータは、例えば、丸め幅、時間幅(ウィンドウサイズ)、予測先、ステップ数、DNNの層数、ノード数、活性化関数等である。 Here, the models corresponding to each cluster have different learning methods. For example, the explanatory variables and hyperparameters used differ for each model. Hyperparameters include, for example, the rounding width, time width (window size), prediction destination, number of steps, number of layers of DNN, number of nodes, activation function, etc.
ウィンドウサイズは、時系列データの学習を行う際の、スライディングウィンドウのサイズである。 The window size is the size of the sliding window when learning time series data.
クラスタAに対応するモデルの学習におけるウィンドウサイズは10分である。また、クラスタBに対応するモデルの学習におけるウィンドウサイズは20分である。また、クラスタCに対応するモデルの学習におけるウィンドウサイズは30分である。 The window size for training the model corresponding to cluster A is 10 minutes. The window size for training the model corresponding to cluster B is 20 minutes. The window size for training the model corresponding to cluster C is 30 minutes.
[第2の実施形態の処理]
図7を用いて第2の実施形態の学習処理の流れを説明する。図7は、第2の実施形態に係る学習処理の流れを示すフローチャートである。
[Processing of the second embodiment]
The flow of the learning process according to the second embodiment will be described with reference to Fig. 7. Fig. 7 is a flowchart showing the flow of the learning process according to the second embodiment.
図7に示すように、まず、サーバ10は、あらかじめ指定された2つの変数間の、各ラグ数における相互相関を計算する(ステップS201)。
As shown in FIG. 7, first, the
次に、サーバ10は、相互相関を基にレコードをクラスタリングする(ステップS202)。例えば、サーバ10は、相互相関がピークを取るラグ数を基にクラスタリングを行う。
Next, the
サーバ10は、クラスタごとに定められた方法によりモデルの学習を実行する(ステップS203)。モデルの学習は、計算部132及び更新部133によって行われる。
The
[第2の実施形態の効果]
これまで説明してきたように、抽出部131は、説明変数と目的変数とを組み合わせたである履歴DB122を分類した複数のクラスタのうちいずれかに属するデータの中から、要求点と説明変数との距離に基づいてデータを抽出する。また、更新部133は、抽出部131によって抽出されたデータを用いて、複数のクラスタのそれぞれに対応するモデルのうち、抽出部131によってデータが抽出されたクラスタに対応するモデルを更新する。
[Effects of the second embodiment]
As described above, the extraction unit 131 extracts data from among data belonging to any of a plurality of clusters into which the
このように、学習方法の異なる複数のモデルをあらかじめ用意しておき、JIT法と組み合わせることで、モデルの変更を要する大幅な環境(運用条件等)の変化にも対応することができる。 In this way, by preparing multiple models with different learning methods in advance and combining them with the JIT method, it is possible to respond to major changes in the environment (operating conditions, etc.) that require changes to the model.
[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、各装置の分散及び統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散又は統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU(Central Processing Unit)及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。なお、プログラムは、CPUだけでなく、GPU等の他のプロセッサによって実行されてもよい。
[System configuration, etc.]
In addition, each component of each device shown in the figure is functionally conceptual, and does not necessarily have to be physically configured as shown in the figure. In other words, the specific form of distribution and integration of each device is not limited to that shown in the figure, and all or a part of it can be functionally or physically distributed or integrated in any unit depending on various loads, usage conditions, etc. Furthermore, each processing function performed by each device can be realized in whole or in part by a CPU (Central Processing Unit) and a program analyzed and executed by the CPU, or can be realized as hardware by wired logic. Note that the program may be executed not only by the CPU but also by other processors such as a GPU.
また、本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。 Furthermore, among the processes described in this embodiment, all or part of the processes described as being performed automatically can be performed manually, or all or part of the processes described as being performed manually can be performed automatically using known methods. In addition, the information including the processing procedures, control procedures, specific names, various data, and parameters shown in the above documents and drawings can be changed as desired unless otherwise specified.
[プログラム]
一実施形態として、サーバ10は、パッケージソフトウェアやオンラインソフトウェアとして上記の学習処理を実行する学習プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の学習プログラムを情報処理装置に実行させることにより、情報処理装置をサーバ10として機能させることができる。ここで言う情報処理装置には、デスクトップ型又はノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置には、タブレット型端末、スマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等のスレート端末等がその範疇に含まれる。
[program]
In one embodiment, the
また、サーバ10は、ユーザが使用する端末装置をクライアントとし、当該クライアントに上記の学習処理に関するサービスを提供するサーバとして実装することもできる。例えば、サーバは、要求点の指定を入力とし、学習済みのモデルを出力とする学習サービスを提供するサーバ装置として実装される。この場合、サーバは、Webサーバとして実装することとしてもよいし、アウトソーシングによって上記の学習処理に関するサービスを提供するクラウドとして実装することとしてもかまわない。
The
図8は、学習プログラムを実行するコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
Figure 8 is a diagram showing an example of a computer that executes a learning program. The computer 1000 has, for example, a
メモリ1010は、ROM(Read Only Memory)1011及びRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。
The
ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、サーバ10の各処理を規定するプログラムは、コンピュータにより実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、サーバ10における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSD(Solid State Drive)により代替されてもよい。
The hard disk drive 1090 stores, for example, an
また、上述した実施形態の処理で用いられる設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020は、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した実施形態の処理を実行する。
The setting data used in the processing of the above-described embodiment is stored as
なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093及びプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093及びプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
The
1 プラント運用システム
10 サーバ
20、30 端末装置
40 プラントシステム
11 通信部
12 記憶部
13 制御部
121 モデル情報
122 履歴DB
131 抽出部
132 計算部
133 更新部
134 付与部
135 表示制御部
REFERENCE SIGNS
131 Extraction unit 132 Calculation unit 133 Update unit 134 Assignment unit 135 Display control unit
Claims (3)
前記第1のデータの中から、前記説明変数と指定された説明変数との距離が大きいほど大きくなり、かつ前記重みが大きいほど小さくなる値が小さいデータを優先して第2のデータとして抽出する抽出部と、
前記第2のデータを用いて、前記説明変数から前記目的変数を出力するモデルを更新する更新部と、
を有することを特徴とする学習装置。 an assignment unit that assigns a weight to each of first data, which is a combination of an explanatory variable, a target variable, and an evaluation variable , the weight being larger as the variance of the evaluation variable becomes smaller;
an extraction unit that preferentially extracts, from the first data, data having a small value that increases as the distance between the explanatory variable and a designated explanatory variable increases and decreases as the weight increases, as second data;
an update unit that updates a model that outputs the objective variable from the explanatory variables by using the second data;
A learning device comprising:
説明変数と目的変数と評価用変数との組み合わせである第1のデータのそれぞれに、前記評価用変数の分散が小さくなるほど大きくなる重みを付与する付与工程と、
前記第1のデータの中から、前記説明変数と指定された説明変数との距離が大きいほど大きくなり、かつ前記重みが大きいほど小さくなる値が小さいデータを優先して第2のデータとして抽出する抽出工程と、
前記第2のデータを用いて、前記説明変数から前記目的変数を出力するモデルを更新する更新工程と、
を含むことを特徴とする学習方法。 A learning method performed by a learning device, comprising:
a weighting step of weighting each of first data, which is a combination of an explanatory variable, a response variable, and an evaluation variable , the weighting being increased as the variance of the evaluation variable decreases;
an extraction step of preferentially extracting, from the first data, data having a small value that increases as the distance between the explanatory variable and a designated explanatory variable increases and decreases as the weight increases, as the second data;
an updating step of updating a model that outputs the objective variable from the explanatory variables by using the second data;
A learning method comprising:
前記第1のデータの中から、前記説明変数と指定された説明変数との距離が大きいほど大きくなり、かつ前記重みが大きいほど小さくなる値が小さいデータを優先して第2のデータとして抽出する抽出ステップと、
前記第2のデータを用いて、前記説明変数から前記目的変数を出力するモデルを更新する更新ステップと、
をコンピュータに実行させることを特徴とする学習プログラム。 a weighting step of weighting each of first data, which is a combination of an explanatory variable, a response variable, and an evaluation variable , the weighting increasing as the variance of the evaluation variable decreases;
an extraction step of preferentially extracting, from the first data, data having a small value that increases as the distance between the explanatory variable and a designated explanatory variable increases and decreases as the weight increases, as the second data;
an updating step of updating a model that outputs the objective variable from the explanatory variables by using the second data;
A learning program characterized by causing a computer to execute the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023076237A JP7557571B2 (en) | 2021-11-18 | 2023-05-02 | Learning device, learning method, and learning program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021188226A JP7275233B1 (en) | 2021-11-18 | 2021-11-18 | LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM |
JP2023076237A JP7557571B2 (en) | 2021-11-18 | 2023-05-02 | Learning device, learning method, and learning program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021188226A Division JP7275233B1 (en) | 2021-11-18 | 2021-11-18 | LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023100830A JP2023100830A (en) | 2023-07-19 |
JP7557571B2 true JP7557571B2 (en) | 2024-09-27 |
Family
ID=86332431
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021188226A Active JP7275233B1 (en) | 2021-11-18 | 2021-11-18 | LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM |
JP2023076237A Active JP7557571B2 (en) | 2021-11-18 | 2023-05-02 | Learning device, learning method, and learning program |
JP2023076236A Active JP7513798B2 (en) | 2021-11-18 | 2023-05-02 | Learning device, learning method, and learning program |
JP2024104276A Pending JP2024114893A (en) | 2021-11-18 | 2024-06-27 | Learning device, learning method, and learning program |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021188226A Active JP7275233B1 (en) | 2021-11-18 | 2021-11-18 | LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023076236A Active JP7513798B2 (en) | 2021-11-18 | 2023-05-02 | Learning device, learning method, and learning program |
JP2024104276A Pending JP2024114893A (en) | 2021-11-18 | 2024-06-27 | Learning device, learning method, and learning program |
Country Status (1)
Country | Link |
---|---|
JP (4) | JP7275233B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008102720A (en) | 2006-10-18 | 2008-05-01 | Omron Corp | Controller, and apparatus, method and program for adjusting control parameter |
JP2016099734A (en) | 2014-11-19 | 2016-05-30 | キヤノン株式会社 | Image processor, information processing method and program |
WO2017037768A1 (en) | 2015-08-28 | 2017-03-09 | 株式会社日立製作所 | Evaluation system, evaluation method, and data analysis system |
JP2021128388A (en) | 2020-02-10 | 2021-09-02 | 株式会社イシダ | Data generation device, learned model generation device, weighing machine and data generation method |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6059375B1 (en) | 2016-02-09 | 2017-01-11 | ファナック株式会社 | Production control system and integrated production control system |
-
2021
- 2021-11-18 JP JP2021188226A patent/JP7275233B1/en active Active
-
2023
- 2023-05-02 JP JP2023076237A patent/JP7557571B2/en active Active
- 2023-05-02 JP JP2023076236A patent/JP7513798B2/en active Active
-
2024
- 2024-06-27 JP JP2024104276A patent/JP2024114893A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008102720A (en) | 2006-10-18 | 2008-05-01 | Omron Corp | Controller, and apparatus, method and program for adjusting control parameter |
JP2016099734A (en) | 2014-11-19 | 2016-05-30 | キヤノン株式会社 | Image processor, information processing method and program |
WO2017037768A1 (en) | 2015-08-28 | 2017-03-09 | 株式会社日立製作所 | Evaluation system, evaluation method, and data analysis system |
JP2021128388A (en) | 2020-02-10 | 2021-09-02 | 株式会社イシダ | Data generation device, learned model generation device, weighing machine and data generation method |
Also Published As
Publication number | Publication date |
---|---|
JP2023103311A (en) | 2023-07-26 |
JP2023074986A (en) | 2023-05-30 |
JP7275233B1 (en) | 2023-05-17 |
JP2023100830A (en) | 2023-07-19 |
JP7513798B2 (en) | 2024-07-09 |
JP2024114893A (en) | 2024-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10360517B2 (en) | Distributed hyperparameter tuning system for machine learning | |
Dasgupta et al. | Nonlinear dynamic Boltzmann machines for time-series prediction | |
Angelov et al. | A new type of simplified fuzzy rule-based system | |
Alexandridis et al. | A two-stage evolutionary algorithm for variable selection in the development of RBF neural network models | |
US12033521B2 (en) | Machine learning in avionics | |
Haghighatlari et al. | A physics-infused deep learning model for the prediction of refractive indices and its use for the large-scale screening of organic compound space | |
Chen et al. | Inn: An interpretable neural network for ai incubation in manufacturing | |
Fiosina et al. | Polymer reaction engineering meets explainable machine learning | |
JP7557571B2 (en) | Learning device, learning method, and learning program | |
Navarro-Acosta et al. | Fault detection based on squirrel search algorithm and support vector data description for industrial processes | |
JP7483827B1 (en) | Learning device, learning method, and learning program | |
Wang et al. | A new paralleled semi-supervised deep learning method for remaining useful life prediction | |
JP7443609B1 (en) | Learning devices, learning methods and learning programs | |
Kordon | Future trends in soft computing industrial applications | |
Fedorenko et al. | The Neural Network for Online Learning Task Without Manual Feature Extraction | |
JP2024074005A (en) | Learning apparatus, learning method, and learning program | |
JP7506208B1 (en) | Information processing device, information processing method, and information processing program | |
CN114912362B (en) | Modeling method and device for gold ore feeding process, storage medium and computer equipment | |
JP7462206B2 (en) | Learning device, learning method, and learning program | |
Karlos et al. | Investigating the benefits of exploiting incremental learners under active learning scheme | |
CN116307742B (en) | Risk identification method, device and equipment for subdivision guest group and storage medium | |
Mustapha et al. | Introduction to machine learning and artificial intelligence | |
Martinez-de-Pison et al. | GAparsimony: An R Package for Searching Parsimonious Models by Combining Hyperparameter Optimization and Feature Selection | |
JP2023173391A (en) | Analysis device, analysis method, and analysis program | |
US20230144359A1 (en) | Method and system for predicting real plant dynamics performance in green energy generation utilizing physics and artificial neural network models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230502 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240528 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240729 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240820 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240913 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7557571 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |