JP2023048388A - 制御装置、制御システム、および制御方法 - Google Patents

制御装置、制御システム、および制御方法 Download PDF

Info

Publication number
JP2023048388A
JP2023048388A JP2021157673A JP2021157673A JP2023048388A JP 2023048388 A JP2023048388 A JP 2023048388A JP 2021157673 A JP2021157673 A JP 2021157673A JP 2021157673 A JP2021157673 A JP 2021157673A JP 2023048388 A JP2023048388 A JP 2023048388A
Authority
JP
Japan
Prior art keywords
disturbance
value
manipulated variable
variable
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021157673A
Other languages
English (en)
Inventor
高史 藤井
Takashi Fujii
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2021157673A priority Critical patent/JP2023048388A/ja
Priority to CN202280057062.9A priority patent/CN117836726A/zh
Priority to PCT/JP2022/012679 priority patent/WO2023053514A1/ja
Priority to TW111113177A priority patent/TWI837636B/zh
Publication of JP2023048388A publication Critical patent/JP2023048388A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Feedback Control In General (AREA)

Abstract

Figure 2023048388000001
【課題】制御対象に対するフィードフォワード制御の精度を向上させる。
【解決手段】制御対象200へのフィードバック操作量rbは、目標値qrと制御量qとの誤差eqに基づいてフィードバック制御手段110によって決定される。フィードフォワード補償手段120は、予測モデルMpを用いて外乱dからフィードバック操作量rbのフィードフォワード補償値rfを予測する。学習手段130は、教師データDsを用いて予測モデルMpに対して機械学習を行う。学習手段130は、誤差eqの絶対値が基準値αよりも小さい場合の外乱dと操作量rとを含む組合せを教師データDsに追加する。
【選択図】図1

Description

本開示は、制御対象に対してフィードフォワード制御を行なう制御装置、制御システム、および制御方法に関する。
従来、制御対象に対してフィードフォワード制御を行なう制御装置が知られている。たとえば、特開平10-222207号公報(特許文献1)には、外乱を受ける所定のプロセスに対して、フィードフォワード信号発生器による制御を行うフィードフォワード制御装置が開示されている。当該フィードフォワード制御装置は、フィードフォワード信号発生器における演算に必要なパラメータを、当該フィードフォワード信号発生器において算出されたパラメータから学習するパラメータ学習器を備える。当該フィードフォワード制御装置によれば、パラメータ学習器によるフィードフォワード信号発生器のパラメータの動的な学習機能により、外乱が変動するような場合でも安定した制御性能を得ることができるとともに、プロセスの特性が経時変化する場合でも高精度の制御性能を維持することができる。
特開平10-222207号公報
特許文献1に開示されているフィードフォワード信号発生器に含まれるフィードフォワード補償器の構成は、予め定められている。一般に、フィードフォワード補償器のようなフィードバック制御のフィードフォワード補償値を算出する構成は、制御対象のプロセスの逆モデル(逆系)として設計される。プロセスの逆モデルの設計にはプロセスの分析を要するため、外乱の変動およびプロセスの特性の変化に応じて逆モデルの構造を短時間で更新することは困難である。そのため、特許文献1に開示されたフィードフォワード制御装置によると、外乱の変動の程度またはプロセスの特性の変化の程度によっては制御対象に対する制御への外乱の影響を抑制することが困難になり得る。
本開示は上記のような課題を解決するためになされたものであり、その目的は、制御対象に対するフィードフォワード制御の精度を向上させることである。
本開示の一局面に係る制御装置は、外乱を受ける制御対象の制御量が目標値に近づくように制御対象へのフィードバック操作量のフィードフォワード補償値を決定する。当該フィードバック操作量は、目標値と制御量との誤差に基づいてフィードバック制御手段によって決定される。フィードバック操作量およびフィードフォワード補償値の和が、操作量として制御対象に出力される。制御装置は、フィードフォワード補償手段と、学習手段とを備える。フィードフォワード補償手段は、予測モデルを用いて外乱からフィードフォワード補償値を決定する。学習手段は、教師データを用いて予測モデルに対して機械学習を行う。学習手段は、目標値と、目標値に対応する操作量と、外乱と、外乱および操作量の両方に対応する制御量とを含む少なくとも1つの第1組合せを取得する。学習手段は、少なくとも1つの第1組合せのうち、誤差の絶対値が第1基準値よりも小さい場合の外乱と操作量とを含む少なくとも1つの第2組合せを教師データに追加する。
この開示によれば、フィードフォワード制御の結果から教師データが選択されるため、フィードフォワード制御と並行して外乱および制御対象の特性に予測モデルをリアルタイムに適合させることができる。その結果、制御対象に対するフィードフォワード制御の精度を向上させることができる。
上記の開示において、学習手段は、教師データにおいて、外乱の絶対値が第2基準値よりも小さい場合の操作量の平均値を算出してもよい。学習手段は、予測モデルによって表現される、外乱と操作量および平均値の差としての補償値との関係を、補償値を目的変数とするとともに、外乱を説明変数とする関数として近似してもよい。学習手段は、少なくとも1つの第1組合せのうち外乱の絶対値が第2基準値より大きい第3組合せの数に対する、少なくとも1つの第2組合せのうち外乱の絶対値が第2基準値より大きい第4組合せの数の割合が第3基準値より大きい場合、機械学習を終了してもよい。
この開示によれば、予測モデルの精度が十分に高くなるまで機械学習が継続されるため、制御対象に対するフィードフォワード制御の精度を十分に向上させることができる。
上記の開示において、学習手段は、教師データにおいて、外乱の絶対値が第2基準値よりも小さい場合の操作量の平均値を算出してもよい。学習手段は、予測モデルによって表現される外乱と操作量との関係を、操作量を目的変数とするとともに、外乱を説明変数とする関数として近似してもよい。学習手段は、少なくとも1つの第1組合せのうち、外乱の絶対値が第2基準値より大きい第3組合せの数に対する、少なくとも1つの第2組合せのうち外乱の絶対値が第2基準値より大きい第4組合せの数の割合が第3基準値より大きい場合、機械学習を終了してもよい。フィードフォワード補償手段は、予測モデルによって外乱から予測された操作量から、操作量の平均値を引いた値をフィードフォワード補償値として決定してもよい。
この開示によれば、予測モデルの精度が十分に高くなるまで機械学習が継続されるため、制御対象に対するフィードフォワード制御の精度を十分に向上させることができる。
上記の開示において、学習手段は、機械学習が終了し、かつ、上記割合が第3基準値より小さい場合、機械学習を再開してもよい。
この開示によれば、制御対象の特性の変化に応じて予測モデルが当該特性に再適合されるため、制御対象の特性の変化によるフィードフォワード制御の精度の低下を抑制することができる。
本開示の他の局面に係る制御システムは、外乱を受ける制御対象の制御量が目標値に近づくように制御対象へのフィードバック操作量とフィードフォワード補償値との和を操作量として制御対象に出力する。制御システムは、フィードバック制御装置と、フィードフォワード補償装置と、学習装置とを備える。フィードバック制御装置は、目標値と制御量との誤差に基づいてフィードバック操作量を決定する。フィードフォワード補償装置は、予測モデルを用いて外乱からフィードフォワード補償値を決定する。学習装置は、教師データを用いて予測モデルに対して機械学習を行う。学習装置は、目標値と、目標値に対応する操作量と、外乱と、外乱および操作量の両方に対応する制御量とを含む少なくとも1つの第1組合せを取得する。学習装置は、少なくとも1つの第1組合せのうち、誤差の絶対値が第1基準値よりも小さい場合の外乱と操作量とを含む少なくとも1つの第2組合せを教師データに追加する。
この開示によれば、フィードフォワード制御の結果から教師データが選択されるため、フィードフォワード制御と並行して外乱および制御対象の特性に予測モデルをリアルタイムに適合させることができる。その結果、制御対象に対するフィードフォワード制御の精度を向上させることができる。
本開示の他の局面に係る制御方法は、外乱を受ける制御対象の制御量が目標値に近づくように制御対象へのフィードバック操作量のフィードフォワード補償値を決定する。フィードバック操作量は、目標値と制御量との誤差に基づいてフィードバック制御手段によって決定される。フィードバック操作量およびフィードフォワード補償値の和が、操作量として制御対象に出力される。制御方法は、予測モデルを用いて外乱からフィードフォワード補償値を決定するステップと、教師データを用いて予測モデルに対して機械学習を行うステップとを含む。機械学習を行うステップは、目標値と、目標値に対応する操作量と、外乱と、外乱および操作量の両方に対応する制御量とを含む少なくとも1つの第1組合せを取得するステップと、少なくとも1つの第1組合せのうち、誤差の絶対値が第1基準値よりも小さい場合の外乱と操作量とを含む少なくとも1つの第2組合せを教師データに追加するステップとを含む。
この開示によれば、フィードフォワード制御の結果から教師データが選択されるため、フィードフォワード制御と並行して外乱および制御対象の特性に予測モデルをリアルタイムに適合させることができる。その結果、制御対象に対するフィードフォワード制御の精度を向上させることができる。
本開示に係る制御装置、フィードフォワード補償装置、制御システム、および制御方法によれば、制御対象に対するフィードフォワード制御の精度を向上させることができる。
実施の形態1に係る制御装置の機能構成を示すブロック図である。 外乱および操作量の分布図である。 図2の操作量と予測モデルの目的変数との関係を示す図である。 学習済みの予測モデルによって表現される目的変数と説明変数との関係を示す図である。 4つの組合せの包含関係を示すベン図である。 予測モデルが未学習である場合の制御量、操作量、および外乱の各々のタイムチャートを示す図である。 予測モデルMpが学習済みである場合の制御量、操作量、および外乱の各々のタイムチャートを示す図である。 図1のフィードバック制御系、フィードフォワード制御系、および学習手段130の各々によって行われる処理の流れを示すフローチャートを示す図である。 図8の機械学習処理の具体的な処理の流れを示すフローチャートである。 図2の学習手段によって行われる追加学習処理の流れを示す図である。 実施の形態1の変形例1に係る制御装置の機能構成を示すブロック図である。 図2の機械学習処理の具体的な処理の流れの他の例を示すフローチャートである。 実施の形態2に係る制御システムの機能構成を示すブロック図である。 実施の形態3に係る制御システムのネットワーク構成例を示す模式図である。 図14の制御装置のハードウェア構成例を示すブロック図である。
以下、実施の形態について図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付してその説明は原則として繰り返さない。
[実施の形態1]
<適用例>
図1は、実施の形態1に係る制御装置100の機能構成を示すブロック図である。図1に示されるように、制御装置100は、フィードバック制御手段110と、フィードフォワード補償手段120と、学習手段130と、記憶手段140と、減算器150と、加算器160とを備える。
制御装置100は、外乱dを受ける制御対象200の出力値である制御量qが目標値qrに近づくように制御対象200へのフィードバック操作量rbとフィードフォワード補償値rfとの和を操作量rとして制御対象200に出力する。記憶手段140には、予測モデルMpおよび教師データDsが保存されている。制御装置100と制御対象200とは、ネットワーク(たとえば、インターネット、あるいはクラウドシステム)を介して接続され、互いに遠隔に配置されていてもよい。予測モデルMpを構築する機械学習アルゴリズムとしては、ディープバイナリーツリー、あるいはサポートベクターマシンを挙げることができる。
以下では、フィードバック制御手段110と減算器150とを含む構成をフィードバック制御系とも呼び、フィードフォワード補償手段120と加算器160とを含む構成をフィードフォワード制御系とも呼ぶ。なお、外乱dとは、制御装置100と制御対象200とを含む制御系の状態を乱す量である。外乱dは、たとえば、制御対象に偶発的あるいは突発的に入力される光量、電圧、電流、および温度を含む。
減算器150は、目標値qrと制御量qとの誤差eq(=qr-q)をフィードバック制御手段110に出力する。フィードバック制御手段110は、誤差eqに基づいてフィードバック操作量rbを決定して加算器160に出力する。フィードフォワード補償手段120は、予測モデルMpを用いて外乱dからフィードフォワード補償値rfを予測して加算器160に出力する。加算器160は、フィードバック操作量rbとフィードフォワード補償値rfとの和を操作量rとして制御対象200および学習手段130に出力する。
加算器160は、フィードバック操作量rbとフィードフォワード補償値rfとの和を操作量rとして制御対象200および学習手段130に出力する。
学習手段130は、教師データDsを用いて予測モデルMpに対して機械学習を行う。学習手段130は、目標値qrと、目標値qrに対応する操作量rと、外乱dと、外乱dおよび操作量rの両方に対応する制御量qとを含む少なくとも1つの組合せCm1(第1組合せ)を取得する。学習手段130は、少なくとも1つの組合せCm1のうち、誤差eqの絶対値が基準値α(第1基準値)よりも小さい場合(制御対象200に対して高精度の制御が行われた場合)の外乱dと操作量rとを含む少なくとも1つの組合せCm2(第2組合せ)を機械学習の正解データとして教師データDsに追加する。基準値αは、たとえば、実機実験、シミュレーション、製品の規格値、ある製造工程の管理値に基づいて適宜決定することができる。
学習手段130は、教師データDsにおいて、外乱dの絶対値が基準値β(第2基準値)よりも小さい場合(制御系が定常状態である場合)の操作量rの平均値rb0を算出する。基準値βは、たとえば、実機実験、シミュレーション、製品の規格値、あるいは製造工程の管理値に基づいて適宜決定することができる。学習手段130は、外乱dと、操作量rおよび平均値rb0の差(=r-rb0)としてのフィードフォワード補償値rfとの関係を、フィードフォワード補償値rfを目的変数とするとともに、外乱dを説明変数とする関数(回帰曲線)として近似する。予測モデルMpは、当該関数を含む。学習手段130は、少なくとも1つの組合せCm1のうち外乱dの絶対値が基準値βより大きい組合せCm3(第3組合せ)の数に対する、少なくとも1つの組合せCm2のうち外乱dの絶対値が基準値βより大きい組合せCm4(第4組合せ)の数の割合Crが基準値δ(第3基準値)より大きい場合、予測モデルMpに対する機械学習を終了する。
学習手段130は、予測モデルMpに対する機械学習(初回の学習または追加学習)が終了し、かつ、割合Crが基準値δ以下である場合、制御対象200の特性が変化したとして、予測モデルMpに対する機械学習(追加学習)を再開する。基準値δは、たとえば、実機実験、シミュレーション、製品の規格値、ある製造工程の管理値に基づいて適宜決定することができる。制御対象200の特性には、たとえば、外乱dおよび操作量rと、制御量qとの対応関係が含まれる。
制御装置100によれば、フィードフォワード制御の結果から教師データDsが選択されるため、フィードフォワード制御と並行して外乱dおよび制御対象200の特性に予測モデルMpをリアルタイムに適合させることができる。その結果、制御対象200に対するフィードフォワード制御の精度を向上させることができる。また、予測モデルMpの精度が十分に高くなるまで機械学習が継続されるため、制御対象200に対するフィードフォワード制御の精度を十分に向上させることができる。さらに、制御対象200の特性の変化に応じて予測モデルMpが当該特性に再適合されるため、制御対象200の特性の変化によるフィードフォワード制御の精度の低下を抑制することができる。
図2は、外乱dおよび操作量rの分布図である。図2において、四角の点は、複数の組合せCm1のうち、誤差eqの絶対値が基準値α以上である場合の組合せCm1を表し、丸の点は誤差eqの絶対値が基準値αより小さい場合の組合せCm2を表す。学習手段130は、丸の点で表される複数の組合せCm2を教師データDsに追加する。
図3は、図2の操作量rと予測モデルMpの目的変数rfとの関係を示す図である。図3に示されるように、複数の組合せCm2の各々の操作量rから平均値rb0が引かれたデータが、目的変数rfに対応する。
図4は、学習済みの予測モデルMpによって表現される目的変数rfと説明変数dとの関係を示す図である。当該関係は、学習手段130によって、回帰曲線Rcとして近似される。図4に示されるように、予測モデルMpは、外乱dを受けて、回帰曲線Rcにおいて外乱dに対応する目的変数rfを出力する。
図5は、4つの組合せCm1~Cm4をそれぞれ含む4つのデータセットScm1,Scm2,Scm3,Scm4の包含関係を示すベン図である。データセットScm1は、目標値qrと、操作量rと、外乱dと、制御量qとを含む組合せCm1の全てを含むデータセットである。データセットScm2は、データセットScm1のうち、誤差eqの絶対値が基準値αよりも小さい場合の外乱dと操作量rとを含む組合せCm2の全てを含むデータセットである。データセットScm3は、データセットScm1のうち、外乱dの絶対値が基準値βより大きい場合の組合せCm3の全てを含むデータセットである。データセットScm4は、データセットScm2のうち、外乱dの絶対値が基準値βより大きい組合せCm4の全てを含むデータセットである。図5に示されるように、データセットScm1は、データセットScm2,Scm3を包含する。データセットScm4は、データセットScm2とScm3との共通部分(積集合)である。平均値rb0は、データセットScm2からデータセットScm4が除かれたデータセットの平均値である。
図6は、予測モデルMpが未学習である場合の制御量q、操作量r、および外乱dの各々のタイムチャートを示す図である。図6に示されるように、500秒の時刻において、一次遅れ系のステップ応答としての外乱dが入力されている。外乱dに応じて、500秒から600秒の時間間隔における制御量qには、パルス状のノイズが重畳されている。
図7は、予測モデルMpが学習済みである場合の制御量q、操作量r、および外乱dの各々のタイムチャートを示す図である。図7においても図6と同様に、500秒の時刻において、一次遅れ系のステップ応答としての外乱dが入力されている。しかし、制御量qには、図6に示されているようなパルス状のノイズはほとんど生じていない。図7においては、学習済みの予測モデルMpが予測するフィードフォワード補償値rfによってフィードバック操作量rbが修正されることにより、制御対象200に対する制御の精度が維持されている。
図8は、図1のフィードバック制御系、フィードフォワード制御系、および学習手段130の各々によって行われる処理の流れを示すフローチャートを示す図である。フィードバック制御系およびフィードフォワード制御系の各々のフローチャートに対応するルーチンは、たとえば、サンプリングタイム毎に実行される。学習手段130のフローチャートに対応するルーチンは、たとえば、フィードフォワード制御系の各々のフローチャートに対応するルーチンの初回実行に応じて実行される。以下ではステップを単にSと記載する。
図8に示されるように、減算器150は、S111において、目標値qrと制御量qとの誤差eqを算出してフィードバック制御手段110に出力する。フィードバック制御手段110は、S312において、誤差eqに基づいてフィードバック操作量rbを決定して加算器160に出力して、処理を終了する。
フィードフォワード補償手段120は、S121において、外乱dからフィードフォワード補償値rfを決定して加算器160に出力する。加算器160は、S122において、フィードバック操作量rbとフィードフォワード補償値rfとの和を操作量rとして制御対象200および学習手段130に出力して、処理を終了する。
学習手段130は、S130において予測モデルMpに対して教師データDsを用いた機械学習を行って、処理を終了する。
図9は、図8の機械学習処理S130の具体的な処理の流れを示すフローチャートである。学習手段130は、S131において、目標値qr、操作量r、外乱d、および制御量qを取得して誤差eqを算出して処理をS132に進める。学習手段130は、S132において誤差eqの絶対値が基準値αより小さいか否かを判定する。誤差eqの絶対値が基準値α以上である場合(S132においてNO)、学習手段130は、処理をS137に進める。誤差eqの絶対値が基準値αより小さい場合(S132においてYES)、学習手段130は、S133において、外乱dと操作量rとを含む組合せCm2を教師データDsに追加して処理をS134に進める。学習手段130は、S134において、教師データDsにおいて外乱dの絶対値が基準値βよりも小さい場合の操作量rの平均値rb0を算出して処理をS135に進める。学習手段130は、S135において、予測モデルMpによって表現される外乱dと、操作量rおよび平均値rb0の差としてのフィードフォワード補償値rfとの関係を、フィードフォワード補償値rfを目的変数とするとともに、外乱dを説明変数とする関数(回帰曲線)として近似して処理をS136に進める。学習手段130は、S136において、少なくとも1つの組合せCm1のうち外乱dの絶対値が基準値βより大きい組合せCm3の数M1に対する、少なくとも1つの組合せCm2のうち外乱dの絶対値が基準値βより大きい組合せCm4の数M2の割合Cr(=M2/M1)を算出して、処理をS137に進める。学習手段130は、S137において、割合Crが基準値δより大きいか否かを判定する。割合Crが基準値δ以下である場合(S137においてNO)、学習手段130は、制御対象200へのフィードフォワード制御の精度が不十分であるとして、処理をS131に戻す。割合Crが基準値δより大きい場合(S137においてYES)、制御対象200へのフィードフォワード制御の精度が十分に高まったとして、学習手段130は、機械学習を終了する。
図10は、図2の学習手段130によって行われる追加学習処理の流れを示す図である。図10に示される処理は、たとえば、初回の機械学習が開始した後、サンプリングタイム毎に実行される。学習手段130は、S131Aにおいて、機械学習が終了し、かつ、割合Crが基準値δ以下であるか否かを判定する。機械学習が終了していないか、または割合Crが基準値δより大きい場合(S131AにおいてNO)、制御対象200の特性が変化しておらず既存の学習済みの予測モデルMpが制御対象200に適合しているとして、学習手段130は、処理を終了する。機械学習が終了し、かつ割合Crが基準値δより以下である場合(S131AにおいてYES)、学習手段130は、前回の機械学習が終了した後、制御対象200の特性が変化したとして、予測モデルMpを制御対象200の特性に再度適合させるために、図8と同様のS130において予測モデルMpに対する機械学習を再開する。制御装置100によれば、制御対象200の特性の変化に応じて予測モデルMpに対する追加学習が行われるため、制御対象200の特性の変化によるフィードフォワード制御の精度の低下を抑制することができる。
[実施の形態1の変形例1]
実施の形態1においては、フィードバック制御系およびフィードフォワード制御系の両方が含まれる構成について説明した。実施の形態1の変形例1においては、フィードバック制御系が含まれない構成について説明する。
図11は、実施の形態1の変形例1に係る制御装置100Aの機能構成を示すブロック図である。制御装置100Aの構成は、図1の制御装置100から減算器150およびフィードバック制御手段110が除かれた構成である。これ以外は同様であるため、同様の構成についての説明を繰り返さない。なお、加算器160は、制御装置100Aに含まれていなくてもよい。
制御装置100Aは、外乱dを受ける制御対象200の制御量qが目標値qrに近づくように制御対象200へのフィードバック操作量rbのフィードフォワード補償値rfを決定する。制御装置100Aによれば、既存のフィードバック制御系を残存させながら、当該フィードバック制御系に制御装置を追加することにより、既存のフィードバック制御系をフィードフォワード制御系および学習機能を含む制御系に容易に拡張することができる。
[実施の形態1の変形例2]
実施の形態1においては、予測モデルによって、外乱dと、操作量rおよび平均値rb0の差としてのフィードフォワード補償値rfとの関係が表現される場合について説明した。実施の形態1の変形例2においては、予測モデルによって表現される関係が、外乱dと操作量rとの関係である場合について説明する。
図12は、図2の機械学習処理S130の具体的な処理の流れの他の例を示すフローチャートである。図12に示されるフローチャートは、図9のS135がS135Bに置き換えられたフローチャートである。図12に示されるように、学習手段130は、実施の形態1と同様にS131~S134を行った後、S135Bにおいて、予測モデルMpによって表現される外乱dと操作量rとの関係を、操作量rを目的変数とするとともに、外乱dを説明変数とする関数(回帰曲線)として近似して処理をS136に進める。学習手段130は、実施の形態1と同様にS136,S137を行って処理を終了する。フィードフォワード補償手段120は、予測モデルMpを用いて外乱dから操作量rを予測し、操作量rから平均値rb0を引いた値(=r-rb0)をフィードフォワード補償値rfとして加算器160に出力する。
以上、実施の形態1および変形例1,2に係る制御装置、および制御方法によれば、制御対象に対するフィードフォワード制御の精度を向上させることができる。
[実施の形態2]
実施の形態1においてはフィードバック制御系と、フィードフォワード制御系と、予測モデルに対して機械学習を行う構成とが1つの制御装置に含まれている場合について説明した。実施の形態2においては、フィードバック制御系と、フィードフォワード制御系と、予測モデルに対して機械学習を行う構成とが互いに別個の装置に分かれている構成について説明する。
図13は、実施の形態2に係る制御システム2の機能構成を示すブロック図である。図13において図1と同様の参照符号が付されている構成は、実施の形態1において説明された当該参照符号によって特定される構成と同様の機能を有するため、当該同様の構成についての説明を繰り返さない。
図13に示されるように、制御システム2は、フィードバック制御装置11と、フィードフォワード補償装置12と、学習装置13とを備える。フィードバック制御装置11は、フィードバック制御手段110と、減算器150とを含む。フィードフォワード補償装置12は、フィードフォワード補償手段120と、加算器160とを含む。学習装置13は、学習手段130と、記憶手段140とを含む。フィードバック制御装置11、フィードフォワード補償装置12、学習装置13、および制御対象200は、ネットワークを介して互いに接続され、互いに遠隔に配置されていてもよい。なお、加算器160は、フィードフォワード補償装置12ではなく、フィードバック制御装置11に含まれていてもよい。
制御システム2によれば、既存のフィードバック制御装置を残存させながら、当該フィードバック制御装置にフィードフォワード補償装置および学習装置を追加することにより、既存の制御システムを容易に拡張することができる。
以上、制御システム、フィードフォワード補償装置、および制御方法によれば、制御対象に対するフィードフォワード制御の精度を向上させることができる。
[実施の形態3]
実施の形態3においては、実施の形態1に係る制御装置の一例として、当該制御装置がPLC(Programmable Logic Controller)を含む構成について説明する。
<制御システムのネットワーク構成例>
図14は、実施の形態3に係る制御システム3のネットワーク構成例を示す模式図である。図14に示されるように、制御システム3は、複数のデバイスが互いに通信可能に構成されたデバイス群を含む。典型的には、デバイスは、制御プログラムを実行する処理主体である制御装置300と、制御装置300に接続される周辺装置とを含み得る。制御装置300は、図1に示される制御装置100と同様の機能構成を有する。
制御装置300は、各種の設備または装置などの制御対象を制御する産業用コントローラに相当する。制御装置300は、制御演算を実行する一種のコンピュータであり、典型的には、PLC(Programmable Logic Controller)を含む。制御装置300は、フィールドネットワーク20を介してフィールドデバイス200Cに接続されている。制御装置300は、フィールドネットワーク20を介して、少なくとも1つのフィールドデバイス200Cとの間でデータを遣り取りする。
制御装置300において実行される制御演算は、フィールドデバイス200Cにおいて収集または生成されたデータを収集する処理、フィールドデバイス200Cに対する指令値(操作量)などのデータを生成する処理、および生成した出力データを対象のフィールドデバイス200Cへ送信する処理などを含む。フィールドデバイス200Cにおいて収集または生成されたデータには、フィールドデバイス200Cに入力された外乱に関するデータ、および指令値に従ってフィールドデバイス200Cが実際に動作した結果としての制御量が含まれる。フィールドデバイス200Cに対する指令値は、制御装置300によって実行される制御プログラムに基づいて算出された制御目標値(目標値)と実際の制御量との誤差に基づいて暫定的に算出された操作量に、予測モデルによって外乱から予測されたフィードフォワード補償値が加算されることによって決定される。
フィールドネットワーク20は、定周期通信を行うバスまたはネットワークを採用することが好ましい。このような定周期通信を行うバスまたはネットワークとしては、EtherCAT(登録商標)、EtherNet/IP(登録商標)、DeviceNet(登録商標)、またはCompoNet(登録商標)などが知られている。データの到達時間が保証される点において、EtherCAT(登録商標)が好ましい。
フィールドネットワーク20には、任意のフィールドデバイス200Cを接続することができる。フィールドデバイス200Cは、フィールド側にあるロボットまたはコンベアなどに対して何らかの物理的な作用を与えるアクチュエータ、および、フィールドとの間で情報を遣り取りする入出力装置などを含む。
制御システム3においてフィールドデバイス200Cは、複数のサーボドライバ220_1,220_2と、複数のサーボドライバ220_1,220_2にそれぞれ接続された複数のサーボモータ222_1,222_2とを含む。フィールドデバイス200Cは、「制御対象」の一例である。
サーボドライバ220_1,220_2は、制御装置300からの指令値(たとえば、位置指令値または速度指令値など)に従って、サーボモータ222_1および222_2のうちの対応するサーボモータを駆動する。このようにして、制御装置300は、フィールドデバイス200Cを制御することができる。
制御装置300は、上位ネットワーク32を介して、他の装置にも接続されている。上位ネットワーク32は、ゲートウェイ700を介して、外部ネットワークであるインターネット900に接続されている。上位ネットワーク32には、一般的なネットワークプロトコルであるイーサネット(登録商標)、あるいはEtherNet/IP(登録商標)が採用されてもよい。より具体的には、上位ネットワーク32には、少なくとも1つのサーバ装置600および少なくとも1つの表示装置500が接続されてもよい。
サーバ装置600としては、データベースシステム、または製造実行システム(MES:Manufacturing Execution System)などが想定される。製造実行システムは、制御対象の製造装置または設備からの情報を取得して、生産全体を監視および管理するものであり、オーダ情報、品質情報、あるいは出荷情報などを扱うこともできる。これらに限らず、情報系サービスを提供する装置を上位ネットワーク32に接続するようにしてもよい。情報系サービスとしては、制御対象の製造装置または設備からの情報を取得して、マクロ的またはミクロ的な分析などを行う処理が想定される。たとえば、情報系サービスとしては、制御対象の製造装置または設備からの情報に含まれる何らかの特徴的な傾向を抽出するデータマイニング、あるいは制御対象の設備または機械からの情報に基づく機械学習を行うための機械学習ツールなどが想定される。
表示装置500は、ユーザからの操作を受けて、制御装置300に対してユーザ操作に応じたコマンドなどを出力するとともに、制御装置300での演算結果などをグラフィカルに表示する。
制御装置300には、サポート装置400が接続可能になっている。サポート装置400は、上位ネットワーク32またはインターネット900を介して制御装置300に接続されてもよい。サポート装置400は、制御装置300が制御対象を制御するために必要な準備を支援する装置である。具体的には、サポート装置400は、制御装置300で実行されるプログラムの開発環境(プログラム作成編集ツール、パーサ、およびコンパイラなど)、制御装置300および制御装置300に接続される各種デバイスの構成情報(コンフィギュレーション)を設定するための設定環境、生成したプログラムを制御装置300へ出力する機能、および制御装置300上で実行されるプログラムなどをオンラインで修正および変更を行う機能などを提供する。
制御システム3においては、制御装置300、サポート装置400、および表示装置500がそれぞれ別体として構成されているが、これらの機能の全部または一部を単一の装置に集約するような構成が採用されてもよい。
制御装置300は、一の生産現場のみで使用される場合に限らず、他の生産現場においても使用される。また、一の生産現場内においても複数の異なるラインで使用される場合もある。
<制御装置のハードウェア構成例>
図15は、図14の制御装置300のハードウェア構成例を示すブロック図である。図15に示されるように、制御装置300は、プロセッサ302と、メインメモリ304と、ストレージ360と、メモリカードインターフェイス312と、上位ネットワークコントローラ306と、フィールドネットワークコントローラ308と、ローカルバスコントローラ316と、USB(Universal Serial Bus)インターフェイスを提供するUSBコントローラ370とを含む。これらのコンポーネントは、プロセッサバス318を介して接続されている。
プロセッサ302は、制御演算を実行する演算処理部に相当し、CPU(Central Processing Unit)および/またはGPU(Graphics Processing Unit)などで構成される。具体的には、プロセッサ302は、ストレージ360に保存されたプログラムを読み出して、メインメモリ304に展開して実行することで、制御対象に対する制御演算を実現する。
メインメモリ304は、DRAM(Dynamic Random Access Memory)および/またはSRAM(Static Random Access Memory)などの揮発性記憶装置などで構成される。ストレージ360は、たとえば、SSD(Solid State Drive)および/またはHDD(Hard Disk Drive)などの不揮発性記憶装置などで構成される。
ストレージ360には、制御プログラムPcと、教師データDsと、予測モデルMpとが保存されている。ストレージ360は、図1の記憶手段140に対応する。制御プログラムPcは、制御装置300を統合的に制御して、制御装置300の各機能を実現するためのプログラムを含む。すなわち、制御プログラムPcを実行するプロセッサ302が、図1のフィードバック制御系(フィードバック制御手段110および減算器150)、フィードフォワード制御系(フィードフォワード補償手段120および加算器160)、ならびに学習手段130に対応する。
メモリカードインターフェイス312は、着脱可能な記憶媒体の一例であるメモリカード314を受け付ける。メモリカードインターフェイス312は、メモリカード314に対して任意のデータの読み書きが可能になっている。
上位ネットワークコントローラ306は、上位ネットワーク32(たとえばローカルエリアネットワーク)を介して、上位ネットワーク32に接続された任意の情報処理装置との間でデータを遣り取りする。
フィールドネットワークコントローラ308は、フィールドネットワーク20を介して、サーボモータ222_1,222_2等の任意のデバイスとの間でデータを遣り取りする。
ローカルバスコントローラ316は、ローカルバス122を介して、制御装置300を構成する任意の機能ユニット380との間でデータを遣り取りする。機能ユニット380は、たとえば、アナログ信号の入力および/または出力を担当するアナログI/Oユニット、デジタル信号の入力および/または出力を担当するデジタルI/Oユニット、ならびにエンコーダなどからのパルスを受け付けるカウンタユニットなどからなる。
USBコントローラ370は、USB接続を介して、任意の情報処理装置との間でデータを遣り取りする。USBコントローラ370には、たとえばサポート装置400が接続される。
以上、制御装置、および制御方法によれば、制御対象に対するフィードフォワード制御の精度を向上させることができる。
<付記>
上記したような本実施の形態は、以下のような技術思想を含む。
[構成1]
外乱(d)を受ける制御対象(200,200C)の制御量(q)が目標値(qr)に近づくように前記制御対象(200,200C)へのフィードバック操作量(rb)のフィードフォワード補償値(rf)を決定する制御装置(100,300)であって、
前記フィードバック操作量(rb)は、前記目標値(qr)と前記制御量(q)との誤差(eq)に基づいてフィードバック制御手段(110)によって決定され、
前記フィードバック操作量(rb)および前記フィードフォワード補償値(rf)の和が、操作量(r)として前記制御対象(200,200C)に出力され、
前記制御装置(100,300)は、
予測モデル(Mp)を用いて前記外乱(d)から前記フィードフォワード補償値(rf)を決定するフィードフォワード補償手段(120)と、
教師データ(Ds)を用いて前記予測モデル(Mp)に対して機械学習を行う学習手段(130)とを備え、
前記学習手段(130)は、
前記目標値(qr)と、前記目標値(qr)に対応する前記操作量(r)と、前記外乱(d)と、前記外乱(d)および前記操作量(r)の両方に対応する前記制御量(q)とを含む少なくとも1つの第1組合せ(Cm1)を取得し、
前記少なくとも1つの第1組合せ(Cm1)のうち、前記誤差(eq)の絶対値が第1基準値(α)よりも小さい場合の前記外乱(d)と前記操作量(r)とを含む少なくとも1つの第2組合せ(Cm2)を前記教師データ(Ds)に追加する、制御装置(100,300)。
[構成2]
前記学習手段(130)は、
前記教師データ(Ds)において、前記外乱(d)の絶対値が第2基準値(β)よりも小さい場合の前記操作量(r)の平均値(rb0)を算出し、
前記予測モデル(Mp)によって表現される、前記外乱(d)と前記操作量(r)および前記平均値(rb0)の差としての補償値(rf)との関係を、前記補償値(rf)を目的変数とするとともに、前記外乱(d)を説明変数とする関数として近似し、
前記少なくとも1つの第1組合せ(Cm1)のうち前記外乱(d)の絶対値が前記第2基準値(β)より大きい第3組合せ(Cm3)の数に対する、前記少なくとも1つの第2組合せ(Cm2)のうち前記外乱(d)の絶対値が前記第2基準値(β)より大きい第4組合せ(Cm4)の数の割合が第3基準値(δ)より大きい場合、前記機械学習を終了する、構成1に記載の制御装置(100,300)。
[構成3]
前記学習手段(130)は、
前記教師データ(Ds)において、前記外乱(d)の絶対値が第2基準値(β)よりも小さい場合の前記操作量(r)の平均値(rb0)を算出し、
前記予測モデル(Mp)によって表現される前記外乱(p)と前記操作量(r)との関係を、前記操作量(r)を目的変数とするとともに、前記外乱(d)を説明変数とする関数として近似し、
前記少なくとも1つの第1組合せ(Cm1)のうち前記外乱(d)の絶対値が前記第2基準値(β)より大きい第3組合せ(Cm3)の数に対する、前記少なくとも1つの第2組合せ(Cm2)のうち前記外乱(d)の絶対値が前記第2基準値(β)より大きい第4組合せ(Cm4)の数の割合(Cr)が第3基準値(δ)より大きい場合、前記機械学習を終了し、
前記フィードフォワード補償手段(120)は、前記予測モデル(Mp)によって前記外乱(d)から予測された前記操作量(r)から、前記平均値(rb0)を引いた値をフィードフォワード補償値として決定する、構成1に記載の制御装置(100,300)。
[構成4]
前記学習手段(130)は、前記機械学習が終了し、かつ、前記割合(Cr)が前記第3基準値(δ)より小さい場合、前記機械学習を再開する、構成2または3に記載の制御装置(100,300)。
[構成5]
外乱(d)を受ける制御対象(200,200C)の制御量(q)が目標値(qr)に近づくように前記制御対象(200,200C)へのフィードバック操作量(rb)とフィードフォワード補償値(rf)との和を操作量(r)として前記制御対象(200,200C)に出力する制御システム(2)であって、
前記目標値(qr)と前記制御量(q)との誤差(eq)に基づいて前記フィードバック操作量(rb)を決定するフィードバック制御装置(11)と、
予測モデル(Mp)を用いて前記外乱(d)から前記フィードフォワード補償値(rf)を決定するフィードフォワード補償装置(12)と、
教師データ(Ds)を用いて前記予測モデル(Mp)に対して機械学習を行う学習装置(13)とを備え、
前記学習装置(13)は、
前記目標値(qr)と、前記目標値(qr)に対応する前記操作量(r)と、前記外乱(d)と、前記外乱(d)および前記操作量(r)の両方に対応する前記制御量(q)とを含む少なくとも1つの第1組合せ(Cm1)を取得し、
前記少なくとも1つの第1組合せ(Cm1)のうち、前記誤差(eq)の絶対値が第1基準値(α)よりも小さい場合の前記外乱(d)と前記操作量(r)とを含む少なくとも1つの第2組合せ(Cm2)を前記教師データ(Ds)に追加する、制御システム(2)。
[構成6]
外乱(d)を受ける制御対象(200,200C)の制御量(q)が目標値(qr)に近づくように前記制御対象(200,200C)へのフィードバック操作量(rb)のフィードフォワード補償値(rf)を決定する制御方法であって、
前記フィードバック操作量(rb)は、前記目標値(qr)と前記制御量(q)との誤差(eq)に基づいてフィードバック制御手段(110)によって決定され、
前記フィードバック操作量(rb)および前記フィードフォワード補償値(rf)の和が、操作量(r)として前記制御対象(200,200C)に出力され、
前記制御方法は、
予測モデル(Mp)を用いて前記外乱(d)から前記フィードフォワード補償値(rf)を決定するステップ(S121)と、
教師データ(Ds)を用いて前記予測モデル(Mp)に対して機械学習を行うステップ(S130)とを含み、
前記機械学習を行うステップ(S130)は、
前記目標値(qr)と、前記目標値(qr)に対応する前記操作量(r)と、前記外乱(d)と、前記外乱(d)および前記操作量(r)の両方に対応する前記制御量(q)とを含む少なくとも1つの第1組合せ(Cm1)を取得するステップ(S131)と、
前記少なくとも1つの第1組合せ(Cm1)のうち、前記誤差(eq)の絶対値が第1基準値(α)よりも小さい場合の前記外乱(d)と前記操作量(r)とを含む少なくとも1つの第2組合せ(Cm2)を前記教師データ(Ds)に追加するステップ(S132,S133)とを含み、制御方法。
今回開示された各実施の形態は、矛盾しない範囲で適宜組み合わされて実施されることも予定されている。今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
2,3 制御システム、11 フィードバック制御装置、12 フィードフォワード補償装置、13 学習装置、20 フィールドネットワーク、32 上位ネットワーク、100,100A,300 制御装置、110 フィードバック制御手段、120 フィードフォワード補償手段、122 ローカルバス、130 学習手段、140 記憶手段、150 減算器、160 加算器、200 制御対象、200C フィールドデバイス、220 サーボドライバ、222 サーボモータ、302 プロセッサ、304 メインメモリ、306 上位ネットワークコントローラ、308 フィールドネットワークコントローラ、312 メモリカードインターフェイス、314 メモリカード、316 ローカルバスコントローラ、318 プロセッサバス、360 ストレージ、370 コントローラ、380 機能ユニット、400 サポート装置、500 表示装置、600 サーバ装置、700 ゲートウェイ、900 インターネット、Ds 教師データ、Mp 予測モデル、Pc 制御プログラム。

Claims (6)

  1. 外乱を受ける制御対象の制御量が目標値に近づくように前記制御対象へのフィードバック操作量のフィードフォワード補償値を決定する制御装置であって、
    前記フィードバック操作量は、前記目標値と前記制御量との誤差に基づいてフィードバック制御手段によって決定され、
    前記フィードバック操作量および前記フィードフォワード補償値の和が、操作量として前記制御対象に出力され、
    前記制御装置は、
    予測モデルを用いて前記外乱から前記フィードフォワード補償値を決定するフィードフォワード補償手段と、
    教師データを用いて前記予測モデルに対して機械学習を行う学習手段とを備え、
    前記学習手段は、
    前記目標値と、前記目標値に対応する前記操作量と、前記外乱と、前記外乱および前記操作量の両方に対応する前記制御量とを含む少なくとも1つの第1組合せを取得し、
    前記少なくとも1つの第1組合せのうち、前記誤差の絶対値が第1基準値よりも小さい場合の前記外乱と前記操作量とを含む少なくとも1つの第2組合せを前記教師データに追加する、制御装置。
  2. 前記学習手段は、
    前記教師データにおいて、前記外乱の絶対値が第2基準値よりも小さい場合の前記操作量の平均値を算出し、
    前記予測モデルによって表現される、前記外乱と前記操作量および前記平均値の差としての前記フィードフォワード補償値との関係を、前記フィードフォワード補償値を目的変数とするとともに、前記外乱を説明変数とする関数として近似し、
    前記少なくとも1つの第1組合せのうち前記外乱の絶対値が前記第2基準値より大きい第3組合せの数に対する、前記少なくとも1つの第2組合せのうち前記外乱の絶対値が前記第2基準値より大きい第4組合せの数の割合が第3基準値より大きい場合、前記機械学習を終了する、請求項1に記載の制御装置。
  3. 前記学習手段は、
    前記教師データにおいて、前記外乱の絶対値が第2基準値よりも小さい場合の前記操作量の平均値を算出し、
    前記予測モデルによって表現される前記外乱と前記操作量との関係を、前記操作量を目的変数とするとともに、前記外乱を説明変数とする関数として近似し、
    前記少なくとも1つの第1組合せのうち前記外乱の絶対値が前記第2基準値より大きい第3組合せの数に対する、前記少なくとも1つの第2組合せのうち前記外乱の絶対値が前記第2基準値より大きい第4組合せの数の割合が第3基準値より大きい場合、前記機械学習を終了し、
    前記フィードフォワード補償手段は、前記予測モデルによって前記外乱から予測された前記操作量から、前記平均値を引いた値を前記フィードフォワード補償値として決定する、請求項1に記載の制御装置。
  4. 前記学習手段は、前記機械学習が終了し、かつ、前記割合が前記第3基準値より小さい場合、前記機械学習を再開する、請求項2または3に記載の制御装置。
  5. 外乱を受ける制御対象の制御量が目標値に近づくように前記制御対象へのフィードバック操作量とフィードフォワード補償値との和を操作量として前記制御対象に出力する制御システムであって、
    前記目標値と前記制御量との誤差に基づいて前記フィードバック操作量を決定するフィードバック制御装置と、
    予測モデルを用いて前記外乱から前記フィードフォワード補償値を決定するフィードフォワード補償装置と、
    教師データを用いて前記予測モデルに対して機械学習を行う学習装置とを備え、
    前記学習装置は、
    前記目標値と、前記目標値に対応する前記操作量と、前記外乱と、前記外乱および前記操作量の両方に対応する前記制御量とを含む少なくとも1つの第1組合せを取得し、
    前記少なくとも1つの第1組合せのうち、前記誤差の絶対値が第1基準値よりも小さい場合の前記外乱と前記操作量とを含む少なくとも1つの第2組合せを前記教師データに追加する、制御システム。
  6. 外乱を受ける制御対象の制御量が目標値に近づくように前記制御対象へのフィードバック操作量のフィードフォワード補償値を決定する制御方法であって、
    前記フィードバック操作量は、前記目標値と前記制御量との誤差に基づいてフィードバック制御手段によって決定され、
    前記フィードバック操作量および前記フィードフォワード補償値の和が、操作量として前記制御対象に出力され、
    前記制御方法は、
    予測モデルを用いて前記外乱から前記フィードフォワード補償値を決定するステップと、
    教師データを用いて前記予測モデルに対して機械学習を行うステップとを含み、
    前記機械学習を行うステップは、
    前記目標値と、前記目標値に対応する前記操作量と、前記外乱と、前記外乱および前記操作量の両方に対応する前記制御量とを含む少なくとも1つの第1組合せを取得するステップと、
    前記少なくとも1つの第1組合せのうち、前記誤差の絶対値が第1基準値よりも小さい場合の前記外乱と前記操作量とを含む少なくとも1つの第2組合せを前記教師データに追加するステップとを含む、制御方法。
JP2021157673A 2021-09-28 2021-09-28 制御装置、制御システム、および制御方法 Pending JP2023048388A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021157673A JP2023048388A (ja) 2021-09-28 2021-09-28 制御装置、制御システム、および制御方法
CN202280057062.9A CN117836726A (zh) 2021-09-28 2022-03-18 控制装置、控制系统以及控制方法
PCT/JP2022/012679 WO2023053514A1 (ja) 2021-09-28 2022-03-18 制御装置、制御システム、および制御方法
TW111113177A TWI837636B (zh) 2021-09-28 2022-04-07 控制裝置、控制系統以及控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021157673A JP2023048388A (ja) 2021-09-28 2021-09-28 制御装置、制御システム、および制御方法

Publications (1)

Publication Number Publication Date
JP2023048388A true JP2023048388A (ja) 2023-04-07

Family

ID=85779935

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021157673A Pending JP2023048388A (ja) 2021-09-28 2021-09-28 制御装置、制御システム、および制御方法

Country Status (3)

Country Link
JP (1) JP2023048388A (ja)
CN (1) CN117836726A (ja)
WO (1) WO2023053514A1 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222207A (ja) 1997-01-31 1998-08-21 Mitsubishi Heavy Ind Ltd フィードフォワード制御装置
JP2014006566A (ja) * 2012-06-21 2014-01-16 Institute Of National Colleges Of Technology Japan 組み込み知能コントローラ、制御システム、制御プログラム、記録媒体、及び制御方法
JP6514257B2 (ja) * 2017-03-29 2019-05-15 ファナック株式会社 機械学習装置、サーボ制御装置、サーボ制御システム、及び機械学習方法
JP7034046B2 (ja) * 2018-10-05 2022-03-11 株式会社日立製作所 制御装置および制御方法

Also Published As

Publication number Publication date
WO2023053514A1 (ja) 2023-04-06
CN117836726A (zh) 2024-04-05
TW202314409A (zh) 2023-04-01

Similar Documents

Publication Publication Date Title
JP5016002B2 (ja) プロセス制御システムにおける統合型モデル予測制御および最適化
JP4722388B2 (ja) 統合型モデル予測制御機能ブロックおよびオプチマイザ機能ブロックのための設定および閲覧用表示画面
JP5096359B2 (ja) 同時プロセスシミュレーションを伴う多目的予測プロセス最適化
CN103477290B (zh) 控制器辅助装置
US20130116802A1 (en) Tracking simulation method
CN103439887B (zh) 低阶系统itae最优的pi控制器参数整定方法及系统
CN110658785B (zh) 输出装置、控制装置、以及评价函数值的输出方法
JP4908433B2 (ja) 制御パラメータ調整方法および制御パラメータ調整プログラム
US20190095246A1 (en) Support device and non-transitory storage medium
JP6986203B2 (ja) 制御装置、制御システム、制御方法及び制御プログラム
JP2001249705A (ja) プロセスシミュレータ応用非線形制御装置およびその方法
JP6867307B2 (ja) ステージ済アプリケーションによりライブ状態の制御/推定アプリケーションを置換するシステムと方法
KR102382047B1 (ko) Pso를 이용한 모터 제어기의 자동 학습 튜닝 시스템
WO2023053514A1 (ja) 制御装置、制御システム、および制御方法
WO2021181913A1 (ja) 制御システム及び制御方法
JP6947029B2 (ja) 制御装置、それを使用する情報処理装置、制御方法、並びにコンピュータ・プログラム
TWI837636B (zh) 控制裝置、控制系統以及控制方法
JP2023083787A (ja) 線材の矯正機の制御装置、制御システム、および制御方法
Du et al. Reinforcement learning
CA3151239A1 (en) Process controller with meta-reinforcement learning
Ozana et al. Numerical methods for discretization of continuous nonlinear systems used in SIL/PIL/HIL simulations
Marvi Moghadam et al. Design of combined sliding mode controller back stepping using genetic algorithm
Abonyi et al. Hybrid fuzzy convolution model and its application in predictive control
Martínez et al. Towards a systematic path for dynamic simulation to plant operation: OPC UA-enabled model adaptation method for tracking simulation
EP4075337A1 (en) Process controller with meta-reinforcement learning