JP2019160017A - 学習装置、学習方法、及びそのプログラム - Google Patents

学習装置、学習方法、及びそのプログラム Download PDF

Info

Publication number
JP2019160017A
JP2019160017A JP2018047865A JP2018047865A JP2019160017A JP 2019160017 A JP2019160017 A JP 2019160017A JP 2018047865 A JP2018047865 A JP 2018047865A JP 2018047865 A JP2018047865 A JP 2018047865A JP 2019160017 A JP2019160017 A JP 2019160017A
Authority
JP
Japan
Prior art keywords
correction amount
control
learned model
learning
command value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018047865A
Other languages
English (en)
Other versions
JP6536978B1 (ja
Inventor
高史 藤井
Takashi Fujii
高史 藤井
勇樹 上山
Yuki Kamiyama
勇樹 上山
泰明 阿部
Yasuaki Abe
泰明 阿部
信幸 阪谷
Nobuyuki Sakatani
信幸 阪谷
和彦 今竹
Kazuhiko Imatake
和彦 今竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2018047865A priority Critical patent/JP6536978B1/ja
Priority to PCT/JP2019/009335 priority patent/WO2019176772A1/ja
Priority to CN201980011789.1A priority patent/CN111684365B/zh
Priority to US16/968,164 priority patent/US11480931B2/en
Priority to EP19767608.3A priority patent/EP3767400B1/en
Application granted granted Critical
Publication of JP6536978B1 publication Critical patent/JP6536978B1/ja
Publication of JP2019160017A publication Critical patent/JP2019160017A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0205Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric not using a model or a simulator of the controlled system
    • G05B13/024Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric not using a model or a simulator of the controlled system in which a parameter or coefficient is automatically adjusted to optimise the performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/33Director till display
    • G05B2219/33027Artificial neural network controller
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/33Director till display
    • G05B2219/33034Online learning, training

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Feedback Control In General (AREA)

Abstract

【課題】処理対象物に対しての加工・組立等の処理において、制御対象に与える指令値を生成するための補正量を学習する技術を提供する。【解決手段】補正量に基づいて目標値を補正した指令値を出力するコントローラと、コントローラから出力される指令値が入力され当該指令値の応答として制御量が出力される制御対象とを備える制御系において、コントローラに対して所定の補正量を出力するように学習された学習済みモデルを含む調整器に対して、学習済みモデルを提供する学習装置であって、制御量の品質を評価する評価部と生成した補正量候補と処理対象物の特定のパラメータとを教師データとして学習を行い、学習済みモデルを生成する学習部と、生成された補正量に基づいて目標値を補正した指令値を制御対象に与えたときの制御量に基づいて評価された品質が予め定められた許容範囲内であるときに、前記学習済みモデルを前記調整器に提供する設定部と、を備える。【選択図】図2

Description

本発明は、学習装置、学習方法、及びそのプログラムに関する。
プレス機械等の制御装置を用いて材料の加工・組立等を行った場合、通常、一度加工等を行った材料は元に戻せない。したがって、同一の材料に対して繰り返し加工等を行いながら、適切に制御量を調整することはできない。そのため、材料の性質と制御入力の関係を定量化し、新しく加工等を行うときに適切な制御入力を与え、適切な制御量を得ることが重要となる。
例えば特許文献1には、プレス加工品を製造するにあたり、板厚のばらつきの影響を低減可能なプレスシステムが開示されている。特許文献1のプレスシステムは、プレス機械と、このプレス機械にワークを供給する供給装置とから構成されており、ワークの板厚情報をプレス機械によるプレス前に入手する板厚入手手段と、当該板厚入手手段からの板厚情報によりプレス機械のダイハイト(H)を設定するダイハイト設定手段とを備えている。
特開2005−211928号公報
ところで、特許文献1に記載されるプレスシステムでは、想定されるすべての板厚ごとに、実際のプレス機械で複数回試行錯誤することによって、設定すべき最適なダイハイトを調整する必要がある。このようなプレスシステムのような制御系において、処理対象物のパラメータに応じて、適切なダイハイト等の制御量を出力するよう学習した学習済みモデルを用いて、ダイハイトの調整量(補正量)を設定することが考えられる。この場合、教師データとして、処理対象物のパラメータと、適切な補正量とを含むデータを用いることが考えられるところ、実際にプレス機械等の処理対象物に対して加工・組立等の処理を行う制御系において、ダイハイト等の制御量の適性値は、板厚に限らず、処理対象物の硬度や温度、材質等の様々なパラメータの影響を受ける。したがって、教師データとする補正量が適切かどうかを確認するには、さまざまな処理対象物に対して試行錯誤する必要があり膨大な時間を要してしまう。
そこで、本発明は、処理対象物に対して加工・組立等の処理を行う制御系の予測制御において、制御対象に与える指令値を生成するための適切な補正量を効率的に学習する技術を提供することを目的とする。
本発明の一側面に係る学習装置は、補正量に基づいて目標値を補正した指令値を出力するコントローラと、処理対象物に対して所定の処理をするよう制御される制御対象であって、コントローラから出力される指令値が入力され、当該指令値の応答として制御量が出力される制御対象と、を備える制御系において、処理対象物の特定のパラメータに基づいて、前記コントローラに対して所定の前記補正量を出力するように学習された学習済みモデルを含む調整器に対して、前記学習済みモデルを提供する学習装置であって、目標値、指令値及び制御量を含む動作データを取得して、制御量の品質を評価する評価部と、動作データに基づいて、補正量候補を生成し、生成した補正量候補と、処理対象物の特定のパラメータとを教師データとして学習を行い、学習済みモデルを生成する学習部と、生成された学習済みモデルによって出力された補正量に基づいて目標値を補正した指令値を制御対象に与えたときの制御量に基づいて、評価部において評価された品質が予め定められた許容範囲内であるときに、前記学習済みモデルを前記調整器に提供する設定部と、を備える。この態様によると、学習装置は、制御対象を実際に動作させることなく補正量候補を生成したときに、当該補正量候補を用いて生成された学習済みモデルを、適切な補正量を出力するか否かを確認してから採否を判定することができる。これにより、実際に制御対象を動作させながら、より効率的に学習を行いつつ、不適切な学習済みモデルを排除することができる。なお、「パラメータ」は、処理対象物の特徴量や物理量、その他の任意の数値情報を含む。特徴量は、例えば処理対象物の材質等であり、物理量は例えば、処理対象物の硬度や温度等である。
また、設定部は、制御対象に与えられた処理対象物の特定のパラメータが、生成された学習済みモデルの評価が未実施のパラメータに等しいとき、生成された学習済みモデルによって出力された補正量をコントローラに対して出力し、評価部において品質を評価させる構成でもよい。また、学習部は、生成された学習済みモデルが出力した補正量に基づいて評価させた品質が、許容範囲に満たないときに改めて学習を行い、学習済みモデルを生成し直すように構成されてもよい。これにより、不適切な学習済みモデルを排除することができる。
また、上記学習部は、データ駆動制御によって前記補正量候補を生成するように構成されてもよい。データ駆動制御は、VRFT、FRIT又はERITのいずれかでもよい。この態様によると、学習部は、VRFTやFRIT、ERIT等のデータ駆動制御の手法を用いることにより、制御対象の動特性モデルを求めることなく補正量候補を生成し、教師データを生成することが可能となる。これによって、学習装置は、制御対象の実際の動作を繰り返し行うことなく補正量候補を生成することが可能になる。この結果、学習装置は、処理対象物を準備したり破損させたりすることなく、より効率的に学習を行うことができる。
本発明の一側面に係る学習方法は、補正量に基づいて目標値を補正した指令値を出力するコントローラと、処理対象物に対して所定の処理をするよう制御される制御対象であって、コントローラから出力される指令値が入力され、当該指令値の応答として制御量が出力される制御対象と、を備える制御系において、処理対象物の特定のパラメータに基づいて、コントローラに対して所定の補正量を出力するように学習された学習済みモデルを含む調整器に対して、学習済みモデルを提供する学習装置で実行される方法であって、学習装置が、目標値、指令値及び制御量を含む動作データを取得して、制御量の品質を評価するステップと、動作データに基づいて、補正量候補を生成し、生成した補正量候補と、処理対象物の特定のパラメータとを教師データとして学習を行い、学習済みモデルを生成するステップと、生成された学習済みモデルによって出力された補正量に基づいて目標値を補正した指令値を制御対象に与えたときの制御量に基づいて、評価するステップにおいて評価された品質が予め定められた許容範囲内であるときに、前記学習済みモデルを前記調整器に提供するステップと、を実行する。
本発明の一側面に係るプログラムは、補正量に基づいて目標値を補正した指令値を出力するコントローラと、処理対象物に対して所定の処理をするよう制御される制御対象であって、コントローラから出力される指令値が入力され、当該指令値の応答として制御量が出力される制御対象と、を備える制御系において、処理対象物の特定のパラメータに基づいて、コントローラに対して所定の補正量を出力するように学習された学習済みモデルを含む調整器に対して、学習済みモデルを提供する学習装置を機能させるプログラムであって、学習装置を、目標値、指令値及び制御量を含む動作データを取得して、制御量の品質を評価する手段、動作データに基づいて、補正量候補を生成し、生成した補正量候補と、処理対象物の特定のパラメータとを教師データとして学習を行い、学習済みモデルを生成する手段、及び前記生成された学習済みモデルによって出力された補正量に基づいて目標値を補正した指令値を制御対象に与えたときの制御量に基づいて、評価する手段において評価された品質が予め定められた許容範囲内であるときに、学習済みモデルを前記調整器に提供する手段して機能させる。
本発明によれば、処理対象物に対して加工・組立等の処理を行う制御系の予測制御において、制御対象に与える指令値を生成するための適切な補正量を効率的に学習する技術を提供することができる。
本発明の一実施形態に係る制御システムのシステム構成例を示す模式図である。 本発明の一実施形態に係る学習装置の機能構成例を示すブロック図である。 本発明の一実施形態に係る管理テーブルの一例を示す図である。 本発明の一実施形態に係る管理図の一例を示す図である。 本発明の一実施形態に係る学習装置の処理の一例を説明するためのフローチャートである。 本発明の一実施形態に係る学習装置のハードウェア構成を示す模式図である。 本発明の別の実施形態に係る制御システムのシステム構成例を示す模式図である。
[実施形態]
以下、本発明の一側面に係る実施の形態(以下「本実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。なお、本実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメータ、マシン語等で指定される。
§1 適用例
まず、図1を参照しながら、本発明が適用される場面の一例について説明する。図1は本発明に係る制御システム1の構成の一例を示す図である。制御システム1は、コントローラ10と、サーボ機構20と、調整器30と、学習装置40とを備えている。
コントローラ10は、調整器30から出力された補正量ρに基づいて目標値r(t)を補正した指令値u(t)を生成して、サーボ機構20に出力する。目標値r(t)は、コントローラ10によって生成(記憶された目標値を用いることを含む)されてもよいし、外部からコントローラ10に与えられてもよい。コントローラ10の伝達関数C(ρ)とすると、コントローラ10では、以下の式(1)に示す演算を行うことで、指令値uを生成する。
<コントローラの演算式>
u(t)=C(ρ)×r(t)・・・式(1)
サーボ機構20は、コントローラ10によって、処理対象物(以下「ワーク」ともいう。)に対して所定の処理をするように制御される。サーボ機構20には、コントローラ10から指令値u(t)が与えられ、当該入力値の応答として制御量y(t)が出力される。サーボ機構20の伝達関数をPとすると、制御量y(t)は、以下の式(2)で表される。
<サーボ機構の演算式>
y(t)=P×u(t) ・・・式(2)
なお、本実施形態では、サーボ機構20は、ワークに対して所定量の圧力でプレスするプレス機械の例を示すが、これに限られない。なお、サーボ機構20は、本発明の「制御対象」の一例である。
調整器30は、コントローラ10に与える補正量ρを出力する。本実施形態において、調整器30は、ワークが有するパラメータのうち、特定のパラメータに基づいて適切な補正量が出力されるように学習された学習済みモデルを有している。例えば、ワークの板厚の大きさを特定のパラメータとしてもよい。また、この学習済みモデルは、学習装置40から提供されるものであってよい。また、調整器30は、センサ(不図示)からワークのパラメータを取得してもよい。なお、センサは例えばサーボ機構20が有してもよい。
学習装置40は、学習済みモデルを生成するにあたり、まず、あるパラメータαを有する処理対象物に対して、制御系を一度実際に動作させて、そのときの目標値r(t)、指令値u(t)、及び制御量y(t)の関係を取得する。次に、学習装置40は、これら3つの値からパラメータαに対応する補正量候補ρ*を算出する。算出した補正量候補ρ*とパラメータαとに基づいて、学習装置40は教師データを生成する。この処理を複数のパラメータについて実行することで、学習装置40は、各パラメータとそれに対応する補正量候補とを有する教師データを複数生成することができる。そして、学習装置40は、生成した一又は複数の教師データを用いて学習を行うことで、学習済みモデルを生成する。なお、生成された教師データを実際に学習に用いるか否かは、所定の採用基準に照らし合わせて決定されてもよい。
補正量候補ρ*を生成するにあたり、学習装置40は、VRFT(Virtual Reference Feedback Tuning)やFRIT(Fictitious Reference Iterative Tuning)、ERIT(Estimated Response Iterative Turning)等の、データ駆動制御の手法を用いることができる。データ駆動制御は、制御対象(本実施形態の場合、サーボ機構20である。)の動特性モデルを求めることなく、得られたデータを用いて制御パラメータを設定することができる。データ駆動制御の手法を用いることにより、反復実験を行うことなく、すなわちサーボ機構20の実際の動作を繰り返し行うことなく、一組の動作データから補正量候補ρ*を生成し、これを教師データとして利用する。これによって、適切な教師データを生成するまでの時間を短縮し、適切な補正量を出力するための学習済みモデルの効率的な生成を可能としている。
ここで、データ駆動制御の手法を用いて生成された補正量候補ρ*を教師データとして学習した場合、学習により得られる学習済みモデルは、必ずしも適切な補正量を出力するとは限らない。そこで、学習装置40は、学習済みモデルを調整器30へ設定する前に、学習済みモデルを評価し、所定の品質の制御量を得られることを確認できたときに、学習装置40が生成した学習済みモデルを調整器30へ設定してもよい。
例えば、ワークXのパラメータαと補正量候補ρ*とを教師データとして学習を行い、新たに学習済みモデルLM*を生成したとする。このとき学習装置40は、ワークXと同様のパラメータαを有する別のワークがサーボ機構20に与えられた際に、先に生成した学習済みモデルLM*を用いて補正量ραを生成し、コントローラ10に提供する。コントローラ10は、補正量ραに基づいて指令値u(x)を生成し、サーボ機構20が指令値u(x)への応答として制御量y(x)を出力する。ここで、品質評価部42が制御量y(x)の品質を評価した結果、制御量y(x)が所定の許容範囲内であれば、学習装置40は調整器30に新たに生成された学習済みモデルLM*を設定するものとしてよい。他方、所定の許容範囲に満たなかった場合、すでに調整器30に学習済みモデルが設定されている場合には、設定部44は学習済みモデルの更新を行わなくてもよい。これにより、学習装置40は、制御対象を実際に動作させることなく補正量候補を生成したときに、当該補正量候補を用いて生成された学習済みモデルを、適切な補正量を出力するか否かを確認してから採否を判定することができるため、より効率的に学習を行いつつ、不適切な学習済みモデルを排除することができる。この結果、学習装置は、処理対象物を準備したり破損させたりすることなく、より効率的に学習を行うことができる。
§2 構成例
図2乃至図4を参照して、学習装置40の機能構成の一例を説明する。図2は、学習装置40の機能構成の一例を示す機能ブロック図である。図2に示すように、学習装置40は、記憶部41と、品質評価部42と、学習部43と、設定部44とを有している。
記憶部41には、参照モデルTdと、管理テーブルとが記憶されている。
参照モデルTdとは、目標値r(t)に対する制御量y(t)の理想的な応答の伝達関数を示したものである。参照モデルTdを用いると、目標値r(t)に対する理想的な制御量(以下「目標応答」ともいう。)yd(t)は次式(3)で表される。
<参照モデルTdの式>
yd(t)=Td×r(t) ・・・(3)
なお、参照モデルTdは伝達関数に限定されず、サーボ機構20をワークのない状態で動作させた際の、目標値r(t)、制御量y(t)に基づいて、機械学習により生成されるモデルを用いてもよい。
管理テーブルには、学習部43が学習に用いる教師データが管理されている。図3は、管理テーブルの一例を示す図である。教師データは、ワークごとに、入力データとして当該ワークのパラメータ(図3の例では硬さ)と、出力データとして当該ワークに対して指令値を出力する際の最適な補正量(以下「最適補正量」ともいう。)と、が対応付けられたデータである。管理テーブルには、各ワークに対応付けられた最適補正量に基づいて生成された指令値に応答してサーボ機構20が出力した制御量の品質の評価の結果が対応付けられている。なお、最適補正量は、補正量の一例にすぎず、最適な補正量を用いることは必須ではない。
なお、管理テーブルに新たな教師データのレコードが追加された後、当該レコードに対応するワークについて、サーボ機構20が処理をまだ行っていない場合には、管理テーブルの評価結果の欄には例えば未実施が登録されてもよい。
このように、管理テーブルには、学習部43が学習に用いた教師データと、当該教師データを用いて新たに生成された(又は更新された)学習済みモデルの評価の結果が管理されている。
さらに、記憶部41には、学習部43が生成した学習済みモデルLMが記憶されている。記憶部41は、学習部43が生成した学習済みモデルの複数の世代を記憶していることが好ましい。
品質評価部42は、コントローラ10及びサーボ機構20から動作データを取得して、制御量の品質を評価する。一例として、品質評価部42は目標値r(t)に対して与えられた指令値u(t)への応答としてサーボ機構20から制御量y(t)が出力された場合について説明する。このとき、品質評価部42は、目標値r(t)を参照モデルTdに入力し、目標値r(t)に対する目標応答yd(t)を取得する。
次に、品質評価部42は、目標応答yd(t)、制御量y(t)について品質換算を行い品質の代替指標を算出する。例えば品質評価部42は、目標応答yd(t)、制御量y(t)に対して品質換算を行い下死点位置や整定時間を算出する。より詳細には、品質評価部42は、目標応答yd(t)、制御量y(t)の最大値から下死点位置を算出する。また、品質評価部42は、目標応答yd(t)が目標位置に入った時刻、及び制御量y(t)が目標位置に入った時刻のそれぞれから指令値が目標位置に到達した時刻を減算することで、それぞれの整定時間を算出する。なお、下死点位置は、サーボ機構20のストローク長が最大となった位置である。また、整定時間は、サーボ機構20のストローク長が整定幅に入ったときから、目標位置に到達するときまでの経過時間であり、整定幅は、目標位置から所定の範囲の幅(例えば目標位置±10μmである)をいう。
品質評価部42は、品質換算して算出した代替指標である下死点位置と整定時間に基づいて、制御量y(t)の品質の評価を行う。例えば、品質評価部42は、下死点位置が目標位置と一致しているか否かや、下死点位置が整定幅に含まれるか否かに基づいて制御量y(t)が所定の許容範囲内か否かを判定することで品質の評価をすることができる。
また、例えば、品質評価部42は、Xbar−R管理図を用いて制御量y(t)の品質の評価を行ってもよい。Xbar−R管理図は、品質評価対象の平均値の変化とばらつきの変化を管理するための管理図である。図4は、品質評価部42が品質の評価に用いるXbar−R管理図のうちx管理図の一例を示している。図4において、縦軸はストローク長を示している。グラフL1、L2は、複数のロット分のワークに対してサーボ機構20が処理を行った際のそれぞれの制御量y(t)について品質換算して算出した下死点位置の、各ロットにおける平均値をプロットしたものの一例である。図4において、実線は規格値L3の上限及び下限を示し、破線L4は管理値の上限及び下限を示している。規格値は例えば、ワークについて加工を依頼した顧客の要求値である。管理値は、規格値を超えないように管理するための値である。グラフの中心には、品質の目標値が示されている。グラフL2は、品質が管理値の範囲内にある場合の一例を示すものであり、グラフL1は、品質が規格値内に納まらなかった場合の一例を示すものである。なお、図4の例では、ロットごとにグラフのプロットを行った例を示しているが、各プロットの値はロット単位で算出された値に限定されず、1又は複数のワークに対する処理に基づいて品質換算された値を用いてもよい。品質評価部42は、図4に示すXbar−R管理図において、制御量y(t)の下死点位置が、管理値の範囲内か否かや、規格値の範囲内か否かに基づいて、制御量y(t)が所定の許容範囲内か否かを判定することで品質の評価をしてもよい。例えば、図4に示すXbar−R管理図等を用いて品質評価を行った結果、制御量y(t)が所定の許容範囲内か否かに基づいて、上述した図3の管理テーブルにおける品質の評価の結果が登録されてもよい。より詳細には、例えば図3の1行目のレコードに登録されている最適補正量候補(図3の例では0.5mm)に基づいて生成された指令値に応答した際に、サーボ機構20から制御量y(β)が出力されたとする。このとき、図4に示すXbar−R管理図を用いて、制御量y(β)の下死点位置が管理値の範囲内か否かや、規格値の範囲内か否かに基づいて、制御量y(β)の品質評価が行われた結果が、図3の管理テーブルの1行目のレコードにおける品質の評価の結果として登録される。
学習部43は、動作データを用いて算出した補正量候補ρ*に基づいて教師データを生成し、学習済みモデルを生成する。学習部43は、補正量候補ρ*を算出するにあたり、VRFTやFRIT、ERIT等の、データ駆動制御を用いることが好ましい。データ駆動制御は、制御対象(本実施形態の場合、サーボ機構20である。)の動特性モデルを求めることなくデータを用いて制御パラメータを設定する手法である。VRFT、FRIT及びERIT等のデータ駆動制御は、反復実験を行うことなく、一組の動作データから補正量を特定可能な手法である。一組の動作データは、目標値rと、当該目標値に基づいて与えられた指令値と、指令値の応答として出力された制御量である。
学習部43の補正量候補生成処理について、より詳細に説明する。例えば、学習部43は、参照モデルTdを参照し、サーボ機構20が任意のワーク(以下「ワークX」という。)に対して、任意の指令値uiniに基づいて動作を行った場合の動作データ(以下、ワークXに対して任意の指令値uiniに基づいて動作を行った場合の動作データを特に「動作データY」という。)に基づいて、補正量候補ρ*を生成する例について説明する。この指令値uiniは、ある補正量ρiniに基づいて目標値rを補正して生成されるものとする。ここで、動作データYに含まれる目標値を目標値rとし、指令値を指令値uiniとし、制御量を制御量yiniとすると、動作データYは、{r,uini,yini}で表される。
学習部43は、VRFTを用いて補正量候補ρ*を算出する場合、参照モデルTdの逆モデルTd-1を用いて、以下の式(4)により、まず、仮想参照信号を算出する。
さらに学習部43は、以下の式(5)で表される評価関数Jv(ρ)を最小化する補正量候補ρ*を算出する。なお、式(5)において、C(ρ)は、上述のコントローラ10の伝達関数を示している。
他方、学習部43は、FRITを用いて補正量候補ρ*を算出する場合、以下の式(6)により、まず、疑似参照信号を算出する。なお、式(6)において、C(ρ)-1はコントローラ10の逆伝達関数を示している。
さらに学習部43は、以下の式(7)で表される評価関数Jf(ρ)を最小化する補正量候補ρ*を算出する。
学習部43は、算出した補正量候補ρ*を最適補正量ρ´として、ワークXのパラメータとを対応付けて教師データとして管理テーブルに追加する。なお、学習部43は、補正量候補ρ*を最適補正量ρ´に採用するか否かを判定する採否判定を行う構成でもよい。この場合、学習部43は、算出した補正量候補ρ*が所定の採用基準を満たすか否かを判定し、満たした場合に最適補正量ρ´として採用し、管理テーブルに追加する。採用基準は、例えば、算出した補正量候補ρ*が、管理テーブルに登録されている教師データに含まれる最適補正量から所定の値以上離れた値(例えば外れ値)でないか否かである。なお、採用基準は、補正量候補ρ*が、上記の教師データに含まれる最適候補量の平均値から一定値以上離れた値ではないか、最適候補量の最大値又は最小値から一定値以上離れた値ではないか、でもよい。また、例えば、採用基準は、算出した補正量候補ρ*が、管理テーブルに登録されている教師データに含まれる最適補正量の範囲に含まれるか否かでもよい。
学習部43は、管理テーブルに登録された教師データに基づいて学習を実行し、学習済みモデルLM*を生成する。なお、学習済みモデルを生成する際に行う学習には、例えば既存のニューラルネットワークや回帰分析の技術を用いることができる。学習部43は、記憶部41に今回生成した学習済みモデルLM*を追加して記憶させる。なお、学習部43は、記憶部41に記憶されている学習済みモデルLMを今回生成した学習済みモデルLM*で上書きする構成でもよい。
なお、学習部43は、補正量候補ρ*を生成するにあたり、学習要否判定を行う構成でもよい。この場合、学習部43は、所定の学習要否判定基準を満たすか否かを判定し、満たしたときに、学習を行うために補正量候補ρ*を生成する。所定の学習要否判定基準は、例えば、動作データYに対する品質評価部42の結果が許容範囲内であるか否かである。また、所定の学習要否判定基準は、ワークXのパラメータが過去に学習した、すなわち、現在、調整器30に設定されている学習済みモデルにおいて学習したパラメータの範囲外であるか否かでもよい。他にも、所定の学習要否判定基準は、ワークXに対して動作を行った際にサーボ機構20の外部環境が、それ以前の外部環境から変化したか否かでもよい。この場合、学習部43は、ユーザの任意の入力に基づいて、外部環境の変化を検出してもよいし、サーボ機構20の外部環境を含む画像データをセンサから取得して、取得した画像データに基づいて、外部環境の変化を検出してもよい。
設定部44は、学習部43が生成した学習済みモデルLM*を調整器30へ設定する。このとき設定部44は、学習済みモデルLM*を設定する前に、学習済みモデルLM*を評価し、評価結果に基づいて、調整器30に設定するか否かを判定してもよい。
例えば、設定部44は、学習済みモデルLM*を用いて制御を行い、制御した結果に対する品質の評価に基づいて、学習済みモデルLM*を調整器30に設定するか否かを判定することができる。具体的には、例えば、ワークXのパラメータαと補正量候補ρ*とを教師データとして、学習部43が追加学習を行い、新たに学習済みモデルLM*を生成したとする。このとき設定部44は、ワークXと同様のパラメータαを有するワークがサーボ機構20に与えられた際に、学習済みモデルLM*を用いて、補正量ραを生成する。コントローラ10では、学習済みモデルLM*が生成した補正量ραに基づいて指令値u(x)を生成し、サーボ機構20に出力する。サーボ機構20が指令値u(x)への応答として出力した制御量y(x)について、品質評価部42が品質の評価を行う。品質の評価の結果、制御量y(x)が所定の許容範囲内であれば、設定部44は調整器30に新たに生成された学習済みモデルLM*を設定することができる。他方、所定の許容範囲に満たなかった場合、設定部44は学習済みモデルの更新を行なわず、すでに調整器30に設定されているモデルをそのまま使用してよい。
なお、記憶部41に評価が未実施の学習済みモデルLM*が複数登録されている場合には、設定部44は、例えば、新しく生成された順に学習済みモデルLM*の評価を行い、評価の結果が最初に許容範囲内に納まった学習済みモデルLM*を選択して調整器30に設定してもよい。また例えば、設定部44は、すべての学習済みモデルLM*の評価を実施して、評価結果がもっともよかった学習済みモデルLM*を選択して調整器30に設定してもよい。
なお、設定部44は、評価が所定の許容範囲に満たなかった学習済みモデルLM*を記憶部41から削除してもよい。
このように設定部44が、新たに生成(又は更新)された学習済みモデルLM*について、調整器30に実際に設定する前に、評価を実施することで、品質が不十分な学習済みモデルは調整器30に設定されないため、制御システム1の処理精度が低下してしまうことを防ぐことができる。
§3 動作フロー
図5を参照して、本実施形態に係る制御システム1の処理フローの一例について説明する。まず、学習装置40は、参照モデルTdを生成する(S101)。このとき、学習装置40は、基準とする動作データ[r、yd]を取得する。基準となる動作データは、例えば、ワークなし動作を行った場合の、目標値rと、サーボ機構20の制御量yとしてよい。取得した動作データ[r、yd]に基づいて、学習装置40は、参照モデルTdを生成する。
サーボ機構20にワークが与えられると、目標値に対する補正量qを設定する(S102)。補正量qは、ユーザが手動で設定してもよいし、すでに調整器30に学習済みモデルが設定されている場合には、当該学習済みモデルが生成してもよい。
コントローラ10では、設定された補正量qに基づいて指令値uが生成され、サーボ機構20に出力される。サーボ機構20では、指令値uへの応答として制御量yが出力される。学習装置40は、このときの動作データ[r,u,y]を取得する(S103)。
次に、学習の要否が判定される(S104)。例えば、学習部43は、取得された動作データ[r,u,y]について、品質評価部42が行った品質の評価の結果に基づいて、要否を判定することができる。なお、学習の要否の判定基準はこれに限定されず、今回のワークのパラメータが過去に学習したパラメータの範囲内か否かや、外部環境が変化したか否かを判定基準に用いてもよい。また例えば、学習の要否は人が判定してもよい。
学習が不要と判定された場合(S104:NO)には、S102に戻り、次のワークに対して処理が行われる。他方、学習が必要と判定された場合(S104:YES)には、学習部43は、参照モデルTdを参照し、補正量候補ρ*を生成する(S105)。学習部43は補正量候補ρ*を生成する際に、VRFTやFRIT、ERIT等のデータ駆動制御の手法を用いることができる。
次に、学習部43は、生成した補正量候補ρ*と、S102でサーボ機構20に与えられたワークのパラメータとを対応付けて教師データとして追加するか否かを判定する(S106)。追加するか否かを判定する採用基準は、例えば、算出した補正量候補ρ*が、管理テーブルに登録されている教師データに含まれる補正量から所定の値以上離れた値でないか否かである。また、例えば、採用基準は、算出した補正量候補ρ*が、管理テーブルに登録されている教師データに含まれる補正量の範囲に含まれるか否かでもよい。
追加すると判定した場合(S106:YES)には、学習部43は、教師データとして、生成した補正量候補ρ*を最適補正量ρ´として、S102でサーボ機構20に与えられたワークのパラメータαと対応付けてレコードを生成し、管理テーブルに追加する(S201)。他方、追加しないと判定した場合(S106:NO)には、S101に戻り、次のワークに対して処理が行われる。なお、学習部43は、S106の判定を行わず、生成した補正量候補ρ*はそのまま最適補正量ρ´として、教師データを生成し、管理テーブルに追加する構成でもよい。
パラメータαと最適補正量候補ρ’とに基づいて教師データを追加すると、学習部43は、追加学習を実施して、学習済みモデルLM*を新たに生成(又は更新)する(S202)。
次に、再度、与えられたワークのパラメータがパラメータαに等しい場合(S203:YES)、設定部44は、生成された学習済みモデルを調整器30に設定するか否かを判定する(S205)。なお、パラメータαに等しい場合とは、パラメータαと同一の場合に限定されず、パラメータαに近似する場合も含む。パラメータが近似するか否かは、予め定められた範囲に特定のパラメータが含まれるか否かで判断してもよい。一例として、設定部44は、学習済みモデルLM*を用いて制御を行った結果に基づいて、設定するか否かを判定する。具体的には、設定部44は、学習済みモデルLM*にパラメータαを与えて補正量ραを生成する。そして補正量ραに基づいて補正された指令値を、サーボ機構20に与えたときの制御量について、品質評価部42の品質の評価結果に基づいて、学習済みモデルを調整器30に設定するか否かを判定してもよい。
品質の評価が所定の許容範囲内である場合には、設定部44は、新たに生成された学習済みモデルを調整器30に設定する(S206)。他方、品質の評価が許容範囲に満たない場合(S205:NO)には、学習部43が、今回の動作データを取得して、新たに補正量候補ρ*を生成し直す(S204)。このとき、学習部43はS106と同様の生成し直した補正量候補ρ*が採用基準を満たすか否かの判定を行い、採用基準を満たした場合には、補正量候補ρ*を最適補正量ρ’として、S201に戻り、再度学習済みモデルを生成し直す。
§4 利点
本実施形態に係る制御システム1では、設定部44は、学習部43が生成した学習済みモデルを調整器30へ設定する。このとき設定部44は、学習済みモデルを設定する前に、学習済みモデルを評価し、評価結果に基づいて、調整器30に設定するか否か判定を行う。すなわち、本実施形態に係る学習装置40によると、動作データに基づいて生成された補正量候補を用いて学習を行い、生成された学習済みモデルに対して設定部44が評価を行う。例えば設定部44は、生成された学習済みモデルを用いた制御の結果に基づいて、学習済みモデルの品質の評価を行う。これによって、学習装置40は、反復実験、すなわち制御対象の実際の動作を繰り返し行うことなく補正量候補を教師データとして用いることが可能になり、適切な教師データを生成するまでの時間を短縮することができる。
§5 ハードウェア構成
次に、図6を参照しながら、上述してきた学習装置40をコンピュータ800により実現する場合のハードウェア構成の一例を説明する。なお、それぞれの装置の機能は、複数台の装置に分けて実現することもできる。
図6に示すように、コンピュータ800は、プロセッサ801、メモリ803、記憶装置805、入力I/F部807、データI/F部809、通信I/F部811、及び表示装置813を含む。
プロセッサ801は、メモリ803に記憶されているプログラムを実行することによりコンピュータ800における様々な処理を制御する。例えば、学習装置40の品質評価部42と、学習部43と、設定部44などは、メモリ803に一時記憶された上で、主にプロセッサ801上で動作するプログラムとして実現可能である。すなわち、プロセッサ801がメモリ803に一時記憶されたプログラムを解釈実行することにより、品質評価部42と、学習部43と、設定部44の働きが実現される。
メモリ803は、例えばRAM(Random Access Memory)等の記憶媒体である。メモリ803は、プロセッサ801によって実行されるプログラムのプログラムコードや、プログラムの実行時に必要となるデータを一時的に記憶する。
記憶装置805は、例えばハードディスクドライブ(HDD)やフラッシュメモリ等の不揮発性の記憶媒体である。記憶装置805は、オペレーティングシステムや、上記各構成を実現するための各種プログラムを記憶する。この他、記憶装置805は、参照モデルTdや管理テーブルを記憶することも可能である。このようなプログラムやデータは、必要に応じてメモリ803にロードされることにより、プロセッサ801から参照される。
入力I/F部807は、ユーザからの入力を受け付けるためのデバイスである。入力I/F部807の具体例としては、キーボードやマウス、タッチパネル、各種センサ、ウェアラブル・デバイス等が挙げられる。入力I/F部807は、例えばUSB(Universal Serial Bus)等のインタフェースを介してコンピュータ800に接続されても良い。
データI/F部809は、コンピュータ800の外部からデータを入力するためのデバイスである。データI/F部809の具体例としては、各種記憶媒体に記憶されているデータを読み取るためのドライブ装置等がある。データI/F部809は、コンピュータ800の外部に設けられることも考えられる。その場合、データI/F部809は、例えばUSB等のインタフェースを介してコンピュータ800へと接続される。
通信I/F部811は、コンピュータ800の外部の装置と有線又は無線により、インターネットNを介したデータ通信を行うためのデバイスである。通信I/F部811は、コンピュータ800の外部に設けられることも考えられる。その場合、通信I/F部811は、例えばUSB等のインタフェースを介してコンピュータ800に接続される。
表示装置813は、各種情報を表示するためのデバイスである。表示装置813の具体例としては、例えば液晶ディスプレイや有機EL(Electro−Luminescence)ディスプレイ、ウェアラブル・デバイスのディスプレイ等が挙げられる。表示装置813は、コンピュータ800の外部に設けられても良い。その場合、表示装置813は、例えばディスプレイケーブル等を介してコンピュータ800に接続される。
§6 他の実施形態
図7を参照して、本発明の他の実施形態に係る制御システム2の構成を説明する。図7は、制御システム2の構成の一例を示す図である。なお、既述の実施形態と共通の事柄についての記述は省略し、異なる点についてのみ説明する。特に、既述の構成には同様の符号を付し、同様の構成による同様の作用効果については実施形態毎には逐次言及しない。
制御システム2は、制御システム1におけるコントローラ10に代えて、コントローラ11を有している。また、調整器30は、コントローラ11に対して補正量ρを入力する。その他の構成、機能は既述の実施形態と同様である。
コントローラ11は、調整器30から入力された補正量ρを、生成した目標値r(t)に加えて指令値u(t)を生成し、サーボ機構20に入力する。つまり、コントローラ11の演算式は以下の式(8)である。
u(t)=r(t)+ρ・・・式(8)
コントローラ11によると、伝達関数を用いずに、単純に目標値と補正量とを加算して指令値を算出することができる。これにより伝達関数の設計が不要になるため、制御モデルの設計が容易になる。
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。
なお、前述までの説明では、学習装置40は、学習済みモデルを新たに生成する構成として説明したが、既存の学習済みモデルを更新する構成としてもよい。学習済みモデルを新たに生成する構成の場合、学習装置40は、既存の学習済みモデルを生成したときに用いた教師データに、今回新たに生成した教師データを加えたデータセットを用いた学習により、新たな学習済みモデルを生成することができる。他方、学習済みモデルを更新する構成の場合、学習装置40は、既存の学習済みモデルに対して、今回新たに生成した教師データを用いて追加学習させることで、学習済みモデルを更新することができる。
前述の実施形態の一部又は全部は、以下の付記のように記載され得るが、以下には限定されない。
(付記1)
補正量(ρ)に基づいて目標値(r)を補正した指令値(u)を出力するコントローラ(10)と、
処理対象物に対して所定の処理をするよう制御される制御対象(20)であって、前記コントローラ(10)から出力される指令値(u)が入力され、当該指令値(u)の応答として制御量が出力される制御対象(20)と、
を備える制御系(1)において、
前記処理対象物の特定のパラメータに基づいて、前記コントローラ(10)に対して所定の前記補正量(ρ)を出力するように学習された学習済みモデルを含む調整器(30)に対して、前記学習済みモデルを提供する学習装置(40)であって、
前記目標値(r)、前記指令値(u)及び前記制御量(y)を含む動作データを取得して、前記制御量(y)の品質を評価する評価部(42)と、
前記動作データに基づいて、補正量候補(ρ*)を生成し、生成した補正量候補(ρ*)と、前記処理対象物の特定のパラメータとを教師データとして学習を行い、学習済みモデルを生成する学習部(43)と、
前記生成された学習済みモデルによって出力された前記補正量に基づいて補正した指令値(u)を前記制御対象に与えたときの制御量(y)に基づいて、前記評価部(42)において評価された品質が予め定められた許容範囲内であるときに、前記学習済みモデルを前記調整器(30)に提供する設定部(44)と、
を備える学習装置(40)。
(付記2)
前記設定部(44)は、
前記制御対象に与えられた処理対象物の特定のパラメータが、前記生成された学習済みモデルの評価が未実施のパラメータに等しいとき、前記生成された学習済みモデルによって出力された補正量を前記コントローラに対して出力し、前記評価部(42)において品質を評価させる、
付記1に記載の学習装置(40)。
(付記3)
前記学習部(43)は、
前記生成された学習済みモデルが出力した補正量(ρ)に基づいて評価させた品質が前記許容範囲に満たないときに改めて学習を行い、学習済みモデルを生成し直す、
付記2に記載の学習装置(40)。
(付記4)
前記学習部(43)は、データ駆動制御によって前記補正量候補(ρ*)を生成する、
付記1乃至3の何れか一項に記載の学習装置(40)。
(付記5)
前記データ駆動制御は、VRFT、FRIT又はERITのいずれかである、
付記4に記載の学習装置(40)。
(付記6)
補正量(ρ)に基づいて目標値(r)を補正した指令値(u)を出力するコントローラ(10)と、
処理対象物に対して所定の処理をするよう制御される制御対象(20)であって、前記コントローラ(10)から出力される指令値(u)が入力され、当該指令値(u)の応答として制御量が出力される制御対象(20)と、
を備える制御系(1)において、
前記処理対象物の特定のパラメータに基づいて、前記コントローラ(10)に対して所定の前記補正量(ρ)を出力するように学習された学習済みモデルを含む調整器(30)に対して、前記学習済みモデルを提供する学習装置(40)において実行される学習方法であって、
前記学習装置(40)が、
前記目標値(r)、前記指令値(u)及び前記制御量(y)を含む動作データを取得して、前記制御量(y)の品質を評価するステップと、
前記動作データに基づいて、補正量候補(ρ*)を生成し、生成した補正量候補(ρ*)と、前記処理対象物の特定のパラメータとを教師データとして学習を行い、学習済みモデル(LM*)を生成するステップと、
前記生成された学習済みモデルによって出力された補正量に基づいて目標値を補正した指令値を前記制御対象に与えたときの制御量に基づいて、前記評価するステップにおいて評価された品質が予め定められた許容範囲内であるときに、前記学習済みモデルを前記調整器に提供するステップと、
を実行する学習方法。
(付記7)
補正量(ρ)に基づいて目標値(r)を補正した指令値(u)を出力するコントローラ(10)と、
処理対象物に対して所定の処理をするよう制御される制御対象(20)であって、前記コントローラ(10)から出力される指令値(u)が入力され、当該指令値(u)の応答として制御量が出力される制御対象(20)と、
を備える制御系(1)において、
前記処理対象物の特定のパラメータに基づいて、前記コントローラ(10)に対して所定の前記補正量(ρ)を出力するように学習された学習済みモデルを含む調整器(30)に対して、前記学習済みモデルを提供する学習装置(40)を機能させるプログラムであって、
前記学習装置(40)を、
前記目標値(r)、前記指令値(u)及び前記制御量(y)を含む動作データを取得して、前記制御量(y)の品質を評価する手段、
前記動作データに基づいて、補正量候補(ρ*)を生成し、生成した補正量候補(ρ*)と、前記処理対象物の特定のパラメータとを教師データとして学習を行い、学習済みモデルを生成する手段、及び
前記生成された学習済みモデルによって出力された補正量候補に基づいて目標値を補正した指令値を前記制御対象に与えたときの制御量に基づいて、前記評価する手段において評価された品質が予め定められた許容範囲内であるときに、前記学習済みモデル(LM*)を前記調整器に提供する手段、
として機能させるプログラム。
1、2 制御システム
10、11 コントローラ
20 サーボ機構
30 調整器
40 学習装置
41 記憶部
42 品質評価部
43 学習部
44 設定部
800 コンピュータ
801 プロセッサ
803 メモリ
805 記憶装置

Claims (7)

  1. 補正量に基づいて目標値を補正した指令値を出力するコントローラと、
    処理対象物に対して所定の処理をするよう制御される制御対象であって、前記コントローラから出力される指令値が入力され、当該指令値の応答として制御量が出力される制御対象と、
    を備える制御系において、
    前記処理対象物の特定のパラメータに基づいて、前記コントローラに対して所定の前記補正量を出力するように学習された学習済みモデルを含む調整器に対して、前記学習済みモデルを提供する学習装置であって、
    前記目標値、前記指令値及び前記制御量を含む動作データを取得して、前記制御量の品質を評価する評価部と、
    前記動作データに基づいて、補正量候補を生成し、生成した補正量候補と、前記処理対象物の特定のパラメータとを教師データとして学習を行い、学習済みモデルを生成する学習部と、
    前記生成された学習済みモデルによって出力された補正量に基づいて目標値を補正した指令値を前記制御対象に与えたときの制御量に基づいて、前記評価部において評価された品質が予め定められた許容範囲内であるときに、前記学習済みモデルを前記調整器に提供する設定部と、
    を備える学習装置。
  2. 前記設定部は、
    前記制御対象に与えられた処理対象物の特定のパラメータが、前記生成された学習済みモデルの評価が未実施のパラメータに等しいとき、前記生成された学習済みモデルによって出力された補正量を前記コントローラに対して出力し、前記評価部において品質を評価させる、
    請求項1に記載の学習装置。
  3. 前記学習部は、
    前記生成された学習済みモデルが出力した補正量に基づいて評価させた品質が、前記許容範囲に満たないときに改めて学習を行い、学習済みモデルを生成し直す、
    請求項2に記載の学習装置。
  4. 前記学習部は、データ駆動制御によって前記補正量候補を生成する、
    請求項1乃至3の何れか一項に記載の学習装置。
  5. 前記データ駆動制御は、VRFT、FRIT又はERITのいずれかである、
    請求項4に記載の学習装置。
  6. 補正量に基づいて目標値を補正した指令値を出力するコントローラと、
    処理対象物に対して所定の処理をするよう制御される制御対象であって、前記コントローラから出力される指令値が入力され、当該指令値の応答として制御量が出力される制御対象と、
    を備える制御系において、
    前記処理対象物の特定のパラメータに基づいて、前記コントローラに対して所定の前記補正量を出力するように学習された学習済みモデルを含む調整器に対して、前記学習済みモデルを提供する学習装置で実行される方法であって、
    前記学習装置が、
    前記目標値、前記指令値及び前記制御量を含む動作データを取得して、前記制御量の品質を評価するステップと、
    前記動作データに基づいて、補正量候補を生成し、生成した補正量候補と、前記処理対象物の特定のパラメータとを教師データとして学習を行い、学習済みモデルを生成するステップと、
    前記生成された学習済みモデルによって出力された補正量に基づいて目標値を補正した指令値を前記制御対象に与えたときの制御量に基づいて、前記評価するステップ部において評価された品質が予め定められた許容範囲内であるときに、前記学習済みモデルを前記調整器に提供するステップと、
    を実行する方法。
  7. 補正量に基づいて目標値を補正した指令値を出力するコントローラと、
    処理対象物に対して所定の処理をするよう制御される制御対象であって、前記コントローラから出力される指令値が入力され、当該指令値の応答として制御量が出力される制御対象と、
    を備える制御系において、
    前記処理対象物の特定のパラメータに基づいて、前記コントローラに対して所定の前記補正量を出力するように学習された学習済みモデルを含む調整器に対して、前記学習済みモデルを提供する学習装置を機能させるプログラムであって、
    前記学習装置を、
    前記目標値、前記指令値及び前記制御量を含む動作データを取得して、前記制御量の品質を評価する手段、
    前記動作データに基づいて、補正量候補を生成し、生成した補正量候補と、前記処理対象物の特定のパラメータとを教師データとして学習を行い、学習済みモデルを生成する手段、及び
    前記生成された学習済みモデルによって出力された補正量に基づいて目標値を補正した指令値を前記制御対象に与えたときの制御量に基づいて、前記評価する手段において評価された品質が予め定められた許容範囲内であるときに、前記学習済みモデルを前記調整器に提供する手段、
    として機能させるプログラム。




JP2018047865A 2018-03-15 2018-03-15 学習装置、学習方法、及びそのプログラム Active JP6536978B1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018047865A JP6536978B1 (ja) 2018-03-15 2018-03-15 学習装置、学習方法、及びそのプログラム
PCT/JP2019/009335 WO2019176772A1 (ja) 2018-03-15 2019-03-08 学習装置、学習方法、及びそのプログラム
CN201980011789.1A CN111684365B (zh) 2018-03-15 2019-03-08 学习装置、学习方法及其存储介质
US16/968,164 US11480931B2 (en) 2018-03-15 2019-03-08 Learning device, learning method, and program therefor
EP19767608.3A EP3767400B1 (en) 2018-03-15 2019-03-08 Learning device, learning method and program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018047865A JP6536978B1 (ja) 2018-03-15 2018-03-15 学習装置、学習方法、及びそのプログラム

Publications (2)

Publication Number Publication Date
JP6536978B1 JP6536978B1 (ja) 2019-07-03
JP2019160017A true JP2019160017A (ja) 2019-09-19

Family

ID=67144669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018047865A Active JP6536978B1 (ja) 2018-03-15 2018-03-15 学習装置、学習方法、及びそのプログラム

Country Status (5)

Country Link
US (1) US11480931B2 (ja)
EP (1) EP3767400B1 (ja)
JP (1) JP6536978B1 (ja)
CN (1) CN111684365B (ja)
WO (1) WO2019176772A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021245916A1 (ja) * 2020-06-05 2021-12-09

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7484382B2 (ja) 2020-04-24 2024-05-16 横河電機株式会社 制御装置、制御方法および制御プログラム
US11814053B2 (en) * 2021-10-20 2023-11-14 Micron Technology, Inc. Vehicle occupant emergency monitoring

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03164804A (ja) * 1989-11-22 1991-07-16 Hitachi Ltd プロセス制御システム及び発電プラントプロセス制御システム
JPH06314106A (ja) * 1993-04-28 1994-11-08 Yaskawa Electric Corp 学習制御装置
JPH06324710A (ja) * 1993-05-12 1994-11-25 Yaskawa Electric Corp 学習制御装置
JPH07105159A (ja) * 1993-09-30 1995-04-21 Omron Corp 情報処理装置
JP2000330610A (ja) * 1999-05-19 2000-11-30 Matsushita Electric Ind Co Ltd 学習制御装置および学習制御方法
JP2005211928A (ja) * 2004-01-29 2005-08-11 Komatsu Sanki Kk プレスシステム
JP2008102720A (ja) * 2006-10-18 2008-05-01 Omron Corp 制御装置、制御パラメータの調整装置、制御パラメータの調整方法およびプログラム
JP2009128972A (ja) * 2007-11-20 2009-06-11 Hitachi Ltd プラントの制御装置、及び火力発電プラントの制御装置
JP2012181668A (ja) * 2011-03-01 2012-09-20 Toshiba Mitsubishi-Electric Industrial System Corp 学習係数制御装置
JP2015018388A (ja) * 2013-07-10 2015-01-29 東芝三菱電機産業システム株式会社 制御パラメータ調整システム
JP2017068658A (ja) * 2015-09-30 2017-04-06 ブラザー工業株式会社 パラメータ更新方法、パラメータ更新装置、及びプログラム
WO2017094424A1 (ja) * 2015-11-30 2017-06-08 オムロン株式会社 制御装置
JP2018036773A (ja) * 2016-08-30 2018-03-08 国立大学法人広島大学 データ指向型フィードバック制御装置およびデータ指向型フィードバック制御方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5704011A (en) * 1994-11-01 1997-12-30 The Foxboro Company Method and apparatus for providing multivariable nonlinear control
JP2000089525A (ja) * 1998-09-07 2000-03-31 Toshiba Corp 調整制御システム
JP2000339005A (ja) * 1999-05-28 2000-12-08 Yamaha Motor Co Ltd 制御対象の最適化制御方法及び制御装置
GB0113627D0 (en) * 2001-06-05 2001-07-25 Univ Stirling Controller and method of controlling an apparatus
US7451004B2 (en) 2005-09-30 2008-11-11 Fisher-Rosemount Systems, Inc. On-line adaptive model predictive control in a process control system
JP2008234326A (ja) * 2007-03-20 2008-10-02 Masami Saeki Pid制御器の制御パラメータの調整方法及び調整装置
JP4427074B2 (ja) * 2007-06-07 2010-03-03 株式会社日立製作所 プラントの制御装置
WO2010105671A1 (en) * 2009-03-17 2010-09-23 Flanders' Mechatronics Technology Centre Vzw Method for controlling a torque transmitting device with learning function
JP6147687B2 (ja) * 2014-02-28 2017-06-14 株式会社東芝 制御パラメータ調整装置、および制御パラメータ調整プログラム
JP6650786B2 (ja) * 2016-03-03 2020-02-19 三菱日立パワーシステムズ株式会社 制御パラメータ自動調整装置、制御パラメータ自動調整方法、及び制御パラメータ自動調整装置ネットワーク
JP6514257B2 (ja) * 2017-03-29 2019-05-15 ファナック株式会社 機械学習装置、サーボ制御装置、サーボ制御システム、及び機械学習方法
JP6603260B2 (ja) * 2017-04-27 2019-11-06 ファナック株式会社 数値制御装置
JP6519896B1 (ja) * 2018-03-15 2019-05-29 オムロン株式会社 学習装置、学習方法、及びそのプログラム
JP6748135B2 (ja) * 2018-03-19 2020-08-26 ファナック株式会社 機械学習装置、サーボ制御装置、サーボ制御システム、及び機械学習方法
JP6740279B2 (ja) * 2018-04-13 2020-08-12 ファナック株式会社 調整装置及び調整方法

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03164804A (ja) * 1989-11-22 1991-07-16 Hitachi Ltd プロセス制御システム及び発電プラントプロセス制御システム
JPH06314106A (ja) * 1993-04-28 1994-11-08 Yaskawa Electric Corp 学習制御装置
JPH06324710A (ja) * 1993-05-12 1994-11-25 Yaskawa Electric Corp 学習制御装置
JPH07105159A (ja) * 1993-09-30 1995-04-21 Omron Corp 情報処理装置
JP2000330610A (ja) * 1999-05-19 2000-11-30 Matsushita Electric Ind Co Ltd 学習制御装置および学習制御方法
JP2005211928A (ja) * 2004-01-29 2005-08-11 Komatsu Sanki Kk プレスシステム
JP2008102720A (ja) * 2006-10-18 2008-05-01 Omron Corp 制御装置、制御パラメータの調整装置、制御パラメータの調整方法およびプログラム
JP2009128972A (ja) * 2007-11-20 2009-06-11 Hitachi Ltd プラントの制御装置、及び火力発電プラントの制御装置
JP2012181668A (ja) * 2011-03-01 2012-09-20 Toshiba Mitsubishi-Electric Industrial System Corp 学習係数制御装置
JP2015018388A (ja) * 2013-07-10 2015-01-29 東芝三菱電機産業システム株式会社 制御パラメータ調整システム
JP2017068658A (ja) * 2015-09-30 2017-04-06 ブラザー工業株式会社 パラメータ更新方法、パラメータ更新装置、及びプログラム
WO2017094424A1 (ja) * 2015-11-30 2017-06-08 オムロン株式会社 制御装置
JP2018036773A (ja) * 2016-08-30 2018-03-08 国立大学法人広島大学 データ指向型フィードバック制御装置およびデータ指向型フィードバック制御方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021245916A1 (ja) * 2020-06-05 2021-12-09
WO2021245916A1 (ja) * 2020-06-05 2021-12-09 三菱電機株式会社 サーボ制御装置
JP7275389B2 (ja) 2020-06-05 2023-05-17 三菱電機株式会社 サーボ制御装置

Also Published As

Publication number Publication date
EP3767400A4 (en) 2021-11-17
US20210041838A1 (en) 2021-02-11
CN111684365B (zh) 2022-10-21
WO2019176772A1 (ja) 2019-09-19
EP3767400A1 (en) 2021-01-20
US11480931B2 (en) 2022-10-25
CN111684365A (zh) 2020-09-18
JP6536978B1 (ja) 2019-07-03
EP3767400B1 (en) 2023-05-10

Similar Documents

Publication Publication Date Title
JP6519896B1 (ja) 学習装置、学習方法、及びそのプログラム
WO2019176772A1 (ja) 学習装置、学習方法、及びそのプログラム
US20220172130A1 (en) Multi-step time series forecasting with residual learning
JP2020515963A (ja) 設計ツールからのデータおよびデジタルツイングラフからの知識を用いた自律生成設計合成システム
KR102577188B1 (ko) 목표 시스템에 대한 제어 시스템 생성
WO1992014197A1 (en) Model forecasting controller
WO2019176370A1 (ja) 将来状態推定装置および将来状態推定方法
US11508170B2 (en) Digital handwriting synthesis
JP2020052737A (ja) 製品設計装置および該方法
US20190228327A1 (en) Free-form production based on causal predictive models
CN110796261A (zh) 基于强化学习的特征提取方法、装置和计算机设备
US20180285317A1 (en) Model generation system and model generation method
US20180197082A1 (en) Learning apparatus and method for bidirectional learning of predictive model based on data sequence
JP2019053593A (ja) 方策改善プログラム、方策改善方法、および方策改善装置
JPH06332506A (ja) 非線形制御装置
Sun et al. Stability analysis of a controlled mechanical system with parametric uncertainties in LuGre friction model
US10871416B2 (en) Calibration work support device, calibration work support method, and non-transitory computer readable storage medium
WO2019142728A1 (ja) 制御装置、制御方法およびプログラム記録媒体
JP7360162B2 (ja) 制御系設計方法及び制御装置
JPWO2015083333A1 (ja) 性能予測装置、性能予測方法、及び、コンピュータ・プログラム
JP2006338673A (ja) 設備を調整するデータ処理システムおよび方法
JP2021140216A (ja) 制御システム及び制御方法
Biehler et al. RETROFIT: Real-Time Control of Time-Dependent 3D Point Cloud Profiles
JPH07191967A (ja) 関数近似装置及び電力需要予測装置
JP2022125384A (ja) 探索装置、探索方法、および探索プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190523

R150 Certificate of patent or registration of utility model

Ref document number: 6536978

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250