JP6784722B2 - 出力装置、制御装置、及び評価関数値の出力方法 - Google Patents

出力装置、制御装置、及び評価関数値の出力方法 Download PDF

Info

Publication number
JP6784722B2
JP6784722B2 JP2018122877A JP2018122877A JP6784722B2 JP 6784722 B2 JP6784722 B2 JP 6784722B2 JP 2018122877 A JP2018122877 A JP 2018122877A JP 2018122877 A JP2018122877 A JP 2018122877A JP 6784722 B2 JP6784722 B2 JP 6784722B2
Authority
JP
Japan
Prior art keywords
machine learning
control device
output
evaluation function
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018122877A
Other languages
English (en)
Other versions
JP2020004080A (ja
Inventor
亮太郎 恒木
亮太郎 恒木
聡史 猪飼
聡史 猪飼
直人 園田
直人 園田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2018122877A priority Critical patent/JP6784722B2/ja
Priority to US16/429,515 priority patent/US11087509B2/en
Priority to DE102019209104.0A priority patent/DE102019209104A1/de
Priority to CN201910560957.4A priority patent/CN110658785B/zh
Publication of JP2020004080A publication Critical patent/JP2020004080A/ja
Application granted granted Critical
Publication of JP6784722B2 publication Critical patent/JP6784722B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/414Structure of the control system, e.g. common controller or multiprocessor systems, interface to servo, programmable interface controller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/34Director, elements to supervisory
    • G05B2219/34082Learning, online reinforcement learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Numerical Control (AREA)
  • Feedback Control In General (AREA)

Description

本発明は、工作機械、ロボット又は産業機械の軸を駆動するサーボモータを制御するサーボ制御装置に対して機械学習を行う機械学習装置から、サーボデータを用いた又は前記サーボデータを用いて計算された評価関数値を複数取得して、出力する出力装置、この出力装置を含む制御装置及び評価関数値の出力方法に関する。
工作機械の軸を駆動するサーボモータを制御する、サーボ制御装置において、評価関数の値に基づいて学習制御器を構成する帯域制限フィルタ及び動特性補償フィルタの少なくとも一方の構成を変更することが、例えば特許文献1に記載されている。
具体的には、特許文献1には、サーボ制御装置が、位置指令作成部と、送り軸の位置検出部と、位置偏差を算出する位置偏差取得部と、位置制御ループと、位置偏差の高周波成分を減衰させる帯域制限フィルタと、位相進めを実施する動特性補償要素と、帯域制限フィルタ及び動特性補償要素を含む学習制御器と、位置制御ループへの正弦波掃引を行う正弦波掃引入力部と、位置制御ループ入出力信号の利得と位相を推定する周波数特性算出部と、実測の周波数特性及び学習制御器の周波数特性に基づいて学習制御器付きの位置制御特性を示す評価関数を計算する学習制御特性評価関数算出部と、を具備し、評価関数の値に基づいて学習制御器を構成する帯域制限フィルタ及び動特性補償フィルタの少なくとも一方の構成を変更することの記載がある。
特開2017−84104号公報
工作機械、ロボット又は産業機械の軸を駆動するサーボモータを制御するサーボ制御装置のサーボ制御パラメータを機械学習装置によって機械学習する場合に、機械学習が終了するまで、通常、機械学習中のサーボ制御パラメータに係る評価関数値は表示されないため、操作者は、機械学習の進捗状況を評価関数値に基づいて確認することができない。このため、操作者は、機械学習中の評価関数値を評価して、機械学習の継続、中断、終了等の判断をすることができない。
本発明は、操作者が機械学習中のサーボ制御パラメータに係る評価関数値から機械学習の進捗状況を確認できるように、機械学習装置から評価関数値を複数取得して、出力(表示)する出力装置、この出力装置を含む制御装置及び評価関数値の出力方法を提供することを目的とする。
(1) 本発明に係る出力装置は、工作機械、ロボット又は産業機械の軸を駆動するサーボモータ(例えば、後述のサーボモータ500)を制御するサーボ制御装置(例えば、後述のサーボ制御装置100)に対して機械学習を行う機械学習装置(例えば、後述の機械学習装置200)から、サーボデータを用いた又は前記サーボデータを用いて計算された評価関数値を複数取得する情報取得部(例えば後述の情報取得部301)と、取得した複数の前記評価関数値を出力する出力部(例えば、後述の制御部305と表示部309、制御部305と記憶部306)と、を備えた出力装置である。
(2) 上記(1)の出力装置において、前記出力部は複数の前記評価関数値を表示画面に表示する表示部を含んでもよい。
(3) 上記(2)の出力装置において、機械学習中の複数の前記評価関数値の時間的推移を示す図を作成する作図部を備え、前記出力部は、作成された図を前記表示画面に表示してもよい。
(4) 上記(1)から(3)のいずれかの出力装置において、前記出力部は、複数の前記評価関数値の最小値を出力してもよい。
(5) 上記(1)から(4)のいずれかの出力装置において、機械学習開始から取得した全ての前記評価関数値の最小値を出力してもよい。
(6) 上記上記(1)から(5)のいずれかの出力装置において、リアルタイムで、取得した複数の前記評価関数値を出力してもよい。
(7) 上記上記(1)から(5)のいずれかの出力装置において、操作者が表示指示をしたときに、取得した複数の前記評価関数値を出力してもよい。
(8) 上記上記(1)から(5)のいずれかの出力装置において、学習開始時からの試行回数の累計が、予め設定した所定の回数に達したときに、取得した複数の前記評価関数値を出力してもよい。
(9) 上記上記(1)から(5)のいずれかの出力装置において、前記評価関数値が予め設定している閾値以下になったときに、取得した複数の前記評価関数値を出力してもよい。
(10) 上記上記(1)から(5)のいずれかの出力装置において、機械学習の中断時又は終了時に、取得した複数の前記評価関数値を出力してもよい。
(11) 上記(1)から(10)のいずれかの出力装置において、前記機械学習装置に対して、中断指示を出力してもよい。
(12) 上記(1)から(11)のいずれかの出力装置において、機械学習開始から取得した全ての前記評価関数値の最小値が収束したときに、中断指示を出力してもよい。
(13) 本発明に係る制御装置は、上記(1)から(12)のいずれかの出力装置と、
工作機械、ロボット又は産業機械の軸を駆動するサーボモータを制御するサーボ制御装置と、
サーボ制御装置に対して機械学習を行う機械学習装置と、
前記サーボ制御装置に制御指令を出力する数値制御装置と、
を備えた制御装置である。
(14) 上記(13)の制御装置において、前記出力装置は、前記サーボ制御装置、機械学習装置、及び数値制御装置の一つに含まれてもよい。
(15) 本発明に係る評価関数値の出力方法は、工作機械、ロボット又は産業機械の軸を駆動するサーボモータを制御するサーボ制御装置に対する機械学習に用いる評価関数値の出力方法において、
前記サーボ制御装置に対して機械学習を行う機械学習装置から、サーボデータを用いた又は前記サーボデータを用いて計算された評価関数値を複数取得し、
取得した複数の前記評価関数値を出力する、出力装置の評価関数値の出力方法である。
本発明によれば、機械学習装置から評価関数値を複数取得して、評価関数値を操作者が知りえるように出力することで、評価関数値から機械学習の進捗状況を確認することができる。
本発明の第1実施形態の制御装置に含まれるサーボ制御装置の一構成例を示すブロック図である。 サーボ制御装置の制御対象の一例となる、サーボモータを含む工作機械の一部を示すブロック図である。 学習時の加工プログラムにより指定される加工形状が八角形の場合を示す図である。 加工形状が八角形の角が一つ置きに円弧に置き換えられた形の場合を示す図である。 本発明の第1実施形態の機械学習装置を示すブロック図である。 本発明の第1実施形態の制御装置に含まれる出力装置の一構成例を示すブロック図である。 機械学習中に、機械学習の進捗状況に合わせて、状態Sに係る評価関数値の値を、表示部309に表示する場合の表示画面の一例を示す図である。 機械学習後の、調整前と調整後の位置偏差を表示部に表示する場合の表示画面の一例を示す図である。 機械学習の開始から機械学習後の調整結果表示までの、出力装置を中心とした制御装置の動作を示すフロー図である。 本発明の第2実施形態の制御装置に含まれる出力装置の一構成例を示すブロック図である。 本発明の第3実施形態の制御装置の一構成例を示すブロック図である。 本発明の他の構成の制御装置を示すブロック図である。
以下、本発明の実施形態について図面を用いて詳細に説明する。
(第1実施形態)
図1は本発明の第1実施形態の制御装置に含まれるサーボ制御装置の一構成例を示すブロック図である。図1に示す制御装置10は、サーボ制御装置100、機械学習装置200、出力装置300、及び数値制御装置400を備えている。図1ではサーボ制御装置100の構成を詳細に示しており、機械学習装置200及び出力装置の詳細な構成は後述する。サーボ制御装置100は数値制御装置400に接続され、出力装置300はサーボ制御装置100、機械学習装置200及び数値制御装置400に接続される。
サーボ制御装置100はサーボモータ500の回転を制御する。機械学習装置200はサーボ制御装置100の制御パラメータを機械学習する。出力装置300は機械学習装置200の機械学習中の情報及び機械学習結果を出力する。また、出力装置300は、機械学習装置100とサーボ制御装置100との間の情報の中継、機械学習装置100とサーボ制御装置100との動作の制御を行う調整装置としても機能する。さらに、出力装置300は、数値制御装置400に、通常の加工プログラムと、学習時の加工プログラム(評価用プログラム)と、学習時の加工プログラムよりも低速の検証時の加工プログラム(検証プログラム)と、学習時よりも高速の検証時の加工プログラム(検証プログラム)とのいずれかの起動指示を出力する。数値制御装置400は、記憶部に、通常の加工プログラムと、学習時の加工プログラムと、学習時の加工プログラムである評価用プログラムよりも低速の検証プログラムと、学習時よりも高速の検証プログラムを記憶している。
数値制御装置400は、サーボモータ500を動作させる加工プログラムに基づいて位置指令値を作成する。サーボモータ500は、例えば工作機械に含まれる。工作機械において、被加工物(ワーク)を搭載するテーブルがX軸方向及びY軸方向に移動される場合には、X軸方向及びY軸方向に対してそれぞれ図1に示すサーボ制御装置100及びサーボモータ500が設けられる。テーブルを3軸以上の方向に移動させる場合には、それぞれの軸方向に対してサーボ制御装置100及びサーボモータ500が設けられる。
数値制御装置400は、加工プログラムにより指定される加工形状となるように、送り速度を設定して位置指令値を作成する。
最初に、サーボ制御装置100について説明する。
図1に示すように、サーボ制御装置100は、減算器101、位置制御部102、加算器103、減算器104、速度制御部105、加算器106、積分器107、速度フィードフォワード計算部108、及び位置フィードフォワード計算部109を備えている。加算器106はサーボモータ500に接続されている。
速度フィードフォワード計算部108は、2回微分器1081、及び速度フィードフォワード処理部1082を備えている。位置フィードフォワード計算部109は微分器1091、位置フィードフォワード処理部1092を備えている。
数値制御装置400から出力された位置指令値は、減算器101、速度フィードフォワード計算部108、位置フィードフォワード計算部109、及び出力装置300に入力される。
減算器101は、数値制御装置400から入力される位置指令を受け、位置指令と位置フィードバックされた検出位置との差を求め、その差を位置偏差として位置制御部102及び出力装置300に出力する。
位置制御部102は、位置偏差にポジションゲインKpを乗じた値を、速度指令値として加算器103に出力する。
位置フィードフォワード計算部109の微分器1091は、位置指令値を微分して定数βを掛け、位置フィードフォワード処理部1092は微分器1091の出力に、数式1(以下に数1として示す)で示す伝達関数G(s)で示された位置フィードフォワード処理を行い、その処理結果を位置フィードフォワード項として、減算器104に出力する。数式1の係数a、b(X≧i,j≧0、Xは自然数)は位置フィードフォワード処理部1092の伝達関数G(s)の各係数である。
Figure 0006784722
加算器103は、速度指令値と位置フィードフォワード計算部109の出力値(位置フィードフォワード項)とを加算して、フィードフォワード制御された速度指令値として減算器104に出力する。減算器104は加算器103の出力と速度フィードバックされた速度検出値との差を求め、その差を速度偏差として速度制御部105に出力する。
速度制御部105は、速度偏差に積分ゲインK1vを乗じて積分した値と、速度偏差に比例ゲインK2vを乗じた値とを加算して、トルク指令値として加算器106に出力する。
速度フィードフォワード計算部108の2回微分器1081は、位置指令値を2回微分して定数αを掛け、速度フィードフォワード処理部1082は2回微分器1081の出力に、数式2(以下に数2として示す)で示された伝達関数F(s)で示される速度フィードフォワード処理を行い、その処理結果を速度フィードフォワード項として、加算器106に出力する。数式2の係数c、d(X≧i,j≧0、Xは自然数)は速度フィードフォワード処理部1082の伝達関数F(s)の各係数である。
Figure 0006784722
加算器106は、トルク指令値と速度フィードフォワード計算部108の出力値(速度フィードフォワード項)とを加算して、フィードフォワード制御されたトルク指令値としてサーボモータ500に出力してサーボモータ500を駆動する。
サーボモータ500の回転角度位置は、サーボモータ500に関連付けられた、位置検出部となるロータリーエンコーダによって検出され、速度検出値は速度フィードバックとして減算器104に入力される。速度検出値は積分器107で積分されて位置検出値となり、位置検出値は位置フィードバックとして減算器101に入力される。
以上のように、サーボ制御装置100は構成される。
次に、サーボ制御装置100により制御されるサーボモータ500を含む制御対象600について説明する。
図2はサーボ制御装置100の制御対象600の一例となる、サーボモータを含む工作機械の一部を示すブロック図である。
サーボ制御装置100は、サーボモータ500で連結機構602を介してテーブル603を移動させることで、テーブル603の上に搭載された被加工物(ワーク)を加工する。連結機構602は、サーボモータ500に連結されたカップリング6021と、カップリング6021に固定されるボールねじ6023とを有し、ボールねじ6023にナット6022が螺合されている。サーボモータ500の回転駆動によって、ボールねじ6023に螺着されたナット6022がボールねじ6023の軸方向に移動する。ナット6022の移動によってテーブル603が移動する。
サーボモータ500の回転角度位置は、サーボモータ500に関連付けられた、位置検出部となるロータリーエンコーダ601によって検出される。上述したように、検出された信号は速度フィードバックとして利用される。検出された信号は積分器107で積分することで位置フィードバックとして利用される。なお、ボールねじ6023の端部に取り付けられ、ボールねじ6023の移動距離を検出するリニアスケール604出力を位置フィードバックとして用いてもよい。また、加速度センサを用いて位置フィードバックを生成してもよい。
次に、機械学習装置200について説明する。
機械学習装置200は、位置フィードフォワード処理部1092の伝達関数の係数と、速度フィードフォワード処理部1082の伝達関数の係数とを機械学習(以下、学習という)する。
機械学習装置200は、速度フィードフォワード処理部1082の伝達関数の係数の学習と、位置フィードフォワード処理部1092の伝達関数の係数の学習とは別に行い、位置フィードフォワード処理部1092より内側(インナーループ)にある速度フィードフォワード処理部1082の伝達関数の係数の学習を位置フィードフォワード処理部1092の伝達関数の係数の学習よりも先に行う。具体的には、位置フィードフォワード処理部1092の伝達関数の係数を固定し、速度フィードフォワード処理部1082の伝達関数の係数の最適な値を学習する。その後に、機械学習装置200は、速度フィードフォワード処理部1082の伝達関数の係数を学習で得られた最適な値に固定して、位置フィードフォワード処理部1092の伝達関数の係数を学習する。
そうすることで、学習により最適化された速度フィードフォワード項の条件下で、位置フィードフォワード処理部1092の伝達関数の係数の最適化に係る学習を行うことができ、位置偏差の変動を抑制することができる。
このため、位置フィードフォワード処理部1092より内側(インナーループ)にある速度フィードフォワード処理部1082の伝達関数の係数の学習が位置フィードフォワード処理部1092の伝達関数の係数の学習より先にした方が、位置偏差の変動を抑制し、高精度化を実現できる。
以下の説明では、速度フィードフォワード処理部1082の伝達関数の係数に係る機械学習(強化学習)を例として説明する。なお、本実施形態では、機械学習の一例として強化学習について説明するが、機械学習は特に強化学習に限定されない。
機械学習装置200は、予め設定された加工プログラム(「学習時の加工プログラム」となり、評価プログラムともいう)を実行することで、速度フィードフォワード処理部1082の伝達関数の係数を機械学習(以下、学習という)する。
ここで、学習時の加工プログラムにより指定される加工形状は、例えば、図3に示す八角形、及び/又は図4に示す八角形の角が一つ置きに円弧に置き換えられた形等である。
ここでは、学習時の加工プログラムにより指定される加工形状の位置A1と位置A3、及び/又は位置B1と位置B3により、線形制御において回転速度が変更されたときの振動を評価し、位置偏差に対する影響を調べることで、伝達関数G(s)に係る係数の学習を行うものとする。
なお、加工形状の位置A2と位置A4、及び/又は位置B2と位置B4により、回転方向が反転する場合に生ずる惰走(いわゆる「象限突起」)を評価し、位置偏差に対する影響を調べることで、象限突起を抑制する補正量を算出するための伝達関数の係る係数の学習を行うこともできる。
機械学習装置200に含まれる各機能ブロックの説明に先立って、まず強化学習の基本的な仕組みについて説明する。エージェント(本実施形態における機械学習装置200に相当)は、環境の状態を観測し、ある行動を選択し、当該行動に基づいて環境が変化する。環境の変化に伴って、何らかの報酬が与えられ、エージェントはより良い行動の選択(意思決定)を学習する。
教師あり学習が、完全な正解を示すのに対して、強化学習における報酬は、環境の一部の変化に基づく断片的な値であることが多い。このため、エージェントは、将来にわたっての報酬の合計を最大にするように行動を選択するように学習する。
このように、強化学習では、行動を学習することにより、環境に行動が与える相互作用を踏まえて適切な行動を学習、すなわち将来的に得られる報酬を最大にするための学習する方法を学ぶ。これは、本実施形態において、例えば、位置偏差を低減するための行動情報を選択するという、未来に影響をおよぼすような行動を獲得できることを表している。
ここで、強化学習としては、任意の学習方法を用いることができるが、以下の説明では、或る環境の状態Sの下で、行動Aを選択する価値Q(S,A)を学習する方法であるQ学習(Q-learning)を用いる場合を例にとって説明をする。
Q学習では、或る状態Sのとき、取り得る行動Aのなかから、価値Q(S,A)の最も高い行動Aを最適な行動として選択することを目的とする。
しかしながら、Q学習を最初に開始する時点では、状態Sと行動Aとの組合せについて、価値Q(S,A)の正しい値は全く分かっていない。そこで、エージェントは、或る状態Sの下で様々な行動Aを選択し、その時の行動Aに対して、与えられる報酬に基づいて、より良い行動の選択をすることにより、正しい価値Q(S,A)を学習していく。
また、将来にわたって得られる報酬の合計を最大化したいので、最終的にQ(S,A)=E[Σ(γ)r]となるようにすることを目指す。ここでE[]は期待値を表し、tは時刻、γは後述する割引率と呼ばれるパラメータ、rは時刻tにおける報酬、Σは時刻tによる合計である。この式における期待値は、最適な行動に従って状態変化した場合の期待値である。しかしQ学習の過程において最適な行動が何であるのかは不明であるので、様々な行動を行うことにより、探索しながら強化学習をする。このような価値Q(S,A)の更新式は、例えば、次の数式3(以下に数3として示す)により表すことができる。
Figure 0006784722
上記の数式3において、Sは、時刻tにおける環境の状態を表し、Aは、時刻tにおける行動を表す。行動Aにより、状態はSt+1に変化する。rt+1は、その状態の変化により得られる報酬を表している。また、maxの付いた項は、状態St+1の下で、その時に分かっている最もQ値の高い行動Aを選択した場合のQ値にγを乗じたものになる。ここで、γは、0<γ≦1のパラメータで、割引率と呼ばれる。また、αは、学習係数で、0<α≦1の範囲とする。
上述した数式3は、試行Aの結果、返ってきた報酬rt+1を元に、状態Sにおける行動Aの価値Q(S,A)を更新する方法を表している。
この更新式は、状態Sにおける行動Aの価値Q(S,A)よりも、行動Aによる次の状態St+1における最良の行動の価値max Q(St+1,A)の方が大きければ、Q(S,A)を大きくし、逆に小さければ、Q(S,A)を小さくすることを示している。つまり、或る状態における或る行動の価値を、それによる次の状態における最良の行動の価値に近づける。ただし、その差は、割引率γと報酬rt+1のあり方により変わってくるが、基本的には、ある状態における最良の行動の価値が、それに至る一つ前の状態における行動の価値に伝播していく仕組みになっている。
ここで、Q学習では、すべての状態行動ペア(S,A)についてのQ(S,A)のテーブルを作成して、学習を行う方法がある。しかし、すべての状態行動ペアのQ(S,A)の値を求めるには状態数が多すぎて、Q学習が収束するのに多くの時間を要してしまう場合がある。
そこで、公知のDQN(Deep Q-Network)と呼ばれる技術を利用するようにしてもよい。具体的には、価値関数Qを適当なニューラルネットワークを用いて構成し、ニューラルネットワークのパラメータを調整することにより、価値関数Qを適当なニューラルネットワークで近似することにより価値Q(S,A)の値を算出するようにしてもよい。DQNを利用することにより、Q学習が収束するのに要する時間を短くすることが可能となる。なお、DQNについては、例えば、以下の非特許文献に詳細な記載がある。
<非特許文献>
「Human-level control through deep reinforcement learning」、Volodymyr Mnih1著[online]、[平成29年1月17日検索]、インターネット〈URL:http://files.davidqiu.com/research/nature14236.pdf〉
以上説明をしたQ学習を機械学習装置200が行う。具体的には、機械学習装置200は、サーボ制御装置100における、速度フィードフォワード処理部1082の伝達関数の各係数c、d(X≧i,j≧0)の値、並びに学習時の加工プログラムを実行することで取得されるサーボ制御装置100の位置偏差情報、及び位置指令を含む、指令及びフィードバック等のサーボ状態を状態Sとして、当該状態Sに係る、速度フィードフォワード処理部1082の伝達関数の各係数c、dの値の調整を行動Aとして選択する価値Qを学習する。
機械学習装置200は、速度フィードフォワード処理部1082の伝達関数の各係数c、dの値に基づいて、学習時の加工プログラムを実行することで前述した加工形状の位置A1と位置A3、及び/又は位置B1と位置B3における、サーボ制御装置100の位置指令及び位置偏差情報を含む、指令及びフィードバック等のサーボ状態を含む状態情報Sを観測して、行動Aを決定する。機械学習装置200は、行動Aをするたびに報酬が返ってくる。機械学習装置200は、例えば、将来にわたっての報酬の合計が最大になるように最適な行動Aを試行錯誤的に探索する。そうすることで、機械学習装置200は、速度フィードフォワード処理部1082の伝達関数の各係数c、dの値に基づいて、学習時の加工プログラムを実行することで取得されるサーボ制御装置100の位置指令及び位置偏差情報を含む指令、フィードバック等のサーボ状態を含む状態Sに対して、最適な行動A(すなわち、速度フィードフォワード処理部1082の最適な係数c、d)を選択することが可能となる。機械学習装置200は線形動作時の速度フィードフォワード処理部1082の伝達関数の各係数c、dの学習を行うことができる。
すなわち、機械学習装置200により学習された価値関数Qに基づいて、或る状態Sに係る速度フィードフォワード処理部1082の伝達関数の各係数c、dに対して適用される行動Aのうち、Qの値が最大となるような行動Aを選択することで、学習時の加工プログラムを実行することで取得される位置偏差が最小になるような行動A(すなわち、速度フィードフォワード処理部1082の係数c、dを選択することが可能となる。
図5は第1実施形態の機械学習装置200を示すブロック図である。
上述した強化学習を行うために、図5に示すように、機械学習装置200は、状態情報取得部201、学習部202、行動情報出力部203、価値関数記憶部204、及び最適化行動情報出力部205を備える。学習部202は報酬出力部2021、価値関数更新部2022、及び行動情報生成部2023を備える。
状態情報取得部201は、サーボ制御装置100における速度フィードフォワード処理部1082の伝達関数の各係数c、d、及びこれらの係数に基づいて、学習時の加工プログラムを実行することで取得されるサーボ制御装置100の位置指令及び位置偏差情報を含む指令、フィードバック等のサーボ状態を含む状態Sを、サーボ制御装置100から取得する。この状態Sは、Q学習における、環境状態Sに相当する。
状態情報取得部201は、取得した状態Sを学習部202に対して出力する。
なお、最初にQ学習を開始する時点での速度フィードフォワード処理部1082の係数c、dは、予めユーザが生成するようにする。本実施形態では、ユーザが作成した速度フィードフォワード処理部1082の係数c、dの初期設定値を、強化学習により最適なものに調整する。微分器112の係数βを固定値とし、例えばα=1とする。また、速度フィードフォワード処理部1082の係数c、dは例えば、初期設定値として、数式2のc=1、c=0、c=0、d=1、d=0、d=0、とする。また、係数c、dの次元m、nを予め設定する。すなわち、cについては0≦i≦m dについては0≦j≦nとする。
なお、係数c、dは予め操作者が工作機械を調整している場合には、調整済の値を初期値として機械学習してもよい。
学習部202は、或る環境状態Sの下で、ある行動Aを選択する場合の価値Q(S,A)を学習する部分である。
報酬出力部2021は、或る状態Sの下で、行動Aを選択した場合の報酬を算出する部分である。ここで、状態Sにおける状態変数である位置偏差の集合(位置偏差集合)をPD(S)、行動情報Aにより状態Sから変化した状態情報S´に係る状態変数である位置偏差集合をPD(S´)で示す。また、状態Sにおける位置偏差の値を、予め設定された評価関数f(PD(S))に基づいて算出される値とする。行動情報Aは速度フィードフォワード処理部1082の各係数c、d(i,jは0及び正の整数を示す)の修正である。
ここで、状態Sにおける状態変数である位置偏差の集合とは、前述した加工形状の位置A1と位置A3、及び/又は位置B1と位置B3を含む所定の範囲内で計測される位置偏差の集合を意味する。
評価関数fにより得られる評価関数値は、サーボデータとなる位置偏差を用いて又は位置偏差から計算して得ることができる。
評価関数fとしては、例えば、
位置偏差の絶対値の積算値を算出する関数
∫|e|dt
位置偏差の絶対値に時間の重み付けをして積算値を算出する関数
∫t|e|dt
位置偏差の絶対値の2n(nは自然数)乗の積算値を算出する関数
∫e2ndt(nは自然数)
位置偏差の絶対値の最大値を算出する関数
Max{|e|}
等を適用することができる。
報酬出力部2021は、試行ごとに得られる評価関数値の集合を試行回数ごとに記憶部に記憶し、出力装置300から評価関数値の出力要求があった場合は、出力装置300に試行回数と関連づけて評価関数値の集合を出力する。報酬出力部2021は、速度フィードフォワード、位置フィードフォワード等の調整対象、試行回数、及び最大試行回数も記憶し、評価関数値の集合とともに出力装置300に出力する。
また、報酬出力部2021は、調整前(学習開始時)の制御パラメータにより加工処理した場合の位置偏差の集合と、調整後(学習終了後)の制御パラメータにより加工処理した場合の位置偏差の集合とを記憶部に記憶し、出力装置300からこれらの位置偏差の集合の出力要求があった場合は、これらの位置偏差の集合を出力する。
このとき、行動情報Aにより修正された状態情報S´に係る修正後の速度フィードフォワード処理部1082に基づいて動作したサーボ制御装置100の位置偏差の値f(PD(S´))が、行動情報Aにより修正される前の状態情報Sに係る修正前の速度フィードフォワード処理部1082に基づいて動作したサーボ制御装置100の位置偏差の値f(PD(S))よりも大きくなった場合に、報酬出力部2021は、報酬の値を負の値とする。
一方で、行動情報Aにより修正された状態情報S´に係る修正後の速度フィードフォワード処理部1082に基づいて動作したサーボ制御装置100の位置偏差の値f(PD(S´))が、行動情報Aにより修正される前の状態情報Sに係る修正前の速度フィードフォワード処理部1082に基づいて動作したサーボ制御装置100の位置偏差の値f(PD(S))よりも小さくなった場合に、報酬出力部2021は、報酬の値を正の値とする。
なお、行動情報Aにより修正された状態情報S´に係る修正後の速度フィードフォワード処理部1082に基づいて動作したサーボ制御装置100の位置偏差の値f(PD(S´))が、行動情報Aにより修正される前の状態情報Sに係る修正前の速度フィードフォワード処理部1082に基づいて動作したサーボ制御装置100の位置偏差の値f(PD(S))と等しい場合は、報酬出力部2021は、報酬の値をゼロとするようにしてもよい。
また、行動Aを実行後の状態S´の位置偏差の値f(PD(S´))が、前の状態Sにおける位置偏差の値f(PD(S))より大きくなった場合の負の値としては、比率に応じて負の値を大きくするようにしてもよい。つまり位置偏差の値が大きくなった度合いに応じて負の値が大きくなるようにするとよい。逆に、行動Aを実行後の状態S´の位置偏差の値f(PD(S´))が、前の状態Sにおける位置偏差の値f(PD(S))より小さくなった場合の正の値としては、比率に応じて正の値を大きくするようにしてもよい。つまり位置偏差の値が小さくなった度合いに応じて正の値が大きくなるようにするとよい。
価値関数更新部2022は、状態Sと、行動Aと、行動Aを状態Sに適用した場合の状態S´と、上記のようにして算出された報酬の値と、に基づいてQ学習を行うことにより、価値関数記憶部204が記憶する価値関数Qを更新する。
価値関数Qの更新は、オンライン学習で行ってもよく、バッチ学習で行ってもよく、ミニバッチ学習で行ってもよい。
オンライン学習は、或る行動Aを現在の状態Sに適用することにより、状態Sが新たな状態S´に遷移する都度、即座に価値関数Qの更新を行う学習方法である。また、バッチ学習は、或る行動Aを現在の状態Sに適用することにより、状態Sが新たな状態S´に遷移することを繰り返すことにより、学習用のデータを収集し、収集した全ての学習用データを用いて、価値関数Qの更新を行う学習方法である。更に、ミニバッチ学習は、オンライン学習と、バッチ学習の中間的な、ある程度学習用データが溜まるたびに価値関数Qの更新を行う学習方法である。
行動情報生成部2023は、現在の状態Sに対して、Q学習の過程における行動Aを選択する。行動情報生成部2023は、Q学習の過程において、サーボ制御装置100の速度フィードフォワード処理部1082の各係数c、dを修正する動作(Q学習における行動Aに相当)を行わせるために、行動情報Aを生成して、生成した行動情報Aを行動情報出力部203に対して出力する。より具体的には、行動情報生成部2023は、例えば、状態Sに含まれる速度フィードフォワード処理部1082の各係数c、dに対して行動Aに含まれる、速度フィードフォワード処理部1082の各係数c、dをインクレメンタル(例えば0.01程度)に加算又は減算させる。
そして、行動情報生成部2023は、速度フィードフォワード処理部1082の各係数c、dの増加又は減少を適用して、状態S´に遷移して、プラスの報酬(正の値の報酬)が返った場合、次の行動A´としては、速度フィードフォワード処理部1082の各係数c、dに対して、前回のアクションと同様にインクレメンタルに加算又は減算させる等、位置偏差の値がより小さくなるような行動A´を選択する方策を取るようにしてもよい。
また、逆に、マイナスの報酬(負の値の報酬)が返った場合、行動情報生成部2023は、次の行動A´としては、例えば、速度フィードフォワード処理部1082の各係数c、dに対して、前回のアクションとは逆にインクレメンタルに減算又は加算させる等、位置偏差が前回の値よりも小さくなるような行動A´を選択する方策を取るようにしてもよい。
また、行動情報生成部2023は、現在の推定される行動Aの価値の中で、最も価値Q(S,A)の高い行動A´を選択するグリーディ法、又はある小さな確率εでランダムに行動A´選択し、それ以外では最も価値Q(S,A)の高い行動A´を選択するεグリーディ法といった公知の方法により、行動A´を選択する方策を取るようにしてもよい。
行動情報出力部203は、学習部202から出力される行動情報Aをサーボ制御装置100に対して送信する部分である。サーボ制御装置100は上述したように、この行動情報に基づいて、現在の状態S、すなわち現在設定されている速度フィードフォワード処理部1082の各係数c、dを微修正することで、次の状態S´(すなわち修正された、速度フィードフォワード処理部1082の各係数c、d)に遷移する。
価値関数記憶部204は、価値関数Qを記憶する記憶装置である。価値関数Qは、例えば状態S、行動A毎にテーブル(以下、行動価値テーブルと呼ぶ)として格納してもよい。価値関数記憶部204に記憶された価値関数Qは、価値関数更新部2022により更新される。また、価値関数記憶部204に記憶された価値関数Qは、他の機械学習装置200との間で共有されるようにしてもよい。価値関数Qを複数の機械学習装置200で共有するようにすれば、各機械学習装置200にて分散して強化学習を行うことが可能となるので、強化学習の効率を向上させることが可能となる。
最適化行動情報出力部205は、価値関数更新部2022がQ学習を行うことにより更新した価値関数Qに基づいて、価値Q(S,A)が最大となる動作を速度フィードフォワード処理部1082に行わせるための行動情報A(以下、「最適化行動情報」と呼ぶ)を生成する。
より具体的には、最適化行動情報出力部205は、価値関数記憶部204が記憶している価値関数Qを取得する。この価値関数Qは、上述したように価値関数更新部2022がQ学習を行うことにより更新したものである。そして、最適化行動情報出力部205は、価値関数Qに基づいて、行動情報を生成し、生成した行動情報をサーボ制御装置100(速度フィードフォワード処理部1082)に対して出力する。この最適化行動情報には、行動情報出力部203がQ学習の過程において出力する行動情報と同様に、速度フィードフォワード処理部1082の各係数c、dを修正する情報が含まれる。
サーボ制御装置100では、この行動情報に基づいて速度フィードフォワード処理部1082の各係数c、dが修正される。
機械学習装置200は、以上の動作で、速度フィードフォワード処理部1082の各係数ci、djの学習及び最適化を行い、位置偏差の値を低減するように動作することができる。
以上のように、本実施形態に係る機械学習装置200を利用することで、サーボ制御装置100の速度フィードフォワード処理部1082の補正パラメータ(係数c、d)調整を簡易化することができる。補正パラメータ(係数c、d)調整により速度フィードフォワード処理部1082の速度フィードフォワード項の調整がなされる。
以上、サーボ制御装置100、機械学習装置200に含まれる機能ブロックについて説明した。
これらの機能ブロックを実現するために、サーボ制御装置100、及び機械学習装置200のそれぞれは、CPU(Central Processing Unit)等の演算処理装置を備える。また、サーボ制御装置100、及び機械学習装置200のそれぞれは、アプリケーションソフトウェアやOS(Operating System)等の各種の制御用プログラムを格納したHDD(Hard Disk Drive)等の補助記憶装置や、演算処理装置がプログラムを実行する上で一時的に必要とされるデータを格納するためのRAM(Random Access Memory)といった主記憶装置も備える。
そして、サーボ制御装置100、及び機械学習装置200のそれぞれにおいて、演算処理装置が補助記憶装置からアプリケーションソフトウェアやOSを読み込み、読み込んだアプリケーションソフトウェアやOSを主記憶装置に展開させながら、これらのアプリケーションソフトウェアやOSに基づいた演算処理を行なう。また、この演算結果に基づいて、各装置が備える各種のハードウェアを制御する。これにより、本実施形態の機能ブロックは実現される。つまり、本実施形態は、ハードウェアとソフトウェアが協働することにより実現することができる。
機械学習装置200については機械学習に伴う演算量が多いため、例えば、パーソナルコンピュータにGPU(Graphics Processing Units)を搭載し、GPGPU(General-Purpose computing on Graphics Processing Units)と呼ばれる技術により、GPUを機械学習に伴う演算処理に利用するようにすると高速処理できるようになるのでよい。更には、より高速な処理を行うために、このようなGPUを搭載したコンピュータを複数台用いてコンピュータ・クラスターを構築し、このコンピュータ・クラスターに含まれる複数のコンピュータにて並列処理を行うようにしてもよい。
以上、機械学習装置200による、速度フィードフォワード処理部1082の係数の学習について説明したが、位置フィードフォワード処理部1092の伝達関数の係数の機械学習も同様にして行われる。すなわち、第1実施形態における速度フィードフォワード処理部1082を位置フィードフォワード処理部1092に読み換えるとともに、速度フィードフォワード処理部1082の各係数c、dを位置フィードフォワード処理部1092の伝達関数の各係数a、bに読み換えることで学習動作を説明できる。
本実施形態において、機械学習装置200は、速度フィードフォワード処理部1082の伝達関数の係数の学習を先に行い、速度フィードフォワード処理部1082の伝達関数の係数を最適化した後に、位置フィードフォワード処理部1092の伝達関数の係数の学習を行うようにしたが、本実施形態は、これに限定されない。
例えば、機械学習装置200は、位置フィードフォワード処理部1092の伝達関数の係数、及び速度フィードフォワード処理部1082の伝達関数の係数を同時に学習するようにしてもよい。このように、機械学習装置200が同時に学習した場合、二つの学習が相互に干渉して情報処理量が増大する可能性がある。
また、本実施形態では、位置フィードフォワード計算部109と、速度フィードフォワード計算部108と、を備えるものとした。
しかし、位置フィードフォワード計算部109か速度フィードフォワード計算部108かのいずれかを備えるものとしてもよい。その場合、例えば、位置フィードフォワード計算部109のみを設けるときには、2回微分器1081、速度フィードフォワード処理部1082、及び加算器106は不要となる。
次に、出力装置300について説明する。
図6は、本発明の第1実施形態の制御装置に含まれる出力装置の一構成例を示すブロック図である。図6に示すように、出力装置300は、情報取得部301、情報出力部302、作図部303、操作部304、制御部305、記憶部306、情報取得部307、情報出力部308、及び表示部309を有する。情報取得部301は、機械学習装置から評価関数を複数取得する情報取得部となる。制御部305及び表示部309は、評価関数を出力する出力部となる。出力部の表示部309は液晶表示装置、プリンター等を用いることができる。出力は記憶部306に記憶することも含まれ、その場合、出力部は制御部305及び記憶部306となる。
出力装置300は、機械学習装置200の機械学習中での学習動作、具体的には強化学習時の評価関数値(例えば上述した状態Sに係る評価関数値f(PD(S)))の推移を図又は文字で示し、また強化学習後の調整結果(例えば、位置偏差の抑制)及び機械学習の検証結果を図又は文字で示す出力機能を備えている。
また、出力装置300は、機械学習装置100とサーボ制御装置100との間の情報(例えば、位置偏差、位置指令、速度フィードフォワード計算部の係数、及び速度フィードフォワード計算部の係数の修正情報)の中継、機械学習装置100の動作の制御(例えば、機械学習装置に対する学習プログラム起動指示を行う調整機能を備えている。
さらに、出力装置300は、数値制御装置400に、通常の加工プログラムと、学習時の加工プログラム(評価用プログラム)と、学習時の加工プログラムよりも低速の検証時の加工プログラム(検証プログラム)と、学習時よりも高速の検証時の加工プログラム(検証プログラム)とのいずれかの起動指示を出力する調整機能も備えている。
機械学習装置200の情報の出力機能について、図6〜図8を用いて説明する。図7は機械学習中に、機械学習の進捗状況に合わせて、状態Sに係る評価関数値f(PD(S))を、表示部309に表示する場合の表示画面の一例を示す図、図8は機械学習後の、調整前と調整後の位置偏差を表示部309に表示する場合の表示画面の一例を示す図である。
まず出力装置300が、機械学習中のサーボ制御パラメータに係る評価関数値を出力する場合について説明する。
図7に示すように、表示画面は例えば調整フローの欄、トルクリミットの欄を備えている。また、表示画面は、例えば速度フィードフォワード等の調整対象、データ採取中等のステータス(状態)、予め設定された当該機械学習終了までの試行回数(以下「最大試行回数」ともいう)に対する現在までの試行回数の累計を示す試行回数、機械学習開始から現在までの試行において取得した評価関数値集合の内の最小値、及び中断を選択するボタンを示す欄と、その欄の下に、試行回数で関連付けられる各試行ごとの評価関数値を点で示すとともに、機械学習開始から試行回数で関連付けられる各試行までに取得した評価関数値集合の内の最小値の推移を折れ線で示す図の欄とを備えている。
調整フローの欄は、例えば軸選択、パラメータ確認、プログラム確認・編集、プログラム起動、機械学習中、調整結果からなる。
操作者が、液晶表示装置等の表示部309の図7に示す表示画面の「調整フロー」の欄の「機械学習中」をマウス、キーボード等の操作部304で選択すると、制御部305は、情報出力部302を介して機械学習装置200に対して、試行回数で関連付けられる状態Sに係る評価関数値f(PD(S)))、当該機械学習の調整対象(学習対象)に関する情報、試行回数、最大試行回数を含む情報等の出力指示を送る。
情報取得部301が、機械学習装置200から、試行回数で関連付けられる状態Sに係る評価関数値f(PD(S)))、当該機械学習の調整対象(学習対象)に関する情報、試行回数、最大試行回数を含む情報等を受信すると、制御部305は、記憶部306に受信した情報を記憶するとともに、それまでに記憶した試行回数と関連づけられた状態Sに係る評価関数値f(PD(S)))の集合の最小値と、試行開始から所定の試行回数までの状態Sに係る評価関数値f(PD(S)))の集合(機械学習開始から取得した全ての評価関数値)の最小値の推移とを求め、その最小値の推移と、受信した試行回数と関連づけられた状態Sに係る評価関数値f(PD(S)とを記憶部306に記憶し、作図部303に制御を移す。作図部303は、試行回数と関連づけられた状態Sに係る評価関数値f(PD(S)))の集合の最小値に基づいて散布図を作成し、その散布図に、試行開始から所定の試行回数までの状態Sに係る評価関数値f(PD(S)))の集合の最小値の推移を折れ線を加える処理を行い、その散布図の画像情報を作成し、制御部305に制御を移す。制御部305は、最小値の推移を示す折れ線が加えられた散布図を図7に示すように表示する。
また制御部305は、例えば速度フィードフォワードが調整対象であることを示す情報に基づいて、図7に示すように、表示画面の調整対象欄に速度フィードフォワードと表示し、試行回数が最大試行回数に達していない場合は表示画面のステータス欄にデータ採取中と表示する。さらに制御部305は、表示画面の試行回数欄に、最大試行回数に対する試行回数の比、ここでは最大試行回数が100回に対する試行回数85の比85/100を表示し、試行開始から現在の試行回数までの状態Sに係る評価関数値f(PD(S)))の最小値を26.634と表示する。
なお、図7に記載の表示画面は、一例であって、これに限られない。上記に例示した項目以外の情報を表示してもよい。また、上記に例示したいくつかの項目の情報表示を省略してもよい。
また、上記説明においては、制御部305は、機械学習装置200から受信した情報を、記憶部306に記憶するとともにリアルタイムに、試行回数で関連付けられる状態Sに係る評価関数値f(PD(S)))に関する情報を表示部309に表示するものとしたが、これに限られない。
例えば、リアルタイムで表示しない実施例としては以下の例がある。
変形例1:操作者(オペレータ)が表示指示をしたときに、図7に記載の情報(機械学習装置200でそれまでに行われた学習(試行結果)の情報)を表示する。
変形例2:(学習開始時からの)試行回数の累計が、予め設定した所定の回数に達したときに、図7に記載の情報(機械学習装置200でそれまでに行われた学習(試行結果)の情報)を表示する。
変形例3:状態Sに係る評価関数値f(PD(S)))が予め設定している閾値以下になったときに、図7に記載の情報(機械学習装置200でそれまでに行われた学習(試行結果)の情報)を表示する。
変形例4:機械学習の中断時又は終了時に図7に記載の情報(機械学習装置200でそれまでに行われた学習(試行結果)の情報)を表示する。
以上の変形例1〜4においても、上述したリアルタイムでの表示の動作と同様に、情報取得部301が、機械学習装置200から、試行回数で関連付けられる状態Sに係る評価関数値f(PD(S)))、当該機械学習の調整対象(学習対象)に関する情報、試行回数、最大試行回数を含む情報等を受信すると、制御部305は、記憶部306に受信した情報を記憶する。その後は、変形例1では操作者(オペレータ)が表示指示をしたとき、変形例2では、試行回数の累計が、予め設定した所定の回数に達したとき、変形例3では、状態Sに係る評価関数値f(PD(S)))が予め設定している閾値以下になったとき、変形例4では機械学習の中断時又は終了時に、制御部305は作図部に制御を移す動作を行う。
次に、出力装置300が調整前及び調整後のサーボ制御動作を出力する場合について説明する。
操作者が、図8の表示画面で、表示部309の図8に示す表示画面の「調整フロー」の欄の「調整結果」をマウス、キーボード等の操作部304で選択すると、制御部305は、情報出力部302を介して機械学習装置200に対して、調整前(学習開始時)の制御パラメータにより加工処理した場合の位置偏差の集合と、調整後(学習終了後)の制御パラメータにより加工処理した場合の位置偏差の集合との情報の出力指示を送る。
また、制御部305は、情報出力部308を介して数値制御装置400に、学習時の加工プログラムである評価用プログラムよりも低速の検証プログラムと、評価用プログラムよりも高速の検証プログラムとを順次起動させる指示と、低速の検証プログラムの動作時の位置偏差の集合と、高速の検証プログラムの動作時の位置偏差の集合との情報の出力指示を送るようにしてもよい。
情報取得部301が、機械学習装置200から、調整前(学習開始時)の制御パラメータにより加工処理した場合の位置偏差の集合と、調整後(学習終了後)の制御パラメータにより加工処理した場合の位置偏差の集合との情報を受信すると、制御部305は記憶部306に受信した情報を記憶するとともに、作図部303に制御を移す。作図部303は、調整前と調整後の位置偏差の集合から、調整前の位置偏差の時間変化を示す図と、調整後の位置偏差の時間変化を示す図の画像情報を作成し、制御部305に制御を移す。制御部305は、調整前の位置偏差の時間変化を示す図と、調整後の位置偏差の時間変化を示す図を図8の表示画面に表示する。
次に、出力装置300が検証結果を出力する場合について説明する。
操作者が、図8の表示画面で、表示部309の図8に示す表示画面の「調整フロー」の欄の「調整結果」をマウス、キーボード等の操作部304で選択したときに、出力装置300が検証結果を出力するようにしてもよい。出力装置300は、「調整結果」が選択されたときに、数値制御装置400に、学習時の加工プログラムよりも低速の検証時の加工プログラム(検証プログラム)と、学習時よりも高速の検証時の加工プログラム(検証プログラム)とのいずれかの起動指示を出力する。サーボ制御装置100は、数値制御装置400から出力される位置指令に基づいてサーボモータ500のサーボ制御を行う。
情報取得部301が、サーボ制御装置100から、低速の検証プログラムの動作時の位置偏差の集合と、高速の検証プログラムの動作時の位置偏差の集合との情報を受信した場合、制御部305は、記憶部306に受信した情報を記憶するとともに、作図部303に制御を移す。作図部303は、低速の検証プログラムの動作時の位置偏差の集合から、低速の検証プログラムの動作時の位置偏差の時間変化を示す図と、高速の検証プログラムの動作時の位置偏差の集合から、高速の検証プログラムの動作時の位置偏差の時間変化を示す図の画像情報を作成し、制御部305に制御を移す。制御部305は、低速の検証プログラムの動作時の位置偏差の時間変化を示す図と、高速の検証プログラムの動作時の位置偏差の時間変化を示す図を図8の表示画面にそれぞれ表示するようにしてもよい。
なお、図8の左下の表に示すようにサーボ制御装置の位置偏差、速度偏差等のパラメータごとの学習前(before)と学習後(after)の変化を表示するようにしてもよい。
次に、出力装置300の上記出力機能と調整機能とについて説明する。
図9は、機械学習の開始から機械学習後の調整結果表示までの、出力装置を中心とした制御装置の動作を示すフロー図である。
出力装置300は、ステップS31において、操作者が図7又は図8に示す、表示部309表示画面の「調整フロー」の欄の「プログラム起動」をマウス、キーボード等の操作部304で選択すると、制御部305は、学習プログラム起動指示を、情報出力部302を介して機械学習装置200に出力する。そして、サーボ制御装置100に対して、学習プログラム起動指示を機械学習装置200に出力したことを通知する学習プログラム起動指示通知を出力する。また、出力装置300は、ステップS31の後のステップS32において、学習時の加工プログラムの起動指示を、情報出力部308を介して数値制御装置400に出力する。ステップS32はステップ31の前、ステップ31と同時に行われてもよい。数値制御装置400は学習時の加工プログラムの起動指示を受けると、学習時のプログラムを起動させて位置指令値を作成し、サーボ制御装置100に出力する。
機械学習装置200は、ステップS21において、学習プログラム起動指示を受けると、機械学習を開始する。
サーボ制御装置100は、ステップS11において、サーボモータ500を制御して、位置偏差、速度フィードフォワード処理部1082の伝達関数の係数(パラメータ情報となる)を含むフィードバック情報を出力装置300に出力する。そして、出力装置300は、フィードバック情報を機械学習装置200へ出力する。機械学習装置200は、ステップS21で行われる機械学習動作中に報酬出力部2021で用いられる試行回数と関連づけられた状態Sに係る評価関数値f(PD(S)、最大試行回数、試行回数及び速度フィードフォワード処理部1082の伝達関数の係数の修正情報(パラメータ修正情報となる)を含む情報を出力装置300に出力する。出力装置300は、サーボ制御装置に速度フィードフォワード処理部1082の伝達関数の係数の修正情報を送る。また出力装置300は、ステップS33で、上述した出力機能により、図7に示す表示画面の「調整フロー」の欄の「機械学習中」が選択されると、機械学習装置200における機械学習中のサーボ制御パラメータに係る評価関数値等を含む機械学習の進捗状況に係る情報を表示部309に出力する。また、出力装置300は、ステップS33で、図8に示す表示画面の「調整フロー」の欄の「調整結果」が選択されると、調整前及び調整後のサーボ制御動作(位置偏差の時間変化)を表示部309に出力する。ステップS11、ステップS21、ステップS33は機械学習の中断又は終了まで繰り返し行われる。
ここでは、機械学習中のサーボ制御パラメータに係る評価関数値等を含む機械学習の進捗状況に係る情報をリアルタイムで表示部309に出力する場合について説明しているが、既に、リアルタイムで表示しない場合の例として説明した変形例1〜変形例4のような場合に、機械学習の進捗状況に係る情報をリアルタイムで表示部309に出力するようにしてもよい。
操作者が、図7の図の折れ線を見て、機械学習開始から取得した全ての評価関数の最小値が十分収束したと判断したときに、液晶表示装置等の表示部309の図7に示す表示画面の「中断」をマウス、キーボード等の操作部304で選択すると、出力装置300は、ステップS34において機械学習装置200及び数値制御装置400に機械学習の中断指示を行う。
機械学習装置200は、出力装置300から学習の中断指示を受けると、学習を中断して、指示を受けたときの価値関数Qに基づいて、行動情報を生成し、生成した行動情報であるパラメータ修正情報(速度フィードフォワード処理部1082の伝達関数の係数の修正情報)を最適化行動情報出力部205から出力する。このパラメータ修正情報は、出力装置300を介してサーボ制御装置100に出力される。
なお、操作者が、表示部309の図7に示す表示画面の「中断」を選択した後に、図7のステータスに「機械学習中断」が表示された後に、「調整フロー」の欄の「調整結果」を選択した場合、出力装置300は、ステップS35において、数値制御装置400に、学習時の加工プログラムである評価用プログラムよりも低速の検証時の加工プログラム(検証プログラム)と、学習時の加工プログラムである評価用プログラムよりも高速の検証時の加工プログラム(検証プログラム)とを順次起動させる起動指示を送るようにしてもよい。
数値制御装置400は、低速と高速の検証プログラムの起動指示を受けると、低速の検証プログラムと高速の検証プログラムとを順次起動させて、サーボ制御装置100に対して位置指令を出力する。サーボ制御装置100はステップS12において、低速の検証プログラムと高速の検証プログラムによりサーボモータ500をサーボ制御し、低速の検証プログラムの動作時の位置偏差の集合と、高速の検証プログラムの動作時の位置偏差の集合との情報を出力装置300に送る。出力装置300は、ステップS36で上述した出力機能により、サーボ制御装置100の情報を表示部309に出力する。
(第2実施形態)
第1の実施形態では、出力装置300はサーボ制御装置100と機械学習装置200と数値制御装置400とに接続され、機械学習装置100とサーボ制御装置100との間の情報(例えば、位置偏差、位置指令、速度フィードフォワード計算部の係数速度フィードフォワード計算部の係数)の中継、サーボ制御装置100と数値制御装置400との動作の制御(例えば、機械学習装置に対する学習プログラム起動指示、数値制御装置400に対する検証プログラム起動指示)を行っていた。
本実施形態では、出力装置が機械学習装置と数値制御装置に接続される場合について説明する。
図10は、本発明の第2実施形態の制御装置に含まれる出力装置の一構成例を示すブロック図である。制御装置10Aは、サーボ制御装置100、機械学習装置200、出力装置300A、及び数値制御装置400を備えている。
出力装置300Aは、図6に示す出力装置300と比べて、情報取得部307及び情報出力部308を備えていない。
出力装置300Aはサーボ制御装置100と接続されていないため、機械学習装置200とサーボ制御装置100との間の情報(例えば、位置偏差、位置指令、及び速度フィードフォワード計算部の係数)の中継、サーボ制御装置100との間での情報(例えば、サーボ制御装置100に対する検証のための位置偏差)の受信は行わない。具体的には、図9に示す、ステップS31の学習プログラム起動指示、ステップS33の機械学習状況出力、ステップS34の機械学習の中断指示を行が、図9に示すその他の動作(例えば、ステップS35、S36)は行わない。そうすることで、出力装置300Aはサーボ制御装置100と接続されないため、出力装置300Aの動作が少なくなり、装置構成が簡易化できる。
(第3実施形態)
第1の実施形態では、出力装置300はサーボ制御装置100と機械学習装置200と数値制御装置400とに接続されていたが、本実施形態では、調整装置がサーボ制御装置100と機械学習装置200と数値制御装置400に接続され、出力装置が調整装置に接続される場合について説明する。
図11は、本発明の第3実施形態の制御装置の一構成例を示すブロック図である。制御装置10Bは、サーボ制御装置100、機械学習装置200、出力装置300A、数値制御装置400及び調整装置700を備えている。図11に示した出力装置300Aは、図10に示した出力装置300Aの構成と同一であるが、情報取得部301と情報出力部302が機械学習装置200でなく、調整装置700に接続されている。
調整装置700は、図6の出力装置300の作図部303、操作部304、及び表示部309が除かれた構成となっている。
図11に示した出力装置300Aは、第2の実施形態の図10に示した出力装置300Aと同様に、図7に示す、ステップS31の学習プログラム起動指示、ステップS33の機械学習状況出力、ステップS34の機械学習の中断指示の他に、ステップS36の検証結果表示を行うが、これらの動作は、調整装置700を介して行う。調整装置700は、機械学習装置100とサーボ制御装置100との間の情報(例えば、位置偏差、位置指令、及び速度フィードフォワード計算部の係数)の中継行う。また調整装置700は、出力装置300Aが行う、機械学習装置100に対する学習プログラム起動指示、数値制御装置400に対する、学習時の加工プログラム、低速の検証プログラム、又は高速の検証プログラム起動指示等を中継して、機械学習装置100及び数値制御装置400にそれぞれ起動指示を出力する。
そうすることで、第1実施形態と比較して出力装置300の機能が、出力装置300Aと調整装置700とに分離されるので、出力装置300Aの動作が少なくなり、装置構成が簡易化できる。
以上本発明に係る各実施形態について説明したが、上記のサーボ制御装置のサーボ制御部及び機械学習装置に含まれる各構成部は、ハードウェア、ソフトウェア又はこれらの組み合わせにより実現することができる。また、上記のサーボ制御装置に含まれる各構成部のそれぞれの協働により行なわれるサーボ制御方法も、ハードウェア、ソフトウェア又はこれらの組み合わせにより実現することができる。ここで、ソフトウェアによって実現されるとは、コンピュータがプログラムを読み込んで実行することにより実現されることを意味する。
プログラムは、様々なタイプの非一時的なコンピュータ読み取り可能な記録媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ読み取り可能な記録媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ読み取り可能な記録媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。
上述した実施形態は、本発明の好適な実施形態ではあるが、上記実施形態のみに本発明の範囲を限定するものではなく、本発明の要旨を逸脱しない範囲において種々の変更を施した形態での実施が可能である。
<出力装置がサーボ制御装置又は機械学習装置に含まれる変形例>
上述した実施形態では、機械学習装置200、サーボ制御装置100、出力装置300又は300A、及び数値制御装置400を制御装置として構成する例と、さらに出力装置300を出力装置300Aと調整装置700とに分離して制御装置に設けて構成した例について説明した。これらの例では、機械学習装置200、サーボ制御装置100、出力装置300又は300A、数値制御装置400、調整装置700とは別体の装置により構成しているが、これらの装置の一つを他の装置と一体に構成してもよい。例えば、出力装置300又は300Aの機能の一部又は全部を機械学習装置200、サーボ制御装置100、又は数値制御装置400により実現するようにしてもよい。
また、出力装置300又は300Aを、機械学習装置200、サーボ制御装置100、、及び数値制御装置400で構成される制御装置の外部に設けてもよい。
<システム構成の自由度>
図12は他の構成の制御装置を示すブロック図である。制御装置10Cは、図12に示すように、n台のサーボ制御装置100−1〜100−n、n台の機械学習装置200−1〜200−n、出力装置300−1〜300−n、数値制御装置400−1〜400−n、及びネットワーク800を備えている。なお、nは任意の自然数である。n台のサーボ制御装置100−1〜100−nのそれぞれは図1、図10及び図11に示したサーボ制御装置100に対応している。n台の機械学習装置200−1〜200−nのそれぞれは図1、図10及び図11に示した機械学習装置200に対応している。数値制御装置400−1〜400−nは数値制御装置400に対応し、サーボ制御装置100−1〜100−nのそれぞれに対して設けられる。出力装置300−1〜300−nは図6、及び図10に示した出力装置300又は300Aに対応している。図11に示した出力装置300A及び調整装置700は出力装置300−1〜300−nに対応している。サーボ制御装置100−1〜100−nは数値制御装置400−1〜400−nに含まれていてもよい。
ここで、サーボ制御装置100−1と出力装置300−1とは1対1の組とされて、通信可能に接続されている。サーボ制御装置100−2〜100−nと出力装置300−2〜300−nについてもサーボ制御装置100−1と出力装置300−1と同様に接続される。図12では、サーボ制御装置100−1〜100−nと出力装置300−1〜300−nとのn個の組は、ネットワーク800を介して接続されているが、サーボ制御装置100−1〜100−nと出力装置300−1〜300−nとのn個の組は、それぞれの組のサーボ制御装置と出力装置とが接続インタフェースを介して直接接続されてもよい。これらサーボ制御装置100−1〜100−nと出力装置300−1〜300−nとのn個の組は、例えば同じ工場に複数組設置されていてもよく、それぞれ異なる工場に設置されていてもよい。
なお、ネットワーク800は、例えば、工場内に構築されたLAN(Local Area Network)や、インターネット、公衆電話網、或いは、これらの組み合わせである。ネットワーク800における具体的な通信方式や、有線接続および無線接続のいずれであるか等については、特に限定されない。
上述した図12の制御装置では、出力装置300−1〜300−nとサーボ制御装置100−1−100−nとが1対1の組として通信可能に接続されているが、例えば1台の出力装置300−1が複数のサーボ制御装置100−1〜100−m(m<n又はm=n)とネットワーク800を介して通信可能に接続され、1台の出力装置300−1と接続される1台の機械学習装置が各サーボ制御装置100−1〜100−mの機械学習を実施するようにしてもよい。
その際、機械学習装置200−1の各機能を、適宜複数のサーバに分散する、分散処理システムとしてもよい。また、クラウド上で仮想サーバ機能等を利用して、機械学習装置200−1の各機能を実現してもよい。
また、複数の同じ型名、同一仕様、又は同一シリーズのサーボ制御装置100−1〜100−nとそれぞれ対応する複数の機械学習装置200−1〜200−nがあった場合に、各機械学習装置200−1〜200−nにおける学習結果を共有するように構成するようにしてもよい。そうすることで、より最適なモデルを構築することが可能となる。
10、10A、10B 制御装置
100、100A サーボ制御装置
101 減算器
102 位置制御部
103 加算器
104 減算器
105 速度制御部
106 加算器
107 積分器
108 速度フィードフォワード計算部
109 位置フィードフォワード計算部
200 機械学習装置
201 状態情報取得部
202 学習部
203 行動情報出力部
204 価値関数記憶部
205 最適化行動情報出力部
300 出力装置
400 数値制御装置
400 数値制御装置
500 サーボモータ
600 制御対象
700 調整装置
800 ネットワーク

Claims (14)

  1. 工作機械、ロボット又は産業機械の軸を駆動するサーボモータを制御するサーボ制御装置と、
    前記サーボ制御装置に対して機械学習を行う機械学習装置と、
    前記サーボ制御装置に制御指令を出力する数値制御装置と、
    前記機械学習装置と前記サーボ制御装置との間の情報の中継、前記機械学習装置の動作の制御、及び前記数値制御装置へのプログラムの起動指示の出力を行うとともに、前記機械学習装置から、サーボデータを用いた又は前記サーボデータを用いて計算された評価関数値を複数取得し、取得した複数の前記評価関数値を出力する出力装置と、
    を備え、
    前記評価関数値は、前記機械学習装置が機械学習で用いる評価関数により求めた値である、制御装置。
  2. 工作機械、ロボット又は産業機械の軸を駆動するサーボモータを制御するサーボ制御装置と、
    前記サーボ制御装置に対して機械学習を行う機械学習装置と、
    前記サーボ制御装置に制御指令を出力する数値制御装置と、
    前記機械学習装置の動作の制御及び前記数値制御装置へのプログラムの起動指示の出力を行うとともに、前記機械学習装置から、サーボデータを用いた又は前記サーボデータを用いて計算された評価関数値を複数取得し、取得した複数の前記評価関数値を出力する出力装置と、
    を備え、
    前記評価関数値は、前記機械学習装置が機械学習で用いる評価関数により求めた値である、制御装置。
  3. 工作機械、ロボット又は産業機械の軸を駆動するサーボモータを制御するサーボ制御装置と、
    前記サーボ制御装置に対して機械学習を行う機械学習装置と、
    前記サーボ制御装置に制御指令を出力する数値制御装置と、
    前記機械学習装置と前記サーボ制御装置との間の情報の中継を行う調整装置と、
    前記機械学習装置の動作の制御及び前記数値制御装置へのプログラムの起動指示の出力を前記調整装置を介して行うとともに、前記調整装置を介して前記機械学習装置から、サーボデータを用いた又は前記サーボデータを用いて計算された評価関数値を複数取得し、取得した複数の前記評価関数値を出力する出力装置と、
    を備え、
    前記評価関数値は、前記機械学習装置が機械学習で用いる評価関数により求めた値である、制御装置。
  4. 前記出力装置複数の前記評価関数値を表示画面に表示する表示部を含む請求項1から3のいずれか1項に記載の制御装置。
  5. 前記出力装置は、機械学習中の複数の前記評価関数値の時間的推移を示す図を作成する作図部を備え、作成された図を前記表示画面に表示する請求項に記載の制御装置。
  6. 前記出力装置は、複数の前記評価関数値の最小値を出力する請求項1から請求項のいずれか1項に記載の制御装置。
  7. 前記出力装置は、機械学習開始から取得した全ての前記評価関数値の最小値を出力する請求項1から請求項のいずれか1項に記載の制御装置。
  8. 前記出力装置は、リアルタイムで、取得した複数の前記評価関数値を出力する請求項1から請求項のいずれか1項に記載の制御装置。
  9. 前記出力装置は、操作者が表示指示をしたときに、取得した複数の前記評価関数値を出力する請求項1から請求項のいずれか1項に記載の制御装置。
  10. 前記出力装置は、学習開始時からの試行回数の累計が、予め設定した所定の回数に達したときに、取得した複数の前記評価関数値を出力する請求項1から請求項のいずれか1項に記載の制御装置。
  11. 前記出力装置は、前記評価関数値が予め設定している閾値以下になったときに、取得した複数の前記評価関数値を出力する請求項1から請求項のいずれか1項に記載の制御装置。
  12. 前記出力装置は、機械学習の中断時又は終了時に、取得した複数の前記評価関数値を出力する請求項1から請求項のいずれか1項に記載の制御装置。
  13. 前記出力装置は、前記機械学習装置に対して、中断指示を出力する請求項1から請求項12のいずれか1項に記載の制御装置。
  14. 前記出力装置は、機械学習開始から取得した全ての前記評価関数値の最小値が収束したときに、中断指示を出力する請求項1から請求項13のいずれか1項に記載の制御装置。
JP2018122877A 2018-06-28 2018-06-28 出力装置、制御装置、及び評価関数値の出力方法 Active JP6784722B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018122877A JP6784722B2 (ja) 2018-06-28 2018-06-28 出力装置、制御装置、及び評価関数値の出力方法
US16/429,515 US11087509B2 (en) 2018-06-28 2019-06-03 Output device, control device, and evaluation function value output method
DE102019209104.0A DE102019209104A1 (de) 2018-06-28 2019-06-24 Ausgabevorrichtung, Steuervorrichtung und Ausgabeverfahren für einen Bewertungsfunktionswert
CN201910560957.4A CN110658785B (zh) 2018-06-28 2019-06-26 输出装置、控制装置、以及评价函数值的输出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018122877A JP6784722B2 (ja) 2018-06-28 2018-06-28 出力装置、制御装置、及び評価関数値の出力方法

Publications (2)

Publication Number Publication Date
JP2020004080A JP2020004080A (ja) 2020-01-09
JP6784722B2 true JP6784722B2 (ja) 2020-11-11

Family

ID=68886368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018122877A Active JP6784722B2 (ja) 2018-06-28 2018-06-28 出力装置、制御装置、及び評価関数値の出力方法

Country Status (4)

Country Link
US (1) US11087509B2 (ja)
JP (1) JP6784722B2 (ja)
CN (1) CN110658785B (ja)
DE (1) DE102019209104A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020085535A (ja) * 2018-11-19 2020-06-04 アークレイ株式会社 情報処理装置、測定システム、及びプログラム
JP6719790B1 (ja) * 2019-09-05 2020-07-08 キタムラ機械株式会社 Cadデータによるマシニングセンタの自動運転装置
CN112034715B (zh) * 2020-09-17 2021-07-13 福州大学 一种基于改进q学习算法的电机伺服系统无模型反馈控制器设计方法
JPWO2022264262A1 (ja) * 2021-06-15 2022-12-22
WO2024005138A1 (ja) * 2022-07-01 2024-01-04 パナソニックIpマネジメント株式会社 制御パラメータの生成方法、プログラム、記録媒体、および、制御パラメータの生成装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11242503A (ja) * 1998-02-25 1999-09-07 Hitachi Ltd プラント運転制御支援システム
JP2003061377A (ja) * 2001-08-17 2003-02-28 Yaskawa Electric Corp オートチューニング機能を備えたモータ制御装置
JP4964096B2 (ja) * 2007-11-12 2012-06-27 三菱電機株式会社 サーボゲイン調整装置およびサーボゲイン調整方法
JP4627553B2 (ja) * 2008-03-28 2011-02-09 株式会社日立製作所 プラントの制御装置および火力発電プラントの制御装置
DE102010011221B4 (de) * 2010-03-12 2013-11-14 Siemens Aktiengesellschaft Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
CN102787915A (zh) * 2012-06-06 2012-11-21 哈尔滨工程大学 基于强化学习pid控制器的柴油机电子调速方法
JP5968572B1 (ja) * 2015-06-18 2016-08-10 三菱電機株式会社 制御パラメータ調整装置
JP6522488B2 (ja) * 2015-07-31 2019-05-29 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
JP6063013B1 (ja) * 2015-08-27 2017-01-18 ファナック株式会社 びびり或いは工具摩耗/破損の発生を抑制する加工条件調整機能を有する数値制御装置
JP6219897B2 (ja) * 2015-09-28 2017-10-25 ファナック株式会社 最適な加減速を生成する工作機械
JP6649023B2 (ja) * 2015-09-30 2020-02-19 ファナック株式会社 学習制御器の特性測定を行う機能を有するサーボ制御装置
JP6325504B2 (ja) 2015-10-28 2018-05-16 ファナック株式会社 学習制御器の自動調整を行う機能を有するサーボ制御装置
JP6457472B2 (ja) * 2016-12-14 2019-01-23 ファナック株式会社 制御システム及び機械学習装置
CN106598058A (zh) * 2016-12-20 2017-04-26 华北理工大学 内在动机驱动的极限学习机自发育系统及其运行方法

Also Published As

Publication number Publication date
US11087509B2 (en) 2021-08-10
CN110658785A (zh) 2020-01-07
CN110658785B (zh) 2024-03-08
DE102019209104A1 (de) 2020-01-02
JP2020004080A (ja) 2020-01-09
US20200005499A1 (en) 2020-01-02

Similar Documents

Publication Publication Date Title
JP6784722B2 (ja) 出力装置、制御装置、及び評価関数値の出力方法
JP6490127B2 (ja) 機械学習装置、サーボ制御装置、サーボ制御システム、及び機械学習方法
JP6538766B2 (ja) 機械学習装置、サーボモータ制御装置、サーボモータ制御システム、及び機械学習方法
JP6474449B2 (ja) 調整装置及び調整方法
JP6499720B2 (ja) 機械学習装置、サーボ制御装置、サーボ制御システム、及び機械学習方法
JP6748135B2 (ja) 機械学習装置、サーボ制御装置、サーボ制御システム、及び機械学習方法
JP6849643B2 (ja) 出力装置、制御装置、及び評価関数と機械学習結果の出力方法
JP6697491B2 (ja) 機械学習装置、サーボモータ制御装置、サーボモータ制御システム、及び機械学習方法
JP6740277B2 (ja) 機械学習装置、制御装置、及び機械学習方法
JP6740278B2 (ja) 機械学習装置、制御装置、及び機械学習方法
JP6474456B2 (ja) 機械学習装置、サーボ制御システム及び機械学習方法
JP6490131B2 (ja) 機械学習装置、サーボ制御装置、サーボ制御システム、及び機械学習方法
JP6860540B2 (ja) 出力装置、制御装置、及び学習パラメータの出力方法
JP6740279B2 (ja) 調整装置及び調整方法
JP6841801B2 (ja) 機械学習装置、制御システム及び機械学習方法
JP6860541B2 (ja) 出力装置、制御装置、及び評価関数値の出力方法
JP6806746B2 (ja) モータ制御装置
JP7101091B2 (ja) モータ制御装置のフィードフォワード制御器導出装置、モータ制御装置、制御装置、及びフィードフォワード制御器導出方法
JP6740263B2 (ja) 機械学習装置、サーボモータ制御装置、サーボモータ制御システム、及び機械学習方法
JP6740290B2 (ja) 機械学習装置、制御装置、及び機械学習方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191112

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200218

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200923

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201023

R150 Certificate of patent or registration of utility model

Ref document number: 6784722

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150