JP6538573B2 - 抵抗回生開始電圧および抵抗回生停止電圧の値を学習する機械学習器,モータ制御装置,モータ制御システムおよび機械学習方法 - Google Patents

抵抗回生開始電圧および抵抗回生停止電圧の値を学習する機械学習器,モータ制御装置,モータ制御システムおよび機械学習方法 Download PDF

Info

Publication number
JP6538573B2
JP6538573B2 JP2016004321A JP2016004321A JP6538573B2 JP 6538573 B2 JP6538573 B2 JP 6538573B2 JP 2016004321 A JP2016004321 A JP 2016004321A JP 2016004321 A JP2016004321 A JP 2016004321A JP 6538573 B2 JP6538573 B2 JP 6538573B2
Authority
JP
Japan
Prior art keywords
voltage
link
resistance regeneration
resistance
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016004321A
Other languages
English (en)
Other versions
JP2017127099A (ja
Inventor
渉 黒木
渉 黒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2016004321A priority Critical patent/JP6538573B2/ja
Publication of JP2017127099A publication Critical patent/JP2017127099A/ja
Application granted granted Critical
Publication of JP6538573B2 publication Critical patent/JP6538573B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、抵抗回生開始電圧および抵抗回生停止電圧の値を学習する機械学習器,モータ制御装置,モータ制御システムおよび機械学習方法に関する。
従来、工作機械,鍛圧機械,射出成形機,産業機械,あるいは,産業用およびサービス用ロボット等には電動機(モータ)が搭載され、このようなモータを制御するモータ制御装置が幅広く利用されている。
また、従来、例えば、モータ制御装置(モータ制御部)に対して、抵抗回生開始電圧と抵抗回生停止電圧の値を設定し、モータ駆動部における充電抵抗部と放電抵抗部のスイッチングを制御するものが提供されている。
ところで、従来、モータ回生時において発熱が一気に増えることを抑制し、その状態でモータを駆動させるロボットコントローラが提案されている(例えば、特許文献1参照)。この特許文献1は、ロボットコントローラが設置されている環境下の温度に基づいて、電圧降下の処理を実施するか否かを判断することで、例えば、ロボットコントローラが過高温となる状況でのみ、電圧降下の処理を実施することを開示している。
特開2012−152008号公報
上述したように、従来、モータ制御装置に対して、抵抗回生開始電圧と抵抗回生停止電圧の値を設定し、モータ駆動部における充電抵抗部と放電抵抗部のスイッチングを制御するものが提供されている。このようなモータ制御装置は、例えば、設計段階において、抵抗回生開始電圧と抵抗回生停止電圧の値を決めるか、あるいは、モータが搭載された機械毎に手動で値を調整しているため、それぞれのモータ(工作機械やロボット等)に最適な抵抗回生開始電圧と抵抗回生停止電圧の値を決めるのが困難であった。
また、従来、特許文献1のように、例えば、ロボットコントローラが設置されている環境下の温度に基づいて電圧降下の処理を実施するか否かを判断し、ロボットコントローラが過高温となる状況でのみ、電圧降下の処理を実施するものも提案されている。しかしながら、これは、モータが減速する前にモータが回生する電力を推測しておき、それに応じて抵抗回生停止電圧を決めるものであり、やはりそれぞれのモータに適した抵抗回生開始電圧と抵抗回生停止電圧の値を調整することは困難である。
本発明の目的は、上述した従来技術の課題に鑑み、それぞれのモータに最適な抵抗回生開始電圧と抵抗回生停止電圧の値を調整することのできる機械学習器,モータ制御装置,モータ制御システムおよび機械学習方法の提供にある。
本発明に係る第1実施形態によれば、 モータの回生電力を制御する抵抗回生開始電圧および抵抗回生停止電圧の値を学習する機械学習器であって、少なくとも前記モータを駆動するDCリンク電圧、および、前記DCリンク電圧が過電圧になるときに警告を発するDCリンク過電圧アラームを観測する状態観測部と、前記状態観測部により観測された前記DCリンク電圧および前記DCリンク過電圧アラームに基づいて、前記抵抗回生開始電圧および前記抵抗回生停止電圧の値を学習する学習部と、を備える機械学習器が提供される。
前記モータは、DCリンク部コンデンサの両端における前記DCリンク電圧を、DC/AC変換部によりDC/AC変換したAC電圧により駆動され、前記抵抗回生開始電圧および前記抵抗回生停止電圧は、前記DCリンク部コンデンサに並列に設けられた放電抵抗による放電開始および放電停止を制御し、前記状態観測部は、前記DCリンク電圧の値および前記DCリンク過電圧アラームの有無を観測し、前記学習部は、前記状態観測部により観測された前記DCリンク電圧の値および前記DCリンク過電圧アラームの有無を含む状態量に基づいて、前記抵抗回生開始電圧および前記抵抗回生停止電圧を決定する操作量を更新するのが好ましい。前記状態観測部は、さらに、前記放電抵抗により消費される回生電力を示す抵抗回生量を観測し、前記学習部は、前記状態観測部により観測された前記抵抗回生量を含む状態量に基づいて、前記抵抗回生開始電圧および前記抵抗回生停止電圧を決定する操作量を更新することができる。
あるいは、前記状態観測部は、さらに、前記放電抵抗により回生電力が消費される時間を示す抵抗回生時間を観測し、前記学習部は、前記状態観測部により観測された前記抵抗回生時間を含む状態量に基づいて、前記抵抗回生開始電圧および前記抵抗回生停止電圧を決定する操作量を更新することができる。もしくは、前記状態観測部は、さらに、前記放電抵抗の温度を示す抵抗温度を観測し、前記学習部は、前記状態観測部により観測された前記抵抗温度を含む状態量に基づいて、前記抵抗回生開始電圧および前記抵抗回生停止電圧を決定する操作量を更新することもできる。また、前記状態観測部は、さらに、前記放電抵抗が過負荷になるときに警告を発する過負荷アラームの有無を観測し、前記学習部は、前記状態観測部により観測された前記過負荷アラームの有無を含む状態量に基づいて、前記抵抗回生開始電圧および前記抵抗回生停止電圧を決定する操作量を更新することもできる。前記機械学習器は、さらに、前記学習部が学習した前記操作量を参照して、前記抵抗回生開始電圧および前記抵抗回生停止電圧を決定する意思決定部を備えてもよい。
前記学習部は、前記状態観測部により観測された前記DCリンク電圧の値および前記DCリンク過電圧アラームの有無を含む状態量に基づいて、報酬を計算する報酬計算部と、前記状態観測部および前記報酬計算部の出力に基づいて、前記抵抗回生開始電圧および前記抵抗回生停止電圧の価値を定める価値関数を、前記報酬に応じて更新する価値関数更新部と、を備えることができる。前記報酬計算部は、前記モータのDCリンク電圧が上昇したら、報酬を増やすと共に、前記DCリンク過電圧アラームが発生したら、報酬を減らし、さらに、抵抗回生量が増加したら、報酬を減らし、抵抗回生時間が増加したら、報酬を減らし、抵抗温度が上昇したら、報酬を減らし、あるいは、過負荷アラームが発生したら報酬を減らすのが好ましい。
前記学習部は、前記状態観測部により観測された前記DCリンク電圧の値および前記DCリンク過電圧アラームの有無を含む状態量、ならびに、入力された教師データに基づいて誤差を計算する誤差計算部と、前記状態観測部および前記誤差計算部の出力に基づいて、前記抵抗回生開始電圧および前記抵抗回生停止電圧の誤差を定める誤差モデルを更新する誤差モデル更新部と、を備えることができる。前記機械学習器は、ニューラルネットワークを備えてもよい。
本発明に係る第2実施形態によれば、上述した本発明に係る第1実施形態の機械学習器と、前記モータを駆動制御するとモータ駆動部と、前記機械学習器により学習された前記抵抗回生開始電圧および前記抵抗回生停止電圧の値に基づいて、前記モータ駆動部を介して前記モータの回生電力を制御するモータ制御部と、を備えるモータ制御装置が提供される。
本発明に係る第3実施形態によれば、上述した本発明に係る第2実施形態のモータ制御装置を複数備えるモータ制御システムであって、前記機械学習器は、それぞれの前記モータ制御装置に設けられ、複数の前記モータ制御装置に設けられた複数の前記機械学習器は、通信媒体を介して相互にデータを共有または交換するようになっているモータ制御システムが提供される。前記機械学習器は、クラウドサーバ上に存在してもよい。
本発明に係る第4実施形態によれば、モータの回生電力を制御する抵抗回生開始電圧および抵抗回生停止電圧の値を学習する機械学習方法であって、少なくとも、前記モータを駆動するDCリンク電圧、および、前記DCリンク電圧が過電圧になるときに警告を発するDCリンク過電圧アラームを観測し、観測された前記DCリンク電圧および前記DCリンク過電圧アラームに基づいて、前記抵抗回生開始電圧および前記抵抗回生停止電圧の値を学習する機械学習方法が提供される。
本発明に係る機械学習器,モータ制御装置,モータ制御システムおよび機械学習方法によれば、それぞれのモータに最適な抵抗回生開始電圧と抵抗回生停止電圧の値を調整することのできるという効果を奏する。
図1は、本発明に係るモータ制御装置の一実施形態を概略的に示すブロック図である。 図2は、図1に示すモータ制御装置におけるモータ駆動部の一例を示すブロック図である。 図3は、ニューロンのモデルを模式的に示す図である。 図4は、図3に示すニューロンを組み合わせて構成した三層のニューラルネットワークを模式的に示す図である。 図5は、図1に示す機械学習器の動作の第1例を示すフローチャートである。 図6は、図1に示す機械学習器の動作の第2例を示すフローチャートである。 図7は、図1に示す機械学習器の動作の第3例を示すフローチャートである。 図8は、図1に示す機械学習器の動作の第4例を示すフローチャートである。 図9は、図1に示す機械学習器の動作の第5例を示すフローチャートである。 図10は、図1に示す機械学習器で使用される行動価値テーブルの例を示す図である。 図11は、図1に示す機械学習器の動作の一例を説明するための図である。 図12は、本発明に係るモータ制御装置の他の実施形態を概略的に示すブロック図である。 図13は、図12に示すモータ制御装置の一例を説明するための図(その1)である。 図14は、図12に示すモータ制御装置の一例を説明するための図(その2)である。
以下、本発明に係る機械学習器,モータ制御装置,モータ制御システムおよび機械学習方法の実施形態を、添付図面を参照して詳述する。図1は、本発明に係るモータ制御装置の一実施形態を概略的に示すブロック図である。
なお、以下の記載では、説明を簡略化するために、主として、モータ制御部12によりモータ駆動部3を介して1つのモータ11を制御し、このモータ11における回生電力を、機械学習器2により学習された抵抗回生開始電圧および抵抗回生停止電圧の値に基づいて制御する場合を例として説明する。しかしながら、本実施形態の適用は、このような構成に限定されるものではなく、モータ制御部12(モータ駆動部3)により複数のモータ11の回生電力の制御を行うこともできるのはいうまでもない。
本実施形態のモータ制御装置は、モータ11を制御するためのものであり、モータ制御部12,モータ駆動部3および機械学習器2を含む。ここで、モータ11としては、工作機械,鍛圧機械,射出成形機,産業機械,あるいは,産業用およびサービス用ロボット等に用いられるモータ(電動機)である。なお、モータ制御部12,モータ駆動部3および機械学習器2は、モータ制御装置として一体化することができるが、それぞれ別々に設けてもよい。
図1に示されるように、機械学習器2は、例えば、モータ制御部12に設定される抵抗回生開始電圧および抵抗回生停止電圧の値を学習するものであり、状態観測部21、学習部22、および、意思決定部25を含む。モータ制御部12は、設定された抵抗回生開始電圧および抵抗回生停止電圧の値に基づいて、モータ駆動部3を介してモータ11の回生電力の制御を行う。なお、モータ駆動部3の詳細は、図2を参照して後に説明する。
状態観測部21は、モータ11(モータ駆動部3)の状態を観測し、学習部22は、状態観測部21により観測された状態量に基づいて、抵抗回生開始電圧および抵抗回生停止電圧を決定する操作量(行動価値テーブル)を更新する。すなわち、状態観測部21は、モータ11のDCリンク電圧の値およびDCリンク過電圧アラームの有無を含む状態量を観測する。また、状態観測部21は、例えば、抵抗回生量(放電制御部36の放電抵抗362により消費される回生電力),抵抗回生時間(放電抵抗362により回生電力を消費するのに要する時間),抵抗温度(放電抵抗362の温度),ならび,放電抵抗362が過負荷になるときに警告を発する過負荷アラームの有無等も状態量として観測することができる。
ここで、状態観測部21は、DCリンク電圧の値,DCリンク過電圧アラームの有無,抵抗回生量,抵抗回生時間,抵抗温度および過負荷アラームの有無等を、モータ駆動部3またはモータ制御部12の出力として受け取ることができる。また、例えば、放電抵抗362の温度(抵抗温度)は、図2に示すように、放電抵抗362の近傍に温度検出器363を設け、状態観測部21が、温度検出器363の出力を直接受け取るように構成することもできる。
学習部22は、状態観測部21により観測された状態量に基づいて報酬を計算する報酬計算部23、および、報酬計算部23により計算された報酬に基づいて、現在の状態量(状態変数)から抵抗回生開始電圧および抵抗回生停止電圧を決定する関数を更新する価値関数更新部24を含む。報酬計算部23による報酬の計算(報酬を増やす(プラス報酬の設定),または,報酬を減らす(マイナス報酬の設定))に関しては、図5〜図9ならびに図10を参照して後に詳述する。なお、意思決定部25は、学習部22が学習した操作量、すなわち、価値関数更新部24により更新された価値関数を参照して、抵抗回生開始電圧および抵抗回生停止電圧を決定し、モータ制御部12に対して出力する。
図2は、図1に示すモータ制御装置におけるモータ駆動部の一例を示すブロック図である。図2に示されるように、モータ駆動部3は、例えば、モータ制御部12からの制御信号に基づいてモータ11を駆動制御するもので、制御用コイル31,電磁接触器32,リアクトル(三相リアクトル)33,AC/DC変換部34,充電制御部35,放電制御部36,DCリンク部コンデンサ37およびDC/AC変換部38を備える。
制御用コイル31は、モータ制御部12からの電磁接触器開閉指令に基づいて、電磁接触器32のオン(接続)/オフ(遮断)制御を行い、交流電源(例えば、三相交流電源)からの交流電圧は、接続状態の電磁接触器32により、リアクトル(三相リアクトル)33を介してAC/DC変換部34に印加され、直流(脈流)電圧に変換される。ここで、三相リアクトル33は、モータ駆動部(インバータ)3の一次側(交流電源側)に設けられ、力率改善(高調波対策)や電源からのサージを低減するために使用される。AC/DC変換部34は、三相リアクトル33を介して入力される三相(R相,S相およびT相)のそれぞれに対して設けられた整流用ダイオード341,342,343,344および345,346を有する。
AC/DC変換部34によりAC/DC変換された直流電圧は、充電制御部35を介してDCリンク部コンデンサ37により平滑化され、その平滑化された直流電圧は、DC/AC変換部38により、モータ11を駆動するための交流電圧(例えば、三相交流電圧)に変換される。ここで、DCリンク部コンデンサ37の両端には、並列に放電制御部36が設けられている。また、DCリンク部コンデンサ37の両端は、モータ制御部12にも接続され、例えば、モータ制御部12によりDCリンク部コンデンサ37の両端の電圧(DCリンク電圧)を検出できるようになっている。なお、DCリンク電圧を検出するDCリンク電圧検出部を独立に設けてもよく、あるいは、モータ制御部12とは別の制御回路(例えば、モータ駆動部3に設けられた制御回路)に設けてもよいのはいうまでもない。
充電制御部35は、充電抵抗352,および,充電抵抗352と並列に設けられたスイッチ351を含み、スイッチ351は、モータ制御部12からの短絡指令に基づいてオン/オフ制御される。この充電制御部35は、例えば、DCリンク部コンデンサ37が完全に放電した後の充電において、スイッチ351がオフすることで充電抵抗352が直列に挿入されることになり、大電流が流れるのを抑制するようになっている。
放電制御部36は、放電抵抗362,および,放電抵抗362と直列に設けられたスイッチ361を含み、スイッチ361は、モータ制御部12からの放電指令に基づいてオン/オフ制御される。また、放電制御部36は、放電抵抗362の温度を検出する温度検出器363を含み、温度検出器363により検出された放電抵抗362の温度(抵抗温度)は、機械学習器2における状態観測部21に状態量として与えられる。
ここで、モータ制御部12は、例えば、放電制御部36のスイッチ361を制御する放電指令(スイッチ361をオン/オフ制御するタイミング)、および、検出したDCリンク電圧の変化等に基づいて、放電抵抗362により回生電力が消費される時間(抵抗回生時間)、ならびに、放電抵抗362により消費される回生電力(抵抗回生量)を求めることができ、これらの抵抗回生時間および抵抗回生量も、状態観測部21に対して状態量として与えるようになっている。
なお、放電制御部36のスイッチ361をオン(接続)してDCリンク電圧を放電抵抗362に印加し、この放電抵抗362により回生電力を消費するのは、モータ制御部12に設定される抵抗回生開始電圧に基づいて行われ、また、放電制御部36のスイッチ361をオフ(遮断)して放電抵抗362を切り離すのは抵抗回生停止電圧に基づいて行われる。すなわち、抵抗回生開始電圧および抵抗回生停止電圧は、DCリンク部コンデンサ37に並列に設けられた放電抵抗362による放電開始および放電停止を制御する。
具体的に、DCリンク電圧が抵抗回生開始電圧よりも高くなれば、放電制御部36のスイッチ361をオンして放電抵抗362による回生(抵抗回生)を開始し、DCリンク電圧が抵抗回生停止電圧よりも低くなれば、放電制御部36のスイッチ361をオフして放電抵抗362による回生を停止する。これにより、例えば、DCリンク部コンデンサ37,AC/DC変換部34およびDC/AC変換部38等の破壊を防止するようになっている。
すなわち、例えば、図2に示す構成において、モータ11が減速すると、回生電力が発生し、DCリンク電圧(DCリンク部コンデンサ37の電圧)が上昇する。このとき、DCリンク電圧が上昇しすぎると、例えば、DCリンク電圧を検出しているモータ制御部12からDCリンク過電圧アラームが出力され、モータ駆動部3(DCリンク部コンデンサ37,AC/DC変換部34およびDC/AC変換部38等)の耐圧を超えたことによる過電圧破壊が発生し、システムが停止することになってしまう。そこで、システムが停止するのを防止するために、DCリンク電圧が上昇しすぎないよう、放電抵抗362により回生電力を消費するようになっている。
ここで、本実施形態によれば、状態観測部21は、少なくとも少なくともモータ11を駆動するDCリンク電圧と、DCリンク電圧が過電圧になるときに発せられるDCリンク過電圧アラームを観測する。さらに、学習部22は、状態観測部21により観測されたDCリンク電圧およびDCリンク過電圧アラームに基づいて、抵抗回生開始電圧および抵抗回生停止電圧の値を学習する。
ところで、機械学習器2は、装置に入力されるデータの集合から、その中にある有用な規則や知識表現、判断基準等を解析により抽出し、その判断結果を出力するとともに、知識の学習(機械学習)を行う機能を有する。機械学習の手法は様々であるが、大別すれば、例えば、「教師あり学習」、「教師なし学習」および「強化学習」に分けられる。さらに、これらの手法を実現するうえで、特徴量そのものの抽出を学習する、「深層学習(ディープラーニング:Deep Learning)」と呼ばれる手法がある。
なお、図1に示す機械学習器2は、「強化学習」を適用したものであり、また、図12を参照して後述する機械学習器4は、「教師あり学習」を適用したものである。これらの機械学習(機械学習器2,4)は、汎用の計算機若しくはプロセッサを用いることもできるが、例えば、GPGPU(General-Purpose computing on Graphics Processing Units)や大規模PCクラスター等を適用すると、より高速処理が可能になる。
まず、教師あり学習とは、教師データ、すなわち、ある入力と結果(ラベル)のデータの組を大量に機械学習器2に与えることで、それらのデータセットにある特徴を学習し、入力から結果を推定するモデル(誤差モデル)、すなわち、その関係性を帰納的に獲得するものである。例えば、後述のニューラルネットワーク等のアルゴリズムを用いて実現することが可能である。
また、教師なし学習とは、入力データのみを大量に学習装置に与えることで、入力データがどのような分布をしているか学習し、対応する教師出力データを与えなくても、入力データに対して圧縮・分類・整形等を行う装置で学習する手法である。例えば、それらのデータセットにある特徴を、似た者どうしにクラスタリングすること等ができる。この結果を使って、何らかの基準を設けてそれを最適化するような出力の割り当てを行うことにより、出力の予測を実現することできる。
なお、教師なし学習と教師あり学習との中間的な問題設定として、半教師あり学習と呼ばれるものもあり、これは、例えば、一部のみ入力と出力のデータの組が存在し、それ以外は入力のみのデータである場合が対応する。本実施形態においては、実際にロボットを動かさなくても取得することができるデータ(画像データやシミュレーションのデータ等)を教師なし学習で利用することにより、学習を効率的に行うことが可能になる。
次に、強化学習について、説明する。まず、強化学習の問題設定として、次のように考える。
・ロボット(すなわち、工作機械,鍛圧機械,射出成形機,産業機械,あるいは,産業用およびサービス用ロボット等に搭載されたモータ:以下の記載では、説明を簡略化するために、様々な機械に搭載されたモータを、ロボットとも称する)は、環境の状態を観測し、行動を決定する。
・環境は、何らかの規則に従って変化し、さらに、自分の行動が、環境に変化を与えることもある。
・行動するたびに、報酬信号が帰ってくる。
・最大化したいのは、将来にわたっての(割引)報酬の合計である。
・行動が引き起こす結果を全く知らない、または、不完全にしか知らない状態から学習はスタートする。すなわち、ロボットは、実際に行動して初めて、その結果をデータとして得ることができる。つまり、試行錯誤しながら最適な行動を探索する必要がある。
・人間の動作を真似るように、事前学習(前述の教師あり学習や、逆強化学習といった手法)した状態を初期状態として、良いスタート地点から学習をスタートさせることもできる。
ここで、強化学習とは、判定や分類だけではなく、行動を学習することにより、環境に行動が与える相互作用を踏まえて適切な行動を学習、すなわち、将来的に得られる報酬を最大にするための学習する方法を学ぶものである。以下に、例として、Q学習の場合で説明を続けるが、Q学習に限定されるものではない。
Q学習は、或る環境状態sの下で、行動aを選択する価値Q(s,a)を学習する方法である。つまり、或る状態sのとき、価値Q(s,a)の最も高い行動aを最適な行動として選択すればよい。しかし、最初は、状態sと行動aとの組合せについて、価値Q(s,a)の正しい値は全く分かっていない。そこで、エージェント(行動主体)は、或る状態sの下で様々な行動aを選択し、その時の行動aに対して、報酬が与えられる。それにより、エージェントは、より良い行動の選択、すなわち、正しい価値Q(s,a)を学習していく。
さらに、行動の結果、将来にわたって得られる報酬の合計を最大化したいので、最終的にQ(s,a)=E[Σ(γt)rt]となるようにすることを目指す。ここで、期待値は、最適な行動に従って状態変化したときについてとるものとし、それは、分かっていないので、探索しながら学習することになる。このような価値Q(s,a)の更新式は、例えば、次の式(1)により表すことができる。
Figure 0006538573
上記の式(1)において、stは、時刻tにおける環境の状態を表し、atは、時刻tにおける行動を表す。行動atにより、状態はst+1に変化する。rt+1は、その状態の変化により得られる報酬を表している。また、maxの付いた項は、状態st+1の下で、その時に分かっている最もQ値の高い行動aを選択した場合のQ値にγを乗じたものになる。ここで、γは、0<γ≦1のパラメータで、割引率と呼ばれる。また、αは、学習係数で、0<α≦1の範囲とする。
上述した式(1)は、試行atの結果、帰ってきた報酬rt+1を元に、状態stにおける行動atの評価値Q(st,at)を更新する方法を表している。すなわち、状態sにおける行動aの評価値Q(st,at)よりも、報酬rt+1 + 行動aによる次の状態における最良の行動max aの評価値Q(st+1,max at+1)の方が大きければ、Q(st,at)を大きくし、反対に小さければ、Q(st,at)を小さくすることを示している。つまり、或る状態における或る行動の価値を、結果として即時帰ってくる報酬と、その行動による次の状態における最良の行動の価値に近付けるようにしている。
ここで、Q(s,a)の計算機上での表現方法は、すべての状態行動ペア(s,a)に対して、その値をテーブルとして保持しておく方法と、Q(s,a)を近似するような関数を用意する方法がある。後者の方法では、前述の式(1)は、確率勾配降下法等の手法で近似関数のパラメータを調整していくことにより、実現することができる。なお、近似関数としては、後述のニューラルネットワークを用いることができる。
ここで、強化学習での価値関数の近似アルゴリズムとして、ニューラルネットワークを用いることができる。図3は、ニューロンのモデルを模式的に示す図であり、図4は、図3に示すニューロンを組み合わせて構成した三層のニューラルネットワークを模式的に示す図である。すなわち、ニューラルネットワークは、例えば、図3に示すようなニューロンのモデルを模した演算装置およびメモリ等で構成される。
図3に示されるように、ニューロンは、複数の入力x(図3では、一例として入力x1〜x3)に対する出力(結果)yを出力するものである。各入力x(x1,x2,x3)には、この入力xに対応する重みw(w1,w2,w3)が乗算される。これにより、ニューロンは、次の式(2)により表現される結果yを出力する。なお、入力x、結果yおよび重みwは、すべてベクトルである。また、下記の式(2)において、θは、バイアスであり、fkは、活性化関数である。
Figure 0006538573
図4を参照して、図3に示すニューロンを組み合わせて構成した三層のニューラルネットワークを説明する。図4に示されるように、ニューラルネットワークの左側から複数の入力x(ここでは、一例として、入力x1〜入力x3)が入力され、右側から結果y(ここでは、一例として、結果y1〜入力y3)が出力される。具体的に、入力x1,x2, x3は、3つのニューロンN11〜N13の各々に対して、対応する重みが掛けられて入力される。これらの入力に掛けられる重みは、まとめてW1と標記されている。
ニューロンN11〜N13は、それぞれ、z11〜z13を出力する。図4において、これらz11〜z13は、まとめて特徴ベクトルZ1と標記され、入力ベクトルの特徴量を抽出したベクトルとみなすことができる。この特徴ベクトルZ1は、重みW1と重みW2との間の特徴ベクトルである。z11〜z13は、2つのニューロンN21およびN22の各々に対して、対応する重みが掛けられて入力される。これらの特徴ベクトルに掛けられる重みは、まとめてW2と標記されている。
ニューロンN21,N22は、それぞれz21,z22を出力する。図4において、これらz21,z22は、まとめて特徴ベクトルZ2と標記されている。この特徴ベクトルZ2は、重みW2と重みW3との間の特徴ベクトルである。z21,z22は、3つのニューロンN31〜N33の各々に対して、対応する重みが掛けられて入力される。これらの特徴ベクトルに掛けられる重みは、まとめてW3と標記されている。
最後に、ニューロンN31〜N33は、それぞれ、結果y1〜結果y3を出力する。ニューラルネットワークの動作には、学習モードと価値予測モードとがある。例えば、学習モードにおいて、学習データセットを用いて重みWを学習し、そのパラメータを用いて予測モードにおいて、ロボットの行動判断を行う。なお、便宜上、予測と書いたが、検出・分類・推論等多様なタスクが可能なのはいうまでもない。
ここで、予測モードで実際にロボットを動かして得られたデータを即時学習し、次の行動に反映させる(オンライン学習)ことも、予め収集しておいたデータ群を用いてまとめた学習を行い、以降はずっとそのパラメータで検知モードを行う(バッチ学習)こともできる。あるいは、その中間的な、ある程度データが溜まるたびに学習モードを挟むということも可能である。
また、重みW1〜W3は、誤差逆伝搬法(誤差逆転伝播法:バックプロパゲーション:Backpropagation)により学習可能なものである。なお、誤差の情報は、右側から入り左側に流れる。誤差逆伝搬法は、各ニューロンについて、入力xが入力されたときの出力yと真の出力y(教師)との差分を小さくするように、それぞれの重みを調整(学習)する手法である。このようなニューラルネットワークは、三層以上に、さらに層を増やすことも可能である(深層学習と称される)。また、入力の特徴抽出を段階的に行い、結果を回帰する演算装置を、教師データのみから自動的に獲得することも可能である。
そこで、上述したように、本実施例の機械学習器2は、例えば、Q学習を実施すべく、状態観測部21、学習部22、および、意思決定部25を備えている。ただし、本発明に適用される機械学習方法は、Q学習に限定されないのは前述した通りである。なお、機械学習(機械学習器2)は、例えば、GPGPUや大規模PCクラスター等を適用することで実現可能なのは、前述した通りである。
図5は、図1に示す機械学習器の動作の第1例を示すフローチャートである。図5に示されるように、機械学習が開始(学習スタート)すると、ステップST1において、(A)抵抗回生開始電圧と(B)抵抗回生停止電圧をランダムに選択し(但し、電圧値は、(A)>(B))、ステップST2に進んで、モータ11を駆動する。さらに、ステップST3に進んで、DCリンク電圧(DCリンク部コンデンサ37の電圧,DC/AC変換部38の入力電圧:モータ11を駆動する電圧)が上昇したかどうかを判定する。
ステップST3において、DCリンク電圧が上昇しなかったと判定すると、ステップST4に進んで報酬を減らし(マイナス報酬を設定し)、逆に、DCリンク電圧が上昇したと判定すると、ステップST5に進んで報酬を増やし(プラス報酬を設定し)、ステップST6に進む。ステップST6において、過電圧アラーム(DCリンク過電圧アラーム)が発生したと判定すると、ステップST7に進んで報酬を減らし、逆に、過電圧アラームが発生しなかったと判定すると、ステップST8に進んで報酬を増やし、ステップST9に進む。
ステップST9では、行動価値テーブルを更新し、さらに、ステップST10に進んで、抵抗回生開始電圧および抵抗回生停止電圧を決定し、ステップST2に戻って同様の処理を継続する。すなわち、ステップST9において、上述したステップST3〜ST8による報酬を報酬計算部23で計算した結果に基づいて、価値関数更新部24が価値関数(行動価値テーブル)を更新する。そして、ステップST10において、例えば、意思決定部25が、価値関数更新部24が更新した価値関数に基づいて、抵抗回生開始電圧および抵抗回生停止電圧を決定する。
なお、意思決定部25により決定された抵抗回生開始電圧および抵抗回生停止電圧(機械学習器2により学習された抵抗回生開始電圧および抵抗回生停止電圧の値)は、例えば、モータ制御部12に設定され、その設定された抵抗回生開始電圧および抵抗回生停止電圧に基づいて、放電制御部36のスイッチ361をオン/オフ制御する放電指令が出力される。
このように、本実施形態によれば、DCリンク過電圧アラームが発生しない範囲において、DCリンク電圧を上昇させることができる抵抗回生開始電圧および抵抗回生停止電圧の値が機械学習され、例えば、それぞれのモータに最適な抵抗回生開始電圧と抵抗回生停止電圧の値を調整することが可能になる。
図6は、図1に示す機械学習器の動作の第2例を示すフローチャートである。図6と、上述した図5の比較から明らかなように、本第2例では、図5に示す第1例に対してステップST11〜ST13の処理が追加されている。すなわち、ステップST6において、過電圧アラームが発生したと判定すると、ステップST7に進んで報酬を減らし、逆に、過電圧アラームが発生しなかったと判定すると、ステップST8に進んで報酬を増やし、ステップST11に進む。
ステップST11において、抵抗回生量(放電制御部36の放電抵抗362により消費される回生電力)が増加したかどうかを判定し、抵抗回生量が増加したと判定すると、報酬を減らし(マイナス報酬を設定し)、逆に、抵抗回生量が増加しなかったと判定すると、報酬を増やし(プラス報酬を設定し)、ステップST9に進む。なお、ステップST9以降の処理は、図5を参照して説明した第1例と同様であり、その説明は省略する。これは、以下に説明する図7〜図9でも同様である。
このように、図6に示す第2例では、図5を参照して説明した第1例に加え、状態観測部21に対して、放電抵抗362により消費される回生電力を示す抵抗回生量を状態量として与え、学習部22(価値関数更新部24)が、状態観測部21により観測されたDCリンク電圧の値,DCリンク過電圧アラームの有無および抵抗回生量を含む状態量に基づいて、抵抗回生開始電圧および抵抗回生停止電圧を決定する操作量を更新するようになっている。
図7は、図1に示す機械学習器の動作の第3例を示すフローチャートである。図7と、前述した図5の比較から明らかなように、本第3例では、図5に示す第1例に対してステップST14〜ST16の処理が追加されている。すなわち、ステップST6において、過電圧アラームが発生したと判定すると、ステップST7に進んで報酬を減らし、逆に、過電圧アラームが発生しなかったと判定すると、ステップST8に進んで報酬を増やし、ステップST14に進む。
ステップST14において、抵抗回生時間(放電抵抗362により回生電力を消費するのに要する時間)が増加したかどうかを判定し、抵抗回生時間が増加したと判定すると、報酬を減らし(マイナス報酬を設定し)、逆に、抵抗回生時間が増加しなかったと判定すると、報酬を増やし(プラス報酬を設定し)、ステップST9に進む。
このように、図7に示す第3例では、図5を参照して説明した第1例に加え、状態観測部21に対して、放電抵抗362により回生電力が消費される時間を示す抵抗回生時間を状態量として与え、学習部22(価値関数更新部24)が、状態観測部21により観測されたDCリンク電圧の値,DCリンク過電圧アラームの有無および抵抗回生時間を含む状態量に基づいて、抵抗回生開始電圧および抵抗回生停止電圧を決定する操作量を更新するようになっている。
図8は、図1に示す機械学習器の動作の第4例を示すフローチャートである。図8と、前述した図5の比較から明らかなように、本第4例では、図5に示す第1例に対してステップST17〜ST19の処理が追加されている。すなわち、ステップST6において、過電圧アラームが発生したと判定すると、ステップST7に進んで報酬を減らし、逆に、過電圧アラームが発生しなかったと判定すると、ステップST8に進んで報酬を増やし、ステップST17に進む。
ステップST17において、抵抗温度(放電抵抗362の温度)が上昇したかどうかを判定し、抵抗温度が上昇したと判定すると、報酬を減らし(マイナス報酬を設定し)、逆に、抵抗温度が上昇しなかったと判定すると、報酬を増やし(プラス報酬を設定し)、ステップST9に進む。なお、抵抗温度としては、放電抵抗362の平均温度、または、放電抵抗362の最大温度のいずれかであってもよいが、放電抵抗362の平均温度および最大温度の両方を使用してもよい。
このように、図8に示す第4例では、図5を参照して説明した第1例に加え、状態観測部21に対して、放電抵抗362の温度(平均温度および最大温度の少なくとも一方)を示す抵抗温度を状態量として与え、学習部22(価値関数更新部24)が、状態観測部21により観測されたDCリンク電圧の値,DCリンク過電圧アラームの有無および抵抗温度を含む状態量に基づいて、抵抗回生開始電圧および抵抗回生停止電圧を決定する操作量を更新するようになっている。
図9は、図1に示す機械学習器の動作の第5例を示すフローチャートである。図9と、前述した図5の比較から明らかなように、本第5例では、図5に示す第1例に対してステップST20〜ST25の処理が追加されている。ここで、ステップST20〜ST22の処理は、前述した図6に示す第2例のステップST11〜ST13,図7に示す第3例のステップST14〜ST16,ならびに、図8に示す第4例のステップST17〜ST19に相当する処理であり、それら第2例〜第4例の処理の少なくとも1つの処理を行うことを示している。なお、第2例〜第4例の全ての処理を順番に行うこともできるのはいうまでもない。
そして、ステップST20〜ST22の処理を行った後、ステップST23に進んで、放電抵抗362の過負荷アラームが発生したかどうかを判定する。なお、放電抵抗362の過負荷アラームは、例えば、モータ制御部12において、DCリンク電圧の値や放電抵抗362の温度等に基づいて、過負荷アラームを発生するかどうかを制御することができる。
図6〜図9を参照して説明したように、図5に示す第1例に対して、他の様々なパラメータを状態量として状態観測部21に入力することができる。なお、状態観測部21に入力する状態量としては、モータ制御装置が適用されるシステム、あるいは、駆動されるモータが搭載される産業機械やロボットの種類等に基づいて適切なものが選択されることになる。
図10は、図1に示す機械学習器で使用される行動価値テーブルの例を示す図であり、DCリンク電圧の値およびDCリンク過電圧アラームの有無を機械学習器2(状態観測部21)に与え、機械学習処理を<1回目>→<2回目>→…→<n回目>と繰り返して行動価値テーブル(価値関数)を更新する様子を示すものである。
まず、抵抗回生開始電圧および抵抗回生停止電圧をランダムな値として処理を行うが、抵抗回生開始電圧および抵抗回生停止電圧としては、想定される適切な値を設定してもよい。図10の<1回目>に示されるように、DCリンク電圧が低くてDCリンク過電圧アラームの発生が無い場合、DCリンク電圧による報酬が『−10』(例えば、図5におけるステップST4)でDCリンク過電圧アラームの有無による報酬が『+5』(例えば、図5におけるステップST8)となって、全体としての報酬は『−5(=−10+5)』となる。これにより、例えば、行動(操作)として、抵抗回生開始電圧および抵抗回生停止電圧の値を上昇させる。
次に、図10の<2回目>に示されるように、DCリンク電圧が高くてDCリンク過電圧アラームの発生が無い場合、DCリンク電圧による報酬が『+10』(例えば、図5におけるステップST5)でDCリンク過電圧アラームの有無による報酬が『+5』(例えば、図5におけるステップST8)となって、全体としての報酬(行動価値)は『+15(=+10+5)』となる。これにより、例えば、行動として、抵抗回生開始電圧および抵抗回生停止電圧の値を上昇させる。
さらに、図10の<3回目>に示されるように、DCリンク電圧が高くてDCリンク過電圧アラームの発生が有る場合、DCリンク電圧による報酬が『+10』(例えば、図5におけるステップST5)でDCリンク過電圧アラームの有無による報酬が『−30』(例えば、図5におけるステップST7)となって、全体としての報酬(行動価値)は『−20(=+10−30)』となる。これにより、例えば、行動として、抵抗回生開始電圧および抵抗回生停止電圧の値を降下させる。
このような処理を複数回繰り返して、抵抗回生開始電圧および抵抗回生停止電圧の値を学習させることにより、例えば、図10の<n回目>に示されるような、駆動するモータに適した抵抗回生開始電圧および抵抗回生停止電圧の値を得ることが可能になる。なお、機械学習器(4)として、教師あり学習を適用し、例えば、外部から入力する誤差モデルとの差を小さくするようにして、抵抗回生開始電圧および抵抗回生停止電圧の値を学習させることも可能である。
図11は、図1に示す機械学習器の動作の一例を説明するための図である。図11において、X軸に抵抗回生停止電圧を取り、Y軸に最適な補正値を取り、そして、Z軸に抵抗回生開始電圧を取る。このとき、図11に示されるように、抵抗回生開始電圧(Z)および抵抗回生停止電圧(X)により決まる最適な補正値Pcは、常に、補正値の空間CSに含まれることになる。
すなわち、モータ駆動装置は、最初は2つの補正値(Pc)をどのような値にすれば、抵抗回生開始電圧と抵抗回生停止電圧を最適化して、DCリンク過電圧アラームが発生しない範囲で、DCリンク電圧をどこまで上げられるのか分からない。しかしながら、図5を参照して説明したように、例えば、DCリンク過電圧アラームおよびDCリンク電圧の状態量に基づいて機械学習を行うことにより、図11に示されるような、抵抗回生に応じた最適な補正値の空間CSを作り出すことができる。なお、状態量としては、図6〜図9を参照して説明したように、DCリンク過電圧アラームおよびDCリンク電圧の他に、抵抗回生量,抵抗回生時間,抵抗温度(平均値,最大値)および過負荷アラームの少なくとも1つを含んでもよい。
図12は、本発明に係るモータ制御装置の他の実施形態を概略的に示すブロック図であり、教師あり学習を適用したものを示す。図12と、前述した図1の比較から明らかなように、図12に示す教師あり学習を適用したモータ制御装置は、図1に示すQ学習(強化学習)を適用したモータ制御装置において、教師データ(結果(ラベル)付きデータ)が提供されるようになっている。
図12に示されるように、教師あり学習を適用したモータ制御装置における機械学習器4は、状態観測部41と、学習部42と、意思決定部45と、を備える。学習部42は、誤差計算部43と、誤差モデル更新部44と、を含む。なお、本実施形態のモータ制御装置においても、機械学習器4は、少なくとも行動価値テーブル(価値関数)によるDCリンク電圧の値およびDCリンク過電圧アラームの有無に基づいて、抵抗回生開始電圧および抵抗回生停止電圧の値を学習する。
すなわち、状態観測部41は、図1における状態観測部21と同様に、少なくともDCリンク電圧の値およびDCリンク過電圧アラームの有無を状態量として受け取る。また、状態観測部41は、上述したのと同様に、抵抗回生量,抵抗回生時間,抵抗温度および過負荷アラームの有無等も状態量として受け取ることができる。
図12に示されるように、学習部42は、誤差計算部43および誤差モデル更新部44を含み、誤差計算部43および誤差モデル更新部44は、それぞれ、図1に示すQ学習を適用したモータ制御装置における報酬計算部23および価値関数更新部24に相当する。ただし、本実施形態における誤差計算部43には、外部から教師データが入力され、その教師データと誤差モデルの差が小さくなるように、誤差モデル更新部44により誤差モデルが更新される構成等において、図1を参照して説明したものとは異なる。
すなわち、誤差計算部43は、状態観測部41の出力および教師データを受け取って、結果(ラベル)付きデータと学習部42に実装されている誤差モデルの出力との誤差を計算する。ここで、教師データとしては、例えば、同一のモータ制御装置により同じ産業機械やロボット等により同じ作業を行わせる場合、実際に作業を行わせる所定日の前日までに得られたラベル付きデータを保持し、その所定日に、教師データとして誤差計算部43に提供することができる。
あるいは、モータ制御装置(産業機械やロボット等)の外部で行われたシミュレーション等により得られたデータ、または、他のモータ制御装置のラベル付きデータを、メモリカードや通信回線により、そのモータ制御装置の誤差計算部43に教師データとして提供することも可能である。さらに、教師データ(ラベル付きデータ)を、例えば、学習部42に内蔵したフラッシュメモリ(Flash Memory)等の不揮発性メモリに保持し、その不揮発性メモリに保持されたラベル付きデータを、そのまま学習部42で使用することもできる。
以上において、モータ制御装置を複数備えるモータ制御システムを考えた場合、例えば、機械学習器2(4)は、モータ制御装置毎にそれぞれ設けられ、複数のモータ制御装置に設けられた複数の機械学習器2(4)は、通信媒体を介して相互にデータを共有または交換することができる。また、機械学習器2(4)は、クラウドサーバ上に存在させることも可能である。
図13および図14は、図12に示すモータ制御装置の一例を説明するための図である。まず、パラメータを最適化するにあたり、システムにおける観測可能で制御可能な入力(設定値を含む)をx,観測可能だが制御不能な入力をu,観測不能な環境変数をΘ,そして,出力をyとする。
本実施形態において、x,u,Θおよびyは、それぞれ、xは、抵抗回生開始電圧および抵抗回生停止電圧、uは、DCリンク電圧,DCリンク過電圧アラームの有無,放電抵抗器の温度,回生時間および抵抗回生量等、Θは、例えば、工作機械毎の動作パターンおよびモータ駆動装置の電気的特性のばらつき等、そして、yは、過電圧アラームの閾値およびDCリンク電圧(平均値)の差とすることができ、yを『0』に近づけるように多次元のxを制御することが求められる。
図13に示されるように、教師あり学習を適用した実施形態において、入力x,u,Θからyを得るための関数をfΘ(x,u)とする。これを学習モデルと呼び、このfを表現するにあたり、例えば、ニューラルネットワークを使い、入力xとラベルyの組を多く与えて、学習ベースでfを表現するのが、教師あり学習の学習方法である。
教師あり学習を適用した本実施形態においては、DCリンク電圧,抵抗回生開始電圧,抵抗回生停止電圧,放電抵抗器の温度,回生時間,抵抗回生量といったセンサ値および制御パラメータを入力とし、その時の出力yを観測することを、複数回実施して複数のデータセットを獲得し、学習器(例えば、ニューラルネットワーク)で学習させる。これにより、それらのパラメータと出力yの関係性fを、学習ベースで表現する。このとき、本実施形態において、それぞれの値は各個体の電気的特性などに依存するが、測定が不能な環境変数Θによって、この表現される学習モデルfΘ(x,u)は異なる。
このように、学習されたモデルを使うことで、xに含まれる調整パラメータを、どのような値に設定すると、どのような出力yがこの環境だと得られるかが推測することが可能になる。これをもって、xを適切な値に設定することによって、yを所望のものとすることができ、最適なパラメータの調整を行うことが可能になる。
すなわち、図14に示されるように、Θが異なる環境、例えば、環境の異なる複数の個体において、パラメータの最適化を行う場合、異なる個体aで学習されたモデルfΘa(x,ua)を、個体bの調整時に初期値として適用する。そして、そこから、fΘb(x,ub)の学習を進めることにより、特に個体間のΘのばらつきが少ない場合には、非常に早く学習を収束できると考えられる。
このように、本発明に係る機械学習器としては、「強化学習」だけでなく、「教師あり学習」、あるいは、「教師なし学習」や「半教師あり学習」等の様々な機械学習の手法を適用することが可能である。
以上、実施形態を説明したが、ここに記載したすべての例や条件は、発明および技術に適用する発明の概念の理解を助ける目的で記載されたものであり、特に記載された例や条件は発明の範囲を制限することを意図するものではない。また、明細書のそのような記載は、発明の利点および欠点を示すものでもない。発明の実施形態を詳細に記載したが、各種の変更、置き換え、変形が発明の精神および範囲を逸脱することなく行えることが理解されるべきである。
2,4 機械学習器
3 モータ駆動部
11 モータ
12 モータ制御部
21,41 状態観測部
22,42 学習部
23 報酬計算部
24 価値関数更新部
25,45 意思決定部
31 制御用コイル
32 電磁接触器
33 リアクトル(三相リアクトル)
34 AC/DC変換部
35 充電制御部
36 放電制御部
37 DCリンク部コンデンサ
38 DC/AC変換部
43 誤差計算部
44 誤差モデル更新部
341,342,343,344,345,346 整流用ダイオード
351,361 スイッチ
352 充電抵抗
362 放電抵抗
363 温度検出器

Claims (12)

  1. モータの回生電力を制御する抵抗回生開始電圧および抵抗回生停止電圧の値を学習する機械学習器であって、
    少なくとも前記モータを駆動するDCリンク電圧の値または前記DCリンク電圧が過電圧になるときに警告を発するDCリンク過電圧アラームの有無または前記DCリンク部コンデンサに並列に設けられた放電抵抗が過負荷になるときに警告を発する過負荷アラームの有無を観測する状態観測部と、
    前記状態観測部により観測された前記DCリンク電圧の値または前記DCリンク過電圧アラームの有無または前記過負荷アラームの有無に基づいて、前記抵抗回生開始電圧および前記抵抗回生停止電圧の値を学習する学習部と、を備え
    前記モータは、
    DCリンク部コンデンサの両端における前記DCリンク電圧を、DC/AC変換部によりDC/AC変換したAC電圧により駆動され、
    前記DCリンク電圧が前記抵抗回生開始電圧よりも高くなれば、前記DCリンク部コンデンサに並列に設けられた放電抵抗による抵抗回生を開始し、前記DCリンク電圧が前記抵抗回生停止電圧よりも低くなれば、前記DCリンク部コンデンサに並列に設けられた放電抵抗による抵抗回生を停止し、
    前記学習部は、
    前記状態観測部により観測された前記DCリンク電圧の値または前記DCリンク過電圧アラームの有無または前記過負荷アラームの有無を含む状態量に基づいて、報酬を計算する報酬計算部と、
    前記状態観測部および前記報酬計算部の出力に基づいて、前記抵抗回生開始電圧および前記抵抗回生停止電圧の価値を定める価値関数を、前記報酬に応じて更新する価値関数更新部と、を備え、
    前記状態量に基づいて、前記抵抗回生開始電圧および前記抵抗回生停止電圧を決定する操作量を更新する、
    ことを特徴とする機械学習器。
  2. 前記状態観測部は、さらに、
    前記放電抵抗により消費される回生電力を示す抵抗回生量または前記放電抵抗により回生電力が消費される時間を示す抵抗回生時間または前記放電抵抗の温度を示す抵抗温度を観測し、
    前記学習部は、
    前記状態観測部により観測された前記抵抗回生量または前記抵抗回生時間または前記抵抗温度を含む状態量に基づいて、前記抵抗回生開始電圧および前記抵抗回生停止電圧を決定する操作量を更新する、
    ことを特徴とする請求項1に記載の機械学習器。
  3. 前記報酬計算部は、
    前記モータのDCリンク電圧が上昇したら、報酬を増やすと共に、
    前記DCリンク過電圧アラームが発生したら、報酬を減らし、さらに、
    前記抵抗回生量が増加したら、報酬を減らし、
    前記抵抗回生時間が増加したら、報酬を減らし、
    前記抵抗温度が上昇したら、報酬を減らし、あるいは、
    前記過負荷アラームが発生したら報酬を減らす、
    ことを特徴とする請求項に記載の機械学習器。
  4. モータの回生電力を制御する抵抗回生開始電圧および抵抗回生停止電圧の値を学習する機械学習器であって、
    少なくとも前記モータを駆動するDCリンク電圧の値または前記DCリンク電圧が過電圧になるときに警告を発するDCリンク過電圧アラームの有無または前記DCリンク部コンデンサに並列に設けられた放電抵抗が過負荷になるときに警告を発する過負荷アラームの有無を観測する状態観測部と、
    前記状態観測部により観測された前記DCリンク電圧の値または前記DCリンク過電圧アラームの有無または前記過負荷アラームの有無に基づいて、前記抵抗回生開始電圧および前記抵抗回生停止電圧の値を学習する学習部と、を備え
    前記モータは、
    DCリンク部コンデンサの両端における前記DCリンク電圧を、DC/AC変換部によりDC/AC変換したAC電圧により駆動され、
    前記DCリンク電圧が前記抵抗回生開始電圧よりも高くなれば、前記DCリンク部コンデンサに並列に設けられた放電抵抗による抵抗回生を開始し、前記DCリンク電圧が前記抵抗回生停止電圧よりも低くなれば、前記DCリンク部コンデンサに並列に設けられた放電抵抗による抵抗回生を停止し、
    前記学習部は、
    前記状態観測部により観測された前記DCリンク電圧の値または前記DCリンク過電圧アラームの有無または前記過負荷アラームの有無を含む状態量、ならびに、入力された教師データに基づいて誤差を計算する誤差計算部と、
    前記状態観測部および前記誤差計算部の出力に基づいて、前記抵抗回生開始電圧および前記抵抗回生停止電圧の誤差を定める誤差モデルを更新する誤差モデル更新部と、を備え、
    前記状態量に基づいて、前記抵抗回生開始電圧および前記抵抗回生停止電圧を決定する操作量を更新する、
    ことを特徴とする機械学習器。
  5. 前記状態観測部は、さらに、
    前記放電抵抗により消費される回生電力を示す抵抗回生量または前記放電抵抗により回生電力が消費される時間を示す抵抗回生時間または前記放電抵抗の温度を示す抵抗温度を観測し、
    前記学習部は、
    前記状態観測部により観測された前記抵抗回生量または前記抵抗回生時間または前記抵抗温度を含む状態量に基づいて、前記抵抗回生開始電圧および前記抵抗回生停止電圧を決定する操作量を更新する、
    ことを特徴とする請求項4に記載の機械学習器。
  6. さらに、
    前記学習部が学習した前記操作量を参照して、前記抵抗回生開始電圧および前記抵抗回生停止電圧を決定する意思決定部を備える、
    ことを特徴とする請求項乃至請求項のいずれか1項に記載の機械学習器。
  7. 前記機械学習器は、ニューラルネットワークを備える、
    ことを特徴とする請求項1乃至請求項のいずれか1項に記載の機械学習器。
  8. 請求項1乃至請求項のいずれか1項に記載の機械学習器と、
    前記モータを駆動制御するとモータ駆動部と、
    前記機械学習器により学習された前記抵抗回生開始電圧および前記抵抗回生停止電圧の値に基づいて、前記モータ駆動部を介して前記モータの回生電力を制御するモータ制御部と、を備える、
    ことを特徴とするモータ制御装置。
  9. 請求項に記載のモータ制御装置を複数備えるモータ制御システムであって、
    前記機械学習器は、それぞれの前記モータ制御装置に設けられ、
    複数の前記モータ制御装置に設けられた複数の前記機械学習器は、通信媒体を介して相互にデータを共有または交換するようになっている、
    ことを特徴とするモータ制御システム。
  10. 前記機械学習器は、クラウドサーバ上に存在する、
    ことを特徴とする請求項に記載のモータ制御システム。
  11. モータの回生電力を制御する抵抗回生開始電圧および抵抗回生停止電圧の値を学習する機械学習方法であって、
    少なくとも前記モータを駆動するDCリンク電圧の値または前記DCリンク電圧が過電圧になるときに警告を発するDCリンク過電圧アラームの有無または前記DCリンク部コンデンサに並列に設けられた放電抵抗が過負荷になるときに警告を発する過負荷アラームの有無を観測し、
    観測された前記DCリンク電圧の値または前記DCリンク過電圧アラームの有無または前記過負荷アラームの有無に基づいて、前記抵抗回生開始電圧および前記抵抗回生停止電圧の値を学習する機械学習方法において、
    前記モータは、
    DCリンク部コンデンサの両端における前記DCリンク電圧を、DC/AC変換部によりDC/AC変換したAC電圧により駆動され、
    前記DCリンク電圧が前記抵抗回生開始電圧よりも高くなれば、前記DCリンク部コンデンサに並列に設けられた放電抵抗による抵抗回生を開始し、前記DCリンク電圧が前記抵抗回生停止電圧よりも低くなれば、前記DCリンク部コンデンサに並列に設けられた放電抵抗による抵抗回生を停止し、
    前記抵抗回生開始電圧および前記抵抗回生停止電圧の値を学習するのは、
    観測された前記DCリンク電圧の値または前記DCリンク過電圧アラームの有無または前記過負荷アラームの有無を含む状態量に基づいて、報酬を計算し、
    前記状態量および前記報酬に基づいて、前記抵抗回生開始電圧および前記抵抗回生停止電圧の価値を定める価値関数を、前記報酬に応じて更新し、
    前記状態量に基づいて、前記抵抗回生開始電圧および前記抵抗回生停止電圧を決定する操作量を更新する、
    ことを特徴とする機械学習方法。
  12. モータの回生電力を制御する抵抗回生開始電圧および抵抗回生停止電圧の値を学習する機械学習方法であって、
    少なくとも前記モータを駆動するDCリンク電圧の値または前記DCリンク電圧が過電圧になるときに警告を発するDCリンク過電圧アラームの有無または前記DCリンク部コンデンサに並列に設けられた放電抵抗が過負荷になるときに警告を発する過負荷アラームの有無を観測し、
    観測された前記DCリンク電圧の値または前記DCリンク過電圧アラームの有無または前記過負荷アラームの有無に基づいて、前記抵抗回生開始電圧および前記抵抗回生停止電圧の値を学習する機械学習方法において、
    前記モータは、
    DCリンク部コンデンサの両端における前記DCリンク電圧を、DC/AC変換部によりDC/AC変換したAC電圧により駆動され、
    前記DCリンク電圧が前記抵抗回生開始電圧よりも高くなれば、前記DCリンク部コンデンサに並列に設けられた放電抵抗による抵抗回生を開始し、前記DCリンク電圧が前記抵抗回生停止電圧よりも低くなれば、前記DCリンク部コンデンサに並列に設けられた放電抵抗による抵抗回生を停止し、
    前記抵抗回生開始電圧および前記抵抗回生停止電圧の値を学習するのは、
    観測された前記DCリンク電圧の値または前記DCリンク過電圧アラームの有無または前記過負荷アラームの有無を含む状態量、ならびに、入力された教師データに基づいて誤差を計算し、
    前状態量および前記誤差に基づいて、前記抵抗回生開始電圧および前記抵抗回生停止電圧の誤差を定める誤差モデルを更新し、
    前記状態量に基づいて、前記抵抗回生開始電圧および前記抵抗回生停止電圧を決定する操作量を更新する、
    ことを特徴とする機械学習方法。
JP2016004321A 2016-01-13 2016-01-13 抵抗回生開始電圧および抵抗回生停止電圧の値を学習する機械学習器,モータ制御装置,モータ制御システムおよび機械学習方法 Active JP6538573B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016004321A JP6538573B2 (ja) 2016-01-13 2016-01-13 抵抗回生開始電圧および抵抗回生停止電圧の値を学習する機械学習器,モータ制御装置,モータ制御システムおよび機械学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016004321A JP6538573B2 (ja) 2016-01-13 2016-01-13 抵抗回生開始電圧および抵抗回生停止電圧の値を学習する機械学習器,モータ制御装置,モータ制御システムおよび機械学習方法

Publications (2)

Publication Number Publication Date
JP2017127099A JP2017127099A (ja) 2017-07-20
JP6538573B2 true JP6538573B2 (ja) 2019-07-03

Family

ID=59364381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016004321A Active JP6538573B2 (ja) 2016-01-13 2016-01-13 抵抗回生開始電圧および抵抗回生停止電圧の値を学習する機械学習器,モータ制御装置,モータ制御システムおよび機械学習方法

Country Status (1)

Country Link
JP (1) JP6538573B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7200621B2 (ja) * 2018-11-22 2023-01-10 セイコーエプソン株式会社 電子機器
KR102126528B1 (ko) * 2018-12-27 2020-06-24 주식회사 현대케피코 션트-리스 모터의 학습 시스템 및 그 방법
JP7256703B2 (ja) * 2019-06-21 2023-04-12 ファナック株式会社 制御装置、制御システム、及び機械学習装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3520886B2 (ja) * 1996-03-08 2004-04-19 サンケン電気株式会社 二次電池の状態判定方法
JPH10271865A (ja) * 1997-03-28 1998-10-09 Yaskawa Electric Corp 回生異常検出回路
JP2005324887A (ja) * 2004-05-12 2005-11-24 Toshiba Elevator Co Ltd ハイブリッド駆動型エレベータの制御装置

Also Published As

Publication number Publication date
JP2017127099A (ja) 2017-07-20

Similar Documents

Publication Publication Date Title
JP6243385B2 (ja) モータ電流制御における補正値を学習する機械学習装置および方法ならびに該機械学習装置を備えた補正値計算装置およびモータ駆動装置
JP6010204B1 (ja) パワー素子の予測寿命を学習する機械学習装置及び方法並びに該機械学習装置を備えた寿命予測装置及びモータ駆動装置
JP6193961B2 (ja) 機械の送り軸の送りの滑らかさを最適化する機械学習装置および方法ならびに該機械学習装置を備えたモータ制御装置
JP6619192B2 (ja) 移動軸異常負荷警告機能を有するワイヤ放電加工機
US10082771B2 (en) Machine learning method and machine learning apparatus learning operating command to electric motor and machine tool including machine learning apparatus
US10692018B2 (en) Machine learning device and machine learning method for learning optimal object grasp route
US10289075B2 (en) Machine learning apparatus for optimizing cycle processing time of processing machine, motor control apparatus, processing machine, and machine learning method
CN108345273B (zh) 数值控制装置及机器学习装置
JP6174649B2 (ja) ファンモータの予防保全機能を備えたモータ駆動装置
US10353351B2 (en) Machine learning system and motor control system having function of automatically adjusting parameter
JP2018004473A (ja) 軸受の予測寿命を学習する機械学習装置、寿命予測装置および機械学習方法
EP3173171A1 (en) Simulation apparatus of wire electric discharge machine having function of determining welding positions of core using machine learning
US10061276B2 (en) Machine learning system and magnetizer for motor
JP6538573B2 (ja) 抵抗回生開始電圧および抵抗回生停止電圧の値を学習する機械学習器,モータ制御装置,モータ制御システムおよび機械学習方法
US20170091675A1 (en) Production equipment including machine learning system and assembly and test unit
CN108080751B (zh) 数值控制装置
CN108427378B (zh) 数值控制装置
JP2019136818A (ja) 制御装置及び機械学習装置
JP2023508850A (ja) 技術システムを制御する制御装置および制御装置を構成する方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190305

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190606

R150 Certificate of patent or registration of utility model

Ref document number: 6538573

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150