JP2017099227A - ファンモータの清掃間隔を学習する機械学習器、モータ制御システムおよび機械学習方法 - Google Patents

ファンモータの清掃間隔を学習する機械学習器、モータ制御システムおよび機械学習方法 Download PDF

Info

Publication number
JP2017099227A
JP2017099227A JP2015232084A JP2015232084A JP2017099227A JP 2017099227 A JP2017099227 A JP 2017099227A JP 2015232084 A JP2015232084 A JP 2015232084A JP 2015232084 A JP2015232084 A JP 2015232084A JP 2017099227 A JP2017099227 A JP 2017099227A
Authority
JP
Japan
Prior art keywords
motor
state
unit
machine learning
fan motor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015232084A
Other languages
English (en)
Other versions
JP6203808B2 (ja
Inventor
康仁 向井
Yasuhito Mukai
康仁 向井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2015232084A priority Critical patent/JP6203808B2/ja
Priority to US15/334,265 priority patent/US9952574B2/en
Priority to DE102016013840.8A priority patent/DE102016013840B4/de
Priority to CN201611062133.7A priority patent/CN106814606B/zh
Publication of JP2017099227A publication Critical patent/JP2017099227A/ja
Application granted granted Critical
Publication of JP6203808B2 publication Critical patent/JP6203808B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/042Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B15/00Systems controlled by a computer
    • G05B15/02Systems controlled by a computer electric
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02PCONTROL OR REGULATION OF ELECTRIC MOTORS, ELECTRIC GENERATORS OR DYNAMO-ELECTRIC CONVERTERS; CONTROLLING TRANSFORMERS, REACTORS OR CHOKE COILS
    • H02P23/00Arrangements or methods for the control of AC motors characterised by a control method other than vector control
    • H02P23/0004Control strategies in general, e.g. linear type, e.g. P, PI, PID, using robust control
    • H02P23/0031Control strategies in general, e.g. linear type, e.g. P, PI, PID, using robust control implementing a off line learning phase to determine and store useful data for on-line control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

【課題】電動機の寿命を向上させると共に、機械装置の稼働率を向上させることのできる機械学習器、モータ制御システムおよび機械学習方法の提供を図る。
【解決手段】機械装置1に設けられた電動機12を冷却するファンモータ11の清掃頻度を学習する機械学習器2であって、前記機械装置の状態を観測する状態観測部21と、前記状態観測部により観測された状態量に基づいて、前記ファンモータを清掃する行動価値テーブルを更新する学習部22と、を備える。
【選択図】図1

Description

本発明は、ファンモータの清掃間隔を学習する機械学習器、モータ制御システムおよび機械学習方法に関する。
従来、NC(Numerical Control:数値制御)工作機械やロボット等の機械装置には、電動機(駆動モータ)が搭載され、このような駆動モータから放出される熱を冷却するために、通常、ファンモータが設けられている。
ところで、NC工作機械やロボット等は、様々な塵埃が存在する工場等で使用されるため、例えば、ファンモータや通風孔には、汚れが付着し、或いは、埃が溜まり、その結果、駆動モータの冷却能力が低下することになる。そのため、NC工作機械やロボット等の機械装置のユーザは、ファンモータや通風孔の清掃(以下、ファンモータの清掃とも記載する)が求められている。
ファンモータによる冷却能力が低下すると、駆動モータの温度上昇を招き、特に、駆動モータの軸受におけるグリースの温度が上昇することになる。ここで、モータの寿命は、軸受におけるグリースの寿命が大きな要因になっており、このグリースの寿命は、温度の影響を大きく受ける。すなわち、グリースの寿命は、温度が高いほど短くなることが知られており、例えば、グリースの温度が10度程度高くなるだけで、グリースの寿命が数万時間短くなってしまうこともある。
ところで、従来、ファン(ファンモータ)のメンテナンスを最適なタイミングで行うようにする提案がなされている(例えば、特許文献1参照)。
特開2005−249277号公報
上述したように、例えば、NC工作機械やロボット等の機械装置のユーザは、ファンモータの清掃(ファンモータや通風孔の清掃)が求められているが、ファンモータの清掃間隔(ファンモータの清掃タイミング)は、特許文献1に記載された手法を含め、経験則に基づいて決められている。
例えば、特許文献1では、初期特性記憶部に記憶されている合計要求風量−ファン回転数の初期特性と特性修正・更新部からの実特性との差が所定範囲を超えた場合に、メンテナンス時期であると判定することが開示されている。しかしながら、この場合も、ファン(ファンモータ)の初期特性と実特性との差の所定範囲の決定は、経験則に依存することになる。
ここで、ファンモータの清掃を行う頻度が低すぎると、例えば、駆動モータの温度が高くなり、駆動モータ(或いは、駆動モータが設けられた機械装置)の寿命が低下する。一方、ファンモータの清掃を行う頻度が高すぎると、例えば、機械装置の稼働率が低下し、その分、生産性が低下する。
本発明の目的は、上述した従来技術の課題に鑑み、電動機の寿命を向上させると共に、機械装置の稼働率を向上させることのできる機械学習器、モータ制御システムおよび機械学習方法の提供にある。
本発明に係る第1実施形態によれば、機械装置に設けられた電動機を冷却するファンモータの清掃頻度を学習する機械学習器であって、前記機械装置の状態を観測する状態観測部と、前記状態観測部により観測された状態量に基づいて、前記ファンモータを清掃する行動価値テーブルを更新する学習部と、を備える機械学習器が提供される。
前記状態観測部は、前記電動機の電流,電圧,温度およびすべり、前記ファンモータの清掃間隔、並びに、前記機械装置の稼働率の状態量を観測し、前記学習部は、前記状態観測部により観測された、前記電動機の電流,電圧,温度およびすべり、前記ファンモータの清掃間隔、並びに、前記機械装置の稼働率の状態量に基づいて、前記ファンモータを清掃する行動価値テーブルを更新するのが好ましい。
前記状態観測部は、前記電動機の電流,電圧,温度およびすべりの第1状態量を、前記電動機から、前記電動機を制御する電動機制御部へのフィードバック信号として受け取り、前記ファンモータの清掃間隔および前記機械装置の稼働率の第2状態量を、前記電動機制御部から受け取ることができる。前記状態観測部は、さらに、前記電動機の周囲温度の状態量を観測し、前記学習部は、前記状態観測部により観測された前記電動機の周囲温度の状態量も考慮して、前記ファンモータを清掃する行動価値テーブルを更新するのが好ましい。前記状態観測部は、前記電動機の周囲温度の第3状態量を、前記電動機の周囲に設けられた温度計測部から受け取ることができる。
前記学習部は、前記状態観測部により観測された状態量に基づいて報酬を計算する報酬計算部と、前記報酬計算部により計算された報酬に基づいて、現在の状態変数(状態量)から前記ファンモータの清掃間隔の変化量を決定する関数を更新する価値関数更新部と、を含むのが好ましい。前記機械学習器は、さらに、前記学習部の学習結果に基づいて、現在の状態変数から、前記ファンモータを清掃するか否かを決定する意思決定部を含むことができる。
前記報酬計算部は、前記ファンモータの清掃間隔の増加、観測された前記電動機の温度と前記電動機の予想温度の差分の縮小、または、前記機械装置の稼働率の低下に基づいて、より小さい報酬を与え、前記ファンモータの清掃間隔の短縮、観測された前記電動機の温度と前記電動機の予想温度の差分の増大、または、前記機械装置の稼働率の上昇に基づいて、より大きい報酬を与えるのが好ましい。さらに、前記ファンモータを清掃するとき、前記意思決定部の出力に基づいて警報を出力する警報出力部を備えることもできる。前記機械学習器は、ニューラルネットワークを有してもよい。
本発明に係る第2実施形態によれば、機械装置に設けられた電動機を冷却するファンモータの清掃頻度を学習する機械学習器であって、前記機械装置の状態を観測する状態観測部と、前記状態観測部により観測された状態量に基づいて、前記ファンモータを清掃する行動価値テーブルを更新する学習部と、を備え、前記学習部は、前記状態観測部により観測された状態量に基づいて報酬を計算する報酬計算部と、前記報酬計算部により計算された報酬に基づいて、現在の状態変数から前記ファンモータの清掃間隔の変化量を決定する関数を更新する価値関数更新部と、を含む機械学習器を複数備えるモータ制御システムであって、複数の前記機械学習器の間でデータをやり取りする手段を有し、複数の前記機械学習器における1つの機械学習器の価値関数更新部により更新された関数を用いて、他の機械学習器の価値関数更新部の関数を更新するモータ制御システムが提供される。前記モータ制御システムは、複数の前記電動機および前記ファンモータを備え、前記機械学習器は、それぞれの前記ファンモータに対応して設けられ、前記機械学習器が学習した前記状態変数を通信媒体によって共有または相互交換することができる。
本発明に係る第3実施形態によれば、機械装置に設けられた電動機を冷却するファンモータの清掃頻度を学習する機械学習方法であって、前記機械装置の状態を観測し、観測された状態量に基づいて、前記ファンモータを清掃する行動価値テーブルを更新する機械学習方法が提供される。前記機械装置の状態の観測は、前記電動機の電流,電圧,温度およびすべり、前記ファンモータの清掃間隔、並びに、前記機械装置の稼働率の状態量を観測し、前記ファンモータを清掃する行動価値テーブルの更新は、観測された、前記電動機の電流,電圧,温度およびすべり、前記ファンモータの清掃間隔、並びに、前記機械装置の稼働率の状態量に基づいて、前記ファンモータを清掃する行動価値テーブルを更新するのが好ましい。前記機械装置の状態の観測は、さらに、前記電動機の周囲温度の状態量を観測し、前記ファンモータを清掃する行動価値テーブルの更新は、観測された前記電動機の周囲温度の状態量も考慮して、前記ファンモータを清掃する行動価値テーブルを更新することもできる。
本発明に係る機械学習器、モータ制御システムおよび機械学習方法によれば、電動機の寿命を向上させると共に、機械装置の稼働率を向上させることができるという効果を奏する。
図1は、本発明に係るモータ制御システムの一実施例を概略的に示すブロック図である。 図2は、ニューロンのモデルを模式的に示す図である。 図3は、図2に示すニューロンを組み合わせて構成した三層のニューラルネットワークを模式的に示す図である。 図4は、図1に示す機械学習器の動作の一例を示すフローチャートである。 図5は、図1に示す機械学習器の動作の一例を説明するための図(その1)である。 図6は、図1に示す機械学習器の動作の一例を説明するための図(その2)である。 図7は、図1に示す機械学習器の動作の他の例を示すフローチャートである。 図8は、図1に示す機械学習器で使用される行動価値テーブルの一例を示す図である。
以下、本発明に係る機械学習器、モータ制御システムおよび機械学習方法の実施例を、添付図面を参照して詳述する。図1は、本発明に係るモータ制御システムの一実施例を概略的に示すブロック図である。
なお、以下の記載では、説明を簡略化するために、主として、モータ制御部13により制御される1つの駆動モータ12に対して1つのファンモータ11が設けられ、機械学習器2により、そのファンモータ11の清掃間隔を学習する場合を例として説明する。また、以下では、単に、ファンモータ11の清掃と記載しているが、これは、ファンモータ11を自動的に清掃する場合、或いは、オペレータが人手により清掃する場合のどちらであってもよい。さらに、ファンモータ11の清掃は、ファンモータ11だけの清掃ではなく、例えば、通風孔の汚れや詰まりを解消するといった様々な清掃作業を含む。
図1に示されるように、本実施例のモータ制御システムは、機械装置1および機械学習器2を含む。ここで、機械装置1は、NC工作機械やロボット等の電動機(駆動モータ)12が設けられ、ファンモータ11により、駆動モータ12から放出される熱を冷却するようになっている。機械装置1は、さらに、駆動モータ12を制御する電動機制御部(モータ制御部)13および温度計測部14が設けられている。
機械装置1は、複数の駆動モータ12を含んでいてもよく、また、駆動モータ12を冷却するファンモータ11も、駆動モータ12の数に対応して複数設けることができる。また、1つの駆動モータ12に対して、複数のファンモータ11を設けることも可能である。さらに、モータ制御部13は、複数の駆動モータ12を制御することができるのはいうまでもない。
図1に示されるように、機械学習器2は、機械装置1に設けられた駆動モータ12を冷却するファンモータ11の清掃頻度を学習するものであり、状態観測部21、学習部22、および、意思決定部25を含む。状態観測部21は、機械装置1の状態を観測し、学習部22は、状態観測部21により観測された状態量に基づいてファンモータ11を清掃する行動価値テーブルを更新する。すなわち、状態観測部21は、駆動モータ12の電流,電圧,温度およびすべり、ファンモータ11の清掃間隔、並びに、機械装置1の稼働率の状態量を観測する。また、状態観測部21は、例えば、駆動モータ12の近傍に配置され、駆動モータ12の周囲温度を計測する温度計測部14の出力(駆動モータ12の周囲温度)も状態量として観測することができる。
ここで、状態観測部21は、例えば、駆動モータ12の電流,電圧,温度およびすべりの状態量(第1状態量)SV1を、駆動モータ12からモータ制御部13へのフィードバック信号FBとして受け取る。すなわち、モータ制御部13は、駆動モータ12に対して制御信号CSを出力して駆動モータ12を制御すると共に、駆動モータ12から、駆動モータ12の電流,電圧,温度およびすべりといった状態量をフィードバック信号FBとして受け取る。そして、このフィードバック信号FBが機械学習器2の状態観測部21に対して第1状態量SV1として与えられるようになっている。
また、状態観測部21は、例えば、ファンモータ11の清掃間隔および機械装置1の稼働率といった状態量(第2状態量)SV2を、モータ制御部13から受け取る。さらに、状態観測部21は、例えば、駆動モータ12の周囲温度の状態量(第3状態量)SV3を、駆動モータ12の近傍に配置された温度計測部14から受け取る。
学習部22は、状態観測部21により観測された状態量に基づいて報酬を計算する報酬計算部23、および、報酬計算部23により計算された報酬に基づいて、現在の状態量(状態変数)からファンモータ11の清掃間隔の変化量を決定する関数を更新する価値関数更新部24を含む。報酬計算部23は、例えば、駆動モータ12の電流および電圧の値(第1状態量SV1の一部)、並びに、駆動モータ12の周囲温度(第3状態量SV3)から駆動モータ12の予想温度と、ファンモータ11の清掃間隔および機械装置1の稼働率(第2状態量SV2)から、報酬を計算する。
ところで、駆動モータ12の寿命は、ほぼ軸受の寿命、すなわち、軸受におけるグリースの寿命が大きな要因になっている。前述したように、グリースの寿命は、温度が高いほど短くなる。簡易的な計算例として、例えば、ΔT(モータの温度上昇)={(電圧)×(電流)−(出力)−(冷却能力)}/(熱容量)として表すことができる。ここで、ファンモータの清掃を行う頻度が低すぎると、例えば、駆動モータの温度が高くなり、駆動モータ(或いは、駆動モータが設けられた機械装置)の寿命が低下する。一方、ファンモータの清掃を行う頻度が高すぎると、例えば、機械装置の稼働率が低下し、その分、生産性が低下する。
そこで、報酬計算部23は、例えば、ファンモータ11の清掃間隔の増加、観測された駆動モータ12の温度と駆動モータ12の予想温度の差分の縮小、または、機械装置1の稼働率の低下に基づいてより小さい報酬を与え、逆に、ファンモータ11の清掃間隔の短縮、観測された駆動モータ12の温度と駆動モータ12の予想温度の差分の増大、または、機械装置1の稼働率の上昇に基づいてより大きい報酬を与えるようになっている。
価値関数更新部24は、報酬計算部23からの報酬に基づいて価値関数(ファンモータ11を清掃する行動価値テーブル)の更新を行う。なお、価値関数は、例えば、機械学習器2に設けられたメモリに格納され、或いは、通信回線等を介して他の機械学習器2に伝送することもできる。また、図1において、機械学習器2には、警報出力部26が設けられ、ファンモータ11を清掃するとき、意思決定部25の出力に基づいて警報を出力するようになっている。この警報出力部26の出力としては、例えば、モータ制御部13に設けられたディスプレイ上に対して、ファンモータ11の清掃を促す表示を行い、或いは、オペレータが注目する位置に表示ランプを設けて点滅させる等の様々な手法により、警報を出力することができる。これを受けて、例えば、オペレータは、ファンモータの清掃(ファンモータや通風孔の清掃)を行うことができる。なお、ファンモータや通風孔の清掃は、警報出力部26の出力信号に基づいて自動的に行うことも可能なのはいうまでもない。
また、モータ制御システムは、それぞれが駆動モータ12(12a〜12z),ファンモータ11(11a〜11z)およびモータ制御部13(13a〜13z)を含む複数の機械装置1(1a〜1z)、並びに、機械装置1(1a〜1z)に対応した複数の機械学習器2(2a〜2z)を有していてもよい。ここで、各参照符号の後に付したa〜zは、その構成要素が複数であることを意味するものとする。このように、モータ制御システムが複数の機械装置1a〜1z、並びに、機械装置1a〜1zに対応した複数の機械学習器2a〜2zを有している場合、例えば、1つの機械学習器2aの価値関数更新部24aにより更新された関数を用いて、他の機械学習器2b〜2zの価値関数更新部24b〜24zの関数を更新することが可能である。
ところで、機械学習器2は、装置に入力されるデータの集合から、その中にある有用な規則や知識表現、判断基準などを解析により抽出し、その判断結果を出力するとともに、知識の学習(機械学習)を行う機能を有する。機械学習の手法は様々であるが、大別すれば、例えば、「教師あり学習」、「教師なし学習」および「強化学習」に分けられる。さらに、これらの手法を実現するうえで、特徴量そのものの抽出を学習する、「深層学習(ディープラーニング:Deep Learning)」と呼ばれる手法がある。なお、これらの機械学習(機械学習器2)は、例えば、GPGPU(General-Purpose computing on Graphics Processing Units)や大規模PCクラスター等を適用することにより実現される。なお、本実施例では、「強化学習」に注目して説明するが、必ずしも「強化学習」に限定されるものではない。
まず、強化学習の問題設定として、次のように考える。
・機械装置1(ファンモータ11)は、環境の状態を観測し、行動(ファンモータ11の清掃)を決定する。
・環境は、何らかの規則に従って変化し、さらに、自分の行動が、環境に変化を与えることもある。
・行動するたびに、報酬信号が帰ってくる。
・最大化したいのは、将来にわたっての報酬(割引)の合計である。
・行動が引き起こす結果を全く知らない、または、不完全にしか知らない状態から学習はスタートする。すなわち、機械装置1は、実際に行動して初めて、その結果をデータとして得ることができる。つまり、試行錯誤しながら最適な行動を探索する必要がある。
・人間の動作を真似るように、事前学習(前述の教師あり学習や、逆強化学習といった手法)した状態を初期状態として、良いスタート地点から学習をスタートさせることもできる。
ここで、強化学習とは、判定や分類だけではなく、行動を学習することにより、環境に行動が与える相互作用を踏まえて適切な行動を学習、すなわち、将来的に得られる報酬を最大にするために学習する方法を学ぶものである。このことは、本実施例において、例えば、ファンモータ11の清掃を行ったことにより、駆動モータ12の状態量(電流,電圧,温度等)が決定するといった、未来に影響をおよぼすような行動を獲得できることを表している。以下に、例として、Q学習の場合で説明を続けるが、Q学習に限定されるものではない。
Q学習は、或る環境状態sの下で、行動aを選択する価値Q(s,a)を学習する方法である。つまり、或る状態sのとき、価値Q(s,a)の最も高い行動aを最適な行動として選択すればよい。しかし、最初は、状態sと行動aとの組合せについて、価値Q(s,a)の正しい値は全く分かっていない。そこで、エージェント(行動主体)は、或る状態sの下で様々な行動aを選択し、その時の行動aに対して、報酬が与えられる。それにより、エージェントは、より良い行動の選択、すなわち、正しい価値Q(s,a)を学習していく。
さらに、行動の結果、将来にわたって得られる報酬の合計を最大化したいので、最終的にQ(s,a)=E[Σ(γt)rt]となるようにすることを目指す。ここで、期待値は、最適な行動に従って状態変化したときについてとるものとし、それは、分かっていないので、探索しながら学習することになる。このような価値Q(s,a)の更新式は、例えば、次の式(1)により表すことができる。
Figure 2017099227
上記の式(1)において、stは、時刻tにおける環境の状態を表し、atは、時刻tにおける行動を表す。行動atにより、状態はst+1に変化する。rt+1は、その状態の変化により得られる報酬を表している。また、maxの付いた項は、状態st+1の下で、その時に分かっている最もQ値の高い行動aを選択した場合のQ値にγを乗じたものになる。ここで、γは、0<γ≦1のパラメータで、割引率と呼ばれる。また、αは、学習係数で、0<α≦1の範囲とする。
上述した式(1)は、試行atの結果、帰ってきた報酬rt+1を元に、状態stにおける行動atの評価値Q(st,at)を更新する方法を表している。すなわち、状態sにおける行動aの評価値Q(st,at)よりも、報酬rt+1 + 行動aによる次の状態における最良の行動max aの評価値Q(st+1,max at+1)の方が大きければ、Q(st,at)を大きくし、反対に小さければ、Q(st,at)を小さくすることを示している。つまり、或る状態における或る行動の価値を、結果として即時帰ってくる報酬と、その行動による次の状態における最良の行動の価値に近付けるようにしている。
ここで、Q(s,a)の計算機上での表現方法は、すべての状態行動ペア(s,a)に対して、その値をテーブルとして保持しておく方法と、Q(s,a)を近似するような関数を用意する方法がある。後者の方法では、前述の式(1)は、確率勾配降下法などの手法で近似関数のパラメータを調整していくことにより、実現することができる。なお、近似関数としては、後述のニューラルネットワークを用いることができる。
ここで、強化学習での価値関数の近似アルゴリズムとして、ニューラルネットワークを用いることができる。図2は、ニューロンのモデルを模式的に示す図であり、図3は、図2に示すニューロンを組み合わせて構成した三層のニューラルネットワークを模式的に示す図である。すなわち、ニューラルネットワークは、例えば、図2に示すようなニューロンのモデルを模した演算装置およびメモリ等で構成される。
図2に示されるように、ニューロンは、複数の入力x(図2では、一例として入力x1〜x3)に対する出力(結果)yを出力するものである。各入力x(x1,x2,x3)には、この入力xに対応する重みw(w1,w2,w3)が乗算される。これにより、ニューロンは、次の式(2)により表現される結果yを出力する。なお、入力x、結果yおよび重みwは、すべてベクトルである。また、下記の式(2)において、θは、バイアスであり、fkは、活性化関数である。
Figure 2017099227
図3を参照して、図2に示すニューロンを組み合わせて構成した三層のニューラルネットワークを説明する。図3に示されるように、ニューラルネットワークの左側から複数の入力x(ここでは、一例として、入力x1〜入力x3)が入力され、右側から結果y(ここでは、一例として、結果y1〜入力y3)が出力される。具体的に、入力x1,x2, x3は、3つのニューロンN11〜N13の各々に対して、対応する重みが掛けられて入力される。これらの入力に掛けられる重みは、まとめてw1と標記されている。
ニューロンN11〜N13は、それぞれ、z11〜z13を出力する。図3において、これらz11〜z13は、まとめて特徴ベクトルz1と標記され、入力ベクトルの特徴量を抽出したベクトルとみなすことができる。この特徴ベクトルz1は、重みw1と重みw2との間の特徴ベクトルである。z11〜z13は、2つのニューロンN21およびN22の各々に対して、対応する重みが掛けられて入力される。これらの特徴ベクトルに掛けられる重みは、まとめてw2と標記されている。
ニューロンN21,N22は、それぞれz21,z22を出力する。図3において、これらz21,z22は、まとめて特徴ベクトルz2と標記されている。この特徴ベクトルz2は、重みw2と重みw3との間の特徴ベクトルである。z21,z22は、3つのニューロンN31〜N33の各々に対して、対応する重みが掛けられて入力される。これらの特徴ベクトルに掛けられる重みは、まとめてw3と標記されている。
最後に、ニューロンN31〜N33は、それぞれ、結果y1〜結果y3を出力する。ニューラルネットワークの動作には、学習モードと価値予測モードとがある。例えば、学習モードにおいて、学習データセットを用いて重みWを学習し、そのパラメータを用いて予測モードにおいて、ロボットの行動判断を行う。なお、便宜上、予測と書いたが、検出・分類・推論など多様なタスクが可能なのはいうまでもない。
ここで、予測モードで実際にロボットを動かして得られたデータを即時学習し、次の行動に反映させる(オンライン学習)ことも、予め収集しておいたデータ群を用いてまとめた学習を行い、以降はずっとそのパラメータで検知モードを行う(バッチ学習)こともできる。あるいは、その中間的な、ある程度データが溜まるたびに学習モードを挟むということも可能である。
また、重みw1〜w3は、誤差逆伝搬法(誤差逆転伝播法:バックプロパゲーション:Backpropagation)により学習可能なものである。なお、誤差の情報は、右側から入り左側に流れる。誤差逆伝搬法は、各ニューロンについて、入力xが入力されたときの出力yと真の出力y(教師)との差分を小さくするように、それぞれの重みを調整(学習)する手法である。このようなニューラルネットワークは、三層以上に、さらに層を増やすことも可能である(深層学習と称される)。また、入力の特徴抽出を段階的に行い、結果を回帰する演算装置を、教師データのみから自動的に獲得することも可能である。
そこで、上述したように、本実施例の機械学習器2は、例えば、Q学習を実施すべく、状態観測部21、学習部22、および、意思決定部25を備えている。ただし、本発明に適用される機械学習方法は、Q学習に限定されないのは前述した通りである。なお、機械学習(機械学習器2)は、例えば、GPGPUや大規模PCクラスター等を適用することで実現可能なのは、前述した通りである。
図4は、図1に示す機械学習器の動作の一例を示すフローチャートである。図4に示されるように、機械学習が開始(学習スタート)すると、行動価値テーブルに基づいてファンモータの清掃間隔を決定し(ステップST11)、機械稼働率を判定して、報酬(報酬の値)を決める(ステップST12〜ST15)。例えば、機械装置1の稼働率が低い場合には、報酬なし(ステップST13)とし、機械装置1の稼働率が中程度の場合には、「+5」の報酬を出力し(ステップST14)、そして、機械装置1の稼働率が高い場合には、「+10」の報酬を出力する(ステップST15)。さらに、ステップST13〜ST15により出力された報酬は、それまでの報酬に積算する(ステップST16)。
次に、モータの予想温度との比較を行って、報酬を決める(ステップST17〜ST20)。例えば、観測された駆動モータ12の温度が駆動モータ12の予想温度よりもかなり高い場合には、「−10」の報酬を出力し(ステップST18)、観測された駆動モータ12の温度が駆動モータ12の予想温度よりも高い場合には、「+6」の報酬を出力し(ステップST19)、そして、観測された駆動モータ12の温度と駆動モータ12の予想温度が同等の場合には、「+10」の報酬を出力する(ステップST20)。
さらに、ステップST18〜ST20により出力された報酬は、それまでの報酬に積算し(ステップST21)、積算された報酬に基づいて、行動価値テーブルを更新し(ステップST21)、同様の処理を繰り返す。ここで、ステップST13〜ST15における報酬の値、並びに、ステップST18〜ST20における報酬の値は、単なる例であり、適宜変更することが可能である。
図5および図6は、図1に示す機械学習器の動作の一例を説明するための図である。ここで、図5(a)は、図4におけるステップST17〜ST20を参照して説明した駆動モータ12の予想温度との比較と、ファンモータ11の清掃間隔の関係を示し、図5(b)は、図4におけるステップST12〜ST15を参照して説明した機械装置1の稼働率と、ファンモータ11の清掃間隔の関係を示す。そして、図5(c)は、図5(a)および図5(b)に示す特性曲線の一致個所、すなわち、本実施例の機械学習器2により求める適切なファンモータ11の清掃間隔の範囲(学習目標部分)PRを示す。
また、図6(a)は、図5(a)と同等のもので、機械学習器2により求める学習目標部分PRを示し、図6(b)は、図6(a)に示す学習目標部分PRを報酬に換算して示すものである。すなわち、機械学習器2は、図4におけるステップST12〜ST15による報酬およびステップST17〜ST20による報酬は、それぞれステップST16およびST21により、それまでの報酬に積算され、その積算された報酬(ステップST21)が最大となるように学習を行って、ファンモータ11の最適な清掃間隔を求めるようになっている。
図7は、図1に示す機械学習器の動作の他の例を示すフローチャートである。図7と、前述した図4の比較から明らかなように、図7におけるステップST32〜ST36は、図4におけるステップST12〜ST16に対応し、図7におけるステップST37〜ST41は、図4におけるステップST17〜ST21に対応する。すなわち、機械稼働率を判定して報酬を決める処理と、モータの予想温度との比較を行って報酬を決める処理は、同時に(並列に)行うことができるため、図7に示すフローチャートでは、これらの処理を同時に行うようになっている。ここで、図7におけるステップST31およびST43は、図4におけるステップST11およびST22に対応する。
ただし、図7では、同時に処理される、ステップST32〜ST35による報酬を積算するステップST36(図4におけるステップST16に対応)の出力と、ステップST37〜ST40による報酬を積算するステップST41(図4におけるステップST21に対応)の出力を加算(積算)するステップST42が追加されている。
図8は、図1に示す機械学習器で使用される行動価値テーブル(価値関数)の一例を示す図であり、縦方向に番号N1〜N18の18種類のパターンを示す。また、横方向に、「モータの予想温度との比較(観測された駆動モータ12の温度と駆動モータ12の予想温度との誤差)」,「機械稼働率(機械装置1の稼働率)」,「清掃間隔(ファンモータ11の清掃間隔)」,「現在の状態」,「次の状態」および「行動価値」を示す。ここで、「清掃間隔」を『縮める』に選択した場合は、「モータの予想温度との比較」を1ランク下げると共に、「機械稼働率」を1ランク下げるものとし、また、「清掃間隔」を『伸ばす』に選択した場合は、「機械稼働率」を1ランク上げるものとして説明する。
具体的に、図8において、番号N9,N10に示されるように、例えば、「モータの予想温度との比較」が『中(高い:例えば、図4におけるステップST19)』であれば報酬は「+6」になり、「機械稼働率」が『中(例えば、図4におけるステップST14)』であれば報酬は「+5」になり、「現在の状態(報酬)」は「+11」になる。このとき、「清掃間隔」を『縮める』(N9)か「清掃間隔」を『伸ばす』(N10)かにより、「次の状態」が変化する。
すなわち、N9の場合、「清掃間隔」を『縮める』場合は、「モータの予想温度との比較」を1ランク下げる(『小(同等:例えば、図4におけるステップST20)』、および、「機械稼働率」を1ランク下げる(『低(例えば、図4におけるステップST13)』)ことになってN17,N18に対応するため、報酬は「+10+0=+10」になり、差し引きした「行動価値」は『+10−11=−1』になる。
一方、N10の場合、「清掃間隔」を『伸ばす』場合は、「モータの予想温度との比較」はそのまま(『中(高い:例えば、図4におけるステップST19)』および「機械稼働率」を1ランク上げる(『高(例えば、図4におけるステップST15)』)ことになってN3,N4に対応するため、報酬は「+6+10=+16」になり、差し引きした「行動価値」は『+16−11=+5』になる。
従って、上記の場合、N9の「行動価値」が『−1』でN10の「行動価値」が『+5』になり、「行動価値」に関してN9<N10になるため、N10の行動、すなわち、「清掃間隔」を『伸ばす』行動が選択されることになる。これは、単なる一例であり、「清掃間隔」を『縮める』か『伸ばす』かに対応する場合の選択、或いは、それぞれの場合の報酬の値の設定等は、様々な変形および変更が可能である。さらに、行動価値テーブル(価値関数)は、図8に限定されるものではなく、様々なものが適用され得るのはいうまでもない。
このように、本発明に係るファンモータの清掃間隔を学習する機械学習器、モータ制御システムおよび機械学習方法によれば、ファンモータの最適な清掃間隔を求めることができ、電動機の寿命を向上させると共に、機械装置の稼働率を向上させることが可能になる。
以上、実施形態を説明したが、ここに記載したすべての例や条件は、発明および技術に適用する発明の概念の理解を助ける目的で記載されたものであり、特に記載された例や条件は発明の範囲を制限することを意図するものではない。また、明細書のそのような記載は、発明の利点および欠点を示すものでもない。発明の実施形態を詳細に記載したが、各種の変更、置き換え、変形が発明の精神および範囲を逸脱することなく行えることが理解されるべきである。
1 機械装置(NC工作機械,ロボット等)
2 機械学習器
11 ファンモータ
12 駆動モータ(電動機)
13 モータ制御部(電動機制御部)
14 温度計測部
21 状態観測部
22 学習部
23 報酬計算部
24 価値関数更新部
25 意思決定部
図3を参照して、図2に示すニューロンを組み合わせて構成した三層のニューラルネットワークを説明する。図3に示されるように、ニューラルネットワークの左側から複数の入力x(ここでは、一例として、入力x1〜入力x3)が入力され、右側から結果y(ここでは、一例として、結果y1〜入力y3)が出力される。具体的に、入力x1,x2, x3は、3つのニューロンN11〜N13の各々に対して、対応する重みが掛けられて入力される。これらの入力に掛けられる重みは、まとめて1と標記されている。
ニューロンN11〜N13は、それぞれ、z11〜z13を出力する。図3において、これらz11〜z13は、まとめて特徴ベクトル1と標記され、入力ベクトルの特徴量を抽出したベクトルとみなすことができる。この特徴ベクトル1は、重み1と重み2との間の特徴ベクトルである。z11〜z13は、2つのニューロンN21およびN22の各々に対して、対応する重みが掛けられて入力される。これらの特徴ベクトルに掛けられる重みは、まとめて2と標記されている。
ニューロンN21,N22は、それぞれz21,z22を出力する。図3において、これらz21,z22は、まとめて特徴ベクトル2と標記されている。この特徴ベクトル2は、重み2と重み3との間の特徴ベクトルである。z21,z22は、3つのニューロンN31〜N33の各々に対して、対応する重みが掛けられて入力される。これらの特徴ベクトルに掛けられる重みは、まとめて3と標記されている。
また、重み1〜3は、誤差逆伝搬法(誤差逆転伝播法:バックプロパゲーション:Backpropagation)により学習可能なものである。なお、誤差の情報は、右側から入り左側に流れる。誤差逆伝搬法は、各ニューロンについて、入力xが入力されたときの出力yと真の出力y(教師)との差分を小さくするように、それぞれの重みを調整(学習)する手法である。このようなニューラルネットワークは、三層以上に、さらに層を増やすことも可能である(深層学習と称される)。また、入力の特徴抽出を段階的に行い、結果を回帰する演算装置を、教師データのみから自動的に獲得することも可能である。

Claims (15)

  1. 機械装置に設けられた電動機を冷却するファンモータの清掃頻度を学習する機械学習器であって、
    前記機械装置の状態を観測する状態観測部と、
    前記状態観測部により観測された状態量に基づいて、前記ファンモータを清掃する行動価値テーブルを更新する学習部と、を備える、
    ことを特徴とする機械学習器。
  2. 前記状態観測部は、
    前記電動機の電流,電圧,温度およびすべり、前記ファンモータの清掃間隔、並びに、前記機械装置の稼働率の少なくとも1つの状態量を観測し、
    前記学習部は、
    前記状態観測部により観測された、前記電動機の電流,電圧,温度およびすべり、前記ファンモータの清掃間隔、並びに、前記機械装置の稼働率の少なくとも1つの状態量に基づいて、前記ファンモータを清掃する行動価値テーブルを更新する、
    ことを特徴とする請求項1に記載の機械学習器。
  3. 前記状態観測部は、
    前記電動機の電流,電圧,温度およびすべりの第1状態量を、前記電動機から、前記電動機を制御する電動機制御部へのフィードバック信号として受け取り、
    前記ファンモータの清掃間隔および前記機械装置の稼働率の第2状態量を、前記電動機制御部から受け取る、
    ことを特徴とする請求項2に記載の機械学習器。
  4. 前記状態観測部は、さらに、
    前記電動機の周囲温度の状態量を観測し、
    前記学習部は、
    前記状態観測部により観測された前記電動機の周囲温度の状態量も考慮して、前記ファンモータを清掃する行動価値テーブルを更新する、
    ことを特徴とする請求項2または請求項3に記載の機械学習器。
  5. 前記状態観測部は、
    前記電動機の周囲温度の第3状態量を、前記電動機の近傍に配置された温度計測部から受け取る、
    ことを特徴とする請求項4に記載の機械学習器。
  6. 前記学習部は、
    前記状態観測部により観測された状態量に基づいて報酬を計算する報酬計算部と、
    前記報酬計算部により計算された報酬に基づいて、現在の状態変数から前記ファンモータの清掃間隔の変化量を決定する関数を更新する価値関数更新部と、を含む、
    ことを特徴とする請求項1〜請求項5のいずれか1項に記載の機械学習器。
  7. 前記機械学習器は、さらに、
    前記学習部の学習結果に基づいて、現在の状態変数から、前記ファンモータを清掃するか否かを決定する意思決定部を含む、
    ことを特徴とする請求項6に記載の機械学習器。
  8. 前記報酬計算部は、
    前記ファンモータの清掃間隔の増加、観測された前記電動機の温度と前記電動機の予想温度の差分の縮小、または、前記機械装置の稼働率の低下に基づいて、より小さい報酬を与え、
    前記ファンモータの清掃間隔の短縮、観測された前記電動機の温度と前記電動機の予想温度の差分の増大、または、前記機械装置の稼働率の上昇に基づいて、より大きい報酬を与える、
    ことを特徴とする請求項7に記載の機械学習器。
  9. さらに、
    前記ファンモータを清掃するとき、前記意思決定部の出力に基づいて警報を出力する警報出力部を備える、
    ことを特徴とする請求項7または請求項8に記載の機械学習器。
  10. 前記機械学習器は、
    ニューラルネットワークを有する、請求項1〜請求項9のいずれか1項に記載の機械学習器。
  11. 請求項6〜請求項10のいずれか1項に記載の機械学習器を複数備えるモータ制御システムであって、
    複数の前記機械学習器の間でデータをやり取りする手段を有し、複数の前記機械学習器における1つの機械学習器の価値関数更新部により更新された関数を用いて、他の機械学習器の価値関数更新部の関数を更新する、
    ことを特徴とするモータ制御システム。
  12. 前記モータ制御システムは、複数の前記電動機および前記ファンモータを備え、前記機械学習器は、それぞれの前記ファンモータに対応して設けられ、前記機械学習器が学習した前記状態変数を通信媒体によって共有または相互交換するようになっている、
    ことを特徴とする請求項11に記載のモータ制御システム。
  13. 機械装置に設けられた電動機を冷却するファンモータの清掃頻度を学習する機械学習方法であって、
    前記機械装置の状態を観測し、
    観測された状態量に基づいて、前記ファンモータを清掃する行動価値テーブルを更新する、
    ことを特徴とする機械学習方法。
  14. 前記機械装置の状態の観測は、
    前記電動機の電流,電圧,温度およびすべり、前記ファンモータの清掃間隔、並びに、前記機械装置の稼働率の少なくとも1つの状態量を観測し、
    前記ファンモータを清掃する行動価値テーブルの更新は、
    観測された、前記電動機の電流,電圧,温度およびすべり、前記ファンモータの清掃間隔、並びに、前記機械装置の稼働率の少なくとも1つの状態量に基づいて、前記ファンモータを清掃する行動価値テーブルを更新する、
    ことを特徴とする請求項13に記載の機械学習方法。
  15. 前記機械装置の状態の観測は、さらに、
    前記電動機の周囲温度の状態量を観測し、
    前記ファンモータを清掃する行動価値テーブルの更新は、
    観測された前記電動機の周囲温度の状態量も考慮して、前記ファンモータを清掃する行動価値テーブルを更新する、
    ことを特徴とする請求項14に記載の機械学習方法。
JP2015232084A 2015-11-27 2015-11-27 ファンモータの清掃間隔を学習する機械学習器、モータ制御システムおよび機械学習方法 Active JP6203808B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015232084A JP6203808B2 (ja) 2015-11-27 2015-11-27 ファンモータの清掃間隔を学習する機械学習器、モータ制御システムおよび機械学習方法
US15/334,265 US9952574B2 (en) 2015-11-27 2016-10-25 Machine learning device, motor control system, and machine learning method for learning cleaning interval of fan motor
DE102016013840.8A DE102016013840B4 (de) 2015-11-27 2016-11-18 Maschinenlernvorrichtung, Motorsteuersystem und Maschinenlernverfahren zum Erlernen eines Reinigungsintervalls eines Lüftermotors
CN201611062133.7A CN106814606B (zh) 2015-11-27 2016-11-25 机械学习器、电动机控制系统以及机械学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015232084A JP6203808B2 (ja) 2015-11-27 2015-11-27 ファンモータの清掃間隔を学習する機械学習器、モータ制御システムおよび機械学習方法

Publications (2)

Publication Number Publication Date
JP2017099227A true JP2017099227A (ja) 2017-06-01
JP6203808B2 JP6203808B2 (ja) 2017-09-27

Family

ID=58777513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015232084A Active JP6203808B2 (ja) 2015-11-27 2015-11-27 ファンモータの清掃間隔を学習する機械学習器、モータ制御システムおよび機械学習方法

Country Status (4)

Country Link
US (1) US9952574B2 (ja)
JP (1) JP6203808B2 (ja)
CN (1) CN106814606B (ja)
DE (1) DE102016013840B4 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019050014A1 (ja) * 2017-09-08 2019-03-14 日本電気株式会社 メンテナンス範囲最適化装置、メンテナンス範囲最適化方法、及びコンピュータ読み取り可能な記録媒体
JP2020171945A (ja) * 2019-04-11 2020-10-22 日本製鉄株式会社 溶鋼流動制御装置、溶鋼流動制御方法、およびプログラム
WO2021106346A1 (ja) * 2019-11-28 2021-06-03 スター精密株式会社 旋盤、及び、旋盤システム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6659652B2 (ja) * 2017-10-31 2020-03-04 ファナック株式会社 加工条件調整装置及び機械学習装置
CN110018722B (zh) * 2018-11-06 2022-12-23 联想企业解决方案(新加坡)有限公司 用于热控制的机器学习装置、系统和方法
JP6786012B1 (ja) * 2019-11-29 2020-11-18 三菱電機株式会社 電力変換装置
US11751360B2 (en) * 2020-03-17 2023-09-05 International Business Machines Corporation Intelligently deployed cooling fins

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005249277A (ja) * 2004-03-03 2005-09-15 Yamatake Corp 空調制御システムおよび空調制御方法
JP2007164406A (ja) * 2005-12-13 2007-06-28 Oita Univ 学習機構付意思決定システム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6529135B1 (en) 1999-10-12 2003-03-04 Csi Technology, Inc. Integrated electric motor monitor
JP4028384B2 (ja) * 2001-02-05 2007-12-26 本田技研工業株式会社 エージェント学習装置、方法、プログラム
JP4588350B2 (ja) * 2004-04-12 2010-12-01 三菱電機株式会社 送風装置
JP2007018490A (ja) * 2005-02-23 2007-01-25 Sony Corp 行動制御装置および行動制御方法、並びに、プログラム
US7362060B2 (en) 2005-05-24 2008-04-22 Borgwarner Inc. Self-learning control system and method for controlling fan speed
US9459632B2 (en) * 2005-06-27 2016-10-04 Coactive Drive Corporation Synchronized array of vibration actuators in a network topology
JP2012079178A (ja) * 2010-10-04 2012-04-19 Sony Corp データ処理装置、データ処理方法、及び、プログラム
JP2010287028A (ja) * 2009-06-11 2010-12-24 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
JP5346701B2 (ja) * 2009-06-12 2013-11-20 本田技研工業株式会社 学習制御システム及び学習制御方法
US9634593B2 (en) * 2012-04-26 2017-04-25 Emerson Climate Technologies, Inc. System and method for permanent magnet motor control
JP2014034101A (ja) * 2012-08-10 2014-02-24 Toshiba Corp ロボット制御装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005249277A (ja) * 2004-03-03 2005-09-15 Yamatake Corp 空調制御システムおよび空調制御方法
JP2007164406A (ja) * 2005-12-13 2007-06-28 Oita Univ 学習機構付意思決定システム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019050014A1 (ja) * 2017-09-08 2019-03-14 日本電気株式会社 メンテナンス範囲最適化装置、メンテナンス範囲最適化方法、及びコンピュータ読み取り可能な記録媒体
JPWO2019050014A1 (ja) * 2017-09-08 2020-10-01 日本電気株式会社 メンテナンス範囲最適化装置、メンテナンス範囲最適化方法、及びプログラム
JP7092138B2 (ja) 2017-09-08 2022-06-28 日本電気株式会社 メンテナンス範囲最適化装置、メンテナンス範囲最適化方法、及びプログラム
US11475377B2 (en) 2017-09-08 2022-10-18 Nec Corporation Maintenance range optimization apparatus, maintenance range optimization method, and computer-readable recording medium
JP2020171945A (ja) * 2019-04-11 2020-10-22 日本製鉄株式会社 溶鋼流動制御装置、溶鋼流動制御方法、およびプログラム
WO2021106346A1 (ja) * 2019-11-28 2021-06-03 スター精密株式会社 旋盤、及び、旋盤システム
JP7417051B2 (ja) 2019-11-28 2024-01-18 スター精密株式会社 旋盤、及び、旋盤システム

Also Published As

Publication number Publication date
DE102016013840A1 (de) 2017-11-16
JP6203808B2 (ja) 2017-09-27
US20170155354A1 (en) 2017-06-01
CN106814606A (zh) 2017-06-09
CN106814606B (zh) 2018-07-24
US9952574B2 (en) 2018-04-24
DE102016013840B4 (de) 2023-07-20

Similar Documents

Publication Publication Date Title
JP6203808B2 (ja) ファンモータの清掃間隔を学習する機械学習器、モータ制御システムおよび機械学習方法
JP2018004473A (ja) 軸受の予測寿命を学習する機械学習装置、寿命予測装置および機械学習方法
US10466658B2 (en) Numerical controller and machine learning device
KR102168264B1 (ko) 이동축 이상 부하 경고 기능을 갖는 와이어 방전 가공기
JP6059375B1 (ja) 生産制御システムおよび統合生産制御システム
US10949740B2 (en) Machine learning device, numerical controller, machine tool system, manufacturing system, and machine learning method for learning display of operation menu
JP6438450B2 (ja) レーザ加工ロボットの加工順序を学習する機械学習装置、ロボットシステムおよび機械学習方法
JP6290835B2 (ja) 数値制御装置及び機械学習器
JP6333868B2 (ja) セル制御装置、及び製造セルにおける複数の製造機械の稼働状況を管理する生産システム
CN106560997B (zh) 机械学习装置以及电动机控制装置
JP6174649B2 (ja) ファンモータの予防保全機能を備えたモータ駆動装置
JP6490124B2 (ja) レーザ加工装置および機械学習装置
JP2019162712A (ja) 制御装置、機械学習装置及びシステム
JP2017191567A (ja) 生産計画を実施する生産システム
US20190291270A1 (en) Controller, machine learning device, and system
JP6813532B2 (ja) シミュレーション装置
JP6841852B2 (ja) 制御装置及び制御方法
JP6940425B2 (ja) 制御装置及び機械学習装置
JP6898479B2 (ja) 操作メニューの表示を学習する機械学習器,数値制御装置,工作機械システム,製造システムおよび機械学習方法
JP6829271B2 (ja) 測定動作パラメータ調整装置、機械学習装置及びシステム
JP6703020B2 (ja) 制御装置及び機械学習装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170830

R150 Certificate of patent or registration of utility model

Ref document number: 6203808

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150