JP7085140B2 - 制御装置、制御方法及び制御プログラム - Google Patents

制御装置、制御方法及び制御プログラム Download PDF

Info

Publication number
JP7085140B2
JP7085140B2 JP2018237254A JP2018237254A JP7085140B2 JP 7085140 B2 JP7085140 B2 JP 7085140B2 JP 2018237254 A JP2018237254 A JP 2018237254A JP 2018237254 A JP2018237254 A JP 2018237254A JP 7085140 B2 JP7085140 B2 JP 7085140B2
Authority
JP
Japan
Prior art keywords
series data
time
degree
abnormality
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018237254A
Other languages
English (en)
Other versions
JP2020098538A (ja
Inventor
火炎 木焦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2018237254A priority Critical patent/JP7085140B2/ja
Publication of JP2020098538A publication Critical patent/JP2020098538A/ja
Application granted granted Critical
Publication of JP7085140B2 publication Critical patent/JP7085140B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Feedback Control In General (AREA)

Description

本発明は、制御装置、制御方法及び制御プログラムに関する。
従来、工作機械やロボット等の装置を制御する場合に、装置に何らかの異常が生じたことを検知して、装置を停止させて点検や修理を行うことがある。
下記特許文献1には、複数のセンサからデータを取得し、データ間の類似度とそのデータの異常の有無に基づいて、学習データへのデータの追加や削除を行うことにより、学習データを生成・更新し、生成・更新した学習データを部分空間法でモデル化し、あらたに取得した観測データと、学習データに含まれる個々のデータを、局所部分空間法を含む部分空間法でモデル化した部分空間との距離関係に基づいて、観測データの異常を検知する異常検知方法が記載されている。
特開2010-191556号公報
特許文献1に記載の技術を用いることで、装置の異常を検知することができる。しかしながら、このような技術を用いても、異常を検知した場合に装置を停止させて点検や修理を行わなければならない。そのため、例えば、装置が設置されている生産ラインを停止させる必要が生じてしまう。
装置の異常が検知された場合であっても、ただちに修理が必要となる場合ばかりでなく、適切に制御することでしばらくの間使用を続けることができることもある。そのため、装置について異常が検知された場合に、装置を停止させても差し支えないタイミングになるまで装置の使用を継続したいことがある。
そこで、本発明は、装置について異常が検知された場合であっても、装置が正常な動作をするように制御する制御装置、制御方法及び制御プログラムを提供する。
本発明の一態様に係る制御装置は、装置の状態を示す時系列データを取得する取得部と、時系列データに基づいて、装置の第1異常度を算出する算出部と、時系列データを状態として、第1異常度が低い場合に高くなる報酬を最大化するように、装置の制御量を行動として選択する強化学習モデルを含む学習部と、強化学習モデルの出力に基づいて、装置を制御する制御部と、を備える。
この態様によれば、異常度が低い場合に高くなる報酬を最大化するように装置を制御することで、装置について異常が検知された場合であっても、装置が正常な動作をするように制御することができる。
上記態様において、学習部は、第1異常度が閾値以上である場合に、実測された時系列データを用いて、強化学習モデルを学習させ、制御部は、学習部による強化学習モデルの学習と並行して、強化学習モデルの出力に基づいて、装置を制御してもよい。
この態様によれば、装置の制御を継続しながら強化学習モデルの学習を行って、異常が検知された装置が徐々に正常な動作をするように制御することができる。
上記態様において、学習部は、装置の物理モデルを用いて強化学習モデルの事前学習を行ってもよい。
この態様によれば、実測された時系列データを用いて強化学習モデルを学習させなくても、制御装置によって装置を制御することができるようになる。
上記態様において、算出部は、時系列データが分布する空間において、時系列データに含まれる1つのデータを他のデータから隔離するために必要とされる空間分割の回数に基づいて第1異常度を算出してもよい。
この態様によれば、外れ値を効率的に検出することができ、演算負荷を抑えながら装置の異常を検知できる。
上記態様において、算出部は、時系列データ及び制御量に基づいて第2異常度を算出し、強化学習モデルは、時系列データ及び第2異常度を状態として、第1異常度が低い場合に高くなる報酬を最大化するように、制御量を行動として選択してもよい。
この態様によれば、装置が正常な動作をするように異常を矯正して制御していることを第2異常度の変化として検出することができる。
上記態様において、第2異常度に基づいて、第1異常度を小さくするように装置を制御していることを示す情報を出力する出力部をさらに備えてもよい。
この態様によれば、装置が正常な動作をするように異常を矯正して制御していることをユーザに知らせることができる。
上記態様において、強化学習モデルは、状態を離散化した値を行又は列の一方とし、行動を離散化した値を行又は列の他方として、状態及び行動に対する評価値をまとめたテーブルを記憶し、状態が測定された場合に、評価値を最大化するように、行動を選択してもよい。
この態様によれば、装置について異常が検知された場合であっても、比較的低い演算負荷で装置が正常な動作をするように制御することができる。
上記態様において、強化学習モデルは、所定の確率でランダムに行動を選択してもよい。
この態様によれば、局所最適な制御にとどまらず、全体最適な装置の制御ができるように、制御量を探索することができる。
本発明の他の態様に係る制御方法は、装置の状態を示す時系列データを取得することと、時系列データに基づいて、装置の異常度を算出することと、時系列データを状態として、異常度が低い場合に高くなる報酬を最大化するように、装置の制御量を行動として選択する強化学習モデルを含むことと、強化学習モデルの出力に基づいて、装置を制御することと、を含む。
この態様によれば、異常度が低い場合に高くなる報酬を最大化するように装置を制御することで、装置について異常が検知された場合であっても、装置が正常な動作をするように制御することができる。
本発明の他の態様に係る制御プログラムは、制御装置が備える演算部を、装置の状態を示す時系列データを取得する取得部、時系列データに基づいて、装置の異常度を算出する算出部、時系列データを状態として、異常度が低い場合に高くなる報酬を最大化するように、装置の制御量を行動として選択する強化学習モデルを含む学習部、及び強化学習モデルの出力に基づいて、装置を制御する制御部、として機能させる。
この態様によれば、異常度が低い場合に高くなる報酬を最大化するように装置を制御することで、装置について異常が検知された場合であっても、装置が正常な動作をするように制御することができる。
本発明によれば、装置について異常が検知された場合であっても、装置が正常な動作をするように制御する制御装置、制御方法及び制御プログラムを提供することができる。
本発明の実施形態に係る制御装置により制御される装置の概要を示す図である。 本実施形態に係る制御装置の構成を示す図である。 本実施形態に係る制御装置により参照される評価値テーブルの一例を示す図である。 本実施形態に係る制御装置により実行される制御処理のフローチャートである。 本実施形態に係る制御装置により実行される学習処理のフローチャートである。
添付図面を参照して、本発明の実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。
図1は、本発明の実施形態に係る制御装置10により制御される装置の概要を示す図である。本実施形態では、制御装置10により制御される装置はボールねじ20である。ボールねじ20は、制御装置10により制御される装置の一例である。制御装置10により制御される装置は、任意の工作機械やロボットであってよい。
制御装置10は、ボールねじ20を駆動させるモータ21のトルクを制御する。ボールねじ20は、モータ21を回転させてテーブル22を直線運動させる装置である。本例では、制御装置10は、ボールねじ20のモータ21のトルクTと、テーブル22の速度vとを測定した時系列データを取得する。トルクT及び速度vは、ボールねじ20の状態を示す時系列データの一例である。
図2は、本実施形態に係る制御装置10の構成を示す図である。制御装置10は、コントローラ通信部11、時系列データ格納部12、異常監視部13、入出力部14、学習部15、設定情報入力部16、制御プログラム実行部17及び制御プログラム格納部18を備える。
コントローラ通信部11は、通信インターフェースにより構成され、制御対象の装置との間でデータの送受信を行う。本実施形態では、コントローラ通信部11は、ボールねじ20との間でデータの送受信を行う。コントローラ通信部11は、取得部11aを含む。取得部11aは、装置の状態を示す時系列データを取得する。本実施形態の場合、取得部11aは、ボールねじ20のモータ21のトルクTを示す時系列データ及びボールねじ20のテーブル22の速度vを示す時系列データを取得する。
時系列データ格納部12は、記憶部により構成され、装置の状態を示す時系列データを格納する。時系列データ格納部12は、任意の記憶媒体で構成されてよく、例えば半導体記憶素子で構成されてよい。
異常監視部13は、演算部により構成され、装置に異常が生じていないか監視する。異常監視部13は、算出部13aを含み、算出部13aは、時系列データに基づいて、制御対象の装置の第1異常度を算出する。本実施形態の場合、算出部13aは、ボールねじ20のテーブル22の速度vを示す時系列データに基づいて、ボールねじ20の第1異常度を算出する。算出部13aは、時系列データが分布する空間において、時系列データに含まれる1つのデータを他のデータから隔離するために必要とされる空間分割の回数に基づいて第1異常度を算出してよい。算出部13aは、Fei Tony Liu, Kai Ming Ting, and Zhi-Hua Zhou, "Isolation Forest", [online], インターネット<URL:https://cs.nju.edu.cn/zhouzh/zhouzh.files/publication/icdm08b.pdf>に開示されている技術を用いて、時系列データに含まれる1つのデータを他のデータから隔離するために必要とされる空間分割の回数に基づいて第1異常度を算出してよい。このような手法を用いることで、外れ値を効率的に検出することができ、演算負荷を抑えながら装置の異常を検知できる。
入出力部14は、キーボードやタッチパネル等で構成される入力部と、液晶表示装置やブザー等で構成される出力部とにより構成される。入出力部14は、制御装置10の設定に関する入力を受け付ける。また、入出力部14は、異常監視部13により装置の異常が検知された場合に、警報を出力する。
学習部15は、演算部により構成され、強化学習モデル15aの学習処理を行う。強化学習モデル15aは、時系列データを状態として、第1異常度が低い場合に高くなる報酬を最大化するように、装置の制御量を行動として選択する。本実施形態の場合、強化学習モデル15aは、ボールねじ20のテーブル22が正常な速度vで動作するように、ボールねじ20のトルクTの制御量を選択する。
設定情報入力部16は、キーボードやタッチパネルにより構成され、学習部15による強化学習モデル15aの学習に関する設定情報や、異常監視部13により警報を出力するための第1異常度に関する閾値の設定情報の入力を受け付ける。
制御プログラム実行部17は、演算部により構成され、制御装置10によって装置を制御するためのプログラムを実行する。制御プログラム実行部17は、制御部17aを含み、制御部17aは、強化学習モデル15aの出力に基づいて、装置を制御する。本実施形態の場合、制御部17aは、強化学習モデル15aの出力に基づいて、ボールねじ20のモータ21のトルクTを制御する。
制御プログラム格納部18は、記憶部により構成され、制御装置10によって装置を制御するためのプログラムを格納する。
本実施形態に係る制御装置10によれば、異常度が低い場合に高くなる報酬を最大化するように装置を制御することで、装置について異常が検知された場合であっても、装置が正常な動作をするように制御することができる。
学習部15は、第1異常度が閾値以上である場合に、実測された時系列データを用いて、強化学習モデル15aを学習させ、制御部17aは、学習部15による強化学習モデル15aの学習と並行して、強化学習モデル15aの出力に基づいて、装置を制御してよい。例えば、第1異常度が0~1の数値である場合、閾値を0.5として、学習部15は、第1異常度が0.5以上である場合に、実測された時系列データを用いて、強化学習モデル15aを学習させてよい。これにより、装置の制御を継続しながら強化学習モデル15aの学習を行って、異常が検知された装置が徐々に正常な動作をするように制御することができる。
学習部15は、装置の物理モデルを用いて強化学習モデル15aの事前学習を行ってよい。装置の物理モデルは、設定情報入力部16により入力されてよい。装置の物理モデルを用いて強化学習モデル15aの事前学習を行うことで、実測された時系列データを用いて強化学習モデル15aを学習させなくても、制御装置10によって装置を制御することができるようになる。
算出部13aは、時系列データ及び制御量に基づいて第2異常度を算出し、強化学習モデル15aは、時系列データ及び第2異常度を状態として、第1異常度が低い場合に高くなる報酬を最大化するように、制御量を行動として選択してよい。本実施形態の場合、算出部13aは、テーブル22の速度vを示す時系列データ及びモータ21のトルクTの時系列データに基づいて第2異常度を算出し、強化学習モデル15aは、テーブル22の速度vを示す時系列データ及びモータ21のトルクTの時系列データを状態として、第1異常度が低い場合に高くなる報酬を最大化するように、モータ21のトルクTを行動として選択してよい。ここで、第2異常度の算出は、時系列データ及び制御量が分布する空間において、時系列データ及び制御量に含まれる1つのデータを他のデータから隔離するために必要とされる空間分割の回数に基づいて算出してよい。このようにして算出される第2異常度は、テーブル22の速度vが外れ値を含む場合のみならず、モータ21のトルクTが外れ値を含む場合に大きな値となる。そのため、装置が正常な動作をするように異常を矯正して制御していることを第2異常度の変化として検出することができる。
入出力部14は、第2異常度に基づいて、第1異常度を小さくするように装置を制御していることを示す情報を出力してよい。入出力部14は、例えば、第1異常度を小さくするように装置を制御していることを示すテキストを液晶表示装置に表示したり、第1異常度を小さくするように装置を制御していることを示す音をブザーにより出力したりしてよい。このようにして、装置が正常な動作をするように異常を矯正して制御していることをユーザに知らせることができる。
制御装置10の算出部13aは、テーブル22の速度の絶対値の最大値を時系列データとして、時系列データが分布する空間において、時系列データに含まれる1つのデータを他のデータから隔離するために必要とされる空間分割の回数に基づいて第1異常度を算出してよい。ボールねじ20が正常に動作している場合、テーブル22の速度の絶対値の最大値は、ほとんど同じ値となる。しかし、ボールねじ20の部品が摩耗する等して異常な動作をする場合、テーブル22の速度の絶対値の最大値が、外れ値をとるようになる。第1異常度によって、このような外れ値が検出される。
制御装置10が正常に動作している場合、テーブル22の速度の絶対値の最大値は、ほとんど一定で推移する。しかし、ボールねじ20の部品が摩耗する等して異常な動作をする場合、テーブル22の速度の絶対値の最大値が徐々に増加することがある。制御装置10は、テーブル22の速度の絶対値の最大値が閾値未満の場合に正常、テーブル22の速度の絶対値の最大値が閾値以上の場合に異常と判定してよい。
図3は、本実施形態に係る制御装置10により参照される評価値テーブルT1の一例を示す図である。評価値テーブルT1は、状態を離散化した値を行又は列の一方とし、行動を離散化した値を行又は列の他方として、状態及び行動に対する評価値をまとめたテーブルの一例である。強化学習モデル15aは、状態が測定された場合に、評価値を最大化するように、行動を選択する。
本例の評価値テーブルT1は、状態を離散化した値を行とし、行動を離散化した値を列として、状態及び行動に対する評価値をまとめたテーブルである。具体的には、評価値テーブルT1の第1行には「Vel[-inf, -10]」及び「Score[0, 0.3]」と記載され、テーブル22の速度(Vel)が-10以下かつ第1異常度(Score)が0~0.3である状態を表している。同様に、評価値テーブルT1の第2行には「Vel[-10, 0]」及び「Score[0, 0.3]」と記載され、テーブル22の速度(Vel)が-10~0かつ第1異常度(Score)が0~0.3である状態を表している。また、評価値テーブルT1の最終行には「Vel[10, inf]」及び「Score[0.6, 1.0]」と記載され、テーブル22の速度(Vel)が10以上かつ第1異常度(Score)が0.6~1.0である状態を表している。本例では、テーブル22の速度と、第1異常度とをそれぞれ6通りの値をとるように離散化しており、ボールねじ20が合計で36通りの状態をとるものとして取り扱っている。そのため、本例では、最終行は第36行となっている。
一方、評価値テーブルT1の第1列には「Trq[0, 10]」と記載され、モータ21のトルク(Trq)を0~10とする行動を表している。同様に、評価値テーブルT1の第2列には「Trq[10, 20]」と記載され、モータ21のトルク(Trq)を10~20とする行動を表している。また、評価値テーブルT1の最終列には「Trq[50, 60]」と記載され、モータ21のトルク(Trq)を50~60とする行動を表している。本例では、モータ21のトルクを6通りの値をとるように離散化しており、強化学習モデル15aによって6通りの行動のうちいずれかを選択するものとして取り扱っている。そのため、本例では、最終列は第6列となっている。
強化学習モデル15aは、状態が測定された場合に、評価値を最大化するように、行動を選択する。例えば、状態として「Vel[-inf, -10]」及び「Score[0, 0.3]」が測定された場合、評価値テーブルT1の第1行のうち、評価値が最大となる行動を選択する。評価値テーブルT1の第1行の評価値は、行動として「Trq[0, 10]」を選択する場合0.62であり、行動として「Trq[10, 20]」を選択する場合0.83であり、行動として「Trq[50, 60]」を選択する場合0.4である。そのため、評価値が0.83より大きい行動が無い場合、強化学習モデル15aは、行動として「Trq[10, 20]」を選択する。この場合、制御装置10は、10~20の平均値を採用し、モータ21のトルクを15とするように、ボールねじ20を制御してよい。
制御装置10の学習部15は、Q(st,atnew←Q(st,atold+α[(rt+1+γ maxaQ(st+1,at+1))-Q(st,atold]により評価値テーブルT1を更新してよい。ここで、Qは評価値であり、stは時間tにおける状態であり、atは時間tにおける行動であり、αは学習率であり、rtは時間tにおける報酬であり、γは割引率である。
また、学習部15は、第1異常度が閾値以下となる場合の報酬を正とし、第1異常度が閾値より大きい場合の報酬を負として、報酬を更新してよい。より具体的には、学習部15は、第1異常度が閾値以下となる場合の報酬を1とし、第1異常度が閾値より大きい場合の報酬を-1×([第1異常度]-0.5)×100として、報酬を更新してよい。ここで、第1異常度は0~1の値をとるものとする。
このように、本実施形態に係る制御装置10によれば、装置について異常が検知された場合であっても、比較的低い演算負荷で装置が正常な動作をするように制御することができる。
また、強化学習モデル15aは、所定の確率でランダムに行動を選択してもよい。所定の確率をεと表すとき、強化学習モデル15aは、1-εの確率で評価値テーブルT1に従った行動選択を行い、εの確率でランダムに行動を選択してよい。これにより、局所最適な制御にとどまらず、全体最適な装置の制御ができるように、制御量を探索することができる。
図4は、本実施形態に係る制御装置10により実行される制御処理のフローチャートである。はじめに、制御装置10は、装置の物理モデルを作成する(S10)。なお、制御装置10は、外部から装置の物理モデルの入力を受け付けてもよい。
制御装置10は、物理モデルにより強化学習モデルの事前学習を実行する(S11)。その後、制御装置10は、事前学習された強化学習モデル15aを制御装置10に設定する(S12)。
制御装置10は、装置の状態を示す時系列データを取得し(S13)、測定した時系列データの第1異常度が閾値以上であるか判定する(S14)。第1異常度が閾値以上である場合(S14:YES)、制御装置10は、事前学習した強化学習モデル15aで出力を算出しながら、強化学習モデル15aをオンライン学習して更新する(S15)。また、制御装置10は、第1異常度を小さくするように装置を制御していることを示す情報を出力する(S16)。
一方、第1異常度が閾値以上でない場合(S14:NO)、制御装置10は、事前学習した強化学習モデル15aで出力を算出する(S17)。
その後、制御装置10は、強化学習モデル15aの出力に基づき、装置を制御する(S18)。制御装置10は、制御を終了しない場合(S19:NO)、新たな時系列データを取得し(S13)、強化学習モデル15aの出力に基づいた装置の制御を継続する。一方、制御を終了する場合(S19:YES)、装置の制御を終了する適切な処置を行った後、動作を終了する。
図5は、本実施形態に係る制御装置10により実行される学習処理のフローチャートである。同図では、図4の強化学習モデルの事前学習の処理(S11)の詳細を示している。
はじめに、制御装置10は、評価値テーブルを初期化する(S111)。その後、制御装置10は、物理モデルにてシミュレーションした状態を表す時系列データを取得する(S112)。
制御装置10は、時系列データに基づいて第1異常度及び第2異常度を算出し(S113)、評価値を用いるか否かを判定する(S114)。評価値を用いるか否かは、所定の確率でランダムに選択されてよい。
評価値を用いる場合(S114:YES)、制御装置10は、時系列データ及び第2異常度を状態として、評価値が最大となる制御量を行動として選択する(S115)。一方、評価値を用いない場合(S114:NO)、制御装置10は、ランダムに制御量を選択する(S116)。
その後、制御装置10は、第1異常度が低い場合に高くなるように報酬を設定する(S117)。
データ取得を終了しない場合(S118:NO)、物理モデルにてシミュレーションした状態を表す時系列データを取得し(S112)、制御量を選択する処理を継続する。一方、データ取得を終了する場合(S118:YES)、制御装置10は、強化学習の全エピソードが終了したか否かを判断する(S119)。全エピソードが終了していない場合(S119:NO)、制御装置10は、物理モデルにてシミュレーションした状態を表す時系列データを取得し(S112)、制御量を選択する処理を継続する。一方、全エピソードが終了した場合(S119:YES)、学習処理が終了する。
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。
[付記]
装置(20)の状態を示す時系列データを取得する取得部(11a)と、
前記時系列データに基づいて、前記装置(20)の第1異常度を算出する算出部(13a)と、
前記時系列データを状態として、前記第1異常度が低い場合に高くなる報酬を最大化するように、前記装置(20)の制御量を行動として選択する強化学習モデル(15a)を含む学習部(15)と、
前記強化学習モデル(15a)の出力に基づいて、前記装置(20)を制御する制御部(17a)と、
を備える制御装置(10)。
10…制御装置、11…コントローラ通信部、11a…取得部、12…時系列データ格納部、13…異常監視部、13a…算出部、14…入出力部、15…学習部、15a…強化学習モデル、16…設定情報入力部、17…制御プログラム実行部、17a…制御部、18…制御プログラム格納部、20…ボールねじ、21…モータ、22…テーブル

Claims (9)

  1. 装置の状態を示す時系列データを取得する取得部と、
    前記時系列データに基づいて、前記装置の第1異常度を算出する算出部と、
    前記時系列データを状態として、前記第1異常度が低い場合に高くなる報酬を最大化するように、前記装置の制御量を行動として選択する強化学習モデルを含む学習部と、
    前記強化学習モデルの出力に基づいて、前記装置を制御する制御部と、
    を備え
    前記算出部は、前記時系列データが分布する空間において、前記時系列データに含まれる1つのデータを他のデータから隔離するために必要とされる空間分割の回数に基づいて前記第1異常度を算出する、
    制御装置。
  2. 前記学習部は、前記第1異常度が閾値以上である場合に、実測された前記時系列データを用いて、前記強化学習モデルを学習させ、
    前記制御部は、前記学習部による前記強化学習モデルの学習と並行して、前記強化学習モデルの出力に基づいて、前記装置を制御する、
    請求項1に記載の制御装置。
  3. 前記学習部は、前記装置の物理モデルを用いて前記強化学習モデルの事前学習を行う、
    請求項1又は2に記載の制御装置。
  4. 前記算出部は、前記時系列データ及び前記制御量に基づいて第2異常度を算出し、
    前記強化学習モデルは、前記時系列データ及び前記第2異常度を状態として、前記第1異常度が低い場合に高くなる報酬を最大化するように、前記制御量を行動として選択する、
    請求項1からのいずれか一項に記載の制御装置。
  5. 前記第2異常度に基づいて、前記第1異常度を小さくするように前記装置を制御していることを示す情報を出力する出力部をさらに備える、
    請求項に記載の制御装置。
  6. 前記強化学習モデルは、
    前記状態を離散化した値を行又は列の一方とし、前記行動を離散化した値を前記行又は前記列の他方として、前記状態及び前記行動に対する評価値をまとめたテーブルを記憶し、
    前記状態が測定された場合に、前記評価値を最大化するように、前記行動を選択する、
    請求項1からのいずれか一項に記載の制御装置。
  7. 前記強化学習モデルは、
    所定の確率でランダムに前記行動を選択する、
    請求項に記載の制御装置。
  8. 装置の状態を示す時系列データを取得することと、
    前記時系列データに基づいて、前記装置の異常度を算出することと、
    前記時系列データを状態として、前記異常度が低い場合に高くなる報酬を最大化するように、前記装置の制御量を行動として選択する強化学習モデルを含むことと、
    前記強化学習モデルの出力に基づいて、前記装置を制御することと、
    を含み、
    前記異常度を算出することは、前記時系列データが分布する空間において、前記時系列データに含まれる1つのデータを他のデータから隔離するために必要とされる空間分割の回数に基づいて前記異常度を算出することである、
    制御方法。
  9. 制御装置が備える演算部を、
    装置の状態を示す時系列データを取得する取得部、
    前記時系列データに基づいて、前記装置の異常度を算出する算出部、
    前記時系列データを状態として、前記異常度が低い場合に高くなる報酬を最大化するように、前記装置の制御量を行動として選択する強化学習モデルを含む学習部、及び
    前記強化学習モデルの出力に基づいて、前記装置を制御する制御部、
    として機能させ
    前記算出部は、前記時系列データが分布する空間において、前記時系列データに含まれる1つのデータを他のデータから隔離するために必要とされる空間分割の回数に基づいて前記異常度を算出する、
    制御プログラム。
JP2018237254A 2018-12-19 2018-12-19 制御装置、制御方法及び制御プログラム Active JP7085140B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018237254A JP7085140B2 (ja) 2018-12-19 2018-12-19 制御装置、制御方法及び制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018237254A JP7085140B2 (ja) 2018-12-19 2018-12-19 制御装置、制御方法及び制御プログラム

Publications (2)

Publication Number Publication Date
JP2020098538A JP2020098538A (ja) 2020-06-25
JP7085140B2 true JP7085140B2 (ja) 2022-06-16

Family

ID=71106860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018237254A Active JP7085140B2 (ja) 2018-12-19 2018-12-19 制御装置、制御方法及び制御プログラム

Country Status (1)

Country Link
JP (1) JP7085140B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023020593A (ja) 2021-07-30 2023-02-09 キヤノン株式会社 制御装置、リソグラフィー装置および物品製造方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6219897B2 (ja) * 2015-09-28 2017-10-25 ファナック株式会社 最適な加減速を生成する工作機械

Also Published As

Publication number Publication date
JP2020098538A (ja) 2020-06-25

Similar Documents

Publication Publication Date Title
JP7504163B2 (ja) 異常予知装置、異常予知システム、異常予知方法及び異常予知プログラム
US11275345B2 (en) Machine learning Method and machine learning device for learning fault conditions, and fault prediction device and fault prediction system including the machine learning device
JP6542839B2 (ja) 制御装置及び機械学習装置
US11592800B2 (en) Abnormality detector of a manufacturing machine using machine learning
US10289075B2 (en) Machine learning apparatus for optimizing cycle processing time of processing machine, motor control apparatus, processing machine, and machine learning method
CN109693354B (zh) 状态判定装置
JP6333868B2 (ja) セル制御装置、及び製造セルにおける複数の製造機械の稼働状況を管理する生産システム
JP2023085255A5 (ja)
JP2018160093A5 (ja)
US20190196454A1 (en) Chip removal apparatus and information processing apparatus
US11460831B2 (en) Numerical control system
JP6647473B1 (ja) 異常検知装置および異常検知方法
US11531327B2 (en) Abnormality determination device and abnormality determination system
JP7425094B2 (ja) 診断装置
JP7085140B2 (ja) 制御装置、制御方法及び制御プログラム
JP2017049801A5 (ja)
CN102257448A (zh) 使用切换模型进行机器状况监视的文件的滤波和预测
CN112084834A (zh) 诊断装置
AU2018426458B2 (en) Assistance device, learning device, and plant operation condition setting assistance system
JP2019012473A (ja) データフィルタリング装置および方法
JP4825482B2 (ja) 不具合発生予測装置および不具合発生予測方法
JP6829271B2 (ja) 測定動作パラメータ調整装置、機械学習装置及びシステム
JP2020197944A (ja) モデル予測制御システム、情報処理装置、プログラム、及びモデル予測制御方法
JP2021086194A (ja) プログラム再開支援装置
US12032354B2 (en) Program restart assisting apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220506

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220519

R150 Certificate of patent or registration of utility model

Ref document number: 7085140

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150