JP6904327B2 - 制御装置、制御方法、及び制御プログラム - Google Patents
制御装置、制御方法、及び制御プログラム Download PDFInfo
- Publication number
- JP6904327B2 JP6904327B2 JP2018225815A JP2018225815A JP6904327B2 JP 6904327 B2 JP6904327 B2 JP 6904327B2 JP 2018225815 A JP2018225815 A JP 2018225815A JP 2018225815 A JP2018225815 A JP 2018225815A JP 6904327 B2 JP6904327 B2 JP 6904327B2
- Authority
- JP
- Japan
- Prior art keywords
- relative
- amount
- control
- objects
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 175
- 238000012545 processing Methods 0.000 claims description 92
- 238000012549 training Methods 0.000 claims description 66
- 230000007704 transition Effects 0.000 claims description 26
- 230000009471 action Effects 0.000 claims description 25
- 230000008859 change Effects 0.000 claims description 23
- 239000012636 effector Substances 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 description 187
- 230000008569 process Effects 0.000 description 115
- 238000012986 modification Methods 0.000 description 80
- 230000004048 modification Effects 0.000 description 80
- 238000011960 computer-aided design Methods 0.000 description 32
- 238000010801 machine learning Methods 0.000 description 32
- 210000002569 neuron Anatomy 0.000 description 23
- 230000010365 information processing Effects 0.000 description 10
- 238000010276 construction Methods 0.000 description 7
- 230000007613 environmental effect Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000005259 measurement Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 4
- 238000003672 processing method Methods 0.000 description 4
- 230000002787 reinforcement Effects 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 3
- 238000010304 firing Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000006403 short-term memory Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/42—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/10—Programme-controlled manipulators characterised by positioning means for manipulator elements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36404—Adapt teached position as function of deviation 3-D, 2-D position workpiece
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39298—Trajectory learning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40607—Fixed camera to observe workspace, object, workpiece, global
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
Description
まず、図1を用いて、本発明が適用される場面の一例について説明する。図1は、本実施形態に係る制御装置1の適用場面の一例を模式的に例示する。図1の例では、グリッパ37を備える垂直多関節型のマニピュレータ3の動作を制御する場面を想定している。マニピュレータ3は、本発明の「ロボット装置」の一例であり、グリッパ37は、本発明の「エンドエフェクタ」の一例である。しかしながら、本発明の適用対象は、このような例に限定されなくてもよく、何らかのロボット装置の動作を制御するあらゆる場面に適用可能である。
[ハードウェア構成]
<制御装置>
次に、図3を用いて、本実施形態に係る制御装置1のハードウェア構成の一例について説明する。図3は、本実施形態に係る制御装置1のハードウェア構成の一例を模式的に例示する。
次に、図4を用いて、本実施形態に係るマニピュレータ3のハードウェア構成の一例について説明する。図4は、本実施形態に係るマニピュレータ3のハードウェア構成の一例を模式的に例示する。
(A)制御処理
次に、図5Aを用いて、本実施形態に係る制御装置1の制御処理に関するソフトウェア構成の一例について説明する。図5Aは、本実施形態に係る制御装置1の制御処理に関するソフトウェア構成の一例を模式的に例示する。
次に、学習モデルの一例であるニューラルネットワーク51について説明する。図5Aに示されるとおり、本実施形態に係るニューラルネットワーク51は、いわゆる深層学習に用いられる多層構造のニューラルネットワークであり、入力側から順に、入力層511、中間(隠れ)層512、及び出力層513を備えている。なお、図5Aの例では、ニューラルネットワーク51は、1層の中間層512を備えており、入力層511の出力が中間層512に入力され、中間層512の出力が出力層513に入力されている。ただし、中間層512の数は、このような例に限られなくてもよい。ニューラルネットワーク51は、2層以上の中間層を備えてもよい。
次に、図5Bを用いて、本実施形態に係る制御装置1の学習処理に関するソフトウェア構成の一例について説明する。図5Bは、本実施形態に係る制御装置1の学習処理に関するソフトウェア構成の一例を模式的に例示する。
制御装置1の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、制御装置1の各ソフトウェアモジュールがいずれも汎用のCPUによって実現される例について説明している。しかしながら、以上のソフトウェアモジュールの一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、制御装置1のソフトウェア構成に関して、実施形態に応じて、適宜、ソフトウェアモジュールの省略、置換及び追加が行われてもよい。
次に、制御装置1の動作例について説明する。本実施形態に係る制御装置1は、学習処理として、マップ情報123を作成する処理及び学習済みのニューラルネットワーク51を構築する処理の2つの処理を実行する。また、本実施形態に係る制御装置1は、マニピュレータ3の動作を制御するための処理を実行する。以下、各処理手順の一例について説明する。ただし、以下で説明する各処理手順は一例に過ぎず、各ステップは可能な限り変更されてよい。更に、以下で説明する各処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
まず、図6及び図7A〜図7Cを用いて、マップ情報123の作成に関する処理手順の一例について説明する。図6は、本実施形態に係る制御装置1によるマップ情報123の作成に関する処理手順の一例を示すフローチャートである。また、図7A〜図7Cは、マップ情報123を作成する過程の一例を模式的に例示する。
ステップS101では、制御部11は、環境情報取得部111として動作し、作業Tを遂行する環境WSに存在する各対象物に関する環境情報を取得する。環境情報は、各対象物の間の相対関係量をシミュレート可能であれば、その形式及び種類は、特に限定されなくてよく、実施の形態に応じて適宜選択されてよい。制御部11は、例えば、環境情報としてCADデータ121を取得してもよい。CADデータ121は、各対象物のモデル(例えば、3Dモデル)等の物理的な構成を示す構成情報を含む。このCADデータ121は、公知のソフトウェアにより生成されてよい。環境情報を取得すると、制御部11は、次のステップS102に処理を進める。
ステップS102及びステップS103では、制御部11は、マップ作成部112として動作して、配置空間の作成及び設定を行う。具体的に、ステップS102では、制御部11は、取得された環境情報を利用して、複数の対象物(本実施形態では、グリッパ37、第1ワークW1、第2ワークW2)の間の相対関係量の集合を表現する配置空間を作成する。次のステップS103では、作成された配置空間に自由領域及び制限領域を設定する。
ステップS104では、制御部11は、マップ作成部112として動作し、配置空間の自由領域内において、各対象物の間の相対的な関係として取り得る各状態における相対関係量にそれぞれ対応する複数のノードを配置する。各ノードは、例えば、目標(g1等)とする状態の候補となる状態における相対関係量に対応する。
ステップS105では、制御部11は、マップ作成部112として動作し、各ノード間をエッジで連結する。
ステップS106では、制御部11は、マップ保存処理部113として動作し、作成されたマップ情報123を所定の記憶領域に保存する。所定の記憶領域は、例えば、制御部11内のRAM、記憶部12、外部記憶装置、記憶メディア又はこれらの組み合わせであってよい。以上により、制御部11は、マップ情報123の作成に関する一連の処理を終了する。
次に、図8を用いて、制御指令41の決定処理に利用する学習済みのニューラルネットワーク51の構築に関する処理手順の一例について説明する。図8は、本実施形態に係る制御装置1による学習済みのニューラルネットワーク51の構築に関する処理手順の一例を示すフローチャートである。
ステップS201では、制御部11は、学習データ取得部114として動作し、ニューラルネットワーク51の機械学習に利用する学習データ125を取得する。本実施形態では、学習データ125は、相対関係量1251及び相対関係量1252と制御指令1253との組み合わせによりそれぞれ構成される複数の学習データセット1250を含む。
ステップS202では、制御部11は、学習処理部115として動作し、取得された学習データ125を利用して、ニューラルネットワーク51の機械学習を実施する。
ステップS203では、制御部11は、保存処理部116として動作し、学習済みのニューラルネットワーク51に関する情報を所定の記憶領域に保存する。本実施形態では、制御部11は、ステップS202の機械学習により構築された学習済みのニューラルネットワーク51の構成及び演算パラメータを示す情報を学習結果データ127として生成する。そして、制御部11は、生成した学習結果データ127を所定の記憶領域に保存する。所定の記憶領域は、例えば、制御部11内のRAM、記憶部12、外部記憶装置、記憶メディア又はこれらの組み合わせであってよい。以上により、制御部11は、学習済みのニューラルネットワーク51の構築に関する一連の処理を終了する。
次に、図9A及び図9Bを用いて、マニピュレータ3の動作制御に関する処理手順の一例について説明する。図9A及び図9Bは、本実施形態に係る制御装置1によるマニピュレータ3の動作制御に関する処理手順の一例を示すフローチャートである。以下で説明する処理手順は、本発明の「制御方法」の一例である。
ステップS301では、制御部11は、遂行する作業Tの指定を受け付ける。作業Tの指定を受け付ける方法は、特に限定されなくてよく、実施の形態に応じて適宜選択されてよい。例えば、制御部11は、入力装置14を介した作業Tの名称の入力により、遂行する作業Tの指定を受け付けてもよい。また、例えば、制御部11は、遂行する作業Tの候補を示すリストを出力装置15に出力し、オペレータに遂行する作業Tをリストから選択させることで、遂行する作業Tの指定を受け付けてもよい。
ステップS303では、制御部11は、データ取得部102として動作し、環境WSに存在する複数の対象物を観察するセンサから観察データを取得する。次のステップS304では、制御部11は、関係特定部103として動作し、取得された観察データから、複数の対象物の間の相対関係量を算出する。
ステップS305では、制御部11は、行動決定部104として動作し、動作の制御を開始する時点stにおける相対関係量r0から最終目標gnの相対関係量rnを実現するまでの、複数の対象物の目標(g1等)とする状態における相対関係量の系列RSを決定する。
ステップS306では、制御部11は、行動決定部104として動作し、相対関係量の系列RSの中から、現在の状態の次に遷移する目標の状態における相対関係量を特定する。現在の状態における相対関係量の各相対座標rc1〜rc3は、カメラCAから取得された最新の画像データ40から算出される。次に遷移する目標は、例えば、最終目標gnに向かって、現在の状態に最も近い目標である。制御部11は、ステップS305で探索した経路をたどることで、現在の状態の次に遷移する目標の状態における相対関係量を特定することができる。
ステップS307では、制御部11は、指令決定部105として動作し、現在の状態における相対関係量を、次に遷移する目標の状態における相対関係量に変化させるように、マニピュレータ3に与える制御指令41を決定する。
ステップS308では、制御部11は、動作制御部106として動作し、決定された制御指令41をマニピュレータ3に出力する。本実施形態では、制御部11は、制御指令41の出力処理として、制御指令41に基づいて、マニピュレータ3の動作を制御する。
ステップS309及びステップS310は、ステップS303及びステップS304と同様である。ステップS309では、制御部11は、データ取得部102として動作し、カメラCAから画像データ40を取得する。ステップS310では、制御部11は、関係特定部103として動作し、取得された画像データ40に対して、CADデータ121により示される各対象物(グリッパ37、第1ワークW1、及び第2ワークW2)のモデルをマッチングする。制御部11は、このマッチングの結果に基づいて、各対象物の間の相対座標rc1〜rc3(相対関係量)を算出する。相対関係量の算出が完了すると、制御部11は、次のステップS311に処理を進める。
ステップS311では、制御部11は、ステップS308による制御の結果、複数の対象物の間の相対関係量がステップS306で特定した目標の状態に遷移したか否かを判定する。
ステップS312では、制御部11は、最終目標gnの相対関係量rnを実現したか否かを判定する。ステップS306で特定された目標が最終目標gnである場合には、ステップS311の判定の結果から、最終目標gnの相対関係量rnが実現されていることになる。そのため、この場合には、最終目標gnの相対関係量rnを実現したと判定し、制御部11は、マニピュレータ3の動作制御に関する一連の処理を終了する。
以上のとおり、本実施形態では、マニピュレータ3の稼働する環境WS下に存在する複数の対象物(グリッパ37、第1ワークW1、第2ワークW2)の現在の状態及び目標が、各相対座標rc1〜rc3を含む相対関係量で表現され、制御指令41は、この相対関係量を変化させることに応じて決定される。つまり、本実施形態では、制御指令41は、マニピュレータ3に教示する作業Tそのものに関連付けられるのではなく、相対関係量に変化量に関連付けられる。これにより、作業の内容に依存せずに、相対関係量を変化させることに対してマニピュレータ3に与える時系列の制御指令41を教示することができる。
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
上記実施形態では、制御対象のロボット装置として、垂直多関節型のマニピュレータ3を例示している。しかしながら、ロボット装置の種類は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。ロボット装置は、例えば、産業用ロボット、自動的に移動可能な移動体等を含んでよい。産業用ロボットは、例えば、上記垂直多関節ロボット、スカラロボット、パラレルリンクロボット、直交ロボット、協調ロボット等を含む。また、自動的に移動可能な移動体は、例えば、ドローン、自度運転可能に構成された車両、モバイルロボット等を含む。本発明は、対象物の操作可能なあらゆる種類のロボット装置に適用されてよい。なお、自動的に移動可能な移動体であって、GPS(Global Positioning System)測定器を備える移動体に本発明を適用する場合に、位置に関する相対関係量(例えば、上記相対座標)の特定には、GPS測定器により測定されたGPS情報が用いられてよい。この場合、各対象物に備えられたGPS測定器がセンサの一例であり、各GPS測定器から得られたGPS情報が観察データの一例である。センサ及び観察データは、ロボット装置の種類に応じて適宜選択されてよい。また、上記実施形態では、マニピュレータの備えるエンドエフェクタとして、グリッパ37を例示している。しかしながら、エンドエフェクタの種類は、グリッパに限定されなくてもよく、実施の形態に応じて適宜選択されてよい。エンドエフェクタは、例えば、グリッパ以外に、吸引器、ドライバ等であってもよい。
上記実施形態では、環境WSに存在する複数の対象物を観察するセンサとして、カメラCAを例示している。センサから取得される観察データとして画像データ40を例示している。また、上記実施形態では、このカメラCAにより取得される画像データ40から相対関係量として各相対座標rc1〜rc3を算出している。しかしながら、センサ及び相対関係量の種類は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。観察データは、画像データに限定されなくてよく、採用されるセンサの種類に応じて適宜選択されてよい。
上記実施形態に係る各処理手順は一例に過ぎず、各ステップは可能な限り変更されてよい。また、上記実施形態に係る各処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
上記実施形態では、制御装置1は、ステップS308により、制御指令41に基づいて、マニピュレータ3の動作を制御している。しかしながら、制御指令41の出力処理は、このような例に限定されなくてもよい。例えば、マニピュレータ3がコントローラを備える場合には、制御指令41の出力処理は、制御指令41をコントローラに単に送信することであってもよい。
上記実施形態では、制御装置1は、制御プログラム81及び学習プログラム82を保持し、制御処理及び学習処理の両方の処理を実行する。しかしながら、各処理を実行するコンピュータは別体であってもよい。特に、学習処理は、別のコンピュータに実行させてもよい。
上記実施形態では、学習済みのニューラルネットワーク51が制御指令41を決定する処理に利用されている。しかしながら、制御指令41を決定する処理は、このような例に限定されなくてもよい。制御指令41を決定する処理には、学習済みの学習モデルが利用されなくてもよい。例えば、制御装置1は、制御指令41を決定する処理に、相対関係量の変化量と制御指令との対応関係を示すテーブル形式等の参照情報を利用してもよい。この参照情報は、記憶部12に格納されていてもよい。この場合、上記ステップS307では、制御部11は、当該参照情報に基づいて、制御指令41を決定してもよい。
上記実施形態では、制御装置1は、マップ情報123を利用して、開始する時点stから最終目標gnまでの相対関係量の系列RSを決定している。しかしながら、相対関係量の系列RSを決定する方法は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、上記実施形態に係る制御指令41の決定処理と同様に、相対関係量の系列RSの決定処理にも学習済みの学習モデルが利用されてもよい。
上記実施形態では、制御装置1は、画像データ40に対して各対象物のモデルをマッチングすることで、各対象物の間の相対関係量を算出している。しかしながら、観察データから相対関係量を算出する方法は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、上記実施形態に係る制御指令41の決定処理と同様に、観察データから相対関係量を算出する処理にも学習済みの学習モデルが利用されてもよい。
11…制御部、12…記憶部、13…外部インタフェース、
14…入力装置、15…出力装置、16…ドライブ、
101…目標設定部、102…データ取得部、
103…関係特定部、104…行動決定部、
105…指令決定部、106…動作制御部、
111…環境情報取得部、112…マップ作成部、
113…マップ保存処理部、114…学習データ取得部、
115…学習処理部、116…保存処理部、
121…CADデータ、123…マップ情報、
125…学習データ、127…学習結果データ、
81…制御プログラム、82…学習プログラム、
91…記憶媒体、
3…マニピュレータ(ロボット装置)、
30…台座部、
31〜36…関節部、37…グリッパ(エンドエフェクタ)、
38…力覚センサ、391〜394…リンク、
CA…カメラ(センサ)、
40…画像データ(観察データ)、41…制御指令、
51…ニューラルネットワーク(学習モデル)、
511…入力層、512…中間(隠れ)層、513…出力層、
WS…環境、W1…第1ワーク、W2…第2ワーク、
CO1〜CO3…ローカル座標系、
rc1〜rc3…相対座標(相対関係量)
Claims (13)
- 複数の対象物の存在する環境下で稼働するロボット装置の動作を制御するための制御指令を生成する制御装置であって、
最終目標となる前記複数の対象物の間の相対関係量を設定する目標設定部であって、前記相対関係量は、前記複数の対象物の間の相対的かつ物理的な関係に関する属性を示す、目標設定部と、
前記環境に存在する前記複数の対象物を観察するセンサから観察データを繰り返し取得するデータ取得部と、
取得された前記観察データから、前記複数の対象物の間の相対関係量を算出する関係特定部と、
前記動作の制御を開始する時点における前記複数の対象物の間の相対関係量から設定された前記最終目標の相対関係量を実現するまでの、前記複数の対象物の目標とする状態における相対関係量の系列を決定する行動決定部と、
前記最終目標の相対関係量を実現するまで、前記センサから取得された最新の観察データから算出された現在の状態における相対関係量を、前記相対関係量の系列に含まれる、当該現在の状態の次に遷移する目標の状態における相対関係量に変化させるように、前記ロボット装置に与える制御指令を繰り返し決定する指令決定部と、
決定された前記制御指令を前記ロボット装置に出力する出力部と、
を備える、
制御装置。 - 前記相対関係量は、前記複数の対象物の間の相対座標を含む、
請求項1に記載の制御装置。 - 前記センサは、カメラを含み、
前記観察データは、前記カメラにより得られる画像データを含み、
前記関係特定部は、前記カメラにより得られた前記画像データに対して前記各対象物のモデルをマッチングし、当該マッチングの結果に基づいて、前記複数の対象物の間の相対座標を算出する、
請求項2に記載の制御装置。 - 前記指令決定部は、第1の状態における相対関係量及び第2の状態における相対関係量の入力に対して、前記第1の状態における相対関係量を前記第2の状態における相対関係量に変化させるように前記ロボット装置の動作を制御するための制御指令を決定するように訓練された第1の学習済みの学習モデルを含み、
前記制御指令を決定することは、
前記現在の状態における前記相対関係量及び前記次に遷移する目標の状態における前記相対関係量を前記第1の学習済みの学習モデルに入力すること、
前記第1の学習済みの学習モデルの演算処理を実行すること、及び
前記第1の学習済みの学習モデルから出力される出力値を、前記制御指令を決定した結果として取得すること、
を含む、
請求項1から3のいずれか1項に記載の制御装置。 - 前記ロボット装置は、前記ロボット装置の属性を観測する観測センサを備え、
前記第1の学習済みの学習モデルは、前記観測センサにより得られる属性データの入力を更に受け付けるように構成され、
前記制御指令を決定することは、前記観測センサにより得られた前記属性データを前記第1の学習済みの学習モデルに更に入力すること、を含む、
請求項4に記載の制御装置。 - 前記行動決定部は、前記複数の対象物の間の相対関係量の集合を表現する配置空間であって、前記目標とする状態の候補となる状態における相対関係量にそれぞれ対応する複数のノードが配置された配置空間を示すマップ情報を保持し、
前記相対関係量の系列を決定することは、
前記マップ情報により示される前記配置空間において、前記複数のノードのうちから経由するノードを選択することで、前記開始する時点の状態における相対関係量に対応するノードから前記最終目標の状態における相対関係量に対応するノードまでの経路を探索すること、及び
探索された前記経路に含まれるノードに対応する相対関係量により前記相対関係量の系列を生成すること、
を含む、
請求項1から5のいずれか1項に記載の制御装置。 - 前記行動決定部は、訓練用の最終目標における相対関係量及び訓練用の現在の状態における相対関係量の入力に対して、当該訓練用の現在の状態の次に遷移する目標の状態における相対関係量を決定するように訓練された第2の学習済みの学習モデルを含み、
前記相対関係量の系列を決定することは、
前記現在の状態における前記相対関係量及び設定された前記最終目標の前記相対関係量を前記第2の学習済みの学習モデルに入力すること、
前記第2の学習済みの学習モデルの演算処理を実行すること、及び
前記第2の学習済みの学習モデルから出力される出力値を、前記次に遷移する目標の状態における前記相対関係量を決定した結果として取得すること、
を繰り返し実行することを含む、
請求項1から5のいずれか1項に記載の制御装置。 - 前記第2の学習済みの学習モデルは、前記センサから取得される前記観察データの入力を更に受け付けるように構成され、
前記相対関係量の系列を決定することは、前記最新の観察データを前記第2の学習済みの学習モデルに更に入力すること、を含む、
請求項7に記載の制御装置。 - 前記関係特定部は、訓練用の観察データの入力に対して、当該訓練用の観察データに現れる前記複数の対象物の間の相対関係量を算出するように訓練された第3の学習済みの学習モデルを含み、
前記相対関係量を算出することは、
取得された前記観察データを前記第3の学習済みの学習モデルに入力すること、
前記第3の学習済みの学習モデルの演算処理を実行すること、及び
前記第3の学習済みの学習モデルから出力される出力値を、前記相対関係量を算出した結果として取得すること、
を含む、
請求項1から8のいずれか1項に記載の制御装置。 - 前記ロボット装置は、前記ロボット装置の属性を観測する観測センサを備え、
前記第3の学習済みの学習モデルは、前記観測センサにより得られる属性データの入力を更に受け付けるように構成され、
前記相対関係量を算出することは、前記観測センサにより得られた前記属性データを前記第3の学習済みの学習モデルに更に入力すること、を含む、
請求項9に記載の制御装置。 - 前記ロボット装置は、エンドエフェクタを備えるマニピュレータであり、
前記複数の対象物は、前記エンドエフェクタを含み、
前記指令決定部は、前記エンドエフェクタに関する制御指令を決定し、
前記出力部は、決定された制御指令を前記マニピュレータに出力する、
請求項1から10のいずれか1項に記載の制御装置。 - 複数の対象物の存在する環境下で稼働するロボット装置の動作を制御するための制御指令を生成する制御方法であって、
コンピュータが、
最終目標となる前記複数の対象物の間の相対関係量を設定するステップであって、前記相対関係量は、前記複数の対象物の間の相対的かつ物理的な関係に関する属性を示す、ステップと、
前記環境に存在する前記複数の対象物を観察するセンサから観察データを繰り返し取得するステップと、
取得された前記観察データから、前記複数の対象物の間の相対関係量を算出するステップと、
前記動作の制御を開始する時点における前記複数の対象物の間の相対関係量から設定された前記最終目標の相対関係量を実現するまでの、前記複数の対象物の目標とする状態における相対関係量の系列を決定するステップと、
前記最終目標の相対関係量を実現するまで、前記センサから取得された最新の観察データから算出された現在の状態における相対関係量を、前記相対関係量の系列に含まれる、当該現在の状態の次に遷移する目標の状態における相対関係量に変化させるように、前記ロボット装置に与える制御指令を繰り返し決定するステップと、
決定された前記制御指令を前記ロボット装置に出力するステップと、
を実行する、
制御方法。 - 複数の対象物の存在する環境下で稼働するロボット装置の動作を制御するための制御指令を生成するための制御プログラムであって、
コンピュータに、
最終目標となる前記複数の対象物の間の相対関係量を設定するステップであって、前記相対関係量は、前記複数の対象物の間の相対的かつ物理的な関係に関する属性を示す、ステップと、
前記環境に存在する前記複数の対象物を観察するセンサから観察データを繰り返し取得するステップと、
取得された前記観察データから、前記複数の対象物の間の相対関係量を算出するステップと、
前記動作の制御を開始する時点における前記複数の対象物の間の相対関係量から設定された前記最終目標の相対関係量を実現するまでの、前記複数の対象物の目標とする状態における相対関係量の系列を決定するステップと、
前記最終目標の相対関係量を実現するまで、前記センサから取得された最新の観察データから算出された現在の状態における相対関係量を、前記相対関係量の系列に含まれる、当該現在の状態の次に遷移する目標の状態における相対関係量に変化させるように、前記ロボット装置に与える制御指令を繰り返し決定するステップと、
決定された前記制御指令を前記ロボット装置に出力するステップと、
を実行させるための、
制御プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018225815A JP6904327B2 (ja) | 2018-11-30 | 2018-11-30 | 制御装置、制御方法、及び制御プログラム |
US17/270,442 US11745355B2 (en) | 2018-11-30 | 2019-10-17 | Control device, control method, and non-transitory computer-readable storage medium |
EP19888433.0A EP3888859A4 (en) | 2018-11-30 | 2019-10-17 | CONTROL DEVICE, CONTROL METHOD AND CONTROL PROGRAM |
PCT/JP2019/040794 WO2020110495A1 (ja) | 2018-11-30 | 2019-10-17 | 制御装置、制御方法、及び制御プログラム |
CN201980052690.6A CN112584990B (zh) | 2018-11-30 | 2019-10-17 | 控制装置、控制方法以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018225815A JP6904327B2 (ja) | 2018-11-30 | 2018-11-30 | 制御装置、制御方法、及び制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020082332A JP2020082332A (ja) | 2020-06-04 |
JP6904327B2 true JP6904327B2 (ja) | 2021-07-14 |
Family
ID=70852269
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018225815A Active JP6904327B2 (ja) | 2018-11-30 | 2018-11-30 | 制御装置、制御方法、及び制御プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11745355B2 (ja) |
EP (1) | EP3888859A4 (ja) |
JP (1) | JP6904327B2 (ja) |
CN (1) | CN112584990B (ja) |
WO (1) | WO2020110495A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021171558A1 (ja) * | 2020-02-28 | 2021-09-02 | 日本電気株式会社 | 制御装置、制御方法及び記録媒体 |
JP7463777B2 (ja) * | 2020-03-13 | 2024-04-09 | オムロン株式会社 | 制御装置、学習装置、ロボットシステム、および方法 |
US11945123B2 (en) | 2020-04-28 | 2024-04-02 | Altec Industries, Inc. | Head mounted display for remote operation of machinery |
US20230256596A1 (en) * | 2020-07-14 | 2023-08-17 | University Of Tsukuba | Information processing device, method, and program |
KR102320659B1 (ko) * | 2020-09-16 | 2021-11-03 | 한국생산기술연구원 | 로봇을 이용한 단위행동 딥러닝 모델 학습방법과 이를 이용한 로봇 제어 방법 |
CN114578720B (zh) * | 2020-12-01 | 2023-11-07 | 合肥欣奕华智能机器股份有限公司 | 控制方法及控制系统 |
WO2022145213A1 (ja) * | 2020-12-28 | 2022-07-07 | ソニーグループ株式会社 | 制御装置、制御システム及び制御方法 |
WO2022145150A1 (ja) * | 2020-12-28 | 2022-07-07 | ソニーグループ株式会社 | 制御システム及び制御方法 |
KR102346900B1 (ko) * | 2021-08-05 | 2022-01-04 | 주식회사 애자일소다 | 픽 앤 플레이스 시스템을 위한 심층 강화학습 장치 및 방법 |
JP2023038776A (ja) * | 2021-09-07 | 2023-03-17 | オムロン株式会社 | 指令値生成装置、方法、及びプログラム |
US11660750B1 (en) * | 2022-07-28 | 2023-05-30 | Altec Industries, Inc. | Autonomous and semi-autonomous control of aerial robotic systems |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS58177295A (ja) * | 1982-04-07 | 1983-10-17 | 株式会社日立製作所 | ロボット制御装置 |
JPH10111701A (ja) * | 1996-10-05 | 1998-04-28 | Ricoh Co Ltd | 学習型自動セル装置と学習方法 |
JP4572497B2 (ja) * | 2001-09-14 | 2010-11-04 | 株式会社安川電機 | ロボット制御装置 |
AU2003239171A1 (en) * | 2002-01-31 | 2003-09-02 | Braintech Canada, Inc. | Method and apparatus for single camera 3d vision guided robotics |
JP2006289531A (ja) * | 2005-04-07 | 2006-10-26 | Seiko Epson Corp | ロボット位置教示のための移動制御装置、ロボットの位置教示装置、ロボット位置教示のための移動制御方法、ロボットの位置教示方法及びロボット位置教示のための移動制御プログラム |
US8559699B2 (en) * | 2008-10-10 | 2013-10-15 | Roboticvisiontech Llc | Methods and apparatus to facilitate operations in image based systems |
JP5164811B2 (ja) * | 2008-11-26 | 2013-03-21 | キヤノン株式会社 | 作業システム及び情報処理方法 |
JP5509645B2 (ja) * | 2009-03-25 | 2014-06-04 | 富士ゼロックス株式会社 | 位置・姿勢認識方法、部品把持方法、部品配置方法、部品組立方法、位置・姿勢認識装置、部品把持装置、部品配置装置、および部品組立装置 |
FI20105732A0 (fi) * | 2010-06-24 | 2010-06-24 | Zenrobotics Oy | Menetelmä fyysisten kappaleiden valitsemiseksi robottijärjestelmässä |
JP5835926B2 (ja) * | 2011-04-11 | 2015-12-24 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、およびプログラム |
JP5733518B2 (ja) * | 2011-05-25 | 2015-06-10 | 株式会社Ihi | 運動予測制御装置と方法 |
JP5787642B2 (ja) * | 2011-06-28 | 2015-09-30 | キヤノン株式会社 | 対象物保持装置、対象物保持装置の制御方法、およびプログラム |
EP2546712A1 (de) * | 2011-07-12 | 2013-01-16 | Siemens Aktiengesellschaft | Verfahren zum Betrieb einer Produktionsmaschine |
JP5852364B2 (ja) * | 2011-08-26 | 2016-02-03 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、およびプログラム |
JP5806606B2 (ja) * | 2011-12-01 | 2015-11-10 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
US9258550B1 (en) * | 2012-04-08 | 2016-02-09 | Sr2 Group, Llc | System and method for adaptively conformed imaging of work pieces having disparate configuration |
JP6192088B2 (ja) * | 2013-02-20 | 2017-09-06 | 国立大学法人九州工業大学 | 物体検出方法および物体検出装置 |
JP5565503B2 (ja) * | 2013-05-16 | 2014-08-06 | 富士電機株式会社 | 動作軌道生成装置、動作軌道生成方法、ロボット制御装置及びロボット制御方法 |
CN103273497B (zh) * | 2013-06-06 | 2015-08-19 | 山东科技大学 | 人机交互式机械手控制系统及其控制方法 |
JP6390088B2 (ja) * | 2013-10-31 | 2018-09-19 | セイコーエプソン株式会社 | ロボット制御システム、ロボット、プログラム及びロボット制御方法 |
CN104802166B (zh) * | 2013-10-10 | 2016-09-28 | 精工爱普生株式会社 | 机器人控制系统、机器人、程序以及机器人控制方法 |
CN105792996B (zh) * | 2013-11-28 | 2017-07-25 | 三菱电机株式会社 | 机器人系统以及机器人系统的控制方法 |
US9259844B2 (en) * | 2014-02-12 | 2016-02-16 | General Electric Company | Vision-guided electromagnetic robotic system |
KR102081139B1 (ko) * | 2014-03-12 | 2020-02-25 | 한국전자통신연구원 | 물체 피킹 시스템, 물체 검출 장치 및 그 방법 |
JP6443837B2 (ja) * | 2014-09-29 | 2018-12-26 | セイコーエプソン株式会社 | ロボット、ロボットシステム、制御装置、及び制御方法 |
JP6573354B2 (ja) * | 2014-11-28 | 2019-09-11 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP6548422B2 (ja) * | 2015-03-27 | 2019-07-24 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
DE102016009030B4 (de) * | 2015-07-31 | 2019-05-09 | Fanuc Corporation | Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs |
JP6700726B2 (ja) * | 2015-11-06 | 2020-05-27 | キヤノン株式会社 | ロボット制御装置、ロボット制御方法、ロボット制御システムおよびコンピュータプログラム |
WO2018135509A1 (ja) * | 2017-01-23 | 2018-07-26 | パナソニックIpマネジメント株式会社 | イベント予測システム、イベント予測方法、プログラムおよびそれを記録した記録媒体 |
JP2018126798A (ja) * | 2017-02-06 | 2018-08-16 | セイコーエプソン株式会社 | 制御装置、ロボットおよびロボットシステム |
JP6438512B2 (ja) * | 2017-03-13 | 2018-12-12 | ファナック株式会社 | 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法 |
JP6897593B2 (ja) * | 2017-03-14 | 2021-06-30 | オムロン株式会社 | 学習対象装置及び動作方法 |
US10537995B2 (en) * | 2017-05-08 | 2020-01-21 | Seiko Epson Corporation | Controller and control method of robot, and robot system |
-
2018
- 2018-11-30 JP JP2018225815A patent/JP6904327B2/ja active Active
-
2019
- 2019-10-17 CN CN201980052690.6A patent/CN112584990B/zh active Active
- 2019-10-17 US US17/270,442 patent/US11745355B2/en active Active
- 2019-10-17 EP EP19888433.0A patent/EP3888859A4/en active Pending
- 2019-10-17 WO PCT/JP2019/040794 patent/WO2020110495A1/ja unknown
Also Published As
Publication number | Publication date |
---|---|
EP3888859A4 (en) | 2022-08-10 |
CN112584990B (zh) | 2024-05-10 |
US11745355B2 (en) | 2023-09-05 |
EP3888859A1 (en) | 2021-10-06 |
CN112584990A (zh) | 2021-03-30 |
WO2020110495A1 (ja) | 2020-06-04 |
US20210252714A1 (en) | 2021-08-19 |
JP2020082332A (ja) | 2020-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6904327B2 (ja) | 制御装置、制御方法、及び制御プログラム | |
JP6807949B2 (ja) | 干渉回避装置 | |
JP6705977B2 (ja) | ロボットパス生成装置及びロボットシステム | |
JP4413891B2 (ja) | シミュレーション装置およびシミュレーション方法並びにシミュレーションプログラム | |
CN111684474B (zh) | 运算装置、运算方法及记录介质 | |
JP6931457B2 (ja) | モーション生成方法、モーション生成装置、システム及びコンピュータプログラム | |
JP7295421B2 (ja) | 制御装置及び制御方法 | |
Westerberg et al. | Virtual environment-based teleoperation of forestry machines: Designing future interaction methods | |
CN112534367B (zh) | 学习装置、控制装置、学习方法以及计算机可读存储介质 | |
Al-Sharo et al. | Generalized Procedure for Determining the Collision-Free Trajectory for a Robotic Arm | |
WO2021033471A1 (ja) | 制御装置、制御方法、及び制御プログラム | |
CN115351780A (zh) | 用于控制机器人设备的方法 | |
Zhu et al. | Robot performing peg-in-hole operations by learning from human demonstration | |
De Farias et al. | Dual quaternion-based visual servoing for grasping moving objects | |
Sivčev et al. | Closing the gap between industrial robots and underwater manipulators | |
JP7263987B2 (ja) | 制御装置、制御方法、及び制御プログラム | |
JP2014065098A (ja) | ロボット装置及び多関節ロボットの軌道シミュレーション装置並びに軌道生成方法 | |
WO2021033472A1 (ja) | 制御装置、制御方法、及び制御プログラム | |
Bun et al. | COLLABORATIVE PATH PLANNING OF ROBOT ARM AND TURNABLE-TABLE USING RRT ALGORITHM FOR 3D OBJECT INSPECTION | |
Hu et al. | Progress and Challenges of Hand-eye-foot Coordination for Mobile Manipulator | |
Lai | A fast task planning system for 6R articulated robots based on inverse kinematics | |
WO2022168634A1 (ja) | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム | |
Maheshwari et al. | DESIGN OF ADVANCE ROBOT FOR SURVEILLANCE AND RISK-FREE MOVEMENT: A SIMULATION APPROACH. | |
JP7424122B2 (ja) | シミュレーション装置およびプログラム | |
US20220390922A1 (en) | Workcell modeling using motion profile matching and swept profile matching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210525 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210607 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6904327 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |