JP2020097072A - 制御装置、及び学習装置 - Google Patents

制御装置、及び学習装置 Download PDF

Info

Publication number
JP2020097072A
JP2020097072A JP2018235632A JP2018235632A JP2020097072A JP 2020097072 A JP2020097072 A JP 2020097072A JP 2018235632 A JP2018235632 A JP 2018235632A JP 2018235632 A JP2018235632 A JP 2018235632A JP 2020097072 A JP2020097072 A JP 2020097072A
Authority
JP
Japan
Prior art keywords
unit
learning
total weight
control
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018235632A
Other languages
English (en)
Other versions
JP7247571B2 (ja
Inventor
章介 大西
Shosuke Onishi
章介 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2018235632A priority Critical patent/JP7247571B2/ja
Publication of JP2020097072A publication Critical patent/JP2020097072A/ja
Application granted granted Critical
Publication of JP7247571B2 publication Critical patent/JP7247571B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)

Abstract

【課題】様々なエンドエフェクターや把持対象物に対して最適な制御を実現することで、エンドエフェクター及び把持対象物の重量の制約を緩和し、エンドエフェクターと把持対象物との組み合わせを拡大する。【解決手段】制御装置20は、アーム11の先端部15が垂直運動を行っている間に第2検出部18Eにより検出される入力トルクTに基づいて、第1推論モデルM1を用いて、グリッパー41とワーク42との総重量GWを推定する第1推定部214と、第1推定部214により推定された総重量GWから推定されるロボット10の状態に基づいて、当該状態のロボット10に適した制御パラメーターを設計する設計部と、アーム11の先端部15を目標軌道に追従させるように、設計部により設計された制御パラメーターを用いて駆動部16の駆動を制御する第1制御部と、を備える。【選択図】図3

Description

本発明は、アームを構成する各関節の駆動を制御する制御装置、及び適切なロボット駆動のための学習装置に関する。
アームを有するロボットの駆動制御に、制御パラメーターが用いられることがある。制御パラメーターは、例えば、与えられた目標値(目標位置や目標速度)と、これらに対応するモーター(関節を駆動するモーター)の駆動角度や駆動速度との関係を定めた値であり、フィードバックゲインなどがこれに相当する。
また、制御パラメーターは、既知の制御理論に基づいて設計される。例えば、ロボットの基本的な状態を元に、上記制御理論を用いて、その状態のロボットに最適な制御パラメーターが設計される。
特開2018−126796号公報 特開2018−027581号公報
産業用又は協働用ロボットには、可搬重量が決められている。ロボットによるピッキングアンドプレース動作において、アームの先端部に取り付けられているエンドエフェクター(例えば、指部を有したハンドや、爪部を有したグリッパー)と、エンドエフェクターに把持されている把持対象物(ワーク)との総重量が可搬重量を超えると、ロボットの動作が不安定になり、アームが目標軌道に正しく追従できなくなる。
その理由の一つは、事前に用意された制御パラメーター(例えば、ロボットの基本的な状態に最適な制御パラメーター)では、上記総重量が可搬重量を超えると、ロボットの適切な制御が難しくなるからである。そのため、ロボットを選定する際には、把持対象物の重量を考慮する必要ある。一般には、把持対象物の重量の2倍程度の可搬重量をもつロボットが選定される。
アームの先端部に取り付けるエンドエフェクターは、その使用目的や、把持対象物の形状に合わせて取り換えられる。また、エンドエフェクターの重量も種類により異なる。
しかしながら、上記したように、エンドエフェクターと把持対象物との総重量が可搬重量を超えると、ロボットの動作は不安定になる。そのため、重量の大きい把持対象物のピッキングアンドプレース動作に、重量の大きいエンドエフェクターを採用することは難しくなる。つまり、エンドエフェクターと把持対象物との組み合わせは、限定される。また、総重量が可搬重量の範囲内であっても、事前に用意された制御パラメーターでは、ロボット制御は最適なものにならない。
上記特許文献1には、エンドエフェクターを取り付けた状態で、ロボットに予め定められた動作を行わせて、学習によって、その状態での適切な制御パラメーターを検出することが記載されている。
しかしながら、ロボットを実際に動作させて、制御パラメーターを検出するので、適切な制御パラメーターを検出するまでに時間を要する。また、上記特許文献1には、エンドエフェクターと把持対象物との総重量についての記載はなく、把持対象物は、可搬重量からエンドエフェクターの重量を差し引いた重量以下のものに制限される。
上記特許文献2には、把持対象物の形状と重量との関係を学習した第1推定部を備え、第1推定部で推定した把持対象物の重量に基づいて、ロボットのピッキング動作を制御することが記載されている。
しかしながら、上記特許文献2では、エンドエフェクターの重量が変化した場合について考慮されていない。また、上記特許文献2では、形状からの重量の推定が画像処理にて行われるため、演算処理が複雑となり、エンドエフェクターの重量の推定までに時間を要する。
本発明は、上記の事情に鑑みなされたものであり、様々なエンドエフェクターや把持対象物に対して最適な制御を実現することで、エンドエフェクター及び把持対象物の重量の制約を緩和し、エンドエフェクターと把持対象物との組み合わせを拡大することを目的とする。
本発明の一局面に係る制御装置は、複数の関節を有し、三次元空間を自在に移動可能なアームと、前記複数の関節それぞれに設けられた、前記関節を駆動する駆動部と、前記アームの先端部の位置を検出する第1検出部と、前記先端部に最も近い位置の前記駆動部に加わる入力トルクを検出する第2検出部と、を備えると共に、前記先端部にエンドエフェクターが着脱交換可能に構成されたロボットの動作を制御する制御装置であって、前記先端部が予め定められた運動を行っている間に前記第2検出部により検出された前記入力トルクを入力とし、前記先端部に取り付けられている前記エンドエフェクターと当該エンドエフェクターに把持されている把持対象物との総重量を出力とする入出力の相関性を学習することによって得られた第1推論モデルを記憶する第1記憶部と、前記第1記憶部に記憶されている前記第1推論モデルを用いて、前記先端部が前記予め定められた運動を行わっている間に前記第2検出部により新たに検出された前記入力トルクに対応する前記総重量を推定する第1推定部と、前記第1推定部により推定された前記総重量から推定される前記ロボットの状態に基づいて、当該状態の前記ロボットに適した制御パラメーターを設計する設計部と、予め生成された目標軌道と、前記先端部の位置とに基づいて、前記アームの前記先端部を前記目標軌道に追従させるように、前記設計部により設計された前記制御パラメーターを用いて前記駆動部の駆動を制御する第1制御部と、を備える。
また、本発明の一局面に係る学習装置は、上記制御装置において用いられる第1推論モデルを学習によって生成するための学習装置であって、前記先端部が前記予め定められた運動を行っている間に前記第2検出部により検出された前記入力トルクと、その時の前記総重量とを、含む第1学習データを学習することで、前記第1推論モデルを生成する第1学習部を備える。
本発明によれば、アームの先端部に取り付けられるエンドエフェクターと、当該エンドエフェクターに把持されている把持対象物との総重量によって制御パラメーターが変更されるので、当該総重量に対して最適なロボット制御を行うことが可能となる。従って、エンドエフェクター及び把持対象物の重量の制約を緩和し、エンドエフェクターと把持対象物との組み合わせを拡大することができる。
本発明の一実施形態に係るロボット制御システムを構成する制御装置の主要内部構成を概略的に示した機能ブロック図である。 制御の対象となるロボットを模式的に示した外観図である。 第1推定部によってエンドエフェクターと把持対象物との総重量が推定されるまでの流れを説明するための説明図である。 第1制御部によってロボットの動作が制御されるまでの流れを説明するための説明図である。 制御装置の制御ユニットで行われる処理動作の一例を示したフローチャートである。 ロボット制御システムを構成する学習装置の主要内部構成を概略的に示した機能ブロック図である。
以下、本発明の一実施形態に係る制御装置、及び学習装置について図面を参照して説明する。図1は、一実施形態に係るロボット制御システムを構成する制御装置の主要内部構成を概略的に示した機能ブロック図である。図2は、制御の対象となるロボットを模式的に示した外観図である。
ロボット制御システム1は、ロボット10と、ロボット10の動作を制御する制御装置(ロボット制御装置)20と、学習装置30と、を含んで構成される。
ロボット10は、図2に示すように、人間の腕と同様の運動機能を持つマニピュレーターで、三次元空間を自在に移動可能なアーム(ロボットアーム)11を備え、アーム11の根元は台座14に固定されている。アーム11は、複数の関節12A乃至12E(以降、まとめて「関節12」とも称す)と、関節12どうしをつなぐリンク13A乃至13Dとを有する。
また、アーム11は、その先端部15にエンドエフェクターが着脱交換可能に構成されている。図2中では、エンドエフェクターとして、平行に配置された2つの爪部41A,41Bを有するグリッパー41が取り付けられている。グリッパー41は、例えば、テーブル43に載せられたワーク(把持対象物)42を把持して、ワーク42を任意の場所へ運ぶことに使用される。また、グリッパー41には、空気圧により爪部41A,41Bを駆動するグリッパー駆動部41C(例えば、シリンダー)が内蔵されている。
ロボット10は、関節12それぞれに設けられた、関節12を駆動する駆動部16A乃至16E(以降、まとめて「駆動部16」とも称す)と、関節12それぞれに設けられた、関節12の角度を検出する関節角検出部17A乃至17E(以降、まとめて「関節角検出部17」とも称す)と、駆動部16それぞれの入力トルクを検出する第2検出部(トルク検出部)18A乃至18E(以降、まとめて「第2検出部18」とも称す)と、ロボット10の上方に設けられたカメラ19と、を備える。なお、駆動部16、関節角検出部17、及び第2検出部18としてはそれぞれ、例えば、モーター、エンコーダー、トルクセンサーが挙げられる。
また、関節角検出部17は、特許請求の範囲における第1検出部(位置検出部)の一例である。アーム11の先端部15の位置は、関節12A乃至12Eすべての角度から割り出すことができる。なお、ロボット10の全体を撮影するカメラ19を、上記第1検出部として利用することも可能である。
制御装置20は、制御ユニット21と、操作部22と、表示部23と、記憶部24と、外部インターフェイス部(外部I/F)25と、通信インターフェイス部(通信I/F)26と、を備える。
操作部22は、キーボードやマウス等から構成され、制御ユニット21にコマンドや文字を入力したり、表示部23における画面上のポインターを操作したりする。表示部23は、制御ユニット21からの応答やデータ結果を表示する。操作部22は、例えば、アーム11の先端部15の目標到達位置(例えば、把持対象物であるワーク42をプレースする位置)の指示入力に用いられる。
記憶部24は、HDD(Hard Disk Drive)などの記憶装置であり、制御装置20の動作に必要なプログラムやデータを記憶し、第1記憶部(第1推論モデル記憶部)241、第2記憶部(第2推論モデル記憶部)242、及び制御パラメーター記憶部243を含む。
第1記憶部241に記憶されるのは、第2検出部18Eにより検出される入力トルクT(すなわち、駆動部16A乃至16Eの中で、先端部15に最も近い位置の駆動部16Eに加わる入力トルク)を入力とし、先端部15に取り付けられているエンドエフェクター(例えば、グリッパー41)と当該エンドエフェクターに把持されている把持対象物(例えば、ワーク42)との総重量GWを出力とする入出力の相関性を学習することによって得られる第1推論モデルM1(図3を参照)である。
そして、この第1推論モデルM1を用いることで、未知の「入力トルクT」から「総重量GW」を推定することが可能となる。なお、第1推論モデルM1は、外部サーバーである学習装置30の学習によって生成されるが、それについては後述する。
第2記憶部242に記憶されるのは、総重量GWを入力とし、ロボット10の状態RS(伝達関数又は状態方程式)を出力とする入出力の相関性を学習することによって得られる第2推論モデルM2(図4を参照)である。
そして、この第2推論モデルM2を用いることで、未知の「総重量GW」から「ロボットの状態RS」を推定することが可能となる。なお、第2推論モデルM2は、学習装置30の学習によって生成されるが、それについても後述する。
制御パラメーター記憶部243に記憶されるのは、ピッキング動作、プレース動作で使用されたそれぞれの最新の制御パラメーターである。
外部インターフェイス部25は、外部装置と接続するためのもので、制御装置20は、外部インターフェイス部25を介して、ロボット10を構成する駆動部16、関節角検出部17、第2検出部18、及びカメラ19と接続され、更に、ロボット10を介して、グリッパー駆動部41Cと接続されている。
通信インターフェイス部26は、不図示のLAN(Local Area Network)チップなどの通信モジュールを備えるインターフェイスで、外部装置との間で通信を行う。制御装置20は、通信インターフェイス部26を介して、学習装置30との間でデータの送受信を行う。
制御ユニット21は、プロセッサー、RAM(Random Access Memory)、ROM(Read Only Memory)、及び専用のハードウェア回路を含んで構成される。プロセッサーは、例えばCPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等である。制御ユニット21は、第1制御部(ロボット制御部)211と、物体認識部212と、軌道生成部213と、第1推定部(重量推定部)214と、第1書換部216と、第2書換部217と、を備えている。
制御ユニット21は、記憶部24に記憶されている制御プログラムに従った上記プロセッサーによる動作により、第1制御部211、物体認識部212、軌道生成部213、第1推定部214、第1書換部216、及び第2書換部217として機能する。但し、制御ユニット21等の上記の各構成は、制御ユニット21による制御プログラムに基づく動作によらず、それぞれハードウェア回路により構成することも可能である。以下、特に触れない限り、各実施形態について同様である。
第1制御部211は、制御装置20の全体的な動作制御を司る。第1制御部211は、操作部22、表示部23、記憶部24、外部インターフェイス部25、及び通信インターフェイス部26と接続されており、接続されている上記各構成の動作制御や、各構成との間での信号またはデータの送受信を行う。
物体認識部212は、カメラ19で撮影されることによって得られた画像データに基づいて、例えば、パターンマッチングや機械学習による物体認識を行うことで、把持対象物であるワーク42を認識し、当該ワーク42の位置を検出する。この位置は、ピッキング動作の終点となる。
軌道生成部213は、物体認識部212で検出されたワーク42の位置(ピッキング動作の終点)に基づいて、現在位置から当該終点までの、アーム11の先端部15の目標軌道を生成する。また、軌道生成部213は、操作部22を介してユーザーから指示された、ワーク42をプレースする位置(プレース動作の終点)に基づいて、ワーク42を把持した位置から当該終点までの、アーム11の先端部15の目標軌道を生成する。なお、軌道の生成には、RRT(Rapidly exploring random tree)など、種々の生成アルゴリズムを適用することができる。
第1推定部214は、アーム11の先端部15が予め定められた運動(例えば、数十ミリ秒の垂直運動)を行っている間に、第2検出部18Eにより検出される入力トルクT(トルクの波形)に基づいて、第1推論モデルM1(図3)を用いて、総重量GWを推定する。すなわち、第1推定部214は、第1推論モデルM1を用いて、入力トルクTに対応する総重量GWを推定する。図3は、第1推定部214によって総重量GWが推定されるまでの流れを説明するための説明図である。
なお、上記垂直運動は、第1制御部211が、駆動部16の駆動を制御することで実現される。また、この駆動制御時に使用される制御パラメーターは、予め設計された初期値である。当該初期値は、アーム11の先端部15にエンドエフェクターが取り付けられていない状態(すなわち、総重量GWがゼロである状態)のロボット10に適するように設計されたものである。
第1制御部211は、軌道生成部213により生成された目標軌道(例えば、目標位置や目標速度、目標加速度等)と、アーム11の先端部15の位置や速度、加速度等とに基づいて、当該先端部15を目標軌道に追従させるように、その時のロボット10の状態に適した制御パラメーターを用いて、駆動部16の駆動を制御する。
図4は、第1制御部211によってロボット10の動作が制御されるまでの流れを説明するための説明図である。第1制御部211は、第2推定部(状態推定部)2151と、設計部2152と、サーボ制御部2153と、を備える。
第2推定部2151は、第1推定部214により推定された総重量GWに基づいて、第2推論モデルM2を用いて、ロボットの状態RS(伝達関数又は状態方程式)を推定する。すなわち、第2推定部2151は、第2推論モデルM2を用いて総重量GWに対応するロボットの状態RSを推定する。例えば、第2推定部2151は、ロボットの状態RSを示す状態方程式の係数を求める。
設計部2152は、第2推定部2151により推定されたロボットの状態RS(伝達関数又は状態方程式)から、既知の設計アルゴリズムに基づいて、当該状態RSのロボット10に最適な制御パラメーターを導出し、導出した制御パラメーターをサーボ制御部2153に出力する。例えば、設計部2152は、第2推定部2151により求められた係数を用いて、リカッチ方程式を解くことで、フィードバックゲインなどの制御パラメーターを求める。
サーボ制御部2153は、軌道生成部213により生成された目標軌道が示す次の時刻での先端部15の目標位置や目標速度、目標加速度と、ロボット10の関節角検出部17による検出結果から求められる先端部15の位置や速度、加速度との偏差が小さくなるように、設計部2152が導出した制御パラメーターを用いて、駆動部16に対する制御量を決定し、そして駆動部16の駆動を制御する。これにより、先端部15に加わる重さ(総重量GW)に最適なロボット制御を実現することができる。
また、第1制御部211は、ピッキング動作、プレース動作で使用したそれぞれの最新の制御パラメーターを、制御パラメーター記憶部243に記憶させる。
第1書換部216は、第1記憶部241に記憶されている第1推論モデルM1を、外部装置である学習装置30から送信され、通信インターフェイス部26を介して受信した第1推論モデルM1に書き換える。これによれば、更新された第1推論モデルM1を用いて、総重量GWを推定することができる。
第2書換部217は、第2記憶部242に記憶されている第2推論モデルM2を、外部装置である学習装置30から送信され、通信インターフェイス部26を介して受信した第2推論モデルM2に書き換える。これによれば、更新された第2推論モデルM2を用いてロボットの状態RSを推定することができる。
次に、制御装置20における制御ユニット21で行われる処理動作について、図5に示したフローチャートに基づいて説明する。なお、この処理動作は、ロボット10のピッキングアンドプレース動作で行われる処理動作である。
まず、第1制御部211が、総重量GWを変更する変更イベントが発生したか否かを判断する(S1)。当該変更イベントは、エンドエフェクターであるグリッパー41によるワーク42のピッキング、ワーク42のプレース、及びエンドエフェクターの交換である。当たり前ではあるが、ワーク42がピッキングされると、総重量GWは重くなり、ワーク42がプレースされると、総重量GWは軽くなる。
ワーク42のピッキングやプレースが行われたか否かは、第1制御部211によるロボット10に対する制御内容から判断できる。エンドエフェクターが交換されたか否かは、アーム11の先端部15にエンドエフェクターの着脱を検出する検出センサーを設け、当該検出センサーからのオン・オフ信号や、カメラ19から得られる先端部15付近を撮影した画像データから判断できる。
第1制御部211が、上記変更イベントが発生していないと判断した場合(S1でNO)、総重量GWは変化していないので、制御パラメーターを変更する必要はない。従って、処理はそのままS9へ移る。
一方、第1制御部211が、上記変更イベントが発生したと判断した場合(S1でYES)、第1制御部211は、今回行われるピッキングアンドプレース動作が前回のピッキングアンドプレース動作と同じであるか否かを判断する(S2)。
第1制御部211が、今回行われるピッキングアンドプレース動作が前回のピッキングアンドプレース動作と同じであると判断した場合(S2でYES)、第1制御部211は、次に行われる動作がピッキング動作(又はプレース動作)であれば、前回のピッキング動作(又はプレース動作)で用いた制御パラメーターを、制御パラメーター記憶部243から読み出し、使用する制御パラメーターを当該読み出した制御パラメーターに変更し(S3)、その後、処理はS9へ移る。第1制御部211は、前回のピッキング動作(又はプレース動作)で用いた制御パラメーターを有効活用することができる。
一方、第1制御部211が、今回行われるピッキングアンドプレース動作が前回のピッキングアンドプレース動作と同じでないと判断した場合(S2でNO)、第1制御部211は、総重量GWが「未知」であるか否かを判断する(S4)。具体的には、ワーク42が前回の動作時と同型(すなわち、重量が同じ)であるか否かを判断する。
ワーク42が前回の動作時と同型である場合、ワーク42を把持するエンドエフェクターを交換する必要はないので、エンドエフェクターについても、前回の動作時と同じであると考えられる。従って、ワーク42が前回の動作時と同型であれば、総重量GWは「既知」と判断し、同型でなければ、総重量GWは「未知」と判断する。なお、ワーク42が前回の動作時と同型であるか否かは、例えば、カメラ19から得られる先端部15付近を撮影した画像データに基づいて、パターンマッチングを行うことによって判断できる。
第1制御部211が、総重量GWが「未知」でなく、「既知」であると判断した場合(S4でNO)、処理はS3へ移り、第1制御部211は、前回のピッキング動作(又はプレース動作)で用いた制御パラメーターを、制御パラメーター記憶部243から読み出し、使用する制御パラメーターを当該読み出した制御パラメーターに変更する。
一方、第1制御部211が、総重量GWが「未知」であると判断した場合(S4でYES)、第1制御部211が、予め設計された制御パラメーターの初期値を用いて、駆動部16の駆動を制御することによって、アーム11の先端部15を数十ミリ秒間、垂直に運動させる(S5)。
続いて、第1推定部215が、アーム11の先端部15が上記垂直運動を行っている間に、第2検出部18Eにより検出された入力トルクT(トルクの波形)に基づいて、第1推論モデルM1(図3)を用いて、総重量GWを推定する(S6)。これにより、第1推定部215は、総重量GWが「未知」である場合に、第1推論モデルM1を用いて、総重量GWを推定することができる。
次に、第2推定部2151が、第1推定部214により推定された総重量GWに基づいて、第2推論モデルM2(図4)を用いて、ロボットの状態RSを推定し(S7)、設計部2152が、第2推定部2151により推定されたロボットの状態RSから、当該状態RSのロボット10に最適な制御パラメーターを導出し、導出した制御パラメーターをサーボ制御部2153に出力し(S8)、その後、処理はS9へ移る。
S9において、物体認識部212が、カメラ19で撮影されることによって得られた画像データに基づいて、把持対象物であるワーク42を認識し、当該ワーク42の位置(ピッキング動作の終点)を検出し(S9)、軌道生成部213が、物体認識部212で検出されたワーク42の位置(ピッキング動作の終点)に基づいて、現在位置から当該終点までの、アーム11の先端部15の目標軌道を生成する(S10)。
但し、次に行われる動作がピッキング動作ではなく、プレース動作の場合には、軌道生成部213は、操作部22を介してユーザーから指示された、ワーク42をプレースする位置(プレース動作の終点)に基づいて、ワーク42を把持した位置から当該終点までの、アーム11の先端部15の目標軌道を生成する。
続いて、サーボ制御部2153が、軌道生成部213により生成された目標軌道が示す次の時刻での先端部15の目標位置や目標速度、目標加速度と、ロボット10の関節角検出部17による検出結果から求められる先端部15の位置や速度、加速度との偏差が小さくなるように、制御パラメーターを用いて、駆動部16に対する制御量を決定し、そして駆動部16の駆動を制御し(S11)、この処理動作を終了する。
図6は、ロボット制御システムを構成する学習装置の主要内部構成を概略的に示した機能ブロック図である。
ロボット制御システム1は、エンドエフェクターとしてのグリッパー41が取り付けられたロボット10と、制御装置20と、学習装置30と、を含んで構成される。グリッパー41は、グリッパー41が把持しているワーク42の重量を検出する重量センサー41Dを備える点で、図1に示したグリッパーと相違する。
学習装置30は、制御ユニット31と、操作部32と、表示部33と、記憶部34と、外部インターフェイス部(外部I/F)35と、通信インターフェイス部(通信I/F)36と、を備える。
操作部32は、キーボードやマウス等から構成され、制御ユニット31にコマンドや文字を入力したり、表示部33における画面上のポインターを操作したりする。表示部33は、制御ユニット31からの応答やデータ結果を表示する。
記憶部34は、HDDなどの記憶装置であり、制御装置20の動作に必要なプログラムやデータを記憶し、第1学習データ記憶部341、第2学習データ記憶部342、第1記憶部343、及び第2記憶部344を含む。
第1学習データ記憶部341に記憶されるのは、アーム11の先端部15が垂直運動を行っている間に第2検出部18Eにより検出された入力トルクTと、その時の総重量GWとを、含む第1学習データD1である。第1学習データD1は、後述する第1学習部313で学習される。また、入力トルクTは、予め設計された制御パラメーターの初期値を用いて、先端部15が上記垂直運動を行っている間に検出されるものである。
優れた学習結果(第1推論モデルM1)を獲得するには、第1学習部313に多様な第1学習データD1を学習させる必要がある。そこで、様々な重量のワーク42を、重量が既知のグリッパー41に把持させて、上記垂直運動を行い、多様な第1学習データD1を作成して収集し、第1学習データ記憶部341に蓄積する。グリッパー41の重量は既知であるので、「教師データ」となる総重量GWについては、グリッパー41の重量に、重量センサー41Dにより検出されるワーク42の重量を加算することで求められる。従って、第1学習データD1を作成する際、作業者はワーク42の重量を認識する必要はない。なお、「教師データ」は機械学習で用いられるデータである。
なお、ここでは実環境にて第1学習データD1を作成する場合について説明しているが、仮想環境で動作するロボット10のモデルを構築して、当該モデルを使って、先端部15に加わる総重量GWを自由に変化させて第1学習データD1を作成してもよい。
第2学習データ記憶部342に記憶されるのは、総重量GWと、ロボット10の状態RSとの対応関係を示す第2学習データD2である。第2学習データD2は、後述する第2学習部314で学習される。
第1記憶部343に記憶されるのは、第2検出部18Eにより検出される入力トルクTを入力とし、総重量GWを出力とする入出力の相関性を学習することによって得られる第1推論モデルM1(図3)である。
第2記憶部344に記憶されるのは、総重量GWを入力とし、ロボット10の状態RSを出力とする入出力の相関性を学習することによって得られる第2推論モデルM2(図4)である。
外部インターフェイス部35は、外部装置と接続するためのもので、学習装置30は、外部インターフェイス部35を介して、ロボット10を構成する駆動部16、関節角検出部17、第2検出部18、及びカメラ19と接続され、更に、ロボット10を介して、グリッパー駆動部41C、及び重量センサー41Dと接続されている。
通信インターフェイス部36は、不図示のLANチップなどの通信モジュールを備えるインターフェイスで、外部装置との間で通信を行う。学習装置30は、通信インターフェイス部36を介して、制御装置20との間でデータの送受信を行う。
制御ユニット31は、プロセッサー、RAM、ROM、及び専用のハードウェア回路を含んで構成される。プロセッサーは、例えばCPU、ASIC、MPU、GPU等である。制御ユニット31は、第1制御部311と、第1学習部313と、第2学習部314と、第2制御部(送信制御部)315と、を備えている。
制御ユニット31は、記憶部34に記憶されている制御プログラムに従った上記プロセッサーによる動作により、第1制御部311、第1学習部313、第2学習部314、及び第2制御部315として機能する。但し、制御ユニット31等の上記の各構成は、制御ユニット31による制御プログラムに基づく動作によらず、それぞれハードウェア回路により構成することも可能である。以下、特に触れない限り、各実施形態について同様である。
第1制御部311は、学習装置30の全体的な動作制御を司る。第1制御部311は、操作部32、表示部33、記憶部34、外部インターフェイス部35、及び通信インターフェイス部36と接続されており、接続されている上記各構成の動作制御や、各構成との間での信号またはデータの送受信を行う。また、第1制御部311は、駆動部16の駆動を制御することで、上記垂直運動を実行する。
第1学習部313は、第1学習データ記憶部341に記憶されている第1学習データD1を学習することで、第1推論モデルM1を生成する。例えば、第1学習部313は、第1学習データD1を用いて、機械学習を行い、第1学習データD1が有する特徴を学習し、入力トルクTを入力とし、総重量GWを出力とした、ある入力に対する適切な出力を推論するための入出力の相関性を学習する。この入出力の相関性を示した結果が第1推論モデルM1となる。
従って、第1学習データD1を大量に学習することで、未知の「入力」から適切な「出力」を推定する第1推論モデルM1を獲得することができる。なお、これはニューラルネットワークなどのアルゴリズムを用いて実現することが可能で、入力データとして、第2検出部18Eにより検出される入力トルクTを入力すると、総重量GWを出力するように、ニューラルネットワークを構築する。
第2学習部314は、第2学習データ記憶部342に記憶されている第2学習データD2を学習することで、第2推論モデルM2を生成する。例えば、第2学習部314は、第1学習部313と同様に、第2学習データD2を用いて、機械学習を行って、第2推論モデルM2を生成する。
第2制御部315は、第1記憶部343に記憶されている第1推論モデルM1(すなわち、第1学習部313で生成された第1推論モデルM1)や、第2記憶部344に記憶されている第2推論モデルM2(すなわち、第2学習部314で生成された第2推論モデルM2)を、通信インターフェイス部36を介して、制御装置20へ送信する。
上記実施形態によれば、アーム11の先端部15に取り付けられるエンドエフェクター(グリッパー41)と、当該エンドエフェクターに把持されている把持対象物(ワーク42)との総重量GWによって制御パラメーターが変更されるので、当該総重量GWに対して最適なロボット制御を行うことが可能となる。従って、エンドエフェクター及び把持対象物の重量の制約を緩和し、エンドエフェクターと把持対象物との組み合わせを拡大することができる。
また、総重量GWを推定するために用いる入力トルクTは1次元のデータであるため、2次元の画像データを用いた重量推定よりも演算処理を簡易にすることが可能である(例えば、ニューラルネットワークを構築する層を少なくすることができる)。そのため、総重量GWの推論に要する時間の短縮化が図られる。
更に、制御パラメーターを制御理論に基づいて導出するため、試行錯誤して制御パラメーターを算出する場合よりも、早期に最適な制御パラメーターを決定することができる。
また、第1推論モデルM1及び第2推論モデルM2は、外部装置(学習装置30)からの変更が可能であるので、総重量GWの推定、そして制御パラメーターの設計の精度を向上させることが可能となる。
本発明は上記実施の形態の構成に限られず種々の変形が可能である。また、上記実施形態では、図1乃至図6を用いて上記実施形態により示した構成及び処理は、本発明の一実施形態に過ぎず、本発明を当該構成及び処理に限定する趣旨ではない。
1 ロボット制御システム
10 ロボット
11 アーム
12 関節
15 先端部
16 駆動部
17 関節角検出部(第1検出部)
18 第2検出部
19 カメラ
20 制御装置
30 学習装置
36 通信インターフェイス部
41 グリッパー(エンドエフェクター)
42 ワーク(把持対象物)
211 第1制御部
214 第1推定部
2151 第2推定部
2152 設計部
2153 サーボ制御部
216 第1書換部
217 第2書換部
241 第1記憶部
242 第2記憶部
313 第1学習部
314 第2学習部
315 第2制御部

Claims (11)

  1. 複数の関節を有し、三次元空間を自在に移動可能なアームと、
    前記複数の関節それぞれに設けられた、前記関節を駆動する駆動部と、
    前記アームの先端部の位置を検出する第1検出部と、
    前記先端部に最も近い位置の前記駆動部に加わる入力トルクを検出する第2検出部と、を備えると共に、前記先端部にエンドエフェクターが着脱交換可能に構成されたロボットの動作を制御する制御装置であって、
    前記先端部が予め定められた運動を行っている間に前記第2検出部により検出された前記入力トルクを入力とし、前記先端部に取り付けられている前記エンドエフェクターと当該エンドエフェクターに把持されている把持対象物との総重量を出力とする入出力の相関性を学習することによって得られた第1推論モデルを記憶する第1記憶部と、
    前記第1記憶部に記憶されている前記第1推論モデルを用いて、前記先端部が前記予め定められた運動を行っている間に前記第2検出部により新たに検出された前記入力トルクに対応する前記総重量を推定する第1推定部と、
    前記第1推定部により推定された前記総重量から推定される前記ロボットの状態に基づいて、当該状態の前記ロボットに適した制御パラメーターを設計する設計部と、
    予め生成された目標軌道と、前記先端部の位置とに基づいて、前記アームの前記先端部を前記目標軌道に追従させるように、前記設計部により設計された前記制御パラメーターを用いて前記駆動部の駆動を制御する第1制御部と、を備える制御装置。
  2. 前記第1記憶部に記憶されている前記第1推論モデルを、外部装置から受信した前記第1推論モデルに書き換える第1書換部を更に備え、
    前記第1推定部は、前記第1記憶部に記憶されている前記第1推論モデルを用いて、前記入力トルクに対応する前記総重量を推定する請求項1に記載の制御装置。
  3. 前記総重量を入力とし、前記ロボットの状態を出力とする入出力の相関性を学習することによって得られた第2推論モデルを記憶する第2記憶部と、
    前記第2記憶部に記憶されている前記第2推論モデルを用いて、前記第1推定部により推定された前記総重量に対応する前記ロボットの状態を推定する第2推定部と、を更に備え、
    前記設計部は、前記第2推定部により推定された前記ロボットの状態から、当該状態の前記ロボットに適した前記制御パラメーターを設計する請求項1又は請求項2に記載の制御装置。
  4. 前記第2記憶部に記憶されている前記第2推論モデルを、外部装置から受信した前記第2推論モデルに書き換える第2書換部を更に備え、
    前記第2推定部は、前記第2記憶部に記憶されている前記第2推論モデルを用いて、前記総重量に対応する前記ロボットの状態を推定する請求項3に記載の制御装置。
  5. 前記エンドエフェクターによる前記把持対象物のピッキング、前記エンドエフェクターによる前記把持対象物のプレース、及び前記エンドエフェクターの交換のときだけに、前記第1推定部は、前記総重量を推定し、前記設計部は、前記制御パラメーターを設計する請求項1乃至請求項4のいずれかに記載の制御装置。
  6. 今回行われるピッキングアンドプレース動作が前回のピッキングアンドプレース動作と同じである場合であって、前記把持対象物のピッキングのとき、及び前記把持対象物のプレースのときには、前記第1推定部は、前記総重量を推定せず、前記設計部も、前記制御パラメーターを設計せず、前記第1制御部は、今回行われるピッキング動作においては、前回のピッキング動作で用いた前記制御パラメーターを再度利用し、今回行われるプレース動作においては、前回のプレース動作で用いた前記制御パラメーターを再度利用する請求項5に記載の制御装置。
  7. 今回行われるピッキングアンドプレース動作での前記把持対象物が前回のピッキングアンドプレース動作のときと同型である場合であって、前記把持対象物のピッキングのとき、及び前記把持対象物のプレースのときには、前記第1推定部は、前記総重量を推定せず、前記設計部も、前記制御パラメーターを設計せず、前記第1制御部は、今回行われるピッキング動作においては、前回のピッキング動作で用いた前記制御パラメーターを再度利用し、今回行われるプレース動作においては、前回のプレース動作で用いた前記制御パラメーターを再度利用する請求項5又は請求項6に記載の制御装置。
  8. 請求項1乃至請求項4のいずれかに記載の制御装置において用いられる前記第1推論モデルを学習によって生成するための学習装置であって、
    前記先端部が前記予め定められた運動を行っている間に前記第2検出部により検出された前記入力トルクと、その時の前記総重量とを、含む第1学習データを学習することで、前記第1推論モデルを生成する第1学習部を備える学習装置。
  9. 前記予め定められた運動は、垂直運動であり、
    前記入力トルクは、前記総重量がゼロである状態の前記ロボットに適するように予め設計された前記制御パラメーターを用いて、前記先端部が前記垂直運動を行っている間に検出されるものである請求項8に記載の学習装置。
  10. 請求項3又は請求項4に記載の第2推論モデルを学習によって生成するための学習装置であって、
    前記総重量と、前記ロボットの状態との対応関係を示す第2学習データを学習することで、前記第2推論モデルを生成する第2学習部を備える学習装置。
  11. 外部装置との間でデータの送受信を行う通信部と、
    前記第1学習部で生成された前記第1推論モデル、又は前記第2学習部で生成された前記第2推論モデルを、前記通信部を介して、前記制御装置へ送信する第2制御部と、を更に備える請求項8乃至請求項10のいずれかに記載の学習装置。
JP2018235632A 2018-12-17 2018-12-17 制御装置、及び学習装置 Active JP7247571B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018235632A JP7247571B2 (ja) 2018-12-17 2018-12-17 制御装置、及び学習装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018235632A JP7247571B2 (ja) 2018-12-17 2018-12-17 制御装置、及び学習装置

Publications (2)

Publication Number Publication Date
JP2020097072A true JP2020097072A (ja) 2020-06-25
JP7247571B2 JP7247571B2 (ja) 2023-03-29

Family

ID=71106769

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018235632A Active JP7247571B2 (ja) 2018-12-17 2018-12-17 制御装置、及び学習装置

Country Status (1)

Country Link
JP (1) JP7247571B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03130808A (ja) * 1989-10-17 1991-06-04 Citizen Watch Co Ltd ロボットの制御方法およびその制御装置
JPH07295650A (ja) * 1994-04-21 1995-11-10 Ricoh Co Ltd 多関節型ロボットの制御方法
JP2013121625A (ja) * 2011-12-09 2013-06-20 Seiko Epson Corp ロボット装置およびロボット装置の制御方法
JP2018027581A (ja) * 2016-08-17 2018-02-22 株式会社安川電機 ピッキングシステム
JP2018126796A (ja) * 2017-02-06 2018-08-16 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03130808A (ja) * 1989-10-17 1991-06-04 Citizen Watch Co Ltd ロボットの制御方法およびその制御装置
JPH07295650A (ja) * 1994-04-21 1995-11-10 Ricoh Co Ltd 多関節型ロボットの制御方法
JP2013121625A (ja) * 2011-12-09 2013-06-20 Seiko Epson Corp ロボット装置およびロボット装置の制御方法
JP2018027581A (ja) * 2016-08-17 2018-02-22 株式会社安川電機 ピッキングシステム
JP2018126796A (ja) * 2017-02-06 2018-08-16 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム

Also Published As

Publication number Publication date
JP7247571B2 (ja) 2023-03-29

Similar Documents

Publication Publication Date Title
US20210205986A1 (en) Teleoperating Of Robots With Tasks By Mapping To Human Operator Pose
US9381642B2 (en) Wearable robot assisting manual tasks
JP6380828B2 (ja) ロボット、ロボットシステム、制御装置、及び制御方法
US10759051B2 (en) Architecture and methods for robotic mobile manipulation system
US20170249561A1 (en) Robot learning via human-demonstration of tasks with force and position objectives
JP2018161692A (ja) 情報処理装置、情報処理方法およびプログラム
JP2019084601A (ja) 情報処理装置、把持システムおよび情報処理方法
US20220212340A1 (en) Control device, control system, mechanical apparatus system, and controlling method
JP2011110621A (ja) ロボットの教示データを作成する方法およびロボット教示システム
JP2018130800A (ja) 学習制御機能を備えたロボットシステム及び学習制御方法
KR20120074887A (ko) 로봇 및 그 제어 방법
JP6869060B2 (ja) マニピュレータの制御装置、制御方法およびプログラム、ならびに作業システム
JP2012006097A (ja) ロボット装置
Çoban et al. Wireless teleoperation of an industrial robot by using myo arm band
JP7247572B2 (ja) 制御装置
JP7230128B2 (ja) ロボット作業の学習方法及びロボットシステム
JP2020082314A (ja) 学習装置、ロボット制御装置、及びロボット制御システム
JP6931585B2 (ja) 作業システム、作業システムの制御方法及びプログラム
KR101227092B1 (ko) 로봇의 동작 제어 시스템 및 동작 제어 방법
JP4715296B2 (ja) ロボットハンドの持ち替え把持制御方法。
JP6455869B2 (ja) ロボット、ロボットシステム、制御装置、及び制御方法
JP7247571B2 (ja) 制御装置、及び学習装置
JP7159525B2 (ja) ロボット制御装置、学習装置、及びロボット制御システム
JP2020099977A (ja) 軌道生成装置、軌道生成方法、及びロボットシステム
JP7376318B2 (ja) アノテーション装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220922

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20220928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230227

R150 Certificate of patent or registration of utility model

Ref document number: 7247571

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150