JP5942720B2 - 状態判別方法、ロボット、制御装置、及びプログラム - Google Patents

状態判別方法、ロボット、制御装置、及びプログラム Download PDF

Info

Publication number
JP5942720B2
JP5942720B2 JP2012200221A JP2012200221A JP5942720B2 JP 5942720 B2 JP5942720 B2 JP 5942720B2 JP 2012200221 A JP2012200221 A JP 2012200221A JP 2012200221 A JP2012200221 A JP 2012200221A JP 5942720 B2 JP5942720 B2 JP 5942720B2
Authority
JP
Japan
Prior art keywords
state determination
arm
force sensor
force
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012200221A
Other languages
English (en)
Other versions
JP2014054692A (ja
Inventor
貴彦 野田
貴彦 野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2012200221A priority Critical patent/JP5942720B2/ja
Publication of JP2014054692A publication Critical patent/JP2014054692A/ja
Application granted granted Critical
Publication of JP5942720B2 publication Critical patent/JP5942720B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、状態判別方法、ロボット、制御装置、及びプログラムに関する。
例えばワークやエンドエフェクターの破損を防止するため、力覚センサーを備えたロボットが知られている。一般的に、力覚センサーは、過大な負荷や経年変化などにより検出精度が低くなることがあるため、校正を必要とする。
例えば、特許文献1には、測定時に、一対のエンドエフェクターを当接させ、一方のエンドエフェクターに対応する校正済みの力覚センサーの測定値に基づいて、他方の校正対象のエンドエフェクターに作用している力を示す値を算出し、他方の校正対象のエンドエフェクターに対応する力覚センサーの測定値が、前記算出した力を示す値と同一になるように変換データを更新する、力覚センサーの校正方法が記載されている。
特開2012−13537号公報
しかし、上記の特許文献1は、測定時に一方のエンドエフェクターの力覚センサーは校正済みであることが前提であり、当該一方の力覚センサーが正常に動作しているか否かを判別することはできない。従って、当該一方の力覚センサーが正常に動作するように事前にユーザーの作業が必要であり、ユーザーの作業負担が発生する。また、そもそも当該一方の力覚センサーの校正が適切でなかった場合に、他方のエンドエフェクターの力覚センサーが正常に動作しているか否かを判別することもできない。
また、上記の特許文献1では、測定時に一対のエンドエフェクターを互いに当接させている。そのため、力覚センサーやエンドエフェクターに、過度の力が加わるおそれがある。場合によっては、力覚センサーやエンドエフェクターが破損するおそれがある。
そこで、本発明は、力覚センサー等に過度の力が加わらないようにするとともに、簡単に力覚センサーの状態を判別することを目的とする。
本願は、上記課題を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。
上記の課題を解決する本発明の第一の態様は、アーム及び力覚センサーを有するロボットの状態を判別する状態判別方法であって、弾性体を含んで構成される状態判別用対象物を用いるものであり、前記ロボットを動作させて前記アームにより前記状態判別用対象物を変形させる動作ステップと、前記動作ステップで変形させた前記状態判別用対象物の変形量を検出する検出ステップと、前記検出ステップで検出した前記変形量から、前記力覚センサーに加わっている力又はモーメントを示す値を算出する算出ステップと、前記算出ステップで算出した前記力又はモーメントを示す値に基づいて、前記力覚センサーの状態を判別する判別ステップと、を含む、ことを特徴とする。
上記の構成によれば、弾性部材を含む状態判別用対象物に力覚センサー等を接触させることで力覚センサーの状態を判別するため、力覚センサー等に過度の力が加わらないようにするとともに、簡単に力覚センサーの状態を判別することができる。
ここで、前記状態判別用対象物は、さらに剛性体を含んで構成されており、前記動作ステップでは、前記アームを前記状態判別用対象物の前記剛性体に接触させて前記アームにより前記状態判別用対象物を変形させる、ことを特徴としてもよい。
上記の構成によれば、剛性体により、アームによる外力を状態判別用対象物に対して掛け易くなる。
また、前記状態判別用対象物は、前記弾性体の両端面が前記剛性体で挟まれるように構成されており、前記動作ステップでは、前記状態判別用対象物の一方の端面の前記剛性体の位置及び向きが固定された状態で、前記アームを前記状態判別用対象物の他方の端面の前記剛性体に接触させて前記アームにより前記状態判別用対象物を変形させる、ことを特徴としてもよい。
上記の構成によれば、剛性体により、状態判別用対象物を安定した状態で固定あるいは支持することができるとともに、アームによる外力を状態判別用対象物に対して掛け易くなる。
また、前記ロボットは、前記アームを複数有し、前記動作ステップでは、前記複数のアームのうちの第一のアームにより前記一方の端面の前記剛性体の位置及び向きを固定し、前記複数のアームうちの第二のアームを前記他の端面の前記剛性体に接触させて前記第二のアームにより前記状態判別用対象物を変形させる、ことを特徴としてもよい。
上記の構成によれば、状態判別用対象物を床などに置く場合と比べて、状態判別用対象物を第一のアームにより確実に固定して、状態判別を行うことができる。
また、前記算出ステップでは、前記第一のアーム及び前記第二のアームの少なくとも一方について、前記検出ステップで検出した前記変形量から、当該アームの力覚センサーに加わっている力又はモーメントを示す値を算出し、前記判別ステップでは、前記第一のアーム及び前記第二のアームの少なくとも一方について、前記算出ステップで算出した前記力又はモーメントを示す値に基づいて、当該アームの力覚センサーの状態を判別する、ことを特徴としてもよい。
上記の構成によれば、前記第一のアーム及び前記第二のアームの両方について、並列的に状態判別を行うことができるため、状態判別に掛かる時間を短縮することができる。
また、前記検出ステップでは、前記状態判別用対象物を撮影し、撮影した画像情報に基づいて、前記状態判別用対象物の特徴点の位置の変化を特定することで、前記変形量を検出する、ことを特徴としてもよい。
上記の構成によれば、より簡単に状態判別用対象物の変化量を検出することができる。
また、前記特徴点は、前記剛性体の少なくとも一部分に設定されるものである、ことを特徴としてもよい。
上記の構成によれば、特徴点の位置及び向きが剛性体の位置及び向きと一体的に変化するため、変形量の特定がし易くなる。
また、前記算出ステップでは、前記状態判別用対象物の変形量と当該変形量に対応する力又はモーメントの関係を特定する情報を取得し、取得した前記情報に基づいて、前記検出ステップで検出した前記変形量から前記力覚センサーに加わっている力又はモーメントを算出する、ことを特徴としてもよい。
上記の構成によれば、変形量から力覚センサーに加わっている力又はモーメントを簡単に求めることができる。
また、前記判別ステップでは、前記動作ステップで前記状態判別用対象物を変形させた状態で前記力覚センサーから出力されるセンサー値を取得し、当該取得したセンサー値と前記算出ステップで算出した前記力又はモーメントを示す値との差分が所定の範囲内にあるか否かを判別する、ことを特徴としてもよい。
上記の構成によれば、実際の力覚センサーのセンサー値に基づいて力覚センサーの状態を判別することができる。
また、前記力覚センサーは、互いに直交する第一〜第三の軸方向の力、前記第一〜第三の軸方向の軸回りである第一〜第三の軸回りのモーメント、のいずれか一以上を検出するものであり、前記状態判別用対象物は、前記一方の端面の前記剛性体及び前記他方の端面の前記剛性体が互いに平行に形成されており、前記動作ステップでは、前記第一の軸方向について、前記他方の端面の前記剛性体が、前記一方の端面の前記剛性体に平行のまま近づくように、前記アームを動作させ、前記第二の軸方向について、前記他方の端面の前記剛性体が、前記一方の端面の前記剛性体に平行のまま前記第二の軸方向に移動するように、前記アームを動作させ、前記第三の軸方向について、前記他方の端面の前記剛性体が、前記一方の端面の前記剛性体に平行のまま前記第三の軸方向に移動するように、前記アームを動作させ、前記第一の軸回りについて、前記他方の端面の前記剛性体が、前記一方の端面の前記剛性体に平行のまま前記第一の軸方向を基準に回転するように、前記アームを動作させ、前記第二の軸回りについて、前記他方の端面の前記剛性体が、前記第二の軸方向を基準に回転するように、前記アームを動作させ、前記第三の軸回りについて、前記他方の端面の前記剛性体が、前記第三の軸方向を基準に回転するように、前記アームを動作させる、ことを特徴としてもよい。
上記の構成によれば、力覚センサーの状態判別対象の力又はモーメントに応じて、状態判別用対象物を変形させることができる。
上記の課題を解決する本発明の第二の態様は、ロボットであって、アームと、力覚センサーと、前記アームを動作させて、当該アームにより、弾性体を含んで構成される状態判別用対象物を変形させる制御部と、前記アームにより変形された前記状態判別用対象物の変形量を検出する検出部と、前記検出部で検出した前記変形量から、前記力覚センサーに加わっている力又はモーメントを示す値を算出する算出部と、前記算出部で算出した前記力又はモーメントを示す値に基づいて、前記力覚センサーの状態を判別する判別部と、を有する、ことを特徴とする。
上記の構成によれば、ロボットにおいて、力覚センサー等に過度の力が加わらないようにするとともに、簡単に力覚センサーの状態を判別することができる。
上記の課題を解決する本発明の第三の態様は、アーム及び力覚センサーを有するロボットの制御装置であって、前記アームを動作させて、当該アームにより、弾性体を含んで構成される状態判別用対象物を変形させる制御部と、前記アームにより変形された前記状態判別用対象物の変形量を検出する検出部と、前記検出部で検出した前記変形量から、前記力覚センサーに加わっている力又はモーメントを示す値を算出する算出部と、前記算出部で算出した前記力又はモーメントを示す値に基づいて、前記力覚センサーの状態を判別する判別部と、を有する、ことを特徴とする。
上記の構成によれば、制御装置において、力覚センサー等に過度の力が加わらないようにするとともに、簡単に力覚センサーの状態を判別することができる。
上記の課題を解決する本発明の第四の態様は、アーム及び力覚センサーを有するロボットの制御装置のプログラムであって、前記アームにより、弾性体を含んで構成される状態判別用対象物を変形させる動作ステップと、前記動作ステップで変形させた前記状態判別用対象物の変形量を検出する検出ステップと、前記検出ステップで検出した前記変形量から、前記力覚センサーに加わっている力又はモーメントを示す値を算出する算出ステップと、前記算出ステップで算出した前記力又はモーメントを示す値に基づいて、前記力覚センサーの状態を判別する判別ステップと、を前記制御装置に実行させる、ことを特徴とする。
上記の構成によれば、力覚センサー等に過度の力が加わらないようにするとともに、簡単に力覚センサーの状態を判別することができる制御装置を実現できる。
上記した以外の課題、構成、及び効果は、以下の実施形態の説明により明らかにされる。
本発明の第一実施形態に係るロボットシステム1の一例を示す概略図である。 力覚センサー25が検出する力及びモーメントを説明する図である。 状態判別用対象物40の一例を示す図である。 ロボットシステム1の機能構成の一例を示すブロック図である。 変換テーブル1100の一例を示す図である。 コンピューター50のハードウェア構成の一例を示すブロック図である。 状態判別処理の一例を示すフロー図である。 Fzのアーム21の動作と状態判別用対象物40の変形を説明する図である。 Fx(又はFy)のアーム21の動作と状態判別用対象物40の変形を説明する図である。 Mzのアーム21の動作と状態判別用対象物40の変形を説明する図である。 Mx(又はMy)のアーム21の動作と状態判別用対象物40の変形を説明する図である。 本発明の第二実施形態に係る状態判別処理の一例を示すフロー図である。 アーム21の動作と状態判別用対象物40の変形を説明する図である。 本発明の第三実施形態に係る変換テーブル1100Aの一例を示す図である。 アーム21の動作と状態判別用対象物40の変形を説明する図である。 本発明の第四実施形態に係るアーム21の動作と状態判別用対象物40の変形を説明する図である。
<<第一実施形態>>
以下、本発明の第一実施形態について、図面を参照して説明する。
図1は、本発明の一実施形態に係るロボットシステム1の一例を示す概略図である。本図に示すように、ロボットシステム1は、制御装置10と、ロボット20と、撮影装置30と、を備える。また、ロボットシステム1は、ロボット20の力覚センサー25の状態(例えば、正常か異常か)を判別するため、状態判別用対象物40を用いる。
制御装置10は、ロボット20の動作を制御する。制御装置10は、有線又は無線により、ロボット20及び撮影装置30と通信可能に接続されている。
制御装置10は、例えば、撮影装置30から画像情報を取得し、画像認識によって作業対象物(以下、「ワーク」ともいう。ワークには、「状態判別用対象物」も含まれる。)を認識する。また、例えば、認識したワークに対するロボット20の一連の動作を決定する。また、例えば、ロボット20の力覚センサー25、他のセンサー(不図示)、エンコーダー(不図示)の出力信号に基づいて、ロボット20のアーム21(21a、21b)、エンドエフェクター26等が目的の位置及び向きとなるように、ロボット20を制御する。
本実施形態では、制御装置10は、作業を開始する前などの所定のタイミングで、状態判別用対象物40を用いることにより、ロボット20の力覚センサー25の状態を判別する。つまり、力覚センサー25に異常がないかをチェックする。
ロボット20は、ロボット本体に、2本のアーム21(21a、21b)が取り付けられている。アーム21の先端部には、力覚センサー25が取り付けられており、当該力覚センサー25を介してエンドエフェクター26を着脱可能である。エンドエフェクター26は、例えば、ハンドであり、ワークを直接持って作業したり、電動ドライバーなどの工具を持ってワークに対して作業を行ったりするものである。
なお、本実施形態では、力覚センサー25の状態判別の際には、エンドエフェクター26は、アーム21から取り外される。
アーム21は、複数のジョイント22と、複数のリンク23とを有する。各ジョイント22は、ロボット本体とリンク23や、リンク23どうし、リンク23とエンドエフェクター26を、回動自在に(ただし、所定の可動範囲内で回動可能に)連結する。各ジョイント22は、例えば、回転ジョイントであり、リンク間の角度を変化させたり、リンクを軸回転させたりできるように設けられている。
ロボット20は、各ジョイント22を連動させて駆動することにより、アーム21の先端部を、自在に(ただし、所定の可動範囲内で)移動させることができるとともに、自由な方向へ向けることもできる。アーム21は、例えば、7つのジョイントを有する7軸アームとすることができる。
なお、ロボット20の可動部分には、アクチュエーターやセンサー(不図示)が設けられている。アクチュエーターには、例えば、モーター、当該モーターの駆動回路、エンコーダーなどが含まれる。エンコーダーが出力するエンコーダー値や、センサーが出力するセンサー値は、可動部分の動作を制御するために制御装置10に出力される。
力覚センサー25は、例えば、図2(力覚センサー25が検出する力及びモーメントを説明する図)に示すような、六軸の力覚センサーである。すなわち、力覚センサー25は、互いに直交する三つの力成分Fx、Fy、Fz、及びそれらの軸回りの三つの力のモーメント成分Mx、My、Mzを検出する。なお、互いに直交する軸を第一〜第三の軸とすると、力成分Fzは第一の軸の方向の力であり、力成分Fxは第二の軸の方向の力、力成分Fyは第三の軸の方向の力である。また、力のモーメント成分Mzは第一の軸の周りのモーメントであり、力のモーメント成分Mxは第二の軸の周りのモーメント、力のモーメント成分Myは第三の軸の周りのモーメントである。
本実施形態では、エンドエフェクター26を装着していない状態のアーム21の先端部に位置する力覚センサー25を、状態判別用対象物40の所定の位置に接触させて力又はモーメントを加えることにより、状態判別用対象物40を変形させる。そのため、状態判別用対象物40に接触させる力覚センサー25の端面は、平面状に形成されている。
なお、本実施形態では、力覚センサー25を状態判別用対象物40に接触させる際、力覚センサー25の端面の所定位置の点(作業点)WPを、状態判別用対象物40の端面の所定位置の点(目標点)CPに合わせるようにする。
上記のロボット20の構成は、本実施形態の特徴を説明するにあたって主要構成を説明したのであって、上記の構成に限られない。また、一般的な把持ロボットが備える構成を排除するものではない。例えば、軸数(ジョイント数)やリンクの数を増減させてもよい。また、アーム、エンドエフェクター、リンク、ジョイント、力覚センサー等の各種部材の形状、大きさ、配置、構造等も適宜変更してよい。
図1に戻って、撮影装置30は、作業空間を撮影して、画像データを生成する。撮影装置30は、例えば、カメラを含んで構成される。撮影装置30は、例えば、制御装置10の制御により、ワークなどを含む作業空間を撮影し、画像データを生成し、制御装置10に出力する。設置場所は、特に限定されず、例えば、床の上、作業台の上、天井、壁などとすることができる。もちろん、撮影装置30は、撮影範囲や撮影方向に応じて複数台設けられていてもよい。
状態判別用対象物40は、力覚センサー25の状態を判別するために用いられる道具(「工具」、「治具」と呼ぶこともできる。)である。状態判別用対象物40は、例えば、図3(状態判別用対象物40の一例を示す図)に示される。図3は、状態判別用対象物40の外観の斜視図である。
状態判別用対象物40は、全体として立方体状であり、立方体状の弾性部材41と、当該弾性部材41の平行な両端面に設けられた平板状の剛性部材42(42a、42b)とから構成される。なお、本願でいう「平行」には、平行状態と、ほぼ平行な状態とが含まれる。
本実施形態では、アーム21の先端部が剛性部材42に対して接触して力又はモーメントを加えることにより、弾性部材41を変形させる。そして、剛性部材42a及び剛性部材42bに設定された特徴点の位置関係に基づいて、状態判別用対象物40の変形量を算出する。
そのため、状態判別用対象物40は、弾性部材41と剛性部材42により構成されている。弾性部材41には、変形量を精度よく算出できかつ繰り返し使用できるように、例えば、可逆変形性を有するゴム、樹脂などを用いることができる。剛性部材42には、力又はモーメントによりなるべく変形しないように、例えば、弾性部材41より硬いゴム、金属、樹脂などを用いることができる。
剛性部材42により、状態判別用対象物40を安定した状態で固定あるいは支持することができるとともに、力又はモーメントを掛けやすくなる。また、剛性部材42に特徴点を設定することで、特徴点の位置及び向きが剛性部材42の位置及び向きと一体的に変化するため、後述する変形量の特定がし易くなる。
なお、上記の図3の状態判別用対象物40は、一例であり、後述する力覚センサー25の状態判別を実現できれば、その構成、材質、形状等は限定されるものではない。例えば、全体を弾性部材で構成するようにしてもよいし、剛性部材42に替えて弾性部材41よりも硬い弾性部材を用いるようにしてもよい。この場合、特徴点は、当該硬い弾性部材に設定すればよい。また、例えば、形状は、直方体状、円柱状などにしてもよい。
上記の図1のロボットシステム1の構成は、本実施形態の特徴を説明するにあたって主要構成を説明したのであって、一般的なロボットシステムが備える構成を排除するものではない。例えば、制御装置10は、ロボット20に含まれていてもよい。また、例えば、撮影装置30は、制御装置10又はロボット20に含まれていてもよい。
図4は、ロボットシステム1の機能構成の一例を示すブロック図である。
ロボット20は、可動部200と、動作制御部210と、を備える。
可動部200は、位置および向き(「姿勢」ともいう。)などの変更が可能な部位である。可動部200には、例えば、アーム21、ジョイント22、リンク23、エンドエフェクター26が含まれる。また、可動部200に関連するユニット、例えば、アクチュエーター(モーター、エンコーダー等)、各種センサー(力覚センサー25等)も含まれるものとする。
動作制御部210は、制御装置10からの制御命令に従って、可動部200の位置及び向きを変化させる。なお、動作制御部210は、直接的にはモーターの回転等を制御することで、間接的にジョイント22を回転させ、可動部200の位置及び向きを変化させる。また、動作制御部210は、力覚センサー25その他センサーからそのセンサー値を取得し、制御装置10に出力する。また、動作制御部210は、エンコーダーからそのエンコーダー値を取得し、制御装置10に出力する。
制御装置10は、制御部100と、記憶部110と、を備える。
記憶部110には、力覚センサー25から掛かる外力(力及びモーメントを含む)により生じる状態判別用対象物40の変形量を、力覚センサー25に対する状態判別用対象物40の応力(力及びモーメントを含む)に変換するために用いる変換情報が格納される。
変換情報は、例えば、図5(変換テーブル1100の一例を示す図)に示すような、テーブルとして構成することができる。変換テーブル1100には、6軸の成分(Fx、Fy、Fz、Mx、My、Mz)1101ごとに、当該成分の変換情報が含まれている。各成分1101の変換情報には、当該成分に対応する変形量を示す値(変形量)1102と、各変形量を示す値に対応する応力を示す値(応力)1103とを関連付けたレコードが含まれている。
成分1101は、力覚センサー25の各成分に対応するものである。変形量1102は、状態判別用対象物40に対して特定の量(大きさ)の力又はモーメントを加えることにより、状態判別用対象物40に生じる変形の量(大きさ)を数値化したものである。応力1103は、当該変形を生じさせる外力に対して生じる応力の量(大きさ)を数値化したものである。なお、本実施形態では、外力と応力は等しいものとして扱う。
上記の変換情報は、例えば、実験により、各成分の変形を生じさせ、その変形量及び対応する応力を計測することにより、事前に作成することができる。以下、上記の変換情報の作成方法の一例を、図8〜11を参照して具体的に説明する。
図8〜11は、状態判別用対象物40の剛性部材42bの端面が床などの平らな面に接するように置いた状態で、側面から見た状態を示している。また、特徴点を、剛性部材42aの側面の両端(P1、P3)及び中央(P2)と、剛性部材42bの側面の両端(P4、P6)及び中央(P5)とに設定する。
また、状態判別用対象物40全体になるべく均一な力が加わるように、例えば、力覚センサー25の端面の重心などに設定された作業点WP(図2参照)と、剛性部材42aの端面の重心に設定された目標点CP(図3参照)とが合うように、力覚センサー25と剛性部材42aを接触させる。各図の(A)は、状態判別用対象物40の変形前の状態を示し、各図の(B)は、状態判別用対象物40の変形後の状態を示している。
なお、上記の変換情報を作成する場合は、力覚センサー25の状態は正常であり、かつ、適切に校正されているものとする。また、剛性部材42bの床上の位置及び向きが変わらないように(剛性部材42bの位置及び向きが固定されているものとして扱えるように)して計測を行うものとする。
<Fz成分>
図8(Fzのアーム21の動作と状態判別用対象物40の変形を説明する図)に示すように、状態判別用対象物40の変形前後の、特徴点P2とP5の間のFz方向の直線距離D1及びD2の差分を、Fz成分の変形量として定義する。力覚センサー25を剛性部材42aに接触させるとともにFz方向の力を掛けることにより、Fz成分の変形量及び対応する応力を計測する。そして、計測結果に基づいてFz成分の変換情報を作成する。
<Fx(又はFy)成分>
FxとFyは、直交する方向であるため、状態判別用対象物40の角を成す異なる側面を用いる以外は、同様である。図9(Fx(又はFy)のアーム21の動作と状態判別用対象物40の変形を説明する図)に示すように、状態判別用対象物40の変形前後の、特徴点P2とP5のFx(又はFy)方向の直線距離D3及びD4の差分を、Fx(又はFy)成分の変形量として定義する。力覚センサー25を剛性部材42aに接触させるとともにFx(又はFy)方向の力を掛けることにより、Fx(又はFy)成分の変形量及び対応する応力を計測する。そして、計測結果に基づいてFx(又はFy)成分の変換情報を作成する。なお、変形させる際は、力覚センサー25及び剛性部材42aの接触面と、剛性部材42b及び床の接触面とが、それぞれ滑ってずれないようにFz方向に押し付けつつ、Fx(又はFy)方向の力を掛ける。
<Mz成分>
図10(Mzのアーム21の動作と状態判別用対象物40の変形を説明する図)に示すように、状態判別用対象物40の変形前後の、特徴点P2とP5の間のFx又はFy方向の直線距離D5及びD6の差分(又は当該差分を回転角度に換算したもの)を、Mz成分の変形量として定義する。力覚センサー25を剛性部材42aに接触させるとともにMz回転方向のモーメントを掛けることにより、Mz成分の変形量及び対応する応力を計測する。そして、計測結果に基づいてMz成分の変換情報を作成する。なお、変形させる際は、力覚センサー25及び剛性部材42aの接触面と、剛性部材42b及び床の接触面とが、それぞれ滑ってずれないようにFz方向に押し付けつつ、Mz回転方向のモーメントを掛ける。
<Mx(又はMy)成分>
Mxの軸であるFxとMyの軸であるFyは、直交する方向であるため、状態判別用対象物40の角を成す異なる側面を用いる以外は、同様である。図11(Mx(又はMy)のアーム21の動作と状態判別用対象物40の変形を説明する図)に示すように、状態判別用対象物40の変形前後の、特徴点P3とP4の間のFz方向の直線距離D7及びD8の差分(又は当該差分を回転角度に換算したもの)を、Mx(又はMy)成分の変形量として定義する。力覚センサー25を剛性部材42aに接触させるとともにFx軸(又はFy軸)を基準にMx(又はMy)回転方向のモーメントを掛けることにより、Mx(又はMy)成分の変形量及び対応する応力を計測する。そして、計測結果に基づいてMx(又はMy)成分の変換情報を作成する。
上記の変換情報の構成、変換情報の作成方法は一例であり、変形量に応じた応力を求めることができれば、上記の構成、作成方法に限られない。例えば、特徴点の位置、変形量の定義などは、図示した例に限られない。また、変換情報の作成の際に、実際にロボットを使わなくてもよく、例えば、ロボットの代わりになる工具やセンサーなどを使うようにしてもよい。また、例えば、状態判別用対象物40のヤング率や剛性率などの値に基づいて、各成分の変形量と応力の関係式を導き出し、この関係式に基づいて、変換情報を作成するようにしてもよい。
図4に戻って、制御部100は、制御装置10を統括的に制御する。制御部100は、画像取得部101と、ロボット制御部102と、変形量検出部103と、応力算出部104と、状態判別部105と、通知部106と、を備える。
画像取得部101は、撮影装置30を制御して、状態判別用対象物40を含む作業空間の画像情報を取得する。
ロボット制御部102は、画像取得部101により取得された画像情報を解析し、状態判別用対象物40の位置、向き、形状などを検出する。状態判別用対象物40の検出方法は、特に限られず、既存の様々な画像認識技術を用いることができる。例えば、状態判別用対象物40の特徴点を抽出し、マッチング処理により、状態判別用対象物40を認識することができる。
また、ロボット制御部102は、ロボット20に対して、その動作を制御する制御命令を生成し、出力する。例えば、ロボット制御部102は、力覚センサー25を状態判別用対象物40の剛性部材42に接触させ、さらに、各成分(Fx、Fy、Fz、Mx、My、Mz)の外力が掛かるように、可動部200の動作を制御する。また、ロボット制御部102は、力覚センサー25のセンサー値を取得し、状態判別部105に出力する。
変形量検出部103は、画像取得部101により取得された画像情報を解析し、状態判別用対象物40の位置、向き、形状などを検出する。また、変形量検出部103は、ロボット20が状態判別用対象物40に対して与えた外力の成分を特定し、状態判別用対象物40の変形前後の形状から、特定した成分に対応する変形量を求める。
応力算出部104は、変換テーブル1100を参照し、状態判別用対象物40に与えられた外力に対応する成分1101の変換情報から、変形量検出部103が検出した変形量に対応する変形量1102を特定し、当該変形量1102に関連付けられている応力1103を取得する。
状態判別部105は、ロボット20により状態判別用対象物40が変形されているときの力覚センサー25のセンサー値を、ロボット制御部102を介して取得する。また、応力算出部104が算出した応力を取得する。
また、状態判別部105は、取得したセンサー値と取得した応力との差分を求め、当該差分が所定の閾値以下であるかを判別する。当該所定の閾値は、力覚センサー25の検出精度が適切であるか否か(正常に動作しているか否か)を判別するための値である。当該差分が所定の閾値以下であれば、正常であると判別する。当該所定の閾値は、力覚センサー25の各成分に共通に一つ用意されていてもよいし、少なくとも一部の成分で異なる値が用意されていてもよい。
なお、理想的には、力覚センサー25が正常であれば、状態判別用対象物40の変形量から算出する応力と、力覚センサー25が検出する力とは、一致する。これを前提として、変形量の検出の誤差等の許容度を考慮して、上記のような所定の閾値を用いた判定を行うようにしている。
通知部106は、状態判別部105の判別結果を示す情報を出力する。出力先は、例えば、ディスプレイ、記憶装置、外部装置などである。
上述した制御装置10は、例えば、図6(コンピューター50のハードウェア構成の一例を示すブロック図)に示すような、CPU(Central Processing Unit)501と、メモリー502と、HDD(Hard Disk Drive)等の外部記憶装置503と、有線又は無線により通信ネットワークやロボットに接続するための通信装置504と、マウス、キーボード、タッチセンサーやタッチパネルなどの入力装置505と、液晶ディスプレイなどの出力装置506と、DVD(Digital Versatile Disk)などの持ち運び可能な記憶媒体に対する情報の読み書きを行う読み書き装置507と、外部機器と接続するUSB(Universal Serial Bus)などのインターフェイス装置508と、を備えるコンピューター50で実現できる。
例えば、記憶部110は、CPU501がメモリー502又は外部記憶装置503を利用することにより実現可能である。制御部100は、外部記憶装置503に記憶されている所定のプログラムをメモリー502にロードしてCPU501で実行することで実現可能である。制御部100と撮影装置30との通信は、例えば、CPU501が通信装置504又はインターフェイス装置508を利用することで実現可能である。制御部100とロボット20との通信は、例えば、CPU501が通信装置504又はインターフェイス装置508を利用することで実現可能である。
上記の所定のプログラムは、通信装置504を介してネットワークから、外部記憶装置503にダウンロードされ、それから、メモリー502上にロードされてCPU501により実行されるようにしてもよい。また、通信装置504を介してネットワークから、メモリー502上に直接ロードされ、CPU501により実行されるようにしてもよい。また、コンピューター50が、読み書き装置507にセットされた記憶媒体、又はインターフェイス装置508に接続された記憶媒体から、上記の所定のプログラムを、外部記憶装置503あるいはメモリー502にロードするようにしてもよい。
上記の機能構成は、ロボットシステム1の構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。ロボットシステム1の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。
例えば、制御装置10の少なくとも一部の機能は、ロボット20に含まれるようにしてもよい。この場合、撮影装置30は、制御装置10ではなくロボット20に接続されるようにしてもよいし、ロボット20に内蔵されるようにしてもよい。また、例えば、記憶部110を、制御装置10、及びロボット20の外部装置として用意するようにしてもよい。
次に、上記のロボットシステム1で行われる、力覚センサー25の状態判別方法について説明する。
本実施形態の状態判別方法では、状態判別対象の力覚センサー25を有するアーム21から、エンドエフェクター26を取り外しておく。また、状態判別用対象物40は、一方の剛性部材42bの端面が床などの平らな面に接するように置く。また、状態判別対象の力覚センサー25を、状態判別用対象物40の他方の剛性部材42aの端面に接触させることで、当該力覚センサー25の状態判別を行う。また、力覚センサー25を状態判別用対象物40に接触させる際、力覚センサー25の端面の所定位置の点(作業点)WPを、状態判別用対象物40の端面の所定位置の点(目標点)CPに合わせる。
図7は、状態判別処理の一例を示すフロー図である。本フローは、力覚センサー25が検出可能な成分ごとの処理を示している。状態判別対象の成分は、例えば、ユーザーにより、指定されるものとする。
ロボット制御部102は、画像取得部101により画像情報を取得し、取得した画像情報を解析し、状態判別用対象物40の位置、向き、形状などを検出する(S10)。それから、ロボット制御部102は、状態判別用対象物40の剛性部材42aの端面に対して、状態判別対象の力覚センサー25の端面が平行に向かい合って接触する、アーム21の先端部の作業点WPの位置及び向きを求める(S20)。ここでは、剛性部材42aの目標点CPと合う作業点WPの位置及び向きを求める。
また、ロボット制御部102は、作業点WPを、ステップS20で求めた位置及び向きへ移動するための軌道を生成する(S30)。そして、ロボット制御部102は、ステップS30で求めた軌道に従って、制御命令を生成してロボット20に出力し、作業点WPを移動させ、力覚センサー25の端面を剛性部材42aの端面に接触させる(S40)。なお、この状態では、状態判別用対象物40が変形しない程度に接触させるものとする。
上記のステップS10〜S40は、各成分で共通の処理である。ステップS50〜S110は、各成分で共通的に説明した後、各成分の場合について具体例を用いて説明する。
ロボット制御部102は、力覚センサー25の状態判別対象の成分に応じて、状態判別用対象物40を変形させる作業点WPの軌道を生成する(S50)。そして、ロボット制御部102は、ステップS50で求めた軌道に従って、制御命令を生成してロボット20に出力し、作業点WPを移動させ、状態判別用対象物40を変形させる(S60)。
変形量検出部103は、ステップS60で変形した状態の状態判別用対象物40を含む画像情報を画像取得部101から取得し、当該画像情報から認識した状態判別用対象物40の形状(変形後の形状)と、変形前の形状とを比較し、力覚センサー25の状態判別対象の成分に対応する成分の変形量を求める(S70)。
それから、応力算出部104は、変換テーブル1100を参照し、力覚センサー25の状態判別対象の成分に対応する成分1101の変換情報から、ステップS70で変形量検出部103が求めた変形量に対応する変形量1102を特定し、当該変形量1102に関連付けられている応力1103を取得する(S80)。
それから、状態判別部105は、ステップS60で状態判別用対象物40が変形している状態での、力覚センサー25の状態判別対象の成分に対応するセンサー値を、ロボット制御部102を介して取得する(S90)。
そして、状態判別部105は、ステップS90で取得したセンサー値と、ステップS89で算出された応力との差分を求め、当該差分が、状態判別対象の成分に対応する所定の閾値以下であるかを判定する(S100)。
センサー値と応力の差分が所定の閾値を超える場合(S100:N)、通知部106は、例えば、表示装置や他の装置に、力覚センサー25に異常がある旨を出力する。なお、例えば、異常と判別された力覚センサー25を識別する情報(例えば、右腕、左腕などの位置)を出力してもよい。また、例えば、異常と判別された成分(例えば、Fx、Fyなど)を出力してもよい。
センサー値と応力の差分が所定の閾値以下である場合(S100:Y)、制御装置10は、本フローを終了する。なお、この場合、通知部106は、力覚センサー25が正常である旨を出力してもよい。
各成分の状態判別の方法の一例を、図8〜11を参照して具体的に説明する。なお、画像取得部101は、変形量を適切に算出するため、変形量の算出に必要な特徴点が画像情報に含まれるように、撮影装置30を制御して画像情報を取得するものとする。また、剛性部材42bの床上の位置及び向きが変わらないように(剛性部材42bの位置及び向きが固定されているものとして扱えるように)アーム21を動作させるものとする。
<Fzの場合>
図8は、Fzのアーム21の動作と状態判別用対象物40の変形を説明する図である。
ロボット制御部102は、剛性部材42aが、剛性部材42bと平行を保ったまま、Fz方向(図中の下方向)に移動するようにアーム21の動作を制御する。すなわち、ロボット制御部102は、力覚センサー25の作業点WPがFz方向に所定の距離だけ直線移動するように、アーム21を動作させる。
変形量検出部103は、変形前の特徴点P2とP5のFz方向の直線距離D1を、画像情報から求める、又は、予め定められている場合はその値を取得する。また、変形量検出部103は、変形後の特徴点P2とP5のFz方向の直線距離D2を、画像情報から求める。そして、D1とD2の差分をFz方向の変形量として求める。
応力算出部104は、変換テーブル1100を参照し、Fzの成分1101の変換情報から、求められたFz方向の変形量に対応する変形量1102を特定し、当該変形量1102に関連付けられている応力1103を取得する。
状態判別部105は、(B)の状態の力覚センサー25のFzの成分のセンサー値と、取得したFz成分の応力との差分を求め、当該差分が所定の閾値以下であるかを判定する。
<Fx(又はFy)の場合>
図9は、Fx(又はFy)のアーム21の動作と状態判別用対象物40の変形を説明する図である。FxとFyは、直交する方向であるため、状態判別用対象物40の角を成す異なる側面の画像情報を用いる以外は、処理内容は同様である。従って、FxとFyについて共通的に説明する。また、図8と異なる点を中心に説明する。
ロボット制御部102は、剛性部材42aが、剛性部材42bと平行を保ったまま、Fx(又はFy)方向(図中の右方向)に移動するようにアーム21の動作を制御する。すなわち、ロボット制御部102は、力覚センサー25の作業点WPがFx(又はFy)方向に所定の距離だけ直線移動するように、アーム21を動作させる。なお、ロボット制御部102は、力覚センサー25及び剛性部材42aの接触面と、剛性部材42b及び床の接触面とが、それぞれ滑ってずれないように、作業点WPをFz方向に押し付けつつFx(又はFy)方向に移動させる。
変形量検出部103は、変形後の特徴点P2とP5のFx方向の直線距離D4を、画像情報から求める。そして、変形前の特徴点P2とP5のFx方向の直線距離D3(D3=0である。)とD4の差分をFx(又はFy)方向の変形量として求める。
応力算出部104及び状態判別部105は、Fx(又はFy)についての処理を行えばよいので、説明を省略する。
<Mzの場合>
図10は、Mzのアーム21の動作と状態判別用対象物40の変形を説明する図である。なお、(B)では、状態判別用対象物40を剛性部材42a側から見た図も示している。図8と異なる点を中心に説明する。
ロボット制御部102は、剛性部材42aが、剛性部材42bと平行を保ったまま、Fz軸を基準にMz方向に回転(図中では右回り)するようにアーム21の動作を制御する。すなわち、力覚センサー25がFz軸を基準にMz回転方向に所定の角度だけ回転するように、アーム21を動作させる。なお、ロボット制御部102は、力覚センサー25及び剛性部材42aの接触面と、剛性部材42b及び床の接触面とが、それぞれ滑ってずれないように、作業点WPをFz方向に押し付けつつMz回転方向に回転させる。
変形量検出部103は、変形後の特徴点P2とP5のFx又はFy方向の直線距離D6を、画像情報から求める。そして、変形前の特徴点P2とP5のFx又はFy方向の直線距離D5(D5=0である。)とD6の差分(又は当該差分を回転角度に換算したもの)を、Mzの変形量として求める。
応力算出部104及び状態判別部105は、Mzについての処理を行えばよいので、説明を省略する。
<Mx(又はMy)の場合>
図11は、Mx(又はMy)のアーム21の動作と状態判別用対象物40の変形を説明する図である。Mxの軸であるFxとMyの軸であるFyは、直交する方向であるため、状態判別用対象物40の角を成す異なる側面の画像情報を用いる以外は、処理内容は同様である。従って、MxとMyについて共通的に説明する。また、図8と異なる点を中心に説明する。
ロボット制御部102は、剛性部材42aが、Fx(又はFy)軸を基準にMx(又はMy)回転方向に回転するようにアーム21を制御する。すなわち、力覚センサー25の作業点WPがFx(又はFy)軸を基準にMx(又はMy)方向に所定の角度だけ回転するように、アーム21を動作させる。なお、ロボット制御部102は、力覚センサー25及び剛性部材42aの接触面と、剛性部材42b及び床の接触面とが、それぞれ滑ってずれないように、作業点WPをFz方向に押し付けつつMx(又はMy)回転方向に回転させてもよい。
変形量検出部103は、変形前の特徴点P3とP4のFz方向の直線距離D7を、画像情報から求める、又は、予め定められている場合はその値を取得する。また、変形量検出部103は、変形後の特徴点P3とP4のFz方向の直線距離D8を、画像情報から求める。そして、D7とD8の差分(又は当該差分を回転角度に換算したもの)を、Mx(又はMy)の変形量として求める。
応力算出部104及び状態判別部105は、Mx(又はMy)についての処理を行えばよいので、説明を省略する。
なお、上記の図7のフローは、成分ごとの状態判別処理を示しているが、例えば、ある成分についてのステップS100又はS110の終了後、状態判別が終了していない成分がある場合は、当該成分についての状態判別処理を行うべく、力覚センサー21の位置及び方向をステップS40終了直後の状態に戻し、処理をステップS50に進めるようにしてもよい。全成分についての状態判別が終了している場合は、本フローを終了すればよい。
上記の図7のフローの各処理単位は、制御装置10の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理単位の分割の仕方や名称によって、本願発明が制限されることはない。制御装置10の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、本願発明の目的を達成できるのであれば、各処理単位の順序を適宜変更してもよい。
以上、本発明の第一実施形態の一例について説明した。本実施形態によれば、弾性部材を含む状態判別用対象物に力覚センサーを接触させることで力覚センサーの状態を判別するため、力覚センサー等に過度の力が加わるのを防ぐことができる。また、状態判別用対象物に力覚センサーを接触させることで力覚センサーの状態を判別するため、二つのアームを使ったり、一方の力覚センサーを校正済みにしたりする必要がなく、簡単に力覚センサーの状態を判別することができる。
<<第二実施形態>>
上記の第一実施形態では、状態判別用対象物40を床などの平らな面に置いた状態で、剛性部材42bの床上の位置及び向きが変わらないようにして、状態判別処理を行っている。一方、第二実施形態では、状態判別用対象物40を、状態判別用対象の力覚センサー25を有するアーム21ではない他方のアーム21のエンドエフェクター26で、剛性部材42bの位置及び向きが変わらないように、状態判別用対象物40を支える。そして、この状態で、状態判別処理を行う。以下、第一実施形態と異なる点を中心に説明する。
図12は、本発明の第二実施形態に係る状態判別処理の一例を示すフロー図である。ステップS10〜S110は、図7と同様である。ステップS1〜S6は、状態判別用対象の力覚センサー25を有するアーム21ではない他方のアーム21に関する処理である。当該他方のアーム21には、エンドエフェクター26が取り付けられている。
ロボット制御部102は、画像取得部101により画像情報を取得し、取得した画像情報を解析し、状態判別用対象物40の位置、向き、形状などを検出する(S1)。それから、ロボット制御部102は、状態判別用対象物40の剛性部材42bを把持する、他方のアーム21のエンドエフェクター26の位置及び向きを求める(S2)。
また、ロボット制御部102は、エンドエフェクター26を、ステップS2で求めた位置及び向きへ移動するための軌道を生成する(S3)。そして、ロボット制御部102は、ステップS3で求めた軌道に従って、制御命令を生成してロボット20に出力し、エンドエフェクター26を移動させ、エンドエフェクター26により剛性部材42bを把持させる(S4)。なお、状態判別用対象物40がなるべく変形しないように、例えば弾性部材41には触れないように、エンドエフェクター26で把持するものとする。
また、ロボット制御部102は、他方のアーム21のエンドエフェクター26で状態判別用対象物40を把持したまま、状態判別対象の力覚センサー25の判別処理を行う所定の位置及び向きへ移動するための軌道を生成する(S5)。そして、ロボット制御部102は、ステップS5で求めた軌道に従って、制御命令を生成してロボット20に出力し、エンドエフェクター26を移動させ、位置及び向きを固定する(S6)。
ステップS10〜S110は、状態判別用対象の力覚センサー25を有するアーム21に関する処理である。ステップS10〜S110は、ステップS6で位置及び向きが固定された状態判別用対象物40を用いて行われる。
図13は、アーム21の動作と状態判別用対象物40の変形を説明する図である。本図は、代表的にFzの場合を示している。図示するように、本実施形態では、他方のアーム21のエンドエフェクター26で、剛性部材42bを把持し、位置及び向きを固定する。そして、固定された状態で、一方のアーム21の状態判別対象の力覚センサー25により状態判別用対象物40を変形させて、各成分の状態判別を行う。
なお、本実施形態では、他方のアーム21のエンドエフェクター26により状態判別用対象物40の位置及び向きが固定されているため、第一実施形態のように剛性部材42b及び床の接触面が滑ってずれるといったおそれがない。また、状態判別を行うために適切な床などが存在しない場合にも、状態判別を行うことができる。
以上、本発明の第二実施形態の一例について説明した。本実施形態によれば、力覚センサー等に過度の力が加わるのを防ぐことができる。また、状態判別用対象物に力覚センサーを接触させることで力覚センサーの状態を判別するため、一方の力覚センサーを校正済みにしたりする必要がなく、簡単に力覚センサーの状態を判別することができる。
また、状態判別用対象物の位置及び向きが固定されているため、状態判別処理中に状態判別用対象物が動いてしまうなどの事態を防ぐことができる。状態判別を行うために適切な床などが存在しない場合にも、状態判別を行うことができる。
<<第三実施形態>>
上記の第一実施形態では、状態判別対象の力覚センサー25を有するアーム21には、エンドエフェクター26を取り付けていない。一方、第三実施形態では、状態判別対象の力覚センサー25を有するアーム21に、エンドエフェクター26を取り付けた状態で、状態判別処理を行う。以下、第一実施形態と異なる点を中心に説明する。
具体的には、ロボット制御部102は、状態判別処理において、状態判別用対象物40の剛性部材42aを把持する、状態判別対象の力覚センサー25を有するアーム21のエンドエフェクター26の位置及び向きを求める。そして、当該位置及び向きへエンドエフェクター26を移動し、エンドエフェクター26により剛性部材42aを把持させる。なお、状態判別用対象物40がなるべく変形しないように、例えば弾性部材41には触れないように、エンドエフェクター26で把持するものとする。
そして、ロボット制御部102は、エンドエフェクター26で剛性部材42aを把持したまま、力覚センサー25の状態判別対象の成分に応じて、作業点WPを移動させ、状態判別用対象物40を変形させる。変形量検出部103、応力算出部104、状態判別部105、及び通知部106は、第一実施形態と同様である。
ただし、エンドエフェクター26で剛性部材42aを把持するようにしたことにより、状態判別用対象物40に対する外力の掛かり方が、第一実施形態とは異なっている。従って、変換情報は、エンドエフェクター26を使った状態で変形量及び応力を計測して、当該計測結果に基づいて作成してもよい。
また、例えば、図14(本発明の第三実施形態に係る変換テーブル1100Aの一例を示す図)に示すように、エンドエフェクターの種別1104ごとに、変換テーブルを用意するようにしてもよい。なお、図中の種別1104の「なし」は、第一実施形態と同様に、エンドエフェクター26が取り付けられていない場合を示している。
図14の変換テーブル1100Aを用いる場合、応力算出部104は、状態判別対象の力覚センサー25を有するアーム21に取り付けられているエンドエフェクター26の種別を特定し、当該種別に対応する種別1104の変換テーブルを参照するようにすればよい。なお、エンドエフェクター26の種別は、例えば、ロボット20の動作制御部210が認識しており、応力算出部104がロボット制御部102を介して動作制御部21から当該種別を取得するようにすればよい。
図15は、アーム21の動作と状態判別用対象物40の変形を説明する図である。本図は、代表的にFzの場合を示している。図示するように、本実施形態では、状態判別用対象物40を床の上に置いた状態で、エンドエフェクター26で剛性部材42aを把持する。そして、把持した状態で、状態判別用対象物40を変形させて、各成分の状態判別を行う。
以上、本発明の第三実施形態の一例について説明した。本実施形態によれば、力覚センサー等に過度の力が加わるのを防ぐことができる。また、状態判別用対象物にエンドエフェクターを介して力覚センサーを接触させることで力覚センサーの状態を判別するため、二つのアームを使ったり、一方の力覚センサーを校正済みにしたりする必要がなく、簡単に力覚センサーの状態を判別することができる。
また、エンドエフェクターを装着したまま状態判別処理を行えるため、エンドエフェクターの取り外しなどの手間を省いて、より生産性を向上することができる。
<<第四実施形態>>
上記の第三実施形態では、状態判別用対象物40を床などの平らな面に置いた状態で、状態判別処理を行っている。一方、第四実施形態では、第三実施形態に上記の第二実施形態を組み合わせ、状態判別用対象物40を、状態判別用対象の力覚センサー25を有するアーム21ではない他方のアーム21のエンドエフェクター26で、剛性部材42bの位置及び向きが変わらないように、状態判別用対象物40を支える。そして、この状態で、状態判別処理を行う。以下、第二実施形態及び第三実施形態と異なる点を中心に説明する。
図16は、本発明の第四実施形態に係るアーム21の動作と状態判別用対象物40の変形を説明する図である。本図は、代表的にFzの場合を示している。図示するように、本実施形態では、他方のアーム21のエンドエフェクター26で、剛性部材42bを把持し、位置及び向きを固定する。そして、固定された状態で、一方のアーム21のエンドエフェクター26で剛性部材42aを把持する。そして、把持した状態で、状態判別用対象物40を変形させて、各成分の状態判別を行う。
以上、本発明の第四実施形態の一例について説明した。本実施形態によれば、第二及び第三実施形態と同様の効果が得られる。
<<第五実施形態>>
上記の第四実施形態では、片方のアーム21の力覚センサー25を、状態判別対象としている。一方、第五実施形態では、両方のアーム21の力覚センサー25に対して並列的に状態判別処理を行う。以下、第四実施形態と異なる点を中心に説明する。
具体的には、ロボット制御部102は、一方のアーム21のエンドエフェクター26で、剛性部材42bを把持させ、位置及び向きを固定する。また、固定された状態で、他方のアーム21のエンドエフェクター26で剛性部材42aを把持させる。そして、当該他方のアーム21のエンドエフェクター26により、状態判別用対象物40を変形させて、当該他方のアーム21の力覚センサー25の各成分の状態判別を行う。
ここで、当該他方のエンドエフェクター21により状態判別用対象物40に対してある成分(例えば、Fz)の外力が加えられると、当該一方のアーム21のエンドエフェクター21を介して当該一方の力覚センサー25に対しても同成分の外力が加わる。すなわち、他方の力覚センサー25で検出される応力と、一方の力覚センサー25で検出される応力とが、理想的には一致する。
そこで、応力算出部104は、変換テーブル1100を参照し、状態判別対象の成分に対応する成分1101の変換情報から、変形量検出部103が求めた変形量に対応する変形量1102を特定し、当該変形量1102に関連付けられている応力1103を、両方の力覚センサー25に関する応力として取得する。
また、状態判別部105は、状態判別用対象物40が変形している状態での、両方の力覚センサー25の状態判別対象の成分に対応するセンサー値を、ロボット制御部102を介して取得する。
また、状態判別部105は、取得した両方の力覚センサー25のセンサー値のそれぞれについて、応力算出部104が算出した応力との差分を求める。そして、求めた差分のそれぞれが、状態判別対象の成分に対応する所定の閾値以下であるかを判定する。
なお、動作させる前記他方のアーム21の力覚センサー25に関して使用する変換テーブルと、動作させない前記一方のアーム21の力覚センサー25に関して使用する変換テーブルを、用意するようにしてもよい。そして、応力算出部104は、各変換テーブルから、変形量に対応する応力を取得するようにしてもよい。このようにすれば、同じ変形量に対して、動作させる前記他方のアーム21の力覚センサー25に生じる応力と、動作させない前記一方のアーム21の力覚センサー25に生じる応力が異なる場合にも、より精度よく状態判別を行うことができる。
以上、本発明の第五実施形態の一例について説明した。本実施形態によれば、両方のアームの力覚センサーに対して並列的に状態判別処理を行うことができるため、状態判別処理の効率を向上することができる。
なお、第二実施形態においても、両方のアーム21の力覚センサー25に対して並列的に状態判別処理を行うようにしてもよい。
上記の本発明の各実施形態は、本発明の要旨と範囲を例示することを意図し、限定するものではない。多くの代替物、修正および変形例が当業者にとって明らかである。
例えば、変換情報の代わりに、成分ごとに、変形量から応力を求めるための計算式を定義しておき、応力算出部104は、計算式を用いて、変形量検出部103が検出した変形量から応力を算出するようにしてもよい。このようにすれば、変換情報を用意する必要がなくなる。なお、当該計算式は、例えば、状態判別用対象物40のヤング率や剛性率などの値に基づいて定義することができる。
また、状態判別用対象物40の変形量を特定できるのであれば、例えば、特徴点は、弾性部材41のみ、又は、弾性部材41及び剛性部材42の両方に設定されてもよい。また、状態判別用対象物40の変形量を特定できるのであれば、変形量を特定するために用いる特徴点の位置や数は、上記の各実施形態で説明した例に限られない。
1:ロボットシステム、10:制御装置、20:ロボット、21(21a、21b):アーム、22:ジョイント、23:リンク、25:力覚センサー、26:エンドエフェクター、30:撮影装置、40:状態判別用対象物、41:弾性部材、42(42a、42b):剛性部材、100:制御部、101:画像取得部、102:ロボット制御部、103:変形量検出部、104:応力算出部、105:状態判別部、106:通知部、110:記憶部、200:可動部、210:動作制御部、1100:変換テーブル、1101:成分、1102:変形量、1103:応力、1100A:変換テーブル、1104:種別、50:コンピューター、501:CPU、502:メモリー、503:外部記憶装置、504:通信装置、505:入力装置、506:出力装置、507:読み書き装置、508:インターフェイス装置

Claims (13)

  1. アーム及び力覚センサーを有するロボットの状態を判別する状態判別方法であって、
    弾性体を含んで構成される状態判別用対象物を用いるものであり、
    前記ロボットを動作させて前記アームにより前記状態判別用対象物を変形させる動作ステップと、
    前記動作ステップで変形させた前記状態判別用対象物の変形量を検出する検出ステップと、
    前記検出ステップで検出した前記変形量から、前記力覚センサーに加わっている力又はモーメントを示す値を算出する算出ステップと、
    前記算出ステップで算出した前記力又はモーメントを示す値に基づいて、前記力覚センサーの状態を判別する判別ステップと、を含む、
    ことを特徴とする状態判別方法。
  2. 請求項1に記載の状態判別方法であって、
    前記状態判別用対象物は、さらに剛性体を含んで構成されており、
    前記動作ステップでは、前記アームを前記状態判別用対象物の前記剛性体に接触させて前記アームにより前記状態判別用対象物を変形させる、
    ことを特徴とする状態判別方法。
  3. 請求項2に記載の状態判別方法であって、
    前記状態判別用対象物は、前記弾性体の両端面が前記剛性体で挟まれるように構成されており、
    前記動作ステップでは、前記状態判別用対象物の一方の端面の前記剛性体の位置及び向きが固定された状態で、前記アームを前記状態判別用対象物の他方の端面の前記剛性体に接触させて前記アームにより前記状態判別用対象物を変形させる、
    ことを特徴とする状態判別方法。
  4. 請求項3に記載の状態判別方法であって、
    前記ロボットは、前記アームを複数有し、
    前記動作ステップでは、前記複数のアームのうちの第一のアームにより前記一方の端面の前記剛性体の位置及び向きを固定し、前記複数のアームうちの第二のアームを前記他の端面の前記剛性体に接触させて前記第二のアームにより前記状態判別用対象物を変形させる、
    ことを特徴とする状態判別方法。
  5. 請求項4に記載の状態判別方法であって、
    前記算出ステップでは、前記第一のアーム及び前記第二のアームの少なくとも一方について、前記検出ステップで検出した前記変形量から、当該アームの力覚センサーに加わっている力又はモーメントを示す値を算出し、
    前記判別ステップでは、前記第一のアーム及び前記第二のアームの少なくとも一方について、前記算出ステップで算出した前記力又はモーメントを示す値に基づいて、当該アームの力覚センサーの状態を判別する、
    ことを特徴とする状態判別方法。
  6. 請求項1〜5いずれか一項に記載の状態判別方法であって、
    前記検出ステップでは、前記状態判別用対象物を撮影し、撮影した画像情報に基づいて、前記状態判別用対象物の特徴点の位置の変化を特定することで、前記変形量を検出する、
    ことを特徴とする状態判別方法。
  7. 請求項6に記載の状態判別方法であって、
    前記特徴点は、前記剛性体に設定されるものである、
    ことを特徴とする状態判別方法。
  8. 請求項1〜7いずれか一項に記載の状態判別方法であって、
    前記算出ステップでは、前記状態判別用対象物の変形量と当該変形量に対応する力又はモーメントの関係を特定する情報を取得し、取得した前記情報に基づいて、前記検出ステップで検出した前記変形量から前記力覚センサーに加わっている力又はモーメントを算出する、
    ことを特徴とする状態判別方法。
  9. 請求項1〜8いずれか一項に記載の状態判別方法であって、
    前記判別ステップでは、前記動作ステップで前記状態判別用対象物を変形させた状態で前記力覚センサーから出力されるセンサー値を取得し、当該取得したセンサー値と前記算出ステップで算出した前記力又はモーメントを示す値との差分が所定の範囲内にあるか否かを判別する、
    ことを特徴とする状態判別方法。
  10. 請求項3又は4に記載の状態判別方法であって、
    前記力覚センサーは、互いに直交する第一〜第三の軸方向の力、前記第一〜第三の軸方向の軸回りである第一〜第三の軸回りのモーメント、のいずれか一以上を検出するものであり、
    前記状態判別用対象物は、前記一方の端面の前記剛性体及び前記他方の端面の前記剛性体が互いに平行に形成されており、
    前記動作ステップでは、
    前記第一の軸方向について、前記他方の端面の前記剛性体が、前記一方の端面の前記剛性体に平行のまま近づくように、前記アームを動作させ、
    前記第二の軸方向について、前記他方の端面の前記剛性体が、前記一方の端面の前記剛性体に平行のまま前記第二の軸方向に移動するように、前記アームを動作させ、
    前記第三の軸方向について、前記他方の端面の前記剛性体が、前記一方の端面の前記剛性体に平行のまま前記第三の軸方向に移動するように、前記アームを動作させ、
    前記第一の軸回りについて、前記他方の端面の前記剛性体が、前記一方の端面の前記剛性体に平行のまま前記第一の軸方向を基準に回転するように、前記アームを動作させ、
    前記第二の軸回りについて、前記他方の端面の前記剛性体が、前記第二の軸方向を基準に回転するように、前記アームを動作させ、
    前記第三の軸回りについて、前記他方の端面の前記剛性体が、前記第三の軸方向を基準に回転するように、前記アームを動作させる、
    ことを特徴とする状態判別方法。
  11. ロボットであって、
    アームと、
    力覚センサーと、
    前記アームを動作させて、当該アームにより、弾性体を含んで構成される状態判別用対象物を変形させる制御部と、
    前記アームにより変形された前記状態判別用対象物の変形量を検出する検出部と、
    前記検出部で検出した前記変形量から、前記力覚センサーに加わっている力又はモーメントを示す値を算出する算出部と、
    前記算出部で算出した前記力又はモーメントを示す値に基づいて、前記力覚センサーの状態を判別する判別部と、を有する、
    ことを特徴とするロボット。
  12. アーム及び力覚センサーを有するロボットの制御装置であって、
    前記アームを動作させて、当該アームにより、弾性体を含んで構成される状態判別用対象物を変形させる制御部と、
    前記アームにより変形された前記状態判別用対象物の変形量を検出する検出部と、
    前記検出部で検出した前記変形量から、前記力覚センサーに加わっている力又はモーメントを示す値を算出する算出部と、
    前記算出部で算出した前記力又はモーメントを示す値に基づいて、前記力覚センサーの状態を判別する判別部と、を有する、
    ことを特徴とする制御装置。
  13. アーム及び力覚センサーを有するロボットの制御装置のプログラムであって、
    前記アームにより、弾性体を含んで構成される状態判別用対象物を変形させる動作ステップと、
    前記動作ステップで変形させた前記状態判別用対象物の変形量を検出する検出ステップと、
    前記検出ステップで検出した前記変形量から、前記力覚センサーに加わっている力又はモーメントを示す値を算出する算出ステップと、
    前記算出ステップで算出した前記力又はモーメントを示す値に基づいて、前記力覚センサーの状態を判別する判別ステップと、を前記制御装置に実行させる、
    ことを特徴とするプログラム。
JP2012200221A 2012-09-12 2012-09-12 状態判別方法、ロボット、制御装置、及びプログラム Expired - Fee Related JP5942720B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012200221A JP5942720B2 (ja) 2012-09-12 2012-09-12 状態判別方法、ロボット、制御装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012200221A JP5942720B2 (ja) 2012-09-12 2012-09-12 状態判別方法、ロボット、制御装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2014054692A JP2014054692A (ja) 2014-03-27
JP5942720B2 true JP5942720B2 (ja) 2016-06-29

Family

ID=50612474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012200221A Expired - Fee Related JP5942720B2 (ja) 2012-09-12 2012-09-12 状態判別方法、ロボット、制御装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP5942720B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104827469B (zh) 2013-10-10 2016-10-19 精工爱普生株式会社 机器人控制装置、机器人系统、机器人以及机器人控制方法
EP3789165A4 (en) 2018-05-01 2021-08-18 Nissan Motor Co., Ltd. MALFUNCTION DETERMINATION DEVICE, MALFUNCTION DETERMINATION SYSTEM, AND MALFUNCTION DETERMINATION PROCEDURE

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3053606B2 (ja) * 1998-02-23 2000-06-19 ファナック株式会社 ロボットに装着された力センサのキャリブレーション方法及びロボット
DE19960482A1 (de) * 1999-12-15 2001-06-21 Peter Giesecke Automatische Kalibriereinrichtung für Mehrkomponenten-Kraft- und Momentenaufnehmer mit systemeigener Antriebskraft
JP5261786B2 (ja) * 2007-12-11 2013-08-14 国立大学法人 筑波大学 3次元触覚センサ及び3次元触覚センシング方法
JP5550468B2 (ja) * 2010-06-30 2014-07-16 キヤノン株式会社 力覚センサの校正方法
JP5643082B2 (ja) * 2010-12-28 2014-12-17 川崎重工業株式会社 作業の良否判定システム及び良否判定方法

Also Published As

Publication number Publication date
JP2014054692A (ja) 2014-03-27

Similar Documents

Publication Publication Date Title
CN108453701B (zh) 控制机器人的方法、示教机器人的方法和机器人系统
US20160184996A1 (en) Robot, robot system, control apparatus, and control method
US20150127141A1 (en) Robot, control device, robot system and robot control method
US8498745B2 (en) Robot apparatus and gripping method for use in robot apparatus
US9869597B1 (en) Compound strain gage carrier for multi-axis force/torque sensing
US20150234375A1 (en) Tool coordinate system correcting method of robot system, and robot system
US11685042B2 (en) Working robot and control method for working robot
JP6007636B2 (ja) ロボット制御システム及びロボット制御装置
JP4643619B2 (ja) ロボット制御装置
US10882182B2 (en) Robot apparatus, control method of robot apparatus, and recording medium
US10583555B2 (en) System and method for determining tool offsets
JP6996113B2 (ja) ロボット制御方法、ロボットシステムおよび制御装置
US10195744B2 (en) Control device, robot, and robot system
JPWO2018092254A1 (ja) 把持力設定システム、把持力設定方法、及び把持力推定システム
JP6003312B2 (ja) ロボットシステム
JP2015000455A (ja) ロボット装置及びロボット装置の制御方法
JP2015085479A (ja) ロボット、制御装置、ロボットシステム、及びロボット制御方法
CN111531533A (zh) 一种六维力传感器的零点校正及重力补偿方法
JP5787646B2 (ja) ロボットシステム及び部品の製造方法
JP5942720B2 (ja) 状態判別方法、ロボット、制御装置、及びプログラム
JP2015085499A (ja) ロボット、ロボットシステム、制御装置及び制御方法
JP6322948B2 (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法、及びプログラム
JP2015085480A (ja) ロボット、制御装置、ロボットシステム、ロボット制御方法、及びプログラム
JP2004160614A (ja) 自動作業教示システム
JP7167667B2 (ja) 検査方法およびロボットシステム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160509

R150 Certificate of patent or registration of utility model

Ref document number: 5942720

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees