JP2024017611A - 滑り判定方法、滑り判定システムおよび滑り判定プログラム - Google Patents
滑り判定方法、滑り判定システムおよび滑り判定プログラム Download PDFInfo
- Publication number
- JP2024017611A JP2024017611A JP2022120364A JP2022120364A JP2024017611A JP 2024017611 A JP2024017611 A JP 2024017611A JP 2022120364 A JP2022120364 A JP 2022120364A JP 2022120364 A JP2022120364 A JP 2022120364A JP 2024017611 A JP2024017611 A JP 2024017611A
- Authority
- JP
- Japan
- Prior art keywords
- image
- slippage
- gripping
- robot
- gripping operation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000013507 mapping Methods 0.000 claims description 41
- 230000001133 acceleration Effects 0.000 claims description 18
- 239000012636 effector Substances 0.000 description 21
- 230000000875 corresponding effect Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 238000003780 insertion Methods 0.000 description 8
- 230000037431 insertion Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000013011 mating Effects 0.000 description 4
- 210000000078 claw Anatomy 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/0095—Means or methods for testing manipulators
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
【課題】力センサーを用いずに滑り判定を行うことのできる滑り判定方法、滑り判定システムおよび滑り判定プログラムを提供する。【解決手段】滑り判定方法は、ロボットが対象物を把持した状態で動作する把持動作中に前記対象物を含む第1画像を取得する第1画像取得ステップと、前記第1画像取得ステップの後に、前記把持動作中に前記対象物を含む第2画像を取得する第2画像取得ステップと、前記対象物の把持滑りが生じていない前記把持動作中に連続して取得した複数の画像に基づいて予め求められた写像と、前記第1画像と、に基づいて前記第2画像の予想画像を生成する予想画像生成ステップと、前記第2画像と前記予想画像とを比較して前記対象物の把持滑りが発生しているかを判断する判断ステップと、を含む。【選択図】図5
Description
本発明は、滑り判定方法、滑り判定システムおよび滑り判定プログラムに関する。
例えば、特許文献1に記載されているロボット制御システムは、ロボットハンドによる把持ワークの移動作業、挿入作業、組み立て作業といった各種ハンドリング作業時の滑り検出をすることができる。このようなロボット制御システムは、ロボットハンドで把持した嵌合部品を穴の開いた被嵌合部品に挿入する際、ロボットの各軸エンコーダー信号に基づいて嵌合部材が被嵌合部材に接触した後のハンドの移動量を挿入量として算出し、算出した挿入量を時間微分して挿入速度を算出し、ロボットに設けられた力センサー信号に基づいて被嵌合部品に加わる挿入力を算出し、算出した挿入速度と挿入力の積を時間積分して挿入作業中の仕事量を算出し、算出した挿入量と仕事量の軌跡が予め設定した閉領域の外側に出た場合に滑りが発生したと判断する。
しかしながら、特許文献1のロボット制御システムでは、上述したように、滑り検出に力センサーを用いなければならない。そのため、ロボット制御システムのコストが高いという問題がある。また、閉領域を設定するために実作業前に成功・失敗を実機で再現しなければならず、作業前の準備に時間および労力が必要となる。
本発明の滑り判定方法は、ロボットが対象物を把持した状態で動作する把持動作中に前記対象物を含む第1画像を取得する第1画像取得ステップと、
前記第1画像取得ステップの後に、前記把持動作中に前記対象物を含む第2画像を取得する第2画像取得ステップと、
前記対象物の把持滑りが生じていない前記把持動作中に連続して取得した複数の画像に基づいて予め求められた写像と、前記第1画像と、に基づいて前記第2画像の予想画像を生成する予想画像生成ステップと、
前記第2画像と前記予想画像とを比較して前記対象物の把持滑りが発生しているかを判断する判断ステップと、を含む。
前記第1画像取得ステップの後に、前記把持動作中に前記対象物を含む第2画像を取得する第2画像取得ステップと、
前記対象物の把持滑りが生じていない前記把持動作中に連続して取得した複数の画像に基づいて予め求められた写像と、前記第1画像と、に基づいて前記第2画像の予想画像を生成する予想画像生成ステップと、
前記第2画像と前記予想画像とを比較して前記対象物の把持滑りが発生しているかを判断する判断ステップと、を含む。
本発明の滑り判定システムは、ロボットが対象物を把持した状態で動作する把持動作中に前記対象物を含む第1画像を取得し、
前記第1画像を取得した後に、前記把持動作中に前記対象物を含む第2画像を取得し、
前記対象物の把持滑りが生じていない前記把持動作中に連続して取得した複数の画像に基づいて予め求められた写像と、前記第1画像と、に基づいて前記第2画像の予想画像を生成し、
前記第2画像と前記予想画像とを比較して前記対象物の把持滑りが発生しているかを判断する。
前記第1画像を取得した後に、前記把持動作中に前記対象物を含む第2画像を取得し、
前記対象物の把持滑りが生じていない前記把持動作中に連続して取得した複数の画像に基づいて予め求められた写像と、前記第1画像と、に基づいて前記第2画像の予想画像を生成し、
前記第2画像と前記予想画像とを比較して前記対象物の把持滑りが発生しているかを判断する。
本発明の滑り判定プログラムは、ロボットを備えるロボットシステムに、
前記ロボットが対象物を把持した状態で動作する把持動作中に前記対象物を含む第1画像を取得する第1画像取得ステップと、
前記第1画像取得ステップの後に、前記把持動作中に前記対象物を含む第2画像を取得する第2画像取得ステップと、
前記対象物の把持滑りが生じていない前記把持動作中に連続して取得した複数の画像に基づいて予め求められた写像と、前記第1画像と、に基づいて前記第2画像の予想画像を生成する予想画像生成ステップと、
前記第2画像と前記予想画像とを比較して前記対象物の把持滑りが発生しているかを判断する判断ステップと、を実行させる。
前記ロボットが対象物を把持した状態で動作する把持動作中に前記対象物を含む第1画像を取得する第1画像取得ステップと、
前記第1画像取得ステップの後に、前記把持動作中に前記対象物を含む第2画像を取得する第2画像取得ステップと、
前記対象物の把持滑りが生じていない前記把持動作中に連続して取得した複数の画像に基づいて予め求められた写像と、前記第1画像と、に基づいて前記第2画像の予想画像を生成する予想画像生成ステップと、
前記第2画像と前記予想画像とを比較して前記対象物の把持滑りが発生しているかを判断する判断ステップと、を実行させる。
以下、本発明の滑り判定方法、滑り判定システムおよび滑り判定プログラムを添付図面に示す実施形態に基づいて詳細に説明する。
図1は、好適な実施形態に係るロボットシステムの構成図である。図2は、制御装置のブロック図である。図3は、把持滑りを示す図である。図4および図5は、それぞれ、把持滑りの判定工程を示すフローチャートである。図6は、把持動作に含まれる区間を示す図である。図7は、第1画像の一例を示す図である。図8は、第2画像の一例を示す図である。図9は、写像を生成するのに用いる時系列画像の一例を示す図である。図10および図11は、それぞれ、把持滑りの判定工程の変形例を示すフローチャートである。
図1に示すロボットシステム1は、対象物であるワークWを把持するロボット2と、ロボット2の駆動を制御する制御装置3と、を有している。このようなロボットシステム1には、ロボット2が把持したワークWの滑り(以下、「把持滑り」とも言う。)を検出する滑り判定システムが適用されている。
ロボット2は、駆動軸を6つ有する6軸垂直多関節ロボットである。ロボット2は、基台21と、基台21に回動自在に連結されているロボットアーム22と、ロボットアーム22の先端に装着されているエンドエフェクター23と、ロボットアーム22に搭載されているカメラ24と、を有している。また、ロボットアーム22は、複数のアーム221、222、223、224、225、226が回動自在に連結されてなるロボティックアームであり、6つの関節J1、J2、J3、J4、J5、J6を備えている。これら6つの関節J1~J6のうち、関節J2、J3、J5は、それぞれ、曲げ関節であり、関節J1、J4、J6は、それぞれ、ねじり関節である。
関節J1、J2、J3、J4、J5、J6には、それぞれ、モーターMとエンコーダーEとが設置されている。制御装置3は、ロボットシステム1の運転中、各関節J1~J6について、エンコーダーEの出力が示す関節J1~J6の回転角度を制御目標に一致させるサーボ制御(フィードバック制御)を実行する。これにより、エンドエフェクター23で把持したワークWを所望の軌道で搬送することができる。
エンドエフェクター23は、ワークWを把持する構成であり、アーム226に接続されている基部と、基部に開閉自在に連結されている一対の爪部と、を有している。このようなエンドエフェクター23は、一対の爪部を閉じることでワークWを把持することができ、一対の爪部を開くことでワークWを離すことができる。ただし、エンドエフェクター23の構成は、ワークWを把持することができれば、特に限定されない。
カメラ24は、アーム225に固定されている。また、カメラ24は、その光軸がロボットアーム22の先端側すなわちエンドエフェクター23側を向いている。アーム225の先端側にエンドエフェクター23が位置する関係は、アーム225以外のアーム221~224、226がどのような姿勢の際にも維持される。そのため、アーム225にカメラ24を固定することにより、カメラ24は、常に、エンドエフェクター23に把持されたワークWを撮像することができる。
ただし、カメラ24の配置は、エンドエフェクター23に把持されたワークWを撮像することができれば、特に限定されず、例えば、アーム221~224、226に固定されていてもよい。また、カメラ24は、ロボットアーム22以外の場所、例えば、基台21、床、天井、壁等の可動しない部位に固定されていてもよい。
以上、ロボット2について説明したが、ロボット2の構成は、特に限定されない。例えば、スカラロボット(水平多関節ロボット)、上述のロボットアーム22を2本備えた双腕ロボット等であってもよい。また、基台21が固定されていない自走式のロボットであってもよい。
制御装置3は、ロボット2の駆動を制御する。制御装置3は、例えば、コンピューターから構成され、情報を処理するプロセッサー(CPU)と、プロセッサーに通信可能に接続されたメモリーと、外部装置との接続を行う外部インターフェースと、を有する。メモリーにはプロセッサーにより実行可能な各種プログラムが保存され、プロセッサーは、メモリーに記憶されたプログラム等を読み込んで実行することができる。
特に、本実施形態では、メモリーに滑り判定プログラムPPが保存されている。そして、プロセッサーが滑り判定プログラムPPを読み込んで実行することにより、ワークWの把持滑りを検出する。これにより、ロボットシステム1は、後述する滑り判定方法を実行することができる。また、制御装置3は、図2に示すように、カメラ24で取得した画像Pxを保存する記憶部31と、後述する予想画像Pxiを生成する予想画像生成部32と、把持滑りが発生しているかを判定する判定部33と、を有している。
なお、制御装置3の構成要素の一部または全部は、ロボット2の筐体の内側に配置されてもよい。また、制御装置3は、複数のプロセッサーにより構成されてもよい。
以上、ロボットシステム1の構成について説明した。このようなロボットシステム1には、前述したように、ワークWの把持滑りを検出する滑り判定システムが適用されている。例えば、エンドエフェクター23でワークWを把持し、把持したワークWを別の場所(以下「目的地」とも言う。)へ移動させる際、図3に示すように、目的地への移動中にワークWの把持滑りが生じ、エンドエフェクター23とワークWとの相対的位置関係が把持当時から変化するおそれがある。
例えば、ワークWが硬く破損し難い場合には把持力を高めることで把持滑りを抑制することができるが、ワークWが柔らかく破損し易い場合には把持力を高めることができず把持滑りが生じ易くなる。目的地への移動後の作業は、エンドエフェクター23とワークWとの把持当時の相対的位置関係に基づいてプログラムされるため、把持後に把持滑りが生じてしまうと、目的地への移動後の作業を精度よく行うことができなくなるおそれがある。
そこで、ロボットシステム1では、把持滑りを検出する滑り判定方法を実行する。この滑り判定方法は、制御装置3が滑り判定プログラムPP等を読み込んで実行することにより実現される。なお、以下では、エンドエフェクター23でワークWを把持し、把持したワークWを目的地へ移動させる動作を「把持動作」とも言う。
滑り判定方法は、図4に示すように、把持動作開始ステップS1と、第1画像取得ステップS2と、第2画像取得ステップS3と、予想画像生成ステップS4と、判断ステップS5と、対応動作ステップS6と、を含んでいる。
把持動作開始ステップS1では、ロボット2を動かして把持動作を行う。第1画像取得ステップS2では、把持動作中にワークWを含む第1画像Px1を取得する。第2画像取得ステップS3では、第1画像取得ステップS2と同様に、把持動作中にワークWを含む第2画像Px2を取得する。予想画像生成ステップS4では、予め生成された写像と第1画像Px1とに基づいて第2画像Px2の予想画像Pxiを生成する。判断ステップS5では、第2画像Px2と予想画像Pxiとを比較して把持滑りが発生しているかを判断する。対応動作ステップS6では、判断ステップS5の判断結果に基づいてロボット2に種々の動作をさせる。
このような滑り判定方法によれば、カメラ24で撮像した画像Pxに基づいて把持滑りを検出する。そのため、従来のような力センサーを用いる構成と比べて、ロボットシステム1の低コスト化を図ることができる。以下、図5に示すフローチャートに基づいて、各ステップS1~S6について詳述する。
[把持動作開始ステップS1]
把持動作開始ステップS1では、制御装置3は、例えば、図示しないホストコンピューターから受け付けた動作指令に基づいてロボット2(各モーターM)を駆動し、ロボット2に把持動作を実行させる。
把持動作開始ステップS1では、制御装置3は、例えば、図示しないホストコンピューターから受け付けた動作指令に基づいてロボット2(各モーターM)を駆動し、ロボット2に把持動作を実行させる。
ここで、図6に示すように、本実施形態の把持動作は、ワークWが一定の加速度で加速移動する加速区間Q1と、加速区間Q1の後に位置しワークWが一定の速度で定速移動する定速区間Q2と、定速区間Q2の後に位置しワークWが一定の加速度で減速移動する減速区間Q3と、の3つの区間Qを有している。また、各区間Qでは、それぞれ、ワークWが直線的に移動する。これにより、区間Q毎にワークWの単位時間当たりの移動量が一定つまり規則的になるため、区間Q毎に精度のよい写像を生成することができる。そのため、把持滑りの検出を精度よく行うことができる。
ただし、これに限定されず、例えば、把持動作は、定速区間Q2がなく加速区間Q1と減速区間Q3とを有していてもよいし、さらに減速区間Q3がなく加速区間Q1だけを有していてもよい。
[第1画像取得ステップS2]
第1画像取得ステップS2では、制御装置3は、把持動作中にカメラ24を用いてワークWを含む第1画像Px1を取得する。取得した第1画像Px1は、メモリーに記憶される。図7に第1画像Px1の一例を示す。
第1画像取得ステップS2では、制御装置3は、把持動作中にカメラ24を用いてワークWを含む第1画像Px1を取得する。取得した第1画像Px1は、メモリーに記憶される。図7に第1画像Px1の一例を示す。
[第2画像取得ステップS3]
第2画像取得ステップS3は、第1画像取得ステップS2の後に行われる。第2画像取得ステップS3では、制御装置3は、把持動作中にカメラ24を用いてワークWを含む第2画像Px2を取得する。取得した第2画像Px2は、メモリーに記憶される。図8に第2画像Px2の一例を示す。
第2画像取得ステップS3は、第1画像取得ステップS2の後に行われる。第2画像取得ステップS3では、制御装置3は、把持動作中にカメラ24を用いてワークWを含む第2画像Px2を取得する。取得した第2画像Px2は、メモリーに記憶される。図8に第2画像Px2の一例を示す。
第1、第2画像取得ステップS2、S3について実際の動作に準じて説明すると、制御装置3は、把持動作開始後、カメラ24を用いてワークWを含む画像Pxの撮像を開始する。より具体的には、制御装置3は、エンドエフェクター23によるワークWの把持が完了後、ワークWの目的地までの移動を開始する前からカメラ24を用いて画像Pxの撮像を開始する。また、制御装置3は、画像Pxを所定時間間隔毎に周期的に取得する。つまり、制御装置3は、時系列画像を取得する。
所定時間間隔としては、特に限定されず、例えば、0.1秒以上1秒以下とすることができる。このような下限値とすることで、予想画像生成ステップS4および判断ステップS5に費やすことのできる時間を十分に確保することができるため、処理の遅延を抑制することができる。また、このような上限値とすることで、十分に短い間隔で画像Pxを取得することができる。そのため、実際に把持滑りが発生した時刻と把持滑りを検出した時刻とのタイムラグを小さくすることができ、把持滑りをより早期に検出することができる。なお、本願明細書の時刻は、例えば、制御装置3がロボット2に把持動作を命じた時からの経過時間を意味する。
まず、制御装置3は、1枚目の画像Pxを取得すると、当該画像Pxを第1画像Px1としてメモリーに記憶する。次に、制御装置3は、2枚目の画像Pxを取得すると、当該画像を第2画像Px2としてメモリーに記憶する。次に、制御装置3は、3枚目の画像Pxを取得すると、直前まで第2画像Px2として記憶していた画像Px(2枚目の画像Px)を直前まで第1画像Px1として記憶していた画像Px(1枚目の画像Px)に代えて第1画像Px1としてメモリーに記憶し、3枚目の画像Pxを新たな第2画像Px2として記憶する。
4枚目以降の画像Pxを取得した場合は、これと同様であり、取得した最新の画像Pxを第2画像Px2として記憶し、その1枚前の画像Px(直前まで第2画像Px2だった画像Px)を第1画像Px1として記憶する手順を繰り返す。つまり、新たな画像Pxを取得する度に、最新の画像Pxを第2画像Px2とし、1枚前の画像Pxを第2画像Px2から第1画像Px1に繰り下げる。
なお、上述したように、本実施形態では、最新の画像Pxの1枚前の画像Pxを第1画像Px1として記憶するが、これに限定されず、例えば、2枚前の画像Pxを第1画像Px1としてもよいし、それ以上前の画像Pxを第1画像Px1としてもよい。同様に、最新の画像Pxを第2画像Px2として記憶するが、これに限定されず、例えば、1枚前の画像Pxを第2画像Px2としてもよいし、それ以上前の画像Pxを第2画像Px2としてもよい。
[予想画像生成ステップS4]
予想画像生成ステップS4では、制御装置3は、予め生成された写像と第1画像Px1とに基づいて第2画像Px2の予想画像Pxiを生成する。予想画像Pxiは、第2画像Px2を取得した時刻においてカメラ24で撮像されると予想される画像とも言える。以下、本ステップS4について詳細に説明する。
予想画像生成ステップS4では、制御装置3は、予め生成された写像と第1画像Px1とに基づいて第2画像Px2の予想画像Pxiを生成する。予想画像Pxiは、第2画像Px2を取得した時刻においてカメラ24で撮像されると予想される画像とも言える。以下、本ステップS4について詳細に説明する。
まず、写像について説明する。前述したように、把持動作が加速区間Q1と、定速区間Q2と、等速の減速区間Q3と、を有している。また、加速区間Q1および減速区間Q3では、加速度が一定である。そのため、各区間Q1、Q2、Q3で、画像Pxに写る物体の移動量および移動方向が規則性を有している。そこで、制御装置3は、区間Q1、Q2、Q3毎に、第1画像Px1からその次に得られる第2画像Px2を予想するための関数である写像を生成する。写像の生成方法は、特に限定されないが、例えば、以下のような方法が挙げられる。
まず、制御装置3は、実際の把持動作を行う前に、写像を生成するための把持動作を行う。当該把持動作は、実際の把持動作と同じ動作であるが、例えば、把持力を高める等により、ワークWの把持滑りが生じない正常な状態で行われる。また、制御装置3は、把持動作中、カメラ24を用いてワークWを含む画像Pxを取得する。なお、画像Pxの取得を開始するタイミング、画像Pxを取得する時間間隔等の各種条件は、実際の把持作業と同じ条件に設定することが好ましい。これにより、予想画像Pxiと第2画像Px2の取得時刻を容易に一致させることができるため、把持滑りをより精度よく検出することができる。
次に、制御装置3は、加速区間Q1で得られた複数の画像Pxから加速区間Q1の写像を生成し、定速区間Q2で得られた複数の画像Pxから定速区間Q2の写像を生成し、減速区間Q3で得られた複数の画像Pxから減速区間Q3の写像を生成する。例えば、各区間Q1、Q2、Q3において、その区間の開始から順に得られた画像PxをIk(k=0、1、2、3、4…)とし、その区間での写像をAjとすると、これらの間に下記式(1)で示す線形関係が成り立つ。
そのため、各区間Q1、Q2、Q3において、連続して撮像された2枚の画像Pxに基づいて写像Ajを求めることができる。つまり、図9に示すような複数の画像Pxの差分から写像Ajを求めることができる。そして、写像Ajを求めた後は、その写像Ajを用いてk番目に得られた画像Ikつまり第1画像Px1からk+1番目に得られる画像Ik+1つまり第2画像Px2を予想することができる。
以上、写像の生成方法の一例について説明した。次に、予想画像生成ステップS4の手順について説明する。まず、制御装置3は、ステップS41として、把持動作中のロボット2の状態量に基づいて現在の区間Qを判断する。状態量に基づけば、区間Qを容易かつ正確に判断することができる。なお、状態量としては、特に限定されないが、本実施形態では、各関節J1~J6のエンコーダーEからの信号に基づいて検出されるワークWの移動速度を用いている。
ただし、区間Qの判断方法は、特に限定されない。例えば、状態量として、各関節J1~J6のエンコーダーEからの信号に基づいて検出されるロボットアーム22の姿勢を用いてもよい。また、状態量ではなく、把持動作開始からの経過時間に基づいて区間Qを判断してもよい。また、エンドエフェクター23に加速度センサーを搭載し、この加速度センサーからの信号に基づいて区間Qを判断してもよい。また、カメラ24とは別のカメラで撮像したロボット2を含む画像に基づいて区間Qを判断してもよい。
次に、制御装置3は、ステップS42として、ステップS41で判断した区間Qに対応する写像を選択する。つまり、ステップS41で判断した区間Qが加速区間Q1であれば加速区間Q1に対応する写像を選択し、ステップS41で判断した区間Qが定速区間Q2であれば定速区間Q2に対応する写像を選択し、ステップS41で判断した区間Qが減速区間Q3であれば減速区間Q3に対応する写像を選択する。区間Q毎の写像は、写像テーブルとしてメモリーに記憶されており、制御装置3は、写像テーブルから該当する1つの写像を取得する。これにより、より精度の高い予想画像Pxiを生成することができる。
次に、制御装置3は、ステップS43として、選択した写像と第1画像Px1とに基づいて第2画像Px2の予想画像Pxiを生成する。前述したように、Ik+1=Aj・Ikが成り立つため、Ikに第1画像Px1を代入することにより第2画像Px2の予想画像Pxiを生成することができる。
[判断ステップS5]
判断ステップS5では、制御装置3は、第2画像取得ステップS3で得られた第2画像Px2と、予想画像生成ステップS4で得られた予想画像Pxiとを比較して把持滑りが発生しているかを判断する。つまり、予想した画像と実際に撮像された画像とを比較して把持滑りを検出する。以下、判断方法について詳細に説明する。
判断ステップS5では、制御装置3は、第2画像取得ステップS3で得られた第2画像Px2と、予想画像生成ステップS4で得られた予想画像Pxiとを比較して把持滑りが発生しているかを判断する。つまり、予想した画像と実際に撮像された画像とを比較して把持滑りを検出する。以下、判断方法について詳細に説明する。
まず、制御装置3は、ステップS51として、第2画像Px2と予想画像Pxiとの類似度を算出する。類似度の算出方法は、特に限定されないが、本実施形態では、ユークリッド距離つまり第2画像Px2と予想画像Pxiの距離からこれら2つの画像の類似度を算出する。ユークリッド距離を用いる方法によれば、比較的処理負荷が小さく、より短時間で第2画像Px2と予想画像Pxiとの類似度を算出することができる。
次に、制御装置3は、ステップS52として、算出した類似度と予め設定されている閾値との大小関係を判定する。そして、制御装置3は、算出した類似度が閾値未満の場合つまり閾値よりも類似している場合は、ワークWの把持滑りが発生していないと判定し、算出した類似度が閾値以上の場合つまり閾値よりも類似していない場合は、ワークWの把持滑りが発生していると判定する。このように、第2画像Px2と予想画像Pxiとの類似度と閾値との大小関係に基づくことにより、画一的な判定が可能となり、判定精度の向上および安定化を図ることができる。
ただし、把持滑りが発生しているかを判定する方法は、類似度を用いた方法に限定されない。例えば、ワークWのエッジ等の特徴点を抽出し、特徴点同士のずれ量に基づいて把持滑りを検出してもよい。
ここで、閾値は、各第2画像Px2に対応して設定されている。このような閾値は、持滑りが生じていない第1参考画像、把持滑りが生じている第2参考画像および予想画像Pxiに基づいて決定する。なお、これら3枚の画像は、互いに同時刻に取得したものが用いられる。例えば、第1参考画像と第2参考画像との類似度を求め、この類似度を仮閾値とする。次に、第1参考画像と予想画像Pxiとの類似度の差に基づいて仮閾値を補正して、閾値とする。このような方法によれば、より現状に適した閾値を生成することができ、把持滑りを精度よく検出することができる。
ここで、第1参考画像は、前述した写像を生成するために取得した画像を用いることができる。これに対して第2参考画像は、次のようにして取得することができる。
例えば、写像を生成するときと同様に、実際の把持動作を行う前に、実際の把持動作と同じ把持動作をカメラ24で時系列画像を取得しながら行い、その動作の中で把持滑りを故意に生じさせる。これにより、第2参考画像を容易に取得することができる。特に、この方法によれば、より実際の状態に近い第2参考画像が得られるため、閾値を高い精度で設定することができる。
また、例えば、実際の把持動作で定められた把持位置からずれた位置でワークWを把持した状態で、実際の把持動作と同じ把持動作をカメラ24で時系列画像を取得しながら行ってもよい。つまり、初めから把持滑りを発生させた状態で時系列画像を取得する。これにより、第2参考画像を容易に取得することができる。特に、この方法によれば、把持滑りを故意に発生させる必要がないため、第2参考画像の取得に失敗がなく、第2参考画像の取得がより容易となる。
[対応動作ステップS6]
対応動作ステップS6では、判断ステップS5の判定結果に基づいてロボット2の駆動を制御する。制御装置3は、判断ステップS5において把持滑りが発生していないと判定したときは、ステップS61として、ロボット2に把持動作を継続させる。一方、制御装置3は、把持滑りが発生していないと判定したときは、ステップS62として、対応動作をロボット2に実行させる。対応動作としては、特に限定されないが、例えば、把持動作の停止、ワークWの把持力を高める等が挙げられる。この場合、把持滑りの大きさに基づいて対応動作を選択してもよい。本実施形態では、閾値を設け、把持滑りの大きさが閾値以上であれば把持動作を停止し、把持滑りの大きさが閾値未満であれば把持力を高めて把持動作を継続する。
対応動作ステップS6では、判断ステップS5の判定結果に基づいてロボット2の駆動を制御する。制御装置3は、判断ステップS5において把持滑りが発生していないと判定したときは、ステップS61として、ロボット2に把持動作を継続させる。一方、制御装置3は、把持滑りが発生していないと判定したときは、ステップS62として、対応動作をロボット2に実行させる。対応動作としては、特に限定されないが、例えば、把持動作の停止、ワークWの把持力を高める等が挙げられる。この場合、把持滑りの大きさに基づいて対応動作を選択してもよい。本実施形態では、閾値を設け、把持滑りの大きさが閾値以上であれば把持動作を停止し、把持滑りの大きさが閾値未満であれば把持力を高めて把持動作を継続する。
以上、滑り判定方法について説明した。このような滑り判定方法によれば、カメラ24で取得した画像Pxに基づいて把持滑りを検出するため、従来のような力センサーを用いる構成と比較してロボットシステム1の低コスト化を図ることができる。また、画像Px中の物体を認識する必要がなく、特徴点の設定も不要である。そのため、画像認識等の専門知識がなくても容易に取り扱うことができる。画像認識が不要であることから、画像Px中のエンドエフェクター23やワークWの一部が隠れてしまっても、その影響を受け難く、把持滑りを精度よく検出することができる。
以上、ロボットシステム1について説明した。このようなロボットシステム1が行う滑り判定方法は、前述したように、ロボット2が対象物であるワークWを把持した状態で動作する把持動作中にワークWを含む第1画像Px1を取得する第1画像取得ステップS2と、第1画像取得ステップS2の後に、把持動作中にワークWを含む第2画像Px2を取得する第2画像取得ステップS3と、ワークWの把持滑りが生じていない把持動作中に連続して取得した複数の画像Pxに基づいて予め求められた写像と、第1画像Px1と、に基づいて第2画像Px2の予想画像Pxiを生成する予想画像生成ステップS4と、第2画像Px2と予想画像Pxiとを比較して把持滑りが発生しているかを判断する判断ステップS5と、を含んでいる。
このような滑り判定方法によれば、カメラ24で取得した画像Pxに基づいて把持滑りを検出するため、従来のような力センサーを用いる構成と比較してロボットシステム1の低コスト化を図ることができる。また、画像Px中の物体を認識する必要がなく、特徴点の設定も不要である。そのため、画像認識等の専門知識がなくても容易に取り扱うことができる。画像認識が不要であることから、画像Px中のエンドエフェクター23やワークWの一部が隠れてしまっても、その影響を受け難く、把持滑りを精度よく検出することができる。
また、前述したように、判断ステップS5では、第2画像Px2と予想画像Pxiとの類似度を算出し、類似度と予め設定された閾値との関係に基づいて把持滑りが発生しているかを判断する。このように、第2画像Px2と予想画像Pxiとの類似度と閾値との関係に基づくことにより、画一的な判定が可能となり、判定精度の向上および安定化を図ることができる。
また、前述したように、閾値は、互いに同時刻に取得した把持滑りが生じていない第1参考画像、把持滑りが生じている第2参考画像および予想画像Pxiに基づいて決定する。このような方法によれば、より現状に適した閾値を生成することができ、把持滑りを精度よく検出することができる。
また、前述したように、第2参考画像は、把持動作中に把持滑りを発生させて取得する。これにより、第2参考画像を容易に取得することができる。特に、この方法によれば、より実際の状態に近い第2参考画像が得られるため、閾値を高い精度で設定することができる。
また、前述したように、第2参考画像は、把持動作で定められた把持位置からずれた位置でワークWを把持した状態で把持動作を行うことにより取得する。これにより、第2参考画像を容易に取得することができる。特に、この方法によれば、把持滑りを故意に発生させる必要がないため、第2参考画像の取得に失敗がなく、第2参考画像の取得がより容易となる。
また、前述したように、把持動作は、ワークWが加速移動する加速区間Q1と、ワークWが減速移動する減速区間Q3と、を含む複数の区間Qを有し、複数の区間Q毎に写像が求められており、予想画像生成ステップS4では、第2画像Px2を取得する時刻を含む区間Qの写像を用いて予想画像Pxiを生成する。これにより、より精度の高い予想画像Pxiを生成することができる。
また、前述したように、予想画像生成ステップS4では、把持動作中のロボット2の状態量に基づいて区間Qを判断する。状態量に基づけば、区間Qを容易かつ正確に判断することができる。
また、前述したように、ロボットシステム1に適用される滑り判定システムは、ロボット2が対象物であるワークWを把持した状態で動作する把持動作中にワークWを含む第1画像Px1を取得し、第1画像Px1を取得した後に、把持動作中にワークWを含む第2画像Px2を取得し、ワークWの把持滑りが生じていない把持動作中に連続して取得した複数の画像Pxに基づいて予め求められた写像と、第1画像Px1と、に基づいて第2画像Px2の予想画像Pxiを生成し、第2画像Px2と予想画像Pxiとを比較してワークWの把持滑りが発生しているかを判断する。
このような滑り判定システムによれば、カメラ24で取得した画像Pxに基づいて把持滑りを検出するため、従来のような力センサーを用いる構成と比較してロボットシステム1の低コスト化を図ることができる。また、画像Px中の物体を認識する必要がなく、特徴点の設定も不要である。そのため、画像認識等の専門知識がなくても容易に取り扱うことができる。画像認識が不要であることから、画像Px中のエンドエフェクター23やワークWの一部が隠れてしまっても、その影響を受け難く、把持滑りを精度よく検出することができる。
また、前述したように、滑り判定プログラムPPは、ロボット2を備えるロボットシステム1に、ロボット2が対象物であるワークWを把持した状態で動作する把持動作中にワークWを含む第1画像Px1を取得する第1画像取得ステップS2と、第1画像取得ステップS2の後に、把持動作中にワークWを含む第2画像Px2を取得する第2画像取得ステップS3と、ワークWの把持滑りが生じていない把持動作中に連続して取得した複数の画像Pxに基づいて予め求められた写像と、第1画像Px1と、に基づいて第2画像Px2の予想画像Pxiを生成する予想画像生成ステップS4と、第2画像Px2と予想画像Pxiとを比較して把持滑りが発生しているかを判断する判断ステップS5と、を実行させる。
このような滑り判定プログラムPPによれば、カメラ24で取得した画像Pxに基づいて把持滑りを検出するため、従来のような力センサーを用いる構成と比較してロボットシステム1の低コスト化を図ることができる。また、画像Px中の物体を認識する必要がなく、特徴点の設定も不要である。そのため、画像認識等の専門知識がなくても容易に取り扱うことができる。画像認識が不要であることから、画像Px中のエンドエフェクター23やワークWの一部が隠れてしまっても、その影響を受け難く、把持滑りを精度よく検出することができる。
以上、本発明の滑り判定方法、滑り判定システムおよび滑り判定プログラムを図示の実施形態に基づいて説明したが本発明はこれに限定されるものではない。各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、本発明に、他の任意の構成物が付加されていてもよい。
また、前述した実施形態では、第2画像取得ステップS3の後に予想画像生成ステップS4を行っているが、これらの順番は、特に限定されない。例えば、図10および図11に示すように、予想画像生成ステップS4を、第1画像取得ステップS2が行われた後、第2画像取得ステップS3に先立ってあるいは第2画像取得ステップS3と並行して行ってもよい。この場合は、最新の画像Pxが第1画像Px1となり、次に取得される未知の画像Pxが第2画像Px2となる。このような方法によっても前述した実施形態と同様の効果を図ることができる。また、第2画像Px2の取得を待つことなく第2画像Px2の予想画像Pxiを生成することができるため、把持滑りの検出をより早期に行うことができる。
1…ロボットシステム、2…ロボット、21…基台、22…ロボットアーム、221…アーム、222…アーム、223…アーム、224…アーム、225…アーム、226…アーム、23…エンドエフェクター、24…カメラ、3…制御装置、31…記憶部、32…予想画像生成部、33…判定部、E…エンコーダー、J1…関節、J2…関節、J3…関節、J4…関節、J5…関節、J6…関節、M…モーター、PP…滑り判定プログラム、Px…画像、Px1…第1画像、Px2…第2画像、Pxi…予想画像、Q…区間、Q1…加速区間、Q2…定速区間、Q3…減速区間、S1…把持動作開始ステップ、S2…第1画像取得ステップ、S3…第2画像取得ステップ、S4…予想画像生成ステップ、S41…ステップ、S42…ステップ、S43…ステップ、S5…判断ステップ、S51…ステップ、S52…ステップ、S6…対応動作ステップ、S61…ステップ、S62…ステップ、W…ワーク
Claims (9)
- ロボットが対象物を把持した状態で動作する把持動作中に前記対象物を含む第1画像を取得する第1画像取得ステップと、
前記第1画像取得ステップの後に、前記把持動作中に前記対象物を含む第2画像を取得する第2画像取得ステップと、
前記対象物の把持滑りが生じていない前記把持動作中に連続して取得した複数の画像に基づいて予め求められた写像と、前記第1画像と、に基づいて前記第2画像の予想画像を生成する予想画像生成ステップと、
前記第2画像と前記予想画像とを比較して前記対象物の把持滑りが発生しているかを判断する判断ステップと、を含むことを特徴とする滑り判定方法。 - 前記判断ステップでは、前記第2画像と前記予想画像との類似度を算出し、前記類似度と予め設定された閾値との関係に基づいて前記把持滑りが発生しているかを判断する請求項1に記載の滑り判定方法。
- 前記閾値は、互いに同時刻に取得した前記把持滑りが生じていない第1参考画像、前記把持滑りが生じている第2参考画像および前記予想画像に基づいて決定する請求項2に記載の滑り判定方法。
- 前記第2参考画像は、把持動作中に前記把持滑りを発生させて取得する請求項3に記載の滑り判定方法。
- 前記第2参考画像は、前記把持動作で定められた把持位置からずれた位置で前記対象物を把持した状態で前記把持動作を行うことにより取得する請求項3に記載の滑り判定方法。
- 前記把持動作は、前記対象物が加速移動する加速区間と、前記対象物が減速移動する減速区間と、を含む複数の区間を有し、
複数の前記区間毎に前記写像が求められており、
前記予想画像生成ステップでは、前記第2画像を取得する時刻を含む前記区間の前記写像を用いて前記予想画像を生成する請求項1に記載の滑り判定方法。 - 予想画像生成ステップでは、前記把持動作中の前記ロボットの状態量に基づいて前記区間を判断する請求項6に記載の滑り判定方法。
- ロボットが対象物を把持した状態で動作する把持動作中に前記対象物を含む第1画像を取得し、
前記第1画像を取得した後に、前記把持動作中に前記対象物を含む第2画像を取得し、
前記対象物の把持滑りが生じていない前記把持動作中に連続して取得した複数の画像に基づいて予め求められた写像と、前記第1画像と、に基づいて前記第2画像の予想画像を生成し、
前記第2画像と前記予想画像とを比較して前記対象物の把持滑りが発生しているかを判断することを特徴とする滑り判定システム。 - ロボットを備えるロボットシステムに、
前記ロボットが対象物を把持した状態で動作する把持動作中に前記対象物を含む第1画像を取得する第1画像取得ステップと、
前記第1画像取得ステップの後に、前記把持動作中に前記対象物を含む第2画像を取得する第2画像取得ステップと、
前記対象物の把持滑りが生じていない前記把持動作中に連続して取得した複数の画像に基づいて予め求められた写像と、前記第1画像と、に基づいて前記第2画像の予想画像を生成する予想画像生成ステップと、
前記第2画像と前記予想画像とを比較して前記対象物の把持滑りが発生しているかを判断する判断ステップと、を実行させることを特徴とする滑り判定プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022120364A JP2024017611A (ja) | 2022-07-28 | 2022-07-28 | 滑り判定方法、滑り判定システムおよび滑り判定プログラム |
CN202310934725.7A CN117464664A (zh) | 2022-07-28 | 2023-07-27 | 打滑判定方法、打滑判定系统以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022120364A JP2024017611A (ja) | 2022-07-28 | 2022-07-28 | 滑り判定方法、滑り判定システムおよび滑り判定プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024017611A true JP2024017611A (ja) | 2024-02-08 |
Family
ID=89626393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022120364A Pending JP2024017611A (ja) | 2022-07-28 | 2022-07-28 | 滑り判定方法、滑り判定システムおよび滑り判定プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024017611A (ja) |
CN (1) | CN117464664A (ja) |
-
2022
- 2022-07-28 JP JP2022120364A patent/JP2024017611A/ja active Pending
-
2023
- 2023-07-27 CN CN202310934725.7A patent/CN117464664A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN117464664A (zh) | 2024-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9073210B2 (en) | Information processing method, apparatus, and computer readable medium | |
US9694499B2 (en) | Article pickup apparatus for picking up randomly piled articles | |
US20180225113A1 (en) | Control device, robot, and robot system | |
US20180222057A1 (en) | Control device, robot, and robot system | |
US20090173560A1 (en) | Robot system | |
JP5895346B2 (ja) | ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム | |
JP5318727B2 (ja) | 情報処理方法及び装置並びにプログラム | |
JP2008200847A (ja) | ロボット把持制御装置及びロボット把持制御方法 | |
WO2020022302A1 (ja) | 把持装置 | |
JP3925020B2 (ja) | ロボットの制御装置 | |
JP2007098501A (ja) | ロボットシステム | |
JP2007011978A (ja) | ロボットの運動制御装置 | |
US20190126476A1 (en) | Robot system, robot controller, and method for withdrawing robot | |
JP7480600B2 (ja) | 目標力上限値設定方法およびロボットシステム | |
JP4228871B2 (ja) | ロボット把持制御装置及びロボット把持制御方法 | |
Debus et al. | Cooperative human and machine perception in teleoperated assembly | |
JP6217322B2 (ja) | ロボット制御装置、ロボット及びロボット制御方法 | |
CN111085993A (zh) | 与人进行协同作业的机器人系统以及机器人控制方法 | |
JP4600445B2 (ja) | ロボットハンド装置 | |
JP2024017611A (ja) | 滑り判定方法、滑り判定システムおよび滑り判定プログラム | |
JP2017077600A (ja) | マニピュレータ装置 | |
US20220134550A1 (en) | Control system for hand and control method for hand | |
JP3328414B2 (ja) | ロボットハンドの姿勢制御装置 | |
JP2016209936A (ja) | ロボット装置、ロボット制御方法、プログラム及び記録媒体 | |
JP2010236893A (ja) | 複数の物体間の相対移動を検出する方法 |