JP2007290056A - ロボットおよびその物体把持方法 - Google Patents
ロボットおよびその物体把持方法 Download PDFInfo
- Publication number
- JP2007290056A JP2007290056A JP2006118815A JP2006118815A JP2007290056A JP 2007290056 A JP2007290056 A JP 2007290056A JP 2006118815 A JP2006118815 A JP 2006118815A JP 2006118815 A JP2006118815 A JP 2006118815A JP 2007290056 A JP2007290056 A JP 2007290056A
- Authority
- JP
- Japan
- Prior art keywords
- target
- image
- camera
- robot
- robot arm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
【課題】 把持対象となる目標物が他の物体に隠されている場合でも、画像認識によって把持できる可能性を高める。
【解決手段】 把持対象物となる目標物を画像認識するためのカメラ1と、先端に物体把持機能を有するロボットアーム2と、物体のカメラ画像を記憶する記憶部3と、カメラによって取得した画像から目標物を認識してその位置を算出し、把持する位置へロボットアームに指令を与える処理部4とを備えたロボットにおいて、計測画像から目標物が認識されなかった場合は、計測画像内に他の記憶された物体の有無を判断し、目標物以外の物体がある場合はその物体をロボットアーム2にて移動させ、目標物の再認識処理を行う。
【選択図】図3
【解決手段】 把持対象物となる目標物を画像認識するためのカメラ1と、先端に物体把持機能を有するロボットアーム2と、物体のカメラ画像を記憶する記憶部3と、カメラによって取得した画像から目標物を認識してその位置を算出し、把持する位置へロボットアームに指令を与える処理部4とを備えたロボットにおいて、計測画像から目標物が認識されなかった場合は、計測画像内に他の記憶された物体の有無を判断し、目標物以外の物体がある場合はその物体をロボットアーム2にて移動させ、目標物の再認識処理を行う。
【選択図】図3
Description
本発明は、先端に物体把持機能を有するロボットアームを備えたロボットおよびその物体把持方法に関する。
従来の物体把持方法は、ロボット本体に取り付けられたカメラにより対象物を撮影して目標位置で参照画像として登録し、参照画像に対してロボット本体がアプローチする際に、対象物を認識することができなくなる位置をあらかじめ検出し、禁止領域として設定している(例えば、特許文献1参照)。
また、ロボット本体に取り付けたカメラにより対象物を撮影して目標位置まで位置姿勢を制御する際に、対象物の撮影と認識は可能だが、ロボット本体が衝突したり制御不能になるなどの制御に支障を来たす場合、これに備えて、その状態に相当する制限データを作成して制限データ記憶部に記憶設定しているものもある(例えば、特許文献2参照)。
他には、画像認識ユニットと、ロボットハンド制御ユニットと、複数のモータドライバとを有しているロボットハンドの把持制御装置において、画像認識ユニットが、物体上の目標接触点の座標を決定し、目標接触点における法線ベクトルを求める。ロボットハンド制御ユニットは、指先部上の任意点と物体上の各目標接触点との距離がゼロになると共に指先部上の任意点における法線ベクトルと物体上の各目標接触点における法線ベクトルとがほぼ一致するような目標関節角度を求め、その目標関節角度に応じた関節角度指令値を作成する。各モータドライバは、関節角度指令値に応じて各モータを駆動制御するという手段をとるものもある(例えば、特許文献3参照)。
また、ロボット本体に取り付けたカメラにより対象物を撮影して目標位置まで位置姿勢を制御する際に、対象物の撮影と認識は可能だが、ロボット本体が衝突したり制御不能になるなどの制御に支障を来たす場合、これに備えて、その状態に相当する制限データを作成して制限データ記憶部に記憶設定しているものもある(例えば、特許文献2参照)。
他には、画像認識ユニットと、ロボットハンド制御ユニットと、複数のモータドライバとを有しているロボットハンドの把持制御装置において、画像認識ユニットが、物体上の目標接触点の座標を決定し、目標接触点における法線ベクトルを求める。ロボットハンド制御ユニットは、指先部上の任意点と物体上の各目標接触点との距離がゼロになると共に指先部上の任意点における法線ベクトルと物体上の各目標接触点における法線ベクトルとがほぼ一致するような目標関節角度を求め、その目標関節角度に応じた関節角度指令値を作成する。各モータドライバは、関節角度指令値に応じて各モータを駆動制御するという手段をとるものもある(例えば、特許文献3参照)。
図7は、特許文献1の方法の処理手順を示すフローチャートである。図において、ステップS101ではロボット本体の位置をワークをモデル登録させる位置まで移動させる。ステップS102でこの状態でロボットのアーム部に取り付けられているカメラによりワークを撮影して画像を取得し、モデル登録を行う。次にロボット本体を移動させて、ワークに対してアプローチする可能性のある方向のすべてをチェックする。ロボット本体を移動させてその状態において画像を取得させ(ステップS103〜105)、ステップS106にて取得した画像がワークを認識可能であるか否かを判定する。ここで「YES」の場合にはステップS103に戻って他のアプローチ方法についても確認をすべく繰り返し実行し、「NO」の場合には撮影された画像をチェックして認識可能か否かを確認する(ステップS107、S108)。そして、確認結果が認識不能である場合には「NO」と判断してその領域を禁止領域として画像とともに登録し(ステップS109)、認識可能である場合にはモデルデータを再登録する(ステップS110)。
図8は、特許文献2の方法の処理手順を示すフローチャートである。図において、ステップS201にてロボット本体を検出動作を開始する検出位置に移動させ、ステップS202にてワークの画像をロボットのアーム部に取り付けられているカメラにより撮影して取得する。撮影した画像中にワークが存在しているか否かをステップS203にて判断し、「NO」の場合にはステップ202、S203を繰り返し実行する。そして、ステップS203で「YES」の場合にはロボットの制御装置はビジュアルサーボによる位置姿勢の制御を開始して、検出位置を移動して目標位置まで移動するようにロボット本体を駆動制御する(ステップS204)。この後、制御装置はロボット本体が目標位置に達したか否かをロボットアームに取り付けられたカメラによる撮影画像に基づいて適宜のタイミングで判断し(ステップ205)、ステップS206にて目標位置に達していない場合には現在位置と距離を計算すると共に、センサの検出信号を入力する。次に、制御装置2はロボット本体の現在位置から目的位置に向かう軌道をビジュアルサーボによる制御方法に基づいて生成したときに、その生成された軌道が制限データに該当するか否かをステップS207にて判断する。ここで「YES」の場合つまり制限がある場合に該当するときには、ワークの参照画像であるモデルの切り替えが必要か否かをステップS208にて判断し、「YES」の場合にはモデル切り替えを行って(ステップS209)、この後制限機能をオンさせる(ステップ210)。これにより、制御装置は制限機能つまり制限データ国分に記憶されている制限データに基づいてビジュアルサーボの位置姿勢制御に基づいた軌道を修正して移動制御をおこなう。
図9は、特許文献3の方法の処理手順を示すフローチャートである。図において、ロボットハンドの把持制御装置307は、画像認識ユニット310と、ロボットハンド制御ユニット311と、複数のモータドライバ312とを有している。画像認識ユニット310は、物体上の目標接触点の座標を決定し、目標接触点における法線ベクトルを求める。ロボットハンド制御ユニット311は、指先部上の任意点と物体上の各目標接触点との距離がゼロになると共に指先部上の任意点における法線ベクトルと物体上の各目標接触点における法線ベクトルとがほぼ一致するような目標関節角度を求め、その目標関節角度に応じた関節角度指令値を作成する。各モータドライバ312は、関節角度指令値に応じて各モータ305を駆動制御する。
このように、従来のロボットの物体把持方法では、把持対象物となる目標物が隠されてしまっている場合は、ロボットアームの目標関節角度を求める事ができず、物体を把持する事ができない。
特開2003−305675号公報(第3−6頁、図3)
特開2003−311674号公報(第4−7頁、図3)
特開2005−7486号公報 (第5−7頁、図1)
このように、従来のロボットの物体把持方法では、把持対象物となる目標物が隠されてしまっている場合は、ロボットアームの目標関節角度を求める事ができず、物体を把持する事ができない。
従来の物体把持方法では、対象物を認識できなくなる位置を禁止領域として設定しているので、複数の対象物が置かれた場合、およびロボット本体の制御に支障を来たす姿勢になる場合に制限データを記憶設定させる方法の場合は、設定が複雑になり、また対象物の置き方によっては把持が不可能と設定された領域でも実際は対象物が把持できる可能性があり、作業効率が著しく低下するという問題があった。また、物体上の目標接触点の座標を決定し、目標接触点における法線ベクトルを求める場合は把持対象物となる目標物が隠れてしまっている場合は、目標関節角度を求める事ができないという問題もあった。
本発明はこのような問題点に鑑みてなされたものであり、複数の物体が設置され、目標物が隠れている場合でも把持できる可能性を高くすることができる方法を提供することを目的とする。
本発明はこのような問題点に鑑みてなされたものであり、複数の物体が設置され、目標物が隠れている場合でも把持できる可能性を高くすることができる方法を提供することを目的とする。
上記問題を解決するため、本発明は、次のようにしたのである。
請求項1に記載の発明は、先端に物体把持手段を有するロボットアームと、把持対象となる目標物と前記目標物以外の物体である障害物の画像とを記憶する記憶部と、前記目標物を撮影するためのカメラと、前記カメラにより撮影された前記目標物の画像と前記記憶部に予め記憶された前記目標物のカメラ画像とから前記目標物の位置を算出し、前記ロボットアーム先端を把持位置へ移動させる指令を与える処理部と、を備えたロボットにおいて、前記カメラの撮影画像から前記目標物が認識されなかった場合は、前記記憶部に記憶された障害物の有無を判断し、前記障害物が認識された場合は、前記障害物を前記ロボットアームにて退避させ、再度、前記目標物の画像認識処理を行う第1のステップを含むことを特徴とするものである。
請求項2に記載の発明は、前記第1のステップを実行した後、前記目標物が認識されない場合は、前記退避した物体を元の位置に戻すステップを含むことを特徴とするものである。
請求項3に記載の発明は、先端に物体把持手段を有するロボットアームと、把持対象となる目標物と前記目標物以外の物体である障害物の画像とを記憶する記憶部と、前記目標物を撮影するためのカメラと、前記カメラにより撮影された前記目標物の画像と前記記憶部に予め記憶された前記目標物のカメラ画像とから前記目標物の位置を算出し、前記ロボットアーム先端を把持位置へ移動させる指令を与える処理部と、任意の場所に移動するための移動機構と、を備えたロボットにおいて、前記カメラの撮影画像から前記目標物が認識されなかった場合は、前記移動機構によって位置を変え、再度、前記目標物の画像認識処理を行う第2のステップを含む
ことを特徴とするものである。
請求項4に記載の発明は、先端に物体把持手段を有するロボットアームと、把持対象となる目標物と前記目標物以外の物体である障害物の画像とを記憶する記憶部と、前記目標物を撮影するためのカメラと、前記カメラにより撮影された前記目標物の画像と前記記憶部に予め記憶された前記目標物のカメラ画像とから前記目標物の位置を算出し、前記ロボットアーム先端を把持位置へ移動させる指令を与える処理部と、任意の場所に移動するための移動機構と、を備えたロボットにおいて、前記カメラの撮影画像から前記目標物が認識されなかった場合は、前記記憶部に記憶された障害物を前記ロボットアームにて退避させ、再度、前記目標物の画像認識処理を行う第1のステップと、前記カメラの撮影画像から前記目標物が認識されなかった場合は、前記移動機構によって位置を変え、再度、前記目標物の画像認識処理を行う第2のステップと、を含む
ことを特徴とするものである。
請求項5に記載の発明は、先端に物体把持手段を有するロボットアームと、把持対象となる目標物と前記目標物以外の物体である障害物の画像とを記憶する記憶部と、前記目標物を撮影するためのカメラと、前記カメラにより撮影された前記目標物の画像と前記記憶部に予め記憶された前記目標物のカメラ画像とから前記目標物の位置を算出し、前記ロボットアーム先端を把持位置へ移動させる指令を与える処理部と、を備えたロボットにおいて、前記カメラの撮影画像から前記目標物が認識されなかった場合は、前記記憶部に記憶された障害物の有無を判断し、前記障害物が認識された場合は、前記障害物を前記ロボットアームにて退避させ、再度、前記目標物の画像認識処理を行う第1の手段を備えたことを特徴とするものである。
請求項6に記載の発明は、前記第1の手段が処理を行った後、前記目標物が認識されない場合は、前記退避した物体を元の位置に戻す手段を備えたことを特徴とするものである。
請求項7に記載の発明は、先端に物体把持手段を有するロボットアームと、把持対象となる目標物と前記目標物以外の物体である障害物の画像とを記憶する記憶部と、前記目標物を撮影するためのカメラと、前記カメラにより撮影された前記目標物の画像と前記記憶部に予め記憶された前記目標物のカメラ画像とから前記目標物の位置を算出し、前記ロボットアーム先端を把持位置へ移動させる指令を与える処理部と、任意の場所に移動するための移動機構と、を備えたロボットにおいて、前記カメラの撮影画像から前記目標物が認識されなかった場合は、前記移動機構によって前記ロボットの位置を変え、再度、前記目標物の画像認識処理を行う第2の手段を備えたことを特徴とするものである。
請求項8に記載の発明は、先端に物体把持手段を有するロボットアームと、把持対象となる目標物と前記目標物以外の物体である障害物の画像とを記憶する記憶部と、前記目標物を撮影するためのカメラと、
前記カメラにより撮影された前記目標物の画像と前記記憶部に予め記憶された前記目標物のカメラ画像とから前記目標物の位置を算出し、前記ロボットアーム先端を把持位置へ移動させる指令を与える処理部と、任意の場所に移動するための移動機構と、を備えたロボットにおいて、前記カメラの撮影画像から前記目標物が認識されなかった場合は、前記記憶部に記憶された障害物を前記ロボットアームにて退避させ、再度、前記目標物の画像認識処理を行う第1の手段と、前記カメラの撮影画像から前記目標物が認識されなかった場合は、前記移動機構によって前記ロボットの位置を変え、再度、前記目標物の画像認識処理を行う第2の手段と、を備えたことを特徴とするものである。
請求項1に記載の発明は、先端に物体把持手段を有するロボットアームと、把持対象となる目標物と前記目標物以外の物体である障害物の画像とを記憶する記憶部と、前記目標物を撮影するためのカメラと、前記カメラにより撮影された前記目標物の画像と前記記憶部に予め記憶された前記目標物のカメラ画像とから前記目標物の位置を算出し、前記ロボットアーム先端を把持位置へ移動させる指令を与える処理部と、を備えたロボットにおいて、前記カメラの撮影画像から前記目標物が認識されなかった場合は、前記記憶部に記憶された障害物の有無を判断し、前記障害物が認識された場合は、前記障害物を前記ロボットアームにて退避させ、再度、前記目標物の画像認識処理を行う第1のステップを含むことを特徴とするものである。
請求項2に記載の発明は、前記第1のステップを実行した後、前記目標物が認識されない場合は、前記退避した物体を元の位置に戻すステップを含むことを特徴とするものである。
請求項3に記載の発明は、先端に物体把持手段を有するロボットアームと、把持対象となる目標物と前記目標物以外の物体である障害物の画像とを記憶する記憶部と、前記目標物を撮影するためのカメラと、前記カメラにより撮影された前記目標物の画像と前記記憶部に予め記憶された前記目標物のカメラ画像とから前記目標物の位置を算出し、前記ロボットアーム先端を把持位置へ移動させる指令を与える処理部と、任意の場所に移動するための移動機構と、を備えたロボットにおいて、前記カメラの撮影画像から前記目標物が認識されなかった場合は、前記移動機構によって位置を変え、再度、前記目標物の画像認識処理を行う第2のステップを含む
ことを特徴とするものである。
請求項4に記載の発明は、先端に物体把持手段を有するロボットアームと、把持対象となる目標物と前記目標物以外の物体である障害物の画像とを記憶する記憶部と、前記目標物を撮影するためのカメラと、前記カメラにより撮影された前記目標物の画像と前記記憶部に予め記憶された前記目標物のカメラ画像とから前記目標物の位置を算出し、前記ロボットアーム先端を把持位置へ移動させる指令を与える処理部と、任意の場所に移動するための移動機構と、を備えたロボットにおいて、前記カメラの撮影画像から前記目標物が認識されなかった場合は、前記記憶部に記憶された障害物を前記ロボットアームにて退避させ、再度、前記目標物の画像認識処理を行う第1のステップと、前記カメラの撮影画像から前記目標物が認識されなかった場合は、前記移動機構によって位置を変え、再度、前記目標物の画像認識処理を行う第2のステップと、を含む
ことを特徴とするものである。
請求項5に記載の発明は、先端に物体把持手段を有するロボットアームと、把持対象となる目標物と前記目標物以外の物体である障害物の画像とを記憶する記憶部と、前記目標物を撮影するためのカメラと、前記カメラにより撮影された前記目標物の画像と前記記憶部に予め記憶された前記目標物のカメラ画像とから前記目標物の位置を算出し、前記ロボットアーム先端を把持位置へ移動させる指令を与える処理部と、を備えたロボットにおいて、前記カメラの撮影画像から前記目標物が認識されなかった場合は、前記記憶部に記憶された障害物の有無を判断し、前記障害物が認識された場合は、前記障害物を前記ロボットアームにて退避させ、再度、前記目標物の画像認識処理を行う第1の手段を備えたことを特徴とするものである。
請求項6に記載の発明は、前記第1の手段が処理を行った後、前記目標物が認識されない場合は、前記退避した物体を元の位置に戻す手段を備えたことを特徴とするものである。
請求項7に記載の発明は、先端に物体把持手段を有するロボットアームと、把持対象となる目標物と前記目標物以外の物体である障害物の画像とを記憶する記憶部と、前記目標物を撮影するためのカメラと、前記カメラにより撮影された前記目標物の画像と前記記憶部に予め記憶された前記目標物のカメラ画像とから前記目標物の位置を算出し、前記ロボットアーム先端を把持位置へ移動させる指令を与える処理部と、任意の場所に移動するための移動機構と、を備えたロボットにおいて、前記カメラの撮影画像から前記目標物が認識されなかった場合は、前記移動機構によって前記ロボットの位置を変え、再度、前記目標物の画像認識処理を行う第2の手段を備えたことを特徴とするものである。
請求項8に記載の発明は、先端に物体把持手段を有するロボットアームと、把持対象となる目標物と前記目標物以外の物体である障害物の画像とを記憶する記憶部と、前記目標物を撮影するためのカメラと、
前記カメラにより撮影された前記目標物の画像と前記記憶部に予め記憶された前記目標物のカメラ画像とから前記目標物の位置を算出し、前記ロボットアーム先端を把持位置へ移動させる指令を与える処理部と、任意の場所に移動するための移動機構と、を備えたロボットにおいて、前記カメラの撮影画像から前記目標物が認識されなかった場合は、前記記憶部に記憶された障害物を前記ロボットアームにて退避させ、再度、前記目標物の画像認識処理を行う第1の手段と、前記カメラの撮影画像から前記目標物が認識されなかった場合は、前記移動機構によって前記ロボットの位置を変え、再度、前記目標物の画像認識処理を行う第2の手段と、を備えたことを特徴とするものである。
請求項1、5に記載の発明によると、目標物が他の物体に埋まっている場合でも、目標物を隠している物体を移動させる事により、目標物の画像認識が可能になり、1回の画像認識で目標物が認識されない場合でも、目標物の把持が可能になる。
また、請求項3、7に記載の発明によると、目標物への視点を変える事により別の角度から目標物を画像認識し、アプローチすることができる。
また、請求項4、8に記載の発明によると、様々な方法で目標物を探すことで把持できる可能性を高めることができる。
また、請求項2、6に記載の発明によると、目標物が把持できなかった場合でも、物体の離散を防止することができる。
また、請求項3、7に記載の発明によると、目標物への視点を変える事により別の角度から目標物を画像認識し、アプローチすることができる。
また、請求項4、8に記載の発明によると、様々な方法で目標物を探すことで把持できる可能性を高めることができる。
また、請求項2、6に記載の発明によると、目標物が把持できなかった場合でも、物体の離散を防止することができる。
以下、本発明の方法の具体的実施例について、図に基づいて説明する。
図1は、本発明の方法を実施する先端に物体把持機能を有するロボットアームを備えたロボットの構成を示す全体構成図である。図1において1はカメラ、2は先端に物体把持機能を有するロボットアーム、3は記憶部、4は処理部、5はロボットとなっている。そして前記カメラ1により目標物を撮影し、認識された目標物と前記記憶部3に記憶された後述する目標物21の基準位置との誤差を前記処理部4にて算出し、その算出結果から前記ロボットアーム2の先端に備わった物体把持機構が目標物を把持できる姿勢に前記ロボットアーム2がなるよう、前記処理部4が前記ロボットアーム2へ指令を与える。この処理において前記カメラ1によって撮影された画像から目標物が認識されなかった場合、撮影された画像の中に既に撮影された物体が前記記憶部3にあるか前記処理部4が判断し、既に撮影された目標物以外の物体があった場合は、その目標物以外の物体を前記ロボットアーム2によって退避させるように前記処理部4より前記ロボットアーム2に指令を与え、目標物以外の物体が退避された後に、再び前記カメラ1によって目標物の画像認識を試みる。このように目標物が画像認識できない場合でも、目標物を隠している物体が既に記憶されていて退避が可能な場合は、諦める事なく、大掛かりな作業をせずに目標物を把持する可能性を高めることができる。
図2は先端に物体把持機能を有するロボットアームを備えたロボットの目標物の設置例を示す概略図である。また、図3は先端に物体把持機能を有するロボットアームを備えたロボットにおいて物体を把持する処理手順を示すフローチャートである。これらの図を用いて本発明の方法を順を追って説明する。
図2において21は把持対象となる目標物、22は目標物を隠している目標物以外の物体A(障害物A)、23は目標物を隠している目標物以外の物体B(障害物B)である。
はじめにstep1で前記カメラ1により目標物を撮影すると、前記処理部4にて画像処理を行う。次にstep2で前記記憶部3に予め保存されている物体の画像データを読み込み、step3にて前記処理部4がstep1で取得した画像データとstep2で読み込んだ物体の画像データを比較し、前記目標物21が前記ロボットアーム2の把持可能範囲内に存在するか判断する。そして、前記目標物21が前記ロボットアーム2の把持可能範囲内に存在すると認識された場合はstep4へ進み前記ロボットアーム2によって前記目標物21を把持する。前記目標物21が前記ロボットアーム2の把持可能範囲内に存在しないと認識された場合はstep5へ進み、前記記憶部3に保存されている物体の画像データを読み込む。そして、step6に進み、step1で取得された画像内に前記記憶部3に予め保存されている物体の存在の有無を判断し、図2に示した前記物体A22のデータが前記記憶部3に存在し、前記ロボットアーム2にて把持可能範囲内にあると前記処理部2が判断した場合はstep7に進み、前記物体A22のデータが前記記憶部3に存在しない場合は前記目標物21の把持を諦め、処理終了となる。Step7に進んだ場合は、認識された目標物以外の物体(前記物体A22)を前記ロボットアーム2などによって退避させ、再びstep1からの処理を行う。
図2において21は把持対象となる目標物、22は目標物を隠している目標物以外の物体A(障害物A)、23は目標物を隠している目標物以外の物体B(障害物B)である。
はじめにstep1で前記カメラ1により目標物を撮影すると、前記処理部4にて画像処理を行う。次にstep2で前記記憶部3に予め保存されている物体の画像データを読み込み、step3にて前記処理部4がstep1で取得した画像データとstep2で読み込んだ物体の画像データを比較し、前記目標物21が前記ロボットアーム2の把持可能範囲内に存在するか判断する。そして、前記目標物21が前記ロボットアーム2の把持可能範囲内に存在すると認識された場合はstep4へ進み前記ロボットアーム2によって前記目標物21を把持する。前記目標物21が前記ロボットアーム2の把持可能範囲内に存在しないと認識された場合はstep5へ進み、前記記憶部3に保存されている物体の画像データを読み込む。そして、step6に進み、step1で取得された画像内に前記記憶部3に予め保存されている物体の存在の有無を判断し、図2に示した前記物体A22のデータが前記記憶部3に存在し、前記ロボットアーム2にて把持可能範囲内にあると前記処理部2が判断した場合はstep7に進み、前記物体A22のデータが前記記憶部3に存在しない場合は前記目標物21の把持を諦め、処理終了となる。Step7に進んだ場合は、認識された目標物以外の物体(前記物体A22)を前記ロボットアーム2などによって退避させ、再びstep1からの処理を行う。
図2に示すように前記物体A22を退避させた後でも、前記目標物21の手前に前記物体B23が存在し、前記目標物21が画像認識できない場合は、step7からstep1へ進んだ後にstep2→step3→step5→step6と進み、前記物体B23のデータが前記記憶部3に存在する場合には前記物体B23を退避させ、前記物体B23のデータが前記記憶部3に存在しない場合には前記目標物21の把持を諦めて処理終了となる。
なお、図2では前記目標物21を隠す物体が2個の場合を示しているが、3個以上の場合も同様の手順をとる。
このように、目標物を隠している物体の画像認識をしてからその物体が把持可能な場合は退避させる作業をするので、煩雑に物が配置されている場合でも目標物を探し出す可能性を高めることができるのである。
なお、図2では前記目標物21を隠す物体が2個の場合を示しているが、3個以上の場合も同様の手順をとる。
このように、目標物を隠している物体の画像認識をしてからその物体が把持可能な場合は退避させる作業をするので、煩雑に物が配置されている場合でも目標物を探し出す可能性を高めることができるのである。
図4は実施例2の処理手順を示すフローチャートである。この処理手順において、step201、202、203、204、209、210、211はそれぞれ図3におけるstep1、2、3、4、5、6、7と同じである。
前記ロボット5に図1に示したような任意の場所に移動するための移動機構6が備わっている場合にStep203(step3)において前記カメラ1にて取得された画像内で前記目標物21が認識できないと前記処理部4が判断した場合、step205へ進み前記移動機構6にて前記ロボット5の視線を変化させる。そして、再び前記目標物21の方向に向き前記カメラ1にて画像を取得し(step206)、前記処理部4にて再取得された画像から前記記憶部3に予め保存されている前記目標物21のデータと比較して(step207)、視線が変わった事によって前記目標物21が認識できるようになったかを判断する(step208)。そして、前記目標物21が前記ロボットアーム2の把持可能範囲内に存在すると認識された場合はstep204(step4)へ進み前記ロボットアーム2によって前記目標物21を把持する。前記目標物21が前記ロボットアーム2の把持可能範囲内に存在しないと認識された場合はstep209(step5)へ進み、前記記憶部3に予め保存されている物体の画像データを読み込む。そして、step210(step6)に進み、step206で取得された画像内に前記記憶部3に予め保存されている物体の存在の有無を判断し、図2に示した前記物体A22のデータが前記記憶部3に存在し、前記ロボットアーム2にて把持可能範囲内にあると前記処理部2が判断した場合はstep211(step7)に進み、前記物体A22のデータが前記記憶部3に存在しない場合は前記目標物21の把持を諦め、処理終了となる。Step211(Step7)に進んだ場合は、認識された目標物以外の物体(前記物体A22)を前記ロボットアーム2などによって退避させ、再びstep206からの処理を行う。
前記ロボット5に図1に示したような任意の場所に移動するための移動機構6が備わっている場合にStep203(step3)において前記カメラ1にて取得された画像内で前記目標物21が認識できないと前記処理部4が判断した場合、step205へ進み前記移動機構6にて前記ロボット5の視線を変化させる。そして、再び前記目標物21の方向に向き前記カメラ1にて画像を取得し(step206)、前記処理部4にて再取得された画像から前記記憶部3に予め保存されている前記目標物21のデータと比較して(step207)、視線が変わった事によって前記目標物21が認識できるようになったかを判断する(step208)。そして、前記目標物21が前記ロボットアーム2の把持可能範囲内に存在すると認識された場合はstep204(step4)へ進み前記ロボットアーム2によって前記目標物21を把持する。前記目標物21が前記ロボットアーム2の把持可能範囲内に存在しないと認識された場合はstep209(step5)へ進み、前記記憶部3に予め保存されている物体の画像データを読み込む。そして、step210(step6)に進み、step206で取得された画像内に前記記憶部3に予め保存されている物体の存在の有無を判断し、図2に示した前記物体A22のデータが前記記憶部3に存在し、前記ロボットアーム2にて把持可能範囲内にあると前記処理部2が判断した場合はstep211(step7)に進み、前記物体A22のデータが前記記憶部3に存在しない場合は前記目標物21の把持を諦め、処理終了となる。Step211(Step7)に進んだ場合は、認識された目標物以外の物体(前記物体A22)を前記ロボットアーム2などによって退避させ、再びstep206からの処理を行う。
図2に示すように前記物体A22を退避させた後でも、前記目標物21の手前に前記物体B23が存在し、前記目標物21が画像認識できない場合は、step211からstep206へ進んだ後にstep207→step207→step208→step209と進み、前記物体B23のデータが前記記憶部3に存在する場合には前記物体B23を退避させ、前記物体B23のデータが前記記憶部3に存在しない場合には前記目標物21の把持を諦めて処理終了となる。
なお、図2では前記目標物21を隠す物体が2個の場合を示しているが、3個以上の場合も同様の手順をとる。また、step211の後のstepは、前記処理部4で目標物の認識後に前記移動機構6で前記ロボット5の視線を変えて画像認識のリトライを繰り返す回数に応じてstep201またはstep206に決定される。
なお、図2では前記目標物21を隠す物体が2個の場合を示しているが、3個以上の場合も同様の手順をとる。また、step211の後のstepは、前記処理部4で目標物の認識後に前記移動機構6で前記ロボット5の視線を変えて画像認識のリトライを繰り返す回数に応じてstep201またはstep206に決定される。
このように、目標物の画像認識に失敗しても移動機構を利用して視線を変化させ、別の視線から目標物の画像認識を再試行するので、煩雑に物が配置されている場合でも目標物を探し出す可能性を高めることができるのである。
図5は実施例3の処理手順を示すフローチャートである。この処理手順において、
step301、302、303、304、305、306、307はそれぞれ図3におけるstep1、2、3、4、5、6、7、と同じである。また、step308は図4におけるstep205と同じである。また、step309、310、311、312、313、314はそれぞれ、図3におけるstep1、2、3、5、6、7または図4におけるstep206、207、208、209、210、211と同じである。
前記ロボット5に図1に示したような移動機構6が備わっている場合にStep306(step6)において前記カメラ1にて取得された画像内に前記目標物21を隠している前記対象物以外の物体A22が認識できないと前記処理部4が判断した場合、step308(step205)へ進み前記移動機構6にて前記ロボット5の視線を変化させる。そして、再び前記目標物21の方向に向き前記カメラ1にて画像を取得し(step309)、前記処理部4にて再取得された画像から前記記憶部3に予め保存している前記目標物21のデータと比較して(step310)、視線が変わった事によって前記目標物21が認識できるようになったかを判断する(step311)。そして、前記目標物21が前記ロボットアーム2の把持可能範囲内に存在すると認識された場合はstep304(step4)へ進み前記ロボットアーム2によって前記目標物21を把持する。前記目標物21が前記ロボットアーム2の把持可能範囲内に存在しないと認識された場合はstep312へ進み、前記記憶部3に保存されている物体の画像データを読み込む。そして、step313(step6)に進み、step309で取得された画像内に前記記憶部3に予め保存されている物体の存在の有無を判断し、図2に示した前記物体A22のデータが前記記憶部3に存在し、前記ロボットアーム2にて把持可能範囲内にあると前記処理部2が判断した場合はstep314(step7)に進み、前記物体A22のデータが前記記憶部3に存在しない場合は前記目標物21の把持を諦め、処理終了となる。Step314(Step7)に進んだ場合は、認識された目標物以外の物体(前記物体A22)を前記ロボットアーム2などによって退避させ、再びstep309からの処理を行う。
step301、302、303、304、305、306、307はそれぞれ図3におけるstep1、2、3、4、5、6、7、と同じである。また、step308は図4におけるstep205と同じである。また、step309、310、311、312、313、314はそれぞれ、図3におけるstep1、2、3、5、6、7または図4におけるstep206、207、208、209、210、211と同じである。
前記ロボット5に図1に示したような移動機構6が備わっている場合にStep306(step6)において前記カメラ1にて取得された画像内に前記目標物21を隠している前記対象物以外の物体A22が認識できないと前記処理部4が判断した場合、step308(step205)へ進み前記移動機構6にて前記ロボット5の視線を変化させる。そして、再び前記目標物21の方向に向き前記カメラ1にて画像を取得し(step309)、前記処理部4にて再取得された画像から前記記憶部3に予め保存している前記目標物21のデータと比較して(step310)、視線が変わった事によって前記目標物21が認識できるようになったかを判断する(step311)。そして、前記目標物21が前記ロボットアーム2の把持可能範囲内に存在すると認識された場合はstep304(step4)へ進み前記ロボットアーム2によって前記目標物21を把持する。前記目標物21が前記ロボットアーム2の把持可能範囲内に存在しないと認識された場合はstep312へ進み、前記記憶部3に保存されている物体の画像データを読み込む。そして、step313(step6)に進み、step309で取得された画像内に前記記憶部3に予め保存されている物体の存在の有無を判断し、図2に示した前記物体A22のデータが前記記憶部3に存在し、前記ロボットアーム2にて把持可能範囲内にあると前記処理部2が判断した場合はstep314(step7)に進み、前記物体A22のデータが前記記憶部3に存在しない場合は前記目標物21の把持を諦め、処理終了となる。Step314(Step7)に進んだ場合は、認識された目標物以外の物体(前記物体A22)を前記ロボットアーム2などによって退避させ、再びstep309からの処理を行う。
図2に示すように前記物体A22を退避させた後でも、前記目標物21の手前に前記物体B23が存在し、前記目標物21が画像認識できない場合は、step314からstep309へ進んだ後にstep310→step311→step312→step313と進み、前記物体B23のデータが前記記憶部3に存在する場合には前記物体B23を退避させ、前記物体B23のデータが前記記憶部3に存在しない場合には前記目標物21の把持を諦めて処理終了となる。
なお、図2では前記目標物21を隠す物体が2個の場合を示しているが、3個以上の場合も同様の手順をとる。また、step314の後のstepは前記処理部4で目標物の認識後に前記移動機構6で前記ロボット5の視線を変えて画像認識のリトライを繰り返す回数に応じてstep301またはstep309に決定される。
なお、図2では前記目標物21を隠す物体が2個の場合を示しているが、3個以上の場合も同様の手順をとる。また、step314の後のstepは前記処理部4で目標物の認識後に前記移動機構6で前記ロボット5の視線を変えて画像認識のリトライを繰り返す回数に応じてstep301またはstep309に決定される。
このように、目標物を隠している物体の画像認識に失敗して移動機構を利用して視線を変化させ、別の視線から目標物および目標物を隠している物体の画像認識を再試行するので、煩雑に物が配置されている場合でも目標物を探し出す可能性を高めることができるのである。
図6は実施例4の処理手順を示すフローチャートである。この処理手順において、step401および408、step402および409、step403および410、step404および411、step405および412、step406および413、step407および414はそれぞれ図3におけるstep1、2、3、4、5、6、7と同じである。
step403(初回の画像認識)において前記目標物21が認識されなかった場合は、前記目標物を隠している前記物体A22および前記物体B23を退避させ、前記目標物21を画像認識できるよう試みる。そして、その際に退避させた前記物体A22および前記物体B23をstep415にて元の場所に戻す。
step403(初回の画像認識)において前記目標物21が認識されなかった場合は、前記目標物を隠している前記物体A22および前記物体B23を退避させ、前記目標物21を画像認識できるよう試みる。そして、その際に退避させた前記物体A22および前記物体B23をstep415にて元の場所に戻す。
このように、目標物の画像認識に失敗して目標物を隠している物体を退避させた後でも退避させた物体を元の位置に戻すことにより、目標物の画像認識および把持を行った後でも物体の離散を防ぐことができるのである。
目標物が他の物体に埋まっている場合でも、目標物を隠している物体を移動させる事により目標物の画像認識が可能になるため1回の画像認識で目標物が認識されない場合でも目標物の把持が可能になる確率が高くなり、物体が複雑な配置や煩雑な配置された場所での目標物の画像認識を行うという用途にも適用できる。
1 カメラ
2 ロボットアーム
3 記憶部
4 処理部
5 ロボット
6 移動機構
21 目標物
22 目標物以外の物体A
23 目標物以外の物体B
305 モータ
307 把持制御装置
308 6軸力センサ
309 エンコーダ、ポテンショメータ
310 画像認識ユニット
311 ロボットハンド制御ユニット
312 モータドライバ
314 把持姿勢演算部
315 制御演算部
2 ロボットアーム
3 記憶部
4 処理部
5 ロボット
6 移動機構
21 目標物
22 目標物以外の物体A
23 目標物以外の物体B
305 モータ
307 把持制御装置
308 6軸力センサ
309 エンコーダ、ポテンショメータ
310 画像認識ユニット
311 ロボットハンド制御ユニット
312 モータドライバ
314 把持姿勢演算部
315 制御演算部
Claims (8)
- 先端に物体把持手段を有するロボットアームと、把持対象となる目標物と前記目標物以外の物体である障害物の画像とを記憶する記憶部と、前記目標物を撮影するためのカメラと、
前記カメラにより撮影された前記目標物の画像と前記記憶部に予め記憶された前記目標物のカメラ画像とから前記目標物の位置を算出し、前記ロボットアーム先端を把持位置へ移動させる指令を与える処理部と、を備えたロボットにおいて、
前記カメラの撮影画像から前記目標物が認識されなかった場合は、
前記記憶部に記憶された障害物の有無を判断し、
前記障害物が認識された場合は、前記障害物を前記ロボットアームにて退避させ、再度、前記目標物の画像認識処理を行う第1のステップを含むことを特徴とするロボットの物体把持方法。 - 前記第1のステップを実行した後、前記目標物が認識されない場合は、前記退避した物体を元の位置に戻すステップを含むことを特徴とする請求項1に記載のロボットの物体把持方法。
- 先端に物体把持手段を有するロボットアームと、把持対象となる目標物と前記目標物以外の物体である障害物の画像とを記憶する記憶部と、前記目標物を撮影するためのカメラと、
前記カメラにより撮影された前記目標物の画像と前記記憶部に予め記憶された前記目標物のカメラ画像とから前記目標物の位置を算出し、前記ロボットアーム先端を把持位置へ移動させる指令を与える処理部と、任意の場所に移動するための移動機構と、を備えたロボットにおいて、
前記カメラの撮影画像から前記目標物が認識されなかった場合は、前記移動機構によって位置を変え、再度、前記目標物の画像認識処理を行う第2のステップを含むことを特徴とするロボットの物体把持方法。 - 先端に物体把持手段を有するロボットアームと、把持対象となる目標物と前記目標物以外の物体である障害物の画像とを記憶する記憶部と、前記目標物を撮影するためのカメラと、前記カメラにより撮影された前記目標物の画像と前記記憶部に予め記憶された前記目標物のカメラ画像とから前記目標物の位置を算出し、前記ロボットアーム先端を把持位置へ移動させる指令を与える処理部と、任意の場所に移動するための移動機構と、を備えたロボットにおいて、
前記カメラの撮影画像から前記目標物が認識されなかった場合は、前記記憶部に記憶された障害物を前記ロボットアームにて退避させ、再度、前記目標物の画像認識処理を行う第1のステップと、
前記カメラの撮影画像から前記目標物が認識されなかった場合は、前記移動機構によって位置を変え、再度、前記目標物の画像認識処理を行う第2のステップと、を含むことを特徴とするロボットの物体把持方法。 - 先端に物体把持手段を有するロボットアームと、把持対象となる目標物と前記目標物以外の物体である障害物の画像とを記憶する記憶部と、前記目標物を撮影するためのカメラと、
前記カメラにより撮影された前記目標物の画像と前記記憶部に予め記憶された前記目標物のカメラ画像とから前記目標物の位置を算出し、前記ロボットアーム先端を把持位置へ移動させる指令を与える処理部と、を備えたロボットにおいて、
前記カメラの撮影画像から前記目標物が認識されなかった場合は、前記記憶部に記憶された障害物の有無を判断し、
前記障害物が認識された場合は、前記障害物を前記ロボットアームにて退避させ、再度、前記目標物の画像認識処理を行う第1の手段を備えたことを特徴とするロボット。 - 前記第1の手段が処理を行った後、前記目標物が認識されない場合は、前記退避した物体を元の位置に戻す手段を備えたことを特徴とする請求項5記載のロボット。
- 先端に物体把持手段を有するロボットアームと、把持対象となる目標物と前記目標物以外の物体である障害物の画像とを記憶する記憶部と、前記目標物を撮影するためのカメラと、前記カメラにより撮影された前記目標物の画像と前記記憶部に予め記憶された前記目標物のカメラ画像とから前記目標物の位置を算出し、前記ロボットアーム先端を把持位置へ移動させる指令を与える処理部と、任意の場所に移動するための移動機構と、を備えたロボットにおいて、
前記カメラの撮影画像から前記目標物が認識されなかった場合は、前記移動機構によって前記ロボットの位置を変え、再度、前記目標物の画像認識処理を行う第2の手段を備えたことを特徴とするロボット。 - 先端に物体把持手段を有するロボットアームと、把持対象となる目標物と前記目標物以外の物体である障害物の画像とを記憶する記憶部と、前記目標物を撮影するためのカメラと、
前記カメラにより撮影された前記目標物の画像と前記記憶部に予め記憶された前記目標物のカメラ画像とから前記目標物の位置を算出し、前記ロボットアーム先端を把持位置へ移動させる指令を与える処理部と、任意の場所に移動するための移動機構と、を備えたロボットにおいて、
前記カメラの撮影画像から前記目標物が認識されなかった場合は、前記記憶部に記憶された障害物を前記ロボットアームにて退避させ、再度、前記目標物の画像認識処理を行う第1の手段と、
前記カメラの撮影画像から前記目標物が認識されなかった場合は、前記移動機構によって前記ロボットの位置を変え、再度、前記目標物の画像認識処理を行う第2の手段と、を備えたことを特徴とするのロボット。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006118815A JP2007290056A (ja) | 2006-04-24 | 2006-04-24 | ロボットおよびその物体把持方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006118815A JP2007290056A (ja) | 2006-04-24 | 2006-04-24 | ロボットおよびその物体把持方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007290056A true JP2007290056A (ja) | 2007-11-08 |
Family
ID=38761180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006118815A Pending JP2007290056A (ja) | 2006-04-24 | 2006-04-24 | ロボットおよびその物体把持方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007290056A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010172969A (ja) * | 2009-01-27 | 2010-08-12 | Yaskawa Electric Corp | ロボットシステムおよびロボットの制御方法 |
JP2012228765A (ja) * | 2011-04-27 | 2012-11-22 | Toyota Motor Corp | ロボット、ロボットの動作方法、及びプログラム |
JP2015104796A (ja) * | 2013-12-02 | 2015-06-08 | トヨタ自動車株式会社 | 把持方法、運搬方法及びロボット |
CN107234619A (zh) * | 2017-06-02 | 2017-10-10 | 南京金快快无人机有限公司 | 一种基于主动视觉定位的服务机器人抓取系统 |
WO2019209423A1 (en) * | 2018-04-23 | 2019-10-31 | General Electric Company | Architecture and methods for robotic mobile manipulation system |
CN111986258A (zh) * | 2020-08-24 | 2020-11-24 | 华中科技大学 | 基于点云法矢方向聚类伺服的机器人定位控制方法及系统 |
WO2020242065A1 (ko) * | 2019-05-31 | 2020-12-03 | 주식회사 라운지랩 | 위험도 판단에 기초한 로봇 움직임 제어 방법 및 이를 이용한 이동 로봇 장치 |
CN114347033A (zh) * | 2022-01-27 | 2022-04-15 | 达闼机器人有限公司 | 机器人物品抓取方法、装置、机器人及存储介质 |
-
2006
- 2006-04-24 JP JP2006118815A patent/JP2007290056A/ja active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010172969A (ja) * | 2009-01-27 | 2010-08-12 | Yaskawa Electric Corp | ロボットシステムおよびロボットの制御方法 |
JP2012228765A (ja) * | 2011-04-27 | 2012-11-22 | Toyota Motor Corp | ロボット、ロボットの動作方法、及びプログラム |
JP2015104796A (ja) * | 2013-12-02 | 2015-06-08 | トヨタ自動車株式会社 | 把持方法、運搬方法及びロボット |
CN107234619A (zh) * | 2017-06-02 | 2017-10-10 | 南京金快快无人机有限公司 | 一种基于主动视觉定位的服务机器人抓取系统 |
WO2019209423A1 (en) * | 2018-04-23 | 2019-10-31 | General Electric Company | Architecture and methods for robotic mobile manipulation system |
US10759051B2 (en) | 2018-04-23 | 2020-09-01 | General Electric Company | Architecture and methods for robotic mobile manipulation system |
WO2020242065A1 (ko) * | 2019-05-31 | 2020-12-03 | 주식회사 라운지랩 | 위험도 판단에 기초한 로봇 움직임 제어 방법 및 이를 이용한 이동 로봇 장치 |
CN111986258A (zh) * | 2020-08-24 | 2020-11-24 | 华中科技大学 | 基于点云法矢方向聚类伺服的机器人定位控制方法及系统 |
CN111986258B (zh) * | 2020-08-24 | 2022-05-31 | 华中科技大学 | 基于点云法矢方向聚类伺服的机器人定位控制方法及系统 |
CN114347033A (zh) * | 2022-01-27 | 2022-04-15 | 达闼机器人有限公司 | 机器人物品抓取方法、装置、机器人及存储介质 |
WO2023143408A1 (zh) * | 2022-01-27 | 2023-08-03 | 达闼机器人股份有限公司 | 机器人物品抓取方法、装置、机器人、程序及存储介质 |
CN114347033B (zh) * | 2022-01-27 | 2023-12-08 | 达闼机器人股份有限公司 | 机器人物品抓取方法、装置、机器人及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007290056A (ja) | ロボットおよびその物体把持方法 | |
US11090814B2 (en) | Robot control method | |
JP4961860B2 (ja) | ロボット装置及びロボット装置の制御方法 | |
US9878446B2 (en) | Determination of object-related gripping regions using a robot | |
JP6450960B2 (ja) | ロボット、ロボットシステム及び教示方法 | |
JP2008538327A5 (ja) | ||
JP6816070B2 (ja) | 干渉回避装置およびロボットシステム | |
JP4665857B2 (ja) | アームを誘導可能な移動体およびアームを誘導する方法 | |
JP4984576B2 (ja) | ロボットハンドによる把持制御方法 | |
KR102220304B1 (ko) | 로봇 제어 장치 및 로봇 제어 방법 | |
JP2004333422A (ja) | 画像処理装置 | |
JPH05241626A (ja) | 検出位置補正方式 | |
CN110303474B (zh) | 使用图像处理修正机器人的示教的机器人系统 | |
JP2002018754A (ja) | ロボット装置及びその制御方法 | |
JP2003231078A (ja) | ロボットアームの位置制御方法およびロボット装置 | |
JP6322949B2 (ja) | ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム | |
KR20200073985A (ko) | 궤도 생성 장치 및 궤도 생성 방법 | |
JP5609760B2 (ja) | ロボット、ロボットの動作方法、及びプログラム | |
JP7502003B2 (ja) | 移動機械の移動軌跡のずれを取得する装置、及び方法 | |
CN111037553A (zh) | 控制装置 | |
WO2021117479A1 (ja) | 情報処理装置、方法およびプログラム | |
JP5561037B2 (ja) | ロボット及びその制御方法 | |
JP6158665B2 (ja) | ロボット、ロボット制御方法、およびロボット制御プログラム | |
JP2006346790A (ja) | ロボットと干渉判別方法と干渉判別装置 | |
JP6176091B2 (ja) | 把持方法、運搬方法及びロボット |