JP2000263482A - ワークの姿勢探索方法および姿勢探索装置ならびにロボットによるワーク把持方法およびワーク把持装置 - Google Patents
ワークの姿勢探索方法および姿勢探索装置ならびにロボットによるワーク把持方法およびワーク把持装置Info
- Publication number
- JP2000263482A JP2000263482A JP11072320A JP7232099A JP2000263482A JP 2000263482 A JP2000263482 A JP 2000263482A JP 11072320 A JP11072320 A JP 11072320A JP 7232099 A JP7232099 A JP 7232099A JP 2000263482 A JP2000263482 A JP 2000263482A
- Authority
- JP
- Japan
- Prior art keywords
- work
- photographing
- start position
- search start
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
(57)【要約】
【課題】ロボットのハンドによってワークを把持する場
合、二次元計測によって立体的なワークの姿勢を検出す
る。 【解決手段】 ロボット本体のハンドの近くにワークを
撮影するカメラを設け、まず、探索開始位置でワークを
撮影し、この探索開始位置で撮影した画像と照合モデル
との一致度を演算する。このときの一致度が閾値以上の
とき、姿勢探索を終了し、ロボットのハンドによる把持
動作に移る。探索開始位置での一致度が閾値未満のと
き、ロボット本体によりカメラを探索開始位置を中心に
±x方向、±y方向に移動させてワークを撮影する。そ
して、各位置での撮影画像と照合モデルとの一致度を判
定し、それら各位置のうち、閾値を越える一致度となっ
た位置が存在した場合、姿勢探索を終了し、ロボットの
ハンドによる把持動作に移る。閾値を越える一致度とな
った位置が存在しなかったとき、それら各位置のうち、
探索開始位置での適性度を越える適性度となった位置を
新たな探索開始位置として上記の動作を所定値を越える
適性度となる位置が出現するまで繰り返す。
合、二次元計測によって立体的なワークの姿勢を検出す
る。 【解決手段】 ロボット本体のハンドの近くにワークを
撮影するカメラを設け、まず、探索開始位置でワークを
撮影し、この探索開始位置で撮影した画像と照合モデル
との一致度を演算する。このときの一致度が閾値以上の
とき、姿勢探索を終了し、ロボットのハンドによる把持
動作に移る。探索開始位置での一致度が閾値未満のと
き、ロボット本体によりカメラを探索開始位置を中心に
±x方向、±y方向に移動させてワークを撮影する。そ
して、各位置での撮影画像と照合モデルとの一致度を判
定し、それら各位置のうち、閾値を越える一致度となっ
た位置が存在した場合、姿勢探索を終了し、ロボットの
ハンドによる把持動作に移る。閾値を越える一致度とな
った位置が存在しなかったとき、それら各位置のうち、
探索開始位置での適性度を越える適性度となった位置を
新たな探索開始位置として上記の動作を所定値を越える
適性度となる位置が出現するまで繰り返す。
Description
【0001】
【発明の属する技術分野】本発明はワークの姿勢をカメ
ラの撮影画像によって探索するワークの姿勢探索方法お
よび姿勢探索装置、ならびに姿勢探索したワークをロボ
ットのハンドによって把持するロボットによるワーク把
持方法およびワーク把持装置に関する。
ラの撮影画像によって探索するワークの姿勢探索方法お
よび姿勢探索装置、ならびに姿勢探索したワークをロボ
ットのハンドによって把持するロボットによるワーク把
持方法およびワーク把持装置に関する。
【0002】
【発明が解決しようとする課題】例えば、ワークが位置
決めされず、雑然と収容されているトレイの中から、ロ
ボットによりワークを把持する場合の手法として、特開
平7−319525号公報に開示された技術がある。こ
れは、ワークがトレイ内に収容されている状態をカメラ
で撮影し、その二次元の画像を処理することによってワ
ークの二次元の位置と姿勢(回転角)を計測し、ロボッ
トがその位置と姿勢の情報を得てワークを把持するとい
うものである。
決めされず、雑然と収容されているトレイの中から、ロ
ボットによりワークを把持する場合の手法として、特開
平7−319525号公報に開示された技術がある。こ
れは、ワークがトレイ内に収容されている状態をカメラ
で撮影し、その二次元の画像を処理することによってワ
ークの二次元の位置と姿勢(回転角)を計測し、ロボッ
トがその位置と姿勢の情報を得てワークを把持するとい
うものである。
【0003】しかしながら、この方法では、ワークが二
次元形状、つまり板状のものの場合には良いが、立体的
なものの場合、ワークが傾いていたりすると、その姿勢
を認識することができない。また、三次元計測を行っ
て、立体的なワークの位置および姿勢を認識する方法が
提案されているが、この手法は認識に多大な時間がかか
り、また、ワークが接触したり、重なり合っている場合
の三次元認識は困難であった。
次元形状、つまり板状のものの場合には良いが、立体的
なものの場合、ワークが傾いていたりすると、その姿勢
を認識することができない。また、三次元計測を行っ
て、立体的なワークの位置および姿勢を認識する方法が
提案されているが、この手法は認識に多大な時間がかか
り、また、ワークが接触したり、重なり合っている場合
の三次元認識は困難であった。
【0004】本発明は上記の事情に鑑みてなされたもの
で、その目的は、二次元計測によって立体的なワークの
姿勢を検出することができるワークの姿勢探索方法およ
び姿勢探索装置ならびにロボットによるワーク把持方法
およびワーク把持装置を提供するにある。
で、その目的は、二次元計測によって立体的なワークの
姿勢を検出することができるワークの姿勢探索方法およ
び姿勢探索装置ならびにロボットによるワーク把持方法
およびワーク把持装置を提供するにある。
【0005】
【課題を解決するための手段】上記の課題を解消するた
めに、請求項1、2、5、6の発明は、ロボット本体に
より撮影手段を移動させて位置を変えて前記ワークを撮
影し、その撮影画像とワークを所定方向から見たときの
当該ワークの形状情報とからワークの姿勢に対する前記
撮影手段の位置の適性度を判定することによりワークの
姿勢を検出することを特徴とするものである。
めに、請求項1、2、5、6の発明は、ロボット本体に
より撮影手段を移動させて位置を変えて前記ワークを撮
影し、その撮影画像とワークを所定方向から見たときの
当該ワークの形状情報とからワークの姿勢に対する前記
撮影手段の位置の適性度を判定することによりワークの
姿勢を検出することを特徴とするものである。
【0006】請求項3、4、7、8の発明では、ロボッ
ト本体のハンドの近くにワークを撮影する撮影手段を設
け、まず、探索開始位置でワークを撮影し、この探索開
始位置で撮影した画像と形状情報とからワークの姿勢に
対するロボット本体のハンドの位置の適性度を判定す
る。このときの適性度が所定値以上のとき、姿勢探索を
終了する。そして、検出したワークの姿勢に対応するよ
うにロボット本体を動作させてハンドによりワークを把
持させる。
ト本体のハンドの近くにワークを撮影する撮影手段を設
け、まず、探索開始位置でワークを撮影し、この探索開
始位置で撮影した画像と形状情報とからワークの姿勢に
対するロボット本体のハンドの位置の適性度を判定す
る。このときの適性度が所定値以上のとき、姿勢探索を
終了する。そして、検出したワークの姿勢に対応するよ
うにロボット本体を動作させてハンドによりワークを把
持させる。
【0007】探索開始位置での適性度が所定値未満のと
き、ロボット本体により撮影手段を探索開始位置を中心
とした複数位置に移動させてワークを撮影する。そし
て、その複数位置での撮影画像と形状情報とから、それ
ら各位置について適性度を判定し、それら複数位置のう
ちに所定値を越える適性度となった位置が存在した場
合、姿勢探索を終了し、ロボットのハンドによる把持動
作に移る。所定値を越える適性度となった位置が存在し
なかったとき、それら複数の各位置のうち、探索開始位
置での適性度を越える適性度となった位置を新たな探索
開始位置として該探索開始位置を中心に撮影手段を複数
方向に移動させて複数位置で撮影する動作を所定値を越
える適性度となる位置が出現するまで繰り返す。そし
て、最終的に検出したワークの姿勢に対応するようにロ
ボット本体を動作させてハンドによりワークを把持させ
る。
き、ロボット本体により撮影手段を探索開始位置を中心
とした複数位置に移動させてワークを撮影する。そし
て、その複数位置での撮影画像と形状情報とから、それ
ら各位置について適性度を判定し、それら複数位置のう
ちに所定値を越える適性度となった位置が存在した場
合、姿勢探索を終了し、ロボットのハンドによる把持動
作に移る。所定値を越える適性度となった位置が存在し
なかったとき、それら複数の各位置のうち、探索開始位
置での適性度を越える適性度となった位置を新たな探索
開始位置として該探索開始位置を中心に撮影手段を複数
方向に移動させて複数位置で撮影する動作を所定値を越
える適性度となる位置が出現するまで繰り返す。そし
て、最終的に検出したワークの姿勢に対応するようにロ
ボット本体を動作させてハンドによりワークを把持させ
る。
【0008】以上のように構成した請求項1〜8の発明
によれば、二次元画像によって立体的なワークの姿勢を
検出することができる。このため、画像処理、ワークの
姿勢解析を簡便に行うことができ、把持動作を高速で行
うことができる。
によれば、二次元画像によって立体的なワークの姿勢を
検出することができる。このため、画像処理、ワークの
姿勢解析を簡便に行うことができ、把持動作を高速で行
うことができる。
【0009】
【発明の実施の形態】以下、本発明の一実施例を図面に
基づいて説明する。図7は把持用のロボット装置1を示
すもので、この把持用ロボット装置1はロボット本体2
とコントロールボックス3とを備えている。ロボット本
体2は、例えば垂直多関節型のロボットにより構成され
ており、先端の手首を構成する円盤状のフランジ面2a
にはハンド4が取り付けられ、そのハンド4によりトレ
イ5内に収納されたワーク6を把持して所定場所に搬送
する。
基づいて説明する。図7は把持用のロボット装置1を示
すもので、この把持用ロボット装置1はロボット本体2
とコントロールボックス3とを備えている。ロボット本
体2は、例えば垂直多関節型のロボットにより構成され
ており、先端の手首を構成する円盤状のフランジ面2a
にはハンド4が取り付けられ、そのハンド4によりトレ
イ5内に収納されたワーク6を把持して所定場所に搬送
する。
【0010】ここで、ワーク6は、例えば図2に示すよ
うに、基本的には直方体で、その底部の両側が傾斜面6
aとなるようにカットされた形状であるとする。そし
て、ロボット本体2のハンド4は、ワーク6を底部の両
側のカットによって六角形となった両側面間を把持する
ようになっており、その把持状態ではハンド4を取り付
けたロボット先端のフランジ面2aはワーク6の上面6
bと平行になっているものとする。従って、ハンド4に
よりワーク6を把持する際のハンド4とワーク6の姿勢
は、フランジ面2aとワーク6の上面6bとが平行とな
るという相互関係にある。
うに、基本的には直方体で、その底部の両側が傾斜面6
aとなるようにカットされた形状であるとする。そし
て、ロボット本体2のハンド4は、ワーク6を底部の両
側のカットによって六角形となった両側面間を把持する
ようになっており、その把持状態ではハンド4を取り付
けたロボット先端のフランジ面2aはワーク6の上面6
bと平行になっているものとする。従って、ハンド4に
よりワーク6を把持する際のハンド4とワーク6の姿勢
は、フランジ面2aとワーク6の上面6bとが平行とな
るという相互関係にある。
【0011】さて、上記のロボット本体2の先端には、
ハンド4に並べて撮影手段としての例えばCCDカメラ
(以下、カメラ)7と、このカメラ7による撮影対象部
分を照明するための照明装置8とが設けられている。そ
して、カメラ7は、ロボット先端のフランジ面2aと直
交する方向を撮影するようになっており、その撮影画像
は、前記コントロールボックス3内にロボット制御手段
としてのロボット制御装置9と共に設けられた視覚認識
装置10に与えられるようになっている。
ハンド4に並べて撮影手段としての例えばCCDカメラ
(以下、カメラ)7と、このカメラ7による撮影対象部
分を照明するための照明装置8とが設けられている。そ
して、カメラ7は、ロボット先端のフランジ面2aと直
交する方向を撮影するようになっており、その撮影画像
は、前記コントロールボックス3内にロボット制御手段
としてのロボット制御装置9と共に設けられた視覚認識
装置10に与えられるようになっている。
【0012】上記視覚認識装置10は、比較手段および
動作選択手段としての中央演算装置(以下、CPU)1
1、画像入力部12、入力画像記憶手段としての画像メ
モリ13、画像処理部14、判定手段(適性度演算手
段)としての一致度計測処理部15、記憶手段としての
モデルメモリ16、処理プログラムや各種のデータを記
憶したメモリ部17などを備えている。上記画像入力部
12は、カメラ7の撮影した画像をサンプリングして濃
淡レベルをデジタル化した濃淡画像データを作成し、こ
れを画像メモリ13に格納する。画像処理部14は、画
像メモリ13が記憶した画像データを処理してワークを
抽出する。そして、CPU11は、画像処理部14が抽
出したワークの位置を演算し、その位置データをロボッ
ト制御装置9に与える。
動作選択手段としての中央演算装置(以下、CPU)1
1、画像入力部12、入力画像記憶手段としての画像メ
モリ13、画像処理部14、判定手段(適性度演算手
段)としての一致度計測処理部15、記憶手段としての
モデルメモリ16、処理プログラムや各種のデータを記
憶したメモリ部17などを備えている。上記画像入力部
12は、カメラ7の撮影した画像をサンプリングして濃
淡レベルをデジタル化した濃淡画像データを作成し、こ
れを画像メモリ13に格納する。画像処理部14は、画
像メモリ13が記憶した画像データを処理してワークを
抽出する。そして、CPU11は、画像処理部14が抽
出したワークの位置を演算し、その位置データをロボッ
ト制御装置9に与える。
【0013】また、モデルメモリ16には、ハンド4に
よってワーク5を把持した時、フランジ面2aと直交す
る方向(図3に矢印Aで示す方向)から見たワーク5の
濃淡画像データが照合モデル(ワーク6の形状情報)と
して記憶されている。このモデルメモリ16が記憶する
照合モデルを図5(d)に濃淡を省略した状態で示し
た。一致度計測処理部15は、画像処理部14が画像メ
モリ13から抽出した画像データを、モデルメモリ16
が記憶する照合モデルと照合し、周知の正規化相関マッ
チング法によって照合モデルと撮影画像との一致度を演
算する。そして、CPU11は、一致度計測処理部15
が演算した一致度をメモリ部17が記憶する閾値と比較
し、その比較結果に応じた指令をロボット制御装置9に
与えるようになっている。このような視覚認識装置10
のCPU11は、ロボット制御装置9と共に本発明にい
う姿勢検出手段として機能する。
よってワーク5を把持した時、フランジ面2aと直交す
る方向(図3に矢印Aで示す方向)から見たワーク5の
濃淡画像データが照合モデル(ワーク6の形状情報)と
して記憶されている。このモデルメモリ16が記憶する
照合モデルを図5(d)に濃淡を省略した状態で示し
た。一致度計測処理部15は、画像処理部14が画像メ
モリ13から抽出した画像データを、モデルメモリ16
が記憶する照合モデルと照合し、周知の正規化相関マッ
チング法によって照合モデルと撮影画像との一致度を演
算する。そして、CPU11は、一致度計測処理部15
が演算した一致度をメモリ部17が記憶する閾値と比較
し、その比較結果に応じた指令をロボット制御装置9に
与えるようになっている。このような視覚認識装置10
のCPU11は、ロボット制御装置9と共に本発明にい
う姿勢検出手段として機能する。
【0014】次に、ハンド4によりワークを把持する際
の制御内容を図1に示すフローチャートをも参照しなが
ら説明する。なお、ここでは説明の簡単化のために、ト
レイ5内には3個のワーク6が収納されており、そのう
ち、左側の2個のワーク6は直立状態にあり、右側の1
個のワーク6は、図示右側の傾斜面6aがトレイ5の底
面に受けらた傾斜状態にあるものとする。
の制御内容を図1に示すフローチャートをも参照しなが
ら説明する。なお、ここでは説明の簡単化のために、ト
レイ5内には3個のワーク6が収納されており、そのう
ち、左側の2個のワーク6は直立状態にあり、右側の1
個のワーク6は、図示右側の傾斜面6aがトレイ5の底
面に受けらた傾斜状態にあるものとする。
【0015】さて、ロボット制御装置9は、トレイ5内
のワーク6を1個ずつ把持して所定場所に搬送するため
に、まず、ロボット本体2を動作させてカメラ7をトレ
イ5の上方に移動させる(ステップS1)。そして、ロ
ボット本体2がカメラ7をトレイ5の上方に移動する
と、画像認識装置10のCPU11は、カメラ7により
撮影されたトレイ5内の画像を画像入力部12に取り込
んで画像メモリ13に格納する。その後、CPU11
は、画像処理部14によって処理された画像情報からト
レイ5内に収納されている3個のワーク6の位置を演算
する(ステップS2:位置演算手段)。
のワーク6を1個ずつ把持して所定場所に搬送するため
に、まず、ロボット本体2を動作させてカメラ7をトレ
イ5の上方に移動させる(ステップS1)。そして、ロ
ボット本体2がカメラ7をトレイ5の上方に移動する
と、画像認識装置10のCPU11は、カメラ7により
撮影されたトレイ5内の画像を画像入力部12に取り込
んで画像メモリ13に格納する。その後、CPU11
は、画像処理部14によって処理された画像情報からト
レイ5内に収納されている3個のワーク6の位置を演算
する(ステップS2:位置演算手段)。
【0016】次いで、CPU11は、3個のワーク6の
うち予め定められた優先順、この場合、例えば左側に存
在するワーク6から順に搬送するように優先順が定めら
れていたとすると、図2で最も左側に位置するワーク6
を第1番目の把持目標ワークとし、そのワーク6の位置
情報をロボット制御装置9に与える。
うち予め定められた優先順、この場合、例えば左側に存
在するワーク6から順に搬送するように優先順が定めら
れていたとすると、図2で最も左側に位置するワーク6
を第1番目の把持目標ワークとし、そのワーク6の位置
情報をロボット制御装置9に与える。
【0017】第1番目の把持目標ワークの位置情報が与
えられると、ロボット制御装置9は、カメラ7が最も左
側のワーク6の直上(撮影画像での重心位置の上方)に
位置するようにロボット本体2を動作させる。ここで、
カメラ7が最初にワーク6の直上に移動された位置を第
1の探索開始位置と称することとする。そして、カメラ
7が第1の探索開始位置に移動すると、画像認識装置1
0のCPU11がその第1の探索開始位置でワーク6を
カメラ7によって撮影し、その撮影画像を画像入力部1
2を介して画像メモリ13に格納する(以上、ステップ
S3)。
えられると、ロボット制御装置9は、カメラ7が最も左
側のワーク6の直上(撮影画像での重心位置の上方)に
位置するようにロボット本体2を動作させる。ここで、
カメラ7が最初にワーク6の直上に移動された位置を第
1の探索開始位置と称することとする。そして、カメラ
7が第1の探索開始位置に移動すると、画像認識装置1
0のCPU11がその第1の探索開始位置でワーク6を
カメラ7によって撮影し、その撮影画像を画像入力部1
2を介して画像メモリ13に格納する(以上、ステップ
S3)。
【0018】そして、画像処理部14は画像メモリ13
に格納されたワーク6の画像データを処理し、一致度計
測処理部15はその画像処理部14により処理された画
像とモデルメモリ16に記憶された照合モデルとを比較
して照合モデルに対する画像データの一致度を演算する
(ステップS4:適性度の判定手段)。次に、CPU1
1は、一致度計測処理部15により求められた一致度が
閾値(例えば、95%)以上であるか否かを判断する
(ステップS5:比較手段)。
に格納されたワーク6の画像データを処理し、一致度計
測処理部15はその画像処理部14により処理された画
像とモデルメモリ16に記憶された照合モデルとを比較
して照合モデルに対する画像データの一致度を演算する
(ステップS4:適性度の判定手段)。次に、CPU1
1は、一致度計測処理部15により求められた一致度が
閾値(例えば、95%)以上であるか否かを判断する
(ステップS5:比較手段)。
【0019】ここでは、最も左側のワーク6は傾いてお
らず、直立した姿勢になっているから、一致度はほぼ1
00%(撮影位置との関係でワーク6が直立姿勢にある
ことを検出)となる。従って、CPU11は、ステップ
S5で「YES(閾値以上)」と判断し、カメラ7がワ
ーク6の直上で撮影した画像に基づいた当該ワーク6の
位置情報と把持動作開始指令をロボット制御装置9に与
える。このとき、CPU11からロボット制御部9に与
えられる位置情報としては、ワーク6のロボットの二次
元の位置と回転角とが与えられるものである。
らず、直立した姿勢になっているから、一致度はほぼ1
00%(撮影位置との関係でワーク6が直立姿勢にある
ことを検出)となる。従って、CPU11は、ステップ
S5で「YES(閾値以上)」と判断し、カメラ7がワ
ーク6の直上で撮影した画像に基づいた当該ワーク6の
位置情報と把持動作開始指令をロボット制御装置9に与
える。このとき、CPU11からロボット制御部9に与
えられる位置情報としては、ワーク6のロボットの二次
元の位置と回転角とが与えられるものである。
【0020】ワーク6の位置情報と把持動作開始指令と
が与えられると、ロボット制御装置9は、フランジ面2
aがワーク6の上面と平行になった状態でハンド4をワ
ーク6の撮影画像上での重心位置に向かって移動させ、
該ワーク6の六角形となった両側面間を把持するように
ロボット本体2を動作させる。そして、把持したワーク
6を所定場所に搬送する。
が与えられると、ロボット制御装置9は、フランジ面2
aがワーク6の上面と平行になった状態でハンド4をワ
ーク6の撮影画像上での重心位置に向かって移動させ、
該ワーク6の六角形となった両側面間を把持するように
ロボット本体2を動作させる。そして、把持したワーク
6を所定場所に搬送する。
【0021】第1番目の把持目標ワーク6が搬送される
と、視覚認識装置10のCPU11は、次に、全てのワ
ーク6が把持されたか否かを判断するステップS7に移
行する。ここでは、第1番目のワーク6を搬送しただけ
であるからCPU11は、ステップS7で「NO」と判
断して前記ステップS1に戻り、トレイ5内を撮影す
る。
と、視覚認識装置10のCPU11は、次に、全てのワ
ーク6が把持されたか否かを判断するステップS7に移
行する。ここでは、第1番目のワーク6を搬送しただけ
であるからCPU11は、ステップS7で「NO」と判
断して前記ステップS1に戻り、トレイ5内を撮影す
る。
【0022】今、トレイ5内には図2の右側2個のワー
ク6が残っているので、CPU11は、中央のワーク6
を把持目標ワークとし、このワーク6に対して上記と同
様にステップS2〜ステップS5を実行する。なお、再
度トレイ5内を撮影する理由は、先のワーク6の把持動
作時に、残されたワーク6が動かされることがあるの
で、その位置をより正確に把握するためである。
ク6が残っているので、CPU11は、中央のワーク6
を把持目標ワークとし、このワーク6に対して上記と同
様にステップS2〜ステップS5を実行する。なお、再
度トレイ5内を撮影する理由は、先のワーク6の把持動
作時に、残されたワーク6が動かされることがあるの
で、その位置をより正確に把握するためである。
【0023】中央のワーク6についてのステップS2〜
ステップS5の実行時において、ワーク6は傾いておら
ず、直立しているから一致度はほぼ100%となるの
で、第1の探索開始位置で撮影したワーク6の画像と照
合モデルとの一致度が閾値以上であるか否かを判断する
ステップS5において、CPU11は、「YES」と判
断し、ワーク6の位置情報と把持動作開始指令をロボッ
ト制御装置9に与える。
ステップS5の実行時において、ワーク6は傾いておら
ず、直立しているから一致度はほぼ100%となるの
で、第1の探索開始位置で撮影したワーク6の画像と照
合モデルとの一致度が閾値以上であるか否かを判断する
ステップS5において、CPU11は、「YES」と判
断し、ワーク6の位置情報と把持動作開始指令をロボッ
ト制御装置9に与える。
【0024】すると、ロボット制御装置9は、ワーク6
の姿勢がフランジ面2aと平行になっていることが検出
されたとして、フランジ面2aがワーク6の上面と平行
になった状態でハンド4をワーク6の撮影画像上での重
心位置に向かって移動させ、該ワーク6の六角形となっ
た両側面間を把持するようにロボット本体2を動作させ
る。このとき、中央のワーク6は、図2に示すようにロ
ボットの基準座標に対してαだけ傾いているから、ロボ
ット制御装置9は、画像認識装置10から得た位置情報
に基づいて、図2(b)に二点鎖線で示すように、ハン
ド4の一対の把持爪4aを結んだ線Lがワーク6の六角
形の側面と直交する状態となるようにハンド4をαだけ
回転させる。そして、把持したワーク6を所定場所に搬
送する。
の姿勢がフランジ面2aと平行になっていることが検出
されたとして、フランジ面2aがワーク6の上面と平行
になった状態でハンド4をワーク6の撮影画像上での重
心位置に向かって移動させ、該ワーク6の六角形となっ
た両側面間を把持するようにロボット本体2を動作させ
る。このとき、中央のワーク6は、図2に示すようにロ
ボットの基準座標に対してαだけ傾いているから、ロボ
ット制御装置9は、画像認識装置10から得た位置情報
に基づいて、図2(b)に二点鎖線で示すように、ハン
ド4の一対の把持爪4aを結んだ線Lがワーク6の六角
形の側面と直交する状態となるようにハンド4をαだけ
回転させる。そして、把持したワーク6を所定場所に搬
送する。
【0025】この後、視覚認識装置10のCPU11
は、全てのワーク6が把持されたか否かを判断するステ
ップS7で「NO」と判断してステップS1に戻り、以
下、第3番目の把持目標ワークである最も右側のワーク
6に対し、上記したと同様のステップS2〜ステップS
5を実行する。ここで、第3番目の把持目標ワークであ
る最も右側のワーク6は傾斜面6aをトレイ5の底面に
受けられた傾斜状態にあるので、図2(b)、図3およ
び図4にP0 で示す第1の探索開始位置で撮影したワー
ク6の画像は図5(a)に示すようなものとなり、同図
(d)の照合モデルとの一致度は低い。このため、CP
U11は、一致度が閾値以上であるか否かを判断するス
テップS5において「NO」と判断する。
は、全てのワーク6が把持されたか否かを判断するステ
ップS7で「NO」と判断してステップS1に戻り、以
下、第3番目の把持目標ワークである最も右側のワーク
6に対し、上記したと同様のステップS2〜ステップS
5を実行する。ここで、第3番目の把持目標ワークであ
る最も右側のワーク6は傾斜面6aをトレイ5の底面に
受けられた傾斜状態にあるので、図2(b)、図3およ
び図4にP0 で示す第1の探索開始位置で撮影したワー
ク6の画像は図5(a)に示すようなものとなり、同図
(d)の照合モデルとの一致度は低い。このため、CP
U11は、一致度が閾値以上であるか否かを判断するス
テップS5において「NO」と判断する。
【0026】さて、一致度が閾値未満であった場合、視
覚認識装置10のCPU11は、次に、第1の探索開始
位置P0 での撮影画像に基づいたワーク6の位置情報と
第1の探索開始位置P0 を中心にした探索動作指令をロ
ボット制御装置9に与える。すると、ロボット制御装置
9は、ロボット本体2を動作させてカメラ7が第1の探
索開始位置P0 を中心に複数方向、例えば+x軸方向、
−x軸方向、+y軸方向、−y軸方向の直交4方向に所
定角度θずつ回転移動させる。
覚認識装置10のCPU11は、次に、第1の探索開始
位置P0 での撮影画像に基づいたワーク6の位置情報と
第1の探索開始位置P0 を中心にした探索動作指令をロ
ボット制御装置9に与える。すると、ロボット制御装置
9は、ロボット本体2を動作させてカメラ7が第1の探
索開始位置P0 を中心に複数方向、例えば+x軸方向、
−x軸方向、+y軸方向、−y軸方向の直交4方向に所
定角度θずつ回転移動させる。
【0027】このとき、カメラ7は、高さ方向にはワー
ク6が直立状態にあるとしたときの上面の高さ位置で、
平面方向には探索開始位置で撮影したワーク6の画像の
図形的重心位置を向くように、つまりワーク6を向くよ
うに回転される。そして、、視覚認識装置10のCPU
11は、カメラ7が上記の直交4方向にθだけ移動した
各位置でカメラ7の撮影画像を画像入力部12を介して
取り込み、画像メモリ13に格納する(以上、ステップ
S8)。
ク6が直立状態にあるとしたときの上面の高さ位置で、
平面方向には探索開始位置で撮影したワーク6の画像の
図形的重心位置を向くように、つまりワーク6を向くよ
うに回転される。そして、、視覚認識装置10のCPU
11は、カメラ7が上記の直交4方向にθだけ移動した
各位置でカメラ7の撮影画像を画像入力部12を介して
取り込み、画像メモリ13に格納する(以上、ステップ
S8)。
【0028】このとき、図2(b)に示すように、最も
右側のワーク6がロボットの基準座標に対してβだけ回
転していたとすると、ロボット制御装置9は、ワーク位
置情報のうちの回転情報に基づいて前記+x軸方向、−
x軸方向、+y軸方向、−y軸方向をワーク6の回転角
度βだけ回転させて撮影するようになっている。
右側のワーク6がロボットの基準座標に対してβだけ回
転していたとすると、ロボット制御装置9は、ワーク位
置情報のうちの回転情報に基づいて前記+x軸方向、−
x軸方向、+y軸方向、−y軸方向をワーク6の回転角
度βだけ回転させて撮影するようになっている。
【0029】そして、画像処理部14は、+x軸方向、
−x軸方向、+y軸方向、−y軸方向の直交4方向に所
定角度θずつ回転移動した各位置での画像データを処理
し、一致度計測処理部15は、その画像処理部14によ
り処理された各位置での画像とモデルメモリ16に記憶
された照合モデルとを比較して一致度を演算する。次
に、CPU11は、一致度計測処理部15により求めら
れた上記の4位置の一致度に閾値以上のものがあるか否
かを判断する。
−x軸方向、+y軸方向、−y軸方向の直交4方向に所
定角度θずつ回転移動した各位置での画像データを処理
し、一致度計測処理部15は、その画像処理部14によ
り処理された各位置での画像とモデルメモリ16に記憶
された照合モデルとを比較して一致度を演算する。次
に、CPU11は、一致度計測処理部15により求めら
れた上記の4位置の一致度に閾値以上のものがあるか否
かを判断する。
【0030】4位置の一致度に閾値以上のものがなかっ
た場合、CPU11は、ステップS10で「NO」と判
断し、そして、4位置の一致度のうち、最も高い一致度
(位置P0 での一致度よりも高い)を呈した位置P1 か
ら、上記したと同様に最高一致度具現位置P1 を中心に
して+X方向、−X方向、+Y方向、−Y方向の直交4
方向に所定角度θずつ移動させるように指令すると共
に、ロボット本体2によってカメラ7が上記の直交4方
向に所定角度θ移動された時点でカメラ7の撮影画像を
画像入力部12を介して取り込んで画像メモリ13に格
納する。
た場合、CPU11は、ステップS10で「NO」と判
断し、そして、4位置の一致度のうち、最も高い一致度
(位置P0 での一致度よりも高い)を呈した位置P1 か
ら、上記したと同様に最高一致度具現位置P1 を中心に
して+X方向、−X方向、+Y方向、−Y方向の直交4
方向に所定角度θずつ移動させるように指令すると共
に、ロボット本体2によってカメラ7が上記の直交4方
向に所定角度θ移動された時点でカメラ7の撮影画像を
画像入力部12を介して取り込んで画像メモリ13に格
納する。
【0031】この後、CPU11は、一致度計測処理部
15により求められた上記の4位置の一致度に閾値以上
のものがあるか否かを判断する。4位置の一致度に閾値
以上のものがなかった場合、CPU11は、ステップS
10で「NO」と判断してステップS11に移行し、4
位置の一致度のうち、最も高い一致度を呈した位置P1
を第2の探索開始位置(新たな探索開始位置)とし、そ
の第2の探索開始位置を中心にして+x軸方向、−x軸
方向、+y軸方向、−y軸方向の直交4方向に所定角度
θずつ移動させるように指令する。
15により求められた上記の4位置の一致度に閾値以上
のものがあるか否かを判断する。4位置の一致度に閾値
以上のものがなかった場合、CPU11は、ステップS
10で「NO」と判断してステップS11に移行し、4
位置の一致度のうち、最も高い一致度を呈した位置P1
を第2の探索開始位置(新たな探索開始位置)とし、そ
の第2の探索開始位置を中心にして+x軸方向、−x軸
方向、+y軸方向、−y軸方向の直交4方向に所定角度
θずつ移動させるように指令する。
【0032】すなわち、今、図2(b)に+xで示す方
向にθだけ回転移動した位置での一致度が最も高いとす
ると、CPU11は、その位置P1 を第2の探索開始位
置P1 に設定するものである。この後、ロボット本体2
によってカメラ7が上記のように定められた第2の探索
開始位置P1 から直交4方向に所定角度θ移動され、各
位置でカメラ7の撮影画像を画像入力部12を介して取
り込ん一致度を演算し、一致度が閾値以上のものがある
か否かを判断する。
向にθだけ回転移動した位置での一致度が最も高いとす
ると、CPU11は、その位置P1 を第2の探索開始位
置P1 に設定するものである。この後、ロボット本体2
によってカメラ7が上記のように定められた第2の探索
開始位置P1 から直交4方向に所定角度θ移動され、各
位置でカメラ7の撮影画像を画像入力部12を介して取
り込ん一致度を演算し、一致度が閾値以上のものがある
か否かを判断する。
【0033】このような動作は一致度に閾値以上のもの
が出現するまで繰り返えされる。そして、この動作の繰
り返しにより、カメラ7で撮影したワーク6の画像は、
図5(b)を経て例えば図5(c)のように照合モデル
とほぼ一致するようになる。そして、或る基準位置から
直交4方向に所定角度θだけ回転移動して得た4位置の
撮影画像のうちに、一致度に閾値以上のものがあった場
合、CPU11は、ステップS10で「YES」と判断
し、閾値以上(複数ある場合は、その最も高い閾値)と
なった撮影位置を示す情報と把持動作指令をロボット制
御装置9に与える。
が出現するまで繰り返えされる。そして、この動作の繰
り返しにより、カメラ7で撮影したワーク6の画像は、
図5(b)を経て例えば図5(c)のように照合モデル
とほぼ一致するようになる。そして、或る基準位置から
直交4方向に所定角度θだけ回転移動して得た4位置の
撮影画像のうちに、一致度に閾値以上のものがあった場
合、CPU11は、ステップS10で「YES」と判断
し、閾値以上(複数ある場合は、その最も高い閾値)と
なった撮影位置を示す情報と把持動作指令をロボット制
御装置9に与える。
【0034】すると、ロボット制御装置9は、CPU1
1から与えられた撮影位置を示す情報に基づいて、ワー
ク6がその撮影位置から見たときカメラ7の傾き角とほ
ぼ同じだけ傾いていることを検出できるので、フランジ
面2aがワーク6の上面と平行になった状態でハンド4
によってワーク6の六角形となった両側面において把持
するようにロボット本体2を動作させる。次に、視覚認
識装置10のCPU11は、全てのワーク6が把持され
たか否かを判断するステップS7に移行する。ここで
は、3個のワーク6を全て搬送し終えたのであるから、
ステップS7で「YES」と判断してエンドとなる。
1から与えられた撮影位置を示す情報に基づいて、ワー
ク6がその撮影位置から見たときカメラ7の傾き角とほ
ぼ同じだけ傾いていることを検出できるので、フランジ
面2aがワーク6の上面と平行になった状態でハンド4
によってワーク6の六角形となった両側面において把持
するようにロボット本体2を動作させる。次に、視覚認
識装置10のCPU11は、全てのワーク6が把持され
たか否かを判断するステップS7に移行する。ここで
は、3個のワーク6を全て搬送し終えたのであるから、
ステップS7で「YES」と判断してエンドとなる。
【0035】このように本実施例によれば、ロボット本
体2によりカメラ7を移動させて当該カメラ7による撮
影位置(撮影方向)を変え、このカメラ7によって撮影
した画像と照合モデルとからワーク6の姿勢に対するロ
ボット本体2のハンド4の位置の適性度、すなわち照合
モデルに対する撮影画像の一致度を判定するので、その
一致度が閾値以上となるハンド4(カメラ7)の位置か
らワーク6の姿勢を検出することができる。このため、
二次元画像によって立体的なワークの姿勢を検出するこ
とができるようになり、従って、画像処理、ワークの姿
勢解析を簡便に行うことができ、その結果、把持動作を
高速で行うことができる。
体2によりカメラ7を移動させて当該カメラ7による撮
影位置(撮影方向)を変え、このカメラ7によって撮影
した画像と照合モデルとからワーク6の姿勢に対するロ
ボット本体2のハンド4の位置の適性度、すなわち照合
モデルに対する撮影画像の一致度を判定するので、その
一致度が閾値以上となるハンド4(カメラ7)の位置か
らワーク6の姿勢を検出することができる。このため、
二次元画像によって立体的なワークの姿勢を検出するこ
とができるようになり、従って、画像処理、ワークの姿
勢解析を簡便に行うことができ、その結果、把持動作を
高速で行うことができる。
【0036】なお、本発明は上記し且つ図面に示す実施
例に限定されるものではなく、以下のような拡張或いは
変更が可能である。探索開始位置を中心にカメラ7を移
動させる方向は、±x軸方向、±y軸方向の4方向に限
られない。その方向は多ければ多いほど良いが、画像処
理時間と要求精度との兼ね合いを考慮して定めれば良
い。照合モデルは、矢印Aから見たワーク6の画像デー
タに限られない。例えば、矢印Aから見たワーク6の縦
横の長さ情報であっても良い。
例に限定されるものではなく、以下のような拡張或いは
変更が可能である。探索開始位置を中心にカメラ7を移
動させる方向は、±x軸方向、±y軸方向の4方向に限
られない。その方向は多ければ多いほど良いが、画像処
理時間と要求精度との兼ね合いを考慮して定めれば良
い。照合モデルは、矢印Aから見たワーク6の画像デー
タに限られない。例えば、矢印Aから見たワーク6の縦
横の長さ情報であっても良い。
【0037】カメラ7の高度が高ければ、ステップS1
で撮影した画像から把持対象ワークの一致度を求めるよ
うにしても良い。このようにすれば、カメラ7を第1の
探索開始位置P1 に移動して再度撮影する必要はない。
で撮影した画像から把持対象ワークの一致度を求めるよ
うにしても良い。このようにすれば、カメラ7を第1の
探索開始位置P1 に移動して再度撮影する必要はない。
【0038】ステップS1でトレイ5内を撮影した画像
からワーク6の位置を検出できるから、そのときにワー
ク6の位置情報をロボット制御装置9に与えておけば、
第1の探索開始位置P1 で一致度が閾値以上となったと
き、改めてワーク6の位置をロボット制御装置9に与え
る必要はない。
からワーク6の位置を検出できるから、そのときにワー
ク6の位置情報をロボット制御装置9に与えておけば、
第1の探索開始位置P1 で一致度が閾値以上となったと
き、改めてワーク6の位置をロボット制御装置9に与え
る必要はない。
【0039】カメラ7の向きは、必ずしもフランジ面2
aと直交させる必要はない。カメラ7は、必ずしもフラ
ンジ2aに設ける必要はない。
aと直交させる必要はない。カメラ7は、必ずしもフラ
ンジ2aに設ける必要はない。
【図1】本発明の一実施例における姿勢探索のための制
御内容を示すフローチャート
御内容を示すフローチャート
【図2】トレー内のワークを示すもので、(a)は縦断
側面図、(b)は平面図
側面図、(b)は平面図
【図3】姿勢の探索過程を示すワークの側面図
【図4】同斜視図
【図5】探索過程のカメラの撮影画像を示す図
【図6】電気的構成を示すブロック図
【図7】ロボット装置の斜視図
図中、2はロボット本体、4はハンド、7はカメラ(撮
影手段)、9はロボット制御装置(姿勢検出手段)、1
0は画像認識装置、11は中央演算処理部(比較手段、
動作選択手段)、15は一致度計測処理部(判定手
段)、16はモデルメモリ(記憶手段)である。
影手段)、9はロボット制御装置(姿勢検出手段)、1
0は画像認識装置、11は中央演算処理部(比較手段、
動作選択手段)、15は一致度計測処理部(判定手
段)、16はモデルメモリ(記憶手段)である。
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 3F059 AA01 BA03 BA08 DA02 DB09 FB12 FC04 5H269 AB21 AB33 CC09 DD05 JJ09 JJ20 NN18 9A001 BB06 HH19 HH23 HH34 KK16
Claims (8)
- 【請求項1】 ロボット本体にワークを撮影する撮影手
段を設けると共に、前記ワークを前記所定方向から見た
ときの当該ワークの形状情報を記憶した記憶手段を設
け、 前記ロボット本体により前記撮影手段を移動させて前記
ワークを撮影位置を変えて撮影し、その撮影画像と前記
形状情報とから前記ワークの姿勢に対する前記撮影手段
の位置の適性度を判定することにより前記ワークの姿勢
を検出することを特徴とするワークの姿勢探索方法。 - 【請求項2】 ロボット本体に設けられ、ワークを撮影
する撮影手段と、 前記ワークを前記所定方向から見たときの当該ワークの
形状情報を記憶した記憶手段と、 前記ロボット本体により前記撮影手段を移動させて前記
ワークを撮影位置を変えて撮影し、その撮影画像と前記
形状情報とから前記ワークの姿勢に対する前記撮影手段
の位置の適性度を判定することにより前記ワークの姿勢
を検出する姿勢検出手段とを具備してなるワークの姿勢
探索装置。 - 【請求項3】 ロボット本体のハンドの近くにワークを
撮影する撮影手段を設けると共に、前記ワークを所定方
向から見たときの当該ワークの形状情報を記憶した記憶
手段を設け、 前記ロボット本体により前記撮影手段を探索開始位置に
移動して当該探索開始位置で前記ワークを撮影し、この
探索開始位置で撮影した画像と前記形状情報とから前記
ワークの姿勢に対する前記ロボット本体のハンドの位置
の適性度を判定し、 この適性度が所定値以上のとき、姿勢探索を終了し、 前記探索開始位置での前記適性度が所定値未満のとき、
前記ロボット本体により前記撮影手段を前記探索開始位
置を中心とした複数位置に移動させて前記ワークを撮影
し、この複数の各位置での撮影画像と前記形状情報とか
ら、それら各位置について前記適性度を判定し、 それら複数方向に移動した各位置のうちに前記適性値が
前記所定値を越える位置が存在した場合、姿勢探索を終
了し、 前記所定値を越える適性度となった位置が存在しなかっ
た場合、それら複数の各位置のうち、前記探索開始位置
での前記適性度を越える適性度となった位置を新たな前
記探索開始位置として前記撮影手段を当該探索開始位置
を中心とした複数位置に移動させて前記ワークを撮影す
る動作を前記所定値を越える適性度となる位置が出現す
るまで繰り返して姿勢探索を終了し、 前記適性値が前記所定値を越える位置に基づいて前記ワ
ークの姿勢を検出することを特徴とするワークの姿勢探
索方法。 - 【請求項4】 前記ロボット本体のハンドの近くに設け
られ、ワークを撮影する撮影手段と、 前記ワークを所定方向から見たときの当該ワークの形状
情報を記憶した記憶手段と、 前記ロボット本体を制御して、前記撮影手段を探索開始
位置に移動させる第1の動作と、前記撮影手段を前記探
索開始位置を中心に複数方向に移動させる第2の動作と
を行わせるロボット制御手段と、 前記撮影手段が前記探索開始位置で撮影した前記ワーク
の画像および前記探索開始位置を中心とした複数位置で
撮影した前記ワークの画像と前記形状情報とから前記ワ
ークの姿勢に対する前記ロボット本体のハンドの位置の
適性度を判定する判定手段と、 この判定手段により判定された適性度を所定値と比較す
る比較手段と、 前記探索開始位置での前記撮影画像についての前記適性
度が所定値未満のとき前記ロボット本体が前記第2の動
作を行うように前記ロボット制御手段を動作させ、前記
探索開始位置を中心に複数方向に移動した複数位置での
前記撮影画像について前記適性度が所定値未満のとき、
それら複数の各位置のうち、前記探索開始位置での前記
適性度を越える適性度となった位置を新たな前記探索開
始位置として前記ロボット本体が前記第2の動作を行う
ように前記ロボット制御手段を動作させる動作選択手段
とを具備し、 前記撮像手段が前記各位置で撮影した画像についての前
記適性値が所定値以上のとき、その位置に基づいて前記
ワークの姿勢を検出することを特徴とするワークの姿勢
探索装置。 - 【請求項5】 ロボット本体にワークを撮影する撮影手
段を設けると共に、前記ワークを前記所定方向から見た
ときの当該ワークの形状情報を記憶した記憶手段を設
け、 前記ロボット本体により前記撮影手段を移動させて当該
撮影手段による撮影位置を変えて前記ワークを撮影し、
その撮影画像と前記形状情報とから前記ワークの姿勢に
対する前記撮影手段の位置の適性度を判定することによ
り前記ワークの姿勢を検出し、この姿勢検出結果に基づ
いて前記ロボット本体が前記ワークを把持する動作を開
始することを特徴とするロボットによるワーク把持方
法。 - 【請求項6】 ロボット本体に設けられ、ワークを撮影
する撮影手段と、 前記ワークを前記所定方向から見たときの当該ワークの
形状情報を記憶した記憶手段と、 前記ロボット本体により前記撮影手段を移動させて当該
撮影手段による撮影位置を変えて前記ワークを撮影し、
その撮影画像と前記形状情報とから前記ワークの姿勢に
対する前記撮影手段の位置の適性度を判定することによ
り前記ワークの姿勢を検出する姿勢検出手段と、 この姿勢検出手段により検出された前記ワークの姿勢に
基づいて前記ロボット本体に前記ワークを把持する動作
を開始させるロボット制御手段とを具備してなるロボッ
トによるワーク把持装置。 - 【請求項7】 ロボット本体のハンドの近くにワークを
撮影する撮影手段を設けると共に、前記ワークを所定方
向から見たときの当該ワークの形状情報を記憶した記憶
手段を設け、 前記ロボット本体により前記撮影手段を探索開始位置に
移動して当該探索開始位置で前記ワークを撮影し、この
探索開始位置で撮影した画像と前記形状情報とから前記
ワークの姿勢に対する前記ロボット本体のハンドの位置
の適性度を判定し、 この適性度が所定値以上のとき、前記ロボット本体を把
持動作に移行させ、 前記探索開始位置での前記適性度が所定値未満のとき、
前記ロボット本体により前記撮影手段を前記探索開始位
置を中心に複数方向に移動させて複数位置で前記ワーク
を撮影し、この複数の各位置での撮影画像と前記形状情
報とから、それら各位置について前記適性度を判定し、 それら複数方向に移動した各位置のうち、前記所定値を
越える適性度となった位置が存在した場合、前記ロボッ
ト本体を把持動作に移行させ、 前記所定値を越える適性度となった位置が存在しなかっ
た場合、それら複数の各位置のうち、前記探索開始位置
での前記適性度を越える適性度となった位置を新たな前
記探索開始位置として当該探索開始位置を中心に複数方
向に移動させて複数位置で前記ワークを撮影する動作を
前記所定値を越える適性度となる位置が出現するまで繰
り返すことを特徴とするロボットによるワーク把持方
法。 - 【請求項8】 前記ロボット本体のハンドの近くに設け
られ、ワークを撮影する撮影手段と、 前記ワークを所定方向から見たときの当該ワークの形状
情報を記憶した記憶手段と、 前記ロボット本体を制御して、前記撮影手段を探索開始
位置に移動させる第1の動作と、前記撮影手段を前記探
索開始位置を中心に複数方向に移動させる第2の動作と
を行わせるロボット制御手段と、 前記撮影手段が前記探索開始位置で撮影した前記ワーク
の画像および前記探索開始位置を中心に複数方向に移動
した複数位置で撮影した前記ワークの画像と前記形状情
報とから前記ワークの姿勢に対する前記ロボット本体の
ハンドの位置の適性度を判定する判定手段と、 この判定手段により判定された適性度を所定値と比較す
る比較手段と、 前記探索開始位置での前記撮影画像についての前記適性
度が所定値未満のとき前記ロボット本体が前記第2の動
作を行うように前記ロボット制御手段を動作させ、前記
探索開始位置を中心に複数方向に移動した複数位置での
前記撮影画像について前記適性度が所定値未満のとき、
それら複数の各位置のうち、前記探索開始位置での前記
適性度を越える適性度となった位置を新たな前記探索開
始位置として前記ロボット本体が前記第2の動作を行う
ように前記ロボット制御手段を動作させる動作選択手段
とを具備し、 前記ロボット制御手段は、前記撮像手段が前記各位置で
撮影した画像についての前記適性値が所定値以上のと
き、その位置に基づいて前記ワークを把持する動作に移
行することを特徴とするロボットによるワーク把持装
置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11072320A JP2000263482A (ja) | 1999-03-17 | 1999-03-17 | ワークの姿勢探索方法および姿勢探索装置ならびにロボットによるワーク把持方法およびワーク把持装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11072320A JP2000263482A (ja) | 1999-03-17 | 1999-03-17 | ワークの姿勢探索方法および姿勢探索装置ならびにロボットによるワーク把持方法およびワーク把持装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2000263482A true JP2000263482A (ja) | 2000-09-26 |
Family
ID=13485885
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11072320A Pending JP2000263482A (ja) | 1999-03-17 | 1999-03-17 | ワークの姿勢探索方法および姿勢探索装置ならびにロボットによるワーク把持方法およびワーク把持装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2000263482A (ja) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002205290A (ja) * | 2001-01-05 | 2002-07-23 | Sony Corp | 脚式移動ロボットの制御装置及び制御方法 |
JP2009051003A (ja) * | 2007-08-23 | 2009-03-12 | Ihi Corp | ロボット装置の制御方法及びロボット装置 |
JP2009083095A (ja) * | 2007-09-29 | 2009-04-23 | Ihi Corp | ロボット装置の制御方法及びロボット装置 |
JP2009083094A (ja) * | 2007-09-29 | 2009-04-23 | Ihi Corp | ロボット装置の制御方法及びロボット装置 |
JP2009220247A (ja) * | 2008-03-18 | 2009-10-01 | Ihi Corp | ロボット装置及びロボット装置の制御方法 |
WO2012066819A1 (ja) * | 2010-11-17 | 2012-05-24 | 三菱電機株式会社 | ワーク取り出し装置 |
CN102495586A (zh) * | 2011-12-26 | 2012-06-13 | 北京进取者软件技术有限公司 | 一种基于曲面模型的加工效果表示方法 |
JP2013255972A (ja) * | 2012-06-14 | 2013-12-26 | Shinnichi Kogyo Co Ltd | ワーク搬送装置およびその制御方法 |
CN103963058A (zh) * | 2014-04-30 | 2014-08-06 | 重庆环视科技有限公司 | 基于多方位视觉定位的机械手臂抓取控制系统及方法 |
JP2015160264A (ja) * | 2014-02-26 | 2015-09-07 | 株式会社Ihi | 把持方法および把持装置 |
WO2020049768A1 (ja) * | 2018-09-07 | 2020-03-12 | オムロン株式会社 | マニピュレータおよび移動ロボット |
KR102436141B1 (ko) * | 2021-04-14 | 2022-08-25 | 에이치에스소프트 주식회사 | 영상을 이용하여 제품의 고정상태 확인이 가능한 취출제어방법 |
WO2023053395A1 (ja) * | 2021-09-30 | 2023-04-06 | ファナック株式会社 | 位置姿勢計測システム |
-
1999
- 1999-03-17 JP JP11072320A patent/JP2000263482A/ja active Pending
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002205290A (ja) * | 2001-01-05 | 2002-07-23 | Sony Corp | 脚式移動ロボットの制御装置及び制御方法 |
JP2009051003A (ja) * | 2007-08-23 | 2009-03-12 | Ihi Corp | ロボット装置の制御方法及びロボット装置 |
JP2009083095A (ja) * | 2007-09-29 | 2009-04-23 | Ihi Corp | ロボット装置の制御方法及びロボット装置 |
JP2009083094A (ja) * | 2007-09-29 | 2009-04-23 | Ihi Corp | ロボット装置の制御方法及びロボット装置 |
JP2009220247A (ja) * | 2008-03-18 | 2009-10-01 | Ihi Corp | ロボット装置及びロボット装置の制御方法 |
WO2012066819A1 (ja) * | 2010-11-17 | 2012-05-24 | 三菱電機株式会社 | ワーク取り出し装置 |
KR101453234B1 (ko) * | 2010-11-17 | 2014-10-22 | 미쓰비시덴키 가부시키가이샤 | 워크 취출 장치 |
US9089966B2 (en) | 2010-11-17 | 2015-07-28 | Mitsubishi Electric Corporation | Workpiece pick-up apparatus |
CN102495586A (zh) * | 2011-12-26 | 2012-06-13 | 北京进取者软件技术有限公司 | 一种基于曲面模型的加工效果表示方法 |
JP2013255972A (ja) * | 2012-06-14 | 2013-12-26 | Shinnichi Kogyo Co Ltd | ワーク搬送装置およびその制御方法 |
JP2015160264A (ja) * | 2014-02-26 | 2015-09-07 | 株式会社Ihi | 把持方法および把持装置 |
CN103963058A (zh) * | 2014-04-30 | 2014-08-06 | 重庆环视科技有限公司 | 基于多方位视觉定位的机械手臂抓取控制系统及方法 |
WO2020049768A1 (ja) * | 2018-09-07 | 2020-03-12 | オムロン株式会社 | マニピュレータおよび移動ロボット |
JP2020040143A (ja) * | 2018-09-07 | 2020-03-19 | オムロン株式会社 | マニピュレータおよび移動ロボット |
KR102436141B1 (ko) * | 2021-04-14 | 2022-08-25 | 에이치에스소프트 주식회사 | 영상을 이용하여 제품의 고정상태 확인이 가능한 취출제어방법 |
WO2023053395A1 (ja) * | 2021-09-30 | 2023-04-06 | ファナック株式会社 | 位置姿勢計測システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3768174B2 (ja) | ワーク取出し装置 | |
US11046530B2 (en) | Article transfer apparatus, robot system, and article transfer method | |
US7280687B2 (en) | Device for detecting position/orientation of object | |
JP7481427B2 (ja) | 取り出しシステム及び方法 | |
CN101152720B (zh) | 工件取出装置 | |
JP6771744B2 (ja) | ハンドリングシステム及びコントローラ | |
JP2000263482A (ja) | ワークの姿勢探索方法および姿勢探索装置ならびにロボットによるワーク把持方法およびワーク把持装置 | |
JP2019198949A (ja) | バラ積みされたワークを取り出すロボットシステムおよびロボットシステムの制御方法 | |
JP5088278B2 (ja) | 物体検出方法と物体検出装置およびロボットシステム | |
CN113538459B (zh) | 一种基于落点区域检测的多模式抓取避障检测优化方法 | |
JP3654042B2 (ja) | 物体特定方法及び装置 | |
CN113269835A (zh) | 基于轮廓特征的工业零件位姿识别方法、装置和电子设备 | |
JP2000094374A (ja) | ピッキング装置 | |
JP2555824B2 (ja) | 山積み部品の高速ピッキング装置 | |
JP3225740B2 (ja) | 山積み部品の高速ピッキング装置 | |
CN116901054A (zh) | 识别位置姿态的方法、系统以及存储介质 | |
JPH03202290A (ja) | ばら積み物体の取出装置 | |
JPH09167234A (ja) | Cad情報を用いた3次元認識手法及び装置 | |
CN116175542B (zh) | 确定夹具抓取顺序的方法、装置、电子设备和存储介质 | |
JP2555823B2 (ja) | 山積み部品の高速ピッキング装置 | |
CN116188559A (zh) | 图像数据处理方法、装置、电子设备和存储介质 | |
JPH10118975A (ja) | ハンドリング位置認識方法および認識装置 | |
JPH0797059A (ja) | 物体取出装置 | |
TWI768954B (zh) | 取物設備控制方法、三維點雲資料處理方法、自動取物系統及控制系統 | |
JP3375242B2 (ja) | ロボットの物体認識方法及びその装置 |