JPH09277184A - 画像処理方法 - Google Patents
画像処理方法Info
- Publication number
- JPH09277184A JPH09277184A JP11705996A JP11705996A JPH09277184A JP H09277184 A JPH09277184 A JP H09277184A JP 11705996 A JP11705996 A JP 11705996A JP 11705996 A JP11705996 A JP 11705996A JP H09277184 A JPH09277184 A JP H09277184A
- Authority
- JP
- Japan
- Prior art keywords
- attitude
- image processing
- orientation
- grippable
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Manipulator (AREA)
- Control Of Position Or Direction (AREA)
Abstract
(57)【要約】
【課題】 対象物体の位置姿勢を推定する過程で存在す
る極小値を回避し、対象物体の3次元的な位置姿勢を正
確に推定して乱雑に積まれた物体を安定に把持する。特
に、領域分割等の複雑な前処理を省略し、処理の高速
化,効率化を図る。 【解決手段】 前処理として画像の雑音除去を行い(S
11)、把持可能領域を探索する(S12)。この情報
をもとにICPアルゴリズムを適用するモデルの初期値
を決定し、モデル全体の位置姿勢を推定する(S1
3)。収束した評価関数がある閾値より小さければ(S
14)、対象物体に対して他の物体との重なりをチェッ
クし(S15)、把持可能と判断された物体について推
定された位置姿勢にロボットを移動させ、ハンドリング
する(S16)。
る極小値を回避し、対象物体の3次元的な位置姿勢を正
確に推定して乱雑に積まれた物体を安定に把持する。特
に、領域分割等の複雑な前処理を省略し、処理の高速
化,効率化を図る。 【解決手段】 前処理として画像の雑音除去を行い(S
11)、把持可能領域を探索する(S12)。この情報
をもとにICPアルゴリズムを適用するモデルの初期値
を決定し、モデル全体の位置姿勢を推定する(S1
3)。収束した評価関数がある閾値より小さければ(S
14)、対象物体に対して他の物体との重なりをチェッ
クし(S15)、把持可能と判断された物体について推
定された位置姿勢にロボットを移動させ、ハンドリング
する(S16)。
Description
【0001】
【発明の属する技術分野】本発明は、画像処理方法、よ
り詳細には、乱雑に積まれた物体をビンピッキングする
ロボットの画像処理方法に関する。
り詳細には、乱雑に積まれた物体をビンピッキングする
ロボットの画像処理方法に関する。
【0002】
【従来の技術】従来、ロボットの環境を認識するセンサ
としては濃淡画像による視覚が一般的であった。しか
し、近年レーザレンジファインダ(LRF)等の能動的
なセンシング技術の進歩により、高速,高精度,高解像
度の距離画像と利用が容易になってきた。距離画像は、
濃淡画像のように曖昧な情報を含まないため、より信頼
性の高い環境認識が可能である。
としては濃淡画像による視覚が一般的であった。しか
し、近年レーザレンジファインダ(LRF)等の能動的
なセンシング技術の進歩により、高速,高精度,高解像
度の距離画像と利用が容易になってきた。距離画像は、
濃淡画像のように曖昧な情報を含まないため、より信頼
性の高い環境認識が可能である。
【0003】乱雑に積まれた物体を安定に把持するため
には、対象物体の3次元的な位置姿勢を正確に推定する
必要がある。距離画像を用いて物体の位置姿勢を推定す
る試みは、画像解析の主要な問題として研究され、多く
の推定手法や形状モデルが提案されている。計測された
物体表面上の点の3次元位置のみを利用して位置姿勢を
推定する方法としてICP(Iterative Closest Poin
t)アルゴリズムがある(「高速レーザレンジファイン
ダを用いたハンドアイシステムによる自由形状物体のピ
ッキング」 平成8年電気学会全国大会 予稿集、3−
51〜3−52、渕上明弘、小島悟理、橋本秀紀)。
には、対象物体の3次元的な位置姿勢を正確に推定する
必要がある。距離画像を用いて物体の位置姿勢を推定す
る試みは、画像解析の主要な問題として研究され、多く
の推定手法や形状モデルが提案されている。計測された
物体表面上の点の3次元位置のみを利用して位置姿勢を
推定する方法としてICP(Iterative Closest Poin
t)アルゴリズムがある(「高速レーザレンジファイン
ダを用いたハンドアイシステムによる自由形状物体のピ
ッキング」 平成8年電気学会全国大会 予稿集、3−
51〜3−52、渕上明弘、小島悟理、橋本秀紀)。
【0004】ICPアルゴリズムとは、計測されたデー
タ点の集合をD、モデル上の点の集合をMとした場合、
Dに含まれる要素をdiに対応するモデル上の点miが
与えられたと仮定すると、位置姿勢推定問題は以下の式
によって表される。
タ点の集合をD、モデル上の点の集合をMとした場合、
Dに含まれる要素をdiに対応するモデル上の点miが
与えられたと仮定すると、位置姿勢推定問題は以下の式
によって表される。
【0005】
【数1】
【0006】ここでは、Rは3×3の回転行列,Tは3
×1の平行移動ベクトルである。具体的な処理の流れは
以下の通りである。 1.各diに対してモデル上の最近点miを求める。 2.式(1)を最対にする(R,T)を求める。 3.diにR,Tによる変換をかける。 4.式(1)が収束するまで以上の処理を繰り返す。 ICPアルゴリズムでは、特徴抽出や対応づけ等の従来
の手法に必要とされた処理にかかる計算コストが軽減さ
れる。処理時間の多くはデータ点に対応する最近点の探
索によるものであり、並列処理による効果が期待でき
る。
×1の平行移動ベクトルである。具体的な処理の流れは
以下の通りである。 1.各diに対してモデル上の最近点miを求める。 2.式(1)を最対にする(R,T)を求める。 3.diにR,Tによる変換をかける。 4.式(1)が収束するまで以上の処理を繰り返す。 ICPアルゴリズムでは、特徴抽出や対応づけ等の従来
の手法に必要とされた処理にかかる計算コストが軽減さ
れる。処理時間の多くはデータ点に対応する最近点の探
索によるものであり、並列処理による効果が期待でき
る。
【0007】図5は、乱積みされた物体をビンピッキン
グするための従来の画像処理方法を説明するためのフロ
ー図で、この方法は、前処理として画像の雑音除去を行
い(S1)、領域分割により対象物体を分割する(S
2)。この中から対象領域を選択し(S3)、予めCA
Dデータからモデルを作成して(S4)、作成したモデ
ルを用いてICPアルゴリズム(「高速レーザレンジフ
ァインダを用いたハンドアイシステムによる自由形状物
体のピッキング」 平成8年電気学会全国大会予稿集,
3−51〜3−52;「LRFによる物体の距離画像情
報を用いたポーズ推定」計測自動制御学会 第5回ロボ
ットセンサシンポジウム 投稿論文、渕上明弘、小島悟
理、橋本秀紀)により位置姿勢を推定する(S5)。収
束した評価関数がある閾値より小さければ(S6)、対
象物体に対して他の物体との重なり(S7)とハンドの
干渉をチェック(S8)し、把持可能と判断された物体
について推定された位置姿勢にロボットを移動させ、ハ
ンドリングする(S9)。
グするための従来の画像処理方法を説明するためのフロ
ー図で、この方法は、前処理として画像の雑音除去を行
い(S1)、領域分割により対象物体を分割する(S
2)。この中から対象領域を選択し(S3)、予めCA
Dデータからモデルを作成して(S4)、作成したモデ
ルを用いてICPアルゴリズム(「高速レーザレンジフ
ァインダを用いたハンドアイシステムによる自由形状物
体のピッキング」 平成8年電気学会全国大会予稿集,
3−51〜3−52;「LRFによる物体の距離画像情
報を用いたポーズ推定」計測自動制御学会 第5回ロボ
ットセンサシンポジウム 投稿論文、渕上明弘、小島悟
理、橋本秀紀)により位置姿勢を推定する(S5)。収
束した評価関数がある閾値より小さければ(S6)、対
象物体に対して他の物体との重なり(S7)とハンドの
干渉をチェック(S8)し、把持可能と判断された物体
について推定された位置姿勢にロボットを移動させ、ハ
ンドリングする(S9)。
【0008】
【発明が解決しようとする課題】上記従来の方法では、
対象物体の位置姿勢を推定する前処理として領域分割が
必要であり、この精度が位置姿勢の推定精度に大きく影
響する。また、LRFにより計測を行うと陰領域などの
非観測領域のために、対象物体の位置姿勢を推定する過
程で多くの極小値が存在し、これに収束してしまう可能
性がある。物体を安定に把持するためには収束した極小
値が最小値(最適値)であることが望まれるが、これは
保証されない。
対象物体の位置姿勢を推定する前処理として領域分割が
必要であり、この精度が位置姿勢の推定精度に大きく影
響する。また、LRFにより計測を行うと陰領域などの
非観測領域のために、対象物体の位置姿勢を推定する過
程で多くの極小値が存在し、これに収束してしまう可能
性がある。物体を安定に把持するためには収束した極小
値が最小値(最適値)であることが望まれるが、これは
保証されない。
【0009】本発明は、対象物体の位置姿勢を推定する
過程で存在する極小値を回避し、対象物体の3次元的な
位置姿勢を正確に推定して乱雑に積まれた物体を安定に
把持することを目的とし、特に、領域分割等の複雑な前
処理を省略し、処理の高速化,効率化を目指すものであ
る。
過程で存在する極小値を回避し、対象物体の3次元的な
位置姿勢を正確に推定して乱雑に積まれた物体を安定に
把持することを目的とし、特に、領域分割等の複雑な前
処理を省略し、処理の高速化,効率化を目指すものであ
る。
【0010】
【課題を解決するための手段】請求項1の発明は、動作
範囲内で任意の位置姿勢をとることができるロボットの
手先に物体を把持するためのハンドリング手段と、距離
画像を得る視覚センサを備えるハンドリングロボットの
画像処理方法において、前記視覚センサにより得られた
距離画像から把持可能領域を探索し、この情報を用いて
一個の物体の位置姿勢を推定することを特徴とし、もっ
て、対象物体の3次元的な位置姿勢を正確に推定して乱
雑に積まれた物体を安定に把持することを可能とし、領
域分割等の複雑な前処理を省略し、処理の高速化,効率
化を図ったものである。
範囲内で任意の位置姿勢をとることができるロボットの
手先に物体を把持するためのハンドリング手段と、距離
画像を得る視覚センサを備えるハンドリングロボットの
画像処理方法において、前記視覚センサにより得られた
距離画像から把持可能領域を探索し、この情報を用いて
一個の物体の位置姿勢を推定することを特徴とし、もっ
て、対象物体の3次元的な位置姿勢を正確に推定して乱
雑に積まれた物体を安定に把持することを可能とし、領
域分割等の複雑な前処理を省略し、処理の高速化,効率
化を図ったものである。
【0011】請求項2の発明は、請求項1の発明におい
て、把持可能領域を探索する際にマッチングの評価関数
に重みを持つことを特徴とし、もって、把持可能領域を
探索する際にマッチングの評価関数に式(2)のような
重みを持つことにより、ハンドの干渉に関わりのないデ
ータ点の影響を除き、より確実な推定結果が得られるよ
うにしたものである。
て、把持可能領域を探索する際にマッチングの評価関数
に重みを持つことを特徴とし、もって、把持可能領域を
探索する際にマッチングの評価関数に式(2)のような
重みを持つことにより、ハンドの干渉に関わりのないデ
ータ点の影響を除き、より確実な推定結果が得られるよ
うにしたものである。
【0012】請求項3の発明は、対象物体の上空で距離
画像を撮像すると、距離が近いものほど上にあり、他物
体との干渉の可能性が最も低い点に鑑み、請求項1の発
明において、推定した把持可能領域の中で最短距離の物
を優先して選択することを特徴とし、もって、把持可能
領域として最短距離のものを選択することにより、把持
可能である確率を高くし、対象物体に対して他の物体と
の重なりをチェックする処理を効率化したものである。
画像を撮像すると、距離が近いものほど上にあり、他物
体との干渉の可能性が最も低い点に鑑み、請求項1の発
明において、推定した把持可能領域の中で最短距離の物
を優先して選択することを特徴とし、もって、把持可能
領域として最短距離のものを選択することにより、把持
可能である確率を高くし、対象物体に対して他の物体と
の重なりをチェックする処理を効率化したものである。
【0013】請求項4の発明は、請求項1において、把
持可能領域を探索する際に複数の注視領域を用いて並列
的に処理することを特徴とし、もって、複数の注視領域
を用いて並列的に把持可能領域を探索することにより処
理の大幅な効率化を図ったものである。
持可能領域を探索する際に複数の注視領域を用いて並列
的に処理することを特徴とし、もって、複数の注視領域
を用いて並列的に把持可能領域を探索することにより処
理の大幅な効率化を図ったものである。
【0014】
(請求項1の発明)図1は、請求項1の発明を説明する
ためのフロー図で、まず、前処理として画像の雑音除去
を行い(S11)、把持可能領域を探索する(S1
2)。この情報をもとにICPアルゴリズムを適用する
モデルの初期値を決定し、モデル全体の位置姿勢を推定
する(S13)。収束した評価関数がある閾値より小さ
ければ(S14)、対象物体に対して他の物体との重な
りをチェックし(S15)、把持可能と判断された物体
について推定された位置姿勢にロボットを移動させ、ハ
ンドリングする(S16)。
ためのフロー図で、まず、前処理として画像の雑音除去
を行い(S11)、把持可能領域を探索する(S1
2)。この情報をもとにICPアルゴリズムを適用する
モデルの初期値を決定し、モデル全体の位置姿勢を推定
する(S13)。収束した評価関数がある閾値より小さ
ければ(S14)、対象物体に対して他の物体との重な
りをチェックし(S15)、把持可能と判断された物体
について推定された位置姿勢にロボットを移動させ、ハ
ンドリングする(S16)。
【0015】図2は、把持可能領域探索の詳細なフロー
図を示す図で、まず、距離画像を適当な大きさのブロッ
ク(注視領域)に分割する(S21)。ブロック毎にデ
ータ点を取り(S22)、予め作成しておいたハンドモ
デルとICPアルゴリズムによりマッチングを行う(S
23)。最適な評価関数を与えるブロックを選択し(S
24)、そこから推定されたハンド位置から対象物体の
位置姿勢推定に用いるモデルの初期値を決定する(S2
5)。初期値は、推定されたハンド位置からCADデー
タを用いて逆算して求める。
図を示す図で、まず、距離画像を適当な大きさのブロッ
ク(注視領域)に分割する(S21)。ブロック毎にデ
ータ点を取り(S22)、予め作成しておいたハンドモ
デルとICPアルゴリズムによりマッチングを行う(S
23)。最適な評価関数を与えるブロックを選択し(S
24)、そこから推定されたハンド位置から対象物体の
位置姿勢推定に用いるモデルの初期値を決定する(S2
5)。初期値は、推定されたハンド位置からCADデー
タを用いて逆算して求める。
【0016】(請求項2の発明)把持可能領域を求める
ためには、対象物体の両側にハンドの入り込めるスペー
スがあることを確認できればよい。従って、対象物体の
両側にハンドと干渉する物体がなければ、その底面は他
の物体あるいは測定平面等とマッチングしている必要は
全くない。そこで、請求項1の把持可能領域の探索(S
12)において、注視領域とハンドモデルのマッチング
を行う際のICPアルゴリズムの評価関数を以下のよう
に置き換える。
ためには、対象物体の両側にハンドの入り込めるスペー
スがあることを確認できればよい。従って、対象物体の
両側にハンドと干渉する物体がなければ、その底面は他
の物体あるいは測定平面等とマッチングしている必要は
全くない。そこで、請求項1の把持可能領域の探索(S
12)において、注視領域とハンドモデルのマッチング
を行う際のICPアルゴリズムの評価関数を以下のよう
に置き換える。
【0017】
【数2】
【0018】ここで、wiは重み係数である。wiはm
iがハンド底面部にあり、かつdiがハンドと干渉しな
い位置に存在した場合は0とし、それ以外は1とする。
把持可能領域を探索する際にマッチングの評価関数に式
(2)のような重みを持つことにより、ハンドの干渉に
関わりないデータ点の影響を除くことができ、より確実
な推定結果が得られる。
iがハンド底面部にあり、かつdiがハンドと干渉しな
い位置に存在した場合は0とし、それ以外は1とする。
把持可能領域を探索する際にマッチングの評価関数に式
(2)のような重みを持つことにより、ハンドの干渉に
関わりないデータ点の影響を除くことができ、より確実
な推定結果が得られる。
【0019】(請求項3の発明)図3は、請求項3の発
明を説明するための図で、請求項1の把持可能領域の探
索において、選択する把持可能領域として、設定した閾
値より小さい評価関数を与える注視領域Aの中で最短距
離のものを優先して選択する。対象物体の上空で距離画
像を撮像すると、距離が近いものほど上にあり、他物体
との干渉の可述性が最も低い。従って、把持可能領域と
して最短距離のものを選択することにより、把持可能で
ある確率が高くなるので、対象物体に対して他の物体と
の重なりをチェックする処理を効率化できる。
明を説明するための図で、請求項1の把持可能領域の探
索において、選択する把持可能領域として、設定した閾
値より小さい評価関数を与える注視領域Aの中で最短距
離のものを優先して選択する。対象物体の上空で距離画
像を撮像すると、距離が近いものほど上にあり、他物体
との干渉の可述性が最も低い。従って、把持可能領域と
して最短距離のものを選択することにより、把持可能で
ある確率が高くなるので、対象物体に対して他の物体と
の重なりをチェックする処理を効率化できる。
【0020】(請求項4の発明)図4は、請求項4の発
明を説明するための図で、請求項1の把持可能領域の探
索において、複数の注視領域A1,A2,A3を用いて並
列的に把持可能領域を探索する。複数の注視領域を用い
て並列的に把持可能領域を探索することにより処理の大
幅な効率化が図れる。
明を説明するための図で、請求項1の把持可能領域の探
索において、複数の注視領域A1,A2,A3を用いて並
列的に把持可能領域を探索する。複数の注視領域を用い
て並列的に把持可能領域を探索することにより処理の大
幅な効率化が図れる。
【0021】
【発明の効果】請求項1の発明の効果:画像の雑音除去
の後、把持可能領域を探索することにより領域分割処理
を省略でき、対象物体の選択とハンドの干渉チェックを
同時に行えるため、処理の大幅な効率化が図れる。さら
に、注視領域を用いることにより、データ量を少なくで
き、処理の高速化,効率化が図れる。また、推定したハ
ンド位置から逆算してモデルの初期値を決定することに
より、極小値を回避し、より確実な推定結果が得られ
る。さらに、把持可能領域を最初に探索しているので、
最終的な対象物体の位置姿勢を正確に推定が不確実でも
把持が可能である。以上により、対象物体の3次元的な
位置姿勢を正確に推定して乱雑に積まれた物体を安定に
把持することが可能となり、領域分割等の複雑な前処理
を省略し、処理の高速化,効率化できる。
の後、把持可能領域を探索することにより領域分割処理
を省略でき、対象物体の選択とハンドの干渉チェックを
同時に行えるため、処理の大幅な効率化が図れる。さら
に、注視領域を用いることにより、データ量を少なくで
き、処理の高速化,効率化が図れる。また、推定したハ
ンド位置から逆算してモデルの初期値を決定することに
より、極小値を回避し、より確実な推定結果が得られ
る。さらに、把持可能領域を最初に探索しているので、
最終的な対象物体の位置姿勢を正確に推定が不確実でも
把持が可能である。以上により、対象物体の3次元的な
位置姿勢を正確に推定して乱雑に積まれた物体を安定に
把持することが可能となり、領域分割等の複雑な前処理
を省略し、処理の高速化,効率化できる。
【0022】請求項2の発明の効果:把持可能領域を探
索する際にマッチングの評価関数に式(2)のような重
みを持つことにより、ハンドの干渉に関わりのないデー
タ点の影響を除くことができ、より確実な推定結果が得
られる。
索する際にマッチングの評価関数に式(2)のような重
みを持つことにより、ハンドの干渉に関わりのないデー
タ点の影響を除くことができ、より確実な推定結果が得
られる。
【0023】請求項3の発明の効果:対象物体の上空で
距離画像を撮像すると、距離が近いものほど上にあり、
他物体との干渉の可述性が最も低い。従って、把持可能
領域として最短距離のものを選択することにより、把持
可能である確率が高くなるので、対象物体に対して他の
物体との重なりをチェックする処理を効率化できる。
距離画像を撮像すると、距離が近いものほど上にあり、
他物体との干渉の可述性が最も低い。従って、把持可能
領域として最短距離のものを選択することにより、把持
可能である確率が高くなるので、対象物体に対して他の
物体との重なりをチェックする処理を効率化できる。
【0024】請求項4の発明の効果:複数の注視領域を
用いて並列的に把持可能領域を探索することにより処理
の大幅な効率化が図れる。
用いて並列的に把持可能領域を探索することにより処理
の大幅な効率化が図れる。
【図1】 請求項1の発明を説明するためのフロー図で
ある。
ある。
【図2】 把持可能領域探索の詳細なフローを示す図で
ある。
ある。
【図3】 請求項3の発明を説明するための図である。
【図4】 請求項4の発明を説明するための図である。
【図5】 乱積みされた物体をビンピッキングするため
の従来の画像処理方法を説明するためのフロー図であ
る。
の従来の画像処理方法を説明するためのフロー図であ
る。
Claims (4)
- 【請求項1】 動作範囲内で任意の位置姿勢をとること
ができるロボットの手先に物体を把持するためのハンド
リング手段と、距離画像を得る視覚センサを備えるハン
ドリングロボットの画像処理方法において、前記視覚セ
ンサにより得られた距離画像から把持可能領域を探索
し、この情報を用いて一個の物体の位置姿勢を推定する
ことを特徴とする画像処理方法。 - 【請求項2】 請求項1において、前記把持可能領域を
探索する際にマッチングの評価関数に重みを持つことを
特徴とする請求項1記載の画像処理方法。 - 【請求項3】 請求項1において、推定した把持可能領
域の中で最短距離の物を優先して選択することを特徴と
する請求項1記載の画像処理方法。 - 【請求項4】 請求項1において、把持可能領域を探索
する際に複数の注視領域を用いて並列的に処理すること
を特徴とする請求項1記載の画像処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11705996A JPH09277184A (ja) | 1996-04-15 | 1996-04-15 | 画像処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11705996A JPH09277184A (ja) | 1996-04-15 | 1996-04-15 | 画像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH09277184A true JPH09277184A (ja) | 1997-10-28 |
Family
ID=14702417
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11705996A Pending JPH09277184A (ja) | 1996-04-15 | 1996-04-15 | 画像処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH09277184A (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11219421A (ja) * | 1998-01-30 | 1999-08-10 | Toshiba Corp | 画像認識装置及び画像認識装置方法 |
WO2000057129A1 (fr) * | 1999-03-19 | 2000-09-28 | Matsushita Electric Works, Ltd. | Procede de reconnaissance d'objet tridimensionnel et systeme de collecte de broches a l'aide de ce procede |
JP2004188562A (ja) * | 2002-12-13 | 2004-07-08 | Fanuc Ltd | ワーク取出し装置 |
US7123992B2 (en) | 2002-11-11 | 2006-10-17 | Fanuc Ltd | Article pickup device |
JP2009128192A (ja) * | 2007-11-22 | 2009-06-11 | Ihi Corp | 物体認識装置およびロボット装置 |
JP2009216480A (ja) * | 2008-03-10 | 2009-09-24 | Ihi Corp | 三次元位置姿勢計測方法および装置 |
JP2009216503A (ja) * | 2008-03-10 | 2009-09-24 | Ihi Corp | 三次元位置姿勢計測方法および装置 |
JP2010210511A (ja) * | 2009-03-11 | 2010-09-24 | Honda Motor Co Ltd | 対象物の3次元位置・姿勢認識装置及びその方法 |
JP2011093058A (ja) * | 2009-10-30 | 2011-05-12 | Fuji Electric Holdings Co Ltd | 対象物把持領域抽出装置および対象物把持領域抽出装置を用いたロボットシステム |
WO2012066819A1 (ja) * | 2010-11-17 | 2012-05-24 | 三菱電機株式会社 | ワーク取り出し装置 |
US8787647B2 (en) | 2009-06-10 | 2014-07-22 | Mitsubishi Electric Corporation | Image matching device and patient positioning device using the same |
JP2014205209A (ja) * | 2013-04-11 | 2014-10-30 | 三菱電機株式会社 | ロボットシステム、及びロボットシステムの制御方法 |
-
1996
- 1996-04-15 JP JP11705996A patent/JPH09277184A/ja active Pending
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11219421A (ja) * | 1998-01-30 | 1999-08-10 | Toshiba Corp | 画像認識装置及び画像認識装置方法 |
WO2000057129A1 (fr) * | 1999-03-19 | 2000-09-28 | Matsushita Electric Works, Ltd. | Procede de reconnaissance d'objet tridimensionnel et systeme de collecte de broches a l'aide de ce procede |
US6721444B1 (en) | 1999-03-19 | 2004-04-13 | Matsushita Electric Works, Ltd. | 3-dimensional object recognition method and bin-picking system using the method |
US7123992B2 (en) | 2002-11-11 | 2006-10-17 | Fanuc Ltd | Article pickup device |
JP2004188562A (ja) * | 2002-12-13 | 2004-07-08 | Fanuc Ltd | ワーク取出し装置 |
US7203573B2 (en) | 2002-12-13 | 2007-04-10 | Fanuc Ltd | Workpiece taking-out apparatus |
JP2009128192A (ja) * | 2007-11-22 | 2009-06-11 | Ihi Corp | 物体認識装置およびロボット装置 |
JP2009216503A (ja) * | 2008-03-10 | 2009-09-24 | Ihi Corp | 三次元位置姿勢計測方法および装置 |
JP2009216480A (ja) * | 2008-03-10 | 2009-09-24 | Ihi Corp | 三次元位置姿勢計測方法および装置 |
JP2010210511A (ja) * | 2009-03-11 | 2010-09-24 | Honda Motor Co Ltd | 対象物の3次元位置・姿勢認識装置及びその方法 |
US8787647B2 (en) | 2009-06-10 | 2014-07-22 | Mitsubishi Electric Corporation | Image matching device and patient positioning device using the same |
JP2011093058A (ja) * | 2009-10-30 | 2011-05-12 | Fuji Electric Holdings Co Ltd | 対象物把持領域抽出装置および対象物把持領域抽出装置を用いたロボットシステム |
WO2012066819A1 (ja) * | 2010-11-17 | 2012-05-24 | 三菱電機株式会社 | ワーク取り出し装置 |
JPWO2012066819A1 (ja) * | 2010-11-17 | 2014-05-12 | 三菱電機株式会社 | ワーク取り出し装置 |
JP5558585B2 (ja) * | 2010-11-17 | 2014-07-23 | 三菱電機株式会社 | ワーク取り出し装置 |
US9089966B2 (en) | 2010-11-17 | 2015-07-28 | Mitsubishi Electric Corporation | Workpiece pick-up apparatus |
JP2014205209A (ja) * | 2013-04-11 | 2014-10-30 | 三菱電機株式会社 | ロボットシステム、及びロボットシステムの制御方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Breyer et al. | Volumetric grasping network: Real-time 6 dof grasp detection in clutter | |
Schmidt et al. | Grasping of unknown objects using deep convolutional neural networks based on depth images | |
JP6529302B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
Kim et al. | Convolutional neural network-based real-time ROV detection using forward-looking sonar image | |
CN111251295B (zh) | 一种应用于参数化零件的视觉机械臂抓取方法及装置 | |
WO2019176737A1 (ja) | 演算装置、演算方法、及びそのプログラム | |
CN106056643B (zh) | 一种基于点云的室内动态场景slam方法及系统 | |
JPH09277184A (ja) | 画像処理方法 | |
Qian et al. | Grasp pose detection with affordance-based task constraint learning in single-view point clouds | |
CN109323709B (zh) | 视觉里程计方法、装置和计算机可读存储介质 | |
JP6192088B2 (ja) | 物体検出方法および物体検出装置 | |
CN109508707B (zh) | 基于单目视觉的机器人稳定抓取物体的抓取点获取方法 | |
CN114140418A (zh) | 一种基于rgb图像和深度图像的七自由度抓取姿势检测方法 | |
CN112288809B (zh) | 一种用于多物体复杂场景的机器人抓取检测方法 | |
CN112967388A (zh) | 三维时序图像神经网络模型的训练方法和装置 | |
Breyer et al. | Closed-loop next-best-view planning for target-driven grasping | |
CN114211490B (zh) | 一种基于Transformer模型的机械臂抓手位姿预测方法 | |
CN113538576B (zh) | 基于双臂机器人的抓取方法、装置及双臂机器人 | |
JP7066671B2 (ja) | 干渉判定装置、干渉判定方法、プログラム及びシステム | |
JP5218209B2 (ja) | 複数の物体間の相対移動を検出する方法 | |
Lin et al. | Robotic grasp detection by rotation region CNN | |
JP2024019852A (ja) | ハンドリング装置、ハンドリング方法及びプログラム | |
JPH07146121A (ja) | 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置 | |
CN114782689A (zh) | 一种基于多帧数据融合的点云平面分割方法 | |
JP6644846B1 (ja) | ワークの位置姿勢認識装置およびピッキングシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Effective date: 20040413 Free format text: JAPANESE INTERMEDIATE CODE: A02 |