JP2020034526A - ワークの位置姿勢認識装置およびピッキングシステム - Google Patents

ワークの位置姿勢認識装置およびピッキングシステム Download PDF

Info

Publication number
JP2020034526A
JP2020034526A JP2018163669A JP2018163669A JP2020034526A JP 2020034526 A JP2020034526 A JP 2020034526A JP 2018163669 A JP2018163669 A JP 2018163669A JP 2018163669 A JP2018163669 A JP 2018163669A JP 2020034526 A JP2020034526 A JP 2020034526A
Authority
JP
Japan
Prior art keywords
model
work
point cloud
axial direction
cloud data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018163669A
Other languages
English (en)
Other versions
JP6644846B1 (ja
Inventor
倫太郎 今井
Rintaro Imai
倫太郎 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokiwa System Tech Inc
Tokiwa System Technologies Inc
Original Assignee
Tokiwa System Tech Inc
Tokiwa System Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokiwa System Tech Inc, Tokiwa System Technologies Inc filed Critical Tokiwa System Tech Inc
Priority to JP2018163669A priority Critical patent/JP6644846B1/ja
Application granted granted Critical
Publication of JP6644846B1 publication Critical patent/JP6644846B1/ja
Publication of JP2020034526A publication Critical patent/JP2020034526A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】 ランダムに積まれたワークの位置姿勢を少ない演算量で認識でき、また、制御情報が少ないスカラロボットを使用できる位置姿勢認識装置およびこれを利用したピッキングシステムを提供する。【解決手段】 ランダムに積まれたワークWの点群データPを生成する。ワークWの半径rを推定し、推定した半径rに基づいてモデルMを生成する。生成したモデルMを、法線ベクトルnに基づいて推定した原点Oに配置し、z軸周りに回転させ、所定の回転角度毎に点群データPとの一致度を算出する。最も一致度が大きい回転角度をワークWの軸方向として推定する。【選択図】図1

Description

本発明は、ランダムに積まれたワークの位置姿勢を認識する位置姿勢認識装置およびこれを用いたピッキングシステムに関する。
従来より、ランダムに山積みされたワークを撮影し、撮影画像を解析してワークの位置姿勢を認識し、認識した位置姿勢に基づいてロボットハンドを制御するピッキング技術が知られている。例えば、特許文献1には、検出対象物の距離画像から生成した点群とモデル点群を位置合わせし、物体の位置姿勢を検出する技術が記載されている。また、特許文献2には、対象物の画像の一部と対象物のテンプレート画像を照合して対象物の位置姿勢を推定し、推定した情報に基づいてロボットハンドを制御する技術が記載されている。
特開2018−088209号公報 特開2015−079374号公報
しかし、特許文献1,2の技術によれば、検出対象物であるワーク形状毎にあらかじめモデルやテンプレートを用意しなければならず、作業が煩雑になるという問題があった。また、ワーク表面とモデル表面を精密に照合して位置姿勢を算出しているため、演算量が膨大になるという問題があった。
そこで、本発明の目的は、あらかじめモデル等の準備をする必要がなく、位置姿勢を算出する際の演算量を抑制でき、さらにスカラロボットによるピッキングが可能なワークの位置姿勢認識装置およびこれを用いたピッキングシステムを提供することにある。
上記課題を解決するために、本発明の位置姿勢認識装置は、以下の特徴を備える。
(1)略円柱状のワークを表した点群データに基づいてワークの位置および姿勢を認識する装置であって、装置を制御する制御手段を備え、制御手段が、ワークのサイズに基づいてモデルを生成するモデル生成手段と、モデルを用いてワークの軸方向を推定する軸方向推定手段と、を含み、軸方向推定手段は、モデルを所定の回転軸周りに回転させ、点群データとの一致度が最も高い回転角度を軸方向として推定することを特徴とする。
(2)軸方向推定手段は、点群データに基づいて法線ベクトルを推定し、点群データに含まれる点群を、点群データにより表される略円柱の中心軸に向けて集積させ、点群の集積度に基づいてモデルの回転軸を選択する。
(3)制御手段が、ワークのサイズを推定するサイズ推定手段を含み、サイズ推定手段は、所定の値を仮ワーク径とし、仮ワーク径に対応するモデルを、モデル生成手段を用いて生成し、生成したモデルに対応する軸方向を、軸方向推定手段を用いて推定し、点群データとの一致度が最も高いモデルに対応する仮ワーク径を実ワーク径として推定する。
(4)軸方向推定手段が、モデル毎に点群データとの一致度の平均値を算出する手段を含み、サイズ推定手段は、平均値が最も高いモデルに対応する仮ワーク径を実ワーク径として推定する。
(5)一致度の高い順にモデルを記憶する手段を含み、制御手段は、モデルに基づいてワークが把持可能か否かを判断する把持可能性判断手段を含み、把持可能性判断手段は、記憶手段から一致度の高い順にモデルを読み出して把持可能性を判断し、把持可能なモデルを出力する。
また、本発明のピッキングシステムは、以下の特徴を備える。
(6)上記(1)〜(5)の何れかに記載の位置姿勢認識装置と、軸方向に基づいてワークを把持するメインハンドと、メインハンドが把持したワークの姿勢を変更する補助ハンドと、を備えたことを特徴とする。
(7)メインハンドによるワークの把持状態を検出するカメラを備え、補助ハンドは、カメラの検出結果に基づいてワークの姿勢を変更する。
本発明の位置姿勢認識装置およびピッキングシステムによれば、把持対象のワークを略円柱形状に限定し、ランダムに積まれた状態のワークの三次元画像から点群データを生成し、点群データに基づいてワークのサイズと位置姿勢を算出するため、あらかじめモデル等を準備する必要がないという効果を有する。また、精密な照合演算が不要なため、演算量を低減できるという優れた効果も有する。
本発明の一実施形態を示すピッキングシステムの(a)概略平面図、(b)概略右側面図である。 ピッキングシステムのブロック図である。 点群データの法線ベクトルから軸候補点を推定する処理を示す模式図である。 (a)仮半径ri(rmin≦ri≦rmax:i=0〜100)から生成されたモデルを、軸候補点を原点Oとするz軸周りに回転させる様子を示す模式図である。(b)仮半径ri毎に一致度の平均値をプロットしたグラフである。 ピッキングシステムの処理の流れを示すフローチャートである。 ピッキング動作を示す動作説明図である。 カメラの撮影画像からワークの把持状態を検出する処理を示す模式図である。 ピッキングしたワークの整列動作を示す動作説明図(1)である。 ピッキングしたワークの整列動作を示す動作説明図(2)である。
以下、本発明をピッキングシステムに具体化した一実施形態を図面に基づいて説明する。また、以下の説明において、スカラロボット3の座標軸を、背面から前方へ向かう方向をx軸方向、正面視左側から右側へ向かう向きをy軸方向、鉛直方向下から上に向かう方向をz軸とする。
図1,2に示すように、この実施形態のピッキングシステム1は、ランダムに積まれた測定対象物表面の三次元形状をスキャンする3Dスキャナ4と、3Dスキャナ4から受信した計測中間データを点群データPに変換し、点群データPに基づいてワークWの位置姿勢を認識する演算制御用PC2と、認識された位置姿勢に基づいてワークWをピッキングし、整列するスカラロボット3と、スカラロボット3によるワークWの把持状態を検出するカメラ5から構成される。このとき、測定対象物に含まれるワークWは、略同形状かつ略円柱状であることを要し、本実施例では、円柱状の胴体部に頭部を有するボルト状のワークWを挙げて説明する。なお、カメラ5は、バックライト6とともに使用しても良い。
演算制御用PC2は、演算制御を実施する制御部(CPU)21と、制御部21が算出したデータを保存する記憶部22と、3Dスキャナ4等の外部装置からデータを受信し、制御部21からの制御情報を外部装置に送信するインターフェース23から構成される。
制御部21は、3Dスキャナ4から受信した計測中間データを点群データPに変換する点群データ生成部24と、点群データPに基づいてワークWのサイズを推定するサイズ推定部25と、推定したサイズをパラメタとしてモデルMを生成するモデル生成部26と、生成したモデルMを用いて軸方向を推定する軸方向推定部27と、推定した軸方向に基づいてワークWの把持可能性を判断する把持可能性判断部28と、カメラ5の撮影画像を処理してワークWの把持状態を検出する把持状態検出部29から構成される。
ここで、点群データPとは、三次元点情報の配列(x,y,z)のことを言う。点群データPの取得の流れは、以下の通りである。
(1)PC2が、3Dスキャナ4へ計測トリガを発行する。
(2)3Dスキャナ4が、計測対象物の表面の三次元形状をスキャンする。
(3)3Dスキャナ4が、計測中間データをPC2へ送信する。
(4)PC2が、計測中間データを点群データPに変換する。
なお、3Dスキャナ4が、点群データPへの変換を実施する場合もある。しかし、点群データPの生成は計算量が多いため、一般的には演算制御PC2にて、専用ライブラリを用いて点群データPに変換される。また、三次元形状のスキャン手法としては、例えば、プロジェクタ方式、ステレオカメラ方式等が挙げられる。
モデル生成部26は、パラメタとして半径rを入力し、半径r、高さrの半円柱の側面部からなるワークWのモデルを生成する。
軸方向推定部27は、図3(a)に示すように、まず、点群データPに含まれる各々の点pについて法線ベクトルnを推定する。そして、点pを法線ベクトルnと逆方向に半径r分進めた点qを、法線ベクトルnの曲面を側面に含む円柱の軸候補点とし、軸候補点qを記憶部22に登録する。なお、点qは、下記の数式1により求められる。
Figure 2020034526
次に、軸方向推定部27は、軸候補点qの集積度を算出し、集積度の高い点qを特定する。そして、あらかじめ生成したモデルMの原点Oを、点qに配置し、点群データPとの一致度を算出する。一致度は、「モデルM付近に配置された点pの数」を、「モデルMを側面とする半径r、高さrの半円柱に含まれる点pの総数」で除算することにより求められる。軸方向推定部27は、モデルMを、z軸周りに0度から180度まで回転させ、z角度5度毎に一致度を算出して保持する。そして、最も一致度の高かったz角度をモデルMの軸方向として記憶部22に登録する。
サイズ推定部25は、図4(a)に示すように、最小半径rminと最大半径rmaxを仮定し、下記の数式2により求められるriを半径とするモデルMiをそれぞれ生成し、モデルMi毎に軸方向推定処理を実施する。モデルMiの生成および軸方向推定処理は、モデル生成部26および軸方向推定部27の処理と同じであるため説明を省略する。
Figure 2020034526
その後、サイズ推定部25は、半径ri毎に、z角度5度毎に算出した一致度の平均値を求め、最も平均値の高い半径riをワークWの半径rとして出力する。図4(b)に、一致度の平均値をプロットしたグラフを示す。ここでは、rmin=2.0mm、rmax=8.0mmとし、半径rを0.06mm増加させる毎に一致度の平均値をプロットしている。一致度の平均値が最も大きいriを、ワークWの実半径rと推定できる。
記憶部22は、一致度の高い順にモデルMを記憶している。詳しくは、点群データPには複数のワークWの表面形状が含まれているため、記憶部22では、それぞれのワークWと同じ軸方向を向くモデルMを算出し、一致度の高い順にモデルMを記憶する。
把持可能性判断部28は、記憶部22から一致度の高い順にモデルMを読み出し、メインハンド31が把持可能か否かを判断する。把持可能性の判断は、下記(1)〜(3)の条件の何れか一つに該当する場合に、把持不可能と判断する。
(1)メインハンド31による把持位置がスカラロボット3の可動範囲外である。
(2)メインハンド31とパレット12が干渉する。
(3)メインハンド31と、把持対象のワークWとは別のワークWが干渉する。
把持が不可能である場合には、記憶部22から次に一致度の高いモデルMを読み出す。そして、制御部21は、把持可能と判断されたモデルMに対応する制御情報をスカラロボット3に送信する。制御情報は、例えば、モデルMに対応する原点Oの座標(xo,yo,zo)および半径r等の制御パラメタを好適に採用できる。
スカラロボット3は、ワークWを把持するメインハンド31と、把持状態検出部29の検出結果に基づいてワークWの姿勢を変更する補助ハンド34から構成される。スカラロボット3は、z軸周りに回転し、メインハンド31を初期位置から補助ハンド34を経由しつつ整列トレイ11位置まで移動させる。
メインハンド31は、スカラロボット3のフランジ面に取り付けられ、電動グリッパ32と、ワークWを把持する把持爪33を備える。電動グリッパ32は、把持爪33を平行に移動して開閉させる機構を有する。把持爪33は任意の位置で保持可能であるため、様々なワークW径に対応できる。
補助ハンド34は、ピッキングシステム1を収容する筐体10に固定され、ワークWを挟持する挟持爪36と、挟持爪36を開閉させるエアチャック35と、挟持爪36およびエアチャック35を載置した回転ステージ37を備える。回転ステージ37は、−180〜180度の範囲で回転でき、任意の角度に位置決めできる。また、エアチャック35は、初期状態では挟持爪36を開位置に保持し、正圧エアを加圧することによって挟持爪36を閉じる機構を有する。
次に、上記構成のピッキングシステム1の処理の流れについて、図5に基づいて説明する。まず、ワークWがパレット12に投入されると(S1)、3Dスキャナ4がワークWをスキャンし、PC2に計測中間データを送信する。計測中間データを受信したPC2は、点群データPを生成し(S2)、半径をrmin〜rmaxと仮定してサイズを推定する(S3)。その後、実半径rを用いてモデルを生成し(S4)、モデルMを点群データPにあてはめて軸方向を推定する(S5)。ここで、ワークWの位置姿勢認識は、実半径rを用いたモデルの生成および軸方向の推定を主要部とする。この主要部となる処理は、点群データPに含まれるワークWの全てについて実施され、記憶部22では、一致度が高い順にモデルMをソートして記憶する。
位置姿勢の認識が終わると、制御部21は、記憶部22から最も一致度の高いモデルMを読み出し、把持対象の候補とする(S6:Yes)。そして、把持対象候補が、メインハンド31により把持可能である場合には(S7:Yes)、スカラロボット3にピッキング動作、続いて整列動作のための制御信号を送信する(S8,S9)。一方、把持不可能である場合には(S7:No)、記憶部22から次に一致度の高いモデルMを読み出し、把持可能性を判断する(S10)。
続いて、スカラロボット3の動作について図6〜9に基づいて説明する。ここでは、メインハンド31の初期位置を座標(x0,y0,z0)、PC2から受信したワークWの把持位置を座標(x1,y1,z1)、所定の遊びをαまたはβとして説明する。また、図面の記号(a)等に付した添え字については、「1」はピッキングシステム1を上方から見下ろした図、「2」はピッキングシステム1を側方から見た図であることを示す。
まず、メインハンド31によるピッキング動作を図6に基づいて説明する。メインハンド31は、PC2からピッキング制御情報を受信し、爪先(把持爪33の先端部)を図6(a)〜(g)に示すように動作させる。動作の内容を以下に記載する。
(a)爪先を待機位置(x0,y0,z0)で保持する。
(b)爪先をワークWの真上である座標(x1,y1,z0)に移動する。
(c)把持爪33をワークWの中心軸と平行になるように回転させる。
(d)電動グリッパ32を動作させ、爪先を「ワークWの直径+α」つまり、「半径r×2+α」まで開く。
(e)爪先を座標(x1,y1,z1)に移動する。
(f)電動グリッパ32を動作させ、爪先を「直径−β」つまり、「半径r×2−β」まで閉じる。
(g)爪先を座標(x1,y1,z0)に移動する。つまり、z方向に垂直に移動させ、z座標のみ待機位置z0まで戻す。
その後、爪先を待機位置(x0,y0,z0)まで戻す。このときは、ワークWは、必ずしも水平に把持されているとは限らない。
次に、メインハンド31および補助ハンド34による整列動作を図7〜9に基づいて説明する。ピッキング動作が終了すると、図7に示すように、カメラ5でワークWを把持した状態のメインハンド31を撮影し、把持状態を検出する。図7(a)〜(c)は、以下の状態を示している。
(a)メインハンド31、カメラ5、バックライト6の位置関係を示す図である。
(b)メインハンド31をカメラ5から見た図である。
(c)カメラ5が把持状態を撮影し、撮影画像51を出力する。出力した撮影画像51は、PC2に送信され、把持状態検出部29により処理される。
図7(d)〜(h)は、把持状態検出部29における以下の処理を示している。
(d)撮影画像51を二値化する。
(e)あらかじめ撮影したメインハンド31の把持爪33の画像でマスキングし、ワークWの画像のみ抽出する。
(f)抽出したワークWの画像について主成分分析し、ワークWの傾きを検出する。
(g)検出したワークWの傾きに沿って、ワークWの左端と右端を検出する。
(h)左端と右端のうち、太い方をワークの頭端Whとし、反対側を尾端Wtとする。
把持状態を検出した後、図8,9に示すように、メインハンド31から補助ハンド34、補助ハンド34からメインハンド31にワークWを受け渡し、ワークWの姿勢を変更する。図8(a)〜(f)および図9の(g)〜(l)は、以下の動作を示している。
(a)初期状態では、補助ハンド34の挟持爪36は開いている。
(b)補助ハンド34の回転ステージ37の角度をワークWの傾きにあわせて回転させる。
(c)メインハンド31を移動させ、ワークWの尾端Wtを、補助ハンド34の爪先(挟持爪36の先端部)付近まで運ぶ。
(d)メインハンド31をさらに移動させ、ワークWの尾端Wtを、補助ハンド34の挟持爪36の間に運ぶ。
(e)補助ハンド34の挟持爪36をワークWに合わせて閉じる
(f)メインハンド31の把持爪33を開いてワークWを開放する。
(g)メインハンド31をz方向に移動させる。
(h)補助ハンド34の回転ステージ37の角度を0度に戻す。
(i)メインハンド31をワークWの把持位置まで降ろす。
(j)メインハンド31を閉じてワークWを把持するとともに、補助ハンド34を開く。
(k)メインハンド31を横に移動して、補助ハンド34からワークWを引き抜く。
(l)スカラロボット3がz軸周りに回転移動し、メインハンド31は、ワークWを整列トレイに載置する。
以上の構成のピッキングシステム1によれば、把持対象のワークを略円柱形状に限定し、ランダムに積まれたワークWの計測中間データから点群データPを生成し、点群データPに基づいてワークWの位置および姿勢を算出するため、あらかじめモデル等を準備する必要がなく、作業工程を省くことができるという効果を有する。また、モデルMのあてはめの際に、精密な照合演算が不要であるため、演算量を低減できるという優れた効果も有する。さらに、本発明のピッキングシステムによれば、メインハンドが把持したワークの姿勢を補助ハンドによって補正するため、制御情報が少ないスカラロボットを採用できるという効果も有する。
その他、本発明は、上記実施形態に限定されるものではなく、発明の趣旨を逸脱しない範囲で、各部の構成を任意に変更して実施することも可能である。
1 ピッキングシステム
2 演算制御用PC(位置姿勢認識装置)
3 スカラロボット
4 3Dスキャナ
5 カメラ
21 制御部
22 記憶部
23 インターフェース
24 点群データ生成部
25 サイズ推定部
26 モデル生成部
27 軸方向推定部
28 把持可能性判断部
29 把持状態検出部
31 メインハンド
32 電動グリッパ
33 把持爪
34 補助ハンド
35 エアチャック
36 挟持爪
37 回転ステージ
O 原点
P 点群データ
M モデル
W ワーク
q 軸候補点
p 点群データに含まれる各点
r 半径
n 法線ベクトル

Claims (7)

  1. 略円柱状のワークを表した点群データに基づいてワークの位置および姿勢を認識する装置であって、
    前記装置を制御する制御手段を備え、
    前記制御手段が、ワークのサイズに基づいてモデルを生成するモデル生成手段と、前記モデルを用いてワークの軸方向を推定する軸方向推定手段と、を含み、
    前記軸方向推定手段は、前記モデルを所定の回転軸周りに回転させ、点群データとの一致度が最も高い回転角度を軸方向として推定することを特徴とする位置姿勢認識装置。
  2. 前記軸方向推定手段は、前記点群データに基づいて法線ベクトルを推定し、前記点群データに含まれる点群を、前記点群データにより表される略円柱の中心軸に向けて集積させ、前記点群の集積度に基づいて前記モデルの回転軸を選択する請求項1に記載の位置姿勢認識装置。
  3. 前記制御手段が、ワークのサイズを推定するサイズ推定手段を含み、
    前記サイズ推定手段は、所定の値を仮ワーク径とし、仮ワーク径に対応するモデルを、前記モデル生成手段を用いて生成し、生成したモデルに対応する軸方向を、前記軸方向推定手段を用いて推定し、点群データとの一致度が最も高いモデルに対応する仮ワーク径を実ワーク径として推定する請求項1または2に記載の位置姿勢認識装置。
  4. 前記軸方向推定手段が、前記モデル毎に前記点群データとの一致度の平均値を算出する手段を含み、
    前記サイズ推定手段は、前記平均値が最も高いモデルに対応する仮ワーク径を実ワーク径として推定する請求項3に記載の位置姿勢認識装置。
  5. 前記一致度の高い順にモデルを記憶する手段を含み、
    前記制御手段は、前記モデルに基づいてワークが把持可能か否かを判断する把持可能性判断手段を含み、
    前記把持可能性判断手段は、前記記憶手段から一致度の高い順に前記モデルを読み出して把持可能性を判断し、把持可能なモデルを出力する請求項1〜4のいずれかに記載の位置姿勢認識装置。
  6. 請求項1〜5の何れかに記載の位置姿勢認識装置と、前記軸方向に基づいてワークを把持するメインハンドと、前記メインハンドが把持したワークの姿勢を変更する補助ハンドと、を備えたことを特徴とするピッキングシステム。
  7. 前記メインハンドによるワークの把持状態を検出するカメラを備え、
    前記補助ハンドは、前記カメラの検出結果に基づいてワークの姿勢を変更する請求項6に記載のピッキングシステム。
JP2018163669A 2018-08-31 2018-08-31 ワークの位置姿勢認識装置およびピッキングシステム Active JP6644846B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018163669A JP6644846B1 (ja) 2018-08-31 2018-08-31 ワークの位置姿勢認識装置およびピッキングシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018163669A JP6644846B1 (ja) 2018-08-31 2018-08-31 ワークの位置姿勢認識装置およびピッキングシステム

Publications (2)

Publication Number Publication Date
JP6644846B1 JP6644846B1 (ja) 2020-02-12
JP2020034526A true JP2020034526A (ja) 2020-03-05

Family

ID=69412180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018163669A Active JP6644846B1 (ja) 2018-08-31 2018-08-31 ワークの位置姿勢認識装置およびピッキングシステム

Country Status (1)

Country Link
JP (1) JP6644846B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022234752A1 (ja) * 2021-05-06 2022-11-10 三菱電機株式会社 ピッキングシステム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001174221A (ja) * 1999-12-16 2001-06-29 Juki Corp 部品位置検出方法及び装置
JP2002200588A (ja) * 2000-12-28 2002-07-16 Denso Corp ロボットによる把持可能部品の把持位置検出方法及びその装置
JP2010105105A (ja) * 2008-10-29 2010-05-13 Olympus Corp 自動生産装置
JP2012055999A (ja) * 2010-09-07 2012-03-22 Canon Inc 物体把持システム、物体把持方法、プログラム、およびロボットシステム
JP2012163450A (ja) * 2011-02-07 2012-08-30 Ihi Corp 形状認識装置、形状認識方法、および、そのプログラム
JP2012206219A (ja) * 2011-03-30 2012-10-25 Seiko Epson Corp ロボット制御装置及びロボットシステム
JP2012242281A (ja) * 2011-05-20 2012-12-10 Omron Corp 検出対象物の中心位置を算出する方法、装置およびプログラム
US20160138905A1 (en) * 2013-06-05 2016-05-19 Ponsse Oyj Method and arrangement for measuring timber

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001174221A (ja) * 1999-12-16 2001-06-29 Juki Corp 部品位置検出方法及び装置
JP2002200588A (ja) * 2000-12-28 2002-07-16 Denso Corp ロボットによる把持可能部品の把持位置検出方法及びその装置
JP2010105105A (ja) * 2008-10-29 2010-05-13 Olympus Corp 自動生産装置
JP2012055999A (ja) * 2010-09-07 2012-03-22 Canon Inc 物体把持システム、物体把持方法、プログラム、およびロボットシステム
JP2012163450A (ja) * 2011-02-07 2012-08-30 Ihi Corp 形状認識装置、形状認識方法、および、そのプログラム
JP2012206219A (ja) * 2011-03-30 2012-10-25 Seiko Epson Corp ロボット制御装置及びロボットシステム
JP2012242281A (ja) * 2011-05-20 2012-12-10 Omron Corp 検出対象物の中心位置を算出する方法、装置およびプログラム
US20160138905A1 (en) * 2013-06-05 2016-05-19 Ponsse Oyj Method and arrangement for measuring timber

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022234752A1 (ja) * 2021-05-06 2022-11-10 三菱電機株式会社 ピッキングシステム

Also Published As

Publication number Publication date
JP6644846B1 (ja) 2020-02-12

Similar Documents

Publication Publication Date Title
US11511421B2 (en) Object recognition processing apparatus and method, and object picking apparatus and method
JP5778311B1 (ja) ピッキング装置およびピッキング方法
JP6117901B1 (ja) 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム
JP6529302B2 (ja) 情報処理装置、情報処理方法、プログラム
JP6415026B2 (ja) 干渉判定装置、干渉判定方法、コンピュータプログラム
US7283661B2 (en) Image processing apparatus
JP5088278B2 (ja) 物体検出方法と物体検出装置およびロボットシステム
JP6632656B2 (ja) 干渉判定装置、干渉判定方法、コンピュータプログラム
WO2020190166A1 (ru) Способ и система захвата объекта с помощью роботизированного устройства
CN111745640A (zh) 物体检测方法、物体检测装置以及机器人系统
JP6644846B1 (ja) ワークの位置姿勢認識装置およびピッキングシステム
CN110298879B (zh) 一种待抓取物体位姿的确定方法、装置及电子设备
Kaipa et al. Enhancing robotic unstructured bin-picking performance by enabling remote human interventions in challenging perception scenarios
JP2011093058A (ja) 対象物把持領域抽出装置および対象物把持領域抽出装置を用いたロボットシステム
CN111598172A (zh) 基于异构深度网络融合的动态目标抓取姿态快速检测方法
CN116188540A (zh) 一种基于点云信息的目标识别和位姿估计方法
CN113538459B (zh) 一种基于落点区域检测的多模式抓取避障检测优化方法
JP7066671B2 (ja) 干渉判定装置、干渉判定方法、プログラム及びシステム
CN116572253B (zh) 一种试管的抓取控制方法及装置
JP6908908B2 (ja) ロボットアームの経路生成装置および経路生成プログラム
JP2021016910A (ja) ピッキングまたはデバンニング用対象物認識装置、ピッキングまたはデバンニング用対象物認識方法、ならびにプログラム
CN115797332B (zh) 基于实例分割的目标物抓取方法和设备
US20230386075A1 (en) Method, System, And Computer Program For Recognizing Position And Posture Of Object
CN114431147B (zh) 应用于蝴蝶兰种苗切割的双臂切割装置及双臂切割方法
Park et al. Robot-based Object Pose Auto-annotation System for Dexterous Manipulation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200108

R150 Certificate of patent or registration of utility model

Ref document number: 6644846

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250