JP6644846B1 - Work position and orientation recognition device and picking system - Google Patents
Work position and orientation recognition device and picking system Download PDFInfo
- Publication number
- JP6644846B1 JP6644846B1 JP2018163669A JP2018163669A JP6644846B1 JP 6644846 B1 JP6644846 B1 JP 6644846B1 JP 2018163669 A JP2018163669 A JP 2018163669A JP 2018163669 A JP2018163669 A JP 2018163669A JP 6644846 B1 JP6644846 B1 JP 6644846B1
- Authority
- JP
- Japan
- Prior art keywords
- model
- work
- point cloud
- cloud data
- axial direction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Manipulator (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
【課題】 ランダムに積まれたワークの位置姿勢を少ない演算量で認識でき、また、制御情報が少ないスカラロボットを使用できる位置姿勢認識装置およびこれを利用したピッキングシステムを提供する。【解決手段】 ランダムに積まれたワークWの点群データPを生成する。ワークWの半径rを推定し、推定した半径rに基づいてモデルMを生成する。生成したモデルMを、法線ベクトルnに基づいて推定した原点Oに配置し、z軸周りに回転させ、所定の回転角度毎に点群データPとの一致度を算出する。最も一致度が大きい回転角度をワークWの軸方向として推定する。【選択図】図1PROBLEM TO BE SOLVED: To provide a position and orientation recognition device capable of recognizing the position and orientation of a randomly stacked work with a small amount of calculation and capable of using a scalar robot with little control information, and a picking system using the same. SOLUTION: Point cloud data P of a work W stacked at random is generated. A radius r of the work W is estimated, and a model M is generated based on the estimated radius r. The generated model M is arranged at the origin O estimated based on the normal vector n, rotated about the z-axis, and the degree of coincidence with the point cloud data P is calculated for each predetermined rotation angle. The rotation angle having the highest degree of coincidence is estimated as the axial direction of the workpiece W. [Selection diagram] Fig. 1
Description
本発明は、ランダムに積まれたワークの位置姿勢を認識する位置姿勢認識装置およびこれを用いたピッキングシステムに関する。 The present invention relates to a position and orientation recognition device that recognizes the position and orientation of randomly stacked works and a picking system using the same.
従来より、ランダムに山積みされたワークを撮影し、撮影画像を解析してワークの位置姿勢を認識し、認識した位置姿勢に基づいてロボットハンドを制御するピッキング技術が知られている。例えば、特許文献1には、検出対象物の距離画像から生成した点群とモデル点群を位置合わせし、物体の位置姿勢を検出する技術が記載されている。また、特許文献2には、対象物の画像の一部と対象物のテンプレート画像を照合して対象物の位置姿勢を推定し、推定した情報に基づいてロボットハンドを制御する技術が記載されている。
2. Description of the Related Art Conventionally, a picking technique has been known in which a work piled up at random is photographed, a photographed image is analyzed to recognize the position and posture of the work, and a robot hand is controlled based on the recognized position and posture. For example,
しかし、特許文献1,2の技術によれば、検出対象物であるワーク形状毎にあらかじめモデルやテンプレートを用意しなければならず、作業が煩雑になるという問題があった。また、ワーク表面とモデル表面を精密に照合して位置姿勢を算出しているため、演算量が膨大になるという問題があった。
However, according to the techniques of
そこで、本発明の目的は、あらかじめモデル等の準備をする必要がなく、位置姿勢を算出する際の演算量を抑制でき、さらにスカラロボットによるピッキングが可能なワークの位置姿勢認識装置およびこれを用いたピッキングシステムを提供することにある。 Therefore, an object of the present invention is to eliminate the need for preparing a model or the like in advance, suppress the amount of calculation when calculating the position and orientation, and further use a position and orientation recognition device for a work that can be picked by a scalar robot, and to use the device. The purpose of the present invention is to provide a picking system.
上記課題を解決するために、本発明の位置姿勢認識装置は、以下の特徴を備える。
(1)略円柱状のワークを表した点群データに基づいてワークの位置および姿勢を認識する装置であって、装置を制御する制御手段を備え、制御手段が、ワークのサイズに基づいてモデルを生成するモデル生成手段と、モデルを用いてワークの軸方向を推定する軸方向推定手段と、を含み、軸方向推定手段は、モデルを所定の回転軸周りに回転させ、点群データとの一致度が最も高い回転角度を軸方向として推定することを特徴とする。
In order to solve the above problems, a position and orientation recognition apparatus according to the present invention has the following features.
(1) An apparatus for recognizing the position and orientation of a work based on point cloud data representing a substantially cylindrical work, comprising control means for controlling the apparatus, wherein the control means performs a model based on the size of the work. And an axial direction estimating unit for estimating the axial direction of the workpiece using the model.The axial direction estimating unit rotates the model around a predetermined rotation axis, and The rotation angle having the highest degree of coincidence is estimated as the axial direction.
(2)軸方向推定手段は、点群データに基づいて法線ベクトルを推定し、点群データに含まれる点群を、点群データにより表される略円柱の中心軸に向けて集積させ、点群の集積度に基づいてモデルの回転軸を選択する。 (2) The axial direction estimating means estimates a normal vector based on the point cloud data, and accumulates the point cloud included in the point cloud data toward a central axis of a substantially cylinder represented by the point cloud data; The rotation axis of the model is selected based on the degree of integration of the point cloud.
(3)制御手段が、ワークのサイズを推定するサイズ推定手段を含み、サイズ推定手段は、所定の値を仮ワーク径とし、仮ワーク径に対応するモデルを、モデル生成手段を用いて生成し、生成したモデルに対応する軸方向を、軸方向推定手段を用いて推定し、点群データとの一致度が最も高いモデルに対応する仮ワーク径を実ワーク径として推定する。 (3) The control means includes a size estimating means for estimating the size of the work, and the size estimating means sets a predetermined value as a temporary work diameter, and generates a model corresponding to the temporary work diameter using the model generating means. Then, the axial direction corresponding to the generated model is estimated using the axial direction estimating means, and the temporary work diameter corresponding to the model having the highest degree of coincidence with the point cloud data is estimated as the actual work diameter.
(4)軸方向推定手段が、モデル毎に点群データとの一致度の平均値を算出する手段を含み、サイズ推定手段は、平均値が最も高いモデルに対応する仮ワーク径を実ワーク径として推定する。 (4) The axial direction estimating means includes means for calculating the average value of the degree of coincidence with the point cloud data for each model, and the size estimating means calculates the temporary work diameter corresponding to the model having the highest average value as the actual work diameter. Is estimated as
(5)一致度の高い順にモデルを記憶する手段を含み、制御手段は、モデルに基づいてワークが把持可能か否かを判断する把持可能性判断手段を含み、把持可能性判断手段は、記憶手段から一致度の高い順にモデルを読み出して把持可能性を判断し、把持可能なモデルを出力する。 (5) means for storing models in descending order of coincidence; control means includes grippability determining means for determining whether or not the workpiece can be gripped based on the model; The model is read out from the means in the order of the degree of coincidence, the possibility of grasping is determined, and a graspable model is output.
また、本発明のピッキングシステムは、以下の特徴を備える。
(6)上記(1)〜(5)の何れかに記載の位置姿勢認識装置と、軸方向に基づいてワークを把持するメインハンドと、メインハンドが把持したワークの姿勢を変更する補助ハンドと、を備えたことを特徴とする。
The picking system of the present invention has the following features.
(6) The position and orientation recognition device according to any one of (1) to (5), a main hand that grips the workpiece based on the axial direction, and an auxiliary hand that changes the attitude of the workpiece gripped by the main hand. , Is provided.
(7)メインハンドによるワークの把持状態を検出するカメラを備え、補助ハンドは、カメラの検出結果に基づいてワークの姿勢を変更する。 (7) A camera is provided for detecting the gripping state of the work by the main hand, and the auxiliary hand changes the posture of the work based on the detection result of the camera.
本発明の位置姿勢認識装置およびピッキングシステムによれば、把持対象のワークを略円柱形状に限定し、ランダムに積まれた状態のワークの三次元画像から点群データを生成し、点群データに基づいてワークのサイズと位置姿勢を算出するため、あらかじめモデル等を準備する必要がないという効果を有する。また、精密な照合演算が不要なため、演算量を低減できるという優れた効果も有する。 According to the position and orientation recognition apparatus and the picking system of the present invention, the work to be grasped is limited to a substantially cylindrical shape, and point cloud data is generated from a three-dimensional image of a randomly stacked work, and the point cloud data is generated. Since the size and the position and orientation of the work are calculated based on this, there is an effect that it is not necessary to prepare a model or the like in advance. Further, since a precise collation operation is not required, there is also an excellent effect that the amount of operation can be reduced.
以下、本発明をピッキングシステムに具体化した一実施形態を図面に基づいて説明する。また、以下の説明において、スカラロボット3の座標軸を、背面から前方へ向かう方向をx軸方向、正面視左側から右側へ向かう向きをy軸方向、鉛直方向下から上に向かう方向をz軸とする。
Hereinafter, an embodiment in which the present invention is embodied in a picking system will be described with reference to the drawings. In the following description, the coordinate axes of the SCARA
図1,2に示すように、この実施形態のピッキングシステム1は、ランダムに積まれた測定対象物表面の三次元形状をスキャンする3Dスキャナ4と、3Dスキャナ4から受信した計測中間データを点群データPに変換し、点群データPに基づいてワークWの位置姿勢を認識する演算制御用PC2と、認識された位置姿勢に基づいてワークWをピッキングし、整列するスカラロボット3と、スカラロボット3によるワークWの把持状態を検出するカメラ5から構成される。このとき、測定対象物に含まれるワークWは、略同形状かつ略円柱状であることを要し、本実施例では、円柱状の胴体部に頭部を有するボルト状のワークWを挙げて説明する。なお、カメラ5は、バックライト6とともに使用しても良い。
As shown in FIGS. 1 and 2, the
演算制御用PC2は、演算制御を実施する制御部(CPU)21と、制御部21が算出したデータを保存する記憶部22と、3Dスキャナ4等の外部装置からデータを受信し、制御部21からの制御情報を外部装置に送信するインターフェース23から構成される。
The
制御部21は、3Dスキャナ4から受信した計測中間データを点群データPに変換する点群データ生成部24と、点群データPに基づいてワークWのサイズを推定するサイズ推定部25と、推定したサイズをパラメタとしてモデルMを生成するモデル生成部26と、生成したモデルMを用いて軸方向を推定する軸方向推定部27と、推定した軸方向に基づいてワークWの把持可能性を判断する把持可能性判断部28と、カメラ5の撮影画像を処理してワークWの把持状態を検出する把持状態検出部29から構成される。
The control unit 21 includes a point cloud
ここで、点群データPとは、三次元点情報の配列(x,y,z)のことを言う。点群データPの取得の流れは、以下の通りである。
(1)PC2が、3Dスキャナ4へ計測トリガを発行する。
(2)3Dスキャナ4が、計測対象物の表面の三次元形状をスキャンする。
(3)3Dスキャナ4が、計測中間データをPC2へ送信する。
(4)PC2が、計測中間データを点群データPに変換する。
なお、3Dスキャナ4が、点群データPへの変換を実施する場合もある。しかし、点群データPの生成は計算量が多いため、一般的には演算制御PC2にて、専用ライブラリを用いて点群データPに変換される。また、三次元形状のスキャン手法としては、例えば、プロジェクタ方式、ステレオカメラ方式等が挙げられる。
Here, the point group data P refers to an array (x, y, z) of three-dimensional point information. The flow of obtaining the point cloud data P is as follows.
(1) The
(2) The
(3) The
(4) The PC 2 converts the measured intermediate data into the point cloud data P.
In some cases, the
モデル生成部26は、パラメタとして半径rを入力し、半径r、高さrの半円柱の側面部からなるワークWのモデルを生成する。
The
軸方向推定部27は、図3(a)に示すように、まず、点群データPに含まれる各々の点pについて法線ベクトルnを推定する。そして、点pを法線ベクトルnと逆方向に半径r分進めた点qを、法線ベクトルnの曲面を側面に含む円柱の軸候補点とし、軸候補点qを記憶部22に登録する。なお、点qは、下記の数式1により求められる。
The axial
次に、軸方向推定部27は、軸候補点qの集積度を算出し、集積度の高い点qを特定する。そして、あらかじめ生成したモデルMの原点Oを、点qに配置し、点群データPとの一致度を算出する。一致度は、「モデルM付近に配置された点pの数」を、「モデルMを側面とする半径r、高さrの半円柱に含まれる点pの総数」で除算することにより求められる。軸方向推定部27は、モデルMを、z軸周りに0度から180度まで回転させ、z角度5度毎に一致度を算出して保持する。そして、最も一致度の高かったz角度をモデルMの軸方向として記憶部22に登録する。
Next, the axial
サイズ推定部25は、図4(a)に示すように、最小半径rminと最大半径rmaxを仮定し、下記の数式2により求められるriを半径とするモデルMiをそれぞれ生成し、モデルMi毎に軸方向推定処理を実施する。モデルMiの生成および軸方向推定処理は、モデル生成部26および軸方向推定部27の処理と同じであるため説明を省略する。
その後、サイズ推定部25は、半径ri毎に、z角度5度毎に算出した一致度の平均値を求め、最も平均値の高い半径riをワークWの半径rとして出力する。図4(b)に、一致度の平均値をプロットしたグラフを示す。ここでは、rmin=2.0mm、rmax=8.0mmとし、半径rを0.06mm増加させる毎に一致度の平均値をプロットしている。一致度の平均値が最も大きいriを、ワークWの実半径rと推定できる。
Thereafter, the
記憶部22は、一致度の高い順にモデルMを記憶している。詳しくは、点群データPには複数のワークWの表面形状が含まれているため、記憶部22では、それぞれのワークWと同じ軸方向を向くモデルMを算出し、一致度の高い順にモデルMを記憶する。 The storage unit 22 stores the models M in descending order of the degree of matching. More specifically, since the point cloud data P includes the surface shapes of a plurality of works W, the storage unit 22 calculates a model M oriented in the same axial direction as each of the works W, and stores the models M in descending order of coincidence. M is stored.
把持可能性判断部28は、記憶部22から一致度の高い順にモデルMを読み出し、メインハンド31が把持可能か否かを判断する。把持可能性の判断は、下記(1)〜(3)の条件の何れか一つに該当する場合に、把持不可能と判断する。
(1)メインハンド31による把持位置がスカラロボット3の可動範囲外である。
(2)メインハンド31とパレット12が干渉する。
(3)メインハンド31と、把持対象のワークWとは別のワークWが干渉する。
把持が不可能である場合には、記憶部22から次に一致度の高いモデルMを読み出す。そして、制御部21は、把持可能と判断されたモデルMに対応する制御情報をスカラロボット3に送信する。制御情報は、例えば、モデルMに対応する原点Oの座標(xo,yo,zo)および半径r等の制御パラメタを好適に採用できる。
The grip
(1) The gripping position by the
(2) The
(3) The
If gripping is impossible, the model M having the next highest matching degree is read from the storage unit 22. Then, the control unit 21 transmits control information corresponding to the model M determined to be grippable to the
スカラロボット3は、ワークWを把持するメインハンド31と、把持状態検出部29の検出結果に基づいてワークWの姿勢を変更する補助ハンド34から構成される。スカラロボット3は、z軸周りに回転し、メインハンド31を初期位置から補助ハンド34を経由しつつ整列トレイ11位置まで移動させる。
The
メインハンド31は、スカラロボット3のフランジ面に取り付けられ、電動グリッパ32と、ワークWを把持する把持爪33を備える。電動グリッパ32は、把持爪33を平行に移動して開閉させる機構を有する。把持爪33は任意の位置で保持可能であるため、様々なワークW径に対応できる。
The
補助ハンド34は、ピッキングシステム1を収容する筐体10に固定され、ワークWを挟持する挟持爪36と、挟持爪36を開閉させるエアチャック35と、挟持爪36およびエアチャック35を載置した回転ステージ37を備える。回転ステージ37は、−180〜180度の範囲で回転でき、任意の角度に位置決めできる。また、エアチャック35は、初期状態では挟持爪36を開位置に保持し、正圧エアを加圧することによって挟持爪36を閉じる機構を有する。
The
次に、上記構成のピッキングシステム1の処理の流れについて、図5に基づいて説明する。まず、ワークWがパレット12に投入されると(S1)、3Dスキャナ4がワークWをスキャンし、PC2に計測中間データを送信する。計測中間データを受信したPC2は、点群データPを生成し(S2)、半径をrmin〜rmaxと仮定してサイズを推定する(S3)。その後、実半径rを用いてモデルを生成し(S4)、モデルMを点群データPにあてはめて軸方向を推定する(S5)。ここで、ワークWの位置姿勢認識は、実半径rを用いたモデルの生成および軸方向の推定を主要部とする。この主要部となる処理は、点群データPに含まれるワークWの全てについて実施され、記憶部22では、一致度が高い順にモデルMをソートして記憶する。
Next, a processing flow of the
位置姿勢の認識が終わると、制御部21は、記憶部22から最も一致度の高いモデルMを読み出し、把持対象の候補とする(S6:Yes)。そして、把持対象候補が、メインハンド31により把持可能である場合には(S7:Yes)、スカラロボット3にピッキング動作、続いて整列動作のための制御信号を送信する(S8,S9)。一方、把持不可能である場合には(S7:No)、記憶部22から次に一致度の高いモデルMを読み出し、把持可能性を判断する(S10)。 When the recognition of the position and orientation is completed, the control unit 21 reads the model M having the highest matching degree from the storage unit 22 and sets the model M as a candidate to be grasped (S6: Yes). If the candidate to be grasped can be grasped by the main hand 31 (S7: Yes), a control signal for the picking operation and subsequently the alignment operation is transmitted to the SCARA robot 3 (S8, S9). On the other hand, if gripping is not possible (S7: No), the model M with the next highest degree of coincidence is read from the storage unit 22 and gripping possibility is determined (S10).
続いて、スカラロボット3の動作について図6〜9に基づいて説明する。ここでは、メインハンド31の初期位置を座標(x0,y0,z0)、PC2から受信したワークWの把持位置を座標(x1,y1,z1)、所定の遊びをαまたはβとして説明する。また、図面の記号(a)等に付した添え字については、「1」はピッキングシステム1を上方から見下ろした図、「2」はピッキングシステム1を側方から見た図であることを示す。
Next, the operation of the
まず、メインハンド31によるピッキング動作を図6に基づいて説明する。メインハンド31は、PC2からピッキング制御情報を受信し、爪先(把持爪33の先端部)を図6(a)〜(g)に示すように動作させる。動作の内容を以下に記載する。
(a)爪先を待機位置(x0,y0,z0)で保持する。
(b)爪先をワークWの真上である座標(x1,y1,z0)に移動する。
(c)把持爪33をワークWの中心軸と平行になるように回転させる。
(d)電動グリッパ32を動作させ、爪先を「ワークWの直径+α」つまり、「半径r×2+α」まで開く。
(e)爪先を座標(x1,y1,z1)に移動する。
(f)電動グリッパ32を動作させ、爪先を「直径−β」つまり、「半径r×2−β」まで閉じる。
(g)爪先を座標(x1,y1,z0)に移動する。つまり、z方向に垂直に移動させ、z座標のみ待機位置z0まで戻す。
その後、爪先を待機位置(x0,y0,z0)まで戻す。このときは、ワークWは、必ずしも水平に把持されているとは限らない。
First, the picking operation by the
(A) The toe is held at the standby position (x 0 , y 0 , z 0 ).
(B) The toe is moved to coordinates (x 1 , y 1 , z 0 ) just above the workpiece W.
(C) The
(D) The electric gripper 32 is operated to open the toe to “the diameter of the work W + α”, that is, “radius r × 2 + α”.
(E) moving the toe to the coordinates (x 1, y 1, z 1).
(F) Operate the electric gripper 32 to close the toe to “diameter−β”, that is, “radius r × 2−β”.
(G) Move the toe to the coordinates (x 1 , y 1 , z 0 ). That is, it is moved vertically in the z direction, and only the z coordinate is returned to the standby position z 0 .
Thereafter, the toe is returned to the standby position (x 0 , y 0 , z 0 ). At this time, the work W is not always held horizontally.
次に、メインハンド31および補助ハンド34による整列動作を図7〜9に基づいて説明する。ピッキング動作が終了すると、図7に示すように、カメラ5でワークWを把持した状態のメインハンド31を撮影し、把持状態を検出する。図7(a)〜(c)は、以下の状態を示している。
(a)メインハンド31、カメラ5、バックライト6の位置関係を示す図である。
(b)メインハンド31をカメラ5から見た図である。
(c)カメラ5が把持状態を撮影し、撮影画像51を出力する。出力した撮影画像51は、PC2に送信され、把持状態検出部29により処理される。
図7(d)〜(h)は、把持状態検出部29における以下の処理を示している。
(d)撮影画像51を二値化する。
(e)あらかじめ撮影したメインハンド31の把持爪33の画像でマスキングし、ワークWの画像のみ抽出する。
(f)抽出したワークWの画像について主成分分析し、ワークWの傾きを検出する。
(g)検出したワークWの傾きに沿って、ワークWの左端と右端を検出する。
(h)左端と右端のうち、太い方をワークの頭端Whとし、反対側を尾端Wtとする。
Next, the alignment operation by the
FIG. 3A is a diagram illustrating a positional relationship among a
FIG. 3B is a view of the
(C) The
FIGS. 7D to 7H show the following processing in the grip
(D) The captured
(E) Mask the image of the
(F) Principal component analysis is performed on the extracted image of the work W, and the inclination of the work W is detected.
(G) The left end and the right end of the work W are detected along the detected inclination of the work W.
(H) of the left and right edges, the thicker was the work of the head end W h, to the opposite side of the tail end W t.
把持状態を検出した後、図8,9に示すように、メインハンド31から補助ハンド34、補助ハンド34からメインハンド31にワークWを受け渡し、ワークWの姿勢を変更する。図8(a)〜(f)および図9の(g)〜(l)は、以下の動作を示している。
(a)初期状態では、補助ハンド34の挟持爪36は開いている。
(b)補助ハンド34の回転ステージ37の角度をワークWの傾きにあわせて回転させる。
(c)メインハンド31を移動させ、ワークWの尾端Wtを、補助ハンド34の爪先(挟持爪36の先端部)付近まで運ぶ。
(d)メインハンド31をさらに移動させ、ワークWの尾端Wtを、補助ハンド34の挟持爪36の間に運ぶ。
(e)補助ハンド34の挟持爪36をワークWに合わせて閉じる
(f)メインハンド31の把持爪33を開いてワークWを開放する。
(g)メインハンド31をz方向に移動させる。
(h)補助ハンド34の回転ステージ37の角度を0度に戻す。
(i)メインハンド31をワークWの把持位置まで降ろす。
(j)メインハンド31を閉じてワークWを把持するとともに、補助ハンド34を開く。
(k)メインハンド31を横に移動して、補助ハンド34からワークWを引き抜く。
(l)スカラロボット3がz軸周りに回転移動し、メインハンド31は、ワークWを整列トレイに載置する。
After detecting the grip state, the work W is transferred from the
(A) In the initial state, the holding
(B) Rotate the angle of the
(C) moving the
(D) further moving the
(E) Close the holding
(G) The
(H) Return the angle of the
(I) Lower the
(J) The
(K) The
(L) The
以上の構成のピッキングシステム1によれば、把持対象のワークを略円柱形状に限定し、ランダムに積まれたワークWの計測中間データから点群データPを生成し、点群データPに基づいてワークWの位置および姿勢を算出するため、あらかじめモデル等を準備する必要がなく、作業工程を省くことができるという効果を有する。また、モデルMのあてはめの際に、精密な照合演算が不要であるため、演算量を低減できるという優れた効果も有する。さらに、本発明のピッキングシステムによれば、メインハンドが把持したワークの姿勢を補助ハンドによって補正するため、制御情報が少ないスカラロボットを採用できるという効果も有する。
According to the
その他、本発明は、上記実施形態に限定されるものではなく、発明の趣旨を逸脱しない範囲で、各部の構成を任意に変更して実施することも可能である。 In addition, the present invention is not limited to the above-described embodiment, and can be implemented by arbitrarily changing the configuration of each unit without departing from the spirit of the invention.
1 ピッキングシステム
2 演算制御用PC(位置姿勢認識装置)
3 スカラロボット
4 3Dスキャナ
5 カメラ
21 制御部
22 記憶部
23 インターフェース
24 点群データ生成部
25 サイズ推定部
26 モデル生成部
27 軸方向推定部
28 把持可能性判断部
29 把持状態検出部
31 メインハンド
32 電動グリッパ
33 把持爪
34 補助ハンド
35 エアチャック
36 挟持爪
37 回転ステージ
O 原点
P 点群データ
M モデル
W ワーク
q 軸候補点
p 点群データに含まれる各点
r 半径
n 法線ベクトル
1 Picking
Claims (6)
前記装置を制御する制御手段を備え、
前記制御手段が、ワークのサイズに基づいてモデルを生成するモデル生成手段と、前記モデルを用いてワークの軸方向を推定する軸方向推定手段と、を含み、
前記軸方向推定手段は、前記点群データに基づいて法線ベクトルを推定し、前記点群データに含まれる点群を、前記点群データにより表される略円柱の中心軸に向けて集積させ、前記点群の集積度に基づいて前記モデルの回転軸を選択し、
前記軸方向推定手段は、前記モデルを所定の回転軸周りに回転させ、点群データとの一致度が最も高い回転角度を軸方向として推定することを特徴とする位置姿勢認識装置。 An apparatus for recognizing a position and a posture of a work based on point cloud data representing a substantially cylindrical work,
Comprising control means for controlling the device,
The control unit includes a model generation unit that generates a model based on the size of the work, and an axial direction estimation unit that estimates an axial direction of the work using the model,
The axial direction estimating means estimates a normal vector based on the point cloud data, and accumulates a point cloud included in the point cloud data toward a central axis of a substantially cylinder represented by the point cloud data. Selecting a rotation axis of the model based on the degree of integration of the point cloud,
The position and orientation recognition apparatus, wherein the axis direction estimating means rotates the model around a predetermined rotation axis and estimates a rotation angle having the highest degree of coincidence with point cloud data as an axis direction.
前記サイズ推定手段は、所定の値を仮ワーク径とし、仮ワーク径に対応するモデルを、前記モデル生成手段を用いて生成し、生成したモデルに対応する軸方向を、前記軸方向推定手段を用いて推定し、点群データとの一致度が最も高いモデルに対応する仮ワーク径を実ワーク径として推定する請求項1に記載の位置姿勢認識装置。 The control means includes a size estimating means for estimating the size of the work,
The size estimating means sets a predetermined value as a temporary work diameter, generates a model corresponding to the temporary work diameter using the model generating means, and calculates an axial direction corresponding to the generated model by the axial direction estimating means. The position and orientation recognition apparatus according to claim 1 , wherein the temporary work diameter corresponding to the model having the highest degree of coincidence with the point cloud data is estimated as the actual work diameter.
前記サイズ推定手段は、前記平均値が最も高いモデルに対応する仮ワーク径を実ワーク径として推定する請求項2に記載の位置姿勢認識装置。 The axial direction estimating means includes means for calculating an average value of the degree of coincidence with the point cloud data for each model,
The position and orientation recognition apparatus according to claim 2 , wherein the size estimating unit estimates a temporary work diameter corresponding to the model having the highest average value as an actual work diameter.
前記制御手段は、前記モデルに基づいてワークが把持可能か否かを判断する把持可能性判断手段を含み、
前記把持可能性判断手段は、前記記憶手段から一致度の高い順に前記モデルを読み出して把持可能性を判断し、把持可能なモデルを出力する請求項1〜3のいずれか一項に記載の位置姿勢認識装置。 Means for storing models in order of the degree of coincidence,
The control unit includes a grippability determining unit that determines whether the workpiece can be gripped based on the model,
The position according to any one of claims 1 to 3, wherein the grippability determining unit reads the models from the storage unit in descending order of the degree of coincidence, determines grippability, and outputs a grippable model. Attitude recognition device.
前記補助ハンドは、前記カメラの検出結果に基づいてワークの姿勢を変更する請求項5に記載のピッキングシステム。 A camera that detects a gripping state of the work by the main hand,
The picking system according to claim 5 , wherein the auxiliary hand changes a posture of the work based on a detection result of the camera.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018163669A JP6644846B1 (en) | 2018-08-31 | 2018-08-31 | Work position and orientation recognition device and picking system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018163669A JP6644846B1 (en) | 2018-08-31 | 2018-08-31 | Work position and orientation recognition device and picking system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6644846B1 true JP6644846B1 (en) | 2020-02-12 |
JP2020034526A JP2020034526A (en) | 2020-03-05 |
Family
ID=69412180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018163669A Active JP6644846B1 (en) | 2018-08-31 | 2018-08-31 | Work position and orientation recognition device and picking system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6644846B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117203026A (en) * | 2021-05-06 | 2023-12-08 | 三菱电机株式会社 | Pick-up system |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4380864B2 (en) * | 1999-12-16 | 2009-12-09 | Juki株式会社 | Component detection method and apparatus |
JP2002200588A (en) * | 2000-12-28 | 2002-07-16 | Denso Corp | Device and method for detecting holding position of component holdable by robot |
JP2010105105A (en) * | 2008-10-29 | 2010-05-13 | Olympus Corp | Automatic manufacturing apparatus |
JP5685027B2 (en) * | 2010-09-07 | 2015-03-18 | キヤノン株式会社 | Information processing apparatus, object gripping system, robot system, information processing method, object gripping method, and program |
JP5716433B2 (en) * | 2011-02-07 | 2015-05-13 | 株式会社Ihi | Shape recognition device, shape recognition method, and program thereof |
JP2012206219A (en) * | 2011-03-30 | 2012-10-25 | Seiko Epson Corp | Robot control device and robot system |
JP5757156B2 (en) * | 2011-05-20 | 2015-07-29 | オムロン株式会社 | Method, apparatus and program for calculating center position of detection object |
FI20135625L (en) * | 2013-06-05 | 2014-12-22 | Ponsse Oyj | Method and arrangement for measuring a piece of wood |
-
2018
- 2018-08-31 JP JP2018163669A patent/JP6644846B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020034526A (en) | 2020-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3550470B1 (en) | Object recognition processing apparatus and method, and object picking apparatus and method | |
JP5778311B1 (en) | Picking apparatus and picking method | |
JP6529302B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM | |
JP6117901B1 (en) | Position / orientation measuring apparatus for a plurality of articles and a robot system including the position / orientation measuring apparatus | |
US7283661B2 (en) | Image processing apparatus | |
JP6415026B2 (en) | Interference determination apparatus, interference determination method, and computer program | |
JP5558585B2 (en) | Work picking device | |
WO2020190166A1 (en) | Method and system for grasping an object by means of a robotic device | |
JP6632656B2 (en) | Interference determination device, interference determination method, and computer program | |
JP2010071743A (en) | Method of detecting object, object detection device and robot system | |
CN114029243B (en) | Soft object grabbing and identifying method for sorting robot | |
CN111745640B (en) | Object detection method, object detection device, and robot system | |
CN113538459B (en) | Multimode grabbing obstacle avoidance detection optimization method based on drop point area detection | |
CN110298879B (en) | Method and device for determining pose of object to be grabbed and electronic equipment | |
CN111598172A (en) | Dynamic target grabbing posture rapid detection method based on heterogeneous deep network fusion | |
JP6644846B1 (en) | Work position and orientation recognition device and picking system | |
Kaipa et al. | Enhancing robotic unstructured bin-picking performance by enabling remote human interventions in challenging perception scenarios | |
JP2017170567A (en) | Workpiece recognition method and random picking method | |
CN116188540A (en) | Target identification and pose estimation method based on point cloud information | |
JP6908908B2 (en) | Robot arm path generator and path generator | |
JP7066671B2 (en) | Interference determination device, interference determination method, program and system | |
CN116572253B (en) | Grabbing control method and device for test tube | |
US20230386075A1 (en) | Method, System, And Computer Program For Recognizing Position And Posture Of Object | |
CN115797332B (en) | Object grabbing method and device based on instance segmentation | |
CN114431147B (en) | Double-arm cutting device and double-arm cutting method applied to butterfly orchid seedling cutting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181114 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190910 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200108 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6644846 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |