JP6644846B1 - Work position and orientation recognition device and picking system - Google Patents

Work position and orientation recognition device and picking system Download PDF

Info

Publication number
JP6644846B1
JP6644846B1 JP2018163669A JP2018163669A JP6644846B1 JP 6644846 B1 JP6644846 B1 JP 6644846B1 JP 2018163669 A JP2018163669 A JP 2018163669A JP 2018163669 A JP2018163669 A JP 2018163669A JP 6644846 B1 JP6644846 B1 JP 6644846B1
Authority
JP
Japan
Prior art keywords
model
work
point cloud
cloud data
axial direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018163669A
Other languages
Japanese (ja)
Other versions
JP2020034526A (en
Inventor
倫太郎 今井
倫太郎 今井
Original Assignee
株式会社トキワシステムテクノロジーズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社トキワシステムテクノロジーズ filed Critical 株式会社トキワシステムテクノロジーズ
Priority to JP2018163669A priority Critical patent/JP6644846B1/en
Application granted granted Critical
Publication of JP6644846B1 publication Critical patent/JP6644846B1/en
Publication of JP2020034526A publication Critical patent/JP2020034526A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】 ランダムに積まれたワークの位置姿勢を少ない演算量で認識でき、また、制御情報が少ないスカラロボットを使用できる位置姿勢認識装置およびこれを利用したピッキングシステムを提供する。【解決手段】 ランダムに積まれたワークWの点群データPを生成する。ワークWの半径rを推定し、推定した半径rに基づいてモデルMを生成する。生成したモデルMを、法線ベクトルnに基づいて推定した原点Oに配置し、z軸周りに回転させ、所定の回転角度毎に点群データPとの一致度を算出する。最も一致度が大きい回転角度をワークWの軸方向として推定する。【選択図】図1PROBLEM TO BE SOLVED: To provide a position and orientation recognition device capable of recognizing the position and orientation of a randomly stacked work with a small amount of calculation and capable of using a scalar robot with little control information, and a picking system using the same. SOLUTION: Point cloud data P of a work W stacked at random is generated. A radius r of the work W is estimated, and a model M is generated based on the estimated radius r. The generated model M is arranged at the origin O estimated based on the normal vector n, rotated about the z-axis, and the degree of coincidence with the point cloud data P is calculated for each predetermined rotation angle. The rotation angle having the highest degree of coincidence is estimated as the axial direction of the workpiece W. [Selection diagram] Fig. 1

Description

本発明は、ランダムに積まれたワークの位置姿勢を認識する位置姿勢認識装置およびこれを用いたピッキングシステムに関する。   The present invention relates to a position and orientation recognition device that recognizes the position and orientation of randomly stacked works and a picking system using the same.

従来より、ランダムに山積みされたワークを撮影し、撮影画像を解析してワークの位置姿勢を認識し、認識した位置姿勢に基づいてロボットハンドを制御するピッキング技術が知られている。例えば、特許文献1には、検出対象物の距離画像から生成した点群とモデル点群を位置合わせし、物体の位置姿勢を検出する技術が記載されている。また、特許文献2には、対象物の画像の一部と対象物のテンプレート画像を照合して対象物の位置姿勢を推定し、推定した情報に基づいてロボットハンドを制御する技術が記載されている。   2. Description of the Related Art Conventionally, a picking technique has been known in which a work piled up at random is photographed, a photographed image is analyzed to recognize the position and posture of the work, and a robot hand is controlled based on the recognized position and posture. For example, Patent Literature 1 describes a technique for detecting a position and orientation of an object by aligning a point group generated from a distance image of a detection target with a model point group. Further, Patent Literature 2 discloses a technique for comparing a part of an image of an object with a template image of the object, estimating the position and orientation of the object, and controlling a robot hand based on the estimated information. I have.

特開2018−088209号公報JP 2018-088209 A 特開2015−079374号公報JP-A-2005-079374

しかし、特許文献1,2の技術によれば、検出対象物であるワーク形状毎にあらかじめモデルやテンプレートを用意しなければならず、作業が煩雑になるという問題があった。また、ワーク表面とモデル表面を精密に照合して位置姿勢を算出しているため、演算量が膨大になるという問題があった。   However, according to the techniques of Patent Literatures 1 and 2, there is a problem that a model or a template must be prepared in advance for each work shape to be detected, and the work becomes complicated. Further, since the position and orientation are calculated by precisely collating the workpiece surface and the model surface, there has been a problem that the amount of calculation is enormous.

そこで、本発明の目的は、あらかじめモデル等の準備をする必要がなく、位置姿勢を算出する際の演算量を抑制でき、さらにスカラロボットによるピッキングが可能なワークの位置姿勢認識装置およびこれを用いたピッキングシステムを提供することにある。   Therefore, an object of the present invention is to eliminate the need for preparing a model or the like in advance, suppress the amount of calculation when calculating the position and orientation, and further use a position and orientation recognition device for a work that can be picked by a scalar robot, and to use the device. The purpose of the present invention is to provide a picking system.

上記課題を解決するために、本発明の位置姿勢認識装置は、以下の特徴を備える。
(1)略円柱状のワークを表した点群データに基づいてワークの位置および姿勢を認識する装置であって、装置を制御する制御手段を備え、制御手段が、ワークのサイズに基づいてモデルを生成するモデル生成手段と、モデルを用いてワークの軸方向を推定する軸方向推定手段と、を含み、軸方向推定手段は、モデルを所定の回転軸周りに回転させ、点群データとの一致度が最も高い回転角度を軸方向として推定することを特徴とする。
In order to solve the above problems, a position and orientation recognition apparatus according to the present invention has the following features.
(1) An apparatus for recognizing the position and orientation of a work based on point cloud data representing a substantially cylindrical work, comprising control means for controlling the apparatus, wherein the control means performs a model based on the size of the work. And an axial direction estimating unit for estimating the axial direction of the workpiece using the model.The axial direction estimating unit rotates the model around a predetermined rotation axis, and The rotation angle having the highest degree of coincidence is estimated as the axial direction.

(2)軸方向推定手段は、点群データに基づいて法線ベクトルを推定し、点群データに含まれる点群を、点群データにより表される略円柱の中心軸に向けて集積させ、点群の集積度に基づいてモデルの回転軸を選択する。 (2) The axial direction estimating means estimates a normal vector based on the point cloud data, and accumulates the point cloud included in the point cloud data toward a central axis of a substantially cylinder represented by the point cloud data; The rotation axis of the model is selected based on the degree of integration of the point cloud.

(3)制御手段が、ワークのサイズを推定するサイズ推定手段を含み、サイズ推定手段は、所定の値を仮ワーク径とし、仮ワーク径に対応するモデルを、モデル生成手段を用いて生成し、生成したモデルに対応する軸方向を、軸方向推定手段を用いて推定し、点群データとの一致度が最も高いモデルに対応する仮ワーク径を実ワーク径として推定する。 (3) The control means includes a size estimating means for estimating the size of the work, and the size estimating means sets a predetermined value as a temporary work diameter, and generates a model corresponding to the temporary work diameter using the model generating means. Then, the axial direction corresponding to the generated model is estimated using the axial direction estimating means, and the temporary work diameter corresponding to the model having the highest degree of coincidence with the point cloud data is estimated as the actual work diameter.

(4)軸方向推定手段が、モデル毎に点群データとの一致度の平均値を算出する手段を含み、サイズ推定手段は、平均値が最も高いモデルに対応する仮ワーク径を実ワーク径として推定する。 (4) The axial direction estimating means includes means for calculating the average value of the degree of coincidence with the point cloud data for each model, and the size estimating means calculates the temporary work diameter corresponding to the model having the highest average value as the actual work diameter. Is estimated as

(5)一致度の高い順にモデルを記憶する手段を含み、制御手段は、モデルに基づいてワークが把持可能か否かを判断する把持可能性判断手段を含み、把持可能性判断手段は、記憶手段から一致度の高い順にモデルを読み出して把持可能性を判断し、把持可能なモデルを出力する。 (5) means for storing models in descending order of coincidence; control means includes grippability determining means for determining whether or not the workpiece can be gripped based on the model; The model is read out from the means in the order of the degree of coincidence, the possibility of grasping is determined, and a graspable model is output.

また、本発明のピッキングシステムは、以下の特徴を備える。
(6)上記(1)〜(5)の何れかに記載の位置姿勢認識装置と、軸方向に基づいてワークを把持するメインハンドと、メインハンドが把持したワークの姿勢を変更する補助ハンドと、を備えたことを特徴とする。
The picking system of the present invention has the following features.
(6) The position and orientation recognition device according to any one of (1) to (5), a main hand that grips the workpiece based on the axial direction, and an auxiliary hand that changes the attitude of the workpiece gripped by the main hand. , Is provided.

(7)メインハンドによるワークの把持状態を検出するカメラを備え、補助ハンドは、カメラの検出結果に基づいてワークの姿勢を変更する。 (7) A camera is provided for detecting the gripping state of the work by the main hand, and the auxiliary hand changes the posture of the work based on the detection result of the camera.

本発明の位置姿勢認識装置およびピッキングシステムによれば、把持対象のワークを略円柱形状に限定し、ランダムに積まれた状態のワークの三次元画像から点群データを生成し、点群データに基づいてワークのサイズと位置姿勢を算出するため、あらかじめモデル等を準備する必要がないという効果を有する。また、精密な照合演算が不要なため、演算量を低減できるという優れた効果も有する。   According to the position and orientation recognition apparatus and the picking system of the present invention, the work to be grasped is limited to a substantially cylindrical shape, and point cloud data is generated from a three-dimensional image of a randomly stacked work, and the point cloud data is generated. Since the size and the position and orientation of the work are calculated based on this, there is an effect that it is not necessary to prepare a model or the like in advance. Further, since a precise collation operation is not required, there is also an excellent effect that the amount of operation can be reduced.

本発明の一実施形態を示すピッキングシステムの(a)概略平面図、(b)概略右側面図である。1A is a schematic plan view of a picking system according to an embodiment of the present invention, and FIG. ピッキングシステムのブロック図である。It is a block diagram of a picking system. 点群データの法線ベクトルから軸候補点を推定する処理を示す模式図である。It is a schematic diagram which shows the process which estimates an axis candidate point from the normal vector of point cloud data. (a)仮半径ri(rmin≦ri≦rmax:i=0〜100)から生成されたモデルを、軸候補点を原点Oとするz軸周りに回転させる様子を示す模式図である。(b)仮半径ri毎に一致度の平均値をプロットしたグラフである。(A) provisional radius r i: a (r min ≦ r i ≦ r max i = 0~100) models generated from, in schematic view showing a state of rotating the shaft candidate points around z-axis with the origin O is there. (B) is a graph plotting the average value of the degree of coincidence for each tentative radius r i. ピッキングシステムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of a picking system. ピッキング動作を示す動作説明図である。It is an operation explanatory view showing a picking operation. カメラの撮影画像からワークの把持状態を検出する処理を示す模式図である。FIG. 3 is a schematic diagram illustrating a process of detecting a grip state of a workpiece from a captured image of a camera. ピッキングしたワークの整列動作を示す動作説明図(1)である。FIG. 4 is an explanatory view (1) illustrating an alignment operation of picked works. ピッキングしたワークの整列動作を示す動作説明図(2)である。FIG. 9 is an operation explanatory view (2) illustrating an alignment operation of picked works.

以下、本発明をピッキングシステムに具体化した一実施形態を図面に基づいて説明する。また、以下の説明において、スカラロボット3の座標軸を、背面から前方へ向かう方向をx軸方向、正面視左側から右側へ向かう向きをy軸方向、鉛直方向下から上に向かう方向をz軸とする。   Hereinafter, an embodiment in which the present invention is embodied in a picking system will be described with reference to the drawings. In the following description, the coordinate axes of the SCARA robot 3 are defined as an x-axis direction from the back to the front, a y-axis direction from the left to the right in front view, and a z-axis from the vertical bottom to the top. I do.

図1,2に示すように、この実施形態のピッキングシステム1は、ランダムに積まれた測定対象物表面の三次元形状をスキャンする3Dスキャナ4と、3Dスキャナ4から受信した計測中間データを点群データPに変換し、点群データPに基づいてワークWの位置姿勢を認識する演算制御用PC2と、認識された位置姿勢に基づいてワークWをピッキングし、整列するスカラロボット3と、スカラロボット3によるワークWの把持状態を検出するカメラ5から構成される。このとき、測定対象物に含まれるワークWは、略同形状かつ略円柱状であることを要し、本実施例では、円柱状の胴体部に頭部を有するボルト状のワークWを挙げて説明する。なお、カメラ5は、バックライト6とともに使用しても良い。   As shown in FIGS. 1 and 2, the picking system 1 according to the present embodiment includes a 3D scanner 4 that scans a three-dimensional shape of the surface of a measurement target that is randomly stacked, and points measurement intermediate data received from the 3D scanner 4 to a point. An operation control PC2 that converts the data into group data P and recognizes the position and orientation of the work W based on the point cloud data P; a scalar robot 3 that picks and aligns the work W based on the recognized position and orientation; The camera 3 includes a camera 5 that detects a gripping state of the work W by the robot 3. At this time, it is necessary that the work W included in the measurement target has substantially the same shape and a substantially columnar shape. In this embodiment, the work W is a bolt-shaped work W having a head in a cylindrical body. explain. Note that the camera 5 may be used together with the backlight 6.

演算制御用PC2は、演算制御を実施する制御部(CPU)21と、制御部21が算出したデータを保存する記憶部22と、3Dスキャナ4等の外部装置からデータを受信し、制御部21からの制御情報を外部装置に送信するインターフェース23から構成される。   The arithmetic control PC 2 receives a data from an external device such as a 3D scanner 4 and a control unit (CPU) 21 that executes arithmetic control, a storage unit 22 that stores data calculated by the control unit 21, and a control unit 21. And an interface 23 for transmitting control information from the external device to the external device.

制御部21は、3Dスキャナ4から受信した計測中間データを点群データPに変換する点群データ生成部24と、点群データPに基づいてワークWのサイズを推定するサイズ推定部25と、推定したサイズをパラメタとしてモデルMを生成するモデル生成部26と、生成したモデルMを用いて軸方向を推定する軸方向推定部27と、推定した軸方向に基づいてワークWの把持可能性を判断する把持可能性判断部28と、カメラ5の撮影画像を処理してワークWの把持状態を検出する把持状態検出部29から構成される。   The control unit 21 includes a point cloud data generation unit 24 that converts the measured intermediate data received from the 3D scanner 4 into point cloud data P, a size estimation unit 25 that estimates the size of the work W based on the point cloud data P, A model generating unit 26 that generates a model M using the estimated size as a parameter, an axial direction estimating unit 27 that estimates an axial direction using the generated model M, and a possibility of gripping the workpiece W based on the estimated axial direction. It comprises a gripping possibility determination unit 28 for determining and a gripping state detecting unit 29 for processing a captured image of the camera 5 to detect a gripping state of the work W.

ここで、点群データPとは、三次元点情報の配列(x,y,z)のことを言う。点群データPの取得の流れは、以下の通りである。
(1)PC2が、3Dスキャナ4へ計測トリガを発行する。
(2)3Dスキャナ4が、計測対象物の表面の三次元形状をスキャンする。
(3)3Dスキャナ4が、計測中間データをPC2へ送信する。
(4)PC2が、計測中間データを点群データPに変換する。
なお、3Dスキャナ4が、点群データPへの変換を実施する場合もある。しかし、点群データPの生成は計算量が多いため、一般的には演算制御PC2にて、専用ライブラリを用いて点群データPに変換される。また、三次元形状のスキャン手法としては、例えば、プロジェクタ方式、ステレオカメラ方式等が挙げられる。
Here, the point group data P refers to an array (x, y, z) of three-dimensional point information. The flow of obtaining the point cloud data P is as follows.
(1) The PC 2 issues a measurement trigger to the 3D scanner 4.
(2) The 3D scanner 4 scans the three-dimensional shape of the surface of the measurement target.
(3) The 3D scanner 4 transmits the measurement intermediate data to the PC 2.
(4) The PC 2 converts the measured intermediate data into the point cloud data P.
In some cases, the 3D scanner 4 performs conversion into the point cloud data P. However, since the generation of the point cloud data P requires a large amount of calculation, it is generally converted into the point cloud data P by the arithmetic control PC 2 using a dedicated library. Examples of the three-dimensional scanning method include a projector method and a stereo camera method.

モデル生成部26は、パラメタとして半径rを入力し、半径r、高さrの半円柱の側面部からなるワークWのモデルを生成する。   The model generation unit 26 receives the radius r as a parameter, and generates a model of the workpiece W composed of a semicircular cylinder having a radius r and a height r.

軸方向推定部27は、図3(a)に示すように、まず、点群データPに含まれる各々の点pについて法線ベクトルnを推定する。そして、点pを法線ベクトルnと逆方向に半径r分進めた点qを、法線ベクトルnの曲面を側面に含む円柱の軸候補点とし、軸候補点qを記憶部22に登録する。なお、点qは、下記の数式1により求められる。   The axial direction estimating unit 27 first estimates a normal vector n for each point p included in the point cloud data P, as shown in FIG. Then, a point q obtained by advancing the point p by the radius r in the direction opposite to the normal vector n is set as an axis candidate point of a cylinder including a curved surface of the normal vector n on a side surface, and the axis candidate point q is registered in the storage unit 22. . Note that the point q is obtained by the following equation 1.

Figure 0006644846
Figure 0006644846

次に、軸方向推定部27は、軸候補点qの集積度を算出し、集積度の高い点qを特定する。そして、あらかじめ生成したモデルMの原点Oを、点qに配置し、点群データPとの一致度を算出する。一致度は、「モデルM付近に配置された点pの数」を、「モデルMを側面とする半径r、高さrの半円柱に含まれる点pの総数」で除算することにより求められる。軸方向推定部27は、モデルMを、z軸周りに0度から180度まで回転させ、z角度5度毎に一致度を算出して保持する。そして、最も一致度の高かったz角度をモデルMの軸方向として記憶部22に登録する。   Next, the axial direction estimation unit 27 calculates the degree of accumulation of the axis candidate points q, and specifies a point q with a high degree of accumulation. Then, the origin O of the model M generated in advance is arranged at the point q, and the degree of coincidence with the point group data P is calculated. The degree of coincidence is obtained by dividing “the number of points p arranged near the model M” by “the total number of points p included in a semi-cylinder having a radius r and a height r with the model M as a side surface”. . The axial direction estimating unit 27 rotates the model M from 0 degree to 180 degrees around the z axis, and calculates and holds the degree of coincidence every 5 degrees of the z angle. Then, the z angle having the highest matching degree is registered in the storage unit 22 as the axial direction of the model M.

サイズ推定部25は、図4(a)に示すように、最小半径rminと最大半径rmaxを仮定し、下記の数式2により求められるriを半径とするモデルMiをそれぞれ生成し、モデルMi毎に軸方向推定処理を実施する。モデルMiの生成および軸方向推定処理は、モデル生成部26および軸方向推定部27の処理と同じであるため説明を省略する。 Size estimator 25, as shown in FIG. 4 (a), assuming a minimum radius r min and a maximum radius r max, respectively generate a model M i to the radius r i obtained by equation 2 below, implementing the axial direction estimation process for each model M i. Generating and axial estimation process of the model M i is omitted because it is same as the processing of the model generating unit 26 and the axial direction estimation unit 27.

Figure 0006644846
Figure 0006644846

その後、サイズ推定部25は、半径ri毎に、z角度5度毎に算出した一致度の平均値を求め、最も平均値の高い半径riをワークWの半径rとして出力する。図4(b)に、一致度の平均値をプロットしたグラフを示す。ここでは、rmin=2.0mm、rmax=8.0mmとし、半径rを0.06mm増加させる毎に一致度の平均値をプロットしている。一致度の平均値が最も大きいriを、ワークWの実半径rと推定できる。 Thereafter, the size estimation unit 25, for each radius r i, the average value of the matching level calculated for each z angle 5 degrees, and outputs a high radius r i of the most average value as the radius r of the workpiece W. FIG. 4B shows a graph in which the average value of the coincidences is plotted. Here, r min = 2.0 mm and r max = 8.0 mm, and the average value of the coincidence is plotted every time the radius r is increased by 0.06 mm. The average value of the degree of coincidence largest r i, it can be estimated that the actual radius r of the workpiece W.

記憶部22は、一致度の高い順にモデルMを記憶している。詳しくは、点群データPには複数のワークWの表面形状が含まれているため、記憶部22では、それぞれのワークWと同じ軸方向を向くモデルMを算出し、一致度の高い順にモデルMを記憶する。   The storage unit 22 stores the models M in descending order of the degree of matching. More specifically, since the point cloud data P includes the surface shapes of a plurality of works W, the storage unit 22 calculates a model M oriented in the same axial direction as each of the works W, and stores the models M in descending order of coincidence. M is stored.

把持可能性判断部28は、記憶部22から一致度の高い順にモデルMを読み出し、メインハンド31が把持可能か否かを判断する。把持可能性の判断は、下記(1)〜(3)の条件の何れか一つに該当する場合に、把持不可能と判断する。
(1)メインハンド31による把持位置がスカラロボット3の可動範囲外である。
(2)メインハンド31とパレット12が干渉する。
(3)メインハンド31と、把持対象のワークWとは別のワークWが干渉する。
把持が不可能である場合には、記憶部22から次に一致度の高いモデルMを読み出す。そして、制御部21は、把持可能と判断されたモデルMに対応する制御情報をスカラロボット3に送信する。制御情報は、例えば、モデルMに対応する原点Oの座標(xo,yo,zo)および半径r等の制御パラメタを好適に採用できる。
The grip possibility determination unit 28 reads the models M from the storage unit 22 in descending order of matching degree, and determines whether the main hand 31 can be gripped. The grip possibility is determined to be impossible when any one of the following conditions (1) to (3) is satisfied.
(1) The gripping position by the main hand 31 is out of the movable range of the SCARA robot 3.
(2) The main hand 31 and the pallet 12 interfere.
(3) The main hand 31 interferes with a workpiece W different from the workpiece W to be gripped.
If gripping is impossible, the model M having the next highest matching degree is read from the storage unit 22. Then, the control unit 21 transmits control information corresponding to the model M determined to be grippable to the SCARA robot 3. As the control information, for example, control parameters such as the coordinates (x o , y o , z o ) of the origin O corresponding to the model M and the radius r can be suitably adopted.

スカラロボット3は、ワークWを把持するメインハンド31と、把持状態検出部29の検出結果に基づいてワークWの姿勢を変更する補助ハンド34から構成される。スカラロボット3は、z軸周りに回転し、メインハンド31を初期位置から補助ハンド34を経由しつつ整列トレイ11位置まで移動させる。   The SCARA robot 3 includes a main hand 31 for gripping the workpiece W, and an auxiliary hand 34 for changing the posture of the workpiece W based on a detection result of the gripping state detection unit 29. The SCARA robot 3 rotates around the z-axis, and moves the main hand 31 from the initial position to the alignment tray 11 position via the auxiliary hand 34.

メインハンド31は、スカラロボット3のフランジ面に取り付けられ、電動グリッパ32と、ワークWを把持する把持爪33を備える。電動グリッパ32は、把持爪33を平行に移動して開閉させる機構を有する。把持爪33は任意の位置で保持可能であるため、様々なワークW径に対応できる。   The main hand 31 is attached to the flange surface of the SCARA robot 3 and includes an electric gripper 32 and a gripper 33 for gripping the work W. The electric gripper 32 has a mechanism for moving the gripping claws 33 in parallel to open and close. Since the gripping claw 33 can be held at an arbitrary position, it can correspond to various workpiece W diameters.

補助ハンド34は、ピッキングシステム1を収容する筐体10に固定され、ワークWを挟持する挟持爪36と、挟持爪36を開閉させるエアチャック35と、挟持爪36およびエアチャック35を載置した回転ステージ37を備える。回転ステージ37は、−180〜180度の範囲で回転でき、任意の角度に位置決めできる。また、エアチャック35は、初期状態では挟持爪36を開位置に保持し、正圧エアを加圧することによって挟持爪36を閉じる機構を有する。   The auxiliary hand 34 is fixed to the housing 10 that houses the picking system 1, and holds the holding claw 36 for holding the work W, the air chuck 35 for opening and closing the holding claw 36, and the holding claw 36 and the air chuck 35. A rotation stage 37 is provided. The rotation stage 37 can rotate in the range of -180 to 180 degrees, and can be positioned at any angle. The air chuck 35 has a mechanism that holds the holding claw 36 in the open position in an initial state and closes the holding claw 36 by applying positive pressure air.

次に、上記構成のピッキングシステム1の処理の流れについて、図5に基づいて説明する。まず、ワークWがパレット12に投入されると(S1)、3Dスキャナ4がワークWをスキャンし、PC2に計測中間データを送信する。計測中間データを受信したPC2は、点群データPを生成し(S2)、半径をrmin〜rmaxと仮定してサイズを推定する(S3)。その後、実半径rを用いてモデルを生成し(S4)、モデルMを点群データPにあてはめて軸方向を推定する(S5)。ここで、ワークWの位置姿勢認識は、実半径rを用いたモデルの生成および軸方向の推定を主要部とする。この主要部となる処理は、点群データPに含まれるワークWの全てについて実施され、記憶部22では、一致度が高い順にモデルMをソートして記憶する。 Next, a processing flow of the picking system 1 having the above configuration will be described with reference to FIG. First, when the work W is loaded on the pallet 12 (S1), the 3D scanner 4 scans the work W and transmits the measurement intermediate data to the PC 2. The PC 2 that has received the measurement intermediate data generates the point cloud data P (S2), and estimates the size assuming the radius between r min and r max (S3). Then, a model is generated using the real radius r (S4), and the axial direction is estimated by applying the model M to the point cloud data P (S5). Here, the recognition of the position and orientation of the work W mainly includes generation of a model using the real radius r and estimation of the axial direction. The processing of the main part is performed for all the works W included in the point cloud data P, and the storage unit 22 sorts and stores the models M in descending order of the degree of coincidence.

位置姿勢の認識が終わると、制御部21は、記憶部22から最も一致度の高いモデルMを読み出し、把持対象の候補とする(S6:Yes)。そして、把持対象候補が、メインハンド31により把持可能である場合には(S7:Yes)、スカラロボット3にピッキング動作、続いて整列動作のための制御信号を送信する(S8,S9)。一方、把持不可能である場合には(S7:No)、記憶部22から次に一致度の高いモデルMを読み出し、把持可能性を判断する(S10)。   When the recognition of the position and orientation is completed, the control unit 21 reads the model M having the highest matching degree from the storage unit 22 and sets the model M as a candidate to be grasped (S6: Yes). If the candidate to be grasped can be grasped by the main hand 31 (S7: Yes), a control signal for the picking operation and subsequently the alignment operation is transmitted to the SCARA robot 3 (S8, S9). On the other hand, if gripping is not possible (S7: No), the model M with the next highest degree of coincidence is read from the storage unit 22 and gripping possibility is determined (S10).

続いて、スカラロボット3の動作について図6〜9に基づいて説明する。ここでは、メインハンド31の初期位置を座標(x0,y0,z0)、PC2から受信したワークWの把持位置を座標(x1,y1,z1)、所定の遊びをαまたはβとして説明する。また、図面の記号(a)等に付した添え字については、「1」はピッキングシステム1を上方から見下ろした図、「2」はピッキングシステム1を側方から見た図であることを示す。 Next, the operation of the SCARA robot 3 will be described with reference to FIGS. Here, the initial position of the main hand 31 is coordinates (x 0 , y 0 , z 0 ), the gripping position of the work W received from the PC 2 is the coordinates (x 1 , y 1 , z 1 ), and the predetermined play is α or It will be described as β. Regarding the subscripts added to the symbols (a) and the like in the drawings, “1” indicates that the picking system 1 is viewed from above, and “2” indicates that the picking system 1 is viewed from the side. .

まず、メインハンド31によるピッキング動作を図6に基づいて説明する。メインハンド31は、PC2からピッキング制御情報を受信し、爪先(把持爪33の先端部)を図6(a)〜(g)に示すように動作させる。動作の内容を以下に記載する。
(a)爪先を待機位置(x0,y0,z0)で保持する。
(b)爪先をワークWの真上である座標(x1,y1,z0)に移動する。
(c)把持爪33をワークWの中心軸と平行になるように回転させる。
(d)電動グリッパ32を動作させ、爪先を「ワークWの直径+α」つまり、「半径r×2+α」まで開く。
(e)爪先を座標(x1,y1,z1)に移動する。
(f)電動グリッパ32を動作させ、爪先を「直径−β」つまり、「半径r×2−β」まで閉じる。
(g)爪先を座標(x1,y1,z0)に移動する。つまり、z方向に垂直に移動させ、z座標のみ待機位置z0まで戻す。
その後、爪先を待機位置(x0,y0,z0)まで戻す。このときは、ワークWは、必ずしも水平に把持されているとは限らない。
First, the picking operation by the main hand 31 will be described with reference to FIG. The main hand 31 receives the picking control information from the PC 2 and operates the toe (the tip of the gripping claw 33) as shown in FIGS. The details of the operation are described below.
(A) The toe is held at the standby position (x 0 , y 0 , z 0 ).
(B) The toe is moved to coordinates (x 1 , y 1 , z 0 ) just above the workpiece W.
(C) The gripper 33 is rotated so as to be parallel to the central axis of the work W.
(D) The electric gripper 32 is operated to open the toe to “the diameter of the work W + α”, that is, “radius r × 2 + α”.
(E) moving the toe to the coordinates (x 1, y 1, z 1).
(F) Operate the electric gripper 32 to close the toe to “diameter−β”, that is, “radius r × 2−β”.
(G) Move the toe to the coordinates (x 1 , y 1 , z 0 ). That is, it is moved vertically in the z direction, and only the z coordinate is returned to the standby position z 0 .
Thereafter, the toe is returned to the standby position (x 0 , y 0 , z 0 ). At this time, the work W is not always held horizontally.

次に、メインハンド31および補助ハンド34による整列動作を図7〜9に基づいて説明する。ピッキング動作が終了すると、図7に示すように、カメラ5でワークWを把持した状態のメインハンド31を撮影し、把持状態を検出する。図7(a)〜(c)は、以下の状態を示している。
(a)メインハンド31、カメラ5、バックライト6の位置関係を示す図である。
(b)メインハンド31をカメラ5から見た図である。
(c)カメラ5が把持状態を撮影し、撮影画像51を出力する。出力した撮影画像51は、PC2に送信され、把持状態検出部29により処理される。
図7(d)〜(h)は、把持状態検出部29における以下の処理を示している。
(d)撮影画像51を二値化する。
(e)あらかじめ撮影したメインハンド31の把持爪33の画像でマスキングし、ワークWの画像のみ抽出する。
(f)抽出したワークWの画像について主成分分析し、ワークWの傾きを検出する。
(g)検出したワークWの傾きに沿って、ワークWの左端と右端を検出する。
(h)左端と右端のうち、太い方をワークの頭端Whとし、反対側を尾端Wtとする。
Next, the alignment operation by the main hand 31 and the auxiliary hand 34 will be described with reference to FIGS. When the picking operation is completed, as shown in FIG. 7, the main hand 31 holding the workpiece W with the camera 5 is photographed, and the holding state is detected. FIGS. 7A to 7C show the following states.
FIG. 3A is a diagram illustrating a positional relationship among a main hand 31, a camera 5, and a backlight 6;
FIG. 3B is a view of the main hand 31 viewed from the camera 5.
(C) The camera 5 captures an image of the gripping state and outputs a captured image 51. The output captured image 51 is transmitted to the PC 2 and processed by the grip state detection unit 29.
FIGS. 7D to 7H show the following processing in the grip state detection unit 29.
(D) The captured image 51 is binarized.
(E) Mask the image of the gripping nail 33 of the main hand 31 taken in advance and extract only the image of the work W.
(F) Principal component analysis is performed on the extracted image of the work W, and the inclination of the work W is detected.
(G) The left end and the right end of the work W are detected along the detected inclination of the work W.
(H) of the left and right edges, the thicker was the work of the head end W h, to the opposite side of the tail end W t.

把持状態を検出した後、図8,9に示すように、メインハンド31から補助ハンド34、補助ハンド34からメインハンド31にワークWを受け渡し、ワークWの姿勢を変更する。図8(a)〜(f)および図9の(g)〜(l)は、以下の動作を示している。
(a)初期状態では、補助ハンド34の挟持爪36は開いている。
(b)補助ハンド34の回転ステージ37の角度をワークWの傾きにあわせて回転させる。
(c)メインハンド31を移動させ、ワークWの尾端Wtを、補助ハンド34の爪先(挟持爪36の先端部)付近まで運ぶ。
(d)メインハンド31をさらに移動させ、ワークWの尾端Wtを、補助ハンド34の挟持爪36の間に運ぶ。
(e)補助ハンド34の挟持爪36をワークWに合わせて閉じる
(f)メインハンド31の把持爪33を開いてワークWを開放する。
(g)メインハンド31をz方向に移動させる。
(h)補助ハンド34の回転ステージ37の角度を0度に戻す。
(i)メインハンド31をワークWの把持位置まで降ろす。
(j)メインハンド31を閉じてワークWを把持するとともに、補助ハンド34を開く。
(k)メインハンド31を横に移動して、補助ハンド34からワークWを引き抜く。
(l)スカラロボット3がz軸周りに回転移動し、メインハンド31は、ワークWを整列トレイに載置する。
After detecting the grip state, the work W is transferred from the main hand 31 to the auxiliary hand 34 and from the auxiliary hand 34 to the main hand 31 to change the posture of the work W, as shown in FIGS. 8 (a) to 8 (f) and FIGS. 9 (g) to 9 (l) show the following operations.
(A) In the initial state, the holding claws 36 of the auxiliary hand 34 are open.
(B) Rotate the angle of the rotary stage 37 of the auxiliary hand 34 according to the inclination of the work W.
(C) moving the main hand 31, the tail end W t of the workpiece W, carry to near the toe of the auxiliary hand 34 (tip of Kyojitsume 36).
(D) further moving the main hand 31, the tail end W t of the workpiece W, carry between claw unit 36 of the auxiliary hand 34.
(E) Close the holding claws 36 of the auxiliary hand 34 in accordance with the work W. (f) Open the grip claws 33 of the main hand 31 to release the work W.
(G) The main hand 31 is moved in the z direction.
(H) Return the angle of the rotary stage 37 of the auxiliary hand 34 to 0 degrees.
(I) Lower the main hand 31 to the position where the workpiece W is gripped.
(J) The main hand 31 is closed to grip the work W, and the auxiliary hand 34 is opened.
(K) The main hand 31 is moved sideways and the work W is pulled out from the auxiliary hand 34.
(L) The SCARA robot 3 rotates around the z-axis, and the main hand 31 places the work W on the alignment tray.

以上の構成のピッキングシステム1によれば、把持対象のワークを略円柱形状に限定し、ランダムに積まれたワークWの計測中間データから点群データPを生成し、点群データPに基づいてワークWの位置および姿勢を算出するため、あらかじめモデル等を準備する必要がなく、作業工程を省くことができるという効果を有する。また、モデルMのあてはめの際に、精密な照合演算が不要であるため、演算量を低減できるという優れた効果も有する。さらに、本発明のピッキングシステムによれば、メインハンドが把持したワークの姿勢を補助ハンドによって補正するため、制御情報が少ないスカラロボットを採用できるという効果も有する。   According to the picking system 1 having the above-described configuration, the work to be grasped is limited to a substantially cylindrical shape, the point cloud data P is generated from the measured intermediate data of the randomly stacked works W, and based on the point cloud data P Since the position and orientation of the work W are calculated, there is no need to prepare a model or the like in advance, and there is an effect that the work process can be omitted. In addition, there is an excellent effect that the amount of calculation can be reduced because a precise collation calculation is not required when the model M is applied. Further, according to the picking system of the present invention, since the posture of the work held by the main hand is corrected by the auxiliary hand, there is an effect that a SCARA robot with less control information can be adopted.

その他、本発明は、上記実施形態に限定されるものではなく、発明の趣旨を逸脱しない範囲で、各部の構成を任意に変更して実施することも可能である。   In addition, the present invention is not limited to the above-described embodiment, and can be implemented by arbitrarily changing the configuration of each unit without departing from the spirit of the invention.

1 ピッキングシステム
2 演算制御用PC(位置姿勢認識装置)
3 スカラロボット
4 3Dスキャナ
5 カメラ
21 制御部
22 記憶部
23 インターフェース
24 点群データ生成部
25 サイズ推定部
26 モデル生成部
27 軸方向推定部
28 把持可能性判断部
29 把持状態検出部
31 メインハンド
32 電動グリッパ
33 把持爪
34 補助ハンド
35 エアチャック
36 挟持爪
37 回転ステージ
O 原点
P 点群データ
M モデル
W ワーク
q 軸候補点
p 点群データに含まれる各点
r 半径
n 法線ベクトル
1 Picking system 2 PC for operation control (Position and orientation recognition device)
Reference Signs List 3 SCARA robot 4 3D scanner 5 Camera 21 Control unit 22 Storage unit 23 Interface 24 Point group data generation unit 25 Size estimation unit 26 Model generation unit 27 Axial direction estimation unit 28 Gripping possibility determination unit 29 Gripping state detection unit 31 Main hand 32 Electric gripper 33 Gripping claw 34 Auxiliary hand 35 Air chuck 36 Nipping claw 37 Rotation stage O Origin P Point group data M Model W Work q-axis candidate point p Each point included in point group data r Radius n Normal vector

Claims (6)

略円柱状のワークを表した点群データに基づいてワークの位置および姿勢を認識する装置であって、
前記装置を制御する制御手段を備え、
前記制御手段が、ワークのサイズに基づいてモデルを生成するモデル生成手段と、前記モデルを用いてワークの軸方向を推定する軸方向推定手段と、を含み、
前記軸方向推定手段は、前記点群データに基づいて法線ベクトルを推定し、前記点群データに含まれる点群を、前記点群データにより表される略円柱の中心軸に向けて集積させ、前記点群の集積度に基づいて前記モデルの回転軸を選択し、
前記軸方向推定手段は、前記モデルを所定の回転軸周りに回転させ、点群データとの一致度が最も高い回転角度を軸方向として推定することを特徴とする位置姿勢認識装置。
An apparatus for recognizing a position and a posture of a work based on point cloud data representing a substantially cylindrical work,
Comprising control means for controlling the device,
The control unit includes a model generation unit that generates a model based on the size of the work, and an axial direction estimation unit that estimates an axial direction of the work using the model,
The axial direction estimating means estimates a normal vector based on the point cloud data, and accumulates a point cloud included in the point cloud data toward a central axis of a substantially cylinder represented by the point cloud data. Selecting a rotation axis of the model based on the degree of integration of the point cloud,
The position and orientation recognition apparatus, wherein the axis direction estimating means rotates the model around a predetermined rotation axis and estimates a rotation angle having the highest degree of coincidence with point cloud data as an axis direction.
前記制御手段が、ワークのサイズを推定するサイズ推定手段を含み、
前記サイズ推定手段は、所定の値を仮ワーク径とし、仮ワーク径に対応するモデルを、前記モデル生成手段を用いて生成し、生成したモデルに対応する軸方向を、前記軸方向推定手段を用いて推定し、点群データとの一致度が最も高いモデルに対応する仮ワーク径を実ワーク径として推定する請求項1に記載の位置姿勢認識装置。
The control means includes a size estimating means for estimating the size of the work,
The size estimating means sets a predetermined value as a temporary work diameter, generates a model corresponding to the temporary work diameter using the model generating means, and calculates an axial direction corresponding to the generated model by the axial direction estimating means. The position and orientation recognition apparatus according to claim 1 , wherein the temporary work diameter corresponding to the model having the highest degree of coincidence with the point cloud data is estimated as the actual work diameter.
前記軸方向推定手段が、前記モデル毎に前記点群データとの一致度の平均値を算出する手段を含み、
前記サイズ推定手段は、前記平均値が最も高いモデルに対応する仮ワーク径を実ワーク径として推定する請求項2に記載の位置姿勢認識装置。
The axial direction estimating means includes means for calculating an average value of the degree of coincidence with the point cloud data for each model,
The position and orientation recognition apparatus according to claim 2 , wherein the size estimating unit estimates a temporary work diameter corresponding to the model having the highest average value as an actual work diameter.
前記一致度の高い順にモデルを記憶する手段を含み、
前記制御手段は、前記モデルに基づいてワークが把持可能か否かを判断する把持可能性判断手段を含み、
前記把持可能性判断手段は、前記記憶手段から一致度の高い順に前記モデルを読み出して把持可能性を判断し、把持可能なモデルを出力する請求項1〜3のいずれか一項に記載の位置姿勢認識装置。
Means for storing models in order of the degree of coincidence,
The control unit includes a grippability determining unit that determines whether the workpiece can be gripped based on the model,
The position according to any one of claims 1 to 3, wherein the grippability determining unit reads the models from the storage unit in descending order of the degree of coincidence, determines grippability, and outputs a grippable model. Attitude recognition device.
請求項1〜4のいずれか一項に記載の位置姿勢認識装置と、前記軸方向に基づいてワークを把持するメインハンドと、前記メインハンドが把持したワークの姿勢を変更する補助ハンドと、を備えたことを特徴とするピッキングシステム。 The position and orientation recognition device according to claim 1, a main hand that grips a workpiece based on the axial direction, and an auxiliary hand that changes a posture of the workpiece gripped by the main hand. A picking system comprising: 前記メインハンドによるワークの把持状態を検出するカメラを備え、
前記補助ハンドは、前記カメラの検出結果に基づいてワークの姿勢を変更する請求項5に記載のピッキングシステム。
A camera that detects a gripping state of the work by the main hand,
The picking system according to claim 5 , wherein the auxiliary hand changes a posture of the work based on a detection result of the camera.
JP2018163669A 2018-08-31 2018-08-31 Work position and orientation recognition device and picking system Active JP6644846B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018163669A JP6644846B1 (en) 2018-08-31 2018-08-31 Work position and orientation recognition device and picking system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018163669A JP6644846B1 (en) 2018-08-31 2018-08-31 Work position and orientation recognition device and picking system

Publications (2)

Publication Number Publication Date
JP6644846B1 true JP6644846B1 (en) 2020-02-12
JP2020034526A JP2020034526A (en) 2020-03-05

Family

ID=69412180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018163669A Active JP6644846B1 (en) 2018-08-31 2018-08-31 Work position and orientation recognition device and picking system

Country Status (1)

Country Link
JP (1) JP6644846B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117203026A (en) * 2021-05-06 2023-12-08 三菱电机株式会社 Pick-up system

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4380864B2 (en) * 1999-12-16 2009-12-09 Juki株式会社 Component detection method and apparatus
JP2002200588A (en) * 2000-12-28 2002-07-16 Denso Corp Device and method for detecting holding position of component holdable by robot
JP2010105105A (en) * 2008-10-29 2010-05-13 Olympus Corp Automatic manufacturing apparatus
JP5685027B2 (en) * 2010-09-07 2015-03-18 キヤノン株式会社 Information processing apparatus, object gripping system, robot system, information processing method, object gripping method, and program
JP5716433B2 (en) * 2011-02-07 2015-05-13 株式会社Ihi Shape recognition device, shape recognition method, and program thereof
JP2012206219A (en) * 2011-03-30 2012-10-25 Seiko Epson Corp Robot control device and robot system
JP5757156B2 (en) * 2011-05-20 2015-07-29 オムロン株式会社 Method, apparatus and program for calculating center position of detection object
FI20135625L (en) * 2013-06-05 2014-12-22 Ponsse Oyj Method and arrangement for measuring a piece of wood

Also Published As

Publication number Publication date
JP2020034526A (en) 2020-03-05

Similar Documents

Publication Publication Date Title
EP3550470B1 (en) Object recognition processing apparatus and method, and object picking apparatus and method
JP5778311B1 (en) Picking apparatus and picking method
JP6529302B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP6117901B1 (en) Position / orientation measuring apparatus for a plurality of articles and a robot system including the position / orientation measuring apparatus
US7283661B2 (en) Image processing apparatus
JP6415026B2 (en) Interference determination apparatus, interference determination method, and computer program
JP5558585B2 (en) Work picking device
WO2020190166A1 (en) Method and system for grasping an object by means of a robotic device
JP6632656B2 (en) Interference determination device, interference determination method, and computer program
JP2010071743A (en) Method of detecting object, object detection device and robot system
CN114029243B (en) Soft object grabbing and identifying method for sorting robot
CN111745640B (en) Object detection method, object detection device, and robot system
CN113538459B (en) Multimode grabbing obstacle avoidance detection optimization method based on drop point area detection
CN110298879B (en) Method and device for determining pose of object to be grabbed and electronic equipment
CN111598172A (en) Dynamic target grabbing posture rapid detection method based on heterogeneous deep network fusion
JP6644846B1 (en) Work position and orientation recognition device and picking system
Kaipa et al. Enhancing robotic unstructured bin-picking performance by enabling remote human interventions in challenging perception scenarios
JP2017170567A (en) Workpiece recognition method and random picking method
CN116188540A (en) Target identification and pose estimation method based on point cloud information
JP6908908B2 (en) Robot arm path generator and path generator
JP7066671B2 (en) Interference determination device, interference determination method, program and system
CN116572253B (en) Grabbing control method and device for test tube
US20230386075A1 (en) Method, System, And Computer Program For Recognizing Position And Posture Of Object
CN115797332B (en) Object grabbing method and device based on instance segmentation
CN114431147B (en) Double-arm cutting device and double-arm cutting method applied to butterfly orchid seedling cutting

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200108

R150 Certificate of patent or registration of utility model

Ref document number: 6644846

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250