JP5429614B2 - Box-shaped workpiece recognition apparatus and method - Google Patents

Box-shaped workpiece recognition apparatus and method Download PDF

Info

Publication number
JP5429614B2
JP5429614B2 JP2009099573A JP2009099573A JP5429614B2 JP 5429614 B2 JP5429614 B2 JP 5429614B2 JP 2009099573 A JP2009099573 A JP 2009099573A JP 2009099573 A JP2009099573 A JP 2009099573A JP 5429614 B2 JP5429614 B2 JP 5429614B2
Authority
JP
Japan
Prior art keywords
box
shaped workpiece
shaped
dimensional shape
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009099573A
Other languages
Japanese (ja)
Other versions
JP2010247959A (en
Inventor
宜也 小鷲
俊寛 林
智洋 井之上
幸弘 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2009099573A priority Critical patent/JP5429614B2/en
Publication of JP2010247959A publication Critical patent/JP2010247959A/en
Application granted granted Critical
Publication of JP5429614B2 publication Critical patent/JP5429614B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • De-Stacking Of Articles (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Description

本発明は、箱状ワーク認識装置および方法に関する。   The present invention relates to a box-shaped workpiece recognition apparatus and method.

本出願において、「箱状ワーク」とは、ダンボール箱のように直方体であり、原則として同一物を隣接して荷積みするものをいう。このような、箱状ワークをピッキング対象(ワーク)とし、ワークの把持および搬送を行う場合、従来、ワークの認識を行わず、ピッキングするワークの位置をティーチングし、ロボットでピッキングを行っていた。しかし、この場合、ティーチング位置にワークを並べる必要があり、ずれや荷崩れが生じた場合に対応することができない問題点があった。
そこで、荷積み状態のワークの位置姿勢を認識し、ワークの把持および搬送を行う手段として、特許文献1〜4が既に提案されている。
In the present application, the “box-shaped workpiece” is a rectangular parallelepiped like a cardboard box and, as a rule, loads the same object adjacent to each other. In the case where such a box-shaped workpiece is picked (work) and the workpiece is gripped and conveyed, conventionally, the workpiece is not recognized and the position of the workpiece to be picked is taught and picked by a robot. However, in this case, it is necessary to arrange the workpieces at the teaching position, and there is a problem that it is not possible to cope with a case where a deviation or a load collapse occurs.
Therefore, Patent Documents 1 to 4 have already been proposed as means for recognizing the position and orientation of a loaded workpiece and gripping and conveying the workpiece.

特許文献1は、レーザレーダやステレオカメラなどのセンサを用いて計測した3次元データの中から、登録された形状と似た形状を探索するものである。   Patent Document 1 searches for a shape similar to a registered shape from three-dimensional data measured using a sensor such as a laser radar or a stereo camera.

特許文献2及び特許文献3は、デパレタイズを対象とした認識手法であり、照明装置を取り付け、影を発生させて、エッジを抽出し輪郭を認識する。直方体を仮定しているため、エッジは角にて直交することを利用し、直線にフィッティングを行っている。ステレオカメラなどによる高さ情報を物品選択に利用することや、スリット光を投影して撮像しエッジを得る方法も併用されている。
特許文献4では、荷崩れを検出する方法であり、正しく積載された場合の画像を事前に撮影し、現在の画像との差分を比較して、荷崩れが発生しているかを判断する。
Patent Document 2 and Patent Document 3 are recognition methods for depalletization, in which a lighting device is attached, a shadow is generated, an edge is extracted, and a contour is recognized. Since a rectangular parallelepiped is assumed, fitting is performed on a straight line using the fact that the edges are orthogonal at the corners. A method of using height information from a stereo camera or the like for selecting an article and a method of obtaining an edge by projecting slit light to obtain an edge are also used.
Patent Document 4 is a method for detecting collapse of a load, taking an image of a correctly loaded image in advance, and comparing the difference with the current image to determine whether the collapse of load has occurred.

特開2008−309671号明細書、「物体認識方法および装置」JP 2008-309671 A, “Object recognition method and apparatus” 特許第3516067号明細書、「デパレタイズ用画像作成方法および画像作成装置」Japanese Patent No. 3516067, “Depalletizing image creation method and image creation device” 特許第3849514号明細書、「物品位置認識装置」Japanese Patent No. 3894514, “article position recognition device” 特開2007−179301号明細書、「物品の荷崩れ検出方法および装置」JP 2007-179301 A, “Method and apparatus for detecting collapse of goods”

上述した特許文献1では、レーザを使用する場合、箱が密着している状態では、箱の隣接部分が平面として得られしまうため、箱の境界が三次元データに反映されず、登録した形状を探索することができない。ステレオカメラを使用する場合は箱に特徴的なテクスチャが必要であるため、無地の箱は認識が難しい。   In Patent Document 1 described above, when a laser is used, an adjacent portion of the box is obtained as a plane when the box is in close contact, so the boundary of the box is not reflected in the three-dimensional data, and the registered shape is Unable to explore. When using a stereo camera, it is difficult to recognize a plain box because a special texture is required for the box.

特許文献2及び特許文献3では、対象とする形を直方体のようなものに仮定しているため、箱が荷崩れしている場合のようにエッジが直交しない場合は認識できない。
特許文献4では、荷崩れを判断するのみであり、ピッキングなどは実施していない。また、あらかじめ正しく積載された状態の画像を事前に登録しておく必要があり、積載方法や対象となるワークが変わった場合に対応できない。さらに、バラ積みにも対応できない。
In Patent Document 2 and Patent Document 3, since the target shape is assumed to be a rectangular parallelepiped, it cannot be recognized when the edges are not orthogonal as in the case where the box is collapsed.
In Patent Document 4, only the collapse of the load is determined, and picking or the like is not performed. In addition, it is necessary to register in advance an image that has been correctly loaded in advance, and it is not possible to cope with a change in the loading method or the target workpiece. Furthermore, it cannot handle bulk loading.

本発明は上述した従来の問題点を解決するために創案されたものである。すなわち、本発明の目的は、箱状ワークを対象とし、ワークが密着している場合や荷崩れしている場合でもピッキングするワークの位置と姿勢を高い精度で認識することができる箱状ワーク認識装置および方法を提供することにある。   The present invention has been developed to solve the above-described conventional problems. That is, an object of the present invention is a box-shaped workpiece recognition that can recognize the position and posture of a workpiece to be picked with high accuracy even when the workpiece is in close contact or when the load collapses. It is to provide an apparatus and method.

本発明によれば、隣接して荷積みした複数の箱状ワークを上方から撮影して全体画像を取得する単眼カメラと、
前記複数の箱状ワーク全体の3次元形状を計測する距離センサと、
前記全体画像から箱状ワークのエッジ部分を検出し、前記エッジ部分を境界として前記3次元形状から各箱状ワークの位置と姿勢を認識し、ピッキングする箱状ワークの位置と姿勢を出力する物体認識処理装置とを備えた、ことを特徴とする箱状ワーク認識装置が提供される。
According to the present invention, a monocular camera that captures a plurality of box-shaped workpieces loaded adjacently from above and obtains an entire image;
A distance sensor for measuring a three-dimensional shape of the entire plurality of box-shaped workpieces;
An object that detects an edge portion of a box-shaped workpiece from the entire image, recognizes the position and posture of each box-shaped workpiece from the three-dimensional shape with the edge portion as a boundary, and outputs the position and posture of the box-shaped workpiece to be picked A box-shaped workpiece recognition device including a recognition processing device is provided.

また、本発明によれば、隣接して荷積みした複数の箱状ワークを上方から撮影して全体画像を取得し、
前記複数の箱状ワーク全体の3次元形状を計測し、
前記全体画像から箱状ワークのエッジ部分を検出し、
前記エッジ部分を境界として前記3次元形状から各箱状ワークの位置と姿勢を認識し、
ピッキングする箱状ワークの位置と姿勢を出力する、ことを特徴とする箱状ワーク認識方法が提供される。
Further, according to the present invention, a plurality of box-shaped workpieces loaded adjacent to each other are photographed from above to obtain an entire image,
Measuring the overall three-dimensional shape of the plurality of box-shaped workpieces;
Detecting the edge part of the box-shaped workpiece from the entire image,
Recognizing the position and posture of each box-shaped workpiece from the three-dimensional shape with the edge portion as a boundary,
A box-shaped workpiece recognition method is provided that outputs the position and posture of a box-shaped workpiece to be picked.

本発明の実施形態によれば、前記3次元形状の点群に箱状ワークの異なる面を表すように異なるラベル値を設定し、
前記ラベル値を同一の箱状ワークごとにグループ化し、
各グループ内の点群の情報から、ピッキングする箱状ワークの位置と姿勢を出力する。
According to an embodiment of the present invention, different label values are set to represent different surfaces of the box-shaped workpiece in the three-dimensional shape point cloud,
Group the label values by the same box-shaped workpiece,
From the point cloud information in each group, the position and orientation of the picked box-shaped workpiece are output.

前記ラベル値は、単眼カメラで得られた画像中のエッジ部分を境界に異なるラベル値を割り当て、
隣接する点群間の距離が閾値以上の箇所を境として異なるラベル値を割り当て、
隣接する点群の法線ベクトル間の角度が閾値以上の部分を境として異なるラベル値を割り当てる。
The label value is assigned a different label value with the edge portion in the image obtained by the monocular camera as a boundary,
Assign a different label value at the boundary where the distance between adjacent point groups is greater than or equal to the threshold,
Different label values are assigned at a portion where the angle between normal vectors of adjacent point groups is equal to or greater than a threshold value.

また、各ラベル値の点群から平均の法線ベクトルを求めて、各ラベル値の代表法線ベクトルとし、
各ラベル値の代表法線ベクトルと、隣接するラベル値の代表法線ベクトル間の角度が所定の範囲にあるラベル値をグループ化する。
In addition, an average normal vector is obtained from the point cloud of each label value, and is used as a representative normal vector for each label value.
The label values whose angle between the representative normal vector of each label value and the representative normal vector of the adjacent label value is within a predetermined range are grouped.

また、箱状ワークの上面面積を予め記憶し、前記各ラベル値に属する点群の占める面積と比較して、各グループから上面に相当するラベルを認識する。   Further, the upper surface area of the box-shaped workpiece is stored in advance, and the label corresponding to the upper surface is recognized from each group as compared with the area occupied by the point group belonging to each label value.

或いは、前記各ラベル値に属する点群の占める面積を算出し、これをヒストグラム化して最も投票数の多い面積から上面に相当するラベルを認識する。   Alternatively, the area occupied by the point group belonging to each of the label values is calculated, and this is converted into a histogram to recognize the label corresponding to the upper surface from the area with the largest number of votes.

本発明の装置及び方法によれば、単眼カメラによる全体画像から箱状ワークのエッジ部分を検出し、このエッジ部分を境界として距離センサによる3次元形状から各箱状ワークの位置と姿勢を認識するので、箱状ワークが密着している場合や荷崩れの場合でもピッキングするワークの位置と姿勢を高い精度で認識することができる。   According to the apparatus and method of the present invention, an edge portion of a box-shaped workpiece is detected from an entire image obtained by a monocular camera, and the position and posture of each box-shaped workpiece are recognized from a three-dimensional shape by a distance sensor using this edge portion as a boundary. Therefore, the position and posture of the workpiece to be picked can be recognized with high accuracy even when the box-shaped workpiece is in close contact or when the load collapses.

従って、本発明の装置及び方法により以下の効果が得られる。
(1) ティーチングを必要としないため、単眼カメラの撮影範囲内及び距離センサの計測範囲内に箱状ワークが存在すれば、ワーク毎に位置がずれていてもピッキングができる。
(2) 単眼カメラの全体画像を併用し、エッジが抽出された部分(エッジ部分)に相当する3次元形状の点群データに、その部分が箱の境界であるという情報を与えるので、箱の境界部分を容易に認識できる。距離センサにレーザレーダなどを利用すれば、テクスチャがない場合でも認識できる。また、全体画像と3次元形状のデータ処理のみでピッキングするワークの位置と姿勢の認識を行うため、事前にワーク形状を登録する必要がない。
(3) エッジが直交しているという条件は使用しない。また、3次元データの法線ベクトルの角度を見て認識するため、荷崩れや荷積みのようにエッジが直交しない場合でも認識可能である。
(4) 本発明はワークをピッキングすることを想定している。荷崩れがあるかの判断ではなく、検出したラベルグループに含まれる点群の座標値や法線ベクトルから位置、姿勢を計算してピッキングすることができる。
Therefore, the following effects can be obtained by the apparatus and method of the present invention.
(1) Since teaching is not required, picking can be performed even if the position of each work is shifted if a box-shaped work exists within the photographing range of the monocular camera and the measurement range of the distance sensor.
(2) Since the whole image of the monocular camera is used in combination and information indicating that the part is the boundary of the box is given to the point cloud data of the three-dimensional shape corresponding to the part from which the edge is extracted (edge part), The boundary part can be easily recognized. If a laser radar or the like is used for the distance sensor, it can be recognized even when there is no texture. Further, since the position and orientation of the workpiece to be picked are recognized only by data processing of the entire image and the three-dimensional shape, it is not necessary to register the workpiece shape in advance.
(3) The condition that the edges are orthogonal is not used. In addition, since recognition is performed by looking at the angle of the normal vector of the three-dimensional data, it can be recognized even when the edges are not orthogonal, such as load collapse or loading.
(4) The present invention assumes picking a workpiece. Rather than determining whether there is a load collapse, the position and orientation can be calculated and picked from the coordinate values and normal vectors of the point cloud included in the detected label group.

本発明の箱状ワーク認識装置を備えたピッキングシステムの全体構成図である。It is a whole block diagram of the picking system provided with the box-shaped workpiece recognition apparatus of this invention. 図1のピッキングシステムの作動フロー図である。It is an operation | movement flowchart of the picking system of FIG. 図2における認識アルゴリズムのフロー図である。It is a flowchart of the recognition algorithm in FIG. 荷積みした複数の箱状ワークのラベルとそのグループ化の説明図である。It is explanatory drawing of the label of the several box-shaped workpieces loaded, and its grouping. ヒストグラムによる上面認識の説明図である。It is explanatory drawing of the upper surface recognition by a histogram.

以下、本発明の好ましい実施例を図面を参照して説明する。なお、各図において共通する部分には同一の符号を付し、重複した説明を省略する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In addition, the same code | symbol is attached | subjected to the common part in each figure, and the overlapping description is abbreviate | omitted.

図1は、本発明の箱状ワーク認識装置を備えたピッキングシステムの全体構成図である。
この図において、1はワーク、2はロボット、3はロボットハンド、4はハンド制御部、5はロボット制御部、6は総括処理部、7はロボット制御装置であり、ロボット制御装置7はロボット制御部5と総括処理部6からなる。
FIG. 1 is an overall configuration diagram of a picking system provided with a box-shaped workpiece recognition device of the present invention.
In this figure, 1 is a work, 2 is a robot, 3 is a robot hand, 4 is a hand control unit, 5 is a robot control unit, 6 is a general processing unit, 7 is a robot control device, and the robot control device 7 is robot control. Part 5 and general processing part 6.

ワーク1は、ダンボール箱のような密閉された直方体である。このようなワークを本出願では、「箱状ワーク」又は単に「ワーク」と呼ぶ。
この図において、複数のワーク1は、計測用の台8の上に隣接して密に荷積みされている。計測用台8は、固定されている必要はなく、例えば計測時間が短いなど、後述する3次元形状の計測に支障が生じない限りで、コンベア装置等であってもよい。
The workpiece 1 is a sealed rectangular parallelepiped such as a cardboard box. In the present application, such a workpiece is referred to as a “box-shaped workpiece” or simply “work”.
In this figure, a plurality of workpieces 1 are densely loaded adjacent to each other on a measurement table 8. The measurement table 8 does not need to be fixed, and may be a conveyor device or the like as long as the measurement time is short, for example, as long as the measurement of a three-dimensional shape to be described later is not hindered.

ロボット2は、例えば多関節3次元ロボットであり、ロボットハンド3を所定のワーキングエリア内で6自由度の位置及び姿勢を制御できるようになっている。なお、ロボット2は、多関節3次元ロボットに限定されず、その他のロボットであってもよい。
ロボットハンド3は、例えば真空による吸着パッド、開閉機構を有する把持装置、或いはこれらの複合装置であり、ピッキングする箱状ワーク1の上面を吸着又は把持して、1つずつ持ち上げ、別の位置まで保持するようになっている。
The robot 2 is, for example, an articulated three-dimensional robot, and can control the position and posture of the robot hand 3 with six degrees of freedom within a predetermined working area. The robot 2 is not limited to an articulated three-dimensional robot, and may be another robot.
The robot hand 3 is, for example, a vacuum suction pad, a gripping device having an opening / closing mechanism, or a composite device thereof. The robot hand 3 sucks or grips the upper surface of the box-shaped workpiece 1 to be picked and lifts it one by one to another position. It comes to hold.

ハンド制御部4は、総括処理部6から受信する把持指令9aに応じてロボットハンド3に制御信号を出力し、ロボットハンド3から位置信号を受信してこれを総括処理部6へ送信する。
なおハンド制御部4は必須ではなくこれを省略し、その機能を総括処理部6に含ませてもよい。
The hand control unit 4 outputs a control signal to the robot hand 3 in response to the gripping command 9 a received from the general processing unit 6, receives a position signal from the robot hand 3, and transmits it to the general processing unit 6.
The hand control unit 4 is not essential and may be omitted, and the function may be included in the overall processing unit 6.

ロボット制御部5は、総括処理部6から受信したピッキングする箱状ワークの位置と姿勢に基づき、ロボット2を制御し、ロボットハンド3によりピッキングする箱状ワーク1の上面を吸着又は把持して、1つずつ持ち上げ、別の位置まで保持して搬送する。   The robot control unit 5 controls the robot 2 based on the position and orientation of the box-shaped workpiece to be picked received from the general processing unit 6, and sucks or grips the upper surface of the box-shaped workpiece 1 to be picked by the robot hand 3. Lift one by one, hold it to another position, and carry it.

総括処理部6は、本発明の箱状ワーク認識装置10から受信したピッキングする箱状ワークの位置と姿勢をロボット制御部5に送信する。   The overall processing unit 6 transmits the position and posture of the box-shaped workpiece to be picked received from the box-shaped workpiece recognition device 10 of the present invention to the robot control unit 5.

図1において、本発明の箱状ワーク認識装置10は、単眼カメラ11、距離センサ12、センサ制御部14、及び物体認識処理装置16からなる。   In FIG. 1, a box-shaped workpiece recognition device 10 of the present invention includes a monocular camera 11, a distance sensor 12, a sensor control unit 14, and an object recognition processing device 16.

単眼カメラ11は、デジタルカメラ(CCDカメラ又はCMOSカメラ)であり、隣接して荷積みした複数の箱状ワーク1を上方から撮影して全体画像を取得する。   The monocular camera 11 is a digital camera (CCD camera or CMOS camera), and captures a plurality of box-shaped workpieces 1 loaded adjacently from above to obtain an entire image.

距離センサ12は、前記複数の箱状ワーク1の全体の3次元形状を計測する。
この例において、距離センサ12は、レーザレーダであり、計測用台8の上方に位置し、複数の箱状ワーク1の3次元形状を上方から計測する。また、距離センサ12の高さ及び姿勢を制御する移動・回転機構13(例えば直動テーブルや回転テーブル)を備え、距離センサ12の姿勢を自由に変え、視野を調節できるようになっている。
例えば、対象が小さいときに近づいて計測し、対象が大きいときに遠ざかって計測して、視野を適正化するようになっている。
The distance sensor 12 measures the entire three-dimensional shape of the plurality of box-shaped workpieces 1.
In this example, the distance sensor 12 is a laser radar, is positioned above the measurement table 8, and measures the three-dimensional shape of the plurality of box-shaped workpieces 1 from above. Further, a moving / rotating mechanism 13 (for example, a linear motion table or a rotating table) for controlling the height and posture of the distance sensor 12 is provided, and the posture of the distance sensor 12 can be freely changed to adjust the visual field.
For example, when the object is small, the field of view is approached, and when the object is large, the object is measured away to optimize the field of view.

なお、距離センサ12は、レーザレーダに限定されず、ワークまでの距離を検出できるように、一定の間隔を隔てたステレオカメラであってもよい。   The distance sensor 12 is not limited to the laser radar, and may be a stereo camera with a constant interval so that the distance to the workpiece can be detected.

センサ制御部14は、物体認識処理装置16から姿勢制御信号9bを受信しこの信号を距離センサ12に出力して距離センサ12の高さ及び姿勢を制御し、かつ距離センサ12で計測した複数の箱状ワーク1の3次元形状(センサデータ9c)を受信し、物体認識処理装置16に送信する。
なおセンサ制御部14は必須ではなくこれを省略し、その機能を物体認識処理装置16に含ませてもよい。
The sensor control unit 14 receives the posture control signal 9 b from the object recognition processing device 16, outputs this signal to the distance sensor 12, controls the height and posture of the distance sensor 12, and controls a plurality of values measured by the distance sensor 12. The three-dimensional shape (sensor data 9c) of the box-shaped workpiece 1 is received and transmitted to the object recognition processing device 16.
The sensor control unit 14 is not essential and may be omitted, and its function may be included in the object recognition processing device 16.

物体認識処理装置16は、単眼カメラ11による全体画像から箱状ワーク1のエッジ部分を検出し、このエッジ部分を境界として距離センサ12による3次元形状から各箱状ワーク1の位置と姿勢を認識し、ピッキングする箱状ワークの位置と姿勢をロボット制御装置7に出力する。
物体認識処理装置16は、この例ではPC(コンピュータ)である。なお、上述したロボット制御装置7(ロボット制御部5と総括処理部6)、及びセンサ制御部14を同一のPCで構成しても、それぞれ独立のPCで構成してもよい。
The object recognition processing device 16 detects the edge portion of the box-shaped workpiece 1 from the entire image obtained by the monocular camera 11 and recognizes the position and orientation of each box-shaped workpiece 1 from the three-dimensional shape by the distance sensor 12 with this edge portion as a boundary. Then, the position and posture of the box-shaped workpiece to be picked are output to the robot controller 7.
The object recognition processing device 16 is a PC (computer) in this example. Note that the robot control device 7 (the robot control unit 5 and the overall processing unit 6) and the sensor control unit 14 described above may be configured by the same PC or may be configured by independent PCs.

図2は、図1のピッキングシステムの作動フロー図である。
この図において、このピッキングシステムは、S1〜S6の各ステップ(工程)からなる。
FIG. 2 is an operational flow diagram of the picking system of FIG.
In this figure, this picking system comprises steps (steps) S1 to S6.

ステップS1では、計測する対象(箱状ワーク1)が単眼カメラ11と距離センサ12の視野(計測範囲)に適切に入るように単眼カメラ11と距離センサ12の高さと姿勢を調整する。適切とはワーク1の全体が視野内に入り、かつ、十分な大きさで写っており、以後の認識処理に対応できる解像度をもつことである。姿勢の調整方法はフィードバックなどによる自動調整によるのが好ましいが、手動によってもよい。   In step S <b> 1, the height and posture of the monocular camera 11 and the distance sensor 12 are adjusted so that the object to be measured (box-shaped workpiece 1) appropriately enters the visual field (measurement range) of the monocular camera 11 and the distance sensor 12. “Appropriate” means that the entire work 1 is within the field of view and is sufficiently large and has a resolution that can be used for the subsequent recognition processing. The posture adjustment method is preferably automatic adjustment by feedback or the like, but may be manual.

ステップS2では、距離センサ12により3次元形状を取得する。ここでの3次元形状は3次元座標を持つ各点が集合した点群を想定している。   In step S2, a three-dimensional shape is acquired by the distance sensor 12. The three-dimensional shape here assumes a point group in which points having three-dimensional coordinates are gathered.

ステップS3では、単眼カメラ11により、隣接して荷積みした複数の箱状ワーク1を上方から撮影して全体画像を取得する。
なお、ステップS2とステップS3は、順序が逆でも、同時でもよい。
In step S <b> 3, a plurality of box-shaped workpieces 1 loaded adjacent to each other are photographed from above by the monocular camera 11 to obtain an entire image.
Note that step S2 and step S3 may be in reverse order or simultaneous.

ステップS4では、全体画像から箱状ワークのエッジ部分を検出し、このエッジ部分を境界として3次元形状から各箱状ワークの位置と姿勢を認識する。
ステップS5では、統括処理部に認識の結果から必要な情報を送る。必要な情報とは認識した物体の数や、各認識した物体の位置、姿勢情報などである。
In step S4, an edge portion of the box-shaped workpiece is detected from the entire image, and the position and posture of each box-shaped workpiece are recognized from the three-dimensional shape with this edge portion as a boundary.
In step S5, necessary information is sent to the overall processing unit from the recognition result. The necessary information includes the number of recognized objects, the position and orientation information of each recognized object, and the like.

ステップS6では、統括処理部はピッキングするワークを、ロボット制御部とハンド制御部を通じてロボットとハンドを制御し、指定した座標の点でピッキングする。   In step S6, the overall processing unit controls the robot and the hand through the robot control unit and the hand control unit, and picks the workpiece to be picked at the point of the designated coordinate.

図3は、図2における認識アルゴリズムのフロー図である。
この図において、認識アルゴリズムは、T1〜T12の各ステップ(工程)からなる。
FIG. 3 is a flowchart of the recognition algorithm in FIG.
In this figure, the recognition algorithm is composed of steps (processes) T1 to T12.

ステップT1では、距離センサ12で取得した複数の箱状ワーク全体の3次元形状のノイズ除去を、例えばメディアンフィルタなどで行う。このステップは省略してもよい。
ステップT2では、3次元形状のマスキングを行い、ワーク外の位置にある点群や地面に相当する点群を除去する。このステップは必須ではなく、省略してもよい。
ステップT3では、単眼カメラ11による全体画像から箱状ワーク1のエッジ部分1aを検出する。この場合、無地の箱を想定するなら、検出されたエッジをそのまま利用してもよい。また、箱の面に模様などがあるならば直線のエッジを抽出する。
In step T1, noise removal of the three-dimensional shape of the entire plurality of box-shaped workpieces acquired by the distance sensor 12 is performed by, for example, a median filter. This step may be omitted.
In step T2, masking of a three-dimensional shape is performed, and point groups at positions outside the work and point groups corresponding to the ground are removed. This step is not essential and may be omitted.
In step T3, the edge part 1a of the box-shaped workpiece 1 is detected from the entire image obtained by the monocular camera 11. In this case, if a plain box is assumed, the detected edge may be used as it is. If there is a pattern on the box surface, a straight edge is extracted.

ステップT4では、単眼カメラ11の位置、距離センサ12の位置を利用して全体画像中のエッジ部分1aに対応する3次元の点群を抽出する。
単眼カメラ11と距離センサ12の位置が既知であれば、画像上のある点(例えばエッジ部分1a)は、カメラ位置と画像上の点とを結ぶ直線と、3次元形状とが交差する点を抽出すればよい。
In step T4, a three-dimensional point group corresponding to the edge portion 1a in the entire image is extracted using the position of the monocular camera 11 and the position of the distance sensor 12.
If the positions of the monocular camera 11 and the distance sensor 12 are known, a certain point (for example, the edge portion 1a) on the image is a point where a straight line connecting the camera position and the point on the image intersects with the three-dimensional shape. Extract it.

図4は、荷積みした複数の箱状ワークのラベル(A)とグループ化(B)の説明図である。
図4(A)は、下段5個、上段4個、計9個の箱状ワーク1が、隣接して密に積層され、上段の1個の箱状ワーク1が荷崩れしている状態を示している。
この図において、黒丸(●)は、距離センサ12による3次元形状の計測点、白丸(○)は、距離センサ12による3次元形状の計測点であり、かつエッジ部分1aに対応する3次元の点群である。この図に示すように、エッジ部分1aに対応する3次元の点群は、エッジに隣接して1つ又は2つが存在する。
FIG. 4 is an explanatory diagram of labels (A) and groupings (B) of a plurality of box-shaped works loaded.
FIG. 4 (A) shows a state in which a total of nine box-shaped workpieces 1 in the lower stage, four in the upper stage, and a total of nine box-shaped works 1 are densely stacked adjacently, and one box-shaped workpiece 1 in the upper stage is collapsed. Show.
In this figure, a black circle (●) is a three-dimensional shape measurement point by the distance sensor 12, and a white circle (◯) is a three-dimensional shape measurement point by the distance sensor 12, and the three-dimensional shape corresponding to the edge portion 1a. It is a point cloud. As shown in this figure, one or two three-dimensional point groups corresponding to the edge portion 1a are adjacent to the edge.

ステップT5では、抽出されたエッジ部分1aに対応する3次元の点群にエッジに隣接することを意味するフラグを振る。例えば、距離センサ12による3次元形状の計測点の座標値(x、y、z)と共にフラグeを記憶する。フラグeは、例えば0(エッジ部分以外)と1(エッジ部分)である。   In step T5, a flag indicating that the three-dimensional point group corresponding to the extracted edge portion 1a is adjacent to the edge is set. For example, the flag e is stored together with the coordinate values (x, y, z) of the measurement point of the three-dimensional shape by the distance sensor 12. The flag e is, for example, 0 (other than the edge portion) and 1 (edge portion).

ステップT6では、計測データ(3次元形状)の隣接する計測点との距離を利用してメッシュ(例えば3角メッシュ)を生成する。このメッシュ生成は、隣接する計測点との距離を利用することで、最適なメッシュをはることができる。これにより、3次元形状を3Dで把握することができる。   In step T6, a mesh (for example, a triangular mesh) is generated using the distance between the measurement data (three-dimensional shape) and an adjacent measurement point. In this mesh generation, an optimal mesh can be set by using the distance between adjacent measurement points. Thereby, a three-dimensional shape can be grasped in 3D.

図4(A)において、条件1,2,3は、ラベル値の設定(ラベリング)の条件を模式的に示している。
ステップT7では、以下の条件1〜3により、各点群にラベル値を設定する。
条件1:隣接する点にフラグが振られている場合は、異なるラベル値を割り当てる。
条件2:隣接する点の距離が閾値以上の点は異なるラベル値を割り当てる。
条件3:隣接する点の法線ベクトル間の角度の差が閾値以上の点は異なるラベル値を割り当てる。
In FIG. 4A, conditions 1, 2, and 3 schematically show conditions for label value setting (labeling).
In step T7, a label value is set for each point group according to the following conditions 1-3.
Condition 1: If a flag is assigned to an adjacent point, a different label value is assigned.
Condition 2: A different label value is assigned to a point where the distance between adjacent points is equal to or greater than a threshold.
Condition 3: A different label value is assigned to a point where the angle difference between the normal vectors of adjacent points is equal to or greater than a threshold value.

すなわち、順次各点をスキャンし、隣接する点との距離、法線ベクトル、フラグを確認し、隣接する点が条件1〜3のいずれかを満たせば、隣接する点と異なるラベル値を割り当て、そうでなければ同じラベル値を割り当てる。
ここで、ラベル値は、任意の数字または記号である。
That is, each point is sequentially scanned, the distance to the adjacent point, the normal vector, and the flag are confirmed, and if the adjacent point satisfies any of the conditions 1 to 3, a different label value from the adjacent point is assigned, Otherwise, assign the same label value.
Here, the label value is an arbitrary number or symbol.

図4(B)は、ステップT7によるラベル値1〜7とそのグループ化を示している。
ステップT8では、極端にラベル値の大きいものや小さいものを除去する。すなわち、不必要なラベル値を除去する。なお、このステップは不可欠ではない。また、ラベル値の大きさ以外で判断してもよい。
この時点で、各ラベル値が箱(箱状ワーク)の面を表す。すなわち、図4(B)では、1〜7の7面が検出されている。
FIG. 4B shows label values 1 to 7 and their groupings according to step T7.
In step T8, those having extremely large or small label values are removed. That is, unnecessary label values are removed. This step is not essential. Further, the determination may be made other than the size of the label value.
At this point, each label value represents the surface of the box (box-shaped workpiece). That is, in FIG. 4B, seven surfaces 1 to 7 are detected.

ステップT9では、得られたラベル値に属する点群の法線ベクトルの平均を求め、各ラベル値に属する点群の代表の法線ベクトルとする。このステップでは、箱状ワークの面の向きを計算していることになる。
図4(B)における矢印は、代表の法線ベクトルを示している。
In step T9, the average of the normal vectors of the point group belonging to the obtained label value is obtained and set as the representative normal vector of the point group belonging to each label value. In this step, the orientation of the surface of the box-shaped workpiece is calculated.
The arrows in FIG. 4B indicate representative normal vectors.

ステップT10では、隣接するラベル値の代表法線ベクトル間の角度が90度程度であれば、同一のグループに含める。ただし、お互いの法線ベクトルが外側を向いていることが条件となる。
この時点で各グループが各ワーク(箱状ワーク)を表す。
図4(B)において、ラベル値5,6の法線ベクトル間の角度が90度なのでグループ化する。
ラベル値4,5の法線ベクトルは内側に向いているので、グループ化しない。
ラベル値6,7の法線ベクトルも内側に向いているので、グループ化しない。
In step T10, if the angle between the representative normal vectors of adjacent label values is about 90 degrees, they are included in the same group. However, it is a condition that the normal vectors of each other face outward.
At this point, each group represents each work (box-shaped work).
In FIG. 4B, since the angle between the normal vectors of the label values 5 and 6 is 90 degrees, they are grouped.
Since the normal vectors of the label values 4 and 5 are inward, they are not grouped.
Since the normal vectors of the label values 6 and 7 are also directed inward, they are not grouped.

なおこの例のように、法線ベクトルの角度を利用せず、画像上の陰影による色の違いを利用してラベリングしてもよい。   Note that, as in this example, labeling may be performed using the difference in color due to shading on the image without using the angle of the normal vector.

ステップT11では、箱状ワーク1の上面を認識する。
上面を認識する手段として、以下が挙げられるが、本発明はこれに限定されない。
(1)あらかじめ上面の面積を登録しておく。
各点群は3次元座標を持っている。従って、各ラベルのXY座標の最大値、最小値から各面の面積を算出することができる。これを事前に登録した面積と比較し、認識する。この手段は、主に姿勢がばらばらに積まれている状態に適する。
(2)ラベル内に含まれる点群の数をヒストグラム化し上面を認識する。
ひどい荷崩れが頻繁に起きなければ、多くの箱は上面が見えている。そこでワークが搬送されて最初の認識にて、各ラベルに含まれる点群の座標値から面積を算出し、図5のようにヒストグラム化し、もっとも数の多い面を上面とする。
In step T11, the upper surface of the box-shaped workpiece 1 is recognized.
Although the following is mentioned as a means to recognize an upper surface, This invention is not limited to this.
(1) The area of the upper surface is registered in advance.
Each point group has three-dimensional coordinates. Therefore, the area of each surface can be calculated from the maximum and minimum values of the XY coordinates of each label. This is recognized by comparing with the area registered in advance. This means is suitable mainly for a state in which postures are piled up separately.
(2) The number of point groups contained in the label is histogrammed to recognize the upper surface.
Many boxes can be seen from the top if severe collapses do not occur frequently. Therefore, the area is calculated from the coordinate value of the point group included in each label when the work is conveyed and is recognized for the first time, and a histogram is formed as shown in FIG.

ステップT12では、得られたグループ内の点群からピッキングする箱状ワーク1の重心位置や姿勢など、その箱状ワーク1のピッキングに必要な情報(認識結果)を統括処理部6に出力する。   In step T12, information (recognition result) necessary for picking the box-shaped workpiece 1 such as the gravity center position and posture of the box-shaped workpiece 1 picked from the obtained point group is output to the overall processing unit 6.

上述した本発明の装置及び方法によれば、単眼カメラ11による全体画像から箱状ワーク1のエッジ部分1aを検出し、このエッジ部分1aを境界として距離センサ12による3次元形状から各箱状ワーク1の位置と姿勢を認識するので、箱状ワーク1が密着している場合や荷崩れの場合でもピッキングするワークの位置と姿勢を高い精度で認識することができる。   According to the apparatus and method of the present invention described above, the edge portion 1a of the box-shaped workpiece 1 is detected from the entire image by the monocular camera 11, and each box-shaped workpiece is detected from the three-dimensional shape by the distance sensor 12 with this edge portion 1a as a boundary. Since the position and orientation of 1 are recognized, the position and orientation of the workpiece to be picked can be recognized with high accuracy even when the box-shaped workpiece 1 is in close contact or when the load collapses.

従って、本発明の装置及び方法により以下の効果が得られる。
(1) ティーチングを必要としないため、単眼カメラ11の撮影範囲内及び距離センサ12の計測範囲内に箱状ワーク1が存在すれば、ワーク毎に位置がずれていてもピッキングができる。
(2) 単眼カメラ11の全体画像を併用し、エッジが抽出された部分(エッジ部分1a)に相当する3次元形状の点群データに、その部分が箱の境界であるという情報を与えるので、箱の境界部分を容易に認識できる。距離センサ12にレーザレーダなどを利用すれば、テクスチャがない場合でも認識できる。また、全体画像と3次元形状のデータ処理のみでピッキングするワークの位置と姿勢の認識を行うため、事前にワーク形状を登録する必要がない。
(3) エッジが直交しているという条件は使用しない。また、3次元データの法線ベクトルの角度を見て認識するため、荷崩れやばらばらに積まれている状態のようにエッジが直交しない場合でも認識可能である。
(4) 本発明はワークをピッキングすることを想定している。荷崩れがあるかの判断ではなく、検出したラベルグループに含まれる点群の座標値や法線ベクトルから位置、姿勢を計算してピッキングすることができる。
Therefore, the following effects can be obtained by the apparatus and method of the present invention.
(1) Since teaching is not required, if the box-shaped workpiece 1 exists in the imaging range of the monocular camera 11 and the measurement range of the distance sensor 12, picking can be performed even if the position of each workpiece is shifted.
(2) Since the whole image of the monocular camera 11 is used in combination, information indicating that the part is a box boundary is given to the point cloud data having a three-dimensional shape corresponding to the part from which the edge is extracted (edge part 1a). The boundary of the box can be easily recognized. If a laser radar or the like is used for the distance sensor 12, it can be recognized even when there is no texture. Further, since the position and orientation of the workpiece to be picked are recognized only by data processing of the entire image and the three-dimensional shape, it is not necessary to register the workpiece shape in advance.
(3) The condition that the edges are orthogonal is not used. In addition, since the recognition is performed by looking at the angle of the normal vector of the three-dimensional data, it is possible to recognize even when the edges are not orthogonal, such as a state where the load collapses or is piled apart.
(4) The present invention assumes picking a workpiece. Rather than determining whether there is a load collapse, the position and orientation can be calculated and picked from the coordinate values and normal vectors of the point cloud included in the detected label group.

なお、本発明は上述した実施の形態に限定されず、本発明の要旨を逸脱しない範囲で種々の変更を加え得ることは勿論である。   In addition, this invention is not limited to embodiment mentioned above, Of course, a various change can be added in the range which does not deviate from the summary of this invention.

1 ワーク(箱状ワーク)、1a エッジ部分、
2 ロボット、3 ロボットハンド、
4 ハンド制御部、5 ロボット制御部、
6 総括処理部、7 ロボット制御装置、
8 計測用台、
10 箱状ワーク認識装置、
12 距離センサ、13 移動・回転機構、
14 センサ制御部、16 物体認識処理装置
1 work (box-shaped work), 1a edge part,
2 robots, 3 robot hands,
4 Hand control unit, 5 Robot control unit,
6 General processing section, 7 Robot controller,
8 Measuring table,
10 Box-shaped workpiece recognition device,
12 distance sensor, 13 movement / rotation mechanism,
14 sensor control unit, 16 object recognition processing device

Claims (8)

隣接して荷積みした複数の箱状ワークを上方から撮影して全体画像を取得する単眼カメラと、
前記複数の箱状ワーク全体の3次元形状を、3次元座標を持つ各計測点が集合した点群として計測する距離センサと、
前記全体画像から箱状ワークのエッジ部分を検出し、前記エッジ部分を境界として、前記エッジ部分に対応する、前記距離センサによる計測点の点群を抽出し、当該点群に基づいて、前記3次元形状から各箱状ワークの位置と姿勢を認識し、ピッキングする箱状ワークの位置と姿勢を出力する物体認識処理装置とを備えた、ことを特徴とする箱状ワーク認識装置。
A monocular camera that captures a plurality of box-shaped workpieces loaded adjacently from above and obtains an entire image;
A distance sensor that measures a three-dimensional shape of the whole of the plurality of box-shaped workpieces as a group of points each measuring point having a three-dimensional coordinate ;
An edge part of the box-shaped workpiece is detected from the whole image, and a point cloud of measurement points by the distance sensor corresponding to the edge part is extracted with the edge part as a boundary , and based on the point cloud, the 3 A box-shaped workpiece recognition device comprising: an object recognition processing device that recognizes the position and posture of each box-shaped workpiece from a dimensional shape and outputs the position and posture of the box-shaped workpiece to be picked.
隣接して荷積みした複数の箱状ワークを上方から撮影して全体画像を取得する単眼カメラと、
前記複数の箱状ワーク全体の3次元形状を計測する距離センサと、
前記全体画像から箱状ワークのエッジ部分を検出し、前記エッジ部分を境界として前記3次元形状から各箱状ワークの位置と姿勢を認識し、ピッキングする箱状ワークの位置と姿勢を出力する物体認識処理装置とを備え
前記物体認識処理装置は、前記3次元形状の点群に箱状ワークの異なる面を表すように異なるラベル値を設定し、前記ラベル値を同一の箱状ワークごとにグループ化し、各グループ内の点群の情報から、ピッキングする箱状ワークの位置と姿勢を出力する、ことを特徴とする箱状ワーク認識装置。
A monocular camera that captures a plurality of box-shaped workpieces loaded adjacently from above and obtains an entire image;
A distance sensor for measuring a three-dimensional shape of the entire plurality of box-shaped workpieces;
An object that detects an edge portion of a box-shaped workpiece from the entire image, recognizes the position and posture of each box-shaped workpiece from the three-dimensional shape with the edge portion as a boundary, and outputs the position and posture of the box-shaped workpiece to be picked A recognition processing device ,
The object recognition processing device sets different label values so as to represent different surfaces of the box-shaped workpiece in the point group of the three-dimensional shape, groups the label values for the same box-shaped workpiece, A box-shaped workpiece recognition apparatus that outputs the position and orientation of a box-shaped workpiece to be picked from point cloud information .
単眼カメラにより、隣接して荷積みした複数の箱状ワークを上方から撮影して全体画像を取得し、
距離センサにより、前記複数の箱状ワーク全体の3次元形状を、3次元座標を持つ各計測点が集合した点群として計測し、
物体認識処理装置により、前記全体画像から箱状ワークのエッジ部分を検出し、前記エッジ部分を境界として、前記エッジ部分に対応する、前記距離センサによる計測点の点群を抽出し、当該点群に基づいて、前記3次元形状から各箱状ワークの位置と姿勢を認識し、ピッキングする箱状ワークの位置と姿勢を出力する、ことを特徴とする箱状ワーク認識方法。
Using a monocular camera, take a picture of multiple box-shaped workpieces loaded adjacent to each other, and obtain an entire image.
The distance sensor measures the three-dimensional shape of the entire plurality of box-shaped workpieces as a group of points each measuring point having three-dimensional coordinates ,
An object recognition processing device detects an edge portion of a box-shaped workpiece from the entire image , extracts a point cloud of measurement points by the distance sensor corresponding to the edge portion with the edge portion as a boundary, and the point cloud The box-shaped workpiece recognition method is characterized in that the position and posture of each box-shaped workpiece are recognized from the three-dimensional shape and the position and posture of the box-shaped workpiece to be picked are output.
隣接して荷積みした複数の箱状ワークを上方から撮影して全体画像を取得し、前記複数の箱状ワーク全体の3次元形状を計測し、前記全体画像から箱状ワークのエッジ部分を検出し、前記エッジ部分を境界として前記3次元形状から各箱状ワークの位置と姿勢を認識し、ピッキングする箱状ワークの位置と姿勢を出力する箱状ワーク認識方法であって、
前記3次元形状の点群に箱状ワークの異なる面を表すように異なるラベル値を設定し、
前記ラベル値を同一の箱状ワークごとにグループ化し、
各グループ内の点群の情報から、ピッキングする箱状ワークの位置と姿勢を出力する、ことを特徴とする箱状ワーク認識方法。
A plurality of box-shaped workpieces loaded adjacent to each other are photographed from above to obtain an entire image, the three-dimensional shape of the whole of the plurality of box-shaped workpieces is measured, and the edge portion of the box-shaped workpiece is detected from the whole image. and, wherein the edge portion recognizes the position and orientation of each box-shaped workpiece from the three-dimensional shape as a boundary, a box-shaped position and orientation of the workpiece you output a box-shaped workpiece recognition method for picking,
Set different label values to represent different surfaces of the box-shaped workpiece in the three-dimensional shape point cloud,
Group the label values by the same box-shaped workpiece,
A box-shaped workpiece recognition method, characterized in that the position and orientation of a box-shaped workpiece to be picked are output from information on point groups in each group .
前記ラベル値は、
単眼カメラで得られた画像中のエッジ部分を境界に異なるラベル値を割り当て、
隣接する点群間の距離が閾値以上の箇所を境として異なるラベル値を割り当て、
隣接する点群の法線ベクトル間の角度が閾値以上の部分を境として異なるラベル値を割り当てる、ことを特徴とする請求項に記載の箱状ワーク認識方法。
The label value is
Assign different label values to the border of the edge part in the image obtained with a monocular camera,
Assign a different label value at the boundary where the distance between adjacent point groups is greater than or equal to the threshold,
5. The box-shaped workpiece recognition method according to claim 4 , wherein different label values are assigned with a boundary between normal vectors of adjacent point groups as a boundary.
各ラベル値の点群から平均の法線ベクトルを求めて、各ラベル値の代表法線ベクトルとし、
各ラベル値の代表法線ベクトルと、隣接するラベル値の代表法線ベクトル間の角度が所定の範囲にあるラベル値をグループ化する、ことを特徴とする請求項に記載の箱状ワーク認識方法。
Obtain the average normal vector from the point cloud of each label value, and use it as the representative normal vector for each label value.
The box-shaped workpiece recognition according to claim 4 , wherein the label normal value vector of each label value and the label value whose angle between the representative normal vectors of adjacent label values is within a predetermined range are grouped. Method.
箱状ワークの上面面積を予め記憶し、前記各ラベル値に属する点群の占める面積と比較して、各グループから上面に相当するラベルを認識する、ことを特徴とする請求項に記載の箱状ワーク認識方法。 Previously storing an upper surface area of the box-shaped workpiece, as compared to the area occupied by the the group of points belonging to each label value, recognizes the label corresponding to the upper surface of each of the groups, according to claim 6, characterized in that Box-shaped workpiece recognition method. 前記各ラベル値に属する点群の占める面積を算出し、これをヒストグラム化して最も投票数の多い面積から上面に相当するラベルを認識する、ことを特徴とする請求項に記載の箱状ワーク認識方法。 7. A box-shaped workpiece according to claim 6 , wherein an area occupied by the point group belonging to each label value is calculated, and a histogram corresponding to the area is recognized to recognize a label corresponding to the upper surface from the area having the largest number of votes. Recognition method.
JP2009099573A 2009-04-16 2009-04-16 Box-shaped workpiece recognition apparatus and method Active JP5429614B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009099573A JP5429614B2 (en) 2009-04-16 2009-04-16 Box-shaped workpiece recognition apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009099573A JP5429614B2 (en) 2009-04-16 2009-04-16 Box-shaped workpiece recognition apparatus and method

Publications (2)

Publication Number Publication Date
JP2010247959A JP2010247959A (en) 2010-11-04
JP5429614B2 true JP5429614B2 (en) 2014-02-26

Family

ID=43310796

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009099573A Active JP5429614B2 (en) 2009-04-16 2009-04-16 Box-shaped workpiece recognition apparatus and method

Country Status (1)

Country Link
JP (1) JP5429614B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101918168B1 (en) * 2017-10-16 2018-11-14 삼성에스디에스 주식회사 Method for performing 3D measurement and Apparatus thereof
JP2020537775A (en) * 2018-10-30 2020-12-24 株式会社Mujin Robot system with automatic package registration mechanism and automatic detection pipeline
US11034025B2 (en) 2018-10-30 2021-06-15 Mujin, Inc. Automated package registration systems, devices, and methods
WO2021249570A1 (en) * 2020-06-12 2021-12-16 深圳市海柔创新科技有限公司 Control method and apparatus for warehouse robot, and robot and warehouse system
US11607803B2 (en) 2018-11-21 2023-03-21 Thk Co., Ltd. Image information processing device, gripping system, and image information processing method
US11823414B2 (en) 2018-03-14 2023-11-21 Omron Corporation Information processing device, information processing method, and information processing non-transitory computer readable medium
US11964399B2 (en) 2018-09-07 2024-04-23 Omron Corporation Target object recognition device, manipulator, and mobile robot

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9067744B2 (en) * 2011-10-17 2015-06-30 Kabushiki Kaisha Yaskawa Denki Robot system, robot, and sorted article manufacturing method
JP2015147256A (en) 2014-02-04 2015-08-20 セイコーエプソン株式会社 Robot, robot system, control device, and control method
CN104897053A (en) * 2014-03-05 2015-09-09 泰科电子(上海)有限公司 Programmable digital machine vision detection platform
US10029857B2 (en) * 2014-08-04 2018-07-24 Panasonic Intellectual Property Management Co., Ltd. Package loading instruction method and loading instruction system
JP6486114B2 (en) 2015-01-16 2019-03-20 株式会社東芝 Handling equipment
WO2016181480A1 (en) * 2015-05-12 2016-11-17 株式会社日立製作所 Storage rack and picking system
JP6466297B2 (en) * 2015-09-14 2019-02-06 株式会社東芝 Object detection apparatus, method, depalletizing automation apparatus, and packing box
JP6472363B2 (en) * 2015-10-16 2019-02-20 キヤノン株式会社 Measuring device, measuring method, and article manufacturing method
CN105690369B (en) * 2015-12-31 2018-11-30 中国科学院自动化研究所 The full-automatic uploading in rice steamer robot system of white wine
JP2019063984A (en) * 2017-10-02 2019-04-25 キヤノン株式会社 Information processor, method, and robot system
JP6687591B2 (en) 2017-12-26 2020-04-22 ファナック株式会社 Article transport device, robot system, and article transport method
JP7065632B2 (en) * 2018-02-13 2022-05-12 Kyoto Robotics株式会社 Box-shaped object picking device and its method
JP7117126B2 (en) * 2018-04-02 2022-08-12 Kyoto Robotics株式会社 Picking device and method
JP6632656B2 (en) * 2018-05-14 2020-01-22 キヤノン株式会社 Interference determination device, interference determination method, and computer program
JP7237496B2 (en) * 2018-09-10 2023-03-13 株式会社東芝 Picking system, information processing device and information processing program
US11396101B2 (en) 2018-11-08 2022-07-26 Kabushiki Kaisha Toshiba Operating system, control device, and computer program product
JP7034971B2 (en) * 2018-11-08 2022-03-14 株式会社東芝 Actuation systems, controls, and programs
CN110104359A (en) * 2019-04-19 2019-08-09 深圳蓝胖子机器人有限公司 A kind of warehouse goods sorting method, system and equipment
CN109956251A (en) * 2019-04-19 2019-07-02 深圳蓝胖子机器人有限公司 A kind of cargo identification grasping means, equipment and storage medium
CN110395515B (en) * 2019-07-29 2021-06-11 深圳蓝胖子机器智能有限公司 Cargo identification and grabbing method and equipment and storage medium
JP7280655B2 (en) * 2019-08-30 2023-05-24 株式会社日立オートメーション Transfer target workpiece height measurement system
US10614340B1 (en) 2019-09-23 2020-04-07 Mujin, Inc. Method and computing system for object identification
JP6924448B2 (en) * 2019-12-02 2021-08-25 Arithmer株式会社 Picking system, picking method, and program
JP7146829B2 (en) * 2020-02-04 2022-10-04 株式会社メイキコウ Image processing device and transport device equipped with image processing device
CN113619986A (en) * 2020-05-08 2021-11-09 星猿哲科技(上海)有限公司 Robot sowing and/or sorting system with lifting mechanism
WO2022050169A1 (en) * 2020-09-02 2022-03-10 ファナック株式会社 Robot system, and control method
JP2022184425A (en) * 2021-06-01 2022-12-13 村田機械株式会社 Edge position detection method, transfer position determination method, and article transfer system
JP2022184429A (en) * 2021-06-01 2022-12-13 村田機械株式会社 Article type determination method and article type determination system
JP7252580B1 (en) 2021-12-28 2023-04-05 三菱倉庫株式会社 box counter
WO2024176359A1 (en) * 2023-02-21 2024-08-29 ファナック株式会社 Position correction device, robot system, and position correction program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04244391A (en) * 1991-01-30 1992-09-01 Toyota Motor Corp Step disordering device using robot
JP2940317B2 (en) * 1992-06-24 1999-08-25 三菱電機株式会社 Image processing device
JPH10156775A (en) * 1996-12-03 1998-06-16 Hamamatsu Syst Kaihatsu Kyodo Kumiai Picking system and welding robot control system
JP2001005978A (en) * 1999-06-18 2001-01-12 Sony Corp Device and method for extracting object, and program providing medium
JP5013961B2 (en) * 2007-05-21 2012-08-29 キヤノン株式会社 Position / orientation measuring apparatus and control method thereof
WO2009025271A2 (en) * 2007-08-22 2009-02-26 Kabushiki Kaisha Yaskawa Denki Device and method for controlling robot
JP5458885B2 (en) * 2007-08-30 2014-04-02 株式会社安川電機 Object detection method, object detection apparatus, and robot system

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101918168B1 (en) * 2017-10-16 2018-11-14 삼성에스디에스 주식회사 Method for performing 3D measurement and Apparatus thereof
US11823414B2 (en) 2018-03-14 2023-11-21 Omron Corporation Information processing device, information processing method, and information processing non-transitory computer readable medium
US11964399B2 (en) 2018-09-07 2024-04-23 Omron Corporation Target object recognition device, manipulator, and mobile robot
US11501445B2 (en) 2018-10-30 2022-11-15 Mujin, Inc. Robotic system with automated package scan and registration mechanism and methods of operating the same
US11636605B2 (en) 2018-10-30 2023-04-25 Mujin, Inc. Robotic system with automated package registration mechanism and minimum viable region detection
US11189033B2 (en) 2018-10-30 2021-11-30 Mujin, Inc. Robotic system with automated package registration mechanism and auto-detection pipeline
US12002007B2 (en) 2018-10-30 2024-06-04 Mujin, Inc. Robotic system with automated package scan and registration mechanism and methods of operating the same
US11288810B2 (en) 2018-10-30 2022-03-29 Mujin, Inc. Robotic system with automated package registration mechanism and methods of operating the same
US11062457B2 (en) 2018-10-30 2021-07-13 Mujin, Inc. Robotic system with automated package registration mechanism and minimum viable region detection
JP2020537775A (en) * 2018-10-30 2020-12-24 株式会社Mujin Robot system with automatic package registration mechanism and automatic detection pipeline
US11176674B2 (en) 2018-10-30 2021-11-16 Mujin, Inc. Robotic system with automated object detection mechanism and methods of operating the same
US11961042B2 (en) 2018-10-30 2024-04-16 Mujin, Inc. Robotic system with automated package registration mechanism and auto-detection pipeline
US11780101B2 (en) 2018-10-30 2023-10-10 Mujin, Inc. Automated package registration systems, devices, and methods
US11797926B2 (en) 2018-10-30 2023-10-24 Mujin, Inc. Robotic system with automated object detection mechanism and methods of operating the same
US11034025B2 (en) 2018-10-30 2021-06-15 Mujin, Inc. Automated package registration systems, devices, and methods
DE112019005825B4 (en) 2018-11-21 2023-07-27 Thk Co., Ltd. Image information processing device, gripping system and image information processing method
US11607803B2 (en) 2018-11-21 2023-03-21 Thk Co., Ltd. Image information processing device, gripping system, and image information processing method
WO2021249570A1 (en) * 2020-06-12 2021-12-16 深圳市海柔创新科技有限公司 Control method and apparatus for warehouse robot, and robot and warehouse system

Also Published As

Publication number Publication date
JP2010247959A (en) 2010-11-04

Similar Documents

Publication Publication Date Title
JP5429614B2 (en) Box-shaped workpiece recognition apparatus and method
KR102650494B1 (en) Automated package registration systems, devices, and methods
US11780101B2 (en) Automated package registration systems, devices, and methods
JP2019509559A (en) Box location, separation, and picking using a sensor-guided robot
WO2023092519A1 (en) Grabbing control method and apparatus, and electronic device and storage medium
JP7398662B2 (en) Robot multi-sided gripper assembly and its operating method
JP5544464B2 (en) 3D position / posture recognition apparatus and method for an object
JP5360369B2 (en) Picking apparatus and method
EP4245480A1 (en) Measuring system, measuring device, measuring method, and measuring program
CN116175542B (en) Method, device, electronic equipment and storage medium for determining clamp grabbing sequence
JP5332873B2 (en) Bag-like workpiece recognition device and method
CN116188559A (en) Image data processing method, device, electronic equipment and storage medium
JP7398763B2 (en) Robot system equipped with overlap processing mechanism and its operating method
CN116197888B (en) Method and device for determining position of article, electronic equipment and storage medium
CN116175541B (en) Grabbing control method, grabbing control device, electronic equipment and storage medium
CN116175540B (en) Grabbing control method, device, equipment and medium based on position and orientation
WO2022264381A1 (en) Workpiece retrieval count calculation device, hand system, and display device
CN116197887A (en) Image data processing method, device, electronic equipment and storage medium
CN116214494A (en) Grabbing control method, grabbing control device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130731

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131121

R151 Written notification of patent or utility model registration

Ref document number: 5429614

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250