JP2019181573A - Picking device and method for the same - Google Patents

Picking device and method for the same Download PDF

Info

Publication number
JP2019181573A
JP2019181573A JP2018070538A JP2018070538A JP2019181573A JP 2019181573 A JP2019181573 A JP 2019181573A JP 2018070538 A JP2018070538 A JP 2018070538A JP 2018070538 A JP2018070538 A JP 2018070538A JP 2019181573 A JP2019181573 A JP 2019181573A
Authority
JP
Japan
Prior art keywords
picking
point cloud
dimensional
cloud information
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018070538A
Other languages
Japanese (ja)
Other versions
JP7117126B2 (en
Inventor
晋輔 樫原
Shinsuke Kashihara
晋輔 樫原
徐 剛
Xu Gang
剛 徐
エドモンド ワイ イェン ソ
Edmond Wai Yan So
エドモンド ワイ イェン ソ
朋弘 仲道
Tomohiro Nakamichi
朋弘 仲道
三宅 淳司
Junji Miyake
淳司 三宅
勉 石田
Tsutomu Ishida
勉 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyoto Robotics Corp
Original Assignee
Kyoto Robotics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyoto Robotics Corp filed Critical Kyoto Robotics Corp
Priority to JP2018070538A priority Critical patent/JP7117126B2/en
Publication of JP2019181573A publication Critical patent/JP2019181573A/en
Application granted granted Critical
Publication of JP7117126B2 publication Critical patent/JP7117126B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a picking device which can automatically recognize and pick a picking object as a holding object at a distribution site.SOLUTION: A picking device includes: a camera which generates three-dimensional point group information of a plurality of picking objects as a whole loaded in a cardboard box; area determination means (a step S7, a step S12) which determines an area of an individual picking object by finding out a common three-dimensional shape from the plurality of picking objects as a whole based on the generated three-dimensional point group information; positional posture output means (a step S12) which outputs a three-dimensional positional posture of the picking object as a holding object based on the three-dimensional point group information generated by the camera belonging to the area of the picking object determined by the area determination means (the step S7, the step S12); and a robot which holds and transfers the picking object as the holding object based on the three-dimensional positional posture output by the positional posture output means (the step S12).SELECTED DRAWING: Figure 2

Description

本発明は、ピッキング装置及びその方法に関する。   The present invention relates to a picking apparatus and a method thereof.

近年、物流業界において、倉庫内の仕分け、積込み、荷卸し等の作業の自動化が求められており、様々な自動化システムの導入が進められている。この自動化システムとして、画像処理技術を用いた様々な自動化技術が利用されている。このような技術として、たとえば、画像処理によりピッキング対象物の位置情報を認識し、認識した位置情報に基づいてロボットハンドを用いてピッキング対象物を把持し移動させる技術が知られている(例えば、特許文献1)。   In recent years, in the logistics industry, automation of operations such as sorting, loading, and unloading in warehouses has been demanded, and various automated systems have been introduced. As this automation system, various automation techniques using image processing techniques are used. As such a technique, for example, a technique is known in which position information of a picking object is recognized by image processing, and the picking object is gripped and moved using a robot hand based on the recognized position information (for example, Patent Document 1).

特開2004−188562号公報JP 2004-188562 A

しかしながら、上記のような技術を用いるにあたって、ピッキング対象物の3次元形状を予めデータベース化しなければならないところ、物流現場においては、ピッキング対象物の種類が、数千〜数十万件という膨大な数に上り、このような膨大な数の3次元形状を予め全てデータベース化しておくことは非常に困難であるという問題があった。それゆえ、物流現場においては、未だ自動化が実現できていないという問題があった。   However, when using the technique as described above, the three-dimensional shape of the picking object must be created in advance as a database. On the physical distribution site, the number of types of picking objects is thousands to hundreds of thousands. Therefore, there is a problem that it is very difficult to prepare such a huge number of three-dimensional shapes in advance as a database. Therefore, there has been a problem that automation has not yet been realized at the distribution site.

そこで、本発明は、上記問題に鑑み、物流現場において、把持対象となるピッキング対象物を自動的に認識し、ピッキングすることができるピッキング装置及びその方法を提供することを目的としている。   In view of the above problems, an object of the present invention is to provide a picking apparatus and method for automatically recognizing and picking a picking object to be grasped at a physical distribution site.

上記本発明の目的は、以下の手段によって達成される。なお、括弧内は、後述する実施形態の参照符号を付したものであるが、本発明はこれに限定されるものではない。   The object of the present invention is achieved by the following means. In addition, although the code | symbol in a parenthesis attaches the referential mark of embodiment mentioned later, this invention is not limited to this.

請求項1の発明に係るピッキング装置は、所定の容器(例えば、図1に示す段ボール箱CA)内に荷積みされた複数のピッキング対象物(例えば、図1に示すピッキング対象物Wa)全体(W)の三次元点群情報を生成する三次元点群情報生成手段(例えば、図1に示すカメラ4)と、
前記三次元点群情報生成手段(例えば、図1に示すカメラ4)にて生成された前記三次元点群情報に基づき、前記複数のピッキング対象物(例えば、図1に示すピッキング対象物Wa)全体(W)から共通の三次元形状を見つけ出し、個々のピッキング対象物(例えば、図1に示すピッキング対象物Wa)の領域を決定する領域決定手段(例えば、図2に示すステップS7,ステップS12)と、
前記領域決定手段(例えば、図2に示すステップS7,ステップS12)にて決定されたピッキング対象物(例えば、図1に示すピッキング対象物Wa)の領域に属する前記三次元点群情報生成手段(例えば、図1に示すカメラ4)にて生成された三次元点群情報に基づき、把持対象となるピッキング対象物(例えば、図1に示すピッキング対象物Wa)の三次元位置姿勢を出力する位置姿勢出力手段(例えば、図2に示すステップS12)と、
前記位置姿勢出力手段(例えば、図2に示すステップS12)にて出力された三次元位置姿勢に基づき、前記把持対象となるピッキング対象物(例えば、図1に示すピッキング対象物Wa)を把持し、移載するロボット(例えば、図1に示すロボット2)と、を備えてなることを特徴としている。
The picking device according to the first aspect of the present invention includes a plurality of picking objects (for example, the picking object Wa shown in FIG. 1) loaded in a predetermined container (for example, the cardboard box CA shown in FIG. 1) ( W) 3D point cloud information generating means (for example, the camera 4 shown in FIG. 1) for generating 3D point cloud information;
Based on the three-dimensional point group information generated by the three-dimensional point group information generating means (for example, the camera 4 shown in FIG. 1), the plurality of picking objects (for example, the picking object Wa shown in FIG. 1). A region determining means (for example, step S7, step S12 shown in FIG. 2) that finds a common three-dimensional shape from the whole (W) and determines the region of each picking target (for example, picking object Wa shown in FIG. 1). )When,
The three-dimensional point cloud information generating means (for example, belonging to the area of the picking object (for example, picking object Wa shown in FIG. 1) determined by the area determining means (for example, step S7, step S12 shown in FIG. 2)) For example, based on the three-dimensional point cloud information generated by the camera 4) shown in FIG. 1, the position for outputting the three-dimensional position and orientation of the picking target (for example, the picking target Wa shown in FIG. 1) to be grasped Posture output means (for example, step S12 shown in FIG. 2);
Based on the three-dimensional position and orientation output by the position and orientation output means (for example, step S12 shown in FIG. 2), the picking target (for example, the picking target Wa shown in FIG. 1) to be gripped is gripped. And a transfer robot (for example, the robot 2 shown in FIG. 1).

一方、請求項2の発明に係るピッキング方法は、所定の容器(例えば、図1に示す段ボール箱CA)内に荷積みされた複数のピッキング対象物(例えば、図1に示すピッキング対象物Wa)全体(W)の三次元点群情報を生成し(例えば、図3(c)参照)、
前記生成された三次元点群情報に基づき、前記複数のピッキング対象物(例えば、図1に示すピッキング対象物Wa)全体(W)から共通の三次元形状を見つけ出し、個々のピッキング対象物(例えば、図1に示すピッキング対象物Wa)の領域を決定し(例えば、図2に示すステップS7,ステップS12)、
前記決定したピッキング対象物(例えば、図1に示すピッキング対象物Wa)の領域に属する前記生成された三次元点群情報に基づき、把持対象となるピッキング対象物(例えば、図1に示すピッキング対象物Wa)の三次元位置姿勢を出力し(例えば、図2に示すステップS12)、
前記出力した三次元位置姿勢に基づき、ロボット(例えば、図1に示すロボット2)を用いて、前記把持対象となるピッキング対象物(例えば、図1に示すピッキング対象物Wa)を把持し、移載してなることを特徴としている。
On the other hand, the picking method according to the invention of claim 2 is the picking object (for example, picking object Wa shown in FIG. 1) loaded in a predetermined container (for example, cardboard box CA shown in FIG. 1). Generating the whole (W) three-dimensional point cloud information (see, for example, FIG. 3C);
Based on the generated three-dimensional point cloud information, a common three-dimensional shape is found from the whole (W) of the plurality of picking objects (for example, picking object Wa shown in FIG. 1), and individual picking objects (for example, , A region of the picking object Wa shown in FIG. 1 is determined (for example, step S7 and step S12 shown in FIG. 2),
Based on the generated three-dimensional point cloud information belonging to the area of the determined picking object (for example, picking object Wa shown in FIG. 1), the picking object (for example, the picking object shown in FIG. 1) to be grasped Output the three-dimensional position and orientation of the object Wa) (for example, step S12 shown in FIG. 2);
Based on the output three-dimensional position and orientation, a robot (for example, the robot 2 shown in FIG. 1) is used to grip and move the picking target object (for example, the picking target object Wa shown in FIG. 1). It is characterized by being placed.

また、請求項3の発明によれば、上記請求項2に記載のピッキング方法において、前記把持対象となるピッキング対象物(例えば、図1に示すピッキング対象物Wa)の正確なサイズを事前に入力不要であることを特徴としている。   According to a third aspect of the present invention, in the picking method according to the second aspect, an accurate size of the picking object to be grasped (for example, the picking object Wa shown in FIG. 1) is input in advance. It is not necessary.

さらに、請求項4の発明によれば、上記請求項2又は3に記載のピッキング方法において、前記生成された三次元点群情報に基づき、深さ方向(Z方向)の不連続三次元点群情報を見つけ出すことによって、前記複数のピッキング対象物(例えば、図1に示すピッキング対象物Wa)全体(W)から共通の三次元形状を見つけ出し、個々のピッキング対象物(例えば、図1に示すピッキング対象物Wa)の領域を決定してなることを特徴としている。   Furthermore, according to the invention of claim 4, in the picking method according to claim 2 or 3, based on the generated 3D point cloud information, a discontinuous 3D point cloud in the depth direction (Z direction). By finding information, a common three-dimensional shape is found from the whole (W) of the plurality of picking objects (for example, picking object Wa shown in FIG. 1), and individual picking objects (for example, picking shown in FIG. 1) are found. It is characterized by determining the area of the object Wa).

またさらに、請求項5の発明によれば、上記請求項2〜4の何れか1項に記載のピッキング方法において、前記生成された三次元点群情報に基づき、深さ方向(Z方向)の不連続三次元点群情報を見つけ出すことによって、セグメンテーションを行い(例えば、図2に示すステップS4)、該セグメンテーション間における三次元点群情報の類似度を所定のアルゴリズムを用いて調べ(例えば、図2に示すステップS5、ステップS8)、もって、前記複数のピッキング対象物(例えば、図1に示すピッキング対象物Wa)全体(W)から共通の三次元形状を見つけ出し、個々のピッキング対象物(例えば、図1に示すピッキング対象物Wa)の領域を決定してなることを特徴としている。   Still further, according to the invention of claim 5, in the picking method according to any one of claims 2 to 4, based on the generated three-dimensional point cloud information, in the depth direction (Z direction). Segmentation is performed by finding discontinuous 3D point cloud information (for example, step S4 shown in FIG. 2), and the similarity of the 3D point cloud information between the segmentations is examined using a predetermined algorithm (for example, FIG. Step S5 and Step S8) shown in FIG. 2 are used to find a common three-dimensional shape from the whole (W) of the plurality of picking objects (for example, picking object Wa shown in FIG. 1), and to select individual picking objects (for example, The region of the picking object Wa) shown in FIG. 1 is determined.

一方、請求項6の発明によれば、上記請求項2〜5の何れか1項に記載のピッキング方法において、前記決定したピッキング対象物(例えば、図1に示すピッキング対象物Wa)を内包する最小箱状体(例えば、図6に示す最小の直方体R)を設定し、該設定した最小箱状体(例えば、図6に示す最小の直方体R)の長手方向の長さ(例えば、図6(a)に示す横L)と幅方向の長さ(例えば、図6(a)に示す縦T)と高さ(例えば、図6(a)に示す高さH)を計測してなることを特徴としている。   On the other hand, according to a sixth aspect of the present invention, in the picking method according to any one of the second to fifth aspects, the determined picking object (for example, the picking object Wa shown in FIG. 1) is included. A minimum box-shaped body (for example, the minimum rectangular parallelepiped R shown in FIG. 6) is set, and the length (for example, FIG. 6) of the set minimum box-shaped body (for example, the minimum rectangular parallelepiped R shown in FIG. 6) is set. (L) shown in (a), length in the width direction (for example, vertical T shown in FIG. 6 (a)), and height (for example, height H shown in FIG. 6 (a)). It is characterized by.

また、請求項7の発明によれば、上記請求項6に記載のピッキング方法において、前記計測した最小箱状体(例えば、図6に示す最小の直方体R)の長手方向の長さ(例えば、図6(a)に示す横L)と幅方向の長さ(例えば、図6(a)に示す縦T)と高さ(例えば、図6(a)に示す高さH)を出力してなることを特徴としている。   According to a seventh aspect of the invention, in the picking method according to the sixth aspect, a length (for example, the longitudinal direction) of the measured minimum box-shaped body (for example, the smallest rectangular parallelepiped R shown in FIG. 6) is measured. The horizontal L) shown in FIG. 6A, the length in the width direction (for example, the vertical T shown in FIG. 6A), and the height (for example, the height H shown in FIG. 6A) are output. It is characterized by becoming.

一方、請求項8の発明によれば、上記請求項2〜7の何れか1項に記載のピッキング方法において、前記出力した三次元位置姿勢に基づき、ロボット(例えば、図1に示すロボット2)を用いて、前記把持対象となるピッキング対象物(例えば、図1に示すピッキング対象物Wa)を把持した際、該把持対象となるピッキング対象物(例えば、図1に示すピッキング対象物Wa)の重量を計測してなることを特徴としている。   On the other hand, according to the invention of claim 8, in the picking method according to any one of claims 2 to 7, a robot (for example, the robot 2 shown in FIG. 1) based on the output three-dimensional position and orientation. When the picking object to be grasped (for example, the picking object Wa shown in FIG. 1) is gripped, the picking object to be grasped (for example, the picking object Wa shown in FIG. 1) is used. It is characterized by measuring weight.

また、請求項9の発明によれば、上記請求項8に記載のピッキング方法において、前記計測した把持対象となるピッキング対象物(例えば、図1に示すピッキング対象物Wa)の重量に基づき、前記ロボット(例えば、図1に示すロボット2)を用いて、前記把持対象となるピッキング対象物(例えば、図1に示すピッキング対象物Wa)を移載する際の加速度を制御してなることを特徴としている。   According to a ninth aspect of the present invention, in the picking method according to the eighth aspect, based on the weight of the measured picking target (for example, the picking target Wa shown in FIG. 1), Using a robot (for example, the robot 2 shown in FIG. 1), the acceleration at the time of transferring the picking target (for example, the picking target Wa shown in FIG. 1) to be grasped is controlled. It is said.

一方、請求項10の発明によれば、上記請求項6に記載のピッキング方法において、前記計測した長さ(例えば、図6(a)に示す横L、縦T、高さHのサイズ)に基づき、前記ロボット(例えば、図1に示すロボット2)を用いて、前記把持対象となるピッキング対象物(例えば、図1に示すピッキング対象物Wa)を移載する際の経路を設定して制御してなることを特徴としている。   On the other hand, according to the invention of claim 10, in the picking method according to claim 6, the measured length (for example, the size of horizontal L, vertical T, and height H shown in FIG. 6A). Based on the above, the robot (for example, the robot 2 shown in FIG. 1) is used to set and control a path for transferring the picking target object (for example, the picking target object Wa shown in FIG. 1) to be gripped. It is characterized by.

また、請求項11の発明によれば、上記請求項6に記載のピッキング方法において、前記計測した前記最小箱状体(例えば、図6に示す最小の直方体R)の長手方向の長さ(例えば、図6(a)に示す横L)と幅方向の長さ(例えば、図6(a)に示す縦T)を少なくとも用いて、把持用ツール(例えば、図1に示すロボットハンド22)を選択してなることを特徴としている。   According to the invention of claim 11, in the picking method according to claim 6, the measured length (for example, the minimum rectangular parallelepiped R shown in FIG. 6) in the longitudinal direction (for example, the minimum box-like body R). The gripping tool (for example, the robot hand 22 shown in FIG. 1) is used at least using the width L in FIG. 6 (a) and the length in the width direction (for example, the vertical T shown in FIG. 6 (a)). It is characterized by being selected.

次に、本発明の効果について、図面の参照符号を付して説明する。なお、括弧内は、後述する実施形態の参照符号を付したものであるが、本発明はこれに限定されるものではない。   Next, effects of the present invention will be described with reference numerals in the drawings. In addition, although the code | symbol in a parenthesis attaches the referential mark of embodiment mentioned later, this invention is not limited to this.

請求項1又は請求項2に係る発明によれば、物流現場において、把持対象となるピッキング対象物を自動的に認識し、ピッキングすることができる。これにより、数千〜数十万件というピッキング対象物の3次元形状を予め全てデータベース化しておく必要がなくなり、もって、自動化を実現できることとなる。また、請求項3に係る発明によれば、把持対象となるピッキング対象物のサイズの正確な入力をしなくとも良い。   According to the invention which concerns on Claim 1 or Claim 2, the picking target object used as the grasping object can be automatically recognized and picked in the physical distribution site. As a result, it is not necessary to prepare all the three-dimensional shapes of picking objects of thousands to hundreds of thousands in advance as a database, and automation can be realized. According to the invention of claim 3, it is not necessary to accurately input the size of the picking object to be grasped.

さらに、複数のピッキング対象物(例えば、図1に示すピッキング対象物Wa)全体(W)から共通の三次元形状を見つけ出す方法として、請求項4に係る発明のように、深さ方向(Z方向)の不連続三次元点群情報を見つけ出す方法が好ましく、より好ましくは、請求項5に係る発明のように、深さ方向(Z方向)の不連続三次元点群情報を見つけ出すことによって、セグメンテーションを行い(例えば、図2に示すステップS4)、該セグメンテーション間における三次元点群情報の類似度を所定のアルゴリズムを用いて調べる(例えば、図2に示すステップS5、ステップS8)方法が好ましい。   Furthermore, as a method of finding a common three-dimensional shape from the whole (W) of a plurality of picking objects (for example, the picking object Wa shown in FIG. 1), as in the invention according to claim 4, the depth direction (Z direction) The method of finding discontinuous three-dimensional point cloud information of (3) is preferable, and more preferably, as in the invention according to claim 5, segmentation is performed by finding discontinuous three-dimensional point cloud information in the depth direction (Z direction). (For example, step S4 shown in FIG. 2), and the similarity of the three-dimensional point cloud information between the segmentations is examined using a predetermined algorithm (for example, step S5 and step S8 shown in FIG. 2).

一方、請求項6に係る発明によれば、上記決定したピッキング対象物(例えば、図1に示すピッキング対象物Wa)を内包する最小箱状体(例えば、図6に示す最小の直方体R)を設定し、該設定した最小箱状体(例えば、図6に示す最小の直方体R)の長手方向の長さ(例えば、図6(a)に示す横L)と幅方向の長さ(例えば、図6(a)に示す縦T)と高さ(例えば、図6(a)に示す高さH)を計測しているから、最小箱状体(例えば、図6に示す最小の直方体R)を自動で設定し、自動で計測することができる。   On the other hand, according to the sixth aspect of the invention, the minimum box-like body (for example, the smallest rectangular parallelepiped R shown in FIG. 6) containing the determined picking object (for example, the picking object Wa shown in FIG. 1) is provided. The length of the set minimum box-like body (for example, the smallest rectangular parallelepiped R shown in FIG. 6) in the longitudinal direction (for example, the lateral L shown in FIG. 6A) and the length in the width direction (for example, Since the vertical T) and the height (for example, the height H illustrated in FIG. 6A) are measured, the minimum box-shaped body (for example, the minimum rectangular parallelepiped R illustrated in FIG. 6) is measured. Can be set automatically and measured automatically.

また、請求項7に係る発明によれば、上記計測した最小箱状体(例えば、図6に示す最小の直方体R)の長手方向の長さ(例えば、図6(a)に示す横L)と幅方向の長さ(例えば、図6(a)に示す縦T)と高さ(例えば、図6(a)に示す高さH)を出力しているから、的確にピッキング対象物(例えば、図1に示すピッキング対象物Wa)を移載させることができる。   Moreover, according to the invention which concerns on Claim 7, the length (for example, horizontal L shown to Fig.6 (a)) of the measured minimum box-like body (for example, the minimum rectangular parallelepiped R shown in FIG. 6) in the longitudinal direction) And the length in the width direction (for example, the vertical T shown in FIG. 6A) and the height (for example, the height H shown in FIG. 6A) are output accurately. The picking object Wa) shown in FIG. 1 can be transferred.

一方、請求項8に係る発明によれば、出力した三次元位置姿勢に基づき、ロボット(例えば、図1に示すロボット2)を用いて、把持対象となるピッキング対象物(例えば、図1に示すピッキング対象物Wa)を把持した際、該把持対象となるピッキング対象物(例えば、図1に示すピッキング対象物Wa)の重量を計測しているから、自動でピッキング対象物(例えば、図1に示すピッキング対象物Wa)の重量を計測することができる。   On the other hand, according to the invention according to claim 8, based on the output three-dimensional position and orientation, using a robot (for example, the robot 2 illustrated in FIG. 1), a picking target (for example, illustrated in FIG. 1) to be grasped. When the picking object Wa) is gripped, the weight of the picking object (for example, the picking object Wa shown in FIG. 1) as the gripping object is measured, so that the picking object (for example, FIG. The weight of the picking object Wa) shown can be measured.

また、請求項9に係る発明によれば、計測した把持対象となるピッキング対象物(例えば、図1に示すピッキング対象物Wa)の重量に基づき、ロボット(例えば、図1に示すロボット2)を用いて、把持対象となるピッキング対象物(例えば、図1に示すピッキング対象物Wa)を移載する際の加速度を制御しているから、把持対象となるピッキング対象物(例えば、図1に示すピッキング対象物Wa)を、所定箇所(例えば、コンベア)に移載させる途中で、落下させてしまう事態を低減させることができる。   According to the ninth aspect of the present invention, the robot (for example, the robot 2 shown in FIG. 1) is moved based on the weight of the measured picking target (for example, the picking object Wa shown in FIG. 1). Since the acceleration at the time of transferring the picking target object (for example, the picking target object Wa shown in FIG. 1) is controlled using the picking target object (for example, shown in FIG. 1). It is possible to reduce a situation in which the picking object Wa) is dropped while being transferred to a predetermined location (for example, a conveyor).

一方、請求項10に係る発明によれば、計測した長さ(例えば、例えば、図6(a)に示す横L、縦T、高さHのサイズ)に基づき、ロボット(例えば、図1に示すロボット2)を用いて、把持対象となるピッキング対象物(例えば、図1に示すピッキング対象物Wa)を移載する際の経路を設定して制御しているから、安全にピッキング対象物(例えば、図1に示すピッキング対象物Wa)を所定箇所(例えば、コンベア)に移載させることができる。   On the other hand, according to the invention of claim 10, based on the measured length (for example, the size of horizontal L, vertical T, and height H shown in FIG. 6A), the robot (for example, FIG. The robot 2) shown in FIG. 1 is used to set and control a path for transferring a picking object to be grasped (for example, the picking object Wa shown in FIG. 1). For example, the picking object Wa) shown in FIG. 1 can be transferred to a predetermined location (for example, a conveyor).

また、請求項11に係る発明によれば、計測した最小箱状体(例えば、図6に示す最小の直方体R)の長手方向の長さ(例えば、図6(a)に示す横L)と幅方向の長さ(例えば、図6(a)に示す縦T)を少なくとも用いて、把持用ツール(例えば、図1に示すロボットハンド22)を選択しているから、最適な把持用ツールを自動で選択することができる。   According to the invention of claim 11, the measured length of the smallest box (for example, the smallest rectangular parallelepiped R shown in FIG. 6) in the longitudinal direction (for example, the lateral L shown in FIG. 6A) and Since the gripping tool (for example, the robot hand 22 illustrated in FIG. 1) is selected using at least the length in the width direction (for example, the vertical T illustrated in FIG. 6A), an optimal gripping tool is selected. Can be selected automatically.

本発明の一実施形態に係るピッキング装置の概略全体図である。1 is a schematic overall view of a picking apparatus according to an embodiment of the present invention. 同実施形態に係るピッキング装置の制御手順を示すフローチャート図である。It is a flowchart figure which shows the control procedure of the picking apparatus which concerns on the same embodiment. (a)は、同実施形態に係るピッキング対象物を上方から見た斜視図、(b)は、(a)に示すピッキング対象物にX方向,Y方向,Z方向の三次元座標を備えた三次元点群情報が表わされた状態を示す斜視図、(c)は、隣接して荷積された複数のピッキング対象物全体に、X方向,Y方向,Z方向の三次元座標を備えた三次元点群情報が表わされた状態を示す斜視図である。(A) is the perspective view which looked at the picking target object concerning the embodiment from the upper part, (b) was provided with the three-dimensional coordinates of the X direction, the Y direction, and the Z direction in the picking target object shown in (a). The perspective view which shows the state as which the three-dimensional point cloud information was represented, (c) is equipped with the three-dimensional coordinate of a X direction, a Y direction, and a Z direction in the whole several picking target object loaded adjacently. It is a perspective view which shows the state by which the three-dimensional point cloud information represented. (a)は、図3(c)に示す三次元点群情報から領域A,Bを切り出した状態を示す説明図、(b)は、図3(c)に示す三次元点群情報から領域Cを切り出した状態を示す説明図、(c)は、図3(c)に示す三次元点群情報から領域Dを切り出した状態を示す説明図である。(A) is explanatory drawing which shows the state which cut out area | regions A and B from the three-dimensional point cloud information shown in FIG.3 (c), (b) is an area | region from the three-dimensional point cloud information shown in FIG.3 (c). Explanatory drawing which shows the state which cut out C, (c) is explanatory drawing which shows the state which cut out the area | region D from the three-dimensional point cloud information shown in FIG.3 (c). 図3(c)に示す三次元点群情報に基づき、把持可能領域群が決定された状態を示す説明図である。FIG. 4 is an explanatory diagram showing a state where a grippable region group is determined based on the three-dimensional point group information shown in FIG. (a)は、決定した単品点群を内包する最小の直方体を設定したことを説明する説明図、(b)は、(a)に示す最小の直方体を、把持可能領域群毎に合わせた状態を示す説明図である。(A) is explanatory drawing explaining having set the minimum rectangular parallelepiped which includes the determined single item point group, (b) is the state which match | combined the minimum rectangular parallelepiped shown to (a) for every grippable area group It is explanatory drawing which shows.

以下、本発明に係るピッキング装置の一実施形態を、図面を参照して具体的に説明する。なお、以下の説明において、上下左右の方向を示す場合は、図示正面から見た場合の上下左右をいうものとする。   Hereinafter, an embodiment of a picking apparatus according to the present invention will be specifically described with reference to the drawings. In addition, in the following description, when showing the direction of up, down, left and right, it means up, down, left and right when viewed from the front of the figure.

図1に示すように、ピッキング装置1は、ロボット2と、このロボット2を制御するロボット制御装置3と、カメラ4と、画像処理装置5と、で構成されている。なお、符号Wは、段ボール箱CA内に荷積みされた複数のピッキング対象物Wa全体を示すものである。   As shown in FIG. 1, the picking device 1 includes a robot 2, a robot control device 3 that controls the robot 2, a camera 4, and an image processing device 5. Note that the symbol W indicates the entire plurality of picking objects Wa loaded in the cardboard box CA.

ロボット2は、床や壁等の設置面に固定される土台20と、土台20に対して基端が回転可能に連結されているロボットアーム部21と、ロボットアーム部21の先端に取り付けられ、ピッキング対象物Waを吸着・挟み込み等によって把持することができるロボットハンド22とを備えている。なお、このロボットハンド22には、ピッキング対象物Waを把持した際の当該ピッキング対象物Waの重量を計測する歪ゲージ等の重量センサが設けられており、重量センサの計測情報は、ロボット制御装置3に出力される。また、重量センサに代えて、基端が回転可能に連結されているロボットアーム部21のモータ駆動に必要な電流を検出し、その検出情報から、ピッキング対象物Waの重量を推定することもできる。すなわち、基端が回転可能に連結されているロボットアーム部21を同姿勢にして静止させた際の無負荷のモータのトルクと、ピッキング対象物Waを把持した際のモータのトルクとの差を用いて、ピッキング対象物Waの重量を推定するようにすれば良い。なお、推定された重量情報は、重量センサの計測情報同様、ロボット制御装置3に出力される。   The robot 2 is attached to the base 20 fixed to an installation surface such as a floor or a wall, a robot arm unit 21 whose base end is rotatably connected to the base 20, and a tip of the robot arm unit 21. And a robot hand 22 that can grip the object Wa by suction or pinching. The robot hand 22 is provided with a weight sensor such as a strain gauge for measuring the weight of the picking object Wa when the picking object Wa is gripped. 3 is output. Moreover, it replaces with a weight sensor, the electric current required for the motor drive of the robot arm part 21 with which the base end was rotatably connected can also be detected, and the weight of the picking target object Wa can also be estimated from the detection information. . In other words, the difference between the torque of the unloaded motor when the robot arm unit 21 whose base end is rotatably connected in the same posture is stopped and the torque of the motor when the picking object Wa is gripped is calculated. It is only necessary to estimate the weight of the picking object Wa. The estimated weight information is output to the robot control device 3 as is the case with the weight sensor measurement information.

一方、ロボット制御装置3は、画像処理装置5より出力されるデータ、又は、ロボット2より出力されるデータに基づき、ロボット2の稼動を制御するものである。   On the other hand, the robot control device 3 controls the operation of the robot 2 based on data output from the image processing device 5 or data output from the robot 2.

カメラ4は、段ボール箱CA内に荷積みされた複数のピッキング対象物Wa全体Wの三次元座標を示す三次元点群情報を取得できるものである。   The camera 4 can acquire three-dimensional point group information indicating the three-dimensional coordinates of the plurality of picking objects Wa whole W loaded in the cardboard box CA.

画像処理装置5は、CPU50と、マウスやキーボード、タッチパネル等にて外部から所定データを画像処理装置5に入力することができる入力部51と、画像処理装置5外に所定データを出力することができる出力部52と、所定のプログラム等を格納した書込み可能なフラッシュROM等からなるROM53と、作業領域やバッファメモリ等として機能するRAM54と、LCD(Liquid Crystal Display)等からなる表示部55と、で構成されている。   The image processing apparatus 5 can output predetermined data to the outside of the image processing apparatus 5 and an input unit 51 that can input predetermined data to the image processing apparatus 5 from the outside with a CPU 50, a mouse, a keyboard, a touch panel, or the like. An output unit 52, a ROM 53 composed of a writable flash ROM or the like storing a predetermined program, a RAM 54 functioning as a work area or a buffer memory, a display unit 55 composed of an LCD (Liquid Crystal Display), etc. It consists of

かくして、上記のようなピッキング装置を使用するにあたっては、作業者が、図1に示す画像処理装置5の入力部51を用いて、図1に示すROM53内に格納されているプログラムの起動を指示する。これにより、画像処理装置5のCPU50(図1参照)は、図2に示すような処理を行う。以下、図2を参照して説明する。なお、図2に示すプログラムの処理内容はあくまで一例であり、これに限定されるものではない。   Thus, when using the picking apparatus as described above, the operator uses the input unit 51 of the image processing apparatus 5 shown in FIG. 1 to instruct to start the program stored in the ROM 53 shown in FIG. To do. As a result, the CPU 50 (see FIG. 1) of the image processing apparatus 5 performs processing as shown in FIG. Hereinafter, a description will be given with reference to FIG. Note that the processing content of the program shown in FIG. 2 is merely an example, and the present invention is not limited to this.

まず、CPU50(図1参照)は、カメラ4にて取得された段ボール箱CA内に荷積みされた複数のピッキング対象物Wa全体Wの三次元座標を示す三次元点群情報を取得する(ステップS1)。より詳しく説明すると、ピッキング対象物Waが、図3(a)に示すような、プッシュ(押下)式のポンプディスペンサからなる容器であった場合、図1に示すように、カメラ4にて、段ボール箱CA内に荷積みされた複数のピッキング対象物Wa全体Wを上方から撮像すると、カメラ4にて取得されたピッキング対象物Waの三次元座標を示す三次元点群情報は、図3(b)に示すように、X方向,Y方向,Z方向の三次元座標で表される複数の三次元点群TGとして、ピッキング対象物Waのポンプディスペンサの上部側、ポンプディスペンサの下部側に離間、すなわち、不連続なものとして表わされることとなる。しかるに、段ボール箱CA内に荷積みされた複数のピッキング対象物Wa全体Wを示す三次元点群情報は、図3(c)に示すように、X方向,Y方向,Z方向の三次元座標で表される複数の三次元点群TGとして表わされることとなる。なお、複数の三次元点群TGは、それぞれ、X方向,Y方向,Z方向の三次元座標(X,Y,Z)(n≧1の整数)を備えている。なおまた、CPU50(図1参照)は、段ボール箱CA内に荷積みされた複数のピッキング対象物Wa全体Wを示す三次元点群情報を一時的にRAM54内に記憶する。 First, the CPU 50 (see FIG. 1) acquires three-dimensional point group information indicating the three-dimensional coordinates of the entire plurality of picking objects Wa loaded in the cardboard box CA acquired by the camera 4 (step). S1). More specifically, when the picking object Wa is a container made of a push (push-down) type pump dispenser as shown in FIG. 3 (a), the camera 4 uses a cardboard as shown in FIG. When the entire picking object Wa loaded in the box CA is imaged from above, the 3D point cloud information indicating the three-dimensional coordinates of the picking object Wa acquired by the camera 4 is shown in FIG. ), As a plurality of three-dimensional point groups TG represented by three-dimensional coordinates in the X direction, Y direction, and Z direction, spaced apart from the upper side of the pump dispenser of the picking object Wa, the lower side of the pump dispenser, That is, it is expressed as a discontinuous thing. However, the three-dimensional point cloud information indicating the entire plurality of picking objects Wa loaded in the cardboard box CA has three-dimensional coordinates in the X, Y, and Z directions as shown in FIG. It is expressed as a plurality of three-dimensional point groups TG expressed by Each of the plurality of three-dimensional point groups TG includes three-dimensional coordinates (X n , Y n , Z n ) (where n ≧ 1) in the X direction, the Y direction, and the Z direction. In addition, the CPU 50 (see FIG. 1) temporarily stores in the RAM 54 three-dimensional point cloud information indicating the entire plurality of picking objects Wa loaded in the cardboard box CA.

次いで、CPU50(図1参照)は、RAM54内に記憶された段ボール箱CA内に荷積みされた複数のピッキング対象物Wa全体Wの三次元座標を示す三次元点群情報を読み出し、深さ方向の変化が一定量を超える箇所、又は、法線方向の変化が一定値を超える箇所であるデプスエッジを基準にして、図4に示すように、この三次元点群情報から領域A,B,C,Dを切り出す(ステップS2)。より詳しく説明すると、CPU50(図1参照)は、RAM54内に記憶された段ボール箱CA内に荷積みされた複数のピッキング対象物Wa全体Wの三次元座標を示す三次元点群情報から、カメラ4からの距離が近いと判断される点群であって、隣り合う各点の位置(X,Y,Z)(n≧1の整数)が、予め定められた一定の距離以内であり、一塊と見なせる領域を、図4(a)に示すように、領域Aとして切り出す。次に、CPU50(図1参照)は、領域AとはZ方向の距離が離れていると判断できる領域で、隣り合う各点の位置(X,Y,Z)(n≧1の整数)が、予め定められた一定の距離以内であり、一塊と見なせる領域を、図4(a)に示すように、領域Bとして切り出す。次に、CPU50(図1参照)は、領域AとはY方向の距離が離れていると判断できる領域で、隣り合う各点の位置(X,Y,Z)(n≧1の整数)が、予め定められた一定の距離以内であり、一塊と見なせる領域を、図4(b)に示すように、領域Cとして切り出す。次に、CPU50(図1参照)は、領域AとはX方向の距離が離れていると判断できる領域で、隣り合う各点の位置(X,Y,Z)(n≧1の整数)が、予め定められた一定の距離以内であり、一塊と見なせる領域を、図4(c)に示すように、領域Dとして切り出す。しかして、このようにして、CPU50(図1参照)は、RAM54内から読み出された段ボール箱CA内に荷積みされた複数のピッキング対象物Wa全体Wの三次元座標を示す三次元点群情報から領域A,B,C,Dを切り出すこととなる。 Next, the CPU 50 (see FIG. 1) reads out the three-dimensional point group information indicating the three-dimensional coordinates of the entire plurality of picking objects Wa loaded in the cardboard box CA stored in the RAM 54, in the depth direction. As shown in FIG. 4, regions A, B, and C are obtained from this three-dimensional point cloud information on the basis of a depth edge where the change of A exceeds a certain amount or the change of the normal direction exceeds a certain value. , D are cut out (step S2). More specifically, the CPU 50 (see FIG. 1) determines that the camera 50 determines the camera from the three-dimensional point group information indicating the three-dimensional coordinates of the entire picking object Wa loaded in the cardboard box CA stored in the RAM 54. 4 is a point group that is determined to have a short distance from 4, and the positions of adjacent points (X n , Y n , Z n ) (an integer of n ≧ 1) are within a predetermined fixed distance. Yes, an area that can be regarded as a lump is cut out as area A as shown in FIG. Next, the CPU 50 (see FIG. 1) is an area where it can be determined that the distance in the Z direction is away from the area A, and the positions (X n , Y n , Z n ) (n ≧ 1) of adjacent points. An area that is within a predetermined fixed distance and can be regarded as a lump is cut out as area B as shown in FIG. Next, the CPU 50 (see FIG. 1) is an area where it can be determined that the distance in the Y direction is away from the area A, and the positions (X n , Y n , Z n ) (n ≧ 1) of adjacent points. An area that is within a predetermined fixed distance and can be regarded as a lump is cut out as an area C as shown in FIG. Next, the CPU 50 (see FIG. 1) is an area where it can be determined that the distance in the X direction is away from the area A, and the positions (X n , Y n , Z n ) (n ≧ 1) of adjacent points. An area that is within a predetermined fixed distance and can be regarded as a lump is cut out as an area D as shown in FIG. Thus, in this way, the CPU 50 (see FIG. 1) allows the three-dimensional point group indicating the three-dimensional coordinates of the entire plurality of picking objects Wa loaded in the cardboard box CA read from the RAM 54. The areas A, B, C, and D are cut out from the information.

次いで、CPU50(図1参照)は、上記切り出した領域A,B,C,Dから把持可能領域群を決定する(ステップS3)。より詳しく説明すると、CPU50(図1参照)は、ピッキング対象物Waの把持に必要な上部を選択するために、上記切り出した領域A,B,C,Dの三次元点群情報から、各領域A,B,C,DそれぞれのZ方向の位置が予め定められた一定範囲内の領域で、且つ、各領域A,B,C,Dのうち、上方にある領域群を選定する。これにより、領域Bが除外され、もって、図5に示すような、把持可能領域群HG1〜HG15が決定されることとなる。   Next, the CPU 50 (see FIG. 1) determines a grippable area group from the cut areas A, B, C, and D (step S3). More specifically, the CPU 50 (see FIG. 1) determines each area from the three-dimensional point cloud information of the extracted areas A, B, C, and D in order to select an upper part necessary for gripping the picking object Wa. A region group in which the position in the Z direction of each of A, B, C, and D is within a predetermined fixed range and the region A, B, C, and D is above is selected. As a result, the region B is excluded, and the grippable region groups HG1 to HG15 as shown in FIG. 5 are determined.

次いで、CPU50(図1参照)は、この決定された把持可能領域群HG1〜HG15のうち、基準点に近い把持可能領域群を選択し、仮単品点群とする(ステップS4)。より詳しく説明すると、この基準点を、予め、例えば、図5に示す左上隅を基準点Oとしておけば、CPU50(図1参照)は、把持可能領域群HG1〜HG15に属する三次元点群情報から、この基準点Oとの距離が最も近い把持可能領域群が、把持可能領域群HG1であることを算出することができる。これにより、CPU50(図1参照)は、この把持可能領域群HG1を仮単品群として決定する。   Next, the CPU 50 (see FIG. 1) selects a grippable area group close to the reference point from the determined grippable area groups HG1 to HG15 and sets it as a temporary single item point group (step S4). More specifically, if this reference point is set in advance, for example, with the upper left corner shown in FIG. 5 as the reference point O, the CPU 50 (see FIG. 1) can obtain the three-dimensional point group information belonging to the grippable region groups HG1 to HG15. Therefore, it can be calculated that the grippable region group having the shortest distance from the reference point O is the grippable region group HG1. Thereby, CPU50 (refer FIG. 1) determines this holdable area | region group HG1 as a temporary single item group.

次いで、CPU50(図1参照)は、上記決定した仮単品点群(把持可能領域群HG1)と、他の把持可能領域群HG2〜HG15の類似度を算出する(ステップS5)。より詳しく説明すると、類似度の算出方法として、従来周知の方法からなるアルゴリズム、例えば、OSADAらの手法(Shape Distributions, ACM Transactions on Graphics, Vol. 21, No. 4, October 2002, Pages 807−832.)を用いたアルゴリズムを用いて、CPU50(図1参照)は、仮単品点群(把持可能領域群HG1)と、他の把持可能領域群HG2〜HG15の類似度を算出する。具体的には、OSADAらの手法は相違度を算出するものであるから、CPU50(図1参照)は、仮単品点群(把持可能領域群HG1)と、他の把持可能領域群HG2との相違度を算出し、1−相違度とすることで、類似度を算出し、同じく、仮単品点群(把持可能領域群HG1)と、他の把持可能領域群HG3との相違度を算出し、1−相違度とすることで、類似度を算出し、同じく、仮単品点群(把持可能領域群HG1)と、他の把持可能領域群HG4との相違度を算出し、1−相違度とすることで、類似度を算出し、というように、類似度を算出していく。   Next, the CPU 50 (see FIG. 1) calculates the similarity between the determined provisional single item point group (gripable region group HG1) and the other grippable region groups HG2 to HG15 (step S5). More specifically, as a method for calculating the similarity, an algorithm composed of a conventionally known method, for example, a technique of OSADA et al. (Shape Distributions, ACM Transactions on Graphics, Vol. 21, No. 4, October 2002, Pages 807-832). .)), The CPU 50 (see FIG. 1) calculates the similarity between the temporary single item point group (gripable region group HG1) and the other graspable region groups HG2 to HG15. Specifically, since the technique of OSADA et al. Calculates the degree of difference, the CPU 50 (see FIG. 1) determines whether the temporary single item point group (gripable area group HG1) and another grippable area group HG2 The degree of difference is calculated, and the degree of similarity is calculated as 1-difference. Similarly, the degree of difference between the temporary single item point group (gripable area group HG1) and another graspable area group HG3 is calculated. , 1−difference, the similarity is calculated, and similarly, the dissimilarity between the temporary single item point group (gripable region group HG1) and the other grippable region group HG4 is calculated. Thus, the similarity is calculated, and so on.

次いで、CPU50(図1参照)は、上記算出した類似度の全体の割合が、予め定められた所定量(例えば、80%)あるか否かを算出する(ステップS6)。所定量あれば(ステップS6:YES)、CPU50(図1参照)は、上記決定した仮単品点群(把持可能領域群HG1)を単品点群(把持可能領域群HG1)と確定する(ステップS7)。   Next, the CPU 50 (see FIG. 1) calculates whether or not the ratio of the calculated similarity as a whole is a predetermined amount (for example, 80%) (step S6). If there is a predetermined amount (step S6: YES), the CPU 50 (see FIG. 1) determines the determined temporary single item point group (gripable region group HG1) as a single item point group (gripable region group HG1) (step S7). ).

一方、所定量なければ(ステップS6:NO)、図1に示す段ボール箱CA内に荷積みされた複数のピッキング対象物Waが、段ボール箱CA内で倒れている可能性を想定し、CPU50(図1参照)は、上記算出した相違度を確認する(ステップS8)。この際、相違度が、例えば、0.09以下の点群が2群以上(例えば、仮単品点群(把持可能領域群HG1)と、他の把持可能領域群HG2との相違度、仮単品点群(把持可能領域群HG1)と、他の把持可能領域群HG3との相違度が、0.09以下であれば、把持可能領域群HG2と把持可能領域群HG3の2群以上が存在することとなる)あれば(ステップS8:YES)、CPU50(図1参照)は、上記決定した仮単品点群(把持可能領域群HG1)を単品点群(把持可能領域群HG1)と確定する(ステップS7)。   On the other hand, if there is no predetermined amount (step S6: NO), it is assumed that a plurality of picking objects Wa loaded in the cardboard box CA shown in FIG. 1) confirms the calculated degree of difference (step S8). At this time, the degree of difference is, for example, two or more point groups of 0.09 or less (for example, the degree of difference between the provisional single item point group (gripable region group HG1) and the other graspable region group HG2, temporary single item) If the degree of difference between the point group (gripable region group HG1) and other grippable region group HG3 is 0.09 or less, there are two or more groups of the grippable region group HG2 and the grippable region group HG3. If so (step S8: YES), the CPU 50 (see FIG. 1) determines the determined temporary single item point group (gripable region group HG1) as a single item point group (gripable region group HG1) ( Step S7).

一方、相違度が、例えば、0.09以下の点群が2群以上なければ(ステップS8:NO)、CPU50(図1参照)は、表示部55(図1参照)に警告表示をさせる処理を行い(ステップS9)、プログラムの処理を終える。   On the other hand, for example, if there are not two or more point groups having a degree of difference of 0.09 or less (step S8: NO), the CPU 50 (see FIG. 1) causes the display unit 55 (see FIG. 1) to display a warning. (Step S9), and the processing of the program ends.

次いで、CPU50(図1参照)は、単品点群(把持可能領域群HG1)を内包する、図6(a)に示すような最小の直方体を設定する(ステップS10)。より詳しく説明すると、図6(a)に示すように、単品点群(把持可能領域群HG1)には、三次元座標を示す三次元点群TGが存在するから、この三次元点群TGの情報から、CPU50(図1参照)は、図6(a)に示すような、最小の直方体Rを設定することができる。これにより、CPU50(図1参照)は、図6(a)に示すように、この直方体Rの縦T、横L、高さHのサイズを計測することができる。これにより、単品点群(把持可能領域群HG1)を内包する、図6(a)に示すような最小の直方体Rを自動で設定し、自動で計測することができる。   Next, the CPU 50 (see FIG. 1) sets a minimum rectangular parallelepiped as shown in FIG. 6A that includes the single item point group (gripable region group HG1) (step S10). More specifically, as shown in FIG. 6A, the single item point group (gripable region group HG1) includes a three-dimensional point group TG indicating three-dimensional coordinates. From the information, the CPU 50 (see FIG. 1) can set the minimum rectangular parallelepiped R as shown in FIG. Thereby, CPU50 (refer FIG. 1) can measure the size of the vertical T, horizontal L, and height H of this rectangular parallelepiped R, as shown to Fig.6 (a). Thereby, the minimum rectangular parallelepiped R as shown in FIG. 6A that includes the single item point group (gripable region group HG1) can be automatically set and automatically measured.

次いで、CPU50(図1参照)は、上記設定した最小の直方体Rの上面Ra(図6(a)参照)の面積に応じたロボットハンド22(図1参照)を選択し、出力する(ステップS11)。より詳しく説明すると、CPU50(図1参照)は、設定した最小の直方体Rの上面Ra(図6(a)参照)の面積を、上記計測した最小の直方体Rの縦T、横Lのサイズから算出する。そして、その算出した面積が吸着可能な面積であれば、ロボットハンド22(図1参照)として吸着ハンドを選択するよう促す情報を、出力部52(図1参照)を介してロボット制御装置3に出力する。これにより、ロボット制御装置3は、ロボット2(図1参照)を制御し、図示しないツールチェンジャーを用いて、ロボットハンド22(図1参照)として吸着ハンドをロボット2に選択させることとなる。   Next, the CPU 50 (see FIG. 1) selects and outputs the robot hand 22 (see FIG. 1) corresponding to the area of the upper surface Ra (see FIG. 6 (a)) of the set minimum rectangular parallelepiped R (step S11). ). More specifically, the CPU 50 (see FIG. 1) calculates the area of the upper surface Ra (see FIG. 6A) of the set minimum rectangular parallelepiped R from the size of the measured vertical T and horizontal L of the minimum rectangular parallelepiped R. calculate. If the calculated area is an area that can be sucked, information that prompts the user to select the suction hand as the robot hand 22 (see FIG. 1) is sent to the robot controller 3 via the output unit 52 (see FIG. 1). Output. As a result, the robot control device 3 controls the robot 2 (see FIG. 1) and causes the robot 2 to select the suction hand as the robot hand 22 (see FIG. 1) using a tool changer (not shown).

一方、CPU50(図1参照)は、上記算出した面積が吸着可能な面積でなければ、ロボットハンド22(図1参照)として挟み込みハンドを選択するよう促す情報を、出力部52(図1参照)を介してロボット制御装置3に出力する。これにより、ロボット制御装置3は、ロボット2(図1参照)を制御し、図示しないツールチェンジャーを用いて、ロボットハンド22(図1参照)として挟み込みハンドをロボット2に選択させることとなる。   On the other hand, if the calculated area is not an adsorbable area, the CPU 50 (see FIG. 1) outputs information for prompting the user to select the sandwiching hand as the robot hand 22 (see FIG. 1). Is output to the robot controller 3. As a result, the robot control device 3 controls the robot 2 (see FIG. 1) and causes the robot 2 to select the pinching hand as the robot hand 22 (see FIG. 1) using a tool changer (not shown).

しかして、このようにすれば、最適なハンドを自動で選択することができる。なお、吸着可能な面積か否かの基準は予め設定しておけばよい。また、ロボットハンド22(図1参照)として吸着ハンド、又は、挟み込みハンドが選択された場合に、吸着ハンド、又は、挟み込みハンドの大きさも選択できるようにしても良い。例えば、吸着ハンドが選択された場合、上記算出した面積が第1の基準を超えていれば、大きめの吸着ハンドを選択するよう促す情報を、出力部52(図1参照)を介してロボット制御装置3に出力し、第1の基準を超えていないが第2の基準を超えていれば、中ぐらいの吸着ハンドを選択するよう促す情報を、出力部52(図1参照)を介してロボット制御装置3に出力し、第1,第2の基準を超えていないが第3の基準を超えていれば、小さめの吸着ハンドを選択するよう促す情報を、出力部52(図1参照)を介してロボット制御装置3に出力するというようにすれば良い。   In this way, the optimum hand can be automatically selected. In addition, what is necessary is just to preset the reference | standard of whether it is an area which can be attracted | sucked. Further, when a suction hand or a pinching hand is selected as the robot hand 22 (see FIG. 1), the size of the suction hand or the pinching hand may be selected. For example, when a suction hand is selected, if the calculated area exceeds the first reference, information for prompting the user to select a larger suction hand is controlled via the output unit 52 (see FIG. 1). Information that prompts the user to select a medium suction hand is output to the apparatus 3 via the output unit 52 (see FIG. 1) if the first reference is not exceeded but the second reference is exceeded. Information that prompts the user to select a smaller suction hand is output to the control device 3 if the first and second standards are not exceeded but the third standard is exceeded. And output to the robot control device 3 via this.

次いで、CPU50(図1参照)は、図6(b)に示すように、把持可能領域群HG2〜HG15毎に、上記設定した最小の直方体Rを合わせる。すなわち、把持可能領域群HG2〜HG15毎に、三次元座標を示す三次元点群TGが存在するため、この三次元点群TGの情報から、CPU50(図1参照)は、把持可能領域群HG2〜HG15毎に、上記設定した最小の直方体Rの方向を合わせることができる。そして、CPU50(図1参照)は、把持可能領域群HG2〜HG15毎に合わせた、上記設定した最小の直方体Rの方向、すなわち、最小の直方体Rの長手方向(横方向)、幅方向(縦方向)を確認し、位置姿勢を算出する。そしてこの算出した位置姿勢を、CPU50(図1参照)は、出力部52(図1参照)を介してロボット制御装置3に出力し(ステップS12)、プログラムの処理を終える。なお、この際、上記計測した最小の直方体Rの縦T、横L、高さHのサイズも出力されることとなる。これにより、以下に詳述するように、的確にピッキング対象物Wa(図1参照)を移載させることができる。   Next, as shown in FIG. 6B, the CPU 50 (see FIG. 1) matches the set minimum rectangular parallelepiped R for each grippable region group HG2 to HG15. That is, since there is a three-dimensional point group TG indicating three-dimensional coordinates for each grippable region group HG2 to HG15, the CPU 50 (see FIG. 1) uses the information of the three-dimensional point group TG to determine the grippable region group HG2. The direction of the set minimum rectangular parallelepiped R can be matched for each ˜HG15. Then, the CPU 50 (see FIG. 1) adjusts the direction of the minimum rectangular parallelepiped R set for each grippable region group HG2 to HG15, that is, the longitudinal direction (lateral direction) and the width direction (vertical direction) of the minimum rectangular parallelepiped R. Direction) and calculate the position and orientation. Then, the CPU 50 (see FIG. 1) outputs the calculated position and orientation to the robot control device 3 via the output unit 52 (see FIG. 1) (step S12), and the program processing ends. At this time, the measured size of the minimum rectangular parallelepiped R is T, L, and H. Thereby, as will be described in detail below, the picking object Wa (see FIG. 1) can be accurately transferred.

すなわち、ロボット制御装置3は、上記出力された縦T、横Lのサイズ並びに高さHに基づいて、ロボット2(図1参照)を制御し、もって、ロボット2(図1参照)のロボットハンド22(図1参照)にて把持させたピッキング対象物Wa(図1参照)を、所定箇所(例えば、コンベア)に移載させることとなる。より詳しく説明すると、ロボット制御装置3は、縦T、横Lのサイズから、所定箇所(例えば、コンベア)の長さ,幅を考慮(所定箇所(例えば、コンベア)の長さ,幅の情報は予め記憶されている)して、ロボットハンド22(図1参照)にて把持させているピッキング対象物Wa(図1参照)を移載させる際の経路設定を行う。そしてさらに、ロボット制御装置3は、高さHから、所定箇所(例えば、コンベア)の高さ、並びに、ピッキング対象物Waを安全に載置できるためのクリアランス等を考慮(所定箇所(例えば、コンベア)の高さの情報は予め記憶されている)して、ロボットハンド22(図1参照)にて把持させているピッキング対象物Wa(図1参照)を移載させる際の経路設定を行う。しかして、このように設定した経路設定に基づいて、ロボット2(図1参照)を制御し、もって、ロボット2(図1参照)のロボットハンド22(図1参照)にて把持させたピッキング対象物Wa(図1参照)を、所定箇所(例えば、コンベア)に移載させることとなる。これにより、安全にピッキング対象物Wa(図1参照)を所定箇所(例えば、コンベア)に移載させることができる。   That is, the robot control device 3 controls the robot 2 (see FIG. 1) based on the output vertical T, horizontal L size, and height H, and thus the robot hand of the robot 2 (see FIG. 1). The picking object Wa (see FIG. 1) gripped at 22 (see FIG. 1) is transferred to a predetermined location (for example, a conveyor). More specifically, the robot control device 3 considers the length and width of a predetermined location (for example, a conveyor) from the vertical T and horizontal L sizes (information on the length and width of the predetermined location (for example, conveyor)) The path is set when the picking object Wa (see FIG. 1) held by the robot hand 22 (see FIG. 1) is transferred. Further, the robot control device 3 considers the height of a predetermined location (for example, a conveyor) from the height H, a clearance for safely placing the picking target object Wa (the predetermined location (for example, a conveyor) ) Is stored in advance), and a route is set for transferring the picking object Wa (see FIG. 1) held by the robot hand 22 (see FIG. 1). Thus, the robot 2 (see FIG. 1) is controlled based on the route setting set in this way, and the picking target gripped by the robot hand 22 (see FIG. 1) of the robot 2 (see FIG. 1). The object Wa (see FIG. 1) is transferred to a predetermined location (for example, a conveyor). Thereby, the picking target object Wa (refer FIG. 1) can be safely transferred to a predetermined location (for example, conveyor).

また、ロボットハンド22(図1参照)には、ピッキング対象物Waを把持した際、当該ピッキング対象物Waの重量を計測する歪ゲージ等の重量センサが設けられているから、重量センサの計測情報は、ロボット制御装置3に出力される。これにより、自動でピッキング対象物Waの重量を計測することができる。   The robot hand 22 (see FIG. 1) is provided with a weight sensor such as a strain gauge that measures the weight of the picking object Wa when the picking object Wa is gripped. Is output to the robot controller 3. Thereby, the weight of picking target object Wa can be measured automatically.

一方、ロボット制御装置3は、これを受けて、計測された重量が予め設定しておいた重量よりも大きければ、ロボットハンド22(図1参照)にて把持させているピッキング対象物Wa(図1参照)を移載させる際の加速度を予め設定されている加速度よりも低く設定し、計測された重量が予め設定しておいた重量より小さければ、ロボットハンド22(図1参照)にて把持させているピッキング対象物Wa(図1参照)を移載させる際の加速度を予め設定されている加速度よりも高く設定し、計測された重量が予め設定しておいた重量と同一であれば、ロボットハンド22(図1参照)にて把持させているピッキング対象物Wa(図1参照)を移載させる際の加速度を予め設定されている加速度に設定する。   On the other hand, the robot controller 3 receives this, and if the measured weight is larger than the preset weight, the picking object Wa (see FIG. 1) held by the robot hand 22 (see FIG. 1). 1) is set lower than the preset acceleration, and if the measured weight is smaller than the preset weight, the robot hand 22 (see FIG. 1) holds it. If the picking target object Wa (see FIG. 1) to be transferred is set to a higher acceleration than the preset acceleration, and the measured weight is the same as the preset weight, The acceleration at the time of transferring the picking object Wa (see FIG. 1) held by the robot hand 22 (see FIG. 1) is set to a preset acceleration.

しかして、このように設定した加速度に基づいて、ロボット2(図1参照)を制御し、もって、ロボット2(図1参照)のロボットハンド22(図1参照)にて把持させたピッキング対象物Wa(図1参照)を、所定箇所(例えば、コンベア)に移載させることとなる。これにより、把持させたピッキング対象物Wa(図1参照)を、所定箇所(例えば、コンベア)に移載させる途中で、落下させてしまう事態を低減させることができる。なお、重量センサに代えて、基端が回転可能に連結されているロボットアーム部21のモータ駆動に必要な電流を検出し、その検出情報からピッキング対象物Waの重量を推定するようにした際も、同様の処理を行うことができる。   Thus, the picking object controlled by the robot hand 22 (see FIG. 1) of the robot 2 (see FIG. 1) is controlled by controlling the robot 2 (see FIG. 1) based on the set acceleration. Wa (see FIG. 1) is transferred to a predetermined location (for example, a conveyor). As a result, it is possible to reduce a situation in which the picked object Wa (see FIG. 1) that is gripped is dropped while being transferred to a predetermined location (for example, a conveyor). In place of the weight sensor, the current required for driving the motor of the robot arm unit 21 whose base end is rotatably connected is detected, and the weight of the picking object Wa is estimated from the detected information. The same processing can be performed.

しかして、以上説明した本実施形態によれば、物流現場において、把持対象となるピッキング対象物を自動的に認識し、ピッキングすることができる。これにより、数千〜数十万件というピッキング対象物の3次元形状を予め全てデータベース化しておく必要がなくなり、もって、自動化を実現できることとなる。   Thus, according to the present embodiment described above, it is possible to automatically recognize and pick a picking object to be grasped at a distribution site. As a result, it is not necessary to prepare all the three-dimensional shapes of picking objects of thousands to hundreds of thousands in advance as a database, and automation can be realized.

すなわち、従来であれば、数千〜数十万件というピッキング対象物の3次元形状を予め全てデータベース内に事前に登録する必要があるため、把持対象となるピッキング対象物のサイズを正確に登録する必要がある。それに対し、本実施形態によれば、把持対象となるピッキング対象物を自動的に認識し、ピッキングすることができるため、このような正確な登録が不要となる。また、仮に、把持対象となるピッキング対象物のサイズを入力(登録)したとしても、正確な入力(登録)は必要なく、概略(例えば、ピッキング対象物の縦横高さの基準、又は、縦横高さが取りえる数値範囲等の形状等)だけ入力(登録)するだけで良い。   In other words, conventionally, since it is necessary to register all three-dimensional shapes of picking objects of several thousand to several hundred thousand in advance in the database, the size of the picking object to be grasped is accurately registered. There is a need to. On the other hand, according to the present embodiment, since a picking target object to be grasped can be automatically recognized and picked, such an accurate registration becomes unnecessary. Moreover, even if the size of the picking target object to be grasped is input (registered), accurate input (registration) is not required, and an outline (for example, a reference for the vertical / horizontal height of the picking target object or a vertical / horizontal height) It is only necessary to input (register) a shape such as a numerical range that can be obtained.

なお、本実施形態にて例示した内容は、あくまで一例であり、特許請求の範囲に記載された本発明の要旨の範囲内において種々の変形・変更が可能である。   The contents illustrated in the present embodiment are merely examples, and various modifications and changes can be made within the scope of the gist of the present invention described in the claims.

例えば、本実施形態においては、複数のピッキング対象物Waを荷積みしているものとして段ボール箱CAを例示したが、それに限らず、コンテナ等のどのような容器に荷積みされていても良い。   For example, in the present embodiment, the corrugated cardboard box CA has been illustrated as loading a plurality of picking objects Wa. However, the present invention is not limited to this and may be loaded in any container such as a container.

また、本実施形態においては、ピッキング対象物Wa全体Wの三次元座標を示す三次元点群情報をカメラ4にて取得できる例を示したが、二次元画像を取得できるようにしても良い。   Moreover, in this embodiment, although the example which can acquire the three-dimensional point group information which shows the three-dimensional coordinate of the picking target object Wa whole W with the camera 4 was shown, you may enable it to acquire a two-dimensional image.

また、本実施形態においては、ピッキング対象物Wa全体Wの三次元座標を示す三次元点群情報をカメラ4にて取得できる例を示したが、それに限らず、カメラ4は単なる撮像機能だけにし、画像処理装置5(図1参照)のCPU50(図1参照)にて、ピッキング対象物Wa全体Wの三次元座標を示す三次元点群情報を生成するようにしても良い。   In the present embodiment, an example is shown in which the camera 4 can acquire 3D point group information indicating the 3D coordinates of the entire picking object Wa. However, the present invention is not limited thereto, and the camera 4 has only an imaging function. The CPU 50 (see FIG. 1) of the image processing apparatus 5 (see FIG. 1) may generate three-dimensional point group information indicating the three-dimensional coordinates of the entire picking object Wa.

一方、本実施形態においては、カメラ4を別に設ける例を示したが、それに限らず、カメラ4をロボット2に組み込むようにしても良い。また、ロボット制御装置3と画像処理装置5とを別々に設ける例を示したが、ロボット制御装置3と画像処理装置5を一体化しても良い。   On the other hand, in the present embodiment, an example in which the camera 4 is provided separately has been described, but the present invention is not limited thereto, and the camera 4 may be incorporated in the robot 2. Moreover, although the example which provides the robot control apparatus 3 and the image processing apparatus 5 separately was shown, you may integrate the robot control apparatus 3 and the image processing apparatus 5. FIG.

1 ピッキング装置
2 ロボット
3 ロボット制御装置
4 カメラ(三次元点群情報生成手段)
5 画像処理装置
50 CPU
CA 段ボール箱(所定の容器)
W (複数のピッキング対象物の)全体
Wa ピッキング対象物
R 最小の直方体(最小箱状体)
L 横(最小箱状体の長手方向)
T 縦(最小箱状体の幅方向)
H 高さ(最小箱状体の高さ)
1 Picking device 2 Robot 3 Robot control device 4 Camera (3D point cloud information generating means)
5 Image processing device 50 CPU
CA cardboard box (predetermined container)
W Whole (of multiple picking objects) Wa Picking object R Minimum rectangular parallelepiped (minimum box-shaped body)
L side (longitudinal direction of the smallest box)
T length (width direction of the smallest box-shaped body)
H Height (minimum box height)

Claims (11)

所定の容器内に荷積みされた複数のピッキング対象物全体の三次元点群情報を生成する三次元点群情報生成手段と、
前記三次元点群情報生成手段にて生成された前記三次元点群情報に基づき、前記複数のピッキング対象物全体から共通の三次元形状を見つけ出し、個々のピッキング対象物の領域を決定する領域決定手段と、
前記領域決定手段にて決定されたピッキング対象物の領域に属する前記三次元点群情報生成手段にて生成された三次元点群情報に基づき、把持対象となるピッキング対象物の三次元位置姿勢を出力する位置姿勢出力手段と、
前記位置姿勢出力手段にて出力された三次元位置姿勢に基づき、前記把持対象となるピッキング対象物を把持し、移載するロボットと、を備えてなるピッキング装置。
3D point cloud information generating means for generating 3D point cloud information of the entire plurality of picking objects loaded in a predetermined container;
Based on the three-dimensional point cloud information generated by the three-dimensional point cloud information generation means, a common three-dimensional shape is found from the entire plurality of picking objects, and an area determination for determining an area of each picking object Means,
Based on the 3D point cloud information generated by the 3D point cloud information generation means belonging to the area of the picking target object determined by the area determination means, the 3D position and orientation of the picking target object to be grasped are determined. Position and orientation output means for outputting;
A picking apparatus comprising: a robot that grips and transfers a picking target object to be gripped based on the three-dimensional position / posture output by the position / posture output means.
所定の容器内に荷積みされた複数のピッキング対象物全体の三次元点群情報を生成し、
前記生成された三次元点群情報に基づき、前記複数のピッキング対象物全体から共通の三次元形状を見つけ出し、個々のピッキング対象物の領域を決定し、
前記決定したピッキング対象物の領域に属する前記生成された三次元点群情報に基づき、把持対象となるピッキング対象物の三次元位置姿勢を出力し、
前記出力した三次元位置姿勢に基づき、ロボットを用いて、前記把持対象となるピッキング対象物を把持し、移載してなるピッキング方法。
Generate three-dimensional point cloud information of the entire plurality of picking objects loaded in a predetermined container,
Based on the generated 3D point cloud information, find a common 3D shape from the entire plurality of picking objects, determine the area of each picking object,
Based on the generated 3D point cloud information belonging to the determined area of the picking object, output the 3D position and orientation of the picking object to be grasped,
A picking method in which a picking object to be grasped is grasped and transferred using a robot based on the output three-dimensional position and orientation.
前記把持対象となるピッキング対象物の正確なサイズを事前に入力不要である請求項2に記載のピッキング方法。   The picking method according to claim 2, wherein an accurate size of the picking object to be grasped is not required to be input in advance. 前記生成された三次元点群情報に基づき、深さ方向の不連続三次元点群情報を見つけ出すことによって、前記複数のピッキング対象物全体から共通の三次元形状を見つけ出し、個々のピッキング対象物の領域を決定してなる請求項2又は3に記載のピッキング方法。   Based on the generated three-dimensional point cloud information, by finding discontinuous three-dimensional point cloud information in the depth direction, a common three-dimensional shape is found from the whole of the plurality of picking objects, and individual picking objects The picking method according to claim 2 or 3, wherein the area is determined. 前記生成された三次元点群情報に基づき、深さ方向の不連続三次元点群情報を見つけ出すことによって、セグメンテーションを行い、該セグメンテーション間における三次元点群情報の類似度を所定のアルゴリズムを用いて調べ、もって、前記複数のピッキング対象物全体から共通の三次元形状を見つけ出し、個々のピッキング対象物の領域を決定してなる請求項2〜4の何れか1項に記載のピッキング方法。   Based on the generated three-dimensional point cloud information, segmentation is performed by finding discontinuous three-dimensional point cloud information in the depth direction, and the similarity of the three-dimensional point cloud information between the segmentations is determined using a predetermined algorithm. The picking method according to claim 2, wherein a common three-dimensional shape is found from all of the plurality of picking objects, and an area of each picking object is determined. 前記決定したピッキング対象物を内包する最小箱状体を設定し、該設定した最小箱状体の長手方向の長さと幅方向の長さと高さを計測してなる請求項2〜5の何れか1項に記載のピッキング方法。   The minimum box-shaped body containing the determined picking object is set, and the length in the longitudinal direction, the length in the width direction, and the height of the set minimum box-shaped body are measured. Item 2. The picking method according to item 1. 前記計測した最小箱状体の長手方向の長さと幅方向の長さと高さを出力してなる請求項6に記載のピッキング方法。   The picking method according to claim 6, wherein the measured length in the longitudinal direction, the length in the width direction, and the height of the minimum box-shaped body are output. 前記出力した三次元位置姿勢に基づき、ロボットを用いて、前記把持対象となるピッキング対象物を把持した際、該把持対象となるピッキング対象物の重量を計測してなる請求項2〜7の何れか1項に記載のピッキング方法。   The weight of the picking target as the gripping target is measured when the picking target as the gripping target is gripped using a robot based on the output three-dimensional position and orientation. The picking method according to claim 1. 前記計測した把持対象となるピッキング対象物の重量に基づき、前記ロボットを用いて、前記把持対象となるピッキング対象物を移載する際の加速度を制御してなる請求項8に記載のピッキング方法。   The picking method according to claim 8, wherein an acceleration at the time of transferring the picking target to be gripped is controlled using the robot based on the measured weight of the picking target to be gripped. 前記計測した長さに基づき、ロボットを用いて、前記把持対象となるピッキング対象物を移載する際の経路を設定して制御してなる請求項6に記載のピッキング方法。   The picking method according to claim 6, wherein, based on the measured length, a robot is used to set and control a path for transferring the picking object to be grasped. 前記計測した前記最小箱状体の長手方向の長さと幅方向の長さを少なくとも用いて、把持用ツールを選択してなる請求項6に記載のピッキング方法。

The picking method according to claim 6, wherein a gripping tool is selected using at least the measured length in the longitudinal direction and the length in the width direction of the minimum box-shaped body.

JP2018070538A 2018-04-02 2018-04-02 Picking device and method Active JP7117126B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018070538A JP7117126B2 (en) 2018-04-02 2018-04-02 Picking device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018070538A JP7117126B2 (en) 2018-04-02 2018-04-02 Picking device and method

Publications (2)

Publication Number Publication Date
JP2019181573A true JP2019181573A (en) 2019-10-24
JP7117126B2 JP7117126B2 (en) 2022-08-12

Family

ID=68338839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018070538A Active JP7117126B2 (en) 2018-04-02 2018-04-02 Picking device and method

Country Status (1)

Country Link
JP (1) JP7117126B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021088011A (en) * 2019-12-02 2021-06-10 Arithmer株式会社 Picking system, picking method, and program
EP4063082A1 (en) * 2021-03-23 2022-09-28 TOMRA Sorting GmbH Robotic system and method for sorting waste with suction gripper

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54110558A (en) * 1978-02-17 1979-08-30 Motoda Denshi Kogyo Kk Speed controller of robot* etc* by detecting weight
JPH0323114A (en) * 1989-06-19 1991-01-31 Amada Metrecs Co Ltd Apparatus for transporting in and out plate
JPH07157117A (en) * 1993-12-08 1995-06-20 Fuji Photo Film Co Ltd Board shape or box shape vacuum chuck device
JP2001241941A (en) * 2000-03-01 2001-09-07 Mitsutoyo Corp Geometrical element measuring device and method
JP2003236848A (en) * 2002-02-15 2003-08-26 Tietech Co Ltd Method and device for transferring member
JP2010247959A (en) * 2009-04-16 2010-11-04 Ihi Corp Box-shaped work recognizing device and method
JP2010256209A (en) * 2009-04-27 2010-11-11 Ihi Corp Device and method for recognizing baglike workpiece
JP2011167815A (en) * 2010-02-19 2011-09-01 Ihi Corp Object recognizing robot system
JP2012008657A (en) * 2010-06-22 2012-01-12 Toshiba Corp Apparatus and method for generating object shape
WO2012141235A1 (en) * 2011-04-13 2012-10-18 株式会社トプコン Three-dimensional point group position data processing device, three-dimensional point group position data processing system, three-dimensional point group position data processing method and program
JP2013086914A (en) * 2011-10-17 2013-05-13 Yaskawa Electric Corp Robot sorting system, robot device and method of manufacturing sorted article
US20140067127A1 (en) * 2012-08-29 2014-03-06 Fanuc Corporation Apparatus and method of taking out bulk stored articles by robot
JP2015125685A (en) * 2013-12-27 2015-07-06 Kddi株式会社 Space structure estimation device, space structure estimation method, and space structure estimation program
JP2015145055A (en) * 2014-02-04 2015-08-13 セイコーエプソン株式会社 Robot, robot system, control device, and control method
US20170021502A1 (en) * 2015-03-26 2017-01-26 Google Inc. Methods And Systems For Distributing Remote Assistance To Facilitate Robotic Object Manipulation

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54110558A (en) * 1978-02-17 1979-08-30 Motoda Denshi Kogyo Kk Speed controller of robot* etc* by detecting weight
JPH0323114A (en) * 1989-06-19 1991-01-31 Amada Metrecs Co Ltd Apparatus for transporting in and out plate
JPH07157117A (en) * 1993-12-08 1995-06-20 Fuji Photo Film Co Ltd Board shape or box shape vacuum chuck device
JP2001241941A (en) * 2000-03-01 2001-09-07 Mitsutoyo Corp Geometrical element measuring device and method
JP2003236848A (en) * 2002-02-15 2003-08-26 Tietech Co Ltd Method and device for transferring member
JP2010247959A (en) * 2009-04-16 2010-11-04 Ihi Corp Box-shaped work recognizing device and method
JP2010256209A (en) * 2009-04-27 2010-11-11 Ihi Corp Device and method for recognizing baglike workpiece
JP2011167815A (en) * 2010-02-19 2011-09-01 Ihi Corp Object recognizing robot system
JP2012008657A (en) * 2010-06-22 2012-01-12 Toshiba Corp Apparatus and method for generating object shape
WO2012141235A1 (en) * 2011-04-13 2012-10-18 株式会社トプコン Three-dimensional point group position data processing device, three-dimensional point group position data processing system, three-dimensional point group position data processing method and program
JP2013086914A (en) * 2011-10-17 2013-05-13 Yaskawa Electric Corp Robot sorting system, robot device and method of manufacturing sorted article
US20140067127A1 (en) * 2012-08-29 2014-03-06 Fanuc Corporation Apparatus and method of taking out bulk stored articles by robot
JP2014046371A (en) * 2012-08-29 2014-03-17 Fanuc Ltd Apparatus and method for extracting bulked articles by robot
JP2015125685A (en) * 2013-12-27 2015-07-06 Kddi株式会社 Space structure estimation device, space structure estimation method, and space structure estimation program
JP2015145055A (en) * 2014-02-04 2015-08-13 セイコーエプソン株式会社 Robot, robot system, control device, and control method
US20170021502A1 (en) * 2015-03-26 2017-01-26 Google Inc. Methods And Systems For Distributing Remote Assistance To Facilitate Robotic Object Manipulation

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021088011A (en) * 2019-12-02 2021-06-10 Arithmer株式会社 Picking system, picking method, and program
WO2021111929A1 (en) * 2019-12-02 2021-06-10 Arithmer株式会社 Picking system, picking method, and program
EP4063082A1 (en) * 2021-03-23 2022-09-28 TOMRA Sorting GmbH Robotic system and method for sorting waste with suction gripper
WO2022200363A1 (en) * 2021-03-23 2022-09-29 Tomra Sorting Gmbh Robotic system and method for sorting waste with air flow

Also Published As

Publication number Publication date
JP7117126B2 (en) 2022-08-12

Similar Documents

Publication Publication Date Title
JP7411932B2 (en) Automated package registration systems, devices, and methods
JP7065632B2 (en) Box-shaped object picking device and its method
US11034025B2 (en) Automated package registration systems, devices, and methods
JP5788460B2 (en) Apparatus and method for picking up loosely stacked articles by robot
CN112009810A (en) Robot system with error detection and dynamic packaging mechanism
EP1816604B1 (en) Workpiece picking device
JP6697204B1 (en) Robot system control method, non-transitory computer-readable recording medium, and robot system control device
JP2019181573A (en) Picking device and method for the same
JP7175487B1 (en) Robotic system with image-based sizing mechanism and method for operating the robotic system
WO2019240273A1 (en) Information processing device, unloading system provided with information processing device, and computer-readable storage medium
JP2021146452A (en) Handling device, control device, and control program
JP2016078180A (en) Abnormality cause estimating device, picking device, and abnormality cause estimating method for picking device
JP2018134698A (en) Work-piece taking-out system
JP2023016800A (en) Robotic system with depth-based processing mechanism, and methods for operating robotic system
US20230158677A1 (en) Position setting device for setting workpiece stacking position and robot apparatus provided with position setting device
JP7261597B2 (en) Work storage system to be transferred
JP7218521B2 (en) picking system
WO2020054724A1 (en) Picking system, information processing device, and computer-readable recording medium
WO2022264381A1 (en) Workpiece retrieval count calculation device, hand system, and display device
CN111559544B (en) Robot system with error detection and dynamic packaging mechanism
CN110405810B (en) Automatic package registration system, apparatus and method
JP7398763B2 (en) Robot system equipped with overlap processing mechanism and its operating method
JP6746140B2 (en) Picking system
US20230264352A1 (en) Robot device for detecting interference of constituent member of robot
CN115609569A (en) Robot system with image-based sizing mechanism and method of operating the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220708

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220801

R150 Certificate of patent or registration of utility model

Ref document number: 7117126

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350