JP5544320B2 - Stereoscopic robot picking device - Google Patents

Stereoscopic robot picking device Download PDF

Info

Publication number
JP5544320B2
JP5544320B2 JP2011056906A JP2011056906A JP5544320B2 JP 5544320 B2 JP5544320 B2 JP 5544320B2 JP 2011056906 A JP2011056906 A JP 2011056906A JP 2011056906 A JP2011056906 A JP 2011056906A JP 5544320 B2 JP5544320 B2 JP 5544320B2
Authority
JP
Japan
Prior art keywords
container
workpiece
camera
cameras
work
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011056906A
Other languages
Japanese (ja)
Other versions
JP2012192473A (en
Inventor
毅 藤岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seibu Electric and Machinery Co Ltd
Original Assignee
Seibu Electric and Machinery Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seibu Electric and Machinery Co Ltd filed Critical Seibu Electric and Machinery Co Ltd
Priority to JP2011056906A priority Critical patent/JP5544320B2/en
Publication of JP2012192473A publication Critical patent/JP2012192473A/en
Application granted granted Critical
Publication of JP5544320B2 publication Critical patent/JP5544320B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、ステレオ画像でワーク(物品)の3次元位置を検出しロボットを用いてワークを仕分けする立体視ロボットピッキング装置に関する。 The present invention relates to a stereoscopic robot picking apparatus that detects a three-dimensional position of a workpiece (article) from a stereo image and sorts the workpiece using a robot.

ワーク(物品)の仕分け現場では、コンテナ内に配列されたワークをロボットにより上方から吸着保持して別のコンテナに移すロボットピッキング装置が用いられている。
ロボットピッキング装置はワークの高さ位置に基づいてロボットの吸引部をワークの吸着が可能な高さに配置する。ワークの高さ位置が一定である場合、ワークを吸着するためのロボットの吸引部の高さは固定することができる。
しかしながら、ワークが食品を封入した袋物の場合、袋の膨らみや食品の出来上がりの大きさ等にバラつきがあり、ロボットの吸引部を常に一定の高さにすると、吸引部とワークの袋部分の間に大きな隙間が生じてワークを吸着できなかったり、ロボットのハンド部がワークを押しすぎて食品の変形や袋の割れ等が生じたりする。また、ワークが配列されたコンテナの底面の歪みによっても配列位置でワークの高さ位置にバラつきが生じる。
In a work (article) sorting site, a robot picking apparatus is used that sucks and holds workpieces arranged in a container from above and moves them to another container.
The robot picking device arranges the suction part of the robot at a height at which the workpiece can be adsorbed based on the height position of the workpiece. When the height position of the workpiece is constant, the height of the suction part of the robot for sucking the workpiece can be fixed.
However, if the workpiece is a bag containing food, the swelling of the bag and the size of the finished food will vary. A large gap is generated in the workpiece, and the workpiece cannot be adsorbed, or the hand portion of the robot pushes the workpiece too much, causing deformation of the food, cracking of the bag, or the like. In addition, the height position of the workpiece varies at the arrangement position due to the distortion of the bottom surface of the container in which the workpiece is arranged.

この問題を回避するため、ワークを吸着保持する前にワークの高さ位置を検出してロボットの吸引部を配置すべき高さを決定するのが有効である。
ワークの高さ位置を検出する方法として、対となるカメラでワークを撮像した画像を基にワークの3次元位置を算出するステレオ方式が知られており、その具体例が特許文献1に記載されている。
特許文献1では、対となるカメラの撮像範囲の重なる領域でワークを撮像し、その撮像された各画像中で予め定義しておいたワークの参照点を検出し、参照点の画像中での2次元位置からワークの3次元位置を算出している。
また、撮像方向が平行な対となるカメラを用いれば、3次元位置の算出を行うためのプログラム等の設計を簡略化することができる。この場合、ワークの大きさ等に応じて、ワークとカメラの間隔を長くして、カメラの撮像範囲の重なる領域を広げ、各カメラが撮像範囲の重なる領域でワークを撮像可能にすることが考えられる。
In order to avoid this problem, it is effective to determine the height at which the suction part of the robot is to be arranged by detecting the height position of the work before the work is sucked and held.
As a method for detecting the height position of a workpiece, a stereo method for calculating the three-dimensional position of a workpiece based on an image obtained by imaging the workpiece with a pair of cameras is known. A specific example is described in Patent Document 1. ing.
In Patent Document 1, a workpiece is imaged in an area where the imaging ranges of the paired cameras overlap, a reference point of the workpiece defined in advance in each captured image is detected, and the reference point image is detected. The three-dimensional position of the workpiece is calculated from the two-dimensional position.
In addition, if a pair of cameras with parallel imaging directions is used, the design of a program or the like for calculating a three-dimensional position can be simplified. In this case, depending on the size of the workpiece, the distance between the workpiece and the camera may be increased to widen the area where the imaging range of the camera overlaps, and each camera can image the workpiece in the area where the imaging range overlaps. It is done.

特開2004−90183号公報JP 2004-90183 A

しかしながら、カメラとワークの間隔が長くなると撮像画像中のワークの大きさが小さくなり、ワークの画像分解能が低くなるという問題が生じる。
本発明は、かかる事情に鑑みてなされるもので、カメラとワークの間隔が長くなるのを抑制し、高い分解能を保有した画像を基にパターンマッチングによりワークの検出を行って、ステレオ方式でワークの3次元位置を算出しロボットの吸引部の配置位置を決める立体視ロボットピッキング装置を提供することを目的とする。
However, if the distance between the camera and the workpiece becomes long, the size of the workpiece in the captured image becomes small, and the image resolution of the workpiece becomes low.
The present invention is made in view of such circumstances, suppresses an increase in the distance between the camera and the workpiece, detects the workpiece by pattern matching based on an image having a high resolution, and works in a stereo system. It is an object of the present invention to provide a stereoscopic robot picking apparatus that calculates the three-dimensional position of the robot and determines the position of the robot suction unit.

前記目的に沿う本発明に係る立体視ロボットピッキング装置は、コンテナ内に収容されたワークを順次ロボットによって別位置に移動する立体視ロボットピッキング装置において、前記ワークを吸着保持する吸引部が設けられた前記ロボットと、前記コンテナを所定ピッチ移動させて、前記吸引部が該コンテナ内に収容された前記ワークを吸着保持可能なワーク取出し位置まで該コンテナを送る移動手段と、前記ワーク取出し位置にある前記コンテナ全体を撮像する1台のカメラAと、前記ワーク取出し位置にある前記コンテナを部分的に撮像する1台又は2台のカメラBと、前記カメラA、Bで撮像した各画像中の前記ワークの2次元位置から該ワークの3次元位置を算出する画像処理手段と、前記画像処理手段で算出した前記ワークの3次元位置を基に前記吸引部の配置目標位置を決定し、前記ロボットを動かして前記ワークを吸着保持させる制御手段とを有し、前記カメラA、Bは、前記コンテナの移動方向に沿って配置され、前記カメラA、Bの各撮像方向は平行であり、前記画像処理手段は、前記カメラA、Bが撮像した各画像中での前記ワークをパターンマッチングによって検出して、前記カメラA、Bにより撮像された該ワークの各画像中の2次元位置を算出する。 The stereoscopic robot picking apparatus according to the present invention that meets the above-mentioned object is provided with a suction unit that sucks and holds the workpiece in the stereoscopic robot picking apparatus that sequentially moves the workpieces contained in the container to different positions by the robot. The robot, the moving means for moving the container by a predetermined pitch, and the suction unit sending the container to a work picking position where the work housed in the container can be sucked and held, and the work picking position One camera A that images the entire container, one or two cameras B that partially image the container at the workpiece removal position, and the workpiece in each image captured by the cameras A and B Image processing means for calculating the three-dimensional position of the workpiece from the two-dimensional position of the workpiece, and 3 of the workpiece calculated by the image processing means Control means for determining an arrangement target position of the suction unit based on the original position and moving the robot to suck and hold the work, and the cameras A and B are arranged along the moving direction of the container. The imaging directions of the cameras A and B are parallel, and the image processing means detects the workpiece in each image captured by the cameras A and B by pattern matching, and the cameras A and B The two-dimensional position in each image of the workpiece imaged by is calculated.

本発明に係る立体視ロボットピッキング装置において、前記カメラBは、1台であって、前記コンテナの移動方向に沿って前記ワーク取出し位置より前記コンテナの移動ピッチ上流側にある前記コンテナの、少なくとも下流側半分を撮像可能で、かつ、前記ワーク取出し位置にある前記コンテナの、少なくとも上流側半分を撮像可能な位置に配置され、前記画像処理手段は、前記コンテナの移動方向に沿って前記ワーク取出し位置より前記コンテナの移動ピッチ分上流側にあった前記コンテナを前記カメラBによって撮像した画像と前記ワーク取出し位置にある該コンテナを前記カメラAによって撮像した画像を基に、前記ワーク取出し位置に配置された前記コンテナ内の、下流側半分にある前記ワークの3次元位置を算出し、前記ワーク取出し位置にある該コンテナを前記カメラA、Bで撮像した各画像を基に、前記ワーク取出し位置に配置された前記コンテナ内の、上流側半分にある前記ワークの3次元位置を算出するのが好ましい。 In the stereoscopic robot picking device according to the present invention, the camera B is a single unit, and at least downstream of the container located upstream of the moving pitch of the container from the workpiece removal position along the moving direction of the container. The container is located at a position where at least the upstream half of the container at which the side half can be imaged and at the workpiece removal position can be imaged, and the image processing means moves along the moving direction of the container. Based on the image captured by the camera B of the container that is upstream by the moving pitch of the container and the image captured by the camera A of the container at the workpiece removal position, the container is disposed at the workpiece removal position. The three-dimensional position of the workpiece in the downstream half of the container is calculated, and the workpiece removal The three-dimensional position of the workpiece in the upstream half in the container arranged at the workpiece take-out position is calculated based on the images obtained by capturing the container at the first position with the cameras A and B. preferable.

本発明に係る立体視ロボットピッキング装置において、前記カメラBは2台あって、一方の該カメラBは、前記ワーク取出し位置にある前記コンテナの、少なくとも前記コンテナの移動方向の上流側半分を撮像可能な位置に配置され、他方の前記カメラBは前記ワーク取出し位置にある前記コンテナの、少なくとも下流側半分を撮像可能な位置に配置され、前記画像処理手段は、前記ワーク取出し位置にある前記コンテナを前記カメラA及び前記一方のカメラBで撮像した各画像を基に、前記ワーク取出し位置に配置された前記コンテナ内の上流側半分にある前記ワークの3次元位置を算出し、前記ワーク取出し位置にある前記コンテナを前記カメラA及び前記他方のカメラBで撮像した各画像を基に、前記ワーク取出し位置に配置された前記コンテナ内の下流側半分にある前記ワークの3次元位置を算出することができる。 In the stereoscopic robot picking apparatus according to the present invention, there are two cameras B, and one of the cameras B can image at least the upstream half of the container in the moving direction of the container at the workpiece removal position. The other camera B is arranged at a position where at least the downstream half of the container at the workpiece take-out position can be imaged, and the image processing means moves the container at the work take-out position. Based on the images captured by the camera A and the one camera B, the three-dimensional position of the work in the upstream half in the container arranged at the work picking position is calculated, and the work picking position is Before the container is placed at the workpiece removal position based on the images taken by the camera A and the other camera B. It can be calculated three-dimensional position of the workpiece in the downstream half of the container.

本発明に係る立体視ロボットピッキング装置において、前記制御手段は、前記画像処理手段によって算出された前記ワークの3次元位置まで予め定められた間隔を有する位置を前記吸引部の配置目標位置として決定するのが好ましい。 In the stereoscopic robot picking apparatus according to the present invention, the control means determines a position having a predetermined interval up to the three-dimensional position of the workpiece calculated by the image processing means as a placement target position of the suction unit. Is preferred.

本発明に係る立体視ロボットピッキング装置は、ワーク取出し位置にあるコンテナ全体を撮像する1台のカメラAと、ワーク取出し位置にあるコンテナを部分的に撮像する1台又は2台のカメラBとを有し、カメラA、Bが撮像した各画像中のワークをパターンマッチングによって検出して、カメラA、Bにより撮像された各画像中でのワークの2次元位置を算出するので、カメラBは、ワーク取出し位置にあるコンテナ全体を撮像する場合に比べ、ワーク取出し位置にあるコンテナとの距離を近づけて配置でき、画像中にワークを大きくとらえて、画像処理手段によるワークの検出精度の向上を図ることができる。 The stereoscopic robot picking apparatus according to the present invention includes one camera A that captures an image of the entire container at the workpiece removal position and one or two cameras B that partially image the container at the workpiece removal position. Since the workpieces in the images captured by the cameras A and B are detected by pattern matching and the two-dimensional position of the workpiece in the images captured by the cameras A and B is calculated. Compared to imaging the entire container at the workpiece removal position, it can be placed closer to the container at the workpiece removal position, so that the workpiece can be seen in the image and the detection accuracy of the workpiece by the image processing means is improved. be able to.

本発明に係る立体視ロボットピッキング装置において、カメラBが1台である場合には、合計2台のカメラによってコンテナ内のワークの3次元位置を算出するための画像を得ることができ、カメラの数を最小限に抑えることが可能である。
また、ワーク取出し位置よりコンテナの移動ピッチ分上流側にあったコンテナをカメラBによって撮像した画像とワーク取出し位置にあるコンテナをカメラAによって撮像した画像を基に、ワーク取出し位置に配置されたコンテナ内の、下流側半分にあるワークの3次元位置を算出し、ワーク取出し位置にあるコンテナをカメラA、Bで撮像した各画像を基に、ワーク取出し位置に配置されたコンテナ内の、上流側半分にあるワークの3次元位置を算出する場合には、コンテナの上流側半分及び下流側半分に分けて確実にコンテナ内のワークの3次元位置を算出することができる。
In the stereoscopic robot picking apparatus according to the present invention, when there is one camera B, an image for calculating the three-dimensional position of the work in the container can be obtained by a total of two cameras. It is possible to minimize the number.
Further, the container arranged at the workpiece removal position based on the image taken by the camera B of the container that is upstream from the workpiece removal position by the moving pitch of the container and the image taken by the camera A of the container at the workpiece removal position. The three-dimensional position of the workpiece in the downstream half of the container is calculated, and the upstream side in the container arranged at the workpiece removal position based on the images taken by the cameras A and B of the container at the workpiece removal position When calculating the three-dimensional position of the workpiece in the half, it is possible to reliably calculate the three-dimensional position of the workpiece in the container divided into the upstream half and the downstream half of the container.

本発明に係る立体視ロボットピッキング装置において、カメラBが2台あって、画像処理手段が、ワーク取出し位置にあるコンテナをカメラA及び一方のカメラBで撮像した各画像を基に、ワーク取出し位置に配置されたコンテナ内の上流側半分にあるワークの3次元位置を算出し、ワーク取出し位置にあるコンテナをカメラA及び他方のカメラBで撮像した各画像を基に、ワーク取出し位置に配置されたコンテナ内の下流側半分にあるワークの3次元位置を算出する場合、カメラA及び一方のカメラBで形成したステレオカメラと、カメラA及び他方のカメラBで形成したステレオカメラとによって、コンテナ内の全てのワークの3次元位置を確実に算出することができる。 In the stereoscopic robot picking apparatus according to the present invention, there are two cameras B, and the image processing means uses the camera A and one camera B to pick up the container at the workpiece extraction position and picks up the workpiece. The three-dimensional position of the work in the upstream half of the container placed in the container is calculated, and the container at the work take-out position is arranged at the work take-out position on the basis of the images taken by the camera A and the other camera B. When calculating the three-dimensional position of the workpiece in the downstream half of the container, the stereo camera formed by the camera A and one camera B and the stereo camera formed by the camera A and the other camera B The three-dimensional positions of all the workpieces can be reliably calculated.

本発明に係る立体視ロボットピッキング装置において、制御手段が、画像処理手段によって算出されたワークの3次元位置まで予め定められた間隔を有する位置を吸引部の配置目標位置として決定する場合には、ロボットの吸引部が、配置目標位置に配置された際に、ワークを吸引できない位置に配置されたり、ワークを押して破損させたりするのを防止することができる。 In the stereoscopic robot picking apparatus according to the present invention, when the control unit determines a position having a predetermined interval up to the three-dimensional position of the workpiece calculated by the image processing unit as the arrangement target position of the suction unit, When the suction part of the robot is placed at the placement target position, it can be prevented from being placed at a position where the work cannot be sucked or being damaged by pushing the work.

本発明に係る立体視ロボットピッキング装置、カメラA、Bの各撮像方向が平行であるので、カメラA、Bによって平行ステレオカメラを形成でき、ワークの3次元位置を算出する際の演算式の簡略化を図ることができる。 Stereoscopic robotic picking device according to the present invention, the camera A, because the imaging direction of B are parallel, camera A, the B can form parallel stereo camera, the arithmetic expression for calculating the three-dimensional position of the workpiece Simplification can be achieved.

本発明の一実施の形態に係る立体視ロボットピッキング装置の側面図である。1 is a side view of a stereoscopic robot picking apparatus according to an embodiment of the present invention. 同立体視ロボットピッキング装置に適用されるコンテナの配置を示す説明図である。It is explanatory drawing which shows arrangement | positioning of the container applied to the same stereoscopic robot picking apparatus. 同立体視ロボットピッキング装置のブロック図である。It is a block diagram of the same stereoscopic robot picking apparatus. (A)、(B)は、同立体視ロボットピッキング装置のカメラによるコンテナの撮像を示す説明図である。(A), (B) is explanatory drawing which shows the imaging of the container by the camera of the stereoscopic robot picking apparatus. (A)、(B)は、同立体視ロボットピッキング装置のカメラによるコンテナの撮像を示す説明図である。(A), (B) is explanatory drawing which shows the imaging of the container by the camera of the stereoscopic robot picking apparatus. ワークのZ座標の算出方法を示す説明図である。It is explanatory drawing which shows the calculation method of the Z coordinate of a workpiece | work. 同立体視ロボットピッキング装置の変形例の側面図である。It is a side view of the modification of the same stereoscopic robot picking apparatus.

続いて、添付した図面を参照しつつ、本発明を具体化した実施の形態につき説明し、本発明の理解に供する。
図1、図2に示すように、本発明の一実施の形態に係る立体視ロボットピッキング装置10は、ワーク(物品)12の仕分け現場等に設置され、コンテナ11内に収容された複数のワーク12を順次ロボット13によって別位置に移動する装置である。以下、詳細に説明する。
Next, embodiments of the present invention will be described with reference to the accompanying drawings for understanding of the present invention.
As shown in FIGS. 1 and 2, a stereoscopic robot picking device 10 according to an embodiment of the present invention is installed at a sorting site of workpieces (articles) 12 and is stored in a container 11. 12 is a device that sequentially moves 12 to another position by the robot 13. Details will be described below.

コンテナ11は、図2に示すように、ワーク12を収容するためのプラスチック製の容器であり上部が開口している。コンテナ11内には、縦横に配列された複数のワーク12が収容されている。
ワーク12は、本実施の形態において、食品(例えばパン)を袋詰めしたものであり、各ワーク12は食品の大きさや袋内の空気量のバラつき等によって、水平配置されたコンテナ11内に収容された状態で高さが不揃いである。
As shown in FIG. 2, the container 11 is a plastic container for accommodating the workpiece 12, and an upper portion is opened. In the container 11, a plurality of workpieces 12 arranged in the vertical and horizontal directions are accommodated.
In the present embodiment, the work 12 is a bag of food (for example, bread), and each work 12 is accommodated in a horizontally disposed container 11 depending on the size of the food or the variation in the amount of air in the bag. The height is uneven in the applied state.

立体視ロボットピッキング装置10は、図1に示すように、コンテナ11を送るベルトコンベア(移動手段の一例)14と、ベルトコンベア14上のコンテナ11を撮像する1台のカメラ15(カメラA)及び1台のカメラ16(カメラB)と、ワーク12を保持するロボット13を有している。
ロボット13には、ワーク12を吸着保持する吸引部17(本実施の形態では、真空パッド)が設けられており、ロボット13は、コンテナ11内に収容されているワーク12を吸引部17で吸着保持して別位置にあるコンテナに収容する。
As shown in FIG. 1, the stereoscopic robot picking apparatus 10 includes a belt conveyor (an example of a moving unit) 14 that sends a container 11, a camera 15 (camera A) that images the container 11 on the belt conveyor 14, and One camera 16 (camera B) and a robot 13 that holds the workpiece 12 are provided.
The robot 13 is provided with a suction unit 17 (in this embodiment, a vacuum pad) that sucks and holds the workpiece 12. The robot 13 sucks the workpiece 12 contained in the container 11 with the suction unit 17. Hold it and store it in another container.

ワーク12の収容先であるコンテナには、収容すべきワーク12の個数が予め定められている。ロボット13はその定められた個数のワーク12をコンテナに収容する。
ロボット13はベルトコンベア14の上方で支持フレーム21に固定されたパラレルリンクロボットであり、予め定められた範囲内で吸引部17を所望の位置に配置することができる。
The number of the workpieces 12 to be accommodated in the container that is the accommodation destination of the workpieces 12 is determined in advance. The robot 13 accommodates the determined number of workpieces 12 in a container.
The robot 13 is a parallel link robot fixed to the support frame 21 above the belt conveyor 14, and the suction unit 17 can be disposed at a desired position within a predetermined range.

ベルトコンベア14は1回の作動によりベルトコンベア14上に載せられた複数のコンテナ11を所定ピッチ移動させることができ、その移動ピッチP(図2参照)は設定によって変更可能である。
ベルトコンベア14はコンテナ11を間欠的に移動ピッチP(所定ピッチ)移動させて、ロボット13の吸引部17がコンテナ11内に収容されたワーク12を吸着保持可能なワーク取出し位置18まで各コンテナ11を順次送る。
The belt conveyor 14 can move a plurality of containers 11 placed on the belt conveyor 14 by a predetermined operation, and the movement pitch P (see FIG. 2) can be changed by setting.
The belt conveyor 14 intermittently moves the containers 11 by a movement pitch P (predetermined pitch), and each container 11 reaches the workpiece take-out position 18 where the suction portion 17 of the robot 13 can hold the workpiece 12 accommodated in the container 11 by suction. Are sent sequentially.

ベルトコンベア14は、サーボモータ19(図3参照)を備えており、サーボモータ19を所定数回転することによってベルトコンベア14上のコンテナ11を移動ピッチPだけ正確に移動させることができる。
ベルトコンベア14上の複数のコンテナ11は、図2に示すように、移動ピッチPと同ピッチで配置されており、隣り合うコンテナ11にはそれぞれ長さDの間隔が設けられている。各コンテナ11は、サーボモータ19の駆動と停止の繰り返しによって、順次ワーク取出し位置18で停止し、ロボット13によって必要数のワーク12が取出された後に、ワーク取出し位置18から移動する。
The belt conveyor 14 includes a servo motor 19 (see FIG. 3), and the container 11 on the belt conveyor 14 can be accurately moved by the movement pitch P by rotating the servo motor 19 a predetermined number of times.
As shown in FIG. 2, the plurality of containers 11 on the belt conveyor 14 are arranged at the same pitch as the movement pitch P, and the adjacent containers 11 are each provided with an interval of length D. Each container 11 is sequentially stopped at the workpiece removal position 18 by repeatedly driving and stopping the servo motor 19, and after the necessary number of workpieces 12 are removed by the robot 13, each container 11 moves from the workpiece removal position 18.

カメラ15、16は、支持フレーム21に固定部材22を介して取り付けられ、ベルトコンベア14の上方でコンテナ11の移動方向に沿って配置されている。カメラ15、16の各撮像方向は実質的に平行に保たれており、カメラ15、16は上方からコンテナ11とコンテナ11内にあるワーク12を撮像する。
カメラ15、16は実質的に同一高さに設けられ、カメラ15はワーク取出し位置18にあるコンテナ11全体を撮像可能な位置に配置され、カメラ16はワーク取出し位置18にあるコンテナ11を部分的に撮像可能な位置に配置されている。また、カメラ15、16は同仕様のカメラであり、画素数、視野角、焦点距離等が同一である。
The cameras 15 and 16 are attached to the support frame 21 via a fixing member 22 and are arranged above the belt conveyor 14 along the moving direction of the container 11. The imaging directions of the cameras 15 and 16 are kept substantially parallel, and the cameras 15 and 16 image the container 11 and the workpiece 12 in the container 11 from above.
The cameras 15 and 16 are provided at substantially the same height, the camera 15 is disposed at a position where the entire container 11 at the workpiece removal position 18 can be imaged, and the camera 16 partially moves the container 11 at the workpiece removal position 18. It is arranged at a position where it can be imaged. The cameras 15 and 16 have the same specifications, and have the same number of pixels, viewing angle, focal length, and the like.

カメラ15、16には、図3に示すように、カメラ15、16で撮像した各画像中のワーク12の2次元位置からワーク12の3次元位置を算出する画像処理手段23が信号接続されている。
画像処理手段23は、カメラ15、16からカメラ15、16が撮像した各画像をそれぞれ取得して、パターンマッチングによって各画像中に存在しているワーク12を検出し、各画像中でのワーク12の2次元位置を算出(検知)する。画像処理手段23は、各種ワークごとに各ワークに印字されている文字や図柄等をマッチング用のサンプルとして記憶しており、カメラ15、16によって撮像された各画像に対しマッチング用のサンプルを基にしたワークの検出処理を行う。
画像処理手段23は、マイクロコンピュータ、メモリー及びROM等によって構成され、ROMにはワーク12の3次元位置を算出するためのプログラム等が格納されている。
As shown in FIG. 3, image processing means 23 for calculating the three-dimensional position of the workpiece 12 from the two-dimensional position of the workpiece 12 in each image captured by the cameras 15 and 16 is signal-connected to the cameras 15 and 16. Yes.
The image processing means 23 acquires each image captured by the cameras 15 and 16 from the cameras 15 and 16, detects the workpiece 12 existing in each image by pattern matching, and detects the workpiece 12 in each image. Is calculated (detected). The image processing means 23 stores characters, designs, and the like printed on each workpiece for each type of workpiece as matching samples. Based on the matching samples for each image captured by the cameras 15 and 16. Performs the detection process of the selected workpiece.
The image processing unit 23 includes a microcomputer, a memory, a ROM, and the like, and a program for calculating the three-dimensional position of the work 12 is stored in the ROM.

また、画像処理手段23には、サーボモータ19及びロボット13に指令信号を送信して動作制御を行う制御手段24が信号接続されている。
制御手段24は、サーボモータ19に停止用の指令信号を送信してベルトコンベア14を停止させ、画像処理手段23に指令信号を送信してカメラ15、16に停止中のコンテナ11を撮像させる。
制御手段24は、画像処理手段23にカメラ15、16によって撮像された画像に基づいてコンテナ11内のワーク12の3次元位置を算出させ、ロボット13にワーク取出し位置18にあるコンテナ11に収容されているワーク12を順次、収容先のコンテナ内に移動させる。そして、ワーク取出し位置18にあるコンテナ11から必要数のワーク12を取出した後、制御手段24は、作動用の指令信号をサーボモータ19に送信して、ベルトコンベア14上のコンテナ11を移動ピッチPだけ移動させる。
The image processing means 23 is signal-connected to a control means 24 that transmits a command signal to the servo motor 19 and the robot 13 to perform operation control.
The control unit 24 transmits a stop command signal to the servo motor 19 to stop the belt conveyor 14, and transmits a command signal to the image processing unit 23 to cause the cameras 15 and 16 to image the stopped container 11.
The control unit 24 causes the image processing unit 23 to calculate the three-dimensional position of the workpiece 12 in the container 11 based on the images captured by the cameras 15 and 16, and the robot 13 is accommodated in the container 11 at the workpiece extraction position 18. The workpieces 12 are sequentially moved into the container of the accommodation destination. Then, after taking out the necessary number of works 12 from the container 11 at the work take-out position 18, the control means 24 sends an operation command signal to the servo motor 19 to move the containers 11 on the belt conveyor 14 to the moving pitch. Move only P.

カメラ16は、図1に示すように、コンテナ11の移動方向に沿ってカメラ15の上流側に設けられ、ワーク取出し位置18よりコンテナ11の移動ピッチP分上流側にあるコンテナ11の少なくとも下流側半分を撮像可能な位置に配置されている。
以下、ワーク取出し位置18よりコンテナの移動ピッチP分上流側にあるコンテナ11の位置を取出し手前位置25ともいう。
As shown in FIG. 1, the camera 16 is provided on the upstream side of the camera 15 along the moving direction of the container 11, and at least the downstream side of the container 11 that is upstream of the workpiece removal position 18 by the moving pitch P of the container 11. It is arranged at a position where half can be imaged.
Hereinafter, the position of the container 11 that is upstream of the workpiece removal position 18 by the container movement pitch P is also referred to as a front position 25.

また、カメラ16の配置位置は、カメラ16がワーク取出し位置18にあるコンテナ11の少なくとも上流側半分を撮像可能な位置でもある。
従って、カメラ16は、1つの画面中に取出し手前位置25にあるコンテナ11の少なくとも下流側半分とワーク取出し位置18にあるコンテナ11の少なくとも上流側半分を撮像することができる。
In addition, the arrangement position of the camera 16 is also a position where the camera 16 can image at least the upstream half of the container 11 at the workpiece removal position 18.
Therefore, the camera 16 can image at least the downstream half of the container 11 at the unloading position 25 and at least the upstream half of the container 11 at the workpiece unloading position 18 in one screen.

画像処理手段23は、取出し手前位置25にあったコンテナ11をカメラ16によって撮像した画像と、その後に移動ピッチP移動しワーク取出し位置18に配置された同じコンテナ11(即ち取出し手前位置25でカメラ16によって撮像されたコンテナ11)をカメラ15によって撮像した画像を基にして、ワーク取出し位置18に配置されたコンテナ11内の、下流側半分にあるワーク12の3次元位置を算出する。
そして、画像処理手段23は、ワーク取出し位置18にあるコンテナ11をカメラ15、16で撮像した各画像を基にしてワーク取出し位置18に配置されたコンテナ11内の上流側半分にあるワーク12の3次元位置を算出する。
The image processing means 23 captures the image of the container 11 that has been in the position 25 before the take-out by the camera 16 and the same container 11 that is subsequently moved by the moving pitch P and is located at the work take-out position 18 (that is, the camera at the position 25 before the take-out). The three-dimensional position of the work 12 in the downstream half of the container 11 placed at the work pick-up position 18 is calculated based on the image picked up by the camera 15 with the container 11) picked up by the camera 16.
Then, the image processing means 23 selects the workpiece 12 in the upstream half of the container 11 disposed at the workpiece removal position 18 based on the images obtained by capturing the container 11 at the workpiece removal position 18 with the cameras 15 and 16. A three-dimensional position is calculated.

以下、ベルトコンベア14によるコンテナ11の移動方向にY軸をとり、垂直(鉛直)方向にZ軸をとり、Y軸及びZ軸に対して直交する方向にX軸をとって、ワーク12の3次元位置の算出方法を説明する。
カメラ15、16は、撮像中心方向がZ軸に沿い、かつ、カメラ15、16によって撮像される各画像の左右方向及び上下方向が、それぞれX軸及びY軸に沿う(図4、図5参照)ように向きが調整されている。
なお、ベルトコンベア14上のコンテナ11は、Y軸のマイナス向きに移動する(図1、図2参照)。
Hereinafter, the Y axis is taken in the moving direction of the container 11 by the belt conveyor 14, the Z axis is taken in the vertical (vertical) direction, and the X axis is taken in the direction perpendicular to the Y axis and the Z axis. A method for calculating the dimension position will be described.
In the cameras 15 and 16, the imaging center direction is along the Z axis, and the horizontal and vertical directions of the images captured by the cameras 15 and 16 are along the X axis and the Y axis, respectively (see FIGS. 4 and 5). ) The orientation is adjusted as follows.
The container 11 on the belt conveyor 14 moves in the negative direction of the Y axis (see FIGS. 1 and 2).

画像処理手段23は、カメラ15によって撮像した画像中のワーク12の平面位置(即ち2次元位置)から、ワーク取出し位置18にあるコンテナ11内の各ワーク12のXY座標を算出し、カメラ15、16によって撮像された2つの画像からワーク取出し位置18にあるコンテナ11内の各ワーク12のZ座標を算出する。
従来、ワークのZ座標は、対となるカメラでワークを撮像した画像を基に算出可能であることが知られており、その算出式は式1に示す通りである。
Z=(S×R)/△Y(式1)
The image processing means 23 calculates the XY coordinates of each workpiece 12 in the container 11 at the workpiece removal position 18 from the plane position (that is, the two-dimensional position) of the workpiece 12 in the image captured by the camera 15, The Z coordinate of each workpiece 12 in the container 11 at the workpiece pick-up position 18 is calculated from the two images picked up by 16.
Conventionally, it has been known that the Z coordinate of a workpiece can be calculated based on an image obtained by imaging the workpiece with a pair of cameras.
Z = (S × R) / ΔY (Formula 1)

Sは対となるカメラの各光学中心間の距離、Rは対となるカメラの焦点距離、△Yは視差である。
本実施の形態では、図6に示すように、対となるカメラ15、16の光学中心間の距離はs1である。
焦点距離は、カメラモデルにおいて光学中心とカメラが撮像する画像間の距離であり、カメラ15、16は焦点距離が等しく共にr1である。
視差は、対となるカメラで同一のワークを撮像した際に、一方のカメラの画像中におけるそのワークの位置と他方のカメラの画像中におけるそのワークの位置の差である。本実施の形態では、カメラ15、16によって平行ステレオカメラが構成されており、カメラ15、16によって撮像された同一のワーク12は、各画像中でのX座標が等しい。従って、カメラ15、16の各画像中でのY座標の差が視差になる。
S is the distance between the optical centers of the paired cameras, R is the focal length of the paired cameras, and ΔY is the parallax.
In the present embodiment, as shown in FIG. 6, the distance between the optical centers of the paired cameras 15 and 16 is s1.
The focal length is the distance between the optical center and the image captured by the camera in the camera model, and the cameras 15 and 16 have the same focal length and are both r1.
The parallax is the difference between the position of the work in the image of one camera and the position of the work in the image of the other camera when the same work is imaged by a pair of cameras. In this embodiment, a parallel stereo camera is configured by the cameras 15 and 16, and the same workpiece 12 imaged by the cameras 15 and 16 has the same X coordinate in each image. Therefore, the difference in the Y coordinate in each image of the cameras 15 and 16 becomes the parallax.

カメラ15、16はベルトコンベア14が停止中に撮像を行い、カメラ15は、図4(A)に示すようにコンテナ11全体を撮像し、カメラ16は、図4(B)に示すようにワーク取出し位置18にあるコンテナ11の上流側半分と取出し手前位置25にあるコンテナ11の下流側半分を撮像する。
画像処理手段23は、カメラ15の画像中における各ワーク12の平面位置から、ワーク取出し位置18にあるコンテナ11内の全てのワーク12についてXY座標を算出する。
The cameras 15 and 16 take an image while the belt conveyor 14 is stopped, the camera 15 takes an image of the entire container 11 as shown in FIG. 4 (A), and the camera 16 works as shown in FIG. 4 (B). The upstream half of the container 11 at the take-out position 18 and the downstream half of the container 11 at the take-out front position 25 are imaged.
The image processing means 23 calculates XY coordinates for all the workpieces 12 in the container 11 at the workpiece removal position 18 from the planar position of each workpiece 12 in the image of the camera 15.

また、画像処理手段23は、ワーク取出し位置18にあるコンテナ11の上流側半分に収容されているワーク12とワーク取出し位置18にあるコンテナ11の下流側半分に収容されているワーク12に分けて、ワーク12のZ座標を算出する。
同じタイミング(即ちベルトコンベア14が停止してから作動するまでの間のタイミング)で撮像されたカメラ15、16の各画像には共に、図4(A)、(B)に示すようにワーク取出し位置18にあるコンテナ11の上流側半分に収容されたワーク12が全て映っている。画像処理手段23は、コンテナ11の上流側半分に収容された全てのワーク12について、カメラ15の画像中の平面位置とカメラ16の画像中の平面位置とを基に視差を求める。そして、画像処理手段23は、この求めた視差とS=s1、R=r1を式1に代入してワーク取出し位置18にあるコンテナ11の上流側半分に収容されたワーク12全てについてZ座標を算出する。
The image processing means 23 is divided into a work 12 accommodated in the upstream half of the container 11 at the work removal position 18 and a work 12 accommodated in the downstream half of the container 11 at the work removal position 18. The Z coordinate of the workpiece 12 is calculated.
As shown in FIGS. 4 (A) and 4 (B), each of the images of the cameras 15 and 16 taken at the same timing (that is, the timing from when the belt conveyor 14 is stopped until it is activated) All the workpieces 12 accommodated in the upstream half of the container 11 at position 18 are shown. The image processing unit 23 obtains the parallax for all the workpieces 12 accommodated in the upstream half of the container 11 based on the plane position in the image of the camera 15 and the plane position in the image of the camera 16. Then, the image processing means 23 substitutes the obtained parallax, S = s1, and R = r1 into Equation 1 to obtain the Z coordinate for all the workpieces 12 accommodated in the upstream half of the container 11 at the workpiece removal position 18. calculate.

ワーク取出し位置18にあるコンテナ11の下流側半分に収容されたワーク12は、図5(A)に示すカメラ15で撮像した最新の画像とワーク取出し位置18にあるコンテナ11が取出し手前位置25に停止していた際(以下、「1つ前のタイミング」ともいう)にカメラ16で撮像した図5(B)に示す画像に映っている。
このため画像処理手段23は、カメラ15の最新の画像とカメラ16が1つ前のタイミングで撮像した画像を用いて、各画像中におけるワーク12の平面位置から、コンテナ11の下流側半分にあるワーク12それぞれについて視差を求める。そして、画像処理手段23は、この求めた視差を基に式1によってワーク取出し位置18にあるコンテナ11の下流側半分に収容されたワーク12のZ座標を算出する。
The workpiece 12 accommodated in the downstream half of the container 11 at the workpiece removal position 18 includes the latest image captured by the camera 15 shown in FIG. 5A and the container 11 at the workpiece removal position 18 at the position 25 before the removal. The image shown in FIG. 5B captured by the camera 16 when stopped (hereinafter also referred to as “previous timing”).
Therefore, the image processing means 23 is in the downstream half of the container 11 from the planar position of the workpiece 12 in each image using the latest image of the camera 15 and the image captured by the camera 16 at the previous timing. The parallax is obtained for each workpiece 12. Then, the image processing unit 23 calculates the Z coordinate of the workpiece 12 accommodated in the downstream half of the container 11 at the workpiece removal position 18 according to Equation 1 based on the obtained parallax.

このとき、式1のRにはr1が代入され、SにはP−s1が代入される(Pはコンテナ11の移動ピッチ)。Sにs1ではなく、P−s1を代入するのは、取出し手前位置25でカメラ16によって撮像されたコンテナ11がワーク取出し位置18に移動してカメラ15で撮像されるためである。本実施の形態では、カメラ15、16の光学中心間の距離s1がコンテナ11の移動ピッチPの半分(即ちP=2×s1)になる位置に、カメラ15、16を配置しており、結局のところSにはs1が代入される。 At this time, r1 is substituted for R in Equation 1, and P-s1 is substituted for S (P is the movement pitch of the container 11). The reason why P-s1 is substituted for S instead of s1 is that the container 11 picked up by the camera 16 at the position 25 before the pick-up moves to the work pick-up position 18 and is picked up by the camera 15. In the present embodiment, the cameras 15 and 16 are arranged at a position where the distance s1 between the optical centers of the cameras 15 and 16 is half the movement pitch P of the container 11 (that is, P = 2 × s1). However, s1 is substituted for S.

また、ワーク12の視差を求める際、画像処理手段23は、カメラ15によって撮像された複数のワーク12とカメラ16によって撮像された複数のワーク12について、ワーク12ごとに対応付け、即ち同一のワーク12の特定が必要となる。
このワーク12の対応付けは、カメラ15、16の各画像中におけるワーク12の平面位置を基にして行われる。例えば、図4(B)に示すカメラ16の画像中で”W1”を付したワーク12は、その画像中での位置から、図4(A)に示すカメラ15の画面中で”W1”を付したワーク12であるという対応付けが可能である。また、1つ前のタイミングでカメラ16によって撮像された図5(B)に示す”W2”を付したワーク12は、その画像中での平面位置から、カメラ15の最新の画面中で図5(A)に示す”W2”を付したワーク12であるという対応付けができる。
When obtaining the parallax of the workpiece 12, the image processing means 23 associates the plurality of workpieces 12 captured by the camera 15 and the plurality of workpieces 12 captured by the camera 16 for each workpiece 12, that is, the same workpiece. 12 identifications are required.
The association of the work 12 is performed based on the planar position of the work 12 in the images of the cameras 15 and 16. For example, the workpiece 12 given “W1” in the image of the camera 16 shown in FIG. 4B shows “W1” in the screen of the camera 15 shown in FIG. 4A from the position in the image. Correspondence that the workpiece 12 is attached is possible. Further, the work 12 with “W2” shown in FIG. 5B captured by the camera 16 at the previous timing is displayed in the latest screen of the camera 15 from the plane position in the image. Correspondence can be made that the workpiece 12 is given “W2” shown in FIG.

ここで、カメラ15、16からベルトコンベア14上のコンテナ11までの距離に着目すると、その距離を短くすれば、カメラ15、16の各画像中に映るワーク12の大きさは大きくなって、パターンマッチングによるワーク12の検出精度が上昇することになる。
そこで、ワーク12の3次元位置を算出するアルゴリズムを変えず、カメラ15、16を同一高さに配置するという前提で、カメラ15、16とベルトコンベア14上のコンテナ11の距離を最も近くする条件について考えると、以下に示す条件となる。
(1)カメラ15の撮像中心をワーク取出し位置18にあるコンテナ11の中心に配置する。
(2)カメラ16の撮像中心をワーク取出し位置18にあるコンテナ11と取出し手前位置25にあるコンテナ11の中間点に配置する。
(3)上記(1)、(2)の条件を満たした上で、カメラ15がワーク取出し位置18にあるコンテナ11全体を撮像可能で、しかもカメラ16がワーク取出し位置18にあるコンテナ11の上流側半分及び取出し手前位置25にあるコンテナ11の下流側半分を撮像可能な高さに、カメラ15、16をそれぞれ配置する。
Here, paying attention to the distance from the cameras 15 and 16 to the container 11 on the belt conveyor 14, if the distance is shortened, the size of the work 12 reflected in each image of the cameras 15 and 16 increases, and the pattern The detection accuracy of the workpiece 12 by matching is increased.
Therefore, on the premise that the cameras 15 and 16 are arranged at the same height without changing the algorithm for calculating the three-dimensional position of the workpiece 12, a condition for making the distance between the cameras 15 and 16 and the container 11 on the belt conveyor 14 closest to each other. The following conditions are satisfied.
(1) The imaging center of the camera 15 is arranged at the center of the container 11 at the workpiece take-out position 18.
(2) The imaging center of the camera 16 is arranged at an intermediate point between the container 11 at the workpiece take-out position 18 and the container 11 at the take-out front position 25.
(3) After satisfying the above conditions (1) and (2), the camera 15 can image the entire container 11 at the workpiece removal position 18 and the camera 16 is upstream of the container 11 at the workpiece removal position 18. The cameras 15 and 16 are respectively arranged at heights at which the side half and the downstream half of the container 11 located at the front position 25 can be imaged.

また、画像処理手段23は、ワーク取出し位置18にあるコンテナ11内に収容された各ワーク12の3次元位置をそれぞれ算出した後、その算出結果を制御手段24に送信する。
制御手段24は、画像処理手段23が算出した各ワーク12の3次元位置を基にして、ワーク12ごとにロボット13が吸引部17によってワーク12を吸着保持可能な吸引部17の配置目標位置(以下、「吸引部配置目標位置」ともいう)を決定する。
そして、制御手段24は、ロボット13を動かしてロボット13の吸引部17を一のワーク12に対応する吸引部配置目標位置に配置し、吸引部17に吸引を行わせてそのワーク12を吸着保持させ、収容先のコンテナに移動する。このようにして、コンテナ11内のワーク12は順次収容先のコンテナに移動される。
Further, the image processing means 23 calculates the three-dimensional position of each work 12 accommodated in the container 11 at the work removal position 18, and transmits the calculation result to the control means 24.
Based on the three-dimensional position of each workpiece 12 calculated by the image processing unit 23, the control unit 24 sets the target position of the suction unit 17 (at which the robot 13 can suck and hold the workpiece 12 by the suction unit 17 for each workpiece 12 ( Hereinafter, it is also referred to as “suction part arrangement target position”.
Then, the control unit 24 moves the robot 13 to place the suction part 17 of the robot 13 at the suction part placement target position corresponding to the one work 12 and causes the suction part 17 to perform suction to hold the work 12 by suction. And move to the container of the accommodation destination. In this way, the workpieces 12 in the container 11 are sequentially moved to the accommodation destination container.

本実施の形態では、画像処理手段23によって算出されたワーク12の3次元位置に対して上方(真上)に予め定められた間隔を有する位置を吸引部配置目標位置としている。ロボット13の吸引部17は、吸引部配置目標位置に配置され、吸引を行ってワーク12を吸着保持する。このようにワーク12まで間隔を有する位置を吸引部配置目標位置にすることによって、ロボット13の吸引部17が吸引を行う際にワーク12を押さえ付けて破損等するのを回避できる。
吸引部配置目標位置はワークの上方位置に限定されず、吸引を行う際のワークに対するロボットの吸着部の位置に応じて決定することができる。例えば、ロボットの吸引部がワークを斜め上から吸引する場合、画像処理手段が算出したワークの3次元位置に対し、斜め上の方向に予め定められた間隔を有する位置が吸引部配置目標位置となる。
なお、制御手段24は、マイクロコンピュータ、メモリー及びROM等によって構成され、ROMには吸引部配置目標位置を決定するためのプログラム等が格納されている。
In the present embodiment, a position having a predetermined interval above (directly above) the three-dimensional position of the workpiece 12 calculated by the image processing means 23 is set as the suction portion arrangement target position. The suction unit 17 of the robot 13 is disposed at a suction unit placement target position, and performs suction to hold the workpiece 12 by suction. Thus, by setting the position having a space to the workpiece 12 as the suction portion arrangement target position, it is possible to avoid the workpiece 12 from being pressed and damaged when the suction portion 17 of the robot 13 performs the suction.
The suction unit placement target position is not limited to the upper position of the workpiece, but can be determined according to the position of the suction unit of the robot with respect to the workpiece during suction. For example, when the suction part of the robot sucks the work from diagonally above, a position having a predetermined interval in the diagonally upward direction with respect to the three-dimensional position of the work calculated by the image processing means is the suction part placement target position. Become.
The control means 24 is constituted by a microcomputer, a memory, a ROM, and the like, and the ROM stores a program for determining the suction portion arrangement target position.

以上、2台のカメラを有する立体視ロボットピッキング装置10について説明したが、カメラを3台用いてコンテナ11内のワーク12の3次元位置を検出し、吸引部配置目標位置を決定することもできる。
立体視ロボットピッキング装置10の変形例である立体視ロボットピッキング装置10aは、図7に示すように、3台のカメラ15、16a、16b(即ち、1台のカメラAと2台のカメラB)を備えている。立体視ロボットピッキング装置10aは、主としてカメラ数が多い点及びワーク12のZ座標の算出に用いる画像が異なる点で立体視ロボットピッキング装置10と相違するが、その他の多くの点において立体視ロボットピッキング装置10と同じである。
なお、立体視ロボットピッキング装置10と同一の構成要素については同一の符号を付して詳しい説明を省略する。
The stereoscopic robot picking apparatus 10 having two cameras has been described above. However, the three-dimensional position of the workpiece 12 in the container 11 can be detected using three cameras, and the suction unit placement target position can be determined. .
As shown in FIG. 7, a stereoscopic robot picking apparatus 10a, which is a modification of the stereoscopic robot picking apparatus 10, includes three cameras 15, 16a, and 16b (that is, one camera A and two cameras B). It has. The stereoscopic robot picking apparatus 10a differs from the stereoscopic robot picking apparatus 10 mainly in that the number of cameras is large and the image used for calculating the Z coordinate of the workpiece 12 is different, but in many other respects the stereoscopic robot picking apparatus 10a. Same as device 10.
Note that the same components as those of the stereoscopic robot picking apparatus 10 are denoted by the same reference numerals, and detailed description thereof is omitted.

カメラ16a(一方のカメラB)及びカメラ16b(他方のカメラB)は、撮像中心方向がカメラ15の撮像中心方向と実質的に平行であり、ワーク取出し位置18にあるコンテナ11を部分的に撮像する。
カメラ16a、15、16bは、固定部材22aを介して支持フレーム21に実質的に同じ高さ位置で取り付けられ、コンテナ11の移動方向に沿って順に配置されている。カメラ16a、15、16bは同一仕様のカメラである。
カメラ16aは、ワーク取出し位置18にあるコンテナ11の少なくとも上流側半分を撮像可能な位置に配置され、カメラ16bはワーク取出し位置18にあるコンテナ11の少なくとも下流側半分を撮像可能な位置に配置されている。
The camera 16a (one camera B) and the camera 16b (the other camera B) partially image the container 11 in which the imaging center direction is substantially parallel to the imaging center direction of the camera 15 and at the workpiece pick-up position 18. To do.
The cameras 16 a, 15, and 16 b are attached to the support frame 21 through the fixing member 22 a at substantially the same height position, and are sequentially arranged along the moving direction of the container 11. The cameras 16a, 15 and 16b are cameras having the same specifications.
The camera 16a is disposed at a position where at least the upstream half of the container 11 at the workpiece removal position 18 can be imaged, and the camera 16b is disposed at a position where at least the downstream half of the container 11 at the workpiece removal position 18 can be imaged. ing.

カメラ15、16a、16bは画像処理手段に信号接続されており、その画像処理手段は、ワーク取出し位置18にあるコンテナ11をカメラ15及びカメラ16aで撮像した各画像を基に、ワーク取出し位置18に配置されたコンテナ11内の上流側半分にあるワーク12の3次元位置を算出する。
また、画像処理手段は、ワーク取出し位置18にあるコンテナ11をカメラ15及びカメラ16bで撮像した各画像を基に、ワーク取出し位置18に配置されたコンテナ11内の下流側半分にあるワーク12の3次元位置を算出する。
The cameras 15, 16a, and 16b are signal-connected to the image processing means. The image processing means is based on the images obtained by capturing the container 11 at the work removal position 18 with the camera 15 and the camera 16a, and the work removal position 18 is used. The three-dimensional position of the workpiece 12 in the upstream half in the container 11 arranged at is calculated.
Further, the image processing means, based on each image obtained by capturing the container 11 at the workpiece removal position 18 with the camera 15 and the camera 16b, the workpiece 12 in the downstream half of the container 11 disposed at the workpiece removal position 18. A three-dimensional position is calculated.

カメラ15、16aの光学中心間の距離をs1’、カメラ15、16bの光学中心間の距離をs2’とすると、コンテナ11内の上流側半分にあるワーク12のZ座標は、カメラ15、16aの各画像中のワーク12の視差とS=s1’、R=r1を式1に代入することによって算出される。なお、カメラ16a、16bの焦点距離はカメラ15と同じr1である。
また、コンテナ11内の下流側半分にあるワーク12のZ座標は、カメラ15、16bの各画像中のワーク12の視差とS=s2’、R=r1を式1に代入することによって算出できる。
カメラ15、16aの光学中心間の距離s1’及びカメラ15、16bの光学中心間の距離s2’を同値(s1’=s2’)にすることによって、式1のSが1つの値になり演算処理の設計等の簡略化を図ることができる。
Assuming that the distance between the optical centers of the cameras 15 and 16a is s1 'and the distance between the optical centers of the cameras 15 and 16b is s2', the Z coordinate of the workpiece 12 in the upstream half in the container 11 is the camera 15, 16a. Is calculated by substituting the parallax of the workpiece 12 in each image, S = s1 ′, and R = r1 into Equation 1. The focal lengths of the cameras 16a and 16b are the same r1 as that of the camera 15.
Further, the Z coordinate of the workpiece 12 in the downstream half of the container 11 can be calculated by substituting the parallax of the workpiece 12 in each image of the cameras 15 and 16b, S = s2 ′, and R = r1 into Equation 1. .
By setting the distance s1 ′ between the optical centers of the cameras 15 and 16a and the distance s2 ′ between the optical centers of the cameras 15 and 16b to the same value (s1 ′ = s2 ′), S in Expression 1 becomes one value and is calculated. Simplification of processing design and the like can be achieved.

以上、本発明の実施の形態を説明したが、本発明は、上記した形態に限定されるものでなく、要旨を逸脱しない条件の変更等は全て本発明の適用範囲である。
例えば、ロボットは、パラレルリンクロボットに限定されず、パラレルリンクロボット以外のロボット、例えば多関節ロボット等を用いることが可能である。
また、ワークの3次元位置を検出するために用いられる複数のカメラ(カメラAとカメラB)の配置関係は、ワークの3次元位置を検出できれば、平行ステレオカメラを形成する配置でなくてもよい。
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and all changes in conditions and the like that do not depart from the gist are within the scope of the present invention.
For example, the robot is not limited to the parallel link robot, and a robot other than the parallel link robot, for example, an articulated robot can be used.
In addition, the arrangement relationship between the plurality of cameras (camera A and camera B) used for detecting the three-dimensional position of the workpiece may not be an arrangement that forms a parallel stereo camera as long as the three-dimensional position of the workpiece can be detected. .

10、10a:立体視ロボットピッキング装置、11:コンテナ、12:ワーク、13:ロボット、14:ベルトコンベア、15、16、16a、16b:カメラ、17:吸引部、18:ワーク取出し位置、19:サーボモータ、21:支持フレーム、22、22a:固定部材、23:画像処理手段、24:制御手段、25:取出し手前位置 10, 10a: Stereoscopic robot picking device, 11: Container, 12: Workpiece, 13: Robot, 14: Belt conveyor, 15, 16, 16a, 16b: Camera, 17: Suction unit, 18: Work picking position, 19: Servo motor, 21: support frame, 22, 22a: fixing member, 23: image processing means, 24: control means, 25: position before taking out

Claims (4)

コンテナ内に収容されたワークを順次ロボットによって別位置に移動する立体視ロボットピッキング装置において、
前記ワークを吸着保持する吸引部が設けられた前記ロボットと、
前記コンテナを所定ピッチ移動させて、前記吸引部が該コンテナ内に収容された前記ワークを吸着保持可能なワーク取出し位置まで該コンテナを送る移動手段と、
前記ワーク取出し位置にある前記コンテナ全体を撮像する1台のカメラAと、
前記ワーク取出し位置にある前記コンテナを部分的に撮像する1台又は2台のカメラBと、
前記カメラA、Bで撮像した各画像中の前記ワークの2次元位置から該ワークの3次元位置を算出する画像処理手段と、
前記画像処理手段で算出した前記ワークの3次元位置を基に前記吸引部の配置目標位置を決定し、前記ロボットを動かして前記ワークを吸着保持させる制御手段とを有し、
前記カメラA、Bは、前記コンテナの移動方向に沿って配置され、前記カメラA、Bの各撮像方向は平行であり、前記画像処理手段は、前記カメラA、Bが撮像した各画像中での前記ワークをパターンマッチングによって検出して、前記カメラA、Bにより撮像された該ワークの各画像中の2次元位置を算出することを特徴とする立体視ロボットピッキング装置。
In a stereoscopic robot picking apparatus that sequentially moves workpieces contained in a container to different positions by a robot,
The robot provided with a suction unit for sucking and holding the workpiece;
Moving means for moving the container by a predetermined pitch, and sending the container to a work take-out position where the suction part can suck and hold the work housed in the container;
One camera A that images the entire container at the workpiece removal position;
One or two cameras B that partially image the container at the workpiece removal position;
Image processing means for calculating the three-dimensional position of the workpiece from the two-dimensional position of the workpiece in each image captured by the cameras A and B;
Control means for determining an arrangement target position of the suction unit based on the three-dimensional position of the work calculated by the image processing means, and moving the robot to suck and hold the work;
The cameras A and B are arranged along the moving direction of the container, the imaging directions of the cameras A and B are parallel, and the image processing means is in each image captured by the cameras A and B. A stereoscopic robot picking apparatus, wherein the workpiece is detected by pattern matching and a two-dimensional position in each image of the workpiece imaged by the cameras A and B is calculated.
請求項1記載の立体視ロボットピッキング装置において、前記カメラBは、1台であって、前記コンテナの移動方向に沿って前記ワーク取出し位置より前記コンテナの移動ピッチ分上流側にある前記コンテナの、少なくとも下流側半分を撮像可能で、かつ、前記ワーク取出し位置にある前記コンテナの、少なくとも上流側半分を撮像可能な位置に配置され、
前記画像処理手段は、前記コンテナの移動方向に沿って前記ワーク取出し位置より前記コンテナの移動ピッチ上流側にあった前記コンテナを前記カメラBによって撮像した画像と前記ワーク取出し位置にある該コンテナを前記カメラAによって撮像した画像を基に、前記ワーク取出し位置に配置された前記コンテナ内の、下流側半分にある前記ワークの3次元位置を算出し、前記ワーク取出し位置にある該コンテナを前記カメラA、Bで撮像した各画像を基に、前記ワーク取出し位置に配置された前記コンテナ内の、上流側半分にある前記ワークの3次元位置を算出することを特徴とする立体視ロボットピッキング装置。
The stereoscopic robot picking apparatus according to claim 1, wherein the camera B is a single unit, and the container B is located upstream of the work removal position by the moving pitch of the container along the moving direction of the container. It is arranged at a position where at least the downstream half can be imaged, and at least the upstream half of the container at the work removal position can be imaged,
The image processing means includes an image obtained by imaging the container located at the upstream side of the moving pitch of the container with respect to the moving position of the container along the moving direction of the container by the camera B, and the container at the moving position. Based on the image picked up by the camera A, the three-dimensional position of the work in the downstream half in the container arranged at the work take-out position is calculated, and the container at the work take-out position is determined as the camera A A stereoscopic robot picking apparatus that calculates a three-dimensional position of the workpiece in the upstream half in the container arranged at the workpiece removal position based on the images picked up by B and B.
請求項1記載の立体視ロボットピッキング装置において、前記カメラBは2台あって、一方の該カメラBは、前記ワーク取出し位置にある前記コンテナの、少なくとも前記コンテナの移動方向の上流側半分を撮像可能な位置に配置され、他方の前記カメラBは前記ワーク取出し位置にある前記コンテナの、少なくとも下流側半分を撮像可能な位置に配置され、
前記画像処理手段は、前記ワーク取出し位置にある前記コンテナを前記カメラA及び前記一方のカメラBで撮像した各画像を基に、前記ワーク取出し位置に配置された前記コンテナ内の上流側半分にある前記ワークの3次元位置を算出し、前記ワーク取出し位置にある前記コンテナを前記カメラA及び前記他方のカメラBで撮像した各画像を基に、前記ワーク取出し位置に配置された前記コンテナ内の下流側半分にある前記ワークの3次元位置を算出することを特徴とする立体視ロボットピッキング装置。
2. The stereoscopic robot picking apparatus according to claim 1, wherein there are two cameras B, and one of the cameras B captures at least an upstream half of the container in the moving direction of the container at the workpiece removal position. The other camera B is arranged at a position where at least the downstream half of the container at the workpiece take-out position can be imaged,
The image processing means is in the upstream half of the container disposed at the work removal position based on the images obtained by capturing the container at the work removal position with the camera A and the one camera B. A three-dimensional position of the workpiece is calculated, and the downstream side of the container disposed at the workpiece removal position is based on each image obtained by capturing the container at the workpiece removal position with the camera A and the other camera B. A stereoscopic robot picking apparatus, characterized in that a three-dimensional position of the workpiece in a side half is calculated.
請求項1〜3のいずれか1項に記載の立体視ロボットピッキング装置において、前記制御手段は、前記画像処理手段によって算出された前記ワークの3次元位置まで予め定められた間隔を有する位置を前記吸引部の配置目標位置として決定することを特徴とする立体視ロボットピッキング装置。 4. The stereoscopic robot picking apparatus according to claim 1, wherein the control unit sets a position having a predetermined interval to a three-dimensional position of the workpiece calculated by the image processing unit. A stereoscopic robot picking apparatus, characterized in that it is determined as an arrangement target position of a suction unit.
JP2011056906A 2011-03-15 2011-03-15 Stereoscopic robot picking device Active JP5544320B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011056906A JP5544320B2 (en) 2011-03-15 2011-03-15 Stereoscopic robot picking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011056906A JP5544320B2 (en) 2011-03-15 2011-03-15 Stereoscopic robot picking device

Publications (2)

Publication Number Publication Date
JP2012192473A JP2012192473A (en) 2012-10-11
JP5544320B2 true JP5544320B2 (en) 2014-07-09

Family

ID=47084884

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011056906A Active JP5544320B2 (en) 2011-03-15 2011-03-15 Stereoscopic robot picking device

Country Status (1)

Country Link
JP (1) JP5544320B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107538466A (en) * 2016-06-23 2018-01-05 沈阳新松机器人自动化股份有限公司 Parallel robot
CN109482503A (en) * 2018-10-24 2019-03-19 东北大学 The mobile sorting machine people of view-based access control model and its method for sorting

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015129388A1 (en) * 2014-02-28 2015-09-03 株式会社イシダ Boxing system
JP2016070762A (en) 2014-09-29 2016-05-09 ファナック株式会社 Detection method and detector for detecting three-dimensional position of object
JP6529758B2 (en) * 2014-12-25 2019-06-12 株式会社キーエンス Image processing apparatus, image processing system, image processing method and computer program
JP2018051728A (en) 2016-09-30 2018-04-05 ファナック株式会社 Detection method and detection apparatus for detecting three-dimensional position of object
CN109048862A (en) * 2018-09-03 2018-12-21 天津永兴泰科技股份有限公司 A kind of components sorting machine people based on machine vision
CN109465809B (en) * 2018-12-17 2024-07-19 中北大学 Intelligent garbage classification robot based on binocular stereoscopic vision positioning identification
CN109692825B (en) * 2019-01-11 2021-07-06 上海卓畅信息技术有限公司 Part sorting method and sorting equipment
CN117337691B (en) * 2023-09-21 2024-04-05 仲恺农业工程学院 Pitaya picking method and picking robot based on deep neural network
CN118123856A (en) * 2024-03-20 2024-06-04 北京中科原动力科技有限公司 Fruit and vegetable picking robot control method and device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61152382A (en) * 1984-12-27 1986-07-11 三井造船株式会社 Method of controlling welding robot
JPH01109089A (en) * 1986-09-19 1989-04-26 Hitachi Metals Ltd Method of positioning manipulator
JP3104450B2 (en) * 1993-01-27 2000-10-30 株式会社ダイフク Glass mounting equipment
JP3516067B2 (en) * 1994-04-26 2004-04-05 川崎重工業株式会社 Image creation method and image creation device for depalletizing
JP4004899B2 (en) * 2002-09-02 2007-11-07 ファナック株式会社 Article position / orientation detection apparatus and article removal apparatus
JP4655309B2 (en) * 2005-11-09 2011-03-23 株式会社Ihi Picking order determination method, apparatus and program thereof, and picking system
JP4226623B2 (en) * 2006-09-29 2009-02-18 ファナック株式会社 Work picking device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107538466A (en) * 2016-06-23 2018-01-05 沈阳新松机器人自动化股份有限公司 Parallel robot
CN107538466B (en) * 2016-06-23 2020-06-19 沈阳新松机器人自动化股份有限公司 Parallel robot
CN109482503A (en) * 2018-10-24 2019-03-19 东北大学 The mobile sorting machine people of view-based access control model and its method for sorting

Also Published As

Publication number Publication date
JP2012192473A (en) 2012-10-11

Similar Documents

Publication Publication Date Title
JP5544320B2 (en) Stereoscopic robot picking device
CN109665307B (en) Work system, work execution method for article, and robot
JP5893695B1 (en) Article transport system
CN102735166B (en) Spatial digitizer and robot system
JP5282717B2 (en) Robot system
JP5447483B2 (en) Robot system and method of manufacturing workpiece
JP7174074B2 (en) Image processing equipment, work robots, substrate inspection equipment and specimen inspection equipment
US10576526B2 (en) Workpiece conveying system, and workpiece conveying method
CN100447525C (en) Measuring method of image measuring instrument
JP6014315B2 (en) Measuring method of electronic component mounting device
JP2017100214A (en) Manipulator system, imaging system, object delivery method, and manipulator control program
US20150290805A1 (en) Vision-Assisted System and Method for Picking of Rubber Bales in a Bin
US10882701B2 (en) Method and apparatus for detecting faults during object transport
JP2013086184A (en) Workpiece takeout system, robot apparatus and method for manufacturing material to be processed
JP2019025634A (en) Article conveyance device
JP6706695B2 (en) Coordinate data generation device and coordinate data generation method
JPWO2015019487A1 (en) Mounting apparatus and component detection method
US10932401B2 (en) Component mounting machine
CN105848463A (en) Electronic part installation device, and substrate supporting member ordering method
JP2021122879A (en) Image processing device and carrier device equipped with image processing device
JP6475165B2 (en) Mounting device
JPWO2020003384A1 (en) Flatness acquisition system and mounting machine
JP5868257B2 (en) Work position detection method and work transfer method using the same
JP5238730B2 (en) Component mounting machine, component detection apparatus, and component mounting method
JP6889216B2 (en) Work system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140512

R150 Certificate of patent or registration of utility model

Ref document number: 5544320

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250