JP5544320B2 - Stereoscopic robot picking device - Google Patents
Stereoscopic robot picking device Download PDFInfo
- Publication number
- JP5544320B2 JP5544320B2 JP2011056906A JP2011056906A JP5544320B2 JP 5544320 B2 JP5544320 B2 JP 5544320B2 JP 2011056906 A JP2011056906 A JP 2011056906A JP 2011056906 A JP2011056906 A JP 2011056906A JP 5544320 B2 JP5544320 B2 JP 5544320B2
- Authority
- JP
- Japan
- Prior art keywords
- container
- workpiece
- camera
- cameras
- work
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011144 upstream manufacturing Methods 0.000 claims description 31
- 238000003384 imaging method Methods 0.000 claims description 14
- 230000003287 optical effect Effects 0.000 description 8
- 235000013305 food Nutrition 0.000 description 5
- 230000004308 accommodation Effects 0.000 description 4
- 238000000034 method Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 235000008429 bread Nutrition 0.000 description 1
- 238000005336 cracking Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008961 swelling Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Description
本発明は、ステレオ画像でワーク(物品)の3次元位置を検出しロボットを用いてワークを仕分けする立体視ロボットピッキング装置に関する。 The present invention relates to a stereoscopic robot picking apparatus that detects a three-dimensional position of a workpiece (article) from a stereo image and sorts the workpiece using a robot.
ワーク(物品)の仕分け現場では、コンテナ内に配列されたワークをロボットにより上方から吸着保持して別のコンテナに移すロボットピッキング装置が用いられている。
ロボットピッキング装置はワークの高さ位置に基づいてロボットの吸引部をワークの吸着が可能な高さに配置する。ワークの高さ位置が一定である場合、ワークを吸着するためのロボットの吸引部の高さは固定することができる。
しかしながら、ワークが食品を封入した袋物の場合、袋の膨らみや食品の出来上がりの大きさ等にバラつきがあり、ロボットの吸引部を常に一定の高さにすると、吸引部とワークの袋部分の間に大きな隙間が生じてワークを吸着できなかったり、ロボットのハンド部がワークを押しすぎて食品の変形や袋の割れ等が生じたりする。また、ワークが配列されたコンテナの底面の歪みによっても配列位置でワークの高さ位置にバラつきが生じる。
In a work (article) sorting site, a robot picking apparatus is used that sucks and holds workpieces arranged in a container from above and moves them to another container.
The robot picking device arranges the suction part of the robot at a height at which the workpiece can be adsorbed based on the height position of the workpiece. When the height position of the workpiece is constant, the height of the suction part of the robot for sucking the workpiece can be fixed.
However, if the workpiece is a bag containing food, the swelling of the bag and the size of the finished food will vary. A large gap is generated in the workpiece, and the workpiece cannot be adsorbed, or the hand portion of the robot pushes the workpiece too much, causing deformation of the food, cracking of the bag, or the like. In addition, the height position of the workpiece varies at the arrangement position due to the distortion of the bottom surface of the container in which the workpiece is arranged.
この問題を回避するため、ワークを吸着保持する前にワークの高さ位置を検出してロボットの吸引部を配置すべき高さを決定するのが有効である。
ワークの高さ位置を検出する方法として、対となるカメラでワークを撮像した画像を基にワークの3次元位置を算出するステレオ方式が知られており、その具体例が特許文献1に記載されている。
特許文献1では、対となるカメラの撮像範囲の重なる領域でワークを撮像し、その撮像された各画像中で予め定義しておいたワークの参照点を検出し、参照点の画像中での2次元位置からワークの3次元位置を算出している。
また、撮像方向が平行な対となるカメラを用いれば、3次元位置の算出を行うためのプログラム等の設計を簡略化することができる。この場合、ワークの大きさ等に応じて、ワークとカメラの間隔を長くして、カメラの撮像範囲の重なる領域を広げ、各カメラが撮像範囲の重なる領域でワークを撮像可能にすることが考えられる。
In order to avoid this problem, it is effective to determine the height at which the suction part of the robot is to be arranged by detecting the height position of the work before the work is sucked and held.
As a method for detecting the height position of a workpiece, a stereo method for calculating the three-dimensional position of a workpiece based on an image obtained by imaging the workpiece with a pair of cameras is known. A specific example is described in
In
In addition, if a pair of cameras with parallel imaging directions is used, the design of a program or the like for calculating a three-dimensional position can be simplified. In this case, depending on the size of the workpiece, the distance between the workpiece and the camera may be increased to widen the area where the imaging range of the camera overlaps, and each camera can image the workpiece in the area where the imaging range overlaps. It is done.
しかしながら、カメラとワークの間隔が長くなると撮像画像中のワークの大きさが小さくなり、ワークの画像分解能が低くなるという問題が生じる。
本発明は、かかる事情に鑑みてなされるもので、カメラとワークの間隔が長くなるのを抑制し、高い分解能を保有した画像を基にパターンマッチングによりワークの検出を行って、ステレオ方式でワークの3次元位置を算出しロボットの吸引部の配置位置を決める立体視ロボットピッキング装置を提供することを目的とする。
However, if the distance between the camera and the workpiece becomes long, the size of the workpiece in the captured image becomes small, and the image resolution of the workpiece becomes low.
The present invention is made in view of such circumstances, suppresses an increase in the distance between the camera and the workpiece, detects the workpiece by pattern matching based on an image having a high resolution, and works in a stereo system. It is an object of the present invention to provide a stereoscopic robot picking apparatus that calculates the three-dimensional position of the robot and determines the position of the robot suction unit.
前記目的に沿う本発明に係る立体視ロボットピッキング装置は、コンテナ内に収容されたワークを順次ロボットによって別位置に移動する立体視ロボットピッキング装置において、前記ワークを吸着保持する吸引部が設けられた前記ロボットと、前記コンテナを所定ピッチ移動させて、前記吸引部が該コンテナ内に収容された前記ワークを吸着保持可能なワーク取出し位置まで該コンテナを送る移動手段と、前記ワーク取出し位置にある前記コンテナ全体を撮像する1台のカメラAと、前記ワーク取出し位置にある前記コンテナを部分的に撮像する1台又は2台のカメラBと、前記カメラA、Bで撮像した各画像中の前記ワークの2次元位置から該ワークの3次元位置を算出する画像処理手段と、前記画像処理手段で算出した前記ワークの3次元位置を基に前記吸引部の配置目標位置を決定し、前記ロボットを動かして前記ワークを吸着保持させる制御手段とを有し、前記カメラA、Bは、前記コンテナの移動方向に沿って配置され、前記カメラA、Bの各撮像方向は平行であり、前記画像処理手段は、前記カメラA、Bが撮像した各画像中での前記ワークをパターンマッチングによって検出して、前記カメラA、Bにより撮像された該ワークの各画像中の2次元位置を算出する。 The stereoscopic robot picking apparatus according to the present invention that meets the above-mentioned object is provided with a suction unit that sucks and holds the workpiece in the stereoscopic robot picking apparatus that sequentially moves the workpieces contained in the container to different positions by the robot. The robot, the moving means for moving the container by a predetermined pitch, and the suction unit sending the container to a work picking position where the work housed in the container can be sucked and held, and the work picking position One camera A that images the entire container, one or two cameras B that partially image the container at the workpiece removal position, and the workpiece in each image captured by the cameras A and B Image processing means for calculating the three-dimensional position of the workpiece from the two-dimensional position of the workpiece, and 3 of the workpiece calculated by the image processing means Control means for determining an arrangement target position of the suction unit based on the original position and moving the robot to suck and hold the work, and the cameras A and B are arranged along the moving direction of the container. The imaging directions of the cameras A and B are parallel, and the image processing means detects the workpiece in each image captured by the cameras A and B by pattern matching, and the cameras A and B The two-dimensional position in each image of the workpiece imaged by is calculated.
本発明に係る立体視ロボットピッキング装置において、前記カメラBは、1台であって、前記コンテナの移動方向に沿って前記ワーク取出し位置より前記コンテナの移動ピッチ上流側にある前記コンテナの、少なくとも下流側半分を撮像可能で、かつ、前記ワーク取出し位置にある前記コンテナの、少なくとも上流側半分を撮像可能な位置に配置され、前記画像処理手段は、前記コンテナの移動方向に沿って前記ワーク取出し位置より前記コンテナの移動ピッチ分上流側にあった前記コンテナを前記カメラBによって撮像した画像と前記ワーク取出し位置にある該コンテナを前記カメラAによって撮像した画像を基に、前記ワーク取出し位置に配置された前記コンテナ内の、下流側半分にある前記ワークの3次元位置を算出し、前記ワーク取出し位置にある該コンテナを前記カメラA、Bで撮像した各画像を基に、前記ワーク取出し位置に配置された前記コンテナ内の、上流側半分にある前記ワークの3次元位置を算出するのが好ましい。 In the stereoscopic robot picking device according to the present invention, the camera B is a single unit, and at least downstream of the container located upstream of the moving pitch of the container from the workpiece removal position along the moving direction of the container. The container is located at a position where at least the upstream half of the container at which the side half can be imaged and at the workpiece removal position can be imaged, and the image processing means moves along the moving direction of the container. Based on the image captured by the camera B of the container that is upstream by the moving pitch of the container and the image captured by the camera A of the container at the workpiece removal position, the container is disposed at the workpiece removal position. The three-dimensional position of the workpiece in the downstream half of the container is calculated, and the workpiece removal The three-dimensional position of the workpiece in the upstream half in the container arranged at the workpiece take-out position is calculated based on the images obtained by capturing the container at the first position with the cameras A and B. preferable.
本発明に係る立体視ロボットピッキング装置において、前記カメラBは2台あって、一方の該カメラBは、前記ワーク取出し位置にある前記コンテナの、少なくとも前記コンテナの移動方向の上流側半分を撮像可能な位置に配置され、他方の前記カメラBは前記ワーク取出し位置にある前記コンテナの、少なくとも下流側半分を撮像可能な位置に配置され、前記画像処理手段は、前記ワーク取出し位置にある前記コンテナを前記カメラA及び前記一方のカメラBで撮像した各画像を基に、前記ワーク取出し位置に配置された前記コンテナ内の上流側半分にある前記ワークの3次元位置を算出し、前記ワーク取出し位置にある前記コンテナを前記カメラA及び前記他方のカメラBで撮像した各画像を基に、前記ワーク取出し位置に配置された前記コンテナ内の下流側半分にある前記ワークの3次元位置を算出することができる。 In the stereoscopic robot picking apparatus according to the present invention, there are two cameras B, and one of the cameras B can image at least the upstream half of the container in the moving direction of the container at the workpiece removal position. The other camera B is arranged at a position where at least the downstream half of the container at the workpiece take-out position can be imaged, and the image processing means moves the container at the work take-out position. Based on the images captured by the camera A and the one camera B, the three-dimensional position of the work in the upstream half in the container arranged at the work picking position is calculated, and the work picking position is Before the container is placed at the workpiece removal position based on the images taken by the camera A and the other camera B. It can be calculated three-dimensional position of the workpiece in the downstream half of the container.
本発明に係る立体視ロボットピッキング装置において、前記制御手段は、前記画像処理手段によって算出された前記ワークの3次元位置まで予め定められた間隔を有する位置を前記吸引部の配置目標位置として決定するのが好ましい。 In the stereoscopic robot picking apparatus according to the present invention, the control means determines a position having a predetermined interval up to the three-dimensional position of the workpiece calculated by the image processing means as a placement target position of the suction unit. Is preferred.
本発明に係る立体視ロボットピッキング装置は、ワーク取出し位置にあるコンテナ全体を撮像する1台のカメラAと、ワーク取出し位置にあるコンテナを部分的に撮像する1台又は2台のカメラBとを有し、カメラA、Bが撮像した各画像中のワークをパターンマッチングによって検出して、カメラA、Bにより撮像された各画像中でのワークの2次元位置を算出するので、カメラBは、ワーク取出し位置にあるコンテナ全体を撮像する場合に比べ、ワーク取出し位置にあるコンテナとの距離を近づけて配置でき、画像中にワークを大きくとらえて、画像処理手段によるワークの検出精度の向上を図ることができる。 The stereoscopic robot picking apparatus according to the present invention includes one camera A that captures an image of the entire container at the workpiece removal position and one or two cameras B that partially image the container at the workpiece removal position. Since the workpieces in the images captured by the cameras A and B are detected by pattern matching and the two-dimensional position of the workpiece in the images captured by the cameras A and B is calculated. Compared to imaging the entire container at the workpiece removal position, it can be placed closer to the container at the workpiece removal position, so that the workpiece can be seen in the image and the detection accuracy of the workpiece by the image processing means is improved. be able to.
本発明に係る立体視ロボットピッキング装置において、カメラBが1台である場合には、合計2台のカメラによってコンテナ内のワークの3次元位置を算出するための画像を得ることができ、カメラの数を最小限に抑えることが可能である。
また、ワーク取出し位置よりコンテナの移動ピッチ分上流側にあったコンテナをカメラBによって撮像した画像とワーク取出し位置にあるコンテナをカメラAによって撮像した画像を基に、ワーク取出し位置に配置されたコンテナ内の、下流側半分にあるワークの3次元位置を算出し、ワーク取出し位置にあるコンテナをカメラA、Bで撮像した各画像を基に、ワーク取出し位置に配置されたコンテナ内の、上流側半分にあるワークの3次元位置を算出する場合には、コンテナの上流側半分及び下流側半分に分けて確実にコンテナ内のワークの3次元位置を算出することができる。
In the stereoscopic robot picking apparatus according to the present invention, when there is one camera B, an image for calculating the three-dimensional position of the work in the container can be obtained by a total of two cameras. It is possible to minimize the number.
Further, the container arranged at the workpiece removal position based on the image taken by the camera B of the container that is upstream from the workpiece removal position by the moving pitch of the container and the image taken by the camera A of the container at the workpiece removal position. The three-dimensional position of the workpiece in the downstream half of the container is calculated, and the upstream side in the container arranged at the workpiece removal position based on the images taken by the cameras A and B of the container at the workpiece removal position When calculating the three-dimensional position of the workpiece in the half, it is possible to reliably calculate the three-dimensional position of the workpiece in the container divided into the upstream half and the downstream half of the container.
本発明に係る立体視ロボットピッキング装置において、カメラBが2台あって、画像処理手段が、ワーク取出し位置にあるコンテナをカメラA及び一方のカメラBで撮像した各画像を基に、ワーク取出し位置に配置されたコンテナ内の上流側半分にあるワークの3次元位置を算出し、ワーク取出し位置にあるコンテナをカメラA及び他方のカメラBで撮像した各画像を基に、ワーク取出し位置に配置されたコンテナ内の下流側半分にあるワークの3次元位置を算出する場合、カメラA及び一方のカメラBで形成したステレオカメラと、カメラA及び他方のカメラBで形成したステレオカメラとによって、コンテナ内の全てのワークの3次元位置を確実に算出することができる。 In the stereoscopic robot picking apparatus according to the present invention, there are two cameras B, and the image processing means uses the camera A and one camera B to pick up the container at the workpiece extraction position and picks up the workpiece. The three-dimensional position of the work in the upstream half of the container placed in the container is calculated, and the container at the work take-out position is arranged at the work take-out position on the basis of the images taken by the camera A and the other camera B. When calculating the three-dimensional position of the workpiece in the downstream half of the container, the stereo camera formed by the camera A and one camera B and the stereo camera formed by the camera A and the other camera B The three-dimensional positions of all the workpieces can be reliably calculated.
本発明に係る立体視ロボットピッキング装置において、制御手段が、画像処理手段によって算出されたワークの3次元位置まで予め定められた間隔を有する位置を吸引部の配置目標位置として決定する場合には、ロボットの吸引部が、配置目標位置に配置された際に、ワークを吸引できない位置に配置されたり、ワークを押して破損させたりするのを防止することができる。 In the stereoscopic robot picking apparatus according to the present invention, when the control unit determines a position having a predetermined interval up to the three-dimensional position of the workpiece calculated by the image processing unit as the arrangement target position of the suction unit, When the suction part of the robot is placed at the placement target position, it can be prevented from being placed at a position where the work cannot be sucked or being damaged by pushing the work.
本発明に係る立体視ロボットピッキング装置は、カメラA、Bの各撮像方向が平行であるので、カメラA、Bによって平行ステレオカメラを形成でき、ワークの3次元位置を算出する際の演算式の簡略化を図ることができる。 Stereoscopic robotic picking device according to the present invention, the camera A, because the imaging direction of B are parallel, camera A, the B can form parallel stereo camera, the arithmetic expression for calculating the three-dimensional position of the workpiece Simplification can be achieved.
続いて、添付した図面を参照しつつ、本発明を具体化した実施の形態につき説明し、本発明の理解に供する。
図1、図2に示すように、本発明の一実施の形態に係る立体視ロボットピッキング装置10は、ワーク(物品)12の仕分け現場等に設置され、コンテナ11内に収容された複数のワーク12を順次ロボット13によって別位置に移動する装置である。以下、詳細に説明する。
Next, embodiments of the present invention will be described with reference to the accompanying drawings for understanding of the present invention.
As shown in FIGS. 1 and 2, a stereoscopic
コンテナ11は、図2に示すように、ワーク12を収容するためのプラスチック製の容器であり上部が開口している。コンテナ11内には、縦横に配列された複数のワーク12が収容されている。
ワーク12は、本実施の形態において、食品(例えばパン)を袋詰めしたものであり、各ワーク12は食品の大きさや袋内の空気量のバラつき等によって、水平配置されたコンテナ11内に収容された状態で高さが不揃いである。
As shown in FIG. 2, the
In the present embodiment, the
立体視ロボットピッキング装置10は、図1に示すように、コンテナ11を送るベルトコンベア(移動手段の一例)14と、ベルトコンベア14上のコンテナ11を撮像する1台のカメラ15(カメラA)及び1台のカメラ16(カメラB)と、ワーク12を保持するロボット13を有している。
ロボット13には、ワーク12を吸着保持する吸引部17(本実施の形態では、真空パッド)が設けられており、ロボット13は、コンテナ11内に収容されているワーク12を吸引部17で吸着保持して別位置にあるコンテナに収容する。
As shown in FIG. 1, the stereoscopic
The
ワーク12の収容先であるコンテナには、収容すべきワーク12の個数が予め定められている。ロボット13はその定められた個数のワーク12をコンテナに収容する。
ロボット13はベルトコンベア14の上方で支持フレーム21に固定されたパラレルリンクロボットであり、予め定められた範囲内で吸引部17を所望の位置に配置することができる。
The number of the
The
ベルトコンベア14は1回の作動によりベルトコンベア14上に載せられた複数のコンテナ11を所定ピッチ移動させることができ、その移動ピッチP(図2参照)は設定によって変更可能である。
ベルトコンベア14はコンテナ11を間欠的に移動ピッチP(所定ピッチ)移動させて、ロボット13の吸引部17がコンテナ11内に収容されたワーク12を吸着保持可能なワーク取出し位置18まで各コンテナ11を順次送る。
The
The
ベルトコンベア14は、サーボモータ19(図3参照)を備えており、サーボモータ19を所定数回転することによってベルトコンベア14上のコンテナ11を移動ピッチPだけ正確に移動させることができる。
ベルトコンベア14上の複数のコンテナ11は、図2に示すように、移動ピッチPと同ピッチで配置されており、隣り合うコンテナ11にはそれぞれ長さDの間隔が設けられている。各コンテナ11は、サーボモータ19の駆動と停止の繰り返しによって、順次ワーク取出し位置18で停止し、ロボット13によって必要数のワーク12が取出された後に、ワーク取出し位置18から移動する。
The
As shown in FIG. 2, the plurality of
カメラ15、16は、支持フレーム21に固定部材22を介して取り付けられ、ベルトコンベア14の上方でコンテナ11の移動方向に沿って配置されている。カメラ15、16の各撮像方向は実質的に平行に保たれており、カメラ15、16は上方からコンテナ11とコンテナ11内にあるワーク12を撮像する。
カメラ15、16は実質的に同一高さに設けられ、カメラ15はワーク取出し位置18にあるコンテナ11全体を撮像可能な位置に配置され、カメラ16はワーク取出し位置18にあるコンテナ11を部分的に撮像可能な位置に配置されている。また、カメラ15、16は同仕様のカメラであり、画素数、視野角、焦点距離等が同一である。
The
The
カメラ15、16には、図3に示すように、カメラ15、16で撮像した各画像中のワーク12の2次元位置からワーク12の3次元位置を算出する画像処理手段23が信号接続されている。
画像処理手段23は、カメラ15、16からカメラ15、16が撮像した各画像をそれぞれ取得して、パターンマッチングによって各画像中に存在しているワーク12を検出し、各画像中でのワーク12の2次元位置を算出(検知)する。画像処理手段23は、各種ワークごとに各ワークに印字されている文字や図柄等をマッチング用のサンプルとして記憶しており、カメラ15、16によって撮像された各画像に対しマッチング用のサンプルを基にしたワークの検出処理を行う。
画像処理手段23は、マイクロコンピュータ、メモリー及びROM等によって構成され、ROMにはワーク12の3次元位置を算出するためのプログラム等が格納されている。
As shown in FIG. 3, image processing means 23 for calculating the three-dimensional position of the workpiece 12 from the two-dimensional position of the
The image processing means 23 acquires each image captured by the
The
また、画像処理手段23には、サーボモータ19及びロボット13に指令信号を送信して動作制御を行う制御手段24が信号接続されている。
制御手段24は、サーボモータ19に停止用の指令信号を送信してベルトコンベア14を停止させ、画像処理手段23に指令信号を送信してカメラ15、16に停止中のコンテナ11を撮像させる。
制御手段24は、画像処理手段23にカメラ15、16によって撮像された画像に基づいてコンテナ11内のワーク12の3次元位置を算出させ、ロボット13にワーク取出し位置18にあるコンテナ11に収容されているワーク12を順次、収容先のコンテナ内に移動させる。そして、ワーク取出し位置18にあるコンテナ11から必要数のワーク12を取出した後、制御手段24は、作動用の指令信号をサーボモータ19に送信して、ベルトコンベア14上のコンテナ11を移動ピッチPだけ移動させる。
The image processing means 23 is signal-connected to a control means 24 that transmits a command signal to the
The
The
カメラ16は、図1に示すように、コンテナ11の移動方向に沿ってカメラ15の上流側に設けられ、ワーク取出し位置18よりコンテナ11の移動ピッチP分上流側にあるコンテナ11の少なくとも下流側半分を撮像可能な位置に配置されている。
以下、ワーク取出し位置18よりコンテナの移動ピッチP分上流側にあるコンテナ11の位置を取出し手前位置25ともいう。
As shown in FIG. 1, the
Hereinafter, the position of the
また、カメラ16の配置位置は、カメラ16がワーク取出し位置18にあるコンテナ11の少なくとも上流側半分を撮像可能な位置でもある。
従って、カメラ16は、1つの画面中に取出し手前位置25にあるコンテナ11の少なくとも下流側半分とワーク取出し位置18にあるコンテナ11の少なくとも上流側半分を撮像することができる。
In addition, the arrangement position of the
Therefore, the
画像処理手段23は、取出し手前位置25にあったコンテナ11をカメラ16によって撮像した画像と、その後に移動ピッチP移動しワーク取出し位置18に配置された同じコンテナ11(即ち取出し手前位置25でカメラ16によって撮像されたコンテナ11)をカメラ15によって撮像した画像を基にして、ワーク取出し位置18に配置されたコンテナ11内の、下流側半分にあるワーク12の3次元位置を算出する。
そして、画像処理手段23は、ワーク取出し位置18にあるコンテナ11をカメラ15、16で撮像した各画像を基にしてワーク取出し位置18に配置されたコンテナ11内の上流側半分にあるワーク12の3次元位置を算出する。
The image processing means 23 captures the image of the
Then, the image processing means 23 selects the
以下、ベルトコンベア14によるコンテナ11の移動方向にY軸をとり、垂直(鉛直)方向にZ軸をとり、Y軸及びZ軸に対して直交する方向にX軸をとって、ワーク12の3次元位置の算出方法を説明する。
カメラ15、16は、撮像中心方向がZ軸に沿い、かつ、カメラ15、16によって撮像される各画像の左右方向及び上下方向が、それぞれX軸及びY軸に沿う(図4、図5参照)ように向きが調整されている。
なお、ベルトコンベア14上のコンテナ11は、Y軸のマイナス向きに移動する(図1、図2参照)。
Hereinafter, the Y axis is taken in the moving direction of the
In the
The
画像処理手段23は、カメラ15によって撮像した画像中のワーク12の平面位置(即ち2次元位置)から、ワーク取出し位置18にあるコンテナ11内の各ワーク12のXY座標を算出し、カメラ15、16によって撮像された2つの画像からワーク取出し位置18にあるコンテナ11内の各ワーク12のZ座標を算出する。
従来、ワークのZ座標は、対となるカメラでワークを撮像した画像を基に算出可能であることが知られており、その算出式は式1に示す通りである。
Z=(S×R)/△Y(式1)
The image processing means 23 calculates the XY coordinates of each workpiece 12 in the
Conventionally, it has been known that the Z coordinate of a workpiece can be calculated based on an image obtained by imaging the workpiece with a pair of cameras.
Z = (S × R) / ΔY (Formula 1)
Sは対となるカメラの各光学中心間の距離、Rは対となるカメラの焦点距離、△Yは視差である。
本実施の形態では、図6に示すように、対となるカメラ15、16の光学中心間の距離はs1である。
焦点距離は、カメラモデルにおいて光学中心とカメラが撮像する画像間の距離であり、カメラ15、16は焦点距離が等しく共にr1である。
視差は、対となるカメラで同一のワークを撮像した際に、一方のカメラの画像中におけるそのワークの位置と他方のカメラの画像中におけるそのワークの位置の差である。本実施の形態では、カメラ15、16によって平行ステレオカメラが構成されており、カメラ15、16によって撮像された同一のワーク12は、各画像中でのX座標が等しい。従って、カメラ15、16の各画像中でのY座標の差が視差になる。
S is the distance between the optical centers of the paired cameras, R is the focal length of the paired cameras, and ΔY is the parallax.
In the present embodiment, as shown in FIG. 6, the distance between the optical centers of the paired
The focal length is the distance between the optical center and the image captured by the camera in the camera model, and the
The parallax is the difference between the position of the work in the image of one camera and the position of the work in the image of the other camera when the same work is imaged by a pair of cameras. In this embodiment, a parallel stereo camera is configured by the
カメラ15、16はベルトコンベア14が停止中に撮像を行い、カメラ15は、図4(A)に示すようにコンテナ11全体を撮像し、カメラ16は、図4(B)に示すようにワーク取出し位置18にあるコンテナ11の上流側半分と取出し手前位置25にあるコンテナ11の下流側半分を撮像する。
画像処理手段23は、カメラ15の画像中における各ワーク12の平面位置から、ワーク取出し位置18にあるコンテナ11内の全てのワーク12についてXY座標を算出する。
The
The image processing means 23 calculates XY coordinates for all the
また、画像処理手段23は、ワーク取出し位置18にあるコンテナ11の上流側半分に収容されているワーク12とワーク取出し位置18にあるコンテナ11の下流側半分に収容されているワーク12に分けて、ワーク12のZ座標を算出する。
同じタイミング(即ちベルトコンベア14が停止してから作動するまでの間のタイミング)で撮像されたカメラ15、16の各画像には共に、図4(A)、(B)に示すようにワーク取出し位置18にあるコンテナ11の上流側半分に収容されたワーク12が全て映っている。画像処理手段23は、コンテナ11の上流側半分に収容された全てのワーク12について、カメラ15の画像中の平面位置とカメラ16の画像中の平面位置とを基に視差を求める。そして、画像処理手段23は、この求めた視差とS=s1、R=r1を式1に代入してワーク取出し位置18にあるコンテナ11の上流側半分に収容されたワーク12全てについてZ座標を算出する。
The image processing means 23 is divided into a
As shown in FIGS. 4 (A) and 4 (B), each of the images of the
ワーク取出し位置18にあるコンテナ11の下流側半分に収容されたワーク12は、図5(A)に示すカメラ15で撮像した最新の画像とワーク取出し位置18にあるコンテナ11が取出し手前位置25に停止していた際(以下、「1つ前のタイミング」ともいう)にカメラ16で撮像した図5(B)に示す画像に映っている。
このため画像処理手段23は、カメラ15の最新の画像とカメラ16が1つ前のタイミングで撮像した画像を用いて、各画像中におけるワーク12の平面位置から、コンテナ11の下流側半分にあるワーク12それぞれについて視差を求める。そして、画像処理手段23は、この求めた視差を基に式1によってワーク取出し位置18にあるコンテナ11の下流側半分に収容されたワーク12のZ座標を算出する。
The
Therefore, the image processing means 23 is in the downstream half of the
このとき、式1のRにはr1が代入され、SにはP−s1が代入される(Pはコンテナ11の移動ピッチ)。Sにs1ではなく、P−s1を代入するのは、取出し手前位置25でカメラ16によって撮像されたコンテナ11がワーク取出し位置18に移動してカメラ15で撮像されるためである。本実施の形態では、カメラ15、16の光学中心間の距離s1がコンテナ11の移動ピッチPの半分(即ちP=2×s1)になる位置に、カメラ15、16を配置しており、結局のところSにはs1が代入される。
At this time, r1 is substituted for R in
また、ワーク12の視差を求める際、画像処理手段23は、カメラ15によって撮像された複数のワーク12とカメラ16によって撮像された複数のワーク12について、ワーク12ごとに対応付け、即ち同一のワーク12の特定が必要となる。
このワーク12の対応付けは、カメラ15、16の各画像中におけるワーク12の平面位置を基にして行われる。例えば、図4(B)に示すカメラ16の画像中で”W1”を付したワーク12は、その画像中での位置から、図4(A)に示すカメラ15の画面中で”W1”を付したワーク12であるという対応付けが可能である。また、1つ前のタイミングでカメラ16によって撮像された図5(B)に示す”W2”を付したワーク12は、その画像中での平面位置から、カメラ15の最新の画面中で図5(A)に示す”W2”を付したワーク12であるという対応付けができる。
When obtaining the parallax of the
The association of the
ここで、カメラ15、16からベルトコンベア14上のコンテナ11までの距離に着目すると、その距離を短くすれば、カメラ15、16の各画像中に映るワーク12の大きさは大きくなって、パターンマッチングによるワーク12の検出精度が上昇することになる。
そこで、ワーク12の3次元位置を算出するアルゴリズムを変えず、カメラ15、16を同一高さに配置するという前提で、カメラ15、16とベルトコンベア14上のコンテナ11の距離を最も近くする条件について考えると、以下に示す条件となる。
(1)カメラ15の撮像中心をワーク取出し位置18にあるコンテナ11の中心に配置する。
(2)カメラ16の撮像中心をワーク取出し位置18にあるコンテナ11と取出し手前位置25にあるコンテナ11の中間点に配置する。
(3)上記(1)、(2)の条件を満たした上で、カメラ15がワーク取出し位置18にあるコンテナ11全体を撮像可能で、しかもカメラ16がワーク取出し位置18にあるコンテナ11の上流側半分及び取出し手前位置25にあるコンテナ11の下流側半分を撮像可能な高さに、カメラ15、16をそれぞれ配置する。
Here, paying attention to the distance from the
Therefore, on the premise that the
(1) The imaging center of the
(2) The imaging center of the
(3) After satisfying the above conditions (1) and (2), the
また、画像処理手段23は、ワーク取出し位置18にあるコンテナ11内に収容された各ワーク12の3次元位置をそれぞれ算出した後、その算出結果を制御手段24に送信する。
制御手段24は、画像処理手段23が算出した各ワーク12の3次元位置を基にして、ワーク12ごとにロボット13が吸引部17によってワーク12を吸着保持可能な吸引部17の配置目標位置(以下、「吸引部配置目標位置」ともいう)を決定する。
そして、制御手段24は、ロボット13を動かしてロボット13の吸引部17を一のワーク12に対応する吸引部配置目標位置に配置し、吸引部17に吸引を行わせてそのワーク12を吸着保持させ、収容先のコンテナに移動する。このようにして、コンテナ11内のワーク12は順次収容先のコンテナに移動される。
Further, the image processing means 23 calculates the three-dimensional position of each
Based on the three-dimensional position of each workpiece 12 calculated by the
Then, the
本実施の形態では、画像処理手段23によって算出されたワーク12の3次元位置に対して上方(真上)に予め定められた間隔を有する位置を吸引部配置目標位置としている。ロボット13の吸引部17は、吸引部配置目標位置に配置され、吸引を行ってワーク12を吸着保持する。このようにワーク12まで間隔を有する位置を吸引部配置目標位置にすることによって、ロボット13の吸引部17が吸引を行う際にワーク12を押さえ付けて破損等するのを回避できる。
吸引部配置目標位置はワークの上方位置に限定されず、吸引を行う際のワークに対するロボットの吸着部の位置に応じて決定することができる。例えば、ロボットの吸引部がワークを斜め上から吸引する場合、画像処理手段が算出したワークの3次元位置に対し、斜め上の方向に予め定められた間隔を有する位置が吸引部配置目標位置となる。
なお、制御手段24は、マイクロコンピュータ、メモリー及びROM等によって構成され、ROMには吸引部配置目標位置を決定するためのプログラム等が格納されている。
In the present embodiment, a position having a predetermined interval above (directly above) the three-dimensional position of the
The suction unit placement target position is not limited to the upper position of the workpiece, but can be determined according to the position of the suction unit of the robot with respect to the workpiece during suction. For example, when the suction part of the robot sucks the work from diagonally above, a position having a predetermined interval in the diagonally upward direction with respect to the three-dimensional position of the work calculated by the image processing means is the suction part placement target position. Become.
The control means 24 is constituted by a microcomputer, a memory, a ROM, and the like, and the ROM stores a program for determining the suction portion arrangement target position.
以上、2台のカメラを有する立体視ロボットピッキング装置10について説明したが、カメラを3台用いてコンテナ11内のワーク12の3次元位置を検出し、吸引部配置目標位置を決定することもできる。
立体視ロボットピッキング装置10の変形例である立体視ロボットピッキング装置10aは、図7に示すように、3台のカメラ15、16a、16b(即ち、1台のカメラAと2台のカメラB)を備えている。立体視ロボットピッキング装置10aは、主としてカメラ数が多い点及びワーク12のZ座標の算出に用いる画像が異なる点で立体視ロボットピッキング装置10と相違するが、その他の多くの点において立体視ロボットピッキング装置10と同じである。
なお、立体視ロボットピッキング装置10と同一の構成要素については同一の符号を付して詳しい説明を省略する。
The stereoscopic
As shown in FIG. 7, a stereoscopic
Note that the same components as those of the stereoscopic
カメラ16a(一方のカメラB)及びカメラ16b(他方のカメラB)は、撮像中心方向がカメラ15の撮像中心方向と実質的に平行であり、ワーク取出し位置18にあるコンテナ11を部分的に撮像する。
カメラ16a、15、16bは、固定部材22aを介して支持フレーム21に実質的に同じ高さ位置で取り付けられ、コンテナ11の移動方向に沿って順に配置されている。カメラ16a、15、16bは同一仕様のカメラである。
カメラ16aは、ワーク取出し位置18にあるコンテナ11の少なくとも上流側半分を撮像可能な位置に配置され、カメラ16bはワーク取出し位置18にあるコンテナ11の少なくとも下流側半分を撮像可能な位置に配置されている。
The
The
The
カメラ15、16a、16bは画像処理手段に信号接続されており、その画像処理手段は、ワーク取出し位置18にあるコンテナ11をカメラ15及びカメラ16aで撮像した各画像を基に、ワーク取出し位置18に配置されたコンテナ11内の上流側半分にあるワーク12の3次元位置を算出する。
また、画像処理手段は、ワーク取出し位置18にあるコンテナ11をカメラ15及びカメラ16bで撮像した各画像を基に、ワーク取出し位置18に配置されたコンテナ11内の下流側半分にあるワーク12の3次元位置を算出する。
The
Further, the image processing means, based on each image obtained by capturing the
カメラ15、16aの光学中心間の距離をs1’、カメラ15、16bの光学中心間の距離をs2’とすると、コンテナ11内の上流側半分にあるワーク12のZ座標は、カメラ15、16aの各画像中のワーク12の視差とS=s1’、R=r1を式1に代入することによって算出される。なお、カメラ16a、16bの焦点距離はカメラ15と同じr1である。
また、コンテナ11内の下流側半分にあるワーク12のZ座標は、カメラ15、16bの各画像中のワーク12の視差とS=s2’、R=r1を式1に代入することによって算出できる。
カメラ15、16aの光学中心間の距離s1’及びカメラ15、16bの光学中心間の距離s2’を同値(s1’=s2’)にすることによって、式1のSが1つの値になり演算処理の設計等の簡略化を図ることができる。
Assuming that the distance between the optical centers of the
Further, the Z coordinate of the
By setting the distance s1 ′ between the optical centers of the
以上、本発明の実施の形態を説明したが、本発明は、上記した形態に限定されるものでなく、要旨を逸脱しない条件の変更等は全て本発明の適用範囲である。
例えば、ロボットは、パラレルリンクロボットに限定されず、パラレルリンクロボット以外のロボット、例えば多関節ロボット等を用いることが可能である。
また、ワークの3次元位置を検出するために用いられる複数のカメラ(カメラAとカメラB)の配置関係は、ワークの3次元位置を検出できれば、平行ステレオカメラを形成する配置でなくてもよい。
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and all changes in conditions and the like that do not depart from the gist are within the scope of the present invention.
For example, the robot is not limited to the parallel link robot, and a robot other than the parallel link robot, for example, an articulated robot can be used.
In addition, the arrangement relationship between the plurality of cameras (camera A and camera B) used for detecting the three-dimensional position of the workpiece may not be an arrangement that forms a parallel stereo camera as long as the three-dimensional position of the workpiece can be detected. .
10、10a:立体視ロボットピッキング装置、11:コンテナ、12:ワーク、13:ロボット、14:ベルトコンベア、15、16、16a、16b:カメラ、17:吸引部、18:ワーク取出し位置、19:サーボモータ、21:支持フレーム、22、22a:固定部材、23:画像処理手段、24:制御手段、25:取出し手前位置 10, 10a: Stereoscopic robot picking device, 11: Container, 12: Workpiece, 13: Robot, 14: Belt conveyor, 15, 16, 16a, 16b: Camera, 17: Suction unit, 18: Work picking position, 19: Servo motor, 21: support frame, 22, 22a: fixing member, 23: image processing means, 24: control means, 25: position before taking out
Claims (4)
前記ワークを吸着保持する吸引部が設けられた前記ロボットと、
前記コンテナを所定ピッチ移動させて、前記吸引部が該コンテナ内に収容された前記ワークを吸着保持可能なワーク取出し位置まで該コンテナを送る移動手段と、
前記ワーク取出し位置にある前記コンテナ全体を撮像する1台のカメラAと、
前記ワーク取出し位置にある前記コンテナを部分的に撮像する1台又は2台のカメラBと、
前記カメラA、Bで撮像した各画像中の前記ワークの2次元位置から該ワークの3次元位置を算出する画像処理手段と、
前記画像処理手段で算出した前記ワークの3次元位置を基に前記吸引部の配置目標位置を決定し、前記ロボットを動かして前記ワークを吸着保持させる制御手段とを有し、
前記カメラA、Bは、前記コンテナの移動方向に沿って配置され、前記カメラA、Bの各撮像方向は平行であり、前記画像処理手段は、前記カメラA、Bが撮像した各画像中での前記ワークをパターンマッチングによって検出して、前記カメラA、Bにより撮像された該ワークの各画像中の2次元位置を算出することを特徴とする立体視ロボットピッキング装置。 In a stereoscopic robot picking apparatus that sequentially moves workpieces contained in a container to different positions by a robot,
The robot provided with a suction unit for sucking and holding the workpiece;
Moving means for moving the container by a predetermined pitch, and sending the container to a work take-out position where the suction part can suck and hold the work housed in the container;
One camera A that images the entire container at the workpiece removal position;
One or two cameras B that partially image the container at the workpiece removal position;
Image processing means for calculating the three-dimensional position of the workpiece from the two-dimensional position of the workpiece in each image captured by the cameras A and B;
Control means for determining an arrangement target position of the suction unit based on the three-dimensional position of the work calculated by the image processing means, and moving the robot to suck and hold the work;
The cameras A and B are arranged along the moving direction of the container, the imaging directions of the cameras A and B are parallel, and the image processing means is in each image captured by the cameras A and B. A stereoscopic robot picking apparatus, wherein the workpiece is detected by pattern matching and a two-dimensional position in each image of the workpiece imaged by the cameras A and B is calculated.
前記画像処理手段は、前記コンテナの移動方向に沿って前記ワーク取出し位置より前記コンテナの移動ピッチ上流側にあった前記コンテナを前記カメラBによって撮像した画像と前記ワーク取出し位置にある該コンテナを前記カメラAによって撮像した画像を基に、前記ワーク取出し位置に配置された前記コンテナ内の、下流側半分にある前記ワークの3次元位置を算出し、前記ワーク取出し位置にある該コンテナを前記カメラA、Bで撮像した各画像を基に、前記ワーク取出し位置に配置された前記コンテナ内の、上流側半分にある前記ワークの3次元位置を算出することを特徴とする立体視ロボットピッキング装置。 The stereoscopic robot picking apparatus according to claim 1, wherein the camera B is a single unit, and the container B is located upstream of the work removal position by the moving pitch of the container along the moving direction of the container. It is arranged at a position where at least the downstream half can be imaged, and at least the upstream half of the container at the work removal position can be imaged,
The image processing means includes an image obtained by imaging the container located at the upstream side of the moving pitch of the container with respect to the moving position of the container along the moving direction of the container by the camera B, and the container at the moving position. Based on the image picked up by the camera A, the three-dimensional position of the work in the downstream half in the container arranged at the work take-out position is calculated, and the container at the work take-out position is determined as the camera A A stereoscopic robot picking apparatus that calculates a three-dimensional position of the workpiece in the upstream half in the container arranged at the workpiece removal position based on the images picked up by B and B.
前記画像処理手段は、前記ワーク取出し位置にある前記コンテナを前記カメラA及び前記一方のカメラBで撮像した各画像を基に、前記ワーク取出し位置に配置された前記コンテナ内の上流側半分にある前記ワークの3次元位置を算出し、前記ワーク取出し位置にある前記コンテナを前記カメラA及び前記他方のカメラBで撮像した各画像を基に、前記ワーク取出し位置に配置された前記コンテナ内の下流側半分にある前記ワークの3次元位置を算出することを特徴とする立体視ロボットピッキング装置。 2. The stereoscopic robot picking apparatus according to claim 1, wherein there are two cameras B, and one of the cameras B captures at least an upstream half of the container in the moving direction of the container at the workpiece removal position. The other camera B is arranged at a position where at least the downstream half of the container at the workpiece take-out position can be imaged,
The image processing means is in the upstream half of the container disposed at the work removal position based on the images obtained by capturing the container at the work removal position with the camera A and the one camera B. A three-dimensional position of the workpiece is calculated, and the downstream side of the container disposed at the workpiece removal position is based on each image obtained by capturing the container at the workpiece removal position with the camera A and the other camera B. A stereoscopic robot picking apparatus, characterized in that a three-dimensional position of the workpiece in a side half is calculated.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011056906A JP5544320B2 (en) | 2011-03-15 | 2011-03-15 | Stereoscopic robot picking device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011056906A JP5544320B2 (en) | 2011-03-15 | 2011-03-15 | Stereoscopic robot picking device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012192473A JP2012192473A (en) | 2012-10-11 |
JP5544320B2 true JP5544320B2 (en) | 2014-07-09 |
Family
ID=47084884
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011056906A Active JP5544320B2 (en) | 2011-03-15 | 2011-03-15 | Stereoscopic robot picking device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5544320B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107538466A (en) * | 2016-06-23 | 2018-01-05 | 沈阳新松机器人自动化股份有限公司 | Parallel robot |
CN109482503A (en) * | 2018-10-24 | 2019-03-19 | 东北大学 | The mobile sorting machine people of view-based access control model and its method for sorting |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015129388A1 (en) * | 2014-02-28 | 2015-09-03 | 株式会社イシダ | Boxing system |
JP2016070762A (en) | 2014-09-29 | 2016-05-09 | ファナック株式会社 | Detection method and detector for detecting three-dimensional position of object |
JP6529758B2 (en) * | 2014-12-25 | 2019-06-12 | 株式会社キーエンス | Image processing apparatus, image processing system, image processing method and computer program |
JP2018051728A (en) | 2016-09-30 | 2018-04-05 | ファナック株式会社 | Detection method and detection apparatus for detecting three-dimensional position of object |
CN109048862A (en) * | 2018-09-03 | 2018-12-21 | 天津永兴泰科技股份有限公司 | A kind of components sorting machine people based on machine vision |
CN109465809B (en) * | 2018-12-17 | 2024-07-19 | 中北大学 | Intelligent garbage classification robot based on binocular stereoscopic vision positioning identification |
CN109692825B (en) * | 2019-01-11 | 2021-07-06 | 上海卓畅信息技术有限公司 | Part sorting method and sorting equipment |
CN117337691B (en) * | 2023-09-21 | 2024-04-05 | 仲恺农业工程学院 | Pitaya picking method and picking robot based on deep neural network |
CN118123856A (en) * | 2024-03-20 | 2024-06-04 | 北京中科原动力科技有限公司 | Fruit and vegetable picking robot control method and device |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61152382A (en) * | 1984-12-27 | 1986-07-11 | 三井造船株式会社 | Method of controlling welding robot |
JPH01109089A (en) * | 1986-09-19 | 1989-04-26 | Hitachi Metals Ltd | Method of positioning manipulator |
JP3104450B2 (en) * | 1993-01-27 | 2000-10-30 | 株式会社ダイフク | Glass mounting equipment |
JP3516067B2 (en) * | 1994-04-26 | 2004-04-05 | 川崎重工業株式会社 | Image creation method and image creation device for depalletizing |
JP4004899B2 (en) * | 2002-09-02 | 2007-11-07 | ファナック株式会社 | Article position / orientation detection apparatus and article removal apparatus |
JP4655309B2 (en) * | 2005-11-09 | 2011-03-23 | 株式会社Ihi | Picking order determination method, apparatus and program thereof, and picking system |
JP4226623B2 (en) * | 2006-09-29 | 2009-02-18 | ファナック株式会社 | Work picking device |
-
2011
- 2011-03-15 JP JP2011056906A patent/JP5544320B2/en active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107538466A (en) * | 2016-06-23 | 2018-01-05 | 沈阳新松机器人自动化股份有限公司 | Parallel robot |
CN107538466B (en) * | 2016-06-23 | 2020-06-19 | 沈阳新松机器人自动化股份有限公司 | Parallel robot |
CN109482503A (en) * | 2018-10-24 | 2019-03-19 | 东北大学 | The mobile sorting machine people of view-based access control model and its method for sorting |
Also Published As
Publication number | Publication date |
---|---|
JP2012192473A (en) | 2012-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5544320B2 (en) | Stereoscopic robot picking device | |
CN109665307B (en) | Work system, work execution method for article, and robot | |
JP5893695B1 (en) | Article transport system | |
CN102735166B (en) | Spatial digitizer and robot system | |
JP5282717B2 (en) | Robot system | |
JP5447483B2 (en) | Robot system and method of manufacturing workpiece | |
JP7174074B2 (en) | Image processing equipment, work robots, substrate inspection equipment and specimen inspection equipment | |
US10576526B2 (en) | Workpiece conveying system, and workpiece conveying method | |
CN100447525C (en) | Measuring method of image measuring instrument | |
JP6014315B2 (en) | Measuring method of electronic component mounting device | |
JP2017100214A (en) | Manipulator system, imaging system, object delivery method, and manipulator control program | |
US20150290805A1 (en) | Vision-Assisted System and Method for Picking of Rubber Bales in a Bin | |
US10882701B2 (en) | Method and apparatus for detecting faults during object transport | |
JP2013086184A (en) | Workpiece takeout system, robot apparatus and method for manufacturing material to be processed | |
JP2019025634A (en) | Article conveyance device | |
JP6706695B2 (en) | Coordinate data generation device and coordinate data generation method | |
JPWO2015019487A1 (en) | Mounting apparatus and component detection method | |
US10932401B2 (en) | Component mounting machine | |
CN105848463A (en) | Electronic part installation device, and substrate supporting member ordering method | |
JP2021122879A (en) | Image processing device and carrier device equipped with image processing device | |
JP6475165B2 (en) | Mounting device | |
JPWO2020003384A1 (en) | Flatness acquisition system and mounting machine | |
JP5868257B2 (en) | Work position detection method and work transfer method using the same | |
JP5238730B2 (en) | Component mounting machine, component detection apparatus, and component mounting method | |
JP6889216B2 (en) | Work system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130522 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140304 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140331 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140422 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140512 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5544320 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |