JP5606424B2 - Component extraction method and component extraction system - Google Patents

Component extraction method and component extraction system Download PDF

Info

Publication number
JP5606424B2
JP5606424B2 JP2011242647A JP2011242647A JP5606424B2 JP 5606424 B2 JP5606424 B2 JP 5606424B2 JP 2011242647 A JP2011242647 A JP 2011242647A JP 2011242647 A JP2011242647 A JP 2011242647A JP 5606424 B2 JP5606424 B2 JP 5606424B2
Authority
JP
Japan
Prior art keywords
stage
robot
swing
component
dimensional image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011242647A
Other languages
Japanese (ja)
Other versions
JP2013094936A (en
Inventor
孝介 冨永
幸市 植村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2011242647A priority Critical patent/JP5606424B2/en
Publication of JP2013094936A publication Critical patent/JP2013094936A/en
Application granted granted Critical
Publication of JP5606424B2 publication Critical patent/JP5606424B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、部品取り出し方法、部品取り出しシステムに関する。   The present invention relates to a component extraction method and a component extraction system.

近年の生産形態においては、これまでの多品種・少量生産から頻繁な機種の段取り替え、生産量の急激な変化に対応可能な変種・変量形態を考慮した生産設備が要求されている。特に、個別製品に対して専用機能に特化した設備から対象製品枠が広く汎用性の高い設備の開発が要求されている。その中で汎用性を持つ核製品であるロボットが近年多用されている。このロボットで部品を把持する際の部品取り出し方法については従来パーツフィーダなどの専用機器を使用して行っていたが、近年の多品種少量生産形態においては複数の部品のバラ積み状態から1つの部品を直接把持して自動組み立て機械などの所定の装置へ供給することが必要とされている。   In recent production forms, there is a demand for production equipment that takes into account the variety / variation form that can cope with the rapid change of the production amount and the change of the model from the conventional high-mix / small-volume production. In particular, there is a demand for the development of highly versatile equipment with a wide target product range from equipment specialized for dedicated functions for individual products. Among them, robots, which are versatile nuclear products, are frequently used in recent years. The part picking method when gripping a part with this robot has been conventionally performed by using a dedicated device such as a parts feeder. However, in recent high-mix low-volume production forms, a single part is in a state of being stacked in multiple parts. It is necessary to directly grip and supply to a predetermined apparatus such as an automatic assembly machine.

特許文献1には、部品ピックアップ装置において、トレイ上の乱雑な重なり状態にあるボルト群をCCDカメラで撮像し、撮像した画像上で輪郭が他のボルトから孤立している孤立ボルトを探索し、孤立ボルトが発見できた場合にロボットで孤立ボルトをピックアップし、孤立ボルトが発見できない場合に加振装置を動作させ、再び孤立ボルトを探索することが記載されている。これにより、特許文献1によれば、トレイ上のボルト群から1個ずつ順に孤立ボルトがピックアップされるので、従来のロボットによる把持ピックアップ作業を開始する前に必要だった部品の整列や位置決めが不要となり、部品の整列や位置決めのための人手や専用の機構を省くことができるとされている。   In Patent Document 1, in a component pickup device, a group of bolts in a messy overlapping state on a tray is imaged with a CCD camera, and an isolated bolt whose contour is isolated from other bolts on the captured image is searched. It is described that when an isolated bolt is found, the robot picks up the isolated bolt, and when the isolated bolt cannot be found, the vibration device is operated to search for the isolated bolt again. Thus, according to Patent Document 1, since the isolated bolts are picked up one by one from the bolt group on the tray, it is not necessary to align and position the parts required before starting the grip pickup operation by the conventional robot. Therefore, it is said that it is possible to omit manual and dedicated mechanisms for aligning and positioning parts.

特許文献2には、部品供給装置において、ロボットが部品の山から複数の部品をつかんでばらまくことによって部品同士の重複をなくし、ばらまかれた各部品をカメラで撮影し、その画像から供給可能な姿勢にある部品を判別してロボットでつかんで部品供給箇所へ供給することが記載されている。これにより、特許文献2によれば、部品をばらまくことによって部品の重複をなくすので、部品と背景との分離が不要となり、部品の姿勢を認識する画像認識装置が2次元画像認識用の簡易なもので良くなるとされている。   Patent Document 2 discloses that in a component supply apparatus, a robot can grab and disperse a plurality of components from a mountain of components, eliminate the overlap between components, photograph each dispersed component with a camera, and supply from the image It describes that a component in a posture is identified, grasped by a robot, and supplied to a component supply location. Thus, according to Patent Document 2, since the parts are not overlapped by dispersing the parts, it is not necessary to separate the parts from the background, and the image recognition apparatus for recognizing the orientation of the parts is a simple two-dimensional image recognition. It is said that things will improve.

特開平11−300670号公報Japanese Patent Laid-Open No. 11-300670 特開平06−127698号公報Japanese Patent Laid-Open No. 06-127698

特許文献1に記載の技術では、乱雑な重なり状態にあるボルト群の個数が最多で2個〜5個程度までであることが前提とされており、複数の部品がトレイの底面を埋め尽くすほどにトレイ上に山積みになった状態が想定されていない。特許文献1には、複数の部品が山積みされたトレイから1つの部品を取り出して所定の装置へ供給する処理をどのようにして効率化するのかに関して一切記載がない。   In the technique described in Patent Document 1, it is assumed that the number of bolt groups in a messy overlapping state is at most about 2 to 5, and a plurality of parts fill the bottom surface of the tray. However, it is not assumed that they are piled up on the tray. Patent Document 1 does not describe at all how to improve the efficiency of the process of taking out one component from a tray in which a plurality of components are stacked and supplying them to a predetermined apparatus.

仮に、特許文献1に記載の技術において、複数のボルトが山積みになった状態のトレイからボルトを取り出そうとして、トレイに対して外力による加振を与えても、ボルトの山が若干崩れるのみでボルトが孤立状態(孤立ボルト)にはならず、画像認識によって孤立ボルトが発見できないためボルト(部品)を取り出すことが難しい。   In the technique described in Patent Document 1, even if an attempt is made to remove a bolt from a tray in which a plurality of bolts are piled up and vibration is applied to the tray by an external force, the peak of the bolt only collapses slightly. It is difficult to take out the bolt (part) because the bolt is not in an isolated state (isolated bolt) and cannot be found by image recognition.

特許文献2に記載の技術では、ロボットが部品の山から複数の部品をつかんで重複しないように1個ずつ部品をばらまく必要があるので、非常に複雑なロボットハンドの動作制御が必要となり、制御演算量が増大しやすい。すなわち、特許文献2に記載の技術では、複数の部品が山積みされたトレイから1つの部品を取り出して所定の装置へ供給する処理の効率が低下しやすい。   In the technique described in Patent Document 2, since it is necessary for the robot to grasp a plurality of parts from a pile of parts and distribute the parts one by one so that they do not overlap, it is necessary to control the operation of a very complicated robot hand. The amount of calculation tends to increase. That is, in the technique described in Patent Document 2, the efficiency of processing for taking out one component from a tray in which a plurality of components are stacked and supplying the same to a predetermined apparatus is likely to be reduced.

仮に、ロボットが部品の山から複数の部品をつかんでばらまく処理を簡易なロボットハンドの動作制御で行った場合、重複が発生しない可能性が確率に左右される確実性に欠けるものとなるため、ばらまかれた複数の部品の間で重複が発生しやすく、ばらまく処理をやり直さなければならなくなるため、複数の部品が山積みされたトレイから1つの部品を取り出して所定の装置へ供給する処理の効率が低下しやすい。   If a robot grabs multiple parts from a pile of parts and performs processing with simple robot hand motion control, there is a lack of certainty depending on the probability that duplication will not occur. Duplicate parts are likely to occur between dispersed parts, and it is necessary to repeat the dispersion process. Therefore, the efficiency of the process of taking out one part from a tray in which a plurality of parts are stacked and supplying it to a predetermined apparatus is improved. It tends to decline.

本発明は、上記に鑑みてなされたものであって、複数の部品が山積みされたトレイから1つの部品を取り出して所定の装置へ供給する処理を効率化できる部品取り出し方法、及び部品取り出しシステムを得ることを目的とする。   The present invention has been made in view of the above, and provides a component extraction method and a component extraction system that can improve the efficiency of the process of taking out one component from a tray in which a plurality of components are stacked and supplying them to a predetermined apparatus. The purpose is to obtain.

上述した課題を解決し、目的を達成するために、本発明の1つの側面にかかる部品取り出し方法は、3次元画像センサ及び第1のロボットハンドを有する第1のロボットが、複数の部品が山積みされたトレイから取り出すべき1つの部品の3次元位置及び状態を前記3次元画像センサで認識し、前記認識に応じて前記1つの部品を前記第1のロボットハンドで前記トレイから取り出す第1の取り出しステップと、前記第1のロボットが、前記第1の取り出しステップで取り出された前記1つの部品を前記第1のロボットハンドでステージの上に仮置きする仮置きステップと、揺動機構が、前記ステージの上に仮置きされた前記1つの部品の姿勢を複数の姿勢のうちの特定の姿勢へ誘導するように、前記ステージを揺動させる揺動ステップと、2次元画像センサ及び第2のロボットハンドを有する第2のロボットが、前記ステージの上における前記特定の姿勢にある前記1つの部品の位置を前記2次元画像センサで認識し、前記認識に応じて前記1つの部品を前記第2のロボットハンドで取り出す第2の取り出しステップとを備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, a part picking method according to one aspect of the present invention includes a first robot having a three-dimensional image sensor and a first robot hand, and a plurality of parts stacked. The three-dimensional image sensor recognizes the three-dimensional position and state of one part to be taken out from the tray, and the first part is taken out from the tray by the first robot hand according to the recognition. A temporary placement step in which the first robot temporarily places the one part taken out in the first take-out step on a stage with the first robot hand; and a swing mechanism, A swinging step of swinging the stage so as to guide the posture of the one part temporarily placed on the stage to a specific posture among a plurality of postures; A second robot having a two-dimensional image sensor and a second robot hand recognizes the position of the one component in the specific posture on the stage by the two-dimensional image sensor, and according to the recognition, And a second picking-up step for picking up one part with the second robot hand.

本発明によれば、ステージ上の部品の姿勢を特定の姿勢へ誘導するので、第2のロボットに搭載している2次元画像センサによる姿勢パターン比較時の登録データを大幅に低減でき、2次元画像センサによる画像処理内容を簡略化できる。これにより、2次元画像センサによる画像処理の負荷を軽減でき、2次元画像センサによる画像処理の処理速度を向上させることが可能となり、生産性をあげることができる。すなわち、複数の部品が山積みされたトレイから1つの部品を取り出して所定の装置へ供給する処理を効率化できる。   According to the present invention, since the posture of the part on the stage is guided to a specific posture, registration data at the time of posture pattern comparison by the two-dimensional image sensor mounted on the second robot can be greatly reduced. The content of image processing by the image sensor can be simplified. As a result, the load of image processing by the two-dimensional image sensor can be reduced, the processing speed of image processing by the two-dimensional image sensor can be improved, and productivity can be increased. In other words, it is possible to improve the efficiency of the process of taking out one component from a tray in which a plurality of components are stacked and supplying them to a predetermined apparatus.

図1は、実施の形態にかかる部品取り出しシステムの構成を示す図である。FIG. 1 is a diagram illustrating a configuration of a component pickup system according to an embodiment. 図2は、実施の形態におけるステージ及び揺動機構の構成を示す図である。FIG. 2 is a diagram illustrating a configuration of a stage and a swing mechanism in the embodiment. 図3は、実施の形態にかかる部品取り出しシステムの動作を示すシーケンス図である。FIG. 3 is a sequence diagram illustrating the operation of the component pickup system according to the embodiment. 図4は、実施の形態にかかる部品取り出しシステムの動作を示す図である。FIG. 4 is a diagram illustrating an operation of the component pickup system according to the embodiment. 図5は、実施の形態における部品の形状を示す図である。FIG. 5 is a diagram showing the shape of a component in the embodiment. 図6は、実施の形態における部品の姿勢を示す図である。FIG. 6 is a diagram illustrating the posture of a component in the embodiment. 図7は、実施の形態の変形例にかかる部品取り出しシステムの動作を示すシーケンス図である。FIG. 7 is a sequence diagram illustrating the operation of the component removal system according to the modification of the embodiment.

以下に、本発明にかかる部品取り出し方法、及び部品取り出しシステムの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。   Embodiments of a component picking method and a component picking system according to the present invention will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.

実施の形態.
実施の形態にかかる部品取り出しシステム100について図1及び図2を用いて説明する。図1は、部品取り出しシステム100の構成を示す図である。図2は、ステージ40及び揺動機構50の構成を示す図である。
Embodiment.
A component picking system 100 according to an embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is a diagram showing a configuration of a component picking system 100. FIG. 2 is a diagram illustrating the configuration of the stage 40 and the swing mechanism 50.

部品取り出しシステム100は、複数の部品が山積みされたトレイ30から1つの部品を取り出して所定の装置(図示せず)へ供給するためのシステムである。所定の装置は、例えば、供給された部品を用いて所定の組み立て作業を行う自動機械である。   The parts removal system 100 is a system for taking out one part from the tray 30 in which a plurality of parts are stacked and supplying the same to a predetermined device (not shown). The predetermined apparatus is, for example, an automatic machine that performs a predetermined assembly operation using supplied parts.

具体的には、部品取り出しシステム100は、ロボット(第1のロボット)10、ロボット(第2のロボット)20、トレイ30、ステージ40、揺動機構50、及び制御部60を備える。   Specifically, the component extraction system 100 includes a robot (first robot) 10, a robot (second robot) 20, a tray 30, a stage 40, a swing mechanism 50, and a control unit 60.

ロボット10は、例えば、6自由度の多関節ロボットであり、複数のロボットアーム13−1、13−2、複数の関節部14−1〜14−3、基部15、フランジ16、3次元画像センサ11、及びロボットハンド(第1のロボットハンド)12を有する。複数のロボットアーム13−1、13−2は、複数の関節部14−1〜14−3を介して基部15に接続されている。ロボットアーム13−1の先端には、フランジ16が設けられている。フランジ16には作業用のツールとして例えばロボットハンド12等が装着される。そして、フランジ16には、ロボットハンド12等のツールと並んで3次元画像センサ11が取り付けられている。ロボットハンド12等及びフランジ16の位置と姿勢はロボットコントローラ61が制御している。これにより、ロボット10は、所定の対象物に対して所定の作業を行う。   The robot 10 is, for example, a multi-joint robot with 6 degrees of freedom, and includes a plurality of robot arms 13-1, 13-2, a plurality of joint portions 14-1 to 14-3, a base portion 15, a flange 16, and a three-dimensional image sensor. 11 and a robot hand (first robot hand) 12. The plurality of robot arms 13-1 and 13-2 are connected to the base portion 15 via the plurality of joint portions 14-1 to 14-3. A flange 16 is provided at the tip of the robot arm 13-1. For example, a robot hand 12 or the like is attached to the flange 16 as a working tool. The three-dimensional image sensor 11 is attached to the flange 16 along with a tool such as the robot hand 12. The robot controller 61 controls the positions and postures of the robot hand 12 and the flange 16. As a result, the robot 10 performs a predetermined operation on a predetermined object.

3次元画像センサ11は、撮像部11a及び画像処理部11bを有する。撮像部11aは、被写界の3次元画像を取得する。例えば、撮像部11aは、トレイ30の内側に存在する複数の部品WK−1〜WK−Nの3次元画像を取得する。画像処理部11bは、撮像部11aにより取得された3次元画像に対して所定の画像処理を施す。画像処理部11bは、画像処理の施された3次元画像データを制御部60へ送信する。なお、画像処理部11bは、撮像部11aが内蔵された筐体内に配されていてもよいし、撮像部11aが内蔵された筐体の外部に配されていてもよい。   The three-dimensional image sensor 11 includes an imaging unit 11a and an image processing unit 11b. The imaging unit 11a acquires a three-dimensional image of the object scene. For example, the imaging unit 11a acquires a three-dimensional image of a plurality of components WK-1 to WK-N existing inside the tray 30. The image processing unit 11b performs predetermined image processing on the three-dimensional image acquired by the imaging unit 11a. The image processing unit 11b transmits the three-dimensional image data subjected to the image processing to the control unit 60. Note that the image processing unit 11b may be arranged in a housing in which the imaging unit 11a is built, or may be arranged outside the housing in which the imaging unit 11a is built in.

ロボット20は、例えば、6自由度の多関節ロボットであり、複数のロボットアーム23−1、23−2、複数の関節部24−1〜24−3、基部25、フランジ26、2次元画像センサ21、及びロボットハンド(第2のロボットハンド)22を有する。複数のロボットアーム23−1、23−2は、複数の関節部24−1〜24−3を介して基部25に接続されている。ロボットアーム23−1の先端には、フランジ26が設けられている。フランジ26には作業用のツールとして例えばロボットハンド22等が装着される。そして、フランジ26には、ロボットハンド22等のツールと並んで2次元画像センサ21が取り付けられている。ロボットハンド22等及びフランジ26の位置と姿勢はロボットコントローラ62が制御している。これにより、ロボット20は、所定の対象物に対して所定の作業を行う。   The robot 20 is, for example, a 6-DOF multi-joint robot, and includes a plurality of robot arms 23-1, 23-2, a plurality of joint portions 24-1 to 24-3, a base portion 25, a flange 26, and a two-dimensional image sensor. 21 and a robot hand (second robot hand) 22. The plurality of robot arms 23-1 and 23-2 are connected to the base portion 25 via a plurality of joint portions 24-1 to 24-3. A flange 26 is provided at the tip of the robot arm 23-1. For example, a robot hand 22 or the like is attached to the flange 26 as a working tool. A two-dimensional image sensor 21 is attached to the flange 26 along with a tool such as the robot hand 22. The robot controller 62 controls the positions and postures of the robot hand 22 and the like and the flange 26. Thereby, the robot 20 performs a predetermined operation on the predetermined object.

2次元画像センサ21は、撮像部21a及び画像処理部21bを有する。撮像部21aは、被写界の2次元画像を取得する。例えば、撮像部21aは、ステージ40の上に存在する1つの部品WKの2次元画像を取得する。画像処理部21bは、撮像部21aにより取得された2次元画像に対して所定の画像処理を施す。画像処理部21bは、画像処理の施された2次元画像データを制御部60へ送信する。なお、画像処理部21bは、撮像部21aが内蔵された筐体内に配されていてもよいし、撮像部21aが内蔵された筐体の外部に配されていてもよい。   The two-dimensional image sensor 21 includes an imaging unit 21a and an image processing unit 21b. The imaging unit 21a acquires a two-dimensional image of the object scene. For example, the imaging unit 21a acquires a two-dimensional image of one component WK present on the stage 40. The image processing unit 21b performs predetermined image processing on the two-dimensional image acquired by the imaging unit 21a. The image processing unit 21b transmits the two-dimensional image data subjected to the image processing to the control unit 60. Note that the image processing unit 21b may be arranged in a housing in which the imaging unit 21a is built, or may be arranged outside the housing in which the imaging unit 21a is built in.

トレイ30には、複数の部品WK−1〜WK−Nがバラ積みされているとともに山積みされている。なお、本明細書において、「山積み」とは、複数の部品WK−1〜WK−Nがトレイ30の底面を埋め尽くすほど山積みになった状態を示すものとする。   On the tray 30, a plurality of parts WK-1 to WK-N are piled up and piled up. In the present specification, the “stack” indicates a state in which the plurality of parts WK-1 to WK-N are stacked so as to fill the bottom surface of the tray 30.

ステージ40は、トレイ30に山積みされた複数の部品WK−1〜WK−Nのうちの1つの部品WKが上に仮置きされるべきステージである。例えば、ステージ40は、図2に示すように、底面部41と4つの側面部42〜45とを有する。底面部41は、X方向及びY方向に延びた底面を形成する。各側面部42〜45は、底面部41の外縁から+Z側に立ち上がるように延びている。これにより、1つの部品WKが底面部41の上に置かれてステージ40が例えばX方向及びY方向に揺動された際に、1つの部品WKがステージ40から飛び出すことを抑制できる。   The stage 40 is a stage on which one component WK among the plurality of components WK-1 to WK-N stacked on the tray 30 is to be temporarily placed. For example, the stage 40 includes a bottom surface portion 41 and four side surface portions 42 to 45 as shown in FIG. The bottom surface portion 41 forms a bottom surface extending in the X direction and the Y direction. Each of the side surface portions 42 to 45 extends from the outer edge of the bottom surface portion 41 so as to rise to the + Z side. Accordingly, it is possible to suppress one component WK from jumping out of the stage 40 when one component WK is placed on the bottom surface portion 41 and the stage 40 is swung in, for example, the X direction and the Y direction.

揺動機構50は、ステージ40を例えばX方向及びY方向に揺動させる。例えば、揺動機構50は、図2に示すように、X軸駆動源51、Y軸駆動源52、X軸駆動機構53、及びY軸駆動機構54を有する。X軸駆動源51は、揺動コントローラ63による制御のもと、X軸駆動機構53を介してステージ40をX方向に揺動させる。Y軸駆動源52は、揺動コントローラ63による制御のもと、Y軸駆動機構54を介してステージ40をY方向に揺動させる。   The swing mechanism 50 swings the stage 40 in, for example, the X direction and the Y direction. For example, the swing mechanism 50 includes an X-axis drive source 51, a Y-axis drive source 52, an X-axis drive mechanism 53, and a Y-axis drive mechanism 54 as shown in FIG. The X-axis drive source 51 swings the stage 40 in the X direction via the X-axis drive mechanism 53 under the control of the swing controller 63. The Y-axis drive source 52 swings the stage 40 in the Y direction via the Y-axis drive mechanism 54 under the control of the swing controller 63.

制御部60は、部品取り出しシステム100における各部を全体的に制御する。制御部60は、ロボットコントローラ61、ロボットコントローラ62、及び揺動コントローラ63を有する。ロボットコントローラ61は、ロボットプログラムに従って、ロボット10を制御するとともに、ロボットコントローラ62や揺動コントローラ63との間で所定の制御信号を送受信する。ロボットコントローラ62は、ロボットプログラムに従って、ロボット20を制御するとともに、ロボットコントローラ61や揺動コントローラ63との間で所定の制御信号を送受信する。揺動コントローラ63は、例えば、ロボットコントローラ61やロボットコントローラ62から受信した制御信号に応じて、揺動機構50を制御する。   The control unit 60 controls the respective units in the component picking system 100 as a whole. The control unit 60 includes a robot controller 61, a robot controller 62, and a swing controller 63. The robot controller 61 controls the robot 10 according to the robot program and transmits / receives predetermined control signals to / from the robot controller 62 and the swing controller 63. The robot controller 62 controls the robot 20 according to the robot program and transmits / receives predetermined control signals to / from the robot controller 61 and the swing controller 63. The swing controller 63 controls the swing mechanism 50 in accordance with, for example, a control signal received from the robot controller 61 or the robot controller 62.

例えば、制御部60は、第1の期間において、トレイ30から取り出すべき1つの部品WKの3次元位置及び状態を3次元画像センサ11で認識するように、ロボット10を制御する。制御部60は、第1の期間において、その認識結果に応じて、1つの部品WKをロボットハンド12で取り出すように、ロボット10を制御する。制御部60は、第2の期間において、取り出された1つの部品をロボットハンド12でステージ40の上に仮置きするように、ロボット10を制御する。第2の期間は、第1の期間に続く期間である。制御部60は、第3の期間において、ステージ40を揺動させるように揺動機構50を制御する。これにより、ステージ40の上に仮置きされた1つの部品WKの姿勢を複数の姿勢のうちの特定の姿勢へ変更させることができる。第3の期間は、第2の期間に続く期間である。制御部60は、第4の期間において、ステージ40の上における特定の姿勢にある1つの部品WKの位置を2次元画像センサ21で認識するように、ロボット20を制御する。第4の期間は、第3の期間に続く期間である。制御部60は、第4の期間において、その認識結果に応じて1つの部品WKをロボットハンド22で取り出し所定の装置(例えば、自動機械)へ供給するように、ロボット20を制御する。   For example, the control unit 60 controls the robot 10 so that the three-dimensional image sensor 11 recognizes the three-dimensional position and state of one component WK to be removed from the tray 30 in the first period. In the first period, the control unit 60 controls the robot 10 to take out one component WK with the robot hand 12 according to the recognition result. In the second period, the control unit 60 controls the robot 10 so that the picked-up component is temporarily placed on the stage 40 by the robot hand 12. The second period is a period following the first period. The controller 60 controls the swing mechanism 50 so as to swing the stage 40 in the third period. Thereby, the posture of one component WK temporarily placed on the stage 40 can be changed to a specific posture among a plurality of postures. The third period is a period following the second period. The control unit 60 controls the robot 20 so that the two-dimensional image sensor 21 recognizes the position of one component WK in a specific posture on the stage 40 in the fourth period. The fourth period is a period following the third period. In the fourth period, the control unit 60 controls the robot 20 so that one part WK is taken out by the robot hand 22 and supplied to a predetermined device (for example, an automatic machine) according to the recognition result.

次に、部品取り出しシステム100の動作について、図3〜図6を用いて説明する。図3は、部品取り出しシステム100の動作を示すシーケンス図である。図4(a)〜(d)は、トレイ30から1つの部品WKを取り出す手順を示す図である。図5(a)、(b)、(c)は、1つの部品WKの形状をそれぞれ示す平面図、側面図、正面図である。図6(a)〜(e)は、1つの部品WKの姿勢を特定の姿勢へ誘導する手順を示す図である。   Next, operation | movement of the components extraction system 100 is demonstrated using FIGS. FIG. 3 is a sequence diagram illustrating the operation of the component picking system 100. 4A to 4D are diagrams illustrating a procedure for taking out one component WK from the tray 30. FIG. FIGS. 5A, 5B, and 5C are a plan view, a side view, and a front view showing the shape of one component WK, respectively. 6A to 6E are diagrams illustrating a procedure for guiding the posture of one component WK to a specific posture.

ステップS1では、ロボットコントローラ61が、ロボット10を制御して、トレイ30の内側を撮像可能な位置へ3次元画像センサ11を移動する(図4(a)参照)。3次元画像センサ11の撮像部11a(図1参照)は、トレイ30内に山積みされた複数の部品WK−1〜WK−Nを3次元的に撮像する。すなわち、撮像部11aは、トレイ30内に山積みされた複数の部品WK−1〜WK−Nの3次元画像を取得して画像処理部11bへ渡す。   In step S1, the robot controller 61 controls the robot 10 to move the three-dimensional image sensor 11 to a position where the inside of the tray 30 can be imaged (see FIG. 4A). The imaging unit 11a (see FIG. 1) of the three-dimensional image sensor 11 images a plurality of components WK-1 to WK-N stacked in the tray 30 three-dimensionally. That is, the imaging unit 11a acquires three-dimensional images of the plurality of components WK-1 to WK-N stacked in the tray 30 and passes them to the image processing unit 11b.

そして、ロボットコントローラ61は、ロボット10を制御して、撮像された画像に応じて複数の部品WK−1〜WK−Nのうちロボットハンド12で把持すべき部品WKの3次元位置及び状態を認識する。すなわち、3次元画像センサ11の画像処理部11bは、撮像部11aにより取得された3次元画像に対して所定の画像処理を施す。画像処理部11bは、画像処理の施された3次元画像データをロボットコントローラ61へ送信する。ロボットコントローラ61は、3次元画像データを用いて、複数の部品WK−1〜WK−Nのうちロボットハンド12で把持すべき1つの部品WKを特定し、特定した1つの部品WKの3次元位置と部品WKの状態(例えば、部品WKの姿勢)とを認識する。   Then, the robot controller 61 controls the robot 10 to recognize the three-dimensional position and state of the component WK to be gripped by the robot hand 12 among the plurality of components WK-1 to WK-N according to the captured image. To do. That is, the image processing unit 11b of the three-dimensional image sensor 11 performs predetermined image processing on the three-dimensional image acquired by the imaging unit 11a. The image processing unit 11b transmits the three-dimensional image data subjected to the image processing to the robot controller 61. The robot controller 61 uses the three-dimensional image data to identify one component WK to be gripped by the robot hand 12 among the plurality of components WK-1 to WK-N, and the three-dimensional position of the identified one component WK. And the state of the component WK (for example, the posture of the component WK).

ステップS2では、ロボットコントローラ61が、ロボット10を制御して、ステップS1で認識された結果に応じて1つの部品WKをロボットハンド12でトレイ30から取り出す。すなわち、ロボットコントローラ61は、把持すべき部品WKの3次元位置の近傍までロボットハンド12の先端を移動させ、部品WKの状態(例えば、部品WKの姿勢)に応じてロボットハンド12の先端の向きや姿勢を制御し、ステップS1で特定された部品WKを把持する(図4(b)参照)。このとき、ロボットハンド12の部品を把持する先端爪は把持する際に部品WKの山の積み重なった状態に対して影響が少なく、かつ特定した部品WK以外の部品を同時に把持しないように細い先端形状を持つ爪が望ましい。   In step S <b> 2, the robot controller 61 controls the robot 10 and takes out one component WK from the tray 30 with the robot hand 12 according to the result recognized in step S <b> 1. That is, the robot controller 61 moves the tip of the robot hand 12 to the vicinity of the three-dimensional position of the component WK to be gripped, and the orientation of the tip of the robot hand 12 according to the state of the component WK (for example, the posture of the component WK). And the posture is controlled, and the component WK specified in step S1 is gripped (see FIG. 4B). At this time, the tip claw that grips the parts of the robot hand 12 has little influence on the stacked state of the parts WK when gripping, and has a thin tip shape so as not to grip parts other than the specified part WK at the same time. Nail with is desirable.

ステップS3では、ロボットコントローラ61が、ロボット10を制御して、ステップS2で取り出された1つの部品WKをロボットハンド12でステージ40の上に仮置きする。すなわち、ロボットコントローラ61は、特定した1個の部品WKを把持したロボットハンド12をトレイ30の上方へ上昇しさらにステージ40の上方へと移動する(図4(c)参照)。そして、ロボットコントローラ61は、ステージ40上方にてロボットハンド12を開放し把持した部品WKをステージ40の上へ仮置きする(図4(d)参照)。   In step S <b> 3, the robot controller 61 controls the robot 10 to temporarily place the one component WK taken out in step S <b> 2 on the stage 40 with the robot hand 12. That is, the robot controller 61 moves the robot hand 12 holding the specified one component WK upward above the tray 30 and further moves above the stage 40 (see FIG. 4C). Then, the robot controller 61 opens the robot hand 12 above the stage 40 and temporarily places the gripped component WK on the stage 40 (see FIG. 4D).

そして、部品の姿勢を特定の姿勢へ絞り込む(誘導する)ようにステージ40を揺動する。具体的には、ステップS4〜ステップS7の処理を行う。   Then, the stage 40 is swung so as to narrow down (guide) the posture of the component to a specific posture. Specifically, the processes in steps S4 to S7 are performed.

ステップS4では、ロボットコントローラ61が、ステージ40を揺動することを指令する揺動指令を揺動コントローラ63へ送信する。   In step S <b> 4, the robot controller 61 transmits a swing command for instructing to swing the stage 40 to the swing controller 63.

揺動コントローラ63は、揺動指令を受信すると、ステップS5、ステップS6の処理が行なわれるように制御する。   When the swing controller 63 receives the swing command, the swing controller 63 controls the processing in steps S5 and S6 to be performed.

ステップS5では、揺動コントローラ63が、ステージ40を揺動させる際の駆動パターンである揺動パターンを所定の揺動パターンに決定する。所定の揺動パターンは、ステージ40の上に置かれた1つの部品WKの姿勢を複数の姿勢(図6(a)〜(e)参照)のうちの特定の姿勢(図6(e)参照)へ誘導するように、予め実験的に取得されたパターンである。所定の揺動パターンは、ふり幅、揺動の周期、揺動の回数(又は揺動の時間)などを含む。   In step S5, the swing controller 63 determines a swing pattern that is a driving pattern for swinging the stage 40 as a predetermined swing pattern. In the predetermined swing pattern, the posture of one component WK placed on the stage 40 is a specific posture (see FIG. 6E) among a plurality of postures (see FIGS. 6A to 6E). It is a pattern acquired experimentally in advance so as to lead to The predetermined swing pattern includes a swing width, a swing cycle, the number of swings (or a swing time), and the like.

ステップS6では、揺動コントローラ63が、揺動機構50を制御して、ステップS5で決定した揺動パターンに従ってステージ40を揺動する。   In step S6, the swing controller 63 controls the swing mechanism 50 to swing the stage 40 according to the swing pattern determined in step S5.

例えば、ステージ40上の部品WKの形状が図5(a)〜(c)に示すような形状である場合、ステージ40上における部品WKの初期状態姿勢は不定であり、例えば図6(a)〜(d)に示す4態の姿勢が考えられる。すなわち、第1の縦姿勢、第2の縦姿勢、第1の横姿勢、第2の横姿勢のいずれかの状態にある時、X軸駆動源51またはY軸駆動源52またはその両方を用いてX軸駆動機構53またはY軸駆動機構54またはその両方を左右方向あるいは前後方向あるいはその両方向に駆動させてステージ40を振動させることで、例えば図6(e)に示す安定姿勢へと変化させる。   For example, when the shape of the component WK on the stage 40 is a shape as shown in FIGS. 5A to 5C, the initial state posture of the component WK on the stage 40 is indefinite, for example, FIG. There are four possible postures shown in (d). That is, the X-axis drive source 51 and / or the Y-axis drive source 52 are used when the first vertical posture, the second vertical posture, the first horizontal posture, or the second horizontal posture is in a state. The stage 40 is vibrated by driving the X-axis drive mechanism 53 or the Y-axis drive mechanism 54 or both in the left-right direction, the front-rear direction, or both directions, thereby changing to a stable posture shown in FIG. .

なお、この際にステージ40の底面(底面部41の表面)には例えばゴム製のシートを貼付し部品WKと底面との摩擦力を上げることで姿勢の変化をより高めるほうが望ましい。また振動を発生させる際の駆動源については機器接続・制御方式が容易なエアシリンダを用いるのが好ましいが、姿勢を絞りこむ部品によってはサーボモータなどの駆動源を用いる事で振動開始時の加減速、振動時の速度を変化させた方がより確実に安定姿勢へと変化させることも可能となる。   At this time, it is desirable to increase the change in posture by attaching a rubber sheet, for example, to the bottom surface of the stage 40 (the surface of the bottom surface portion 41) and increasing the frictional force between the component WK and the bottom surface. As the drive source for generating vibration, it is preferable to use an air cylinder that can be easily connected and controlled. However, depending on the part that narrows down the posture, a drive source such as a servo motor can be used to increase the vibration. It becomes possible to change the speed to a stable posture more reliably by changing the speed during deceleration and vibration.

揺動コントローラ63は、所定の揺動パターンに従ったステージの揺動が完了したら、揺動完了通知をロボットコントローラ62へ送信する。   When the swing of the stage according to a predetermined swing pattern is completed, the swing controller 63 transmits a swing completion notification to the robot controller 62.

ステップS7では、ロボットコントローラ62が、揺動完了通知を受信していなければ、ステージ40の揺動が完了していない(ステップS7でNo)と判断して処理をステップS7へ進め、揺動完了通知を受信すると、ステージ40の揺動が完了した(ステップS7でYes)と判断して処理をステップS8へ進める。   In step S7, if the robot controller 62 has not received the swing completion notification, it is determined that the swing of the stage 40 has not been completed (No in step S7), and the process proceeds to step S7. When the notification is received, it is determined that the swing of the stage 40 has been completed (Yes in step S7), and the process proceeds to step S8.

ステップS8では、ロボットコントローラ62が、ロボット20を制御して、ステージ40の上を撮像可能な位置へ2次元画像センサ21を移動する。2次元画像センサ21の撮像部21a(図1参照)は、ステージ40の上に置かれた部品WKを2次元的に撮像する。すなわち、撮像部21aは、ステージ40の上に置かれた部品WKの2次元画像を取得して画像処理部21bへ渡す。   In step S <b> 8, the robot controller 62 controls the robot 20 and moves the two-dimensional image sensor 21 to a position where the top of the stage 40 can be imaged. The imaging unit 21a (see FIG. 1) of the two-dimensional image sensor 21 images the component WK placed on the stage 40 two-dimensionally. That is, the imaging unit 21a acquires a two-dimensional image of the component WK placed on the stage 40 and passes it to the image processing unit 21b.

そして、ロボットコントローラ62は、ロボット20を制御して、撮像された画像に応じてロボットハンド22で把持すべき部品WKの2次元位置を認識する。すなわち、2次元画像センサ21の画像処理部21bは、撮像部21aにより取得された2次元画像に対して所定の画像処理を施す。   Then, the robot controller 62 controls the robot 20 to recognize the two-dimensional position of the component WK to be gripped by the robot hand 22 according to the captured image. That is, the image processing unit 21b of the two-dimensional image sensor 21 performs predetermined image processing on the two-dimensional image acquired by the imaging unit 21a.

例えば、画像処理部21bは、2次元画像から部品外形パターンをエッジ検出等により抽出し、抽出された部品外形パターンを予め登録されている部品外形パターンと比較して、その部品の位置を画像処理にて求める。   For example, the image processing unit 21b extracts a component outline pattern from a two-dimensional image by edge detection or the like, compares the extracted component outline pattern with a previously registered component outline pattern, and performs image processing on the position of the component. Ask for.

ここで、仮に、部品WKの姿勢の絞り込み(ステップS5、ステップS6)を行わない場合、比較するために予め登録されている部品外形パターンは、図5(a)〜(c)に示す形状の部品WKに対して図6(a)〜(d)に対応した4態のパターンが必要となる。   Here, if the position of the component WK is not narrowed down (steps S5 and S6), the component external patterns registered in advance for comparison have the shapes shown in FIGS. 5 (a) to 5 (c). Four patterns corresponding to FIGS. 6A to 6D are required for the component WK.

それに対して、本実施の形態では、部品WKの姿勢の絞り込み(ステップS5、ステップS6)を行うので、比較するために予め登録されている部品外形パターンは、図5(a)〜(c)に示す形状の部品WKに対して図6(e)に対応した1態のパターンに低減できる。これにより、画像処理部21bへの登録パターンを低減でき、画像処理部21bによる画像処理の内容を簡略化できるので、画像処理部21bによる画像処理の負担を軽減し画像処理の処理速度の向上を図ることができる。   On the other hand, in the present embodiment, since the orientation of the component WK is narrowed down (steps S5 and S6), the component outline patterns registered in advance for comparison are shown in FIGS. 6 can be reduced to a single pattern corresponding to FIG. 6E. As a result, the number of patterns registered in the image processing unit 21b can be reduced, and the content of the image processing by the image processing unit 21b can be simplified. Can be planned.

画像処理部21bは、画像処理の施された2次元画像データをロボットコントローラ62へ送信する。ロボットコントローラ62は、2次元画像データを用いて、ステージ40上におけるロボットハンド22で把持すべき1つの部品WKの位置を認識する。すなわち、ロボットコントローラ62は、ロボットハンド22で把持すべき1つの部品WKの2次元位置を認識する。   The image processing unit 21b transmits the two-dimensional image data subjected to the image processing to the robot controller 62. The robot controller 62 recognizes the position of one component WK to be gripped by the robot hand 22 on the stage 40 using the two-dimensional image data. That is, the robot controller 62 recognizes the two-dimensional position of one component WK to be gripped by the robot hand 22.

ステップS9では、ロボットコントローラ62が、ロボット20を制御して、ステップS8で認識された結果に応じて1つの部品WKをロボットハンド22でステージ40から取り出し所定の装置(例えば、自動機械)へ供給する。すなわち、ロボットコントローラ62は、把持すべき部品WKの2次元位置の近傍までロボットハンド22の先端を移動させ、ステージ40上の部品WKを把持する。そして、ロボットコントローラ62は、1個の部品WKを把持したロボットハンド22をトレイ30の上方へ上昇し、さらに所定の装置へと移動する。   In step S9, the robot controller 62 controls the robot 20, takes out one component WK from the stage 40 with the robot hand 22 according to the result recognized in step S8, and supplies it to a predetermined device (for example, an automatic machine). To do. That is, the robot controller 62 moves the tip of the robot hand 22 to the vicinity of the two-dimensional position of the component WK to be gripped, and grips the component WK on the stage 40. Then, the robot controller 62 raises the robot hand 22 holding one component WK above the tray 30 and further moves to a predetermined device.

以上のように、本実施の形態では、多数の部品が山積みされたトレイから1台目のロボットに搭載している3次元画像センサにより把持する対象部品の3次元位置及び状態を認識し1個の部品をロボットで取り出すことで、多品種の部品に対して、部品の種類ごとの専用のパーツフィーダを多数搭載する必要がなく、部品取り出しシステムのコストを低減することができる。また、1台目のロボットで取り出した部品の姿勢が不定であることから、ステージに一度仮置きし外力でステージを振動させることで多数の部品姿勢を限られた特定の姿勢に絞り込む。これにより、2台目のロボットに搭載している2次元画像センサの画像処理部による姿勢パターン比較時の登録データを大幅に低減でき、2次元画像センサの画像処理部による画像処理内容を簡略化できる。これにより、2次元画像センサの画像処理部による画像処理の負荷を軽減でき、2次元画像センサの画像処理部による画像処理の処理速度を向上させることが可能となり、生産性をあげることができる。すなわち、複数の部品が山積みされたトレイから1つの部品を取り出して所定の装置へ供給する処理を効率化できる。   As described above, in this embodiment, the three-dimensional position and state of the target part to be grasped by the three-dimensional image sensor mounted on the first robot from the tray in which a large number of parts are stacked are recognized and one piece. By taking out these parts with a robot, it is not necessary to mount a large number of dedicated part feeders for each type of parts for a wide variety of parts, and the cost of the part picking system can be reduced. In addition, since the posture of the component picked up by the first robot is indefinite, a large number of component postures are narrowed down to specific postures by temporarily placing them on the stage and vibrating the stage with an external force. This greatly reduces the registration data when comparing the posture pattern by the image processing unit of the two-dimensional image sensor mounted on the second robot, and simplifies the contents of image processing by the image processing unit of the two-dimensional image sensor. it can. As a result, the load of image processing by the image processing unit of the two-dimensional image sensor can be reduced, the processing speed of image processing by the image processing unit of the two-dimensional image sensor can be improved, and productivity can be increased. In other words, it is possible to improve the efficiency of the process of taking out one component from a tray in which a plurality of components are stacked and supplying them to a predetermined apparatus.

なお、1つの部品についてのロボット20による部品の取り出し(ステップ8、ステップS9)と、その1つの部品の次に取り出される部品についてのロボット10による部品の取り出し(ステップ1、ステップS2)とは、並行して行われてもよい。この場合、複数の部品が山積みされたトレイから1つの部品を取り出して所定の装置へ供給する処理を、順次に取り出される複数の部品で見た場合においても効率化できる。   The removal of a part by the robot 20 for one part (step 8, step S9) and the removal of a part by the robot 10 for a part to be taken out after that one part (step 1, step S2) are: It may be performed in parallel. In this case, the process of taking out one part from a tray in which a plurality of parts are piled up and supplying them to a predetermined apparatus can be made efficient even when viewed with a plurality of parts taken out sequentially.

また、部品取り出しシステム100は、揺動パターンを複数用意しておき、ステージ40を揺動させる前にステージ40上の部品の姿勢を検知し、検知した姿勢と誘導すべき特定の姿勢とに応じて複数の揺動パターンから実際に用いる揺動パターンを選択してもよい。   Further, the component pick-up system 100 prepares a plurality of swing patterns, detects the posture of the component on the stage 40 before swinging the stage 40, and responds to the detected posture and the specific posture to be guided. The actually used swing pattern may be selected from a plurality of swing patterns.

例えば、部品取り出しシステム100は、図3に示すステップS3〜ステップS6の処理に代えて、図7に示すステップS11〜ステップS16を行ってもよい。   For example, the component extraction system 100 may perform steps S11 to S16 shown in FIG. 7 instead of the processes of steps S3 to S6 shown in FIG.

ステップS11では、ロボットコントローラ61が、ロボット10を制御して、ステージ40上の部品WKの姿勢を検知する。具体的には、ステージ40の上を撮像可能な位置へ3次元画像センサ11を移動する。3次元画像センサ11の撮像部11a(図1参照)は、ステージ40上の部品WKを3次元的に撮像する。すなわち、撮像部11aは、ステージ40上の部品WKの3次元画像を取得して画像処理部11bへ渡す。そして、ロボットコントローラ61は、ロボット10を制御して、撮像された画像に応じてステージ40上の部品WKの姿勢を認識することで、部品WKの姿勢を検知する。ロボットコントローラ61は、検知した部品WKの姿勢の情報を揺動コントローラ63へ送信する。   In step S11, the robot controller 61 controls the robot 10 to detect the posture of the component WK on the stage 40. Specifically, the three-dimensional image sensor 11 is moved to a position where the top 40 can be imaged. The imaging unit 11a (see FIG. 1) of the three-dimensional image sensor 11 images the component WK on the stage 40 three-dimensionally. That is, the imaging unit 11a acquires a three-dimensional image of the component WK on the stage 40 and passes it to the image processing unit 11b. Then, the robot controller 61 controls the robot 10 to detect the posture of the component WK by recognizing the posture of the component WK on the stage 40 according to the captured image. The robot controller 61 transmits the detected attitude information of the component WK to the swing controller 63.

揺動コントローラ63は、部品WKの姿勢の情報を受信すると、ステップS12、ステップS13の処理が行われるように制御する。   When the swing controller 63 receives the information on the posture of the component WK, the swing controller 63 performs control so that the processes in steps S12 and S13 are performed.

ステップS12では、揺動コントローラ63が、ステップS11で検知された姿勢と誘導すべき特定の姿勢とに応じて、複数の揺動候補パターンのうちステージ40を揺動させるべき揺動パターンを決定する。   In step S12, the swing controller 63 determines a swing pattern for swinging the stage 40 from among a plurality of swing candidate patterns according to the posture detected in step S11 and the specific posture to be guided. .

例えば、図5(a)〜(c)に示す部品WKの形状に対して、第1の縦姿勢(図6(a)参照)から第1の横姿勢(図6(c)参照)へ誘導したい場合、例えばY方向のふり幅を大きく、X方向のふり幅を小さくし、かつ、−Y方向の振り速度を大きく、+Y方向の振り速度を小さくするような揺動パターンを複数の揺動候補パターンから選択する。   For example, with respect to the shape of the part WK shown in FIGS. 5A to 5C, the first vertical posture (see FIG. 6A) is guided to the first horizontal posture (see FIG. 6C). If you want to do this, for example, if you want to increase the swing width in the Y direction, decrease the swing width in the X direction, increase the swing speed in the -Y direction, and decrease the swing speed in the + Y direction, Select from candidate patterns.

例えば、図5(a)〜(c)に示す部品WKの形状に対して、第2の縦姿勢(図6(b)参照)から第1の横姿勢(図6(c)参照)へ誘導したい場合、例えばX方向のふり幅を大きく、Y方向のふり幅を小さく、かつ、Z方向のふり幅も大きくするような揺動パターンを複数の揺動候補パターンから選択する。なお、このとき、揺動機構50は、Z軸駆動源(図示せず)及びZ軸駆動機構(図示せず)をさらに有しており、Z軸駆動源が、揺動コントローラ63による制御のもと、Z軸駆動機構を介してステージ40をZ方向に揺動させる。   For example, with respect to the shape of the part WK shown in FIGS. 5A to 5C, the second vertical posture (see FIG. 6B) is guided to the first horizontal posture (see FIG. 6C). For example, a swing pattern is selected from a plurality of swing candidate patterns so as to increase the swing width in the X direction, decrease the swing width in the Y direction, and increase the swing width in the Z direction. At this time, the swing mechanism 50 further includes a Z-axis drive source (not shown) and a Z-axis drive mechanism (not shown). The Z-axis drive source is controlled by the swing controller 63. Originally, the stage 40 is swung in the Z direction via the Z-axis drive mechanism.

ステップS13では、揺動コントローラ63が、揺動機構50を制御して、ステップS12で決定した揺動パターンに従ってステージ40を揺動する。揺動コントローラ63は、所定の揺動パターンに従ったステージの揺動が完了したら、揺動完了通知をロボットコントローラ61へ送信する。   In step S13, the swing controller 63 controls the swing mechanism 50 to swing the stage 40 according to the swing pattern determined in step S12. The swing controller 63 transmits a swing completion notice to the robot controller 61 when the swing of the stage according to a predetermined swing pattern is completed.

ステップS14では、ロボットコントローラ61が、揺動完了通知を受信したら、ロボット10を制御して、ステージ40上の部品WKの姿勢を再び検知する。具体的には、ステージ40の上を撮像可能な位置へ3次元画像センサ11を移動する。3次元画像センサ11の撮像部11a(図1参照)は、ステージ40上の部品WKを3次元的に撮像する。すなわち、撮像部11aは、ステージ40上の部品WKの3次元画像を取得して画像処理部11bへ渡す。そして、ロボットコントローラ61は、ロボット10を制御して、撮像された画像に応じてステージ40上の部品WKの姿勢を認識することで、部品WKの姿勢を検知する。   In step S <b> 14, when the robot controller 61 receives the swing completion notification, the robot controller 61 controls the robot 10 to detect again the posture of the component WK on the stage 40. Specifically, the three-dimensional image sensor 11 is moved to a position where the top 40 can be imaged. The imaging unit 11a (see FIG. 1) of the three-dimensional image sensor 11 images the component WK on the stage 40 three-dimensionally. That is, the imaging unit 11a acquires a three-dimensional image of the component WK on the stage 40 and passes it to the image processing unit 11b. Then, the robot controller 61 controls the robot 10 to detect the posture of the component WK by recognizing the posture of the component WK on the stage 40 according to the captured image.

ステップS15では、ロボットコントローラ61が、ステージ40上の部品WKの姿勢が特定の姿勢に誘導されたか否かを判断する。ロボットコントローラ61は、ステージ40上の部品WKの姿勢が特定の姿勢に誘導されていない場合(ステップS15でNo)、処理をステップS11へ戻し、ステージ40上の部品WKの姿勢が特定の姿勢に誘導された場合(ステップS15でYes)、処理をステップS16へ進める。   In step S15, the robot controller 61 determines whether or not the posture of the component WK on the stage 40 is guided to a specific posture. If the posture of the component WK on the stage 40 is not guided to a specific posture (No in step S15), the robot controller 61 returns the process to step S11, and the posture of the component WK on the stage 40 is changed to a specific posture. When it is guided (Yes in step S15), the process proceeds to step S16.

ステップS11〜ステップS15のループ処理は、ステージ40上の部品WKの姿勢が特定の姿勢に誘導されるまで繰り返される。   The loop processing from step S11 to step S15 is repeated until the posture of the component WK on the stage 40 is guided to a specific posture.

ステップS16では、ロボットコントローラ61が、ステップS11〜ステップS15のループ処理としての揺動処理が完了したことを示す揺動完了通知をロボットコントローラ62へ送信する。   In step S <b> 16, the robot controller 61 transmits a swing completion notification indicating that the swing process as the loop process of steps S <b> 11 to S <b> 15 has been completed to the robot controller 62.

このように、揺動パターンを複数用意しておき、ステージ40を揺動させる前にステージ40上の部品の姿勢を検知し、検知した姿勢と誘導すべき特定の姿勢とに応じて複数の揺動パターンから実際に用いる揺動パターンを選択することで、安定姿勢以外の姿勢へも誘導させることができる。これにより、誘導すべき特定の姿勢を、2次元画像センサの画像処理部による画像処理の負荷をより軽減しやすいものにすることが容易である。   As described above, a plurality of swing patterns are prepared, and the postures of the parts on the stage 40 are detected before the stage 40 is swung. A plurality of swing patterns are detected according to the detected posture and the specific posture to be guided. By selecting a swing pattern to be actually used from the moving pattern, it is possible to guide to a posture other than the stable posture. Thereby, it is easy to make the specific posture to be guided easier to reduce the load of image processing by the image processing unit of the two-dimensional image sensor.

以上のように、本発明にかかる部品取り出しシステムは、ロボットによる部品の取り出しに有用である。   As described above, the component extraction system according to the present invention is useful for component extraction by a robot.

10 ロボット
20 ロボット
30 トレイ
40 ステージ
50 揺動機構
60 制御部
100 部品取り出しシステム
DESCRIPTION OF SYMBOLS 10 Robot 20 Robot 30 Tray 40 Stage 50 Oscillation mechanism 60 Control part 100 Component pick-up system

Claims (3)

3次元画像センサ及び第1のロボットハンドを有する第1のロボットが、複数の部品が山積みされたトレイから取り出すべき1つの部品の3次元位置及び状態を前記3次元画像センサで認識し、前記認識に応じて前記1つの部品を前記第1のロボットハンドで前記トレイから取り出す第1の取り出しステップと、
前記第1のロボットが、前記第1の取り出しステップで取り出された前記1つの部品を前記第1のロボットハンドでステージの上に仮置きする仮置きステップと、
揺動機構が、前記ステージの上に仮置きされた前記1つの部品の姿勢を複数の姿勢のうちの特定の姿勢へ誘導するように、前記ステージを揺動させる揺動ステップと、
2次元画像センサ及び第2のロボットハンドを有する第2のロボットが、前記ステージの上における前記特定の姿勢にある前記1つの部品の位置を前記2次元画像センサで認識し、前記認識に応じて前記1つの部品を前記第2のロボットハンドで前記ステージから取り出す第2の取り出しステップと、
を備え、
前記揺動ステップは、
前記3次元画像センサが、前記ステージの上に仮置きされた前記1つの部品の姿勢を検知する検知ステップと、
制御部が、前記検知ステップで検知された姿勢に応じて、複数の揺動候補パターンのうち前記ステージを揺動させるべき揺動パターンを決定する決定ステップと、
前記揺動機構が、前記決定ステップで決定された揺動パターンに従って、前記ステージを揺動させる揺動実行ステップと、
を含む
ことを特徴とする部品取り出し方法。
A first robot having a three-dimensional image sensor and a first robot hand recognizes the three-dimensional position and state of one part to be taken out from a tray on which a plurality of parts are stacked, and recognizes the three-dimensional image sensor. A first step of removing the one component from the tray with the first robot hand according to
A temporary placing step in which the first robot temporarily places the one part taken out in the first taking out step on a stage with the first robot hand;
A swinging step for swinging the stage so that the swinging mechanism guides the posture of the one part temporarily placed on the stage to a specific posture among a plurality of postures;
A second robot having a two-dimensional image sensor and a second robot hand recognizes the position of the one component in the specific posture on the stage by the two-dimensional image sensor, and according to the recognition A second step of taking out the one part from the stage with the second robot hand;
With
The swing step includes
A detection step in which the three-dimensional image sensor detects the posture of the one part temporarily placed on the stage;
A determining step for determining a swing pattern for swinging the stage among a plurality of swing candidate patterns according to the posture detected in the detection step;
A swing execution step in which the swing mechanism swings the stage according to the swing pattern determined in the determination step;
A method for picking up parts.
前記1つの部品についての前記第2の取り出しステップと、前記複数の部品のうち前記1つの部品の次に取り出される部品についての前記第1の取り出しステップとは、並行して行われる
ことを特徴とする請求項1に記載の部品取り出し方法。
The second taking-out step for the one part and the first taking-out step for a part to be taken out next to the one part among the plurality of parts are performed in parallel. The part taking-out method according to claim 1 .
3次元画像センサ及び第1のロボットハンドを有する第1のロボットと、
2次元画像センサ及び第2のロボットハンドを有する第2のロボットと、
複数の部品が山積みされたトレイと、
前記複数の部品のうち1つの部品が仮置きされるべきステージと、
前記ステージを揺動させる揺動機構と、
記トレイから取り出すべき1つの部品の3次元位置及び状態を前記3次元画像センサで認識し、前記認識に応じて前記1つの部品を前記第1のロボットハンドで取り出し、前記取り出された前記1つの部品を前記第1のロボットハンドでステージの上に仮置きし、前記ステージの上に仮置きされた前記1つの部品の姿勢を複数の姿勢のうちの特定の姿勢へ誘導するように前記揺動機構が前記ステージを揺動させ、前記ステージの上における前記特定の姿勢にある前記1つの部品の位置を前記2次元画像センサで認識し、前記認識に応じて前記1つの部品を前記第2のロボットハンドで取り出すように、前記第1のロボット、前記第2のロボット、及び前記揺動機構を制御する制御部と、
を備え、
前記制御部は、前記特定の姿勢に誘導する際に、前記3次元画像センサにより前記ステージの上に仮置きされた前記1つの部品の姿勢を検知させ、前記検知された姿勢に応じて、複数の揺動候補パターンのうち前記ステージを揺動させるべき揺動パターンを決定し、該決定された揺動パターンに従って、前記ステージを揺動させるように前記揺動機構を制御する
ことを特徴とする部品取り出しシステム。
A first robot having a three-dimensional image sensor and a first robot hand;
A second robot having a two-dimensional image sensor and a second robot hand;
A tray with a stack of multiple parts,
A stage on which one of the plurality of parts is to be temporarily placed;
A swing mechanism for swinging the stage;
Recognizes the three-dimensional position and status of one component to be taken out from the front Symbol tray by the 3-dimensional image sensor, the one component and Eject by the first robot hand in accordance with the recognition, the pre Symbol removed the one component is temporarily placed on the stage in the first robot hand has to guide the one part of the attitude that is temporarily placed on the front Symbol stage to a specific position of the plurality of postures the swing mechanism to swing the said stage, recognizing the position of said one component in a specific orientation in the top of a previous SL stage the two-dimensional image sensor as the in response to the recognition 1 A control unit for controlling the first robot, the second robot, and the swing mechanism so as to take out one part with the second robot hand ;
With
The controller is configured to detect the posture of the one component temporarily placed on the stage by the three-dimensional image sensor when guiding to the specific posture, and to control the plurality of pieces according to the detected posture. A swing pattern for swinging the stage is determined, and the swing mechanism is controlled to swing the stage according to the determined swing pattern. Parts picking system.
JP2011242647A 2011-11-04 2011-11-04 Component extraction method and component extraction system Expired - Fee Related JP5606424B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011242647A JP5606424B2 (en) 2011-11-04 2011-11-04 Component extraction method and component extraction system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011242647A JP5606424B2 (en) 2011-11-04 2011-11-04 Component extraction method and component extraction system

Publications (2)

Publication Number Publication Date
JP2013094936A JP2013094936A (en) 2013-05-20
JP5606424B2 true JP5606424B2 (en) 2014-10-15

Family

ID=48617434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011242647A Expired - Fee Related JP5606424B2 (en) 2011-11-04 2011-11-04 Component extraction method and component extraction system

Country Status (1)

Country Link
JP (1) JP5606424B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10751871B2 (en) 2015-07-30 2020-08-25 Kawasaki Jukogyo Kabushiki Kaisha Robot and method of controlling the same

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6341022B2 (en) * 2014-09-16 2018-06-13 セイコーエプソン株式会社 Controller, information processing apparatus, and robot system
JP2017074651A (en) * 2015-10-16 2017-04-20 株式会社特電 Automatic supply method of workpiece
JP6219901B2 (en) * 2015-10-28 2017-10-25 ファナック株式会社 Temporary placement device with adjustable workpiece orientation

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08324502A (en) * 1995-06-05 1996-12-10 Olympus Optical Co Ltd Swinging-type discharging machine
JP4824432B2 (en) * 2006-03-06 2011-11-30 シチズンホールディングス株式会社 Parts alignment supply device
JP4226623B2 (en) * 2006-09-29 2009-02-18 ファナック株式会社 Work picking device
JP4309439B2 (en) * 2007-03-30 2009-08-05 ファナック株式会社 Object take-out device
JP5304469B2 (en) * 2009-06-19 2013-10-02 株式会社デンソーウェーブ Bin picking system
JP5402697B2 (en) * 2009-10-26 2014-01-29 株式会社安川電機 Robot apparatus, work picking system and work picking method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10751871B2 (en) 2015-07-30 2020-08-25 Kawasaki Jukogyo Kabushiki Kaisha Robot and method of controlling the same

Also Published As

Publication number Publication date
JP2013094936A (en) 2013-05-20

Similar Documents

Publication Publication Date Title
CN109483554B (en) Robot dynamic grabbing method and system based on global and local visual semantics
JP5837065B2 (en) Parts supply device
US11305432B2 (en) Work machine and pick-up position selection method
EP2783810A2 (en) Robot system and method for producing to-be-processed material
JP7163506B2 (en) Work robots and work systems
KR20180033283A (en) Robot and its control method
JP5606424B2 (en) Component extraction method and component extraction system
WO2020022302A1 (en) Grasping device
JP2012030320A (en) Work system, working robot controller, and work program
JP2013094938A (en) Component supply method, and component supply device
JP5659640B2 (en) Robot control apparatus, article take-out system, program, and robot control method
JP6528123B2 (en) Component picking apparatus, component picking method and component mounting apparatus
JP6528121B2 (en) Component picking apparatus, component picking method and component mounting apparatus
CN114670189B (en) Storage medium, and method and system for generating control program of robot
CN111730626A (en) Motion adjustment device and motion adjustment method for adjusting motion of robot device
US20200282571A1 (en) Gripping device, separating device and method for gripping bodies, and use of a gripping device
KR20200130110A (en) Workpiece identification method
JP6528122B2 (en) Component picking apparatus, component picking method and component mounting apparatus
KR20170040307A (en) Loading blanks to a stamping press line
JPH0797059A (en) Object takeout device
JP7128697B2 (en) Die bonding apparatus and semiconductor device manufacturing method
JP2011194493A (en) Camera attachable/detachable robot device
WO2017212896A1 (en) Component feeding device
WO2019102575A1 (en) Work machine and gripping position search method
CN111278612A (en) Component transfer apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140311

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140729

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140826

R150 Certificate of patent or registration of utility model

Ref document number: 5606424

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees