JP5606424B2 - Component extraction method and component extraction system - Google Patents
Component extraction method and component extraction system Download PDFInfo
- Publication number
- JP5606424B2 JP5606424B2 JP2011242647A JP2011242647A JP5606424B2 JP 5606424 B2 JP5606424 B2 JP 5606424B2 JP 2011242647 A JP2011242647 A JP 2011242647A JP 2011242647 A JP2011242647 A JP 2011242647A JP 5606424 B2 JP5606424 B2 JP 5606424B2
- Authority
- JP
- Japan
- Prior art keywords
- stage
- robot
- swing
- component
- dimensional image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Manipulator (AREA)
Description
本発明は、部品取り出し方法、部品取り出しシステムに関する。 The present invention relates to a component extraction method and a component extraction system.
近年の生産形態においては、これまでの多品種・少量生産から頻繁な機種の段取り替え、生産量の急激な変化に対応可能な変種・変量形態を考慮した生産設備が要求されている。特に、個別製品に対して専用機能に特化した設備から対象製品枠が広く汎用性の高い設備の開発が要求されている。その中で汎用性を持つ核製品であるロボットが近年多用されている。このロボットで部品を把持する際の部品取り出し方法については従来パーツフィーダなどの専用機器を使用して行っていたが、近年の多品種少量生産形態においては複数の部品のバラ積み状態から1つの部品を直接把持して自動組み立て機械などの所定の装置へ供給することが必要とされている。 In recent production forms, there is a demand for production equipment that takes into account the variety / variation form that can cope with the rapid change of the production amount and the change of the model from the conventional high-mix / small-volume production. In particular, there is a demand for the development of highly versatile equipment with a wide target product range from equipment specialized for dedicated functions for individual products. Among them, robots, which are versatile nuclear products, are frequently used in recent years. The part picking method when gripping a part with this robot has been conventionally performed by using a dedicated device such as a parts feeder. However, in recent high-mix low-volume production forms, a single part is in a state of being stacked in multiple parts. It is necessary to directly grip and supply to a predetermined apparatus such as an automatic assembly machine.
特許文献1には、部品ピックアップ装置において、トレイ上の乱雑な重なり状態にあるボルト群をCCDカメラで撮像し、撮像した画像上で輪郭が他のボルトから孤立している孤立ボルトを探索し、孤立ボルトが発見できた場合にロボットで孤立ボルトをピックアップし、孤立ボルトが発見できない場合に加振装置を動作させ、再び孤立ボルトを探索することが記載されている。これにより、特許文献1によれば、トレイ上のボルト群から1個ずつ順に孤立ボルトがピックアップされるので、従来のロボットによる把持ピックアップ作業を開始する前に必要だった部品の整列や位置決めが不要となり、部品の整列や位置決めのための人手や専用の機構を省くことができるとされている。
In
特許文献2には、部品供給装置において、ロボットが部品の山から複数の部品をつかんでばらまくことによって部品同士の重複をなくし、ばらまかれた各部品をカメラで撮影し、その画像から供給可能な姿勢にある部品を判別してロボットでつかんで部品供給箇所へ供給することが記載されている。これにより、特許文献2によれば、部品をばらまくことによって部品の重複をなくすので、部品と背景との分離が不要となり、部品の姿勢を認識する画像認識装置が2次元画像認識用の簡易なもので良くなるとされている。
特許文献1に記載の技術では、乱雑な重なり状態にあるボルト群の個数が最多で2個〜5個程度までであることが前提とされており、複数の部品がトレイの底面を埋め尽くすほどにトレイ上に山積みになった状態が想定されていない。特許文献1には、複数の部品が山積みされたトレイから1つの部品を取り出して所定の装置へ供給する処理をどのようにして効率化するのかに関して一切記載がない。
In the technique described in
仮に、特許文献1に記載の技術において、複数のボルトが山積みになった状態のトレイからボルトを取り出そうとして、トレイに対して外力による加振を与えても、ボルトの山が若干崩れるのみでボルトが孤立状態(孤立ボルト)にはならず、画像認識によって孤立ボルトが発見できないためボルト(部品)を取り出すことが難しい。
In the technique described in
特許文献2に記載の技術では、ロボットが部品の山から複数の部品をつかんで重複しないように1個ずつ部品をばらまく必要があるので、非常に複雑なロボットハンドの動作制御が必要となり、制御演算量が増大しやすい。すなわち、特許文献2に記載の技術では、複数の部品が山積みされたトレイから1つの部品を取り出して所定の装置へ供給する処理の効率が低下しやすい。
In the technique described in
仮に、ロボットが部品の山から複数の部品をつかんでばらまく処理を簡易なロボットハンドの動作制御で行った場合、重複が発生しない可能性が確率に左右される確実性に欠けるものとなるため、ばらまかれた複数の部品の間で重複が発生しやすく、ばらまく処理をやり直さなければならなくなるため、複数の部品が山積みされたトレイから1つの部品を取り出して所定の装置へ供給する処理の効率が低下しやすい。 If a robot grabs multiple parts from a pile of parts and performs processing with simple robot hand motion control, there is a lack of certainty depending on the probability that duplication will not occur. Duplicate parts are likely to occur between dispersed parts, and it is necessary to repeat the dispersion process. Therefore, the efficiency of the process of taking out one part from a tray in which a plurality of parts are stacked and supplying it to a predetermined apparatus is improved. It tends to decline.
本発明は、上記に鑑みてなされたものであって、複数の部品が山積みされたトレイから1つの部品を取り出して所定の装置へ供給する処理を効率化できる部品取り出し方法、及び部品取り出しシステムを得ることを目的とする。 The present invention has been made in view of the above, and provides a component extraction method and a component extraction system that can improve the efficiency of the process of taking out one component from a tray in which a plurality of components are stacked and supplying them to a predetermined apparatus. The purpose is to obtain.
上述した課題を解決し、目的を達成するために、本発明の1つの側面にかかる部品取り出し方法は、3次元画像センサ及び第1のロボットハンドを有する第1のロボットが、複数の部品が山積みされたトレイから取り出すべき1つの部品の3次元位置及び状態を前記3次元画像センサで認識し、前記認識に応じて前記1つの部品を前記第1のロボットハンドで前記トレイから取り出す第1の取り出しステップと、前記第1のロボットが、前記第1の取り出しステップで取り出された前記1つの部品を前記第1のロボットハンドでステージの上に仮置きする仮置きステップと、揺動機構が、前記ステージの上に仮置きされた前記1つの部品の姿勢を複数の姿勢のうちの特定の姿勢へ誘導するように、前記ステージを揺動させる揺動ステップと、2次元画像センサ及び第2のロボットハンドを有する第2のロボットが、前記ステージの上における前記特定の姿勢にある前記1つの部品の位置を前記2次元画像センサで認識し、前記認識に応じて前記1つの部品を前記第2のロボットハンドで取り出す第2の取り出しステップとを備えたことを特徴とする。 In order to solve the above-described problems and achieve the object, a part picking method according to one aspect of the present invention includes a first robot having a three-dimensional image sensor and a first robot hand, and a plurality of parts stacked. The three-dimensional image sensor recognizes the three-dimensional position and state of one part to be taken out from the tray, and the first part is taken out from the tray by the first robot hand according to the recognition. A temporary placement step in which the first robot temporarily places the one part taken out in the first take-out step on a stage with the first robot hand; and a swing mechanism, A swinging step of swinging the stage so as to guide the posture of the one part temporarily placed on the stage to a specific posture among a plurality of postures; A second robot having a two-dimensional image sensor and a second robot hand recognizes the position of the one component in the specific posture on the stage by the two-dimensional image sensor, and according to the recognition, And a second picking-up step for picking up one part with the second robot hand.
本発明によれば、ステージ上の部品の姿勢を特定の姿勢へ誘導するので、第2のロボットに搭載している2次元画像センサによる姿勢パターン比較時の登録データを大幅に低減でき、2次元画像センサによる画像処理内容を簡略化できる。これにより、2次元画像センサによる画像処理の負荷を軽減でき、2次元画像センサによる画像処理の処理速度を向上させることが可能となり、生産性をあげることができる。すなわち、複数の部品が山積みされたトレイから1つの部品を取り出して所定の装置へ供給する処理を効率化できる。 According to the present invention, since the posture of the part on the stage is guided to a specific posture, registration data at the time of posture pattern comparison by the two-dimensional image sensor mounted on the second robot can be greatly reduced. The content of image processing by the image sensor can be simplified. As a result, the load of image processing by the two-dimensional image sensor can be reduced, the processing speed of image processing by the two-dimensional image sensor can be improved, and productivity can be increased. In other words, it is possible to improve the efficiency of the process of taking out one component from a tray in which a plurality of components are stacked and supplying them to a predetermined apparatus.
以下に、本発明にかかる部品取り出し方法、及び部品取り出しシステムの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。 Embodiments of a component picking method and a component picking system according to the present invention will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.
実施の形態.
実施の形態にかかる部品取り出しシステム100について図1及び図2を用いて説明する。図1は、部品取り出しシステム100の構成を示す図である。図2は、ステージ40及び揺動機構50の構成を示す図である。
Embodiment.
A
部品取り出しシステム100は、複数の部品が山積みされたトレイ30から1つの部品を取り出して所定の装置(図示せず)へ供給するためのシステムである。所定の装置は、例えば、供給された部品を用いて所定の組み立て作業を行う自動機械である。
The
具体的には、部品取り出しシステム100は、ロボット(第1のロボット)10、ロボット(第2のロボット)20、トレイ30、ステージ40、揺動機構50、及び制御部60を備える。
Specifically, the
ロボット10は、例えば、6自由度の多関節ロボットであり、複数のロボットアーム13−1、13−2、複数の関節部14−1〜14−3、基部15、フランジ16、3次元画像センサ11、及びロボットハンド(第1のロボットハンド)12を有する。複数のロボットアーム13−1、13−2は、複数の関節部14−1〜14−3を介して基部15に接続されている。ロボットアーム13−1の先端には、フランジ16が設けられている。フランジ16には作業用のツールとして例えばロボットハンド12等が装着される。そして、フランジ16には、ロボットハンド12等のツールと並んで3次元画像センサ11が取り付けられている。ロボットハンド12等及びフランジ16の位置と姿勢はロボットコントローラ61が制御している。これにより、ロボット10は、所定の対象物に対して所定の作業を行う。
The
3次元画像センサ11は、撮像部11a及び画像処理部11bを有する。撮像部11aは、被写界の3次元画像を取得する。例えば、撮像部11aは、トレイ30の内側に存在する複数の部品WK−1〜WK−Nの3次元画像を取得する。画像処理部11bは、撮像部11aにより取得された3次元画像に対して所定の画像処理を施す。画像処理部11bは、画像処理の施された3次元画像データを制御部60へ送信する。なお、画像処理部11bは、撮像部11aが内蔵された筐体内に配されていてもよいし、撮像部11aが内蔵された筐体の外部に配されていてもよい。
The three-
ロボット20は、例えば、6自由度の多関節ロボットであり、複数のロボットアーム23−1、23−2、複数の関節部24−1〜24−3、基部25、フランジ26、2次元画像センサ21、及びロボットハンド(第2のロボットハンド)22を有する。複数のロボットアーム23−1、23−2は、複数の関節部24−1〜24−3を介して基部25に接続されている。ロボットアーム23−1の先端には、フランジ26が設けられている。フランジ26には作業用のツールとして例えばロボットハンド22等が装着される。そして、フランジ26には、ロボットハンド22等のツールと並んで2次元画像センサ21が取り付けられている。ロボットハンド22等及びフランジ26の位置と姿勢はロボットコントローラ62が制御している。これにより、ロボット20は、所定の対象物に対して所定の作業を行う。
The
2次元画像センサ21は、撮像部21a及び画像処理部21bを有する。撮像部21aは、被写界の2次元画像を取得する。例えば、撮像部21aは、ステージ40の上に存在する1つの部品WKの2次元画像を取得する。画像処理部21bは、撮像部21aにより取得された2次元画像に対して所定の画像処理を施す。画像処理部21bは、画像処理の施された2次元画像データを制御部60へ送信する。なお、画像処理部21bは、撮像部21aが内蔵された筐体内に配されていてもよいし、撮像部21aが内蔵された筐体の外部に配されていてもよい。
The two-
トレイ30には、複数の部品WK−1〜WK−Nがバラ積みされているとともに山積みされている。なお、本明細書において、「山積み」とは、複数の部品WK−1〜WK−Nがトレイ30の底面を埋め尽くすほど山積みになった状態を示すものとする。
On the
ステージ40は、トレイ30に山積みされた複数の部品WK−1〜WK−Nのうちの1つの部品WKが上に仮置きされるべきステージである。例えば、ステージ40は、図2に示すように、底面部41と4つの側面部42〜45とを有する。底面部41は、X方向及びY方向に延びた底面を形成する。各側面部42〜45は、底面部41の外縁から+Z側に立ち上がるように延びている。これにより、1つの部品WKが底面部41の上に置かれてステージ40が例えばX方向及びY方向に揺動された際に、1つの部品WKがステージ40から飛び出すことを抑制できる。
The
揺動機構50は、ステージ40を例えばX方向及びY方向に揺動させる。例えば、揺動機構50は、図2に示すように、X軸駆動源51、Y軸駆動源52、X軸駆動機構53、及びY軸駆動機構54を有する。X軸駆動源51は、揺動コントローラ63による制御のもと、X軸駆動機構53を介してステージ40をX方向に揺動させる。Y軸駆動源52は、揺動コントローラ63による制御のもと、Y軸駆動機構54を介してステージ40をY方向に揺動させる。
The
制御部60は、部品取り出しシステム100における各部を全体的に制御する。制御部60は、ロボットコントローラ61、ロボットコントローラ62、及び揺動コントローラ63を有する。ロボットコントローラ61は、ロボットプログラムに従って、ロボット10を制御するとともに、ロボットコントローラ62や揺動コントローラ63との間で所定の制御信号を送受信する。ロボットコントローラ62は、ロボットプログラムに従って、ロボット20を制御するとともに、ロボットコントローラ61や揺動コントローラ63との間で所定の制御信号を送受信する。揺動コントローラ63は、例えば、ロボットコントローラ61やロボットコントローラ62から受信した制御信号に応じて、揺動機構50を制御する。
The
例えば、制御部60は、第1の期間において、トレイ30から取り出すべき1つの部品WKの3次元位置及び状態を3次元画像センサ11で認識するように、ロボット10を制御する。制御部60は、第1の期間において、その認識結果に応じて、1つの部品WKをロボットハンド12で取り出すように、ロボット10を制御する。制御部60は、第2の期間において、取り出された1つの部品をロボットハンド12でステージ40の上に仮置きするように、ロボット10を制御する。第2の期間は、第1の期間に続く期間である。制御部60は、第3の期間において、ステージ40を揺動させるように揺動機構50を制御する。これにより、ステージ40の上に仮置きされた1つの部品WKの姿勢を複数の姿勢のうちの特定の姿勢へ変更させることができる。第3の期間は、第2の期間に続く期間である。制御部60は、第4の期間において、ステージ40の上における特定の姿勢にある1つの部品WKの位置を2次元画像センサ21で認識するように、ロボット20を制御する。第4の期間は、第3の期間に続く期間である。制御部60は、第4の期間において、その認識結果に応じて1つの部品WKをロボットハンド22で取り出し所定の装置(例えば、自動機械)へ供給するように、ロボット20を制御する。
For example, the
次に、部品取り出しシステム100の動作について、図3〜図6を用いて説明する。図3は、部品取り出しシステム100の動作を示すシーケンス図である。図4(a)〜(d)は、トレイ30から1つの部品WKを取り出す手順を示す図である。図5(a)、(b)、(c)は、1つの部品WKの形状をそれぞれ示す平面図、側面図、正面図である。図6(a)〜(e)は、1つの部品WKの姿勢を特定の姿勢へ誘導する手順を示す図である。
Next, operation | movement of the
ステップS1では、ロボットコントローラ61が、ロボット10を制御して、トレイ30の内側を撮像可能な位置へ3次元画像センサ11を移動する(図4(a)参照)。3次元画像センサ11の撮像部11a(図1参照)は、トレイ30内に山積みされた複数の部品WK−1〜WK−Nを3次元的に撮像する。すなわち、撮像部11aは、トレイ30内に山積みされた複数の部品WK−1〜WK−Nの3次元画像を取得して画像処理部11bへ渡す。
In step S1, the
そして、ロボットコントローラ61は、ロボット10を制御して、撮像された画像に応じて複数の部品WK−1〜WK−Nのうちロボットハンド12で把持すべき部品WKの3次元位置及び状態を認識する。すなわち、3次元画像センサ11の画像処理部11bは、撮像部11aにより取得された3次元画像に対して所定の画像処理を施す。画像処理部11bは、画像処理の施された3次元画像データをロボットコントローラ61へ送信する。ロボットコントローラ61は、3次元画像データを用いて、複数の部品WK−1〜WK−Nのうちロボットハンド12で把持すべき1つの部品WKを特定し、特定した1つの部品WKの3次元位置と部品WKの状態(例えば、部品WKの姿勢)とを認識する。
Then, the
ステップS2では、ロボットコントローラ61が、ロボット10を制御して、ステップS1で認識された結果に応じて1つの部品WKをロボットハンド12でトレイ30から取り出す。すなわち、ロボットコントローラ61は、把持すべき部品WKの3次元位置の近傍までロボットハンド12の先端を移動させ、部品WKの状態(例えば、部品WKの姿勢)に応じてロボットハンド12の先端の向きや姿勢を制御し、ステップS1で特定された部品WKを把持する(図4(b)参照)。このとき、ロボットハンド12の部品を把持する先端爪は把持する際に部品WKの山の積み重なった状態に対して影響が少なく、かつ特定した部品WK以外の部品を同時に把持しないように細い先端形状を持つ爪が望ましい。
In step S <b> 2, the
ステップS3では、ロボットコントローラ61が、ロボット10を制御して、ステップS2で取り出された1つの部品WKをロボットハンド12でステージ40の上に仮置きする。すなわち、ロボットコントローラ61は、特定した1個の部品WKを把持したロボットハンド12をトレイ30の上方へ上昇しさらにステージ40の上方へと移動する(図4(c)参照)。そして、ロボットコントローラ61は、ステージ40上方にてロボットハンド12を開放し把持した部品WKをステージ40の上へ仮置きする(図4(d)参照)。
In step S <b> 3, the
そして、部品の姿勢を特定の姿勢へ絞り込む(誘導する)ようにステージ40を揺動する。具体的には、ステップS4〜ステップS7の処理を行う。
Then, the
ステップS4では、ロボットコントローラ61が、ステージ40を揺動することを指令する揺動指令を揺動コントローラ63へ送信する。
In step S <b> 4, the
揺動コントローラ63は、揺動指令を受信すると、ステップS5、ステップS6の処理が行なわれるように制御する。
When the
ステップS5では、揺動コントローラ63が、ステージ40を揺動させる際の駆動パターンである揺動パターンを所定の揺動パターンに決定する。所定の揺動パターンは、ステージ40の上に置かれた1つの部品WKの姿勢を複数の姿勢(図6(a)〜(e)参照)のうちの特定の姿勢(図6(e)参照)へ誘導するように、予め実験的に取得されたパターンである。所定の揺動パターンは、ふり幅、揺動の周期、揺動の回数(又は揺動の時間)などを含む。
In step S5, the
ステップS6では、揺動コントローラ63が、揺動機構50を制御して、ステップS5で決定した揺動パターンに従ってステージ40を揺動する。
In step S6, the
例えば、ステージ40上の部品WKの形状が図5(a)〜(c)に示すような形状である場合、ステージ40上における部品WKの初期状態姿勢は不定であり、例えば図6(a)〜(d)に示す4態の姿勢が考えられる。すなわち、第1の縦姿勢、第2の縦姿勢、第1の横姿勢、第2の横姿勢のいずれかの状態にある時、X軸駆動源51またはY軸駆動源52またはその両方を用いてX軸駆動機構53またはY軸駆動機構54またはその両方を左右方向あるいは前後方向あるいはその両方向に駆動させてステージ40を振動させることで、例えば図6(e)に示す安定姿勢へと変化させる。
For example, when the shape of the component WK on the
なお、この際にステージ40の底面(底面部41の表面)には例えばゴム製のシートを貼付し部品WKと底面との摩擦力を上げることで姿勢の変化をより高めるほうが望ましい。また振動を発生させる際の駆動源については機器接続・制御方式が容易なエアシリンダを用いるのが好ましいが、姿勢を絞りこむ部品によってはサーボモータなどの駆動源を用いる事で振動開始時の加減速、振動時の速度を変化させた方がより確実に安定姿勢へと変化させることも可能となる。 At this time, it is desirable to increase the change in posture by attaching a rubber sheet, for example, to the bottom surface of the stage 40 (the surface of the bottom surface portion 41) and increasing the frictional force between the component WK and the bottom surface. As the drive source for generating vibration, it is preferable to use an air cylinder that can be easily connected and controlled. However, depending on the part that narrows down the posture, a drive source such as a servo motor can be used to increase the vibration. It becomes possible to change the speed to a stable posture more reliably by changing the speed during deceleration and vibration.
揺動コントローラ63は、所定の揺動パターンに従ったステージの揺動が完了したら、揺動完了通知をロボットコントローラ62へ送信する。
When the swing of the stage according to a predetermined swing pattern is completed, the
ステップS7では、ロボットコントローラ62が、揺動完了通知を受信していなければ、ステージ40の揺動が完了していない(ステップS7でNo)と判断して処理をステップS7へ進め、揺動完了通知を受信すると、ステージ40の揺動が完了した(ステップS7でYes)と判断して処理をステップS8へ進める。
In step S7, if the
ステップS8では、ロボットコントローラ62が、ロボット20を制御して、ステージ40の上を撮像可能な位置へ2次元画像センサ21を移動する。2次元画像センサ21の撮像部21a(図1参照)は、ステージ40の上に置かれた部品WKを2次元的に撮像する。すなわち、撮像部21aは、ステージ40の上に置かれた部品WKの2次元画像を取得して画像処理部21bへ渡す。
In step S <b> 8, the
そして、ロボットコントローラ62は、ロボット20を制御して、撮像された画像に応じてロボットハンド22で把持すべき部品WKの2次元位置を認識する。すなわち、2次元画像センサ21の画像処理部21bは、撮像部21aにより取得された2次元画像に対して所定の画像処理を施す。
Then, the
例えば、画像処理部21bは、2次元画像から部品外形パターンをエッジ検出等により抽出し、抽出された部品外形パターンを予め登録されている部品外形パターンと比較して、その部品の位置を画像処理にて求める。
For example, the
ここで、仮に、部品WKの姿勢の絞り込み(ステップS5、ステップS6)を行わない場合、比較するために予め登録されている部品外形パターンは、図5(a)〜(c)に示す形状の部品WKに対して図6(a)〜(d)に対応した4態のパターンが必要となる。 Here, if the position of the component WK is not narrowed down (steps S5 and S6), the component external patterns registered in advance for comparison have the shapes shown in FIGS. 5 (a) to 5 (c). Four patterns corresponding to FIGS. 6A to 6D are required for the component WK.
それに対して、本実施の形態では、部品WKの姿勢の絞り込み(ステップS5、ステップS6)を行うので、比較するために予め登録されている部品外形パターンは、図5(a)〜(c)に示す形状の部品WKに対して図6(e)に対応した1態のパターンに低減できる。これにより、画像処理部21bへの登録パターンを低減でき、画像処理部21bによる画像処理の内容を簡略化できるので、画像処理部21bによる画像処理の負担を軽減し画像処理の処理速度の向上を図ることができる。
On the other hand, in the present embodiment, since the orientation of the component WK is narrowed down (steps S5 and S6), the component outline patterns registered in advance for comparison are shown in FIGS. 6 can be reduced to a single pattern corresponding to FIG. 6E. As a result, the number of patterns registered in the
画像処理部21bは、画像処理の施された2次元画像データをロボットコントローラ62へ送信する。ロボットコントローラ62は、2次元画像データを用いて、ステージ40上におけるロボットハンド22で把持すべき1つの部品WKの位置を認識する。すなわち、ロボットコントローラ62は、ロボットハンド22で把持すべき1つの部品WKの2次元位置を認識する。
The
ステップS9では、ロボットコントローラ62が、ロボット20を制御して、ステップS8で認識された結果に応じて1つの部品WKをロボットハンド22でステージ40から取り出し所定の装置(例えば、自動機械)へ供給する。すなわち、ロボットコントローラ62は、把持すべき部品WKの2次元位置の近傍までロボットハンド22の先端を移動させ、ステージ40上の部品WKを把持する。そして、ロボットコントローラ62は、1個の部品WKを把持したロボットハンド22をトレイ30の上方へ上昇し、さらに所定の装置へと移動する。
In step S9, the
以上のように、本実施の形態では、多数の部品が山積みされたトレイから1台目のロボットに搭載している3次元画像センサにより把持する対象部品の3次元位置及び状態を認識し1個の部品をロボットで取り出すことで、多品種の部品に対して、部品の種類ごとの専用のパーツフィーダを多数搭載する必要がなく、部品取り出しシステムのコストを低減することができる。また、1台目のロボットで取り出した部品の姿勢が不定であることから、ステージに一度仮置きし外力でステージを振動させることで多数の部品姿勢を限られた特定の姿勢に絞り込む。これにより、2台目のロボットに搭載している2次元画像センサの画像処理部による姿勢パターン比較時の登録データを大幅に低減でき、2次元画像センサの画像処理部による画像処理内容を簡略化できる。これにより、2次元画像センサの画像処理部による画像処理の負荷を軽減でき、2次元画像センサの画像処理部による画像処理の処理速度を向上させることが可能となり、生産性をあげることができる。すなわち、複数の部品が山積みされたトレイから1つの部品を取り出して所定の装置へ供給する処理を効率化できる。 As described above, in this embodiment, the three-dimensional position and state of the target part to be grasped by the three-dimensional image sensor mounted on the first robot from the tray in which a large number of parts are stacked are recognized and one piece. By taking out these parts with a robot, it is not necessary to mount a large number of dedicated part feeders for each type of parts for a wide variety of parts, and the cost of the part picking system can be reduced. In addition, since the posture of the component picked up by the first robot is indefinite, a large number of component postures are narrowed down to specific postures by temporarily placing them on the stage and vibrating the stage with an external force. This greatly reduces the registration data when comparing the posture pattern by the image processing unit of the two-dimensional image sensor mounted on the second robot, and simplifies the contents of image processing by the image processing unit of the two-dimensional image sensor. it can. As a result, the load of image processing by the image processing unit of the two-dimensional image sensor can be reduced, the processing speed of image processing by the image processing unit of the two-dimensional image sensor can be improved, and productivity can be increased. In other words, it is possible to improve the efficiency of the process of taking out one component from a tray in which a plurality of components are stacked and supplying them to a predetermined apparatus.
なお、1つの部品についてのロボット20による部品の取り出し(ステップ8、ステップS9)と、その1つの部品の次に取り出される部品についてのロボット10による部品の取り出し(ステップ1、ステップS2)とは、並行して行われてもよい。この場合、複数の部品が山積みされたトレイから1つの部品を取り出して所定の装置へ供給する処理を、順次に取り出される複数の部品で見た場合においても効率化できる。
The removal of a part by the
また、部品取り出しシステム100は、揺動パターンを複数用意しておき、ステージ40を揺動させる前にステージ40上の部品の姿勢を検知し、検知した姿勢と誘導すべき特定の姿勢とに応じて複数の揺動パターンから実際に用いる揺動パターンを選択してもよい。
Further, the component pick-up
例えば、部品取り出しシステム100は、図3に示すステップS3〜ステップS6の処理に代えて、図7に示すステップS11〜ステップS16を行ってもよい。
For example, the
ステップS11では、ロボットコントローラ61が、ロボット10を制御して、ステージ40上の部品WKの姿勢を検知する。具体的には、ステージ40の上を撮像可能な位置へ3次元画像センサ11を移動する。3次元画像センサ11の撮像部11a(図1参照)は、ステージ40上の部品WKを3次元的に撮像する。すなわち、撮像部11aは、ステージ40上の部品WKの3次元画像を取得して画像処理部11bへ渡す。そして、ロボットコントローラ61は、ロボット10を制御して、撮像された画像に応じてステージ40上の部品WKの姿勢を認識することで、部品WKの姿勢を検知する。ロボットコントローラ61は、検知した部品WKの姿勢の情報を揺動コントローラ63へ送信する。
In step S11, the
揺動コントローラ63は、部品WKの姿勢の情報を受信すると、ステップS12、ステップS13の処理が行われるように制御する。
When the
ステップS12では、揺動コントローラ63が、ステップS11で検知された姿勢と誘導すべき特定の姿勢とに応じて、複数の揺動候補パターンのうちステージ40を揺動させるべき揺動パターンを決定する。
In step S12, the
例えば、図5(a)〜(c)に示す部品WKの形状に対して、第1の縦姿勢(図6(a)参照)から第1の横姿勢(図6(c)参照)へ誘導したい場合、例えばY方向のふり幅を大きく、X方向のふり幅を小さくし、かつ、−Y方向の振り速度を大きく、+Y方向の振り速度を小さくするような揺動パターンを複数の揺動候補パターンから選択する。 For example, with respect to the shape of the part WK shown in FIGS. 5A to 5C, the first vertical posture (see FIG. 6A) is guided to the first horizontal posture (see FIG. 6C). If you want to do this, for example, if you want to increase the swing width in the Y direction, decrease the swing width in the X direction, increase the swing speed in the -Y direction, and decrease the swing speed in the + Y direction, Select from candidate patterns.
例えば、図5(a)〜(c)に示す部品WKの形状に対して、第2の縦姿勢(図6(b)参照)から第1の横姿勢(図6(c)参照)へ誘導したい場合、例えばX方向のふり幅を大きく、Y方向のふり幅を小さく、かつ、Z方向のふり幅も大きくするような揺動パターンを複数の揺動候補パターンから選択する。なお、このとき、揺動機構50は、Z軸駆動源(図示せず)及びZ軸駆動機構(図示せず)をさらに有しており、Z軸駆動源が、揺動コントローラ63による制御のもと、Z軸駆動機構を介してステージ40をZ方向に揺動させる。
For example, with respect to the shape of the part WK shown in FIGS. 5A to 5C, the second vertical posture (see FIG. 6B) is guided to the first horizontal posture (see FIG. 6C). For example, a swing pattern is selected from a plurality of swing candidate patterns so as to increase the swing width in the X direction, decrease the swing width in the Y direction, and increase the swing width in the Z direction. At this time, the
ステップS13では、揺動コントローラ63が、揺動機構50を制御して、ステップS12で決定した揺動パターンに従ってステージ40を揺動する。揺動コントローラ63は、所定の揺動パターンに従ったステージの揺動が完了したら、揺動完了通知をロボットコントローラ61へ送信する。
In step S13, the
ステップS14では、ロボットコントローラ61が、揺動完了通知を受信したら、ロボット10を制御して、ステージ40上の部品WKの姿勢を再び検知する。具体的には、ステージ40の上を撮像可能な位置へ3次元画像センサ11を移動する。3次元画像センサ11の撮像部11a(図1参照)は、ステージ40上の部品WKを3次元的に撮像する。すなわち、撮像部11aは、ステージ40上の部品WKの3次元画像を取得して画像処理部11bへ渡す。そして、ロボットコントローラ61は、ロボット10を制御して、撮像された画像に応じてステージ40上の部品WKの姿勢を認識することで、部品WKの姿勢を検知する。
In step S <b> 14, when the
ステップS15では、ロボットコントローラ61が、ステージ40上の部品WKの姿勢が特定の姿勢に誘導されたか否かを判断する。ロボットコントローラ61は、ステージ40上の部品WKの姿勢が特定の姿勢に誘導されていない場合(ステップS15でNo)、処理をステップS11へ戻し、ステージ40上の部品WKの姿勢が特定の姿勢に誘導された場合(ステップS15でYes)、処理をステップS16へ進める。
In step S15, the
ステップS11〜ステップS15のループ処理は、ステージ40上の部品WKの姿勢が特定の姿勢に誘導されるまで繰り返される。
The loop processing from step S11 to step S15 is repeated until the posture of the component WK on the
ステップS16では、ロボットコントローラ61が、ステップS11〜ステップS15のループ処理としての揺動処理が完了したことを示す揺動完了通知をロボットコントローラ62へ送信する。
In step S <b> 16, the
このように、揺動パターンを複数用意しておき、ステージ40を揺動させる前にステージ40上の部品の姿勢を検知し、検知した姿勢と誘導すべき特定の姿勢とに応じて複数の揺動パターンから実際に用いる揺動パターンを選択することで、安定姿勢以外の姿勢へも誘導させることができる。これにより、誘導すべき特定の姿勢を、2次元画像センサの画像処理部による画像処理の負荷をより軽減しやすいものにすることが容易である。
As described above, a plurality of swing patterns are prepared, and the postures of the parts on the
以上のように、本発明にかかる部品取り出しシステムは、ロボットによる部品の取り出しに有用である。 As described above, the component extraction system according to the present invention is useful for component extraction by a robot.
10 ロボット
20 ロボット
30 トレイ
40 ステージ
50 揺動機構
60 制御部
100 部品取り出しシステム
DESCRIPTION OF
Claims (3)
前記第1のロボットが、前記第1の取り出しステップで取り出された前記1つの部品を前記第1のロボットハンドでステージの上に仮置きする仮置きステップと、
揺動機構が、前記ステージの上に仮置きされた前記1つの部品の姿勢を複数の姿勢のうちの特定の姿勢へ誘導するように、前記ステージを揺動させる揺動ステップと、
2次元画像センサ及び第2のロボットハンドを有する第2のロボットが、前記ステージの上における前記特定の姿勢にある前記1つの部品の位置を前記2次元画像センサで認識し、前記認識に応じて前記1つの部品を前記第2のロボットハンドで前記ステージから取り出す第2の取り出しステップと、
を備え、
前記揺動ステップは、
前記3次元画像センサが、前記ステージの上に仮置きされた前記1つの部品の姿勢を検知する検知ステップと、
制御部が、前記検知ステップで検知された姿勢に応じて、複数の揺動候補パターンのうち前記ステージを揺動させるべき揺動パターンを決定する決定ステップと、
前記揺動機構が、前記決定ステップで決定された揺動パターンに従って、前記ステージを揺動させる揺動実行ステップと、
を含む
ことを特徴とする部品取り出し方法。 A first robot having a three-dimensional image sensor and a first robot hand recognizes the three-dimensional position and state of one part to be taken out from a tray on which a plurality of parts are stacked, and recognizes the three-dimensional image sensor. A first step of removing the one component from the tray with the first robot hand according to
A temporary placing step in which the first robot temporarily places the one part taken out in the first taking out step on a stage with the first robot hand;
A swinging step for swinging the stage so that the swinging mechanism guides the posture of the one part temporarily placed on the stage to a specific posture among a plurality of postures;
A second robot having a two-dimensional image sensor and a second robot hand recognizes the position of the one component in the specific posture on the stage by the two-dimensional image sensor, and according to the recognition A second step of taking out the one part from the stage with the second robot hand;
With
The swing step includes
A detection step in which the three-dimensional image sensor detects the posture of the one part temporarily placed on the stage;
A determining step for determining a swing pattern for swinging the stage among a plurality of swing candidate patterns according to the posture detected in the detection step;
A swing execution step in which the swing mechanism swings the stage according to the swing pattern determined in the determination step;
A method for picking up parts.
ことを特徴とする請求項1に記載の部品取り出し方法。 The second taking-out step for the one part and the first taking-out step for a part to be taken out next to the one part among the plurality of parts are performed in parallel. The part taking-out method according to claim 1 .
2次元画像センサ及び第2のロボットハンドを有する第2のロボットと、
複数の部品が山積みされたトレイと、
前記複数の部品のうち1つの部品が仮置きされるべきステージと、
前記ステージを揺動させる揺動機構と、
前記トレイから取り出すべき1つの部品の3次元位置及び状態を前記3次元画像センサで認識し、前記認識に応じて前記1つの部品を前記第1のロボットハンドで取り出し、前記取り出された前記1つの部品を前記第1のロボットハンドでステージの上に仮置きし、前記ステージの上に仮置きされた前記1つの部品の姿勢を複数の姿勢のうちの特定の姿勢へ誘導するように前記揺動機構が前記ステージを揺動させ、前記ステージの上における前記特定の姿勢にある前記1つの部品の位置を前記2次元画像センサで認識し、前記認識に応じて前記1つの部品を前記第2のロボットハンドで取り出すように、前記第1のロボット、前記第2のロボット、及び前記揺動機構を制御する制御部と、
を備え、
前記制御部は、前記特定の姿勢に誘導する際に、前記3次元画像センサにより前記ステージの上に仮置きされた前記1つの部品の姿勢を検知させ、前記検知された姿勢に応じて、複数の揺動候補パターンのうち前記ステージを揺動させるべき揺動パターンを決定し、該決定された揺動パターンに従って、前記ステージを揺動させるように前記揺動機構を制御する
ことを特徴とする部品取り出しシステム。 A first robot having a three-dimensional image sensor and a first robot hand;
A second robot having a two-dimensional image sensor and a second robot hand;
A tray with a stack of multiple parts,
A stage on which one of the plurality of parts is to be temporarily placed;
A swing mechanism for swinging the stage;
Recognizes the three-dimensional position and status of one component to be taken out from the front Symbol tray by the 3-dimensional image sensor, the one component and Eject by the first robot hand in accordance with the recognition, the pre Symbol removed the one component is temporarily placed on the stage in the first robot hand has to guide the one part of the attitude that is temporarily placed on the front Symbol stage to a specific position of the plurality of postures the swing mechanism to swing the said stage, recognizing the position of said one component in a specific orientation in the top of a previous SL stage the two-dimensional image sensor as the in response to the recognition 1 A control unit for controlling the first robot, the second robot, and the swing mechanism so as to take out one part with the second robot hand ;
With
The controller is configured to detect the posture of the one component temporarily placed on the stage by the three-dimensional image sensor when guiding to the specific posture, and to control the plurality of pieces according to the detected posture. A swing pattern for swinging the stage is determined, and the swing mechanism is controlled to swing the stage according to the determined swing pattern. Parts picking system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011242647A JP5606424B2 (en) | 2011-11-04 | 2011-11-04 | Component extraction method and component extraction system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011242647A JP5606424B2 (en) | 2011-11-04 | 2011-11-04 | Component extraction method and component extraction system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013094936A JP2013094936A (en) | 2013-05-20 |
JP5606424B2 true JP5606424B2 (en) | 2014-10-15 |
Family
ID=48617434
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011242647A Expired - Fee Related JP5606424B2 (en) | 2011-11-04 | 2011-11-04 | Component extraction method and component extraction system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5606424B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10751871B2 (en) | 2015-07-30 | 2020-08-25 | Kawasaki Jukogyo Kabushiki Kaisha | Robot and method of controlling the same |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6341022B2 (en) * | 2014-09-16 | 2018-06-13 | セイコーエプソン株式会社 | Controller, information processing apparatus, and robot system |
JP2017074651A (en) * | 2015-10-16 | 2017-04-20 | 株式会社特電 | Automatic supply method of workpiece |
JP6219901B2 (en) * | 2015-10-28 | 2017-10-25 | ファナック株式会社 | Temporary placement device with adjustable workpiece orientation |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08324502A (en) * | 1995-06-05 | 1996-12-10 | Olympus Optical Co Ltd | Swinging-type discharging machine |
JP4824432B2 (en) * | 2006-03-06 | 2011-11-30 | シチズンホールディングス株式会社 | Parts alignment supply device |
JP4226623B2 (en) * | 2006-09-29 | 2009-02-18 | ファナック株式会社 | Work picking device |
JP4309439B2 (en) * | 2007-03-30 | 2009-08-05 | ファナック株式会社 | Object take-out device |
JP5304469B2 (en) * | 2009-06-19 | 2013-10-02 | 株式会社デンソーウェーブ | Bin picking system |
JP5402697B2 (en) * | 2009-10-26 | 2014-01-29 | 株式会社安川電機 | Robot apparatus, work picking system and work picking method |
-
2011
- 2011-11-04 JP JP2011242647A patent/JP5606424B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10751871B2 (en) | 2015-07-30 | 2020-08-25 | Kawasaki Jukogyo Kabushiki Kaisha | Robot and method of controlling the same |
Also Published As
Publication number | Publication date |
---|---|
JP2013094936A (en) | 2013-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109483554B (en) | Robot dynamic grabbing method and system based on global and local visual semantics | |
JP5837065B2 (en) | Parts supply device | |
US11305432B2 (en) | Work machine and pick-up position selection method | |
EP2783810A2 (en) | Robot system and method for producing to-be-processed material | |
JP7163506B2 (en) | Work robots and work systems | |
KR20180033283A (en) | Robot and its control method | |
JP5606424B2 (en) | Component extraction method and component extraction system | |
WO2020022302A1 (en) | Grasping device | |
JP2012030320A (en) | Work system, working robot controller, and work program | |
JP2013094938A (en) | Component supply method, and component supply device | |
JP5659640B2 (en) | Robot control apparatus, article take-out system, program, and robot control method | |
JP6528123B2 (en) | Component picking apparatus, component picking method and component mounting apparatus | |
JP6528121B2 (en) | Component picking apparatus, component picking method and component mounting apparatus | |
CN114670189B (en) | Storage medium, and method and system for generating control program of robot | |
CN111730626A (en) | Motion adjustment device and motion adjustment method for adjusting motion of robot device | |
US20200282571A1 (en) | Gripping device, separating device and method for gripping bodies, and use of a gripping device | |
KR20200130110A (en) | Workpiece identification method | |
JP6528122B2 (en) | Component picking apparatus, component picking method and component mounting apparatus | |
KR20170040307A (en) | Loading blanks to a stamping press line | |
JPH0797059A (en) | Object takeout device | |
JP7128697B2 (en) | Die bonding apparatus and semiconductor device manufacturing method | |
JP2011194493A (en) | Camera attachable/detachable robot device | |
WO2017212896A1 (en) | Component feeding device | |
WO2019102575A1 (en) | Work machine and gripping position search method | |
CN111278612A (en) | Component transfer apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130606 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140311 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140729 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140826 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5606424 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |