JP2007237394A - Workpiece positioning device - Google Patents
Workpiece positioning device Download PDFInfo
- Publication number
- JP2007237394A JP2007237394A JP2007171357A JP2007171357A JP2007237394A JP 2007237394 A JP2007237394 A JP 2007237394A JP 2007171357 A JP2007171357 A JP 2007171357A JP 2007171357 A JP2007171357 A JP 2007171357A JP 2007237394 A JP2007237394 A JP 2007237394A
- Authority
- JP
- Japan
- Prior art keywords
- workpiece
- robot
- image
- product
- loading
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B21—MECHANICAL METAL-WORKING WITHOUT ESSENTIALLY REMOVING MATERIAL; PUNCHING METAL
- B21D—WORKING OR PROCESSING OF SHEET METAL OR METAL TUBES, RODS OR PROFILES WITHOUT ESSENTIALLY REMOVING MATERIAL; PUNCHING METAL
- B21D43/00—Feeding, positioning or storing devices combined with, or arranged in, or specially adapted for use in connection with, apparatus for working or processing sheet metal, metal tubes or metal profiles; Associations therewith of cutting devices
- B21D43/003—Positioning devices
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
Description
本発明は、中間台に置かれた製品としてのワークを、搬入出ロボットが製品積載台に積載する場合の位置の補正を可能とし、該製品を製品積載台上で崩すことなく多段に積載可能にしたワーク位置決め装置に関する。 The present invention makes it possible to correct the position of a workpiece as a product placed on an intermediate platform when the loading / unloading robot loads it on the product loading table, and the products can be loaded in multiple stages without breaking on the product loading table. The present invention relates to a workpiece positioning device.
従来より、ロボットを使用して自動的に曲げ加工を行う場合には、例えば搬入出ロボット3が(図1)素材台1上の素材Tとしてのワークを吸着して、曲げ加工装置10に取り付けられた曲げロボット11に該素材Tを受け渡し、該曲げロボット11がその素材Tを曲げ加工装置10に供給・位置決めして曲げ加工を行う。
Conventionally, when a bending process is automatically performed using a robot, for example, the loading / unloading robot 3 (FIG. 1) sucks a workpiece as the material T on the material table 1 and attaches it to the
加工後は、上記曲げロボット11が製品Qとしてのワークを中間台8に置くと、該製品Qを搬入出ロボット3が吸着して製品積載台12に順次積載する。
このような曲げ加工システムにおいては、素材台1上のワークは、一般には、位置ズレを生じていることが多く、そのままの状態でワークを搬入出ロボット3から曲げロボット11へ受け渡して加工すると、加工前のワークと曲げ加工装置10との位置関係にズレがあるため(例えばワークと金型P、Dとの長手方向の位置ズレ、ワークと突当との当接の位置ズレ)、所定の寸法の製品ができず、また、曲げ加工済みのフランジをつぶしたり、突当にワークが当接せず、効率的な加工ができないケースが発生する。
In such a bending system, in general, the workpiece on the material table 1 is often misaligned. When the workpiece is transferred from the loading / unloading
そのため、機械を停止せざるを得ず、従って、加工が続行できず、更に不良品が多く発生し材料が無駄になるなど種々の弊害がある。 Therefore, the machine has to be stopped, and therefore, the processing cannot be continued, and there are various problems such as many defective products are generated and the material is wasted.
また、従来は、前記した位置ズレが生じないように、人手で注意深くワークを素材台1上に積載しており、そのため積載時間が長くなっていた。 Further, conventionally, the work is carefully loaded on the material table 1 by hand so that the above-described positional deviation does not occur, so that the loading time is long.
このことは、加工後の製品Qとしてのワークにもいえることであり、中間台8(図11)上に置かれた製品Qとしてのワークは、一般には位置ズレを生じていることが多く、従って、そのままの状態で製品Qとしてのワークを、搬入出ロボット3が把持して製品積載台12上に載せたとしても1つ1つバラバラになり、崩されてしまう。その結果、従来は、製品Qとしてのワークを、製品積載台12上で崩すことなく多段に積載することはできない。
This is also true for the workpiece as the product Q after processing. In general, the workpiece as the product Q placed on the intermediate table 8 (FIG. 11) is often misaligned. Therefore, even if the work as the product Q is gripped by the loading / unloading
本発明の目的は、ロボットを使用した曲げ加工システムにおいて、中間台に置かれた製品としてのワークを、搬入出ロボットが製品積載台に積載する場合の位置の補正を可能とし、該製品を製品積載台上で崩すことなく多段に積載可能にする。 An object of the present invention is to enable correction of a position when a loading / unloading robot loads a workpiece as a product placed on an intermediate platform on a product loading platform in a bending system using a robot, It can be loaded in multiple stages without breaking on the loading platform.
上記課題を解決するために、本発明は、図11に示すように、
製品Qとしてのワークを戴置する中間台8と、
該中間台8に取り付けられたワーク撮像手段2と、
該ワーク撮像手段2から入力された製品Qとしてのワークの画像DWを検出するワーク画像検出手段30Dと(図1)、
予め入力された情報に基づいて製品Qとしてのワークの基準画像RWを算出し、又はワーク撮像手段2で撮像された正規位置の製品Qとしてのワーク画像を基準画像RWとして格納するワーク基準画像算出・格納手段30Eと、
検出画像DWと基準画像RWの差に基づいて所定のズレ量を算出するズレ量算出手段30Fと、
該ズレ量に基づいて検出画像DWと基準画像RWが一致するように、中間台8上の製品Sとしてのワークを把持した搬入出ロボット3の姿勢を補正し、補正後の姿勢のまま製品Qとしてのワークを製品積載台12に積載させるロボット制御手段30Gを有することを特徴とするワーク位置決め装置という技術的手段が講じられた。
In order to solve the above problems, the present invention, as shown in FIG.
An
A work imaging means 2 attached to the intermediate table 8;
A work image detection means 30D for detecting an image DW of a work as a product Q inputted from the work imaging means 2 (FIG. 1);
A workpiece reference image RW as a product Q is calculated based on information input in advance, or a workpiece reference image calculation for storing a workpiece image as a product Q at a normal position captured by the workpiece imaging means 2 as a reference image RW. Storage means 30E;
A deviation amount calculation means 30F for calculating a predetermined deviation amount based on the difference between the detected image DW and the reference image RW;
Based on the amount of deviation, the posture of the loading / unloading
上記本発明の構成によれば、ワーク撮像手段2が(図1)ワークの所定の部分、例えばコーナ部Kを撮像し、ズレ量算出手段30Fが、ワーク画像検出手段30Dにより検出された検出画像DW中の検出コーナ部KD と、ワーク基準画像算出・格納手段30Eにより算出し、又はそこに格納された基準画像RW中の基準コーナ部KR との差PIC− X、PIC− Y、PIC− θに基づいて(図6)、ロボットによるワークの実際の把持位置HR と本来の把持位置HD とのズレ量ΔX、ΔY、Δθを算出し、ロボット制御手段30Gが、該ズレ量ΔX、ΔY、Δθに基づいて、実際の把持位置HR と本来の把持位置HD が一致するように例えば搬入出ロボット3の姿勢を補正制御してワークを位置決めし適正位置を把持させることができる。
According to the configuration of the present invention described above, the workpiece imaging means 2 (FIG. 1) images a predetermined portion of the workpiece, for example, the corner portion K, and the deviation amount calculating
これにより、本発明によれば、ロボットを使用した曲げ加工システムにおいて、搬入出ロボット3が(図11)、中間台8に置かれた製品Qとしてのワークを、製品積載台12に積載する場合の位置の補正を可能とし、該製品Qを製品積載台上で崩すことなく多段に積載可能にするという効果を奏する。
Thus, according to the present invention, in the bending system using a robot, the loading / unloading robot 3 (FIG. 11) loads the workpiece as the product Q placed on the
以下、本発明を、実施の形態により添付図面を参照して説明する。
図1は、本発明の実施形態を示す全体図である。
Hereinafter, the present invention will be described with reference to the accompanying drawings by embodiments.
FIG. 1 is an overall view showing an embodiment of the present invention.
図1の曲げ加工システムは、曲げ加工装置10と、該曲げ加工装置10にベースプレート15を介して取り付けられた曲げロボット11と、該曲げ加工装置10の側方に設置された搬入出ロボット3を有している。
The bending system shown in FIG. 1 includes a
上記搬入出ロボット3の近傍には、素材Tとしてのワークを積載する例えばワーク一枚取り装置の素材台1と、曲げロボット11が加工直後の製品Qを解放して載せる中間台8と、搬入出ロボット3が中間台8から吸着した製品Qを積載する製品積載台12がそれぞれ配置されている。
In the vicinity of the loading / unloading
これにより、ワークを戴置するワーク戴置手段が、前記素材台1と、中間台8と、製品積載台12により構成され、このうちの例えば素材台1には、後述するワーク撮像手段2が取り付けられている。 Thereby, the workpiece placing means for placing the workpiece is constituted by the material table 1, the intermediate table 8, and the product loading table 12. Among these materials, for example, the material table 1 has a workpiece imaging means 2 described later. It is attached.
この場合の曲げ加工装置10としては、例えばプレスブレーキがあり、よく知られているように、上部テーブル13(図2)に装着されたパンチPと、下部テーブル14に装着されたダイDを有し、後述する曲げロボット11のグリップ17で適正位置が把持されたワークに対して、パンチPとダイDにより所定の曲げ加工を施す。
As the
上記曲げロボット11は、例えば5軸であって、前記したように、その先端にグリップ17を有し、搬入出ロボット3から素材Tとしてのワークを受け取って、後述するように(図6)、ワークの本来の把持位置hD を把持した状態で、曲げ加工装置10へ供給・位置決めした後曲げ加工される間該素材Tを把持し、製品Qが出来た場合にはそれを中間台8上でグリップ17から解放する。
The
搬入出ロボット3は、例えば6軸であって、吸着パッド3Aを有し、該吸着パッド3Aで素材台1上の素材Tを吸着し、既述したように、曲げロボット11に受け渡し、出来た製品Qを中間台8から吸着パッド3Aで吸着してそれを製品積載台12に積載する。
The carry-in / out
この場合、後述するように(図4)、搬入出ロボット3で吸着された素材Tとしてのワークの例えばコーナ部Kが、素材台1に取り付けられたワーク撮像手段2により撮像され、該撮像されたコーナ部Kの画像KD (図6)を含むワークの検出画像DWが下位NC装置30を構成するワーク画像検出手段30Dで(図1)検出される。
In this case, as will be described later (FIG. 4), for example, a corner portion K of the workpiece as the material T adsorbed by the loading / unloading
これにより、この検出画像DWは、ワーク基準画像算出・格納手段30E(図1)により算出され、又はそこに格納された基準画像RWと共に、ズレ量算出手段30Fに入力された後、該ズレ量算出手段30Fにより、所定のズレ量、より詳しくは、検出画像DW中の検出コーナ部KD と、基準画像RW中の基準コーナ部KR との差PIC− X、PIC− Y、PIC− θに基づいて、ロボットによるワークの実際の把持位置HR と本来の把持位置HD とのズレ量ΔX、ΔY、Δθが算出される。
As a result, the detected image DW is calculated by the workpiece reference image calculation / storage means 30E (FIG. 1) or input to the deviation amount calculation means 30F together with the reference image RW stored therein, and then the deviation amount. the
従って、このズレ量ΔX、ΔY、Δθをロボット制御手段30Gが補正駆動信号Sa 、Sb ・・・に変換すれば、該ロボット制御手段30Gが、検出画像DWと基準画像RWが一致するように、例えば前記搬入出ロボット3の姿勢を補正制御することにより(図10のステップ104の下矢)、曲げロボット11へのワーク受け渡し位置の補正を行い(図10のステップ105)、これにより、ワークの位置決めが行われるので、搬入出ロボット3が、補正後の姿勢のままで曲げロボット11へワークを受け渡せば(図10のステップ106)、該曲げロボット11は、ワークの適正位置hD (図6)を把持した状態で(図10のステップ107)、曲げ加工装置10へ供給・位置決めすることにより(図10のステップ108)、曲げ加工が行われる(図10のステップ8のステップ109)。
Accordingly, when the robot control means 30G converts the deviation amounts ΔX, ΔY, Δθ into the correction drive signals S a , S b ..., The robot control means 30G matches the detected image DW with the reference image RW. Further, for example, by correcting and controlling the posture of the loading / unloading robot 3 (down arrow in
このようにして、本発明によれば、ロボットを使用した曲げ加工システムにおいて、搬入出ロボット3から(図1)ワークを受け取った曲げロボット11は、ワークの適正位置を把持した状態で曲げ加工を行うことができるので、機械を停止することなく加工が続行可能となり、それに伴って不良品が少なくなり、また、搬入出ロボット3の近傍に配置されたワーク戴置手段である素材台1にワーク撮像手段2を取り付け、該素材台1上のワークの位置ズレを画像処理で検出するので、ワークをその位置ズレを気にすることなく素材台上に積載できるようにして積載時間を短縮することが可能となる。
Thus, according to the present invention, in the bending system using the robot, the
上記素材台1には(図4)、既述したように、ワーク撮像手段2が取り付けられ、該ワーク撮像手段2は、例えばCCDカメラ2Aとその光源2Bにより構成され、CCDカメラ2Aは例えば素材台1の下方に、光源2Bはその直上方に取り付けられ、該光源2Bは、左右方向(X軸方向)に移動自在であって、例えば左側に移動した場合に、その下面から透過光を照射するようになっている。
As described above, the workpiece imaging means 2 is attached to the material table 1 (FIG. 4), and the workpiece imaging means 2 is composed of, for example, a
この構成により、前記搬入出ロボット3の吸着パッド3Aで把持された素材Tとしてのワークの例えばコーナ部Kが、CCDカメラ2Aで撮像され、該コーナ部Kの画像KD が一次元の電気信号に変換されワーク画像検出手段30Dで二次元の電気信号に変換されることにより、ズレ量算出手段30Fで、検出コーナ部KD を含む検出画像DWと、基準コーナ部KR を含む基準画像RWが比較される(図6)。この場合、CCDカメラ2Aによる撮像対象は、ワークのX軸方向、Y軸方向、角度方向の位置を決めるための該ワークの任意の部分であって、前記したコーナ部Kとは限らず、例えばワークに穿設された穴や切欠部でもよい。
With this configuration, the unloading example corner K of the work as gripped material T by the
上記構成を有する曲げ加工システムの制御装置としては、上位NC装置29と(図1)、下位NC装置30がある。
As a control device of the bending system having the above-described configuration, there are a high-order NC device 29 (FIG. 1) and a low-
このうち、上位NC装置29には、CAD情報が内蔵され、該CAD情報は、ワークの板厚、材質、曲げ線の長さ、ワーク撮像手段2による撮像対象であるコーナ部Kの位置などのワーク情報、製品の曲げ角度などの製品情報を含み、これらが三次元立体図、展開図として構成されている。
Among them, the
これらの情報から成るCAD情報は、下位NC装置30に入力され、本発明の画像処理によるワークの位置ズレ検出に用いることもできる。
CAD information composed of these pieces of information is input to the
下位NC装置30は(図1)、CPU30Aと、情報演算手段30Bと、撮像制御手段30Cと、ワーク画像検出手段30Dと、ワーク基準画像算出・格納手段30Eと、ズレ量算出手段30Fと、ロボット制御手段30Gと、曲げ制御手段30Hと、搬送制御手段30Jと、入出力手段30Kにより構成されている。
The subordinate NC device 30 (FIG. 1) includes a
CPU30Aは、本発明の動作手順(例えば図10に相当)に従って、ワーク画像検出手段30D、ワーク基準画像算出・格納手段30Eなど図1に示す装置全体を統括制御する。
The
情報演算手段30Bは、後述する入出力手段30Kを介して前記上位NC装置29から入力されたCAD情報に基づいて、曲げ順などワークの位置ズレ検出、ロボットの姿勢補正、曲げ加工に必要な情報を演算することにより、決定する。
The information calculation means 30B is information necessary for detecting the positional deviation of the workpiece such as the bending order, correcting the posture of the robot, and bending work based on the CAD information input from the
この情報演算手段30Bで演算し決定される情報には、曲げ順の他に、使用する金型(パンチPとダイD)、どの金型を上部テーブル13と下部テーブル14のどの位置に配置するかといった金型レイアウト(金型ステーション)、曲げロボット11と搬入出ロボット3の動作加工プログラムなども含まれる。
The information calculated and determined by the information calculating means 30B includes, in addition to the bending order, the mold to be used (punch P and die D) and which mold is disposed at which position of the upper table 13 and the lower table 14. A mold layout (mold station), an operation machining program for the bending
これにより、例えば、ワーク画像検出手段30Dが検出した検出画像DWと、ワーク基準画像算出・格納手段30Eが算出した基準画像RWとの差に基づいて、ズレ量算出手段30Fが所定のズレ量ΔX、ΔY、Δθを算出し(図10のステップ103)、このズレ量ΔX、ΔY、Δθに基づいて、姿勢の補正を行うのは、搬入出ロボット3か曲げロボット11かが判断される(図10のステップ104)。
Thereby, for example, based on the difference between the detected image DW detected by the workpiece
そして、後述するように、搬入出ロボット3によるワーク受け渡し位置の補正→ワークの受け渡し(図10のステップ104の下矢、ステップ105〜106)、又は曲げロボット11によるワーク受け取り位置の補正→ワークの受け取り(図10のステップ104の右矢、ステップ110〜111)のいずれかの動作が行われた後、曲げロボット11がワークの適正位置hD を把持した状態で(図10
のステップ107)、該ワークを所定の金型ステーションへ供給して位置決めし(図10のステップ108)、曲げ加工が行われる(図10のステップ109)。
Then, as will be described later, correction of the workpiece delivery position by the loading /
Step 107), the workpiece is supplied to a predetermined mold station and positioned (
撮像制御手段30Cは、前記情報演算手段30Bで決定された曲げ順、ワークのコーナ部Kの位置などに基づいて、既述したワーク撮像手段2を構成する光源2B(図4)の移動制御を行うと共に、CCDカメラ2Aの撮像範囲Sの制御など撮像動作を制御する。
The imaging control means 30C controls the movement of the
ワーク画像検出手段30Dは(図1)、既述したように、前記ワーク撮像手段2から送られて来た一次元の電気信号から成るワークのコーナ部Kの画像KD を、二次元の電気信号に変換する。 Workpiece image detecting means 30D is (Fig. 1), as described above, the image K D of the corner part K of the workpiece consisting of the workpiece pickup means one-dimensional electrical signal sent from 2, the two-dimensional electrophoresis Convert to signal.
これにより、後述するように(図5、図6)、上記コーナ部Kの画像KD 、即ち検出コーナ部KD を含む検出画像DWが得られ、該検出コーナ部KD は、基準コーナ部KR との比較対象となる。 Thus, as will be described later (FIG. 5, FIG. 6), the image K D of the corner portion K, i.e. obtained detected image DW comprising detecting corners K D, the detecting corners the K D, the reference corner It is compared to the K R.
ワーク基準画像算出・格納手段30Eは(図1)、前記情報演算手段30Bで決定された曲げ順、ワークのコーナ部Kの位置などに基づいて、基準コーナ部KR を含む基準画像RWを算出する(図5、図6)。又は、ワーク基準画像算出・格納手段30Eは、正規位置に置かれたワーク(位置ズレが生じていない状態のワーク)を前記CCDカメラ2Aで撮像し、該撮像したワーク画像を基準画像RWとして、例えばメモリに格納しておく。
Work reference image calculating and storing
ズレ量算出手段30Fは(図1)、前記検出画像DWと基準画像RWを入力し、両者の差から、所定のズレ量ΔX、ΔY、Δθを算出する。 The deviation amount calculation means 30F (FIG. 1) inputs the detected image DW and the reference image RW, and calculates predetermined deviation amounts ΔX, ΔY, Δθ from the difference therebetween.
この場合の画像処理の原理としては、例えば、図5(A)に示すように、前記基準コーナ部KR を含み所定の大きさ・方向を有する窓枠MR を設定し、この窓枠MR 内のデータを取り込む。 The principle of the image processing in this case, for example, as shown in FIG. 5 (A), to set the window frame M R of a predetermined magnitude and direction includes the reference corner K R, the window frame M Capture data in R.
また、一方では、前記検出コーナ部KD を含む同様の窓枠MD を設定し(図5(B))、この窓枠MD 内のデータを取り込み、両窓枠MD 、MR 内のデータが一致する場合のズレ量ΔX、ΔY、Δθを求める。 Further, on the one hand, it sets the same window frame M D including the detecting corner K D (FIG. 5 (B)), takes in the data in the window frame M D, Ryomadowaku M D, the M R The deviation amounts ΔX, ΔY, Δθ when the two data coincide with each other are obtained.
具体的には、本発明においては、曲げロボット11が(図1)、ワークの適正位置hD を(図6)把持した状態で曲げ加工を行うことから、現実の画像処理の際には、搬入出ロボット3による実際の把持位置HR と、本来の把持位置HD とのズレ量ΔX、ΔY、Δθを求めることになる。例えば、搬入出ロボット3がその吸着パッド3A(図1)により素材Tとしてのワークを上記実際の把持位置HR で(図6)把持したが、そのとき位置ズレが生じているのでワーク(検出画像DW)の中心ではなく、図示するように、該ワークの端部を掴んでいることになるので、本来の把持位置HD で把持しワーク(検出画像DW)の中心を掴むように、両者のズレ量ΔX、ΔY、Δθを求める。尚、図6において、HR とHD は、搬入出ロボット3(図1)が有するような吸着パッド3Aの実際の把持位置と本来の把持位置を示し、hR とhD は、曲げロボット11が(図1)有するようなグリップ17の実際の把持位置と本来の把持位置を示すものとする。
Specifically, in the present invention, the bending robot 11 (FIG. 1), the proper position h D of the workpiece from doing bending (Figure 6) gripped state, during the actual image processing, the actual and holding position H R by loading and unloading
即ち、図6において、右上のように各成分の符号を設定し、CCDカメラ2Aで撮像しワーク画像検出手段30Dで検出された検出コーナ部KD と、ワーク基準画像算出手段30Eで算出された基準コーナ部KR との差のX軸方向成分、Y軸方向成分、角度方向成分をそれぞれ次のように表すものとする。
That is, in FIG. 6, to set the code of each component as the upper right, and detecting the corner section K D detected by the workpiece image detection means 30D and imaged with a
PIC− X、PIC− Y、PIC− θ・・・・(1) PIC - X, PIC - Y, PIC - θ (1)
また、検出画像DW上において、その検出コーナ部KD とワークの本来の把持位置HD との差のX軸方向成分、X軸方向成分をそれぞれ次のように表すものとする。 Further, on the detected image DW, to X-axis direction component of the difference between the original holding position H D of the detection corners K D and the workpiece, the X-axis direction component shall respectively expressed as follows.
TCP− X、TCP− Y・・・・(2) TCP - X, TCP - Y (2)
更に、検出画像DWを、本来の把持位置HD を中心として時計方向にθだけ旋回させれば、角度方向のズレを補正した検出画像DW′が得られ、該検出画像DW′は基準画像RWと平行になる。 Further, the detected image DW, if caused to pivot by θ in the clockwise direction about the original holding position H D, the detected image DW obtained by correcting the deviation of the angular direction 'is obtained, the detection image DW' is the reference image RW Becomes parallel.
そして、元の検出画像DWのコーナ部KD と、旋回後の検出画像DW′のコーナ部eとの差のX軸方向成分X(θ)、Y軸方向成分Y(θ)を、前記(1)、(2)の各成分を用いて表せば、次のようになる。 Then, a corner K D of the original detected image DW, the X-axis direction component X of the difference between the corner portion e of the detected image DW after turning '(theta), Y-axis direction component Y (theta), the ( It can be expressed as follows using the components 1) and (2).
X(θ)={TCP− X*COS(−PIC− θ)−TCP− Y*SIN(−PIC− θ)}−TCP− X・・・・(3)
Y(θ)={TCP− X*SIN(−PIC− θ)+TCP− Y*COS(−PIC− θ)}−TCP− Y・・・・(4)
X (θ) = {TCP − X * COS (−PIC − θ) −TCP − Y * SIN (−PIC − θ)} − TCP − X (3)
Y (θ) = {TCP − X * SIN (−PIC − θ) + TCP − Y * COS (−PIC − θ)} − TCP − Y (4)
この場合、図6を拡大した図7において、元の検出画像DWと、これを時計方向にθ(−θ(CCDカメラ2Aを介して検出した角度方向のズレ量で表せば、−PIC− θ))だけ旋回した検出画像DW′との関係を考慮して補足した直角三角形KD ac、aOD bに着眼すれば、上記(3)のX(θ)と、(4)のY(θ)は、
X(θ)=(ac−ab)−de・・・・(5)
Y(θ)=(cKD +bOD )−ef・・(6)
と表せる。
In this case, in FIG. 7 which is an enlarged view of FIG. 6, the original detected image DW and this is represented by θ (−θ (−PIC − θ if expressed in the amount of deviation in the angular direction detected via the
X (θ) = (ac−ab) −de (5)
Y (θ) = (cK D + bO D) -ef ·· (6)
It can be expressed.
(5)のaは、元の検出画像DWと線分Eとの交点であって直角三角形KD acを構成し、bは、該直角三角形KD acの辺Aと線分Bとの交点、cは、該直角三角形KD acの直角をなす辺AとCとの交点、dは、旋回後の検出画像DW′と線分Bとの交点、eは、前記したように旋回後の検出画像DW′のコーナ部である。 A (5) is a point of intersection of the original detected image DW and the line segment E constitute a right triangle K D ac, b is the intersection of the sides A and line B of the right-angled triangle K D ac , c is the intersection between the sides a and C at right angles of the right-angled triangle K D ac, d is detected intersection of the image DW 'and the line B after turning, e is, after turning as described above This is a corner portion of the detected image DW ′.
また、図から明らかなように、ac=TCP− X*COS(−PIC− θ)、ab=TCP− Y*SIN(−PIC− θ)、de=TCP− Xであるから、これらを(5)に代入すれば、既述した(3)が得られる。 As is apparent from the figure, since ac = TCP − X * COS (−PIC − θ), ab = TCP − Y * SIN (−PIC − θ), and de = TCP − X, these are expressed as (5 (3) described above can be obtained.
一方、(6)のOD は、本来の把持位置HD の中心、fは、線分Fと旋回後の検出画像DW′との交点、また、既述したように、KD は、元の検出画像DWのコーナ部、bは、直角三角形KD acの辺Aと線分Bとの交点であると共に、直角三角形aOD bを構成し、cは、直角三角形KD acの直角をなす辺AとCとの交点、eは、旋回後の検出画像DW′のコーナ部である。 Meanwhile, the O D (6), the center of the original holding position H D, f is the intersection between the detected image DW 'after turning the line segment F, also as already described, K D is the original corners of the detected image DW, b, together with an intersection of the sides a and line B of the right-angled triangle K D ac, constitute a right triangle aO-D b, c is a right of a right triangle K D ac An intersection point e between sides A and C, which is formed, is a corner portion of the detection image DW ′ after turning.
また、図から明らかなように、cKD =TCP− X*SIN(−PIC− θ)、bOD =TCP− Y*COS(−PIC− θ)、ef=TCP− Yであるから、これらを(6)に代入すれば、既述した(4)が得られる。 Moreover, as is clear from FIG, cK D = TCP - X * SIN (-PIC - θ), bO D = TCP - Y * COS (-PIC - θ), ef = TCP - since it is Y, these Substituting into (6), the above-described (4) is obtained.
次に、図6において、旋回後の検出画像DW′と、基準画像RWとの差は、それぞれのコーナ部eと、KR との差に等しく、当該差のX軸方向成分、Y軸方向成分は、図から明らかなように、PIC− X+X(θ)、PIC− Y+Y(θ)であり、これらの成分は、実際の把持位置HR と、本来の把持位置HD とのズレ量のX軸方向成分ΔX′、Y軸方向成分ΔY′でもあるから、
ΔX′=PIC− X+X(θ)・・・・(7)
ΔY′=PIC− Y+Y(θ)・・・・(8)
となる。
Next, in FIG. 6, the detected image DW 'after turning, the difference between the reference image RW, each a corner portion e, equal to the difference between K R, X-axis direction component of the difference, Y-axis direction component, as is clear from FIG, PIC - X + X (θ ), PIC - a Y + Y (θ), these components are the actual gripping position H R, the shift amount of the original holding position H D Since it is also an X-axis direction component ΔX ′ and a Y-axis direction component ΔY ′,
ΔX ′ = PIC − X + X (θ) (7)
ΔY ′ = PIC − Y + Y (θ) (8)
It becomes.
上記(7)、(8)は、基準画像RW、旋回後の検出画像DW′上の位置を定める絶対座標系での表し方であるから、これらを元の検出画像DW上の位置を定める材料座標系での表し方に変換すれば、
ΔX=ΔX′*COS(PIC− θ)−ΔY′*SIN(PIC− θ)・・・(9)
ΔY=ΔX′*SIN(PIC− θ)+ΔY′*COS(PIC− θ)・・・(10)
Δθ=PIC− θ・・・・(11)
となる。
Since the above (7) and (8) are representations in the absolute coordinate system that determines the position on the reference image RW and the detected image DW ′ after turning, these are the materials that determine the position on the original detected image DW. If converted to a representation in the coordinate system,
ΔX = ΔX ′ * COS (PIC − θ) −ΔY ′ * SIN (PIC − θ) (9)
ΔY = ΔX ′ * SIN (PIC − θ) + ΔY ′ * COS (PIC − θ) (10)
Δθ = PIC − θ (11)
It becomes.
この場合、図6を拡大した図7において、基準画像RWに平行な検出画像DW′と、これを反時計方向にθ(+θ(CCDカメラ2Aを介して検出した角度方向のズレ量で表せば、PIC− θ))だけ旋回した元の検出画像DWとの関係を考慮して補足した直角三角形mOR h、mOD kに着眼すれば、上記(9)のΔXと、(10)のΔYは、
ΔX=hOR −hg・・・・(12)
ΔY=gk+kOD ・・・・(13)
と表せる。
In this case, in FIG. 7, which is an enlarged view of FIG. 6, if the detected image DW ′ parallel to the reference image RW is represented by θ (+ θ (angle deviation detected through the
ΔX = hO R −hg (12)
ΔY = gk + kO D (13)
It can be expressed.
(12)のgは、直角三角形mOR hの辺Gと線分Eとの交点、hは、該直角三角形mOR hの直角をなす辺GとJとの交点、OR は、既述したように、実際の把持位置HR の中心である。 G of (12), the side G and the intersection of the line segment E of a right triangle mO R h, h is the intersection of the side G and J at right angles of the right-angled triangle mO R h, O R is above as was a center of the actual gripping position H R.
また、図から明らかなように、hOR =ΔX′*COS(PIC− θ)、hg=mk=ΔY′*SIN(PIC− θ)であるから、これらを(12)に代入すれば、既述した(9)が得られる。 Further, as is apparent from the figure, hO R = ΔX ′ * COS (PIC − θ) and hg = mk = ΔY ′ * SIN (PIC − θ), so if these are substituted into (12), (9) described above is obtained.
一方、(13)のkは、前記直角三角形mOR hの斜辺Hと線分Bとの交点であるmから線分Eに引いた垂線Lと、該線分Eとの交点であって直角三角形mOD kを構成し、g、OD は、既述したように、それぞれ直角三角形mOR hの辺Gと線分Eとの交点、本来の把持位置HD の中心である。 On the other hand, a point of intersection of k, and the perpendicular L drawn to the line segment E from the an intersection of the hypotenuse H and the segment B of the right-angled triangle mO R h m, a line segment E (13) at right angles constitute a triangle mO D k, g, O D, as described above, edges G and the intersection of the line segment E of each right-angled triangle mO R h, is the center of the original holding position H D.
また、図から明らかなように、gk=hm=ΔX′*SIN(PIC− θ)、kOD =ΔY′*COS(PIC− θ)であるから、これらを(13)に代入すれば、既述した(10)が得られる。 Moreover, as is clear from FIG, gk = hm = ΔX '* SIN (PIC - θ), kO D = ΔY' * COS - because it is (PIC theta), by substituting them into (13), already The aforementioned (10) is obtained.
更に、図6においては、絶対座標系から材料座標系への座標変換に際しては、前記したように、基準画像RWに平行な検出画像DW′を反時計方向にθだけ旋回させることから、Δθを、CCDカメラ2Aを介して検出した角度方向のズレ量で表せば、PIC− θとなり、既述した(11)が得られる。
Further, in FIG. 6, when the coordinate conversion from the absolute coordinate system to the material coordinate system is performed, as described above, the detection image DW ′ parallel to the reference image RW is turned counterclockwise by θ, and thus Δθ is set. , It can be expressed by the amount of deviation in the angular direction detected through the
このような、図6の具体例を、図5の原理と対照させると、図8に示すように、基準コーナ部KR を含み実際の把持位置HR の中心OR を通る窓枠MR と、検出コーナ部KD を含み本来の把持位置HD の中心OD を通る窓枠MD をそれぞれ設定し、この窓枠MR 、MD 内のデータが一致するようなズレ量ΔX、ΔY、Δθを、材料座標系に変換して求めたことになる。 Such a specific example of FIG. 6, when the contrasted with the principle of FIG. 5, as shown in FIG. 8, the reference corner K actual gripping position comprises R H R center O window frame through R M R of When the window frame M D passing through the center O D of the original holding position H D comprises detection corners K D respectively set, the window frame M R, the deviation amount ΔX as data in M D match, This is obtained by converting ΔY and Δθ into the material coordinate system.
ロボット制御手段30Gは(図1)、前記(9)〜(11)で表せるズレ量に基づいて検出画像DWと基準画像RWが一致するようにロボットの姿勢を補正制御してワークを位置決めし適正位置を把持させる。 The robot control means 30G corrects the posture of the robot so that the detected image DW and the reference image RW coincide with each other based on the amount of deviation represented by (9) to (11) (FIG. 1), and positions the workpiece appropriately. Hold the position.
この場合、図1に示すような搬入出ロボット3と曲げロボット11を有する曲げ加工システムにおいては、ロボット制御手段30Gは、双方のロボット3、11を制御する。
In this case, in the bending system having the carry-in / out
例えば、ロボット制御手段30Gは、搬入出ロボット3に素材台1上のワークを吸着させ(図10のステップ101)、前記したCCDカメラ2Aで該ワークのコーナ部Kを撮像して検出画像DWとして取り込んで基準画像RWと比較して所定のズレ量ΔX、ΔY、Δθが算出された後(図10のステップ102、103)、このズレ量ΔX、ΔY、Δθに基づいて、姿勢の補正を行うのは、搬入出ロボット3か曲げロボット11かを判断する(図10のステップ104)。
For example, the robot control means 30G attracts the work on the material table 1 to the carry-in / out robot 3 (step 101 in FIG. 10), and images the corner portion K of the work with the
そして、ロボット制御手段30Gは、搬入出ロボット3が姿勢の補正を行うと判断した場合には(図10のステップ104の下矢)、搬入出ロボット3が曲げロボット11へのワーク受け渡し位置の補正を行うように制御する(図10のステップ105)。
When the
即ち、ロボット制御手段30Gが、前記(9)〜(11)のズレ量ΔX、ΔY、Δθに基づいて補正駆動信号Sa 、Sb ・・・を搬入出ロボット3に送信すると、該搬入出ロボット3が、その吸着したワークを実際の把持位置HR から本来の把持位置HD で把持するように姿勢を補正することにより、ワーク受け渡し位置の補正を行う(図10のステップ105)。
That is, when the
換言すれば、搬入出ロボット3が、自らが把持しているワークの実際の把持位置HR が(図6)本来の把持位置HD と一致するように、姿勢を補正し(図10のステップ105)、その姿勢のまま曲げロボット11へワークを受け渡す(図10のステップ106)。
In other words, the loading and unloading
また、ロボット制御手段30Gは、曲げロボット11が姿勢の補正を行うと判断した場合には(図10のステップ104の右矢)、曲げロボット11が搬入出ロボット3からのワーク受け取り位置の補正を行うように制御する(図10のステップ110)。
When the
即ち、ロボット制御手段30Gが、前記(9)〜(11)のズレ量ΔX、ΔY、Δθに基づいて補正駆動信号Sa 、Sb ・・・を曲げロボット11に送信すると、該曲げロボット11が、搬入出ロボット3が把持しているワークを本来の把持位置hD で受け取るように姿勢を補正することにより、ワーク受け取り位置の補正を行う(図10のステップ110)。
That is, when the robot control means 30G transmits the correction drive signals S a , S b ... To the bending
換言すれば、曲げロボット11が、ワークを把持したと仮定した場合に、そのときのワークの実際の把持位置hR が(図6)本来の把持位置hD と一致するように、姿勢を補正し(図10のステップ110)、その姿勢のまま搬入出ロボット3からワークを受け取る(図10のステップ111)。
In other words, the bending
その後は、いずれの場合でも(図10のステップ105〜106、又はステップ110〜111)、曲げロボット11がワークの適正位置を把持するので(図10のステップ107)、ロボット制御手段30Gが再度曲げロボット11を駆動制御すれば、該曲げロボット11は、適正位置を把持したワークを曲げ加工装置10へ供給・位置決めし(図10のステップ108)、曲げ制御手段30H(図1)の制御の下に、曲げ加工が行われる(図10のステップ109)。
Thereafter, in either case (
曲げ制御手段30Hは(図1)、前記情報演算手段30Bで決定された曲げ順などに基づいて、曲げ加工装置10であるプレスブレーキを制御し、前記曲げロボット11により適正位置が把持されたワークに対して、パンチPとダイDにより曲げ加工を施す(図10のステップ109)。
The bending control means 30H (FIG. 1) controls the press brake, which is the bending
搬送制御手段30Jは(図1)、素材台1、中間台8、製品積載台12の搬送制御、例えば製品積載台12を構成するベルトコンベアを駆動制御する。 The conveyance control means 30J (FIG. 1) controls the conveyance of the material table 1, the intermediate table 8, and the product loading table 12, for example, drives and controls the belt conveyor constituting the product loading table 12.
入出力手段30K(操作ボックス)は、例えばプレスブレーキを(図2)構成する上部テーブル13の近傍に設けられ、キーボードや液晶などの画面から成る。 The input / output means 30K (operation box) is provided, for example, in the vicinity of the upper table 13 constituting a press brake (FIG. 2), and is composed of a screen such as a keyboard and a liquid crystal.
この入出力手段30Kは、既述した上位NC装置29(図1)対するインターフェース機能を有し、これにより、下位NC装置30を有線又は無線で上位NC装置29に接続することにより、前記CAD情報を入力することができる。
This input / output means 30K has an interface function to the above-described upper NC apparatus 29 (FIG. 1), and by connecting the
前記した構成を有する曲げ加工システムの制御装置のデータの流れが、図9に示され、同図は、既述した搬入出ロボット3(ローディングロボット)が姿勢を補正する場合の例である(図10のステップ104の下矢、ステップ105〜106)。
The flow of data of the control device of the bending system having the above-described configuration is shown in FIG. 9, which is an example in the case where the loading / unloading robot 3 (loading robot) described above corrects the posture (FIG. 9). 10
即ち、図9における(2)の画像センサコントロール(図1の撮像制御手段30Cと、ワーク画像検出手段30Dと、ワーク基準画像算出手段30Eと、ズレ量算出手段30Fに対応)から画像センサ(図1のワーク撮像手段2に対応)に対して画像データ要求が出されると、画像センサは、(1)のワーク一枚取り装置(図1の素材台1に対応)上のワークの前記コーナ部Kを(図1)撮像してそれを画像データ(図6の検出コーナ部KD に対応)として画像センサコントロールに送信し、既述したズレ量ΔX、ΔY、Δθが(図6)算出される。
That is, from the image sensor control (2) in FIG. 9 (corresponding to the imaging control means 30C, work image detection means 30D, work reference image calculation means 30E, and deviation amount calculation means 30F in FIG. 1) to the image sensor (FIG. When the image data request is issued to the workpiece image pickup means 2 (corresponding to the workpiece imaging means 2 of 1), the image sensor is configured to select the corner portion of the workpiece on the workpiece picking device (corresponding to the
また、このとき送信された画像データは、図9に示すように、モニタ(図1のズレ量算出手段30Fに内蔵)に転送され、目標値(図6の基準コーナ部KR に対応)との一致・不一致が常に監視される。 The image data transmitted at this time, as shown in FIG. 9, is transferred to the monitor (built in the deviation amount calculating means 30F in FIG. 1), the target value (corresponding to the reference corner K R of FIG. 6) A match / mismatch is always monitored.
この状態で、図9における(4)のローディングロボット制御装置(図1のロボット制御手段30Gに内蔵)から(3)のシーケンサ(図1のロボット制御手段30Gに内蔵)に対して、姿勢補正データ要求が出されると、シーケンサが前記画像センサコントロールにズレ量データ要求を出して該ズレ量データを転送してもらい、それを姿勢補正データに換算してローディングロボット制御装置に送信すれば、ローディングロボット制御装置は、姿勢補正された動作指令出力(図1の補正駆動信号Sa 、Sb ・・・に対応)をローディングロボット(図1の搬入出ロボット3に対応)に送信する。
In this state, the posture correction data is transferred from the loading robot controller (4) in FIG. 9 (built in the
以下、前記構成を有する本発明の第1実施形態(図1に示す曲げロボット11と搬入出ロボット3を有する曲げ加工システム)の動作を図10に基づいて説明する。尚、以下の図10、図11においては、CCDカメラ2Aによる撮像対象は、ワークのコーナ部Kとし、また、基準画像RWは、正規位置でのワークをCCDカメラ2Aで撮像し、その画像を、基準画像RWとしてワーク基準画像算出・格納手段30Eに格納したものを使用する。
The operation of the first embodiment of the present invention having the above-described configuration (bending system having the bending
(1)所定のズレ量ΔX、ΔY、Δθを算出するまでの動作。 (1) Operations until calculating the predetermined deviation amounts ΔX, ΔY, Δθ.
図10のステップ101において、搬入出ロボット3が素材台1上のワークを吸着し、ステップ102において、吸着されたワークのコーナ部KをCCDカメラ2Aで撮像し、これを検出画像DWとして取り込み、ステップ103において、検出画像DW中の検出コーナ部KD と、基準画像RW中の基準コーナ部KR の差に基づいて、所定のズレ量ΔX、ΔY、Δθを算出する。
In
即ち、CPU30Aが(図1)、ロボット制御手段30Gを介して、搬入出ロボット3に(図4)素材台1上の素材Tとしてのワークを吸着させ、そのワークをCCDカメラ2Aの上方の所定位置まで移動させ、撮像制御手段30Cを介して、CCDカメラ2Aによりワークのコーナ部Kを撮像させ、該撮像したコーナ部Kをワーク画像検出手段30Dに画像として検出させ、更に、ズレ量算出手段30Fを介して、検出コーナ部KD と、ワーク基準画像算出・格納手段30Eに格納された基準コーナ部KR との差PIC− X、PIC− Y、PIC− θ(既述した(1))に基づいて、最終的には、前記(9)〜(11)で表せるズレ量ΔX、ΔY、Δθを算出させる。
That is, the
(2)ロボットの姿勢補正動作。 (2) Robot posture correction operation.
図10のステップ104において、姿勢の補正を行うのは、搬入出ロボット3か曲げロボット11かを判断し、搬入出ロボット3が姿勢補正を行う場合には(ステップ104の下矢)、ステップ105において、搬入出ロボット3が曲げロボット11へのワーク受け渡し位置の補正を行い、ステップ106において、搬入出ロボット3が補正後の姿勢のまま曲げロボット11へワークを受け渡し、曲げロボット11が姿勢補正を行う場合には(ステップ104の右矢)、ステップ110において、曲げロボット11が搬入出ロボット3からのワーク受け取り位置の補正を行い、ステップ111において、曲げロボット11が補正後の姿勢のまま搬入出ロボット3からワークをワーク受け取る。
In
即ち、CPU30Aは(図1)、前記図10のステップ103でズレ量ΔX、ΔY、Δθが(図6)算出されると、ロボット制御手段30Gに指示を出し、姿勢の補正を行うのは、搬入出ロボット3か曲げロボット11かを判断させる。
That is, the
そして、ロボット制御手段30Gは、搬入出ロボット3が姿勢の補正を行うと判断した場合には、前記(9)〜(11)のズレ量ΔX、ΔY、Δθに基づいて補正駆動信号Sa 、Sb ・・・を搬入出ロボット3に送信すると、該搬入出ロボット3が、既述したように、自らが把持しているワークの実際の把持位置HR が(図6)本来の把持位置HD と一致するように、姿勢を補正するので、その姿勢のまま曲げロボット11へワークを受け渡す。
When the
また、ロボット制御手段30Gは、曲げロボット11が姿勢の補正を行うと判断した場合には、前記(9)〜(11)のズレ量ΔX、ΔY、Δθに基づいて補正駆動信号Sa 、Sb ・・・を曲げロボット11に送信すると、該曲げロボット11が、既述したように、ワークを把持したと仮定した場合に、そのときのワークの実際の把持位置hR が(図6)本来の把持位置hD と一致するように、姿勢を補正するので、その姿勢のまま搬入出ロボット3からワークを受け取る。
In addition, when the
(3)曲げ加工動作。 (3) Bending operation.
上記したように、姿勢の補正を行ったのが搬入出ロボット3であれ、曲げロボット11であれ、いずれの場合でも(図10のステップ105〜106、又はステップ110〜111)、ワークの位置決めが行われ、曲げロボット11は、該ワークの適正位置を把持するので(図10のステップ107)、ロボット制御手段30Gが再度曲げロボット11を駆動制御すれば、既述したように、曲げロボット11は、適正位置を把持したワークを曲げ加工装置10へ供給・位置決めし(図10のステップ108)、曲げ制御手段30H(図1)の制御の下に、曲げ加工が行われる(図10のステップ109)。
As described above, in any case (
図11は、本発明の第2実施形態を示す図である。 FIG. 11 is a diagram showing a second embodiment of the present invention.
図11の曲げ加工システムは、中間台8にワーク撮像手段2を取り付けたものである。 The bending system shown in FIG. 11 has a workpiece imaging means 2 attached to an intermediate table 8.
即ち、曲げ加工後に、曲げロボット11(図1)を介して中間台8(図11)に置かれた製品Qとしてのワークのコーナ部Kを、CCDカメラ2Aで撮像し、同様に、それを検出画像DW(図6に相当)として基準画像RWと比較し、両者の差に基づいて、所定のズレ量ΔX、ΔY、Δθを算出し、該ズレ量ΔX、ΔY、Δθに基づいて、中間台8上の製品Qを、搬入出ロボット3が吸着して製品積載台12に積載する場合の位置を補正するものであり、特に、製品Qを製品積載台12上で崩すことなく多段に積載する場合に効果がある。
That is, after bending, the corner portion K of the workpiece as the product Q placed on the intermediate table 8 (FIG. 11) via the bending robot 11 (FIG. 1) is imaged by the
上記図11に示す第2実施形態の動作を図10に即して説明すれば、次のようになる。 The operation of the second embodiment shown in FIG. 11 will be described with reference to FIG.
(1)所定のズレ量ΔX、ΔY、Δθを算出するまでの動作。 (1) Operations until calculating the predetermined deviation amounts ΔX, ΔY, Δθ.
搬入出ロボット3が中間台8上の製品Qとしてのワークを吸着し(図10のステップ101に相当)、吸着されたワークのコーナ部KをCCDカメラ2Aで撮像し、これを検出画像DWとして取り込み(ステップ102に相当)、検出画像DW中の検出コーナ部KD と、基準画像RW中の基準コーナ部KR の差に基づいて、所定のズレ量ΔX、ΔY、Δθを算出する(ステップ103に相当)。
The loading /
即ち、CPU30Aが(図1)、ロボット制御手段30Gを介して、図11に示す搬入出ロボット3に中間台8上の製品Qとしてのワークを吸着させ、そのワークをCCDカメラ2Aの上方の所定位置まで移動させ、撮像制御手段30Cを介して、CCDカメラ2Aによりワークのコーナ部Kを撮像させ、該撮像したコーナ部Kをワーク画像検出手段30Dに画像として検出させ、更に、ズレ量算出手段30Fを介して、検出コーナ部KD と、ワーク基準画像算出・格納手段30Eに格納された基準コーナ部KR との差PIC− X、PIC− Y、PIC− θ(既述した(1))に基づいて、最終的には、前記(9)〜(11)で表せるズレ量ΔX、ΔY、Δθを算出させる。
That is, the
(2)ロボットの姿勢補正動作。 (2) Robot posture correction operation.
その後は、図11の場合には、姿勢の補正を行うのは、搬入出ロボット3だけであり、従って、搬入出ロボット3が製品積載台12へのワーク積載位置の補正を行う(図10のステップ104⇒ステップ105又は110)。
Thereafter, in the case of FIG. 11, only the loading /
即ち、CPU30Aは(図1)、ズレ量ΔX、ΔY、Δθが(図6)算出されると、ロボット制御手段30Gに指示を出し、搬入出ロボット3の姿勢の補正を行わせる。
That is, when the deviation amounts ΔX, ΔY, Δθ are calculated (FIG. 6) (FIG. 1), the
より具体的には、ロボット制御手段30Gが(図1)、前記(9)〜(11)のズレ量ΔX、ΔY、Δθに基づいて補正駆動信号Sa 、Sb ・・・を搬入出ロボット3に送信すると、該搬入出ロボット3が、自らが把持しているワークの実際の把持位置HR が(図6)本来の把持位置HD と一致するように、姿勢を補正する。
More specifically, the robot control means 30G sends the correction drive signals S a , S b ... On the basis of the deviation amounts ΔX, ΔY, Δθ of (9) to (11) (FIG. 1). sending to 3, the該搬and out
(3)製品積載台12上への製品Qの積載動作。 (3) Product Q loading operation on the product loading table 12.
前記したように、搬入出ロボット3は、自らが把持しているワークの実際の把持位置HR が(図6)本来の把持位置HD と一致するように、姿勢を補正することによって、ワークの位置決めが行われ、搬入出ロボット3は、製品Qとしてのワークの適正位置を把持するので(図10のステップ106又は111⇒ステップ107に相当)、全ての製品Qは、その位置ズレが補正され、同じ位置を向いた状態で把持される。
As described above, loading and unloading
よって、ロボット制御手段30Gが再度搬入出ロボット3を駆動制御すれば、搬入出ロボット3は(図11)、適正位置を把持した製品Qとしてのワークを、補正後の姿勢のままで製品積載台12上に積載すれば、該製品Qを製品積載台12上で崩すことなく多段に積載可能となる(図10のステップ107⇒ステップ108)。
Therefore, if the robot control means 30G drives and controls the loading /
上記のように、本発明によれば、中間台に置かれた製品としてのワークのコーナ部を、CCDカメラで撮像することにより、該製品を搬入出ロボット3が製品積載台に積載する場合の位置の補正が可能となり、該製品を製品積載台上で崩すことなく多段に積載可能にするという効果がある。
As described above, according to the present invention, when a corner portion of a workpiece as a product placed on the intermediate platform is imaged by the CCD camera, the loading /
本発明は、中間台8上の製品Qを、搬入出ロボット3が吸着して製品積載台12に積載する場合の位置を補正するときに利用され、製品Qを製品積載台12上で崩すことなく多段に積載する場合に有用である。
The present invention is used when correcting the position of the product Q on the intermediate table 8 when the carry-in / out
1 ワーク一枚取り装置の素材台
2 ワーク撮像手段
3 搬入出ロボット
3A 吸着パッド
8 中間台
10 曲げ加工装置
11 曲げロボット
12 製品積載台
13 上部テーブル
14 下部テーブル
15 ベースプレート
17 グリップ
18 掴み換え台
19、21、23 他の曲げロボット
20 他の素材台
22 ベルトコンベア
29 上位NC装置
30 下位NC装置
30A CPU
30B 情報演算手段
30C 撮像制御手段
30D ワーク画像検出手段
30E ワーク基準画像算出・格納手段
30F ズレ量算出手段
30G ロボット制御手段
30H 曲げ制御手段
30J 入出力手段
T 素材
Q 製品
S 撮像範囲
DW ワークの検出画像
RW ワークの基準画像
KD 検出コーナ部
KR 基準コーナ部
HR 吸着パッド3Aの実際の把持位置
HD 吸着パッド3Aの本来の把持位置
hR グリップ17の実際の把持位置
hD グリップ17の本来の把持位置
K ワークのコーナ部
DESCRIPTION OF
30B Information calculation means 30C Imaging control means 30D Work image detection means 30E Work reference image calculation / storage means 30F Deviation amount calculation means 30G Robot control means 30H Bending control means 30J Input / output means T Material Q Product S Imaging range DW Work detection image original actual gripping position h D grip 17 of the original grip position h R grip 17 of the actual gripping position H D suction pads 3A of the reference image K D detecting corner K R reference corner H R suction pad 3A of RW workpiece Gripping position K Work corner
Claims (1)
該中間台に取り付けられたワーク撮像手段と、
該ワーク撮像手段から入力された製品としてのワークの画像を検出するワーク画像検出手段と、
予め入力された情報に基づいて製品としてのワークの基準画像を算出し、又はワーク撮像手段で撮像された正規位置の製品としてのワーク画像を基準画像として格納するワーク基準画像算出・格納手段と、
検出画像と基準画像の差に基づいて所定のズレ量を算出するズレ量算出手段と、
該ズレ量に基づいて検出画像と基準画像が一致するように、中間台上の製品としてのワークを把持した搬入出ロボットの姿勢を補正し、補正後の姿勢のまま製品としてのワークを製品積載台に積載させるロボット制御手段を有することを特徴とするワーク位置決め装置。 An intermediate platform for placing workpieces as products,
A workpiece imaging means attached to the intermediate platform;
Workpiece image detection means for detecting an image of a workpiece as a product input from the workpiece imaging means;
A workpiece reference image calculation / storage unit that calculates a reference image of a workpiece as a product based on information input in advance, or stores a workpiece image as a product at a normal position captured by the workpiece imaging unit as a reference image;
A deviation amount calculating means for calculating a predetermined deviation amount based on a difference between the detected image and the reference image;
Based on the amount of deviation, correct the posture of the loading / unloading robot that grips the workpiece as a product on the intermediate platform so that the detected image matches the reference image, and load the workpiece as a product in the corrected posture. A workpiece positioning device comprising a robot control means for loading on a table.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007171357A JP2007237394A (en) | 2007-06-29 | 2007-06-29 | Workpiece positioning device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007171357A JP2007237394A (en) | 2007-06-29 | 2007-06-29 | Workpiece positioning device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002269314A Division JP2004106079A (en) | 2002-09-17 | 2002-09-17 | Workpiece positioning device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007237394A true JP2007237394A (en) | 2007-09-20 |
Family
ID=38583409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007171357A Pending JP2007237394A (en) | 2007-06-29 | 2007-06-29 | Workpiece positioning device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007237394A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010214546A (en) * | 2009-03-17 | 2010-09-30 | Fuji Electric Holdings Co Ltd | Device and method for assembling |
EP2177326A3 (en) * | 2008-10-14 | 2012-04-04 | Safan B.V. | Method for aligning a workpiece to a robot |
JP2013193139A (en) * | 2012-03-16 | 2013-09-30 | Nhk Spring Co Ltd | Workpiece hanging control device and method in hanger line |
US9493028B2 (en) | 2012-09-24 | 2016-11-15 | Kabushiki Kaisha Pilot Corporation | Rotating-operation type of writing tool |
EP4360772A1 (en) * | 2022-10-28 | 2024-05-01 | Talleres Roiri, S.L. | Method and system for stacking sheet metal parts |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03228589A (en) * | 1990-02-01 | 1991-10-09 | Kawasaki Heavy Ind Ltd | Positioning method for work |
JPH0699382A (en) * | 1992-09-22 | 1994-04-12 | Mazda Motor Corp | Article setting device |
JPH08224623A (en) * | 1995-02-23 | 1996-09-03 | Komatsu Ltd | Work gripping motion controller for robot |
JPH09160651A (en) * | 1995-12-11 | 1997-06-20 | Mitsubishi Electric Corp | Work positioning device |
-
2007
- 2007-06-29 JP JP2007171357A patent/JP2007237394A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03228589A (en) * | 1990-02-01 | 1991-10-09 | Kawasaki Heavy Ind Ltd | Positioning method for work |
JPH0699382A (en) * | 1992-09-22 | 1994-04-12 | Mazda Motor Corp | Article setting device |
JPH08224623A (en) * | 1995-02-23 | 1996-09-03 | Komatsu Ltd | Work gripping motion controller for robot |
JPH09160651A (en) * | 1995-12-11 | 1997-06-20 | Mitsubishi Electric Corp | Work positioning device |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2177326A3 (en) * | 2008-10-14 | 2012-04-04 | Safan B.V. | Method for aligning a workpiece to a robot |
JP2010214546A (en) * | 2009-03-17 | 2010-09-30 | Fuji Electric Holdings Co Ltd | Device and method for assembling |
JP2013193139A (en) * | 2012-03-16 | 2013-09-30 | Nhk Spring Co Ltd | Workpiece hanging control device and method in hanger line |
US9493028B2 (en) | 2012-09-24 | 2016-11-15 | Kabushiki Kaisha Pilot Corporation | Rotating-operation type of writing tool |
EP4360772A1 (en) * | 2022-10-28 | 2024-05-01 | Talleres Roiri, S.L. | Method and system for stacking sheet metal parts |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2015079740A1 (en) | Robot system and robot system control method | |
JP7022097B2 (en) | Transport equipment and delivery system | |
JP4794011B2 (en) | Image processing apparatus and robot control system | |
JP2006035397A (en) | Conveyance robot system | |
WO2020009148A1 (en) | Workpiece transport system and workpiece transport method | |
JP6322959B2 (en) | Robot, robot system, and robot controller | |
WO2018139574A1 (en) | Conveyance system and operation method thereof | |
JP2007237394A (en) | Workpiece positioning device | |
TW202043128A (en) | Robot hand, robot, and robot system | |
JP6262867B2 (en) | Electronic component mounting system | |
JP6703018B2 (en) | Work robot system | |
JP2020089961A (en) | Robot system and connection method | |
JP4769232B2 (en) | Mounting machine and component adsorption device | |
JP2013099807A (en) | Robot and method for controlling the robot | |
JP4303411B2 (en) | Tracking method and tracking system | |
WO2020004572A1 (en) | Substrate-conveying device and method for operating same | |
JP2004106079A (en) | Workpiece positioning device | |
JP2010105081A (en) | Bin picking apparatus | |
JP2020163553A (en) | Board pickup method, and board pickup device | |
TWI765247B (en) | Robotic hands, robots and robotic systems | |
JP6928316B2 (en) | Parts mounting machine with holding function | |
JP2009172720A (en) | Bin picking device | |
JP2013173196A (en) | Position correcting method of robot handling arm | |
CN115803584A (en) | Image pickup apparatus for acquiring three-dimensional information of workpiece surface and two-dimensional image of workpiece | |
JPS62226308A (en) | Control system for robot having visual sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070629 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100708 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100715 |
|
A02 | Decision of refusal |
Effective date: 20101105 Free format text: JAPANESE INTERMEDIATE CODE: A02 |