JP2007237394A - Workpiece positioning device - Google Patents

Workpiece positioning device Download PDF

Info

Publication number
JP2007237394A
JP2007237394A JP2007171357A JP2007171357A JP2007237394A JP 2007237394 A JP2007237394 A JP 2007237394A JP 2007171357 A JP2007171357 A JP 2007171357A JP 2007171357 A JP2007171357 A JP 2007171357A JP 2007237394 A JP2007237394 A JP 2007237394A
Authority
JP
Japan
Prior art keywords
workpiece
robot
image
product
loading
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007171357A
Other languages
Japanese (ja)
Inventor
Teruyuki Kubota
輝幸 久保田
Tatsuya Takahashi
竜哉 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Amada Co Ltd
Amada Engineering Center Co Ltd
Original Assignee
Amada Co Ltd
Amada Engineering Center Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Amada Co Ltd, Amada Engineering Center Co Ltd filed Critical Amada Co Ltd
Priority to JP2007171357A priority Critical patent/JP2007237394A/en
Publication of JP2007237394A publication Critical patent/JP2007237394A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B21MECHANICAL METAL-WORKING WITHOUT ESSENTIALLY REMOVING MATERIAL; PUNCHING METAL
    • B21DWORKING OR PROCESSING OF SHEET METAL OR METAL TUBES, RODS OR PROFILES WITHOUT ESSENTIALLY REMOVING MATERIAL; PUNCHING METAL
    • B21D43/00Feeding, positioning or storing devices combined with, or arranged in, or specially adapted for use in connection with, apparatus for working or processing sheet metal, metal tubes or metal profiles; Associations therewith of cutting devices
    • B21D43/003Positioning devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To correct the position of a workpiece as a product placed on an intermediate table when a carry in-and-out robot loads a product loading table with the workpiece, whereby the products is stacked in multi-stage without destruction on the product loading table in a bending system using the robot. <P>SOLUTION: This workpiece positioning device includes: the intermediate table for placing the workpiece as the product; a workpiece imaging means fitted with the intermediate table 8; a workpiece image detecting means for detecting an image of the workpiece input from the workpiece imaging means; a workpiece reference image calculating and storing means for calculating the reference image of the workpiece, based on previously input information; a shift amount calculating means for calculating a predetermined shift amount based upon a difference between the detected image and the reference image; and a robot control means for correcting the posture of the carry in-and-out robot so that the detected image and the reference image match each other, based on the shift amount, and loading the product loading table with the workpiece. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、中間台に置かれた製品としてのワークを、搬入出ロボットが製品積載台に積載する場合の位置の補正を可能とし、該製品を製品積載台上で崩すことなく多段に積載可能にしたワーク位置決め装置に関する。 The present invention makes it possible to correct the position of a workpiece as a product placed on an intermediate platform when the loading / unloading robot loads it on the product loading table, and the products can be loaded in multiple stages without breaking on the product loading table. The present invention relates to a workpiece positioning device.

従来より、ロボットを使用して自動的に曲げ加工を行う場合には、例えば搬入出ロボット3が(図1)素材台1上の素材Tとしてのワークを吸着して、曲げ加工装置10に取り付けられた曲げロボット11に該素材Tを受け渡し、該曲げロボット11がその素材Tを曲げ加工装置10に供給・位置決めして曲げ加工を行う。     Conventionally, when a bending process is automatically performed using a robot, for example, the loading / unloading robot 3 (FIG. 1) sucks a workpiece as the material T on the material table 1 and attaches it to the bending apparatus 10. The material T is delivered to the bending robot 11, and the bending robot 11 supplies and positions the material T to the bending apparatus 10 to perform bending.

加工後は、上記曲げロボット11が製品Qとしてのワークを中間台8に置くと、該製品Qを搬入出ロボット3が吸着して製品積載台12に順次積載する。
なし
After the processing, when the bending robot 11 places a workpiece as the product Q on the intermediate table 8, the loading / unloading robot 3 sucks the product Q and sequentially loads it on the product loading table 12.
None

このような曲げ加工システムにおいては、素材台1上のワークは、一般には、位置ズレを生じていることが多く、そのままの状態でワークを搬入出ロボット3から曲げロボット11へ受け渡して加工すると、加工前のワークと曲げ加工装置10との位置関係にズレがあるため(例えばワークと金型P、Dとの長手方向の位置ズレ、ワークと突当との当接の位置ズレ)、所定の寸法の製品ができず、また、曲げ加工済みのフランジをつぶしたり、突当にワークが当接せず、効率的な加工ができないケースが発生する。   In such a bending system, in general, the workpiece on the material table 1 is often misaligned. When the workpiece is transferred from the loading / unloading robot 3 to the bending robot 11 and processed as it is, Since there is a deviation in the positional relationship between the workpiece before processing and the bending apparatus 10 (for example, a positional deviation in the longitudinal direction between the workpiece and the molds P and D, a positional deviation in contact between the workpiece and the abutment), a predetermined amount There is a case that the product of the size cannot be produced, the bent flange is crushed, and the workpiece does not come into contact with the abutment, so that efficient machining cannot be performed.

そのため、機械を停止せざるを得ず、従って、加工が続行できず、更に不良品が多く発生し材料が無駄になるなど種々の弊害がある。     Therefore, the machine has to be stopped, and therefore, the processing cannot be continued, and there are various problems such as many defective products are generated and the material is wasted.

また、従来は、前記した位置ズレが生じないように、人手で注意深くワークを素材台1上に積載しており、そのため積載時間が長くなっていた。   Further, conventionally, the work is carefully loaded on the material table 1 by hand so that the above-described positional deviation does not occur, so that the loading time is long.

このことは、加工後の製品Qとしてのワークにもいえることであり、中間台8(図11)上に置かれた製品Qとしてのワークは、一般には位置ズレを生じていることが多く、従って、そのままの状態で製品Qとしてのワークを、搬入出ロボット3が把持して製品積載台12上に載せたとしても1つ1つバラバラになり、崩されてしまう。その結果、従来は、製品Qとしてのワークを、製品積載台12上で崩すことなく多段に積載することはできない。   This is also true for the workpiece as the product Q after processing. In general, the workpiece as the product Q placed on the intermediate table 8 (FIG. 11) is often misaligned. Therefore, even if the work as the product Q is gripped by the loading / unloading robot 3 and placed on the product loading table 12 in the state as it is, it is separated and collapsed one by one. As a result, conventionally, workpieces as the product Q cannot be stacked in multiple stages without breaking on the product loading table 12.

本発明の目的は、ロボットを使用した曲げ加工システムにおいて、中間台に置かれた製品としてのワークを、搬入出ロボットが製品積載台に積載する場合の位置の補正を可能とし、該製品を製品積載台上で崩すことなく多段に積載可能にする。 An object of the present invention is to enable correction of a position when a loading / unloading robot loads a workpiece as a product placed on an intermediate platform on a product loading platform in a bending system using a robot, It can be loaded in multiple stages without breaking on the loading platform.

上記課題を解決するために、本発明は、図11に示すように、
製品Qとしてのワークを戴置する中間台8と、
該中間台8に取り付けられたワーク撮像手段2と、
該ワーク撮像手段2から入力された製品Qとしてのワークの画像DWを検出するワーク画像検出手段30Dと(図1)、
予め入力された情報に基づいて製品Qとしてのワークの基準画像RWを算出し、又はワーク撮像手段2で撮像された正規位置の製品Qとしてのワーク画像を基準画像RWとして格納するワーク基準画像算出・格納手段30Eと、
検出画像DWと基準画像RWの差に基づいて所定のズレ量を算出するズレ量算出手段30Fと、
該ズレ量に基づいて検出画像DWと基準画像RWが一致するように、中間台8上の製品Sとしてのワークを把持した搬入出ロボット3の姿勢を補正し、補正後の姿勢のまま製品Qとしてのワークを製品積載台12に積載させるロボット制御手段30Gを有することを特徴とするワーク位置決め装置という技術的手段が講じられた。
In order to solve the above problems, the present invention, as shown in FIG.
An intermediate platform 8 on which workpieces as product Q are placed;
A work imaging means 2 attached to the intermediate table 8;
A work image detection means 30D for detecting an image DW of a work as a product Q inputted from the work imaging means 2 (FIG. 1);
A workpiece reference image RW as a product Q is calculated based on information input in advance, or a workpiece reference image calculation for storing a workpiece image as a product Q at a normal position captured by the workpiece imaging means 2 as a reference image RW. Storage means 30E;
A deviation amount calculation means 30F for calculating a predetermined deviation amount based on the difference between the detected image DW and the reference image RW;
Based on the amount of deviation, the posture of the loading / unloading robot 3 that grips the workpiece as the product S on the intermediate platform 8 is corrected so that the detected image DW matches the reference image RW, and the product Q remains in the corrected posture. Technical means called a workpiece positioning device characterized by having robot control means 30G for loading the workpiece as a product loading table 12 was taken.

上記本発明の構成によれば、ワーク撮像手段2が(図1)ワークの所定の部分、例えばコーナ部Kを撮像し、ズレ量算出手段30Fが、ワーク画像検出手段30Dにより検出された検出画像DW中の検出コーナ部Kと、ワーク基準画像算出・格納手段30Eにより算出し、又はそこに格納された基準画像RW中の基準コーナ部Kとの差PICX、PICY、PICθに基づいて(図6)、ロボットによるワークの実際の把持位置Hと本来の把持位置Hとのズレ量ΔX、ΔY、Δθを算出し、ロボット制御手段30Gが、該ズレ量ΔX、ΔY、Δθに基づいて、実際の把持位置Hと本来の把持位置Hが一致するように例えば搬入出ロボット3の姿勢を補正制御してワークを位置決めし適正位置を把持させることができる。 According to the configuration of the present invention described above, the workpiece imaging means 2 (FIG. 1) images a predetermined portion of the workpiece, for example, the corner portion K, and the deviation amount calculating means 30F is detected image detected by the workpiece image detecting means 30D. and detecting the corner section K D in the DW, the difference between the work reference image calculating and storing means is calculated by 30E, or reference corner K R of the reference image in RW stored therein PIC - X, PIC - Y, PIC - based on the theta (FIG. 6), the deviation amount ΔX of the actual gripping position H R and the original holding position H D of the workpiece by the robot, [Delta] Y, and calculates the [Delta] [theta], the robot control means 30G is, the deviation amount ΔX , [Delta] Y, based on [Delta] [theta], it is possible to grasp the actual gripping position H R and the example loading and unloading position of the robot 3 as original holding position H D coincides with the correction control to position the workpiece properly position .

これにより、本発明によれば、ロボットを使用した曲げ加工システムにおいて、搬入出ロボット3が(図11)、中間台8に置かれた製品Qとしてのワークを、製品積載台12に積載する場合の位置の補正を可能とし、該製品Qを製品積載台上で崩すことなく多段に積載可能にするという効果を奏する。   Thus, according to the present invention, in the bending system using a robot, the loading / unloading robot 3 (FIG. 11) loads the workpiece as the product Q placed on the intermediate platform 8 on the product loading platform 12. The position of the product Q can be corrected, and the product Q can be stacked in multiple stages without breaking on the product loading table.

以下、本発明を、実施の形態により添付図面を参照して説明する。
図1は、本発明の実施形態を示す全体図である。
Hereinafter, the present invention will be described with reference to the accompanying drawings by embodiments.
FIG. 1 is an overall view showing an embodiment of the present invention.

図1の曲げ加工システムは、曲げ加工装置10と、該曲げ加工装置10にベースプレート15を介して取り付けられた曲げロボット11と、該曲げ加工装置10の側方に設置された搬入出ロボット3を有している。   The bending system shown in FIG. 1 includes a bending apparatus 10, a bending robot 11 attached to the bending apparatus 10 via a base plate 15, and a loading / unloading robot 3 installed on the side of the bending apparatus 10. Have.

上記搬入出ロボット3の近傍には、素材Tとしてのワークを積載する例えばワーク一枚取り装置の素材台1と、曲げロボット11が加工直後の製品Qを解放して載せる中間台8と、搬入出ロボット3が中間台8から吸着した製品Qを積載する製品積載台12がそれぞれ配置されている。 In the vicinity of the loading / unloading robot 3, for example, a material stand 1 of a workpiece picking device for loading a workpiece as the material T, an intermediate platform 8 on which the bending robot 11 releases and places a product Q immediately after processing, A product loading table 12 on which the outgoing robot 3 loads the product Q adsorbed from the intermediate table 8 is arranged.

これにより、ワークを戴置するワーク戴置手段が、前記素材台1と、中間台8と、製品積載台12により構成され、このうちの例えば素材台1には、後述するワーク撮像手段2が取り付けられている。   Thereby, the workpiece placing means for placing the workpiece is constituted by the material table 1, the intermediate table 8, and the product loading table 12. Among these materials, for example, the material table 1 has a workpiece imaging means 2 described later. It is attached.

この場合の曲げ加工装置10としては、例えばプレスブレーキがあり、よく知られているように、上部テーブル13(図2)に装着されたパンチPと、下部テーブル14に装着されたダイDを有し、後述する曲げロボット11のグリップ17で適正位置が把持されたワークに対して、パンチPとダイDにより所定の曲げ加工を施す。   As the bending apparatus 10 in this case, for example, there is a press brake, and as is well known, the punch P mounted on the upper table 13 (FIG. 2) and the die D mounted on the lower table 14 are provided. Then, a predetermined bending process is performed by the punch P and the die D on the workpiece whose proper position is held by the grip 17 of the bending robot 11 described later.

上記曲げロボット11は、例えば5軸であって、前記したように、その先端にグリップ17を有し、搬入出ロボット3から素材Tとしてのワークを受け取って、後述するように(図6)、ワークの本来の把持位置hを把持した状態で、曲げ加工装置10へ供給・位置決めした後曲げ加工される間該素材Tを把持し、製品Qが出来た場合にはそれを中間台8上でグリップ17から解放する。 The bending robot 11 has, for example, five axes, and has the grip 17 at the tip thereof as described above, receives a workpiece as the material T from the loading / unloading robot 3, and will be described later (FIG. 6). in the original holding state in which the position h gripping the D of the workpiece, the bending apparatus 10 bending after supplying and positioning grips between said workpiece T to be processed into the upper middle mount 8 it if could products Q To release from the grip 17.

搬入出ロボット3は、例えば6軸であって、吸着パッド3Aを有し、該吸着パッド3Aで素材台1上の素材Tを吸着し、既述したように、曲げロボット11に受け渡し、出来た製品Qを中間台8から吸着パッド3Aで吸着してそれを製品積載台12に積載する。   The carry-in / out robot 3 has, for example, six axes, has a suction pad 3A, sucks the material T on the material table 1 with the suction pad 3A, and delivers it to the bending robot 11 as described above. The product Q is sucked from the intermediate table 8 by the suction pad 3A and loaded on the product loading table 12.

この場合、後述するように(図4)、搬入出ロボット3で吸着された素材Tとしてのワークの例えばコーナ部Kが、素材台1に取り付けられたワーク撮像手段2により撮像され、該撮像されたコーナ部Kの画像K(図6)を含むワークの検出画像DWが下位NC装置30を構成するワーク画像検出手段30Dで(図1)検出される。 In this case, as will be described later (FIG. 4), for example, a corner portion K of the workpiece as the material T adsorbed by the loading / unloading robot 3 is imaged by the workpiece imaging means 2 attached to the material table 1. The workpiece detection image DW including the image K D (FIG. 6) of the corner portion K is detected by the workpiece image detection means 30 </ b> D constituting the lower NC device 30 (FIG. 1).

これにより、この検出画像DWは、ワーク基準画像算出・格納手段30E(図1)により算出され、又はそこに格納された基準画像RWと共に、ズレ量算出手段30Fに入力された後、該ズレ量算出手段30Fにより、所定のズレ量、より詳しくは、検出画像DW中の検出コーナ部Kと、基準画像RW中の基準コーナ部Kとの差PICX、PICY、PICθに基づいて、ロボットによるワークの実際の把持位置Hと本来の把持位置Hとのズレ量ΔX、ΔY、Δθが算出される。 As a result, the detected image DW is calculated by the workpiece reference image calculation / storage means 30E (FIG. 1) or input to the deviation amount calculation means 30F together with the reference image RW stored therein, and then the deviation amount. the calculation unit 30F, a predetermined shift amount, and more particularly, the difference between the detected corner portion K D in the detected image DW, a reference corner K R of the reference image RW PIC - X, PIC - Y , PIC - θ based on the deviation amount ΔX of the actual gripping position H R and the original holding position H D of the workpiece by the robot, [Delta] Y, [Delta] [theta] is calculated.

従って、このズレ量ΔX、ΔY、Δθをロボット制御手段30Gが補正駆動信号S、S・・・に変換すれば、該ロボット制御手段30Gが、検出画像DWと基準画像RWが一致するように、例えば前記搬入出ロボット3の姿勢を補正制御することにより(図10のステップ104の下矢)、曲げロボット11へのワーク受け渡し位置の補正を行い(図10のステップ105)、これにより、ワークの位置決めが行われるので、搬入出ロボット3が、補正後の姿勢のままで曲げロボット11へワークを受け渡せば(図10のステップ106)、該曲げロボット11は、ワークの適正位置h(図6)を把持した状態で(図10のステップ107)、曲げ加工装置10へ供給・位置決めすることにより(図10のステップ108)、曲げ加工が行われる(図10のステップ8のステップ109)。 Accordingly, when the robot control means 30G converts the deviation amounts ΔX, ΔY, Δθ into the correction drive signals S a , S b ..., The robot control means 30G matches the detected image DW with the reference image RW. Further, for example, by correcting and controlling the posture of the loading / unloading robot 3 (down arrow in step 104 in FIG. 10), the workpiece transfer position to the bending robot 11 is corrected (step 105 in FIG. 10). Since the workpiece is positioned, if the loading / unloading robot 3 delivers the workpiece to the bending robot 11 in the corrected posture (step 106 in FIG. 10), the bending robot 11 has the proper position h D of the workpiece. With the gripping state (FIG. 6) (step 107 in FIG. 10), by supplying and positioning to the bending apparatus 10 (step 108 in FIG. 10), bending is performed. Is performed (step 109 of step 8 in FIG. 10).

このようにして、本発明によれば、ロボットを使用した曲げ加工システムにおいて、搬入出ロボット3から(図1)ワークを受け取った曲げロボット11は、ワークの適正位置を把持した状態で曲げ加工を行うことができるので、機械を停止することなく加工が続行可能となり、それに伴って不良品が少なくなり、また、搬入出ロボット3の近傍に配置されたワーク戴置手段である素材台1にワーク撮像手段2を取り付け、該素材台1上のワークの位置ズレを画像処理で検出するので、ワークをその位置ズレを気にすることなく素材台上に積載できるようにして積載時間を短縮することが可能となる。   Thus, according to the present invention, in the bending system using the robot, the bending robot 11 that has received the workpiece from the loading / unloading robot 3 (FIG. 1) performs the bending process while holding the appropriate position of the workpiece. Since the machining can be continued without stopping the machine, the number of defective products is reduced accordingly, and the workpiece is placed on the material stand 1 which is a workpiece placing means arranged near the loading / unloading robot 3. Since the image pickup means 2 is attached and the positional deviation of the workpiece on the material table 1 is detected by image processing, the workpiece can be loaded on the material table without worrying about the positional deviation, thereby shortening the loading time. Is possible.

上記素材台1には(図4)、既述したように、ワーク撮像手段2が取り付けられ、該ワーク撮像手段2は、例えばCCDカメラ2Aとその光源2Bにより構成され、CCDカメラ2Aは例えば素材台1の下方に、光源2Bはその直上方に取り付けられ、該光源2Bは、左右方向(X軸方向)に移動自在であって、例えば左側に移動した場合に、その下面から透過光を照射するようになっている。   As described above, the workpiece imaging means 2 is attached to the material table 1 (FIG. 4), and the workpiece imaging means 2 is composed of, for example, a CCD camera 2A and its light source 2B. A light source 2B is mounted directly below the table 1, and the light source 2B is movable in the left-right direction (X-axis direction). For example, when the light source 2B moves to the left side, it irradiates transmitted light from its lower surface. It is supposed to be.

この構成により、前記搬入出ロボット3の吸着パッド3Aで把持された素材Tとしてのワークの例えばコーナ部Kが、CCDカメラ2Aで撮像され、該コーナ部Kの画像Kが一次元の電気信号に変換されワーク画像検出手段30Dで二次元の電気信号に変換されることにより、ズレ量算出手段30Fで、検出コーナ部Kを含む検出画像DWと、基準コーナ部Kを含む基準画像RWが比較される(図6)。この場合、CCDカメラ2Aによる撮像対象は、ワークのX軸方向、Y軸方向、角度方向の位置を決めるための該ワークの任意の部分であって、前記したコーナ部Kとは限らず、例えばワークに穿設された穴や切欠部でもよい。 With this configuration, the unloading example corner K of the work as gripped material T by the suction pads 3A of the robot 3, are captured by the CCD camera 2A, the image K D of one-dimensional electrical signal of the corner portion K by being converted into two-dimensional electric signal by being converted into work image detecting means 30D, in deviation amount calculating means 30F, the reference image RW including the detected image DW comprising detecting corners K D, the reference corner K R Are compared (FIG. 6). In this case, the object to be imaged by the CCD camera 2A is an arbitrary part of the workpiece for determining the position of the workpiece in the X-axis direction, the Y-axis direction, and the angular direction, and is not limited to the corner portion K described above. It may be a hole or a notch formed in the workpiece.

上記構成を有する曲げ加工システムの制御装置としては、上位NC装置29と(図1)、下位NC装置30がある。   As a control device of the bending system having the above-described configuration, there are a high-order NC device 29 (FIG. 1) and a low-order NC device 30.

このうち、上位NC装置29には、CAD情報が内蔵され、該CAD情報は、ワークの板厚、材質、曲げ線の長さ、ワーク撮像手段2による撮像対象であるコーナ部Kの位置などのワーク情報、製品の曲げ角度などの製品情報を含み、これらが三次元立体図、展開図として構成されている。   Among them, the host NC device 29 incorporates CAD information, which includes the thickness of the workpiece, the material, the length of the bending line, the position of the corner portion K that is the object to be imaged by the workpiece imaging means 2, and the like. Product information such as workpiece information and product bending angle is included, and these are configured as a three-dimensional solid view and a development view.

これらの情報から成るCAD情報は、下位NC装置30に入力され、本発明の画像処理によるワークの位置ズレ検出に用いることもできる。   CAD information composed of these pieces of information is input to the lower NC device 30 and can also be used for detecting a positional deviation of a workpiece by image processing of the present invention.

下位NC装置30は(図1)、CPU30Aと、情報演算手段30Bと、撮像制御手段30Cと、ワーク画像検出手段30Dと、ワーク基準画像算出・格納手段30Eと、ズレ量算出手段30Fと、ロボット制御手段30Gと、曲げ制御手段30Hと、搬送制御手段30Jと、入出力手段30Kにより構成されている。   The subordinate NC device 30 (FIG. 1) includes a CPU 30A, an information calculation means 30B, an imaging control means 30C, a work image detection means 30D, a work reference image calculation / storage means 30E, a deviation amount calculation means 30F, a robot The control unit 30G, the bending control unit 30H, the conveyance control unit 30J, and the input / output unit 30K are included.

CPU30Aは、本発明の動作手順(例えば図10に相当)に従って、ワーク画像検出手段30D、ワーク基準画像算出・格納手段30Eなど図1に示す装置全体を統括制御する。   The CPU 30A performs overall control of the entire apparatus shown in FIG. 1, such as the work image detection means 30D and the work reference image calculation / storage means 30E, according to the operation procedure of the present invention (for example, corresponding to FIG. 10).

情報演算手段30Bは、後述する入出力手段30Kを介して前記上位NC装置29から入力されたCAD情報に基づいて、曲げ順などワークの位置ズレ検出、ロボットの姿勢補正、曲げ加工に必要な情報を演算することにより、決定する。   The information calculation means 30B is information necessary for detecting the positional deviation of the workpiece such as the bending order, correcting the posture of the robot, and bending work based on the CAD information input from the host NC device 29 via the input / output means 30K described later. Is determined by calculating.

この情報演算手段30Bで演算し決定される情報には、曲げ順の他に、使用する金型(パンチPとダイD)、どの金型を上部テーブル13と下部テーブル14のどの位置に配置するかといった金型レイアウト(金型ステーション)、曲げロボット11と搬入出ロボット3の動作加工プログラムなども含まれる。   The information calculated and determined by the information calculating means 30B includes, in addition to the bending order, the mold to be used (punch P and die D) and which mold is disposed at which position of the upper table 13 and the lower table 14. A mold layout (mold station), an operation machining program for the bending robot 11 and the loading / unloading robot 3 are also included.

これにより、例えば、ワーク画像検出手段30Dが検出した検出画像DWと、ワーク基準画像算出・格納手段30Eが算出した基準画像RWとの差に基づいて、ズレ量算出手段30Fが所定のズレ量ΔX、ΔY、Δθを算出し(図10のステップ103)、このズレ量ΔX、ΔY、Δθに基づいて、姿勢の補正を行うのは、搬入出ロボット3か曲げロボット11かが判断される(図10のステップ104)。   Thereby, for example, based on the difference between the detected image DW detected by the workpiece image detecting unit 30D and the reference image RW calculated by the workpiece reference image calculating / storing unit 30E, the deviation amount calculating unit 30F has a predetermined deviation amount ΔX. , ΔY, Δθ are calculated (step 103 in FIG. 10), and it is determined based on the deviation amounts ΔX, ΔY, Δθ whether the carry-in / out robot 3 or the bending robot 11 performs the posture correction (FIG. 10). 10 step 104).

そして、後述するように、搬入出ロボット3によるワーク受け渡し位置の補正→ワークの受け渡し(図10のステップ104の下矢、ステップ105〜106)、又は曲げロボット11によるワーク受け取り位置の補正→ワークの受け取り(図10のステップ104の右矢、ステップ110〜111)のいずれかの動作が行われた後、曲げロボット11がワークの適正位置hを把持した状態で(図10
のステップ107)、該ワークを所定の金型ステーションへ供給して位置決めし(図10のステップ108)、曲げ加工が行われる(図10のステップ109)。
Then, as will be described later, correction of the workpiece delivery position by the loading / unloading robot 3 → workpiece delivery (down arrow in step 104 in FIG. 10, steps 105 to 106), or correction of the workpiece reception position by the bending robot 11 → receiving (RIGHT step 104 in FIG. 10, step 110-111) after either operation is performed, in a state where the bending robot 11 grips the proper position h D of the workpiece (Fig. 10
Step 107), the workpiece is supplied to a predetermined mold station and positioned (Step 108 in FIG. 10), and bending is performed (Step 109 in FIG. 10).

撮像制御手段30Cは、前記情報演算手段30Bで決定された曲げ順、ワークのコーナ部Kの位置などに基づいて、既述したワーク撮像手段2を構成する光源2B(図4)の移動制御を行うと共に、CCDカメラ2Aの撮像範囲Sの制御など撮像動作を制御する。   The imaging control means 30C controls the movement of the light source 2B (FIG. 4) constituting the workpiece imaging means 2 described above based on the bending order determined by the information calculation means 30B, the position of the corner portion K of the workpiece, and the like. In addition, the imaging operation such as the control of the imaging range S of the CCD camera 2A is controlled.

ワーク画像検出手段30Dは(図1)、既述したように、前記ワーク撮像手段2から送られて来た一次元の電気信号から成るワークのコーナ部Kの画像Kを、二次元の電気信号に変換する。 Workpiece image detecting means 30D is (Fig. 1), as described above, the image K D of the corner part K of the workpiece consisting of the workpiece pickup means one-dimensional electrical signal sent from 2, the two-dimensional electrophoresis Convert to signal.

これにより、後述するように(図5、図6)、上記コーナ部Kの画像K、即ち検出コーナ部Kを含む検出画像DWが得られ、該検出コーナ部Kは、基準コーナ部Kとの比較対象となる。 Thus, as will be described later (FIG. 5, FIG. 6), the image K D of the corner portion K, i.e. obtained detected image DW comprising detecting corners K D, the detecting corners the K D, the reference corner It is compared to the K R.

ワーク基準画像算出・格納手段30Eは(図1)、前記情報演算手段30Bで決定された曲げ順、ワークのコーナ部Kの位置などに基づいて、基準コーナ部Kを含む基準画像RWを算出する(図5、図6)。又は、ワーク基準画像算出・格納手段30Eは、正規位置に置かれたワーク(位置ズレが生じていない状態のワーク)を前記CCDカメラ2Aで撮像し、該撮像したワーク画像を基準画像RWとして、例えばメモリに格納しておく。 Work reference image calculating and storing unit 30E (FIG. 1), the information calculating means 30B is determined by the bending sequence, based on such position of the corner part K of the workpiece, calculates a reference image RW including the reference corner K R (FIGS. 5 and 6). Alternatively, the workpiece reference image calculation / storage means 30E captures a workpiece placed at a normal position (a workpiece in which no positional deviation has occurred) with the CCD camera 2A, and uses the captured workpiece image as a reference image RW. For example, it is stored in a memory.

ズレ量算出手段30Fは(図1)、前記検出画像DWと基準画像RWを入力し、両者の差から、所定のズレ量ΔX、ΔY、Δθを算出する。   The deviation amount calculation means 30F (FIG. 1) inputs the detected image DW and the reference image RW, and calculates predetermined deviation amounts ΔX, ΔY, Δθ from the difference therebetween.

この場合の画像処理の原理としては、例えば、図5(A)に示すように、前記基準コーナ部Kを含み所定の大きさ・方向を有する窓枠Mを設定し、この窓枠M内のデータを取り込む。 The principle of the image processing in this case, for example, as shown in FIG. 5 (A), to set the window frame M R of a predetermined magnitude and direction includes the reference corner K R, the window frame M Capture data in R.

また、一方では、前記検出コーナ部Kを含む同様の窓枠Mを設定し(図5(B))、この窓枠M内のデータを取り込み、両窓枠M、M内のデータが一致する場合のズレ量ΔX、ΔY、Δθを求める。 Further, on the one hand, it sets the same window frame M D including the detecting corner K D (FIG. 5 (B)), takes in the data in the window frame M D, Ryomadowaku M D, the M R The deviation amounts ΔX, ΔY, Δθ when the two data coincide with each other are obtained.

具体的には、本発明においては、曲げロボット11が(図1)、ワークの適正位置hを(図6)把持した状態で曲げ加工を行うことから、現実の画像処理の際には、搬入出ロボット3による実際の把持位置Hと、本来の把持位置Hとのズレ量ΔX、ΔY、Δθを求めることになる。例えば、搬入出ロボット3がその吸着パッド3A(図1)により素材Tとしてのワークを上記実際の把持位置Hで(図6)把持したが、そのとき位置ズレが生じているのでワーク(検出画像DW)の中心ではなく、図示するように、該ワークの端部を掴んでいることになるので、本来の把持位置Hで把持しワーク(検出画像DW)の中心を掴むように、両者のズレ量ΔX、ΔY、Δθを求める。尚、図6において、HとHは、搬入出ロボット3(図1)が有するような吸着パッド3Aの実際の把持位置と本来の把持位置を示し、hとhは、曲げロボット11が(図1)有するようなグリップ17の実際の把持位置と本来の把持位置を示すものとする。 Specifically, in the present invention, the bending robot 11 (FIG. 1), the proper position h D of the workpiece from doing bending (Figure 6) gripped state, during the actual image processing, the actual and holding position H R by loading and unloading robot 3, shift amount ΔX of the original holding position H D, [Delta] Y, thereby obtaining the [Delta] [theta]. For example, although unloading robot 3 the workpiece as the material T was the actual in the gripping position H R (6) gripped by the suction pads 3A (FIG. 1), the workpiece (detected since that time misalignment occurs rather than the center of the image DW), as shown, it means that grips the end of the workpiece, held by the original holding position H D to grip the center of the workpiece (detected image DW), both Deviation amounts ΔX, ΔY, Δθ are obtained. Note that in FIG. 6, H R and H D is carried out robot 3 shows the actual gripping position and the original grip position of the suction pads 3A as (Figure 1) has, h R and h D is the bending robot 11 shows the actual gripping position and the original gripping position of the grip 17 as shown in FIG.

即ち、図6において、右上のように各成分の符号を設定し、CCDカメラ2Aで撮像しワーク画像検出手段30Dで検出された検出コーナ部Kと、ワーク基準画像算出手段30Eで算出された基準コーナ部Kとの差のX軸方向成分、Y軸方向成分、角度方向成分をそれぞれ次のように表すものとする。 That is, in FIG. 6, to set the code of each component as the upper right, and detecting the corner section K D detected by the workpiece image detection means 30D and imaged with a CCD camera 2A, calculated by the work reference image calculating means 30E X-axis direction component of the difference between the reference corner K R, Y-axis direction component, the angle direction component respectively shall be expressed as follows.

PICX、PICY、PICθ・・・・(1) PIC - X, PIC - Y, PIC - θ (1)

また、検出画像DW上において、その検出コーナ部Kとワークの本来の把持位置Hとの差のX軸方向成分、X軸方向成分をそれぞれ次のように表すものとする。 Further, on the detected image DW, to X-axis direction component of the difference between the original holding position H D of the detection corners K D and the workpiece, the X-axis direction component shall respectively expressed as follows.

TCPX、TCPY・・・・(2) TCP - X, TCP - Y (2)

更に、検出画像DWを、本来の把持位置Hを中心として時計方向にθだけ旋回させれば、角度方向のズレを補正した検出画像DW′が得られ、該検出画像DW′は基準画像RWと平行になる。 Further, the detected image DW, if caused to pivot by θ in the clockwise direction about the original holding position H D, the detected image DW obtained by correcting the deviation of the angular direction 'is obtained, the detection image DW' is the reference image RW Becomes parallel.

そして、元の検出画像DWのコーナ部Kと、旋回後の検出画像DW′のコーナ部eとの差のX軸方向成分X(θ)、Y軸方向成分Y(θ)を、前記(1)、(2)の各成分を用いて表せば、次のようになる。 Then, a corner K D of the original detected image DW, the X-axis direction component X of the difference between the corner portion e of the detected image DW after turning '(theta), Y-axis direction component Y (theta), the ( It can be expressed as follows using the components 1) and (2).

X(θ)={TCPX*COS(−PICθ)−TCPY*SIN(−PICθ)}−TCPX・・・・(3)
Y(θ)={TCPX*SIN(−PICθ)+TCPY*COS(−PICθ)}−TCPY・・・・(4)
X (θ) = {TCP X * COS (−PIC θ) −TCP Y * SIN (−PIC θ)} − TCP X (3)
Y (θ) = {TCP X * SIN (−PIC θ) + TCP Y * COS (−PIC θ)} − TCP Y (4)

この場合、図6を拡大した図7において、元の検出画像DWと、これを時計方向にθ(−θ(CCDカメラ2Aを介して検出した角度方向のズレ量で表せば、−PICθ))だけ旋回した検出画像DW′との関係を考慮して補足した直角三角形Kac、aObに着眼すれば、上記(3)のX(θ)と、(4)のY(θ)は、
X(θ)=(ac−ab)−de・・・・(5)
Y(θ)=(cK+bO)−ef・・(6)
と表せる。
In this case, in FIG. 7 which is an enlarged view of FIG. 6, the original detected image DW and this is represented by θ (−θ (−PIC θ if expressed in the amount of deviation in the angular direction detected via the CCD camera 2A) in the clockwise direction. )), The X (θ) in (3) above and Y (θ in (4) above are taken into consideration when supplementing the right-angled triangles K D ac and aO D b taking into account the relationship with the detected image DW ′ swirled only by )
X (θ) = (ac−ab) −de (5)
Y (θ) = (cK D + bO D) -ef ·· (6)
It can be expressed.

(5)のaは、元の検出画像DWと線分Eとの交点であって直角三角形Kacを構成し、bは、該直角三角形Kacの辺Aと線分Bとの交点、cは、該直角三角形Kacの直角をなす辺AとCとの交点、dは、旋回後の検出画像DW′と線分Bとの交点、eは、前記したように旋回後の検出画像DW′のコーナ部である。 A (5) is a point of intersection of the original detected image DW and the line segment E constitute a right triangle K D ac, b is the intersection of the sides A and line B of the right-angled triangle K D ac , c is the intersection between the sides a and C at right angles of the right-angled triangle K D ac, d is detected intersection of the image DW 'and the line B after turning, e is, after turning as described above This is a corner portion of the detected image DW ′.

また、図から明らかなように、ac=TCPX*COS(−PICθ)、ab=TCPY*SIN(−PICθ)、de=TCPXであるから、これらを(5)に代入すれば、既述した(3)が得られる。 As is apparent from the figure, since ac = TCP X * COS (−PIC θ), ab = TCP Y * SIN (−PIC θ), and de = TCP X, these are expressed as (5 (3) described above can be obtained.

一方、(6)のOは、本来の把持位置Hの中心、fは、線分Fと旋回後の検出画像DW′との交点、また、既述したように、Kは、元の検出画像DWのコーナ部、bは、直角三角形Kacの辺Aと線分Bとの交点であると共に、直角三角形aObを構成し、cは、直角三角形Kacの直角をなす辺AとCとの交点、eは、旋回後の検出画像DW′のコーナ部である。 Meanwhile, the O D (6), the center of the original holding position H D, f is the intersection between the detected image DW 'after turning the line segment F, also as already described, K D is the original corners of the detected image DW, b, together with an intersection of the sides a and line B of the right-angled triangle K D ac, constitute a right triangle aO-D b, c is a right of a right triangle K D ac An intersection point e between sides A and C, which is formed, is a corner portion of the detection image DW ′ after turning.

また、図から明らかなように、cK=TCPX*SIN(−PICθ)、bO=TCPY*COS(−PICθ)、ef=TCPYであるから、これらを(6)に代入すれば、既述した(4)が得られる。 Moreover, as is clear from FIG, cK D = TCP - X * SIN (-PIC - θ), bO D = TCP - Y * COS (-PIC - θ), ef = TCP - since it is Y, these Substituting into (6), the above-described (4) is obtained.

次に、図6において、旋回後の検出画像DW′と、基準画像RWとの差は、それぞれのコーナ部eと、Kとの差に等しく、当該差のX軸方向成分、Y軸方向成分は、図から明らかなように、PICX+X(θ)、PICY+Y(θ)であり、これらの成分は、実際の把持位置Hと、本来の把持位置Hとのズレ量のX軸方向成分ΔX′、Y軸方向成分ΔY′でもあるから、
ΔX′=PICX+X(θ)・・・・(7)
ΔY′=PICY+Y(θ)・・・・(8)
となる。
Next, in FIG. 6, the detected image DW 'after turning, the difference between the reference image RW, each a corner portion e, equal to the difference between K R, X-axis direction component of the difference, Y-axis direction component, as is clear from FIG, PIC - X + X (θ ), PIC - a Y + Y (θ), these components are the actual gripping position H R, the shift amount of the original holding position H D Since it is also an X-axis direction component ΔX ′ and a Y-axis direction component ΔY ′,
ΔX ′ = PIC X + X (θ) (7)
ΔY ′ = PIC Y + Y (θ) (8)
It becomes.

上記(7)、(8)は、基準画像RW、旋回後の検出画像DW′上の位置を定める絶対座標系での表し方であるから、これらを元の検出画像DW上の位置を定める材料座標系での表し方に変換すれば、
ΔX=ΔX′*COS(PICθ)−ΔY′*SIN(PICθ)・・・(9)
ΔY=ΔX′*SIN(PICθ)+ΔY′*COS(PICθ)・・・(10)
Δθ=PICθ・・・・(11)
となる。
Since the above (7) and (8) are representations in the absolute coordinate system that determines the position on the reference image RW and the detected image DW ′ after turning, these are the materials that determine the position on the original detected image DW. If converted to a representation in the coordinate system,
ΔX = ΔX ′ * COS (PIC θ) −ΔY ′ * SIN (PIC θ) (9)
ΔY = ΔX ′ * SIN (PIC θ) + ΔY ′ * COS (PIC θ) (10)
Δθ = PIC θ (11)
It becomes.

この場合、図6を拡大した図7において、基準画像RWに平行な検出画像DW′と、これを反時計方向にθ(+θ(CCDカメラ2Aを介して検出した角度方向のズレ量で表せば、PICθ))だけ旋回した元の検出画像DWとの関係を考慮して補足した直角三角形mOh、mOkに着眼すれば、上記(9)のΔXと、(10)のΔYは、
ΔX=hO−hg・・・・(12)
ΔY=gk+kO・・・・(13)
と表せる。
In this case, in FIG. 7, which is an enlarged view of FIG. 6, if the detected image DW ′ parallel to the reference image RW is represented by θ (+ θ (angle deviation detected through the CCD camera 2A) in the counterclockwise direction. , PIC - theta)) by turning the original detected image DW right triangle supplemented by considering the relationship between mO R h, when focusing on mO D k, and ΔX above (9), [Delta] Y (10) Is
ΔX = hO R −hg (12)
ΔY = gk + kO D (13)
It can be expressed.

(12)のgは、直角三角形mOhの辺Gと線分Eとの交点、hは、該直角三角形mOhの直角をなす辺GとJとの交点、Oは、既述したように、実際の把持位置Hの中心である。 G of (12), the side G and the intersection of the line segment E of a right triangle mO R h, h is the intersection of the side G and J at right angles of the right-angled triangle mO R h, O R is above as was a center of the actual gripping position H R.

また、図から明らかなように、hO=ΔX′*COS(PICθ)、hg=mk=ΔY′*SIN(PICθ)であるから、これらを(12)に代入すれば、既述した(9)が得られる。 Further, as is apparent from the figure, hO R = ΔX ′ * COS (PIC θ) and hg = mk = ΔY ′ * SIN (PIC θ), so if these are substituted into (12), (9) described above is obtained.

一方、(13)のkは、前記直角三角形mOhの斜辺Hと線分Bとの交点であるmから線分Eに引いた垂線Lと、該線分Eとの交点であって直角三角形mOkを構成し、g、Oは、既述したように、それぞれ直角三角形mOhの辺Gと線分Eとの交点、本来の把持位置Hの中心である。 On the other hand, a point of intersection of k, and the perpendicular L drawn to the line segment E from the an intersection of the hypotenuse H and the segment B of the right-angled triangle mO R h m, a line segment E (13) at right angles constitute a triangle mO D k, g, O D, as described above, edges G and the intersection of the line segment E of each right-angled triangle mO R h, is the center of the original holding position H D.

また、図から明らかなように、gk=hm=ΔX′*SIN(PICθ)、kO=ΔY′*COS(PICθ)であるから、これらを(13)に代入すれば、既述した(10)が得られる。 Moreover, as is clear from FIG, gk = hm = ΔX '* SIN (PIC - θ), kO D = ΔY' * COS - because it is (PIC theta), by substituting them into (13), already The aforementioned (10) is obtained.

更に、図6においては、絶対座標系から材料座標系への座標変換に際しては、前記したように、基準画像RWに平行な検出画像DW′を反時計方向にθだけ旋回させることから、Δθを、CCDカメラ2Aを介して検出した角度方向のズレ量で表せば、PICθとなり、既述した(11)が得られる。 Further, in FIG. 6, when the coordinate conversion from the absolute coordinate system to the material coordinate system is performed, as described above, the detection image DW ′ parallel to the reference image RW is turned counterclockwise by θ, and thus Δθ is set. , It can be expressed by the amount of deviation in the angular direction detected through the CCD camera 2A, so that PIC θ is obtained, and the above-described (11) is obtained.

このような、図6の具体例を、図5の原理と対照させると、図8に示すように、基準コーナ部Kを含み実際の把持位置Hの中心Oを通る窓枠Mと、検出コーナ部Kを含み本来の把持位置Hの中心Oを通る窓枠Mをそれぞれ設定し、この窓枠M、M内のデータが一致するようなズレ量ΔX、ΔY、Δθを、材料座標系に変換して求めたことになる。 Such a specific example of FIG. 6, when the contrasted with the principle of FIG. 5, as shown in FIG. 8, the reference corner K actual gripping position comprises R H R center O window frame through R M R of When the window frame M D passing through the center O D of the original holding position H D comprises detection corners K D respectively set, the window frame M R, the deviation amount ΔX as data in M D match, This is obtained by converting ΔY and Δθ into the material coordinate system.

ロボット制御手段30Gは(図1)、前記(9)〜(11)で表せるズレ量に基づいて検出画像DWと基準画像RWが一致するようにロボットの姿勢を補正制御してワークを位置決めし適正位置を把持させる。   The robot control means 30G corrects the posture of the robot so that the detected image DW and the reference image RW coincide with each other based on the amount of deviation represented by (9) to (11) (FIG. 1), and positions the workpiece appropriately. Hold the position.

この場合、図1に示すような搬入出ロボット3と曲げロボット11を有する曲げ加工システムにおいては、ロボット制御手段30Gは、双方のロボット3、11を制御する。   In this case, in the bending system having the carry-in / out robot 3 and the bending robot 11 as shown in FIG. 1, the robot control means 30 </ b> G controls both the robots 3 and 11.

例えば、ロボット制御手段30Gは、搬入出ロボット3に素材台1上のワークを吸着させ(図10のステップ101)、前記したCCDカメラ2Aで該ワークのコーナ部Kを撮像して検出画像DWとして取り込んで基準画像RWと比較して所定のズレ量ΔX、ΔY、Δθが算出された後(図10のステップ102、103)、このズレ量ΔX、ΔY、Δθに基づいて、姿勢の補正を行うのは、搬入出ロボット3か曲げロボット11かを判断する(図10のステップ104)。   For example, the robot control means 30G attracts the work on the material table 1 to the carry-in / out robot 3 (step 101 in FIG. 10), and images the corner portion K of the work with the CCD camera 2A as the detection image DW. After taking in and comparing with the reference image RW and calculating the predetermined shift amounts ΔX, ΔY, Δθ (steps 102, 103 in FIG. 10), the posture is corrected based on the shift amounts ΔX, ΔY, Δθ. It is determined whether the robot 3 is a loading / unloading robot 3 or a bending robot 11 (step 104 in FIG. 10).

そして、ロボット制御手段30Gは、搬入出ロボット3が姿勢の補正を行うと判断した場合には(図10のステップ104の下矢)、搬入出ロボット3が曲げロボット11へのワーク受け渡し位置の補正を行うように制御する(図10のステップ105)。   When the robot controller 30G determines that the loading / unloading robot 3 corrects the posture (down arrow in step 104 in FIG. 10), the loading / unloading robot 3 corrects the workpiece transfer position to the bending robot 11. (Step 105 in FIG. 10).

即ち、ロボット制御手段30Gが、前記(9)〜(11)のズレ量ΔX、ΔY、Δθに基づいて補正駆動信号S、S・・・を搬入出ロボット3に送信すると、該搬入出ロボット3が、その吸着したワークを実際の把持位置Hから本来の把持位置Hで把持するように姿勢を補正することにより、ワーク受け渡し位置の補正を行う(図10のステップ105)。 That is, when the robot control unit 30G transmits the correction drive signals S a , S b ... To the loading / unloading robot 3 based on the deviation amounts ΔX, ΔY, Δθ of (9) to (11), the loading / unloading is performed. robot 3, by correcting the posture to grasp at the original holding position H D the adsorbed workpiece from the actual gripping position H R, the correction of the workpiece handover position (step 105 in FIG. 10).

換言すれば、搬入出ロボット3が、自らが把持しているワークの実際の把持位置Hが(図6)本来の把持位置Hと一致するように、姿勢を補正し(図10のステップ105)、その姿勢のまま曲げロボット11へワークを受け渡す(図10のステップ106)。 In other words, the loading and unloading robot 3, as the actual gripping position H R of the workpiece itself is holding consistent with (FIG. 6) the original holding position H D, steps of correcting the posture (FIG. 10 105) The workpiece is delivered to the bending robot 11 with the posture (step 106 in FIG. 10).

また、ロボット制御手段30Gは、曲げロボット11が姿勢の補正を行うと判断した場合には(図10のステップ104の右矢)、曲げロボット11が搬入出ロボット3からのワーク受け取り位置の補正を行うように制御する(図10のステップ110)。   When the robot control unit 30G determines that the bending robot 11 corrects the posture (right arrow in step 104 in FIG. 10), the bending robot 11 corrects the workpiece receiving position from the loading / unloading robot 3. Control is performed (step 110 in FIG. 10).

即ち、ロボット制御手段30Gが、前記(9)〜(11)のズレ量ΔX、ΔY、Δθに基づいて補正駆動信号S、S・・・を曲げロボット11に送信すると、該曲げロボット11が、搬入出ロボット3が把持しているワークを本来の把持位置hで受け取るように姿勢を補正することにより、ワーク受け取り位置の補正を行う(図10のステップ110)。 That is, when the robot control means 30G transmits the correction drive signals S a , S b ... To the bending robot 11 based on the deviation amounts ΔX, ΔY, Δθ of (9) to (11), the bending robot 11 but by correcting the posture to receive work loading and unloading robot 3 is gripped at the original holding position h D, corrects the workpiece receiving position (step 110 in FIG. 10).

換言すれば、曲げロボット11が、ワークを把持したと仮定した場合に、そのときのワークの実際の把持位置hが(図6)本来の把持位置hと一致するように、姿勢を補正し(図10のステップ110)、その姿勢のまま搬入出ロボット3からワークを受け取る(図10のステップ111)。 In other words, the bending robot 11, if it is assumed that grips the workpiece, so that the actual gripping position h R of the workpiece at that time coincides with (FIG. 6) the original grip position h D, corrects the posture (Step 110 in FIG. 10), and the workpiece is received from the carry-in / out robot 3 in the posture (Step 111 in FIG. 10).

その後は、いずれの場合でも(図10のステップ105〜106、又はステップ110〜111)、曲げロボット11がワークの適正位置を把持するので(図10のステップ107)、ロボット制御手段30Gが再度曲げロボット11を駆動制御すれば、該曲げロボット11は、適正位置を把持したワークを曲げ加工装置10へ供給・位置決めし(図10のステップ108)、曲げ制御手段30H(図1)の制御の下に、曲げ加工が行われる(図10のステップ109)。   Thereafter, in either case (steps 105 to 106 in FIG. 10 or steps 110 to 111), the bending robot 11 holds the appropriate position of the workpiece (step 107 in FIG. 10), so that the robot control means 30G re-bends. If the robot 11 is driven and controlled, the bending robot 11 supplies and positions the workpiece holding the appropriate position to the bending apparatus 10 (step 108 in FIG. 10), and is controlled under the control of the bending control means 30H (FIG. 1). Next, bending is performed (step 109 in FIG. 10).

曲げ制御手段30Hは(図1)、前記情報演算手段30Bで決定された曲げ順などに基づいて、曲げ加工装置10であるプレスブレーキを制御し、前記曲げロボット11により適正位置が把持されたワークに対して、パンチPとダイDにより曲げ加工を施す(図10のステップ109)。   The bending control means 30H (FIG. 1) controls the press brake, which is the bending apparatus 10, based on the bending order determined by the information calculation means 30B, and the workpiece whose proper position is gripped by the bending robot 11. Then, bending is performed by the punch P and the die D (step 109 in FIG. 10).

搬送制御手段30Jは(図1)、素材台1、中間台8、製品積載台12の搬送制御、例えば製品積載台12を構成するベルトコンベアを駆動制御する。   The conveyance control means 30J (FIG. 1) controls the conveyance of the material table 1, the intermediate table 8, and the product loading table 12, for example, drives and controls the belt conveyor constituting the product loading table 12.

入出力手段30K(操作ボックス)は、例えばプレスブレーキを(図2)構成する上部テーブル13の近傍に設けられ、キーボードや液晶などの画面から成る。   The input / output means 30K (operation box) is provided, for example, in the vicinity of the upper table 13 constituting a press brake (FIG. 2), and is composed of a screen such as a keyboard and a liquid crystal.

この入出力手段30Kは、既述した上位NC装置29(図1)対するインターフェース機能を有し、これにより、下位NC装置30を有線又は無線で上位NC装置29に接続することにより、前記CAD情報を入力することができる。   This input / output means 30K has an interface function to the above-described upper NC apparatus 29 (FIG. 1), and by connecting the lower NC apparatus 30 to the upper NC apparatus 29 by wire or wirelessly, the CAD information Can be entered.

前記した構成を有する曲げ加工システムの制御装置のデータの流れが、図9に示され、同図は、既述した搬入出ロボット3(ローディングロボット)が姿勢を補正する場合の例である(図10のステップ104の下矢、ステップ105〜106)。   The flow of data of the control device of the bending system having the above-described configuration is shown in FIG. 9, which is an example in the case where the loading / unloading robot 3 (loading robot) described above corrects the posture (FIG. 9). 10 step 104 down arrow, steps 105-106).

即ち、図9における(2)の画像センサコントロール(図1の撮像制御手段30Cと、ワーク画像検出手段30Dと、ワーク基準画像算出手段30Eと、ズレ量算出手段30Fに対応)から画像センサ(図1のワーク撮像手段2に対応)に対して画像データ要求が出されると、画像センサは、(1)のワーク一枚取り装置(図1の素材台1に対応)上のワークの前記コーナ部Kを(図1)撮像してそれを画像データ(図6の検出コーナ部Kに対応)として画像センサコントロールに送信し、既述したズレ量ΔX、ΔY、Δθが(図6)算出される。 That is, from the image sensor control (2) in FIG. 9 (corresponding to the imaging control means 30C, work image detection means 30D, work reference image calculation means 30E, and deviation amount calculation means 30F in FIG. 1) to the image sensor (FIG. When the image data request is issued to the workpiece image pickup means 2 (corresponding to the workpiece imaging means 2 of 1), the image sensor is configured to select the corner portion of the workpiece on the workpiece picking device (corresponding to the material stand 1 of FIG. 1). sends K (FIG. 1) captured by it the image data (corresponding to the detected corner portion K D of FIG. 6) to the image sensor control, already described displaced amount [Delta] X, [Delta] Y, the [Delta] [theta] (FIG. 6) is calculated The

また、このとき送信された画像データは、図9に示すように、モニタ(図1のズレ量算出手段30Fに内蔵)に転送され、目標値(図6の基準コーナ部Kに対応)との一致・不一致が常に監視される。 The image data transmitted at this time, as shown in FIG. 9, is transferred to the monitor (built in the deviation amount calculating means 30F in FIG. 1), the target value (corresponding to the reference corner K R of FIG. 6) A match / mismatch is always monitored.

この状態で、図9における(4)のローディングロボット制御装置(図1のロボット制御手段30Gに内蔵)から(3)のシーケンサ(図1のロボット制御手段30Gに内蔵)に対して、姿勢補正データ要求が出されると、シーケンサが前記画像センサコントロールにズレ量データ要求を出して該ズレ量データを転送してもらい、それを姿勢補正データに換算してローディングロボット制御装置に送信すれば、ローディングロボット制御装置は、姿勢補正された動作指令出力(図1の補正駆動信号S、S・・・に対応)をローディングロボット(図1の搬入出ロボット3に対応)に送信する。 In this state, the posture correction data is transferred from the loading robot controller (4) in FIG. 9 (built in the robot controller 30G in FIG. 1) to the sequencer (3) in the robot controller 30G in FIG. When a request is issued, if the sequencer issues a displacement amount data request to the image sensor control to transfer the displacement amount data, converts it into posture correction data, and transmits it to the loading robot controller, the loading robot The control device transmits the operation command output (corresponding to the correction drive signals S a , S b ... In FIG. 1) whose posture has been corrected to the loading robot (corresponding to the loading / unloading robot 3 in FIG. 1).

以下、前記構成を有する本発明の第1実施形態(図1に示す曲げロボット11と搬入出ロボット3を有する曲げ加工システム)の動作を図10に基づいて説明する。尚、以下の図10、図11においては、CCDカメラ2Aによる撮像対象は、ワークのコーナ部Kとし、また、基準画像RWは、正規位置でのワークをCCDカメラ2Aで撮像し、その画像を、基準画像RWとしてワーク基準画像算出・格納手段30Eに格納したものを使用する。   The operation of the first embodiment of the present invention having the above-described configuration (bending system having the bending robot 11 and the carry-in / out robot 3 shown in FIG. 1) will be described below with reference to FIG. In FIGS. 10 and 11 below, the object to be imaged by the CCD camera 2A is the corner K of the workpiece, and the reference image RW is an image of the workpiece at the normal position captured by the CCD camera 2A. The reference image RW stored in the workpiece reference image calculation / storage means 30E is used.

(1)所定のズレ量ΔX、ΔY、Δθを算出するまでの動作。 (1) Operations until calculating the predetermined deviation amounts ΔX, ΔY, Δθ.

図10のステップ101において、搬入出ロボット3が素材台1上のワークを吸着し、ステップ102において、吸着されたワークのコーナ部KをCCDカメラ2Aで撮像し、これを検出画像DWとして取り込み、ステップ103において、検出画像DW中の検出コーナ部Kと、基準画像RW中の基準コーナ部Kの差に基づいて、所定のズレ量ΔX、ΔY、Δθを算出する。 In step 101 of FIG. 10, the loading / unloading robot 3 sucks the workpiece on the material table 1, and in step 102, the corner portion K of the sucked workpiece is imaged by the CCD camera 2A, and this is captured as a detection image DW. in step 103, it calculates a detection corners K D in the detected image DW, based on the difference between the reference corner K R of the reference image RW, the predetermined deviation amount [Delta] X, [Delta] Y, the [Delta] [theta].

即ち、CPU30Aが(図1)、ロボット制御手段30Gを介して、搬入出ロボット3に(図4)素材台1上の素材Tとしてのワークを吸着させ、そのワークをCCDカメラ2Aの上方の所定位置まで移動させ、撮像制御手段30Cを介して、CCDカメラ2Aによりワークのコーナ部Kを撮像させ、該撮像したコーナ部Kをワーク画像検出手段30Dに画像として検出させ、更に、ズレ量算出手段30Fを介して、検出コーナ部Kと、ワーク基準画像算出・格納手段30Eに格納された基準コーナ部Kとの差PICX、PICY、PICθ(既述した(1))に基づいて、最終的には、前記(9)〜(11)で表せるズレ量ΔX、ΔY、Δθを算出させる。 That is, the CPU 30A (FIG. 1) causes the loading / unloading robot 3 (FIG. 4) to pick up the workpiece as the material T on the material table 1 via the robot control means 30G, and the workpiece is placed above the CCD camera 2A. The workpiece corner portion K is imaged by the CCD camera 2A via the imaging control means 30C, the imaged corner portion K is detected as an image by the workpiece image detection means 30D, and the deviation amount calculation means through 30F, the detection corners K D, the difference between the reference corner K R stored in the work reference image calculating and storing unit 30E PIC - X, PIC - Y , PIC - θ ( previously described (1) ), Finally, the shift amounts ΔX, ΔY, Δθ that can be expressed by the above (9) to (11) are calculated.

(2)ロボットの姿勢補正動作。 (2) Robot posture correction operation.

図10のステップ104において、姿勢の補正を行うのは、搬入出ロボット3か曲げロボット11かを判断し、搬入出ロボット3が姿勢補正を行う場合には(ステップ104の下矢)、ステップ105において、搬入出ロボット3が曲げロボット11へのワーク受け渡し位置の補正を行い、ステップ106において、搬入出ロボット3が補正後の姿勢のまま曲げロボット11へワークを受け渡し、曲げロボット11が姿勢補正を行う場合には(ステップ104の右矢)、ステップ110において、曲げロボット11が搬入出ロボット3からのワーク受け取り位置の補正を行い、ステップ111において、曲げロボット11が補正後の姿勢のまま搬入出ロボット3からワークをワーク受け取る。   In step 104 of FIG. 10, it is determined whether the posture correction is performed by the loading / unloading robot 3 or the bending robot 11. When the loading / unloading robot 3 performs posture correction (down arrow in step 104), step 105 is performed. Then, the loading / unloading robot 3 corrects the workpiece delivery position to the bending robot 11, and in step 106, the loading / unloading robot 3 delivers the workpiece to the bending robot 11 with the corrected posture, and the bending robot 11 corrects the posture. When performing (right arrow of step 104), in step 110, the bending robot 11 corrects the work receiving position from the loading / unloading robot 3, and in step 111, the bending robot 11 carries in / out with the corrected posture. A workpiece is received from the robot 3.

即ち、CPU30Aは(図1)、前記図10のステップ103でズレ量ΔX、ΔY、Δθが(図6)算出されると、ロボット制御手段30Gに指示を出し、姿勢の補正を行うのは、搬入出ロボット3か曲げロボット11かを判断させる。   That is, the CPU 30A (FIG. 1), when the deviation amounts ΔX, ΔY, and Δθ are calculated in FIG. 10 (FIG. 6) (FIG. 6), instructs the robot control means 30G to correct the posture. It is determined whether the loading / unloading robot 3 or the bending robot 11 is used.

そして、ロボット制御手段30Gは、搬入出ロボット3が姿勢の補正を行うと判断した場合には、前記(9)〜(11)のズレ量ΔX、ΔY、Δθに基づいて補正駆動信号S、S・・・を搬入出ロボット3に送信すると、該搬入出ロボット3が、既述したように、自らが把持しているワークの実際の把持位置Hが(図6)本来の把持位置Hと一致するように、姿勢を補正するので、その姿勢のまま曲げロボット11へワークを受け渡す。 When the robot controller 30G determines that the carry-in / out robot 3 corrects the posture, the correction drive signal S a , based on the deviation amounts ΔX, ΔY, Δθ of (9) to (11). When sent to the robot 3 are carried into and out S b · · ·,該搬and out robot 3, as described above, the actual gripping position H R of the workpiece itself is holding (FIG. 6) the original grip position to match the H D, because to correct the posture and passes the workpiece to remain bending robot 11 of this posture.

また、ロボット制御手段30Gは、曲げロボット11が姿勢の補正を行うと判断した場合には、前記(9)〜(11)のズレ量ΔX、ΔY、Δθに基づいて補正駆動信号S、S・・・を曲げロボット11に送信すると、該曲げロボット11が、既述したように、ワークを把持したと仮定した場合に、そのときのワークの実際の把持位置hが(図6)本来の把持位置hと一致するように、姿勢を補正するので、その姿勢のまま搬入出ロボット3からワークを受け取る。 In addition, when the robot control unit 30G determines that the bending robot 11 corrects the posture, the correction drive signals S a and S based on the deviation amounts ΔX, ΔY, and Δθ of (9) to (11). sending b · · · bending robot 11, the bending robot 11, as already described, if it is assumed that grips the workpiece, the actual gripping position h R of the workpiece at that time (Fig. 6) to match the original grip position h D, because to correct the attitude, receiving the workpiece from the robot 3 loading and unloading remain in that position.

(3)曲げ加工動作。 (3) Bending operation.

上記したように、姿勢の補正を行ったのが搬入出ロボット3であれ、曲げロボット11であれ、いずれの場合でも(図10のステップ105〜106、又はステップ110〜111)、ワークの位置決めが行われ、曲げロボット11は、該ワークの適正位置を把持するので(図10のステップ107)、ロボット制御手段30Gが再度曲げロボット11を駆動制御すれば、既述したように、曲げロボット11は、適正位置を把持したワークを曲げ加工装置10へ供給・位置決めし(図10のステップ108)、曲げ制御手段30H(図1)の制御の下に、曲げ加工が行われる(図10のステップ109)。   As described above, in any case (steps 105 to 106 in FIG. 10 or steps 110 to 111 in FIG. 10), the workpiece positioning is performed regardless of whether the posture is corrected by the loading / unloading robot 3 or the bending robot 11. Since the bending robot 11 grips the appropriate position of the workpiece (step 107 in FIG. 10), if the robot control unit 30G drives and controls the bending robot 11 again, as described above, the bending robot 11 Then, the workpiece holding the proper position is supplied to and positioned in the bending apparatus 10 (step 108 in FIG. 10), and bending is performed under the control of the bending control means 30H (FIG. 1) (step 109 in FIG. 10). ).

図11は、本発明の第2実施形態を示す図である。   FIG. 11 is a diagram showing a second embodiment of the present invention.

図11の曲げ加工システムは、中間台8にワーク撮像手段2を取り付けたものである。 The bending system shown in FIG. 11 has a workpiece imaging means 2 attached to an intermediate table 8.

即ち、曲げ加工後に、曲げロボット11(図1)を介して中間台8(図11)に置かれた製品Qとしてのワークのコーナ部Kを、CCDカメラ2Aで撮像し、同様に、それを検出画像DW(図6に相当)として基準画像RWと比較し、両者の差に基づいて、所定のズレ量ΔX、ΔY、Δθを算出し、該ズレ量ΔX、ΔY、Δθに基づいて、中間台8上の製品Qを、搬入出ロボット3が吸着して製品積載台12に積載する場合の位置を補正するものであり、特に、製品Qを製品積載台12上で崩すことなく多段に積載する場合に効果がある。   That is, after bending, the corner portion K of the workpiece as the product Q placed on the intermediate table 8 (FIG. 11) via the bending robot 11 (FIG. 1) is imaged by the CCD camera 2A, and the same is taken. The detected image DW (corresponding to FIG. 6) is compared with the reference image RW, and predetermined deviation amounts ΔX, ΔY, Δθ are calculated based on the difference between the two, and based on the deviation amounts ΔX, ΔY, Δθ, intermediate The position of the product Q on the table 8 when the loading / unloading robot 3 sucks and loads it on the product loading table 12 is corrected. In particular, the product Q is loaded in multiple stages without breaking on the product loading table 12. It is effective when you do.

上記図11に示す第2実施形態の動作を図10に即して説明すれば、次のようになる。     The operation of the second embodiment shown in FIG. 11 will be described with reference to FIG.

(1)所定のズレ量ΔX、ΔY、Δθを算出するまでの動作。 (1) Operations until calculating the predetermined deviation amounts ΔX, ΔY, Δθ.

搬入出ロボット3が中間台8上の製品Qとしてのワークを吸着し(図10のステップ101に相当)、吸着されたワークのコーナ部KをCCDカメラ2Aで撮像し、これを検出画像DWとして取り込み(ステップ102に相当)、検出画像DW中の検出コーナ部Kと、基準画像RW中の基準コーナ部Kの差に基づいて、所定のズレ量ΔX、ΔY、Δθを算出する(ステップ103に相当)。 The loading / unloading robot 3 sucks the workpiece as the product Q on the intermediate platform 8 (corresponding to step 101 in FIG. 10), and images the corner portion K of the sucked workpiece with the CCD camera 2A, which is used as the detection image DW. uptake (equivalent to step 102), calculates a detection corners K D in the detected image DW, based on the difference between the reference corner K R of the reference image RW, the predetermined deviation amount [Delta] X, [Delta] Y, the [Delta] [theta] (step 103).

即ち、CPU30Aが(図1)、ロボット制御手段30Gを介して、図11に示す搬入出ロボット3に中間台8上の製品Qとしてのワークを吸着させ、そのワークをCCDカメラ2Aの上方の所定位置まで移動させ、撮像制御手段30Cを介して、CCDカメラ2Aによりワークのコーナ部Kを撮像させ、該撮像したコーナ部Kをワーク画像検出手段30Dに画像として検出させ、更に、ズレ量算出手段30Fを介して、検出コーナ部Kと、ワーク基準画像算出・格納手段30Eに格納された基準コーナ部Kとの差PICX、PICY、PICθ(既述した(1))に基づいて、最終的には、前記(9)〜(11)で表せるズレ量ΔX、ΔY、Δθを算出させる。 That is, the CPU 30A (FIG. 1) causes the work as the product Q on the intermediate platform 8 to be attracted to the loading / unloading robot 3 shown in FIG. 11 via the robot control means 30G, and the work is placed above the CCD camera 2A. The workpiece corner portion K is imaged by the CCD camera 2A via the imaging control means 30C, the imaged corner portion K is detected as an image by the workpiece image detection means 30D, and the deviation amount calculation means through 30F, the detection corners K D, the difference between the reference corner K R stored in the work reference image calculating and storing unit 30E PIC - X, PIC - Y , PIC - θ ( previously described (1) ), Finally, the shift amounts ΔX, ΔY, Δθ that can be expressed by the above (9) to (11) are calculated.

(2)ロボットの姿勢補正動作。 (2) Robot posture correction operation.

その後は、図11の場合には、姿勢の補正を行うのは、搬入出ロボット3だけであり、従って、搬入出ロボット3が製品積載台12へのワーク積載位置の補正を行う(図10のステップ104⇒ステップ105又は110)。   Thereafter, in the case of FIG. 11, only the loading / unloading robot 3 corrects the posture, and the loading / unloading robot 3 corrects the workpiece loading position on the product loading table 12 (FIG. 10). Step 104⇒Step 105 or 110).

即ち、CPU30Aは(図1)、ズレ量ΔX、ΔY、Δθが(図6)算出されると、ロボット制御手段30Gに指示を出し、搬入出ロボット3の姿勢の補正を行わせる。   That is, when the deviation amounts ΔX, ΔY, Δθ are calculated (FIG. 6) (FIG. 1), the CPU 30A issues an instruction to the robot control means 30G to correct the posture of the loading / unloading robot 3.

より具体的には、ロボット制御手段30Gが(図1)、前記(9)〜(11)のズレ量ΔX、ΔY、Δθに基づいて補正駆動信号S、S・・・を搬入出ロボット3に送信すると、該搬入出ロボット3が、自らが把持しているワークの実際の把持位置Hが(図6)本来の把持位置Hと一致するように、姿勢を補正する。 More specifically, the robot control means 30G sends the correction drive signals S a , S b ... On the basis of the deviation amounts ΔX, ΔY, Δθ of (9) to (11) (FIG. 1). sending to 3, the該搬and out robot 3, as the actual gripping position H R of the workpiece itself is holding consistent with (FIG. 6) the original holding position H D, corrects the posture.

(3)製品積載台12上への製品Qの積載動作。   (3) Product Q loading operation on the product loading table 12.

前記したように、搬入出ロボット3は、自らが把持しているワークの実際の把持位置Hが(図6)本来の把持位置Hと一致するように、姿勢を補正することによって、ワークの位置決めが行われ、搬入出ロボット3は、製品Qとしてのワークの適正位置を把持するので(図10のステップ106又は111⇒ステップ107に相当)、全ての製品Qは、その位置ズレが補正され、同じ位置を向いた状態で把持される。 As described above, loading and unloading robot 3, as the actual gripping position H R of the workpiece itself is holding consistent with (FIG. 6) the original holding position H D, by correcting the posture, the workpiece Is carried out, and the loading / unloading robot 3 grips the appropriate position of the workpiece as the product Q (corresponding to step 106 or 111 → step 107 in FIG. 10), so that the positional deviation of all products Q is corrected. And gripped in the state of facing the same position.

よって、ロボット制御手段30Gが再度搬入出ロボット3を駆動制御すれば、搬入出ロボット3は(図11)、適正位置を把持した製品Qとしてのワークを、補正後の姿勢のままで製品積載台12上に積載すれば、該製品Qを製品積載台12上で崩すことなく多段に積載可能となる(図10のステップ107⇒ステップ108)。 Therefore, if the robot control means 30G drives and controls the loading / unloading robot 3 again (FIG. 11), the loading / unloading robot 3 (see FIG. 11) keeps the workpiece as the product Q holding the appropriate position in the corrected posture in the product loading table If the product Q is loaded on the product loading table 12, the product Q can be loaded in multiple stages without breaking on the product loading table 12 (step 107 → step 108 in FIG. 10).

上記のように、本発明によれば、中間台に置かれた製品としてのワークのコーナ部を、CCDカメラで撮像することにより、該製品を搬入出ロボット3が製品積載台に積載する場合の位置の補正が可能となり、該製品を製品積載台上で崩すことなく多段に積載可能にするという効果がある。   As described above, according to the present invention, when a corner portion of a workpiece as a product placed on the intermediate platform is imaged by the CCD camera, the loading / unloading robot 3 loads the product on the product loading platform. The position can be corrected, and there is an effect that the product can be stacked in multiple stages without breaking on the product loading table.

本発明は、中間台8上の製品Qを、搬入出ロボット3が吸着して製品積載台12に積載する場合の位置を補正するときに利用され、製品Qを製品積載台12上で崩すことなく多段に積載する場合に有用である。 The present invention is used when correcting the position of the product Q on the intermediate table 8 when the carry-in / out robot 3 sucks and loads the product Q on the product loading table 12, and the product Q is broken on the product loading table 12. This is useful when loading in multiple stages.

本発明の第1実施形態を示す全体図である。1 is an overall view showing a first embodiment of the present invention. 図1における曲げ加工システムの斜視図である。It is a perspective view of the bending process system in FIG. 図1における曲げ加工システムの側面図である。It is a side view of the bending process system in FIG. 図1におけるワーク撮像手段2の詳細図である。FIG. 2 is a detailed view of the workpiece imaging means 2 in FIG. 1. 図1における画像処理の原理を示す図である。It is a figure which shows the principle of the image processing in FIG. 図1におけるズレ量算出の具体例を示す図である。It is a figure which shows the specific example of deviation | shift amount calculation in FIG. 図6の拡大図である。FIG. 7 is an enlarged view of FIG. 6. 図6の具体例と、図5の原理との対応図である。FIG. 6 is a correspondence diagram between the specific example of FIG. 6 and the principle of FIG. 5. 図1におけるデータの流れを示す図である。It is a figure which shows the flow of the data in FIG. 図1における動作を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement in FIG. 本発明の第2実施形態を示す図である。It is a figure which shows 2nd Embodiment of this invention.

符号の説明Explanation of symbols

1 ワーク一枚取り装置の素材台
2 ワーク撮像手段
3 搬入出ロボット
3A 吸着パッド
8 中間台
10 曲げ加工装置
11 曲げロボット
12 製品積載台
13 上部テーブル
14 下部テーブル
15 ベースプレート
17 グリップ
18 掴み換え台
19、21、23 他の曲げロボット
20 他の素材台
22 ベルトコンベア
29 上位NC装置
30 下位NC装置
30A CPU
30B 情報演算手段
30C 撮像制御手段
30D ワーク画像検出手段
30E ワーク基準画像算出・格納手段
30F ズレ量算出手段
30G ロボット制御手段
30H 曲げ制御手段
30J 入出力手段
T 素材
Q 製品
S 撮像範囲
DW ワークの検出画像
RW ワークの基準画像
検出コーナ部
基準コーナ部
吸着パッド3Aの実際の把持位置
吸着パッド3Aの本来の把持位置
グリップ17の実際の把持位置
グリップ17の本来の把持位置
K ワークのコーナ部
DESCRIPTION OF SYMBOLS 1 Material stand of workpiece picking device 2 Work imaging means 3 Loading / unloading robot 3A Suction pad 8 Intermediate stand 10 Bending device 11 Bending robot 12 Product loading stand 13 Upper table 14 Lower table 15 Base plate 17 Grip 18 Grab change stand 19, 21, 23 Other bending robot 20 Other material base 22 Belt conveyor 29 Upper NC device 30 Lower NC device 30A CPU
30B Information calculation means 30C Imaging control means 30D Work image detection means 30E Work reference image calculation / storage means 30F Deviation amount calculation means 30G Robot control means 30H Bending control means 30J Input / output means T Material Q Product S Imaging range DW Work detection image original actual gripping position h D grip 17 of the original grip position h R grip 17 of the actual gripping position H D suction pads 3A of the reference image K D detecting corner K R reference corner H R suction pad 3A of RW workpiece Gripping position K Work corner

Claims (1)

製品としてのワークを戴置する中間台と、
該中間台に取り付けられたワーク撮像手段と、
該ワーク撮像手段から入力された製品としてのワークの画像を検出するワーク画像検出手段と、
予め入力された情報に基づいて製品としてのワークの基準画像を算出し、又はワーク撮像手段で撮像された正規位置の製品としてのワーク画像を基準画像として格納するワーク基準画像算出・格納手段と、
検出画像と基準画像の差に基づいて所定のズレ量を算出するズレ量算出手段と、
該ズレ量に基づいて検出画像と基準画像が一致するように、中間台上の製品としてのワークを把持した搬入出ロボットの姿勢を補正し、補正後の姿勢のまま製品としてのワークを製品積載台に積載させるロボット制御手段を有することを特徴とするワーク位置決め装置。
An intermediate platform for placing workpieces as products,
A workpiece imaging means attached to the intermediate platform;
Workpiece image detection means for detecting an image of a workpiece as a product input from the workpiece imaging means;
A workpiece reference image calculation / storage unit that calculates a reference image of a workpiece as a product based on information input in advance, or stores a workpiece image as a product at a normal position captured by the workpiece imaging unit as a reference image;
A deviation amount calculating means for calculating a predetermined deviation amount based on a difference between the detected image and the reference image;
Based on the amount of deviation, correct the posture of the loading / unloading robot that grips the workpiece as a product on the intermediate platform so that the detected image matches the reference image, and load the workpiece as a product in the corrected posture. A workpiece positioning device comprising a robot control means for loading on a table.
JP2007171357A 2007-06-29 2007-06-29 Workpiece positioning device Pending JP2007237394A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007171357A JP2007237394A (en) 2007-06-29 2007-06-29 Workpiece positioning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007171357A JP2007237394A (en) 2007-06-29 2007-06-29 Workpiece positioning device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002269314A Division JP2004106079A (en) 2002-09-17 2002-09-17 Workpiece positioning device

Publications (1)

Publication Number Publication Date
JP2007237394A true JP2007237394A (en) 2007-09-20

Family

ID=38583409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007171357A Pending JP2007237394A (en) 2007-06-29 2007-06-29 Workpiece positioning device

Country Status (1)

Country Link
JP (1) JP2007237394A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010214546A (en) * 2009-03-17 2010-09-30 Fuji Electric Holdings Co Ltd Device and method for assembling
EP2177326A3 (en) * 2008-10-14 2012-04-04 Safan B.V. Method for aligning a workpiece to a robot
JP2013193139A (en) * 2012-03-16 2013-09-30 Nhk Spring Co Ltd Workpiece hanging control device and method in hanger line
US9493028B2 (en) 2012-09-24 2016-11-15 Kabushiki Kaisha Pilot Corporation Rotating-operation type of writing tool
EP4360772A1 (en) * 2022-10-28 2024-05-01 Talleres Roiri, S.L. Method and system for stacking sheet metal parts

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03228589A (en) * 1990-02-01 1991-10-09 Kawasaki Heavy Ind Ltd Positioning method for work
JPH0699382A (en) * 1992-09-22 1994-04-12 Mazda Motor Corp Article setting device
JPH08224623A (en) * 1995-02-23 1996-09-03 Komatsu Ltd Work gripping motion controller for robot
JPH09160651A (en) * 1995-12-11 1997-06-20 Mitsubishi Electric Corp Work positioning device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03228589A (en) * 1990-02-01 1991-10-09 Kawasaki Heavy Ind Ltd Positioning method for work
JPH0699382A (en) * 1992-09-22 1994-04-12 Mazda Motor Corp Article setting device
JPH08224623A (en) * 1995-02-23 1996-09-03 Komatsu Ltd Work gripping motion controller for robot
JPH09160651A (en) * 1995-12-11 1997-06-20 Mitsubishi Electric Corp Work positioning device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2177326A3 (en) * 2008-10-14 2012-04-04 Safan B.V. Method for aligning a workpiece to a robot
JP2010214546A (en) * 2009-03-17 2010-09-30 Fuji Electric Holdings Co Ltd Device and method for assembling
JP2013193139A (en) * 2012-03-16 2013-09-30 Nhk Spring Co Ltd Workpiece hanging control device and method in hanger line
US9493028B2 (en) 2012-09-24 2016-11-15 Kabushiki Kaisha Pilot Corporation Rotating-operation type of writing tool
EP4360772A1 (en) * 2022-10-28 2024-05-01 Talleres Roiri, S.L. Method and system for stacking sheet metal parts

Similar Documents

Publication Publication Date Title
WO2015079740A1 (en) Robot system and robot system control method
JP7022097B2 (en) Transport equipment and delivery system
JP4794011B2 (en) Image processing apparatus and robot control system
JP2006035397A (en) Conveyance robot system
WO2020009148A1 (en) Workpiece transport system and workpiece transport method
JP6322959B2 (en) Robot, robot system, and robot controller
WO2018139574A1 (en) Conveyance system and operation method thereof
JP2007237394A (en) Workpiece positioning device
TW202043128A (en) Robot hand, robot, and robot system
JP6262867B2 (en) Electronic component mounting system
JP6703018B2 (en) Work robot system
JP2020089961A (en) Robot system and connection method
JP4769232B2 (en) Mounting machine and component adsorption device
JP2013099807A (en) Robot and method for controlling the robot
JP4303411B2 (en) Tracking method and tracking system
WO2020004572A1 (en) Substrate-conveying device and method for operating same
JP2004106079A (en) Workpiece positioning device
JP2010105081A (en) Bin picking apparatus
JP2020163553A (en) Board pickup method, and board pickup device
TWI765247B (en) Robotic hands, robots and robotic systems
JP6928316B2 (en) Parts mounting machine with holding function
JP2009172720A (en) Bin picking device
JP2013173196A (en) Position correcting method of robot handling arm
CN115803584A (en) Image pickup apparatus for acquiring three-dimensional information of workpiece surface and two-dimensional image of workpiece
JPS62226308A (en) Control system for robot having visual sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100715

A02 Decision of refusal

Effective date: 20101105

Free format text: JAPANESE INTERMEDIATE CODE: A02