WO2003000439A1 - Dispositif de positionnement d'une oeuvre - Google Patents

Dispositif de positionnement d'une oeuvre Download PDF

Info

Publication number
WO2003000439A1
WO2003000439A1 PCT/JP2002/006036 JP0206036W WO03000439A1 WO 2003000439 A1 WO2003000439 A1 WO 2003000439A1 JP 0206036 W JP0206036 W JP 0206036W WO 03000439 A1 WO03000439 A1 WO 03000439A1
Authority
WO
WIPO (PCT)
Prior art keywords
work
distance
image
positioning
workpiece
Prior art date
Application number
PCT/JP2002/006036
Other languages
English (en)
French (fr)
Inventor
Ichio Akami
Koichi Ishibashi
Teruyuki Kubota
Tetsuaki Kato
Jun Sato
Tatsuya Takahashi
Original Assignee
Amada Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Amada Co., Ltd. filed Critical Amada Co., Ltd.
Priority to US10/480,806 priority Critical patent/US7412863B2/en
Priority to DE60233731T priority patent/DE60233731D1/de
Priority to EP02736145A priority patent/EP1402967B1/en
Publication of WO2003000439A1 publication Critical patent/WO2003000439A1/ja
Priority to US12/170,505 priority patent/US7610785B2/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B21MECHANICAL METAL-WORKING WITHOUT ESSENTIALLY REMOVING MATERIAL; PUNCHING METAL
    • B21DWORKING OR PROCESSING OF SHEET METAL OR METAL TUBES, RODS OR PROFILES WITHOUT ESSENTIALLY REMOVING MATERIAL; PUNCHING METAL
    • B21D5/00Bending sheet metal along straight lines, e.g. to form simple curves
    • B21D5/02Bending sheet metal along straight lines, e.g. to form simple curves on press brakes without making use of clamping means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B21MECHANICAL METAL-WORKING WITHOUT ESSENTIALLY REMOVING MATERIAL; PUNCHING METAL
    • B21DWORKING OR PROCESSING OF SHEET METAL OR METAL TUBES, RODS OR PROFILES WITHOUT ESSENTIALLY REMOVING MATERIAL; PUNCHING METAL
    • B21D43/00Feeding, positioning or storing devices combined with, or arranged in, or specially adapted for use in connection with, apparatus for working or processing sheet metal, metal tubes or metal profiles; Associations therewith of cutting devices
    • B21D43/003Positioning devices

Definitions

  • the present invention relates to a work positioning device, and more particularly to a work positioning device that positions a work at a predetermined position by image processing.
  • a bending apparatus for example, a press brake (FIG. 25 (A)) has a punch P mounted on an upper table 52 and a die D mounted on a lower table 53. The table is moved up and down, and the work W is bent by the cooperation of the punch P and the die D.
  • a press brake FIG. 25 (A)
  • the workpiece W prior to the bending, is positioned at a predetermined position by abutting the workpiece W against an abutment 50 installed behind the lower table 53.
  • the workpiece W is gripped by the gripper 51 of the robot, the workpiece W is placed on the die D, and The work W is positioned by abutment.
  • Fig. 25 (B) when bending a product obtained by molding the C portion of the work W, one end A of the work W is gripped by the gripper 51 of the robot. Then, the other end B comes to abut 50.
  • FIG. 26 (A) when the corner portion of the work W is bent along the bending line m, the work W cannot be positioned by abutting the abutment 50.
  • FIG. 26 (B) if the bending line m is not parallel to the workpiece end face T, the positioning accuracy may be reduced even if the workpiece W abuts against the abutment 50. Cannot be bent.
  • the present invention as shown in FIG. 1 the actual measurement, predetermined positioning scale, M 2 ((G Yu, G 2), (Nj, or N 2), ( ⁇ ,, ⁇ 2)) for, by the image processing values C D1, CD 2 ((G D1, G D2), (N D1, or N D2), (K D1, K D2)) with the reference value C R!
  • C R2 ((G R1 , G R2 ), (N R1 , or N R2 )) (K R1 , K R2 )
  • C D1 , C D2 ((G D1, G D2), (N D1, or N D2), (K D1, K D2)) with the reference value C K1, C R2 ((Gm , G R2), (N R1, or N R2), (K R1 , K R2 ))
  • the predetermined positioning scale is set to, for example,
  • a hole as the positioning scale, M 2 is (FIG. 2 (A)), eg if in the case of very simple square hole (for example, a square hole in), the measured value and the reference value screen 40D (FIG. 1 If displayed above, the operator can manually move the workpiece W and position it at a predetermined position so that the measured value and the reference value match while watching this screen 40D.
  • the present invention relates to a first embodiment, as shown in FIG. 3, as shown in FIG. 3, a work image for detecting a work W image DW input from a work imaging means 12 attached to a bending apparatus 11.
  • Detecting means 10D work reference image calculating means 10E for calculating reference image RW of work W based on information inputted in advance, and comparing detected image DW and reference image RW to calculate the amount of deviation between the two.
  • a shift amount calculating unit 1OF and a robot control unit 10G for controlling the robot 13 to position the work W at a predetermined position so that the detected image DW and the reference image RW match each other based on the shift amount.
  • the M 2 in position relative to the bending line m of advance, for example on the work W (FIG. 4), if provided positioning mark consisting of holes, the M 2 as the positioning scale,
  • the above deviation amount calculation means 1.0 F (Fig. 3)
  • the detected positioning marks M D1 and M D2 (Fig. 5 (A)) in the detected image DW are compared with the reference positioning marks M R1 and M R2 in the reference image RW.
  • the deviation amount calculating means 1 OF is used as the positioning scale (FIG. 3).
  • detection workpiece oUTLINE line Gm in the detected image DW (FIG. 1 1 (a))
  • G D2 the reference image reference work outline G R1 in RW, G R2
  • the deviation amount A6 > tan— 1 (D 2 / L 2 )
  • ⁇ ⁇ + ⁇ (Fig. 11 ( ⁇ ))
  • Ay Vr — T y can be calculated.
  • the corner portion N,, or N 2 of the workpiece W as a positioning scale (FIG. 12), ( Figure 3) in the detected image DW (FIG. 13 (a)) and one of the detecting corner N D2 whole, compared only entire reference corner N R2 of the corresponding one of the reference image RW, on a two-dimensional coordinate .
  • the displacement (Fig. 13 (A)), mm X (Fig. 13 (B)), and Ay can be calculated.
  • the deviation amount robot control means 10 G (FIG. 3) corrects the drive signal Sa, Sb,, S d, by conversion to S e, the work W via the robot 13 by the robot control means 10G By positioning the bending line m directly below the punch P, the workpiece W can be positioned at a predetermined position.
  • an input from a workpiece imaging means 12 attached to a bending apparatus 11 is performed.
  • Abutting on the basis of the work image DW 1 5, 1 6 of the tip position B R1, B R2 and the distance detection for detecting a distance K D1, K D2 between position A D1, A D2 on the work end surface T D means 30 D and, calculated by the image processing reference distance K R1, K R2 between predetermined positions a R1, a R2 on advance the tip of the set abutting position B R1, B R2 and Wa Ichiku end face T R
  • a reference distance calculating means 30E for comparing the detected distance with the reference distance
  • a distance difference calculating means 30F for calculating a distance difference between the detected distance and the reference distance. Based on the distance difference, the detected distance matches the reference distance.
  • Control means 30F for controlling the robot to position the work at a predetermined position.
  • the distance between the tip positions of the abutments 15 and 16 and a predetermined position on the work end surface T, K 2 (FIG. 16) is used as the position 'fixing scale, difference calculation means 3 oF are with (15) detecting distance K D1, K D2, and the difference between the reference distance K R1, K R2 connexion, on two-dimensional coordinates, the distance difference Ay,, ⁇ y 2 (Fig. 1 8 ) Can be calculated.
  • the work W on the bending device 11 (FIG. 15) in order for the position of the work W on the bending device 11 (FIG. 15) to be uniquely determined, the work W must be positioned in advance in the longitudinal direction (X-axis direction). Therefore, for example, using the side gauge 18 (FIG.
  • the left end of the workpiece W gripped by the gripper 14 of the robot 13 (FIG. 24 (B)) is arranged at a position from the machine center MC.
  • the robot 13 at a predetermined distance XG Move by -Xi.
  • the robot control means 30F converts the distance differences Ay i, Ay 2 into correction drive signals S a , S b , S c , S d , and S e (FIG. 15).
  • the work W can be positioned at a predetermined position.
  • FIG. 1 is an overall view showing the configuration of the present invention.
  • FIG. 2 is a diagram showing a positioning scale used in the present invention.
  • FIG. 3 is an overall view showing the first embodiment of the present invention.
  • Figure 4 is a positioning mark according to the first embodiment, the M 2 indicate to view the present invention.
  • FIG. 5 is a diagram illustrating image processing according to the first embodiment of the present invention.
  • FIG. 6 is a front view of a bending apparatus 11 to which the first embodiment of the present invention is applied.
  • FIG. 8 is a flowchart for explaining the operation of the first embodiment of the present invention.
  • Figure 9 is a diagram showing another example of the first embodiment of the present invention (the work outline, positioning with G 2).
  • FIG. 10 is a diagram showing an example in which the reference image RW in FIG. 9 is captured.
  • FIG. 11 is a diagram showing the image processing in FIG.
  • FIG. 12 is a diagram showing an example of a case where the detected image DW and the reference image RW are compared using the corner portion and N 2 in the first embodiment of the present invention.
  • FIG. 13 is a diagram showing the image processing of FIG.
  • FIG. 14 is a diagram showing another example of FIG.
  • FIG. 15 is an overall view showing a second embodiment of the present invention.
  • FIG. 16 is a diagram showing a positioning scale K 2 according to the second embodiment of the present invention.
  • FIG. 17 is a diagram showing a specific example of FIG.
  • FIG. 18 is a diagram illustrating image processing according to the second embodiment of the present invention.
  • FIG. 19 is an explanatory view of the operation after positioning the workpiece according to the second embodiment of the present invention (measurement of bending angle ⁇ ).
  • FIG. 20 is a diagram showing the image processing of FIG.
  • FIG. 21 is a diagram showing a work imaging means 12 used in the second embodiment of the present invention.
  • FIG. 22 is an explanatory diagram of the operation according to the second embodiment of the present invention.
  • FIG. 23 is a flowchart for explaining the operation of the second embodiment of the present invention.
  • FIG. 24 is a view showing work longitudinal direction positioning performed prior to image processing positioning according to the second embodiment of the present invention.
  • FIG. 25 is an explanatory diagram of the prior art.
  • FIG. 26 is an explanatory diagram of another conventional technique. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 3 is an overall view showing the first embodiment of the present invention.
  • reference numeral 9 denotes an upper NC device
  • 10 denotes a lower NC device
  • 11 denotes a bending device
  • 12 denotes a work imaging means.
  • 13 are robots.
  • CAD information is input from the upper NC device 9 to the lower NC device 10 which is a control device of the bending device 11 (see FIG. 8).
  • the lower NC unit 10 positions the work W by predetermined image processing (for example, steps 104 to 108 in FIG. 8), and then performs bending (step 110 in FIG. 8). ).
  • the bending apparatus 11 for example, there is a press brake, and, as is well known, has a punch P mounted on the upper table 20 and a die D mounted on the lower table 21. A predetermined bending process is performed by a punch P and a die D on a work W positioned while being gripped by a grip 14 of a robot 13 described later.
  • the above-mentioned robot 13 is mounted on the base plate 1 and has a drive unit a (FIG. 6) in the left-right direction (X-axis direction), a drive unit (FIG. 3) in the front-rear direction (Y-axis direction), and a vertical drive unit c.
  • the robot 13 has the gripper 14 at the tip of its arm 19, and the gripper 14 is rotatable around an axis parallel to the X axis and an axis parallel to the Z axis.
  • the drive units d and e are built in the arm 19.
  • the robot 13 has a robot control unit 10 described later.
  • a work imaging means 12 is attached to the press brake (FIG. 6).
  • the work imaging means 12 is composed of, for example, a CCD camera 12A and its light source 12B. table
  • the light sources 1 2B are, for example, in the vicinity of the lower table 21 respectively. Attached.
  • the workpiece W gripped by the grip 14 of the robot 13 is captured by the CCD camera 12A, and the image of the workpiece W is converted into a one-dimensional electric signal, and the lower-level NC device 10 (described later)
  • the work image detection means 10D shown in Fig. 3) converts it into a two-dimensional electric signal
  • the displacement amount calculation means 1 OF compares the detected image DW with the reference image RW (Fig. 5 (A)).
  • the press brake ( A pair is provided in the left-right direction of FIG. 6). That is, in the blanking process before bending by the press brake, using a punch press laser processing machine, etc., the work W is positioned at a position where there is no obstacle to the bending of the work W (Fig. 4). , hole M ,, M 2 from the bending line m to a predetermined position is formed.
  • the operator can arbitrarily specify the positioning mark M! On the development view displayed on the operation panel (10 J) of the lower NC unit 10. , may determine the M 2.
  • the hole M !, M 2 is (FIG. 4), as described above, positioning marks is an example of a positioning scale is used as the M 2, in the deviation amount calculation unit 1 OF (Fig. 3), as described below In addition, this is a comparison target when comparing the detected image DW of the workpiece W with the reference image RW (Fig. 5 (A)).
  • 1 ⁇ , positioning Ma one click provided on the workpiece W, M 2 is (FIG. 4), not always symmetrical, as described above, in a position not to interfere the bending of the workpiece W It is formed at a predetermined position from the bending line m. Therefore, the left and right CCD cameras 12A and their light sources 12B (FIG. 6) are independently movable.
  • a pair of CCD cameras 12 A and a light source 12 B are connected to the X-axis guides 7 and 8 by the motor M AX ⁇ pinion 2 ⁇ rack 3 mechanism and the motor M BX ⁇ pinion 4 ⁇ rack 5 mechanism.
  • the motor M AY ⁇ pole screw 6 mechanism In the left-right direction (X-axis direction) (Fig. 6), and also by the motor M AY ⁇ pole screw 6 mechanism (Fig. 7), it is independent in the front-rear direction (Y-axis direction) along the Y-axis guide 17.
  • positioning marks on the workpiece W, M 2 is, rather than round holes as shown in FIG. 4, in the case of the square hole, as will be described later (Fig.
  • the detected image DW and the reference image RW can be compared.
  • either the left or right CCD camera 12A and the light source 12B are used.
  • abutment 15 used for positioning the work W as in the past YES in step 103 and step 109 in FIG. 8). 16 are provided.
  • the control device for the press brake having the above configuration includes the above-mentioned upper NC unit 9 (FIG. 3) and the lower NC unit 10 .
  • the upper NC unit 9 is located in an office or the like, and the lower NC unit 10 is Each is mounted on a press brake in a factory (Fig. 6).
  • the host NC device 9 CAD information is built, the CAD information is the thickness of the workpiece W, the material, the length of the bending line m ( Figure 4), positioning Ma - position of click, M 2 Workpiece information, product information such as product bending angle These are configured as a three-dimensional three-dimensional view and a development view.
  • the CAD information composed of these pieces of information is input to the lower-level NC device 10 (step 101 in FIG. 8), and is used, for example, for positioning the workpiece W by the image processing of the present invention.
  • the lower-level NC device 10 (FIG. 3) includes a CPU 10 OA, an information calculation unit 10 B, an imaging control unit 10 C, a work image detection unit 10 D, a work reference image calculation unit 10 E, and a shift. It comprises an amount calculating means 10F, a robot controlling means 10G, a bending controlling means 10H, and an input / output means 10J.
  • the CPU 10A controls the information calculation means 10B, the work image detection means 10D, and the like in accordance with the image processing program (corresponding to FIG. 8) of the present invention.
  • the information calculation means 10 B is required for positioning and bending of the workpiece W, such as a bending order, based on CAD information input from the upper NC unit 9 via input / output means 10 J described later. It is determined by calculating the information (step 102 in FIG. 8).
  • the information calculated by the information calculation means 10B includes, in addition to the bending order, the dies to be used (punch P and die D), which dies are to be placed at which positions on the upper table 20 and the lower table 21. It also includes the operation machining program of the robot 13 that supplies the die layout and the workpiece W to the press brake.
  • step 103 in FIG. 8 it is determined whether or not the positioning of the workpiece W by the abutments 15 and 16 is possible. If it is not possible (N 0), the image according to the present invention is obtained.
  • the workpiece W is positioned using the processing (steps 104 to 108 in FIG. 8).
  • the imaging control unit 10C is configured to determine the bending order determined by the information calculation unit 10B. , Die layout, the positioning marks Mi, based on such position of M 2, performs movement control of the work imager 1 2 consisting above the CCD camera 1 2 A and the light source 1 2 B, the CCD camera 1 2A
  • the imaging operation is controlled, such as controlling the visual field range (FIG. 5 (A)).
  • Workpiece image detection means 1 0D is (FIG. 3), as described above, the workpiece pickup means position-decided Me marks of the workpiece W consisting of one-dimensional electrical signal sent from the 1 2, an image comprising M 2 Is converted into a two-dimensional electric signal.
  • the detected image DW of the workpiece W (FIG. 5 (A)) is obtained, ⁇ Wa - positioning mark on click W, M 2 is (FIG. 4), detects the positioning mark M D1, MD 2 (FIG. 5 ( as a)), be compared with the reference alignment mark M R ,, ⁇ ⁇ 2 described later.
  • the work reference image calculation means 10E generates the reference positioning marks M R1 and M R2 based on the bending order, the mold layout, the positioning marks, and the position of the M 2 determined by the information calculation means 10B .
  • the reference image RW is calculated (Fig. 5 (A)).
  • Declination 0. tan _1 ⁇ (y 2 -yi) / (x 2 -Xi) ⁇ 4 4
  • 8 and 4 are similarly used when the shift amount is calculated by the shift amount calculating means 1 OF. .
  • the displacement amount calculating means 1 OF includes a detection positioning mark M D , MD 2 having a center of gravity position and a declination which can be expressed by the above formulas 1 to ⁇ , and a reference positioning mark M R i
  • the deviation of the angle between the detection positioning marks M D1 and M D2 with respect to the reference positioning marks M R1 and M R2 is as follows.
  • the detected image DW is rotated by an amount of deviation represented by 5
  • the detected image DW and the reference image RW are parallel as shown in FIG. 5 (B).
  • the robot control means 10G controls the robot 13 based on the amount of displacement expressed by the formulas (1) to (4) so that the detected image DW and the reference image RW coincide with each other to move the workpiece W to a predetermined position. Position it.
  • the mouth pot control means 10G converts them into correction drive signals S a , S b , The signals are converted into S c , S d , and S e , and each signal is transmitted to the robot 13.
  • the bending control means 10H (FIG. 3) controls the press brake based on the bending order and the like determined by the information calculation means 10B, and the punch P and the die Bend by D.
  • the input / output means 10J is provided, for example, near the upper table 20 which constitutes a press brake (FIG. 6), and includes a screen such as a keyboard and a liquid crystal.
  • the input / output means 10 J has an interface function with respect to the above-described upper NC unit 9 (FIG. 3), whereby the lower NC unit 10 is connected to the upper NC unit 9 by wire or wirelessly. By doing so, the CAD information can be input.
  • the input / output means 10 J displays information such as the bending order and the mold layout determined by the information calculation means 10 B on the screen, so that the operator can see the display.
  • the operator can determine whether or not the positioning of the workpiece W by the abutments 15 and 16 is possible (step 103 in FIG. 8), not automatically.
  • FIGS. 9 to 11 show a case where the outline of the workpiece W and G 2 (FIG. 9) are used as a positioning scale instead of the positioning mark M 2 (FIG. 4) described above.
  • the deviation amount calculation means 1 OF (Fig. 3)
  • the work outline Gi, the G 2 be compared in the case of comparing the detected image DW and the reference image RW of the workpiece W (FIG. 1 1).
  • the work W positioned by the operator at a predetermined position is imaged by the CCD camera 12A and stored in a memory in advance.
  • the side stoppers 25 and 26 are attached to the holder 22 of the die D via the attachment members 23 and 24, and the side stoppers are formed.
  • Checkers A, B, and C are provided on 25 and 26.
  • the image of the workpiece outline G 2 stored in this memory is used as the reference workpiece outline G R1 , G R2 (FIG. 11) and the checkers A, B,
  • the image of C is used as an area for detecting image data, and the detected image DW and the reference image RW are compared.
  • the reference image RW indicated by the broken line is
  • the detected image DW which includes the reference work outlines G R1 and G R2 stored in the memory of the image calculation means 10E and is indicated by a solid line, is obtained by imaging the work W held by the grip 14 of the robot 13 with the CCD camera 12A. Includes the shape lines G D1 and G D2 .
  • FIG 1 (A) the detected first reference points of the work outline G D1 (x a, y a ) second and deviations D a in the Y-axis direction with respect to said detection work outside shape lines G D1
  • the deviation D b in the Y-axis direction from the reference point R 2 (x b , y b ) is expressed as follows.
  • D b F (Xb, y b ') -R 2 (Xb, y3 ⁇ 4)
  • the distance D 2 from the intersection S can be expressed as follows using the declination and the above (3).
  • both Chiwekka Alpha, L] distance in the X-axis direction of the beta x b if -x a, the first reference point ( ⁇ ⁇ , y a) and the second reference point R 2 (x b, y b) the distance between ⁇ , this and by using the deflection angle theta, further, the first reference point R 1 (x a, the distance Q between y a) and the intersection point K is the just as (3) Using the argument ⁇ , they can be expressed as follows.
  • the distance L 2 between the second reference point R 2 (x ,, y 3 ⁇ 4 ) and the intersection K is, as is clear from the figure, the sum of P and Q expressed in (5) and (6) above. Therefore, it can be expressed as follows.
  • the second reference point R 2 (x b , y 3 ⁇ 4 ), which is the intersection of one of the reference workpiece outline G R1 and the checker B, and one of the detection points
  • the intersection F ( x3 ⁇ 4 , yb ′) between the work outline G D1 and the checker B is the same as that in FIG. 11A.
  • the distance T between the detection work outline G D1 and the reference work outline G R1 which are parallel to each other, can be expressed as follows using the above-described deviation D b and declination 0.
  • the X-axis coordinate of the checker C is x c
  • the intersection between the other reference work outline G R2 and the checker C is a third reference point R 3 (Xc, y c )
  • the intersection of the other detection work outline G D2 and the Cheez force C is J (Xc, 7c ′).
  • the third reference point R 3 (Xc, y c) deviation D c in the Y-axis direction with respect to the other detection work outline G D2 may be expressed as follows.
  • the distance U between the parallel detection work outline G D2 and the reference stroke outline G R2 can be expressed as follows using the deviation D c and the deflection angle ⁇ expressed in (13) above.
  • FIGS. 12 to 14 show one of the corners of the workpiece W or N 2 instead of the positioning mark M 2 (FIG. 4), the outline of the workpiece W and G 2 (FIG. 9) described above.
  • one workpiece imaging unit 12 (FIG. 3), i.e., by a single CCD camera 12 A, if the imaging only either corner or N 2, the deviation amount calculation unit 1 OF is (FIG. 3), reference corner N R2 shift amount of the entire detecting corner N D2 for the entire (FIG 13 (a)), ⁇ (Fig 1 3 ( ⁇ )), can be calculated Ay.
  • the robot control means 30G controls the robot 13 based on the displacement amounts ⁇ 0, ⁇ , and Ay so that the detected image DW and the reference image RW match at once, and the work W is determined in a predetermined manner. It can be positioned in a position.
  • positioning marks previously described, M 2 (FIG. 4) or, in the case of the outer shape line G ,, G 2 of the workpiece W (FIG. 9) is, in the case of comparing the detected image DW and the reference image RW is (5, Figure 1 1), using two CCD cameras 12A, 2 two positioning marks, the position and the M 2, 2 single work outline, if the position of the G 2 is determined, the positioning of the workpiece W Can not.
  • one corner portion either, or be determined the position of the N 2
  • comparing the detection image DW and the reference image RW can and will Since the misalignment is corrected at one time and the peak position can be positioned by image processing, the overall machining efficiency including the positioning process for the peak position can be significantly improved.
  • the corner portion captures the whole of one of N 2, as an example to be compared in the detection image DW and the reference image RW, firstly, 'external shape of the workpiece W shown in FIG. 12 (A) There is.
  • the corner or the angle of N 2 may be any angle such as an acute angle, an obtuse angle, or a right angle, and may be R (FIG. 12 (B);).
  • the example corner portion N 2 entire image captured by the right CCD camera 12A if the input to the workpiece image detection unit 10D (FIG. 3), detecting the corner section of a part of the detected image DW ND2 is obtained. Therefore, the detection corner N D2, together with the reference corner N R2 which has previously been calculated by the work reference image calculating means 10E (FIG. 3), if the input to the shift amount calculation means 10 F, and the entire detector corner N D2 reference corner N R2 entire angular deviation amount delta 6 »is calculated.
  • the detected image DW including the detection corner N D2 (FIG. 13 (B)), the reference image RW including the reference corner N R2 are in parallel, only the deviation amount of angular directions issued the calculated by this rotating said detecting corner N D2, the deviation amount calculation unit 1 oF is (FIG. 3), detecting corner N D2 entire and (FIG. 13 (B)), the reference corner N R2 entire Y-axis
  • the direction shift amounts ⁇ and Ay can be calculated.
  • the work W gripped at the gritsno of the robot 13 at 14 (FIG. 13) via the robot control means 30 G (FIG. 3) is rotated by the above-mentioned displacement ⁇ , and at the same time, only by the displacement ⁇ and mu y.
  • control is performed such that the detected image DW and the reference image RW match, and the workpiece W can be positioned at a predetermined position.
  • corner portions, one of N 2 as an application example to be compared of the detected image DW and the reference image image RW may square hole, M 2 shown in FIG 4.
  • the bending line m position y 1 (FIG. 1 4), y 2, positioning Ma - when square hole M ,, M 2 as click is formed, one of the corner N or the entire N 2, is imaged by the CCD camera 1 2A. Then, for example, a corner portion N 2 entire image captured by the right CCD camera 1 2A of Figure 1 4, and detecting corner N D2 (corresponding to Fig. 1 3), a reference corner N R2 issued previously calculated Compare.
  • the shift amount in the angular direction, the shift amount ⁇ in the X-axis direction, and the shift amount Ay in the Y-axis direction are calculated by the shift amount calculating means 1 OF (FIG. 3).
  • control is performed by the robot control means 30G so that the detected image DW matches the reference image RW, and the workpiece W can be positioned at a predetermined position.
  • step 101 of FIG. 8 CAD information is input, and in step 102, the bending order and the like are determined.In step 103, is it possible to position the peak W by the abutments 15 and 16? Determine whether or not.
  • the bending order and the like are determined by the information calculation means 10B constituting the upper NC unit 9, and based on that, Automatic (for example, the information calculation means 10 B is determined by the instruction of the CPU 10 OA) or manually (determined by the worker described above by looking at the screen of the input / output means 10 J), the collision 15, 16. It is determined whether or not positioning of the mark W is possible. If the positioning by the abutments 15 and 16 is possible (YES in step 103 in FIG. 8), the process proceeds to the step 109, and the workpiece W is abutted on the abutments 15 and 16 as before. Positioning is performed by touching. However, if the positioning by the abutments 15 and 16 is not possible (NO in step 103 in FIG. 8), the process proceeds to the next step 104 and the positioning using the image processing according to the present invention is performed. Done.
  • Automatic for example, the information calculation means 10 B is determined by the instruction of the CPU 10 OA) or manually (determined by the worker described above by looking at the screen of the
  • step 104 of FIG. 8 the reference image RW of the work W is calculated.
  • step 105 the image of the work W is detected.
  • step 106 the detected image DW is compared with the reference image RW, In step 107, it is determined whether or not there is a gap between the two.
  • the work reference image calculation means 10 E previously determines the reference image based on the determination of the information calculation means 10 B.
  • RW is calculated (Fig. 5 (A)) and stored in, for example, a memory (not shown).
  • the CPU 1OA of the lower NC unit 10 controls the movement of the CCD camera 12A and the light source 12B constituting the work imaging means 12 via the imaging control means 10C. Then, the work W gripped by the gripper 14 of the robot 13 is imaged.
  • the captured image of the work W is sent to the work image detecting means 10D to obtain a detected image DW, and the shift amount calculating means 1 OF at the next stage is provided with a reference image RW stored in the memory. Comparison is performed (Fig. 5 (A)
  • the shift amount calculating means 1OF calculates a shift amount (the above-mentioned 5 to 7) of the detected image DW and the reference image RW, and if this shift amount is zero, that is, if there is no shift (step 1 in FIG. 6). 07 NO), position determined at that time And bending is performed in step 110.
  • the robot 13 determines the position of the work W in step 108.
  • the shift amount calculating means 1 OF calculates the calculated shift amount (5 to 7) by the robot control means 10. Send to G.
  • the robot control unit 1 0G is the deviation amount (5 ⁇ 7) the compensation drive signals S a, S 3 ⁇ 4, S c , S d, and converted into S e, the signal in the robot 1 3
  • the driving units a, b, c, d, and e of the robot 13 so that the detected image DW and the reference image RW match (FIG. 5 (B))
  • the workpiece W is positioned at a predetermined position. Position.
  • step 105 in FIG. 8 the process returns to step 105 in FIG. 8 for confirmation, and the image of the positioned work W is again captured by the CCD.
  • work image detection means 10D detects it, compares it with reference image RW in step 106, and if it is determined in step 107 that there is no deviation between them (NO), positioning is performed for the first time. Completed and proceed to step 110.
  • the shift amount calculating means 1OF which has input the detected image DW and the (FIG. 3) reference image RW, determines that there is no shift between the two, the shift amount calculating means 1OF sends the information to the CPU 1OA. This time, the CPU 10A was gripped by the gripper 14 of the robot 13 by activating a ram cylinder (not shown) through the bending control means 10H. Punch W is bent by punch P and die D.
  • a positioning completion signal is transmitted from the sensors (not shown) attached to the abutments 15 and 16 to the CPU 1OA, and based on the signal, Similarly, the ram cylinder is activated via the bending control means 10H, and the workpiece W gripped by the gripper 14 of the robot 13 is bent by the punch P and the die D.
  • the image data that constitutes the reference work outlines G R1 and G R2 (Fig. 11) for this work outline G 2 (Fig. 9) is included in the built-in CAD information.
  • Izu included in the above CA D information the operator positions the workpiece W at a predetermined position (e.g., FIG. 10), the work outline, is first obtained by imaging the G 2 by the CCD camera 12 a The points are different.
  • the reference work outlines G R1 and G R2 may be included in the CAD information in the same manner as the reference positioning marks M R1 and M R2 .
  • the detected image DW can be compared with the reference image RW by image processing (Fig. 13), and the deviation amount ⁇ 0, mux, and Ay can be measured at once. By correcting, the workpiece W can be positioned at a predetermined position, thereby improving the overall processing efficiency.
  • FIG. 15 is an overall view showing a second embodiment of the present invention.
  • reference numeral 29 denotes an upper NC device
  • 30 denotes a lower NC device
  • 11 denotes a bending device
  • 12 denotes a work imaging means
  • 13 denotes a robot.
  • CAD information is input from the upper NC device 29 to the lower NC device 30 which is the control device of the bending device 11 (step 201 in FIG. 23), and the abutment 15 (FIG. 18) ), 1 6 and the distal end position B R1, B R2, the steps 202 to 204 after the like set at a predetermined position a R1, a R2 on the end face T R of the workpiece image RW having conducted (FIG. 23), the lower level
  • the NC device 30 controls the positioning of the work W by predetermined image processing (steps 205 to 208 in FIG. 23), and furthermore, after the punch P comes into contact with the work W (FIG. 19 (B)) (after the pinching point).
  • the bending angle ⁇ is indirectly measured by detecting the distance from the abutment 15 to control the bending process (steps 209 to 213 in FIG. 23).
  • the positioning of the workpiece W and the determination of the bending angle ⁇ can be performed by a single device, and the system can be simplified. .
  • the bending apparatus 11 and the robot 13 in this case are the same as those in the first embodiment (FIG. 3), but the CCD camera 12A as the work imaging means 12 and its light source 1
  • the mounting location of 2B and the moving mechanism are different from those of the first embodiment.
  • the abutments 15 and 16 are provided behind the lower table 21 constituting the press brake. Then, as shown in FIG. 21, for example, the abutment 15 is mounted on the stretch 27 via the abutment main body 28, but in the second embodiment, the abutment main body 28 is provided with a CCD camera. 1 2 A is installed.
  • a mounting plate 28A is provided on the abutment main body 28, and a light source 12B for supplying transmitted light to the workpiece W is mounted on the mounting plate 28A.
  • the CCD camera 12A and the light source 12B also move in the same direction as the abutment 15 moves in the X-axis direction, the Y-axis direction, and the Z-axis direction.
  • the work W gripped by the gripper 14 (FIG. 15) of the robot 13 is imaged by the CCD camera 12A, and the image of the work W is converted into a one-dimensional electric signal.
  • the distance detecting means 30D described later of the lower NC unit 30 (FIG. 15), and the end positions B R1 and B R2 of the abutments 15 and 16 (see FIG. 15). 18), the distances K D1 and K D2 between the predetermined positions A D1 and A D2 on the end face T D of the workpiece image DW are detected, and the distance difference calculating means 3 OF (FIG. 15) determines the detected distance K Di, the distance difference Ay ,, Ay 2 of K D2 and the reference distance K R1, K R2 are calculated (Fig. 1 8).
  • the distance between the tip positions of the abutments 15 and 16 and the predetermined position on the work end surface T, K 2 is used as the positioning scale, as shown in FIG. This is particularly effective when positioning the workpiece W in the case of oblique bending where the workpiece end face ⁇ and the bending line m are not parallel.
  • the work end surface T as shown in FIG. 1 7, extremely may have a complex shape, butting 1 5, 1 6 and the distance K ,, K 2 to output accurate detection of the, as a detection point, abutment 1 5, 1 6 tip position of a beta 2, a predetermined position on the work end surface T a i, because is necessary to set the a 2 in advance o
  • CAD information step 201 in FIG. 23
  • a work image RW as a development view is captured and displayed on a screen as shown in FIG. I do.
  • the operator while viewing the screen, and sets the abutment 1 5, 1 6 of the tip position B K1, B R2, sets a predetermined position A R1, A R2 on the end face T R of the workpiece image RW (Step 202 of Figure 23).
  • the position of the work W in the longitudinal direction is determined so that the left end of the work W is located at the position X, from the machine center MC.
  • the gripper 14 of the robot 13 FIG. 24 (A)
  • the left end of the workpiece W is brought into contact with the side gauge 18, and the position of the side gauge 18 at that time is determined by the machine.
  • the robot 1 3 (FIG. 24 (B)) the predetermined distance X C
  • the robot 1 3 By moving only -X, and aligning the work origin 0 with the machine center MC, the left end of the work W is arranged at the position X, from the machine center MC.
  • the position of the work W in the front-rear direction and the position in the (Y-axis direction) left-right direction (X-axis direction) is determined, and the position of the work W with respect to the bending apparatus 11 is uniquely determined. .
  • the locations to be set may be at least one location each, or, as shown in the figure, for example, two locations with respect to the workpiece origin 0.
  • the lower end NC device 30 (FIG. 15), which will be described later, is configured by reference distance calculation means 30 E, which will be described later.
  • end position B R1, B R2 and the reference distance K R1 between predetermined positions location a R1, a R2 in the work end surface T R, K R2 is automatically calculated (scan Tetsupu 2 0 3 in FIG. 2 3), the reference distances K R1, K R2, as described above, at a distance Sasan detection means 3 oF (Fig. 1 5), the distance difference between the detected distance K D1, KD 2 (Fig. 1 5) delta Upsilon iota, ⁇ the target of y 2 calculated.
  • the reference distances K R1 and K R2 may be manually input by an operator.
  • the end position B R1, B R2 (FIG. 18) of the set abutment 15, 16, a predetermined position A R1, A R2 in the work end surface T R is the time the workpiece W position-decided Me abutment 15 16 as well as the distance detection points for the abutment 15 during the measurement, as described later (FIGS. 19 and 20).
  • the operation is as shown in FIG. 22 by performing the positioning of the workpiece W and the measurement of the bending angle ⁇ with one device.
  • FIGS. 22 A), (B) and (C)
  • the left figure shows the positional relationship between the work W and the CCD camera 12A
  • the right figure shows the work processed by the CCD camera 12A. Shows the distance of the images DW and dw to the abutment 15.
  • FIG. 22 (A) shows the distance K D1 between the specified position A D1 on the end face T D of the workpiece image DW and the tip position B R1 of the abutment 15 reaches the reference distance K R1. Indicates the state where the workpiece positioning is completed, and corresponds to FIG.
  • FIGS. 22 (B) and (C) shows that after the punch P comes into contact with the work W (after the pinching point) (after the pinching point) on the end face t d of the work image dw. predetermined position and a dl, shows a state where the distance k dl between the tip position B R1 abutting 15 changes, and corresponds to FIG. 20.
  • FIG. 22 first, the positioning of the work W is completed (FIG. 22 (A)), and then, when the punch P comes into contact with the workpiece W (the left diagram in FIG. 22 (B)), the bending process is started.
  • the distance k dl from the abutment 15 increases and the distance increases (see the right figure in Fig. 22 (B)).
  • the tip of the work W rises (left figure in FIG. 22 (B)).
  • the CCD camera 12A is raised by raising the abutment 15 accordingly, and the image dw of the work W is detected.
  • the lower NC unit 30 which is the control device of the press brake having the above configuration (FIG. 15) includes a CPU 30A, an information calculation unit 30B, an imaging control unit 30C, a distance detection unit 30D, and a reference. It comprises distance calculation means 30E, distance difference calculation means 3OF, robot control means 30G, bending control means 30H, and input / output means 30J.
  • the CPU 3 OA controls the information calculation means 30 B, the distance detection means 30 D, and the like in accordance with the image processing program (corresponding to 'in FIG. 23) of the present invention.
  • the information calculation means 30B calculates the information necessary for the positioning and bending angle of the workpiece W, such as the bending order and the product shape, based on the CAD information input from the upper NC unit 29 via the input / output means 30J. I do.
  • the CCD control lens 12A and the light source 12 are moved through the moving mechanism of the abutments 15 and 16 based on the information calculated by the information calculation means 30B.
  • the imaging operation such as the control of the field of view (FIGS. 16 and 17) of the CCD camera 12A is controlled.
  • Reference distance calculating means 30E may calculate the reference distance K R1, K R2 between predetermined positions A R1, A R2 on preset abutting the tip position B. R1, B R2 and the workpiece end face T R by the image processing I do.
  • the distance difference calculating means 3OF compares the detection distances K D1 and K D2 of the above (3) and (4) with the reference distances K R1 and K R2 of the above (6) and (7), and a distance difference Ay between the two.
  • the distance difference y 2 is
  • Robot control means 30G is (FIG. 15), the [8], [9] in based on the distance difference Ay ,, Ay 2 representable detection distance K D1, K D2 and the reference distance K R1, K R2 gar Itasu that as Then, the robot 13 is controlled to position the peak W at a predetermined position.
  • the robot control unit 30 G when the said distance difference calculating means 30 F to enter the distance difference Ay !, [Delta] [gamma] 2, converts them correction drive signals S a, S b, S c , S d, the S e Then, each signal is transmitted to the robot 13.
  • the mouth pot 13 operates the respective drive units a, b, c, d, and e that constitute the mouth pot 13 so that the workpiece .W gripped by the gripper 14 is displaced by the distance difference Ay! Then, move y 2 in the Y-axis direction (Fig. 18).
  • the bending control means 30H (FIG. 15) controls the press brake based on the bending order and the like determined by the information calculation means 10B, and The work W is bent by punch P and die D.
  • the input / output means 10 J is composed of a screen such as a keyboard and a liquid crystal. For example, as described above, the operator can look at the screen and determine the end positions B R1 and B R2 of the abutments 15 and 16 (see FIG. 1 8) and sets, sets a predetermined position a R1, a R2 on the end face T R of the write rare was workpiece image RW taken on the basis of the CAD information (step 202 in FIG. 23).
  • the distance detecting means 30D, the reference distance calculating means 30E, and the distance difference calculating means 3OF perform the following operations.
  • the reference distance calculating means 30E (FIG. 15) inputs the bending angle ⁇ ⁇ calculated by the information calculating means 30B based on the CAD information. According to the above [10], the next bending reference distance krl is calculated (FIG. 20 (A)).
  • the distance detecting means 30D detects the distance between the abutment 15 and the workpiece W by image processing after the pinching point (step 210 in FIG. 23) (step 21 1 in FIG. 23). If k d (FIG. 20 (A)) matches the bending reference distance k rl (YES in step 212 in FIG. 23), it is considered that the workpiece W has been bent to the predetermined bending angle ⁇ , and the bending is performed. The ram is stopped via the control means 30H (FIG. 15) (step 213 in FIG. 23), and the bending is completed.
  • the bending detection distance kdl is equal to a predetermined position adl on the end face of the workpiece image dw (FIG. 20 (B)) input from the CCD camera 12A, and This is the distance between the tip positions B R1 of the abutments 15 set in.
  • step 201 of FIG. 23 the CAD1 blue report is input, in step 202, a detection point is set, in step 203, a reference distance is calculated, and in step 204, it is moved to a position where a collision is set. That is, when CAD information is input from the upper NC unit 29 (FIG. 15) to the lower NC unit 30, a work image RW as a development view (FIG. 18) is displayed on the input / output means 30J (FIG. 15) screen. Displayed on the screen, the operator sets the tip positions B R1 and B R2 of the abutments 15 and 16 as detection points while watching this screen, and also sets the work image RW based on the CAD information.
  • each detection point is transmitted to the reference distance calculation means 30E via the information calculation means 30 (FIG. 15).
  • the reference distance calculating unit 30 E (Fig. 1 5), the predetermined position A R i on the setting the collision those 1 5, 1 6 of the tip position B R1, B R2 and the workpiece end face T R, between A R2 of Reference distance K R ! , K R2 are calculated according to [6] and [7] described above.
  • the reference distance calculating means 30E is used as the reference for the positioning.
  • the bending reference distance k rl for controlling the bending process is calculated in accordance with the above-mentioned [12].
  • FIG. 15 issues a command to the bending control means 30H to set the end positions B R , B R2 (FIG. 18) of the end positions 15 and 16 set above.
  • the workpiece W is positioned by the robot 13 in step 205 in FIG. 23, the distance from the abutment is detected in step 206, and whether or not the distance is a predetermined distance is determined in step 207. If not (NO), the process returns to step 205 and repeats the same operation. If the distance is a predetermined distance (YES), in step 208, the positioning of the stroke W is completed.
  • the movement of 2A and its light source 12B is controlled, and an image of the grip W of the robot 13 and the workpiece W grasped at 14 is taken.
  • the captured image of the work W is sent to the distance detection means 30D, and the distance detection means 30D uses the received work image DW (FIG. 18) to detect the abutments 15 and 16 based on the work image DW (FIG. 18).
  • the distances K D1 and K D2 between the tip positions B R1 and B R2 and the predetermined positions A D1 and A D2 on the work end surface T D are detected in accordance with [3] and [4] described above.
  • the detection distances K D1 and K D2 and the reference distances K R1 and K R2 calculated by the reference distance calculation means 30 ⁇ are sent to the next-stage distance difference calculation means 3 OF,
  • the distance difference ⁇ , ⁇ 2 between the two is calculated according to [8] and [9] described above.
  • the robot control means 30G may be converted to the distance difference Ay ,, Ay 2 correction drive signals S a, S b, S c , S d, the S e, transmits the signal to the mouth bot 1 3
  • the drive units a, b, c, d, and e of the robot 13 are controlled so that the detection distances K D1 , K D2 and the reference distances K R1 , K R2 match (Fig. 1.8). Position W in place.
  • the positioning of the work W is performed by the robot 13 and when the detection distances K D1 and K D2 and the reference distances K R1 and K R2 match, the positioning of the work W is completed.
  • step 210 When the positioning of the workpiece W is completed, the ram is lowered in step 209 in FIG. 23, and it is determined in step 210 whether the punch P has contacted the workpiece W. NO), return to step 209 and repeat the same operation. If contact is made (YES), in step 211, the distance to the collision is detected, and in step 212, the distance is determined to be the predetermined distance. If the distance is not the predetermined distance (NO), the ram position is adjusted in step 214, and if the distance is the predetermined distance (YES), the ram is stopped in step 211. Complete the bending process.
  • the CPU 3 OA (FIG. 15) detects that the positioning of the workpiece W has been completed via the robot control means 30G, the CPU 3 OA then controls the ram, for example, of the descending press brake via the bending control means 30H. If so, lower the upper table 20.
  • the CPU 3 OA detects the position of the ram 20 through ram position detecting means or the like, and if it determines that the punch P has contacted the workpiece W, After that, the abutment 15 is moved via the bending control means 30H, thereby moving the CCD camera 12A and its light source 12B to capture an image of the workpiece W and controlling the distance detection means 30D. to, the images dw of the imaged workpiece W (FIG. 20 (a)) based, to detect the distance k dl bending for abutting 1 5.
  • the lowering of the ram 20 is stopped via the bending control means 30H, and the bending is completed.
  • the bending apparatus according to the present invention can accurately position a workpiece by performing electronic positioning using image processing even when mechanical positioning using bumping is difficult. Can be positioned.
  • the corner of the work is used as a target to be compared, if only one of the corners is imaged with one CCD camera, both images are obtained. Since the deviation amount can be corrected all at once, the processing efficiency including the work of positioning the work can be improved. Furthermore, the system can be simplified by performing the work positioning control operation and the bending processing control operation with a single device. The cost can be reduced.

Description

明 細 書 ワーク位置決め装置 技術分野
本発明はワーク位置決め装置、 特に画像処理によりワークを所定位置 に位置決めするワーク位置決め装置に関する。 背景技術
従来より、 曲げ加工装置、 例えばプレスブレーキは (図 2 5 (A) ) 、 上部テーブル 5 2に装着されたパンチ Pと、 下部テーブル 5 3に装着 されたダイ Dを有し、 いずれか一方のテーブルを上下動させ、 パンチ P とダイ Dの協働によりワーク Wを曲げ加工する。
この場合、 曲げ加工に先立って、 下部テーブル 5 3の後方に設置され た突当 5 0にワーク Wを突き当てることにより, 該ワーク Wを所定位置 に位置決めするようになっている。
例えばロボットを使用して自動的に曲げ加工を行う場合には、 該ロボ ットのグリッパ 5 1でヮ一ク Wを把持し、 該ワーク Wをダイ D上に載せ て前記突当 5 0に突き当てることにより、 該ワーク Wを位置決めする。 ところが、 図 2 5 ( B ) に示すように、 ワーク Wの C部分を成形加工 した製品を曲げ加工するような場合には、 該ワーク Wの一端 Aをロボッ トの前記グリッパ 5 1で把持し、 他端 Bを突当 5 0に突き当てることに なる。
しかし、 この場合は、 図 2 5 (A) に示すように、 ワーク Wの他端 B とダイ D上に載っている部分との間が、 緩やかな曲線状となっている。
そのため、 突当 5 0に対して、 ロボットのグリツノ、° 5 1によるヮ一 ク Wの突き当て状態が極めて不安定となり、 正確な位置決めができない 。 若し、 作業者がワーク Wを把持して位置決めする場合には、 その作業 者の長年の勘により、 正確な位置決めは可能であるかも知れないが、 口 ポットでは、 反復継続して正確な位置決めを行うことはできない。
更に、 図 26 (A) に示すように、 ワーク Wのコーナー部を曲げ線 m に沿って曲げ加工する場合には、 該ワーク Wを突当 50に突き当てて位 置決めすることができず、 また、 図 26 (B) に示すように、 曲げ線 m とワーク端面 Tが平行でない場合には、 ワーク Wを突当 50に突き当て ても位置決め精度が低下する場合があリ、 それぞれ所定の曲げ加工がで きない。
本発明の目的は、 曲げ加工装置において、 突当を用いた機械的な位置 決めが困難な場合であっても、 画像処理を用いた電子的な位置決めを行 うことにより、 ワークを正確に位置決めすることにある。 発明の開示
本発明は、 図 1に示すように、 所定の位置決め尺度 、 M2 ( (G ユ 、 G2 )、 (Nj , 又は N2 ) , (Κ,、 Κ2 ) ) について、 画像処 理により実測値 CD1、 CD2 ( (GD1、 GD2) 、 (ND1、 又は ND2)、 ( KD1、 KD2) ) と基準値 CR!、 CR2 ( (GR1、 GR2)、 (NR1、 又は N R2)、 (KR1、 KR2) ) を求める画像処理手段 40 Bを有し、 実測値 C D1、 CD2 ( (GD1、 GD2)、 (ND1、 又は ND2)、 (KD1、 KD2) ) と 基準値 CK1、 CR2 ( (Gm、 GR2)、 (NR1、 又は NR2)、 (KR1、 K R2) ) がー致するようにワーク Wを移動させて所定位置に位置決めする o
上記本発明の構成によれば、 所定の位置決め尺度を、 例えば、 ワーク
Wに形成された穴 Mi、 M2 (図 2 (A) ) 、 ワーク Wの外形線 、 G2 (図 2 (B) ) 、 ワーク Wのコーナ部 、 又は N2 (図 2 (C) ) 、 突当 15、 1 6の先端位置とワーク端面 Tの所定位置間の距離 K! 、 K2 (図 2 (D) ) とすれば、 このような位置決め尺度について、 ヮ —ク撮像手段 12を介して画像処理により求めた実測値 CD1、 CD2 ( ( GD1、 GD2)、 (ND1、 又は ND2)、 (KD1、 KD2) ) と、 情報 (CA D情報など) を介して画像処理により求めた基準値 CR CR2 ( (GRI 、 GR2)、 (NR1、 又は NR2)、 (KR1、 KR2) ) がー致するように、 例えばロボット駆動手段 40 Cを用いて、 ロボット 13を駆動制御すれ ば、 該ロボット 13で把持されたワーク Wを自動で移動させ所定位置に 位置決めすることができる。
又は、 上記位置決め尺度としての穴 、 M2 が (図 2 (A) )、 例 えば極めて単純な角穴 (例えば正方形の穴) の場合には、 前記実測値と 基準値を画面 40D (図 1)上に表示すれば、 作業者がこの画面 40D を見ながら実測値と基準値が一致するようにワーク Wを手動で移動させ 所定位置に位置決めすることができる。
本発明は、 具体的には、 第 1実施形態として、 図 3に示すように、 曲げ加工装置 1 1に取り付けたワーク撮像手段 12から入力されたヮ一 ク Wの画像 DWを検出するワーク画像検出手段 10Dと、 予め入力され た情報に基づいてワーク Wの基準画像 RWを算出するワーク基準画像算 出手段 1 0 Eと、 検出画像 DWと基準画像 RWを比較し両者のズレ量を 算出するズレ量算出手段 1 OFと、 該ズレ量に基づいて検出画像 DWと 基準画像 RWがー致するようにロボット 13を制御してワーク Wを所定 位置に位置決めさせるロボット制御手段 10Gを有する。
従って、 本発明の第 1実施形態によれば、 例えば予めワーク W上(図 4) の曲げ線 mに対して所定位置に、 穴から成る位置決めマーク 、 M2 を位置決め尺度として設けておけば、 上記ズレ量算出手段 1.0 Fが (図 3)検出画像 DW中の検出位置決めマーク MD1、 MD2 (図5 (A) ) と基準画像 RW中の基準位置決めマーク MR1、 MR2を比較し、 両者の 重心位置に関して、 二次元座標上において、 ズレ量厶 0 = 0。 — ( 図 5 (A) )、 Δ = Χ ! - X , ' (=χ2 — χ2 ' ) (図 5 (Β) ) 、 厶 y = y! - Ύ Χ ' (=y2 一 y2 ' )を算出することができ,る。 又は、 本発明の第 1実施形態の他の例によれば、 例えばワーク Wの外 形線 、 G2 を (図 9)位置決め尺度として利用し、 上記ズレ量算出 手段 1 OFが(図 3)検出画像 DW中 (図 1 1 (A) ) の検出ワーク外 形線 Gm、 GD2と基準画像 RW中の基準ワーク外形線 GR1、 GR2を比較 し、 二次元座標上において、 ズレ量 A6>=tan— 1 (D2 /L2 ) (図 1 1 (A) )、 Δχ = υχ +Τχ (図 1 1 (Β) )、 Ay = Vr — Ty を 算出することができる。
また、 本発明の第 1実施形態の更に他の例によれば、 例えばワーク W のコーナ部 N, 、 又は N2 を (図 12)位置決め尺度として利用し、 上 記ズレ量算出手段 1 OFが (図 3)検出画像 DW中 (図 13 (A) ) の 一方の検出コーナ部 ND2全体と、 基準画像 RW中の対応する一方の基準 コーナ部 NR2全体だけを比較し、 二次元座標上において、 ズレ量 ( 図 13 (A) )、 厶 X (図 1 3 (B) )、 Ayを算出することができる ο
従って、 上記ズレ量をロボット制御手段 10 Gが (図 3)補正駆動信 号 Sa、 Sb、 、 Sd、 Se に変換することにより、 該ロボット制 御手段 10Gによりロボット 13を介してワーク Wの曲げ線 mをパンチ Pの直下に位置決めすることにより、 該ワーク Wを所定位置に位置決め することができる。
更に、 本発明は、 具体的には、 第 2実施形態として、 図 15に示す ように、 曲げ加工装置 1 1に取り付けたワーク撮像手段 12から入力さ れたワーク画像 DWに基づいて突当 1 5、 1 6の先端位置 BR1、 BR2と ワーク端面 TD上の所定位置 AD1、 AD2間の距離 KD1、 KD2を検出する 距離検出手段 30 Dと、 予め設定された突当の先端位置 BR1、 BR2とヮ 一ク端面 TR上の所定位置 AR1、 AR2間の基準距離 KR1、 KR2を画像処 理により算出する基準距離算出手段 30 Eと、 検出距離と基準距離を比 較し両者の距離差を算出する距離差算出手段 30 Fと、 該距離差に基づ レ、て検出距離と基準距離が一致するようにロボットを制御してワークを 所定位置に位置決めさせるロボット制御手段 30 Fを有する。
本発明の第 2実施形態によれば、 例えば突当 15、 16の先端位置と ワーク端面 T上の所定位置間の距離 、 K2 を (図 16)位置'決め尺 度として利用し、 上記距離差算出手段 3 OFが(図 15)検出距離 KD1 、 KD2と、 基準距離 KR1、 KR2の差をとつて、 二次元座標上において、 距離差 Ay , 、 厶 y2 (図 1 8)を算出することができる。 この場合、 ワーク Wの曲げ加工装置 1 1上(図 1 5)の位置が一義的に定まるため には、 該ワーク Wを、 予め長手方向 (X軸方向) に位置決めしておく必 要があり、 そのため例えばサイドゲージ 18を(図 24 (A) ) )利用 し、 ロボット 13のグリツバ 14で把持したワーク Wの左端が (図 24 (B) ) 、 機械センタ MCから の位置に配置されるように、 ロボッ ト 13を所定の距離 XG
Figure imgf000007_0001
-Xi だけ移動させておく。
この状態で、 上記距離差 Ay i、 Ay2 をロボット制御手段 30 Fが (図 15)補正駆動信号 Sa、 Sb、 Sc、 Sd、 Se に変換すること により、 該ロボット制御手段 3 OFによりロポット 13を介してワーク Wの曲げ線 mをパンチ Pの直下に位置決めすることにより、 該ワーク W を所定位置に位置決めすることができる。
これにより、 本発明によれば、 曲げ加工装置において、 突当を用いた 機械的な位置決めが困難な場合であつても、 前記のような画像処理を用 いた電子的な位置決めを行うことにより、 ワークを正確に位置決めする ことが可能となる。 図面の簡単な説明
図 1は、 本発明の構成を示す全体図である。
図 2は、 本発明に使用される位置決め尺度を示す図である。
図 3は、 本発明の第 1実施形態を示す全体図である。
図 4は、 本発明の第 1実施形態による位置決めマーク 、 M2 を示 す図である。
図 5は、 本発明の第 1実施形態による画像処理を示す図である。 図 6は、 本発明の第 1実施形態が適用される曲げ加工装置 1 1の正面 図である。
図 7本発明の第 1実施形態が適用される曲げ加工装置 1 1の很!!面図で ある。
図 8は、 本発明の第 1実施形態の動作を説明するためのフローチヤ一 トである。
図 9は、 本発明の第 1実施形態の他の例 (ワーク外形線 、 G 2 を 用いた位置決め) を示す図である。
図 1 0は、 図 9における基準画像 RWを撮像する場合の例を示す図で ある。
図 1 1は、 図 9における画像処理を示す図である。
図 1 2は、 本発明の第 1実施形態において、 コーナ部 、 N2 を利 用して検出画像 DWと基準画像 RWを比較する場合の例を示す図であ る。
図 1 3は、 図 1 2の画像処理を示す図である。
図 1 4は、 図 1 2の他の例を示す図である。 図 1 5は、 本発明の第 2実施形態を示す全体図である。
図 1 6は、 本発明の第 2実施形態による位置決め尺度 、 K 2 を示 す図である。
図 1 7は、 図 1 6の具体例を示す図である。
図 1 8は、 本発明の第 2実施形態による画像処理を示す図である。 図 1 9は、 本発明の第 2実施形態によるワーク位置決め後の動作説明 図である (曲げ角度 Θの測定)。
図 2 0は、 図 1 9の画像処理を示す図である。
図 2 1は、 本発明の第 2実施形態に使用されるワーク撮像手段 1 2を 示す図である。
図 2 2は、 本発明の第 2実施形態による動作説明図である。
図 2 3は、 本発明の第 2実施形態の動作を説明するためのフローチヤ 一トである。
図 2 4は、 本発明の第 2実施形態による画像処理位置決めに先立って 行われるワーク長手方向位置決めを示す図である。
図 2 5は、 従来技術の説明図である。
図 2 6は、 他の従来技術の説明図である。 発明を実施するための最良の形態
以下、 本発明をより詳細に説述するために、 添付図面に従ってこれ を説明する。
図 3は、 本発明の第 1実施形態を示す全体図であり、 同図において 、 参照符号 9は上位 N C装置、 1 0は下位 N C装置、 1 1は曲げ加工 装置、 1 2はワーク撮像手段、 1 3はロボットである。
この構成により、上記上位 N C装置 9から、 曲げ加工装置 1 1の制 御装置である下位 N C装置 1 0へ例えば C AD情報を入力し (図 8の ステップ 1 0 1) 、 曲げ順などを決定した後 (図 8のステップ 1.02 ;) 、 突当 1 5、 1 6 (図 6) によるワーク Wの位置決めが不可能な場 合に (図 8のステップ 1 03の NO) 、 該下位 NC装置 1 0で所定の 画像処理によるワーク Wの位置決めを行い (例えば図 8のステップ 1 04〜1 08) 、 その後曲げ加工を行う (図 8のステップ 1 1 0)。 この場合の曲げ加工装置 1 1としては、 例えばプレスブレーキがあ り、 よく知られているように、 上部テーブル 20に装着されたパンチ Pと、 下部テーブル 21に装着されたダイ Dを有し、 後述するロボッ ト 1 3のグリツバ 1 4で把持された状態で位置決めされたワーク Wに 対して、 パンチ Pとダイ Dにより所定の曲げ加工を施す。
上記ロボット 1 3は、 ベースプレート 1に取り付けられ、 左右方向 (X軸方向)駆動部 aと (図 6)、 前後方向 (Y軸方向) 駆動部わと (図 3) 、 上下方向駆動部 cを有する。 また、 ロボット 1 3は、 その アーム 1 9の先端に、 前記グリッパ 1 4を有し、 該グリッパ 1 4は、 X軸に平行な軸線を中心として旋回自在であると共に、 Z軸に平行な 軸線を中心として旋回自在であり、 それらの駆動部 d、 eがアーム 1 9に内蔵されている。
この構成により、 ロボット 1 3は、 後述するロボット制御手段 1 0
Gから補正駆動信号 Sa、 、 Se、 Sd、 Se が送られて来ると 、 既述した各駆動部 a、 b、 c、 d、 eを動作させ、 これにより、 検 出画像 DWと基準画像 RWがー致するような制御が行われ (図 5)、 ヮ―ク Wが所定位置に位置決めされる。
上記プレスブレーキには (図 6)、 ワーク撮像手段 1 2が取り付け られ、 該ワーク撮像手段 1 2は、 例えば CCDカメラ 1 2 Aとその光 源 1 2Bにより構成され、 CCDカメラ 1 2Aは例えば上部テーブル
20の近傍に、 光源 1 2 Bは例えば下部テーブル 2 1の近傍にそれぞ れ取り付けられている。
この構成により、 前記ロボット 1 3のグリツバ 14で把持されたヮ ーク Wが、 CCDカメラ 12 Aで撮像され、 該ワーク Wの画像が一次 元の電気信号に変換され後述する下位 NC装置 10 (図 3)のワーク 画像検出手段 10Dで二次元の電気信号に変換されることにより'、 ズ レ量算出手段 1 OFで、 検出画像 DWと基準画像 RWが比較される ( 図 5 (A) )。
この場合、 ヮ一ク Wに設けられた位置決め尺度としての例えば 2つ の位置決めマーク M!、 M2 (図 4) を撮像すべく、 前記 CCDカメ ラ 12 Aとその光源 12Bは、 プレスブレーキ (図 6)の左右方向に 一対設けられている。 即ち、 ワーク Wには (図 4)、 プレスブレーキ による曲げ加工前のブランキング工程において、 パンチプレスゃレ一 ザ加工機などを用いて、 該ワーク Wの曲げ加工に支障がない位置であ つて、 曲げ線 mから所定の位置に穴 M,、 M2 が形成されている。
或いは、 CAD情報の中に沢山の穴情報がある場合には、 下位 NC 装置 10の操作盤 (10 J) に表示された展開図に対して、 作業者が 任意に指定して位置決めマーク M! 、 M2 を決定してもよい。
そして、 この穴 M!、 M2 は (図 4)、 前記したように、 位置決め 尺度の一例である位置決めマーク 、 M2 として用いられ、 ズレ量 算出手段 1 OF (図 3) において、 後述するように、 ワーク Wの検出 画像 DWと基準画像 RWとを比較する場合の比較対象となる (図 5 ( A) )。
これにより、 ズレ量算出手段 1 OFは、 基準位置決めマーク MR1、 MR2に対する検出位置決めマーク MD1、 MD2のズレ量 Δ6> = 6>。 一 Θ 1 (図 5 (Α) )、 Δχ = Χ! - Χ ι ' ( = χ2 — χ2 ' ) (図 5 ( Β) )、 Ay = yi -yi ' (=y2 -y2 ' )を算出する。 この場合、 ワーク Wに設けられた位置決めマ一ク1^, 、 M2 は (図 4) 、 必ずしも左右対称とは限らず、 既述したように、 ワーク Wの曲げ 加工に支障がない位置であつて、 曲げ線 mから所定の位置に形成されて レ、る。 従って、 前記左右ー对の CCDカメラ 1 2 Aとその光源 1 2Bは (図 6) 、 それぞれ独立して移動自在となっている。
例えば、 一対の CCDカメラ 1 2 Aと光源 1 2Bは、 モータ MAX · ピ 二オン 2 ·ラック 3機構とモータ MBX■ピニオン 4 ·ラック 5機構によ り、 X軸ガイド 7と 8に沿って左右方向 (X軸方向) に (図 6) 、 また モータ MAY ·ポールねじ 6機構により (図 7) 、 Y軸ガイド 1 7に沿つ て前後方向 (Y軸方向) に、 それぞれ独立して移動するようになってい また、 ワーク W上の位置決めマーク 、 M2 が、 図 4のような丸穴 ではなく、 角穴の場合には、 後述するように (図 1 4) 、 1つであって も、 検出画像 DWと基準画像 RWの比較はできるので、 この場合には、 左右いずれか一方の CCDカメラ 1 2 Aと光源 1 2 Bが使用される。 更に, 上記プレスブレーキを構成する下部テーブル 21の後方には ( 図 7)、 従来どおりワーク Wを位置決めする場合に (図 8のステップ 1 03の YES、 ステップ 1 09) 使用する突当 1 5、 1 6が設けられて いる。
上記構成を有するプレスブレーキの制御装置としては、 既述した上位 NC装置 9と (図 3)、 下位 NC装置 1 0があり、 上位 NC装置 9は、 事務所などに、 下位 NC装置 1 0は、 工場内などのプレスブレーキに ( 図 6) それぞれ取り付けられている。
このうち、 上位 NC装置 9には、 CAD情報が内蔵され、 該 CAD情 報は、 ワーク Wの板厚、 材質、 曲げ線 m (図 4) の長さ、 位置決めマ— ク 、 M2 の位置などのワーク情報、 製品の曲げ角度などの製品情報 を含み、 これらが三次元立体図、 展開図として構成されている。
これらの情報から成る C A D情報は、 下位 NC装置 1 0に入力され ( 図 8のステップ 1 0 1)、 例えば、 本発明の画像処理によるワーク Wの 位置決めに用いられる。
下位 NC装置 1 0は (図 3) 、 CPU 1 OAと、 情報演算手段 1 0 B と、 撮像制御手段 1 0Cと、 ワーク画像検出手段 1 0Dと、 ワーク基準 画像算出手段 1 0 Eと、 ズレ量算出手段 1 0 Fと、 ロボット制御手段 1 0 Gと、 曲げ制御手段 1 0Hと、 入出力手段 1 0 Jにより構成されてい 。
CPU 1 OAは、 本発明の画像処理加工プログラム (図 8に相当) に 従って、 情報演算手段 1 0B、 ワーク画像検出手段 1 0Dなどを統括制 御する。
情報演算手段 1 0 Bは、 後述する入出力手段 1 0 Jを介して前記上位 N C装置 9から入力された C A D情報に基づレ、て、 曲げ順などワーク W の位置決めや曲げ加工に必要な情報を演算することにより、 決定する ( 図 8のステップ 1 02) 。
この情報演算手段 1 0Bで演算し決定される情報には、 曲げ順の他に 、 使用する金型 (パンチ Pとダイ D) , どの金型を上部テーブル 20と 下部テーブル 21のどの位置に配置するかといった金型レイァゥト、 ヮ ーク Wをプレスブレーキへ位置決め供給するロボット 1 3の動作加工プ ログラムも含まれる。
これにより、 例えば、 突当 1 5、 1 6によるワーク Wの位置決めが可 能か否かが判断され(図 8のステップ 1 03)、 不可能な場合には (N 0) 、 本発明による画像処理を用いたワーク Wの位置決めが行われる ( 図 8のステップ 1 04〜1 08) 。
撮像制御手段 1 0Cは、 前記情報演算手段 1 0 Bで決定された曲げ順 、 金型レイアウト、 位置決めマーク Mi、 M2 の位置などに基づいて、 既述した CCDカメラ 1 2 Aと光源 1 2 Bから成るワーク撮像手段 1 2 の移動制御を行うと共に、 該 CCDカメラ 1 2Aの視野範囲 (図 5 (A ) ) の制御など撮像動作を制御する。
ワーク画像検出手段 1 0Dは (図 3)、 既述したように、 前記ワーク 撮像手段 1 2から送られて来た一次元の電気信号から成るワーク Wの位 置決めマーク 、 M2 を含む画像を、 二次元の電気信号に変換する。 これにより、 ワーク Wの検出画像 DW (図 5 (A) ) が得られ、 該ヮ —ク W上の位置決めマーク 、 M2 は (図 4) 、 検出位置決めマーク MD1、 MD2 (図 5 (A) ) として、 後述する基準位置決めマーク MR ,、 ΜΚ2との比較対象となる。
今、 二次元座標上において、 検出位置決めマーク MD1、 MD2の重心位 置 Cm、 CD2を次のように表すものとする。
重心位置 CD1 (X, ', y ) 、 CD2 (x2 ' , y2 ' ) ··· ·① また、 ①より、 検出位置決めマーク MD1、 MD2の偏角 は、 次のよう に衣せる。
偏角 =tan -1 { (y2 ' -y i ' ) / (x2 ' -Xi ' ) } · · • '②
これら①、 ②は、 後述するように、 ズレ量算出手段 1 OFにより、 ズ レ量を算出する場合に用いられる。
ワーク基準画像算出手段 1 0 Eは、 前記情報演算手段 1 0 Bで決定さ れた曲げ順、 金型レイアウト、 位置決めマーク 、 M2 の位置などに 基づいて、 基準位置決めマーク MR1、 MR2を含む基準画像 RWを算出す る (図 5 (A) )。
この場合、 同様に、 二次元座標上において、 基準位置決めマーク MR1 、 MR2の重心位置 CR1、 CR2を次のように表すものとする。 重心位置 Cm (xi , )、 CR22, y2 ) · · · ·® また、 ③より、 基準位置決めマーク MR1、 MR2の偏角 0。 は、 次のよ うに表せる。
偏角 0。 =tan _1 { (y2 -yi ) / (x2 -Xi ) } · · · ·④ これら⑧、 ④は、 同様に、 ズレ量算出手段 1 OFにより、 ズレ量を算 出する場合に用いられる。
ズレ量算出手段 1 OFは、 前記①から④までの式で表せる重心位置と 偏角を有する検出位置決めマーク MD ,、 MD 2と基準位置決めマ一ク MR i
、 MR2を含む検出画像 DWと基準画像 RWを入力し、 両者の差分から、 ズレ量を算出する。
例えば、 上記②と④とから、 検出位置決めマーク MD1、 MD2の基準位 置決めマーク MR1、 MR2に対する角度のズレ量 は、
ズレ量 Δ 0 = 6»。 — 0, ⑤
となる。
これにより、 ⑤で表せるズレ量 だけ検出画像 DWを回転させると すると、 図 5 (B) に示すように、 該検出画像 DWと基準画像 RWは、 平行になる。
従って、 X軸方向のズレ量厶 と、 Y軸方向のズレ量 Ayは、
X軸方向のズレ量 Δχ = χ, -Xi ' (=χ22 ' ) · ·'· '⑥ Υ軸方向のズレ量 Ay = y ! -yi ' (=y2 — y2 ' ) · · ■ ·⑦ となる。
また、 ロボット制御手段 10Gは (図 3)、 ⑤〜⑦の式で表せるズレ 量に基づいて検出画像 DWと基準画像 RWがー致するようにロボット 1 3を制御してワーク Wを所定位置に位置決めさせる。
即ち、 口ポット制御手段 10 Gは、 前記ズレ量算出手段 10 Fからズ レ量 Δ0Δχ、 Ayを入力すると、 それらを補正駆動信号 Sa、 Sb、 Sc、 Sd、 Se に変換し、 各信号をロボット 1 3に送信する。
これにより、 ロボット 1 3は、 それを構成する各駆動部 a、 b、 c、 d、 eを動作させることにより、 グリッパ 1 4で把持したワーク Wを、 ズレ量 Δ 0 = 6»。 —θ だけ回転させ (図 5 (Α) ) 、 その後ズレ量厶 X = X 1 - X 1 (=χ2 - 2 ) と、 スレ量 Ay = yi - y i ' ( =y2 -y2 ) だけ X軸方向、 Y軸方向に移動させる (図 5 (B) ) 従って、 検出画像 DWと基準画像 RWがー致するような制御が行われ 、 ワーク Wを所定位置に位置決めすることができる。
曲げ制御手段 1 0 Hは (図 3 )、 前記情報演算手段 1 0 Bで決定され た曲げ順などに基づいて、 プレスブレーキを制御し、 前記位置決めされ たヮーク Wに対して、 パンチ Pとダイ Dにより曲げ加工を施す。
入出力手段 1 0 Jは、 例えばプレスブレーキを (図 6)構成する上部 テーブル 20の近傍に設けられ、 キーボードや液晶などの画面から成る 。 この入出力手段 1 0 Jは、 既述した上位 NC装置 9に (図 3) 対する インタ一フェース機能を有し、 これにより、 下位 NC装置 1 0を有線又 は無線で上位 N C装置 9に接続することにより、 前記 C A D情報を入力 することができる。
また、 入出力手段 1 0 Jは、 その画面上に、 前記情報演算手段 1 0 B で決定された曲げ順や金型レイァゥトなどの情報を表示することにより 、 その表示を作業者が見ることにより、 突当 1 5、 1 6によるワーク W の位置決めが可能か否かの判断を (図 8のステップ 1 03) 自動的にで はなく、 作業者自身で判断できる。
図 9〜図 1 1は、 既述した位置決めマーク 、 M2 (図 4) の代わ りに、 ワーク Wの外形線 、 G2 (図 9) を位置決め尺度として利用 する場合であり、 後述するように、 ズレ量算出手段 1 O F (図 3) は、 このワーク外形線 Gi 、 G2 を、 ワーク Wの検出画像 DWと基準画像 R Wとを比較する場合の比較対象とする (図 1 1) 。
これにより、 ズレ量算出手段 1 O Fは、 基準ワーク外形線 GR1、 GR2 に対する検出ワーク外形線 GD1、 GD2のズレ量 A0=tan— 1 (D2 /L 2 ) (図 1 1 (A) ) 、 厶 x = Ux +TX (図 1 1 (Β) ) 、 Ay = U y — Ty を算出す 0。
この場合、 基準ワーク外形線 GR1、 GR2は、 作業者が所定位置に位置 決めしたワーク Wを前記 CCDカメラ 1 2 Aで撮像して予めメモリに格 納しておく。
例えば、 ワーク Wの (図 1 0) コーナー部を曲げ加工する場合には、 既述したダイ Dのホルダ 22に取付部材 23、 24を介してサイドスト ッパ 25、 26を取り付けると共に、 該サイドストッパ 25、 26に、 チェッカ A、 B、 Cを設けておく。
この状態で、 作業者がこのサイドストツバ 25、 26にワーク'外形線 Gi . G2 を当接させ、 該ワーク外形線 、 G2 をチェッカ A、 B、 Cと共に前記 CCDカメラ 1 2Aで撮像すると、 該ワーク外形線 、 G2 とチェッカ A、 B、 Cの画像が一次元の電気信号に変換され、 更に 下位 NC装置 1 0 (図 3) のワーク画像検出手段 1 0Dで二次元の電気 信号に変換されることにより、 CPU 1 OAを介してワーク基準画像算 出手段 1 0Eのメモリに格納される。
そして、 ズレ量算出手段 1 O Fにおいて、 このメモリに格納されたヮ ーク外形線 、 G2 の画像は、 基準ワーク外形線 GR1、 GR2 (図 1 1 ) として、 またチェッカ A、 B、 Cの画像は、 画像データを検出するェ リアとして、 それぞれ使用され、 検出画像 DWと基準画像 RWが比較さ れる。
即ち、 図 1 1において、 破線で示す基準画像 RWは、 前記ワーク基準 画像算出手段 10Eのメモリに格納された基準ワーク外形線 GR1、 GR2 を含み、 実線で示す検出画像 DWは、 ロボット 13のグリツバ 14で把 持されたワーク Wを CCDカメラ 12 Aで撮像した場合の検出ワーク外 形線 GD1、 GD2を含む。
この場合、 図 1 1 (A)の二次元座標上において、 チヱッカ A、 Bの X軸方向座標を xe、 xb とし、 一方の基準ワーク外形線 GR1とチエツ 力 Aとの交点を第 1基準点 (xa, ya )、 該一方の基準ワーク外 形線 GR1とチェッカ Bとの交点を第 2基準点 R2 (xb, yb ) とし、 一方の検出ワーク外形線 Gmとチェッカ Aとの交点を E (xa , ya ' ) 、 該一方の検出ワーク外形線 GD1とチェッカ Bとの交点を F (xb , y b ' ) とする。
このとき、 図 1 1 (A) において、 検出ワーク外形線 GD1の第 1基準 点 (xa , ya ) に対する Y軸方向の偏差 Da と、 該検出ワーク外 形線 GD1の第 2基準点 R2 (xb , yb ) に対する Y軸方向の偏差 Db は、 それぞれ次のように表される。
Figure imgf000018_0001
=y a - a ' (1)
Db =F (Xb , yb ' ) -R2 (Xb , y¾ )
Figure imgf000018_0002
従って、 上記検出ワーク外形線 GD1の平行に引いた線 Hと、 チェッカ Aとの交点を Sとすれば、 この交点 Sと前記第 1基準点 R, (xa , y a ) との間の距離 は、 前記(1)、 (2)の Da、 Db を用いて次 のように表せる。
Figure imgf000018_0003
ここで、 上記基準ワーク外形線 GR1の Y軸方向に対する偏角を 0 (図 1 1 (Α) ) とすれば、 該基準ワーク外形線 GR1と垂線 Vとの交点 と 、 前記交点 Sとの距離 D2 は、 図から明らかなように、 偏角 と上記 ( 3) の を用いて次のように表せる。
Figure imgf000019_0001
また、 両チヱッカ Α、 Βの X軸方向の距離を L】 =xb -xa とすれ ば、 前記第 1基準点 (χΛ , ya ) と第 2基準点 R2 (xb , yb ) との距離 Ρは、 この と上記偏角 Θを用いて、 更に、 第 1基準点 R 1 (xa , ya ) と交点 Kとの距離 Qは、 (3) の と同様に上記偏 角 Θを用いて、 それぞれ次のように表せる。
P = L3 /sin θ (5)
Figure imgf000019_0002
従って、 第 2基準点 R 2 (x¾ , y¾ ) と交点 Kとの距離 L 2.は、 図 から明らかなように、 上記(5)、 (6)でそれぞれ表せる P、 Qの和 であることから、 次のように表せる。
L2 =P + Q
Figure imgf000019_0003
これにより、 検出ワーク外形線 GD1の基準ワーク外形線 GR1に対す る角度のズレ量 Δ6>は、
A0=tan - 1 (D2 /L2 ) (8)
となる。
この (8) において、 D2 は (4) により、 L2 は (7)によりそれ ぞれ表せるから、 (8) に (4) と (7) を代入すれば、 ズレ量 は 、 と と Θで表すことができ、
A0=tan -1 (D2 /L2 )
= tan 1 {Di xsin Θ/ (Li /sin Θ+Di xcos Θ) } · · (9) となる。
因に、 既述した基準ワーク外形線 G R iの Y軸方向に対する偏角 Sを 4 5 ° とすれば、 上記 ( 9) は、 tan— 1 {Or / (2 xL1 +D, ) } と なり、 より簡便に表すことができる。
次いで、 上記検出画像 DWを、 チヱッカ Bとの交点 F (xb , yb ' ) を中心として、 (9) で表せるズレ量 Δ6»だけ回転させるとすると、 図 1 1 (B) に示すように、 該検出画像 DWと基準画像 RWは、平行に なる。
この場合、 図 1 1 (B) の二次元座標上において、 一方の基準ワーク 外形線 GR1とチェッカ Bとの交点である第 2基準点 R2 (xb, y¾ ) 、 及び一方の検出ワーク外形線 GD1とチェッカ Bとの交点 F (x¾ , y b ' ) は、 前記図 1 1 (A) の場合と同じである。
従って、 互いに平行な検出ワーク外形線 GD1と基準ワーク外形線 GR1 との距離 Tは、 既述した偏差 Db と偏角 0を用いて次のように表せる。
T = Db xsin θ (1 0) この Τの X軸方向成分 Τχ と Υ軸方向成分 Ty を求めれば、
Tx =Txcos Θ=Ό^ xsin 6>xcos Θ · - · · (1 1)
Ty =Txsin 0=Db xsin 6> (1 2) となる。
また、 図 1 1 (B) の二次元座標上において、 チェッカ Cの X軸方向 座標を xc 、 他方の基準ワーク外形線 GR2とチェッカ Cとの交点を第 3 基準点 R3 (Xc , yc ) とし、 他方の検出ワーク外形線 GD2とチエツ 力 Cとの交点を J (Xc , 7c ' ) とする。
このとき、 図 1 1 (B) において、 他方の検出ワーク外形線 GD2の第 3基準点 R 3 (Xc, yc ) に対する Y軸方向の偏差 Dc は、 次のよう に表される。
Dc =R3 (Xc , yc ) - J (Xc , yc ' )
=yc -yc ' ( 1 3) 従って、 平行な検出ワーク外形線 GD2と基準ヮ一ク外形線 GR2との距 離 Uは、 上記 (13)で表せる偏差 Dc と偏角 Θを用いて次のように表 せる。
Figure imgf000021_0001
この Uの X軸方向成分 Ux と Y軸方向成分 Uy を求めれば、
Ux =Uxsin θ = Όο xsin Θ xcos θ · · - · (15)
Uy =Uxcos θ = Όο Χοοτι2θ (1 6) となる。
従って、 この (15)、 (16)で表せる Ux、 Uy と、 前記(1 1 ) 、 (12)で表せる Tx、 Τ を用いて、 X軸方向のズレ量と、 Υ軸 方向のズレ量 Ayは、 次のように表せる。
X軸方向のズレ量 Δχ = υχ +Τχ
= (Do +Db ) xsin Θ xcos Θ · · (1 7) Y軸方向のズレ量 Ay = Uy — Ty
=Dh xsin20-Dc x on2 Θ · · · · (18) これにより、 図 9〜図 1 1のワーク外形線 G,、 G2 を位置決め尺度 として利用する場合には、 ロボット制御手段 1 0 Gは (図 3)、 (9) と (17) と (1 8)で表せるズレ量に基づいて検出画像 DWと基準画 像 RWがー致するようにロボット 13を制御してワーク Wを所定位置に 位置決めさせる。
図 12〜図 14は、 既述した位置決めマーク 、 M2 (図 4)や、 ワーク Wの外形線 、 G2 (図 9) の代わりに、 ワーク Wのいずれか 一方のコーナ部 、 又は N2 (図 12) を位置決め尺度として利用す る場合であり、 ズレ量算出手段 1 OF (図 3) は、 このいずれか一方の コーナ部 、 又は N2 を、 ワーク Wの検出画像 DWと基準画像 RWと を比較する場合の比較対象とする (図 13)。 これにより、 1つのワーク撮像手段 12 (図 3)、 即ち 1台の CCD カメラ 12 Aにより、 いずれかのコーナ部 又は N2 だけを撮像すれ ば、 ズレ量算出手段 1 OFは (図 3)、 基準コーナ部 NR2全体に対する 検出コーナ部 ND2全体のズレ量 (図 13 (A) )、 Δχ (図 1 3 ( Β) )、 Ayを算出することができる。
従って、 ロボット制御手段 30 Gは (図 3)、 上記ズレ量 Δ0、 Δχ 、 Ayに基づいて、 一度で検出画像 DWと基準画像 RWがー致するよう にロボット 13を制御してワーク Wを所定位置に位置決めすることがで さる。
即ち、 既述した位置決めマーク 、 M2 (図 4)や、 ワーク Wの外 形線 G,、 G2 (図 9) の場合には、 検出画像 DWと基準画像 RWを比 較する場合には (図 5、 図 1 1)、 2台の CCDカメラ 12Aを使用し 、 2つの位置決めマーク 、 M2 の位置や、 2つのワーク外形線 、 G2 の位置が決定されなければ、 ワーク Wの位置決めができない。
しかし、 本発明のような画像処理によるワーク Wの位置決めの場合に は、 検出画像 DWと基準画像 RWを比較するときの比較対象としては、 コーナ部 Ni、 N2 を利用する頻度が極めて多く、 ぼぼ全体の 80 を 占めている。
そのため、 後述するように、 1台の CCDカメラ 12Aを使用するだ けで、 いずれか一方のコーナ部 、 又は N2 の位置を決定すれば、 検 出画像 DWと基準画像 RWの比較が可能となり, 一度でズレ量が補正さ れて画像処理によるヮ一ク Wの位置決めができるので、 ヮ一ク Wの位置 決め作業を含めた全体の加工効率は著しく向上する。
このように、 コーナ部 、 N2 のいずれか一方の全体を撮像し、 検 出画像 DWと基準画像 RWの比較対象とする例としては、 先ず、 '図 12 (A) に示すワーク Wの外形がある。 この場合、 コーナ部 、 又は N2 の角度としては、 鋭角、 鈍角、 直 角など何でもよく、 また、 Rでもよい (図 12 (B);) 。
しかし、 これらコーナ部 、 又は N2 の一部ではなく、 全体を CC Dカメラ 12Aで撮像しなければ、 ズレ量、 特に角度方向のズレ量 (図 13) は補正できない。
このようなコーナ部 、 N2 を利用して、 検出画像 DWと基準画像 RWを比較する場合の例を図 13に基づいて説明する。
図 13 (A) において、 例えば右側の CCDカメラ 12Aで撮像した コーナ部 N 2 全体の画像を、 ワーク画像検出手段 10D (図 3) に入力 すれば、 検出画像 DWの一部としての検出コーナ部 ND2が得られる。 従って、 この検出コーナ部 ND2を、 ワーク基準画像算出手段 10E ( 図 3)で予め算出された基準コーナ部 NR2と共に、 ズレ量算出手段 10 Fに入力すれば、 検出コーナ部 ND2全体と基準コーナ部 NR2全体の角度 方向のズレ量 Δ 6»が算出される。
更に、 上記検出コーナ部 ND2を含む検出画像 DWと (図 13 (B) ) 、 基準コーナ部 NR2を含む基準画像 RWが、 平行となるように、 上記算 出した角度方向のズレ量 だけ、 前記検出コーナ部 ND2を回転させる これにより、 ズレ量算出手段 1 OFは (図 3)、 検出コーナ部 ND2全 体と (図 13 (B) ) 、 基準コーナ部 NR2全体の Y軸方向のズレ量 Δχ 、 Ayを算出することができる。
従って、 ロボット制御手段 30 G (図 3) を介して、 ロボット 13の グリツノ、°14で (図 13)把持されたワーク Wを、 上記ズレ量 ΔΘだけ 回転させると共に、 ズレ量 Δχ、 厶 yだけ X軸方向と Υ軸方向に移動さ せれば、 検出画像 DWと基準画像 RWがー致するような制御が行われ、 ワーク Wを所定位置に位置決めすることができる。 また、 コーナ部 、 N2 のいずれか一方を、 検出画像 DWと基準画 像 RWの比較対象とする適用例としては、 図 1 4に示す角穴 、 M2 がある。
例えば、 曲げ線 m (図 1 4) から所定位置 y 1、 y 2に、 位置決めマ —クとして角穴 M,、 M2が形成されている場合には、 いずれか一方の コーナ部 N! 又は N2 の全体を、 CCDカメラ 1 2Aで撮像する。 そして、 例えば図 1 4の右側の CCDカメラ 1 2Aで撮像したコーナ 部 N2全体の画像を、 検出コーナ部 ND2とし (図 1 3に相当) 、 予め算 出された基準コーナ部 NR2と比較する。
これにより、 同様に、 角度方向のズレ量 と、 X軸方向のズレ量 Δ と、 Y軸方向のズレ量 Ayが、 ズレ量算出手段 1 OF (図 3) ·で算出 され、 これらのズレ量に基づいて、 ロボット制御手段 30 Gにより、 検 出画像 DWと基準画像 RWとが一致するような制御が行われ、 ワーク W を所定位置に位置決めすることができる。
以下、 前記構成を有する本発明の第 1実施形態の動作を図 8に基づい て説明する。
( 1 ) 突当 1 5、 1 6によるワーク Wの位置決めが可能か否かの判断。 図 8のステップ 1 0 1において、 CAD情報を入力し、 ステップ 1 0 2において、 曲げ順などを決定し、 ステップ 1 03において、 突当 1 5 、 1 6によるヮ一ク Wの位置決めが可能か否かを判断する。
即ち、 上位 NC装置 9 (図 3) から下位 NC装置 1 0へ CAD情報が 入力されると、 上位 NC装置 9を構成する情報演算手段 1 0Bにより、 曲げ順などが決定され、 それに基づいて、 自動 (例えば CPU 1 OAの 指示により情報演算手段 1 0 Bが判断)又は手動 (既述した作業者が入 出力手段 1 0 Jの画面を見ることにより判断) により、 突当 1 5、 1 6 によるヮーク Wの位置決めが可能か否かが判断される。 そして、 突当 1 5、 1 6による位置決めが可能である場合には (図 8 のステップ 1 03の YES) 、 ステップ 1 09に進み、 従来どおり、 突 当 1 5、 1 6にワーク Wを突き当てることにより位置決めを行う。 しかし、 突当 1 5、 1 6による位置決めが不可能な場合には (図 8の ステップ 1 03の NO) 、 次段のステップ 1 04に進み、 本発明による 画像処理を用レ、た位置決めが行われる。
(2) 画像処理を用いた位置決め動作。
図 8のステップ 1 04において、 ワーク Wの基準画像 RWを算出し、 ステップ 1 05において、 ワーク Wの画像を検出し、 ステップ 1 06に おいて、 検出画像 DWと基準画像 RWとを比較し、 ステップ 1 07にお いて、 両者にズレがあるか否かを判断する。
即ち、 この場合のように、 突当 1 5、 1 6による位置決めが不可能な 場合には、 予めワーク基準画像算出手段 1 0 Eは、 情報演算手段 1 0 B の決定に基づいて、 基準画像 RWを算出しておき (図 5 (A) ) 、 それ を例えばメモリ (図示省略) などに格納しておく。
この状態で、 下位 NC装置 1 0 (図 3) の CPU 1 OAは、 撮像制御 手段 1 0 Cを介してワーク撮像手段 1 2を構成する CCDカメラ 1 2 A とその光源 12 Bを移動制御し、 ロボット 1 3のグリッパ 14で把持さ れたワーク Wを撮像する。
撮像されたワーク Wの画像は、 ワーク画像検出手段 1 0Dに送られて 、 検出画像 DWが得られ、 次段のズレ量算出手段 1 OFにおいて、 前記 メモリに格納されている基準画像 RWとの比較が行われる (図 5 (A)
) o
そして、 ズレ量算出手段 1 OFにおいては、 検出画像 DWと基準画像 RWのズレ量(前記⑤〜⑦) 力算出され、 このズレ量がゼロ、 即ち両者 にズレがなければ(図 6のステップ 1 07の NO) 、 その時点で位置決 め完了となり、 ステップ 1 1 0で曲げ加工が行われる。
しかし、 検出画像 DWと基準画像 RWの間にズレがある場合には (図 8のステップ 1 07の YES)、 ステップ 1 08において、 ロボット 1 3によるヮーク Wの位瘇決めが行われる。
即ち、 検出画像 DWと基準画像 RWの間に (図 5 (A) ) ズレがある 場合には, ズレ量算出手段 1 OFは、 算出した上記ズレ量 (⑤〜⑦) を ロボット制御手段 1 0 Gに送信する。
これにより、 ロボット制御手段 1 0Gは、 上記ズレ量 (⑤〜⑦) を補 正駆動信号 Sa、 S¾、 Sc、 Sd、 Se に変換し、 この信号をロボッ ト 1 3に送信することにより、 検出画像 DWと基準画像 RWが (図 5 ( B) )一致するように、 該ロボット 1 3の駆動部 a、 b、 c、 d、 eを 制御してワーク Wを所定位置に位置決めする。
このようにして、 ロボット 1 3によるワーク Wの位置決めが行われた 場合には、 その後、 確認のために、 図 8のステップ 1 05に戻って、 再 度その位置決めされたワーク Wの画像を CCDカメラ 1 2Aで撮像後、 ワーク画像検出手段 1 0Dで検出し、 ステップ 1 0 6で基準画像 RWと 比較し、 ステップ 1 07で両者のズレがないと判断された場合に (NO ) 、 初めて位置決め完了となり、 ステップ 1 1 0へ進む。
( 3 ) 曲げ加工動作。
上記検出画像 DWと (図 3 ) 基準画像 RWを入力したズレ量算出手段 1 O Fが、 両者間にズレがないと判断した場合には、 該ズレ量算出手段 1 O Fから CPU 1 OAへその旨の連絡が送られ、 CPU 1 0 Aは、 今 度は曲げ制御手段 1 0Hを介して、 ラムシリンダ (図示省略) などを起 動することにより、 前記ロボット 1 3のグリッパ 1 4で把持されたヮ一 ク Wにパンチ Pとダイ Dで曲げ加工が施される。
また、 従来どおり、 突当 1 5、 1 6にワーク Wを突き当てることによ り位置決めを行った場合には (図 8のステップ 109) 、 該突当 15、 1 6に取り付けられたセンサ (図示省略) から CPU 1 OAへ位置決め 完了信号が送信され、 それに基づいて、 前記と同様に、 曲げ制御手段 1 0Hを介してラムシリンダが起動され、 ロボット 1 3のグリッパ 14で 把持されたワーク Wにパンチ Pとダイ Dで曲げ加工が施される。
(4) ワーク外形線 、 G2 を利用する場合の位置決め動作。
即ち、 図 9〜図 1 1に示すワーク外形線 G!、 G2 を位置決め尺度と して利用する位置決め動作の場合も、 位置決めマ一ク!^!, 、 M2 (図 4 ) の場合と全く同様に図 8の手順に従う。
但し、 既述したように、 位置決めマーク Mi、 M2 (図 4) について は、 その基準位置決めマーク MR1、 MR2 (図 5) を構成する画像データ が、 上位 NC装置 9 (図 3) に内蔵された CAD情報に含まれているの に対して、 このワーク外形線 、 G2 (図 9) については、 その基準 ワーク外形線 GR1、 GR2 (図 1 1)を構成する画像データは、 上記 CA D情報には含まれていず、 作業者が、 ワーク Wを所定位置に位置決めし (例えば図 10)、 そのワーク外形線 、 G2 を CCDカメラ 12 A で撮像することにより初めて得られる点が異なる。
しかし、 上記基準ワーク外形線 GR1、 GR2を、 基準位置決めマーク M R1、 MR2と同様に、 CAD情報に含ませても良い。
(5) ワーク Wのコーナ部 、 N2 を利用する場合の位置決め動作。 即ち、 図 12〜図 14に示すコーナ部 、 N2 を位置決め尺度とし て利用する位置決め動作の場合も、 位置決めマーク 、 M2 (図 4) や、 ワーク外形線 G, 、 G2 (図 9)の場合と全く同様に図 8の手順に 従つ o
しかし、 既述したように、 位置決めマーク M,、 M2 (図 4)などと 異なり、 いずれか一方のコーナ部 (図 12)、 又は N2 の画像を、 1台の CCDカメラ 1 2 Aだけを使用して撮像すれば、 画像処理により (図 1 3) 検出画像 DWと基準画像 RWの比較が可能となり、 ズレ量 Δ 0、 厶 x、 Ayを一度に補正することにより、 ワーク Wを所定位置に位 置決めすることができるので、 全体の加工効率が向上する。
図 1 5は、 本発明の第 2実施形態を示す全体図である。
図 1 5において、 参照符号 29は上位 NC装置、 30は下位 NC装置 、 1 1は曲げ加工装置、 1 2はワーク撮像手段、 1 3はロボットである o
この構成により、 上記上位 NC装置 29から、 曲げ加工装置 1 1の制 御装置である下位 NC装置 30へ例えば C A D情報を入力し (図 23の ステップ 20 1) 、 突当 1 5 (図 1 8)、 1 6の先端位置 BR1、 BR2と 、 ワーク画像 RWの端面 TR上の所定位置 AR1、 AR2の設定などを行つ た後 (図 23のステップ 202〜204) 、 該下位 NC装置 30で所定 の画像処理によるワーク Wの位置決め制御を行い (図 23のステップ 2 05〜208) 、 更にパンチ Pが (図 1 9 (B) ) ワーク Wに接触した 後 (ピンチングポイント後) 突当 1 5との距離 を検出することによ り曲げ角度 Θを間接的に測定し、 曲げ加工制御を行う (図 23のステツ プ 209〜 21 3 )。
これにより、 ワーク Wの位置決めと曲げ角度 Θの沏 J定を 1つの装置で 行うことができて、 システムの簡素化を図ることが可能となる。 .
この場合の曲げ加工装置 1 1と (図 1 5) ロボット 1 3については、 前記第 1実施形態 (図 3) と同じであるが、 ワーク撮像手段 1 2である CCDカメラ 1 2Aとその光源 1 2 Bの取付け箇所、 及び移動機構が、 第 1実施形態と異なる。
即ち、 既述したように、 プレスブレーキを構成する下部テーブル 2 1 の後方には、 突当 1 5、 1 6が設けられている。 そして、 図 21に示すように、 例えば突当 1 5は、 突当本体 28を介 してストレッチ 27上に取り付けられているが、 第 2実施形態では、 こ の突当本体 28に、 CCDカメラ 1 2 Aが取り付けられている。
また、 突当本体 28に、 取付板 28 Aを設け、 該取付板 28 Aに、 ヮ —ク Wに対して透過光を供給する光源 1 2 Bが取り付けられている。 これにより、 突当 1 5が X軸方向と Y軸方向と Z軸方向に移動するに 伴って、 CCDカメラ 1 2 Aと光源 1 2 Bも同方向に移動するので、 第 1実施形態 (図 3) と異なり、 CCDカメラ 1 2Aとその光源 1 2B用 の特別の移動機構を設置する必要がなく、 コストダウンが図れる。 また、 この構成により、 ロボット 1 3の (図 1 5) グリッパ 1 4で把 持されたワーク Wが、 前記 CCDカメラ 1 2 Aで撮像され、 該ワーク W の画像が一次元の電気信号に変換され下位 NC装置 30 (図 1 5) の後 述する距離検出手段 30 Dで二次元の電気信号に変換されることにより 、 突当 1 5、 1 6の先端位置 BR1、 BR2と (図 1 8) 、 ワーク画像 DW の端面 TD上の所定位置 AD1、 AD2間の距離 KD1、 KD2が検出され、 距 離差算出手段 3 OFで (図 1 5)、 該検出距離 KDi、 KD2と基準距離 K R1、 KR2との距離差 Ay,、 Ay2 が算出される (図 1 8)。
この第 2実施形態においては、 位置決め尺度としては、 図 1 6に示す ように、 突当 1 5、 1 6の先端位置と、 ワーク端面 T上の所定位置との 間の距離 、 K2 が使用され、 ワーク端面 Τと曲げ線 mが平行でない 斜め曲げの場合のワーク W位置決め時に、 特に効果がある。
この場合、 ワーク端面 Tは、 図 1 7に示すように、 極めて複雑な形状 をしている場合があり、 突当 1 5、 1 6との距離 K,、 K2 を正確に検 出するためには、 検出点として、 突当 1 5、 1 6の先端位置 、 Β2 と、 ワーク端面 Τ上の所定の位置 A i、 A2 を予め設定しておく必要が め o 具体的には、 例えば CAD情報を入力することにより (図 2 3のステ ップ 2 0 1 ) 、 図 1 8に示すように、 展開図としてのワーク画像 RWを 取り込んでそれを画面上に表示する。
そして、 作業者がこの画面を見ながら、 突当 1 5、 1 6の先端位置 B K1、 BR2を設定すると共に、 ワーク画像 RWの端面 TR上において所定 位置 AR1、 AR2を設定する (図 2 3のステップ 2 0 2) 。 この場合、 既 述したように、 ワーク Wの左端が、 機械センタ MCから X, の位置に配 置されるように、 該ワーク Wの長手方向 (X軸方向) の位置を決めてお く。 例えば、 ワーク Wを (図 24 (A) ) ロボット 1 3のグリッパ 1 4 で把持した状態で、 該ワーク Wの左端をサイドゲージ 1 8に突き当て、 そのときのサイドゲージ 1 8の位置を機械センタ MCから XS とすれば 、 ロボット 1 3を (図 24 (B) ) 所定の距離 XC
Figure imgf000030_0001
-X, だけ移 動させワーク原点 0を機械センタ MCに一致させることにより、 ワーク Wの左端が、 機械センタ MCから X, の位置に配置されるようになる。 これにより、 後述するように、 ワーク Wの前後方向と (Y軸方向) 左右 方向 (X軸方向) の位置が決定し、 該ワーク Wの曲げ加工装置 1 1に対 する位置が一義的に定まる。
この場合, 設定する箇所は、 少なくとも一箇所ずつ、 又は図示するよ うに、 例えばワーク原点 0に対して 2力所ずつでもよい。
このように、 検出点が設定されると、 その後は、 下位 NC装置 3 0を (図 1 5) 構成する後述する基準距離算出手段 3 0 Eにより、 前記設定 した突当 1 5、 1 6の先端位置 BR1、 BR2とワーク端面 TR上の所定位 置 AR1、 AR2間の基準距離 KR1、 KR2が自動的に算出され (図 2 3のス テツプ 2 0 3) 、 該基準距離 KR1、 KR2は、 既述したように、 距離差算 出手段 3 O F (図 1 5) において、 検出距離 KD1、 KD2 (図 1 5) との 距離差 ΔΥ ι 、 厶 y2 算出の対象となる。 この場合、 上記基準距離 KR1、 KR2は、 作業者が手動により入力して もよい。 また、 前記設定された突当 15、 16の先端位置 BR1、 BR2 と (図 18)、 ワーク端面 TR上の所定位置 AR1、 AR2は、 ワーク W位 置決め時の突当 15、 16 に対する距離の検出点であると共に、 後述 するように (図 19、 図 20)、 曲げ角度 Θ測定時の突当 15に対する 距離の検出点でもある。
このように、 第 2実施形態においては、 ワーク Wの位置決めと、 曲げ 角度 Θのと測定を 1つの装置で行うことにより、 動作は、 図 22のよう になる。 ' この図 22 (A) (B) (C) においては、 左図は、 ワーク Wと CC Dカメラ 12Aとの位置関係を示し、 右図は、 該 CCDカメラ 12Aを 介して画像処理されたワーク画像 DW、 dwの突当 15に対する距離を 示す。
このうち、 図 22 (A)の右図は、 ワーク画像 DWの端面 TD 上の所 定位置 AD1と、 突当 15の先端位置 BR1間の距離 KD1が基準距離 KR1に 到達して、 ワーク位置決めが完了した状態を示し、 図 18に対応してい 。
また、 図 22 (B) (C) の右図は、 パンチ Pが (図 22 (B) の左 図) ワーク Wに接触した後 (ピンチングポイント後) において、 ワーク 画像 dwの端面 td上の所定位置 adlと、 突当 15の先端位置 BR1間の 距離 kdlが変化する状態を示し、 図 20に対応している。
このような図 22において、 先ず、 ワーク Wの位置決めが完了し (図 22 (A) )、 その後、 パンチ Pがヮ一ク Wに接触すると (図 22 (B ) の左図) 、 曲げ加工が進行して突当 15との距離 kdlが、 大きくなつ て行く (図 22 (B)の右図) 。
このとき、 ワーク Wの先端が上昇するので (図 22 (B)の左図) 、 それに伴って突当 1 5を上昇させることにより、 CCDカメラ 1 2 Aを 上昇させ、 該ワーク Wの画像 dwを検出する。
更に、 パンチ Pが下降し (図 22 (C) の左図) 、 突当 1 5との距離 kdlが (図 22 (C) の右図) 所定の距離 krlに到達したときに、 ヮー ク Wが所定の曲げ角度 Θ (図 22 (C) の左図) まで曲げられたと見做 して、 ラムを停止させ、 曲げ加工は完了する。
上記構成を有するプレスブレーキの制御装置である下位 N C装置 30 は (図 1 5 )、 C PU 30 Aと、 情報演算手段 30 Bと、 撮像制御手段 30 Cと、 距離検出手段 30 Dと、 基準距離算出手段 30 Eと、 距離差 算出手段 3 OFと、 ロボット制御手段 30 Gと、 曲げ制御手段 30Hと 、 入出力手段 30 Jにより構成されている。
CPU 3 OAは、 本発明の画像処理加工プログラム (図 23に'相当) に従って、 情報演算手段 30 B、 距離検出手段 30Dなどを統括制御す 。
情報演算手段 30 Bは、 入出力手段 30 Jを介して上位 N C装置 29 から入力された CAD情報に基づいて、 曲げ順、 製品形状などワーク W の位置決めと曲げ角度 Θ測定に必要な情報を演算する。
撮像制御手段 30じほ、 前記情報演算手段 30 Bにより演算された情 報に基づいて、 既述した突当 1 5、 1 6の移動機構を介して、 CCD力 メラ 1 2 Aと光源 1 2 Bから成るワーク撮像手段 1 2の移動制御を行う と共に、 該 CCDカメラ 1 2 Aの視野範囲 (図 1 6、 図 1 7) の制御な ど撮像動作を制御する。
距離検出手段 30Dは、 前記ワーク撮像手段 1 2から送られてきたヮ ーク画像 DW (図 1 8) に基づいて、 突当 1 5、 1 6の先端位置 BR1、 BR2とワーク端面 TD上の所定位置 AD1、 AD2間の距離 KD1、 KD2を検 出する。 即ち、 既述したように (図 1 8)、 画面上で予め設定した突当 15、 1 6の先端位置 BR1、 BR2を、 二次元座標上において、 次のように表す ものとする。
先端位置 BR1 (X! , y! ' )、 BR22 , y2 ' ) · · · 〔1〕 また、 該距離検出手段 30Dで検出したワーク画像 DWの端面 TD上 の所定位置 AD1、 AD2を (先に作業者が画面上で設定した所定位置 AR1 、 AR2の Y軸方向の延長線上にある) 、 二次元座標上において、 次のよ うに表すものとする。
所定位置 ADi (XJ , yi ' ' )、 AD2 (x2 , y2 ' ' ) · · · · 〔2〕
従って、 上記 〔1〕、 〔2〕 から、 突当 15、 16との距離 KD1、 K D2は、 次のように表せる。
Figure imgf000033_0001
I BR,-ADI I ' 一 yi ' ' 〔3〕
KD2= I BR2- ADZ I =y 2 ' 一 Ύ ζ ' ' 〔4〕 これら 〔3〕 、 〔4〕 は、 前記したように、 距離差算出手段 3 OFに より、 距離差 Ay!、 厶 y2 を算出する場合に用いられる。
基準距離算出手段 30Eは、 予め設定された突当の先端位置 B.R1、 B R2とワーク端面 TR上の所定位置 AR1、 AR2間の基準距離 KR1、 KR2を 画像処理により算出する。
この場合、 既述したように (図 18)、 画面上で予め設定したワーク 画像 RWの端面 TR上の所定位置 AR1、 AR2を、 二次元座標上において 、 次のように表すものとする。
所定位置 AR1 (X! , yi ) , AR22 , y2 ) 〔5〕 従って、 この 〔5〕 と、 前記 〔1〕 (突当 15、 16の先端位置 BR] 、 BR2) とから、 基準距離 KR1、 KR2は、 次のように表せる。
Figure imgf000033_0002
i ' - y ! 〔6〕 KR2= I BR2-AR2 I =y2 ' 一 y 2 〔7〕 これら 〔6〕、 〔7〕 は、 同様に、 距離差算出手段 3 OFにより、 距 離差 Ayi、 Ay2 を算出する場合に用いられる。
距離差算出手段 3 OFは、 前記 〔3〕、 〔4〕 の検出距離 KD1、 KD2 と、 〔6〕、 〔7〕 の基準距離 KR1、 KR2を比較し、 両者の距離差 Ay
1 , Ay2 を算出する。
即ち、 距離差 Ay は、
厶 yi
Figure imgf000034_0001
(y i '一 y i - (y - yi )
=y I 一 y i ' ' … - 〔8〕
また、 距離差厶 y 2 は、
厶 y2
Figure imgf000034_0002
(y 2 ' 一 y a ' ) 一 (y 2 ' - y2 )
= y2 一 Ύ 2 ' ' • · · · 〔9〕
ロボット制御手段 30Gは (図 15)、 前記 〔8〕、 〔9〕 で表せる 距離差 Ay,、 Ay2 に基づいて検出距離 KD1、 KD2と基準距離 KR1、 KR2がー致するようにロボット 13を制御してヮ一ク Wを所定位置に位 置決めさせる。
即ち、 ロボット制御手段 30 Gは、 前記距離差算出手段 30 Fから距 離差 Ay!、 Δγ2 を入力すると、 それらを補正駆動信号 Sa、 Sb、 Sc、 Sd、 Se に変換し、 各信号をロボット 13に送信する。
これにより、 口ポット 13は、 それを構成する各駆動部 a、 b、 c、 d、 eを動作させることにより、 グリッパ 14で把持したワーク. Wを、 距離差 Ay! 、 厶 y2 だけ Y軸方向に移動させる (図 18)。
従って、 検出距離 Km、 KD2と基準距離 KR1、 KR2がー致するような 制御が行われ、 ワーク Wを所定位置に位置決めすることができる。
曲げ制御手段 30Hは (図 15)、 前記情報演算手段 10Bで決定さ れた曲げ順などに基づいて、 プレスブレーキを制御し、 前記位置決めさ れたワーク Wに対して、 パンチ Pとダイ Dにより曲げ加工を施す。 入出力手段 1 0 Jは、 キーボードや液晶などの画面から成り、 例えば 既述したように、 作業者が画面を見ながら、 突当 1 5、 1 6の先端位置 BR1、 BR2を (図 1 8)設定すると共に、 CAD情報に基づいて取り込 まれたワーク画像 RWの端面 TR上において所定位置 AR1、 AR2を設定 する (図 23のステップ 202) 。
更に、 前記距離検出手段 30Dと基準距離算出手段 30Eと距離差算 出手段 3 OFは、 曲げ角度 Θを測定する場合には (図 1 9、 図 20)、 次のような動作を行う。
即ち、 ワーク Wの (図 1 9 (A) ) 位置決め完了時の一方の突当 1 5 と、 ワーク W間の距離を K, とし、 そのときのワーク W先端部と、 金型 センタ Eとの距離を Lとする。
また、 曲げ加工が開始され(図 1 9 (B) )、 パンチ Pがワーク Wに 接触した後 (ピンチングポイント後)、 該ワーク Wが所定の曲げ角度 Θ まで曲げられた場合の前記突当 1 5と、 ワーク W間の距離を k! とし、 そのときのフランジ寸法!/ を、 予め前記情報演算手段 30Bで演算し た片伸び =αを考慮して、 L' =L + aとすれば、 次式が成立する。
x =L-L' xcos Θ + Κι 〔1 0〕
この 〔1 0〕 から曲げ角度 Θは、 次式で表せる。
0=cos -1 { (L + K, -k, ) /L' } 〔1 1〕 従って、 この 〔1 1〕 から明らかなように、 Lと K, と!/ は定数で あることから、 パンチ Pがワーク Wに接^!した後の突当 1 5とワーク W 間の距離 と曲げ角度 Θは、 一対一の対応関係にあり、 k, を検出す れば、 曲げ角度 Θを間接的に測定したことになる。
このような観点から、 前記基準距離算出手段 30 Eは (図 1 5) 、 情 報演算手段 30 Bが CAD情報に基づいて演算した曲げ角度 Θを入力し 、 前記 〔1 0〕 に従って、 次の曲げ基準距離 krlを (図 20 (A) )算 出" ¾ o
kri = L-L' xcos Θ + KRI 〔12〕 この曲げ基準距離 k r!は、 ヮーク Wが所定の曲げ角度 Θまで曲げられ た場合の、 CAD情報に基づくワーク画像 r w (図 20 (A) ) 'の端面 t r 上の所定位置所定位置 a rlと、 先に設定した突当 15の先端位置 B R1間の距離である。
従って、 距離検出手段 30Dが (図 15) ピンチングポイント後 (図 23のステップ 210)、 突当 15とワーク W間の距離を画像処理によ り検出した (図 23のステップ 21 1)曲げ検出距離 kd (図 20 ( A) )、 この曲げ基準距離 krlに一致した場合には (図 23のステップ 212の YES)、 ワーク Wが所定の曲げ角度 Θまで曲げられたと見做 し、 前記曲げ制御手段 30Hを (図 15)介してラムを停止させ (図 2 3のステップ 213)、 曲げ加工は完了する。
上記曲げ検出距離 kdlは、 ピンチングポイント後 (図 23のステップ 210の YES)、 CCDカメラ 12 Aから入力されたワーク画像 dw (図 20 (B) ) の端面 上の所定位置 a dlと、 先に設定した突当 1 5の先端位置 BR1間の距離である。
そして、 ワーク Wが曲げ加工される間に、 距離差算出手段 3 OFは ( 図 15 )、 前記距離検出手段 30 Dが検出した曲げ検出距離 k dlを常に 監視しており、 基準距離算出手段 30Eが算出した曲げ基準距離 krlと 比較して両者の距離差 Ayを (図 20 (A) )算出し、 Ay=0となつ て両者が一致したと判断した場合に (図 23のステップ 212の YES ) 、 既述したように、 曲げ制御手段 30Hを (図 15)介してラムを停 止させる (図 23のステップ 21 3)
しかし、 Ay≠ 0であって (図 23のステップ 212の NO)、 ヮ一 ク Wが曲げ角度 Θまで曲げられない場合には、 例えば曲げ角度 Θ' (図 20 (Β) ) であって、 曲げ角度が不足している場合には、 更に曲げ制 御手段 30Ηを (図 1 5) 介してラムを下降させ、 ラム位置の調整を行 う (図 23のステップ 214)。
以下、 前記構成を有する本発明の第 2実施形態の動作を図 23に基づ いて説明する。
(1) ワーク Wの位置決め制御動作。
図 23のステップ 20 1において、 CAD1青報を入力し、 ステップ 2 02において、 検出点を設定し、 ステップ 203において、 基準距離を 算出し、 ステップ 204において、 突当を設定した位置に移動させる。 即ち、 上位 NC装置 29 (図 1 5) から下位 NC装置 30へ CAD情 報が入力されると、 展開図としてのワーク画像 RWが (図 18) 入出力 手段 30 Jの (図 1 5)画面上に表示されるので、 作業者は、 この画面 を見ながら、 検出点として、 突当 1 5、 1 6の先端位置 BR1、 BR2を設 定すると共に、 上記 CAD情報に基づくワーク画像 RWの端面 TR上に おいて所定位置 AR1、 AR2を設定する。 そして、 このとき、 既述したよ うに、 ワーク Wの左端を (図 24 (A) ) サイドゲージ 1 8に突き当て ることにより、 該左端が (図 24 (B) ) 機械センタ MCから X, の位 置に配置されるように、 該ヮ一ク Wを X軸方向に位置決めしておく。 上記検出点が設定されると、 各検出点は、 情報演算手段 30 Β·を (図 1 5) 介して基準距離算出手段 30 Eへ送信される。
そして、 基準距離算出手段 30 E (図 1 5) により、 前記設定した突 当 1 5、 1 6の先端位置 BR1、 BR2とワーク端面 TR上の所定位置 ARi 、 AR2間の基準距離 KR!、 KR2が、 既述した 〔6〕、 〔7〕 に従って算 出される。
また、 この場合、 基準距離算出手段 30 Eは、 上記位置決め用の基準 距離 KR1、 KR2だけではなく、 既述した 〔1 2〕 に従って、 曲げ加工制 御用の曲げ基準距離 krlも算出しておく。
このようにして基準距離 KR1、 KR2と kdlが算出されると、 CPU 3
0 Aは (図 1 5) 、 曲げ制御手段 30Hに指令を出して、 前記設定した 突当 1 5、 1 6の先端位置 BR】、 BR2 (図 1 8) まで、 当該突当 1 5、
1 6を移動させる。
この状態で、 図 23のステップ 205において、 ロボット 1 3による ワーク Wの位置決めを行い、 ステップ 206において、 突当との距離を 検出し、 ステップ 207において、 所定の距離か否かを判断し、 所定の 距離でない場合には (NO) 、 ステップ 205に戻って同じ動作を繰り 返し、 所定の距離の場合には (YES)、 ステップ 208において、 ヮ 一ク Wの位置決めを完了する。
即ち、 CPU30Aは (図 1 5) 、 突当 1 5、 1 6が、 前記設定した 先端位置 BR1、 BR2 (図 1 8) まで移動したことを検知すると、 '今度は 、 ロボット制御手段 30Gを (図 1 5) 介してロボット 1 3を駆動制御 する。 同時に、 CPU 3 OAは、 曲げ制御手段 30Hを介して突当 1 5
、 1 6を移動させることにより、 それに取り付けられた CCDカメラ 1
2Aとその光源 1 2Bを移動制御し、 ロボット 1 3のグリツノ、°1 4で把 持されたワーク Wを撮像する。
撮像されたワーク Wの画像は、 距離検出手段 30 Dに送られ、 該距離 検出手段 30Dにおいて、 送られてきたワーク画像 DW (図 1 8) に基 づいて、 突当 1 5、 1 6の先端位置 BR1、 BR2と、 ワーク端面 TD上の 所定位置 AD1、 AD2間の距離 KD1、 KD2力ヽ'、 既述した 〔3〕、 〔4〕 に 従って検出される。
そして、 この検出距離 KD1、 KD2と、 基準距離算出手段 30 Ε·で算出 された基準距離 KR1、 KR2は、 次段の距離差算出手段 3 O Fに送られ、 両者の距離差 Δγ,、 Δγ2 が、 既述した 〔8〕、 〔9〕 に従って算出 される。
これにより、 ロボット制御手段 30Gは、 上記距離差 Ay ,、 Ay2 を補正駆動信号 S a、 Sb、 Sc、 Sd、 Se に変換し、 この信号を口 ボット 1 3に送信することにより、 検出距離 KD1、 KD2と (図 1.8) 基 準距離 KR1、 KR2がー致するように、 該ロボット 1 3の駆動部 a、 b、 c、 d、 eを制御してワーク Wを所定位置に位置決めする。
このようにして、 ロボット 1 3によるワーク Wの位置決めが行われ、 検出距離 KD1、 KD2と基準距離 KR1、 KR2がー致した場合に、 ワーク W の位置決めが完了する。
(2) 曲げ加工制御動作。
上記ワーク Wの位置決めが完了すると、 図 23のステップ 209にお いて、 ラムを下降させ、 ステップ 2 1 0において、 パンチ Pがワーク W と接触したか否かを判断し、 接触しない場合には (NO) 、 ステップ 2 0 9に戻って同じ動作を繰り返し、 接触した場合には (YES) 、 ステ ップ 21 1において、 突当との距離を検出し、 ステップ 2 12において 、 所定の距離か否かを判断し、 所定の距離でない場合には (NO) 、 ス テツプ 21 4において、 ラム位置を調整し、 所定の距離である場合には (YES)、 ステップ 2 1 3において、 ラムを停止させ、 曲げ加工を完 了する。
即ち、 CPU 3 OAは (図 1 5) 、 ロボット制御手段 30Gを介して ワーク Wの位置決めが完了したことを検知すると、 今度は、 曲げ制御手 段 30Hを介してラム、 例えば下降式プレスブレーキの場合には、 上部 テーブル 20を下降させる。
そして、 CPU 3 OAは、 ラム位置検知手段などを通じてラム 20の 位置を検知し、 パンチ Pがワーク Wと接触したと判断した場合には、 そ の後は、 曲げ制御手段 30Hを介して突当 1 5を移動させることにより 、 CCDカメラ 1 2 Aとその光源 1 2 Bを移動させてワーク Wを撮像さ せると共に、 距離検出手段 30Dを制御して、 撮像されたワーク Wの画 像 dwに (図 20 (A) ) 基づいて、 突当 1 5に対する曲げ距離 kdlを 検出させる。
この曲げ検出距離 ka〗は、 距離差算出手段 3 OFへ送信され、 該距離 差算出手段 3 OFにおいては、 基準距離算出手段 30Eで算出された曲 げ基準距離 krlとの距離差厶 yが算出され、 該距離差厶 y = 0となって 、 曲げ検出距離 kdlと曲げ基準距離 krlがー致した場合には、 ワーク W が所定の曲げ角度 Θまで (図 20 (B) ) 曲げられたと見做し、 曲げ 制御手段 30Hを介してラム 20の下降が停止され、 曲げ加工が完了す 。 産業上の利用可能性
以上のように、 本発明に係る曲げ加工装置は、 突当を用いた機械的な 位置決めが困難な場合であっても、 画像処理を用いた電子的な位置決め を行うことにより、 ワークを正確に位置決めすることができる。
また、 画像処理により検出画像と基準画像を比較する場合に、 比較対 象としてワークのコーナ部を利用すれば、 いずれか一方のコーナ部だけ を、 1台の CCDカメラで撮像すれば、 両画像のズレ量を一度に補正で きるので、 ワークの位置決め作業を含む加工効率を向上させることがで きる。 更に、 ワークの位置決め制御動作と曲げ加工制御動作を 1つの装 置で行うことにより、 システムの簡素化が図られ、 ワーク撮像手段を突 当に取り付けることにより、 特別な移動機構を設ける必要がなく、 コス トダウンが図れる。

Claims

請 求 の 範 囲
1 . 所定の位置決め尺度について、 画像処理により実測値と基準値を求 める画像処理手段を有し、 実測値と基準値が一致するようにワークを移 動させて所定位置に位置決めすることを特徴とするワーク位置決め装置 o
2 . 上記所定の位置決め尺度が、 ワークに形成された穴、 ワークの外形 線、 ワークのコーナ部、 又は突当位置とワーク上の所定位置間の距離で ある請求の範囲第 1項記載のワーク位置決め装置。
3 . 曲げ加工装置に取り付けたワーク撮像手段から入力されたワークの 画像を検出するワーク画像検出手段と、 予め入力された情報に基づレ、て ワークの基準画像を算出するワーク基準画像算出手段と、 検出画像と基 準画像を比較し両者のズレ量を算出するズレ量算出手段と、 該ズレ量に 基づレ、て検出画像と基準画像が一致するようにロボットを制御してヮー クを所定位置に位置決めさせるロボット制御手段を有する請求の範囲第 1項記載のワーク位置決め装置。
4 . 上記ワーク撮像手段が C C Dカメラにより構成され、 該 C C Dカメ ラは、 左右方向と前後方向に移動自在に取り付けられている請求の範囲 第 3項記載のワーク位置決め装置。
5 . 上記ワークには、 位置決めマークが設けられ、 ズレ量算出手段は、 検出画像中の検出位置決めマークと基準画像中の基準位置決めマークを 比較し両者のズレ量を算出する請求の範囲第 3項記載のワーク位置決め
6 . 上記位置決めマークが穴により構成され、 該穴は、 ワーク上の曲げ 線に対して所定位置に設けられている請求の範囲第 5項記載のワーク位
7 . 上記ワークの外形線に関し、 ズレ量算出手段は、 検出画像中の検出 ワーク外形線と基準画像中の基準ヮ一ク外形線を比較し両者のズレ量を 算出する請求の範囲第 3項記載のヮ一ク位置決め装置。
8 . 上記ワークの外形線を当接させるサイドストツバが取り付けられ、 該サイドストツバには、 該ワーク外形線の画像データを検出するエリア を構成するチ ッカが設けられている請求の範囲第 7項記載のワーク位
9 . 上記ワークのコーナ部に関し、 ズレ量算出手段は、 検出画像中の検 出コ一ナ部全体と基準画像中の基準コ一ナ部全体を比較し両者のズレ量 を算出する請求の範囲第 3項記載のワーク位置決め装置。
1 0 . 曲げ加工装置に取り付けたワーク撮像手段から入力されたワーク 画像に基づレヽて突当の先端位置とワーク端面上の所定位置間の距離を検 出する距離検出手段と、 予め設定された突当の先端位置とワーク端面上 の所定位置に基づいて両者間の基準距離を画像処理により算出する基準 距離算出手段と、 検出距離と基準距離を比較し両者の距離差を算出する 距離差算出手段と、 該距離差に基づレヽて検出距離と基準距離が一致する ようにロボットを制御してワークを所定位置に位置決めさせるロボット 制御手段を有する請求の範囲第 1項記載のワーク位置決め装置。
1 1 . 上記ワーク撮像手段が C C Dカメラにより構成され、 該 C C D力 メラは、 突当に取り付けられている請求の範囲第 1 0項記載のワーク位 置決め装置。
1 2 . 上記距離検出手段は、 ワークが所定位置に位置決めされた後曲げ 加工中にワーク撮像手段から入力されたワーク画像に基づレ、て突当の先 端位置とワーク端面上の所定位置間の曲げ距離を検出し、 基準距離算出 手段は、 ワークが所定の曲げ角度まで曲げられた場合の突当の先端位置 とヮ一ク端面上の所定位置間の曲げ基準距離を算出し、 距離差算出手段 は、 曲げ検出距離と曲げ基準距離を比較し両者の距離差を算出する請求 の範囲第 1 0項記載のワーク位置決め装置。
1 3 . 上記距離差算出手段により算出された距離差に基づいて、 曲げ検 出距離と曲げ基準距離が一致したと判断した場合に、 曲げ制御手段を介 してラムを停止させる請求の範囲第 1 2項記載のワーク位置決め装置。
PCT/JP2002/006036 2001-06-20 2002-06-18 Dispositif de positionnement d'une oeuvre WO2003000439A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US10/480,806 US7412863B2 (en) 2001-06-20 2002-06-18 Work positioning device
DE60233731T DE60233731D1 (de) 2001-06-20 2002-06-18 Werkstück-positioniervorrichtung
EP02736145A EP1402967B1 (en) 2001-06-20 2002-06-18 Work positioning device
US12/170,505 US7610785B2 (en) 2001-06-20 2008-07-10 Work positioning device

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP2001-185958 2001-06-20
JP2001185958 2001-06-20
JP2001-280498 2001-09-14
JP2001280498 2001-09-14
JP2002-49170 2002-02-26
JP2002049170 2002-02-26
JP2002-158700 2002-05-31
JP2002158700A JP2003326486A (ja) 2001-06-20 2002-05-31 ワーク位置決め装置

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US10480806 A-371-Of-International 2002-06-18
US12/170,505 Continuation US7610785B2 (en) 2001-06-20 2008-07-10 Work positioning device

Publications (1)

Publication Number Publication Date
WO2003000439A1 true WO2003000439A1 (fr) 2003-01-03

Family

ID=27482357

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2002/006036 WO2003000439A1 (fr) 2001-06-20 2002-06-18 Dispositif de positionnement d'une oeuvre

Country Status (5)

Country Link
US (2) US7412863B2 (ja)
EP (1) EP1402967B1 (ja)
JP (1) JP2003326486A (ja)
DE (1) DE60233731D1 (ja)
WO (1) WO2003000439A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006061390A1 (en) 2004-12-10 2006-06-15 L'air Liquide, Societe Anonyme Pour L'etude Et L'exploitation Des Procedes Georges Claude Catalytic membrane reactor

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003326486A (ja) * 2001-06-20 2003-11-18 Amada Co Ltd ワーク位置決め装置
KR100461789B1 (ko) * 2002-03-25 2004-12-14 학교법인 포항공과대학교 선반용 step-nc 시스템을 위한 델타 볼륨 분해 및공정 계획 생성 방법
JP2006221238A (ja) * 2005-02-08 2006-08-24 Denso Corp 駆動制御装置及び駆動制御方法
EP1801681A1 (en) * 2005-12-20 2007-06-27 Asea Brown Boveri Ab An industrial system comprising an industrial robot and a machine receiving movement instructions from the robot controller
EP2468451A3 (en) * 2007-04-26 2013-09-04 Adept Technology Inc. Vacuum gripping apparatus
US7665223B2 (en) * 2008-06-20 2010-02-23 Delta Ii, I.P., Trust Measuring device with extensible cord and method
NL2004213C2 (nl) * 2010-02-09 2011-08-10 Vmi Holland Bv Werkwijze voor het vervaardigen van een band van aan elkaar gelaste strips.
US8813950B2 (en) * 2010-05-07 2014-08-26 The Procter & Gamble Company Automated adjustment system for star wheel
KR101778338B1 (ko) * 2010-06-30 2017-09-13 케이엘에이-텐코 코포레이션 전자 장치를 입력 매체 및 출력 매체의 구획 내에 배치하기 위한 방법 및 장비
ITVR20110046A1 (it) * 2011-03-07 2012-09-08 Finn Power Italia S R L Procedimento per effettuare il controllo della forma di un profilato metallico complesso ottenuto mediante una serie successiva di piegature di una lamiera su macchina pannellatrice
ITVR20110045A1 (it) * 2011-03-07 2012-09-08 Finn Power Italia S R L Procedimento per la correzione dinamica dell angolo di piegatura di lamiere su macchina pannellatrice
JP2012254518A (ja) * 2011-05-16 2012-12-27 Seiko Epson Corp ロボット制御システム、ロボットシステム及びプログラム
JP5370788B2 (ja) * 2011-10-20 2013-12-18 株式会社安川電機 対象物加工システム
JP5856860B2 (ja) * 2012-02-03 2016-02-10 株式会社アマダホールディングス 板状ワーク加工装置及びワークの位置決め支援方法
US9448650B2 (en) * 2012-11-09 2016-09-20 Wilson Tool International Inc. Display device for punching or pressing machines
US20140209434A1 (en) * 2013-01-31 2014-07-31 Honda Motor Co., Ltd. Apparatus for use with fixture assembly and workpiece
JP6397713B2 (ja) * 2014-10-02 2018-09-26 株式会社アマダホールディングス 追従装置
JP5987073B2 (ja) * 2015-02-12 2016-09-06 ファナック株式会社 撮像部を用いたワークの位置決め装置
JP2017087357A (ja) * 2015-11-11 2017-05-25 ファナック株式会社 設置対象物の自動位置調整システム
JP6195395B1 (ja) * 2016-08-01 2017-09-13 東芝エレベータ株式会社 パネル加工制御装置及びパネル加工方法
JP6404957B2 (ja) 2017-01-20 2018-10-17 ファナック株式会社 加工機にワークを搬送するロボットを備える加工システム
WO2019123517A1 (ja) * 2017-12-18 2019-06-27 株式会社Fuji 作業装置及びその制御方法
JP7156067B2 (ja) * 2019-02-07 2022-10-19 トヨタ自動車株式会社 把持誤差補正方法、装置、及び、プログラム
EP4104968B1 (en) * 2020-02-14 2023-10-25 Yamazaki Mazak Corporation Workpiece mounting method for machining apparatus, workpiece mounting support system, and workpiece mounting support program
KR102296306B1 (ko) * 2020-04-27 2021-09-06 성일기업(주) 자동차 시트의 사이드브라켓 성형용 프레스기 제어방법
CN117415365A (zh) * 2023-11-29 2024-01-19 大连理工大学 用于复合材料工件自动化加工的夹持与安放方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01197087A (ja) * 1988-02-03 1989-08-08 Amada Co Ltd 位置補正装置
JPH02284721A (ja) * 1989-04-27 1990-11-22 Amada Co Ltd 折曲げ加工機の曲げ角度補正装置
JPH05131334A (ja) * 1991-11-06 1993-05-28 Komatsu Ltd 曲げ加工機械のワーク位置決め装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5608847A (en) * 1981-05-11 1997-03-04 Sensor Adaptive Machines, Inc. Vision target based assembly
JPS59227379A (ja) 1983-06-09 1984-12-20 株式会社アマダ 被加工物の供給方法および装置
JPS60107111A (ja) * 1983-11-16 1985-06-12 Hitachi Ltd プラントの故障波及範囲予測方式
CH665364A5 (fr) * 1985-10-30 1988-05-13 Cybelec Sa Dispositif pour le controle automatique de l'operation de pliage lors du pliage avec une presse-plieuse.
IT1237750B (it) 1989-12-29 1993-06-15 Prima Ind Spa Procedimento di piegatura di una lamiera
US5531087A (en) * 1990-10-05 1996-07-02 Kabushiki Kaisha Komatsu Seisakusho Metal sheet bending machine
JPH0563806A (ja) 1991-08-29 1993-03-12 Nec Commun Syst Ltd デイジタルハイウエイインタフエース試験方式
DE4493589T1 (de) * 1993-05-24 1996-05-09 Komatsu Mfg Co Ltd Biegewinkelerfassungsvorrichtung und Vorrichtung zur Erkennung einer geraden Linie und Vorrichtung zur Einstellung einer Biegewinkelerfassungsposition
CA2185430A1 (en) * 1994-03-29 1995-10-05 Shigeru Tokai Press brake
JP3418456B2 (ja) * 1994-06-23 2003-06-23 ファナック株式会社 ロボット位置教示具及びロボット位置教示方法
US5761940A (en) * 1994-11-09 1998-06-09 Amada Company, Ltd. Methods and apparatuses for backgaging and sensor-based control of bending operations
JP4221061B2 (ja) 1994-11-09 2009-02-12 株式会社アマダ 板金曲げ計画の作成・実行用知能システム
JP3577349B2 (ja) * 1994-12-27 2004-10-13 株式会社東芝 光変調型センサおよびこのセンサを用いたプロセス計測装置
US5971130A (en) 1996-08-02 1999-10-26 Nakamura; Kaoru Workpiece identification providing method, workpiece, workpiece identifying method and apparatus thereof, and sheet metal machining apparatus
EP1181118B1 (en) * 1999-04-07 2004-12-08 Amada Company, Limited Automatic bending system
DE10000287B4 (de) * 2000-01-07 2004-02-12 Leuze Lumiflex Gmbh + Co. Kg Vorrichtung und Verfahren zur Überwachung eines Erfassungsbereichs an einem Arbeitsmittel
US6644080B2 (en) * 2001-01-12 2003-11-11 Finn-Power International, Inc. Press brake worksheet positioning system
JP2003326486A (ja) * 2001-06-20 2003-11-18 Amada Co Ltd ワーク位置決め装置
CA2369845A1 (en) * 2002-01-31 2003-07-31 Braintech, Inc. Method and apparatus for single camera 3d vision guided robotics
US6938454B2 (en) * 2002-05-13 2005-09-06 Trumpf Maschinen Austria Gmbh & Co. Kg. Production device, especially a bending press, and method for operating said production device
ITUD20020210A1 (it) * 2002-10-11 2004-04-12 Antonio Codatto Procedimento e dispositivo per la piegatura di elementi,
AT502501B1 (de) * 2004-03-05 2007-04-15 Trumpf Maschinen Austria Gmbh Durchlichteinheit

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01197087A (ja) * 1988-02-03 1989-08-08 Amada Co Ltd 位置補正装置
JPH02284721A (ja) * 1989-04-27 1990-11-22 Amada Co Ltd 折曲げ加工機の曲げ角度補正装置
JPH05131334A (ja) * 1991-11-06 1993-05-28 Komatsu Ltd 曲げ加工機械のワーク位置決め装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1402967A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006061390A1 (en) 2004-12-10 2006-06-15 L'air Liquide, Societe Anonyme Pour L'etude Et L'exploitation Des Procedes Georges Claude Catalytic membrane reactor

Also Published As

Publication number Publication date
US7412863B2 (en) 2008-08-19
EP1402967B1 (en) 2009-09-16
US7610785B2 (en) 2009-11-03
JP2003326486A (ja) 2003-11-18
DE60233731D1 (de) 2009-10-29
EP1402967A1 (en) 2004-03-31
US20090018699A1 (en) 2009-01-15
EP1402967A4 (en) 2007-01-10
US20040206145A1 (en) 2004-10-21

Similar Documents

Publication Publication Date Title
WO2003000439A1 (fr) Dispositif de positionnement d'une oeuvre
CN108453701B (zh) 控制机器人的方法、示教机器人的方法和机器人系统
US6644080B2 (en) Press brake worksheet positioning system
US9050728B2 (en) Apparatus and method for measuring tool center point position of robot
WO2020121396A1 (ja) ロボットキャリブレーションシステム及びロボットキャリブレーション方法
WO2021039829A1 (ja) 生産システム
EP1607194A2 (en) Robot system comprising a plurality of robots provided with means for calibrating their relative position
CN111344086A (zh) 主模和芯子的嵌合装置、及主模和芯子的嵌合方法
CN111940548B (zh) 一种后挡料定位补正系统及方法
EP1258299B1 (en) Bending method and bending device
CN113015604B (zh) 机器人控制系统及机器人控制方法
JP4761886B2 (ja) ロボットによる曲げ加工システム及び曲げ加工方法
TWM600667U (zh) 雷射打標系統
WO2022195938A1 (ja) ロボットシステムの位置決め精度測定方法
CN210375013U (zh) 一种零部件外径尺寸在线监测装置
JP5241330B2 (ja) ロボットによる曲げ加工装置及びその方法
JP7472223B2 (ja) プレスブレーキ、曲げ加工システム及びセンサ移動制御方法
EP3603904B1 (en) Robot system
JP6735208B2 (ja) キャリブレーション治具、板金搬入システム、及びキャリブレーション方法
TWI730664B (zh) 雷射打標系統及其控制方法
JP2006075880A (ja) しごき曲げ機における曲げ加工方法及びその装置
JPH049218A (ja) 折曲げ加工システム
US11554302B1 (en) Apparatus and method for measuring lie and loft of a golf club
JP5305026B2 (ja) 部材同士の位置合わせ制御システム
CN115889519A (zh) 一种闭环高精度钣金自动化生产控制系统及方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2002736145

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2002736145

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10480806

Country of ref document: US