WO2011102142A1 - 溶接装置および溶接方法 - Google Patents

溶接装置および溶接方法 Download PDF

Info

Publication number
WO2011102142A1
WO2011102142A1 PCT/JP2011/000922 JP2011000922W WO2011102142A1 WO 2011102142 A1 WO2011102142 A1 WO 2011102142A1 JP 2011000922 W JP2011000922 W JP 2011000922W WO 2011102142 A1 WO2011102142 A1 WO 2011102142A1
Authority
WO
WIPO (PCT)
Prior art keywords
welding
data
shape
posture
shape data
Prior art date
Application number
PCT/JP2011/000922
Other languages
English (en)
French (fr)
Inventor
和夫 青山
達哉 大嶽
晋作 佐藤
光男 岩川
Original Assignee
株式会社 東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝 filed Critical 株式会社 東芝
Priority to BR112012020766A priority Critical patent/BR112012020766A2/pt
Priority to JP2012500519A priority patent/JP5847697B2/ja
Priority to CN201180010075.2A priority patent/CN102762331A/zh
Publication of WO2011102142A1 publication Critical patent/WO2011102142A1/ja
Priority to US13/564,867 priority patent/US20130026148A1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/408Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by data handling or data format, e.g. reading, buffering or conversion of data
    • G05B19/4086Coordinate conversions; Other special calculations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K37/00Auxiliary devices or processes, not specially adapted to a procedure covered by only one of the preceding main groups
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K9/00Arc welding or cutting
    • B23K9/235Preliminary treatment
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/33Director till display
    • G05B2219/33259Conversion of measuring robot coordinates to workpiece coordinates
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37116Shape sensor leads tool, in front of tool
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45104Lasrobot, welding robot
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/50Machine tool, machine tool null till machine tool work handling
    • G05B2219/50353Tool, probe inclination, orientation to surface, posture, attitude

Definitions

  • Embodiments of the present invention relate to a welding apparatus and a welding method using a welding robot.
  • the welding apparatus includes a rail installed on the object to be welded along a welding line, an articulated robot traveling on the rail, and a sensor for measuring a weld bead shape.
  • the welding target position is corrected based on the weld bead shape measured by this sensor.
  • a method has been proposed in which the welding speed, the target position, and the torch posture are corrected by measuring the groove and the shape of the weld bead (see Patent Document 2).
  • An object of the present invention is to provide a welding apparatus and a welding method which do not require a rail for moving a welding robot and enable high quality automatic welding.
  • the welding apparatus includes a welding torch and a shape sensor attached to a welding robot, a shape data extraction unit for extracting shape data representing a contour of a welding object from measurement data of the shape sensor, and a position of the shape sensor And a conversion data calculation unit that calculates coordinate conversion data for correcting the shape data based on the posture, a shape data correction unit that corrects the shape data based on the coordinate conversion data, and the correction An angle calculation unit that calculates an inclination angle of the groove to be welded based on shape data; and a welding position / attitude determination unit that determines the position and orientation of the welding torch based on the inclination angle of the groove; And.
  • the step of controlling the position and posture of the shape sensor with respect to the welding target based on the position and posture data, and the shape sensor having the position and posture controlled based on the position and posture data Extracting shape data representing the outline of the object to be welded from the measurement data at the step of calculating the coordinate conversion data for correcting the shape data based on the position / posture data; and the coordinate conversion Correcting the shape data using data; extracting a plurality of change points of the shape from the corrected shape data; and corresponding to the end of the bead from the corrected shape data Extracting the change point of the shape of the bead, and based on the corrected shape data and the change points of the plurality of shapes, Calculating the welding condition and the position and posture of the welding torch based on the step of calculating the inclination angle of the groove surface, the width of the bead and the inclination angle of the groove surface, and the welding Welding based on conditions, position and attitude of the welding torch.
  • high-quality automatic welding can be performed without the need for a rail for moving the welding robot.
  • the welding apparatus includes a slider device 1, a shape sensor processing device 6 that receives data from the slider device 1, and a robot control device 5 that transmits and receives data to and from the shape sensor processing device 6.
  • the robot control device 5 has a teaching data storage device 14 and an operation axis control device 15.
  • the teaching data storage unit 14 transmits measurement teaching data to the shape sensor processing unit 6.
  • the movement axis control device 15 controls the movement of the slider device 1 and the welding robot 2 described later.
  • the slider device 1 has a pedestal B1, posts B2, B3 and B4, and a base 7.
  • the column B2 is rotatable with respect to the pedestal B1 as shown by the arrow A, with the vertical axis as a pivot.
  • the column B3 is movable (linearly movable) in the vertical direction (arrow B) with respect to the column B2.
  • the column B4 can move (linearly move) in the front-rear direction (arrow C) with respect to the column B3.
  • the base 7 is attached to the front of the column B4. That is, the base 7 can rotate with respect to the axis in the vertical direction, and can move in the vertical direction and in the longitudinal direction.
  • the welding robot 2 is installed on the base 7.
  • the welding robot 2 has an arm capable of multi-axial rotation at multiple joints. For example, six axes of rotation at six joints are possible.
  • first to sixth links (sub-arms) are arranged at the first to sixth joints, respectively. That is, the first joint, the first link, the second joint, the second link,..., The sixth joint, and the sixth link are arranged in order.
  • a first joint is placed on the base 7.
  • the j-th joint is placed at the tip of the (j-1) th link (1 ⁇ j ⁇ 6).
  • the tip of the sixth link corresponds to the tip of the arm.
  • the welding torch 3 and the shape sensor 4 are attached to the tip of this arm so as to correspond to each other (for example, the relative position (distance) of the welding torch 3 and the shape sensor 4 is fixed). Measurement data is output from the shape sensor 4 to the shape sensor processing device 6.
  • the shape sensor 4 can be configured by a combination of an irradiation device and an imaging device.
  • the operation of the welding apparatus will be described with reference to FIG.
  • the operation of the welding apparatus is divided into processing steps (steps S1 and S2) in the robot control device 5 and processing steps (steps S3 to S9) in the shape sensor processing device 6.
  • teaching data is stored in the teaching data storage device 14.
  • the welding torch 3 or the shape sensor 4 is moved to the teaching point by using the operation device provided in the robot control device 5, and the function of storing the position and the posture is selected.
  • the teaching data is input and stored in the teaching data storage device 14.
  • the teaching data is composed of operation commands including position / attitude data representing the position / attitude of the welding torch 3 and the shape sensor 4 attached to the tip of the arm of the welding robot 2 and welding conditions.
  • the teaching data can be divided into welding teaching data used for welding with the welding torch 3 and measurement teaching data used for measurement with the shape sensor 4.
  • the position / posture data corresponds to a welding (predicted) line (a line segment representing the axis of a bead formed on the object to be welded). That is, the position of the welding torch 3 (more precisely, the point welded by the welding torch 3) is disposed on the welding line. Also, in general, it is preferable to arrange the welding torch 3 in a direction passing through the center of the inclination angle of the pair of groove surfaces on the vertical surface of the welding line (normal position and posture). Usually, position / posture data is set corresponding to such a position and attitude.
  • the position and posture of the welding torch 3 are changed so that the welding apparatus and the welding object do not interfere with each other.
  • human interference can be avoided.
  • the position and orientation of the shape sensor 4 correspond to the planned welding line. It is assumed that the shape sensor 4 is configured by a combination of an irradiation device and an imaging device. In this case, light is preferably emitted from the irradiation device along the vertical surface of the weld line. For example, it is preferable that the irradiation surface S0 described later coincides with the vertical surface S1 of the welding line. However, the position and orientation of the shape sensor 4 are appropriately changed so that the welding device and the welding object do not interfere with each other.
  • teaching data position / posture data
  • teaching data is input such that the welding device and the object to be welded do not interfere with each other.
  • Different position and posture data can be used for each of the welding with the welding torch 3 and the measurement with the shape sensor 4 (at least one of the position and the posture of the welding torch 3 and the shape sensor 4 is different). However, the positions and postures of the welding torch 3 and the shape sensor 4 may be matched.
  • the position / posture data can be divided into reference coordinates representing the mounting position (base 7) of the welding robot 2 and relative coordinates (robot coordinate system) representing the relative displacement of the welding torch 3 or the like from the reference coordinates.
  • the reference coordinates and the relative coordinates are used to control the operations of the slider device 1 and the welding robot 2, respectively.
  • step S2 movement axes of the slider device 1 and the welding robot 2 are controlled based on the teaching data (measurement teaching data) stored in the teaching data storage step (step S1).
  • the operations of the slider device 1 and the welding robot 2 are controlled by the reference coordinates and relative coordinates in the teaching data. That is, the position and orientation of the shape sensor 4 are controlled based on the position and orientation data. After this control, measurement by the shape sensor 4 is performed.
  • step S3 coordinate conversion data for correction of shape data (conversion matrices Cn, Cn ', Cn "to be described later based on the teaching data (measurement teaching data) output from the robot control device 5
  • the coordinate conversion data calculated in this step is used in steps S5, S8, and S9, the details of the calculation of the coordinate conversion data will be described later.
  • step S4 shape data representing the outline of the object to be welded is extracted by performing noise removal and binarization from the measurement data output from the shape sensor 4 in the operation axis control step (step S2) Be done. As described later, distortion occurs in the shape data depending on the position and posture of the shape sensor 4 with respect to the welding object.
  • the shape data extracted in the shape data extraction step (step S4) is corrected using the coordinate conversion data calculated in the coordinate conversion data calculation step (step S3). That is, distortion of shape data is reduced.
  • the change point of the shape is extracted from the shape data corrected in the sensor posture correction step (step S5).
  • This change point corresponds to, for example, the boundary between the top surface of the object to be welded and the groove surface, and the boundary between the weld bead and the groove surface (the end of the weld bead). That is, at the boundary of a plurality of surfaces (for example, the upper surface, the groove surface, and the bead surface), the angle of the contour changes rapidly. For this reason, a change point is extracted as a point where the absolute value of the local gradient (differential amount) in the contour represented by the shape data is large. The details will be described later.
  • the bead end is extracted from the change point extracted in the change point extraction step (step S6). Furthermore, the bead surface and the beveled surface are identified. As described above, the change point includes the end of the weld bead (the boundary between the weld bead and the groove surface). As shown in the third embodiment, it is possible to compare shape data before and after the previous welding (welding in the lower layer of the present weld layer), and extract points having a large amount of change in shape as bead ends. The shape data between the two ends of the weld bead correspond to the bead surface. Further, shape data on both sides of the two end portions correspond to a pair of groove surfaces. The details will be described later.
  • the welding condition and welding target position are determined from the width of the bead specified in the groove / bead surface extraction process (step S7) and the inclination angle of the pair of groove surfaces.
  • the position of the torch 3) and the posture of the welding torch are determined.
  • the width of the bead corresponds to the distance between the two ends of the weld bead.
  • the welding aim position and welding torch posture calculated in the welding condition calculating step (step S8) are calculated as the position and posture on the robot coordinate system.
  • the calculated position data is stored in the teaching data storage device 14 as teaching data (welding teaching data). Welding is performed by the welding device based on the welding instruction data.
  • FIG. 3 the water turbine runner 16 is lifted in a standing state by a crane (not shown) and installed on the turning roller 17.
  • a welding device constituted by the slider device 1 and the welding robot 2 is installed beside the opening 51 of the water turbine runner 16.
  • the water runner 16 is interlocked and rotated.
  • the rotation of the water turbine runner 16 is stopped at an angle at which the groove portion (portion corresponding to the groove surface) 53 (see FIG. 6) of the blade 18 (member to be welded) is positioned in front of the welding device.
  • the slider device 1 and the welding robot 2 are operated by the motion axis control device 15 provided in the robot control device 5.
  • the shape of the groove 53 is measured by the shape sensor 4 attached to the tip of the arm of the welding robot 2.
  • the vanes 18, crowns 19 and bands 20 which are members of the water runner 16 each have a three-dimensional curved surface.
  • 4 and 5 show an example of the inclination angle of the groove of the blade 18 and the inclination of the weld line.
  • the vertical axis in FIG. 4 indicates the inclination angle of the groove.
  • the horizontal axis in FIG. 4 indicates the distance in the direction from the inlet (location located on the outer peripheral side of the water runner 16 to take in water) toward the outlet (location located in the middle of the water runner 16 to release water) .
  • the vertical axis in FIG. 5 indicates the height from the reference point.
  • the horizontal axis in FIG. 5 indicates the distance in the direction from the inlet to the outlet. It can be seen that the inclination angle and the slope of the weld line are continuously changing.
  • the shape sensor 4 is composed of a laser slit light irradiator 21 as an irradiation device and a CCD camera 22 as an imaging device.
  • the laser slit light irradiator 21 emits a slit-like laser light (slit light).
  • the slit light traveling toward the blade 18 to be welded is irradiated on a linear portion (irradiation line) LR intersecting with the irradiation surface (the surface formed by the slit light) S0.
  • the irradiation line LR has a shape corresponding to the contour of the object to be welded.
  • the image of the irradiation line LR is captured by the CCD camera 22 as measurement data.
  • the shape of the slit light (the shape of the irradiation line LR) is extracted as shape data from the measurement data.
  • shape data is generated as follows. First, from the image (measurement data) obtained by the CCD camera 22, the pixel (irradiation line LR) of slit light that has hit the object to be welded is extracted. Then, based on the relative position and relative posture (direction) of the light irradiator 21 and the CCD camera 22, the slit light surface (irradiation surface) on which the position (irradiation line LR) of each extracted pixel is irradiated from the light irradiator 21 S0) Convert to the position above. As a result, shape data is generated.
  • the irradiated surface S0 be perpendicular to the welding (planned) line. That is, the welding robot 2 is controlled so that the irradiation surface S0 is perpendicular to the welding line, and the position and posture of the shape sensor 4 are determined.
  • the position and posture of the shape sensor 4 may be limited, and the irradiated surface S0 and the weld line may not be vertical. That is, depending on the position and attitude of the shape sensor 4, there is a possibility that the members of the water wheel runner, and the welding torch 3 and the shape sensor 4 may interfere (contact). In this case, it is necessary to change the posture of the shape sensor 4 to avoid interference.
  • the shape data extracted in the shape data extraction step includes distortion for the change in posture. For this reason, correction of shape data is required.
  • the distortion due to the posture change means a deviation from the shape data in the case where the irradiation surface S0 of the slit light is perpendicular to the welding line.
  • distortion generally occurs and correction is required.
  • the position change and the direction of the irradiation surface S0 are necessary for the correction of the posture change. For this reason, measurement teaching data (position / posture data) is sent from the teaching data storage unit 14 to the shape sensor processing unit 6.
  • the correction of the posture change will be described with reference to FIG. It is considered to correct the shape data corresponding to the measurement teaching point (here, a point on the welding schedule line) Pn.
  • the coordinate conversion data calculation step (step S3) an arc AC passing through three measurement teaching points Pn-1, Pn, Pn + 1 including the measurement teaching point Pn and the measurement teaching points Pn-1, Pn + 1 before and after that is assumed.
  • a tangent vector Xn ' which is in contact with the arc AC at the teaching point Pn is determined.
  • the tangent vector Xn ' represents the weld line direction at the teaching point Pn.
  • a vertical plane S1 of the weld line including the teaching point Pn and having the vector Xn 'as a normal vector is determined.
  • a vector Zn representing the axial direction of the laser slit light irradiator 21 of the shape sensor 4 is determined.
  • a vector Zn ' is obtained by projecting the vector Zn on the vertical plane.
  • the unit vector N of the tangent vector Xn ' is taken as the unit vector N, and the projection matrix projected onto the plane S1 perpendicular to N is taken as Pn.
  • Pn I-N ⁇ N T
  • I unit matrix
  • N T transposed vector obtained by transposing the unit vector N
  • Zn ′ can be calculated by the following equation.
  • Zn ' Pn ⁇ Zn
  • a vector Yn 'orthogonal to the vectors Xn' and Zn 'obtained above is determined.
  • Yn ′ Zn ′ ⁇ Xn ′ (where “x” represents the outer product of vectors)
  • a matrix (conversion matrix) Cn ' is calculated that represents the coordinate system of the vertical plane S1 (as viewed from the robot coordinate system) with these vectors Xn', Yn ', and Zn' as coordinate axes and the teaching point Pn as the coordinate origin. .
  • the shape sensor 4 (and the welding torch 3) is attached to the arm of the welding robot 2 having, for example, six joints. Therefore, the position and orientation (direction) of the shape sensor 4 are determined in accordance with the operation of the six joints.
  • the relative positions and postures at the tips of the first to sixth links connected to the first to sixth joints can be represented by a matrix Ai . That is, the matrix A i represents the position and orientation of the distal end of the first link relative to the robot coordinate. Matrix A i represents the position and orientation of the distal end of the i-th link relative to the distal end of the link of the (i-1).
  • the matrix T 6 representing the tip of the arm position and orientation of the (shape sensor 4) (position and direction of the irradiation plane S0 (position and orientation of the teaching point of the measurement teaching data)) of the robot 2, the following Thus, it can be expressed by the product of matrices A 1 to A 6 .
  • T 6 A 1 ⁇ A 2 ⁇ A 3 ⁇ A 4 ⁇ A 5 ⁇ A 6 ...
  • the matrix A i may include both translational and rotational components.
  • the translational component represents a component of coordinate transformation by translational movement of the tip of the i-th link with respect to the tip of the (i-1) th link.
  • the rotational component represents a component of coordinate transformation due to rotational movement of the tip of the i-th link with respect to the tip of the (i-1) th link.
  • the translational component corresponds to the position of the teaching point Pn. This can be obtained by solving the kinematics equation when the measurement teaching data is stored at the angle of each joint axis.
  • the translational component is calculated from the equation (1) corresponding to the teaching data of the teaching point Pn.
  • N [Nx, Ny, Nz, 0] T
  • O [Ox, Oy, Oz, 0] T
  • A [Ax, Ay, Az, each unit vector of the vectors Xn ', Yn', Zn ' 0] T
  • the rotation around the Z axis is ⁇ r
  • the rotation around the Y axis is ⁇ p
  • the rotation around the X axis is ⁇ y (rotation of roll pitch yaw).
  • a matrix (conversion matrix) Cn representing the coordinate system of the irradiation surface S0 (viewed from the robot coordinate system) having the vectors Xn, Yn, Zn as coordinate axes and the teaching point Pn as the coordinate origin is an equation similar to the equation (1) It is represented by (2).
  • Cn A 1 ⁇ A 2 ⁇ A 3 ⁇ A 4 ⁇ A 5 ⁇ A 6 ... Formula (2) However, the content of the matrix A i of the formula (1), always (different welding robot 2 arm state) that does not match (2).
  • the transformation matrices Cn 'and Cn calculated above mean coordinate transformation data.
  • the coordinate conversion data is used in the sensor attitude correction process (step S5), the welding condition calculation process (step S8), and the welding position / attitude calculation process (step S9).
  • the shape data extracted in the shape data extraction step is corrected. That is, the position matrix Tn 'corresponding to the shape data after correction is calculated from the position matrix Tn corresponding to the point on the shape data (point on the irradiation line LR).
  • Tn ′ Cn ′ ⁇ 1 ⁇ Cn ⁇ Tn Equation (3)
  • Cn ′ ⁇ 1 represents the inverse of the matrix Cn ′.
  • FIG. 8 schematically shows the contents of this coordinate conversion.
  • Position data (shape data) on the irradiation surface S0 is converted into shape data on the vertical surface S1 (coordinate conversion).
  • the projection of the point Pa on the irradiation surface S0 onto the vertical plane S1 is taken as a point Pb.
  • the vectors Va and Vb are respectively represented by coordinates (Xa, Ya, Za) on the irradiation surface S0 and coordinates (Xb ', Yb', Zb ') of the vertical surface S1.
  • Vb Cn ' -1 ⁇ Cn ⁇ Va
  • the coordinate conversion by "Cn ' -1 ⁇ Cn" corresponds to the projection from the point on the irradiation surface S0 to the vertical surface S1.
  • a position matrix Tn ′ corresponding to the points on the shape data after correction is calculated (Equation (3)). From a plurality of position matrices Tn corresponding to respective points of the shape data (points (coordinates) on the irradiation line LR), corresponding to respective points (points on the corrected irradiation line LR) of the shape data after correction A plurality of position matrices Tn 'are calculated.
  • the shape data (position matrix Tn ') after correction is used in the change point extraction step (step S6). That is, as shown in FIG. 9, a point having a large angle change (angular difference) between vectors connecting each point of the shape data (point on the irradiation line LR after correction) is extracted as a change point.
  • the groove / bead surface extraction step (S7) the following processing is performed. First, two points serving as an open tip are extracted from the extracted points (change points). The point between the two points is identified as the bead end. From the position of the open end portion and the bead end portion on the crown 19 side or the band 20 side, the angle of the beveled surface on the vertical plane S1 of the weld line is calculated. Further, the bead width is calculated from the distance between the bead end portions.
  • step S8 the following processing is performed.
  • the angle of the grooved surface on the weld line vertical surface S1 calculated in the groove / bead surface extraction step (step S7) and the position of the vertical surface S1 calculated in the coordinate conversion data calculation step (step S3) The inclination angle of the beveled surface in the robot coordinate system is calculated from the transformation matrix Cn ′ representing the posture and the posture.
  • welding conditions and aiming position on the vertical line of the weld line and torch posture Find the optimal value of The welding conditions include welding current, welding voltage, welding speed, weaving frequency, amplitude and direction.
  • conditional branch expression is stored in the shape sensor processing device 6.
  • 10 and 11 show an example of the conditional branch expression.
  • FIG. 9 shows a combination of conditions based on the bead width.
  • FIG. 10 shows the welding conditions. Multilayer welding is considered here.
  • the bead width (the width of the existing (lower layer) bead) is equal to or less than the first value (12 mm)
  • condition 3 is selected, welding is performed at the center of the existing bead, and a higher layer bead is formed. If the bead width is greater than the first value (12 mm) and not more than the second value (19 mm), conditions 1 and 3 are sequentially selected, and welding is performed at the right and left two places. Further, if the bead width is larger than the second value (19 mm), conditions 1, 2 and 3 are selected in order, and welding is performed at three locations, right, center and left.
  • End of bead in condition 2 of FIG. 11 means the end of bead below the layer to be welded.
  • an aim position, a torch attitude, and welding conditions are set.
  • the aim position, the torch attitude, and the welding conditions that fit the bead width calculated in the groove / bead surface extraction step (step S7) are obtained.
  • conditional branch formulas as shown in FIGS. 10 and 11 are set for each gradient of the weld line. In this way, if the bead width and the gradient of the weld line are determined, the aim position, the torch posture, and the welding condition can be determined.
  • the inclination angle of the groove is used as a reference of the torch posture. That is, the torch posture is determined with the beveled surface as a reference surface.
  • the above-described aim position, torch posture, and welding conditions are generally set as values on the groove vertical plane S1. For this reason, in said Formula (3), the coordinate of shape data is converted into the coordinate on vertical surface S1.
  • a conversion matrix Cn ′ ′ representing the position and posture of the teaching point (welding torch 3) of the welding teaching data is determined. Since it corresponds to the position and posture of the tip of, it can be expressed by the following equation (4), similarly to the equation (2).
  • Cn " A 1 ⁇ A 2 ⁇ A 3 ⁇ A 4 ⁇ A 5 ⁇ A 6 ?? (4)
  • the content of the matrix A i of the formula (1), (2) does not necessarily coincide with (4) (the welding robot 2 arm states different).
  • the aiming position and torch attitude on the welding line vertical plane S1 are converted to the aiming position and torch attitude in the robot coordinate system using the calculated coordinate transformation matrix Cn ′ ′ As described below, a matrix Xd ′ expressed in the robot coordinate system is calculated from the matrix Xd representing the position and posture on the weld line vertical plane S1.
  • the robot control device 5 the calculated welding position / posture and welding conditions are stored in the teaching data storage device 14.
  • the welding operation can be taught and welding teaching data can be generated.
  • the welding operation is performed by automatically reproducing the teaching data.
  • the use of the welding device constituted by the slider device 1, the welding robot 2, the welding torch 3, and the shape sensor 4 eliminates the need for a rail for moving the welding robot.
  • the robot control device 5 and the shape sensor processing device 6 the degree of freedom of the attitude of the sensor for measuring the shape of the weld bead is improved. As a result, it is possible to provide an automatic welding apparatus and welding method for large complex structures capable of high quality automatic welding.
  • a three-dimensional CAD 23 for product design and an off-line teaching system 24 are provided.
  • the welding apparatus includes a slider device 1, a shape sensor processing device 26 that receives data from the slider device 1, and a robot control device 5 that transmits and receives data to and from the shape sensor processing device 26.
  • the robot control device 5 has a teaching data storage device 14 and an operation axis control device 15.
  • the teaching data storage unit 14 transmits measurement teaching data to the shape sensor processing unit 6.
  • the movement axis control device 15 controls the movement of the slider device 1 and the welding robot 2.
  • the data output from the shape sensor 4 is output to the shape sensor processing device 26.
  • the shape sensor processing device 26 carries out the process as shown in FIG.
  • teaching data is stored in the teaching data storage device 14.
  • teaching data is input using an input device such as a keyboard.
  • step S42 movement axes of the slider device 1 and the welding robot 2 are controlled based on the teaching data (measurement teaching data) stored in the teaching data storage step (step S41).
  • the motion axis control device 15 drives the slider device 1 and the welding robot 2 to move the shape sensor to the measurement teaching point. Then, measurement data from the shape sensor 4 is acquired.
  • a measurement / welding teaching process (step S43), an attitude changing process (step S44), and a conversion data calculation process (step S45) are performed.
  • step S43 teaching data is created on a computer.
  • step S44 the interference between the construction object such as a large water wheel runner and the welding device is confirmed. When these interfere with each other, the postures of the welding torch 3 and the shape sensor 4 are changed.
  • step S45 conversion data of the posture before posture change and the posture after change is calculated.
  • shape data extraction step (S46), sensor posture correction step (step S47), change point extraction step (step S48), groove / bead surface extraction step (step S49), welding condition calculation A process (step S50) and a welding position / posture correction process (step S51) are performed.
  • the welding position / posture correction process (step S51) is provided as an alternative to the welding position / posture calculation process (step S51) in the first embodiment.
  • Steps S46 to S51 correspond to steps S4 to S8 in the first embodiment, and respectively show the same steps. Step S51 will be described later.
  • three-dimensional shape data of a construction object such as a water turbine runner is created using the three-dimensional CAD 23 for product design, and is input to the off-line teaching system 24, that is, a digitizing device.
  • the off-line teaching system 24 that is, a digitizing device.
  • a person operates the welding robot 2 to input data. That is, the interference of the object to be welded and the welding apparatus is manually avoided.
  • the digitized data is input to the welding robot 2 using the three-dimensional CAD 23 for product design and the off-line teaching system 24.
  • the interference is automatically avoided using three-dimensional data of the welding object and the welding apparatus.
  • the three-dimensional shape data of the input construction object is generated in advance, and the three-dimensional shape of the welding device (slider device 1, welding robot 2, welding torch 3, shape sensor 4) Place in a virtual space on a computer with a model. Then, the shape sensor (and welding) is at a position and a direction (posture) passing through the vertical plane S1 of the weld line of the groove portion of the construction object represented by the three-dimensional shape data and the center of the angle between the groove surfaces.
  • the teaching data is calculated such that the torch is placed.
  • Measurement teaching data and welding teaching data are created by adding an operation command to each teaching point as described above.
  • step S44 the presence or absence of interference between the object to be installed and the welding apparatus is confirmed using the measurement and welding teaching data. If there is interference, the postures of the welding torch 3 and the shape sensor 4 included in the teaching data are changed. The welding teaching data whose attitude has been changed is used in the welding position / attitude correction step (step S51). Further, the measurement teaching data is output to the teaching data storage device 14 and the conversion data calculation function 27.
  • step S45 rotation conversion data from after the posture change to before the posture change is calculated.
  • attitude data of the measurement teaching point in the measurement teaching data after attitude change obtained in the attitude change process step S44
  • attitude change obtained in the measurement / welding teaching process step S43
  • the shape data after distortion correction is calculated by converting the shape data calculated in the shape data extraction step (step S46) based on the rotation conversion data.
  • step S51 the position / attitude data of the welding teaching point in the welding teaching data calculated in the attitude changing process (step S44) is corrected.
  • step S50 the welding conditions calculated in the welding condition calculation process (step S50), the aiming position on the welding wire vertical plane, the torch attitude, and the rotation conversion data calculated in the conversion data calculation process (step S45) is used.
  • the corrected position / posture data is stored in the teaching data storage device 14 as welding teaching data.
  • the motion axis control device 15 drives the slider device 1 and the welding robot 2 based on the welding teaching data stored in the teaching data storage device 14 to perform automatic welding.
  • the use of the welding device constituted by the slider device 1, the welding robot 2, the welding torch 3, and the shape sensor 4 eliminates the need for a rail for moving the welding robot.
  • the robot control unit 5 the shape sensor processing unit 26, the three-dimensional CAD 23 for product design, and the off-line teaching system 24, the degree of freedom of the attitude of the sensor for measuring the weld bead shape is improved. As a result, it is possible to provide an automatic welding apparatus and welding method for large complex structures capable of high quality automatic welding.
  • Graphs 1, 1-1, 1-2, 2 and 3 are shape data, previous shape data (showing shape data at previous welding), current shape data (showing shape at current welding), current The angle change amount of the vector of shape data and the difference between the previous shape data and the current shape data are shown.
  • the shape data (graph 1) includes the previous shape data (graph 1-1) and the current shape data (graph 1-2).
  • step S6 and S48 in the change point extraction step (steps S6 and S48), four points A, B, C, and D in which the amount of change in angle of the vector of shape data is large are extracted in the order of the amount of change.
  • the portion that becomes the crown or the band-side groove surface extracts the shape data end E as the groove surface end. Furthermore, the difference between the previous shape data and the current shape data is calculated.
  • the points B and D of the current shape data corresponding to the points b and d where the amount of change in the difference is large are extracted as bead end portions.
  • welding conditions, a target position, and a torch posture are selected so that the weld bead does not have an overlap shape that causes penetration defects.
  • the lower end shape of the weld bead tends to be smooth compared to other welding postures.
  • a phenomenon occurs in which the bead end can not be extracted.
  • the difference between the previous shape data and the current shape data is obtained, and a point having a large amount of change is extracted to be the bead end.
  • the welding condition which comprises the welding current, welding voltage, welding speed, weaving frequency, amplitude and direction corresponding to the bead width obtained from the position of the bead end, and on the measurement surface Determine the aim position and torch attitude at the
  • the bead end position can be reliably determined from the measured shape data. Based on this, high-quality automatic welding can be performed by determining the welding conditions, the target position, and the torch posture.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manufacturing & Machinery (AREA)
  • Human Computer Interaction (AREA)
  • Plasma & Fusion (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)
  • Arc Welding In General (AREA)
  • Butt Welding And Welding Of Specific Article (AREA)

Abstract

 実施形態の溶接装置は、溶接ロボットに取り付けられる溶接トーチおよび形状センサと、前記形状センサでの計測データから、溶接対象の輪郭を表す形状データを抽出する形状データ抽出部と、前記形状センサの位置および姿勢に基づいて、前記形状データを補正するための座標変換データを算出する変換データ算出部と、前記座標変換データに基づいて、前記形状データを補正する形状データ補正部と、前記補正された形状データに基づいて、前記溶接対象の開先の傾斜角度を算出する角度算出部と、前記開先の傾斜角度に基づいて、前記溶接トーチの位置と姿勢を決定する溶接位置・姿勢決定部と、を有する。

Description

溶接装置および溶接方法
 本発明の実施形態は、溶接ロボットを用いた溶接装置および溶接方法に関する。
 水力発電装置の水車ランナ等の大型複雑構造物では、その部材は厚板となるため、部材同士の接合に多層肉盛溶接が用いられる。しかし、部材の溶接作業は必ずしも容易でなく、部材の素材や構造によっては、溶接作業が困難となる。例えば、割れ感受性の高い部材を溶接する際には、溶接部の0割れを防止するために予熱処理され、母材が所定の温度範囲に入っている状態で溶接される。このため、溶接を行う作業者に高温環境下での作業を強いることになる。また、部材同士が入り組んだ複雑構造物では、狭隘部での溶接作業となる。このため、作業性の悪い姿勢が続くなど、作業者に多くの労力を強いることになる。
 そのため、レールを用いた溶接装置が提案されている(特許文献1参照)。この溶接装置は、溶接線に沿って、溶接対象物に設置されるレールと、そのレール上を走行する多関節型ロボットと、溶接ビード形状を計測するセンサとを有する。このセンサで計測された溶接ビード形状に基づいて、溶接ねらい位置が補正される。この結果、品質の高い自動溶接が可能となる。また、多層肉盛溶接において、開先および溶接ビード形状を計測することで、溶接速度、ねらい位置およびトーチ姿勢を補正する方法が提案されている(特許文献2参照)。
 しかしながら、特許文献1記載の溶接装置では、水車ランナ等の3次元曲面を有する溶接対象物に対応するレールの製作、取り付けに、多大な費用および労力を要する。さらに、水車ランナ等の狭隘部の多い溶接対象物では、溶接ビード形状を計測するセンサの配置が制限されることから、形状データに歪が生じ易くなる。即ち、センサ等と溶接対象物との干渉を避けるために、溶接線の鉛直面に対して、回転および傾斜させた位置へのセンサ等の配置が必要となり、計測された形状データに歪みが生じる。この場合、溶接ビードの形状の計測結果に基づく、溶接速度等の補正に誤りが含まれることになる。
特許登録第2529316号明細書 特許登録第3829213号明細書
 本発明は、溶接ロボットを走行させるレールが不要で、かつ高品質の自動溶接を可能とする溶接装置および溶接方法を提供することを目的とする。
 実施形態の溶接装置は、溶接ロボットに取り付けられる溶接トーチおよび形状センサと、前記形状センサでの計測データから、溶接対象の輪郭を表す形状データを抽出する形状データ抽出部と、前記形状センサの位置および姿勢に基づいて、前記形状データを補正するための座標変換データを算出する変換データ算出部と、前記座標変換データに基づいて、前記形状データを補正する形状データ補正部と、前記補正された形状データに基づいて、前記溶接対象の開先の傾斜角度を算出する角度算出部と、前記開先の傾斜角度に基づいて、前記溶接トーチの位置と姿勢を決定する溶接位置・姿勢決定部と、を有する。
 また、実施形態の溶接方法は、位置・姿勢データに基づいて、溶接対象に対する形状センサの位置および姿勢を制御するステップと、前記位置・姿勢データに基づいて、位置および姿勢を制御された形状センサでの計測データから、前記溶接対象の輪郭を表す形状データを抽出するステップと、前記位置・姿勢データに基づいて、前記形状データを補正するための座標変換データを算出するステップと、前記座標変換データを用いて、前記形状データを補正するステップと、前記補正された形状データから、形状の変化点を複数抽出するステップと、前記補正された形状データから、ビードの端部に対応する、複数の形状の変化点を抽出するステップと、前記補正された形状データおよび前記複数の形状の変化点に基づいて、前記ビードの幅と、開先面の傾斜角度とを算出するステップと、前記ビードの幅と、前記開先面の傾斜角度に基づいて、溶接条件、前記溶接トーチの位置および姿勢を決定するステップと、前記溶接条件、前記溶接トーチの位置および姿勢に基づいて、溶接するステップと、を有する。
 本発明の溶接装置および溶接方法によれば、溶接ロボットを走行させるレールが不要で、かつ高品質の自動溶接が可能となる。
実施の形態の溶接装置の構成を例示する図である。 実施の形態の溶接方法のフローを例示する図である。 実施の形態の溶接装置と水車との位置関係を例示する図である。 水車の開先傾斜角度の変化と溶接の様子を例示する図である。 水車の溶接線高低変化を例示する図である。 実施の形態の溶接装置の要部を例示する図である。 実施の形態の溶接方法を例示する図である。 座標変換を表す図である。 補正後の形状データで表される形状(輪郭)を例示する図である。 条件分岐式の一例を表す図である。 条件分岐式の一例を表す図である。 実施の形態の溶接装置の構成を例示する図である。 実施の形態の溶接方法のフローを例示する図である。 実施の形態の溶接方法を例示する図である。
 以下、図面を参照しつつ、実施の形態について説明する。尚、各図面中、同様の構成要素には同一の符号を付して詳細な説明は適宜省略する。
(第1の実施形態)
 第1の実施の形態の溶接装置について図1を用いて説明をする。この溶接装置は、スライダ装置1と、スライダ装置1からデータを受信する形状センサ処理装置6と、形状センサ処理装置6と相互にデータを送受信するロボット制御装置5と、を有する。ロボット制御装置5は、教示データ記憶装置14と動作軸制御装置15を有する。教示データ記憶装置14は、形状センサ処理装置6へ計測教示データを送信する。動作軸制御装置15は、スライダ装置1と後述する溶接ロボット2の動作を制御する。
 スライダ装置1は、台座B1、支柱B2、B3、B4、ベース7を有する。支柱B2は、台座B1に対して、上下方向の軸を旋回軸として、矢印Aで示される回転が可能である。支柱B3は、支柱B2に対して、上下方向(矢印B)の移動(直動)が可動である。支柱B4は、支柱B3に対して、前後方向(矢印C)の移動(直動)が可能である。ベース7は支柱B4の前方に取り付けられている。即ち、ベース7は、上下方向の軸に対する回転、上下方向および前後方向の移動が可能である。ベース7に溶接ロボット2が設置される。
 溶接ロボット2は、多関節での多軸回転が可能なアームを有する。例えば、6つの関節での6軸の回転が可能である。この場合、第1~第6の関節それぞれに第1~第6のリンク(サブアーム)が配置される。即ち、第1の関節、第1のリンク、第2の関節、第2のリンク、…、第6の関節、第6のリンクが順に配置される。第1の関節がベース7に配置される。第jの関節が第(j-1)のリンクの先端に配置される(1<j≦6)。第6のリンクの先端が、アームの先端に対応する。
 このアームの先端に、互いに対応するように(例えば、溶接トーチ3と形状センサ4の相対的な位置(距離)が固定)、溶接トーチ3と形状センサ4が取り付けられている。形状センサ4から形状センサ処理装置6に計測データが出力される。後述のように、形状センサ4は、照射装置と撮像装置の組み合わせによって構成できる。
 図2を用いて、溶接装置の動作を説明する。溶接装置の動作は、ロボット制御装置5での処理工程(ステップS1、S2)および形状センサ処理装置6での処理工程(ステップS3~S9)に区分される。
 教示データ記憶工程(ステップS1)では、教示データ記憶装置14に教示データが記憶される。例えば、ロボット制御装置5に設けられた操作装置を用いて溶接トーチ3または形状センサ4を教示点に移動し、その位置と姿勢を記憶する機能を選択する。この結果、教示データが入力され、教示データ記憶装置14に記憶される。
 教示データは、溶接ロボット2のアームの先端に取り付けられた溶接トーチ3および形状センサ4の位置・姿勢を表す位置・姿勢データと溶接条件とを含む動作命令で構成される。教示データは、溶接トーチ3での溶接に用いられる溶接教示データ、および形状センサ4での計測に用いられる計測教示データに区分できる。
 位置・姿勢データは、溶接(予定)線(溶接対象に形成されるビードの軸を表す線分)に対応する。即ち、溶接トーチ3の位置(正確には、溶接トーチ3で熔接されるポイント)が溶接線上に配置される。また、一般には、溶接線の鉛直面上、一対の開先面の傾斜角度の中心を通る向きに溶接トーチ3を配置するのが好ましい(正規の位置および姿勢)。通常、このような位置および姿勢に対応して、位置・姿勢データが設定される。
 但し、溶接装置と溶接対象の干渉の関係で、正規の位置および姿勢を選択できない場合がある。この場合、溶接装置と溶接対象が干渉しないように、溶接トーチ3の位置および姿勢が変更される。本実施形態では、ロボット制御装置5に設けられた操作装置を用いて、スライダ装置1と溶接ロボット2を操作することで、人的に干渉を回避できる。
 同様に、形状センサ4の位置、姿勢も溶接予定線に対応する。形状センサ4が照射装置と撮像装置の組み合わせによって構成されるとする。この場合、溶接線の鉛直面に沿って、照射装置から光が照射されることが好ましい。例えば、後述の照射面S0が溶接線の鉛直面S1と一致することが好ましい。但し、溶接装置と溶接対象が干渉しないように、形状センサ4の位置および姿勢が適宜に変更される。
 このようにして、教示データ記憶工程(ステップS1)において、溶接装置と溶接対象とが干渉しないような、教示データ(位置・姿勢データ)が入力される。
 溶接トーチ3での溶接および形状センサ4での計測それぞれで、異なる位置・姿勢データを用いることができる(溶接トーチ3および形状センサ4の位置、姿勢の少なくとも一方が異なる)。但し、溶接トーチ3および形状センサ4の位置、姿勢を一致させても良い。
 位置・姿勢データは、溶接ロボット2の取り付け位置(ベース7)を表す基準座標と、基準座標からの溶接トーチ3等の相対的な変位を表す相対座標(ロボット座標系)に区分できる。基準座標、相対座標はそれぞれ、スライダ装置1および溶接ロボット2の動作の制御に用いられる。
 動作軸制御工程(ステップS2)では、教示データ記憶工程(ステップS1)で記憶された教示データ(計測教示データ)に基づいて、スライダ装置1と溶接ロボット2の動作軸が制御される。教示データ中の基準座標、相対座標それぞれによって、スライダ装置1と溶接ロボット2の動作が制御される。即ち、位置・姿勢データに基づいて、形状センサ4の位置・姿勢が制御される。この制御後に、形状センサ4による計測がなされる。
 座標変換データ算出工程(ステップS3)では、ロボット制御装置5から出力される教示データ(計測教示データ)に基づいて、形状データ補正用の座標変換データ(後述の変換行列Cn,Cn’,Cn”等)が算出される。この工程で算出された座標変換データは、ステップS5、ステップS8、ステップS9で用いられる。なお、座標変換データの算出の詳細は後述する。
 形状データ抽出工程(ステップS4)では、動作軸制御工程(ステップS2)で形状センサ4から出力される計測データからノイズ除去と二値化を行うことで、溶接対象の輪郭を表す形状データが抽出される。後述のように、溶接対象物に対する形状センサ4の位置、姿勢によっては、この形状データに歪みが生じる。
 センサ姿勢補正工程(ステップS5)では、座標変換データ算出工程(ステップS3)で算出された座標変換データを用いて、形状データ抽出工程(ステップS4)で抽出された形状データが補正される。即ち、形状データの歪みが低減される。
 変化点抽出工程(ステップS6)では、センサ姿勢補正工程(ステップS5)で補正された形状データから形状の変化点が抽出される。この変化点は、例えば、溶接対象物の上面と開先面との境界、溶接ビードと開先面の境界(溶接ビードの端部)に対応する。即ち、複数の面(例えば、上面、開先面、ビード面)の境界では、その輪郭の角度が急激に変化する。このため、形状データで表される輪郭での局所的な勾配(微分量)の絶対値が大きい箇所として、変化点が抽出される。なお、この詳細は後述する。
 開先・ビード面抽出工程(ステップS7)では、変化点抽出工程(ステップS6)で抽出された変化点からビード端部が抽出される。さらに、ビード面と開先面が特定される。既述のように、変化点には、溶接ビードの端部(溶接ビードと開先面の境界)が含まれる。第3の実施形態で示すように、前回の溶接(今回の溶接層の下層での溶接)前後での形状データを比較し、形状の変化量が大きいポイントをビード端部として抽出できる。溶接ビードの2つの端部の間での形状データがビード面に対応する。また、この2つの端部の両側での形状データが一対の開先面に対応する。なお、この詳細は後述する。
 溶接条件算出工程(ステップS8)では、開先・ビード面抽出工程(ステップS7)で特定されたビードの幅と一対の開先面の傾斜角度から、溶接条件、溶接ねらい位置(熔接時の溶接トーチ3の位置)、溶接トーチ姿勢(熔接時の溶接トーチ3の姿勢(向き))が決定される。ビードの幅は、溶接ビードの2つの端部間の距離に対応する。
 溶接位置・姿勢算出工程(ステップS9)では、溶接条件算出工程(ステップS8)で算出された溶接ねらい位置および溶接トーチ姿勢をロボット座標系上の位置および姿勢として算出される。算出された位置データは教示データ記憶装置14に教示データ(溶接教示データ)として記憶される。この溶接教示データに基づいて、溶接装置による溶接がなされる。
 一例として、水車ランナの溶接について説明をする。図3に示すように、クレーン(図示なし)で、水車ランナ16を起立状態で吊り上げ、ターニングローラ17上に設置する。スライダ装置1と溶接ロボット2で構成される溶接装置が水車ランナ16の開口部51の横に設置される。
 ターニングローラ17を回転させることで、水車ランナ16を連動して回転させる。羽根18(溶接対象となる部材)の開先部(開先面に対応する部位)53(図6参照)が溶接装置の前方に位置する角度で、水車ランナ16の回転を停止させる。その状態で、ロボット制御装置5に設けられた動作軸制御装置15によって、スライダ装置1と溶接ロボット2が操作される。溶接ロボット2のアーム先端に取り付けられた形状センサ4によって、開先部53の形状が計測される。
 水車ランナ16の部材である羽根18、クラウン19およびバンド20はそれぞれが3次元曲面を有する。図4および図5に、羽根18の開先の傾斜角度と溶接線の勾配の一例を示す。図4の縦軸が開先の傾斜角度を示す。図4の横軸が、入口(水車ランナ16外周側に配置される、水を取り込む箇所)から出口(水車ランナ16中央に配置される、水を放出する箇所)に向かう方向での距離を示す。また、図5の縦軸が基準点からの高さを示す。図5の横軸が入口から出口に向かう方向での距離を示す。この傾斜角度と溶接線の勾配が、連続的に変化していることが分かる。
 本実施形態では、3次元曲面のような複雑な形状の溶接が可能である。以下、一例として、図6に示すような形状センサ4を使用する場合について説明する。この形状センサ4は、照射装置であるレーザスリット光照射器21と撮像装置であるCCDカメラ22とで構成される。
 レーザスリット光照射器21は、スリット状のレーザ光(スリット光)を照射する。溶接対象である羽根18に向かうスリット光は、照射面(スリット光によって形成される面)S0と交わる線状の部位(照射ライン)LRに照射される。照射ラインLRは、溶接対象の輪郭に対応する形状を有する。照射ラインLRの画像が、CCDカメラ22で計測データとして取り込まれる。既述のように、形状データ抽出工程(ステップS4)において、この計測データから、スリット光の形状(照射ラインLRの形状)が形状データとして抽出される。
 正確には、次のように形状データが生成される。まず、CCDカメラ22で得られた画像(計測データ)から溶接対象に当たったスリット光の画素(照射ラインLR)が抽出される。そして、光照射器21とCCDカメラ22との相対位置および相対姿勢(向き)に基づき、抽出された各画素の位置(照射ラインLR)を光照射器21から照射されるスリット光面(照射面S0)上の位置に変換する。この結果、形状データが生成される。
 抽出される形状データの精度を考慮すると、照射面S0が溶接(予定)線に対して鉛直であることが好ましい。即ち、照射面S0が溶接線と垂直になるように、溶接ロボット2を制御して、形状センサ4の位置、姿勢が決定される。
 既述のように、形状センサ4の位置、姿勢が制限され、照射面S0と溶接線とを鉛直とできない場合があり得る。即ち、形状センサ4の位置、姿勢によっては、水車ランナの部材と、溶接トーチ3および形状センサ4とが干渉する(接触する)可能性がある。この場合、形状センサ4の姿勢を変更して、干渉を回避する必要がある。
 照射面S0と溶接線が鉛直でない場合、形状データ抽出工程(ステップS4)で抽出される形状データに、姿勢変更分の歪が含まれることになる。このため、形状データの補正が必要となる。ここで、姿勢変更分の歪は、スリット光の照射面S0が溶接線に対して鉛直な場合での形状データからのずれを意味する。なお、他の検出方式の形状センサを使用した場合でも、一般に歪が発生し、補正が必要となる。
 この姿勢変更分の補正には、照射面S0の位置および方向(溶接線の鉛直面に対する形状センサ4の姿勢のデータ)が必要である。このため、計測教示データ(位置・姿勢データ)が教示データ記憶装置14から形状センサ処理装置6へ送られる。
 図7を用いて姿勢変更分の補正について説明をする。計測教示点(ここでは、溶接予定線上の点)Pnに対応する形状データを補正することを考える。座標変換データ算出工程(ステップS3)において、計測教示点Pnおよびその前後の計測教示点Pn-1、Pn+1を含む、3つの計測教示点Pn-1、Pn、Pn+1を通る円弧ACを想定する。この円弧ACに教示点Pnで接する接線ベクトルXn’を求める。この接線ベクトルXn’は、教示点Pnにおける溶接線方向を表わす。
 次に教示点Pnを含み、ベクトルXn’を法線ベクトルとする溶接線の鉛直面S1を求める。前記教示データ記憶装置14から入力された計測教示データの計測教示点の位置・姿勢データから形状センサ4のレーザスリット光照射器21の軸方向を表わすベクトルZnを求める。ベクトルZnを前記鉛直面に投影したベクトルZn’を求める。
 接線ベクトルXn’の単位ベクトルNとし、Nに垂直な平面S1へ射影する射影行列をPnとする。このとき、次のような関係が成り立つ。
  Pn=I-N・N
 ここで、I:単位行列、N:単位ベクトルNを転置した転置ベクトル
 以上からZn’は以下の式で算出できる。
  Zn’=Pn・Zn
 上記で得られたベクトルXn’とZn’に直交するベクトルYn’を求める。
  Yn’=Zn’× Xn’ (ここで、「×」はベクトルの外積を表す)
 これらのベクトルXn’、Yn’、Zn’を座標軸とし、教示点Pnを座標原点とする(ロボット座標系から見た)鉛直面S1の座標系を表す行列(変換行列)Cn’が算出される。
 次に、変換行列Cnの算出につき説明する。既述のように、形状センサ4(および溶接トーチ3)は、例えば、6つの関節を有する、溶接ロボット2のアームに取り付けられる。このため、6つの関節の動作に応じて、形状センサ4の位置および姿勢(方向)が定まる。
 ここで、第1~第6の関節に接続される第1~第6のリンクの先端それぞれでの相対的な位置、姿勢を行列Aで表すことができる。即ち、行列Aは、ロボット座標を基準とする第1リンクの先端の位置・姿勢を表す。行列Aは、第(i-1)のリンクの先端を基準とする第iリンクの先端の位置姿勢を表す。
 このようにすると、ロボット2のアームの先端(形状センサ4)の位置および方向(照射面S0の位置及び方向(計測教示データの教示点の位置と姿勢))を表す行列Tは、次のように行列A~Aの積によって、表現できる。
  T=A・A・A・A・A・A  ……式(1)
 行列Aには、並進成分、回転成分の双方が含まれて良い。並進成分は、第(i-1)のリンクの先端に対する、第iのリンクの先端の並進移動による座標変換の成分を表す。回転成分は、第(i-1)のリンクの先端に対する、第iのリンクの先端の回転移動による座標変換の成分を表す。
 並進成分は、教示点Pnの位置に対応する。これは、計測教示データが各関節軸の角度で記憶されている場合は、運動学方程式を解くことで得られる。教示点Pnの教示データに対応する式(1)から並進成分が算出される。
 回転成分につき説明する。ベクトルXn’,Yn’,Zn’のそれぞれの単位ベクトルをN=[Nx,Ny,Nz,0]、O=[Ox,Oy,Oz,0]、A=[Ax,Ay,Az,0]とする。また、Z軸まわりの回転をΔr、Y軸まわりの回転をΔp、X軸まわりの回転をΔyとする(ロール・ピッチ・ヨーの回転)。
 この場合の回転変換は、以下のように表されることが知られている。
  Δr=atan2(Ny,Nx)) および Δr=Δr+180°
  Δp=atan2(-Nz,cosΔr・Nx-sinΔr・Ny)
  Δy=atan2(sinΔr・Ax-cosΔr・Ay,
                -sinΔr・Ox+cosΔr・Oy)
 ベクトルXn、Yn、Znを座標軸とし、教示点Pnを座標原点とする(ロボット座標系から見た)照射面S0の座標系を表す行列(変換行列)Cnは、式(1)と同様の式(2)によって表される。
  Cn=A・A・A・A・A・A  ……式(2)
 但し、行列Aの内容は、式(1)、(2)で必ずしも一致しない(溶接ロボット2のアームの状態が異なる)。
 以上で算出された変換行列Cn’,Cnは、座標変換データを意味する。座標変換データは、センサ姿勢補正工程(ステップS5)、溶接条件算出工程(ステップS8)、溶接位置・姿勢算出工程(ステップS9)で用いられる。
 センサ姿勢補正工程(ステップS5)では、形状データ抽出工程(ステップS4)で抽出された形状データが補正される。即ち、形状データ上の点(照射ラインLR上の点)に対応する位置行列Tnから、補正後の形状データに対応する位置行列Tn’が算出される。
 具体的には、次の式(3)によって、位置行列Tn’が算出される。
  Tn’=Cn’-1・Cn・Tn  ……式(3)
 ここで、「Cn’-1」は、行列Cn’の逆行列を表す。
 次に、式(3)による位置行列Tnからの位置行列Tn’の算出(「Cn’-1・Cn」による座標変換)の意味を説明する。
 図8に、この座標変換の内容を模式的に表す。照射面S0上の位置データ(形状データ)が、鉛直面S1上の形状データに変換される(座標変換)。
 照射面S0上の点Paの鉛直面S1への射影を点Pbとする。点Pa、Pbをそれぞれ、ベクトルVa(=[Xa,Ya,Za,1])、Vb(=[Xb’,Yb’,Zb’,1])で表す。ベクトルVa,Vbはそれぞれ、照射面S0上の座標(Xa,Ya,Za]、鉛直面S1の座標(Xb’,Yb’,Zb’)で表されている。
 このとき、ベクトルVbは次のように、ベクトルVaから算出される。
  Vb=Cn’-1・Cn・Va
 以上から判るように、「Cn’-1・Cn」による座標変換は、照射面S0上の点から鉛直面S1上への射影に対応する。この座標変換を用いて、補正後の形状データ上の点に対応する位置行列Tn’が算出される(式(3))。形状データの各点(照射ラインLR上の点(座標))それぞれに対応する複数の位置行列Tnから、補正後の形状データの各点(補正された照射ラインLR上の点)それぞれに対応する複数の位置行列Tn’が算出される。
 補正後の形状データ(位置行列Tn’)は、変化点抽出工程(ステップS6)で利用される。即ち、図9に示すように、形状データの各ポイント(補正後の照射ラインLR上の点)を繋いだベクトル間での角度変化(角度差)の大きいポイントが、変化点として抽出される。
 開先・ビード面抽出工程(S7)では、次のような処理がなされる。まず、抽出されたポイント(変化点)から開先端部となる二つのポイントが抽出される。その2点間にあるポイントがビード端部と特定される。クラウン19側またはバンド20側の開先端部とビード端部の位置から、溶接線の鉛直面S1上での開先面の角度が算出される。また、ビード端部同士の距離からビード幅が算出される。
 溶接条件算出工程(ステップS8)では、次のような処理がなされる。まず、開先・ビード面抽出工程(ステップS7)で算出された溶接線鉛直面S1上での開先面の角度と、座標変換データ算出工程(ステップS3)で算出された鉛直面S1の位置と姿勢を表わす変換行列Cn’から、ロボット座標系での開先面の傾斜角度が算出される。これら開先の傾斜角度と溶接線の勾配と、開先・ビード面抽出工程(ステップS7)で算出されたビード幅に基づいて、溶接条件と、溶接線鉛直面上でのねらい位置とトーチ姿勢の最適値を求める。溶接条件は、溶接電流、溶接電圧、溶接速度、ウィービング周波数・振幅・方向で構成される。
 具体的には、形状センサ処理装置6内に条件分岐式を記憶させる。図10、図11は、条件分岐式の一例を表す。図9がビード幅による条件の組み合わせを表す。図10が溶接条件を表す。ここでは多層溶接を考慮している。
 ビード幅(既存(下層)のビードの幅)が第1の値(12mm)以下であれば、条件3が選択され、既存のビードの中央で溶接がなされ、より上層のビードが形成される。ビード幅が第1の値(12mm)より大きく第2の値(19mm)以下であれば、条件1、3が順に選択され、右側、左側の2箇所で溶接がなされる。また、ビード幅が第2の値(19mm)より大きければ、条件1、2、3が順に選択され、右側、中央、左側の3箇所で溶接がなされる。
 図11の条件2での「先のビードの端部」はこれから溶接しようとする層より下層のビードの端部を意味する。
 図11に示す条件1~3では、ねらい位置、トーチ姿勢、溶接条件(アーク条件、ウィービング条件)が設定されている。このように、開先・ビード面抽出工程(ステップS7)で算出されたビード幅に合うねらい位置、トーチ姿勢、溶接条件が求められる。
 ここで、図10、図11の条件分岐において、条件1~3が適用される溶接線勾配の範囲が設定されているものとする。即ち、溶接線の勾配毎に、図10、図11のような条件分岐式が設定されているものとする。このようにすることで、ビード幅、溶接線の勾配が決まれば、ねらい位置、トーチ姿勢、溶接条件が求まる。
 なお、開先の傾斜角度は、トーチ姿勢の基準として用いられる。即ち、開先面を基準面として、トーチ姿勢が決定される。
 以上のねらい位置、トーチ姿勢、溶接条件は、一般に、開先鉛直面S1上の値として設定されている。このため、上記の式(3)では、形状データの座標を鉛直面S1上の座標に変換している。
 一方、座標変換データ算出工程(ステップS3)で溶接教示データの教示点(溶接トーチ3)の位置と姿勢を表わす変換行列Cn”を求める。これは、計測教示点と同様に溶接ロボット2のアームの先端の位置と姿勢に対応することから、式(2)と同様、次の式(4)で表すことができる。
  Cn”=A・A・A・A・A・A  ……式(4)
 但し、行列Aの内容は、式(1)、(2)、(4)で必ずしも一致しない(溶接ロボット2のアームの状態が異なる)。
 溶接位置・姿勢算出工程(S9)では、算出された座標変換行列Cn”を用いて、溶接線鉛直面S1上でのねらい位置とトーチ姿勢がロボット座標系でのねらい位置とトーチ姿勢に変換される。以下のように、溶接線鉛直面S1上での位置と姿勢を表わす行列Xdからロボット座標系で表した行列Xd’が算出される。
 Xd’= Cn”-1・Cn’・Xd
 ここで、行列Cn”-1は、行列Cn”の逆行列を表わす。
 次に、ロボット制御装置5では算出された溶接位置・姿勢および溶接条件が教示データ記憶装置14に記憶される。
 以上を形状計測点毎に繰返すことで、溶接動作を教示し、溶接教示データを生成できる。この教示データを自動で再生することで、溶接作業が実行される。
 以上の結果より、本実施の形態によれば、スライダ装置1、溶接ロボット2、溶接トーチ3、形状センサ4で構成される溶接装置を用いることにより、溶接ロボットを走行させるレールが不要となる。
 また、ロボット制御装置5および形状センサ処理装置6を用いることにより、溶接ビード形状を計測するセンサの姿勢の自由度が向上する。この結果、高品質の自動溶接が可能な大型複雑構造物の自動溶接装置および溶接方法を提供可能となる。
(第2の実施形態)
 次に、第2の実施の形態について図12を用いて説明する。なお第2の実施の形態と同一の構成には同一の符号を付し、重複する説明は省略する。
 図12に示すように本実施例では、製品設計用3次元CAD23およびオフライン・ティーチング・システム24を設ける。
 第2の実施の形態の溶接装置について図12を用いて説明をする。この溶接装置はスライダ装置1と、スライダ装置1からデータを受信する形状センサ処理装置26と、形状センサ処理装置26と相互にデータを送受信するロボット制御装置5と、を有する。ロボット制御装置5は教示データ記憶装置14と動作軸制御装置15を有する。教示データ記憶装置14は形状センサ処理装置6へ計測教示データを送信する。動作軸制御装置15は、スライダ装置1と溶接ロボット2の動作を制御する。
 第1の実施形態と重複することから、スライダ装置1、溶接ロボット2の説明は省略する。形状センサ4から出力されるデータは形状センサ処理装置26に出力される。形状センサ処理装置26は、図13で示すような工程を実行する。
 教示データ記憶工程(ステップS41)では、教示データ記憶装置14に教示データが記憶される。例えば、キーボード等の入力装置を用いて、教示データが入力される。
 動作軸制御工程(ステップS42)では、教示データ記憶工程(ステップS41)で記憶された教示データ(計測教示データ)に基づいて、スライダ装置1と溶接ロボット2の動作軸が制御される。
 動作軸制御装置15がスライダ装置1および溶接ロボット2を駆動し、計測教示点に形状センサを移動する。そして、形状センサ4からの計測データが取得される。
 オフライン・ティーチング・システム24では、計測・溶接教示工程(ステップS43)、姿勢変更工程(ステップS44)、変換データ算出工程(ステップS45)が実行される。
 計測・溶接教示工程(ステップS43)では、コンピュータ上で教示データが作成される。姿勢変更工程(ステップS44)では、大型水車ランナなどの施工対象物と溶接装置との干渉が確認される。これらが干渉する場合、溶接トーチ3および形状センサ4の姿勢が変更される。変換データ算出工程(ステップS45)では、姿勢変更前の姿勢と変更後の姿勢の変換データが算出される。
 一方、形状センサ処理装置26では、形状データ抽出工程(S46)、センサ姿勢補正工程(ステップS47)、変化点抽出工程(ステップS48)、開先・ビード面抽出工程(ステップS49)、溶接条件算出工程(ステップS50)、および溶接位置・姿勢補正工程(ステップS51)が実行される。溶接位置・姿勢補正工程(ステップS51)は、第1の実施の形態での溶接位置・姿勢算出工程(ステップS51)の代替として設けられる。
 ステップS46~S51は第1の実施の形態におけるステップS4~ステップS8と対応し、それぞれ同様の工程を示す。ステップS51については後述する。
 本実施の形態では、水車ランナなどの施工対象物の3次元形状データが、製品設計用3次元CAD23を用いて作成され、オフライン・ティーチング・システム24、すなわち数値化装置に入力される。第1の実施の形態では、人が溶接ロボット2を操作して、データを入力していた。即ち、溶接対象および溶接装置の干渉を人的に回避していた。これに対し、本実施の形態では、製品設計用3次元CAD23、オフライン・ティーチング・システム24を用いて、数値化されたデータを溶接ロボット2に入力する。この結果、本実施形態では、姿勢変更工程(ステップS44)において、溶接対象および溶接装置の三次元データを用いて、干渉が自動的に回避される。
 計測・溶接教示工程(ステップS43)では、入力された施工対象物の3次元形状データを、予め作成された溶接装置(スライダ装置1、溶接ロボット2、溶接トーチ3、形状センサ4)の3次元モデルとともに、コンピュータ上の仮想空間に配置する。そして、3次元形状データで表される施工対象物の開先部の溶接線の鉛直面S1上、かつ開先面間同士の角度の中心を通る位置および方向(姿勢)に形状センサ(および溶接トーチ)が配置されるように、教示データが算出される。
 さらに、この位置および姿勢へのアプローチ動作および退避動作の教示データを追加する。このように各々の教示点に動作命令を付加することで、計測教示データおよび溶接教示データが作成される。
 次に姿勢変更工程(ステップS44)において、上記計測および溶接教示データを用いて、施工対象物と溶接装置との干渉の有無を確認する。干渉がある場合は、教示データに含まれる溶接トーチ3および形状センサ4の姿勢が変更される。姿勢変更された溶接教示データは、溶接位置・姿勢補正工程(ステップS51)において用いられる。また、計測教示データは、教示データ記憶装置14と変換データ算出機能27に出力される。
 変換データ算出工程(ステップS45)では、姿勢変更後から姿勢変更前への回転変換データが算出される。回転変換データの算出に、姿勢変更工程(ステップS44)で求められた姿勢変更後の計測教示データ内の計測教示点の姿勢データと、計測・溶接教示工程(ステップS43)で求められた姿勢変更前の計測教示データ内の計測教示点の姿勢データが用いられる。
 センサ姿勢補正工程(ステップS47)では、回転変換データに基づき、形状データ抽出工程(ステップS46)で算出された形状データを変換することで、歪補正後の形状データが算出される。
 溶接位置・姿勢補正工程(ステップS51)では、姿勢変更工程(ステップS44)で算出された溶接教示データ内の溶接教示点の位置・姿勢データを補正する。この補正には、溶接条件算出工程(ステップS50)で算出された溶接条件と溶接線鉛直面上でのねらい位置、トーチ姿勢、および前記変換データ算出工程(ステップS45)で算出された回転変換データが用いられる。
 補正された位置・姿勢データは、溶接教示データとして教示データ記憶装置14に記憶される。ロボット制御装置5では、教示データ記憶装置14に記憶された溶接教示データに基づき、動作軸制御装置15がスライダ装置1および溶接ロボット2を駆動し、自動溶接を行う。
 以上の結果より、本実施の形態によれば、スライダ装置1、溶接ロボット2、溶接トーチ3、形状センサ4で構成される溶接装置を用いることにより、溶接ロボットを走行させるレールが不要となる。
 また、ロボット制御装置5、形状センサ処理装置26、製品設計用3次元CAD23、オフライン・ティーチング・システム24を用いることにより、溶接ビード形状を計測するセンサの姿勢の自由度が向上する。この結果、高品質の自動溶接が可能な大型複雑構造物の自動溶接装置および溶接方法を提供可能となる。 
(第3の実施形態)
 第3の実施の形態を、図14を用いて説明する。なお、第1の実施の形態および第2の実施の形態と同一の工程には同一の符号を付し、重複する説明は省略する。
 グラフ1、1-1、1-2、2、3はそれぞれ、形状データ、前回形状データ(前回の溶接時の形状データを示す)、今回形状データ(今回の溶接時の形状を示す)、今回形状データのベクトルの角度変化量、前回形状データと今回形状データとの差分を示す。形状データ(グラフ1)は、前回形状データ(グラフ1-1)と今回形状データ(グラフ1-2)を含む。
 本実施の形態では、変化点抽出工程(ステップS6、S48)において、形状データのベクトルの角度変化量が大きい4つのポイントA、B、C、Dを、変化量の大きい順に抽出する。クラウンまたはバンド側開先面となる部分は、形状データ端部Eを開先面端部として抽出する。さらに前回形状データと今回形状データとの差分を算出する。この差分の変化量が大きいポイントb、dに対応する今回形状データのポイントB、Dをビード端部として抽出する。
 アーク溶接では、溶接ビードが溶け込み不良の原因となるオーバーラップ形状とならないように溶接条件、ねらい位置、トーチ姿勢が選定される。
 また、横向姿勢溶接では溶接ビードの下端形状が他の溶接姿勢に比べてなだらかになる傾向がある。この場合、形状データの角度変化量を抽出する場合に、ビード端部が抽出できない現象が発生する。
 本実施の形態では、前回形状データと今回形状データとの差分を求め、その変化量が大きいポイントを抽出してビード端部とする。溶接条件算出工程(S8、S50)ではこのビード端部の位置から求めたビード幅に対応する溶接電流、溶接電圧、溶接速度、ウィービング周波数・振幅・方向で構成される溶接条件と、計測面上でのねらい位置とトーチ姿勢を決定する。
 以上の結果より、計測された形状データから確実にビード端部位置を求めることができる。これに基づいて、溶接条件、ねらい位置、トーチ姿勢を決定することで、高品質の自動溶接が可能となる。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
 1・・・スライダ装置、2・・・溶接ロボット、3・・・溶接トーチ、4・・・形状センサ、5・・・ロボット制御装置、6・・・形状センサ処理装置、7・・・ベース、21・・・レーザスリット光照射器、22・・・CCDカメラ、23・・・製品設計用3次元CAD、24・・・オフライン・ティーチング・システム

Claims (8)

  1.  溶接ロボットに取り付けられる溶接トーチおよび形状センサと、
     前記形状センサでの計測データから、溶接対象の輪郭を表す形状データを抽出する形状データ抽出部と、
     前記形状センサの位置および姿勢に基づいて、前記形状データを補正するための座標変換データを算出する変換データ算出部と、
     前記座標変換データに基づいて、前記形状データを補正する形状データ補正部と、
     前記補正された形状データに基づいて、前記溶接対象の開先の傾斜角度を算出する角度算出部と、
     前記開先の傾斜角度に基づいて、前記溶接トーチの位置と姿勢を決定する溶接位置・姿勢決定部と、
    を具備する溶接装置。
  2.  前記角度算出部が、前記補正された形状データの変化点を抽出する変化点抽出部と、前記抽出された変化点に基づいて、開先面を抽出する開先面抽出部と、この開先面の傾斜角度を算出する角度算出部と、を有する
    請求項1記載の溶接装置。
  3.  前記溶接対象と前記形状センサの3次元形状データに基づき、前記溶接対象と前記形状センサが干渉しない前記形状センサの位置、姿勢を表す位置・姿勢データを生成する位置・姿勢データ生成部と、
    をさらに具備する請求項1記載の溶接装置。
  4.  前記複数の軸は、第1の直線方向の軸と、前記第1の直線方向と異なる第2の方向の軸と、及び回転軸と、を有する
    請求項1記載の溶接装置。
  5.  前記形状センサは、照明装置と撮像装置を有する
    請求項1記載の溶接装置。
  6.  複数の軸を有するスライダ装置と、
     前記決定される溶接位置と姿勢に基づき、前記スライダ装置を制御する制御装置と、を具備し、
     前記溶接ロボットが、前記複数の軸のいずれかに設置される
    請求項1記載の溶接装置。
  7.  位置・姿勢データに基づいて、溶接対象に対する形状センサの位置および姿勢を制御するステップと、
     前記位置・姿勢データに基づいて、位置および姿勢を制御された形状センサでの計測データから、前記溶接対象の輪郭を表す形状データを抽出するステップと、
     前記位置・姿勢データに基づいて、前記形状データを補正するための座標変換データを算出するステップと、
     前記座標変換データを用いて、前記形状データを補正するステップと、
     前記補正された形状データから、形状の変化点を複数抽出するステップと、
     前記補正された形状データから、ビードの端部に対応する、複数の形状の変化点を抽出するステップと、
     前記補正された形状データおよび前記複数の形状の変化点に基づいて、前記ビードの幅と、開先面の傾斜角度とを算出するステップと、
     前記ビードの幅と、前記開先面の傾斜角度に基づいて、溶接条件、前記溶接トーチの位置および姿勢を決定するステップと、
     前記溶接条件、前記溶接トーチの位置および姿勢に基づいて、溶接するステップと、
    を具備する溶接方法。
  8.  前記溶接対象の3次元形状データを用いて、溶接線の鉛直面上、かつ一対の開先面間の角度の中心を通る、溶接装置の形状センサおよび溶接トーチの、位置および姿勢を表す第3の位置・姿勢データを決定するステップと、
     前記第3の位置・姿勢データに対応して、前記形状センサおよび前記溶接トーチを配置したときの、前記溶接装置と前記溶接対象の干渉の有無を確認するステップと、
     前記干渉が確認された場合に、前記溶接装置と前記溶接対象とが干渉しない、前記形状センサおよび前記溶接トーチの、位置および姿勢を表す位置・姿勢データを決定するステップと、
    をさらに具備する請求項7記載の溶接方法。
PCT/JP2011/000922 2010-02-18 2011-02-18 溶接装置および溶接方法 WO2011102142A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
BR112012020766A BR112012020766A2 (pt) 2010-02-18 2011-02-18 aparelho de soldagem e método de soldagem.
JP2012500519A JP5847697B2 (ja) 2010-02-18 2011-02-18 溶接装置および溶接方法
CN201180010075.2A CN102762331A (zh) 2010-02-18 2011-02-18 焊接装置以及焊接方法
US13/564,867 US20130026148A1 (en) 2010-02-18 2012-08-02 Welding apparatus and welding method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-033769 2010-02-18
JP2010033769 2010-02-18

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/564,867 Continuation US20130026148A1 (en) 2010-02-18 2012-08-02 Welding apparatus and welding method

Publications (1)

Publication Number Publication Date
WO2011102142A1 true WO2011102142A1 (ja) 2011-08-25

Family

ID=44482747

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/000922 WO2011102142A1 (ja) 2010-02-18 2011-02-18 溶接装置および溶接方法

Country Status (5)

Country Link
US (1) US20130026148A1 (ja)
JP (1) JP5847697B2 (ja)
CN (1) CN102762331A (ja)
BR (1) BR112012020766A2 (ja)
WO (1) WO2011102142A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013089101A1 (ja) * 2011-12-13 2013-06-20 株式会社東芝 溶接ビード整形装置およびその整形方法
JP2015176510A (ja) * 2014-03-18 2015-10-05 スターテクノ株式会社 ワーク加工装置
WO2015186795A1 (ja) * 2014-06-04 2015-12-10 株式会社神戸製鋼所 溶接条件導出装置
CN107755937A (zh) * 2017-08-31 2018-03-06 中建钢构有限公司 变幅摆动焊接方法、装置及焊接机器人
JP2022519185A (ja) * 2019-01-23 2022-03-22 ヌオーヴォ・ピニォーネ・テクノロジー・ソチエタ・レスポンサビリタ・リミタータ 改善されたツーリング経路生成を伴う産業ロボット装置、及び改善されたツーリング経路に従って産業ロボット装置を動作させる方法
WO2024075849A1 (ja) * 2022-10-07 2024-04-11 パナソニックIpマネジメント株式会社 溶接条件管理方法、溶接条件管理プログラムおよび溶接条件管理システム
WO2024075850A1 (ja) * 2022-10-07 2024-04-11 パナソニックIpマネジメント株式会社 溶接条件管理方法、溶接条件管理プログラムおよび溶接条件管理システム

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5637753B2 (ja) * 2010-07-02 2014-12-10 株式会社東芝 溶接狙い位置計測装置
JP2013022705A (ja) * 2011-07-25 2013-02-04 Sony Corp ロボット装置及びロボット装置の制御方法、コンピューター・プログラム、並びにロボット・システム
KR101330049B1 (ko) * 2012-03-06 2013-11-18 한국기계연구원 3차원 특징점 기반 직접 교시 궤적 후보정 방법
JP6033047B2 (ja) * 2012-11-14 2016-11-30 株式会社ダイヘン 多層盛溶接装置
US20140327746A1 (en) * 2013-05-06 2014-11-06 Iphoton Solutions, Llc Volume reconstruction of an object using a 3d sensor and robotic coordinates
US10480862B2 (en) 2013-05-23 2019-11-19 Crc-Evans Pipeline International, Inc. Systems and methods for use in welding pipe segments of a pipeline
US10040141B2 (en) 2013-05-23 2018-08-07 Crc-Evans Pipeline International, Inc. Laser controlled internal welding machine for a pipeline
WO2016033568A1 (en) 2014-08-29 2016-03-03 Crc-Evans Pipeline International Inc. Method and system for welding
US10695876B2 (en) 2013-05-23 2020-06-30 Crc-Evans Pipeline International, Inc. Self-powered welding systems and methods
US9821415B2 (en) 2014-03-28 2017-11-21 Crc-Evans Pipeline International, Inc. Internal pipeline cooler
US11767934B2 (en) 2013-05-23 2023-09-26 Crc-Evans Pipeline International, Inc. Internally welded pipes
US10589371B2 (en) 2013-05-23 2020-03-17 Crc-Evans Pipeline International, Inc. Rotating welding system and methods
CN103273490B (zh) * 2013-05-30 2015-09-02 青岛博智达自动化技术有限公司 一种用于焊接的工业机器人
US9314878B2 (en) * 2013-09-12 2016-04-19 Ford Global Technologies, Llc Non-destructive aluminum weld quality estimator
CN104043891B (zh) * 2014-06-23 2016-06-29 吉林市金易科焊接技术有限公司 具有遥控功能的焊炬上下调节装置
CN104191068B (zh) * 2014-08-26 2016-04-13 福建省天大精诺信息有限公司 一种焊接路径控制方法、装置及系统
JP5980867B2 (ja) * 2014-10-07 2016-08-31 ファナック株式会社 ロボットをオフラインで教示するロボット教示装置
CN104999202B (zh) * 2015-08-06 2016-09-07 苏州五圣通机器人自动化有限公司 一种高精度机器人自动焊接装置及其工作方法
CN106466907A (zh) * 2015-08-21 2017-03-01 宁波弘讯科技股份有限公司 移取装置及移取方法
JP6640553B2 (ja) * 2015-12-22 2020-02-05 株式会社東芝 溶接方法
US11458571B2 (en) 2016-07-01 2022-10-04 Crc-Evans Pipeline International, Inc. Systems and methods for use in welding pipe segments of a pipeline
US10668577B2 (en) 2016-09-01 2020-06-02 Crc-Evans Pipeline International Inc. Cooling ring
JP6705847B2 (ja) * 2018-02-14 2020-06-03 ファナック株式会社 加工結果に基づいた学習制御を行うロボットシステム及びその制御方法
CN110456729B (zh) * 2018-05-07 2021-09-28 苏州睿牛机器人技术有限公司 一种轨迹跟踪控制方法及轨迹跟踪系统
KR102083555B1 (ko) * 2018-06-07 2020-03-02 삼성중공업 주식회사 용접 로봇 및 이를 이용한 용접 방법
CN109822194A (zh) * 2019-01-24 2019-05-31 江苏理工学院 一种焊缝跟踪装置及焊接方法
JP7359657B2 (ja) * 2019-11-07 2023-10-11 ファナック株式会社 ロボットの位置または姿勢の修正方法を判定する制御装置
CN111230364B (zh) * 2020-02-20 2021-09-21 北京博清科技有限公司 焊枪角度指导系统和焊枪角度指导方法
JP6768985B1 (ja) * 2020-07-15 2020-10-14 日鉄エンジニアリング株式会社 開先形状測定方法、自動溶接方法、および自動溶接装置
JP7469264B2 (ja) 2021-07-28 2024-04-16 株式会社神戸製鋼所 造形装置の制御方法、造形装置及びプログラム
KR102615646B1 (ko) * 2022-01-28 2023-12-19 삼성엔지니어링 주식회사 용접 그루브 형성 방법 및 중공형 물품
CN114714355B (zh) * 2022-04-14 2023-08-08 广州东焊智能装备有限公司 自主移动焊接机器人嵌入式视觉跟踪控制系统
CN116571852B (zh) * 2023-07-11 2023-09-26 四川吉埃智能科技有限公司 一种机器人螺柱自动焊接方法和系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000094131A (ja) * 1998-09-25 2000-04-04 Kobe Steel Ltd 溶接姿勢教示方法及びその装置
JP2000167666A (ja) * 1998-12-04 2000-06-20 Hitachi Ltd 自動溶接及び欠陥補修方法並びに自動溶接装置
JP2001328092A (ja) * 2000-05-22 2001-11-27 Mitsubishi Heavy Ind Ltd ロボットの干渉回避装置及び方法
JP2002120066A (ja) * 2000-10-12 2002-04-23 Kawasaki Heavy Ind Ltd 溶接用センサ
JP2002273675A (ja) * 2001-03-16 2002-09-25 Kawasaki Heavy Ind Ltd ロボット制御方法およびロボット制御システム
JP2009039724A (ja) * 2007-08-07 2009-02-26 Jfe Engineering Kk ガスシールドアーク溶接方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3004166A (en) * 1958-09-16 1961-10-10 Air Reduction Line tracer apparatus and method
JPH06324733A (ja) * 1993-05-12 1994-11-25 Fanuc Ltd センサ付きロボットの制御方法及び装置
JPH07129217A (ja) * 1993-10-29 1995-05-19 Fanuc Ltd レーザセンサを用いたロボット制御方法
JP3384335B2 (ja) * 1998-09-02 2003-03-10 松下電器産業株式会社 自動組立装置および自動組立方法
US6205364B1 (en) * 1999-02-02 2001-03-20 Creo Ltd. Method and apparatus for registration control during processing of a workpiece particularly during producing images on substrates in preparing printed circuit boards
US6392192B1 (en) * 1999-09-15 2002-05-21 W. A. Whitney Co. Real time control of laser beam characteristics in a laser-equipped machine tool
JP3806342B2 (ja) * 2001-11-26 2006-08-09 三菱重工業株式会社 3次元形状物溶接方法及びその装置
JP4578056B2 (ja) * 2003-02-06 2010-11-10 株式会社ダイヘン 作業ロボットを用いた制御システムによるワーク加工方法
CN101559512B (zh) * 2009-05-21 2011-05-04 山东大学 基于激光测距的平板对接焊缝焊接轨迹检测与控制方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000094131A (ja) * 1998-09-25 2000-04-04 Kobe Steel Ltd 溶接姿勢教示方法及びその装置
JP2000167666A (ja) * 1998-12-04 2000-06-20 Hitachi Ltd 自動溶接及び欠陥補修方法並びに自動溶接装置
JP2001328092A (ja) * 2000-05-22 2001-11-27 Mitsubishi Heavy Ind Ltd ロボットの干渉回避装置及び方法
JP2002120066A (ja) * 2000-10-12 2002-04-23 Kawasaki Heavy Ind Ltd 溶接用センサ
JP2002273675A (ja) * 2001-03-16 2002-09-25 Kawasaki Heavy Ind Ltd ロボット制御方法およびロボット制御システム
JP2009039724A (ja) * 2007-08-07 2009-02-26 Jfe Engineering Kk ガスシールドアーク溶接方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9533377B2 (en) 2011-12-13 2017-01-03 Kabushiki Kaisha Toshiba Weld bead shaping apparatus and weld bead shaping method
JP2013123716A (ja) * 2011-12-13 2013-06-24 Toshiba Corp 溶接ビード整形装置およびその整形方法
CN103987485A (zh) * 2011-12-13 2014-08-13 株式会社东芝 焊珠成形设备和焊珠成形方法
WO2013089101A1 (ja) * 2011-12-13 2013-06-20 株式会社東芝 溶接ビード整形装置およびその整形方法
CN103987485B (zh) * 2011-12-13 2017-03-08 株式会社东芝 焊珠成形设备和焊珠成形方法
JP2015176510A (ja) * 2014-03-18 2015-10-05 スターテクノ株式会社 ワーク加工装置
JP2015229169A (ja) * 2014-06-04 2015-12-21 株式会社神戸製鋼所 溶接条件導出装置
WO2015186795A1 (ja) * 2014-06-04 2015-12-10 株式会社神戸製鋼所 溶接条件導出装置
US10065259B2 (en) 2014-06-04 2018-09-04 Kobe Steel, Ltd. Welding condition derivation device
CN107755937A (zh) * 2017-08-31 2018-03-06 中建钢构有限公司 变幅摆动焊接方法、装置及焊接机器人
JP2022519185A (ja) * 2019-01-23 2022-03-22 ヌオーヴォ・ピニォーネ・テクノロジー・ソチエタ・レスポンサビリタ・リミタータ 改善されたツーリング経路生成を伴う産業ロボット装置、及び改善されたツーリング経路に従って産業ロボット装置を動作させる方法
JP7333821B2 (ja) 2019-01-23 2023-08-25 ヌオーヴォ・ピニォーネ・テクノロジー・ソチエタ・レスポンサビリタ・リミタータ 改善されたツーリング経路生成を伴う産業ロボット装置、及び改善されたツーリング経路に従って産業ロボット装置を動作させる方法
WO2024075849A1 (ja) * 2022-10-07 2024-04-11 パナソニックIpマネジメント株式会社 溶接条件管理方法、溶接条件管理プログラムおよび溶接条件管理システム
WO2024075850A1 (ja) * 2022-10-07 2024-04-11 パナソニックIpマネジメント株式会社 溶接条件管理方法、溶接条件管理プログラムおよび溶接条件管理システム

Also Published As

Publication number Publication date
BR112012020766A2 (pt) 2016-05-03
CN102762331A (zh) 2012-10-31
JP5847697B2 (ja) 2016-01-27
JPWO2011102142A1 (ja) 2013-06-17
US20130026148A1 (en) 2013-01-31

Similar Documents

Publication Publication Date Title
WO2011102142A1 (ja) 溶接装置および溶接方法
US7034249B2 (en) Method of controlling the welding of a three-dimensional structure
JP5715809B2 (ja) ロボットの作業プログラム作成方法、ロボットの作業プログラム作成装置、及びロボット制御システム
EP3863791B1 (en) System and method for weld path generation
US20090179021A1 (en) Welding robot
US20130133168A1 (en) Profile measuring apparatus, structure manufacturing system, method for measuring profile, method for manufacturing structure, and non-transitory computer readable medium
EP3539710B1 (en) Applying a cladding layer to a component
JP5458769B2 (ja) ロボットの制御装置
JPWO2020121396A1 (ja) ロボットキャリブレーションシステム及びロボットキャリブレーション方法
WO2013089101A1 (ja) 溶接ビード整形装置およびその整形方法
NO309367B1 (no) Automatisk sporfölgingssystem for sveising av rörledninger
JP6771288B2 (ja) 溶接装置及び溶接装置の制御方法
JP2012135781A (ja) レーザ加工ロボットの教示方法及び教示装置
JP2011138275A (ja) アーク溶接ロボットの制御装置及びプログラム
WO2018143056A1 (ja) アーク点調整棒取付構造、及び多関節溶接ロボット、並びに溶接装置
JP7040932B2 (ja) 溶接位置検出装置、溶接位置検出方法及び溶接ロボットシステム
US11203117B2 (en) Teaching data generation system for vertical multi-joint robot
JP2007144538A (ja) ロボットのティーチングデータ作成方法
WO2021111759A1 (ja) リペア溶接装置およびリペア溶接方法
JP3937814B2 (ja) 自動溶接装置
CN207223255U (zh) 船用大中型弯管环焊缝的自动化焊接装置
Jones et al. Development of a collaborative robot (COBOT) for increased welding productivity and quality in the shipyard
WO2020251036A1 (ja) リペア溶接システム
JP2000117466A (ja) Yagレーザ加工機のティーチング方法およびその装置
JP4109394B2 (ja) 作業ロボットの設置状態検出方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180010075.2

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11744433

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012500519

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2098/KOLNP/2012

Country of ref document: IN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11744433

Country of ref document: EP

Kind code of ref document: A1

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112012020766

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112012020766

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20120817