JPH0780643A - Control method of welding robot - Google Patents

Control method of welding robot

Info

Publication number
JPH0780643A
JPH0780643A JP24973993A JP24973993A JPH0780643A JP H0780643 A JPH0780643 A JP H0780643A JP 24973993 A JP24973993 A JP 24973993A JP 24973993 A JP24973993 A JP 24973993A JP H0780643 A JPH0780643 A JP H0780643A
Authority
JP
Japan
Prior art keywords
welding
robot
gap
gap width
laser sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP24973993A
Other languages
Japanese (ja)
Inventor
Masayuki Hamura
雅之 羽村
Mitsuhiro Okuda
満廣 奥田
Takeki Makihata
雄毅 巻幡
Tatsuo Karakama
立男 唐鎌
Yoshitaka Ikeda
好隆 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP24973993A priority Critical patent/JPH0780643A/en
Publication of JPH0780643A publication Critical patent/JPH0780643A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

PURPOSE:To obtain good and stable quality welding bead by sensing welding gap as using laser sensor supported with a welding robot and controlling the welding condition based on the obtained data. CONSTITUTION:Objects to be welded A, B are butt welded through a gap G of a gap width of g(X) by robot welding. In this case, a welding torch 2 and laser sensor 3 are mounted at a robot arm tip part 1, sucessively, in the region preceding to a welding point 4, by scanning with a scanning beam 5, the locus 6A-6B of laser scanning on the objects A, B is detected, the gap width data is obtained. Based on the data, the robot welding condition is controlled respectively and in real time for the change in welding gap G. Further, the control of welding condition preferably include one at least among welding current, welding voltage, welding speed and offset quantity of welding torch tip 4.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本願発明は、溶接ロボットの制御
方法に関し、更に詳しくは、溶接トーチと共に、例えば
レーザビームを偏向させて作業線位置を検出する型式の
レーザセンサをロボットに支持させ、レーザセンサ出力
を利用して溶接対象物間のギャップ幅(以下、「溶接ギ
ャップ幅」と言う。)に応じて溶接条件を制御する溶接
ロボットの制御方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for controlling a welding robot, and more specifically, a welding torch, a laser sensor of a type for deflecting a laser beam to detect a work line position, and the like are supported by the robot. The present invention relates to a control method for a welding robot, which controls a welding condition according to a gap width between welding objects (hereinafter, referred to as "welding gap width") using a sensor output.

【0002】[0002]

【従来の技術】溶接トーチをロボットアーム先端部に支
持し、溶接対象部材間の溶接線に沿って溶接トーチ先端
を移動させることによって、溶接作業を行なうことは公
知であり、このような用途に利用されるロボットは溶接
ロボットと呼ばれている。また、溶接トーチ先端位置に
対してロボット進行方向側の領域のセンシングを行なう
レーザセンサをロボットに取り付けて溶接線位置データ
を獲得し、該データに基づいてロボット位置を補正しな
がらロボットを移動させることにより、ロボットをより
正確に溶接線の沿って移動させる制御方式は、リアルタ
イムトラッキング方式として知られている。
2. Description of the Related Art It is known to perform a welding operation by supporting a welding torch on a tip end of a robot arm and moving the tip of the welding torch along a welding line between members to be welded. The robot used is called a welding robot. Further, a laser sensor that senses a region on the robot traveling direction side with respect to the welding torch tip position is attached to the robot to obtain welding line position data, and the robot is moved while correcting the robot position based on the data. Therefore, a control method for moving a robot along a welding line more accurately is known as a real-time tracking method.

【0003】このリアルタイムトラッキング方式の採用
により、溶接作業の精度と効率を相当程度向上させるこ
とが出来るのは確かである。しかし、溶接作業の精度と
効率は、溶接線トラッキング精度の他に、溶接電流、溶
接電圧、溶接速度(ロボット移動速度)、溶接トーチ先
端位置オフセット量等、溶接条件を定める諸量の適否に
よっても大きく左右される性質がある。従って、より安
定した品質の溶接ビードを効率良く得る為には、上記諸
量を適正に設定する必要がある。
It is certain that the adoption of this real-time tracking system can considerably improve the accuracy and efficiency of welding work. However, the accuracy and efficiency of welding work depend on the suitability of various quantities that determine welding conditions such as welding current, welding voltage, welding speed (robot movement speed), and welding torch tip position offset amount, in addition to the welding line tracking accuracy. It has the property of being greatly influenced. Therefore, in order to efficiently obtain a weld bead with more stable quality, it is necessary to set the above-mentioned various amounts appropriately.

【0004】ところが、次に述べるような溶接ギャップ
の不定性に的確に対応する方法が存在しなかった為に、
現実の溶接作業において、溶接電流、溶接電圧、溶接速
度、溶接トーチ先端位置オフセット量等を常に適正なレ
ベルに設定することは極めて困難であった。
However, since there is no method for accurately dealing with the indefiniteness of the welding gap as described below,
In actual welding work, it was extremely difficult to always set the welding current, welding voltage, welding speed, welding torch tip position offset amount, etc. to appropriate levels.

【0005】即ち、溶接対象物の溶接部位同士が溶接前
に密着状態にあるとは限らず、両者間には多少のギャッ
プ(以下、「溶接ギャップ」と言う。)が存在すること
が一般的であり、しかも、そのギャップ幅は溶接対象物
の種類の組合せが同一であっても、個別の対象物の組合
わせについて毎回同じであるとは限らず、また、1回の
ロボット移動サイクルで実行される溶接作業を通して一
定であるとも限らないという性質がある。
That is, the welded parts of the object to be welded are not always in close contact with each other before welding, and generally there is a slight gap (hereinafter referred to as "welding gap") between them. Moreover, the gap width is not always the same for each combination of individual objects even if the combination of the types of objects to be welded is the same, and is executed in one robot movement cycle. It has the property that it is not always constant throughout the welding operation performed.

【0006】このような溶接ギャップの不定性に個別に
対処して加工条件を的確に定め得る方法は未だに知られ
ておらず、例えば、適宜定めた標準対象物のセットが有
している溶接ギャップ幅に対して好適であるとして設定
された加工条件を、他の多数の同種溶接対象物セットに
対する毎回の溶接作業においてもそのまま適用するとい
うような方法が用いられてきた。
[0006] A method for individually dealing with such indefiniteness of the welding gap and accurately determining the processing conditions has not been known yet. For example, the welding gap of a set of appropriately defined standard objects has A method has been used in which the processing conditions set as being suitable for the width are applied as they are to each of the welding operations for a large number of other similar welding object sets.

【0007】[0007]

【発明が解決しようとする課題】上記した通り、従来技
術においては溶接ギャップの変化に即応して加工条件が
制御されていない為に、溶接ビードの品質を安定させる
ことが極めて困難であった。例えば、狭い溶接ギャップ
に合わせて溶接電流、溶接電圧及び溶接速度が設定され
た状態で大きな溶接ギャップを有する溶接部位の溶接を
実行した場合には、溶接ビードの幅や厚みの不足を招く
可能性が高い。また、溶接ギャップ幅が大きい溶接対象
物乃至溶接部位については、溶接トーチ先端位置を溶接
ギャップの中央側へシフトさせるようなオフセット補正
を行なうことが好ましいと考えられるが、従来方式で
は、ギャップ幅に応じてリアルタイムにオフセット量を
制御することが出来なかったので、溶接ビードの位置が
一方の溶接対象物側に偏る恐れがあった。
As described above, in the prior art, it is extremely difficult to stabilize the quality of the weld bead because the working conditions are not controlled in response to changes in the welding gap. For example, if welding of a welding part having a large welding gap is performed with the welding current, welding voltage and welding speed set in accordance with the narrow welding gap, the width and thickness of the weld bead may be insufficient. Is high. Further, it is considered preferable to perform offset correction for shifting the welding torch tip position to the center side of the welding gap for a welding object or a welding site having a large welding gap width. Accordingly, since the offset amount could not be controlled in real time, there was a risk that the position of the welding bead would be biased toward one of the welding object sides.

【0008】本願発明の目的は、溶接ロボットにおける
溶接電流、溶接電圧、溶接速度、オフセット量等の加工
条件を、溶接ギャップの変化に対して個別且つリアルタ
イムに対応する形で制御することにより、良好で安定し
た品質の溶接ビードを得ることにある。
The object of the present invention is good by controlling the processing conditions such as welding current, welding voltage, welding speed, and offset amount in the welding robot individually and in real time in response to changes in the welding gap. In order to obtain a weld bead of stable quality.

【0009】[0009]

【問題点を解決するための手段】本願発明は、溶接中の
部位よりも溶接ロボット進行方向側の領域を、溶接トー
チと共に溶接ロボットに支持されたレーザセンサを用い
てセンシングすることにより、センシングされた領域内
に存在する溶接ギャップのギャップ幅データを獲得する
段階と、該溶接ギャップ幅データに基づいて溶接ロボッ
トの溶接条件を制御する段階を含む溶接ロボットの制御
方法、によって上記技術課題を解決したものである(請
求項1)。
According to the present invention, sensing is performed by sensing a region on the welding robot advancing direction side of a portion being welded by using a laser sensor supported by the welding robot together with a welding torch. The above technical problem is solved by a method of controlling a welding robot including a step of acquiring gap width data of a welding gap existing in a predetermined region and a step of controlling welding conditions of the welding robot based on the welding gap width data. (Claim 1).

【0010】そして、上記溶接条件を定める諸量とし
て、溶接電流、溶接電圧、溶接速度及び溶接トーチ先端
のオフセット量を特定し、これら諸量の内の1つまたは
複数の量をレーザセンサによるセンシングによって獲得
された溶接ギャップ幅データに基づいて制御することを
提案したものである(請求項2)。
Then, the welding current, the welding voltage, the welding speed, and the offset amount of the tip of the welding torch are specified as various quantities for determining the above-mentioned welding conditions, and one or more of these various quantities are sensed by a laser sensor. It is proposed to control based on the welding gap width data acquired by (Claim 2).

【0011】[0011]

【作用】本願発明の溶接ロボットの制御方法は、レーザ
センサによって獲得される溶接ギャップ幅データを利用
して溶接条件を制御するものである。そこで、先ず、溶
接ロボットに支持されたレーザセンサによって溶接ギャ
ップ幅を計測する原理について、典型的な2つのケース
を例にとって説明する。
The control method of the welding robot of the present invention controls the welding conditions by utilizing the welding gap width data acquired by the laser sensor. Therefore, first, the principle of measuring the welding gap width by the laser sensor supported by the welding robot will be described with reference to two typical cases.

【0012】図1は、突合せ溶接部におけるギャップを
ビーム走査型のレーザセンサを用いて測定する原理を説
明する為の模式図である。図において、A,Bは溶接対
象物で、ロボットに設定済みのワーク座標系のX軸方向
に延在したY方向ギャップGを有している。X軸座標値
がxである位置(以下、単に「位置x」と言う。)にお
けるギャップ幅をg(x)で表わすことにする。ロボッ
ト本体の大半を省いて符号1で示されたロボットアーム
先端部には、適当な装着機構を介して溶接トーチ2及び
レーザセンサ3が取り付けられている。
FIG. 1 is a schematic diagram for explaining the principle of measuring the gap at the butt welded portion using a beam scanning type laser sensor. In the figure, A and B are objects to be welded, and have a Y-direction gap G extending in the X-axis direction of the workpiece coordinate system that has been set for the robot. The gap width at a position where the X-axis coordinate value is x (hereinafter, simply referred to as “position x”) is represented by g (x). A welding torch 2 and a laser sensor 3 are attached to an end portion of a robot arm indicated by reference numeral 1 by omitting most of the robot body through an appropriate attachment mechanism.

【0013】4はロボットのツールポイントとして設定
された溶接トーチ先端位置(以下、「溶接点」と言
う。)を表わしている。レーザセンサ3は、走査ビーム
5がロボット進行方向に関して溶接点4よりも先行した
領域を走査するように配置される。
Reference numeral 4 denotes a welding torch tip position (hereinafter referred to as "welding point") set as a tool point of the robot. The laser sensor 3 is arranged so that the scanning beam 5 scans a region preceding the welding point 4 in the robot traveling direction.

【0014】レーザセンサ3は、CCDカメラ(または
これに代わるリニアセンサ)を備えた視覚センサ装置を
内蔵しており、走査ビーム5によって対象物A,B上に
形成される輝点の軌跡6A,6Bを検知する。図2は、
CCDカメラの画素面上で見た輝点軌跡6A’,6B’
(1サイクル分)を模式的に示したものである。各図に
おいて、位置xにおけるギャップ幅g(x)が、画素面
上ではp(x)の画素比例量(例えば、画素数)として
捕捉されている。実際のギャップ幅g(x)と画素面上
における画素比例量で測ったギャップ幅p(x)分の関
係は、適当なキャリブレーションによって獲得すること
が出来る。
The laser sensor 3 has a built-in visual sensor device equipped with a CCD camera (or a linear sensor which replaces the CCD camera), and the loci 6A, 6B of the bright spots formed on the objects A, B by the scanning beam 5. 6B is detected. Figure 2
Bright spot loci 6A 'and 6B' seen on the pixel surface of the CCD camera
(1 cycle) is schematically shown. In each figure, the gap width g (x) at the position x is captured as a pixel proportional amount (for example, the number of pixels) of p (x) on the pixel surface. The relationship between the actual gap width g (x) and the gap width p (x) measured by the pixel proportional amount on the pixel surface can be obtained by appropriate calibration.

【0015】例えば、溶接ロボットの姿勢が溶接中は一
定に保たれる場合には、g(x)は次の(1)式で表わ
すことが出来る。 g(x)=f1 (z)p(x) ・・・・(1) ここで、zはロボットのZ軸座標、f1 (z)はzに対
してほぼ線形な関数である。ロボットに溶接時と同じ姿
勢をとらせ、既知のギャップ幅を有する溶接ギャップに
ついて、適宜数のロボット位置(z値=z1 ,z2 ,z
3 ・・・)におけるf(z)の値f1 (z1 ),f1
(z2 ),f1 (z3 )・・・を実測プロットするキャ
リブレーションを実行すれば、上記(1)式の数値計算
が可能になる(折れ線近似法が利用可能)。
For example, when the posture of the welding robot is kept constant during welding, g (x) can be expressed by the following equation (1). g (x) = f1 (z) p (x) (1) Here, z is the Z-axis coordinate of the robot, and f1 (z) is a substantially linear function with respect to z. Let the robot take the same posture as when welding, and for a welding gap having a known gap width, an appropriate number of robot positions (z value = z1, z2, z).
The value of f (z) in 3 ...) f1 (z1), f1
If the calibration for actually measuring (z2), f1 (z3) ... Is executed, the numerical calculation of the above formula (1) becomes possible (the polygonal line approximation method can be used).

【0016】次に、段違い貼合わせ溶接部におけるギャ
ップ幅を、同じくビーム走査型のレーザセンサを用いて
測定する原理について、図1,図2と同様の形式で模式
化描示された図3,図4を用いて説明する。なお、図1
と図3に共通した要素については、同じ符号を用いて指
示を行なった。
Next, with respect to the principle of measuring the gap width in the step-bonding welded portion using a beam scanning type laser sensor, FIG. This will be described with reference to FIG. Note that FIG.
3 and FIG. 3 are designated by the same reference numerals.

【0017】図3において、C,Dは板状の溶接対象物
で、ロボットに設定済みのワーク座標系のX軸方向に延
在したZ方向ギャップHを有している。位置xにおける
ギャップ幅をh(x)で表わすことにする。符号1で示
されたロボットアーム先端部には適当な装着機構を介し
て、溶接トーチ2及びレーザセンサ3が取り付けられて
いる。4はロボットのツールポイントとして設定された
溶接トーチ先端位置(溶接点)を表わしている。レーザ
センサ3は、走査ビーム5がロボット進行方向に関して
溶接点4よりも先行した領域を走査するように配置され
る。また、本事例では、ロボットアーム先端部1、溶接
トーチ2、レーザセンサ3を含む全体がXYZ各軸と非
直角の一定角度を以て交差する方向に傾斜した態勢で溶
接が行なわれる様子が描かれている。
In FIG. 3, C and D are plate-shaped objects to be welded, and have a Z-direction gap H extending in the X-axis direction of the workpiece coordinate system set in the robot. The gap width at the position x will be represented by h (x). A welding torch 2 and a laser sensor 3 are attached to the tip end portion of the robot arm indicated by reference numeral 1 through an appropriate attachment mechanism. Reference numeral 4 represents a welding torch tip position (welding point) set as a tool point of the robot. The laser sensor 3 is arranged so that the scanning beam 5 scans a region preceding the welding point 4 in the robot traveling direction. Further, in this example, a state in which welding is performed with the robot arm tip portion 1, the welding torch 2, and the laser sensor 3 tilted in a direction intersecting the XYZ axes at a non-perpendicular constant angle is illustrated. There is.

【0018】レーザセンサ3は、CCDカメラ(または
これに代わるリニアセンサ)を備えた視覚センサ装置を
内蔵しており、走査ビーム5によって対象物C,D上に
形成される輝点の軌跡6C,6H,6D’,6Dを検知
する。ここで、6D’は対象物Dの縁部をZ方向に延び
る軌跡を表わし、6Hは、位置xにおける幅h(x)の
ギャップ部分に形成される軌跡を表わしている。6Hは
一部対象物Dの影になるので必ずしも明瞭な軌跡となら
ない。
The laser sensor 3 has a built-in visual sensor device equipped with a CCD camera (or a linear sensor which replaces the CCD camera), and the locus 6C, of the bright spots formed on the objects C, D by the scanning beam 5. 6H, 6D ', 6D are detected. Here, 6D 'represents a locus extending in the Z direction along the edge of the object D, and 6H represents a locus formed in the gap portion of the width h (x) at the position x. 6H does not always have a clear trajectory because it partially becomes the shadow of the object D.

【0019】図4は、CCDカメラの画素面上で見た輝
点軌跡(1サイクル分)を模式的に示したものである。
本事例においては、CCDカメラはビーム走査面よりも
トーチ側から走査ビーム軌跡を撮像したケースを想定す
ると軌跡の映像は概略図示したようなものとなる。即
ち、軌跡映像7C,7Dは各々軌跡6C,6Dに対応
し、7Hは6Hに対応している。そして、ギャップ部分
の軌跡6Hに対しては、場合によって一部不明瞭な映像
7Hが形成される。
FIG. 4 schematically shows a locus of bright spots (one cycle) seen on the pixel surface of the CCD camera.
In this example, assuming that the CCD camera images the scanning beam trajectory from the torch side of the beam scanning surface, the trajectory image is as schematically illustrated. That is, the trajectory images 7C and 7D correspond to the trajectories 6C and 6D, respectively, and 7H corresponds to 6H. Then, with respect to the trajectory 6H of the gap portion, a partially unclear image 7H is formed in some cases.

【0020】この場合、位置xにおけるギャップ幅h
(x)は、画素面上では7Hの長さL(x)に表現され
ていると考えられるから、このL(x)と実際のギャッ
プh(x)の関係に次式(2)の形を想定して、上記説
明した図1,図2の事例と同様のキャリブレーションに
よって求めておく方法がある。但し、f2 は、zだけの
関数ではなく、yの関数でもあるからキャリブレーショ
ンは、既知のギャップ幅の下で、適宜数の(y,z)の
組に対するf(y,z)の値をプロットする必要があ
る。 h(x)=f2 (y,z)L(x) ・・・・(2) L(x)の値は、画素面上における軌跡映像7Cと7
D’端点8C,8D間距離(画素比例量)として捕捉さ
れる。
In this case, the gap width h at the position x
Since (x) is considered to be expressed as a length L (x) of 7H on the pixel surface, the relationship between this L (x) and the actual gap h (x) is expressed by the following equation (2). Assuming that, there is a method of obtaining it by the same calibration as the case of FIGS. 1 and 2 described above. However, since f2 is not only a function of z but also a function of y, the calibration is performed with the value of f (y, z) for an appropriate number of (y, z) pairs under a known gap width. Need to plot. h (x) = f2 (y, z) L (x) ... (2) The value of L (x) is the locus images 7C and 7 on the pixel plane.
It is captured as a distance (pixel proportional amount) between the D ′ end points 8C and 8D.

【0021】対象物Dの厚さが一定という仮定が成立す
る場合には、軌跡映像7D’の延長線と軌跡映像7Cの
交点9Cを考え、点8D,9C間の距離q(x)をギャ
ップ幅を測る指標に用いることが出来る。対象物Dの厚
みが既知dであれば、軌跡映像7D’の長さをL’
(x)として、ギャップ幅h(x)は次式(3)で表わ
される。 h(x)=d・q(x)/L’(x) ・・・・(3) 本願発明は、ギャップ幅を求める方法について特に制限
を設けるものではなく、上記以外の如何なる方法によっ
てギャップ幅を定めても良い。使用するレーザセンサに
ついても、上記事例で使用したビーム走査型のもの以外
にも、位置検出光検出器(PSD)を用いたレーザ変位
センサを使用することが出来る。例えば、上記図3の事
例において、2台のレーザ変位センサを用いて、対象物
C,D間の段差を検出し、これから対象物Dの厚みを減
算することにより、ギャップ幅h(x)を求めることが
考えられる。この場合、溶接時のロボット姿勢が一定で
あることを利用して、2台のレーザ変位センサのレーザ
ビームが常に真上から対象物C,Dに入射するように、
レーザ変位センサを溶接トーチと傾斜させて装着する配
置を採用すれば、ロボット位置の変化に影響されずに段
差の計算を行なうころが出来る。
When the assumption that the thickness of the object D is constant is established, the intersection 9C between the extension line of the trajectory image 7D 'and the trajectory image 7C is considered, and the distance q (x) between the points 8D and 9C is set as a gap. It can be used as an index to measure the width. If the thickness of the object D is known d, the length of the trajectory image 7D ′ is set to L ′.
As (x), the gap width h (x) is expressed by the following equation (3). h (x) = d · q (x) / L ′ (x) ··· (3) The present invention does not particularly limit the method for obtaining the gap width, and the gap width may be determined by any method other than the above. May be set. As for the laser sensor used, a laser displacement sensor using a position detection photodetector (PSD) can be used other than the beam scanning type used in the above case. For example, in the case of FIG. 3 described above, the gap width h (x) is determined by detecting the step between the objects C and D using two laser displacement sensors and subtracting the thickness of the object D from this. It is possible to ask. In this case, by utilizing the fact that the robot posture during welding is constant, the laser beams of the two laser displacement sensors are always incident on the objects C and D from directly above,
If the laser displacement sensor is installed so as to be tilted with respect to the welding torch, the step can be calculated without being affected by the change in the robot position.

【0022】本願発明では、以上述べたような方法によ
って求められたギャップ幅に応じて溶接条件を制御す
る。溶接条件の代表的なものとして、溶接電圧V、溶接
電流I、溶接速度v、オフセット量δがある。オフセッ
ト量δとは、ロボットの進行方向(x軸方向とする。)
と直交する方向についての教示パスからのロボット位置
偏移量δy 及びz方向偏移量δz である。
In the present invention, the welding conditions are controlled according to the gap width obtained by the method described above. Typical welding conditions include welding voltage V, welding current I, welding speed v, and offset amount δ. The offset amount δ is the traveling direction of the robot (the x-axis direction).
A robot position deviation amount δy and a z-direction deviation amount δz from a teaching path in a direction orthogonal to.

【0023】ギャップ幅g(x)またはh(x)の値
(Δで表わすこととする。)の変化に応じてこれら溶接
条件を最適な値となる関数、V(Δ),I(Δ)を各変
量について別々に定義して、これに基づいて各変量を制
御する方法も考えられるが、実用上は、次のように各変
量に共通して適用されるギャップ値レベルΓを数段階に
設定し、各レベル毎に1つの変量値をテーブルデータ形
式で指定するやり方が簡便である。
A function, V (Δ), I (Δ), which is an optimum value for these welding conditions in accordance with a change in the value of gap width g (x) or h (x) (denoted by Δ). It is conceivable to define each variable separately and control each variable based on this, but in practice, the gap value level Γ, which is commonly applied to each variable, can be set in several steps as follows. It is convenient to set and specify one variable value for each level in the table data format.

【0024】 ギャップ幅レベルΓ V I v δy δz Γ1 =0.0〜1.0 V1 I1 v1 δy1 δz1 Γ2 =1.1〜2.0 V2 I2 v2 δy2 δz2 Γ3 =2.1〜3.0 V3 I3 v3 δy3 δz3 このようなテーブルデータを溶接ロボットを制御するロ
ボットコントローラのメモリに格納しておき、センシン
グによってギャプ幅計測データが得られる毎にギャップ
幅のレベルΓに変更があるかどうかをチェックすること
により、溶接作業中の諸量V,I,v,δ等を所望のレ
ベルに制御することが出来る(次記実施例を参照)。
Gap width level Γ V I v δy δz Γ1 = 0.0 to 1.0 V1 I1 v1 δy1 δz1 Γ2 = 1.1 to 2.0 V2 I2 v2 δy2 δz2 Γ3 = 2.1 to 3.0 V3 I3 v3 δy3 δz3 Such table data is stored in the memory of the robot controller controlling the welding robot, and it is checked whether the gap width level Γ is changed every time the gap width measurement data is obtained by sensing. As a result, it is possible to control the various amounts V, I, v, δ, etc. during the welding operation to desired levels (see Examples below).

【0025】[0025]

【実施例】図5は、本願発明の溶接ロボットの制御方法
を実施する際に使用可能なシステム構成の一例を表わし
た要部ブロック図である。これを説明すると、10はロ
ボット制御機能と画像処理装置の機能を兼備したロボッ
トコントローラで、中央演算処理装置(以下、CPUと
いう。)11を有し、該CPU11には、ROMからな
るメモリ12、RAMからなるメモリ13、不揮発性メ
モリ14、レーザレーザセンサ3及び溶接トーチ制御器
40に接続された汎用インターフェイス15、フレーム
メモリ16、画像処理プロセッサ17、液晶表示装置
(LCD)18を備えた教示操作盤19、及びサーボ回
路21を経てロボット本体30に接続されたロボット軸
制御部20が各々バス23を介して接続されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 5 is a block diagram of the essential parts showing an example of a system configuration that can be used when implementing the welding robot control method of the present invention. To explain this, 10 is a robot controller having both a robot control function and an image processing device function, and has a central processing unit (hereinafter referred to as CPU) 11, and the CPU 11 has a memory 12 composed of a ROM, Teaching operation including a memory 13 including a RAM, a non-volatile memory 14, a laser laser sensor 3, and a general-purpose interface 15 connected to the welding torch controller 40, a frame memory 16, an image processor 17, and a liquid crystal display (LCD) 18. A robot axis control unit 20 connected to a robot body 30 via a board 19 and a servo circuit 21 is connected to each other via a bus 23.

【0026】ROM12には、CPU11がロボット本
体30、レーザレーザセンサ3、溶接トーチ制御器40
及びロボットコントローラ10自身の制御を行なう為の
各種のプログラムが格納される。RAM13はデ−タの
一時記憶や演算の為に利用出来るメモリである。不揮発
性メモリ14には、教示操作盤19、あるいは図示しな
いオフラインプログラム作成装置から、各種パラメータ
設定値やオフラインで作成された教示プログラムが入力
/格納される。ここでは、図3に示した事例に対応した
溶接線に沿ったパスを指定した教示プログラムが既に格
納されているものとする。教示点としては、図3に示し
たように、P1 (溶接線始点直前のエアカット点)、P
2 (溶接線終点直後のエアカット点)及びP3 (溶接線
から離隔したエアカット点)の3点が設定されるものと
する。
In the ROM 12, the CPU 11 includes the robot body 30, the laser laser sensor 3, the welding torch controller 40.
Also, various programs for controlling the robot controller 10 itself are stored. The RAM 13 is a memory that can be used for temporary storage of data and calculation. Into the non-volatile memory 14, various parameter setting values and a teaching program created offline are input / stored from the teaching operation panel 19 or an offline program creating device (not shown). Here, it is assumed that the teaching program designating the path along the welding line corresponding to the case shown in FIG. 3 is already stored. As the teaching points, as shown in FIG. 3, P1 (air cut point immediately before the welding line start point), P1
Two points (air cut point immediately after the end of the welding line) and P3 (air cut point separated from the welding line) shall be set.

【0027】レーザレーザセンサ3は、作用の説明の欄
で述べたように、ロボットハンド1に支持され、ツール
先端点2ポイントよりロボット進行方向寄り領域を偏向
走査照射域とするレーザ光源と該偏向走査照射域を視野
に入れたCCDカメラを備えた公知の型のものである。
レーザの偏向走査と同期的に撮像を行なうCCDカメラ
によって捕捉された画像の信号は、汎用インターフェイ
ス15を介して、グレースケールによる濃淡信号に変換
されてフレームメモリ16に格納される。フレームメモ
リ16から読み出されたに画像情報は画像処理プロセッ
サ17によって処理され、溶接線の有無(開始点と終了
点)が検知される。
Laser The laser sensor 3 is supported by the robot hand 1 as described in the section of description of the operation, and the laser light source having the deflection scanning irradiation area in the area closer to the robot moving direction than the tool tip point 2 is the laser light source and the deflection. It is of a known type with a CCD camera with a scanning irradiation area in the field of view.
An image signal captured by a CCD camera that captures an image in synchronization with the deflection scanning of the laser is converted into a grayscale grayscale signal via a general-purpose interface 15 and stored in a frame memory 16. The image information read from the frame memory 16 is processed by the image processor 17 to detect the presence or absence (start point and end point) of a welding line.

【0028】以上説明した構成及び機能は、従来の溶接
ロボットの為のロボットコントローラを含むシステムと
基本的に変わるところはないが、本実施例のシステムに
は、本願発明の方法を実施する為に特に次の準備がなさ
れている。
Although the configuration and function described above are basically the same as those of the system including the robot controller for the conventional welding robot, the system of the present embodiment is used to implement the method of the present invention. In particular, the following preparations have been made.

【0029】(1)作用の説明の欄で述べた方法によっ
て、ギャップ幅を求める為の計算プログラム及び関連所
要データが不揮発性メモリ14に格納されていること。
ここでは、上記(3)式h(x)=d・q(x)/L’
(x)を計算する為に、q(x)及びL’(x)をセン
サ座標系上の距離データとして獲得する為に画像処理プ
ロセッサ16を制御する為のプログラム及びデータが格
納されているものとする。
(1) The non-volatile memory 14 stores a calculation program for obtaining the gap width and related required data by the method described in the section of description of the operation.
Here, the above equation (3) h (x) = d · q (x) / L ′
A program and data for controlling the image processor 16 to obtain q (x) and L '(x) as distance data on the sensor coordinate system in order to calculate (x) are stored. And

【0030】(2)ROM12には、ギャップ幅レベル
Γ1 〜Γ3 と諸量V,I,v,δy,δz の関係を前記
テーブルデータ形式で設定すると共に、対象物Dの厚み
データdを入力する為の溶接条件設定画面を表示させ、
オペレータにより、Γ1 〜Γ3 のレベル設定、V1 ,I
1 ,v1 ,δy1,δz1;V2 ,I2 ,v2 ,δy2,δz
2;V3 ,I3 ,v3 ,δy3,δz3の数値設定、及び厚
み値dの画面入力を可能にするプログラムが格納されて
いること。
(2) In the ROM 12, the relationship between the gap width levels Γ1 to Γ3 and the quantities V, I, v, δy, δz is set in the table data format, and the thickness data d of the object D is input. Display the welding condition setting screen for
The operator sets the levels of Γ1 to Γ3, V1, I
1, v1, δy1, δz1; V2, I2, v2, δy2, δz
2; Store a program that enables numerical value setting of V3, I3, v3, δy3, δz3 and screen input of the thickness value d.

【0031】(3)上記溶接条件設定画面を用いてオペ
レータによる各データの設定・入力が完了しているこ
と。
(3) The setting and input of each data by the operator is completed using the above welding condition setting screen.

【0032】(4)溶接トーチ制御器40は、汎用イン
ターフェイス15を介してCPU11からの制御信号を
受け、溶接トーチをオン/オフすると共に、上記テーブ
ルで指定された通りの溶接電圧V及び溶接電流Iを溶接
トーチに供給する機能を有していること。
(4) The welding torch controller 40 receives a control signal from the CPU 11 via the general-purpose interface 15 to turn on / off the welding torch, and at the same time, set the welding voltage V and the welding current as specified in the above table. Must have the function of supplying I to the welding torch.

【0033】(5)教示点P1 及びP2 については、ギ
ャップ幅Δに応じて制御されるδy、δz とは独立し
て、オフセット量ε1y,ε1z及びε2y,ε2zが教示操作
盤19から予め入力されていること。
(5) For the teaching points P1 and P2, the offset amounts ε1y, ε1z and ε2y, ε2z are input in advance from the teaching operation panel 19 independently of δy and δz which are controlled according to the gap width Δ. That

【0034】(6)教示プログラム、教示点毎に指定さ
れたオフセット量ε、溶接ギャップセンシング結果及び
設定テーブルデータに従って、次記図6に示したフロー
チャートに示された処理を実行するプログラム及び必要
な諸設定値が、ROM12あるいは不揮発性メモリ14
に格納されていること。
(6) In accordance with the teaching program, the offset amount ε designated for each teaching point, the welding gap sensing result and the setting table data, the program for executing the processing shown in the flowchart shown in FIG. Various setting values are stored in the ROM 12 or the non-volatile memory 14
Be stored in.

【0035】以下、これら準備事項を前提として、図3
の事例において、P0 (ホームポジション)→P2 →P
3 を教示パスとする溶接ロボットの制御を実行する際の
CPU11の処理を図6のフローチャートを用いて説明
する。
Below, assuming these preparations, FIG.
In the example, P0 (home position) → P2 → P
The processing of the CPU 11 when executing the control of the welding robot in which 3 is the teaching path will be described with reference to the flowchart of FIG.

【0036】CPU1の処理は、ロボット移動及び溶接
条件を制御する主処理と溶接ギャップをセンシングし、
ギャップ幅を表わすデータを作成する副処理(タスク処
理)を含んでおり、副処理をコントロールする為のフラ
グFとギャップ幅レベル番号に対応した値をとるギャッ
プ幅レベル指標βが設定されているものとする。Fは0
また1の値をとり(初期値はF=0)、βは、Γ1 〜Γ
3 に対応して1〜3の値をとるものとする(初期値はβ
=1)。
The processing of the CPU 1 senses the welding gap and the main processing for controlling the robot movement and welding conditions.
A sub-process (task process) for creating data representing the gap width is included, and a flag F for controlling the sub-process and a gap width level index β having a value corresponding to the gap width level number are set. And F is 0
It also takes a value of 1 (the initial value is F = 0), and β is Γ 1 to Γ
It takes a value of 1 to 3 corresponding to 3 (the initial value is β
= 1).

【0037】主処理及び副処理は同時に開始される。主
処理では、先ずCPU11が教示プログラムの最初の1
ブロックの読み込み(ステップM1)、ロボットを教示
点P1 をY軸方向へε1y、Z軸方向へε1z各々シフトさ
せた位置(P+ε1 で表わすことにする。)へ向かう軌
道に乗せる(ステップM2)。一方、副処理が開始され
ると直ちにフラグF反転待ちの態勢に入る(ステップS
1)。ロボットが位置P1 +ε1 へ到達する直前に教示
プログラムの次の1ブロックが読み込まれ(ステップM
3)、フラグFを1に反転させる(ステップM4)。
The main process and the sub process are started at the same time. In the main processing, the CPU 11 first sets the first 1 of the teaching program.
The block is read (step M1), and the robot is placed on a trajectory toward a position (to be represented by P + ε1) where the teaching point P1 is shifted by ε1y in the Y-axis direction and ε1z in the Z-axis direction (step M2). On the other hand, as soon as the sub-process is started, the system waits for the flag F to be reversed (step S
1). Immediately before the robot reaches the position P1 + ε1, the next block of the teaching program is read (step M
3) The flag F is inverted to 1 (step M4).

【0038】CPU11は、副処理でこれを感知してレ
ーザセンサ3によるセンシングを開始させ、溶接ギャッ
プ幅の計測を行なう(ステップS2)。溶接ギャップ幅
の求め方は作用の説明の欄で述べた通りである。ギャッ
プ幅が求められたら、テーブルデータと比較して、該当
するギャップ幅レベルΓを判定(ステップS3)し、ギ
ャップ幅レベル指標βの値を更新する必要があるか否か
を判断する(ステップS4)。更新の必要があれば直ち
にこれを書き換える(ステップS5)。
The CPU 11 detects this in the sub-process, starts the sensing by the laser sensor 3, and measures the welding gap width (step S2). The method for obtaining the welding gap width is as described in the section for explaining the action. When the gap width is obtained, it is compared with the table data to determine the corresponding gap width level Γ (step S3), and it is determined whether or not the value of the gap width level index β needs to be updated (step S4). ). If it needs to be updated, it is immediately rewritten (step S5).

【0039】例えば、ギャップ幅が1.4mmであれ
ば、前記テーブルデータに照らしてレベルΓ2 に該当す
るから、ギャップ幅レベル指標βの値を初期値1から2
に更新する。フラグFが0に反転していないことを確認
した上で(ステップS6)、再度ステップS2へ戻り、
ギャップ幅を計測し、以後、フラグFが0に反転するま
でステップS2〜ステップS6を繰り返す。
For example, when the gap width is 1.4 mm, which corresponds to the level Γ 2 in view of the table data, the value of the gap width level index β is set to the initial value 1 to 2.
To update. After confirming that the flag F is not inverted to 0 (step S6), the process returns to step S2 again,
The gap width is measured, and thereafter, steps S2 to S6 are repeated until the flag F is inverted to 0.

【0040】一方、ロボットは主処理のステップM3に
おける読み込み内容に応じて、位置P2 をY軸方向へε
2y、Z軸方向へε2z各々シフトさせた位置(P+ε2 で
表わすことにする。)へ向かう軌道に乗せる(ステップ
M5)。そして、第1回目のギャップ幅レベル指標βの
読み出しを実行し(ステップM6)、読み出されたβの
値に応じたテーブルデータにアクセスし、汎用インター
フェイス15を介して溶接トーチ制御器40に指令を送
り、該当する溶接電圧V、溶接電流Iの条件下で溶接ト
ーチを付勢させる(ステップM7)。更に、テーブルデ
ータで指定されたオフセット量δの値分だけロボット位
置指令値を補正し(ステップM8)、溶接速度(ロボッ
ト移動速度)vについても変更の要があれば(ステップ
M9)、テーブルデータ通りの値に修正する(ステップ
M10)。
On the other hand, the robot moves the position P2 in the Y-axis direction by ε according to the contents read in step M3 of the main processing.
It is put on a trajectory toward a position (to be represented by P + ε2) shifted by 2ε and 2ε in the Z-axis direction (step M5). Then, the first reading of the gap width level index β is executed (step M6), the table data corresponding to the read value of β is accessed, and the welding torch controller 40 is instructed via the general-purpose interface 15. And the welding torch is energized under the conditions of the corresponding welding voltage V and welding current I (step M7). Further, the robot position command value is corrected by the offset amount δ designated by the table data (step M8), and the welding speed (robot moving speed) v needs to be changed (step M9). The value is corrected to the correct value (step M10).

【0041】初回のギャップ幅レベル指標読み出しに対
応した処理が終了したら、溶接線の終点に対応するP2
直前位置にロボットが未到達であることを確認した上で
(ステップM11)、第2回目のギャップ幅レベル指標
βの読み出しを行なう(ステップM12)。ギャップ幅
レベル指標βが前回の読み出し値と一致しているかどう
か判別し(ステップM13)、一致していれば再度ステ
ップM11へ戻る。ギャップ幅レベル指標βが前回の読
み出し値から変化していれば、それに応じて溶接条件を
定める諸量V,I,v,δを該当するギャップレベルに
対応したテーブルデータ通りの値に変更する(ステップ
M14)。各変更処理は、ステップM7〜ステップM9
の処理に準じて行なわれる。
When the processing corresponding to the first reading of the gap width level index is completed, P2 corresponding to the end point of the welding line is set.
After confirming that the robot has not reached the previous position (step M11), the second gap width level index β is read (step M12). It is determined whether or not the gap width level index β matches the previous read value (step M13), and if they match, the process returns to step M11. If the gap width level index β has changed from the previous read value, the quantities V, I, v, and δ that determine the welding conditions are changed accordingly to the values according to the table data corresponding to the corresponding gap level ( Step M14). Each change process includes steps M7 to M9.
It is performed according to the processing of.

【0042】即ち、溶接電圧V及び溶接電流Iの変更
は、度汎用インターフェイス15を介して溶接トーチ制
御器40に指令を与えることによって実行され、オフセ
ット量δの変更は、オフセット量εを考慮に入れて補間
計算されるロボット軌道に対するシフト補正量を新しく
指定されるδに変えることによって行なわれる。また、
溶接速度vの変更は、各軸に対する位置パルスの分配周
期を変更することによって達成される。
That is, the welding voltage V and the welding current I are changed by giving a command to the welding torch controller 40 via the general-purpose interface 15, and the offset amount δ is changed in consideration of the offset amount ε. This is performed by changing the shift correction amount for the robot trajectory that is inserted and interpolated to a newly designated δ. Also,
Changing the welding speed v is achieved by changing the distribution period of the position pulse for each axis.

【0043】結局、溶接の実行区間(フラグF=1の区
間)を通して、レーザセンサ3によるギャップ幅計測が
周期的に繰り返され、ギャップ幅レベルΓに変更がある
毎にギャップ幅レベル指標βの値が更新され、それに応
じて溶接条件が変更・制御されることになる。ロボット
が溶接線の終点に対応して定められた教示点P3 の直前
位置に達すると、ステップM11でイエスの判断がなさ
れ、教示プログラムの次の1ブロックを読み込んだ上で
(ステップM15)、フラグFを0に反転させ(ステッ
プM16)、溶接トーチを消勢する(ステップM1
7)。ステップM15〜ステップM17の処理の順序
は、適宜変更しても構わない。
Eventually, the gap width measurement by the laser sensor 3 is periodically repeated throughout the welding execution section (flag F = 1 section), and the value of the gap width level index β is changed every time the gap width level Γ is changed. Will be updated, and the welding conditions will be changed / controlled accordingly. When the robot reaches the position immediately before the teaching point P3 defined corresponding to the end point of the welding line, a yes determination is made in step M11, the next one block of the teaching program is read (step M15), and the flag is set. F is inverted to 0 (step M16), and the welding torch is deactivated (step M1).
7). The order of the processes of steps M15 to M17 may be changed as appropriate.

【0044】最後にロボットは教示点P3 まで移動して
1作業サイクルを終了する。副処理においても、F=0
への反転をステップS6で感知したならば、ギャップ幅
指標βを1(初期値)にリセットした上で(ステップS
7)、処理を終了する。
Finally, the robot moves to the teaching point P3 and completes one work cycle. Even in the sub-process, F = 0
If it is detected in step S6, the gap width index β is reset to 1 (initial value) (step S6).
7), the process ends.

【0045】上記実施例において、溶接トーチのオン・
オフは教示点P2 、P3 に対応する位置へロボットが到
達するタイミングで行なうようにしたが、レーザセンサ
3に溶接線の始点と終点を検出させる処理を副処理の中
で実行し、始点検出時に溶接トーチを付勢し、終点検出
時に消勢する方式を採用することも考えられる。
In the above embodiment, the welding torch is turned on.
The turning-off is performed at the timing when the robot reaches the position corresponding to the teaching points P2 and P3. However, the processing for causing the laser sensor 3 to detect the starting point and the ending point of the welding line is executed in the sub-processing, and when the starting point is detected. It is also possible to adopt a method of energizing the welding torch and deactivating it when the end point is detected.

【0046】また、レーザセンサ3に溶接ギャップ幅レ
ベル計測と同時に溶接線位置をセンシングさせ、リアル
タイムトラッキング補正を行なう制御方式を組み合わせ
ることも可能である。例えば、図4における軌跡映像上
で8Dの位置を捕捉し、図3の事例における対象物Dの
段差部分の下縁位置に対してロボットが特定の位置関係
を持つような位置補正を行なった軌道を基準として、そ
こから更にギャップレベルに応じてロボット位置をY軸
方向にδy 、Z軸方向にδz 修正するオフセット位置を
補正する制御方式を採用することが考えられる。
It is also possible to combine a control system in which the laser sensor 3 senses the welding line position at the same time as measuring the welding gap width level and performs real-time tracking correction. For example, a trajectory in which a position of 8D is captured on the trajectory image in FIG. 4 and position correction is performed so that the robot has a specific positional relationship with the lower edge position of the step portion of the object D in the case of FIG. It is conceivable to adopt a control method in which the offset position for correcting the robot position by δy in the Y-axis direction and δz in the Z-axis direction is further corrected according to the gap level.

【0047】[0047]

【発明の効果】本願発明によれば、溶接条件を定める諸
量を、溶接対象物間に存在する溶接ギャップの大きさの
不定性に即応した形で制御することが出来るから、溶接
ギャップの変化によって溶接ビードの品質が不安定とな
ることが回避され、恒常的な溶接ビードの品質向上が実
現される。
According to the present invention, various amounts that determine welding conditions can be controlled in a form that immediately responds to the indefiniteness of the size of the welding gap existing between the objects to be welded. As a result, the quality of the weld bead is prevented from becoming unstable, and the quality of the weld bead is constantly improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】突合せ溶接部におけるギャップをビーム走査型
のレーザセンサを用いて測定する原理を説明する為の模
式図である。
FIG. 1 is a schematic diagram for explaining the principle of measuring a gap at a butt weld portion using a beam scanning laser sensor.

【図2】図1の配置において、CCDカメラの画素面上
で形成される輝点軌跡を模式的に示したものである。
2 schematically shows a locus of bright spots formed on the pixel surface of the CCD camera in the arrangement of FIG.

【図3】段違い貼合わせ溶接部におけるギャップ幅を、
ビーム走査型のレーザセンサを用いて測定する原理を説
明する為の模式図である。
[Fig. 3] Fig. 3 shows the gap width in the step-bonded welded portion.
It is a schematic diagram for explaining the principle of measurement using a beam scanning type laser sensor.

【図4】図2の配置において、CCDカメラの画素面上
で形成される輝点軌跡を模式的に示したものである。
4 schematically shows a locus of bright spots formed on the pixel surface of the CCD camera in the arrangement of FIG.

【図5】本願発明の溶接ロボットの制御方法を実施する
際に使用可能なシステム構成の一例を表わした要部ブロ
ック図である。
FIG. 5 is a principal block diagram showing an example of a system configuration that can be used when implementing the welding robot control method of the present invention.

【図6】図5に示されたシステムを用いて、図3及び図
4に描かれた事例について、溶接作業を実施する場合の
CPUの処理の概要を記したフローチャートである。
FIG. 6 is a flowchart outlining the processing of the CPU when carrying out a welding operation in the case depicted in FIGS. 3 and 4 using the system shown in FIG.

【符号の説明】[Explanation of symbols]

1 ロボットアーム先端部 2 溶接トーチ 3 レーザセンサ 4 溶接トーチ先端 5 走査ビーム 6A,6B,6C,6D,6D’,6H 走査ビーム軌
跡 7A,7B,7C,7D,7D’,7H 走査ビーム軌
跡映像 8C 軌跡映像7Cの端点 8D 軌跡映像7D’の端点 9C 軌跡映像7D’の延長線と軌跡映像7Cの交点 10 ロボットコントローラ 11 中央演算処理装置(CPU) 12 メモリ(ROM) 13 メモリ(RAM) 14 不揮発性メモリ 15 汎用インターフェイス 16 フレームメモリ 17 画像処理プロセッサ 18 LCD 19 教示操作盤 21 ロボット軸制御部 22 サーボ回路 23 バス 30 ロボット本体 40 溶接トーチ制御器 A,B,C,D 溶接対象物 G,H ギャップ L 端点8C,8D間距離 L’(x) 位置xにおける軌跡映像7D’の長さ P1 ,P2 ,P3 教示点 g(x),h(x) ギャップ幅 p(x) 映像軌跡7A,7Bの内側端点間距離 q(x) 8D,9C間距離
1 Robot Arm Tip 2 Welding Torch 3 Laser Sensor 4 Welding Torch Tip 5 Scanning Beam 6A, 6B, 6C, 6D, 6D ', 6H Scanning Beam Trajectory 7A, 7B, 7C, 7D, 7D', 7H Scanning Beam Trajectory Image 8C End point of locus image 7C 8D End point of locus image 7D '9C Intersection of extension line of locus image 7D' and locus image 7C 10 Robot controller 11 Central processing unit (CPU) 12 Memory (ROM) 13 Memory (RAM) 14 Nonvolatile Memory 15 General-purpose interface 16 Frame memory 17 Image processor 18 LCD 19 Teaching operation panel 21 Robot axis control unit 22 Servo circuit 23 Bus 30 Robot body 40 Welding torch controller A, B, C, D Welding object G, H Gap L Distance between end points 8C and 8D L '(x) at position x The length of the mark image 7D 'P1, P2, P3 teaching point g (x), h (x) gap width p (x) video path 7A, between the inner end points of 7B distance q (x) 8D, 9C distance

───────────────────────────────────────────────────── フロントページの続き (72)発明者 巻幡 雄毅 山梨県南都留郡忍野村忍草字古馬場3580番 地 ファナック株式会社内 (72)発明者 唐鎌 立男 山梨県南都留郡忍野村忍草字古馬場3580番 地 ファナック株式会社内 (72)発明者 池田 好隆 山梨県南都留郡忍野村忍草字古馬場3580番 地 ファナック株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Yuuki Makibata Yuki Makihata 3580 Kobaba, Oshino-mura, Minamitsuru-gun, Yamanashi Prefecture FANUC Co., Ltd. 3580 FANUC CORPORATION (72) Inventor Yoshitaka Ikeda Oshinomura, Minamitsuru-gun, Yamanashi Prefecture Kobaba, 3580 Address FANUC CORPORATION

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 溶接中の部位よりも溶接ロボット進行方
向側の領域を、溶接トーチと共に前記溶接ロボットに支
持されたレーザセンサを用いてセンシングすることによ
り、前記センシングされた領域内に存在する溶接ギャッ
プのギャップ幅データを獲得する段階と、該溶接ギャッ
プ幅データに基づいて前記溶接ロボットの溶接条件を制
御する段階を含むことを特徴とする溶接ロボットの制御
方法。
1. A welding existing in the sensed region by sensing a region on the welding robot advancing direction side of a region being welded using a laser sensor supported by the welding robot together with a welding torch. A method of controlling a welding robot, comprising: obtaining gap width data of a gap; and controlling welding conditions of the welding robot based on the welding gap width data.
【請求項2】 前記溶接条件の制御が、溶接電流、溶接
電圧、溶接速度及び前記溶接トーチ先端のオフセット量
の内の少なくとも1つの量の制御を含むことを特徴とす
る請求項1に記載の溶接ロボットの制御方法。
2. The control of the welding condition includes control of at least one of a welding current, a welding voltage, a welding speed and an offset amount of the welding torch tip. Control method for welding robot.
JP24973993A 1993-09-13 1993-09-13 Control method of welding robot Pending JPH0780643A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24973993A JPH0780643A (en) 1993-09-13 1993-09-13 Control method of welding robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24973993A JPH0780643A (en) 1993-09-13 1993-09-13 Control method of welding robot

Publications (1)

Publication Number Publication Date
JPH0780643A true JPH0780643A (en) 1995-03-28

Family

ID=17197496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24973993A Pending JPH0780643A (en) 1993-09-13 1993-09-13 Control method of welding robot

Country Status (1)

Country Link
JP (1) JPH0780643A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6023044A (en) * 1996-04-12 2000-02-08 Fanuc Ltd. Control method in multi-layer welding
JP2002316265A (en) * 2001-04-19 2002-10-29 Kawasaki Heavy Ind Ltd Method for arc welding of aluminum-based member
KR20030078133A (en) * 2002-03-28 2003-10-08 현대중공업 주식회사 Vision sensor system which can adapt to a gap variation in SUS corrugation panel plasma welding system
KR100456330B1 (en) * 1997-02-28 2004-12-17 삼성중공업 주식회사 Welding bead sensing method for saving time and automatically stopping welding by detecting welding bead in recognition of split point of welding line
JP2008264845A (en) * 2007-04-23 2008-11-06 Yaskawa Electric Corp Robot system
KR101524370B1 (en) * 2013-11-27 2015-05-29 현대제철 주식회사 Local welding apparatus and local welding method
DE102016114560A1 (en) 2015-08-18 2017-02-23 Suzuki Motor Corporation Composite component
CN110788532A (en) * 2019-11-22 2020-02-14 中通客车控股股份有限公司 Profile steel welding robot system and working method thereof
WO2022092061A1 (en) * 2020-10-30 2022-05-05 ファナック株式会社 Robotic welding system
WO2023140366A1 (en) * 2022-01-24 2023-07-27 リンクウィズ株式会社 Work system and work method
WO2023234289A1 (en) * 2022-06-01 2023-12-07 リンクウィズ株式会社 Welding system and welding method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6023044A (en) * 1996-04-12 2000-02-08 Fanuc Ltd. Control method in multi-layer welding
KR100456330B1 (en) * 1997-02-28 2004-12-17 삼성중공업 주식회사 Welding bead sensing method for saving time and automatically stopping welding by detecting welding bead in recognition of split point of welding line
JP2002316265A (en) * 2001-04-19 2002-10-29 Kawasaki Heavy Ind Ltd Method for arc welding of aluminum-based member
KR20030078133A (en) * 2002-03-28 2003-10-08 현대중공업 주식회사 Vision sensor system which can adapt to a gap variation in SUS corrugation panel plasma welding system
JP2008264845A (en) * 2007-04-23 2008-11-06 Yaskawa Electric Corp Robot system
KR101524370B1 (en) * 2013-11-27 2015-05-29 현대제철 주식회사 Local welding apparatus and local welding method
DE102016114560A1 (en) 2015-08-18 2017-02-23 Suzuki Motor Corporation Composite component
DE102016114560B4 (en) 2015-08-18 2021-10-07 Suzuki Motor Corporation Composite component
CN110788532A (en) * 2019-11-22 2020-02-14 中通客车控股股份有限公司 Profile steel welding robot system and working method thereof
WO2022092061A1 (en) * 2020-10-30 2022-05-05 ファナック株式会社 Robotic welding system
WO2023140366A1 (en) * 2022-01-24 2023-07-27 リンクウィズ株式会社 Work system and work method
JP2023107442A (en) * 2022-01-24 2023-08-03 リンクウィズ株式会社 Work system and work method
WO2023234289A1 (en) * 2022-06-01 2023-12-07 リンクウィズ株式会社 Welding system and welding method

Similar Documents

Publication Publication Date Title
US6023044A (en) Control method in multi-layer welding
US5715375A (en) Robot control system for executing multi-layer welding
JP2716052B2 (en) Processing method and apparatus and processing quality control method
JP3746922B2 (en) Welding line scanning determination device and scanning control device
JPH0780643A (en) Control method of welding robot
WO1998039131A1 (en) Welding robot system
EP0862963B1 (en) Welding robot control method
JPH05185227A (en) Automatic welding system and method of automatic welding
JPH07129217A (en) Robot control method using laser sensor
US6150631A (en) Method of detecting root gap and arc welding method using the former
US4906814A (en) Method of starting arc sensing
JPH0830319A (en) Detected angle control method for laser sensor
JP2895289B2 (en) Automatic welding copying machine
JPH115164A (en) First layer welding method
JP3326716B2 (en) Bead lap welding method and its automatic welding device
JPH07266044A (en) Method for controlling welding robot
KR100190455B1 (en) Weld line profile control method
JPH11147187A (en) Method and device for yag laser machining
JP6405168B2 (en) Scanning control device, welding robot system, and scanning control method
JPH08215847A (en) Control method of welding robot
KR100454472B1 (en) Welding torch angle control method and device of arc welding robot in relation to angle correction of welding torch in welding circular arc
JPH08197248A (en) Tracking control method for multi-layer welding
JP2832630B2 (en) Welding line profiling control method
JPH05337785A (en) Grinding path correcting device of grinder robot
JP2000317647A (en) Controller for welding robot