JPH0252172A - Welding system and welding method - Google Patents

Welding system and welding method

Info

Publication number
JPH0252172A
JPH0252172A JP19987388A JP19987388A JPH0252172A JP H0252172 A JPH0252172 A JP H0252172A JP 19987388 A JP19987388 A JP 19987388A JP 19987388 A JP19987388 A JP 19987388A JP H0252172 A JPH0252172 A JP H0252172A
Authority
JP
Japan
Prior art keywords
welding
optical system
image
data
welding torch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP19987388A
Other languages
Japanese (ja)
Other versions
JP2602292B2 (en
Inventor
Akira Hirai
明 平井
Nobuo Shibata
信雄 柴田
Kyoichi Kawasaki
川崎 恭一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP19987388A priority Critical patent/JP2602292B2/en
Publication of JPH0252172A publication Critical patent/JPH0252172A/en
Application granted granted Critical
Publication of JP2602292B2 publication Critical patent/JP2602292B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

PURPOSE:To improve accuracy of welding work by providing a detection jig of an optical system arrangement and picking up slit rays irradiating on a work on an image to operate the welding position based on the obtained optical system arrangement data. CONSTITUTION:A sensor head 5 is arranged in the vicinity of a welding torch 4 and a slit ray emitting means 11 and an optical system 12 for observation are provided to the inside thereof. The ray emitting means 11 irradiates the planar slit rays 16 and 16' on the work and an optical cutting image is picked up by the optical system 12 for observation. A picture signal is then subjected to picture processing and the picture data pertaining to the detecting jig of the optical arrangement are collected to obtain the respective arrangement data of the optical system. Further, these arrangement data of the optical system are used to carry out operation of the welding position with respect to the work and perform welding. Since the deviation in the position of the optical system is corrected and further, welding is performed while operating the picture data automatically, accuracy of welding work is improved.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、溶接システムおよび溶接方法に係り、特に、
ワーク面にスリット光を照射し、この画像を処理するこ
とによりワークの溶接すべき位置を認識し、溶接トーチ
をその位置に誘導して溶接を行う溶接システムおよび溶
接方法に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a welding system and a welding method, and in particular,
The present invention relates to a welding system and a welding method in which a work surface is irradiated with slit light, the image is processed to recognize a position on a workpiece to be welded, and a welding torch is guided to that position to perform welding.

〔従来の技術〕[Conventional technology]

ワーク面にスリット光を照射し、これを画像センサ(撮
像デバイス)で撮像し、これを画像処理してワークの溶
接線位1!!(溶接すべき位置)を認識し、この認識し
た位置を溶接できるようにtII#IIトーチを誘導し
て溶接作業を行う溶接装置および溶接方法は1例えば、
特開昭62−101379号公報に開示されている。
A slit light is irradiated onto the workpiece surface, an image is taken by an image sensor (imaging device), and this is image-processed to determine the welding line position 1 of the workpiece! ! For example, a welding device and welding method that recognizes the position to be welded and guides the tII#II torch to weld the recognized position are as follows:
It is disclosed in Japanese Unexamined Patent Publication No. 101379/1983.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

上記した如き従来の装置あるいは方法は、光学系の配置
データなどの諸室数を予め求めて記憶しておき、これら
諸室数と画像センサで得られた画像データとを用いて溶
接すべき位置を認識し溶接トーチを制御する。このよう
な装置あるいは方法は、記憶している諸室数が正しいと
いう前提で高精度の溶接が可能となるものである。
In the conventional apparatus or method as described above, the number of chambers such as the arrangement data of the optical system is determined and stored in advance, and the position to be welded is determined using the number of chambers and the image data obtained by the image sensor. recognizes and controls the welding torch. Such a device or method enables highly accurate welding on the premise that the stored number of chambers is correct.

しかし、実際には、当初設定した諸室数が、光学系の製
作誤差および組立誤差により設計値に対しずれる。東に
、その後の使用時に、画像センサの変形(取付位置、角
度等)や、センサを取付けているロボットの手首部が障
害物との接触により変形することや1部品の交換等によ
って、予め記憶している定数(演算パラメータ)が実態
とずれてくる。このため、画像センサで得た溶接すべき
位置が実際の位置とずれてしまうことになる。この結果
、溶接トーチが実際の溶接線に対しずれた位置に位置決
めされ、溶接の品質の低下を生じるという問題がある。
However, in reality, the initially set number of chambers deviates from the design value due to manufacturing errors and assembly errors of the optical system. In addition, during subsequent use, the image sensor may be deformed (installation position, angle, etc.), the wrist of the robot to which the sensor is attached may be deformed due to contact with an obstacle, or one part may be replaced. The constants (calculation parameters) that are being used begin to deviate from the actual situation. For this reason, the position to be welded obtained by the image sensor will deviate from the actual position. As a result, there is a problem in that the welding torch is positioned at a position deviated from the actual welding line, resulting in a deterioration in the quality of welding.

そこで、本発明の目的は、溶接すべき位置を正確に認識
して高品質の溶接作業を行うことのできる溶接システム
および溶接方法を提供することである。
SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide a welding system and welding method that can accurately recognize the position to be welded and perform high-quality welding work.

また1本発明の目的は、溶接すべき位置認識のずれを簡
単に校正して高品質の溶接作業を行うことのできる溶接
システムおよび溶接り法を提供することである。
Another object of the present invention is to provide a welding system and a welding method that can easily correct deviations in recognition of positions to be welded and perform high-quality welding work.

〔課題を解決するための手段〕[Means to solve the problem]

本発明は、従来の技術の項で述べた如き溶接システムに
おいて、溶接トーチ先端近傍であってスリット光を受光
できる位置に、互いに直交して積重ねられた2個の直方
体ブロックを含む光学系配置検出治具を配設し、この状
態でスリット光を照射し、受光手段によりこの画像を撮
像して、画像信号を画像処理装置に出力し、画像処理装
置はこの画像信号を処理して光学系の配置データを求め
In a welding system as described in the prior art section, the present invention detects the arrangement of an optical system including two rectangular parallelepiped blocks stacked orthogonally to each other at a position near the tip of a welding torch and capable of receiving slit light. A jig is installed, slit light is irradiated in this state, this image is captured by the light receiving means, and the image signal is output to the image processing device.The image processing device processes this image signal and controls the optical system. Find placement data.

ロボット制御装置はこの光学系の配置データを用いて溶
接すべき位置の演算を行うようにしている。
The robot control device uses this optical system arrangement data to calculate the position to be welded.

また、本発明は、上記した光学系の配置データを求める
際に、光学系配置検出治具に隣接して、溶接トーチを十
分な余裕をもって挿入可能な円筒状の第1の凹部が形成
され、更にその第1の凹部の中央部分に溶接トーチから
繰出されている溶接ワイヤを収納可能な第2の凹部が形
成されているブロック部と、このブロック部の第1の凹
部の周方向に配され溶接トーチのX、Y方向での位置を
検出する位置検出センサと、このブロック部内に配され
溶接トーチのZ方向での位置を検出する位置検出センサ
とを備えたトーチ位置検出治具を備え、ロボット制御装
置は、上記した光学系の配置データ並びに位置検出セン
サからの溶接トーチの位置データを用いて、溶接トーチ
を制御するための制御信号を演算し、それによってロボ
ットの駆動部を制御する。
Further, in the present invention, when obtaining the above-mentioned optical system arrangement data, a cylindrical first recess into which a welding torch can be inserted with sufficient margin is formed adjacent to the optical system arrangement detection jig, Further, a block portion is formed in the center portion of the first recess portion to accommodate a second recess portion capable of accommodating a welding wire fed out from a welding torch; A torch position detection jig including a position detection sensor that detects the position of the welding torch in the X and Y directions, and a position detection sensor that is disposed within the block and detects the position of the welding torch in the Z direction, The robot control device calculates a control signal for controlling the welding torch using the above-mentioned optical system arrangement data and welding torch position data from the position detection sensor, and thereby controls the drive unit of the robot.

〔作用〕 2個の直方体ブロックを含む光学系配置検出治具に対し
、スリット光を照射する。この照射状態において、受光
手段はこの画像を撮像し1画像信号を出力する。この画
像信号は1画像処理装置に入力され、ここで画像処理が
なされる。この結果、光学系配置検出治具にスリット光
を照射したときの光切断画像が得られ、この画像の線分
の長さと、既知の直方体ブロックの長さ1幅、厚み等の
データとから現時点での実際の光学系の配置データが演
算できる。この演算は5画像処理装置あるいはロボット
制御装置で行う。光学系の配置データは、ロボット制御
装置に記憶され1次に光学系の配置データの演算を行う
まではその記憶データを用いて溶接すべき位置を演算す
るために用いられる。
[Operation] Slit light is irradiated onto an optical system placement detection jig including two rectangular parallelepiped blocks. In this irradiation state, the light receiving means captures this image and outputs one image signal. This image signal is input to one image processing device, where image processing is performed. As a result, a light cut image is obtained when the optical system placement detection jig is irradiated with slit light, and from the length of the line segment of this image and the data such as the length, width, thickness, etc. of the known rectangular parallelepiped block, the current The actual optical system arrangement data can be calculated. This calculation is performed by the 5-image processing device or the robot control device. The optical system arrangement data is stored in the robot control device, and until the optical system arrangement data is first calculated, the stored data is used to calculate the position to be welded.

ここで得られた光学系の配置データはその時点における
実際の光学系配置に対応しており、それらのデータを用
いて得られたi8接すべき位置は正確なものとなる。し
たがって、このようにして認識した溶接すべき位置に合
致するように溶接トーチを誘導(制御信号によりロボッ
トの駆動部を駆動して位置決めする)すれば、溶接1・
−チは溶接線に正しく沿って移動され1位置ずれによる
品質の低下が防止できる。
The optical system arrangement data obtained here corresponds to the actual optical system arrangement at that time, and the position at which i8 should be in contact obtained using such data is accurate. Therefore, if the welding torch is guided to match the position to be welded recognized in this way (positioning is achieved by driving the robot's drive unit using a control signal), welding 1.
- The joint is moved correctly along the welding line, and quality deterioration due to one position shift can be prevented.

また、溶接トーチ自体も、当初設定した位置がらずれた
位置となっているが、トーチ位置検出治具を用意して、
実際のトーチ位置を検出することにより、そのずれによ
る誤差を校正することができる。溶接トーチを誘導する
ための制御信号の演算に際し、検出によって得られたト
ーチ位置と。
In addition, the welding torch itself is in a position that is shifted from the originally set position, but we prepared a torch position detection jig and
By detecting the actual torch position, errors caused by its deviation can be corrected. The torch position obtained by detection when calculating the control signal to guide the welding torch.

上記した光学系の配置データとを使用することで。By using the above-mentioned optical system arrangement data.

溶接トーチを精度よく溶接すべき位置に移動させること
ができる。
The welding torch can be accurately moved to the position to be welded.

〔実施例〕〔Example〕

以−ド、本発明を図面を使用して、具体的実施例により
詳細に説明する。
Hereinafter, the present invention will be explained in detail by specific examples using the drawings.

第1図は本発明の一実施例に係るシステムブロック構成
図を示し、第2図は第1図の実施例のシステム配置図を
示す。
FIG. 1 shows a system block configuration diagram according to an embodiment of the present invention, and FIG. 2 shows a system layout diagram of the embodiment of FIG.

第2図から判るように、このシステムは、溶接ロボット
1.溶接用tt源2.ロボット制御装置3゜溶接トーチ
4.溶接トーチ4と一体化したセンサヘッド5.及び画
像処理装置6等から構成されている。溶接トーチ4とセ
ンサヘッド5は、溶接ロボット1の手首下にセンサヘッ
ド5と共に固定している。
As can be seen from FIG. 2, this system consists of a welding robot 1. TT source for welding 2. Robot control device 3° welding torch 4. Sensor head 5 integrated with welding torch 4. and an image processing device 6. Welding torch 4 and sensor head 5 are fixed together with sensor head 5 under the wrist of welding robot 1.

第1図に、本システムのブロック構成を示す。Figure 1 shows the block configuration of this system.

ロボット制御装置3は、溶接ロボット1の各軸および溶
接条件を制御するサーボ・コントロール・プロセッサ8
.ティーチングボックス7を介して操作者により教示さ
れたシステムの動作を管理するシーケンス・コントロー
ル・プロセッサ91画像処理装置6との間の通信を行う
コミュニケーション・コントロール・プロセッサ10か
ら構成されている。センサヘッド5は、スリン1〜光を
発光する発光手段11と、このスリット光を照射した際
の画像を撮像する受光手段17と、を備えている。
The robot control device 3 includes a servo control processor 8 that controls each axis of the welding robot 1 and welding conditions.
.. It is composed of a sequence control processor 91 that manages the operation of the system taught by the operator via the teaching box 7, and a communication control processor 10 that performs communication with the image processing device 6. The sensor head 5 includes a light emitting unit 11 that emits light from the slit 1 and a light receiving unit 17 that captures an image when the slit light is irradiated.

画像処理袋[6は、この受光手段17で撮像した画像信
号をディジタル信号に変換し、ノイズ除去等の前処理を
行った後、画像処理を行い、その処理結果をロボット制
御装置3に出力する。校正ユニット23は、実際の光学
系の配置およびzす接トーチの位置検出のための治具を
備えCいる。この詳細は後述する。
The image processing bag [6 converts the image signal captured by the light receiving means 17 into a digital signal, performs preprocessing such as noise removal, performs image processing, and outputs the processing result to the robot control device 3. . The calibration unit 23 includes a jig for detecting the actual arrangement of the optical system and the position of the Z-contact torch. The details will be described later.

次に、第3A図および第3B図を用いてセンサヘッド5
.溶接トーチ4などのロボット手首部に取付けられた機
器の詳細構造を説明する。第3A図は平面断面図であり
、第3B図は側面図を示す。
Next, using FIGS. 3A and 3B, the sensor head 5
.. The detailed structure of equipment attached to the robot wrist, such as the welding torch 4, will be explained. FIG. 3A is a plan sectional view, and FIG. 3B is a side view.

第3A図、第3B図において、センサヘッド5は、スリ
ット光照射を行う発光手段11と観測用光学系12より
成る0発光手段11は2組の照射ブロックより構成し、
各ブロックは近赤外半導体レーザ、非球面レンズ、シリ
ンドリカルレンズを組み合わせ、平面状のスリット光1
6,1.6’ を照射する。2組の照射ブロックからの
スリット光は、同−平面を構成するよう光学系のyA幣
を行っている。スリット光16.16’ を照射して得
られる光切断像の[112111は、受光手段である撮
像デバイス17.対物レンズ18.干渉フィルタ19゜
光学絞り20を組み合わせた観測用光学系12により行
う、干渉フィルタ19は、狭帯域幅内にある波長光のみ
を透過する。このため、撮像デバイス17は、溶接中に
発生するアーク光の影響を軽減した状態で光切断像の観
測ができる。撮像デバイスL7の観測領域は、この例で
は溶接マーク点の前方約30+wの位置にあり、観測方
向の移動はD C(−一夕21により行う、#8接トー
チ4は、m接ワイヤ40を繰出しながらワークに対し溶
接作業を行う。
3A and 3B, the sensor head 5 includes a light emitting means 11 that emits slit light and an observation optical system 12. The light emitting means 11 is composed of two sets of irradiation blocks;
Each block combines a near-infrared semiconductor laser, an aspherical lens, and a cylindrical lens, and a planar slit light 1
6, 1.6' is irradiated. The optical system is controlled so that the slit lights from the two sets of irradiation blocks form the same plane. [112111] of the optically sectioned image obtained by irradiating the slit light 16.16' is the imaging device 17. which is the light receiving means. Objective lens 18. The interference filter 19, which is implemented by the observation optical system 12 which is a combination of an interference filter 19 and an optical aperture 20, transmits only wavelength light within a narrow bandwidth. Therefore, the imaging device 17 can observe the optically sectioned image while reducing the influence of arc light generated during welding. In this example, the observation area of the imaging device L7 is located at a position approximately 30+w in front of the welding mark point, and the movement in the observation direction is performed by DC (-Itoto 21). Perform welding work on the workpiece while feeding it out.

次に、第4図により、受光手段(撮像デバイス)17で
得られた画像データから溶接すべき位置(三次先位りに
変換する方法を説明する。第4図は、センサヘッド5の
光学系の配置を模式的に示したものである。
Next, a method of converting the image data obtained by the light receiving means (imaging device) 17 into a welding position (cubic position) will be explained with reference to FIG. 4. FIG. 4 shows the optical system of the sensor head 5. This diagram schematically shows the arrangement of .

第4図において、スリット光の成す平面は、センサ座標
系のX5−Ys平平面交差しXS軸に対して角度ζを、
また、Ys−Zs平面とも交差し。
In Fig. 4, the plane formed by the slit light intersects the X5-Ys plane of the sensor coordinate system and makes an angle ζ with respect to the XS axis.
It also intersects the Ys-Zs plane.

Zs軸に対してηの角を成す。It forms an angle η with the Zs axis.

この時のスリット光平面は、次式により表わされる。The slit light plane at this time is expressed by the following equation.

(XS0sinη+ys’cosη)′CO8ζ−ZS
9CO9η+Sinζ=0・・・(1) カメラ座標系は、像面上にU、V座標軸を、モしてセン
サ座標系の原点に向かってW軸を持つ。
(XS0sinη+ys'cosη)′CO8ζ−ZS
9CO9η+Sinζ=0 (1) The camera coordinate system has U and V coordinate axes on the image plane, and a W axis toward the origin of the sensor coordinate system.

カメラ座標系上の点(U、V、W)は1次式を解〈こと
によりセンサ座標系上の点(Xs、 Ys、 Zs)に
変換できる。
Points (U, V, W) on the camera coordinate system can be converted to points (Xs, Ys, Zs) on the sensor coordinate system by solving the linear equation.

ここで、α、β、γは、センサ座標系に対するカメラ座
標系のオイラー角である(Lx、 LvHLx)は、カ
メラ座標系の原点位置座標である。α、β。
Here, α, β, and γ are Euler angles of the camera coordinate system with respect to the sensor coordinate system, and (Lx, LvHLx) are the origin position coordinates of the camera coordinate system. α, β.

γとLx、Lv+ Lzとの間には次の関係式が成り立
つ。
The following relational expression holds between γ, Lx, and Lv+Lz.

・・・(3) ここで、Lo=  Lx”+Ly”+Lx”式(1)、
 (2)、 (3)を用いるとカメラAm系における像
面上の点(U、V、O)、レンズ中心(0゜0、f)は
、センサ座標系上の点(Xa、 Ya、 Zt)。
...(3) Here, Lo=Lx"+Ly"+Lx" formula (1),
Using (2) and (3), the points on the image plane (U, V, O) and the lens center (0°0, f) in the camera Am system are the points on the sensor coordinate system (Xa, Ya, Zt ).

(Xg、’y、、zm)にそれぞれ変換できる。ここで
、(Xs、 Yt、 Zt) ト(Xs、 Ym、 Z
t)を結ぶ直線は次式で表わされる。
(Xg,'y,,zm). Here, (Xs, Yt, Zt) (Xs, Ym, Z
t) is expressed by the following equation.

・・・(4) そして、像平面上における点は、(1)〜(4)の関係
式を解くことによりセンサPJ1.S系上の三次先位!
F!を座標に変換できる。
...(4) Then, by solving the relational expressions (1) to (4), the points on the image plane are determined by the sensor PJ1. Third rank on the S system!
F! can be converted into coordinates.

以上の変換は、スリット光の照射角、ひねり角。The above conversion is the irradiation angle and twist angle of the slit light.

撮像時の観測方向、像倍率などの光学系の諸定数が設計
値通りに設定されており既知であるとした場合にのみ用
いることができる)4f、標変換ノJ法である。しかし
、一般に光学系を設計値通りに調整し里み立てることは
困難であり、組立誤差を伴う。
This method can be used only when various constants of the optical system such as the observation direction and image magnification at the time of imaging are set as designed values and are known.) 4f, standard transformation J method. However, it is generally difficult to adjust and restore the optical system to the designed values, and assembly errors occur.

さらに、ロボット手首に設置するセンサヘッドは、移動
を繰り返し、最悪時にはワークあるいはワーク取付用治
具と衝突させることも考えられる。そして、これらの移
動、?#突により設定位置がずれる場合もある。これら
、光学系の位置ずれはすべて溶接線の検出誤差となり溶
接不良となって現れる。
Furthermore, the sensor head installed on the robot's wrist moves repeatedly, and in the worst case scenario, it may collide with the workpiece or the workpiece mounting jig. And these moves,? #The setting position may shift due to a bump. All of these positional deviations of the optical system result in errors in detecting the welding line, resulting in welding defects.

一方、溶接トーチは、m接トーチ自身で加工を行うため
、ワーク、ワーク取付用の治具と衝突し。
On the other hand, since the welding torch performs processing by itself, it collides with the workpiece and the jig for mounting the workpiece.

取り付は位置がずれる危険性が高い。There is a high risk of misalignment during installation.

溶接トーチが変形すると、仮に視覚センサで正確に溶接
線位置を検出しても溶接品質を確保できないという問題
がある。本装置では、まず視覚センサヘッドの光学系譜
定数を校正治具により求め。
If the welding torch is deformed, there is a problem that welding quality cannot be ensured even if the welding line position is accurately detected by a visual sensor. In this device, first, the optical system constants of the visual sensor head are determined using a calibration jig.

次に溶接トーチの設定位置ずれを求める。最初に校正治
具による校成方法について述べる。
Next, find the setting position deviation of the welding torch. First, we will discuss the calibration method using a calibration jig.

第5図は、各辺がロボット手σの持つ直交座標系(Xw
、 Yw、 Zw)を距離Lss行移動したセンサ座標
系(X s HY s + Z s )に対して治具の
各辺がなす面が平行あるいは直角となるように設置した
光学系配置検出治具22にスリット光を照射して得られ
る光切断像である。また図中には、干渉フィルタ19を
取り外した際、撮像デバイス17から得られる治具22
の像を点線にて示しCいる。
In Figure 5, each side is the orthogonal coordinate system (Xw
, Yw, Zw) by a distance Lss rows, and the optical system placement detection jig is installed so that the plane formed by each side of the jig is parallel or perpendicular to the sensor coordinate system (X s HY s + Z s ). 22 is a photo-cutting image obtained by irradiating slit light onto 22. The figure also shows a jig 22 obtained from the imaging device 17 when the interference filter 19 is removed.
The image of C is shown by the dotted line.

治具22は、幅Wx、厚さW2および、幅Wy。The jig 22 has a width Wx, a thickness W2, and a width Wy.

厚さW2の2個の直方体ブロックを、長辺がそれぞれ直
交する形で組み合わせた形状を持ち、幅W8を持つ直方
体ブロックの上面はX5=O1また手前の而はZs=O
の面となっている。さらに幅Wアを持つ直方体ブロック
は、右側の面がYs=0の面となっている。
It has a shape in which two rectangular parallelepiped blocks with a thickness of W2 are combined with their long sides perpendicular to each other, and the upper surface of the rectangular parallelepiped block with a width of W8 is X5=O1, and the one in front is Zs=O.
It is the face of Furthermore, the right side surface of the rectangular parallelepiped block having a width Wa is a surface where Ys=0.

第6図は、第5図の中心部拡大図であり、本図により、
切断像の各点の三次元座標を求める手順を記載する。な
お、図中の大文字が実際の光切断像より得られたコーナ
ー点を示す。
FIG. 6 is an enlarged view of the center of FIG.
The procedure for finding the three-dimensional coordinates of each point in the cut image will be described. Note that the uppercase letters in the figure indicate corner points obtained from the actual light sectioned image.

は、W2に対応している。このため、b点は、Ys=O
+ Zs=Oであることがわかる。点すは、Z=Oとな
る線分CI)の延長線とも一致する。さらに線分AFの
YS軸成分は、Z二;=0のXs−Yss面上でWyの
値となる。きのため、x=0゜y、 = Oである0点
のYS軸方向の成分ycは。
is compatible with W2. Therefore, point b is Ys=O
It can be seen that +Zs=O. The dot also coincides with the extension line of the line segment CI) where Z=O. Further, the YS axis component of the line segment AF takes the value Wy on the Xs-Yss plane where Z2;=0. Therefore, the component yc in the YS axis direction of the 0 point where x=0°y, = O is.

b yc”    Wyとなる。同様にして1)点の座標A
F’ AF 次に、点Cから、線分E Dに平行で長さが等しい線分
Ceを引く。線分F Dの長とは、WZに対応する。こ
のため、これと平行な線から求めた0点は、X5=O1
Zs=−W2となる。点eは、線の長さは、Z=Oの平
面上でWoである。このだとからスリット光の平面式は A I=’ スリット光の平面2表わす式は、3点のFl+1.標に
より求めることが出来る。ここでは、C,l)、0点の
各点のデータから平面式を求める。
b yc”Wy.Similarly, 1) Coordinates of point A
F' AF Next, from point C, draw a line segment Ce that is parallel to line segment E D and has the same length. The length of the line segment FD corresponds to WZ. Therefore, the 0 point found from a line parallel to this is X5=O1
Zs=-W2. The length of the line at point e is Wo on the Z=O plane. From this, the plane equation of the slit light is A I=' The equation representing the plane 2 of the slit light is the three points Fl+1. It can be determined by the mark. Here, a plane equation is obtained from the data of each point of C, l) and 0 point.

まず、Zs=OのC,D点のデータからCb  Db 
 Wy tanη=               ・・・(5
)AF   Wx 次にC,eのデータから Ae−Cb  Wy tanζ=               ・・・(6
)AF   W。
First, from the data of points C and D of Zs=O, Cb Db
Wy tanη=...(5
)AF Wx Next, from the data of C and e, Ae-Cb Wy tanζ= ...(6
) A.F.W.

・(7) となる。・(7) becomes.

次に、第7図は、第5図の切断像を撮像デバイスによっ
て得られる画像を示す。この画面内の各点のデータから
Xs、Ys、Zsの二次元座標に変換する方法を説明す
る。
Next, FIG. 7 shows an image of the cut image of FIG. 5 obtained by an imaging device. A method of converting the data of each point in this screen into two-dimensional coordinates of Xs, Ys, and Zs will be explained.

第5図かられかるように、線像のA点および11点を結
ぶ線分AHはXs軸方向を、同様に線分BCはyss方
向を示し一〇いる。一方線分CI)は、Zs=Oの平面
上に照射した際に得られる光切断像を表わしている。従
って線分CDを、Xss方向成分および、Ys軸軸力酸
成分分解した際の。
As can be seen from FIG. 5, the line segment AH connecting points A and 11 of the line image indicates the Xs-axis direction, and similarly, the line segment BC indicates the Yss direction. On the other hand, line segment CI) represents a light section image obtained when irradiating onto the plane of Zs=O. Therefore, when the line segment CD is decomposed into the Xss direction component and the Ys axis axial force acid component.

線分AI(に平行な成分は、XS軸力向の長さWアおよ
び線分13 Cに平行な成分に分解した際の、線分BG
に平行な成分は、Y軸方向の長さWyに対応する。
The component parallel to the line segment AI (is the length W in the XS axis force direction) and the component parallel to the line segment 13C, the line segment BG
The component parallel to corresponds to the length Wy in the Y-axis direction.

第7図において、各点の画面上での位置を(unV)で
表わす、6点を仮の座mg点とする。 XS軸+YS軸
方向に長さWxおよびWyに対応する座樟点(u、、V
W)*  (uy+ vy)は次式で求まる。
In FIG. 7, the position of each point on the screen is represented by (unV), and six points are assumed to be temporary mg points. The ground point (u, , V
W)*(uy+vy) can be found using the following formula.

撮像デバイスの持つ座標系のセンサ座標系に対して成す
角を、オイラー角α、β、γで表わす。
The angles formed by the coordinate system of the imaging device with respect to the sensor coordinate system are represented by Euler angles α, β, and γ.

さらに、撮像索子上の像倍率が一定値pであると仮定す
る。この結果1次式が成り立つ。
Furthermore, it is assumed that the image magnification on the imaging probe is a constant value p. As a result, a linear equation holds true.

・・(9) Wx Wy y レンズが薄肉レンズでありレンズの焦点距離をドoとす
ると、搬像デバイスと校正治具の6点までの距離Lo、
および撮像素子からレンズまでのyli離り、は次式で
与えられる。
...(9) Wx Wy y If the lens is a thin lens and the focal length of the lens is o, then the distance between the image carrier device and the 6 points of the calibration jig is Lo,
and yli distance from the image sensor to the lens are given by the following equation.

なお、ここで原点近傍にある点Cは、撮像索子上で合焦
状態にあると仮定した。
It is assumed here that point C near the origin is in focus on the imaging probe.

センサ座標系から兄た撮像デバイスの原点位置(■、X
I Lツ、Lよ)は、(15)式の関係から得られるオ
イラー角α、β、γおよび撮像索子までの距離Loを用
い次式で求めることができる。
From the sensor coordinate system, the origin position of the imaging device (■,
I L, L can be determined by the following equation using the Euler angles α, β, γ obtained from the relationship in equation (15) and the distance Lo to the imaging probe.

Lx=Losinβcosα、 Ly=LosinαS
inβ、 Lz=Locosβ−(12)一方、第6図
に示した座標系の原点Cは5線分CDと、A、Jから線
分GFに平行に引いた線分との交点すを求め、b点から
線分AHに平行に引いた線分と線分B Cとの交点から
求めることかで゛きる。この座標点b(ub+ vb)
、C(uc+ vc)は次式で表わされる。
Lx=Losinβcosα, Ly=LosinαS
inβ, Lz=Locosβ−(12) On the other hand, the origin C of the coordinate system shown in FIG. It can be found from the intersection of a line drawn parallel to line segment AH from point b and line segment BC. This coordinate point b (ub+vb)
, C(uc+vc) is expressed by the following equation.

00)、 (12)、 (13)から1手首座標系の点
(X、。
00), (12), (13) to the point (X,) of the wrist coordinate system.

Yi、Z*)は1次式により変換できる。Yi, Z*) can be converted using a linear equation.

・・・(14) さらにセンサ座標系におけるレンズ中心位置(Xa、Y
t、Z*)は1次式により求めることができる。
...(14) Furthermore, the lens center position (Xa, Y
t, Z*) can be determined by a linear equation.

画面上に表われるスリット光像の任意の点(u+V)と
手首座標系での三次元座標位置(X、Y。
Any point (u+V) of the slit light image appearing on the screen and the three-dimensional coordinate position (X, Y) in the wrist coordinate system.

Z)との関係は次式となる。The relationship with Z) is as follows.

・・(16) すなhち、上記した光学系配置検出治具22を撮像して
得られる第7図の如き画像データから。
(16) That is, from the image data as shown in FIG. 7 obtained by imaging the above-mentioned optical system arrangement detection jig 22.

スリット光平面と撮像デバイスの位置および方向とを求
めることができる。
The slit light plane and the position and orientation of the imaging device can be determined.

ロボット制御袋[3では、上述したように画像データに
基づく光学系の実際の諸定数を置換して修正する。さら
に、この光学系の諸定数の値を用い1発光手段、結像レ
ンズおよび撮像デバイス17によるam系で構成される
光学系の配置によって決まる座標変換式(センサ座標系
から手首座標系への変換式)の変換パラメータを算出す
る。
In the robot control bag [3, as described above, the actual constants of the optical system based on the image data are replaced and corrected. Furthermore, using the values of various constants of this optical system, a coordinate conversion formula (conversion from the sensor coordinate system to the wrist coordinate system Calculate the conversion parameters of formula).

なお、この変換は1画像処理装置で行ってもよい。Note that this conversion may be performed by one image processing device.

被溶接物(ワーク)の開先面にスリット光を照射して得
られる画像を撮像し、これを画像処理袋[6により処理
して求まる開先位置データは、ロボット制御装置3に伝
送される。ロボット制御装置3では、この開先位置デー
タを用い、前述の修正された座標変換式を基づいて手首
座標データに変換する。
An image obtained by irradiating the groove surface of the object to be welded (workpiece) with slit light is captured, and the image is processed by the image processing bag [6. The groove position data obtained is transmitted to the robot control device 3. . The robot control device 3 uses this groove position data to convert it into wrist coordinate data based on the above-mentioned modified coordinate conversion formula.

第8図により、溶接トーチ4の位置と光学系の位置の検
出方法について説明する6図において。
6 for explaining a method of detecting the position of the welding torch 4 and the position of the optical system with reference to FIG. 8.

2:3と30は、各々校正治具および支持アームである
。両押は、固定用ボルト31a、31bによって互いに
固定されている6校正治具23と支持アーム30は、後
述するプレーバックによる倣い溶接を行なう際には取外
されるものである。図において、支持プレート30は、
基準面30a。
2:3 and 30 are a calibration jig and a support arm, respectively. The six calibration jig 23 and support arm 30, which are fixed to each other by fixing bolts 31a and 31b, are removed when copy welding by playback, which will be described later, is performed. In the figure, the support plate 30 is
Reference plane 30a.

:]Ob、30cを介し、取付金共:32に位置決めし
て固定される。
:]Ob, 30c, and the mounting bracket is positioned and fixed at :32.

第9図は、第8図のA−A’矢視図で、支持プレート;
30を省略して示したものである。第10図は、第9図
の平面図である。第9,10図において、Xw、Yw、
7w軸は、ロボットの手首座標系の各座標軸と一致する
ように配置される9校正治具23は、前述した方法によ
り光学系各部のずれを検出する光学系位置検出治具22
と溶接トーチの位置検出治具24とで構成されている。
FIG. 9 is a view taken along the line A-A' in FIG. 8, and shows a support plate;
30 is omitted. FIG. 10 is a plan view of FIG. 9. In Figures 9 and 10, Xw, Yw,
7 The w axis is arranged so as to coincide with each coordinate axis of the wrist coordinate system of the robot. 9 The calibration jig 23 is an optical system position detection jig 22 that detects the deviation of each part of the optical system by the method described above.
and a welding torch position detection jig 24.

24a〜24dは座動変圧器である。各差動変圧器には
24a to 24d are seat motion transformers. For each differential transformer.

図示したように、変位を検出するための可動部の先端に
回転可能なローラを設けている。差動変圧器24aは、
手首座標系のXw細軸上ある。また、差動変圧器24b
と24cは、Xw−Yt軸を含む平面上にあって、前記
差動変圧器24aの取付位置に対して夫々120°の角
度を成して取付けられている。
As shown in the figure, a rotatable roller is provided at the tip of the movable part for detecting displacement. The differential transformer 24a is
It is on the Xw thin axis of the wrist coordinate system. In addition, the differential transformer 24b
and 24c are located on a plane including the Xw-Yt axes, and are mounted at an angle of 120° with respect to the mounting position of the differential transformer 24a.

上述した溶接トーチの位置検出装置24を用い。Using the welding torch position detection device 24 described above.

ます差動変圧器24a、24bおよび24cを溶接トー
チの外周に接触させて、手1m系の原点Owからトーチ
接触点までの各々の距離を検出する。その検出値を各々
Qa、 Qb+ Qc とし、Wj接トーチ4の中心位
置の手首座標系Xw 、Yに対する位置ずれをXTおよ
びYt とすると、これらの関係は次式のように表わさ
れる。
The mass differential transformers 24a, 24b, and 24c are brought into contact with the outer periphery of the welding torch, and each distance from the origin Ow of the hand 1 m system to the torch contact point is detected. Letting the detected values be Qa and Qb+Qc, respectively, and the positional deviations of the center position of the Wj contact torch 4 with respect to the wrist coordinate system Xw and Y as XT and Yt, these relationships are expressed as in the following equation.

・・・(17) すなわち、Qa、(lb、nc を実測し、(17)式
に代入して演算することによって、溶接トーチのXwお
よびYwh向の位置ずれを検出することができる。
(17) That is, by actually measuring Qa, (lb, nc) and substituting them into equation (17) for calculation, it is possible to detect the positional deviation of the welding torch in the Xw and Ywh directions.

一方、差動変圧器24dはZW!Illと平行に配置さ
れている。該差動変圧器24dにより、溶接トーチ4の
下面4aの高さをalll定する。これによって、トー
チ下面4aから2w軸方向に一定距離だけ離れて設置さ
れるワイヤ先端4bのZwh向の位置ずれ7丁を検出で
きる。
On the other hand, the differential transformer 24d is ZW! It is placed parallel to Ill. The height of the lower surface 4a of the welding torch 4 is all determined by the differential transformer 24d. As a result, it is possible to detect seven positional deviations in the Zwh direction of the wire tip 4b, which is installed a certain distance away from the lower surface 4a of the torch in the 2w axis direction.

J亥トーチの位置ず才LXT、Ytおよび7丁をあらか
じめ求めておき、このデータをロボット制御装置に記憶
させておく、プレーバックによるロボットを運転する際
には、riトーチの位置ずれの記憶データXT、Ytお
よびZTの値を用い、トーチ位置の倣い制御を補正させ
て実施させる。これによって、溶接トーチ位置を精度良
く倣うことが可能となる。
The positional deviation LXT, Yt, and 7th of the J-torch are determined in advance and this data is stored in the robot control device.When operating the robot by playback, the stored data of the positional deviation of the ri-torch is stored. Using the values of XT, Yt, and ZT, the tracing control of the torch position is corrected and executed. This makes it possible to accurately trace the welding torch position.

また5校正治具23は、光学系位置検出治具22が一体
となって配置されている。こ才しによって、前述した方
法で画像データに基づくセンサ光学系の実際の配置デー
タを検出することができる。
Further, the optical system position detection jig 22 is integrally arranged in the fifth calibration jig 23. This makes it possible to detect the actual positioning data of the sensor optics based on the image data in the manner described above.

次に、プレイバックモードで倣い制御を行っている際の
溶接線の倣い制御をする方法を第11図を用いて説明す
る。
Next, a method for controlling the tracing of a weld line when performing tracing control in the playback mode will be explained using FIG. 11.

前述したように本システムは、ロボットと、ロボット制
御装置3と9画像処理装置6と1校正治具とにより構成
している。そしてロボット制御装置3は、第2図に示す
ように、サーボ・コントロール・プロセッサ8.シーケ
ンス・コントロール・プロセッサ9.コミュニケーショ
ン・コントロール・プロセッサ1oの各プロセッサを内
蔵する。
As described above, this system includes a robot, a robot control device 3, nine image processing devices 6, and one calibration jig. As shown in FIG. 2, the robot control device 3 includes a servo control processor 8. Sequence control processor9. Each processor of communication control processor 1o is built-in.

溶接トーチ4がセンシング領域に到達すると、シーケン
ス・コン1−ロール・プロセッサ9は、ブロセッサ10
のRAM上に検出要求フラグを転送する。コミュニケー
ション・コントロール・プロセッサ10は、このフラグ
を検出すると5画像処理装置6に検出処理を通信回線を
通し要求する。これと同時に、コミュニケーション・コ
ントロール・プロセッサ10は検出領域の開始点の(!
置ベクトルTI、終了点の位置ベクトル゛1’t+1.
ならびにサーボ・コントロール・プロセッサ8からRΔ
Mkに送られている6軸の角度データを記憶する。一方
1画像処理装置6はセンサヘッド5から送られてくる光
切換像の検出処理をコミュニケーション・コントロール
・プロセッサ10からの検出要求を受信すると同時に実
行する。センサヘッド5により検出された光切断像は、
画像処理装置6へ送り処理する。すなわち、まず、内部
の図示しないA/D変換器は、撮像デバイス17から得
られたビデオ信号をサンプリングしながらデジタル量に
変換し、この結果を内部の図示しない前処理回路に送る
。ここで1画像データのノイズ除去処理が行なわれる1
次に、ノイズ除去(フィルタリング)処理後のデータを
用いて、局部極大。
When the welding torch 4 reaches the sensing area, the sequence controller 1-roll processor 9
The detection request flag is transferred to the RAM of. When the communication control processor 10 detects this flag, it requests the image processing device 5 to perform detection processing through the communication line. At the same time, the communication control processor 10 detects (!) the starting point of the detection area.
position vector TI, end point position vector '1't+1.
and RΔ from the servo control processor 8
Stores the 6-axis angle data sent to Mk. On the other hand, the first image processing device 6 executes the detection process of the optical switching image sent from the sensor head 5 at the same time as receiving the detection request from the communication control processor 10. The optical section image detected by the sensor head 5 is
The image is sent to the image processing device 6 for processing. That is, first, an internal A/D converter (not shown) converts the video signal obtained from the imaging device 17 into a digital amount while sampling it, and sends this result to an internal preprocessing circuit (not shown). Here, noise removal processing for one image data is performed1
Next, local maxima are determined using the data after noise removal (filtering) processing.

極小番地を抽出する処理を行う、これが、第11図のF
lである。
This is F in Figure 11, which performs the process of extracting the minimum address.
It is l.

次の処理フローF2では、前処理で得られた疑似2値化
LARデータの画面縦方向における連続性を判定しなが
ら、連続性を満足する要素を1つの領域としてまとめる
セグメント化処理を行う。
In the next processing flow F2, while determining the continuity of the pseudo-binarized LAR data obtained in the preprocessing in the vertical direction of the screen, segmentation processing is performed to group elements that satisfy the continuity into one area.

そして、フローF3では、各セグメントの骨格を成す中
心線の、m像索子原点に対する距srと撮像素子のU軸
に対して成す角度φを計算する(Hough変換)、そ
して、フローF4では、各隣接セグメントについてrと
φを比較し、それぞれの差が一定閾値以内であれば同一
の線上に有るとしてセグメントを統合する。これらの一
連の処理の結果、継手モデルに対応した基本線要素を抽
出できる。この時、複数の基本線要素に対する候補が存
在する場合には、最も線長の長い一対の線の組を選択す
る0次に1重ね継手の場合、フローF5゜F6に進み、
下板表面から得られる光切断像の端点を計算する。又隅
肉継手の場合には、フローr・’7.F8に進み、縦板
および下板のそれぞれから得られる光切断像の交点を計
算する。これらの点が、m像面上での溶接線位置となる
Then, in flow F3, the distance sr of the center line forming the skeleton of each segment with respect to the origin of the m-image chorion and the angle φ with respect to the U axis of the image sensor are calculated (Hough transformation), and in flow F4, For each adjacent segment, r and φ are compared, and if the difference between them is within a certain threshold, the segments are considered to be on the same line and integrated. As a result of these series of processes, basic line elements corresponding to the joint model can be extracted. At this time, if there are candidates for multiple basic line elements, select the pair of lines with the longest line length.In the case of a 0th order 1 overlap joint, proceed to flow F5°F6,
Calculate the end points of the optically sectioned image obtained from the lower plate surface. In addition, in the case of fillet joints, flow r・'7. Proceed to F8, and calculate the intersection of the optically sectioned images obtained from each of the vertical plate and the lower plate. These points become the welding line positions on the m image plane.

そして、フO−f/9では、この位置を、前述した校正
データと、予め求めておいた座標変換式とを用いて、セ
ンサ座標に変換する。次に、センサヘッドの方向角を用
いロボットの手tIf系に変換する。i像処理装置f!
6が検出処理を実行している間、コミュニケーション・
コントロール・プロセッサ10は、ティーチライン基本
ベクトルeT+を、教示データ’l”+、1’+◆1を
用い、また変換マトリクスTを、ロボットの6軸の角度
データを用い計算する。Tマトリクスの値は次式で表さ
れる。
Then, at f/9, this position is converted into sensor coordinates using the above-mentioned calibration data and a coordinate conversion formula determined in advance. Next, the direction angle of the sensor head is used to convert into the robot's hand tIf system. i image processing device f!
6 is performing the detection process, the communication
The control processor 10 calculates the teach line basic vector eT+ using the teaching data 'l'+, 1'+◆1, and the transformation matrix T using the angle data of the six axes of the robot.The value of the T matrix is expressed by the following formula.

氏 り    リ    O tA     り ここで、C+ =cos(θ、)。Mr. ri ri ri O tA Here, C+ = cos(θ,).

S +  =sin(0+)+ (Px、Py、Pz) ;手首座標系原点の三次元位置
ベクトル θ1 :旋回角 02 :前腕角 θ8 :上腕角 θ4 :曲げ角 θ11=ひねり角 θ6 :振り角 この計算が終了すると、コミュニケーション・コントロ
ール・プロセッサ10は1画像処理装置6に計算が終了
したかを繰り返し問い合わせる。
S + = sin (0+) + (Px, Py, Pz); Three-dimensional position vector of wrist coordinate system origin θ1: Turning angle 02: Forearm angle θ8: Upper arm angle θ4: Bending angle θ11 = Twisting angle θ6: Swing angle When the calculation is completed, the communication control processor 10 repeatedly asks the image processing device 6 whether the calculation is completed.

画像処理装置ff6は、検出処理が終了した時点で。The image processing device ff6 completes the detection process.

手り座標系における溶接すべき位置をコミュニケーショ
ン・コントロール・プロセッサ10に転送する。コミュ
ニケーション・コントロール・プロセッサ10は、予め
求めておいたTマトリクスを用いて、手首座標系におけ
る溶接すべき位置を次式によりロボット座標系でみた溶
接すべき位置座標に変換する。
The position to be welded in the hand coordinate system is transferred to the communication control processor 10. The communication control processor 10 converts the welding position in the wrist coordinate system to the welding position coordinate in the robot coordinate system using the T matrix determined in advance by the following equation.

そして、この変換された位置をコミュニケーション・コ
ントロール・プロセッサ10内のレジスタに記憶する。
This converted position is then stored in a register within the communication control processor 10.

コミュニケーション・コントa −ル・プロセッサ10
は1画像処理装置6に次の撮像要求を出し処理を繰り返
す。
Communication control processor 10
1 issues the next imaging request to the image processing device 6 and repeats the process.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、光学系配置検出治具にスリット光を照
射して得られる画像データから、光学系の配置データを
求めることができ、この求められたデータを用いて溶接
すべき位置を求めて制御するので、溶接トーチを正確に
溶接すべき位置に誘導することができる。このため、高
品質の溶接作業を実現することができる。また、光学系
の配置データは、治具にスリット光を照射して得られる
画像データを用いて自動的に演算するようになっている
ので、簡単に高精度の溶接作業を行うことができる。
According to the present invention, it is possible to obtain optical system arrangement data from image data obtained by irradiating the optical system arrangement detection jig with slit light, and use this obtained data to find the position to be welded. The welding torch can be accurately guided to the position to be welded. Therefore, high quality welding work can be achieved. Further, the arrangement data of the optical system is automatically calculated using image data obtained by irradiating the jig with slit light, so that highly accurate welding work can be easily performed.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例を示すシステムブロック構成
図、第2図は第1図に示すシステムの配置図、第3A図
および第3B図はロボット手首部に取付けられた機器の
構成を示す図、第4図はセンサヘッドの光学系の配置を
模式的に示す図、第5図は光学系配置検出治具にスリッ
ト光を照射して得られる光切断像を示す図、第6図は第
5図の中心部を拡大した図、第7図は光学系配置検出治
具にスリット光を照射したときの受光手段で得られる画
像を示す図、第8図は校王治[Lを取付けた状態におけ
るロボット手庁部の概略を示す図、第9図と第10図は
校正治具の具体例を示す図、第11図は画像処理の処理
フローを示す図である。 1・・・溶接ロボット、2・・・溶接用N、源、3・・
・ロボット制御装置、4・・・溶接トーチ、5・・・セ
ンサヘッド。 6・・・画像処理装置、11・・・発光手段、17・・
・受光手段、22・・・光学系配置検出治具、23・・
・校正治具、24・・・溶接トーチ位置検出治具。 \ 斗 圀 ! 第3A図 第3B口 Is −j+’fE L ;ス゛ zl・−DCu−7 拓 μ 凶 ン 垢 り 区 \ −え、、7.。1.7゜ 30・−決JE珀算 亮 図 革 ろ 肥 弔 図 沸 10  区 24L(L
Fig. 1 is a system block configuration diagram showing an embodiment of the present invention, Fig. 2 is a layout diagram of the system shown in Fig. 1, and Figs. 3A and 3B show the configuration of equipment attached to the robot wrist. FIG. 4 is a diagram schematically showing the arrangement of the optical system of the sensor head, FIG. 5 is a diagram showing a light section image obtained by irradiating the optical system arrangement detection jig with slit light, and FIG. is an enlarged view of the center of Figure 5, Figure 7 is a diagram showing the image obtained by the light receiving means when the optical system placement detection jig is irradiated with slit light, and Figure 8 is FIG. 9 and FIG. 10 are diagrams showing a specific example of the calibration jig, and FIG. 11 is a diagram showing the processing flow of image processing. 1... Welding robot, 2... Welding N, source, 3...
- Robot control device, 4... Welding torch, 5... Sensor head. 6... Image processing device, 11... Light emitting means, 17...
- Light receiving means, 22... Optical system arrangement detection jig, 23...
- Calibration jig, 24... Welding torch position detection jig. \ Dokuni! Fig. 3A, Fig. 3B, Is -j+'fE L;S゛zl・-DCu-7 Taku μ, bad dirt ward\ -E,,7. . 1.7゜30.

Claims (1)

【特許請求の範囲】 1、手首部を有しており、該手首部を溶接トーチ並びに
ワーク面に照射されたスリット光の反射光を受光する受
光手段を含むセンサヘッドを有するロボットと、受光手
段で得られた画像信号の画像処理を行い画像データを出
力する画像処理装置と、該画像データを用いて該ワーク
の溶接すべき位置を演算し、該溶接トーチの先端が該溶
接すべき位置に一致するように該ロボットの駆動部に制
御信号を出力するロボット制御装置とを備えた溶接シス
テムにおいて、 該溶接トーチ先端近傍であつて前記スリット光を受光で
きる位置であつて、互いに直交して積重ねられた2個の
直方体ブロックを含む光学系配置検出治具を配設し、 前記受光手段は、該光学系配置検出治具に照射したスリ
ット光を撮像し、その画像信号を出力し、 前記画像処理装置は、該画像信号を画像処理して該光学
系配置検出治具に関する画像データを得て光学系の配置
データを求め、 前記ロボット制御装置は、該光学系の配置データを用い
てワークに対する溶接作業の際の前記溶接すべき位置の
演算を行うこと を特徴とする溶接システム。 2、請求項1記載の溶接システムにおいて、前記光学系
配置検出治具に隣接して、前記溶接トーチを十分な余裕
をもつて挿入可能な円筒状の第1の凹部が形成され、そ
の第1の凹部の中央部分に前記溶接トーチから繰出され
ている溶接ワイヤを収納可能な第2の凹部が形成されて
いるブロック部と、該ブロック部の第1の凹部の周方向
に配され、前記溶接トーチの軸線に対し直角方向の面で
のX方向、Y方向位置を検出する位置検出センサと、該
ブロック部内に配され、前記溶接トーチの軸線方向であ
るZ方向位置を検出する位置検出センサとを備えたトー
チ位置検出治具を備え、 前記ロボット制御装置は、前記光学系の配置データ並び
に該位置検出センサからの溶接トーチの位置データを用
いて前記制御信号を演算すること を特徴とする溶接システム。 3、ワーク面にスリット光を照射し、該ワーク面の画像
を撮像し、該画像を処理して得られた画像データを用い
て該ワークの溶接すべき位置を認識し、該位置に溶接ト
ーチを誘導して溶接を行う溶接方法において、該溶接ト
ーチの先端近傍に配され互いに直交して積重ねられた2
個の直方体ブロックに該スリット光を照射し、該ブロッ
クに照射した状態の画像を撮像して得た画像データを用
いて、光学系の配置データを演算して記憶し、以後のワ
ークに対する溶接作業においては、該記憶した光学系の
配置データを用いて前記溶接すべき位置を演算すること
を特徴とする溶接方法。 4、ワーク面にスリット光を照射し、該ワーク面の画像
を撮像し、該画像を処理して得られた画像データを用い
て該ワークの溶接すべき位置を認識し、該位置に溶接ト
ーチを誘導して溶接を行う溶接方法において、該溶接ト
ーチの先端近傍に配され互いに直交して積重ねられた2
個の直方体ブロックに該スリツト光を照射して得た画像
データを用いて光学系の配置データを求めて記憶すると
共に、該溶接トーチの位置を検出するセンサからの出力
データを記憶し、以後のワークに対する溶接作業におい
ては、これら記憶したデータを用いて前記溶接トーチを
誘導するための制御信号を演算し、該制御信号により前
記溶接トーチを取付けたロボットの駆動部を制御するこ
とを特徴とする溶接方法。 5、溶接トーチと、スリット光を溶接すべきワークに向
けて発光する発光手段および該ワーク面を反射しした反
射光を受光する受光手段を有するセンサヘッドとを手首
部に有しており、制御信号によつて該溶接トーチをワー
クの溶接線に添つて移動させる溶接ロボットと、 該受光手段で得られた画像信号を入力し、これを画像処
理して画像データを求める画像処理装置と、 該画像処理装置で求められた画像データから溶接すべき
位置を求め、該溶接すべき位置を用いて該溶接トーチを
予め記憶した位置にならつて駆動させるための該制御信
号を演算し、出力するロボット制御装置と、 を備えた溶接ロボットシステムにおいて、 前記手首部に取付可能であつて該溶接トーチ先端部まで
延びるアームと、該アーム上であつて前記スリツト光を
受光できる位置に取付けられ、互いに直交配置して積重
ねた2個の直方体ブロックとを備えた光学系ずれ校正治
具を備え、前記受光手段は、該2個の直方体ブロックに
照射した前記スリット光の反射光を受光して検出用画像
信号を出力し、 前記画像処理装置は、該検出用画像信号を入力し、該信
号を画像処理して画像データを求め、前記ロボット制御
装置は、該画像データに基づき光学系の配置データを求
め、前記溶接すべき位置を求める関係式に用いる光学系
の諸定数の中から光学系の配置データを該求められた光
学系の配置データに置換することを特徴とする溶接シス
テム。
[Scope of Claims] 1. A robot having a wrist portion and having a sensor head including a welding torch and a light receiving means for receiving the reflected light of the slit light irradiated onto the work surface; and the light receiving means. an image processing device that performs image processing on the image signal obtained by the above and outputs image data; and an image processing device that uses the image data to calculate the position to be welded on the workpiece, and aligns the tip of the welding torch with the position to be welded. In a welding system equipped with a robot control device that outputs control signals to a drive unit of the robot so that the slits coincide with each other, the slits are stacked orthogonally to each other at a position near the tip of the welding torch where the slit light can be received. an optical system placement detection jig including two rectangular parallelepiped blocks, the light receiving means images the slit light irradiated to the optical system placement detection jig and outputs an image signal thereof; The processing device performs image processing on the image signal to obtain image data regarding the optical system placement detection jig to obtain placement data of the optical system, and the robot control device uses the placement data of the optical system to detect the workpiece. A welding system characterized by calculating the position to be welded during welding work. 2. In the welding system according to claim 1, a cylindrical first recess into which the welding torch can be inserted with a sufficient margin is formed adjacent to the optical system arrangement detection jig, and a block part having a second recess formed in the center of the recess capable of accommodating the welding wire fed out from the welding torch; a position detection sensor that detects the position in the X direction and the Y direction on a plane perpendicular to the axis of the torch, and a position detection sensor that is arranged within the block part and detects the position in the Z direction that is the axial direction of the welding torch. a torch position detection jig, wherein the robot control device calculates the control signal using position data of the optical system and position data of the welding torch from the position detection sensor. system. 3. Irradiate the workpiece surface with slit light, take an image of the workpiece surface, process the image, use the image data obtained to recognize the position on the workpiece to be welded, and place the welding torch at the position. In a welding method in which welding is performed by guiding a welding torch, two
Using the image data obtained by irradiating the slit light onto each rectangular parallelepiped block and capturing an image of the irradiated state on the block, the arrangement data of the optical system is calculated and stored, and subsequent welding work for the workpiece is performed. A welding method characterized in that the position to be welded is calculated using the stored position data of the optical system. 4. Irradiate the workpiece surface with slit light, take an image of the workpiece surface, process the image, use the image data obtained to recognize the position of the workpiece to be welded, and place the welding torch at the position. In a welding method in which welding is performed by guiding a welding torch, two
Using the image data obtained by irradiating the slit light onto the rectangular parallelepiped blocks, the arrangement data of the optical system is determined and stored, and the output data from the sensor that detects the position of the welding torch is stored, and In the welding work on the workpiece, the stored data is used to calculate a control signal for guiding the welding torch, and the control signal is used to control the drive section of the robot to which the welding torch is attached. Welding method. 5. The sensor head has a welding torch, a light emitting means for emitting slit light toward the workpiece to be welded, and a light receiving means for receiving the reflected light reflected from the surface of the workpiece at the wrist, and the sensor head is controlled. a welding robot that moves the welding torch along the welding line of the workpiece in response to a signal; an image processing device that inputs the image signal obtained by the light receiving means and processes the image to obtain image data; A robot that determines a welding position from image data obtained by an image processing device, uses the welding position to calculate and output a control signal for driving the welding torch to a pre-stored position. A welding robot system comprising: a control device; an arm that can be attached to the wrist and extends to the tip of the welding torch; and an arm that is attached to the arm at a position where it can receive the slit light and that are orthogonal to each other. An optical system deviation calibration jig includes two rectangular parallelepiped blocks arranged and stacked, and the light receiving means receives reflected light of the slit light irradiated to the two rectangular parallelepiped blocks to generate a detection image. The image processing device inputs the detection image signal and performs image processing on the signal to obtain image data, and the robot control device obtains arrangement data of the optical system based on the image data. , a welding system characterized in that the arrangement data of the optical system is replaced with the determined arrangement data of the optical system from among various constants of the optical system used in the relational expression for obtaining the position to be welded.
JP19987388A 1988-08-12 1988-08-12 Welding system and welding method Expired - Lifetime JP2602292B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19987388A JP2602292B2 (en) 1988-08-12 1988-08-12 Welding system and welding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19987388A JP2602292B2 (en) 1988-08-12 1988-08-12 Welding system and welding method

Publications (2)

Publication Number Publication Date
JPH0252172A true JPH0252172A (en) 1990-02-21
JP2602292B2 JP2602292B2 (en) 1997-04-23

Family

ID=16415049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19987388A Expired - Lifetime JP2602292B2 (en) 1988-08-12 1988-08-12 Welding system and welding method

Country Status (1)

Country Link
JP (1) JP2602292B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06114772A (en) * 1992-10-05 1994-04-26 Sharp Corp Brazing robot
JP2009509789A (en) * 2005-10-06 2009-03-12 クーカ・ロボター・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング How to determine the virtual tool center point
EP2641704A1 (en) * 2011-12-14 2013-09-25 Carl Cloos Schweisstechnik GmbH Robotic device having a sensor device for handling, assembling and/or processing workpieces
CN111189393A (en) * 2020-01-21 2020-05-22 北京卫星制造厂有限公司 High-precision global vision measurement method for three-dimensional thin-wall structural weld joint
US11841330B2 (en) 2018-06-20 2023-12-12 Physik Instrumente (Pi) Gmbh & Co. Kg Sensor probe assembly

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06114772A (en) * 1992-10-05 1994-04-26 Sharp Corp Brazing robot
JP2009509789A (en) * 2005-10-06 2009-03-12 クーカ・ロボター・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング How to determine the virtual tool center point
JP4926180B2 (en) * 2005-10-06 2012-05-09 クーカ・ロボター・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング How to determine the virtual tool center point
EP2641704A1 (en) * 2011-12-14 2013-09-25 Carl Cloos Schweisstechnik GmbH Robotic device having a sensor device for handling, assembling and/or processing workpieces
US11841330B2 (en) 2018-06-20 2023-12-12 Physik Instrumente (Pi) Gmbh & Co. Kg Sensor probe assembly
CN111189393A (en) * 2020-01-21 2020-05-22 北京卫星制造厂有限公司 High-precision global vision measurement method for three-dimensional thin-wall structural weld joint
CN111189393B (en) * 2020-01-21 2021-10-01 北京卫星制造厂有限公司 High-precision global vision measurement method for three-dimensional thin-wall structural weld joint

Also Published As

Publication number Publication date
JP2602292B2 (en) 1997-04-23

Similar Documents

Publication Publication Date Title
Lei et al. A review of vision-aided robotic welding
US8964001B2 (en) Method for displaying measurement effective area in three-dimensional visual sensor and three-dimensional visual sensor
WO2015120734A1 (en) Special testing device and method for correcting welding track based on machine vision
CN108965690B (en) Image processing system, image processing apparatus, and computer-readable storage medium
Nele et al. An image acquisition system for real-time seam tracking
JP4167954B2 (en) Robot and robot moving method
Kim et al. A robust visual seam tracking system for robotic arc welding
JPH03228591A (en) Work holding device, work and storing case thereof
CN106964907A (en) A kind of method and apparatus of laser cutting
JPH0252172A (en) Welding system and welding method
CN110039520B (en) Teaching and processing system based on image contrast
KR0161332B1 (en) Bonding coordinate teaching method and teaching means
EP3895855A1 (en) Robot control system and robot control method
JPH0195889A (en) Laser beam machine and laser beam machining method
Kang et al. Laser vision system for automatic seam tracking of stainless steel pipe welding machine (ICCAS 2007)
JP7482364B2 (en) Robot-mounted mobile device and system
JP4280338B2 (en) Teaching method and apparatus for YAG laser processing machine
JPH091338A (en) Method and device for automatically recognizing weld seam
JP2596564B2 (en) Laser welding equipment
JP3203507B2 (en) Laser processing equipment
JP2887656B2 (en) Laser processing equipment
JP2817092B2 (en) Laser processing equipment
Alzarok et al. Review for the current performances for Machine Visions in Industrial Robotic welding and drilling tasks
JP7476814B2 (en) Inspection Equipment
JP2523420B2 (en) Image processing method in optical measuring device