JP4186533B2 - Welding position automatic scanning control device and automatic scanning welding method - Google Patents
Welding position automatic scanning control device and automatic scanning welding method Download PDFInfo
- Publication number
- JP4186533B2 JP4186533B2 JP2002204981A JP2002204981A JP4186533B2 JP 4186533 B2 JP4186533 B2 JP 4186533B2 JP 2002204981 A JP2002204981 A JP 2002204981A JP 2002204981 A JP2002204981 A JP 2002204981A JP 4186533 B2 JP4186533 B2 JP 4186533B2
- Authority
- JP
- Japan
- Prior art keywords
- welding
- torch
- image
- coordinates
- groove
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Laser Beam Processing (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は溶接位置自動倣い制御装置及び自動倣い溶接方法に係り、特に、開先の相対位置ずれを検出して自動的に倣い溶接させる制御装置及び溶接方法に関する。
【0002】
【従来の技術】
従来の溶接位置自動倣い制御装置の例が、特開平5―138354号公報あるいは特開平10―6006号公報に記載されている。また、レーザ溶接を用いた自動倣い溶接の例が、特開2000―329885号公報に記載されている。この中で特開平5―138354号公報に記載の装置では、ITVカメラから得られた溶接部内の視覚情報と、レーザスリット光を溶接部の開先に投影して得られた開先内形状とから溶接トーチのずれ量を求め、溶接トーチの位置を制御している。より詳しく言えば、溶接進行方向前方の前溶接パスのビードあるいは溶接進行方向後方の溶接直後のビード表面を含む開先に照射したスリット光からの反射像と、溶接トーチ先端部の画像の双方をITVカメラが撮像し、開先位置あるいは溶接ビード接点に対する溶接トーチの位置ずれを求め、溶接トーチの目標位置を制御している。
【0003】
特開平10―6006号公報には、溶接予定位置を照射するスリット光照射器と、スリット光が照射された部分の断面プロフィールを測定する断面形状測定用カメラと、溶接アーク及び溶着金属のプールを観測するアークカメラと、断面プロフィールとアーク画像を合成する画像合成装置とを備えた溶接装置が記載されている。そしてこの公報によれば、溶接部断面形状とアークモニタ画像を合成して溶接部周辺の立体形状情報を容易に把握し、溶接部の状況に応じた溶接オペレーションをリアルタイムに実行している。
また、特開2000―329885号公報に記載の溶接方法においては、レーザ溶接ヘッドにCCDカメラを設け、CCDカメラが撮像した画像から開先位置を検出し、この検出した開先位置に溶接トーチ位置を倣わせて溶接している。
【0004】
【発明が解決しようとする課題】
ところで、ティーチングプレイバック法を用いて自動溶接するときには、被溶接部材の溶接長が比較的短ければ、ティーチングした溶接線から溶接すべきラインがずれても、溶接部の開始点や終了点、中間点、溶接ライン間の任意の点等で開先位置のずれを検出して、予めティーチングした溶接線を修正すれば、品質の良い溶接ビードが得られる。そこで、溶接前に実際に溶接される位置と溶接すべき開先位置とのずれを何らかの手段を用いて正確に計測し、この計測した位置情報により溶接位置を補正してレーザ溶接トーチを正しい位置に倣わせることが試みられている。
【0005】
上記特開平5―138354号公報や特開平10―6006号公報では、そのような試みがなされているが、溶接施工対象がアーク溶接であるので、レーザ溶接の際に解決すべき課題についてまでは充分には考慮されていない。つまり、レーザ溶接では、透過型レンズあるいは反射面鏡等でレーザ光を絞り込んだ際の発光エネルギで開先部を溶融するが、溶接に使用するCO2レーザやYAGレーザは赤外光なので目視できない。この不具合を解消するために、レーザ光の光軸合わせに、He-Neレーザ光等の可視光線を重畳させることも考えられるが、通常溶接用のレーザ光と軸合わせ用レーザ光線の光軸が一致することはまれである。
【0006】
上記特開平2000―329885号公報に記載のレーザ溶接トーチを用いて溶接する方法では、被溶接部表面に対しレーザ溶接トーチを垂直上方から傾斜して設置せざるを得ないと、被溶接部表面とレーザ溶接トーチの高さがわずかにずれても、実際に溶接される位置が溶接線直交方向からずれるので、カメラ画像だけでは正確に溶接位置を特定できないおそれがあった。また、突合せ継ぎ手の開先部の画像はコントラストが低く、開先位置を精度良く検出することも困難である。
【0007】
本発明は上記従来技術の不具合に鑑みなされたものであり、その目的は、溶接開始前に被溶接部の開先に対してレーザ溶接位置を所定位置に設定することにある。本発明の他の目的は、レーザ溶接を自動で行えるようにすることにある。
【0008】
【課題を解決するための手段】
上記目的を達成するための本発明の特徴は、溶接部材の開先位置を検出し、この検出した位置に自動的に倣って溶接する溶接装置の溶接位置自動倣い制御装置において、溶接部材の開先部に光を照射する投光手段と、開先部を撮像する二次元受光手段と、レーザ溶接トーチと、溶接部材の高さを検出する高さ検出器とを有するヘッドと、このヘッドに設けられたレーザ溶接トーチの位置をXYZ方向に動かす溶接トーチ位置制御機構と、二次元受光手段が撮像した画像を画像処理する画像処理装置と、レーザ溶接トーチの位置を制御するトーチ位置制御手段とを備え、画像処理装置は、予め溶接部材の開先位置とは異なる位置でレーザ溶接トーチによる試し溶接をした跡の画像からレーザ溶接トーチに対する二次元受光手段の位置と高さ検出器の位置を求めてそれらの位置をトーチ位置制御機構の座標で記憶し、溶接部材の画像から開先位置を検出して溶接開始点と溶接終了点のトーチ位置制御機構の座標を求め、この溶接開始点と溶接終了点の座標をレーザ溶接トーチに対する二次元受光手段の位置と高さ検出器の位置座標に基づいて修正してレーザ溶接トーチの位置を制御するものである。そして、この特徴において、投光手段は、光ファイバーライトガイドを介して被溶接部開先に光を照射するものが好ましい。
【0009】
上記目的を達成するための本発明の他の特徴は、溶接部材の開先部に光を照射する投光手段と、開先部を撮像する二次元受光手段と、レーザ溶接トーチ及び溶接部材の高さを検出する高さ検出器を有するヘッドと、このヘッドに設けられた前記レーザ溶接トーチを溶接位置に移動させるトーチ位置制御機構を用いて、溶接部材の開先位置を検出し、この検出した位置にレーザ溶接トーチを自動的に倣って溶接する自動倣い溶接方法において、予め溶接位置とは異なる位置でレーザ溶接トーチを用いて試し溶接した跡を二次元受光手段で撮像し、この撮像画像を画像処理してレーザ溶接トーチに対する二次元受光手段の位置と高さ検出器の位置とをトーチ位置制御機構の座標として記憶するステップと、実際に溶接する開先位置の画像を画像処理して開先位置を検出して溶接開始点と溶接終了点のトーチ位置制御機構の座標を求め、この溶接開始点と溶接終了点の座標を記憶するステップと、溶接開始点と溶接終了点の座標をレーザ溶接トーチに対する二次元受光手段の位置と高さ検出器の位置座標に基づいて修正してレーザ溶接トーチを自動倣いさせるステップとを備えたものである。
【0010】
そしてこの特徴において、試し溶接における画像処理では、溶接部の重心位置を検出しこの重心位置を溶接位置として記憶させるのがよく、実際の溶接における画像処理は、溶接線方向位置と溶接線に直交方向位置の各々のずれを検出する互いに独立した画像処理ウインドウを用いて処理するのが好ましい。
【0011】
【発明の実施の形態】
以下、本発明の一実施例について、図1ないし図19を参照して説明する。図1は、本発明に係る溶接位置自動倣い制御装置の一実施例の模式図である。レーザ溶接トーチ1(以下、溶接トーチ1と称す)を用いて、被溶接部材3に部材4a〜4cを突合せ溶接を実施する。ハロゲンランプ等の広がりのある光を照射する投光手段5とCCDカメラ等の二次元受光手段6の各光軸が、溶接ラインとほぼ直交な平面7内にあるように、投光手段5と二次元受光手段6を配置する。例えば三角測量の原理を使用したレーザ変位計である高さ検出器8は、被溶接部材3の高さを非接触に検出する。投光手段5、二次元受光手段6及び高さ検出器8は、溶接トーチ1と一体化されている。
【0012】
溶接トーチ位置制御機構9は、X走行軸10とX走行軸上を走行するX走行台車11と、X走行台車11上に一体的に配設したZ走行軸12とZ走行軸上を走行するZ走行台車13と、Z走行台車13上に一体的に配設したY走行軸14とY走行軸上を走行するY走行台車15とを有している。溶接トーチ1、投光手段5、二次元受光手段6及び高さ検出器8は、Y走行台車15と一体的に配置されている(以下これらの部品をまとめてヘッドと称す)。溶接トーチ位置制御機構9を駆動制御すると、被溶接部材3の上方において溶接線方向X、溶接線直交方向Y、及び上下方向Zに、溶接トーチ1が自在に動く。
【0013】
二次元受光手段6の制御回路16は、外部にアナログ映像(画像)信号を出力する。画像処理装置17は、受光手段制御回路16から出力されるアナログ画像信号をデジタル量にA/D変換して多値画像データを入力する画像入力部、多値画像データを記憶する多値画像記憶部、多値画像記憶部に記憶された多値画像データから画像中の暗い部分から明るい部分に変化するエッジ部又は後述するパターンマッチングや、画像中の明るい部分から暗い部分に変化するエッジ部で極大点又は極小点を抽出する微分又は平滑化微分処理部、極大点及び極小点データから境界位置を検出すると共にその境界位置検出データから所定の開先位置及び溶接位置に対する開先位置ずれを検出する演算部処理部、及びこれらを統括的に制御する主制御部等を有する。
【0014】
TVモニター18は、受光手段制御回路16からの出力映像信号を表示したり、画像処理装置からの処理結果を出力表示する。投光手段駆動回路19は、は投光手段5の点灯や消灯、照射光量等を制御する。高さ検出器制御回路20は、高さ検出器8を駆動制御する。溶接トーチ位置制御装置21は、溶接トーチ位置制御機構9を駆動制御する。26は溶接電源である。
【0015】
全体制御装置22は、画像処理装置17、投光手段駆動回路19、高さ検出器制御回路20、溶接トーチ位置制御装置21及び溶接電源26を統括的に制御する。この全体制御装置22は、パーソナルコンピュータ等で構成されている。全体制御装置22は、被溶接部材の開先位置に対する溶接トーチの倣い目標位置を予め記憶する記憶手段、溶接トーチの倣い目標位置と画像処理装置17から得られる開先位置ずれ情報から溶接トーチの目標溶接位置を決定するために溶接トーチ位置制御装置21へ溶接目標位置の情報を出力する溶接線倣い制御部とを有する。さらに、記憶手段は、溶接電流や電圧や溶接速度等の溶接条件データ等を記憶する。溶接開始前にこれら記憶されたデータを修正または書き換えすることが可能である。全体制御装置の出力モニタ23は、各装置の条件設定や倣い溶接の起動等の操作メニュー等を表示する。筐体24は、上述した各回路または装置16〜23を実装する。マンマシンインターフェース25は、全体制御装置22を遠隔で操作する。
【0016】
図2に、被溶接部材3に部材4a〜4cを溶接するときの溶接部の平面図を、図3にその正面図を示す。図2では、部材4aを被溶接部材3にS点からE点まで溶接する場合を取り上げている。部材4aの各々のコーナから溶接開始までの距離をLs、各々のコーナから溶接終了までの距離をLeとする。部材4aの溶接長は、Lである。被溶接部材3には段差状突起3aが形成されている。被溶接部材3に部材4b及び部材4cを溶接するときも同様である。図3では、投光手段5を被溶接部材3と部材4a〜4cに対し斜めに配置している。開先に斜めに照射した光の散乱画像を、二次元受光手段6が開先の真上から観測する。
【0017】
図4に、図2及び図3のように配置したときに、二次元受光手段6が被溶接部材3と部材4aの接合部近傍を撮像して得られた画像を模式化した一例を示す。ここで、A1は被溶接部材3の表面の散乱像、A2は被溶接部材の段差部3aの表面であるが段差状突起3bにより照明光が照射されないで暗い影となる像、A4は部材4aの表面でわずかの段差により暗い影となる像、A5は部材4aの表面の散乱像、A6は被溶接部材3及び部材4aが存在しない背景部分の像である。被溶接部材3及び部材4aは溶接ワーク台上に配置されている。背景像A6は、溶接ワーク台表面の散乱像である。通常の画像同様に、輝度が高く明るい部分を白、輝度が低く暗い部分を黒で表している。被溶接部材3と段差部3aとは同材質であるが、被溶接部材3の表面像A1と段差部3aの表面の像A2とは加工条件の違いによる表面粗さの違いから、明るさにわずかに差が生じる。
【0018】
図5に、図4のa1−a2断面における輝度分布を示す。横軸が画面垂直方向の座標j、縦軸が諧調をI=0(黒)〜I=255(白)とした時の各座標における輝度Iである。被溶接部材3の表面の散乱像A1の平均的輝度がIA1、部材4aの段差により形成された影の像A4の平均的輝度がIA4、部材4aの表面の散乱像A5の平均的輝度がIA5、背景部分の像A6の平均的輝度がIA6である。段差部の像A4に対応する垂直方向座標j1からj2において、輝度はIA1からIA4にステップ的に変化する。その後、IA1よりは低輝度のIA5まで回復するが、背景部分に相当するA6に対応した垂直方向座標j3からNにおいて、IA4よりも低輝度なIA 6になる。
【0019】
図6に、図4のb1−b2断面における輝度分布を示す。被溶接部材3aに形成された段差3bにより照明光が照射されない像A2に対応した垂直方向座標j1からj4では、輝度が最も低いIA2までステップ的に低下している。輝度はその後IA5まで回復するが、背景部分に相当するA6に対応する垂直方向座標j5からNにおいて、IA 6まで再び低下する。図5及び図6に示したように、被溶接部材3と部材4の表面あるいは影や背景部分で明るさが微妙に変化する。この画像における明るさの微妙な変化を利用すれば、画面上の水平方向と垂直方向の開先位置を検出できる。
【0020】
そこで、画面水平方向、すなわち溶接線方向の開先位置を検出する方法について以下に説明する。開先部分全体を撮像するとカメラの撮像解像度が低下するので、本実施例では開先部を部分的に観測する。開先部が図4の画像で示されたときに、画面水平方向の開先位置を検出するために2つのウインドウPhr、Phlを形成した例を図7に示す。ウインドウPhrは開先の右側の水平方向位置を検出するために設けた第1の二次元受光手段の観測領域と位置を示しており、ウインドウPhlは開先の左側の水平方向位置を検出するために設けた第2の二次元受光手段の観測領域と位置を示している。開先の教示位置である基準開先位置から実際の溶接時の開先位置が多少ずれていても画面内に検出すべき境界ポイントCrまたはClが入るように、これらの観測領域の大きさを設定する。
【0021】
図8に、図7のウインドウPhrで撮像される開先画像の模式図を示す。図7の画像の拡大画像である。画像は、輝度の二次元配列であり、これをf(i,j)と表わす。f(i,j)は、画素(i,j)における画像の輝度fである。水平方向にm個、垂直方向にn個の画素を有する四角形の画像を、f0(i,j)とする。ここで画像f0(i,j)と同じく(m×n)画素を有する他の四角形の画像を、f1(i,j)とする。2つの画像f0(i,j)とf1(i,j)を、画素(ξ,η)分だけ平面的にずらした時、両画像の対応する画素間の輝度差の2乗総和S(ξ,η)は、次のように定義できる。
【0022】
S(ξ,η)= ΣΣ{f1(i+ξ,j+η)−f0(i,j)}2
この総和が最小となる相対位置が最もよく一致する位置である。2つの画像f0(i,j)とf1(i,j)が同一であれば、ξ=η=0において輝度の総和Sは最小値0となる。すなわち、f1(i,j)を入力画像、f0(i,j)を標準パターンとして、輝度の総和S(ξ,η)が最小となる位置(ξ,η)を見出すパターンマッチング処理を行う。これにより、位置ずれが発生した観測画像において標準パターンに最もよく合う画像f1の相対位置を検出できる。
【0023】
パターンマッチング処理方法を、図9に模式的に示す。図8に示した基準画像に対し、開先の位置がずれたときに撮像した画像である。入力画像f1(i,j)の座標を、水平方向であるi方向に1、垂直方向であるj方向に1画素ずつずらしながら(1)式を演算する。全画面を走査し終わった後に、輝度の総和S(ξ,η)が最小となる位置(ξ,η)を求める。これにより、開先位置Crm(irm,jrm)が検出される。
【0024】
一方、図4の段差部分の暗い影像A4の幅、すなわち図5におけるj1−j2間の幅は、被溶接部材3と被溶接部材3aとの重なり方に応じて変化する。このため、図9に示したパターンマッチング処理で画面水平方向の位置ずれを精度良く検出できるが、画面垂直方向の位置ずれを精度良く検出できない場合がある。以上は、図7のウインドウPhrを拡大した例であるが、図7のウインドウPhlを拡大したときにも同様の方法で画面水平方向の位置ずれを検出できる。
【0025】
画面垂直方向、すなわち溶接線と直交方向の開先位置を検出する方法を、以下に説明する。水平方向位置を検出する場合と同様に開先部分全体を撮像すると、カメラの撮像解像度が低下する、そこで、一部分だけ観測する。図4に示した画像上に、画面垂直方向の開先位置を検出する2つのウインドウPvrとPvlを示した例を、図10に示す。ウインドウPvrは開先の右側の垂直方向位置を検出するための二次元受光手段の観測領域であり、ウインドウPhlは開先の左側の垂直方向位置を検出するための二次元受光手段の観測領域である。この図10において、ウインドウPvrは、M×N個の画素を有する。
【0026】
図10の右側のウインドウPhrが撮像した開先画像の拡大画像の一例を、図11に示す。D1、D2は画像上に観測される開先表面の傷等の像である。この傷のある部分における断面像の例を、図12に示す。図12は、図11のC1−C2断面における輝度分布である。図12において、横軸は画面垂直方向の座標j、縦軸は各座標における輝度Iである。
【0027】
被溶接部材A1に観察された傷D1に対応する垂直方向座標j6〜j7間においては、輝度がIA1からIA4までステップ状に低下している。また、部材4aに形成された段差による影の部分A4に対応する垂直方向座標j1〜j2間の輝度は、IA1からIA4より低輝度のIA6までステップ状に低下する。なお、部材4aの表面の散乱像A5の輝度IA5は、IA4,IA6よりも高輝度ではあるが、被溶接部材3の表面の散乱像A1の輝度IA1よりは低輝度である。
【0028】
図12で得られた図11のC1−C2断面における輝度分布を、微分処理した例を図13に示す。図11に示した画像の輝度分布をf(i,j)と表し、この輝度分布を微分処理した値の分布をg(i,j)と表わす。
【0029】
g(i,j)= f(i,j)−f(i,j+1)
微分処理をした後では、輝度が高い点から低い点に変化する境界部分j6とj1において極大値となり、輝度が低い点から高い点に変化する境界部分j7とj2で極小値となる。この極大値、極小値を検出すれば、C1−C2ライン上の開先表面の傷や部材4と4aの垂直方向境界位置を見つけることができる。開先画像の明るさは、表面の凹凸等により、局部的に変化する場合がある。この場合には、例えば次式のような平滑化処理と微分処理を兼ね備えた方法(以下、この方法を平滑化微分処理と称す)でエッジを抽出するようにしても良い。
【0030】
g(ii,ji)=f(i,j−2)+f(i,j−1)−f(i,j+1)−f(i,j+2)
上記手順と同様の処理を画面水平方向に1ラインずつずらしながら行えば、垂直ラインごとに画面垂直方向の明るさが変化する境界点を検出することができる。図14を用いて、垂直方向境界部の検出方法を説明する。全画面の処理には多大な処理時間を要するので、画像内に小領域のウインドウを複数設けている。各々のウインドウにおいて垂直方向境界部検出し、その後この検出された垂直方向境界部を用いて、最終的な垂直方向境界部を確定する。
【0031】
図14において、水平方向座標の小さい方から順に複数のウインドウWm1,Wm2,Wm3,…を設定する。第1のウインドウWm1の左上の座標を、Ps1(is1、js1)、右下の座標をPe1(ie1,je1)とする。この第1のウインドウにおいて、垂直方向境界部を検出する手順を、図15に示す。
【0032】
垂直方向境界部の検出プログラムが実行されると、後述する処理を実行するために、ステップS1で垂直方向のライン番号を初期化する。そしてステップS2で、垂直方向の1ライン(最初はis1ライン)について微分処理をする(図13参照)。ステップS2で求めた微分値に対し、しきい値を越え隣り合う極大−極小のペア(例えば図13の場合で言えばj6とj7、及びj1とj2であり、以下これらを極大極小ペアと略す)をステップ3で検出する。このしきい値は、上限及び下限について、予め定めて記憶しておく。
【0033】
ステップS3で検出された複数の極大極小ペア群から、極大値と極小値の差が最も大きいもの(第1極大極小ペア)と、それに次ぐもの(第2極大極小ペア)とを取り出し記憶する(ステップ4)。ウインドウの右端のライン、すなわちi=ie1まで処理が完了したか否かをチェックする(ステップS5)。処理が完了していないときには、次のラインに移り、ステップS2〜S5までを繰り返す。すべての垂直ラインについての処理が完了したら、ステップS7に進む。
【0034】
ステップS7では、iS1〜ie1までの各ラインごとに求めた第1極大極小ペアと第2極大極小ペアを用いてラベルリング処理する。ラベルリング処理とは、各ラインごとに求めた第1極大極小ペアと第2極大極小ペアを対象に、同じ連結成分に属すると判断した極大極小ペアには同じ番号を、異なる連結成分に属すると判断した極大極小ペアには異なる番号を割り当てる処理である。図14を例にとると、ウインドウWm1では明るさが変化する影A1部の極大極小ペアしか検出されないので、ラベリング処理の結果1種類の番号だけが割り当てられる。ウインドウWm2では、欠陥部分D1にも極大極小ペアが存在する(図13参照)から、影A1部と合わせて合計2種類の番号を割り当てる。
【0035】
ラベリング処理を実行する際には、同じ連結成分のラベルに対し、各ラインにおける極大極小ペアの画面垂直方向中心位置の平均値を計算しておく。第1のウインドウWm1で検出されたラベルの中心位置はC1(iC1,jC1)であり、1個だけである。同様に、第2のウインドウWm2で検出されたラベルの中心位置は、C21(iC21,jC21)とC22(iC22,jC22)の2個存在する。
【0036】
ステップ7のラベリング処理でラベル付けされた極大極小ペアから、A1境界部分に相当する極大極小ペアを取り出す(ステップ8)。その方法はいろいろ考えられるが、一例として図9に示したパターンマッチング処理で得たCrm(irm,jrm)の垂直方向座標、すなわちjrmに最も接近した垂直方向中心座標を持つ極大極小ペアを選択する方法がある。以上のステップS1〜S8の処理を、図14に示した各ウインドウWm1〜Wm5について実行する。これにより、各ウインドウにおける影A1境界部分に相当する極大極小ペアを検出できる。
【0037】
上記各ウインドウで検出された位置から最終的な境界位置を確定する。図11に示した傷などの画像が、検出すべき境界位置近傍で撮像されたときは、誤った位置を検出するおそれがある。そこで、各ウインドウにおいて検出された境界の垂直位置の平均値を、計算する。得られた平均値と各ウインドウで検出された境界の垂直位置の差を、計算する。この垂直位置の差が予め定めた設定値を越える場合には、そのデータを無効とする。各ウインドウで検出した境界の垂直位置のなかで、有効と見なされたデータを使用して平均化し、その値を最終的に境界位置の値に定める。これにより、誤って検出されたデータを使用しないので、信頼性の高い検出が可能となる。
【0038】
図16に、溶接位置倣い制御に、上記境界位置検出処理を適用したときの制御のフローチャートを示す。制御フローは4つに大別される。予め被溶接部材の近傍に基準プレートを設け、この基準プレート上に試し溶接をする。そのときの画像からレーザ溶接位置を計測して、計測した情報を記憶する(手順1)。一方、実際の溶接作業においては、被溶接部材を据え付けて溶接する前に溶接位置を画像処理を用いて求め、その溶接位置の情報を記憶する(手順2)。手順1で求めた計測情報と、手順2で求めた溶接位置情報との相対位置ずれを求め、この求めた相対位置ずれを用いてレーザ溶接トーチの狙い位置を計算する(手順3)。計算した溶接トーチ位置の情報を用いて、溶接トーチによる倣い溶接をする(手順4)。
【0039】
詳細は、以下のとおりである。図1に示した溶接倣い装置を用いている。初めに、基準プレート30の上に溶接トーチ1を移動させ、低出力で試し溶接する(ステップF1)。このとき、トーチ位置制御機構9が示すXYZ座標位置を、(Xt,Yt,Zt)とする。図17に、被溶接部の平面図を示す。この図17では、各装置のロボット座標系もあわせて示している。被溶接部材4aの主な開先ポイントの、予め定めた座標あるいはトーチ位置制御機構9が教示した座標を、S,Pos−hr,Pos−vr等で示す。これらの座標のなかで、Pos-rは溶接トーチ1のロボット座標系における座標であり、Pos-cは二次元受光手段6のロボット座標系の座標、Pos-hは高さ検出器8のロボット座標系の座標、Prは基準プレートのロボット座標系の座標である。
【0040】
簡単のために、台車はXYZ座標原点から負側の方向だけ可動である。溶接トーチ1の座標Pos-r(Xr,Yr,Zr)=(0,0,0)をロボット座標系の原点とする。溶接トーチ1の座標Pos-r(Xr,Yr,Zr)に対する二次元受光手段6の相対位置Pos-c(Xc,Yc,Zc)と高さ検出器8の相対位置Pos-h(Xh,Yh,Zh)予め校正により判明している。
【0041】
溶接トーチ1と一体化された高さ検出器8を基準プレート30の上に移動させ、基準プレート30の表面の高さを計測する(ステップF2)。このとき計測した高さをHtとする。基準プレート30の板厚tpは、予め校正されており既知である。基準プレート30を設置する被溶接部材4a〜4cの高さは、設計値通りで正規の高さの場合にはH0である。ここで、高さ計測時のトーチ1の位置制御装置9のXYZ座標位置は、(Xt+ΔXs,Yt+ΔYs,Zt)で表される。(ΔXs,ΔYs)は、高さ検出器8が測った溶接トーチ1のセンタ位置を基準とした基準プレート上の計測点の座標である。この座標値を、予め求めて記憶しておく。図17に示す関係から、ΔXs=(Xr−Xc)、ΔYs=(Yr−Yc)である。
【0042】
次に、基準プレート30の上に溶接トーチ1と一体化した二次元受光手段6を移動させ、溶接個所を撮像する。撮像した画像から画面上での溶接位置を検出し、その情報を記憶する(ステップF3)。このようにして得られた画像の例を、図18に示す。この画像中におけるWpは、試し溶接部を示している。この試し溶接部を画像処理して得られた重心位置の座標が、(iw,jw)である。画面中心Crの座標(i0,j0)から重心位置の座標(iw,jw)までのずれ量を計算する。二次元受光手段6の撮像倍率やステップF2で計測した高さHt情報を用いて、試し溶接部の座標をワーク表面でのずれ量(ΔXw,ΔYw)に換算する。ここで、試し溶接時におけるトーチ位置制御装置9のXYZ座標位置は、(Xt+ΔXm0,Yt+ΔYm0,Zt+tp)である。(ΔXm0,ΔYm0)は、溶接トーチ1のセンタを原点とする二次元受光手段6が観測する観測点位置であり、予め求めて記憶しておく。
【0043】
予め記憶した正しい位置で溶接トーチ1を用いて試し溶接をし、二次元受光手段6を正しい位置に取り付けたときには、ずれ量(ΔXw,ΔYw)は(0,0)である。ステップF1〜F3の手順の内容を換言すれば、溶接トーチによる実際の溶接位置と二次元受光手段による観測位置の相対的な位置関係を求めることである。
【0044】
ステップF4で図7の右側のウインドウPhrに相当する部分の画像を取り込む。ステップF5でこの取り込んだ画像部分の水平方向の位置ずれを検出する。水平位置ずれ量は、Δirである。画面上のずれ量Δirを、ワーク表面でのずれ量ΔXrに換算する。ここで、右側のウインドウPhrの画像を取り込むときのトーチ位置制御機構9のXYZ座標位置は、(Xt+ΔXhr,Yt+ΔYhr,Zt)で表される。(ΔXhr,ΔYhr)は、溶接トーチ1のセンタを原点としたときの右側のウインドウPhrの撮像位置である。この値は、予め求めて記憶しておく。なお、溶接部材が位置ずれしたときの符号は、図2と図3に示す座標系を用いたときに、X,Y,Zの各軸がともに任意の基準点から+側にずれるときを正、−側にずれるときを負とする。画面上での各ポイントの位置ずれは、例えば画面中心Crの座標(i0,j0)のような基準点からのずれ量である。上記画面を示す各図では、上方にずれたときが正、画面下方にずれたときが負である。
【0045】
ステップF6において、図7の左側のウインドウPhlに相当する部分の画像を取り込む。ステップF7で、取り込んだ画像の水平方向の位置ずれを検出する。このとき検出された水平位置ずれ量は、Δilである。検出された画面上の値Δi2を、ワーク表面でのずれ量ΔXlに換算する。左側のウインドウPhlの画像を取り込んだときのトーチ位置制御機構9のXYZ座標位置は、(Xt+ΔXhl,Yt+ΔYhl、Zt)で表される。(ΔXhl,ΔYhl)は、溶接トーチ1のセンタを原点とした左側ウインドウPhlの位置である。この位置を予め求め記憶しておく。
【0046】
ステップF8において、図10の右側のウインドウPvrに相当する部分の開先画像を取り込む。ステップF9では、この取り込んだウインドウ部分の垂直方向の位置ずれを検出する。ここで、開先を撮像したときのトーチ位置制御機構9のXYZ座標位置は、(Xt+ΔXw1,Yt+ΔYw1,Zt)で表される。(ΔXw1,ΔYw1)は、溶接トーチ1のセンタを原点とする開先位置座標であり、設計値からあるいはトーチ位置制御機構9を動かしてテーチングして求める。画像処理により検出された垂直位置ずれ量は、Δjv1であり、水平位置ずれ量は、Δiv1である。この検出した位置ずれ量(Δiv1,Δjv1)を、ワーク表面でのずれ量(ΔXv1,ΔYv1)に換算する。
【0047】
同様に、ステップF9で図7の左側ウインドウPvlに相当する部分の画像を取り込む。ステップF10で取り込んだ画像の垂直方向の位置ずれを検出する。ここで、開先撮像時におけるトーチ位置制御機構9のXYZ座標位置は、(Xt+ΔXw2,Yt+ΔYw2,Zt)で表される。(ΔXw2,ΔYw2)は、溶接トーチ1のセンタ位置を原点とする開先位置座標であり、設計値あるいはトーチの位置制御装置9を用いてテーチングして求められる。垂直位置ずれ量をΔjv2,水平位置ずれ量Δiv2を用いて、画面上のすれ量(Δiv2,Δjv2)をワーク表面でのずれ量(ΔXv2,ΔYv2)に換算する。以上のステップF4〜F11を実行して、図7の被溶接部材3と被溶接部材4aの接合部Pos-hr、Pos-hl、Pos-vr及びPos-vlの実際位置を知ることができる。
【0048】
得られた接合部Pos-hr、Pos-hl、Pos-vr及びPos-vlの各点の座標から、溶接開始点Sと溶接終了点Eの座標を求め、レーザ溶接ラインを決定する。この溶接開始点Sと溶接終了点Eの位置座標決定方法の一例を、以下に説明する。接合部Pos-hlとPos-vrの2点を結ぶ直線を設定する。次に、この直線上にある点であってX座標が実際の溶接点Pos-hrと一致する点と溶接点Pos-vlと一致する点を算出する。溶接点Pos-hrとPos-vl2点の各々を基準に上記直線上を外挿し、溶接開始距離Lsだけ離れた溶接開始点Sと溶接終了距離Leだけ離れた溶接終了点Eの2点の座標を計算する。
【0049】
求めた溶接開始点Sまで溶接トーチ1を誘導し(ステップF13)、溶接開始点Sから溶接終了点Eまで溶接トーチ1を用いて倣い溶接する(ステップF14)。溶接トーチ1を溶接開始点Sから溶接終了点Eまで倣わせるときは、ステップF12で得た座標を、ステップF1〜F3で得た実際にレーザ溶接される位置の情報に基づいて修正する。ステップF15では、すべての溶接部(図17の4a〜4c参照)の倣い溶接が終了したか否かをチェックする。倣い溶接が終了していないと判断したときはステップF16に進み、上記同様にステップF4〜F15までを繰り返す。
【0050】
以上の処理手順において、被溶接部4aの加工精度が充分で幅Lが常に正確な値であるときは、処理ステップF6とF7を省略しても良い。すなわち、溶接点Pos-hr、Pos-hl及びPos-vrの3点の座標を用いて、溶接開始点S点と終了点Eを計算により求めてもよい。さらに、実際の溶接ラインS−Eと二次元受光手段6が受光して得た画面上のラインが常に平行であるように被溶接部材3、4a、4b及び4cを据え付けることできる場合は、ステップF4とF5においてPos-vrを検出するか、あるいはステップF6とF7においてPos-vlを検出するかのいずれか一方のみを実行し、溶接開始点S点と終了点Eを計算から求めてもよい。
【0051】
溶接部の詳細の例を、図19に示す。被溶接部材3と部材4a〜4cを有する例である。被溶接部材3は十字状の構造体で、90°間隔で4方向に張り出した部分3aに、部材4a〜4c(図2参照)を表裏2箇所づつ合計8箇所で溶接する。溶接トーチは1、各部材との接触を避けるため、角度θだけ傾斜している。この場合、照射光が部材3aによって遮られるので、投光手段5を使用できない。そこで、可逆性の光ファイバーライトガイド30を使用している。光ファイバーライトガイド30の光が出射する先端部30aを曲線状に曲げているので、容易に開先画像を得ることができる。
【0052】
被溶接部材の溶接位置を正確に検出できても、被溶接部材と溶接トーチ1間が正規の高さよりΔZだけずれていれば、Y方向にΔY(=ΔZ/tanθ)だけずれた位置に倣い溶接される。これに対して、上記実施例によれば、図16の処理ステップF2で基準プレートの高さから被溶接部表面の高さを知ることができるから、この高さ情報をフィードバックして正確な位置での倣い溶接を行える。
【0053】
なお図1に示した実施例では、全体制御装置22が動作全体を管理する主局となり、画像処理装置17、投光手段駆動回路19、高さ検出器制御回路20、溶接トーチ位置制御装置21及び溶接電源26が従局になる。すなわち、従局の画像処理装置17、投光手段駆動回路19、高さ検出器制御回路20、溶接トーチ位置制御装置21及び溶接電源26は、主局である全体制御装置22の指令によって所定の動作を実行している。
【0054】
また図1に示した溶接位置自動倣い制御装置の実施例では、溶接トーチ位置制御装置21と他の装置を統括的に制御する全体制御装置22別々に構成したが、溶接トーチ位置制御装置21と全体制御装置22を一体としてもよい。溶接トーチ位置制御機構21は、図1に示した直行軸を有する機構に限定することなく、多関節溶接ロボットでもよい。上記実施例に記載の溶接位置自動倣い制御装置を用いることにより、自動的に倣い溶接作業をできるので無人溶接が可能となる。
【0055】
【発明の効果】
以上述べたように、本発明に係る溶接位置自動倣い制御装置によれば、溶接開始前に開先位置ずれ情報に従って溶接トーチの位置を倣い制御するので、開先の組立誤差が生じていても安定でかつ品質の良い溶接を施工できる。また、溶接中には強いレーザ光を受けて位置ずれ検出が困難になるが、位置ずれを溶接開始前に検出したので、倣い溶接を信頼性高く実行できる。
【図面の簡単な説明】
【図1】本発明の溶接位置自動倣い装置の一実施例の模式図である。
【図2】図1に示した溶接位置自動倣い装置に用いる溶接部の平面図である。
【図3】図2に示した溶接部の正面図である。
【図4】図1に示した溶接位置自動倣い装置で得られた画像情報の一例を示す図である。
【図5】図4のa1―a2線における輝度分布の一例を示す図である。
【図6】図4のb1―b2線における輝度分布の一例を示す図である。
【図7】図1に示した溶接位置自動倣い装置で得られた画像情報の一例を示す図である。
【図8】図1に示した溶接位置自動倣い装置で得られた画像情報の一例を示す図である。
【図9】画像処理を説明する図である。
【図10】本発明の画面垂直方向の開先位置を検出する2つのウインドウを示す図である。
【図11】図1に示した溶接位置自動倣い装置で得られた画像情報の一例を示す図である。
【図12】図11のC1―C2線における輝度分布の一例を示す図である。
【図13】図11のC1―C2線における画像処理後の輝度分布の一例を示す図である。
【図14】垂直方向の境界部検出を説明する図である。
【図15】境界位置を検出するフローチャートである。
【図16】本発明に係る溶接位置自動倣い装置を用いた溶接のフローチャートである。
【図17】ロボット座標系を説明する図である。
【図18】図1に示した溶接位置自動倣い装置で得られた画像情報の一例を示す図である。
【図19】図1に示した溶接位置自動倣い装置に用いる溶接部の正面図である。
【符号の説明】
1…レーザ溶接トーチ、3…被溶接部材、4a〜4c…部材、5…投光手段、6…二次元受光手段、8…非接触高さ検出器、9…溶接トーチ位置制御装置、10…X走行軸、11…X走行台車、12…Z走行軸、13…Z走行台車、14…Y走行軸、15…Y走行台車、16…二次元受光カメラ制御回路、17…画像処理装置、18…TVモニター、19…投光手段駆動回路、20…高さ検出器制御回路、21…溶接トーチ位置制御装置、22…全体制御装置、26…溶接電源。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a welding position automatic scanning control device and an automatic scanning welding method, and more particularly, to a control device and a welding method for detecting a relative position shift of a groove and automatically copying and welding.
[0002]
[Prior art]
An example of a conventional welding position automatic scanning control device is described in Japanese Patent Laid-Open No. 5-138354 or Japanese Patent Laid-Open No. 10-6006. An example of automatic profile welding using laser welding is described in Japanese Patent Application Laid-Open No. 2000-329885. Among them, in the apparatus described in Japanese Patent Application Laid-Open No. 5-138354, visual information in the welded portion obtained from the ITV camera, and the shape in the groove obtained by projecting the laser slit light onto the groove of the welded portion, The amount of displacement of the welding torch is obtained from the above, and the position of the welding torch is controlled. More specifically, both the reflection image from the slit light irradiated to the bead including the bead surface of the front welding pass in front of the welding progress direction or the bead surface immediately after welding in the welding progress direction and the image of the tip of the welding torch are shown. The ITV camera captures an image, obtains a position shift of the welding torch with respect to the groove position or the welding bead contact, and controls the target position of the welding torch.
[0003]
Japanese Patent Laid-Open No. 10-6006 discloses a slit light irradiator that irradiates a planned welding position, a cross-sectional shape measuring camera that measures a cross-sectional profile of a portion irradiated with the slit light, a pool of welding arc and weld metal. A welding apparatus is described that includes an observing arc camera and an image synthesizing device that synthesizes a cross-sectional profile and an arc image. According to this publication, the cross-sectional shape of the welded portion and the arc monitor image are synthesized to easily grasp the solid shape information around the welded portion, and the welding operation corresponding to the state of the welded portion is executed in real time.
In the welding method described in Japanese Patent Laid-Open No. 2000-329885, a laser camera is provided with a CCD camera, a groove position is detected from an image captured by the CCD camera, and a welding torch position is detected at the detected groove position. Welded by imitating.
[0004]
[Problems to be solved by the invention]
By the way, when performing automatic welding using the teaching playback method, if the weld length of the welded member is relatively short, even if the line to be welded deviates from the teaching weld line, the weld start point, end point, intermediate If a gap in the groove position is detected at a point, an arbitrary point between the welding lines, etc., and the weld line taught in advance is corrected, a high quality weld bead can be obtained. Therefore, the deviation between the actual welding position before welding and the groove position to be welded is accurately measured by some means, and the welding position is corrected based on the measured position information to correct the laser welding torch. Attempts are made to imitate.
[0005]
In the above Japanese Patent Laid-Open No. 5-138354 and Japanese Patent Laid-Open No. 10-6006, such an attempt is made, but since the welding object is arc welding, the problem to be solved in the laser welding is also discussed. It is not considered enough. In other words, in laser welding, the groove portion is melted by the emission energy when the laser light is narrowed down by a transmission lens or a reflecting mirror, but the CO2 laser and YAG laser used for welding cannot be visually observed because they are infrared light. In order to solve this problem, it is conceivable to superimpose visible light rays such as He-Ne laser light on the optical axis alignment of the laser beam. However, the optical axes of the laser beam for normal welding and the laser beam for alignment are usually different. It is rare to agree.
[0006]
In the method of welding using the laser welding torch described in the above-mentioned Japanese Patent Application Laid-Open No. 2000-329885, the surface of the welded part surface must be installed with the laser welding torch inclined from the vertical upper side with respect to the surface of the welded part. Even if the height of the laser welding torch is slightly deviated, the actual welding position is deviated from the direction perpendicular to the welding line. Further, the image of the groove portion of the butt joint has a low contrast, and it is difficult to accurately detect the groove position.
[0007]
The present invention has been made in view of the above-described problems of the prior art, and an object thereof is to set a laser welding position to a predetermined position with respect to a groove of a welded part before starting welding. Another object of the present invention is to enable laser welding automatically.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, the present invention is characterized in that in a welding position automatic copying control device for a welding apparatus that detects a groove position of a welding member and automatically follows the detected position for welding, the welding member is opened. A light projecting means for irradiating the tip part with light, a two-dimensional light receiving means for imaging the groove part,A head having a laser welding torch and a height detector for detecting the height of the welding member, a welding torch position control mechanism for moving the position of the laser welding torch provided in the head in the XYZ directions, and a two-dimensional light receiving means Includes an image processing device that performs image processing on an image captured by the laser beam, and a torch position control means that controls the position of the laser welding torch. The image processing device uses a laser welding torch at a position different from the groove position of the welding member in advance. The position of the two-dimensional light receiving means and the position of the height detector with respect to the laser welding torch are obtained from the image of the trace of the trial welding, and those positions are stored as coordinates of the torch position control mechanism, and the groove position is determined from the image of the welding member To detect the coordinates of the torch position control mechanism of the welding start point and the welding end point, and the coordinates of the welding start point and the welding end point are two-dimensional light receiving means And modified based on the position coordinates of the position and height detectorThe position of the laser welding torch is controlled. In this feature, the light projecting means preferably irradiates the welded portion groove with light through an optical fiber light guide.
[0009]
Another feature of the present invention for achieving the above object is as follows:A light projecting means for irradiating the groove portion of the welding member with light, a two-dimensional light receiving means for imaging the groove portion, a laser welding torch and a head having a height detector for detecting the height of the welding member, and Automatic detection of a groove position of a welding member using a torch position control mechanism that moves the laser welding torch provided on the head to a welding position, and automatically copying the laser welding torch to the detected position for welding. In the profiling welding method, a two-dimensional light receiving means captures an image of a test weld using a laser welding torch at a position different from the welding position in advance, and the captured image is image-processed to position the two-dimensional light receiving means with respect to the laser welding torch. And the position of the height detector are stored as coordinates of the torch position control mechanism, the image of the groove position to be actually welded is image-processed to detect the groove position, and the welding start point and welding end The coordinates of the welding torch position control mechanism, the coordinates of the welding start point and the welding end point are stored, and the coordinates of the welding start point and the welding end point are detected as the position and height of the two-dimensional light receiving means with respect to the laser welding torch. To automatically copy the laser welding torch with correction based on the position coordinates of the toolIt is equipped with.
[0010]
In this feature, in the image processing in the trial welding, it is preferable to detect the position of the center of gravity of the weld and store the position of the center of gravity as the welding position. The image processing in actual welding is orthogonal to the position in the weld line direction and the weld line. It is preferable to perform processing using image processing windows that are independent from each other for detecting the deviation of each of the directional positions.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
An embodiment of the present invention will be described below with reference to FIGS. FIG. 1 is a schematic diagram of an embodiment of a welding position automatic copying control apparatus according to the present invention. The
[0012]
The welding torch
[0013]
The
[0014]
The
[0015]
The
[0016]
FIG. 2 is a plan view of a welded portion when the
[0017]
FIG. 4 schematically shows an example of an image obtained when the two-dimensional light receiving means 6 captures the vicinity of the joint portion between the
[0018]
FIG. 5 shows a in FIG.1-A2The luminance distribution in a cross section is shown. The horizontal axis is the coordinate j in the vertical direction of the screen, and the vertical axis is the luminance I at each coordinate when the gradation is I = 0 (black) to I = 255 (white). The average brightness of the scattered image A1 on the surface of the
[0019]
Figure 6 shows the b in Figure 41−b2The luminance distribution in a cross section is shown. The vertical coordinate j corresponding to the image A2 that is not irradiated with illumination light by the
[0020]
Therefore, a method for detecting the groove position in the horizontal direction of the screen, that is, the weld line direction will be described below. When the entire groove portion is imaged, the imaging resolution of the camera is lowered, so in this embodiment, the groove portion is partially observed. When the groove portion is shown in the image of FIG. 4, two windows P are used to detect the groove position in the horizontal direction of the screen.hr, PhlAn example in which is formed is shown in FIG. Window PhrIndicates the observation area and position of the first two-dimensional light receiving means provided for detecting the horizontal position on the right side of the groove, and the window PhlIndicates the observation region and position of the second two-dimensional light receiving means provided for detecting the horizontal position on the left side of the groove. Boundary point C to be detected in the screen even if the actual welding groove position is slightly deviated from the reference groove position, which is the groove teaching position.rOr ClSet the size of these observation areas so that.
[0021]
8 shows the window P in FIG.hrThe schematic diagram of the groove image imaged in FIG. It is an enlarged image of the image of FIG. The image is a two-dimensional array of luminance, which is represented as f (i, j). f (i, j) is the luminance f of the image at pixel (i, j). A square image having m pixels in the horizontal direction and n pixels in the vertical direction is denoted by f.0(I, j). Where image f0Similar to (i, j), another square image having (m × n) pixels is represented by f1(I, j). 2 images f0(I, j) and f1When (i, j) is shifted in a plane by the pixel (ξ, η), the square sum S (ξ, η) of the luminance difference between the corresponding pixels in both images can be defined as follows. .
[0022]
S (ξ, η) = ΣΣ {f1(i + ξ, j + η) −f0(I, j)}2
The relative position where the sum total is the smallest is the best match. 2 images f0(I, j) and f1If (i, j) are the same, the sum S of luminances becomes the
[0023]
A pattern matching processing method is schematically shown in FIG. FIG. 9 is an image captured when the position of the groove is deviated from the reference image shown in FIG. 8. Input image f1Equation (1) is calculated while shifting the coordinates of (i, j) by 1 in the horizontal direction i direction and 1 pixel in the vertical direction j direction. After scanning the entire screen, a position (ξ, η) at which the sum of luminance S (ξ, η) is minimized is obtained. As a result, the groove position Crm (irm, Jrm) Is detected.
[0024]
On the other hand, the width of the dark image A4 of the stepped portion in FIG. 4, that is, the width between j1 and j2 in FIG. 5, varies depending on the way in which the welded
[0025]
A method for detecting the groove position in the direction perpendicular to the screen, that is, the direction orthogonal to the weld line will be described below. As in the case of detecting the horizontal position, if the entire groove portion is imaged, the imaging resolution of the camera is lowered. Therefore, only a part is observed. Two windows P for detecting a groove position in the vertical direction on the screen on the image shown in FIG.vrAnd PvlAn example showing the above is shown in FIG. Window PvrIs the observation area of the two-dimensional light receiving means for detecting the vertical position on the right side of the groove, and the window PhlIs an observation region of the two-dimensional light receiving means for detecting the vertical position on the left side of the groove. In FIG. 10, window PvrHas M × N pixels.
[0026]
Window P on the right side of FIG.hrAn example of an enlarged image of the groove image captured by is shown in FIG. D1, D2Is an image of a flaw on the groove surface observed on the image. An example of a cross-sectional image at the scratched portion is shown in FIG. FIG. 12 shows C in FIG.1−C2It is a luminance distribution in a section. In FIG. 12, the horizontal axis represents the coordinate j in the vertical direction of the screen, and the vertical axis represents the luminance I at each coordinate.
[0027]
Vertical coordinate j corresponding to the scratch D1 observed on the welded member A16~ J7In between, the brightness is IA1To IA4Until stepped down. Also, the vertical coordinate j corresponding to the shadow portion A4 due to the step formed on the member 4a.1~ J2The brightness betweenA1To IA4Lower brightness IA6Until stepped down. The brightness I of the scattered image A5 on the surface of the member 4a.A5IA4, IA6The brightness I of the scattered image A1 on the surface of the
[0028]
11C obtained in FIG.1−C2FIG. 13 shows an example in which the luminance distribution in the cross section is differentiated. The luminance distribution of the image shown in FIG. 11 is represented as f (i, j), and the distribution of values obtained by differentiating the luminance distribution is represented as g (i, j).
[0029]
g (i, j) = f (i, j) −f (i, j + 1)
After the differentiation process, the boundary portion j where the luminance changes from a high point to a low point6And j1Boundary portion j where the maximum value is reached and the luminance changes from a low point to a high point7And j2The minimum value is reached. If this local maximum or local minimum is detected, C1−C2It is possible to find a flaw on the groove surface on the line and a vertical boundary position between the
[0030]
g (ii, ji) = F (i, j-2) + f (i, j-1) -f (i, j + 1) -f (i, j + 2)
If the same process as in the above procedure is performed while shifting one line at a time in the horizontal direction of the screen, a boundary point where the brightness in the vertical direction of the screen changes for each vertical line can be detected. A method for detecting the vertical boundary portion will be described with reference to FIG. Since a full processing time is required for processing the entire screen, a plurality of small area windows are provided in the image. A vertical boundary is detected in each window, and then the final vertical boundary is determined using the detected vertical boundary.
[0031]
In FIG. 14, a plurality of windows W in order from the smallest horizontal coordinate.m1, Wm2, Wm3, ... are set. 1st window Wm1The coordinate at the upper left of Ps1 (is1, Js1), The lower right coordinate is Pe1 (ie1, Je1). The procedure for detecting the vertical boundary in the first window is shown in FIG.
[0032]
When the vertical boundary detection program is executed, the line number in the vertical direction is initialized in step S1 in order to execute processing to be described later. In step S2, one vertical line (initially is1Line) is differentiated (see FIG. 13). For the differential value obtained in step S2, a maximal-minimum pair (for example, j in the case of FIG.6And j7And j1And j2And these are hereinafter abbreviated as maximum and minimum pairs). This threshold value is predetermined and stored for an upper limit and a lower limit.
[0033]
From the plurality of maximum and minimum pairs detected in step S3, the one having the largest difference between the maximum value and the minimum value (first maximum and minimum pair) and the next one (second maximum and minimum pair) are extracted and stored ( Step 4). The rightmost line of the window, i = ie1It is checked whether or not the processing has been completed (step S5). When the process is not completed, the process moves to the next line and repeats steps S2 to S5. When the processes for all the vertical lines are completed, the process proceeds to step S7.
[0034]
In step S7, iS1~ Ie1The labeling process is performed using the first maximum / minimum pair and the second maximum / minimum pair obtained for each of the lines. The labeling process means that, for the first local maximum pair and the second local minimum pair obtained for each line, the local maximum pair determined to belong to the same connected component is assigned the same number and belongs to a different connected component. This is a process of assigning different numbers to the determined local maximum and minimum pairs. Taking FIG. 14 as an example, window Wm1Since only the maximum and minimum pairs of the shadow A1 portion where the brightness changes is detected, only one type of number is assigned as a result of the labeling process. Window Wm2Then, defective part D1Since there are also local maximum and minimum pairs (see FIG. 13), a total of two types of numbers are assigned together with the shadow A1 portion.
[0035]
When the labeling process is executed, the average value of the center positions in the vertical direction of the screen of the maximum and minimum pairs in each line is calculated for the same connected component label. 1st window Wm1The center position of the label detected in is C1 (iC1, JC1) And only one. Similarly, the second window Wm2The center position of the label detected in step C21 (iC21, JC21) And C22 (iC22, JC22There are two).
[0036]
A maximum / minimum pair corresponding to the A1 boundary portion is extracted from the maximum / minimum pairs labeled in the labeling process in step 7 (step 8). Various methods are conceivable, but as an example, Crm (i obtained by the pattern matching process shown in FIG.rm, Jrm) Vertical coordinate, i.e. jrmThere is a method of selecting a maximal minimum pair having a vertical center coordinate closest to. The processing in steps S1 to S8 is performed for each window W shown in FIG.m1~ Wm5Run about. As a result, a maximal / minimum pair corresponding to the boundary portion of the shadow A1 in each window can be detected.
[0037]
A final boundary position is determined from the positions detected in the windows. When an image such as a scratch shown in FIG. 11 is captured in the vicinity of the boundary position to be detected, there is a possibility that an incorrect position is detected. Therefore, the average value of the vertical positions of the boundaries detected in each window is calculated. The difference between the obtained average value and the vertical position of the boundary detected in each window is calculated. If this vertical position difference exceeds a predetermined set value, the data is invalidated. Among the vertical positions of the boundaries detected in each window, averaging is performed using data regarded as valid, and the value is finally set as the value of the boundary position. As a result, since erroneously detected data is not used, highly reliable detection is possible.
[0038]
FIG. 16 shows a flowchart of control when the boundary position detection process is applied to welding position tracking control. The control flow is roughly divided into four. A reference plate is previously provided in the vicinity of the member to be welded, and trial welding is performed on the reference plate. The laser welding position is measured from the image at that time, and the measured information is stored (procedure 1). On the other hand, in an actual welding operation, a welding position is obtained using image processing before the member to be welded is installed and welded, and information on the welding position is stored (procedure 2). The relative position deviation between the measurement information obtained in the
[0039]
Details are as follows. The welding copying apparatus shown in FIG. 1 is used. First, the
[0040]
For simplicity, the carriage is movable only in the negative direction from the XYZ coordinate origin.
[0041]
The
[0042]
Next, the two-dimensional light receiving means 6 integrated with the
[0043]
When trial welding is performed using the
[0044]
In step F4, the window P on the right side of FIG.hrThe image of the part corresponding to is captured. In step F5, a horizontal position shift of the captured image portion is detected. The amount of horizontal displacement is ΔirIt is. Amount of deviation Δi on the screenrIs the amount of deviation ΔX on the workpiece surface.rConvert to. Here, right window PhrThe XYZ coordinate position of the torch
[0045]
In step F6, the window P on the left side of FIG.hlThe image of the part corresponding to is captured. In step F7, a horizontal position shift of the captured image is detected. The amount of horizontal displacement detected at this time is ΔilIt is. The detected value on the screen Δi2Is the amount of deviation ΔX on the workpiece surface.lConvert to. Window P on the lefthlThe XYZ coordinate position of the torch
[0046]
In step F8, the window P on the right side of FIG.vrThe groove image of the portion corresponding to is captured. In step F9, a vertical position shift of the captured window portion is detected. Here, the XYZ coordinate position of the torch
[0047]
Similarly, in step F9, the left window P in FIG.vlThe image of the part corresponding to is captured. A vertical position shift of the image captured in step F10 is detected. Here, the XYZ coordinate position of the torch
[0048]
From the obtained coordinates of the joints Pos-hr, Pos-hl, Pos-vr and Pos-vl, the coordinates of the welding start point S and the welding end point E are obtained, and the laser welding line is determined. An example of a method for determining the position coordinates of the welding start point S and the welding end point E will be described below. A straight line connecting two points Pos-hl and Pos-vr is set. Next, a point on the straight line whose X coordinate coincides with the actual welding point Pos-hr and a point coincident with the welding point Pos-vl are calculated. The coordinates of the two points of the welding start point S and the welding end point E separated by the welding start distance Ls are extrapolated on the above straight line based on each of the welding points Pos-hr and Pos-vl. Calculate
[0049]
The
[0050]
In the above processing procedure, when the processing accuracy of the welded
[0051]
An example of the details of the welded portion is shown in FIG. It is an example which has the to-
[0052]
Even if the welding position of the member to be welded can be detected accurately, if the distance between the member to be welded and the
[0053]
In the embodiment shown in FIG. 1, the
[0054]
In the embodiment of the welding position automatic copying control device shown in FIG. 1, the welding torch
[0055]
【The invention's effect】
As described above, according to the welding position automatic copying control device according to the present invention, the position of the welding torch is copied and controlled according to the groove position deviation information before the start of welding. Stable and high-quality welding can be performed. Moreover, although it is difficult to detect misalignment due to receiving strong laser light during welding, the misalignment is detected before the start of welding, so that copy welding can be performed with high reliability.
[Brief description of the drawings]
FIG. 1 is a schematic diagram of an embodiment of an automatic welding position copying apparatus according to the present invention.
2 is a plan view of a welded portion used in the welding position automatic copying apparatus shown in FIG.
FIG. 3 is a front view of the weld portion shown in FIG. 2;
4 is a diagram showing an example of image information obtained by the welding position automatic copying apparatus shown in FIG. 1; FIG.
FIG. 5 a of FIG.1―A2It is a figure which shows an example of the luminance distribution in a line.
Fig. 6b in Fig. 41―B2It is a figure which shows an example of the luminance distribution in a line.
7 is a diagram showing an example of image information obtained by the welding position automatic copying apparatus shown in FIG. 1; FIG.
8 is a diagram showing an example of image information obtained by the welding position automatic copying apparatus shown in FIG. 1. FIG.
FIG. 9 is a diagram illustrating image processing.
FIG. 10 is a diagram showing two windows for detecting a groove position in the vertical direction of the screen according to the present invention.
11 is a diagram showing an example of image information obtained by the welding position automatic copying apparatus shown in FIG. 1; FIG.
FIG. 12C of FIG.1―C2It is a figure which shows an example of the luminance distribution in a line.
FIG. 13C of FIG.1―C2It is a figure which shows an example of the luminance distribution after the image process in a line.
FIG. 14 is a diagram illustrating boundary detection in the vertical direction.
FIG. 15 is a flowchart for detecting a boundary position;
FIG. 16 is a flowchart of welding using the welding position automatic copying apparatus according to the present invention.
FIG. 17 is a diagram illustrating a robot coordinate system.
18 is a diagram showing an example of image information obtained by the welding position automatic copying apparatus shown in FIG. 1; FIG.
FIG. 19 is a front view of a welded portion used in the welding position automatic copying apparatus shown in FIG. 1;
[Explanation of symbols]
DESCRIPTION OF
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002204981A JP4186533B2 (en) | 2002-07-15 | 2002-07-15 | Welding position automatic scanning control device and automatic scanning welding method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002204981A JP4186533B2 (en) | 2002-07-15 | 2002-07-15 | Welding position automatic scanning control device and automatic scanning welding method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004042118A JP2004042118A (en) | 2004-02-12 |
JP4186533B2 true JP4186533B2 (en) | 2008-11-26 |
Family
ID=31710399
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002204981A Expired - Lifetime JP4186533B2 (en) | 2002-07-15 | 2002-07-15 | Welding position automatic scanning control device and automatic scanning welding method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4186533B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005334904A (en) * | 2004-05-25 | 2005-12-08 | Hitachi Ltd | Automatic trace control method and device for welding |
RU2258589C1 (en) * | 2004-12-30 | 2005-08-20 | Керемжанов Акимжан Фазылжанович | Method and device for diagnostics and quality control of laser welding |
KR100859335B1 (en) | 2007-06-19 | 2008-09-19 | 삼성중공업 주식회사 | Tracking method for welding start-point using lvs and visual servoing |
WO2009078077A1 (en) * | 2007-12-14 | 2009-06-25 | O.M.C Co., Ltd. | Laser welding method and laser welding device |
JP6487413B2 (en) * | 2016-12-22 | 2019-03-20 | ファナック株式会社 | Laser processing head and laser processing system including the same |
JP6904927B2 (en) * | 2018-07-30 | 2021-07-21 | ファナック株式会社 | Robot system and calibration method |
JP2020203349A (en) | 2019-06-18 | 2020-12-24 | 株式会社ダイヘン | Robot control device, and robot control system |
KR102664835B1 (en) * | 2020-09-03 | 2024-05-08 | 세메스 주식회사 | Article storage and control method of article storage |
-
2002
- 2002-07-15 JP JP2002204981A patent/JP4186533B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2004042118A (en) | 2004-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2000167666A (en) | Automatic welding, defect repair method and automatic welding equipment | |
WO1988000508A1 (en) | Method of detecting position data in arc welding | |
CA2554256A1 (en) | Method for recognising a structure to be applied to a substrate, with the aid of several cameras and device therefor | |
JP2011089826A (en) | Internal surface defect inspection apparatus of screw hole or hole | |
JP4186533B2 (en) | Welding position automatic scanning control device and automatic scanning welding method | |
JP2018059830A (en) | Exterior appearance inspection method | |
JP6792880B2 (en) | Laser welding condition judgment device | |
JP5555608B2 (en) | Spot welding inspection method and apparatus | |
JP4240220B2 (en) | Laser welding quality inspection method and apparatus | |
JP2000024777A (en) | Groove shape detecting device | |
JP3211681B2 (en) | Painting defect inspection equipment | |
JP2005334904A (en) | Automatic trace control method and device for welding | |
Amano et al. | Development of in-process welding torch position control system using AI technology | |
JP3482615B2 (en) | Welding position automatic profiling control device | |
JP3203507B2 (en) | Laser processing equipment | |
JP3712572B2 (en) | Plasma welding equipment | |
JP6418005B2 (en) | Undercut defect detection method, undercut defect detection device, and fillet arc welding method | |
JP3137253B2 (en) | Automatic welding method | |
JP3051632B2 (en) | Welding member groove tracking control method | |
JPH11179581A (en) | Laser beam irradiation position control method in butt welding by laser beam | |
JP2021062441A (en) | Repair welding device and repair welding method | |
KR102687783B1 (en) | Automatic scarping device and scarfing method | |
JP2003001420A (en) | Control device for automatically copying welding position | |
US20230330785A1 (en) | Welding measuring system and welding measuring method | |
JP4147390B2 (en) | Laser welding quality inspection method and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050413 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20060419 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071024 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080104 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080819 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080901 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4186533 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110919 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120919 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120919 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130919 Year of fee payment: 5 |
|
EXPY | Cancellation because of completion of term |