JP2000263273A - Teaching method and its device for yag laser beam machine - Google Patents

Teaching method and its device for yag laser beam machine

Info

Publication number
JP2000263273A
JP2000263273A JP11076214A JP7621499A JP2000263273A JP 2000263273 A JP2000263273 A JP 2000263273A JP 11076214 A JP11076214 A JP 11076214A JP 7621499 A JP7621499 A JP 7621499A JP 2000263273 A JP2000263273 A JP 2000263273A
Authority
JP
Japan
Prior art keywords
coordinates
yag laser
laser processing
teaching
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11076214A
Other languages
Japanese (ja)
Inventor
Hiroshi Onodera
宏 小野寺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Amada Co Ltd
Original Assignee
Amada Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Amada Co Ltd filed Critical Amada Co Ltd
Priority to JP11076214A priority Critical patent/JP2000263273A/en
Publication of JP2000263273A publication Critical patent/JP2000263273A/en
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Laser Beam Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To automatically transform vision coordinates to tool coordinates by obtaining reflected measurement light on a workpiece and the vision coordinates of teaching points by means of an image pickup means and automatically performing calibration in the height direction with the focal distance of YAG laser beam and in the front/rear and left/right directions with the YAG laser optical axis. SOLUTION: A semiconductor laser head 37 is fixed on a laser machining head 13 so that a slit beam SB passes through the focal point of a YAG laser beam LB. With a workpiece W irradiated with the slit beam SB, and with the reflected light picked up by a CCD camera 23, the data of a pixel coordinates are obtained. The data are repeatedly obtained by moving the laser machining head 13 downward in the Z direction. A relationship between the Z-axis moving quantity and the pixel coordinate value is determined, and the positioning of the laser machining head 13 is automatically performed. The YAG laser beam LB is radiated to the workpiece W, the bead traces formed by the radiation is picked up, data of the pixel coordinate system of ORG points are obtained and teaching in the X-Y direction is performed.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、三次元レーザ加工
を行うYAGレーザ加工機においてYAGレーザ光の焦
点位置をワークのレーザ加工点に合わせるティーチング
方法及びその装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a teaching method and apparatus for adjusting the focal position of a YAG laser beam to a laser processing point of a work in a YAG laser processing machine for performing three-dimensional laser processing.

【0002】[0002]

【従来の技術】従来、ティーチング時には、ワークのレ
ーザ加工点をYAGレーザ光と同軸上で撮影できるよう
にミラーが用いられ、このミラーに反射されたワークの
レーザ加工点をCCDカメラで撮像し、この撮像された
画像は電気的に送られてモニタに表示される。
2. Description of the Related Art Conventionally, at the time of teaching, a mirror is used so that a laser processing point of a work can be photographed coaxially with a YAG laser beam, and the laser processing point of the work reflected by the mirror is imaged by a CCD camera. The captured image is transmitted electrically and displayed on a monitor.

【0003】モニタ上にはクロスターゲットが備えられ
ており、このクロスターゲットにYAGレーザ光の光軸
を一致するように設定可能に設けられている。このよう
にYAGレーザ光の光軸に一致させたクロスターゲット
をモニタ上でワークの溶接線に合わせるようにレーザ加
工ヘッドを前後左右方向(ワークの表面上を二次元的な
方向)に移動せしめることにより、YAGレーザ光の光
軸をワークの溶接線に一致させるべくティーチングす
る。
A cross target is provided on the monitor, and the cross target is provided so as to be settable so that the optical axis of the YAG laser beam coincides with the cross target. The laser processing head is moved back and forth and left and right (two-dimensionally on the surface of the work) so that the cross target aligned with the optical axis of the YAG laser light is aligned with the work welding line on the monitor. Thus, teaching is performed so that the optical axis of the YAG laser beam coincides with the welding line of the work.

【0004】また、レーザ加工ヘッドのZ方向(高さ方
向)を調整する方法としては、予めCCDカメラのピン
トがYAGレーザ光の焦点位置に一致するように調整し
ておき、実際のワークのレーザ加工点にYAGレーザ光
の焦点位置を合わせるにはCCDカメラのピントが合う
位置で決定する。
As a method of adjusting the Z direction (height direction) of the laser processing head, the focus of the CCD camera is adjusted in advance so as to coincide with the focal position of the YAG laser light, and the laser of the actual work is adjusted. To adjust the focal position of the YAG laser beam to the processing point, the position is determined by the position where the CCD camera is in focus.

【0005】また、レーザ加工ヘッドの高さを調整する
他の方法としては、超音波センサでノズル高さ・焦点位
置を検出する方法や、レーザ変位センサでノズル高さ・
焦点位置を検出する方法や、静電容量センサのノズル部
で高さ・焦点位置を検出する方法や、接触式センサでノ
ズル高さ・焦点位置を検出する方法などがある。
Other methods of adjusting the height of the laser processing head include a method of detecting the nozzle height and the focal position with an ultrasonic sensor, and a method of detecting the nozzle height and the focal position with a laser displacement sensor.
There are a method of detecting the focal position, a method of detecting the height and the focal position with the nozzle of the capacitance sensor, and a method of detecting the nozzle height and the focal position with the contact type sensor.

【0006】上記の各種センサで検出した場合は、その
検出結果は画像処理によりビジョン座標として表示器で
表示される。
When detection is performed by the various sensors described above, the detection result is displayed on a display as vision coordinates by image processing.

【0007】通常、表示器で表示されるビジョン座標は
X−Y画面内の二次元データとなり、この二次元データ
はティーチングポイント修正システムで実際の座標に一
致させる必要がある。
Normally, the vision coordinates displayed on the display are two-dimensional data in an XY screen, and the two-dimensional data must be made coincident with the actual coordinates by a teaching point correction system.

【0008】[0008]

【発明が解決しようとする課題】ところで、従来のティ
ーチングポイント修正システムにおいては、Z方向(レ
ーザ加工ヘッドのノズル高さ方向)は画像処理システム
で認識させて、上記のビジョン座標を実際の座標と一致
させるためのキャリブレーションを行う必要がある。
By the way, in the conventional teaching point correction system, the Z direction (the direction of the nozzle height of the laser processing head) is recognized by the image processing system, and the above vision coordinates and actual coordinates are recognized. It is necessary to perform calibration for matching.

【0009】また、X−Y平面は画像処理システムで認
識は可能であるが、実際のスケールとビジョン座標のス
ケールとは異なるので、キャリブレーションにより一致
させる必要がある。
Although the XY plane can be recognized by the image processing system, since the actual scale and the scale of the vision coordinates are different, it is necessary to match them by calibration.

【0010】ところが、上記のキャリブレーションは手
動で実施されると、作業者の個人差が出てしまったり、
自動化の妨げとなるという問題点があった。したがっ
て、自動的にキャリブレーションが行われる必要があ
る。
However, if the above-mentioned calibration is performed manually, individual differences among workers may occur,
There was a problem that it hindered automation. Therefore, it is necessary to perform calibration automatically.

【0011】本発明は上述の課題を解決するためになさ
れたもので、その目的は、通常二次元データしか得られ
ない撮像手段を用いてレーザ加工ヘッドのノズル高さ方
向のデータをビジョン座標として取得すると共に前記撮
像手段を用いて前後左右方向のデータをビジョン座標と
して取得し、高さ方向並びに前後左右方向のビジョン座
標と実際の座標に一致させるキャリブレーションを全自
動で実施して変換データを作成するYAGレーザ加工機
におけるティーチング方法及びその装置を提供すること
にある。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and an object of the present invention is to use image pickup means which can normally obtain only two-dimensional data to convert data in a nozzle height direction of a laser processing head into vision coordinates. Acquisition and acquisition of data in the front-rear and left-right directions as vision coordinates using the imaging means, fully automatic calibration to match the vision coordinates in the height direction and the front-rear left-right direction and the actual coordinates, and convert the converted data. It is an object of the present invention to provide a teaching method and an apparatus for a YAG laser processing machine to be prepared.

【0012】[0012]

【課題を解決するための手段】上記目的を達成するため
に請求項1によるこの発明のYAGレーザ加工機のティ
ーチング方法は、レーザ発振器で発振したYAGレーザ
光を光ファイバを経てレーザ加工ヘッド内に備えた集光
レンズからワークに照射して三次元レーザ加工を行うに
先だって行われるYAGレーザ加工機のティーチング方
法において、レーザ加工ヘッドの外部の測定光源用ヘッ
ドから測定光をワークに照射し、このワーク上の測定光
の反射光を撮像手段にて撮像して表示器に表示すると共
にこの表示された反射光の高さ方向ビジョン座標と実際
のYAGレーザ光の焦点位置との高さ方向キャリブレー
ションを行うべく自動的に検出・蓄積・データ処理を行
い、ワーク上のティーチングポイントを前記撮像手段に
て撮像して表示器に表示すると共にこの表示されたティ
ーチングポイントの前後左右方向ビジョン座標と実際の
YAGレーザ光軸との前後左右方向キャリブレーション
を行うべく自動的に検出・蓄積・データ処理を行い、上
記の高さ方向キャリブレーションデータと前後左右方向
キャリブレーションデータにより、表示器画面上におけ
るビジョン座標からレーザ加工ヘッドにおける実際のツ
ール座標へ自動的に変換することを特徴とするものであ
る。
According to a first aspect of the present invention, there is provided a teaching method of a YAG laser processing machine according to the present invention, wherein a YAG laser beam oscillated by a laser oscillator is transmitted through an optical fiber into a laser processing head. In the teaching method of the YAG laser processing machine performed prior to performing the three-dimensional laser processing by irradiating the work from the provided condenser lens, the work is irradiated with the measurement light from the measurement light source head external to the laser processing head. The reflected light of the measurement light on the work is imaged by the imaging means and displayed on a display, and the height-direction calibration of the height-direction vision coordinates of the displayed reflected light and the actual focal position of the YAG laser light is performed. Detecting, accumulating, and data processing are automatically performed in order to perform Display and automatic detection / accumulation / data processing to perform front / rear / left / right calibration of the displayed teaching point front / rear / left / right vision coordinates and the actual YAG laser optical axis. It is characterized in that vision coordinates on the display screen are automatically converted into actual tool coordinates on the laser processing head based on the application data and the front / rear / left / right calibration data.

【0013】したがって、通常二次元データしか得られ
ない撮像手段を用いてレーザ加工ヘッドのノズル高さ方
向のデータがビジョン座標として取得されるので、YA
Gレーザ光の焦点位置が容易にワークの例えば溶接線に
位置決めされてティーチングされる。さらに、前後左右
方向のワークの例えば溶接線の位置決めデータは撮像手
段を用いてビジョン座標として取得されティーチングさ
れる。上記の高さ方向並びに前後左右方向のビジョン座
標と実際の座標に一致させるキャリブレーションが全自
動で実施されて変換データが作成されるので、三次元方
向のティーチングが簡単にまた正確に行われる。
Therefore, since the data in the direction of the nozzle height of the laser processing head is acquired as the vision coordinates by using the image pickup means which can normally obtain only two-dimensional data, YA
The focus position of the G laser light is easily positioned on, for example, a welding line of the work and teaching is performed. Further, positioning data of, for example, a welding line of the work in the front-rear and left-right directions is acquired as a vision coordinate by using an imaging unit and is taught. Since the calibration to match the above-mentioned height direction and the vision coordinates in the front, rear, left and right directions with the actual coordinates is automatically performed and conversion data is created, teaching in the three-dimensional direction is easily and accurately performed.

【0014】請求項2によるこの発明のYAGレーザ加
工機のティーチング方法は、請求項1記載のYAGレー
ザ加工機のティーチング方法において、前記ティーチン
グポイントが、YAGレーザ光を照射して得た照射位置
であることを特徴とするものである。
According to a second aspect of the present invention, in the teaching method of the YAG laser processing machine according to the first aspect, the teaching point is an irradiation position obtained by irradiating the YAG laser beam. It is characterized by having.

【0015】したがって、ティーチングポイントがYA
Gレーザ光を照射して得た照射位置であることにより、
前後左右方向の二次元の位置決めが容易にまた正確に行
われる。
Therefore, the teaching point is YA
By the irradiation position obtained by irradiating G laser light,
Two-dimensional positioning in the front, rear, left and right directions is easily and accurately performed.

【0016】請求項3によるこの発明のYAGレーザ加
工機のティーチング装置は、レーザ発振器で発振したY
AGレーザ光を光ファイバを経てレーザ加工ヘッド内に
備えた集光レンズからワークに照射して三次元レーザ加
工を行うに先だって行われるYAGレーザ加工機のティ
ーチング装置において、ワークに測定光を照射する測定
光源用ヘッドをレーザ加工ヘッドの外部に設け、ワーク
上の測定光の反射光を撮像する撮像手段を設けると共に
この撮像手段にて撮像した画像を表示する表示器を設
け、この表示された反射光のビジョン座標と実際のYA
Gレーザ光の焦点位置との高さ方向キャリブレーション
を行うべく自動的に検出・蓄積・データ処理を行うと共
にワーク上のティーチングポイントを前記撮像手段にて
撮像して表示されたティーチングポイントのビジョン座
標と実際のYAGレーザ光軸との前後左右方向キャリブ
レーションを自動的に行うべく検出・蓄積・データ処理
を行い、上記の高さ方向キャリブレーションデータと前
後左右方向キャリブレーションデータにより、表示器画
面上におけるビジョン座標からレーザ加工ヘッドにおけ
る実際のツール座標へ自動的に変換する制御装置を設け
てなることを特徴とするものである。
According to a third aspect of the present invention, there is provided a teaching device for a YAG laser beam machine according to the present invention.
The work is irradiated with measurement light in a teaching device of a YAG laser processing machine which is performed prior to performing three-dimensional laser processing by irradiating the work with a condensing lens provided in a laser processing head through an optical fiber via an optical fiber. The measuring light source head is provided outside the laser processing head, an image pickup means for picking up reflected light of the measurement light on the workpiece is provided, and a display for displaying an image picked up by the image pickup means is provided. Light vision coordinates and actual YA
Automatically detects, stores, and processes data to perform height calibration with respect to the focal position of the G laser beam. Vision coordinates of the teaching point displayed by imaging the teaching point on the work by the imaging means. The detection, accumulation, and data processing are performed in order to automatically perform the front-rear and left-right calibration of the actual YAG laser optical axis and the actual YAG laser optical axis. And a control device for automatically converting the vision coordinates in the above into the actual tool coordinates in the laser processing head.

【0017】したがって、請求項1記載の作用と同様で
あり、通常二次元データしか得られない撮像手段を用い
てレーザ加工ヘッドのノズル高さ方向のデータがビジョ
ン座標として取得されるので、YAGレーザ光の焦点位
置が容易にワークの例えば溶接線に位置決めされてティ
ーチングされる。さらに、前後左右方向のワークの例え
ば溶接線の位置決めデータは撮像手段を用いてビジョン
座標として取得されティーチングされる。上記の高さ方
向並びに前後左右方向のビジョン座標と実際の座標に一
致させるキャリブレーションが全自動で実施されて変換
データが作成されるので、三次元方向のティーチングが
簡単にまた正確に行われる。
Accordingly, since the data in the height direction of the nozzle of the laser processing head is obtained as the vision coordinates by using the image pickup means which can normally obtain only two-dimensional data, the YAG laser is used. The focus position of the light is easily positioned at, for example, a welding line of the work, and teaching is performed. Further, positioning data of, for example, a welding line of the work in the front-rear and left-right directions is acquired as a vision coordinate by using an imaging unit and is taught. Since the calibration to match the above-mentioned height direction and the vision coordinates in the front, rear, left and right directions with the actual coordinates is automatically performed and conversion data is created, teaching in the three-dimensional direction is easily and accurately performed.

【0018】請求項4によるこの発明のYAGレーザ加
工機のティーチング装置は、請求項3記載のYAGレー
ザ加工機のティーチング装置において、前記ティーチン
グポイントが、YAGレーザ光を照射して得た照射位置
であることを特徴とするものである。
According to a fourth aspect of the present invention, there is provided the teaching device for a YAG laser processing machine according to the third aspect, wherein the teaching point is an irradiation position obtained by irradiating a YAG laser beam. It is characterized by having.

【0019】したがって、請求項1記載の作用と同様で
あり、ティーチングポイントがYAGレーザ光を照射し
て得た照射位置であることにより、前後左右方向の二次
元の位置決めが容易にまた正確に行われる。
Therefore, the operation is the same as that of the first aspect, and since the teaching point is the irradiation position obtained by irradiating the YAG laser beam, two-dimensional positioning in the front-back, left-right direction can be performed easily and accurately. Will be

【0020】[0020]

【発明の実施の形態】以下、本発明のレーザ加工におけ
るティーチング方法の実施の形態について、図面を参照
して説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of a teaching method in laser processing according to the present invention will be described below with reference to the drawings.

【0021】図12を参照するに、本実施の形態に係わ
るYAGレーザ加工機1は、制御装置としての例えばロ
ボットコントローラ3とは別に設けられたレーザ発振器
5からYAGレーザ光LBが発振され、このYAGレー
ザ光LBが光ファイバ7に導かれてレーザ自動加工機と
しての例えばX,Y,Z方向の三次元方向に移動可能な
ロボット9、いわゆる多関節ロボットのアーム11の先
端に設けられたレーザ加工ヘッド13へ送られる。
Referring to FIG. 12, in a YAG laser beam machine 1 according to the present embodiment, a YAG laser beam LB is oscillated from a laser oscillator 5 provided separately from, for example, a robot controller 3 as a control device. A laser provided at the tip of an arm 11 of a so-called articulated robot, which is a robot 9 which is guided by an optical fiber 7 and can move in a three-dimensional direction of, for example, X, Y, and Z directions as a laser automatic processing machine. It is sent to the processing head 13.

【0022】また、ロボット9は床面上で水平面方向に
回転自在なロボット本体15の上部にブーム17が前後
方向に回動自在に設けられており、このブーム17の先
端には前記アーム11が上下方向に回動自在に設けられ
ている。アーム11の先端にはレーザ加工ヘッド13が
ヘッド支持アーム19により水平面方向に首振り可能に
設けられ、且つヘッド支持アーム19の長手方向に対し
て直交する方向に旋回自在に設けられている。
The robot 9 is provided with a boom 17 rotatably in the front-rear direction on an upper part of a robot main body 15 rotatable in a horizontal plane direction on the floor surface. It is provided rotatably in the up-down direction. A laser processing head 13 is provided at the tip of the arm 11 such that the laser processing head 13 can be swung in a horizontal plane direction by a head support arm 19 and is rotatable in a direction orthogonal to the longitudinal direction of the head support arm 19.

【0023】なお、光ファイバ7はレーザ発振器5とレ
ーザ加工ヘッド13の加工点との位置関係は基本的に自
由である。
The positional relationship between the laser oscillator 5 and the processing point of the laser processing head 13 of the optical fiber 7 is basically free.

【0024】レーザ加工ヘッド13の先端部には、YA
Gレーザ光LBを集光するための集光レンズ(図示省
略)が備えられており、このYAGレーザ光LBはレー
ザ加工ヘッド13に備えられているノズル21からワー
クWに向けて出射されて所望の形状に切断や溶接加工な
どのレーザ加工が行なわれる。
The tip of the laser processing head 13 has a YA
A condensing lens (not shown) for condensing the G laser light LB is provided. The YAG laser light LB is emitted from the nozzle 21 provided in the laser processing head 13 toward the work W and Laser processing such as cutting or welding processing is performed on the shape of.

【0025】なお、ロボット9としては上述した多関節
ロボットに限定されず、アーム11が直交座標上を移動
自在の直交座標系ロボットでも構わない。この場合のレ
ーザ加工ヘッド13はアーム11に昇降自在に設けられ
る。
The robot 9 is not limited to the above-mentioned articulated robot, but may be a robot of a rectangular coordinate system in which the arm 11 can move on rectangular coordinates. In this case, the laser processing head 13 is provided on the arm 11 so as to be able to move up and down.

【0026】図13を参照するに、光ファイバ7の先端
から出射されるYAGレーザ光LBはレーザ加工ヘッド
13内に設けられたコリメータレンズ(図示省略)によ
り平行光とされ、この平行光は集光レンズで集光される
よう構成されている。なお、集光レンズとワークWの間
にはスパッタ・ヒュームから保護するための保護ガラス
(図示省略)が設けられている。
Referring to FIG. 13, the YAG laser beam LB emitted from the tip of the optical fiber 7 is converted into a parallel beam by a collimator lens (not shown) provided in the laser processing head 13, and the parallel beam is collected. It is configured to be condensed by an optical lens. Note that a protective glass (not shown) is provided between the condenser lens and the work W to protect it from spatter and fumes.

【0027】また、集光レンズで集光されたYAGレー
ザ光LBはレーザ加工ヘッド13の下部に設けたノズル
ホルダの先端に備えたノズル21を通過してワークWに
照射される。
The YAG laser light LB condensed by the condensing lens passes through the nozzle 21 provided at the tip of a nozzle holder provided below the laser processing head 13 and irradiates the work W.

【0028】なお、レーザ加工ヘッド13内にはアシス
トガス(シールドガス)が供給され、このアシストガス
はノズル21からYAGレーザ光LBの同軸上に噴射さ
れる。
An assist gas (shield gas) is supplied into the laser processing head 13, and the assist gas is injected from the nozzle 21 coaxially with the YAG laser beam LB.

【0029】また、レーザ加工ヘッド13内には、ティ
ーチングする際にYAGレーザ光LBと同軸上でワーク
W上の溶接線を確認するために画像処理システムを構成
する撮像手段としての例えばCCDカメラ23が配置さ
れている。本実施の形態では、回転ベンドミラー25が
図13の矢印に示されているようにロータリアクチュエ
ータ27によりほぼ水平面で回動するように構成されて
前述したコリメータレンズと集光レンズとの間のYAG
レーザ光LBの同軸上に出没自在に設けられており、テ
ィーチング時のみYAGレーザ光LBの同軸上に前進
し、それ以外は後退する。
In the laser processing head 13, for example, a CCD camera 23 as an image pickup means constituting an image processing system for confirming a welding line on the work W coaxially with the YAG laser beam LB at the time of teaching. Is arranged. In the present embodiment, the rotary bend mirror 25 is configured to rotate in a substantially horizontal plane by a rotary actuator 27 as shown by an arrow in FIG. 13, and the YAG between the collimator lens and the condenser lens described above is provided.
The YAG laser beam LB is provided coaxially with the laser beam LB so as to be able to protrude and retract freely.

【0030】CCDカメラ23は図12に示されている
ように、カメラ用信号ケーブル29により画像処理シス
テムを構成する画像処理装置31を経てロボット9に搭
載された表示器としての例えばモニタ33に接続されて
いる。なお、画像処理装置31はロボットコントローラ
3に通信ケーブル35を介して電気的に接続されてい
る。
As shown in FIG. 12, the CCD camera 23 is connected to, for example, a monitor 33 as a display mounted on the robot 9 via an image processing device 31 constituting an image processing system by a camera signal cable 29. Have been. The image processing device 31 is electrically connected to the robot controller 3 via a communication cable 35.

【0031】したがって、ワークW上の溶接線は回転ベ
ンドミラー25に反射されてCCDカメラ23の下部に
設けられた固定ベンドミラー36(図13参照)を経て
CCDカメラ23に撮像され、CCDカメラ23で得ら
れた画像はモニタ33上に表示される。なお、モニタ3
3の画面上には上下左右方向に移動位置決め自在なクロ
スターゲットCTが表示されている。
Accordingly, the welding line on the work W is reflected by the rotating bend mirror 25 and is imaged by the CCD camera 23 via a fixed bend mirror 36 (see FIG. 13) provided below the CCD camera 23, and is imaged. Is displayed on the monitor 33. The monitor 3
On the screen of No. 3, a cross target CT which can be moved and positioned vertically and horizontally is displayed.

【0032】図13を参照するに、測定光源用ヘッドと
しての例えば半導体レーザヘッド37がレーザ加工ヘッ
ド13を支持するヘッド支持アーム19にブラケットを
介してYAGレーザ光LBの光軸と同方向に移動調整自
在に設けられている。半導体レーザヘッド37は例えば
半導体レーザ光を発光する発光ダイオードなどの発光装
置が内蔵されており、この発光される半導体レーザ光は
本実施の形態ではワークWにスリット光SBとして照射
され、このスリット光SBはYAGレーザ光LBの光軸
に対して約50°(ワークWに対して約40°)傾斜し
てワークW上に照射されるよう構成されている。
Referring to FIG. 13, for example, a semiconductor laser head 37 as a measuring light source head is moved in the same direction as the optical axis of the YAG laser beam LB via a bracket on a head support arm 19 supporting the laser processing head 13. It is provided to be adjustable. The semiconductor laser head 37 has a built-in light-emitting device such as a light-emitting diode that emits semiconductor laser light, and the emitted semiconductor laser light is applied to the work W as slit light SB in this embodiment, The SB is configured to irradiate the work W at an angle of about 50 ° (about 40 ° with respect to the work W) with respect to the optical axis of the YAG laser beam LB.

【0033】半導体レーザヘッド37は加工エリアにで
きるだけ影響を与えない部分に取り付けられており、半
導体レーザヘッド37の先端には半導体レーザ光を集光
調整可能な集光レンズ39が設けられており、本実施の
形態ではワークW上にスリット光SBが反射光として形
成されるように構成されている。
The semiconductor laser head 37 is attached to a portion that does not affect the processing area as much as possible. At the tip of the semiconductor laser head 37, a condensing lens 39 capable of condensing and adjusting semiconductor laser light is provided. In the present embodiment, the configuration is such that the slit light SB is formed on the work W as reflected light.

【0034】また、半導体レーザヘッド37内の発光装
置には半導体レーザ光の光量調整可能なボリュームが設
けられており、本実施の形態で使用される半導体レーザ
光は波長および出力とも特に限定されず、任意であって
構わない。
The light emitting device in the semiconductor laser head 37 is provided with a volume capable of adjusting the amount of semiconductor laser light, and the semiconductor laser light used in the present embodiment is not particularly limited in wavelength or output. , May be arbitrary.

【0035】上記構成により、まず、レーザ加工ヘッド
13とワークWとの間隔は最適焦点位置となるように、
例えばYAGレーザ光LBの焦点位置がワークWの表面
に位置するように予め調整される。次に、半導体レーザ
ヘッド37から発光されたスリット光SBのワークW上
での反射光は回転ベンドミラー25,固定ベッドミラー
36を介してCCDカメラ23で撮像され、画像処理装
置31を経てモニタ33上にワークWと共に表示され
る。
According to the above configuration, first, the distance between the laser processing head 13 and the work W is set to be the optimum focus position.
For example, the focus position of the YAG laser beam LB is adjusted in advance so as to be located on the surface of the work W. Next, the reflected light of the slit light SB emitted from the semiconductor laser head 37 on the work W is imaged by the CCD camera 23 via the rotating bend mirror 25 and the fixed bed mirror 36, and is passed through the image processing device 31 to the monitor 33. It is displayed together with the work W.

【0036】レーザ加工ヘッド13及びモニタ33上の
クロスターゲットCTは移動させずに、モニタ33の画
面上のスリット光SBの中心がモニタ33のクロスター
ゲットCTに一致するように半導体レーザヘッド37が
レーザ加工ヘッド13に対して上下方向(図13におい
てZ軸方向)に移動されることにより、スリット光SB
がYAGレーザ光LBの焦点位置を通過するように位置
決めされ、この状態で半導体レーザヘッド37がレーザ
加工ヘッド13に固定される。
The laser beam processing head 13 and the cross target CT on the monitor 33 are not moved, and the semiconductor laser head 37 is moved so that the center of the slit light SB on the screen of the monitor 33 coincides with the cross target CT on the monitor 33. The slit light SB is moved in the vertical direction (the Z-axis direction in FIG. 13) with respect to the processing head 13.
Are positioned so as to pass through the focal position of the YAG laser beam LB, and the semiconductor laser head 37 is fixed to the laser processing head 13 in this state.

【0037】したがって、レーザ加工ヘッド13が上下
動されると、半導体レーザ光のスリット光SBはモニタ
33の画面上で上下動する。例えば、図13においてレ
ーザ加工ヘッド13がZ方向の上方へ移動されると半導
体レーザヘッド37も一緒に上昇するので半導体レーザ
光のスリット光SBはワークW上を図13においてY方
向の左方向へ移動することになるので、このスリット光
SBは本実施の形態ではモニタ33上では下方向へ移動
する。逆にレーザ加工ヘッド13がZ方向の下方へ移動
されるとモニタ33の画面上のスリット光SBは上方向
へ移動する。
Therefore, when the laser processing head 13 is moved up and down, the slit light SB of the semiconductor laser light moves up and down on the screen of the monitor 33. For example, when the laser processing head 13 is moved upward in the Z direction in FIG. 13, the semiconductor laser head 37 also moves up, so that the slit light SB of the semiconductor laser light travels on the work W to the left in the Y direction in FIG. Since the slit light SB moves, the slit light SB moves downward on the monitor 33 in the present embodiment. Conversely, when the laser processing head 13 is moved downward in the Z direction, the slit light SB on the screen of the monitor 33 moves upward.

【0038】つまり、スリット光SBはYAGレーザ光
LBの焦点位置を通過するように予め設定されているの
で、モニタ33の画面上のスリット光SBがクロスター
ゲットCTの横軸に一致したときにYAGレーザ光LB
の焦点がワークWの表面に位置することになる。
That is, since the slit light SB is preset so as to pass through the focal position of the YAG laser light LB, when the slit light SB on the screen of the monitor 33 coincides with the horizontal axis of the cross target CT, the YAG laser light Laser light LB
Is located on the surface of the workpiece W.

【0039】図12を参照するに、前記画像処理装置3
1における中央処理装置としての例えばCPU41に
は、レーザ加工条件や加工プログラム等のデータを入力
する入力装置43と表示装置45が接続されており、こ
の入力されたデータやワーク上のティーチングポイント
をCCDカメラ23で撮像して得た高さ方向ビジョン座
標と前後左右方向ビジョン座標を実際のYAGレーザ光
軸の焦点位置に比較して得た高さ方向キャリブレション
データと前後左右方向キャリブレションデータなどを記
憶するメモリ47と、このメモリ47に記憶された加工
プログラムの演算式に基づいて高さ方向キャリブレーシ
ョンデータと前後左右方向キャリブレーションデータに
より、モニタ33の画面上におけるビジョン座標からレ
ーザ加工ヘッド13における実際のツール座標に変換す
るための演算処理装置49と、上記の各高さ方向並びに
前後左右方向キャリブレションを行うためにレーザ加工
ヘッド13を移動すべくロボット9に作動指令を与える
ための指令部51がCPU41に接続されている。な
お、前記ロボットコントローラ3はロボット9をコント
ロールするものである。
Referring to FIG. 12, the image processing device 3
For example, a CPU 41 as a central processing unit in 1 is connected to an input device 43 for inputting data such as laser processing conditions and a processing program, and a display device 45. The input data and teaching points on the work are stored in a CCD. The height direction vision data and front / rear / left / right direction calibration data obtained by comparing the height direction vision coordinates and the front / rear / left / right direction vision coordinates obtained by imaging with the camera 23 with the actual focal position of the YAG laser optical axis. A memory 47 for storing, and a height direction calibration data and a front-rear, left-right calibration data based on an arithmetic expression of a processing program stored in the memory 47, and the laser processing head 13 uses the vision coordinates on the screen of the monitor 33 to read the coordinates. Arithmetic processing unit for converting to actual tool coordinates 49, instruction unit 51 for providing operating instructions to the robot 9 in order to move the laser processing head 13 in order to perform each height direction as well as longitudinal and lateral directions carry shake Deployment of the is connected to the CPU 41. The robot controller 3 controls the robot 9.

【0040】以下、ワークWのZ方向のティーチングに
おけるZ方向キャリブレーションの動作について説明す
る。
The operation of the Z-direction calibration in teaching the work W in the Z-direction will be described below.

【0041】図1を参照するに、図13のロータリアク
チュエータ27が作動して回転ベンドミラー25がYA
Gレーザ光LBの同軸上へ前進するよう回動してCCD
カメラ23によりYAGレーザ光LBの光軸上の画像が
撮像可能となる。図12におけるロボットコントローラ
3と画像処理システムの通信ポートが通信ケーブル35
を介して接続される(ステップS1)。
Referring to FIG. 1, the rotary actuator 27 shown in FIG.
The CCD is rotated by rotating so that the G laser beam LB advances on the same axis.
An image on the optical axis of the YAG laser beam LB can be captured by the camera 23. The communication port between the robot controller 3 and the image processing system in FIG.
(Step S1).

【0042】ロボットコントローラ3から半導体レーザ
光のON指令が与えられて半導体レーザ光のONの確認
がなされ、半導体レーザヘッド37から半導体レーザ光
がワークWにスリット光SBとして照射される。ワーク
上に反射されたスリット光SBが回転ベンドミラー25
に反射されて固定ベンドミラー36を経てCCDカメラ
23に撮像され、CCDカメラ23で得られた画像がモ
ニタ33上に表示される(ステップS2及びS3)。
A semiconductor laser beam ON command is given from the robot controller 3 to confirm that the semiconductor laser beam is ON, and the semiconductor laser head 37 irradiates the work W with the semiconductor laser beam as slit light SB. The slit light SB reflected on the work is rotated by a rotating bend mirror 25.
The image is reflected by the CCD camera 23 via the fixed bend mirror 36, and the image obtained by the CCD camera 23 is displayed on the monitor 33 (steps S2 and S3).

【0043】画像処理システムからロボットコントロー
ラ3への通信ポートが通信ケーブル35を介して開放さ
れ、モニタ33の画面上に表示された画像はビジョン座
標としての例えばピクセル座標のデータがロボットコン
トローラ3のメモリに格納される(ステップS4及びS
5)。
The communication port from the image processing system to the robot controller 3 is opened via the communication cable 35, and the image displayed on the screen of the monitor 33 stores, for example, pixel coordinate data as vision coordinates in the memory of the robot controller 3. (Steps S4 and S4)
5).

【0044】次いで、再び、通信ポートが接続される
(ステップS6)。
Next, the communication port is connected again (step S6).

【0045】ロボットコントローラ3のロボットステー
タスを取得するために、1サイクル/プレイモード/コ
マンドリモートサーボオンがONし、これ以外がOFF
していることを確認する(ステップS7)。
In order to obtain the robot status of the robot controller 3, one cycle / play mode / command remote servo-on is turned on, and the others are turned off.
Is confirmed (step S7).

【0046】レーザ加工ヘッド13がZ方向の下方へ移
動され、図2(A)に示されているようにスリット光S
Bの位置がロボット9に指令するZ軸移動量としてのデ
ータZ=+3(mm)に位置するように移動される。ロボ
ットコントローラ3のロボットステータスが取得され、
「運転中」という信号が落ちるまで繰り返して終了が確
認される。それから通信ポートが開放され、このときの
スリット光SBのピクセル座標のデータがロボットコン
トローラ3のメモリ内に格納される。このときのピクセ
ル座標Yは90となる。(ステップS8〜S11)。
The laser processing head 13 is moved downward in the Z direction, and as shown in FIG.
The position of B is moved so as to be located at data Z = + 3 (mm) as the Z-axis movement amount commanded to the robot 9. The robot status of the robot controller 3 is obtained,
The end is repeatedly confirmed until the signal "running" falls. Then, the communication port is opened, and the data of the pixel coordinates of the slit light SB at this time is stored in the memory of the robot controller 3. The pixel coordinate Y at this time is 90. (Steps S8 to S11).

【0047】次に、上記のステップS6〜S11が繰り
返されて、図2(A)〜(Z4)に示されているよう
に、データZ=+3(mm)からデータZ=−3(mm)ま
での間を0.2mm刻みでピクセル座標Yのデータが取得
され、メモリ内に格納される(ステップS12)。
Next, the above-described steps S6 to S11 are repeated, and data Z = + 3 (mm) to data Z = -3 (mm) as shown in FIGS. The data of the pixel coordinates Y is acquired at intervals of 0.2 mm up to and before and stored in the memory (step S12).

【0048】ステップS12が終了すると、再び通信ポ
ートが接続され、ロボットコントローラ3から半導体レ
ーザ光のOFF指令が与えられて半導体レーザ光のOF
Fの確認がなされ、通信ポートが開放される(ステップ
S13〜S16)。
When step S12 is completed, the communication port is connected again, and a semiconductor laser light OFF command is given from the robot controller 3 to turn off the semiconductor laser light.
Confirmation of F is made, and the communication port is opened (steps S13 to S16).

【0049】以上のように画像処理より得られたロボッ
ト9に指令されるZ軸移動量Zとピクセル座標値Yとの
データは図4に示されている表のようになり、このデー
タがZ方向キャリブレーションデータとなる。なお、こ
のZ方向キャリブレーションデータは図3に示されてい
るようにグラフに表され、Z軸移動量Zとピクセル座標
値Yとの関係式はZ=(Y−240)/50=0.02Y−4.8で
表される(ステップS17)。
The data of the Z-axis movement amount Z and the pixel coordinate value Y instructed to the robot 9 obtained by the image processing as described above are as shown in the table of FIG. It becomes direction calibration data. Note that the Z-direction calibration data is shown in a graph as shown in FIG. 3, and the relational expression between the Z-axis movement amount Z and the pixel coordinate value Y is Z = (Y−240) /50=0.02Y It is represented by -4.8 (step S17).

【0050】したがって、Z方向キャリブレーションデ
ータに基づいて、半導体レーザ光のスリット光SBの位
置によって、Z方向にどれだけ移動すればYAGレーザ
光LBの焦点がワークWの表面に位置するかを自動的に
判断することができる。
Therefore, based on the Z-direction calibration data, it is automatically determined how far in the Z direction the focus of the YAG laser light LB is located on the surface of the workpiece W based on the position of the slit light SB of the semiconductor laser light. You can judge it.

【0051】以下、ワークWのX−Y方向のティーチン
グにおけるX−Y方向キャリブレーションの動作につい
て説明する。
Hereinafter, the operation of the XY direction calibration in the XY direction teaching of the work W will be described.

【0052】図5を参照するに、前述したステップS1
と同様に、ロボットコントローラ3と画像処理システム
の通信ポートが接続される(ステップS21)。
Referring to FIG. 5, step S1 described above is performed.
Similarly, the robot controller 3 is connected to the communication port of the image processing system (step S21).

【0053】ロボットコントローラ3から半導体レーザ
光のON指令が与えられて半導体レーザ光のONの確認
がなされ、半導体レーザヘッド37から半導体レーザ光
のスリット光SBがワークWに照射される。ワークW上
に反射されたスリット光SBが回転ベンドミラー25に
反射されて固定ベンドミラー36を経てCCDカメラ2
3に撮像され、CCDカメラ23で得られた画像がモニ
タ33上に表示される(ステップS22及びS23)。
A semiconductor laser light ON command is given from the robot controller 3 to confirm that the semiconductor laser light is ON, and the work W is irradiated with the slit light SB of the semiconductor laser light from the semiconductor laser head 37. The slit light SB reflected on the work W is reflected by the rotating bend mirror 25 and passes through the fixed bend mirror 36 to the CCD camera 2.
3 and an image obtained by the CCD camera 23 is displayed on the monitor 33 (steps S22 and S23).

【0054】画像処理システムからロボットコントロー
ラ3への通信ポートが開放され、モニタ33の画面上に
表示されたスリット光SBの画像は処理されて、Z方向
キャリブレーションデータに基づいてZ方向補正量が算
出される。(ステップS24及びS25)。
The communication port from the image processing system to the robot controller 3 is opened, the image of the slit light SB displayed on the screen of the monitor 33 is processed, and the Z-direction correction amount is determined based on the Z-direction calibration data. Is calculated. (Steps S24 and S25).

【0055】次いで、再び、通信ポートが接続される
(ステップS26)。
Next, the communication port is connected again (step S26).

【0056】1サイクル/プレイモード/コマンドリモ
ートサーボオンがONし、これ以外がOFFしているこ
とを確認されて、ロボットコントローラ3のロボットス
テータスが取得される(ステップS27)。
It is confirmed that one cycle / play mode / command remote servo-on is ON, and that the others are OFF, and the robot status of the robot controller 3 is obtained (step S27).

【0057】ステップS25で算出されたZ方向補正量
の分だけ、レーザ加工ヘッド13がZ方向へ移動される
ようにロボット9に指令される(ステップS28)。
The robot 9 is instructed to move the laser processing head 13 in the Z direction by the Z direction correction amount calculated in step S25 (step S28).

【0058】ロボットコントローラ3のロボットステー
タスが取得され、「運転中」という信号が落ちるまで繰
り返して終了が確認される(ステップS29)。
The robot status of the robot controller 3 is acquired, and the end is repeatedly confirmed until the signal of "operating" is dropped (step S29).

【0059】ロボットコントローラ3から半導体レーザ
光のOFF指令が与えられて半導体レーザ光のOFFの
確認が行われる。なお、ロータリアクチュエータ27が
作動して回転ベンドミラー25がYAGレーザ光LBの
同軸上から後退するよう回動する(ステップS30〜S
31)。
An OFF command for the semiconductor laser light is given from the robot controller 3 to confirm that the semiconductor laser light is OFF. Incidentally, the rotary actuator 27 is operated to rotate the rotating bend mirror 25 so as to retract from the same axis of the YAG laser beam LB (steps S30 to S30).
31).

【0060】ワークWにテスト用のビード痕BMを形成
するためにYAGレーザ光LBを1ショットのみ出射す
るプログラムが選択される(ステップS32)。
A program for emitting only one shot of the YAG laser beam LB to form a test bead mark BM on the work W is selected (step S32).

【0061】1サイクル/プレイモード/コマンドリモ
ートサーボオンがONし、これ以外がOFFしているこ
とを確認されて、ロボットコントローラ3のロボットス
テータスが取得される(ステップS33)。
It is confirmed that one cycle / play mode / command remote servo-on is ON, and that the others are OFF, and the robot status of the robot controller 3 is obtained (step S33).

【0062】レーザ加工ヘッド13のノズル21からY
AGレーザ光LBがワークWに1ショットだけ照射され
てテスト用のビード痕BMが形成される(ステップS3
4)。
From the nozzle 21 of the laser processing head 13 to Y
The workpiece W is irradiated with only one shot of the AG laser beam LB to form a bead mark BM for a test.
4).

【0063】ロボットコントローラ3のロボットステー
タスが取得され、「運転中」という信号が落ちるまで繰
り返して終了が確認される(ステップS35)。
The robot status of the robot controller 3 is acquired, and the end is repeatedly confirmed until the signal of "operating" is dropped (step S35).

【0064】通信ポートが開放され、回転ベンドミラー
25がYAGレーザ光LBの光軸上へ前進されて図7
(A)に示されているように上記のテスト用ビード痕B
Mの中心座標がCCDカメラ23で撮像され、この撮像
されたテスト用ビード痕BMがモニタ33上に表示され
る。次いで、ORG点のピクセル座標系のデータが取得
される(ステップS36及びS37)。
The communication port is opened, and the rotating bend mirror 25 is advanced on the optical axis of the YAG laser beam LB.
(A) As shown in FIG.
The center coordinates of M are imaged by the CCD camera 23, and the imaged test bead marks BM are displayed on the monitor 33. Next, data in the pixel coordinate system of the ORG point is obtained (Steps S36 and S37).

【0065】次いで、再び、通信ポートが接続され、1
サイクル/プレイモード/コマンドリモートサーボオン
がONし、これ以外がOFFしていることを確認され
て、ロボットコントローラ3のロボットステータスが取
得される(ステップS38及びS39)。
Next, the communication port is connected again, and 1
It is confirmed that the cycle / play mode / command remote servo-on is ON and the others are OFF, and the robot status of the robot controller 3 is obtained (steps S38 and S39).

【0066】図7(B)に示されているようにテスト用
ビード痕BMの位置がX=−3.0(mm)(X−X点)
に位置すべくレーザ加工ヘッド13をX方向へ移動する
ようロボット9に指令が与えられる。そして、ロボット
コントローラ3のロボットステータスが取得され、「運
転中」という信号が落ちるまで繰り返して終了が確認さ
れ、通信ポートが開放される(ステップS40〜S4
2)。
As shown in FIG. 7B, the position of the test bead mark BM is X = −3.0 (mm) (point XX).
The robot 9 is instructed to move the laser processing head 13 in the X direction so that the laser processing head 13 is located at the position. Then, the robot status of the robot controller 3 is obtained, and the end is repeatedly confirmed until the signal of "operating" is dropped, and the communication port is opened (steps S40 to S4).
2).

【0067】上記のX=−3.0(mm)のテスト用ビー
ド痕BMの中心座標が図7(B)に示されているように
CCDカメラ23で撮像され、この撮像されたビード痕
BMがモニタ33上に表示される。次いで、X−X点の
ピクセル座標系のデータが取得される(ステップS4
3)。
The center coordinates of the test bead mark BM of X = −3.0 (mm) are imaged by the CCD camera 23 as shown in FIG. 7B, and the imaged bead mark BM is obtained. Is displayed on the monitor 33. Next, data of the pixel coordinate system at the point XX is obtained (step S4).
3).

【0068】次いで、再び、通信ポートが接続され、1
サイクル/プレイモード/コマンドリモートサーボオン
がONし、これ以外がOFFしていることを確認され
て、ロボットコントローラ3のロボットステータスが取
得されるる(ステップS44及びS45)。
Next, the communication port is connected again, and 1
It is confirmed that the cycle / play mode / command remote servo-on is ON and the others are OFF, and the robot status of the robot controller 3 is obtained (steps S44 and S45).

【0069】レーザ加工ヘッド13をX及びY方向へ移
動してテスト用ビード痕BMの位置がX=+3.0、Y
=−3.0(mm)(X−Y点)に位置するようにロボッ
ト9に指令が与えられる。そして、ロボットコントロー
ラ3のロボットステータスが取得され、「運転中」とい
う信号が落ちるまで繰り返して終了が確認され、通信ポ
ートが開放される(ステップS46〜S48)。
The laser processing head 13 is moved in the X and Y directions so that the position of the test bead mark BM is X = + 3.0, Y
= −3.0 (mm) (point X-Y) is given to the robot 9. Then, the robot status of the robot controller 3 is acquired, and the end is repeatedly confirmed until the signal of "operating" is dropped, and the communication port is opened (steps S46 to S48).

【0070】上記のX=+3.0、Y=−3.0(mm)
(X−Y点)のテスト用ビード痕BMの中心座標が図7
(C)に示されているようにCCDカメラ23で撮像さ
れ、この撮像されたビード痕BMがモニタ33上に表示
される。次いで、X−Y点のピクセル座標系のデータが
取得される。なお、図13のロータリアクチュエータ2
7が作動して回転ベンドミラー25がYAGレーザ光L
Bの同軸上から後退するよう回動される(ステップS4
9)。
X = + 3.0, Y = -3.0 (mm)
The center coordinates of the test bead mark BM at (XY point) are shown in FIG.
As shown in (C), an image is captured by the CCD camera 23, and the captured bead mark BM is displayed on the monitor 33. Next, pixel coordinate system data of the XY point is obtained. The rotary actuator 2 shown in FIG.
7 operates, and the rotating bend mirror 25 moves the YAG laser light L
B is rotated backward from the same axis (step S4).
9).

【0071】以上のように画像処理より得られた各3点
のデータが合成されて、図7(D)に示されているよう
にX−Y方向キャリブレーションデータが作成される
(ステップS50)。
The data of each of the three points obtained by the image processing as described above is combined, and XY direction calibration data is created as shown in FIG. 7D (step S50). .

【0072】なお、このX−Y方向キャリブレーション
データは、図7(E)に示されているようにモニタ33
上にビジョン座標系(ピクセル単位)で決定されている
ので、このピクセル座標はレーザ加工ヘッド13の実際
のツール座標とは単位系が異なることと、座標系の原点
及び角度が一致していないという理由で、ピクセル座標
(ビジョン座標)から図7(F)に示されているように
実際のツール座標へ変換される必要がある。
The XY direction calibration data is stored in the monitor 33 as shown in FIG.
Since the pixel coordinates are determined in the vision coordinate system (pixel unit) above, the pixel coordinates are different from the actual tool coordinates of the laser processing head 13 in the unit system, and the origin and angle of the coordinate system do not match. For this reason, it is necessary to convert from pixel coordinates (vision coordinates) to actual tool coordinates as shown in FIG.

【0073】以下、ピクセル座標(ビジョン座標)から
ツール座標への変換方法について詳しく説明する。
Hereinafter, a method of converting pixel coordinates (vision coordinates) to tool coordinates will be described in detail.

【0074】キャリブレーションデータによるピクセル
座標は、図8に示されているようにツール座標とは原点
位置・角度が異なるのである。図8における各記号は以
下に示す通りである。
The pixel coordinates based on the calibration data are different from the tool coordinates in the origin position and the angle as shown in FIG. Each symbol in FIG. 8 is as shown below.

【0075】なお、左肩の添字は座標系を表すもので、
P○はピクセル座標を表し、T○はツール座標を表す。
The suffix of the left shoulder indicates the coordinate system.
P represents pixel coordinates, and T represents tool coordinates.

【0076】 (0,0) :ピクセル座標原点 PPTORG :ピクセル座標からツール座標への原点並進移動ベクトル θ :ピクセル座標に対するツール座標の原点回転移動角度 (PxORG,PyORG):ピクセル座標系で表したツール座標原点 (PxX-X,PyX-X):ピクセル座標系で表したツール座標系X軸定義点 (PxX-Y,PyX-Y):ピクセル座標系で表したツール座標系Y軸定義点 PP :ピクセル座標系移動ベクトル TP :座標系移動ベクトル (Px1,Py1) :ピクセル座標系で表した移動終了点 (T1,T1) :ツール座標系で表した移動終了点 図9を参照するに、上記の定義をふまえて、ピクセル座
標系からツール座標系への単位の変換(倍率)について
説明する。
(0,0): Pixel coordinate origin P P TORG : Origin translation vector from pixel coordinate to tool coordinate θ: Rotation angle of origin of tool coordinate with respect to pixel coordinate ( P x ORG , P y ORG ): pixel Tool coordinate origin expressed in coordinate system ( P x XX , P y XX ): Tool coordinate system expressed in pixel coordinate system X axis definition point ( P x XY , P y XY ): Tool coordinate system expressed in pixel coordinate system Y-axis definition point P P: Pixel coordinate system movement vector T P: Coordinate system movement vector ( P x 1 , P y 1 ): Movement end point expressed in pixel coordinate system ( T X 1 , T Y 1 ): Tool coordinates Referring to FIG. 9, the conversion (magnification) of the unit from the pixel coordinate system to the tool coordinate system will be described based on the above definition.

【0077】単位の変換(倍率)を求めるには、ツール
座標原点(PxORG,PyORG)からツール座標系X軸定義点
PxX-X,PyX-X)迄のピクセル単位の距離とmm単位(ツ
ール座標の単位)の距離とを比較すれば良い。
To obtain the unit conversion (magnification), the distance in pixel units from the tool coordinate origin ( P x ORG , P y ORG ) to the tool coordinate system X axis definition point ( P x XX , P y XX ) What is necessary is just to compare with the distance in mm unit (unit of tool coordinates).

【0078】今回、mm単位の距離Lは図9に示されてい
るようにL=3 mmであるので、ピクセル単位に対するmm
単位の倍率αは、 α=3/{(PxX-X PxORG2+(PyX-X PyORG2
1/2 となる。
In this case, the distance L in mm unit is L = 3 mm as shown in FIG.
Magnification alpha of the unit, α = 3 / {(P x XX - P x ORG) 2 + (P y XX - P y ORG) 2}
1/2 .

【0079】例えば、図9に示されているような場合
は、 α=3/{(PxX-X PxORG2+(PyX-X PyORG21/2 =3/{(252− 246)2+(130−250)21/2 =3/{62+(−120)21/2 =3/(14436)1/2 =0.0249688mm/pixel となる。
[0079] For example, if as shown in FIG. 9, α = 3 / {(P x XX - P x ORG) 2 + (P y XX - P y ORG) 2} 1/2 = 3 / {(252− 246) 2 + (130−250) 21/2 = 3 / {62 2 + (− 120) 21/2 = 3 / (14436) 1/2 = 0.0249688 mm / pixel.

【0080】図10を参照するに、図8に示されている
定義をふまえて、ピクセル座標に対するツール座標の原
点回転移動角度(θ)について説明する。
Referring to FIG. 10, the origin rotation angle (θ) of tool coordinates with respect to pixel coordinates will be described based on the definition shown in FIG.

【0081】ツール座標はピクセル座標のX−Y軸に対
してZ軸まわりに回転している。回転角度は左廻り(C
CW)の時+となり、右廻り(CW)の時−となるの
で、回転角度はツール座標原点(PxORG,PyORG)とツー
ル座標系Y軸定義点(PxX-Y,PyX -Y)より算出できる。
The tool coordinates are rotated around the Z axis with respect to the XY axes of the pixel coordinates. The rotation angle is counterclockwise (C
Next + when CW), when the clockwise (CW) - and since the rotation angle of the tool coordinate origin (P x ORG, P y ORG ) and tool coordinate system Y-axis defining point (P x XY, P y X -Y ).

【0082】但し、ここでツール座標の原点回転移動角
度(θ)は−90°付近であるので、解が特定できない。
そこで、ピクセル座標のX軸とツール座標のY軸のなす
角度(θ0)より算出する。したがって、θ=θ0−90°
となる。
However, since the origin rotation angle (θ) of the tool coordinates is near −90 °, the solution cannot be specified.
Therefore, it is calculated from the angle (θ0) between the X axis of the pixel coordinates and the Y axis of the tool coordinates. Therefore, θ = θ0−90 °
Becomes

【0083】図8に示されている定義をふまえると、ta
nθ0=(PyX-Y PyORG)/(PxX-Y PxORG)が成立す
る。したがって、 θ0=tan-1{(PyX-Y PyORG)/(PxX-Y PxORG)} θ=tan-1{(PyX-Y PyORG)/(PxX-Y PxORG)}−90° となる。
Based on the definition shown in FIG.
nθ0 = (P y XY - P y ORG) / (P x XY - P x ORG) is satisfied. Accordingly, θ0 = tan -1 {(P y XY - P y ORG) / (P x XY - P x ORG)} θ = tan -1 {(P y XY - P y ORG) / (P x XY - P x ORG )} − 90 °.

【0084】例えば、図10に示されているような場合
は、 θ0=tan-1{(PyX-Y PyORG)/(PxX-Y PxORG)}−90° =tan-1{(256−250)/(366−246)}−90° =tan-1(0.05)−90° =2.8624°−90° =−87.13759° となる。
[0084] For example, if as shown in FIG. 10, θ0 = tan -1 {(P y XY - P y ORG) / (P x XY - P x ORG)} - 90 ° = tan -1 {(256−250) / (366−246)} − 90 ° = tan -1 (0.05) −90 ° = 2.8624 ° −90 ° = −87.13759 °

【0085】図11を参照するに、図8に示されている
定義をふまえて、ピクセル座標からツール座標への並進
移動と回転移動の変換について説明する。
Referring to FIG. 11, the conversion from the pixel coordinates to the tool coordinates for translation and rotation will be described based on the definition shown in FIG.

【0086】この変換式は、P P=P TTP+ PPTORG ………(1) で表される。[0086] The conversion equation is expressed by P P = P T R T P + P P TORG ......... (1).

【0087】ただし、PPはピクセル座標系移動ベクトル
で下記の行列で表される。
Here, P P is a pixel coordinate system movement vector and is represented by the following matrix.

【0088】[0088]

【数1】 P TRは回転行列で、下記の行列で表される。(Equation 1) The P T R with the rotation matrix is expressed by the following matrix.

【0089】(ピクセル座標からツール座標への回転演
算子)。
(Rotation operator from pixel coordinates to tool coordinates).

【0090】[0090]

【数2】 TPはツール座標系移動ベクトルで、下記の行列で表され
る。
(Equation 2) T P is a tool coordinate system movement vector and is represented by the following matrix.

【0091】[0091]

【数3】 前述した(1)式は4×4行列の演算子を定義し、4×1行列
の位置ベクトルを用いて表せる。
(Equation 3) Equation (1) above defines a 4 × 4 matrix operator and can be represented using a 4 × 1 matrix position vector.

【0092】[0092]

【数4】 前述した(2)式に各行列を代入すると(Equation 4) Substituting each matrix into the above equation (2) gives

【数5】 前述した(3)の行列式を解くと、下記のような連立方程
式となる。
(Equation 5) Solving the determinant of the above (3) results in the following simultaneous equations.

【0093】P x1TX1cosθ TY1sinθ+ PxORG………(4)P y1TX1sinθ+ TY1cosθ+ PyORG………(5) 前述した(4)式をTY1について解くと、 P x 1 = T X 1 cos θ - T Y 1 sinθ + P x ORG ......... (4) and solving for P y 1 = T X 1 sinθ + T Y 1 cosθ + P y ORG ......... (5) T Y 1 the above-mentioned (4),

【数6】 TY1sinθ TX1cosθ−Px1 PxORG TY1TX1cosθ/sinθ− Px1/sinθ+ PxORG /sinθ………(6) (6)式を(5)式に代入してTX1を解くと、[Equation 6] T Y 1 sinθ = T X 1 cosθ- P x 1 + P x ORG T Y 1 = T X 1 cosθ / sinθ- P x 1 / sinθ + P x ORG / sinθ ......... (6) to (6) (5) to Substituting and solving for T X 1 gives

【数7】Py1TX1sinθ+( TX1cosθ/sinθ−Px1/sin
θ+PxORG/ sinθ) cosθ+PyORGTX1sinθ+TX1cos2θ/sinθ− Px1cosθ/sinθ+Px
ORG cosθ/sinθ+ PyORGTX1( sinθ+cos2θ/sinθ)− Px1cosθ/sinθ+ P
xORG cosθ/sinθ+PyORGTX1{(sin2θ+cos2θ)/sinθ}− Px1cosθ/sinθ
PxORG cosθ/sinθ+PyORG ここでsin2θ+cos2θ=1より Py1TX1/sinθ− Px1cosθ/sinθ+PxORG cosθ/sinθ+PyORG TX1/sinθ=Px1cosθ/sinθ+ PxORG cosθ/sinθ+Py1PyORG TX1Px1cosθ− PxORG cosθ+Py1sinθ−PyORG sinθ………(7) (7)式を(5)式に代入してTY1を解くと
[Equation 7] P y 1 = T X 1 sinθ + (T X 1 cosθ / sinθ- P x 1 / sin
θ + P x ORG / sinθ) cosθ + P y ORG = T X 1 sinθ + T X 1 cos 2 θ / sinθ- P x 1 cosθ / sinθ + P x
ORG cosθ / sinθ + P y ORG = T X 1 (sinθ + cos 2 θ / sinθ) - P x 1 cosθ / sinθ + P
x ORG cosθ / sinθ + P y ORG = T X 1 {(sin 2 θ + cos 2 θ) / sinθ} - P x 1 cosθ / sinθ
+ P x ORG cosθ / sinθ + P y ORG here than sin 2 θ + cos 2 θ = 1 P y 1 = T X 1 / sinθ- P x 1 cosθ / sinθ + P x ORG cosθ / sinθ + P y ORG T X 1 / sinθ = P x 1 cosθ / sinθ + P x ORG cosθ / sinθ + P y 1 - P y ORG T X 1 = P x 1 cosθ- P x ORG cosθ + P y 1 sinθ- P y ORG sinθ ......... (7) (7 Substituting equation (5) into equation (5) and solving T Y 1

【数8】Py1=(Px1cosθ−PxORG cosθ+Py1sinθ−Py
ORG sinθ)sinθ+TY1cosθ+PyORGPx1cosθ sinθ− PxORG cosθ sinθ+Py1sin2θ−P
yORG sin2θ+TY1cosθ+PyORG T Y1cosθ=−Px1cosθ sinθ+ PxORG cosθ sinθ−Py
1sin2θ+PyORG sin2θ+Py1PyORG T Y1=−Px1sinθ+PxORG sinθ−Py1sin2θ/cosθ+Py
ORG sin2θ/cosθ+Py1 /cosθ−PyORG/cosθT Y1=−Px1sinθ+PxORG sinθ−Py1(sin2θ−1/cos
θ)+PyORG (sin2θ−1/cosθ) ここでsin2θ−1=−cos2θより TY1=−Px1sinθ+PxORG sinθ−Py1(−cos2θ/cosθ)+PyORG (−cos2θ/c osθ) =−Px1sinθ+PxORG sinθ+Py1cosθ−PyORG cosθ………(8) (7)式及び(8)式で求めた値は原点からの値の為、実際に
は原点までの値が必要な為、−1を乗算する。
[Equation 8] P y 1 = (P x 1 cosθ- P x ORG cosθ + P y 1 sinθ- P y
ORG sinθ) sinθ + T Y 1 cosθ + P y ORG = P x 1 cosθ sinθ- P x ORG cosθ sinθ + P y 1 sin 2 θ- P
y ORG sin 2 θ + T Y 1 cos θ + P y ORG T Y 1 cos θ = − P x 1 cos θ sin θ + P x ORG cos θ sin θ− P y
1 sin 2 θ + P y ORG sin 2 θ + P y 1P y ORG T Y 1 = − P x 1 sin θ + P x ORG sin θ − P y 1 sin 2 θ / cos θ + P y
ORG sin 2 θ / cosθ + P y 1 / cosθ- P y ORG / cosθ T Y 1 = - P x 1 sinθ + P x ORG sinθ- P y 1 (sin 2 θ-1 / cos
θ) + P y ORG (sin 2 θ−1 / cos θ) where sin 2 θ−1 = −cos 2 θ and T Y 1 = −P x 1 sin θ + P x ORG sin θ− P y 1 (−cos 2 θ / cosθ) + P y ORG ( -cos 2 θ / c osθ) = - P x 1 sinθ + P x ORG sinθ + P y 1 cosθ- P y ORG cosθ ......... (8) (7) and formula (8) Is multiplied by -1 because the value obtained from is the value from the origin and actually needs the value to the origin.

【0094】[0094]

【数9】 TX1=−(Px1cosθ− PxORG cosθ+Py1sinθ−PyORG sinθ) =−Px1cosθ+PxORG cosθ−Py1sinθ+PyORG sinθ………(9) TY1=−(−Px1sinθ+PxORG sinθ+Py1cosθ−PyORG cosθ) =Px1sinθ−PxORG sinθ−Py1cosθ+PyORG cosθ………(10) 例えば、図11に示されているような場合は、TX1はツ
ール座標系移動ベクトルTPのX成分で、TY1はツール座
標系移動ベクトルTPのY成分で、Px1はピクセル座標系
検出点のX成分でPx1=372、Py1はピクセル座標系検出
点のY成分でPy1=136、PxORGはピクセル座標系でのツ
ール座標系原点X成分でPxORG=246、PyORGはピクセル
座標系でのツール座標系原点Y成分でPyORG=250、θは
原点の回転移動角度でθ=−87.13759°、であるので、
前述した(9)式に代入するとT X1=−120.1499164 前述した(10)式に代入するとT Y1=−120.1498964 ここで求めたTX1TY1はピクセル単位である。
[Equation 9] T X 1 = - (P x 1 cosθ- P x ORG cosθ + P y 1 sinθ- P y ORG sinθ) = - P x 1 cosθ + P x ORG cosθ- P y 1 sinθ + P y ORG sinθ ...... ... (9) T Y 1 = - (- P x 1 sinθ + P x ORG sinθ + P y 1 cosθ- P y ORG cosθ) = P x 1 sinθ- P x ORG sinθ- P y 1 cosθ + P y ORG cosθ ...... ... (10) for example, if as shown in Figure 11, T X 1 is X component of the tool coordinate system moving vector T P, T Y 1 is a Y component of the tool coordinate system moving vector T P, P x 1 is the X component of the pixel coordinate system detection point, P x 1 = 372, P y 1 is the Y component of the pixel coordinate system detection point, P y 1 = 136, and P x ORG is the tool coordinate system in the pixel coordinate system. origin X P x ORG = 246 in component, P y ORG is P y ORG = 250 in the tool coordinate system origin Y component in the pixel coordinate system, the theta rotation movement angle θ = -87.13759 ° origin, is,
Is substituted into the above-mentioned (9) T X 1 = -120.1499164 are substituted into the above-mentioned (10) T Y 1 = -120.1498964 T X 1 obtained here, T Y 1 is pixels.

【0095】前述したように求めた単位の変換倍率αを
乗算すると α=0.0249688mm/pixelT X1=0.0249688×(−120.1499164) =−2.999999233mmT Y1=0.0249688×(−120.1498964) =−2.999998733mm 以上のことから、キャブレーションデータを取得した時
点で、ツール座標系原点(PxORGPyORG)と、ツール座
標系Y軸定義点(PxX-YPyX-Y)と、ツール座標系X軸
定義点(PxX-XPyX-X)との3つのデータより倍率αが
算出されるので、キャブレーション時に算出して固定で
きる。
When multiplied by the conversion magnification α of the unit obtained as described above, α = 0.0249688 mm / pixel T X 1 = 0.0249688 × (−120.1499164) = − 2.999999233 mm T Y 1 = 0.0249688 × (−120.1498964) = − 2.999998733 from the above mm, when obtaining the carburetion data, tool coordinate system origin (P x ORG, P y ORG ) and the tool coordinate system Y-axis defining point (P x XY, P y XY ) and tool coordinate Since the magnification α is calculated from three data with the system X axis definition point ( P x XX , P y XX ), it can be calculated and fixed at the time of carburetion.

【0096】また、キャブレーションデータを取得した
時点で、ツール座標系原点(PxORGPyORG)と、ツール
座標系Y軸定義点(PxX-YPyX-Y)と、ツール座標系X
軸定義点(PxX-XPyX-X)との3つのデータより原点回
転移動角度θが算出されるので、キャブレーション時に
算出して固定できる。
[0096] Further, when obtaining the carburetion data, tool coordinate system origin (P x ORG, P y ORG ) and the tool coordinate system Y-axis defining point (P x XY, P y XY ) and the tool coordinate system X
Since the origin rotation movement angle θ is calculated from three data with the axis definition points ( P x XX , P y XX ), it can be calculated and fixed at the time of carburetion.

【0097】また、各検出点を検出した時点で、ツール
座標系原点(PxORGPyORG)をキャブレーション後固定
し、ピクセル座標系検出点(Px1Py1)を検出前に変動
し、原点回転移動角度θをキャブレーション後固定し、
倍率αをキャブレーション後固定して、上記4つのデー
タよりツール座標系移動ベクトルTP(TX1TY1)が算出
される。
[0097] Further, upon detecting the respective detection points, the tool coordinate system origin (P x ORG, P y ORG ) were fixed after carburetion, pixel coordinate system detection point (P x 1, P y 1 ) detected Fluctuates before, the origin rotation movement angle θ is fixed after carburetion,
The magnification α is fixed after carburetion, and the tool coordinate system movement vector T P ( T X 1 , T Y 1 ) is calculated from the above four data.

【0098】以上のことから、実際にはレーザ加工ヘッ
ド13をティーチングポイントに移動した後、以下のよ
うに処理される。
From the above, after the laser processing head 13 is actually moved to the teaching point, the processing is performed as follows.

【0099】スリット光SBの位置により座標中心への
Z方向補正量が±で自動的に算出され、Z方向補正量の
分のみレーザ加工ヘッド13が上下動されて移動される
ので、レーザ加工ヘッド13はYAGレーザ光LBの最
適焦点高さの位置となる。
The amount of correction in the Z direction to the coordinate center is automatically calculated as ± based on the position of the slit light SB, and the laser processing head 13 is moved up and down by the amount of Z direction correction. Reference numeral 13 denotes a position of the optimum focal height of the YAG laser beam LB.

【0100】さらに、溶接線を見つけ出して、座標中心
へのX−Y方向補正量を上述した計算式で自動的に算出
され、X−Y方向補正量の分のみレーザ加工ヘッド13
が前後左右方向(X−Y方向)に移動されるので、溶接
線とYAGレーザ光LBの中心が一致する。
Further, the welding line is found, and the amount of correction in the XY direction to the coordinate center is automatically calculated by the above-described formula.
Is moved in the front-rear and left-right directions (X-Y directions), so that the welding line coincides with the center of the YAG laser beam LB.

【0101】上記の工程は全自動で実施され、YAGレ
ーザ光LBの焦点位置がワークWの溶接線に位置決めす
るためのX軸、Y軸、Z軸の三次元方向のティーチング
工程が簡単に行われる。
The above process is fully automatic, and the teaching process in the three-dimensional directions of the X, Y, and Z axes for positioning the focal position of the YAG laser beam LB on the welding line of the workpiece W is easily performed. Will be

【0102】なお、この発明は前述した実施の形態に限
定されることなく、適宜な変更を行うことによりその他
の態様で実施し得るものである。
The present invention is not limited to the above-described embodiment, but can be embodied in other forms by making appropriate changes.

【0103】[0103]

【発明の効果】以上のごとき発明の実施の形態の説明か
ら理解されるように、請求項1の発明によれば、通常二
次元データしか得られない撮像手段を用いてレーザ加工
ヘッドのノズル高さ方向のデータをビジョン座標として
取得できるので、YAGレーザ光の焦点位置を容易にワ
ークの例えば溶接線に位置決めしてティーチングでき
る。さらに、前後左右方向のワークの例えば溶接線の位
置決めデータは撮像手段を用いてビジョン座標として取
得してティーチングできる。したがって、上記の高さ方
向並びに前後左右方向のビジョン座標と実際の座標に一
致させるキャリブレーションを全自動で実施して変換デ
ータを作成できるので、三次元方向のティーチングを簡
単にまた正確に行うことができる。
As will be understood from the above description of the embodiments of the present invention, according to the first aspect of the present invention, the nozzle height of the laser processing head can be increased by using the imaging means which can normally obtain only two-dimensional data. Since the data in the vertical direction can be acquired as the vision coordinates, the focus position of the YAG laser beam can be easily positioned on, for example, a welding line of the work, and teaching can be performed. Further, the positioning data of, for example, a welding line of the work in the front-rear and left-right directions can be acquired as teaching coordinates using an image pickup means and teaching can be performed. Therefore, it is possible to automatically perform calibration to match the above-described height direction and the vision coordinates in the front, rear, left, and right directions with the actual coordinates to create conversion data, so that three-dimensional teaching can be performed easily and accurately. Can be.

【0104】請求項2の発明によれば、ティーチングポ
イントにYAGレーザ光を照射してレーザ痕等の照射位
置を形成することにより、前後左右方向の二次元の位置
決めを容易にまた正確に行うことができる。
According to the second aspect of the present invention, the teaching point is irradiated with a YAG laser beam to form an irradiation position such as a laser mark, so that two-dimensional positioning in the front-rear, left-right direction can be performed easily and accurately. Can be.

【0105】請求項3の発明によれば、請求項1記載の
効果と同様であり、通常二次元データしか得られない撮
像手段を用いてレーザ加工ヘッドのノズル高さ方向のデ
ータをビジョン座標として取得できるので、YAGレー
ザ光の焦点位置を容易にワークの例えば溶接線に位置決
めしてティーチングできる。さらに、前後左右方向のワ
ークの例えば溶接線の位置決めデータは撮像手段を用い
てビジョン座標として取得してティーチングできる。し
たがって、上記の高さ方向並びに前後左右方向のビジョ
ン座標と実際の座標に一致させるキャリブレーションを
全自動で実施して変換データを作成できるので、三次元
方向のティーチングを簡単にまた正確に行うことができ
る。
According to the third aspect of the present invention, the effect is the same as that of the first aspect, and the data in the direction of the nozzle height of the laser processing head is used as the vision coordinates by using the imaging means that can normally obtain only two-dimensional data. Since it can be acquired, teaching can be easily performed by positioning the focal position of the YAG laser beam at, for example, a welding line of the work. Further, the positioning data of, for example, a welding line of the work in the front-rear and left-right directions can be acquired as teaching coordinates using an image pickup means and teaching can be performed. Therefore, it is possible to automatically perform calibration to match the above-described height direction and the vision coordinates in the front, rear, left, and right directions with the actual coordinates to create conversion data, so that three-dimensional teaching can be performed easily and accurately. Can be.

【0106】請求項4の発明によれば、請求項2記載の
効果と同様であり、ティーチングポイントにYAGレー
ザ光を照射してレーザ痕等の照射位置を形成することに
より、前後左右方向の二次元の位置決めを容易にまた正
確に行うことができる。
According to the fourth aspect of the present invention, the same effect as in the second aspect is achieved. By irradiating a teaching point with a YAG laser beam to form an irradiation position of a laser mark or the like, two points in the front-rear and left-right directions can be obtained. Dimensional positioning can be performed easily and accurately.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態を示すもので、Z軸キャリ
ブレーション通信のフローチャートである。
FIG. 1, showing an embodiment of the present invention, is a flowchart of Z-axis calibration communication.

【図2】(A)〜(Z4)は、Z軸キャリブレーション
の画像データを示す画像模式図である。
FIGS. 2A to 2Z are schematic diagrams showing image data of Z-axis calibration. FIGS.

【図3】本発明の実施の形態を示すもので、Z軸移動量
Zとピクセル座標値Yとの関係を表すグラフである。
FIG. 3 is a graph showing an embodiment of the present invention and showing a relationship between a Z-axis movement amount Z and a pixel coordinate value Y;

【図4】本発明の実施の形態を示すもので、Z軸移動量
Zとピクセル座標値Yとのデータ表である。
FIG. 4 shows an embodiment of the present invention, and is a data table of a Z-axis movement amount Z and a pixel coordinate value Y.

【図5】本発明の実施の形態を示すもので、X−Y軸キ
ャリブレーション通信のフローチャートである。
FIG. 5 shows an embodiment of the present invention and is a flowchart of XY axis calibration communication.

【図6】図5の続きのフローチャートである。FIG. 6 is a flowchart continued from FIG. 5;

【図7】本発明の実施の形態を示すもので、モニタ上に
表示されたX−Y軸キャリブレーションデータをビジョ
ン座標からツール座標に変換するための説明図である。
FIG. 7 illustrates an embodiment of the present invention, and is an explanatory diagram for converting XY axis calibration data displayed on a monitor from vision coordinates to tool coordinates.

【図8】本発明の実施の形態を示すもので、ピクセル座
標からツール座標への変換方法の説明図である。
FIG. 8 illustrates an embodiment of the present invention, and is an explanatory diagram of a method of converting pixel coordinates to tool coordinates.

【図9】本発明の実施の形態を示すもので、ピクセル座
標からツール座標への単位の変換方法の説明図である。
FIG. 9 illustrates an embodiment of the present invention, and is an explanatory diagram of a method of converting units from pixel coordinates to tool coordinates.

【図10】本発明の実施の形態を示すもので、ピクセル
座標に対するツール座標の原点回転移動角度の説明図で
ある。
FIG. 10 illustrates an embodiment of the present invention, and is an explanatory diagram of an origin rotation movement angle of tool coordinates with respect to pixel coordinates.

【図11】本発明の実施の形態を示すもので、ピクセル
座標からツール座標への並進移動と回転移動の変換方法
の説明図である。
FIG. 11 shows an embodiment of the present invention, and is an explanatory diagram of a method of converting translation and rotation from pixel coordinates to tool coordinates.

【図12】本発明の実施の形態に係わるYAGレーザ加
工機の全体図である。
FIG. 12 is an overall view of a YAG laser processing machine according to an embodiment of the present invention.

【図13】本発明の実施の形態を示すもので、レーザ加
工ヘッドの斜視図である。
FIG. 13 shows an embodiment of the present invention, and is a perspective view of a laser processing head.

【符号の説明】[Explanation of symbols]

1 YAGレーザ加工機 3 ロボットコントローラ(制御装置) 5 レーザ発振器 9 ロボット(レーザ自動加工機) 13 レーザ加工ヘッド 23 CCDカメラ(撮像手段) 31 画像処理装置(画像処理システム) 33 モニタ(表示器) 37 半導体レーザヘッド(測定光源用ヘッド) LB YAGレーザ光 SB スリット光 BM ビード痕 CT クロスターゲット REFERENCE SIGNS LIST 1 YAG laser processing machine 3 robot controller (control device) 5 laser oscillator 9 robot (laser automatic processing machine) 13 laser processing head 23 CCD camera (imaging means) 31 image processing device (image processing system) 33 monitor (display) 37 Semiconductor laser head (measurement light source head) LB YAG laser light SB slit light BM Bead mark CT Cross target

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 4E068 CA06 CA09 CA10 CA11 CB02 CB04 CB09 CC02 CD15 CE02 CE06 CE08 5H269 AB11 AB12 AB33 BB03 BB09 CC09 DD05 FF02 FF05 GG08 JJ09 JJ20 KK03 NN18 SA08 SA12 SA29 9A001 BB02 BB03 BB04 BB06 EE02 GG04 HH05 HH19 HH24 HH29 HH34 JJ49 KK37 KK54 KZ16 KZ32  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 4E068 CA06 CA09 CA10 CA11 CB02 CB04 CB09 CC02 CD15 CE02 CE06 CE08 5H269 AB11 AB12 AB33 BB03 BB09 CC09 DD05 FF02 FF05 GG08 JJ09 JJ20 KK03 NN18 SA08 SA12 SA29 9A001 BB02 BB02BB03 HH05 HH19 HH24 HH29 HH34 JJ49 KK37 KK54 KZ16 KZ32

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 レーザ発振器で発振したYAGレーザ光
を光ファイバを経てレーザ加工ヘッド内に備えた集光レ
ンズからワークに照射して三次元レーザ加工を行うに先
だって行われるYAGレーザ加工機のティーチング方法
において、 レーザ加工ヘッドの外部の測定光源用ヘッドから測定光
をワークに照射し、このワーク上の測定光の反射光を撮
像手段にて撮像して表示器に表示すると共にこの表示さ
れた反射光の高さ方向ビジョン座標と実際のYAGレー
ザ光の焦点位置との高さ方向キャリブレーションを行う
べく自動的に検出・蓄積・データ処理を行い、 ワーク上のティーチングポイントを前記撮像手段にて撮
像して表示器に表示すると共にこの表示されたティーチ
ングポイントの前後左右方向ビジョン座標と実際のYA
Gレーザ光軸との前後左右方向キャリブレーションを行
うべく自動的に検出・蓄積・データ処理を行い、 上記の高さ方向キャリブレーションデータと前後左右方
向キャリブレーションデータにより、表示器画面上にお
けるビジョン座標からレーザ加工ヘッドにおける実際の
ツール座標へ自動的に変換することを特徴とするYAG
レーザ加工機のティーチング方法。
1. A teaching of a YAG laser processing machine performed prior to performing a three-dimensional laser processing by irradiating a work with a YAG laser beam oscillated by a laser oscillator through an optical fiber from a condenser lens provided in a laser processing head. In the method, the work is irradiated with measuring light from a measuring light source head external to the laser processing head, reflected light of the measuring light on the work is imaged by an imaging means, displayed on a display, and the displayed reflected light is displayed. Automatically detects, accumulates, and processes data in the height direction to calibrate the height direction vision coordinates and the actual focus position of the YAG laser light, and captures the teaching point on the work with the imaging means. And the display coordinates of the displayed teaching point in the front-rear and left-right directions and the actual YA
Automatically performs detection, accumulation, and data processing to perform front-rear and left-right calibration with the G laser optical axis. Vision coordinates on the display screen are obtained using the height calibration data and the front-rear and left-right calibration data. Characterized in that YAG automatically converts the coordinates into actual tool coordinates in a laser processing head
Teaching method of laser processing machine.
【請求項2】 前記ティーチングポイントが、YAGレ
ーザ光を照射して得た照射位置であることを特徴とする
請求項1記載のYAGレーザ加工機のティーチング方
法。
2. A teaching method for a YAG laser processing machine according to claim 1, wherein the teaching point is an irradiation position obtained by irradiating a YAG laser beam.
【請求項3】 レーザ発振器で発振したYAGレーザ光
を光ファイバを経てレーザ加工ヘッド内に備えた集光レ
ンズからワークに照射して三次元レーザ加工を行うに先
だって行われるYAGレーザ加工機のティーチング装置
において、 ワークに測定光を照射する測定光源用ヘッドをレーザ加
工ヘッドの外部に設け、 ワーク上の測定光の反射光を撮像する撮像手段を設ける
と共にこの撮像手段にて撮像した画像を表示する表示器
を設け、 この表示された反射光のビジョン座標と実際のYAGレ
ーザ光の焦点位置との高さ方向キャリブレーションを行
うべく自動的に検出・蓄積・データ処理を行うと共にワ
ーク上のティーチングポイントを前記撮像手段にて撮像
して表示されたティーチングポイントのビジョン座標と
実際のYAGレーザ光軸との前後左右方向キャリブレー
ションを自動的に行うべく検出・蓄積・データ処理を行
い、上記の高さ方向キャリブレーションデータと前後左
右方向キャリブレーションデータにより、表示器画面上
におけるビジョン座標からレーザ加工ヘッドにおける実
際のツール座標へ自動的に変換する制御装置を設けてな
ることを特徴とするYAGレーザ加工機のティーチング
装置。
3. A teaching of a YAG laser processing machine which is performed prior to performing a three-dimensional laser processing by irradiating a work with a YAG laser beam oscillated by a laser oscillator through an optical fiber from a condenser lens provided in a laser processing head. In the apparatus, a measuring light source head for irradiating the work with the measuring light is provided outside the laser processing head, and an imaging means for imaging the reflected light of the measuring light on the work is provided, and an image taken by the imaging means is displayed. A display is provided to automatically detect, accumulate and process data in order to calibrate height coordinates between the displayed vision coordinates of the reflected light and the actual focal position of the YAG laser light, and to provide a teaching point on the work. Between the vision coordinates of the teaching point imaged and displayed by the imaging means and the actual YAG laser optical axis. Performs detection, accumulation, and data processing to automatically perform front-rear, left-right calibration, and uses the height calibration data and front-rear, left-right calibration data to calculate the actual coordinates of the laser processing head from the vision coordinates on the display screen. A teaching device for a YAG laser beam machine, comprising a control device for automatically converting the tool coordinates into the tool coordinates.
【請求項4】 前記ティーチングポイントが、YAGレ
ーザ光を照射して得た照射位置であることを特徴とする
請求項3記載のYAGレーザ加工機のティーチング装
置。
4. The teaching device for a YAG laser processing machine according to claim 3, wherein the teaching point is an irradiation position obtained by irradiating a YAG laser beam.
JP11076214A 1999-03-19 1999-03-19 Teaching method and its device for yag laser beam machine Pending JP2000263273A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11076214A JP2000263273A (en) 1999-03-19 1999-03-19 Teaching method and its device for yag laser beam machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11076214A JP2000263273A (en) 1999-03-19 1999-03-19 Teaching method and its device for yag laser beam machine

Publications (1)

Publication Number Publication Date
JP2000263273A true JP2000263273A (en) 2000-09-26

Family

ID=13598935

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11076214A Pending JP2000263273A (en) 1999-03-19 1999-03-19 Teaching method and its device for yag laser beam machine

Country Status (1)

Country Link
JP (1) JP2000263273A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005262311A (en) * 2004-03-22 2005-09-29 Fine Device:Kk Laser beam machining device and laser beam machining method
JP2006187803A (en) * 2004-12-10 2006-07-20 Yaskawa Electric Corp Robot system
WO2008001808A1 (en) * 2006-06-30 2008-01-03 O.M.C Co., Ltd. Laser machining apparatus
JP2009022970A (en) * 2007-07-18 2009-02-05 Honda Motor Co Ltd Laser beam machining method
JP2009509789A (en) * 2005-10-06 2009-03-12 クーカ・ロボター・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング How to determine the virtual tool center point
US8168919B2 (en) * 2006-08-14 2012-05-01 Nissan Motor Co., Ltd. Laser working apparatus and method of controlling laser working apparatus
WO2014038395A1 (en) * 2012-09-04 2014-03-13 株式会社 アマダ Laser processing head
CN108122257A (en) * 2016-11-28 2018-06-05 沈阳新松机器人自动化股份有限公司 A kind of Robotic Hand-Eye Calibration method and device
CN111085775A (en) * 2018-10-24 2020-05-01 发那科株式会社 Calibration method of laser processing robot
CN114978301A (en) * 2022-03-28 2022-08-30 昂纳信息技术(深圳)有限公司 Optical test system, calibration method thereof and calibration piece

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005262311A (en) * 2004-03-22 2005-09-29 Fine Device:Kk Laser beam machining device and laser beam machining method
JP2006187803A (en) * 2004-12-10 2006-07-20 Yaskawa Electric Corp Robot system
JP4926180B2 (en) * 2005-10-06 2012-05-09 クーカ・ロボター・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング How to determine the virtual tool center point
JP2009509789A (en) * 2005-10-06 2009-03-12 クーカ・ロボター・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング How to determine the virtual tool center point
WO2008001808A1 (en) * 2006-06-30 2008-01-03 O.M.C Co., Ltd. Laser machining apparatus
JP4852098B2 (en) * 2006-06-30 2012-01-11 オー・エム・シー株式会社 Laser processing equipment
US8168919B2 (en) * 2006-08-14 2012-05-01 Nissan Motor Co., Ltd. Laser working apparatus and method of controlling laser working apparatus
JP2009022970A (en) * 2007-07-18 2009-02-05 Honda Motor Co Ltd Laser beam machining method
WO2014038395A1 (en) * 2012-09-04 2014-03-13 株式会社 アマダ Laser processing head
JP2014046361A (en) * 2012-09-04 2014-03-17 Amada Co Ltd Laser processing head
CN108122257A (en) * 2016-11-28 2018-06-05 沈阳新松机器人自动化股份有限公司 A kind of Robotic Hand-Eye Calibration method and device
CN108122257B (en) * 2016-11-28 2021-11-30 沈阳新松机器人自动化股份有限公司 Robot hand-eye calibration method and device
CN111085775A (en) * 2018-10-24 2020-05-01 发那科株式会社 Calibration method of laser processing robot
CN114978301A (en) * 2022-03-28 2022-08-30 昂纳信息技术(深圳)有限公司 Optical test system, calibration method thereof and calibration piece
CN114978301B (en) * 2022-03-28 2023-09-12 昂纳科技(深圳)集团股份有限公司 Optical test system, calibration method thereof and calibration piece

Similar Documents

Publication Publication Date Title
CN108406091B (en) Laser processing head and laser processing system with imaging device
JP3612068B2 (en) Coordinate measurement method for workpiece
JP3967518B2 (en) Offset measurement method, tool position detection method, and bonding apparatus
US10107618B2 (en) Coordinate measuring machine
KR100817349B1 (en) Display method for laser irradiation state and display system of laser irradiation state
JP5385356B2 (en) Laser processing machine
JP2018058142A (en) Robot system equipped with robot supported by movable truck
JP2024009106A (en) Device and method for acquiring deviation amount of work position of tool
JP6869159B2 (en) Robot system
JP3678915B2 (en) Non-contact 3D measuring device
JP6900290B2 (en) Robot system
JP2000042775A (en) Laser beam machining method and its device
JP2000317660A (en) Method and device for removing burr by using laser beam
JP2000263273A (en) Teaching method and its device for yag laser beam machine
CN109862989B (en) Image-based technique selection during laser welding
JP4375710B2 (en) Three-dimensional shape measuring apparatus and three-dimensional shape measuring method
JP2000326082A (en) Laser beam machine
JP4280338B2 (en) Teaching method and apparatus for YAG laser processing machine
JP2004163346A (en) Noncontact three-dimensional shape measuring device
JP4469436B2 (en) Teaching method and apparatus for YAG laser processing machine
JP2007248473A (en) Bonding device
JPH11147187A (en) Method and device for yag laser machining
JPH03193270A (en) Device and method for detecting welding position
JP7242856B2 (en) Robot control system and robot control method
JP7349542B1 (en) Welding robot system, welding method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090424

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090818