JP2519442B2 - Work line tracking method - Google Patents

Work line tracking method

Info

Publication number
JP2519442B2
JP2519442B2 JP62011134A JP1113487A JP2519442B2 JP 2519442 B2 JP2519442 B2 JP 2519442B2 JP 62011134 A JP62011134 A JP 62011134A JP 1113487 A JP1113487 A JP 1113487A JP 2519442 B2 JP2519442 B2 JP 2519442B2
Authority
JP
Japan
Prior art keywords
image
line
light
level
work
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP62011134A
Other languages
Japanese (ja)
Other versions
JPS63180448A (en
Inventor
正和 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shinmaywa Industries Ltd
Original Assignee
Shin Meiva Industry Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shin Meiva Industry Ltd filed Critical Shin Meiva Industry Ltd
Priority to JP62011134A priority Critical patent/JP2519442B2/en
Publication of JPS63180448A publication Critical patent/JPS63180448A/en
Application granted granted Critical
Publication of JP2519442B2 publication Critical patent/JP2519442B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Machine Tool Copy Controls (AREA)
  • Laser Beam Processing (AREA)

Description

【発明の詳細な説明】 (産業上の利用分野) この発明は、被工作物の表面に付された工作線に追従
して、所定の工作機器(たとえば産業用ロボット)を動
作させるための工作線追従方法に関する。
DETAILED DESCRIPTION OF THE INVENTION (Industrial field of application) The present invention relates to a work for operating a predetermined machine tool (for example, an industrial robot) by following a work line attached to the surface of a workpiece. Regarding the line tracking method.

(従来の技術とその問題点) プレス成形された板金などのような複雑な立体形状を
有するワークを切断して所望の形状とすることのできる
切断ロボットとしては、本件出願人によって出願され、
特開昭57-96791号公報において開示されたプラズマ切断
ロボットなど、種々のものが既に提案されて実用化され
ている。そして、このようなロボットにおいては、切断
線などの加工線を、あらかじめマニュアルでワークやテ
ィーチングモデル上に罫書きしておき、この罫書線に沿
ってティーチングを行なう必要がある。
(Prior art and its problems) As a cutting robot capable of cutting a workpiece having a complicated three-dimensional shape such as a press-formed sheet metal into a desired shape, the present applicant has filed an application,
Various types such as the plasma cutting robot disclosed in JP-A-57-96791 have already been proposed and put into practical use. Then, in such a robot, it is necessary to manually mark the machining line such as the cutting line on the work or the teaching model in advance and perform the teaching along the marking line.

このような加工線に沿って自動的にティーチングを行
なう方法としては、たとえば特開昭61-100808号公報に
開示されているような方法がある。この方法では、第11
図に模式図として示すように、ロボットのエンドエフェ
クタ近傍に3個以上のスポット光源101〜103を設け、こ
れらのスポット光源101〜103からワークWの表面に照射
された光スポットP1〜P3の画像をTVカメラ104でとらえ
る。そして、CRT(図示せず)の画面上における光スポ
ットP1〜P3の位置関係に基づいてロボットとワークWと
の空間的相対関係を求め、それに応じてロボットの姿勢
などを調整する。さらに、この状態で罫書線Cの画像を
とらえ、この罫書線Cの位置に追従してロボットを移動
させるとともに、ティーチングデータの取込みを行なっ
ている。
As a method for automatically teaching along such a processing line, there is a method disclosed in, for example, JP-A-61-100808. In this way, the eleventh
As shown in the figure as a schematic diagram, three or more spot light sources 101 to 103 are provided in the vicinity of the end effector of the robot, and light spots P 1 to P 3 emitted from these spot light sources 101 to 103 on the surface of the work W are provided. Image with the TV camera 104. Then, the spatial relative relationship between the robot and the work W is obtained based on the positional relationship of the light spots P 1 to P 3 on the screen of the CRT (not shown), and the posture of the robot is adjusted accordingly. Further, in this state, the image of the marking line C is captured, the robot is moved following the position of the marking line C, and the teaching data is taken in.

このため、この方法では、3個以上のスポット光と、
罫書線Cの画像を照し出すためにワーク表面上にある程
度の範囲を一度に照明する照明光(図示せず)との、2
種類の光をワーク表面上に照射している。ところが、第
12図に示すように光スポット(たとえばP1)が罫書線C
上に存在する場合には、罫書線Cの像とスポット光P1
像とが重なってしまう。このため、これらの2種類の像
を区別することが困難となり、その結果、追従動作の精
度に限界が生ずるという問題があった。これに対して
は、上記2種類の光の強度を異なったものとし、多値画
像処理を行なえば対処可能であるが、多値画像処理装置
は、高価であるという欠点がある。
Therefore, in this method, three or more spot lights,
An illumination light (not shown) that illuminates a certain area on the surface of the work piece at a time in order to illuminate the image of the marking line C;
Different kinds of light are projected onto the surface of the work. However,
As shown in Fig. 12, the light spot (for example, P 1 ) is the scribe line C.
If it exists above, the image of the ruled line C and the image of the spot light P 1 will overlap. Therefore, it is difficult to distinguish these two types of images, and as a result, there is a problem in that the accuracy of the tracking operation is limited. This can be dealt with by making the above two types of light different in intensity and performing multi-valued image processing, but the multi-valued image processing device has a drawback that it is expensive.

そして、このような問題は、ロボットのティーチング
時に限らず、光学的手段を用いて工作機器を加工線に追
従動作させる場合に共通の問題となっている。
Such a problem is common not only when teaching the robot, but also when the machine tool is made to follow the machining line using the optical means.

(発明の目的) この発明は従来技術における上述の問題の克服を意図
しており、多値画像処理装置のような高価な装置を用い
ることなく、スポット光のようなパターン光の像と加工
線の像とを明確に区別でき、それによって大幅なコスト
アップを招くことなく追従精度を向上させることのでき
る加工線追従方法を提供することを目的とする。
(Object of the Invention) The present invention is intended to overcome the above-mentioned problems in the prior art, and an image of a pattern light such as a spot light and a processed line can be obtained without using an expensive device such as a multi-valued image processing device. It is an object of the present invention to provide a machining line tracking method capable of clearly distinguishing from the image of No. 1 and improving tracking accuracy without significantly increasing cost.

(目的を達成するための手段) 上述の目的を達成するため、この発明は、所定の工
作機器に取付けられたパターン光照射手段から所定のパ
ターン光を前記被工作物の表面へ照射した状態で前記表
面の画像データを取込み、前記画像データのレベルと第
1のしきい値とを比較して前記表面における前記パター
ン光の像の位置を求め、前記パターン光の像の位置に基
づいて前記工作機器と前記被工作物の表面との空間的関
係を調整する第1のステップと、前記被工作物の表面
に付された工作線の像を照し出す所定の照明光を前記表
面へと照射した状態で前記表面の画像データを取込み、
前記画像データのレベルと第2のしきい値とを比較して
前記工作線の像の位置を検出する第2のステップと、
前記工作線が延びる方向に沿って前記工作機器と前記被
工作物との空間的関係を変化させる第3のステップとを
含み、前記第1ないし第3のステップを繰返すことによ
って、前記工作線に追従して前記工作機器を動作させる
工作線追従方法を対象として、(a)前記パターン光の
強度を前記照明光の強度よりも大きなものとし、(b)
前記第1のしきい値を前記パターン光の像の画像レベル
と前記加工線の像の画像レベルとの間のレベルに設定し
ておくとともに、前記第2のしきい値を前記加工線の像
の画像レベルよりも低いレベルに設定しておき、(c)
前記第2のステップにおいて前記表面の画像データを取
込む際には、前記パターン光の照射を停止しておく。
(Means for Achieving the Object) In order to achieve the above-mentioned object, the present invention provides a method in which a predetermined pattern light is applied to the surface of the workpiece from a pattern light irradiation means attached to a predetermined machine tool. Image data of the surface is taken in, the level of the image data is compared with a first threshold value to obtain the position of the image of the pattern light on the surface, and the machining is performed based on the position of the image of the pattern light. A first step of adjusting a spatial relationship between a device and a surface of the workpiece, and irradiating the surface with predetermined illumination light for illuminating an image of a working line attached to the surface of the workpiece. Capture the image data of the surface in the state of
A second step of comparing the level of the image data with a second threshold value to detect the position of the image of the working line;
A third step of changing the spatial relationship between the machine tool and the workpiece along the direction in which the work line extends, and repeating the first to third steps to obtain the work line. (A) The intensity of the pattern light is set to be greater than the intensity of the illumination light, and (b) is intended for a work line tracking method of following the operation of the machine tool.
The first threshold value is set to a level between the image level of the image of the pattern light and the image level of the image of the processing line, and the second threshold value is set to the image of the processing line. Set to a level lower than the image level of (c)
When capturing the image data of the surface in the second step, the irradiation of the pattern light is stopped.

なお、この発明における「被工作物」とは、製品その
ものに限らず、ロボットのティーチングモデル等、被工
作対象を表現したダミーその他をも含む用語である。
The “workpiece” in the present invention is not limited to the product itself, but is a term that includes a dummy or the like representing a work target such as a teaching model of a robot.

また、工作機器の動作は、ティーチングのようなデー
タ取込みのための動作のほか、実際の加工動作そのもの
や、マニュアルによって移動させる動作など、種々の動
作であってもよい。
Further, the operation of the machine tool may be various operations such as an actual machining operation itself or an operation of manually moving, in addition to an operation for fetching data such as teaching.

(実施例) A.実施例の機構的構成の概要 第1図は、この発明を適用して罫書線(工作線)追従
を行なわせる工作機器の一例としての、直角座標型レー
ザ切断ロボットの機械的構成を示す概略斜視図である。
同図において、このレーザ切断ロボットRBは、基台1の
上に、図示しないモータM1によってX方向(水平方向)
に移動自在な移動台2を有しており、この移動台2の上
にワーク(図示せず)を載置する。基台1の両側方に垂
直に立設されたコラム3の頂部にはビーム4が架設さ
れ、このビーム4には、図のZ方向(垂直方向)に延び
るとともに、モータM2によってY方向に移動自在な移動
コラム5が設けられている。この移動コラム5には、後
述する2種類の光源を内蔵した光源装置14が取付けられ
ている。
(Embodiment) A. Outline of mechanical structure of embodiment FIG. 1 shows a machine of a Cartesian laser cutting robot as an example of a machine tool to which the present invention is applied to follow a marking line (working line). It is a schematic perspective view which shows a dynamic structure.
In the figure, the laser cutting robot RB is mounted on a base 1 by a motor M 1 (not shown) in the X direction (horizontal direction).
1 has a movable base 2 which is movable, and a work (not shown) is placed on the movable base 2. A beam 4 is erected on the top of a column 3 which is erected vertically on both sides of the base 1, and the beam 4 extends in the Z direction (vertical direction) in the drawing and is moved in the Y direction by a motor M 2 . A movable column 5 that is movable is provided. A light source device 14 incorporating two types of light sources, which will be described later, is attached to the moving column 5.

また、この移動コラム5の下端には、モータM3によっ
てZ方向に上下するモータM4が設けられている。これに
よって、移動コラム5の中心軸から偏心した位置に設け
られているアーム6が図のθ方向に回転する。また、こ
のアーム6の下端側方にはモータM5が設けられており、
これによってエンドエフェクタとしてのレーザトーチT
が図のψ方向に回動する。さらに、このレーザトーチT
に隣接して、光学的な罫書線追従のためのセンサヘッド
SH(後述する)が配置されている。
Further, a motor M 4 which moves up and down in the Z direction by the motor M 3 is provided at the lower end of the moving column 5. Accordingly, the arm 6 provided at a position eccentric from the center axis of the moving column 5 rotates in the θ direction in the drawing. Further, a motor M 5 is provided on the lower side of the arm 6,
This allows the laser torch T as an end effector.
Rotates in the ψ direction in the figure. Furthermore, this laser torch T
Adjacent to the sensor head for optical marking line tracking
SH (described later) is placed.

このうち、レーザトーチTには、レーザ発振装置7か
らのレーザビームがレーザガイドパイプ8を通して与え
られる。また、制御装置9には、後述する画像処理装置
やマイクロコンピュータなどが内蔵されており、操作盤
10には、キーボードやディスプレイ等が設けられてい
る。さらに、外部コンピュータ11は種々のデータの入出
力やデータ処理を行なうためのものであり、CRT12やキ
ーボード13などを備えている。そして、上記センサヘッ
ドSHからの画像は、このCRT12においてモニタされる。
Among these, the laser beam from the laser oscillator 7 is applied to the laser torch T through the laser guide pipe 8. Further, the control device 9 has an image processing device, a microcomputer, and the like, which will be described later, built therein.
The 10 is provided with a keyboard and a display. Further, the external computer 11 is for performing input / output of various data and data processing, and includes a CRT 12, a keyboard 13, and the like. Then, the image from the sensor head SH is monitored on the CRT 12.

B.実施例の電気的構成の概略 第2図は、第1図に示したロボットRBの電気的構成の
概略図である。第2図において、制御装置9に内蔵され
たマイクロコンピュータ21には、バスBLを介して、以下
の各機器などが接続されている。
B. Outline of Electrical Configuration of Embodiment FIG. 2 is a schematic diagram of the electrical configuration of the robot RB shown in FIG. In FIG. 2, the following devices and the like are connected to the microcomputer 21 built in the control device 9 via the bus BL.

上記モータM1〜M5や、これらのモータM1〜M5の回転
角を検知するエンコーダE1〜E5(第1図中には図示せ
ず)を含んだ機構駆動系23, レーザ発振装置7, 操作盤10, 外部コンピュータ11, 光源装置14。
Mechanism drive system 23 including the motors M 1 to M 5 and encoders E 1 to E 5 (not shown in FIG. 1) for detecting the rotation angles of the motors M 1 to M 5 , laser oscillation Device 7, operation panel 10, external computer 11, light source device 14.

一方、被工作物としてのワークWに対向するセンサヘ
ッドSHには、ティーチング時にワークWを照明して罫書
線Cを照し出すための照明光が、照明用光源24から光フ
ァイバ26を介して与えられる。また、ティーチング時に
センサヘッドSHとワークWとの相対的距離・姿勢関係
(空間的関係)を所定の関係に保持するために使用され
るスポット光を与えるための光も、レーザダイオード光
源25から光ファイバ27を介してセンサヘッドSHに与えら
れる。
On the other hand, the sensor head SH facing the workpiece W as the workpiece receives illumination light for illuminating the workpiece W and illuminating the ruled line C from the illumination light source 24 via the optical fiber 26 during teaching. Given. Further, the light for giving the spot light used for maintaining the relative distance / posture relationship (spatial relationship) between the sensor head SH and the work W in a predetermined relationship during teaching is also emitted from the laser diode light source 25. It is given to the sensor head SH via the fiber 27.

さらに、センサヘッドSHからは、罫書線Cの付近の画
像信号が画像処理装置22に取込まれ、マイクロコンピュ
ータ21の制御下で、第1図のCRT12に映し出されるよう
になっている。ただし、画像処理装置22は2値画像処理
を行なう装置として構成されている。なお、このシステ
ムは、上位のホストシステム(図示せず)の制御下で動
作させることもできる。
Further, from the sensor head SH, an image signal in the vicinity of the marking line C is taken in by the image processing device 22 and is displayed on the CRT 12 in FIG. 1 under the control of the microcomputer 21. However, the image processing device 22 is configured as a device that performs binary image processing. This system can be operated under the control of a host system (not shown).

C.センサヘッドSHの詳細構成 第3図は、上述したセンサヘッドSHの詳細を示す部分
断面図であり、第4図はそのA−A′断面図である。こ
れらの図において、このセンサヘッドSHはレーザトーチ
Tと並列的に設けられており、ティーチング時にはレー
ザトーチTを図示の方向からα方向に90°回転させて退
避させる。
C. Detailed Configuration of Sensor Head SH FIG. 3 is a partial cross-sectional view showing the details of the above-described sensor head SH, and FIG. 4 is a cross-sectional view taken along the line AA ′. In these figures, the sensor head SH is provided in parallel with the laser torch T, and during teaching, the laser torch T is rotated 90 ° in the α direction from the direction shown and retracted.

また、再生モード時には、レーザトーチTを図示の方
向に戻すとともに、センサヘッドSHをγ方向(α方向と
同一)に180°回転させて退避させる。さらに、この再
生モード時には、レーザトーチTとセンサヘッドSHと
を、アーム6の軸線まわりのβ方向に180°回転させ
て、センサヘッドSHの図示の位置にレーザトーチTが移
動できるようになっている。これらの回転は、マニュア
ルで行なってもよく、また、モータによって行なっても
よい。なお、第3図のセンサヘッドSHの下方に示した破
線Iは、β方向の回転時におけるレーザトーチTの先端
部分に対応する位置を示している。
Further, in the reproduction mode, the laser torch T is returned in the direction shown in the figure, and the sensor head SH is rotated 180 ° in the γ direction (the same as the α direction) and retracted. Further, in the reproduction mode, the laser torch T and the sensor head SH can be rotated 180 ° in the β direction around the axis of the arm 6 so that the laser torch T can move to the position shown in the sensor head SH. These rotations may be performed manually or by a motor. A broken line I shown below the sensor head SH in FIG. 3 indicates a position corresponding to the tip portion of the laser torch T when rotating in the β direction.

第3図および第4図において、センサヘッドSHのハウ
ジング30の下端には、第2図の照明用光源24に接続され
た3本の光ファイバ26(26a〜26c)の投光端が設けられ
ている。そして、この投光端からは、ワークWの表面上
の領域Gを面状に照明するための照明光Lが照射される
ようになっている。また、レーザダイオード光源25から
3本の光ファイバ27(27a〜27c)によって供給された光
は、先端にマイクロレンズ(図示せず)を内蔵した投光
器31a〜31cに与えられ、これらの投光器31a〜31cからワ
ークWの表面に3本のスポット光として照射される。
3 and 4, the light emitting ends of three optical fibers 26 (26a to 26c) connected to the illumination light source 24 of FIG. 2 are provided at the lower end of the housing 30 of the sensor head SH. ing. Then, from this light projecting end, illumination light L for illuminating the area G on the surface of the work W in a planar manner is emitted. Further, the light supplied from the laser diode light source 25 by the three optical fibers 27 (27a to 27c) is given to the projectors 31a to 31c having a microlens (not shown) at the tip thereof, and these projectors 31a to 31c. The surface of the work W is irradiated from 31c as three spot lights.

これらの投光器31a〜31cは、第5図に示すように、そ
れらからのスポット光La〜Lcが一点Oで交わるように配
置されており、センサヘッドSHとワークWとの相対的距
離・姿勢関係に応じて次のような光点群をワークW上に
形成する。すなわち、ワークWの表面に対してセンサヘ
ッドSHが所定の距離および姿勢を保っているとき(第5
図中にWaで示す面がワークWの表面となっているとき)
には、第6図(a)に示すように、ワークW上の3個の
光スポットP1〜P3は、基準位置Q1〜Q3内にそれぞれ形成
される。一方、これらの相対距離や姿勢が第5図中にWb
〜Wdで示すようにずれたときには、第6図(b)〜
(d)にそれぞれ示すように、基準位置Q1〜Q3からずれ
たものとなる。
These projectors 31a~31c, as shown in FIG. 5, the spot beam L a ~L c from them are arranged to intersect at one point O, the relative distance between the sensor head SH and the workpiece W · The following light spot groups are formed on the work W according to the posture relationship. That is, when the sensor head SH maintains a predetermined distance and posture with respect to the surface of the work W (the fifth
(When the surface indicated by W a in the figure is the surface of the workpiece W)
6A, the three light spots P 1 to P 3 on the work W are formed in the reference positions Q 1 to Q 3 , respectively. On the other hand, these relative distances and postures are W b in FIG.
~ When it shifts as shown by W d , Fig. 6 (b) ~
As shown in (d), the positions are displaced from the reference positions Q 1 to Q 3 .

したがって、光スポットP1〜P3の位置と基準位置Q1
Q3との関係が常に第6図(a)の関係となるように距離
・姿勢制御を行なえば、センサヘッドSHとワークWとの
相対距離と姿勢とを所定の値に保ちつつティーチングを
行なうことができる。このような制御は、CRT12の画面
を目視しつつキーボード12の操作によって行なうことも
でき、また、画像処理装置22の出力に基いてマイクロコ
ンピュータ21に自動的に行なわせることもできる。
Therefore, the positions of the light spots P 1 to P 3 and the reference position Q 1 to
If the distance / attitude control is performed so that the relationship with Q 3 is always the relationship shown in FIG. 6 (a), teaching is performed while maintaining the relative distance between the sensor head SH and the work W and the attitude at predetermined values. be able to. Such control can be performed by operating the keyboard 12 while visually observing the screen of the CRT 12, or can be automatically performed by the microcomputer 21 based on the output of the image processing device 22.

第3図に戻って、光ファイバ26a〜26cからの照明光L
によって照明されたワークWの表面像(特に、その表面
の罫書線の像)と、投光器31a〜31cによってワークWの
表面に形成された距離・姿勢検出用スポットP1〜P3
は、ハウジング30内に設けられたレンズ32を介して、CC
D撮像素子(ITVカメラ)33に入射し、その表面に結像す
る。ただし、後述するように、スポット光La〜Lcは追従
の進行につれて点滅を繰返すため、光スポットP1〜P3
像は特定の時期のみに結像する(詳細は後述する)。そ
して、このようにして得られる画像データは、画像伝送
ライン34を通じて第2図の画像処理装置22に与えられ、
後述するような画像処理を受ける。そして、それによっ
て、あらかじめ形成された罫書線Cを画像として検出し
つつ、それに追従してセンサヘッドSHが移動するととも
に、ティーチングデータが取込まれる。
Returning to FIG. 3, the illumination light L from the optical fibers 26a to 26c
The surface image of the work W (especially the image of the marking lines on the surface) illuminated by the light and the distance / posture detection spots P 1 to P 3 formed on the surface of the work W by the projectors 31a to 31c are the housing. CC through the lens 32 provided in 30
The light enters the D image sensor (ITV camera) 33 and forms an image on its surface. However, as described later, since the spot light L a ~L c repeated blinking progresses the following, an image of the light spot P 1 to P 3 are imaged only at a particular time (details will be described later). Then, the image data thus obtained is given to the image processing device 22 of FIG. 2 through the image transmission line 34,
It undergoes image processing as described below. As a result, while detecting the ruled line C formed in advance as an image, the sensor head SH moves following it and the teaching data is taken in.

D.ティーチング動作 そこで、以下では、このような装置を利用してティー
チング動作を行なう際の処理を、第7図を参照して説明
する。なお、以下の各処理は、第2図のマイクロコンピ
ュータ21および外部コンピュータ11の制御下で行なわれ
る。
D. Teaching Operation Therefore, hereinafter, the processing when the teaching operation is performed using such a device will be described with reference to FIG. The following processes are performed under the control of the microcomputer 21 and the external computer 11 shown in FIG.

まず、第7図のステップS1では、レーザダイオード光
源25をオンとし、照明用光源24もオンとする。これによ
ってスポット光La〜Lcおよび照明光Lの双方がオンとな
る。このため、第8図(a)に示すようにスポット光P1
〜P3の像と罫書線Cの像とがワークWの表面上で観測で
きるようになる。なお、基準位置Q1〜Q3を示すマークの
像(白丸)は、画像処理装置22の中で作成されており、
実際に観測された画像と合成されてCRT12の画面上に表
示されている。
First, in step S1 of FIG. 7, the laser diode light source 25 is turned on and the illumination light source 24 is also turned on. Thus both the spot light L a ~L c and the illumination light L is turned on. Therefore, as shown in FIG. 8 (a), the spot light P 1
The image of ~ P 3 and the image of the score line C can be observed on the surface of the work W. The mark images (white circles) indicating the reference positions Q 1 to Q 3 are created in the image processing device 22,
It is displayed on the screen of CRT12 after being combined with the image actually observed.

このような状態において読取られる画像データのう
ち、第8図(a)のI−Iライン上の画素の画像レベル
を第9図(a)に示す。この第9図(a)からわかるよ
うに、光スポットP3および罫書線Cに相当する領域にお
いて、画像レベルにピークが形成されている。
Of the image data read in such a state, the image level of the pixel on the I-I line in FIG. 8 (a) is shown in FIG. 9 (a). As can be seen from FIG. 9A, a peak is formed at the image level in the region corresponding to the light spot P 3 and the ruled line C.

第7図の次のステップS2では、スポット光La〜Lcの強
度に応じてあらかじめ定められている第1のしきい値VH
を、画像処理装置22内に設定する。この第1のしきい値
VHは、光スポットP1〜P3の画像レベルと罫書線Cの像の
画像レベルとの間のレベルに設定されている。換言すれ
ば、このしきい値VHは、第9図(a)の2つのピークの
中間の値を有する。また、この第1のしきい値VHは、後
述する罫書線検出のための第2のしきい値VLよりも高い
値となっている。それは、スポット光La〜Lcはレーザー
ダイオードの発光によって与えられるため、その光強度
は大きくなっているのに対して、照明光Lを与えるため
の照明用光源24としては、白熱灯などのように比較的小
さな光強度を持った光源を使用することに対応してい
る。
7 view of the next step S2, spot light L a ~L c threshold V H strength first which is predetermined in accordance with the
Are set in the image processing device 22. This first threshold
V H is set to a level between the image level of the light spots P 1 to P 3 and the image level of the image of the ruled line C. In other words, this threshold value V H has an intermediate value between the two peaks in FIG. 9 (a). Further, the first threshold value V H is higher than a second threshold value V L for detecting a marking line which will be described later. It is because the spot light L a ~L c given by emitting a laser diode, whereas the light intensity is larger, as the illumination light source 24 for providing illuminating light L, such as incandescent lamps It corresponds to using a light source having a relatively small light intensity.

第7図の次のステップS3では、CCD撮像素子33によっ
て撮像された画像データ(第9図(a))を画像処理装
置22内に取込む。そして、ステップS4でこの画像データ
の画素ごとのレベルと上記しきい値VHとを比較し、これ
によって画像データを2値化して、しきい値VHよりも高
いレベルを持った画素の画面上の位置を特定する。これ
によって、第8図(a)の光スポットP1〜P3の画面上の
位置を知ることができる。さらに、このようにして得ら
れた光スポットP1〜P3の位置と、基準位置Q1〜Q3とのず
れをゼロにするように、ロボットRBの機構駆動系23へ駆
動指令信号を与える。それによってロボットRBが駆動さ
れ、光スポットP1〜P3がそれぞれ基準位置Q1〜Q3と一致
するように、センサヘッドSHとワークWとの距離、およ
びセンサヘッドSHの姿勢が制御される(ステップS5)。
このような制御が行なわれた後の画像を第8図(b)
に、また、そのII-IIライン上における画像レベルを第
9図(b)に示す。
In the next step S3 in FIG. 7, the image data (FIG. 9A) picked up by the CCD image pickup device 33 is taken into the image processing device 22. Then, in step S4, the level of each pixel of this image data is compared with the above threshold value V H, and the image data is binarized by this, and the screen of pixels having a level higher than the threshold value V H is displayed. Identify the top position. As a result, the positions on the screen of the light spots P 1 to P 3 in FIG. 8A can be known. Further, a drive command signal is given to the mechanism drive system 23 of the robot RB so that the deviation between the positions of the light spots P 1 to P 3 thus obtained and the reference positions Q 1 to Q 3 becomes zero. . Thereby, the robot RB is driven, and the distance between the sensor head SH and the work W and the attitude of the sensor head SH are controlled so that the light spots P 1 to P 3 match the reference positions Q 1 to Q 3 , respectively. (Step S5).
An image after such control is performed is shown in FIG.
FIG. 9 (b) shows the image level on the line II-II.

第7図の次のステップS6では、レーザーダイオード光
源25をオフとする。ただし、照明用光源24はオンを維持
させる。それによってスポット光La〜Lcの照射は停止さ
れ、CCD撮像素子33の画角内の全体を照明する照明光L
のみがワークWの表面に照射される。すると、第8図
(c)に示すように、罫書線Cのみの像が観測されるよ
うになる。このとき、スポット光La〜Lcは消灯されてい
るため、第8図(a),(b)のような光スポットP1
P3は観測されない。そして、第8図(c)のIII-IIIラ
イン上における画像レベルは第9図(c)のようにな
る。
In the next step S6 in FIG. 7, the laser diode light source 25 is turned off. However, the illumination light source 24 is kept on. Whereby the irradiation of the spot light L a ~L c is stopped, the illumination light L for illuminating the whole within the angle of the CCD image sensor 33
Only the surface of the work W is irradiated. Then, as shown in FIG. 8 (c), an image of only the score line C comes to be observed. At this time, since the spot lights L a to L c are extinguished, the light spots P 1 to L 1 as shown in FIGS.
P 3 is not observed. The image level on the line III-III in FIG. 8 (c) is as shown in FIG. 9 (c).

前述したように、照明光Lの強度はスポット光La〜Lc
の強度に比べて小さな値を有している。このため、第7
図のステップS7では、比較的低い第2のしきい値VLを画
像処理装置22内に設定する。この第2のしきい値VLのレ
ベルは、罫書線Cの像の画像レベル(ピーク値)よりも
低く、ノイズレベルVNより高い値である。そして、次の
ステップS8では第8図(c)の画像データを取込み、ス
テップS9で上記低レベルしきい値VL(第9図(c))と
各画素の画像レベルとが比較されて画像データが2値化
される。それに基いて、しきい値VL以上のレベルを有す
る画素の位置が特定されるが、これらの画素の位置が罫
書線Cの位置に相当する。この処理において、スポット
光La〜Lcの照射が停止されているため、しきい値VLとの
比較によって取出される像は罫書線Cの像のみである。
As described above, the intensity of the illumination light L spot beam L a ~L c
Has a smaller value than the strength of. Therefore, the seventh
In step S7 in the figure, a relatively low second threshold value V L is set in the image processing device 22. The level of the second threshold value V L is lower than the image level (peak value) of the image of the ruled line C and higher than the noise level V N. Then, in the next step S8, the image data of FIG. 8 (c) is fetched, and in step S9 the low level threshold V L (FIG. 9 (c)) is compared with the image level of each pixel to obtain an image. The data is binarized. Based on this, the positions of the pixels having the level equal to or higher than the threshold value V L are specified, and the positions of these pixels correspond to the position of the ruled line C. In this process, since the irradiation of the spot light L a ~L c is stopped, the image that is taken out by comparison with a threshold value V L is only the image of the scribed line C.

次のステップS10では、第8図(c)中に示すよう
に、画面上の所定本数(N本)ごとの走査線と罫書線C
とがそれぞれ交わる点として、目標点Fの位置が決定さ
れ、この目標点Fが画面上に「+」印で表示される。こ
れらの目標点Fは、ティーチング点の候補となる点であ
る。
In the next step S10, as shown in FIG. 8 (c), a predetermined number (N) of scanning lines and ruled lines C on the screen.
The position of the target point F is determined as the point where and intersect, and this target point F is displayed on the screen as a "+" mark. These target points F are points that are candidates for teaching points.

そして、ステップS11では、複数の目標点Fの中から
所定の規則によって選択された点が画面中心からどの程
度ずれているかを求める。そして、そのずれ量に応じ
て、センサヘッドSHの現時点での位置・姿勢データに補
正を加え、補正後の位置・姿勢データをティーチングデ
ータとして取込む。これによってひとつのティーチング
点でのティーチング処理が完了する。
Then, in step S11, how much the point selected from the plurality of target points F by the predetermined rule deviates from the center of the screen is obtained. Then, according to the amount of deviation, the current position / orientation data of the sensor head SH is corrected, and the corrected position / orientation data is fetched as teaching data. This completes the teaching process at one teaching point.

その点が最終ティーチング点でないときには、ステッ
プS12からS13へ進み、罫書線Cが伸びる方向に沿ってセ
ンサヘッドSHを所定距離だけ移動させる。そして、ステ
ップS1へと戻り、上述した動作を繰返して行き、最終テ
ィーチング点に至るとティーチング処理が完了する。こ
れによってセンサヘッドSHが罫書線Cに自動的に追従
し、自動的なティーチングが実行されることになる。
When that point is not the final teaching point, the process proceeds from step S12 to S13, and the sensor head SH is moved by a predetermined distance along the direction in which the ruled line C extends. Then, the process returns to step S1, the above-described operation is repeated, and when the final teaching point is reached, the teaching process is completed. As a result, the sensor head SH automatically follows the ruled line C, and automatic teaching is executed.

この繰返し処理において、センサヘッドSHの位置・姿
勢を調整する際にはスポット光La〜Lcのみが高レベルし
きい値VHによって取出される。また、罫書線Cの位置を
検出する際には照明光Lのみが照射される。このため光
スポットP1〜P3の位置を特定する際に、光スポットP1
P3の像と罫書線Cの像とが同時に観測されて第10図
(a)のような空間的レベル分布を持つ画像データが取
込まれても、光スポットP3の像のみを取出すことができ
る。
In this iterative process, when adjusting the position and orientation of the sensor head SH only spot light L a ~L c is removed by the high-level threshold V H. Further, when detecting the position of the ruled line C, only the illumination light L is emitted. Thus when specifying a position of the light spot P 1 to P 3, the light spot P 1 ~
Even if the image of P 3 and the image of the marking line C are simultaneously observed and the image data having the spatial level distribution as shown in FIG. 10 (a) is captured, only the image of the light spot P 3 should be captured. You can

また、罫書線Cの像の位置を決定する際には、光スポ
ットP1〜P3を形成させるためのスポット光La〜Lcは消灯
されているために、第10図(a)のような画像データが
取込まれることはなく、第10図(b)のように、罫書線
Cの像のみを明確にとらえることが可能である。このた
め、罫書線Cに沿って、センサヘッドSHが正確に追従し
て行くことになる。
Further, when determining the position of the image of the scribed line C, in order to spot light L a ~L c for forming a light spot P 1 to P 3 is turned off, 10 view of (a) Such image data is not captured, and it is possible to clearly capture only the image of the ruled line C as shown in FIG. 10 (b). Therefore, the sensor head SH accurately follows the ruled line C.

なお、罫書線Cの検出の際には上記と同様に照明光L
のみを照射し、これに対してスポット光検出の際には照
明光を消灯させてスポット光のみを照射するという技術
も考えられる。そして、この場合には、単一のしきい値
(たとえば上記しきい値VL)で双方の像を2値化するこ
とができる。しかしながら、このような技術の場合に
は、全面照明用の照明光Lを煩繁に点滅させねばならな
い。ところが、照明光Lの光源として使用される白熱灯
やハロゲン灯は点滅の応答速度が遅い上に、点滅を繰返
すと寿命が著しく短くなる。これに対して、この発明で
は、レーザダイオードなどのように、点滅の応答性が高
く、かつ点滅を繰返しても寿命があまり短くならない光
源を利用して形成できるスポット光(パターン光)のみ
を点滅させることになるため、このような問題は生じな
いという利点もある。
When detecting the ruled line C, the illumination light L
It is also conceivable to irradiate only the spot light, and on the other hand, when spot light is detected, the illumination light is turned off and only the spot light is irradiated. In this case, both images can be binarized with a single threshold value (for example, the above threshold value V L ). However, in the case of such a technique, the illumination light L for whole surface illumination has to be blinked in a complicated manner. However, incandescent lamps and halogen lamps used as the light source of the illumination light L have a slow flashing response speed, and their lifespan is significantly shortened if the flashing is repeated. On the other hand, according to the present invention, only spot light (pattern light) that can be formed by using a light source such as a laser diode that has a high blinking response and whose life does not become too short even if blinking is repeated. Therefore, there is also an advantage that such a problem does not occur.

E.変形例 以上、この発明の一実施例について説明したが、この
発明は上記実施例に限定されるものではなく、たとえば
次のような変形も可能である。
E. Modifications One embodiment of the present invention has been described above, but the present invention is not limited to the above embodiment, and the following modifications are possible.

加工線としては、単なる罫書線ではなく、たとえば
ワークWの表面に蛍光塗料などを帯状に塗布し、その上
に罫書きしたものであってもよい。このようにすると罫
書線がより明確に画像上に現われるため、自動追従にさ
らに適したものとなる。また、ワークWの表面上に塗料
で線書きした加工線や、テープを貼付けてこのテープ上
に細い切欠線を設けたものなどであってもよい。
The processing line is not limited to a simple scribe line, and may be, for example, a line in which fluorescent paint or the like is applied in a band shape on the surface of the work W and scribed on it. In this way, the ruled lines appear more clearly on the image, which is more suitable for automatic tracking. Further, it may be a processed line drawn with a paint on the surface of the work W, or one in which a tape is attached and a thin cut line is provided on the tape.

上記実施例ではパターン光として3個のスポット光
を用いた場合を示したが、4個以上のスポット光を用い
たものであってもよい。また、スポット光ではなく、た
とえば線状や網目状のパターンを有する光をワーク表面
に照射して、その画像に基づいてワークとセンサヘッド
との空間的関係を調整するような場合にもこの発明は適
用可能である。照明光の光源をロボット等の加工機器に
取付けておくことも必須ではなく、外部位置に設けてあ
ってもよい。
In the above embodiment, the case where three spot lights are used as the pattern light is shown, but four or more spot lights may be used. The present invention is also applicable to the case where light having a linear or mesh pattern, for example, is applied to the surface of the work instead of the spot light and the spatial relationship between the work and the sensor head is adjusted based on the image. Is applicable. It is not essential to attach a light source of illumination light to a processing device such as a robot, and it may be provided at an external position.

加工線追従にあたってはセンサヘッドとワークとの
相対的空間関係を変化させればよいわけであるから、セ
ンサヘッドは空間的に固定され、ワークW側の位置・姿
勢のみを変化させるような工作機器にもこの発明は適用
できる。
In order to follow the machining line, the relative spatial relationship between the sensor head and the work need only be changed, so the sensor head is spatially fixed and only the position / orientation of the work W side is changed. The present invention can also be applied to.

この発明は、ロボットのティーチングに限らず、罫
書線追従を行ないつつ所望の処理を行なう種々の工作機
器全般に適用可能である。
INDUSTRIAL APPLICABILITY The present invention is applicable not only to robot teaching but also to various machine tools that perform desired processing while following the marking lines.

(発明の効果) 以上説明したように、この発明によれば、パターン光
の像の位置の検出と加工線の位置の検出とのそれぞれを
2値画像処理で行なうことができ、かつ、双方の検出に
おいて必要とする像のみを明確にとらえることができる
ため、大幅なコストアップを招くことなく、追従精度を
向上させることのできる加工線追従方法を得ることがで
きる。
(Effect of the Invention) As described above, according to the present invention, each of the detection of the position of the image of the pattern light and the detection of the position of the processing line can be performed by the binary image processing, and both of them can be performed. Since it is possible to clearly capture only the image required for detection, it is possible to obtain a machining line tracking method capable of improving the tracking accuracy without significantly increasing the cost.

【図面の簡単な説明】[Brief description of drawings]

第1図は、この発明を産業用ロボットのティーチングに
適用した実施例の機構的構成の概略を示す斜視図、 第2図は、第1図のロボットの電気的構成を示す概略ブ
ロック図、 第3図は、センサヘッドの詳細構成を示す部分断面図、 第4図は、第3図のA-A′断面図、 第5図および第6図はセンサヘッドとワークとの相対距
離・姿勢の制御原理例の説明図、 第7図は実施例の動作を示すフローチャート、 第8図は実施例において取込まれる画像の例を示す図、 第9図および第10図は実施例において取込まれる画像デ
ータのレベルとしきい値との関係を示す図、 第11図および第12図は従来の加工線追従方法の説明図で
ある。 RB……レーザ切断ロボット、9……制御装置、10……操
作盤、11……外部コンピュータ、22……画像処理装置、
T……レーザトーチ、SH……センサヘッド、W……ワー
ク、C……罫書線(加工線)、La〜Lc……スポット光
(パターン光)、P1〜P3……光スポット、L……照明
光、VH……第1のしきい値、VL……第2のしきい値
1 is a perspective view showing an outline of a mechanical structure of an embodiment in which the present invention is applied to teaching of an industrial robot, FIG. 2 is a schematic block diagram showing an electric structure of the robot of FIG. 1, FIG. 3 is a partial sectional view showing the detailed structure of the sensor head, FIG. 4 is a sectional view taken along the line AA ′ of FIG. 3, and FIGS. 5 and 6 are the principle of controlling the relative distance / posture between the sensor head and the workpiece. Explanatory diagram of an example, FIG. 7 is a flowchart showing the operation of the embodiment, FIG. 8 is a diagram showing an example of an image captured in the embodiment, and FIGS. 9 and 10 are image data captured in the embodiment. FIG. 11 and FIG. 12 are diagrams for explaining the relationship between the level and the threshold value, and FIG. 11 and FIG. RB ... Laser cutting robot, 9 ... Control device, 10 ... Operation panel, 11 ... External computer, 22 ... Image processing device,
T ...... laser torch, SH ...... sensor head, W ...... workpiece, C ...... scribed line (processing line), L a ~L c ...... spotlight (pattern light), P 1 ~P 3 ...... light spot, L ...... illumination light, V H ...... first threshold, V L ...... second threshold

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】所定の工作機器に取付けられたパターン光
照射手段から所定のパターン光を前記被工作物の表面へ
照射した状態で前記表面の画像データを取込み、前記画
像データのレベルと第1のしきい値とを比較して前記表
面における前記パターン光の像の位置を求め、前記パタ
ーン光の像の位置に基づいて前記工作機器と前記被工作
物の表面との空間的関係を調整する第1のステップと、 前記被工作物の表面に付された工作線の像を照し出す所
定の照明光を前記表面へと照射した状態で前記表面の画
像データを取込み、前記画像データのレベルと第2のし
きい値とを比較して前記工作線の像の位置を検出する第
2のステップと、 前記工作線が延びる方向に沿って前記工作機器と前記被
工作物との空間的関係を変化させる第3のステップとを
含み、 前記第1ないし第3のステップを繰返すことによって、
前記工作線に追従して前記工作機器を動作させる工作線
追従方法において、 前記パターン光の強度を前記照明光の強度よりも大きな
ものとし、 前記第1のしきい値を前記パターン光の像の画像レベル
と前記加工線の像の画像レベルとの間のレベルに設定し
ておくとともに、前記第2のしきい値を前記加工線の像
の画像レベルよりも低いレベルに設定しておき、 前記第2のステップにおいて前記表面の画像データを取
込む際には、前記パターン光の照射を停止しておくこと
を特徴とする工作線追従方法。
1. The image data of the surface is taken in a state in which the surface of the workpiece is irradiated with a predetermined pattern light from a pattern light irradiation means attached to a predetermined machine tool, and the level of the image data and the first The position of the image of the pattern light on the surface is compared with the threshold value, and the spatial relationship between the machine tool and the surface of the workpiece is adjusted based on the position of the image of the pattern light. A first step; capturing image data of the surface in a state in which the surface is irradiated with predetermined illumination light that illuminates an image of a work line applied to the surface of the workpiece, and the level of the image data is acquired. And a second threshold value to detect the position of the image of the working line, and the spatial relationship between the machine tool and the workpiece along the direction in which the working line extends. And the third step to change Wherein, by repeating the first to third step,
In the work line tracking method of operating the machine tool by following the work line, the intensity of the pattern light is set to be larger than the intensity of the illumination light, and the first threshold value of the image of the pattern light is set. A level between the image level and the image level of the image of the processing line is set, and the second threshold is set to a level lower than the image level of the image of the processing line, A method of following a working line, wherein irradiation of the pattern light is stopped when the image data of the surface is captured in the second step.
【請求項2】前記工作機器は産業用ロボットであり、前
記追従は前記産業用ロボットのティーチング処理のため
の追従であり、前記工作線は罫書線であって、 前記パターン光は、互いに異なる照射角度を有する3個
以上のスポット光である、特許請求の範囲第1項記載の
工作線追従方法。
2. The machine tool is an industrial robot, the follow-up is a follow-up for teaching processing of the industrial robot, the work line is a marking line, and the pattern lights are different from each other. The work line tracking method according to claim 1, wherein the spot light has three or more angles.
JP62011134A 1987-01-20 1987-01-20 Work line tracking method Expired - Lifetime JP2519442B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62011134A JP2519442B2 (en) 1987-01-20 1987-01-20 Work line tracking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62011134A JP2519442B2 (en) 1987-01-20 1987-01-20 Work line tracking method

Publications (2)

Publication Number Publication Date
JPS63180448A JPS63180448A (en) 1988-07-25
JP2519442B2 true JP2519442B2 (en) 1996-07-31

Family

ID=11769547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62011134A Expired - Lifetime JP2519442B2 (en) 1987-01-20 1987-01-20 Work line tracking method

Country Status (1)

Country Link
JP (1) JP2519442B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109773352A (en) * 2019-03-13 2019-05-21 宁波心生工业设计有限公司 One kind being based on optical-mechanical-electrical service robot
KR20220114798A (en) * 2021-02-09 2022-08-17 조선대학교산학협력단 CNC machining system using line tracing

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4893107B2 (en) * 2006-05-30 2012-03-07 トヨタ自動車株式会社 Weather Strip

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109773352A (en) * 2019-03-13 2019-05-21 宁波心生工业设计有限公司 One kind being based on optical-mechanical-electrical service robot
KR20220114798A (en) * 2021-02-09 2022-08-17 조선대학교산학협력단 CNC machining system using line tracing
KR102551912B1 (en) * 2021-02-09 2023-07-06 조선대학교산학협력단 CNC machining system using line tracing

Also Published As

Publication number Publication date
JPS63180448A (en) 1988-07-25

Similar Documents

Publication Publication Date Title
US4575304A (en) Robot system for recognizing three dimensional shapes
US5959425A (en) Vision guided automatic robotic path teaching method
US5615489A (en) Method of making coordinate measurements on workpieces
US5329597A (en) Device and method for measuring angles of a work
KR20080053390A (en) Automatic cutting device and production method for beveled product
CN112518132B (en) Hub burr removing method and electronic device
CN111992895A (en) Intelligent marking system and method
JP2000317660A (en) Method and device for removing burr by using laser beam
ATE434751T1 (en) METHOD AND DEVICE FOR DETERMINING THE AXIS POSITION OF TWO MACHINE SPINDLES
JP2000074644A (en) Measuring apparatus of rod type cutting tool and measuring method of drill which uses the measuring apparatus
JPH06137842A (en) Method and device for measuring rotary tool blade part form
JP2519442B2 (en) Work line tracking method
JP2004114203A (en) Apparatus for measuring profile of workpiece and profile measuring system using the same
JP3958815B2 (en) Tool position measuring method in NC machine tools
JP2501194B2 (en) Line position detector
JP2519445B2 (en) Work line tracking method
JP2519444B2 (en) Work line tracking device
JP3203507B2 (en) Laser processing equipment
JP2603643B2 (en) Assembly method
JP2817092B2 (en) Laser processing equipment
JPH0719813A (en) Three-dimensional visual recognition system
JPH05337785A (en) Grinding path correcting device of grinder robot
JPH01306093A (en) Follow-up method for working line
JPS62176741A (en) Ruled line trailing method
JPH10258372A (en) Product inspecting method in laser beam machine, machining program correcting method and laser beam machine