JPH01306093A - Follow-up method for working line - Google Patents

Follow-up method for working line

Info

Publication number
JPH01306093A
JPH01306093A JP63135226A JP13522688A JPH01306093A JP H01306093 A JPH01306093 A JP H01306093A JP 63135226 A JP63135226 A JP 63135226A JP 13522688 A JP13522688 A JP 13522688A JP H01306093 A JPH01306093 A JP H01306093A
Authority
JP
Japan
Prior art keywords
image
level
light
workpiece
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63135226A
Other languages
Japanese (ja)
Inventor
Masakazu Kobayashi
正和 小林
Shusei Kato
加藤 修正
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shinmaywa Industries Ltd
Original Assignee
Shin Meiva Industry Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shin Meiva Industry Ltd filed Critical Shin Meiva Industry Ltd
Priority to JP63135226A priority Critical patent/JPH01306093A/en
Publication of JPH01306093A publication Critical patent/JPH01306093A/en
Pending legal-status Critical Current

Links

Landscapes

  • Laser Beam Processing (AREA)
  • Machine Tool Copy Controls (AREA)

Abstract

PURPOSE:To clarify a necessary image and to improve follow-up accuracy by making pattern light beams stronger in intensity than illumination light beams, shutting off the illumination light beams in taking in a picture image on the surface of a work piece and stopping the of irradiation the pattern light in taking in a picture image data on the surface of the work piece. CONSTITUTION:The pattern light beams are made stronger in intensity than the illumination light beams and the level of a 1st threshold value is set to a level between the picture image level of the image of the pattern light beams and the picture image level of the image of a working line. Then, the level of a 2nd threshold value is set to a level lower than the picture image level of the image of the working line. Then, when the picture image on the surface is taken in as specified pattern light beams irradiate from an irradiation means of pattern light beams the surface of the work piece, the illumination light beams are shut off. When the picture image data on the surface is taken in, the irradiation of the pattern light beams are stopped. In this way, only images necessary in detection of both the position of the image of the pattern light beams and the position of the working line can be clarified.

Description

【発明の詳細な説明】 (産業上の利用分野) この発明は、被工作物の表面に付された工作線に追従し
て、所定の工作機器(たとえば産業用ロボット)を動作
させるための工作線追従方法に関する。
[Detailed Description of the Invention] (Industrial Application Field) This invention is a method for operating a predetermined machine tool (for example, an industrial robot) by following a work line attached to the surface of a workpiece. Concerning line following method.

(従来の技術) プレス成形された板金などのような複雑な立体形状を有
するワークを切断して所望の形状とすることのできる切
断ロボットとしては、本件出願人によって出願され、特
開昭57−96791号公報において開示されたプラズ
マ切断ロボットなど、種々のものが既に提案されて実用
化されている。
(Prior Art) A cutting robot capable of cutting a workpiece having a complicated three-dimensional shape, such as a press-formed sheet metal, into a desired shape was filed by the present applicant and disclosed in Japanese Patent Application Laid-Open No. 57-1998. Various robots, such as the plasma cutting robot disclosed in Japanese Patent No. 96791, have already been proposed and put into practical use.

そして、このようなロボットにおいては、切断線などの
加工線を、あらかじめマニュアルでワークやティーチン
グモデル上に罫書きしておき、この罫書線に沿ってティ
ーチングを行なう必要がある。
In such a robot, it is necessary to manually mark processing lines such as cutting lines on the workpiece or teaching model in advance, and to perform teaching along these marked lines.

このような加工線に沿って自動的にティーチングを行な
5方法としては、たとえば特開昭61−100808号
公報に開示されているような方法がある。この方法では
、第11図に模式図として示すように、ロボットのエン
ドエフェクタ近傍に3個以上のスポット光源101〜1
03を設け、これらのスポット光源101〜103から
ワークWの表面に照射された光スポットP1〜P3の画
像をTV右カメラ04でとらえろ。そして、CEL′F
(図示せず)の画面上における光スポットP1〜P3の
位置関係に基づいてロボットとワークWとの空間的相対
関係を求め、それに応じてロボットの姿勢などを調整す
る。さらに、この状態で罫書線Cの画像をとらえ、この
罫書線Cの位置に追従してロボッl’移動させるととも
に、ティーチングテータの取込みを行なっている。
As five methods for automatically teaching along such machining lines, there is, for example, the method disclosed in Japanese Patent Application Laid-Open No. 100808/1983. In this method, as shown schematically in FIG. 11, three or more spot light sources 101 to 1 are provided near the end effector of the robot.
03, and capture images of light spots P1 to P3 irradiated onto the surface of the workpiece W from these spot light sources 101 to 103 with the TV right camera 04. And CEL'F
The relative spatial relationship between the robot and the workpiece W is determined based on the positional relationship of the light spots P1 to P3 on the screen (not shown), and the posture of the robot is adjusted accordingly. Further, in this state, an image of the score line C is captured, the robot is moved to follow the position of the score line C, and teaching data is taken in.

このため、この方法では、3個以上のスポット光と、罫
書線Cの画像を照し出すためにワーク表面上にある程度
の範囲を一度に照明する照明光(図示せず)との、2種
類の光をワーク表面上に照射している。ところが、第1
2図に示すように元スポット(たとえばPl)が罫書線
C上に存在する場合には、罫書線Cの像とスポット光P
1の像とが重なってしまう。このため、これらの2種類
の像を区別することが困難となり、また、その際、何ら
かの原因で罫書線Cの像の明度が大きくなると、この困
難さは更に太き(なる。その結果、追従動作の精度に限
界が生ずるという問題があった。これに対しては、上記
2種類の光の強度を異なったものとし、多値画像処理7
行なえば対処可能であるが、多値画像処理装置は、高価
であるという欠点がある。
Therefore, in this method, there are two types of illumination light: three or more spot lights and illumination light (not shown) that illuminates a certain range on the work surface at once in order to illuminate the image of the score line C. The light is irradiated onto the work surface. However, the first
As shown in Figure 2, when the original spot (for example, Pl) exists on the score line C, the image of the score line C and the spot light P
Image 1 overlaps with image 1. For this reason, it becomes difficult to distinguish these two types of images, and if the brightness of the image of the score line C increases for some reason, this difficulty becomes even thicker (as a result, the tracking There was a problem that there was a limit to the accuracy of the operation.To solve this problem, the intensities of the two types of light were made different, and multivalued image processing 7
However, multi-level image processing devices have the disadvantage of being expensive.

そして、このような問題は、ロボットのティーチング時
に限らず、光学的手段を用いて工作機器を加工線に追従
動作させる場合に共通の問題となっている。
Such a problem is common not only when teaching a robot but also when making a machine tool follow a machining line using optical means.

(解決しようとする問題点) この発明は従来技術における上述の問題の克服を意図し
ており、多値画像処理装置のような高価な装置を用いる
ことなく、スポット光のようなパターン光の像と加工線
の像とを明確に区別でき、それによって大幅なコストア
ップ馨招くことなく追従精度を向上させることのできる
加工線追従方法を提供することを目的とする。
(Problems to be Solved) The present invention is intended to overcome the above-mentioned problems in the prior art, and is capable of producing images of patterned light such as spot light without using an expensive device such as a multilevel image processing device. An object of the present invention is to provide a machining line tracking method that can clearly distinguish between the image of the machining line and the machining line image, and thereby improve the tracking accuracy without causing a significant increase in cost.

(問題点を解決するための手段) 上述の目的を達成するため、この発明は、[F]所定の
工作機器に取付けられたパメーン光照射手段から所定の
パターン光を前記被工作物の表面へ照射した状態で前記
表面の画像データを取込み、前記画像データのレベルと
第1のしきい値とを比較して前記表面におげろ前記パタ
ーン光の像の位置を求め、前記パターン光の像の位置に
基づいて前記工作機器と前記被工作物の表面との壁間的
関係を調整する第1のステップと、■前記被工作物の表
面に付された工作線の像を照し出す所定の照明光を前記
表面へと照射1−た状態で前記表面の画像データを取込
み、前記画像データのレベルと第2のしきい値とを比較
して前記工作線の像の位置を検出する第2のステップと
、■前記工作線が延びる方向に沿って前記工f−F−機
器と前記被工作物との空間的関係を変化させろ第3のス
テップとを含み、前記第1ないし第3のステップを繰返
すことによって、前記工作線に追従して前記工作機器を
動作させる工作線追従方法を対象として、(a)前記パ
ターン光の強度を前記照明光の強度よりも大きなものと
し、(b)前記第1のしきい値を前記パターン光の像の
画像レベルと前記加工線の像の画像レベルとの間のレベ
ルに設定しておくとともに、前記第2のしきい値を前記
加工線の像の画像レベルよりも低いレベルに設定してお
き、(e)前記第1のステップにおいて前記パターン光
を前記被工作物の表面へ照射した状態で前記表面の画像
データを取込む際、前記照明光を遮断しておく。ま1こ
、(d)前記第2のステップにお(・て前記表面の画像
データを取込む際には、前記パターン光の照射を停止し
ておく。
(Means for Solving the Problems) In order to achieve the above-mentioned object, the present invention provides [F] a method of applying a predetermined pattern of light to the surface of the workpiece from a pamen light irradiation means attached to a predetermined machine tool. Capture image data of the surface in the irradiated state, compare the level of the image data with a first threshold value, determine the position of the image of the pattern light on the surface, and determine the position of the image of the pattern light on the surface. a first step of adjusting the wall-to-wall relationship between the machine tool and the surface of the workpiece based on the position; A second step of capturing image data of the surface while illuminating the surface with illumination light, and comparing the level of the image data with a second threshold value to detect the position of the image of the work line. and (i) changing the spatial relationship between the machine tool and the workpiece along the direction in which the work line extends, the first to third steps By repeating the following, (a) the intensity of the pattern light is made larger than the intensity of the illumination light, and (b) the The first threshold is set to a level between the image level of the pattern light image and the image level of the processing line image, and the second threshold is set to a level between the image level of the processing line image. (e) When capturing image data of the surface with the pattern light irradiated onto the surface of the workpiece in the first step, the illumination light is set to a level lower than the image level. Keep it shut off. (d) When capturing the image data of the surface in the second step, the irradiation of the pattern light is stopped.

なお、この発明における「被工作物」とは、製品そのも
のに限らず、ロボットのティーチングモデル等、被工作
対象を表現したダミーその他tも含む用語である。
Note that the term "workpiece" in this invention is not limited to the product itself, but also includes dummies and other objects representing the workpiece, such as robot teaching models.

また、工作機器の動作は、ティーチングのようなデータ
取込みのための動作のほか、実際の加工動作そのものや
、マニュアルによって移動させる動作など、種々の動作
であってもよい。
Further, the operation of the machine tool may be various operations such as an operation for data acquisition such as teaching, an actual machining operation itself, and an operation of manually moving the tool.

(実施例) 第1図は、この発明を適用して罫書線(工作線)追従を
行なわせる工作機器の一例としての、直角座標型レーザ
切断ロボットの機構的構成を示す概略斜視図である。同
図において、このレーザ切断口ボッ)RBは、基台1の
上に、図示しないモータM1によってX方向(水平方向
)に移動自在な移動台2を有しており、この移動台2の
上にワーク(図示せず)′?:載置する。基台10両側
方に垂直に亘設されたコラム3の頂部にはビーム4が架
設され、このビーム4には、図の2方向(垂直方向)に
延びるとともに、モータM2によってY方向に移動自在
な移動コラム5が設げられている。
(Embodiment) FIG. 1 is a schematic perspective view showing the mechanical configuration of a rectangular coordinate laser cutting robot as an example of a machine tool that follows a score line (work line) to which the present invention is applied. In the same figure, this laser cutting port RB has a movable table 2 on a base 1 that is movable in the X direction (horizontal direction) by a motor M1 (not shown). work (not shown)′? : Place it. A beam 4 is installed on the top of the column 3 installed perpendicularly on both sides of the base 10, and this beam 4 has a beam 4 that extends in two directions (vertical direction) in the figure and is movable in the Y direction by a motor M2. A moving column 5 is provided.

この移動コラム5には、後述する2種類の光源を内蔵し
た光源装置14が取付けられている。
A light source device 14 incorporating two types of light sources, which will be described later, is attached to the moving column 5.

また、この移動コラム5の下端には、モータM3によっ
て2方向に上下するモータM4が設けられている。これ
によって、移動コラム5の中心軸から偏心した位置に設
けられているアーム6が図のび方向に回転する。また、
このアーム6の下端側方にはモータM5が設けられてお
り、これによってエンドエフェクタとしてのレーザトー
チTが図のψ方向に回動する。さらに、このレーザトー
チTに隣接して、光学的な罫書線追従のためのセンサヘ
ッド8 H(後述する)が配置されている。
Furthermore, a motor M4 is provided at the lower end of the moving column 5, and is moved up and down in two directions by a motor M3. As a result, the arm 6 provided eccentrically from the central axis of the moving column 5 rotates in the longitudinal direction of the figure. Also,
A motor M5 is provided on the side of the lower end of the arm 6, and the laser torch T serving as an end effector is rotated in the ψ direction in the figure. Furthermore, adjacent to this laser torch T, a sensor head 8H (described later) for optically following the marked line is arranged.

このうち、レーザトーチTには、レーザ発振装置7から
のレーザビームがレーザガイドパイプ8を通して与えら
れる。?た、制御装置9には、後述する画像処理装置や
マイクロコンピュータなどが内蔵されており、操作盤1
0には、キーボードやデイスプレィ等が設けられている
。さらに、外部コンピュータ11は種々のテークの人出
力やデータ処理を行なうためのものであり、C凡T12
やキーボード13などを備えている。そして、上記セン
サヘッドSRからの画像は、このCRT12においてモ
ニタされる。
Of these, a laser beam from a laser oscillation device 7 is applied to the laser torch T through a laser guide pipe 8. ? In addition, the control device 9 has a built-in image processing device, a microcomputer, etc., which will be described later, and an operation panel 1.
0 is provided with a keyboard, a display, etc. Furthermore, the external computer 11 is for performing various types of human output and data processing, and is
It is equipped with a keyboard 13, etc. The image from the sensor head SR is monitored on this CRT 12.

第2図は、第1図に示したロボットRBの電気的構成の
概略図である。第2図において、制御装置9に内蔵され
たマイクロコンピュータ21には、バスB Lを介して
、以下の各機器などが接続されている。
FIG. 2 is a schematic diagram of the electrical configuration of the robot RB shown in FIG. 1. In FIG. 2, the following devices are connected to a microcomputer 21 built into the control device 9 via a bus BL.

■上記モータM1〜八5や、これらのモータM1〜八1
5の回転角を検知するエンコーダE1〜E5(第1図中
には図示せず)を含んだ機構駆動系23゜ ■レーザ発振装置7゜ ■操作盤10゜ ■外部コンピュータ11゜ ■光源装置14 一方、被工作物としてのワークWに対向するセンサヘッ
ド81(には、ティーチング時にワークWを照明して罫
書線Cを照し出すための照明光が、照明用光源24かも
電磁式のシャッタ28及び光ファイバ26を介して与え
られる。また、ティーチング時にセンサヘッドSHとワ
ークWとの相対的距離・姿勢関係(空間的関係)を所定
の関係に保持する1こめに使用されるスポット光を与え
ろための光も、レーザダイオード光源25かも光ファイ
バ27を介してセンサヘッドS Hに与えられる。
■The above motors M1 to 85 and these motors M1 to 81
Mechanism drive system 23° ■ Laser oscillation device 7° ■ Operation panel 10° ■ External computer 11° ■ Light source device 14 On the other hand, in the sensor head 81 facing the workpiece W as a workpiece, illumination light for illuminating the workpiece W and illuminating the marked lines C during teaching is provided by an illumination light source 24 or an electromagnetic shutter 28. and the optical fiber 26.Also, provide a spot light that is used once to maintain the relative distance/posture relationship (spatial relationship) between the sensor head SH and the workpiece W in a predetermined relationship during teaching. The light for this purpose is also provided to the sensor head SH via a laser diode light source 25 or an optical fiber 27.

なお、シャッタ28を開閉させるための動作信号はマイ
クロコンピュータ21かも与えられる。
Note that the microcomputer 21 also receives an operation signal for opening and closing the shutter 28 .

さらに、センサヘッドSHからは、罫N線Cの付近の画
像信号が画像処理装置22に取込まれ、マイクロコンピ
ュータ210制御下で、第1図の(4T12に映し出さ
れるJl、’)になっている。ただし、画像処理装置2
2は2個画像処理を行なう装置として構成されている。
Furthermore, the image signal near the ruled line C is taken into the image processing device 22 from the sensor head SH, and under the control of the microcomputer 210, it becomes (Jl,' shown in 4T12) in FIG. There is. However, image processing device 2
2 is configured as a device that performs two image processings.

なお、このシステムは、上位のホストシステム(図示せ
ず)の制御下で動作させることもできろ。
Note that this system can also be operated under the control of an upper host system (not shown).

第3図は、上述し1こセンサヘッドSHの詳細を示す部
分断面図であり、第4図はそのA−A  断面図である
。これらの図において、このセンサヘッドSHはレーザ
トーチTと並列的に設けられており、ティーチ77時に
はレーザトーチTを図示の方向からα方向に90°回転
させて退避させる。
FIG. 3 is a partial sectional view showing details of the single sensor head SH described above, and FIG. 4 is a sectional view taken along line A-A. In these figures, the sensor head SH is provided in parallel with the laser torch T, and at the time of teaching 77, the laser torch T is rotated 90° from the direction shown in the figure in the α direction and retreated.

まに、再生モード時には、レーザトーチ′rを図示の方
向に戻スとともに、センサヘッドSHをγ方向(α方向
と同一)に180°回転させて退避させる。さらに、こ
の再生モード時には、レーザトーチTとセンサヘッドS
Rとを、アーム6の軸線まわりのβ方向に180°回転
させて、センサヘッドSRの図示の位置にレーザトーチ
Tが移動できるようになっている。これらの回転は、マ
ニュアルで行なってもよく、また、モータによって行な
ってもよい。なお、第3図のセンサヘッドS11の下方
に示し1こ破線工は、β方向の回転時におけろレーザト
ーチ′rの先端部分に対応する位置を示している。
Meanwhile, in the reproduction mode, the laser torch 'r is returned to the direction shown in the figure, and the sensor head SH is rotated 180 degrees in the γ direction (same as the α direction) and retracted. Furthermore, in this playback mode, the laser torch T and sensor head S
The laser torch T can be moved to the illustrated position of the sensor head SR by rotating R by 180 degrees in the β direction around the axis of the arm 6. These rotations may be performed manually or by a motor. Note that the one broken line shown below the sensor head S11 in FIG. 3 indicates a position corresponding to the tip of the laser torch 'r during rotation in the β direction.

第3図および第4図にお℃・て、センサヘッドSHのハ
ウジング30の下端には、シャッタ28を介して第2図
の照明用光源24に接続された3本の元ファイバ26(
26a〜26C)の投光端が設けられている。そして、
この投光端からは、ワークWの表面上の領域G?0:面
状に照明するための照明光りが照射されるようになって
いる。また、レーザダイオード″/l、係z5から3本
の光ファイバ2γ(27a〜270 ) KJ: ツテ
供給すレ7:”llハ、先端にマイクロレンズ(図示せ
ず)を内蔵した投光器31a〜31Cに与えられ、これ
らの投光器318〜31GからワークWc)表面に3本
のスポット光として照射される。
3 and 4, the lower end of the housing 30 of the sensor head SH has three original fibers 26 (
26a to 26C) are provided. and,
From this light emitting end, the area G? on the surface of the workpiece W? 0: Illumination light for planar illumination is irradiated. In addition, three optical fibers 2γ (27a to 270) are connected to the laser diode "/l, and the coefficient z5 is connected to three optical fibers 2γ (27a to 270). The surface of the workpiece Wc) is irradiated from these projectors 318 to 31G as three spot lights.

これらの投光器31a〜31 Cは、第5図に示すよう
に、それらからのスポット光La−Lcが一点0で交わ
るように配置されており、センサヘッドSfiとワーク
Wとの相対的距離・姿勢関係に応じて次のJl、’)な
光点群をワークW上に形成する。
These floodlights 31a to 31C are arranged so that the spotlights La-Lc from them intersect at a point 0, as shown in FIG. 5, and the relative distance and posture between the sensor head Sfi and the work W. The following Jl,') light spot group is formed on the workpiece W according to the relationship.

すなわち、ワークWの表面に対してセンサヘッド8Hが
所定の距離および姿勢′ffK−保って℃・るとき(第
5図中にWaで示す面がワークWの表面となっていると
き)には、第6図(ll)に示すように、ワークW上の
3個の光スポットPI 〜P3は、基準位tltQt−
Qa内にそれぞれ形成されろ。一方、これらの相対距離
や姿勢が第5図中にWb−Wdで示すようにずれたとき
には、第6図(b)〜(d)にそれぞれ示すように、基
準位置Q、〜Q3からずれたものとなる。
That is, when the sensor head 8H maintains a predetermined distance and posture from the surface of the workpiece W by 0.degree. C. (when the surface indicated by Wa in FIG. 5 is the surface of the workpiece W), , as shown in FIG. 6(ll), the three optical spots PI to P3 on the workpiece W are located at the reference position tltQt-
Each is formed within Qa. On the other hand, when these relative distances and postures deviate as shown by Wb-Wd in Fig. 5, they deviate from the reference positions Q, ~Q3, as shown in Figs. 6(b) to (d), respectively. Become something.

したがって、光スポットP1〜P30位償と基準位置Q
1〜Q3  との関係が常に第6図(a)の関係となる
ように距離・姿勢制御を行なえば、センサヘッドSRと
ワークWとの相対距離と姿勢とを所定の値に保ちつつテ
ィーチングを行なうことができろ。このような制御は、
c、a’r12の画面を目視しつつキーボード12の操
作によって行なうこともでき、また、画像処理装置22
の出力に基いてマイクロコンピュータ21に自動的に行
なわせることもできる。
Therefore, the optical spots P1 to P30 and the reference position Q
If distance and attitude control is performed so that the relationships between 1 to Q3 are always as shown in FIG. Be able to do it. Such control is
This can also be done by operating the keyboard 12 while visually viewing the screens c and a'r 12.
It is also possible to have the microcomputer 21 perform this automatically based on the output.

第3図に戻って、光ファイバ268〜26Cからの照明
光りによって照明され1こワークWo)表面像(特に、
その表面の罫書線の像)と、投光器31a〜31Gによ
ってワークWの表面に形成された距離・姿勢検出用光ス
ボノ)Pl 〜P3とは、ハウジング30内に設けられ
1こレンズ32を介して、COD撮像素子(I ’l’
 Vカメラ)33に入射し、その表面に結像する。1こ
だし、後述するように、スポット光LB−Lcは追従の
進行につれて点滅を繰返すf二め、光スポ/トPl−P
3の像は特定の時期のみに結像する(詳細は後述する)
Returning to FIG. 3, the surface image of the workpiece (Wo) illuminated by the illumination light from the optical fibers 268 to 26C (in particular,
The images of the lines on the surface of the workpiece W) and the distance/posture detection lights Pl to P3 formed on the surface of the workpiece W by the projectors 31a to 31G are provided in the housing 30 and transmitted through the lens 32. , COD image sensor (I 'l'
V camera) 33, and an image is formed on its surface. 1, as described later, the spot light LB-Lc repeats blinking as the tracking progresses.Second, the light spot/Pl-P
Image 3 forms only at a specific time (details will be explained later)
.

なお、照明光りは、スポット光La〜Lcが消灯してい
るときに照射されるので、このときは罫書線の1家の画
像レベルは比較的高いものになっている。また、スポッ
ト光La−Lcが点灯しているときはは遮断されるので
、このときは罫書線の像の画像レベルは非常に低いもの
になっている(詳細は後述する。)そして、このように
して得られる画像データは、画像伝送ライン34を通じ
て第2図の画像処理装置22に与えられ、後述するよう
な画像処理を受ける。そして、それによって、あらかじ
め形成された罫書線Cを画像として検出しつつ、それに
追従してセンサヘッドSHが移動¥るとともに、ティー
チングデータが取込まれる。
Note that since the illumination light is emitted when the spot lights La to Lc are off, the image level of one house of the ruled line is relatively high at this time. In addition, when the spot lights La-Lc are on, they are blocked, so the image level of the ruled line image is very low at this time (details will be described later). The image data obtained in this manner is supplied to the image processing device 22 of FIG. 2 through the image transmission line 34, and undergoes image processing as described below. As a result, while detecting the pre-formed score line C as an image, the sensor head SH moves to follow it and the teaching data is taken in.

そこで、以下では、このような装置を利用してティーチ
ング動作乞行なう際の処理を、第7図を蚕照して説明す
る。なお、以下の各処理は、第2図ノマイクロコンピュ
ータ21および外部コンピュータ11の制御下で行なわ
れる。
Therefore, below, the process when performing a teaching operation using such a device will be explained with reference to FIG. Note that each of the following processes is performed under the control of the microcomputer 21 and external computer 11 in FIG.

まず、第7図のステップS1では、レーザダイオード光
源25をオンとする。また、照明用光源24もオンとし
ておき、シャッタ28を閉じさせる。これによってスポ
ット光La−Lcだけが照射さnる。このため、第8図
e)に示すようにスポット光P1〜P3の像と罫書線C
の像とがワークWの表面上で観測できるようになる。た
だし、罫書線Cの像は明度の非常に小いものであり、場
合によればほとんど観測されないこともありうる。
First, in step S1 of FIG. 7, the laser diode light source 25 is turned on. Further, the illumination light source 24 is also turned on and the shutter 28 is closed. As a result, only the spot lights La-Lc are irradiated. Therefore, as shown in FIG. 8e), the images of the spot lights P1 to P3 and the line C
image can now be observed on the surface of the workpiece W. However, the image of the score line C has very low brightness, and depending on the case, it may be hardly observed.

もし、照明光り乞遮断しない場合、やはり罫書線Cの像
の明度は、スポット光P1〜P3の像に比べて明度は小
いのではあるか、周囲の状況によってはかなり大きくな
ることもありうる。なお、基準位置Ql−Q8を示すマ
ークの像(白丸)は、画像処理装置22の中で作成され
ており、実際に観測された画像と合成されてCRT12
の画面上に表示されている。
If the illumination light is not blocked, the brightness of the image of the score line C may still be lower than the images of the spot lights P1 to P3, but it may become quite large depending on the surrounding situation. . Note that the mark image (white circle) indicating the reference position Ql-Q8 is created in the image processing device 22, and is combined with the actually observed image and displayed on the CRT 12.
is displayed on the screen.

このような状態において読取られる画像データのうち、
第8図(a)のI−iライン上の画素の画像レベルを第
9図(a)に示す。この第9図(a)かられかるように
、元スポットP3および罫書線Cに相当する領域におい
て、画像レベルにピークが形成されている。
Among the image data read in such a state,
The image level of the pixel on line I-i in FIG. 8(a) is shown in FIG. 9(a). As can be seen from FIG. 9(a), a peak is formed in the image level in the area corresponding to the original spot P3 and the score line C.

第1図の次のステップS2では、スポット光La〜Lc
の強度に応じてあらかじめ定められている第1のしきい
値vHを、画像処理装置22内に設定する。この第1の
しきいVHは、光スポットP1〜P3 の画像レベルと
罫書線Cの像の画像レベルとの間のレベルに設定されて
いる。換言すれば、このしきい値Vl(は、第9図(a
)の2つのピークの中間の値を有する。また、この第1
のしきい値VHは、後述する罫書線検出のための第2の
しきい値V)(、Cりも筒い値となっている。それは、
スポット光La−Loはレーザーダイオードの発光によ
って与えられるため、その光強度は大きくなっているの
に対して、照明光りを与えろための照明用光源24とし
ては、白熱灯などのように比較的小さな光強度を持った
光源乞使用することに対応している。
In the next step S2 in FIG.
A first threshold value vH that is predetermined according to the intensity of is set in the image processing device 22. This first threshold VH is set to a level between the image level of the light spots P1 to P3 and the image level of the image of the ruled line C. In other words, this threshold value Vl (is
) has a value intermediate between the two peaks. Also, this first
The threshold value VH is a second threshold value V for detecting ruled lines, which will be described later.
Since the spot light La-Lo is provided by light emission from a laser diode, its light intensity is large, whereas the illumination light source 24 for providing illumination light is a relatively small one such as an incandescent lamp. It is compatible with the use of light sources with high light intensity.

第7図の次のステップS3では、CCD撮像素子33に
よって撮像された画像データ(第9図(a)  )を画
像処理装置22内に取込む。そして、ステップS4でこ
の画像データの画素ごとのレベルと上記しきい値VHと
を比較し、これによって画像データ?:2値化して、し
きい値VHよりも高いレベルを持った画素の画面上の位
置を特定する。
In the next step S3 in FIG. 7, image data (FIG. 9(a)) captured by the CCD image sensor 33 is taken into the image processing device 22. Then, in step S4, the level of each pixel of this image data is compared with the threshold value VH, and based on this, the image data? : Binarize and identify the positions on the screen of pixels with a level higher than the threshold value VH.

これによって、第8図(a)の光スポットP1〜P3の
画面上の位置を知ることができる。ところで、照明光り
の光強度はスポット光La−Lbに比べて小さいので、
通常罫書線Cに相当する画像データがvHを超えること
はないのではあるが、時として周囲状況によりC0)、
に、うになると、光スポットPl−P3 と混同される
ことがありうる。この1こめ、照明光りを遮断して、罫
書線Cの明度を極力小いものにしている。さらに、この
ようにして得られた光スポットP1〜P3 の位置と、
基準位置Q1〜Q3とのずれをゼロにするように、ロボ
ット几Bの機構、駆動系23へ、駆動指令信号を与える
This makes it possible to know the positions of the light spots P1 to P3 in FIG. 8(a) on the screen. By the way, since the light intensity of the illumination light is smaller than that of the spot light La-Lb,
Normally, the image data corresponding to the score line C does not exceed vH, but sometimes depending on the surrounding conditions, C0),
If this happens, it may be confused with the light spot Pl-P3. At this moment, the illumination light is blocked and the brightness of the ruled line C is made as low as possible. Furthermore, the positions of the light spots P1 to P3 obtained in this way,
A drive command signal is given to the mechanism and drive system 23 of the robot box B so that the deviation from the reference positions Q1 to Q3 is zero.

それによってロボットRBが駆動され、光スポットP1
〜P3がそれぞれ基準位置Q1〜Q3と一致jるよ5に
、センサヘッドS HとワークWとの距離、およびセン
サヘッドS Hの姿勢が制御される(ステン・プ85)
。このような制御が行なわれた後の画像を第8図(b)
に、また、その■−■ライン上における画像レベルを第
9図(1))に示す。
As a result, the robot RB is driven, and the light spot P1
~P3 coincides with the reference positions Q1 to Q3, respectively, and the distance between the sensor head SH and the workpiece W and the posture of the sensor head SH are controlled (step 85).
. The image after such control is shown in Figure 8(b).
Furthermore, the image level on the line ``--'' is shown in FIG. 9(1)).

第7図の次のステップS6では、レーザーダイオード光
源25をオフとし、シャッタ28を開く。
In the next step S6 in FIG. 7, the laser diode light source 25 is turned off and the shutter 28 is opened.

それによってスポット光La〜Lcの照射は停止され、
CCD撮像素子33の画角内の全体を照明する照明光り
のみがワークWの表面に照射される。
As a result, the irradiation of the spot lights La to Lc is stopped,
Only the illumination light that illuminates the entire field of view of the CCD image sensor 33 is irradiated onto the surface of the workpiece W.

すると、第8図(C)に示¥ように、罫書線Cのみの像
が観測されるようになる。このとき、スポット光La〜
Lcは消灯されているため、第8図(a)、(b)のよ
うな光スポットPl〜P3は観測されない。
Then, as shown in FIG. 8(C), an image of only the score line C comes to be observed. At this time, the spot light La~
Since Lc is turned off, the light spots P1 to P3 as shown in FIGS. 8(a) and 8(b) are not observed.

そして、第8図(e)のl−111ライン上における画
像レベルは第9図(9のようになる。
The image level on the l-111 line in FIG. 8(e) is as shown in FIG. 9 (9).

前述したように、照明光りの強度はスポット光La=L
cの強度に比べて小さな値を有して(・る。
As mentioned above, the intensity of the illumination light is the spot light La=L
It has a small value compared to the intensity of c (・ru.

このため、第7図のステップS7では、比較的低い第2
のしきい値VL ?:画像処理装置22内に設定する。
Therefore, in step S7 of FIG. 7, the relatively low second
Threshold value VL? : Set in the image processing device 22.

この第2のしきい値VLのレベルは、罫書線Cの像の画
像レベル(ピーク値)よりも低(、ノイズレベルVNよ
り高い値である。そして、次のステップS8では第8図
(C)の画像データを取込み、ステップS9で上記低レ
ベルしきい値VL (第9図(C))と各画素の画像レ
ベルとが比較されて画像データが2値化される。それに
基いて、しきい値VL以上のレベルを有する画素の位置
が特定されろが、これらの画素の位置が罫書線Cの位置
に相当する。この処理において、スポット光La〜L(
・の照射が停止されているため、しきい値VLとの比較
によって取出される像は、罫書線Cの像のみである。
The level of this second threshold VL is lower than the image level (peak value) of the image of the ruled lines C (and higher than the noise level VN. Then, in the next step S8, as shown in FIG. ), and in step S9, the low level threshold value VL (FIG. 9(C)) is compared with the image level of each pixel, and the image data is binarized. Although the positions of pixels having a level equal to or higher than the threshold value VL are specified, the positions of these pixels correspond to the positions of the ruled line C. In this process, the spot lights La to L(
Since the irradiation of . is stopped, only the image of the score line C is extracted by comparison with the threshold value VL.

次のステップ81oでは、第8図(C)中に示すように
、画面上の所定本数(8本)ごとの走査線と罫書線Cと
がそれぞれ交わる点として、目標点Fの位置が決定され
、この目標点Fが画面上に「+j印で表示される。これ
らの目標点Fは、ティーチング点の候補となる点である
In the next step 81o, as shown in FIG. 8(C), the position of the target point F is determined as the point where a predetermined number (8) of scanning lines on the screen intersect with the ruled line C. , these target points F are displayed as +j marks on the screen.These target points F are points that are candidates for teaching points.

そして、ステップS11では、複数の目標点Fの中から
所定の規則によって選択された点が画面中心からどの程
度ずれているかを求める。そして、そのずれ量に応じて
、センサヘッド81Hの現時点での位置・姿勢データに
補正を加え、補正後の位置・姿勢データをティーチング
データとして取込む。これによってひとつのティーチン
グ点でのティーチング処理が完了する。
Then, in step S11, it is determined how far a point selected from among the plurality of target points F according to a predetermined rule deviates from the center of the screen. Then, according to the amount of deviation, correction is made to the current position/orientation data of the sensor head 81H, and the corrected position/orientation data is taken in as teaching data. This completes the teaching process at one teaching point.

その点が最終ティーチング点でないときには、ステップ
812から813へ進み、罫書線Cが伸びる方向に沿っ
てセンサヘッドSRを所定距離だけ移動させる。そして
、ステップS1へと戻り、上述し1こ動作を繰返して行
き、最終ティーチング点に至るとティーチング処理が完
了する。これによってセンサヘッド8Hが罫書線Cに自
動的に追従し、自動的なティーチングが実行されること
になる。
If that point is not the final teaching point, the process proceeds from step 812 to step 813, and the sensor head SR is moved by a predetermined distance along the direction in which the score line C extends. Then, the process returns to step S1, and the above-described one operation is repeated, and when the final teaching point is reached, the teaching process is completed. As a result, the sensor head 8H automatically follows the score line C, and automatic teaching is executed.

この繰返し処理において、センサヘッド81()位置・
姿勢を調整する際にはスポット光La、LCのみが高レ
ベルしきい値V l(によって取出される。また、罫書
線Cの位置を検出−する際には照明fLのみが照射され
る。このため光スポットP1〜P3の位置を特定する際
に、光スポットP1〜P3の像と罫書線Cの像とが同時
に観測されて第10図(a)のような空間的レベル分布
を持つ画像データが取込まれても、元スポットP3の像
のみを取出すことができる。
In this iterative process, the sensor head 81() position and
When adjusting the posture, only the spotlights La and LC are extracted by the high-level threshold value Vl. Also, when detecting the position of the score line C, only the illumination fL is irradiated. Therefore, when identifying the positions of the light spots P1 to P3, the images of the light spots P1 to P3 and the image of the ruled line C are observed simultaneously, resulting in image data having a spatial level distribution as shown in FIG. 10(a). Even if the original spot P3 is captured, only the image of the original spot P3 can be extracted.

また、罫書線Cの像の位置を決定する際には、光スボソ
) l)1〜P3を形成させるためのスポット光La−
Loは消灯されているために、第10図(a)のような
画像データが取込まれることはなく、第10図(b)の
ように、罫書線Cの像のみを明確にとらえることが可能
である。このため、罫書線Cに沿って、センサヘッド8
Hが正確に追従して行くことになる。
In addition, when determining the position of the image of the score line C, the spot light La- for forming 1 to P3 is used.
Since Lo is turned off, image data like that shown in Figure 10 (a) is not captured, and only the image of the ruled line C can be clearly captured as shown in Figure 10 (b). It is possible. Therefore, the sensor head 8
H will follow accurately.

なお、罫書線Cの検出の際には上記の同様に照明光りの
みを照射し、これに対してスポット光のみを照射すると
いう技術も考えられる。そして、この場合には、単一の
しきい値(たとえば上記しきい値L)で双方の像を2値
化することができる。
Note that when detecting the ruled line C, a technique of irradiating only illumination light as described above and irradiating only spot light may also be considered. In this case, both images can be binarized using a single threshold (for example, the threshold L).

しかしながら、このような技術の場合には、全面照明用
の照明光りを煩繁に点滅させねばならない。
However, in the case of such a technique, the illumination light for full-surface illumination must be repeatedly blinked.

ところが、照明光Lo)光源として使用される白熱灯や
ハロゲン灯は点滅の応答速度が遅い上に、点滅を繰返す
と寿命が著しく短(なる。これに対して、この発明では
、照明光りは点滅させるのでになく、遮断と照射の繰返
しとし、レーザダイオードなどの、Jl、’)に、点滅
の応答性が高く、かつ点滅を繰返しても寿命があまり短
(ならない光源を利用して形成できるスポット光(パタ
ーン光)のみを点滅させることになる1こめ、このよう
な問題は生じないという利点もある。
However, incandescent lamps and halogen lamps used as illumination light sources have a slow blinking response speed, and repeated blinking has a significantly shortened lifespan.In contrast, in this invention, the illumination light is The spot can be formed using a light source such as a laser diode, which has high blinking responsiveness and whose lifespan is very short even after repeated blinking. There is also the advantage that such a problem does not occur when only the light (pattern light) is blinked.

以上、この発明の一実施例について説明したが、この発
明は」二記実施例に限定されるものではなく、たとえば
次のような変形も可能である。
Although one embodiment of the present invention has been described above, the present invention is not limited to the second embodiment, and for example, the following modifications are possible.

■加工線としては、単なる罫書線ではなく、たとえはワ
ークWの表面に蛍光塗料などt帯状に塗布し、その上に
罫書きしたものであってもよ(゛。
■The processing line is not just a scribing line, but may also be a strip of fluorescent paint applied to the surface of the workpiece W and scribing on it (゛.

このようにすると罫書線がより明確に画像上に現われる
ため、自動追従にさらに適したものとなる。
In this way, the ruled lines appear more clearly on the image, making it more suitable for automatic tracking.

−!、た、ワークWの表面上に塗料で線書きした加工線
や、テープ乞貼付けてこのテープ上に細い切次葎を設け
たものなどであってもよい。
-! Alternatively, it may be a processing line drawn with paint on the surface of the workpiece W, or a tape may be pasted and a thin cutout may be provided on the tape.

■上記実施例ではパターン光として3個のスポット光を
用いた場合を示しγこが、4個以上のスポット光を用い
1こものであってもよい。また、スポット光ではなく、
たとえば線状や網目状のパターンを有する光をワーク表
面に照射して、その画像に基づいてワークとセンサヘッ
ドとの空間的関係乞調整する。にりな場合にもこの発明
は適用可能である。照明光の光源をロボット等の加工機
器に取付けておくことも必須ではな(、外部位置に設け
てあってもよい。また、シャッタは電磁式に限るもので
はなく、液晶を利用したものでもよい。
(2) The above embodiment shows the case where three spot lights are used as the pattern light, but γ may be one using four or more spot lights. Also, rather than spot light,
For example, light having a linear or mesh pattern is irradiated onto the surface of the workpiece, and the spatial relationship between the workpiece and the sensor head is adjusted based on the image. The present invention is also applicable to the case of It is not essential to attach the light source of the illumination light to the processing equipment such as a robot (although it may be provided at an external location.Also, the shutter is not limited to an electromagnetic type, and may be one using a liquid crystal. .

■加工線追従にあたってはセンサヘッドとワークとの相
対的空間関係を変化させればよいわけであるから、セン
サヘッドは空間的に固定され、ワークW側の位置・姿勢
のみを変化させるような工作機器にもこの発明は適用で
きる。
■When following the machining line, it is sufficient to change the relative spatial relationship between the sensor head and the workpiece, so the sensor head is spatially fixed and only the position and orientation of the workpiece W side is changed. This invention can also be applied to equipment.

■この発明は、ロボットのティーチングに限らず、罫書
線追従を行ないつつ所望の処理を行なう棟々の工作機器
全般に通用可能である。
(2) The present invention is applicable not only to robot teaching but also to all kinds of machine tools that perform desired processing while following marked lines.

(発明の効果) 以上説明したように、この弁明によれば、パターン光の
像の位置の検出と加工線の位置の検出とのそれぞれを2
値画像処理で行なうことかでさ、かつ、双方の検出にお
いて必安とする像のみ乞明確にとらえることができろた
め、大幅なコストアップを招くことなく、追従精度を向
上させることのできろ加工線追従方法を得ることができ
る。
(Effect of the invention) As explained above, according to this defense, the detection of the position of the image of the pattern light and the detection of the position of the machining line are performed in two ways.
This is done through value image processing, and since it is possible to clearly capture only the images that are essential for both detections, it is possible to improve tracking accuracy without incurring a significant increase in cost. A processing line following method can be obtained.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、この発明を産業用ロボットのティーチングに
適 した実施例の機構的構成の概略を示す斜視図、 第2図は、第1図のロボットの電気的構成を示¥概略ブ
ロック図、 第3図は、センサヘッドの詳細構成を示す部分断面図、 第4図は、第3図のA −A’  断面図、第5図およ
び第6図はセンサヘッドとワークとの相対距離・姿勢の
制御原理例の説明図、第7図は実施例の動作を示すフロ
ーチャート、第8図は実施例において取込まれる画像の
例を示す図、 第9図および第10図は実施例において取込まれる画像
データのレベルとしきい値との関係を示す図、 第11図および第12図は従来の加工線追従方法の説明
図である。 RB・・・レーザ切断ロボット、 9・・・制御装置、     10・・・操作盤、11
・・・外部コンピュータ、 22・・・画像処理装置、 T・・・レーザトーチ、S
 H・・・センサヘッド、 W・・・ワーク、C・・・
罫書線(加工、り、 ” fL〜L。・・・スポット光(パターン光)、P1
〜P3・・・光スポット、  L・・・照明光、V L
、(・・・第1のしきい値、 VL・・・第2のしきい値
FIG. 1 is a perspective view schematically showing the mechanical configuration of an embodiment of the present invention suitable for teaching an industrial robot; FIG. 2 is a schematic block diagram showing the electrical configuration of the robot shown in FIG. 1; Fig. 3 is a partial sectional view showing the detailed configuration of the sensor head, Fig. 4 is a sectional view taken along line A-A' in Fig. 3, and Figs. 5 and 6 are the relative distances and postures between the sensor head and the workpiece. FIG. 7 is a flowchart showing the operation of the embodiment, FIG. 8 is a diagram showing an example of an image captured in the embodiment, and FIGS. 9 and 10 are images captured in the embodiment. FIGS. 11 and 12 are diagrams illustrating the relationship between the level of image data to be processed and the threshold value. FIGS. RB...Laser cutting robot, 9...Control device, 10...Operation panel, 11
...External computer, 22... Image processing device, T... Laser torch, S
H...sensor head, W...work, C...
Scratch line (processing, ri, "fL~L...Spot light (pattern light), P1
~P3...Light spot, L...Illumination light, V L
, (...first threshold value, VL...second threshold value

Claims (2)

【特許請求の範囲】[Claims] (1)所定の工作機器に取付けられたパターン光照射手
段から所定のパターン光を前記被工作物の表面へ照射し
た状態で前記表面の画像データを取込み、前記画像デー
タのレベルと第1のしきい値とを比較して前記表面にお
ける前記パターン光の像の位置を求め、前記パターン光
の像の位置に基づいて前記工作機器と前記被工作物の表
面との空間的関係を調整する第1のステップと、 前記被工作物の表面に付された工作線の像を照し出す所
定の照明光を前記表面へと照射した状態で前記表面の画
像データを取込み、前記画像データのレベルと第2のし
きい値とを比較して前記工作線の像の位置を検出する第
2のステップと、前記工作線が延びる方向に沿って前記
工作機器と前記被工作物との空間的関係を変化させる第
3のステップとを含み、 前記第1ないし第3のステップを繰返すことによって、
前記工作線に追従して前記工作機器を動作させる工作線
追従方法において、 前記パターン光の強度を前記照明光の強度よりも大きな
ものとし、 前記第1のしきい値を前記パターン光の像の画像レベル
と前記加工線の像の画像レベルとの間のレベルに設定し
ておくとともに、前記第2のしきい値を前記加工線の像
の画像レベルよりも低いレベルに設定しておき、 前記第1のステップにおいて前記パターン光照射手段か
ら所定のパターン光を前記被工作物の表面へ照射した状
態で前記表面の画像を取込む際、前記照明光を遮断して
おくとともに、 前記第2のステップにおいて前記表面の画像データを取
込む際には、前記パターン光の照射を停止しておくこと
を特徴とする工作線追従方法。
(1) Capturing the image data of the surface while irradiating the surface of the workpiece with a predetermined pattern light from a pattern light irradiation means attached to a predetermined machine tool, and comparing the level of the image data and the first A first step of determining the position of the patterned light image on the surface by comparing the patterned light image with a threshold value, and adjusting the spatial relationship between the machine tool and the workpiece surface based on the position of the patterned light image. capturing image data of the surface while irradiating the surface with a predetermined illumination light that illuminates an image of the work line attached to the surface of the workpiece, and adjusting the level and level of the image data. a second step of detecting the position of the image of the work line by comparing the position with a threshold value of 2, and changing the spatial relationship between the machine tool and the workpiece along the direction in which the work line extends; by repeating the first to third steps,
In the work line tracking method of operating the machine tool following the work line, the intensity of the pattern light is made greater than the intensity of the illumination light, and the first threshold value is set to a value of the image of the pattern light. The second threshold value is set to a level between the image level and the image level of the image of the processing line, and the second threshold is set to a level lower than the image level of the image of the processing line. In the first step, when capturing an image of the surface of the workpiece with a predetermined pattern of light irradiated onto the surface of the workpiece from the patterned light irradiation means, the illumination light is blocked, and the second A work line following method, characterized in that when capturing image data of the surface in the step, irradiation of the pattern light is stopped.
(2)前記工作機器は産業用ロボットであり、前記追従
は前記産業用ロボットのティーチング処理のための追従
であり、前記工作線は罫書線であって、前記パターン光
は、互いに異なる照射角度を有する3個以上のスポット
光である。特許請求の範囲第1項記載の工作線追従方法
(2) The machine tool is an industrial robot, the tracking is a tracking for teaching processing of the industrial robot, the work line is a ruled line, and the pattern light has different irradiation angles. There are three or more spotlights having the following characteristics. A work line tracing method according to claim 1.
JP63135226A 1988-05-31 1988-05-31 Follow-up method for working line Pending JPH01306093A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63135226A JPH01306093A (en) 1988-05-31 1988-05-31 Follow-up method for working line

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63135226A JPH01306093A (en) 1988-05-31 1988-05-31 Follow-up method for working line

Publications (1)

Publication Number Publication Date
JPH01306093A true JPH01306093A (en) 1989-12-11

Family

ID=15146763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63135226A Pending JPH01306093A (en) 1988-05-31 1988-05-31 Follow-up method for working line

Country Status (1)

Country Link
JP (1) JPH01306093A (en)

Similar Documents

Publication Publication Date Title
US6763284B2 (en) Robot teaching apparatus
US5999642A (en) Method and apparatus for determining the configuration of a workpiece
JP2714277B2 (en) Lead shape measuring device
CN103480991B (en) Thin steel plate narrow welding joint online visual inspection and control device
JP6740288B2 (en) Object inspection apparatus, object inspection system, and method for adjusting inspection position
CN110807969A (en) Machine vision recognition teaching system and teaching method
JPH0616169B2 (en) Image contour data creation device
JPH01306093A (en) Follow-up method for working line
JP2519445B2 (en) Work line tracking method
JP2519442B2 (en) Work line tracking method
CA2092709A1 (en) Apparatus and method for deciding or setting ideal lighting conditions and photographic conditions, etc. in image processing system, or for aiding in deciding or setting of said conditions
JP3501661B2 (en) Inspection method and inspection device for liquid crystal display panel
JPH0334803B2 (en)
JPS62176741A (en) Ruled line trailing method
JP2519444B2 (en) Work line tracking device
JP3203507B2 (en) Laser processing equipment
JP2817092B2 (en) Laser processing equipment
JP2603643B2 (en) Assembly method
JP2887656B2 (en) Laser processing equipment
JPH07205014A (en) Grinding robot
JPH0719813A (en) Three-dimensional visual recognition system
JPH01218790A (en) Working line follow-up system
JPH04141384A (en) Calibration method in positioning system using image processing device and device therefor
KR200274554Y1 (en) Laser pattern repair machine with pattern inspection unit
JP2512202B2 (en) Processing equipment