JP2519444B2 - Work line tracking device - Google Patents
Work line tracking deviceInfo
- Publication number
- JP2519444B2 JP2519444B2 JP62025385A JP2538587A JP2519444B2 JP 2519444 B2 JP2519444 B2 JP 2519444B2 JP 62025385 A JP62025385 A JP 62025385A JP 2538587 A JP2538587 A JP 2538587A JP 2519444 B2 JP2519444 B2 JP 2519444B2
- Authority
- JP
- Japan
- Prior art keywords
- line
- image
- point
- work
- teaching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Machine Tool Copy Controls (AREA)
- Laser Beam Processing (AREA)
Description
【発明の詳細な説明】 (産業上の利用分野) この発明は、被工作物の表面に付された工作線に追従
して、所定の工作機器(たとえば産業用ロボット)を動
作させるための工作線追従装置に関する。DETAILED DESCRIPTION OF THE INVENTION (Industrial field of application) The present invention relates to a work for operating a predetermined machine tool (for example, an industrial robot) by following a work line attached to the surface of a workpiece. The present invention relates to a line tracking device.
(従来の技術とその問題点) プレス成形された板金などのような複雑な立体形状を
有するワークを切断して所望の形状とすることのできる
切断ロボットとしては、本件出願人によって出願され、
特開昭57-96791号公報において開示されたプラズマ切断
ロボットなど、種々のものが既に提案されて実用化され
ている。そして、このようなロボットにおいては、切断
線などの工作線を、あらかじめマニュアルでワークやテ
ィーチングモデル上に罫書きしておき、この罫書線に沿
ってティーチングを行なう必要がある。(Prior art and its problems) As a cutting robot capable of cutting a workpiece having a complicated three-dimensional shape such as a press-formed sheet metal into a desired shape, the present applicant has filed an application,
Various types such as the plasma cutting robot disclosed in JP-A-57-96791 have already been proposed and put into practical use. In such a robot, it is necessary to manually mark the work line such as the cutting line on the work or teaching model in advance and perform the teaching along the marking line.
このような工作線に沿ってティーチングを行なう作業
は従来マニュアルで行なわれてきたが、これには多大の
時間と労力とを必要とするため、最近では自動的にティ
ーチングを行なう装置によってその効率化が図られてい
る。このような装置としては、たとえば特開昭61-10080
8号公報に開示されているような装置がある。この装置
では、第9図に模式図として示すように、ロボットのエ
ンドエフェクタ近傍に3個以上のスポット光源101〜103
を設け、これらのスポット光源101〜103からワークWの
表面に照射された光スポットP1〜P3の画像をTVカメラ10
4でとらえる。そして、CRT(図示せず)の画面上におけ
る光スポットP1〜P3の位置関係に基づいてロボットとワ
ークWとの空間的相対関係を求め、それに応じてロボッ
トの姿勢などを調整する。さらに、この状態で罫書線C
の画像をとらえ、この罫書線Cの位置に追従してロボッ
トを移動させるとともに、ティーチングデータの取込み
を行なっている。Conventionally, teaching work along such a work line has been performed manually, but since this requires a great deal of time and labor, recently, the efficiency of the teaching is improved by an automatic teaching device. Is being pursued. As such a device, for example, JP-A-61-10080
There is a device as disclosed in Japanese Patent No. In this device, as shown in FIG. 9 as a schematic diagram, three or more spot light sources 101 to 103 are provided near the end effector of the robot.
The TV camera 10 displays images of the light spots P 1 to P 3 emitted from the spot light sources 101 to 103 on the surface of the work W.
Capture with 4. Then, the spatial relative relationship between the robot and the work W is obtained based on the positional relationship of the light spots P 1 to P 3 on the screen of the CRT (not shown), and the posture of the robot is adjusted accordingly. Furthermore, in this state, the ruled line C
Of the image, the robot is moved following the position of the marking line C, and the teaching data is taken in.
ところで、このような装置では、罫書線Cの位置を精
密にとらえる目的で、TVカメラ104の撮像倍率をかなり
大きくしてある。このため、TVカメラ104でとらえた画
像はたとえば第10図のようになっており、罫書線Cは有
限の幅を持った帯状像となる。ところが、罫書線Cの位
置を数値データとして取扱うためには、このような帯状
像のままでは不便である。このため、所定本数(N本)
ごとの走査線li(i=1,2,…)が罫書線Cと交わる位置
において、罫書線上Cに指示点Fi(i=1,2,…)を自動
設定し、この指示点Fiの位置を罫書線Cの代表位置とし
て認識するようにしている。By the way, in such a device, the image pickup magnification of the TV camera 104 is made considerably large in order to accurately detect the position of the ruled line C. Therefore, the image captured by the TV camera 104 is as shown in FIG. 10, for example, and the ruled line C is a band-shaped image having a finite width. However, in order to handle the position of the ruled line C as numerical data, it is inconvenient to use such a strip image. Therefore, the predetermined number (N)
At the position where each scanning line l i (i = 1,2, ...) Crosses the marking line C, the designated point F i (i = 1,2, ...) is automatically set on the marking line C, and this designated point F The position of i is recognized as the representative position of the ruled line C.
より具体的には、走査線liが罫書線Cと交わり始める
点Ps(以下、「交叉開始点」と言う。)と交わり終わる
点Pe(「交叉開始点」)との中の中心点を演算して求
め、これを指示点Fiとする。そして、モニタ用のCRTの
画面上では、この指示点Fiの位置に第9図のような
「+」印の位置マーカMiを表示させておくようにしてい
る。More specifically, the center between the point P s (hereinafter referred to as the “crossover start point”) at which the scanning line l i begins to intersect the scribe line C and the point P e (“crossover start point”) at which the scan line l i ends. A point is calculated and obtained, and this is designated as a designated point F i . Then, on the screen of the monitor CRT, the position marker M i of “+” mark as shown in FIG. 9 is displayed at the position of the designated point F i .
しかしながら、罫書線Cの像として第9図のような滑
らかな帯状像が得られるとは限らず、罫書きの不均一性
や、画像の2値化処理におけるしきい値設定ずれなどに
起因して、罫書線Cの像が第10図のようになってしまう
ことも多い。そして、このような凹凸や枝別れを持った
像が取込まれると各指示点Fiを適切に設定することが困
難となり、この第10図に示すように、罫書線Cの事実上
の中心からはずれた位置に一部の指示点F3が設定されて
しまうことになる。However, a smooth band image as shown in FIG. 9 is not always obtained as the image of the scoring line C, and it is caused by nonuniformity of the scoring and a threshold value shift in the image binarization process. Therefore, the image of the ruled line C often becomes as shown in FIG. When an image having such unevenness or branching is captured, it becomes difficult to set each pointing point F i appropriately, and as shown in FIG. A part of the designated point F 3 is set at a position deviated from.
その結果、従来の装置は、マニュアルによるティーチ
ングと比較して効率性が高いという利点を有している半
面で、指示点Fiの位置データを取込んで追従動作を行な
わせた場合に追従の軌跡が必ずしも罫書線Cに沿った適
切なものとならないという問題があった。As a result, the conventional device has the advantage of higher efficiency compared to manual teaching, but when the position data of the designated point F i is taken in and the follow-up operation is performed, the follow-up operation is performed. There is a problem that the locus does not always become an appropriate one along the ruled line C.
(発明の目的) この発明は従来技術における上述の問題の克服を意図
しており、工作線の像に対して自動設定された指示点が
不適切な位置に存在する場合にも、自動追従の効率性を
失うことなく、適切な工作線追従動作を行なわせること
のできる工作線追従装置を提供することを目的とする。(Object of the Invention) The present invention is intended to overcome the above-mentioned problems in the prior art, and even when the pointing point automatically set with respect to the image of the working line exists at an inappropriate position, automatic tracking is performed. An object of the present invention is to provide a work line tracking device capable of performing an appropriate work line tracking operation without losing efficiency.
(目的を達成するための手段) 上述の目的を達成するため、この発明は、被工作物の
表面に付された工作線の像を読取って、前記工作線の像
と所定の関係にある位置に前記工作線の位置を指示する
指示点を自動設定し、前記指示点の位置に応じて定まる
動作情報を所定の工作機器に与えて、前記工作機器を前
記工作線に沿って追従動作させる工作線追従装置におい
て、自動設定された前記指示点の位置を前記工作線の
像とともに表示する表示手段と、前記表示手段の表示
内容に応じて与えられるマニュアル入力に基いて、前記
指示点を所望の位置へと移動修正する指示点移動修正手
段とを設ける。(Means for Achieving the Object) In order to achieve the above-mentioned object, the present invention reads an image of a working line attached to the surface of a workpiece to determine a position in a predetermined relationship with the image of the working line. A process for automatically setting a pointing point for instructing the position of the working line, giving motion information determined according to the position of the pointing point to a predetermined machine tool, and causing the machine tool to follow the work line. In the line tracking device, based on the display means for displaying the position of the automatically set pointing point together with the image of the working line, and the manual input given according to the display content of the displaying means, the pointing point is set to the desired point. An instruction point movement correction means for moving and correcting to the position is provided.
すなわち、自動的な画像処理においては工作線の像か
ら適切な指示点位置を選択することに限度があるが、こ
れに対して人間の形状認識能力は格段に優れていること
に着目する。この観点から、この発明では、自動設定さ
れた指示点の位置を工作線の像とともに表示させ、指示
点の位置が適切でないとオペレータが判断した際には、
その位置をマニュアル入力によって移動修正させるよう
な装置とするのである。That is, in automatic image processing, there is a limit in selecting an appropriate pointing point position from an image of a work line, but it is noted that human shape recognition ability is remarkably excellent. From this viewpoint, in the present invention, the position of the automatically set pointing point is displayed together with the image of the working line, and when the operator determines that the position of the pointing point is not appropriate,
The device is designed to move and correct its position by manual input.
なお、この発明における「被工作物」とは、製品その
ものに限らず、ロボットのティーチングモデル等、被工
作対象を表現したダミーその他をも含む用語である。The “workpiece” in the present invention is not limited to the product itself, but is a term that includes a dummy or the like representing a work target such as a teaching model of a robot.
また、工作機器の動作は、ティーチングのようなデー
タ取込みのための動作のほか、実際の加工動作そのもの
など、種々の動作であってもよい。Further, the operation of the machine tool may be various operations such as an actual machining operation itself in addition to an operation for data acquisition such as teaching.
(実施例) A.実施例の機構的構成の概要 第1図は、この発明の工作線追従装置を用いて罫書線
(工作線)追従を行なわせる工作機器の一例としての、
直角座標型レーザ切断ロボットの機構的構成を示す概略
斜視図である。同図において、このレーザ切断ロボット
RBは、基台1の上に、図示しないモータM1によってX方
向(水平方向)に移動自在な移動台2を有しており、こ
の移動台2の上にワーク(図示せず)を載置する。基台
1の両側方に垂直に立設されたコラム3の頂部にはビー
ム4が架設され、このビーム4には、図のZ方向(垂直
方向)に延びるとともに、モータM2によってY方向に移
動自在な移動コラム5が設けられている。この移動コラ
ム5には、後述する2種類の光源を内蔵した光源装置14
が取付けられている。(Embodiment) A. Outline of mechanical structure of embodiment FIG. 1 shows an example of a machine tool for performing marking line (working line) tracking using the working line tracking device of the present invention.
It is a schematic perspective view which shows the mechanical structure of a rectangular coordinate type laser cutting robot. In the same figure, this laser cutting robot
The RB has a movable table 2 which is movable on the base 1 in the X direction (horizontal direction) by a motor M 1 (not shown), and a work (not shown) is placed on the movable table 2. Place. A beam 4 is erected on the top of a column 3 which is erected vertically on both sides of the base 1, and the beam 4 extends in the Z direction (vertical direction) in the drawing and is moved in the Y direction by a motor M 2 . A movable column 5 that is movable is provided. The moving column 5 includes a light source device 14 having two types of light sources, which will be described later.
Is installed.
また、この移動コラム5の下端には、モータM3によっ
てZ方向に上下するモータM4が設けられている。これに
よって、移動コラム5の中心軸から偏心した位置に設け
られているアーム6が図のθ方向に回転する。また、こ
のアーム6の下端側方にはモータM5が設けられており、
これによってエンドエフェクタとしてのレーザトーチT
が図のψ方向に回動する。さらに、このレーザトーチT
に隣接して、光学的な罫書線追従のためのセンサヘッド
SH(後述する)が配置されている。Further, a motor M 4 which moves up and down in the Z direction by the motor M 3 is provided at the lower end of the moving column 5. Accordingly, the arm 6 provided at a position eccentric from the center axis of the moving column 5 rotates in the θ direction in the drawing. Further, a motor M 5 is provided on the lower side of the arm 6,
This allows the laser torch T as an end effector.
Rotates in the ψ direction in the figure. Furthermore, this laser torch T
Adjacent to the sensor head for optical marking line tracking
SH (described later) is placed.
このうち、レーザトーチTには、レーザ発振装置7か
らのレーザビームがレーザガイドパイプ8を通して与え
られる。また、制御装置9には、後述する画像処理装置
やマイクロコンピュータなどが内蔵されており、操作盤
10には、キーボードやディスプレイ等が設けられてい
る。Among these, the laser beam from the laser oscillator 7 is applied to the laser torch T through the laser guide pipe 8. Further, the control device 9 has an image processing device, a microcomputer, and the like, which will be described later, built therein.
The 10 is provided with a keyboard and a display.
さらに、外部コンピュータ11は種々のデータの入出力
やデータ処理を行なうためのものであり、CRT(表示手
段)12やキーボード(マニュアル入力手段)13などを備
えている。そして、上記センサヘッドSHからの画像は、
このCRT12においてモニタされるが、このCRT12の画面上
の画像は、後述する位置スケールの移動修正における目
視に利用される。また、この発明の特徴に応じた「指示
点移動修正手段」は、上記マイクロコンピュータ21や外
部コンピュータ11内に、ソフト的に設けられている。Further, the external computer 11 is for inputting / outputting various data and processing data, and includes a CRT (display means) 12 and a keyboard (manual input means) 13. And the image from the sensor head SH is
The image on the screen of the CRT 12 is monitored by the CRT 12, but is used for visual observation in the movement correction of the position scale described later. Further, "pointing point movement correction means" according to the features of the present invention is provided as software in the microcomputer 21 or the external computer 11.
B.実施例の電気的構成の概略 第2図は、第1図に示したロボットRBの電気的構成の
概略図である。第2図において、制御装置9に内蔵され
たマイクロコンピュータ21には、バスBLを介して、以下
の各機器などが接続されている。B. Outline of Electrical Configuration of Embodiment FIG. 2 is a schematic diagram of the electrical configuration of the robot RB shown in FIG. In FIG. 2, the following devices and the like are connected to the microcomputer 21 built in the control device 9 via the bus BL.
上記モータM1〜M5や、これらのモータM1〜M5の回転角
を検知するエンコーダE1〜E5(第1図中には図示せず)
を含んだ機構駆動系23, レーザ発振装置7, 操作盤10, 外部コンピュータ11, 光源装置14。The motor M 1 ~M 5 and, (not shown in FIG. 1) encoder E 1 to E 5 for detecting the rotation angle of the motor M 1 ~M 5
Mechanism drive system 23, laser oscillator 7, operation panel 10, external computer 11, light source device 14.
一方、被工作物としてのワークWに対向するセンサヘ
ッドSHには、ティーチング時にワークWを照明して罫書
線Cを照し出すための照明光が、照明用光源24から光フ
ァイバ26を介して与えられる。また、ティーチング時に
センサヘッドSHとワークWとの相対的距離・姿勢関係を
所定の関係に保持するために使用されるスポット光を与
えるための光も、レーザダイオード光源25から光ファイ
バ27を介してセンサヘッドSHに与えられる。On the other hand, the sensor head SH facing the workpiece W as the workpiece receives illumination light for illuminating the workpiece W and illuminating the ruled line C from the illumination light source 24 via the optical fiber 26 during teaching. Given. Further, the light for giving the spot light used for maintaining the relative distance / posture relationship between the sensor head SH and the work W in a predetermined relationship during teaching is also transmitted from the laser diode light source 25 through the optical fiber 27. It is given to the sensor head SH.
さらに、センサヘッドSHからは、罫書線Cの付近の画
像信号が画像処理装置22に取込まれ、マイクロコンピュ
ータ21の制御下で、第1図のCRT12に映し出されるよう
になっている。ただし、画像処理装置22は2値画像処理
を行なう装置として構成されている。なお、このシステ
ムは、上位のホストシステム(図示せず)の制御下で動
作させることもできる。Further, from the sensor head SH, an image signal in the vicinity of the marking line C is taken in by the image processing device 22 and is displayed on the CRT 12 in FIG. 1 under the control of the microcomputer 21. However, the image processing device 22 is configured as a device that performs binary image processing. This system can be operated under the control of a host system (not shown).
C.センサヘッドSHの詳細構成 第3図は、上述したセンサヘッドSHの詳細を示す部分
断面図であり、第4図はそのA-A′断面図である。これ
らの図において、このセンサヘッドSHはレーザトーチT
と並列的に設けられており、ティーチング時にはレーザ
トーチTを図示の方向からα方向に90°回転させて退避
させる。C. Detailed Configuration of Sensor Head SH FIG. 3 is a partial cross-sectional view showing the details of the sensor head SH described above, and FIG. 4 is a cross-sectional view taken along the line AA ′. In these figures, this sensor head SH is a laser torch T
The laser torch T is rotated 90 ° in the α direction from the direction shown in the drawing and retracted during teaching.
また、再生モード時には、レーザトーチTを図示の方
向に戻すとともに、センサヘッドSHをγ方向(α方向と
同一)に180°回転させて退避させる。さらに、この再
生モード時には、レーザトーチTとセンサヘッドSHと
を、アーム6の軸線まわりのβ方向に180°回転させ
て、センサヘッドSHの図示の位置にレーザトーチTが移
動できるようになっている。これらの回転は、マニュア
ルで行なってもよく、また、モータによって行なっても
よい。なお、第3図のセンサヘッドSHの下方に示した破
線Iは、β方向の回転時におけるレーザトーチTの先端
部分に対応する位置を示している。Further, in the reproduction mode, the laser torch T is returned in the direction shown in the figure, and the sensor head SH is rotated 180 ° in the γ direction (the same as the α direction) and retracted. Further, in the reproduction mode, the laser torch T and the sensor head SH can be rotated 180 ° in the β direction around the axis of the arm 6 so that the laser torch T can move to the position shown in the sensor head SH. These rotations may be performed manually or by a motor. A broken line I shown below the sensor head SH in FIG. 3 indicates a position corresponding to the tip portion of the laser torch T when rotating in the β direction.
第3図および第4図において、センサヘッドSHのハウ
ジング30の下端には、第2図の照明用光源24に接続され
た3本の光ファイバ26(26a〜26c)の投光端が設けられ
ている。そして、この投光端からは、ワークWの表面上
の領域Gを面状に照明するための照明光Lが照射される
ようになっている。また、レーザダイオード光源25から
3本の光ファイバ27(27a〜27c)によって供給された光
は、先端にマイクロレンズ(図示せず)を内蔵した投光
器31a〜31cに与えられ、これらの投光器31a〜31cからワ
ークWの表面に3本のスポット光として照射される。3 and 4, the light emitting ends of three optical fibers 26 (26a to 26c) connected to the illumination light source 24 of FIG. 2 are provided at the lower end of the housing 30 of the sensor head SH. ing. Then, from this light projecting end, illumination light L for illuminating the area G on the surface of the work W in a planar manner is emitted. Further, the light supplied from the laser diode light source 25 by the three optical fibers 27 (27a to 27c) is given to the projectors 31a to 31c having a microlens (not shown) at the tip thereof, and these projectors 31a to 31c. The surface of the work W is irradiated from 31c as three spot lights.
これらの投光器31a〜31cは、第5図に示すように、そ
れらからのスポット光La〜Lcが一点Oで交わるように配
置されており、センサヘッドSHとワークWとの相対的距
離・姿勢関係に応じて次のような光点群をワークW上に
形成する。すなわち、ワークWの表面に対してセンサヘ
ッドSHが所定の距離および姿勢を保っているとき(第5
図中にWaで示す面がワークWの表面となっているとき)
には、第6図(a)に示すように、ワークW上の3個の
光スポットP1〜P3は、基準位置Q1〜Q3内にそれぞれ形成
される。一方、これらの相対距離や姿勢が第5図中にWb
〜Wdで示すようにずれたときには、第6図(b)〜
(d)にそれぞれ示すように、基準位置Q1〜Q3からずれ
たものとなる。These projectors 31a~31c, as shown in FIG. 5, the spot beam L a ~L c from them are arranged to intersect at one point O, the relative distance between the sensor head SH and the workpiece W · The following light spot groups are formed on the work W according to the posture relationship. That is, when the sensor head SH maintains a predetermined distance and posture with respect to the surface of the work W (the fifth
(When the surface indicated by W a in the figure is the surface of the workpiece W)
6A, the three light spots P 1 to P 3 on the work W are formed in the reference positions Q 1 to Q 3 , respectively. On the other hand, these relative distances and postures are W b in FIG.
~ When it shifts as shown by W d , Fig. 6 (b) ~
As shown in (d), the positions are displaced from the reference positions Q 1 to Q 3 .
したがって、光スポットP1〜P3の位置と基準位置Q1〜
Q3との関係が常に第6図(a)の関係となるように距離
・姿勢制御を行なえば、センサヘッドSHとワークWとの
相対距離と姿勢とを所定の値に保ちつつ追従とティーチ
ングとを行なうことができる。このような制御は、CRT1
2の画面を目視しつつキーボード12の操作によって行な
うこともでき、また、画像処理装置22の出力に基いてマ
イクロコンピュータ21に自動的に行なわせることもでき
る。Therefore, the positions of the light spots P 1 to P 3 and the reference position Q 1 to
By performing the distance / posture control so that the relationship with Q 3 is always the relationship shown in FIG. 6 (a), tracking and teaching are performed while maintaining the relative distance between the sensor head SH and the work W and the attitude at predetermined values. You can do Such control is provided by CRT1
The operation can be performed by operating the keyboard 12 while visually observing the second screen, or the microcomputer 21 can be automatically performed based on the output of the image processing device 22.
第3図に戻って、光ファイバ26a〜26cからの照明光L
によって照明されたワークWの表面像(特に、その表面
の罫書線の像)と、投光器31a〜31cによってワークWの
表面に形成された距離・姿勢検出用光スポットP1〜P3と
は、ハウジング30内に設けられたレンズ32を介して、CC
D撮像素子(ITVカメラ)33に入射し、その表面に結像す
る。そして、このようにして得られる画像データは、画
像伝送ライン34を通じて第2図の画像処理装置22に与え
られ、後述するような画像処理を受ける。そして、それ
によって、あらかじめ形成された罫書線Cを画像として
検出しつつ、それに追従してセンサヘッドSHが移動する
とともに、ティーチングデータが取込まれる。Returning to FIG. 3, the illumination light L from the optical fibers 26a to 26c
The surface image of the work W (particularly, the image of the marking lines on the surface) and the distance / posture detection light spots P 1 to P 3 formed on the surface of the work W by the projectors 31a to 31c are CC through the lens 32 provided in the housing 30
The light enters the D image sensor (ITV camera) 33 and forms an image on its surface. Then, the image data obtained in this way is given to the image processing device 22 of FIG. 2 through the image transmission line 34 and undergoes image processing as described later. As a result, while detecting the ruled line C formed in advance as an image, the sensor head SH moves following it and the teaching data is taken in.
D.ティーチング動作 そこで、以下では、このような装置を利用してティー
チング動作を行なう際の処理を、第7図を参照して説明
する。なお、以下の各処理は、第2図のマイクロコンピ
ュータ21および外部コンピュータ11の制御下で行なわれ
る。また、上述のように、光スポットP1〜P3の位置関係
によってセンサヘッドSHとワークWと空間的関係が調整
されるが、この処理は既述した通りであって、この発明
の要旨と関係しないため、以下ではその重複説明を省略
する。D. Teaching Operation Therefore, hereinafter, the processing when the teaching operation is performed using such a device will be described with reference to FIG. The following processes are performed under the control of the microcomputer 21 and the external computer 11 shown in FIG. Further, as described above, the spatial relationship between the sensor head SH and the work W is adjusted by the positional relationship between the light spots P 1 to P 3 , but this processing is as described above, and the gist of the present invention is as follows. Since they are not related, duplicate description thereof will be omitted below.
まず、第7図のステップS1では、ITVカメラ33から罫
書線Cおよびその付近の画像を入力する。この画像デー
タは画像処理装置22において2値化される。次のステッ
プS2では、第10図において説明した処理と同様の処理を
行なって、N本ごとの走査線が罫書線Cとそれぞれ交わ
る部分の中心点位置をマイクロコンピュータ22が計算す
る。そして、これらの中心点の位置を指示点の位置とし
て、図示しないメモリ中に設定する。First, in step S1 of FIG. 7, the image of the ruled line C and its vicinity is input from the ITV camera 33. This image data is binarized in the image processing device 22. In the next step S2, the microcomputer 22 calculates the center point position of the portion where each N scanning lines intersects with the marking line C by performing the same processing as that described in FIG. Then, the positions of these center points are set in the memory (not shown) as the positions of the designated points.
ステップS3では、上記のようにして得られた指示点Fi
(i=1,2,…)の位置を示す位置マーカMi(i=1,2,
…)と、罫書線Cの像とを、第8図(a)に示すように
CRT12の画面R上に表示させる。ただし、第8図中のx
は水平走査方向(走査線方向)を示し、yは垂直走査
(送り)方向を示す。In step S3, the pointing point F i obtained as described above
Position marker M i (i = 1,2, ...) indicating the position of (i = 1,2, ...)
...) and the image of the ruled line C as shown in FIG. 8 (a).
Display on screen R of CRT12. However, x in FIG.
Indicates the horizontal scanning direction (scanning line direction), and y indicates the vertical scanning (feed) direction.
この状態において、オペレータはCRT12の画面Rを目
視し、罫書線Cの像と各位置マーカMiとの位置関係の適
否を判断する(ステップS4)。第8図(a)の例では、
位置マーカM3が図の右側へとずれすぎていることが、目
視によって判断される。この判断結果に従って、次のス
テップS5では各指示点の位置の適否に応じた分岐がなさ
れる。このうち、指示点Fiのうちのひとつまたはそれ以
上の位置が適切でないときにはステップS6へ進み、キー
ボード13からのキー入力などによって追従動作の一時停
止を行なう。In this state, the operator visually checks the screen R of the CRT 12 to determine whether the positional relationship between the image of the marking line C and each position marker M i is appropriate (step S4). In the example of FIG. 8 (a),
It is visually determined that the position marker M 3 is displaced too much to the right side of the drawing. According to this determination result, in the next step S5, a branch is made according to the propriety of the position of each designated point. If one or more of the designated points F i is not appropriate, the process proceeds to step S6, and the follow-up operation is temporarily stopped by a key input from the keyboard 13.
次のステップS7では、キーボード13からのマニュアル
入力によって、修正すべき指示点F3を指定するととも
に、その移動先を指定する。このうち、修正すべき指示
点F3の指定は、たとえば画面Rの上方から順に各指示点
に所定の番号を対応させておき、その番号を入力するこ
とによって行なうことができる。また、移動先の指定
は、キーボード13のカーソル移動キー(図示せず)を使
用して第8図(b)のx方向カーソルKxとy方向カーソ
ルKyとを画面R上で移動させ、それらの交点Qを指定す
ることによって行なうことができる。もっとも、マウス
などを外部コンピュータ11に取付け、これを用いて移動
先位置指定を行なってもよく、画面R上における座標値
を数値入力として与えてもよい。ライトペンなども、も
ちろん使用可能である。In the next step S7, the manual input from the keyboard 13, as well as specify the indication point F 3 to be corrected, to specify the destination. Of these, designated designated point F 3 to be modified, for example, allowed to correspond to a predetermined number to each instruction point in the order from the top of the screen R, can be performed by entering its number. To specify the destination, the cursor movement keys (not shown) of the keyboard 13 are used to move the x-direction cursor K x and the y-direction cursor K y in FIG. This can be done by designating their intersection Q. Of course, a mouse or the like may be attached to the external computer 11, and the destination position may be specified by using this, or the coordinate value on the screen R may be given as a numerical input. Of course, a light pen can also be used.
このようにして移動修正のデータがマニュアル入力さ
れると、指定された指示点F3に対応する位置マーカM
3が、移動先Qに移動する(ステップS8)。また、これ
と相前後してメモリ中に記憶されていた指示点F3の位置
座標データを、上記移動先Qの座標データに置換させ
る。この処理が完了した後の画面R上の画像が第8図
(c)に示されており、第8図(b)の点Qと同一の点
Fnewが新たな指示点となって、それに対応する新たな位
置マーカMnewがこの位置に表示されている。そして、次
のステップS9でオペレータがキー操作を行なうことによ
り、追従動作が再開される。なお、修正すべき指示点が
複数存在するときには、各指示点についての修正を終え
た後にステップS9を実行する。When the movement correction data is manually input in this way, the position marker M corresponding to the designated pointing point F 3
3 moves to the destination Q (step S8). Further, the position coordinate data of the designated point F 3 stored in the memory immediately before and after this is replaced with the coordinate data of the moving destination Q. The image on the screen R after this processing is completed is shown in FIG. 8 (c), and is the same as the point Q in FIG. 8 (b).
F new becomes a new pointing point, and a new position marker M new corresponding to it is displayed at this position. Then, in the next step S9, the operator performs a key operation to restart the follow-up operation. When there are a plurality of pointing points to be corrected, step S9 is executed after finishing the correction for each pointing point.
このようにして、指示点の移動修正が完了するか、
または、ステップS5で各指示点Fiの位置が適切である
と判断されたときには、ステップS10以下の処理が実行
される。ただし、上記のように修正不要のときには、
その旨のキー入力でステップS10に移るようになってい
る。In this way, the movement correction of the indicated point is completed,
Alternatively, when it is determined in step S5 that the position of each designated point F i is appropriate, the processing of step S10 and thereafter is executed. However, when there is no need for correction as described above,
The key input to that effect moves to step S10.
このステップS10以下では、まず、各指示点Fiの位置
をマイクロコンピュータ21が取込み(ステップS10)、
それに基いて教示点位置の算出を行なう(ステップS1
1)。この教示点としては指示点Fi自身を採用してもよ
いが、各指示点Fi(i=1,2,…)を滑かに結ぶ曲線を求
め、その曲線上の点を教示点とすることにより、さらに
好ましい教示が行なわれる。In step S10 and thereafter, first, the microcomputer 21 captures the position of each designated point F i (step S10),
Based on this, the teaching point position is calculated (step S1
1). Although the instruction point F i itself may be adopted as this teaching point, a curve that smoothly connects each instruction point F i (i = 1, 2, ...) Is obtained, and the point on the curve is set as the teaching point. By doing so, a further preferred teaching is given.
その後、この教示点の位置へとセンサヘッドSHを移動
させる。これは、たとえば、教示点の位置が画面R上に
設定された基準位置(図示せず)に一致するような動作
情報をロボット側へ与えて、ロボットの移動制御を行な
えばよい。そして、その状態におけるロボットの位置・
姿勢データをエンコーダE1〜E6の出力に基いて取込み、
それをティーチングデータとする(ステップS12)。After that, the sensor head SH is moved to the position of this teaching point. This may be performed by, for example, giving movement information to the robot side such that the position of the teaching point matches a reference position (not shown) set on the screen R to control the movement of the robot. And the position of the robot in that state
Take in attitude data based on the outputs of encoders E 1 to E 6 ,
It is used as teaching data (step S12).
これらの処理は罫書線Cの終端まで繰返され(ステッ
プS13)、それによってセンサヘッドSHが罫書線Cに追
従移動しつつ、一連のティーチングデータの取込み処理
が実行される。These processes are repeated until the end of the marking line C (step S13), whereby the sensor head SH moves following the marking line C, and a series of teaching data fetching processes is executed.
以上の動作において、指示点Fiの位置はいったん自動
設定されるため、各指示点Fiをマニュアルで設定する必
要はなく、自動追従による高速性は維持されたままであ
る。一方、不適切な指示点は、目視とマニュアル入力に
基いて適切な位置へと修正されるため、追従の正確性は
著しく向上する。このため、この実施例装置を用いるこ
とによって、追従処理の大幅な効率化が図れることにな
る。In the above operation, since the position of the designated point F i is once automatically set, it is not necessary to manually set each designated point F i, and the high speed by automatic tracking is maintained. On the other hand, the inappropriate pointing point is corrected to an appropriate position based on visual inspection and manual input, so that the accuracy of tracking is remarkably improved. Therefore, by using the device of this embodiment, the efficiency of the tracking process can be greatly improved.
E.変形例 以上、この発明の一実施例について説明したが、この
発明は上記実施例に限定されるものではなく、たとえば
次のような変形も可能である。E. Modifications One embodiment of the present invention has been described above, but the present invention is not limited to the above embodiment, and the following modifications are possible.
工作線としては、単なる罫書線ではなく、たとえばワ
ークWの表面に蛍光塗料などを帯状に塗布し、その上に
罫書きしたものであってもよい。このようにすると罫書
線がより明確に画像上に現われるため、自動追従にさら
に適したものとなる。また、ワークWの表面上に塗料で
線書きした工作線や、テープを貼付けてこのテープ上に
細い切欠線を設けたものなどであってもよい。The work line is not limited to a scribe line, but may be a line in which fluorescent paint or the like is applied to the surface of the work W in a band shape and scribed. In this way, the ruled lines appear more clearly on the image, which is more suitable for automatic tracking. Alternatively, a work line drawn with a paint on the surface of the work W, or a tape to which a thin cutout line is provided on the tape may be used.
上記実施例ではティーチング処理の全過程にわたって
目視判断を併用しているが、たとえばコーナー部などの
ように、指示点設定誤差が生じやすい部分のみに目視判
断を加えてもよい。また、一度、自動設定したままのデ
ータでティーチングを行ない、再生テストを行なって不
適切と判断された部分のみに修正を加えるようにしても
よい。In the above embodiment, the visual judgment is used in combination throughout the teaching process. However, the visual judgment may be added only to a portion such as a corner portion where an indication point setting error is likely to occur. Alternatively, once the teaching is performed with the data that is still set automatically, a reproduction test may be performed to correct only the portion determined to be inappropriate.
さらに、実施例では工作線の中心に指示点を設定する
場合を示したが、たとえば工作線のエッジや工作線から
所定距離だけずれた位置に指示点を設定するような場合
でもよい。つまり、指示点の設定位置として工作線の像
と所定の関係にある位置を採用する場合一般に、この発
明は適用できる。Further, in the embodiment, the case where the designated point is set at the center of the working line is shown, but the designated point may be set at the edge of the working line or at a position deviated from the working line by a predetermined distance. That is, the present invention can be generally applied to the case where a position having a predetermined relationship with the image of the working line is adopted as the setting position of the pointing point.
工作線追従にあたってはセンサヘッドとワークとの相
対的空間関係を変化させればよいわけであるから、セン
サヘッドは空間的に固定され、ワークW側の位置・姿勢
のみを変化させるような工作機器にもこの発明は適用で
きる。In order to follow the work line, the relative spatial relationship between the sensor head and the work need only be changed, so the sensor head is fixed spatially and only the position / orientation on the work W side is changed. The present invention can also be applied to.
この発明は、ロボットのティーチングに限らず、罫書
線追従を行ないつつ所望の処理を行なう種々の工作機器
全般に適用可能である。INDUSTRIAL APPLICABILITY The present invention is applicable not only to robot teaching but also to various machine tools that perform desired processing while following the marking lines.
(発明の効果) 以上説明したように、この発明によれば、指示点の設
定そのものは自動的に行なわれる一方で、それを目視に
よって修正することができるため、工作線の像に対して
自動設定された指示点が不適切な位置に存在する場合に
も前記修正によってその不適切性が確消されることにな
り、自動追従の効率性を失うことなく、適切な工作線追
従動作を行なわせることができる。(Effects of the Invention) As described above, according to the present invention, the setting of the pointing point itself is automatically performed, but it can be corrected visually, so that it is possible to automatically correct the image of the working line. Even if the set pointing point exists at an inappropriate position, the inappropriateness will be eliminated by the above-mentioned correction, and an appropriate work line tracking operation can be performed without losing the efficiency of automatic tracking. be able to.
第1図は、この発明を産業用ロボットのティーチングに
適用した実施例の機構的構成の概略を示す斜視図、 第2図は、第1図のロボットの電気的構成を示す概略ブ
ロック図、 第3図は、センサヘッドの詳細構成を示す部分断面図、 第4図は、第3図のA-A′断面図、 第5図および第6図はセンサヘッドとワークとの相対距
離・姿勢の制御原理例の説明図、 第7図は実施例の動作を示すフローチャート、 第8図は実施例の動作の説明図、 第9図ないし第11図は従来の工作線追従方法の説明図で
ある。 RB……レーザ切断ロボット、9……制御装置、10……操
作盤、11……外部コンピュータ、22……画像処理装置、
T……レーザトーチ、SH……センサヘッド、W……ワー
ク、C……罫書線(工作線)、La〜Lc……スポット光、
P1〜P3……光スポット、L……照明光、Fi……指示点、
Mi……位置マーカ1 is a perspective view showing an outline of a mechanical structure of an embodiment in which the present invention is applied to teaching of an industrial robot, FIG. 2 is a schematic block diagram showing an electric structure of the robot of FIG. 1, FIG. 3 is a partial sectional view showing the detailed structure of the sensor head, FIG. 4 is a sectional view taken along the line AA ′ of FIG. 3, and FIGS. 5 and 6 are the principle of controlling the relative distance / posture between the sensor head and the workpiece. FIG. 7 is a flow chart showing the operation of the embodiment, FIG. 8 is an illustration of the operation of the embodiment, and FIGS. 9 to 11 are illustrations of a conventional work line tracking method. RB ... Laser cutting robot, 9 ... Control device, 10 ... Operation panel, 11 ... External computer, 22 ... Image processing device,
T ...... laser torch, SH ...... sensor head, W ...... workpiece, C ...... scribed line (tool line), L a ~L c ...... spotlight,
P 1 to P 3 …… Light spot, L …… Illumination light, F i …… Indicator point,
M i …… Position marker
Claims (1)
取って、前記工作線の像と所定の関係にある位置に前記
工作線の位置を指示する指示点を自動設定し、前記指示
点の位置に応じて定まる動作情報を所定の工作機器に与
えて、前記工作機器を前記工作線に沿って追従動作させ
る工作線追従装置において、 自動設定された前記指示点の位置を前記工作線の像とと
もに表示する表示手段と、 前記表示手段の表示内容に応じて与えられるマニュアル
入力に基いて、前記指示点を所望の位置へと移動修正す
る指示点移動修正手段とを設けたことを特徴とする工作
線追従装置。1. An image of a working line attached to the surface of a workpiece is read, and a pointing point for pointing the position of the working line is automatically set at a position having a predetermined relationship with the image of the working line. In a work line tracking device that gives operation information determined according to the position of the pointing point to a predetermined machine tool and causes the machine tool to follow the working line, the position of the automatically set pointing point is Display means for displaying together with the image of the working line, and pointing point movement correcting means for moving and correcting the pointing point to a desired position based on a manual input given according to the display content of the display means are provided. A work line tracking device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62025385A JP2519444B2 (en) | 1987-02-05 | 1987-02-05 | Work line tracking device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62025385A JP2519444B2 (en) | 1987-02-05 | 1987-02-05 | Work line tracking device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS63196357A JPS63196357A (en) | 1988-08-15 |
JP2519444B2 true JP2519444B2 (en) | 1996-07-31 |
Family
ID=12164404
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP62025385A Expired - Lifetime JP2519444B2 (en) | 1987-02-05 | 1987-02-05 | Work line tracking device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2519444B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FI117005B (en) * | 2000-08-29 | 2006-05-15 | Aker Finnyards Oy | Arrangement and method of welding |
JP5342527B2 (en) * | 2010-09-16 | 2013-11-13 | 三菱電機株式会社 | Welding position detection device and welding position detection method |
-
1987
- 1987-02-05 JP JP62025385A patent/JP2519444B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPS63196357A (en) | 1988-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7490349B2 (en) | Input device, control method for input device, robot system, method for manufacturing article using robot system, control program and recording medium | |
US8010224B2 (en) | Automatic cutting device and production method for beveled product | |
US6763284B2 (en) | Robot teaching apparatus | |
JP2001319219A (en) | Device and method for generating part program for image measuring apparatus, image measuring apparatus and measure result display method therefor | |
JP3078668B2 (en) | Automatic glass scriber | |
CN109862989A (en) | Image-based technique selection when laser welding | |
JPH06137842A (en) | Method and device for measuring rotary tool blade part form | |
JP3958815B2 (en) | Tool position measuring method in NC machine tools | |
JP2519444B2 (en) | Work line tracking device | |
JPH0914921A (en) | Non-contact three-dimensional measuring instrument | |
JP2519445B2 (en) | Work line tracking method | |
US5339103A (en) | Part machining programming using a camera interchangeable with maching nozzle | |
JPH07210222A (en) | Positioning controller | |
JP2519442B2 (en) | Work line tracking method | |
JP2003223213A (en) | Teaching method and apparatus, and laser processing machine provided with the teaching method | |
JPH11351824A (en) | Coordinate system correcting method and image measuring instrument | |
JP3205183B2 (en) | Teaching device | |
JPH11207483A (en) | Laser beam machining device | |
JP2915979B2 (en) | Position and rotation angle detecting device, pointing device thereof, and robot operation teaching device using the same | |
JP2822314B2 (en) | Laser processing equipment | |
JP2742959B2 (en) | Laser processing equipment | |
JPH05337785A (en) | Grinding path correcting device of grinder robot | |
JP2543091B2 (en) | Robot copy control device | |
JPH05138349A (en) | Automatic multilayer wedding equipment | |
JP3203508B2 (en) | Laser processing equipment |