JPH07332927A - Work-position detector - Google Patents

Work-position detector

Info

Publication number
JPH07332927A
JPH07332927A JP13056694A JP13056694A JPH07332927A JP H07332927 A JPH07332927 A JP H07332927A JP 13056694 A JP13056694 A JP 13056694A JP 13056694 A JP13056694 A JP 13056694A JP H07332927 A JPH07332927 A JP H07332927A
Authority
JP
Japan
Prior art keywords
detection device
detection
sensor
scanning
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP13056694A
Other languages
Japanese (ja)
Inventor
Tatsu Okabe
達 岡部
Matsuo Nose
松男 野瀬
Kazunori Negishi
和則 根岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Komatsu Ltd
Original Assignee
Komatsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Komatsu Ltd filed Critical Komatsu Ltd
Priority to JP13056694A priority Critical patent/JPH07332927A/en
Publication of JPH07332927A publication Critical patent/JPH07332927A/en
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE:To perform the highly accurate detection at a high speed by operating the position of a characteristic point based on the detected distance data, which are obtained when a detector is moved in accordance with the instruction data instructed with the detector, and the instruction data. CONSTITUTION:For a laser displacement sensor 3, the scanning conditions of a robot tip 2b are instructed so that the scanning is performed so as to cross a welding line in the inclined lower direction A at a specified angle (a) with respect to a horizontal line. The time difference between the scanning start time (ts) and the characteristic- point detecting time (tf) is the virtual scanning time until the detection of the characteristic point, during which the scanning is performed at the instructed speed without acceleration time. The scanning time is multiplied by the scanning speed, and a scanning distance L is obtained. A horizontal scanning distance DELTAS and a vertical scanning distance DELTAZ of a sensor position R are obtained on the basis of the distance L and the angle (a). The sensor position R(Xf, Yf, Zf) at the time of detection of the characteristic point is obtained on the basis of the distances DELTAS and DELTAZ and the sensor position R (Xs, Ys, Zs) at the scanning start time. The coordinate position (X, Y, Z) of the characteristic point 11a is obtained on the basis of the sensor position R (Xf, Yf, Zf) and a sensor displacement Zf.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はワークの位置を検出する
装置に関し、特にロボットが行う加工作業に先だって加
工すべき溶接線等の加工作業点の位置を検出する装置に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for detecting the position of a work, and more particularly to a device for detecting the position of a processing work point such as a welding line to be processed prior to a processing work performed by a robot.

【0002】[0002]

【従来の技術】アーク溶接ロボットでは、アーム先端に
取り付けられた溶接トーチの先端を溶接線に沿って移動
させることにより溶接作業が行われる。
2. Description of the Related Art In an arc welding robot, welding work is performed by moving the tip of a welding torch attached to the tip of an arm along a welding line.

【0003】この場合、ワークの設置誤差やバラツキに
対応するために、ロボットアーム先端に、上記溶接線を
検出するセンサを取り付け、これを溶接作業前に溶接線
上に位置させ溶接線をセンシングし、溶接線の位置、形
状についての検出データを取得し、この検出データに基
づいてティーチングによって得られたトーチの位置、軌
跡に関するデータの誤差を修正した上で、溶接を行うと
いう方法がとられる。上記溶接線検出センサとして、レ
ーザ光を検出媒体とするレーザセンサが用いられること
があり、このレーザセンサは、大きく二つに分類され
る。
In this case, in order to cope with installation errors and variations of the work, a sensor for detecting the above welding line is attached to the tip of the robot arm, and this is positioned on the welding line before the welding work to sense the welding line, A method is available in which detection data on the position and shape of the welding line is acquired, and errors in the data on the torch position and trajectory obtained by teaching are corrected based on the detection data, and then welding is performed. A laser sensor using a laser beam as a detection medium may be used as the welding line detection sensor, and the laser sensor is roughly classified into two.

【0004】一つは、2次元のレーザセンサであり、例
えば特開平1―245103号公報には2次元のレーザ
センサを使用してワークの位置を計測する技術が開示さ
れている。2次元のレーザセンサは、レーザセンサ内部
で投射レーザ光を走査ミラーによって走査させ、レーザ
光の照射位置からセンサまでの距離と、投射レーザ光の
走査方向の照射位置の2次元の位置検出が可能である。
よって、この2次元レーザセンサをロボットに取り付
け、ワーク上で静止させた状態で位置検出を行えば、ロ
ボットの座標系におけるセンサの座標位置と、センサか
ら出力される2次元検出位置とに基づいて、ロボット座
標系におけるワークの3次元位置を計測することができ
る。
One is a two-dimensional laser sensor. For example, Japanese Patent Application Laid-Open No. 1-245103 discloses a technique for measuring the position of a work by using a two-dimensional laser sensor. The two-dimensional laser sensor scans the projected laser light with a scanning mirror inside the laser sensor, and it is possible to detect the distance from the irradiation position of the laser light to the sensor and the two-dimensional position of the irradiation position of the projected laser light in the scanning direction. Is.
Therefore, if this two-dimensional laser sensor is attached to the robot and position detection is performed while the robot is stationary on the work, the two-dimensional detection position output from the sensor and the coordinate position of the sensor in the coordinate system of the robot are used. It is possible to measure the three-dimensional position of the work in the robot coordinate system.

【0005】また、他の一つのレーザセンサは、レーザ
光が照射されるワーク面とセンサとの距離のみを検出す
ることができる1次元のレーザセンサである。この1次
元レーザセンサをロボットに取り付けロボットを動かし
ワーク上を走査することによって、ワークの3次元位置
が計測される。すなわち、この1次元レーザセンサをロ
ボットに取り付け、ロボットアームを動かすことにより
センサを走査させる。そして走査中、センサによってセ
ンシングを行うことによって、ワーク表面の走査データ
を取得し、ワーク上の特徴点を検出した時点でロボット
を停止させる。そして、ロボット座標系におけるセンサ
の座標位置と、特徴点検出時のセンサの出力である変位
とによってワーク上の特徴点の3次元位置を計測すると
いうものである。
The other laser sensor is a one-dimensional laser sensor which can detect only the distance between the sensor and the work surface irradiated with the laser beam. The three-dimensional position of the work is measured by mounting the one-dimensional laser sensor on the robot and moving the robot to scan the work. That is, the one-dimensional laser sensor is attached to the robot, and the sensor is scanned by moving the robot arm. Then, during scanning, sensing is performed by a sensor to acquire scan data on the surface of the work, and the robot is stopped when a feature point on the work is detected. Then, the three-dimensional position of the feature point on the work is measured by the coordinate position of the sensor in the robot coordinate system and the displacement which is the output of the sensor when the feature point is detected.

【0006】[0006]

【発明が解決しようとする課題】しかし、2次元レーザ
センサを使用した位置計測では、高速かつ高精度に計測
を行うことができるものの、投射レーザ光の走査距離は
数10ミリになるため検出範囲が狭く、ワークの大きな
位置ずれや、不確定なワークの形状に対しては対応する
ことができない場合がある。また、走査ミラー等、レー
ザ投射光を走査する機構が必要となるため、センサの構
造が複雑化し、センサ本体のコストが高いという問題も
ある。
However, in the position measurement using the two-dimensional laser sensor, although the measurement can be performed at high speed and with high accuracy, the scanning distance of the projected laser light is several tens of millimeters, so that the detection range is detected. However, it may not be possible to deal with a large work position deviation or an indefinite work shape. Further, since a mechanism for scanning the laser projection light such as a scanning mirror is required, the structure of the sensor becomes complicated and the cost of the sensor body is high.

【0007】また、1次元レーザセンサを使用した位置
計測は、センサ本体は2次元レーザセンサと比べて安価
であり、ロボットを動かし走査するので広範囲な検出が
可能であるものの、高速に走査すると精度が低下すると
ともに、逆に精度が要求される場合には低速に走査しな
ければならず高速化が図れない。
In the position measurement using the one-dimensional laser sensor, the sensor main body is cheaper than the two-dimensional laser sensor, and the robot is moved and scanned, so that a wide range of detection is possible. When accuracy is required, on the other hand, the scanning speed must be low and high speed cannot be achieved.

【0008】すなわち、この位置計測では、特徴点検出
時点でロボットの動きを停止させるようにしているた
め、センサから出力される検出位置に基づいてワークの
特徴点の3次元位置を出力するまでの間に、検出された
データをデータ処理し、特徴点を認識するために要する
時間と、特徴点を検出してからロボットを停止させるま
でに要する時間とを合わせたタイムラグが存在する。そ
して、走査が高速であればあるほど、上記タイムラグに
ロボットの走査速度を掛けて得られるセンサの走査位置
の検出誤差は大きなものとなる。
That is, in this position measurement, since the movement of the robot is stopped at the time of detecting the characteristic point, the three-dimensional position of the characteristic point of the work is output based on the detected position output from the sensor. In the meantime, there is a time lag that is the sum of the time required to process the detected data and recognize the feature point, and the time required to stop the robot after detecting the feature point. The higher the scanning speed, the larger the detection error of the scanning position of the sensor obtained by multiplying the time lag by the scanning speed of the robot.

【0009】このように1次元のレーザセンサを使用し
た位置計測は、安価で広範囲な計測が可能であるもの
の、高速性と高精度をともに達成することは困難であっ
た。
As described above, the position measurement using the one-dimensional laser sensor is inexpensive and can measure a wide range, but it is difficult to achieve both high speed and high accuracy.

【0010】本発明は、こうした実状に鑑みてなされた
ものであり、1次元のレーザセンサを使用する場合であ
っても、高速かつ高精度にワークの位置検出を行うこと
ができるようにすることを目的とするものである。
The present invention has been made in view of these circumstances, and it is possible to detect the position of a work at high speed and with high accuracy even when a one-dimensional laser sensor is used. The purpose is.

【0011】[0011]

【課題を解決するための手段】そこで、この発明の主た
る発明では、ワーク表面までの距離を検出する検出装置
を、前記ワークの特徴点上に位置させて前記検出装置に
よって該検出装置と前記特徴点との距離を検出し、該検
出された距離と前記検出装置の位置とに基づいて前記特
徴点の位置を検出するワークの位置検出装置において、
前記検出装置が前記特徴点を横切って移動するよう前記
検出装置の移動を教示し、教示データにしたがって前記
検出装置を移動させたときに取得される前記検出装置の
検出距離データと、前記教示データとに基づいて前記特
徴点の位置を演算するようにしている。
Therefore, in the main invention of the present invention, a detection device for detecting the distance to the surface of the work is located on a feature point of the work, and the detection device and the feature are used by the detection device. In a position detecting device for a work, which detects a distance to a point and detects the position of the characteristic point based on the detected distance and the position of the detecting device,
The detection data of the detection device acquired when the detection device teaches the movement of the detection device so as to move across the feature point, and the detection device is moved according to the teaching data, and the teaching data. The position of the characteristic point is calculated based on

【0012】[0012]

【作用】かかる本発明の構成によれば、図3、図4に示
すように、教示データにしたがって特徴点11aを横切
るよう、所定の方向Aに検出装置3が移動され、この時
の検出装置3の検出距離Zのデータが取得される。そし
て、取得された距離データZと教示データとに基づい
て、特徴点11aの位置(X、Y、Z)が演算される。
According to the structure of the present invention, as shown in FIGS. 3 and 4, the detecting device 3 is moved in the predetermined direction A so as to cross the feature point 11a in accordance with the teaching data, and the detecting device at this time is moved. The data of the detection distance Z of 3 is acquired. Then, the position (X, Y, Z) of the characteristic point 11a is calculated based on the acquired distance data Z and the teaching data.

【0013】このように検出装置3を特徴点11a上で
停止させることなく検出装置3を教示によって走査させ
検出装置3の距離データをすべて取得してから、この取
得されたデータに基づき特徴点11aの位置を演算する
ようにしているため、特徴点11aの位置を走査速度に
関わらず高速かつ高精度に求めることができる。
As described above, the detection device 3 is scanned by teaching without stopping the detection device 3 on the feature point 11a, all distance data of the detection device 3 is acquired, and then the feature point 11a is acquired based on the acquired data. Since the position of is calculated, the position of the feature point 11a can be obtained at high speed and with high accuracy regardless of the scanning speed.

【0014】[0014]

【実施例】以下、図面を参照して本発明に係るワークの
位置検出装置の実施例について説明する。なお、この実
施例では、所定の加工作業点についてアーク溶接作業を
行う溶接ロボットを想定しているが、これに限定される
ことなく、所定の加工作業点について加工作業を行うロ
ボットであれば、シーリング作業用ロボット等他のロボ
ットに適用する実施も可能である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a work position detecting device according to the present invention will be described below with reference to the drawings. In addition, in this embodiment, a welding robot that performs arc welding work on a predetermined processing work point is assumed, but the invention is not limited to this, as long as it is a robot that performs processing work on a predetermined processing work point, It can be applied to other robots such as a robot for sealing work.

【0015】図1は、実施例のロボットシステムの構成
を示すブロック図である。
FIG. 1 is a block diagram showing the configuration of the robot system of the embodiment.

【0016】同図1に示すように、溶接ロボット1は、
多関節ロボットであり、その先端アーム1aの先端に
は、溶接トーチ2が配設されている。この溶接トーチ2
は、その先端部に軸2aを有しており、その先端2bが
被加工物(以下ワークという)10の溶接線11に沿っ
て移動されることにより、溶接作業が行われる。
As shown in FIG. 1, the welding robot 1 is
It is an articulated robot, and a welding torch 2 is arranged at the tip of its tip arm 1a. This welding torch 2
Has a shaft 2a at its tip, and its tip 2b is moved along a welding line 11 of a workpiece (hereinafter referred to as a workpiece) 10 to perform welding work.

【0017】上記溶接線11の位置は、溶接作業前に予
めレーザ変位センサ3によって検出される。
The position of the welding line 11 is detected by the laser displacement sensor 3 in advance before the welding operation.

【0018】さて、このレーザ変位センサ3は、図8に
示すように、たとえばブラケット12を介してトーチ軸
2aに装着されており、レーザ光Jをワーク加工面10
a上に照射したときの反射位置を1次元的に検出するこ
とによって、該変位センサ3のトーチ軸2aに対する取
付位置(以下「センサ位置」という)Rと照射位置PL
との距離(変位)Zを検出するものである。
As shown in FIG. 8, the laser displacement sensor 3 is mounted on the torch shaft 2a via, for example, a bracket 12, and the laser beam J is applied to the workpiece machining surface 10.
The one-dimensional detection of the reflection position when irradiating on a is performed, whereby the mounting position (hereinafter referred to as "sensor position") R of the displacement sensor 3 to the torch shaft 2a and the irradiation position PL.
The distance (displacement) Z from

【0019】変位センサ3の検出信号Zはセンサアンプ
4に加えられ、A/Dコンバータ5を介してセンサコン
トローラ6に入力される。センサコントローラ6は、C
PU7とメモリ8を有しており、これらによって後述す
るように、入力された検出信号Zに基づいて所定の演算
処理を行い、最終的にワーク10の溶接線11上の各点
11aの3次元座標位置(X、Y、Z)を、ロボット座
標系X―Y―Zにおける座標位置として出力する(図3
参照)。
The detection signal Z of the displacement sensor 3 is applied to the sensor amplifier 4 and input to the sensor controller 6 via the A / D converter 5. The sensor controller 6 is C
It has a PU 7 and a memory 8, and as will be described later, a predetermined arithmetic processing is performed on the basis of the input detection signal Z, and finally the three-dimensional shape of each point 11a on the welding line 11 of the work 10 is obtained. The coordinate position (X, Y, Z) is output as the coordinate position in the robot coordinate system XYZ (see FIG. 3).
reference).

【0020】ロボットコントローラ9は、CPU13と
メモリ14を有しており、これらによって上記センサコ
ントローラ6から入力された溶接線11の位置データに
基づいて溶接線11のティーチングデータを補正する処
理を行い、この補正されたティーチングデータに基づい
てロボット1に対する駆動制御信号Sを生成、出力し、
ロボット各軸を駆動制御する。
The robot controller 9 has a CPU 13 and a memory 14, and performs processing for correcting the teaching data of the welding line 11 based on the position data of the welding line 11 input from the sensor controller 6 by these. A drive control signal S for the robot 1 is generated and output based on the corrected teaching data,
Drives and controls each axis of the robot.

【0021】・第1の実施例(図2) 図2は、上記コントローラ6、9で行われるワーク位置
検出処理の処理手順を示すフローチャートである。以
下、図3、図4を併せ参照しつつ処理内容について説明
する。
First Embodiment (FIG. 2) FIG. 2 is a flowchart showing the processing procedure of the work position detection processing performed by the controllers 6 and 9. Hereinafter, the processing content will be described with reference to FIGS.

【0022】まず、ロボット1によってレーザ変位セン
サ3が、図3に示すように、溶接線11を横切ることを
前提条件として水平線に対して所定角度aをもって斜め
下方Aに走査されるようにロボット1先端2bの走査開
始位置、走査終了位置、走査角度a等の走査条件がロボ
ットコントローラ9に教示される。このようにセンサ3
の検出出力Zが走査開始時において変化し、以後該検出
出力Zが変化するようにセンサ3の移動が教示される。
要は、センサ3の検出出力Zが変化する方向へセンサ3
が移動するよう教示を行うようにすればよい(ステップ
101)。
First, as shown in FIG. 3, the robot 1 scans the laser displacement sensor 3 obliquely downward A at a predetermined angle a with respect to the horizontal line on the condition that the laser displacement sensor 3 crosses the welding line 11. The robot controller 9 is taught the scanning conditions such as the scanning start position, the scanning end position, and the scanning angle a of the tip 2b. Sensor 3
The movement of the sensor 3 is instructed so that the detection output Z changes at the start of scanning and thereafter the detection output Z changes.
The point is that the sensor 3 moves in the direction in which the detection output Z of the sensor 3 changes.
The instruction may be made to move (step 101).

【0023】かかる教示がなされると、センサコントロ
ーラ6はセンサ3に対してセンシングを行うよう指令を
出力し、この指令にしたがいセンサ3によるセンシング
が開始される。この結果、センサアンプ4はセンサ3の
出力信号を増幅したアナログ信号を出力し、その信号は
A/Dコンバータ5において一定のサンプリング周期を
もってディジタル信号に変換され、ディジタルデータZ
がセンサコントローラ6のメモリ8に時系列的に順次記
憶される(ステップ102)。
When this teaching is given, the sensor controller 6 outputs a command to the sensor 3 to perform sensing, and the sensor 3 starts sensing according to this command. As a result, the sensor amplifier 4 outputs an analog signal obtained by amplifying the output signal of the sensor 3, and the signal is converted into a digital signal by the A / D converter 5 at a constant sampling period, and the digital data Z
Are sequentially stored in the memory 8 of the sensor controller 6 in time series (step 102).

【0024】一方、ロボットコントローラ9の駆動指令
によってロボット1は、上記ステップ101において教
示された動作を実行(プレイバック)し、図3に示すよ
うに溶接線11上の点11aとセンサ3とが交差するよ
う、センサ3を走査開始位置から所定角度aをもって斜
め下方に移動させる。なお、点11aは段差部分であ
り、この点においてセンサ3の出力が急変する特徴点と
なっている。
On the other hand, the robot 1 executes (plays back) the operation taught in the above step 101 in response to the drive command from the robot controller 9, and the point 11a on the welding line 11 and the sensor 3 are connected as shown in FIG. The sensor 3 is moved obliquely downward at a predetermined angle a from the scanning start position so as to intersect. It should be noted that the point 11a is a step portion, and is a characteristic point at which the output of the sensor 3 suddenly changes.

【0025】この結果、メモリ8には、図4に示すよう
に走査中の各時刻に対応したセンサ3の出力(変位)が
データとして記憶される(ステップ103)。教示内容
にしたがい走査が終了すると、センサコントローラ6は
センシングを終了させる指令をセンサ3に対して送出
し、センシングを終了させる(ステップ104)。
As a result, the output (displacement) of the sensor 3 corresponding to each time during scanning is stored as data in the memory 8 as shown in FIG. 4 (step 103). When the scanning is completed according to the teaching contents, the sensor controller 6 sends a command for ending the sensing to the sensor 3 and ends the sensing (step 104).

【0026】ついで、CPU7は、予め作成されたアル
ゴリズムにしたがい、センサコントローラ6のメモリ8
に記憶された変位データZについて演算処理を行う。
The CPU 7 then follows the memory 8 of the sensor controller 6 according to an algorithm created in advance.
Calculation processing is performed on the displacement data Z stored in.

【0027】すなわち、変位データZについてノイズ除
去処理を行い、図4に示されるような時間tとセンサ出
力Zとの対応関係を得る。そして、図4のグラフを微分
して、この微分した線分DVについてしきい値処理等を
施すことによって、走査開始前のセンサ3の変位Zs、
走査開始時点の加速部分AC(図4の曲線部分)を過ぎ
て教示速度に達した時刻ta、特徴点11aを検出した
時刻tf、特徴点11aの検出時刻tfにおけるセンサ3
の変位Zfを抽出することができる。とりわけ、特徴点
検出時刻tfは、特徴点11aにおいてセンサ3の出力
が急変する時刻であるので容易に抽出することができ
る。
That is, noise removal processing is performed on the displacement data Z to obtain the correspondence relationship between the time t and the sensor output Z as shown in FIG. Then, the graph of FIG. 4 is differentiated, and the differentiated line segment DV is subjected to threshold processing or the like to obtain the displacement Zs of the sensor 3 before the start of scanning,
The sensor 3 at the time ta at which the teaching speed is reached after passing the acceleration portion AC (curved portion in FIG. 4) at the time of starting scanning, the time tf at which the characteristic point 11a is detected, and the detection time tf at which the characteristic point 11a is detected.
The displacement Zf of can be extracted. In particular, the feature point detection time tf is the time at which the output of the sensor 3 suddenly changes at the feature point 11a, and therefore can be easily extracted.

【0028】さて、センサ3を所定角度aをもって下方
に移動開始した時刻、つまり走査開始時刻tsは、セン
サ3の変位Zが変化を開始する時刻であるので、かかる
変化を捕らえることにより、たとえば以下のようにして
求めることができる。
The time at which the sensor 3 starts moving downward at the predetermined angle a, that is, the scanning start time ts is the time at which the displacement Z of the sensor 3 starts changing. You can ask for it.

【0029】すなわち、時刻taから特徴点検出時刻tf
までの変位データが直線的に変化する部分は、教示速度
が一定の移動区間となっている。そこで、この移動区間
を近似した直線L1とセンサ3の初期変位Zsを示す直
線L2との交点の時間成分tsを、ロボット1が加速時
間なしに、つまり速度波形がステップ状に教示速度に加
速された場合の仮想的な走査開始時刻tsと決定する。
That is, the characteristic point detection time tf from the time ta
Up to the portion where the displacement data changes linearly is a movement section where the teaching speed is constant. Therefore, the robot 1 accelerates the time component ts of the intersection point of the straight line L1 approximating the moving section and the straight line L2 indicating the initial displacement Zs of the sensor 3 to the teaching speed in a stepwise manner without the acceleration time. In this case, the virtual scanning start time ts is determined.

【0030】このような仮想的な走査開始時刻tsを決
定することによってロボット走査系とセンサ計測系の同
期が可能となる(ステップ105)。
By determining such virtual scanning start time ts, the robot scanning system and the sensor measurement system can be synchronized (step 105).

【0031】このように求められた走査開始時刻tsと
特徴点検出時刻tfとの時間差tLが、加速時間なしに教
示速度で走査し特徴点11aを検出するまでの仮想的な
走査時間tLであり、この走査時間tLに、走査速度v0
を乗算することにより、走査開始から特徴点11aを検
出するまでの走査距離Lを求めることができる。
The time difference tL between the scanning start time ts and the characteristic point detection time tf thus obtained is the virtual scanning time tL until the characteristic point 11a is detected by scanning at the teaching speed without acceleration time. , The scanning speed v0 at this scanning time tL
The scanning distance L from the start of scanning to the detection of the characteristic point 11a can be obtained by multiplying by.

【0032】そして、この走査距離Lと走査角度aとに
基づいてセンサ位置Rの水平走査距離ΔSおよび垂直走
査距離ΔZを求めることができ、これらセンサ位置Rの
水平走査距離ΔSおよび垂直走査距離ΔZと走査開始時
のセンサ位置R(Xs、Ys、Zs)とから特徴点11a
検出時におけるセンサ位置R(Xf、Yf、Zf)を求め
ることができる(ステップ106)。
Then, the horizontal scanning distance ΔS and the vertical scanning distance ΔZ of the sensor position R can be obtained based on the scanning distance L and the scanning angle a, and the horizontal scanning distance ΔS and the vertical scanning distance ΔZ of these sensor positions R can be obtained. And the feature point 11a from the sensor position R (Xs, Ys, Zs) at the start of scanning.
The sensor position R (Xf, Yf, Zf) at the time of detection can be obtained (step 106).

【0033】こうして特徴点検出時におけるセンサ位置
R(Xf、Yf、Zf)が求められると、このセンサ位置
R(Xf、Yf、Zf)とすでに求められた特徴点検出時
刻tfにおけるセンサ変位Zfとに基づいて特徴点11a
の座標位置(X、Y、Z)を求めることができる(ステ
ップ107)。
When the sensor position R (Xf, Yf, Zf) at the time of feature point detection is obtained in this way, the sensor position R (Xf, Yf, Zf) and the sensor displacement Zf at the feature point detection time tf already obtained are obtained. Based on the feature points 11a
The coordinate position (X, Y, Z) can be obtained (step 107).

【0034】なお、この第1の実施例では、走査開始時
刻tsを求めるようにしているが、走査終了時刻te(図
4参照)も走査開始時刻tsと同様にセンサ3の出力が
変化を終了するという特徴的な時刻であるので、この走
査終了時刻teを求め、この走査終了時刻teと特徴点検
出時刻tfとの時間差tLに対して上述したのと同様の処
理を行うようにしてもよい。
In the first embodiment, the scan start time ts is obtained, but the scan end time te (see FIG. 4) also changes the output of the sensor 3 similarly to the scan start time ts. The scanning end time te is obtained, and the same processing as described above may be performed on the time difference tL between the scanning end time te and the characteristic point detection time tf. .

【0035】また、実施例では、走査開始点をセンサ3
の検出出力が変化する地点として教示しているが、走査
開始点と走査終了点との間に、センサ3の検出出力が変
化する地点として中間位置を教示した場合には、その中
間位置を通過する時刻を求め、この時刻について上記走
査開始時刻tsと同様な処理を行い、特徴点11aの位
置を演算するようにしてもよい。
Further, in the embodiment, the scanning start point is set to the sensor 3
However, if an intermediate position is taught as a point where the detection output of the sensor 3 changes between the scanning start point and the scanning end point, the intermediate position is passed. It is also possible to obtain a time point to be set, perform processing similar to the scan start time ts for this time point, and calculate the position of the feature point 11a.

【0036】・第2の実施例(図5) 第1の実施例では、走査開始から特徴点検出までの時間
を求めることによって特徴点検出時のセンサ位置を演算
しているが、この実施例では、走査開始から特徴点検出
までのセンサの検出出力の変化量を求めることによって
特徴点検出時のセンサ位置を演算するようにしている。
Second Embodiment (FIG. 5) In the first embodiment, the sensor position at the time of feature point detection is calculated by obtaining the time from the start of scanning to the feature point detection. Then, the sensor position at the time of feature point detection is calculated by obtaining the amount of change in the detection output of the sensor from the start of scanning to the feature point detection.

【0037】第1の実施例では、走査開始からある一定
の区間は平面上をセンシングする必要があるが、この実
施例では、走査開始、あるいは走査終了から特徴点検出
までの検出経路に限定なく、また走査速度に依存せず
に、ワークの特徴点の位置を検出することができる。
In the first embodiment, it is necessary to sense on a plane for a certain section from the start of scanning, but in this embodiment, there is no limitation to the detection path from the start of scanning or the end of scanning to the detection of feature points. Further, the position of the feature point of the work can be detected without depending on the scanning speed.

【0038】ただし、この実施例では、センサ3の検出
方向(Z)の移動距離を補正するために、センサ3を異
なる2つの移動方向に教示するようにしている。
However, in this embodiment, in order to correct the movement distance of the sensor 3 in the detection direction (Z), the sensor 3 is taught in two different movement directions.

【0039】まず、ステップ201では、ロボット1に
よってレーザ変位センサ3が、図6(a)に示すよう
に、溶接線11を横切ることを前提条件として水平線に
対して所定角度をもって、つまり垂直走査距離ΔZと水
平走査距離ΔSとの比(以下、走査距離比という)が
1:R1となるような角度をもって、斜め下方D1に走
査されるようにロボット1先端2bの走査開始位置、走
査終了位置、走査量比等の第1の走査条件がロボットコ
ントローラ9に教示される。また、ロボット1によって
レーザ変位センサ3が、同図8(a)に示すように、溶
接線11を横切ることを前提条件として上記走査距離比
1:R1とは異なる走査距離比1:R2となるような角
度をもって、斜め下方D2に走査されるようにロボット
1先端2bの走査開始位置、走査終了位置、走査量比等
の第2の走査条件がロボットコントローラ9に教示され
る。
First, in step 201, the laser displacement sensor 3 by the robot 1 has a predetermined angle with respect to the horizontal line, that is, the vertical scanning distance, on the condition that the laser displacement sensor 3 crosses the welding line 11 as shown in FIG. 6A. A scan start position and a scan end position of the tip 1b of the robot 1 are scanned obliquely downward D1 at an angle such that the ratio of ΔZ and horizontal scanning distance ΔS (hereinafter, referred to as scanning distance ratio) is 1: R1. The robot controller 9 is taught the first scanning conditions such as the scanning amount ratio. Further, as shown in FIG. 8A, the robot 1 causes the laser displacement sensor 3 to have a scanning distance ratio 1: R2 different from the above scanning distance ratio 1: R1 on the condition that the laser displacement sensor 3 crosses the welding line 11. The robot controller 9 is instructed of the second scanning conditions such as the scanning start position, the scanning end position, and the scanning amount ratio of the tip end 2b of the robot 1 so that the robot is scanned obliquely downward D2 at such an angle.

【0040】このようにセンサ3の検出出力Zが変化す
る方向(垂直方向)にセンサ3が移動されるような教示
が行われる。
In this way, the teaching is performed so that the sensor 3 is moved in the direction (vertical direction) in which the detection output Z of the sensor 3 changes.

【0041】かかる教示がなされると、上記ステップ1
02〜104と同様にして上記第1の走査条件の下でセ
ンサ3が図6(a)に示すごとく斜め下方D1に走査さ
れ、図6(b)にDL1として示す変位データZが時系
列的に取得される(ステップ202、203、20
4)。
When such teaching is given, the above step 1
Similarly to Nos. 02 to 104, the sensor 3 is scanned diagonally downward D1 as shown in FIG. 6A under the first scanning condition, and the displacement data Z shown as DL1 in FIG. 6B is time-series. (Steps 202, 203, 20)
4).

【0042】同様に、上記第2の走査条件の下でセンサ
3が図6(a)に示すごとく斜め下方D2に走査され、
図6(b)にDL2として示す変位データZが時系列的
に取得される(ステップ205、206、207)。そ
して、センサコントローラ6では、DL1として示す時
系列的な変位データZに基づいて、第1の走査条件の下
における走査開始前変位Zs、特徴点検出時刻における
変位Zf1が求められる。そして、これら変位の変位差、 ΔZ1=Zs―Zf1 …(1) が演算される(ステップ208)。
Similarly, under the second scanning condition, the sensor 3 is scanned obliquely downward D2 as shown in FIG.
The displacement data Z shown as DL2 in FIG. 6B is acquired in time series (steps 205, 206, 207). Then, the sensor controller 6 obtains the displacement Zs before scanning and the displacement Zf1 at the feature point detection time under the first scanning condition based on the time-series displacement data Z indicated as DL1. Then, the displacement difference of these displacements, ΔZ1 = Zs−Zf1 (1), is calculated (step 208).

【0043】同様にして、第2の走査条件の下における
走査開始前変位Zs、特徴点検出時刻における変位Zf2
が求められ、これら変位の変位差、 ΔZ2=Zs―Zf2 …(2) が上記(1)式と同様に演算される(ステップ20
9)。
Similarly, the displacement Zs before the start of scanning and the displacement Zf2 at the feature point detection time under the second scanning condition are set.
Is calculated and the displacement difference ΔZ2 = Zs−Zf2 (2) is calculated in the same manner as in the above equation (1) (step 20).
9).

【0044】ここで、センサ3の検出方向(図6(a)
のZ方向)における走査開始から特徴点検出までのワー
ク表面の変位量をΔZwとすると、水平走査距離ΔS、
つまりセンサ検出方向に対し垂直な方向(図6(a)の
X方向)の走査距離ΔSは、下記(3)、(4)式で表
される。
Here, the detection direction of the sensor 3 (FIG. 6A)
When the displacement amount of the work surface from the start of scanning in the Z direction) to the detection of the feature point is ΔZw, the horizontal scanning distance ΔS,
That is, the scanning distance ΔS in the direction perpendicular to the sensor detection direction (X direction in FIG. 6A) is expressed by the following equations (3) and (4).

【0045】ΔS=R1(ΔZ1―ΔZw) …(3) ΔS=R2(ΔZ2―ΔZw) …(4) よって、これら(3)、(4)式から、以下の関係を得
る。
ΔS = R1 (ΔZ1−ΔZw) (3) ΔS = R2 (ΔZ2−ΔZw) (4) Therefore, the following relationships are obtained from these equations (3) and (4).

【0046】 ΔS=R1・R2(ΔZ1―ΔZ2)/(R2―R1)…(5) ΔZw=(R1・ΔZ1―R2・ΔZ2)/(R2―R1) …(6) 一方、第1の走査条件下における垂直走査距離、つまり
センサ検出方向の走査距離ΔZは、 ΔZ=ΔZ1―ΔZw …(7) という関係があるから、既知の走査距離比R1、R2お
よび上記(1)、(2)式で得られた変位差ΔZ1、Δ
Z2を上記(5)、(6)式に代入することにより、水
平走査距離ΔS、つまりセンサ検出方向に対し垂直な方
向の走査距離ΔSが求められるとともに、ワーク表面変
位量ΔZwが求められる。そして、このワーク表面変位
量ΔZwおよび上記(1)式で得られた変位差ΔZ1を上
記(7)式に代入することにより、第1の走査条件にお
ける垂直走査距離ΔZ、つまりセンサ検出方向の走査距
離ΔZが求められる(ステップ210)。
ΔS = R1 · R2 (ΔZ1−ΔZ2) / (R2-R1) (5) ΔZw = (R1 · ΔZ1−R2 · ΔZ2) / (R2−R1) (6) On the other hand, the first scan The vertical scanning distance under the conditions, that is, the scanning distance ΔZ in the sensor detection direction, has a relationship of ΔZ = ΔZ1−ΔZw (7). Therefore, the known scanning distance ratios R1 and R2 and the above equations (1) and (2) are used. Displacement difference ΔZ1, Δ obtained in
By substituting Z2 into the above equations (5) and (6), the horizontal scanning distance ΔS, that is, the scanning distance ΔS in the direction perpendicular to the sensor detection direction, and the workpiece surface displacement ΔZw can be obtained. Then, by substituting the workpiece surface displacement amount ΔZw and the displacement difference ΔZ1 obtained by the above equation (1) into the above equation (7), the vertical scanning distance ΔZ under the first scanning condition, that is, the scanning in the sensor detection direction. The distance ΔZ is obtained (step 210).

【0047】そして、求められたセンサ位置Rの水平走
査距離ΔSおよび垂直走査距離ΔZと第1の走査条件に
おける走査開始時のセンサ位置R(Xs、Ys、Zs)と
から第1の走査条件における特徴点11a検出時におけ
るセンサ位置R(Xr1、Yr1、Zr1)を求めることがで
きる(ステップ211)。
Then, the horizontal scanning distance ΔS and the vertical scanning distance ΔZ of the obtained sensor position R and the sensor position R (Xs, Ys, Zs) at the start of scanning under the first scanning condition are used under the first scanning condition. The sensor position R (Xr1, Yr1, Zr1) at the time of detecting the characteristic point 11a can be obtained (step 211).

【0048】こうして第1の走査条件下の特徴点検出時
におけるセンサ位置R(Xr1、Yr1、Zr1)が求められ
ると、このセンサ位置R(Xr1、Yr1、Zr1)とすでに
求められた第1の走査条件下の特徴点検出時刻における
センサ変位Zf1とに基づいて、特徴点11aの座標位置
(X、Y、Z)を求めることができる(ステップ21
2)。
Thus, when the sensor position R (Xr1, Yr1, Zr1) at the time of detecting the characteristic point under the first scanning condition is obtained, this sensor position R (Xr1, Yr1, Zr1) and the already obtained first position are obtained. The coordinate position (X, Y, Z) of the feature point 11a can be obtained based on the sensor displacement Zf1 at the feature point detection time under the scanning condition (step 21).
2).

【0049】なお、上記ステップ210からステップ2
12では、第1の走査条件下のデータに基づいて特徴点
の位置を求めるようにしているが、第2の走査条件下の
データに基づいて特徴点の位置を求めるようにしてもよ
い。
Incidentally, the above steps 210 to 2
In 12, the position of the characteristic point is obtained based on the data under the first scanning condition, but the position of the characteristic point may be obtained based on the data under the second scanning condition.

【0050】なお、この第2の実施例では、走査開始時
刻における変位Zsを求めるようにしているが、走査終
了時刻、あるいは中間位置通過時刻における変位を求
め、この変位と特徴点検出時刻における変位Zf1、Zf2
との変位差に基づいて同様の処理を行うようにしてもよ
い。
In the second embodiment, the displacement Zs at the scanning start time is obtained. However, the displacement at the scanning end time or the intermediate position passing time is obtained, and this displacement and the displacement at the feature point detection time are obtained. Zf1 and Zf2
You may make it perform the same process based on the displacement difference with.

【0051】・第3の実施例(図7) つぎに、ロボット1の先端2bの位置P(Xr、Yr、Z
r)を記憶することにより、特徴点11aの位置(X、
Y、Z)を計測する実施例について、図7のフローチャ
ートを参照して説明する。
Third Embodiment (FIG. 7) Next, the position P (Xr, Yr, Z) of the tip 2b of the robot 1 will be described.
By storing r), the position (X,
An example of measuring Y, Z) will be described with reference to the flowchart in FIG. 7.

【0052】ロボットコントローラ9のCPU13で
は、ロボット1の各軸の駆動位置を示すデータに基づい
てツール先端2bの位置P(Xr、Yr、Zr)が演算さ
れ、この先端位置データPがメモリ14に記憶される。
このメモリ14に記憶された先端位置データは、センサ
コントローラ4によってアクセスが可能となっている。
そして、上記ステップ101と同様にして、センサ3が
特徴点11a上を移動するように所定の走査条件がロボ
ットコントローラ9に教示される(ステップ301)。
The CPU 13 of the robot controller 9 calculates the position P (Xr, Yr, Zr) of the tool tip 2b based on the data indicating the driving position of each axis of the robot 1, and the tip position data P is stored in the memory 14. Remembered.
The tip position data stored in the memory 14 can be accessed by the sensor controller 4.
Then, similar to step 101, the robot controller 9 is taught a predetermined scanning condition so that the sensor 3 moves on the characteristic point 11a (step 301).

【0053】ついで、ロボットコントローラ9はロボッ
ト1に対して駆動指令を出力し、上記ステップ301で
教示された走査条件の下でセンサ3を走査させるようロ
ボット1を駆動制御する。上記駆動指令と同時にセンサ
コントローラ6は、検出指令をセンサ3に出力し、セン
サ3によるセンシングを開始させる(ステップ30
2)。
Then, the robot controller 9 outputs a drive command to the robot 1 and controls the drive of the robot 1 so that the sensor 3 scans under the scanning conditions taught in step 301. Simultaneously with the drive command, the sensor controller 6 outputs a detection command to the sensor 3 to start sensing by the sensor 3 (step 30
2).

【0054】センサ3の検出信号は、センサアンプ4に
よって増幅出力され、その増幅信号はA/Dコンバータ
5によって一定のサンプリング周期をもって、ディジタ
ル信号Zに変換される。また、ロボット1の先端位置デ
ータPは、ロボットコントローラ9のメモリ14の同一
アドレスに随時記憶される。
The detection signal of the sensor 3 is amplified and output by the sensor amplifier 4, and the amplified signal is converted by the A / D converter 5 into the digital signal Z with a constant sampling period. Further, the tip position data P of the robot 1 is stored in the same address of the memory 14 of the robot controller 9 at any time.

【0055】そこで、センサコントローラ6のCPU7
は、A/Dコンバータ5から出力されるディジタルの変
位データZと、メモリ14に記憶されるロボット先端位
置データPとを、同時に一定時間ごとにメモリ8に記憶
させる。このとき変位データZとロボット先端位置デー
タPは、各時刻に対応づけられて記憶されることにな
る。
Therefore, the CPU 7 of the sensor controller 6
Causes the digital displacement data Z output from the A / D converter 5 and the robot tip position data P stored in the memory 14 to be simultaneously stored in the memory 8 at regular intervals. At this time, the displacement data Z and the robot tip position data P are stored in association with each time.

【0056】このように、ロボット走査系とセンサ計測
系の同期を、メモリ8へのデータ記憶を同時に行うこと
により実現している(ステップ303)。
In this way, the robot scanning system and the sensor measuring system are synchronized by simultaneously storing data in the memory 8 (step 303).

【0057】ついで、センサコントローラ6は、上記ス
テップ105と同様にセンサ3の変位データZに対し
て、ノイズ除去、微分、しきい値処理等を行い、特徴点
検出時刻tf、該検出時刻tfにおけるセンサ3の変位Z
fを求める(ステップ304)。
Then, the sensor controller 6 performs noise removal, differentiation, threshold value processing, etc. on the displacement data Z of the sensor 3 in the same manner as in step 105 above, at the characteristic point detection time tf and the detection time tf. Displacement Z of sensor 3
Find f (step 304).

【0058】ついで、上記ステップ304で求められた
特徴点検出時刻tfに対応するロボット先端位置データ
Pがメモリ8から読み出される(ステップ305)。よ
って、この読み出されたロボット先端位置Pに基づいて
特徴点検出時刻tfにおけるセンサ位置Rを演算するこ
とができる。そして、この演算されたセンサ位置Rと上
記ステップ304で求められた特徴点検出時刻tfにお
けるセンサ3の変位Zfとに基づいて特徴点11aの位
置(X、Y、Z)を演算することができる(ステップ3
06)。
Then, the robot tip position data P corresponding to the feature point detection time tf obtained in step 304 is read from the memory 8 (step 305). Therefore, the sensor position R at the characteristic point detection time tf can be calculated based on the read robot tip position P. Then, the position (X, Y, Z) of the feature point 11a can be calculated based on the calculated sensor position R and the displacement Zf of the sensor 3 at the feature point detection time tf obtained in step 304. (Step 3
06).

【0059】・第4の実施例(図10) つぎに、上記変位センサ3の検出信号に基づいて溶接線
11の計測データを補正する実施例について説明する。
Fourth Embodiment (FIG. 10) Next, an embodiment in which the measurement data of the welding line 11 is corrected based on the detection signal of the displacement sensor 3 will be described.

【0060】さて、変位センサ3は、前述したように、
図8に示すようレーザ光Jをワーク加工面10a上に照
射したときの反射位置を1次元的に検出することによっ
てセンサ位置Rと照射位置PLとの距離(変位)を検出
するセンサであり、上記距離検出時点のロボット1の各
軸の位置に基づくロボット先端位置P(つまりトーチ先
端位置2a)と上記センサ位置Rとに基づいてロボット
座標系におけるレーザ光の照射位置、つまり溶接線21
の位置PMが検出される。
Now, the displacement sensor 3 is, as described above,
A sensor for detecting the distance (displacement) between the sensor position R and the irradiation position PL by one-dimensionally detecting the reflection position when the laser beam J is irradiated on the work surface 10a as shown in FIG. Based on the robot tip position P (that is, the torch tip position 2a) based on the position of each axis of the robot 1 at the time of detecting the distance and the sensor position R, the irradiation position of the laser beam in the robot coordinate system, that is, the welding line 21.
Position PM is detected.

【0061】しかし、上記照射位置PMは、センサ3が
トーチ軸中心であるロボット先端姿勢軸Gと投射レーザ
光軸(基準軸)Hとが平行となる基準のセンサ位置に装
着されている場合には、精度よく検出されるものの、基
準のセンサ位置からずれてセンサ3が装着されている場
合には、光軸ずれαが生じ、実際の照射位置PLと計算
上の照射位置PMとの間に、検出誤差εが生じてしま
う。
However, the irradiation position PM is set when the sensor 3 is mounted at a reference sensor position where the robot tip posture axis G which is the torch axis center and the projection laser optical axis (reference axis) H are parallel to each other. Is detected with high accuracy, but when the sensor 3 is mounted with a deviation from the reference sensor position, an optical axis deviation α occurs, and between the actual irradiation position PL and the calculated irradiation position PM. , A detection error ε will occur.

【0062】そこで、この実施例では、図10に示すよ
うな処理手順で上記検出誤差を補正している。以下、図
9を併せ参照しつつ図10の処理内容について説明す
る。すなわち、まず補正処理に先立ち、図9に示すよう
に、ワーク10上に、ロボット座標系X―Zにおける座
標位置PEが予め計測された基準エッジを設定する。
Therefore, in this embodiment, the above detection error is corrected by the processing procedure as shown in FIG. The processing contents of FIG. 10 will be described below with reference to FIG. That is, first, prior to the correction process, as shown in FIG. 9, a reference edge on which the coordinate position PE in the robot coordinate system XZ is measured in advance is set on the work 10.

【0063】そして、ロボット1の各軸を駆動し、セン
サ3の高さZを順次異なる高さ(水準i=0、1、2…
N)に順次変えていくとともに、各高さごとに、センサ
3から射出されるレーザ光が上記基準エッジ上をX方向
に走査するようロボット1の各軸を駆動制御する。ここ
で、センサ3の走査は、前述した第1の実施例等におい
て説明した走査方法を適用することができる。
Then, each axis of the robot 1 is driven, and the height Z of the sensor 3 is sequentially changed to different heights (level i = 0, 1, 2, ...
While sequentially changing to N), each axis of the robot 1 is drive-controlled so that the laser beam emitted from the sensor 3 scans the reference edge in the X direction for each height. Here, for the scanning of the sensor 3, the scanning method described in the above-described first embodiment or the like can be applied.

【0064】この結果、各高さiごとに、ロボット各軸
位置に基づくロボット先端位置Pと変位センサ3の出力
(センサ高さ)Zとの対応関係を示す走査データDi
(i=0、1、2…N)が取得される。なお、各高さi
ごとの走査条件は予め教示されているものとする(ステ
ップ401、402、403)。
As a result, the scanning data Di indicating the correspondence between the robot tip position P based on each robot axis position and the output (sensor height) Z of the displacement sensor 3 for each height i.
(I = 0, 1, 2, ... N) is acquired. Note that each height i
It is assumed that the scanning conditions for each are taught in advance (steps 401, 402, 403).

【0065】つぎに、走査データDiについて解析処理
がなされ、センサ高さ検出信号Zが大きく変化したとき
の特徴的なデータを、上記基準エッジ検出時点のセンサ
高さZiとする。そして、このセンサ高さZiにロボット
先端位置Piを対応づける(ステップ404)。
Next, analysis processing is performed on the scan data Di, and characteristic data when the sensor height detection signal Z changes greatly is taken as the sensor height Zi at the time of detecting the reference edge. Then, the robot tip position Pi is associated with the sensor height Zi (step 404).

【0066】すべての高さについて上記処理が終了する
と(ステップ405の判断NO)、すでに検出されたデ
ータPi、Ziに基づいて、以下のように補正のための光
軸位置パラメータΔSR、ΔSz、αが演算される。
When the above process is completed for all heights (NO at step 405), the optical axis position parameters ΔSR, ΔSz, α for correction are calculated as follows based on the already detected data Pi, Zi. Is calculated.

【0067】すなわち、いま、ロボット先端位置Pとセ
ンサ位置RとのX方向距離をΔSR、ロボット先端位置
Pとセンサ位置RとのZ方向距離をΔSzと定義する。
That is, the distance between the robot tip position P and the sensor position R in the X direction is defined as ΔSR, and the distance between the robot tip position P and the sensor position R in the Z direction is defined as ΔSz.

【0068】すると、上記基準エッジ検出時のロボット
先端位置Piと基準エッジ位置PEとのX方向の偏差Xi
は、下式、 Xi=|Pi(x)―PE(x)| …(8) (上記式において添字(x)は、X座標成分を表す。)に
よって求められる。また、幾何的関係から明らかに、 Xi=tanα・Zi+ΔSR …(9) という関係が成立する。
Then, the deviation Xi in the X direction between the robot tip position Pi and the reference edge position PE at the time of detecting the above-mentioned reference edge.
Is obtained by the following equation: Xi = | Pi (x) -PE (x) | (8) (where the subscript (x) in the above equation represents the X coordinate component). Further, from the geometrical relationship, the relationship Xi = tan α · Zi + ΔSR (9) is established.

【0069】よって、上記(9)式について、Xi、Zi
をパラメータとする直線近似を最小2乗法を利用して行
い、tanα、ΔSRを下記(10)、(11)式のご
とく求める。
Therefore, regarding the above equation (9), Xi, Zi
Is performed by using the least squares method, and tan α and ΔSR are calculated as in the following equations (10) and (11).

【0070】 また、ΔSzは、1水準のデータを用い、下記(12)
式のようにして求められる。
[0070] For ΔSz, the data of one level is used and the following (12)
It is calculated by the formula.

【0071】 ΔSz=Zi―|Pi(z)―PE(z)| …(12) (上記式において添字(z)は、Z座標成分を表す。)こ
うして、光軸位置補正パラメータΔSR、ΔSz、tan
αが演算されると、これら補正パラメータと、変位セン
サ3の検出値であるZと、該検出時点のロボット先端位
置P=[P(x)、P(y)、P(z)]とによって、レーザ光
照射位置PL=[P(x)、P(y)、P(z)]が以下のよう
に演算される。
ΔSz = Zi− | Pi (z) −PE (z) | (12) (In the above formula, the subscript (z) represents the Z coordinate component.) Thus, the optical axis position correction parameters ΔSR, ΔSz, tan
When α is calculated, these correction parameters, Z, which is the detection value of the displacement sensor 3, and the robot tip position P = [P (x), P (y), P (z)] at the time of the detection are calculated. , Laser light irradiation position PL = [P (x), P (y), P (z)] is calculated as follows.

【0072】 PL(x)=P(x)+ΔSR+Z・tanα PL(y)=P(y) PL(z)=P(z)―ΔSz―Z …(13) こうして光軸ずれが補正され、正確なレーザ光照射位
置、つまり溶接線の位置を検出することができる(ステ
ップ406)。
PL (x) = P (x) + ΔSR + Z · tan α PL (y) = P (y) PL (z) = P (z) −ΔSz−Z (13) In this way, the optical axis deviation is corrected, and accurate. It is possible to detect a proper laser light irradiation position, that is, the position of the welding line (step 406).

【0073】[0073]

【発明の効果】以上説明した本発明によれば、検出装置
を特徴点上で停止させることなく検出装置を走査させ検
出装置の距離データをすべて取得してから、この取得さ
れたデータに基づき特徴点検出時点における検出装置の
走査位置を演算するようにしているので、特徴点の位置
を、走査速度に関わらず高速かつ高精度に求めることが
できる。したがって、1次元のレーザセンサをワーク位
置検出に使用することができ、これによって広範囲な検
出が可能となり、コストが飛躍的に低減されるととも
に、高速かつ高精度にワークの位置検出を行うことがで
きるようになる。
According to the present invention described above, the detection device is scanned without stopping the detection device on the characteristic point, all the distance data of the detection device is acquired, and the feature is calculated based on the acquired data. Since the scanning position of the detection device at the time of point detection is calculated, the position of the characteristic point can be obtained at high speed and with high accuracy regardless of the scanning speed. Therefore, the one-dimensional laser sensor can be used for detecting the position of the work, which enables a wide range of detection, and the cost can be dramatically reduced, and the position of the work can be detected at high speed and with high accuracy. become able to.

【図面の簡単な説明】[Brief description of drawings]

【図1】図1は本発明の実施例に適用されるロボットシ
ステムの構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a robot system applied to an embodiment of the present invention.

【図2】図2は図1に示すロボットコントローラおよび
センサコントローラで実行される処理の手順を示すフロ
ーチャートで、第1の実施例の処理内容を示すフローチ
ャートである。
FIG. 2 is a flowchart showing a procedure of processing executed by the robot controller and the sensor controller shown in FIG. 1, and is a flowchart showing processing contents of the first embodiment.

【図3】図3は、第1の実施例においてセンサが加工点
上を走査する様子を示す図である。
FIG. 3 is a diagram showing how a sensor scans a processing point in the first embodiment.

【図4】図4は図3の走査に伴いセンサから出力される
検出値を時系列的に示すグラフである。
FIG. 4 is a graph showing detection values output from the sensor in time series with the scanning of FIG.

【図5】図5は図1に示すロボットコントローラおよび
センサコントローラで実行される処理の手順を示すフロ
ーチャートで、第2の実施例の処理内容を示すフローチ
ャートである。
5 is a flowchart showing a procedure of processing executed by the robot controller and the sensor controller shown in FIG. 1, and is a flowchart showing processing contents of the second embodiment.

【図6】図6(a)は、第2の実施例においてセンサが
加工点上を走査する様子を示す図で、図6(b)は図6
(a)の走査に伴いセンサから出力される検出値を時系
列的に示すグラフである。
FIG. 6A is a diagram showing a state in which a sensor scans a processing point in the second embodiment, and FIG. 6B is a diagram showing FIG.
It is a graph which shows the detected value output from a sensor with a scan of (a) in time series.

【図7】図7は図1に示すロボットコントローラおよび
センサコントローラで実行される処理の手順を示すフロ
ーチャートで、第3の実施例の処理内容を示すフローチ
ャートである。
FIG. 7 is a flowchart showing a procedure of processing executed by the robot controller and the sensor controller shown in FIG. 1, and is a flowchart showing processing contents of the third embodiment.

【図8】図8は第4の実施例を説明する図で、実施例の
変位センサが溶接トーチに装着されたときに変位センサ
から射出されるレーザ光の光軸ずれの様子を説明する図
である。
FIG. 8 is a diagram for explaining a fourth embodiment, and is a diagram for explaining a state of optical axis deviation of laser light emitted from the displacement sensor when the displacement sensor of the embodiment is mounted on a welding torch. Is.

【図9】図9は、レーザ光照射面に基準エッジを設けて
光軸ずれを補正する様子を説明する図である。
FIG. 9 is a diagram for explaining how a reference edge is provided on a laser light irradiation surface to correct an optical axis shift.

【図10】図10は第4の実施例である溶接線の位置を
補正する処理手順を示すフローチャートである。
FIG. 10 is a flowchart showing a processing procedure for correcting the position of the welding line according to the fourth embodiment.

【符号の説明】[Explanation of symbols]

1 ロボット 3 1次元レーザ変位センサ 6 センサコントローラ 9 ロボットコントローラ 1 Robot 3 1-dimensional laser displacement sensor 6 Sensor controller 9 Robot controller

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 ワーク表面までの距離を検出する検
出装置を、前記ワークの特徴点上に位置させて前記検出
装置によって該検出装置と前記特徴点との距離を検出
し、該検出された距離と前記検出装置の位置とに基づい
て前記特徴点の位置を検出するワークの位置検出装置に
おいて、 前記検出装置が前記特徴点を横切って移動するよう前記
検出装置の移動を教示し、 教示データにしたがって前記検出装置を移動させたとき
に取得される前記検出装置の検出距離データと、前記教
示データとに基づいて前記特徴点の位置を演算するよう
にしたワークの位置検出装置。
1. A detection device for detecting a distance to a surface of a work is positioned on a feature point of the work, the distance between the detection device and the feature point is detected by the detection device, and the detected distance is detected. In a work position detection device that detects the position of the feature point based on the position of the detection device and the position of the detection device, the detection device teaches the movement of the detection device so as to move across the feature point, and Therefore, the workpiece position detecting device is configured to calculate the position of the characteristic point based on the detected distance data of the detecting device acquired when the detecting device is moved and the teaching data.
【請求項2】 ワーク表面までの距離を検出する検
出装置を、前記ワークの特徴点上に位置させて前記検出
装置によって該検出装置と前記特徴点との距離を検出
し、該検出された距離と前記検出装置の位置とに基づい
て前記特徴点の位置を検出するワークの位置検出装置に
おいて、 移動位置の少なくとも1点において前記検出装置の検出
出力が変化され、かつ前記検出装置が前記特徴点を横切
って移動されるよう前記検出装置の移動を教示し、 教示データにしたがって前記検出装置を移動させたとき
に取得される前記検出装置の検出距離データに基づい
て、前記検出装置の検出出力の変化時点から前記特徴点
検出時点までの前記検出装置の移動時間を演算し、該演
算された移動時間と、前記検出装置の検出出力変化点の
教示位置と、前記検出装置の移動速度および移動方向と
に基づいて前記特徴点の位置を演算するようにしたワー
クの位置検出装置。
2. A detection device for detecting a distance to a surface of a work is positioned on a feature point of the work, the distance between the detection device and the feature point is detected by the detection device, and the detected distance is detected. And a position of the detection device for detecting the position of the feature point based on the position of the detection device, the detection output of the detection device is changed at at least one point of the moving position, and the detection device is the feature point. The movement of the detection device is taught to be moved across, and the detection output of the detection device is detected based on the detection distance data of the detection device acquired when the detection device is moved according to the teaching data. The moving time of the detection device from the change time point to the characteristic point detection time point is calculated, the calculated movement time, the teaching position of the detection output change point of the detection device, and the detection Position detecting device of a work which is adapted to calculate a position of the feature point based on the moving speed and the moving direction of the location.
【請求項3】 ワーク表面までの距離を検出する検
出装置を、前記ワークの特徴点上に位置させて前記検出
装置によって該検出装置と前記特徴点との距離を検出
し、該検出された距離と前記検出装置の位置とに基づい
て前記特徴点の位置を検出するワークの位置検出装置に
おいて、 移動位置の少なくとも1点において前記検出装置の検出
出力が変化され、かつ前記検出装置が前記特徴点を横切
って移動されるよう前記検出装置の移動を教示し、 教示データにしたがって前記検出装置を移動させたとき
に取得される前記検出装置の検出距離データに基づい
て、前記検出装置の検出出力の変化時点から前記特徴点
検出時点までの前記検出装置の検出出力変化方向の移動
距離を演算し、該演算された移動距離と、前記検出装置
の検出出力変化点の教示位置と、前記検出装置の移動方
向とに基づいて前記特徴点の位置を演算するようにした
ワークの位置検出装置。
3. A detection device for detecting a distance to a surface of a work is positioned on a feature point of the work, the distance between the detection device and the feature point is detected by the detection device, and the detected distance is detected. And a position of the detection device for detecting the position of the feature point based on the position of the detection device, the detection output of the detection device is changed at at least one point of the moving position, and the detection device is the feature point. The movement of the detection device is taught to be moved across, and the detection output of the detection device is detected based on the detection distance data of the detection device acquired when the detection device is moved according to the teaching data. The moving distance in the detection output change direction of the detection device from the change time to the feature point detection time is calculated, and the calculated movement distance and the detection output change point of the detection device are taught. Position and the detecting device position detecting device of a work which is adapted to calculate a position of the feature point on the basis of the moving direction of the.
【請求項4】 前記検出装置を異なる2方向に教示
し、この2つの教示データにしたがって前記検出装置を
移動させたときに取得される前記検出装置の検出距離デ
ータに基づいて、前記検出装置の検出出力変化方向の移
動距離を補正するようにした請求項3記載のワークの位
置検出装置。
4. The detection device is taught in two different directions, and based on detection distance data of the detection device acquired when the detection device is moved according to the two teaching data, The work position detecting apparatus according to claim 3, wherein the moving distance in the detection output changing direction is corrected.
JP13056694A 1994-06-13 1994-06-13 Work-position detector Pending JPH07332927A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13056694A JPH07332927A (en) 1994-06-13 1994-06-13 Work-position detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13056694A JPH07332927A (en) 1994-06-13 1994-06-13 Work-position detector

Publications (1)

Publication Number Publication Date
JPH07332927A true JPH07332927A (en) 1995-12-22

Family

ID=15037321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13056694A Pending JPH07332927A (en) 1994-06-13 1994-06-13 Work-position detector

Country Status (1)

Country Link
JP (1) JPH07332927A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998043785A1 (en) * 1997-03-28 1998-10-08 Fanuc Ltd Work line searching method and robot/sensor system having work line searching function
JP2012061503A (en) * 2010-09-16 2012-03-29 Mitsubishi Electric Corp Device and method for detecting welding position
JP2012251790A (en) * 2011-05-31 2012-12-20 Honda Motor Co Ltd Measurement method for sensor angle
WO2021033743A1 (en) * 2019-08-22 2021-02-25 川崎重工業株式会社 Sealing robot

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998043785A1 (en) * 1997-03-28 1998-10-08 Fanuc Ltd Work line searching method and robot/sensor system having work line searching function
US6321139B1 (en) 1997-03-28 2001-11-20 Fanuc Ltd. Operation line searching method and robot/sensor system having operation line searching function
JP2012061503A (en) * 2010-09-16 2012-03-29 Mitsubishi Electric Corp Device and method for detecting welding position
JP2012251790A (en) * 2011-05-31 2012-12-20 Honda Motor Co Ltd Measurement method for sensor angle
WO2021033743A1 (en) * 2019-08-22 2021-02-25 川崎重工業株式会社 Sealing robot
JP2021030350A (en) * 2019-08-22 2021-03-01 川崎重工業株式会社 Sealing robot
CN114007761A (en) * 2019-08-22 2022-02-01 川崎重工业株式会社 Sealing robot
CN114007761B (en) * 2019-08-22 2023-06-13 川崎重工业株式会社 Sealing robot

Similar Documents

Publication Publication Date Title
JP3341933B2 (en) Scanning method and scanning device for workpiece surface
KR20220119507A (en) Method, processing machine and computer program for detecting workpiece position using OTC
US6321139B1 (en) Operation line searching method and robot/sensor system having operation line searching function
US20050143861A1 (en) Processing system
JP2787891B2 (en) Automatic teaching device for laser robot
JP3000162B2 (en) Arc welding equipment
JPH0618224A (en) Method and apparatus for measuring accuracy in assemblage
JPH07332927A (en) Work-position detector
JPH0123041B2 (en)
JPH1058175A (en) Calibration method for optical axis of laser beam machine
JPH09248687A (en) Laser beam machining robot
JP2627006B2 (en) Method for controlling mutual distance between robot and workpiece and calibration data creation device therefor
JP2654206B2 (en) Touch-up method
JP2753342B2 (en) Work position detector
JP3596095B2 (en) Robot controller
JP2003126963A (en) Teaching route correction device for welding robot
JPH08215847A (en) Control method of welding robot
JPS63253206A (en) Shape measuring instrument
JP2002081927A (en) Method for measuring locational displacement of work
JPH0550364A (en) Digitizing method by noncontact scanning
JPH0343953B2 (en)
JPH077303B2 (en) Robot teaching method
JPH0628613U (en) Position detection device that recognizes the surface shape of an object using a distance sensor
JPH03110087A (en) Follow-up control method for three-dimensional laser beam machine
JPH06182551A (en) Automatic welding method