JPH11123678A - Position detecting method for work - Google Patents

Position detecting method for work

Info

Publication number
JPH11123678A
JPH11123678A JP30972197A JP30972197A JPH11123678A JP H11123678 A JPH11123678 A JP H11123678A JP 30972197 A JP30972197 A JP 30972197A JP 30972197 A JP30972197 A JP 30972197A JP H11123678 A JPH11123678 A JP H11123678A
Authority
JP
Japan
Prior art keywords
distance sensor
distance
point
robot
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP30972197A
Other languages
Japanese (ja)
Inventor
Yoko Morita
陽子 森田
Ryuichi Morita
隆一 守田
Seigo Nishikawa
清吾 西川
Haruhiko Sato
治彦 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP30972197A priority Critical patent/JPH11123678A/en
Publication of JPH11123678A publication Critical patent/JPH11123678A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a high speed and a high accuracy of position detecting method for a work. SOLUTION: The coordinates of a robot when the position of a tool 2 is fitted to a standard point 6; the coordinates of the robot 1 when a distance sensor 3 is at the position to detect the standard point 6; and the distance between the distance sensor 3 and the standard point 6, which is detected by the distance sensor 3; are found beforehand. And from the coordinates of the robot when the distance sensor 3 detects a random point, and the distance detected by the distance sensor 3, a calibration data to find the position of the above random point is produced. And the position of a feature point is found by an operation, depending on the distance between the distance sensor 3 and a work 4 when the distance sensor 3 is scanned to cross the feature point; the position and the posture of the distance sensor 3; and the above calibration data.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ワークの位置を検
出する方法に関し、特にロボットが行う加工作業に先立
って加工すべき作業点の位置を検出する方法に関するも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for detecting a position of a work, and more particularly to a method for detecting a position of a work point to be processed prior to a processing operation performed by a robot.

【0002】[0002]

【従来の技術】ロボットによる加工作業、例えば、重ね
継ぎ手の隅肉溶接に際して、ロボットに予め教示した継
ぎ手位置と実際のワークの継ぎ手位置のずれを修正する
ために、継ぎ手の位置をセンシングすることがある。こ
のような場合、センサを継ぎ手に交差する方向に走査し
て、継ぎ手と前記走査の軌跡の交点を検出することが従
来行われている。この交点を特徴点と言う。重ね継ぎ手
においては、前記特徴点は段差として検出される。この
特徴点を検出する方法として次のような方法が提案され
ている。ワーク表面までの距離を検出する距離センサ
を、前記ワークの特徴点上に位置させて前記距離センサ
によって該距離センサを前記特徴点との距離を検出し、
該検出された距離と前距離センサとの位置に基づいて前
記特徴点の位置を検出する場合、前記距離センサが前記
特徴点を横切って走査するよう前記距離センサを教示
し、教示データに従って前記距離センサを走査させたと
きに取得される前記距離センサの距離データと、前記教
示データとに基づいて前記特徴点の位置を演算して求め
る(例えば、特開平7−332927号公報)。
2. Description of the Related Art In a machining operation by a robot, for example, in fillet welding of a lap joint, the position of a joint is sensed in order to correct a deviation between a joint position previously taught to the robot and a joint position of an actual work. is there. In such a case, conventionally, a sensor is scanned in a direction intersecting the joint to detect an intersection point between the joint and the scanning locus. This intersection is called a feature point. In the lap joint, the feature point is detected as a step. The following method has been proposed as a method for detecting this feature point. A distance sensor for detecting a distance to the work surface is positioned on a feature point of the work, and the distance sensor detects a distance between the feature point and the distance sensor by the distance sensor.
When detecting the position of the feature point based on the detected distance and the position of the preceding distance sensor, the distance sensor teaches the distance sensor to scan across the feature point, and the distance sensor according to the teaching data. The position of the feature point is calculated and obtained based on the distance data of the distance sensor acquired when the sensor is scanned and the teaching data (for example, Japanese Patent Application Laid-Open No. 7-332927).

【0003】[0003]

【発明が解決しようとする課題】ところが、従来技術で
は、前記演算に用いる教示データが前記距離センサの姿
勢データを含まない位置座標のみであるため、走査中の
距離センサの姿勢をワークに対して一定に保つ必要があ
った。したがって、ワークや周辺装置との干渉により距
離センサの姿勢を一定にできない場合には、実施するこ
とができなかった。また、ワークや周辺装置との干渉に
より距離センサが特徴点上を横切るように走査できない
場合にも、実施できなかった。また、ロボットを高速で
走査させ、かつ検出位置の精度を確保するためには、サ
ンプリング周波数を高くして、距離データの点数を増や
す必要があるが、これはCPUの性能に依存しているた
め限界があった。このため、距離センサが高速走査する
場合には、低速走査する場合と比較して、位置検出の精
度が、悪くなるという問題があった。そこで、本発明
は、こうした実状に鑑みてなされたものであり、高速か
つ高精度にワークの位置検出を行うことができるように
することを目的とするものである。
However, in the prior art, the teaching data used in the calculation is only position coordinates that do not include the attitude data of the distance sensor. It had to be kept constant. Therefore, when the attitude of the distance sensor cannot be made constant due to interference with a work or a peripheral device, it cannot be performed. Further, even when the distance sensor cannot scan so as to cross over the feature point due to interference with a work or a peripheral device, it cannot be performed. Also, in order to make the robot scan at high speed and ensure the accuracy of the detection position, it is necessary to increase the sampling frequency and increase the number of distance data, but this depends on the performance of the CPU. There was a limit. For this reason, when the distance sensor scans at a high speed, there is a problem that the accuracy of position detection is deteriorated compared to the case where the distance sensor scans at a low speed. The present invention has been made in view of such circumstances, and has as its object to enable high-speed and high-accuracy work position detection.

【0004】[0004]

【課題を解決するための手段】上記問題を解決するため
に本発明は、前記ツールの位置を基準点に合わせたとき
の前記ロボットの座標と、前記距離センサが前記基準点
を検出する位置にあるときの前記ロボットの座標と、前
記距離センサによって検出された前記距離センサと前記
基準点との距離を求めて、前記距離センサが任意の点を
検出する時の前記ロボットの座標と前記距離センサが検
出する距離から、前記任意の点の位置を求めるキャリブ
レーションデータを作成し、前記距離センサを前記特徴
点を横切るように走査させたときに取得される前記距離
センサと前記ワークの間の距離と、前記距離センサの位
置および姿勢と、前記キャリブレーションデータに基づ
いて、前記特徴点の位置を演算して求めるものである。
また、前記距離センサを前記特徴点を横切るように走査
させたときに取得される前記距離センサと前記ワークの
間の距離と、前記距離センサの位置および姿勢と、前記
キャリブレーションデータに基づいてワーク表面の位置
データを演算し、前記位置データを画像処理し、仮の特
徴点を検出し、前記仮の特徴点の近傍の前記位置データ
を補間処理することにより真の特徴点を算出するもので
ある。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, the present invention relates to a method for adjusting the coordinates of the robot when the position of the tool is adjusted to a reference point and the position at which the distance sensor detects the reference point. The coordinates of the robot at a certain time, the distance between the distance sensor and the reference point detected by the distance sensor are obtained, and the coordinates of the robot and the distance sensor when the distance sensor detects an arbitrary point From the distance detected, create calibration data to determine the position of the arbitrary point, the distance between the distance sensor and the workpiece obtained when scanning the distance sensor across the feature point And calculating the position of the feature point based on the position and orientation of the distance sensor and the calibration data.
Further, based on the distance between the distance sensor and the workpiece acquired when the distance sensor is scanned across the feature point, the position and orientation of the distance sensor, and the calibration data. It calculates surface position data, performs image processing on the position data, detects temporary feature points, and calculates true feature points by performing interpolation processing on the position data near the temporary feature points. is there.

【0005】[0005]

【発明の実施の形態】以下、本発明の実施例を図に基づ
いて説明する。図1は本発明の実施例を示すシステム構
成図、図2は本発明の第1の実施例におけるキャリブレ
ーション処理の手順を示すフローチャートと説明図、図
3は第1の実施例における検出処理の手順を示すフロー
チャート、図4は第1の実施例における検出処理の説明
図、図5は第2の実施例における補間処理の手順を示す
フローチャートと説明図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a system configuration diagram showing an embodiment of the present invention, FIG. 2 is a flowchart and an explanatory diagram showing a procedure of a calibration process in the first embodiment of the present invention, and FIG. 3 is a flowchart of a detection process in the first embodiment. FIG. 4 is a flowchart showing the procedure, FIG. 4 is an explanatory diagram of the detection process in the first embodiment, and FIG. 5 is a flowchart and an explanatory diagram showing the procedure of the interpolation process in the second embodiment.

【0006】図1において、1はロボットであり、ロボ
ット1の先端には溶接トーチ2と1次元レーザセンサ3
を取り付けている。溶接トーチ2と1次元レーザセンサ
3は、両者の相対的位置と姿勢を保ったまま、産業用ロ
ボット1によって、所定の動作範囲において、任意の位
置と姿勢をとることができる。溶接トーチ2の先端に
は、制御点2aが設定されている。制御点2aは、ロボ
ット1の図示しない制御装置が、参照する点であり、前
記制御装置は制御点2aが所定の位置にあって、溶接ト
ーチ2が制御点2aに対して所定の姿勢をとるようにロ
ボット1に指令を与える。制御点2aの位置と制御点2
aに対する溶接トーチ2の姿勢を示す座標を、ここで
は、単にロボット座標ということにする。1次元レーザ
センサ3は、1次元レーザセンサ3と検出対象の間の距
離を測定する距離センサである。4は加工対象のワーク
であり、ジグ台5に固定されている。
In FIG. 1, reference numeral 1 denotes a robot, and a welding torch 2 and a one-dimensional laser sensor 3 are provided at the tip of the robot 1.
Is installed. The welding torch 2 and the one-dimensional laser sensor 3 can take any positions and postures within a predetermined operation range by the industrial robot 1 while maintaining the relative positions and postures of the two. A control point 2 a is set at the tip of the welding torch 2. The control point 2a is a point to which a control device (not shown) of the robot 1 refers, and the control device has the control point 2a at a predetermined position and the welding torch 2 takes a predetermined posture with respect to the control point 2a. Command to the robot 1 as described above. Position of control point 2a and control point 2
Here, the coordinates indicating the posture of the welding torch 2 with respect to a will be simply referred to as robot coordinates here. The one-dimensional laser sensor 3 is a distance sensor that measures a distance between the one-dimensional laser sensor 3 and a detection target. Reference numeral 4 denotes a workpiece to be processed, which is fixed to a jig stand 5.

【0007】本発明の第1の実施例を説明する。まず、
キャリブレーションデータを作成する。キャリブレーシ
ョンデータの作成は、産業用ロボット1の制御点2aの
位置と姿勢を示す座標、すなわちロボット座標と、ワー
ク4上の1次元レーザセンサ3で検出された点までの距
離から、前記の検出された点の座標を計算するための、
パラメータを求める作業である。ここでは、キャリブレ
ーションデータは、1次元レーザセンサ3のレーザ光軸
方向の単位ベクトルeとロボット制御点2aからレーザ
発光点までのオフセットベクトルDから構成される。図
2に従って、このキャリブレーションデータの作成の手
順を説明する。まず、ステップST11において、ワー
ク4上に固定された、任意の1点を選び、基準点6を決
める。つぎに、ステップST12において、ロボット1
を教示して、位置Aに、ロボット1を動かして、溶接ト
ーチ2の先端を基準点6に一致させる。つぎに、ステッ
プST13において、ロボット1を教示して、位置B
に、ロボット1を動かして、基準点6に1次元レーザセ
ンサ3のレーザ光が当たるようにする。つぎに、ステッ
プST14において、ロボット1を教示して、位置C
に、ロボット1を動かして、基準点6に1次元レーザセ
ンサ3のレーザ光が当たるようにする。ただし、この位
置Cは、ステップST13で教示した位置Bとは異なる
位置とする。さらに、ステップST15において、ステ
ップST2で教示した点のロボット座標値P0 を取得す
る。つぎに、ステップST16では、前のステップST
13、ステップST14で教示した点のロボット座標値
P1 、P2 と、その点における、1次元レーザセンサ3
と基準点6の間の距離d1,d2 を取得する。最後に、ス
テップST17では、前にステップST15、ステップ
ST16で取得したデータを基に、ベクトルe及びベク
トルDを下記の式により算出する。 e=(P2 P0 −P1 P0 )/(d2 −d1 ) D=P1 P0 −d1 ×e 以上のように、ステップST11からステップST17
までの作業を順に行うことで、キャリブレーションデー
タが作成される。
A first embodiment of the present invention will be described. First,
Create calibration data. The calibration data is generated based on the coordinates indicating the position and orientation of the control point 2a of the industrial robot 1, that is, the robot coordinates and the distance to the point detected by the one-dimensional laser sensor 3 on the work 4, and the above-described detection is performed. To calculate the coordinates of the point
This is the task of finding the parameters. Here, the calibration data includes a unit vector e in the laser optical axis direction of the one-dimensional laser sensor 3 and an offset vector D from the robot control point 2a to the laser emission point. The procedure for creating the calibration data will be described with reference to FIG. First, in step ST11, an arbitrary point fixed on the work 4 is selected, and the reference point 6 is determined. Next, in step ST12, the robot 1
And the robot 1 is moved to the position A so that the tip of the welding torch 2 coincides with the reference point 6. Next, in step ST13, the robot 1 is taught and the position B
Then, the robot 1 is moved so that the laser light of the one-dimensional laser sensor 3 hits the reference point 6. Next, in step ST14, the robot 1 is taught and the position C
Then, the robot 1 is moved so that the laser light of the one-dimensional laser sensor 3 hits the reference point 6. However, this position C is different from the position B taught in step ST13. Further, in step ST15, the robot coordinate value P0 of the point taught in step ST2 is obtained. Next, in step ST16, the previous step ST
13. The robot coordinate values P1 and P2 of the point taught in step ST14 and the one-dimensional laser sensor 3 at that point.
And the distance d1, d2 between the reference point 6 and. Finally, in step ST17, a vector e and a vector D are calculated by the following equations based on the data obtained in steps ST15 and ST16 before. e = (P2 P0 -P1 P0) / (d2 -d1) D = P1 P0 -d1 × e As described above, steps ST11 to ST17 are performed.
By performing the above operations in order, calibration data is created.

【0008】次に、ワーク4の特徴点を求める手順を、
図3と図4に従って説明する。まず、ステップST18
において、図4の(a)に示すように、1次元レーザセ
ンサ3のレーザ光が、特徴点を検出するための走査開始
点7に当たるように、ロボット1を教示する。この時の
ロボット1の座標をP3 とする。つぎに、ステップST
19において、図4の(b)に示すように、1次元レー
ザセンサ3のレーザ光が、走査終了点7に当たるよう
に、ロボット1を教示する。この時のロボット1の座標
をP4 とする。つぎに、ステップST20において、ロ
ボット1をステップST18で教示した位置P3 へ移動
させる。つぎに、ステップST21において、1次元レ
ーザセンサ3の走査を開始する。すなわち、ロボット1
を位置P3 からステップST19で教示した位置P4 へ
移動させると同時に、ロボット座標値(位置と姿勢)
と、1次元レーザセンサ3とワーク4の間の距離データ
のサンプリングを開始する。つぎに、ステップST22
において、ロボット1の移動完了まで、サンプリングを
継続する。つぎに、ステップST23において、前のス
テップのサンプリングで得られた、ワーク4上の点列の
距離データを解析し、距離データが不連続に変化する点
を求め、この点を特徴点9とする。図4(c)は1次元
レーザセンサ3が特徴点9を検出した状態を示す図であ
る。つぎに、ステップST24において、特徴点9を検
出した時の距離データduと、ロボット座標値Pu (位
置と姿勢)を取得する。最後にステップST25におい
て、特徴点9を検出した時の距離データdu と、ロボッ
ト座標値Pu (位置と姿勢)と、先に取得したキャリブ
レーションデータから、特徴点9の位置Pを下記の式に
基づき算出する。 P=Pu +D+du ×e
Next, the procedure for finding the characteristic points of the work 4 will be described.
This will be described with reference to FIGS. First, step ST18
In FIG. 4, the robot 1 is taught so that the laser beam from the one-dimensional laser sensor 3 hits a scanning start point 7 for detecting a feature point, as shown in FIG. The coordinates of the robot 1 at this time are P3. Next, step ST
At 19, the robot 1 is taught so that the laser beam from the one-dimensional laser sensor 3 hits the scanning end point 7, as shown in FIG. The coordinates of the robot 1 at this time are P4. Next, in step ST20, the robot 1 is moved to the position P3 taught in step ST18. Next, in step ST21, the scanning of the one-dimensional laser sensor 3 is started. That is, the robot 1
Is moved from the position P3 to the position P4 taught in step ST19, and at the same time, the robot coordinate values (position and posture)
Then, sampling of distance data between the one-dimensional laser sensor 3 and the work 4 is started. Next, step ST22
In, sampling is continued until the movement of the robot 1 is completed. Next, in step ST23, the distance data of the point sequence on the workpiece 4 obtained by the sampling in the previous step is analyzed, and a point at which the distance data changes discontinuously is determined. . FIG. 4C is a diagram showing a state where the one-dimensional laser sensor 3 has detected the characteristic point 9. Next, in step ST24, distance data du when the feature point 9 is detected and robot coordinate values Pu (position and posture) are acquired. Finally, in step ST25, the position P of the feature point 9 is obtained from the distance data du when the feature point 9 is detected, the robot coordinate value Pu (position and orientation), and the previously acquired calibration data according to the following equation. Calculate based on P = Pu + D + du × e

【0009】前記第1の実施例においては、サンプリン
グした点の中から、特徴点を選んでいる。従ってサンプ
リングした点と点の間に真の特徴点があっても検出でき
ない。そのため、特徴点の検出精度を向上させるために
は、サンプリング周期を短くして多数のデータを取らね
ばならず、検出及び演算時間が長くなる問題が残ってい
る。この点を解決するのが、次に説明する本発明の第2
の実施例である。この第2の実施例は、ステップST1
1からステップST17の手順を実施して、キャリブレ
ーションデータを作成し、さらにステップST18から
ステップST22の手順を実施して、ロボット座標値と
距離データのサンプリングを行うところまでは、前記第
1の実施例と同じであるので、説明を省略する。本発明
の第2の実施例において、ロボット座標値と距離データ
を解析して、真の特徴点を求める手順を、図5に従って
説明する。まず、ステップST26においては、ロボッ
ト座標値(位置と姿勢)とセンサ距離データと、キャリ
ブレーションデータから、検出したワーク表面上の点列
の座標データを算出する。次に、ステップST27にお
いて、ステップST26で得た座標データを解析し、図
5(b)に示すような、点列を結んで得られる曲線の傾
きが急に変化する点Pu を求め、仮の特徴点とする。最
後に、ステップST28において、仮の特徴点Pu の左
側の近傍に並ぶ点列Pu-n,.., Pu-3,Pu-2,Pu-1 を結
ぶ曲線31を最小2乗法により近似して求める。同様に
して、仮の特徴点Pu の右側の近傍に並ぶ点列Pu+
n,.., Pu+3,Pu+2,Pu+1 を結ぶ曲線32を求める。曲
線31と曲線32の交点Qを算出し、これを真の特徴点
とする。なお、1次元レーザセンサ3による走査を、1
次元レーザセンサ3の位置と姿勢を同時に変化させて行
う例を示したが、ワーク4に対する姿勢を一定に保っ
て、位置だけを動かしてもよい。また、1次元レーザセ
ンサ3の位置を一定に保って、姿勢だけを変えて走査し
てもよい。本発明で検出する対象は、段差に限らず、ギ
ャップや稜線、開先など、検出対象の形状が不連続に変
化する点ならば、どのような点でもよいことは言うまで
もない。
In the first embodiment, feature points are selected from the sampled points. Therefore, even if there is a true feature point between the sampled points, it cannot be detected. Therefore, in order to improve the detection accuracy of the feature points, it is necessary to obtain a large amount of data by shortening the sampling period, and there is a problem that the detection and calculation time is long. The solution to this point is the second aspect of the present invention described below.
This is an embodiment of the invention. This second embodiment is different from step ST1 in step ST1.
The procedure from step 1 to step ST17 is performed to create calibration data, and the procedure from step ST18 to step ST22 is performed to sample robot coordinate values and distance data. The description is omitted because it is the same as the example. In the second embodiment of the present invention, a procedure for analyzing a robot coordinate value and distance data to obtain a true feature point will be described with reference to FIG. First, in step ST26, coordinate data of a detected point sequence on the work surface is calculated from the robot coordinate values (position and posture), sensor distance data, and calibration data. Next, in step ST27, the coordinate data obtained in step ST26 is analyzed, and as shown in FIG. 5B, a point Pu at which the slope of the curve obtained by connecting the point sequence changes abruptly is determined. It is a feature point. Finally, in step ST28, the curve 31 connecting the point sequences Pu-n, .., Pu-3, Pu-2, Pu-1 arranged near the left side of the temporary feature point Pu is approximated by the least squares method. Ask. Similarly, a point sequence Pu + arranged near the right side of the provisional feature point Pu
A curve 32 connecting n, .., Pu + 3, Pu + 2, and Pu + 1 is obtained. The intersection Q of the curve 31 and the curve 32 is calculated, and this is set as a true feature point. The scanning by the one-dimensional laser sensor 3 is performed by 1
Although the example in which the position and the posture of the three-dimensional laser sensor 3 are changed at the same time has been described, it is also possible to move only the position while keeping the posture with respect to the work 4 constant. Alternatively, scanning may be performed while the position of the one-dimensional laser sensor 3 is kept constant and only the posture is changed. The object to be detected in the present invention is not limited to a step, and it goes without saying that any point such as a gap, a ridgeline, or a groove may be used as long as the shape of the detection object changes discontinuously.

【0010】[0010]

【発明の効果】以上述べたように、本発明には、次のよ
うな効果がある。 (1)ロボット座標と1次元レーザセンサで得られる距
離データから、ワーク上で検出された点の座標が得られ
るように、事前にキャリブレーションを行っているの
で、ワークに対する1次元レーザセンサの姿勢を変化さ
せながら、走査擦ることができるので、ワークや周辺装
置に対する干渉を避けるのが容易である。 (2)少数の点列の座標を補間して、特徴点を求めるの
で、計測時間と演算時間が短かく、それにもかかわら
ず、検出精度が高い。
As described above, the present invention has the following effects. (1) Since the calibration is performed in advance so that the coordinates of the point detected on the work can be obtained from the robot coordinates and the distance data obtained by the one-dimensional laser sensor, the posture of the one-dimensional laser sensor with respect to the work Can be rubbed while changing the distance, so that it is easy to avoid interference with the work and peripheral devices. (2) Since the feature points are obtained by interpolating the coordinates of a small number of point sequences, the measurement time and the calculation time are short, but the detection accuracy is high nonetheless.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の実施例のシステム構成図である。FIG. 1 is a system configuration diagram of an embodiment of the present invention.

【図2】 本発明の第1の実施例におけるキャリブレー
ション処理の手順を示す図であり、(a)はフローチャ
ートであり、(b)は説明図である。
FIGS. 2A and 2B are diagrams illustrating a procedure of a calibration process according to the first embodiment of the present invention, wherein FIG. 2A is a flowchart and FIG.

【図3】 本発明の第1の実施例における検出処理の手
順を示すフローチャートである。
FIG. 3 is a flowchart illustrating a procedure of a detection process according to the first embodiment of the present invention.

【図4】 本発明の第1の実施例における検出処理の説
明図であり、(a)は走査開始点を示す図であり、
(b)は走査終了点を示す図であり、(c)は特徴点を
検出している状態を示す図である。
FIG. 4 is an explanatory diagram of a detection process according to the first embodiment of the present invention, wherein (a) is a diagram showing a scanning start point,
(B) is a diagram showing a scanning end point, and (c) is a diagram showing a state in which a feature point is detected.

【図5】 本発明の第2の実施例における補間処理の手
順を示す示す図であり、(a)はフローチャートであ
り、(b)は説明図である。
5A and 5B are diagrams showing a procedure of an interpolation process in a second embodiment of the present invention, wherein FIG. 5A is a flowchart and FIG. 5B is an explanatory diagram.

【符号の説明】[Explanation of symbols]

1:ロボット 2:溶接トーチ 2a:制御点 3:1次元レーザ変位センサ 4:被加工物(ワーク) 5:ジグ台 6:基準点 7:走査開始点 8:走査終了点 9:特徴点 Pn:走査によって検出された点列 Pu :仮の特徴点 Q:真の特徴点 31:仮の特徴点の左に並ぶ点列を結ぶ曲線 32:仮の特徴点の右に並ぶ点列を結ぶ曲線 1: robot 2: welding torch 2a: control point 3: one-dimensional laser displacement sensor 4: workpiece (work) 5: jig stand 6: reference point 7: scanning start point 8: scanning end point 9: feature point Pn: Point sequence detected by scanning Pu: Provisional feature point Q: True feature point 31: Curve connecting point sequence on the left of provisional feature point 32: Curve connecting point sequence on the right of provisional feature point

───────────────────────────────────────────────────── フロントページの続き (72)発明者 佐藤 治彦 福岡県北九州市八幡西区黒崎城石2番1号 株式会社安川電機内 ────────────────────────────────────────────────── ─── Continued on the front page (72) Inventor Haruhiko Sato 2-1 Kurosaki Castle Stone, Yawatanishi-ku, Kitakyushu-shi, Fukuoka Prefecture Yasukawa Electric Co., Ltd.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 ワーク表面までの距離を検出する距離セ
ンサと、ツールをロボットに、前記距離センサと前記ツ
ールの相対的な位置と姿勢を保つように取付け、前記距
離センサを前記ワークの特徴点上に位置させて、前記距
離センサによって前記距離センサと前記特徴点との距離
を検出し、前記距離と前記距離センサの位置とに基づい
て前記特徴点の位置を検出するワークの位置検出方法に
おいて、 予め、前記ツールの位置を基準点に合わせたときの前記
ロボットの座標と、前記距離センサが前記基準点を検出
する位置にあるときの前記ロボットの座標と、前記距離
センサによって検出された前記距離センサと前記基準点
との距離を求めて、前記距離センサが任意の点を検出す
る時の前記ロボットの座標と前記距離センサが検出する
距離から、前記任意の点の位置を求めるキャリブレーシ
ョンデータを作成し、前記距離センサを前記特徴点を横
切るように走査させたときに取得される前記距離センサ
と前記ワークの間の距離と、前記距離センサの位置およ
び姿勢と、前記キャリブレーションデータに基づいて、
前記特徴点の位置を演算して求めることを特徴とするワ
ークの位置検出方法。
1. A distance sensor for detecting a distance to a surface of a work, and a tool mounted on a robot so as to maintain a relative position and posture of the distance sensor and the tool. A work position detection method for detecting a distance between the distance sensor and the feature point by the distance sensor and detecting a position of the feature point based on the distance and the position of the distance sensor. In advance, the coordinates of the robot when the position of the tool is adjusted to a reference point, the coordinates of the robot when the distance sensor is at a position where the reference point is detected, and the coordinates detected by the distance sensor. Obtain the distance between the distance sensor and the reference point, from the coordinates of the robot when the distance sensor detects an arbitrary point and the distance detected by the distance sensor Calibration data for obtaining the position of the arbitrary point is created, and the distance between the distance sensor and the workpiece obtained when the distance sensor is scanned across the feature point, and the distance sensor Based on the position and orientation, and the calibration data,
A method for detecting a position of a workpiece, wherein the position of the feature point is calculated and obtained.
【請求項2】 前記距離センサの位置を固定して、前記
距離センサの姿勢だけを変化させて、前記特徴点を横切
るように走査させることを特徴とする請求項1に記載の
ワークの位置検出方法。
2. The position detection of a work according to claim 1, wherein the position of the distance sensor is fixed, and only the posture of the distance sensor is changed so as to scan across the feature point. Method.
【請求項3】 前記距離センサを前記特徴点を横切るよ
うに走査させたときに取得される前記距離センサと前記
ワークの間の距離と、前記距離センサの位置および姿勢
と、前記キャリブレーションデータに基づいてワーク表
面の位置データを演算して、仮の特徴点を求め、前記仮
の特徴点の近傍の前記位置データを補間処理することに
より真の特徴点を算出することを特徴とする請求項1ま
たは請求項2に記載のワークの位置検出方法。
3. A distance between the distance sensor and the workpiece, which is acquired when the distance sensor is scanned across the feature point, a position and a posture of the distance sensor, and the calibration data. Calculating a true feature point by calculating position data of the work surface based on the calculated position data, obtaining a temporary feature point, and performing interpolation processing on the position data in the vicinity of the temporary feature point. 3. The method for detecting a position of a work according to claim 1 or claim 2.
JP30972197A 1997-10-24 1997-10-24 Position detecting method for work Pending JPH11123678A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30972197A JPH11123678A (en) 1997-10-24 1997-10-24 Position detecting method for work

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30972197A JPH11123678A (en) 1997-10-24 1997-10-24 Position detecting method for work

Publications (1)

Publication Number Publication Date
JPH11123678A true JPH11123678A (en) 1999-05-11

Family

ID=17996506

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30972197A Pending JPH11123678A (en) 1997-10-24 1997-10-24 Position detecting method for work

Country Status (1)

Country Link
JP (1) JPH11123678A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008080360A (en) * 2006-09-27 2008-04-10 Daihen Corp Position detection system for automatic welding machine
KR20110135666A (en) * 2010-06-11 2011-12-19 대우조선해양 주식회사 Apparatus for calibration between robot and displacement sensor and method for calibration using this
US8588974B2 (en) 2008-12-24 2013-11-19 Canon Kabushiki Kaisha Work apparatus and calibration method for the same
US20190099887A1 (en) * 2017-09-29 2019-04-04 Industrial Technology Research Institute System and method for calibrating tool center point of robot
JP2020073283A (en) * 2012-03-29 2020-05-14 ファナック アメリカ コーポレイション Normalization of orientation of robot welding gun
CN112008758A (en) * 2020-07-11 2020-12-01 埃华路(芜湖)机器人工程有限公司 Intelligent detection method for tray grabbing height of industrial robot

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008080360A (en) * 2006-09-27 2008-04-10 Daihen Corp Position detection system for automatic welding machine
US8588974B2 (en) 2008-12-24 2013-11-19 Canon Kabushiki Kaisha Work apparatus and calibration method for the same
KR20110135666A (en) * 2010-06-11 2011-12-19 대우조선해양 주식회사 Apparatus for calibration between robot and displacement sensor and method for calibration using this
JP2020073283A (en) * 2012-03-29 2020-05-14 ファナック アメリカ コーポレイション Normalization of orientation of robot welding gun
US20190099887A1 (en) * 2017-09-29 2019-04-04 Industrial Technology Research Institute System and method for calibrating tool center point of robot
US10926414B2 (en) * 2017-09-29 2021-02-23 Industrial Technology Research Institute System and method for calibrating tool center point of robot
CN112008758A (en) * 2020-07-11 2020-12-01 埃华路(芜湖)机器人工程有限公司 Intelligent detection method for tray grabbing height of industrial robot
CN112008758B (en) * 2020-07-11 2024-03-26 埃华路(芜湖)机器人工程有限公司 Intelligent detection method for grabbing height of industrial robot tray

Similar Documents

Publication Publication Date Title
JP4653824B2 (en) A machine tool system that measures the shape of a measurement object using an on-machine measuring device
EP2446223B1 (en) Information processing apparatus, information processing method, and corresponding program
US20030090682A1 (en) Positioning in computer aided manufacturing by measuring both parts (cameras, retro reflectors)
JP2006048244A (en) Working program generating device
US5198876A (en) Method of measuring three-dimensional postion of workpiece
JP2010149267A (en) Robot calibration method and device
KR20080088165A (en) Robot calibration method
CN112595260B (en) Method, system, storage medium and equipment for extracting irregular cambered surface contour
JP2787891B2 (en) Automatic teaching device for laser robot
JPH07266272A (en) Follow-up method and device for manipulator
JP3000162B2 (en) Arc welding equipment
JPH11123678A (en) Position detecting method for work
CN113182932B (en) Composite machine tool for adjusting workpiece angle based on workpiece appearance scanning data
CN115135466A (en) Burr removing device and control system
JP3380028B2 (en) Profile control method of pipe surface by force control robot
JP2654206B2 (en) Touch-up method
JP2935600B2 (en) Attitude control device of welding torch using sensor
Zhang et al. Automated robot programming based on sensor fusion
JPH10175085A (en) Method and device for controlling profiling axis in three-dimensional laser beam machine
JP4519295B2 (en) Method for measuring workpiece misalignment
JP2542615B2 (en) Machining line teaching method
JPH07332927A (en) Work-position detector
JPH08257874A (en) Correcting method for nc machining program
JP2523932B2 (en) Correcting method of normal direction of cutting work tool of robot
JP2594869Y2 (en) Welding robot with copying function