JPH09222913A - Teaching position correcting device for robot - Google Patents

Teaching position correcting device for robot

Info

Publication number
JPH09222913A
JPH09222913A JP3206696A JP3206696A JPH09222913A JP H09222913 A JPH09222913 A JP H09222913A JP 3206696 A JP3206696 A JP 3206696A JP 3206696 A JP3206696 A JP 3206696A JP H09222913 A JPH09222913 A JP H09222913A
Authority
JP
Japan
Prior art keywords
tool
sensor
coordinate system
teaching
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3206696A
Other languages
Japanese (ja)
Inventor
Satoshi Yazaki
聡 矢崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Komatsu Ltd
Original Assignee
Komatsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Komatsu Ltd filed Critical Komatsu Ltd
Priority to JP3206696A priority Critical patent/JPH09222913A/en
Publication of JPH09222913A publication Critical patent/JPH09222913A/en
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To precisely correct a teaching position without generating interference of a work, limiting the attitude that the robot should take, or causing deterioration in the quality of welding, etc., by mounting a visual sensor which photographs the teaching position and providing means for measurement, operation, etc., and correcting the teaching position. SOLUTION: The visual sensor 3 is fitted in such position relation that its image pickup surface is perpendicular to the length of a tool 2, and picks up an image of the teaching position to which the tool tip 2a of the robot 1 should to move. Then, this device is equipped with a means which corrects one teaching position along the length of the tool 2 by a quantity corresponding to the error in reference distance between the visual sensor 3 and a work 4 when the tool tip 2a is set at the one teaching position. Further, the device is equipped with a means which corrects one teaching position at right angles to the tool 2 on the basis of the relative position relation between a sensor coordinate system and a tool coordinate system by a quantity corresponding to a position shift on the tool coordinate system corresponding to a position shift on the sensor coordinate system.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、ロボットのツール
先端の教示位置を補正する装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for correcting a teaching position of a tool tip of a robot.

【0002】[0002]

【従来の技術】切断ロボットや溶接ロボット等の作業用
のロボットを用いて作業を自動的に行う自動加工装置に
おいて(以下、単にロボットという)、当該ロボットの
動作プログラムの教示を行う場合、教示用治具やCAD
リンク等を用いたオフラインティーチングが一般的に行
われる。オフラインティーチングによれば、実際にロボ
ットを動かして教示する場合に較べて、教示作業の簡易
化、短時間化が図られる。
2. Description of the Related Art In an automatic processing apparatus for automatically performing work using a working robot such as a cutting robot or a welding robot (hereinafter, simply referred to as a robot), when teaching an operation program of the robot, the teaching program is used for teaching. Jigs and CAD
Off-line teaching using links etc. is generally performed. According to the off-line teaching, the teaching work can be simplified and the time can be shortened as compared with the case of actually teaching by moving the robot.

【0003】しかし、オフラインで教示された位置とロ
ボットを実際に移動させた位置との間には、ロボットの
パラメータ機差や自重による撓み等の影響による誤差が
存在するため、正確な位置を教示することはできない。
However, since there is an error between the position taught offline and the position actually moved by the robot due to the influence of the parameter difference of the robot or the deflection due to its own weight, an accurate position is taught. You cannot do it.

【0004】そこで、教示後に上記誤差を修正すること
が必要となっていた。
Therefore, it is necessary to correct the above error after teaching.

【0005】このような教示位置の誤差を補正する方法
としては、特開平7ー84631号公報にみられるごと
く、2台のカメラで構成した3次元視覚センサをロボッ
トに設置し、オフラインで教示された位置にロボットを
移動させ、予め施しておいた補正用のマーク、もしくは
ワークが元来備えている特徴点を画像認識して補正量を
計測し、この補正量によって教示位置を補正し動作プロ
グラムを修正するものがある。
As a method of correcting such an error in the teaching position, a three-dimensional visual sensor composed of two cameras is installed in a robot as taught in Japanese Unexamined Patent Publication No. 7-84631, and the teaching is performed offline. Move the robot to the desired position, recognize the image of the correction mark that was made in advance, or the feature point that the work originally has, measure the correction amount, and correct the teaching position by this correction amount There is something to fix.

【0006】[0006]

【発明が解決しようとする課題】上記従来の教示位置補
正装置では、カメラを2台設置する必要がある。
In the above-mentioned conventional teaching position correcting apparatus, it is necessary to install two cameras.

【0007】このため光軸合せ等のキャリブレーション
が煩雑となるばかりでなく、誤差要因が増加してしま
い、結果として補正量の計測値に含まれる誤差が大きく
なってしまう。
Therefore, not only the calibration such as optical axis alignment becomes complicated, but also the error factor increases, and as a result, the error contained in the measurement value of the correction amount becomes large.

【0008】また、3次元視覚センサを2台のカメラで
構成し、これらをツール部に設置するようにしているた
め、ツール部の構造が大きくなってしまい、ロボットと
ワークとの干渉がシビアな場合には、カメラがワークに
干渉するという問題が招来する。
Further, since the three-dimensional visual sensor is composed of two cameras and they are installed in the tool part, the structure of the tool part becomes large, and the robot and the work are not interfered with each other severely. In this case, there arises a problem that the camera interferes with the work.

【0009】さらに、溶接線上の教示点のごとく、立体
的形状に沿った教示点を認識しようとする場合には、カ
メラ視線によってはワークの陰になって補正用のマーク
が見えないことがある。そこで、これを避けるために2
台のカメラが同時にマークを撮像できる姿勢にロボット
の姿勢を変更する必要があるが、これは、ロボットのと
り得る姿勢を制限することになる。また、変更されたロ
ボット姿勢がロボットにとって無理な姿勢であれば、ロ
ボットの動作中に振動が生じる等してしまい、結果的に
溶接等の品質が劣化してしまうことになる。
Further, when trying to recognize a teaching point along a three-dimensional shape such as a teaching point on a welding line, the correction mark may not be visible due to the shadow of the work depending on the line of sight of the camera. . Therefore, to avoid this, 2
It is necessary to change the posture of the robot so that the cameras can simultaneously capture the marks, but this limits the postures that the robot can take. Further, if the changed robot posture is an unreasonable posture for the robot, vibration may occur during the operation of the robot, resulting in deterioration of quality such as welding.

【0010】本発明はこうした実状に鑑みてなされたも
のであり、ワークとの干渉が発生したり、ロボットの取
り得る姿勢が制限されたり、溶接等の品質劣化が招来し
たりすることなく、精度よく教示位置を補正することが
できる装置を提供することを解決課題とするものであ
る。
The present invention has been made in view of the above circumstances, and it is possible to achieve accuracy without interfering with a work, limiting a posture that a robot can take, and deteriorating quality such as welding. It is an object of the present invention to provide an apparatus capable of well correcting a teaching position.

【0011】[0011]

【課題を解決するための手段および効果】この課題を解
決するために、本発明では、ロボットのアームに取り付
けられたツールの先端が移動すべきワーク上の位置を教
示して、前記ツール先端が当該教示位置に位置されるよ
うに前記ロボットを駆動させるようにしたロボットにお
いて、前記ツールに所定の位置関係をもって取り付けら
れ、前記ロボットのツール先端が移動すべき教示位置を
撮像する視覚センサと、前記ツールとともに移動し、当
該ツールの長手方向に対して垂直な平面上の座標位置を
表示するツール座標系を設定するとともに、前記視覚セ
ンサの撮像視野内の座標位置を表示するセンサ座標系を
設定する座標系設定手段と、前記視覚センサを所定距離
移動させて、各移動位置毎に前記視覚センサにより一の
教示位置を撮像し、この撮像結果から、各移動位置ごと
に、前記センサ座標系上における前記一の教示位置の座
標位置を計測する第1の計測手段と、前記第1の計測手
段によって計測された前記一の教示位置の各座標位置
と、前記視覚センサが移動した所定距離に基づき、前記
視覚センサと前記ワークとの距離を演算し、当該演算距
離と、前記ツール先端が前記一の教示位置に位置された
際の前記視覚センサと前記ワークとの基準距離との誤差
を演算する第1の演算手段と、前記視覚センサにより前
記一の教示位置を撮像し、この撮像結果から、前記セン
サ座標系上における前記一の教示位置の座標位置を計測
する第2の計測手段と、前記第2の計測手段によって計
測された前記一の教示位置の座標位置と、前記ツール先
端が前記一の教示位置に位置された際の前記センサ座標
系上における当該一の教示位置の基準座標位置との位置
ずれと、前記センサ座標系と前記ツール座標系との相対
位置関係に基づき、前記センサ座標系上における位置ず
れに対応する前記ツール座標系上における位置ずれを演
算する第2の演算手段と、前記一の教示位置が前記ツー
ルの長手方向へ、前記第1の演算手段で演算された誤差
に応じた分だけ補正されるように、かつ、当該一の教示
位置が前記ツールに垂直な方向へ、前記第2の演算手段
で演算された位置ずれに応じた分だけ補正されるよう
に、教示位置を補正する補正手段と具えるようにしてい
る。
In order to solve this problem, in the present invention, the tip of the tool attached to the arm of the robot is taught the position on the work to be moved so that the tip of the tool is In a robot configured to drive the robot so as to be positioned at the teaching position, a visual sensor attached to the tool with a predetermined positional relationship, for imaging a teaching position where a tool tip of the robot should move, A tool coordinate system that moves with the tool and displays the coordinate position on a plane perpendicular to the longitudinal direction of the tool is set, and a sensor coordinate system that displays the coordinate position within the imaging visual field of the visual sensor is set. The coordinate system setting means and the visual sensor are moved by a predetermined distance, and an image of one teaching position is picked up by the visual sensor at each moving position. From this imaging result, first measuring means for measuring the coordinate position of the one teaching position on the sensor coordinate system for each moving position, and the one teaching position measured by the first measuring means. Based on each coordinate position and a predetermined distance moved by the visual sensor, the distance between the visual sensor and the work is calculated, and the calculated distance and the tool tip when the tool tip is positioned at the one teaching position. A first calculation unit that calculates an error between a reference distance between the visual sensor and the work, and the one teaching position is imaged by the visual sensor, and from the result of this imaging, the one of the one on the sensor coordinate system is imaged. Second measuring means for measuring the coordinate position of the teaching position, the coordinate position of the one teaching position measured by the second measuring means, and the tool tip at the one teaching position. Based on the positional shift between the one teaching position and the reference coordinate position on the sensor coordinate system and the relative positional relationship between the sensor coordinate system and the tool coordinate system, the positional shift on the sensor coordinate system is dealt with. Second computing means for computing a positional deviation on the tool coordinate system, and the one teaching position are corrected in the longitudinal direction of the tool by an amount corresponding to the error computed by the first computing means. And a correction means and a tool for correcting the taught position so that the one taught position is corrected in the direction perpendicular to the tool by an amount corresponding to the positional deviation calculated by the second calculating means. I am trying to get it.

【0012】すなわち、かかる構成によれば、従来技術
のように、2台のカメラで構成された3次元視覚センサ
を、ツール部に配設する必要はなくなり、基本的には、
1台の視覚センサをツール部に配設するだけで済むよう
になる。
That is, according to such a configuration, it is not necessary to dispose a three-dimensional visual sensor composed of two cameras in the tool section as in the prior art, and basically,
Only one visual sensor needs to be provided in the tool section.

【0013】この結果、ツール部の構造が小さなものと
なり、誤差要因が少なくなるので、ワークとの干渉が発
生したり、ロボットの取り得る姿勢が制限されたり、溶
接等の品質劣化が招来したりすることなく、精度よく教
示位置を補正することができるようになる。
As a result, the structure of the tool portion becomes small, and the error factors are reduced, so that interference with the work occurs, the posture that the robot can take is limited, and the quality of welding or the like deteriorates. The teaching position can be accurately corrected without doing so.

【0014】[0014]

【発明の実施の形態】以下、図面を参照して本発明に係
るロボットの教示位置補正装置の実施の形態について説
明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of a teaching position correcting apparatus for a robot according to the present invention will be described below with reference to the drawings.

【0015】なお、この実施の形態では、切断作業を行
う切断ロボットを想定している。
In this embodiment, a cutting robot for cutting work is assumed.

【0016】すなわち、図1は、多関節の切断ロボット
1を示す斜視図であり、同図に示すようにロボット1の
アーム1aの先端には、ブラケット21を介してツール
(トーチ)2と視覚センサ3が装着されている。
That is, FIG. 1 is a perspective view showing a multi-joint cutting robot 1. As shown in FIG. 1, the tip of an arm 1a of the robot 1 is visually connected to a tool (torch) 2 via a bracket 21. The sensor 3 is attached.

【0017】ここで、視覚センサ3は、ツール2に対し
て、その撮像面が当該ツール2の長手方向と垂直となる
ような位置関係をもって取り付けられており(図2参
照)、ロボット1のツール先端2aが移動すべき教示位
置を撮像する。
Here, the visual sensor 3 is attached to the tool 2 in such a positional relationship that its imaging surface is perpendicular to the longitudinal direction of the tool 2 (see FIG. 2), and the tool of the robot 1 is used. An image is taken of the teaching position to which the tip 2a should move.

【0018】この実施の形態では、視覚センサ3を、ア
ーム1aの先端部とツール2との間の非干渉領域(デッ
ドスペース)に配設して、ワーク4との干渉を回避する
ようにしている。なお、視覚センサ3とツール2との位
置関係は、この実施の形態のものに限らず、任意であ
る。
In this embodiment, the visual sensor 3 is arranged in a non-interference area (dead space) between the tip of the arm 1a and the tool 2 to avoid interference with the work 4. There is. The positional relationship between the visual sensor 3 and the tool 2 is not limited to that of this embodiment, and is arbitrary.

【0019】一方、作業対象ワークもしくはマスタワー
ク(以下、単にワークという)4は、図示せぬ固定手段
によって作業空間内に固定されており、当該ワーク4上
には切断作業線41が、け書きされている。この切断作
業線41と交差する態様で各教示点42が、け書きされ
ている。
On the other hand, a work to be worked or a master work (hereinafter, simply referred to as a work) 4 is fixed in a working space by a fixing means (not shown), and a cutting work line 41 is written on the work 4 by a stroke. Has been done. Each teaching point 42 is inscribed so as to intersect with the cutting work line 41.

【0020】この実施の形態では、教示点42を、け書
き線の交点にて表示しているが、視覚センサ3で認識で
きるのであれば任意の態様で表示することができる。た
とえばシールのようなものであってもよく、溶接用ワー
クであれば開先部の稜線であってもよい。
In this embodiment, the teaching point 42 is displayed at the intersection of the writing lines, but it can be displayed in any form as long as it can be recognized by the visual sensor 3. For example, it may be a seal or a ridgeline of the groove portion if it is a welding work.

【0021】図2は、この実施の形態におけるシステム
構成を示している。
FIG. 2 shows the system configuration of this embodiment.

【0022】同図2に示すロボットコントローラ11
は、動作プログラムに従ってロボット1の各軸を駆動制
御して、ロボット1の動作経路およびツール2の姿勢を
制御するとともに、図示せぬ切断機制御装置・電源に開
始指令または終了指令を送出することで、一連の切断作
業を行わせるものである。
The robot controller 11 shown in FIG.
Is to drive and control each axis of the robot 1 according to the operation program to control the operation path of the robot 1 and the attitude of the tool 2, and send a start command or an end command to a cutting machine control device / power supply (not shown). Then, a series of cutting work is performed.

【0023】一方、センサコントローラ31は、視覚セ
ンサ3で撮像された映像信号を入力し、後述する画像処
理プログラムによって、撮像視野内における教示点42
を検出するものである。さらに、センサコントローラ3
1は、検出した位置データや動作プログラムをロボット
コントローラ11に送受信したり、ロボット動作プログ
ラムを編集・修正する処理を行う。上記画像処理プログ
ラムは、後述するようにパラレル入出力でタイミングを
取りながらロボット動作と並列で実行される。つぎに、
センサコントローラ31、ロボットコントローラ11で
実行される動作プログラム修正処理(教示位置の補正処
理)について、図3に示すフローチャートを参照して説
明する。
On the other hand, the sensor controller 31 inputs a video signal picked up by the visual sensor 3, and a teaching point 42 in the picked-up visual field by an image processing program described later.
Is to be detected. Furthermore, the sensor controller 3
1 transmits / receives the detected position data and operation program to / from the robot controller 11 and edits / corrects the robot operation program. The image processing program is executed in parallel with the robot operation while taking timing with parallel input / output as described later. Next,
The operation program correction processing (teaching position correction processing) executed by the sensor controller 31 and the robot controller 11 will be described with reference to the flowchart shown in FIG.

【0024】図4に示すように、視覚センサ3の撮像視
野3a内には、XoーYo座標平面としてのセンサ座標系
(原点Oo)が設定されており、このセンサ座標系上に
おける教示点42の座標位置が検出、表示されるように
なっている。また、ツール2には、後述するように、当
該ツール2とともに移動する座標系であって、当該ツー
ル2の長手方向に対して垂直なXRTーYRT座標平面(原
点ORT)上の座標位置を表示するツール座標系が設定さ
れる。
As shown in FIG. 4, a sensor coordinate system (origin Oo) as an Xo-Yo coordinate plane is set in the imaging visual field 3a of the visual sensor 3, and a teaching point 42 on this sensor coordinate system is set. The coordinate position of is detected and displayed. Further, as will be described later, the tool 2 displays the coordinate position on the XRT-YRT coordinate plane (origin ORT) that is a coordinate system that moves together with the tool 2 and is perpendicular to the longitudinal direction of the tool 2. The tool coordinate system to be set is set.

【0025】そこで、視覚センサ3の撮像視野3a内に
おいて、センサ座標系に対するツール座標系の相対位置
関係(図4参照)が、設定されているか否かが、まず判
断される(ステップ101)。
Therefore, it is first determined whether or not the relative positional relationship (see FIG. 4) of the tool coordinate system with respect to the sensor coordinate system is set within the imaging field of view 3a of the visual sensor 3 (step 101).

【0026】ここで、ツール座標系が設定されていない
ならば、センサコントローラ31において、以下のツー
ル座標系設定プログラム(ステップ102ー1〜ステッ
プ102ー6)が実行され、ツール座標系を設定する処
理を行う(ステップ102)。なお、ツール座標系は、
視覚センサ3の付け換え等でロボット1のツール2と視
覚センサ3との相対位置関係が変化した場合や視覚セン
サ3のレンズの倍率を変えた場合のみ設定し直せばよ
い。
Here, if the tool coordinate system is not set, the following tool coordinate system setting program (steps 102-1 to 102-6) is executed in the sensor controller 31 to set the tool coordinate system. Processing is performed (step 102). The tool coordinate system is
It may be set again only when the relative positional relationship between the tool 2 of the robot 1 and the visual sensor 3 is changed due to replacement of the visual sensor 3 or when the magnification of the lens of the visual sensor 3 is changed.

【0027】ツール座標系設定プログラムは、センサコ
ントローラ31内に記憶されており、このプログラムの
実行によって、ロボット1を動作させながら視覚センサ
3の画像を処理してツール座標系を設定する処理が自動
的に行われる。
The tool coordinate system setting program is stored in the sensor controller 31, and by executing this program, the process of setting the tool coordinate system by processing the image of the visual sensor 3 while operating the robot 1 is automatically performed. Is done in a regular manner.

【0028】まず、上記プログラム実行前に、ロボット
1を手動によって操作する等して、ツール先端2aとワ
ーク4との距離が、切断加工時におけるツール、ワーク
間距離となり、かつツール2の姿勢が、切断加工時にお
けるツール姿勢となるように、ツール2の先端2aを基
準となる教示点(以下、基準点という)42に正確に一
致させるようにする。なお、教示点42そのものでなく
別途設けた基準マークにツール2の先端2aを一致させ
てもよい。
First, before the above program is executed, the distance between the tool tip 2a and the work 4 becomes the distance between the tool and the work during cutting by manually operating the robot 1 or the like, and the posture of the tool 2 is changed. The tip 2a of the tool 2 is made to accurately coincide with a reference teaching point (hereinafter referred to as a reference point) 42 so that the tool has a posture during cutting. Note that the tip 2a of the tool 2 may be aligned with a reference mark provided separately instead of the teaching point 42 itself.

【0029】この状態でプログラムが実行され、基準点
42を撮像した画像が取り込まれる。視覚センサ3は、
取り込まれた画像に基準点42(あるいはマーク)が映
るに足る視野を持つものとする。
The program is executed in this state, and an image of the reference point 42 is captured. The visual sensor 3
It is assumed that the captured image has a field of view sufficient to show the reference point 42 (or mark).

【0030】_以下、図4を参照して説明すると、上記
取り込まれた撮像画像が処理され、この結果、基準点4
2の位置P0が、センサ座標系XoーOoーYoにおける座
標位置P0(Xo p0、Yo p0)として計測される。ここ
で、基準点P0は、ツール座標系XRTーORTーYRTの原
点ORTに相当する。つまり、ツール先端2aが基準点4
2に正確に位置決めされたときには、その基準点P0は
撮像画像上ではツール座標系の原点ORTに一致し、その
原点ORTは、センサ座標系上で座標位置P0(Xo p0、
Yo p0)で表される(ステップ102ー1)。
In the following, referring to FIG. 4, the captured image taken in is processed, and as a result, the reference point 4 is obtained.
The position P0 of 2 is measured as the coordinate position P0 (Xo p0, Yo p0) in the sensor coordinate system Xo-Oo-Yo. Here, the reference point P0 corresponds to the origin ORT of the tool coordinate system XRT-ORT-YRT. That is, the tool tip 2a is the reference point 4
When accurately positioned at 2, the reference point P0 coincides with the origin ORT of the tool coordinate system on the captured image, and the origin ORT is the coordinate position P0 (Xo p0,
(Yop0) (step 102-1).

【0031】つぎに、ツール2がツール座標系のXRT軸
方向に既知の所定量Lだけ移動され、ツール先端2aが
点P1まで移動される(ステップ102ー2)。
Next, the tool 2 is moved by a known predetermined amount L in the XRT axis direction of the tool coordinate system, and the tool tip 2a is moved to the point P1 (step 102-2).

【0032】このとき、視覚センサ3の撮像視野3a内
では、基準点P0は点P1´に移動して見える。そこで、
このときの画像が取り込まれ、点P1´のセンサ座標系
XoーOoーYoにおける座標位置P1´(Xo p1'、Yo p
1')が計測される。
At this time, in the imaging visual field 3a of the visual sensor 3, the reference point P0 appears to move to the point P1 '. Therefore,
The image at this time is captured, and the coordinate position P1 '(Xo p1', Yo p of the point P1 'in the sensor coordinate system Xo-Oo-Yo
1 ') is measured.

【0033】ここで、点P1と点P1´は、点P0に対し
て点対称の関係にあるので、点P1(Xo p1、Yo p1)
は、次式(1)により求められる。
Since the point P1 and the point P1 'are point-symmetrical with respect to the point P0, the point P1 (Xo p1, Yo p1)
Is calculated by the following equation (1).

【0034】 (ステップ102ー3) ついで、上記のごとく求められた点P0と点P1の座標位
置から、センサ座標系XoーOoーYoに対するツール座
標系XRTーORTーYRTの回転角θが下記(2)式のごと
く演算される。
[0034] (Step 102-3) Then, based on the coordinate positions of the points P0 and P1 obtained as described above, the rotation angle θ of the tool coordinate system XRT-ORT-YRT with respect to the sensor coordinate system Xo-Oo-Yo is as follows (2). It is calculated like an expression.

【0035】 (ステップ102ー4) また、次式(3)によって倍率Bが演算される。[0035] (Step 102-4) Further, the magnification B is calculated by the following equation (3).

【0036】 (ステップ102ー5) そこで、視覚センサ3と基準点42が施されているワー
ク4との基準距離、つまり、ツール先端2aが基準点4
2に正確に位置決めされた際の視覚センサ3とワーク4
との基準距離S0が、三角測量の原理を用いて、次式
(4)により求められる。
[0036] (Step 102-5) Then, the reference distance between the visual sensor 3 and the workpiece 4 provided with the reference point 42, that is, the tool tip 2a is the reference point 4
Visual sensor 3 and work 4 when accurately positioned in 2
The reference distance S0 between and is obtained by the following equation (4) using the principle of triangulation.

【0037】 上記式において、fは、視覚センサ3に使用されている
レンズの焦点距離である(ステップ102ー6)。
[0037] In the above equation, f is the focal length of the lens used in the visual sensor 3 (step 102-6).

【0038】以上のように求められたツール座標系の原
点ORTの座標位置P0(Xo p0、Yop0)、回転角θ、倍
率B、基準距離S0は、ツール座標系の設定データとし
て、センサコントローラ31内に記憶される。
The coordinate position P0 (Xop0, Yop0) of the origin ORT of the tool coordinate system, the rotation angle θ, the magnification B, and the reference distance S0 obtained as described above are set data of the tool coordinate system and are set as the sensor controller 31. Be stored in.

【0039】このようにして、ツール座標系の設定デー
タが取得されて、センサ座標系に対するツール座標系の
相対位置関係が設定されると、センサ座標系XoーOoー
Yo上の任意の点(Xo、Yo)は、下記の変換式(5)
により、ツール座標系XRTーORTーYRT上の座標位置
(XRT、YRT)に変換することができる。
In this way, when the setting data of the tool coordinate system is acquired and the relative positional relationship of the tool coordinate system with respect to the sensor coordinate system is set, an arbitrary point (on the sensor coordinate system Xo-Oo-Yo ( Xo, Yo) is the following conversion formula (5)
Can be converted into a coordinate position (XRT, YRT) on the tool coordinate system XRT-ORT-YRT.

【0040】 こうして、センサ座標系に対するツール座標系の相対位
置関係の設定が終了すると、ステップ103に移行さ
れ、教示位置の補正量、つまりツール2の長手方向の補
正量、ツール2に垂直な平面内における補正量を自動的
に計測するための計測ジョブが作成される。
[0040] When the setting of the relative positional relationship of the tool coordinate system with respect to the sensor coordinate system is completed in this way, the process proceeds to step 103, and the correction amount of the teaching position, that is, the correction amount of the tool 2 in the longitudinal direction, the correction in the plane perpendicular to the tool 2 are performed. A measurement job is created to automatically measure the quantity.

【0041】この計測ジョブの作成は、センサコントロ
ーラ31に記憶されたプログラムによって自動的に行わ
れる。
The measurement job is automatically created by a program stored in the sensor controller 31.

【0042】センサコントローラ31は、修正すべき動
作プログラム番号と補正すべき教示点が指定されると、
ロボットコントローラ11から該当する動作プログラム
を読み込み、ロボット動作プログラム編集機能を用い
て、図5に示すような計測ジョブを作成する(ステップ
103)。
When the operation program number to be corrected and the teaching point to be corrected are designated, the sensor controller 31
The corresponding operation program is read from the robot controller 11, and a measurement job as shown in FIG. 5 is created using the robot operation program editing function (step 103).

【0043】ついで、この計測ジョブが実行される。 ・ツール方向の補正量を求める処理 まず、補正すべき教示点42を視覚センサ3で撮像でき
る範囲内で、ツール2に垂直な平面内の2点A、Bを定
め、点Aから点Bまで視覚センサ3(ツール2)を移動
させる処理が行われる。ここで、点A、Bは、教示点4
2をはさんで既知の距離L1だけ離れているものとし、
点A、B間の方向に特に制限はない。
Then, this measurement job is executed. Processing for obtaining correction amount in tool direction First, two points A and B in a plane perpendicular to the tool 2 are determined within a range in which the teaching point 42 to be corrected can be imaged by the visual sensor 3, and from the point A to the point B. A process of moving the visual sensor 3 (tool 2) is performed. Here, points A and B are teaching points 4
It is assumed that the two are separated by a known distance L1, and
The direction between points A and B is not particularly limited.

【0044】ただし、ツール進行方向(切断作業線方
向)に対して直交する方向に設定すると、ツール2とワ
ーク4との干渉が起きにくい。また、溶接線上の教示点
のごとく、立体的形状にのる教示点を撮像するような場
合には、視覚センサ3による視野がワーク4によって遮
られないように、溶接線に沿った方向に視覚センサ3を
移動させてもよい。
However, when it is set in a direction orthogonal to the tool advancing direction (cutting work line direction), interference between the tool 2 and the work 4 is unlikely to occur. Further, when a teaching point having a three-dimensional shape is imaged like a teaching point on the welding line, the visual field of the visual sensor 3 is visually recognized in a direction along the welding line so that the work 4 does not block the visual field. The sensor 3 may be moved.

【0045】また、2点A、Bのうちのどちらかを、教
示点42と一致させてもよい。
Further, either one of the two points A and B may be matched with the teaching point 42.

【0046】図5における計測ジョブの左側の処理は、
ロボットの動作であり、ロボットコントローラ11で実
行される内容である。右側の処理は、画像処理プログラ
ムであり、センサコントローラ31で実行される内容で
ある。
The processing on the left side of the measurement job in FIG.
It is the operation of the robot and is the content executed by the robot controller 11. The processing on the right is an image processing program, and is the content executed by the sensor controller 31.

【0047】そこで、これらロボット動作と画像処理プ
ログラムを並列で実行させるべく、各点へロボット1を
移動させるための移動命令と、各点において画像を計測
するための計測指令とのタイミングをとる信号が、ロボ
ットコントローラ11、センサコントローラ31のそれ
ぞれに入力され、このタイミング信号に基づいて図5に
示す処理がシーケンシャルに実行されることになる。
Therefore, in order to execute the robot operation and the image processing program in parallel, a signal for timing a movement command for moving the robot 1 to each point and a measurement command for measuring an image at each point. Is input to each of the robot controller 11 and the sensor controller 31, and the processing shown in FIG. 5 is sequentially executed based on this timing signal.

【0048】すなわち、上記設定された2点A、Bのう
ち、まずA点まで視覚センサ3がツール2とともに移動
されるようロボット1の各軸が駆動制御される(ステッ
プ201)。
That is, of the set two points A and B, each axis of the robot 1 is drive-controlled so that the visual sensor 3 is moved together with the tool 2 to the point A (step 201).

【0049】ついで、視覚センサ3がA点に位置されて
いるときの教示点42の、センサ座標系XoーOoーYo
上における座標位置A(Xo A、Yo A)が、視覚センサ
3の撮像結果に基づき計測される(ステップ202)。
Next, the sensor coordinate system Xo-Oo-Yo of the teaching point 42 when the visual sensor 3 is located at the point A.
The coordinate position A (Xo A, Yo A) on the top is measured based on the imaging result of the visual sensor 3 (step 202).

【0050】ついで、A点からB点まで上記既知距離L
1だけ視覚センサ3がツール2とともに移動されるよう
ロボット1の各軸が駆動制御される(ステップ20
3)。
Then, from the point A to the point B, the known distance L
Each axis of the robot 1 is drive-controlled so that the visual sensor 3 is moved by 1 with the tool 2 (step 20).
3).

【0051】ついで、視覚センサ3がB点に位置されて
いるときの教示点42の、センサ座標系XoーOoーYo
上における座標位置B(Xo B、Yo B)が、視覚センサ
3の撮像結果に基づき計測される(ステップ204)。
Next, the sensor coordinate system Xo-Oo-Yo of the teaching point 42 when the visual sensor 3 is located at the point B.
The coordinate position B (Xo B, Yo B) on the top is measured based on the imaging result of the visual sensor 3 (step 204).

【0052】そこで、上記(4)式と同様に三角測量の
原理が用いられ、上記求められた2点A、Bにおける教
示点42の座標位置A(Xo A、Yo A)、B(Xo B、
Yo B)に基づいて視覚センサ3とワーク4との距離S1
が、次式(6)により求められる。
Therefore, the principle of triangulation is used in the same manner as the equation (4), and the coordinate positions A (Xo A, Yo A) and B (Xo B of the teaching point 42 at the two points A and B obtained above are used. ,
The distance S1 between the visual sensor 3 and the work 4 based on
Is calculated by the following equation (6).

【0053】 よって、次式(7)に示すように、上記求められた距離
S1から、すでにステップ102で求め記憶しておい
た、ツール先端2aが基準点42に正確に位置決めされ
た際の視覚センサ3とワーク4との基準距離S0を減算
することで、距離誤差ΔS、つまりツール2の長手方向
に補正すべき量ΔSが得られる。
[0053] Therefore, as shown in the following expression (7), the visual sensor 3 when the tool tip 2a is accurately positioned at the reference point 42, which has already been obtained and stored in step 102 from the obtained distance S1. By subtracting the reference distance S0 from the work 4, the distance error ΔS, that is, the amount ΔS to be corrected in the longitudinal direction of the tool 2 is obtained.

【0054】 ΔS=S1ーS0 …(7) (ステップ205) ・ツール長手方向に垂直な平面内における補正量を求め
る処理 つぎに、教示点42を、上記ステップ205で取得され
た補正量ΔSだけツール長手方向に補正した点Cまで視
覚センサ3をツール2とともに移動させる移動命令が、
ロボットコントローラ11に対して出力される。
ΔS = S1−S0 (7) (Step 205) Processing for Obtaining Correction Amount in Plane Vertical to Tool Longitudinal Direction Next, the teaching point 42 is changed by the correction amount ΔS acquired in the above Step 205. A movement command for moving the visual sensor 3 together with the tool 2 to the point C corrected in the tool longitudinal direction is
It is output to the robot controller 11.

【0055】これに応じて、点Cまで視覚センサ3がツ
ール2とともに移動されるようロボット1の各軸が駆動
制御される(ステップ206)。
In response to this, each axis of the robot 1 is drive-controlled so that the visual sensor 3 is moved together with the tool 2 to the point C (step 206).

【0056】ついで、視覚センサ3がC点に位置されて
いるときの、センサ座標系XoーOoーYo上における座
標位置C(Xo c、Yo c)が、視覚センサ3の撮像結果
に基づき計測される(ステップ207)。
Next, the coordinate position C (Xoc, Yoc) on the sensor coordinate system Xo-Oo-Yo when the visual sensor 3 is located at the point C is measured based on the imaging result of the visual sensor 3. (Step 207).

【0057】こうして、C点のセンサ座標系XoーOoー
Yo上の座標位置C(Xo c、Yo c)が取得されると、
この座標位置Cと、すでにステップ102で求め、記憶
しておいたツール座標系の原点ORTの座標位置P0(Xo
p0、Yo p0)、回転角θ、倍率Bを用いた上記(5)
式と同様な変換式、 により、センサ座標系上における位置ずれ(Xo cーXo
p0、Yo cーYo p0)に対応するツール座標系上におけ
る位置ずれ(ΔXRT、ΔYRT)が求められる。ここで、
ツール先端2aが教示点42に正確に位置決めされたと
きには、前述したように、教示点42はツール座標系の
原点ORTに一致しているはずである。よって、その原点
ORTに一致させるべく、ツール座標系上で、上記位置ず
れ(ΔXRT、ΔYRT)分だけ補正をかければ、ツール2
に対して垂直な平面内における補正がなされることとな
る(ステップ208)。ステップ208の終了によっ
て、計測ジョブは終了する(ステップ104)。
Thus, when the coordinate position C (Xo c, Yo c) of the point C on the sensor coordinate system Xo-Oo-Yo is obtained,
This coordinate position C and the coordinate position P0 (Xo of the origin ORT of the tool coordinate system already obtained and stored in step 102)
p0, Yo p0), rotation angle θ, and magnification B above (5)
A conversion formula similar to the formula, Position shift on the sensor coordinate system (Xoc-Xo
The positional deviation (ΔXRT, ΔYRT) on the tool coordinate system corresponding to p0, Yo c-Yo p0) is obtained. here,
When the tool tip 2a is accurately positioned at the teaching point 42, the teaching point 42 should coincide with the origin ORT of the tool coordinate system, as described above. Therefore, in order to make it coincide with the origin ORT, if the correction is made by the amount of the positional deviation (ΔXRT, ΔYRT) on the tool coordinate system, the tool 2
A correction is made in a plane perpendicular to (step 208). When the step 208 ends, the measurement job ends (step 104).

【0058】以上のように、点Cまで移動させてツール
長手方向の補正がなされた後に、ツール2に垂直な平面
内の補正量(ΔXRT、ΔYRT)を計算するようにしたの
は、ワーク4と視覚センサ3との距離を一定にして精度
を上げるためである。
As described above, after the movement to the point C and the correction in the longitudinal direction of the tool are performed, the correction amount (ΔXRT, ΔYRT) in the plane perpendicular to the tool 2 is calculated. This is to improve the accuracy by keeping the distance from the visual sensor 3 constant.

【0059】もちろん、点Cを設けず、点Aまたは点B
のかわりに教示点42を用い、これら2点の計測値から
得られるツール長手方向補正量ΔSと、教示点42にお
ける計測値に基づき、直接、ツール垂直平面内の補正量
(ΔXRT、ΔYRT)を計算してもよい。
Of course, the point C is not provided and the point A or the point B is set.
Instead of using the teaching point 42, the tool longitudinal direction correction amount ΔS obtained from the measurement values of these two points and the correction amount (ΔXRT, ΔYRT) in the tool vertical plane directly based on the measurement value at the teaching point 42. You may calculate.

【0060】このようにしてツール長手方向の補正量Δ
Sと、ツール垂直平面内の補正量(ΔXRT、ΔYRT)が
取得されると、教示点42がツール2の長手方向へ、補
正量ΔSだけ補正されるとともに、教示点42がツール
2に垂直な平面内(ツール座標系上)で、上記補正量
(ΔXRT、ΔYRT)だけ補正される。このようにして教
示位置を補正することで、ロボット動作プログラムが修
正され、その修正したロボット動作プログラムがロボッ
トコントローラ11に転送される。そして、この修正ロ
ボット動作プログラムにしたがってロボット1が駆動制
御されると、たとえ、ロボットのパラメータ機差や自重
による撓み等があったとしても、ロボット1のツール2
は各教示位置に沿って正確に移動されるようになり、切
断作業が精度よく行われる(ステップ105)。
In this way, the correction amount Δ in the longitudinal direction of the tool
When S and the correction amount (ΔXRT, ΔYRT) in the tool vertical plane are acquired, the teaching point 42 is corrected in the longitudinal direction of the tool 2 by the correction amount ΔS and the teaching point 42 is perpendicular to the tool 2. The correction amount (ΔXRT, ΔYRT) is corrected in the plane (on the tool coordinate system). By correcting the teaching position in this way, the robot operation program is corrected, and the corrected robot operation program is transferred to the robot controller 11. When the robot 1 is drive-controlled in accordance with this modified robot operation program, the tool 2 of the robot 1 can be used even if there is a difference between robot parameters or a deflection due to its own weight.
Is accurately moved along each teaching position, and the cutting work is performed accurately (step 105).

【0061】なお、この実施の形態では、補正すべき教
示点ごとに、画像計測を行い、補正量を求めるものとし
て説明したが、たとえばワークが平行ずれを起こした場
合のごとく、一の教示点の計測結果から得られた補正量
をもって他の複数の教示点の補正を行うことも可能であ
るまた、この実施の形態では、切断作業を行うロボット
を想定したが、もちろん溶接ロボット等任意の作業ロボ
ットに適用可能である。
In this embodiment, the image measurement is performed for each teaching point to be corrected and the correction amount is obtained. However, for example, when the work is misaligned, one teaching point is corrected. It is also possible to correct a plurality of other teaching points by using the correction amount obtained from the measurement result of 1. In this embodiment, a robot that performs cutting work is assumed, but of course any work such as welding robot can be performed. It is applicable to robots.

【0062】また、この実施の形態では、視覚センサ3
が、ツール2に対して、その撮像面が当該ツール2の長
手方向と垂直となるような位置関係をもって取り付けら
れていることを想定しているが、それ以外の任意の位置
関係をもって取り付けれている場合にも、以下のように
して、上記(5)式と同様な変換式によってセンサ座標
系上の点を、ツール座標系上の点に変換することができ
る。
Further, in this embodiment, the visual sensor 3
However, it is assumed that the image pickup surface is attached to the tool 2 in such a positional relationship that the image pickup surface is perpendicular to the longitudinal direction of the tool 2, but the image pickup surface is attached in any other positional relationship. Also in this case, a point on the sensor coordinate system can be converted to a point on the tool coordinate system by the same conversion formula as the above formula (5) as follows.

【0063】いま、図6に示すように、ツール座標系を
ORTーXRTーYRTーZRTであると、センサ座標系をOo
ーXoーYoーZoであると3次元座標で設定し、 (1)原点Ooは、原点ORTに対して、H、L、αだけ
オフセットしている。
As shown in FIG. 6, when the tool coordinate system is ORT-XRT-YRT-ZRT, the sensor coordinate system is Oo.
-Xo-Yo-Zo is set by three-dimensional coordinates. (1) The origin Oo is offset from the origin ORT by H, L, and α.

【0064】(2)Zo軸回りにθだけ回転している。(2) It rotates about the Zo axis by θ.

【0065】(3)ZRT軸とZo軸を含む面内で原点Oo
を中心にZo軸をβだけ回転させる。という条件を与
え、視覚センサ3がツール2に対して任意の位置関係に
なっていることを表す。
(3) Origin Oo in the plane including ZRT axis and Zo axis
Rotate the Zo axis by β around. Is given to indicate that the visual sensor 3 has an arbitrary positional relationship with the tool 2.

【0066】すると、上記(2)、(3)の条件は、 (2)´Zo軸回りにαだけ回転する。Then, the conditions of (2) and (3) above are: (2) 'rotate about the Zo axis by α.

【0067】(3)´Yo軸回りにβだけ回転する。(3) 'Rotate by β around the Yo axis.

【0068】(4)´Zo軸回りに(θーα)だけ回転
する。
(4) 'Rotate about the Zo axis by (θ-α).

【0069】ということと等価であるので、変換式は次
式(9)のように求められる。
Since it is equivalent to that, the conversion equation is obtained as in the following equation (9).

【0070】なお、以下、煩雑さを避けるため、sin
(サイン)は式中「s」で、cos(コサイン)は式中
「c」で表す。また、θーαは「γ」で表す。
In the following, in order to avoid complication, sin
(Sine) is represented by “s” in the formula, and cos (cosine) is represented by “c” in the formula. Further, θ-α is represented by “γ”.

【0071】 上記(9)式の右辺の一番左の行列はーαだけ回転させ
るための行列であり、その右隣の行列はーβだけ回転さ
せるための行列であり、さらにその右隣の行列はーγだ
け回転させるための行列である。一番右の行列はオフセ
ット分(上記条件(1))である。
[0071] The leftmost matrix on the right side of the above equation (9) is a matrix for rotating by -α, the matrix on the right side is a matrix for rotating by -β, and the matrix on the right side is- This is a matrix for rotating by γ. The rightmost matrix is for the offset (the above condition (1)).

【0072】上記(9)式は、次式(10)のように整
理することができる。
The above equation (9) can be summarized as the following equation (10).

【0073】 よって、センサ座標系上の点(Xo、Yo、0)は、次式
(11)の変換式によってツール座標系上の点(XRT、
YRT、ZRT)に変換することができる。
[0073] Therefore, the point (Xo, Yo, 0) on the sensor coordinate system is converted to the point (XRT,
YRT, ZRT) can be converted.

【0074】 [0074]

【図面の簡単な説明】[Brief description of drawings]

【図1】図1は、本発明に係るロボットの教示位置補正
装置の実施の形態に適用されるロボットの外観を示す斜
視図である。
FIG. 1 is a perspective view showing an appearance of a robot applied to an embodiment of a teaching position correcting apparatus for a robot according to the present invention.

【図2】図2は、実施の形態で想定しているシステムの
構成を示す図である。
FIG. 2 is a diagram showing a configuration of a system assumed in the embodiment.

【図3】図3は、図2に示すセンサコントローラ、ロボ
ットコントローラで実行される処理の手順を示すフロー
チャートである。
FIG. 3 is a flowchart showing a procedure of processing executed by the sensor controller and robot controller shown in FIG.

【図4】図4は、図1ないし図2に示す視覚センサの撮
像視野を示す図である。
FIG. 4 is a diagram showing an imaging field of view of the visual sensor shown in FIGS. 1 and 2;

【図5】図5は、図3のステップ104で実行される内
容の詳細を説明するフローチャートである。
5 is a flowchart illustrating details of the contents executed in step 104 of FIG.

【図6】図6はツール座標系とセンサ座標系の3次元に
おける幾何的関係を示す斜視図である。
FIG. 6 is a perspective view showing a three-dimensional geometrical relationship between a tool coordinate system and a sensor coordinate system.

【符号の説明】[Explanation of symbols]

1 ロボット 2 ツール 3 視覚センサ 4 ワーク 11 ロボットコントローラ 31 センサコントローラ 1 Robot 2 Tool 3 Visual sensor 4 Work piece 11 Robot controller 31 Sensor controller

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 ロボットのアームに取り付けられた
ツールの先端が移動すべきワーク上の位置を教示して、
前記ツール先端が当該教示位置に位置されるように前記
ロボットを駆動させるようにしたロボットにおいて、 前記ツールに所定の位置関係をもって取り付けられ、前
記ロボットのツール先端が移動すべき教示位置を撮像す
る視覚センサと、 前記ツールとともに移動し、当該ツールの長手方向に対
して垂直な平面上の座標位置を表示するツール座標系を
設定するとともに、前記視覚センサの撮像視野内の座標
位置を表示するセンサ座標系を設定する座標系設定手段
と、 前記視覚センサを所定距離移動させて、各移動位置毎に
前記視覚センサにより一の教示位置を撮像し、この撮像
結果から、各移動位置ごとに、前記センサ座標系上にお
ける前記一の教示位置の座標位置を計測する第1の計測
手段と、 前記第1の計測手段によって計測された前記一の教示位
置の各座標位置と、前記視覚センサが移動した所定距離
に基づき、前記視覚センサと前記ワークとの距離を演算
し、当該演算距離と、前記ツール先端が前記一の教示位
置に位置された際の前記視覚センサと前記ワークとの基
準距離との誤差を演算する第1の演算手段と、 前記視覚センサにより前記一の教示位置を撮像し、この
撮像結果から、前記センサ座標系上における前記一の教
示位置の座標位置を計測する第2の計測手段と、 前記第2の計測手段によって計測された前記一の教示位
置の座標位置と、前記ツール先端が前記一の教示位置に
位置された際の前記センサ座標系上における当該一の教
示位置の基準座標位置との位置ずれと、前記センサ座標
系と前記ツール座標系との相対位置関係に基づき、前記
センサ座標系上における位置ずれに対応する前記ツール
座標系上における位置ずれを演算する第2の演算手段
と、 前記一の教示位置が前記ツールの長手方向へ、前記第1
の演算手段で演算された誤差に応じた分だけ補正される
ように、かつ、当該一の教示位置が前記ツールに垂直な
方向へ、前記第2の演算手段で演算された位置ずれに応
じた分だけ補正されるように、教示位置を補正する補正
手段と具えたロボットの教示位置補正装置。
1. A position on a work to which a tip of a tool attached to an arm of a robot is to be moved is taught,
A robot adapted to drive the robot so that the tool tip is located at the teaching position, wherein a visual image of a teaching position to which the tool tip of the robot is to be moved is attached to the tool in a predetermined positional relationship. A sensor and a sensor coordinate that moves with the tool and sets a tool coordinate system that displays the coordinate position on a plane perpendicular to the longitudinal direction of the tool, and that displays the coordinate position within the imaging field of view of the visual sensor. A coordinate system setting means for setting a system and the visual sensor are moved by a predetermined distance, and one visual instruction position is imaged by the visual sensor for each moving position, and from this imaging result, the sensor is set for each moving position. First measuring means for measuring the coordinate position of the one teaching position on the coordinate system, and the first measuring means for measuring the coordinate position. The distance between the visual sensor and the work is calculated based on each coordinate position of the teaching position and the predetermined distance moved by the visual sensor, and the calculated distance and the tool tip become the one teaching position. A first calculation means for calculating an error between a reference distance between the visual sensor and the work when it is positioned; and an image of the one teaching position by the visual sensor, and based on the result of the imaging, the sensor coordinate system Second measuring means for measuring the coordinate position of the one teaching position on the above, the coordinate position of the one teaching position measured by the second measuring means, and the tool tip at the one teaching position On the sensor coordinate system, based on the positional deviation between the reference coordinate position of the one teaching position on the sensor coordinate system when positioned and the relative positional relationship between the sensor coordinate system and the tool coordinate system. And second calculating means for calculating a positional deviation on the tool coordinate system corresponding to the kicking position shift, the longitudinal direction of the one taught position is the tool, the first
According to the positional deviation calculated by the second calculating means, the one teaching position is corrected in the direction perpendicular to the tool so as to be corrected by the error calculated by the calculating means. A teaching position correcting device for a robot, comprising a correcting means for correcting the teaching position so as to be corrected by the amount.
JP3206696A 1996-02-20 1996-02-20 Teaching position correcting device for robot Pending JPH09222913A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3206696A JPH09222913A (en) 1996-02-20 1996-02-20 Teaching position correcting device for robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3206696A JPH09222913A (en) 1996-02-20 1996-02-20 Teaching position correcting device for robot

Publications (1)

Publication Number Publication Date
JPH09222913A true JPH09222913A (en) 1997-08-26

Family

ID=12348515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3206696A Pending JPH09222913A (en) 1996-02-20 1996-02-20 Teaching position correcting device for robot

Country Status (1)

Country Link
JP (1) JPH09222913A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005271103A (en) * 2004-03-23 2005-10-06 Tookin:Kk Working robot and calibration method thereof
JP2006048244A (en) * 2004-08-02 2006-02-16 Fanuc Ltd Working program generating device
JP2012517053A (en) * 2009-02-03 2012-07-26 ファナック ロボティクス アメリカ コーポレイション Robot tool control method
CN103770112A (en) * 2012-10-19 2014-05-07 株式会社安川电机 Robot system and processed product producing method
CN104552341A (en) * 2014-12-29 2015-04-29 国家电网公司 Single-point multi-view meter-hanging posture error detecting method of mobile industrial robot
JP2017087385A (en) * 2015-11-16 2017-05-25 川崎重工業株式会社 Robot and work method using robot
JP2018051692A (en) * 2016-09-29 2018-04-05 ファナック株式会社 Jog support device for off-line programming, jog support method and jog support program
CN108544508A (en) * 2018-05-10 2018-09-18 深圳市智能机器人研究院 Robot automatic programming method based on autonomous learning and system
CN111300481A (en) * 2019-12-11 2020-06-19 苏州大学 Robot grabbing pose correction method based on vision and laser sensor

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005271103A (en) * 2004-03-23 2005-10-06 Tookin:Kk Working robot and calibration method thereof
JP2006048244A (en) * 2004-08-02 2006-02-16 Fanuc Ltd Working program generating device
JP2012517053A (en) * 2009-02-03 2012-07-26 ファナック ロボティクス アメリカ コーポレイション Robot tool control method
CN103770112A (en) * 2012-10-19 2014-05-07 株式会社安川电机 Robot system and processed product producing method
CN104552341A (en) * 2014-12-29 2015-04-29 国家电网公司 Single-point multi-view meter-hanging posture error detecting method of mobile industrial robot
WO2017086240A1 (en) * 2015-11-16 2017-05-26 川崎重工業株式会社 Robot and method of work by robot
JP2017087385A (en) * 2015-11-16 2017-05-25 川崎重工業株式会社 Robot and work method using robot
CN108290295A (en) * 2015-11-16 2018-07-17 川崎重工业株式会社 The operational method of robot and robot
KR20200011565A (en) * 2015-11-16 2020-02-03 카와사키 주코교 카부시키 카이샤 Robot and method of work by robot
US11027418B2 (en) 2015-11-16 2021-06-08 Kawasaki Jukogyo Kabushiki Kaisha Robot and working method by the robot
CN108290295B (en) * 2015-11-16 2021-12-07 川崎重工业株式会社 Robot and robot operation method
JP2018051692A (en) * 2016-09-29 2018-04-05 ファナック株式会社 Jog support device for off-line programming, jog support method and jog support program
CN108544508A (en) * 2018-05-10 2018-09-18 深圳市智能机器人研究院 Robot automatic programming method based on autonomous learning and system
CN108544508B (en) * 2018-05-10 2022-08-05 深圳市智能机器人研究院 Robot automatic programming method and system based on autonomous learning
CN111300481A (en) * 2019-12-11 2020-06-19 苏州大学 Robot grabbing pose correction method based on vision and laser sensor

Similar Documents

Publication Publication Date Title
US11565427B2 (en) Robot system
JP3665353B2 (en) 3D position correction amount acquisition method of robot teaching position data and robot system
JP4021413B2 (en) Measuring device
JP4267005B2 (en) Measuring apparatus and calibration method
JP6661028B2 (en) Work position correction method
JP3733364B2 (en) Teaching position correction method
JP3946711B2 (en) Robot system
CA2710669C (en) Method and system for the high-precision positioning of at least one object in a final location in space
JP7153085B2 (en) ROBOT CALIBRATION SYSTEM AND ROBOT CALIBRATION METHOD
JP5815761B2 (en) Visual sensor data creation system and detection simulation system
JP6836571B2 (en) Robot device
US20140156072A1 (en) Apparatus and method for measuring tool center point position of robot
JP2015042437A (en) Robot system and calibration method of robot system
JP3644991B2 (en) Coordinate system coupling method in robot-sensor system
JP6922204B2 (en) Controls, robots and robot systems
KR20080088165A (en) Robot calibration method
JP2007122705A (en) Welding teaching point correction system and calibration method
JP3442140B2 (en) Position measurement device and position deviation correction device using three-dimensional visual sensor
US7957834B2 (en) Method for calculating rotation center point and axis of rotation, method for generating program, method for moving manipulator and positioning device, and robotic system
CN114714029A (en) Automatic arc welding method and device for aluminium alloy
JPH09222913A (en) Teaching position correcting device for robot
JP6912529B2 (en) How to correct the visual guidance robot arm
JP2009279677A (en) Robot control apparatus which carries out position teaching of robot using measuring device
JP7384653B2 (en) Control device for robot equipment that controls the position of the robot
CN116194252A (en) Robot system