JPH09106311A - Automatic correction device for teaching data - Google Patents

Automatic correction device for teaching data

Info

Publication number
JPH09106311A
JPH09106311A JP26182195A JP26182195A JPH09106311A JP H09106311 A JPH09106311 A JP H09106311A JP 26182195 A JP26182195 A JP 26182195A JP 26182195 A JP26182195 A JP 26182195A JP H09106311 A JPH09106311 A JP H09106311A
Authority
JP
Japan
Prior art keywords
jig
posture
sensor
robot
teaching data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP26182195A
Other languages
Japanese (ja)
Inventor
Motoyuki Suzuki
基之 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP26182195A priority Critical patent/JPH09106311A/en
Publication of JPH09106311A publication Critical patent/JPH09106311A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To operate a robot without performing teaching again even in the case of moving a jig by recognizing the present posture of the jig based on the detection value of a sensor and converting teaching data to data suited to the present posture. SOLUTION: A measuring hole is opened in a vertical direction so as to automatically recognize the posture of the jib after moving on the jig and the sensor composed of upper part sensors 26A-26D, lower part sensors 27A-27D and a bottom part sensor 28 is inserted to the measuring hole. A robot posture recognition part 36 recognizes the present posture of the jig based on the detection value of the sensor. Then, a teaching data conversion part 34 obtains deviation with the posture of the jig before the moving from the present posture of the jig recognized by the robot posture recognition part 36, prepares coordinate transformation data for compensating the deviation and corrects the teaching data used at the time of the play-back of the robot based on the coordinate transformation data.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、たとえばロボット
の移設やそのロボットの周辺設備の移設を行なった場合
であっても、再教示作業を行なうことなくそのロボット
を稼働させることが可能な教示データの自動補正装置に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to teaching data capable of operating a robot without re-teaching work even when the robot is relocated or peripheral equipment of the robot is relocated. Of the automatic correction device.

【0002】[0002]

【従来の技術】従来から生産工場においては、製品の受
注状況の変動などに応じて生産ラインの規模を変更する
ことがあるが、この場合には、当然のことながらその生
産ラインに設置されているロボットや生産機械さらには
製品を搬送する治具(治具ポスト)などの移設が行なわ
れる。
2. Description of the Related Art Conventionally, in a production factory, the scale of a production line may be changed according to changes in the status of product orders, but in this case, it is natural that the production line is installed on the production line. Relocation of existing robots, production machines, and jigs (jig posts) that convey products.

【0003】[0003]

【発明が解決しようとする課題】この移設は、通常は例
えばロボットと治具との位置関係が移設前と同一の位置
関係となるように精度を意識して行なってはいるが、そ
の移設の精度はロボットに要求される精度に比較すれば
比較にならないほど低い。 このため、通常は移設後に
ロボットに再教示をしている。
Although this relocation is usually performed with consideration for accuracy so that the positional relationship between the robot and the jig is the same as that before the relocation, for example, the relocation is not performed. The accuracy is so low that it cannot be compared with the accuracy required for the robot. Therefore, the robot is usually re-instructed after the relocation.

【0004】この教示作業に要する時間は、移設された
ロボットの数やロボットの種類によって大きく異なる
が、一般的に教示作業を行なってその動作の確認が終了
するまでには少なくとも日単位の時間が必要となる。
Although the time required for this teaching work varies greatly depending on the number of relocated robots and the type of robot, it is generally at least a day unit until the teaching work is completed and the confirmation of its operation is completed. Will be needed.

【0005】本発明は、このような移設に伴う教示作業
を軽減するために成されたものであり、治具の移設を行
なった場合でも、ロボットを再教示することなく稼働さ
せることが可能な教示データの自動補正装置の提供を目
的とする。
The present invention has been made to reduce the teaching work involved in such relocation, and even when the jig is relocated, the robot can be operated without re-teaching. An object is to provide an automatic correction device for teaching data.

【0006】[0006]

【課題を解決するための手段】上記目的を達成するため
の本発明はつぎのように構成される。
The present invention for achieving the above object is configured as follows.

【0007】請求項1記載の発明は、姿勢認識用の計測
孔を有する治具と、当該治具の姿勢を検出すべく当該計
測孔に挿入されるセンサと、当該センサの検出値に基づ
いて前記治具の現姿勢を認識する姿勢認識手段と、当該
姿勢認識手段によって認識された治具の現姿勢から、前
記治具に保持されるワークに対して作業を行なうロボッ
トの教示データを、当該治具の現姿勢に適合したデータ
に変換する教示データ変換手段とを有することを特徴と
する。
The invention according to claim 1 is based on a jig having a measurement hole for posture recognition, a sensor inserted into the measurement hole to detect the posture of the jig, and a detection value of the sensor. The posture recognition means for recognizing the current posture of the jig, and the teaching data of the robot for performing work on the work held by the jig, based on the current posture of the jig recognized by the posture recognition means, Teaching data converting means for converting into data adapted to the current posture of the jig.

【0008】このように、治具の現在の姿勢を認識する
ことによって教示時の治具の姿勢とのズレが明らかにな
り、このズレ量の補正を教示データに加えることによっ
て治具の現姿勢に適合したデータとすることができる。
したがって、ロボットの新たな教示作業は必要なくな
る。
As described above, by recognizing the current posture of the jig, the deviation from the posture of the jig at the time of teaching is clarified, and the current posture of the jig is corrected by adding the correction of the deviation amount to the teaching data. The data can be adapted to.
Therefore, new teaching work for the robot is not necessary.

【0009】請求項2記載の発明は、傾き認識用の第1
の計測孔、または回転認識用の第2の計測孔の双方ある
いはいずれか一方を有する治具と、ロボットの作業端に
取り付けられ、当該ロボットによって当該第1又は第2
の計測孔のいずれかに挿入されるセンサと、当該センサ
の検出値に基づいて前記治具の現姿勢を認識する姿勢認
識手段と、移設前の治具に保持させたワークに対し前記
ロボットが行なう作業の教示データを記憶する教示デー
タ記憶手段と、前記姿勢認識手段によって認識された治
具の現姿勢と移設前の治具の姿勢とのずれから座標変換
データを作成する座標変換データ作成手段と、当該座標
変換データ作成手段によって作成された座標変換データ
により、前記教示データ記憶手段に記憶されている教示
データを補正する教示データ補正手段とを有することを
特徴とする。
According to a second aspect of the invention, the first aspect for tilt recognition is provided.
Of the first measuring instrument or the second measuring hole for rotation recognition and / or a jig having the second measuring hole for rotation recognition and the jig attached to the working end of the robot.
Sensor inserted into any of the measurement holes, the posture recognition means for recognizing the current posture of the jig based on the detection value of the sensor, and the robot for the work held in the jig before the transfer. Teaching data storage means for storing teaching data of work to be performed, and coordinate conversion data creating means for creating coordinate conversion data from the deviation between the current posture of the jig recognized by the posture recognizing means and the posture of the jig before relocation. And teaching data correction means for correcting the teaching data stored in the teaching data storage means by the coordinate transformation data created by the coordinate transformation data creating means.

【0010】治具に、鉛直方向に対する倒れ具合を認識
する第1の計測孔あるいは水平方向に対する回転ズレを
認識する第2の計測孔のいずれか一方あるいは双方を設
けると、センサによってこれらの計測孔から治具の鉛直
方向の倒れ具合あるいは水平方向の回転ズレを認識する
ことができる。このズレ量の補正を教示データに加える
ことによって治具の現姿勢に適合したデータとすること
ができる。したがって、ロボットの新たな教示作業は必
要なくなる。
If the jig is provided with either one or both of the first measuring hole for recognizing the degree of tilting in the vertical direction and the second measuring hole for recognizing the rotational deviation in the horizontal direction, these measuring holes are provided by the sensor. From this, it is possible to recognize the vertical inclination of the jig or the horizontal rotational deviation. By adding the correction of the deviation amount to the teaching data, it is possible to obtain the data which is adapted to the current posture of the jig. Therefore, new teaching work for the robot is not necessary.

【0011】請求項3記載の発明は、前記センサは、前
記ロボットの作業端に長尺の支持棒の一端を取り付け、
当該支持棒の作業端側及び先端側にそれぞれ当該支持棒
を軸中心として複数の径方向位置測定用近接センサを放
射状に取り付け、さらに、前記支持棒の先端部に深さ方
向位置測定用近接センサを取り付けられなることを特徴
とする。
According to a third aspect of the present invention, in the sensor, one end of a long supporting rod is attached to a working end of the robot,
A plurality of radial position measuring proximity sensors are radially attached to the working end side and the tip end side of the supporting rod around the supporting rod as an axial center, and further, a depth direction position measuring proximity sensor is attached to the tip end portion of the supporting rod. It is characterized by being attached.

【0012】このように構成すると、計測孔に挿入した
場合、複数の径方向位置測定用近接センサによって計測
孔の径方向の位置を決めることができ、また、深さ方向
位置測定用近接センサによってその深さ方向の位置を決
めることができる。したがって、これらの近接センサに
よって治具の姿勢が正確に把握できることになり、治具
の姿勢に適合する教示データの補正を行なうことができ
るようになる。
According to this structure, when it is inserted into the measurement hole, the radial position of the measurement hole can be determined by the plurality of radial position measurement proximity sensors, and by the depth direction position measurement proximity sensor. The position in the depth direction can be determined. Therefore, the posture of the jig can be accurately grasped by these proximity sensors, and the teaching data suitable for the posture of the jig can be corrected.

【0013】請求項4記載の発明は、前記姿勢認識手段
は、前記複数の径方向位置測定用近接センサ及び深さ方
向位置測定用近接センサからの信号に基づいて前記各セ
ンサの検出信号が所望の値となるように前記ロボットの
姿勢を調整する姿勢制御手段と、当該姿勢制御手段によ
って調整されたロボットの姿勢を認識するロボット姿勢
認識手段とを有することを特徴とする。
According to a fourth aspect of the present invention, the posture recognizing means desires detection signals of the respective sensors based on signals from the plurality of radial position measuring proximity sensors and the depth direction position measuring proximity sensors. And a robot attitude recognition means for recognizing the attitude of the robot adjusted by the attitude control means.

【0014】このようにすれば、この治具に保持される
ワークに対して作業するロボットを用いて、治具のズレ
具合を把握することができるので、教示データの補正を
容易に行なうことができるようになる。
With this configuration, the degree of deviation of the jig can be grasped by using the robot that works on the work held by the jig, so that the teaching data can be easily corrected. become able to.

【0015】請求項5記載の発明は、前記径方向位置測
定用近接センサは、前記支持棒を軸中心として約90゜
づつ位相をずらし、前記支持棒の作業端側及び先端側に
それぞれ4つづつ配置されていることを特徴とする。
According to a fifth aspect of the present invention, the proximity sensor for measuring the radial position is shifted in phase by about 90 ° about the support rod as an axial center, and four sensors are provided on the working end side and the tip end side of the support rod. It is characterized by being arranged one by one.

【0016】このように構成すれば、各近接センサから
計測孔の内周面までの距離がその計測孔の下側と上側の
2点について各4方向で認識することができるので、セ
ンサを計測孔の開口方向に沿って挿入することが可能と
なり、治具の姿勢を正確に認識することができるように
なる。
According to this structure, the distance from each proximity sensor to the inner peripheral surface of the measuring hole can be recognized in four directions for each of two points, the lower side and the upper side of the measuring hole. It becomes possible to insert the jig along the opening direction of the hole, and it becomes possible to accurately recognize the attitude of the jig.

【0017】請求項6記載の発明は、姿勢認識用のレー
ザー光出力手段を備えた治具と、当該治具の姿勢を検出
すべく当該レーザー光出力手段からの光を受光するセン
サと、当該センサの検出位置に基づいて前記治具の現姿
勢を認識する姿勢認識手段と、当該姿勢認識手段によっ
て認識された治具の現姿勢から、前記治具に保持される
ワークに対して作業を行なうロボットの教示データを、
当該治具の現姿勢に適合したデータに変換する教示デー
タ変換手段とを有することを特徴とする。
According to a sixth aspect of the present invention, there is provided a jig having a laser beam output means for posture recognition, a sensor for receiving light from the laser beam output means to detect the posture of the jig, and From the posture recognition means for recognizing the current posture of the jig based on the detection position of the sensor and the current posture of the jig recognized by the posture recognition means, work is performed on the work held by the jig. Robot teaching data,
Teaching data converting means for converting into data adapted to the current posture of the jig.

【0018】このように、治具の現在の姿勢を認識する
ことによって教示時の治具の姿勢とのズレが明らかにな
り、このズレ量の補正を教示データに加えることによっ
て治具の現姿勢に適合したデータとすることができる。
したがって、ロボットの新たな教示作業は必要なくな
る。
Thus, by recognizing the current posture of the jig, the deviation from the posture of the jig at the time of teaching is clarified, and the current posture of the jig is corrected by adding the correction of the deviation amount to the teaching data. The data can be adapted to.
Therefore, new teaching work for the robot is not necessary.

【0019】請求項7記載の発明は、傾き認識用の第1
のレーザー光、または回転認識用の第2のレーザー光の
双方あるいはいずれか一方を出力するレーザー光出力手
段を備えた治具と、ロボットの作業端に取り付けられ、
当該ロボットの姿勢を変更させることによって、前記第
1のレーザー光または前記第2のレーザー光を受光する
センサと、当該センサの検出値に基づいて前記治具の現
姿勢を認識する姿勢認識手段と、移設前の治具に保持さ
せたワークに対し前記ロボットが行なう作業の教示デー
タを記憶する教示データ記憶手段と、前記姿勢認識手段
によって認識された治具の現姿勢と移設前の治具の姿勢
とのずれから座標変換データを作成する座標変換データ
作成手段と、当該座標変換データ作成手段によって作成
された座標変換データにより、前記教示データ記憶手段
に記憶されている教示データを補正する教示データ補正
手段とを有する。
According to a seventh aspect of the invention, the first aspect for tilt recognition is provided.
Attached to the working end of the robot and a jig equipped with laser light output means for outputting both or either one of the laser light or the second laser light for rotation recognition,
A sensor that receives the first laser beam or the second laser beam by changing the posture of the robot, and a posture recognition unit that recognizes the current posture of the jig based on the detection value of the sensor. , Teaching data storage means for storing teaching data of work performed by the robot on the work held in the jig before relocation, and the current posture of the jig recognized by the posture recognition means and the jig before relocation. Coordinate conversion data creating means for creating coordinate conversion data from the deviation from the posture, and teaching data for correcting the teaching data stored in the teaching data storage means by the coordinate conversion data created by the coordinate conversion data creating means. And a correction means.

【0020】治具に、傾き認識用の第1のレーザー光、
または回転認識用の第2のレーザー光の双方あるいはい
ずれか一方を出力するレーザー光出力手段を設けると、
センサによって治具の鉛直方向の倒れ具合あるいは水平
方向の回転ズレを認識することができる。このズレ量の
補正を教示データに加えることによって治具の現姿勢に
適合したデータとすることができる。したがって、ロボ
ットの新たな教示作業は必要なくなる。
The jig is provided with a first laser beam for tilt recognition,
Alternatively, if a laser light output means for outputting both or either of the second laser light for rotation recognition is provided,
It is possible to recognize the vertical inclination of the jig or the horizontal rotation deviation by the sensor. By adding the correction of the deviation amount to the teaching data, it is possible to obtain the data which is adapted to the current posture of the jig. Therefore, new teaching work for the robot is not necessary.

【0021】請求項8記載の発明は、前記レーザー光出
力手段は、1つの発光手段と、当該発光手段からのレー
ザー光を第1のレーザー光および第2のレーザー光に分
離するビームスプリッタとから構成されることを特徴と
する。
According to an eighth aspect of the invention, the laser light output means comprises one light emitting means and a beam splitter for separating the laser light from the light emitting means into a first laser light and a second laser light. It is characterized by being configured.

【0022】ビームスプリッタを設けると、1つの発光
手段を設けるだけで、2つのレーザー光が得られること
になる。
When the beam splitter is provided, two laser beams can be obtained by providing only one light emitting means.

【0023】請求項9記載の発明は、前記姿勢認識手段
は、前記第1のレーザー光または第2のレーザー光の双
方あるいはいずれか一方を、前記センサのどの位置で受
光したかによって、前記治具の現姿勢を認識することを
特徴とするこのようにすれば、この治具に保持されるワ
ークに対して作業するロボットを用いて、治具のズレ具
合を把握することができるので、教示データの補正を容
易に行なうことができるようになる。
According to a ninth aspect of the present invention, the posture recognizing means determines the cure depending on which position of the sensor receives the first laser beam and / or the second laser beam. This is characterized by recognizing the current posture of the tool. By doing so, it is possible to grasp the deviation of the jig by using the robot that operates on the work held by this jig. The data can be easily corrected.

【0024】請求項10記載の発明は、前記姿勢認識用
のレーザー光出力手段は、前記治具に着脱自在に構成さ
れていることを特徴とする。
The invention according to a tenth aspect is characterized in that the laser beam output means for posture recognition is detachably attached to the jig.

【0025】したがって、任意の治具にこのレーザー光
出力手段を取り付けることができ、専用の治具を設ける
必要がなくなる。
Therefore, this laser light output means can be attached to any jig, and it is not necessary to provide a dedicated jig.

【0026】[0026]

【発明の実施の形態】以下、本発明の一実施の形態を図
面に基づいて説明する。図1は、本発明にかかる教示デ
ータの自動補正装置を備えたロボットの外観図である。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is an external view of a robot equipped with an automatic correction device for teaching data according to the present invention.

【0027】ロボット10は、治具12に保持されたワ
ークに対して所望の作業が行なえるように教示されてい
る。このロボット10のプレイバック時の動作は、姿勢
認識手段および教示データ変換手段としても機能するロ
ボットコントローラ20によって制御される。
The robot 10 is taught so that desired work can be performed on the work held by the jig 12. The operation of the robot 10 during playback is controlled by the robot controller 20, which also functions as posture recognition means and teaching data conversion means.

【0028】ロボット10の作業端には、移設後の治具
12の姿勢を認識するセンサ15が取り付けられてい
る。尚、このセンサ15は、治具12が移設された直
後、ロボット10に治具12のずれに伴う補正データを
作成する場合にのみ取り付けられ、通常の作業時には、
作業用のハンドが取り付けられる。ただし、ロボット1
0のハンドがセンサ15を把持できるようなものであれ
ば、作業時に用いるこのハンドを使用するようにしても
よい。
A sensor 15 for recognizing the posture of the jig 12 after the relocation is attached to the working end of the robot 10. The sensor 15 is attached only when the correction data associated with the displacement of the jig 12 is created in the robot 10 immediately after the jig 12 is moved.
A work hand is attached. However, robot 1
If the 0 hand can grasp the sensor 15, this hand used during work may be used.

【0029】治具12には、移設後の治具12の姿勢が
自動的に認識できるように、鉛直方向に姿勢認識用の計
測孔17が開口されている。センサ15は、ロボット1
0によってこの計測孔17に挿入され、治具の設置姿勢
が認識される。
The jig 12 is provided with a measurement hole 17 for posture recognition in the vertical direction so that the posture of the jig 12 after being moved can be automatically recognized. The sensor 15 is the robot 1.
0 is inserted into this measurement hole 17, and the installation posture of the jig is recognized.

【0030】治具12にセンサ15が挿入されている状
態を図2に示す。
FIG. 2 shows a state in which the sensor 15 is inserted in the jig 12.

【0031】ロボット10の作業端10Aには、センサ
15を構成する長尺の支持棒25が取り付けられ、この
支持棒25の作業端側に図3(A)のように、この支持
棒25の軸を中心に同一平面上で90゜づつ位相をずら
して4つの近接センサ26A〜26Dが取り付けられて
いる。また、この支持棒25の先端側にも図3(B)の
ように近接センサ27A〜27Dが取り付けられてい
る。さらに、この支持棒25の先端部分には、センサ1
5の挿入深さを検出するための近接センサ28が取り付
けられている。
A long support rod 25 constituting a sensor 15 is attached to the working end 10A of the robot 10, and the working end of the supporting rod 25 is attached to the working end 10A as shown in FIG. 3 (A). Four proximity sensors 26A to 26D are mounted on the same plane with their phases shifted by 90 ° about the axis. Further, proximity sensors 27A to 27D are attached to the tip end side of the support rod 25 as shown in FIG. Further, at the tip of this support rod 25, the sensor 1
A proximity sensor 28 for detecting the insertion depth of No. 5 is attached.

【0032】ロボット10は、このセンサ15が計測孔
17の中心に位置されるように自分自身の姿勢を調整す
る。この動作によって治具12の姿勢が間接的に認識で
きる。この認識された姿勢を、治具12が移設される前
に同様の計測動作で認識されている姿勢と比較すると、
治具の12移設前後の姿勢のずれ量が認識できる。この
ずれ量を教示データに加える補正を行なうと、治具12
を移設した後に教示作業をする必要がなくなる。
The robot 10 adjusts its own posture so that the sensor 15 is located at the center of the measuring hole 17. By this operation, the posture of the jig 12 can be indirectly recognized. When this recognized posture is compared with the posture recognized by the same measurement operation before the jig 12 is moved,
It is possible to recognize the deviation amount of the posture before and after the jig is moved to 12. When correction is performed by adding this deviation amount to the teaching data, the jig 12
There is no need to perform teaching work after relocating.

【0033】なお、図2においては、作業端10Aが回
転するように構成してあるが、本実施の形態のように同
一平面上に複数の近接センサを配置させる場合には、計
測孔17の中心に位置させることが可能であるから、固
定のままでも十分である。
Although the working end 10A is configured to rotate in FIG. 2, in the case of disposing a plurality of proximity sensors on the same plane as in the present embodiment, the measurement hole 17 is not formed. Since it is possible to place it in the center, it is sufficient to leave it fixed.

【0034】また、図1のように計測孔17を鉛直方向
に開口した治具では、移設前と比較した移設後の治具1
2の姿勢の傾き具合は認識することができるが、この治
具が回転したような場合には、この回転量を認識するこ
とはできない。このため、この回転がワークへの作業に
悪影響を与えるような治具の場合には、図4に示すよう
に、この回転量をも認識できる第2の計測孔18が開口
された治具12を用いる。
Further, in the jig having the measurement hole 17 opened in the vertical direction as shown in FIG. 1, the jig 1 after the transfer is compared with that before the transfer.
Although it is possible to recognize the degree of inclination of the posture of No. 2, it is not possible to recognize the amount of rotation when the jig rotates. Therefore, in the case of a jig in which this rotation adversely affects the work on the work, as shown in FIG. 4, the jig 12 having the second measurement hole 18 capable of recognizing this rotation amount is also opened. To use.

【0035】図5は、図1に示したセンサ15、ロボッ
ト10およびロボットコントローラ20の制御系の概略
構成を示すブロック図である。
FIG. 5 is a block diagram showing a schematic configuration of a control system of the sensor 15, the robot 10 and the robot controller 20 shown in FIG.

【0036】上部センサ26A,26C、上部センサ2
6B,26D、下部センサ27A,27C、下部センサ
27B,27D及び底部センサ28は、ロボットコント
ローラ20内に設けられているセンサ出力値認識部30
に接続され、これらのセンサからの信号はこの認識部3
0に入力される。
Upper sensors 26A, 26C, upper sensor 2
6B, 26D, lower sensors 27A, 27C, lower sensors 27B, 27D, and bottom sensor 28 are sensor output value recognition units 30 provided in the robot controller 20.
The signals from these sensors are connected to this recognition unit 3.
Input to 0.

【0037】教示データ記憶部32は、教示データ記憶
手段として機能するものであって、ここには、移設前の
治具に保持させたワークに対してロボット10が行なう
作業に関する教示データと、計測作業を行なう際のロボ
ット10のセンサ15の挿入動作に関する教示データと
が記憶されている。
The teaching data storage unit 32 functions as teaching data storage means. Here, teaching data relating to the work performed by the robot 10 on the work held by the jig before the relocation, and the measurement data are measured. The teaching data regarding the insertion operation of the sensor 15 of the robot 10 when performing the work is stored.

【0038】各軸モータ40は、ロボット10を構成す
る各アームを駆動するモータであり、これらのモータ
は、動作制御部38によって制御される。
The axis motors 40 are motors for driving the respective arms of the robot 10, and these motors are controlled by the operation controller 38.

【0039】ロボット姿勢認識部36は、姿勢認識手段
あるいはロボット姿勢認識手段として機能するものであ
って、各軸モータ40が有しているエンコーダからの信
号に基づいてロボット10の姿勢を認識する部分であ
り、本発明において重要な役割を果たす部分である。
The robot posture recognizing section 36 functions as posture recognizing means or robot posture recognizing means, and recognizes the posture of the robot 10 based on signals from encoders of the respective axis motors 40. And is a part that plays an important role in the present invention.

【0040】教示データ変換部34は、座標変換データ
作成手段および教示データ補正手段として機能するもの
であって、ロボット姿勢認識部36によって間接的に認
識した治具12の現姿勢から移設前の治具12の姿勢と
のずれを求め、このずれを補償する座標変換データを作
成すると共に、この座標変換データを元に、ロボット1
0のプレイバック時に用いる教示データを補正するもの
である。
The teaching data converting unit 34 functions as a coordinate conversion data creating unit and a teaching data correcting unit, and the robot posture recognizing unit 36 indirectly recognizes the current posture of the jig 12 before the transfer. A deviation from the posture of the tool 12 is obtained, coordinate conversion data for compensating the deviation is created, and the robot 1 is based on the coordinate conversion data.
This is to correct the teaching data used during playback of 0.

【0041】動作制御部38は、姿勢認識手段あるいは
姿勢制御手段として機能するものであって、移設後の治
具にセンサ15を挿入する計測作業の教示データを教示
データ記憶部32から取り出して計測作業を行ない、セ
ンサ出力値認識部30からの各センサの検出値に基づい
てセンサ15が計測孔17,18の中央部分に位置する
ようにロボット10の姿勢を微妙に制御するものであ
る。もちろん、プレイバック時には、教示データ変換部
34によって変換された教示データに基づいてロボット
10の動作を制御する。
The operation control unit 38 functions as a posture recognition unit or a posture control unit, and extracts teaching data of the measurement work for inserting the sensor 15 into the jig after the relocation from the teaching data storage unit 32 for measurement. Work is performed, and the posture of the robot 10 is delicately controlled so that the sensor 15 is located in the central portion of the measurement holes 17 and 18 based on the detection value of each sensor from the sensor output value recognition unit 30. Of course, at the time of playback, the operation of the robot 10 is controlled based on the teaching data converted by the teaching data converter 34.

【0042】次に、本発明の自動補正装置の動作を図6
および図7のフローチャートを用いて詳細に説明する。
Next, the operation of the automatic correction device of the present invention will be described with reference to FIG.
And it demonstrates in detail using the flowchart of FIG.

【0043】まず、動作制御部38は、教示データ記憶
部32に記憶されている計測作業に関する教示データに
基づいて計測孔17にセンサ15を挿入する(S1)。
動作制御部38では、センサ出力値認識部30を介して
入力される底部センサ28の信号に基づいて、センサ1
5が計測孔17の所定の深さに挿入されるように各軸モ
ータ40を制御する。本実施の形態では、底部センサ2
8に近接センサを用いているので、このセンサの出力が
オンするまで挿入することになる。底部センサ28に距
離センサが用いられた場合には、予め教示された深さと
なるようにその挿入が制御されることになる(S2〜S
5)。
First, the operation control section 38 inserts the sensor 15 into the measurement hole 17 based on the teaching data regarding the measurement work stored in the teaching data storage section 32 (S1).
In the operation control unit 38, based on the signal of the bottom sensor 28 input via the sensor output value recognition unit 30, the sensor 1
Each axis motor 40 is controlled so that 5 is inserted into the measurement hole 17 at a predetermined depth. In the present embodiment, the bottom sensor 2
Since the proximity sensor is used for 8, the sensor is inserted until the output of this sensor is turned on. When a distance sensor is used as the bottom sensor 28, its insertion is controlled so as to have a depth taught in advance (S2 to S).
5).

【0044】センサ15が所望の深さまで挿入される
と、この深さを維持しつつ、動作制御部38は、センサ
出力値認識部30を介して入力される下部センサ27
A,27Cの信号に基づいて、これら両センサの出力値
が同じくなるように、センサ15の位置を調整する(S
6〜S9)。センサ15の挿入深さおよび下部センサ2
7A,27Cの位置(計測孔17の内側面からの距離)
を維持しつつ、動作制御部38は、センサ出力値認識部
30を介して入力される下部センサ27B,27Dの信
号に基づいて、これら両センサの出力値が同じくなるよ
うに、センサ15の位置を調整する(S10〜S1
3)。
When the sensor 15 is inserted to a desired depth, the operation control unit 38 maintains the depth and the lower sensor 27 which is input through the sensor output value recognition unit 30.
Based on the signals of A and 27C, the position of the sensor 15 is adjusted so that the output values of these two sensors are the same (S
6 to S9). Sensor 15 insertion depth and lower sensor 2
Positions of 7A and 27C (distance from inner surface of measurement hole 17)
Based on the signals of the lower sensors 27B and 27D input via the sensor output value recognition unit 30, the operation control unit 38 maintains the position of the sensor 15 so that the output values of these sensors are the same. Is adjusted (S10 to S1
3).

【0045】以上の操作で、センサを所望の深さに挿入
しつつ、下部センサ27A〜27Dを計測孔17の中心
に位置させることができたわけである。なお、下部セン
サ27A〜27Dを計測孔17の中心に位置させる移動
は、センサ15を平行移動させるだけで、その挿入角度
を変えるようなことはしない。
By the above operation, the lower sensors 27A to 27D can be positioned at the center of the measuring hole 17 while inserting the sensor to a desired depth. The lower sensors 27A to 27D are moved to the center of the measurement hole 17 only by moving the sensor 15 in parallel and not changing the insertion angle.

【0046】さらに、センサ15の挿入深さおよび下部
センサ27A〜27D(計測孔17の内側面からの距
離)の位置を維持しつつ、動作制御部38は、センサ出
力値認識部30を介して入力される上部センサ26A,
26Cの信号に基づいて、これら両センサの出力値が同
じくなるように、センサ15の位置を調整する(S14
〜S17)。同様に、センサ15の挿入深さおよび下部
センサ27A〜27D(計測孔17の内側面からの距
離)の位置を維持しつつ、動作制御部38は、センサ出
力値認識部30を介して入力される上部センサ26B,
26Dの信号に基づいて、これら両センサの出力値が同
じくなるように、センサ15の位置を調整する(S18
〜S21)。
Further, while maintaining the insertion depth of the sensor 15 and the positions of the lower sensors 27A to 27D (distance from the inner surface of the measuring hole 17), the operation control section 38 causes the sensor output value recognizing section 30. Upper sensor 26A to be input,
The position of the sensor 15 is adjusted based on the signal of 26C so that the output values of these two sensors are the same (S14).
To S17). Similarly, the operation control unit 38 is input via the sensor output value recognition unit 30 while maintaining the insertion depth of the sensor 15 and the positions of the lower sensors 27A to 27D (distance from the inner surface of the measurement hole 17). Upper sensor 26B,
Based on the signal of 26D, the position of the sensor 15 is adjusted so that the output values of these two sensors are the same (S18).
~ S21).

【0047】以上の操作で、計測孔17の中心位置にセ
ンサ15を位置させることができる。
By the above operation, the sensor 15 can be positioned at the center position of the measuring hole 17.

【0048】つぎに、動作制御部38は、センサ15を
計測孔18に挿入する操作を行なう。このときには、治
具12のズレを勘案しないと計測孔18ヘの挿入がスム
ースに行なわれない恐れがあるので、教示データ記憶部
32に記憶されている計測孔17と計測孔18との相対
位値関係を示すデータに基づいて計測孔18の位置を捜
し、センサ15を挿入する(S22)。
Next, the operation control section 38 performs an operation of inserting the sensor 15 into the measurement hole 18. At this time, the jig 12 may not be smoothly inserted into the measurement hole 18 unless the deviation of the jig 12 is taken into consideration. Therefore, the relative position between the measurement hole 17 and the measurement hole 18 stored in the teaching data storage unit 32 may be prevented. The position of the measurement hole 18 is searched based on the data indicating the value relationship, and the sensor 15 is inserted (S22).

【0049】センサ15の挿入深さおよび下部センサ2
7A〜27D(計測孔17の内側面からの距離)の位置
を維持しつつ、動作制御部38は、センサ出力値認識部
30を介して入力される上部センサ26B,26Dの信
号に基づいて、これら両センサの出力値が同じくなるよ
うに、センサ15の位置を調整する(S23〜S2
6)。ロボット姿勢認識部36は各軸モータ40のエン
コーダなどからの信号に基づいてロボットの姿勢を認識
し、動作制御部38は認識した姿勢と教示時における姿
勢とから治具のずれ量を算出し、教示データ変換部34
で座標変換データの元データとされる(S27)。
Depth of insertion of sensor 15 and lower sensor 2
While maintaining the positions of 7A to 27D (distance from the inner surface of the measurement hole 17), the operation control unit 38, based on the signals of the upper sensors 26B, 26D input via the sensor output value recognition unit 30, The position of the sensor 15 is adjusted so that the output values of these two sensors are the same (S23 to S2).
6). The robot posture recognition unit 36 recognizes the posture of the robot based on a signal from the encoder of each axis motor 40, and the operation control unit 38 calculates the amount of deviation of the jig from the recognized posture and the posture at the time of teaching, Teaching data conversion unit 34
Is used as the original data of the coordinate conversion data (S27).

【0050】以上の処理により、それぞれの計測孔1
7,18について、ロボット姿勢認識部36によって認
識されたロボット10の手先位置と手先方向をそれぞれ
H′,D′とし、移設前の治具の教示時点で同様にして
計測し、教示データ記憶部32に記憶されているロボッ
ト10の手先位置と手先方向をそれぞれH,Dとする
と、H,DをH′,D′に一致させるには、座標変換を
行なえばよい。この座標変換は教示データ変換部34に
よって行われる。
By the above processing, each measurement hole 1
7 and 18, the hand position and the hand direction of the robot 10 recognized by the robot posture recognition unit 36 are set to H'and D ', respectively, and similarly measured at the time of teaching the jig before relocation, and the teaching data storage unit If the hand position and hand direction of the robot 10 stored in 32 are H and D, respectively, coordinate conversion may be performed to make H and D coincide with H ′ and D ′. This coordinate conversion is performed by the teaching data conversion unit 34.

【0051】座標変換をXとし、移設前の治具での教示
データをTaとし、移設後の治具で作業を行なう際に用
いられるべきデータをTsとすると、Ts=XTaで表
すことができる。教示データ変換部34では、この演算
をプレイバック時に行ない、動作制御部38にこのデー
タを出力することになる。
If coordinate transformation is X, teaching data in the jig before relocation is Ta, and data to be used when performing work in the jig after relocation is Ts, then Ts = XTa. . The teaching data conversion unit 34 performs this calculation during playback and outputs this data to the operation control unit 38.

【0052】したがって、生産ラインの移設などに伴
い、治具の移設やロボットの移設が行なわれた場合、さ
らには経時的な精度の誤差の発生が懸念されるような場
合でも、上記のように、治具とロボットとの相対位値誤
差を認識するだけで、移設前に教示した教示データを用
いることができ、移設などの度に教示作業を行なう必要
がなくなる。
Therefore, even if jigs or robots are relocated along with the relocation of the production line, or even if there is a concern that an error in accuracy over time may occur, the above-mentioned procedure is performed. The teaching data taught before the relocation can be used only by recognizing the relative position error between the jig and the robot, and it is not necessary to perform the teaching work each time the relocation or the like.

【0053】次に、本発明の他の実施の形態を図面に基
づいて説明する。第1の実施の形態では、治具に開口し
た計測孔を基に治具とロボットとの相対位置の補正がで
きるようにしたが、この実施の形態では、治具に取り付
けた投光器から発するレーザ光を基に治具とロボットと
の相対位置の補正ができるようにしている。
Next, another embodiment of the present invention will be described with reference to the drawings. In the first embodiment, the relative position between the jig and the robot can be corrected based on the measurement hole opened in the jig, but in this embodiment, the laser emitted from the projector attached to the jig is corrected. The relative position between the jig and the robot can be corrected based on the light.

【0054】図8は、本発明にかかる教示データの自動
補正装置を備えたロボットの外観図である。
FIG. 8 is an external view of a robot equipped with a teaching data automatic correction device according to the present invention.

【0055】ロボット10は、治具12に保持されたワ
ークに対して所望の作業が行なえるように教示されてい
る。このロボット10のプレイバック時の動作は、姿勢
認識手段および教示データ変換手段としても機能するロ
ボットコントローラ20によって制御される。
The robot 10 is taught so that desired work can be performed on the work held by the jig 12. The operation of the robot 10 during playback is controlled by the robot controller 20, which also functions as posture recognition means and teaching data conversion means.

【0056】治具12には、移設後の治具12の姿勢が
自動的に認識できるように、鉛直方向と水平方向の2方
向にレーザー光を照射することができるレーザー光出力
手段としてのレーザー光照射装置50が取り付けられて
いる。このレーザー光照射装置50は、図9に示すよう
に治具12の一部に形成された保持部52にしっかりと
取り付けられる。保持部52には、図9の右側の図に示
すように、一部に回り止めのキー溝53が形成され、レ
ーザー光照射装置50が堅固に係合される。
The jig 12 is a laser light output means capable of irradiating laser light in two directions, a vertical direction and a horizontal direction, so that the posture of the jig 12 after relocation can be automatically recognized. The light irradiation device 50 is attached. This laser light irradiation device 50 is firmly attached to a holding portion 52 formed in a part of the jig 12 as shown in FIG. As shown in the drawing on the right side of FIG. 9, a key groove 53 for preventing rotation is partially formed in the holding portion 52, and the laser light irradiation device 50 is firmly engaged with the holding portion 52.

【0057】なお、図では保持部52としての孔を1箇
所だけ設けているが、安定した装着ができるようにする
ためにはこの孔を2箇所に設けることが望ましい。ま
た、ロボット10が非常に高精度の作業を行なうような
場合には、レーザー光照射装置50を保持部52に着脱
自在に取り付ける形態ではなく、レーザー光照射装置5
0を治具12に埋め込んだもののほうがよい。
Although only one hole is provided as the holding portion 52 in the figure, it is desirable to provide this hole at two positions in order to ensure stable mounting. Further, when the robot 10 performs a work with extremely high accuracy, the laser light irradiation device 50 is not detachably attached to the holding portion 52 but the laser light irradiation device 5 is used.
It is better that 0 is embedded in the jig 12.

【0058】レーザー光照射装置50は、図9に示すよ
うに、内部にレーザーダイオードなどのレーザー光源5
4が設けられ、このレーザー光源54からのレーザー光
は、ビームスプリッター55によって、鉛直方向に照射
される傾き検出用の第1のレーザー光56と、水平方向
に照射される回転認識用の第2のレーザー光57とに分
離される。
As shown in FIG. 9, the laser light irradiation device 50 has a laser light source 5 such as a laser diode inside.
The laser light from the laser light source 54 is provided by the beam splitter 55 with a first laser light 56 for tilt detection, which is vertically irradiated, and a second laser light, which is horizontally irradiated, for rotation recognition. Laser beam 57 of

【0059】ロボット10の作業端には、レーザー光照
射装置50からの第1および第2のレーザー光56,5
7を受光する受光センサ60が設けられ、この受光セン
サ60による検出信号は、センサ信号処理装置62で処
理され、受光センサ60の受光位置に関する情報となっ
てロボットコントローラ20に出力される。なお、この
受光センサ60は、ある程度の領域でレーザー光の検出
をすることができる2次元センサであって、2次元CC
Dセンサ、MOSセンサ、PSDセンサ等を用いる。
At the working end of the robot 10, the first and second laser beams 56, 5 from the laser beam irradiation device 50 are provided.
A light receiving sensor 60 for receiving 7 is provided, and a detection signal from the light receiving sensor 60 is processed by the sensor signal processing device 62, and is output to the robot controller 20 as information regarding the light receiving position of the light receiving sensor 60. The light receiving sensor 60 is a two-dimensional sensor that can detect laser light in a certain area, and is a two-dimensional CC.
A D sensor, a MOS sensor, a PSD sensor or the like is used.

【0060】ロボットコントローラ20では、移設前の
治具で同様のことを行なった時の受光位置と移設後の治
具の受光位置との違いから移設後の治具の設置姿勢を認
識し、座標変換データを作成する。
The robot controller 20 recognizes the installation posture of the jig after the transfer from the difference between the light receiving position when the same operation is performed with the jig before the transfer and the light receiving position of the jig after the transfer, and the coordinates are recognized. Create conversion data.

【0061】図10に、受光センサ60の具体的な取り
付け位置を示す。受光センサ60は、図示されているよ
うに、ロボット10の作業端10Aに取り付けられてい
る。したがって、計測処理を行なう場合には、このセン
サ60が第1のレーザー光56あるいは第2のレーザー
光57の光路に位置されることになる。この場合のロボ
ット10の動作の制御は、予め教示されているデータに
基づいてロボットコントローラ20によって行なわれ
る。
FIG. 10 shows a specific mounting position of the light receiving sensor 60. The light receiving sensor 60 is attached to the working end 10A of the robot 10 as illustrated. Therefore, when performing the measurement process, the sensor 60 is positioned on the optical path of the first laser light 56 or the second laser light 57. The control of the operation of the robot 10 in this case is performed by the robot controller 20 based on previously taught data.

【0062】図11は、図8に示した受光センサ60、
ロボット10およびロボットコントローラ20の制御系
の概略構成を示すブロック図である。
FIG. 11 shows the light receiving sensor 60 shown in FIG.
3 is a block diagram showing a schematic configuration of a control system of the robot 10 and a robot controller 20. FIG.

【0063】受光センサ60は、図10に示してあるよ
うにロボット10の作業端10Aに取り付けられ、治具
12に取り付けられているレーザー光照射装置50から
の第1および第2のレーザー光56,57を受光するも
のである。この受光センサ60からの信号は受光点認識
部63に出力される。
The light receiving sensor 60 is attached to the working end 10A of the robot 10 as shown in FIG. 10, and the first and second laser beams 56 from the laser beam irradiation device 50 attached to the jig 12. , 57 are received. The signal from the light receiving sensor 60 is output to the light receiving point recognition unit 63.

【0064】受光点認識部63は、受光センサ60のど
の位置でレーザー光が受光されたのかを認識するもの
で、この受光位置は治具12の現姿勢を計算するための
基データとなるものである。
The light receiving point recognition unit 63 recognizes at which position of the light receiving sensor 60 the laser light is received, and this light receiving position serves as basic data for calculating the current posture of the jig 12. Is.

【0065】教示データ記憶部32は、教示データ記憶
手段として機能するものであって、ここには、移設前の
治具に保持させたワークに対してロボット10が行なう
作業に関する教示データと、計測作業を行なう際の受光
センサ60の設定位置に関する教示データとが記憶され
ている。
The teaching data storage unit 32 functions as teaching data storage means. Here, teaching data relating to the work performed by the robot 10 on the work held on the jig before the relocation, and the measurement data are measured. Teaching data relating to the set position of the light receiving sensor 60 when performing work is stored.

【0066】各軸モータ40は、ロボット10を構成す
る各アームを駆動するモータであり、これらのモータ
は、動作制御部38によって制御される。
The axis motors 40 are motors that drive the respective arms of the robot 10, and these motors are controlled by the operation control section 38.

【0067】動作制御部38は、教示データ記憶部32
に記憶されている計測作業に関する教示データを取り出
して、移設後の治具12に取り付けられたレーザー光照
射装置50からのレーザー光の光路に受光センサ60が
位置されるようにロボット10の各アームを動作させる
ものである。
The operation control unit 38 includes the teaching data storage unit 32.
Each arm of the robot 10 is arranged such that the teaching data relating to the measurement work stored in is taken out and the light receiving sensor 60 is positioned in the optical path of the laser light from the laser light irradiation device 50 attached to the jig 12 after the relocation. To operate.

【0068】変換マトリクス算出部64は、座標変換デ
ータ作成手段として機能するものであって、治具の移設
前に計測したレーザー光の受光位置と治具の移設後に計
測したレーザー光の受光位置の相違に基づいて、移設前
の治具を用いて教示を行なった際の教示データを移設後
の治具でも使うことができるように、その変換マトリッ
クスを算出するものである。
The conversion matrix calculating unit 64 functions as a coordinate conversion data creating means, and detects a laser beam receiving position measured before the jig is moved and a laser beam receiving position measured after the jig is moved. Based on the difference, the conversion matrix is calculated so that the teaching data when teaching is performed using the jig before the transfer can be used in the jig after the transfer.

【0069】教示データ変換手段34は、教示データ補
正手段として機能するものであって、変換マトリックス
算出部64によって算出された変換マトリックスによっ
て教示データを補正するものである。
The teaching data converting means 34 functions as teaching data correcting means, and corrects the teaching data by the conversion matrix calculated by the conversion matrix calculating section 64.

【0070】次に、本発明の実施の形態における自動補
正装置の動作を図12のフローチャートを用いて詳細に
説明する。
Next, the operation of the automatic correction device according to the embodiment of the present invention will be described in detail with reference to the flowchart of FIG.

【0071】このフローチャートの処理が行なわれる前
提として、移設前の治具で、これから説明することと同
様のことが行なわれており、この治具の姿勢が教示デー
タ記憶部32に記憶されているものとする。そして、ロ
ボット10のプレイバック時に必要な軌跡に関するデー
タは、この治具を用いて行なわれているものとする。
As a premise for performing the processing of this flowchart, the same operation as that described below is performed for the jig before the relocation, and the attitude of this jig is stored in the teaching data storage unit 32. I shall. Then, it is assumed that the data relating to the trajectory required when the robot 10 is played back is performed using this jig.

【0072】また、この計測作業を行なう場合には、治
具12の保持部52に、レーザー光照射装置50を取り
付ける。これでレーザー光照射装置50は治具12との
位置関係が一意となって固定される。レーザー光照射装
置50からは鉛直方向に第1のレーザー光56が、ま
た、この第1のレーザー光56と水平方向に直交する第
2のレーザー光57が出力される。
When performing this measurement work, the laser light irradiation device 50 is attached to the holding portion 52 of the jig 12. With this, the laser light irradiation device 50 is fixed because the positional relationship with the jig 12 is unique. The laser light irradiation device 50 outputs a first laser light 56 in the vertical direction and a second laser light 57 orthogonal to the first laser light 56 in the horizontal direction.

【0073】まず、計測作業を行なうモードの設定が行
なわれると、動作制御部38は教示データ記憶部32に
記憶されているデータを取り出し、ロボット10の作業
端10Aを教示された位置S1に設定する。この位置S
1は移設前の治具で同様のことをした場合に、第1のレ
ーザー光56が受光センサ60の中心に当たるように教
示された点である(S50)。
First, when the mode for performing the measurement work is set, the operation control unit 38 takes out the data stored in the teaching data storage unit 32 and sets the working end 10A of the robot 10 at the taught position S1. To do. This position S
1 is a point where the first laser beam 56 is taught to hit the center of the light receiving sensor 60 when the same operation is performed with the jig before the relocation (S50).

【0074】受光点認識部63は、受光センサ60の第
1のレーザー光56の受光点S1′を認識し、この位置
を記憶する(S51)。
The light receiving point recognition section 63 recognizes the light receiving point S1 'of the first laser beam 56 of the light receiving sensor 60 and stores this position (S51).

【0075】つぎに、動作制御部38は教示データ記憶
部32に記憶されているデータを取り出し、ロボット1
0の作業端10Aを、前回のS1とは異なる位置として
教示された位置S2に設定する。この位置S1は移設前
の治具で同様のことをした場合に、第1のレーザー光5
6が受光センサ60の中心に当たるように教示された点
である(S52)。
Next, the operation control section 38 takes out the data stored in the teaching data storage section 32, and the robot 1
The work end 10A of 0 is set to the position S2 taught as a position different from the position of S1 of the previous time. This position S1 is the same as that of the first laser beam 5 when the same jig is used before the relocation.
6 is a point taught to hit the center of the light receiving sensor 60 (S52).

【0076】受光点認識部63は、受光センサ60の第
1のレーザー光56の受光点S2′を認識し、この位置
を記憶する(S53)。
The light receiving point recognition section 63 recognizes the light receiving point S2 'of the first laser beam 56 of the light receiving sensor 60 and stores this position (S53).

【0077】さらに、動作制御部38は教示データ記憶
部32に記憶されているデータを取り出し、ロボット1
0の作業端10Aを教示された位置S3に設定する。こ
の位置S3は移設前の治具で同様のことをした場合に、
第2のレーザー光57が受光センサ60の中心に当たる
ように教示された点である(S54)。
Further, the operation control section 38 takes out the data stored in the teaching data storage section 32, and the robot 1
The working end 0A of 0 is set at the taught position S3. This position S3 is the same as the jig before relocation,
This is a point where the second laser beam 57 is taught so as to strike the center of the light receiving sensor 60 (S54).

【0078】受光点認識部63は、受光センサ60の第
2のレーザー光57の受光点S3′を認識し、この位置
を記憶する(S55)。
The light receiving point recognition section 63 recognizes the light receiving point S3 'of the second laser beam 57 of the light receiving sensor 60 and stores this position (S55).

【0079】つぎに、動作制御部38は教示データ記憶
部32に記憶されているデータを取り出し、ロボット1
0の作業端10Aを、前回のS3とは異なる位置として
教示された位置S4に設定する。この位置S4は移設前
の治具で同様のことをした場合に、第2のレーザー光5
7が受光センサ60の中心に当たるように教示された点
である(S56)。
Next, the operation control unit 38 takes out the data stored in the teaching data storage unit 32, and the robot 1
The work end 10A of 0 is set to the position S4 which is taught as a position different from the position of the previous S3. This position S4 is the second laser beam 5 when the same operation is performed with the jig before relocation.
7 is a point taught to hit the center of the light receiving sensor 60 (S56).

【0080】受光点認識部63は、受光センサ60の第
2のレーザー光57の受光点S4′を認識し、この位置
を記憶する(S57)。
The light receiving point recognition section 63 recognizes the light receiving point S4 'of the second laser beam 57 of the light receiving sensor 60 and stores this position (S57).

【0081】以上の操作によって、S1〜S4の点にお
ける第1および第2のレーザー光56,57の受光位置
を知ることができる。本実施の形態では、この4点ロボ
ット座標から教示データを補正する変換マトリックスを
求めている。
By the above operation, it is possible to know the light receiving positions of the first and second laser beams 56 and 57 at the points S1 to S4. In the present embodiment, a conversion matrix for correcting the teaching data is obtained from the four-point robot coordinates.

【0082】つぎに、変換マトリックス算出部64で
は、最初に教示されている点であるS1〜S4の各点に
おけるレーザー光の受光位置S1′〜S2′から移設後
の治具の位置ずれを表す変換マトリックスを求める。
Next, in the conversion matrix calculation unit 64, the positional deviation of the jig after the transfer from the laser light receiving positions S1 'to S2' at the points S1 to S4 which are the first taught points is shown. Find the transformation matrix.

【0083】これを求めるには次のような計算を行な
う。なお、以下の処理は移設前の治具に対して行なわれ
たものである。
To obtain this, the following calculation is performed. Note that the following processing was performed on the jig before the relocation.

【0084】まず、図10に示すように座標系を定義す
る。ここで、Xh,Yh,Zhはハンドの座標系であ
る。また、Xs,Ys,Zsは受光センサの座標系であ
る。
First, a coordinate system is defined as shown in FIG. Here, Xh, Yh, and Zh are the coordinate system of the hand. Further, Xs, Ys and Zs are coordinate systems of the light receiving sensor.

【0085】受光点認識部63によって認識されたレー
ザー光の受光位置を(xs,ys)とし、受光センサの
座標系におけるレーザー受光点を sS1とすると、s
1=(xs,ys,0)と表すことができる。
If the light receiving position of the laser light recognized by the light receiving point recognition unit 63 is (xs, ys) and the laser light receiving point in the coordinate system of the light receiving sensor is s S1, then s S
It can be expressed as 1 = (xs, ys, 0).

【0086】この点をハンドの座標系に変換するための
変換マトリックスをXSとすると、ハンドの座標系にお
けるレーザー受光点 hS1は、hS1=XS・ sS1と
表すことができる。
Letting XS be the conversion matrix for converting this point into the coordinate system of the hand, the laser receiving point h S1 in the coordinate system of the hand can be expressed as h S1 = XS · s S1.

【0087】さらに、ハンドの座標系からロボットの座
標系に変換するための変換マトリックスをXHとする
と、ロボットの座標系におけるレーザー受光点 RS1
は、RS1=XH・ hS1と表すことができる。
Further, when the conversion matrix for converting the coordinate system of the hand into the coordinate system of the robot is XH, the laser receiving point R S1 in the coordinate system of the robot is shown.
Can be expressed as R S1 = XH · h S1.

【0088】上記のような変換を行なって、図14に示
すように、S1〜S4の各点における RS1〜 RS4を
求める。すなわち、センサの座標系における受光位置
(座標)をロボットの座標系における受光位置(座標)
に変換するのである。
By performing the conversion as described above, as shown in FIG. 14, R S1 to R S4 at each point of S1 to S4 are obtained. That is, the light receiving position (coordinates) in the sensor coordinate system is set to the light receiving position (coordinates) in the robot coordinate system.
Is converted into.

【0089】このようにして求められた RS1と RS2
の両点を通る直線Lと、 RS3の点を含みこの直線Lと
直交する平面Pを算出し、算出された直線Lと平面Pと
の交点をロボットの座標系の原点 RCとする。
R S1 and R S2 thus obtained
A straight line L passing through both points and a plane P including the point of R S3 and orthogonal to the straight line L are calculated, and the intersection of the calculated straight line L and the plane P is set as the origin R C of the coordinate system of the robot.

【0090】この原点 RCから第1のレーザー光56方
向への単位ベクトルをCz,この原点 RCから第2のレ
ーザー光57方向への単位ベクトルをCx,このCzと
Cxと直交する単位ベクトルCyを算出する。
[0090] unit vector perpendicular from the origin R C Cz unit vector to the first laser beam 56 direction, the unit vector from the origin R C to the second laser beam 57 direction Cx, this Cz and Cx Calculate Cy.

【0091】以上のことを、上記のS51,S53,S
55,S57のステップで得られたS1′〜S4′に対
しても行なって、図14に示すように、原点 RC′、単
位ベクトルC′x,C′z,C′yを算出する。
The above is the above S51, S53, S
The steps S1 'to S4' obtained in steps 55 and S57 are also performed to calculate the origin R C'and the unit vectors C'x, C'z, C'y as shown in FIG.

【0092】次に、移設前の治具で求めた原点 RC、単
位ベクトルCx,Cz,Cyと移設後の治具で求めた原
RC′、単位ベクトルC′x,C′z,C′yとか
ら、原点 RC、単位ベクトルCx,Cz,Cyを原点 R
C′、単位ベクトルC′x,C′z,C′yに座標変換
する座標変換マトリクスXDを求める(S58)。
Next, the origin R C and unit vectors Cx, Cz, Cy obtained by the jig before the relocation and the origin R C ', unit vectors C'x, C'z, C obtained by the jig after the relocation 'Y and origin R C, unit vector Cx, Cz, Cy origin R
A coordinate transformation matrix XD for coordinate transformation into C'and unit vectors C'x, C'z, C'y is obtained (S58).

【0093】教示データ変換部34では、変換マトリク
ス算出部64によって求められた変換マトリックスXD
を用いて、補正教示点を算出し、これを動作制御部38
に出力する。
In the teaching data converter 34, the conversion matrix XD obtained by the conversion matrix calculator 64
The corrected teaching point is calculated by using the
Output to

【0094】補正教示点の算出は、次のようにして行な
う。教示データ記憶部32に記憶されている教示データ
をTsとすると、移設後の治具に適応する教示データT
s′は、Ts′=XD・Tsで求めることができる。
The correction teaching point is calculated as follows. Assuming that the teaching data stored in the teaching data storage unit 32 is Ts, the teaching data T adapted to the jig after the relocation is set.
s'can be obtained by Ts' = XD.Ts.

【0095】この補正後の教示データを動作制御部38
に出力するようにすれば、ロボット10や治具の移設を
行なった場合であっても、教示を行なう必要がなく、移
設作業から生産ラインが稼働できるまでの時間をかなり
短縮することができるようになる。
The corrected teaching data is stored in the operation control unit 38.
If the robot 10 or the jig is moved, the teaching does not need to be performed and the time from the moving work to the operation of the production line can be considerably shortened. become.

【0096】以上の実施の形態では、人間がレーザー光
照射装置50を治具に取り付けたり、これを治具12に
常設するようにした形態のものを例示したが、このほか
に、計測モードに設定されたことを条件として、ロボッ
ト10が自らレーザー光照射装置50を治具に取り付け
て計測作業を行なうようにすることも可能である。
In the above-described embodiment, the case where the person attaches the laser light irradiation device 50 to the jig or permanently attaches the laser light irradiation device 50 to the jig 12 has been exemplified. It is also possible for the robot 10 to attach the laser beam irradiation device 50 to a jig and perform the measurement operation on the condition that the setting has been made.

【0097】また、治具の移設などをした場合の教示デ
ータの補正について2つの形態を説明したが、この補正
はいずれの形態でも各治具ごとに行なう必要があるのは
もちろんである。
Although two forms of correction of teaching data when a jig is relocated have been described, it is needless to say that this correction needs to be made for each jig.

【0098】[0098]

【発明の効果】以上述べたように本発明によれば、各請
求項ごとに次のような効果を奏する。請求項1記載の発
明によれば、センサの検出値に基づいて前記治具の現姿
勢を認識し、この現姿勢から、ロボットの教示データを
この治具の現姿勢に適合したデータに変換できるので、
ロボットの新たな教示作業は必要なくなる。
As described above, according to the present invention, the following effects are obtained for each claim. According to the first aspect of the present invention, the present posture of the jig can be recognized based on the detection value of the sensor, and the teaching data of the robot can be converted from the present posture into data adapted to the present posture of the jig. So
No new teaching work for the robot is required.

【0099】請求項2記載の発明によれば、治具に鉛直
方向に対する倒れ具合を認識する第1の計測孔あるいは
水平方向に対する回転ズレを認識する第2の計測孔のい
ずれか一方あるいは双方を設けたので、センサによって
これらの計測孔から治具の鉛直方向の倒れ具合あるいは
水平方向の回転ズレを認識することができ、このズレ量
の補正を教示データに加えることによって治具の現姿勢
に適合したデータとすることができる。したがって、ロ
ボットの新たな教示作業は必要なくなる。
According to the second aspect of the present invention, the jig is provided with either one or both of the first measurement hole for recognizing the degree of tilt in the vertical direction and the second measurement hole for recognizing the rotational deviation in the horizontal direction. Since it is provided, it is possible to recognize the vertical tilt of the jig or the horizontal rotation deviation from these measurement holes by the sensor, and add the correction of this deviation to the teaching data to determine the current position of the jig. It can be matched data. Therefore, new teaching work for the robot is not necessary.

【0100】請求項3記載の発明によれば、前記センサ
は、前記ロボットの作業端に長尺の支持棒の一端を取り
付け、当該支持棒の作業端側及び先端側にそれぞれ当該
支持棒を軸中心として複数の径方向位置測定用近接セン
サを放射状に取り付け、さらに、前記支持棒の先端部に
深さ方向位置測定用近接センサを取り付けて構成したの
で、計測孔に挿入した場合、複数の径方向位置測定用近
接センサによって計測孔の径方向の位置を決めることが
でき、また、深さ方向位置測定用近接センサによってそ
の深さ方向の位置を決めることができる。したがって、
これらの近接センサによって治具の姿勢が正確に把握で
きることになり、治具の姿勢に適合する教示データの補
正を行なうことができるようになる。
According to the third aspect of the present invention, the sensor has one end of a long support rod attached to the working end of the robot, and the support rod is attached to the working end side and the tip end side of the supporting rod. Since a plurality of radial direction position measurement proximity sensors are radially attached as the center, and further, a depth direction position measurement proximity sensor is attached to the tip of the support rod, it is configured to have a plurality of diameters when inserted into the measurement hole. The directional position measuring proximity sensor can determine the position of the measurement hole in the radial direction, and the depth direction position measuring proximity sensor can determine the position in the depth direction. Therefore,
By these proximity sensors, the posture of the jig can be accurately grasped, and the teaching data suitable for the posture of the jig can be corrected.

【0101】請求項4記載の発明によれば、前記姿勢認
識手段は、前記複数の径方向位置測定用近接センサ及び
深さ方向位置測定用近接センサからの信号に基づいて前
記各センサの検出信号が所望の値となるように前記ロボ
ットの姿勢を調整する姿勢制御手段と、当該姿勢制御手
段によって調整されたロボットの姿勢を認識するロボッ
ト姿勢認識手段で構成したので、この治具に保持される
ワークに対して作業するロボットを用いて、治具のズレ
具合を把握することができ、教示データの補正を容易に
行なうことができるようになる。
According to the invention described in claim 4, the posture recognition means detects the detection signals of the respective sensors based on the signals from the plurality of radial position measuring proximity sensors and the depth direction position measuring proximity sensors. It is held by this jig because it is composed of a posture control means for adjusting the posture of the robot so that a desired value is obtained and a robot posture recognition means for recognizing the posture of the robot adjusted by the posture control means. By using a robot that works on the work, the degree of deviation of the jig can be grasped, and the teaching data can be easily corrected.

【0102】請求項5記載の発明によれば、前記径方向
位置測定用近接センサは、前記支持棒を軸中心として約
90゜づつ位相をずらし、前記支持棒の作業端側及び先
端側にそれぞれ4つづつ配置して構成したので、各近接
センサから計測孔の内周面までの距離がその計測孔の下
側と上側の2点について各4方向で認識することがで
き、センサを計測孔の開口方向に沿って挿入することが
可能となり、治具の姿勢を正確に認識することができる
ようになる。
According to the invention as set forth in claim 5, the radial position measuring proximity sensor is shifted in phase by about 90 ° about the support rod as an axial center, and is arranged on the working end side and the tip end side of the support rod, respectively. Since it is configured by arranging four sensors, the distance from each proximity sensor to the inner peripheral surface of the measurement hole can be recognized in four directions for each of two points, the lower side and the upper side of the measurement hole. It becomes possible to insert the jig along the opening direction, and the posture of the jig can be accurately recognized.

【0103】請求項6記載の発明によれば、レーザー光
出力手段からの光の検出位置に基づいて、前記治具の現
姿勢を認識し、この現姿勢から、ロボットの教示データ
をこの治具の現姿勢に適合したデータに変換できるの
で、ロボットの新たな教示作業は必要なくなる。
According to the sixth aspect of the present invention, the present posture of the jig is recognized based on the detected position of the light from the laser light output means, and the teaching data of the robot is obtained from this present posture. Since the data can be converted into data adapted to the current posture of the robot, new teaching work for the robot is unnecessary.

【0104】請求項7記載の発明によれば、治具に、傾
き認識用の第1のレーザー光、または回転認識用の第2
のレーザー光の双方あるいはいずれか一方を出力するレ
ーザー光出力手段を設けたので、センサによって治具の
鉛直方向の倒れ具合あるいは水平方向の回転ズレを認識
することができる。このズレ量の補正を教示データに加
えることによって治具の現姿勢に適合したデータとする
ことができ、したがって、ロボットの新たな教示作業は
必要なくなる。
According to the invention described in claim 7, the jig is provided with a first laser beam for tilt recognition or a second laser beam for rotation recognition.
Since the laser light output means for outputting both or any one of the laser light is provided, it is possible to recognize the tilting degree of the jig in the vertical direction or the rotational deviation in the horizontal direction by the sensor. By adding the correction of the deviation amount to the teaching data, the data can be made to be suitable for the current posture of the jig, and therefore, a new teaching work for the robot is unnecessary.

【0105】請求項8記載の発明によれば、前記センサ
のどの位置で受光したかによって、前記治具の現姿勢を
認識する前記レーザー光出力手段は、1つの発光手段
と、当該発光手段からのレーザー光を第1のレーザー光
および第2のレーザー光に分離するビームスプリッタと
から構成したので、1つの発光手段を設けるだけで、傾
き認識用の第1のレーザー光、または回転認識用の第2
のレーザー光の2つのレーザー光が得られることにな
る。
According to the invention described in claim 8, the laser light output means for recognizing the current posture of the jig according to the light receiving position of the sensor includes one light emitting means and one light emitting means. Since it is composed of a beam splitter for separating the laser light of the first laser light into the first laser light and the second laser light, it is possible to provide the first laser light for tilt recognition or the rotation recognition for rotation recognition by providing only one light emitting means. Second
Two laser lights of the laser light of are obtained.

【0106】請求項9記載の発明によれば、前記姿勢認
識手段は、前記第1のレーザー光または第2のレーザー
光の双方あるいはいずれか一方を、前記センサのどの位
置で受光したかによって、前記治具の現姿勢を認識して
いるので、治具に保持されるワークに対して作業するロ
ボットを用いて、治具のズレ具合を把握することがで
き、教示データの補正を容易に行なうことができるよう
になる。
According to the ninth aspect of the present invention, the posture recognizing means determines whether the first laser beam or the second laser beam or both of them are received by the position of the sensor. Since the current posture of the jig is recognized, the deviation of the jig can be grasped by using the robot that works on the work held by the jig, and the teaching data can be easily corrected. Will be able to.

【0107】請求項10記載の発明によれば、前記姿勢
認識用のレーザー光出力手段は、前記治具に着脱自在に
構成したので、任意の治具にこのレーザー光出力手段を
取り付けることができ、専用の治具を設ける必要がなく
なる。
According to the tenth aspect of the present invention, since the laser beam output means for posture recognition is configured to be attachable to and detachable from the jig, the laser beam output means can be attached to any jig. , There is no need to provide a dedicated jig.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明にかかる教示データの自動補正装置を
備えたロボットの外観図である。
FIG. 1 is an external view of a robot provided with an automatic correction device for teaching data according to the present invention.

【図2】 治具12にセンサ15が挿入されている状態
を示す図である。
FIG. 2 is a view showing a state in which a sensor 15 is inserted in a jig 12.

【図3】 (A),(B)は、近接センサの配置状況を
示す図である。
3 (A) and 3 (B) are diagrams showing a disposition state of proximity sensors.

【図4】 回転量をも検出すべく第2の計測孔18を備
えた治具12の断面図である。
FIG. 4 is a cross-sectional view of a jig 12 provided with a second measurement hole 18 so as to detect a rotation amount as well.

【図5】 図1に示したセンサ15、ロボット10およ
びロボットコントローラ20の制御系の概略構成を示す
ブロック図である。
5 is a block diagram showing a schematic configuration of a control system of a sensor 15, a robot 10 and a robot controller 20 shown in FIG.

【図6】 図5に示した制御系の動作フローチャートで
ある。
6 is an operation flowchart of the control system shown in FIG.

【図7】 図5に示した制御系の動作フローチャートで
ある。
7 is an operation flowchart of the control system shown in FIG.

【図8】 本発明の他の形態にかかる教示データの自動
補正装置を備えたロボットの外観図である。
FIG. 8 is an external view of a robot including a teaching data automatic correction device according to another embodiment of the present invention.

【図9】 レーザー光照射装置50の取り付け状況を示
す図である。
FIG. 9 is a view showing how the laser light irradiation device 50 is attached.

【図10】 センサの取り付け位置を示す図である。FIG. 10 is a diagram showing a mounting position of a sensor.

【図11】 図8に示したセンサ60、ロボット10お
よびロボットコントローラ20の制御系の概略構成を示
すブロック図である。
11 is a block diagram showing a schematic configuration of a control system of the sensor 60, the robot 10 and the robot controller 20 shown in FIG.

【図12】 図10に示した制御系の動作フローチャー
トである。
12 is an operation flowchart of the control system shown in FIG.

【図13】 図12のフローチャートの説明に供する図
である。
FIG. 13 is a diagram for explaining the flowchart of FIG.

【図14】 図12のフローチャートの説明に供する図
である。
FIG. 14 is a diagram provided for explaining the flowchart of FIG.

【符号の説明】[Explanation of symbols]

10…ロボット、 10A…作業端、12…治具(治
具ポスト)、15…センサ、 17,18…計測孔、
20…ロボットコントローラ、25…支持棒、26A〜
26D…上部センサ、27A〜27D…下部センサ、2
8…底部センサ、50…レーザー光照射装置、 52…
保持部、53…キー溝、 54…レーザー光源、55
…ビームスプリッター、56,57…第1のレーザー
光、第2のレーザー光、60…センサ。
10 ... Robot, 10A ... Working end, 12 ... Jig (jig post), 15 ... Sensor, 17, 18 ... Measuring hole,
20 ... Robot controller, 25 ... Support rod, 26A-
26D ... upper sensor, 27A to 27D ... lower sensor, 2
8 ... Bottom sensor, 50 ... Laser light irradiation device, 52 ...
Holding part, 53 ... Key groove, 54 ... Laser light source, 55
... Beam splitters, 56, 57 ... First laser light, second laser light, 60 ... Sensor.

【手続補正書】[Procedure amendment]

【提出日】平成7年12月18日[Submission date] December 18, 1995

【手続補正1】[Procedure amendment 1]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】全図[Correction target item name] All figures

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図1】 FIG.

【図2】 [Fig. 2]

【図3】 [Figure 3]

【図4】 FIG. 4

【図5】 [Figure 5]

【図10】 FIG. 10

【図6】 FIG. 6

【図7】 FIG. 7

【図8】 [Figure 8]

【図9】 FIG. 9

【図11】 FIG. 11

【図13】 FIG. 13

【図14】 FIG. 14

【図12】 FIG.

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】姿勢認識用の計測孔(17,18)を有す
る治具(12)と、 当該治具(12)の姿勢を検出すべく当該計測孔(1
7,18)に挿入されるセンサ(15)と、 当該センサ(15)の検出値に基づいて前記治具(1
2)の現姿勢を認識する姿勢認識手段(20)と、 当該姿勢認識手段(20)によって認識された治具(1
2)の現姿勢から、前記治具(12)に保持されるワー
クに対して作業を行なうロボット(10)の教示データ
を、当該治具(12)の現姿勢に適合したデータに変換
する教示データ変換手段(20)とを有することを特徴
とする教示データの自動補正装置。
1. A jig (12) having a measurement hole (17, 18) for posture recognition, and the measurement hole (1) for detecting the posture of the jig (12).
Sensor (15) to be inserted into the jig (1) based on the detection value of the sensor (15).
The posture recognizing means (20) for recognizing the current posture of 2), and the jig (1) recognized by the posture recognizing means (20).
Teaching that converts teaching data of the robot (10) that performs work on the work held by the jig (12) from the current posture of 2) into data that matches the current posture of the jig (12). An automatic correction device for teaching data, comprising: a data conversion means (20).
【請求項2】傾き認識用の第1の計測孔(17)、また
は回転認識用の第2の計測孔(18)の双方あるいはい
ずれか一方を有する治具(12)と、 ロボット(10)の作業端(10A)に取り付けられ、
当該ロボット(10)によって当該第1又は第2の計測
孔(17,18)のいずれかに挿入されるセンサ(1
5)と、 当該センサ(15)の検出値に基づいて前記治具の現姿
勢を認識する姿勢認識手段(36,38)と、 移設前の治具(12)に保持させたワークに対し前記ロ
ボット(10)が行なう作業の教示データを記憶する教
示データ記憶手段(32)と、 前記姿勢認識手段(36,38)によって認識された治
具(12)の現姿勢と移設前の治具(12)の姿勢との
ずれから座標変換データを作成する座標変換データ作成
手段(34)と、 当該座標変換データ作成手段(34)によって作成され
た座標変換データにより、前記教示データ記憶手段(3
2)に記憶されている教示データを補正する教示データ
補正手段(34)とを有することを特徴とする教示デー
タの自動補正装置。
2. A jig (12) having a first measuring hole (17) for tilt recognition and / or a second measuring hole (18) for rotation recognition, and a robot (10). Attached to the working end (10A) of
The sensor (1) inserted into either the first or second measurement hole (17, 18) by the robot (10).
5), the posture recognition means (36, 38) for recognizing the current posture of the jig based on the detection value of the sensor (15), and the work for holding the jig (12) before the transfer. Teaching data storage means (32) for storing teaching data of work performed by the robot (10), current posture of the jig (12) recognized by the posture recognizing means (36, 38), and jig before relocation ( 12) coordinate conversion data creating means (34) for creating coordinate conversion data from the deviation from the posture, and the coordinate conversion data created by the coordinate conversion data creating means (34), by the teaching data storage means (3).
2) A teaching data automatic correction device, comprising: teaching data correcting means (34) for correcting the teaching data stored in 2).
【請求項3】前記センサ(15)は、前記ロボット(1
0)の作業端(10A)に長尺の支持棒(25)の一端
を取り付け、当該支持棒(25)の作業端側及び先端側
にそれぞれ当該支持棒(25)を軸中心として複数の径
方向位置測定用近接センサ(26A〜26D,27A〜
27D)を放射状に取り付け、さらに、前記支持棒(2
5)の先端部に深さ方向位置測定用近接センサ(28)
を取り付けられなることを特徴とする請求項2記載の教
示データの自動補正装置。
3. The sensor (15) is connected to the robot (1).
0) is attached to the working end (10A) of one end of a long support rod (25), and the support rod (25) has a plurality of diameters with the support rod (25) as an axial center on the working end side and the tip end side, respectively. Proximity sensor for directional position measurement (26A-26D, 27A-
27D) are attached radially, and further, the support rod (2
Proximity sensor (28) for depth direction position measurement at the tip of 5)
3. The automatic correction device for teaching data according to claim 2, further comprising:
【請求項4】前記姿勢認識手段(36,38)は、前記
複数の径方向位置測定用近接センサ(26A〜26D,
27A〜27D)及び深さ方向位置測定用近接センサ
(28)からの信号に基づいて前記各センサの検出信号
が所望の値となるように前記ロボット(10)の姿勢を
調整する姿勢制御手段と、当該姿勢制御手段によって調
整されたロボット(10)の姿勢を認識するロボット姿
勢認識手段とを有することを特徴とする請求項3記載の
教示データの自動補正装置。
4. The posture recognizing means (36, 38) comprises proximity sensors (26A-26D,
27A to 27D) and the attitude control means for adjusting the attitude of the robot (10) based on the signals from the proximity sensor (28) for position measurement in the depth direction so that the detection signals of the respective sensors have desired values. 4. The teaching data automatic correction apparatus according to claim 3, further comprising: a robot posture recognition unit that recognizes the posture of the robot (10) adjusted by the posture control unit.
【請求項5】前記径方向位置測定用近接センサ(26A
〜26D,27A〜27D)は、前記支持棒(25)を
軸中心として約90゜づつ位相をずらし、前記支持棒
(25)の作業端側及び先端側にそれぞれ4つづつ配置
されていることを特徴とする請求項3または請求項4記
載の教示データの自動補正装置。
5. A proximity sensor (26A) for measuring the radial position.
26D, 27A to 27D), the phases of which are shifted by about 90 ° about the support rod (25) as an axis center, and four are arranged on the working end side and the tip end side of the support rod (25). An automatic correction device for teaching data according to claim 3 or 4, wherein:
【請求項6】姿勢認識用のレーザー光出力手段(50)
を備えた治具(12)と、 当該治具(12)の姿勢を検出すべく当該レーザー光出
力手段(50)からの光を受光するセンサ(60)と、 当該センサ(60)の検出位置に基づいて前記治具(1
2)の現姿勢を認識する姿勢認識手段(20)と、 当該姿勢認識手段(20)によって認識された治具(1
2)の現姿勢から、前記治具(12)に保持されるワー
クに対して作業を行なうロボット(10)の教示データ
を、当該治具(12)の現姿勢に適合したデータに変換
する教示データ変換手段(20)とを有することを特徴
とする教示データの自動補正装置。
6. A laser light output means (50) for posture recognition.
(12) provided with a sensor, a sensor (60) for receiving light from the laser light output means (50) to detect the posture of the jig (12), and a detection position of the sensor (60). Based on the jig (1
The posture recognizing means (20) for recognizing the current posture of 2), and the jig (1) recognized by the posture recognizing means (20).
Teaching that converts teaching data of the robot (10) that performs work on the work held by the jig (12) from the current posture of 2) into data that matches the current posture of the jig (12). An automatic correction device for teaching data, comprising: a data conversion means (20).
【請求項7】傾き認識用の第1のレーザー光(56)、
または回転認識用の第2のレーザー光(57)の双方あ
るいはいずれか一方を出力するレーザー光出力手段(5
0)を備えた治具(12)と、 ロボット(10)の作業端に取り付けられ、当該ロボッ
ト(10)の姿勢を変更させることによって、前記第1
のレーザー光(56)または前記第2のレーザー光(5
7)を受光するセンサ(60)と、 当該センサ(60)の検出値に基づいて前記治具(1
2)の現姿勢を認識する姿勢認識手段(63)と、 移設前の治具(12)に保持させたワークに対し前記ロ
ボット(10)が行なう作業の教示データを記憶する教
示データ記憶手段(32)と、 前記姿勢認識手段(63)によって認識された治具(1
2)の現姿勢と移設前の治具(12)の姿勢とのずれか
ら座標変換データを作成する座標変換データ作成手段
(64)と、 当該座標変換データ作成手段(64)によって作成され
た座標変換データにより、前記教示データ記憶手段(3
2)に記憶されている教示データを補正する教示データ
補正手段(34)とを有することを特徴とする教示デー
タの自動補正装置。
7. A first laser beam (56) for tilt recognition,
Alternatively, laser light output means (5) for outputting both or either of the second laser light (57) for rotation recognition.
0) provided with a jig (12) and a working end of the robot (10), and by changing the posture of the robot (10), the first
Laser light (56) or the second laser light (5)
7) The sensor (60) which receives the light, and the jig (1) based on the detection value of the sensor (60).
The posture recognizing means (63) for recognizing the current posture of 2) and the teaching data storing means (for storing the teaching data of the work performed by the robot (10) for the work held by the jig (12) before the relocation ( 32) and the jig (1 recognized by the posture recognition means (63).
2) Coordinate conversion data creating means (64) for creating coordinate conversion data from the deviation between the current attitude and the attitude of the jig (12) before relocation, and the coordinates created by the coordinate conversion data creating means (64). The teaching data storage means (3
2) A teaching data automatic correction device, comprising: teaching data correcting means (34) for correcting the teaching data stored in 2).
【請求項8】前記レーザー光出力手段(50)は、1つ
の発光手段(54)と、当該発光手段(54)からのレ
ーザー光を第1のレーザー光(56)および第2のレー
ザー光(57)に分離するビームスプリッタ(55)と
から構成されることを特徴とする請求項7記載の教示デ
ータの自動補正装置。
8. The laser light output means (50) includes one light emitting means (54) and a laser light from the light emitting means (54) as a first laser light (56) and a second laser light (54). The automatic correction device for teaching data according to claim 7, characterized in that it comprises a beam splitter (55) splitting into 57).
【請求項9】前記姿勢認識手段(63)は、前記第1の
レーザー光(56)または第2のレーザー光(57)の
双方あるいはいずれか一方を、前記センサ(60)のど
の位置で受光したかによって、前記治具(12)の現姿
勢を認識することを特徴とする請求項7記載の教示デー
タの自動補正装置。
9. The posture recognizing means (63) receives the first laser beam (56) and / or the second laser beam (57) at any position of the sensor (60). 8. The automatic correction device for teaching data according to claim 7, wherein the present posture of the jig (12) is recognized depending on whether or not it has been done.
【請求項10】前記姿勢認識用のレーザー光出力手段
(50)は、前記治具(12)に着脱自在に構成されて
いることを特徴とする請求項6ないし請求項8のいずれ
か1項に記載の教示データの自動補正装置。
10. The laser beam output means (50) for posture recognition is configured to be detachable from the jig (12). An automatic correction device for teaching data described in 1.
JP26182195A 1995-10-09 1995-10-09 Automatic correction device for teaching data Withdrawn JPH09106311A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26182195A JPH09106311A (en) 1995-10-09 1995-10-09 Automatic correction device for teaching data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26182195A JPH09106311A (en) 1995-10-09 1995-10-09 Automatic correction device for teaching data

Publications (1)

Publication Number Publication Date
JPH09106311A true JPH09106311A (en) 1997-04-22

Family

ID=17367202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26182195A Withdrawn JPH09106311A (en) 1995-10-09 1995-10-09 Automatic correction device for teaching data

Country Status (1)

Country Link
JP (1) JPH09106311A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010531238A (en) * 2007-05-16 2010-09-24 エーエスアーベー カッティング システムズ ゲゼルシャフト ミット ベシュレンクテル ハフツング Apparatus and method for position adjustment of universal bearing device for cutting machine
JP2011125982A (en) * 2009-12-21 2011-06-30 Kec:Kk Positioning method by automatic machine, and positioning device of the automatic machine
JP2011230243A (en) * 2010-04-28 2011-11-17 Yaskawa Electric Corp Device and method for teaching-procedure calibration for robot
JP2015016527A (en) * 2013-07-11 2015-01-29 キヤノン株式会社 Robot apparatus and teaching point setting method
JP2017121691A (en) * 2016-01-07 2017-07-13 鴻富錦精密電子(鄭州)有限公司 Robot point position adjustment control method and system
CN107688313A (en) * 2017-09-27 2018-02-13 上海焕巍智能科技有限公司 A kind of opened industrial robot controller
EP3739604A1 (en) * 2019-05-15 2020-11-18 Heinrich Georg GmbH Maschinenfabrik Method for automatically stacking sheet-shaped goods, in particular transformer core sheets

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010531238A (en) * 2007-05-16 2010-09-24 エーエスアーベー カッティング システムズ ゲゼルシャフト ミット ベシュレンクテル ハフツング Apparatus and method for position adjustment of universal bearing device for cutting machine
JP2011125982A (en) * 2009-12-21 2011-06-30 Kec:Kk Positioning method by automatic machine, and positioning device of the automatic machine
JP2011230243A (en) * 2010-04-28 2011-11-17 Yaskawa Electric Corp Device and method for teaching-procedure calibration for robot
JP2015016527A (en) * 2013-07-11 2015-01-29 キヤノン株式会社 Robot apparatus and teaching point setting method
JP2017121691A (en) * 2016-01-07 2017-07-13 鴻富錦精密電子(鄭州)有限公司 Robot point position adjustment control method and system
CN107688313A (en) * 2017-09-27 2018-02-13 上海焕巍智能科技有限公司 A kind of opened industrial robot controller
EP3739604A1 (en) * 2019-05-15 2020-11-18 Heinrich Georg GmbH Maschinenfabrik Method for automatically stacking sheet-shaped goods, in particular transformer core sheets
EP3739604B1 (en) 2019-05-15 2022-07-20 Heinrich Georg GmbH Maschinenfabrik Method for automatically stacking sheet-shaped goods, in particular transformer core sheets

Similar Documents

Publication Publication Date Title
JP2510216B2 (en) Method for calibrating sensors in industrial robots
TW508289B (en) Self teaching robot
US8346392B2 (en) Method and system for the high-precision positioning of at least one object in a final location in space
US20050273202A1 (en) Method and device for improving the positioning accuracy of a manipulator
EP1190818B1 (en) Position-orientation recognition device
US4759073A (en) Bonding apparatus with means and method for automatic calibration using pattern recognition
JPS61281305A (en) Articulated robot control device
US20030090483A1 (en) Simulation apparatus for working machine
JPH07148682A (en) Device and method for calibrating central point of tool
CN1283272A (en) System for determining spatial position and orientation of body
JPH09106311A (en) Automatic correction device for teaching data
JP2004050356A (en) Position and attitude sensor of movable structure
JP2787891B2 (en) Automatic teaching device for laser robot
JPH08272425A (en) Method to teach coordinate system to robot in non-contact
JPH0392712A (en) Three-dimensional position recognition by use of image processing device and distance measuring sensor
JP2001038662A (en) Working robot calibrating method
CN114012719A (en) Zero calibration method and system for six-axis robot
JP3169174B2 (en) Teaching Data Correction Method for Work Path Following Robot Manipulator
US7043333B2 (en) Device for checking the position of a spindle in a machine tool
JPH07210222A (en) Positioning controller
JPH06328385A (en) Attitude control of visual sensor of industrial robot
JP2001022418A (en) Method for correcting teaching data for work robot
CN112985294A (en) Novel measuring method for detecting circular workpiece based on vision device
JP2001025985A (en) Installation condition detecting method of working robot
JP2627006B2 (en) Method for controlling mutual distance between robot and workpiece and calibration data creation device therefor

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20030107