JPH0768481A - Method for teaching data to robot and robot device - Google Patents

Method for teaching data to robot and robot device

Info

Publication number
JPH0768481A
JPH0768481A JP16752893A JP16752893A JPH0768481A JP H0768481 A JPH0768481 A JP H0768481A JP 16752893 A JP16752893 A JP 16752893A JP 16752893 A JP16752893 A JP 16752893A JP H0768481 A JPH0768481 A JP H0768481A
Authority
JP
Japan
Prior art keywords
robot
teaching
data
laser sensor
teaching point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP16752893A
Other languages
Japanese (ja)
Inventor
Kazukuni Ban
一訓 伴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP16752893A priority Critical patent/JPH0768481A/en
Publication of JPH0768481A publication Critical patent/JPH0768481A/en
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

PURPOSE:To extremely reduce the possibility to cause personal and physical accidents by realize the positional teaching by using a non-contact displacement sensor in the condition where the tip of a robot arm is appropriately apart from the teaching point. CONSTITUTION:When the command to measure the position is given from a teaching console 38, the CPU 31 reads the laser sensor detecting signal to indicate the position of the spot beam, i.e., the distance from the reference position of measurement of a laser sensor 4 to the teaching point through an interface 37, and stores the signal in a nonvolatile memory 33 or a RAM memory 34. The information as the results of measurement by the laser sensor 4 is not sufficient as the teaching data, and it is converted into the data on the base coordinate system to be set at the position fixed on the robot working space to facilitate its use.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本願発明は、工場その他の施設に
おける各種作業の自動化の為に利用されるロボットに対
してデータ教示を行なう為の方法及び装置に関し、更に
詳しくは、レーザセンサ等の光学式変位測定手段あるい
は他の非接触式の変位測定手段を利用してロボットに対
象物等に関する位置データを教示する方法、及び該方法
を実施する為の装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for teaching data to a robot used for automating various operations in factories and other facilities, and more particularly to an optical device such as a laser sensor. TECHNICAL FIELD The present invention relates to a method for teaching a robot position data relating to an object or the like by using a displacement measurement means or other non-contact displacement measurement means, and an apparatus for performing the method.

【0002】本願発明の技術思想は、ロボット作業空間
内における対象物、座標系上特定点等の位置データをロ
ボット制御装置に取り込み、該位置データを内部処理に
利用する必要があるロボットシステム全般に対して適用
可能なものである。
The technical idea of the present invention is to apply to the entire robot system in which it is necessary to take in position data of an object, a specific point on a coordinate system, etc. in a robot work space into a robot controller and utilize the position data for internal processing. It is applicable to.

【0003】[0003]

【従来の技術】ロボットを含むシステムを利用して各種
作業を実行する場合には、ロボットに意図した通りの動
作をロボットに行なわせる為のティーチングを実行する
必要がある。この教示に要するオペレータの負担を軽減
する為に、いわゆるオフライン方式によるティーチング
が利用されている。
2. Description of the Related Art When performing various works using a system including a robot, it is necessary to perform teaching for causing the robot to perform an intended operation. In order to reduce the operator's burden required for this teaching, so-called off-line teaching is used.

【0004】このオフラインティーチング方式は、ワー
ク等の作業対象物及び作業環境に関する正確なデータが
事前に用意されており、作業内容が単純で要求されるロ
ボット位置精度がそれ程高くないようなケースにおいて
は高い有効性を発揮することが知られている。
In this off-line teaching method, accurate data on a work object such as a work and a work environment are prepared in advance, and in the case where the work content is simple and the required robot position accuracy is not so high. It is known to be highly effective.

【0005】しかし、オフラインティーチング時に用意
されるデータのみに基づいてロボット位置を完全に決定
することが困難であることが多く、また、必要とされる
全データをオフラインで揃えることが困難なケースもあ
る。そこで、オフラインティーチング実行済みの場合も
含めて、オペレータが作業現場で実際にロボットを動か
しながら最終的な位置データ教示を行なう方式が頻繁に
利用されている。
However, it is often difficult to completely determine the robot position based only on the data prepared during offline teaching, and in some cases it is difficult to align all required data offline. is there. Therefore, a method is often used in which the operator teaches the final position data while actually moving the robot at the work site, including the case where the offline teaching has been executed.

【0006】この方式による教示作業は、通常次のよう
な手順によって行なわれている。即ち、ロボットアーム
先端に取り付けられたエンドエフェクタに尖頭ピン状部
材を固定し、オペレータによるロボットアーム操作によ
って、この尖頭ピン状部材を教示点に選ばれた作業空間
内の座標系上特定点あるいはワーク上特定点等に接触あ
るいは接触寸前まで接近させ、該接触乃至接近状態にお
けるロボット各部(アーム等)の位置及び姿勢に基づい
て各教示点のロボット作業空間内の位置を算出し、これ
を教示点データとしてロボットシステムに取り込み、以
後、プレイバック方式による再生運転時やその他教示位
置データの内部処理が必要となる場面に備えるという手
法が採用されている。なお、このような方式を採用した
場合、フースプレートと尖頭ピン部材先端の位置関係を
予め取得しておくことが必要となるが、その際、上記方
式に倣って尖頭ピン部材で空間のある固定点を異なる方
向から複数回教示することによって、その位置関係を得
る場合もある。
The teaching work by this method is usually performed by the following procedure. That is, a pointed pin-shaped member is fixed to the end effector attached to the tip of the robot arm, and the pointed pin-shaped member is operated as a teaching point by the operator's robot arm operation. Alternatively, a specific point or the like on the work is brought into contact with or close to the point of contact, and the position of each teaching point in the robot work space is calculated based on the position and orientation of each part (arm, etc.) of the robot in the contact or approach state. A method is adopted in which the teaching point data is taken into the robot system and thereafter prepared for a playback operation by a playback method or in other situations where internal processing of teaching position data is required. When such a method is adopted, it is necessary to acquire the positional relationship between the hose plate and the tip of the tip pin member in advance. In some cases, a positional relationship may be obtained by teaching a fixed point a plurality of times from different directions.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、必要な
位置データを取得する際に上記の如きタッチング方式あ
るいは準タッチング方式を採用した場合、下記(1)〜
(3)に記すような問題点が生じていた。
However, when the above-mentioned touching method or quasi-touching method is adopted when acquiring the necessary position data, the following (1) to
The problem as described in (3) has occurred.

【0008】(1)位置データ取得時にロボットアーム
を教示点に著しく接近させる必要があるので、ロボット
アームやエンドエフェクタと周辺物体との間に衝突・擦
傷事故を起こしたり、ソフトタッチングに失敗して尖頭
ピン部材やワーク等に損傷を与えたりする事故を起こす
危険があること。
(1) Since it is necessary to bring the robot arm extremely close to the teaching point at the time of obtaining position data, a collision / scratch accident occurs between the robot arm or the end effector and the surrounding object, or soft touching fails. There is a risk of causing an accident such as damage to the pointed pin member or the work.

【0009】(2)尖頭部材先端点と教示点を一致乃至
一致寸前まで接近させる作業は、オペレータがロボット
アーム先端部に接近し、目視による確認を行ないながら
実行する場合が多く、人身事故に対する安全対策上大き
な問題があること。
(2) In many cases, the operator approaches the tip of the pointed member and the teaching point so that they are close to each other or close to the point of coincidence while the operator approaches the tip of the robot arm and visually confirms the safety. There is a big problem in measures.

【0010】(3)また、このような目視に頼ることの
多い教示点タッチング/接近方式では、尖頭部材先端と
教示点を正確に一致させることが難しく、ある程度の誤
差が不可避的に発生すること。
(3) Further, in such a teaching point touching / approaching method which often relies on visual observation, it is difficult to exactly match the tip of the pointed member with the teaching point, and some error is inevitably generated. thing.

【0011】本願発明は、これら従来技術の問題点の回
避が可能なロボット位置データ教示方法及び装置を提供
することを企図してなされたものである。
The present invention is intended to provide a robot position data teaching method and apparatus capable of avoiding the problems of the prior art.

【0012】[0012]

【課題を解決するための手段】本願発明は、ロボット本
体のアーム先端部に光学式変位センサ装置等の非接触式
変位センシング手段を固定支持する段階と、該非接触式
変位センシング手段に少なくとも1個の教示点のセンシ
ングが可能な位置をとらせる段階と、該非接触式変位セ
ンシング手段により教示点のセンシングを実行する段階
と、該センシング結果と該センシング時点におけるロボ
ット位置データに基づいて該教示点の位置データを獲得
する段階とを含むロボットにデータ教示を行なう方法を
提供することによって、上記問題点を解決したものであ
る。
According to the present invention, a step of fixedly supporting a non-contact type displacement sensing means such as an optical displacement sensor device at the tip of an arm of a robot body, and at least one non-contact type displacement sensing means. Of the teaching point, the step of executing the sensing of the teaching point by the non-contact displacement sensing means, and the teaching point of the teaching point based on the sensing result and the robot position data at the sensing time point. The above problem is solved by providing a method of teaching data to a robot, including a step of acquiring position data.

【0013】また本願発明は、上記方法を実施する能力
を備えたロボット装置(ロボットシステム)として、ロ
ボット本体と、少なくとも該ロボットを制御するロボッ
トコントローラと、ロボット本体のアーム先端部に固定
支持された非接触式変位センシング手段と、該非接触式
変位センシング手段による教示点センシング結果と該セ
ンシング時点におけるロボット位置データに基づいて該
教示点の位置データを獲得する手段とを有するロボット
装置を開示したものである。
Further, according to the present invention, as a robot apparatus (robot system) having the ability to carry out the above method, a robot body, at least a robot controller for controlling the robot, and an arm tip portion of the robot body are fixedly supported. Disclosed is a robot apparatus having non-contact type displacement sensing means, and means for acquiring position data of the taught point based on a teaching point sensing result by the non-contact type displacement sensing means and robot position data at the time of the sensing. is there.

【0014】更に、本願発明は、該ロボット装置に組み
込む非接触式変位センシング手段として、レーザ光源素
子と、該レーザ光源素子の出力光を被検対象物に入射さ
せる光学系と、位置検出型の光検出器と、該位置検出型
光検出器に前記被検対象物からの反射光を入射させる光
学系とを有するレーザセンサ手段を含むレーザセンサ装
置を特定することによって、より望ましい形態で位置デ
ータ教示を実行し得るロボット装置を提案したものであ
る。
Further, according to the present invention, as a non-contact type displacement sensing means incorporated in the robot apparatus, a laser light source element, an optical system for making the output light of the laser light source element incident on an object to be inspected, and a position detecting type. Position data in a more desirable form by specifying a laser sensor device including a laser sensor means having a photodetector and an optical system for making the position detection type photodetector incident the reflected light from the object to be inspected. A robot device capable of executing teaching is proposed.

【0015】[0015]

【作用】本願発明に係る方法及び装置においては、従来
の尖頭ピン等のタッチング乃至準タッチング部材に代え
て非接触式変位センサを利用することにより、ロボット
アーム先端部を教示点から適当な距離離隔させた状態で
センシングを行なって教示点の位置データが獲得され
る。また、その際にロボットアームにオペレータが接近
する必要が無い。
In the method and apparatus according to the present invention, a non-contact displacement sensor is used in place of the conventional touching or quasi-touching member such as a pin, so that the tip of the robot arm can be moved at an appropriate distance from the teaching point. The position data of the teaching point is acquired by performing the sensing in the separated state. Further, at that time, it is not necessary for the operator to approach the robot arm.

【0016】従って、ロボットアームあるいは該アーム
先端部分に支持された部材と周辺物体との間の干渉事故
や人身事故が発生する可能性が大幅に低下する。
Therefore, the possibility of occurrence of an interference accident or a personal injury between the robot arm or a member supported by the arm tip portion and a peripheral object is significantly reduced.

【0017】本願発明で使用される非接触式変位センシ
ング手段は、通常、センシング手段から被検出点までの
距離を計測出来る型のものが使用されるが、既知平面上
における2次元的な位置変位のセンシングを行なえば足
りる場合等の特別なケースでは、単一のCCDカメラを
利用したセンサ等を利用する場合も有り得る。
The non-contact type displacement sensing means used in the present invention is usually of a type capable of measuring the distance from the sensing means to the point to be detected, but it is a two-dimensional position displacement on a known plane. In a special case where it is sufficient to perform the above-mentioned sensing, a sensor using a single CCD camera may be used.

【0018】本願発明において利用される非接触変位セ
ンシング手段の代表的なものは、光学式の変位センサ
(後述実施例参照。)であるが、現在、その動作原理、
測定レンジ、測定精度、価格等について極めて多様な非
接触式変位センサが入手可能となっているから、一般的
には、これらの中から使用目的にかなったものを任意に
選択して使用すれば良い。
A typical non-contact displacement sensing means used in the present invention is an optical displacement sensor (see an embodiment described later). Currently, its operating principle is
Since a wide variety of non-contact type displacement sensors are available in terms of measurement range, measurement accuracy, price, etc., in general, if you choose any one that suits your purpose of use, you can use it. good.

【0019】レーザ変位センサや1台または2台以上の
CCDカメラ等を利用したカメラセンサのような光学式
センサ以外の非接触センサとしては、静電容量式、渦電
流式、超音波式の変位センサ等がある。例えば、静電容
量式のセンサは金属または誘電体の対象物、渦電流式の
センサは金属の対象物までの距離を各々測定することが
出来るもので、いずれのセンサも使用時の被計測対象物
との間隔は数mm程度とやや小さいが、分解能数μmの
精密測定が可能であるという特徴を有している。
Non-contact sensors other than optical sensors such as a laser displacement sensor and a camera sensor using one or more CCD cameras may be capacitance type, eddy current type or ultrasonic type displacement sensors. There are sensors, etc. For example, a capacitance sensor can measure the distance to a metal or dielectric object, and an eddy current sensor can measure the distance to a metal object. Although the distance from the object is a little small, about several mm, it has the feature that it can perform precision measurement with a resolution of several μm.

【0020】また、超音波式の変位センサは、数10c
m〜数m離れた位置からの遠隔測定が可能であり、分解
能は数100μmのものが容易に入手可能である。例え
ば、対象物が光学式センサの適用が困難な透明物体であ
る場合などには、この超音波式のセンサを利用すること
が有利と思われる。
Also, the ultrasonic displacement sensor is a few 10c.
It is possible to remotely measure from a position distant from several m to several m, and a resolution of several hundred μm is easily available. For example, when the object is a transparent object for which it is difficult to apply an optical sensor, it may be advantageous to use this ultrasonic sensor.

【0021】なお、場合によっては、教示点のセンシン
グ方式に合わせて複数個あるいは複数タイプのセンサを
併用するケースも考えられる。
In some cases, a plurality of or a plurality of types of sensors may be used in combination according to the sensing system of the teaching point.

【0022】[0022]

【実施例】図1は、本願発明の位置データ教示方法を実
施するロボットシステムの全体構成を例示したものであ
る。図を参照すると、システム全体は、ロボット本体
1、ロボットコントローラ3と、レーザセンサ4及びレ
ーザセンサコントローラ5から構成されている。ロボッ
ト本体1のアーム7の先端部にはエンドエフェクタ2が
装着されており、該エンドエフェクタ2の先端部にはレ
ーザセンサ4が固定支持されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 illustrates the overall configuration of a robot system for carrying out the position data teaching method of the present invention. Referring to the figure, the entire system includes a robot body 1, a robot controller 3, a laser sensor 4 and a laser sensor controller 5. An end effector 2 is mounted on the tip of an arm 7 of the robot body 1, and a laser sensor 4 is fixedly supported on the tip of the end effector 2.

【0023】ロボットコントローラ3自体は、基本的に
公知の構成を有するものであり、中央演算処理装置(以
下、CPUという。)31、該CPU31にバス39を
介して各々接続されたROMからなるメモリ32、不揮
発性メモリ33、RAMからなるメモリ34、ロボット
本体1の各サーボモータを駆動するサーボ回路36を制
御する軸制御部35、インターフェイス37及びロボッ
トシステムの制御に必要な指令、各種データ等を入力す
る教示操作盤38から構成されている。
The robot controller 3 itself has a basically known structure, and is a memory comprising a central processing unit (hereinafter referred to as CPU) 31 and a ROM connected to the CPU 31 via a bus 39. 32, a non-volatile memory 33, a memory 34 including a RAM, an axis control unit 35 that controls a servo circuit 36 that drives each servo motor of the robot body 1, an interface 37, commands necessary for controlling the robot system, various data, and the like. It comprises a teaching operation panel 38 for inputting.

【0024】ROMメモリ32には、CPU31がロボ
ット本体及びロボットコントローラ3自身を制御する為
に必要な各種のプログラムが格納され、不揮発性メモリ
33にはロボットの教示プログラムデータが格納され
る。RAMメモリ34は、教示位置計算等を実行するに
際のデータ一時記憶手段として利用される。
The ROM memory 32 stores various programs necessary for the CPU 31 to control the robot body and the robot controller 3 itself, and the nonvolatile memory 33 stores teaching program data of the robot. The RAM memory 34 is used as a temporary data storage means when performing teaching position calculation and the like.

【0025】また、インターフェイス37は、レーザセ
ンサ4を制御しその出力信号を処理するレーザセンサコ
ントローラ5に制御信号を送ると共に信号処理後の検出
信号を受け取るものであり、必要に応じて他の機器(例
えば、オフラインプログラム作成装置)に対する入出力
装置の機能をも果たすように構成されている。
Further, the interface 37 sends a control signal to the laser sensor controller 5 which controls the laser sensor 4 and processes the output signal thereof, and receives the detection signal after the signal processing, and other devices as required. It is also configured to perform the function of an input / output device for (for example, an offline program creating device).

【0026】本実施例で採用されている非接触式変位セ
ンシング手段としてのレーザセンサ4及びレーザセンサ
コントローラ5の概略構成を図3を参照して説明する。
A schematic configuration of the laser sensor 4 and the laser sensor controller 5 as the non-contact type displacement sensing means employed in this embodiment will be described with reference to FIG.

【0027】半導体レーザ(レーザダイオード;LD)
41からの光は、必要に応じて設けられたコリメータレ
ンズ42によって平行化され、投射レンズ43によりビ
ーム11の径が絞られて、被検対象物6上にスポット光
Sd となって投射される。この投射スポット光像を集光
レンズ45を介して位置検出型光検出器(以下、PSD
と言う。)46の検出面上に検出スポット像として入射
させる。被検対象物Wの位置が入射光の光軸に沿って変
位(P→P ’)すると、検出スポット像もPSD上で
移動する(Q→Q’)。
Semiconductor laser (laser diode; LD)
The light from 41 is collimated by a collimator lens 42 provided as needed, the diameter of the beam 11 is narrowed by the projection lens 43, and projected as spot light Sd on the object 6 to be inspected. . This projection spot light image is passed through a condenser lens 45 to a position detection type photodetector (hereinafter referred to as PSD).
Say ) 46 as a detection spot image on the detection surface. When the position of the test object W is displaced along the optical axis of the incident light (P → P ′), the detection spot image also moves on the PSD (Q → Q ′).

【0028】位置検出機能を有するPSD46は、スポ
ット光の入射位置に応じて2つの電流出力I1 、I2 の
を生成するもので、I12=(I1 ―I2 )/(I1 +I
2 )がPSD上での入射位置を表している。従って、各
電流出力I1 、I2 をレーザセンサコントローラ5内の
電流電圧変換回路53で電圧V1 、V2 に変換し、演算
器54により演算Δ12=(V1 ―V2 )/(V1 +V2
)を行ない、ロボットコントローラ3のインターフェ
イス37へ出力する。ロボットコントローラ3のCPU
31は、インターフェイス37を介してAD変換された
スポットSd の位置信号を読み取る。
The PSD 46 having a position detecting function generates two current outputs I1 and I2 according to the incident position of the spot light, and I12 = (I1−I2) / (I1 + I
2) represents the incident position on the PSD. Therefore, the current outputs I1 and I2 are converted into voltages V1 and V2 by the current-voltage conversion circuit 53 in the laser sensor controller 5, and the calculation unit 54 calculates .DELTA.12 = (V1-V2) / (V1 + V2
) Is performed and output to the interface 37 of the robot controller 3. CPU of robot controller 3
Reference numeral 31 reads the position signal of the spot Sd which is AD-converted via the interface 37.

【0029】なお、このような光学式変位変位測定装置
に通常用いられるレーザ光源素子には、光源の出力光強
度をモニタする為のモニタ光検出器49が付属装備され
ており、このモニタ光検出器49の出力に基づき、レー
ザセンサコントローラ5に組み込まれたレーザ出力安定
化回路52を介してレーザ光源駆動回路51を制御する
ことによりレーザ光源素子41の出力光強度を一定に保
つ制御が行われる。
The laser light source element normally used in such an optical displacement measuring apparatus is equipped with a monitor light detector 49 for monitoring the output light intensity of the light source. Based on the output of the device 49, the laser light source driving circuit 51 is controlled via the laser output stabilizing circuit 52 incorporated in the laser sensor controller 5, whereby the output light intensity of the laser light source element 41 is kept constant. .

【0030】以下、上記ロボットシステムを用いて、対
象物であるワーク6上に選定された教示点12について
位置データを取得する手順を図2を参照図に加えて説明
する。
A procedure for acquiring position data for the teaching point 12 selected on the workpiece 6 using the robot system will be described below with reference to FIG.

【0031】先ず、ロボットアーム7をジョグ送りによ
り操作し、レーザセンサ4をワーク6上の教示点12か
ら適当な距離離れた位置迄移動させる。そして、教示操
作盤38からレーザ点灯指令を送ると、インターフェイ
ス37、レーザセンサコントローラ5のレーザ光源駆動
回路51を介してレーザ光源41が点灯される。再び、
ロボットアーム7の位置乃至姿勢を調節し、スポット光
Sd を教示点12と一致させる。この作業には、ロボッ
ト自身あるいは作業空間内に設置されたCCDカメラ等
を利用し、モニタ画面を観察しながら行っても良いし、
また、画像処理プロセッサ及びソフトウェアを更に加
え、ロボットの自動制御によりスポット光位置Sd を教
示点位置12に合致させるシステムを組むことも可能で
ある。
First, the robot arm 7 is operated by jog feed to move the laser sensor 4 to a position separated from the teaching point 12 on the work 6 by an appropriate distance. Then, when a laser lighting command is sent from the teaching operation panel 38, the laser light source 41 is turned on via the interface 37 and the laser light source drive circuit 51 of the laser sensor controller 5. again,
The position or attitude of the robot arm 7 is adjusted so that the spot light Sd coincides with the teaching point 12. For this work, the robot itself or a CCD camera installed in the work space may be used while observing the monitor screen,
Further, it is also possible to add an image processor and software to construct a system for matching the spot light position Sd with the teaching point position 12 by automatic control of the robot.

【0032】さて、この状態で教示操作盤38から位置
計測指令を発すると、CPU31はインターフェイス3
7を介してスポット光Sd の位置、即ち、レーザセンサ
4の測定基準位置S0 から教示点12迄の距離rを表す
レーザセンサ検出信号を読み取り、不揮発性メモリ33
またはRAMメモリ34に記憶させる。
When a position measurement command is issued from the teaching operation panel 38 in this state, the CPU 31 causes the interface 3
A laser sensor detection signal representing the position r of the spot light Sd, that is, the distance r from the measurement reference position S0 of the laser sensor 4 to the teaching point 12 is read via the non-volatile memory 33.
Alternatively, it is stored in the RAM memory 34.

【0033】レーザセンサによる計測結果rのままで
は、教示データとしては不十分であるから、これをロボ
ットが利用し易い座標系上で表現されたデータに変換す
ることを考える。ここでは、ロボット作業空間上の固定
された位置に設定されたベース座標系Σb 上のデータへ
の変換を行う。今、センサの測定基準位置に固定された
座標系をセンサ座標系Σs とし、Σsの原点がセンサの
測定基準点に一致し、Σs のx軸がレーザ出力光の方向
に一致しているものとし、また仮に計測点の姿勢はΣs
のそれと同じであると仮定すると、センサ座標系Σs か
ら見た計測点の位置・姿勢は次の行列Tsdによって表わ
される。
Since the measurement result r obtained by the laser sensor is not sufficient as teaching data, it is considered to convert it to data expressed on the coordinate system which is easy to use by the robot. Here, conversion to data on the base coordinate system Σb set at a fixed position on the robot work space is performed. Now, assume that the coordinate system fixed at the measurement reference position of the sensor is the sensor coordinate system Σs, the origin of Σs coincides with the measurement reference point of the sensor, and the x-axis of Σs coincides with the laser output light direction. Also, if the posture of the measurement point is Σs
Assuming that it is the same as that of the above, the position / orientation of the measurement point viewed from the sensor coordinate system Σs is represented by the following matrix Tsd.

【0034】[0034]

【数1】 ここで、Iは3×3の単位行列である。更にエンドエフ
ェクタ2に固定された座標系をΣe とし、Σs 上で表わ
されたデータをΣe 上でデータに変換する同次変換行列
をTesとする。同様に、Σb とΣe についての同次変換
行列をTbeとする。すると、ロボットのベース座標系Σ
b において、計測点の位置・姿勢は次の行列Tbdによっ
て、 Tbd=Tbe・Tes・Tsd ・・・(2) と表わされる。エンドエフェクタに固定された座標系Σ
e と固定関係にあるロボットアーム先端のフェイスプレ
ートに固定された座標系Σf を使えば、上記の式(2)
は、下記の式(3)となる。
[Equation 1] Here, I is a 3 × 3 identity matrix. Further, the coordinate system fixed to the end effector 2 is Σe, and the homogeneous transformation matrix for transforming the data represented on Σs into the data on Σe is Tes. Similarly, let Tbe be a homogeneous transformation matrix for Σb and Σe. Then, the robot base coordinate system Σ
In b, the position / orientation of the measurement point is expressed by the following matrix Tbd: Tbd = Tbe · Tes · Tsd (2) Coordinate system Σ fixed to the end effector
Using the coordinate system Σf fixed to the face plate at the end of the robot arm, which has a fixed relationship with e, the above equation (2)
Is given by the following equation (3).

【0035】 Tbd=Tbf・Tfs・Tsd ・・・(3) ところで、上記した同次変換行列の内、Tbe、あるいは
Tbfはロボットの位置・姿勢データに相当する行列デー
タである。また、Tes、あるいはTfs、即ちレーザセン
サの測定基準位置に固定された座標系Σs とエンドエフ
ェクタあるいはフエイスプレートに固定された座標系Σ
e 、Σf との位置・姿勢関係は、レーザセンサ装置の仕
様書に記載されたデータ等を利用して定めることも一応
は可能である。しかし、より正確な位置教示を行う観点
からは、次のような測定基準位置データ取得の為の教示
作業を実行することが望ましい。
Tbd = Tbf · Tfs · Tsd (3) By the way, among the above-mentioned homogeneous transformation matrices, Tbe or Tbf is matrix data corresponding to the position / orientation data of the robot. Further, Tes or Tfs, that is, the coordinate system Σs fixed to the measurement reference position of the laser sensor and the coordinate system Σ fixed to the end effector or face plate.
The position / orientation relationship with e and Σf can be determined by using the data described in the specifications of the laser sensor device. However, from the viewpoint of more accurate position teaching, it is desirable to perform the following teaching work for acquiring measurement reference position data.

【0036】ロボットとレーザセンサ(一般には、非接
触変位検出装置)の測定基準位置の関係を求める方法に
は種々のものが考えられるが、ここではレーザセンサの
レーザ出力光を空間内の任意の1定点点に4つ以上の異
なる方向から照射し、その際の計測結果を利用して測定
基準位置データを取得し、以後の教示点の計測値rから
直ちにベース座標系Σb で表された教示点位置・姿勢デ
ータTbdを獲得する方法について説明する。先ず、ベー
ス座標系Σb からフェイスプレートを見た位置・姿勢を
表す同次変換行列Tbfの成分構成を考えると次式(4)
のようになる。
Various methods are conceivable for obtaining the relationship between the measurement reference positions of the robot and the laser sensor (generally, non-contact displacement detecting device), but here, the laser output light of the laser sensor is set to an arbitrary value in space. Irradiate one fixed point from four or more different directions, obtain the measurement reference position data by using the measurement results at that time, and immediately teach from the measured value r of the subsequent teaching point in the base coordinate system Σb. A method of acquiring the point position / posture data Tbd will be described. First, considering the component configuration of the homogeneous transformation matrix Tbf representing the position / orientation when the face plate is viewed from the base coordinate system Σb, the following equation (4)
become that way.

【0037】[0037]

【数2】 ここで、Rbfはフェイスプレートの姿勢を表し、pbfは
位置を表した部分に相当している。また、レーザセンサ
出力光の方向に基づいてスポット光Sd の位置・姿勢を
仮に定義し、ベース座標系Σb 及びフェイスプレートに
固定された座標系Σf からみたスポット光Sd の位置・
姿勢を表す同次変換行列をTbd、Tfdとすれば、 Tbf・Tfd=Tbd ・・・(5) であるから、次式(6)が成立することになる。 Rbf・pfd+pbf=pbd ・・・(6) ここで、フェイスプレートから見たレーザセンサ4の測
定基準点S0 の位置をp0 、レーザ出力光の方向の単位
ベクトルをds とすると、S0 Sd 間距離rを使って、
次式(7)が得られる。 pfd=p0 +r・ds ・・・(7) 従って、 Rbf・p0 +r・Rbf・ds +pbf=pbd ・・・(8) となる。これを変形すると、次式(9)を得る。式中I
は、3行3列の単位行列である。
[Equation 2] Here, Rbf represents the posture of the face plate, and pbf corresponds to the portion representing the position. Further, the position / orientation of the spot light Sd is temporarily defined based on the direction of the laser sensor output light, and the position / attitude of the spot light Sd viewed from the base coordinate system Σb and the coordinate system Σf fixed to the face plate is
Letting Tbd and Tfd be homogeneous transformation matrices representing the posture, Tbf · Tfd = Tbd (5), and therefore the following equation (6) is established. Rbf · pfd + pbf = pbd (6) Here, if the position of the measurement reference point S0 of the laser sensor 4 as seen from the face plate is p0 and the unit vector of the direction of the laser output light is ds, the distance r between S0 and Sd Using
The following expression (7) is obtained. pfd = p0 + r * ds ... (7) Therefore, it becomes Rbf * p0 + r * Rbf * ds + pbf = pbd ... (8). By transforming this, the following equation (9) is obtained. In the formula I
Is an identity matrix of 3 rows and 3 columns.

【0038】[0038]

【数3】 さて、ロボットにn個の位置をとらせ、n回の定点照射
を行えば、各回の教示毎に1個のTbf値とr値が得られ
るから、i回目(n=1、2、・・n)の定点照射によ
る教示によって取得されるTbf値とr値を、Tbf(i) 及
びr(i) で表すことにし、行列Aとベクトルx及びbを
次式(10)〜(12)のように定義すると、式(1
3)で表される方程式が得られることになる。
[Equation 3] Now, if the robot takes n positions and performs fixed point irradiation n times, one Tbf value and r value can be obtained for each teaching, so the i-th (n = 1, 2, ... n), the Tbf value and r value acquired by the teaching by the fixed point irradiation are represented by Tbf (i) and r (i), and the matrix A and the vectors x and b are expressed by the following equations (10) to (12). Is defined as
The equation represented by 3) will be obtained.

【0039】[0039]

【数4】 A・x=b ・・・(13) ここで、n≧4とすれば、上記方程式(13)は冗長性
を有する連立方程式になり、その解(最小2乗解)は、
次式(14)で与えられる。 x=(At ・A)ー1・At ・b ・・・(14) 即ち、xの各成分p0 、ds 、pbdが求められたことに
なり、以後のレーザセンサによるスポット光位置Sd の
計測結果rについては、これらp0 、ds の値を前述の
式(7)に代入し、フェイスプレートから見たデータp
fdに変換することが出来ることになる。
[Equation 4] A · x = b (13) Here, if n ≧ 4, the above equation (13) becomes a simultaneous equation with redundancy, and its solution (least squares solution) is
It is given by the following equation (14). x = (A t · A) over 1 · A t · b ··· ( 14) i.e., the components p0, ds of x, will be pbd is determined, the spot light positions Sd by the laser sensor subsequent As for the measurement result r, the values p0 and ds are substituted into the above equation (7), and the data p seen from the face plate is obtained.
It will be possible to convert to fd.

【0040】そこで、以上説明したレーザセンサ測定基
準位置教示プロセスを実行する為の各計算プログラム、
諸設定値をROMメモリ32及び不揮発性メモリ33に
予め格納しておき、ロボットをジョグ送りにより操作し
ながら4回(またはそれ以上の回数)の定点照射を行い
各計測値r1 、r2 、r3 、r4 を獲得・記憶させつ
つ、プログラム計算を実行し、最終的に、rのデータを
与えれば上記式(7)左辺pfdの数値計算が実行可能な
形にしておくことにより、以後の本願発明に従った位置
データ教示が極めて効率的に実行する態勢が整えられ
る。
Therefore, each calculation program for executing the laser sensor measurement reference position teaching process described above,
Various set values are stored in the ROM memory 32 and the non-volatile memory 33 in advance, and fixed point irradiation is performed four times (or more times) while operating the robot by jog feed, and each measured value r1, r2, r3, Program calculation is executed while r4 is acquired and stored, and finally, numerical data of pfd on the left side of the above equation (7) can be executed by giving data of r, thereby making it possible to realize the present invention. The position data teachings that follow are poised to perform very efficiently.

【0041】先ず、位置教示を行なおうとする点にレー
ザ光照射を行い、レーザセンサの出力rを獲得し、式
(7)によってフェイスプレートに固定された座標系Σ
f から見た教示点の位置pfdが得られる。教示点の姿勢
に関しては、予め定められた方式(例えば、ベース座標
系Σb から見たΣf の姿勢Rbfに位置させる方式:ここ
で、RbfはTbfの左上の3×3の回転行列)に従うこと
により、フェイスプレートから見た教示点の位置・姿勢
を表わす行列Tfdが直ちに得られる。
First, a laser beam is irradiated to a point where position teaching is to be performed, the output r of the laser sensor is acquired, and the coordinate system Σ fixed to the face plate by the equation (7).
The position pfd of the teaching point viewed from f is obtained. Regarding the attitude of the teaching point, by following a predetermined method (for example, a method of locating in the attitude Rbf of Σf viewed from the base coordinate system Σb: where Rbf is a 3 × 3 rotation matrix at the upper left of Tbf) , The matrix Tfd representing the position / orientation of the teaching point viewed from the face plate is immediately obtained.

【0042】このTfdとロボットのフェイスプレートを
表わす位置・姿勢データTbfから、式(5)を使って、
ロボットのベース座標系Σb から見た教示点の位置・姿
勢データを得ることが出来る。
From this Tfd and position / orientation data Tbf representing the face plate of the robot, using equation (5),
It is possible to obtain the position / orientation data of the teaching point viewed from the robot base coordinate system Σb.

【0043】従って、最終的には上記説明した手順によ
るレーザセンサ測定基準位置教示作業を通して、式(1
4)を計算してp0 及びds のデータを求め、不揮発性
メモリ33に格納しておくと共に、式(7)及び式
(5)に相当する計算を実行するプログラムをROM3
2にローディングしておくことにより、ワーク6上等に
選定された各教示点データを次々とロボットに教示(不
揮発性メモリ33に格納)することが可能になる。
Therefore, finally, through the work of teaching the laser sensor measurement reference position according to the procedure described above, the formula (1
4) is calculated to obtain p0 and ds data, which are stored in the non-volatile memory 33, and a program for executing the calculations corresponding to the equations (7) and (5) is stored in the ROM 3
By loading the data in No. 2, each teaching point data selected on the work 6 or the like can be taught to the robot one after another (stored in the non-volatile memory 33).

【0044】[0044]

【発明の効果】本願発明によれば、非接触の変位センサ
を用いてロボットアーム先端を教示点から適当な距離離
した状態で位置教示を行うことが出来るので、人的・物
的な事故を起こす恐れが極めて少ない。
According to the present invention, since the position teaching can be performed with the tip of the robot arm being separated from the teaching point by an appropriate distance by using the non-contact displacement sensor, it is possible to prevent a human or physical accident. Very unlikely to cause.

【0045】また、教示位置データの精度がオペレータ
の目分量観測や勘に左右されることが少なくなるので、
非接触変位測定装置の計測精度に見合った高精度の位置
データ教示を行うことが可能になる。特に、レーザセン
サのような光学式変位センサはロボットアームに搭載す
ることが容易であり、また、高い計測精度を有している
から、これをロボットシステムに組み込むことによっ
て、極めて効率的且つ正確な位置教示を遂行することが
可能になる。
Further, since the accuracy of the teaching position data is less likely to be affected by the operator's observation of the eye amount and intuition,
It is possible to teach highly accurate position data that matches the measurement accuracy of the non-contact displacement measuring device. In particular, an optical displacement sensor such as a laser sensor is easy to mount on a robot arm and has high measurement accuracy. Therefore, by incorporating this into a robot system, an extremely efficient and accurate measurement can be achieved. It becomes possible to perform position teaching.

【図面の簡単な説明】[Brief description of drawings]

【図1】本願発明の位置データ教示方法を実施するロボ
ットシステムの全体構成を例示した図である。
FIG. 1 is a diagram illustrating an overall configuration of a robot system that implements a position data teaching method of the present invention.

【図2】図1に示されたロボットシステムを用いて、対
象物であるワーク上に選定された教示点にレーザ出力光
を照射した状態を描いた図である。
FIG. 2 is a diagram illustrating a state in which a laser output light is irradiated to a selected teaching point on a work as an object by using the robot system shown in FIG.

【図3】図1に示したロボットシステムに採用されてい
るレーザセンサ及びレーザセンサコントローラの概略構
成を説明する図である。
FIG. 3 is a diagram illustrating a schematic configuration of a laser sensor and a laser sensor controller used in the robot system shown in FIG.

【符号の説明】[Explanation of symbols]

1 ロボット本体 2 エンドエフェクタ 3 ロボットコントローラ 4 レーザセンサ 5 レーザセンサコントローラ 6 ワーク 7 ロボットアーム 11 レーザビーム 12 教示点 31 中央演算処理装置(CPU) 32 メモリ(ROM) 33 不揮発性メモリ 34 メモリ(RAM) 35 軸制御部 36 サーボ回路 37 インターフェイス 38 教示操作盤 39 バス 41 半導体レーザ(LD) 42 コリメータレンズ 43 投射レンズ 45 集光レンズ 46 位置検出型検出器(PSD) 49 モニタ光検出器 51 レーザ光源駆動回路 52 レーザ出力安定化回路52 53 電流電圧変換回路 54 演算回路 Sd スポット光 1 Robot Main Body 2 End Effector 3 Robot Controller 4 Laser Sensor 5 Laser Sensor Controller 6 Work 7 Robot Arm 11 Laser Beam 12 Teaching Point 31 Central Processing Unit (CPU) 32 Memory (ROM) 33 Nonvolatile Memory 34 Memory (RAM) 35 Axis control unit 36 Servo circuit 37 Interface 38 Teaching operation panel 39 Bus 41 Semiconductor laser (LD) 42 Collimator lens 43 Projection lens 45 Condensing lens 46 Position detection type detector (PSD) 49 Monitor photodetector 51 Laser light source drive circuit 52 Laser output stabilization circuit 52 53 Current-voltage conversion circuit 54 Operation circuit Sd Spot light

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 ロボット本体のアーム先端部に非接触式
変位センシング手段を固定支持する段階と、該非接触式
変位センシング手段に少なくとも1個の教示点のセンシ
ングが可能な変位をとらせる段階と、該非接触式変位セ
ンシング手段により前記少なくとも1個の教示点のセン
シングを実行する段階と、該センシング結果と該センシ
ング時点におけるロボット位置データに基づいて該教示
点の位置データを獲得する段階とを含むロボットにデー
タ教示を行なう方法。
1. A step of fixedly supporting a non-contact type displacement sensing means on an arm tip of a robot body, and a step of causing the non-contact type displacement sensing means to make a displacement capable of sensing at least one teaching point. A robot including a step of performing sensing of the at least one teaching point by the non-contact displacement sensing means, and a step of acquiring position data of the teaching point based on the sensing result and robot position data at the time of the sensing. Method to teach data to.
【請求項2】 前記非接触式変位センシング手段として
光学式変位センサ装置を使用することを特徴とする請求
項1に記載されたロボットにデータ教示を行なう方法。
2. The method for teaching data to a robot according to claim 1, wherein an optical displacement sensor device is used as the non-contact displacement sensing means.
【請求項3】 ロボット本体と、少なくとも該ロボット
を制御するロボットコントローラと、前記ロボット本体
のアーム先端部に固定支持された非接触式変位センシン
グ手段と、該非接触式変位センシング手段による教示点
センシング結果と該センシング時点におけるロボット位
置データに基づいて該教示点の位置データを獲得する手
段とを有するロボット装置。
3. A robot body, a robot controller for controlling at least the robot, a non-contact type displacement sensing means fixedly supported by an arm tip portion of the robot body, and a teaching point sensing result by the non-contact type displacement sensing means. And a means for acquiring the position data of the teaching point based on the robot position data at the time of the sensing.
【請求項4】 前記非接触式変位センシング手段がレー
ザ光源素子と、該レーザ光源素子の出力光を被検対象物
に入射させる光学系と、位置検出型の光検出器と、該位
置検出型光検出器に前記被検対象物からの反射光を入射
させる光学系とを有するレーザセンサ手段を含むレーザ
センサ装置であることを特徴とする請求項3に記載され
たロボット装置。
4. The non-contact type displacement sensing means, a laser light source element, an optical system for making output light of the laser light source element incident on an object to be inspected, a position detection type photodetector, and the position detection type. 4. The robot apparatus according to claim 3, wherein the laser sensor apparatus includes a laser sensor unit having an optical system that causes reflected light from the object to be inspected to enter a photodetector.
JP16752893A 1993-06-14 1993-06-14 Method for teaching data to robot and robot device Pending JPH0768481A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16752893A JPH0768481A (en) 1993-06-14 1993-06-14 Method for teaching data to robot and robot device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16752893A JPH0768481A (en) 1993-06-14 1993-06-14 Method for teaching data to robot and robot device

Publications (1)

Publication Number Publication Date
JPH0768481A true JPH0768481A (en) 1995-03-14

Family

ID=15851370

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16752893A Pending JPH0768481A (en) 1993-06-14 1993-06-14 Method for teaching data to robot and robot device

Country Status (1)

Country Link
JP (1) JPH0768481A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7198664B2 (en) 2004-07-29 2007-04-03 Canon Kabushiki Kaisha Ink jet black ink, ink set, ink jet recording method, ink cartridge, recording unit, and ink jet recording apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7198664B2 (en) 2004-07-29 2007-04-03 Canon Kabushiki Kaisha Ink jet black ink, ink set, ink jet recording method, ink cartridge, recording unit, and ink jet recording apparatus

Similar Documents

Publication Publication Date Title
CN107891414B (en) Robot system
JP3556589B2 (en) Position and orientation recognition device
JP3300682B2 (en) Robot device with image processing function
US10107618B2 (en) Coordinate measuring machine
US20080252248A1 (en) Device and Method for Calibrating the Center Point of a Tool Mounted on a Robot by Means of a Camera
JP6900290B2 (en) Robot system
US10189161B2 (en) Calibration system and calibration method calibrating mechanical parameters of wrist part of robot
CN109648603B (en) Measuring system
US20050201424A1 (en) Method and system for acquiring delivery position data of carrying apparatus
JP2000288968A (en) Teaching model producing device
JP6869159B2 (en) Robot system
CN115335181A (en) Method and processing machine for determining the orientation of a workpiece by means of OCT
JP3062412B2 (en) Scanning measurement control method
JP3402990B2 (en) CMM
JP2004114203A (en) Apparatus for measuring profile of workpiece and profile measuring system using the same
JP2016182648A (en) Robot, robot control device and robot system
JPH0768481A (en) Method for teaching data to robot and robot device
JP4557848B2 (en) Shape measuring method and shape measuring apparatus
JP2004163346A (en) Noncontact three-dimensional shape measuring device
US20230278196A1 (en) Robot system
JP2000326082A (en) Laser beam machine
JP2000193429A (en) Shape measuring device
US20240083022A1 (en) Teaching tool, and teaching device for using operator's hand to set teaching point
JPH0821722A (en) Method and equipment for measuring shape
JP2019100899A (en) Laser device and measurement system