JPH01283603A - Robot off-line teaching system - Google Patents

Robot off-line teaching system

Info

Publication number
JPH01283603A
JPH01283603A JP11259988A JP11259988A JPH01283603A JP H01283603 A JPH01283603 A JP H01283603A JP 11259988 A JP11259988 A JP 11259988A JP 11259988 A JP11259988 A JP 11259988A JP H01283603 A JPH01283603 A JP H01283603A
Authority
JP
Japan
Prior art keywords
coordinate system
robot
point
teaching
work
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11259988A
Other languages
Japanese (ja)
Inventor
Shinsuke Sakakibara
伸介 榊原
Yoshiharu Nagatsuka
嘉治 長塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP11259988A priority Critical patent/JPH01283603A/en
Publication of JPH01283603A publication Critical patent/JPH01283603A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To simply input an attitude of a robot by approximating a work of a work object by a polyhedron, defining a local coordinate system on the specified surface and teaching a work point on a graphic display screen. CONSTITUTION:A work 1 which has been approximated by a polyhedron is brought to picture drawing on a graphic display screen of an off-line programming device, three apexes for constituting the surface F for allowing a robot to execute a work, that is, the surface F for designating a work point are designated and specified, and a local coordinate system L on this surface F is also defined by a prescribed method. Subsequently, when teaching is executed by designating the work point on the specified surface F, this teaching point P is converted to a world coordinate system W being a common coordinate system of the robot and the work by an inverse matrix of a transformation matrix in which a graphic display device has converted a three-dimensional image to a two-dimensional screen coordinate system S on the screen. Also, said point is converted from the world coordinate system W to a local coordinate system L, and an attitude of the robot is defined by the local coordinate system L on the designated surface. In such a way, the attitude of the robot can be inputted simply.

Description

【発明の詳細な説明】 産業上の利用分野 本発明は、グラフィックディスプレイ装置を利用しCロ
ボットの姿勢を教示するロボットオフラインティーチン
グ方式に関する。
DETAILED DESCRIPTION OF THE INVENTION Field of the Invention The present invention relates to a robot offline teaching method for teaching the posture of a C robot using a graphic display device.

従来の技術 ロボットのオフラインティーチング方式は、ロボットの
導入ラインとは別な場所で、ロボットへの教示データ、
即ら教示ブ[1グラムを作成するものであるが、ロボッ
ト自体を動かすことなく、グラフィックディスプレイ装
置を利用してロボットに任意の姿勢をとらせることは、
かなり困難なことで、従来は、ロボットに姿勢をとらせ
るために、ロボットの姿勢データ、即ち、直交座標系に
おけるツール先端点の座標値X、Y、Zとツール(ツー
ル座標系)の傾き(W、P、R)を手動で入力するか、
又は、ロボットの各軸の値、例えば6軸のロボットであ
ると、6軸の各軸の値(θ、W。
In the conventional offline teaching method for technological robots, teaching data to the robot is transmitted to a location separate from the robot introduction line.
In other words, the teaching program [1 gram] is created, but it is difficult to make the robot take any posture using a graphic display device without moving the robot itself.
This is quite difficult, and conventionally, in order to make the robot take a posture, the robot's posture data, that is, the coordinate values X, Y, Z of the tool tip point in the Cartesian coordinate system and the inclination (of the tool (tool coordinate system)) W, P, R) manually, or
Or, the value of each axis of the robot, for example, if the robot has 6 axes, the value of each of the 6 axes (θ, W.

U、Y、β、α)を手動で入力していた。そのため、結
局人間が手計算によってロボットの姿勢を求めて教示デ
ータを作成する場合が多い。
U, Y, β, α) were entered manually. Therefore, in many cases, humans end up calculating the robot's posture by hand to create teaching data.

発明が解決しようとする課題 ツール先端点の座標値とツールの傾きによってロボット
の姿勢(X、Y、Z、W、P、R>を入力する方法や、
ロボットの各軸(θ、W、U、Y。
Problems to be Solved by the Invention There is a method of inputting the robot's posture (X, Y, Z, W, P, R>) based on the coordinate values of the tip point of the tool and the inclination of the tool.
Each axis of the robot (θ, W, U, Y.

β、α)を入力する方法では、教示データを作成するオ
ペレータにとって負担が大きく、教示データ作成に多大
/2時間を要する。
The method of inputting .beta., .alpha.) places a heavy burden on the operator who creates the teaching data, and takes a long time/2 hours to create the teaching data.

そこで、本発明の目的は、グラフィックディスプレイ装
置を使用して、ロボットの姿勢を簡単に入力できるオフ
ラインティーチング方式を提供することにある。
SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an offline teaching method that allows the robot's posture to be easily input using a graphic display device.

特に、スポット溶接等のロボットの作業点の教示に適し
たオフラインティーチング方式を提供することにある。
In particular, it is an object of the present invention to provide an offline teaching method suitable for teaching robot work points such as spot welding.

課題を解決するための手段 上記目的を達成するために、本発明のロボットオフライ
ンティーチング方式は、ロボットの作業対象のワークを
多面体で近似し、各面の頂点及び辺のデータを予めオフ
ラインプログラミング装置に記憶させておき、グラフィ
ックディスプレイ画面上に上記ワークを表示させて、作
業点を指定する而を部面を構成する3つの頂点をグラフ
ィックディスプレイ画面上で指定することにより面を特
定すると共に、該特定された面におけるローカル座標系
を定義し、該特定された面上におけるロボットの作業点
をグラフィックディスプレイ画面上で教示し、該教示さ
れたロボットの作業点を画面座標系から上記ローカル座
標系に変換することによってロボットの姿勢を教示する
ようにしたものである。
Means for Solving the Problems In order to achieve the above object, the robot offline teaching method of the present invention approximates the workpiece to be operated by the robot as a polyhedron, and stores the data of the vertices and sides of each surface in advance in an offline programming device. The above-mentioned workpiece is memorized, and the work point is specified by displaying the workpiece on the graphic display screen.The surface is specified by specifying the three vertices constituting the part on the graphic display screen, and the specified point is specified. define a local coordinate system on the specified surface, teach the robot's working point on the specified surface on the graphic display screen, and convert the taught robot's working point from the screen coordinate system to the local coordinate system. By doing this, the robot's posture is taught.

作用 オフラインプログラミング装置のグラフィックディスプ
レイ画面上に多面体で近似されたワークを描画させ、ロ
ボットに作業させようとする面、即ち、作業点を指定す
る面を構成する3つの頂点をグラフィックアイスプレイ
画面上で指定することにより特定し、かつ、部面におけ
るローカル座標系をも所定の決められた方法により定f
iでる。
Action Draw a workpiece approximated by a polyhedron on the graphic display screen of the offline programming device, and draw the three vertices constituting the surface on which the robot is to work, that is, the surface on which the work point is specified, on the graphic eye play screen. The local coordinate system of the part is also determined by a predetermined method.
I'm out.

そして、該特定した面上に作業点を指定して教示すれば
、該教示点は、グラフィックディスプレイ装置が三次元
画像を画面上の二次元の画面座標系に変換した変換行列
の逆行列により、ロボットとワークの共通座標系である
ワールド座標系に変換し、さらに、ワールド座標系から
上記ローカル座標系に変換し、ロボットの姿勢は指定さ
れた面上のローカル座標系で定義されることとなる。
Then, when a work point is designated and taught on the specified surface, the teaching point is determined by the inverse matrix of the transformation matrix by which the graphic display device transforms the three-dimensional image into the two-dimensional screen coordinate system on the screen. Convert to the world coordinate system, which is a common coordinate system for the robot and workpiece, and then convert from the world coordinate system to the above local coordinate system, and the robot's posture will be defined in the local coordinate system on the specified surface. .

実施例 第2図は、本発明の一実施例を実施するオフラインプロ
グラミング装置の要部ブロック図で、10は該オフライ
ンプログラミング装置の処理を実行する中央処理装置(
以下、CPUという)で、該cPtJ10には、該オフ
ラインプログラミング装置を制御する制御プログラムが
格納されているROM11.データの一時記憶や演算処
理のためのデータ記憶に利用されるRAM12.後述す
る座標変換のための行列式の演算を行うための浮動小数
点演算用ブロセッ丈13.入出力ボート14゜ハードデ
ィスクコントローラ15.フレームバッファを有し、画
像の画面位置を記憶する表示用メモリ16がパス17で
接続されている。また、必要に応じて拡張用RAM18
.拡張用ROM19が該バス17に接続される。入出力
ボート14には、各種指令キーや数字キーを有するキー
ボード20及びグラフィックディスプレイ画面上のカー
ソルを移動させ画面上の位置を教示するためのマウス2
1が接続され、また、R3−2320のインターフェイ
ス端子を介して、ロボット制御装置に接続されるように
なっている。
Embodiment FIG. 2 is a block diagram of main parts of an offline programming device that implements an embodiment of the present invention, and 10 is a central processing unit (10) that executes processing of the offline programming device.
(hereinafter referred to as a CPU), the cPtJ10 has a ROM11. RAM 12 used for temporary data storage and data storage for arithmetic processing. 13. Floating-point calculation block length for calculating determinants for coordinate transformation to be described later. Input/output board 14° hard disk controller 15. A display memory 16 having a frame buffer and storing the screen position of an image is connected by a path 17. In addition, if necessary, expandable RAM18
.. An expansion ROM 19 is connected to the bus 17. The input/output board 14 includes a keyboard 20 having various command keys and numerical keys, and a mouse 2 for moving a cursor on a graphic display screen and teaching the position on the screen.
1 is connected, and is also connected to the robot control device via the interface terminal of R3-2320.

また、ハードディスクコントローラ15には、該オフラ
インプログラミング装置によって、ロボットの動作プロ
グラムを作成しようとするロボットの作業対象である車
のボデー等のワークの形状アークが予め格納され、また
、教示データが格納されるハードディスク22が接続さ
れている。
Further, the hard disk controller 15 stores in advance, by the off-line programming device, the shape arc of a workpiece such as a car body, which is the work target of the robot for which the robot's operation program is to be created, and also stores teaching data. A hard disk 22 is connected thereto.

該ハードディスク22に格納されたワークの形状データ
はワーク形状を多面体近似した境界表現(Bounda
ry−Representation )形式のデータ
で格納されており、各面を構成する頂点と辺及び面の法
線ベクトルのデータがロボットとワークの共通座標系で
あるワールド座標系に基づいて格納されている。
The workpiece shape data stored in the hard disk 22 is a boundary representation (Bounda) that approximates the workpiece shape as a polyhedron.
ry-Representation) format, and the data of the vertices and edges constituting each surface and the normal vector of the surface are stored based on the world coordinate system, which is a common coordinate system of the robot and the workpiece.

一方、表示用メモリ16にはグラフィックディスプレイ
装置のCRT制御装置22に接続され、CRT il制
御装置22にはワークの画像及び教示した点の座標位置
データ等を表示するC RT表示装置23が接続されて
いる。
On the other hand, the display memory 16 is connected to a CRT control device 22 of a graphic display device, and the CRT il control device 22 is connected to a CRT display device 23 that displays an image of the workpiece and coordinate position data of the taught point. ing.

以上の構成において、キーボード20を操作し、教示モ
ードにすると、CPU10はハードディスクコントロー
ラ15を介してハードディスク22からワーク形状デー
タを読取り、透視投影変換perあるいは平行投影変換
Pa1等の三次元データを二次元データに変換する変換
処理を行って、ワーク形状を二次元データに変換し表示
用メモリ16に格納する。CRT it、11 tll
装置22は該表示用メモリ16よりワーク画像データを
読取り、CR1表示装置20に描画する。
In the above configuration, when the keyboard 20 is operated to enter the teaching mode, the CPU 10 reads workpiece shape data from the hard disk 22 via the hard disk controller 15, and converts three-dimensional data such as perspective projection transformation per or parallel projection transformation Pa1 into two-dimensional data. A conversion process is performed to convert the workpiece shape into two-dimensional data, and the data is stored in the display memory 16. CRT it, 11 tll
The device 22 reads the work image data from the display memory 16 and draws it on the CR1 display device 20.

そこで、まず、本実施例における、作業点を教示するた
めの面の指定及びローカル座標系の定義及び作業点の教
示原理について説明する。
First, the designation of a plane for teaching a work point, the definition of a local coordinate system, and the principle of teaching a work point in this embodiment will be explained.

例えば、ワークの形状を第1図に示すような直方体とす
ると、該直方体の各面は、各面を構成する頂点と辺のデ
ータがハードディスク22に記憶されており、このワー
ク形状をグラフィックディスプレイ画面上に描画させ、
作業点を教示する面を、例えば、頂点V1.V2.V3
とこの順でマウスでビックすると、該3つの頂点V1.
V2゜■3を構成する面Fが特定される。そして、本実
施例では、而を特定するために最初にビックした点■1
をローカル座標系りの原点として予め決めており、最初
にビックした点V1と次にビックした点V2を結ぶ辺を
ローカル座標系りのY軸、また、特定した面の法線ベク
トルをZ軸、X軸をY軸ベクトルとZ軸ベクトルの外積
ぐ得られる方向、即ち、右手系によってローカル座標系
りを定義し、上記3つの頂点V1.V2.V3より次の
各式によってローカル座標系L (XL 、 YL 、
 ZL )が得られる。
For example, if the shape of the workpiece is a rectangular parallelepiped as shown in FIG. Draw on top,
For example, the surface for teaching the work point is set to the vertex V1. V2. V3
When you click with the mouse in this order, the three vertices V1.
The plane F that constitutes V2°■3 is specified. In this example, the first point that was surprised in order to identify the
is predetermined as the origin of the local coordinate system, and the side connecting the first start point V1 and the second start point V2 is the Y axis of the local coordinate system, and the normal vector of the identified surface is the Z axis. , the direction obtained by multiplying the X-axis by the Y-axis vector and the Z-axis vector, that is, the local coordinate system is defined by the right-handed system, and the above three vertices V1. V2. From V3, the local coordinate system L (XL, YL,
ZL ) is obtained.

(N:面Fの法線ベクトル) 原点: ■1           ・・・・・・(4
)なお、本実施例では、面Fを特定するために最初にビ
ックした頂点位置をローカル座標系L (XL 、 Y
L、 ZL )(7)原点とし、Y軸方向を最初にビッ
クした頂点■1から次にビックした頂点V2方向とした
が、必ずしも、このような定義ではなくてもよく、例え
ば、2番目にビックした頂点■2を原点としてもよく、
また、ビックした頂点V1.V2.V3の内どれを原点
にするか再度入力するようにしてもよい。また、特定し
た面の法線方向をローカル座標系りの1つの軸とし、他
の1つの軸をビックした頂点の2つの頂点を結ぶベクト
ル方向として定義し、もう1つの軸は、こうして決めら
れた2つの軸に対し右手系になるように決めればよい。
(N: Normal vector of surface F) Origin: ■1 ・・・・・・(4
) In this example, in order to specify the surface F, the position of the vertex that is first surprised is expressed in the local coordinate system L (XL, Y
L, ZL ) (7) The origin was set as the origin, and the Y-axis direction was defined as the direction from the first startled vertex ■1 to the next startled vertex V2, but it does not necessarily have to be defined like this. For example, the second You can use the surprised vertex ■2 as the origin,
Also, the surprised vertex V1. V2. It is also possible to input again which of V3 should be the origin. In addition, the normal direction of the identified surface is defined as one axis of the local coordinate system, and the other axis is defined as the vector direction connecting the two vertices of the startled vertex, and the other axis is determined in this way. It is only necessary to determine the right-handed system for the two axes.

こうして、作業点を教示する面Fと部面Fにおけるロー
カル座標系を決めた後、該面F上の作業点をマウス21
でビックして教示する。この教示点Pの画面座標系S 
(Xs、Ys)における位置をPs (x、y)とする
と、この二次元の画面座標系Sでの教示点Ps (x、
y)を、ロボットとワークとの共通座標系である三次元
のワールド座標系(ワークを多面体で近似した各面の頂
点、辺のデータはこのワールド座標系によって定義され
ている)に変換する。この場合、本オフラインプログラ
ミング装置がワークを二次元で表示するためにワークの
三次元データを画面座標系Sの二次元データに変換する
ために採用している方式が、透視投影変換Perか、ま
たは、平行投影変換Pa1等の変換方式に応じて、オフ
ラインプログラミング装置が採用している変換方式変換
行列の逆行列によって、ビックされた画面座標系におけ
る教示点Ps (x、y)をワールド座標系Wの教示点
Pw(x、y、z)に変換する。即ら、次式によって変
換される。
In this way, after determining the local coordinate system on the plane F and the part F where the work point is to be taught, the work point on the plane F is set using the mouse 21.
I'll surprise you and teach you. Screen coordinate system S of this teaching point P
If the position at (Xs, Ys) is Ps (x, y), then the teaching point Ps (x, y) in this two-dimensional screen coordinate system S is
y) into a three-dimensional world coordinate system that is a common coordinate system between the robot and the workpiece (the data of the vertices and sides of each surface of the workpiece approximated by a polyhedron are defined by this world coordinate system). In this case, the method adopted by this offline programming device to convert the three-dimensional data of the workpiece into two-dimensional data of the screen coordinate system S in order to display the workpiece two-dimensionally is perspective projection transformation Per, or , parallel projection transformation Pa1, etc., the teaching point Ps (x, y) in the surprised screen coordinate system is transformed into the world coordinate system W by the inverse matrix of the transformation matrix adopted by the offline programming device. is converted into a teaching point Pw (x, y, z). That is, it is converted by the following equation.

透視投影変換perの場合 Pw(x、y、z)=Per−’Ps (x、y)・・
・・・・(5) 平行投影変換Pa1の場合 Pw(x、y、7)=PaJ−1Ps (x、y)・・
・・・・(6) 次に、ローカル座標系りからワールド座標系Wへの変換
行列をMとするとくこの変換行列Mは上記第(1)〜(
4)式の定義から導びかれる)、教示点Pのローカル座
標系りの座標位置は次式で導びかれる。
In the case of perspective projection transformation per, Pw (x, y, z) = Per-'Ps (x, y)...
...(5) In case of parallel projection transformation Pa1, Pw (x, y, 7) = PaJ-1Ps (x, y)...
...(6) Next, let M be the transformation matrix from the local coordinate system to the world coordinate system W. This transformation matrix M is expressed by the above (1) to (
4) The coordinate position of the teaching point P in the local coordinate system is derived from the following equation.

PL(x、y、z)=M”Pw(x、y、z)・・・・
・・(7) かくして、特定した而Fと法面Fのローカル座標系りの
座標位11PL(X、V、Z)によって指定した作業点
のツール先端点の位置が決定される。
PL (x, y, z) = M”Pw (x, y, z)...
(7) In this way, the position of the tool tip point of the specified work point is determined by the coordinate position 11PL (X, V, Z) in the local coordinate system of the specified point F and the slope F.

また、ツールの傾き(W、r’、R)は、ローカル座標
系りの座標軸と同じ(W、P、R)= (0゜0.0)
とすれば、教示点Pのロボット姿勢はPL(x、y、z
、O,O,O)として教示され、該姿勢データPL(x
、 y、z、O,O,O)はCRT表示装置23の画面
に表示される。
Also, the inclination of the tool (W, r', R) is the same as the coordinate axes of the local coordinate system (W, P, R) = (0°0.0)
Then, the robot posture at teaching point P is PL(x, y, z
, O, O, O), and the posture data PL(x
, y, z, O, O, O) are displayed on the screen of the CRT display device 23.

特に、ロボットの作業がスポット溶接のようなツールの
2つの指で作業を行う場合には、指間の方向をy軸、即
ち、ワークの面の法線1ノ向にすれば、ツールの傾きを
表すパラメータ(W、P、R)のy軸まわりの回転量を
表すRの値のみを教示するのみでよい。例えば、第4図
に示すような2つの指31.32を有するツール30で
、法相31゜32で作業を行う場合、該指31.32間
のアプローチベクトル百方向をZ軸方向とすればよい。
In particular, when a robot works with two fingers of a tool such as spot welding, if the direction between the fingers is aligned with the y-axis, that is, the direction of the normal to the surface of the workpiece, the inclination of the tool can be adjusted. It is only necessary to teach the value of R, which represents the amount of rotation of the parameters (W, P, R) around the y-axis. For example, when working with a tool 30 having two fingers 31 and 32 as shown in FIG. 4 at a legal angle of 31° and 32, the direction of the approach vector between the fingers 31 and 32 may be set as the Z-axis direction. .

なお、第4図おいて、σはオリエンデージョンベクトル
、百はノーマルベクトルを表し、Tはツール先端点の位
置ベクトルである。
In FIG. 4, σ represents the orientation vector, 100 represents the normal vector, and T represents the position vector of the tool tip point.

次に、本実施例における教示処理について第3図(a)
、(b)の処理フローチャートと共に説明する。
Next, FIG. 3(a) shows the teaching process in this embodiment.
, (b) together with the processing flowchart.

前述したように、教示モードにするとCPU10はハー
ドfイスク22からワークデータを読取り二次元データ
に変換し、表示用メモリに該二次元データを格納し、C
RT表示装画23の画面にワーク形状を描画させる。そ
して、指標iを「0」にセットしくステップS1)、マ
ウス21からビック入力が有るか否か判断しており(ス
テップS2)、オペレータが、作業点を教示するための
面を指定するためにマウス21を操作し、CRT画面上
のカーソルを移動させ、指定しようとする面の1つの頂
点(例えば第1図のVL以下、第1図の例を参照しなが
ら説明する)にカーソルを合せ、マウス21のボタンを
操作し、頂点v1をビックすると、ビックされた座標値
、即ち、画面座標系Sにおける頂点v1の座標値(x、
y)をレジスタRi(=Ro)に格納する(ステップS
3)。次に指標iが「2」であるか否か判断しくステッ
プ34)、「2」でなければ指Fiiをインクリメント
しくステップS5)、再びステップS2に戻り、次のビ
ック入力があるか否か判断し、ビック入力があればその
ビック点の座標値をレジスタRiに格納する。かくして
、3つの頂点■1゜V2.V3がビックされ、指標iが
「2」になると、レジスタRO,R1,R2に格納され
た頂点座標系によって而Fを構成する面があるか否か、
表示用メモリ16に格納されているデータより判断しく
ステップS6)、誤ってビックされ、そのような面がな
ければCRT画面上に面が特定できない旨を表示すると
共に、レジスタRO〜R2をクリアしくステップS7)
、再びステップS1に戻り、面を特定する処理を行う。
As mentioned above, when the teaching mode is set, the CPU 10 reads the work data from the hard disk 22, converts it into two-dimensional data, stores the two-dimensional data in the display memory, and
A workpiece shape is drawn on the screen of the RT display 23. Then, the index i is set to "0" (Step S1), and it is determined whether there is a big input from the mouse 21 (Step S2). Operate the mouse 21 to move the cursor on the CRT screen and place the cursor on one vertex of the surface to be specified (for example, below VL in FIG. 1, this will be explained with reference to the example in FIG. 1). When the button of the mouse 21 is operated to start the vertex v1, the checked coordinate value, that is, the coordinate value of the vertex v1 in the screen coordinate system S (x,
y) in register Ri (=Ro) (step S
3). Next, it is determined whether the index i is "2" (step 34), and if it is not "2", the finger Fii is incremented (step S5), and the process returns to step S2 again to determine whether there is the next big input. If there is a big input, the coordinate value of the big point is stored in the register Ri. Thus, the three vertices ■1°V2. When V3 is surprised and the index i becomes "2", it is determined whether there is a surface that constitutes F according to the vertex coordinate system stored in registers RO, R1, and R2.
Judging from the data stored in the display memory 16 (step S6), if there is an erroneously surprised surface and there is no such surface, a message indicating that the surface cannot be identified is displayed on the CRT screen, and the registers RO to R2 are cleared. Step S7)
, returns to step S1 again and performs the process of specifying the surface.

かくして、面Fが特定されると、最初にビックされた頂
点■1を原点とし、該頂点V1から2番目にビックされ
た頂点V2への単位ベクトルをy軸、特定された面Fの
法線方向を7@及び右手系で決まる方向をX軸、即ち、
第(1)〜第(4)式で示す処理によってローカル座標
系しも決定する。
In this way, when the surface F is specified, the origin is the first picked vertex 1, the unit vector from the vertex V1 to the second picked vertex V2 is the y-axis, and the normal to the specified surface F. The direction is 7@ and the direction determined by the right-handed system is the X axis, that is,
The local coordinate system is also determined by the processing shown in equations (1) to (4).

そして、CPU10は特定された面F上の点がビックさ
れたか否か判断しくステップS8)、オペレータが希望
する作業点を教示点Pとしてビックすると、CPU10
は、浮動小数点演算用プロセッサ13に画面座標系にお
けるビック点ps(x、y)をワールド座標系Wの位置
pw(x。
Then, the CPU 10 judges whether or not the point on the specified plane F has been surprised (step S8). When the operator has surprised the desired work point as the teaching point P, the CPU 10
The floating point processor 13 converts the big point ps (x, y) in the screen coordinate system to the position pw (x, y) in the world coordinate system W.

y、z)に変換するよう指令を出し、浮動小数点演算用
プロセッサ13はまず本オフラインプログラミング装置
が採用している三次元から二次元への変換行列の逆行列
により、画面座標系のビック点PS (X、V)をワー
ルド座ね系の教示点pw(x、y、z)に変換する。即
ち、透視投影変換perであれば第(5)式の演韓を行
うことにより、また、平行投影変換Pa1であれば第(
6)式の演Ωを行うことにより、ビック点である教示点
ps(x、y)をワールド座標系の点PW(X、’l/
y, z), and the floating point arithmetic processor 13 first converts the big point PS in the screen coordinate system using the inverse matrix of the three-dimensional to two-dimensional transformation matrix adopted by this offline programming device. (X, V) is converted into a teaching point pw (x, y, z) of the world coordinate system. That is, if it is a perspective projection transformation per, then by performing the equation (5), and if it is a parallel projection transformation Pa1, it can be
By performing the operation Ω of equation 6), the teaching point ps (x, y), which is the big point, is transformed into the point PW (X, 'l/
.

2)に変換する。そして、このワールド座標系における
教示点pw(x、y、z)を第(7)式の演算を行って
ローカル座標系における教示点pL(X。
Convert to 2). Then, the teaching point pW (x, y, z) in the world coordinate system is computed according to equation (7), and the teaching point pL (X) in the local coordinate system is calculated.

y、z)を求める(ステップ89)、CPU10は、浮
動小数点部枠用プロセッサ13の処理によって得られた
ローカル座標系の教示点PL(X、V。
y, z) (step 89), the CPU 10 calculates the teaching point PL(X, V.

Z)を表示用メモリに書込み、この教示点におけるロボ
ットの姿勢のデータをCRT画面上に表示する(ステッ
プ510)。なお、このときツール姿勢を表わす(W、
P、R)は、ローカル座標系りの座標軸と同じとして、
[1ボツト姿勢データはPL(x、y、z、O,O,O
)が表示される。そして、CRT画面上に「姿勢データ
修正するか」といった旨の表示を行い(ステップ511
)、オペレータがキーボード20よりrYEsJと入力
すれば(ステップ512)、指定面Fのデータと姿勢デ
ータPL(x、y、z、W、P、R)をハードディスク
22に格納する(ステップ$15)。
Z) is written in the display memory, and the data of the robot's posture at this teaching point is displayed on the CRT screen (step 510). In addition, at this time, the tool posture is represented (W,
P, R) are the same as the coordinate axes of the local coordinate system,
[1bot posture data is PL (x, y, z, O, O, O
) is displayed. Then, the message "Do you want to correct the posture data?" is displayed on the CRT screen (step 511).
), when the operator inputs rYEsJ from the keyboard 20 (step 512), the data of the designated plane F and the posture data PL (x, y, z, W, P, R) are stored in the hard disk 22 (step $15). .

又、ステップ812でrNOJと入力されると、痛止終
了指令が入力されるまでオペレータがキーボード20を
操作して入力される指令に応じて、ロボット姿勢のデー
タPL(x、V、z、W、P。
Further, when rNOJ is input in step 812, the robot posture data PL (x, V, z, W ,P.

R)の修正を行い(ステップ313.14)、修正終了
指令が入力されると、該姿勢f−夕と指定面のデータを
ハードディスクに格納する。このデータの修正は、ツー
ル姿勢のパラメータw、p。
R) is corrected (step 313.14), and when a correction end command is input, the data of the attitude f and the specified plane are stored in the hard disk. This data is modified by changing the tool posture parameters w and p.

R(スポット溶接等においては前述したようにRのみで
、W、Pは「0」のままにされる)を変えたり、または
、すでに同一指定面に教示点が教示されていてその教示
点と整合させるため、例えば、教示点がローカル座標系
のY軸に平行に移動するような場合は、X軸の値はどの
教示点においても同じ値になるべきであるが、ビックさ
れた位置がずれて同一とならなかった場合等にこのX@
の値を修正する。
R (for spot welding, etc., as mentioned above, only R and W and P are left as "0"), or if a teaching point has already been taught on the same designated surface and that teaching point For example, if the teaching point moves parallel to the Y-axis of the local coordinate system, the value of the X-axis should be the same at all teaching points, but the start position may be shifted. If they are not the same, use this
Correct the value of .

そして、CPU10はCRT画面上に同一指定面上に続
けて作業点を教示するかといった旨のメツセージを表示
しくステップ816)、オペレータがrYEsJと入力
すれば(ステップ517)、ステップS8に移行し、ス
テップ88〜S16の処理を行い、また、「NO」と入
力すれば1つの面Fへの作業点教示を終了し、教示モー
ドが切換えられなければ、再びステップS1からの処理
を開始する。
Then, the CPU 10 displays a message on the CRT screen asking whether to continue teaching work points on the same designated surface (step 816). If the operator inputs rYEsJ (step 517), the process moves to step S8, Steps 88 to S16 are performed, and if "NO" is input, the work point teaching for one surface F is completed, and if the teaching mode is not switched, the processing starts again from step S1.

以上のようにして、ロボットの姿勢は順次教示され、オ
フラインで簡単に教示プログラムを作成することができ
る。
As described above, the posture of the robot is taught sequentially, and a teaching program can be easily created offline.

なお、CRT画面上の位置を、本実施例ではマウスを使
用して教示するようにしたが、カーソルを移動させてカ
ーソル位置を教示する他の手段でもよく、例えば、ライ
トペンを用いて教示するようにしてもよい。
Although the mouse is used to teach the position on the CRT screen in this embodiment, other means of teaching the cursor position by moving the cursor may also be used; for example, a light pen may be used to teach the position on the CRT screen. You can do it like this.

発明の効果 オフラインでロボット姿勢を教示する場合、本発明は簡
単にロボット姿勢を入力できるから、オフラインプログ
ラミング作成が容易となる。特に、本発明においては、
スポット溶接等のように、ツールの作業方向がワーク面
に垂直なロボット作業の教示に最適である。
Effects of the Invention When teaching the robot posture off-line, the present invention allows easy input of the robot posture, making it easy to create offline programming. In particular, in the present invention,
It is ideal for teaching robot work such as spot welding, where the working direction of the tool is perpendicular to the work surface.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の作業面の指定、ローカル座標系の定義
、作業点の教示原理を説明する説明図、第2図は本発明
の一実施例を実施するオフラインプログラミングgiM
の要部ブロック図、第3図(a)、(b)は同実施例に
おけるロボット姿勢教示処理のフローチャート、第4図
は本発明のディーヂング方式に適したツールの説明図で
ある。 1・・・ワーク、F・・・面、Vl、V2.V3・・・
頂点、L (XL 、 YL 、 ZL )・・・ロー
カル座標系、S (Xs、Ys)・・・画面座標系、W
 (XW、YW、ZW)・・・ワールド座標系。 特許出願人  ファナック株式会社 代 理 人 弁理士 竹本松司 (ばか2名) 第10 一 第 3 図(0) 第 3 図fbl
Fig. 1 is an explanatory diagram illustrating the principle of specifying a work plane, defining a local coordinate system, and teaching a work point according to the present invention, and Fig. 2 is an offline programming giM implementing an embodiment of the present invention.
3(a) and 3(b) are flowcharts of the robot posture teaching process in the same embodiment, and FIG. 4 is an explanatory diagram of a tool suitable for the deeding method of the present invention. 1... Work, F... Surface, Vl, V2. V3...
Vertex, L (XL, YL, ZL)... Local coordinate system, S (Xs, Ys)... Screen coordinate system, W
(XW, YW, ZW)...World coordinate system. Patent applicant Fanuc Co., Ltd. Agent Patent attorney Matsushi Takemoto (2 idiots) No. 10-1 Fig. 3 (0) Fig. 3 fbl

Claims (1)

【特許請求の範囲】[Claims] ロボットの作業対象のワークを多面体で近似し、各面の
頂点及び辺のデータを予めオフラインプログラミング装
置に記憶させておき、グラフィックディスプレイ両面上
に上記ワークを表示させて、作業点を指定する面を該面
を構成する3つの頂点をグラフィックディスプレイ画面
上で指定することにより面を特定すると共に、該特定さ
れた面におけるローカル座標系を定義し、該特定された
面上におけるロボットの作業点をグラフィックディスプ
レイ両面上で教示し、該教示されたロボットの作業点を
画面座標系から上記ローカル座標系に変換することによ
ってロボットの姿勢を教示することを特徴とするロボッ
トオフラインティーチング方式。
The workpiece to be operated by the robot is approximated by a polyhedron, data on the vertices and edges of each face is stored in advance in an offline programming device, the workpiece is displayed on both sides of the graphic display, and the face on which the work point is specified is displayed. A surface is specified by specifying the three vertices that make up the surface on the graphic display screen, a local coordinate system on the specified surface is defined, and the robot's work point on the specified surface is graphically displayed. A robot offline teaching method characterized in that the posture of the robot is taught by teaching on both sides of a display and converting the taught work point of the robot from the screen coordinate system to the local coordinate system.
JP11259988A 1988-05-11 1988-05-11 Robot off-line teaching system Pending JPH01283603A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11259988A JPH01283603A (en) 1988-05-11 1988-05-11 Robot off-line teaching system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11259988A JPH01283603A (en) 1988-05-11 1988-05-11 Robot off-line teaching system

Publications (1)

Publication Number Publication Date
JPH01283603A true JPH01283603A (en) 1989-11-15

Family

ID=14590769

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11259988A Pending JPH01283603A (en) 1988-05-11 1988-05-11 Robot off-line teaching system

Country Status (1)

Country Link
JP (1) JPH01283603A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04255003A (en) * 1991-02-06 1992-09-10 Fanuc Ltd Off line teaching system
JPH07246582A (en) * 1994-03-11 1995-09-26 Shinagawa Refract Co Ltd Instruction method of handling robot in refractory manufacturing equipment
WO2009113339A1 (en) 2008-03-10 2009-09-17 トヨタ自動車株式会社 Operation teaching system and operation teaching method
CN108326837A (en) * 2017-01-17 2018-07-27 发那科株式会社 Offline programming device and location parameter bearing calibration

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04255003A (en) * 1991-02-06 1992-09-10 Fanuc Ltd Off line teaching system
JPH07246582A (en) * 1994-03-11 1995-09-26 Shinagawa Refract Co Ltd Instruction method of handling robot in refractory manufacturing equipment
WO2009113339A1 (en) 2008-03-10 2009-09-17 トヨタ自動車株式会社 Operation teaching system and operation teaching method
JP2009214212A (en) * 2008-03-10 2009-09-24 Toyota Motor Corp Action teaching system, and action teaching method
US8355816B2 (en) 2008-03-10 2013-01-15 Toyota Jidosha Kabushiki Kaisha Action teaching system and action teaching method
CN108326837A (en) * 2017-01-17 2018-07-27 发那科株式会社 Offline programming device and location parameter bearing calibration
US10406691B2 (en) 2017-01-17 2019-09-10 Fanuc Corporation Offline programming device and position-parameter correcting method

Similar Documents

Publication Publication Date Title
JP2684359B2 (en) Robot work Cartesian coordinate system setting device
JP2004094399A (en) Control process for multi-joint manipulator and its control program as well as its control system
US6327518B1 (en) Off-line teaching apparatus
JPS6179589A (en) Operating device for robot
JPS60252914A (en) Conversion system between visual sensor coordinate information and robot reference coordinate information
JPH01283603A (en) Robot off-line teaching system
JPS60195615A (en) Method for teaching attitude of multi-joint robot
CN109773581B (en) Method for applying robot to reappear machining
JP2015100874A (en) Robot system
JPS6097409A (en) Operation teaching method of robot
JP2000112510A (en) Robot teaching method and its device
US20220226982A1 (en) Method Of Creating Control Program For Robot, System Executing Processing Of Creating Control Program For Robot, And Non-Transitory Computer-Readable Storage Medium
JPH04137108A (en) Offline teaching method for robot
JPH0277805A (en) Debugging system for robot off-line teaching point
JP2868343B2 (en) Off-line teaching method of 3D laser beam machine
JP2836281B2 (en) Data creation method for welding robot
JP2581102B2 (en) Interference prevention method in offline teaching of robot
JPS61250705A (en) Coordinate conversion system for industrial robot
JP2559081B2 (en) Teaching data creation method and device
JPH09128024A (en) Method for optimizing operation program of robot having redundant axis
JPH0724762A (en) Robot controller
JP2878957B2 (en) Automatic verification method in offline teaching
JPH03288211A (en) Off-line teaching system for handling robot
JPH06270082A (en) Control of robot having auxiliary shaft
JPH0214373A (en) Three-dimensional point designating system