JPH06131032A - Robot device and teaching method for robot device - Google Patents

Robot device and teaching method for robot device

Info

Publication number
JPH06131032A
JPH06131032A JP4907093A JP4907093A JPH06131032A JP H06131032 A JPH06131032 A JP H06131032A JP 4907093 A JP4907093 A JP 4907093A JP 4907093 A JP4907093 A JP 4907093A JP H06131032 A JPH06131032 A JP H06131032A
Authority
JP
Japan
Prior art keywords
robot
unit
robot hand
orientation
teaching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4907093A
Other languages
Japanese (ja)
Inventor
Naoki Takehara
直樹 竹原
Hiroshi Kikuchi
博 菊地
Kosuke Inoue
康介 井上
Toyohide Hamada
豊秀 浜田
Isao Takahashi
勇夫 高橋
Noriyuki Dairoku
範行 大録
Tadashi Yamada
正 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP4907093A priority Critical patent/JPH06131032A/en
Publication of JPH06131032A publication Critical patent/JPH06131032A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To easily attain the correcting operation of the teaching position and attitude of a robot by a tool and a simple operation in a field. CONSTITUTION:The grip part 1402 of an inside unit 1403 is gripped by a robot hand 1002, and an outside unit 1404 surrounding the inside unit 1403 is disposed on a working stand. Then, a distance and inclination between the inside unit 1403 and the outside unit 1404 is measured by sensors 1210a-1210f, the relative position and attitude of the inside unit 1403 to the outside unit 1404 are calculated by a robot controller 1004, so that the position and attitude of a robot hand can be corrected.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はロボット装置およびロボ
ットシステムに関わり、とくに、ワーク把持用のロボッ
トハンド等の位置や姿勢を測定してティーチングプレイ
バックする方式のロボット装置およびロボットシステム
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot device and a robot system, and more particularly, to a robot device and a robot system of a system which measures the position and posture of a robot hand for grasping a work and performs teaching playback.

【0002】[0002]

【従来の技術】ロボットは予め記憶したティーチングデ
ータに基づいて動作するようになっているものの、寸法
や回転角度等の機械的誤差により指令通りに位置・姿勢
に動かすことは困難である。このためロボットを現場に
導入する際にはティーチング作業が欠かせず、その簡略
化がロボットによる自動化の一つの課題となっている。
また、ロボットの現場導入後、ロボット本体または周囲
環境に何らかの変化が生じた場合等の修正作業をライン
を停止せずに最小限の時間で済ませることが望まれてい
る。
2. Description of the Related Art Although a robot operates based on teaching data stored in advance, it is difficult to move it to a position / posture according to a command due to mechanical errors such as size and rotation angle. For this reason, teaching work is indispensable when introducing a robot to the site, and simplification thereof is one of the challenges of robot automation.
In addition, it is desired that after the introduction of the robot at the site, the correction work in the case where the robot main body or the surrounding environment has some change is completed in a minimum time without stopping the line.

【0003】特開昭63−193203号公報には、作
業軌跡の代表点1点のみを再ティーチングしてロボット
ハンド交換後の機構パラメータを修正する方法が開示さ
れている。また、特開平1−175608号公報には、
交換前と後のロボットハンドの機構パラメータを実測し
座標変換行列を修正する方法が開示されている。
Japanese Unexamined Patent Publication No. 63-193203 discloses a method of reteaching only one representative point of the work locus to correct the mechanical parameter after the robot hand is replaced. In addition, Japanese Patent Application Laid-Open No. 1-175608 discloses that
A method of actually measuring the mechanical parameters of the robot hand before and after the replacement and correcting the coordinate conversion matrix is disclosed.

【0004】[0004]

【発明が解決しようとする課題】上記特開昭63−19
3203号公報に開示の方法には、ロボットハンド交換
前と交換後のティーチング点の位置・姿勢と厳密に一致
させる作業が熟練作業者でなければできないという問題
があった。また、特開平1−175608号公報に開示
の方法には、ロボットハンドを取付誤差を大型の三次元
測定器により測定する必要であり、この測定器を稼働ラ
インに持ち込むことは実際上困難という問題があった。
DISCLOSURE OF THE INVENTION Problems to be Solved by the Invention
The method disclosed in Japanese Unexamined Patent Publication No. 3203 has a problem that only a skilled worker can perform the work of exactly matching the position / posture of the teaching point before and after the robot hand replacement. Further, in the method disclosed in JP-A-1-175608, it is necessary to measure the attachment error of the robot hand with a large three-dimensional measuring instrument, and it is practically difficult to bring this measuring instrument into the operation line. was there.

【0005】一方、自走式ロボットを用いた半導体前工
程ベイ内のウェハカセットの搬送作業のように、作業の
対象となる製造装置の形式が限定され、しかも同一形式
の製造装置が複数台存在するような場合には、把持ポイ
ントでのロボットの位置・姿勢が類似しているにもかか
わらず各製造装置を1台毎に修正しなければならないと
いうわずらわしさがあった。本発明の目的は、上記ロボ
ットのティーチング位置・姿勢の修正作業を現場で使用
可能な治具を使用して行うことができ、さらに操作を簡
単、容易化することのできるロボット装置およびロボッ
トシステム提供することにある。
On the other hand, the type of manufacturing apparatus targeted for the work is limited, such as the transfer operation of a wafer cassette in a semiconductor pre-process bay using a self-propelled robot, and there are a plurality of manufacturing apparatuses of the same type. In such a case, even though the position / orientation of the robot at the gripping points are similar, each manufacturing apparatus must be corrected individually. An object of the present invention is to provide a robot apparatus and a robot system that can perform the work of correcting the teaching position / orientation of the robot by using a jig that can be used in the field, and can further simplify and facilitate the operation. To do.

【0006】[0006]

【課題を解決するための手段】上記課題を解決するため
に、内側ユニットと、内側ユニットの外周に配置される
外側ユニットと、外側ユニットまたは内側ユニットに固
定した複数の変位センサと、演算部とによりロボットハ
ンド位置・姿勢計測装置を構成し、外側ユニットを作業
対象物と同様に作業台上に固定し、内側ユニットをロボ
ットハンドの把持用爪部に取付けて各変位センサの出力
により外側ユニットと内側ユニット間の距離を測定して
ロボットハンドの位置・姿勢値を算出するようにする。
In order to solve the above-mentioned problems, an inner unit, an outer unit arranged on the outer periphery of the inner unit, a plurality of displacement sensors fixed to the outer unit or the inner unit, and an arithmetic unit. The robot hand position / orientation measuring device is configured by the, the outer unit is fixed on the work table in the same way as the work object, the inner unit is attached to the gripping claw of the robot hand, and the outer unit is connected to the outer unit by the output of each displacement sensor. Measure the distance between the inner units to calculate the position / orientation value of the robot hand.

【0007】さらに、内側ユニットに外側ユニットの3
つの面とほぼ平行な3つの面を具備するようにする。さ
らに、内側ユニットの把持部を半導体ウエハホルダ等の
作業対象物の把持部と同一形状にする。さらに、外側ユ
ニットの作業台設置面を作業対象物の作業台設置面と同
一形状にする。さらに、内側ユニットを作業対象物と同
一重量にする。
Further, the inner unit has three outer units.
It should have three faces that are approximately parallel to one face. Further, the grip portion of the inner unit has the same shape as the grip portion of the work object such as the semiconductor wafer holder. Further, the workbench installation surface of the outer unit has the same shape as the workbench installation surface of the work object. Further, the inner unit is made to have the same weight as the work object.

【0008】さらに、外側ユニットまたは内側ユニット
に傾斜センサを設け、各変位センサと傾斜センサとの出
力により外側ユニットと内側ユニット間の距離、角度等
を測定してロボットハンドの位置・姿勢値を算出するよ
うにする。さらに、上記演算部が演算するロボットハン
ドの位置・姿勢データを表示する表示部、および/また
はロボットハンドの位置・姿勢データをロボットコント
ローラに受け渡すインタフェース部を設けるようにす
る。
Further, an inclination sensor is provided in the outer unit or the inner unit, and the distance and angle between the outer unit and the inner unit are measured by the output of each displacement sensor and the inclination sensor to calculate the position / orientation value of the robot hand. To do so. Further, a display unit for displaying the position / orientation data of the robot hand calculated by the calculation unit and / or an interface unit for transferring the position / orientation data of the robot hand to the robot controller are provided.

【0009】また、外側ユニットおよび/または内側ユ
ニットの交換前と交換後の位置・姿勢データを記憶し、
両ユニットの交換前と交換後の位置・姿勢データを比較
して交換後のロボットハンドの機構パラメータを修正す
るようにする。また、ロボットハンドの交換前と交換後
の位置・姿勢データを記憶し、ロボットハンドの交換前
と交換後の位置・姿勢データを比較して交換後のロボッ
トハンドの機構パラメータを修正するようにする。
Also, the position / orientation data of the outer unit and / or the inner unit before and after replacement are stored,
The position and orientation data of both units before and after replacement are compared to correct the mechanical parameters of the robot hand after replacement. Also, the position / orientation data before and after replacement of the robot hand is stored, and the position / orientation data before and after replacement of the robot hand is compared to correct the mechanical parameter of the robot hand after replacement. .

【0010】さらに、装着位置毎のロボットハンドの座
標変換行列を記憶してロボットハンドの機構パラメータ
を修正するようにする。また、複数台の上記ロボット装
置に対しては、ティーチングデータを持つロボット装置
のロボットハンドの機構パラメータおよびそのロボット
ハンド位置・姿勢計測装置から得られる測定値と、ティ
ーチングデータを持たないロボットのロボットハンド位
置・姿勢計測装置から得られる測定値とから、ティーチ
ングデータを持たないロボットのロボットハンドの機構
パラメータを修正するようにする。
Further, the coordinate conversion matrix of the robot hand for each mounting position is stored to correct the mechanical parameter of the robot hand. Further, for a plurality of the above robot devices, the robot hand mechanical parameters of the robot device having teaching data, the measurement values obtained from the robot hand position / orientation measuring device, and the robot hand of the robot having no teaching data. The mechanical parameter of the robot hand of the robot having no teaching data is corrected from the measured value obtained from the position / orientation measuring device.

【0011】[0011]

【作用】内側ユニットの把持部を半導体ウエハホルダ等
の作業対象物の把持部と同一形状にすることによりロボ
ットハンドは内側ユニットを弛みなく把持する。また、
外側ユニットの作業台設置面を作業対象物の作業台設置
面と同一形状にすることにより外側ユニットが作業台に
弛みなく設置される。また、内側ユニットを作業対象物
と同一重量にすることにより、ロボットハンドは内側ユ
ニットを作業対象物と同一条件で把持する。
The robot hand grips the inner unit without slack by making the grip of the inner unit into the same shape as the grip of the work object such as the semiconductor wafer holder. Also,
By making the workbench installation surface of the outer unit the same shape as the workbench installation surface of the work object, the outer unit is installed on the workbench without slack. Further, by making the inner unit have the same weight as the work target, the robot hand grips the inner unit under the same condition as the work target.

【0012】また、各変位センサと傾斜センサは内側ユ
ニットと外側ユニットとのほぼ平行な3つの面間の距離
および捩じれを検出する。演算部はロボットハンドの位
置・姿勢値を算出し、さらに外側ユニット、内側ユニッ
ト、ロボットハンド等のの交換前と交換後の位置・姿勢
データを比較して交換後のロボットハンドの機構パラメ
ータを修正する。
Further, each displacement sensor and inclination sensor detect a distance and a twist between three substantially parallel surfaces of the inner unit and the outer unit. The calculation unit calculates the position / orientation value of the robot hand, and further compares the position / orientation data of the outer unit, inner unit, robot hand, etc. before and after replacement to correct the mechanical parameters of the robot hand after replacement. To do.

【0013】また演算部は、複数台の上記ロボット装置
に対しては、ティーチングデータを持つロボット装置の
ロボットハンドの機構パラメータおよびそのロボットハ
ンド位置・姿勢計測装置から得られる測定値と、ティー
チングデータを持たないロボットのロボットハンド位置
・姿勢計測装置から得られる測定値とから、ティーチン
グデータを持たないロボットのロボットハンドの機構パ
ラメータを修正する。
Further, for the plurality of robot devices, the arithmetic unit provides the teaching parameter with the robot hand mechanism parameter of the robot device having teaching data, the measurement value obtained from the robot hand position / orientation measuring device, and the teaching data. The mechanical parameter of the robot hand of the robot having no teaching data is corrected from the measurement value obtained from the robot hand position / orientation measuring device of the robot having no robot.

【0014】[0014]

【実施例】【Example】

〔実施例 1〕図1は本発明によるロボット位置・姿勢
計測装置の斜視図、図2、図3はそれぞれ図1における
A−A断面図、B−B断面図、図4はその座標系の説明
図、図5は図1の内側ユニットの斜視図である。
[Embodiment 1] FIG. 1 is a perspective view of a robot position / orientation measuring apparatus according to the present invention, FIGS. 2 and 3 are sectional views taken along the line AA and BB in FIG. 1, and FIG. Explanatory drawing, FIG. 5 is a perspective view of the inner unit of FIG.

【0015】図1において、ロボットハンド位置・姿勢
計測装置は3枚の平板を互いに直角に組み合わせた内側
ユニット11、ロボットハンド21、把持用爪部14、
内側ユニット11に連結されこれを取り囲む箱状の外側
ユニット12、外側ユニット12の内面に取り付けられ
た6個の変位センサ13(13a〜13f)、各変位セ
ンサ出力を取り込んで演算するデータ演算部15、その
演算結果を表示するデータ表示部16、更にロボットコ
ントローラへ位置・姿勢情報を受け渡すインタフェース
部17等より構成される。
In FIG. 1, the robot hand position / orientation measuring device comprises an inner unit 11 in which three flat plates are combined at right angles to each other, a robot hand 21, a gripping claw portion 14,
A box-shaped outer unit 12 that is connected to and surrounds the inner unit 11, six displacement sensors 13 (13a to 13f) attached to the inner surface of the outer unit 12, and a data computing unit 15 that fetches and computes each displacement sensor output. , A data display unit 16 for displaying the calculation result, and an interface unit 17 for transferring position / orientation information to the robot controller.

【0016】ロボットアーム22の先端にはロボットハ
ンド21を取り付け、ロボットハンド21は把持用爪部
14を把持する。この部分の全体形状は実把持対象物を
把持する際に使用される把持用爪部と同一形状であるこ
とが望ましい。また、把持用爪部14と内側ユニット1
1の合計重量を、ロボットが実作業で持ち上げる把持対
象物とほぼ同一重量となるようにする。また、外側ユニ
ット12を内側ユニット11を内部に収容できる箱型状
にし、その下部を実作業時に把持する把持対象物の下部
と同一形状とする。
A robot hand 21 is attached to the tip of the robot arm 22, and the robot hand 21 holds the holding claw portion 14. It is desirable that the overall shape of this portion is the same as the shape of the gripping claw used when gripping the actual gripping target. Further, the gripping claw portion 14 and the inner unit 1
The total weight of 1 is set to be approximately the same as the weight of the object to be gripped by the robot in the actual work. Further, the outer unit 12 has a box shape capable of accommodating the inner unit 11, and the lower portion thereof has the same shape as the lower portion of the object to be grasped during actual work.

【0017】図2、3に示すように、外側ユニット12
の内側には6個のレーザ式変位センサ13a〜13fを
所定の位置に取り付ける。図4は図1における各種座標
系を示すものであり、3個の変位センサ13a〜13c
が面 Oxy 上に同一直線上に並ばないように取り付けら
れ、それぞれは内側ユニット11の面 O'x'y' との距離
を測定する。また、2個の変位センサ13e、13dは
面 Oxz にそれらを結ぶ直線の方向ベクトルが内側ユニ
ット11の面 O'x'y' の法線ベクトルと一致することの
ないように取り付けられ、それぞれは内側ユニット11
の面 O'x'z' との距離を測定する。
As shown in FIGS. 2 and 3, the outer unit 12
Six laser type displacement sensors 13a to 13f are attached to predetermined positions inside the. FIG. 4 shows various coordinate systems in FIG. 1, and includes three displacement sensors 13a to 13c.
Are mounted so that they are not collinear on the surface Oxy, and each measures the distance from the surface O'x'y 'of the inner unit 11. Further, the two displacement sensors 13e and 13d are attached so that the direction vector of the straight line connecting them to the surface Oxz does not coincide with the normal vector of the surface O'x'y 'of the inner unit 11. Inner unit 11
Measure the distance from the plane O'x'z '.

【0018】また、1個の変位センサ13fは面 Oyz
上に取り付けられ、内側ユニット11の面 O'y'z' との
距離を測定する。データ演算部15はセンサ13a〜1
3fからの各出力を記憶して演算し、演算結果をデータ
表示部16に表示すると同時にインタフェース部17を
介しロボットコントローラに転送する。次に本実施例に
おけるロボット位置・姿勢データ計測装置の動作を説明
する。なお、以下での座標は特にことわらない限り、外
側ユニット12に固定した直交座標系 O−xyz に基づい
て説明する。
Further, one displacement sensor 13f has a surface Oyz.
It is mounted on the top and measures the distance from the surface O'y'z 'of the inner unit 11. The data calculation unit 15 includes sensors 13a-1
Each output from 3f is stored and calculated, and the calculation result is displayed on the data display unit 16 and simultaneously transferred to the robot controller via the interface unit 17. Next, the operation of the robot position / orientation data measuring device in this embodiment will be described. Unless otherwise specified, the coordinates below will be described based on the Cartesian coordinate system O-xyz fixed to the outer unit 12.

【0019】図1に示すように、ロボット位置・姿勢デ
ータ計測装置の外側ユニット12は実把持対象物を作業
ステーション23上に固定する場合と同様にして、外側
ユニット12はその突起部12aが作業ステーション2
3上の凹部23aに係合して作業ステーション23上に
固定される。その後は、ロボットの教示データ、あるい
は手動操作によりハンド21で把持用爪部14を把持
し、データ演算部15によりセンサ13a〜13fの計
測値から内側ユニット11の位置・姿勢データを演算す
る。
As shown in FIG. 1, the outer unit 12 of the robot position / orientation data measuring device works in the same manner as when the actual gripping object is fixed on the work station 23. Station 2
It is fixed on the work station 23 by engaging with the recess 23 a on the upper part 3. After that, the grip 21 is grasped by the hand 21 by the teaching data of the robot or the manual operation, and the position / orientation data of the inner unit 11 is calculated by the data calculator 15 from the measured values of the sensors 13a to 13f.

【0020】外側ユニット11の寸法や各センサの取付
位置等は既知であるから、まず変位センサ13a〜13
cにより内側ユニット11の平面 O'x'y' 上の3点を計
測して平面 O'x'y' を式(1)により算出する。
Since the dimensions of the outer unit 11 and the mounting positions of the respective sensors are known, first of all, the displacement sensors 13a to 13a.
The three points on the plane O'x'y 'of the inner unit 11 are measured by c and the plane O'x'y' is calculated by the equation (1).

【数1】 ただし、P1(x1, y1, z1), P2(x2, y2, z2), P3(x3,
y3, z3) は、変位センサ13a〜13cが測定する平面
O'x'y' 上の点である。また変位センサ13d、13e
各々の出力と内側ユニット11を構成する平面O'x'y'
との直交関係から、内側ユニット11を構成する平面
O'x'z' の式(2)が算出される。
[Equation 1] However, P 1 (x 1 , y 1 , z 1 ), P 2 (x 2 , y 2 , z 2 ), P 3 (x 3 ,
y 3 , z 3 ) is a plane measured by the displacement sensors 13a to 13c
It is a point on O'x'y '. Further, the displacement sensors 13d and 13e
Planes O'x'y 'that make up each output and inner unit 11
The plane forming the inner unit 11 from the orthogonal relationship with
Equation (2) of O'x'z 'is calculated.

【0021】また、 P4(x4, y4, z4), P5(x5, y5,
z5) は変位センサ13d、13eによる平面 O'x'z' 上
の測定点であり、 (A1 ,B 1 ,C1 ) は式(1)で求めた
平面O'x'y' の法線ベクトルである。また、変位センサ
13fからの出力と内側ユニット11を構成する平面
O'x'y' および O'x'z' との直交関係から内側ユニット
11を構成する平面 O'y'z'を式(3)のように算出す
る。ただし、P6(x6, y6, z6) は変位センサ13fの測
定点であり、 (A2, B2, C2) は式(2)で求めた平面
O'x'z' 上の法線ベクトルである。
Further, P 4 (x 4 , y 4 , z 4 ), P 5 (x 5 , y 5 ,
z 5 ) is a measurement point on the plane O'x'z 'by the displacement sensors 13d and 13e, and (A 1 , B 1 , C 1 ) is the plane O'x'y' of the plane O'x'y 'obtained by the equation (1). It is a normal vector. In addition, the output from the displacement sensor 13f and the plane forming the inner unit 11
The plane O'y'z 'forming the inner unit 11 is calculated from the orthogonal relationship with O'x'y' and O'x'z 'as in Expression (3). However, P 6 (x 6 , y 6 , z 6 ) is the measurement point of the displacement sensor 13f, and (A 2 , B 2 , C 2 ) is the plane obtained by the equation (2).
It is a normal vector on O'x'z '.

【0022】式(1)〜(3)は式(4)〜(6)のよ
うな標準形式に変形することができる。
Equations (1)-(3) can be transformed into standard forms such as equations (4)-(6).

【数2】 [Equation 2]

【数3】 [Equation 3]

【数4】 以上より、内側ユニット11を構成する3平面の式が求
まるので、図4に示した既知の外側ユニット座標系 O−
xyz に対する内側ユニット座標系 O'−x'y'z'が定ま
る。
[Equation 4] From the above, the equations for the three planes that form the inner unit 11 can be obtained, so the known outer unit coordinate system O− shown in FIG.
The inner unit coordinate system O'−x'y'z 'for xyz is determined.

【0022】内側ユニット座標系 O'−x'y'z' の原点は
平面 O'x'y', O'y'z', O'x'z' の交点であるから、内側
ユニット座標系 O'−x'y'z' 上での座標は式(7)に示
す外側ユニット座標系 O−xyz で記述することができ
る。
Since the origin of the inner unit coordinate system O'-x'y'z 'is the intersection of the planes O'x'y', O'y'z ', O'x'z', the inner unit coordinate system The coordinates on O'-x'y'z 'can be described by the outer unit coordinate system O-xyz shown in equation (7).

【数5】 また、内側ユニット11を構成している3つの平面上の
法線ベクトルは内側ユニット座標系の各軸方向を示すか
ら、外側ユニット座標系に対する内側ユニット座標系の
位置・姿勢関係は式(8)に示す4行4列の変換行列の
ようになる。
[Equation 5] Further, since the normal vectors on the three planes forming the inner unit 11 indicate the respective axial directions of the inner unit coordinate system, the position / orientation relationship of the inner unit coordinate system with respect to the outer unit coordinate system is expressed by the formula (8). It becomes like the transformation matrix of 4 rows and 4 columns shown in.

【数6】 [Equation 6]

【0023】式(8)より、例えば「ロボット・マニピ
ュレータ」(R.P.ポール著、吉川恒夫訳、コロナ社
(1984年)、第43頁〜第46頁)にて定義されて
いるオイラー角(φ,θ,ψ)が式(9)のように、ま
た、ロール・ピッチ・ヨー(φ,θ,ψ)が式(10)
のように算出される。
From equation (8), for example, the Euler angle defined in "Robot Manipulator" (RP Paul, translated by Tsuneo Yoshikawa, Corona Publishing Co. (1984), pp. 43-46) (Φ, θ, ψ) is as in formula (9), and roll pitch yaw (φ, θ, ψ) is as in formula (10).
Is calculated as follows.

【数7】 [Equation 7]

【数8】 [Equation 8]

【0024】データ演算部15は上記の各演算を行って
ロボットハンド21がロボットハンド把持用爪部14を
把持した状態おけるロボットハンドの位置・姿勢を求
め、所要の演算結果をデータ表示部16に送って表示す
る。これにより、ロボット位置・姿勢データ計測装置か
らの測定結果を監視しながらロボットを教示することが
できるので、従来、目視に頼っていた教示作業を効率化
し、最適化することができる。また、上記データ表示部
16の表示や、インタフェース部17を介して演算結果
をロボットコントローラへ転送することにより、ロボッ
トコントローラにおいて教示データを補正してハンド2
1の位置を補正することができる。
The data calculation unit 15 performs each of the above calculations to obtain the position / orientation of the robot hand when the robot hand 21 holds the robot hand holding claw portion 14, and the required calculation result is displayed on the data display unit 16. Send and display. As a result, the robot can be taught while monitoring the measurement results from the robot position / orientation data measuring device, so that the teaching work that has hitherto relied on visual inspection can be made more efficient and optimized. Further, the teaching data is corrected in the robot controller by correcting the teaching data by displaying the data on the data display section 16 or transferring the calculation result to the robot controller via the interface section 17.
The position of 1 can be corrected.

【0025】さらに、ロボット本体やハンド21等の位
置・姿勢変化に対応するハンド21の位置・姿勢偏差を
明確にすることができる。このため、ロボット教示時に
得た変換行列、あるいは教示直後に上記測定データより
算出した変換行列を記憶して、これとロボット本体やハ
ンド21等の位置・姿勢変化後の測定データより算出し
た変換行列とを用いて、式(11)に示すハンドの位置
・姿勢変化を示す変換行列を求めるようにする。
Further, the position / orientation deviation of the hand 21 corresponding to the position / orientation change of the robot body or the hand 21 can be clarified. Therefore, the conversion matrix obtained at the time of teaching the robot or the conversion matrix calculated from the above measurement data immediately after the teaching is stored, and the conversion matrix calculated from this and the measurement data after the position / orientation change of the robot body, the hand 21, etc. Using and, the conversion matrix indicating the position / orientation change of the hand shown in Expression (11) is obtained.

【0026】[0026]

【数9】 式(11)のサフィックスAは上記変化前の状態を示
し、同Bは変化後の状態を示している。また、TAの逆
行列とTBの積はハンドの位置・姿勢変化を示す変換行
列である。本発明ではロボット本体やロボットハンドの
位置・姿勢変化に対応して、式(11)の情報を基にオ
ンライン、あるいはオフラインで教示データの修正を行
う。
[Equation 9] The suffix A in the equation (11) shows the state before the change, and the suffix B shows the state after the change. Further, the product of the inverse matrix of TA and TB is a conversion matrix showing the change in position / posture of the hand. In the present invention, the teaching data is corrected on-line or off-line based on the information of the equation (11) in response to the position / orientation change of the robot body or the robot hand.

【0027】また、ロボットハンド把持用爪部14と内
側ユニット11の合計重量を、ロボットが実作業で把持
する把持対象物の重量と同一とするので、ロボットにか
かる負荷を実作業時と同一にすることができる。なお、
上記実施例では、内側ユニット11を構成する3枚の平
板は相互に直交するように配置されていた。しかし、直
交していない場合には座標変換を行って以後は同様な測
定を行えばよい。
Further, since the total weight of the robot hand gripping claw portion 14 and the inner unit 11 is set to be the same as the weight of the object to be gripped by the robot in the actual work, the load applied to the robot is the same as in the actual work. can do. In addition,
In the above-described embodiment, the three flat plates forming the inner unit 11 are arranged so as to be orthogonal to each other. However, if they are not orthogonal to each other, coordinate conversion may be performed and the same measurement may be performed thereafter.

【0028】〔実施例 2〕外側ユニット12を構成す
る3つの平面にそれぞれ3個の変位センサを取り付けた
ることもできる。合計9個の変位センサ各々より得られ
る点をP1〜P9 とすると、各平面は式(12)〜(1
4)のように表せる。
[Embodiment 2] Three displacement sensors may be attached to each of the three planes forming the outer unit 12. Assuming that points obtained from each of the nine displacement sensors are P 1 to P 9 , each plane is expressed by equations (12) to (1).
It can be expressed as in 4).

【数10】 式(12)、(13)、(14)は同一形式であるか
ら、データ演算部15の演算プログラムを共通化して効
率化することができ、さらに、式(13)は式(12)
の演算結果を用いないので計算誤差が累積されない。ま
た、センサ数の増加により被検出面情報が増加するの
で、ロボット教示時のオペレータへの情報も増加する。
[Equation 10] Since the formulas (12), (13), and (14) have the same format, the calculation program of the data calculation unit 15 can be made common and the efficiency can be further improved. Furthermore, the formula (13) can be expressed by the formula (12).
Since the calculation result of is not used, the calculation error is not accumulated. Further, since the detected surface information increases with the increase in the number of sensors, the information to the operator at the time of teaching the robot also increases.

【0029】〔実施例 3〕図6は内側ユニット11を
六面体形状として製作を容易化した場合の斜視図であ
る。実施例1、2と同等な効果を得ることができる。
[Embodiment 3] FIG. 6 is a perspective view showing a case where the inner unit 11 is formed into a hexahedron shape to facilitate manufacture. It is possible to obtain the same effects as those of the first and second embodiments.

【0030】〔実施例 4〕図7は各変位センサ13を
内側ユニット11側に取り付けた場合である。この場合
は内側ユニット座標系に対する外側ユニット座標系の座
標変換行列を求めることになり、これは式(8)の逆行
列となる。
[Embodiment 4] FIG. 7 shows a case where each displacement sensor 13 is attached to the inner unit 11 side. In this case, the coordinate transformation matrix of the outer unit coordinate system with respect to the inner unit coordinate system is obtained, which is the inverse matrix of equation (8).

【0031】〔実施例 5〕図8は上記変位センサ13
a〜13dの他に傾斜センサ81を設けた場合である。
座標系O'−x'y'z'の座標系O−xyzに対する最も好ましい
位置・姿勢が、平面O'x'y'が平面Oxyに平行になるとき
とすれば、そのときの平面O'x'y'の法線ベクトルは式
(15)のようになる。
[Fifth Embodiment] FIG. 8 shows the displacement sensor 13 described above.
This is the case where the tilt sensor 81 is provided in addition to a to 13d.
If the most preferable position / orientation of the coordinate system O'-x'y'z 'with respect to the coordinate system O-xyz is when the plane O'x'y' is parallel to the plane Oxy, then the plane O ' The normal vector of x'y 'is an expression
It becomes like (15).

【数11】 傾斜センサ81を内側ユニット11の底面に取り付け、
平面O'x'y'がz軸回りにφ回転した際の、y軸回りの回転
θとx軸回りの回転ψを計測する。測定時の平面O'x'y'
の法線ベクトルを式(16)とすると、式(15)と
(16)の関係は式(17)のようになる。
[Equation 11] Attach the tilt sensor 81 to the bottom of the inner unit 11,
The rotation θ around the y axis and the rotation ψ around the x axis when the plane O′x′y ′ rotates φ around the z axis are measured. Plane O'x'y 'at measurement
Assuming that the normal vector of is expressed by equation (16), the relationship between equations (15) and (16) is expressed by equation (17).

【0032】式(17)より、平面O'x'y'の法線ベクト
ルを求め、センサ13aの出力と式(3)あるいは式
(6)より平面O'x'y'を算出する。平面O'y'zと、平面
O'z'x'を実施例1と同様にして求め、座標系O−xyzに対
する座標系O'−x'y'z'の位置・姿勢を求める。本実施例
では変位センサの数、および平面を求めるための演算量
を減らすことができる。
The normal vector of the plane O'x'y 'is obtained from the equation (17), and the plane O'x'y' is calculated from the output of the sensor 13a and the equation (3) or the equation (6). Plane O'y'z and plane
O'z'x 'is obtained in the same manner as in Example 1, and the position / orientation of the coordinate system O'-x'y'z' with respect to the coordinate system O-xyz is obtained. In this embodiment, the number of displacement sensors and the amount of calculation for obtaining the plane can be reduced.

【0033】〔実施例 6〕本実施例では水平多関節形
のスカラ形ロボット90に変位センサ13a〜13dを
図9のように配置する。スカラ形ロボットの多くは4自
由度ロボットであるため、ロボットハンドの姿勢をあら
わすパラメータ3個のうち2個は既知である。したがっ
て、本実施例ではロボットハンド位置・姿勢データを4
個になる。 〔0034〕〔実施例 7〕図10は本発明によるティ
ーチング位置・姿勢データ修正方法をウェハカセット搬
送作業用多関節ロボットに適用した場合のシステムの構
成例である。多関節ロボット1001、ロボットハンド
1002、ロボットハンド位置・姿勢計測装置100
3、ロボットコントローラ1004、グリッパ1005
及び一対のツメ1006から構成される。 〔0035〕図11は多関節ロボット1001の関節構
成図である。6つの関節J1、J2、J3、J4、J
5、J6からなり、L1、L2、L3、L4、LY1、LY
2、LY3、LXはその機構パラメータである。ロボット
の座標系、座標変換行列を以下のように定義する。 O0−X000:ロボットベースに固定された座標系 Oi−Xiii:ロボットのi番目の被駆動部に固定さ
れた座標系 O6−X666:ロボットハンド1002取付面に固定
された座標系 Ot−Xttt:ロボットハンド1002に固定された
座標系(工具座標系) Ti:Oi−XiiiからO
i-1−Xi-1i-1i-1への座標変換行列 〔0036〕周知のように任意の点を座標系O0−X0
00であらわしたベクトルX0と座標系O6−X666
であらわしたベクトルX6の間には式(18)の関係が
ある。Tは4行4列の行列であり、θ1,θ2,θ3,θ4,θ
5,θ6は各関節の回転角である。また、Tを式(19)
のように定義する。
[Embodiment 6] In this embodiment, displacement sensors 13a to 13d are arranged in a horizontal articulated SCARA robot 90 as shown in FIG. Most of the scalar-shaped robots are four-degree-of-freedom robots, so two of the three parameters representing the posture of the robot hand are known. Therefore, in this embodiment, the robot hand position / orientation data is set to 4
Become individual. [Embodiment 7] FIG. 10 shows an example of the system configuration when the teaching position / orientation data correction method according to the present invention is applied to a multi-joint robot for wafer cassette transfer work. Articulated robot 1001, robot hand 1002, robot hand position / orientation measuring device 100
3, robot controller 1004, gripper 1005
And a pair of tabs 1006. [0035] FIG. 11 is a joint configuration diagram of the articulated robot 1001. 6 joints J1, J2, J3, J4, J
5, J6, L1, L2, L3, L4, LY1, LY
2, LY3 and LX are the mechanical parameters. The robot coordinate system and coordinate transformation matrix are defined as follows. O 0 -X 0 Y 0 Z 0 : coordinate system fixed to the robot base O i -X i Y i Z i: Robot i-th coordinate system fixed to the driven part O 6 -X 6 Y 6 Z 6: fixed to the robot hand 1002 attached surface coordinate system O t -X t Y t Z t : fixed to the robot hand 1002 coordinate system (tool coordinate system) T i: from O i -X i Y i Z i O
i-1 -X i-1 Y i-1 Z i-1 coordinate conversion matrix [0036] As is well known, an arbitrary point is coordinate system O 0 -X 0 Y.
The vector X 0 represented by 0 Z 0 and the coordinate system O 6 -X 6 Y 6 Z 6
There is a relation of Expression (18) between the vector X 6 represented. T is a matrix with 4 rows and 4 columns, and θ1, θ2, θ3, θ4, θ
5, θ6 is the rotation angle of each joint. In addition, T is given by the equation (19).
Define as follows.

【数12】 6を座標Ot−Xttt上であらわしたものをXtとす
ると式(20)の関係が得られる 〔0037〕ここでTtは4行4列の行列で、α,β,γ
は座標系O6−X666で表現した座標系Ot−Xtt
tの姿勢をあらわす角度であり、たとえばオイラー角
とすることもできる。また、Px,Py,Pzは座標系O6
666で表現した座標系Otの位置である。したがっ
て、式(18)、(20)より式(21)が得られる。
tをたとえばロボットハンド1002中心位置に設定
して式(21)の座標変換を行うことにより、ロボット
コントローラ1004はティーチングされたロボットの
位置及びT、Ttにより定まる座標系O0−X000
対する姿勢を求めて記憶装置に記憶し、プレイバック時
には式(21)を逆変換して角関節角度を求め多関節ロ
ボット1001を動作させる。 〔0038〕図12はロボットコントローラ1004の
構成図である。ロボットコントローラ1004の記憶装
置1202には、作業者がティーチングBOX1208
を用いてあらかじめティーチングしたティーチングデー
タやCAD情報などより得られるオフラインデータと動
作シーケンスが記憶される。CPU1201はこれらの
データを座標変換して角関節の目標角度を算出し、エン
コーダ1207のカウンタ1206より得られる角関節
角度の現在値が目標値となるようにD/Aコンバータ1
203に指令を与え、サーボアンプ1204、モータ1
205を駆動し多関節ロボット1001を動作させる。 〔0039〕図13は対象ワークであるウェハカセット
1301の斜視図である。ウェハカセット1301はテ
フロンもしくはポリプロピレン等で成形され、その上端
は開口し、内部に半導体ウェハを並列して収納する溝1
302を備えている。また、開口部の上端には外部に突
出した被把持部1303を有し、さらに被把持部130
3に垂直で収納された半導体ウェハに平行な突起130
4を持つ。ロボットハンド1002のツメ1006に
は、ウェハカセット1301の被把持部1303と突起
1304の形状にマッチするガイド部を設け、被把持部
1303に嵌入してウェハカセット1301を把持する
ようにする。 〔0040〕図14は本発明によるロボットハンド位置
・姿勢計測装置1003の構成図である。ロボットハン
ド位置・姿勢計測装置1003は、被把持部1402、
内側ユニット1403、外側ユニット1404、センサ
1210a〜1210fとから構成される。被把持部1
402の形状はウェハカセットの被把持部1303と同
一である。内側ユニット1403は被把持部1402と
一体に成型され互いに非平行な少なくとも3つの面から
構成され、その重量をウェハカセット1301とほぼ同
等にする。 〔0041〕外側ユニット1404の製造装置の装着位
置に装着する部分1405の形状をウェハカセット13
01の下部1305と同一とし、内側ユニット1403
の面を取り囲む平面を有し、6個のセンサ1210a〜
1210fを取付けて内側ユニット1403と外側ユニ
ット1404間の距離を測定する。 〔0042〕図15はロボットハンド位置・姿勢計測装
置1003の座標系を示す図であり、次のように定義す
る。 Os−XsYsZs:ロボットハンド位置・姿勢計測装置1
003の外側ユニット1404に固定された座標系 Ow−XwYwZw:ロボットハンド位置・姿勢計測装置1
003の内側ユニット1403に固定された座標系 センサ1210a〜1210cは面Os−XsYsに直線
状に並ばないように取り付けられ、相対する面Ow−Xw
Ywとの距離を測定する。 〔0043〕センサ1210d、1210eはこれらを
結ぶ直線の方向ベクトルが内側ユニット1403の面O
w−YwZwの法線ベクトルと一致することがないように
面Os−YsZsに取り付けられ、上記面Ow−YwZwとの
距離を測定する。センサ1210fは面Os−XsZsに
取り付けられ、相対する面Ow−XwZwとの距離を測定
する。次に、外側ユニット1404に固定された座標系
Os−XsYsZsに対するロボットハンド1002の位置
・姿勢の測定手順について説明する。 〔0044〕まず、ロボットハンド位置・姿勢計測装置
1003を製造装置の装着場所に装着し、多関節ロボッ
ト1001を記憶装置1202に記憶したティーチング
データもしくはティーチングBOX1208を用いて動
作させ、ロボットハンド1002で被把持部1402を
把持させる。外側ユニット1404の寸法、センサ12
10a〜1210fの取り付け位置は既知であるのでセ
ンサ1210a〜1210cの出力から内側ユニットの
平面Ow−XwYw上の3点を測定して平面Ow−XwYwの
式(22)を算出する。 〔0045〕
[Equation 12] The X 6 in the coordinate O t -X t Y t Z T t here are obtained [0037] the relationship between the t those expressed on the a X t Equation (20) is a matrix of 4 rows and 4 columns, alpha, β, γ
The coordinate system O 6 -X 6 Y 6 coordinate system expressed in Z 6 O t -X t Y t
It is an angle representing the posture of Z t , and may be, for example, an Euler angle. Further, Px, Py, Pz are coordinate system O 6 −.
It is the position of the coordinate system O t expressed by X 6 Y 6 Z 6 . Therefore, the equation (21) is obtained from the equations (18) and (20).
By setting X t to the center position of the robot hand 1002 and performing coordinate conversion of the equation (21), the robot controller 1004 causes the coordinate system O 0 −X 0 Y determined by the position of the taught robot and T, T t. The posture with respect to 0 Z 0 is obtained and stored in the storage device, and at the time of playback, the formula (21) is inversely transformed to obtain the angular joint angle, and the articulated robot 1001 is operated. [0038] FIG. 12 is a block diagram of the robot controller 1004. In the storage device 1202 of the robot controller 1004, an operator teaches a teaching box 1208.
Off-line data obtained from teaching data, CAD information, etc., which are previously taught by using, and an operation sequence are stored. The CPU 1201 performs coordinate conversion of these data to calculate the target angle of the angular joint, and the D / A converter 1 so that the current value of the angular joint angle obtained from the counter 1206 of the encoder 1207 becomes the target value.
Command to 203, servo amplifier 1204, motor 1
205 is driven to operate the articulated robot 1001. [0039] FIG. 13 is a perspective view of a wafer cassette 1301 as a target work. The wafer cassette 1301 is formed of Teflon, polypropylene or the like, has an opening at its upper end, and a groove 1 for storing semiconductor wafers in parallel therein.
It is equipped with 302. Further, a gripped portion 1303 protruding to the outside is provided at the upper end of the opening, and the gripped portion 130 is further provided.
Protrusion 130 parallel to the semiconductor wafer housed vertically in 3
Have 4. The claw 1006 of the robot hand 1002 is provided with a guide portion that matches the shape of the gripped portion 1303 of the wafer cassette 1301 and the protrusion 1304, and is inserted into the gripped portion 1303 to grip the wafer cassette 1301. [0040] FIG. 14 is a block diagram of a robot hand position / orientation measuring apparatus 1003 according to the present invention. The robot hand position / orientation measuring device 1003 includes a grasped part 1402,
It is composed of an inner unit 1403, an outer unit 1404, and sensors 1210a to 1210f. Grasped part 1
The shape of 402 is the same as the gripped portion 1303 of the wafer cassette. The inner unit 1403 is molded integrally with the gripped portion 1402 and is composed of at least three surfaces that are not parallel to each other, and the weight thereof is almost the same as that of the wafer cassette 1301. [0041] The shape of the portion 1405 to be mounted at the mounting position of the manufacturing apparatus of the outer unit 1404 is changed to the wafer cassette 13
01 lower part 1305 and inner unit 1403
Of the six sensors 1210a ...
1212f is attached and the distance between the inner unit 1403 and the outer unit 1404 is measured. [0042] FIG. 15 is a diagram showing a coordinate system of the robot hand position / orientation measuring apparatus 1003, which is defined as follows. Os-XsYsZs: Robot hand position / orientation measuring device 1
Coordinate system Ow-XwYwZw fixed to the outer unit 1404 of 003: Robot hand position / orientation measuring device 1
The coordinate system sensors 1210a to 1210c fixed to the inner unit 1403 of 003 are attached so as not to be linearly aligned with the surface Os-XsYs, and the opposite surfaces Ow-Xw.
Measure the distance from Yw. [0043] In the sensors 1210d and 1210e, the direction vector of the straight line connecting them is the plane O of the inner unit 1403.
It is attached to the surface Os-YsZs so as not to coincide with the normal vector of w-YwZw, and the distance from the surface Ow-YwZw is measured. The sensor 1210f is attached to the surface Os-XsZs and measures the distance from the opposite surface Ow-XwZw. Next, a procedure for measuring the position / orientation of the robot hand 1002 with respect to the coordinate system Os-XsYsZs fixed to the outer unit 1404 will be described. [0044] First, the robot hand position / orientation measuring apparatus 1003 is attached to the attachment location of the manufacturing apparatus, and the articulated robot 1001 is operated using the teaching data or the teaching BOX 1208 stored in the storage apparatus 1202, and the robot hand 1002 is operated. The grip portion 1402 is gripped. Dimensions of outer unit 1404, sensor 12
Since the mounting positions of 10a to 1210f are known, three points on the plane Ow-XwYw of the inner unit are measured from the outputs of the sensors 1210a to 1210c to calculate the equation (22) of the plane Ow-XwYw. [0045]

【数13】 ここでP1(X1,Y1,Z1)、P2(X2,Y2,Z2)、P3
(X3,Y3,Z3)は、センサ1210a〜1210cの
出力から求められる平面Ow−XwYw上の点である。ま
た、センサ1210d、1210eの出力と内側ユニッ
ト1403の平面Ow−XwYwとOw−YwZwの直交関係
より平面Ow−YwZwの式(23)が算出される。P
4(X4,Y4,Z4)、P5(X5,Y5,Z5)はセンサ121
0d、1210eの出力から求められる点であり、(A
1,B1,C1)は平面Ow−XwYwの法線ベクトルである。 〔0046〕また、センサ1210fの出力と内側ユニ
ット1403の平面Ow−XwYw、Ow−YwZw、Ow−
XwZw間の直交関係より平面Ow−XwZwの式(24)
を算出する。なお、P6(X6,Y6,Z6)はセンサ121
0fの出力から求めた点であり、(A2,B2,C3)は平
面Ow−YwZwの法線ベクトルである。式(25)、
(26)、(27)は式(22)、(23)、(24)
を標準系に書き直したものがである。 〔0047〕
[Equation 13] Here, P 1 (X 1 , Y 1 , Z 1 ), P 2 (X 2 , Y 2 , Z 2 ), P 3
(X 3 , Y 3 , Z 3 ) is a point on the plane Ow-XwYw obtained from the outputs of the sensors 1210a to 1210c. Further, the equation (23) of the plane Ow-YwZw is calculated from the orthogonal relationship between the outputs of the sensors 1210d and 1210e and the planes Ow-XwYw and Ow-YwZw of the inner unit 1403. P
4 (X 4 , Y 4 , Z 4 ) and P 5 (X 5 , Y 5 , Z 5 ) are the sensors 121.
This is a point obtained from the outputs of 0d and 1210e, and (A
1 , 1 , B 1 , C 1 ) are normal vectors of the plane Ow-XwYw. [0046] Also, the output of the sensor 1210f and the planes Ow-XwYw, Ow-YwZw, Ow- of the inner unit 1403.
From the orthogonal relationship between XwZw, the equation (24) of the plane Ow-XwZw
To calculate. Note that P 6 (X 6 , Y 6 , Z 6 ) is the sensor 121.
It is a point obtained from the output of 0f, and (A 2 , B 2 , C 3 ) is a normal vector of the plane Ow-YwZw. Equation (25),
(26) and (27) are equations (22), (23) and (24).
Is a standard system rewritten. [0047]

【数14】 [Equation 14]

【数15】 [Equation 15]

【数16】 以上の手順により内側ユニット1403の互いに直交す
る3平面の式を求めたので、外側ユニット1404に固
定された座標系Os−XsYsZsに対する内側ユニット座
標系Ow−XwYwZwが定められる。 〔0048〕内側ユニット座標系の原点は平面Ow−Xw
Yw、Ow−XwZw、Ow−YwZwの交点であるから式
(28)の様に外側ユニット座標系によって記述され
る。また、平面Ow−XwYw、Ow−YwZw、Ow−XwZ
wの各法線ベクトル(A11,C1)、(A2,B2,C2)、
(A3,B3,C3)が内側ユニット座標系の各軸の方向を
示し、これより外側ユニット座標系に対する内側ユニッ
ト座標系の位置・姿勢は式(29)に示す4行4列の座
標変換行列となる。 〔0049〕
[Equation 16] Since the equations for the three planes of the inner unit 1403 orthogonal to each other have been obtained by the above procedure, the inner unit coordinate system Ow-XwYwZw for the coordinate system Os-XsYsZs fixed to the outer unit 1404 is determined. [0048] The origin of the inner unit coordinate system is the plane Ow-Xw.
Since it is the intersection of Yw, Ow-XwZw, and Ow-YwZw, it is described by the outer unit coordinate system as shown in Expression (28). Also, planes Ow-XwYw, Ow-YwZw, Ow-XwZ
w normal vectors (A 1 B 1 , C 1 ), (A 2 , B 2 , C 2 ),
(A 3, B 3, C 3) indicates the direction of each axis of the inner unit coordinate system, which from the position and orientation of the inner unit coordinate system with respect to the outer unit coordinate system of four rows and four columns as shown in equation (29) It becomes a coordinate transformation matrix. [0049]

【数17】 [Equation 17]

【数18】 また、内側ユニット1403と被把持部1402の位置
関係は既知であることより、ロボットハンド1002の
位置・姿勢を同様にして求めることができる。 〔0050〕次ぎに、ロボットハンド1002を交換し
た場合における本発明によるティーチングデータ修正方
法について述べる。多関節ロボット1001を現場に導
入して搬送作業が可能となった時点で、ロボットハンド
位置・姿勢計測装置1003を用いて各ウェハカセット
装着位置毎にロボットハンド1002の外側ユニット1
404に対する位置・姿勢を計測し、記憶装置1202
に記憶する。外側ユニット1404の下部1405の形
状はウェハカセット1301の下部1305と同一であ
るから、ロボットハンド位置・姿勢計測装置1003を
作業位置にしっかりと装着できる。 〔0051〕また、被把持部1402の形状はウェハカ
セット1301と同一であるからロボットハンド100
2を交換せずに計測することができる。さらに、内側ユ
ニット1403の重量はウェハカセット1301の重量
と同一であるから、多関節ロボット1001にかかる負
荷を実作業と同一になる。したがって、実作業と計測時
の条件は同一になる。ここで、衝突等によりロボットハ
ンド1002が変形したのでこれを交換した場合を考え
る。 〔0052〕図16はロボットハンド1002の交換前
と後の多関節ロボット1001の把持ポイントの位置・
姿勢を示す図である。変形がロボットハンド1002の
みであればロボットハンド1002以外の機構パラメー
タは前回ティーチング時と同一である。したがって多関
節ロボット1001自体は式(18)に従って衝突前の
位置・姿勢で動く。しかし、ロボットハンド1002を
交換した場合はそれが同形のものであっても寸法誤差や
取付誤差により式(20)のTtが変化するので、図1
6に示したように前回のティーチング時とは異なる位置
・姿勢をとり、そのままでは搬送作業を行えなくなる。 〔0053〕そこでティーチング位置・姿勢を修正す
る。まず、多関節ロボット1001を装着位置の1つに
移動し、装着位置に装着したロボットハンド位置・姿勢
計測装置1003の内側ユニット1403の被把持部1
402をロボットハンド1002により把持する。ロボ
ットハンド位置・姿勢計測装置1003は内側ユニット
1403と外側ユニット1404との間に十分な間隙を
持つので、ロボットハンド1002の位置・姿勢が前回
のティーチングの位置・姿勢からずれていても内側ユニ
ット1403の被把持部1402を外側ユニット140
4をずらす事なく把持する事ができる。 〔0054〕次いで、ロボットハンド位置・姿勢計測装
置1003は外側ユニット1404に固定された座標系
Os−XsYsZsに対するロボットハンド1002の位置
・姿勢を求める。図17は外側ユニット1404の座標
系Os−XsYsZsに対するロボットハンド1002交換
前と後の各座標系の関係を示すものである。ここで座標
変換行列を以下のように定義する。 〔0055〕Tt :ロボットハンド交換前のOt−Xt
ttからO6−X666への座標変換行列 Tt' :ロボットハンド交換後のOt'−Xt'Yt'Zt'か
らO6−X666への座標変換行列 Ts :Os−XsYsZsからO0−X000への座標変換
行列 Tw :Ow−XwYwZwからOt−Xtttへの座標変換
行列 TR1:ロボットハンド交換前のロボットハンド位置・姿
勢計測装置1003により検出されるOw−XwYwZwか
らOs−XsYsZsへの座標変換行列 TR2:ロボットハンド交換後のロボットハンド位置・姿
勢計測装置1003により検出されるOw−XwYwZwか
らOs−XsYsZsへの座標変換行列 〔0056〕多関節ロボット1001の機構パラメータ
は変っていないから、O6−X666の位置・姿勢も不
変である。しかし、ロボットハンド1002の機構パラ
メータが変化しているためOt−XtttはOt'−Xt'
t'Zt''に変化している。なお、Ow−XwYwZwは変
化していない。したがって、図17より式(30)、
(31)の関係が成り立ち、これよりロボットハンド交
換後の座標変換行列Tt'式(32)が求められる。 〔0057〕
[Equation 18] Further, since the positional relationship between the inner unit 1403 and the grasped portion 1402 is known, the position / orientation of the robot hand 1002 can be similarly obtained. [0050] Next, a teaching data correction method according to the present invention when the robot hand 1002 is replaced will be described. When the multi-joint robot 1001 is introduced to the site and the transfer work becomes possible, the robot hand position / orientation measuring device 1003 is used to set the outer unit 1 of the robot hand 1002 for each wafer cassette mounting position.
The position / orientation with respect to 404 is measured, and the storage device 1202
Remember. Since the lower portion 1405 of the outer unit 1404 has the same shape as the lower portion 1305 of the wafer cassette 1301, the robot hand position / orientation measuring device 1003 can be firmly attached to the working position. [0051] Further, since the shape of the gripped portion 1402 is the same as that of the wafer cassette 1301, the robot hand 100
2 can be measured without replacement. Furthermore, since the weight of the inner unit 1403 is the same as the weight of the wafer cassette 1301, the load on the articulated robot 1001 is the same as the actual work. Therefore, the conditions for actual work and measurement are the same. Here, consider a case where the robot hand 1002 is deformed due to a collision or the like and is replaced. [0052] FIG. 16 shows the positions of the grip points of the articulated robot 1001 before and after the replacement of the robot hand 1002.
It is a figure which shows a posture. If the deformation is only the robot hand 1002, the mechanism parameters other than the robot hand 1002 are the same as those in the previous teaching. Therefore, the articulated robot 1001 itself moves in the position / posture before the collision according to the equation (18). However, when the robot hand 1002 is replaced, even if the robot hand 1002 has the same shape, Tt of the equation (20) changes due to dimensional error and mounting error.
As shown in 6, the position / posture is different from that in the previous teaching, and the carrying operation cannot be performed as it is. [0053] Then, the teaching position / posture is corrected. First, the articulated robot 1001 is moved to one of the mounting positions, and the gripped portion 1 of the inner unit 1403 of the robot hand position / orientation measuring device 1003 mounted at the mounting position
The robot hand 1002 holds 402. Since the robot hand position / orientation measuring device 1003 has a sufficient gap between the inner unit 1403 and the outer unit 1404, even if the position / orientation of the robot hand 1002 deviates from the position / orientation of the previous teaching, the inner unit 1403. The gripped portion 1402 of the outer unit 140
4 can be gripped without shifting. [0054] Next, the robot hand position / orientation measuring apparatus 1003 obtains the position / orientation of the robot hand 1002 with respect to the coordinate system Os-XsYsZs fixed to the outer unit 1404. FIG. 17 shows the relationship between the coordinate system Os-XsYsZs of the outer unit 1404 and the coordinate systems before and after the robot hand 1002 is replaced. Here, the coordinate transformation matrix is defined as follows. [0055] T t : O t −X t Y before robot hand replacement
t Z t from O 6 -X 6 Y 6 coordinate transformation matrix T t to Z 6 ': after the robot hand replacement O t' -X t 'Y t ' Z t ' from O 6 -X 6 Y 6 Z 6 coordinate transformation matrix to Ts: Os-XsYsZs from O 0 -X 0 Y 0 coordinate transformation matrix to Z 0 Tw: Ow-XwYwZw from O t -X t Y t coordinate transformation matrix to Z t T R1: robot hand Coordinate conversion matrix T R2 from Ow-XwYwZw to Os-XsYsZs detected by the robot hand position / orientation measuring device 1003 before replacement: Ow-XwYwZw detected by the robot hand position / orientation measuring device 1003 after robot hand replacement since the kinematic parameters of the coordinate transformation matrix to Os-XsYsZs [0056] multi-joint robot 1001 not changed from the position and attitude of the O 6 -X 6 Y 6 Z 6 is also unchanged. However, O t -X t Y t Z t for kinematic parameters of the robot hand 1002 is changed O t '-X t'
It is changed to Y t 'Z t' '. Note that Ow-XwYwZw has not changed. Therefore, from FIG. 17, equation (30),
The relationship of (31) is established, and from this, the coordinate conversion matrix Tt 'equation (32) after the robot hand exchange is obtained. [0057]

【数19】 図18は本実施例のシステム構成図である。変形がロボ
ットハンドのみに限定される場合は、装着位置に拘らず
R1、R2の値が等しいから、一つの装着位置に対する
測定で全ての装着位置に対する位置・姿勢を修正するこ
とができる。このとき、ロボットコントローラ1004
は図18に示すようにロボットハンド位置・姿勢計測装
置1003から送られた計測データをもとに記憶装置1
202中のTtをTt’に更新するだけでよく、再ティー
チング作業によりティーチングデータを変更する必要は
ない。 〔0057〕〔実施例 8〕次ぎに、変形がロボットハ
ンド1002に留まらず多関節ロボット1001にまで
及んだ場合の修正方法を説明する。変形が前記多関節ロ
ボット1001まで及んだ場合には、ロボットハンド1
002の機構パラメータの他に多関節ロボット1001
の機構パラメータも修正する必要がある。 〔0058〕そこで、多関節ロボット1001を装着位
置に移動し、装着位置に装着したロボットハンド位置・
姿勢計測装置1003の内側ユニット1403の被把持
部1402をロボットハンド1002により把持し、ロ
ボットハンド1002の位置・姿勢を求める。ただし、
多関節ロボット1001を現場に導入し搬送作業が可能
となった時点で、ロボットハンド位置・姿勢計測装置1
003を用いて各装着位置毎のロボットハンド1002
の外側ユニット1404に対する位置・姿勢を計測し、
予め記憶装置1202に記憶させておく。 〔0059〕〔実施例 9〕図19は4つの装着位置を
持つ製造装置の斜視図である。したがって、多関節ロボ
ット1001のロボットハンド1002の製造装置19
05に対する把持ポイントは装着位置1901、190
2、1903、1904のように4つ存在する。 〔0060〕図20は装着位置1901における外側ユ
ニット1404の座標系に対するロボットハンド100
2の交換前と後の座標系の関係を示すものである。衝突
により多関節ロボット1001の機構パラメータが変化
し、O6−X666の位置・姿勢も変化しているので、
一つの装着位置に対する測定により全領域の動作を修正
する事は出来ない。したがって、ここで多関節ロボット
1001の機構パラメータを測定して座標変換行列T0,
1,T2,T3,T4,T5,T6等を修正すべきであるが、こ
れは困難な作業であり長大な時間を要する。 〔0061〕そこで、多関節ロボット1001の変形に
よるズレとロボットハンド1002交換によるズレをロ
ボットハンドそのもののズレに換算して位置・姿勢を修
正することを考える。図21は本実施例のシステム構成
図である。一つの装着位置に対する測定で得られた座標
変換行列Ttで多関節ロボット1001の全ての動作領
域に対する修正を行うことは出来ない。しかし、図21
に示すように記憶装置1202に各装着位置の座標変換
行列Ttをテーブルデータ(TtI,TtII,TtIII,TtI
V)として持たせ、CPU1201で各装着位置のロボ
ットハンドの座標変換行列を選択してティーチング位置
・姿勢を修正するようにする。 〔0062〕〔実施例 10〕衝突等により故障した多
関節ロボット1001を同型のものと入れ換える場合の
修正に関し説明する。ここでは、図22に示すようにテ
ィーチングデータを持つ多関節ロボット2201とティ
ーチングデータを持たない同一形式の多関節ロボット2
202を交換することを考える。厳密には、多関節ロボ
ット2201と同2202の機構パラメータは同一でな
いので、多関節ロボット2201のティーチングデータ
を同2202にコピーしても同じようには動かない。 〔0063〕そこで、多関節ロボット2201のティー
チングデータを同2202の記憶装置1202にコピー
後、上記2202のロボットハンドの位置・姿勢を修正
する。図23に示すように、現場搬入前にステージ23
01とロボットハンド位置・姿勢計測装置1003を用
いて多関節ロボット2201に代表点のティーチングを
行い、外側ユニット1404の各代表点におけるロボッ
トハンド1002の位置・姿勢を記憶装置1202に記
憶する。 〔0064〕なお、多関節ロボット2201が作業する
製造装置の構成は既知であるから、上記代表点として多
関節ロボット2201がウェハカセット1301を把持
するポイントを選ぶようにする。多関節ロボット220
1が故障した場合は、交換用の多関節ロボット2202
に多関節ロボット2201と同一のティーチング点を把
持させてその位置・姿勢を求める。 〔0065〕図24は、上記外側ユニット1404の代
表点における多関節ロボット2201と同2202のロ
ボットハンド1002の座標系の関係図である。上記座
標系とその座標変換行列は以下のようになる。 OtA−XtAtAtA:多関節ロボット2201のロボッ
トハンドに固定された座標系 OtB−XtBtBtB:多関節ロボット2202のロボッ
トハンドに固定された座標系 TtA:多関節ロボット2201のロボットハンドのOtA
−XtAtAtAからO6−X666への座標変換行列 TtB:多関節ロボット2202のロボットハンドのOtB
−XtBtBtBからO6−X666への座標変換行列 〔0066〕多関節ロボット2201と同2202の機
構パラメータは厳密には同一ではないものの、全ての代
表点について両ロボットのロボットハンドに固定された
座標系の関係が既知であれば、ロボットの入れ換えによ
るズレを実施例1と同様の座標変換行列の演算により修
正することができる。図22に示したように、多関節ロ
ボット2201のティーチングデータと、多関節ロボッ
トB2202のロボットハンドの座標変換行列のテーブ
ルデータ(TtIB,TtIIB,TtIIIB,TtIVB)とから多関
節ロボット2202の現場搬入前に上記修正を容易に行
えるのでライン停止時間を低減することができる。 〔0067〕〔実施例 11〕図25は故障等によりテ
ィーチング済みの製造装置をティーチングされていない
ものに入れ替える場合を説明する図である。入れ替えに
は装置の設置誤差や加工誤差等が入るため、入れ替え後
の製造装置2502を入れ替え前の製造装置2501に
対するティーチングデータで動作する多関節ロボット1
001で作業させてもロボットハンドの位置・姿勢は同
一にはならない。 〔0068〕このためティーチング位置・姿勢デ−タを
の修正する。本発明では、上記製造装置の位置ズレをロ
ボットハンドの機構パラメータが変化したものとして修
正する。まず、多関節ロボット1001を製造装置D2
502の位置に移動して、その装着位置に装着したロボ
ットハンド位置・姿勢計測装置1003の内側ユニット
1403の被把持部1402を把持して、ロボットハン
ド1002の位置・姿勢を求める。 〔0069〕図25に示したように、製造装置2501
に対する多関節ロボット1001のティーチングデータ
と、CPU1201が選択するロボットコントローラ1
04の記憶装置1202に記憶した製造装置D2502
の各装着位置に対する多関節ロボット1001のロボッ
トハンドの座標変換行列のテーブルデータ(TID,
I ID,TIIID,TIVD)より各装着位置のティーチング位
置・姿勢を修正する。 〔0070〕〔実施例 12〕上記の修正方法は図26
のように多数の製造装置が存在するベイ方式の半導体前
工程ライン内で自走するロボットのティーチング位置・
姿勢の修正にも適用することができる。図26におい
て、自走式ロボット2601は例えば製造装置1905
のティーチングデータを持ち、他の製造装置については
上記の位置・姿勢修正方法を適用する。これにより修正
作業を効率化することができる。 〔0071〕〔実施例 13〕図27は本発明による他
のロボットハンド位置・姿勢計測装置の構成図である。
演算装置2701はセンサ1210a〜1210fの出
力から内側ユニット1403と外側ユニット1404の
相対位置・姿勢を演算し、記憶装置2702はその演算
結果と製造装置の装着位置番号とを記憶する。また、イ
ンターフェース部2703はロボットコントローラ10
04とI/Oユニットを介して情報を交換する。 〔0072〕図28はロボットコントローラ1004の
構成図である。ロボットハンド位置・姿勢計測装置10
03の内側ユニット1403の被把持部1402を把持
した後ティーチング位置・姿勢を自動的に修正するの
で、ティーチング作業が不要となる。また、本実施例で
は実施例1に比べ、CPU1201の負担を軽減し、記
憶装置1202の容量も低減することができる。 〔0073〕〔実施例 14〕本発明のロボットハンド
位置・姿勢計測装置を用いたロボットティーチング位置
・姿勢データ修正方法の一実施例を図面を用いて説明す
る。図29はロボットの機構図である。6自由度の関節
型ロボット2901は回転関節#1〜#6とロボットハ
ンド2902により構成されている。θ1〜θ6は各関節
の回転角である。ロボット2901の座標系と座標変換
行列及びベクトルは以下のようになる。 O0−X000:ロボット2901のベースに固定され
た基準座標系 Oi−Xiii:ロボット2901のi番目の被駆動部
に固定された座標系 OH−XHHH:ロボットハンド2902に固定された
座標系 Ti:Oi−XiiiからOi-1−Xi-1i-1i-1への
座標変換行列 TH:OH−XHHHからO6−X666への座標変換
行列 X0:O0−X000であらわした非斉次位置ベクトル XH:OH−XHHHであらわした非斉次位置ベクトル 〔0074〕これらのベクトルには式(33)の関係が
成り立つ。ただし、Tは式(34)で定義される。
[Formula 19] FIG. 18 is a system configuration diagram of this embodiment. When the deformation is limited to only the robot hand , the values of T R1 and T R2 are the same regardless of the mounting positions, so that the position / orientation for all the mounting positions can be corrected by measuring one mounting position. At this time, the robot controller 1004
18 shows the storage device 1 based on the measurement data sent from the robot hand position / orientation measurement device 1003 as shown in FIG.
It is only necessary to update Tt in 202 to Tt ', and it is not necessary to change teaching data by re-teaching work. [0057] [Embodiment 8] Next, a correction method when the deformation extends not only to the robot hand 1002 but also to the articulated robot 1001 will be described. When the deformation reaches the articulated robot 1001, the robot hand 1
In addition to the mechanical parameters of 002, an articulated robot 1001
It is necessary to modify the mechanism parameter of. [0058] Then, the articulated robot 1001 is moved to the mounting position, and the robot hand position
The gripped portion 1402 of the inner unit 1403 of the posture measuring apparatus 1003 is gripped by the robot hand 1002, and the position / posture of the robot hand 1002 is obtained. However,
At the time when the articulated robot 1001 is introduced to the site and the transfer work becomes possible, the robot hand position / orientation measuring device 1
Robot hand 1002 for each mounting position using 003
The position and orientation of the outer unit 1404 of the
It is stored in the storage device 1202 in advance. [Embodiment 9] FIG. 19 is a perspective view of a manufacturing apparatus having four mounting positions. Therefore, the manufacturing apparatus 19 for the robot hand 1002 of the articulated robot 1001
The gripping points for 05 are mounting positions 1901, 190
There are four such as 2, 1903 and 1904. [0060] FIG. 20 shows the robot hand 100 with respect to the coordinate system of the outer unit 1404 at the mounting position 1901.
2 shows the relationship between the coordinate system before and after the exchange of No. 2. Since the mechanical parameter of the articulated robot 1001 changes due to the collision, and the position / orientation of O 6 -X 6 Y 6 Z 6 also changes,
It is not possible to correct the movement of all areas by measuring one mounting position. Therefore, here, the mechanism parameters of the articulated robot 1001 are measured and the coordinate transformation matrix T 0 ,
T 1, T 2, T 3 , T 4, T 5, but should be modified to T 6 and the like, this is a difficult task requiring a long time. [0061] Therefore, it is considered that the displacement due to the deformation of the articulated robot 1001 and the displacement due to the exchange of the robot hand 1002 are converted into the displacement of the robot hand itself to correct the position / orientation. FIG. 21 is a system configuration diagram of this embodiment. The coordinate transformation matrix Tt obtained by the measurement for one mounting position cannot correct all the motion areas of the articulated robot 1001. However, FIG.
As shown in FIG. 5, the coordinate conversion matrix Tt of each mounting position is stored in the storage device 1202 as table data (TtI, TtII, TtIII, TtI).
V), and the CPU 1201 selects the coordinate conversion matrix of the robot hand at each mounting position to correct the teaching position / posture. [0062] [Embodiment 10] A description will be given of correction in the case of replacing the articulated robot 1001 that has failed due to a collision or the like with the same type. Here, as shown in FIG. 22, an articulated robot 2201 having teaching data and an articulated robot 2 of the same type having no teaching data
Consider replacing the 202. Strictly speaking, since the mechanical parameters of the articulated robot 2201 and 2202 are not the same, even if the teaching data of the articulated robot 2201 is copied to the same 2202, it does not move in the same way. [0063] Therefore, after copying the teaching data of the articulated robot 2201 to the storage device 1202 of the same 2202, the position / orientation of the robot hand 2202 is corrected. As shown in FIG. 23, the stage 23
01 and the robot hand position / orientation measuring device 1003 are used to teach representative points to the articulated robot 2201, and the position / orientation of the robot hand 1002 at each representative point of the outer unit 1404 is stored in the storage device 1202. [0064] Since the structure of the manufacturing apparatus on which the articulated robot 2201 works is known, the point at which the articulated robot 2201 grips the wafer cassette 1301 is selected as the representative point. Articulated robot 220
If 1 fails, a replacement articulated robot 2202
Then, the same teaching point as that of the articulated robot 2201 is held and the position / orientation thereof is obtained. [0065] FIG. 24 is a relational diagram of the coordinate system of the articulated robot 2201 and the robot hand 1002 of the same 2202 at the representative point of the outer unit 1404. The coordinate system and its coordinate transformation matrix are as follows. O tA -X tA Y tA Z tA : multi-coordinate is fixed to the robot hand articulated robot 2201 based O tB -X tB Y tB Z tB : a multi-joint coordinate system fixed to the robot hand of the robot 2202 T tA: Multi O tA of robot hand of joint robot 2201
-X tA Y tA Z tA to O 6 -X 6 Y 6 Z 6 coordinate conversion matrix T tB : O tB of robot hand of articulated robot 2202
Coordinate conversion matrix from -X tB Y tB Z tB to O 6 -X 6 Y 6 Z 6 [0066] Although the mechanism parameters of the multi-joint robot 2201 and the same 2202 are not exactly the same, both of them are represented for all representative points. If the relationship of the coordinate system fixed to the robot hand of the robot is known, the deviation due to the replacement of the robot can be corrected by the calculation of the coordinate conversion matrix similar to the first embodiment. As shown in FIG. 22, before the on-site loading of the articulated robot 2202 from the teaching data of the articulated robot 2201 and the table data (TtIB, TtIIB, TtIIIB, TtIVB) of the coordinate conversion matrix of the robot hand of the articulated robot B2202. In addition, since the above correction can be easily performed, the line stop time can be reduced. [0067] [Embodiment 11] FIG. 25 is a diagram for explaining a case where a manufacturing apparatus that has been taught is replaced with an unteached manufacturing apparatus due to a failure or the like. Because the installation error and the processing error of the device are included in the replacement, the articulated robot 1 that operates the manufacturing device 2502 after the replacement with the teaching data for the manufacturing device 2501 before the replacement
The position / posture of the robot hand does not become the same even if it is made to work in 001. [0068] Therefore, the teaching position / posture data is corrected. In the present invention, the positional deviation of the manufacturing apparatus is corrected as if the mechanical parameter of the robot hand has changed. First, the articulated robot 1001 is manufactured by the manufacturing device D2.
The robot moves to the position 502, grips the gripped portion 1402 of the inner unit 1403 of the robot hand position / orientation measuring apparatus 1003 mounted at the mounting position, and obtains the position / orientation of the robot hand 1002. [0069] As shown in FIG. 25, the manufacturing apparatus 2501
Data of the articulated robot 1001 for the robot and the robot controller 1 selected by the CPU 1201
Manufacturing device D2502 stored in the storage device 1202 of No. 04.
Table data of the coordinate conversion matrix of the robot hand of the articulated robot 1001 (T ID ,
Correct the teaching position / posture of each mounting position from T I ID , T IIID , T IVD ). [0070] [Embodiment 12] FIG.
The teaching position of a self-propelled robot in a bay type semiconductor pre-process line where there are many manufacturing equipment like
It can also be applied to posture correction. In FIG. 26, the self-propelled robot 2601 is, for example, a manufacturing apparatus 1905.
With the teaching data of, the above position / orientation correction method is applied to other manufacturing equipment. As a result, the correction work can be made efficient. [0071] [Embodiment 13] FIG. 27 is a block diagram of another robot hand position / orientation measuring apparatus according to the present invention.
The arithmetic unit 2701 calculates the relative positions and orientations of the inner unit 1403 and the outer unit 1404 from the outputs of the sensors 1210a to 1210f, and the storage unit 2702 stores the calculation result and the mounting position number of the manufacturing apparatus. The interface unit 2703 is the robot controller 10.
Information is exchanged via 04 and the I / O unit. [0072] FIG. 28 is a block diagram of the robot controller 1004. Robot hand position / orientation measuring device 10
Since the teaching position and posture are automatically corrected after gripping the gripped portion 1402 of the inner unit 1403 of No. 03, teaching work is unnecessary. Further, in this embodiment, the load on the CPU 1201 can be reduced and the capacity of the storage device 1202 can be reduced as compared with the first embodiment. [Embodiment 14] An embodiment of a robot teaching position / orientation data correction method using the robot hand position / orientation measuring apparatus of the present invention will be described with reference to the drawings. FIG. 29 is a mechanism diagram of the robot. The 6-degree-of-freedom articulated robot 2901 includes rotary joints # 1 to # 6 and a robot hand 2902. θ1 to θ6 are rotation angles of each joint. The coordinate system of the robot 2901 and the coordinate transformation matrix and vector are as follows. O 0 -X 0 Y 0 Z 0 : a reference coordinate system fixed to the base of the robot 2901 O i -X i Y i Z i: i -th coordinate system fixed to the driven portion of the robot 2901 O H -X H Y H Z H: coordinates fixed to the robot hand 2902 system T i: O i -X i Y i coordinate transformation matrix from Z i to O i-1 -X i-1 Y i-1 Z i-1 T H: O H -X H Y H Z H from O 6 -X 6 Y 6 coordinate transformation matrix X 0 to Z 6: O 0 -X 0 Y 0 Z 0 at represents the inhomogeneous position vector X H: O H -X H Y H inhomogeneous position vector expressed by Z H [0074] these vectors satisfy the relationship of formula (33). However, T is defined by the equation (34).

【数20】 1〜T6はロボット2901の関節回転角及び機構パラ
メータに依存し、THはロボットハンド2902の形状
パラメータに依存する。ロボット2901の位置はXH
をハンド中心位置ベクトルとして求めることができ、ロ
ボット2901の姿勢はロボットハンド2902の基準
座標に対する姿勢角であるから、この姿勢角(例えばオ
イラー角)は座標変換行列Tより求めることができる。 〔0075〕図30(a)に示すように、ロボットハン
ド位置・姿勢計測装置3001は内側ユニット3001
bと距離センサを取り付けた外側ユニット3001aと
からなり、内側ユニット3001bは外側ユニット30
01a内で任意の位置・姿勢をとることができる。図3
2に示すように、オペレータは外側ユニット3001a
を装置3201上に位置決めしてロボット2901に内
側ユニット3001bの上部を把持させる。ティーチン
グと測定とを同時に行うために、外側ユニット3001
aの位置決め部と内側ユニット3001bのロボット把
持部との形状が実搬送ワークと同一とする。例えばロボ
ットの搬送ワークが図33(a)のウエハカセット33
01の場合、ロボットハンド位置・姿勢計測装置300
1の形状を同図(b)のようにする。 〔0076〕図30(b)は外側ユニット3001aの
構造と座標系OS−XSSSの関係図である。内側の平
面XSS上に3個の距離センサ3002a、3002
b、3002c、平面YSS上に2個の距離センサ30
02d、3002e、平面ZSSに1個の距離センサ3
002fをとりつけ,取付平面と内側ユニット3001
bの平面間の距離を測定する。図30(c)は内側ユニ
ット3001bの構造と座標系OW−XWWWの関係図
である。 〔0077〕図31は座標系OS−XSSSとOW−XW
WWの関係図である。平面XWW上の3点をP1
2、P3、平面YWW上の2点をP4、P5、平面ZWW
上の点をP6、空間内の任意の点をPとする。ここでベ
クトルPi(i=1〜6)、P、P0を式(35)のよう
に定義する。まず、平面XWW上の3点P1、P2、P3
を通る平面の方程式の標準形は式(36)のようにな
る。NZは平面XWWと直交する単位ベクトルであり、
Zは原点OSから平面XWWへの距離である。同様に、
平面YWW上の2点P4、P5を通りベクトルNZを含む
平面の方程式の標準形は式(37)のようになる。 〔0078〕
[Equation 20] T 1 through T 6 depends on the joint rotation angle and kinematic parameters of the robot 2901, T H is dependent on the shape parameters of the robot hand 2902. The position of the robot 2901 is X H
Can be obtained as the hand center position vector, and the posture of the robot 2901 is the posture angle of the robot hand 2902 with respect to the reference coordinates. Therefore, this posture angle (for example, Euler angle) can be obtained from the coordinate transformation matrix T. [0075] As shown in FIG. 30 (a), the robot hand position / orientation measuring apparatus 3001 includes an inner unit 3001.
b and an outer unit 3001a to which a distance sensor is attached, and the inner unit 3001b is the outer unit 30.
Any position / posture can be taken within 01a. Figure 3
As shown in FIG. 2, the operator selects the outer unit 3001a.
Is positioned on the device 3201 so that the robot 2901 grips the upper part of the inner unit 3001b. In order to perform teaching and measurement at the same time, the outer unit 3001
The shapes of the positioning portion a and the robot gripping portion of the inner unit 3001b are the same as those of the actual transfer work. For example, the transfer work of the robot is the wafer cassette 33 of FIG.
In the case of 01, the robot hand position / orientation measuring device 300
The shape of 1 is as shown in FIG. [0076] FIG. 30 (b) is a graph showing the relationship between the structure and the coordinate system of the external unit 3001a O S -X S Y S Z S. Three distance sensors 3002a, 3002 on the inner plane X S Y S
b, 3002c, two distance sensors 30 on the plane Y S Z S
02d, 3002e, one distance sensor 3 on the plane Z S X S
002f is attached, the mounting plane and the inner unit 3001
Measure the distance between the planes of b. Figure 30 (c) is a graph showing the relationship between the structure and the coordinate system of the inner unit 3001b O W -X W Y W Z W. [0077] FIG. 31 is a coordinate system O S -X S Y S Z S and O W -X W
It is a relationship diagram of a Y W Z W. 3 points on the plane X W Y W are P 1 ,
P 2 , P 3 , two points on the plane Y W Z W , P 4 , P 5 , plane Z W X W
Let P 6 be the upper point and P be an arbitrary point in space. Here, the vectors P i (i = 1 to 6), P, and P 0 are defined as in Expression (35). First, three points P 1 , P 2 , P 3 on the plane X W Y W
The standard form of the equation of the plane passing through is as in equation (36). N Z is a unit vector orthogonal to the plane X W Y W ,
d Z is the distance from the origin O S onto the plane X W Y W. Similarly,
The standard form of the equation of the plane passing through the two points P 4 and P 5 on the plane Y W Z W and containing the vector N Z is as shown in equation (37). [0078]

【数21】 Xは、平面YWWと直交する単位ベクトルであり、dX
は原点OSから平面YWWへの距離である。同様に平面
WW上の点P6を通りベクトルNZとNXを含む平面の
方程式の標準形は式(38)のようになる。NYは、平
面ZWWと直交する単位ベクトルであり、dYは原点OS
から平面ZWWへの距離である。ベクトルP0は3平面
の交点であり式(39)のようになる。ここで、任意の
点Pの座標OS−XSSSとであらわした非斉次位置ベ
クトルをXS、座標OW−XWWWであらわした非斉次
位置ベクトルをXWとおけば、座標OS−XSSSとOW
−XWWWとの座標変換は式(40)でとなる。 〔0079〕ここでTRは4×4の座標変換行列、RR
座標の回転をあらわす3×3の行列、PRは座標平行移
動をあらわす3次元ベクトルである。ベクトルNX
Y、NZとP0を座標OS−XSSSであらわせば座標
変換行列TRは式(41)となる。
[Equation 21] N X is a unit vector orthogonal to the plane Y W Z W , and d X
Is the distance from the origin O S to the plane Y W Z W. Similarly, the standard form of the equation of the plane passing through the point P 6 on the plane Z W X W and containing the vectors N Z and N X is as shown in equation (38). N Y is a unit vector orthogonal to the plane Z W X W , and d Y is the origin O S
To the plane Z W X W. The vector P 0 is the intersection of the three planes and is given by equation (39). Here, the non-homogeneous position vector represented by the coordinates O S −X S Y S Z S S of an arbitrary point P is X S , and the non-homogeneous position vector represented by the coordinates O W −X W Y W Z W. if put a X W, coordinates O S -X S Y S Z S and O W
The coordinate conversion with −X W Y W Z W is given by equation (40). Here, T R is a 4 × 4 coordinate transformation matrix, R R is a 3 × 3 matrix that represents the rotation of coordinates, and P R is a three-dimensional vector that represents the coordinate translation. The vector N x ,
N Y, N Z and P 0 coordinate O S -X S Y S Z S coordinate transformation matrix T R Expressed in a formula (41).

【数22】 〔0080〕外側ユニット3001aを位置決めしてロ
ボットに内側ユニット3001bの上部を把持させた時
の座標変換行列TRをTRaとすると、座標変換行列TR1
は測定器3の外側ユニット3001a及び内側ユニット
3001bの形状データを用いて式(41)より算出で
きる。ここで座標変換行列を以下のように定義する。 Ta :ティーチングしたい位置・姿勢における式(3
4)であらわされる座標変換行列 Tb :ロボットの現在位置・姿勢における式(34)で
あらわされる座標変換行列 TRb:ロボットの現在位置・姿勢における式(41)よ
り計算される座標変換行列 TW :OW−XWWWからOH−XHHHへの座標変換
行列 TS :OS−XSSSからO0−X000への座標変換
行列 〔0081〕図34はこれらの座標系と座標変換行列の
関係図である。ここでは便宜的に座標変換行列を原点を
結ぶベクトルで示した。これよりが成立する。TWはロ
ボットハンド2902が内側ユニット3001bを把持
した時の位置関係をあらわす座標変換行列である。式
(42)よりティーチングしたい位置・姿勢における式
(34)であらわした座標変換行列Taは式(43)の
ようになり、ティーチングしたい位置・姿勢の位置デー
タは式(44)より計算することができる。ティーチン
グしたい位置・姿勢の姿勢角は座標変換行列Taよりも
とめることができる。例えばオイラー角をZ軸回りの回
転角φ、φ回転後のY軸回りの回転角θ、θ回転後のZ
軸回りの回転角ψとし、式(45)のように座標変換行
列Taを定義すればオイラー角は式(46)よりもとま
る。 〔0082〕
[Equation 22] [0080] If the coordinate transformation matrix T R when the outer unit 3001a is positioned and the robot holds the upper portion of the inner unit 3001b is T Ra , the coordinate transformation matrix T R1
Can be calculated from the equation (41) using the shape data of the outer unit 3001a and the inner unit 3001b of the measuring device 3. Here, the coordinate transformation matrix is defined as follows. T a : Expression (3 in the position / posture you want to teach
4) Coordinate transformation matrix represented by T b : Coordinate transformation matrix represented by equation (34) in the current position / orientation of the robot T Rb : Coordinate transformation matrix T calculated by equation (41) in the current position / orientation of the robot T W: O W -X W Y W O from Z W H -X H Y H Z coordinate transformation matrix to H T S: from O S -X S Y S Z S to O 0 -X 0 Y 0 Z 0 Coordinate Transformation Matrix [0081] FIG. 34 is a diagram showing the relationship between these coordinate systems and the coordinate transformation matrix. Here, the coordinate transformation matrix is shown as a vector connecting the origins for convenience. This is true. T W is a coordinate conversion matrix showing a positional relationship when the robot hand 2902 holds the inner unit 3001b. The coordinate transformation matrix Ta represented by the equation (34) at the position / posture to be taught from the equation (42) is as shown in the equation (43), and the position data of the position / posture to be taught can be calculated from the equation (44). it can. The posture angle of the position / posture to be taught can be obtained from the coordinate conversion matrix Ta. For example, the Euler angle is the rotation angle φ around the Z axis, the rotation angle θ around the Y axis after φ rotation, and the Z after the θ rotation.
If the rotation angle ψ about the axis is used and the coordinate conversion matrix Ta is defined as in Expression (45), the Euler angle can be obtained from Expression (46). [0082]

【数23】 〔0083〕〔実施例 15〕図35は本発明によるシ
ステム構成図である。手動操作時には、CPU3501
はインターフェース3507を介してティーチングボッ
クス3506より動作方向情報を受け取って各関節の目
標角度を算出し、D/Aコンバータ3503を指令して
カウンタ3505からの各関節角度の現在値が目標値と
なるようにアンプ3504、モータを駆動してロボット
2901を動作させる。 〔0084〕自動運転時には、CPU3501はメモリ
3502が記憶する位置・姿勢のティーチングデータと
動作シーケンスとから各関節の目標角度を算出し、手動
操作時と同様にしてロボット2901を駆動する。ま
た、ティーチング時及びティーチング位置・姿勢修正時
には、CPU3501はロボットハンド2902が把持
するロボットハンド位置・姿勢計測装置3001からセ
ンサ3002a〜3002fの値をインターフェース3
508を介して取り込み、式(41)を用いて座標変換
行列TRBを算出し、式(44)、(46)よりティーチ
ング位置・姿勢を算出する。 〔0085〕図36は上記ティーチング時のフローチャ
−トである。まず、ロボットハンド位置・姿勢計測装置
3001の外側ユニット3001aをティーチングした
い位置・姿勢に位置決めし、ロボット2901をおよそ
の位置・姿勢に誘導する。次いで内側ユニット3001
bをロボットハンド2902で把持してロボットハンド
位置・姿勢計測装置3001の出力を取り込み、式(4
1)を用いて座標変換行列TRBを算出し、式(44)、
(46)よりティーチング位置・姿勢を算出し、メモリ
3502に記憶する。 〔0086〕図37はティーチング位置・姿勢修正時の
フローチャ−トである。外側ユニット3001aの位置
決め後、ロボット2901をメモリ3502に記憶した
位置・姿勢にする。次いで内側ユニット3001bをロ
ボットハンド2902で把持してロボットハンド位置・
姿勢計測装置3001の出力を取り込み、式(41)を
用いて座標変換行列TRBを算出し、式(44)、(4
6)よりティーチング位置・姿勢を算出してティーチン
グ済の位置・姿勢データを修正し、修正後のティーチン
グデータをメモリ3502に記憶する。なお、正確な修
正が不要なポイントがこの修正済みのポイントの近傍に
ある場合、この位置・姿勢を修正済みポイントの座標変
換行列TRBを用いて修正することもできる。 〔0087〕図38は2台のロボットにティーチングす
る場合のフローチャ−トである。まず、一台目をティー
チングし、そのティーチング位置・姿勢データを二台目
にコピーする。次いでこのコピーしたデータにより二台
目のロボットを動作させ、同様にしてロボットハンド位
置・姿勢計測装置3001の出力より式(41)を用い
て座標変換行列TRbを算出し、式(44)、(46)よ
りティーチング位置・姿勢を算出して二台目のロボット
のティーチング済の位置・姿勢データを修正する。これ
により二台目のロボットの教示時間を短縮することがで
きる。 〔0088〕〔実施例 16〕図39は、システムの第
2の構成例である。図39では図35のCPU3501
とインターフェース3508間に測定器用CPU400
1とインターフェース4002が追加されている。手動
操作時と自動運転時の動作は実施例 と同様である。テ
ィーチング時とティーチング位置・姿勢修正時には、測
定器用CPU4001はCPU3501からの現在位置
・姿勢のティーチングデータをインターフェース400
2を介して受取り、ティーチングしたい位置・姿勢を算
出し、算出結果をCPU3501に戻すようにする。 〔0089〕〔実施例 17〕本発明のロボットのティ
ーチングおよびティーチング位置・姿勢修正方法は、ス
ルーザウォールタイプの装置に対するティーチング作業
を最適化できる。対象装置がウェハカセット搬送作業も
行う場合には、図41に示すようなウェハカセット33
01の装着位置が前面パネルより奥にあるスルーザウォ
ールタイプの装置が用いられることがある。スルーザウ
ォールタイプの装置4101の装着位置4102は前面
パネルより奥にあり、その周囲の間隙が狭いものが多
く、オペレータはロボットハンドの位置・姿勢を確認す
ることが困難になる。このため熟練作業者でも教示作業
に多大な時間を要するという問題があった。
[Equation 23] [0083] [Embodiment 15] FIG. 35 is a system configuration diagram according to the present invention. During manual operation, CPU 3501
Receives the movement direction information from the teaching box 3506 via the interface 3507, calculates the target angle of each joint, and commands the D / A converter 3503 so that the current value of each joint angle from the counter 3505 becomes the target value. Then, the amplifier 3504 and the motor are driven to operate the robot 2901. [0084] During automatic operation, the CPU 3501 calculates the target angle of each joint from the position / orientation teaching data stored in the memory 3502 and the operation sequence, and drives the robot 2901 in the same manner as during manual operation. Further, at the time of teaching and when the teaching position / orientation is corrected, the CPU 3501 receives the values of the sensors 3002a to 3002f from the robot hand position / orientation measuring device 3001 gripped by the robot hand 2902 through the interface 3
The coordinate conversion matrix T RB is calculated by using Expression (41), and the teaching position / orientation is calculated from Expressions (44) and (46). [0085] FIG. 36 is a flowchart for the above teaching. First, the outer unit 3001a of the robot hand position / orientation measuring device 3001 is positioned at the position / orientation desired to be taught, and the robot 2901 is guided to the approximate position / orientation. Then the inner unit 3001
b is grasped by the robot hand 2902, the output of the robot hand position / orientation measuring device 3001 is fetched, and the expression (4
1) is used to calculate the coordinate transformation matrix T RB , and equation (44)
The teaching position / orientation is calculated from (46) and stored in the memory 3502. [0086] FIG. 37 is a flow chart when the teaching position and posture are corrected. After positioning the outer unit 3001a, the robot 2901 is placed in the position / posture stored in the memory 3502. Next, the inner unit 3001b is gripped by the robot hand 2902 to position the robot hand.
The output of the posture measurement apparatus 3001 is fetched, the coordinate transformation matrix T RB is calculated using the equation (41), and the equations (44), (4
The teaching position / posture is calculated from 6), the teaching-completed position / posture data is corrected, and the corrected teaching data is stored in the memory 3502. When a point that does not require accurate correction is near the corrected point, the position / orientation can be corrected using the coordinate conversion matrix T RB of the corrected point. [0087] FIG. 38 is a flow chart in the case of teaching two robots. First, teach the first unit and copy the teaching position / posture data to the second unit. Then, the second robot is operated by the copied data, and similarly, the coordinate transformation matrix T Rb is calculated from the output of the robot hand position / orientation measuring device 3001 using the equation (41), and the equation (44), The teaching position / orientation is calculated from (46) to correct the taught position / orientation data of the second robot. As a result, the teaching time of the second robot can be shortened. [0088] [Embodiment 16] FIG. 39 shows a second configuration example of the system. In FIG. 39, the CPU 3501 of FIG.
Between measuring instrument and interface 3508
1 and an interface 4002 are added. The operations during manual operation and automatic operation are the same as in the embodiment. At the time of teaching and when the teaching position / orientation is corrected, the measuring instrument CPU 4001 receives the teaching data of the current position / orientation from the CPU 3501 through the interface 400.
2, the position / orientation to be taught is calculated, and the calculation result is returned to the CPU 3501. [Embodiment 17] The robot teaching and teaching position / orientation correction method of the present invention can optimize teaching work for a through-the-wall type device. When the target device also carries out the wafer cassette transfer work, the wafer cassette 33 as shown in FIG.
There may be used a through-the-wall type device in which the mounting position of 01 is deeper than the front panel. The mounting position 4102 of the through-the-wall type device 4101 is located deeper than the front panel, and there are many gaps around the front panel, which makes it difficult for the operator to confirm the position and posture of the robot hand. For this reason, there is a problem that even a skilled worker takes a lot of time for teaching work.

〔0090〕まず、ロボットハンド位置・姿勢計測装置
3001を装着位置4102に設置し、ロボットハンド
位置・姿勢計測装置3001の内側ユニット3001b
が把持できる程度の粗いティーチングデータを与える。
内側ユニット3001bと外側ユニット3001aとの
間に十分な間隙を持つから、粗いティーチングデータで
あっても装着位置4102から内側ユニット3001b
を把持し、ロボットハンド位置・姿勢計測装置3001
は外側ユニット3001aに対する内側ユニット300
1bの位置・姿勢を計測することができる。 〔0091〕また、ウェハカセット3301の設計値か
ら外側ユニット3001aに対する内側ユニット300
1bの最適な位置・姿勢を求めることもできる。センサ
3302a〜3302fの出力によりロボット2901
を制御し、内側ユニット3001bの位置・姿勢を最適
位置姿勢に一致するようにする。なお、上記各実施例は
ウェハカセット搬送作業用多関節ロボットの他に、部品
挿入作業等のティーチングプレイバック方式の産業用ロ
ボット等にも適用して同様の効果を得ることができる。 〔0092〕
[0090] First, the robot hand position / orientation measuring device 3001 is installed at the mounting position 4102, and the inner unit 3001b of the robot hand position / orientation measuring device 3001 is installed.
Gives coarse teaching data that can be grasped by the.
Since there is a sufficient gap between the inner unit 3001b and the outer unit 3001a, even if the teaching data is rough, the inner unit 3001b can be moved from the mounting position 4102.
Robot hand position / orientation measuring device 3001
Is the inner unit 300 with respect to the outer unit 3001a
The position / orientation of 1b can be measured. [0091] Further, based on the design value of the wafer cassette 3301, the inner unit 300 with respect to the outer unit 3001a.
It is also possible to find the optimum position / orientation of 1b. The robot 2901 is controlled by the outputs of the sensors 3302a to 3302f.
Is controlled to match the position / posture of the inner unit 3001b with the optimum position / posture. The above-described embodiments can be applied to not only the articulated robot for wafer cassette transfer work but also a teaching playback type industrial robot for component insertion work or the like to obtain the same effect. [0092]

【発明の効果】本発明では、ロボットハンド位置・姿勢
計測装置の内側ユニットをロボットハンドで把持したと
きの測定値をもとにティーチング位置・姿勢の修正作業
を行なうので、ティーチング作業やその修正作業を容易
化することができる。また、内側ユニットの被把持部の
形状、重量、外側ユニットの下部形状等を把持対象物と
同一にするので、ティーチングやその修正時の測定条件
を実作業と同一にして測定精度を高めることができる。
さらに半導体前工程のベイ内のように同型の装置が複数
台導入されている場合には、1台の装置の測定データで
他の装置のティーチングデータを修正することができる
のでティーチングデータ修正時間を大幅に短縮すること
ができる。
According to the present invention, the teaching position / orientation is corrected based on the measured value when the inner unit of the robot hand position / orientation measuring device is gripped by the robot hand. Can be facilitated. Further, since the shape and weight of the gripped portion of the inner unit and the lower shape of the outer unit are made the same as those of the object to be gripped, it is possible to improve the measurement accuracy by making the measurement conditions during teaching and correction the same as the actual work. it can.
Furthermore, when multiple devices of the same type are installed, such as in a semiconductor pre-process bay, the teaching data of other devices can be modified with the measurement data of one device, so the teaching data modification time is reduced. It can be greatly shortened.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明によるロボット位置・姿勢データ計測装
置の斜視図である。
FIG. 1 is a perspective view of a robot position / orientation data measuring device according to the present invention.

【図2】図1におけるA−A断面図である。FIG. 2 is a sectional view taken along line AA in FIG.

【図3】図1におけるB−B断面図である。FIG. 3 is a sectional view taken along line BB in FIG.

【図4】本発明における座標系の説明図である。FIG. 4 is an explanatory diagram of a coordinate system according to the present invention.

【図5】図1におけるロボットハンド把持用爪部と内側
ユニットの構成図である。
5 is a configuration diagram of a claw portion for grasping a robot hand and an inner unit in FIG.

【図6】本発明によるロボット位置・姿勢データ計測装
置実施例の斜視図である。
FIG. 6 is a perspective view of an embodiment of a robot position / orientation data measuring device according to the present invention.

【図7,8】本発明によるロボット位置・姿勢データ計
測装置実施例の断面図である。
7 and 8 are sectional views of an embodiment of a robot position / orientation data measuring device according to the present invention.

【図9】本発明によるスカラロボット用のロボット位置
・姿勢データ計測装置実施例の断面図である。
FIG. 9 is a sectional view of an embodiment of a robot position / orientation data measuring device for a SCARA robot according to the present invention.

【図10】本発明による多関節ロボットシステムの構成
図である。
FIG. 10 is a configuration diagram of an articulated robot system according to the present invention.

【図11】図10の関節構成図である。11 is a joint configuration diagram of FIG. 10. FIG.

【図12】本発明のロボットコントローラの構成図であ
る。
FIG. 12 is a configuration diagram of a robot controller of the present invention.

【図13】ウェハカセットの斜視図である。FIG. 13 is a perspective view of a wafer cassette.

【図14】本発明によるロボット位置・姿勢データ計測
装置実施例の断面図である。
FIG. 14 is a sectional view of an embodiment of a robot position / orientation data measuring device according to the present invention.

【図15】ロボットハンド位置・姿勢計測装置に固定さ
れた座標系を示す図である。
FIG. 15 is a diagram showing a coordinate system fixed to a robot hand position / orientation measuring device.

【図16】ロボットハンドのズレを示す図である。FIG. 16 is a diagram showing a displacement of a robot hand.

【図17】本発明における座標系の説明図である。FIG. 17 is an explanatory diagram of a coordinate system according to the present invention.

【図18】本発明実施例のブロック図である。FIG. 18 is a block diagram of an embodiment of the present invention.

【図19】製造装置の外観図である。FIG. 19 is an external view of a manufacturing apparatus.

【図20】外側ユニット座標系とロボットハンド座標系
の関係を示すベクトル図である。
FIG. 20 is a vector diagram showing the relationship between the outer unit coordinate system and the robot hand coordinate system.

【図21】本発明実施例のブロック図である。FIG. 21 is a block diagram of an embodiment of the present invention.

【図22,23】本発明装置のロボット入れ換え時の動
作説明図である。
22 and 23 are operation explanatory views when the robot of the device of the present invention is replaced.

【図24】外側ユニット座標系とロボットハンド座標系
の関係を示すベクトル図である。
FIG. 24 is a vector diagram showing the relationship between the outer unit coordinate system and the robot hand coordinate system.

【図25】本発明装置の製造装置入れ換え時の動作説明
図である。
FIG. 25 is an explanatory diagram of an operation when the manufacturing apparatus of the apparatus of the present invention is replaced.

【図26】半導体前工程ベイの構成図である。FIG. 26 is a configuration diagram of a semiconductor pre-process bay.

【図27】本発明によるロボット位置・姿勢データ計測
装置実施例の断面図である。
FIG. 27 is a sectional view of an embodiment of a robot position / orientation data measuring device according to the present invention.

【図28】本発明のロボットコントローラの構成図であ
る。
FIG. 28 is a configuration diagram of a robot controller of the present invention.

【図29】ロボットの機構図である。FIG. 29 is a mechanical diagram of the robot.

【図30,31】本発明における座標系の説明図であ
る。
30 and 31 are explanatory views of a coordinate system according to the present invention.

【図32】本発明におけるロボットの測定器把持状態を
示す図である。
FIG. 32 is a diagram showing a state in which the robot according to the present invention holds a measuring device.

【図33】本発明による測定器の外観図である。FIG. 33 is an external view of a measuring device according to the present invention.

【図34】外側ユニット座標系とロボットハンド座標系
の関係を示すベクトル図である。
FIG. 34 is a vector diagram showing the relationship between the outer unit coordinate system and the robot hand coordinate system.

【図35】本発明装置のシステム構成図である。FIG. 35 is a system configuration diagram of the device of the present invention.

【図36,37,38】本発明装置のティーチングと位
置・姿勢修正方法を説明するフローチャ−トである。
36, 37 and 38 are flow charts for explaining the teaching and the position / orientation correction method of the device of the present invention.

【図39,40】本発明装置のシステム構成図である。39 and 40 are system configuration diagrams of the device of the present invention.

【符号の説明】[Explanation of symbols]

11…内側ユニット、12…外側ユニット、13(13
a〜13f)…変位センサ、14…把持用爪部、15…
データ演算部、16…データ表示部、17…インタフェ
ース部、21、1002、2902…ロボットハンド、
22…ロボットアーム、23…作業ステーション、10
01…多関節ロボット、1003…ロボットハンド位置
・姿勢計測装置、1004…ロボットコントローラ、1
201、3501…CPU、1202…記憶装置、12
10…センサ、1301、3301…ウェハカセット、
1402…把持部、1905…製造装置、2601…自
走式ロボット、2901…ロボット、3001…測定
器、3001a…外側ユニット、3001b…内側ユニ
ット、3201…装置、3502…メモリ、3503…
D/Aコンバータ、3504…アンプ、3505…カウ
ンタ、3506…ティーチングボックス、3507、3
508、4002…インターフェース、4001…測定
器用CPU。
11 ... Inner unit, 12 ... Outer unit, 13 (13
a to 13f) ... Displacement sensor, 14 ... Grasping claws, 15 ...
Data calculation unit, 16 ... Data display unit, 17 ... Interface unit, 21, 1002, 2902 ... Robot hand,
22 ... Robot arm, 23 ... Work station, 10
01 ... Articulated robot, 1003 ... Robot hand position / orientation measuring device, 1004 ... Robot controller, 1
201, 3501 ... CPU, 1202 ... Storage device, 12
10 ... Sensor, 1301, 3301, ... Wafer cassette,
1402 ... Gripping part, 1905 ... Manufacturing device, 2601 ... Self-propelled robot, 2901 ... Robot, 3001 ... Measuring device, 3001a ... Outer unit, 3001b ... Inner unit, 3201 ... Device, 3502 ... Memory, 3503 ...
D / A converter, 3504 ... Amplifier, 3505 ... Counter, 3506 ... Teaching box, 3507, 3
508, 4002 ... Interface, 4001 ... CPU for measuring instrument.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 G05B 19/18 H 9064−3H 19/403 P 9064−3H H01L 21/52 F 7376−4M 21/68 A 8418−4M // G01B 21/00 E 7355−2F (72)発明者 浜田 豊秀 神奈川県横浜市戸塚区吉田町292番地 株 式会社日立製作所生産技術研究所内 (72)発明者 高橋 勇夫 神奈川県横浜市戸塚区吉田町292番地 株 式会社日立製作所生産技術研究所内 (72)発明者 大録 範行 神奈川県横浜市戸塚区吉田町292番地 株 式会社日立製作所生産技術研究所内 (72)発明者 山田 正 東京都小平市上水本町五丁目20番1号 株 式会社日立製作所武蔵工場内─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 5 Identification code Internal reference number FI Technical display location G05B 19/18 H 9064-3H 19/403 P 9064-3H H01L 21/52 F 7376-4M 21 / 68 A 8418-4M // G01B 21/00 E 7355-2F (72) Inventor Toyohide Hamada 292 Yoshida-cho, Totsuka-ku, Yokohama-shi, Kanagawa Inside the Hitachi, Ltd. Institute of Industrial Science (72) Inventor, Yuuo Takahashi Kanagawa Production Engineering Laboratory, Hitachi, Ltd., 292 Yoshida-cho, Totsuka-ku, Yokohama (72) Inventor Catalog Noriyuki Yoshida-cho, 292, Totsuka-ku, Yokohama, Kanagawa Pref., Production Engineering Laboratory, Hitachi, Ltd. (72) Inventor Yamada Original 5-20-1 Kamimizuhonmachi, Kodaira-shi, Tokyo Hitachi Ltd. Musashi factory

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 ロボットハンドの把持用爪により作業対
象物を把持して作業を行うロボット装置において、内側
ユニットと、内側ユニットの外周に配置される外側ユニ
ットと、外側ユニットまたは内側ユニットに固定した複
数の変位センサと、演算部とを備え、外側ユニットを作
業対象物と同様に作業台上に固定し、内側ユニットをロ
ボットハンドの把持用爪部に取付けて各変位センサの出
力により外側ユニットと内側ユニット間の距離を測定し
てロボットハンドの位置・姿勢値を算出するようにした
ことを特徴とするロボット装置。
1. In a robot apparatus for performing work by gripping a work target by a gripping claw of a robot hand, the robot is fixed to an inner unit, an outer unit arranged on the outer periphery of the inner unit, and an outer unit or an inner unit. A plurality of displacement sensors and a calculation unit are provided, the outer unit is fixed on the work table similarly to the work object, the inner unit is attached to the gripping claw portion of the robot hand, and the outer unit is connected to the outer unit by the output of each displacement sensor. A robot apparatus characterized in that a position / orientation value of a robot hand is calculated by measuring a distance between inner units.
【請求項2】 請求項1において、内側ユニットに外側
ユニットの3つの面とほぼ平行な3つの面を具備するよ
うにしたことを特徴とするロボット装置。
2. The robot apparatus according to claim 1, wherein the inner unit has three surfaces substantially parallel to the three surfaces of the outer unit.
【請求項3】 請求項1または2において、内側ユニッ
トの把持部を作業対象物の把持部と同一形状としたこと
を特徴とするロボット装置。
3. The robot apparatus according to claim 1, wherein the grip portion of the inner unit has the same shape as the grip portion of the work target.
【請求項4】 請求項1ないし3のいずれかにおいて、
外側ユニットの作業台設置面を作業対象物の作業台設置
面と同一形状にしたことを特徴とするロボット装置。
4. The method according to any one of claims 1 to 3,
A robot apparatus characterized in that the workbench installation surface of the outer unit has the same shape as the workbench installation surface of the work object.
【請求項5】 請求項1ないし4のいずれかにおいて、
内側ユニットを作業対象物と同一重量としたことを特徴
とするロボット装置。
5. The method according to any one of claims 1 to 4,
A robot apparatus characterized in that the inner unit has the same weight as the work object.
【請求項6】 請求項1ないし5のいずれかにおいて、
外側ユニットまたは内側ユニットに傾斜センサを設け、
各変位センサと傾斜センサとの出力により外側ユニット
と内側ユニット間の距離、角度等を測定してロボットハ
ンドの位置・姿勢値を算出するようにしたことを特徴と
するロボット装置。
6. The method according to any one of claims 1 to 5,
Providing an inclination sensor on the outer unit or inner unit,
A robot device characterized in that the position and orientation values of a robot hand are calculated by measuring the distance, angle, etc. between the outer unit and the inner unit by the output of each displacement sensor and tilt sensor.
【請求項7】 請求項1ないし6のいずれかにおいて、
上記演算部が演算するロボットハンドの位置・姿勢デー
タを表示する表示部を設け、および/またはロボットハ
ンドの位置・姿勢データをロボットコントローラに受け
渡すインタフェース部を設けたこと特徴とするロボット
装置。
7. The method according to any one of claims 1 to 6,
A robot apparatus, comprising: a display unit for displaying the position / orientation data of the robot hand calculated by the calculation unit; and / or an interface unit for transferring the position / orientation data of the robot hand to a robot controller.
【請求項8】 請求項1ないし7のいずれかにおいて、
上記作業対象物を半導体ウエハホルダとしたことを特徴
とするロボット装置。
8. The method according to claim 1, wherein
A robot apparatus, wherein the work object is a semiconductor wafer holder.
【請求項9】 請求項1ないし8に記載のロボット装置
を用いたロボット装置のティ−チング方法において、外
側ユニットおよび/または内側ユニットの交換前と交換
後の位置・姿勢データを記憶し、両ユニットの交換前と
交換後の位置・姿勢データを比較して交換後のロボット
ハンドの機構パラメータを修正するようにしたことを特
徴とするロボット装置のティ−チング方法。
9. A teaching method for a robot apparatus using the robot apparatus according to claim 1, wherein position / orientation data before and after replacement of the outer unit and / or the inner unit is stored, and both are stored. A teaching method for a robot apparatus, characterized in that position / orientation data before and after replacement of a unit are compared to correct a mechanical parameter of a robot hand after replacement.
【請求項10】 請求項9において、ロボットハンドの
交換前と交換後の位置・姿勢データを記憶し、ロボット
ハンドの交換前と交換後の位置・姿勢データを比較して
交換後のロボットハンドの機構パラメータを修正するよ
うにしたことを特徴とするロボット装置のティ−チング
方法。
10. The robot according to claim 9, wherein position / orientation data before and after replacement of the robot hand is stored, and the position / orientation data before and after replacement of the robot hand is compared with each other. A teaching method for a robot apparatus, characterized in that a mechanism parameter is modified.
【請求項11】 請求項9または10において、装着位
置毎のロボットハンドの座標変換行列を記憶してロボッ
トハンドの機構パラメータを修正するようにしたことを
特徴とするロボット装置のティ−チング方法。
11. A teaching method for a robot apparatus according to claim 9 or 10, wherein the coordinate transformation matrix of the robot hand for each mounting position is stored to correct the mechanical parameter of the robot hand.
【請求項12】 請求項9ないし11のいずれかにおい
て、複数台の上記ロボット装置を備え、ティーチングデ
ータを持つロボット装置のロボットハンドの機構パラメ
ータおよびそのロボットハンド位置・姿勢計測装置から
得られる測定値と、ティーチングデータを持たないロボ
ットのロボットハンド位置・姿勢計測装置から得られる
測定値とから、ティーチングデータを持たないロボット
のロボットハンドの機構パラメータを修正するようにし
たことを特徴とするロボット装置のティ−チング方法。
12. The mechanism parameter of a robot hand of a robot device having a plurality of the robot devices, wherein the robot device has teaching data, and a measurement value obtained from the robot hand position / orientation measuring device according to any one of claims 9 to 11. And the measured values obtained from the robot hand position / orientation measuring device of the robot having no teaching data, the mechanism parameter of the robot hand of the robot having no teaching data is corrected. Teaching method.
JP4907093A 1992-04-14 1993-03-10 Robot device and teaching method for robot device Pending JPH06131032A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4907093A JPH06131032A (en) 1992-04-14 1993-03-10 Robot device and teaching method for robot device

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP9413692 1992-04-14
JP18496092 1992-07-13
JP23400892 1992-09-02
JP4-184960 1992-09-02
JP4-94136 1992-09-02
JP4-234008 1992-09-02
JP4907093A JPH06131032A (en) 1992-04-14 1993-03-10 Robot device and teaching method for robot device

Publications (1)

Publication Number Publication Date
JPH06131032A true JPH06131032A (en) 1994-05-13

Family

ID=27462303

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4907093A Pending JPH06131032A (en) 1992-04-14 1993-03-10 Robot device and teaching method for robot device

Country Status (1)

Country Link
JP (1) JPH06131032A (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000512082A (en) * 1996-06-13 2000-09-12 ブルックス オートメーション インコーポレイテッド Multi-level substrate processing equipment
WO2002101792A2 (en) * 2001-06-13 2002-12-19 Applied Materials, Inc. Method and apparatus for alignment of automated workpiece handling systems
WO2003058688A1 (en) * 2001-12-31 2003-07-17 Applied Materials, Inc. Method and apparatus for aligning a cassette handler
JP2004163347A (en) * 2002-11-15 2004-06-10 Kanto Auto Works Ltd Off-line teaching method of noncontact three-dimensional shape measuring device
JP2005517909A (en) * 2002-02-14 2005-06-16 ファロ テクノロジーズ インコーポレーテッド Portable coordinate measuring instrument with articulated arm
US7114243B2 (en) * 2002-01-22 2006-10-03 Seagate Technology Llc Gripper with parts ejector system
JP2007142269A (en) * 2005-11-21 2007-06-07 Nec Electronics Corp Teaching device and teaching method
JP2010232698A (en) * 1999-04-19 2010-10-14 Applied Materials Inc Method and apparatus for aligning cassette
JP2012506580A (en) * 2008-10-24 2012-03-15 ドクトル・ヨハネス・ハイデンハイン・ゲーエムベーハー Apparatus and method for data transmission between a position measuring device and a subsequent electronic mechanism
WO2012101955A1 (en) * 2011-01-27 2012-08-02 パナソニック株式会社 Robot-arm control device and control method, robot, robot-arm control program, and integrated electronic circuit
US8931182B2 (en) 2002-02-14 2015-01-13 Faro Technologies, Inc. Portable coordinate measurement machine having a handle that includes electronics
JP2015087186A (en) * 2013-10-29 2015-05-07 株式会社ミツトヨ Arm type three-dimensional measuring machine, and inclination correction method of base part supporting arm type three-dimensional measuring machine
US9103381B2 (en) 2012-05-04 2015-08-11 Leine & Linde Ab Carrier ring for an encoder
WO2015166738A1 (en) * 2014-05-01 2015-11-05 村田機械株式会社 Teaching unit and teaching method
WO2016194428A1 (en) * 2015-06-01 2016-12-08 株式会社ダイフク Control method for loading/unloading device in plane storage facility
JP2017047479A (en) * 2015-08-31 2017-03-09 セイコーエプソン株式会社 Robot, control device and robot system
JPWO2017051445A1 (en) * 2015-09-22 2018-07-12 株式会社Fuji Teaching system for articulated robots
CN114770598B (en) * 2022-04-08 2024-01-26 上海中车艾森迪海洋装备有限公司 Underwater robot attitude estimation method and device, electronic equipment and storage medium

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000512082A (en) * 1996-06-13 2000-09-12 ブルックス オートメーション インコーポレイテッド Multi-level substrate processing equipment
JP2008258650A (en) * 1996-06-13 2008-10-23 Brooks Autom Inc Multi-level substrate processing apparatus
JP2010232698A (en) * 1999-04-19 2010-10-14 Applied Materials Inc Method and apparatus for aligning cassette
JP2016129261A (en) * 1999-04-19 2016-07-14 アプライド マテリアルズ インコーポレイテッドApplied Materials,Incorporated Method and apparatus for aligning cassette
US6763281B2 (en) 1999-04-19 2004-07-13 Applied Materials, Inc Apparatus for alignment of automated workpiece handling systems
JP2017103491A (en) * 1999-04-19 2017-06-08 アプライド マテリアルズ インコーポレイテッドApplied Materials,Incorporated Method and apparatus for aligning cassette
JP2014239251A (en) * 1999-04-19 2014-12-18 アプライド マテリアルズ インコーポレイテッドApplied Materials,Incorporated Method and apparatus for aligning cassette
WO2002101792A2 (en) * 2001-06-13 2002-12-19 Applied Materials, Inc. Method and apparatus for alignment of automated workpiece handling systems
WO2002101792A3 (en) * 2001-06-13 2003-10-30 Applied Materials Inc Method and apparatus for alignment of automated workpiece handling systems
WO2003058688A1 (en) * 2001-12-31 2003-07-17 Applied Materials, Inc. Method and apparatus for aligning a cassette handler
US6778874B2 (en) 2001-12-31 2004-08-17 Ronald Vern Schauer Cassette and workpiece handler characterization tool
US7114243B2 (en) * 2002-01-22 2006-10-03 Seagate Technology Llc Gripper with parts ejector system
JP2005517914A (en) * 2002-02-14 2005-06-16 ファロ テクノロジーズ インコーポレーテッド Portable coordinate measuring device with built-in line laser scanner
US10168134B2 (en) 2002-02-14 2019-01-01 Faro Technologies, Inc. Portable coordinate measurement machine having a handle that includes electronics
JP2005517909A (en) * 2002-02-14 2005-06-16 ファロ テクノロジーズ インコーポレーテッド Portable coordinate measuring instrument with articulated arm
US9513100B2 (en) 2002-02-14 2016-12-06 Faro Technologies, Inc. Portable coordinate measurement machine having a handle that includes electronics
US9410787B2 (en) 2002-02-14 2016-08-09 Faro Technologies, Inc. Portable coordinate measurement machine having a bearing assembly with an optical encoder
US8931182B2 (en) 2002-02-14 2015-01-13 Faro Technologies, Inc. Portable coordinate measurement machine having a handle that includes electronics
JP2004163347A (en) * 2002-11-15 2004-06-10 Kanto Auto Works Ltd Off-line teaching method of noncontact three-dimensional shape measuring device
JP2007142269A (en) * 2005-11-21 2007-06-07 Nec Electronics Corp Teaching device and teaching method
JP4663493B2 (en) * 2005-11-21 2011-04-06 ルネサスエレクトロニクス株式会社 Teaching device and teaching method
US9273984B2 (en) 2008-10-24 2016-03-01 Dr. Johannes Heidenhain Gmbh Device and method for transmitting data between a position-measuring device and sequential electronics
JP2012506580A (en) * 2008-10-24 2012-03-15 ドクトル・ヨハネス・ハイデンハイン・ゲーエムベーハー Apparatus and method for data transmission between a position measuring device and a subsequent electronic mechanism
US8489236B2 (en) 2011-01-27 2013-07-16 Panasonic Corporation Control apparatus and control method for robot arm, robot, control program for robot arm, and integrated electronic circuit
CN103038028A (en) * 2011-01-27 2013-04-10 松下电器产业株式会社 Robot-arm control device and control method, robot, robot-arm control program, and integrated electronic circuit
JP5165160B2 (en) * 2011-01-27 2013-03-21 パナソニック株式会社 Robot arm control device and control method, robot, robot arm control program, and integrated electronic circuit
WO2012101955A1 (en) * 2011-01-27 2012-08-02 パナソニック株式会社 Robot-arm control device and control method, robot, robot-arm control program, and integrated electronic circuit
JPWO2012101955A1 (en) * 2011-01-27 2014-06-30 パナソニック株式会社 Robot arm control device and control method, robot, robot arm control program, and integrated electronic circuit
US9103381B2 (en) 2012-05-04 2015-08-11 Leine & Linde Ab Carrier ring for an encoder
JP2015087186A (en) * 2013-10-29 2015-05-07 株式会社ミツトヨ Arm type three-dimensional measuring machine, and inclination correction method of base part supporting arm type three-dimensional measuring machine
JPWO2015166738A1 (en) * 2014-05-01 2017-04-20 村田機械株式会社 Teaching unit and teaching method
WO2015166738A1 (en) * 2014-05-01 2015-11-05 村田機械株式会社 Teaching unit and teaching method
JP2016222423A (en) * 2015-06-01 2016-12-28 株式会社ダイフク Control method of warehousing-delivery device in plane storage facility
CN107614403A (en) * 2015-06-01 2018-01-19 株式会社大福 The control method for going out loading device of plane safedeposit
WO2016194428A1 (en) * 2015-06-01 2016-12-08 株式会社ダイフク Control method for loading/unloading device in plane storage facility
TWI660900B (en) * 2015-06-01 2019-06-01 日商大福股份有限公司 Control method for storage and retrieval device of plane storage equipment
CN107614403B (en) * 2015-06-01 2019-08-30 株式会社大福 The control method for going out loading device of plane safedeposit
US10464786B2 (en) 2015-06-01 2019-11-05 Daifuku Co., Ltd. Method for controlling storage/retrieval device in flat storage facility
JP2017047479A (en) * 2015-08-31 2017-03-09 セイコーエプソン株式会社 Robot, control device and robot system
JPWO2017051445A1 (en) * 2015-09-22 2018-07-12 株式会社Fuji Teaching system for articulated robots
CN114770598B (en) * 2022-04-08 2024-01-26 上海中车艾森迪海洋装备有限公司 Underwater robot attitude estimation method and device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
JPH06131032A (en) Robot device and teaching method for robot device
EP0123214B1 (en) Operation teaching method and apparatus for industrial robot
US4945493A (en) Method and system for correcting a robot path
US4831549A (en) Device and method for correction of robot inaccuracy
US4698572A (en) Kinematic parameter identification for robotic manipulators
EP0188623B1 (en) Method for setting tool coordinate system
Guo et al. A multilevel calibration technique for an industrial robot with parallelogram mechanism
US7571027B2 (en) Kinematic singular point compensation systems and methods
US10906183B2 (en) Calibration system
US20080201015A1 (en) System for Calibration of an Industrial Robot and a Method Thereof
JPS61281305A (en) Articulated robot control device
JPH0820894B2 (en) Industrial robot operation control method
JP2006318419A (en) Calibration method of parallel mechanism machine
US4642781A (en) System for automatically calibrating a robot
JPH07121214A (en) Measuring sensor device for robot, and calibration method and measuring method using the same
JPH0445841B2 (en)
Omodei et al. Calibration of a measuring robot: Experimental results on a 5 DOF structure
JP2001038662A (en) Working robot calibrating method
Ishii et al. A new approach to improve absolute positioning accuracy of robot manipulators
JPH06274213A (en) Method for calibrating position or the like of robot device
Messay-Kebede et al. Geometry based self kinematic calibration method for industrial robots
JPH012104A (en) Robot positioning error correction method
JPH0774964B2 (en) Robot positioning error correction method
Guo et al. Dynamic Parameter Identification and Collision Detection of Robot
Fraczek et al. Calibration of multi-robot system without and under load using electronic theodolites