JPS6198410A - Robot teaching method - Google Patents

Robot teaching method

Info

Publication number
JPS6198410A
JPS6198410A JP21839584A JP21839584A JPS6198410A JP S6198410 A JPS6198410 A JP S6198410A JP 21839584 A JP21839584 A JP 21839584A JP 21839584 A JP21839584 A JP 21839584A JP S6198410 A JPS6198410 A JP S6198410A
Authority
JP
Japan
Prior art keywords
robot
coordinate system
visual
workpiece
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP21839584A
Other languages
Japanese (ja)
Inventor
Hiroo Nakamura
啓夫 中村
Shuji Okawa
大川 修治
Hajime Tachikawa
立川 肇
Toshiya Shinozaki
篠崎 利也
Yasuo Otsuka
康男 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP21839584A priority Critical patent/JPS6198410A/en
Publication of JPS6198410A publication Critical patent/JPS6198410A/en
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

PURPOSE:To obtain the accurate relative relation among a visual coordinate system, a robot coordinate system and the position and the reference angle of a robot hand, by recognizing the main shaft angle of a work as well as the centroid of the work where the holding state is decided unconditionally through a visual device of the robot. CONSTITUTION:A visual device 11 can recognize the centroid position and the angle of the main shaft of a work 8 at the planar coordinates. The work 8 is positioned by means a hand 6 turned in the reference direction, a work with which the positional relation between the work and the hand 6 under a holding mode and said device 11. Then the centroid position of the work 8 is recognized by the device 11 at >=2 teaching points. At the same time, the angle of the main shaft of the work 8 is recognized at >=1 teaching points. Thus the relative position of an original point and the relative relations of the inclination of the coordinates, the reference angle, magnification factor of the hand 6, etc. can be obtained easily among a visual coordinate system OV, a robot coordinate system OR and the hand 6 based on the results of said recognition and the shift amount of the robot obtained in response to the >=2 teaching points.

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明は視覚装置と組合わせたロボットにおいて、視覚
座標系とロボット座標系とハンドの位置・基準向きとの
間の相対関係を決定する座標系の教示方法に関するもの
である。
[Detailed Description of the Invention] [Field of Application of the Invention] The present invention relates to a coordinate system that determines the relative relationship between a visual coordinate system, a robot coordinate system, and the position and reference orientation of a hand in a robot combined with a visual device. This relates to a teaching method.

〔発明の背景〕[Background of the invention]

産業用ロボット等のロボットでは、教示により人間が直
接的又は間接的に作業を教え込み、動作を記憶させた後
に、これを再生する方法が多い。
In robots such as industrial robots, there are many methods in which a human being directly or indirectly teaches the robot to perform a task, memorizes the motion, and then reproduces the motion.

そして、例えばこのようなロボットでワークのハンドリ
ングを行う場合には、ハンドリングされるワークは、教
示時に定められた場所に正確に位置決めされる必要があ
るが、この作業は(大変であった。
For example, when such a robot handles a work, the work to be handled needs to be accurately positioned at the location determined at the time of teaching, but this work is difficult.

+1 ゝ    このような問題を解決するためには、ロボッ
トに視覚装置を取付けて、ワークの位置・姿勢形状等を
認識してハンド1ノングを行うようにすればよく、ワー
クが視野内にあれば比較的簡単にハンドリングを行うこ
とができる。
+1 ゝ In order to solve this kind of problem, it is sufficient to attach a visual device to the robot so that it can recognize the position, posture shape, etc. of the workpiece and perform the hand 1 nonce. Handling is relatively easy.

この場合には、視覚装置の座標系とロボットの座標系と
の相対関係をあらかじめ与えておく必要があり、特開昭
58−114887号公報に示されろように、マーク座
標の認識により視覚座標系とロボット座標系における原
点の相対位置。
In this case, it is necessary to give the relative relationship between the coordinate system of the visual device and the coordinate system of the robot in advance, and as shown in Japanese Patent Laid-Open No. 58-114887, visual coordinates can be determined by recognizing mark coordinates. The relative position of the origin in the system and the robot coordinate system.

座標軸の回転1倍率を求めろ方法が知られている。A method for finding the rotation magnification of the coordinate axes is known.

しかしこの方法では、マーク位置を正確に求めでおく必
要がある。また、視覚装置をロボットのアームに取付け
た場合の視覚装置とハンドとの相対位置関係を求める方
法については示されていない。さらに、ハンドを回転し
てワークを所定の向きで把持てるような作業においては
、基準向きにあるハンド角度からの回転角度を指示して
やる必要があり、このハンドの基準角度    1もあ
らかじめ与えておく必要がある。
However, with this method, it is necessary to accurately determine the mark position. Furthermore, there is no description of a method for determining the relative positional relationship between the visual device and the hand when the visual device is attached to the arm of the robot. Furthermore, in operations where the hand can be rotated to grasp a workpiece in a predetermined orientation, it is necessary to instruct the rotation angle from the hand angle in the reference orientation, and the reference angle 1 of this hand must also be given in advance. There is.

〔発明の目的〕[Purpose of the invention]

本発明は、前記した従来技術の問題点を解決するために
、ロボット自体を測定装置として使用し、視覚座標系と
ロボット座標系とハンドの位置・基準向きとの間の相対
関係を簡単に求める方法の提′供を、その目的とするも
のである。
In order to solve the problems of the prior art described above, the present invention uses the robot itself as a measuring device and easily determines the relative relationship between the visual coordinate system, the robot coordinate system, and the position and reference orientation of the hand. Its purpose is to provide a method.

〔発明の概要〕[Summary of the invention]

本発明は、前記目的を達成するために、少く・とも平面
座標におけるワークの図心位置と主軸角度を認識できる
視覚装置及び把持時のハンドとワークとの間の位置関係
及び角度関係が一義的に定まるワークを用いて、該ワー
クを基準方向を向いた/・ンドにより位置決めした後、
該視覚装置により、2点以上の教示点で該ワークの図心
位置を認識すると共に1点以上の教示点で該ワークの主
軸角度を認識することにより、これらの認識結果と該2
点以上の教示点に対応して求まるロボット移動量とから
、視覚座標系。
In order to achieve the above object, the present invention provides a visual device that can recognize at least the centroid position and principal axis angle of a workpiece in plane coordinates, and a unique positional and angular relationship between the hand and the workpiece when gripping. Using a workpiece determined by
By using the visual device to recognize the centroid position of the workpiece at two or more teaching points and recognizing the principal axis angle of the workpiece at one or more teaching points, these recognition results and the two
The visual coordinate system is determined from the amount of robot movement found in response to the teaching points that are more than one point.

ロボット座標系及びハンドとの間の原点の相対位置、座
標軸の傾き、ハンドの基準角度9倍率(比寸法)等の相
対関係を容易に求めるようにしたものである。
The relative relationships between the robot coordinate system and the hand, such as the relative position of the origin, the inclination of the coordinate axes, and the reference angle 9 magnification (ratio dimension) of the hand, are easily determined.

〔発明の実施例〕[Embodiments of the invention]

以下1本発明を実施例によって詳細に説明する。 Hereinafter, the present invention will be explained in detail by way of examples.

第1図は1本発明による一実施例を示し、視覚装置を移
動するアームに取付けた” I 21 z方向に動(直
交座標型ロボット1の構成と動作を示す図である。この
図において、2は作業台、3はロボットの固定アーム、
4は固定アーム上でz、y方向に移動可能な水平移動ア
ーム、5は水平移動アーム4゛に対して上F方向に移動
可能な上下移動アーム、8はワーク、6は上下移動アー
ム5の下潮に取付けられワーク8を把持するハンド、7
は水平移動アーム4の先端に取付けたビデオカメラ等を
利用した視覚装置である。また、9は作業台2上におけ
る視覚装置7の視野、(XR−OR−YR)はロボット
座標系、(Xv−Ov−Yv )は視覚座標系であり、
水平移動アーム4の移動位置に対応して視覚座標系の原
点がOva 、 Ovb 、 Ovcと変化し、これら
の各原点に対してそれぞれ視野9a、9b、9cが対応
している。
FIG. 1 shows an embodiment of the present invention, and is a diagram showing the configuration and operation of a Cartesian coordinate robot 1 in which a visual device is attached to a moving arm. 2 is the workbench, 3 is the fixed arm of the robot,
4 is a horizontally movable arm movable in the z and y directions on the fixed arm; 5 is a vertically movable arm movable in the upper F direction with respect to the horizontally movable arm 4; 8 is the workpiece; 6 is the vertically movable arm 5. A hand 7 attached to the bottom and gripping the work 8
is a visual device using a video camera or the like attached to the tip of the horizontally moving arm 4. Further, 9 is the visual field of the visual device 7 on the workbench 2, (XR-OR-YR) is the robot coordinate system, (Xv-Ov-Yv) is the visual coordinate system,
The origin of the visual coordinate system changes to Ova, Ovb, and Ovc in accordance with the movement position of the horizontally moving arm 4, and visual fields 9a, 9b, and 9c correspond to each of these origins, respectively.

さらにP点は、・・ンド6の原点を通り上下移動アーム
5に平行な直線a上の点であり、ノ・ンドリング基準点
である。
Further, point P is a point on a straight line a passing through the origin of the node 6 and parallel to the vertically movable arm 5, and is a reference point for the node 6.

□ リング 次に第2図に、把持時の位置関係及び角度関係が一義的
に定まる一対のノ・ンド6aと教示用ワーク8aとの把
持状態の一具体例を示す。
□ Ring Next, FIG. 2 shows a specific example of a gripping state between a pair of fingers 6a and a teaching workpiece 8a whose positional relationship and angular relationship when gripping are uniquely determined.

この図においては、一対のノ・ンド6aは把持面が互い
に平行で長方形断面をなす形状としてあり、教示用ワー
ク8aは対称な1字状の形状としである。この結果、一
対のノ・ノド63間の中心を結んだハンドの向きを示す
I・ンド方向線却とワーク8aの主軸如とのなす角度θ
1工直角をなすような把持関派になる。また、P点はノ
・ンド6aのハンドリング基準点、HAはワーク8aの
7Sンドリジ   /グ基準点、C点はワーク8aの図
心であり、第2図の場合にはP点、H点、6点が一致し
た状態になる。
In this figure, the pair of gripping surfaces 6a are parallel to each other and have a rectangular cross section, and the teaching workpiece 8a is symmetrical in the shape of a single character. As a result, the angle θ formed between the I-end direction line, which indicates the direction of the hand connecting the centers of the pair of no-knots 63, and the main axis of the workpiece 8a.
Become a grasper who makes a right angle. In addition, point P is the handling reference point for the handle 6a, HA is the reference point for handling the workpiece 8a, point C is the centroid of the workpiece 8a, and in the case of Figure 2, point P, point H, 6 points will match.

以上の構成において、ロボット1及び視覚装置7の動作
を第9図に示すフローチャートに基ついて説明する。
In the above configuration, the operations of the robot 1 and the visual device 7 will be explained based on the flowchart shown in FIG. 9.

(1)ロボッ)&X基準方向を向いたハンド6aによリ
ワーク8aを把持した後、その把持状態を保ったまま静
かに作業台2上に置く(同図・h4この結果、ハンド6
aのハンドリング基準点Pがワーク8aのハンドリング
基準点H及び図心Cに一致すると同時にハンド方向゛線
J−Hとワーク主@LPとのなす角度θHが直角をなす
ようにワーク8aが位置決めされる。また、9aはこの
時の視覚装置7の視野、Qvaは視覚座標系の原点であ
る。
(1) After gripping the rework 8a with the hand 6a facing the &
The workpiece 8a is positioned so that the handling reference point P of a coincides with the handling reference point H and the centroid C of the workpiece 8a, and at the same time, the angle θH between the hand direction line JH and the workpiece main @LP forms a right angle. Ru. Further, 9a is the visual field of the visual device 7 at this time, and Qva is the origin of the visual coordinate system.

(2)ロボットを動作させ視覚装置7をロボット座標系
において△XR,、△YR,移動し、(1)で位置決め
したワーク8aが視覚装置7の視野に入るようにして(
同図・凰)、ここで視覚装置7により視覚座標系におけ
るワークの図心座   。
(2) Operate the robot and move the visual device 7 by △XR, △YR in the robot coordinate system so that the workpiece 8a positioned in (1) comes into the visual field of the visual device 7 (
The centroid of the workpiece in the visual coordinate system is determined by the visual device 7.

凛(Xv、 、 Yv、 )及び主軸角度θを認識する
(同図・J)。9bはこの時の視覚装置7の視野であり
、Ovbは視覚座像系の原点でとる。
Recognize Rin (Xv, , Yv, ) and the principal axis angle θ (J in the same figure). 9b is the visual field of the visual device 7 at this time, and Ovb is taken at the origin of the visual locus system.

(3)視覚装置7を、ワーク8aが視野に入る範囲で、
(2)の状態からさらにロボット座標系においてΔXR
,、ΔYR2移動した後(同図・k)、再び視覚装置7
により視覚座標系におけるワークの図心座標(Xv2.
Yv、)を認識する(同図・L)。9Cはこの時の視覚
装置7の視野であり、Qvcは視覚座標系の原点である
(3) Set the visual device 7 within the range where the workpiece 8a comes into view,
From the state (2), ΔXR is further calculated in the robot coordinate system.
,, After moving ΔYR2 (k in the same figure), the visual device 7 again
The centroid coordinates of the workpiece in the visual coordinate system (Xv2.
Yv, ) (L in the same figure). 9C is the visual field of the visual device 7 at this time, and Qvc is the origin of the visual coordinate system.

(4)以上の操作により、ロボット移動′j#(ΔXR
,。
(4) Through the above operations, the robot moves ′j#(ΔXR
,.

ΔYR,)、(ΔXR,、ΔYR,)と視覚装置で認識
1. ?、−図心座標(Xv、 、 YV、 )、(X
v2.Yv2)及び主軸角度θとを用いて、教示データ
(座標系の相対関係)を求める(同図・m)。
ΔYR, ), (ΔXR,, ΔYR,) and recognition by visual device 1. ? , -centroid coordinates (Xv, , YV, ), (X
v2. Using Yv2) and the principal axis angle θ, the teaching data (relative relationship of the coordinate system) is determined (m in the same figure).

次に、上記(4)項の教示データ算出方法を説明する。Next, the teaching data calculation method in item (4) above will be explained.

第3図に、第2図の長方形断面形状のハンド6a及びI
形影状のワーク8aを用いた場合における上記(1)、
 (2)、 (3)の動作に対応した各座標系の関係を
示す図である。
FIG. 3 shows hands 6a and I having a rectangular cross-sectional shape in FIG.
The above (1) when using the shaped work 8a,
It is a figure which shows the relationship of each coordinate system corresponding to the operation|movement of (2) and (3).

尚、コノ図ニオイテ、Xv a−Ov a−Yv a 
、 Xv b−Ovb−Yvb及びXvc−OVC−Y
VCは各々(1)。
In addition, Konozu Nioite, Xv a-Ov a-Yv a
, Xv b-Ovb-Yvb and Xvc-OVC-Y
VC is (1) each.

(2) 、(3)の動作における視覚座標系、XR−O
R−YRはロボット座標系、p、aは(1)の動作にお
けるハンド6aのハンドリング基壇点、ΔXH,ΔYH
は。
Visual coordinate system, XR-O in the movements of (2) and (3)
R-YR is the robot coordinate system, p and a are the handling base points of the hand 6a in the operation (1), ΔXH, ΔYH
teeth.

それぞれロボット座標系における視覚座標原点Qvaに
対するP点の2座標、y座標を表わす。
Each represents the two coordinates and y coordinate of point P with respect to the visual coordinate origin Qva in the robot coordinate system.

また、α、βは各々Z、7方向の視覚座標系に対するロ
ボット座標系の匿率(比寸法)、θ。はロボット座標系
に対する視覚座標系の傾きである。
Further, α and β are the concealment rate (relative dimension) of the robot coordinate system with respect to the visual coordinate system in Z and seven directions, respectively, and θ. is the tilt of the visual coordinate system with respect to the robot coordinate system.

ここで、第3図の各座襟値に対して以下の関係式が成り
立つ。
Here, the following relational expression holds true for each seat value in FIG.

・・・・・・■ ΔXR2cos4−1−ΔYR2sinθo==a(X
v、−Xv2) −=■ΔXR2sinθ0−ΔYR,
CO5θ。=β (Yv2−Yv、  )  −−−■
Δ崩=ΔXR,+(α、Xv1cosθ。−βYv、s
inθo)・叩・■ΔYH=ΔYR,+(αXv、si
nθ。+βYv、 cosOo) 、、、、、、■セし
て上記0〜0式よりα、β、θ。、ΔXH,△YHが求
まるが、■式中のβ/αは視覚装置のハード構造からも
求まる値である。
・・・・・・■ ΔXR2cos4-1−ΔYR2sinθo==a(X
v, -Xv2) -=■ΔXR2sinθ0−ΔYR,
CO5θ. =β (Yv2-Yv, ) ---■
∆ collapse = ∆XR, + (α, Xv1 cos θ. - βYv, s
inθo)・Slap・■ΔYH=ΔYR, +(αXv, si
nθ. +βYv, cosOo) , , , , ■ α, β, θ from the above formulas 0 to 0. , ΔXH, and ΔYH are found, and β/α in the equation (2) is a value that can also be found from the hardware structure of the visual device.

さらに、第4図は上記(1)、(2) @の動作に対応
した各座標系におけるハンドによるワーク把持時の角度
関係を示す図であり、ハンドの位置は(1)項の動作時
に対応している。この図において、第1図及び第2図と
同一記号を付したものは同一部分を示す。
Furthermore, Fig. 4 is a diagram showing the angular relationship when the hand grips a workpiece in each coordinate system corresponding to the above operations (1) and (2) @, and the position of the hand corresponds to the operation described in (1). are doing. In this figure, the same symbols as in FIGS. 1 and 2 indicate the same parts.

また、θSはハンドが基準方向を向いている場合のロボ
ット座標系におけるハンド方向線J−Hのなす角度であ
る。そして第4図の角度に対して次の関係式が成り立つ
Moreover, θS is the angle formed by the hand direction line JH in the robot coordinate system when the hand is facing the reference direction. The following relational expression holds true for the angles shown in FIG.

θS=θ+θ。−θH・叩・■ この式において、前述のように、θ。は■〜■の関連式
から求まる値、θHは既知の値(第4図においては第2
図の場合と同様にθH=90°)であることから、視覚
装置によりワーク8aの主軸角1    度θを認識す
ることによりθSが求まる。
θS=θ+θ. -θH・beat・■ In this equation, as mentioned above, θ. is the value found from the related equations from ■ to ■, and θH is the known value (in Fig. 4, the second
As in the case of the figure, θH=90°), so θS can be found by recognizing the principal axis angle of 1 degree θ of the workpiece 8a using the visual device.

、1 1′ 従って、視覚座標系に対するロボット座標系のIf率(
比寸法)α、β、ロボット座標系に対する視覚座標系の
傾きθ。、ロボット座標系における視覚座標原点に対す
るノ・ンドのノ・ンドリ/グ基準点y’r−、y座凛(
ΔXH,ΔYH)、ロボット座標系における基準方向を
向いた・・ンドの・・ンド方向線の角度θS等の座標糸
の相対関係を求めろことができる。
, 1 1' Therefore, the If ratio of the robot coordinate system with respect to the visual coordinate system (
Relative dimensions) α, β, inclination θ of the visual coordinate system with respect to the robot coordinate system. , the reference point y'r-, yzarin(
ΔXH, ΔYH), and the angle θS of the direction line facing the reference direction in the robot coordinate system.

ところで、以上に述べた■〜■の関係式は、第2図のよ
うな長方形断面のハンド6aと1字状ワーク8aの場合
についてだけでなく、例えば第5図に示すくさび形ハン
ド6bとこれに対応したワーク8bのように、ワークの
ハンドリング基漁点Hと図心Cとが一致し、さらにハン
ドのハンドリング基準点Pとが一致すると同時にハンド
方向線AHとワークの主軸J−Pとのなす角度が一義的
に求まる場合にはすべて成立つ関係式である。
By the way, the above-mentioned relational expressions from ■ to ■ apply not only to the case of the hand 6a with a rectangular cross section and the single-shaped workpiece 8a as shown in FIG. 2, but also to the case of the wedge-shaped hand 6b shown in FIG. As in the case of workpiece 8b corresponding to This relational expression holds true if the angle formed can be uniquely determined.

さらに第6図に示すように、ハンド6Cによりワーク8
Cを把持した時、ハンドとワークとの把持関係が一定に
定まる場合、すなわら第6図で   10ボツト座標系
における基準方向を向いたハンド6Cのハンド方向線1
1(の角度θSが既知でさらにハンド方向線j−Hに対
してワーク8Cの王@IPのなす角度θH及びワーク8
Cにおけるハンドリング基準点Hと図)し・Cとの距離
eが求まっている場合にも、第1図、第9図と同様の操
作を行うことができる。
Furthermore, as shown in FIG. 6, the workpiece 8 is
When gripping C, if the gripping relationship between the hand and the workpiece is fixed, in other words, the hand direction line 1 of hand 6C facing the reference direction in the 10-bot coordinate system in Figure 6.
1 (the angle θS of
Even when the distance e between the handling reference point H at point C and point C (see Figure 1) has been determined, the same operations as in Figs. 1 and 9 can be performed.

この場合には、前記した■、■、■、■式はそのまま成
立するが、■、(5)式に対応したロボット座標系にお
ける視覚座標原点に対するハンドのハンドリング基準点
のzy方向のずれ(△XH”ムYw” )として、ワー
クのハンドリング基準点Hと図心Cとの位置関係を補正
した次式を用いろ必要がある。
In this case, the above-mentioned equations (■, It is necessary to use the following equation in which the positional relationship between the handling reference point H and the centroid C of the workpiece is corrected as XH"muYw").

△XH”= △Xl(−e cos (θS+θH) 
 −−−−−−■△Y H’=△YH−esin(θS
+θH)  −而・■またさらに、0〜0式は、前記(
2)・(3)の操作により、視見袈@7を移動して、一
定位置に置かれたワークの図心座標を2点で認識した場
合における視覚装置の移動量ムXR2,ΔYR2と該2
点での図心座標(Xv、 +”v+ ) 、 (Xv2
.Yv2)を用いているだけであり、前記(1)項の動
作から定まるハンドによるワークの把持状態とは無関係
である。
△XH"= △Xl(-e cos (θS+θH)
−−−−−−■△Y H'=△YH−esin(θS
+θH)
By the operations in 2) and (3), the visual device's movement distance M XR2, ΔYR2 and the corresponding amount when the centroid coordinates of the workpiece placed at a fixed position are recognized at two points by moving the viewing platform @7. 2
Centroid coordinates at the point (Xv, +”v+ ), (Xv2
.. Yv2) is used, and is unrelated to the gripping state of the workpiece by the hand, which is determined from the operation in item (1) above.

従って% (2) 、 (3)の動作に対応した処理に
おいては、ワークは視覚g置の視野内に入り、図心の認
識ができるものならどんな形状のものでもよい。この結
果、任意形状のワークを用いて、視野装置を所定量動か
して、一定位置に置かれた該任意ワークの図心座標を2
点で認識することにより、視覚座標系に対するロボット
座標系の倍率(比寸法)α、β及びロボット座標系に対
する視覚座標系の傾きθ。等の相対関係を求めることが
できろ。
Therefore, in the processing corresponding to the operations (2) and (3), the workpiece may be of any shape as long as it falls within the field of view at the visual position g and the centroid can be recognized. As a result, by using a workpiece of an arbitrary shape and moving the viewing device by a predetermined amount, the centroid coordinates of the arbitrary workpiece placed at a fixed position can be set by 2.
By recognizing points, the magnification (specific dimensions) α, β of the robot coordinate system with respect to the visual coordinate system and the inclination θ of the visual coordinate system with respect to the robot coordinate system. Can you find the relative relationships such as

次に、第7図は、本発明による他の実施例を示し、視覚
装置11を” + y+ 1方向に動く直交座標形ロボ
ットの移動アームとは別に設けたロボット10の構成と
動作を示す図である。こ6′ン図において、第1図と同
−府号を付したものは同一部分を示す。また、12は視
覚装置11を固定する固定具であり、視覚装#11は固
定具12により一定位置に固定されろ。
Next, FIG. 7 shows another embodiment according to the present invention, and is a diagram showing the configuration and operation of a robot 10 in which the visual device 11 is provided separately from the moving arm of a Cartesian coordinate robot that moves in one direction. In this figure, parts with the same prefixes as in Figure 1 indicate the same parts. 12 is a fixture for fixing the visual device 11, and visual device #11 is a fixture. 12 to fix it in a certain position.

すなわら、ロボット座標系XR−OR−YRにおいて、
視覚座標系Xv−Ov−Yvは一定の相対関係(原点の
位置ずれ、座標軸の傾き)に位置決めされる。そして、
13はこの時の視覚装置11の視野である。
In other words, in the robot coordinate system XR-OR-YR,
The visual coordinate system Xv-Ov-Yv is positioned in a certain relative relationship (displacement of the origin, inclination of the coordinate axes). and,
13 is the visual field of the visual device 11 at this time.

以上の構成において、ロボット10及び視覚装置11の
動作を第10図に示すフローチャートに基づいて説明す
る。
In the above configuration, the operations of the robot 10 and the visual device 11 will be explained based on the flowchart shown in FIG.

(a)  ロボット10ハ基準方向を向いたハンド6に
よりワーク8を把持した後ロボット座標系においてΔX
R,’、ΔYR,’移動し、ワーク8を視野13内に入
るA位置に置く(同図、r)。そしてここで視覚装置1
1により視覚座標系におけるワーク8の図心座標CXv
、、Yv、)及び主軸角度θを認識する(同図、5) (b)  さらに、ロボット10により、ワーク8を口
J    ″)座標系にゝ71°ゝ゛′°・°“′°移
動ゝ)1    て視野13内に入る別のB位置に置い
た後(同図、1)、再び視覚装置11により、視覚座標
系におけるワーク80図心座標(Xvt、 Yv、)を
認識する(同図、u)。
(a) After gripping the workpiece 8 with the hand 6 facing the reference direction of the robot 10, ΔX in the robot coordinate system
R,', ΔYR,', and place the work 8 at position A, which is within the field of view 13 (r in the figure). And here visual device 1
1, the centroid coordinate CXv of the workpiece 8 in the visual coordinate system
, Yv,) and the spindle angle θ (see figure 5) (b) Furthermore, the robot 10 moves the workpiece 8 to the mouth J'') coordinate system by 71°ゝ゛′°・°“′°ゝゝ)1 and placed it at another B position within the visual field 13 (1 in the same figure), the visual device 11 again recognizes the centroid coordinates (Xvt, Yv,) of the workpiece 80 in the visual coordinate system (1 in the same figure). , u).

(C)  以上の操作により、ロボット移動量(ΔXR
1”。
(C) Through the above operations, the robot movement amount (ΔXR
1”.

ΔYR,°)、(ムxR21、ΔY−°)と視覚装置で
認識1、 タ図心座m (Xv、 、 Yv、 )、(
Xv、 、 Yv、)及び主軸角度θとを用いて、教示
データ(座標系の相対関係)を求める(同図、v)。
ΔYR, °), (muxR21, ΔY−°) are recognized by the visual device 1, Ta centroid m (Xv, , Yv, ), (
The teaching data (relative relationship of the coordinate system) is obtained using the main axis angle θ (Xv, , Yv, ) and the principal axis angle θ (FIG. 4, v).

次に、上記(C)項の教示データ>J−出方法を説明す
る。
Next, the method for outputting teaching data>J in the above section (C) will be explained.

さらに第8図は、ワークを把持する時のノ・ンドのハン
ドリング基準点Pの基準点をロボット座標系の原点OR
に置き、第2図の長方形断面のハフドロaと1字状ワー
ク8aを用いた場合におけ石上記(a)、(b)の動作
に対応した各座標系の関係を示す図である。この図にお
いて、P、 、P、点はそれぞれワークのA位置、B位
置における2、ンドのI・ンドリング基準点であり、P
、、P2ともワークのノ・ンドリング基準点H及び図心
Cと一致する。                  
  !さらに、Ov(ΔXv、ΔYv)はロボ・ント坐
標系におけ今視覚座標原点の座標、Pl(ΔXR,″、
ΔYR,’)はA位置におけるワーク11aのノ・ンド
リング基準点Hの座像であり(a)項のロボット移動量
から末子ろ埴である。また第6図の場合と同様にα、β
は各々z、y方向の視覚座標系に対するロボット座標系
の倍率、θ0はロボット座標系に対する視覚座標系の傾
きである、 ここで第8図の各座標値に対して、以下の関係式が成立
する。
Furthermore, Fig. 8 shows that the reference point of the handling reference point P of the handle when gripping a workpiece is set to the origin OR of the robot coordinate system.
2 is a diagram showing the relationship between the respective coordinate systems corresponding to the operations of (a) and (b) above when using the rectangular cross-section huft drawer a of FIG. 2 and the single-character-shaped work 8a. In this figure, points P, , and P are the I-nd ring reference points of the second and second positions at the A position and B position of the workpiece, respectively, and P
, , P2 coincide with the no-end ring reference point H and the centroid C of the workpiece.
! Furthermore, Ov (ΔXv, ΔYv) is the coordinate of the current visual coordinate origin in the robot sitting reference system, Pl (ΔXR, ″,
ΔYR,') is the seated image of the non-end ring reference point H of the workpiece 11a at the A position, and is the final value from the robot movement amount in term (a). Also, as in the case of Fig. 6, α, β
are the magnifications of the robot coordinate system with respect to the visual coordinate system in the z and y directions, respectively, and θ0 is the inclination of the visual coordinate system with respect to the robot coordinate system.Here, the following relational expression holds true for each coordinate value in Figure 8. do.

・・・・・・■ ΔXR2cosθ6 + △Y ’R2Slnθ。=−
α(Xv、−xv2)−−−−−−@ΔXR,Sinθ
。−ΔY R2CO5θ。= −72(Yv2− Y’
/、 >−・・−・■ΔXv=ΔXR,−(αXv、 
cosθ。−βYv、 sinθo)−叩6@△Yv=
ΔY R,−(aXv、 sinθ。十βYv、  c
osθ。)・曲・0そして上記0〜0式よりα、β、θ
。、△Xv 、△Yvが求1ろが、■式中7θ/αは、
第6図の場合と同様に、視覚装置のハード構造からも・
求まる値である。
・・・・・・■ ΔXR2cosθ6 + ΔY 'R2Slnθ. =-
α(Xv, -xv2)---@ΔXR, Sinθ
. −ΔY R2CO5θ. = −72(Yv2− Y'
/, >−・・−・■ΔXv=ΔXR, −(αXv,
cos θ. −βYv, sinθo) − Hit 6 @△Yv=
ΔY R, - (aXv, sin θ. 1βYv, c
osθ. )・Song・0 and from the above 0 to 0 formula α, β, θ
. , △Xv, △Yv are calculated as 1, but in the formula, 7θ/α is,
As in the case of Figure 6, from the hardware structure of the visual device,
This is the value to be found.

ところで、0〜0式において。By the way, in the 0-0 formula.

ム人R,=  −△入R1ΔIR,=  −ΔXR。Mu person R, = -△inR1ΔIR, = -ΔXR.

ΔXR2’=−△XR,ΔYR2’ ニー−△YR2Δ
Xv=−ΔXHΔYv =−△Y Hと正負の符号を逆
にして賃き換えろと、0〜0式は0〜0式と全く同じ式
になる。これは第1図と第7図において視覚装置とワー
クとの座標関係がロボットの移動に対して反対になるた
めである。
ΔXR2'=-△XR, ΔYR2' Knee-△YR2Δ
Xv=-ΔXHΔYv=-ΔY If the positive and negative signs of H are reversed and replaced, the 0-0 formula becomes exactly the same as the 0-0 formula. This is because the coordinate relationship between the visual device and the workpiece in FIGS. 1 and 7 is opposite to the movement of the robot.

さらに、上記(a)項の動作に対応、して、・・ンドに
よるワーク把持時の各座標系における角度関係として、
第1図の場合と同様に%第4図の関係が成立ら、0式と
全く等しい次の[相]式が成立つ。
Furthermore, corresponding to the operation in item (a) above, as the angular relationship in each coordinate system when gripping the workpiece by...
As in the case of FIG. 1, if the relationship shown in % FIG. 4 holds, then the following [phase] equation, which is exactly equal to the 0 equation, holds true.

θS=θ+θ0−θH・・・・・・・・・[相]そして
、この式においては、θ。に■〜(1)式から求まる値
、θHは既知の値(第4図においては第2図の場合と同
様にθH=90°)であることから。
θS=θ+θ0−θH...[Phase] And in this equation, θ. (2) The value obtained from formula (1), θH, is a known value (θH=90° in FIG. 4 as in the case of FIG. 2).

視覚装置によりワーク8aの主flIl用度θを認識す
ることによりθSが求まる。
θS is determined by recognizing the main flIl usage θ of the workpiece 8a using a visual device.

従って、第7図の場合も第1図と同様の処理により、視
覚座標系に対するロボット座標系の倍率(比寸法)α、
β、ロボット座標系に対する視覚座標系の傾き先、ロボ
ット座標系における視覚i襟原点位置の座標(ΔXV、
△YV)、ロボット座標糸における基準方向を向いたハ
ンドのハンド方向線の角度θS等の座標系の相対関係を
求めることができる。
Therefore, in the case of FIG. 7, by the same processing as in FIG. 1, the magnification (ratio dimension) α of the robot coordinate system with respect to the visual coordinate system,
β, the inclination of the visual coordinate system with respect to the robot coordinate system, the coordinates of the visual i-collar origin position in the robot coordinate system (ΔXV,
ΔYV), the angle θS of the hand direction line of the hand facing the reference direction in the robot coordinate thread, etc., and the relative relationships of the coordinate systems can be determined.

また、以上に述べた■〜[株]式は、第1図の場合と同
様に1例えば第5図に示すくさび状ハンド6bとこれに
対応したワーク8bのように、ワークのハンドリング基
準点Hと図心Cとが一致しさらにハンドのハンドリング
基準点Pが一致すると同時にハンド方向線LHとワーク
の主軸LPとのなす角度θHが一義的に定まる場合には
すべて成立つ関係式である。
In addition, the above-mentioned equations 1 to 1, as in the case of FIG. 1, are similar to the case of FIG. This relational expression holds true when the centroid C coincides with the centroid C, the handling reference point P of the hand coincides, and the angle θH between the hand direction line LH and the main axis LP of the workpiece is uniquely determined.

さらに第6図のように、ハンド6Cによりワーク8Cを
把持した時、ハンドとワークとの把持関係が一定に定ま
る場合にも、第1図及び第4図鑑 1!    の場合と同様に、前記の0〜0式はそのま
ま成禿 立し、■と0式に対応したロボット座標系における視覚
座標原点の座標(ΔXv’ 、ΔYv’ )もワークの
ハンドリング基準点Hと図心Cとのすれを補正した次式
によって求めることができろ。
Furthermore, as shown in FIG. 6, when a workpiece 8C is gripped by a hand 6C, even if the gripping relationship between the hand and the workpiece is determined to be constant, FIGS. As in the case of , the above equations 0 to 0 remain unchanged, and the coordinates (ΔXv', ΔYv') of the visual coordinate origin in the robot coordinate system corresponding to equations 2 and 0 are also the handling reference point H of the workpiece. It can be obtained using the following formula, which corrects the deviation from the centroid C.

△X V ’ = ΔXv −4−e cos (θS
+θH)  ・・川◎ΔYv’ =ΔYv −4−e 
sin (θS+θH)   −−−−−−t@r尚第
7図の場合には、ロボットのハンドにより、ワークを2
回把持して移動するため、ハンドによりワークを把持し
た時の把持関係が一定に定まらないようなワークを用い
た時には、0〜69式も成立しない。
△X V' = ΔXv -4-e cos (θS
+θH) ・・River◎ΔYv' =ΔYv −4−e
sin (θS+θH) −−−−−−t@rIn the case of Fig. 7, the workpiece is moved 2 times by the robot hand.
If a workpiece is used in which the gripping relationship is not fixed when the hand grips the workpiece because the workpiece is moved by gripping the workpiece twice, the equations 0 to 69 will not hold true.

ところでこれまでの説明では、第1図のロボット構成及
び第7図のロボット構成においても、2点の教示点での
視覚座標系における図心座標及びロボット座標系におけ
るロボット移動量と1点の教示点での視覚座標における
主軸角度とから、視覚座標系とロボット座標系さらには
ハンドの位置・基準角度との間の座標系の相対関係を求
めてきたが、これに限るものではなく。
By the way, in the explanations so far, in the robot configuration shown in FIG. 1 and the robot configuration shown in FIG. The relative relationship of the coordinate systems between the visual coordinate system, the robot coordinate system, and the position and reference angle of the hand has been determined from the principal axis angle in the visual coordinate at a point, but the present invention is not limited to this.

第9図のに、J−を必要回(n)又は第10図ノt、 
   IUを必要回(W)繰返すことにより、2点以上
の教示点を用いても同様に座標系の相対関係を求めるこ
とができる。
In Figure 9, J- is required times (n) or in Figure 10, t.
By repeating IU as many times as necessary (W), the relative relationships of the coordinate systems can be found in the same way even when two or more teaching points are used.

例えば、以下に教示点を3点とした場合(第9図でn 
= 2又は10図でW=2)について述べる。
For example, if the teaching points are set to 3 points (in Figure 9, n
= 2 or W = 2) in Figure 10.

第1図及び第5図において、第3図の教示点での視覚座
標系における図心座標を(Xv3. Y Vs 、)と
し、第2から第6の教示点への移動でのロボット座標系
における視覚装置の移動量をΔXR,。
In Figures 1 and 5, the centroid coordinates in the visual coordinate system at the teaching point in Figure 3 are (Xv3. Y Vs,), and the robot coordinate system when moving from the second to the sixth teaching point The amount of movement of the visual device at is ΔXR.

ΔYR3とすると、さらに次の式が成立つ。When ΔYR3 is assumed, the following equation further holds true.

・・・・・・■ 従って、■及び0式よりα、βの値を求めることができ
る、 第7図及び第8図において、第3の教示点における視覚
座標系での図心座標を(Xv3. Yv3)とし、第2
から第5の教示点への移動でのロボット座標系における
ワークの移動量をΔXR,°、ΔYa、。
......■ Therefore, the values of α and β can be obtained from ■ and formula 0. In Figures 7 and 8, the centroid coordinates in the visual coordinate system at the third teaching point are ( Xv3.Yv3) and the second
The amount of movement of the workpiece in the robot coordinate system when moving from to the fifth teaching point is ΔXR,°, ΔYa,.

とすると、さらに次の式が成立つ、 ・・・・・・■ 従って、■及びC式よりα、βの値を求めることができ
る。
Then, the following equation holds true: . . .■ Therefore, the values of α and β can be obtained from ■ and Equation C.

このことから、第1図及び第7図のロボット構成とも、
第3の教示点を用いることにより、α、βの値を求めや
すくなる。
From this, the robot configurations in Figures 1 and 7 are
By using the third teaching point, it becomes easier to obtain the values of α and β.

また、これまでの説明では、第1図及び第7図のロボッ
ト構成とも、第9図のフローチャートにおけるj項及び
第10図のフローチャートにおける5項に対応した時点
において、各々1回視覚座標系における主軸角度を測定
することによりハンドが基準方向を向いている時のロボ
ット座標系におけるハンド方向線の角度θSを求めてき
たが、これに限るものではなく%第9図における1項及
び第10図におけるU項に対応する時点において主軸角
度を測定してもよく、さらには各々複数回測定してそれ
を平均した値を用いてもよい。
In addition, in the explanations so far, both the robot configurations in FIGS. 1 and 7 each have one time in the visual coordinate system at the time corresponding to the j term in the flowchart in FIG. 9 and the term 5 in the flowchart in FIG. 10. By measuring the main axis angle, we have determined the angle θS of the hand direction line in the robot coordinate system when the hand is facing the reference direction, but this is not limited to this. The principal axis angle may be measured at a time point corresponding to the U term in , or alternatively, each may be measured a plurality of times and an averaged value may be used.

ところで、実際のロボットによるワークハンドリング動
作は、事前に教示データを求めておき、この教示データ
を用いて視覚装置による認識結果からロボット動作量デ
ータ()為ンドのXa。
By the way, for the actual work handling operation by the robot, teaching data is obtained in advance, and using this teaching data, the robot movement amount data (Xa) is determined from the recognition result by the visual device.

YR方向移動量・回転角度)を求め、このデータに基づ
いてロボットを動作させることが考えられる。
It is conceivable to calculate the YR direction movement amount and rotation angle) and operate the robot based on this data.

この場合における全体システムの機器構成の一例を第1
1図に示す。第11図において、18はビデオカメラ等
の画1象入力装置16と入力画像を処理する画像処理装
#17とから成る視覚装置、19はロボット、20はテ
ィーチングに用いるパソコン等の計算装置である。
An example of the equipment configuration of the entire system in this case is shown in the first example.
Shown in Figure 1. In FIG. 11, 18 is a visual device consisting of an image input device 16 such as a video camera and an image processing device #17 for processing the input image, 19 is a robot, and 20 is a computing device such as a personal computer used for teaching. .

以上の構成において、ティーチング時には。In the above configuration, when teaching.

通信線21と22を結び、計算装置20からの指令によ
り、ロボットな動作させて、この時のロボット移動量を
計算装置20に入力すると同時に視覚装置18による認
識結果(図心、主軸角度)を計算装置20に入力して、
計算装置20により■〜貞  [株]式の計算を行い、
教示データ(座標系の相対ヤ゛ 関係)を算出する、そして求まった教示データな画像処
理装置17に転送して記憶しておく。
The communication lines 21 and 22 are connected, the robot is operated according to instructions from the computing device 20, and the amount of robot movement at this time is input to the computing device 20. At the same time, the recognition results (centroid, principal axis angle) by the visual device 18 are received. input into the calculation device 20,
The calculation device 20 calculates the formula ■~Sada [stock],
The teaching data (relative coordinate system relationship) is calculated, and the calculated teaching data is transferred to the image processing device 17 and stored.

次に実際のワークハンドリング時には、計算装置20を
取りはずし通信線26のみを結んで、画像入力装置16
から画像処理装置17に映像を取込み、ここでワークの
図心や主軸角度等を認識すると同時に、ロボット動作量
データを算出しこのデータをロボット19に転送してワ
ークの71/ドリングを行う。
Next, during actual work handling, the computing device 20 is removed, only the communication line 26 is connected, and the image input device 16 is connected.
The image is taken into the image processing device 17, where the centroid and spindle angle of the workpiece are recognized, and at the same time, robot movement amount data is calculated and this data is transferred to the robot 19 to perform 71/drilling of the workpiece.

この結果、視覚装置1Bでの演算処理を軽減できると1
w1時に、計算装置20は教示時にのみ必要でワークハ
ンドリング時は不要となるため、視覚装置1Bとロボッ
ト19との複数組の組合せに対して1個の計算装#20
ですみ、全体のシステムを安価に構成できることになる
As a result, the calculation processing in the visual device 1B can be reduced.
At w1, since the computing device 20 is required only for teaching and not for work handling, one computing device #20 is required for multiple combinations of the visual device 1B and the robot 19.
This means that the entire system can be constructed at low cost.

尚、これまでの説明では、直交座標形ロボットについて
、平面座儒における視覚座標系とロボット座標系さらに
はノ・ンド位置・基準角度との相対関係を視覚装置によ
り自動測定する方法について述べてきたが1本方法はこ
れに限るも    !のではなく1円筒座標系、極P!
l!W糸、スカラ形。
In addition, in the explanation so far, we have described a method for automatically measuring the relative relationship between the visual coordinate system in a flat plane and the robot coordinate system, as well as the position and reference angle, using a visual device for Cartesian coordinate robots. But this is the only method! Instead of one cylindrical coordinate system, the pole P!
l! W thread, scara shape.

摂関IIo形等他の形態のロボットであっても !。Even if it is a robot of other forms such as Sekkan IIo type! .

y方向の直交座標系で移動量を指示できるロボットであ
ればそのまま適用できること、さらには2方向も含む三
久元座標にまで拡張できることは明白である。
It is clear that the present invention can be applied as is to any robot whose movement amount can be specified using a rectangular coordinate system in the y direction, and can even be extended to three-dimensional coordinates that include two directions.

さらに以上の説明では、視覚装置と組合わせたロボット
において座標系の相対関係を求める方法を述べてきたが
1本方法はロボットに限らず、視覚装置と組合わせて動
作させる装置であれば、それらの間の座標の相対関係を
求める場合にも一般的に適用できることは明らかである
、〔発明の効果〕 以上詳細に述べたように、本発明によれば。
Furthermore, in the above explanation, we have described a method for determining the relative relationship of coordinate systems in a robot combined with a visual device, but this method is not limited to robots, but can be applied to any device that operates in combination with a visual device. [Effects of the Invention] As described above in detail, according to the present invention, it can be generally applied to the case of determining the relative relationship between coordinates.

ロボットと組合わせて使用する視覚装置を測定装置とし
て用い、該視覚装置の視野内の2点以上でハンドに対す
る把持状態が一義的に定まるワークの図心座標を認識す
ると共に該視覚装置の視野内の1点以上で該ワークの主
軸角度を認識するという簡単な操作で、視覚座標系とロ
ボット座標系とハントの位置・基準角度との間の相対関
係を正確に求めろことができ、さらには採寸等の点でも
非常に有効である。
A visual device used in combination with the robot is used as a measuring device, and the centroid coordinates of the workpiece, where the grasping state of the hand is uniquely determined, are recognized at two or more points within the field of view of the visual device. With a simple operation of recognizing the main axis angle of the workpiece at one or more points, it is possible to accurately determine the relative relationship between the visual coordinate system, the robot coordinate system, and the hunt position/reference angle. It is also very effective in terms of measurements, etc.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、本発明の一実施例による視覚装置を取付けた
直交座標形ロボットの構成と動作を示す図、第2図は、
長方形断面を持つハンドと工学状ワークとの把持状態を
示す図、第5図は。 第1図のロボット動作における座標関係を示す図、第4
図は、第1図及び第7図(後述)のロボット動作におけ
る把持角度状態を示す図、第5図は、くさび状ハンドと
これに対むしたワークとの把持状態を示す(9)、第6
図は、ハント” IJ/グ基準点と図心とが一定の位置
関係にあるワークにおけるハンドとワークとの把持状態
?示す図、第7図は、本発明の他の実施例による視覚装
置を別置きにした直交座標形ロボットの構成と動作を示
す図、第8図は、第7図のロボット動作における座標関
係を示す図、第9図、第10図は、ロボット及び視覚装
置の動作を示すフローチャート、第11図は1本発明の
全体システムの機器構成の一例を示す図である。 符号の説明 1.10・・・・・・ロボット、 4・・・・・・水平移動アーム、 5・・・・・・上下移動アーム。 6.6a、6b、6C−叩・ハンド、 7.11・・・・・・視覚装置、 8.8a、8b、8c ・叩・’7− り。 q、9a、9b、9c、1S −−−−−−視覚装置の
視野XR−OR−YR−・・ロボット座標系、Xv−O
v−Yv−・視覚座標系、 P・・・・・・ハンドのハンドリング基準点。 H・・・・・・ワークのハンドリング基準点、C・・・
・・・ワークの図心。 ヒ
FIG. 1 is a diagram showing the configuration and operation of a Cartesian coordinate robot equipped with a visual device according to an embodiment of the present invention, and FIG.
FIG. 5 is a diagram showing a state in which an engineering-shaped workpiece is gripped by a hand having a rectangular cross section. Diagram showing the coordinate relationship in the robot motion of Fig. 1, Fig. 4
The figure shows the gripping angle state in the robot operation of FIGS. 1 and 7 (described later). 6
The figure shows the grasping state of the hand and the workpiece in a workpiece in which the reference point and centroid of the workpiece are in a fixed positional relationship, and FIG. Figure 8 is a diagram showing the configuration and operation of a Cartesian robot placed separately. Figure 8 is a diagram showing the coordinate relationship in the robot operation of Figure 7. Figures 9 and 10 are diagrams showing the operation of the robot and visual device. The flowchart shown in FIG. 11 is a diagram showing an example of the equipment configuration of the overall system of the present invention.Explanation of symbols 1.10...Robot, 4...Horizontal moving arm, 5 ... Vertical movement arm. 6.6a, 6b, 6C - Hitting / Hand, 7.11 ... Visual device, 8.8a, 8b, 8c - Hitting / '7- Ri. q , 9a, 9b, 9c, 1S --- Visual field of view XR-OR-YR--Robot coordinate system, Xv-O
v-Yv-・Visual coordinate system, P...Hand handling reference point. H... Workpiece handling reference point, C...
...The center of gravity of the work. Hi

Claims (1)

【特許請求の範囲】 1、少くとも、平面座標におけるワークの図心位置と主
軸角度を認識できる視覚装置と組合わせたロボットにお
いて、ハンドにより把持した時にハンドとワークとの位
置関係及び角度関係が一義的に定まる教示用のワークを
用いて、該ハンドを基準の向きにして、該ロボットを移
動して該視覚装置の視野内の2点以上の教示点で該ワー
クの図心を認識すると同時に1点以上の教示点で該ワー
クの主軸角度を認識することにより、この時に求まる視
覚座標系における該2点以上の教示点での図心座標及び
1点以上の教示点での主軸角度とロボット座標系におけ
る該2点以上の教示点に対応したロボット移動量とから
、該視覚座標系と該ロボット座標系、さらには上記ロボ
ットのハンドの位置・基準向きとの間の相対関係を求め
るようにしたことを特徴とするロボットの教示方法。 2、上記視覚装置を上記ロボットの移動アームに取付け
、上記ロボットの基準方向を向けたハンドにより上記教
示用ワークを一旦把持した後離してそのまま位置決めし
、次に上記視覚装置を動かすことにより、上記視覚座標
系上における上記2点以上の教示点での図心座標及び上
記1点以上の教示点での主軸角度を認識すると共に、上
記ロボット座標系における視覚装置移動量を上記ロボッ
ト移動量としたことを特徴とする特許請求の範囲第1項
記載のロボットの教示方法。 3、上記視覚装置を上記ロボットとは別に設置し、上記
ロボットの基準方向を向けたハンドにより上記教示用ワ
ークを移動することにより、上記視覚座標系上における
上記2点以上の教示点での図心座標及び上記1点以上の
教示点での主軸角度を認識すると共に、上記ロボット座
標系におけるワーク移動量を上記ロボット移動量とした
ことを特徴とする特許請求の範囲第1項記載のロボット
の教示方法。
[Claims] 1. In a robot combined with a visual device capable of recognizing at least the centroid position and principal axis angle of a workpiece in plane coordinates, the positional and angular relationships between the hand and the workpiece when gripped by the hand are Using a uniquely determined teaching workpiece, the robot is moved with the hand in a reference direction, and the center of gravity of the workpiece is recognized at two or more teaching points within the visual field of the visual device. By recognizing the main axis angle of the workpiece at one or more teaching points, the centroid coordinates at the two or more teaching points and the main axis angle at one or more teaching points in the visual coordinate system determined at this time and the robot From the robot movement amount corresponding to the two or more teaching points in the coordinate system, the relative relationship between the visual coordinate system and the robot coordinate system, as well as the position and reference orientation of the robot's hand is determined. A robot teaching method characterized by the following. 2. Attach the visual device to the movable arm of the robot, once grip the teaching workpiece with the robot's hand pointing in the reference direction, release it and position it, and then move the visual device. Recognize the centroid coordinates at the two or more teaching points on the visual coordinate system and the principal axis angle at the one or more teaching points, and set the visual device movement amount in the robot coordinate system as the robot movement amount. A method for teaching a robot according to claim 1, characterized in that: 3. By installing the visual device separately from the robot and moving the teaching workpiece with the robot's hand pointing in the reference direction, a diagram at the two or more teaching points on the visual coordinate system can be obtained. The robot according to claim 1, wherein the center coordinate and the main axis angle at the one or more teaching points are recognized, and the workpiece movement amount in the robot coordinate system is taken as the robot movement amount. Teaching method.
JP21839584A 1984-10-19 1984-10-19 Robot teaching method Pending JPS6198410A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21839584A JPS6198410A (en) 1984-10-19 1984-10-19 Robot teaching method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21839584A JPS6198410A (en) 1984-10-19 1984-10-19 Robot teaching method

Publications (1)

Publication Number Publication Date
JPS6198410A true JPS6198410A (en) 1986-05-16

Family

ID=16719232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21839584A Pending JPS6198410A (en) 1984-10-19 1984-10-19 Robot teaching method

Country Status (1)

Country Link
JP (1) JPS6198410A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62287987A (en) * 1986-06-04 1987-12-14 三菱電機株式会社 Robot
JPH01206407A (en) * 1988-02-13 1989-08-18 Nitto Seiko Co Ltd Teaching method for work position teaching device
US6671574B1 (en) 2002-08-30 2003-12-30 Fujitsu Limited Position detecting apparatus and library apparatus
CN103158151A (en) * 2011-12-19 2013-06-19 发那科株式会社 Taking out device having function for correcting posture of an article

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62287987A (en) * 1986-06-04 1987-12-14 三菱電機株式会社 Robot
JPH01206407A (en) * 1988-02-13 1989-08-18 Nitto Seiko Co Ltd Teaching method for work position teaching device
US6671574B1 (en) 2002-08-30 2003-12-30 Fujitsu Limited Position detecting apparatus and library apparatus
CN103158151A (en) * 2011-12-19 2013-06-19 发那科株式会社 Taking out device having function for correcting posture of an article
CN103158151B (en) * 2011-12-19 2015-04-29 发那科株式会社 Taking out device having function for correcting posture of an article

Similar Documents

Publication Publication Date Title
JP6572262B2 (en) Teaching position correcting device and teaching position correcting method
EP0849053B1 (en) Method of controlling force assisting device and control apparatus using the same
CA2292491A1 (en) Method and device for robot tool frame calibration
JPS63241614A (en) Robot device
JP5618770B2 (en) Robot calibration apparatus and calibration method
JPS60263681A (en) Instruction method of robot
JP2005169564A (en) Method for gripping object of optional shape by robot
CN112454366A (en) Hand-eye calibration method
CN113349939B (en) Performance test method and system for passive active hand type master-slave control surgical robot
JP2667153B2 (en) Direct teaching method for multiple arm device
JPS6198410A (en) Robot teaching method
Qi et al. Hand-eye calibration method of gantry robot based on 3D vision sensor
JPH06187021A (en) Coordinate correcting method for robot with visual sense
JPS61240304A (en) Arithmetic unit for attachment error of end effector of industrial robot
JP2019048350A (en) Robot control device and robot control method for setting control point of robot
JPH04269194A (en) Plane measuring method
JP2656180B2 (en) Tool tip position adjustment method
JPS643661Y2 (en)
Notash et al. Fixtureless calibration of parallel manipulators
JPS60262215A (en) Robot teaching method
JP2019093486A (en) Robot controller and robot inverse transformation processing method
JP3244268B2 (en) Workpiece position and orientation conversion method in robot coordinate system and visual coordinate system
JPH02212085A (en) Decision of attitude of manipulator
JPH07129231A (en) Noncontact point teaching device
JP2000039912A (en) Robot controller