JPS63105893A - Automatic teaching method of robot - Google Patents

Automatic teaching method of robot

Info

Publication number
JPS63105893A
JPS63105893A JP25087286A JP25087286A JPS63105893A JP S63105893 A JPS63105893 A JP S63105893A JP 25087286 A JP25087286 A JP 25087286A JP 25087286 A JP25087286 A JP 25087286A JP S63105893 A JPS63105893 A JP S63105893A
Authority
JP
Japan
Prior art keywords
teaching
mark
information
robot
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP25087286A
Other languages
Japanese (ja)
Other versions
JPH0716900B2 (en
Inventor
毛利 峻治
的場 秀彰
芦田 暁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP61250872A priority Critical patent/JPH0716900B2/en
Publication of JPS63105893A publication Critical patent/JPS63105893A/en
Publication of JPH0716900B2 publication Critical patent/JPH0716900B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Abstract] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明はロボットの位置教示方法に係り、特に多くの教
示工数と時間を要し面倒な教示作業の筒易化と省人化に
好適なロボットの自動教示方法に関する。
[Detailed Description of the Invention] [Field of Industrial Application] The present invention relates to a method for teaching the position of a robot, and is particularly suitable for simplifying and manpower-saving the troublesome teaching work that requires a lot of man-hours and time. Concerning automatic teaching methods for robots.

〔従来の技術〕[Conventional technology]

従来のロボットの教示方法ではティーチングボックス上
の移動ボタンを押すと、その押している間だけロボット
がそのボタンの意味する方向たとえばX軸の方向等に移
動し、ロボットが所定の位置・姿勢になったかを作業者
が目視で確認して位置決めしている。また視覚検出器等
を用いる場合には、教示対象物の形状を認識してその形
状の特徴たとえば溶接物であれば2つの仮の接合線など
から、動作経路の教示点を決める方法がとられている。
In conventional robot teaching methods, when a movement button on the teaching box is pressed, the robot moves in the direction indicated by the button, such as the X-axis direction, for as long as the button is pressed, and it is difficult to check whether the robot has reached a predetermined position or posture. The operator visually checks and positions the parts. In addition, when using a visual detector, etc., a method is used in which the shape of the object to be taught is recognized and the teaching point of the motion path is determined based on the characteristics of that shape, such as two temporary joining lines in the case of a welded object. ing.

このような従来の教示方法では多くの教示工数と時間を
要して作業者に多大の負担となっていたが、しかし教示
対象物に教示補助情報としてのマーク等を設けてその情
報をもとに自動教示するような配慮がなされていなかっ
た。なお従来のロボットの教示方法については、たとえ
ば特開昭59−177610号公報および特開昭60−
39207号公報などに記載されている。
Such conventional teaching methods require a lot of teaching man-hours and time, which puts a heavy burden on the operator. No consideration was given to automatic teaching. Regarding conventional robot teaching methods, for example, Japanese Patent Application Laid-open Nos. 59-177610 and 1983-
It is described in Publication No. 39207 and the like.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

上記従来技術は教示対象物を認識してその形状の特徴点
たとえば溶接物の接合線などを検出して教示点と決める
のを主体としているため、多大の教示工数とたとえば熟
練者でも1点あたり2.5分にもなる相当程度の長い時
間を必要とするうえ、教示精度が制限されて複雑な組立
て作業などの教示を困難にする問題があった。
The above-mentioned conventional technology mainly involves recognizing the object to be taught and detecting the characteristic points of its shape, such as the joining line of the welded product, and determining it as the teaching point. This method requires a considerable amount of time, up to 2.5 minutes, and has a problem in that teaching precision is limited, making it difficult to teach complex assembly tasks.

本発明の目的は教示対象部品に把持位置・姿勢等を求め
るための教示補助情報としてのマークを設け、その情報
をもとに位置決め点や姿勢を自動的に教示できる簡易化
されたロボットの自動教示方法を提供するにある。
The purpose of the present invention is to provide a simplified automatic robot that can automatically teach positioning points and postures based on the information provided with marks as teaching aid information for determining gripping positions, postures, etc. on parts to be taught. To provide a teaching method.

〔問題点を解決するための手段〕[Means for solving problems]

上記目的は、教示対象部品に教示点の把持位置・方向・
姿勢等を求めるための教示補助情報としての意味をもた
せた教示マークを設け、その教示マークを画像センサに
より検出してその教示補助情報を取り込むとともに、そ
の教示マークの位置を計測して、教示点の位置・姿勢等
を演算して教示するようにしたロボットの自動教示方法
により達成される。
The above purpose is to grasp the gripping position, direction, and direction of the teaching point on the teaching target part.
A teaching mark is provided that has the meaning of teaching auxiliary information for determining posture, etc., and the teaching mark is detected by an image sensor and the teaching auxiliary information is captured, and the position of the teaching mark is measured and the teaching point is determined. This is achieved by an automatic robot teaching method that calculates and teaches the position, orientation, etc. of the robot.

〔作用〕[Effect]

上記のロボットの自動教示方法では、画像センサにより
教示対象部品の教示マークを取り込んで教示点の種類(
把持点・挿入点等)を認識するとともに、認識した教示
マークの位置を計測してロボット座標系での3次元座標
値を求め、求めた座標値と認識した教示点種をもとにロ
ボット手先の位置決め位置・姿勢等を算出し、必要に応
じマーク情報から指示しきれない情報(手先の把持深さ
等)を部品付属情報として入力することにより、教示点
情報を計算機により正確かつ高速に求めることができる
In the robot automatic teaching method described above, the teaching mark of the teaching target part is captured by an image sensor, and the type of teaching point (
In addition to recognizing the gripping point, insertion point, etc.), the position of the recognized teaching mark is measured to determine the three-dimensional coordinate value in the robot coordinate system, and the robot hand is By calculating the positioning position, posture, etc. of the machine, and inputting information that cannot be specified from the mark information (grip depth of the hand, etc.) as part attachment information, the teaching point information can be obtained accurately and quickly by the computer. be able to.

〔実施例〕〔Example〕

以下に本発明の一実施例を第1図ないし第8図により説
明する。
An embodiment of the present invention will be described below with reference to FIGS. 1 to 8.

第1図は本発明によるロボットの自動教示方法の一実施
例を示す全体構成ブロック図である。第1図において、
1は全体画像入力用の全体現TVカメラ、2はロボット
の手先に付けられた手先TVカメラ、3は画像処理装置
、4は演算処理装置、5はマーク情報格納用メモリ、6
は教示情報格納用メモリ、7は位置検出用の測距センサ
、8は教示マークを貼るなどして付けた教示対象部品、
9はティーチングボックスでおる。
FIG. 1 is a block diagram showing the overall configuration of an embodiment of the automatic robot teaching method according to the present invention. In Figure 1,
1 is an overall TV camera for inputting the entire image, 2 is a hand TV camera attached to the robot's hand, 3 is an image processing device, 4 is an arithmetic processing device, 5 is a memory for storing mark information, 6
is a memory for storing teaching information, 7 is a distance measuring sensor for position detection, 8 is a teaching target part attached by pasting a teaching mark, etc.
9 is a teaching box.

第2図は第1図のマーク情報の格納形式の説明図である
。第2図において、10はマーク情報シリアル番号、1
1はマーク名称、12はマークの意味、13はマークの
特徴量(規準面積1周辺長など)である。また第3図は
第1図の部品情報の格納形式の説明図である。第3図に
おいて、14は部品情報シリアル番号、15は部品名称
、16は部品の教示付属情報(把持深さdなど)である
。第4図は第1図(第2図)の教示マーク例の説明図で
ある。第4図において、17は各マーク番号1〜6の教
示マーク例、18はマークの意味例である。
FIG. 2 is an explanatory diagram of the storage format of the mark information shown in FIG. 1. In Figure 2, 10 is the mark information serial number, 1
1 is the mark name, 12 is the meaning of the mark, and 13 is the feature amount of the mark (standard area 1 perimeter length, etc.). Further, FIG. 3 is an explanatory diagram of the storage format of the parts information shown in FIG. 1. In FIG. 3, 14 is a part information serial number, 15 is a part name, and 16 is teaching attached information (grip depth d, etc.) of the part. FIG. 4 is an explanatory diagram of an example of the teaching mark shown in FIG. 1 (FIG. 2). In FIG. 4, 17 is an example of the teaching mark of each mark number 1 to 6, and 18 is an example of the meaning of the mark.

また第5図(a)、 (blは第1図(第4図)の平面
把持部の教示マーク例の説明図で、第5図(alは教示
マークを付けた部品の平面図、第5図(blは部品とロ
ボット手先との関係を示す斜視図である。第5図(a)
、 (blにおいて、19,20.21は教示対象部品
(第1図)に付けられたマーク番号1,2.3の平面把
持部の第1.第2.第3教示補助情報の意味をもつ教示
マーク(第4図)であって、教示マーク19、20はロ
ボットハンド22の把持方向a、bと把持位置を示し、
教示マーク21は手先面Aと部品8を平行にするさい部
品8の平面の法線ベクトルを求めるのに利用される。な
お把持深さdは部品付属情報として格納される(第3図
)。
5(a), (bl is an explanatory diagram of an example of the teaching mark on the flat grip part of FIG. 1 (FIG. 4), FIG. Figure (bl is a perspective view showing the relationship between parts and robot hands. Figure 5 (a)
, (In bl, 19, 20, 21 have the meanings of the 1st, 2nd, and 3rd teaching auxiliary information of the flat grip part with mark numbers 1, 2, and 3 attached to the teaching target part (Fig. 1) Of the teaching marks (FIG. 4), teaching marks 19 and 20 indicate the gripping directions a and b and the gripping position of the robot hand 22,
The teaching mark 21 is used to find the normal vector of the plane of the part 8 when making the hand surface A and the part 8 parallel. Note that the gripping depth d is stored as component attachment information (FIG. 3).

第1図の構成において、教示対象部品8について自動教
示処理を行ない教示点情報を求める手順を説明する。ま
ずティーチングボックス9上の自動教示モードボタンを
選択し押下することによりマニュアル動作/自動教示モ
ードになる(自動教示の起動)。ついで全体現TVカメ
ラ1より取り込んだ情報をもとに、手先TVカメラ2を
部品8の第1の教示マーク(第1の教示点)19上に移
動する。あるいはマニュアル動作で手先カラン2を移動
して、第1の教示マーク19を視野内に入れる(画像セ
ンサの移動)。
In the configuration shown in FIG. 1, a procedure for performing automatic teaching processing on the teaching target part 8 and obtaining teaching point information will be explained. First, by selecting and pressing the automatic teaching mode button on the teaching box 9, the manual operation/automatic teaching mode is entered (activation of automatic teaching). Next, the hand TV camera 2 is moved onto the first teaching mark (first teaching point) 19 of the part 8 based on the information taken in from the overall TV camera 1. Alternatively, the user moves the hand lever 2 manually to bring the first teaching mark 19 into the field of view (movement of the image sensor).

ここで演算処理装置4は部品8の画像データの取込み指
令を画像処理装置3へ発行し、画像処理装置3は手先T
Vカメラ2より画像情報を取り込む。ついで演算処理装
置4は部品8に付けられている第1の教示マーク19が
視野内にあるかどうかを問い合わす指令を発行し、画像
処理装置3はその教示マークが視野内にあれば“有”と
いう応答を返すしなければ“無”の応答を返す。演算処
理装置4は“無”のときには次の第2の教示マークの有
無を問い合わすが、もし第1の教示マーク19があれば
その位置・面積・姿勢情報(教示点の種類の把持点・挿
入点等)の取込み命令を発行して、それらの情報を取り
込む。次に上記と同様の処理手順で第2.第3の教示マ
ーク20.21に係る情報を取り込む(教示マークの取
込み)。
Here, the arithmetic processing device 4 issues a command to take in the image data of the part 8 to the image processing device 3, and the image processing device 3
Image information is taken in from the V camera 2. Next, the arithmetic processing device 4 issues a command to inquire whether the first teaching mark 19 attached to the component 8 is within the field of view, and the image processing device 3 determines that the teaching mark 19 is present if it is within the field of view. ” is not returned, a response of “None” is returned. When the arithmetic processing unit 4 is "absent", it inquires about the presence or absence of the next second teaching mark, but if there is a first teaching mark 19, its position, area, and orientation information (grasping point of the type of teaching point, (insertion point, etc.) and imports that information. Next, perform the second process using the same processing procedure as above. The information related to the third teaching mark 20.21 is taken in (teaching mark importing).

第6図は第1図の画像処理装置3内での位置・姿勢情報
の説明図である。第6図において、23は手先TVカメ
ラ2の視野、24はカメラ視野の原点、25は視野内の
xy座標の原点、26は教示マークの形状の慣性主軸、
27は教示マークの重心である。
FIG. 6 is an explanatory diagram of position/orientation information within the image processing device 3 of FIG. 1. In FIG. 6, 23 is the field of view of the hand TV camera 2, 24 is the origin of the camera field of view, 25 is the origin of the xy coordinates within the field of view, 26 is the principal axis of inertia of the shape of the teaching mark,
27 is the center of gravity of the teaching mark.

通常には上記の演算処理装置3の教示マークに係る位置
情報は手先TVカメラ2の視野23内に定めたxy規準
座標系の重心(位置)27のxy座標値として求められ
、また特に指定しなければカメラ視野の画面の原点24
からの座標値としてえられ、一方の姿勢情報はたとえば
マーク形状の慣性主軸26として求められる。なおこの
種の画像処理方法は通常の画像処理装置3の機能であ、
って、詳細はたとえば要地「位置・形状計測に向いた小
型画像処理装置」日立評論Voβ、67、階9(198
5年9月)PP、67〜70や高野「形状パターンの認
識技術」情報調査会(昭和59年10月)などの文献に
も記載されているが、ここでは省略する。つぎに演算処
理装置4は上記により認識した教示マーク19,20.
21のマーク位置を計測してロボット座標系での3次元
座標値を求める。
Normally, the positional information related to the teaching mark of the arithmetic processing device 3 is obtained as the xy coordinate values of the center of gravity (position) 27 of the xy reference coordinate system defined within the field of view 23 of the hand TV camera 2, and is not particularly specified. If not, the origin of the camera field of view 24
One of the posture information is obtained as the principal axis of inertia 26 of the mark shape, for example. Note that this type of image processing method is a function of the normal image processing device 3;
For details, for example, see the key point "Small image processing device suitable for position/shape measurement" Hitachi Review Voβ, 67, 9th floor (198
Although it is also described in literature such as PP, 67-70 (September 1982) and Takano "Shape Pattern Recognition Technology" Information Research Group (October 1982), it is omitted here. Next, the arithmetic processing unit 4 then processes the teaching marks 19, 20 . . . recognized as described above.
The position of the mark 21 is measured to obtain three-dimensional coordinate values in the robot coordinate system.

第7図は第1図のマーク位置計測方法の一実施例のブロ
ック図である。第7図において、28はアクチュエータ
(モータ)、29はサーボ回路、30はサーボ電圧値(
指令)、31は現在位置(13号)、32はサーボ電圧
(信号)、33はリミット信号、34は近接スイッチ(
測距センサ7に相当)である。
FIG. 7 is a block diagram of an embodiment of the mark position measuring method shown in FIG. 1. In Fig. 7, 28 is an actuator (motor), 29 is a servo circuit, and 30 is a servo voltage value (
31 is the current position (No. 13), 32 is the servo voltage (signal), 33 is the limit signal, 34 is the proximity switch (
(corresponds to the distance measuring sensor 7).

ここでは演算処理装置4は先に求めた教示マークの重心
位置27ヘロボソトの手先22を動かす。これにはサー
ボ回路29に対しである決められた時間(サーボ周期)
tごとにサーボ電圧値30を出力することにより行ない
、このさいサーボ周′Mjが決められているから現在位
置より遠くを指令すれば速度が速くて近くを指令すれば
遅くなる。このサーボ電圧値30はアクチュエータ(モ
ータ)28の回転数を示すから、したがってこのサーボ
電圧値30を求めるにはある位置へ移動するためのロボ
ットの各関節の回転角を知る必要があるが、これらの方
法についてはよく知られていて、たとえば毛利「ロボッ
ト言語とシステム」コンピユートロール患9 (198
5年1月) PP、63〜70に記載されているが、こ
こでは詳細を省略する。このようにして演算処理装置4
はロボットの手先22に付けられた近接センサ34が重
心位置27に行くようにゆっくり移動するとともに、こ
のさい近接センサ34からのリミット信号33をたえず
モニタする。ここで近接スイッチ34が重心27に接す
るとリミット信号33が演算処理装置4に入力するから
、その時点で演算処理装置4はサーボ電圧値30を零に
してロボットの移動を停止する。ついでアクチュエータ
(モータ)28の通常にはモータシャフトに付けられた
エンコーダよりえられる現在位置信号31を入力して、
教示マークの重心位置270ロボツト座標系での3次元
空間座標値を求める。なお、このモータのエンコーダ値
より座標値を求める方法についても、上記コンピユート
ロール隘9などに記載されているが、詳細は省略する。
Here, the arithmetic processing unit 4 moves the tip 22 of the previously determined center of gravity position 27 of the teaching mark. This requires a certain amount of time (servo period) for the servo circuit 29.
This is done by outputting a servo voltage value of 30 every t, and since the servo circumference 'Mj is determined at this time, if a command is given to a position farther from the current position, the speed will be faster, and if a command is given to a position closer to the current position, the speed will be slower. This servo voltage value 30 indicates the rotation speed of the actuator (motor) 28, so in order to obtain this servo voltage value 30, it is necessary to know the rotation angle of each joint of the robot to move to a certain position. The methods of
PP, 63-70, but the details are omitted here. In this way, the arithmetic processing device 4
The proximity sensor 34 attached to the hand 22 of the robot slowly moves toward the center of gravity 27, and at the same time constantly monitors the limit signal 33 from the proximity sensor 34. When the proximity switch 34 touches the center of gravity 27, the limit signal 33 is input to the arithmetic processing unit 4, and at that point the arithmetic processing unit 4 sets the servo voltage value 30 to zero and stops the movement of the robot. Next, input the current position signal 31 of the actuator (motor) 28, which is usually obtained from an encoder attached to the motor shaft.
The center of gravity position of the teaching mark 270 determines the three-dimensional spatial coordinate value in the robot coordinate system. Note that the method of determining the coordinate values from the encoder values of this motor is also described in the above-mentioned computer roll section 9, but the details will be omitted.

このようにして必要数の教示マーク19.20.21の
マーク位置を計測する(マーク位置の計測)。つぎに演
算処理装置4は先に求めたマーク位置の計測値(座標値
)と認識した教示マークの意味(教示点種)をもとに手
先の位置決め位置・姿勢(教示点)を算出する。
In this way, the mark positions of the required number of teaching marks 19, 20, and 21 are measured (mark position measurement). Next, the arithmetic processing unit 4 calculates the positioning position and posture (teaching point) of the hand based on the measured value (coordinate value) of the previously determined mark position and the meaning of the recognized teaching mark (teaching point type).

第8図は第1図のロボット手先の位置・姿勢情報例の説
明図である。第8図において、35は手先位置(ベクト
ル)P、36は手先姿勢(ベクトル)f137は手先姿
勢(ベクトル)gである。ここで演算処理装置4は先に
求めたマーク位置の計測値(座標値)などをもとに部品
8の把持位置・姿勢などを算出する。たとえば先に求め
た教示マーク19,20.21(第5図)の重心位置2
7などのロボット座標系での位置ベクトルをそれぞれP
I4 、 PZO。
FIG. 8 is an explanatory diagram of an example of position/posture information of the robot hand in FIG. 1. In FIG. 8, 35 is a hand position (vector) P, 36 is a hand posture (vector), and f137 is a hand posture (vector) g. Here, the arithmetic processing unit 4 calculates the gripping position, orientation, etc. of the component 8 based on the measured values (coordinate values) of the mark position obtained previously. For example, the center of gravity position 2 of the teaching marks 19, 20, and 21 (Fig. 5) found earlier.
The position vector in the robot coordinate system such as 7 is P
I4, PZO.

pz+として、第8図のように手先22の把持中心を手
先位置35(手先位置ベクトルP)、手先22の方向を
手先姿勢36(手先姿勢ベクトルf)、手先22の方向
と垂直方向を手先姿勢37(手先姿勢ベクトルg)とし
て手先の位置・姿勢を定めると、把持の位置・姿勢は次
式により算出される。
As pz+, as shown in FIG. 8, the grip center of the hand 22 is the hand position 35 (hand position vector P), the direction of the hand 22 is the hand posture 36 (hand posture vector f), and the direction perpendicular to the direction of the hand 22 is the hand posture. If the position and posture of the hand are determined as 37 (hand posture vector g), the position and posture of the grip are calculated by the following equation.

f=(p2゜−PI9) X (Pz+  PI9) 
  (11g=Pz+  PI9          
   (21P=(P+w”Pz+)   d−f  
  f3)ここにベクトルに付けた   はベクトルの
単位化を示す(教示点の算出)。
f=(p2゜−PI9) X (Pz+PI9)
(11g=Pz+PI9
(21P=(P+w”Pz+) d-f
f3) The symbol attached to the vector here indicates unitization of the vector (calculation of teaching points).

ここで上記の(3)式に用いた把持深さdなどは部品付
属情報16(第3図)としてあらかじめ決めておくか、
その都度にティーチングボックス9より入力することに
より決めて部品情報として格納しておく (付属情報の
入力)。こうして(1)〜(3)式により求めた手先位
置35、手先姿勢36.37の情報は教示点情報として
教示情報用メモリ6に格納される。
Here, the gripping depth d used in equation (3) above may be determined in advance as part attachment information 16 (Fig. 3), or
Each time, it is determined by inputting it from the teaching box 9 and stored as part information (input of attached information). In this way, the information on the hand position 35 and hand posture 36, 37 obtained by equations (1) to (3) is stored in the teaching information memory 6 as teaching point information.

なお上記の第7図の近接センサ34によるマーク位置の
計測は超音波センサなどにより直接水めるようにしても
よい。
Note that the measurement of the mark position by the proximity sensor 34 shown in FIG. 7 may be performed directly by using an ultrasonic sensor or the like.

また上記の第4図の教示マークは一例であって教示対象
物の形状その他に応じて必要な教示補助情報としての意
味をもたせた教示マークを設けることができ、これによ
り教示点の把持位置・姿勢だけでなく把持方法や組立・
挿入方法等を求めるようにしてもよい。
Furthermore, the teaching mark shown in FIG. 4 above is just an example, and teaching marks with meaning as necessary teaching auxiliary information can be provided depending on the shape of the object to be taught, etc., so that the grasping position of the teaching point can be Not only the posture but also the gripping method and assembly/
The insertion method, etc. may also be requested.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、ロボットの教示対象部品に教示補助情
報としての教示5マークを付けることによって、教示点
を正確かつ容易に自動的に取り込むことが可能となり、
教示工数および時間の削減とともに教示精度向上に効果
がある。
According to the present invention, by attaching the teaching 5 mark as teaching auxiliary information to the teaching target part of the robot, it becomes possible to automatically capture teaching points accurately and easily.
This is effective in reducing teaching man-hours and time as well as improving teaching accuracy.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明によるロボットの自動教示方法の一実施
例を示す全体構成ブロック図、第2図は第1図のマーク
情報の格納形式図、第3図は第1図の部品情報の格納形
式図、第4図は第1図の教示マーク例の説明図、第5図
Tag、 (b)は第1図の平面把持部の教示マーク例
の平面図と手先との関係を示す斜視図、第6図は第1図
の画像処理装置内での位置・姿勢情報の説明図、第7図
は第1図のマーク位置計測の一実施例のブロック図、第
8図は第1図の手先の位置・姿勢情報例の説明図である
。 1・・・全体現カメラ、2・・・手先カメラ、3・・・
画像処理装置、4・・・演算処理装置、5・・・マーク
情報格納用メモリ、6・・・教示情報格納用メモリ、8
・・・教示対象部品、9・・・ティーチングボックス、
12・・・マークの意味、16・・・部品付属情報、1
7・・・教示マーク、18・・・マークの意味、19.
20.21・・・マーク、22・・・手先、27・・・
重心、26・・・慣性主軸、35・・・手先位置、36
.37・・・手先姿勢。 代理人 弁理士 秋 本 正 実 第 1 図 第4 図 茅5図 (a) ノ8(b) 第7図 第 8 図 35    子
Fig. 1 is a block diagram of the overall configuration showing an embodiment of the robot automatic teaching method according to the present invention, Fig. 2 is a storage format diagram of the mark information shown in Fig. 1, and Fig. 3 is a storage format of the part information shown in Fig. 1. 4 is an explanatory diagram of the teaching mark example shown in FIG. 1, FIG. 5 Tag, and (b) is a perspective view showing the relationship between the top view of the teaching mark example of the flat grip part of FIG. 1 and the hand. , FIG. 6 is an explanatory diagram of the position/orientation information in the image processing device shown in FIG. 1, FIG. 7 is a block diagram of an example of mark position measurement shown in FIG. 1, and FIG. FIG. 3 is an explanatory diagram of an example of position/posture information of a hand. 1... General camera, 2... Hand camera, 3...
Image processing device, 4... Arithmetic processing device, 5... Memory for storing mark information, 6... Memory for storing teaching information, 8
...Teaching target part, 9...Teaching box,
12...Meaning of marks, 16...Parts attachment information, 1
7...Teaching mark, 18...Meaning of mark, 19.
20.21...Mark, 22...Stooge, 27...
Center of gravity, 26... Principal axis of inertia, 35... Hand position, 36
.. 37... Hand posture. Agent Patent Attorney Tadashi Akimoto No. 1 Figure 4 Figure 5 (a) No. 8 (b) Figure 7 Figure 8 Figure 35 Child

Claims (1)

【特許請求の範囲】[Claims] 1、ロボットの教示対象部品に教示点の把持位置・姿勢
等を求めるための教示補助情報としての意味をもたせた
教示マークを付け、その教示マークを検出して意味を認
識するとともに、その教示マークの位置を検出すること
により、それらの情報をもとにロボットの教示点の把持
位置・姿勢等を算出して教示するようにしたロボットの
自動教示方法。
1. Attach a teaching mark with meaning as teaching auxiliary information to obtain the grasping position, posture, etc. of the teaching point on the part to be taught by the robot, detect the teaching mark, recognize the meaning, and use the teaching mark. An automatic robot teaching method that calculates and teaches the grasping position, posture, etc. of the robot's teaching point based on that information by detecting the position of the robot.
JP61250872A 1986-10-23 1986-10-23 Automatic teaching method for robot Expired - Fee Related JPH0716900B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61250872A JPH0716900B2 (en) 1986-10-23 1986-10-23 Automatic teaching method for robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61250872A JPH0716900B2 (en) 1986-10-23 1986-10-23 Automatic teaching method for robot

Publications (2)

Publication Number Publication Date
JPS63105893A true JPS63105893A (en) 1988-05-11
JPH0716900B2 JPH0716900B2 (en) 1995-03-01

Family

ID=17214262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61250872A Expired - Fee Related JPH0716900B2 (en) 1986-10-23 1986-10-23 Automatic teaching method for robot

Country Status (1)

Country Link
JP (1) JPH0716900B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998006015A1 (en) * 1996-08-07 1998-02-12 Fanuc Ltd Movement control method for teaching position of robot
JP2010223909A (en) * 2009-03-25 2010-10-07 Fuji Xerox Co Ltd Position/attitude recognizing method, part holding method, part arranging method, part assembling method, position/attitude recognizing apparatus, part holding apparatus, part arranging apparatus and part assembling apparatus
JP2019171497A (en) * 2018-03-27 2019-10-10 ファナック株式会社 Robot system for correcting teaching of robot utilizing image processing

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5479312B2 (en) * 2010-12-07 2014-04-23 本田技研工業株式会社 Part identification method and apparatus for workpiece

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60118458A (en) * 1983-11-30 1985-06-25 Hitachi Ltd Article-manufacturing method and its equipment
JPS60228089A (en) * 1984-04-20 1985-11-13 横河電機株式会社 Method of preventing overrun
JPS61168480A (en) * 1985-01-18 1986-07-30 株式会社東芝 Three-dimensional position setting auxiliary device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60118458A (en) * 1983-11-30 1985-06-25 Hitachi Ltd Article-manufacturing method and its equipment
JPS60228089A (en) * 1984-04-20 1985-11-13 横河電機株式会社 Method of preventing overrun
JPS61168480A (en) * 1985-01-18 1986-07-30 株式会社東芝 Three-dimensional position setting auxiliary device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998006015A1 (en) * 1996-08-07 1998-02-12 Fanuc Ltd Movement control method for teaching position of robot
JP2010223909A (en) * 2009-03-25 2010-10-07 Fuji Xerox Co Ltd Position/attitude recognizing method, part holding method, part arranging method, part assembling method, position/attitude recognizing apparatus, part holding apparatus, part arranging apparatus and part assembling apparatus
JP2019171497A (en) * 2018-03-27 2019-10-10 ファナック株式会社 Robot system for correcting teaching of robot utilizing image processing
US11376732B2 (en) 2018-03-27 2022-07-05 Fanuc Corporation Robot system for correcting teaching of robot using image processing

Also Published As

Publication number Publication date
JPH0716900B2 (en) 1995-03-01

Similar Documents

Publication Publication Date Title
JP4167940B2 (en) Robot system
EP1215017A2 (en) Robot teaching apparatus
US20050273199A1 (en) Robot system
JP2002018754A (en) Robot device and its control method
JP4578438B2 (en) Robot device
JP2008168372A (en) Robot device and shape recognition method
JP2787891B2 (en) Automatic teaching device for laser robot
JP2015071207A (en) Robot hand and control method thereof
JPH09225872A (en) Robot teaching device
JPS63105893A (en) Automatic teaching method of robot
KR101820241B1 (en) Apparatus for motion estimation of object using gripper and method thereof
JPH0741565B2 (en) Robot teaching method
JP3651026B2 (en) Method for teaching robot for stocker
CN115972188A (en) Robot program generating method based on human demonstration
JP2001051713A (en) Method and device for teaching work to robot
JP2616225B2 (en) Relative positioning method
JP2001051712A (en) Method and device for teaching skill to robot
JPS62165213A (en) Work environment teaching device
JP3198467B2 (en) Sensor position and attitude path tracking control method
JP3404681B2 (en) Sensor pointing direction sequential control method
JPS6257892A (en) Camera coordinate calibrating method of robot with visual sense
JPH0731536B2 (en) Teaching data correction robot
JP3396072B2 (en) Three-dimensional position measuring method and device
JPS60113858U (en) Processing tool position correction device
JP4259910B2 (en) Robot teaching method and teaching apparatus

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees