JPH0716900B2 - Automatic teaching method for robot - Google Patents

Automatic teaching method for robot

Info

Publication number
JPH0716900B2
JPH0716900B2 JP61250872A JP25087286A JPH0716900B2 JP H0716900 B2 JPH0716900 B2 JP H0716900B2 JP 61250872 A JP61250872 A JP 61250872A JP 25087286 A JP25087286 A JP 25087286A JP H0716900 B2 JPH0716900 B2 JP H0716900B2
Authority
JP
Japan
Prior art keywords
teaching
robot
mark
information
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP61250872A
Other languages
Japanese (ja)
Other versions
JPS63105893A (en
Inventor
峻治 毛利
秀彰 的場
暁 芦田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP61250872A priority Critical patent/JPH0716900B2/en
Publication of JPS63105893A publication Critical patent/JPS63105893A/en
Publication of JPH0716900B2 publication Critical patent/JPH0716900B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、3次元空間内に任意に配置されている教示対
象部品各々に対するロボットの動作を、ロボットに自動
的に教示するための動作自動教示方法に係わり、特に教
示対象部品各々に付されている教示マークから、教示対
象品各々に対するロボットの動作を規定する教示データ
が自動的に作成されるようにしたロボットへの動作自動
教示方法に関するものである。
DETAILED DESCRIPTION OF THE INVENTION [Industrial Field of Application] The present invention relates to an automatic operation for automatically teaching the robot the operation of the robot for each teaching target component arbitrarily arranged in a three-dimensional space. The present invention relates to a teaching method, and more particularly, to a method for automatically teaching a robot operation in which teaching data that defines a robot operation for each teaching target item is automatically created from teaching marks attached to each teaching target component. It is a thing.

〔従来の技術〕[Conventional technology]

従来のロボットへの動作自動教示方法では、ティーチン
グボックス上の移動ボタンが操作されれば、その間だ
け、ロボットがそのボタンが指示する方向、例えばx軸
方向に移動されつつ、ロボットが所望の位置・姿勢状態
におかれたかが、作業者が目視により確認した上、ロボ
ットは位置決めされるものとなってている。また、視覚
検出器等を用いる場合には、教示対象物のその形状が認
識された上、その形状の特徴、例えば溶接物であれば、
2つの板の接合線などから、動作経路の教示点を決める
方法が採られている。このように、これまでの動作教示
方法では、多くの教示過程と時間が要されており、動作
教示に際し、作業者には多くの負担が強いられたものと
なっている。なお、従来技術に係るロボットへの動作教
示方法に関するものとしては、例えば特開昭59−177610
号公報や特開昭60−39207号公報が挙げられる。
In the conventional method of automatically teaching a robot, if the movement button on the teaching box is operated, the robot is moved in the direction designated by the button, for example, in the x-axis direction, while the robot moves to a desired position. The operator positions the robot after visually confirming whether the robot is in the posture. When using a visual detector or the like, the shape of the teaching object is recognized, and the characteristics of the shape, such as a welded object,
The method of determining the teaching point of the movement path from the joining line of the two plates is adopted. As described above, in the motion teaching methods up to now, many teaching processes and time are required, and the operator is burdened with a great deal in the motion teaching. As a method of teaching motions to a robot according to the related art, for example, Japanese Patent Laid-Open No. 59-177610.
JP-A-60-39207.

〔発明が解決しようとする問題点〕[Problems to be solved by the invention]

以上のように、これまでにあっては、教示対象物が認識
された上、その形状の特徴点、例えば溶接接合線を検出
し、教示点を決めるのが主体とされていることから、多
くの教示過程が要されているばかりか、熟練者であって
も、1点当り2.5分程度の長い時間が必要とされている
のが実情である。これら不具合に加え、教示精度の向上
が図れなく、したがって、複雑な組立て作業などをロボ
ットに教示するには、困難を極めているのが実情であ
る。
As described above, in many cases so far, since the teaching object is recognized, the feature point of the shape, for example, the welding joining line is mainly detected and the teaching point is determined. In addition to the above teaching process, even a skilled person needs a long time of about 2.5 minutes per point. In addition to these problems, the teaching accuracy cannot be improved, and therefore it is actually difficult to teach the robot for complicated assembling work.

本発明の目的は、たとえ、複雑な組立て作業などであっ
ても、教示精度大にして、しかも速やかに、ロボットに
動作を自動的に教示し得るロボットへの動作自動教示方
法を供するにある。
It is an object of the present invention to provide a robot automatic operation teaching method capable of automatically teaching a robot a motion with high teaching accuracy even in a complicated assembly work and the like.

〔問題点を解決するための手段〕[Means for solving problems]

上記目的は、教示対象部品各々に予め1以上、一体的
に、かつ有意位置に付されている教示マーク各々が、有
形、可視な形状および色彩をもった画像として順次検出
される度に、該教示マーク対応の検出画像を画像処理す
ることによって、該教示マークの種別と教示種別情報、
および教示対象部品上で3次元位置情報が認識された
後、該教示種別情報および3次元位置情報からは、ロボ
ット手先の位置決め位置および把持位置・姿勢を少なく
とも示す教示補助情報が演算により得られる一方では、
上記教示マークより示唆されない既知情報は、上記教示
対象部品対応に予め別途用意されている部品付属情報か
ら得られつつ、教示対象部品各々に対するロボットの動
作を規定する教示データが作成されることで達成され
る。
The above-mentioned object is to provide each of the teaching target parts with one or more preliminarily integrated and significant positions in advance, each time the teaching marks are sequentially detected as an image having a tangible, visible shape and color. By performing image processing on the detected image corresponding to the teaching mark, the teaching mark type and teaching type information,
After the three-dimensional position information is recognized on the teaching target part, teaching auxiliary information indicating at least the positioning position and the gripping position / orientation of the robot hand is obtained by calculation from the teaching type information and the three-dimensional position information. Then
The known information that is not suggested by the teaching mark is obtained by creating teaching data that defines the robot operation for each teaching target component while being obtained from the component accessory information that is separately prepared in advance for the teaching target component. To be done.

〔作用〕[Action]

教示対象部品各々に付されている教示マークが画像とし
て検出された上、画像処理されることによって、その教
示マークの種別と教示種別情報、および教示対象部品上
での3次元位置情報が認識されることから、該教示種別
情報および3次元位置情報からは、ロボット手先の位置
決め位置および把持位置・姿勢を少なくとも示す教示補
助情報が演算により容易に得られるものである。また、
教示マークより示唆されない既知情報は、教示対象部品
対応に予め別途用意されている部品付属情報から得られ
ることから、教示対象部品各々に対するロボットの動作
を規定する教示データが自動的に作成され得るものであ
る。
The teaching mark attached to each teaching target component is detected as an image, and image processing is performed to recognize the teaching mark type, teaching type information, and three-dimensional position information on the teaching target component. Therefore, from the teaching type information and the three-dimensional position information, teaching auxiliary information indicating at least the positioning position and the gripping position / orientation of the robot hand can be easily obtained by calculation. Also,
Since the known information that is not suggested by the teaching mark is obtained from the component accessory information that is separately prepared in advance for the teaching target component, teaching data that defines the operation of the robot for each teaching target component can be automatically created. Is.

〔実施例〕〔Example〕

以下、本発明をその一実施例につき、第1図〜第8図に
より説明する。
Hereinafter, the present invention will be described with reference to FIGS.

第1図は本発明による、ロボットへの動作自動教示方法
の一実施例に係る全体ブロック構成を示したものであ
る。第1図において、1は全体画像入力用の全体視TVカ
メラ、2はロボットの手先に取付けされた手先TVカメ
ラ、3は画像として検出された教示マーク等に対し画像
処理を行う画像処理装置、4は画像処理結果を演算する
演算処理装置、5はマーク情報格納用メモリ、6は教示
情報格納用メモリ、7は位置検出用の測距センサ、8は
教示マークが貼付等により付された教示対象部品、9は
ティーチングボックスである。
FIG. 1 shows an overall block configuration according to an embodiment of a method for automatically teaching a robot to move according to the present invention. In FIG. 1, 1 is a whole-view TV camera for inputting an entire image, 2 is a hand-held TV camera attached to the hand of a robot, 3 is an image processing device for performing image processing on a teaching mark or the like detected as an image, Reference numeral 4 is an arithmetic processing device for calculating the image processing result, 5 is a mark information storage memory, 6 is teaching information storage memory, 7 is a distance measuring sensor for position detection, and 8 is teaching with teaching marks attached. The target part, 9 is a teaching box.

第2図はまた、マーク情報格納用メモリ5における教示
マーク情報の格納形式を示したものである。第2図にお
いて、10は教示マーク情報シリアル番号、11は教示マー
ク名称、12は教示マークの意味(教示種別情報)、13は
教示マーク自体の特徴量(教示マーク種別認識用の基準
面積、周辺長など)である。更に、第3図は、教示情報
格納用メモリ6における教示情報(教示データ)の格納
形式を示したものである。第3図において、14は部品情
報シリアル番号、15は部品名称、16は部品付属情報(把
持深さdなど)である。更にまた、第4図は各種教示マ
ークの例を示したものである。第4図において、17は各
マーク番号1〜6の教示マーク種別、18はその教示マー
クの意味内容(教示種別情報)である。教示マーク各々
はその形状や色彩(明暗等)等から、個々に区別され得
るものである。
FIG. 2 also shows a storage format of teaching mark information in the mark information storage memory 5. In FIG. 2, 10 is the teaching mark information serial number, 11 is the teaching mark name, 12 is the meaning of the teaching mark (teaching type information), 13 is the feature amount of the teaching mark itself (reference area for teaching mark type recognition, peripheral area). Long). Further, FIG. 3 shows a storage format of teaching information (teaching data) in the teaching information storage memory 6. In FIG. 3, 14 is a component information serial number, 15 is a component name, and 16 is component accessory information (grip depth d, etc.). Furthermore, FIG. 4 shows examples of various teaching marks. In FIG. 4, 17 is the teaching mark type of each of the mark numbers 1 to 6, and 18 is the meaning content (teaching type information) of the teaching mark. Each teaching mark can be individually distinguished by its shape, color (brightness, darkness, etc.).

ここで、平面把持部に対する教示マークの貼付例につい
て説明すれば、第5図(a)は教示マークが付された教
示対象部品8の平面を、また、第5図(b)はその部品
8とロボツト手先との関係を斜視状態として示したもの
である。第5図(a),(b)において、19,20,21は教
示対象部品8に付された、マーク番号1,2,3の教示マー
クであり、このうち、教示マーク19,20はロボットハン
ド22の把持方向a,bと把持位置を、また、教示マーク21
は手先面Aと部品8を平行にする際、部品8平面上での
法線ベクトルを求めるのに利用される。なお、既述のよ
うに、把持深さdは既知な部品付属情報として、教示情
報格納用メモリ6に予め格納されるものとなっている。
Here, an example of attaching the teaching mark to the plane gripping portion will be described. FIG. 5 (a) shows the plane of the teaching target component 8 with the teaching mark, and FIG. 5 (b) shows the component 8 thereof. The relationship between the robot hand and the robot hand is shown in a perspective state. In FIGS. 5 (a) and 5 (b), reference numerals 19, 20, and 21 are teaching marks with mark numbers 1, 2, and 3 attached to the teaching target component 8, of which the teaching marks 19 and 20 are robots. The gripping directions a and b of the hand 22 and the gripping position, and the teaching mark 21
Is used to obtain a normal vector on the plane of the component 8 when the hand surface A and the component 8 are parallel to each other. As described above, the grip depth d is stored in advance in the teaching information storage memory 6 as known component accessory information.

さて、第1図において、教示対象部品8について動作自
動教示処理を行い、教示点情報を求める手順を説明すれ
ば、先ずティーチングボックス9上で自動教示モードボ
タンが操作されることによって、マニュアル動作/自動
教示モードになる(自動教示の起動)。次いで、全体視
TVカメラ1より取り込んだ情報を基に、手先TVカメラ2
を教示マーク19上に移動するか、あるいはマニュアル動
作で手先カメラ2を移動し、教示マーク19を視野内に入
れる(画像センサの移動)。この状態で、演算処理装置
4から画像取込み指令が画像処理装置3に発行されれ
ば、画像処理装置3には手先TVカメラ2より部品8の画
像が取り込まれるものとなっている。次いで、演算処理
装置4からは、教示マーク19が視野内に存在するか否か
の問合せ指令が発行されるが、画像処理装置3では、そ
の教示マーク19が視野内にあれば“有”という応答が返
送されるものとなっている。演算処理装置4では、教示
マーク19があれば、その位置・面積・姿勢情報(教示点
の種類としての把持点・挿入点等)の取込み命令が発行
されるが、この取込み命令にもとづき画像処理装置3で
は、教示マーク19についての画像処理が行われること
で、その処理結果としてのそれら情報は演算処理装置4
に取り込まれるものとなっている。その後は、同様の処
理手順で、教示マーク20,21各々に係る情報が取り込ま
れるものである(教示マークの取込み)。
Now, referring to FIG. 1, the procedure of performing the operation automatic teaching process on the teaching target component 8 and obtaining the teaching point information will be described. First, by operating the automatic teaching mode button on the teaching box 9, the manual operation / The automatic teaching mode is entered (starting automatic teaching). Then the whole picture
Based on the information captured from TV camera 1, hand TV camera 2
On the teaching mark 19 or by manually moving the hand camera 2 to bring the teaching mark 19 into the visual field (movement of the image sensor). In this state, if the image processing command is issued to the image processing device 3 from the arithmetic processing device 4, the image of the component 8 is taken in from the hand TV camera 2 to the image processing device 3. Next, the arithmetic processing unit 4 issues an inquiry command as to whether or not the teaching mark 19 is present within the field of view. In the image processing apparatus 3, if the teaching mark 19 is within the field of view, it is said to be “present”. The reply is supposed to be sent back. If there is a teaching mark 19, the arithmetic processing unit 4 issues an instruction to take in the position / area / orientation information (grasping point, insertion point, etc. as the type of teaching point), and image processing is performed based on this taking instruction. In the device 3, the image processing of the teaching mark 19 is performed, so that the information as the processing result is processed by the arithmetic processing device 4.
Has been taken into account. After that, the information relating to each of the teaching marks 20 and 21 is fetched by the same processing procedure (Teaching mark fetching).

ここで、第6図により画像処理装置3内での画像処理に
ついて説明する。第6図において、23は手先TVカメラ2
の視野、24はカメラ視野の原点、25は視野内のxy座標の
原点、26は教示マークの形状の慣性主軸、27は教示マー
クの重心である。通常、画像処理装置3での画像処理に
より、その教示マークに係る位置情報は、手先TVカメラ
2の視野23内に定めたxy基準座標系での重心(位置)27
の位置としてxy座標値として求められ、また、特に指定
しなければ、カメラ視野の画面の原点24からの座標値と
して得られ、一方、姿勢情報は、例えばマーク形状の慣
性主軸26として求められるものである。なお、この種の
画像処理は通常の画像処理機能により既に容易とされて
いる。その詳細については、例えば「位置・形状計測に
向いた小型画像処理装置」(日立評論vol.67,No9(1985
年9月)PP.67〜70)や、「形状パターンの認識技術」
(情報調査会(昭和59年10月)に記載されているが、こ
こでは、これ以上の説明は省略する。
Image processing in the image processing apparatus 3 will be described with reference to FIG. In FIG. 6, 23 is the hand TV camera 2.
Field of view, 24 is the origin of the camera field of view, 25 is the origin of xy coordinates in the field of view, 26 is the principal axis of inertia of the shape of the teaching mark, and 27 is the center of gravity of the teaching mark. Normally, by the image processing in the image processing device 3, the position information related to the teaching mark is determined as the center of gravity (position) 27 in the xy reference coordinate system defined within the visual field 23 of the hand TV camera 2.
Position is obtained as an xy coordinate value, and unless otherwise specified, as a coordinate value from the origin 24 of the screen of the camera field of view, on the other hand, the posture information is obtained as, for example, the principal axis of inertia 26 of the mark shape. Is. It should be noted that this type of image processing has already been facilitated by a normal image processing function. For details, see “Small Image Processing Device Suitable for Position / Shape Measurement” (Hitachi Review Vol.67, No9 (1985
September) PP.67-70) and "Shape pattern recognition technology"
(Although it is described in the Information Investigation Committee (October 1984), further explanation is omitted here.

次に、演算処理装置4では、上記により認識した教示マ
ーク19,20,21各々のマーク位置を計測した上、ロボット
座標系での3次元座標値が求められるが、第7図はマー
ク位置計測に係る一例でのブロック構成を示したもので
ある。第7図において、28はアクチュエータ(モー
タ)、29はサーボ回路、30はサーボ電圧値(指令)、31
は現在位置(信号)、32はサーボ電圧(信号)、33はリ
ミット信号、34は近接スイッチ(測距センサ7に相当)
である。ここでは、演算処理装置4は先に求めた教示マ
ークの重心位置27へロボットの手先22を動かす。このた
めには、サーボ回路29に対してある決められた時間(サ
ーボ周期)t毎にサーボ電圧値30を出力することにより
行い、この際、サーボ周期tが決められているから、現
在位置より遠くを指令すれば、移動速度が速くなる一方
では、近くが指令されれば移動速度は遅くなる。このサ
ーボ電圧値30はアクチュエータ(モータ)28の回転数を
示すから、したがって、このサーボ電圧値30を求めるに
は、ある位置へ移動するためのロボットの各関節の回転
角を知る必要があるが、これらの方法については既によ
く知られている。例えば毛利「ロボツト言語とシステ
ム」(コンピュートロールNo9(1985年1月)PP.63〜7
0)に記載されているが、ここでは詳細な説明を省略す
る。このようにして、演算処理装置4はロボットの手先
22に取付けされた近接センサ34が重心位置27から接する
よう、ゆっくり移動させるとともに、この際、近接セン
サ34からのリミット信号33を常時モニタする。この状態
で、近接スイッチ34が重心27に接すれば、リミット信号
33が演算処理装置4に入力されるから、その時点で演算
処理装置4はサーボ電圧値30を零にしてロボットの移動
を停止する。次いで、アクチュエータ(モータ)28のモ
ータシャフトに付けられたエンコーダより得られる現在
位置信号31を入力して、教示マークの重心位置27のロボ
ット座標系での3次元空間座標値を求める。なお、この
モータのエンコーダ値より座標値を求める方法について
も、上記コンピュートロールNo9などに記載されている
が、その詳細な説明は省略する。このようにして、必要
数の教示マーク19,20,21のマーク位置を計測する(マー
ク位置の計測)。次に、演算処理装置4は先に求めたマ
ーク位置の計測値(座標値)と認識した教示マークの意
味(教示点種)を基に、手先22の位置決め位置・姿勢
(教示点)を算出する。
Next, the arithmetic processing unit 4 measures the respective mark positions of the teaching marks 19, 20, 21 recognized as described above, and then obtains the three-dimensional coordinate values in the robot coordinate system. 2 is a block diagram showing an example of a block configuration according to the present invention. In FIG. 7, 28 is an actuator (motor), 29 is a servo circuit, 30 is a servo voltage value (command), 31
Is the current position (signal), 32 is the servo voltage (signal), 33 is the limit signal, 34 is the proximity switch (corresponding to the distance measuring sensor 7)
Is. Here, the arithmetic processing unit 4 moves the robot's hand 22 to the center of gravity position 27 of the previously obtained teaching mark. This is done by outputting the servo voltage value 30 to the servo circuit 29 at every predetermined time (servo cycle) t. At this time, since the servo cycle t is determined, If the distance is instructed, the moving speed becomes faster, while if the near distance is instructed, the moving speed becomes slower. This servo voltage value 30 indicates the number of rotations of the actuator (motor) 28. Therefore, in order to obtain this servo voltage value 30, it is necessary to know the rotation angle of each joint of the robot for moving to a certain position. , These methods are already well known. For example, Mohri "Robot language and system" (Computer Roll No9 (January 1985) PP.63-7)
0), but detailed description is omitted here. In this way, the arithmetic processing unit 4 is the hand of the robot.
The proximity sensor 34 attached to 22 is moved slowly so as to come in contact with the center of gravity 27, and at this time, the limit signal 33 from the proximity sensor 34 is constantly monitored. In this state, if the proximity switch 34 touches the center of gravity 27, the limit signal
Since 33 is input to the arithmetic processing unit 4, the arithmetic processing unit 4 sets the servo voltage value 30 to zero at that time and stops the movement of the robot. Next, the current position signal 31 obtained from the encoder attached to the motor shaft of the actuator (motor) 28 is input to obtain the three-dimensional space coordinate value of the center of gravity position 27 of the teaching mark in the robot coordinate system. The method of obtaining the coordinate value from the encoder value of this motor is also described in the above Compute Roll No. 9 and the like, but its detailed description is omitted. In this way, the mark positions of the required number of teaching marks 19, 20, 21 are measured (mark position measurement). Next, the arithmetic processing unit 4 calculates the positioning position / posture (teaching point) of the hand 22 based on the previously obtained measured value (coordinate value) of the mark position and the meaning (teaching point type) of the recognized teaching mark. To do.

ここで、第8図により、ロボツト手先22の位置・姿勢に
ついて説明する。第8図において、35は手先位置(ベク
トル)P、36は手先姿勢(ベクトル)f、37は手先姿勢
(ベクトル)gである。ここで、演算処理装置4は先に
求めたマーク位置の計測値(座標軸)などを基に、部品
8の把持位置・姿勢等を算出する。例えば先に求めた教
示マーク19,20,21各々の重心位置27などのロボット座標
系での位置ベクトルをそれぞれP19,P20,P21として、第
8図のように、手先22の把持中心を手先位置35(手先位
置ベクトルP)、手先22の方向を手先姿勢36(手先姿勢
ベクトルf)、手先22の方向と垂直方向を手先姿勢37
(手先姿勢ベクトルg)として、手先22の位置・姿勢を
定めると、把持の位置・姿勢は次式により算出される。
Here, the position and orientation of the robot hand 22 will be described with reference to FIG. In FIG. 8, 35 is a hand position (vector) P, 36 is a hand posture (vector) f, and 37 is a hand posture (vector) g. Here, the arithmetic processing unit 4 calculates the gripping position / posture of the component 8 based on the previously obtained measured value (coordinate axis) of the mark position. For example, the position vectors in the robot coordinate system such as the barycentric position 27 of each of the teaching marks 19, 20 and 21 obtained previously are set as P 19 , P 20 and P 21 , respectively, and as shown in FIG. Is the hand position 35 (hand position vector P), the direction of the hand 22 is the hand posture 36 (hand posture vector f), and the direction of the hand 22 is the hand posture 37 vertical.
When the position / posture of the hand 22 is determined as (hand posture vector g), the grip position / posture is calculated by the following equation.

f=(P21−P19)×(P20−P19) (1) g=P20−P19 (2) P=(P19+P20)/2−d・f (3) ここで、ベクトルに付された〜はベクトルの単位化を示
す(教示点の算出)。また、式(3)における把持深さ
dなどは、部品付属情報として予め決めておくか、その
都度、ティーチングボックス9より入力し、部品付属情
報として教示情報格納用メモリ6に格納しておく(部品
付属情報の入力)。
f = (P 21 −P 19 ) × (P 20 −P 19 ) (1) g = P 20 −P 19 (2) P = (P 19 + P 20 ) / 2−d · f (3) where ~ Attached to the vector indicates unitization of the vector (calculation of teaching points). Further, the grip depth d and the like in the equation (3) are determined in advance as component accessory information, or input from the teaching box 9 each time and stored in the teaching information storage memory 6 as component accessory information ( Input of accessory information).

以上のようにして、式(1)〜(3)により求められた
手先位置35、手先姿勢36,37の情報は、教示点情報とし
て教示情報格納用メモリ6に格納されるものである。
As described above, the information on the hand position 35 and the hand postures 36, 37 obtained by the equations (1) to (3) is stored in the teaching information storage memory 6 as teaching point information.

なお、近接センサ34によるマーク位置の計測は、超音波
センサなどにより直接求めるようにしてもよい。また、
第4図の教示マークは一例であって、教示対象物の形状
その他に応じて必要な教示補助情報としての意味をもた
せた教示マークを設けることができ、これにより教示点
の把持位置・姿勢だけでなく把持方法や組立・挿入方法
等を求めるようにしてもよい。
The measurement of the mark position by the proximity sensor 34 may be directly obtained by an ultrasonic sensor or the like. Also,
The teaching mark shown in FIG. 4 is an example, and a teaching mark having meaning as necessary teaching auxiliary information can be provided according to the shape of the teaching object and the like, whereby only the gripping position / posture of the teaching point is provided. Instead of this, a grasping method, an assembling / inserting method, or the like may be obtained.

〔発明の効果〕〔The invention's effect〕

以上、説明したように、本発明によれば、たとえ、複雑
な組立て作業などであっても、教示精度大にして、しか
も速やかに、ロボットに動作が自動的に教示され得るも
のとなっている。
As described above, according to the present invention, even if the assembly work is complicated, the teaching precision can be increased and the operation can be automatically taught to the robot. .

【図面の簡単な説明】[Brief description of drawings]

第1図は、本発明によるロボットへの動作自動教示方法
の一実施例を示す全体構成ブロック図、第2図は、第1
図のマーク情報の格納形式図、第3図は、第1図の部品
情報の格納形式図、第4図は、第1図の教示マーク例の
説明図、第5図(a),(b)は、第1図の平面把持部
の教示マーク例の平面図と手先との関係を示す斜視図、
第6図は、第1図の画像処理装置内での位置・姿勢情報
の説明図、第7図は、第1図のマーク位置計測の一実施
例のブロック図、第8図は、第1図の手先の位置・姿勢
情報例の説明図である。 1…全体視カメラ、2…手先カメラ、3…画像処理装
置、4…演算処理装置、5…マーク情報格納用メモリ、
6…教示情報格納用メモリ、8…教示対象部品、9…テ
ィーチングボックス、12…マークの意味、16…教示情
報、17…教示マーク、18…マークの意味、19,20,21…教
示マーク、22…手先、27…重心、26…慣性主軸、35…手
先位置、36,37…手先姿勢。
FIG. 1 is an overall configuration block diagram showing an embodiment of a method for automatically teaching a robot according to the present invention, and FIG.
FIG. 3 is a storage format diagram of the mark information in FIG. 3, FIG. 3 is a storage format diagram of the component information in FIG. 1, FIG. 4 is an explanatory diagram of the teaching mark example in FIG. 1, and FIGS. ) Is a perspective view showing a relationship between a plan view and a fingertip of an example of the teaching mark of the flat grip portion in FIG. 1,
6 is an explanatory diagram of position / orientation information in the image processing apparatus of FIG. 1, FIG. 7 is a block diagram of an embodiment of mark position measurement of FIG. 1, and FIG. It is explanatory drawing of the position / orientation information example of the hand of the figure. DESCRIPTION OF SYMBOLS 1 ... Overall-view camera, 2 ... Hand camera, 3 ... Image processing apparatus, 4 ... Arithmetic processing apparatus, 5 ... Mark information storage memory,
6 ... Memory for storing teaching information, 8 ... Teaching target component, 9 ... Teaching box, 12 ... Meaning of mark, 16 ... Teaching information, 17 ... Teaching mark, 18 ... Meaning of mark, 19, 20, 21 ... Teaching mark, 22 ... Hand, 27 ... Center of gravity, 26 ... Inertia spindle, 35 ... Hand position, 36,37 ... Hand posture.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】3次元空間内に任意に配置されている教示
対象部品各々に対するロボットの動作を、該ロボットに
自動的に教示するための動作自動教示方法であって、ロ
ボットに動作を自動的に教示するに際して、教示対象部
品各々に予め1以上、一体的に、かつ有意位置に付され
ている教示マーク各々が、有形、可視な形状および色彩
をもった画像として順次検出される度に、該教示マーク
対応の検出画像を画像処理することによって、該教示マ
ークの種別と教示種別情報、および教示対象部品上での
3次元位置情報が認識された後、該教示種別情報および
3次元位置情報からは、ロボット手先の位置決め位置お
よび把持位置・姿勢を少なくとも示す教示補助情報が演
算により得られる一方では、上記教示マークより示唆さ
れない既知情報は、上記教示対象部品対応に予め別途用
意されている部品付属情報から得られつつ、教示対象部
品各々に対するロボットの動作を規定する教示データが
作成されるようにしたロボットへの動作自動教示方法。
1. A motion automatic teaching method for automatically teaching a robot motion to each teaching target component arbitrarily arranged in a three-dimensional space, the motion being automatically transmitted to the robot. When teaching each of the teaching target components, one or more teaching marks, which are preliminarily attached to each of the teaching target components and integrally and at significant positions, are sequentially detected as an image having a tangible, visible shape and color, After the type of the teaching mark, the teaching type information, and the three-dimensional position information on the teaching target component are recognized by image-processing the detected image corresponding to the teaching mark, the teaching type information and the three-dimensional position information are recognized. From the above, while teaching auxiliary information indicating at least the positioning position and gripping position / orientation of the robot hand can be obtained by calculation, known information not suggested by the above teaching mark is While derived from parts attached information in advance separately prepared to the teaching target component corresponding operating automatic teaching method for a robot which is adapted teaching data defining the operation of the robot for teaching the target part each is created.
JP61250872A 1986-10-23 1986-10-23 Automatic teaching method for robot Expired - Fee Related JPH0716900B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61250872A JPH0716900B2 (en) 1986-10-23 1986-10-23 Automatic teaching method for robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61250872A JPH0716900B2 (en) 1986-10-23 1986-10-23 Automatic teaching method for robot

Publications (2)

Publication Number Publication Date
JPS63105893A JPS63105893A (en) 1988-05-11
JPH0716900B2 true JPH0716900B2 (en) 1995-03-01

Family

ID=17214262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61250872A Expired - Fee Related JPH0716900B2 (en) 1986-10-23 1986-10-23 Automatic teaching method for robot

Country Status (1)

Country Link
JP (1) JPH0716900B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012121083A (en) * 2010-12-07 2012-06-28 Honda Motor Co Ltd Specific part recognition method and device of workpiece

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2925072B2 (en) * 1996-08-07 1999-07-26 ファナック株式会社 Movement control method for robot position teaching
JP5509645B2 (en) * 2009-03-25 2014-06-04 富士ゼロックス株式会社 Position / posture recognition method, component gripping method, component placement method, component assembly method, position / posture recognition device, component gripping device, component placement device, and component assembly device
JP6777670B2 (en) 2018-03-27 2020-10-28 ファナック株式会社 A robot system that uses image processing to correct robot teaching

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60118458A (en) * 1983-11-30 1985-06-25 Hitachi Ltd Article-manufacturing method and its equipment
JPS60228089A (en) * 1984-04-20 1985-11-13 横河電機株式会社 Method of preventing overrun
JPS61168480A (en) * 1985-01-18 1986-07-30 株式会社東芝 Three-dimensional position setting auxiliary device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60118458A (en) * 1983-11-30 1985-06-25 Hitachi Ltd Article-manufacturing method and its equipment
JPS60228089A (en) * 1984-04-20 1985-11-13 横河電機株式会社 Method of preventing overrun
JPS61168480A (en) * 1985-01-18 1986-07-30 株式会社東芝 Three-dimensional position setting auxiliary device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012121083A (en) * 2010-12-07 2012-06-28 Honda Motor Co Ltd Specific part recognition method and device of workpiece

Also Published As

Publication number Publication date
JPS63105893A (en) 1988-05-11

Similar Documents

Publication Publication Date Title
CN113056351B (en) External input device, robot system, control method thereof, and recording medium
EP1215017B1 (en) Robot teaching apparatus
US11173601B2 (en) Teaching device for performing robot teaching operations and teaching method
JP4167940B2 (en) Robot system
CN110977931A (en) Robot control device and display device using augmented reality and mixed reality
JP2018167334A (en) Teaching device and teaching method
JP2008168372A (en) Robot device and shape recognition method
CN117881507A (en) Instruction value generation device, method, and program
JPH0716900B2 (en) Automatic teaching method for robot
US11826919B2 (en) Work coordinate generation device
JPH06250730A (en) Teaching device for industrial robot
JP2011083883A (en) Robot device
US20220331972A1 (en) Robot Image Display Method, Recording Medium, And Robot Image Display System
JP2616225B2 (en) Relative positioning method
JPH1011146A (en) Device for correcting stop posture of mobile object
JPS62165213A (en) Work environment teaching device
Cheng Robot manipulation of 3D cylindrical objects with a robot-mounted 2D vision camera
CN116867619A (en) Teaching device
JP2001051713A (en) Method and device for teaching work to robot
JPH1177568A (en) Teaching assisting method and device
JP2000094370A (en) Inclination measuring method of work surface of robot and measuring device thereof
JPH05123989A (en) Coordinate display method in inspecting device
JP2915979B2 (en) Position and rotation angle detecting device, pointing device thereof, and robot operation teaching device using the same
JP2012022600A (en) Mask image creation system
WO2024047808A1 (en) Device and method for setting conveyance device coordinate system to robot coordinate system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees