JPH02276725A - Instruction for robot - Google Patents

Instruction for robot

Info

Publication number
JPH02276725A
JPH02276725A JP9418689A JP9418689A JPH02276725A JP H02276725 A JPH02276725 A JP H02276725A JP 9418689 A JP9418689 A JP 9418689A JP 9418689 A JP9418689 A JP 9418689A JP H02276725 A JPH02276725 A JP H02276725A
Authority
JP
Japan
Prior art keywords
teaching
mark
robot
article
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9418689A
Other languages
Japanese (ja)
Inventor
Junichi Kojima
純一 小嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP9418689A priority Critical patent/JPH02276725A/en
Publication of JPH02276725A publication Critical patent/JPH02276725A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

PURPOSE:To automatically prepare a program in a short time by attaching each instruction mark having the instruction information to the instructed articles which are previously arranged on a pallet and reading the mark by an image sensor and instructing a robot on the program for palletizing work from the instruction information. CONSTITUTION:The instruction marks 24 and 25 are displayed with each position and direction of instruction information onto the upper surface of each instructed article 18. Then, the whole figure of the instructed article 18 is taken by a whole observation TV camera 19, and a controller 21 detects the position of the mark of '1', and a robot 11 is operated, and an arm 2 is shifted so that a TV camera 15 is set over the mark '1', and each '1' of the marks 24 and 25 is set within the viewfield of the TV camera 15. The instruction information of the mark 24 and each height of the marks 24 and 25 which is obtained by an article height sensor 16 are inputted into a controller 21, and the holding position and the holding direction are calculated from the direction of the longer axis 27 of the mark 24, and a program for palletizing work can be prepared automatically.

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) 本発明は被搬送物のパレタイズ作業を行うロボットの教
示方法に係わり、とくに面倒な教示作業の簡llj化と
省力化に好適なパレタイズ作業を行うロボットの教示方
法に関する。
[Detailed Description of the Invention] [Objective of the Invention] (Industrial Application Field) The present invention relates to a teaching method for a robot that performs palletizing work of transported objects, and is particularly aimed at simplifying and labor-saving the troublesome teaching work. The present invention relates to a method of teaching a robot to perform suitable palletizing work.

(従来の技術) 従来、被搬送物のパレタイズ作業のための教示作業は、
夫々適用作業に応じてプログラムを作製し、また、作業
の対象である被搬送物の位置を1つづつ教示する必要が
有った。そのうちで、被搬送物の配置が比較的規則的で
かつ、その積み付は順序が−様な物に対しては、第10
図に示すように、その被搬送物1のブロックAの代表と
なる3個の教示点a、b、cを教示すればパレット2上
の全ての被搬送物1の位置を計算して予め指定された順
序に従ってその位置に移動させる命令を有したパレタイ
ズ機能を持ったシステムが供されており、例えば第11
図に示す順序で被搬送物1の積み付けや払い出しが可能
である。
(Prior art) Conventionally, the teaching work for palletizing the transported objects is
It was necessary to create a program according to each applicable work, and to teach the positions of the objects to be transported one by one. Among these, for items whose arrangement is relatively regular and whose stacking order is -
As shown in the figure, by teaching three teaching points a, b, and c representing block A of the transported object 1, the positions of all the transported objects 1 on the pallet 2 are calculated and specified in advance. A system is provided that has a palletizing function that has instructions to move the palletizer to the position according to the order in which the palletizer is moved.
The objects 1 to be transported can be stacked and unloaded in the order shown in the figure.

しかし、第12図に示すように被搬送物3の配置及びそ
の積み付は及び払い出しの順序が複雑なものになると、
もはや上述のように代表点の教示のみでは、全部の被搬
送物3の位置を計算して積み付は及び払い出しを指定す
ることが困難であり、従って、個々の彼、搬送物3の位
置を教示する必要がある。
However, as shown in FIG. 12, when the arrangement of the transported objects 3, their stacking, and the order of discharging them become complicated,
As mentioned above, it is difficult to calculate the positions of all the objects 3 to be loaded and to specify the loading and unloading by only teaching the representative points. It is necessary to teach.

さらに加えて、パレタイズ作業の中には第13図に示す
ように、ラベル4aを有する被搬送物4のラベル面の位
置指定即ち方向性を存するものもあり、この様なものに
対しては、被搬送物4を搬送中に回転させることも考慮
しなければならない。
In addition, as shown in FIG. 13, some palletizing operations involve specifying the position, that is, directionality, of the label surface of the conveyed object 4 having a label 4a, and for such operations, It is also necessary to consider rotating the transported object 4 during transport.

また、一般にパレタイズ作業では、第14図(a)、(
b)に示したようにはば寄せと呼ばれる作業が必要であ
る。これは被搬送物5を積み付ける時に、他の被搬送物
5との干渉を避けるために積みつけ位置dに達する前に
中継点としてはば寄せ位置eを通過するようにすること
である。このはば寄せ位置は、被搬送物5の配置及び積
み付は順序によって指定が異なる。即ち、個々の被搬送
物ごとに教示する必要がある。このようにパレタイズ作
業においては、個々の被搬送物の位置。
In general, in palletizing work, Fig. 14(a), (
As shown in b), an operation called grading is required. This is to ensure that when stacking the transported objects 5, they pass through the gathering position e as a relay point before reaching the stacking position d in order to avoid interference with other transported objects 5. The arrangement and stacking of the transported objects 5 at this gathering position are designated differently depending on the order. That is, it is necessary to teach each individual object. In this way, in palletizing work, the position of each conveyed object.

その方向、はば寄せ位置など数多くの教示情報がある。There is a lot of teaching information such as the direction and the position of the approach.

(発明が解決しようとする課題) 従来は、パレタイズ作業中のロボットの動作のための教
示点を全て手動によって教示してプログラムを作製して
いるから、各教示点における動作プログラムの作製に多
大の教示時間を要する欠点がある。
(Problem to be Solved by the Invention) Conventionally, all the teaching points for the movement of the robot during palletizing work were manually taught to create a program, so it took a lot of effort to create the movement program at each teaching point. There is a drawback that it requires a lot of teaching time.

更1;、教示の精度が制限されるために複雑な組立作業
等の教示を困難なものにするという問題点が有った。
Furthermore, there is a problem in that the teaching accuracy is limited, making it difficult to teach complicated assembly operations.

従って、本発明の目的は、予めパレット上に整列した教
示物品に教示情報を持たせた教示マークを付設してその
マークの教示情報を画像センサにより読込んでその教示
情報により前記ロボットにパレタイズ作業のプログラム
を教示して例えばパレタイズ作業中の被搬送物の把持位
置1把持方向。
Therefore, an object of the present invention is to attach a teaching mark having teaching information to the teaching objects arranged on a pallet in advance, read the teaching information of the mark with an image sensor, and use the teaching information to cause the robot to perform palletizing work. For example, by teaching the program, the gripping position 1 gripping direction of the conveyed object during palletizing work.

把持する順序、はば寄せ位置等のプログラムを自動的に
、簡単に、しかも、短時間で作成し得るようにしたロボ
ットの教示方法を提供するにある。
To provide a teaching method for a robot in which a program for gripping order, flapping position, etc. can be automatically created easily and in a short time.

[発明の構成] (課題を解決するための手段) 本発明はパレット上に被搬送物を順次移載整列させてパ
レタイズ作業を行うロボットにおいて、予めパケット上
に整列した教示物品に教示情報を持たせた教示マークを
付設し、その教示マークを画像センサにより読み込んで
その教示情報により前記ロボットにパレタイズ作業のプ
ログラムを教示するようにしたことを特徴とするもので
ある。
[Structure of the Invention] (Means for Solving the Problems) The present invention is a robot that performs palletizing work by sequentially transferring and arranging objects to be transported on a pallet, in which teaching information is provided to teaching objects arranged in advance on packets. The present invention is characterized in that a teaching mark is attached to the robot, the teaching mark is read by an image sensor, and the teaching information is used to teach the robot a palletizing work program.

(作用) 上記した手段によれば、教示物品に付設された教示マー
クを画像センサにより教示情報として読み込んでその教
示情報を認識しその認識された情報をもとに演算をして
ロボットの教示点における教示情報を自動的に算出する
から、その算出結果に教示マークで指示しきれない情報
のみを手動で入力することによりロボットに教示点にお
ける全動作のプログラムを完成でき、従って、そのプロ
グラムを自動的に、簡単に、しかも、短時間で作成し得
る。
(Operation) According to the above means, the teaching mark attached to the teaching object is read as teaching information by an image sensor, the teaching information is recognized, and the teaching point of the robot is calculated based on the recognized information. Since the teaching information at the teaching points is automatically calculated, by manually inputting only the information that cannot be specified by the teaching marks into the calculation results, it is possible to complete a program for the robot to perform all movements at the teaching points. It can be created easily and in a short time.

(実施例) 以下本発明の第1の実施例について第1図乃至第4図を
参照して説明する。全体構成を示す第1図において、ロ
ボット11のアーム12の先端部には、教示をする時に
被搬送物を把持するための後述するハンド13(第3図
参照)の代りに教示作業用のアタッチメント14が取付
けられ、これには画像センサとしての手先TV左カメラ
5及び物品高さ検出センサ16が設けられている。そし
て、パレタイズ作業を行う位置にパレット17が配設さ
れ、これの上面に教示物品18が教示しようとする位置
関係で並べられている。これらの教示物品18の各上面
には後述する教示マークが付設されている。教示物品と
しては実際に搬送しようとする肢搬送物自身或いは被搬
送物と同一形状のモデルを用いる。そして、パレット1
7の上方に位置させて全体画像入力用の両(♀センサと
しての全体現TVカメラ19が設置され、手先TV左カ
メラ5及び全体現TVカメラ19からの出力は画像処理
装置20に与えられ、これからの出力は制御装置21に
与えられる。この制御装置21にはキーボード22と物
品高さ検出センサ16とが接続され、この制御装置21
の出力がロボット制御装置23に与えられ、このロボッ
ト制御装置23の出力がロボット11にり、えられる。
(Embodiment) A first embodiment of the present invention will be described below with reference to FIGS. 1 to 4. In FIG. 1 showing the overall configuration, an attachment for teaching work is provided at the tip of an arm 12 of a robot 11 in place of a hand 13 (see FIG. 3), which will be described later, for gripping a conveyed object during teaching. 14 is attached, and this is provided with a hand TV left camera 5 as an image sensor and an article height detection sensor 16. A pallet 17 is arranged at a position where palletizing work is to be performed, and teaching articles 18 are arranged on the upper surface of the pallet in a positional relationship to be taught. A teaching mark, which will be described later, is attached to the upper surface of each of these teaching articles 18. As the teaching object, a model having the same shape as the limb to be transported or the object to be transported is used. And palette 1
An overall TV camera 19 serving as both (♀) sensors for inputting an overall image is installed above the hand TV left camera 5 and an overall TV camera 19 for inputting an overall image, and outputs from the hand TV left camera 5 and the overall TV camera 19 are given to an image processing device 20. The output from this is given to a control device 21. A keyboard 22 and an article height detection sensor 16 are connected to this control device 21.
The output is given to the robot control device 23, and the output of this robot control device 23 is received by the robot 11.

さて、第2図〜第4図を参照して教示物品16の上面に
付設された教示マークの一例について詳細に説明する。
Now, an example of the teaching mark attached to the upper surface of the teaching article 16 will be explained in detail with reference to FIGS. 2 to 4.

即ち、24はTi1の教示マーク、25は第1の教示マ
ーク24の近傍に位置された第2の教示マークである。
That is, 24 is a teaching mark of Ti1, and 25 is a second teaching mark located near the first teaching mark 24.

第1の教示マーク24は円の中に黒三角と白三角を付し
たものであり、円の中心26が教示点即ち把持位置を示
し、この第1の教示マーク24の慣性軸の長軸27が把
持の方向を示し、黒三角がハンド13の爪A側を示し、
白三角がハンド13の爪B側を示している。
The first teaching mark 24 is a circle with a black triangle and a white triangle attached, the center 26 of the circle indicates the teaching point, that is, the gripping position, and the long axis 27 of the inertia axis of the first teaching mark 24 indicates the gripping direction, the black triangle indicates the claw A side of the hand 13,
The white triangle indicates the claw B side of the hand 13.

そして、第2の教示マーク24はアラビヤ数字で積み付
は及び払い出しの順序を示している。尚、第4図におい
て、28は手先TV左カメラ5の視野を示し、29は手
先TV左カメラ5の現野原点を示している。
The second teaching mark 24 indicates the loading and unloading order using Arabic numerals. In FIG. 4, reference numeral 28 indicates the field of view of the hand TV left camera 5, and 29 indicates the current field origin of the hand TV left camera 5.

次に、教示物品18について自動教示処理を行い教示情
報を求める手順について説明する。この場合先ず教示物
品18を第1図に示すようにパレット2上に積み付、け
が完了した状態にブロック積みしておく。教示物品18
を多段に積層する場合には1段づつ教示を行なうのであ
るが、まず、1段口の教示を行なう場合1ζついて説明
する。各教示物品18の上面には予め、教示マーク24
と教示マーク25とを教示情報を示す位置及び向きに付
設しておく。この状態で、全外視TVカメラ1つにより
教示物品18の全景を取込ませて、その情報を画像処理
装置20を介して制御装置21が受取る。すると、制御
装置21は画像処理装置20で処理された情報を元にし
て、まず、教示マーク25の「1」の位置を検出してロ
ボット11を作動させ、手先TV左カメラ5がその「1
」のマークの上方になるようにアーム2を移動させて、
その手先TV左カメラ5の視野に第4図に示すように教
示マーク24と教示マーク25の「1」を入れる。そし
て、この手先TV左カメラ5によって教示マーク24に
与えられている教示情報が画像として画像処理装置20
に読み込まれ、これが処理されて制御装g121に#5
−′f、られ、これと同時に物品高さセンサ16によっ
て教示マーク24及び25の高さ(Z軸成分)が検出さ
れて制御装置21に与えられる。しかして、画像処理装
置2゜からの教示位置(X軸、Y軸成分)の情報と物品
高さセンサ16からの高さ情報(Z軸成分)とに基づい
て制御装置21で把持の位置が算出され、且つ、教示マ
ーク24の長軸27の向きから把t1jの方向が制御装
置21によって算出される。そして、上記した画像処理
装置20の処理機能については、一般的に行われている
ものであるから詳細な説明は省略するが、制御装置21
は画像処理装置20及び物品高さセンサ16から得られ
た情報と、必要に応じてキーボード22から取り入れら
れた情報とを元に演算を行なってパレタイズ作業のプロ
グラムを自動的に作成する。以上の説明は、教示マーク
25の「1」が付された教示物品18についてであるが
、上記の動作が終了すると、教示マーク25のr2J、
r3J、r4J・・・・・・「7」が付された教示物品
18について上記と同様の動作が行われてパレタイズ作
業のプログラムが作成される。以上が1段目についての
教示であるが、2段目以降についても上記と全く同様に
して行われる。
Next, a procedure for performing automatic teaching processing on the teaching article 18 and obtaining teaching information will be described. In this case, the teaching articles 18 are first stacked on the pallet 2 as shown in FIG. 1, and the blocks are stacked in a state where the injury is completed. Teaching article 18
When laminating multiple layers in multiple stages, teaching is performed one stage at a time. First, 1ζ when teaching one stage will be explained. A teaching mark 24 is placed on the top surface of each teaching article 18 in advance.
and a teaching mark 25 are attached at a position and direction indicating the teaching information. In this state, a full view of the teaching article 18 is captured by one all-external TV camera, and the control device 21 receives the information via the image processing device 20. Then, the control device 21 first detects the position of "1" of the teaching mark 25 based on the information processed by the image processing device 20 and operates the robot 11, and the hand TV left camera 5 detects the "1" position of the teaching mark 25.
” Move arm 2 so that it is above the mark,
As shown in FIG. 4, the teaching mark 24 and the teaching mark 25 "1" are placed in the field of view of the left TV camera 5 at the hand. The teaching information given to the teaching mark 24 by this hand TV left camera 5 is then sent to the image processing device 20 as an image.
This is processed and sent to control device g121 #5.
-'f, and at the same time, the heights (Z-axis components) of the teaching marks 24 and 25 are detected by the article height sensor 16 and provided to the control device 21. Therefore, the gripping position is determined by the control device 21 based on the information on the teaching position (X-axis, Y-axis components) from the image processing device 2° and the height information (Z-axis component) from the article height sensor 16. In addition, the direction of the grip t1j is calculated by the control device 21 from the direction of the long axis 27 of the teaching mark 24. The processing functions of the image processing device 20 described above are commonly performed, so a detailed explanation will be omitted, but the control device 21
performs calculations based on information obtained from the image processing device 20 and the article height sensor 16, and information taken in from the keyboard 22 as necessary, and automatically creates a program for palletizing work. The above explanation is about the teaching article 18 marked with "1" of the teaching mark 25, but when the above operation is completed, r2J of the teaching mark 25,
r3J, r4J... The same operation as above is performed for the taught articles 18 marked with "7" to create a palletizing work program. The above is the teaching for the first stage, but the second stage and subsequent stages are taught in exactly the same manner as above.

第5図及び第6図は本発明の第2の実施例を示すもので
、30は把持位置指示用の教示マークで、これは教示物
品18の四隅に貼着された4個の二等辺三角形のもので
、これらの各教示マーク3゜の重心30aから4個の教
示マーク30の合成重心30Aを算出することにより把
持の中心が求められる。31及び32は把持位置指示用
の2個の教示マークで、黒三角の教示マーク31がハン
ド13の爪A側を示し、白三角の教示マーク31がハン
ド13の爪B側を示している。そして、教示マーク31
.32の中間に付設されたアラビヤ数字の教示マーク3
3が積み付は及び払い出しの順序を示している。そして
、手先TV左カメラ5によって教示マーク30〜33に
与えられている゛教示情報が画像として画像処理装置2
 D J、:読み込まれ、これが処理されて制御装置2
1に与えられ、各教示マーク30〜33の教示情報を元
に演算が行なわれて上記した第1の実施例と同様にして
パレタイズ作業のプログラムが自動的に作成される。
5 and 6 show a second embodiment of the present invention, 30 is a teaching mark for indicating the gripping position, and this is made up of four isosceles triangles attached to the four corners of the teaching article 18. The center of grip is determined by calculating the combined center of gravity 30A of the four teaching marks 30 from the center of gravity 30a of each of these teaching marks 3°. Reference numerals 31 and 32 are two teaching marks for indicating the gripping position. The black triangular teaching mark 31 indicates the claw A side of the hand 13, and the white triangular teaching mark 31 indicates the claw B side of the hand 13. And teaching mark 31
.. Arabic numeral teaching mark 3 placed in the middle of 32
3 shows the loading and unloading order. Then, the teaching information given to the teaching marks 30 to 33 by the hand TV left camera 5 is transferred to the image processing device 2 as an image.
D J,: Read, processed and sent to control device 2
1, and calculations are performed based on the teaching information of each teaching mark 30 to 33, and a palletizing work program is automatically created in the same manner as in the first embodiment described above.

第7図乃至第9図は本発明の第3の実施例を示すもので
、34.35は教示物品18の積み付けの際に幅寄せを
行うものに付設された幅寄せ位置決め用の教示゛マーク
で、これらは同第7図(a)。
7 to 9 show a third embodiment of the present invention, and 34.35 is a teaching mark for positioning the teaching articles 18, which is attached to a device that performs width-adjusting when stacking teaching articles 18. These are the marks shown in Figure 7(a).

(b)に破線で示した幅寄せ位置を示すもので、「→」
形状の教示マーク34は同図に実線で示す積み込み及び
払い出しの位置りに対して同図に二点鎖線で示すはば寄
せ位置Eの水平方向の向きを第8図に示すように教示マ
ーク34の基準線gに対する角度θで表し、距離を教示
マーク34の長さしで示しており、「H」の表示の教示
マーク35は積み込み及び払い出しの位置りを基準とし
てはば寄せ位置Eの垂直方向の距離を表している。
The dashed line in (b) indicates the alignment position, and “→”
The shape of the teaching mark 34 is set so that the horizontal direction of the loading and unloading position shown by the solid line in the same figure and the loading position E shown by the two-dot chain line in the same figure is shown in FIG. The distance is indicated by the length of the teaching mark 34, and the teaching mark 35 with the symbol "H" is vertical to the loading and unloading position E. It represents the distance in the direction.

この場合に、「H」の文字は例えばはば寄せの高さHが
100mmであるという意味が持たせられている。そし
て、この構成でも手先TVカメラ15によって教示マー
ク24.2’5及び34.35に与えられている教示情
報が画像として画像処理装置20に読み込まれ、これが
処理されて制御装置21に与えられ、各教示マーク24
.25及び34.35の教示情報を元に演算が行なわれ
て上記した第1の実施例と同様にしてパレタイズ作業の
プログラムが自動的に作成される。第7図(b)におい
てEA、DAは教示物品18の垂直面に対する重心を示
している。第9図は第7図及び第8図により説明した教
示マーク33.34を4個の教示物品18に付す場合の
一例を示している。
In this case, the letter "H" has the meaning that, for example, the height H of the flap is 100 mm. Even in this configuration, the teaching information given to the teaching marks 24.2'5 and 34.35 by the hand TV camera 15 is read into the image processing device 20 as an image, which is processed and given to the control device 21. Each teaching mark 24
.. Calculations are performed based on the teaching information of 25 and 34.35, and a palletizing work program is automatically created in the same manner as in the first embodiment described above. In FIG. 7(b), EA and DA indicate the center of gravity of the teaching article 18 with respect to the vertical plane. FIG. 9 shows an example of attaching the teaching marks 33 and 34 described in FIGS. 7 and 8 to four teaching articles 18.

尚、上記した各実施例に示した教示情報以外にハンド1
4の把持の深さ、ロボットの姿勢(右手系及び左手系の
区別)の指示等を教示する教示情報を持たせた教示マー
クを教示物品に貼芒するようにしてもよい。
In addition to the teaching information shown in each of the above-mentioned embodiments, hand 1
A teaching mark having teaching information for instructing the depth of grasping, the posture of the robot (distinguishing between right-handed and left-handed systems), etc., may be pasted on the teaching object.

また、上記した各実施例において示した教示マークの形
状及び教示情報の種類については、あくまでも−例とし
て示したもので、教示マークは、文字、数字、記号、図
形等任意であり、大きさ、数、色等についても特に制約
は無く任意に設定することがrIJ能である。
Furthermore, the shape of the teaching mark and the type of teaching information shown in each of the above-mentioned embodiments are shown as examples only, and the teaching mark can be any letter, number, symbol, figure, etc. There are no particular restrictions on the number, color, etc., and it is possible to set them arbitrarily.

[発明の効果] 以上の説明から明らかなように、本発明はパレット上に
被搬送物を順1次移載整列させてパレタイズ作業を行う
ロボットにおいて、予めパケット上に整列した教示物品
に教示情報を持たせた教示マークを付設し、その教示マ
ークを画像センサにより読み込んでその教示情報により
前記ロボットにパレタイズ作業のプログラムを教示する
ようにしたことを特徴とするものであるから、教示マー
クで指示しきれない情報を手動で入力するのみでロボッ
トによるパレタイズ作業のプログラムを自動的に、簡単
に、しかも、短時間で作成し得るという優れた効果を奏
する。
[Effects of the Invention] As is clear from the above description, the present invention provides a robot that performs palletizing work by sequentially arranging transported objects on a pallet, and in which teaching information is applied to teaching objects arranged in advance on packets. The present invention is characterized in that a teaching mark with a . This has an excellent effect in that a program for palletizing work by a robot can be automatically created easily and in a short time only by manually inputting information that cannot be completed.

【図面の簡単な説明】[Brief explanation of drawings]

第1図乃至第4図は本発明の第1の実施例を示すもので
、第1図は概略構成図、第2図は教示物品の拡大上面図
、第3図は斜視図、第4図は手先カメラの視野を示す図
、第5図及び第6図は本発明の第2の実施例を示すもの
で、第5図は教示マークの平面図、第6図は教示物品の
上面図、第7図乃至第9図は本発明の第3の実施例を示
すもので、第7図(a)は平面図、第7図(b)は側面
図、第8図は教示マークの拡大平面図、第9図は教示物
品の配置を示す上面図、第10図乃至第14図は従来技
術を説明するためのもので、第10図は斜視図、第11
図及び第12図は上面図、第13図は斜視図、第14図
(a)は上面図、第14図(b)は側面図である。 図面中、11はロボット、13はハンド、14はアタッ
チメント、15は手先TVカメラ、16は物品高さ検出
装置、17はパレット、18は教示物品、19は全体視
TVカメラ、20は画像処理装置、21は制御装置、2
4,25.30931.32.33,34.35は教示
マークである。 出願人  株式会社  東  芝
1 to 4 show a first embodiment of the present invention, in which FIG. 1 is a schematic configuration diagram, FIG. 2 is an enlarged top view of the teaching article, FIG. 3 is a perspective view, and FIG. 5 and 6 show the second embodiment of the present invention, FIG. 5 is a plan view of the teaching mark, and FIG. 6 is a top view of the teaching article. 7 to 9 show a third embodiment of the present invention, in which FIG. 7(a) is a plan view, FIG. 7(b) is a side view, and FIG. 8 is an enlarged plan view of the teaching mark. 9 is a top view showing the arrangement of teaching articles, FIGS. 10 to 14 are for explaining the prior art, FIG. 10 is a perspective view, and FIG.
12 are top views, FIG. 13 is a perspective view, FIG. 14(a) is a top view, and FIG. 14(b) is a side view. In the drawings, 11 is a robot, 13 is a hand, 14 is an attachment, 15 is a hand TV camera, 16 is an article height detection device, 17 is a pallet, 18 is a teaching article, 19 is a general TV camera, and 20 is an image processing device. , 21 is a control device, 2
4, 25.30931, 32.33, 34.35 are teaching marks. Applicant: Toshiba Corporation

Claims (1)

【特許請求の範囲】[Claims] 1、パレット上に被搬送物を順次移載整列させてパレタ
イズ作業を行うロボットにおいて、予めパレット上に整
列した教示物品に教示情報を持たせた教示マークを付設
し、その教示マークを画像センサにより読み込んでその
教示マークの有する教示情報により前記ロボットにパレ
タイズ作業のプログラムを教示するようにしたことを特
徴とするロボットの教示方法。
1. In a robot that performs palletizing work by sequentially transferring and arranging objects to be transported on a pallet, a teaching mark with teaching information is attached to the teaching objects arranged on the pallet in advance, and the teaching mark is attached using an image sensor. A method for teaching a robot, characterized in that the program for palletizing work is taught to the robot by reading the teaching information contained in the teaching mark.
JP9418689A 1989-04-13 1989-04-13 Instruction for robot Pending JPH02276725A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9418689A JPH02276725A (en) 1989-04-13 1989-04-13 Instruction for robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9418689A JPH02276725A (en) 1989-04-13 1989-04-13 Instruction for robot

Publications (1)

Publication Number Publication Date
JPH02276725A true JPH02276725A (en) 1990-11-13

Family

ID=14103282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9418689A Pending JPH02276725A (en) 1989-04-13 1989-04-13 Instruction for robot

Country Status (1)

Country Link
JP (1) JPH02276725A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001163446A (en) * 1999-12-10 2001-06-19 Murata Mach Ltd Pickup device
US6671574B1 (en) 2002-08-30 2003-12-30 Fujitsu Limited Position detecting apparatus and library apparatus
JP2011095996A (en) * 2009-10-29 2011-05-12 Mitsubishi Electric Engineering Co Ltd Robot teaching device
JP2011133313A (en) * 2009-12-24 2011-07-07 Canon Inc Method of measuring sensor position and attitude
CN106695792A (en) * 2017-01-05 2017-05-24 中国计量大学 Tracking and monitoring system and method of stacking robot based on machine vision
JP2019171497A (en) * 2018-03-27 2019-10-10 ファナック株式会社 Robot system for correcting teaching of robot utilizing image processing
US10720652B2 (en) * 2016-07-28 2020-07-21 ETAK Systems, LLC Battery recycling systems and methods associated with cell sites and the like

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001163446A (en) * 1999-12-10 2001-06-19 Murata Mach Ltd Pickup device
US6671574B1 (en) 2002-08-30 2003-12-30 Fujitsu Limited Position detecting apparatus and library apparatus
JP2011095996A (en) * 2009-10-29 2011-05-12 Mitsubishi Electric Engineering Co Ltd Robot teaching device
JP2011133313A (en) * 2009-12-24 2011-07-07 Canon Inc Method of measuring sensor position and attitude
US10720652B2 (en) * 2016-07-28 2020-07-21 ETAK Systems, LLC Battery recycling systems and methods associated with cell sites and the like
CN106695792A (en) * 2017-01-05 2017-05-24 中国计量大学 Tracking and monitoring system and method of stacking robot based on machine vision
JP2019171497A (en) * 2018-03-27 2019-10-10 ファナック株式会社 Robot system for correcting teaching of robot utilizing image processing
US11376732B2 (en) 2018-03-27 2022-07-05 Fanuc Corporation Robot system for correcting teaching of robot using image processing

Similar Documents

Publication Publication Date Title
US11780101B2 (en) Automated package registration systems, devices, and methods
JP6704154B2 (en) Automated package registration system, device, and method
US9782896B2 (en) Robot system and control method for robot system
JP6931457B2 (en) Motion generation method, motion generator, system and computer program
JP4655309B2 (en) Picking order determination method, apparatus and program thereof, and picking system
WO2016151668A1 (en) Teaching device and method for generating control information
JP2010247959A (en) Box-shaped work recognizing device and method
JPH02276725A (en) Instruction for robot
JP2012040669A (en) Bulk picking device and method thereof
JPH085021B2 (en) Workpiece positioning method
JP4056662B2 (en) Appearance inspection device
Baumgartl et al. Fast vision-based grasp and delivery planning for unknown objects
JP3651026B2 (en) Method for teaching robot for stocker
JP7028092B2 (en) Gripping posture evaluation device and gripping posture evaluation program
JPH01205204A (en) Coordinate system calibration system for robot with visual sense
JP4665468B2 (en) Photomask and photomask blank placement direction changing device
CN110405810B (en) Automatic package registration system, apparatus and method
JP2001092523A (en) Method of teaching robot for carrier
JPWO2020157875A1 (en) Working coordinate creation device
WO2023171687A1 (en) Robot control device and robot control method
CN116175540B (en) Grabbing control method, device, equipment and medium based on position and orientation
CN116197888B (en) Method and device for determining position of article, electronic equipment and storage medium
JPH04146090A (en) Article holding and moving method using robot
WO2024019105A1 (en) Picking control system
JPH0677209B2 (en) Robot system coordinate calibration method for assembly parts