JPS5941012A - Teaching method of robot - Google Patents

Teaching method of robot

Info

Publication number
JPS5941012A
JPS5941012A JP6104982A JP6104982A JPS5941012A JP S5941012 A JPS5941012 A JP S5941012A JP 6104982 A JP6104982 A JP 6104982A JP 6104982 A JP6104982 A JP 6104982A JP S5941012 A JPS5941012 A JP S5941012A
Authority
JP
Japan
Prior art keywords
robot
teaching
value
posture information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6104982A
Other languages
Japanese (ja)
Inventor
Tsugio Sekine
関根 次雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP6104982A priority Critical patent/JPS5941012A/en
Publication of JPS5941012A publication Critical patent/JPS5941012A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/425Teaching successive positions by numerical control, i.e. commands being entered to control the positioning servo of the tool head or end effector

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Numerical Control (AREA)

Abstract

PURPOSE:To attain highly accurate positioning by calculating the end point coordinate values of a position to be moved from input data to move a robot to an objective attitude. CONSTITUTION:When the driving of the robot is controlled in accordance with a teaching operation from a teaching box 3, data are inputted to a microprocessor 4 in a controlling device 1 through a serial I/F 8 at the depression of an operation key in accordance with the operation from the box 3 to calculate the objective coordinate values corresponding to the key input. The device 1 and a mechanical part 2 constitute a position controlling system. An output value from a pulse encoder PE is fed back through a counter 7, the difference between the feedback value and the converted value of the objective coordinate value previously found by the device 4 which corresponds to the encoder PE is D/A converted 6 and outputted to drive an actuator.

Description

【発明の詳細な説明】 本発明はロボットの教示方法に関するものである。[Detailed description of the invention] The present invention relates to a method for teaching a robot.

従来のロボットの教示方法では1%開昭56−1404
14号に開示されているように2個のITVカメラを用
いて対象物乞モニタテレビ画面に写し出し、ロボット手
先の移動目標点をライトベンによりそれぞれの画面上で
指定することにより、目標点の6次元座標を算出してロ
ボットを所定の位置へ近づける制御をするとなっていた
ので、カメラで認識できる対象物の条件が限定される点
や1画像処理装置の付加はコストアップとなる欠点があ
った。
In the conventional robot teaching method, 1%
As disclosed in No. 14, two ITV cameras are used to project the target beggar on the TV screen, and by specifying the movement target point of the robot hand on each screen using a light ben, the six-dimensional target point can be calculated. Since the coordinates were calculated and the robot was controlled to approach a predetermined position, the conditions for objects that could be recognized by the camera were limited, and the addition of one image processing device increased costs.

本発明の目的は、ロボットを任意の位置へ移動させるた
め、ロボットの手先姿勢情報(手先の座標系位置9手先
のねじれ角)なデータ人力装置を用いて与えることによ
り、入力されたデータから移動先の終点座標値を算出し
て、ロボットを目標とする姿勢に移動させる教示するロ
ボット教示方法な提供することにある。
The purpose of the present invention is to move a robot to an arbitrary position by providing data such as hand posture information (hand coordinate system position 9 hand torsion angle) using a human-powered device. It is an object of the present invention to provide a robot teaching method for calculating the previous end point coordinate value and teaching the robot to move to a target posture.

即ち本発明は、ポイントツウポイント方式で制御するロ
ボットの教示方法において、指令を与えてロボットケ任
意の位置へ移動させて停止させ、この停止されたロボッ
トの姿勢情報をメモリに取り込み、この取り込まれたロ
ボットの姿勢情報を表示装置に直交座標系で表示し、こ
の直交座標系で表示されたロボットの姿勢情報にもとづ
いて、直交座標系で指令を与えてロボットを所定の姿勢
に修正しこの修正されたロボットの姿勢情報をメモリに
記憶させて教示することを特徴とするロボットの教示方
法である。
That is, the present invention is a teaching method for a robot controlled using a point-to-point method, in which a command is given to move the robot to a desired position and stop it, and posture information of the stopped robot is captured in a memory. The robot's posture information is displayed on a display device in an orthogonal coordinate system, and based on the robot's posture information displayed in this orthogonal coordinate system, commands are given in the orthogonal coordinate system to correct the robot to a predetermined posture. This robot teaching method is characterized by storing posture information of the robot in a memory and teaching the robot.

特に本発明によれば、所定の角度をもって取り付けられ
た軸にある部品を挿入する様な組立作業等の軒において
、ロボットの手先を挿入前に軸方向と平行になる゛よう
に微調整し、かつ中心を合せた上で手先座標モードで動
かすことでスムーズに挿入が可能となる。この場合、教
示者は予め軸の取付角度および軸中心の位置が直交座標
系でわかっているので手先姿勢情報としてその直交座標
系でのデータを入力するだけで。
In particular, according to the present invention, in assembly work where a part is inserted into a shaft attached at a predetermined angle, the hand of the robot is finely adjusted so that it is parallel to the shaft direction before insertion, In addition, by aligning the center and moving in hand coordinate mode, smooth insertion is possible. In this case, since the instructor already knows the mounting angle of the shaft and the position of the center of the shaft in the orthogonal coordinate system, all he or she has to do is input the data in the orthogonal coordinate system as the hand posture information.

すみやかに高精度な位置決めが可能となる。Quick and highly accurate positioning becomes possible.

以下、本発明を図面に示す一実施例にもとづいて説明す
る。第1図はロボットをティーチングボックス6からの
指示操作に従い駆動制御するためのハードウェア構成を
示す。ティーチングボックス3により動作キーが押され
るとデータがシリアルINF Bを介して制御装置10
マイクロプロセツサ(J)tic取り込まれ、キー人力
に応じた目標座標値の算出処理を行う。制御装置1とロ
ボット機構部2は位置制御系を成しており、パルスエン
コーダpEからの出力値がカウンタ7を通して帰還され
、マイクロプロセッサ(A)4で先に求めた目標座標値
のエンコーダ相当変換値との差をD/16でアナログ変
換出力し、アクチェエータを駆動する。
The present invention will be described below based on an embodiment shown in the drawings. FIG. 1 shows a hardware configuration for driving and controlling the robot according to instructions from the teaching box 6. As shown in FIG. When the operation key is pressed by the teaching box 3, the data is sent to the control device 10 via the serial INF B.
The microprocessor (J)tic is loaded and performs calculation processing of target coordinate values according to key human power. The control device 1 and the robot mechanism section 2 form a position control system, and the output value from the pulse encoder pE is fed back through the counter 7, and the microprocessor (A) 4 performs an encoder-equivalent conversion of the previously obtained target coordinate value. The difference between the two values is converted into an analog signal using D/16 and output, and the actuator is driven.

第2図はティーチングボックス3を具体的K・示した平
面図である。通常のロボットχマニュアルで移動させ、
位置データを記憶部に格納するだめのティーチング作業
基本機能操作部と、本発明のロボット姿勢情報表示装置
部9および姿勢情報入力装置部10とが一体となったも
のであ・る。
FIG. 2 is a plan view showing the teaching box 3 in detail. Move the normal robot χ manually,
A teaching work basic function operation section for storing position data in a storage section, a robot posture information display section 9 and a posture information input device section 10 of the present invention are integrated.

第3図は本発明による処理の流れを、ティーチング作業
の流れと関連づけて示すフローチャートであり、第4図
および第5図で、第3図中の直交目標値算出と人力直交
目標値算出の内容をさらに詳しく示す。
FIG. 3 is a flowchart showing the flow of processing according to the present invention in relation to the flow of teaching work. is shown in more detail.

第5図は本発明で述べる、ロボット姿勢情報を説明する
ために座標系の関係ン示す。
FIG. 5 shows the relationship of coordinate systems in order to explain the robot posture information described in the present invention.

即ち、姿勢情報とはロボットの手先位tPのXYZ座標
系での位置(Y値、Y値、Z値)と手先のねじれ角(α
値、β値、γ値)とで表現されるロボットの直交座標値
を、それぞれmrn単位および度単位で表現した6ケの
データを言11)。
In other words, posture information includes the position (Y value, Y value, Z value) of the robot's hand position tP in the XYZ coordinate system and the torsion angle (α
The robot's orthogonal coordinate values are expressed in units of mrn and degrees, respectively (11).

α値=手先座標軸XHがXY平面となす角度。α value = angle between the hand coordinate axis XH and the XY plane.

β値=手先座標軸Y、がxY平面となす角度。β value = angle that the hand coordinate axis Y makes with the xY plane.

γ値=手先軸(+6)の絶対回転角度 を意味する。γ value = absolute rotation angle of hand axis (+6) means.

次に、第3図のフローチャートと第1し」のハード構成
を用いて具体的に動作の状態を説明する。
Next, the operating state will be specifically explained using the flowchart in FIG. 3 and the hardware configuration in the first part.

マイクロプロセッサ(,4) 4のティーチンググミグ
ラム(ROM2′5内に記憶されている。)がスタート
されると、各データのイニシャライズ処理を行った後、
テーチングボックスからのキー人力コマンド解釈が行な
われる。これはティーチングボックス3のティーチング
基本操作部19や姿勢情報入力装置部10のどのキーが
押されたかを、キーボードディスプレイI/p15から
マイクロプロセッサCB)12がクロックジェネレータ
14からの信号で定期的に吸い上げ、制御装置1側から
のデータ転送要求信号を待りて、パスライン18、AC
″r、416、レベルチェンジャ15からシリアルI/
FB、パスライン5を介してマイクロプロセッサ(A)
4に送られるコードデータを、マイクロプロセッサ(A
)4がどんな種類の処理を要すデータか解析し、概当す
る処理ルーチンへデータを渡して飛ぶことである。
When the microprocessor (4) 4's teaching gummy gram (stored in ROM 2'5) is started, after initializing each data,
Key human commands from the teaching box are interpreted. This is because the microprocessor CB) 12 periodically receives information from the keyboard display I/p 15 about which keys have been pressed on the teaching basic operation section 19 and posture information input device section 10 of the teaching box 3 using a signal from the clock generator 14. , waiting for a data transfer request signal from the control device 1 side, the path line 18, AC
″r, 416, level changer 15 to serial I/
FB, microprocessor (A) via pass line 5
The code data sent to 4 is sent to the microprocessor (A
) 4 is to analyze what kind of data requires processing, pass the data to the general processing routine, and then fly.

この中で、ロボットの位置座標値を記憶部22へ取り込
むための教示処理20α、ロボットヲマニュアルで動か
す時に各軸を独立に関節モードで動かすか、手先を直交
座標系にそって直交モードで動かすかの選択を行うモー
ド変更処理’)Oe 、 2pf 、およびハンドの開
院動作処理20!1〜207は、モード変換によって決
定された動作モードによってそれぞれの目標値算出処理
を行うが、いずれも直交座標値(,4)として求められ
データに格納される。第4図に重文の場合を示すが、概
当する座標値のキーが最初に押され℃から離される才で
は最大変位を越えない範囲で除々に変位火増やし続けた
ものを求め、離されてからは変位がゼロになるまで除々
に減らし続けたものを求め、1サイクル前に求めた直交
座標値(,4)に動作の方向に応じて加算または減算し
て、今回の直交目標座標値としている。そしてこの直交
目標値欠口ボット各軸のエンコーダ相当値に換算したも
のと、実際のパルスエンコーダPEからの出力をカウン
タ7を介して読み込んだ現在値との差ケ各軸毎に今回の
指令パルス数として、D/A 6・に出力することによ
りサーボドライバに速度指令を与えロボットを駆動させ
ろものである。
Among these, there is a teaching process 20α for importing the robot's position coordinate values into the storage unit 22, and when moving the robot manually, each axis is moved independently in joint mode, or the hand is moved in orthogonal mode along the orthogonal coordinate system. In the mode change process for making the selection ') Oe, 2pf, and hand opening operation process 20!1 to 207, each target value calculation process is performed according to the operation mode determined by the mode conversion, but all of them are performed using orthogonal coordinates. The value (,4) is obtained and stored in the data. Figure 4 shows the case of an important text.When the key with the approximate coordinate value is first pressed and released from °C, the value of the displacement that continues to increase gradually within a range that does not exceed the maximum displacement is calculated, and when the key is released, Then, find the displacement that continues to be gradually decreased until it becomes zero, and add or subtract it from the orthogonal coordinate value (, 4) found one cycle ago depending on the direction of movement, and use it as the current orthogonal target coordinate value. There is. The difference between this orthogonal target value converted into the encoder equivalent value of each axis of the robot and the current value read from the actual output from the pulse encoder PE via the counter 7 is the current command pulse for each axis. By outputting the number to the D/A 6, a speed command is given to the servo driver to drive the robot.

つまり、ロボットをマニュアル移動させて行うティーチ
ングでは、キーを押した瞬間から除々に閉処理2UC,
20d、更には上記処理用のキー20a〜・20fが押
された事を示1゛ためにマイクロプロセッサ(B)12
がf’l0t7y介して押されたキー20a〜20fの
上にあるLEDC発光夕“イオード)21σ〜211を
点燈せしめる処理については、詳細説明を省く。
In other words, when teaching is performed by manually moving the robot, the closing process 2UC,
20d, and the microprocessor (B) 12 to indicate that the processing keys 20a to 20f have been pressed.
A detailed explanation of the process of lighting up the LEDC light emitting diodes 21σ to 211 above the keys 20a to 20f pressed via f'l0t7y will be omitted.

加速しながら動き始め、キーを離すと除々に減速して、
目標値算出時の変位がゼロになるまで数サイクルくり返
した後、停止することになるため、ロボットの手先に顔
を近づけて動きを見ながら、位置決めしようとする点で
高精度に停めることは非常に難かしい作業になる。
It starts moving while accelerating, and when you release the key, it gradually decelerates,
The robot will stop after repeating several cycles until the displacement at the time of target value calculation becomes zero, so it is extremely difficult to stop the robot with high precision as you will have to bring your face close to the robot's hands and watch the robot's movements while trying to determine the position. It becomes a difficult task.

そこで、次に本発明の内容を述べ、その効果を明らかに
する。まず上記ティーチング方法で位置決めしようとす
る点の近傍でロボットを停止させた後、姿勢情報入力装
置部10のOUTキー106を押すことにより、コマン
ド解釈処理によりOUTキー処理ルーチンがコールされ
る。
Next, the content of the present invention will be described and its effects will be clarified. First, after stopping the robot near the point to be positioned using the teaching method described above, by pressing the OUT key 106 of the posture information input device section 10, the OUT key processing routine is called by command interpretation processing.

そして、ロボットが今停止している点を示すRAM22
内にある直交座標値(,4)の内容(X値。
Then, RAM22 indicates the point at which the robot is currently stopped.
The content of the orthogonal coordinate value (,4) within (X value.

Y値、Z値、α値、β値、Y値)を姿勢情報値化するた
めにマイクロプロセッサ(A)4でアスキー コ−)”
 データに変換し、シリアルI/p 8 K出力すると
、ティーチングボックスlul+のマイクロプロセッサ
CBNzが、その伝送されたデータをRAM24にフォ
ーマット化して書き込み、その書き込まれたデータが読
み出されてキーボードディスプレイI/F16から姿勢
情報表示装置部9に内容が表示される。この表示状態を
見て、例えばロボットをX方向にあと+2朋動かし、α
が0度でβが−1,5度で手先が水平になっていないの
でβを0度にすれば、その点が目標とする位置になると
判断できた場合、姿勢情報人力装置部10の7−Nキー
1oαを押すとLNキー処理ルーチンがコールされ、キ
ー人カ待ちとなる。
The microprocessor (A) 4 uses ASCII code to convert the Y value, Z value, α value, β value, Y value) into posture information values.
When converted into data and outputted as serial I/p 8K, the microprocessor CBNz of the teaching pendant lul+ formats and writes the transmitted data to the RAM 24, and the written data is read out and displayed on the keyboard display I/P. The contents are displayed on the posture information display unit 9 from F16. Looking at this display state, for example, move the robot +2 more distances in the X direction,
is 0 degrees and β is -1.5 degrees, and since the hand is not horizontal, if it is determined that if β is set to 0 degrees, that point will be the target position, then 7 of the posture information human power device unit 10 - When the N key 1oα is pressed, the LN key processing routine is called and the key waits.

そこで変更したい姿勢情報Xとβの値を順次キーインし
最後にCRキー1odを押丁。マイクロプロセッサ(A
)4は順次送られて来るこれらのデータを格納しておき
、CRコードを読み取ると入力終了と見なして、データ
を解読して入力の無かった姿勢情報CY、Z 、α、γ
)は表示時に求めたデータを、新しく入力されたデータ
(X、β)はそのデータをそれぞれ、アスキーコードか
ら直交座標値(B)に変換処理する。そして第5図のフ
ローに従い、直交座標値CE’)とCA)の差を計算し
、動作制御が可能な範囲内であると前述した腕動作処理
ルーチンを共用して。
Then, key in the values of posture information X and β that you want to change in sequence, and finally press the CR key 1od. Microprocessor (A
) 4 stores these data that are sent sequentially, and when the CR code is read, it is considered that the input is completed, and the data is decoded to retrieve the attitude information CY, Z, α, γ that was not input.
) converts the data obtained at the time of display, and newly input data (X, β) converts the data from ASCII code to orthogonal coordinate values (B). Then, according to the flow shown in FIG. 5, the difference between the orthogonal coordinate values CE') and CA) is calculated, and the above-mentioned arm motion processing routine is used to determine that the difference is within the range in which motion control is possible.

入力座標値を目標座標値としてロボットを動かし位置決
めする。制御可能な範囲外の入力があった場合は、エラ
ーメツセージを姿勢情報表示部9へ表示し次の処理を待
つ。そして、目標とする点への移動イ1正が完了したら
教示キー20αを押てことにより、今停止している点の
座標値が位置座標値として記憶部22に教示される。
The robot is moved and positioned using the input coordinate values as the target coordinate values. If there is an input outside the controllable range, an error message is displayed on the posture information display section 9 and the next process is awaited. Then, when the movement to the target point is completed, by pressing the teaching key 20α, the coordinate values of the point currently stopped are taught to the storage unit 22 as the position coordinate values.

以下同様に、マニュアル移動と姿勢情報入力および出力
操作、教示をくり返して多点のティーチング作業を行う
Thereafter, manual movement, posture information input and output operations, and teaching are repeated in the same manner to perform multi-point teaching work.

本実施例によれば、大半の組立作業が手先を水平または
直角にして部品を挿入し、また、挿入1−べき部品のX
、Y、Z位置寸法があらかじめ既知の為、姿勢情報の入
力が容易であり従来のマニュアル移動だけのティーチン
グの様VC顔を口、ポットに近づけて目視にたよりなが
ら何度も方向や位置を微調整する必要がなくなり、効率
良く、高精度な、しかも安全にティーチングができる。
According to this embodiment, most of the assembly work involves inserting parts with the hand horizontally or at a right angle.
, Y, and Z position dimensions are known in advance, making it easy to input posture information, and unlike traditional manual movement teaching, the VC face can be brought close to the mouth and pot and the direction and position can be fine-tuned many times while relying on visual inspection. There is no need to make adjustments, allowing for efficient, highly accurate, and safe teaching.

xpn73″M25はマイクロプロセッサ(B)12を
コントロールするためのグロダラムである。
xpn73″M25 is a grodarum for controlling the microprocessor (B) 12.

以上説明したように本発明によれば、ロボットの手先の
位置や姿勢を高精度な栄件下に位置決めしようとする場
合、従来のティーチングのように目視にたよりながら何
ども正負方向にロボットを動かして調整することなく、
一度に位置や姿勢の変位量を口論んで人力装置から設定
するだけでできるので、ティーチング作業の効率向上、
より高精度な位置決めができる等の効果がある。
As explained above, according to the present invention, when trying to determine the position and posture of the robot's hands with high precision, the robot is moved in positive and negative directions many times while relying on visual inspection, unlike conventional teaching. without having to adjust
This can be done by simply arranging the displacement amount of position and posture at once and setting it from the manual device, improving the efficiency of teaching work.
This has the effect of enabling more accurate positioning.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明のハードウェア構成図、第2図は第1図
に示すティーチングボックスの外観を示す平面図、第3
図は本発明に係るロボットのティーチング方法で、姿勢
情報の表示と姿勢情報の入力によりロボットヲ目標点に
動作制御するルーチンを含んだフローチャート、第4図
は第3図で示した直交目標値算出処理を示すフローチャ
ート、第5図は第3図で示した入力点直交目標値算出処
理を示すフローチャート、第5図はロボット座標系XY
Zと手先座標系XM。 Yx 、 ZJFの関係を示した図である。 1・・・ロボッI・制御装置2・・・aボット機構部6
・・・ティーチングボックス 4・・・マイクロプロセッサ(A) 5・・・パスライン   6・・・ルタ7・・・カウン
タ    8・・・シリアルI/p9・・・姿勢情報入
力装置部 10・・・姿勢情報入力装置部 11・・・LED 12・・・マイクロプロセッサ(B) 13・・・キーボードディスプレイI/F14・・・り
aソクジエネ1/−タ 15・・・レベルチェンジャー 16・・・ACIA     17・・・PI″?51
8・・・バスライン 第40 手続補正書(方式) 事件の表示 昭和 57年特許願第 61049   号発明の名称
 ロボットの教示方法 補正をする者 事件との関係   特 許 出願  人名 称  +5
101株式会iト 日 立 製 作 新式  理   
人 補正の内容
FIG. 1 is a hardware configuration diagram of the present invention, FIG. 2 is a plan view showing the external appearance of the teaching box shown in FIG. 1, and FIG.
The figure shows a flowchart of a robot teaching method according to the present invention, including a routine for controlling the robot to move to a target point by displaying posture information and inputting posture information, and FIG. 4 shows the orthogonal target value calculation process shown in FIG. 3. FIG. 5 is a flowchart showing the input point orthogonal target value calculation process shown in FIG. 3. FIG. 5 is the robot coordinate system XY
Z and hand coordinate system XM. It is a diagram showing the relationship between Yx and ZJF. 1... Robot I/control device 2... a-bot mechanism section 6
... Teaching box 4 ... Microprocessor (A) 5 ... Pass line 6 ... Router 7 ... Counter 8 ... Serial I/p9 ... Attitude information input device section 10 ... Attitude information input device section 11...LED 12...Microprocessor (B) 13...Keyboard display I/F 14...Rea software generator 1/-ta 15...Level changer 16...ACIA 17 ...PI''?51
8...Bus Line No. 40 Procedural amendment (method) Indication of the case 1982 Patent Application No. 61049 Title of the invention Person who amends the robot teaching method Relationship with the case Patent applicant Name of person Title +5
101 IT Co., Ltd. New type science manufactured by Hitachi
Contents of human correction

Claims (1)

【特許請求の範囲】[Claims] ポイントツウポイント方式で制御するロボットの教示方
法において、指令を与えてロボットを任意の位置へ移動
させて停止させ、この停止されたロボットの姿勢情報を
メモリに取り込み、この取り込まれたロボットの姿勢情
報を表示装置に直交座標系で表示し、この直交座標系で
表示されたロボットの姿勢情報にもとづいて、直交座標
系で指令を与えてロボットを所定の姿勢に修正し、この
修正されたロボットの姿勢情報をメモリにし憶させて教
示することを特徴とするロボットの教示方法。
In a teaching method for a robot controlled by a point-to-point method, a command is given to move the robot to an arbitrary position and stop it, and the posture information of the stopped robot is captured into memory. is displayed on the display device in a Cartesian coordinate system, and based on the robot posture information displayed in this Cartesian coordinate system, commands are given in the Cartesian coordinate system to correct the robot to a predetermined posture, and the corrected robot is A robot teaching method characterized by storing posture information in a memory and teaching the robot.
JP6104982A 1982-04-14 1982-04-14 Teaching method of robot Pending JPS5941012A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6104982A JPS5941012A (en) 1982-04-14 1982-04-14 Teaching method of robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6104982A JPS5941012A (en) 1982-04-14 1982-04-14 Teaching method of robot

Publications (1)

Publication Number Publication Date
JPS5941012A true JPS5941012A (en) 1984-03-07

Family

ID=13159973

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6104982A Pending JPS5941012A (en) 1982-04-14 1982-04-14 Teaching method of robot

Country Status (1)

Country Link
JP (1) JPS5941012A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4831548A (en) * 1985-10-23 1989-05-16 Hitachi, Ltd. Teaching apparatus for robot
EP0707251A1 (en) * 1994-04-25 1996-04-17 Fanuc Ltd. Control system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4831548A (en) * 1985-10-23 1989-05-16 Hitachi, Ltd. Teaching apparatus for robot
EP0707251A1 (en) * 1994-04-25 1996-04-17 Fanuc Ltd. Control system
EP0707251A4 (en) * 1994-04-25 1997-07-02 Fanuc Ltd Control system
US6219583B1 (en) 1994-04-25 2001-04-17 Fanuc Limited Control system

Similar Documents

Publication Publication Date Title
GB1481134A (en) Method and apparatus for programming a computer operated robot arm
WO1998006015A1 (en) Movement control method for teaching position of robot
JPS5941012A (en) Teaching method of robot
JPS60205721A (en) Robot operation teaching device
JPS6352990A (en) Manipulator visual device
JPS6352204A (en) Robot teaching device
JPS60195611A (en) Robot system corresponding to work movement
JPS62165212A (en) Robot work teaching system
JPH06110545A (en) Programming method for teaching data
JPH0782372B2 (en) Robot arm control method
JPS60229109A (en) Position correcting system using visual camera
JPH0468646B2 (en)
JPS6029288A (en) Robot device
US20230286152A1 (en) Robot system and controller
JP2606172B2 (en) robot
KR960005987B1 (en) Object operation control system
JP2547999B2 (en) Teaching device for program data
JPS6334085A (en) Attitude rendering method of jig for robot
JPS6260005A (en) Confirming method for robot program
JPH06259126A (en) Robot operation simulating device
JPH07205068A (en) Coordinate system setting method of robot
JPH05100729A (en) Off-line teaching device for robot
JPS6467605A (en) Conveyor synchronous control method for robot
JPS6174005A (en) Operation control device of articulated robot
Hornung et al. A New Approach to Gesture Based Real-Time Robot Programming Using Mixed Reality