JPS58160087A - Method of determining coordinate of robot arm - Google Patents
Method of determining coordinate of robot armInfo
- Publication number
- JPS58160087A JPS58160087A JP4377982A JP4377982A JPS58160087A JP S58160087 A JPS58160087 A JP S58160087A JP 4377982 A JP4377982 A JP 4377982A JP 4377982 A JP4377982 A JP 4377982A JP S58160087 A JPS58160087 A JP S58160087A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- arm
- joint
- robot arm
- angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.
Description
【発明の詳細な説明】
(4)発明の技術分野
不発明はロボットアーム座標決足法に関し、とくに多関
節を有するロボットアー五座榛決定法に関する。DETAILED DESCRIPTION OF THE INVENTION (4) Technical Field of the Invention The invention relates to a robot arm coordinate determination method, and particularly to a five-joint robot arm coordinate determination method.
(H)技術の背景
一般にロボットは物品の組立作業や運搬作業に用いられ
るが轡雑な作業には多関節アームを有するロボットが適
しており、更に高度な精密作業にこれを用いるためには
高い位置決め精度を有する多関節アーム1&:具えたロ
ボットが安値される。(H) Technology background Robots are generally used for assembly and transportation of goods, but robots with multi-joint arms are suitable for complex tasks, and they are expensive to use for more advanced precision tasks. A robot equipped with an articulated arm 1 &: with positioning accuracy is available at a low price.
(Q 従来技術と問題点
ロボットの駆動には教示−再生(ティーチングプレイバ
ッグ)方式が広く用いられている。(Q: Prior Art and Problems The teaching-playback (teaching playbag) method is widely used to drive robots.
つまり大向が直接にロボットアームの先端を保持して目
標位置に位置付けするか、又は教示箱(ティーチングボ
ックス)に取付けたスイッチにより遠隔操作してアーム
の先端を位置付けした後、各rjkJw!8に設けられ
ている回転角度検出器の値を関節の回転角として記憶す
るという操作の繰返しによって一連のアーム動作に応じ
たデータ列を作成する0
FKOボットアームの躯動時にはこのデータ列を記憶部
から続出し、各−節の駆動回路へ指令値へ人力する。こ
のような駆動制御方式のロボットにあ・いては、教示し
圧点にアーム先端は正しく位貧付けされる。しかしロボ
ットを更に高度な作業、例λげ所定の平面上に合歓の物
品をマトリックス状に整列配ヤする作業、CADによっ
てプログラミングζtた作業データで駆動する場合、あ
るいにテレビカメラ端ゲ用いた視覚U識装置により検知
された位m座椰値に基いてロボットを駆動し、物体を把
持する作業等においてはロボットの関節構成により定ま
る姿勢変換式を解いて絶対座標系をロボットの所要の関
節角度のデータに変換する必禦がある。In other words, after Ohmukai directly holds the tip of the robot arm and positions it at the target position, or remotely controls the tip of the arm using a switch attached to the teaching box, each rjkJw! By repeating the operation of storing the value of the rotation angle detector provided in 8 as the rotation angle of the joint, a data string corresponding to a series of arm movements is created.0 This data string is memorized when the FKO bot arm moves. From the section, the command value is manually applied to the drive circuit of each node. In a robot using such a drive control system, the tip of the arm is correctly positioned at the taught pressure point. However, robots can be used for more advanced tasks, such as arranging and arranging objects in a matrix on a predetermined plane, when the robot is driven by work data programmed using CAD, or by using a television camera. The robot is driven based on the coordinate value detected by the visual U recognition device, and in tasks such as grasping objects, the absolute coordinate system is determined by solving the posture transformation formula determined by the robot's joint configuration. There is a need to convert it to angle data.
ところで+1姿勢変換式には各関節の腕の長さ及び関節
原点がパラメータとして含まれており、とハらパラメー
タに誤差が含首れていると、ロボットの移動する軌跡は
指示した軌跡とは異なり、上記作業には不過当になる。By the way, the +1 posture conversion formula includes the arm length of each joint and the joint origin as parameters, and if the parameters include errors, the robot's moving trajectory may differ from the instructed trajectory. Otherwise, it would be inappropriate for the above work.
つまりロボットの組立作業時に派生する組立!I14差
(各アーム及び各関節の取伺は誤差)が存在するため、
上述の姿勢1羨式を解いてロボットに指示イーを寿えて
もロホットに91石の動きをぜず都度な精密作業には使
用できない。In other words, assembly derived from robot assembly work! Because there is an I14 difference (error in the inspection of each arm and each joint),
Even if the above-mentioned posture 1 envy equation is solved and the robot is given instructions, the 91-koku movement cannot be used for precision work on a case-by-case basis.
0 発明の目的
本発明はかかる従来の欠点に鑑みなされたもので比較的
単純な操作によってアームを所望の位置へ正mIK到達
させゐと七ができるロボットアーム座悼決足法會提供す
ることを目的とする。0 OBJECTS OF THE INVENTION The present invention was devised in view of the above-mentioned drawbacks of the prior art, and it is an object of the present invention to provide a robot arm sitting method that allows the arm to reach a desired position by relatively simple operations. purpose.
(ト)発明の構成
そしてこの目的は本発明によれば初数個の関節部ヲ壱す
るロボットアームの先端をn(Y(n≧2)の固定点の
各々に順次位置付すし、該ロボットアームの先端を前記
同定点に位爾付けした状態で該ロボットアームが複数個
の姿勢を成すようにし、該勘数個の姿勢形成時における
該ロボットアームの各関動部の回転角管該各関節部に設
けた回転角挽出手段で検出し、ト検出角に1、いて該ロ
ボットアームの各関節原点を法定するようにしたことを
%黴とするロボットアーム座憚決足V2を提供すること
Kより遅成嘔れる〇
ψつ発曳jの夾施例
発明の央&11例の説明に先立って本発明の礎本的考え
方について述べる。(g) Structure and object of the invention According to the present invention, the tip of the robot arm having the first few joints is sequentially positioned at each of n (Y (n≧2) fixed points, and the robot With the tip of the arm positioned at the identification point, the robot arm assumes a plurality of postures, and the rotation angle tube of each related part of the robot arm when forming the plurality of postures. To provide a robot arm position V2 that is detected by a rotation angle calculating means provided at a joint part, and is set to 1 at the detected angle to determine the origin of each joint of the robot arm. Prior to explaining the central and 11th examples of the invention, the basic idea of the present invention will be described.
第1図はロボットの簀部祷成を模式的に示したものでA
、〜AマはアームI K、〜に、は関節であり、このう
ちAt + As + Ayは各々アームAI+A、、
A、を回転中心として任意角度の回転が可能であり、関
節に、〜に、は各々アームA1wAl:As* A4
:Asy A・で構成される平面内において任意角
度の回転が可能である。アームA。Figure 1 is a schematic diagram of the robot's construction.A
, ~A is the arm IK, ~ is the joint, and among these, At + As + Ay are the arms AI + A, respectively.
It is possible to rotate any angle around A as the rotation center, and the joints and ~ are each arm A1wAl:As*A4
: Asy It is possible to rotate any angle within the plane formed by A. Arm A.
の先端A6をロボットのアームに固定した座標糸
1(ハンド座標系)の原点とし、アームAt VC対し
て垂向方向にこの原点より矩陰りだけ離れた点Akケに
1副基準点とする。原点を計測基準点とせずにこのよう
に別個にH1測副基準を設けるのは関節K。Coordination thread with the tip A6 fixed to the robot arm
1 (hand coordinate system), and a sub-reference point is set at a point Ak that is perpendicular to the arm At VC and separated from this origin by a rectangular shadow. Joint K is where the H1 sub-measurement reference is set separately in this way, without using the origin as the measurement reference point.
の回転によってはアームAtの先端の位置の変化に生じ
ないが、計測基準点はこの関節に・の回転により食付す
ることKなり関節R1の回転をも考慮したロボットの動
作の制御が必要になるからで 4ある。Although there is no change in the position of the tip of the arm At due to the rotation of , the measurement reference point is attached to this joint by the rotation of . Therefore, it is necessary to control the robot's motion taking into account the rotation of joint R1. There are 4.
ここで第1図のロボットの各パラメータを以下 1
のように定める。Here, each parameter of the robot in Figure 1 is as follows.
Define as follows.
&i lアームjJ(1=1°〜7)の長さθ−
畔;rJA節Kl(1=1〜6 )(7)真の回転角A
θ;
轡;関節Kiの機械的設定誤差に基づく関節Kiの回転
角誤差
W ;アーム先端の位置ベクトル
A、:;座慄変換マトリックス
/l;ハンド座標系における位置座標
ハンド座標系における位t1を座樟島をロボット座−系
(絶灼座標系(X6.Y・、Zo))における位置座
r/で表わすと、
「ζA、・先・几・hAr、At
−A丁・メt
となる。&i l arm jJ (1=1°~7) length θ- arm; rJA node Kl (1=1~6) (7) true rotation angle A
θ; 轡; Rotation angle error W of joint Ki based on mechanical setting error of joint Ki ; Position vector A of arm tip, :; Tremor transformation matrix /l; Position coordinate in hand coordinate system Position t1 in hand coordinate system The location of Zakushima in the robot seat system (absolute coordinate system (X6.Y, Zo))
When expressed as r/, it becomes ``ζA,・Sen・几・hAr, At −A D・Met.
但し AT−A1.A、、Aj・A、−!I、、1゜F
J、x (t=x 〜6 )Fimtecv回転角e
(Jlllθ!、θ3.θ4s 01+ ”・)の関
数であるから回転角υ原点続差るθ(Δθ1.Δ0!、
Δθ、、Δθ4.Δθ、。However, AT-A1. A,,Aj・A,-! I,, 1°F
J, x (t=x ~ 6) Fimtecv rotation angle e
Since it is a function of (Jllllθ!, θ3.θ4s 01+ ”・), the rotation angle υ origin is a function of θ(Δθ1.Δ0!,
Δθ, Δθ4. Δθ,.
八〇、)を含んだ関節角に対するロボット座標糸上υ基
準点位置ベクトルF(fltA(B) は次式で懺シ
に△θ玉
ハンド座標糸上のある点のロボット座標系における座佛
1f(JJ)とそのときの各関節に設けられているロー
タリエンコーダの読取値(出力値)efAθよりδlを
未知数とする連立方程式(2)よりδ1の値を求めるこ
とができる。The robot coordinate thread υ reference point position vector F (fltA(B) for the joint angle including 80, ) is expressed by the following formula. (JJ) and the reading value (output value) of the rotary encoder provided at each joint at that time efAθ, the value of δ1 can be obtained from simultaneous equations (2) with δl as an unknown.
δ1が求まると第(2)弐及び次式
%式%)
を用いて胸tfi部における機械的設定1差−のが求ま
る。この設定誤差ム0が判明すればロボットに対する指
示値PC&)を算出する基礎となる関節の回転角eを指
示値として与えれば第(2)式よりアームの位kFc(
)十Δリ が判る。Once δ1 is determined, the mechanical setting difference in the chest TFI region can be determined using the second formula (2) and the following formula. If this setting error m0 is known, the arm position kFc(
) 1Δli can be found.
次に本発明の好ましい実施例について説明する。Next, preferred embodiments of the present invention will be described.
第2図に本発明の実施例榊成図であって、Bはロボット
基底部、Aはアーム部であって前述のアームA、%A、
及び関節に1〜に−により構成される。Hにハンドで変
位検出子Tを把握する。霊位検出子Tの動きは変位検出
器Gの内部に設けたセンサー、例えば金ゲージ等により
電気信号に変換するOYは位ケージの出力gM号をX、
Y、Z方向の変位量に変換する蒙位検出部、M#−i座
標決定部%CHIII制御部、2は関節角の検出部であ
って関節K + ”” K aに設けられており、関節
角を与えるロータリエンコーダ(図示せず)の出力値管
受けて関節角を検出する。FIG. 2 is a diagram of Seiji Sakaki according to an embodiment of the present invention, where B is the robot base, A is the arm, and the arm A, %A,
and the joint is composed of 1 to -. Grasp the displacement detector T with the hand at H. The movement of the spiritual position detector T is converted into an electrical signal by a sensor installed inside the displacement detector G, such as a gold gauge.
2 is a joint angle detection unit, which is provided at the joint K + “” Ka; The joint angle is detected by receiving the output value of a rotary encoder (not shown) that provides the joint angle.
まず変位検出器G′fr第1図に示す位置F4(e)に
設定する。この場合検出!+Gの位iiはFCeす4θ
ノ即ち第C21式を用いてル(e子’(’)X’t
で与えられる。(lliji負tすΔ9 t=tロー
タリエンコーダ次ニ検all*akwt s mニ示ス
位* rl(e) vc設の成分P1z、 PtyIP
iz* Pazt Pays Pzz’e有するため上
式(6)、 (7)は6連立刀根式となり6つの未知数
a1〜δ・のi*に求めることができる。検出KGの位
置は1位検出部Yで検出され位置情報とじて座標決?部
Mへ入力される。座標決定N)Mでは、検出器Gの位置
情報及び関節角検出部2からの関tth角9fh&及ヒ
tb示値eニ基イテ式<n、 <s)ノ解δ。First, the displacement detector G'fr is set at position F4(e) shown in FIG. Detected in this case! +G position ii is FCe 4θ
That is, using formula C21,
is given by (lliji negative t Δ9 t = t rotary encoder next check all * akwt s m position * rl (e) component of vc setting P1z, PtyIP
Since iz* Pazt Pays Pzz'e exists, the above equations (6) and (7) become six simultaneous sword equations, and can be determined for i* of the six unknowns a1 to δ. The position of the detection KG is detected by the first detection part Y and the coordinates are determined based on the position information? It is input to section M. In the coordinate determination N)M, the position information of the detector G and the joint angle 9fh from the joint angle detection unit 2 are obtained.
〜δ、を求める。その後(2)、 (5)式を用いて設
定誤差Δeを求める。そしてO十Δ6−、r、: を
(2)式の/l)+Jの代わりに代入し園様の計舞を行
って真の誤差へのを求めて正しい回転角の原点1ft得
る0これら真出値δ1〜δ・、AOは制御sCへ送られ
指示値θ、〜θ、に基いてハンドHの位置制御が行われ
る。検出器GKよりアーム先端の位置の横用を行うのが
困難な場合は以下の方法によることも可能である。Find ~δ. Thereafter, the setting error Δe is determined using equations (2) and (5). Then, substitute O + Δ6-, r, : in place of /l) + J in equation (2), perform Mr. Sono's plan, find the true error, and obtain the origin of the correct rotation angle 1 ft. 0 These true The output values δ1 to δ·, AO are sent to the control sC, and the position of the hand H is controlled based on the instruction values θ, to θ. If it is difficult to use the position of the arm tip laterally than the detector GK, the following method may be used.
第3図に示すように平板(治具)Dに配された5個のビ
ンE1〜E、を順次ロボットのハンドHで把持する。ロ
ボット座憚系から治具座標糸への座標實換マ) IJフ
ックスBとし、治具座標糸の原点のロボット座徨系にお
ける位置ベクトルをムとし、治具上の点の治具座標糸で
の座4111をtとするとこの点のロボットm椋糸での
位置ベクトル はIP= try士、め、−・−(ツ
ノとなる。(1j44図)
2組のデータ(鳴、0+Δ靴(C,a、ナムOQを上式
に代入し、辺々の差をとると
を伶る。As shown in FIG. 3, five bins E1 to E arranged on a flat plate (jig) D are sequentially gripped by a hand H of the robot. Coordinate conversion from robot seat system to jig coordinate thread) Let IJ hook B be the position vector of the origin of the jig coordinate thread in the robot seat system, and let the jig coordinate thread of a point on the jig be If the seat 4111 is t, then the position vector of this point on the robot m is IP = try, me, -・-(horn. a. Substitute Nam OQ into the above equation and take the difference between the sides.
となる0 の係lll[全音て未知数とすれば9+6=
15個の未知数をもつ1次方相式となる。従っていくつ
かのデータからし及びa1ヲ求めることができる。The coefficient of 0 becomes lll [9+6= if all tones are unknowns
This becomes a linear phase equation with 15 unknowns. Therefore, some data mustard and a1 can be determined.
侶は次式で与えられゐ0
一+−C11)
(α、β、γけロボット座標系に対する姿勢角となる)
従って、ロボットのハンドHによって、治具りのビンP
、〜P、を順次把持し、その都度の関節に、〜に、の回
転角をロータリエンコーダによって知シ関節角検出部2
で検出する。他方ロボット座標決定fit(Mでは、関
節角検出部2から入力さhるrmm角et4 tもと
にして<s)* (11)式をぎ1算して未知数δ、
〜a・より誤差4eを求め前述の実施例の場合と同様の
繰返し演算によって真の誤差Δet−求める。この誤差
bf) Fiミロボット御部Cへ入力され、別に入力さ
れる指示値rとに基いてロボットアームの位置制御を行
う。The angle is given by the following formula: 0 1 + - C11) (α, β, γ are the attitude angles with respect to the robot coordinate system)
Therefore, by the hand H of the robot, the bottle P of the jig is
, ~P, are sequentially grasped, and the rotation angle of ~ is detected at each joint by a rotary encoder.The joint angle detection unit 2
Detect with. On the other hand, robot coordinate determination fit (In M, rmm angle input from the joint angle detection unit 2 <s) based on the h mm angle et4 t)
The error 4e is determined from ~a. and the true error Δet- is determined by repeated calculations similar to those in the previous embodiment. This error bf) is input to the Fi robot controller C, and the position of the robot arm is controlled based on the separately input instruction value r.
なお治具りの5つのビンE1〜E、の代わりに任意の2
つのビン、例えt’!E+ t FJt ’に用いて未
知数δ、〜δ、、飼差Jを求めることもできる。Note that instead of the five bins E1 to E on the jig, any two
Two bottles, for example t'! E+tFJt' can also be used to obtain the unknown numbers δ, ~δ, and the feed difference J.
第5図及び給6図において、ビンEI* E* K谷
々ハンドH1−m次固定し、その時の関節に1〜に@に
設けたロータリエンコーダの出力を関節角検出器ZK大
入力て関節角fEfAeを検比し、演算部Fへ入力する
。In Fig. 5 and Fig. 6, the bin EI* E* K valley hand H1-m is fixed, and the output of the rotary encoder provided at 1 to @ is input to the joint angle detector ZK large at the joint at that time. The angle fEfAe is compared and input to the calculation unit F.
が成立する。添数字はビンE+−EtKハンドHを固定
したときにアームのなす第1及び第2の姿勢を識別する
ものである〇
上式においてビンE+pE雪にハンドHカbV 定され
たときのハンドHの位置ベクトルff’、、しt用いて
得られる連立方程式を演aspで解き、解a、〜δ・を
求めた後、上述したと同様の方法により真の1差Δθを
決定する0従ってこの誤差値ムeをロボット制御sCへ
送出し以後この−Qを用いて角#検出器の計測原点を設
定することにより4h示値θに基づく正しいアーム位置
制御が可能となる。holds true. The subscript numbers identify the first and second postures of the arm when Bin E+-EtK Hand H is fixed. In the above equation, Hand H when Hand H is fixed to Bin E+pE snow. Solve the simultaneous equations obtained using the position vectors ff', , and t using arithmetic asp to obtain the solutions a, ~δ, and then use the same method as described above to determine the true 1 difference Δθ.0 Therefore, this error After sending the value e to the robot controller sC, by using this -Q to set the measurement origin of the angle # detector, correct arm position control based on the 4h reading θ becomes possible.
C)発明の効果
υ上の説明から明らかなように本発明に係るロボットの
アーム座榛決定法はロボットアームを任意の位置へ正確
に駆動1++偏できる。C) Effects of the Invention υ As is clear from the above explanation, the robot arm position determination method according to the present invention can accurately drive the robot arm to any desired position.
第1図に、ロボットの歎部栖成図、第2図は本発明の一
実施例栴成図、第3図〜第6図は本発明の他の実施例a
M明図である。
A、〜A、;アーム、K、〜に― ;関節、El〜Es
;固定点、H;ハンド、Y;変位検出部、M:ロボy
ト座!S次冗部、z;関節角検出部、C:ロボット側舛
部〇
も1図
Z。
第 2 図
il!+5 口
第 4 図
■ 5 図
YJ□ 図
Ti1i’1’ Ii長自殿
11+l’lt’+/、!小
昭(11Sγ・I持1.゛1摩1第4377か31山
i、 ’、I l タ と・llI’l’(川“
泪イ 持訂出喧(人tlI’li 神5f1
11県川崎市中h;11ズlI+−1l1111101
51IFr地+522) ?、弥富):通株式会社
4 代 理 人 fl ノリ「 神
全月1県用崎山1+b;ilにIIj・111中101
5番地富1:通株式会社内
496FIG. 1 is a diagram of the construction of a robot, FIG. 2 is a diagram of one embodiment of the present invention, and FIGS. 3 to 6 are diagrams of other embodiments of the present invention.
This is a M-light diagram. A, ~A,; Arm, K, ~; Joint, El~Es
;Fixed point, H: Hand, Y: Displacement detection unit, M: Robot y
Toza! S redundant part, z: joint angle detection part, C: robot side arm part 〇 is also shown in Figure 1Z. Figure 2! +5 Mouth No. 4 Figure ■ 5 Figure YJ□ Figure Ti1i'1' Ii Chojiden 11+l'lt'+/,! Kosho (11 Sγ・I 1.゛1 ma 1 4377th or 31st mountain
i, ', I l ta and・llI'l' (river “
Tears I'll have a good time (people tlI'li God 5f1
11 Prefecture Kawasaki City Nakah; 11 Zu lI+-1l1111101
51IFr+522)? , Yatomi): Tsu Co., Ltd. 4th representative managing agent fl Nori "Kinzengetsu 1 prefecture Sakiyama 1 + b; il IIj 111 middle 101
5th Tomi 1: 496 inside Totsu Co., Ltd.
Claims (1)
≧2)個の固定点の各々に順次位置付け【2、骸ロボッ
トアームの先端を前記固定点に位置付けした状態で骸ロ
ボットアームが複数個の姿勢を放すようにし、駁徐数個
の集勢形成時におけるトロボットアームの各関節部の回
転角t−該各関節部に設けた回転角検出手段で検出し、
該検出角に基イて該ロボットアームの各関節原点を決足
するようにしたことを特徴とするロボットアーム座標法
定法。[Claims] The tip of a robot arm having several joints is
≧2) Sequentially position at each of the fixed points [2. With the tip of the Mukuro robot arm positioned at the fixed point, let the Mukuro robot arm release multiple postures, and form several clusters. Rotation angle t of each joint of the trobot arm at the time - detected by a rotation angle detection means provided at each joint,
A robot arm coordinate law method, characterized in that the origin of each joint of the robot arm is determined based on the detected angle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4377982A JPS58160087A (en) | 1982-03-19 | 1982-03-19 | Method of determining coordinate of robot arm |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4377982A JPS58160087A (en) | 1982-03-19 | 1982-03-19 | Method of determining coordinate of robot arm |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS58160087A true JPS58160087A (en) | 1983-09-22 |
JPH0411340B2 JPH0411340B2 (en) | 1992-02-28 |
Family
ID=12673237
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4377982A Granted JPS58160087A (en) | 1982-03-19 | 1982-03-19 | Method of determining coordinate of robot arm |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS58160087A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5959394A (en) * | 1982-09-29 | 1984-04-05 | 株式会社日立製作所 | Device for estimating error of robot mechanism |
WO1990008016A1 (en) * | 1989-01-23 | 1990-07-26 | Fanuc Ltd | Positioning correction for robots |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS55150985A (en) * | 1979-05-08 | 1980-11-25 | Kawasaki Heavy Ind Ltd | System of controlling industrial robot |
-
1982
- 1982-03-19 JP JP4377982A patent/JPS58160087A/en active Granted
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS55150985A (en) * | 1979-05-08 | 1980-11-25 | Kawasaki Heavy Ind Ltd | System of controlling industrial robot |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5959394A (en) * | 1982-09-29 | 1984-04-05 | 株式会社日立製作所 | Device for estimating error of robot mechanism |
JPH0565318B2 (en) * | 1982-09-29 | 1993-09-17 | Hitachi Ltd | |
WO1990008016A1 (en) * | 1989-01-23 | 1990-07-26 | Fanuc Ltd | Positioning correction for robots |
Also Published As
Publication number | Publication date |
---|---|
JPH0411340B2 (en) | 1992-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA1330363C (en) | Robot system | |
JPH08377B2 (en) | Robot inaccuracy correction method | |
JP2512099B2 (en) | Robot motion teaching method and control device | |
JP2694669B2 (en) | Robot motion control method | |
JPH0553587B2 (en) | ||
Lippiello et al. | A position-based visual impedance control for robot manipulators | |
JP2013049102A (en) | Robot control device and method of determining robot attitude | |
EP4116043A2 (en) | System and method for error correction and compensation for 3d eye-to-hand coordination | |
CN116038647A (en) | Scooter, control method of mechanical arm, electronic equipment and storage medium | |
Mishani et al. | Real-time non-visual shape estimation and robotic dual-arm manipulation control of an elastic wire | |
JPH0413726B2 (en) | ||
CN111604900B (en) | Target parameter detection method suitable for manual operation of manipulator | |
JPS58160087A (en) | Method of determining coordinate of robot arm | |
Lippiello et al. | Robot interaction control using force and vision | |
JPH0639070B2 (en) | Robot device force sensor calibration method | |
JP3160443B2 (en) | Non-contact point teaching device | |
Wei et al. | Multisensory visual servoing by a neural network | |
JPH0727408B2 (en) | Robot handling device with fixed 3D vision | |
JPH0433006A (en) | Control method for robot system | |
JP2011224745A (en) | Robot teaching device and controller for the same, and program | |
JPH0677205B2 (en) | Robot control method | |
JPS62199383A (en) | Control system of robot | |
JPS60217089A (en) | Body gripper | |
Lane et al. | Aspects of the design and development of a subsea dextrous grasping system | |
JP3218553B2 (en) | Robot system control method and device |