JPH0433006A - Control method for robot system - Google Patents

Control method for robot system

Info

Publication number
JPH0433006A
JPH0433006A JP13376990A JP13376990A JPH0433006A JP H0433006 A JPH0433006 A JP H0433006A JP 13376990 A JP13376990 A JP 13376990A JP 13376990 A JP13376990 A JP 13376990A JP H0433006 A JPH0433006 A JP H0433006A
Authority
JP
Japan
Prior art keywords
error
robot
hand
joint position
deflection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP13376990A
Other languages
Japanese (ja)
Inventor
Toshio Ogiso
敏夫 小木曽
Kozakieebuichi Kurisutofuaa
クリストフアー・コザキエ―ヴイチ
Norihisa Miyake
徳久 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP13376990A priority Critical patent/JPH0433006A/en
Publication of JPH0433006A publication Critical patent/JPH0433006A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To improve accuracy for absolutely positioning of the hand of a robot by separately handling the warp error and geometrical error of the robot. CONSTITUTION:The warp error of the hand is calculated on the conditions of respective operational postures and hand operating loads by using a static rigidity diffraction model which can exactly express a relative warp characteristic when changing the hand operating load in each operational posture of a robot 1, and the error is converted to joint positional error. Next, the operational posture/operating load condition is made relative to the joint positional error by approximating a minimum binary polynomial or the like. Then, the warp error is corrected by applying the joint positional error after subtracting it from a joint positional command based on the ideal robot model of infinite static rigidity. Namely, the warp error is handled separately from the geometrical error, and accuracy is improved for identifying the geometrical error. Thus, the accuracy can be improved for absolutely positioning of the hand of the robot.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明はロボット手先の絶対位置決め精度を高めるため
の誤差キャリブレーション工程と誤差補正工程を含むロ
ボットシステムに関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a robot system including an error calibration process and an error correction process for improving the absolute positioning accuracy of a robot hand.

〔従来の技術〕[Conventional technology]

従来、ロボットのキャリブレーション方法としては、特
開昭62−28808号公報に記載のように多数点にお
けるロボットの手先位置誤差よりロボットのアーム長誤
差と関節部数付誤差の2つの幾何学的誤差を連立方程式
を最小二乗法を用いて解くことにより同定し、各関節位
置補正量を求める方法がある。
Conventionally, as a calibration method for a robot, two geometric errors, an error in the arm length of the robot and an error in the number of joints, are calculated from the robot hand position error at multiple points, as described in Japanese Patent Application Laid-Open No. 62-28808. There is a method of identifying each joint position by solving simultaneous equations using the least squares method, and determining the amount of correction for each joint position.

また、川崎重工枝軸98号(1987年)第93頁〜第
102頁に記載のように、ロボットのたわみ誤差、幾何
学的誤差の補正を行い、オフライン教示時の絶対精度向
上を図った例がある。
In addition, as described in Kawasaki Heavy Industries Branch Axis No. 98 (1987), pages 93 to 102, there is an example in which deflection errors and geometric errors of the robot are corrected to improve absolute accuracy during offline teaching. There is.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

上記特開昭62−28808号公報に記載の従来技術は
、ロボットのたわみ誤差が幾何学的誤差と分けて考慮さ
れていないため、たわみ誤差も含む擬似幾何学的誤差に
基づき関節位置補正を行うため、物理現象を正しく表現
していないことにより、ロボット手先の絶対位置決め精
度の向上に限界があるという問題があった。また、幾何
学的誤差同定に当ってロボットの関節位置補正を関節位
置に対してのみ行っているため、手先作用荷重が変化し
た場合にはそのまま適用できないという問題があった。
The conventional technology described in Japanese Patent Application Laid-Open No. 62-28808 does not consider the robot's deflection error separately from the geometric error, so joint position correction is performed based on pseudo-geometric errors that also include the deflection error. Therefore, there was a problem that there was a limit to improving the absolute positioning accuracy of the robot hand because the physical phenomenon was not represented correctly. In addition, since joint position correction of the robot is performed only on the joint positions when identifying geometric errors, there is a problem in that it cannot be applied directly when the load acting on the hand changes.

また、上記川崎重工枝軸98号に記載の従来技術はたわ
み誤差、幾何学的誤差を共に扱っているが、たわみ誤差
としては関節部たわみしか考慮していないため、直接駆
動ロボットのように構造部材のたわみが支配的なロボッ
トには適用できないという問題があり、また、たわみ誤
差を除去したロボット手先位置誤差から幾何学的誤差を
同定していないため、幾何学的誤差の同定精度が十分で
はなく、ロボット手先の絶対精度向上に限界があるとい
う問題がある。
In addition, the conventional technology described in Kawasaki Heavy Industries Branch No. 98 handles both deflection errors and geometric errors, but only the joint deflection is considered as the deflection error, so the structure is similar to that of a direct drive robot. There is a problem that it cannot be applied to robots where the deflection of members is dominant, and the geometric error is not identified from the robot hand position error after removing the deflection error, so the identification accuracy of the geometric error is not sufficient. However, there is a problem that there is a limit to the absolute accuracy improvement of robot hands.

本発明の目的は、ロボットのたわみ誤差と幾何学的誤差
を分離して扱うことにより、ロボット手先の絶対位置決
め精度を高めることにある。
An object of the present invention is to improve the absolute positioning accuracy of a robot's hand by treating the robot's deflection error and geometric error separately.

〔課題を解決するための手段〕[Means to solve the problem]

上記目的を達成するために、本発明のロボットシステム
は、ロボットの各動作姿勢において手先作用荷重変化時
の相対たわみ特性をほぼ正確に表現可能な静剛性解析モ
デルを用いて、各動作姿勢。
In order to achieve the above object, the robot system of the present invention uses a static stiffness analysis model that can almost accurately represent the relative deflection characteristics when the load acting on the hand changes in each operating posture of the robot.

手先作用荷重条件における手先たわみ誤差を求め、それ
を関節位置誤差に変換し、次に、動作姿勢・作用荷重条
件と関節位置誤差を最小二乗多項式近似もしくはニュー
ラルネットワーク学習法により関係付けることにより、
ロボット動作時に関節位置誤差を静剛性無限大のロボッ
ト理想モデルに基づく関節位置指令より減算して与え、
たわみ誤差の補正を行い、たわみ誤差と幾何学的誤差を
分離して扱うことにより、幾何学的誤差同定精度の向上
とその補正を行うことにより、ロボット手先の絶対位置
決め精度の向上を図ったものである。
By determining the hand deflection error under the hand acting load conditions, converting it to a joint position error, and then relating the motion posture/acting load condition and the joint position error using least squares polynomial approximation or neural network learning method,
During robot operation, the joint position error is subtracted from the joint position command based on an ideal robot model with infinite static stiffness, and given.
By correcting deflection errors and treating deflection errors and geometric errors separately, we aim to improve the accuracy of geometric error identification and correct it, thereby improving the absolute positioning accuracy of robot hands. It is.

〔作用〕[Effect]

ロボットはロボット制御装置に各関節位置指令を与える
と、各関節駆動装置に付与する駆動エネルギを演算・出
力し、ロボットの各関節駆動装置に印加することにより
ロボットの関節は駆動され、ロボット手先部は動作範囲
内の所定位置に位置決めされる。
When the robot gives each joint position command to the robot control device, it calculates and outputs the drive energy to be applied to each joint drive device, and by applying it to each joint drive device of the robot, the joints of the robot are driven, and the robot hand section is positioned at a predetermined position within the operating range.

本発明の手段につき、水平多関節ロボットを例にとり第
11図〜第16図を用いて説明する。第11図は水平多
関節ロボットの外観図を示し、第12図は水平多関節ロ
ボットのたわみ特性を示し、第13図は水平多関節ロボ
ットの静剛性解析モデルを示し、第14図は本ロボット
のたわみ誤差補正方式の流れ図を示し、第15図は幾何
学的誤差補正対象ロボットモデルを示し、第16図は幾
何学的誤差とたわみ誤差両者補正方式の流れ図を示して
いる。第11図は1軸駆動モータ22により回転駆動さ
れる第1アーム23と、第1アーム23先端に設けられ
た2軸駆動モータ24により回転駆動される第2アーム
25と5第2アーム25先端に設けられた手先に工具2
6を有する上下方向に駆動される手首軸7とから構成さ
れ、1゜2軸の回転運動及び手首軸の上下方向運動によ
り工具26の位置決めが行われる。ロボットのたわみ誤
差はアーム長誤差等の幾何学的誤差の影響を受けにくい
ことから5それを単独で補正する方式について述べる。
The means of the present invention will be explained using FIGS. 11 to 16, taking a horizontal articulated robot as an example. Figure 11 shows an external view of the horizontal articulated robot, Figure 12 shows the deflection characteristics of the horizontal articulated robot, Figure 13 shows the static stiffness analysis model of the horizontal articulated robot, and Figure 14 shows the robot. FIG. 15 shows a robot model to be corrected for geometric errors, and FIG. 16 shows a flow chart for a method for correcting both geometric errors and deflection errors. FIG. 11 shows a first arm 23 that is rotationally driven by a single-axis drive motor 22, and a second arm 25 that is rotationally driven by a two-axis drive motor 24 provided at the tip of the first arm 23. Tool 2 on the hand installed in
6 and a wrist shaft 7 that is driven in the vertical direction, and the tool 26 is positioned by the 1° biaxial rotational movement and the vertical movement of the wrist shaft. Since the robot's deflection error is not easily affected by geometric errors such as arm length error, we will discuss a method for correcting it alone.

ロボットのたわみ誤差を第12図に示すロボットのスケ
ルトンモデルを用いて説明する。ロボットの静剛性無限
大時の理想モデルを図中実線で示し、ロボットの有限な
静剛性に起因するたわみを有する実際のモデルを図中破
線で示した。これから、理想モデルでは手先位置はA点
であるのに対し1、実際のモデルではB点となり、図中
X+ V+ Z方向にΔX、Δy、Δ2のたわみ誤差を
生じ、理想モデルに基づく各関節位置指令では、たわみ
による手先位置決め誤差を生ずる。
The deflection error of the robot will be explained using the robot skeleton model shown in FIG. An ideal model when the static stiffness of the robot is infinite is shown by a solid line in the figure, and an actual model with deflection due to the finite static stiffness of the robot is shown by a broken line in the figure. From this, in the ideal model, the hand position is point A, whereas in the actual model it is point B, which causes deflection errors of ΔX, Δy, and Δ2 in the X+V+Z directions in the figure, and the position of each joint based on the ideal model. Commands cause hand positioning errors due to deflection.

これはロボット各部材及び連結部材の有限な静剛性に起
因するものであり、ロボット姿勢角θ2、工具把持物体
重量等により著しく変化する特性を有する。このたわみ
誤差の計算に当っては、有限要素モデルを作成し、計算
するのが通常用いられる手法であるが、ロボットのたわ
み誤差補正をロボット教示システム中で行うという観点
では、使用メモリ容量・演算時間の低減を図る必要があ
り、計算モデルの簡素化を図る必要がある。ここでは第
13図に示すようにロボットを5ケの部分構造■〜■に
分け、各部分構造端点[1〜05に荷重が作用すること
により各部分構造iについての根元側端点固定時の静間
性行列[K1]を用いて両端点の作用荷重の差から(3
)式により各部分構造iのたわみ誤差を求めることがで
きる。
This is due to the finite static rigidity of each robot member and connecting member, and has characteristics that vary significantly depending on the robot posture angle θ2, the weight of the tool gripped object, etc. The usual method for calculating this deflection error is to create a finite element model and calculate it, but from the perspective of correcting the robot's deflection error in the robot teaching system, it is important to It is necessary to reduce the time required, and it is necessary to simplify the calculation model. Here, as shown in Fig. 13, the robot is divided into five partial structures ■ to ■, and by applying a load to each partial structure end point [1 to 05] Using the gender matrix [K1], we calculate (3
) can determine the deflection error of each partial structure i.

cdxaydzδ8δツδ2コT=[Ktl−’[Fx
、  Fyt  Fz、  Mxt  Myt  Mz
lT・・・(3) 各部分構造iの同次変換行列−IAtは(4)式で示さ
れる。
cdxaydzδ8δTSδ2koT=[Ktl-'[Fx
, Fyt Fz, Mxt Myt Mz
lT (3) The homogeneous transformation matrix -IAt of each substructure i is expressed by equation (4).

・・・(4) この時のロボット手先位置OT6は(5)式で示される
(4) The robot hand position OT6 at this time is expressed by equation (5).

’Ts=’At ”Az ”As ’Aa ’As  
  −(5)これから、へ行列で各関節位置姿勢誤差d
 xttd ffi ? d Zl t δ84.δ、
1.δzi=oとした時の理想モデルの同次変換行列i
″″IAτより生成される(6)式で示される理想モデ
ルに基づくロボット手先位置0Ttとの差へ〇Tl5(
式(7))の第4列成分より各方向手先位置誤差ΔX、
Δy、Δ2が求められる。
'Ts='At "Az"As 'Aa 'As
−(5) From this, each joint position/posture error d in the matrix
xttd ffi? d Zl t δ84. δ,
1. Homogeneous transformation matrix i of the ideal model when δzi=o
〇Tl5(
From the fourth column component of equation (7)), the hand position error ΔX in each direction,
Δy and Δ2 are determined.

’T S=’Aフ72A”33A”4 ’A”6   
 ・・・(6)Δ0Ts=0TIl−OTS     
       ・・・(7)本結果により求まるΔX、
Δy、Δ2は各関節位置誤差Δθ工、Δθ2.Δd3に
変換され、各関節位置指令θi 、θ2  θ3 を式
(8)のように与えることにより手先位置決め誤差が補
償され、絶対位置決め精度が著しく高められる。
'T S='Afu72A"33A"4 'A"6
...(6)Δ0Ts=0TIl-OTS
...(7) ΔX found from this result,
Δy, Δ2 are each joint position error Δθ, Δθ2. By giving each joint position command θi, θ2 θ3 as shown in equation (8), the hand positioning error is compensated and the absolute positioning accuracy is significantly improved.

81′=01−Δθi,02′=θ2−Δθ2.θs’
=ds−Δd3・・・(8) 第14図にたわみ誤差補正の流れ図を示した。
81'=01-Δθi, 02'=θ2-Δθ2. θs'
=ds−Δd3 (8) FIG. 14 shows a flowchart of deflection error correction.

ステップして手先教示位置9作用荷重条件が与えられる
と、ステップ2で前記の手法で手先のたわみ誤差が算出
される0手先のたわみ誤差はステップ3で関節位置誤差
に変換され、ステップ4で式(8)に基づき関節位置指
令補正が行われロボット制御装置に入力することにより
、ロボット各関節駆動装置の駆動エネルギが演算・出力
され、ロボットが駆動される。
Stepping and hand teaching position 9 When the applied load conditions are given, the deflection error of the hand is calculated using the method described above in step 2. The deflection error of the 0 hand is converted to a joint position error in step 3, and in step 4 the equation is By correcting the joint position command based on (8) and inputting it to the robot control device, the drive energy of each joint drive device of the robot is calculated and output, and the robot is driven.

またステップ2,3は、各関節位置誤差をロボット手先
教示装置における各関節位置及び手先作用荷重に対して
あらかじめ計算した結果に基づき最小二乗多項式近似を
行う、もしくはニューラルネットワーク学習法を適用す
ることにより1ステツプで行うことが可能にできる。
In addition, in steps 2 and 3, each joint position error is calculated by performing least squares polynomial approximation based on the results of pre-calculation for each joint position and hand action load in the robot hand teaching device, or by applying a neural network learning method. This can be done in one step.

次に、ロボットのアーム長誤差、エンコーダ原点オフセ
ット誤差、ロボット設置誤差等の幾何学的誤差とたわみ
誤差を共に補正する方式について第15図、第16図を
用いて述べる。ロボットの動作範囲内のキャリブレーシ
ョン位置・作用荷重条件が決定され(ステップ1)、ロ
ボットの動作範囲内のある点qにおける手先の位置決め
誤差ΔX(q)、ΔY(q)、Az(1)が測定され(
第16図ステップ2)、その時のロボットの動作姿勢及
び手先作用荷重から前述の静剛性解析モデルにより手先
のたわみ誤差ΔXdez(q)、ΔYiet(q)。
Next, a method for correcting both geometric errors such as robot arm length error, encoder origin offset error, and robot installation error as well as deflection error will be described using FIGS. 15 and 16. The calibration position and applied load conditions within the robot's motion range are determined (step 1), and the hand positioning errors ΔX(q), ΔY(q), and Az(1) at a certain point q within the robot's motion range are determined. measured (
Step 2) in FIG. 16, the deflection errors ΔXdez(q) and ΔYiet(q) of the hand are calculated from the above-mentioned static stiffness analysis model based on the robot's operating posture and the load acting on the hand at that time.

ΔZ−exCq)が算出される(ステップ3)と、ロボ
ットの幾何学的誤差に起因する手先の位置決め誤差へX
geo(q)、ΔYieo(q)、ΔZgeo(q)は
式(9)で求められる(ステップ4)。
When ΔZ-exCq) is calculated (step 3), the positioning error of the hand due to the geometrical error of the robot is
geo(q), ΔYieo(q), and ΔZgeo(q) are obtained using equation (9) (step 4).

ΔXgeo(q)=Δx(q)−ΔX1ez(q)ΔY
geo(q)=ΔY(1)−ΔYiei(q)ΔZ0゜
(1)=Δz(q)−ΔZae1(q)   ・=(9
)この値を用いて幾何学的誤差を同定する。ここでは、
第15図に示したロボットのスケルトンモデルにおける
長さal、a2.Ql、122.Q8の誤差及び関節位
置θi.θ2.daの関節位置検出器原点オフセット誤
差Δal、ΔFIZvΔQl、ΔQz。
ΔXgeo(q)=Δx(q)−ΔX1ez(q)ΔY
geo(q)=ΔY(1)−ΔYiei(q)ΔZ0゜(1)=Δz(q)−ΔZae1(q) ・=(9
) This value is used to identify geometric errors. here,
The lengths al, a2. in the skeleton model of the robot shown in FIG. Ql, 122. Q8 error and joint position θi. θ2. da's joint position detector origin offset errors Δal, ΔFIZvΔQl, ΔQz.

Δ28.Δθi.Δθ2.Δdaと節点回における各方
向の設置誤差ΔX、Δy、Δ2を扱う。この場合、幾何
学的誤差に起因する同次変換行列’ −IA を及び手
先位置誤差ΔOT5は式(10)、 (11)で示され
る。
Δ28. Δθi. Δθ2. Δda and the installation errors ΔX, Δy, and Δ2 in each direction at the nodal point are handled. In this case, the homogeneous transformation matrix ' -IA due to the geometric error and the hand position error ΔOT5 are expressed by equations (10) and (11).

Δ’T5=’A1 lAx ”AS 3A4 ’A11
−(OAt ’AX 2A3 ”A4 ’AりΔ=O・
・・(11) 式(11)において右辺第2項は式(10)において幾
何学的誤差項が全て零である場合を示している。
Δ'T5='A1 lAx "AS 3A4 'A11
-(OAt 'AX 2A3 "A4 'AriΔ=O・
(11) In equation (11), the second term on the right side indicates the case where all the geometric error terms in equation (10) are zero.

式(11)を計算すると手先位置誤差につき、式(12
)で示される方程式が立てられる。
When formula (11) is calculated, formula (12) is calculated for the hand position error.
) is established.

ΔXgeO=CO8θiΔat+cos(θl+02)
Δaz−a1sirlθiΔθi−aZs釦(θ工+θ
z)(Δθ工+Δθ2)+ΔXΔYgeo=sinθi
Δax+5in(θi+02)Δa2+a tcosθ
iΔθi+ a2JOA8 (θi+02)(Δθi+
Δθ2)+ΔyΔZgeo=Δ2+ΔQ1+ΔQ2+Δ
d3−Δ12s     −(12)これから、2方向
については各誤差を分離することはできないがX方向、
X方向については3ヶ以上の点について実測データを得
ることにより6ケ以上の連立方程式が得られ、幾何学的
誤差Δal、Δa2.Δθi.Δθ2.ΔX、Δyを求
めることができる(ステップ5)。以上のデータに基づ
き、ロボット手先教示装置(x、y、z)を式(13)
のように補正することにより設置誤差、2方向寸法誤差
は補正され、 x’  =x−Δ X Y’  =Y−Δy z’=z−Δz sea              
 ・−(13)アーム長誤差Δa1.Δa2及び関節位
置検出器原点オフセット誤差Δθi.Δθ2を考慮した
逆運動学に基づく教示位置(X’ 、Y’ 、Z’ )
の関節位il (θi.θz、d8)への変換を行うこ
とにより幾何学的誤差の補正された関節位置指令生成が
行われる(ステップ6)。この結果をもとに前述のたわ
み誤差補正(式(8)参照)を行う(ステップ7)こと
によりロボット手先の幾何学的誤差及びたわみ誤差に起
因する誤差が除去され、関節位置決め最小分解能に対応
するロボット手先の絶対位置決め精度を得ることが可能
になる。
ΔXgeO=CO8θiΔat+cos(θl+02)
Δaz-a1sirlθiΔθi-aZs button (θ engineering + θ
z) (Δθ engineering + Δθ2) + ΔXΔYgeo=sinθi
Δax+5in(θi+02)Δa2+a tcosθ
iΔθi+ a2JOA8 (θi+02) (Δθi+
Δθ2)+ΔyΔZgeo=Δ2+ΔQ1+ΔQ2+Δ
d3−Δ12s−(12) From this, it is not possible to separate each error in the two directions, but in the X direction,
In the X direction, by obtaining measured data for three or more points, six or more simultaneous equations can be obtained, and geometric errors Δal, Δa2. Δθi. Δθ2. ΔX and Δy can be determined (step 5). Based on the above data, the robot hand teaching device (x, y, z) is calculated using the formula (13)
Installation errors and two-direction dimensional errors are corrected by correcting as follows: x' = x - Δ X Y' = Y - Δy z' = z - Δz sea
-(13) Arm length error Δa1. Δa2 and joint position detector origin offset error Δθi. Teaching position (X', Y', Z') based on inverse kinematics considering Δθ2
By converting to the joint position il (θi.θz, d8), a joint position command with geometrical errors corrected is generated (step 6). Based on this result, the above-mentioned deflection error correction (see equation (8)) is performed (step 7) to remove errors caused by geometric errors and deflection errors of the robot hand, and to correspond to the minimum joint positioning resolution. This makes it possible to obtain absolute positioning accuracy for the robot hand.

〔実施例〕〔Example〕

以下、本発明の第1の実施例を第1図〜第7図及び第1
3図、第14図、及び第17図を用いて説明する。第1
図は本発明のロボットシステムの外観を示し、第2図は
第1図のキャリブレーション装置の詳細を示し、第3図
は第1図のロボットのスケルトンモデルを示し、第4図
、第5図、第6図は、各々第3図のロボットの手先のX
方向。
The first embodiment of the present invention will be described below with reference to FIGS. 1 to 7 and 1.
This will be explained using FIG. 3, FIG. 14, and FIG. 17. 1st
The figures show the external appearance of the robot system of the present invention, Fig. 2 shows details of the calibration device shown in Fig. 1, Fig. 3 shows a skeleton model of the robot shown in Fig. 1, and Figs. , FIG. 6 shows the X of the robot's hand in FIG. 3, respectively.
direction.

y方向、2方向の相対たわみ量の動作姿勢角9手先負荷
との関係を示し、第7図は第1図のロボットの有限要素
モデルを示し、第17図はたわみ誤差補正ステップ3を
詳細に示したたわみ誤差補正の流れ図を示している。本
発明のロボットシステムはオフライン教示に好適で、た
わみ誤差をロボット全体の静剛性解析モデルに基づき補
正した点に特徴がある。本実施例では、上記のたわみ誤
差補正方式を有するロボットシステムについて述べる。
Figure 7 shows the finite element model of the robot in Figure 1, and Figure 17 details the deflection error correction step 3. 2 shows a flowchart of the deflection error correction shown in FIG. The robot system of the present invention is suitable for off-line teaching, and is characterized in that deflection errors are corrected based on a static stiffness analysis model of the entire robot. In this embodiment, a robot system having the above-mentioned deflection error correction method will be described.

第1図は本ロボットシステムの全体構成を示しており、
作業者3はコンピュータ4にロボットの理想モデル(静
剛性無限大モデル)に基づく位置指令を入力し、ロボッ
ト制御装置2に送信する。
Figure 1 shows the overall configuration of this robot system.
The worker 3 inputs a position command based on an ideal model of the robot (infinite static rigidity model) into the computer 4 and transmits it to the robot control device 2 .

ロボット制御装置2はロボット各関節の現在位置を各関
節位置検出器より検出し、前記位置指令を関節位置指令
に変換したものと位置偏差に基づき各関節駆動装置の駆
動力指令(例えばモータトルク指令)を生成し、増幅部
を介して各関節駆動エネルギをロボットに供給する。ロ
ボットは各関節が回転駆動されることにより手首軸先端
を目標位置近傍に各関節位置検出器分解能対応位置誤差
範囲内で位置決めされる。第14図にたわみ誤差補正の
流れ図を示した。ロボット手先の教示位置。
The robot control device 2 detects the current position of each joint of the robot from each joint position detector, and converts the position command into a joint position command and generates a driving force command (for example, a motor torque command) for each joint drive device based on the position deviation. ) and supplies each joint drive energy to the robot via the amplifier. By rotationally driving each joint of the robot, the tip of the wrist axis is positioned near the target position within a position error range corresponding to the resolution of each joint position detector. FIG. 14 shows a flowchart of deflection error correction. Teach position of robot hand.

作用荷重条件が与えられる(ステップ1)と、静間性モ
デルに基づき手先たわみ誤差が算出され(ステップ2)
、関節たわみ誤差に変換され(ステップ3)、修正関節
位置指令が生成される。ここで静剛性解析モデルを用い
て手先たわみ誤差を求めるステップ(ステップ2)につ
いて述べる。
When the applied load conditions are given (step 1), the hand deflection error is calculated based on the static model (step 2).
, is converted into a joint deflection error (step 3), and a corrected joint position command is generated. Here, the step (step 2) of determining the hand deflection error using the static stiffness analysis model will be described.

ロボットの手先の絶対たわみ誤差は無重力場における手
先たわみデータとの比較以外に正確に実測する方法は無
い。ここでは、手先負荷装着時の手先無負荷時(手先微
小負荷時)の手先たわみ誤差との差(手先相対たわみ誤
差と呼ぶ)を測定することにより、あらかじめロボット
の図面に基づき作成された有限要素モデル計算値の妥当
性を確認し、有限要素モデルに基づきあらゆる動作姿勢
There is no way to accurately measure the absolute deflection error of a robot's hand other than comparing it with hand deflection data in a zero-gravity field. Here, by measuring the difference in hand deflection error (referred to as hand relative deflection error) when the hand is attached with a hand load and when the hand is unloaded (when the hand is under a small load), a finite element created in advance based on the robot drawing is used. Check the validity of model calculations and perform all motion postures based on the finite element model.

手先負荷条件における手先絶対たわみ誤差を算出する方
式を用いた。手先相対たわみ量を測定するキャリブレー
ション装置5が、ロボット手先及び作業台6上に設けら
れており、キャリブレーション装[5の変位検出データ
がA/D変換されてコンピュータに取り込まれ、データ
処理が行われる。
A method was used to calculate the absolute hand deflection error under hand load conditions. A calibration device 5 for measuring the relative deflection of the hand is provided on the robot hand and the workbench 6, and the displacement detection data of the calibration device [5 is A/D converted and taken into the computer, and data processing is performed. It will be done.

キャリブレーション装置5の詳細を第2図を用いて説明
する。ロボット手先の手首軸7には微小重量おもり8が
結合されている。微小重量おもり8に着脱可能おもり9
を着脱することにより手先作用荷重を変えることが可能
である。手首軸7の鉛直方向(Z方向)たわみを測定す
るため、ギャップセンサ11(例えば渦電流式センサ)
と手首軸7に装着されたセンサターゲット10(例えば
アルミはく製)が鉛直方向に対向配置されている。
The details of the calibration device 5 will be explained using FIG. 2. A minute weight 8 is coupled to the wrist shaft 7 of the robot hand. Weight 9 that can be attached and detached to minute weight 8
It is possible to change the load acting on the hand by attaching and detaching. In order to measure the vertical direction (Z direction) deflection of the wrist shaft 7, a gap sensor 11 (for example, an eddy current sensor) is used.
and a sensor target 10 (made of aluminum foil, for example) mounted on the wrist shaft 7 are arranged to face each other in the vertical direction.

ギャップセンサ11はマグネットスタンド12により取
付台6に固定されており、その出力を検出することによ
り、おもり重量可変時の鉛直方向の相対たわみ量を測定
することが可能である。ギャップセンサ11はセンサア
ンプ13.A/D変換器14を介して、コンピュータ4
と接続することにより、コンピュータによるデータ受信
並びにデータ処理を可能とする構成となっている。ここ
で、データ処理とは、例えば相対たわみ誤差とロボット
の動作姿勢角2手先作用荷重の関係をCRT上に作画す
るといった処理を指す。第1図に示したロボットの動作
姿勢角θ2、手先作用荷重F2及び座標系を第3図に示
した。図中ΔX、Δy。
The gap sensor 11 is fixed to the mounting base 6 by a magnetic stand 12, and by detecting its output, it is possible to measure the relative deflection in the vertical direction when the weight of the weight is varied. The gap sensor 11 is connected to a sensor amplifier 13. The computer 4 via the A/D converter 14
By connecting to the computer, the computer can receive and process data. Here, the data processing refers to, for example, a process of plotting the relationship between the relative deflection error and the load acting on the two hands at the robot's motion posture angle on a CRT. FIG. 3 shows the operating posture angle θ2, the load acting on the hand F2, and the coordinate system of the robot shown in FIG. In the figure, ΔX, Δy.

Δ2は、各々、手先における正方向のたわみ(実際は負
の量のものもある)を示している。第2図のキャリブレ
ーション装置を第1アーム長400(■)、第2アーム
長300(nu)の水平長関節形直接駆動ロボットに適
用した場合の各方向相対たわみ量測定結果例を第4図、
第5図、及び第6図に示した。図中手先作用荷重69N
は1本ロボットの量大可搬重量に対応している。これか
ら、ロボットの各方向相対たわみ量は、ロボットの動作
姿勢角θ29手先作用荷重F2により大きく変化するこ
とがわかる。本ロボットの有限要素モデルを第7図に示
した。本モデルは、ロボットの構造部材は殻要素、軸受
・ベルト等動力伝達部材はばね要素、軸部材は梁要素に
よりモデル化し、ふた、手首軸駆動モータ等は集中作用
荷重として与えることによりモデル化している。本モデ
ルにより求めた相対たわみ特性は第4図〜第6@に示し
た実測結果とほぼ一致した。しかるに1本モデルの計算
にはコンピュータの膨大なメモリ容量と演算時間を要す
るため、第1図に示したオフライン教示用コンピュータ
4に搭載するのには実用的とは言えない。そこで、本ロ
ボットモデルを第13図に示すような5ブロツクの部分
構造よりなる簡略モデルに置換した。本置換に当っては
、第7図有限要素モデルから各部分構造対応部の静間性
行列(6x6)を求めることにより、各部分構造端部の
作用荷重、モーメントに基づき、各部分構造の各方向た
わみ量を求め、各部分構造の同次変換行列に変位成分と
して入れることにより、式(4)〜(7)により手先た
わみ誤差を求める方法を用いた。
Δ2 each represents a deflection in the positive direction at the tip of the hand (actually, there is also a negative amount). Figure 4 shows an example of the relative deflection measurement results in each direction when the calibration device in Figure 2 is applied to a horizontally long jointed direct drive robot with a first arm length of 400 (■) and a second arm length of 300 (nu). ,
It is shown in FIGS. 5 and 6. In the figure, the load acting on the hand is 69N.
corresponds to the large payload capacity of one robot. From this, it can be seen that the amount of relative deflection of the robot in each direction changes greatly depending on the robot's operating posture angle θ29 and the load acting on the hand F2. The finite element model of this robot is shown in Figure 7. In this model, the structural members of the robot are modeled as shell elements, the power transmission members such as bearings and belts are modeled as spring elements, and the shaft members are modeled as beam elements.The lid, wrist shaft drive motor, etc. are modeled by applying them as concentrated loads. There is. The relative deflection characteristics determined by this model almost matched the actual measurement results shown in Figures 4 to 6@. However, since calculation of one model requires a huge amount of computer memory capacity and calculation time, it is not practical to install it in the offline teaching computer 4 shown in FIG. Therefore, this robot model was replaced with a simplified model consisting of a partial structure of five blocks as shown in FIG. In this replacement, the staticity matrix (6x6) of each substructure corresponding part is determined from the finite element model in Figure 7, and the direction of each substructure is calculated based on the acting load and moment at the end of each substructure. A method of determining the hand deflection error using equations (4) to (7) was used by determining the amount of deflection and entering it as a displacement component in the homogeneous transformation matrix of each partial structure.

この簡略モデルを用いて求めた相対たわみ特性は第4図
〜第6図に示した実測結果とほぼ一致した。
The relative deflection characteristics obtained using this simplified model almost matched the actual measurement results shown in FIGS. 4 to 6.

次に、手先たわみ誤差を各関節位置指令を補正すること
により補正するための各関節位置誤差を求める方法(第
14図のステップ3)について述べる。ロボットの手先
位置誤差(ΔX、Δy。
Next, a method (step 3 in FIG. 14) for determining each joint position error for correcting the hand deflection error by correcting each joint position command will be described. Robot hand position error (ΔX, Δy.

Δ2)を関節位置誤差(Δθi.Δθ2.Δda)に変
換する方法としては式(14)に示すように逆ヤコビ行
列J−1を用いて求める方式が知られている。
A known method for converting Δ2) into a joint position error (Δθi.Δθ2.Δda) is to use an inverse Jacobian matrix J-1 as shown in equation (14).

(ΔX、Δy、ΔZ)”=J−1(Δθ工、Δθ2.Δ
d 3)T−(14)この場合、理想モデルに基づくと
、(xt y +2)と(θi.θz、da)は式(1
5)で関係づけられ、逆ヤコビ行列の分母となるヤコビ
行列式IJIは式(16)で示される。ここでPは手首
上下軸駆動モータの回転変位θ3をボールネジを介して
2方向直動変位d8に変換する場合のポールネジピッチ
を示しており、上下軸の位置指令はθ8として与えるこ
とから、ここではθ8を用いて表現する。
(ΔX, Δy, ΔZ)” = J-1 (Δθ engineering, Δθ2.Δ
d 3) T-(14) In this case, based on the ideal model, (xt y +2) and (θi.θz, da) are expressed as equation (1
The Jacobian determinant IJI, which is related by 5) and is the denominator of the inverse Jacobian matrix, is shown by equation (16). Here, P indicates the pole screw pitch when converting the rotational displacement θ3 of the wrist vertical axis drive motor into a two-direction linear displacement d8 via the ball screw, and since the position command for the vertical axis is given as θ8, here Expressed using θ8.

x = a xcosθi+ a zcos(θi+θ
2)y = a 1sinθl+ a zsin(θi
+02)2■ これから02=Oではロボットは特異姿勢となり逆ヤコ
ビ行列を求めることができないことがわかる。また、こ
れは、特異姿勢近傍では関節位置指令補正により手先位
置誤差補正を行うことができないことを示しており、特
異姿勢近傍で位置補正を行うには、手先にマイクロマニ
プレータを設け、冗長自由度を付与し、特異姿勢回避を
行うことが必要となる。ここでは、特異姿勢の極めて近
傍の関節位置補正を行うのみで位置補正不可能な位置で
行う作業は考慮しない。しかるに特異姿勢からやや離れ
た位置における位置補正精度を高めるために、逆運動学
を用いた位置補正方式を用いた。本方式は、たわみ誤差
(Δ1det+Δ’/aex。
x = a xcosθi+ azcos(θi+θ
2) y = a 1sinθl+a zsin(θi
+02)2■ It can be seen from this that at 02=O, the robot is in a singular posture and the inverse Jacobian matrix cannot be determined. This also indicates that it is not possible to correct the hand position error by joint position command correction near the singular posture.In order to correct the position near the singular posture, a micromanipulator is installed at the hand, and a redundant degree of freedom is required. It is necessary to apply this and avoid singular postures. Here, we only perform joint position correction in the very vicinity of the singular posture, and do not consider operations performed at positions where position correction is not possible. However, in order to improve the accuracy of position correction at positions slightly distant from the singular posture, we used a position correction method using inverse kinematics. This method has a deflection error (Δ1det+Δ'/aex).

Δz tez)を含む式(17)で示される実際の教示
位置(X’ 、Y’ 、Z’ )より式(18)で示す
逆運動学式に基づき、関節位置(θi  θ2 08′
)を求め、関節位置誤差(Δθi.Δθ2.Δθ3)を
式(19)を用いて求めるものである。
Based on the inverse kinematics equation shown in equation (18), the joint position (θi θ2 08'
), and the joint position error (Δθi.Δθ2.Δθ3) is determined using equation (19).

x’ =x+八Xへex Y’ =Y十ΔYdez z’=z+ΔZ dex ・・・(17) θx’ =ATAN2(azsinθ2Y’ +(at
+a2cosθ2)X′(a z+ a 2CO8θ2
)Y’−a2.51nθ2X′)H θa   =Z J ・・・(18) Δ θi=01′ −01 Δ θ2=02′ −02 このように求めることにより、特異姿勢近傍でも安定し
た関節位置誤差の算出が可能になる。
x' = x + 8 to
+a2cosθ2)X'(a z+ a 2CO8θ2
)Y'-a2.51nθ2X')H θa =Z J (18) Δ θi=01' -01 Δ θ2=02' -02 By calculating in this way, stable joint position errors can be obtained even near singular postures. becomes possible to calculate.

第17図に、たわみ誤差補正のステップ3をロボットの
動作姿勢角θ2の値により異なる作業手順をとる場合の
たわみ誤差補正の流れ図を示した。
FIG. 17 shows a flowchart of the deflection error correction in the case where step 3 of the deflection error correction takes different work procedures depending on the value of the robot's operating attitude angle θ2.

ここで、ロボットが特異姿勢から離れた動作姿勢にある
場合は演算の容易さから逆ヤコビ行列を用いる方式とし
た。ステップ4は、ステップ3により求められた関節位
置誤差を用いて、式(20)に示す修正関節位置指令(
θi  θ2  θ8′)を生成し、指令として与える
ことにより位置補正を行うステップを示し、本ステップ
を実行することにより、ロボット手先で高い絶対位置決
め精度を得ることが可能となる。
Here, when the robot is in an operating posture far from the singular posture, we decided to use the inverse Jacobian matrix for ease of calculation. Step 4 uses the joint position error obtained in step 3 to create a corrected joint position command (
θi θ2 θ8') is generated and given as a command to correct the position. By executing this step, it becomes possible to obtain high absolute positioning accuracy at the robot hand.

01′=01−Δθi 02′=02−Δθ2 08′=03−Δθ8         ・・・(20
)本方式は、手先作用荷重が他方向の並進荷重である場
合、モーメント荷重である場合、並進荷重・モーメント
荷重両方作用する場合にも静剛性解析モデルによりたわ
み誤差算出可能であり、適用できる。
01'=01-Δθi 02'=02-Δθ2 08'=03-Δθ8...(20
) This method can be applied to cases where the load acting on the hand is a translational load in the other direction, a moment load, or when both a translational load and a moment load are applied, as it is possible to calculate the deflection error using a static stiffness analysis model.

次に、本発明の第2の実施例を第8図〜第10図、及び
第18図を用いて説明する。本実施例は、第14図に示
したたわみ誤差補正の流れ図におけるステップ2,3を
1ステツプ化することによりたわみ誤差補正演算時間を
短縮させる方式について述べるものである。第8図は、
ロボットの動作エリアを示し、第9図はロボットの関節
位置誤差と関節位置・手先作用荷重を多項式近似により
関係づける場合の内挿点における位置近似誤差の標準補
差と多項式項数の関係を示し、第10図はロボットの関
節位置誤差と関節位置・手先作用荷重をニューラルネッ
トワーク学習法により関係づける場合のブロック図を示
し、第18図は1本実施例のたわみ誤差補正の流れ図を
示している。
Next, a second embodiment of the present invention will be described using FIGS. 8 to 10 and FIG. 18. This embodiment describes a method for shortening the calculation time for deflection error correction by converting steps 2 and 3 in the flowchart of deflection error correction shown in FIG. 14 into one step. Figure 8 shows
The operating area of the robot is shown, and FIG. 9 shows the relationship between the standard interpolation of the position approximation error at the interpolation point and the number of polynomial terms when the joint position error of the robot and the joint position/hand action load are related by polynomial approximation. FIG. 10 shows a block diagram when the joint position error of the robot and the joint position/hand action load are related by the neural network learning method, and FIG. 18 shows a flowchart of deflection error correction in this embodiment.

本実施例のたわみ誤差補正方法を第18図を用いて説明
する。第1の実施例で述べた第14図の流れ図と比較す
ると、ステップ2,3が1ステツプ化されているため、
たわみ誤差補正の全ステップ所要時間が低減できる。し
かるにこれは、第1の実施例で述べた実測結果と合致す
る特性解析の可能な静剛性解析モデルを用いて種々の動
作姿勢。
The deflection error correction method of this embodiment will be explained using FIG. 18. Compared to the flowchart in FIG. 14 described in the first embodiment, steps 2 and 3 are combined into one step, so
The time required for all steps of deflection error correction can be reduced. However, this method uses a static stiffness analysis model that can perform characteristic analysis that matches the actual measurement results described in the first embodiment to perform various motion postures.

手先作用荷重につきあらかじめ計算した結果をもとに1
ステツプ化したため、未知のロボットに適用する場合に
は、第1の実施例で述べたステップ2.3をあらかじめ
行うことなくして1ステツプ化することはできない。
1 based on the results calculated in advance for the hand action load.
Since it is divided into steps, when applying it to an unknown robot, it is not possible to convert it into one step without first performing step 2.3 described in the first embodiment.

関節位置誤差と関節位置2手先作用荷重を多項式近似に
より関係づける例を第8図、第9図を用いて説明する。
An example in which the joint position error and the joint position 2 hand action load are related by polynomial approximation will be explained using FIGS. 8 and 9.

i軸の関節位置誤差Δθiと関節位置θi.・・、θ。i-axis joint position error Δθi and joint position θi. ..., θ.

、手先作用並進荷重Fl、・・・Fl、手先作用モーメ
ント荷重M 1 、・・・、Msは一般に式(21)に
示す多項式で関係づけられる。
, the translational loads acting on the hand Fl, . . . Fl, and the moment loads acting on the hand M 1 , .

Δθr=L(θi.・・・、θ。、F、、・・・l F
Mt Mlt・・・2M5)八そ=Σ(f、(θt(q
)t ”’tθn(q)、 Ft(J、−、Fll(q
)t Mt(q)。
Δθr=L(θi...., θ., F,...l F
Mt Mlt...2M5) Yaso=Σ(f, (θt(q
)t ”'tθn(q), Ft(J,-,Fll(q
)t Mt(q).

q:1 −. Ms(q))−Δθt(q)F        
    −(22)式(22)中、添字qは、教示点q
におけるデータであることを示している。多項式の項数
決定に当っては、ロボット動作エリア内でランダムに抽
出した点(関節位置θ、)につき、任意の手先作用荷重
F+9M+を与えた(このデータをテストデータと呼ぶ
)ときの式(23)に基づく多項式近似誤差Eの標準標
差σが最小となる項数を用いた。ここでは代表点υとし
、iは軸翫を示す。
q:1 -. Ms(q))−Δθt(q)F
-(22) In formula (22), the subscript q is the teaching point q
This indicates that the data is from . When determining the number of terms in the polynomial, the equation ( The number of terms that minimized the standard deviation σ of the polynomial approximation error E based on 23) was used. Here, the representative point υ is used, and i indicates the axis.

i t(u)=l f l(θt(t+)、 ’−、θ
n(u)、 Fz(υ)、 −、F、(a)。
i t(u)=l f l(θt(t+), '-, θ
n(u), Fz(υ), −, F, (a).

ML(υ)、・・・、MS(υ))−Δθi(υ)本多
項式の係数決定に当っては、ロボット動作エリア内を例
えば格子状に仕切った時のr個の交点のΔθi.θt、
 Flg Mtのデータ(教示データと呼ぶ)から最小
二乗法に基づき式(22)のΔ予を最小とするように決
定する方法が考えられる。
ML (υ), ..., MS (υ)) - Δθi (υ) In determining the coefficients of this polynomial, Δθi. θt,
One possible method is to minimize Δpre in equation (22) based on the least squares method from the data of Flg Mt (referred to as teaching data).

ここでは、第8図に示すロボットの可動範囲中において
、種々の性能評価に用いられる標準作業エリアを包含す
る多項式近似計算エリアにつき、関節数311手先用荷
重1 (Z方向並進荷重)の場合につき、教示データ数
367、テストデータ数100として計算を行った。こ
のような近似計算領域の設定を行ったのは、計算領域端
部で多項式近似精度が低下するため、標準作業エリアに
おける多項式近似精度を高くとるためである。その結果
、標準偏差と多項式項数の関係は第9図に示す結果とな
り、多項式項数25で標準偏差が最小となったことから
、これが最良の多項式項数と考えられる。この多項式項
数につき、第18図のたわみ誤差補正の全ステップを行
った場合と補正無の場合の各軸位置検出器分解能無限小
の場合のテストデータのたわみ誤差補正精度を計算した
ところ、表19表2の結果となり、本補正によりほぼ各
軸位置検出器分解能(表3参照)以下のたわみ誤差補正
精度が得られたことから、各軸位置検出器分解能相当の
たわみ誤差補正精度が得られることが明らかとなった。
Here, in the movable range of the robot shown in Figure 8, the polynomial approximation calculation area that includes the standard work area used for various performance evaluations is calculated in the case of 311 joints and 1 hand load (Z-direction translational load). The calculation was performed assuming that the number of teaching data was 367 and the number of test data was 100. The reason for setting the approximate calculation area in this way is to increase the accuracy of polynomial approximation in the standard work area, since the accuracy of polynomial approximation decreases at the edges of the calculation area. As a result, the relationship between the standard deviation and the number of polynomial terms was as shown in FIG. 9, and since the standard deviation was the minimum when the number of polynomial terms was 25, this is considered to be the best number of polynomial terms. For this number of polynomial terms, we calculated the deflection error correction accuracy of the test data when all steps of deflection error correction shown in Fig. 18 are performed and when there is no correction, and when the resolution of each axis position detector is infinitesimal. 19 The results are shown in Table 2, and this correction resulted in a deflection error correction accuracy that is approximately below the resolution of each axis position detector (see Table 3), so it is possible to obtain a deflection error correction accuracy that is equivalent to the resolution of each axis position detector. It became clear that

また、本実施例では多項式近似計算領域を単数としたが
、動作範囲全体をカバーする多項式を得るためには複数
の領域に分け、各領域につき多項式近似式を求めること
により近似精度を高めることができる。特に特異姿勢(
ロボット可動範囲外周(θ2=0°))近傍は別領域と
する必要がある。
In addition, in this example, the polynomial approximation calculation region is single, but in order to obtain a polynomial that covers the entire operating range, it is possible to improve the approximation accuracy by dividing it into multiple regions and finding a polynomial approximation formula for each region. can. Especially singular posture (
The area near the outer periphery of the robot movable range (θ2=0°) needs to be a separate area.

表1 たわみ誤差補正結果(多項式近似)表2 たわみ
誤差(補正無し) 表3 各方向位置検出器分解能 次に、たわみ誤差による関節位置誤差と関節位置・手先
作用荷重をニューラルネットワーク学習法に基づき関係
づける手法について第10図を用いて説明する。第10
図は関節位置θi.θ2゜daと手先作用荷重F2が与
えられた時間節位置誤差Δθi.Δθ2.Δd3を推定
するためにあらかじめ、ロボット動作エリア内の複数点
について(θi.θx、 da、 Fz)と(Δθl、
Δθ2.Δda)のデータをニューラルネットワーク1
8に与えて学習させる。ニューラルネットワーク18は
入力層19.隠れ溜20.出力層21の三層構造となっ
ており、入力層19から隠れ層20へ、と隠れ層20か
ら出力層21への計算は教師データ17と出力16の偏
差より式(26)に示す重み係数修正アルゴリズムに基
づき式(24)に示す重みづけ計算が行われる誤差逆伝
播型の構成となっている。
Table 1 Deflection error correction results (polynomial approximation) Table 2 Deflection error (no correction) Table 3 Position detector resolution in each direction Next, the joint position error due to the deflection error and the joint position/hand action load are related based on the neural network learning method. The method of attaching the information will be explained using FIG. 10. 10th
The figure shows joint position θi. Time node position error Δθi. given θ2°da and hand action load F2. Δθ2. In order to estimate Δd3, (θi.θx, da, Fz) and (Δθl,
Δθ2. Δda) data to neural network 1
Give it to 8 students and let them learn. The neural network 18 has an input layer 19. Hidden reservoir 20. It has a three-layer structure with an output layer 21, and calculations from the input layer 19 to the hidden layer 20 and from the hidden layer 20 to the output layer 21 are performed using the weighting coefficient shown in equation (26) based on the deviation between the teacher data 17 and the output 16. It has an error backpropagation type configuration in which weighting calculation shown in equation (24) is performed based on a correction algorithm.

入力   :[υ口=(θ工、θ2. dむF2)隠れ
屑入カニu7=Σω1υ】 隠れ層比カニυ’;=f(u’:) 出力屑入カニU?=ΣωIat)’j 出出力出出カニu’7=Δθt = f (u ?) 
  −(24)ここで、関数fは式(25)で示される
シグモイド関数である。
Input: [υmouth=(θwork, θ2. dmuF2) Hidden scrap entry crab u7=Σω1υ] Hidden layer ratio crab υ';=f(u':) Output scrap entry crab U? = ΣωIat)'j Output output output crab u'7 = Δθt = f (u?)
-(24) Here, the function f is a sigmoid function shown by equation (25).

また、重み係数ω1.は、教師データtJと出力0、よ
り学習回数を重ねる毎に下式計算結果が加算され修正さ
れる。
Also, the weighting coefficient ω1. is corrected by adding the calculation result of the following formula each time the training data tJ and the output 0 are repeated.

ω l J (n”l) =  ω 1□(、) + 
Δ ω 、、(n)Δω1□=ηδ、0□      
    ・・(26)ここで、 η:学習率、である。
ω l J (n”l) = ω 1□(,) +
Δ ω ,, (n) Δω1□=ηδ, 0□
...(26) Here, η: learning rate.

このようにして、教師データtJと出力OJの二乗誤差
が減少しなくなるまで学習が続けられ、動作エリア内の
複数点につき学習が行われると、各重み係数が定まり、
第10図中の一点鎖線より下の学習ブロックは切り離さ
れ、再生時ブロックに基づき任意の動作姿勢9手先負荷
条件を入力15として与えると、ニューラルネットワー
ク18で重みづけ計算が行われ、たわみ誤差による関節
位置誤差16が計算される。ニューラルネットワーク1
8として、入力層4素子、隠れ層20素子、出力層3素
子とし、第8図の計算エリア内の30点について学習さ
せ、前述の多項式近似で用いた100点のテストデータ
につき再生計算を行ったところ、表4の結果が得られた
。これがら、ニューラルネットワークを用いることによ
り、多項式近似を用いる場合(367点)より少ない点
数を用いても平均的にはほぼ同等の近似精度が得られる
ことがわかった。
In this way, learning continues until the square error between the teacher data tJ and the output OJ no longer decreases, and when learning is performed for multiple points within the operating area, each weighting coefficient is determined,
The learning blocks below the dashed-dotted line in FIG. A joint position error 16 is calculated. neural network 1
8, the input layer has 4 elements, the hidden layer has 20 elements, and the output layer has 3 elements, and 30 points in the calculation area shown in FIG. As a result, the results shown in Table 4 were obtained. It has been found that by using a neural network, approximately the same approximation accuracy can be obtained on average even if fewer points are used than when polynomial approximation is used (367 points).

表4 たわみ補正結果にューラルネットワーク学習法)
以上から、本実施例で述べたたわみ誤差補正方法を有す
るロボットシステムは、オフライン教示時に極めて短い
演算時間でたわみ誤差に対応する関節位置誤差補正を行
うことができ、関節位置検出器分解能に対応する高い絶
対位置決め精度を得ることが可能である。
Table 4 Deflection correction results using neural network learning method)
From the above, the robot system having the deflection error correction method described in this example can perform joint position error correction corresponding to deflection errors in an extremely short calculation time during off-line teaching, and can compensate for joint position errors corresponding to the joint position detector resolution. It is possible to obtain high absolute positioning accuracy.

次に、本発明の第3の実施例を第15図、第16図及び
第19図を用いて説明する。本実施例は、第1.第2の
実施例で述べたたわみ誤差補正方法と、幾何学的誤差補
正方法を組み合わせることによりより高いロボットの絶
対位置決め精度を得るものである。第19図はロボット
の全体位置決め誤差測定装置を含むロボットシステムの
外観を示している。ロボットシステム全体の手先位置決
め誤差は、■たわみ誤差、■幾何学的誤差(アーム長駆
差、関節位置検出器原点オフセット誤差。
Next, a third embodiment of the present invention will be described using FIGS. 15, 16, and 19. This example is based on the first example. By combining the deflection error correction method described in the second embodiment and the geometric error correction method, higher absolute positioning accuracy of the robot can be obtained. FIG. 19 shows the appearance of a robot system including a robot overall positioning error measuring device. The hand positioning errors of the entire robot system are ■deflection error, ■geometric error (arm length drive difference, joint position detector origin offset error).

ロボット設置誤差等)、■関節位置検出器分解能に起因
する誤差、■工具・作業台の設置誤差、に大別されるが
、ここでは■は用いない場合を扱う。
(robot installation error, etc.); (2) error due to joint position detector resolution; and (2) tool/workbench installation error. Here, we will deal with the case where (2) is not used.

■は■、■と比して通常著しく小さく、関節位置指令補
正により位置誤差補正を行う方式では、位置誤差補正限
界を与える。ま゛た、■、■に相互依存関係は稀薄であ
ることから、独立した扱いが可能である。本実施例では
第19図に示す三次元位置計測装置27によりロボット
手先位置とロボット作業座標系の相対位置を検出し、あ
らかじめ算出されているたわみ誤差成分を除いた幾何学
的誤差に起因する手先位置誤差成分を抽出し、幾何学的
誤差を同定し、補正を行う方式について述べる。
(2) is usually significantly smaller than (2) and (2), and in a system in which position error is corrected by joint position command correction, it provides a position error correction limit. Additionally, since there is little interdependence between ■ and ■, they can be treated independently. In this embodiment, the three-dimensional position measuring device 27 shown in FIG. 19 detects the relative position of the robot hand position and the robot work coordinate system, and detects the relative position of the robot hand position and the robot work coordinate system, and detects the hand position due to geometric errors excluding the pre-calculated deflection error component. We will describe a method for extracting position error components, identifying geometric errors, and correcting them.

第16図を用いて本実施例の位置誤差補正方式の流れを
説明する。まずロボットのキャリブレーションを行う複
数の位置と手先作用荷重が与えられる(ステップ1)と
、例えば第19図に示す装置を用いてロボット手先の位
置決め時の三次元位置測定と、その時の関節位置のデー
タ収集が行われ、手先の作業座標系における位置決め誤
差Δt(=(ΔX、Δy、ΔZ )丁)が算出される(
ステップ2)。次に、各キャリブレーション位置及び手
先作用荷重に対応するたわみ誤差Δマ、。が第1もしく
は第2の実施例で述べた方法に基づき算出される(ステ
ップ3)。次に、ステップ2で測定された手先の作業座
標系における位置決め誤差と、ステップ3で算出された
手先のたわみ誤差を減算することにより、手先の幾何学
的誤差に起因する誤差Δ’i’*eo(”ΔマーΔマー
et)を算出する(ステップ4)。次に、幾何学的誤差
を同定しくステップ5)、ロボット教示位置を幾何学的
誤差に合わせて補正しくステップ6)、ロボット関節位
置のたわみ誤差対応量を補正する(ステップ7)。以上
の位置決め誤差補正ステップにおいて、ステップ2.5
.6を詳説する。ステップ2において三次元位置計測装
置(第19図参照)は、高剛性な構造となっており、高
分解能の位置検出器が設けられており、その端部に設け
られた接触子がロボット手先位置と、作業座標系の複数
点(例えば図中A、B、C3点)とある接触圧になった
位置をその位置であると検知し、三次元位置検出を行う
構成となっている。作業座標系の原点より水平面内等距
離位置に設けられた測定点A、B、Cはその各2点の垂
直二等分線の交点を求めることにより作業座標系原点位
置の三次元位置を算出することが可能であり、その位置
とロボット手先位置の相対位置を求め、各関節位置検出
器位置検出値より理想モデルに基づき求められる手先の
ロボット座標系原点からみた相対位置との差を求めるこ
とにより手先の位置決め誤差が明らかにできる。次にス
テップ5については(作用)の項でも述べたが、第15
図のモデルで考慮した幾何学的誤差のみに起因する手先
位置決め誤差(式(12))に基づき各幾何学的誤差を
求めることにより、幾何学的誤差の同定が可能になる。
The flow of the position error correction method of this embodiment will be explained using FIG. First, multiple positions for calibrating the robot and loads acting on the hand are given (Step 1). For example, the device shown in Fig. 19 is used to measure the three-dimensional position of the robot hand and determine the joint positions at that time. Data is collected, and the positioning error Δt (=(ΔX, Δy, ΔZ)) in the work coordinate system of the hand is calculated (
Step 2). Next, the deflection error Δma, corresponding to each calibration position and hand acting load. is calculated based on the method described in the first or second embodiment (step 3). Next, by subtracting the positioning error in the work coordinate system of the hand measured in step 2 and the deflection error of the hand calculated in step 3, the error Δ'i'* due to the geometric error of the hand is calculated. Calculate eo ("Δmar Δmar et)" (step 4). Next, identify the geometric error (step 5), correct the robot teaching position according to the geometric error (step 6), and correct the robot joint. Correct the positional deflection error correspondence amount (step 7).In the above positioning error correction step, step 2.5
.. 6 will be explained in detail. In step 2, the three-dimensional position measuring device (see Figure 19) has a highly rigid structure and is equipped with a high-resolution position detector, and a contact provided at the end of the device determines the robot hand position. Then, a position at which a certain contact pressure is reached with a plurality of points in the work coordinate system (for example, three points A, B, and C in the figure) is detected as that position, and three-dimensional position detection is performed. Measurement points A, B, and C are set equidistantly from the origin of the work coordinate system in the horizontal plane, and the three-dimensional position of the work coordinate system origin is calculated by finding the intersection of the perpendicular bisectors of these two points. Then, find the relative position between that position and the robot hand position, and find the difference between the relative position of the hand as seen from the robot coordinate system origin, which is found based on the ideal model from the position detection value of each joint position detector. This makes it possible to clarify the positioning error of the hand. Next, regarding step 5, as mentioned in the (effect) section, step 15
By determining each geometrical error based on the hand positioning error (formula (12)) caused only by the geometrical error considered in the model in the figure, it becomes possible to identify the geometrical error.

式(12)において、2方向の幾何学的誤差Δ2.ΔQ
x、ΔQz、ΔQ3.Δd8は分離して扱うことはでき
ないが一1+’/方向についてはΔa1.Δaz、Δθ
i?Δθ21 Δx。
In equation (12), the geometric error in two directions Δ2. ΔQ
x, ΔQz, ΔQ3. Δd8 cannot be treated separately, but in the 1+'/direction, Δa1. Δaz, Δθ
i? Δθ21 Δx.

Δyの6未知数に対する連立方程式が導けるため、3ケ
のキャリブレーション位置につき、ステップ2の実験を
行うことにより各幾何学的誤差を一意に決めることがで
きる。また、このキャリブレーション位置は3ケ以上と
して未知数より方程式を多くし、最小二乗法を用いて解
くことによってもより正確に各幾何学的誤差を求めるこ
とが可能になる。次にステップ6については、水平面内
設置誤差ΔX、Δy及び鉛直方向幾何学的誤差ΔZ g
eoについては手先位置指令より各量を減する(式(1
3)参照)ことにより補正可能であり、アーム長誤差Δ
at、Δa2及び位置検出器原点オフセット誤差Δθi
.Δθ2は、手先位置指令から関節位置指令に変換する
逆変換演算式における諸元をa1→a1+Δa1. a
m→a2+Δ82.θi→θi+Δθig1lo t 
 θ2→θ2+ΔθZMeOと補正し、以下の計算を行
うことにより補正可能であり、たわみ誤差による関節位
置誤差量ΔθigeO、Δθ2geO+へd 8zeo
は上記の諸量より式(27)に基づき補正することによ
り、補正される。
Since simultaneous equations for the six unknowns of Δy can be derived, each geometrical error can be uniquely determined by performing the experiment in step 2 for three calibration positions. Further, each geometrical error can be determined more accurately by setting the number of calibration positions to three or more, increasing the number of equations than the number of unknowns, and solving the equations using the method of least squares. Next, for step 6, the horizontal plane installation error ΔX, Δy and the vertical direction geometric error ΔZ g
Regarding eo, each amount is reduced from the hand position command (formula (1)
3)), and the arm length error Δ
at, Δa2 and position detector origin offset error Δθi
.. Δθ2 is a1→a1+Δa1. a
m→a2+Δ82. θi→θi+Δθig1lo t
It can be corrected by correcting θ2 → θ2 + ΔθZMeO and performing the following calculation, and the joint position error amounts ΔθigeO and Δθ2geO+ due to the deflection error.
is corrected by correcting the above quantities based on equation (27).

01′=θi+Δθi1110−Δθi48182′=
θ2+Δθ2geO−Δθ2.deld 3= d 3
−ΔZ 5ea−Δd 5aei     −(27)
以上述べた本実施例に基づく関節位置誤差補正方法を有
するロボットシステムを用いることにより、幾何学的誤
差を従来方法と比してより精度よく同定でき、たわみ誤
差、幾何学的誤差両方に起因する位置決め誤差を補正す
ることができ50ボツトは各関節位置検出器分解能に対
応する絶対位置決め精度を得ることが可能になる。
01'=θi+Δθi1110−Δθi48182'=
θ2+Δθ2geO−Δθ2. deld 3= d 3
−ΔZ 5ea−Δd 5aei −(27)
By using the robot system having the joint position error correction method based on the present embodiment described above, geometric errors can be identified more accurately than conventional methods, and it is possible to identify geometric errors caused by both deflection errors and geometric errors. Since the positioning error can be corrected, it becomes possible to obtain absolute positioning accuracy corresponding to the resolution of each joint position detector.

〔発明の効果〕〔Effect of the invention〕

本発明は、以上説明したように構成されているので以下
に記載されるような効果を奏する。
Since the present invention is configured as described above, it produces the effects described below.

(1)ロボットのたわみ誤差を幾何学的誤差と分離して
補正するため、ロボットの動作姿勢2手先作用荷重によ
らず正確にその補正がなされる。
(1) Since the deflection error of the robot is corrected separately from the geometric error, the correction can be performed accurately regardless of the operating posture of the robot and the load acting on the two hands.

(2)ロボットの関節位置2手先作用荷重とたわみ誤差
に起因する関節位置誤差をロボットの動作エリア内で多
項式近似もしくはニューラルネットワーク学習法により
1ステツプで関係づけたため、ロボットのオフライン教
示時位置補正データ作成時間が短縮できる。
(2) Joint position of the robot 2 Joint position errors caused by the load acting on the hand and the deflection error are related in one step using polynomial approximation or neural network learning within the robot's motion area, so the position correction data during offline teaching of the robot Creation time can be shortened.

(3)ロボットの手先位置決め誤差測定結果より手先た
わみ誤差を減じた幾何学的誤差のみに起因する手先位置
決め誤差データに基づきロボットの幾何学的誤差を同定
するため、精度の良い幾何学的誤差の同定と、その同定
結果に基づく高精度の絶対位置決め誤差補正が可能にな
る。
(3) Since the robot's geometric errors are identified based on the hand positioning error data that is caused only by the geometric errors obtained by subtracting the hand deflection error from the robot's hand positioning error measurement results, it is possible to accurately identify the geometric errors. Identification and highly accurate absolute positioning error correction based on the identification result becomes possible.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の第1の実施例のロボットシステムの全
体構成図、第2図は第1図に示したキャリブレーション
装置の詳細説明図、第3図は第1図のロボットのスケル
トンモデル図、第4図、第5図、第6図は各々第1図に
示したロボットの動作姿勢2手先作用荷重変化時のX*
’/vZ方向相対たわみ量特性図、第7図は第1図のロ
ボットの有限要素モデル図、第8図はロボットの動作エ
リア図、第9図は本発明の第2の実施例において多項式
近似利用時の近似精度と多項式項数の関係図。 第10図は本発明の第2の実施例においてニューラルネ
ットワーク学習法利用時のたわみ誤差補正ブロック図、
第11図は水平多関節形ロボットの外観図、第12図は
第11図に示したロボットの静たわみ特性図、第13図
は第11図に示したロボットのスケルトンモデル図、第
14図は本発明の第1の実施例のたわみ誤差補正方法の
流れ図、第15図は本発明の第3の実施例のロボットの
幾何学的誤差説明図、第16図は本発明の第3の実施例
のたわみ誤差・幾何学的誤差補正方法の流れ図、第17
図は本発明の第1の実施例のたわみ誤差補正方法の詳細
流れ図、第18図は本発明の第2の実施例のたわみ誤差
補正方法の流れ図、第19図は本発明の第3の実施例の
ロボットシステムの外観図である。 1・・・ロボット本体、2・・・ロボット制御装置、3
・・・作業者、4・・・コンピュータ、5・・・キャリ
ブレーション装置、6・・・作業台、7・・・手首軸、
8・・・手首軸結合おもり、9・・・着脱可能おもり、
10・・・センサターゲット、11・・・ギャップセン
サ、12・・・マグネットスタンド、13・・・センサ
アンプ、14・・・A/D変換器、15・・・入力、1
6・・・出力、17・・・教師データ、18・・・ニュ
ーラルネットワーク、19・・・入力層、20・・・隠
れ層、21・・・出力層、22・・・1軸駆動モータ、
23・・・第1アーム、24・・・2軸駆動モータ、2
5・・・第2アーム、26・・・工具、27・・・三次
元位置計測装置。
Fig. 1 is an overall configuration diagram of a robot system according to a first embodiment of the present invention, Fig. 2 is a detailed explanatory diagram of the calibration device shown in Fig. 1, and Fig. 3 is a skeleton model of the robot shown in Fig. 1. Figures 4, 5, and 6 respectively show the operating posture of the robot shown in Figure 1.
'/vZ direction relative deflection characteristic diagram, Figure 7 is a finite element model diagram of the robot in Figure 1, Figure 8 is a diagram of the robot's operating area, Figure 9 is polynomial approximation in the second embodiment of the present invention. Relationship diagram between approximation accuracy and number of polynomial terms when used. FIG. 10 is a deflection error correction block diagram when using the neural network learning method in the second embodiment of the present invention;
Fig. 11 is an external view of the horizontal articulated robot, Fig. 12 is a static deflection characteristic diagram of the robot shown in Fig. 11, Fig. 13 is a skeleton model of the robot shown in Fig. 11, and Fig. 14 is a diagram of the robot shown in Fig. 11. A flowchart of the deflection error correction method according to the first embodiment of the present invention, FIG. 15 is an explanatory diagram of the geometric error of the robot according to the third embodiment of the present invention, and FIG. 16 is a diagram showing the method for correcting the deflection error according to the third embodiment of the present invention. Flow chart of deflection error/geometric error correction method, No. 17
The figure is a detailed flowchart of the deflection error correction method according to the first embodiment of the present invention, FIG. 18 is a flowchart of the deflection error correction method according to the second embodiment of the present invention, and FIG. FIG. 2 is an external view of an example robot system. 1... Robot body, 2... Robot control device, 3
... worker, 4 ... computer, 5 ... calibration device, 6 ... workbench, 7 ... wrist axis,
8...Wrist shaft-coupled weight, 9...Removable weight,
DESCRIPTION OF SYMBOLS 10... Sensor target, 11... Gap sensor, 12... Magnet stand, 13... Sensor amplifier, 14... A/D converter, 15... Input, 1
6... Output, 17... Teacher data, 18... Neural network, 19... Input layer, 20... Hidden layer, 21... Output layer, 22... Single-axis drive motor,
23... First arm, 24... Two-axis drive motor, 2
5... Second arm, 26... Tool, 27... Three-dimensional position measuring device.

Claims (1)

【特許請求の範囲】 1、ロボットのオフライン教示を可能にするロボットシ
ステムの制御方法において、作業座標系に置かれたロボ
ット実機のロボット座標系における理想モデルとの手先
位置決め誤差を幾何学的誤差とたわみ誤差に起因するも
のに分離する工程1と、ロボットの関節位置及び手先負
荷条件と、前記たわみ誤差に起因する関節位置誤差の関
係づけ及び幾何学的誤差の同定を行う工程2と、ロボッ
ト手先の動作軌道に対応する関節位置指令を、幾何学的
誤差に基づき修正生成された関節位置指令と、前記工程
2に基づき算出されたたわみ誤差に起因する関節位置誤
差の差として生成する工程3と、該工程3により生成さ
れる関節位置指令を受信することによりロボット関節駆
動エネルギを生成する工程4とからなり、前記ロボット
関節駆動エネルギによりロボットを駆動することを特徴
とするロボットシステムの制御方法。 2、請求項第1項に記載のロボットシステム制御方法に
おいて、前記工程1を、手先のたわみ誤差を手先作用荷
重可変時の相対たわみ特性定結果とほぼ合致する特性解
析可能な複数の部分構造よりなる静剛性解析モデルに基
づき算出し、前記工程2にて手先たわみ誤差を各関節位
置誤差に変換する際にロボットが特異姿勢近傍では、静
剛性無限大ロボットモデルにおける手先理想位置と前記
手先のたわみ誤差の和を逆運動学に基づき求められる関
節位置と理想関節位置の差として関節位置誤差を求め、
ロボットが特異姿勢近傍以外では前記手先のたわみ誤差
に逆ヤコビ行列を乗算することにより関節位置誤鎖を得
ることにより構成することを特徴とするロボットシステ
ム。 3、請求項第1項に記載のロボットシステム制御方法に
おいて、前記工程2のたわみ誤差に起因する関節位置誤
差を、ロボットの動作範囲を単数もしくは複数のエリア
に分割し、各エリアを包含する拡大エリア内多数点にお
ける関節位置θ_i(i=1〜n)、手先作用並進荷重
F_j(j=1〜m)、手先作用モーメント荷重M_k
(k=1〜s)と関節位置誤差Δθ_i(i=1〜n)
を(1)式のように多項式近似することにより関係づけ
、▲数式、化学式、表等があります▼……(1) 多項式係数a_iを、領域内r個の点(代表点q)にお
いて、特許請求範囲第2項記載の方法により求められた
関節位置誤差Δθ_i(q)と(1)式より求められる
Δθ_iの(2)式で示す最小二乗誤差Δ_■が最小と
なるように選び、 ▲数式、化学式、表等があります▼…(2) 多項式項数は補間精度が最良となるように選び、前記各
拡大エリアの多項式をそれに包含される前記各エリアに
適用することにより構成することを特徴とするロボット
システムの制御方法。 4、請求項第1項に記載のロボットシステム制御方法に
おいて、前記工程2のたわみ誤差に起因する関節位置誤
差を、ロボットの動作範囲を単数もしくは複数のエリア
に分割し、各エリア内もしくは各エリアを包含する各拡
大エリア内の複数点におけるロボットの関節位置θ_i
(i=1〜n)、手先作用並進荷重F_j(j=1〜m
)、手先作用モーメント荷重M_k(k=1〜s)を入
力とし、関節位置誤差Δθ_i(i=1〜n)を出力と
するニューラルネットワークを用いて学習した後、確定
した重み係数等を用いて、前記各エリア内の任意のロボ
ットの関節位置、手先作用並進荷重、及び手先作用モー
メント荷重対するロボットの関節位置誤差を推定するこ
とにより構成することを特徴とするロボットシステムの
制御方法。 5、請求項第1項〜第4項のいずれかに記載のロボツト
シテムの制御方法において、前記工程1の幾何学的誤差
に起因する手先位置誤差の決定を、ロボットの動作範囲
内の幾何学的誤差未知数以上の連立方程式立式可能な数
の点における作業座標系の3次元手先位置誤差測定結果
より手先たわみ誤差を減算することにより行い、前記工
程2の幾何学的誤差の同定をロボットの幾何学的誤差を
含む各部変換行列の積として求まる手先位置誤差を前記
幾何学的誤差に起因する手先位置誤差と等置することに
より得られる連立方程式を解くことにより行い、前記工
程3において、幾何学的誤差を考慮した関節位置指令の
補正を行つたものにたわみ誤差を考慮した関節位置指令
補正を行つたことを特徴とするロボットシステムの制御
方法。
[Claims] 1. In a control method for a robot system that enables off-line teaching of a robot, a hand positioning error between an actual robot placed in a work coordinate system and an ideal model in the robot coordinate system is defined as a geometric error. Step 1 of separating the errors caused by the deflection error; Step 2 of associating the joint position and hand load conditions of the robot with the joint position errors caused by the deflection error and identifying geometric errors; a step 3 of generating a joint position command corresponding to the motion trajectory as the difference between the joint position command corrected and generated based on the geometric error and the joint position error caused by the deflection error calculated based on the step 2; , step 4 of generating robot joint drive energy by receiving the joint position commands generated in step 3, and driving the robot with the robot joint drive energy. 2. In the robot system control method according to claim 1, step 1 is performed using a plurality of partial structures whose characteristics can be analyzed so that the deflection error of the hand almost matches the relative deflection characteristic determination result when the load acting on the hand is varied. When the hand deflection error is converted into each joint position error in step 2, when the robot is in the vicinity of the singular posture, the ideal hand position in the infinite static stiffness robot model and the hand deflection are calculated based on the static stiffness analysis model. The joint position error is determined by using the sum of the errors as the difference between the joint position determined based on inverse kinematics and the ideal joint position.
A robot system characterized in that the robot system is constructed by multiplying the deflection error of the hand by an inverse Jacobian matrix to obtain joint position errors when the robot is not in the vicinity of a singular posture. 3. In the robot system control method according to claim 1, the joint position error caused by the deflection error in step 2 is divided into one or more areas, and expanded to include each area. Joint position θ_i (i=1 to n) at multiple points in the area, translational load acting on the hand F_j (j=1 to m), moment load acting on the hand M_k
(k=1~s) and joint position error Δθ_i (i=1~n)
are related by polynomial approximation as shown in equation (1), and there are ▲mathematical formulas, chemical formulas, tables, etc.▼...(1) Polynomial coefficient a_i is expressed as a patent at r points in the area (representative point q). The joint position error Δθ_i(q) obtained by the method described in claim 2 and the least squares error Δ_■ shown in equation (2) of Δθ_i obtained from equation (1) are selected so as to be minimized, and ▲Math. , chemical formulas, tables, etc. ▼...(2) The number of polynomial terms is selected to maximize interpolation accuracy, and the polynomial is constructed by applying the polynomial of each enlarged area to each of the areas included therein. A method for controlling a robot system. 4. In the robot system control method according to claim 1, the joint position error caused by the deflection error in step 2 is divided into one or more areas, and within or in each area. The joint positions θ_i of the robot at multiple points within each enlarged area including
(i=1~n), hand action translational load F_j (j=1~m
), after learning using a neural network that inputs the hand action moment load M_k (k = 1 to s) and outputs the joint position error Δθ_i (i = 1 to n), and then uses the determined weighting coefficients etc. , a method for controlling a robot system, comprising: estimating a joint position error of the robot with respect to a joint position of an arbitrary robot in each area, a translational load acting on the hand, and a moment load acting on the hand. 5. In the method for controlling a robot system according to any one of claims 1 to 4, the determination of the hand position error caused by the geometric error in step 1 is performed using a geometric error within the operating range of the robot. This is done by subtracting the hand deflection error from the three-dimensional hand position error measurement result of the work coordinate system at a number of points that can form simultaneous equations greater than or equal to the error unknown. This is carried out by solving simultaneous equations obtained by equating the hand position error found as the product of the transformation matrices of each part including the geometric error with the hand position error caused by the geometric error, and in step 3, the geometric 1. A method for controlling a robot system, comprising: correcting joint position commands taking into consideration physical errors; and correcting joint position commands taking deflection errors into consideration.
JP13376990A 1990-05-25 1990-05-25 Control method for robot system Pending JPH0433006A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13376990A JPH0433006A (en) 1990-05-25 1990-05-25 Control method for robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13376990A JPH0433006A (en) 1990-05-25 1990-05-25 Control method for robot system

Publications (1)

Publication Number Publication Date
JPH0433006A true JPH0433006A (en) 1992-02-04

Family

ID=15112540

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13376990A Pending JPH0433006A (en) 1990-05-25 1990-05-25 Control method for robot system

Country Status (1)

Country Link
JP (1) JPH0433006A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007527323A (en) * 2003-04-28 2007-09-27 クランプトン,ステファン,ジェームス CMM arm with exoskeleton
US7751939B2 (en) 2005-01-17 2010-07-06 Samsung Electronics Co. Ltd Method and apparatus to correct static deflection in a handling robot
CN101865655A (en) * 2010-05-26 2010-10-20 哈尔滨工业大学 Six-dimensional position and orientation precision test method of space mechanical arm based on air flotation system
JP2013129033A (en) * 2011-12-22 2013-07-04 Kawasaki Heavy Ind Ltd Method for creating teaching point of robot, and robot system
JP2014219416A (en) * 2007-05-11 2014-11-20 コミッサリアア レネルジー アトミーク エ オ ゼネルジ ザルタナテイヴ Processing method for capturing movement of articulated structure
JP2018130808A (en) * 2017-02-16 2018-08-23 トヨタ自動車株式会社 Teaching data correction method of robot
KR20190028384A (en) * 2016-05-24 2019-03-18 에프엠씨 테크놀로지스 Motion control device for articulated fluid loading arm, acquisition and calculation method and apparatus thereof, and articulated fluid loading arm
WO2022024243A1 (en) * 2020-07-29 2022-02-03 株式会社Fuji Scara robot system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007527323A (en) * 2003-04-28 2007-09-27 クランプトン,ステファン,ジェームス CMM arm with exoskeleton
JP4868235B2 (en) * 2003-04-28 2012-02-01 ニコン メトロロジー エン.フェー. CMM arm apparatus and method
JP2012024920A (en) * 2003-04-28 2012-02-09 3D Scanners Ltd Cmm arm with exoskeleton
US7751939B2 (en) 2005-01-17 2010-07-06 Samsung Electronics Co. Ltd Method and apparatus to correct static deflection in a handling robot
JP2014219416A (en) * 2007-05-11 2014-11-20 コミッサリアア レネルジー アトミーク エ オ ゼネルジ ザルタナテイヴ Processing method for capturing movement of articulated structure
CN101865655A (en) * 2010-05-26 2010-10-20 哈尔滨工业大学 Six-dimensional position and orientation precision test method of space mechanical arm based on air flotation system
JP2013129033A (en) * 2011-12-22 2013-07-04 Kawasaki Heavy Ind Ltd Method for creating teaching point of robot, and robot system
KR20190028384A (en) * 2016-05-24 2019-03-18 에프엠씨 테크놀로지스 Motion control device for articulated fluid loading arm, acquisition and calculation method and apparatus thereof, and articulated fluid loading arm
JP2019518669A (en) * 2016-05-24 2019-07-04 エフエムセ テクノロジーズ Motion control device for articulated fluid loading arm, acquisition and calculation method and device for this method, and articulated fluid loading arm
JP2018130808A (en) * 2017-02-16 2018-08-23 トヨタ自動車株式会社 Teaching data correction method of robot
WO2022024243A1 (en) * 2020-07-29 2022-02-03 株式会社Fuji Scara robot system

Similar Documents

Publication Publication Date Title
Judd et al. A technique to calibrate industrial robots with experimental verification
Hayati Robot arm geometric link parameter estimation
CA1330363C (en) Robot system
US7904202B2 (en) Method and system to provide improved accuracies in multi-jointed robots through kinematic robot model parameters determination
Zhou et al. Simultaneous identification of joint compliance and kinematic parameters of industrial robots
Fu et al. Analysis of unified error model and simulated parameters calibration for robotic machining based on Lie theory
CN111055273A (en) Two-step error compensation method for robot
JP2012040634A (en) Calibration device and method for power-controlled robot
Cho et al. Screw based kinematic calibration method for robot manipulators with joint compliance using circular point analysis
CN113927599B (en) Absolute precision compensation method, system, device and computer readable storage medium
Hage et al. Practical consideration on the identification of the kinematic parameters of the Stäubli TX90 robot
CN110154022A (en) A kind of robot hole radial positioning modification method based on orientation rigidity model
Santolaria et al. Self-alignment of on-board measurement sensors for robot kinematic calibration
JPH0433006A (en) Control method for robot system
CN113459094B (en) Industrial robot tool coordinate system and zero point self-calibration method
JPH0445841B2 (en)
Ding et al. In situ calibration of six-axis force–torque sensors for industrial robots with tilting base
Lee et al. Torque sensor calibration using virtual load for a manipulator
CN113091670B (en) Calibration device and calibration method for robot joint stiffness
Kim et al. Joint compliance error compensation for robot manipulator using body frame
CN112975971B (en) Robot inertia force compensation method
Feng et al. A matrix-solving hand-eye calibration method considering robot kinematic errors
CN115091455A (en) Industrial robot positioning error compensation method
JPH0639070B2 (en) Robot device force sensor calibration method
JPH012104A (en) Robot positioning error correction method