JPH06289918A - Method for controlling learning of robot - Google Patents

Method for controlling learning of robot

Info

Publication number
JPH06289918A
JPH06289918A JP5077204A JP7720493A JPH06289918A JP H06289918 A JPH06289918 A JP H06289918A JP 5077204 A JP5077204 A JP 5077204A JP 7720493 A JP7720493 A JP 7720493A JP H06289918 A JPH06289918 A JP H06289918A
Authority
JP
Japan
Prior art keywords
robot
learning
trajectory
time
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5077204A
Other languages
Japanese (ja)
Other versions
JP3433465B2 (en
Inventor
Yoshito Nanjo
義人 南條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP07720493A priority Critical patent/JP3433465B2/en
Publication of JPH06289918A publication Critical patent/JPH06289918A/en
Application granted granted Critical
Publication of JP3433465B2 publication Critical patent/JP3433465B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To provide the learning control method of a robot, by which the learning efficiency of the robot having a learning function can be improved. CONSTITUTION:The learning control method for correcting an input value supplied to the driving element of the robot based on an error occurring between a target orbit becoming the target of a reproduction operation at the time of causing the robot to repetitively execute the reproduction operation and the real orbit of the robot at the time of the reproduction operation is provided with a step p3 calculating the speed of the target orbit, p4 multiplying the speed error between the target orbit and the real orbit by a coefficient (learning gain) reduced in accordance with the lapse of time and adding a feed forward value supplied to the driving element of the robot at the time of the previous reproduction operation to the result and a step p5 setting the value obtained in the step p4 to the feed forward value for the driving element at the time of the subsequent reproduction operation.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、例えば繰り返し再生
動作を行う産業用ロボットに用いて好適なロボットの学
習制御方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot learning control method suitable for use in, for example, an industrial robot that performs repetitive reproduction operations.

【0002】[0002]

【従来の技術】周知のように、ロボットを繰り返し再生
動作させる技術が各種開発されている。この種の技術に
おいて、例えば下記の文献(a)に記載された学習制御
方法が知られている。 (a)S.Arimoto : Learning C
ontrol Theory for Robotic
Motion,International Jou
rnal of Adaptive Control
and Signal Processing,4−
6,546/564,(1990)
2. Description of the Related Art As is well known, various techniques for repetitively performing a replay operation of a robot have been developed. In this type of technology, for example, a learning control method described in the following document (a) is known. (A) S. Arimoto: Learning C
ontrol Theory for Robotic
Motion, International Jou
rnal of Adaptive Control
and Signal Processing, 4-
6,546 / 564, (1990)

【0003】この文献(a)に記載された学習制御方法
では、ロボットが有する各自由度に対し個別に位置誤差
および速度誤差のネガティブフィードバックループを構
成しておき、あらかじめ用意された各自由度に対応する
関節の目標軌道に従ってロボットを再生動作させる。そ
して、このときの目標軌道と再生動作時に生じる実軌道
との速度誤差を測定し、この速度誤差に定数(以下、学
習ゲインと称する)を乗算する。さらに、この乗算結果
を前回の再生動作時にロボットの駆動素子に与えた入力
値(以下、フィードフォワード値と称する)に加算し、
この加算結果を新たなフィードフォワード値として次回
の再生動作時にロボットの駆動素子に与えることによ
り、再生動作の精度を向上させている。
In the learning control method described in this document (a), a negative feedback loop of position error and velocity error is individually configured for each degree of freedom of the robot, and each degree of freedom prepared in advance is set. The robot is regenerated according to the target trajectory of the corresponding joint. Then, the velocity error between the target trajectory at this time and the actual trajectory generated during the reproducing operation is measured, and this velocity error is multiplied by a constant (hereinafter referred to as a learning gain). Furthermore, this multiplication result is added to the input value (hereinafter referred to as feedforward value) given to the drive element of the robot at the time of the previous reproduction operation,
By providing the addition result as a new feedforward value to the drive element of the robot in the next reproducing operation, the accuracy of the reproducing operation is improved.

【0004】この学習制御方法によれば、再生動作を何
回か繰り返すうちにロボットの実軌道は逐次修正され、
あらかじめ用意されていた目標軌道の近傍に収束する。
このため、多自由度を有するロボットにおいてみられる
遠心力、コリオリ力といった動力学的な影響が最終的に
補正され、高速かつ高精度な軌道制御が可能となる。ま
た、理論的には、学習ゲインの値が大きいほど、実軌道
は少ない再生動作で目標軌道近傍に収束する。
According to this learning control method, the actual trajectory of the robot is sequentially corrected while the reproducing operation is repeated several times.
It converges near the target trajectory prepared in advance.
For this reason, the dynamic effects such as centrifugal force and Coriolis force, which are observed in a robot having multiple degrees of freedom, are finally corrected, and high-speed and highly accurate trajectory control becomes possible. Further, theoretically, as the value of the learning gain is larger, the actual orbit converges to the vicinity of the target orbit with less reproduction operation.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上述し
た従来の学習制御方法において、速度誤差に乗じる学習
ゲインを大きくし過ぎた場合、各関節における速度検出
時に生じる測定誤差等の影響により、実軌道は軌道の終
わりに近づくに従って振動する。このことは、例えば下
記文献(b)によって紹介されている。 (b)南條ほか:学習を用いたロボット軌道制御に及ぼ
す忘却因子の影響,第9回日本ロボット学会講演会予稿
集,No.1,391/392,(1991)
However, in the above-described conventional learning control method, when the learning gain by which the velocity error is multiplied is made too large, the actual trajectory is not changed due to the influence of the measurement error or the like occurring at the velocity detection at each joint. It vibrates as it approaches the end of the orbit. This is introduced, for example, by the following document (b). (B) Nanjo et al .: Influence of forgetting factor on robot trajectory control using learning, Proceedings of 9th Robotics Society of Japan, No. 1,391 / 392, (1991)

【0006】ここで、図3は、従来の学習制御方法を3
自由度を有するロボットに適用し、学習ゲインを大きく
し過ぎた場合に、再生動作を20回行ったときの実軌道
の例を示している。この図に示すように、軌道の始点S
から目標軌道A1とほぼ一致していた実軌道A2は、軌
道の終わりに近づくに従って振動している。すなわち、
従来の学習制御方法は、実用的には学習ゲインの大きさ
に制限があり、このため実軌道を目標軌道近傍に収束さ
せるには多くの再生動作を行わなければならず、したが
って学習効率が悪いという欠点があった。
FIG. 3 shows a conventional learning control method.
This is applied to a robot having a degree of freedom, and shows an example of an actual trajectory when the reproducing operation is performed 20 times when the learning gain is too large. As shown in this figure, the starting point S of the trajectory
Therefore, the actual trajectory A2, which substantially coincides with the target trajectory A1, vibrates toward the end of the trajectory. That is,
In the conventional learning control method, the size of the learning gain is practically limited, and therefore many reproducing operations must be performed in order to converge the actual trajectory near the target trajectory, and thus the learning efficiency is poor. There was a drawback.

【0007】この発明は、このような背景の下になされ
たもので、学習機能を有するロボットの学習効率を向上
させることができるロボットの学習制御方法を提供する
ことを目的としている。
The present invention has been made under such a background, and an object thereof is to provide a learning control method for a robot which can improve the learning efficiency of a robot having a learning function.

【0008】[0008]

【課題を解決するための手段】この発明は、上述した課
題を解決するために、ロボットに繰り返し再生動作を行
わせる際、該再生動作の目標となる目標軌道と該再生動
作時におけるロボットの実軌道との間に生じる誤差に基
づき、該ロボットの駆動部へ供給する入力値を修正する
学習制御方法において、前記目標軌道と前記実軌道との
間における位置誤差、速度誤差、加速度誤差のうち何れ
かの誤差を測定する第1ステップと、前記第1ステップ
で測定した誤差と時間の経過に従って減少する係数(学
習ゲイン)とを乗算する第2ステップと、前記第2ステ
ップの乗算結果と前回の再生動作時に前記駆動部へ供給
した入力値(フィードフォワード値)とを加算する第3
ステップと、前記第3ステップの加算結果を次回の再生
動作時における入力値(フィードフォワード値)として
前記駆動部へ供給する第4ステップとを具備することを
特徴としている。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, the present invention provides a target trajectory which is a target of the regenerating operation when the robot repeatedly performs the regenerating operation, and an actual robot at the time of the regenerating operation. In a learning control method for correcting an input value supplied to a drive unit of the robot based on an error generated between the trajectory and the trajectory, any one of a position error, a velocity error, and an acceleration error between the target trajectory and the actual trajectory. Or a second step of multiplying the error measured in the first step by a coefficient (learning gain) that decreases with the passage of time, a multiplication result of the second step and a previous step. Third addition of the input value (feedforward value) supplied to the drive unit during the reproduction operation
And a fourth step of supplying the addition result of the third step to the drive unit as an input value (feedforward value) for the next reproducing operation.

【0009】[0009]

【作用】この発明によれば、第1ステップにおいて、目
標軌道と実軌道との間における位置誤差、速度誤差、加
速度誤差のうち何れかの誤差を測定し、第2ステップに
おいて、第1ステップで測定した誤差と時間の経過に従
って減少する係数(学習ゲイン)とを乗算し、第3ステ
ップにおいて、第2ステップの乗算結果と前回の再生動
作時にロボットの駆動部へ供給した入力値(フィードフ
ォワード値)とを加算し、第4ステップにおいて、第3
ステップの加算結果を次回の再生動作時における入力値
(フィードフォワード値)として前記駆動部へ供給す
る。これにより、ロボットの駆動部へのフィードフォワ
ード値を繰り返し再生動作毎に修正すれば、軌道の終わ
りに近づくに従って発生する実軌道の振動が抑制され
る。
According to the present invention, in the first step, any one of position error, velocity error, and acceleration error between the target trajectory and the actual trajectory is measured, and in the second step, the first step is performed. The measured error is multiplied by the coefficient (learning gain) that decreases with the passage of time, and in the third step, the multiplication result of the second step and the input value (feedforward value) supplied to the drive unit of the robot during the previous playback operation. ) And, in the fourth step, the third
The addition result of the step is supplied to the drive unit as an input value (feedforward value) for the next reproducing operation. As a result, if the feedforward value to the drive unit of the robot is corrected for each repetitive reproduction operation, the vibration of the actual trajectory that occurs near the end of the trajectory is suppressed.

【0010】[0010]

【実施例】以下、図面を参照して、この発明の実施例に
ついて説明する。図1は、この発明の一実施例に用いら
れる制御回路の構成を示すブロック図である。なお、こ
の図では、電動モータ駆動形のロボットの1つの自由度
についての制御系統のみを示しており、他の自由度につ
いては同様の構成となるため図示を省略している。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the configuration of a control circuit used in an embodiment of the present invention. In this figure, only the control system for one degree of freedom of the electric motor drive type robot is shown, and the other degrees of freedom have the same configuration and are not shown.

【0011】図1において、4は各種ディジタル演算を
行う演算処理部であり、図示しないCPU(中央処理装
置)、メモリ1〜3等から構成されている。なお、この
演算処理部4には、D/A(ディジタル/アナログ)変
換素子等の入出力インタフェース回路が含まれている
が、ここでは簡単のため図示を省略している。
In FIG. 1, reference numeral 4 denotes an arithmetic processing unit for performing various digital arithmetic operations, which is composed of a CPU (central processing unit), memories 1 to 3, etc., which are not shown. The arithmetic processing unit 4 includes an input / output interface circuit such as a D / A (digital / analog) conversion element, but the illustration is omitted here for simplicity.

【0012】メモリ1〜3は、少なくとも目標軌道を移
動するのに必要な時間Tを制御周期TSで除した数のデー
タを格納できる程度の記憶容量をそれぞれ有している。
そして、メモリ2には、目標軌道の軌道データθ
ref(t)が、制御周期時間TS毎のモータ9の目標位置θ
ref(TSi)(ただし、iは整数)としてあらかじめ格納
されている。なお、メモリ1,3の記憶内容およびその
用途については後述する。
Each of the memories 1 to 3 has a storage capacity enough to store at least the time T required to move the target trajectory divided by the control cycle T S.
Then, the trajectory data θ of the target trajectory is stored in the memory 2.
ref (t) is the target position θ of the motor 9 for each control cycle time T S
Pre-stored as ref (T S i) (where i is an integer). The stored contents of the memories 1 and 3 and their uses will be described later.

【0013】また、演算処理部4は、比較器5、乗算器
6、比較器7およびアンプ8を介してロボットを駆動す
るモータ9に接続されている。さらに、モータ9は、回
転速度検出器11および乗算器10を介して比較器7に
接続されると共に、回転位置検出器12を介して比較器
5に接続されている。
The arithmetic processing section 4 is connected to a motor 9 for driving the robot via a comparator 5, a multiplier 6, a comparator 7 and an amplifier 8. Further, the motor 9 is connected to the comparator 7 via the rotation speed detector 11 and the multiplier 10, and is also connected to the comparator 5 via the rotation position detector 12.

【0014】比較器5は、メモリ2から制御周期時間TS
毎に供給される目標軌道データθref(t)と、位置検出器
12によって測定された実軌道θ(t)との差を算出し、
この結果を出力する。乗算器6は、比較器5の出力と正
定数k1とを乗算し、この結果を出力する。この乗算器6
の出力は、比較器7を介しアンプ8へ供給される。
The comparator 5 receives the control cycle time T S from the memory 2.
Calculate the difference between the target trajectory data θ ref (t) supplied for each and the actual trajectory θ (t) measured by the position detector 12,
This result is output. The multiplier 6 multiplies the output of the comparator 5 by the positive constant k 1 and outputs the result. This multiplier 6
Is output to the amplifier 8 via the comparator 7.

【0015】一方、速度検出器11は、モータ9の実速
度dθ/dt(以下、θ*(t)と表記する)を測定し、この測
定結果を出力する。乗算器10は、速度検出器11によ
って測定された実速度θ*(t)と正定数k2とを乗算し、こ
の結果を出力する。この乗算器10の出力は、符号を反
転された後、比較器7を介しアンプ8へ供給される。さ
らに、アンプ8は、比較器7の出力を増幅し、これをモ
ータ9へ出力する。以上が、この制御回路におけるフィ
ードバック制御系である。
On the other hand, the speed detector 11 measures the actual speed dθ / dt (hereinafter referred to as θ * (t)) of the motor 9 and outputs the measurement result. The multiplier 10 multiplies the actual speed θ * (t) measured by the speed detector 11 by the positive constant k 2 and outputs the result. The output of the multiplier 10 is supplied to the amplifier 8 via the comparator 7 after the sign is inverted. Further, the amplifier 8 amplifies the output of the comparator 7 and outputs it to the motor 9. The above is the feedback control system in this control circuit.

【0016】このような構成によれば、モータ9は、そ
の実軌道θ(t)が目標軌道θref(t)に対して誤差が
「0」となる方向に駆動される。このとき、フィードバ
ック制御系の安定性を確保するためには、実用的には正
定数k1,k2の値を極端に大きくすることはできない。ま
た、ロボットを高速で動作させる場合には、多自由度を
有するロボットにみられる遠心力やコリオリ力の影響も
あり、モータ9を目標軌道θref(t)に完全に追従させる
ことはできない。そこで、こうした原因に基づく誤差を
補正するため、上記フィードバック制御に加え、以下に
述べるフィードフォワード制御を行う。
With such a configuration, the motor 9 is driven in a direction in which the actual trajectory θ (t) has an error of “0” with respect to the target trajectory θ ref (t). At this time, in order to secure the stability of the feedback control system, the values of the positive constants k 1 and k 2 cannot be extremely increased practically. Further, when the robot is operated at a high speed, the motor 9 cannot be made to completely follow the target trajectory θ ref (t) due to the influence of the centrifugal force and the Coriolis force which are seen in the robot having multiple degrees of freedom. Therefore, in order to correct an error based on such a cause, feedforward control described below is performed in addition to the above feedback control.

【0017】次に、図2に示すフローチャートを参照
し、CPUの動作に基づくフィードフォワード制御動作
について説明する。同図において、まずステップp1で
は、メモリ1に記憶されるデータukを「0」クリアす
る。ここで、データukは、k回目の再生動作時にロボッ
トの駆動素子に与えるフィードフォワード値である。こ
の場合、1回目の再生動作時であるので、フィードフォ
ワード値u1が「0」となる。
Next, the feedforward control operation based on the operation of the CPU will be described with reference to the flow chart shown in FIG. In the figure, first, in step p1, the data u k stored in the memory 1 is cleared to "0". Here, the data u k is a feedforward value given to the drive element of the robot during the k-th reproduction operation. In this case, the feedforward value u 1 is “0” because the reproduction operation is performed for the first time.

【0018】次に、ステップp2に進むと、図1に示し
たフィードバック制御系において、メモリ1内のフィー
ドフォワード値u1を制御周期TS毎にアンプ8へ供給し、
1回目の再生動作を行う。このとき、制御周期TS毎に速
度検出器11によって測定された実軌道全域の速度θ*
(TSi)をメモリ3に格納する。そして、1回目の再生
動作が終わった時点で、下記ステップp3〜p5により
メモリ1内のフィードフォワード値を修正する。
Next, when proceeding to step p2, in the feedback control system shown in FIG. 1, the feedforward value u 1 in the memory 1 is supplied to the amplifier 8 every control cycle T S ,
The first playback operation is performed. At this time, the velocity θ * over the entire real trajectory measured by the velocity detector 11 for each control cycle T S.
Store (T S i) in the memory 3. Then, when the reproduction operation of the first time is finished, the feedforward value in the memory 1 is corrected by the following steps p3 to p5.

【0019】ステップp3では、メモリ2に格納されて
いる目標軌道θref(t)に基づき、目標速度θ* ref(t)を
算出する。すなわち、下式(1)に示すように、時間t
=TSiにおける速度θ* ref(TSi)は、前後の制御周期にお
ける目標位置の差を制御周期TSで除して算出することが
できる。ただし、iは制御周期の順番を表す整数であ
る。 θ* ref(TSi)={θref(TS(i+1))−θref(TSi)}/TS ………(1)
At step p3, the target velocity θ * ref (t) is calculated based on the target trajectory θref (t) stored in the memory 2. That is, as shown in the following equation (1), the time t
The velocity θ * ref (T S i) at = T S i can be calculated by dividing the difference between the target positions in the front and rear control cycles by the control cycle T S. However, i is an integer representing the order of control cycles. θ * ref (T S i) = {θ ref (T S (i + 1))-θ ref (T S i)} / T S ………… (1)

【0020】次に、ステップp4に進むと、上記ステッ
プp3で算出した速度θ* ref(t)と、メモリ3に格納さ
れている前回の再生動作時の実速度θ*(t)との差を制御
周期TS毎に算出し、さらにこの結果と学習ゲインφとを
乗算する。ここで、学習ゲインφは、軌道の終わりに近
づくに従って小さな値となるよう、例えば下式(2)で
表される関数によって求める。ただし、φ0およびλは
正定数、eは自然対数を表している。
Next, when proceeding to step p4, the difference between the speed θ * ref (t) calculated in step p3 and the actual speed θ * (t) stored in the memory 3 during the previous reproducing operation. Is calculated for each control cycle T S , and this result is multiplied by the learning gain φ. Here, the learning gain φ is obtained by, for example, a function represented by the following equation (2) so that the learning gain φ has a smaller value as it approaches the end of the trajectory. However, φ 0 and λ are positive constants, and e is a natural logarithm.

【数1】 [Equation 1]

【0021】次に、ステップp5では、上記学習ゲイン
φを乗じた値とメモリ1内のフィードフォワード値u
1(t)とを加算した結果を新たなフィードフォワード値u2
(t)としてメモリ1に格納する。そして、ステップp6
では、学習動作を継続するか否かを判断する。すなわ
ち、あらかじめ設定してある学習回数に再生動作回数が
達していないか、あるいは実軌道があらかじめ設定して
ある所望の精度に達していない場合には、ここでの判断
結果が「Yes」となり、前述のステップp2に戻る。
これにより、2回目の再生動作に伴う学習動作が行われ
る。
Next, in step p5, a value obtained by multiplying the learning gain φ by the feedforward value u in the memory 1 is used.
The result of adding 1 (t) and the new feedforward value u 2
Store in memory 1 as (t). And step p6
Then, it is determined whether or not the learning operation is continued. That is, if the number of playback operations has not reached the preset number of learning times, or if the actual trajectory has not reached the preset desired accuracy, the determination result here is "Yes", It returns to the above-mentioned step p2.
As a result, the learning operation associated with the second reproduction operation is performed.

【0022】次に、2回目の学習動作では、上記ステッ
プp5で新たにメモリ1に格納されたフィードフォワー
ド値u2(t)をアンプ8へ供給する。以後、上記ステップ
p6の判断結果が「Yes」となる間、再生動作毎に上
記ステップp3〜p5を繰り返し、その都度メモリ1内
のフィードフォワード値を修正する。このときのフィー
ドフォワード値の算出式は、下式(3)によって表され
る。
Next, in the second learning operation, the feedforward value u 2 (t) newly stored in the memory 1 in the above step p5 is supplied to the amplifier 8. After that, while the determination result of the above step p6 is "Yes", the above steps p3 to p5 are repeated for each reproduction operation, and the feedforward value in the memory 1 is corrected each time. The calculation formula of the feedforward value at this time is expressed by the following formula (3).

【数2】 [Equation 2]

【0023】こうして、再生動作回数があらかじめ設定
してある学習回数に達した場合、あるいは実軌道が所望
の精度に達した場合、ステップp6の判断結果が「N
o」となり、学習動作は終了する。
In this way, when the number of reproduction operations reaches the preset number of learning times or when the actual trajectory reaches the desired accuracy, the determination result of step p6 is "N".
Then, the learning operation ends.

【0024】このように、本実施例によれば、目標軌道
と実軌道との差に乗じる学習ゲインを軌道の終わりに近
づくに従って小さくすることにより、軌道の終わりに近
づくに従って生じていた振動を抑制することができる。
この結果、従来の方法に比して学習ゲインを大きく設定
することが可能となり、より少ない繰り返し再生動作で
実軌道を目標軌道近傍に収束させることが可能となる。
As described above, according to the present embodiment, the learning gain by multiplying the difference between the target trajectory and the actual trajectory is reduced toward the end of the trajectory, so that the vibration generated near the end of the trajectory is suppressed. can do.
As a result, the learning gain can be set larger than in the conventional method, and the actual trajectory can be converged to the vicinity of the target trajectory with fewer repetitive reproduction operations.

【0025】なお、本実施例では、上式(3)において
学習ゲインφ(t)を前述の式(2)で表される関数によ
って設定したが、時間の経過に従って減少する関数値が
得られるものであれば、他の関数を用いることも可能で
ある。
In this embodiment, the learning gain φ (t) in the above equation (3) is set by the function represented by the above equation (2), but a function value that decreases with the passage of time is obtained. Other functions can be used as long as they are available.

【0026】また、本実施例では、メモリ2に格納され
るθref(t)に基づいて目標速度 θ* ref(t)を算出するようにしたが、この代わりに、あ
らかじめ目標速度 θ* ref(t)を別のメモリに格納しておいてもよい。ま
た、再生動作時の実速度 θ*(t)をメモリ3に格納せずに、直接上式(3)によっ
て各制御周期毎のフィードフォワード値を算出し、この
算出値uk+1(t)を直接メモリ1に格納するようにしても
よい。
In the present embodiment, the target speed θ * ref (t) is calculated based on θref (t) stored in the memory 2, but instead, the target speed θ * ref is calculated in advance. (t) may be stored in another memory. Further, the actual speed θ * (t) during the reproducing operation is not stored in the memory 3, but the feedforward value for each control cycle is directly calculated by the above equation (3), and the calculated value u k + 1 (t ) May be stored directly in the memory 1.

【0027】また、本実施例では、制御回路としてコン
ピュータ(CPU等で構成された演算処理部4)を用い
た場合を例としているが、これを他の周知の種々の制御
素子に置き換えることも可能である。
Further, in the present embodiment, the case where the computer (the arithmetic processing unit 4 composed of a CPU or the like) is used as the control circuit is taken as an example, but it may be replaced with other well-known various control elements. It is possible.

【0028】また、本実施例では、ロボットの各関節を
電動モータにより駆動し、かつその電動モータに対し個
別に位置誤差および速度誤差のネガティブフィードバッ
ク制御系が構成されたプレイバック形ロボットを対象に
説明したが、この発明は油圧シリンダを駆動源とするロ
ボットや、その他種々のサーボ機構を有する機械にも適
用可能である。
Further, in the present embodiment, a playback type robot in which each joint of the robot is driven by an electric motor and a negative feedback control system of the position error and the speed error is individually configured for the electric motor is targeted. Although described, the present invention is also applicable to a robot using a hydraulic cylinder as a drive source and a machine having various servo mechanisms.

【0029】また、本実施例では、フィードフォワード
値の算出に、目標軌道とロボットの実軌道との間に生じ
る速度誤差のみを用いているが、位置誤差や加速度誤差
に時間とともに減少する係数を乗じた値を前回の再生動
作時のフィードフォワード値に加えることによって学習
を行うことも可能である。
Further, in the present embodiment, only the velocity error generated between the target trajectory and the actual trajectory of the robot is used in the calculation of the feedforward value, but the position error and the acceleration error are calculated with a coefficient that decreases with time. It is also possible to perform learning by adding the multiplied value to the feedforward value at the time of the previous reproduction operation.

【0030】さらにこの発明は、前述の文献(a)に記
載されている学習制御方法と併用することも可能であ
る。すなわち、この文献(a)には、測定誤差等の影響
を緩和するため、下式(4)に示すように、前回のフィ
ードフォワード値uk(t)に適当な正定数(1-a)を乗じる学
習制御方法が提案されており、本発明との併用が可能で
ある。 uk+1(t)=φ(θ* ref(t)−θ*(t))+(1-a)uk(t) ………………(4)
Further, the present invention can be used in combination with the learning control method described in the above-mentioned document (a). That is, in this document (a), in order to mitigate the influence of measurement error, etc., as shown in the following equation (4), an appropriate positive constant (1-a) is added to the previous feedforward value u k (t). A learning control method that multiplies by has been proposed and can be used in combination with the present invention. u k + 1 (t) = φ (θ * ref (t) -θ * (t)) + (1-a) u k (t) .................. (4)

【0031】[0031]

【発明の効果】以上説明したように、この発明によれ
ば、軌道の終わりに近づくに従って発生する実軌道の振
動が抑制されるので、従来に比して学習ゲインを大きく
設定することができ、より少ない繰り返し再生動作で実
軌道を目標軌道近傍に収束させることが可能となる。こ
の結果、ロボットの学習効率を向上させることができ
る。
As described above, according to the present invention, since the vibration of the actual orbit that occurs as the end of the orbit is approached is suppressed, the learning gain can be set larger than in the conventional case. It becomes possible to converge the actual orbit to the vicinity of the target orbit with fewer repeated reproduction operations. As a result, the learning efficiency of the robot can be improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の一実施例に用いられる制御回路の構
成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a control circuit used in an embodiment of the present invention.

【図2】同実施例において、CPUの動作に基づくフィ
ードフォワード制御動作を示すフローチャートである。
FIG. 2 is a flowchart showing a feedforward control operation based on an operation of a CPU in the embodiment.

【図3】従来の学習制御方法を3自由度を有するロボッ
トに適用し、学習ゲインを大きくし過ぎた場合に、再生
動作を20回行ったときの実軌道の例を示す図である。
FIG. 3 is a diagram showing an example of actual trajectories when a reproduction operation is performed 20 times when a conventional learning control method is applied to a robot having three degrees of freedom and a learning gain is excessively increased.

【符号の説明】[Explanation of symbols]

1〜3 メモリ 4 演算処理部 5,7 比較器 6,10 乗算器 8 アンプ 9 モータ 11 回転速度検出器 12 回転位置検出器 A1 目標軌道 A2 実軌道 1 to 3 memory 4 arithmetic processing unit 5,7 comparator 6,10 multiplier 8 amplifier 9 motor 11 rotational speed detector 12 rotational position detector A1 target trajectory A2 actual trajectory

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 ロボットに繰り返し再生動作を行わせる
際、該再生動作の目標となる目標軌道と該再生動作時に
おけるロボットの実軌道との間に生じる誤差に基づき、
該ロボットの駆動部へ供給する入力値を修正する学習制
御方法において、 前記目標軌道と前記実軌道との間における位置誤差、速
度誤差、加速度誤差のうち何れかの誤差を測定する第1
ステップと、 前記第1ステップで測定した誤差と時間の経過に従って
減少する係数とを乗算する第2ステップと、 前記第2ステップの乗算結果と前回の再生動作時に前記
駆動部へ供給した入力値とを加算する第3ステップと、 前記第3ステップの加算結果を次回の再生動作時におけ
る入力値として前記駆動部へ供給する第4ステップとを
具備することを特徴とするロボットの学習制御方法。
1. Based on an error generated between a target trajectory which is a target of the reproducing operation and an actual trajectory of the robot during the reproducing operation when the robot repeatedly performs the reproducing operation,
A learning control method for correcting an input value supplied to a drive unit of the robot, which measures any one of a position error, a velocity error, and an acceleration error between the target trajectory and the actual trajectory.
A step, a second step of multiplying the error measured in the first step by a coefficient that decreases with the passage of time, a multiplication result of the second step, and an input value supplied to the drive unit at the time of the previous reproduction operation. And a fourth step of supplying the addition result of the third step to the drive unit as an input value for the next reproduction operation.
JP07720493A 1993-04-02 1993-04-02 Robot learning control method Expired - Fee Related JP3433465B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP07720493A JP3433465B2 (en) 1993-04-02 1993-04-02 Robot learning control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP07720493A JP3433465B2 (en) 1993-04-02 1993-04-02 Robot learning control method

Publications (2)

Publication Number Publication Date
JPH06289918A true JPH06289918A (en) 1994-10-18
JP3433465B2 JP3433465B2 (en) 2003-08-04

Family

ID=13627303

Family Applications (1)

Application Number Title Priority Date Filing Date
JP07720493A Expired - Fee Related JP3433465B2 (en) 1993-04-02 1993-04-02 Robot learning control method

Country Status (1)

Country Link
JP (1) JP3433465B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010009529A (en) * 2008-06-30 2010-01-14 Fanuc Ltd Drive controller and drive control method for servo motor
JP2011167817A (en) * 2010-02-19 2011-09-01 Fanuc Ltd Robot having learning control function
WO2018216493A1 (en) 2017-05-26 2018-11-29 Omron Corporation Learning apparatus, learning control method, and program therefor
WO2018216492A1 (en) 2017-05-26 2018-11-29 Omron Corporation Learning apparatus, learning control method, program therefor
WO2018216490A1 (en) 2017-05-26 2018-11-29 Omron Corporation Learning apparatus, learning control method, program therefor

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010009529A (en) * 2008-06-30 2010-01-14 Fanuc Ltd Drive controller and drive control method for servo motor
JP4741637B2 (en) * 2008-06-30 2011-08-03 ファナック株式会社 Servo motor drive control device and drive control method
JP2011167817A (en) * 2010-02-19 2011-09-01 Fanuc Ltd Robot having learning control function
US8271134B2 (en) 2010-02-19 2012-09-18 Fanuc Corporation Robot having learning control function
DE102011011681B4 (en) * 2010-02-19 2013-02-07 Fanuc Corporation Robot with a learning control function
WO2018216493A1 (en) 2017-05-26 2018-11-29 Omron Corporation Learning apparatus, learning control method, and program therefor
WO2018216492A1 (en) 2017-05-26 2018-11-29 Omron Corporation Learning apparatus, learning control method, program therefor
WO2018216490A1 (en) 2017-05-26 2018-11-29 Omron Corporation Learning apparatus, learning control method, program therefor

Also Published As

Publication number Publication date
JP3433465B2 (en) 2003-08-04

Similar Documents

Publication Publication Date Title
JP4209480B2 (en) Hard disk drive feedforward device
JPH06214630A (en) Method for control of driving route of robot
JPH06289918A (en) Method for controlling learning of robot
JP4269150B2 (en) Robot controller
JP6906711B1 (en) Friction compensation device, collision detection device, torque feedforward arithmetic unit and robot control device, and friction compensation method
CN116872200A (en) Dynamic error pre-compensation method and device for parallel robot
JP2709773B2 (en) Servo motor control method
JPH07306707A (en) Learning control method for robot
JPS58169212A (en) Position controller of servomotor
JPH0782382B2 (en) Learning control method
JP2737725B2 (en) Robot control device and method
JPH09244725A (en) Method and device for track interpolation, and controller
JPH01292405A (en) Digital position servo device
JPH05150825A (en) Controller for robot
JP3171860B2 (en) Servo control system
JP4604636B2 (en) Power conversion control device
JPH0823761B2 (en) Learning control method
JPH06182682A (en) Speed control method for robot
JPH0828989B2 (en) Electric motor controller
JP2740691B2 (en) Control method
JPH06289915A (en) Digital servo controller
JP3355101B2 (en) Control device
KR100194144B1 (en) Position control method and controller of servomotor by feedforward
JP4228878B2 (en) Motor control device
JPH0679664A (en) Robot control device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees