JPS61253505A - Learning controller for robot arm - Google Patents

Learning controller for robot arm

Info

Publication number
JPS61253505A
JPS61253505A JP9432985A JP9432985A JPS61253505A JP S61253505 A JPS61253505 A JP S61253505A JP 9432985 A JP9432985 A JP 9432985A JP 9432985 A JP9432985 A JP 9432985A JP S61253505 A JPS61253505 A JP S61253505A
Authority
JP
Japan
Prior art keywords
error
robot
gain
value
motion control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9432985A
Other languages
Japanese (ja)
Inventor
Ichiro Awaya
伊智郎 粟屋
Iwao Miyake
三宅 岩夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP9432985A priority Critical patent/JPS61253505A/en
Publication of JPS61253505A publication Critical patent/JPS61253505A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To reduce less an error with each repetition of trials and to improve the performance of the learning control of a robot arm, by storing the error produced from a preceding trial into an error memory part in the form of the control result and setting with calculation the gain of the motion control signal in proportion to the value of the error at the next trial stage. CONSTITUTION:The answer value theta' corresponding to the command value thetaof a robot 11 varies in response to the time change of the value theta. Here an error DELTAtheta is obtained by subtracting the value theta' from the value theta and stored in an error memory part 14. The error signal DELTAtheta stored in the part 14 is supplied to a gain correcting circuit 13 at the next motion control time point for calculation of the feedback gain. Thus the learning effect is obtained with reduction of the gain secured to the command value by repeating trials. This improves the motion control performance of a robot arm.

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は産業用ロボット等のロボットアームの運動制
御に学習機能を持たせたロボットアーム学習制御装置に
関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a robot arm learning control device that has a learning function for controlling the motion of a robot arm such as an industrial robot.

[従来の技術と発明が解決しようとする問題点]従来の
ロボットでは、アーム運動制御で誤差を生じていても、
前制御結果を元にアーム制御信号の出力ゲインを変化さ
せることにより最良を結果をもたらすようなアルゴリズ
ムを持たない。このため、繰返しが許される運動で回数
を重ねても誤差を小さくしていくことはできなかった。
[Problems to be solved by conventional technology and invention] In conventional robots, even if errors occur in arm motion control,
There is no algorithm that brings about the best result by changing the output gain of the arm control signal based on the previous control result. For this reason, it was not possible to reduce the error even if the number of repetitions of the exercise was repeated.

この発明は上記のような問題を改善するためになされた
もので、従来予め決められた制御では不可能であった試
行の繰返しによる制御性能の向上を行なうことができる
ロボットアーム学習制御装置を提供することを目的とす
る。
This invention was made to improve the above-mentioned problems, and provides a robot arm learning control device that can improve control performance through repeated trials, which was previously impossible with predetermined control. The purpose is to

[問題点を解決するための手段とその作用コすなわち、
この発明に係るロボットアーム学習制御装置は、運動制
御信号の指令値に基づいてアーム運動を制御するロボッ
トと、このロボットの運動量に対応する応答信号を発生
する応答信号発生手段と、前記運動制御信号の指令値か
ら前記応答信号の応答値を減算することによって前記ア
ーム運動の誤差を検出する誤差検出手段と、この誤差検
出手段で得られた誤差を前記ロボットの試行毎に書換記
憶する誤差メモリ部と、この誤差メモリ部に記憶された
誤差に基づいて前記ロボットに供給すべき次の運動制御
信号のゲインを補正するゲイン補正回路とを具備したこ
とを特徴とするものである。
[Means for solving the problem and their effects, that is,
A robot arm learning control device according to the present invention includes a robot that controls arm motion based on a command value of a motion control signal, a response signal generation means that generates a response signal corresponding to the amount of motion of the robot, and a response signal generator that generates a response signal corresponding to the motion amount of the robot. error detection means for detecting an error in the arm movement by subtracting the response value of the response signal from the command value; and an error memory section for rewriting and storing the error obtained by the error detection means each time the robot performs a trial. and a gain correction circuit that corrects the gain of the next motion control signal to be supplied to the robot based on the error stored in the error memory section.

つまり、このロボットアーム学習制御装置は、前試行で
生じた誤差を制御結果として誤差メモリ部に格納してお
き、次の試行段階において誤差の大きざに比例して運動
制御信号のゲインを計算設定することにより、試行が繰
返される毎に誤差を小さくしていくようにし、ロボット
に対して学習機能を持たせたものである。
In other words, this robot arm learning control device stores the error that occurred in the previous trial as a control result in the error memory section, and calculates and sets the gain of the motion control signal in proportion to the size of the error in the next trial stage. By doing this, the error is reduced each time the trial is repeated, giving the robot a learning function.

[実施例] 以下、図面を参照してこの発明の一実施例を詳細に説明
する。
[Embodiment] Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

図面はその構成を示すもので、図中11はロボットであ
る。このロボット11は減算器12、ゲイン補正回路1
3を介して供給される運動制御信号の指令値θをに基づ
いてアーム運動を試行するものである。そして、このロ
ボット11はアーム運動量に応じて応答信号を発生する
ようになされている。ここではその応答値をθ′で表わ
す。こ、 の応答信号は上記減算器12に供給され、上
記運動制御信号から減算される。この減算器12の出力
は上記ゲイン補正回路13に供給されると共に、誤差信
号Δθ(−〇−θ′)として誤差メモリ部14に供給さ
れる。この誤差メモリ部14は上記ロボット11の運動
試行毎に発生する誤差信号Δθを順次書換記憶するもの
で、この記憶した誤差信号Δθは次のロボット運動制御
時に上記ゲイン補正回路13に供給される。このゲイン
補正回路13は前試行によって得られた誤差信号Δθに
基づいてロボット11に供給する運動制御信号のゲイン
を計算補正するものである。
The drawing shows its configuration, and numeral 11 in the drawing is a robot. This robot 11 has a subtracter 12 and a gain correction circuit 1.
The arm movement is attempted based on the command value θ of the movement control signal supplied via the control signal 3. The robot 11 is configured to generate a response signal in accordance with the amount of arm movement. Here, the response value is expressed as θ'. The response signals are supplied to the subtracter 12 and subtracted from the motion control signal. The output of the subtracter 12 is supplied to the gain correction circuit 13 and also to the error memory section 14 as an error signal Δθ(-0-θ'). The error memory section 14 sequentially rewrites and stores the error signal Δθ generated each time the robot 11 moves, and the stored error signal Δθ is supplied to the gain correction circuit 13 during the next robot motion control. This gain correction circuit 13 calculates and corrects the gain of the motion control signal supplied to the robot 11 based on the error signal Δθ obtained in the previous trial.

すなわち、上記ロボット11の指令値θに対する応答値
θ′は指令値θの時間的変化と共に変化する。このとき
の誤差Δθは指令値θから応答値θ′を減算することに
よって求められ、誤差メモリ部14に格納される。この
誤差メモリ部14に格納された誤差信号Δθは次の運動
制御時にゲイン補正回路13に供給される。このゲイン
補正回路13はフィードバックゲイン計算を行なう、こ
のゲイン計算はi+1回目において、 Ki+1 −に+   <  1 +α 1 Δθ 1
 )   ・・・(1)で与えられる。尚、Kiはi回
目のゲインである。
That is, the response value θ' of the robot 11 to the command value θ changes as the command value θ changes over time. The error Δθ at this time is obtained by subtracting the response value θ' from the command value θ, and is stored in the error memory section 14. The error signal Δθ stored in the error memory section 14 is supplied to the gain correction circuit 13 during the next motion control. This gain correction circuit 13 performs feedback gain calculation, and in the i+1st gain calculation, Ki+1 − + < 1 + α 1 Δθ 1
)...Given by (1). Note that Ki is the i-th gain.

つまり、1回目の試行では、1Δθ1−0であるから、
K1−KO、すなわち固定ゲインとなる。
In other words, in the first trial, 1Δθ1-0, so
K1-KO, that is, a fixed gain.

2回目はに2−Kl(1+α1Δθi)となり、前試行
結果を考慮した可変ゲインとなる。以下、同様に、上記
の漸化式で表わされるゲイン計算式(1)に従って計算
される。尚、αは調整係数であり、この大きざによって
制御効果を調整することができる。つまり、ゲイン効果
を太き(したい場合にはαの値を大きくすればよい。換
言すれば、制御効果からαを最良値に調整することがで
きる。
The second time is 2-Kl (1+α1Δθi), which is a variable gain that takes into account the previous trial results. Hereinafter, calculations are similarly made according to the gain calculation formula (1) expressed by the above recurrence formula. Note that α is an adjustment coefficient, and the control effect can be adjusted depending on the size difference. In other words, it is possible to increase the gain effect by increasing the value of α. In other words, α can be adjusted to the best value from the control effect.

したがって、上記のように構成したロボットアーム学習
制御装置は、試行を繰返すことによって指令値に対する
誤差を小さくしていく学習効果があるため、ロボットの
アーム運動の制御性能を向上させることができる。
Therefore, the robot arm learning control device configured as described above has a learning effect of reducing the error with respect to the command value through repeated trials, so that the control performance of the robot arm movement can be improved.

[発明の効果] 以上詳述したようにこの発明によれば、前試行で生じた
誤差を制御結果として誤差メモリ部に格納しておき、次
の試行段階において誤差を大きさに比例して運動制御信
号のゲインを計算設定することにより、試行がm返され
る毎に誤差を小さくしていくようにし、ロボットに対し
て学習機能を持たせるようにしたことにより、従来予め
決められた制御では不可能であった試行の繰返しによる
制御性能の向上を行なうことができるロボットアーム学
習制御装置を提供することができる。
[Effects of the Invention] As detailed above, according to the present invention, the error generated in the previous trial is stored in the error memory section as a control result, and the error is moved in proportion to the size in the next trial stage. By calculating and setting the gain of the control signal, the error is reduced every m trials, and by giving the robot a learning function, it is possible to solve problems that would not be possible with conventional predetermined control. It is possible to provide a robot arm learning control device that can improve control performance by repeating possible trials.

【図面の簡単な説明】[Brief explanation of drawings]

図面はこの発明に係るロボットアーム学習制御装置の一
実施例を示すブロック回路構成図である。 11・・・ロボット、12・・・減算器、13・・・ゲ
イン補正回路、14・・・誤差メモリ部、θ・・・指令
値、θ−・・・応答値、Δθ・・・誤差信号。
The drawing is a block circuit configuration diagram showing an embodiment of a robot arm learning control device according to the present invention. DESCRIPTION OF SYMBOLS 11... Robot, 12... Subtractor, 13... Gain correction circuit, 14... Error memory section, θ... Command value, θ-... Response value, Δθ... Error signal .

Claims (1)

【特許請求の範囲】[Claims] 運動制御信号の指令値に基づいてアーム運動を制御する
ロボットと、このロボットの運動量に対応する応答信号
を発生する応答信号発生手段と、前記運動制御信号の指
令値から前記応答信号の応答値を減算することによって
前記アーム運動の誤差を検出する誤差検出手段と、この
誤差検出手段で得られた誤差を前記ロボットの試行毎に
書換記憶する誤差メモリ部と、この誤差メモリ部に記憶
された誤差に基づいて前記ロボットに供給すべき次の運
動制御信号のゲインを補正するゲイン補正回路とを具備
したことを特徴とするロボットアーム学習制御装置。
A robot that controls arm movement based on a command value of a motion control signal, a response signal generating means that generates a response signal corresponding to the amount of motion of the robot, and a response value of the response signal that is determined from a command value of the motion control signal. an error detection means for detecting an error in the arm movement by subtraction; an error memory section for rewriting and storing the error obtained by the error detection means for each trial of the robot; and an error stored in the error memory section. A robot arm learning control device comprising: a gain correction circuit that corrects a gain of a next motion control signal to be supplied to the robot based on the robot arm learning control device.
JP9432985A 1985-05-01 1985-05-01 Learning controller for robot arm Pending JPS61253505A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9432985A JPS61253505A (en) 1985-05-01 1985-05-01 Learning controller for robot arm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9432985A JPS61253505A (en) 1985-05-01 1985-05-01 Learning controller for robot arm

Publications (1)

Publication Number Publication Date
JPS61253505A true JPS61253505A (en) 1986-11-11

Family

ID=14107237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9432985A Pending JPS61253505A (en) 1985-05-01 1985-05-01 Learning controller for robot arm

Country Status (1)

Country Link
JP (1) JPS61253505A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02231602A (en) * 1989-03-06 1990-09-13 Yaskawa Electric Mfg Co Ltd General-purpose learning controller
JP2014180726A (en) * 2013-03-19 2014-09-29 Kobe Steel Ltd Compensating device for spring constant of multi-joint robot
JP2019087068A (en) * 2017-11-08 2019-06-06 川崎重工業株式会社 Control device, pressure test device and control method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02231602A (en) * 1989-03-06 1990-09-13 Yaskawa Electric Mfg Co Ltd General-purpose learning controller
JP2014180726A (en) * 2013-03-19 2014-09-29 Kobe Steel Ltd Compensating device for spring constant of multi-joint robot
JP2019087068A (en) * 2017-11-08 2019-06-06 川崎重工業株式会社 Control device, pressure test device and control method

Similar Documents

Publication Publication Date Title
JPS61226804A (en) Control device of multidegree-of-freedom nonlinear machine system
US20060149489A1 (en) Self-calibrating sensor orienting system
US20050234566A1 (en) Self-calibrating orienting system for a manipulating device
KR102275302B1 (en) RBFNN Based Decentralized Adaptive Tracking Control Using PSO for an Uncertain Electrically Driven Robot System with Input Saturation
JPH10329063A (en) Robot control device
JPS61253505A (en) Learning controller for robot arm
JP2000218577A (en) Robot control device
Maeda et al. View-based teaching/playback for industrial manipulators
CN115151883A (en) Vibration isolation control device and vibration isolation control method
JP4134599B2 (en) Synchronous control device
JPH0736506A (en) Adaptive controller using neural network
JPH0285902A (en) Feedforward controller
JPS63298501A (en) Controller
KR19980082593A (en) Iterative learning control method and device
JP3582541B2 (en) Positioning control method by sliding mode control
Natal et al. Nonlinear dual mode adaptive control of PAR2: a 2-dof planar parallel manipulator, with real-time experiments
JP2000339004A (en) Control device for control system having sliding resistance
JPH03225553A (en) Stabilization system for self-learning system
JP2921756B1 (en) Robot control method and control device
JP2008197857A (en) Instruction generation device and target value change method for instruction generation device
JPH07117818A (en) Stacker crane controller
JPS6143305A (en) Drive control method of robot
JPS61148507A (en) Control device of robot
JPH07175521A (en) Controller for servomotor
SU1618636A1 (en) Apparatus for controlling robot