JPS6315302A - 学習制御方式 - Google Patents

学習制御方式

Info

Publication number
JPS6315302A
JPS6315302A JP15894686A JP15894686A JPS6315302A JP S6315302 A JPS6315302 A JP S6315302A JP 15894686 A JP15894686 A JP 15894686A JP 15894686 A JP15894686 A JP 15894686A JP S6315302 A JPS6315302 A JP S6315302A
Authority
JP
Japan
Prior art keywords
trial
error
learning
command value
learning control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP15894686A
Other languages
English (en)
Inventor
Taku Arimoto
有本 卓
Munehisa Takeda
宗久 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP15894686A priority Critical patent/JPS6315302A/ja
Publication of JPS6315302A publication Critical patent/JPS6315302A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Feedback Control In General (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は、プレイバック形ロボット等のように繰り返
し制御を行う対象物の学習制御方式に係り、特に収束性
の速い(試行回数の少ない)学習制御方式に関するもの
である。
[従来の技術] この種の従来の学習制御方式は、プレイパック形ロボッ
ト等の繰り返し制御を行う対象物の位置決め制御を行う
場合には、まず教示動作を行って対象物に目標とする作
業軌跡の位置データ(教示値)を覚え込ませ、この教示
値に従って再生運転を行うと共に、上記教示値と運転軌
跡との差(誤差)を検出して、(1)式に示すように、
この誤差にゲインをかけたものを教示値に加えて次回の
再生運転の為の指令値とする方式が採用されている。
この次回の試行の指令値Uに、+(t) (k + 1
回目の試行の指令値)は次のようにして求めることがで
きる。まず加速度R1速度Q、位置に係わる力Pとから
指令値Uに(1)を算出する。
Xに :に回目の状態変数 Uに :に回目の試行の指令値 eに :に回目試行の誤差 φに :学習ゲイン [発明が解決しようとする問題点コ 従来の学習制御方式は以上のように構成されているので
、学習のゲインが固定的であり、試行回数を多く繰り返
さなければならないという問題点があった。
この発明は上記のような問題点を解消するためになされ
たもので、位置決め精度が良いとともに、収束性の速い
学習制御方式を得ることを目的とする。
[問題点を解決するための手段] この発明に係る学習制御方式は、制御対象の教示値と該
教示値に基づいて運転される再生軌跡との誤差を測定し
、各自由度毎の学習制御におけるゲインを増加する方向
に試行毎に変化させ、このゲインを上記誤差にかけて得
られる値を教示値に加えて再生運転を行なうものである
[作用] この発明における学習制御方式は、学習制御のゲインを
試行ごとに変化するようにしたことにより、はじめの誤
差が大きいときと試行をくり返すに従い誤差が小さくな
ってきたとき、この学習ゲインを変化することができ、
常に収束性のよい、つまり収束性の速い学習制御が実現
できる。
[実施例] 以下、この発明の一実施例を第1図及び第2図に基づい
て説明する。上記第1図に本実施例に係る学習制御方式
を行うためのブロック図、第2図に本実施例の処理手順
のフローチャートを示し、上記各図において(1)は制
御対象物(8)を制御する指令値を発生する例えばデジ
タル計算機で構成される指令値演算装置、(2)は指令
値演算装置(1)からのデジタル信号をアナログ信号に
変換するD/Aコンバータ、(3)は例えば演算アンプ
で構成される比較器、(4)は制御回路、(5)はサー
ボアンプ、(8)は制御対象物、(7)は制御対象物(
8)からの出力信号を検出する検出器、(8)は検出器
(7)により帰還されたアナログ信号をデジタル信号に
変換するA/Dコンバータ、(9)はA/Dコンバータ
(8)からのデジタル信号を記憶するメモリである。
次にこの実施例の動作を第2図に基づいて説明する。ま
ず初期設定では、教示動作等により、制御対象物(6)
に目標とする作業軌跡の位置データを覚え込ませるとと
もに、各種ゲインの初期設定を行う(ステップ11)、
続いて、初期設定に基づいて再生運転を行なう(ステッ
プ12)、この時、各サンプリング時間ごとの制御対象
物(6)からの出力信号は検出器(7) 、 A/Dコ
ンバータ(8)を通して、メモリ(8)に記憶される。
1回の再生運転が終了すると、記憶されたデータを基に
指令値演算装置(1)において、例えば誤差2乗積分値
のような評価関数が計算される(ステップ13)、もし
、評価関数が所定の値Jminより小さい場合(ステッ
プ14)には、制御を終了するか、そうでない(ステッ
プ14)場合には、誤差e+(t)に学習ゲインφlを
掛ける指令値U+(t)を修正し、新たな指令値U2(
t)を用いて再度再生運転を行なう(ステップ15)、
以下同様の操作を評価関数JがJ winより小さくな
るまでくり返す、一般に、試行が少ないほど誤差が大き
いため、大きな学習ゲインφをとることはできないが、
試行を繰り返すに従い誤差は小さくなるため、これまで
のように同じ学習ゲインφを使っていたのでは試行回数
がふえたときの収束性が悪くなる。これに対し、今回提
案するように学習ゲインφを試行が増えるに従い増加さ
せることにより、常に収束性の高い、つまり速い収束の
学習制御が実現できる。
なお、上記実施例では、サーボ制御装置及び制御対象物
はアナログサーボ系としたが、デジタルサーボ系として
もよいことは言うまでもない、また、上記説明ではl自
由度に限って説明したが、同様に多自由度を有する制御
対象についても適用可能であ、る。
また上記実施例における学習ゲインは単に増加する構成
としたが、指数函数的、線形的等に増加する構成とする
こともできる。
[発明の効果] 以上のように、この発明によれば、学習制御方式におい
て、各自由度毎の学習ゲインを試行毎に変化させるよう
に構成したので、位置決め精度が良いとともに、収束性
の速い学習制御が得られる効果がある。
【図面の簡単な説明】
第1図はこの発明を一実施例に係る学習制御方式を行う
ためのブロック図、第2図は本実施例の学習制御方式の
処理手順の一例を示すフローチャートを示す。 図において、 (1)は指令値演算装置、 (2)はD/Aコンバータ、 (3)は演算アンプ、 (4)は制御回路、 (5)はサーボアンプ、 (6)は制御対象物、 (7)は検出器、 (8)はメモリである。 なお、各図中、同一符号は同−又は相当部分を示す。 代  理  人   大  岩  増  雄第1図 第2図 手続補正書(自発) 昭和  年  月  日 2、発明の名称 学習制御方式 3、補正をする者 事件との関係 特許出願人 代表者 志 岐 守 哉 4、代理人 5、補正の対象 明細!2の発明の詳細な説明の欄。 6、補正の内容 (1)明細書第2頁第9行の「る。」という記載を「る
、この指令値は以下の様に算出される。」と補正する。 (2)明細書節2亘第10−13行の「この次回の試行
の指令・・・指令値Uに(1)を算出する。」という記
載を削除する。 (3)明細書第5頁第15行の「終了するか、」という
記載を「終了するが、」と補正する。 (4)明細書第5頁第17行の「掛ける指令値」という
記載を「掛けたもので指令値」と補正する。 以  上

Claims (1)

    【特許請求の範囲】
  1. 複数の自由度を有する制御対象を教示値に従って再生運
    転させて教示値と再生軌跡との誤差を測定し、次回の再
    生運転時には、教示値もしくは今回の指令値に、上記誤
    差にゲインをかけたものを加えて再生運転する学習制御
    方式において、各自由度毎の学習制御におけるゲインを
    増加する方向に試行ごとに変化させる構成としたことを
    特徴とする学習制御方式。
JP15894686A 1986-07-07 1986-07-07 学習制御方式 Pending JPS6315302A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15894686A JPS6315302A (ja) 1986-07-07 1986-07-07 学習制御方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15894686A JPS6315302A (ja) 1986-07-07 1986-07-07 学習制御方式

Publications (1)

Publication Number Publication Date
JPS6315302A true JPS6315302A (ja) 1988-01-22

Family

ID=15682785

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15894686A Pending JPS6315302A (ja) 1986-07-07 1986-07-07 学習制御方式

Country Status (1)

Country Link
JP (1) JPS6315302A (ja)

Similar Documents

Publication Publication Date Title
US4581699A (en) Power transmission
JPS61226804A (ja) 多自由度非線形機械システムの制御装置
US6046564A (en) Path planning apparatus and method for robots
JPH07261853A (ja) ロボットの振動低減装置
JPH03289385A (ja) モータ制御のゲイン調整方法
JPH0782382B2 (ja) 学習制御方式
JPS6315302A (ja) 学習制御方式
JPS6315303A (ja) 学習制御方法
JPS63197202A (ja) 動力サーボシステム
JP2733881B2 (ja) Pi制御ループをベースにした適応スライディングモード制御方式
JPH0193805A (ja) ロボットの教示データ作成方法
JP3194395B2 (ja) 経路関数逐次生成方法
JPH04195302A (ja) 適応制御装置
JP2703096B2 (ja) コンベア付きロボットシステムの教示方法
JPS62245401A (ja) 学習制御方式
JPS60171510A (ja) サ−ボ装置
JPS62174804A (ja) 産業用ロボツトの学習制御方法
JPH1082719A (ja) エンジントルク制御装置
KR0176456B1 (ko) 로봇시스템의 경로제어방법
JP2804655B2 (ja) ソフトウェアサーボ装置
SU744456A1 (ru) Система программного управлени дл робота-манипул тора
JPS5870315A (ja) ロボツトの制御装置
Khosla Recent advances in experimental robot control
JPS63182706A (ja) 2関節ロボツトの制御装置
JPH0490007A (ja) 産業用ロボットのコンベア追従方法