JPH06320451A - Manipulator control method - Google Patents

Manipulator control method

Info

Publication number
JPH06320451A
JPH06320451A JP9958693A JP9958693A JPH06320451A JP H06320451 A JPH06320451 A JP H06320451A JP 9958693 A JP9958693 A JP 9958693A JP 9958693 A JP9958693 A JP 9958693A JP H06320451 A JPH06320451 A JP H06320451A
Authority
JP
Japan
Prior art keywords
control
learning
force
manipulator
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9958693A
Other languages
Japanese (ja)
Other versions
JP3105694B2 (en
Inventor
Masazumi Katayama
正純 片山
Mitsuo Kawahito
光男 川人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
A T R NINGEN JOHO TSUSHIN KENK
A T R NINGEN JOHO TSUSHIN KENKYUSHO KK
Sanyo Electric Co Ltd
Original Assignee
A T R NINGEN JOHO TSUSHIN KENK
A T R NINGEN JOHO TSUSHIN KENKYUSHO KK
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by A T R NINGEN JOHO TSUSHIN KENK, A T R NINGEN JOHO TSUSHIN KENKYUSHO KK, Sanyo Electric Co Ltd filed Critical A T R NINGEN JOHO TSUSHIN KENK
Priority to JP05099586A priority Critical patent/JP3105694B2/en
Publication of JPH06320451A publication Critical patent/JPH06320451A/en
Application granted granted Critical
Publication of JP3105694B2 publication Critical patent/JP3105694B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Feedback Control In General (AREA)
  • Control Of Position Or Direction (AREA)

Abstract

PURPOSE:To perform high-precise control through feedforward control by planning a balance position when articulated manipulator is controlled. CONSTITUTION:An ETP 10 designed to plan a balance truck through which a truck and a force being a target is accurately realized is obtained by learning. A feedback error learning method and a direct reverse modeling method are applicable to a learning rule. For example, in the feedback error learning method, a valve xfc calculated by an FC 14 is used as the output error of the ETP 10 and learning is performed by correcting the internal state (the internal variable) of the ETP 10. After learning, ideally speaking, a target truck and a force are caused to coincide with realized truck and force and complete transfer to feedforward control is effected. Namely, an object 12 to be controlled (a manipulator) is controlled by means of balance track data xe from the ETP 10. The ETP 10 performs duties as a feedforward item and the FC 14 performs duties as stable control and a learning evaluator.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はマニピュレータ制御方
法、特に平衡位置を用いた制御法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a manipulator control method, and more particularly to a control method using an equilibrium position.

【0002】[0002]

【従来の技術】マニピュレータを制御する場合、手先位
置(または姿勢)をある位置から別の位置に移したり、
ある経路に沿って動かしたりするための位置・軌道制御
と環境に存在する構造物から幾何学的・運動学的な拘束
をうけているときの制御の2種類に大別できる。前者に
は対象物までの到達運動などがある。後者における作業
として組み立て、研磨、ばり取り、ドアの開閉、クラン
クまわしなどがあり、手先効果器の位置だけでなくマニ
ピュレータが対象物に加える力の制御が必要なものが多
い。
2. Description of the Related Art When controlling a manipulator, the hand position (or posture) is moved from one position to another,
It can be roughly classified into two types: position / trajectory control for moving along a certain path, and control when geometrical / kinematic constraints are imposed by structures existing in the environment. The former includes reaching movements to the object. The latter work includes assembling, polishing, deburring, opening and closing doors, turning cranks, etc., and in many cases it is necessary to control not only the position of the hand effector but also the force applied by the manipulator to the object.

【0003】このようなマニピュレータの制御技術は、
医療・福祉ロボットやHAロボットが人体や環境に対し
て危害を加えない高い安全性と信頼性を確保するために
必要である。そのための制御法としてインピーダンス制
御法とハイブリッド制御法が考えられてきた。
The control technique for such a manipulator is
It is necessary for medical / welfare robots and HA robots to ensure high safety and reliability that do not harm the human body or the environment. Impedance control methods and hybrid control methods have been considered as control methods for this purpose.

【0004】インピーダンス制御法とは手先効果器の外
力に対する機械インピーダンス(慣性、粘性、弾性の総
称)を作業遂行に都合のよいように設定することによっ
て、位置および力を制御する方法である。この方法はさ
らに受動インピーダンス法と能動インピーダンス法に分
けられる。受動インピーダンス法とは、ダンパやバネな
どの機械的要素のみによって手先効果器のインピーダン
スを望ましいものに設定する方式である。また能動イン
ピーダンス法とは、手先効果器の位置、速度、加速度、
力などの実測値をフィードバックしてアクチュエータを
駆動することにより、結果として得られる機械インピー
ダンスを望ましいものに設定する方式である。
The impedance control method is a method of controlling the position and force by setting the mechanical impedance (general term of inertia, viscosity and elasticity) with respect to the external force of the hand effector so as to be convenient for performing work. This method is further divided into a passive impedance method and an active impedance method. The passive impedance method is a method in which the impedance of the hand effector is set to a desired impedance by only mechanical elements such as dampers and springs. The active impedance method is the position, velocity, acceleration, and
This is a method in which the mechanical impedance obtained as a result is set to a desired one by feeding back an actually measured value such as force and driving the actuator.

【0005】他方、ハイブリッド制御法とは、位置(軌
道)を制御したい方向および力を制御したい方向を定
め、それぞれの方向の位置や力を測定し、それらをフィ
ードバックして目標値に追従させるための位置(軌道)
制御ループ及び力制御ループを備える方法である。
On the other hand, the hybrid control method determines the direction in which the position (trajectory) is desired to be controlled and the direction in which the force is desired to be controlled, measures the position and the force in each direction, and feeds them back to follow the target value. Position (orbit)
A method comprising a control loop and a force control loop.

【0006】ここで、制御対象が機械的に弾性特性を有
している場合(バネや空気圧により駆動されるアクチュ
エータにより構成されたマニピュレータなど)や任意の
制御対象を用いてソフト的なローカルフィードバック制
御(ローカルなスティフネス制御)により弾性特性を実
現している場合、軌道と力を制御する1つの方法とし
て、平衡軌道(平衡位置の時系列)を制御する方式が考
えられる。フィードバック制御でも可能であるが、フィ
ードフォワード制御により行う方が望ましい。
Here, when the controlled object has mechanical elastic properties (such as a manipulator composed of an actuator driven by a spring or air pressure), a soft local feedback control is performed using an arbitrary controlled object. When the elastic characteristics are realized by (local stiffness control), one method of controlling the trajectory and the force is to control the equilibrium trajectory (time series of equilibrium positions). Feedback control is also possible, but feedforward control is preferable.

【0007】以下、制御対象が機械的に弾性的な性質を
有している場合のもっとも簡単なバネ−マス系(バネの
先端に質量mの物体がついている系)を例にして平衡軌
道を用いた制御方法について説明する。図19に示すよ
うに弾性係数k(スティフネス)のバネの先端が位置x
e (平衡位置)で静止している場合を考える。
In the following, an equilibrium orbit will be described by taking as an example the simplest spring-mass system (a system in which an object of mass m is attached to the tip of a spring) when the controlled object has mechanically elastic properties. The control method used will be described. As shown in FIG. 19, the tip of the spring having the elastic coefficient k (stiffness) is located at the position x.
Consider the case where the robot is stationary at e (equilibrium position).

【0008】力制御の場合 まず、力を制御する場合について説明する。図20に示
すようにバネの先端が位置xで拘束されて静止している
状態を考え、このときのつり合いの式は以下のようにな
る。
Case of Force Control First, a case of controlling force will be described. As shown in FIG. 20, the state where the tip of the spring is restrained at the position x and is stationary is considered. The balance equation at this time is as follows.

【0009】[0009]

【数1】 fext は対象物に与える力である。fext はスティフネ
スk及び平衡位置xe を用いて調整することができる。
しかし、目標とするfext を実現するkとxe の組み合
わせは一意に決定されない。これを解決するための1つ
の方法として、スティフネスkをまず望ましい(または
任意の)値に設定してから残りの平衡軌道xe を決定す
る方法が考えられる。つまり、目標とする力fext が実
現するように平衡軌道を計画する方法である。
[Equation 1] fext is the force applied to the object. fext can be adjusted using the stiffness k and the equilibrium position xe.
However, the combination of k and xe that realizes the target fext is not uniquely determined. One possible solution to this problem is to first set the stiffness k to a desired (or arbitrary) value and then determine the remaining equilibrium trajectory xe. In other words, it is a method of planning the equilibrium trajectory so that the target force fext is realized.

【0010】軌道制御の場合 次に軌道制御について説明する。バネ先端が位置x、平
衡位置がxe であるときを考える。このとき、図21に
示すようにバネの先端はxe の方向に力fが生成されx
e の方向に動く((1)式参照)。従って、平衡位置x
e を徐々にずらしてゆくことによってバネの先端の運動
を制御することができる。そして、この考え方は制御対
象として弾性的な性質を有する多関節マニピュレータを
用いた制御法に容易に拡張することができ、さらに運動
中に対しても拡張することができる。図22には多関節
マニピュレータの力制御の場合が示されており、また図
23には軌道制御の場合が示されている。
In the case of trajectory control Next, trajectory control will be described. Consider the case where the spring tip is at position x and the equilibrium position is at xe. At this time, as shown in FIG. 21, a force f is generated in the direction of xe at the tip of the spring and x
It moves in the direction of e (see equation (1)). Therefore, the equilibrium position x
The movement of the tip of the spring can be controlled by gradually shifting e. Then, this idea can be easily extended to a control method using an articulated manipulator having an elastic property as a controlled object, and further extended to during exercise. FIG. 22 shows the case of force control of an articulated manipulator, and FIG. 23 shows the case of trajectory control.

【0011】[0011]

【発明が解決しようとする課題】上記のように非常に簡
単な制御対象で運動方程式が正確に求められる場合には
簡単な計算で平衡位置xe が決定できる。しかし、一般
に制御対象の正確な運動方程式は得られないので、平衡
位置xe を決定する問題は簡単ではない。
When the equation of motion is accurately obtained with a very simple controlled object as described above, the equilibrium position xe can be determined by a simple calculation. However, in general, an accurate equation of motion of the controlled object cannot be obtained, so the problem of determining the equilibrium position xe is not simple.

【0012】ここで、仮想軌道を事前に計画することが
できれば、フィードフォワードで制御することが可能と
なる。しかし、一般にこの計画は困難である。その主な
理由は、 (ア)機械的に弾性特性が実現されている場合、マニピ
ュレータの手先効果器のスティフネスが姿勢に依存して
変化する (イ)制御対象の運動学方程式や運動方程式を利用した
インピーダンス制御法では精度良く手先のインピーダン
スを制御することができる。しかしながら制御対象の正
確な運動学方程式や動力学方程式を得ることは一般に困
難である。このため、精度よくインピーダンス制御でき
ない。また、フィードバックループのディレイタイムが
大きい場合にも正確なインピーダンス制御は期待できな
い 等である。このように手先のスティフネスが複雑に変化
する場合、平衡軌道を決定する問題は困難になってしま
う。従来手法では平衡軌道が特に事前に計画されている
場合が多い。例えば、平衡軌道xe を力の作用する面に
対して平行に一定の深さで計画するなどである。このよ
うな方策をとった場合、図24に示すように3つの姿勢
での手先のスティフネスがk1 、k2 、k3 とそれぞれ
異なるとき、実現される力も5(N)、10(N)、8
(N)と異なってしまう。したがって、このような方法
では正確な力制御が期待できない。
Here, if the virtual trajectory can be planned in advance, it becomes possible to control it by feedforward. However, this plan is generally difficult. The main reasons are: (a) When mechanical elasticity is realized, the stiffness of the hand effector of the manipulator changes depending on the posture. (B) The kinematic equation or equation of motion of the controlled object is used. The impedance control method described above can accurately control the impedance of the hand. However, it is generally difficult to obtain an accurate kinematic equation or dynamic equation of the controlled object. Therefore, impedance control cannot be performed accurately. Moreover, even if the delay time of the feedback loop is large, accurate impedance control cannot be expected. When the stiffness of the hand changes in this way, the problem of determining the equilibrium trajectory becomes difficult. In the conventional method, the equilibrium trajectory is often planned in advance in many cases. For example, the equilibrium orbit xe is planned at a constant depth parallel to the surface on which the force acts. When such a measure is taken, when the stiffness of the hand in three postures is different from k1, k2, and k3 as shown in FIG. 24, the force to be realized is also 5 (N), 10 (N), 8
It is different from (N). Therefore, accurate force control cannot be expected by such a method.

【0013】また、力センサにより測定された実測値を
フィードバックして力を制御する方法もある。しかし、
力センサーにより計測された実測値には多くのノイズ
(センサにより生じるノイズや接触による不安定さから
生じる振動等)が含まれているためにフィードバック制
御だけでは安定な力制御が困難である。
There is also a method of feeding back the actual measurement value measured by the force sensor to control the force. But,
Since the actual measurement value measured by the force sensor contains a lot of noise (noise generated by the sensor, vibration caused by instability due to contact, etc.), stable feedback force control is difficult.

【0014】本発明は上記従来技術の有する課題に鑑み
なされたものであり、その目的は多関節マニピュレータ
の制御に際し、平衡位置を計画してフィードフォワード
制御により精度良く制御することが可能なマニピュレー
タ制御方法を提供することにある。
The present invention has been made in view of the above problems of the prior art, and its object is to control a multi-joint manipulator so that a balanced position can be planned and controlled accurately by feedforward control. To provide a method.

【0015】[0015]

【課題を解決するための手段】上記目的を達成するため
に、請求項1記載のマニピュレータ制御方法は、制御量
として平衡位置を与えることによりマニピュレータの位
置及び力を所望の値に制御するマニピュレータ制御方法
であって、前記平衡位置の時系列データを学習により平
衡軌道データとして獲得し、この平衡軌道データを制御
量として与えることによりマニピュレータをフィードフ
ォワード制御することを特徴とする。
In order to achieve the above object, a manipulator control method according to a first aspect of the present invention is a manipulator control for controlling a position and a force of a manipulator to desired values by giving an equilibrium position as a controlled variable. The method is characterized in that the time series data of the equilibrium position is acquired as equilibrium trajectory data by learning and the equilibrium trajectory data is given as a control amount to feed-forward control the manipulator.

【0016】また、上記目的を達成するために、請求項
2記載のマニピュレータ制御方法は、請求項1記載のマ
ニピュレータ制御方法において、前記学習をフィードバ
ック誤差学習法、直接逆モデリング法、順逆モデリング
法のいずれかの方法により行うことを特徴とする。
To achieve the above object, the manipulator control method according to a second aspect of the present invention is the manipulator control method according to the first aspect, wherein the learning is performed by a feedback error learning method, a direct inverse modeling method, or a forward inverse modeling method. It is characterized by performing either method.

【0017】[0017]

【作用】本発明のマニピュレータ制御方法は、制御対象
であるマニピュレータが弾性的な性質を有しており、ま
たその姿勢がある状態変数(または制御変数)で制御で
きることが前提である。ここで、制御対象が弾性的な性
質を有しているとは、ある姿勢で静止している状態(平
衡状態)から強制的にその姿勢を変化させたときもとの
姿勢に戻ろうとする力が生成されるものをいう。この性
質は機械的な要素により実現されている場合(受動的イ
ンピーダンス制御法)だけでなく、ネガティブフィード
バックループにより構成された制御系(能動的インピー
ダンス制御法)で実現されていてもよい。
The manipulator control method of the present invention is based on the premise that the manipulator to be controlled has elastic properties and that its posture can be controlled by a certain state variable (or control variable). Here, having the elastic property of the controlled object means the force that tries to return to the original posture when the posture is forcibly changed from the stationary state (equilibrium state) in a certain posture. Is generated. This property may be realized not only when it is realized by a mechanical element (passive impedance control method) but also by a control system (active impedance control method) configured by a negative feedback loop.

【0018】本発明のマニピュレータ制御方法の制御ス
キームは、図1に示されるように平衡軌道を計画する平
衡軌道計画器ETP10、及び平衡軌道を制御変数とす
る制御対象12からなる。フィードバック制御では一般
にループ時間が無視できないため、制御の性能がこのル
ープ時間に大きく左右される。このためフィードフォワ
ード制御が望まれる。そこで、目標とする軌道や力が正
確に実現できる平衡軌道を計画することができるETP
10が使用される。このETP10はフィードフォワー
ド項としての役割を果たす。
The control scheme of the manipulator control method according to the present invention comprises an equilibrium trajectory planner ETP10 for planning an equilibrium trajectory as shown in FIG. 1 and a controlled object 12 having the equilibrium trajectory as a control variable. In feedback control, the loop time is generally not negligible, and the control performance is greatly affected by this loop time. Therefore, feedforward control is desired. Therefore, it is possible to plan an equilibrium trajectory in which the desired trajectory and force can be accurately realized.
10 is used. This ETP 10 serves as a feedforward term.

【0019】一方、学習はETP10の内部状態(内部
変数)を修正してゆくことにより行う。ETPの出力x
e が
On the other hand, learning is performed by modifying the internal state (internal variable) of ETP10. ETP output x
e is

【数2】 として表されるものとする。x,dx/dt,d2 x/
dt2 ,fd はETPへの入力であり、wは内部変数で
ある。その内部変数w の修正量Δwは、直接逆モデリン
グ、順逆モデリング、フィードバック誤差学習等の学習
則を用いることにより計算可能である。n+1回目の学
習後の内部変数w(n+1)
[Equation 2] Shall be represented as x, dx / dt, d 2 x /
dt 2 and fd are inputs to ETP, and w is an internal variable. The correction amount Δw of the internal variable w can be calculated by using a learning rule such as direct inverse modeling, forward inverse modeling, and feedback error learning. The internal variable w (n + 1) after the n + 1th learning is

【数3】 となる。[Equation 3] Becomes

【0020】例えば、2リンクマニピュレータを用いて
拘束面(xの位置)に対して10(N)の力を作用させ
る場合、まず、上記の学習則を用いてETP10を学習
する。この結果、図2に示すような平衡軌道xe が計算
され、面上のどの位置でも目標とする10(N)の力が
実現されることになる。図2にはマニピュレータの各姿
勢におけるスティフネスkも同時に示されており、この
ようにスティフネスが変化しても平衡位置を適宜フィー
ドフォワード制御により変化させ、一定の力を得ること
ができる。
For example, when a force of 10 (N) is applied to the constraining surface (position of x) using the 2-link manipulator, first, ETP10 is learned using the above learning rule. As a result, the equilibrium trajectory xe as shown in FIG. 2 is calculated, and the target force of 10 (N) is realized at any position on the surface. FIG. 2 also shows the stiffness k in each posture of the manipulator at the same time. Even if the stiffness changes in this way, the equilibrium position can be appropriately changed by the feedforward control to obtain a constant force.

【0021】なお、本発明のETP10の学習則にはフ
ィードバック誤差学習法、直接逆モデリング法、順逆モ
デリング法を用いることができる。図3,4,5にはこ
れら学習則の概念図がそれぞれ示されている。フィード
バック誤差学習法はフィードバックコントローラからの
出力を誤差信号として学習が行われるものであり、学習
と制御を同時に行うことができるため、制御対象のダイ
ナミクスの変化に対しても追従することができる。直接
逆モデリング法は適当な制御入力に対する実現軌道を獲
得すべきモデルに入力し、このときの出力と制御入力と
の誤差により学習が進められるものである。また、順逆
モデリング法は、まず制御入力と実現軌道により事前に
順モデルを学習し、目標軌道と実現軌道との誤差を獲得
したこの順モデルを用いて逆伝播させることにより逆モ
デルの出力誤差を与えて逆モデルを学習するものであ
る。
A feedback error learning method, a direct inverse modeling method, and a forward inverse modeling method can be used for the learning rule of the ETP10 of the present invention. 3, 4 and 5 are conceptual diagrams of these learning rules, respectively. In the feedback error learning method, the output from the feedback controller is used as an error signal for learning. Since learning and control can be performed simultaneously, it is possible to follow changes in the dynamics of the controlled object. In the direct inverse modeling method, the realization trajectory for an appropriate control input is input to the model to be acquired, and learning is advanced by the error between the output and the control input at this time. In the forward-backward modeling method, the forward model is first learned by the control input and the realized trajectory, and the output error of the inverse model is calculated by back-propagating using the forward model that has acquired the error between the target trajectory and the realized trajectory. It gives the learning of the inverse model.

【0022】本発明におけるETP10は、これらの方
法を用いて学習することにより制御変数としての平衡移
動データを獲得し、マニピュレータをフィードフォワー
ド制御する。
The ETP 10 in the present invention acquires equilibrium movement data as a control variable by learning using these methods, and feed-forward controls the manipulator.

【0023】[0023]

【実施例】以下、図面を用いながら本発明のマニピュレ
ータ制御方法の好適な実施例について説明する。なお、
学習則としてはフィードバック誤差学習を例にとり説明
する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the manipulator control method of the present invention will be described below with reference to the drawings. In addition,
As a learning rule, feedback error learning will be described as an example.

【0024】図6には本実施例の学習スキームが示され
ている。ETP10を省いたスキームは、よく知られて
いるフィードバック制御法であり、フィードバック制御
器FC14により制御対象12をある程度制御できる。
しかしながら、前述したようにフィードバック制御では
一般的にループ時間が無視できないため、制御の性質が
このループ時間に大きく左右される。そこで、目標とす
る軌道や力が正確に実現できる平衡軌道を計画すること
ができるETP10を学習により獲得する。
FIG. 6 shows the learning scheme of this embodiment. The scheme omitting the ETP 10 is a well-known feedback control method, and the controlled object 12 can be controlled to some extent by the feedback controller FC14.
However, as described above, in feedback control, the loop time is generally not negligible, and the control property is greatly influenced by the loop time. Therefore, the ETP 10 that can plan the equilibrium trajectory in which the desired trajectory and force can be accurately achieved is acquired by learning.

【0025】学習則はフィードバック誤差学習法を適用
する。つまり、FC14により計算された値xfcをET
P10の出力誤差として用い、 ETP10の内部状態
(内部変数)を修正してゆくことにより学習を行う。E
TP10の出力xe は内部変数wを用いた(2)式とし
て表され場合、学習により内部変数wが修正される。内
部変数wの修正量は、次式で与えられる(フィードバッ
ク誤差学習法)。
The learning rule applies a feedback error learning method. In other words, the value xfc calculated by FC14 is ET
Learning is performed by using the output error of P10 and modifying the internal state (internal variable) of ETP10. E
When the output xe of TP10 is expressed as the equation (2) using the internal variable w, the internal variable w is modified by learning. The correction amount of the internal variable w is given by the following equation (feedback error learning method).

【0026】[0026]

【数4】 そして、n+1回目の学習後の内部変数w(n+1)
(3)式により更新される。なお、フィードバック誤差
学習法の詳細な説明は、例えばKawato,M.,Furukawa,K.,
Suzuki,R.(1987) A hierarchical neural-network mode
l for control and lea-rning of voluntary movement.
Biological Cybernetics 57:169-185 に示されている。
[Equation 4] Then, the internal variable w (n + 1) after the (n + 1) th learning is updated by the equation (3). A detailed explanation of the feedback error learning method is given in, for example, Kawato, M., Furukawa, K.,
Suzuki, R. (1987) A hierarchical neural-network mode
l for control and lea-rning of voluntary movement.
Biological Cybernetics 57: 169-185.

【0027】学習後、理想的には目標軌道・力と実現さ
れた軌道・力が一致し、フィードフォワード制御に完全
に移行する。すなわち、ETP10からの平衡軌道デー
タxe により制御対象12(マニピュレータ)が制御さ
れる。しかし、学習後でも予期できない外乱などが生じ
たとき、フィードバック制御器14により安定な応答が
保償される。このとき、ETP10はフィードフォワー
ド項としての役割をはたし、FC14は安定な制御を行
う働きとETP10を学習させるための評価器としての
役割を果たす。
After the learning, ideally, the target trajectory / force and the realized trajectory / force match, and the feed-forward control is completed. That is, the controlled object 12 (manipulator) is controlled by the equilibrium trajectory data xe from the ETP 10. However, when an unexpected disturbance occurs even after learning, the feedback controller 14 guarantees a stable response. At this time, the ETP10 serves as a feedforward term, and the FC14 serves as a stable control and an evaluator for learning the ETP10.

【0028】図7には本実施例の学習スキームのフロー
チャートが示されている。まず、目標軌道xd と力fd
を計画し(S101)、これらxd ,fd をETP10
に入力してETP10の出力を計算する(S102)。
計算は(2)式に従って行われる。
FIG. 7 shows a flowchart of the learning scheme of this embodiment. First, the target trajectory xd and the force fd
(S101), and these xd and fd are ETP10
To calculate the output of ETP10 (S102).
The calculation is performed according to the equation (2).

【0029】そして、軌道及び力の実測値を用いてFC
14の出力を計算し(S103)、このFC14の出力
を用いてETP10の内部変数wが修正される(S10
4)。修正は(3)式及び(4)式に従って行われる。
最後に、ETP10の出力とFC14の出力とを合計
し、制御対象12へ入力する(S105)。このような
修正作業を複数回繰り返して目標軌道・力と実現された
軌道・力が一致した場合には学習は終了し(S10
6)、前述したようにフィードフォワード制御に移行す
る。
Then, using the measured values of the orbit and force, FC
14 output is calculated (S103), and the internal variable w of ETP10 is corrected using this FC14 output (S10).
4). The correction is performed according to the expressions (3) and (4).
Finally, the output of the ETP 10 and the output of the FC 14 are summed and input to the control target 12 (S105). If the desired trajectory and force match the realized trajectory and force by repeating such correction work a plurality of times, the learning ends (S10).
6) As described above, the control shifts to the feedforward control.

【0030】図8には本発明の制御方法が適用されるマ
ニピュレータ制御システムの一例が示されている。この
制御システムは、ホストコンピュータ100、画像処理
装置102、カメラ104,106、ソフトアーム10
8、ロボットコントローラ110、及びサーボバルブユ
ニット112を含んで構成される。図9にはソフトアー
ム108の構成図が示されている。ソフトアーム108
は空気圧で圧縮するゴム性のアクチュエータであり、ゴ
ム性のチューブの上に繊維コードを網状に編み上げ、両
端を金具で固定して構成される。空気圧サーボ系が指令
値に従って空気圧を制御することにより動作し、位置制
御と力制御を同時に行うことができる。
FIG. 8 shows an example of a manipulator control system to which the control method of the present invention is applied. This control system includes a host computer 100, an image processing device 102, cameras 104 and 106, a soft arm 10.
8, a robot controller 110, and a servo valve unit 112. FIG. 9 shows a configuration diagram of the soft arm 108. Soft arm 108
Is a rubber actuator that is compressed by air pressure, and is constructed by braiding fiber cords in a net shape on a rubber tube and fixing both ends with metal fittings. The pneumatic servo system operates by controlling the pneumatic pressure according to the command value, and position control and force control can be performed simultaneously.

【0031】このようなソフトアームの如く機械的な要
素によりスティフネスが実現されている場合、図6及び
図7に示されたフィードバック誤差学習法は図10に示
されるスキームで行われる。ここで、ETP10には目
標軌道xd と目標力fd が入力され、平衡軌道xνが計
算される。力制御(拘束運動)を行う場合、ETP10
には拘束される面上での位置、速度、加速度と目標とす
る力などが入力される。一方、軌道制御(自由運動)を
行う場合、ETP10には目標とする軌道の位置、速
度、加速度などが入力される。ここで、ETP10はニ
ューラルネットワークモデル、テーブル、ルール、数式
等で構成される。ETP10に多層神経回路モデルを用
いた場合には、フィードバック誤差学習とバックプロパ
ゲーション学習則との組み合わせにより学習できる。
When stiffness is realized by a mechanical element such as the soft arm, the feedback error learning method shown in FIGS. 6 and 7 is performed by the scheme shown in FIG. Here, the target trajectory xd and the target force fd are input to the ETP 10, and the equilibrium trajectory xν is calculated. When performing force control (restraint movement), ETP10
In, the position, velocity, acceleration, and target force on the constrained surface are input. On the other hand, when performing trajectory control (free movement), the position, velocity, acceleration, etc. of the target trajectory are input to the ETP 10. Here, the ETP 10 is composed of a neural network model, a table, a rule, a mathematical expression and the like. When a multilayer neural network model is used for ETP10, learning can be performed by a combination of feedback error learning and backpropagation learning rules.

【0032】また、FC14は通常よく用いられるフィ
ードバック制御器であり、制御則にはPID制御器等が
用いられる。力制御(拘束運動)を行う場合、フィード
バック制御則には、力に関するPI制御則等が用いられ
る。
The FC 14 is a feedback controller which is usually used, and a PID controller or the like is used as the control rule. When performing force control (constraint motion), the PI control law regarding force is used as the feedback control law.

【0033】[0033]

【数5】 軌道制御(自由運動)を行う場合、フィードバック制御
則には、位置に関するPID制御則等が用いられる。
[Equation 5] When orbital control (free movement) is performed, the PID control law regarding position is used as the feedback control law.

【0034】[0034]

【数6】 また、逆運動学モデル器IKM16は作業座標から関節
角などの座標系に座標変換する。逆静力学モデル器IS
M18は目標とする姿勢を決定するための制御入力を計
算する。ISM18、IKM16もETP10と同様に
ニューラルネットモデル、テーブル、ルール、数式など
で構成される。ETP10と同様に、ISM18やIK
M16に多層神経回路モデルを用いた場合、フィードバ
ック誤差学習とバックプロパゲーション学習則との組み
合わせにより学習できる。
[Equation 6] Further, the inverse kinematics model device IKM16 transforms the work coordinates into a coordinate system such as a joint angle. Inverse static model IS
M18 calculates the control input for determining the target attitude. Like the ETP10, the ISM18 and the IKM16 are also composed of neural net models, tables, rules, mathematical formulas, and the like. As with ETP10, ISM18 and IK
When a multilayer neural circuit model is used for M16, learning can be performed by a combination of feedback error learning and backpropagation learning rules.

【0035】このように、制御対象が弾性的な性質を有
する場合に本実施例の制御スキームは有効であり、以
下、本実施例の制御スキームを粘弾性特性をもつ2関節
型マニピュレータに適用した結果について示す。
As described above, the control scheme of this embodiment is effective when the controlled object has elastic properties, and the control scheme of this embodiment is applied to a two-joint manipulator having viscoelastic characteristics. The results are shown below.

【0036】図12には人の腕のモデルである2関節6
筋モデル(片山正純、川人光男:“並列階層制御神経回
路モデルにより予測される人腕の仮想軌道と剛楕円
体”、電子情報通信学会、1991年)が示されてお
り、単関節筋(肩関節に2筋と肘関節に2筋)と多関節
筋(二頭筋と三頭筋)を用いて2関節アームとしてモデ
ル化したものである。なお、ETP10、ISM18、
IKM16には多層神経回路モデルを用いた。学習は上
記で説明した学習法(フィードバック誤差学習+バック
プロパゲーション)を用いて行った。
FIG. 12 shows a two-joint 6 model of a human arm.
A muscle model (Masumi Katayama, Mitsuo Kawahito: "Virtual trajectory and rigid ellipsoid of human arm predicted by parallel hierarchical control neural circuit model", Institute of Electronics, Information and Communication Engineers, 1991) is shown, and a single joint muscle ( It is modeled as a two-joint arm using two muscles for the shoulder joint and two muscles for the elbow joint and multi-joint muscles (biceps and triceps). ETP10, ISM18,
A multilayer neural circuit model was used for IKM16. Learning was performed using the learning method (feedback error learning + back propagation) described above.

【0037】図16及び図17にはこのモデルを用いて
軌道と力の制御実験を計算機シミュレーションにより行
った結果が示されている。シミュレーションに必要な腕
に関するパラメータ、筋に関するパラメータ、及びモー
メントアームはそれぞれ図13、図14、図15に示さ
れており、k0 、b0 は筋のもつ固有の弾性、粘性であ
り、θは関節角、Mはリンクの重さ、Lはリンクの長
さ、Iは慣性モーメントである(前述の“並列階層制御
神経回路モデルにより予測される人腕の仮想軌道と剛楕
円体”参照)。本シミュレーションにおける制御内容
は、図16に示されるように、まず、手先が壁に向かっ
て軌道制御され、次に、壁に接触してから力制御され、
最後に、壁から離れて軌道制御されるものである。図1
6にはこの時の平衡軌道xe 、目標軌道、及び実際の軌
道が示されており、図17には目標力fd と実現された
力fext が示されている。図16と図17から手先の軌
道と力が精度良く制御されていることが確認できた。
FIG. 16 and FIG. 17 show the results of computer-simulated trajectory and force control experiments using this model. The parameters relating to the arm, the parameters relating to the muscle, and the moment arm required for the simulation are shown in FIGS. 13, 14 and 15, respectively, k0 and b0 are the inherent elasticity and viscosity of the muscle, and θ is the joint angle. , M is the weight of the link, L is the length of the link, and I is the moment of inertia (see the above-mentioned "virtual trajectory of the human arm and rigid ellipsoid predicted by the parallel hierarchical control neural circuit model"). As shown in FIG. 16, the control contents in this simulation are as follows. First, the hand is orbitally controlled toward the wall, and then, the force is controlled after contact with the wall.
Finally, it is orbited away from the wall. Figure 1
6 shows the equilibrium trajectory xe, the target trajectory, and the actual trajectory at this time, and FIG. 17 shows the target force fd and the realized force fext. From FIG. 16 and FIG. 17, it was confirmed that the trajectory and force of the hand were accurately controlled.

【0038】さらに、図12の人腕のモデルを用いて軌
道制御実験を計算機シミュレーションにより行った。こ
の時の平衡軌道、目標軌道、実際の軌道が図18に示さ
れている。この結果から軌道制御も可能であることが確
認された。
Further, a trajectory control experiment was conducted by computer simulation using the human arm model shown in FIG. The equilibrium orbit, the target orbit, and the actual orbit at this time are shown in FIG. From this result, it was confirmed that orbit control is also possible.

【0039】一方、このように機械的な要素によりステ
ィフネスが実現されている場合ではなく、手先のインピ
ーダンスが下位フィードバック制御ループにより制御さ
れている場合(インピーダンス制御)にも本発明の手法
は適用できる。図11には制御対象がスティフネス制御
される場合が示されている。ETP10とFC14は図
10と同様である。
On the other hand, the method of the present invention can be applied not only when the stiffness is realized by the mechanical element as described above but also when the impedance of the hand is controlled by the lower feedback control loop (impedance control). . FIG. 11 shows a case where the controlled object is stiffness-controlled. ETP10 and FC14 are the same as in FIG.

【0040】図11において、τは関節トルク、KとB
は弾性係数と粘性係数(ダンピング)を表す。KとBは
タスク遂行に適した値に設定され、下位フィードバック
制御ループにより以下のようにインピーダンス制御され
ている。
In FIG. 11, τ is the joint torque, K and B
Represents the elastic coefficient and the viscosity coefficient (damping). K and B are set to values suitable for task execution, and impedance control is performed by the lower feedback control loop as follows.

【0041】[0041]

【数7】 (7)式の場合はスティフネスと粘性が制御されてい
る。制御対象12としては、通常FA等に用いられる多
関節型マニピュレータ等が制御対象として考えられる。
[Equation 7] In the case of equation (7), stiffness and viscosity are controlled. As the controlled object 12, an articulated manipulator or the like which is usually used for FA or the like can be considered.

【0042】このように、本実施例では、通常の学習制
御とは違い、トルク、力、モータやバルブへの指令を直
接学習するのではなく、仮想軌道を学習することにより
マニピュレータをフィードフォワード制御するものであ
り、力のみならず軌道をも正確、かつ迅速に制御するこ
とができる。
As described above, in the present embodiment, unlike the normal learning control, the manipulator is feed-forward controlled by learning the virtual trajectory instead of directly learning the torque, the force, the command to the motor and the valve. Therefore, not only the force but also the trajectory can be controlled accurately and quickly.

【0043】なお、本実施例では仮想軌道の学習法とし
てはフイードバック誤差学習法を用いたが、もちろん、
直接逆モデリング、順逆モデリングなどの学習則を用い
ることが可能であることは言うまでもない。
Although the feedback error learning method is used as the learning method of the virtual trajectory in this embodiment, of course,
It goes without saying that learning rules such as direct inverse modeling and forward inverse modeling can be used.

【0044】[0044]

【発明の効果】以上説明したように、本発明のマニピュ
レータ制御方法によれば、学習により平衡位置(軌道)
が計画されるので制御の性能が向上する効果がある。ま
た、学習により獲得された平衡位置を制御対象に供給す
ることによりフィードフォワード制御が可能となり、力
だけでなく軌道(位置)も同時に制御することができる
効果がある。
As described above, according to the manipulator control method of the present invention, the equilibrium position (trajectory) is learned by learning.
Is planned, which has the effect of improving the control performance. Further, by supplying the equilibrium position acquired by learning to the controlled object, feedforward control becomes possible, and not only the force but also the trajectory (position) can be controlled at the same time.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明のマニピュレータ制御方法における制御
スキームを示す説明図である。
FIG. 1 is an explanatory diagram showing a control scheme in a manipulator control method of the present invention.

【図2】本発明のマニピュレータ制御方法の作用説明図
である。
FIG. 2 is an operation explanatory view of the manipulator control method of the present invention.

【図3】フィードバック誤差学習法の概念図である。FIG. 3 is a conceptual diagram of a feedback error learning method.

【図4】直接逆モデリング学習法の概念図である。FIG. 4 is a conceptual diagram of a direct inverse modeling learning method.

【図5】順逆モデリング学習法の概念図である。FIG. 5 is a conceptual diagram of a forward and reverse modeling learning method.

【図6】本発明の一実施例におけるフィードバック誤差
学習法を用いた制御スキームを示す説明図である。
FIG. 6 is an explanatory diagram showing a control scheme using a feedback error learning method according to an embodiment of the present invention.

【図7】同実施例における学習フローチャートである。FIG. 7 is a learning flowchart in the embodiment.

【図8】同実施例における制御システム構成図である。FIG. 8 is a configuration diagram of a control system in the embodiment.

【図9】同実施例におけるソフトアームの構成図であ
る。
FIG. 9 is a configuration diagram of a soft arm in the embodiment.

【図10】制御対象が機械的に弾性特性を有する場合の
制御スキームを示す説明図である。
FIG. 10 is an explanatory diagram showing a control scheme in the case where a controlled object has mechanically elastic characteristics.

【図11】制御対象がスティフネス制御されている場合
の制御スキームを示す説明図である。
FIG. 11 is an explanatory diagram showing a control scheme in the case where the controlled object is stiffness-controlled.

【図12】人の腕のモデルである2関節6筋モデルの説
明図である。
FIG. 12 is an explanatory diagram of a 2-joint 6-muscle model that is a model of a human arm.

【図13】同モデルにおける筋のパラメータを示す図で
ある。
FIG. 13 is a diagram showing muscle parameters in the model.

【図14】同モデルにおけるアームのパラメータを示す
図である。
FIG. 14 is a diagram showing parameters of an arm in the model.

【図15】同モデルにおけるモーメントアームを示す図
である。
FIG. 15 is a diagram showing a moment arm in the same model.

【図16】手先軌道と平衡軌道のシミュレーション結果
を示す図である。
FIG. 16 is a diagram showing simulation results of a hand trajectory and a balanced trajectory.

【図17】目標力と実際の力のシミュレーション結果を
示す図である。
FIG. 17 is a diagram showing simulation results of a target force and an actual force.

【図18】軌道制御のシミュレーション結果を示す図で
ある。
FIG. 18 is a diagram showing a simulation result of trajectory control.

【図19】制御対象をバネ−マス系とした場合の説明図
である。
FIG. 19 is an explanatory diagram when a spring-mass system is used as a control target.

【図20】図19においてバネの先端が拘束された状態
を示す説明図である。
FIG. 20 is an explanatory diagram showing a state in which the tip of the spring is restrained in FIG. 19;

【図21】バネーマス系における軌道制御の場合の説明
図である。
FIG. 21 is an explanatory diagram in the case of trajectory control in a spring-mass system.

【図22】多関節マニピュレータの力制御の説明図であ
る。
FIG. 22 is an explanatory diagram of force control of an articulated manipulator.

【図23】多関節マニピュレータの軌道制御の説明図で
ある。
FIG. 23 is an explanatory diagram of trajectory control of an articulated manipulator.

【図24】スティフネスの変化による力の変化を示す図
である。
FIG. 24 is a diagram showing a change in force due to a change in stiffness.

【符号の説明】[Explanation of symbols]

10 ETP(平衡軌道計画器) 12 制御対象 14 フィードバック制御器 10 ETP (balanced trajectory planner) 12 controlled object 14 feedback controller

───────────────────────────────────────────────────── フロントページの続き (72)発明者 川人 光男 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール人間情 報通信研究所内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Mitsuo Kawato 5 Shirahira-cho, Soraku-gun, Kyoto Pref. Mihiratani, Otani, Oita

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 制御量として平衡位置を与えることによ
りマニピュレータの位置及び力を所望の値に制御するマ
ニピュレータ制御方法であって、 前記平衡位置の時系列データを学習により平衡軌道デー
タとして獲得し、この平衡軌道データを制御量として与
えることによりマニピュレータをフィードフォワード制
御することを特徴とするマニピュレータ制御方法。
1. A manipulator control method for controlling the position and force of a manipulator to a desired value by giving an equilibrium position as a controlled variable, wherein time series data of the equilibrium position is acquired as equilibrium trajectory data by learning. A manipulator control method characterized in that the manipulator is feed-forward controlled by giving the equilibrium trajectory data as a control amount.
【請求項2】 請求項1記載のマニピュレータ制御方法
において、 前記学習はフィードバック誤差学習法、直接逆モデリン
グ法、順逆モデリング法のいずれかの方法により行うこ
とを特徴とするマニピュレータ制御方法。
2. The manipulator control method according to claim 1, wherein the learning is performed by any one of a feedback error learning method, a direct inverse modeling method, and a forward inverse modeling method.
JP05099586A 1993-04-26 1993-04-26 Manipulator control method Expired - Fee Related JP3105694B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP05099586A JP3105694B2 (en) 1993-04-26 1993-04-26 Manipulator control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05099586A JP3105694B2 (en) 1993-04-26 1993-04-26 Manipulator control method

Publications (2)

Publication Number Publication Date
JPH06320451A true JPH06320451A (en) 1994-11-22
JP3105694B2 JP3105694B2 (en) 2000-11-06

Family

ID=14251206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05099586A Expired - Fee Related JP3105694B2 (en) 1993-04-26 1993-04-26 Manipulator control method

Country Status (1)

Country Link
JP (1) JP3105694B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007526568A (en) * 2004-03-04 2007-09-13 バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフト Process control system
JP2008121783A (en) * 2006-11-13 2008-05-29 Japan Science & Technology Agency Joint system
JP2009042985A (en) * 2007-08-08 2009-02-26 Sumitomo Heavy Ind Ltd Motor control unit and motor control method
WO2009147832A1 (en) * 2008-06-06 2009-12-10 パナソニック株式会社 Robot, robot control device, control method and control program
US8958914B2 (en) 2011-11-07 2015-02-17 Seiko Epson Corporation Robot control system, robot system, and sensor information processing apparatus
JP2020032481A (en) * 2018-08-28 2020-03-05 株式会社東芝 Robot control device, robot device, parameter adjustment method for robot control, and program
CN111319042A (en) * 2020-02-06 2020-06-23 北京凡川智能机器人科技有限公司 Robot flexible assembly control method based on forgetting factor dynamic parameters
WO2020203876A1 (en) * 2019-03-29 2020-10-08 株式会社小松製作所 Industrial machine, control device, control compensation device, and control method
CN112612203A (en) * 2020-12-17 2021-04-06 上海电气集团股份有限公司 Control method and system of rehabilitation robot, electronic device and storage medium

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007526568A (en) * 2004-03-04 2007-09-13 バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフト Process control system
JP2008121783A (en) * 2006-11-13 2008-05-29 Japan Science & Technology Agency Joint system
JP2009042985A (en) * 2007-08-08 2009-02-26 Sumitomo Heavy Ind Ltd Motor control unit and motor control method
WO2009147832A1 (en) * 2008-06-06 2009-12-10 パナソニック株式会社 Robot, robot control device, control method and control program
JP4634541B2 (en) * 2008-06-06 2011-02-16 パナソニック株式会社 Robot, robot control device, control method, and control program
US8401702B2 (en) 2008-06-06 2013-03-19 Panasonic Corporation Robot, and control apparatus, control method, and control program for robot
US8958914B2 (en) 2011-11-07 2015-02-17 Seiko Epson Corporation Robot control system, robot system, and sensor information processing apparatus
US9463573B2 (en) 2011-11-07 2016-10-11 Seiko Epson Corporation Robot control system, robot system, and sensor information processing apparatus
JP2020032481A (en) * 2018-08-28 2020-03-05 株式会社東芝 Robot control device, robot device, parameter adjustment method for robot control, and program
US11179851B2 (en) 2018-08-28 2021-11-23 Kabushiki Kaisha Toshiba Robot control device, robot control parameter adjustment method, and non-transitory storage medium storing program
WO2020203876A1 (en) * 2019-03-29 2020-10-08 株式会社小松製作所 Industrial machine, control device, control compensation device, and control method
KR20210113331A (en) 2019-03-29 2021-09-15 가부시키가이샤 고마쓰 세이사쿠쇼 Industrial Machinery, Control Devices, Control Compensation Devices, and Control Methods
DE112020000402T5 (en) 2019-03-29 2021-10-28 Komatsu Ltd. Industrial machine, control device, control compensator and control method
CN111319042A (en) * 2020-02-06 2020-06-23 北京凡川智能机器人科技有限公司 Robot flexible assembly control method based on forgetting factor dynamic parameters
CN111319042B (en) * 2020-02-06 2023-03-07 北京凡川智能机器人科技有限公司 Robot flexible assembly control method based on forgetting factor dynamic parameters
CN112612203A (en) * 2020-12-17 2021-04-06 上海电气集团股份有限公司 Control method and system of rehabilitation robot, electronic device and storage medium

Also Published As

Publication number Publication date
JP3105694B2 (en) 2000-11-06

Similar Documents

Publication Publication Date Title
Zghal et al. Efficient gradient projection optimization for manipulators with multiple degrees of redundancy
Jung et al. Neural network impedance force control of robot manipulator
Jordan et al. Computational motor control
US8924021B2 (en) Control of robots from human motion descriptors
JP5930754B2 (en) Robot apparatus control method and robot apparatus
JPH07287602A (en) Method and device for controlling output orbit and dynamic characteristic of nonlinear system
JP3105694B2 (en) Manipulator control method
JP3369351B2 (en) Elasticity setting method and control device for articulated manipulator
Leeser et al. Exploitation of Kinematic Redundancy in Torque-Controllable Manipulators via Multiple-Jacobian Superposition
Sharkawy Intelligent control and impedance adjustment for efficient human-robot cooperation
Avizzano et al. The hand force feedback: analysis and control of a haptic device for the human-hand
Huang et al. Motion Regulation Solutions to Holding and Moving an Object for Single-Leader–Dual-Follower Teleoperation
Mishra et al. Dynamic modelling of an elephant trunk like flexible bionic manipulator
Ma et al. Control of a cable-driven parallel robot via deep reinforcement learning
Best Position and stiffness control of inflatable robotic links using rotary pneumatic actuation
Rasch et al. Combining cartesian trajectories with joint constraints for human-like robot-human handover
Sado et al. Adaptive hybrid impedance control for a 3DOF upper limb rehabilitation robot using hybrid automata
Bertoni et al. Task Driven Online Impedance Modulation
Jamali Adaptive control methods for mechanical manipulators: a comparative study.
Qi Redundant Hybrid Cable-Driven Robots: Modeling, Control, and Analysis
Kiguchi et al. Robot manipulator hybrid control for an unknown environment using visco-elastic neural networks
Sado et al. Intelligent trajectory conversion and inverse dynamic control of a 3-DOF neuro-rehabilitation platform
Charlet et al. Trajectory planning of projectile catching maneuvers for robotic manipulators
Kim et al. Attitude Control of Planar Space Robot based on Self-Organizing Data Mining Algorithm
Shi et al. Optimal Impedance Research for Industrial Robot Based on Improved Hybrid-PSO

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees