KR19980082593A - Iterative learning control method and device - Google Patents

Iterative learning control method and device Download PDF

Info

Publication number
KR19980082593A
KR19980082593A KR1019970017599A KR19970017599A KR19980082593A KR 19980082593 A KR19980082593 A KR 19980082593A KR 1019970017599 A KR1019970017599 A KR 1019970017599A KR 19970017599 A KR19970017599 A KR 19970017599A KR 19980082593 A KR19980082593 A KR 19980082593A
Authority
KR
South Korea
Prior art keywords
learning
output
controller
neural network
equation
Prior art date
Application number
KR1019970017599A
Other languages
Korean (ko)
Other versions
KR100220180B1 (en
Inventor
최진영
박현주
Original Assignee
최진영
박현주
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 최진영, 박현주 filed Critical 최진영
Priority to KR1019970017599A priority Critical patent/KR100220180B1/en
Publication of KR19980082593A publication Critical patent/KR19980082593A/en
Application granted granted Critical
Publication of KR100220180B1 publication Critical patent/KR100220180B1/en

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B11/00Automatic controllers
    • G05B11/01Automatic controllers electric
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations

Abstract

본 발명은 비선형 시스템에서의 반복학습 제어 방법 및 그 장치에 관한 것이다. 본 발명에 의한 장치는 학습이 이루어지기 전 초기 단계에서 시스템을 안정화시키는 되먹임제어기, 반복학습을 통하여 시스템 출력이 원하는 출력으로 수렴하도록 하는 반복학습제어기, 및 반복학습 후에 얻어진 시스템의 제어입력에 관한 정보를 저장하는 앞먹임신경망제어기를 포함한다. 본 발명에 의한 방법 및 그 장치에 의하면 시스템의 출력이 원하는 출력으로 수렴하도록 할 수 있을 뿐만 아니라, 반복학습 제어를 통하여 얻은 정보를 저장하므로 기준 입력 궤적이 바뀔 때마다 학습을 처음부터 다시 해야하는 단점을 보완하여 새로운 궤적에 대하여도 시스템의 출력이 기준 입력을 잘 따라가도록 하는 일반화 능력을 갖는 장점이 있다.The present invention relates to a method and apparatus for iterative learning control in a nonlinear system. The apparatus according to the present invention is a feedback controller for stabilizing a system at an early stage before learning is performed, an iterative learning controller for converging the system output to a desired output through repetitive learning, and information about a control input of the system obtained after the repeated learning. Includes a front feed neural network controller to store the. According to the method and the apparatus according to the present invention, not only the output of the system can converge to a desired output, but also the information obtained through the iterative learning control is stored so that the learning must be restarted from the beginning whenever the reference input trajectory is changed. In addition, the new trajectory has the advantage of having a generalization capability that allows the output of the system to follow the reference input well.

Description

반복학습 제어 방법 및 그 장치Iterative learning control method and device

본 발명은 비선형 시스템에서의 반복학습 제어 방법 및 그 장치에 관한 것이다.The present invention relates to a method and apparatus for iterative learning control in a nonlinear system.

반복학습 제어는 유한 시간구간에서 주어진 작업을 반복적으로 수행하는 시스템의 출력이, 원하는 출력을 정확하게 따라가도록 하는 제어기법이다. 이러한 반복학습 제어기법은 과거 시행시의 오차를 바탕으로 반복적인 학습을 통하여 제어 성능을 향상시키려는 의도에서 시작된 것이다.Iterative learning control is a control technique that ensures that the output of a system that repeatedly performs a given task in a finite time interval exactly follows the desired output. This iterative learning control method is started with the intention to improve the control performance through iterative learning based on the errors of past trials.

반복학습 제어기법에서 가장 중요한 문제는 시스템의 기준 입력 궤적의 모양에 관계없이 시스템의 출력이 원하는 출력이 되도록 하는 최적의 제어입력을 구하는 것이다. 반복학습 제어에서 시스템의 출력이 원하는 출력이 되도록 하는 최적의 제어입력을 구하는 과정은 반복적인 학습을 통하여 이루어진다.The most important problem in the iterative learning control method is to find the optimal control input so that the output of the system is the desired output regardless of the shape of the reference input trajectory of the system. In the iterative learning control, the process of finding the optimal control input for the output of the system to be the desired output is performed through the iterative learning.

일반적인 반복학습 제어기법에서는 기준 입력 궤적이 바뀔 때마다 처음부터 다시 학습을 해야한다. 이러한 문제는 특히, 되먹임 제어기의 성능이 좋지 않을 때에는 반복학습 초기 상태의 오차가 커서 출력을 수렴하도록 만드는 입력 궤적을 찾는 학습 횟수를 증가시킨다. 신경망 회로를 이용하면 기준 입력 궤적이 바뀔 때마다 처음부터 다시 학습하는 문제를 해결할 수 있다. 종래 기술로서, 신경망 제어기를 사용하는 되먹임 오차 학습 제어 장치를 설명한다.In general iterative learning control method, each time the reference input trajectory is changed, the learning must be started again from the beginning. This problem increases the number of learning to find the input trajectory that causes the convergence of the output because the error of the initial state of the iteration is large, especially when the performance of the feedback controller is poor. The neural network can solve the problem of re-learning from the beginning whenever the reference input trajectory changes. As a prior art, a feedback error learning control apparatus using a neural network controller is described.

도1은 종래 기술에 의한 되먹임 오차 학습 제어 장치의 블록구성도이다.1 is a block diagram of a feedback error learning control apparatus according to the prior art.

되먹임 오차 학습 제어 장치는 되먹임제어기(10)가 있는 시스템에서 출력 오차의 되먹임 학습을 통하여 신경망제어기(11)가 시스템의 역동력학이 되도록 하는 방식이다. 이 방식에서 앞먹임 제어기는 사전에 알고 있는 함수들의 선형 결합 형태로 표현되며, 선형 결합에 필요한 가중치는 출력 오차로부터 갱신된다. 이러한 기저 함수들을 알 수 없을 때에는 다층신경망과 같은 근사자가 앞먹임 제어기로 사용될 수도 있다. 도1에 도시된 되먹임 오차 학습 제어 장치에서는 제어와 학습이 동시에 이루어지며 신경망제어기의 학습을 위하여 되먹임 오차만을 필요로 하며 플랜트(12)를 통과하는 오차 역전달을 필요로 하지 않는 장점이 있다. 또한, 신경망 제어기를 사용하므로, 학습되지 않은 궤적에 대하여도 좋은 일반화 능력을 보여주었다. 그러나, 도1에 도시된 되먹임 오차 학습 제어 기법에서는 시스템의 수렴성을 논리적으로 보장할 수 없는 단점이 있다.The feedback error learning control device is a system in which the neural network controller 11 becomes the dynamics of the system through feedback learning of the output error in the system with the feedback controller 10. In this way, the feed ahead controller is expressed in the form of linear combination of the known functions, and the weight necessary for the linear combination is updated from the output error. When these basis functions are not known, an approximator such as a multilayer neural network may be used as a feedforward controller. In the feedback error learning control apparatus shown in FIG. 1, control and learning are simultaneously performed, and only the feedback error is required for the learning of the neural network controller, and there is an advantage of not requiring the error back-transfer passing through the plant 12. In addition, since the neural network controller is used, it shows good generalization ability even for untrained trajectories. However, the feedback error learning control scheme illustrated in FIG. 1 has a disadvantage in that logical convergence of the system cannot be guaranteed.

본 발명은 상기한 바와 같은 일반적인 반복학습 제어 장치에서 원하는 출력 궤적이 바뀔 때의 일반화에 관한 문제와 도1에 도시된 바와 같은 되먹임 오차 학습제어 장치에서의 시스템 출력의 수렴성에 관한 문제를 해결하기 위한 것이다.The present invention is to solve the problem of generalization when the desired output trajectory is changed in the general iterative learning control device as described above and the problem of convergence of the system output in the feedback error learning control device as shown in FIG. will be.

다시말해서, 본 발명은 되먹임 오차 학습 제어 장치의 일반화 능력과 반복 학습 제어 장치의 수렴성을 결합시켜서 출력의 수렴성이 보장되면서도 신경회로망의 일반화 능력을 가지는 반복학습 제어 방법 및 그 장치를 제공하는 것에 그 목적이 있다.In other words, an object of the present invention is to provide an iterative learning control method and apparatus for combining the generalization capability of a feedback error learning control apparatus with the convergence of an iterative learning control apparatus, while ensuring convergence of the output and having a generalization capability of neural networks. There is this.

도1은 종래 기술에 의한 되먹임 오차 학습 제어 장치의 블록구성도,1 is a block diagram of a feedback error learning control apparatus according to the prior art;

도2는 본 발명의 바람직한 일실시예에 의한 반복학습 제어장치의 블록구성도,2 is a block diagram of an iterative learning control apparatus according to an embodiment of the present invention;

도3 및 도4는 본 발명에서 제안된 반복학습 제어 방법을 2축 로봇 매뉴플레이터에 적용한 결과를 도1에 도시된 종래 기술과 비교한 결과이다.3 and 4 are the results of applying the iterative learning control method proposed in the present invention to the two-axis robot manipulator compared with the prior art shown in FIG.

* 도면의 주요한 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

10, 20 : 되먹임제어기11 : 신경망제어기10, 20: feedback controller 11: neural network controller

12, 23: 플랜트21 : 반복학습 제어기12, 23: plant 21: iterative learning controller

22 : 앞먹임신경제어기22: front food new economic flag

이하에서 첨부된 도면을 참조하면서 본 발명의 바람직한 일실시예를 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도2는 본 발명의 바람직한 일실시예에 의한 반복학습 제어 장치의 블록구성도이다. 도2에 도시된 바와 같이, 본 발명에 의하여 제안된 반복학습 제어 장치는 되먹임제어기(Feedback controller:FBC), 단기 메모리 기반의 반복학습제어기(Iterative Learning Controller:ILC), 장기 메모리 기반의 앞먹임신경망제어기(Feedforward Neuro-Controller:FNC)의 3가지 제어기를 포함한다. 되먹임제어기(20)는 학습이 이루어지기 전 초기 상태에서 시스템을 안정화시킨다. 그러나, 되먹임제어기(20)만을 사용하는 경우에는 시스템의 출력과 원하는 출력 사이에 오차가 존재한다. 반복학습제어기(21)는 반복학습을 통하여 시스템의 출력이 원하는 출력으로 정확하게 수렴하도록 한다. 반복학습 후에 얻어진 시스템의 제어입력에 관한 정보는 학습을 통하여 앞먹임신경망제어기(22)에 저장된다. 앞먹임신경망제어기(22)에 저장된 정보는 학습되지 않은 궤적에 대해서도 출력 오차를 줄이는 역할을 한다.2 is a block diagram of an iterative learning control apparatus according to an embodiment of the present invention. As shown in FIG. 2, the iterative learning control apparatus proposed by the present invention includes a feedback controller (FBC), a short-term memory-based iterative learning controller (ILC), and a long-term memory-based forward feeding neural network. It includes three controllers of the controller (Feedforward Neuro-Controller: FNC). The feedback controller 20 stabilizes the system in an initial state before learning is made. However, when only the feedback controller 20 is used, there is an error between the output of the system and the desired output. The iterative learning controller 21 allows the output of the system to accurately converge to the desired output through the iterative learning. The information about the control input of the system obtained after the repetitive learning is stored in the forward feeding neural network controller 22 through the learning. Information stored in the front feeding neural network controller 22 serves to reduce the output error even for the untrained trajectory.

플랜트(23)의 제어입력은 앞에서 설명한 3가지 제어기들에 의하여 생성되는 제어 입력들의 합으로서, 이를 수식으로 표시하면 다음의 수학식1과 같다.The control input of the plant 23 is the sum of the control inputs generated by the three controllers described above, and this is expressed by the following equation.

[수학식 1][Equation 1]

상기 수학식1에서, ufn(t), uil(t)와 ufb(t)는 각각 앞먹임신경망제어기(22), 반복학습제어기(21), 되먹임제어기(20)에 의한 제어입력이고, u(t)는 플랜트(23)의 제어입력이다.In Equation 1, u fn (t), u il (t) and u fb (t) are control inputs by the front feed neural network controller 22, the iteration learning controller 21, and the feedback controller 20, respectively. u (t) is the control input of the plant 23.

도2에 도시된 반복학습 제어 장치에 의한 제어 알고리즘은 다음과 같다.The control algorithm by the iterative learning control device shown in FIG. 2 is as follows.

제1단계First stage

시스템을 안정화시키는 되먹임제어기(20)를 설계한다. 이 단계에서 되먹임제어기(20)의 성능은 큰 문제가 되지 않으며, 되먹임제어기(20)의 주된 목적은 시스템을 안정화시키는 것이다.Design a feedback controller 20 to stabilize the system. The performance of the feedback controller 20 is not a big problem at this stage, and the main purpose of the feedback controller 20 is to stabilize the system.

제2단계2nd step

유한 시간구간 t∈[0,T]에서 원하는 출력 yd(t)를 설정한다.Set the desired output y d (t) in the finite time interval t∈ [0, T].

제3단계3rd step

시스템의 출력이 원하는 출력으로 수렴하도록 반복학습제어기(21)에 의한 제어입력 uil(t), t∈[0.,T]을 구한다. 이 단계의 세부적인 과정은 다음과 같다.The control inputs u il (t) and t ∈ [0., T] by the iterative learning controller 21 are obtained so that the output of the system converges to the desired output. The detailed process of this step is as follows.

(a) 처음 시행에서는 제어입력을 '0'으로 놓는다. 즉, uil 0(t)=0.(a) In the first trial, the control input is set to '0'. That is, u il 0 (t) = 0.

(b) k번째 반복 시행시의 입력 uk(t)(수학식2)을 시스템에 인가한다.(b) Apply the input u k (t) (Equation 2) to the system at the kth iteration.

[수학식 2][Equation 2]

(c) 다음 시행시의 반복학습 제어기에 의한 제어입력 uil k+1(t)를 다음의 수학식3을 이용하여 갱신한다.(c) The control input u il k + 1 (t) by the iterative learning controller at the next trial is updated using the following equation (3).

[수학식 3][Equation 3]

상기 수학식3에서 yd(t)는 원하는 출력이며, l(·)은 입력 갱신법칙이다. 이 입력 갱신 법칙에 대하여는 아래에서 설명한다.In Equation 3, y d (t) is a desired output, and l (·) is an input update law. This input update rule is described below.

(d) 모든 시간 t∈[0,T]에서 출력 오차가 정해진 오차 범위에 들 때까지 상기의 (b)와 (c)를 반복한다.(d) Repeat (b) and (c) above until the output error falls within the specified error range at all times t∈ [0, T].

제4단계4th step

n번째 원하는 출력 궤적에 대하여 앞먹임신경망제어기(22)의 출력 ufn n(t)이 다음의 수학식4를 만족할 때까지 신경망을 학습시킨다.For the n th desired output trajectory, the neural network is trained until the output u fn n (t) of the front feed neural network controller 22 satisfies the following expression (4).

[수학식 4][Equation 4]

상기 수학식4에서 ufn n-1(t)는 n번째 학습궤적 이전의 궤적들에 의하여 학습된 앞먹임신경망제어기(22)의 출력, uil n(t)는 n번째 학습궤적에 대한 반복학습제어기(21)에 의하여 얻어진 궤적, ε은 오차의 최대 허용값을 각각 나타낸다.In Equation 4, u fn n-1 (t) is the output of the front feed neural network controller 22 learned by the trajectories before the n th learning trajectory, and u il n (t) is repeated for the n th learning trajectory. The locus obtained by the learning controller 21, epsilon, indicates the maximum allowable value of the error, respectively.

제5단계5th step

반복학습제어기(21)에 의한 입력 uil n(t)을 앞먹임신경망제어기(22)에 의하여 학습되지 않은 오차값 uil n(t)-ufn n(t)+ufn n-1(t)로 바꾼다. 상기 제4단계와 제5단계의 두 과정은 단기간 메모리에서 장기간 메모리로의 정보의 이동이라고 생각할 수 있다.The error value that is not learned by the neural network controller 22 that feeds the input u il n (t) by the iterative learning controller 21 u il n (t) -u fn n (t) + u fn n-1 ( t) The two processes of the fourth step and the fifth step may be regarded as the movement of information from the short term memory to the long term memory.

제6단계6th step

다른 궤적에 대해서 상기 제3단계∼제5단계를 반복한다.Steps 3 to 5 are repeated for the other trajectories.

상기 제3단계에서 반복학습제어기(21)에 의하면 시스템의 출력이 원하는 출력으로 수렴하도록 하는 제어입력을 구할 수 있다. 그런데, 이 제어입력은 원하는 출력궤적이 바뀌는 경우 새로운 출력궤적에 대하여는 아무런 도움을 주지 못한다. 반복학습제어기(21)에 의하여 학습되어진 정보가 다른 궤적에 대해서도 유용한 정보가 되기 위하여 학습된 정보를 앞먹임신경망제어기(22)에 남겨놓는 과정이 필요하다. 상기 제4단계와 제5단계가 이를 위한 과정이며, 이 과정에서 반복학습제어기(21)를 사용하여 얻은 단기 메모리 기반의 정보가 장기 메모리 기반의 앞먹임신경망제어기(22)로 옮겨진다. 이러한 앞먹임신경망제어기(22)에 의하여, 본 발명에 의한 반복학습 제어 장치는 학습되지 않은 다른 형태의 궤적에 대해서도 좋은 제어성능을 보일 수 있게 된다. 본 발명에 의하여 제안되는 제어기법은 사람의 기억특성과 유사하다. 사람의 경우 학습을 통해서 일반적인 정보를 가지고 있어서 비슷한 상황에 처하면 이전에 학습된 정보를 바탕으로 주어진 작업을 수행하고, 작업 수행시 발생하는 오차는 반복시행을 통하여 줄여나간다. 마찬가지로, 본 발명에 의한 반복학습 제어 장치의 앞먹임신경망제어기(22)는 과거에 학습한 정보를 가지고 있어서 새로운 상황에서도 이전에 학습된 정보를 바탕으로 적절한 동작을 취하며, 이 경우 발생하는 오차를 반복학습제어기(21)에 의한 반복학습에 의하여 없애준다. 앞먹임신경망제어기(22)로서, 일반적인 신경망이 사용될 수 있고, 여기서는 앞먹임신경망제어기(22)로서 부분선형학습 신경회로망(Piecewise Linearly Trained Network:PLTN)을 사용하는 경우를 예를 들어서 설명한다.In the third step, the iterative learning controller 21 can obtain a control input for converging the output of the system to a desired output. However, this control input does not help any new output trajectory when the desired output trajectory is changed. In order for the information learned by the iterative learning controller 21 to be useful information for other trajectories, it is necessary to leave the learned information in the feeding neural network controller 22. The fourth step and the fifth step are processes for this, and in this process, the short-term memory-based information obtained by using the iterative learning controller 21 is transferred to the long-term memory-based front feeding neural network controller 22. By this front feeding neural network controller 22, the iterative learning control device according to the present invention can show good control performance even for other types of trajectories that have not been learned. The control method proposed by the present invention is similar to the memory characteristics of a person. In the case of human beings, they have general information through learning, and if they are in a similar situation, they perform a given task based on the previously learned information, and the errors occurring in the execution of the task are reduced through repetitive trials. Similarly, the front feeding neural network controller 22 of the iterative learning control device according to the present invention has information learned in the past and takes appropriate action based on the previously learned information even in a new situation. It is eliminated by repetitive learning by the repetitive learning controller 21. As the front feed neural network controller 22, a general neural network can be used. Here, an example of using a piecewise linearly trained network (PLTN) as the front feed neural network controller 22 will be described.

이상에서 설명한 본 발명에 의한 반복학습 제어 방법을 다음의 수학식5와 같이 나타내어지는 비선형 시스템에 적용하여 출력의 수렴성을 알아본다.The iterative learning control method according to the present invention described above is applied to a nonlinear system represented by Equation 5 below to examine the convergence of the output.

[수학식 5][Equation 5]

상기 수학식5에서, u=[u1,…,um]T∈ Rm은 시스템 입력, y=[y1,…,ym}T∈℃m는 시스템 출력, x=[x1,…,xn]T∈ Rn은 시스템 상태 변수이다. 또한, 사상 f:Rn→℃n, G:Rn×m→℃n, h:Rn→℃m은 모두 무한번 미분가능한 함수이다. 본 명세서에서는 입력의 차수와 출력의 차수가 동일한 경우에 대하여 설명한다.In Equation 5, u = [u 1 ,... , u m ] T ∈ R m is the system input, y = [y 1 ,.. , y m } T ∈ ℃ m is the system output, x = [x 1 ,… , x n ] T ∈ R n is a system state variable. In addition, f: R n → ° C n , G: R n × m → ° C n , and h: R n → ° C m are all functions capable of differentiating infinitely. In this specification, the case where the input order and the output order are the same will be described.

만약, 상기 수학식5에 의하여 정의된 시스템의 상대차수가 x=x0에서 {r1,…,rm} 이라고 하면, 상대차수의 정의로부터 상기 시스템은 다음의 두 조건을 만족시킨다.If the relative order of the system defined by Equation 5 is x = x 0 , then {r 1 ,... , r m } From the definition of relative order, the system satisfies the following two conditions.

제1조건First condition

x0근방에 있는 모든 x에 대해서 다음의 수학식6이 성립한다.The following equation 6 holds for all x in the vicinity of x 0 .

[수학식 6][Equation 6]

제2조건Second condition

다음의 수학식7의 m×m 비간섭 행렬은 x=x0에서 비특이(nonsingular) 행렬이다.The m × m non-interfering matrix of Equation 7 below is a nonsingular matrix at x = x 0 .

[수학식 7][Equation 7]

위와 같이 정의된 시스템에 대하여 반복학습제어시 시스템의 출력이 원하는 출력으로 수렴하도록 하는 입력 갱신 법칙에 관하여 다음과 같은 정리가 있다.For the system defined as above, there is the following theorem regarding the input update law that allows the output of the system to converge to the desired output during iterative learning control.

정리theorem

수학식5와 같이 정의된 유사 비선형 시스템의 반복학습제어에서 입력 갱신 법칙을 다음의 수학식8과 같이 놓는다.In the iterative learning control of the pseudo nonlinear system defined as in Equation 5, the input update law is set as in Equation 8.

[수학식 8][Equation 8]

상기 수학식8에서 uff k+1(t)는 k번째 반복학습에서 앞먹임 제어입력이고, Sk:[0,T]→℃m×m은 유계인함수(bounded function)로서 학습이득을 나타내고, ek(t)=[e1 k(t),…,em k(t)]T∈℃m의 i번째 항은 ei k(t)=yi d(t)-yi k(t)이다. 여기서, ei k(j)(t)는 ei k(t)를 j번 미분한 것이다.In Equation 8, u ff k + 1 (t) is a feed-in control input in the k-th iteration learning, and S k : [0, T] → ° C m × m is a bounded function to obtain learning gain. E k (t) = [e 1 k (t),... , e m k (t)] The i th term of T ∈ ° C m is e i k (t) = y i d (t) -y i k (t). Here, e i k (j) (t) is the derivative of e i k (t) j times.

상기 수학식8에서 Sk(t)가 다음의 수학식9와 같은 부등식을 만족시키면, 시스템의 출력 yk(t)는 반복학습 제어에 의하여 원하는 출력 yd(t)로 평등하게(uniformly) 수렴하게 된다(수학식10).If S k (t) in Equation 8 satisfies the following inequality as in Equation 9, the output y k (t) of the system is uniformly equal to the desired output y d (t) by the iterative learning control. Converge (Equation 10).

[수학식 9][Equation 9]

[수학식 10][Equation 10]

상기한 정리를 이용하기 위하여, 도2에 도시된 바와 같은 본 발명에 의한 반복학습 제어 장치는 다음의 수학식11과 같은 입력 갱신 법칙을 가진다.In order to use the above theorem, the iterative learning control apparatus according to the present invention as shown in FIG. 2 has an input update rule as shown in Equation 11 below.

[수학식 11][Equation 11]

상기 수학식11에서 Sk:[0,T]→℃m×m은 유계인함수(bounded function)로서 학습이득을 나타내고, ei k(t)=[e1 k(t),…,em k(t)]T∈℃m의 i번째 항은 ei k(t)=yi d(t)-yi k(t)이다. 여기서, ei k(j)(t)는 ei k(t)를 j번 미분한 것이다.In Equation 11, S k : [0, T] → ° C. m × m represents a learning gain as a bounded function, e i k (t) = [e 1 k (t),... , e m k (t)] The i th term of T ∈ ° C m is e i k (t) = y i d (t) -y i k (t). Here, e i k (j) (t) is the derivative of e i k (t) j times.

상기 수학식11의 학습이득인 Sk(t)가 다음의 수학식9와 같은 부등식을 만족시키면, 시스템의 출력 yk(t)는 반복학습 제어에 의하여 원하는 출력 yd(t)로 평등하게(uniformly) 수렴하게 된다. 이를 증명하면 다음과 같다.If S k (t), which is the learning gain of Equation 11, satisfies the inequality as in Equation 9 below, the output y k (t) of the system is equalized to the desired output y d (t) by the iterative learning control. (uniformly) converge. Proof of this is as follows.

증명proof

반복학습 과정 중에서는 앞먹임신경망제어기(22)의 출력은 변함이 없다. 즉, ufn k+1(t)=ufn k(t)이다. ufn k+1(t)를 수학식11의 좌변에, ufn k(t)를 수학식11의 우변에 더해주면 수학식11은 다음의 수학식12과 같이 나타낼 수 있다.During the iterative learning process, the output of the front feed neural network controller 22 does not change. That is, u fn k + 1 (t) = u fn k (t). When u fn k + 1 (t) is added to the left side of Equation 11 and u fn k (t) is added to the right side of Equation 11, Equation 11 can be expressed as Equation 12 below.

[수학식 12][Equation 12]

도2에 도시된 본 발명에 의한 반복학습 제어장치에서, uil k(t)+ufn k(t)를 앞먹임 입력 uff k(t)으로 정의하면, 상기 수학식2와 상기 수학식12에 의하여 상기 수학식11은 다음의 수학식13과 같이 나타낼 수 있다.In the iterative learning control system according to the invention shown in Figure 2, u il k (t) + u fn k (t) By defining the as feed forward inputs u ff k (t), the equation (2) and the equation In Equation 12, Equation 11 may be expressed as Equation 13 below.

[수학식 13][Equation 13]

상기 수학식13은 상기 수학식8과 동일한 모양이 되고, 따라서 앞에서 설명한 정리에 의하여, 본 발명에 의한 장치에서 학습이득인 Sk(t)가 다음의 수학식9와 같은 부등식을 만족시키면, 시스템의 출력 yk(t)는 반복학습 제어에 의하여 원하는 출력 yd(t)로 평등하게(uniformly) 수렴하게 된다.Equation 13 has the same shape as Equation 8, and according to the theorem described above, if S k (t), the learning gain in the apparatus according to the present invention, satisfies the inequality as in Equation 9 below, The output y k (t) of is uniformly converged to the desired output y d (t) by the iterative learning control.

시스템의 출력이 원하는 출력으로 정확하게 수렴하기 위해서는 시스템과 제어기의 초기 조건이 매 반복학습 때마다 같아야 한다.In order for the system's output to converge exactly to the desired output, the initial conditions of the system and controller must be the same for each iteration.

실시예Example

본 발명에서 제안된 반복학습 제어 방법을 2축 로봇 매뉴플레이터에 적용하였다.The iterative learning control method proposed in the present invention was applied to a two-axis robot manipulator.

m-자유도를 가지는 로봇 매뉴플레이터의 동력학은 다음의 수학식14와 같은 Lagrange-Euler 식으로 나타낼 수 있다.The dynamics of the robot manipulator with m-degree of freedom can be represented by the Lagrange-Euler equation as shown in Equation 14 below.

[수학식 14][Equation 14]

상기 수학식14에서,는 각각 로봇 매뉴플레이터의 관절의 각도, 관성행렬, 코리올리와 구심력, 중력에 의한 힘, 제어입력이다. 상태변수를, 시스템의 출력을 y(t)=θ(t)로 놓으면, 로봇 동력학을 나타내는 상기 수학식14는 상기 수학식5와 같은 형태로 나타내어질 수 있다. 상기 수학식14가 상기 수학식5와 같은 형태로 표시될 때, f(x),g(x),h(x)는 다음의 수학식15과 같다.In Equation 14, Are the joint angle, inertia matrix, Coriolis and centripetal force, force by gravity, and control input of robot manipulator, respectively. State variable When the output of the system is set to y (t) = θ (t), Equation 14 representing robot dynamics can be expressed as shown in Equation 5 above. When Equation 14 is expressed in the form of Equation 5, f (x), g (x), and h (x) are represented by Equation 15 below.

[수학식 15][Equation 15]

출력 y(t)=θ(t)를 두 번 미분하면 다음의 수학식16을 얻는다.By differentiating the output y (t) = θ (t) twice, we get

[수학식 16][Equation 16]

상기 수학식16로부터 이 시스템의 상대차수 {r1,…, rm}={2,…,2}이며, 비간섭 행렬은 J(x(t))=M-1(θ(t))가 됨을 알 수 있다.The relative orders of the system {r 1 ,... , r m } = {2,… 2}, and the non-interfering matrix is J (x (t)) = M −1 (θ (t)).

되먹임제어기(20)로서 비례 이득이 Kp이고, 미분 이득이 Kd인 PD제어기를 사용하였을 때, 제어 입력 u(t)은 다음의 수학식17과 같이 나타낼 수 있다.When the PD controller having the proportional gain K p and the derivative gain K d is used as the feedback controller 20, the control input u (t) can be expressed by Equation 17 below.

[수학식 17][Equation 17]

상기 수학식17에서, θd(t)=yd(t)은 로봇의 각 관절의 원하는 궤적이다.In Equation 17, θ d (t) = y d (t) is a desired trajectory of each joint of the robot.

본 발명에서 제시하는 입력갱신법칙인 상기 수학식11을 참조하여, 본 실시예의 입력갱신법칙을 다음의 수학식18에 의하여 나타낼 수 있다.With reference to Equation 11, which is the input update law proposed in the present invention, the input update law of the present embodiment can be represented by the following equation (18).

[수학식 18]Equation 18

상기 수학식18에서,는 관성행렬의 추정값이고, α는 상수이다.In Equation 18, Is an estimate of the inertia matrix and α is a constant.

따라서, 출력 궤적이 원하는 궤적으로 수렴하기 위한 조건은 다음의 수학식19과 같이 나타낼 수 있다.Therefore, the condition for convergence of the output trajectory to the desired trajectory can be expressed by Equation 19 below.

[수학식 19][Equation 19]

본 실시예에서 사용한 수평운동 2축 로봇 메뉴플레이터의 각 축의 질량은 m1=m2=2.0㎏이고, 길이는 l1=l2=0.5m이다. 되먹임제어기(20)의 이득은 다음의 수학식20과 같이 선택되었다.The mass of each axis of the horizontal motion two-axis robot menu plate used in this embodiment is m 1 = m 2 = 2.0 kg, and the length is l 1 = l 2 = 0.5m. The gain of the feedback controller 20 was selected as in Equation 20 below.

[수학식 20][Equation 20]

두 축에 대한 원하는 궤적이 다음의 수학식21와 같이 주어졌다.The desired trajectories for both axes are given by Equation 21 below.

[수학식 21][Equation 21]

학습율 α는 0.8로 놓았다. 앞먹임신경망제어기(22)의 입력은 기준입력과 기준입력의 미분값, 즉이다. 신경회로망의 학습을 위하여 출력의 미분값들을 다음의 수학식22과 같이 근사화한다.The learning rate α was set at 0.8. The input of the front feeding neural network controller 22 is a derivative value of the reference input and the reference input, that is, to be. For learning the neural network, the derivatives of the output are approximated by Equation 22 below.

[수학식 22][Equation 22]

본 실시예의 결과가 도3 및 도4에 나타나있다. 각 도면의 (a)는 축1의 궤적을 나타내고, 각 도면의 (b)는 축2의 궤적을 나타낸다.The results of this example are shown in FIGS. 3 and 4. (A) of each figure shows the locus of axis 1, and (b) of each figure shows the locus of axis 2. As shown to FIG.

도3은 되먹임제어기(20)와 반복학습제어기(21)만을 사용한 경우이고, 도4는 앞먹임신경망제어기(22)가 포함된 본 발명에 의한 반복제어 장치를 사용한 경우로서 10가지의 다른 궤적들로 학습시킨 후에 본 실시예의 시스템에 적용한 결과이다. 도3 및 도4에서 k는 반복 횟수를 나타내는 것이다.FIG. 3 is a case where only the feedback controller 20 and the repetition learning controller 21 are used, and FIG. 4 is a case where the repeat control apparatus according to the present invention including the front feeding neural network controller 22 is used. This is the result of applying to the system of the present embodiment after learning. 3 and 4, k denotes the number of repetitions.

도4의 경우가 도3의 경우보다 초기 궤적 오차가 매우 작아진 결과를 보인다. 이는 앞먹임신경망제어기(22)를 사용하면, 반복적인 학습 이전이라도 초기 궤적 오차를 줄일 수 있는 것을 의미하며, 앞먹임신경망제어기(22)의 일반화 능력을 보여주는 것이다. 본 발명에서 제안된 반복학습 제어방법에 의하면, 초기 궤적 오차가 작기 때문에, 출력 궤적이 원하는 궤적으로 수렴하기 위하여 반복되는 횟수를 줄일 수 있다. 또한, 앞먹임신경망제어기(22)가 더 많은 궤적을 학습할수록 본 발명에 의한 반복학습제어 장치의 성능이 좋아진다.In the case of FIG. 4, the initial trajectory error is much smaller than in the case of FIG. 3. This means that by using the front feed neural network controller 22, it is possible to reduce the initial trajectory error even before repetitive learning, and shows the generalization capability of the front feed neural network controller 22. According to the iterative learning control method proposed in the present invention, since the initial trajectory error is small, the number of times the output trajectory is repeated to converge to the desired trajectory can be reduced. In addition, as the front feeding neural network controller 22 learns more trajectories, the performance of the iterative learning control device according to the present invention is improved.

이상에서 설명한 바와 같이, 본 발명에 의한 방법 및 그 장치에 의하면 시스템의 출력이 원하는 출력으로 수렴하도록 할 수 있을 뿐만 아니라, 반복학습 제어를 통하여 얻은 정보를 저장하여 기준 입력 궤적이 바뀔 때마다 학습을 처음부터 다시 해야하는 단점을 보완하여 새로운 궤적에 대하여도 시스템의 출력이 기준 입력을 잘 따라가도록 하는 일반화 능력을 갖는 장점이 있다.As described above, the method and apparatus according to the present invention can not only allow the output of the system to converge to a desired output, but also store information obtained through the iterative learning control so that learning can be performed whenever the reference input trajectory is changed. Compensating the disadvantage of having to start again from the beginning, the new trajectory has the advantage that the output of the system to follow the reference input well.

Claims (7)

과거 시행시의 오차를 바탕으로 반복적인 학습을 통하여, 유한 시간구간에서 주어진 작업을 반복적으로 수행하는 시스템의 출력이 원하는 출력으로 정확하게 따라가도록 하는 반복학습 제어 장치에 있어서,In the iterative learning control device to repeat the output of the system repeatedly performing a given task in a finite time interval to the desired output through repetitive learning based on the error of the past trial, 학습이 이루어지기 전 초기 상태에서 시스템을 안정화시키는 되먹임제어기;A feedback controller that stabilizes the system in its initial state before learning is made; 반복학습을 통하여 시스템의 출력이 원하는 출력으로 정확하게 수렴하도록 하는 단기 메모리 기반의 반복학습제어기; 및A short-term memory-based iterative learning controller for accurately converging the output of the system to the desired output through iterative learning; And 반복학습 후에 얻어진 시스템의 제어입력에 관한 정보를 저장하는 앞먹임신경망제어기를 포함하는 것임을 특징으로 하는 반복학습 제어 장치.And a forward feed neural network controller for storing information about a control input of the system obtained after the repetitive learning. 제1항에 있어서, 상기 앞먹임신경망제어기는 신경회로망으로서 일반적인 신경회로망을 사용하는 것임을 특징으로 하는 반복학습 제어 장치.The repetition learning control apparatus according to claim 1, wherein the front feeding neural network controller uses a general neural network as a neural network. 제2항에 있어서, 상기 앞먹임신경망제어기는 신경회로망으로서 부분선형학습 신경회로망(Piecewise Linearly Trained Network:PLTN)을 사용하는 것임을 특징으로 하는 반복학습 제어 장치.The apparatus of claim 2, wherein the front feeding neural network controller uses a Piecewise Linearly Trained Network (PLTN) as a neural network. 과거 시행시의 오차를 바탕으로 반복적인 학습을 통하여, 유한 시간구간에서 주어진 작업을 반복적으로 수행하는 시스템의 출력이 원하는 출력으로 정확하게 따라가도록 하는 반복학습 제어 방법에 있어서,In the iterative learning control method to repeat the output of the system repeatedly performing a given task in a finite time interval to the desired output through repetitive learning based on the error of the past trial, 시스템을 안정화시키는 되먹임제어기를 설계하는 제1단계;Designing a feedback controller to stabilize the system; 유한 시간구간 t∈[0,T]에서 원하는 출력 yd(t)를 설정하는 제2단계;Setting a desired output y d (t) in a finite time interval t 시간 [0, T]; 시스템의 출력이 원하는 출력으로 수렴하도록 반복학습제어기에 의한 제어입력 uil(t), t∈[0.,T]을 구하는 제3단계;A third step of obtaining a control input u il (t), t ∈ [0., T] by the iterative learning controller so that the output of the system converges to a desired output; n번째 원하는 출력 궤적에 대하여 앞먹임신경망제어기의 출력 ufn n(t)이 다음의 수학식를 만족할 때까지 신경망을 학습시키는 제4단계a fourth step of training the neural network until the output u fn n (t) of the front feeding neural network controller satisfies the following equation for the n th desired output trajectory; 여기서 ufn n-1(t)는 n번째 학습궤적 이전의 궤적들에 의하여 학습된 앞먹임신경망제어기(22)의 출력, uil n(t)는 n번째 학습궤적에 대한 반복학습제어기(21)에 의하여 얻어진 궤적, ε은 오차의 최대 허용값을 각각 나타냄;Where u fn n-1 (t) is the output of the front feed neural network controller 22 learned by the trajectories before the n th learning trajectory, and u il n (t) is the iterative learning controller 21 for the n th learning trajectory. The trajectory obtained by), ε respectively indicate the maximum allowable value of the error; 반복학습제어기에 의한 입력 uil n(t)을 앞먹임신경망제어기에 의하여 학습되지 않은 오차값 uil n(t)-ufn n(t)+ufn n-1(t)로 바꾸는 제5단계; 및A fifth value of changing the input u il n (t) by the iterative learning controller to an error value not learned by the front feeding neural network controller u il n (t) -u fn n (t) + u fn n-1 (t) step; And 다른 궤적에 대해서 상기 제3단계∼제5단계를 반복하는 제6단계를 포함하는 것임을 특징으로 하는 반복학습 제어 방법.And a sixth step of repeating the third to fifth steps with respect to another trajectory. 제4항에 있어서, 상기 제3단계는,The method of claim 4, wherein the third step, (a) 처음 시행에서는 제어입력을 '0'으로 놓는 단계, 즉, uil 0(t)=0;(a) setting the control input to '0' in the first trial, ie u il 0 (t) = 0; (b) 다음의 수학식과 같은 k번째 반복 시행시의 입력 uk(t)을 시스템에 인가하는 단계;(b) applying an input u k (t) to the system during the k th iteration, as in the following equation; (c) 다음 시행시의 반복학습 제어기에 의한 제어입력 uil k+1(t)를 다음과 같은 수학식을 이용하여 갱신하는 단계; 및(c) updating the control input u il k + 1 (t) by the iterative learning controller at the next execution using the following equation; And 여기서, yd(t)는 원하는 출력이며, l(·)은 입력 갱신법칙임Where y d (t) is the desired output and l (·) is the input update law (d) 모든 시간 t∈[0,T]에서 출력 오차가 정해진 오차 범위에 들 때까지 상기의 (b)와 (c)를 반복하는 단계를 포함하는 것임을 특징으로 하는 반복학습 제어방법.and (d) repeating steps (b) and (c) until the output error falls within a predetermined error range at all times t∈ [0, T]. 제5항에 있어서, 상기 단계(c)의 입력 갱신 법칙은 다음의 수학식과 같은 것임을 특징으로 하는 반복학습 제어 방법.6. The iterative learning control method according to claim 5, wherein the input update rule of step (c) is as follows. 여기서 Sk:[0,T]→℃m×m은 유계인함수(bounded function)로서 학습이득을 나타내고, ei k(t)=[e1 k(t),…,em k(t)]T∈Rm의 i번째 항은 ei k(t)=yi d(t)-yi k(t)이고, ei k(j)(t)는 ei k(t)를 j번 미분한 것이다.Where S k : [0, T] → ° C m × m represents the learning gain as a bounded function, e i k (t) = [e 1 k (t),... , e m k (t)] The i th term of T ∈ R m is e i k (t) = y i d (t) -y i k (t), and e i k (j) (t) is e i k (t) is the derivative of j times. 제6항에 있어서, 학습이득인 상기 Sk(t)는 다음의 수학식과 같은 부등식을 만족시키는 것임을 특징으로 하는 반복학습 제어 방법.The method of claim 6, wherein the learning gain S k (t) satisfies an inequality such as the following equation. 여기서, I는 단위 행렬이고, J(xk(t))는 시스템이 다음의 수학식과 같이 나타날 때,Where I is an identity matrix and J (x k (t)) is when the system is represented by 상기 수학식에서, u=[u1,…,um]T∈ Rm은 시스템 입력, y=[y1,…,ym}T∈ Rm는 시스템 출력, x=[x1,…,xn]T∈ Rn은 시스템 상태 변수이다. 또한, 사상 f:Rn→℃n, G:Rn×m→Rn, h:Rn→℃m은 모두 무한번 미분가능한 함수이다.In the above equation, u = [u 1 ,... , u m ] T ∈ R m is the system input, y = [y 1 ,.. , m } T ∈ R m is the system output, x = [x 1 ,… , x n ] T ∈ R n is a system state variable. In addition, f: R n → ° C n , G: R n × m → R n , and h: R n → ° C m are all infinitely different functions. 다음의 수학식과 같은 m×m 비간섭 행렬이다.M × m non-interfering matrix, such as the following equation.
KR1019970017599A 1997-05-08 1997-05-08 The method of feedback error learning control and apparatus thereof KR100220180B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019970017599A KR100220180B1 (en) 1997-05-08 1997-05-08 The method of feedback error learning control and apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019970017599A KR100220180B1 (en) 1997-05-08 1997-05-08 The method of feedback error learning control and apparatus thereof

Publications (2)

Publication Number Publication Date
KR19980082593A true KR19980082593A (en) 1998-12-05
KR100220180B1 KR100220180B1 (en) 1999-09-01

Family

ID=19505135

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019970017599A KR100220180B1 (en) 1997-05-08 1997-05-08 The method of feedback error learning control and apparatus thereof

Country Status (1)

Country Link
KR (1) KR100220180B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100508235B1 (en) * 1997-12-30 2005-10-26 엘지전자 주식회사 Method for securing stable convergence of iterative learning controller
CN113791611A (en) * 2021-08-16 2021-12-14 北京航空航天大学 Real-time tracking iterative learning control system and method for vehicle under interference
CN114102598A (en) * 2021-11-28 2022-03-01 中国船舶重工集团公司第七一三研究所 Robot fixed-point operation trajectory tracking optimization method
CN114153148A (en) * 2021-11-30 2022-03-08 哈尔滨工业大学 Gradient iteration feedforward setting method with variable learning step length
CN114488818A (en) * 2022-01-28 2022-05-13 青岛科技大学 Setpoint iterative learning optimization technology of PID control system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100508235B1 (en) * 1997-12-30 2005-10-26 엘지전자 주식회사 Method for securing stable convergence of iterative learning controller
CN113791611A (en) * 2021-08-16 2021-12-14 北京航空航天大学 Real-time tracking iterative learning control system and method for vehicle under interference
CN113791611B (en) * 2021-08-16 2024-03-05 北京航空航天大学 Real-time tracking iterative learning control system and method for vehicle under interference
CN114102598A (en) * 2021-11-28 2022-03-01 中国船舶重工集团公司第七一三研究所 Robot fixed-point operation trajectory tracking optimization method
CN114102598B (en) * 2021-11-28 2024-03-22 中国船舶重工集团公司第七一三研究所 Robot fixed-point operation track tracking optimization method
CN114153148A (en) * 2021-11-30 2022-03-08 哈尔滨工业大学 Gradient iteration feedforward setting method with variable learning step length
CN114488818A (en) * 2022-01-28 2022-05-13 青岛科技大学 Setpoint iterative learning optimization technology of PID control system
CN114488818B (en) * 2022-01-28 2023-09-29 青岛科技大学 Set point iterative learning optimization method of PID control system

Also Published As

Publication number Publication date
KR100220180B1 (en) 1999-09-01

Similar Documents

Publication Publication Date Title
US7080055B2 (en) Backlash compensation with filtered prediction in discrete time nonlinear systems by dynamic inversion using neural networks
Song et al. A computed torque controller for uncertain robotic manipulator systems: Fuzzy approach
Yan et al. Barrier function-based adaptive neural network sliding mode control of autonomous surface vehicles
ul Amin et al. An adaptive trajectory tracking control of four rotor hover vehicle using extended normalized radial basis function network
CN113110059B (en) Control method for actual tracking of single-link mechanical arm system based on event triggering
JP2013163251A (en) Control method of robot device and robot device
KR102275302B1 (en) RBFNN Based Decentralized Adaptive Tracking Control Using PSO for an Uncertain Electrically Driven Robot System with Input Saturation
Erdong et al. Robust attitude synchronisation controllers design for spacecraft formation
KR100220180B1 (en) The method of feedback error learning control and apparatus thereof
Kim et al. Adaptive output feedback for high-bandwidth flight control
Phan et al. Designs of learning controllers based on autoregressive representation of a linear system
Han Fractional-order sliding mode constraint control for manipulator systems using grey wolf and whale optimization algorithms
Kawaharazuka et al. Task-specific self-body controller acquisition by musculoskeletal humanoids: Application to pedal control in autonomous driving
Xiao et al. Adaptive differential game for modular reconfigurable satellites based on neural network observer
Yeşildirek et al. A neural network controller for flexible-link robots
CN113219825A (en) Single-leg track tracking control method and system for quadruped robot
Hu Neural network‐based adaptive attitude tracking control for flexible spacecraft with unknown high‐frequency gain
Kocagil et al. MRAC of a 3-DOF helicopter with nonlinear reference model
Fantoni et al. Control of nonlinear mechanical systems
DeSilva et al. Least squares adaptive control for trajectory following robots
JPH03259303A (en) Learning controller
Harokopos Optimal learning control of mechanical manipulators in repetitive motions
CN113296398A (en) Command filtering control method of flexible single-chain mechanical arm based on event triggering
Yadav et al. Sliding mode control with RBF neural network for two link robot manipulator
Liem et al. Variable Impedance Control with Simplex Gradient based Iterative Learning for Human-Robot Collaboration

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110607

Year of fee payment: 13

LAPS Lapse due to unpaid annual fee