WO2020217445A1 - 制御装置 - Google Patents

制御装置 Download PDF

Info

Publication number
WO2020217445A1
WO2020217445A1 PCT/JP2019/017878 JP2019017878W WO2020217445A1 WO 2020217445 A1 WO2020217445 A1 WO 2020217445A1 JP 2019017878 W JP2019017878 W JP 2019017878W WO 2020217445 A1 WO2020217445 A1 WO 2020217445A1
Authority
WO
WIPO (PCT)
Prior art keywords
output
controller
neural network
learning
control device
Prior art date
Application number
PCT/JP2019/017878
Other languages
English (en)
French (fr)
Inventor
勝敏 井▲崎▼
誠司 橋本
Original Assignee
理化工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 理化工業株式会社 filed Critical 理化工業株式会社
Priority to KR1020217034713A priority Critical patent/KR20220004981A/ko
Priority to US17/606,141 priority patent/US20220207328A1/en
Priority to JP2021515681A priority patent/JP7432838B2/ja
Priority to CN201980095793.0A priority patent/CN113748385B/zh
Priority to PCT/JP2019/017878 priority patent/WO2020217445A1/ja
Publication of WO2020217445A1 publication Critical patent/WO2020217445A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B11/00Automatic controllers
    • G05B11/01Automatic controllers electric
    • G05B11/36Automatic controllers electric with provision for obtaining particular characteristics, e.g. proportional, integral, differential
    • G05B11/42Automatic controllers electric with provision for obtaining particular characteristics, e.g. proportional, integral, differential for obtaining a characteristic which is both proportional and time-dependent, e.g. P. I., P. I. D.
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Definitions

  • the present invention relates to a control device, and more particularly to a control device that controls a controlled object including a dead time.
  • FIG. 2 shows a block diagram of the feedback error learning system.
  • the neural network controller 110 uses the output xc of the feedback controller as a teacher signal, and performs learning so that xc becomes 0 as the learning progresses.
  • learning and control are performed so that the error e is 0 and the output y is the target value yd. Therefore, after learning, the controller used shifts from the feedback controller 120 to the neural network controller 110.
  • the control system 100 is replaced with a feedforward structure from the feedback structure.
  • Patent Document 1 discloses a control device that inputs the output of a normative model that outputs a time-series data signal of an ideal expected response based on a steering amount signal and the output of a feedback control unit to a neural network unit.
  • Patent Document 2 discloses a structure in which the feedback controller itself is a neural network learning type controller.
  • Patent Document 3 discloses a control device in which an estimation device is configured by a neural network having a nonlinear function approximation capability and incorporated as a compensator component.
  • the responsiveness of the output response waveform to the repeated step command may not be improved for each step, that is, with the passage of time. It is considered that this is because the neural network may not be able to learn even if there is an input signal to the controlled object but there is no response (output from the controlled object) due to the dead time of the controlled object.
  • a normative model that obtains the desired response is used, and the normative model is given a dead time, and the actual output is the norm.
  • a method of training the neural network so as to follow the output of the model can be considered.
  • the method using the normative model as in Patent Documents 1 to 3 has the following problems.
  • Patent Document 1 is basically the same as the conventional feedback error learning method, and in this method, even if waste time is added to the normative model, the delay to the controlled object is further delayed. Therefore, the learning delay cannot be improved by the method disclosed in Patent Document 1.
  • Each of the above methods is a control method that focuses on the followability to the normative model in a system that has no wasted time or the influence of wasted time can be ignored, and is for improving transient characteristics in consideration of wasted time. It does not focus on performance improvements. As a result, it is difficult for each of the above methods to achieve both the transient response characteristics for the dead time system and the further improvement of the characteristics due to the learning effect of the neural network.
  • the present invention aims to construct a control system that solves the above problems.
  • Another object of the present invention is to provide a control device having an ability of a neural network to learn a waste time system without being affected by the waste time and to improve transient characteristics with respect to a command input.
  • a feedback controller that controls the controlled object including the dead time element, A normative model part that includes a dead time element and outputs the desired response waveform to the input,
  • the output is a learning type controller that is added to the output of the feedback controller and input to the control target, and the output of the control target and the output of the normative model unit due to a change in the output from the learning type controller.
  • the learning type controller that learns so that the error of is minimized or equal to or less than a predetermined threshold value.
  • a control device is provided.
  • a control device applied to a control system that controls a control target using a pre-designed feedback controller A normative model part that includes a dead time element and outputs the desired response waveform to the input, The output is a learning type controller that is added to the output of the feedback controller and input to the control target, and the output of the control target and the output of the normative model unit due to a change in the output from the learning type controller.
  • the learning type controller that learns so that the error of is minimized or equal to or less than a predetermined threshold value.
  • control device having an ability for a neural network to learn a waste time system without being affected by the waste time and to improve transient characteristics with respect to a command input.
  • the block diagram of the control system which concerns on this embodiment The block diagram of the control system of the comparative example. Repeated step response waveform in the control system of the comparative example. The overlay comparison diagram of the iterative step response waveform in the control system of the comparative example. Repeated step response waveform in the control system of the present embodiment. The superimposition comparison diagram of the repeated step response waveform in the control system of this embodiment.
  • control system uses a control method in which the output of a controlled object having a dead time, such as a process control system, is made to follow the output of a normative model including the dead time by learning.
  • FB controller As the feedback (FB) controller, a conventional feedback (FB) controller can be used.
  • the response of the controlled object is made to follow the output of the normative model having dead time. Therefore, in the neural network controller, the error between the output (actual output) of the controlled object and the output of the normative model is used as the teacher signal of the neural network, and the neural network is trained so as to minimize the error, for example. Further, the output of the neural network controller is added to the output of the feedback controller to be an input to the control target, and the control target is controlled.
  • FIG. 1 is a block diagram of a control system according to the present embodiment.
  • the control system according to the present embodiment includes a control device 1 that controls the control target 2.
  • the control device 1 includes a feedback controller 10, a norm model unit 20, and a neural network controller 30.
  • the feedback controller 10 controls the control target 2 according to a predetermined target value yd regarding the output of the control target 2.
  • the feedback controller 10 inputs a predetermined target value (also referred to as SV) yd and a difference e between the output (measured value, also referred to as PV) of the control target 2, performs a predetermined control calculation, and controls the feedback controller 10.
  • the operation amount (first operation amount) to the target 2 is output.
  • the feedback controller 10 operates as, for example, a main controller.
  • the feedback controller 10 is a controller for operating the output of the controlled object 2 according to a desired design, assuming that there is no modeling error and no disturbance.
  • the feedback controller 10 for example, a PID controller that can be automatically designed by auto-tuning or the like can be used. Further, as the feedback controller 10, an I-PD controller that suppresses an excessive amount can be used, and the rise with respect to the target value can be improved by the neural network controller 30.
  • the norm model unit 20 includes a dead time (waste time element) and outputs a desired response waveform to an input.
  • the norm model unit 20 inputs the target value yd.
  • the input / output relationship of the norm model unit 20 can be represented by, for example, a first-order lag system including a dead time element, but the relationship is not limited to this, and an appropriate relationship including a dead time element may be used.
  • the waste time of the norm model unit 20 can be set to, for example, the same time as the waste time of the controlled object 2. Further, the wasted time of the norm model unit 20 may be about the same as the wasted time of the controlled object 2.
  • the same degree may be such that the responsiveness of the output of the controlled object 2 is improved by, for example, the neural network controller 30.
  • the dead time of the control target 2 may be a value rounded by a predetermined digit, in other words, a value within a predetermined tolerance range.
  • the waste time of the norm model unit 20 may be within a range of about plus or minus 10% with respect to the waste time of the controlled object 2, or may be within a range of about plus or minus 30%.
  • the error ey between the output of the norm model unit 20 including the dead time and the output of the control target 2 is given to the neural network controller 30 as a teacher signal.
  • the output of the neural network controller 30 (second manipulated variable) is added to the output of the feedback controller 10 (first manipulated variable) and input to the controlled object 2.
  • the neural network controller 30 is neural so that the error ey between the output of the controlled object 2 and the output of the normative model unit 20 is minimized or equal to or less than a predetermined threshold value by changing (adjusting) the output of the neural network controller 30.
  • Learn using networks For example, the neural network controller 30 learns by the steepest descent method and backpropagation so as to minimize the square error eye 2 .
  • the target value yd and the output y to be controlled are input to the neural network controller 30 as input signals.
  • the neural network controller 30 supplies an input signal and an output according to the learning result.
  • the output xN from the neural network controller 30 is added to the output of the feedback controller 10 to obtain the manipulated variable x as described above, and is input to the controlled object 2.
  • the output xN of the neural network controller 30 may further input an error ey as an input signal.
  • the neural network has inputs and outputs and one or more intermediate layers.
  • the middle layer is composed of a plurality of nodes.
  • An appropriate configuration can be used for the configuration of the neural network, and a known learning method can be used for the learning method of the neural network.
  • control device 1 adds the difference device 11 for obtaining the difference ey between the output y of the control target 2 and the output of the norm model unit 20, and the output of the feedback controller 10 and the output of the neural network controller 30. It may have an adder 12 and a diffifier 13 for obtaining the difference e between the target value yd and the output y of the control target 2.
  • the normative model unit 20 and the neural network controller 30 may be implemented by, for example, a processing unit such as a CPU (Central Processing Unit) and a DSP (Digital Signal Processor), and a digital device having a storage unit such as a memory.
  • the processing unit and storage unit of the normative model unit 20 and the neural network controller 30 may use a common processing unit and storage unit, or may use separate processing units and storage units. Further, the neural network controller 30 may have a plurality of processing units and execute at least a part of the processing in parallel.
  • the control device of the present embodiment for example, the following effects are obtained.
  • the control device of the present embodiment is not necessarily limited to a device that exhibits all of the following effects.
  • the feedback controller 10 a controller that can be designed by using auto-tuning can be used. Therefore, when designing the feedback controller 10, the model of the controlled object 2 is unnecessary. Further, since the model of the controlled object 2 is not required for the design of the neural network controller 30, the model is not required for the design of each controller of the control device 1.
  • learning is performed so that the output of the control target 2 follows the output of the norm model unit 20.
  • the normative model unit 20 By giving the normative model unit 20 a dead time, it is possible to prevent the neural network controller 30 from starting learning using the neural network in the absence of the output of the controlled object 2 (that is, the causality is high). To establish). Further, in the learning of the neural network, it is possible to avoid the problem that the learning is performed prior to the dead time. Therefore, it is not necessary to delay the learning of the neural network by a wasteful time, and it is not necessary to intentionally increase the learning cycle. As a result, it is possible to avoid the phenomenon that the neural network controller 30 gives an excessive control input in order to increase the output of the controlled object 2.
  • the role of the feedback controller 10 is mainly to operate so as to satisfy the nominal specifications at the time of design.
  • the feedback controller 10 operates so as to satisfy the specifications as a control device (controller) in the control system, the operation specifications of the PID, and the like.
  • the role of the neural network controller 30 is to make the output of the controlled object 2 follow the output of the normative model unit 20 after learning. Further, the neural network controller 30 compensates for the modeling error and the disturbance when the modeling error and the disturbance occur. When such an error or disturbance occurs, an error occurs between the output of the controlled object 2 and the output of the normative model unit 20, and the neural network controller 30 operates based on this error to cause a modeling error or disturbance. Compensate.
  • the control device of the present embodiment also has the following effects. -Since the configuration follows the output of the norm model unit 20, the control input is unlikely to become excessive even if the learning of the neural network progresses by setting and adjusting the norm model unit 20. In other words, the input of the controlled object 2 can be indirectly adjusted. -The design of the neural network controller 30 does not require a model to be controlled. Further, since the feedback controller 10 designed by auto-tuning can be used, the control system can be designed without a model. -Even if the learning of the neural network progresses, the feedback control system can be maintained without shifting to the feedforward structure.
  • the feedback controller 10 when the error between the output of the norm model unit 20 and the output of the control target 2 is zero, it is equivalent to operating only the feedback controller 10. -By using the I-PD structure for the feedback controller 10, it is possible to improve only the responsiveness without excessive amount due to the learning process of the neural network. For example, the output of the control target 2 has a slow rise immediately after the start of control, but it is possible to control such that the rise is improved as the learning progresses while suppressing the excess amount. Further, when the learning of the neural network controller 30 is not good, or when the control performance is not improved, the feedback controller 10 guarantees the initial basic performance even if the output of the neural network controller 30 is limited or zero. Will be done.
  • -Since learning is performed according to the output of the norm model unit 20, it is easy to apply to a multi-input multi-output system (MIMO (multiple-input and multi-output)).
  • MIMO multiple-input and multi-output
  • the above-mentioned error, operation amount, etc. include a plurality of elements corresponding to input / output and can be represented by, for example, a vector.
  • the control device of the present embodiment can be applied to a control system having a dead time, for example, a process control system or a temperature control system.
  • a control system having a dead time for example, a process control system or a temperature control system.
  • Specific examples include temperature control / air conditioning systems, injection molding machines, and hot plates.
  • the existing design method that does not use a model is inherited, and the control performance by learning along with the operation is further introduced. It has the advantage that it can be improved.
  • simulation result The simulation results and effects of the control system using the control device 1 in the present embodiment will be described in comparison with the comparative examples.
  • FIG. 2 is a block diagram of a control system of a comparative example.
  • the feedback error learning system described above is used as a related technique.
  • the neural network controller 110 uses the output xc of the feedback controller 120 as a teacher signal, and performs learning so that xc becomes 0 as the learning progresses.
  • the control system of the comparative example learns and controls so that the error e between the target value yd and the controlled object 130 is set to 0 (in other words, the output y is set to the target value yd). Therefore, after learning, the controller used shifts from the feedback controller 120 to the neural network controller 110.
  • the feedback controller 120 used a PI controller.
  • the neural network of the neural network controller 110 has two intermediate layers, and the number of nodes in each layer is 10.
  • FIG. 3 shows a repeating step response waveform in the control system of the comparative example.
  • the horizontal axis of FIG. 3 is time.
  • FIG. 3 shows the output response waveform 32 of the control target 130 with respect to the target value (repeated step command) 31 in the upper row, and the output (FBA) 33 of the feedback controller 120 and the output (NNout) 34 of the neural network controller 110 in the lower row. Is shown. As shown in FIG. 3, no improvement in responsiveness is observed with the passage of time.
  • FIG. 4 is an superimposed comparison diagram of the repeated step response waveforms in the control system of the comparative example.
  • the horizontal axis of FIG. 4 is time.
  • FIG. 4 shows a waveform 41 in which responses (step responses) to a plurality of positive step commands are superimposed and displayed in the upper row, and responses (step responses) to a plurality of negative direction step commands are superimposed and displayed in the lower row.
  • the waveform 43 is shown. More specifically, in both the upper and lower rows of FIG. 4, for the repeating step command 31 as shown in FIG. 3, the step response waveforms for the first, fifth, and tenth step commands (thin lines, broken lines, and thick lines, respectively). (Show) is shown by superimposing the rise or fall of each step command as time 0. Further, as a reference example, the ideal response waveforms 42 and 44 are shown by dotted lines. Looking at FIG. 4, the response waveforms almost overlap, and it is not seen that the responsiveness is improved for each step.
  • FIGS. 5 and 6 are the simulation results in the control system of this embodiment.
  • FIG. 5 is a repetitive step response waveform in the control system of the present embodiment.
  • FIG. 6 is an superimposed comparison diagram of the repeated step response waveforms in the control system of the present embodiment.
  • the configurations of the control target 2 and the feedback controller 10 are the same as those of the control target 130 and the feedback controller 120 of the comparative example shown in FIG. 2, respectively. Further, the neural network of the neural network controller 30 has two intermediate layers and ten nodes, which is the same as the configuration of the neural network controller 110.
  • FIG. 5 shows the output response waveform 52 of the control target 2 with respect to the target value (repeated step command) 51 in the upper row, and the output (FBA) 53 of the feedback controller 10 and the neural network controller 30 in the lower row, as in FIG.
  • the output (NNout) of 54 is shown.
  • FIG. 6 shows waveforms 61 to 63 in which responses (step responses) to a plurality of positive step commands are superimposed and displayed in the upper row, and responses to a plurality of negative step commands are shown in the lower row.
  • the waveforms 65 to 67 displayed by superimposing (step response) are shown. More specifically, in both the upper and lower rows of FIG. 6, for the repetitive step command 51 as shown in FIG. 5, the step response waveforms 61 and 65 for the first step command and the step response waveform 62 and 65 for the fifth step command.
  • the step response waveforms 63 and 67 for the 66th and 10th step commands are shown by superimposing the rise of each step command as time 0.
  • ideal response waveforms for example, the output of the normative model unit 20
  • 64 and 68 are shown by dotted lines.
  • the step response By repeating the step response, it can be confirmed that the amount of excess from the target value is reduced, the settling time is shortened, and the output of the normative model is followed in both the positive and negative responses. Further, from the lower part of FIG. 5, it can be confirmed that the output (NNout) 54 of the neural network controller 30 increases by repeating the step response. This indicates that the neural network controller 30 is trained so that the output signal y follows the normative model output.
  • the neural network controller 30 is trained by using the neural network, but it may be trained by using a function other than the neural network. That is, the neural network controller 30 may be a learning type controller. It is also possible to provide a second control device having a configuration that does not include the feedback controller 10 among the control devices 1. For example, even if a control device having a norm model unit 20 and a neural network controller 30 is applied to a control system that controls a control target using an existing feedback controller designed in advance, the above-mentioned control system is configured. Good.
  • Each of the above configurations and processes can be realized by a computer having a processing unit and a storage unit.
  • the processing unit executes the processing of each configuration.
  • the storage unit stores a program executed by the processing unit.
  • the above-mentioned processing can also be realized as a control method executed by the processing unit. Further, it can be realized by a program or a program medium including an instruction for causing the processing unit to execute the above-mentioned processing, a computer-readable recording medium for storing the program, a non-temporary recording medium, or the like.
  • the control device and control system of the present embodiment can be applied to, for example, a control system that controls a control target having a dead time. As an example, it can be applied to a process control system and a temperature control system. More specific examples include temperature control / air conditioning systems, injection molding machines and hot plates.
  • Control device 2 Control target 10
  • Feedback controller 20 Normative model unit 30
  • Neural network controller 51 Target value (repeated step command)
  • Output response waveform 53
  • Feedback controller output (FBA) 54

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Feedback Control In General (AREA)

Abstract

むだ時間システムに対してもニューラルネットワークがむだ時間の影響なく学習し、指令入力に対する過渡特性を改善する能力を有する制御装置を提供する。制御装置(1)は、むだ時間要素を含む制御対象を制御するフィードバック制御器(10)と、むだ時間要素を含み、入力に対する所望の応答波形を出力する規範モデル部(20)と、出力がフィードバック制御器の出力と加算されて制御対象に入力される学習型制御器(30)であって、学習型制御器からの出力の変化により制御対象の出力と規範モデル部の出力の誤差が最小化又は予め定められた閾値以下になるように、学習する学習型制御器とを備える。

Description

制御装置
 本発明は、制御装置に係り、特に、むだ時間を含む制御対象を制御する制御装置に関する。
 ニューラルネットワークをフィードバック制御に用いた手法として、制御対象の逆システムを利用するフィードバック誤差学習方法及びシステムが知られている。図2は、そのフィードバック誤差学習システムのブロック図を示す。この手法では、ニューラルネットワーク制御器110は、フィードバック制御器の出力xcを教師信号とし、学習経過によりxcが0となるように学習を行う。これにより、誤差eを0及び出力yを目標値ydにするよう学習及び制御が行われる。したがって、学習後には、使用する制御器はフィードバック制御器120からニューラルネットワーク制御器110へシフトする。その結果、制御系100は、フィードバック構造からフィードフォワード構造に置換される。
 また、ニューラルネットワークを用いた制御系に規範モデルを導入した手法として、例えば、以下の手法が開示されている。特許文献1には、操舵量信号に基づいて理想的な期待応答の時系列データ信号を出力する規範モデルの当該出力と、フィードバック制御部の出力とをニューラルネットワーク部に入力する制御装置が開示されている。特許文献2には、フィードバック制御器そのものをニューラルネットワーク学習型の制御器とした構造が開示されている。また、特許文献3には、非線形関数近似能力を有するニューラルネットワークにより推定装置を構成し、補償器構成要素として組み込む制御装置が開示されている。
特開平07-277286号公報 特開平06-035510号公報 特開平04-264602号公報
 上述の図2に示すようなシステムでは、繰り返しのステップ指令に対する出力応答波形において、ステップ毎に、すなわち時間経過に伴って応答性が改善されない場合がある。これは、制御対象のむだ時間に起因し、制御対象への入力信号があってもその応答(制御対象からの出力)が無い状態では、ニューラルネットワークが学習できない場合があるためと考えられる。
 ここで、むだ時間に起因した出力の応答遅れによるニューラルネットワークの学習遅れを防止するために、所望の応答が得られる規範モデルを用い、その規範モデルにむだ時間を持たせ、実際の出力が規範モデルの出力に追従するようにニューラルネットワークを学習させる手法が考えられる。しかしながら、例えば、特許文献1~3のような規範モデルを用いた手法では、以下のような課題がある。
 まず、特許文献1に開示された手法は、基本的に、従来のフィードバック誤差学習方式と同様であり、この手法では規範モデルにむだ時間を加えても制御対象への遅れは更に遅れる。したがって、特許文献1に開示された手法では、学習遅れは改善できない。
 特許文献2に開示された手法では、規範モデルにむだ時間を含めれば学習遅れは回避しうる。しかしながら、ニューラルネットワーク制御器の初期設計段階で、制御対象のモデルが必要である。したがって、制御器の設計が複雑であり、モデル誤差も生じ得る。また、目標値応答、外乱及び変動など全ての補償対象をニューラルネットワーク制御器で補償する必要が有る。そのため、補償対象別に制御器を設計・調整することが困難であり、補償器の学習による修正が複雑となる。特許文献3に開示された手法においても、特許文献2と同様の課題がある。
 上述の各手法は、いずれもむだ時間のない、又はむだ時間の影響が無視できる系での規範モデルへの追従性に主眼をおいた制御法であり、むだ時間を考慮した過渡特性の改善に対する性能改善については焦点を当てていない。その結果、上述の各手法では、むだ時間システムに対する過渡応答特性と、ニューラルネットワークの学習効果による更なる特性改善を両立して実現することは困難である。
 本発明は以上の点に鑑み、上記の課題を解決する制御系を構築することを目的にひとつとする。また、本発明は、むだ時間システムに対してもニューラルネットワークがむだ時間の影響なく学習し、指令入力に対する過渡特性を改善する能力を有する制御装置を提供することを目的とする。
 本発明の第1の態様によると、
 むだ時間要素を含む制御対象を制御するフィードバック制御器と、
 むだ時間要素を含み、入力に対する所望の応答波形を出力する規範モデル部と、
 出力が前記フィードバック制御器の出力と加算されて前記制御対象に入力される学習型制御器であって、前記学習型制御器からの出力の変化により前記制御対象の出力と前記規範モデル部の出力の誤差が最小化又は予め定められた閾値以下になるように、学習する前記学習型制御器と、
を備えた制御装置が提供される。
 本発明の第2の態様によると、
 予め設計されたフィードバック制御器を用いて制御対象を制御する制御系に適用される制御装置であって、
 むだ時間要素を含み、入力に対する所望の応答波形を出力する規範モデル部と、
 出力が前記フィードバック制御器の出力と加算されて前記制御対象に入力される学習型制御器であって、前記学習型制御器からの出力の変化により前記制御対象の出力と前記規範モデル部の出力の誤差が最小化又は予め定められた閾値以下になるように、学習する前記学習型制御器と、
を備えた制御装置が提供される。
 本発明によると、むだ時間システムに対してもニューラルネットワークがむだ時間の影響なく学習し、指令入力に対する過渡特性を改善する能力を有する制御装置を提供することができる。
本実施形態に係る制御系のブロック図。 比較例の制御系のブロック図。 比較例の制御系における繰り返しステップ応答波形。 比較例の制御系における繰り返しステップ応答波形の重ね合わせ比較図。 本実施形態の制御系における繰り返しステップ応答波形。 本実施形態の制御系における繰り返しステップ応答波形の重ね合わせ比較図。
 以下、本発明の実施形態を図面を参照して説明する。
<本実施形態の概要>
 まず、本実施形態の概要を説明する。本実施形態の制御系(制御システム)は、プロセス制御系などのむだ時間を持つ制御対象の出力を、同様にむだ時間を含む規範モデルの出力に、学習により追従させる制御手法を用いる。
 フィードバック(FB)制御器は、従来のフィードバック(FB)制御器を使用することができる。制御対象の応答を、むだ時間を有する規範モデルの出力に追従させる。そのために、ニューラルネットワーク制御器において、制御対象の出力(実出力)と規範モデルの出力との誤差を、ニューラルネットワークの教師信号とし、その誤差を例えば最小化するようにニューラルネットワークを学習させる。また、ニューラルネットワーク制御器の出力を、フィードバック制御器の出力に加算して制御対象への入力とし、制御対象を制御する。
<本実施の形態の説明>
 図1は、本実施形態に係る制御系のブロック図である。本実施形態に係る制御系は、制御対象2を制御する制御装置1を含む。制御装置1は、フィードバック制御器10と、規範モデル部20と、ニューラルネットワーク制御器30とを有する。
 フィードバック制御器10は、制御対象2の出力に関する予め定められた目標値ydに従い、制御対象2を制御する。例えば、フィードバック制御器10は、予め定められた目標値(SVとも称する)ydと、制御対象2の出力(測定値、PVとも称する)の差eを入力し、所定の制御演算を行い、制御対象2への操作量(第1操作量)を出力する。フィードバック制御器10は、例えば、メインの制御器として動作する。例えば、フィードバック制御器10は、モデル化誤差が無く、外乱が無いと仮定した場合に、制御対象2の出力を所望の設計通りに動作させるための制御器である。フィードバック制御器10としては、例えば、オートチューニングなどで自動的に設計可能なPID制御器などを用いることができる。また、フィードバック制御器10には、行き過ぎ量を抑えたI-PD制御器を用い、目標値に対する立ち上がりはニューラルネットワーク制御器30で改善することもできる。
 規範モデル部20は、むだ時間(むだ時間要素)を含み、入力に対する所望の応答波形を出力する。規範モデル部20は、目標値ydを入力する。規範モデル部20の入出力の関係は、例えばむだ時間要素を含む1次遅れ系などで表すことができるが、これに限らず、むだ時間要素を含む適宜の関係でもよい。規範モデル部20のむだ時間は、例えば、制御対象2のむだ時間と同じ時間に設定されることができる。また、規範モデル部20のむだ時間は、制御対象2のむだ時間と同程度の時間でもよい。ここで同程度とは、例えば、ニューラルネットワーク制御器30により、制御対象2の出力の応答性が改善される程度であればよい。また、制御対象2のむだ時間を予め定められた桁で丸めた値、換言すると、予め定められた許容誤差の範囲内の値でもよい。一例として、規範モデル部20のむだ時間は、制御対象2のむだ時間に対してプラスマイナス10%程度の範囲内であってもよく、プラスマイナス30%程度の範囲内であってもよい。むだ時間を含む規範モデル部20の出力と制御対象2の出力との誤差eyを、ニューラルネットワーク制御器30に教師信号として与える。
 ニューラルネットワーク制御器30の出力(第2操作量)は、フィードバック制御器10の出力(第1操作量)と加算されて、制御対象2に入力される。ニューラルネットワーク制御器30は、ニューラルネットワーク制御器30の出力の変化(調整)によって制御対象2の出力と規範モデル部20の出力の誤差eyが最小化又は予め定められた閾値以下になるようにニューラルネットワークを用いて学習する。例えば、ニューラルネットワーク制御器30は、2乗誤差eyを最小化するように、最急降下法とバックプロパゲーションにより学習する。ニューラルネットワーク制御器30には、入力信号として、目標値ydと制御対象の出力yとを入力する。ニューラルネットワーク制御器30は、入力信号と学習結果に応じた出力を供給する。また、ニューラルネットワーク制御器30からの出力xNは、上述のようにフィードバック制御器10の出力と加算されて操作量xが求められ、制御対象2へ入力される。このようにニューラルネットワーク制御器30の出力xNをフィードバック制御器10の出力と加算して制御対象2へ入力することで、フィードバック制御器10とニューラルネットワーク制御器30の役割分担が可能となる。なお、ニューラルネットワーク制御器30は、入力信号として誤差eyをさらに入力してもよい。
 なお、ニューラルネットワークは、入力及び出力と、1又は複数の中間層とを有する。中間層は、複数のノードで構成される。ニューラルネットワークの構成は適宜の構成を用いることができ、ニューラルネットワークの学習方法については公知の学習方法を用いることができる。
 また、制御装置1は、制御対象2の出力yと、規範モデル部20の出力との差eyを求める差分器11と、フィードバック制御器10の出力とニューラルネットワーク制御器30の出力とを加算する加算器12と、目標値ydと制御対象2の出力yとの差eを求める差分器13とを有してもよい。
 規範モデル部20とニューラルネットワーク制御器30は、例えばCPU(Central Processing Unit)及びDSP(Digital Signal Processor)などの処理部と、メモリなどの記憶部を有するデジタル装置によって実装されてもよい。規範モデル部20とニューラルネットワーク制御器30の処理部及び記憶部は、共通の処理部及び記憶部を用いてもよいし、別々の処理部及び記憶部を用いてもよい。また、ニューラルネットワーク制御器30は、複数の処理部を有し、少なくとも一部の処理を並列に実行してもよい。
(効果)
 本実施形態の制御装置によると、例えば以下の効果を奏する。ただし、本実施形態の制御装置は、必ずしも以下の全ての効果を奏する装置に限定されるものではない。
 フィードバック制御器10としてオートチューニングを用いて設計可能な制御器などが利用可能である。そのため、フィードバック制御器10の設計に際して、制御対象2のモデルが不要である。また、ニューラルネットワーク制御器30の設計にも制御対象2のモデルが不要であるため、制御装置1の各制御器の設計に対し、モデルが不要である。
 本実施形態の制御系では、規範モデル部20の出力に制御対象2の出力が追従するよう学習する。規範モデル部20にむだ時間を持たせることで、制御対象2の出力が無い状態でニューラルネットワーク制御器30がニューラルネットワークを用いた学習を開始することを回避することができる(すなわち、因果性が成立する)。また、ニューラルネットワークの学習において、むだ時間に先行し学習が行われるという問題を回避できる。したがって、ニューラルネットワークの学習をむだ時間分だけ遅らせる必要がなく、学習周期を意図的に大きくする必要もない。これにより制御対象2の出力を増大させようとニューラルネットワーク制御器30が過剰な制御入力を与えるといった現象を回避できる。
 フィードバック制御器10の役割は、主として設計時のノミナル仕様を満たすように動作することである。例えば、フィードバック制御器10は、制御系における制御装置(コントローラ)としての仕様、PIDの動作仕様などを満たすように動作する。一方、ニューラルネットワーク制御器30の役割は、学習の後に制御対象2の出力を規範モデル部20の出力に追従させるよう動作することである。さらに、ニューラルネットワーク制御器30は、モデル化誤差や外乱が生じた場合に、モデル化誤差や外乱を補償する。このような誤差や外乱が生じる場合、制御対象2の出力と規範モデル部20の出力とに誤差が生じることなり、ニューラルネットワーク制御器30は、この誤差に基づき動作することでモデル化誤差や外乱を補償する。
 以上の効果に加え、本実施形態の制御装置は、以下の効果も有する。
 ・規範モデル部20の出力へ追従する構成であるため、規範モデル部20の設定及び調整によりニューラルネットワークの学習が進んでも制御入力が過大になりにくい。換言すると、制御対象2の入力を間接的に調整できる。
 ・ニューラルネットワーク制御器30の設計には制御対象のモデルが必要ない。また、オートチューニングにより設計されるフィードバック制御器10を利用できるため、制御系がモデルレスで設計可能である。
 ・ニューラルネットワークの学習が進んでもフィードフォワード構造にシフトせず、フィードバック制御系を維持できる。例えば、規範モデル部20の出力と制御対象2の出力との誤差がゼロである場合、フィードバック制御器10のみ動作しているのと同等である。
 ・フィードバック制御器10にI-PD構造を利用することで、ニューラルネットワークの学習経過により行き過ぎ量なく応答性のみを改善することができる。例えば、制御対象2の出力は、制御開始直後は立ち上がりが遅くなるが、行き過ぎ量を抑えつつ、学習が進むにつれ立ち上がりを改善していく、というような制御が可能となる。また、ニューラルネットワーク制御器30の学習が良好でない場合、又は制御性能が改善されていかない場合などは、ニューラルネットワーク制御器30の出力を制限又はゼロとしても初期の基本性能がフィードバック制御器10により保証される。
 ・規範モデル部20の出力にあわせて学習するため、多入力多出力システムへの適用(MIMO(multiple-input and multiple-output)化)が容易である。例えば、多点の温度を制御する制御系において、過渡状態を含めて多点(多出力)の温度の均一化制御が可能である。なお、多入力多出力システムへ適用する場合には、上述の誤差、操作量等は、入出力に対応した複数の要素を含み、例えばベクトルで表すことができる。
 本実施形態の制御装置は、むだ時間を有する制御系、例えばプロセス制御系や温度調整系に適用できる。具体的な例として、温調・空調システム、射出成型機及びホットプレートなどが挙げられる。このような分野では、制御対象のモデルを導出することなく、制御入力のオンオフを利用したオートチューニングによりフィードバック制御器の設計が行われるのが一般的である。本実施形態は、このような既存の制御系に対して付加的にニューラルネットワークを用いた制御器を導入することで、モデルを用いない既存の設計法を継承し、さらに動作とともに学習による制御性能改善を図ることができるという利点を有する。
(シミュレーション結果)
 本実施形態における制御装置1を用いた制御系のシミュレーション結果及び効果を、比較例と対比して説明する。
 まず、比較例における応答波形について説明する。図2は、比較例の制御系のブロック図である。比較例として、関連技術として上述したフィードバック誤差学習システムを用いる。この例では、ニューラルネットワーク制御器110は、教師信号としてフィードバック制御器120の出力xcを用い、学習経過によりxcが0となるように学習を行う。これにより、比較例の制御系は、目標値ydと制御対象130との誤差eを0にする(換言すると、出力yを目標値ydにする)よう学習及び制御する。したがって、学習後には、使用する制御器はフィードバック制御器120からニューラルネットワーク制御器110へシフトする。ここで、フィードバック制御器120はPI制御器を用いた。ニューラルネットワーク制御器110のニューラルネットワークは中間層が2層であり、各層のノード数は10とした。
 図3は、比較例の制御系における繰り返しステップ応答波形を示す。図3の横軸は時間である。図3は上段に目標値(繰り返しステップ指令)31に対する制御対象130の出力応答波形32を示し、下段にフィードバック制御器120の出力(FBA)33とニューラルネットワーク制御器110の出力(NNout)34とを示す。図3に示すように、時間経過にともなう応答性の改善は見られない。
 図4は、比較例の制御系における繰り返しステップ応答波形の重ね合わせ比較図である。図4の横軸は時間である。図4は、上段に複数の正方向へのステップ指令に対する応答(ステップ応答)を重ねて表示した波形41を示し、下段に複数の負方向へのステップ指令に対する応答(ステップ応答)を重ねて表示した波形43を示す。より詳細には、図4の上段及び下段ともに、図3に示すような繰り返しのステップ指令31について、1番目、5番目及び10番目のステップ指令に対するステップ応答波形(それぞれ、細線、破線及び太線で示す)を、各ステップ指令の立ち上がり又は立ち下がりを時間0として重ねて示す。また、参考例として、理想的な応答波形42、44を点線で示す。図4を見ても、応答波形はほぼ重なっており、ステップ毎に応答性が改善される様子が見られない。
 一方、一例として、本実施形態の制御系でのシミュレーション結果を図5及び図6に示す。図5は、本実施形態の制御系における繰り返しステップ応答波形である。図6は、本実施形態の制御系における繰り返しステップ応答波形の重ね合わせ比較図である。
 制御対象2とフィードバック制御器10の構成は、図2に示す比較例の制御対象130及びフィードバック制御器120とそれぞれ同じとした。また、ニューラルネットワーク制御器30のニューラルネットワークは、中間層を2層、ノード数を10と、ニューラルネットワーク制御器110の構成と同じとした。
 図5の横軸は時間である。図5は、図3と同様に、上段に目標値(繰り返しステップ指令)51に対する制御対象2の出力応答波形52を示し、下段にフィードバック制御器10の出力(FBA)53とニューラルネットワーク制御器30の出力(NNout)54とを示す。
 図6の横軸は時間である。図6は、図4と同様に、上段に複数の正方向へのステップ指令に対する応答(ステップ応答)を重ねて表示した波形61~63を示し、下段に複数の負方向へのステップ指令に対する応答(ステップ応答)を重ねて表示した波形65~67を示す。より詳細には、図6の上段及び下段ともに、図5に示すような繰り返しのステップ指令51について、1番目のステップ指令に対するステップ応答波形61及び65、5番目のステップ指令に対するステップ応答波形62及び66、10番目のステップ指令に対するステップ応答波形63及び67を、各ステップ指令の立ち上がりを時間0として重ねて示す。また、参考例として、理想的な応答波形(例えば、規範モデル部20の出力)64、68を点線で示す。
 ステップ応答の繰り返しにより、正方向及び負方向の応答ともに、目標値からの行き過ぎ量が低減し、整定時間も早くなり、規範モデルの出力に追従していることが確認できる。また、図5の下段より、ステップ応答を繰り返すことでニューラルネットワーク制御器30の出力(NNout)54が増大するのが確認できる。これは、出力信号yが規範モデル出力に追従するようにニューラルネットワーク制御器30の学習が行われていることを示している。
(その他)
 上述の実施形態では、ニューラルネットワーク制御器30はニューラルネットワークを用いて学習したが、ニューラルネットワーク以外の機能を用いて学習してもよい。すなわち、ニューラルネットワーク制御器30は学習型制御器でもよい。また、制御装置1のうちフィードバック制御器10を含まない構成を有する第2の制御装置を提供することもできる。例えば、予め設計された既存のフィードバック制御器を用いて制御対象を制御する制御系に、規範モデル部20とニューラルネットワーク制御器30を有する制御装置が適用して上述の制御系を構成してもよい。
 上述の各構成及び処理は、処理部と記憶部を有するコンピュータで実現することも可能である。処理部は、各構成の処理を実行する。記憶部は、処理部が実行するプログラムを記憶する。上述の処理は、処理部が実行する制御方法としても実現可能である。また、処理部に上述の処理を実行させるための命令を含むプログラム又はプログラム媒体、該プログラムを記憶したコンピュータ読み取り可能な記録媒体及び非一時的な記録媒体等により実現可能である。
 本実施形態の制御装置及び制御系は、例えば、むだ時間を有する制御対象を制御する制御系に適用可能である。一例として、プロセス制御系や温度調整系に適用可能である。より具体的な例としては、温調・空調システム、射出成型機及びホットプレートなどが挙げられる。
1 制御装置
2 制御対象
10 フィードバック制御器
20 規範モデル部
30 ニューラルネットワーク制御器
51 目標値(繰り返しステップ指令)
52 出力応答波形
53 フィードバック制御器の出力(FBA)
54 ニューラルネットワーク制御器の出力(NNout)

Claims (5)

  1.  むだ時間要素を含む制御対象を制御するフィードバック制御器と、
     むだ時間要素を含み、入力に対する所望の応答波形を出力する規範モデル部と、
     出力が前記フィードバック制御器の出力と加算されて前記制御対象に入力される学習型制御器であって、前記学習型制御器からの出力の変化により前記制御対象の出力と前記規範モデル部の出力の誤差が最小化又は予め定められた閾値以下になるように、学習する前記学習型制御器と、
    を備えた制御装置。
  2.  前記学習型制御器は、ニューラルネットワークを用いて学習するニューラルネットワーク制御器である請求項1に記載の制御装置。
  3.  前記ニューラルネットワーク制御器は、前記制御対象の出力と前記規範モデル部の出力の誤差をニューラルネットワークの教師信号とし、前記誤差を最小化又は予め定められた閾値以下になるようにニューラルネットワークを用いて学習する請求項2に記載の制御装置。
  4.  前記規範モデル部のむだ時間は、前記制御対象のむだ時間と同じ又は同程度に設定される請求項1に記載の制御装置。
  5.  予め設計されたフィードバック制御器を用いて制御対象を制御する制御系に適用される制御装置であって、
     むだ時間要素を含み、入力に対する所望の応答波形を出力する規範モデル部と、
     出力が前記フィードバック制御器の出力と加算されて前記制御対象に入力される学習型制御器であって、前記学習型制御器からの出力の変化により前記制御対象の出力と前記規範モデル部の出力の誤差が最小化又は予め定められた閾値以下になるように、学習する前記学習型制御器と、
    を備えた制御装置。
     
PCT/JP2019/017878 2019-04-26 2019-04-26 制御装置 WO2020217445A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020217034713A KR20220004981A (ko) 2019-04-26 2019-04-26 제어장치
US17/606,141 US20220207328A1 (en) 2019-04-26 2019-04-26 Control device
JP2021515681A JP7432838B2 (ja) 2019-04-26 2019-04-26 制御装置
CN201980095793.0A CN113748385B (zh) 2019-04-26 2019-04-26 控制装置
PCT/JP2019/017878 WO2020217445A1 (ja) 2019-04-26 2019-04-26 制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/017878 WO2020217445A1 (ja) 2019-04-26 2019-04-26 制御装置

Publications (1)

Publication Number Publication Date
WO2020217445A1 true WO2020217445A1 (ja) 2020-10-29

Family

ID=72940909

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/017878 WO2020217445A1 (ja) 2019-04-26 2019-04-26 制御装置

Country Status (5)

Country Link
US (1) US20220207328A1 (ja)
JP (1) JP7432838B2 (ja)
KR (1) KR20220004981A (ja)
CN (1) CN113748385B (ja)
WO (1) WO2020217445A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023014476A (ja) * 2021-07-19 2023-01-31 新日本空調株式会社 Pid制御装置の自動調整方法
WO2023007596A1 (ja) * 2021-07-27 2023-02-02 理化工業株式会社 制御装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03182902A (ja) * 1989-12-13 1991-08-08 Toshiba Corp むだ時間補償制御装置
JPH04264602A (ja) * 1991-02-19 1992-09-21 Toshiba Corp 非線形プロセス適応制御装置
JPH0635510A (ja) * 1992-07-15 1994-02-10 Fujitsu Ltd ニューラルネットワークを用いたモデル規範型適応制御装置
JPH07277286A (ja) * 1994-04-11 1995-10-24 Mitsubishi Heavy Ind Ltd 航空機用学習型飛行制御装置
US20040176860A1 (en) * 2002-12-09 2004-09-09 Guided Systems Technologies, Inc. Adaptive output feedback apparatuses and methods capable of controlling a non-minimum phase system

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59149517A (ja) * 1983-02-04 1984-08-27 Toshiba Corp 電流制御装置
JPH02273804A (ja) * 1989-04-14 1990-11-08 Omron Corp Pid制御装置のパラメータ調整法
JPH0675604A (ja) * 1992-08-24 1994-03-18 Nippon Telegr & Teleph Corp <Ntt> ニューラルネットワークを用いた軌道型順方向同定器及びシミュレータ
JP3182902B2 (ja) 1992-08-24 2001-07-03 トヨタ自動車株式会社 車体のセンタピラー下部構造
JP3233702B2 (ja) 1992-10-16 2001-11-26 ローム株式会社 固体電解コンデンサの製法
JP4264602B2 (ja) 1998-07-17 2009-05-20 ソニー株式会社 画像処理装置
EP1824433B1 (en) 2004-12-14 2012-10-31 SCA Hygiene Products AB Absorbent article with a checking function for elastic elongation
CN109451781B (zh) * 2016-07-20 2020-01-31 日本精工株式会社 电动助力转向装置
BR112018076680A2 (pt) * 2016-07-20 2019-04-02 Nsk Ltd. dispositivo de direção elétrica
WO2019069649A1 (ja) * 2017-10-06 2019-04-11 キヤノン株式会社 制御装置、リソグラフィ装置、測定装置、加工装置、平坦化装置及び物品製造方法
JP7277286B2 (ja) 2019-06-28 2023-05-18 三菱重工業株式会社 プラントの検査方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03182902A (ja) * 1989-12-13 1991-08-08 Toshiba Corp むだ時間補償制御装置
JPH04264602A (ja) * 1991-02-19 1992-09-21 Toshiba Corp 非線形プロセス適応制御装置
JPH0635510A (ja) * 1992-07-15 1994-02-10 Fujitsu Ltd ニューラルネットワークを用いたモデル規範型適応制御装置
JPH07277286A (ja) * 1994-04-11 1995-10-24 Mitsubishi Heavy Ind Ltd 航空機用学習型飛行制御装置
US20040176860A1 (en) * 2002-12-09 2004-09-09 Guided Systems Technologies, Inc. Adaptive output feedback apparatuses and methods capable of controlling a non-minimum phase system

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JUNICHI MIGUCHI, HANSHENG WU, KOICHI MIZUKAMI: "A study on model reference adaptive control using neural networks", TRANSACTIONS OF THE SOCIETY OF INSTRUMENT AND CONTROL ENGINEERS, vol. 33, no. 6, 30 June 1997 (1997-06-30), pages 477 - 482, XP055758282, ISSN: 0453-4654, DOI: 10.9746/sicetr1965.33.477 *
JUNICHI TSUJI , HIROMITSU OHMORI , AKIRA SANO: "Adaptive control incorporating neural network", TRANSACTIONS OF THE SOCIETY OF INSTRUMENT AND CONTROL ENGINEERS, vol. 30, no. 3, 1 January 1994 (1994-01-01), pages 295 - 302, XP055758298, ISSN: 0453-4654, DOI: 10.9746/sicetr1965.30.295 *
SOUICHI ANKAI , HIROSHI SAITO , KENJI NAKAJIMA, SEIJI HASHIMOTO: "Precision positioning control using reference model-based neural network", THE PAPERS OF TECHNICAL MEETING ON CONTROL, 2013, pages 11 - 15 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023014476A (ja) * 2021-07-19 2023-01-31 新日本空調株式会社 Pid制御装置の自動調整方法
JP7270938B2 (ja) 2021-07-19 2023-05-11 新日本空調株式会社 Pid制御装置の自動調整方法
WO2023007596A1 (ja) * 2021-07-27 2023-02-02 理化工業株式会社 制御装置

Also Published As

Publication number Publication date
CN113748385B (zh) 2024-06-25
JPWO2020217445A1 (ja) 2020-10-29
JP7432838B2 (ja) 2024-02-19
KR20220004981A (ko) 2022-01-12
CN113748385A (zh) 2021-12-03
US20220207328A1 (en) 2022-06-30

Similar Documents

Publication Publication Date Title
Cao et al. Design and analysis of a novel ${\cal L} _1 $ adaptive control architecture with guaranteed transient performance
Ortega et al. Systematic design of weighting matrices for the H∞ mixed sensitivity problem
Han et al. Finite-time sliding surface constrained control for a robot manipulator with an unknown deadzone and disturbance
Dastres et al. Neural-network-based adaptive backstepping control for a class of unknown nonlinear time-delay systems with unknown input saturation
Zhou et al. Finite-time prescribed performance adaptive fuzzy control for unknown nonlinear systems
WO2020217445A1 (ja) 制御装置
Xia et al. Adaptive prescribed performance control of output feedback systems including input unmodeled dynamics
Jetto et al. A mixed numerical–analytical stable pseudo‐inversion method aimed at attaining an almost exact tracking
Ramezani et al. Neuro-adaptive backstepping control of SISO non-affine systems with unknown gain sign
Huang Global adaptive neural dynamic surface control of strict-feedback systems
Wang et al. Robust adaptive fault tolerant control for a class of nonlinear systems with dynamic uncertainties
Cheng et al. Block backstepping controllers design for a class of perturbed non-linear systems with m blocks
Van Der El et al. Effects of target trajectory bandwidth on manual control behavior in pursuit and preview tracking
Kookos et al. On-line PI controller tuning for integrator/dead time processes
Farasat et al. Deterministic vs. stochastic performance assessment of iterative learning control for batch processes
Freeman et al. A common setting for the design of iterative learning and repetitive controllers with experimental verification
CN109613830B (zh) 基于递减预测步长的模型预测控制方法
Ortseifen et al. A new design method for mismatch-based anti-windup compensators: Achieving local performance and global stability in the SISO case
Nai et al. Adaptive neural fault-tolerant control for uncertain MIMO nonlinear systems with actuator faults and coupled interconnections
WO2023007596A1 (ja) 制御装置
JPH04302304A (ja) 非線形プロセス制御装置
JPH05208207A (ja) 熱延プロセス制御方法
CN110632872B (zh) 双执行器切换控制系统及控制方法
Jiang et al. Adaptive fault‐tolerant control of uncertain MIMO systems with reduced requirement on desired trajectory under unknown control direction
Jin et al. PI controller design for a TITO system based on delay compensated structure and direct synthesis

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19926265

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021515681

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19926265

Country of ref document: EP

Kind code of ref document: A1