WO2020075316A1 - 位置決め制御装置及び位置決め方法 - Google Patents

位置決め制御装置及び位置決め方法 Download PDF

Info

Publication number
WO2020075316A1
WO2020075316A1 PCT/JP2019/003205 JP2019003205W WO2020075316A1 WO 2020075316 A1 WO2020075316 A1 WO 2020075316A1 JP 2019003205 W JP2019003205 W JP 2019003205W WO 2020075316 A1 WO2020075316 A1 WO 2020075316A1
Authority
WO
WIPO (PCT)
Prior art keywords
position command
parameter
unit
learning
positioning control
Prior art date
Application number
PCT/JP2019/003205
Other languages
English (en)
French (fr)
Inventor
将哉 木村
英俊 池田
高野 直人
秀之 増井
大作 松本
厚範 兼村
英樹 麻生
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to KR1020217009523A priority Critical patent/KR102494187B1/ko
Priority to CN201980065678.9A priority patent/CN112805653B/zh
Priority to JP2019549492A priority patent/JP6664561B1/ja
Priority to US17/280,190 priority patent/US20220004160A1/en
Priority to TW109102714A priority patent/TWI715425B/zh
Publication of WO2020075316A1 publication Critical patent/WO2020075316A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D3/00Control of position or direction
    • G05D3/12Control of position or direction using feedback

Definitions

  • the present invention relates to a positioning control device and a positioning method for performing positioning control on a control target.
  • Patent Document 1 discloses a technique for finding an optimum command shape in a simulation by repeating a search for a command shape using a genetic algorithm and an evaluation of the response of the model of the control object in a simulation using a model of the control object. Disclosure.
  • the technique disclosed in Patent Document 1 is a command shape adjusting means using simulation.
  • Patent Document 2 discloses a technique for searching for a command shape using an actual machine after finding an optimum command shape in a simulation.
  • a feature of the technique disclosed in Patent Document 2 is that, in the search for a command shape using an actual machine, the search range is determined based on the optimum command shape found in the simulation.
  • Both Patent Document 1 and Patent Document 2 disclose a technique for adjusting a commanded shape by utilizing a simulation.
  • Patent Document 3 a plurality of command shapes are prepared and held in advance, a positioning operation using an actual machine is executed for each of the plurality of command shapes, the response is examined, and a command showing a good response is issued.
  • a technique for searching a shape is disclosed.
  • JP 2004-240609 A Japanese Patent Laid-Open No. 2009-122779 JP, 2016-19304, A
  • Patent Document 1 and Patent Document 2 disclose a technique for adjusting a commanded shape by utilizing a simulation.
  • the technique disclosed in Patent Document 1 is a technique for simulating the response of an actual machine to optimize the command shape, but a mathematical model of the actual machine is required to simulate the response of the actual machine.
  • the mathematical model it is difficult for the mathematical model to completely reproduce the response of the real machine because the mathematical model includes a modeling error. Since the optimum value found in the simulation differs from the optimum value of the actual machine, even if the optimum command shape found in the simulation is applied to the actual machine, the actual machine does not show the expected good response. That is, the technique disclosed in Patent Document 1 has a problem in that it is not possible to obtain a good command shape that speeds up positioning control in an actual machine.
  • Patent Document 2 adjusts the command shape using an actual machine after performing a simulation.
  • the search range for adjustment is determined based on the result of simulation, there is a possibility that the search range may not be set appropriately due to the influence of modeling error, for example. That is, in the technique disclosed in Patent Document 2, a range including a good command shape may not be set as the search range.
  • Patent Document 3 executes a positioning operation using an actual machine for each of a plurality of command shapes prepared in advance and checks the response to find the best command shape. Since there are innumerable patterns of command shapes for operating the servo motor, if the positioning operation using the actual machine is performed for all of the plurality of command shapes prepared in advance, the number of positioning operations becomes enormous. Even if you try to narrow down and set the search range of the command shape to reduce the number of positioning operations, there is no means to set the search range appropriately, so there is a command shape that shows a good response in the search range. May not. In other words, the technique disclosed in Patent Document 3 has a problem that a good commanded shape cannot be found.
  • the conventional technology cannot efficiently adjust the command shape that speeds up the positioning control.
  • the present invention has been made in view of the above, and an object thereof is to obtain a positioning control device that efficiently adjusts a command shape for speeding up positioning control.
  • the present invention is a positioning control device that drives a motor to move a control target by a target movement distance, and an acceleration section and a deceleration section based on a position command parameter.
  • a position command generation unit that generates a position command that determines the shape of the acceleration, and a drive control unit that drives the motor so that the detected position value of the motor or the control target follows the position command.
  • the present invention further includes an evaluation unit that calculates an evaluation value related to positioning performance based on a position detection value of the motor or the control target when executing positioning control for the control target.
  • the present invention independently changes each of the acceleration shapes in the acceleration section and the deceleration section that are determined based on the position command parameter, and the position command parameter and the position command parameter when a plurality of positioning controls are executed.
  • the learning unit further includes a learning unit that learns a relationship with an evaluation value, learns a relationship between the position command parameter and the evaluation value, and obtains a learning result.
  • the effect that the command shape can be efficiently adjusted to speed up the positioning control can be obtained.
  • FIG. 2 is a diagram showing a configuration of a positioning control device according to the first embodiment.
  • FIG. 3 is a diagram showing a neural network used in the first embodiment. A graph showing the relationship between the target movement distance and the excellent parameter in the first embodiment.
  • FIG. 3 is a diagram showing a configuration of a positioning control device according to a second embodiment.
  • Graph showing the relationship between the target stop position and the excellent parameter in the second embodiment The figure which shows the structure of the positioning control apparatus concerning Embodiment 3.
  • the processor Diagram showing the processor Processing when a part or all of the position command generation unit, the drive control unit, the evaluation unit, the learning unit, the learning result holding unit, and the parameter range setting unit included in the positioning control device according to the first embodiment is realized by the processing circuit Diagram showing the circuit
  • FIG. 1 is a diagram for explaining an effect obtained by the positioning control device according to the fourth embodiment.
  • FIG. 2 is a second diagram for explaining an effect obtained by the positioning control device according to the fourth embodiment.
  • FIG. 6 is a diagram showing a configuration of a positioning control device according to a sixth embodiment.
  • FIG. 1 is a diagram showing a configuration of a positioning control device 10 according to the first exemplary embodiment.
  • the positioning control device 10 is a device that drives the motor 1 to move the controlled object 3 by a target moving distance, and is connected to the motor 1 and the position detector 4.
  • the motor 1 applies torque and thrust to the controlled object 3 via the ball screw 2 to move the controlled object 3.
  • the motor 1 may be any one that can drive the controlled object 3.
  • An example of the motor 1 is a rotary servo motor, a linear motor or a stepping motor.
  • the controlled object 3 is moved only by a desired target moving distance by the motor 1.
  • the controlled object 3 is a machine or part that requires positioning control.
  • An example of the controlled object 3 is an electronic component mounter or a head portion of a semiconductor manufacturing apparatus.
  • the position detector 4 detects the rotational position of the motor 1 or the position of the controlled object 3 and outputs information indicating the detected position value to the positioning control device 10.
  • the position detection value is a result of detection by the position detector 4.
  • An example of the position detector 4 is an encoder or a linear scale.
  • the operating condition 17 is given to the positioning control device 10 from outside the positioning control device 10.
  • the operating condition 17 is information including a target moving distance for driving the motor 1.
  • the target moving distance is a desired distance when the controlled object 3 is moved.
  • the positioning control device 10 executes the positioning control for the controlled object 3 so as to satisfy the operating condition 17.
  • the positioning control device 10 includes a position command generation unit 11 that generates a position command for driving the motor 1 to move the control target 3 by a target moving distance based on a position command parameter that defines the shape of the position command. .
  • the position command generation unit 11 generates a position command that determines the acceleration shape in the acceleration section and the deceleration section based on the position command parameter.
  • the positioning control device 10 further includes a drive control unit 12 that drives the motor 1 so that the detected position value of the motor 1 or the controlled object 3 follows the position command generated by the position command generation unit 11.
  • the positioning control device 10 calculates an evaluation value for evaluating the quality of the positioning control by the drive control unit 12 based on the position detection value of the motor 1 or the control target 3 when executing the positioning control for the control target 3.
  • the evaluation unit 13 is further included.
  • the evaluation unit 13 calculates an evaluation value regarding the positioning performance based on the position detection value of the motor 1 or the control target 3 at the time of executing the positioning control for the control target 3.
  • the positioning control device 10 determines the position command parameter when the position command parameter is changed within the parameter range that defines the upper limit value and the lower limit value of the position command parameter and the positioning control for the controlled object 3 is executed a plurality of times.
  • the learning unit 14 further includes a learning unit 14 that learns a relationship with the evaluation value calculated by the evaluation unit 13 and obtains a learning result.
  • the learning unit 14 independently changes each of the acceleration shapes in the acceleration section and the deceleration section that are determined based on the position command parameter, and the position command parameter and the evaluation value when the positioning control is executed a plurality of times. Is learned, and the relationship between the position command parameter and the evaluation value is learned to obtain a learning result. Furthermore, the learning unit 14 determines the position command parameter based on the learning result.
  • the positioning control device 10 further includes a learning result holding unit 15 that holds the driving condition 17 including the information indicating the target moving distance and the learning result obtained by the learning unit 14 in association with each other.
  • a part of the learning result holding unit 15 is a storage unit.
  • An example of the storage unit is a semiconductor memory.
  • the positioning control device 10 further includes a parameter range setting unit 16 that changes the parameter range based on the operating condition 17 held by the learning result holding unit 15 and the learning result.
  • the position command generation unit 11, the drive control unit 12, the evaluation unit 13, the learning unit 14, the learning result holding unit 15, and the parameter range setting unit 16 will be further described below.
  • the position command generator 11 generates and outputs a position command for the motor 1 based on the position command parameter and the operating condition 17.
  • the position command parameter is a parameter that defines the command shape of the position command.
  • FIG. 2 shows a position command used in the first embodiment, a velocity command that is a first derivative of the position command, an acceleration command that is a second derivative of the position command, and a jerk (jerk that is a first derivative of the acceleration command. 3] and FIG. FIG. 2 shows an example of each command and the jerk shape when the operating condition 17 including the information indicating the target movement distance is given to the positioning control device 10.
  • the acceleration command in the first embodiment is a command indicating a trapezoidal shape in the acceleration direction from the first section to the third section, is 0 in the fourth section, and is the fifth section to the seventh section.
  • the first section shows an acceleration start section
  • the third section shows an acceleration end section
  • the fifth section shows a deceleration start section
  • the seventh section shows a deceleration end section.
  • the time length of the mth section is defined as the mth time length Tm. m is an integer from 1 to 7. That is, the time length of the first section is the first time length T1.
  • the trapezoidal shape of the acceleration section from the first section to the third section and the trapezoidal shape of the deceleration section from the fifth section to the seventh section need not be congruent.
  • the first time length T1 and the third time length T3 of the acceleration section may be set to 0, and the shape of the acceleration command may be a rectangular shape.
  • the seven parameters from the first time length T1 to the seventh time length T7 are position command parameters.
  • the command shape is defined based on the position command parameter and the target movement distance. The method of calculating the command shape will be described later.
  • the drive control unit 12 supplies a current to the motor 1 so that the rotational position of the motor 1 follows the position command.
  • the drive control unit 12 acquires information indicating the rotational position of the motor 1 from the position detector 4, and PID (Proportional-Integral-Differential) control is performed so that the deviation between the rotational position of the motor 1 and the position command is reduced.
  • the value of the current supplied to the motor 1 is calculated based on the above, and the current having the value obtained by the calculation is supplied to the motor 1.
  • the drive control unit 12 may be any drive unit as long as it allows the rotational position of the motor 1 to follow the position command.
  • the drive control unit 12 may perform two-degree-of-freedom control in which feedforward control is added to feedback control.
  • the drive control unit 12 does not drive the motor 1 so that the rotational position of the motor 1 follows the position command, but detects the position of the controlled object 3 as a signal for feedback control to determine the position of the controlled object 3. May drive the motor 1 so as to follow the position command.
  • the evaluation unit 13 receives from the position detector 4 the information indicating the position detection value that is the result of the detection by the position detector 4, and the evaluation value Q for evaluating the quality of the positioning control by the drive control unit 12 will be described later. Calculate and output by the method.
  • the drive control unit 12 operates based on the position command, and the position command is calculated based on the position command parameter. Therefore, the evaluation value Q calculated by the evaluation unit 13 depends on the value of the position command parameter. That is, the evaluation value Q can be said to be an index for evaluating the position command parameter.
  • the time from the start of the positioning control to the positioning completion when the magnitude of the deviation between the target movement distance and the position detection value becomes smaller than the predetermined allowable value IMP is set as the positioning time Tst.
  • the positioning time Tst is short, the following expression (1) is set so that the evaluation value Q shows a large value.
  • the smaller the positioning time Tst the larger the evaluation value Q. That is, in the first embodiment, it can be said that the larger the evaluation value Q is, the better the position command parameter is.
  • the evaluation value Q is not limited to the one specified by the equation (1) as long as it can evaluate the positioning control.
  • the positioning time Tst itself may be used as the evaluation value Q, and the smaller the evaluation value Q, the better the position command parameter may be determined.
  • the learning unit 14 inputs the evaluation value Q and the parameter range, learns the relationship between the position command parameter and the evaluation value Q, and outputs the learning result.
  • the learning unit 14 is configured with a neural network that inputs the position command parameter and outputs the evaluation value Q, and the learning unit 14 updates the weighting coefficient of the neural network to perform learning. When the weighting coefficient is updated and learning is performed, the neural network outputs a good estimated value of the evaluation value Q corresponding to the position command parameter.
  • the learning unit 14 obtains a relational expression between the position command parameter and the evaluation value Q as a learning result by using a neural network and obtaining a function that inputs the position command parameter and outputs the evaluation value Q. If the learning unit 14 can learn the relationship between the position command parameter and the evaluation value Q, the learning unit 14 does not have to learn the relationship between the position command parameter and the evaluation value Q by a method using a neural network.
  • the learning unit 14 selects and outputs the position command parameter for executing the next positioning control from the specified parameter range.
  • the learning unit 14 may select the position command parameter showing a good evaluation value based on the learning result, or may select the position of the grid point obtained by equally dividing each position command parameter.
  • the position command parameters may be selected in order from the above.
  • the learning unit 14 has a function of updating the function for calculating the evaluation value Q based on the position command parameter.
  • the learning result holding unit 15 receives the learning result of the learning unit 14 and holds the learning result and the target moving distance in association with each other.
  • the learning result holding unit 15 obtains the position command parameter having the maximum evaluation value Q by numerical calculation based on the relational expression between the position command parameter as the learning result and the evaluation value Q.
  • the learning result holding unit 15 obtains the position command parameter that maximizes the evaluation value Q by using an optimization algorithm such as grid search, random search, or Newton method.
  • the learning result holding unit 15 obtains the position command parameter that maximizes the evaluation value Q as an excellent parameter (first excellent parameter), and outputs the excellent parameter and the target moving distance in association with each other. However, the learning result holding unit 15 does not need to obtain the position command parameter having the true maximum value of the evaluation value Q among the position command parameters that satisfy the relational expression between the position command parameter and the evaluation value Q.
  • the learning result holding unit 15 may use a position command parameter indicating good positioning control that satisfies a predetermined criterion as an excellent parameter.
  • the learning result holding unit 15 has a function of holding one or more position command parameters as excellent parameters.
  • the parameter range setting unit 16 determines a parameter range that defines the upper limit value and the lower limit value of the position command parameter based on the excellent parameter and the target moving distance indicated by the information included in the operating condition 17.
  • the parameter range setting unit 16 sets a parameter range that defines the upper limit value and the lower limit value of the position command parameter based on the learning result obtained by the learning unit 14.
  • the parameter range setting unit 16 sets the value smaller than the good parameter held by the learning result holding unit 15 as the lower limit of the parameter range, and sets the value larger than the good parameter as the upper limit of the parameter range to set the parameter range.
  • the parameter range setting unit 16 When the target travel distance indicated by the information included in the driving condition 17 is changed, the parameter range setting unit 16 performs interpolation calculation based on the target travel distance when learning was performed in the past, and the changed target Estimate the excellent parameter of the interpolation point corresponding to the moving distance. In addition, the parameter range setting unit 16 sets the value smaller than the good parameter of the estimated interpolation point as the lower limit of the parameter range, and the value larger than the good parameter of the estimated interpolation point as the upper limit of the parameter range. To set.
  • the parameter range setting unit 16 creates a linear function expression indicating the relationship between the target moving distance and the excellent parameter, and if the target moving distance is changed, changes it based on the created linear function expression. The estimated value of the excellent parameter for the target travel distance later is obtained.
  • the parameter range setting unit 16 sets a value larger than the estimated value of the good parameter as the upper limit value, and sets a value smaller than the estimated value of the good parameter as the lower limit value.
  • the parameter range setting unit 16 sets an upper limit value and a lower limit value for each of the plurality of position command parameters.
  • the parameter range setting unit 16 determines the good parameter based on the rule other than the linear function expression indicating the relationship between the good parameter and the target moving distance. An estimate may be calculated.
  • the learning unit 14 determines a set of position command parameters within the range defined by the parameter range, and outputs the determined position command parameters to the position command generation unit 11.
  • the position command generator 11 calculates a position command based on the input position command parameter.
  • the magnitude of acceleration in the second section is defined as Aa
  • the magnitude of acceleration in the sixth section is defined as Ad. Since the magnitude Aa of acceleration in the second section and the magnitude Ad of acceleration in the sixth section are dependent variables of the position command parameter, they do not have a degree of freedom in setting.
  • the position command generator 11 calculates each of the acceleration command A1, the speed command V1, and the position command P1 in the first section at the time t in the range of “0 ⁇ t ⁇ T1” by the following formula (2) and formula (3). Alternatively, the calculation is performed using the equation (4).
  • the position command generator 11 calculates each of the acceleration command A2, the speed command V2, and the position command P2 in the second section at the time t within the range of “T1 ⁇ t ⁇ T1 + T2” by the following formulas (5) and (6). Alternatively, the calculation is performed using the equation (7).
  • the position command generator 11 calculates each of the acceleration command A3, the speed command V3, and the position command P3 in the third section at the time t within the range of “T1 + T2 ⁇ t ⁇ T1 + T2 + T3” by the following formulas (8) and (9). Alternatively, the calculation is performed using the equation (10).
  • the position command generation unit 11 calculates each of the acceleration command A4, the speed command V4, and the position command P4 in the fourth section at the time t in the range of “T1 + T2 + T3 ⁇ t ⁇ T1 + T2 + T3 + T4” by the following formula (11) and formula (12). Alternatively, it is calculated using the equation (13).
  • the position command generator 11 calculates each of the acceleration command A5, the speed command V5, and the position command P5 in the fifth section at the time t in the range of “T1 + T2 + T3 + T4 ⁇ t ⁇ T1 + T2 + T3 + T4 + T5” by the following formula (14) and formula (15). Alternatively, the calculation is performed using Expression (16).
  • the position command generator 11 calculates each of the acceleration command A6, the speed command V6, and the position command P6 in the sixth section at the time t in the range of “T1 + T2 + T3 + T4 + T5 ⁇ t ⁇ T1 + T2 + T3 + T4 + T5 + T6” by the following formula (17) and formula (18). Alternatively, it is calculated using the equation (19).
  • the position command generation unit 11 calculates each of the acceleration command A7, the speed command V7, and the position command P7 in the seventh section at the time t in the range of “T1 + T2 + T3 + T4 + T5 + T6 ⁇ t ⁇ T1 + T2 + T3 + T4 + T5 + T6 + T7” by the following formula (20) and formula (21). Alternatively, it is calculated by using the equation (22).
  • the magnitude Aa of acceleration in the second section and the magnitude Ad of acceleration in the sixth section are determined from the above equations (5) and (17). As described above, the command shape is calculated based on the command parameter and the target moving distance D.
  • the acceleration is a linear function of time. Therefore, in these sections, as shown in FIG. 2, the jerk, which is the first derivative of acceleration, is a nonzero constant value. That is, it can be said that the first time length T1, the third time length T3, the fifth time length T5, and the seventh time length T7 define the time when the jerk becomes a nonzero constant value.
  • a non-zero constant value is a constant value greater than zero or less than zero.
  • parameters that specify the size of jerk may be selected instead of the length of time.
  • the jerk J1 can be calculated using the first time length T1 as shown in the following equation (25).
  • the method of selecting the parameter defining the commanded shape is arbitrary, and the selection of the parameter defining the commanded shape is not limited to the above method.
  • the position command generation unit 11 of the first embodiment seven position command parameters are used to define the command shape.
  • the degree of freedom of adjustment in the first embodiment is higher than that of the conventional one. Therefore, if the position command parameter can be adjusted appropriately, the positioning control device 10 can perform a positioning control that exhibits a good response even in a situation where the mechanical vibration of the device on which the controlled object 3 is mounted is affected. Can be realized.
  • the positioning control device 10 includes the evaluation unit 13, the learning unit 14, and the learning result holding unit 15, so that the positioning control device 10 does not require trial and error of the operator and appropriately adjusts the position command parameter.
  • the positioning control device 10 does not require trial and error of the operator and appropriately adjusts the position command parameter.
  • the change of the position command parameter by the learning unit 14 the positioning control using the changed position command parameter, and the calculation of the evaluation value Q by the evaluation unit 13 are repeated. To be executed. The operations of the evaluation unit 13 and the learning unit 14 that are repeatedly executed will be described.
  • the learning unit 14 selects the position command parameter within the parameter range that defines the upper limit value and the lower limit value of the position command parameter.
  • a process in which the operations of the evaluation unit 13 and the learning unit 14 are executed three times and the position command parameters up to the third set are evaluated will be described.
  • the position command parameters of the first set are written as position command parameters Pr1
  • the position command parameters of the second set are written as position command parameters Pr2
  • the position command parameters of the third set are written as position command parameters Pr3.
  • Each of the three sets of position command parameters has seven parameters from the first time length T1 to the seventh time length T7.
  • FIG. 3 is a target movement distance and a position detection value when positioning control is performed using each command shape generated based on the position command parameters from the first set to the third set in the first embodiment. It is a figure which shows the time response of the deviation with.
  • FIG. 3A shows the time response of the deviation when the position command parameter of the first set is used.
  • FIG. 3B shows the time response of the deviation when the position command parameter of the second set is used.
  • FIG. 3C shows the time response of the deviation when the position command parameter of the third set is used.
  • the position command parameter Pr1 of the first set is output from the learning unit 14, and the position command generation unit 11 generates a position command based on the position command parameter Pr1 of the first set.
  • Positioning control is executed using the position command generated based on the position command parameter Pr1 of the first set.
  • the evaluation unit 13 acquires the positioning time Tst1 corresponding to the position command parameter Pr1 of the first set based on the position detection value in this case.
  • the time from the start of the positioning control to the completion of positioning in which the magnitude of the deviation between the target movement distance and the position detection value becomes smaller than a predetermined allowable value IMP is defined as the positioning time.
  • the evaluation value Q1 corresponding to the position command parameter Pr1 of the first set is calculated using the following equation (26).
  • the learning unit 14 receives the evaluation value Q1 and changes the position command parameter to the second set of position command parameters Pr2.
  • the learning unit 14 may select the second set position command parameter Pr2 based on the result of the positioning control using the first set position command parameter Pr1.
  • the position command parameter Pr2 of the second set may be selected as previously determined regardless of the result of the positioning control using the position command parameter Pr1 of the first set.
  • the position command generated based on the position command parameter Pr2 of the second set is used to execute the positioning control.
  • the evaluation unit 13 acquires the positioning time Tst2 corresponding to the position command parameter Pr2 of the second set based on the position detection value in this case.
  • the time from the start of the positioning control to the positioning completion when the magnitude of the deviation between the target movement distance and the position detection value becomes smaller than the allowable value IMP is defined as the positioning time.
  • the evaluation value Q2 corresponding to the position command parameter Pr2 of the second set is calculated using the following equation (27).
  • the learning unit 14 receives the evaluation value Q2 and changes the position command parameter to the position command parameter Pr3 of the third set.
  • the evaluation unit 13 calculates the evaluation value Q3 using the following equation (28) based on the positioning time Tst3 in the same manner as the procedure for obtaining the evaluation value Q1 and the evaluation value Q2.
  • the learning unit 14 receives the evaluation value Q3. As shown in FIG. 3, if the result of Tst2 ⁇ Tst1 ⁇ Tst3 is obtained, the evaluation value Q2 is the largest value among the three evaluation values. By the operations of the evaluation unit 13 and the learning unit 14 up to this point, the learning unit 14 obtains the evaluation value Q1, the evaluation value Q2, and the evaluation value Q3 corresponding to the three sets of the position command parameter Pr1, the position command parameter Pr2, and the position command parameter Pr3. obtain.
  • the evaluation unit 13 and the learning unit 14 repeatedly perform the operation of acquiring the evaluation value Q corresponding to the position command parameter, as described above.
  • the learning unit 14 performs a learning operation using a neural network using the position command parameter and the evaluation value Q corresponding to the position command parameter as learning data.
  • FIG. 4 is a diagram showing a neural network used in the first embodiment.
  • the neural network has an input layer, an intermediate layer, and an output layer.
  • the position command parameter is input to the leftmost input layer, and the evaluation value Q is output from the rightmost output layer.
  • W1 weighting factor
  • W2 weighting factors from the nodes in the middle layer to the nodes in the output layer are all expressed as the same weighting factor W2.
  • an output value may be calculated from an input value by a non-linear function such as a sigmoid function. In the input and output layers, the output value may be a linear combination of input values.
  • the learning unit 14 uses the position command parameter and the evaluation value Q to calculate the weight coefficient W1 and the weight coefficient W2 of the neural network.
  • the weight coefficient W1 and the weight coefficient W2 of the neural network can be calculated by using the error back propagation method or the gradient descent method.
  • the calculation method of the weight coefficient W1 and the weight coefficient W2 is not limited to the above method as long as the calculation method can obtain the weight coefficient of the neural network.
  • the weighting factor of the neural network is determined, the relational expression between the position command parameter and the evaluation value Q is obtained. So far, an example of performing learning using a three-layer neural network has been shown. Learning using a neural network is not limited to the above example.
  • the learning result holding unit 15 When the relational expression by the neural network is obtained by the operations of the evaluation unit 13 and the learning unit 14 as described above, it means that the function that receives the position command parameter and outputs the evaluation value Q is obtained as the learning result. By using this learning result, it is possible to obtain the evaluation value Q corresponding to the new position command parameter without executing the positioning control for the new position command parameter.
  • the learning result holding unit 15 obtains the position command parameter having the maximum evaluation value Q by numerical calculation based on the relational expression between the position command parameter that is the learning result and the evaluation value Q. At this time, the learning result holding unit 15 uses an optimization algorithm such as grid search, random search, or Newton's method.
  • the relationship between the command parameter and the evaluation value can be learned by the operations of the evaluation unit 13 and the learning unit 14.
  • the learning result holding unit 15 it is possible to find an excellent position command parameter that maximizes the evaluation value Q by using the learning result. If the learning result is used, the evaluation value Q corresponding to the position command parameter can be acquired without performing the positioning control. Therefore, the positioning control device 10 does not necessarily perform the positioning control using the excellent parameter. , It is possible to find good parameters. Therefore, the positioning control device 10 can appropriately adjust the position command parameter without trial and error of the operator.
  • the learning result holding unit 15 obtains the position command parameter that maximizes the evaluation value Q based on the learning result, and sets the obtained position command parameter as the excellent parameter.
  • the learning result holding unit 15 holds the target moving distance D indicated by the information included in the driving condition 17 and the excellent parameter together.
  • the learning result holding unit 15 holds a plurality of excellent parameters corresponding to a plurality of target movement distances D.
  • the parameter range setting unit 16 sets the parameter range based on the operating condition 17 held in the learning result holding unit 15 and the learning result. Next, a parameter range setting method performed by the parameter range setting unit 16 will be described with reference to FIG.
  • FIG. 5 is a graph showing the relationship between the target movement distance D and the excellent parameter in the first embodiment.
  • the excellent parameter is represented by a one-dimensional function of the target movement distance D.
  • the learning result holding unit 15 estimates the excellent parameter Pex3 corresponding to the target movement distance D3 by performing interpolation calculation using the following formula (29).
  • the learning result holding unit 15 performs linear interpolation using the past two learning results as an interpolation method for estimating the excellent parameter Pex3.
  • the learning result holding unit 15 may estimate the good parameter Pex3 by a method using spline interpolation or Lagrange interpolation instead of performing linear interpolation.
  • the parameter range setting unit 16 uses the estimated good parameter Pex3 to calculate the upper limit value UL and the lower limit value LL of the parameter range using the following formula (30) or formula (31).
  • the above calculation method of the upper limit value UL and the lower limit value LL is one example of the calculation method of the upper limit value UL and the lower limit value LL.
  • the upper limit value UL and the lower limit value LL may be calculated by any method as long as a value larger than the estimated good parameter Pex3 is the upper limit value UL and a value smaller than the good parameter Pex3 is the lower limit value LL. The method is not limited.
  • the parameter range setting unit 16 changes the parameter range by using the upper limit value UL and the lower limit value LL obtained by the calculation as the upper limit value and the lower limit value of the new parameter range.
  • the positioning control device 10 tries the operator of the device to change the parameter range. No need for error.
  • the parameter range setting unit 16 can set the vicinity of the estimated value of the excellent parameter corresponding to the changed target movement distance D as the parameter range, and narrow the parameter range. Is possible. Therefore, the parameter range setting unit 16 can find an excellent parameter with a smaller number of trials of positioning control. Therefore, the positioning control device 10 can adjust the command shape of the position command in a short time.
  • the number of position command parameters that defines the command shape is seven.
  • the method of the first embodiment can be applied even when a higher degree of design freedom is given by more parameters.
  • the method of the first embodiment can be applied to the case where the degree of freedom in design is smaller.
  • the neural network is used to build the relational expression between the position command parameter and the evaluation value Q.
  • the neural network may not be used as long as the relationship between the position command parameter and the evaluation value Q can be obtained.
  • the relationship between the position command parameter and the evaluation value Q may be obtained by a simple function such as a quadratic polynomial, or the relationship between the position command parameter and the evaluation value Q may be obtained by a probabilistic model such as a Gaussian process model. You may be asked.
  • the search range of the command shape can be appropriately set when the target moving distance is changed
  • the effect brought about by the parameter range setting unit 16 is that when the target moving distance is changed. It is not limited to getting only.
  • the positioning control device 10 can search around the excellent parameter found in the past learning, It is possible to find a good position command parameter corresponding to a change in mechanical characteristics with a small number of trials of positioning control.
  • the positioning control device 10 can appropriately set the search range of the command shape even when the target movement distance is changed, and thus can efficiently adjust the command shape.
  • the positioning control device 10 can appropriately set the search range of the command shape when searching for a good command shape that speeds up the positioning control, and by extension Adjustment can be performed efficiently.
  • the position command generation unit 11 changes the shape of the position command signal so that the acceleration command signal, which is a signal obtained by differentiating the position command signal twice, has a constant value larger than zero or a constant value smaller than zero. May be set.
  • the position command generation unit 11 changes the shape of the position command signal so that the jerk signal, which is a signal obtained by differentiating the position command signal three times, has a constant value larger than zero or a constant value smaller than zero. May be set.
  • the position command generation unit 11 may include information indicating the time when the jerk signal has a constant value larger than zero or a constant value smaller than zero in the position command parameter.
  • the position command generation unit 11 may include, in the position command parameter, information indicating the magnitude of the jerk signal at the time when the jerk signal has a constant value larger than zero or a constant value smaller than zero.
  • the learning unit 14 obtains a function for calculating the estimated value of the evaluation value Q with the position command parameter as an input as a learning result.
  • the position command parameter used for the positioning control and the positioning control are used.
  • the learning result may include a set with the evaluation value Q obtained by executing. Thereby, the learning result holding unit 15 can select the excellent parameter from the set of the position command parameter and the evaluation value Q obtained by executing the positioning control.
  • the position command parameter obtained by the learning of the learning unit 14 is set in the position command generation unit (learning device) 11, and the position command generation unit (learning device) 11 is set.
  • High-speed positioning control can be realized by generating the position command.
  • Embodiment 2 The positioning control device 10 according to the first embodiment appropriately sets the search range of the command shape even when the target movement distance of the positioning control is changed, and efficiently searches for the command shape.
  • a positioning control device that can appropriately set the search range of the command shape even when the target stop position of the positioning control is changed will be described.
  • FIG. 6 is a diagram showing the configuration of the positioning control device 20 according to the second embodiment.
  • the positioning control device 20 is connected to the motor 1 and the position detector 4.
  • the operating condition 27 is given to the positioning control device 20 from the outside of the positioning control device 20.
  • the operating condition 27 includes information on the target moving distance for driving the motor 1 and information on the target stop position.
  • the positioning control device 20 executes the positioning control so that the operating condition 27 is satisfied.
  • the positioning control device 20 includes a position command generation unit 11, a drive control unit 12, an evaluation unit 13, a learning unit 14, a learning result holding unit 25, and a parameter range setting unit 26.
  • a position command generation unit 11 a position command generation unit 11
  • a drive control unit 12 an evaluation unit 13
  • a learning unit 14 a learning result holding unit 25
  • a parameter range setting unit 26 a parameter range setting unit 26.
  • the learning result holding unit 25 receives the learning result of the learning unit 14 and holds the learning result and the target stop position in association with each other.
  • the learning result holding unit 25 obtains the position command parameter having the maximum evaluation value by numerical calculation based on the relational expression of the position command parameter which is the learning result and the evaluation value. For example, the learning result holding unit 25 obtains the position command parameter that maximizes the evaluation value by using an optimization algorithm such as grid search, random search, or Newton method.
  • the learning result holding unit 25 obtains and holds the position command parameter having the maximum evaluation value as an excellent parameter (second excellent parameter), and outputs the excellent parameter and the target stop position in association with each other.
  • the learning result holding unit 25 does not have to set the position command parameter that maximizes the evaluation value as a good parameter, but may set the position command parameter that indicates good positioning control as a good parameter.
  • the parameter range setting unit 26 determines and outputs a parameter range that defines the upper limit value and the lower limit value of the position command parameter based on the excellent parameter and the target stop position indicated by the information included in the operating condition 27.
  • the parameter range setting unit 26 performs the interpolation calculation based on the target stop position when the learning was executed in the past, and the changed target Estimate the excellent parameter of the interpolation point corresponding to the stop position.
  • the parameter range setting unit 26 sets the value smaller than the excellent parameter of the estimated interpolation point as the lower limit of the parameter range, and sets the value larger than the excellent parameter of the estimated interpolation point as the upper limit of the parameter range, To set.
  • the parameter range setting unit 26 creates a linear function expression indicating the relationship between the target stop position and the excellent parameter, and if the target stop position is changed, the created linear function expression is created. Based on this, the estimated value of the excellent parameter for the changed target stop position is obtained.
  • the parameter range setting unit 26 sets a value larger than the estimated value of the excellent parameter as the upper limit value, and sets a value smaller than the estimated value of the excellent parameter as the lower limit value.
  • the parameter range setting unit 26 determines an upper limit value and a lower limit value for each of the plurality of position command parameters.
  • the parameter range setting unit 26 can obtain the estimated value of the good parameter corresponding to the changed target stop position, the parameter range setting unit 26 does not create a linear function expression indicating the relationship between the good parameter and the target stop position, and other You may calculate based on a rule.
  • the operation of the positioning control device 20 is the same as the operation of the positioning control device 10 according to the first embodiment, except that the parameter range setting unit 26 determines the parameter range based on the target stop position. Therefore, the effects obtained by the operations of the evaluation unit 13, the learning unit 14, and the learning result holding unit 25 are the same as the effects described in the first embodiment.
  • the learning result holding unit 25 finds a position command parameter that maximizes the evaluation value Q based on the learning result of the learning unit 14, and sets the found position command parameter as an excellent parameter.
  • the learning result holding unit 25 holds the target stop position and the excellent parameter indicated by the information included in the operating condition 27 together.
  • the learning result holding unit 25 holds a plurality of excellent parameters corresponding to a plurality of target stop positions SP.
  • the parameter range setting unit 26 sets a parameter range based on the operating condition 27 held by the learning result holding unit 25 and the learning result. A method of setting the parameter range at this time will be described with reference to FIG.
  • FIG. 7 is a graph showing the relationship between the target stop position SP and the excellent parameter in the second embodiment.
  • the excellent parameter is represented by a one-dimensional function of the target stop position SP.
  • the learning result holding unit 25 performs linear interpolation using the past two learning results as an interpolation method for estimating the excellent parameter Pex3.
  • the learning result holding unit 25 may estimate the good parameter Pex3 by a method using spline interpolation or Lagrange interpolation instead of performing linear interpolation.
  • the parameter range setting unit 26 uses the estimated good parameter Pex3 to calculate the upper limit value UL and the lower limit value LL of the parameter range using the following formula (33) or formula (34).
  • the above calculation method of the upper limit value UL and the lower limit value LL is one example of the calculation method of the upper limit value UL and the lower limit value LL.
  • the upper limit value UL and the lower limit value LL may be calculated by any method as long as a value larger than the estimated good parameter Pex3 is the upper limit value UL and a value smaller than the good parameter Pex3 is the lower limit value LL. The method is not limited.
  • the parameter range setting unit 26 changes the parameter range by using the upper limit value UL and the lower limit value LL obtained by the calculation as the upper limit value and the lower limit value of the new parameter range.
  • the positioning control device 20 Since the parameter range setting unit 26 calculates the upper limit value UL and the lower limit value LL of the parameter range based on the learning result, the positioning control device 20 requires trial and error by the operator of the device to change the parameter range. do not do.
  • the positioning control device 20 can set the vicinity of the estimated value of the excellent parameter corresponding to the changed target stop position as the parameter range, and can narrow down the parameter range. Is. Therefore, the positioning control device 20 can find the excellent parameter with a smaller number of trials of positioning control. Therefore, the positioning control device 20 can adjust the command shape of the position command in a short time.
  • the positioning control device 20 according to the second embodiment can appropriately set the search range of the command shape even when the target stop position is changed, and thus can efficiently adjust the command shape.
  • the parameter range setting unit 26 builds a relational expression of excellent parameters with respect to the target stop position for calculating the parameter range. May be built. In this case, even if both the target stop position and the target moving distance are changed, the parameter range setting unit 26 can estimate good parameters for both and set an appropriate parameter range.
  • the positioning control device 20 can appropriately set the search range of the command shape when searching and adjusting a good command shape that speeds up the positioning control. As a result, the commanded shape can be adjusted efficiently.
  • Embodiment 3 The positioning control device 10 according to the first embodiment searches for a command shape that minimizes the positioning time.
  • a positioning control device that can appropriately set the search range of the command shape even when the calculation method of the evaluation value is different will be described.
  • FIG. 8 is a diagram showing the configuration of the positioning control device 30 according to the third embodiment. As shown in FIG. 8, the positioning control device 30 is connected to the motor 1 and the position detector 4. The operating condition 17 is given to the positioning control device 30 from the outside of the positioning control device 30. The operating condition 17 includes information indicating a target moving distance for driving the motor 1. The positioning control device 30 executes the positioning control so as to satisfy the operating condition 17.
  • the positioning control device 30 includes a position command generation unit 11, a drive control unit 12, an evaluation unit 33, a learning unit 14, a learning result holding unit 15, and a parameter range setting unit 16.
  • a position command generation unit 11 a position command generation unit 11
  • a drive control unit 12 an evaluation unit 33
  • a learning unit 14 a learning result holding unit 15
  • a parameter range setting unit 16 a parameter range setting unit 16.
  • the evaluation unit 33 receives the position detection value as input, and calculates and outputs the evaluation value Q for evaluating the quality of the positioning control by the drive control unit 12 by the method described later.
  • the drive control unit 12 operates based on the position command.
  • the position command is calculated based on the position command parameter. Therefore, the evaluation value Q calculated by the evaluation unit 33 depends on the value of the position command parameter. That is, the evaluation value Q calculated by the evaluation value 33 can be said to be an index for evaluating the position command parameter.
  • the time from the start of the positioning control to the positioning completion in which the magnitude of the deviation between the target movement distance and the position detection value becomes smaller than the allowable value IMP is defined as the positioning time.
  • the evaluation value Q is set to indicate a large value.
  • the magnitude of the deviation of the residual vibration after the magnitude of the deviation becomes smaller than the allowable value IMP is also evaluated.
  • FIG. 9 is a diagram showing a time response of the deviation in the third embodiment.
  • the maximum value of the deviation of the residual vibration after the magnitude of the deviation becomes smaller than the predetermined second allowable value IMP2 is defined as the residual vibration amplitude AMP.
  • the range of the second allowable value IMP2 is narrower than the range of the allowable value IMP.
  • the evaluation unit 33 gives the evaluation value Q a penalty. That is, when the residual vibration amplitude AMP, which is the amplitude of the residual vibration at the position of the motor 1 or the controlled object 3, is equal to or larger than a predetermined value, the evaluation unit 33 performs a calculation to decrease the evaluation value Q. Specifically, the evaluation unit 33 calculates the evaluation value Q using the following formula (35).
  • is a positive value.
  • max (x1, x2) is a function that outputs the larger of the two arguments x1 and x2.
  • the residual vibration amplitude AMP is larger than the second allowable value IMP2 by the second term on the right side.
  • Has a small evaluation value Q that is, when the positioning time Tst is short and the residual vibration amplitude AMP is smaller than the second allowable value IMP2, the evaluation value Q becomes a large value, and the position command parameter at that time can be said to be a good position command parameter.
  • the evaluation value Q may be calculated without using the equation (35) as long as the positioning control can be evaluated.
  • the operation of the positioning control device 30 is the same as the operation of the positioning control device 10 according to the first embodiment, except that the evaluation unit 33 uses the residual vibration amplitude AMP to calculate the evaluation value Q. Therefore, the effects obtained based on the operations of the learning unit 14, the learning result holding unit 15, and the parameter range setting unit 16 are the same as the effects described in the first embodiment.
  • the positioning control device 30 can realize the positioning control that shortens the positioning time while suppressing the residual vibration amplitude AMP to a value smaller than the second allowable value IMP2. It is possible.
  • FIG. 10 is a diagram showing a time response of the deviation when the fourth set of position command parameters and the fifth set of position command parameters are used in the third embodiment.
  • the fourth group "4" and the fifth group "5" are given to distinguish the fourth group and the fifth group from the first group to the third group of the first embodiment. These numbers have no meaning other than distinction.
  • FIG. 10A shows the time response of the deviation when the position command parameter of the fourth set is used.
  • FIG. 10B shows the time response of the deviation when the position command parameter of the fifth set is used.
  • Tst4 ⁇ Tst5 is there. That is, the positioning time Tst4 when the position command parameter of the fourth set is used is shorter than the positioning time Tst5 when the position command parameter of the fifth set is used.
  • the residual vibration amplitude AMP4 when the fourth set of position command parameters is used is larger than the second allowable value IMP2, the evaluation value Q is penalized.
  • FIG. 10B shows the residual vibration amplitude AMP5 when the position command parameter of the fifth set is used.
  • the evaluation value Q5 of the position command parameter of the fifth group is larger than the evaluation value Q4 of the position command parameter of the fourth group. You can give a value.
  • the operation of the positioning control device 30 is the same as the operation of the positioning control device 10 according to the first embodiment, except for the method of calculating the evaluation value Q. That is, the positioning control device 30 can adjust the command shape of the position command so that the evaluation value Q becomes maximum.
  • the positioning control device 30 can adjust the command shape that maximizes the evaluation value Q within the range in which the residual vibration amplitude AMP satisfies the second allowable value IMP2.
  • the positioning control device 30 can set the periphery of the estimated value of the excellent parameter (first excellent parameter) corresponding to the changed target movement distance as the parameter range, and the parameter range Can be narrowed down. Therefore, the positioning control device 30 can find an excellent parameter with a smaller number of trials of positioning control.
  • Electronic component mounter mounts electronic components after positioning control is completed. At that time, if the vibration amplitude after the completion of positioning is large, the mounting accuracy of the electronic component may deteriorate. That is, in addition to the short positioning time, the residual vibration amplitude after the completion of positioning is required to be small.
  • the positioning control device 30 can search for a good command shape while suppressing the residual vibration amplitude after the positioning is completed within the range of the second allowable value.
  • the evaluation unit 33 in the third embodiment gives a penalty when the maximum value of the amplitude of the deviation after the positioning is completed is larger than the second allowable value.
  • the method of giving a penalty is not limited to the above method.
  • the evaluation unit 33 may give a penalty to a plurality of values of the residual vibration amplitude when the residual vibration amplitude has a maximum value, or the residual vibration amplitude is evaluated only for a certain time after the completion of positioning. As described above, a condition about time may be added to the parameter.
  • the positioning control device 30 can appropriately set the search range of the commanded shape when searching for a good commanded shape that speeds up the positioning control, and thus the commanded shape. Can be adjusted efficiently.
  • the processor 71 when all the functions are implement
  • the processor 71 is a CPU (Central Processing Unit), a processing device, a computing device, a microprocessor, or a DSP (Digital Signal Processor).
  • the memory 72 is also shown in FIG.
  • the processor 71 When a part or all of the functions of the position command generation unit 11, the drive control unit 12, the evaluation unit 13, the learning unit 14, the learning result holding unit 15, and the parameter range setting unit 16 are realized by the processor 71, the partial or All the functions are realized by the processor 71 and software, firmware, or a combination of software and firmware.
  • the software or firmware is described as a program and stored in the memory 72.
  • the processor 71 reads the program stored in the memory 72 and executes the program to execute the position command generation unit 11, the drive control unit 12, the evaluation unit 13, the learning unit 14, the learning result holding unit 15, and the parameter range setting unit 16. Realize some or all functions.
  • the positioning control device 10 Means that the steps executed by part or all of the position command generation unit 11, the drive control unit 12, the evaluation unit 13, the learning unit 14, the learning result holding unit 15, and the parameter range setting unit 16 are executed as a result. It has a memory 72 for storing the program.
  • the program stored in the memory 72 is a procedure or method executed by part or all of the position command generation unit 11, the drive control unit 12, the evaluation unit 13, the learning unit 14, the learning result holding unit 15, and the parameter range setting unit 16. It can be said that it makes a computer execute.
  • the memory 72 is a non-volatile memory such as a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), and an EEPROM (registered trademark) (Electrically Erasable Programmable Read-Only Memory).
  • a volatile semiconductor memory a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, a DVD (Digital Versatile Disk), or the like.
  • FIG. 12 is a part of the position command generation unit 11, the drive control unit 12, the evaluation unit 13, the learning unit 14, the learning result holding unit 15, and the parameter range setting unit 16 included in the positioning control device 10 according to the first embodiment, or It is a figure which shows the processing circuit 81 in the case all are implement
  • the processing circuit 81 is dedicated hardware.
  • the processing circuit 81 is, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or a combination thereof. Is.
  • a part of the position command generation unit 11, the drive control unit 12, the evaluation unit 13, the learning unit 14, the learning result holding unit 15, and the parameter range setting unit 16 may be dedicated hardware separate from the rest.
  • the plurality of functions of the position command generation unit 11, the drive control unit 12, the evaluation unit 13, the learning unit 14, the learning result holding unit 15, and the parameter range setting unit 16 some of the plurality of functions are realized by software or firmware. The remaining part of the plurality of functions may be realized by dedicated hardware. As described above, the plurality of functions of the position command generation unit 11, the drive control unit 12, the evaluation unit 13, the learning unit 14, the learning result holding unit 15, and the parameter range setting unit 16 are hardware, software, firmware, or these functions. It can be realized by a combination.
  • the positioning control device 20 includes the position command generation unit 11, the drive control unit 12, the evaluation unit 13, the learning unit 14, the learning result holding unit 25, and the parameter range setting unit 26 included in the positioning control device 20 according to the second embodiment.
  • the positioning control device 20 includes the position command generation unit 11, the drive control unit 12, the evaluation unit 13, the learning unit 14, the learning result holding unit 25, and the parameter range setting unit.
  • the steps performed by some or all of 26 have a memory for storing a program that will result in the steps being performed.
  • the memory is a memory equivalent to the memory 72.
  • Some or all of the functions of the position command generation unit 11, the drive control unit 12, the evaluation unit 13, the learning unit 14, the learning result holding unit 25, and the parameter range setting unit 26 included in the positioning control device 20 according to the second embodiment are , May be realized by a processing circuit equivalent to the processing circuit 81.
  • the positioning control device 30 includes the position command generation unit 11, the drive control unit 12, the evaluation unit 33, the learning unit 14, the learning result holding unit 15, and the parameter range setting unit 16 included in the positioning control device 30 according to the third embodiment.
  • the positioning control device 30 includes the position command generation unit 11, the drive control unit 12, the evaluation unit 33, the learning unit 14, the learning result holding unit 15, and the parameter range setting unit.
  • the steps performed by some or all 16 have a memory for storing a program that will result in the steps being performed.
  • the memory is a memory equivalent to the memory 72.
  • Some or all of the functions of the position command generation unit 11, the drive control unit 12, the evaluation unit 33, the learning unit 14, the learning result holding unit 15, and the parameter range setting unit 16 included in the positioning control device 30 according to the third embodiment are , May be realized by a processing circuit equivalent to the processing circuit 81.
  • FIG. 13 is a diagram showing the configuration of the positioning control device 40 according to the fourth embodiment.
  • the positioning control device 40 has a position command generation unit 41 that generates a position command for driving the motor 1 to move the controlled object 3 by the target movement distance based on a position command parameter that defines the shape of the position command.
  • the position command generator 41 has the function of the position command generator 11 of the first embodiment.
  • the positioning control device 40 further includes a drive control unit 12 that drives the motor 1 so that the detected position value of the motor 1 or the controlled object 3 follows the position command generated by the position command generation unit 41.
  • the position command generator 41 generates a position command for the motor 1 and outputs it to the drive controller 12.
  • the position command parameter is a parameter that defines the command shape of the position command.
  • the shape of each of the position command used in the fourth embodiment, the speed command that is the first derivative of the position command, the acceleration command that is the second derivative of the position command, and the jerk that is the first derivative of the acceleration command is The shape is the same as that shown in FIG. 2 in the first embodiment.
  • the trapezoidal shape of the acceleration section from the first section to the third section and the trapezoidal shape of the deceleration section from the fifth section to the seventh section need not be congruent.
  • the first time length T1 and the third time length T3 of the acceleration section may be set to 0, and the shape of the acceleration command may be a rectangular shape.
  • the seven parameters from the first time length T1 to the seventh time length T7 are position command parameters.
  • the positioning control device 40 calculates an evaluation value for evaluating the quality of the positioning control by the drive control unit 12 based on the position detection value of the motor 1 or the control target 3 at the time of executing the positioning control for the control target 3.
  • the evaluation unit 43 is further provided.
  • the evaluation unit 43 has the function of the evaluation unit 13 of the first embodiment.
  • the positioning control device 40 learns and learns the relationship between the position command parameter and the evaluation value calculated by the evaluation unit 43 when the position command parameter is changed and the positioning control for the controlled object 3 is executed a plurality of times.
  • the learning unit 44 that obtains a result is further included.
  • the learning unit 44 has the function of the learning unit 14 of the first embodiment.
  • the evaluation unit 43 and the learning unit 44 will be further described below.
  • the evaluation unit 43 receives information indicating the position detection value, which is the result of the detection by the position detector 4, from the position detector 4, and the evaluation value Q for evaluating the quality of the positioning control by the drive control unit 12 will be described later. Calculate and output by the method.
  • the drive control unit 12 operates based on the position command, and the position command is calculated based on the position command parameter. Therefore, the evaluation value Q calculated by the evaluation unit 43 depends on the value of the position command parameter. That is, the evaluation value Q can be said to be an index for evaluating the position command parameter.
  • the evaluation value Q is calculated by the same method as in the first embodiment, and it can be said that the larger the evaluation value Q is, the better the position command parameter is.
  • the learning unit 44 inputs the evaluation value Q and learns the relationship between the position command parameter and the evaluation value Q to obtain a learning result. Specifically, the learning unit 44 performs learning by updating the function that estimates the average value and the variance value of the evaluation values Q corresponding to the position command parameter. By performing learning, the learning unit 44 can calculate and estimate the average value of the evaluation values Q corresponding to the position command parameters and the variance value of the evaluation values Q corresponding to the position command parameters.
  • a Gaussian process model may be used as the function for calculating the mean value and the variance value. In this way, the learning unit 44 obtains the relational expression between the position command parameter and the evaluation value Q.
  • the learning unit 44 selects a position command parameter for executing the next positioning control and outputs it to the position command generation unit 41.
  • the learning unit 44 selects the position command parameter having the maximum sum of the average value and the variance value of the evaluation values Q based on the learning result.
  • the learning unit 44 changes the position command parameter and repeats the positioning control repeatedly executed until the end of the predetermined number of times.
  • the parameters are output to the position command generator 41.
  • the function of the positioning control device 40 according to the fourth embodiment will be further described.
  • the learning unit 44 determines a set of position command parameters, and outputs the determined position command parameters to the position command generation unit 41.
  • the position command generator 41 calculates a position command based on the input position command parameter.
  • the position command generation unit 41 uses seven position command parameters to define the command shape, similarly to the position command generation unit 11 of the first embodiment. Compared with the method of defining the commanded shape by the two parameters of acceleration and velocity that are often used in the conventional technique, the degree of freedom of adjustment in the fourth embodiment is higher than that in the conventional technique. Therefore, if the position command parameter can be adjusted appropriately, the positioning control device 40 can perform a positioning control that shows a good response even in a situation where the mechanical vibration of the device on which the controlled object 3 is mounted is affected. Can be realized.
  • the positioning control device 40 includes the evaluation unit 43 and the learning unit 44, so that the positioning control device 40 can appropriately adjust the position command parameter without trial and error of the operator.
  • the change of the position command parameter by the learning unit 44, the positioning control using the changed position command parameter, and the calculation of the evaluation value Q by the evaluation unit 43 are repeated. To be executed. The operations of the evaluation unit 43 and the learning unit 44 that are repeatedly executed will be described.
  • FIG. 14 is a flowchart showing an operation procedure when the positioning control device 40 according to the fourth embodiment adjusts the position command parameter.
  • the initial value of the position command parameter is set in the position command generator 41.
  • the initial value of the position command parameter may be any value.
  • the positioning control is executed by the position command calculated based on the position command parameter set in step S1.
  • step S3 the evaluation unit 43 calculates the evaluation value Q.
  • step S4 the positioning control device 40 determines whether or not the positioning control has been completed a predetermined number of times. In step S4 of FIG. 14, the predetermined number of times is described as “predetermined number of times”. When the positioning control device 40 determines that the positioning control has been completed the predetermined number of times (Yes in S4), the operation of the positioning control device 40 proceeds to step S7. If the positioning control device 40 determines that the predetermined number of positioning controls have not been completed (No in S4), the operation of the positioning control device 40 proceeds to step S5. In step S5, the learning unit 44 updates the function that calculates the average value of the evaluation values Q and the variance of the evaluation values Q based on the position command parameter and the acquired evaluation value Q.
  • step S6 the learning unit 44 obtains the position command parameter that maximizes the sum of the average value and the variance value of the evaluation value Q, based on the function updated in step S5.
  • the operation of the positioning control device 40 proceeds to step S1 in order to execute the positioning control again with the position command parameter obtained in step S6 to obtain the evaluation value.
  • step S4 when the positioning control device 40 determines that the predetermined number of positioning controls have been completed (Yes in S4), the predetermined number of evaluation values Q is obtained.
  • step S7 the positioning control device 40 selects a position command parameter that maximizes the evaluation value Q from a predetermined number of evaluation values Q and sets it in the position command generation unit 41.
  • the adjustment of the position command parameter ends.
  • the learning unit 44 can learn the relationship between the command parameter and the evaluation value in step S5 and obtain the average value and the variance value of the evaluation value Q corresponding to the position command parameter.
  • the learning unit 44 obtains the position command parameter that maximizes the sum of the average value and the variance value of the evaluation values Q. The obtained position command parameter is used for the next positioning control.
  • FIG. 15 is a first diagram for explaining the effect obtained by the positioning control device 40 according to the fourth embodiment.
  • FIG. 16 is a second diagram for explaining the effect obtained by the positioning control device 40 according to the fourth embodiment.
  • the process of selecting the third position command parameter after the operations of the evaluation unit 43 and the learning unit 44 are executed twice will be described.
  • the position command parameters of the first set are written as position command parameters Pr11
  • the position command parameters of the second set are written as position command parameters Pr12
  • the position command parameters of the third set are written as position command parameters Pr13.
  • 15 and 16 show the position command parameters in one dimension for simplification.
  • the learning unit 44 performs learning based on the obtained evaluation values Q11 and Q12 and updates the function for calculating the average value and the variance value of the evaluation values Q corresponding to the position command parameter.
  • a curve showing the average value shown in FIG. 15 and a curve showing the sum of the average value and the variance value are calculated based on the function obtained by the learning unit 44.
  • the learning unit 44 the position command parameter Pr13 corresponding to the point of the star mark in FIG. 15 where the sum of the average value and the variance value of the evaluation values is maximum is selected as the next position command parameter.
  • an evaluation value Q13 is obtained as shown in FIG. Assume that the evaluation value Q13 is larger than the evaluation values Q11 and Q12. When the adjustment is completed at this stage, the evaluation value Q13 becomes the maximum, so that the position command parameter Pr13 becomes the most excellent parameter at the end of the adjustment.
  • the maximum value of the average value of the evaluation value Q is selected instead of the maximum value of the sum of the average value and the variance value of the evaluation value Q at the stage of selecting the position command parameter of the third set.
  • the maximum value of the curve of the average value is not the point of the position command parameter Pr13, so the position command parameter Pr13 is not selected as the position command parameter of the third set. Therefore, when selecting the maximum average value of the evaluation values Q, there is a possibility that excellent parameters cannot be selected.
  • the variance value tends to increase at a point far from the data acquired in the past.
  • the average value tends to be large at the point where it is estimated to be good based on the data acquired in the past. That is, the positioning control device 40 selects the point at which the sum of the average value and the variance value is the maximum as the next position command parameter to balance the search and exploitation for obtaining the relatively large evaluation value Q. It is possible to find a position command parameter that can be kept good and that has a relatively large evaluation value Q at the end of the adjustment.
  • the positioning control device 40 according to the fourth embodiment can appropriately adjust the position command parameter without trial and error of the operator. From the above, the positioning control device 40 can efficiently perform favorable adjustment of the command shape that speeds up the positioning control.
  • the positioning control device 40 selects the point where the sum of the average value and the variance value of the evaluation value Q is the maximum as the next position command parameter.
  • the positioning control device 40 may select the position command parameter corresponding to the point where the value obtained by adding twice the variance value to the average value of the evaluation values Q becomes the maximum as the next position command parameter.
  • the positioning control device 40 may calculate an EI (Expected Improvement) function, a PI (Probability of Improvement) function, or another acquisition function by using the average value and the variance value of the evaluation function obtained by learning. .
  • the positioning control device 40 selects the point where the sum of the average value and the variance value of the evaluation value Q is the maximum as the next position command parameter. At this time, the positioning control device 40 finds a point at which the sum of the average value and the variance value of the evaluation value Q is maximum, and the position of the position command parameter is divided into grid points at equal intervals. It is also possible to calculate the average value and the variance value and select the position command parameter that maximizes the average value and variance value of the evaluation values Q in the grid. In addition, the positioning control device 40 finds the maximum value of the average value and the variance value of the evaluation value Q by the random search based on the pseudo-random function when finding the point where the sum of the average value and the variance value of the evaluation value Q is the maximum. The following position command parameters may be selected.
  • Embodiment 5 The positioning control device 40 according to the fourth embodiment appropriately adjusts the position command parameter by changing the position command parameter using the relational expression between the position command parameter and the evaluation value Q.
  • a positioning control device that appropriately adjusts a position command parameter using a pseudo random function will be described.
  • FIG. 17 is a diagram showing the configuration of the positioning control device 50 according to the fifth embodiment.
  • the positioning control device 50 has a position command generation unit 51 that generates a position command for driving the motor 1 to move the controlled object 3 by the target movement distance based on a position command parameter that defines the shape of the position command.
  • the position command generator 51 has the function of the position command generator 11 of the first embodiment.
  • the positioning control device 50 further includes a drive control unit 12 that drives the motor 1 so that the detected position value of the motor 1 or the controlled object 3 follows the position command generated by the position command generation unit 51.
  • the position command generator 51 generates a position command for the motor 1 and outputs it to the drive controller 12.
  • the position command parameter is a parameter that defines the command shape of the position command.
  • the shape of each of the position command used in the fifth embodiment, the speed command that is the first derivative of the position command, the acceleration command that is the second derivative of the position command, and the jerk that is the first derivative of the acceleration command is The shape is the same as that shown in FIG. 2 in the first embodiment.
  • the trapezoidal shape of the acceleration section from the first section to the third section and the trapezoidal shape of the deceleration section from the fifth section to the seventh section need not be congruent.
  • the first time length T1 and the third time length T3 of the acceleration section may be set to 0, and the shape of the acceleration command may be a rectangular shape.
  • the seven parameters from the first time length T1 to the seventh time length T7 are position command parameters.
  • the positioning control device 50 calculates an evaluation value for evaluating the quality of the positioning control by the drive control unit 12 based on the position detection value of the motor 1 or the control target 3 when executing the positioning control for the control target 3.
  • the evaluation unit 13 is further provided.
  • the positioning control device 50 learns the relationship between the position command parameter and the evaluation value calculated by the evaluation unit 13 when the position command parameter is changed and the positioning control for the controlled object 3 is executed a plurality of times, and the learning result
  • the learning unit 54 for obtaining The learning unit 54 has the function of the learning unit 14 of the first embodiment.
  • the learning unit 54 changes the position command generated by the position command generation unit 51 using a pseudo-random function, acquires the evaluation value Q each time the positioning control is performed a plurality of times, and evaluates the position command parameter and the evaluation value Q. Learn the relationship with the value Q.
  • the learning unit 54 independently changes the shape of the acceleration in each of the acceleration section and the deceleration section determined based on the position command parameter based on the pseudo random function.
  • the learning unit 54 uses PSO (Particle Swarm Optimization).
  • the PSO calculates an evaluation value Q for each particle scattered in the parameter space, and repeats updating the position of each particle in the parameter space by using a pseudo-random function to obtain a position command parameter and an evaluation value.
  • This is a method of finding a position command parameter such that the evaluation value Q takes a large value while learning the relationship with Q.
  • One particle corresponds to one position command parameter. For example, when the number of particles is 10 and the number of updates is 100, the positioning control is performed 1000 times in total, and 1000 sets of position command parameters and evaluation values Q are obtained.
  • each of w, c1 and c2 is a constant and may be set to a value smaller than 1.
  • Each of r1 and r2 is a pseudo random number set using a pseudo random function from the range of 0 or more and 1 or less.
  • xp is a position command parameter that maximizes the evaluation value Q of the i-th evaluation values Q obtained up to the i-th particle.
  • xg is a position command parameter that maximizes the evaluation value Q among the evaluation values Q obtained up to the i-th particle of all particles.
  • the initial values of x (i) and v (i) are randomly determined using a pseudo-random function.
  • the learning unit 54 obtains a large evaluation value Q by changing the position command parameter with a pseudo-random function while performing a search in the direction of the position command parameter that maximizes the evaluation value Q obtained up to the i-th position. It is possible to maintain a good balance between search and exploitation, and to find a position command parameter that gives a large evaluation value Q at the end of adjustment.
  • the learning unit 54 can learn the relationship between the position command parameter and the evaluation value Q by updating the position of each particle, and can find the position command parameter having a large evaluation value Q.
  • the learning unit 54 obtains the relationship between the position command parameter and the evaluation value Q as a learning result, but may obtain a list of pairs of the position command parameter and the evaluation value Q as the learning result, or the position command parameter and the evaluation value.
  • a relational expression with Q may be obtained as a learning result.
  • PSO is used as a method of changing the position command parameter based on the pseudo random function.
  • an algorithm using a pseudo-random function such as GA (genetic algorithm) or SA (simulated annealing) may be used.
  • the learning unit 54 may change the position command parameter by random search. In any case, the learning unit 54 can obtain the relationship between the position command parameter and the evaluation value Q as the learning result.
  • the learning unit 54 can learn the relationship between the position command parameter and the evaluation value Q to find the position command parameter such that the evaluation value Q takes a large value. That is, the learning unit 54 changes the position command parameter used for the positioning control based on the learning result. Therefore, the positioning control device 50 can appropriately adjust the position command parameter without trial and error of the operator.
  • the positioning control device 50 according to the fifth embodiment can efficiently perform good command shape adjustment that speeds up positioning control.
  • Embodiment 6 FIG.
  • the positioning control device 40 according to the fourth embodiment appropriately adjusts the position command parameter by changing the position command parameter using the relational expression between the position command parameter and the evaluation value Q.
  • a positioning control device that appropriately adjusts position command parameters by including an operation simulation unit that simulates the operation of a controlled object will be described.
  • FIG. 18 is a diagram showing the configuration of the positioning control device 60 according to the sixth embodiment.
  • the positioning control device 60 includes a position command generation unit 61 that generates a position command for driving the motor 1 to move the controlled object 3 by the target movement distance based on a position command parameter that defines the shape of the position command. .
  • the position command generator 61 has the function of the position command generator 11 of the first embodiment.
  • the positioning control device 60 further includes a drive control unit 12 that drives the motor 1 so that the detected position value of the motor 1 or the controlled object 3 follows the position command generated by the position command generation unit 61.
  • the positioning control device 60 calculates an evaluation value for evaluating the quality of the positioning control by the drive control unit 12 based on the position detection value of the motor 1 or the control target 3 at the time of executing the positioning control for the control target 3.
  • the evaluation unit 13 is further provided.
  • the positioning control device 60 learns and learns the relationship between the position command parameter and the evaluation value calculated by the evaluation unit 13 when the position command parameter is changed and the positioning control for the controlled object 3 is executed a plurality of times.
  • the learning unit 64 that obtains a result is further included.
  • the learning unit 64 has the function of the learning unit 14 of the first embodiment.
  • the positioning control device 60 further includes an operation simulation unit 68 that receives the position command parameter and instructs the learning unit 64 to reselect the position command parameter.
  • the operation simulation unit 68 simulates the operation of the elements included in the range indicated by the operation simulation target 68a in FIG. That is, the operation simulation unit 68 receives the position command parameter as an input and simulates a signal of the position detection value indicating the rotational position of the motor 1 or the position of the controlled object 3.
  • the motion simulating unit 68 simulates the motion of the controlled object 3 based on the position command parameter, and if the simulated result satisfies the constraint condition set in advance, the position used when simulating the motion.
  • the command parameter is output to the position command generator 61.
  • a recalculation instruction which is an instruction to recalculate the position command parameter, is given to the learning unit 64.
  • the learning unit 64 and the motion simulation unit 68 will be further described below.
  • the learning unit 64 receives the evaluation value Q and learns the relationship between the position command parameter and the evaluation value Q to obtain a learning result. Specifically, the learning unit 64 performs learning by updating the function for calculating the average value and the variance value of the evaluation values Q corresponding to the position command parameter. The learning unit 64 can estimate the average value of the evaluation values Q corresponding to the position command parameters and the variance value of the evaluation values Q corresponding to the position command parameters by performing the learning. A Gaussian process model may be used as the function for calculating the mean value and the variance value. As described above, the learning unit 64 obtains the relational expression between the position command parameter and the evaluation value Q.
  • the learning unit 64 selects a position command parameter for executing the next positioning control and outputs it to the operation simulation unit 68.
  • the learning unit 64 selects the position command parameter having the maximum sum of the average value and the variance value of the evaluation values Q based on the learning result.
  • the operation simulation unit 68 receives the position command parameter selected by the learning unit 64, and determines whether or not the position command parameter needs to be recalculated based on the signal that simulates the position detection value and the preset constraint condition. If it is determined that the recalculation is necessary, a recalculation instruction, which is an instruction to recalculate the position command parameter, is given to the learning unit 64.
  • the operation simulation unit 68 may give a recalculation instruction to the learning unit 64 so as to recalculate the position command parameter when the amplitude of the signal simulating the position detection value is equal to or larger than a predetermined value.
  • the operation simulation unit 68 recalculates the learning unit 64 to recalculate the position command parameter when the time for which the signal simulating the position detection value reaches the value of the target movement distance is equal to or longer than a predetermined time.
  • the learning unit 64 selects the position command parameter having the second largest sum of the average value and the variance value of the evaluation values Q based on the learning result.
  • the operation simulation unit 68 receives the position command parameter again and determines whether or not recalculation is necessary.
  • the position command parameter is changed when the position command parameter is simply evaluated by the operation of the learning unit 64 and the motion simulation unit 68 and the evaluation value becomes a small value that is judged to be defective.
  • the positioning control device 60 can reduce the number of executions of the positioning control by changing the position command parameter based on the operations of the learning unit 64 and the motion simulation unit 68, and can efficiently adjust the position command parameter.
  • the operation simulation unit 68 can reduce the number of executions of positioning control by determining only the magnitude of the evaluation value Q corresponding to the input position command parameter.
  • the motion simulation unit 68 does not necessarily need to simulate a precise control target.
  • the signal obtained by applying the low-pass filter to the position command may be a signal simulating the position detection value.
  • the motion simulator 68 determines whether or not the position command parameter needs to be recalculated based on the signal simulating the position detection value.
  • the operation of the operation simulating unit 68 is not limited to this.
  • the element included in the motion simulation target 68a shown in FIG. 18 is not limited to the element.
  • the operation simulation unit 68 may simulate the value of the current applied to the motor 1 and may instruct the recalculation of the position command parameter when the value of the simulated current is equal to or greater than a predetermined value.
  • the operation simulating unit 68 simulates the position command generated from the position command parameter, and when the signal simulating the position command reaches the value of the target movement distance for a predetermined time or longer, You may instruct recalculation.
  • the operation simulating unit 68 simulates the speed command or the acceleration command by differentiating the signal to which the low-pass filter is applied with respect to the position command, and the maximum value of the signal simulating the speed command or the acceleration command is a predetermined value or more. If, then recalculation of the position command parameter may be instructed.
  • the positioning control device 60 can appropriately adjust the position command parameters without trial and error of the operator. From the above, the positioning control device 60 can efficiently perform good command shape adjustment that speeds up the positioning control.
  • a part or all of the positioning control device 10, the positioning control device 20, the positioning control device 30, the positioning control device 40, the positioning control device 50, and the positioning control device 60 according to the first to sixth embodiments described above are controlled by position command parameters.
  • Two or more of the magnitudes of acceleration at the start of acceleration, the end of acceleration, the start of deceleration, and the end of deceleration may be set independently.
  • the positioning control device 40 includes steps executed by part or all of the position command generation unit 41, the drive control unit 12, the evaluation unit 43, and the learning unit 44. It has a memory for storing the program to be executed as a result.
  • the memory is a memory equivalent to the memory 72.
  • Some or all of the functions of the position command generation unit 41, the drive control unit 12, the evaluation unit 43, and the learning unit 44 included in the positioning control device 40 according to the fourth embodiment are realized by a processing circuit equivalent to the processing circuit 81. May be.
  • Some or all of the functions of the position command generation unit 51, the drive control unit 12, the evaluation unit 13, and the learning unit 54 included in the positioning control device 50 according to the fifth embodiment may be realized by a processor equivalent to the processor 71. Good.
  • the positioning control device 50 performs the steps executed by part or all of the position command generation unit 51, the drive control unit 12, the evaluation unit 13, and the learning unit 54. It has a memory for storing the program to be executed as a result.
  • the memory is a memory equivalent to the memory 72.
  • Some or all of the functions of the position command generation unit 51, the drive control unit 12, the evaluation unit 13, and the learning unit 54 included in the positioning control device 50 according to the fifth embodiment are realized by a processing circuit equivalent to the processing circuit 81. May be.
  • the position command generation unit 61, the drive control unit 12, the evaluation unit 13, the learning unit 64, and the operation simulation unit 68 included in the positioning control device 60 according to the sixth embodiment have some or all of the functions equivalent to the processor 71. May be realized by When a part or all of the functions are realized by the processor, the positioning control device 60 uses part or all of the position command generation unit 61, the drive control unit 12, the evaluation unit 13, the learning unit 64, and the motion simulation unit 68.
  • the step to be executed has a memory for storing the program that will be executed as a result.
  • the memory is a memory equivalent to the memory 72.
  • Some or all of the functions of the position command generation unit 61, the drive control unit 12, the evaluation unit 13, the learning unit 64, and the motion simulation unit 68 included in the positioning control device 60 according to the sixth embodiment are equivalent to those of the processing circuit 81. It may be realized by a processing circuit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Control Of Position Or Direction (AREA)
  • Feedback Control In General (AREA)

Abstract

位置決め制御装置(40)は、位置指令パラメータに基づいて加速区間及び減速区間の加速度の形状が決定される位置指令を生成する位置指令生成部(41)と、モータ(1)又は制御対象(3)の位置検出値が位置指令に追従するようにモータ(1)を駆動する駆動制御部(12)と、制御対象(3)についての位置決め制御の実行時のモータ(1)又は制御対象(3)の位置検出値に基づいて位置決め性能に関する評価値を算出する評価部(43)と、位置指令パラメータに基づいて決定される加速区間と減速区間とにおける加速度の形状の各々を独立に変更しつつ、複数回の位置決め制御が実行された場合の位置指令パラメータと評価値との関係を学習し、位置指令パラメータと評価値との関係を学習して学習結果を得る学習部(44)とを有する。

Description

位置決め制御装置及び位置決め方法
 本発明は、制御対象について位置決め制御を行う位置決め制御装置及び位置決め方法に関する。
 電子部品実装機又は半導体製造装置のように、サーボモータの駆動により制御対象であるヘッドを繰り返し移動させる装置では、生産性能の向上のためにサーボモータについて高速な制御が求められる。サーボモータが高速に動作すると、装置の剛性の低さに起因する機械振動が生じる場合がある。この場合、サーボモータの位置指令の指令形状が適切に調整されていれば、機械振動の影響を受ける状況下であっても高速な位置決め制御を実現することができる。そのため、位置指令の指令形状を適切に調整することが求められる。
 サーボモータの指令形状を調整するための従来の技術として、下記の特許文献1、特許文献2及び特許文献3の各々に記載されている技術が提案されている。特許文献1は、制御対象のモデルを用いたシミュレーションにおいて、遺伝的アルゴリズムを用いた指令形状の探索と制御対象のモデルの応答の評価とを繰り返すことで、シミュレーションにおける最適な指令形状を見つける技術を開示している。特許文献1が開示している技術は、シミュレーションを用いた指令形状の調整手段である。
 特許文献2は、シミュレーションにおいて最適な指令形状を見つけた後に、実機を用いて指令形状の探索を行う技術を開示している。特許文献2が開示している技術の特徴は、実機を用いた指令形状の探索において、シミュレーションにおいて見つけられた最適な指令形状に基づいて探索範囲を決定することである。特許文献1及び特許文献2はいずれも、シミュレーションを活用して指令形状の調整を行う技術を開示している。
 特許文献3は、複数の指令形状を予め準備して保持しておき、それら複数の指令形状のひとつずつに対して実機を用いた位置決め動作を実行させて応答を調べ、良好な応答を示す指令形状を探索する技術を開示している。
特開2004-240609号公報 特開2009-122779号公報 特開2016-19304号公報
 上述の通り、特許文献1及び特許文献2はいずれも、シミュレーションを活用して指令形状の調整を行う技術を開示している。特許文献1が開示している技術は、実機の応答をシミュレーションして指令形状の最適化を行う技術であるが、実機の応答をシミュレーションするためには実機の数学モデルが必要となる。一般に、数学モデルにはモデル化誤差が含まれるため、数学モデルが実機の応答を完全に再現することは難しい。シミュレーションで見出された最適値は実機の最適値と相異するので、シミュレーションにおいて見つけられた最適な指令形状を実機に適用しても、実機は期待されるような良好な応答を示さない。つまり、特許文献1が開示している技術には、実機において位置決め制御を高速化するような良好な指令形状を得られないという課題がある。
 特許文献2が開示している技術は、シミュレーションを行った後に実機を用いた指令形状の調整を行う。当該技術では、シミュレーションの結果に基づいて調整の際の探索範囲が決定されるため、例えばモデル化誤差の影響によって探索範囲が適切に設定されない可能性がある。つまり、特許文献2が開示している技術では、良好な指令形状を含む範囲が探索範囲として設定されない可能性がある。
 特許文献3が開示している技術は、あらかじめ準備された複数の指令形状のひとつずつに対して実機を用いた位置決め動作を実行させて応答を調べ、最良な指令形状を見つける。サーボモータを動作させる指令形状のパターンは無数に存在するため、あらかじめ準備された複数の指令形状のすべてに対して実機を用いた位置決め動作をさせるのでは、位置決め動作の回数が膨大になる。位置決め動作の回数を低減するために指令形状の探索範囲を絞り込んで設定しようとしても、探索範囲を適切に設定する手段が与えられないため、探索範囲のなかに良好な応答を示す指令形状が存在しない可能性がある。つまり、特許文献3が開示している技術には、良好な指令形状を見つけることができないという課題がある。
 上述の通り、従来の技術では、位置決め制御を高速化する指令形状の調整を効率良く行うことができない。
 本発明は、上記に鑑みてなされたものであって、位置決め制御を高速化するための指令形状の調整を効率良く行う位置決め制御装置を得ることを目的とする。
 上述した課題を解決し、目的を達成するために、本発明は、モータを駆動させて制御対象を目標移動距離だけ移動させる位置決め制御装置であって、位置指令パラメータに基づいて加速区間及び減速区間の加速度の形状が決定される位置指令を生成する位置指令生成部と、前記モータ又は前記制御対象の位置検出値が前記位置指令に追従するように前記モータを駆動する駆動制御部とを有する。本発明は、前記制御対象についての位置決め制御の実行時の前記モータ又は前記制御対象の位置検出値に基づいて位置決め性能に関する評価値を算出する評価部を更に有する。本発明は、前記位置指令パラメータに基づいて決定される加速区間と減速区間とにおける加速度の形状の各々を独立に変更しつつ、複数回の位置決め制御が実行された場合の前記位置指令パラメータと前記評価値との関係を学習し、前記位置指令パラメータと前記評価値との関係を学習して学習結果を得る学習部を更に有する。
 本発明によれば、位置決め制御を高速化するための指令形状の調整を効率良く行うことができるという効果が得られる。
実施の形態1にかかる位置決め制御装置の構成を示す図 実施の形態1で用いられる位置指令と、位置指令の一階微分である速度指令と、位置指令の二階微分である加速度指令と、加速度指令の一階微分であるジャーク(加加速度)との各々の形状の例を示す図 実施の形態1において第1組目から第3組目までの位置指令パラメータに基づいて生成された各指令形状を用いて位置決め制御が行われた場合の目標移動距離と位置検出値との偏差の時間応答を示す図 実施の形態1で用いられるニューラルネットワークを示す図 実施の形態1における目標移動距離と優良パラメータとの関係を示すグラフ 実施の形態2にかかる位置決め制御装置の構成を示す図 実施の形態2における目標停止位置と優良パラメータとの関係を示すグラフ 実施の形態3にかかる位置決め制御装置の構成を示す図 実施の形態3における偏差の時間応答を示す図 実施の形態3において第4組目の位置指令パラメータと第5組目の位置指令パラメータとが用いられた場合の偏差の時間応答を示す図 実施の形態1にかかる位置決め制御装置が有する位置指令生成部、駆動制御部、評価部、学習部、学習結果保持部及びパラメータ範囲設定部の一部又は全部の機能がプロセッサによって実現される場合のプロセッサを示す図 実施の形態1にかかる位置決め制御装置が有する位置指令生成部、駆動制御部、評価部、学習部、学習結果保持部及びパラメータ範囲設定部の一部又は全部が処理回路によって実現される場合の処理回路を示す図 実施の形態4にかかる位置決め制御装置の構成を示す図 実施の形態4にかかる位置決め制御装置が位置指令パラメータを調整する際の動作の手順を示すフローチャート 実施の形態4にかかる位置決め制御装置によって得られる効果を説明するための第1図 実施の形態4にかかる位置決め制御装置によって得られる効果を説明するための第2図 実施の形態5にかかる位置決め制御装置の構成を示す図 実施の形態6にかかる位置決め制御装置の構成を示す図
 以下に、本発明の実施の形態にかかる位置決め制御装置及び位置決め方法を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。
実施の形態1.
 図1は、実施の形態1にかかる位置決め制御装置10の構成を示す図である。位置決め制御装置10は、モータ1を駆動させて制御対象3を目標移動距離だけ移動させる装置であって、モータ1と位置検出器4とに接続される。モータ1は、ボールねじ2を介して制御対象3にトルク及び推力を与えて、制御対象3を移動させる。モータ1は、制御対象3を駆動することができるものであればよい。モータ1の例は、回転型サーボモータ、リニアモータ又はステッピングモータである。
 制御対象3は、モータ1により所望の目標移動距離だけで移動させられる。制御対象3は、位置決め制御が必要とされる機械又は部品である。制御対象3の例は、電子部品実装機、又は、半導体製造装置のヘッド部分である。
 位置検出器4は、モータ1の回転位置又は制御対象3の位置を検出し、位置検出値を示す情報を位置決め制御装置10に出力する。位置検出値は、位置検出器4による検出の結果である。位置検出器4の例は、エンコーダ又はリニアスケールである。
 位置決め制御装置10には、位置決め制御装置10の外部から運転条件17が与えられる。運転条件17は、モータ1を駆動させるための目標移動距離を含む情報である。目標移動距離は、制御対象3が移動させられる際の所望の距離である。位置決め制御装置10は、運転条件17を満たすように制御対象3についての位置決め制御を実行する。
 位置決め制御装置10は、モータ1を駆動させて制御対象3を目標移動距離だけ移動させるための位置指令を、当該位置指令の形状を定める位置指令パラメータに基づいて生成する位置指令生成部11を有する。位置指令生成部11は、位置指令パラメータに基づいて加速区間及び減速区間の加速度形状が決定される位置指令を生成する。位置決め制御装置10は、モータ1又は制御対象3の位置検出値が位置指令生成部11によって生成された位置指令に追従するようにモータ1を駆動する駆動制御部12を更に有する。
 位置決め制御装置10は、制御対象3についての位置決め制御の実行時のモータ1又は制御対象3の位置検出値に基づいて駆動制御部12による位置決め制御の良し悪しを評価するための評価値を算出する評価部13を更に有する。評価部13は、制御対象3についての位置決め制御の実行時のモータ1又は制御対象3の位置検出値に基づいて位置決め性能に関する評価値を算出する。
 位置決め制御装置10は、位置指令パラメータの上限値及び下限値を規定するパラメータ範囲の内において位置指令パラメータが変更されて複数回の制御対象3についての位置決め制御が実行された場合の位置指令パラメータと評価部13によって算出された評価値との関係を学習し学習結果を得る学習部14を更に有する。学習部14は、位置指令パラメータに基づいて決定される加速区間と減速区間とにおける加速度の形状の各々を独立に変更しつつ、複数回の位置決め制御が実行された場合の位置指令パラメータと評価値との関係を学習し、位置指令パラメータと評価値との関係を学習して学習結果を得る。更に言うと、学習部14は、学習結果に基づいて位置指令パラメータを決定する。
 位置決め制御装置10は、目標移動距離を示す情報を含む運転条件17と学習部14によって得られた学習結果とを対応付けて保持する学習結果保持部15を更に有する。学習結果保持部15の一部は、記憶部である。記憶部の例は、半導体メモリである。位置決め制御装置10は、学習結果保持部15によって保持された運転条件17と学習結果とに基づいてパラメータ範囲を変更するパラメータ範囲設定部16を更に有する。以下に、位置指令生成部11、駆動制御部12、評価部13、学習部14、学習結果保持部15及びパラメータ範囲設定部16について更に説明する。
 位置指令生成部11は、位置指令パラメータと運転条件17とに基づいて、モータ1の位置指令を生成して出力する。位置指令パラメータは、位置指令の指令形状を規定するパラメータである。図2は、実施の形態1で用いられる位置指令と、位置指令の一階微分である速度指令と、位置指令の二階微分である加速度指令と、加速度指令の一階微分であるジャーク(加加速度)との各々の形状の例を示す図である。図2は、目標移動距離を示す情報を含む運転条件17が位置決め制御装置10に与えられた場合の各指令及びジャークの形状の例を示している。
 図2に示す通り、実施の形態1における加速度指令は、第1区間から第3区間までにおいて加速方向の台形形状を示す指令であり、第4区間では0であり、第5区間から第7区間までにおいて減速方向の台形形状を示す指令である。第1区間が加速開始の区間を示し、第3区間が加速終了の区間を示し、第5区間が減速開始の区間を示し、第7区間が減速終了の区間を示す。第m区間の時間長を、第m時間長Tmとする。mは、1から7までの整数である。つまり、第1区間の時間長は第1時間長T1である。
 図2の加速度指令において、第1区間から第3区間までの加速区間の台形形状と、第5区間から第7区間までの減速区間の台形形状とは合同でなくてもよい。加速区間の第1時間長T1と第3時間長T3とを0として、加速度指令の形状を矩形形状としてもよい。実施の形態1では、第1時間長T1から第7時間長T7までの7個のパラメータが位置指令パラメータである。指令形状は、位置指令パタメータと目標移動距離とに基づいて規定される。指令形状の計算方法は後述する。
 駆動制御部12は、モータ1の回転位置が位置指令に追従するようにモータ1に電流を供給する。例えば、駆動制御部12は、位置検出器4からモータ1の回転位置を示す情報を取得し、モータ1の回転位置と位置指令との偏差が小さくなるようにPID(Proportional-Integral-Differential)制御に基づいてモータ1に供給される電流の値を計算し、計算によって得られた値の電流をモータ1に供給する。なお、駆動制御部12は、モータ1の回転位置を位置指令に追従させるものであれば、どのようなものであってもよい。例えば、駆動制御部12は、フィードバック制御にフィードフォワード制御を加えた2自由度制御を行なってもよい。
 駆動制御部12は、モータ1の回転位置が位置指令に追従するようにモータ1を駆動するものではなく、制御対象3の位置をフィードバック制御のための信号として検出して、制御対象3の位置が位置指令に追従するようにモータ1を駆動するものであってもよい。
 評価部13は、位置検出器4による検出の結果である位置検出値を示す情報を位置検出器4から受け取り、駆動制御部12による位置決め制御の良し悪しを評価するための評価値Qを後述する方法で計算して出力する。駆動制御部12は位置指令に基づいて動作し、位置指令は位置指令パラメータに基づいて計算される。したがって、評価部13によって算出される評価値Qは、位置指令パラメータの値に依存する。つまり、評価値Qは位置指令パラメータを評価するための指標であるといえる。
 次に、評価値Qの具体的な計算方法を説明する。位置決め制御の開始から目標移動距離と位置検出値との偏差の大きさがあらかじめ決められた許容値IMPより小さくなる位置決め完了までの時間を、位置決め時間Tstとする。位置決め時間Tstが小さい場合、評価値Qが大きな値を示すように下記の式(1)が設定される。
Figure JPOXMLDOC01-appb-M000001
 式(1)によれば、位置決め時間Tstが小さいほど評価値Qは大きな値になる。つまり、実施の形態1では、評価値Qが大きな値であるほど、位置指令パラメータは優良であるといえる。ただし、評価値Qは、位置決め制御を評価することができるものであれば、式(1)によって特定されるものに限定されない。例えば、位置決め時間Tstそのものを評価値Qとして、評価値Qが小さな値であるほど位置指令パラメータは優良であると定められてもよい。
 学習部14は、評価値Qとパラメータ範囲とを入力として、位置指令パラメータと評価値Qとの関係を学習し、学習結果を出力する。具体的には、学習部14において、位置指令パラメータを入力として評価値Qを出力とするニューラルネットワークが構成され、学習部14は、ニューラルネットワークの重み係数を更新して学習を行う。重み係数を更新して学習が行われた場合、ニューラルネットワークは位置指令パラメータに対応する評価値Qの良好な推定値を出力する。学習部14は、ニューラルネットワーク用い、位置指令パラメータを入力として評価値Qを出力とする関数を得ることで、学習結果として位置指令パラメータと評価値Qとの関係式を得る。学習部14は、位置指令パラメータと評価値Qとの関係を学習することができれば、位置指令パラメータと評価値Qとの関係を、ニューラルネットワークを用いる方法によって学習しなくてもよい。
 学習部14は、次の位置決め制御を実行するための位置指令パラメータを、規定されるパラメータ範囲のなかから選定して出力する。学習部14は、次の位置指令パラメータの選定にあたって、学習結果に基づいて優良な評価値を示す位置指令パラメータを選定してもよいし、各位置指令パラメータを等間隔に刻んだグリッドの点のなかから順に位置指令パラメータを選定してもよい。学習部14は、位置指令パラメータに基づいて評価値Qを計算する関数を更新する機能を有する。
 学習結果保持部15は、学習部14の学習結果を入力とし、学習結果と目標移動距離とを対応付けて保持する。学習結果保持部15は、学習結果である位置指令パラメータと評価値Qとの関係式に基づいて、数値計算により、評価値Qが最大となる位置指令パラメータを求める。例えば、学習結果保持部15は、グリッド探索、ランダム探索又はニュートン法といった最適化アルゴリズムを用いて評価値Qを最大とする位置指令パラメータを求める。
 学習結果保持部15は、評価値Qを最大とする位置指令パラメータを優良パラメータ(第一の優良パラメータ)として求めて、優良パラメータと目標移動距離とを対応付けて出力する。ただし、学習結果保持部15は、位置指令パラメータと評価値Qとの関係式を満たす位置指令パラメータのなかで評価値Qの真の最大値の位置指令パラメータを求める必要はない。学習結果保持部15は、あらかじめ決められた基準を満たす良好な位置決め制御を示す位置指令パラメータを優良パラメータとすればよい。学習結果保持部15は、ひとつ以上の位置指令パラメータを優良パラメータとして保持する機能を有する。
 パラメータ範囲設定部16は、優良パラメータと運転条件17に含まれる情報が示す目標移動距離とに基づいて、位置指令パラメータの上限値と下限値とを定めるパラメータ範囲を決定する。パラメータ範囲設定部16は、学習部14によって得られた学習結果に基づいて、位置指令パラメータの上限値及び下限値を規定するパラメータ範囲を設定する。パラメータ範囲設定部16は、学習結果保持部15によって保持された優良パラメータより小さい値をパラメータ範囲の下限とすると共に、優良パラメータより大きい値をパラメータ範囲の上限として、パラメータ範囲を設定する。
 パラメータ範囲設定部16は、運転条件17に含まれる情報が示す目標移動距離が変更された場合、過去に学習が実行されたときの目標移動距離に基づいて補間計算を行って、変更後の目標移動距離に対応する補間点の優良パラメータを推定する。加えて、パラメータ範囲設定部16は、推定された補間点の優良パラメータより小さい値をパラメータ範囲の下限とすると共に、推定された補間点の優良パラメータより大きい値をパラメータ範囲の上限として、パラメータ範囲を設定する。
 例えば、パラメータ範囲設定部16は、目標移動距離と優良パラメータとの関係を示す1次関数式を作成しておき、目標移動距離が変更されれば、作成された1次関数式に基づいて変更後の目標移動距離についての優良パラメータの推定値を求める。パラメータ範囲設定部16は、優良パラメータの推定値より大きい値を上限値として設定し、優良パラメータの推定値より小さい値を下限値として設定する。位置指令パラメータが複数存在する場合、パラメータ範囲設定部16は、複数の位置指令パラメータの各々について、上限値及び下限値を設定する。
 パラメータ範囲設定部16は、新たな目標移動距離に対応する優良パラメータの推定値を得ることができれば、優良パラメータと目標移動距離との関係を示す1次関数式以外の規則に基づいて優良パラメータの推定値を計算してもよい。
 実施の形態1にかかる位置決め制御装置10の機能を更に説明する。学習部14は、パラメータ範囲で定められる範囲内で1組の位置指令パラメータを決定し、決定された位置指令パラメータを位置指令生成部11に出力する。位置指令生成部11は、入力された位置指令パラメータに基づいて位置指令を計算する。
 位置指令の計算方法を説明する。第2区間の加速度の大きさをAaと定め、第6区間の加速度の大きさをAdと定める。第2区間の加速度の大きさAaと第6区間の加速度の大きさAdとは、位置指令パラメータの従属変数となるため、これらには設定自由度は無い。位置指令生成部11は、「0≦t<T1」の範囲の時間tにおける第1区間の加速度指令A1、速度指令V1及び位置指令P1の各々を、下記の式(2)、式(3)又は式(4)を用いて計算する。
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000004
 位置指令生成部11は、「T1≦t<T1+T2」の範囲の時間tにおける第2区間の加速度指令A2、速度指令V2及び位置指令P2の各々を、下記の式(5)、式(6)又は式(7)を用いて計算する。
Figure JPOXMLDOC01-appb-M000005
Figure JPOXMLDOC01-appb-M000006
Figure JPOXMLDOC01-appb-M000007
 位置指令生成部11は、「T1+T2≦t<T1+T2+T3」の範囲の時間tにおける第3区間の加速度指令A3、速度指令V3及び位置指令P3の各々を、下記の式(8)、式(9)又は式(10)を用いて計算する。
Figure JPOXMLDOC01-appb-M000008
Figure JPOXMLDOC01-appb-M000009
Figure JPOXMLDOC01-appb-M000010
 位置指令生成部11は、「T1+T2+T3≦t<T1+T2+T3+T4」の範囲の時間tにおける第4区間の加速度指令A4、速度指令V4及び位置指令P4の各々を、下記の式(11)、式(12)又は式(13)を用いて計算する。
Figure JPOXMLDOC01-appb-M000011
Figure JPOXMLDOC01-appb-M000012
Figure JPOXMLDOC01-appb-M000013
 位置指令生成部11は、「T1+T2+T3+T4≦t<T1+T2+T3+T4+T5」の範囲の時間tにおける第5区間の加速度指令A5、速度指令V5及び位置指令P5の各々を、下記の式(14)、式(15)又は式(16)を用いて計算する。
Figure JPOXMLDOC01-appb-M000014
Figure JPOXMLDOC01-appb-M000015
Figure JPOXMLDOC01-appb-M000016
 位置指令生成部11は、「T1+T2+T3+T4+T5≦t<T1+T2+T3+T4+T5+T6」の範囲の時間tにおける第6区間の加速度指令A6、速度指令V6及び位置指令P6の各々を、下記の式(17)、式(18)又は式(19)を用いて計算する。
Figure JPOXMLDOC01-appb-M000017
Figure JPOXMLDOC01-appb-M000018
Figure JPOXMLDOC01-appb-M000019
 位置指令生成部11は、「T1+T2+T3+T4+T5+T6≦t≦T1+T2+T3+T4+T5+T6+T7」の範囲の時間tにおける第7区間の加速度指令A7、速度指令V7及び位置指令P7の各々を、下記の式(20)、式(21)又は式(22)を用いて計算する。
Figure JPOXMLDOC01-appb-M000020
Figure JPOXMLDOC01-appb-M000021
Figure JPOXMLDOC01-appb-M000022
 終端時間t=T1+T2+T3+T4+T5+T6+T7においては、速度指令は0に一致する必要があり、位置指令は目標移動距離Dに一致する必要がある。そのため、終端時間において下記の式(23)及び式(24)が成立する。
Figure JPOXMLDOC01-appb-M000023
Figure JPOXMLDOC01-appb-M000024
 上記の式(5)及び式(17)より、第2区間の加速度の大きさAa及び第6区間の加速度の大きさAdが決定される。上述のように、指令形状は指令パラメータと目標移動距離Dとに基づいて計算される。
 上述の通り、また図2に示す通り、第1区間、第3区間、第5区間及び第7区間では、加速度は時間の一次関数である。そのため、これらの区間では、図2に示す通り、加速度の一階微分であるジャークは非零の一定値である。つまり、第1時間長T1、第3時間長T3、第5時間長T5及び第7時間長T7は、ジャークが非零の一定値となる時間を定めたものであると言える。非零の一定値は、0より大きい一定値又は0より小さい一定値である。
 これらの区間では、時間長の代わりにジャークの大きさを指定するパラメータが選択されてもよい。例えば、第1区間におけるジャークの大きさをJ1として定めると、ジャークJ1は、下記の式(25)に示す通り、第1時間長T1を用いて算出することができる。
Figure JPOXMLDOC01-appb-M000025
 つまり、ジャークが非零の一定値となる区間の時間をパラメータとして定めることと、ジャークが非零の一定値となる区間のジャークの大きさをパラメータとして定めることとは、等価である。このように、指令形状を規定するパラメータの選択の仕方には任意性があり、指令形状を規定するパラメータの選択は上述の方法に限定されない。
 上述のように、実施の形態1の位置指令生成部11が実行する指令生成方法では、指令形状を規定するために7個の位置指令パラメータを使用する。従来の技術で多く用いられる加速度及び速度の2個のパラメータにより指令形状を規定する方法と比較すると、実施の形態1における調整の自由度は従来のそれより高い。そのため、適切に位置指令パラメータを調整することができれば、位置決め制御装置10は、制御対象3が載置されている装置の機械振動の影響を受ける状況であっても、良好な応答を示す位置決め制御を実現することができる。
 他方、制御対象3が載置されている装置の操作者が当該装置を動作させつつ、試行錯誤によって上記の7個のパラメータを人手で調整する場合、比較的大きな労力及び比較的長い時間が必要となる。以下では、位置決め制御装置10が評価部13、学習部14及び学習結果保持部15を有することにより、位置決め制御装置10が操作者の試行錯誤を必要とせず、位置指令パラメータを適切に調整することができることを説明する。
 評価部13及び学習部14の動作によれば、学習部14による位置指令パラメータの変更と、変更された位置指令パラメータが用いられた位置決め制御と、評価部13による評価値Qの計算とが繰り返し実行される。この繰り返し実行される評価部13及び学習部14の動作を説明する。
 学習部14は、位置指令パラメータの上限値及び下限値を規定するパラメータ範囲の内において位置指令パラメータを選定する。評価部13及び学習部14の動作が3回実行されて、第3組目までの位置指令パラメータが評価される過程を説明する。第1組目の位置指令パラメータを位置指令パラメータPr1と表記し、第2組目の位置指令パラメータを位置指令パラメータPr2と表記し、第3組目の位置指令パラメータを位置指令パラメータPr3と表記する。3組の位置指令パラメータの各々は、第1時間長T1から第7時間長T7までの7個のパラメータを有している。
 図3は、実施の形態1において第1組目から第3組目までの位置指令パラメータに基づいて生成された各指令形状を用いて位置決め制御が行われた場合の目標移動距離と位置検出値との偏差の時間応答を示す図である。図3(a)は、第1組目の位置指令パラメータが用いられた場合の偏差の時間応答を示している。図3(b)は、第2組目の位置指令パラメータが用いられた場合の偏差の時間応答を示している。図3(c)は、第3組目の位置指令パラメータが用いられた場合の偏差の時間応答を示している。
 学習部14から第1組目の位置指令パラメータPr1が出力され、位置指令生成部11が第1組目の位置指令パラメータPr1に基づいて位置指令を生成する。第1組目の位置指令パラメータPr1に基づいて生成された位置指令が用いられて、位置決め制御が実行される。評価部13は、この場合の位置検出値に基づいて、第1組目の位置指令パラメータPr1に対応する位置決め時間Tst1を取得する。位置決め制御の開始から、目標移動距離と位置検出値との偏差の大きさがあらかじめ決められた許容値IMPより小さくなる位置決め完了までの時間を位置決め時間とする。第1組目の位置指令パラメータPr1に対応する評価値Q1が、下記の式(26)が用いられて計算される。
Figure JPOXMLDOC01-appb-M000026
 学習部14は、評価値Q1を受け取り、位置指令パラメータを第2組目の位置指令パラメータPr2に変更する。学習部14は、位置指令パラメータを変更する際、第1組目の位置指令パラメータPr1が用いられた位置決め制御の結果に基づいて第2組目の位置指令パラメータPr2を選定してもよいし、第1組目の位置指令パラメータPr1が用いられた位置決め制御の結果に関わらず、あらかじめ定められていた通りに第2組目の位置指令パラメータPr2を選定してもよい。
 学習部14が位置指令パラメータを変更すると、第2組目の位置指令パラメータPr2に基づいて生成される位置指令が用いられて位置決め制御が実行される。評価部13は、この場合の位置検出値に基づいて、第2組目の位置指令パラメータPr2に対応する位置決め時間Tst2を取得する。位置決め制御の開始から、目標移動距離と位置検出値との偏差の大きさが許容値IMPより小さくなる位置決め完了までの時間を位置決め時間とする。第2組目の位置指令パラメータPr2に対応する評価値Q2が、下記の式(27)が用いられて計算される。
Figure JPOXMLDOC01-appb-M000027
 学習部14は、評価値Q2を受け取り、位置指令パラメータを第3組目の位置指令パラメータPr3に変更する。評価部13は、評価値Q1と評価値Q2とを得た手順と同様にして、評価値Q3を、位置決め時間Tst3に基づいて下記の式(28)を用いて計算する。
Figure JPOXMLDOC01-appb-M000028
 学習部14は、評価値Q3を受け取る。図3に示すように、Tst2<Tst1<Tst3という結果が得られたとすると、3つ評価値の中では評価値Q2が最も大きい値となる。ここまでの評価部13及び学習部14の動作によって、学習部14は3組の位置指令パラメータPr1、位置指令パラメータPr2及び位置指令パラメータPr3に対応する評価値Q1、評価値Q2及び評価値Q3を得る。
 評価部13及び学習部14は、上述のように、位置指令パラメータに対応する評価値Qを取得する動作を繰り返し実施する。
 学習部14は、位置指令パラメータと位置指令パラメータに対応する評価値Qとを学習用データとして、ニューラルネットワークを用いた学習動作を行う。図4は、実施の形態1で用いられるニューラルネットワークを示す図である。当該ニューラルネットワークは、入力層、中間層及び出力層を有する。左端の入力層に位置指令パラメータが入力され、右端の出力層から評価値Qが出力される。入力層の各ノードから中間層の各ノードに対する重み係数は全て独立に設定することができるが、図4ではこれらは全て同一の重み係数W1として表記されている。同様に、中間層の各ノードから出力層の各ノードに対する重み係数は、全て同一の重み係数W2として表記されている。
 入力層の各ノードの出力値に対して重み係数W1が乗算され、乗算によって得られた結果の線形結合が中間層の各ノードに入力される。中間層の各ノードの出力値に対して重み係数W2が乗算され、乗算によって得られた結果の線形結合が出力層のノードに入力される。各層の各ノードでは、例えばシグモイド関数といった非線形関数により入力値から出力値が計算されてもよい。入力層及び出力層では、出力値は入力値の線形結合であってもよい。
 学習部14は、位置指令パラメータと評価値Qとを用いて、ニューラルネットワークの重み係数W1と重み係数W2とを計算する。ニューラルネットワークの重み係数W1及び重み係数W2は、誤差逆伝播法又は勾配降下法を用いることで計算することができる。ただし、ニューラルネットワークの重み係数が得られる計算方法であれば、重み係数W1及び重み係数W2の計算方法は上述の方法に限られない。
 ニューラルネットワークの重み係数が決定されれば、位置指令パラメータと評価値Qとの関係式が得られたことになる。ここまでにおいて、3層のニューラルネットワークを用いた学習を行う例が示された。ニューラルネットワークを用いた学習は、上述の例に限定されない。
 ここまでの評価部13及び学習部14の動作によって、ニューラルネットワークによる関係式が学習結果として得られた。
 次に、学習結果保持部15を更に説明する。上述のように評価部13及び学習部14の動作によってニューラルネットワークによる関係式が得られれば、位置指令パラメータを入力として評価値Qを出力とする関数が学習結果として得られたことになる。この学習結果を用いれば、新たな位置指令パラメータに対して位置決め制御を実行しなくとも、その新たな位置指令パラメータに対応する評価値Qを得ることが可能になる。
 学習結果保持部15は、学習結果である位置指令パラメータと評価値Qとの関係式に基づいて、数値計算により、評価値Qが最大となる位置指令パラメータを求める。このとき、学習結果保持部15は、例えばグリッド探索、ランダム探索又はニュートン法といった最適化アルゴリズムを用いる。
 上述のように、評価部13及び学習部14の動作によって指令パラメータと評価値との関係を学習することができる。加えて、学習結果保持部15の動作によれば、学習結果を用いることで評価値Qを最大とするような優良な位置指令パラメータを見つけることが可能である。この学習結果を用いれば位置決め制御を実施しなくても位置指令パラメータに対応する評価値Qを取得することができるため、位置決め制御装置10は、必ずしも優良パラメータを用いた位置決め制御を行なっていなくとも、優良パラメータを見つけることが可能である。よって、位置決め制御装置10は、操作者の試行錯誤を必要とせず、位置指令パラメータを適切に調整することができる。
 次に、パラメータ範囲設定部16を更に説明する。上述のように、学習結果保持部15は、学習結果に基づいて評価値Qを最大とする位置指令パラメータを求め、求められた位置指令パラメータを優良パラメータとする。学習結果保持部15は、運転条件17に含まれる情報が示す目標移動距離Dと優良パラメータとを併せて保持する。複数の異なる運転条件において学習が行われた場合、学習結果保持部15は、複数の目標移動距離Dに対応する複数の優良パラメータを保持する。
 パラメータ範囲設定部16は、学習結果保持部15に保持される運転条件17と学習結果とに基づいてパラメータ範囲を設定する。次に、パラメータ範囲設定部16によって行われるパラメータ範囲の設定方法を、図5を用いて説明する。図5は、実施の形態1における目標移動距離Dと優良パラメータとの関係を示すグラフである。図5では、優良パラメータは目標移動距離Dの1次元の関数で表現されている。
 目標移動距離D1及び目標移動距離D2についての学習が既に実施されていて、目標移動距離D1に対応する優良パラメータPex1と目標移動距離D2に対応する優良パラメータPex2とが見つけられて学習結果保持部15に保持されていることを想定する。この状況で、目標移動距離D1とも目標移動距離D2とも異なる目標移動距離D3について学習を行うことを想定する。学習結果保持部15は、目標移動距離D3に対応する優良パラメータPex3を下記の式(29)を用いて補間計算を行って推定する。
Figure JPOXMLDOC01-appb-M000029
 式(29)に示すように、学習結果保持部15は、優良パラメータPex3を推定する補間方法として、過去の2つの学習結果を用いた線形補間を行う。しかしながら、学習結果保持部15は、線形補間を行うのではなく、スプライン補間又はラグランジュ補間を用いる方法によって優良パラメータPex3を推定してもよい。
 パラメータ範囲設定部16は、推定された優良パラメータPex3を用いて、パラメータ範囲の上限値ULと下限値LLとを下記の式(30)又は式(31)を用いて計算する。
Figure JPOXMLDOC01-appb-M000030
Figure JPOXMLDOC01-appb-M000031
 上述の上限値UL及び下限値LLの計算方法は、上限値UL及び下限値LLの計算方法のひとつの例である。上限値UL及び下限値LLの計算方法は、推定される優良パラメータPex3より大きい値を上限値ULとし、優良パラメータPex3より小さい値を下限値LLとして計算される方法であればよく、上述の計算方法に限定されない。
 パラメータ範囲設定部16は、計算によって得られた上限値UL及び下限値LLを新たなパラメータ範囲の上限値及び下限値として、パラメータ範囲を変更する。
 上述の通り、パラメータ範囲設定部16が学習結果に基づいてパラメータ範囲の上限値ULと下限値LLとを計算するため、位置決め制御装置10は、パラメータ範囲の変更のために装置の操作者の試行錯誤を必要としない。
 目標移動距離Dが変更された場合、パラメータ範囲設定部16は、変更後の目標移動距離Dに対応する優良パラメータの推定値の周辺をパラメータ範囲として設定することができ、パラメータ範囲を小さく絞ることが可能である。そのため、パラメータ範囲設定部16は、より少ない位置決め制御の試行回数で優良パラメータを見つけることが可能である。ゆえに、位置決め制御装置10は、位置指令の指令形状の調整を短時間で行うことが可能である。
 実施の形態1では、指令形状を規定する位置指令パラメータの個数が7個である例が示された。さらに多くのパラメータによってより高い設計自由度が与えられる場合にも、実施の形態1の方法は適用可能である。設計自由度がより小さい場合に対しても、実施の形態1の方法を適用することができる。
 実施の形態1では、位置指令パラメータと評価値Qとの関係式を構築するために、ニューラルネットワークが用いられた。しかしながら、位置指令パラメータと評価値Qとの関係を得ることができれば、ニューラルネットワークは用いられなくてもよい。例えば2次多項式のような単純な関数により位置指令パラメータと評価値Qとの関係が得られてもよいし、ガウス過程モデルのような確率モデルにより位置指令パラメータと評価値Qとの関係が得られてもよい。
 実施の形態1では、目標移動距離が変更される際に指令形状の探索範囲を適切に設定することができることを述べたが、パラメータ範囲設定部16がもたらす効果は目標移動距離の変更の際にのみ得られると限られない。例えば、装置の連続運転による発熱又は経年劣化の影響により装置の機械振動の特性が変化した場合、位置決め制御装置10は、過去の学習で見つけた優良パラメータの周辺を探索することができるため、より少ない位置決め制御の試行回数で機械特性の変化に対応する良好な位置指令パラメータを見つけることが可能である。
 実施の形態1にかかる位置決め制御装置10は、目標移動距離が変更された場合にも、指令形状の探索範囲を適切に設定することができ、ひいては指令形状の調整を効率良く行うことができる。
 上述のことから、実施の形態1にかかる位置決め制御装置10は、位置決め制御を高速化する良好な指令形状を探索する際、指令形状の探索範囲を適切に設定することができ、ひいては指令形状の調整を効率良く行うことができる。
 位置指令生成部11は、位置指令の信号を二回微分した信号である加速度指令信号が零より大きい一定値又は零より小さい一定値となる時間が存在するように、位置指令の信号の形状を定めてもよい。位置指令生成部11は、位置指令の信号を三回微分した信号であるジャークの信号が零より大きい一定値又は零より小さい一定値となる時間が存在するように、位置指令の信号の形状を定めてもよい。位置指令生成部11は、ジャークの信号が零より大きい一定値又は零より小さい一定値となる時間を示す情報を位置指令パラメータに含めてもよい。位置指令生成部11は、ジャークの信号が零より大きい一定値又は零より小さい一定値となる時間におけるジャークの信号の大きさを示す情報を位置指令パラメータに含めてもよい。
 実施の形態1では、学習部14は位置指令パラメータを入力として評価値Qの推定値を計算する関数を学習結果として得るが、これに加えて、位置決め制御に使用された位置指令パラメータと位置決め制御を実行することによって得られた評価値Qとの組を学習結果に含めてもよい。これにより、学習結果保持部15は位置指令パラメータと位置決め制御を実行することによって得られた評価値Qとの組の中からも優良パラメータを選定することができる。
 実施の形態1にかかる位置決め制御装置10によれば、学習部14の学習によって得られた位置指令パラメータが位置指令生成部(学習器)11に設定され、位置指令生成部(学習器)11が位置指令を生成することで高速な位置決め制御を実現することができる。
実施の形態2.
 実施の形態1にかかる位置決め制御装置10は、位置決め制御の目標移動距離が変更される場合にも指令形状の探索範囲を適切に設定し、効率よく指令形状を探索する。実施の形態2では、位置決め制御の目標停止位置が変更される場合にも、指令形状の探索範囲を適切に設定することができる位置決め制御装置について説明する。
 図6は、実施の形態2にかかる位置決め制御装置20の構成を示す図である。図6に示すように、位置決め制御装置20は、モータ1と位置検出器4とに接続される。位置決め制御装置20には、位置決め制御装置20の外部から運転条件27が与えられる。運転条件27は、モータ1を駆動させるための目標移動距離の情報と目標停止位置の情報とを含む。位置決め制御装置20は、運転条件27を満たすように位置決め制御を実行する。
 位置決め制御装置20は、位置指令生成部11と、駆動制御部12と、評価部13と、学習部14と、学習結果保持部25と、パラメータ範囲設定部26とを有する。実施の形態2では、実施の形態1において説明された構成要素については詳細な説明を省略する。
 学習結果保持部25は、学習部14の学習結果を入力とし、学習結果と目標停止位置とを対応付けて保持する。学習結果保持部25は、学習結果である位置指令パラメータと評価値との関係式に基づいて、数値計算により、評価値が最大となる位置指令パラメータを求める。例えば、学習結果保持部25は、グリッド探索や、ランダム探索又はニュートン法といった最適化アルゴリズムを用いて評価値を最大とする位置指令パラメータを求める。学習結果保持部25は、評価値が最大となる位置指令パラメータを優良パラメータ(第二の優良パラメータ)として求めて保持し、優良パラメータと目標停止位置とを対応付けて出力する。
 学習結果保持部25は、評価値を最大とする位置指令パラメータを優良パラメータとすることなく、良好な位置決め制御を示す位置指令パラメータを優良パラメータとしてもよい。
 パラメータ範囲設定部26は、優良パラメータと運転条件27に含まれる情報が示す目標停止位置とに基づいて、位置指令パラメータの上限値と下限値とを定めるパラメータ範囲を決定して出力する。パラメータ範囲設定部26は、運転条件27に含まれる情報が示す目標停止位置が変更された場合、過去に学習が実行されたときの目標停止位置に基づいて補間計算を行って、変更後の目標停止位置に対応する補間点の優良パラメータを推定する。加えて、パラメータ範囲設定部26は、推定された補間点の優良パラメータより小さい値をパラメータ範囲の下限とすると共に、推定された補間点の優良パラメータより大きい値をパラメータ範囲の上限として、パラメータ範囲を設定する。
 具体的には、パラメータ範囲設定部26は、目標停止位置と優良パラメータとの関係を示す1次関数式を作成しておき、目標停止位置が変更されれば、作成された1次関数式に基づいて、変更された目標停止位置についての優良パラメータの推定値を求める。パラメータ範囲設定部26は、優良パラメータの推定値より大きい値を上限値として設定し、優良パラメータの推定値より小さい値を下限値として設定する。位置指令パラメータが複数存在する場合、パラメータ範囲設定部26は、複数の位置指令パラメータの各々について上限値及び下限値を定める。
 パラメータ範囲設定部26は、変更された目標停止位置に対応する優良パラメータの推定値を得ることができれば、優良パラメータと目標停止位置との関係を示す1次関数式を作成することなく、他の規則に基づいて計算を行ってもよい。
 パラメータ範囲設定部26が目標停止位置に基づいてパラメータ範囲を決定する点を除いて、位置決め制御装置20の動作は、実施の形態1にかかる位置決め制御装置10の動作と同じである。そのため、評価部13、学習部14及び学習結果保持部25の動作によって得られる効果は、実施の形態1で説明された効果と同様である。
 学習結果保持部25は、学習部14の学習結果に基づいて、評価値Qを最大とする位置指令パラメータを求め、求められた位置指令パラメータを優良パラメータとする。学習結果保持部25は、運転条件27に含まれる情報が示す目標停止位置と優良パラメータとを併せて保持する。複数の異なる運転条件において学習が行われた場合、学習結果保持部25は、複数の目標停止位置SPに対応する複数の優良パラメータを保持する。
 パラメータ範囲設定部26は、学習結果保持部25によって保持される運転条件27と学習結果とに基づいてパラメータ範囲を設定する。このときのパラメータ範囲の設定方法を、図7を用いて説明する。図7は、実施の形態2における目標停止位置SPと優良パラメータとの関係を示すグラフである。図7では、優良パラメータは目標停止位置SPの1次元関数で表現されている。
 目標停止位置SP1と目標停止位置SP2とについて学習が既に実施されていて、目標停止位置SP1についての優良パラメータPex1と目標停止位置SP2についての優良パラメータPex2とが見つけられて、学習結果保持部25によって保持されていることを想定する。この状況で、目標停止位置SP1とも目標停止位置SP2とも異なる目標停止位置SP3について学習を行うことを想定する。目標停止位置SP3に対応する優良パラメータPex3は、下記の式(32)が用いられて推定される。
Figure JPOXMLDOC01-appb-M000032
 式(32)に示すように、学習結果保持部25は、優良パラメータPex3を推定する補間方法として、過去の2つの学習結果を用いた線形補間を行う。しかしながら、学習結果保持部25は、線形補間を行うのではなく、スプライン補間又はラグランジュ補間を用いる方法によって優良パラメータPex3を推定してもよい。
 パラメータ範囲設定部26は、推定された優良パラメータPex3を用いて、パラメータ範囲の上限値ULと下限値LLとを、下記の式(33)又は式(34)を用いて計算する。
Figure JPOXMLDOC01-appb-M000033
Figure JPOXMLDOC01-appb-M000034
 上述の上限値UL及び下限値LLの計算方法は、上限値UL及び下限値LLの計算方法のひとつの例である。上限値UL及び下限値LLの計算方法は、推定される優良パラメータPex3より大きい値を上限値ULとし、優良パラメータPex3より小さい値を下限値LLとして計算される方法であればよく、上述の計算方法に限定されない。
 パラメータ範囲設定部26は、計算によって得られた上限値UL及び下限値LLを新たなパラメータ範囲の上限値及び下限値として、パラメータ範囲を変更する。
 パラメータ範囲設定部26が学習結果に基づいてパラメータ範囲の上限値ULと下限値LLとを計算するため、位置決め制御装置20は、パラメータ範囲の変更のために装置の操作者の試行錯誤を必要としない。
 目標停止位置SPが変更される場合、位置決め制御装置20は、変更後の目標停止位置に対応する優良パラメータの推定値の周辺をパラメータ範囲として設定することができ、パラメータ範囲を小さく絞ることが可能である。そのため、位置決め制御装置20は、より少ない位置決め制御の試行回数で優良パラメータを見つけることが可能である。ゆえに、位置決め制御装置20は、位置指令の指令形状の調整を短時間で行うことが可能である。
 ボールねじ機構又はリニア機構のような直動型の機構を持つ装置においての位置決め制御では、制御対象3の停止位置が異なれば、装置の剛性の低さに起因して生じる機械振動の特性が異なる。そのため、目標移動量が同じであっても、目標停止位置が変更されると、従来の技術では、機械振動の影響により高速な位置決め制御を行うことができない場合がある。
 実施の形態2にかかる位置決め制御装置20は、目標停止位置が変更されても、指令形状の探索範囲を適切に設定することができ、ひいては指令形状の調整を効率良く行うことができる。
 実施の形態2におけるパラメータ範囲設定部26は、パラメータ範囲の計算のために目標停止位置に対する優良パラメータの関係式を構築するが、目標停止位置と目標移動距離との両方に対する優良パラメータの関係式を構築してもよい。この場合、目標停止位置と目標移動距離との両方が変更されても、パラメータ範囲設定部26は、両方に対する優良パラメータを推定し、適切なパラメータ範囲を設定することができる。
 上述のことから、実施の形態2にかかる位置決め制御装置20は、位置決め制御を高速化する良好な指令形状を探索して調整を行う際に、指令形状の探索範囲を適切に設定することができ、ひいては指令形状の調整を効率良く行うことができる。
実施の形態3.
 実施の形態1にかかる位置決め制御装置10は、位置決め時間を最小とする指令形状を探索する。実施の形態3では、評価値の計算方法が異なる場合についても、指令形状の探索範囲を適切に設定することができる位置決め制御装置について説明する。
 図8は、実施の形態3にかかる位置決め制御装置30の構成を示す図である。図8に示すように、位置決め制御装置30は、モータ1と位置検出器4とに接続される。位置決め制御装置30には、位置決め制御装置30の外部から運転条件17が与えられる。運転条件17は、モータ1を駆動させるための目標移動距離を示す情報を含む。位置決め制御装置30は、運転条件17を満たすように位置決め制御を実行する。
 位置決め制御装置30は、位置指令生成部11と、駆動制御部12と、評価部33と、学習部14と、学習結果保持部15と、パラメータ範囲設定部16とを有する。実施の形態3では、実施の形態1において説明された構成要素については詳細な説明を省略する。
 評価部33は、位置検出値を入力とし、駆動制御部12による位置決め制御の良し悪しを評価するための評価値Qを後述する方法で計算して出力する。駆動制御部12は、位置指令に基づいて動作する。位置指令は、位置指令パラメータに基づいて計算される。したがって、評価部33によって計算される評価値Qは、位置指令パラメータの値に依存する。つまり、評価値33によって計算される評価値Qは、位置指令パラメータを評価するための指標であるといえる。
 評価値Qの具体的な計算方法を述べる。ここでは、位置決め制御の開始から、目標移動距離と位置検出値との偏差の大きさが許容値IMPより小さくなる位置決め完了までの時間を位置決め時間とする。位置決め時間Tstが小さい場合、評価値Qが大きな値を示す設定が行われる。実施の形態3では、偏差の大きさが許容値IMPより小さくなった後の残留振動の偏差の大きさについても評価をする。
 図9は、実施の形態3における偏差の時間応答を示す図である。図9に示すように、偏差の大きさがあらかじめ決められた第2許容値IMP2より小さくなった後の残留振動の偏差の最大値を残留振動振幅AMPとする。第2許容値IMP2の範囲は、許容値IMPの範囲より狭い。残留振動振幅AMPの大きさが第2許容値IMP2より大きい場合、評価部33は評価値Qにペナルティを付与する。つまり、評価部33は、モータ1又は制御対象3の位置の残留振動の振幅である残留振動振幅AMPがあらかじめ決められた値以上である場合、評価値Qを減少させる計算を行う。具体的には、評価部33は下記の式(35)を用いて評価値Qを計算する。
Figure JPOXMLDOC01-appb-M000035
 γは、正の値である。max(x1,x2)は、2つの引数x1と引数x2とのうちの大きい方を出力する関数である。
 式(35)によれば、右辺の第1項により位置決め時間Tstが小さいほど評価値Qは大きな値になるが、右辺の第2項により残留振動振幅AMPが第2許容値IMP2より大きい場合には評価値Qが小さい値になる。つまり、位置決め時間Tstが小さく、かつ残留振動振幅AMPが第2許容値IMP2より小さい場合に評価値Qが大きい値となり、そのときの位置指令パラメータが良好な位置指令パラメータであるといえる。ただし、評価値Qは、位置決め制御を評価することができれば、式(35)を用いずに算出されてもよい。
 評価部33が残留振動振幅AMPを評価値Qの計算に用いる点を除くと、位置決め制御装置30の動作は、実施の形態1にかかる位置決め制御装置10の動作と同じである。そのため、学習部14、学習結果保持部15及びパラメータ範囲設定部16の動作に基づいて得られる効果は、実施の形態1で説明された効果と同様である。
 評価部33の動作によれば、位置決め制御装置30は、残留振動振幅AMPを第2許容値IMP2の大きさより小さい値に抑えつつ、位置決め時間を短時間化するような位置決め制御を実現することが可能である。
 図10は、実施の形態3において第4組目の位置指令パラメータと第5組目の位置指令パラメータとが用いられた場合の偏差の時間応答を示す図である。第4組目の「4」及び第5組目の「5」は、第4組目及び第5組目を実施の形態1の第1組目から第3組目までと区別するために付与された数字であり、これらの数字に区別以外の意味はない。図10(a)は、第4組目の位置指令パラメータが用いられた場合の偏差の時間応答を示している。図10(b)は、第5組目の位置指令パラメータが用いられた場合の偏差の時間応答を示している。
 図10に示す通り、第4組目の位置指令パラメータが用いられた場合の位置決め時間Tst4と第5組目の位置指令パラメータが用いられた場合の位置決め時間Tst5とを比較すると、Tst4<Tst5である。つまり、第4組目の位置指令パラメータが用いられた場合の位置決め時間Tst4は、第5組目の位置指令パラメータが用いられた場合の位置決め時間Tst5より短い。ただし、第4組目の位置指令パラメータが用いられた場合の残留振動振幅AMP4が第2許容値IMP2より大きいため、評価値Qにペナルティが付与される。図10(b)には、第5組目の位置指令パラメータが用いられた場合の残留振動振幅AMP5が示されている。
 このとき下記の式(36)が成立するようにγを設定しておくことで、第4組目の位置指令パラメータの評価値Q4より、第5組目の位置指令パラメータの評価値Q5に大きな値を与えることができる。
Figure JPOXMLDOC01-appb-M000036
 評価値Qの計算方法以外は、位置決め制御装置30の動作は実施の形態1にかかる位置決め制御装置10の動作と同様である。つまり、位置決め制御装置30は、評価値Qが最大となるように位置指令の指令形状を調整することができる。
 評価部33の動作によれば、位置決め制御装置30は、残留振動振幅AMPが第2許容値IMP2を満たす範囲の中で、評価値Qを最大にする指令形状を調整することが可能となる。
 目標移動距離が変更された場合、位置決め制御装置30は、変更後の目標移動距離に対応する優良パラメータ(第一の優良パラメータ)の推定値の周辺をパラメータ範囲として設定することができ、パラメータ範囲を小さく絞ることが可能である。そのため、位置決め制御装置30は、より少ない位置決め制御の試行回数で優良パラメータを見つけることが可能である。
 電子部品実装機においては、位置決め制御が完了した後に電子部品の実装が行なわれる。その際、位置決め完了後の振動振幅が大きいと電子部品の実装精度が悪化する場合がある。つまり、位置決め時間が小さいことに加えて、位置決め完了後の残留振動振幅が小さいことが求められる。
 実施の形態3にかかる位置決め制御装置30は、位置決め完了後の残留振動振幅を第2許容値の範囲に抑えつつ、良好な指令形状を探索することが可能である。
 実施の形態3における評価部33は、位置決め完了後の偏差の振幅の最大値が第2許容値より大きい場合にペナルティを付与する。しかしながら、ペナルティの与え方は上述した方法に限られない。例えば、評価部33は、残留振動振幅が極大となるときの複数の残留振動振幅の値に対してペナルティを付与してもよいし、位置決め完了後の一定の時間のみの残留振動振幅が評価されるように時間についての条件をパラメータに加えてもよい。
 上述のことから、実施の形態3にかかる位置決め制御装置30は、位置決め制御を高速化する良好な指令形状を探索する際に、指令形状の探索範囲を適切に設定することができ、ひいては指令形状の調整を効率良く行うことができる。
 図11は、実施の形態1にかかる位置決め制御装置10が有する位置指令生成部11、駆動制御部12、評価部13、学習部14、学習結果保持部15及びパラメータ範囲設定部16の一部又は全部の機能がプロセッサ71によって実現される場合のプロセッサ71を示す図である。つまり、位置指令生成部11、駆動制御部12、評価部13、学習部14、学習結果保持部15及びパラメータ範囲設定部16の一部又は全部の機能は、メモリ72に格納されるプログラムを実行するプロセッサ71によって実現されてもよい。
 プロセッサ71は、CPU(Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、又はDSP(Digital Signal Processor)である。図11には、メモリ72も示されている。
 位置指令生成部11、駆動制御部12、評価部13、学習部14、学習結果保持部15及びパラメータ範囲設定部16の一部又は全部の機能がプロセッサ71によって実現される場合、当該一部又は全部の機能は、プロセッサ71と、ソフトウェア、ファームウェア、又は、ソフトウェア及びファームウェアとの組み合わせにより実現される。ソフトウェア又はファームウェアはプログラムとして記述され、メモリ72に格納される。プロセッサ71は、メモリ72に記憶されたプログラムを読み出して実行することにより、位置指令生成部11、駆動制御部12、評価部13、学習部14、学習結果保持部15及びパラメータ範囲設定部16の一部又は全部の機能を実現する。
 位置指令生成部11、駆動制御部12、評価部13、学習部14、学習結果保持部15及びパラメータ範囲設定部16の一部又は全部の機能がプロセッサ71によって実現される場合、位置決め制御装置10は、位置指令生成部11、駆動制御部12、評価部13、学習部14、学習結果保持部15及びパラメータ範囲設定部16の一部又は全部によって実行されるステップが結果的に実行されることになるプログラムを格納するためのメモリ72を有する。メモリ72に格納されるプログラムは、位置指令生成部11、駆動制御部12、評価部13、学習部14、学習結果保持部15及びパラメータ範囲設定部16の一部又は全部が実行する手順又は方法をコンピュータに実行させるものであるともいえる。
 メモリ72は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(登録商標)(Electrically Erasable Programmable Read-Only Memory)等の不揮発性もしくは揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク又はDVD(Digital Versatile Disk)等である。
 図12は、実施の形態1にかかる位置決め制御装置10が有する位置指令生成部11、駆動制御部12、評価部13、学習部14、学習結果保持部15及びパラメータ範囲設定部16の一部又は全部が処理回路81によって実現される場合の処理回路81を示す図である。つまり、位置指令生成部11、駆動制御部12、評価部13、学習部14、学習結果保持部15及びパラメータ範囲設定部16の一部又は全部は、処理回路81によって実現されてもよい。
 処理回路81は、専用のハードウェアである。処理回路81は、例えば、単一回路、複合回路、プログラム化されたプロセッサ、並列プログラム化されたプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、又はこれらを組み合わせたものである。
 位置指令生成部11、駆動制御部12、評価部13、学習部14、学習結果保持部15及びパラメータ範囲設定部16の一部は、残部とは別個の専用のハードウェアであってもよい。
 位置指令生成部11、駆動制御部12、評価部13、学習部14、学習結果保持部15及びパラメータ範囲設定部16の複数の機能について、当該複数の機能の一部がソフトウェア又はファームウェアで実現され、当該複数の機能の残部が専用のハードウェアで実現されてもよい。このように、位置指令生成部11、駆動制御部12、評価部13、学習部14、学習結果保持部15及びパラメータ範囲設定部16の複数の機能は、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって実現することができる。
 実施の形態2にかかる位置決め制御装置20が有する位置指令生成部11、駆動制御部12、評価部13、学習部14、学習結果保持部25及びパラメータ範囲設定部26の一部又は全部の機能は、プロセッサ71と同等のプロセッサによって実現されてもよい。当該一部又は全部の機能がプロセッサによって実現される場合、位置決め制御装置20は、位置指令生成部11、駆動制御部12、評価部13、学習部14、学習結果保持部25及びパラメータ範囲設定部26の一部又は全部によって実行されるステップが結果的に実行されることになるプログラムを格納するためのメモリを有する。当該メモリは、メモリ72と同等のメモリである。
 実施の形態2にかかる位置決め制御装置20が有する位置指令生成部11、駆動制御部12、評価部13、学習部14、学習結果保持部25及びパラメータ範囲設定部26の一部又は全部の機能は、処理回路81と同等の処理回路によって実現されてもよい。
 実施の形態3にかかる位置決め制御装置30が有する位置指令生成部11、駆動制御部12、評価部33、学習部14、学習結果保持部15及びパラメータ範囲設定部16の一部又は全部の機能は、プロセッサ71と同等のプロセッサによって実現されてもよい。当該一部又は全部の機能がプロセッサによって実現される場合、位置決め制御装置30は、位置指令生成部11、駆動制御部12、評価部33、学習部14、学習結果保持部15及びパラメータ範囲設定部16の一部又は全部によって実行されるステップが結果的に実行されることになるプログラムを格納するためのメモリを有する。当該メモリは、メモリ72と同等のメモリである。
 実施の形態3にかかる位置決め制御装置30が有する位置指令生成部11、駆動制御部12、評価部33、学習部14、学習結果保持部15及びパラメータ範囲設定部16の一部又は全部の機能は、処理回路81と同等の処理回路によって実現されてもよい。
実施の形態4.
 図13は、実施の形態4にかかる位置決め制御装置40の構成を示す図である。実施の形態4では、実施の形態1において説明された構成要素については詳細な説明を省略する。位置決め制御装置40は、モータ1を駆動させて制御対象3を目標移動距離だけ移動させるための位置指令を、当該位置指令の形状を定める位置指令パラメータに基づいて生成する位置指令生成部41を有する。位置指令生成部41は、実施の形態1の位置指令生成部11が有する機能を有する。位置決め制御装置40は、モータ1又は制御対象3の位置検出値が位置指令生成部41によって生成された位置指令に追従するようにモータ1を駆動する駆動制御部12を更に有する。
 位置指令生成部41は、モータ1の位置指令を生成して駆動制御部12に出力する。位置指令パラメータは、位置指令の指令形状を規定するパラメータである。実施の形態4で用いられる位置指令と、位置指令の一階微分である速度指令と、位置指令の二階微分である加速度指令と、加速度指令の一階微分であるジャークとの各々の形状は、実施の形態1で図2を用いて示した形状と同様である。図2の加速度指令において、第1区間から第3区間までの加速区間の台形形状と、第5区間から第7区間までの減速区間の台形形状とは合同でなくてもよい。加速区間の第1時間長T1と第3時間長T3とを0として、加速度指令の形状を矩形形状としてもよい。第1時間長T1から第7時間長T7までの7個のパラメータが、位置指令パラメータである。
 位置決め制御装置40は、制御対象3についての位置決め制御の実行時のモータ1又は制御対象3の位置検出値に基づいて、駆動制御部12による位置決め制御の良し悪しを評価するための評価値を算出する評価部43を更に有する。評価部43は、実施の形態1の評価部13が有する機能を有する。位置決め制御装置40は、位置指令パラメータが変更されて複数回の制御対象3についての位置決め制御が実行された場合の位置指令パラメータと評価部43によって算出された評価値との関係を学習して学習結果を得る学習部44を更に有する。学習部44は、実施の形態1の学習部14が有する機能を有する。以下に、評価部43及び学習部44について更に説明する。
 評価部43は、位置検出器4による検出の結果である位置検出値を示す情報を位置検出器4から受け取り、駆動制御部12による位置決め制御の良し悪しを評価するための評価値Qを後述する方法で計算して出力する。駆動制御部12は位置指令に基づいて動作し、位置指令は位置指令パラメータに基づいて計算される。したがって、評価部43によって算出される評価値Qは位置指令パラメータの値に依存する。つまり、評価値Qは位置指令パラメータを評価するための指標であるといえる。実施の形態4では、実施の形態1と同様の方法で評価値Qは計算され、評価値Qが大きな値であるほど、位置指令パラメータは優良であるといえる。
 学習部44は、評価値Qを入力として位置指令パラメータと評価値Qとの関係を学習して学習結果を得る。具体的には、学習部44は、位置指令パラメータに対応する評価値Qの平均値と分散値とを推定する関数を更新して学習を行う。学習部44は、学習を行うことで、位置指令パラメータに対応した評価値Qの平均値と、位置指令パラメータに対応する評価値Qの分散値とを計算して推定することが可能となる。平均値と分散値とを計算するための関数には、ガウス過程モデルが用いられてもよい。このように、学習部44は位置指令パラメータと評価値Qとの関係式を得る。
 学習部44は、次の位置決め制御を実行するための位置指令パラメータを選定して位置指令生成部41に出力する。学習部44は、次の位置指令パラメータの選定にあたって、学習結果に基づいて評価値Qの平均値と分散値との和が最大値を示す位置指令パラメータを選定する。
 学習部44は、位置指令パラメータを変更しつつあらかじめ決められた回数を終えるまで繰り返し実行された位置決め制御によって評価部43から得られた評価値Qの中から、評価値Qを最大とした位置指令パラメータを位置指令生成部41に出力する。
 実施の形態4にかかる位置決め制御装置40の機能を更に説明する。学習部44は、1組の位置指令パラメータを決定し、決定された位置指令パラメータを位置指令生成部41に出力する。位置指令生成部41は、入力された位置指令パラメータに基づいて位置指令を計算する。位置指令生成部41は、実施の形態1の位置指令生成部11と同様に、指令形状を規定するために7個の位置指令パラメータを使用する。従来の技術で多く用いられる加速度及び速度の2個のパラメータにより指令形状を規定する方法と比較すると、実施の形態4における調整の自由度は従来のそれより高い。そのため、位置指令パラメータを適切に調整することができれば、位置決め制御装置40は、制御対象3が載置されている装置の機械振動の影響を受ける状況であっても、良好な応答を示す位置決め制御を実現することができる。
 他方、制御対象3が載置されている装置の操作者が当該装置を動作させつつ、試行錯誤によって上記の7個のパラメータを人手で調整する場合、比較的大きな労力及び比較的長い時間が必要となる。以下では、位置決め制御装置40が評価部43及び学習部44を有することにより、位置決め制御装置40が操作者の試行錯誤を必要とせず、位置指令パラメータを適切に調整することができることを説明する。
 評価部43及び学習部44の動作によれば、学習部44による位置指令パラメータの変更と、変更された位置指令パラメータが用いられた位置決め制御と、評価部43による評価値Qの計算とが繰り返し実行される。この繰り返し実行される評価部43及び学習部44の動作を説明する。
 図14は、実施の形態4にかかる位置決め制御装置40が位置指令パラメータを調整する際の動作の手順を示すフローチャートである。ステップS1において、位置指令生成部41に位置指令パラメータの初期値が設定される。位置指令パラメータの初期値は、どのような値でもかまわない。ステップS2において、ステップS1で設定された位置指令パラメータに基づいて計算された位置指令によって位置決め制御が実行される。
 ステップS3において、評価部43が評価値Qを計算する。ステップS4において、位置決め制御装置40は、あらかじめ決められた回数の位置決め制御が終了したか否かを判定する。図14のステップS4では、あらかじめ決められた回数は「所定回数」と記載されている。位置決め制御装置40があらかじめ決められた回数の位置決め制御が終了したと判定した場合(S4でYes)、位置決め制御装置40の動作はステップS7に移行する。位置決め制御装置40があらかじめ決められた回数の位置決め制御が終了していないと判定した場合(S4でNo)、位置決め制御装置40の動作はステップS5に移行する。ステップS5において、学習部44は、位置指令パラメータと取得された評価値Qとに基づいて、評価値Qの平均値と評価値Qの分散値とを計算する関数を更新する。
 ステップS6において、学習部44は、ステップS5で更新された関数に基づいて、評価値Qの平均値と分散値との和が最大となる位置指令パラメータを求める。ステップS6で求められた位置指令パラメータによって位置決め制御を再度実行して評価値を得るべく、位置決め制御装置40の動作はステップS1に移行する。他方、ステップS4において、位置決め制御装置40があらかじめ決められた回数の位置決め制御が終了したと判定した場合(S4でYes)、あらかじめ決められた数の評価値Qが得られた状態である。
 ステップS7において、位置決め制御装置40は、あらかじめ決められた数の評価値Qの中から、評価値Qを最大とする位置指令パラメータを選定し、位置指令生成部41に設定する。ステップS7の動作が終了すると、位置指令パラメータの調整は終了する。
 上述のように、学習部44は、ステップS5において指令パラメータと評価値との関係を学習し、位置指令パラメータに対応する評価値Qの平均値と分散値とを得ることができる。学習部44は、ステップS6において、評価値Qの平均値と分散値との和を最大とする位置指令パラメータを求める。求められた位置指令パラメータは、次回の位置決め制御に用いられる。
 次に、平均値と分散値との和を最大とする位置指令パラメータを次回の位置決め制御に用いることによって得られる効果を説明する。図15は、実施の形態4にかかる位置決め制御装置40によって得られる効果を説明するための第1図である。図16は、実施の形態4にかかる位置決め制御装置40によって得られる効果を説明するための第2図である。
 評価部43及び学習部44の動作が2回実行された後に第3組目の位置指令パラメータが選定される過程を説明する。第1組目の位置指令パラメータは位置指令パラメータPr11と表記され、第2組目の位置指令パラメータは位置指令パラメータPr12と表記され、第3組目の位置指令パラメータは位置指令パラメータPr13と表記される。
 図15及び図16は、説明のために位置指令パラメータを1次元に簡略化して示している。評価部43及び学習部44の動作が2回実行された場合、図15の丸印で示すように、位置指令パラメータPr11に対応する評価値Q11と、位置指令パラメータPr12に対応する評価値Q12とが得られる。学習部44は、得られた評価値Q11と評価値Q12とに基づく学習を行い、位置指令パラメータに対応する評価値Qの平均値と分散値とを計算する関数を更新する。
 図15に示す平均値を示す曲線と、平均値と分散値との和を示す曲線とが、学習部44により得られた関数に基づいて計算される。図15に示すように、位置指令パラメータPr11と位置指令パラメータPr12との中間点のように、取得されたデータからの距離が遠いほど評価値の不確実性が高いため、分散値は大きくなる。学習部44の動作により、評価値の平均値と分散値との和が最大となる図15の星印の点に対応する位置指令パラメータPr13が次の位置指令パラメータとして選定される。
 位置指令パラメータPr13を用いて位置指令が計算されて位置決め制御が行われた結果として、図16に示すように、評価値Q13が得られる。評価値Q13は、評価値Q11及び評価値Q12より大きい値であると仮定する。この段階で調整が終了した場合、評価値Q13が最大となるため、調整終了時点で位置指令パラメータPr13が最も優良なパラメータとなる。
 仮に、第3組の位置指令パラメータを選定する段階で、評価値Qの平均値と分散値との和の最大値でなく、評価値Qの平均値の最大値を選ぶ場合を想定する。図15において平均値の曲線の最大値は位置指令パラメータPr13の点ではないため、第3組目の位置指令パラメータとして位置指令パラメータPr13が選定されることはない。そのため、評価値Qの平均値の最大値を選ぶ場合には優良なパラメータを選定することができない可能性がある。
 上述のように、分散値は過去に取得されたデータからの距離が遠い点において大きくなる傾向がある。平均値は、過去に取得されたデータに基づいて良好と推定される点において大きくなる傾向がある。つまり、位置決め制御装置40は、平均値と分散値との和が最大となる点を次の位置指令パラメータとして選定することで、比較的大きな評価値Qを得るための探索と搾取とのバランスを良好に保つことができ、調整の終了時に比較的大きな評価値Qを得る位置指令パラメータを見つけることができる。
 よって、実施の形態4にかかる位置決め制御装置40は、操作者の試行錯誤を必要とせず、位置指令パラメータを適切に調整することができる。上述のことから、位置決め制御装置40は、位置決め制御を高速化する良好な指令形状の調整を効率良く行うことができる。
 実施の形態4では、位置決め制御装置40は、評価値Qの平均値と分散値との和が最大となる点を次の位置指令パラメータとして選定する。しかしながら、位置決め制御装置40は、評価値Qの平均値に分散値の2倍を加算した値が最大となる点に対応する位置指令パラメータを次の位置指令パラメータとして選定してもよい。位置決め制御装置40は、学習して得られた評価関数の平均値と分散値とを使って、EI(Expected Improvement)関数、PI(Probability of Improvement)関数又はその他の獲得関数を計算してもよい。
 実施の形態4では、位置決め制御装置40は、評価値Qの平均値と分散値との和が最大となる点を次の位置指令パラメータとして選定する。位置決め制御装置40は、このとき評価値Qの平均値と分散値との和が最大となる点を見つけるにあたり、各位置指令パラメータを等間隔に刻んだグリッドの点のなかから順に評価値Qの平均値と分散値とを計算して、グリッドのなかで評価値Qの平均値と分散値とが最大となる位置指令パラメータを選定してもよい。また、位置決め制御装置40は、評価値Qの平均値と分散値との和が最大となる点を見つけるにあたり、疑似ランダム関数に基づくランダム探索により評価値Qの平均値と分散値とが最大となる位置指令パラメータを選定してもよい。
実施の形態5.
 実施の形態4にかかる位置決め制御装置40は、位置指令パラメータと評価値Qとの関係式を用いて位置指令パラメータを変更することで位置指令パラメータを適切に調整する。実施の形態5では、疑似ランダム関数を用いて位置指令パラメータを適切に調整する位置決め制御装置について説明する。
 図17は、実施の形態5にかかる位置決め制御装置50の構成を示す図である。実施の形態5では、実施の形態1において説明された構成要素については詳細な説明を省略する。位置決め制御装置50は、モータ1を駆動させて制御対象3を目標移動距離だけ移動させるための位置指令を、当該位置指令の形状を定める位置指令パラメータに基づいて生成する位置指令生成部51を有する。位置指令生成部51は、実施の形態1の位置指令生成部11が有する機能を有する。位置決め制御装置50は、モータ1又は制御対象3の位置検出値が位置指令生成部51によって生成された位置指令に追従するようにモータ1を駆動する駆動制御部12を更に有する。
 位置指令生成部51は、モータ1の位置指令を生成して駆動制御部12に出力する。位置指令パラメータは、位置指令の指令形状を規定するパラメータである。実施の形態5で用いられる位置指令と、位置指令の一階微分である速度指令と、位置指令の二階微分である加速度指令と、加速度指令の一階微分であるジャークとの各々の形状は、実施の形態1で図2を用いて示した形状と同様である。図2の加速度指令において、第1区間から第3区間までの加速区間の台形形状と、第5区間から第7区間までの減速区間の台形形状とは合同でなくてもよい。加速区間の第1時間長T1と第3時間長T3とを0として、加速度指令の形状を矩形形状としてもよい。第1時間長T1から第7時間長T7までの7個のパラメータが、位置指令パラメータである。
 位置決め制御装置50は、制御対象3についての位置決め制御の実行時のモータ1又は制御対象3の位置検出値に基づいて、駆動制御部12による位置決め制御の良し悪しを評価するための評価値を算出する評価部13を更に有する。位置決め制御装置50は、位置指令パラメータが変更されて複数回の制御対象3についての位置決め制御が実行された場合の位置指令パラメータと評価部13によって算出された評価値との関係を学習し学習結果を得る学習部54を更に有する。学習部54は、実施の形態1の学習部14が有する機能を有する。
 学習部54は、疑似ランダム関数を用いて位置指令生成部51によって生成された位置指令を変更し、複数回の位置決め制御が実行される度に評価値Qを取得して、位置指令パラメータと評価値Qとの関係を学習する。学習部54は、位置指令パラメータに基づいて決定される加速区間と減速区間との各々における加速度の形状を疑似ランダム関数に基づいて独立に変更する。
 具体的に、学習部54は、PSO(Particle Swarm Optimization)を用いる。PSOは、パラメータ空間内に散りばめられた各粒子に対して評価値Qを計算し、疑似ランダム関数を用いて各粒子のパラメータ空間内での位置の更新を繰り返すことで、位置指令パラメータと評価値Qとの関係を学習しつつ、評価値Qが大きな値をとるような位置指令パラメータを見つける方法である。1つの粒子が、1つの位置指令パラメータに対応する。例えば、粒子数が10個であって、更新回数が100回である場合、合計で1000回の位置決め制御が実行され、位置指令パラメータと評価値Qとの組が1000個得られる。
 更新前の粒子の位置をx(i)とし、更新後の粒子の位置をx(i+1)とした場合、更新後の粒子の位置x(i+1)は次の式によって計算される。「i」は、自然数である。
 x(i+1)=x(i)+v(i+1)
 v(i+1)=w×v(i)+c1×r1×(xp-x(i))+c2×r2×(xg-x(i))
 上記の式において、w、c1及びc2の各々は、定数であって、1より小さい値に設定されればよい。r1及びr2の各々は、0以上1以下の範囲から疑似ランダム関数を用いて設定される疑似乱数である。xpは、各粒子がi番目までに得た評価値Qの中で、評価値Qを最大とする位置指令パラメータである。xgは、全ての粒子がi番目まで得た評価値Qの中で、評価値Qを最大とする位置指令パラメータである。
 x(i)及びv(i)の各々の初期値は、疑似ランダム関数を用いて無作為に決定される。学習部54は、i番目までに得た評価値Qを最大とする位置指令パラメータの方向に探索を行いながら、疑似ランダム関数によって位置指令パラメータを変更することで、大きな評価値Qを得るための探索と搾取とのバランスを良好に保つことができ、調整の終了時に大きな評価値Qを得る位置指令パラメータを見つけることができる。
 学習部54は、各粒子の位置の更新により、位置指令パラメータと評価値Qとの関係を学習して、評価値Qが大きな値をとるような位置指令パラメータを見つけることができる。学習部54は、学習結果として位置指令パラメータと評価値Qとの関係を得るが、位置指令パラメータと評価値Qとの組のリストを学習結果として得てもよいし、位置指令パラメータと評価値Qとの関係式を学習結果として得てもよい。
 実施の形態5では、疑似ランダム関数に基づく位置指令パラメータの変更方法として、PSOが用いられる。しかしながら、PSOの代わりに、例えばGA(genetic algorithm)又はSA(simulated annealing)といった疑似ランダム関数を使用するアルゴリズムが用いられてもよい。学習部54は、ランダムサーチにより位置指令パラメータを変更してもよい。いずれにしても、学習部54は、学習結果として、位置指令パラメータと評価値Qとの関係を得ることができる。
 上述の通り、学習部54は、位置指令パラメータと評価値Qとの関係を学習して、評価値Qが大きな値をとるような位置指令パラメータを見つけることができる。つまり、学習部54は、学習結果に基づいて、位置決め制御に用いられる位置指令パラメータを変更する。よって、位置決め制御装置50は、操作者の試行錯誤を必要とせず、位置指令パラメータを適切に調整することができる。
 上述のことから、実施の形態5にかかる位置決め制御装置50は、位置決め制御を高速化する良好な指令形状の調整を効率良く行うことができる。
実施の形態6.
 実施の形態4にかかる位置決め制御装置40は、位置指令パラメータと評価値Qとの関係式を用いて位置指令パラメータを変更することで位置指令パラメータを適切に調整する。実施の形態6では、制御対象の動作を模擬する動作模擬部を有することで位置指令パラメータを適切に調整する位置決め制御装置について説明する。
 図18は、実施の形態6にかかる位置決め制御装置60の構成を示す図である。実施の形態6では、実施の形態1において説明された構成要素については詳細な説明を省略する。位置決め制御装置60は、モータ1を駆動させて制御対象3を目標移動距離だけ移動させるための位置指令を、当該位置指令の形状を定める位置指令パラメータに基づいて生成する位置指令生成部61を有する。位置指令生成部61は、実施の形態1の位置指令生成部11が有する機能を有する。位置決め制御装置60は、モータ1又は制御対象3の位置検出値が位置指令生成部61によって生成された位置指令に追従するようにモータ1を駆動する駆動制御部12を更に有する。
 位置決め制御装置60は、制御対象3についての位置決め制御の実行時のモータ1又は制御対象3の位置検出値に基づいて、駆動制御部12による位置決め制御の良し悪しを評価するための評価値を算出する評価部13を更に有する。位置決め制御装置60は、位置指令パラメータが変更されて複数回の制御対象3についての位置決め制御が実行された場合の位置指令パラメータと評価部13によって算出された評価値との関係を学習して学習結果を得る学習部64を更に有する。学習部64は、実施の形態1の学習部14が有する機能を有する。
 位置決め制御装置60は、位置指令パラメータを入力として、学習部64に対して位置指令パラメータの再選定を指示する動作模擬部68を更に有する。動作模擬部68は、図18の動作模擬対象68aで示される範囲に含まれる要素の動作を模擬する。つまり、動作模擬部68は、位置指令パラメータを入力とし、モータ1の回転位置又は制御対象3の位置を示す位置検出値の信号を模擬する。具体的には、動作模擬部68は、位置指令パラメータに基づいて制御対象3の動作を模擬し、模擬した結果が事前に設定された制約条件を満たす場合、動作を模擬する際に用いた位置指令パラメータを位置指令生成部61に出力する。
 動作模擬部68は、位置検出値を模擬する信号と事前に設定された制約条件とに基づいて、位置指令パラメータの再計算の必要の有無を判定し、再計算の必要があると判定した場合、位置指令パラメータを再計算させる指示である再計算指示を学習部64に与える。以下に、学習部64及び動作模擬部68について更に説明する。
 学習部64は、評価値Qを入力として位置指令パラメータと評価値Qとの関係を学習して学習結果を得る。具体的には、学習部64は、位置指令パラメータに対応する評価値Qの平均値と分散値とを計算するための関数を更新して学習を行う。学習部64は、学習を行うことで位置指令パラメータに対応した評価値Qの平均値と、位置指令パラメータに対応する評価値Qの分散値とを推定することが可能となる。平均値と分散値とを計算するための関数には、ガウス過程モデルが用いられてもよい。上述のように、学習部64は位置指令パラメータと評価値Qとの関係式を得る。
 学習部64は、次の位置決め制御を実行するための位置指令パラメータを選定して動作模擬部68に出力する。学習部64は、次の位置指令パラメータの選定にあたって、学習結果に基づいて評価値Qの平均値と分散値との和が最大値を示す位置指令パラメータを選定する。
 動作模擬部68は、学習部64で選定された位置指令パラメータを受け取り、位置検出値を模擬する信号と事前に設定された制約条件とに基づいて、位置指令パラメータの再計算の必要の有無を判定し、再計算の必要があると判定した場合、位置指令パラメータを再計算させる指示である再計算指示を学習部64に与える。
 動作模擬部68は、位置検出値を模擬する信号の振幅があらかじめ決められた値以上である場合、位置指令パラメータを再計算するように、学習部64に再計算指示を与えてもよい。動作模擬部68は、位置検出値を模擬する信号が目標移動距離の値に到達する時間があらかじめ決められた時間以上である場合、位置指令パラメータを再計算するように、学習部64に再計算指示を与えてもよい。つまり、動作模擬部68は、モータ1を駆動させて位置決め制御を実行させることなく、位置指令パラメータを簡易的に評価して評価値があらかじめ決められた不良で小さい値となる場合、学習部64に対して位置指令パラメータを再度選定させる。
 位置指令パラメータの再計算指示が与えられた場合、学習部64は、学習結果に基づいて評価値Qの平均値と分散値との和が2番目に大きな値となる位置指令パラメータを選定する。動作模擬部68は、位置指令パラメータを再び受け取り、再計算の必要の有無を判定する。
 学習部64及び動作模擬部68の動作により、位置指令パラメータが簡易的に評価されて評価値が不良と判断される小さい値となる場合、位置指令パラメータが変更される。位置決め制御装置60は、学習部64及び動作模擬部68の動作に基づく位置指令パラメータの変更によって位置決め制御の実行回数を低減することができ、かつ位置指令パラメータを効率良く調整することができる。
 動作模擬部68は、入力される位置指令パラメータに対応する評価値Qの大小のみを判定することで位置決め制御の実行回数を低減することができる。動作模擬部68には、精緻な制御対象の模擬は必ずしも必要とされない。例えば、位置指令に対してローパスフィルタを適用した信号が、位置検出値を模擬した信号であってもよい。
 実施の形態6では、動作模擬部68は、位置検出値を模擬する信号に基づいて位置指令パラメータの再計算の必要の有無を判定する。しかしながら、動作模擬部68の動作はこれに限られない。図18で示された動作模擬対象68aに含まれる要素は、当該要素に限られない。例えば、動作模擬部68は、モータ1に与えられる電流の値を模擬し、模擬される電流の値があらかじめ決められた値以上である場合に位置指令パラメータの再計算を指示してもよい。
 動作模擬部68は、位置指令パラメータから生成される位置指令を模擬し、位置指令を模擬する信号が目標移動距離の値に到達する時間があらかじめ決められた時間以上である場合、位置指令パラメータの再計算を指示してもよい。動作模擬部68は、位置指令に対してローパスフィルタを適用した信号を微分することで速度指令又は加速度指令を模擬し、速度指令又は加速度指令を模擬する信号の最大値があらかじめ決められた値以上である場合、位置指令パラメータの再計算を指示してもよい。
 よって、実施の形態6にかかる位置決め制御装置60は、操作者の試行錯誤を必要とせず、位置指令パラメータを適切に調整することができる。上述のことから、位置決め制御装置60は、位置決め制御を高速化する良好な指令形状の調整を効率良く行うことができる。
 上述した実施の形態1から6までの位置決め制御装置10、位置決め制御装置20、位置決め制御装置30、位置決め制御装置40、位置決め制御装置50及び位置決め制御装置60の一部又は全部は、位置指令パラメータによって、加速の開始、加速の終了、減速の開始及び減速の終了の各時点における加速度の大きさのうちの2つ以上のものを独立に設定してもよい。
 実施の形態4にかかる位置決め制御装置40が有する位置指令生成部41、駆動制御部12、評価部43及び学習部44の一部又は全部の機能は、プロセッサ71と同等のプロセッサによって実現されてもよい。当該一部又は全部の機能がプロセッサによって実現される場合、位置決め制御装置40は、位置指令生成部41、駆動制御部12、評価部43及び学習部44の一部又は全部によって実行されるステップが結果的に実行されることになるプログラムを格納するためのメモリを有する。当該メモリは、メモリ72と同等のメモリである。
 実施の形態4にかかる位置決め制御装置40が有する位置指令生成部41、駆動制御部12、評価部43及び学習部44の一部又は全部の機能は、処理回路81と同等の処理回路によって実現されてもよい。
 実施の形態5にかかる位置決め制御装置50が有する位置指令生成部51、駆動制御部12、評価部13及び学習部54の一部又は全部の機能は、プロセッサ71と同等のプロセッサによって実現されてもよい。当該一部又は全部の機能がプロセッサによって実現される場合、位置決め制御装置50は、位置指令生成部51、駆動制御部12、評価部13及び学習部54の一部又は全部によって実行されるステップが結果的に実行されることになるプログラムを格納するためのメモリを有する。当該メモリは、メモリ72と同等のメモリである。
 実施の形態5にかかる位置決め制御装置50が有する位置指令生成部51、駆動制御部12、評価部13及び学習部54の一部又は全部の機能は、処理回路81と同等の処理回路によって実現されてもよい。
 実施の形態6にかかる位置決め制御装置60が有する位置指令生成部61、駆動制御部12、評価部13、学習部64及び動作模擬部68の一部又は全部の機能は、プロセッサ71と同等のプロセッサによって実現されてもよい。当該一部又は全部の機能がプロセッサによって実現される場合、位置決め制御装置60は、位置指令生成部61、駆動制御部12、評価部13、学習部64及び動作模擬部68の一部又は全部によって実行されるステップが結果的に実行されることになるプログラムを格納するためのメモリを有する。当該メモリは、メモリ72と同等のメモリである。
 実施の形態6にかかる位置決め制御装置60が有する位置指令生成部61、駆動制御部12、評価部13、学習部64及び動作模擬部68の一部又は全部の機能は、処理回路81と同等の処理回路によって実現されてもよい。
 以上の実施の形態に示した構成は、本発明の内容の一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、本発明の要旨を逸脱しない範囲で、構成の一部を省略又は変更することも可能である。
 1 モータ、2 ボールねじ、3 制御対象、4 位置検出器、10,20,30,40,50,60 位置決め制御装置、11,41,51,61 位置指令生成部、12 駆動制御部、13,33,43 評価部、14,44,54,64 学習部、15,25 学習結果保持部、16,26 パラメータ範囲設定部、17,27 運転条件、68 動作模擬部、68a 動作模擬対象、71 プロセッサ、72 メモリ、81 処理回路。

Claims (12)

  1.  モータを駆動させて制御対象を目標移動距離だけ移動させる位置決め制御装置であって、
     位置指令パラメータに基づいて加速区間及び減速区間の加速度の形状が決定される位置指令を生成する位置指令生成部と、
     前記モータ又は前記制御対象の位置検出値が前記位置指令に追従するように前記モータを駆動する駆動制御部と、
     前記制御対象についての位置決め制御の実行時の前記モータ又は前記制御対象の位置検出値に基づいて位置決め性能に関する評価値を算出する評価部と、
     前記位置指令パラメータに基づいて決定される加速区間と減速区間とにおける加速度の形状の各々を独立に変更しつつ、複数回の位置決め制御が実行された場合の前記位置指令パラメータと前記評価値との関係を学習し、前記位置指令パラメータと前記評価値との関係を学習して学習結果を得る学習部と
     を備えることを特徴とする位置決め制御装置。
  2.  前記学習部は、前記位置指令パラメータと前記評価値との関係式を前記学習結果として得る
     ことを特徴とする請求項1に記載の位置決め制御装置。
  3.  前記学習部は、前記位置指令パラメータに基づいて決定される加速区間と減速区間との各々における加速度の形状を疑似ランダム関数に基づいて独立に変更する
     ことを特徴とする請求項1に記載の位置決め制御装置。
  4.  前記学習部は、前記学習結果に基づいて、位置決め制御に用いられる前記位置指令パラメータを変更する
     ことを特徴とする請求項1から3のいずれか1項に記載の位置決め制御装置。
  5.  前記位置指令パラメータによって、加速の開始、加速の終了、減速の開始及び減速の終了の各時点における加速度の大きさのうちの2つ以上のものを独立に設定する
     ことを特徴とする請求項1から3のいずれか1項に記載の位置決め制御装置。
  6.  前記位置指令パラメータに基づいて前記制御対象の動作を模擬し、模擬した結果が事前に設定された制約条件を満たす場合、動作を模擬する際に用いた位置指令パラメータを前記位置指令生成部に出力する動作模擬部を更に備える
     ことを特徴とする請求項1から3のいずれか1項に記載の位置決め制御装置。
  7.  前記学習部によって得られた前記学習結果に基づいて、前記位置指令パラメータの上限値及び下限値を規定するパラメータ範囲を設定するパラメータ範囲設定部を更に備える
     ことを特徴とする請求項1から3のいずれか1項に記載の位置決め制御装置。
  8.  前記目標移動距離を示す情報を含む運転条件と前記学習部によって得られた前記学習結果とを対応付けて保持する学習結果保持部を更に備え、
     前記学習結果保持部は、ひとつ以上の前記位置指令パラメータを優良パラメータとして保持し、
     前記パラメータ範囲設定部は、前記学習結果保持部によって保持された前記優良パラメータより小さい値を前記パラメータ範囲の下限とすると共に、前記優良パラメータより大きい値を前記パラメータ範囲の上限として、前記パラメータ範囲を設定する
     ことを特徴とする請求項7に記載の位置決め制御装置。
  9.  前記目標移動距離を示す情報を含む運転条件と前記学習部によって得られた前記学習結果とを対応付けて保持する学習結果保持部を更に備え、
     前記学習結果保持部は、前記評価値が最大となる前記位置指令パラメータを第一の優良パラメータとして保持し、
     前記パラメータ範囲設定部は、前記運転条件に含まれる前記情報が示す前記目標移動距離が変更された場合、過去に学習が実行されたときの目標移動距離をもとに補間計算を行って、変更後の目標移動距離に対応する補間点の第一の優良パラメータを推定し、推定された前記補間点の第一の優良パラメータより小さい値を前記パラメータ範囲の下限とすると共に、推定された前記補間点の第一の優良パラメータより大きい値を前記パラメータ範囲の上限として、前記パラメータ範囲を設定する
     ことを特徴とする請求項7に記載の位置決め制御装置。
  10.  前記制御対象の目標停止位置の情報を含む運転条件と前記学習部によって得られた前記学習結果とを対応付けて保持する学習結果保持部を更に備え、
     前記学習結果保持部は、前記評価値が最大となる前記位置指令パラメータを第二の優良パラメータとして保持し、
     前記パラメータ範囲設定部は、前記運転条件に含まれる前記情報が示す前記目標停止位置が変更された場合、過去に学習が実行されたときの目標停止位置をもとに補間計算を行って、変更後の目標停止位置に対応する補間点の第二の優良パラメータを推定し、推定された前記補間点の第二の優良パラメータより小さい値を前記パラメータ範囲の下限とすると共に、推定された前記補間点の第二の優良パラメータより大きい値を前記パラメータ範囲の上限として、前記パラメータ範囲を設定する
     ことを特徴とする請求項7に記載の位置決め制御装置。
  11.  前記位置指令生成部は、前記学習部の学習によって得られた位置指令パラメータが設定されて前記位置指令を生成する学習器である
     ことを特徴とする請求項1に記載の位置決め制御装置。
  12.  モータを駆動させて制御対象を目標移動距離だけ移動させる位置決め方法であって、
     位置指令パラメータに基づいて加速区間及び減速区間の加速度の形状が決定される位置指令を生成するステップと、
     前記モータ又は前記制御対象の位置検出値が前記位置指令に追従するように前記モータを駆動するステップと、
     前記制御対象についての位置決め制御の実行時の前記モータ又は前記制御対象の位置検出値に基づいて位置決め性能に関する評価値を算出するステップと、
     前記位置指令パラメータに基づいて決定される加速区間と減速区間とにおける加速度の形状の各々を独立に変更しつつ、複数回の位置決め制御が実行された場合の前記位置指令パラメータと前記評価値との関係を学習し、学習結果に基づいて新たな位置指令パラメータを決定するステップと
     を含むことを特徴とする位置決め方法。
PCT/JP2019/003205 2018-10-12 2019-01-30 位置決め制御装置及び位置決め方法 WO2020075316A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020217009523A KR102494187B1 (ko) 2018-10-12 2019-01-30 위치 결정 제어 장치 및 위치 결정 방법
CN201980065678.9A CN112805653B (zh) 2018-10-12 2019-01-30 定位控制装置以及定位方法
JP2019549492A JP6664561B1 (ja) 2018-10-12 2019-01-30 位置決め制御装置及び位置決め方法
US17/280,190 US20220004160A1 (en) 2018-10-12 2019-01-30 Positioning control device and positioning method
TW109102714A TWI715425B (zh) 2018-10-12 2020-01-30 定位控制裝置及定位方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-193380 2018-10-12
JP2018193380 2018-10-12

Publications (1)

Publication Number Publication Date
WO2020075316A1 true WO2020075316A1 (ja) 2020-04-16

Family

ID=70164676

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/003205 WO2020075316A1 (ja) 2018-10-12 2019-01-30 位置決め制御装置及び位置決め方法

Country Status (4)

Country Link
KR (1) KR102494187B1 (ja)
CN (1) CN112805653B (ja)
TW (1) TWI715425B (ja)
WO (1) WO2020075316A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6800384B1 (ja) * 2020-03-04 2020-12-16 三菱電機株式会社 位置決め制御装置および位置決め方法
CN114754477A (zh) * 2022-04-28 2022-07-15 广州奥特信息科技股份有限公司 空调控制系统、方法、中央空调系统、装置及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04324507A (ja) * 1991-04-25 1992-11-13 Hitachi Ltd 駆動装置の加減速制御方法及びロボットシステム
JPH07244517A (ja) * 1994-03-04 1995-09-19 Mitsubishi Electric Corp モーション制御装置
JP2007034781A (ja) * 2005-07-28 2007-02-08 Fuji Electric Fa Components & Systems Co Ltd 位置決め制御装置の制御パラメータ調整方法
WO2012169278A1 (ja) * 2011-06-09 2012-12-13 三菱電機株式会社 モータ制御装置
JP2018126796A (ja) * 2017-02-06 2018-08-16 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4301491B2 (ja) 2003-02-05 2009-07-22 富士機械製造株式会社 電動機制御システムの自律設計方法及び自律設計装置並びに電動機制御システム
JP4324507B2 (ja) 2004-04-20 2009-09-02 浄史 松田 振動計測装置
JP4362572B2 (ja) * 2005-04-06 2009-11-11 独立行政法人 宇宙航空研究開発機構 ロバスト最適化問題を解く問題処理方法およびその装置
JP4850754B2 (ja) * 2007-02-28 2012-01-11 富士重工業株式会社 制御パラメータの自動適合システム
EP2178202A1 (en) * 2007-08-03 2010-04-21 Kabushiki Kaisha Yaskawa Denki Motor control device and gain adjustment method thereof
JP4698656B2 (ja) 2007-11-12 2011-06-08 三菱電機株式会社 制御システムおよび制御支援装置
SG11201401228XA (en) * 2011-10-21 2014-06-27 Prime Datum Inc Direct drive fan system with variable process control
JP5696171B2 (ja) * 2013-03-14 2015-04-08 株式会社東芝 制御パラメータ調整方法、制御パラメータ調整システム及び制御パラメータ設定装置
JP6347595B2 (ja) * 2013-11-25 2018-06-27 キヤノン株式会社 ロボット制御方法、及びロボット制御装置
CN103853046B (zh) * 2014-02-14 2017-10-10 广东工业大学 一种压电陶瓷驱动器的自适应学习控制方法
JP6338948B2 (ja) 2014-07-04 2018-06-06 株式会社日立産機システム 電動機制御装置及びそれに用いる制御パラメータ自動調整方法
JP5956619B2 (ja) * 2015-01-13 2016-07-27 ファナック株式会社 加工条件に応じてパラメータを調整するパラメータ自動調整装置
DE102015107583B4 (de) * 2015-05-13 2022-11-10 Egt Eppinger Getriebe Technologie Gmbh Positionierantrieb sowie Verfahren zum Positionieren eines Abtriebselements
JP6063013B1 (ja) * 2015-08-27 2017-01-18 ファナック株式会社 びびり或いは工具摩耗/破損の発生を抑制する加工条件調整機能を有する数値制御装置
JP6649023B2 (ja) * 2015-09-30 2020-02-19 ファナック株式会社 学習制御器の特性測定を行う機能を有するサーボ制御装置
JP2018126799A (ja) * 2017-02-06 2018-08-16 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
JP6538766B2 (ja) * 2017-07-18 2019-07-03 ファナック株式会社 機械学習装置、サーボモータ制御装置、サーボモータ制御システム、及び機械学習方法
CN107968613A (zh) * 2017-11-20 2018-04-27 无锡开放大学 一种基于递归模糊神经网络的永磁同步电机转速控制器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04324507A (ja) * 1991-04-25 1992-11-13 Hitachi Ltd 駆動装置の加減速制御方法及びロボットシステム
JPH07244517A (ja) * 1994-03-04 1995-09-19 Mitsubishi Electric Corp モーション制御装置
JP2007034781A (ja) * 2005-07-28 2007-02-08 Fuji Electric Fa Components & Systems Co Ltd 位置決め制御装置の制御パラメータ調整方法
WO2012169278A1 (ja) * 2011-06-09 2012-12-13 三菱電機株式会社 モータ制御装置
JP2018126796A (ja) * 2017-02-06 2018-08-16 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6800384B1 (ja) * 2020-03-04 2020-12-16 三菱電機株式会社 位置決め制御装置および位置決め方法
CN114754477A (zh) * 2022-04-28 2022-07-15 广州奥特信息科技股份有限公司 空调控制系统、方法、中央空调系统、装置及存储介质
CN114754477B (zh) * 2022-04-28 2023-11-28 广州奥特信息科技股份有限公司 空调控制系统、方法、中央空调系统、装置及存储介质

Also Published As

Publication number Publication date
TWI715425B (zh) 2021-01-01
KR102494187B1 (ko) 2023-01-31
CN112805653A (zh) 2021-05-14
TW202030562A (zh) 2020-08-16
CN112805653B (zh) 2024-02-02
KR20210042994A (ko) 2021-04-20

Similar Documents

Publication Publication Date Title
JP6664561B1 (ja) 位置決め制御装置及び位置決め方法
JP4223894B2 (ja) Pidパラメータ調整装置
TWI743986B (zh) 馬達控制裝置及馬達控制方法
JP2019530031A (ja) 反復運動制御の方法
EP0463934A1 (en) Time delay controlled processes
WO2020075316A1 (ja) 位置決め制御装置及び位置決め方法
JP4918682B2 (ja) 超音波モータの制御方法、超音波モータ制御装置及び超音波モータを制御するためのプログラム
JP2003334740A (ja) 許容速度決定方法および速度制御装置
CN107678276A (zh) 一种基于转台控制的自适应复合控制方法
JP4395556B2 (ja) 磁力支持装置の制御定数自動調整方法
WO2022009333A1 (ja) ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
JP6981579B2 (ja) 位置決め制御装置及び位置決め制御方法
JP2022024333A (ja) 付加製造装置および付加製造方法
JP6800384B1 (ja) 位置決め制御装置および位置決め方法
JP7305061B2 (ja) パラメータ調整装置およびパラメータ調整方法
JP2004280798A (ja) デバイス製造方法、この方法を実行するコンピュータ・プログラム、リソグラフィ装置、およびロボットシステム
KR100970539B1 (ko) 최적 지령 작성 장치
JP7415100B1 (ja) パラメータ調整装置およびパラメータ調整方法
JP2007004391A (ja) 生産・物流スケジュール作成装置及び方法、生産・物流プロセス制御装置及び方法、コンピュータプログラム、並びにコンピュータ読み取り可能な記録媒体
JP3834815B2 (ja) 最適指令作成装置
WO2024122066A1 (ja) パラメータ調整装置及びコンピュータ読み取り可能な記録媒体
Guerrero et al. Position control of a suspended mass through two cables under the effects of the catenary
CN112713830A (zh) 永磁同步电机调速系统及多目标最优状态反馈控制方法
JP2000181894A (ja) ニューラルネットワークの学習方法
JP3795815B2 (ja) 回転体の運動制御装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2019549492

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19871044

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20217009523

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19871044

Country of ref document: EP

Kind code of ref document: A1